Microsoft.Azure.Search.Models Namespace
Wichtig
Einige Informationen beziehen sich auf Vorabversionen, die vor dem Release ggf. grundlegend überarbeitet werden. Microsoft übernimmt hinsichtlich der hier bereitgestellten Informationen keine Gewährleistungen, seien sie ausdrücklich oder konkludent.
Klassen
AccessCondition |
Zusätzliche Parameter für eine Reihe von Vorgängen. |
Analyzer |
Abstrakte Basisklasse für Analysetools. |
AnalyzeRequest |
Gibt einige Text- und Analysekomponenten an, die verwendet werden, um diesen Text in Token zu unterteilen. |
AnalyzeResult |
Das Ergebnis des Testens eines Analysetools für Text. |
AnalyzerName.AsString |
Die Namen aller Analysetools als einfache Zeichenfolgen. |
AsciiFoldingTokenFilter |
Konvertiert alphabetische, numerische und symbolische Unicode-Zeichen, die sich nicht in den ersten 127 ASCII-Zeichen (dem Unicode-Block "Basic Latin") befinden, in ihre ASCII-Entsprechungen, sofern solche Entsprechungen vorhanden sind. Dieser Tokenfilter wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html |
AutocompleteItem |
Das Ergebnis von AutoVervollständigen-Anforderungen. |
AutocompleteParameters |
Zusätzliche Parameter für den AutoVervollständigen-Vorgang. |
AutocompleteResult |
Das Ergebnis der AutoVervollständigen-Abfrage. |
CharFilter |
Abstrakte Basisklasse für Zeichenfilter. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search |
CjkBigramTokenFilter |
Bildet Bigramme von CJK-Benennungen, die aus StandardTokenizer generiert werden. Dieser Tokenfilter wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html |
ClassicTokenizer |
Grammatikbasiertes Tokenizer, das sich für die Verarbeitung der meisten dokumente in europäischer Sprache eignet. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html |
CognitiveServices |
Abstrakte Basisklasse zum Beschreiben aller Cognitive Service-Ressourcen, die an das Skillset angefügt sind. |
CognitiveServicesByKey |
Eine Cognitive Service-Ressource, die mit einem Schlüssel bereitgestellt wird, der an ein Skillset angefügt ist. |
CommonGramTokenFilter |
Konstruiert Bigramme für häufig vorkommende Begriffe während der Indexierung. Einzelne Begriffe werden ebenfalls indexiert und mit Bigrammen überlagert. Dieser Tokenfilter wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html |
ConditionalSkill |
Ein Skill, der Szenarien ermöglicht, die einen booleschen Vorgang erfordern, um die Daten zu bestimmen, die einer Ausgabe zugewiesen werden sollen. https://docs.microsoft.com/azure/search/cognitive-search-skill-conditional |
CorsOptions |
Definiert Optionen zum Steuern der ressourcenübergreifenden Ressourcenfreigabe (Cross-Origin Resource Sharing, CORS) für einen Index. https://docs.microsoft.com/rest/api/searchservice/Create-Index |
CustomAnalyzer |
Ermöglicht Es Ihnen, die Kontrolle über den Prozess der Konvertierung von Text in indizierbare/durchsuchbare Token zu übernehmen. Es handelt sich um eine benutzerdefinierte Konfiguration, die aus einem einzelnen vordefinierten Tokenizer und einem oder mehreren Filtern besteht. Der Tokenizer ist für die Aufteilung von Text in Token verantwortlich, und die Filter zum Ändern von Token, die vom Tokenizer ausgegeben werden. |
DataChangeDetectionPolicy |
Abstrakte Basisklasse für Erkennungsrichtlinien zur Datenänderung. |
DataContainer |
Stellt Informationen über die Entität (z. B. Azure SQL Tabelle oder DocumentDb-Auflistung) dar, die indiziert wird. |
DataDeletionDetectionPolicy |
Abstrakte Basisklasse für die Erkennungsrichtlinien zum Löschen von Daten. |
DataSource |
Stellt eine Datenquellendefinition dar, die zum Konfigurieren eines Indexers verwendet werden kann. |
DataSourceCredentials |
Stellt die Anmeldeinformationen dar, mit denen die Verbindung zu einer Datenquelle hergestellt werden kann. |
DataSourceListResult |
Die Antwort aus einer Anforderung zum Auflisten von Datenquellen. Wenn dies erfolgreich ist, enthält sie die vollständigen Definitionen aller Datenquellen. |
DataType.AsString |
Die Namen aller Datentypen als einfache Zeichenfolgen. |
DataTypeExtensions |
Definiert Erweiterungsmethoden für |
DefaultCognitiveServices |
Ein leeres Objekt, das die Cognitive Service-Standardressource für ein Skillset darstellt. |
DictionaryDecompounderTokenFilter |
Zerlegt zusammengesetzte Wörter, die in vielen germanischen Sprachen vorkommen. Dieser Tokenfilter wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/compound/DictionaryCompoundWordTokenFilter.html |
DistanceScoringFunction |
Definiert eine Funktion, die die Bewertungen basierend auf der Entfernung von einem geografischen Standort erhöht. https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index |
DistanceScoringParameters |
Stellt Parameterwerte für eine Entfernungsbewertungsfunktion bereit. |
Document |
Stellt ein Dokument als Eigenschaftenbehälter dar. Dies ist nützlich für Szenarien, in denen das Indexschema nur zur Laufzeit bekannt ist. |
DocumentIndexResult |
Antwort mit der status von Vorgängen für alle Dokumente in der Indizierungsanforderung. |
DocumentSearchResult<T> |
Antwort mit Suchergebnissen aus einem Index. |
DocumentSuggestResult<T> |
Antwort mit Den Ergebnissen der Vorschlagsabfrage aus einem Index. |
EdgeNGramTokenFilter |
Generiert n-Gramm der angegebenen Größe(n), beginnend von der Vorder- oder Rückseite eines Eingabetokens. Dieser Tokenfilter wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html |
EdgeNGramTokenFilterV2 |
Generiert n-Gramm der angegebenen Größe(n), beginnend von der Vorder- oder Rückseite eines Eingabetokens. Dieser Tokenfilter wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html |
EdgeNGramTokenizer |
Tokenisiert die Eingabe von einer Kante in n Gramm der angegebenen Größe(n). Dieser Tokenizer wird mithilfe von Apache Lucene implementiert. https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html |
ElisionTokenFilter |
Entfernt Elisionen. Beispielsweise wird "l'avion" (die Ebene) in "avion" (Ebene) konvertiert. Dieser Tokenfilter wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html |
EntityRecognitionSkill |
Textanalyse-Entitätserkennung. https://docs.microsoft.com/azure/search/cognitive-search-skill-entity-recognition |
FacetResult |
Ein einzelner Bucket eines Facettenabfrageergebnisses. Gibt die Anzahl der Dokumente an, deren Feldwert in einen bestimmten Bereich fällt oder einen bestimmten Wert oder ein bestimmtes Intervall aufweist. |
Field |
Stellt ein Feld in einer Indexdefinition dar, das den Namen, den Datentyp und das Suchverhalten eines Felds beschreibt. https://docs.microsoft.com/rest/api/searchservice/Create-Index |
FieldMapping |
Definiert eine Zuordnung zwischen einem Feld in einer Datenquelle und einem Zielfeld in einem Index. https://docs.microsoft.com/azure/search/search-indexer-field-mappings |
FieldMappingFunction |
Stellt eine Funktion dar, die einen Wert aus einer Datenquelle vor der Indizierung transformiert. https://docs.microsoft.com/azure/search/search-indexer-field-mappings |
FreshnessScoringFunction |
Definiert eine Funktion, die die Bewertungen basierend auf dem Wert eines Datums-Uhrzeit-Felds erhöht. https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index |
FreshnessScoringParameters |
Stellt Parameterwerte für eine Aktualitätsbewertungsfunktion bereit. |
HighWaterMarkChangeDetectionPolicy |
Definiert eine Datenänderungserkennungsrichtlinie, die Änderungen basierend auf dem Wert einer Spalte mit hohen Werten erfasst. |
ImageAnalysisSkill |
Ein Skill, der Bilddateien analysiert. Es extrahiert einen umfangreichen Satz visueller Features basierend auf dem Bildinhalt. https://docs.microsoft.com/azure/search/cognitive-search-skill-image-analysis |
Index |
Stellt eine Suchindexdefinition dar, die die Felder und das Suchverhalten eines Indexes beschreibt. |
IndexAction |
Stellt Factorymethoden zum Erstellen einer Indexaktion bereit, die für ein Dokument ausgeführt wird. |
IndexAction<T> |
Stellt eine Indexaktion dar, die für ein Dokument ausgeführt wird. |
IndexBatch |
Stellt Factorymethoden zum Erstellen eines Batches von Dokumentschreibvorgängen bereit, die an den Suchindex gesendet werden sollen. |
IndexBatch<T> |
Enthält einen Batch von Dokumentschreibaktionen, die an den Index gesendet werden sollen. |
Indexer |
Stellt einen Indexer dar. https://docs.microsoft.com/rest/api/searchservice/Indexer-operations |
IndexerExecutionInfo |
Stellt den aktuellen Status und Ausführungsverlauf eines Indexers dar. |
IndexerExecutionResult |
Stellt das Ergebnis einer einzelnen Indexerausführung dar. |
IndexerLimits | |
IndexerListResult |
Die Antwort aus einer Anforderung zum Auflisten von Indexern. Bei erfolgreicher Ausführung werden die vollständigen Definitionen aller Indexer eingeschlossen. |
IndexGetStatisticsResult |
Statistiken für einen bestimmten Index. Statistiken werden in regelmäßigen Abständen gesammelt und sind nicht garantiert immer auf dem neuesten Stand. |
IndexingParameters |
Stellt die Parameter für die Indexerausführung dar. |
IndexingParametersExtensions |
Definiert Erweiterungsmethoden für die IndexingParameters-Klasse. |
IndexingResult |
Status eines Indizierungsvorgangs für ein einzelnes Dokument. |
IndexingSchedule |
Stellt einen Zeitplan für die Indexerausführung dar. |
IndexListResult |
Antwort von einer Anforderung für Listenindizes. Bei erfolgreicher Ausführung werden die vollständigen Definitionen aller Indizes eingeschlossen. |
InputFieldMappingEntry |
Eingabefeldzuordnung für einen Skill. |
ItemError |
Stellt einen Indizierungsfehler auf Element- oder Dokumentebene dar. |
ItemWarning |
Stellt eine Warnung auf Elementebene dar. |
KeepTokenFilter |
Ein Tokenfilter, der nur Token mit Text speichert, der in einer angegebenen Liste von Wörtern enthalten ist. Dieser Tokenfilter wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeepWordFilter.html |
KeyPhraseExtractionSkill |
Eine Qualifikation, die die Textanalyse für die Schlüsselbegriffserkennung verwendet. https://docs.microsoft.com/azure/search/cognitive-search-skill-keyphrases |
KeywordMarkerTokenFilter |
Begriffe werden als Schlüsselwörter gekennzeichnet. Dieser Tokenfilter wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordMarkerFilter.html |
KeywordTokenizer |
Gibt die gesamte Eingabe als ein einzelnes Token aus. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html |
KeywordTokenizerV2 |
Gibt die gesamte Eingabe als ein einzelnes Token aus. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html |
LanguageDetectionSkill |
Ein Skill, der die Sprache des Eingabetexts erkennt und einen einzelnen Sprachcode für jedes Dokument meldet, das für die Anforderung übermittelt wird. Der Sprachcode wird mit einem Score gekoppelt, der die Zuverlässigkeit der Analyse angibt. https://docs.microsoft.com/azure/search/cognitive-search-skill-language-detection |
LengthTokenFilter |
Entfernt die Wörter, die zu lang oder zu kurz sind. Dieser Tokenfilter wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html |
LimitTokenFilter |
Beschränkt die Anzahl der Token während der Indizierung. Dieser Tokenfilter wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html |
MagnitudeScoringFunction |
Definiert eine Funktion, die die Bewertungen basierend auf der Größe eines numerischen Felds erhöht. https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index |
MagnitudeScoringParameters |
Stellt Parameterwerte für eine Größenbewertungsfunktion bereit. |
MappingCharFilter |
Ein Zeichenfilter, der zuordnungsdefinierte Zuordnungen anwendet, die mit der Zuordnungsoption definiert sind. Der Abgleich ist umfangreich (der längste Musterabgleich an einem bestimmten Punkt wird verwendet). Eine Ersetzung kann eine leere Zeichenfolge sein. Dieser Zeichenfilter wird mit Apache Lucene implementiert. https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/MappingCharFilter.html |
MergeSkill |
Ein Skill zum Zusammenführen von zwei oder mehr Zeichenfolgen in einer einzelnen einheitlichen Zeichenfolge mit einem optionalen benutzerdefinierten Trennzeichen, das jeden Komponententeil trennt. https://docs.microsoft.com/azure/search/cognitive-search-skill-textmerger |
MicrosoftLanguageStemmingTokenizer |
Teilt Text nach sprachspezifischen Regeln auf und reduziert Wörter auf deren Grundformen. |
MicrosoftLanguageTokenizer |
Teilt Text mit sprachspezifische Regeln auf. |
NamedEntityRecognitionSkill |
Textanalyse benannte Entitätserkennung. Dieser Skill ist zugunsten von veraltet. EntityRecognitionSkillhttps://docs.microsoft.com/azure/search/cognitive-search-skill-named-entity-recognition |
NGramTokenFilter |
Generiert N-Gramme einer festgelegten Größe. Dieser Tokenfilter wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html |
NGramTokenFilterV2 |
Generiert N-Gramme einer festgelegten Größe. Dieser Tokenfilter wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html |
NGramTokenizer |
Tokenisiert die Eingabe in N-Gramme einer festgelegten Größe. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html |
OcrSkill |
Ein Skill, der Text aus Bilddateien extrahiert. https://docs.microsoft.com/azure/search/cognitive-search-skill-ocr |
OutputFieldMappingEntry |
Ausgabefeldzuordnung für einen Skill. https://docs.microsoft.com/rest/api/searchservice/naming-rules |
PathHierarchyTokenizer |
Tokenizer für pfadähnliche Hierarchien. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html |
PathHierarchyTokenizerV2 |
Tokenizer für pfadähnliche Hierarchien. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html |
PatternAnalyzer |
Trennt Text flexibel über ein reguläres Ausdrucksmuster in Begriffe. Dieses Analysetool wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html |
PatternCaptureTokenFilter |
Verwendet Java-Regexes, um mehrere Token auszustellen– eines für jede Erfassungsgruppe in einem oder mehreren Mustern. Dieser Tokenfilter wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternCaptureGroupTokenFilter.html |
PatternReplaceCharFilter |
Ein Zeichenfilter, der Zeichen in der Eingabezeichenfolge ersetzt. Er verwendet einen regulären Ausdruck, um zu erhaltende Zeichenfolgen zu identifizieren, und ein Ersatzmuster, um zu ersetzende Zeichen zu identifizieren. Angesichts des Eingabetexts "aa bb aa bb", des Musters "(aa)\s+(bb)" und des Ersatzes "$1#$2" wäre das Ergebnis beispielsweise "aa#bb aa#bb". Dieser Zeichenfilter wird mit Apache Lucene implementiert. https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternReplaceCharFilter.html |
PatternReplaceTokenFilter |
Ein Zeichenfilter, der Zeichen in der Eingabezeichenfolge ersetzt. Er verwendet einen regulären Ausdruck, um zu erhaltende Zeichenfolgen zu identifizieren, und ein Ersatzmuster, um zu ersetzende Zeichen zu identifizieren. Angesichts des Eingabetexts "aa bb aa bb", des Musters "(aa)\s+(bb)" und des Ersatzes "$1#$2" wäre das Ergebnis beispielsweise "aa#bb aa#bb". Dieser Tokenfilter wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternReplaceFilter.html |
PatternTokenizer |
Tokenizer, der regex-Musterabgleich verwendet, um unterschiedliche Token zu erstellen. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html |
PhoneticTokenFilter |
Erstellt Token für phonetische Übereinstimmungen. Dieser Tokenfilter wird mit Apache Lucene implementiert. https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html |
RangeFacetResult<T> |
Ein einzelner Bucket eines Bereichsfacetabfrageergebnisses, der die Anzahl von Dokumenten mit einem Feldwert meldet, der innerhalb eines bestimmten Bereichs liegt. |
ResourceCounter |
Stellt die Nutzung und das Kontingent einer Ressource dar. |
ScoringFunction |
Abstrakte Basisklasse für Funktionen, die Dokumentbewertungen während der Rangfolge ändern können. https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index |
ScoringParameter |
Stellt einen Parameterwert dar, der in Bewertungsfunktionen verwendet werden soll (z. B. referencePointParameter). |
ScoringProfile |
Definiert Parameter für einen Suchindex, die die Bewertung in Suchabfragen beeinflussen. https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index |
SearchContinuationToken |
Kapselt den Zustand, der erforderlich ist, um mit dem Abrufen von Suchergebnissen fortzufahren. Dies ist erforderlich, wenn Azure Cognitive Search eine Suchanforderung nicht mit einer einzigen Antwort erfüllen kann. |
SearchParameters |
Parameter zum Filtern, Sortieren, Faceting, Paging und anderen Suchabfrageverhalten. |
SearchRequestOptions |
Zusätzliche Parameter für eine Reihe von Vorgängen. |
SearchResult<T> |
Enthält ein Dokument, das von einer Suchabfrage gefunden wurde, sowie zugeordnete Metadaten. |
SentimentSkill |
Positive/negative Stimmungsanalyse der Textanalyse, bewertet als Gleitkommawert in einem Bereich von 0 bis 1. https://docs.microsoft.com/azure/search/cognitive-search-skill-sentiment |
SerializePropertyNamesAsCamelCaseAttribute |
Gibt an, dass die öffentlichen Eigenschaften eines Modelltyps als Camel-Case serialisiert werden sollen, um den Feldnamen eines Suchindexes zu entsprechen. |
ServiceCounters |
Stellt Ressourcenzähler und Kontingente auf Dienstebene dar. |
ServiceLimits |
Stellt verschiedene Servicelevelgrenzwerte dar. |
ServiceStatistics |
Antwort von einer Anforderung zum Abrufen von Dienststatistiken. Bei erfolgreicher Ausführung enthält sie Leistungsindikatoren und Grenzwerte für den Servicelevel. |
ShaperSkill |
Ein Skill zum Umgestalten der Ausgaben. Es erstellt einen komplexen Typ zur Unterstützung zusammengesetzter Felder (auch als mehrteilige Felder bezeichnet). https://docs.microsoft.com/azure/search/cognitive-search-skill-shaper |
ShingleTokenFilter |
Kombiniert Token zu einem einzelnen Token. Dieser Tokenfilter wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html |
Skill |
Abstrakte Basisklasse für Skills. https://docs.microsoft.com/azure/search/cognitive-search-predefined-skills |
Skillset |
Eine Liste der Qualifikationen. https://docs.microsoft.com/azure/search/cognitive-search-tutorial-blob |
SkillsetListResult |
Antwort aus einer Listen-Skillset-Anforderung. Wenn dies erfolgreich ist, enthält sie die vollständigen Definitionen aller Skillsets. |
SnowballTokenFilter |
Ein Filter, der Wörter mithilfe eines von Snowball generierten Stemmers vorgibt. Dieser Tokenfilter wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html |
SoftDeleteColumnDeletionDetectionPolicy |
Definiert eine Datenlöschungserkennungsrichtlinie, die eine Strategie zum vorläufigen Löschen implementiert. Es bestimmt, ob ein Element basierend auf dem Wert einer angegebenen Spalte "vorläufiges Löschen" gelöscht werden soll. |
SplitSkill |
Ein Skill zum Aufteilen einer Zeichenfolge in Textblöcke. https://docs.microsoft.com/azure/search/cognitive-search-skill-textsplit |
SqlIntegratedChangeTrackingPolicy |
Definiert eine Datenänderungserkennungsrichtlinie, die Änderungen mithilfe der Integrierten Änderungsnachverfolgung-Funktion von Azure SQL-Datenbank erfasst. |
StandardAnalyzer |
Apache Lucene-Standardanalyse; Besteht aus dem Standardtokenizer, dem Kleinbuchstabenfilter und dem Stoppfilter. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardAnalyzer.html |
StandardTokenizer |
Teilt Text gemäß den Regeln für Unicode-Textsegmentierung auf. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html |
StandardTokenizerV2 |
Teilt Text gemäß den Regeln für Unicode-Textsegmentierung auf. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html |
StemmerOverrideTokenFilter |
Bietet die Möglichkeit, andere Stemmingfilter mit benutzerwörterbuchbasiertem Stemming zu überschreiben. Alle wörterstammigen Begriffe werden als Schlüsselwörter markiert, sodass sie nicht mit Stemmeren in der Kette eingestammt werden. Muss vor dem Filter für die Wortstammerkennung platziert werden. Dieser Tokenfilter wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/StemmerOverrideFilter.html |
StemmerTokenFilter |
Sprachspezifischer Stammfilter. Dieser Tokenfilter wird mit Apache Lucene implementiert. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters |
StopAnalyzer |
Dividiert Text nicht in Buchstaben; Wendet die Kleinbuchstaben- und Stoppworttokenfilter an. Dieses Analysetool wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html |
StopwordsTokenFilter |
Entfernt Stoppwörter aus einem Tokenstream. Dieser Tokenfilter wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html |
Suggester |
Definiert, wie die Vorschlags-API auf eine Gruppe von Feldern im Index angewendet werden soll. |
SuggestParameters |
Parameter zum Filtern, Sortieren, Fuzzyabgleich und anderen Vorschlägen zum Abfrageverhalten. |
SuggestResult<T> |
Ein Ergebnis, das ein dokument enthält, das von einer Vorschlagsabfrage gefunden wurde, sowie zugeordnete Metadaten. |
SynonymMap |
Stellt eine Synonymzuordnungsdefinition dar. |
SynonymMapListResult |
Antwort von einer List SynonymMaps-Anforderung. Wenn dies erfolgreich ist, enthält sie die vollständigen Definitionen aller Synonymzuordnungen. |
SynonymTokenFilter |
Entspricht Synonymen mit einzelnen oder mehreren Wörtern in einem Tokenstream. Dieser Tokenfilter wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/synonym/SynonymFilter.html |
TagScoringFunction |
Definiert eine Funktion, die die Bewertungen von Dokumenten mit Zeichenfolgenwerten erhöht, die einer angegebenen Liste von Tags entsprechen. https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index |
TagScoringParameters |
Stellt Parameterwerte für eine Tagbewertungsfunktion bereit. |
TextTranslationSkill |
Eine Fähigkeit zum Übersetzen von Text aus einer Sprache in eine andere. https://docs.microsoft.com/azure/search/cognitive-search-skill-text-translation |
TextWeights |
Definiert Gewichtungen für Indexfelder, für die Übereinstimmungen die Bewertung in Suchabfragen verbessern sollen. |
TokenFilter |
Abstrakte Basisklasse für Tokenfilter. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search |
TokenInfo |
Informationen zu einem Token, das von einem Analysetool zurückgegeben wird. |
Tokenizer |
Abstrakte Basisklasse für Tokenizer. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search |
TruncateTokenFilter |
Schneidet die Begriffe auf eine bestimmte Länge ab. Dieser Tokenfilter wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html |
UaxUrlEmailTokenizer |
Tokenisiert URLs und E-Mails als ein Token. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html |
UniqueTokenFilter |
Filtert Token mit dem gleichen Text wie das vorherige Token heraus. Dieser Tokenfilter wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html |
ValueFacetResult<T> |
Ein einzelner Bucket eines einfachen oder Intervall-Facetabfrageergebnisses, der die Anzahl von Dokumenten mit einem Feld meldet, das innerhalb eines bestimmten Intervalls liegt oder einen bestimmten Wert aufweist. |
WebApiSkill |
Ein Skill, der einen Web-API-Endpunkt aufrufen kann, sodass Sie ein Skillset erweitern können, indem Sie Ihren benutzerdefinierten Code aufrufen. https://docs.microsoft.com/azure/search/cognitive-search-custom-skill-web-api |
WordDelimiterTokenFilter |
Unterteilt Wörter in Teilwörter und führt optionale Transformationen in Teilwortgruppen durch. Dieser Tokenfilter wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/WordDelimiterFilter.html |
Strukturen
AnalyzerName |
Definiert die Namen aller Textanalysetools, die von Azure Cognitive Search unterstützt werden. https://docs.microsoft.com/rest/api/searchservice/Language-support |
BlobExtractionMode |
Definiert, welche Teile eines Blobs vom Blob storage-Indexer indiziert werden. https://docs.microsoft.com/azure/search/search-howto-indexing-azure-blob-storage |
CharFilterName |
Definiert die Namen aller Zeichenfilter, die von Azure Cognitive Search unterstützt werden. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search |
DataSourceType |
Definiert den Typ einer Datenquelle. |
DataType |
Definiert den Datentyp eines Felds in einem Suchindex. |
NamedEntityRecognitionSkillLanguage |
Definiert das Format der unterstützten NamedEntityRecognitionSkill-Sprachcodes. |
RegexFlags |
Definiert Flags, die kombiniert werden können, um zu steuern, wie reguläre Ausdrücke im Musteranalyse- und Mustertokenprogramm verwendet werden. http://docs.oracle.com/javase/6/docs/api/java/util/regex/Pattern.html#field_summary |
TokenFilterName |
Definiert die Namen aller Tokenfilter, die von Azure Cognitive Search unterstützt werden. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search |
TokenizerName |
Definiert die Namen aller Tokenizer, die von Azure Cognitive Search unterstützt werden. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search |
Schnittstellen
IResourceWithETag |
Modellklassen, die diese Schnittstelle implementieren, stellen Ressourcen dar, die mit einer ETag-Version auf dem Server beibehalten werden. |
Enumerationen
AutocompleteMode |
Definiert Werte für AutoCompleteMode. |
CjkBigramTokenFilterScripts |
Definiert Werte für CjkBigramTokenFilterScripts. |
EdgeNGramTokenFilterSide |
Definiert Werte für EdgeNGramTokenFilterSide. |
EntityCategory |
Definiert Werte für EntityCategory. |
EntityRecognitionSkillLanguage |
Definiert Werte für EntityRecognitionSkillLanguage. |
FacetType |
Gibt den Typ eines Facettenabfrageergebnisses an. |
ImageAnalysisSkillLanguage |
Definiert Werte für ImageAnalysisSkillLanguage. |
ImageDetail |
Definiert Werte für ImageDetail. |
IndexActionType |
Definiert Werte für IndexActionType. |
IndexerExecutionStatus |
Definiert Werte für IndexerExecutionStatus. |
IndexerStatus |
Definiert Werte für IndexerStatus. |
KeyPhraseExtractionSkillLanguage |
Definiert Werte für KeyPhraseExtractionSkillLanguage. |
MicrosoftStemmingTokenizerLanguage |
Definiert Werte für MicrosoftStemmingTokenizerLanguage. |
MicrosoftTokenizerLanguage |
Definiert Werte für MicrosoftTokenizerLanguage. |
NamedEntityCategory |
Definiert Werte für NamedEntityCategory. Dies ist veraltet. Verwenden Sie EntityCategory stattdessen |
OcrSkillLanguage |
Definiert Werte für OcrSkillLanguage. |
PhoneticEncoder |
Definiert Werte für PhoneticEncoder. |
QueryType |
Definiert Werte für QueryType. |
ScoringFunctionAggregation |
Definiert Werte für ScoringFunctionAggregation. |
ScoringFunctionInterpolation |
Definiert Werte für ScoringFunctionInterpolation. |
SearchMode |
Definiert Werte für SearchMode. |
SentimentSkillLanguage |
Definiert Werte für SentimentSkillLanguage. |
SnowballTokenFilterLanguage |
Definiert Werte für SnowballTokenFilterLanguage. |
SplitSkillLanguage |
Definiert Werte für SplitSkillLanguage. |
StemmerTokenFilterLanguage |
Definiert Werte für StemmerTokenFilterLanguage. |
StopwordsList |
Definiert Werte für StopwordsList. |
TextExtractionAlgorithm |
Definiert Werte für TextExtractionAlgorithm. |
TextSplitMode |
Definiert Werte für TextSplitMode. |
TextTranslationSkillLanguage |
Definiert Werte für TextTranslationSkillLanguage. |
TokenCharacterKind |
Definiert Werte für TokenCharacterKind. |
VisualFeature |
Definiert Werte für VisualFeature. |
Azure SDK for .NET