Microsoft.Azure.Search.Models Namespace

Klassen

AccessCondition

Zusätzliche Parameter für eine Reihe von Vorgängen.

Analyzer

Abstrakte Basisklasse für Analysetools.

AnalyzeRequest

Gibt einige Text- und Analysekomponenten an, die verwendet werden, um diesen Text in Token zu unterteilen.

AnalyzeResult

Das Ergebnis des Testens eines Analysetools für Text.

AnalyzerName.AsString

Die Namen aller Analysetools als einfache Zeichenfolgen.

AsciiFoldingTokenFilter

Konvertiert alphabetische, numerische und symbolische Unicode-Zeichen, die sich nicht in den ersten 127 ASCII-Zeichen (dem Unicode-Block "Basic Latin") befinden, in ihre ASCII-Entsprechungen, sofern solche Entsprechungen vorhanden sind. Dieser Tokenfilter wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html

AutocompleteItem

Das Ergebnis von AutoVervollständigen-Anforderungen.

AutocompleteParameters

Zusätzliche Parameter für den AutoVervollständigen-Vorgang.

AutocompleteResult

Das Ergebnis der AutoVervollständigen-Abfrage.

CharFilter

Abstrakte Basisklasse für Zeichenfilter. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search

CjkBigramTokenFilter

Bildet Bigramme von CJK-Benennungen, die aus StandardTokenizer generiert werden. Dieser Tokenfilter wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html

ClassicTokenizer

Grammatikbasiertes Tokenizer, das sich für die Verarbeitung der meisten dokumente in europäischer Sprache eignet. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html

CognitiveServices

Abstrakte Basisklasse zum Beschreiben aller Cognitive Service-Ressourcen, die an das Skillset angefügt sind.

CognitiveServicesByKey

Eine Cognitive Service-Ressource, die mit einem Schlüssel bereitgestellt wird, der an ein Skillset angefügt ist.

CommonGramTokenFilter

Konstruiert Bigramme für häufig vorkommende Begriffe während der Indexierung. Einzelne Begriffe werden ebenfalls indexiert und mit Bigrammen überlagert. Dieser Tokenfilter wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html

ConditionalSkill

Ein Skill, der Szenarien ermöglicht, die einen booleschen Vorgang erfordern, um die Daten zu bestimmen, die einer Ausgabe zugewiesen werden sollen. https://docs.microsoft.com/azure/search/cognitive-search-skill-conditional

CorsOptions

Definiert Optionen zum Steuern der ressourcenübergreifenden Ressourcenfreigabe (Cross-Origin Resource Sharing, CORS) für einen Index. https://docs.microsoft.com/rest/api/searchservice/Create-Index

CustomAnalyzer

Ermöglicht Es Ihnen, die Kontrolle über den Prozess der Konvertierung von Text in indizierbare/durchsuchbare Token zu übernehmen. Es handelt sich um eine benutzerdefinierte Konfiguration, die aus einem einzelnen vordefinierten Tokenizer und einem oder mehreren Filtern besteht. Der Tokenizer ist für die Aufteilung von Text in Token verantwortlich, und die Filter zum Ändern von Token, die vom Tokenizer ausgegeben werden.

DataChangeDetectionPolicy

Abstrakte Basisklasse für Erkennungsrichtlinien zur Datenänderung.

DataContainer

Stellt Informationen über die Entität (z. B. Azure SQL Tabelle oder DocumentDb-Auflistung) dar, die indiziert wird.

DataDeletionDetectionPolicy

Abstrakte Basisklasse für die Erkennungsrichtlinien zum Löschen von Daten.

DataSource

Stellt eine Datenquellendefinition dar, die zum Konfigurieren eines Indexers verwendet werden kann.

DataSourceCredentials

Stellt die Anmeldeinformationen dar, mit denen die Verbindung zu einer Datenquelle hergestellt werden kann.

DataSourceListResult

Die Antwort aus einer Anforderung zum Auflisten von Datenquellen. Wenn dies erfolgreich ist, enthält sie die vollständigen Definitionen aller Datenquellen.

DataType.AsString

Die Namen aller Datentypen als einfache Zeichenfolgen.

DataTypeExtensions

Definiert Erweiterungsmethoden für DataType.

DefaultCognitiveServices

Ein leeres Objekt, das die Cognitive Service-Standardressource für ein Skillset darstellt.

DictionaryDecompounderTokenFilter

Zerlegt zusammengesetzte Wörter, die in vielen germanischen Sprachen vorkommen. Dieser Tokenfilter wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/compound/DictionaryCompoundWordTokenFilter.html

DistanceScoringFunction

Definiert eine Funktion, die die Bewertungen basierend auf der Entfernung von einem geografischen Standort erhöht. https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index

DistanceScoringParameters

Stellt Parameterwerte für eine Entfernungsbewertungsfunktion bereit.

Document

Stellt ein Dokument als Eigenschaftenbehälter dar. Dies ist nützlich für Szenarien, in denen das Indexschema nur zur Laufzeit bekannt ist.

DocumentIndexResult

Antwort mit der status von Vorgängen für alle Dokumente in der Indizierungsanforderung.

DocumentSearchResult<T>

Antwort mit Suchergebnissen aus einem Index.

DocumentSuggestResult<T>

Antwort mit Den Ergebnissen der Vorschlagsabfrage aus einem Index.

EdgeNGramTokenFilter

Generiert n-Gramm der angegebenen Größe(n), beginnend von der Vorder- oder Rückseite eines Eingabetokens. Dieser Tokenfilter wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html

EdgeNGramTokenFilterV2

Generiert n-Gramm der angegebenen Größe(n), beginnend von der Vorder- oder Rückseite eines Eingabetokens. Dieser Tokenfilter wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html

EdgeNGramTokenizer

Tokenisiert die Eingabe von einer Kante in n Gramm der angegebenen Größe(n). Dieser Tokenizer wird mithilfe von Apache Lucene implementiert. https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html

ElisionTokenFilter

Entfernt Elisionen. Beispielsweise wird "l'avion" (die Ebene) in "avion" (Ebene) konvertiert. Dieser Tokenfilter wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html

EntityRecognitionSkill

Textanalyse-Entitätserkennung. https://docs.microsoft.com/azure/search/cognitive-search-skill-entity-recognition

FacetResult

Ein einzelner Bucket eines Facettenabfrageergebnisses. Gibt die Anzahl der Dokumente an, deren Feldwert in einen bestimmten Bereich fällt oder einen bestimmten Wert oder ein bestimmtes Intervall aufweist.

Field

Stellt ein Feld in einer Indexdefinition dar, das den Namen, den Datentyp und das Suchverhalten eines Felds beschreibt. https://docs.microsoft.com/rest/api/searchservice/Create-Index

FieldMapping

Definiert eine Zuordnung zwischen einem Feld in einer Datenquelle und einem Zielfeld in einem Index. https://docs.microsoft.com/azure/search/search-indexer-field-mappings

FieldMappingFunction

Stellt eine Funktion dar, die einen Wert aus einer Datenquelle vor der Indizierung transformiert. https://docs.microsoft.com/azure/search/search-indexer-field-mappings

FreshnessScoringFunction

Definiert eine Funktion, die die Bewertungen basierend auf dem Wert eines Datums-Uhrzeit-Felds erhöht. https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index

FreshnessScoringParameters

Stellt Parameterwerte für eine Aktualitätsbewertungsfunktion bereit.

HighWaterMarkChangeDetectionPolicy

Definiert eine Datenänderungserkennungsrichtlinie, die Änderungen basierend auf dem Wert einer Spalte mit hohen Werten erfasst.

ImageAnalysisSkill

Ein Skill, der Bilddateien analysiert. Es extrahiert einen umfangreichen Satz visueller Features basierend auf dem Bildinhalt. https://docs.microsoft.com/azure/search/cognitive-search-skill-image-analysis

Index

Stellt eine Suchindexdefinition dar, die die Felder und das Suchverhalten eines Indexes beschreibt.

IndexAction

Stellt Factorymethoden zum Erstellen einer Indexaktion bereit, die für ein Dokument ausgeführt wird.

IndexAction<T>

Stellt eine Indexaktion dar, die für ein Dokument ausgeführt wird.

IndexBatch

Stellt Factorymethoden zum Erstellen eines Batches von Dokumentschreibvorgängen bereit, die an den Suchindex gesendet werden sollen.

IndexBatch<T>

Enthält einen Batch von Dokumentschreibaktionen, die an den Index gesendet werden sollen.

Indexer

Stellt einen Indexer dar. https://docs.microsoft.com/rest/api/searchservice/Indexer-operations

IndexerExecutionInfo

Stellt den aktuellen Status und Ausführungsverlauf eines Indexers dar.

IndexerExecutionResult

Stellt das Ergebnis einer einzelnen Indexerausführung dar.

IndexerLimits
IndexerListResult

Die Antwort aus einer Anforderung zum Auflisten von Indexern. Bei erfolgreicher Ausführung werden die vollständigen Definitionen aller Indexer eingeschlossen.

IndexGetStatisticsResult

Statistiken für einen bestimmten Index. Statistiken werden in regelmäßigen Abständen gesammelt und sind nicht garantiert immer auf dem neuesten Stand.

IndexingParameters

Stellt die Parameter für die Indexerausführung dar.

IndexingParametersExtensions

Definiert Erweiterungsmethoden für die IndexingParameters-Klasse.

IndexingResult

Status eines Indizierungsvorgangs für ein einzelnes Dokument.

IndexingSchedule

Stellt einen Zeitplan für die Indexerausführung dar.

IndexListResult

Antwort von einer Anforderung für Listenindizes. Bei erfolgreicher Ausführung werden die vollständigen Definitionen aller Indizes eingeschlossen.

InputFieldMappingEntry

Eingabefeldzuordnung für einen Skill.

ItemError

Stellt einen Indizierungsfehler auf Element- oder Dokumentebene dar.

ItemWarning

Stellt eine Warnung auf Elementebene dar.

KeepTokenFilter

Ein Tokenfilter, der nur Token mit Text speichert, der in einer angegebenen Liste von Wörtern enthalten ist. Dieser Tokenfilter wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeepWordFilter.html

KeyPhraseExtractionSkill

Eine Qualifikation, die die Textanalyse für die Schlüsselbegriffserkennung verwendet. https://docs.microsoft.com/azure/search/cognitive-search-skill-keyphrases

KeywordMarkerTokenFilter

Begriffe werden als Schlüsselwörter gekennzeichnet. Dieser Tokenfilter wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordMarkerFilter.html

KeywordTokenizer

Gibt die gesamte Eingabe als ein einzelnes Token aus. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html

KeywordTokenizerV2

Gibt die gesamte Eingabe als ein einzelnes Token aus. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html

LanguageDetectionSkill

Ein Skill, der die Sprache des Eingabetexts erkennt und einen einzelnen Sprachcode für jedes Dokument meldet, das für die Anforderung übermittelt wird. Der Sprachcode wird mit einem Score gekoppelt, der die Zuverlässigkeit der Analyse angibt. https://docs.microsoft.com/azure/search/cognitive-search-skill-language-detection

LengthTokenFilter

Entfernt die Wörter, die zu lang oder zu kurz sind. Dieser Tokenfilter wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html

LimitTokenFilter

Beschränkt die Anzahl der Token während der Indizierung. Dieser Tokenfilter wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html

MagnitudeScoringFunction

Definiert eine Funktion, die die Bewertungen basierend auf der Größe eines numerischen Felds erhöht. https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index

MagnitudeScoringParameters

Stellt Parameterwerte für eine Größenbewertungsfunktion bereit.

MappingCharFilter

Ein Zeichenfilter, der zuordnungsdefinierte Zuordnungen anwendet, die mit der Zuordnungsoption definiert sind. Der Abgleich ist umfangreich (der längste Musterabgleich an einem bestimmten Punkt wird verwendet). Eine Ersetzung kann eine leere Zeichenfolge sein. Dieser Zeichenfilter wird mit Apache Lucene implementiert. https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/MappingCharFilter.html

MergeSkill

Ein Skill zum Zusammenführen von zwei oder mehr Zeichenfolgen in einer einzelnen einheitlichen Zeichenfolge mit einem optionalen benutzerdefinierten Trennzeichen, das jeden Komponententeil trennt. https://docs.microsoft.com/azure/search/cognitive-search-skill-textmerger

MicrosoftLanguageStemmingTokenizer

Teilt Text nach sprachspezifischen Regeln auf und reduziert Wörter auf deren Grundformen.

MicrosoftLanguageTokenizer

Teilt Text mit sprachspezifische Regeln auf.

NamedEntityRecognitionSkill

Textanalyse benannte Entitätserkennung. Dieser Skill ist zugunsten von veraltet. EntityRecognitionSkillhttps://docs.microsoft.com/azure/search/cognitive-search-skill-named-entity-recognition

NGramTokenFilter

Generiert N-Gramme einer festgelegten Größe. Dieser Tokenfilter wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html

NGramTokenFilterV2

Generiert N-Gramme einer festgelegten Größe. Dieser Tokenfilter wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html

NGramTokenizer

Tokenisiert die Eingabe in N-Gramme einer festgelegten Größe. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html

OcrSkill

Ein Skill, der Text aus Bilddateien extrahiert. https://docs.microsoft.com/azure/search/cognitive-search-skill-ocr

OutputFieldMappingEntry

Ausgabefeldzuordnung für einen Skill. https://docs.microsoft.com/rest/api/searchservice/naming-rules

PathHierarchyTokenizer

Tokenizer für pfadähnliche Hierarchien. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html

PathHierarchyTokenizerV2

Tokenizer für pfadähnliche Hierarchien. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html

PatternAnalyzer

Trennt Text flexibel über ein reguläres Ausdrucksmuster in Begriffe. Dieses Analysetool wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html

PatternCaptureTokenFilter

Verwendet Java-Regexes, um mehrere Token auszustellen– eines für jede Erfassungsgruppe in einem oder mehreren Mustern. Dieser Tokenfilter wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternCaptureGroupTokenFilter.html

PatternReplaceCharFilter

Ein Zeichenfilter, der Zeichen in der Eingabezeichenfolge ersetzt. Er verwendet einen regulären Ausdruck, um zu erhaltende Zeichenfolgen zu identifizieren, und ein Ersatzmuster, um zu ersetzende Zeichen zu identifizieren. Angesichts des Eingabetexts "aa bb aa bb", des Musters "(aa)\s+(bb)" und des Ersatzes "$1#$2" wäre das Ergebnis beispielsweise "aa#bb aa#bb". Dieser Zeichenfilter wird mit Apache Lucene implementiert. https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternReplaceCharFilter.html

PatternReplaceTokenFilter

Ein Zeichenfilter, der Zeichen in der Eingabezeichenfolge ersetzt. Er verwendet einen regulären Ausdruck, um zu erhaltende Zeichenfolgen zu identifizieren, und ein Ersatzmuster, um zu ersetzende Zeichen zu identifizieren. Angesichts des Eingabetexts "aa bb aa bb", des Musters "(aa)\s+(bb)" und des Ersatzes "$1#$2" wäre das Ergebnis beispielsweise "aa#bb aa#bb". Dieser Tokenfilter wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternReplaceFilter.html

PatternTokenizer

Tokenizer, der regex-Musterabgleich verwendet, um unterschiedliche Token zu erstellen. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html

PhoneticTokenFilter

Erstellt Token für phonetische Übereinstimmungen. Dieser Tokenfilter wird mit Apache Lucene implementiert. https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html

RangeFacetResult<T>

Ein einzelner Bucket eines Bereichsfacetabfrageergebnisses, der die Anzahl von Dokumenten mit einem Feldwert meldet, der innerhalb eines bestimmten Bereichs liegt.

ResourceCounter

Stellt die Nutzung und das Kontingent einer Ressource dar.

ScoringFunction

Abstrakte Basisklasse für Funktionen, die Dokumentbewertungen während der Rangfolge ändern können. https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index

ScoringParameter

Stellt einen Parameterwert dar, der in Bewertungsfunktionen verwendet werden soll (z. B. referencePointParameter).

ScoringProfile

Definiert Parameter für einen Suchindex, die die Bewertung in Suchabfragen beeinflussen. https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index

SearchContinuationToken

Kapselt den Zustand, der erforderlich ist, um mit dem Abrufen von Suchergebnissen fortzufahren. Dies ist erforderlich, wenn Azure Cognitive Search eine Suchanforderung nicht mit einer einzigen Antwort erfüllen kann.

SearchParameters

Parameter zum Filtern, Sortieren, Faceting, Paging und anderen Suchabfrageverhalten.

SearchRequestOptions

Zusätzliche Parameter für eine Reihe von Vorgängen.

SearchResult<T>

Enthält ein Dokument, das von einer Suchabfrage gefunden wurde, sowie zugeordnete Metadaten.

SentimentSkill

Positive/negative Stimmungsanalyse der Textanalyse, bewertet als Gleitkommawert in einem Bereich von 0 bis 1. https://docs.microsoft.com/azure/search/cognitive-search-skill-sentiment

SerializePropertyNamesAsCamelCaseAttribute

Gibt an, dass die öffentlichen Eigenschaften eines Modelltyps als Camel-Case serialisiert werden sollen, um den Feldnamen eines Suchindexes zu entsprechen.

ServiceCounters

Stellt Ressourcenzähler und Kontingente auf Dienstebene dar.

ServiceLimits

Stellt verschiedene Servicelevelgrenzwerte dar.

ServiceStatistics

Antwort von einer Anforderung zum Abrufen von Dienststatistiken. Bei erfolgreicher Ausführung enthält sie Leistungsindikatoren und Grenzwerte für den Servicelevel.

ShaperSkill

Ein Skill zum Umgestalten der Ausgaben. Es erstellt einen komplexen Typ zur Unterstützung zusammengesetzter Felder (auch als mehrteilige Felder bezeichnet). https://docs.microsoft.com/azure/search/cognitive-search-skill-shaper

ShingleTokenFilter

Kombiniert Token zu einem einzelnen Token. Dieser Tokenfilter wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html

Skill

Abstrakte Basisklasse für Skills. https://docs.microsoft.com/azure/search/cognitive-search-predefined-skills

Skillset

Eine Liste der Qualifikationen. https://docs.microsoft.com/azure/search/cognitive-search-tutorial-blob

SkillsetListResult

Antwort aus einer Listen-Skillset-Anforderung. Wenn dies erfolgreich ist, enthält sie die vollständigen Definitionen aller Skillsets.

SnowballTokenFilter

Ein Filter, der Wörter mithilfe eines von Snowball generierten Stemmers vorgibt. Dieser Tokenfilter wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html

SoftDeleteColumnDeletionDetectionPolicy

Definiert eine Datenlöschungserkennungsrichtlinie, die eine Strategie zum vorläufigen Löschen implementiert. Es bestimmt, ob ein Element basierend auf dem Wert einer angegebenen Spalte "vorläufiges Löschen" gelöscht werden soll.

SplitSkill

Ein Skill zum Aufteilen einer Zeichenfolge in Textblöcke. https://docs.microsoft.com/azure/search/cognitive-search-skill-textsplit

SqlIntegratedChangeTrackingPolicy

Definiert eine Datenänderungserkennungsrichtlinie, die Änderungen mithilfe der Integrierten Änderungsnachverfolgung-Funktion von Azure SQL-Datenbank erfasst.

StandardAnalyzer

Apache Lucene-Standardanalyse; Besteht aus dem Standardtokenizer, dem Kleinbuchstabenfilter und dem Stoppfilter. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardAnalyzer.html

StandardTokenizer

Teilt Text gemäß den Regeln für Unicode-Textsegmentierung auf. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html

StandardTokenizerV2

Teilt Text gemäß den Regeln für Unicode-Textsegmentierung auf. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html

StemmerOverrideTokenFilter

Bietet die Möglichkeit, andere Stemmingfilter mit benutzerwörterbuchbasiertem Stemming zu überschreiben. Alle wörterstammigen Begriffe werden als Schlüsselwörter markiert, sodass sie nicht mit Stemmeren in der Kette eingestammt werden. Muss vor dem Filter für die Wortstammerkennung platziert werden. Dieser Tokenfilter wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/StemmerOverrideFilter.html

StemmerTokenFilter

Sprachspezifischer Stammfilter. Dieser Tokenfilter wird mit Apache Lucene implementiert. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters

StopAnalyzer

Dividiert Text nicht in Buchstaben; Wendet die Kleinbuchstaben- und Stoppworttokenfilter an. Dieses Analysetool wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html

StopwordsTokenFilter

Entfernt Stoppwörter aus einem Tokenstream. Dieser Tokenfilter wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html

Suggester

Definiert, wie die Vorschlags-API auf eine Gruppe von Feldern im Index angewendet werden soll.

SuggestParameters

Parameter zum Filtern, Sortieren, Fuzzyabgleich und anderen Vorschlägen zum Abfrageverhalten.

SuggestResult<T>

Ein Ergebnis, das ein dokument enthält, das von einer Vorschlagsabfrage gefunden wurde, sowie zugeordnete Metadaten.

SynonymMap

Stellt eine Synonymzuordnungsdefinition dar.

SynonymMapListResult

Antwort von einer List SynonymMaps-Anforderung. Wenn dies erfolgreich ist, enthält sie die vollständigen Definitionen aller Synonymzuordnungen.

SynonymTokenFilter

Entspricht Synonymen mit einzelnen oder mehreren Wörtern in einem Tokenstream. Dieser Tokenfilter wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/synonym/SynonymFilter.html

TagScoringFunction

Definiert eine Funktion, die die Bewertungen von Dokumenten mit Zeichenfolgenwerten erhöht, die einer angegebenen Liste von Tags entsprechen. https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index

TagScoringParameters

Stellt Parameterwerte für eine Tagbewertungsfunktion bereit.

TextTranslationSkill

Eine Fähigkeit zum Übersetzen von Text aus einer Sprache in eine andere. https://docs.microsoft.com/azure/search/cognitive-search-skill-text-translation

TextWeights

Definiert Gewichtungen für Indexfelder, für die Übereinstimmungen die Bewertung in Suchabfragen verbessern sollen.

TokenFilter

Abstrakte Basisklasse für Tokenfilter. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search

TokenInfo

Informationen zu einem Token, das von einem Analysetool zurückgegeben wird.

Tokenizer

Abstrakte Basisklasse für Tokenizer. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search

TruncateTokenFilter

Schneidet die Begriffe auf eine bestimmte Länge ab. Dieser Tokenfilter wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html

UaxUrlEmailTokenizer

Tokenisiert URLs und E-Mails als ein Token. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html

UniqueTokenFilter

Filtert Token mit dem gleichen Text wie das vorherige Token heraus. Dieser Tokenfilter wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html

ValueFacetResult<T>

Ein einzelner Bucket eines einfachen oder Intervall-Facetabfrageergebnisses, der die Anzahl von Dokumenten mit einem Feld meldet, das innerhalb eines bestimmten Intervalls liegt oder einen bestimmten Wert aufweist.

WebApiSkill

Ein Skill, der einen Web-API-Endpunkt aufrufen kann, sodass Sie ein Skillset erweitern können, indem Sie Ihren benutzerdefinierten Code aufrufen. https://docs.microsoft.com/azure/search/cognitive-search-custom-skill-web-api

WordDelimiterTokenFilter

Unterteilt Wörter in Teilwörter und führt optionale Transformationen in Teilwortgruppen durch. Dieser Tokenfilter wird mit Apache Lucene implementiert. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/WordDelimiterFilter.html

Strukturen

AnalyzerName

Definiert die Namen aller Textanalysetools, die von Azure Cognitive Search unterstützt werden. https://docs.microsoft.com/rest/api/searchservice/Language-support

BlobExtractionMode

Definiert, welche Teile eines Blobs vom Blob storage-Indexer indiziert werden. https://docs.microsoft.com/azure/search/search-howto-indexing-azure-blob-storage

CharFilterName

Definiert die Namen aller Zeichenfilter, die von Azure Cognitive Search unterstützt werden. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search

DataSourceType

Definiert den Typ einer Datenquelle.

DataType

Definiert den Datentyp eines Felds in einem Suchindex.

NamedEntityRecognitionSkillLanguage

Definiert das Format der unterstützten NamedEntityRecognitionSkill-Sprachcodes.

RegexFlags

Definiert Flags, die kombiniert werden können, um zu steuern, wie reguläre Ausdrücke im Musteranalyse- und Mustertokenprogramm verwendet werden. http://docs.oracle.com/javase/6/docs/api/java/util/regex/Pattern.html#field_summary

TokenFilterName

Definiert die Namen aller Tokenfilter, die von Azure Cognitive Search unterstützt werden. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search

TokenizerName

Definiert die Namen aller Tokenizer, die von Azure Cognitive Search unterstützt werden. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search

Schnittstellen

IResourceWithETag

Modellklassen, die diese Schnittstelle implementieren, stellen Ressourcen dar, die mit einer ETag-Version auf dem Server beibehalten werden.

Enumerationen

AutocompleteMode

Definiert Werte für AutoCompleteMode.

CjkBigramTokenFilterScripts

Definiert Werte für CjkBigramTokenFilterScripts.

EdgeNGramTokenFilterSide

Definiert Werte für EdgeNGramTokenFilterSide.

EntityCategory

Definiert Werte für EntityCategory.

EntityRecognitionSkillLanguage

Definiert Werte für EntityRecognitionSkillLanguage.

FacetType

Gibt den Typ eines Facettenabfrageergebnisses an.

ImageAnalysisSkillLanguage

Definiert Werte für ImageAnalysisSkillLanguage.

ImageDetail

Definiert Werte für ImageDetail.

IndexActionType

Definiert Werte für IndexActionType.

IndexerExecutionStatus

Definiert Werte für IndexerExecutionStatus.

IndexerStatus

Definiert Werte für IndexerStatus.

KeyPhraseExtractionSkillLanguage

Definiert Werte für KeyPhraseExtractionSkillLanguage.

MicrosoftStemmingTokenizerLanguage

Definiert Werte für MicrosoftStemmingTokenizerLanguage.

MicrosoftTokenizerLanguage

Definiert Werte für MicrosoftTokenizerLanguage.

NamedEntityCategory

Definiert Werte für NamedEntityCategory. Dies ist veraltet. Verwenden Sie EntityCategory stattdessen

OcrSkillLanguage

Definiert Werte für OcrSkillLanguage.

PhoneticEncoder

Definiert Werte für PhoneticEncoder.

QueryType

Definiert Werte für QueryType.

ScoringFunctionAggregation

Definiert Werte für ScoringFunctionAggregation.

ScoringFunctionInterpolation

Definiert Werte für ScoringFunctionInterpolation.

SearchMode

Definiert Werte für SearchMode.

SentimentSkillLanguage

Definiert Werte für SentimentSkillLanguage.

SnowballTokenFilterLanguage

Definiert Werte für SnowballTokenFilterLanguage.

SplitSkillLanguage

Definiert Werte für SplitSkillLanguage.

StemmerTokenFilterLanguage

Definiert Werte für StemmerTokenFilterLanguage.

StopwordsList

Definiert Werte für StopwordsList.

TextExtractionAlgorithm

Definiert Werte für TextExtractionAlgorithm.

TextSplitMode

Definiert Werte für TextSplitMode.

TextTranslationSkillLanguage

Definiert Werte für TextTranslationSkillLanguage.

TokenCharacterKind

Definiert Werte für TokenCharacterKind.

VisualFeature

Definiert Werte für VisualFeature.