你当前正在访问 Microsoft Azure Global Edition 技术文档网站。 如果需要访问由世纪互联运营的 Microsoft Azure 中国技术文档网站,请访问 https://docs.azure.cn

Microsoft.Azure.Search.Models 命名空间

AccessCondition

一组操作的其他参数。

Analyzer

分析器的抽象基类。

AnalyzeRequest

指定一些用于将文本分解为标记的文本和分析组件。

AnalyzeResult

测试文本分析器的结果。

AnalyzerName.AsString

以纯字符串形式表示的所有分析器的名称。

AsciiFoldingTokenFilter

将“基本拉丁语”Unicode) 块 (的前 127 个 ASCII 字符中的字母、数字和符号 Unicode 字符转换为其 ASCII 等效项(如果存在此类等效字符)。 此令牌筛选器是使用 Apache Lucene 实现的。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html

AutocompleteItem

自动完成请求的结果。

AutocompleteParameters

AutocompleteGet 操作的其他参数。

AutocompleteResult

自动完成查询的结果。

CharFilter

字符筛选器的抽象基类。 https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search

CjkBigramTokenFilter

形成 CJK 词条的二元语法,这些词条从 StandardTokenizer 生成。 此令牌筛选器是使用 Apache Lucene 实现的。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html

ClassicTokenizer

适用于处理大多数欧洲语言文档的基于语法的 tokenizer。 此 tokenizer 是使用 Apache Lucene 实现的。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html

CognitiveServices

用于描述附加到技能组的任何认知服务资源的抽象基类。

CognitiveServicesByKey

使用附加到技能组的密钥预配的认知服务资源。

CommonGramTokenFilter

在编制索引时为经常出现的词条构造二元语法。 此外,仍将为单个词条编制索引并叠加二元语法。 此令牌筛选器是使用 Apache Lucene 实现的。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html

ConditionalSkill

一种技能,使需要布尔运算来确定要分配给输出的数据的方案。 https://docs.microsoft.com/azure/search/cognitive-search-skill-conditional

CorsOptions

定义用于控制索引的跨域资源共享 (CORS) 的选项。 https://docs.microsoft.com/rest/api/searchservice/Create-Index

CustomAnalyzer

允许你控制将文本转换为可索引/可搜索令牌的过程。 它是用户定义的配置,由单个预定义的 tokenizer 和一个或多个筛选器组成。 tokenizer 负责将文本分解为令牌,以及用于修改 tokenizer 发出的令牌的筛选器。

DataChangeDetectionPolicy

数据更改检测策略的抽象基类。

DataContainer

表示有关实体 (的信息,例如将编制索引的Azure SQL表或 DocumentDb 集合) 。

DataDeletionDetectionPolicy

数据删除检测策略的抽象基类。

DataSource

表示可用于配置索引器的数据源定义。

DataSourceCredentials

表示可用于连接到数据源的凭据。

DataSourceListResult

“列出数据源”请求的响应。 如果成功,则包含所有数据源的完整定义。

DataType.AsString

以纯字符串形式表示的所有数据类型的名称。

DataTypeExtensions

定义 的 DataType扩展方法。

DefaultCognitiveServices

一个空对象,表示技能组的默认认知服务资源。

DictionaryDecompounderTokenFilter

分解在许多日耳曼语系中找到的复合词。 此令牌筛选器是使用 Apache Lucene 实现的。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/compound/DictionaryCompoundWordTokenFilter.html

DistanceScoringFunction

定义一个函数,该函数根据与地理位置的距离提高分数。 https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index

DistanceScoringParameters

为距离评分函数提供参数值。

Document

将文档表示为属性包。 这对于索引架构仅在运行时已知的情况非常有用。

DocumentIndexResult

包含索引请求中所有文档的操作状态的响应。

DocumentSearchResult<T>

包含索引中的搜索结果的响应。

DocumentSuggestResult<T>

包含来自索引的建议查询结果的响应。

EdgeNGramTokenFilter

从输入标记的前面或后面开始,生成给定大小 (s) 的 n 元语法。 此令牌筛选器是使用 Apache Lucene 实现的。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html

EdgeNGramTokenFilterV2

从输入标记的前面或后面开始,生成给定大小 (s) 的 n 元语法。 此令牌筛选器是使用 Apache Lucene 实现的。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html

EdgeNGramTokenizer

将来自边缘的输入标记化为给定大小的 n 元语法 (s) 。 此 tokenizer 是使用 Apache Lucene 实现的。 https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html

ElisionTokenFilter

删除省音。 例如,“l'avion” (平面) 将转换为“avion” (平面) 。 此令牌筛选器是使用 Apache Lucene 实现的。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html

EntityRecognitionSkill

文本分析实体识别。 https://docs.microsoft.com/azure/search/cognitive-search-skill-entity-recognition

FacetResult

分面查询结果的单个存储桶。 报告字段值在特定范围内或具有特定值或间隔的文档数。

Field

表示索引定义中的字段,该字段描述字段的名称、数据类型和搜索行为。 https://docs.microsoft.com/rest/api/searchservice/Create-Index

FieldMapping

定义数据源中的字段与索引中目标字段之间的映射。 https://docs.microsoft.com/azure/search/search-indexer-field-mappings

FieldMappingFunction

表示在编制索引之前转换数据源中的值的函数。 https://docs.microsoft.com/azure/search/search-indexer-field-mappings

FreshnessScoringFunction

定义一个函数,该函数根据日期时间字段的值提高分数。 https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index

FreshnessScoringParameters

为新鲜度评分函数提供参数值。

HighWaterMarkChangeDetectionPolicy

定义数据更改检测策略,该策略根据高使用标记列的值捕获更改。

ImageAnalysisSkill

分析图像文件的技能。 它基于图像内容提取一组丰富的视觉特征。 https://docs.microsoft.com/azure/search/cognitive-search-skill-image-analysis

Index

表示搜索索引定义,该定义描述索引的字段和搜索行为。

IndexAction

提供用于创建对文档进行操作的索引操作的工厂方法。

IndexAction<T>

表示对文档进行操作的索引操作。

IndexBatch

提供工厂方法,用于创建要发送到搜索索引的一批文档写入操作。

IndexBatch<T>

包含要发送到索引的一批文档写入操作。

Indexer

表示索引器。 https://docs.microsoft.com/rest/api/searchservice/Indexer-operations

IndexerExecutionInfo

表示索引器的当前状态和执行历史记录。

IndexerExecutionResult

表示单个索引器执行的结果。

IndexerLimits
IndexerListResult

“列出索引器”请求的响应。 如果成功,则包含所有索引器的完整定义。

IndexGetStatisticsResult

给定索引的统计信息。 统计信息是定期收集的,不保证始终是最新的。

IndexingParameters

表示索引器执行的参数。

IndexingParametersExtensions

定义 IndexingParameters 类的扩展方法。

IndexingResult

单个文档的索引操作的状态。

IndexingSchedule

表示索引器执行的计划。

IndexListResult

来自列表索引请求的响应。 如果成功,则包含所有索引的完整定义。

InputFieldMappingEntry

技能的输入字段映射。

ItemError

表示项级别或文档级别索引错误。

ItemWarning

表示项级警告。

KeepTokenFilter

一个标记筛选器,它仅保留包含指定单词列表中的文本的标记。 此令牌筛选器是使用 Apache Lucene 实现的。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeepWordFilter.html

KeyPhraseExtractionSkill

使用文本分析提取关键短语的技能。 https://docs.microsoft.com/azure/search/cognitive-search-skill-keyphrases

KeywordMarkerTokenFilter

将词条标记为关键字。 此令牌筛选器是使用 Apache Lucene 实现的。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordMarkerFilter.html

KeywordTokenizer

将整个输入作为单个标记发出。 此 tokenizer 是使用 Apache Lucene 实现的。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html

KeywordTokenizerV2

将整个输入作为单个标记发出。 此 tokenizer 是使用 Apache Lucene 实现的。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html

LanguageDetectionSkill

一种技能,用于检测输入文本的语言,并为请求中提交的每个文档报告单个语言代码。 语言代码与指示分析置信度分数配对。 https://docs.microsoft.com/azure/search/cognitive-search-skill-language-detection

LengthTokenFilter

删除太长或太短的字词。 此令牌筛选器是使用 Apache Lucene 实现的。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html

LimitTokenFilter

编制索引时限制标记数量。 此令牌筛选器是使用 Apache Lucene 实现的。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html

MagnitudeScoringFunction

定义一个函数,该函数根据数值字段的量级提高分数。 https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index

MagnitudeScoringParameters

为数量级评分函数提供参数值。

MappingCharFilter

一个字符筛选器,用于应用使用映射选项定义的映射。 匹配具有贪婪性(给定点的最长模式匹配获胜)。 允许替换为空字符串。 此字符筛选器是使用 Apache Lucene 实现的。 https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/MappingCharFilter.html

MergeSkill

一种技能,用于将两个或多个字符串合并为单个统一字符串,并使用可选的用户定义的分隔符分隔每个组件部分。 https://docs.microsoft.com/azure/search/cognitive-search-skill-textmerger

MicrosoftLanguageStemmingTokenizer

使用特定于语言的规则划分文本,并将各字词缩减为其原形。

MicrosoftLanguageTokenizer

使用特定于语言的规则划分文本。

NamedEntityRecognitionSkill

名为实体识别的文本分析。 此技能已弃用,转而改用 EntityRecognitionSkillhttps://docs.microsoft.com/azure/search/cognitive-search-skill-named-entity-recognition

NGramTokenFilter

生成给定大小的 n 元语法。 此令牌筛选器是使用 Apache Lucene 实现的。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html

NGramTokenFilterV2

生成给定大小的 n 元语法。 此令牌筛选器是使用 Apache Lucene 实现的。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html

NGramTokenizer

将输入标记为给定大小的 n 元语法。 此 tokenizer 是使用 Apache Lucene 实现的。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html

OcrSkill

一种从图像文件中提取文本的技能。 https://docs.microsoft.com/azure/search/cognitive-search-skill-ocr

OutputFieldMappingEntry

技能的输出字段映射。 https://docs.microsoft.com/rest/api/searchservice/naming-rules

PathHierarchyTokenizer

用于路径式层次结构的 tokenizer。 此 tokenizer 是使用 Apache Lucene 实现的。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html

PathHierarchyTokenizerV2

用于路径式层次结构的 tokenizer。 此 tokenizer 是使用 Apache Lucene 实现的。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html

PatternAnalyzer

通过正则表达式模式将文本灵活地分解成多个词条。 此分析器是使用 Apache Lucene 实现的。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html

PatternCaptureTokenFilter

使用 Java 正则表达式发出多个令牌 - 一个或多个模式中的每个捕获组一个令牌。 此令牌筛选器是使用 Apache Lucene 实现的。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternCaptureGroupTokenFilter.html

PatternReplaceCharFilter

一个字符筛选器,用于替换输入字符串中的字符。 它使用正则表达式来标识要保留的字符序列,并使用替换模式来标识要替换的字符。 例如,给定输入文本“aa bb aa bb”、“模式” (aa) \s+ (bb) “和替换”$1#$2“,结果将为”aa#bb aa#bb”。 此字符筛选器是使用 Apache Lucene 实现的。 https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternReplaceCharFilter.html

PatternReplaceTokenFilter

一个字符筛选器,用于替换输入字符串中的字符。 它使用正则表达式来标识要保留的字符序列,并使用替换模式来标识要替换的字符。 例如,给定输入文本“aa bb aa bb”、“模式” (aa) \s+ (bb) “和替换”$1#$2“,结果将为”aa#bb aa#bb”。 此令牌筛选器是使用 Apache Lucene 实现的。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternReplaceFilter.html

PatternTokenizer

使用正则表达式模式匹配来构造不同令牌的 Tokenizer。 此 tokenizer 是使用 Apache Lucene 实现的。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html

PhoneticTokenFilter

为拼音匹配项创建标记。 此令牌筛选器是使用 Apache Lucene 实现的。 https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html

RangeFacetResult<T>

范围方面查询结果的单个存储桶,用于报告字段值在特定范围内的文档数。

ResourceCounter

表示资源的使用情况和配额。

ScoringFunction

可在排名期间修改文档分数的函数的抽象基类。 https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index

ScoringParameter

表示要在评分函数中使用的参数值, (例如 referencePointParameter) 。

ScoringProfile

定义影响搜索查询评分的搜索索引的参数。 https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index

SearchContinuationToken

封装继续提取搜索结果所需的状态。 当Azure 认知搜索无法通过单个响应满足搜索请求时,这是必需的。

SearchParameters

用于筛选、排序、分面、分页和其他搜索查询行为的参数。

SearchRequestOptions

一组操作的其他参数。

SearchResult<T>

包含搜索查询找到的文档,以及关联的元数据。

SentimentSkill

文本分析正负情绪分析,评分为 0 到 1 范围内的浮点值。 https://docs.microsoft.com/azure/search/cognitive-search-skill-sentiment

SerializePropertyNamesAsCamelCaseAttribute

指示模型类型的公共属性应序列化为 camel 大小写,以便匹配搜索索引的字段名称。

ServiceCounters

表示服务级别资源计数器和配额。

ServiceLimits

表示各种服务级别限制。

ServiceStatistics

来自获取服务统计信息请求的响应。 如果成功,则包含服务级别计数器和限制。

ShaperSkill

用于重塑输出的技能。 它创建一个复杂类型来支持复合字段 (也称为多部分字段) 。 https://docs.microsoft.com/azure/search/cognitive-search-skill-shaper

ShingleTokenFilter

创建标记组合作为单个标记。 此令牌筛选器是使用 Apache Lucene 实现的。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html

Skill

技能的抽象基类。 https://docs.microsoft.com/azure/search/cognitive-search-predefined-skills

Skillset

技能列表。 https://docs.microsoft.com/azure/search/cognitive-search-tutorial-blob

SkillsetListResult

来自列表技能组请求的响应。 如果成功,则包含所有技能集的完整定义。

SnowballTokenFilter

使用 Snowball 生成的词干分析器来词干的筛选器。 此令牌筛选器是使用 Apache Lucene 实现的。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html

SoftDeleteColumnDeletionDetectionPolicy

定义实现软删除策略的数据删除检测策略。 它确定是否应根据指定的“软删除”列的值删除项。

SplitSkill

将字符串拆分为文本块的技能。 https://docs.microsoft.com/azure/search/cognitive-search-skill-textsplit

SqlIntegratedChangeTrackingPolicy

定义使用 Azure SQL Database 的集成更改跟踪功能捕获更改的数据更改检测策略。

StandardAnalyzer

标准 Apache Lucene 分析器;由标准 tokenizer、小写筛选器和停止筛选器组成。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardAnalyzer.html

StandardTokenizer

按照 Unicode 文本分段规则划分文本。 此 tokenizer 是使用 Apache Lucene 实现的。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html

StandardTokenizerV2

按照 Unicode 文本分段规则划分文本。 此 tokenizer 是使用 Apache Lucene 实现的。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html

StemmerOverrideTokenFilter

提供使用基于自定义字典的词干分解替代其他词干筛选器的功能。 任何字典词干术语都将标记为关键字,以便它们不会在链中通过词干分析器进行词干分解。 必须放在任何词干分解筛选器之前。 此令牌筛选器是使用 Apache Lucene 实现的。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/StemmerOverrideFilter.html

StemmerTokenFilter

特定于语言的词干筛选。 此令牌筛选器是使用 Apache Lucene 实现的。 https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters

StopAnalyzer

将文本除以非字母;应用小写和非字标记筛选器。 此分析器是使用 Apache Lucene 实现的。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html

StopwordsTokenFilter

从标记流中删除非索引字。 此令牌筛选器是使用 Apache Lucene 实现的。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html

Suggester

定义建议 API 应如何应用于索引中的一组字段。

SuggestParameters

用于筛选、排序、模糊匹配和其他建议查询行为的参数。

SuggestResult<T>

包含建议查询找到的文档以及关联的元数据的结果。

SynonymMap

表示同义词映射定义。

SynonymMapListResult

来自列表 SynonymMaps 请求的响应。 如果成功,则包含所有同义词映射的完整定义。

SynonymTokenFilter

匹配令牌流中的单字或多字同义词。 此令牌筛选器是使用 Apache Lucene 实现的。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/synonym/SynonymFilter.html

TagScoringFunction

定义一个函数,该函数使用与给定标记列表匹配的字符串值提升文档分数。 https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index

TagScoringParameters

为标记评分函数提供参数值。

TextTranslationSkill

将文本从一种语言翻译成另一种语言的技能。 https://docs.microsoft.com/azure/search/cognitive-search-skill-text-translation

TextWeights

定义索引字段的权重,匹配项应提高搜索查询中的评分。

TokenFilter

标记筛选器的抽象基类。 https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search

TokenInfo

有关分析器返回的令牌的信息。

Tokenizer

tokenizer 的抽象基类。 https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search

TruncateTokenFilter

将字词截断为特定长度。 此令牌筛选器是使用 Apache Lucene 实现的。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html

UaxUrlEmailTokenizer

将 URL 和电子邮件标记为一个标记。 此 tokenizer 是使用 Apache Lucene 实现的。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html

UniqueTokenFilter

筛选出与前一个标记具有相同文本的标记。 此令牌筛选器是使用 Apache Lucene 实现的。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html

ValueFacetResult<T>

简单或间隔方面查询结果的单个存储桶,用于报告字段在特定间隔内或具有特定值的文档数。

WebApiSkill

一种可以调用 Web API 终结点的技能,使你能够通过调用自定义代码来扩展技能集。 https://docs.microsoft.com/azure/search/cognitive-search-custom-skill-web-api

WordDelimiterTokenFilter

将字词拆分为子字,并对子字组执行可选转换。 此令牌筛选器是使用 Apache Lucene 实现的。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/WordDelimiterFilter.html

结构

AnalyzerName

定义Azure 认知搜索支持的所有文本分析器的名称。 https://docs.microsoft.com/rest/api/searchservice/Language-support

BlobExtractionMode

定义 Blob 存储索引器将为 Blob 的哪些部分编制索引。 https://docs.microsoft.com/azure/search/search-howto-indexing-azure-blob-storage

CharFilterName

定义Azure 认知搜索支持的所有字符筛选器的名称。 https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search

DataSourceType

定义数据源的类型。

DataType

定义搜索索引中字段的数据类型。

NamedEntityRecognitionSkillLanguage

定义 NamedEntityRecognitionSkill 支持的语言代码的格式。

RegexFlags

定义可以组合在一起以控制模式分析器和模式标记器中如何使用正则表达式的标志。 http://docs.oracle.com/javase/6/docs/api/java/util/regex/Pattern.html#field_summary

TokenFilterName

定义Azure 认知搜索支持的所有标记筛选器的名称。 https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search

TokenizerName

定义Azure 认知搜索支持的所有 tokenizer 的名称。 https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search

接口

IResourceWithETag

实现此接口的模型类表示在服务器上使用 ETag 版本保留的资源。

枚举

AutocompleteMode

定义 AutocompleteMode 的值。

CjkBigramTokenFilterScripts

定义 CjkBigramTokenFilterScripts 的值。

EdgeNGramTokenFilterSide

定义 EdgeNGramTokenFilterSide 的值。

EntityCategory

定义 EntityCategory 的值。

EntityRecognitionSkillLanguage

定义 EntityRecognitionSkillLanguage 的值。

FacetType

指定分面查询结果的类型。

ImageAnalysisSkillLanguage

定义 ImageAnalysisSkillLanguage 的值。

ImageDetail

定义 ImageDetail 的值。

IndexActionType

定义 IndexActionType 的值。

IndexerExecutionStatus

定义 IndexerExecutionStatus 的值。

IndexerStatus

定义 IndexerStatus 的值。

KeyPhraseExtractionSkillLanguage

定义 KeyPhraseExtractionSkillLanguage 的值。

MicrosoftStemmingTokenizerLanguage

定义 MicrosoftStemmingTokenizerLanguage 的值。

MicrosoftTokenizerLanguage

定义 MicrosoftTokenizerLanguage 的值。

NamedEntityCategory

定义 NamedEntityCategory 的值。 这已弃用,请改用EntityCategory

OcrSkillLanguage

定义 OcrSkillLanguage 的值。

PhoneticEncoder

定义 PhoneticEncoder 的值。

QueryType

定义 QueryType 的值。

ScoringFunctionAggregation

定义 ScoringFunctionAggregation 的值。

ScoringFunctionInterpolation

定义 ScoringFunctionInterpolation 的值。

SearchMode

定义 SearchMode 的值。

SentimentSkillLanguage

定义 SentimentSkillLanguage 的值。

SnowballTokenFilterLanguage

定义 SnowballTokenFilterLanguage 的值。

SplitSkillLanguage

定义 SplitSkillLanguage 的值。

StemmerTokenFilterLanguage

定义 StemmerTokenFilterLanguage 的值。

StopwordsList

定义 StopwordsList 的值。

TextExtractionAlgorithm

定义 TextExtractionAlgorithm 的值。

TextSplitMode

定义 TextSplitMode 的值。

TextTranslationSkillLanguage

定义 TextTranslationSkillLanguage 的值。

TokenCharacterKind

定义 TokenCharacterKind 的值。

VisualFeature

定义 VisualFeature 的值。