你当前正在访问 Microsoft Azure Global Edition 技术文档网站。 如果需要访问由世纪互联运营的 Microsoft Azure 中国技术文档网站,请访问 https://docs.azure.cn

@azure/search-documents package

AzureKeyCredential

支持更新基础键值的基于静态键的凭据。

GeographyPoint

表示全局坐标中的地理点。

IndexDocumentsBatch

用于对索引执行多个文档的批处理操作的类。

SearchClient

用于对搜索索引执行操作的类,包括查询索引中的文档以及添加、更新和删除它们。

SearchIndexClient

用于执行管理 (创建、更新、列出/删除) 索引 & 同义词映射的操作的类。

SearchIndexerClient

用于执行管理 (创建、更新、列出/删除) 索引器、数据源 & 技能集的操作的类。

SearchIndexingBufferedSender

用于对搜索索引执行缓冲操作的类,包括添加、更新和删除它们。

接口

AnalyzeRequest

指定用于将文本拆分为标记的一些文本和分析组件。

AnalyzeResult

针对文本测试分析器的结果。

AnalyzedTokenInfo

有关分析器返回的令牌的信息。

AsciiFoldingTokenFilter

将“基本拉丁语”Unicode) 块 (的前 127 个 ASCII 字符中的字母、数字和符号 Unicode 字符转换为其 ASCII 等效项(如果存在此类等效项)。 此令牌筛选器是使用 Apache Lucene 实现的。

AutocompleteItem

自动完成请求的结果。

AutocompleteRequest

模糊匹配的参数和其他自动完成查询行为。

AutocompleteResult

自动完成查询的结果。

AzureActiveDirectoryApplicationCredentials

为搜索服务创建的已注册应用程序的凭据,用于对 Azure 密钥保管库中存储的加密密钥的身份验证访问。

BM25Similarity

基于 Okapi BM25 相似性算法的排名函数。 BM25 是一种类似于 TF IDF 的算法,包括由“b”参数) 控制的长度规范化 (,以及由“k1”参数 () 控制的术语频率饱和度。

BaseCharFilter

字符筛选器的基类型。

BaseCognitiveServicesAccount

描述附加到技能组的任何 Azure AI 服务资源的基类型。

BaseDataChangeDetectionPolicy

数据更改检测策略的基类型。

BaseDataDeletionDetectionPolicy

数据删除检测策略的基类型。

BaseLexicalAnalyzer

分析器的基类型。

BaseLexicalTokenizer

tokenizer 的基类型。

BaseScoringFunction

可在排名期间修改文档分数的函数的基类型。

BaseSearchIndexerSkill

技能的基类型。

BaseSearchRequestOptions

用于筛选、排序、分面、分页和其他搜索查询行为的参数。

BaseTokenFilter

令牌筛选器的基类型。

BaseVectorQuery

矢量和混合搜索查询的查询参数。

BaseVectorSearchAlgorithmConfiguration

包含特定于索引编制和/或查询期间使用的算法的配置选项。

CjkBigramTokenFilter

形成从标准 tokenizer 生成的 CJK 术语的 bigram。 此令牌筛选器是使用 Apache Lucene 实现的。

ClassicSimilarity

使用 TF-IDF 的 Lucene TFIDFSimilarity 实现的传统相似性算法。 TF-IDF 的这种变体引入了静态文档长度规范化,以及惩罚仅部分匹配搜索查询的文档的协调因素。

ClassicTokenizer

适用于处理大多数欧洲语言文档的基于语法的 tokenizer。 此 tokenizer 是使用 Apache Lucene 实现的。

CognitiveServicesAccountKey

使用附加到技能组的密钥预配的 Azure AI 服务资源。

CommonGramTokenFilter

在编制索引时为经常出现的词条构造二元语法。 此外,仍将为单个词条编制索引并叠加二元语法。 此令牌筛选器是使用 Apache Lucene 实现的。

ComplexField

表示索引定义中的字段,该字段描述字段的名称、数据类型和搜索行为。

ConditionalSkill

一种技能,使需要布尔运算来确定要分配给输出的数据的方案。

CorsOptions

定义用于控制索引 (CORS) 跨域资源共享的选项。

CreateOrUpdateIndexOptions

创建/更新索引操作的选项。

CreateOrUpdateSkillsetOptions

创建/更新技能组操作的选项。

CreateOrUpdateSynonymMapOptions

用于创建/更新同义词映射操作的选项。

CreateorUpdateDataSourceConnectionOptions

用于创建/更新数据源操作的选项。

CreateorUpdateIndexerOptions

创建/更新索引器操作的选项。

CustomAnalyzer

允许你控制将文本转换为可索引/可搜索令牌的过程。 它是用户定义的配置,由单个预定义的 tokenizer 和一个或多个筛选器组成。 tokenizer 负责将文本分解为令牌,以及用于修改 tokenizer 发出的令牌的筛选器。

CustomEntity

一个 对象,其中包含有关找到的匹配项和相关元数据的信息。

CustomEntityAlias

一个复杂对象,可用于指定根实体名称的替代拼写或同义词。

CustomEntityLookupSkill

技能从用户定义的自定义字词和短语列表中查找文本。

DefaultCognitiveServicesAccount

一个空对象,表示技能组的默认 Azure AI 服务资源。

DeleteDataSourceConnectionOptions

用于删除数据源操作的选项。

DeleteIndexOptions

用于删除索引操作的选项。

DeleteIndexerOptions

用于删除索引器操作的选项。

DeleteSkillsetOptions

用于删除技能组操作的选项。

DeleteSynonymMapOptions

用于删除同义词映射操作的选项。

DictionaryDecompounderTokenFilter

分解在许多日耳曼语系中找到的复合词。 此令牌筛选器是使用 Apache Lucene 实现的。

DistanceScoringFunction

定义一个函数,该函数根据与地理位置的距离提高分数。

DistanceScoringParameters

为距离评分函数提供参数值。

DocumentExtractionSkill

一种技能,用于从扩充管道中的文件中提取内容。

EdgeNGramTokenFilter

从输入令牌的前面或后面开始,生成给定大小 (s) 的 n 元语法。 此令牌筛选器是使用 Apache Lucene 实现的。

EdgeNGramTokenizer

将来自边缘的输入标记化为给定大小的 n 元语法 (s) 。 此 tokenizer 是使用 Apache Lucene 实现的。

ElisionTokenFilter

删除省音。 例如,“l'avion” (平面) 将转换为“avion” (平面) 。 此令牌筛选器是使用 Apache Lucene 实现的。

EntityLinkingSkill

使用 文本分析 API 从文本中提取链接的实体。

EntityRecognitionSkill

文本分析实体识别。

EntityRecognitionSkillV3

使用 文本分析 API 从文本中提取不同类型的实体。

ExhaustiveKnnParameters

包含特定于详尽 KNN 算法的参数。

ExtractiveQueryAnswer

从响应以自然语言表示为问题的查询时返回的文档内容中提取候选答案。

ExtractiveQueryCaption

从包含与搜索查询相关的段落的匹配文档中提取标题。

FacetResult

分面查询结果的单个存储桶。 报告字段值在特定范围内或具有特定值或间隔的文档数。

FieldMapping

定义数据源中的字段与索引中目标字段之间的映射。

FieldMappingFunction

表示在编制索引之前转换数据源中的值的函数。

FreshnessScoringFunction

定义一个函数,该函数根据日期时间字段的值提高分数。

FreshnessScoringParameters

为新鲜度评分函数提供参数值。

GetDocumentOptions

用于检索单个文档的选项。

HighWaterMarkChangeDetectionPolicy

定义一个数据更改检测策略,该策略根据高使用标记列的值捕获更改。

HnswParameters

包含特定于 hnsw 算法的参数。

ImageAnalysisSkill

分析图像文件的技能。 它基于图像内容提取一组丰富的视觉特征。

IndexDocumentsClient

索引文档客户端

IndexDocumentsOptions

用于修改索引批处理操作的选项。

IndexDocumentsResult

包含索引请求中所有文档的操作状态的响应。

IndexerExecutionResult

表示单个索引器执行的结果。

IndexingParameters

表示索引器执行的参数。

IndexingParametersConfiguration

索引器特定配置属性的字典。 每个名称都是特定属性的名称。 每个值必须是基元类型。

IndexingResult

单个文档的索引操作的状态。

IndexingSchedule

表示索引器执行的计划。

InputFieldMappingEntry

技能的输入字段映射。

KeepTokenFilter

标记筛选器,仅保留包含指定单词列表中的文本的标记。 此令牌筛选器是使用 Apache Lucene 实现的。

KeyPhraseExtractionSkill

使用文本分析提取关键短语的技能。

KeywordMarkerTokenFilter

将词条标记为关键字。 此令牌筛选器是使用 Apache Lucene 实现的。

KeywordTokenizer

将整个输入作为单个标记发出。 此 tokenizer 是使用 Apache Lucene 实现的。

LanguageDetectionSkill

一种技能,用于检测输入文本的语言,并为请求中提交的每个文档报告单个语言代码。 语言代码与指示分析置信度分数配对。

LengthTokenFilter

删除太长或太短的字词。 此令牌筛选器是使用 Apache Lucene 实现的。

LimitTokenFilter

编制索引时限制标记数量。 此令牌筛选器是使用 Apache Lucene 实现的。

ListSearchResultsPageSettings

用于检索下一页搜索结果的参数。

LuceneStandardAnalyzer

标准 Apache Lucene 分析器;由标准标记器、小写筛选器和停止筛选器组成。

LuceneStandardTokenizer

按照 Unicode 文本分段规则划分文本。 此 tokenizer 是使用 Apache Lucene 实现的。

MagnitudeScoringFunction

定义一个函数,该函数根据数值字段的量级提高分数。

MagnitudeScoringParameters

为数量级评分函数提供参数值。

MappingCharFilter

一个字符筛选器,用于应用使用映射选项定义的映射。 匹配具有贪婪性(给定点的最长模式匹配获胜)。 允许替换为空字符串。 此字符筛选器是使用 Apache Lucene 实现的。

MergeSkill

一种技能,用于将两个或多个字符串合并为单个统一字符串,并使用可选的用户定义的分隔符分隔每个组件部分。

MicrosoftLanguageStemmingTokenizer

使用特定于语言的规则划分文本,并将各字词缩减为其原形。

MicrosoftLanguageTokenizer

使用特定于语言的规则划分文本。

NGramTokenFilter

生成给定大小的 n 元语法。 此令牌筛选器是使用 Apache Lucene 实现的。

NGramTokenizer

将输入标记为给定大小的 n 元语法。 此 tokenizer 是使用 Apache Lucene 实现的。

OcrSkill

一种从图像文件中提取文本的技能。

OutputFieldMappingEntry

技能的输出字段映射。

PIIDetectionSkill

使用 文本分析 API,从输入文本中提取个人信息,并提供屏蔽信息的选项。

PathHierarchyTokenizer

用于路径式层次结构的 tokenizer。 此 tokenizer 是使用 Apache Lucene 实现的。

PatternAnalyzer

通过正则表达式模式将文本灵活地分解成多个词条。 此分析器是使用 Apache Lucene 实现的。

PatternCaptureTokenFilter

使用 Java 正则表达式发出多个令牌 - 一个或多个模式中的每个捕获组一个令牌。 此令牌筛选器是使用 Apache Lucene 实现的。

PatternReplaceCharFilter

一个字符筛选器,用于替换输入字符串中的字符。 它使用正则表达式来标识要保留的字符序列,并使用替换模式来标识要替换的字符。 例如,给定输入文本“aa bb aa bb”、“模式” (aa) \s+ (bb) “和替换”$1#$2“,结果将为”aa#bb aa#bb”。 此字符筛选器是使用 Apache Lucene 实现的。

PatternReplaceTokenFilter

一个字符筛选器,用于替换输入字符串中的字符。 它使用正则表达式来标识要保留的字符序列,并使用替换模式来标识要替换的字符。 例如,给定输入文本“aa bb aa bb”、“模式” (aa) \s+ (bb) “和替换”$1#$2“,结果将为”aa#bb aa#bb”。 此令牌筛选器是使用 Apache Lucene 实现的。

PatternTokenizer

使用正则表达式模式匹配来构造不同令牌的 Tokenizer。 此 tokenizer 是使用 Apache Lucene 实现的。

PhoneticTokenFilter

为拼音匹配项创建标记。 此令牌筛选器是使用 Apache Lucene 实现的。

QueryAnswerResult

答案是从与查询匹配的最相关文档的内容中提取的文本段落。 从顶部搜索结果中提取答案。 对考生的答案进行评分,并选择排名靠前的答案。

QueryCaptionResult

标题是文档中相对于搜索查询最具代表性的段落。 它们通常用作文档摘要。 仅为 类型 semantic为 的查询返回标题。

ResourceCounter

表示资源的使用情况和配额。

ScoringProfile

定义影响搜索查询评分的搜索索引的参数。

SearchClientOptions

用于配置认知搜索 API 请求的客户端选项。

SearchDocumentsPageResult

包含来自索引的搜索页结果的响应。

SearchDocumentsResult

包含索引中搜索结果的响应。

SearchDocumentsResultBase

包含索引中搜索结果的响应。

SearchIndex

表示搜索索引定义,该定义描述索引的字段和搜索行为。

SearchIndexClientOptions

用于配置认知搜索 API 请求的客户端选项。

SearchIndexStatistics

给定索引的统计信息。 统计信息会定期收集,不能保证始终是最新的。

SearchIndexer

表示索引器。

SearchIndexerClientOptions

用于配置认知搜索 API 请求的客户端选项。

SearchIndexerDataContainer

表示有关实体 (的信息,例如Azure SQL表或将编制索引的 CosmosDB 集合) 。

SearchIndexerDataSourceConnection

表示可用于配置索引器的数据源定义。

SearchIndexerError

表示项级别或文档级别索引错误。

SearchIndexerKnowledgeStore

定义扩充数据的 Azure Blob、表或文件的其他投影。

SearchIndexerKnowledgeStoreBlobProjectionSelector

用于在具体选择器之间共享属性的抽象类。

SearchIndexerKnowledgeStoreFileProjectionSelector

要存储在Azure 文件存储中的数据的投影定义。

SearchIndexerKnowledgeStoreObjectProjectionSelector

要存储在 Azure Blob 中的数据的投影定义。

SearchIndexerKnowledgeStoreProjection

各种投影选择器的容器对象。

SearchIndexerKnowledgeStoreProjectionSelector

用于在具体选择器之间共享属性的抽象类。

SearchIndexerKnowledgeStoreTableProjectionSelector

有关要在 Azure 表中存储的数据的说明。

SearchIndexerLimits
SearchIndexerSkillset

技能列表。

SearchIndexerStatus

表示索引器的当前状态和执行历史记录。

SearchIndexerWarning

表示项级警告。

SearchIndexingBufferedSenderOptions

SearchIndexingBufferedSender 的选项。

SearchResourceEncryptionKey

Azure 密钥保管库中客户管理的加密密钥。 创建和管理的密钥可用于加密或解密Azure 认知搜索中的静态数据,例如索引和同义词映射。

SearchServiceStatistics

来自获取服务统计信息请求的响应。 如果成功,则包含服务级别计数器和限制。

SearchSuggester

定义建议 API 应如何应用于索引中的一组字段。

SemanticConfiguration

定义要在语义功能上下文中使用的特定配置。

SemanticField

用作语义配置的一部分的字段。

SemanticPrioritizedFields

描述用于语义排名、标题、突出显示和答案的标题、内容和关键字字段。

SemanticSearch

定义影响语义功能的搜索索引的参数。

SemanticSearchOptions

定义语义搜索查询的选项

SentimentSkill

文本分析正负情绪分析,评分为 0 到 1 范围内的浮点值。

SentimentSkillV3

使用 文本分析 API 评估非结构化文本,并根据服务在句子和文档级别找到的最高置信度分数,提供情绪标签 (,如“负面”、“中性”和“积极”) 。

ServiceCounters

表示服务级别资源计数器和配额。

ServiceLimits

表示各种服务级别限制。

ShaperSkill

用于重塑输出的技能。 它创建一个复杂类型以支持复合字段 (也称为多部分字段) 。

ShingleTokenFilter

创建标记组合作为单个标记。 此令牌筛选器是使用 Apache Lucene 实现的。

Similarity

相似性算法的基类型。 相似性算法用于计算将查询与文档挂钩的分数。 分数越高,文档与该特定查询的相关性就越高。 这些分数用于对搜索结果进行排名。

SimpleField

表示索引定义中的字段,该字段描述字段的名称、数据类型和搜索行为。

SnowballTokenFilter

使用 Snowball 生成的词干分析器对单词进行词干的筛选器。 此令牌筛选器是使用 Apache Lucene 实现的。

SoftDeleteColumnDeletionDetectionPolicy

定义实现软删除策略的数据删除检测策略。 它根据指定的“软删除”列的值确定是否应删除项。

SplitSkill

将字符串拆分为文本块的技能。

SqlIntegratedChangeTrackingPolicy

定义使用 Azure SQL 数据库的集成更改跟踪功能捕获更改的数据更改检测策略。

StemmerOverrideTokenFilter

提供使用基于自定义字典的词干分解替代其他词干筛选的功能。 任何字典词干术语都将标记为关键字,以便它们不会在链中通过词干分析器进行词干分解。 必须放在任何词干分解筛选器之前。 此令牌筛选器是使用 Apache Lucene 实现的。

StemmerTokenFilter

特定于语言的词干筛选。 此令牌筛选器是使用 Apache Lucene 实现的。

StopAnalyzer

将文本除以非字母;应用小写和非字标记筛选器。 此分析器是使用 Apache Lucene 实现的。

StopwordsTokenFilter

从标记流中删除非索引字。 此令牌筛选器是使用 Apache Lucene 实现的。

SuggestDocumentsResult

包含来自索引的建议查询结果的响应。

SuggestRequest

用于筛选、排序、模糊匹配和其他建议查询行为的参数。

SynonymMap

表示同义词映射定义。

SynonymTokenFilter

匹配令牌流中的单字或多字同义词。 此令牌筛选器是使用 Apache Lucene 实现的。

TagScoringFunction

定义一个函数,该函数使用与给定标记列表匹配的字符串值提升文档分数。

TagScoringParameters

为标记评分函数提供参数值。

TextTranslationSkill

将文本从一种语言翻译成另一种语言的技能。

TextWeights

定义索引字段的权重,匹配项应提高搜索查询中的评分。

TruncateTokenFilter

将术语截断为特定长度。 此令牌筛选器是使用 Apache Lucene 实现的。

UaxUrlEmailTokenizer

将 URL 和电子邮件标记为一个标记。 此 tokenizer 是使用 Apache Lucene 实现的。

UniqueTokenFilter

筛选出与前一个标记具有相同文本的标记。 此令牌筛选器是使用 Apache Lucene 实现的。

VectorSearch

包含与矢量搜索相关的配置选项。

VectorSearchOptions

定义矢量搜索查询的选项

VectorSearchProfile

定义要与矢量搜索一起使用的配置组合。

VectorizedQuery

提供原始向量值时用于矢量搜索的查询参数。

WebApiSkill

一种可以调用 Web API 终结点的技能,允许你通过调用自定义代码来扩展技能集。

WordDelimiterTokenFilter

将字词拆分为子字,并对子字组执行可选转换。 此令牌筛选器是使用 Apache Lucene 实现的。

类型别名

AnalyzeTextOptions

用于分析文本操作的选项。

AutocompleteMode

定义 AutocompleteMode 的值。

AutocompleteOptions

用于检索部分 searchText 的完成文本的选项。

BlobIndexerDataToExtract

服务支持的已知值

storageMetadata:仅索引标准 Blob 属性和用户指定的元数据。 allMetadata:提取 Azure Blob 存储子系统提供的元数据和内容类型特定的元数据 (例如,仅 .png 文件的唯一元数据) 编制索引。 contentAndMetadata:从每个 Blob 中提取所有元数据和文本内容。

BlobIndexerImageAction

服务支持的已知值

none:忽略数据集中的嵌入图像或图像文件。 这是默认值。 generateNormalizedImages:从图像中提取文本 (例如,从交通停止标志) “STOP”一词,并将其嵌入内容字段中。 此操作要求将“dataToExtract”设置为“contentAndMetadata”。 规范化图像是指在视觉搜索结果中包含图像时,可进行统一的图像输出、调整大小和旋转,以促进一致的呈现。 当使用此选项时,将为每个图像生成此信息。 generateNormalizedImagePerPage:从图像中提取文本,例如,从交通停止标志 (“STOP”一词) ,并将其嵌入内容字段中,但对 PDF 文件进行不同的处理,因为每个页面将呈现为图像并相应地规范化,而不是提取嵌入的图像。 非 PDF 文件类型的处理与设置“generateNormalizedImages”相同。

BlobIndexerPDFTextRotationAlgorithm

服务支持的已知值

none:利用普通文本提取。 这是默认值。 detectAngles:可以从 PDF 文件中旋转文本生成更好、更易于阅读的文本提取。 请注意,使用此参数时,可能会对性能速度产生较小的影响。 此参数仅适用于 PDF 文件,仅适用于嵌入文本的 PDF。 如果旋转的文本显示在 PDF 中的嵌入图像中,则此参数不适用。

BlobIndexerParsingMode

服务支持的已知值

default:对于正常文件处理,设置为默认值。 text:设置为 text 以提高 Blob 存储中纯文本文件的索引性能。 delimitedText:当 blob 是普通 CSV 文件时,设置为 delimitedText。 json:设置为 json 以从 JSON 文件中提取结构化内容。 jsonArray:设置为 jsonArray 可将 JSON 数组的各个元素提取为Azure 认知搜索中的单独文档。 jsonLines:设置为 jsonLines 以提取单个 JSON 实体(用新行分隔)作为Azure 认知搜索中的单独文档。

CharFilter

包含 CharFilter 的可能情况。

CharFilterName

定义 CharFilterName 的值。
<xref:KnownCharFilterName> 可与 CharFilterName 互换使用,此枚举包含服务支持的已知值。

服务支持的已知值

html_strip:尝试去除 HTML 构造的字符筛选器。 请参见https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html

CjkBigramTokenFilterScripts

定义 CjkBigramTokenFilterScripts 的值。

CognitiveServicesAccount

包含 CognitiveServicesAccount 的可能事例。

ComplexDataType

定义 ComplexDataType 的值。 可能的值包括:“Edm.ComplexType”、“Collection (Edm.ComplexType) ”

CountDocumentsOptions

用于对索引执行计数操作的选项。

CreateDataSourceConnectionOptions

用于创建数据源操作的选项。

CreateIndexOptions

用于创建索引操作的选项。

CreateIndexerOptions

用于创建索引器操作的选项。

CreateSkillsetOptions

用于创建技能组操作的选项。

CreateSynonymMapOptions

用于创建同义词映射操作的选项。

CustomEntityLookupSkillLanguage

定义 CustomEntityLookupSkillKnownCustomEntityLookupSkillLanguage 可以与此类型互换使用的支持语言

DataChangeDetectionPolicy

包含 DataChangeDetectionPolicy 的可能案例。

DataDeletionDetectionPolicy

包含 DataDeletionDetectionPolicy 的可能情况。

DeleteDocumentsOptions

用于删除文档操作的选项。

EdgeNGramTokenFilterSide

定义 EdgeNGramTokenFilterSide 的值。

EntityCategory
EntityRecognitionSkillLanguage

定义 EntityRecognitionSkillKnownEntityRecognitionSkillLanguage 可以与此类型互换使用的支持语言

ExcludedODataTypes
ExhaustiveKnnAlgorithmConfiguration

包含特定于查询期间使用的详尽 KNN 算法的配置选项,该算法将对整个向量索引执行暴力搜索。

ExtractDocumentKey
GetDataSourceConnectionOptions

用于获取数据源操作的选项。

GetIndexOptions

用于获取索引操作的选项。

GetIndexStatisticsOptions

用于获取索引统计信息操作的选项。

GetIndexerOptions

用于获取索引器操作的选项。

GetIndexerStatusOptions

用于获取索引器状态操作的选项。

GetServiceStatisticsOptions

用于获取服务统计信息操作的选项。

GetSkillSetOptions

用于获取技能组操作的选项。

GetSynonymMapsOptions

用于获取同义词映射操作的选项。

HnswAlgorithmConfiguration

包含特定于索引编制期间使用的 hnsw 近似近邻算法的配置选项。

ImageAnalysisSkillLanguage

定义 ImageAnalysisSkillKnownImageAnalysisSkillLanguage 可以与此类型互换使用的支持语言

ImageDetail
IndexActionType

定义 IndexActionType 的值。

IndexDocumentsAction

表示对文档进行操作的索引操作。

IndexIterator

用于列出搜索服务中存在的索引的迭代器。 将在迭代期间根据需要发出请求。 使用 .byPage () 每次迭代向服务器发出一个请求。

IndexNameIterator

用于列出搜索服务中存在的索引的迭代器。 将在迭代期间根据需要发出请求。 使用 .byPage () 每次迭代向服务器发出一个请求。

IndexerExecutionEnvironment

服务支持的已知值

standard:指示Azure 认知搜索可以确定索引器应执行的位置。 如果未指定任何内容,则这是默认环境,并且是建议的值。 private:指示索引器应使用专门为搜索服务预配的环境运行。 仅当索引器需要通过共享专用链接资源安全地访问资源时,才应将其指定为执行环境。

IndexerExecutionStatus

定义 IndexerExecutionStatus 的值。

IndexerStatus

定义 IndexerStatus 的值。

KeyPhraseExtractionSkillLanguage

定义 KeyPhraseExtractionSkillKnownKeyPhraseExtractionSkillLanguage 可以与此类型互换使用的支持语言

LexicalAnalyzer

包含分析器可能的情况。

LexicalAnalyzerName

定义 LexicalAnalyzerName 的值。
<xref:KnownLexicalAnalyzerName> 可与 LexicalAnalyzerName 互换使用,此枚举包含服务支持的已知值。

服务支持的已知值

ar.microsoft:适用于阿拉伯语的 Microsoft 分析器。
ar.lucene:用于阿拉伯语的 Lucene 分析器。
hy.lucene:亚美尼亚语的卢塞内分析器。
bn.microsoft:适用于孟加拉语的 Microsoft 分析器。
eu.lucene:用于巴斯克的 Lucene 分析器。
bg.microsoft:适用于保加利亚语的 Microsoft 分析器。
bg.lucene:保加利亚语的 Lucene 分析器。
ca.microsoft:适用于加泰罗尼亚语的 Microsoft 分析器。
ca.lucene:加泰罗尼亚的 Lucene 分析器。
zh-Hans.microsoft:适用于中文 (简体中文) 的 Microsoft 分析器。
zh-Hans.lucene:用于中文 (简体中文) 的 Lucene 分析器。
zh-Hant.microsoft:适用于中文 (传统) 的 Microsoft 分析器。
zh-Hant.lucene:用于中文 (传统) 的 Lucene 分析器。
hr.microsoft:适用于克罗地亚的 Microsoft 分析器。
cs.microsoft:适用于捷克的 Microsoft 分析器。
cs.lucene:用于捷克的 Lucene 分析器。
da.microsoft:适用于丹麦语的 Microsoft 分析器。
da.lucene:丹麦语的 Lucene 分析器。
nl.microsoft:适用于荷兰语的 Microsoft 分析器。
nl.lucene:用于荷兰语的 Lucene 分析器。
en.microsoft:适用于英语的 Microsoft 分析器。
en.lucene:用于英语的 Lucene 分析器。
et.microsoft:适用于爱沙尼亚语的 Microsoft 分析器。
fi.microsoft:适用于芬兰语的 Microsoft 分析器。
fi.lucene:用于芬兰语的 Lucene 分析器。
fr.microsoft:适用于法语的 Microsoft 分析器。
fr.lucene:Lucene 法语分析器。
gl.lucene:用于加利西亚语的 Lucene 分析器。
de.microsoft:适用于德语的 Microsoft 分析器。
de.lucene:用于德语的 Lucene 分析器。
el.microsoft:适用于希腊语的 Microsoft 分析器。
el.lucene:用于希腊语的 Lucene 分析器。
gu.microsoft:适用于古吉拉特语的 Microsoft 分析器。
he.microsoft:适用于希伯来语的 Microsoft 分析器。
hi.microsoft:适用于印地语的 Microsoft 分析器。
hi.lucene:用于印地语的 Lucene 分析器。
hu.microsoft:适用于匈牙利语的 Microsoft 分析器。
hu.lucene:匈牙利语的 Lucene 分析器。
is.microsoft:适用于冰岛语的 Microsoft 分析器。
id.microsoft:Microsoft analyzer for Indonesian (Bahasa) 。
id.lucene:印尼语的 Lucene 分析器。
ga.lucene:用于爱尔兰的 Lucene 分析器。
it.microsoft:适用于意大利语的 Microsoft 分析器。
it.lucene:用于意大利语的 Lucene 分析器。
ja.microsoft:适用于日语的 Microsoft 分析器。
ja.lucene:用于日语的 Lucene 分析器。
kn.microsoft:适用于 Kannada 的 Microsoft 分析器。
ko.microsoft:适用于朝鲜语的 Microsoft 分析器。
ko.lucene:用于朝鲜语的 Lucene 分析器。
lv.microsoft:适用于拉脱维亚语的 Microsoft 分析器。
lv.lucene:拉脱维亚语的 Lucene 分析器。
lt.microsoft:适用于立陶宛语的 Microsoft 分析器。
ml.microsoft:Microsoft analyzer for Malayalam。
ms.microsoft:Microsoft analyzer for 马来语 (拉丁语) 。
mr.microsoft:适用于 Marathi 的 Microsoft 分析器。
nb.microsoft:适用于挪威语的 Microsoft 分析器 (Bokmål) 。
no.lucene:挪威语的 Lucene 分析器。
fa.lucene:用于波斯语的 Lucene 分析器。
pl.microsoft:适用于波兰的 Microsoft 分析器。
pl.lucene:用于波兰语的 Lucene 分析器。
pt-BR.microsoft:巴西葡萄牙语 (Microsoft 分析器) 。
pt-BR.lucene:巴西) 葡萄牙语 (Lucene 分析器。
pt-PT.microsoft:适用于葡萄牙语的 Microsoft 分析器 (葡萄牙) 。
pt-PT.lucene:葡萄牙 (葡萄牙) 的 Lucene 分析器。
pa.microsoft:适用于旁遮普语的 Microsoft 分析器。
ro.microsoft:适用于罗马尼亚语的 Microsoft 分析器。
ro.lucene:罗马尼亚语的 Lucene 分析器。
ru.microsoft:适用于俄语的 Microsoft 分析器。
ru.lucene:用于俄语的 Lucene 分析器。
sr-cyrillic.microsoft:适用于塞尔维亚语 (西里尔文) 的 Microsoft 分析器。
sr-latin.microsoft:适用于塞尔维亚语 (拉丁语) 的 Microsoft 分析器。
sk.microsoft:适用于斯洛伐克的 Microsoft 分析器。
sl.microsoft:适用于斯洛文尼亚语的 Microsoft 分析器。
es.microsoft:适用于西班牙语的 Microsoft 分析器。
es.lucene:用于西班牙语的 Lucene 分析器。
sv.microsoft:Microsoft analyzer for Swedish。
sv.lucene:用于瑞典语的 Lucene 分析器。
ta.microsoft:适用于泰米尔语的 Microsoft 分析器。
te.microsoft:适用于 Telugu 的 Microsoft 分析器。
th.microsoft:适用于泰语的 Microsoft 分析器。
th.lucene:用于泰语的 Lucene 分析器。
tr.microsoft:适用于土耳其语的 Microsoft 分析器。
tr.lucene:用于土耳其语的 Lucene 分析器。
uk.microsoft:适用于乌克兰的 Microsoft 分析器。
your.microsoft:适用于 Urdu 的 Microsoft 分析器。
vi.microsoft:适用于越南语的 Microsoft 分析器。
standard.lucene:标准 Lucene 分析器。
standardasciifolding.lucene:标准 ASCII 折叠 Lucene 分析器。 请参见https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers
关键字 (keyword) :将字段的整个内容视为单个标记。 此方法可用于搜索邮政编码、ID 和某些产品名称等数据。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html
pattern:通过正则表达式模式灵活地将文本分成多个字词。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html
simple:将文本除以非字母并将它们转换为小写。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html
stop:以非字母分隔文本;应用小写和非索引字标记筛选器。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html
whitespace:使用空格 tokenizer 的分析器。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html

LexicalTokenizer

包含 Tokenizer 的可能情况。

LexicalTokenizerName

定义 LexicalTokenizerName 的值。
<xref:KnownLexicalTokenizerName> 可与 LexicalTokenizerName 互换使用,此枚举包含服务支持的已知值。

服务支持的已知值

经典:适用于处理大多数欧洲语言文档的基于语法的 tokenizer。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html
edgeNGram:将来自边缘的输入标记化为给定大小 (s) 的 n 个语法。 请参见https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html
keyword_v2:将整个输入作为单个令牌发出。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html
字母:将文本除以非字母。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html
小写:将文本除以非字母并将它们转换为小写。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html
microsoft_language_tokenizer:使用特定于语言的规则划分文本。
microsoft_language_stemming_tokenizer:使用特定于语言的规则划分文本,并将单词减少到其基本形式。
nGram:将输入标记为给定大小的 n-gram (s) 。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html
path_hierarchy_v2:路径式层次结构的 Tokenizer。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html
pattern:使用正则表达式模式匹配构造不同令牌的 Tokenizer。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html
standard_v2:标准 Lucene 分析器;由标准标记器、小写筛选器和停止筛选器组成。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html
uax_url_email:将 URL 和电子邮件作为一个令牌进行标记化。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html
空格:在空白处划分文本。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html

ListDataSourceConnectionsOptions

列表数据源操作的选项。

ListIndexersOptions

列表索引器操作的选项。

ListIndexesOptions

列表索引操作的选项。

ListSkillsetsOptions

列表技能集操作的选项。

ListSynonymMapsOptions

列表 synonymMaps 操作的选项。

MergeDocumentsOptions

合并文档操作的选项。

MergeOrUploadDocumentsOptions

合并或上传文档操作的选项。

MicrosoftStemmingTokenizerLanguage

定义 MicrosoftStemmingTokenizerLanguage 的值。

MicrosoftTokenizerLanguage

定义 MicrosoftTokenizerLanguage 的值。

NarrowedModel

缩小模型类型以仅包含所选字段

OcrSkillLanguage

定义 OcrSkillKnownOcrSkillLanguage 可以与此类型互换使用的支持语言

PIIDetectionSkillMaskingMode

定义 PIIDetectionSkillMaskingMode 的值。

服务支持的已知值

none:不进行掩码,并且不会返回 maskedText 输出。 replace:将检测到的实体替换为 maskingCharacter 参数中给定的字符。 字符将重复到检测到的实体的长度,以便偏移量正确对应于输入文本和输出 maskedText。

PhoneticEncoder

定义 PhoneticEncoder 的值。

QueryAnswer

一个 值,该值指定是否应作为搜索响应的一部分返回答案。 仅当查询类型为“semantic”时,此参数才有效。 如果设置为 extractive,则查询返回从排名靠前的文档中的关键段落中提取的答案。

QueryCaption

一个 值,该值指定是否应将字幕作为搜索响应的一部分返回。 仅当查询类型为“semantic”时,此参数才有效。 如果设置,查询将返回从排名靠前的文档中的关键段落中提取的标题。 当标题为“提取”时,默认情况下会启用突出显示。 默认为“none”。

QueryType

定义 QueryType 的值。

RegexFlags

定义正则表达式模式匹配的标志

服务支持的已知值

CANON_EQ:启用规范等效。 CASE_INSENSITIVE:启用不区分大小写的匹配。 注释:允许模式中的空格和注释。 DOTALL:启用 dotall 模式。 LITERAL:启用模式的文本分析。 MULTILINE:启用多行模式。 UNICODE_CASE:启用 Unicode 感知大小写折叠。 UNIX_LINES:启用 Unix 行模式。

ResetIndexerOptions

重置索引器操作的选项。

RunIndexerOptions

运行索引器操作的选项。

ScoringFunction

包含 ScoringFunction 的可能情况。

ScoringFunctionAggregation

定义 ScoringFunctionAggregation 的值。

ScoringFunctionInterpolation

定义 ScoringFunctionInterpolation 的值。

ScoringStatistics

定义 ScoringStatistics 的值。

SearchField

表示索引定义中的字段,该字段描述字段的名称、数据类型和搜索行为。

SearchFieldArray

如果 TModel 是非类型化对象,则为非类型化字符串数组,否则为 的斜杠分隔字段 TModel

SearchFieldDataType

定义 SearchFieldDataType 的值。 可能的值包括:“Edm.String”、“Edm.Int32”、“Edm.Int64”、“Edm.Double”、“Edm.Boolean”、“Edm.DateTimeOffset”、“Edm.GeographyPoint”、“Collection (Edm.String) ”, “Collection (Edm.Int32) ”、“Collection (Edm.Int64) ”、“Collection (Edm.Double) ”、“Collection (Edm.Boolean) ”、“Collection (Edm.DateTimeOffset) ”、“Collection (Edm.GeographyPoint) ”、“Collection (Edm.Single) ”

NB: Edm.Single 单独不是有效的数据类型。 它必须用作集合类型的一部分。

SearchIndexerDataSourceType
SearchIndexerSkill

包含技能的可能情况。

SearchIndexingBufferedSenderDeleteDocumentsOptions

SearchIndexingBufferedSenderDeleteDocuments 的选项。

SearchIndexingBufferedSenderFlushDocumentsOptions

SearchIndexingBufferedSenderFlushDocuments 的选项。

SearchIndexingBufferedSenderMergeDocumentsOptions

SearchIndexingBufferedSenderMergeDocuments 的选项。

SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions

SearchIndexingBufferedSenderMergeOrUploadDocuments 的选项。

SearchIndexingBufferedSenderUploadDocumentsOptions

SearchIndexingBufferedSenderUploadDocuments 的选项。

SearchIterator

一个迭代器,用于查询的搜索结果。 将在迭代期间根据需要发出请求。 使用 .byPage () 每次迭代向服务器发出一个请求。

SearchMode

定义 SearchMode 的值。

SearchOptions

用于提交完整搜索请求的选项。

SearchPick

使用有效的认知搜索 OData $select路径深入选取 T 的字段。

SearchRequestOptions

用于筛选、排序、分面、分页和其他搜索查询行为的参数。

SearchRequestQueryTypeOptions
SearchResult

包含搜索查询找到的文档,以及关联的元数据。

SelectArray

如果 TFields 从不为 ,则为非类型化字符串数组。否则,为在使用类型中的其他位置使用的窄 Fields[] 类型。

SelectFields

使用根于 T 的字段树的后序遍历生成 T 的有效认知搜索 OData $select路径的联合。

SemanticErrorMode

partial:如果语义处理失败,仍返回部分结果。 部分结果的定义取决于失败的语义步骤以及失败的原因。

fail:如果在语义处理步骤中出现异常,查询将失败并返回相应的 HTTP 代码,具体取决于错误。

SemanticErrorReason

maxWaitExceeded:如果设置了“semanticMaxWaitInMilliseconds”,并且语义处理持续时间超过了该值。 仅返回基本结果。

capacityOverloaded:请求受到限制。 仅返回基本结果。

暂时性:语义过程至少有一个步骤失败。

SemanticSearchResultsType

baseResults:没有任何语义扩充或重新调整的结果。

rerankedResults:结果已使用重新排名器模型,并将包含语义标题。 它们不包括任何答案、答案要点或描述文字要点。

SentimentSkillLanguage

定义 SentimentSkillKnownSentimentSkillLanguage 的支持语言,可以与此类型互换

SimilarityAlgorithm

包含相似性的可能事例。

SnowballTokenFilterLanguage

定义 SnowballTokenFilterLanguage 的值。

SplitSkillLanguage

定义 SplitSkillKnownSplitSkillLanguage 支持的语言,可以与此类型互换使用

StemmerTokenFilterLanguage

定义 StemmerTokenFilterLanguage 的值。

StopwordsList

定义 StopwordsList 的值。

SuggestNarrowedModel
SuggestOptions

用于基于 searchText 检索建议的选项。

SuggestResult

包含建议查询找到的文档以及关联的元数据的结果。

TextSplitMode
TextTranslationSkillLanguage

定义 TextTranslationSkillKnownTextTranslationSkillLanguage 可以与此类型互换使用的支持语言

TokenCharacterKind

定义 TokenCharacterKind 的值。

TokenFilter

包含 TokenFilter 的可能情况。

TokenFilterName

定义 TokenFilterName 的值。
<xref:KnownTokenFilterName> 可与 TokenFilterName 互换使用,此枚举包含服务支持的已知值。

服务支持的已知值

arabic_normalization:一个标记筛选器,用于应用阿拉伯语规范化来规范化正字。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html
撇号:去除撇号后的所有字符 (包括撇号本身) 。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html
asciifolding:将字母、数字和符号 Unicode 字符中不在前 127 个 ASCII 字符 (“基本拉丁语”Unicode 块) 转换为其 ASCII 等效项(如果存在此类等效项)。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html
cjk_bigram:形成从标准 tokenizer 生成的 CJK 术语的二元组。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html
cjk_width:规范化 CJK 宽度差异。 将全形 ASCII 变体折叠为等效的基本拉丁语,将半角片假名变体折叠为等效的假名。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html
classic:从首字母缩略词中删除英语所有物和点。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html
common_grams:在编制索引时为经常出现的字词构造 bigrams。 此外,仍将为单个词条编制索引并叠加二元语法。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html
edgeNGram_v2:从输入标记的前面或背面开始,生成给定大小 (s) 的 n 元语法。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html
elision:删除 elisions。 例如,“l'avion” (平面) 将转换为“avion” (平面) 。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html
german_normalization:根据 German2 雪球算法的启发法规范化德语字符。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html
hindi_normalization:规范化印地语文本,以消除拼写变化的一些差异。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html
indic_normalization:规范化印度语文本的 Unicode 表示形式。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html
keyword_repeat:发出每个传入令牌两次,一次作为关键字 (keyword) 发出,一次作为非关键字 (keyword) 发出。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html
kstem:适用于英语的高性能 kstem 筛选器。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html
length:删除过长或过短的单词。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html
限制:在编制索引时限制标记数。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html
小写:将标记文本规范化为小写。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.htm
nGram_v2:生成给定大小 (s) 的 n 克。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html
persian_normalization:对波斯语应用规范化。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html
拼音:为拼音匹配创建标记。 请参见https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html
porter_stem:使用 Porter 词干算法转换令牌流。 请参见http://tartarus.org/~martin/PorterStemmer
reverse:反转令牌字符串。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html
scandinavian_normalization:规范使用可互换的斯堪的纳维亚字符。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html
scandinavian_folding:折叠斯堪的纳维亚字符 åÅäæÄÆ-a> 和 öÖøØ-o>. 它还排斥双元音 aa、ae、ao、oe 和 oo 的使用,只留下第一个元音。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html
shingle:将令牌组合创建为单个令牌。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html
snowball:使用 Snowball 生成的词干分析器对单词进行词干的筛选器。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html
sorani_normalization:规范化 Sorani 文本的 Unicode 表示形式。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html
词干分析器:特定于语言的词干筛选器。 请参见https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters
非索引字:从标记流中删除停止字。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html
trim:从标记中剪裁前导空格和尾随空格。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html
truncate:将术语截断为特定长度。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html
unique:筛选出与上一个标记相同的文本的标记。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html
大写:将标记文本规范化为大写。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html
word_delimiter:将单词拆分为子字,并在子字组上执行可选转换。

UnionToIntersection
UploadDocumentsOptions

上传文档操作的选项。

VectorFilterMode

确定是否在执行向量搜索之前或之后应用筛选器。

VectorQuery

矢量和混合搜索查询的查询参数。

VectorQueryKind
VectorSearchAlgorithmConfiguration

包含特定于索引编制和/或查询期间使用的算法的配置选项。

VectorSearchAlgorithmKind
VectorSearchAlgorithmMetric

用于矢量比较的相似性指标。

VisualFeature

枚举

KnownAnalyzerNames

定义 AnalyzerName 的值。 请参见https://docs.microsoft.com/rest/api/searchservice/Language-support

KnownBlobIndexerDataToExtract

服务接受的 BlobIndexerDataToExtract 的已知值。

KnownBlobIndexerImageAction

服务接受的 BlobIndexerImageAction 的已知值。

KnownBlobIndexerPDFTextRotationAlgorithm

服务接受的 BlobIndexerPDFTextRotationAlgorithm 的已知值。

KnownBlobIndexerParsingMode

服务接受的 BlobIndexerParsingMode 的已知值。

KnownCharFilterNames

服务接受的 CharFilterName 的已知值。

KnownCustomEntityLookupSkillLanguage

服务接受的 CustomEntityLookupSkillLanguage 的已知值。

KnownEntityCategory

服务接受的 EntityCategory 的已知值。

KnownEntityRecognitionSkillLanguage

服务接受的 EntityRecognitionSkillLanguage 的已知值。

KnownImageAnalysisSkillLanguage

服务接受的 ImageAnalysisSkillLanguage 的已知值。

KnownImageDetail

服务接受的 ImageDetail 的已知值。

KnownKeyPhraseExtractionSkillLanguage

服务接受的 KeyPhraseExtractionSkillLanguage 的已知值。

KnownOcrSkillLanguage

服务接受的 OcrSkillLanguage 的已知值。

KnownRegexFlags

服务接受的 RegexFlags 的已知值。

KnownSearchAudience

搜索受众的已知值

KnownSearchIndexerDataSourceType

服务接受的 SearchIndexerDataSourceType 的已知值。

KnownSentimentSkillLanguage

服务接受的 SentimentSkillLanguage 的已知值。

KnownSplitSkillLanguage

服务接受的 SplitSkillLanguage 的已知值。

KnownTextSplitMode

服务接受的 TextSplitMode 的已知值。

KnownTextTranslationSkillLanguage

服务接受的 TextTranslationSkillLanguage 的已知值。

KnownTokenFilterNames

服务接受的 TokenFilterName 的已知值。

KnownTokenizerNames

服务接受的 LexicalTokenizerName 的已知值。

KnownVisualFeature

服务接受的 VisualFeature 的已知值。

函数

createSynonymMapFromFile(string, string)

用于创建 SynonymMap 对象的帮助程序方法。 这是仅限 NodeJS 的方法。

odata(TemplateStringsArray, unknown[])

转义 odata 筛选器表达式,以避免引用字符串文本时出现错误。 用法示例:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

有关支持的语法的详细信息,请参阅: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

函数详细信息

createSynonymMapFromFile(string, string)

用于创建 SynonymMap 对象的帮助程序方法。 这是仅限 NodeJS 的方法。

function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>

参数

name

string

SynonymMap 的名称。

filePath

string

包含同义词的文件路径 (由新行分隔)

返回

Promise<SynonymMap>

SynonymMap 对象

odata(TemplateStringsArray, unknown[])

转义 odata 筛选器表达式,以避免引用字符串文本时出现错误。 用法示例:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

有关支持的语法的详细信息,请参阅: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

function odata(strings: TemplateStringsArray, values: unknown[]): string

参数

strings

TemplateStringsArray

表达式的字符串数组

values

unknown[]

表达式的值数组

返回

string