你当前正在访问 Microsoft Azure Global Edition 技术文档网站。 如果需要访问由世纪互联运营的 Microsoft Azure 中国技术文档网站,请访问 https://docs.azure.cn。
@azure/search-documents package
类
AzureKeyCredential |
支持更新基础键值的基于静态键的凭据。 |
GeographyPoint |
表示全局坐标中的地理点。 |
IndexDocumentsBatch |
用于对索引执行多个文档的批处理操作的类。 |
SearchClient |
用于对搜索索引执行操作的类,包括查询索引中的文档以及添加、更新和删除它们。 |
SearchIndexClient |
用于执行管理 (创建、更新、列出/删除) 索引 & 同义词映射的操作的类。 |
SearchIndexerClient |
用于执行管理 (创建、更新、列出/删除) 索引器、数据源 & 技能集的操作的类。 |
SearchIndexingBufferedSender |
用于对搜索索引执行缓冲操作的类,包括添加、更新和删除它们。 |
接口
AnalyzeRequest |
指定用于将文本拆分为标记的一些文本和分析组件。 |
AnalyzeResult |
针对文本测试分析器的结果。 |
AnalyzedTokenInfo |
有关分析器返回的令牌的信息。 |
AsciiFoldingTokenFilter |
将“基本拉丁语”Unicode) 块 (的前 127 个 ASCII 字符中的字母、数字和符号 Unicode 字符转换为其 ASCII 等效项(如果存在此类等效项)。 此令牌筛选器是使用 Apache Lucene 实现的。 |
AutocompleteItem |
自动完成请求的结果。 |
AutocompleteRequest |
模糊匹配的参数和其他自动完成查询行为。 |
AutocompleteResult |
自动完成查询的结果。 |
AzureActiveDirectoryApplicationCredentials |
为搜索服务创建的已注册应用程序的凭据,用于对 Azure 密钥保管库中存储的加密密钥的身份验证访问。 |
BM25Similarity |
基于 Okapi BM25 相似性算法的排名函数。 BM25 是一种类似于 TF IDF 的算法,包括由“b”参数) 控制的长度规范化 (,以及由“k1”参数 () 控制的术语频率饱和度。 |
BaseCharFilter |
字符筛选器的基类型。 |
BaseCognitiveServicesAccount |
描述附加到技能组的任何 Azure AI 服务资源的基类型。 |
BaseDataChangeDetectionPolicy |
数据更改检测策略的基类型。 |
BaseDataDeletionDetectionPolicy |
数据删除检测策略的基类型。 |
BaseLexicalAnalyzer |
分析器的基类型。 |
BaseLexicalTokenizer |
tokenizer 的基类型。 |
BaseScoringFunction |
可在排名期间修改文档分数的函数的基类型。 |
BaseSearchIndexerSkill |
技能的基类型。 |
BaseSearchRequestOptions |
用于筛选、排序、分面、分页和其他搜索查询行为的参数。 |
BaseTokenFilter |
令牌筛选器的基类型。 |
BaseVectorQuery |
矢量和混合搜索查询的查询参数。 |
BaseVectorSearchAlgorithmConfiguration |
包含特定于索引编制和/或查询期间使用的算法的配置选项。 |
CjkBigramTokenFilter |
形成从标准 tokenizer 生成的 CJK 术语的 bigram。 此令牌筛选器是使用 Apache Lucene 实现的。 |
ClassicSimilarity |
使用 TF-IDF 的 Lucene TFIDFSimilarity 实现的传统相似性算法。 TF-IDF 的这种变体引入了静态文档长度规范化,以及惩罚仅部分匹配搜索查询的文档的协调因素。 |
ClassicTokenizer |
适用于处理大多数欧洲语言文档的基于语法的 tokenizer。 此 tokenizer 是使用 Apache Lucene 实现的。 |
CognitiveServicesAccountKey |
使用附加到技能组的密钥预配的 Azure AI 服务资源。 |
CommonGramTokenFilter |
在编制索引时为经常出现的词条构造二元语法。 此外,仍将为单个词条编制索引并叠加二元语法。 此令牌筛选器是使用 Apache Lucene 实现的。 |
ComplexField |
表示索引定义中的字段,该字段描述字段的名称、数据类型和搜索行为。 |
ConditionalSkill |
一种技能,使需要布尔运算来确定要分配给输出的数据的方案。 |
CorsOptions |
定义用于控制索引 (CORS) 跨域资源共享的选项。 |
CreateOrUpdateIndexOptions |
创建/更新索引操作的选项。 |
CreateOrUpdateSkillsetOptions |
创建/更新技能组操作的选项。 |
CreateOrUpdateSynonymMapOptions |
用于创建/更新同义词映射操作的选项。 |
CreateorUpdateDataSourceConnectionOptions |
用于创建/更新数据源操作的选项。 |
CreateorUpdateIndexerOptions |
创建/更新索引器操作的选项。 |
CustomAnalyzer |
允许你控制将文本转换为可索引/可搜索令牌的过程。 它是用户定义的配置,由单个预定义的 tokenizer 和一个或多个筛选器组成。 tokenizer 负责将文本分解为令牌,以及用于修改 tokenizer 发出的令牌的筛选器。 |
CustomEntity |
一个 对象,其中包含有关找到的匹配项和相关元数据的信息。 |
CustomEntityAlias |
一个复杂对象,可用于指定根实体名称的替代拼写或同义词。 |
CustomEntityLookupSkill |
技能从用户定义的自定义字词和短语列表中查找文本。 |
DefaultCognitiveServicesAccount |
一个空对象,表示技能组的默认 Azure AI 服务资源。 |
DeleteDataSourceConnectionOptions |
用于删除数据源操作的选项。 |
DeleteIndexOptions |
用于删除索引操作的选项。 |
DeleteIndexerOptions |
用于删除索引器操作的选项。 |
DeleteSkillsetOptions |
用于删除技能组操作的选项。 |
DeleteSynonymMapOptions |
用于删除同义词映射操作的选项。 |
DictionaryDecompounderTokenFilter |
分解在许多日耳曼语系中找到的复合词。 此令牌筛选器是使用 Apache Lucene 实现的。 |
DistanceScoringFunction |
定义一个函数,该函数根据与地理位置的距离提高分数。 |
DistanceScoringParameters |
为距离评分函数提供参数值。 |
DocumentExtractionSkill |
一种技能,用于从扩充管道中的文件中提取内容。 |
EdgeNGramTokenFilter |
从输入令牌的前面或后面开始,生成给定大小 (s) 的 n 元语法。 此令牌筛选器是使用 Apache Lucene 实现的。 |
EdgeNGramTokenizer |
将来自边缘的输入标记化为给定大小的 n 元语法 (s) 。 此 tokenizer 是使用 Apache Lucene 实现的。 |
ElisionTokenFilter |
删除省音。 例如,“l'avion” (平面) 将转换为“avion” (平面) 。 此令牌筛选器是使用 Apache Lucene 实现的。 |
EntityLinkingSkill |
使用 文本分析 API 从文本中提取链接的实体。 |
EntityRecognitionSkill |
文本分析实体识别。 |
EntityRecognitionSkillV3 |
使用 文本分析 API 从文本中提取不同类型的实体。 |
ExhaustiveKnnParameters |
包含特定于详尽 KNN 算法的参数。 |
ExtractiveQueryAnswer |
从响应以自然语言表示为问题的查询时返回的文档内容中提取候选答案。 |
ExtractiveQueryCaption |
从包含与搜索查询相关的段落的匹配文档中提取标题。 |
FacetResult |
分面查询结果的单个存储桶。 报告字段值在特定范围内或具有特定值或间隔的文档数。 |
FieldMapping |
定义数据源中的字段与索引中目标字段之间的映射。 |
FieldMappingFunction |
表示在编制索引之前转换数据源中的值的函数。 |
FreshnessScoringFunction |
定义一个函数,该函数根据日期时间字段的值提高分数。 |
FreshnessScoringParameters |
为新鲜度评分函数提供参数值。 |
GetDocumentOptions |
用于检索单个文档的选项。 |
HighWaterMarkChangeDetectionPolicy |
定义一个数据更改检测策略,该策略根据高使用标记列的值捕获更改。 |
HnswParameters |
包含特定于 hnsw 算法的参数。 |
ImageAnalysisSkill |
分析图像文件的技能。 它基于图像内容提取一组丰富的视觉特征。 |
IndexDocumentsClient |
索引文档客户端 |
IndexDocumentsOptions |
用于修改索引批处理操作的选项。 |
IndexDocumentsResult |
包含索引请求中所有文档的操作状态的响应。 |
IndexerExecutionResult |
表示单个索引器执行的结果。 |
IndexingParameters |
表示索引器执行的参数。 |
IndexingParametersConfiguration |
索引器特定配置属性的字典。 每个名称都是特定属性的名称。 每个值必须是基元类型。 |
IndexingResult |
单个文档的索引操作的状态。 |
IndexingSchedule |
表示索引器执行的计划。 |
InputFieldMappingEntry |
技能的输入字段映射。 |
KeepTokenFilter |
标记筛选器,仅保留包含指定单词列表中的文本的标记。 此令牌筛选器是使用 Apache Lucene 实现的。 |
KeyPhraseExtractionSkill |
使用文本分析提取关键短语的技能。 |
KeywordMarkerTokenFilter |
将词条标记为关键字。 此令牌筛选器是使用 Apache Lucene 实现的。 |
KeywordTokenizer |
将整个输入作为单个标记发出。 此 tokenizer 是使用 Apache Lucene 实现的。 |
LanguageDetectionSkill |
一种技能,用于检测输入文本的语言,并为请求中提交的每个文档报告单个语言代码。 语言代码与指示分析置信度分数配对。 |
LengthTokenFilter |
删除太长或太短的字词。 此令牌筛选器是使用 Apache Lucene 实现的。 |
LimitTokenFilter |
编制索引时限制标记数量。 此令牌筛选器是使用 Apache Lucene 实现的。 |
ListSearchResultsPageSettings |
用于检索下一页搜索结果的参数。 |
LuceneStandardAnalyzer |
标准 Apache Lucene 分析器;由标准标记器、小写筛选器和停止筛选器组成。 |
LuceneStandardTokenizer |
按照 Unicode 文本分段规则划分文本。 此 tokenizer 是使用 Apache Lucene 实现的。 |
MagnitudeScoringFunction |
定义一个函数,该函数根据数值字段的量级提高分数。 |
MagnitudeScoringParameters |
为数量级评分函数提供参数值。 |
MappingCharFilter |
一个字符筛选器,用于应用使用映射选项定义的映射。 匹配具有贪婪性(给定点的最长模式匹配获胜)。 允许替换为空字符串。 此字符筛选器是使用 Apache Lucene 实现的。 |
MergeSkill |
一种技能,用于将两个或多个字符串合并为单个统一字符串,并使用可选的用户定义的分隔符分隔每个组件部分。 |
MicrosoftLanguageStemmingTokenizer |
使用特定于语言的规则划分文本,并将各字词缩减为其原形。 |
MicrosoftLanguageTokenizer |
使用特定于语言的规则划分文本。 |
NGramTokenFilter |
生成给定大小的 n 元语法。 此令牌筛选器是使用 Apache Lucene 实现的。 |
NGramTokenizer |
将输入标记为给定大小的 n 元语法。 此 tokenizer 是使用 Apache Lucene 实现的。 |
OcrSkill |
一种从图像文件中提取文本的技能。 |
OutputFieldMappingEntry |
技能的输出字段映射。 |
PIIDetectionSkill |
使用 文本分析 API,从输入文本中提取个人信息,并提供屏蔽信息的选项。 |
PathHierarchyTokenizer |
用于路径式层次结构的 tokenizer。 此 tokenizer 是使用 Apache Lucene 实现的。 |
PatternAnalyzer |
通过正则表达式模式将文本灵活地分解成多个词条。 此分析器是使用 Apache Lucene 实现的。 |
PatternCaptureTokenFilter |
使用 Java 正则表达式发出多个令牌 - 一个或多个模式中的每个捕获组一个令牌。 此令牌筛选器是使用 Apache Lucene 实现的。 |
PatternReplaceCharFilter |
一个字符筛选器,用于替换输入字符串中的字符。 它使用正则表达式来标识要保留的字符序列,并使用替换模式来标识要替换的字符。 例如,给定输入文本“aa bb aa bb”、“模式” (aa) \s+ (bb) “和替换”$1#$2“,结果将为”aa#bb aa#bb”。 此字符筛选器是使用 Apache Lucene 实现的。 |
PatternReplaceTokenFilter |
一个字符筛选器,用于替换输入字符串中的字符。 它使用正则表达式来标识要保留的字符序列,并使用替换模式来标识要替换的字符。 例如,给定输入文本“aa bb aa bb”、“模式” (aa) \s+ (bb) “和替换”$1#$2“,结果将为”aa#bb aa#bb”。 此令牌筛选器是使用 Apache Lucene 实现的。 |
PatternTokenizer |
使用正则表达式模式匹配来构造不同令牌的 Tokenizer。 此 tokenizer 是使用 Apache Lucene 实现的。 |
PhoneticTokenFilter |
为拼音匹配项创建标记。 此令牌筛选器是使用 Apache Lucene 实现的。 |
QueryAnswerResult |
答案是从与查询匹配的最相关文档的内容中提取的文本段落。 从顶部搜索结果中提取答案。 对考生的答案进行评分,并选择排名靠前的答案。 |
QueryCaptionResult |
标题是文档中相对于搜索查询最具代表性的段落。 它们通常用作文档摘要。 仅为 类型 |
ResourceCounter |
表示资源的使用情况和配额。 |
ScoringProfile |
定义影响搜索查询评分的搜索索引的参数。 |
SearchClientOptions |
用于配置认知搜索 API 请求的客户端选项。 |
SearchDocumentsPageResult |
包含来自索引的搜索页结果的响应。 |
SearchDocumentsResult |
包含索引中搜索结果的响应。 |
SearchDocumentsResultBase |
包含索引中搜索结果的响应。 |
SearchIndex |
表示搜索索引定义,该定义描述索引的字段和搜索行为。 |
SearchIndexClientOptions |
用于配置认知搜索 API 请求的客户端选项。 |
SearchIndexStatistics |
给定索引的统计信息。 统计信息会定期收集,不能保证始终是最新的。 |
SearchIndexer |
表示索引器。 |
SearchIndexerClientOptions |
用于配置认知搜索 API 请求的客户端选项。 |
SearchIndexerDataContainer |
表示有关实体 (的信息,例如Azure SQL表或将编制索引的 CosmosDB 集合) 。 |
SearchIndexerDataSourceConnection |
表示可用于配置索引器的数据源定义。 |
SearchIndexerError |
表示项级别或文档级别索引错误。 |
SearchIndexerKnowledgeStore |
定义扩充数据的 Azure Blob、表或文件的其他投影。 |
SearchIndexerKnowledgeStoreBlobProjectionSelector |
用于在具体选择器之间共享属性的抽象类。 |
SearchIndexerKnowledgeStoreFileProjectionSelector |
要存储在Azure 文件存储中的数据的投影定义。 |
SearchIndexerKnowledgeStoreObjectProjectionSelector |
要存储在 Azure Blob 中的数据的投影定义。 |
SearchIndexerKnowledgeStoreProjection |
各种投影选择器的容器对象。 |
SearchIndexerKnowledgeStoreProjectionSelector |
用于在具体选择器之间共享属性的抽象类。 |
SearchIndexerKnowledgeStoreTableProjectionSelector |
有关要在 Azure 表中存储的数据的说明。 |
SearchIndexerLimits | |
SearchIndexerSkillset |
技能列表。 |
SearchIndexerStatus |
表示索引器的当前状态和执行历史记录。 |
SearchIndexerWarning |
表示项级警告。 |
SearchIndexingBufferedSenderOptions |
SearchIndexingBufferedSender 的选项。 |
SearchResourceEncryptionKey |
Azure 密钥保管库中客户管理的加密密钥。 创建和管理的密钥可用于加密或解密Azure 认知搜索中的静态数据,例如索引和同义词映射。 |
SearchServiceStatistics |
来自获取服务统计信息请求的响应。 如果成功,则包含服务级别计数器和限制。 |
SearchSuggester |
定义建议 API 应如何应用于索引中的一组字段。 |
SemanticConfiguration |
定义要在语义功能上下文中使用的特定配置。 |
SemanticField |
用作语义配置的一部分的字段。 |
SemanticPrioritizedFields |
描述用于语义排名、标题、突出显示和答案的标题、内容和关键字字段。 |
SemanticSearch |
定义影响语义功能的搜索索引的参数。 |
SemanticSearchOptions |
定义语义搜索查询的选项 |
SentimentSkill |
文本分析正负情绪分析,评分为 0 到 1 范围内的浮点值。 |
SentimentSkillV3 |
使用 文本分析 API 评估非结构化文本,并根据服务在句子和文档级别找到的最高置信度分数,提供情绪标签 (,如“负面”、“中性”和“积极”) 。 |
ServiceCounters |
表示服务级别资源计数器和配额。 |
ServiceLimits |
表示各种服务级别限制。 |
ShaperSkill |
用于重塑输出的技能。 它创建一个复杂类型以支持复合字段 (也称为多部分字段) 。 |
ShingleTokenFilter |
创建标记组合作为单个标记。 此令牌筛选器是使用 Apache Lucene 实现的。 |
Similarity |
相似性算法的基类型。 相似性算法用于计算将查询与文档挂钩的分数。 分数越高,文档与该特定查询的相关性就越高。 这些分数用于对搜索结果进行排名。 |
SimpleField |
表示索引定义中的字段,该字段描述字段的名称、数据类型和搜索行为。 |
SnowballTokenFilter |
使用 Snowball 生成的词干分析器对单词进行词干的筛选器。 此令牌筛选器是使用 Apache Lucene 实现的。 |
SoftDeleteColumnDeletionDetectionPolicy |
定义实现软删除策略的数据删除检测策略。 它根据指定的“软删除”列的值确定是否应删除项。 |
SplitSkill |
将字符串拆分为文本块的技能。 |
SqlIntegratedChangeTrackingPolicy |
定义使用 Azure SQL 数据库的集成更改跟踪功能捕获更改的数据更改检测策略。 |
StemmerOverrideTokenFilter |
提供使用基于自定义字典的词干分解替代其他词干筛选的功能。 任何字典词干术语都将标记为关键字,以便它们不会在链中通过词干分析器进行词干分解。 必须放在任何词干分解筛选器之前。 此令牌筛选器是使用 Apache Lucene 实现的。 |
StemmerTokenFilter |
特定于语言的词干筛选。 此令牌筛选器是使用 Apache Lucene 实现的。 |
StopAnalyzer |
将文本除以非字母;应用小写和非字标记筛选器。 此分析器是使用 Apache Lucene 实现的。 |
StopwordsTokenFilter |
从标记流中删除非索引字。 此令牌筛选器是使用 Apache Lucene 实现的。 |
SuggestDocumentsResult |
包含来自索引的建议查询结果的响应。 |
SuggestRequest |
用于筛选、排序、模糊匹配和其他建议查询行为的参数。 |
SynonymMap |
表示同义词映射定义。 |
SynonymTokenFilter |
匹配令牌流中的单字或多字同义词。 此令牌筛选器是使用 Apache Lucene 实现的。 |
TagScoringFunction |
定义一个函数,该函数使用与给定标记列表匹配的字符串值提升文档分数。 |
TagScoringParameters |
为标记评分函数提供参数值。 |
TextTranslationSkill |
将文本从一种语言翻译成另一种语言的技能。 |
TextWeights |
定义索引字段的权重,匹配项应提高搜索查询中的评分。 |
TruncateTokenFilter |
将术语截断为特定长度。 此令牌筛选器是使用 Apache Lucene 实现的。 |
UaxUrlEmailTokenizer |
将 URL 和电子邮件标记为一个标记。 此 tokenizer 是使用 Apache Lucene 实现的。 |
UniqueTokenFilter |
筛选出与前一个标记具有相同文本的标记。 此令牌筛选器是使用 Apache Lucene 实现的。 |
VectorSearch |
包含与矢量搜索相关的配置选项。 |
VectorSearchOptions |
定义矢量搜索查询的选项 |
VectorSearchProfile |
定义要与矢量搜索一起使用的配置组合。 |
VectorizedQuery |
提供原始向量值时用于矢量搜索的查询参数。 |
WebApiSkill |
一种可以调用 Web API 终结点的技能,允许你通过调用自定义代码来扩展技能集。 |
WordDelimiterTokenFilter |
将字词拆分为子字,并对子字组执行可选转换。 此令牌筛选器是使用 Apache Lucene 实现的。 |
类型别名
AnalyzeTextOptions |
用于分析文本操作的选项。 |
AutocompleteMode |
定义 AutocompleteMode 的值。 |
AutocompleteOptions |
用于检索部分 searchText 的完成文本的选项。 |
BlobIndexerDataToExtract |
服务支持的已知值storageMetadata:仅索引标准 Blob 属性和用户指定的元数据。 allMetadata:提取 Azure Blob 存储子系统提供的元数据和内容类型特定的元数据 (例如,仅 .png 文件的唯一元数据) 编制索引。 contentAndMetadata:从每个 Blob 中提取所有元数据和文本内容。 |
BlobIndexerImageAction |
服务支持的已知值none:忽略数据集中的嵌入图像或图像文件。 这是默认值。 generateNormalizedImages:从图像中提取文本 (例如,从交通停止标志) “STOP”一词,并将其嵌入内容字段中。 此操作要求将“dataToExtract”设置为“contentAndMetadata”。 规范化图像是指在视觉搜索结果中包含图像时,可进行统一的图像输出、调整大小和旋转,以促进一致的呈现。 当使用此选项时,将为每个图像生成此信息。 generateNormalizedImagePerPage:从图像中提取文本,例如,从交通停止标志 (“STOP”一词) ,并将其嵌入内容字段中,但对 PDF 文件进行不同的处理,因为每个页面将呈现为图像并相应地规范化,而不是提取嵌入的图像。 非 PDF 文件类型的处理与设置“generateNormalizedImages”相同。 |
BlobIndexerPDFTextRotationAlgorithm |
服务支持的已知值none:利用普通文本提取。 这是默认值。 detectAngles:可以从 PDF 文件中旋转文本生成更好、更易于阅读的文本提取。 请注意,使用此参数时,可能会对性能速度产生较小的影响。 此参数仅适用于 PDF 文件,仅适用于嵌入文本的 PDF。 如果旋转的文本显示在 PDF 中的嵌入图像中,则此参数不适用。 |
BlobIndexerParsingMode |
服务支持的已知值default:对于正常文件处理,设置为默认值。 text:设置为 text 以提高 Blob 存储中纯文本文件的索引性能。 delimitedText:当 blob 是普通 CSV 文件时,设置为 delimitedText。 json:设置为 json 以从 JSON 文件中提取结构化内容。 jsonArray:设置为 jsonArray 可将 JSON 数组的各个元素提取为Azure 认知搜索中的单独文档。 jsonLines:设置为 jsonLines 以提取单个 JSON 实体(用新行分隔)作为Azure 认知搜索中的单独文档。 |
CharFilter |
包含 CharFilter 的可能情况。 |
CharFilterName |
定义 CharFilterName 的值。 服务支持的已知值html_strip:尝试去除 HTML 构造的字符筛选器。 请参见https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html |
CjkBigramTokenFilterScripts |
定义 CjkBigramTokenFilterScripts 的值。 |
CognitiveServicesAccount |
包含 CognitiveServicesAccount 的可能事例。 |
ComplexDataType |
定义 ComplexDataType 的值。 可能的值包括:“Edm.ComplexType”、“Collection (Edm.ComplexType) ” |
CountDocumentsOptions |
用于对索引执行计数操作的选项。 |
CreateDataSourceConnectionOptions |
用于创建数据源操作的选项。 |
CreateIndexOptions |
用于创建索引操作的选项。 |
CreateIndexerOptions |
用于创建索引器操作的选项。 |
CreateSkillsetOptions |
用于创建技能组操作的选项。 |
CreateSynonymMapOptions |
用于创建同义词映射操作的选项。 |
CustomEntityLookupSkillLanguage |
定义 CustomEntityLookupSkillKnownCustomEntityLookupSkillLanguage 可以与此类型互换使用的支持语言 |
DataChangeDetectionPolicy |
包含 DataChangeDetectionPolicy 的可能案例。 |
DataDeletionDetectionPolicy |
包含 DataDeletionDetectionPolicy 的可能情况。 |
DeleteDocumentsOptions |
用于删除文档操作的选项。 |
EdgeNGramTokenFilterSide |
定义 EdgeNGramTokenFilterSide 的值。 |
EntityCategory | |
EntityRecognitionSkillLanguage |
定义 EntityRecognitionSkillKnownEntityRecognitionSkillLanguage 可以与此类型互换使用的支持语言 |
ExcludedODataTypes | |
ExhaustiveKnnAlgorithmConfiguration |
包含特定于查询期间使用的详尽 KNN 算法的配置选项,该算法将对整个向量索引执行暴力搜索。 |
ExtractDocumentKey | |
GetDataSourceConnectionOptions |
用于获取数据源操作的选项。 |
GetIndexOptions |
用于获取索引操作的选项。 |
GetIndexStatisticsOptions |
用于获取索引统计信息操作的选项。 |
GetIndexerOptions |
用于获取索引器操作的选项。 |
GetIndexerStatusOptions |
用于获取索引器状态操作的选项。 |
GetServiceStatisticsOptions |
用于获取服务统计信息操作的选项。 |
GetSkillSetOptions |
用于获取技能组操作的选项。 |
GetSynonymMapsOptions |
用于获取同义词映射操作的选项。 |
HnswAlgorithmConfiguration |
包含特定于索引编制期间使用的 hnsw 近似近邻算法的配置选项。 |
ImageAnalysisSkillLanguage |
定义 ImageAnalysisSkillKnownImageAnalysisSkillLanguage 可以与此类型互换使用的支持语言 |
ImageDetail | |
IndexActionType |
定义 IndexActionType 的值。 |
IndexDocumentsAction |
表示对文档进行操作的索引操作。 |
IndexIterator |
用于列出搜索服务中存在的索引的迭代器。 将在迭代期间根据需要发出请求。 使用 .byPage () 每次迭代向服务器发出一个请求。 |
IndexNameIterator |
用于列出搜索服务中存在的索引的迭代器。 将在迭代期间根据需要发出请求。 使用 .byPage () 每次迭代向服务器发出一个请求。 |
IndexerExecutionEnvironment |
服务支持的已知值standard:指示Azure 认知搜索可以确定索引器应执行的位置。 如果未指定任何内容,则这是默认环境,并且是建议的值。 private:指示索引器应使用专门为搜索服务预配的环境运行。 仅当索引器需要通过共享专用链接资源安全地访问资源时,才应将其指定为执行环境。 |
IndexerExecutionStatus |
定义 IndexerExecutionStatus 的值。 |
IndexerStatus |
定义 IndexerStatus 的值。 |
KeyPhraseExtractionSkillLanguage |
定义 KeyPhraseExtractionSkillKnownKeyPhraseExtractionSkillLanguage 可以与此类型互换使用的支持语言 |
LexicalAnalyzer |
包含分析器可能的情况。 |
LexicalAnalyzerName |
定义 LexicalAnalyzerName 的值。 服务支持的已知值ar.microsoft:适用于阿拉伯语的 Microsoft 分析器。 |
LexicalTokenizer |
包含 Tokenizer 的可能情况。 |
LexicalTokenizerName |
定义 LexicalTokenizerName 的值。 服务支持的已知值经典:适用于处理大多数欧洲语言文档的基于语法的 tokenizer。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html |
ListDataSourceConnectionsOptions |
列表数据源操作的选项。 |
ListIndexersOptions |
列表索引器操作的选项。 |
ListIndexesOptions |
列表索引操作的选项。 |
ListSkillsetsOptions |
列表技能集操作的选项。 |
ListSynonymMapsOptions |
列表 synonymMaps 操作的选项。 |
MergeDocumentsOptions |
合并文档操作的选项。 |
MergeOrUploadDocumentsOptions |
合并或上传文档操作的选项。 |
MicrosoftStemmingTokenizerLanguage |
定义 MicrosoftStemmingTokenizerLanguage 的值。 |
MicrosoftTokenizerLanguage |
定义 MicrosoftTokenizerLanguage 的值。 |
NarrowedModel |
缩小模型类型以仅包含所选字段 |
OcrSkillLanguage |
定义 OcrSkillKnownOcrSkillLanguage 可以与此类型互换使用的支持语言 |
PIIDetectionSkillMaskingMode |
定义 PIIDetectionSkillMaskingMode 的值。 服务支持的已知值none:不进行掩码,并且不会返回 maskedText 输出。 replace:将检测到的实体替换为 maskingCharacter 参数中给定的字符。 字符将重复到检测到的实体的长度,以便偏移量正确对应于输入文本和输出 maskedText。 |
PhoneticEncoder |
定义 PhoneticEncoder 的值。 |
QueryAnswer |
一个 值,该值指定是否应作为搜索响应的一部分返回答案。
仅当查询类型为“semantic”时,此参数才有效。 如果设置为 |
QueryCaption |
一个 值,该值指定是否应将字幕作为搜索响应的一部分返回。 仅当查询类型为“semantic”时,此参数才有效。 如果设置,查询将返回从排名靠前的文档中的关键段落中提取的标题。 当标题为“提取”时,默认情况下会启用突出显示。 默认为“none”。 |
QueryType |
定义 QueryType 的值。 |
RegexFlags |
定义正则表达式模式匹配的标志 服务支持的已知值CANON_EQ:启用规范等效。 CASE_INSENSITIVE:启用不区分大小写的匹配。 注释:允许模式中的空格和注释。 DOTALL:启用 dotall 模式。 LITERAL:启用模式的文本分析。 MULTILINE:启用多行模式。 UNICODE_CASE:启用 Unicode 感知大小写折叠。 UNIX_LINES:启用 Unix 行模式。 |
ResetIndexerOptions |
重置索引器操作的选项。 |
RunIndexerOptions |
运行索引器操作的选项。 |
ScoringFunction |
包含 ScoringFunction 的可能情况。 |
ScoringFunctionAggregation |
定义 ScoringFunctionAggregation 的值。 |
ScoringFunctionInterpolation |
定义 ScoringFunctionInterpolation 的值。 |
ScoringStatistics |
定义 ScoringStatistics 的值。 |
SearchField |
表示索引定义中的字段,该字段描述字段的名称、数据类型和搜索行为。 |
SearchFieldArray |
如果 |
SearchFieldDataType |
定义 SearchFieldDataType 的值。 可能的值包括:“Edm.String”、“Edm.Int32”、“Edm.Int64”、“Edm.Double”、“Edm.Boolean”、“Edm.DateTimeOffset”、“Edm.GeographyPoint”、“Collection (Edm.String) ”, “Collection (Edm.Int32) ”、“Collection (Edm.Int64) ”、“Collection (Edm.Double) ”、“Collection (Edm.Boolean) ”、“Collection (Edm.DateTimeOffset) ”、“Collection (Edm.GeographyPoint) ”、“Collection (Edm.Single) ” NB: |
SearchIndexerDataSourceType | |
SearchIndexerSkill |
包含技能的可能情况。 |
SearchIndexingBufferedSenderDeleteDocumentsOptions |
SearchIndexingBufferedSenderDeleteDocuments 的选项。 |
SearchIndexingBufferedSenderFlushDocumentsOptions |
SearchIndexingBufferedSenderFlushDocuments 的选项。 |
SearchIndexingBufferedSenderMergeDocumentsOptions |
SearchIndexingBufferedSenderMergeDocuments 的选项。 |
SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions |
SearchIndexingBufferedSenderMergeOrUploadDocuments 的选项。 |
SearchIndexingBufferedSenderUploadDocumentsOptions |
SearchIndexingBufferedSenderUploadDocuments 的选项。 |
SearchIterator |
一个迭代器,用于查询的搜索结果。 将在迭代期间根据需要发出请求。 使用 .byPage () 每次迭代向服务器发出一个请求。 |
SearchMode |
定义 SearchMode 的值。 |
SearchOptions |
用于提交完整搜索请求的选项。 |
SearchPick |
使用有效的认知搜索 OData $select路径深入选取 T 的字段。 |
SearchRequestOptions |
用于筛选、排序、分面、分页和其他搜索查询行为的参数。 |
SearchRequestQueryTypeOptions | |
SearchResult |
包含搜索查询找到的文档,以及关联的元数据。 |
SelectArray |
如果 |
SelectFields |
使用根于 T 的字段树的后序遍历生成 T 的有效认知搜索 OData $select路径的联合。 |
SemanticErrorMode |
partial:如果语义处理失败,仍返回部分结果。 部分结果的定义取决于失败的语义步骤以及失败的原因。 fail:如果在语义处理步骤中出现异常,查询将失败并返回相应的 HTTP 代码,具体取决于错误。 |
SemanticErrorReason |
maxWaitExceeded:如果设置了“semanticMaxWaitInMilliseconds”,并且语义处理持续时间超过了该值。 仅返回基本结果。 capacityOverloaded:请求受到限制。 仅返回基本结果。 暂时性:语义过程至少有一个步骤失败。 |
SemanticSearchResultsType |
baseResults:没有任何语义扩充或重新调整的结果。 rerankedResults:结果已使用重新排名器模型,并将包含语义标题。 它们不包括任何答案、答案要点或描述文字要点。 |
SentimentSkillLanguage |
定义 SentimentSkillKnownSentimentSkillLanguage 的支持语言,可以与此类型互换 |
SimilarityAlgorithm |
包含相似性的可能事例。 |
SnowballTokenFilterLanguage |
定义 SnowballTokenFilterLanguage 的值。 |
SplitSkillLanguage |
定义 SplitSkillKnownSplitSkillLanguage 支持的语言,可以与此类型互换使用 |
StemmerTokenFilterLanguage |
定义 StemmerTokenFilterLanguage 的值。 |
StopwordsList |
定义 StopwordsList 的值。 |
SuggestNarrowedModel | |
SuggestOptions |
用于基于 searchText 检索建议的选项。 |
SuggestResult |
包含建议查询找到的文档以及关联的元数据的结果。 |
TextSplitMode | |
TextTranslationSkillLanguage |
定义 TextTranslationSkillKnownTextTranslationSkillLanguage 可以与此类型互换使用的支持语言 |
TokenCharacterKind |
定义 TokenCharacterKind 的值。 |
TokenFilter |
包含 TokenFilter 的可能情况。 |
TokenFilterName |
定义 TokenFilterName 的值。 服务支持的已知值arabic_normalization:一个标记筛选器,用于应用阿拉伯语规范化来规范化正字。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html |
UnionToIntersection | |
UploadDocumentsOptions |
上传文档操作的选项。 |
VectorFilterMode |
确定是否在执行向量搜索之前或之后应用筛选器。 |
VectorQuery |
矢量和混合搜索查询的查询参数。 |
VectorQueryKind | |
VectorSearchAlgorithmConfiguration |
包含特定于索引编制和/或查询期间使用的算法的配置选项。 |
VectorSearchAlgorithmKind | |
VectorSearchAlgorithmMetric |
用于矢量比较的相似性指标。 |
VisualFeature |
枚举
函数
create |
用于创建 SynonymMap 对象的帮助程序方法。 这是仅限 NodeJS 的方法。 |
odata(Template |
转义 odata 筛选器表达式,以避免引用字符串文本时出现错误。 用法示例:
有关支持的语法的详细信息,请参阅: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter |
函数详细信息
createSynonymMapFromFile(string, string)
用于创建 SynonymMap 对象的帮助程序方法。 这是仅限 NodeJS 的方法。
function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>
参数
- name
-
string
SynonymMap 的名称。
- filePath
-
string
包含同义词的文件路径 (由新行分隔)
返回
Promise<SynonymMap>
SynonymMap 对象
odata(TemplateStringsArray, unknown[])
转义 odata 筛选器表达式,以避免引用字符串文本时出现错误。 用法示例:
const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;
有关支持的语法的详细信息,请参阅: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter
function odata(strings: TemplateStringsArray, values: unknown[]): string
参数
- strings
-
TemplateStringsArray
表达式的字符串数组
- values
-
unknown[]
表达式的值数组
返回
string