你当前正在访问 Microsoft Azure Global Edition 技术文档网站。 如果需要访问由世纪互联运营的 Microsoft Azure 中国技术文档网站,请访问 https://docs.azure.cn。
@azure/search-documents package
类
AzureKeyCredential |
支持更新基础密钥值的基于静态密钥的凭据。 |
GeographyPoint |
表示全局坐标中的地理点。 |
IndexDocumentsBatch |
用于对索引使用多个文档执行批处理操作的类。 |
SearchClient |
用于对搜索索引执行操作的类,包括查询索引中的文档以及添加、更新和删除它们。 |
SearchIndexClient |
用于执行管理(创建、更新、列出/删除)索引 & 同义词映射的操作的类。 |
SearchIndexerClient |
用于执行管理(创建、更新、列出/删除)索引器、数据源 & 技能集的操作的类。 |
SearchIndexingBufferedSender |
用于对搜索索引执行缓冲操作的类,包括添加、更新和删除它们。 |
接口
AnalyzeRequest |
指定用于将文本分解为标记的一些文本和分析组件。 |
AnalyzeResult |
在文本上测试分析器的结果。 |
AnalyzedTokenInfo |
有关分析器返回的令牌的信息。 |
AsciiFoldingTokenFilter |
如果存在此类等效项,则将前 127 个 ASCII 字符(“基本拉丁语”Unicode 块)中的字母、数字和符号 Unicode 字符转换为其 ASCII 等效项。 此令牌筛选器是使用 Apache Lucene 实现的。 |
AutocompleteItem |
自动完成请求的结果。 |
AutocompleteRequest |
模糊匹配和其他自动完成查询行为的参数。 |
AutocompleteResult |
自动完成查询的结果。 |
AzureActiveDirectoryApplicationCredentials |
为搜索服务创建的已注册应用程序的凭据,用于对 Azure Key Vault 中存储的加密密钥进行身份验证的访问权限。 |
AzureOpenAIEmbeddingSkill |
允许使用 Azure OpenAI 资源为给定文本输入生成矢量嵌入。 |
AzureOpenAIParameters |
包含特定于在查询时使用 Azure Open AI 服务进行矢量化的参数。 |
AzureOpenAIVectorizer |
包含特定于在查询时使用 Azure Open AI 服务进行矢量化的参数。 |
BM25Similarity |
基于 Okapi BM25 相似性算法的排名函数。 BM25 是一种类似于 TF-IDF 的算法,包括长度规范化(由“b”参数控制)以及术语频率饱和(由“k1”参数控制)。 |
BaseCharFilter |
字符筛选器的基类型。 |
BaseCognitiveServicesAccount |
用于描述附加到技能集的任何 Azure AI 服务资源的基类型。 |
BaseDataChangeDetectionPolicy |
数据更改检测策略的基类型。 |
BaseDataDeletionDetectionPolicy |
数据删除检测策略的基类型。 |
BaseLexicalAnalyzer |
分析器的基类型。 |
BaseLexicalTokenizer |
tokenizer 的基类型。 |
BaseScoringFunction |
可在排名期间修改文档分数的函数的基类型。 |
BaseSearchIndexerDataIdentity |
数据标识的抽象基类型。 |
BaseSearchIndexerSkill |
技能的基类型。 |
BaseSearchRequestOptions |
用于筛选、排序、分面、分页和其他搜索查询行为的参数。 |
BaseTokenFilter |
标记筛选器的基类型。 |
BaseVectorQuery |
矢量和混合搜索查询的查询参数。 |
BaseVectorSearchAlgorithmConfiguration |
包含特定于索引编制和/或查询期间使用的算法的配置选项。 |
BaseVectorSearchCompression |
包含特定于索引或查询期间使用的压缩方法的配置选项。 |
BaseVectorSearchVectorizer |
包含查询期间要使用的向量化方法的特定详细信息。 |
BinaryQuantizationCompression |
包含特定于索引和查询期间使用的二进制量化压缩方法的配置选项。 |
CjkBigramTokenFilter |
形成从标准标记器生成的 CJK 术语的 bigram。 此令牌筛选器是使用 Apache Lucene 实现的。 |
ClassicSimilarity |
使用 TF-IDF 的 Lucene TFIDFSimilarity 实现的旧相似性算法。 这种 TF-IDF 变体引入了静态文档长度规范化,以及惩罚仅部分匹配搜索查询的文档的协调因素。 |
ClassicTokenizer |
适用于处理大多数欧洲语言文档的基于语法的 tokenizer。 此 tokenizer 是使用 Apache Lucene 实现的。 |
CognitiveServicesAccountKey |
附加到技能集的 Azure AI 服务资源的多区域帐户密钥。 |
CommonGramTokenFilter |
为索引时经常出现的字词构造 bigrams。 单个字词仍编制索引,并覆盖 bigrams。 此令牌筛选器是使用 Apache Lucene 实现的。 |
ComplexField |
表示索引定义中的字段,该定义描述字段的名称、数据类型和搜索行为。 |
ConditionalSkill |
一种技能,使需要布尔操作的方案能够确定要分配给输出的数据。 |
CorsOptions |
定义用于控制索引的跨域资源共享(CORS)的选项。 |
CreateOrUpdateIndexOptions |
用于创建/更新索引操作的选项。 |
CreateOrUpdateSkillsetOptions |
用于创建/更新技能集操作的选项。 |
CreateOrUpdateSynonymMapOptions |
用于创建/更新同义词映射操作的选项。 |
CreateorUpdateDataSourceConnectionOptions |
用于创建/更新数据源操作的选项。 |
CreateorUpdateIndexerOptions |
用于创建/更新索引器操作的选项。 |
CustomAnalyzer |
允许你控制将文本转换为可索引/可搜索令牌的过程。 它是用户定义的配置,由单个预定义的 tokenizer 和一个或多个筛选器组成。 tokenizer 负责将文本分解为令牌,以及用于修改 tokenizer 发出的令牌的筛选器。 |
CustomEntity |
一个对象,其中包含有关找到的匹配项和相关元数据的信息。 |
CustomEntityAlias |
可用于指定根实体名称的替代拼写或同义词的复杂对象。 |
CustomEntityLookupSkill |
技能从自定义的用户定义字词和短语列表中查找文本。 |
DefaultCognitiveServicesAccount |
一个空对象,表示技能集的默认 Azure AI 服务资源。 |
DeleteDataSourceConnectionOptions |
用于删除数据源操作的选项。 |
DeleteIndexOptions |
用于删除索引操作的选项。 |
DeleteIndexerOptions |
用于删除索引器操作的选项。 |
DeleteSkillsetOptions |
用于删除技能集操作的选项。 |
DeleteSynonymMapOptions |
用于删除同义词映射操作的选项。 |
DictionaryDecompounderTokenFilter |
分解许多德语语言中发现的复合词。 此令牌筛选器是使用 Apache Lucene 实现的。 |
DistanceScoringFunction |
定义基于地理位置距离提升分数的函数。 |
DistanceScoringParameters |
向距离评分函数提供参数值。 |
DocumentExtractionSkill |
从扩充管道中的文件中提取内容的技能。 |
EdgeNGramTokenFilter |
从输入令牌的前面或后面开始,生成给定大小的 n 元语法。 此令牌筛选器是使用 Apache Lucene 实现的。 |
EdgeNGramTokenizer |
将输入从边缘标记为给定大小的 n 元语法。 此 tokenizer 是使用 Apache Lucene 实现的。 |
ElisionTokenFilter |
删除 elisions。 例如,“l'avion”(平面)将转换为“avion”(平面)。 此令牌筛选器是使用 Apache Lucene 实现的。 |
EntityLinkingSkill |
使用文本分析 API 从文本中提取链接的实体。 |
EntityRecognitionSkill |
文本分析实体识别。 |
EntityRecognitionSkillV3 |
使用文本分析 API 从文本中提取不同类型的实体。 |
ExhaustiveKnnParameters |
包含特定于详尽 KNN 算法的参数。 |
ExtractiveQueryAnswer |
从以自然语言表示的查询中返回的文档内容中提取答案候选项。 |
ExtractiveQueryCaption |
从匹配的文档中提取标题,其中包含与搜索查询相关的段落。 |
FacetResult |
分面查询结果的单个存储桶。 报告字段值在特定范围内或具有特定值或间隔的文档数。 |
FieldMapping |
定义数据源中的字段与索引中目标字段之间的映射。 |
FieldMappingFunction |
表示在编制索引之前从数据源转换值的函数。 |
FreshnessScoringFunction |
定义一个函数,该函数根据日期时间字段的值提升分数。 |
FreshnessScoringParameters |
为新鲜度评分函数提供参数值。 |
GetDocumentOptions |
用于检索单个文档的选项。 |
HighWaterMarkChangeDetectionPolicy |
定义数据更改检测策略,该策略根据高水印列的值捕获更改。 |
HnswParameters |
包含特定于 hnsw 算法的参数。 |
ImageAnalysisSkill |
分析图像文件的技能。 它基于图像内容提取一组丰富的视觉特征。 |
IndexDocumentsClient |
索引文档客户端 |
IndexDocumentsOptions |
修改索引批处理操作的选项。 |
IndexDocumentsResult |
包含索引请求中所有文档的操作状态的响应。 |
IndexerExecutionResult |
表示单个索引器执行的结果。 |
IndexingParameters |
表示索引器执行的参数。 |
IndexingParametersConfiguration |
特定于索引器的配置属性的字典。 每个名称都是特定属性的名称。 每个值都必须是基元类型。 |
IndexingResult |
单个文档的索引操作的状态。 |
IndexingSchedule |
表示索引器执行的计划。 |
InputFieldMappingEntry |
技能的输入字段映射。 |
KeepTokenFilter |
一个标记筛选器,它只保留包含指定字词列表中的文本的标记。 此令牌筛选器是使用 Apache Lucene 实现的。 |
KeyPhraseExtractionSkill |
使用文本分析进行关键短语提取的技能。 |
KeywordMarkerTokenFilter |
将术语标记为关键字。 此令牌筛选器是使用 Apache Lucene 实现的。 |
KeywordTokenizer |
以单个标记的形式发出整个输入。 此 tokenizer 是使用 Apache Lucene 实现的。 |
LanguageDetectionSkill |
一种技能,用于检测输入文本的语言,并报告请求上提交的每个文档的单个语言代码。 语言代码与指示分析置信度分数配对。 |
LengthTokenFilter |
删除太长或太短的字词。 此令牌筛选器是使用 Apache Lucene 实现的。 |
LimitTokenFilter |
在编制索引时限制令牌数。 此令牌筛选器是使用 Apache Lucene 实现的。 |
ListSearchResultsPageSettings |
用于检索搜索结果下一页的参数。 |
LuceneStandardAnalyzer |
标准 Apache Lucene 分析器;由标准 tokenizer、小写筛选器和停止筛选器组成。 |
LuceneStandardTokenizer |
中断 Unicode 文本分段规则后面的文本。 此 tokenizer 是使用 Apache Lucene 实现的。 |
MagnitudeScoringFunction |
定义一个函数,该函数根据数值字段的大小提升分数。 |
MagnitudeScoringParameters |
向数量级评分函数提供参数值。 |
MappingCharFilter |
一个字符筛选器,它应用使用映射选项定义的映射。 匹配是贪婪(给定点获胜时最长的模式匹配)。 允许替换为空字符串。 此字符筛选器是使用 Apache Lucene 实现的。 |
MergeSkill |
用于将两个或多个字符串合并到单个统一字符串的技能,使用可选的用户定义的分隔符分隔每个组件部件。 |
MicrosoftLanguageStemmingTokenizer |
使用特定于语言的规则划分文本,并将单词减少到其基形式。 |
MicrosoftLanguageTokenizer |
使用特定于语言的规则划分文本。 |
NGramTokenFilter |
生成给定大小的 n 元语法。 此令牌筛选器是使用 Apache Lucene 实现的。 |
NGramTokenizer |
将输入标记为给定大小的 n 元语法。 此 tokenizer 是使用 Apache Lucene 实现的。 |
OcrSkill |
从图像文件中提取文本的技能。 |
OutputFieldMappingEntry |
技能的输出字段映射。 |
PIIDetectionSkill |
使用文本分析 API,从输入文本中提取个人信息,并提供屏蔽信息的选项。 |
PathHierarchyTokenizer |
类似路径层次结构的 Tokenizer。 此 tokenizer 是使用 Apache Lucene 实现的。 |
PatternAnalyzer |
灵活将文本通过正则表达式模式分隔为字词。 此分析器是使用 Apache Lucene 实现的。 |
PatternCaptureTokenFilter |
使用 Java 正则表达式发出多个令牌 - 一个标记用于一个或多个模式中的每个捕获组。 此令牌筛选器是使用 Apache Lucene 实现的。 |
PatternReplaceCharFilter |
替换输入字符串中的字符的字符筛选器。 它使用正则表达式来标识要保留的字符序列和替换模式来标识要替换的字符。 例如,假设输入文本“aa bb aa bb”,模式“(aa)\s+(bb)”,并替换“$1#$2”,结果将为“aa#bb aa#bb”。 此字符筛选器是使用 Apache Lucene 实现的。 |
PatternReplaceTokenFilter |
替换输入字符串中的字符的字符筛选器。 它使用正则表达式来标识要保留的字符序列和替换模式来标识要替换的字符。 例如,假设输入文本“aa bb aa bb”,模式“(aa)\s+(bb)”,并替换“$1#$2”,结果将为“aa#bb aa#bb”。 此令牌筛选器是使用 Apache Lucene 实现的。 |
PatternTokenizer |
使用正则表达式模式匹配构造不同令牌的 Tokenizer。 此 tokenizer 是使用 Apache Lucene 实现的。 |
PhoneticTokenFilter |
为拼音匹配创建令牌。 此令牌筛选器是使用 Apache Lucene 实现的。 |
QueryAnswerResult |
答案是从与查询匹配的最相关文档的内容中提取的文本段落。 答案是从排名靠前的搜索结果中提取的。 对考生进行评分,并且选择了排名靠前的答案。 |
QueryCaptionResult |
标题是文档相对于搜索查询最具代表性的段落。 它们通常用作文档摘要。 仅返回 |
ResourceCounter |
表示资源的使用情况和配额。 |
ScalarQuantizationCompression |
包含特定于索引和查询期间使用的标量量化压缩方法的配置选项。 |
ScalarQuantizationParameters |
包含特定于标量量化的参数。 |
ScoringProfile |
定义影响搜索查询中评分的搜索索引的参数。 |
SearchClientOptions |
用于配置认知搜索 API 请求的客户端选项。 |
SearchDocumentsPageResult |
包含索引中的搜索结果的响应。 |
SearchDocumentsResult |
包含索引搜索结果的响应。 |
SearchDocumentsResultBase |
包含索引搜索结果的响应。 |
SearchIndex |
表示搜索索引定义,该定义描述索引的字段和搜索行为。 |
SearchIndexClientOptions |
用于配置认知搜索 API 请求的客户端选项。 |
SearchIndexStatistics |
给定索引的统计信息。 统计信息会定期收集,不保证始终 up-to日期。 |
SearchIndexer |
表示索引器。 |
SearchIndexerClientOptions |
用于配置认知搜索 API 请求的客户端选项。 |
SearchIndexerDataContainer |
表示要编制索引的实体(如 Azure SQL 表或 CosmosDB 集合)的相关信息。 |
SearchIndexerDataNoneIdentity |
清除数据源的标识属性。 |
SearchIndexerDataSourceConnection |
表示可用于配置索引器的数据源定义。 |
SearchIndexerDataUserAssignedIdentity |
指定要使用的数据源的标识。 |
SearchIndexerError |
表示项级或文档级索引错误。 |
SearchIndexerIndexProjection |
对辅助搜索索引的其他投影的定义。 |
SearchIndexerIndexProjectionParameters |
索引投影特定配置属性的字典。 每个名称都是特定属性的名称。 每个值都必须是基元类型。 |
SearchIndexerIndexProjectionSelector |
指定搜索索引中要存储的数据的说明。 |
SearchIndexerKnowledgeStore |
定义扩充数据的 Azure Blob、表或文件的其他投影。 |
SearchIndexerKnowledgeStoreBlobProjectionSelector |
抽象类,用于在具体选择器之间共享属性。 |
SearchIndexerKnowledgeStoreFileProjectionSelector |
要存储在 Azure 文件中的数据的投影定义。 |
SearchIndexerKnowledgeStoreObjectProjectionSelector |
要存储在 Azure Blob 中的数据的投影定义。 |
SearchIndexerKnowledgeStoreParameters |
特定于知识存储的配置属性的字典。 每个名称都是特定属性的名称。 每个值都必须是基元类型。 |
SearchIndexerKnowledgeStoreProjection |
各种投影选择器的容器对象。 |
SearchIndexerKnowledgeStoreProjectionSelector |
抽象类,用于在具体选择器之间共享属性。 |
SearchIndexerKnowledgeStoreTableProjectionSelector |
描述要存储在 Azure 表中的数据。 |
SearchIndexerLimits | |
SearchIndexerSkillset |
技能列表。 |
SearchIndexerStatus |
表示索引器的当前状态和执行历史记录。 |
SearchIndexerWarning |
表示项级警告。 |
SearchIndexingBufferedSenderOptions |
SearchIndexingBufferedSender 的选项。 |
SearchResourceEncryptionKey |
Azure Key Vault 中的客户管理的加密密钥。 创建和管理的密钥可用于加密或解密 Azure 认知搜索中的数据,例如索引和同义词映射。 |
SearchServiceStatistics |
来自获取服务统计信息请求的响应。 如果成功,则包含服务级别计数器和限制。 |
SearchSuggester |
定义建议 API 应如何应用于索引中的一组字段。 |
SemanticConfiguration |
定义要在语义功能的上下文中使用的特定配置。 |
SemanticField |
用作语义配置的一部分的字段。 |
SemanticPrioritizedFields |
描述要用于语义排名、标题、突出显示和答案的标题、内容和关键字字段。 |
SemanticSearch |
定义影响语义功能的搜索索引的参数。 |
SemanticSearchOptions |
定义语义搜索查询的选项 |
SentimentSkill |
文本分析正负情绪分析,评分为零到 1 范围内的浮点值。 |
SentimentSkillV3 |
使用文本分析 API 评估非结构化文本,并为每个记录提供情绪标签(如“负”、“中性”和“正”),具体取决于服务在句子和文档级别找到的最高置信度分数。 |
ServiceCounters |
表示服务级别资源计数器和配额。 |
ServiceLimits |
表示各种服务级别限制。 |
ShaperSkill |
用于重塑输出的技能。 它创建复杂类型以支持复合字段(也称为多部分字段)。 |
ShingleTokenFilter |
将令牌的组合创建为单个令牌。 此令牌筛选器是使用 Apache Lucene 实现的。 |
Similarity |
相似性算法的基类型。 相似性算法用于计算将查询与文档挂钩的分数。 分数越高,文档就越与该特定查询相关。 这些分数用于对搜索结果进行排名。 |
SimpleField |
表示索引定义中的字段,该定义描述字段的名称、数据类型和搜索行为。 |
SnowballTokenFilter |
使用 Snowball 生成的词干分析器词干的筛选器。 此令牌筛选器是使用 Apache Lucene 实现的。 |
SoftDeleteColumnDeletionDetectionPolicy |
定义实现软删除策略的数据删除检测策略。 它确定是否应根据指定的“软删除”列的值删除项。 |
SplitSkill |
将字符串拆分为文本区块的技能。 |
SqlIntegratedChangeTrackingPolicy |
定义使用 Azure SQL 数据库的集成更改跟踪功能捕获更改的数据更改检测策略。 |
StemmerOverrideTokenFilter |
提供使用基于自定义字典的词干分析替代其他词干筛选器的功能。 任何字典词干术语都将标记为关键字,以便它们不会在链中以词干分析器进行词干。 必须放置在任何词干筛选器之前。 此令牌筛选器是使用 Apache Lucene 实现的。 |
StemmerTokenFilter |
特定于语言的词干筛选。 此令牌筛选器是使用 Apache Lucene 实现的。 |
StopAnalyzer |
以非字母分隔文本;应用小写和非索引字标记筛选器。 此分析器是使用 Apache Lucene 实现的。 |
StopwordsTokenFilter |
从令牌流中删除停止字词。 此令牌筛选器是使用 Apache Lucene 实现的。 |
SuggestDocumentsResult |
包含来自索引的建议查询结果的响应。 |
SuggestRequest |
用于筛选、排序、模糊匹配和其他建议查询行为的参数。 |
SynonymMap |
表示同义词映射定义。 |
SynonymTokenFilter |
匹配令牌流中的单个或多单词同义词。 此令牌筛选器是使用 Apache Lucene 实现的。 |
TagScoringFunction |
定义一个函数,该函数使用与给定标记列表匹配的字符串值提升文档的分数。 |
TagScoringParameters |
向标记评分函数提供参数值。 |
TextTranslationSkill |
将文本从一种语言翻译成另一种语言的技能。 |
TextWeights |
定义匹配项应在搜索查询中提升评分的索引字段的权重。 |
TruncateTokenFilter |
将术语截断为特定长度。 此令牌筛选器是使用 Apache Lucene 实现的。 |
UaxUrlEmailTokenizer |
将 URL 和电子邮件作为一个令牌进行标记化。 此 tokenizer 是使用 Apache Lucene 实现的。 |
UniqueTokenFilter |
筛选出与上一个标记相同的文本的标记。 此令牌筛选器是使用 Apache Lucene 实现的。 |
VectorSearch |
包含与矢量搜索相关的配置选项。 |
VectorSearchOptions |
定义矢量搜索查询的选项 |
VectorSearchProfile |
定义要与矢量搜索一起使用的配置的组合。 |
VectorizableTextQuery |
提供需要矢量化的文本值时用于矢量搜索的查询参数。 |
VectorizedQuery |
提供原始向量值时用于矢量搜索的查询参数。 |
WebApiParameters |
指定用于连接到用户定义的向量器的属性。 |
WebApiSkill |
一种可以调用 Web API 终结点的技能,允许你通过调用自定义代码来扩展技能集。 |
WebApiVectorizer |
指定用于生成查询字符串嵌入的矢量的用户定义的向量器。 使用技能集的自定义 Web API 接口实现外部向量器的集成。 |
WordDelimiterTokenFilter |
将单词拆分为子词,对子词组执行可选转换。 此令牌筛选器是使用 Apache Lucene 实现的。 |
类型别名
AnalyzeTextOptions |
用于分析文本操作的选项。 |
AutocompleteMode |
定义 AutocompleteMode 的值。 |
AutocompleteOptions |
用于检索部分 searchText 的完成文本的选项。 |
AzureOpenAIModelName |
定义 AzureOpenAIModelName 的值。 服务支持的已知值
text-embedding-ada-002 |
BlobIndexerDataToExtract | |
BlobIndexerImageAction | |
BlobIndexerPDFTextRotationAlgorithm | |
BlobIndexerParsingMode | |
CharFilter |
包含 CharFilter 的可能情况。 |
CharFilterName |
定义 CharFilterName 的值。 服务支持的已知值html_strip:尝试去除 HTML 构造的字符筛选器。 请参阅 https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html |
CjkBigramTokenFilterScripts |
定义 CjkBigramTokenFilterScripts 的值。 |
CognitiveServicesAccount |
包含 CognitiveServicesAccount 的可能情况。 |
ComplexDataType |
定义 ComplexDataType 的值。 可能的值包括:“Edm.ComplexType”、“Collection(Edm.ComplexType)” |
CountDocumentsOptions |
用于对索引执行计数操作的选项。 |
CreateDataSourceConnectionOptions |
用于创建数据源操作的选项。 |
CreateIndexOptions |
用于创建索引操作的选项。 |
CreateIndexerOptions |
用于创建索引器操作的选项。 |
CreateSkillsetOptions |
用于创建技能集操作的选项。 |
CreateSynonymMapOptions |
用于创建同义词映射操作的选项。 |
CustomEntityLookupSkillLanguage | |
DataChangeDetectionPolicy |
包含 DataChangeDetectionPolicy 的可能情况。 |
DataDeletionDetectionPolicy |
包含 DataDeletionDetectionPolicy 的可能案例。 |
DeleteDocumentsOptions |
删除文档操作的选项。 |
EdgeNGramTokenFilterSide |
定义 EdgeNGramTokenFilterSide 的值。 |
EntityCategory | |
EntityRecognitionSkillLanguage | |
ExcludedODataTypes | |
ExhaustiveKnnAlgorithmConfiguration |
包含特定于查询期间使用的详尽 KNN 算法的配置选项,该算法将在整个矢量索引中执行暴力搜索。 |
ExtractDocumentKey | |
GetDataSourceConnectionOptions |
用于获取数据源操作的选项。 |
GetIndexOptions |
用于获取索引操作的选项。 |
GetIndexStatisticsOptions |
用于获取索引统计信息操作的选项。 |
GetIndexerOptions |
用于获取索引器操作的选项。 |
GetIndexerStatusOptions |
获取索引器状态操作的选项。 |
GetServiceStatisticsOptions |
用于获取服务统计信息操作的选项。 |
GetSkillSetOptions |
用于获取技能集操作的选项。 |
GetSynonymMapsOptions |
获取同义词映射操作的选项。 |
HnswAlgorithmConfiguration |
包含特定于在编制索引时使用的 hnsw 近似近邻算法的配置选项。 |
ImageAnalysisSkillLanguage | |
ImageDetail | |
IndexActionType |
定义 IndexActionType 的值。 |
IndexDocumentsAction |
表示对文档进行操作的索引操作。 |
IndexIterator |
用于列出搜索服务中存在的索引的迭代器。 将在迭代期间根据需要发出请求。 使用 .byPage() 对每次迭代的服务器发出一个请求。 |
IndexNameIterator |
用于列出搜索服务中存在的索引的迭代器。 将在迭代期间根据需要发出请求。 使用 .byPage() 对每次迭代的服务器发出一个请求。 |
IndexProjectionMode |
定义 IndexProjectionMode 的值。 服务支持的已知值
skipIndexingParentDocuments:源文档将从写入索引器的目标索引中跳过。 |
IndexerExecutionEnvironment | |
IndexerExecutionStatus |
定义 IndexerExecutionStatus 的值。 |
IndexerStatus |
定义 IndexerStatus 的值。 |
KeyPhraseExtractionSkillLanguage | |
LexicalAnalyzer |
包含分析器可能的情况。 |
LexicalAnalyzerName |
定义 LexicalAnalyzerName 的值。 服务支持的已知值
ar.microsoft:Microsoft阿拉伯语分析器。 |
LexicalTokenizer |
包含 Tokenizer 的可能情况。 |
LexicalTokenizerName |
定义 LexicalTokenizerName 的值。 服务支持的已知值
经典:适用于处理大多数欧洲语言文档的基于语法的 tokenizer。 请参阅 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html |
ListDataSourceConnectionsOptions |
列表数据源操作的选项。 |
ListIndexersOptions |
列表索引器操作的选项。 |
ListIndexesOptions |
列表索引操作的选项。 |
ListSkillsetsOptions |
列表技能集操作的选项。 |
ListSynonymMapsOptions |
列表 synonymMaps 操作的选项。 |
MergeDocumentsOptions |
合并文档操作的选项。 |
MergeOrUploadDocumentsOptions |
合并或上传文档操作的选项。 |
MicrosoftStemmingTokenizerLanguage |
定义 MicrosoftStemmingTokenizerLanguage 的值。 |
MicrosoftTokenizerLanguage |
定义 MicrosoftTokenizerLanguage 的值。 |
NarrowedModel |
缩小模型类型以仅包含所选字段 |
OcrLineEnding |
定义 OcrLineEnding 的值。 服务支持的已知值
空格:行由单个空格字符分隔。 |
OcrSkillLanguage | |
PIIDetectionSkillMaskingMode | |
PhoneticEncoder |
定义 PhoneticEncoder 的值。 |
QueryAnswer |
一个值,该值指定是否应作为搜索响应的一部分返回答案。
仅当查询类型为“semantic”时,此参数才有效。 如果设置为 |
QueryCaption |
一个值,该值指定是否应返回标题作为搜索响应的一部分。 仅当查询类型为“semantic”时,此参数才有效。 如果已设置,查询将返回从排名最高的文档中的关键段落中提取的标题。 当标题为“提取”时,默认情况下会启用突出显示。 默认值为“none”。 |
QueryType |
定义 QueryType 的值。 |
RegexFlags | |
ResetIndexerOptions |
用于重置索引器操作的选项。 |
RunIndexerOptions |
用于运行索引器操作的选项。 |
ScoringFunction |
包含 ScoringFunction 的可能案例。 |
ScoringFunctionAggregation |
定义 ScoringFunctionAggregation 的值。 |
ScoringFunctionInterpolation |
定义 ScoringFunctionInterpolation 的值。 |
ScoringStatistics |
定义 ScoringStatistics 的值。 |
SearchField |
表示索引定义中的字段,该定义描述字段的名称、数据类型和搜索行为。 |
SearchFieldArray |
如果 |
SearchFieldDataType |
定义 SearchFieldDataType 的值。 服务支持的已知值:Edm.String:指示字段包含字符串。 Edm.Int32:指示字段包含 32 位带符号整数。 Edm.Int64:指示字段包含 64 位带符号整数。 Edm.Double:指示字段包含 IEEE 双精度浮点数。 Edm.Boolean:指示字段包含布尔值(true 或 false)。 Edm.DateTimeOffset:指示字段包含日期/时间值,包括时区信息。 Edm.GeographyPoint:指示字段在经度和纬度方面包含地理位置。 Edm.ComplexType:指示字段包含一个或多个复杂对象,而该对象又包含其他类型的子字段。 Edm.Single:指示字段包含单精度浮点数。 仅当用作集合类型的一部分(即 Collection(Edm.Single)时才有效。 Edm.Half:指示字段包含半精度浮点数。 仅当用作集合类型的一部分(即 Collection(Edm.Half)时才有效。 Edm.Int16:指示字段包含 16 位带符号整数。 仅当用作集合类型的一部分(即 Collection(Edm.Int16)时才有效。 Edm.SByte:指示字段包含 8 位带符号整数。 仅当用作集合类型的一部分(即 Collection(Edm.SByte)时才有效。 Edm.Byte:指示字段包含 8 位无符号整数。 仅当用作集合类型的一部分(即 Collection(Edm.Byte)时才有效。 |
SearchIndexerDataIdentity |
包含 SearchIndexerDataIdentity 的可能情况。 |
SearchIndexerDataSourceType | |
SearchIndexerSkill |
包含技能的可能案例。 |
SearchIndexingBufferedSenderDeleteDocumentsOptions |
SearchIndexingBufferedSenderDeleteDocuments 的选项。 |
SearchIndexingBufferedSenderFlushDocumentsOptions |
SearchIndexingBufferedSenderFlushDocuments 的选项。 |
SearchIndexingBufferedSenderMergeDocumentsOptions |
SearchIndexingBufferedSenderMergeDocuments 的选项。 |
SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions |
SearchIndexingBufferedSenderMergeOrUploadDocuments 的选项。 |
SearchIndexingBufferedSenderUploadDocumentsOptions |
SearchIndexingBufferedSenderUploadDocuments 的选项。 |
SearchIterator |
用于帕特查询搜索结果的迭代器。 将在迭代期间根据需要发出请求。 使用 .byPage() 对每次迭代的服务器发出一个请求。 |
SearchMode |
定义 SearchMode 的值。 |
SearchOptions |
提交完整搜索请求的选项。 |
SearchPick |
使用有效的认知搜索 OData $select路径深入选取 T 字段。 |
SearchRequestOptions |
用于筛选、排序、分面、分页和其他搜索查询行为的参数。 |
SearchRequestQueryTypeOptions | |
SearchResult |
包含搜索查询找到的文档,以及关联的元数据。 |
SelectArray |
如果 |
SelectFields |
使用在 T 处根的字段树的后序遍历生成有效的认知搜索 OData $select路径的联合。 |
SemanticErrorMode | |
SemanticErrorReason | |
SemanticSearchResultsType | |
SentimentSkillLanguage | |
SimilarityAlgorithm |
包含相似性可能的情况。 |
SnowballTokenFilterLanguage |
定义 SnowballTokenFilterLanguage 的值。 |
SplitSkillLanguage | |
StemmerTokenFilterLanguage |
定义 StemmerTokenFilterLanguage 的值。 |
StopwordsList |
定义 StopwordsList 的值。 |
SuggestNarrowedModel | |
SuggestOptions |
用于基于 searchText 检索建议的选项。 |
SuggestResult |
包含由建议查询找到的文档的结果,以及关联的元数据。 |
TextSplitMode | |
TextTranslationSkillLanguage | |
TokenCharacterKind |
定义 TokenCharacterKind 的值。 |
TokenFilter |
包含 TokenFilter 的可能情况。 |
TokenFilterName |
定义 TokenFilterName 的值。 服务支持的已知值
arabic_normalization:应用阿拉伯规范化器规范化的标记筛选器。 请参阅 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html |
UnionToIntersection | |
UploadDocumentsOptions |
上传文档操作的选项。 |
VectorEncodingFormat |
定义 VectorEncodingFormat 的值。 服务支持的已知值packedBit:编码格式,表示打包到更广泛的数据类型中的位。 |
VectorFilterMode | |
VectorQuery |
矢量和混合搜索查询的查询参数。 |
VectorQueryKind | |
VectorSearchAlgorithmConfiguration |
包含特定于索引编制和/或查询期间使用的算法的配置选项。 |
VectorSearchAlgorithmKind | |
VectorSearchAlgorithmMetric | |
VectorSearchCompression |
包含特定于索引或查询期间使用的压缩方法的配置选项。 |
VectorSearchCompressionKind |
定义 VectorSearchCompressionKind 的值。 服务支持的已知值
scalarQuantization:Scalar Quantization,一种压缩方法类型。 在标量量子化中,原始向量值通过离散化和表示矢量的每个分量(使用一组量化值)压缩为较窄的类型,从而减少整体数据大小。 |
VectorSearchCompressionTarget |
定义 VectorSearchCompressionTarget 的值。 服务支持的已知值int8 |
VectorSearchVectorizer |
包含有关如何向量化文本矢量查询的配置选项。 |
VectorSearchVectorizerKind |
定义 VectorSearchVectorizerKind 的值。 服务支持的已知值
azureOpenAI:在查询时使用 Azure OpenAI 资源生成嵌入内容。 |
VisualFeature |
枚举
函数
create |
用于创建 SynonymMap 对象的帮助程序方法。 这是仅 NodeJS 方法。 |
odata(Template |
转义 odata 筛选器表达式,以避免引用字符串文本的错误。 示例用法:
有关支持的语法的详细信息,请参阅:https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter |
函数详细信息
createSynonymMapFromFile(string, string)
用于创建 SynonymMap 对象的帮助程序方法。 这是仅 NodeJS 方法。
function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>
参数
- name
-
string
SynonymMap 的名称。
- filePath
-
string
包含同义词的文件的路径(由新行分隔)
返回
Promise<SynonymMap>
SynonymMap 对象
odata(TemplateStringsArray, unknown[])
转义 odata 筛选器表达式,以避免引用字符串文本的错误。 示例用法:
const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;
有关支持的语法的详细信息,请参阅:https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter
function odata(strings: TemplateStringsArray, values: unknown[]): string
参数
- strings
-
TemplateStringsArray
表达式的字符串数组
- values
-
unknown[]
表达式的值数组
返回
string