你当前正在访问 Microsoft Azure Global Edition 技术文档网站。 如果需要访问由世纪互联运营的 Microsoft Azure 中国技术文档网站,请访问 https://docs.azure.cn。
Azure.Search.Documents.Indexes.Models 命名空间
重要
一些信息与预发行产品相关,相应产品在发行之前可能会进行重大修改。 对于此处提供的信息,Microsoft 不作任何明示或暗示的担保。
类
AnalyzedTokenInfo |
有关分析器返回的令牌的信息。 |
AnalyzeTextOptions |
指定一些用于将文本分解为标记的文本和分析组件。 |
AsciiFoldingTokenFilter |
将“基本拉丁语”Unicode) 块 (的前 127 个 ASCII 字符中的字母、数字和符号 Unicode 字符转换为其 ASCII 等效项(如果存在此类等效字符)。 此令牌筛选器是使用 Apache Lucene 实现的。 |
AzureMachineLearningSkill |
通过 AML 技能,可以使用自定义 Azure 机器学习 (AML) 模型来扩展 AI 扩充。 在训练和部署 AML 模型后,AML 技能即可将其集成到 AI 扩充中。 |
AzureOpenAIEmbeddingSkill |
允许使用 Azure Open AI 服务为给定文本输入生成矢量嵌入。 |
AzureOpenAIParameters |
包含特定于在查询时使用 Azure Open AI 服务进行矢量化的参数。 |
AzureOpenAIVectorizer |
包含特定于在查询时使用 Azure Open AI 服务进行矢量化的参数。 |
BM25Similarity |
基于 Okapi BM25 相似性算法的排名函数。 BM25 是一种类似于 TF IDF 的算法,包括长度规范化 (由“b”参数) 控制,以及由“k1”参数) 控制的术语频率饱和度 (。 |
CharFilter |
字符筛选器的基类型。 请注意 CharFilter , 是基类。 根据方案,可能需要在此处分配基类的派生类,或者需要将此属性强制转换为可能的派生类之一。 可用的派生类包括 MappingCharFilter 和 PatternReplaceCharFilter。 |
CjkBigramTokenFilter |
形成从标准 tokenizer 生成的 CJK 术语的 bigram。 此令牌筛选器是使用 Apache Lucene 实现的。 |
ClassicSimilarity |
使用 TF-IDF 的 Lucene TFIDFSimilarity 实现的旧式相似性算法。 TF-IDF 的这种变体引入了静态文档长度规范化,以及惩罚仅部分匹配搜索查询的文档的协调因素。 |
ClassicTokenizer |
适用于处理大多数欧洲语言文档的基于语法的 tokenizer。 此 tokenizer 是使用 Apache Lucene 实现的。 |
CognitiveServicesAccount |
用于描述附加到技能组的任何认知服务资源的基类型。 请注意 CognitiveServicesAccount , 是基类。 根据方案,可能需要在此处分配基类的派生类,或者需要将此属性强制转换为可能的派生类之一。 可用的派生类包括 CognitiveServicesAccountKey 和 DefaultCognitiveServicesAccount。 |
CognitiveServicesAccountKey |
使用附加到技能组的密钥预配的认知服务资源。 |
CommonGramTokenFilter |
在编制索引时为经常出现的词条构造二元语法。 此外,仍将为单个词条编制索引并叠加二元语法。 此令牌筛选器是使用 Apache Lucene 实现的。 |
ComplexField |
包含子字段的复杂字段或复杂字段的集合。 子字段可以是 SimpleField 或 ComplexField。 |
ConditionalSkill |
一种技能,使需要布尔运算来确定要分配给输出的数据的方案。 |
CorsOptions |
定义用于控制索引的跨域资源共享 (CORS) 的选项。 |
CustomAnalyzer |
允许你控制将文本转换为可索引/可搜索令牌的过程。 它是用户定义的配置,由单个预定义的 tokenizer 和一个或多个筛选器组成。 tokenizer 负责将文本分解为令牌,以及用于修改 tokenizer 发出的令牌的筛选器。 |
CustomEntity |
一个 对象,该对象包含有关找到的匹配项和相关元数据的信息。 |
CustomEntityAlias |
一个复杂对象,可用于指定根实体名称的替代拼写或同义词。 |
CustomEntityLookupSkill |
技能从用户定义的自定义字词和短语列表中查找文本。 |
CustomNormalizer |
允许为可筛选、可排序和可分面字段配置规范化,这些字段默认以严格匹配的方式运行。 这是用户定义的配置,由至少一个或多个筛选器组成,这些筛选器会修改存储的令牌。 |
CustomVectorizer |
包含特定于通过自定义终结点生成矢量嵌入的参数。 |
CustomVectorizerParameters |
包含特定于通过自定义终结点生成矢量嵌入的参数。 |
DataChangeDetectionPolicy |
数据更改检测策略的基类型。 请注意 DataChangeDetectionPolicy , 是基类。 根据方案,可能需要在此处分配基类的派生类,或者需要将此属性强制转换为可能的派生类之一。 可用的派生类包括 HighWaterMarkChangeDetectionPolicy 和 SqlIntegratedChangeTrackingPolicy。 |
DataDeletionDetectionPolicy |
数据删除检测策略的基类型。 请注意 DataDeletionDetectionPolicy , 是基类。 根据方案,可能需要在此处分配基类的派生类,或者需要将此属性强制转换为可能的派生类之一。 可用的派生类包括 NativeBlobSoftDeleteDeletionDetectionPolicy 和 SoftDeleteColumnDeletionDetectionPolicy。 |
DefaultCognitiveServicesAccount |
一个空对象,表示技能组的默认认知服务资源。 |
DictionaryDecompounderTokenFilter |
分解在许多日耳曼语系中找到的复合词。 此令牌筛选器是使用 Apache Lucene 实现的。 |
DistanceScoringFunction |
定义一个函数,该函数根据与地理位置的距离提高分数。 |
DistanceScoringParameters |
为距离评分函数提供参数值。 |
DocumentExtractionSkill |
一种技能,用于从扩充管道中的文件中提取内容。 |
EdgeNGramTokenFilter |
从输入令牌的前面或后面开始,生成给定大小 (s) 的 n 元语法。 此令牌筛选器是使用 Apache Lucene 实现的。 |
EdgeNGramTokenizer |
将来自边缘的输入标记化为给定大小的 n 元语法 (s) 。 此 tokenizer 是使用 Apache Lucene 实现的。 |
ElisionTokenFilter |
删除省音。 例如,“l'avion” (平面) 将转换为“avion” (平面) 。 此令牌筛选器是使用 Apache Lucene 实现的。 |
EntityLinkingSkill |
使用 文本分析 API 从文本中提取链接的实体。 |
EntityRecognitionSkill |
此技能已弃用。 使用 V3。EntityRecognitionSkill 改为。 |
ExhaustiveKnnParameters |
包含特定于详尽 KNN 算法的参数。 |
ExhaustiveKnnVectorSearchAlgorithmConfiguration |
包含特定于查询期间使用的详尽 KNN 算法的配置选项,该算法将对整个向量索引执行暴力搜索。 |
FieldMapping |
定义数据源中的字段与索引中目标字段之间的映射。 |
FieldMappingFunction |
表示在编制索引之前转换数据源中的值的函数。 |
FreshnessScoringFunction |
定义一个函数,该函数根据日期时间字段的值提高分数。 |
FreshnessScoringParameters |
为新鲜度评分函数提供参数值。 |
HighWaterMarkChangeDetectionPolicy |
定义一个数据更改检测策略,该策略根据高使用标记列的值捕获更改。 |
HnswParameters |
包含特定于 hnsw 算法的参数。 |
HnswVectorSearchAlgorithmConfiguration |
包含特定于索引编制和查询期间使用的 hnsw 近似近邻算法的配置选项。 hnsw 算法在搜索速度和准确性之间提供可调整的权衡。 |
ImageAnalysisSkill |
分析图像文件的技能。 它基于图像内容提取一组丰富的视觉特征。 |
IndexerChangeTrackingState |
表示索引器执行期间的更改跟踪状态。 |
IndexerExecutionResult |
表示单个索引器执行的结果。 |
IndexerState |
表示定义和指示索引器当前执行的所有状态。 |
IndexingParameters |
表示索引器执行的参数。 |
IndexingParametersConfiguration |
索引器特定配置属性的字典。 每个名称都是特定属性的名称。 每个值必须是基元类型。 |
IndexingSchedule |
表示索引器执行的计划。 |
InputFieldMappingEntry |
技能的输入字段映射。 |
KeepTokenFilter |
标记筛选器,仅保留包含指定单词列表中的文本的标记。 此令牌筛选器是使用 Apache Lucene 实现的。 |
KeyPhraseExtractionSkill |
使用文本分析提取关键短语的技能。 |
KeywordMarkerTokenFilter |
将词条标记为关键字。 此令牌筛选器是使用 Apache Lucene 实现的。 |
KeywordTokenizer |
将整个输入作为单个标记发出。 此 tokenizer 是使用 Apache Lucene 实现的。 |
KnowledgeStore |
定义扩充数据的 Azure Blob、表或文件的其他投影。 |
KnowledgeStoreFileProjectionSelector |
要存储在 Azure 文件存储 中的数据的投影定义。 |
KnowledgeStoreObjectProjectionSelector |
要存储在 Azure Blob 中的数据的投影定义。 |
KnowledgeStoreProjection |
各种投影选择器的容器对象。 |
KnowledgeStoreProjectionSelector |
用于在具体选择器之间共享属性的抽象类。 |
KnowledgeStoreStorageProjectionSelector |
用于在具体选择器之间共享属性的抽象类。 |
KnowledgeStoreTableProjectionSelector |
说明要在 Azure 表中存储哪些数据。 |
LanguageDetectionSkill |
一种技能,用于检测输入文本的语言,并为请求中提交的每个文档报告单个语言代码。 语言代码与指示分析置信度分数配对。 |
LengthTokenFilter |
删除太长或太短的字词。 此令牌筛选器是使用 Apache Lucene 实现的。 |
LexicalAnalyzer |
分析器的基类型。 请注意 LexicalAnalyzer , 是基类。 根据方案,可能需要在此处分配基类的派生类,或者需要将此属性强制转换为可能的派生类之一。 可用的派生类包括 CustomAnalyzer、 PatternAnalyzerLuceneStandardAnalyzer 和 StopAnalyzer。 |
LexicalAnalyzerName.Values |
以字符串常量形式声明 LexicalAnalyzerName 的所有属性的值。 可以在需要其他常量的任何位置使用 SearchableFieldAttribute 它们。 |
LexicalNormalizer |
规范化器的基类型。 请注意 LexicalNormalizer , 是基类。 根据方案,可能需要在此处分配基类的派生类,或者需要将此属性强制转换为可能的派生类之一。 可用的派生类包括 CustomNormalizer。 |
LexicalNormalizerName.Values |
以字符串常量形式声明 LexicalNormalizerName 的所有属性的值。 可以在 中 SimpleFieldAttribute使用这些参数, SearchableFieldAttribute 还可以在需要其他任何常量的地方使用。 |
LexicalTokenizer |
tokenizer 的基类型。 请注意 LexicalTokenizer , 是基类。 根据方案,可能需要在此处分配基类的派生类,或者需要将此属性强制转换为可能的派生类之一。 可用的派生类包括 ClassicTokenizer、、EdgeNGramTokenizer、KeywordTokenizer、NGramTokenizerMicrosoftLanguageTokenizerPathHierarchyTokenizerPatternTokenizerMicrosoftLanguageStemmingTokenizerKeywordTokenizer、、 LuceneStandardTokenizerLuceneStandardTokenizer 和 。UaxUrlEmailTokenizer |
LimitTokenFilter |
编制索引时限制标记数量。 此令牌筛选器是使用 Apache Lucene 实现的。 |
LuceneStandardAnalyzer |
标准 Apache Lucene 分析器;由标准 tokenizer、小写筛选器和停止筛选器组成。 |
LuceneStandardTokenizer |
按照 Unicode 文本分段规则划分文本。 此 tokenizer 是使用 Apache Lucene 实现的。 |
MagnitudeScoringFunction |
定义一个函数,该函数根据数值字段的大小提升分数。 |
MagnitudeScoringParameters |
为数量级评分函数提供参数值。 |
MappingCharFilter |
一个字符筛选器,它应用使用映射选项定义的映射。 匹配具有贪婪性(给定点的最长模式匹配获胜)。 允许替换为空字符串。 此字符筛选器是使用 Apache Lucene 实现的。 |
MergeSkill |
一种技能,用于将两个或多个字符串合并为单个统一字符串,并使用可选的用户定义的分隔符分隔每个组件部分。 |
MicrosoftLanguageStemmingTokenizer |
使用特定于语言的规则划分文本,并将各字词缩减为其原形。 |
MicrosoftLanguageTokenizer |
使用特定于语言的规则划分文本。 |
NativeBlobSoftDeleteDeletionDetectionPolicy |
定义一个数据删除检测策略,该策略利用Azure Blob 存储的本机软删除功能进行删除检测。 |
NGramTokenFilter |
生成给定大小的 n 元语法。 此令牌筛选器是使用 Apache Lucene 实现的。 |
NGramTokenizer |
将输入标记为给定大小的 n 元语法。 此 tokenizer 是使用 Apache Lucene 实现的。 |
OcrSkill |
一种从图像文件中提取文本的技能。 |
OutputFieldMappingEntry |
技能的输出字段映射。 |
PathHierarchyTokenizer |
用于路径式层次结构的 tokenizer。 此 tokenizer 是使用 Apache Lucene 实现的。 |
PatternAnalyzer |
通过正则表达式模式将文本灵活地分解成多个词条。 此分析器是使用 Apache Lucene 实现的。 |
PatternCaptureTokenFilter |
使用 Java 正则表达式发出多个令牌 - 一个或多个模式中的每个捕获组一个令牌。 此令牌筛选器是使用 Apache Lucene 实现的。 |
PatternReplaceCharFilter |
替换输入字符串中的字符的字符筛选器。 它使用正则表达式来标识要保留的字符序列,并使用替换模式来标识要替换的字符。 例如,给定输入文本“aa bb aa bb”、模式“ (aa) \s+ (bb) ”和替换“$1#$2”,结果将是“aa#bb aa#bb”。 此字符筛选器是使用 Apache Lucene 实现的。 |
PatternReplaceTokenFilter |
替换输入字符串中的字符的字符筛选器。 它使用正则表达式来标识要保留的字符序列,并使用替换模式来标识要替换的字符。 例如,给定输入文本“aa bb aa bb”、模式“ (aa) \s+ (bb) ”和替换“$1#$2”,结果将是“aa#bb aa#bb”。 此令牌筛选器是使用 Apache Lucene 实现的。 |
PatternTokenizer |
使用正则表达式模式匹配来构造不同标记的 Tokenizer。 此 tokenizer 是使用 Apache Lucene 实现的。 |
PhoneticTokenFilter |
为拼音匹配项创建标记。 此令牌筛选器是使用 Apache Lucene 实现的。 |
PiiDetectionSkill |
使用 文本分析 API 从输入文本中提取个人信息,并提供屏蔽选项。 |
PrioritizedFields |
描述用于语义排名、标题、突出显示和答案的标题、内容和关键字字段。 |
ScoringFunction |
可在排名期间修改文档分数的函数的基类型。 请注意 ScoringFunction , 是基类。 根据方案,可能需要在此处分配基类的派生类,或者需要将此属性强制转换为可能的派生类之一。 可用的派生类包括 DistanceScoringFunction、 FreshnessScoringFunctionMagnitudeScoringFunction 和 TagScoringFunction。 |
ScoringProfile |
定义影响搜索查询评分的搜索索引的参数。 |
SearchableField |
String可以搜索的或“集合 (字符串) ”字段。 |
SearchAlias |
表示索引别名,该别名描述从别名到索引的映射。 别名可以代替受支持操作的索引名称。 |
SearchField |
表示索引定义中的字段,该字段描述字段的名称、数据类型和搜索行为。 |
SearchFieldTemplate |
帮助程序类的基字段类型,以便更轻松地创建 SearchIndex。 |
SearchIndex |
表示搜索索引定义,该定义描述索引的字段和搜索行为。 |
SearchIndexer |
表示索引器。 |
SearchIndexerCache |
SearchIndexerCache。 |
SearchIndexerDataContainer |
表示有关实体 (的信息,例如Azure SQL表或将编制索引的 CosmosDB 集合) 。 |
SearchIndexerDataIdentity |
数据标识的抽象基类型。 请注意 SearchIndexerDataIdentity ,是基类。 根据方案,可能需要在此处分配基类的派生类,或者此属性需要强制转换为可能的派生类之一。 可用的派生类包括 SearchIndexerDataNoneIdentity 和 SearchIndexerDataUserAssignedIdentity。 |
SearchIndexerDataNoneIdentity |
清除数据源的标识属性。 |
SearchIndexerDataSourceConnection |
表示可用于配置索引器的数据源定义。 |
SearchIndexerDataUserAssignedIdentity |
指定要使用的数据源的标识。 |
SearchIndexerError |
表示项级别或文档级别索引错误。 |
SearchIndexerIndexProjections |
定义辅助搜索索引的其他投影。 |
SearchIndexerIndexProjectionSelector |
在指定的搜索索引中存储哪些数据的说明。 |
SearchIndexerIndexProjectionsParameters |
索引投影特定配置属性的字典。 每个名称都是特定属性的名称。 每个值都必须是基元类型。 |
SearchIndexerKnowledgeStoreParameters |
特定于知识存储的配置属性的字典。 每个名称都是特定属性的名称。 每个值都必须是基元类型。 |
SearchIndexerLimits |
SearchIndexerLimits。 |
SearchIndexerSkill |
技能的基类型。 请注意 SearchIndexerSkill ,是基类。 根据方案,可能需要在此处分配基类的派生类,或者此属性需要强制转换为可能的派生类之一。 可用的派生类包括 AzureMachineLearningSkill、、WebApiSkill、AzureOpenAIEmbeddingSkill、EntityRecognitionSkillCustomEntityLookupSkill、MergeSkillKeyPhraseExtractionSkillPiiDetectionSkillLanguageDetectionSkill、 EntityLinkingSkillTextTranslationSkillAzure.Search.Documents.Indexes.Models.EntityRecognitionSkillV3Azure.Search.Documents.Indexes.Models.SentimentSkillV3SplitSkillSentimentSkillDocumentExtractionSkillShaperSkillConditionalSkillImageAnalysisSkill 和 。OcrSkill |
SearchIndexerSkillset |
技能列表。 |
SearchIndexerStatus |
表示索引器的当前状态和执行历史记录。 |
SearchIndexerWarning |
表示项级警告。 |
SearchIndexStatistics |
给定索引的统计信息。 统计信息会定期收集,不能保证始终是最新的。 |
SearchResourceCounter |
表示资源的使用情况和配额。 |
SearchResourceEncryptionKey |
Azure 密钥保管库中客户管理的加密密钥。 创建和管理的密钥可用于加密或解密Azure 认知搜索中的静态数据,例如索引和同义词映射。 |
SearchServiceCounters |
表示服务级别资源计数器和配额。 |
SearchServiceLimits |
表示各种服务级别限制。 |
SearchServiceStatistics |
来自获取服务统计信息请求的响应。 如果成功,则包含服务级别计数器和限制。 |
SearchSuggester |
定义建议 API 应如何应用于索引中的一组字段。 |
SemanticConfiguration |
定义要在语义功能上下文中使用的特定配置。 |
SemanticField |
用作语义配置的一部分的字段。 |
SemanticSettings |
定义影响语义功能的搜索索引的参数。 |
SentimentSkill |
此技能已弃用。 使用 V3。情绪技能相反。 |
ShaperSkill |
用于重塑输出的技能。 它创建一个复杂类型以支持复合字段 (也称为多部分字段) 。 |
ShingleTokenFilter |
创建标记组合作为单个标记。 此令牌筛选器是使用 Apache Lucene 实现的。 |
SimilarityAlgorithm |
相似性算法的基类型。 相似度算法用于计算将查询与文档挂钩的分数。 分数越高,文档与该特定查询的相关性就越高。 这些分数用于对搜索结果进行排名。 请注意 SimilarityAlgorithm ,是基类。 根据方案,可能需要在此处分配基类的派生类,或者此属性需要强制转换为可能的派生类之一。 可用的派生类包括 BM25Similarity 和 ClassicSimilarity。 |
SimpleField |
使用基元类型或基元类型的集合的简单字段。 |
SnowballTokenFilter |
使用 Snowball 生成的词干分析器来词干的筛选器。 此令牌筛选器是使用 Apache Lucene 实现的。 |
SoftDeleteColumnDeletionDetectionPolicy |
定义实现软删除策略的数据删除检测策略。 它确定是否应根据指定的“软删除”列的值删除项。 |
SplitSkill |
将字符串拆分为文本块的技能。 |
SqlIntegratedChangeTrackingPolicy |
定义使用 Azure SQL Database 的集成更改跟踪功能捕获更改的数据更改检测策略。 |
StemmerOverrideTokenFilter |
提供使用基于字典的自定义词干筛选替代其他词干筛选器的功能。 任何字典词干词都将标记为关键字,以便它们不会在链上使用词干分析器进行词干。 必须放在任何词干分解筛选器之前。 此令牌筛选器是使用 Apache Lucene 实现的。 |
StemmerTokenFilter |
特定于语言的词干筛选器。 此令牌筛选器是使用 Apache Lucene 实现的。 |
StopAnalyzer |
将文本除以非字母;应用小写和非索引字标记筛选器。 此分析器是使用 Apache Lucene 实现的。 |
StopwordsTokenFilter |
从标记流中删除非索引字。 此令牌筛选器是使用 Apache Lucene 实现的。 |
SynonymMap |
表示同义词映射定义。 |
SynonymTokenFilter |
匹配令牌流中的单个或多个单词同义词。 此令牌筛选器是使用 Apache Lucene 实现的。 |
TagScoringFunction |
定义一个函数,该函数使用与给定标记列表匹配的字符串值提升文档分数。 |
TagScoringParameters |
为标记评分函数提供参数值。 |
TextTranslationSkill |
将文本从一种语言翻译到另一种语言的技能。 |
TextWeights |
定义索引字段的权重,匹配项应提高搜索查询中的评分。 |
TokenFilter |
令牌筛选器的基类型。 请注意 TokenFilter , 是基类。 根据方案,可能需要在此处分配基类的派生类,或者需要将此属性强制转换为可能的派生类之一。 可用的派生类包括 AsciiFoldingTokenFilter、、CjkBigramTokenFilter、、CommonGramTokenFilterDictionaryDecompounderTokenFilter、StemmerOverrideTokenFilterEdgeNGramTokenFilterEdgeNGramTokenFilterElisionTokenFilterKeepTokenFilterNGramTokenFilterLimitTokenFilterNGramTokenFilterLengthTokenFilterPatternCaptureTokenFilterPatternReplaceTokenFilterShingleTokenFilterStemmerTokenFilterSnowballTokenFilterStopwordsTokenFilterKeywordMarkerTokenFilterSynonymTokenFilterPhoneticTokenFilter、 TruncateTokenFilterUniqueTokenFilter 和 。WordDelimiterTokenFilter |
TruncateTokenFilter |
将字词截断为特定长度。 此令牌筛选器是使用 Apache Lucene 实现的。 |
UaxUrlEmailTokenizer |
将 URL 和电子邮件标记为一个标记。 此 tokenizer 是使用 Apache Lucene 实现的。 |
UniqueTokenFilter |
筛选出与前一个标记具有相同文本的标记。 此令牌筛选器是使用 Apache Lucene 实现的。 |
VectorSearch |
包含与矢量搜索相关的配置选项。 |
VectorSearchAlgorithmConfiguration |
包含特定于索引编制和/或查询期间使用的算法的配置选项。 请注意 VectorSearchAlgorithmConfiguration , 是基类。 根据方案,可能需要在此处分配基类的派生类,或者需要将此属性强制转换为可能的派生类之一。 可用的派生类包括 ExhaustiveKnnVectorSearchAlgorithmConfiguration 和 HnswVectorSearchAlgorithmConfiguration。 |
VectorSearchProfile |
定义要用于矢量搜索的配置组合。 |
VectorSearchVectorizer |
包含查询期间要使用的矢量化方法的特定详细信息。 请注意 VectorSearchVectorizer , 是基类。 根据方案,可能需要在此处分配基类的派生类,或者需要将此属性强制转换为可能的派生类之一。 可用的派生类包括 AzureOpenAIVectorizer 和 CustomVectorizer。 |
WebApiSkill |
一种可以调用 Web API 终结点的技能,使你能够通过调用自定义代码来扩展技能集。 |
WordDelimiterTokenFilter |
将字词拆分为子字,并对子字组执行可选转换。 此令牌筛选器是使用 Apache Lucene 实现的。 |
结构
BlobIndexerDataToExtract |
指定要从 Azure Blob 存储中提取的数据,并在“imageAction”设置为“none”以外的值时告知索引器从图像内容中提取哪些数据。 这适用于 .PDF 或其他应用程序中的嵌入图像内容,或者 Azure Blob 中的 .jpg 和 .png 等图像文件。 |
BlobIndexerImageAction |
确定如何处理 Azure Blob 存储中的嵌入图像和图像文件。 将“imageAction”配置设置为除“none”以外的任何值都需要将技能集附加到该索引器。 |
BlobIndexerParsingMode |
表示用于从 Azure Blob 数据源编制索引的解析模式。 |
BlobIndexerPdfTextRotationAlgorithm |
确定从 Azure Blob 存储中的 PDF 文件提取文本的算法。 |
CharFilterName |
定义Azure 认知搜索支持的所有字符筛选器的名称。 |
CustomEntityLookupSkillLanguage |
CustomEntityLookupSkill 支持的输入文本的语言代码。 |
EntityCategory |
一个字符串,指示要返回的实体类别。 |
EntityRecognitionSkill.SkillVersion |
表示 的服务 EntityRecognitionSkill版本信息。 |
EntityRecognitionSkillLanguage |
已弃用。 EntityRecognitionSkill 支持的输入文本的语言代码。 |
ImageAnalysisSkillLanguage |
ImageAnalysisSkill 支持输入的语言代码。 |
ImageDetail |
一个字符串,指示要返回哪些特定于域的详细信息。 |
IndexerExecutionEnvironment |
指定索引器应在其中执行的环境。 |
IndexerExecutionStatusDetail |
详细说明单个索引器执行的状态。 |
IndexingMode |
表示索引器正在执行的模式。 |
IndexProjectionMode |
定义相对于索引器其余部分的索引投影的行为。 |
KeyPhraseExtractionSkillLanguage |
KeyPhraseExtractionSkill 支持的输入文本的语言代码。 |
LexicalAnalyzerName |
定义Azure 认知搜索支持的所有文本分析器的名称。 |
LexicalNormalizerName |
定义Azure 认知搜索支持的所有文本规范化器的名称。 |
LexicalTokenizerName |
定义Azure 认知搜索支持的所有 tokenizer 的名称。 |
LineEnding |
定义要在 OCR 技能识别的文本行之间使用的字符序列。 默认值为“space”。 |
OcrSkillLanguage |
OcrSkill 输入支持的语言代码。 |
PiiDetectionSkillMaskingMode |
一个字符串,指示用于屏蔽输入文本中检测到的个人信息的 maskingMode。 |
RegexFlag |
定义可以组合在一起以控制模式分析器和模式标记器中使用正则表达式的方式的标志。 |
SearchFieldDataType |
定义搜索索引中字段的数据类型。 |
SearchIndexerDataSourceType |
定义数据源的类型。 |
SentimentSkill.SkillVersion |
表示 的服务 SentimentSkill版本信息。 |
SentimentSkillLanguage |
已弃用。 SentimentSkill 支持的输入文本的语言代码。 |
SplitSkillLanguage |
SplitSkill 支持的输入文本的语言代码。 |
TextSplitMode |
指示要执行的拆分模式的值。 |
TextTranslationSkillLanguage |
TextTranslationSkill 支持的输入文本的语言代码。 |
TokenFilterName |
定义Azure 认知搜索支持的所有标记筛选器的名称。 |
VectorSearchAlgorithmKind |
用于索引和查询的算法。 |
VectorSearchAlgorithmMetric |
用于矢量比较的相似性指标。 |
VectorSearchVectorizerKind |
查询期间要使用的矢量化方法。 |
VisualFeature |
指示要返回的视觉特征类型的字符串。 |
枚举
CjkBigramTokenFilterScripts |
CjkBigramTokenFilter 可以忽略的脚本。 |
EdgeNGramTokenFilterSide |
指定应从哪个端生成 n 元语法的输入。 |
IndexerExecutionStatus |
表示单个索引器执行的状态。 |
IndexerStatus |
表示总体的索引器状态。 |
MicrosoftStemmingTokenizerLanguage |
列出 Microsoft 语言词干分析 tokenizer 支持的语言。 |
MicrosoftTokenizerLanguage |
列出 Microsoft 语言 tokenizer 支持的语言。 |
PhoneticEncoder |
标识要与 PhoneticTokenFilter 一起使用的拼音编码器的类型。 |
ScoringFunctionAggregation |
定义用于合并评分配置文件中所有评分函数的结果的聚合函数。 |
ScoringFunctionInterpolation |
定义用于在一系列文档中内插分数提升的函数。 |
SnowballTokenFilterLanguage |
用于 Snowball 令牌筛选器的语言。 |
StemmerTokenFilterLanguage |
用于词干分析器标记筛选器的语言。 |
StopwordsList |
标识特定于语言的预定义非索引字列表。 |
TokenCharacterKind |
表示令牌筛选器可以对其操作的字符类。 |