你当前正在访问 Microsoft Azure Global Edition 技术文档网站。 如果需要访问由世纪互联运营的 Microsoft Azure 中国技术文档网站,请访问 https://docs.azure.cn

Azure.Search.Documents.Indexes.Models 命名空间

AnalyzedTokenInfo

有关分析器返回的令牌的信息。

AnalyzeTextOptions

指定一些用于将文本分解为标记的文本和分析组件。

AsciiFoldingTokenFilter

将“基本拉丁语”Unicode) 块 (的前 127 个 ASCII 字符中的字母、数字和符号 Unicode 字符转换为其 ASCII 等效项(如果存在此类等效字符)。 此令牌筛选器是使用 Apache Lucene 实现的。

AzureMachineLearningSkill

通过 AML 技能,可以使用自定义 Azure 机器学习 (AML) 模型来扩展 AI 扩充。 在训练和部署 AML 模型后,AML 技能即可将其集成到 AI 扩充中。

AzureOpenAIEmbeddingSkill

允许使用 Azure Open AI 服务为给定文本输入生成矢量嵌入。

AzureOpenAIParameters

包含特定于在查询时使用 Azure Open AI 服务进行矢量化的参数。

AzureOpenAIVectorizer

包含特定于在查询时使用 Azure Open AI 服务进行矢量化的参数。

BM25Similarity

基于 Okapi BM25 相似性算法的排名函数。 BM25 是一种类似于 TF IDF 的算法,包括长度规范化 (由“b”参数) 控制,以及由“k1”参数) 控制的术语频率饱和度 (。

CharFilter

字符筛选器的基类型。 请注意 CharFilter , 是基类。 根据方案,可能需要在此处分配基类的派生类,或者需要将此属性强制转换为可能的派生类之一。 可用的派生类包括 MappingCharFilterPatternReplaceCharFilter

CjkBigramTokenFilter

形成从标准 tokenizer 生成的 CJK 术语的 bigram。 此令牌筛选器是使用 Apache Lucene 实现的。

ClassicSimilarity

使用 TF-IDF 的 Lucene TFIDFSimilarity 实现的旧式相似性算法。 TF-IDF 的这种变体引入了静态文档长度规范化,以及惩罚仅部分匹配搜索查询的文档的协调因素。

ClassicTokenizer

适用于处理大多数欧洲语言文档的基于语法的 tokenizer。 此 tokenizer 是使用 Apache Lucene 实现的。

CognitiveServicesAccount

用于描述附加到技能组的任何认知服务资源的基类型。 请注意 CognitiveServicesAccount , 是基类。 根据方案,可能需要在此处分配基类的派生类,或者需要将此属性强制转换为可能的派生类之一。 可用的派生类包括 CognitiveServicesAccountKeyDefaultCognitiveServicesAccount

CognitiveServicesAccountKey

使用附加到技能组的密钥预配的认知服务资源。

CommonGramTokenFilter

在编制索引时为经常出现的词条构造二元语法。 此外,仍将为单个词条编制索引并叠加二元语法。 此令牌筛选器是使用 Apache Lucene 实现的。

ComplexField

包含子字段的复杂字段或复杂字段的集合。 子字段可以是 SimpleFieldComplexField

ConditionalSkill

一种技能,使需要布尔运算来确定要分配给输出的数据的方案。

CorsOptions

定义用于控制索引的跨域资源共享 (CORS) 的选项。

CustomAnalyzer

允许你控制将文本转换为可索引/可搜索令牌的过程。 它是用户定义的配置,由单个预定义的 tokenizer 和一个或多个筛选器组成。 tokenizer 负责将文本分解为令牌,以及用于修改 tokenizer 发出的令牌的筛选器。

CustomEntity

一个 对象,该对象包含有关找到的匹配项和相关元数据的信息。

CustomEntityAlias

一个复杂对象,可用于指定根实体名称的替代拼写或同义词。

CustomEntityLookupSkill

技能从用户定义的自定义字词和短语列表中查找文本。

CustomNormalizer

允许为可筛选、可排序和可分面字段配置规范化,这些字段默认以严格匹配的方式运行。 这是用户定义的配置,由至少一个或多个筛选器组成,这些筛选器会修改存储的令牌。

CustomVectorizer

包含特定于通过自定义终结点生成矢量嵌入的参数。

CustomVectorizerParameters

包含特定于通过自定义终结点生成矢量嵌入的参数。

DataChangeDetectionPolicy

数据更改检测策略的基类型。 请注意 DataChangeDetectionPolicy , 是基类。 根据方案,可能需要在此处分配基类的派生类,或者需要将此属性强制转换为可能的派生类之一。 可用的派生类包括 HighWaterMarkChangeDetectionPolicySqlIntegratedChangeTrackingPolicy

DataDeletionDetectionPolicy

数据删除检测策略的基类型。 请注意 DataDeletionDetectionPolicy , 是基类。 根据方案,可能需要在此处分配基类的派生类,或者需要将此属性强制转换为可能的派生类之一。 可用的派生类包括 NativeBlobSoftDeleteDeletionDetectionPolicySoftDeleteColumnDeletionDetectionPolicy

DefaultCognitiveServicesAccount

一个空对象,表示技能组的默认认知服务资源。

DictionaryDecompounderTokenFilter

分解在许多日耳曼语系中找到的复合词。 此令牌筛选器是使用 Apache Lucene 实现的。

DistanceScoringFunction

定义一个函数,该函数根据与地理位置的距离提高分数。

DistanceScoringParameters

为距离评分函数提供参数值。

DocumentExtractionSkill

一种技能,用于从扩充管道中的文件中提取内容。

EdgeNGramTokenFilter

从输入令牌的前面或后面开始,生成给定大小 (s) 的 n 元语法。 此令牌筛选器是使用 Apache Lucene 实现的。

EdgeNGramTokenizer

将来自边缘的输入标记化为给定大小的 n 元语法 (s) 。 此 tokenizer 是使用 Apache Lucene 实现的。

ElisionTokenFilter

删除省音。 例如,“l'avion” (平面) 将转换为“avion” (平面) 。 此令牌筛选器是使用 Apache Lucene 实现的。

EntityLinkingSkill

使用 文本分析 API 从文本中提取链接的实体。

EntityRecognitionSkill

此技能已弃用。 使用 V3。EntityRecognitionSkill 改为。

ExhaustiveKnnParameters

包含特定于详尽 KNN 算法的参数。

ExhaustiveKnnVectorSearchAlgorithmConfiguration

包含特定于查询期间使用的详尽 KNN 算法的配置选项,该算法将对整个向量索引执行暴力搜索。

FieldMapping

定义数据源中的字段与索引中目标字段之间的映射。

FieldMappingFunction

表示在编制索引之前转换数据源中的值的函数。

FreshnessScoringFunction

定义一个函数,该函数根据日期时间字段的值提高分数。

FreshnessScoringParameters

为新鲜度评分函数提供参数值。

HighWaterMarkChangeDetectionPolicy

定义一个数据更改检测策略,该策略根据高使用标记列的值捕获更改。

HnswParameters

包含特定于 hnsw 算法的参数。

HnswVectorSearchAlgorithmConfiguration

包含特定于索引编制和查询期间使用的 hnsw 近似近邻算法的配置选项。 hnsw 算法在搜索速度和准确性之间提供可调整的权衡。

ImageAnalysisSkill

分析图像文件的技能。 它基于图像内容提取一组丰富的视觉特征。

IndexerChangeTrackingState

表示索引器执行期间的更改跟踪状态。

IndexerExecutionResult

表示单个索引器执行的结果。

IndexerState

表示定义和指示索引器当前执行的所有状态。

IndexingParameters

表示索引器执行的参数。

IndexingParametersConfiguration

索引器特定配置属性的字典。 每个名称都是特定属性的名称。 每个值必须是基元类型。

IndexingSchedule

表示索引器执行的计划。

InputFieldMappingEntry

技能的输入字段映射。

KeepTokenFilter

标记筛选器,仅保留包含指定单词列表中的文本的标记。 此令牌筛选器是使用 Apache Lucene 实现的。

KeyPhraseExtractionSkill

使用文本分析提取关键短语的技能。

KeywordMarkerTokenFilter

将词条标记为关键字。 此令牌筛选器是使用 Apache Lucene 实现的。

KeywordTokenizer

将整个输入作为单个标记发出。 此 tokenizer 是使用 Apache Lucene 实现的。

KnowledgeStore

定义扩充数据的 Azure Blob、表或文件的其他投影。

KnowledgeStoreFileProjectionSelector

要存储在 Azure 文件存储 中的数据的投影定义。

KnowledgeStoreObjectProjectionSelector

要存储在 Azure Blob 中的数据的投影定义。

KnowledgeStoreProjection

各种投影选择器的容器对象。

KnowledgeStoreProjectionSelector

用于在具体选择器之间共享属性的抽象类。

KnowledgeStoreStorageProjectionSelector

用于在具体选择器之间共享属性的抽象类。

KnowledgeStoreTableProjectionSelector

说明要在 Azure 表中存储哪些数据。

LanguageDetectionSkill

一种技能,用于检测输入文本的语言,并为请求中提交的每个文档报告单个语言代码。 语言代码与指示分析置信度分数配对。

LengthTokenFilter

删除太长或太短的字词。 此令牌筛选器是使用 Apache Lucene 实现的。

LexicalAnalyzer

分析器的基类型。 请注意 LexicalAnalyzer , 是基类。 根据方案,可能需要在此处分配基类的派生类,或者需要将此属性强制转换为可能的派生类之一。 可用的派生类包括 CustomAnalyzerPatternAnalyzerLuceneStandardAnalyzerStopAnalyzer

LexicalAnalyzerName.Values

以字符串常量形式声明 LexicalAnalyzerName 的所有属性的值。 可以在需要其他常量的任何位置使用 SearchableFieldAttribute 它们。

LexicalNormalizer

规范化器的基类型。 请注意 LexicalNormalizer , 是基类。 根据方案,可能需要在此处分配基类的派生类,或者需要将此属性强制转换为可能的派生类之一。 可用的派生类包括 CustomNormalizer

LexicalNormalizerName.Values

以字符串常量形式声明 LexicalNormalizerName 的所有属性的值。 可以在 中 SimpleFieldAttribute使用这些参数, SearchableFieldAttribute 还可以在需要其他任何常量的地方使用。

LexicalTokenizer

tokenizer 的基类型。 请注意 LexicalTokenizer , 是基类。 根据方案,可能需要在此处分配基类的派生类,或者需要将此属性强制转换为可能的派生类之一。 可用的派生类包括 ClassicTokenizer、、EdgeNGramTokenizerKeywordTokenizerNGramTokenizerMicrosoftLanguageTokenizerPathHierarchyTokenizerPatternTokenizerMicrosoftLanguageStemmingTokenizerKeywordTokenizer、、 LuceneStandardTokenizerLuceneStandardTokenizer 和 。UaxUrlEmailTokenizer

LimitTokenFilter

编制索引时限制标记数量。 此令牌筛选器是使用 Apache Lucene 实现的。

LuceneStandardAnalyzer

标准 Apache Lucene 分析器;由标准 tokenizer、小写筛选器和停止筛选器组成。

LuceneStandardTokenizer

按照 Unicode 文本分段规则划分文本。 此 tokenizer 是使用 Apache Lucene 实现的。

MagnitudeScoringFunction

定义一个函数,该函数根据数值字段的大小提升分数。

MagnitudeScoringParameters

为数量级评分函数提供参数值。

MappingCharFilter

一个字符筛选器,它应用使用映射选项定义的映射。 匹配具有贪婪性(给定点的最长模式匹配获胜)。 允许替换为空字符串。 此字符筛选器是使用 Apache Lucene 实现的。

MergeSkill

一种技能,用于将两个或多个字符串合并为单个统一字符串,并使用可选的用户定义的分隔符分隔每个组件部分。

MicrosoftLanguageStemmingTokenizer

使用特定于语言的规则划分文本,并将各字词缩减为其原形。

MicrosoftLanguageTokenizer

使用特定于语言的规则划分文本。

NativeBlobSoftDeleteDeletionDetectionPolicy

定义一个数据删除检测策略,该策略利用Azure Blob 存储的本机软删除功能进行删除检测。

NGramTokenFilter

生成给定大小的 n 元语法。 此令牌筛选器是使用 Apache Lucene 实现的。

NGramTokenizer

将输入标记为给定大小的 n 元语法。 此 tokenizer 是使用 Apache Lucene 实现的。

OcrSkill

一种从图像文件中提取文本的技能。

OutputFieldMappingEntry

技能的输出字段映射。

PathHierarchyTokenizer

用于路径式层次结构的 tokenizer。 此 tokenizer 是使用 Apache Lucene 实现的。

PatternAnalyzer

通过正则表达式模式将文本灵活地分解成多个词条。 此分析器是使用 Apache Lucene 实现的。

PatternCaptureTokenFilter

使用 Java 正则表达式发出多个令牌 - 一个或多个模式中的每个捕获组一个令牌。 此令牌筛选器是使用 Apache Lucene 实现的。

PatternReplaceCharFilter

替换输入字符串中的字符的字符筛选器。 它使用正则表达式来标识要保留的字符序列,并使用替换模式来标识要替换的字符。 例如,给定输入文本“aa bb aa bb”、模式“ (aa) \s+ (bb) ”和替换“$1#$2”,结果将是“aa#bb aa#bb”。 此字符筛选器是使用 Apache Lucene 实现的。

PatternReplaceTokenFilter

替换输入字符串中的字符的字符筛选器。 它使用正则表达式来标识要保留的字符序列,并使用替换模式来标识要替换的字符。 例如,给定输入文本“aa bb aa bb”、模式“ (aa) \s+ (bb) ”和替换“$1#$2”,结果将是“aa#bb aa#bb”。 此令牌筛选器是使用 Apache Lucene 实现的。

PatternTokenizer

使用正则表达式模式匹配来构造不同标记的 Tokenizer。 此 tokenizer 是使用 Apache Lucene 实现的。

PhoneticTokenFilter

为拼音匹配项创建标记。 此令牌筛选器是使用 Apache Lucene 实现的。

PiiDetectionSkill

使用 文本分析 API 从输入文本中提取个人信息,并提供屏蔽选项。

PrioritizedFields

描述用于语义排名、标题、突出显示和答案的标题、内容和关键字字段。

ScoringFunction

可在排名期间修改文档分数的函数的基类型。 请注意 ScoringFunction , 是基类。 根据方案,可能需要在此处分配基类的派生类,或者需要将此属性强制转换为可能的派生类之一。 可用的派生类包括 DistanceScoringFunctionFreshnessScoringFunctionMagnitudeScoringFunctionTagScoringFunction

ScoringProfile

定义影响搜索查询评分的搜索索引的参数。

SearchableField

String可以搜索的或“集合 (字符串) ”字段。

SearchAlias

表示索引别名,该别名描述从别名到索引的映射。 别名可以代替受支持操作的索引名称。

SearchField

表示索引定义中的字段,该字段描述字段的名称、数据类型和搜索行为。

SearchFieldTemplate

帮助程序类的基字段类型,以便更轻松地创建 SearchIndex

SearchIndex

表示搜索索引定义,该定义描述索引的字段和搜索行为。

SearchIndexer

表示索引器。

SearchIndexerCache

SearchIndexerCache。

SearchIndexerDataContainer

表示有关实体 (的信息,例如Azure SQL表或将编制索引的 CosmosDB 集合) 。

SearchIndexerDataIdentity

数据标识的抽象基类型。 请注意 SearchIndexerDataIdentity ,是基类。 根据方案,可能需要在此处分配基类的派生类,或者此属性需要强制转换为可能的派生类之一。 可用的派生类包括 SearchIndexerDataNoneIdentitySearchIndexerDataUserAssignedIdentity

SearchIndexerDataNoneIdentity

清除数据源的标识属性。

SearchIndexerDataSourceConnection

表示可用于配置索引器的数据源定义。

SearchIndexerDataUserAssignedIdentity

指定要使用的数据源的标识。

SearchIndexerError

表示项级别或文档级别索引错误。

SearchIndexerIndexProjections

定义辅助搜索索引的其他投影。

SearchIndexerIndexProjectionSelector

在指定的搜索索引中存储哪些数据的说明。

SearchIndexerIndexProjectionsParameters

索引投影特定配置属性的字典。 每个名称都是特定属性的名称。 每个值都必须是基元类型。

SearchIndexerKnowledgeStoreParameters

特定于知识存储的配置属性的字典。 每个名称都是特定属性的名称。 每个值都必须是基元类型。

SearchIndexerLimits

SearchIndexerLimits。

SearchIndexerSkill

技能的基类型。 请注意 SearchIndexerSkill ,是基类。 根据方案,可能需要在此处分配基类的派生类,或者此属性需要强制转换为可能的派生类之一。 可用的派生类包括 AzureMachineLearningSkill、、WebApiSkillAzureOpenAIEmbeddingSkillEntityRecognitionSkillCustomEntityLookupSkillMergeSkillKeyPhraseExtractionSkillPiiDetectionSkillLanguageDetectionSkillEntityLinkingSkillTextTranslationSkillAzure.Search.Documents.Indexes.Models.EntityRecognitionSkillV3Azure.Search.Documents.Indexes.Models.SentimentSkillV3SplitSkillSentimentSkillDocumentExtractionSkillShaperSkillConditionalSkillImageAnalysisSkill 和 。OcrSkill

SearchIndexerSkillset

技能列表。

SearchIndexerStatus

表示索引器的当前状态和执行历史记录。

SearchIndexerWarning

表示项级警告。

SearchIndexStatistics

给定索引的统计信息。 统计信息会定期收集,不能保证始终是最新的。

SearchResourceCounter

表示资源的使用情况和配额。

SearchResourceEncryptionKey

Azure 密钥保管库中客户管理的加密密钥。 创建和管理的密钥可用于加密或解密Azure 认知搜索中的静态数据,例如索引和同义词映射。

SearchServiceCounters

表示服务级别资源计数器和配额。

SearchServiceLimits

表示各种服务级别限制。

SearchServiceStatistics

来自获取服务统计信息请求的响应。 如果成功,则包含服务级别计数器和限制。

SearchSuggester

定义建议 API 应如何应用于索引中的一组字段。

SemanticConfiguration

定义要在语义功能上下文中使用的特定配置。

SemanticField

用作语义配置的一部分的字段。

SemanticSettings

定义影响语义功能的搜索索引的参数。

SentimentSkill

此技能已弃用。 使用 V3。情绪技能相反。

ShaperSkill

用于重塑输出的技能。 它创建一个复杂类型以支持复合字段 (也称为多部分字段) 。

ShingleTokenFilter

创建标记组合作为单个标记。 此令牌筛选器是使用 Apache Lucene 实现的。

SimilarityAlgorithm

相似性算法的基类型。 相似度算法用于计算将查询与文档挂钩的分数。 分数越高,文档与该特定查询的相关性就越高。 这些分数用于对搜索结果进行排名。 请注意 SimilarityAlgorithm ,是基类。 根据方案,可能需要在此处分配基类的派生类,或者此属性需要强制转换为可能的派生类之一。 可用的派生类包括 BM25SimilarityClassicSimilarity

SimpleField

使用基元类型或基元类型的集合的简单字段。

SnowballTokenFilter

使用 Snowball 生成的词干分析器来词干的筛选器。 此令牌筛选器是使用 Apache Lucene 实现的。

SoftDeleteColumnDeletionDetectionPolicy

定义实现软删除策略的数据删除检测策略。 它确定是否应根据指定的“软删除”列的值删除项。

SplitSkill

将字符串拆分为文本块的技能。

SqlIntegratedChangeTrackingPolicy

定义使用 Azure SQL Database 的集成更改跟踪功能捕获更改的数据更改检测策略。

StemmerOverrideTokenFilter

提供使用基于字典的自定义词干筛选替代其他词干筛选器的功能。 任何字典词干词都将标记为关键字,以便它们不会在链上使用词干分析器进行词干。 必须放在任何词干分解筛选器之前。 此令牌筛选器是使用 Apache Lucene 实现的。

StemmerTokenFilter

特定于语言的词干筛选器。 此令牌筛选器是使用 Apache Lucene 实现的。

StopAnalyzer

将文本除以非字母;应用小写和非索引字标记筛选器。 此分析器是使用 Apache Lucene 实现的。

StopwordsTokenFilter

从标记流中删除非索引字。 此令牌筛选器是使用 Apache Lucene 实现的。

SynonymMap

表示同义词映射定义。

SynonymTokenFilter

匹配令牌流中的单个或多个单词同义词。 此令牌筛选器是使用 Apache Lucene 实现的。

TagScoringFunction

定义一个函数,该函数使用与给定标记列表匹配的字符串值提升文档分数。

TagScoringParameters

为标记评分函数提供参数值。

TextTranslationSkill

将文本从一种语言翻译到另一种语言的技能。

TextWeights

定义索引字段的权重,匹配项应提高搜索查询中的评分。

TokenFilter

令牌筛选器的基类型。 请注意 TokenFilter , 是基类。 根据方案,可能需要在此处分配基类的派生类,或者需要将此属性强制转换为可能的派生类之一。 可用的派生类包括 AsciiFoldingTokenFilter、、CjkBigramTokenFilter、、CommonGramTokenFilterDictionaryDecompounderTokenFilterStemmerOverrideTokenFilterEdgeNGramTokenFilterEdgeNGramTokenFilterElisionTokenFilterKeepTokenFilterNGramTokenFilterLimitTokenFilterNGramTokenFilterLengthTokenFilterPatternCaptureTokenFilterPatternReplaceTokenFilterShingleTokenFilterStemmerTokenFilterSnowballTokenFilterStopwordsTokenFilterKeywordMarkerTokenFilterSynonymTokenFilterPhoneticTokenFilterTruncateTokenFilterUniqueTokenFilter 和 。WordDelimiterTokenFilter

TruncateTokenFilter

将字词截断为特定长度。 此令牌筛选器是使用 Apache Lucene 实现的。

UaxUrlEmailTokenizer

将 URL 和电子邮件标记为一个标记。 此 tokenizer 是使用 Apache Lucene 实现的。

UniqueTokenFilter

筛选出与前一个标记具有相同文本的标记。 此令牌筛选器是使用 Apache Lucene 实现的。

VectorSearch

包含与矢量搜索相关的配置选项。

VectorSearchAlgorithmConfiguration

包含特定于索引编制和/或查询期间使用的算法的配置选项。 请注意 VectorSearchAlgorithmConfiguration , 是基类。 根据方案,可能需要在此处分配基类的派生类,或者需要将此属性强制转换为可能的派生类之一。 可用的派生类包括 ExhaustiveKnnVectorSearchAlgorithmConfigurationHnswVectorSearchAlgorithmConfiguration

VectorSearchProfile

定义要用于矢量搜索的配置组合。

VectorSearchVectorizer

包含查询期间要使用的矢量化方法的特定详细信息。 请注意 VectorSearchVectorizer , 是基类。 根据方案,可能需要在此处分配基类的派生类,或者需要将此属性强制转换为可能的派生类之一。 可用的派生类包括 AzureOpenAIVectorizerCustomVectorizer

WebApiSkill

一种可以调用 Web API 终结点的技能,使你能够通过调用自定义代码来扩展技能集。

WordDelimiterTokenFilter

将字词拆分为子字,并对子字组执行可选转换。 此令牌筛选器是使用 Apache Lucene 实现的。

结构

BlobIndexerDataToExtract

指定要从 Azure Blob 存储中提取的数据,并在“imageAction”设置为“none”以外的值时告知索引器从图像内容中提取哪些数据。 这适用于 .PDF 或其他应用程序中的嵌入图像内容,或者 Azure Blob 中的 .jpg 和 .png 等图像文件。

BlobIndexerImageAction

确定如何处理 Azure Blob 存储中的嵌入图像和图像文件。 将“imageAction”配置设置为除“none”以外的任何值都需要将技能集附加到该索引器。

BlobIndexerParsingMode

表示用于从 Azure Blob 数据源编制索引的解析模式。

BlobIndexerPdfTextRotationAlgorithm

确定从 Azure Blob 存储中的 PDF 文件提取文本的算法。

CharFilterName

定义Azure 认知搜索支持的所有字符筛选器的名称。

CustomEntityLookupSkillLanguage

CustomEntityLookupSkill 支持的输入文本的语言代码。

EntityCategory

一个字符串,指示要返回的实体类别。

EntityRecognitionSkill.SkillVersion

表示 的服务 EntityRecognitionSkill版本信息。

EntityRecognitionSkillLanguage

已弃用。 EntityRecognitionSkill 支持的输入文本的语言代码。

ImageAnalysisSkillLanguage

ImageAnalysisSkill 支持输入的语言代码。

ImageDetail

一个字符串,指示要返回哪些特定于域的详细信息。

IndexerExecutionEnvironment

指定索引器应在其中执行的环境。

IndexerExecutionStatusDetail

详细说明单个索引器执行的状态。

IndexingMode

表示索引器正在执行的模式。

IndexProjectionMode

定义相对于索引器其余部分的索引投影的行为。

KeyPhraseExtractionSkillLanguage

KeyPhraseExtractionSkill 支持的输入文本的语言代码。

LexicalAnalyzerName

定义Azure 认知搜索支持的所有文本分析器的名称。

LexicalNormalizerName

定义Azure 认知搜索支持的所有文本规范化器的名称。

LexicalTokenizerName

定义Azure 认知搜索支持的所有 tokenizer 的名称。

LineEnding

定义要在 OCR 技能识别的文本行之间使用的字符序列。 默认值为“space”。

OcrSkillLanguage

OcrSkill 输入支持的语言代码。

PiiDetectionSkillMaskingMode

一个字符串,指示用于屏蔽输入文本中检测到的个人信息的 maskingMode。

RegexFlag

定义可以组合在一起以控制模式分析器和模式标记器中使用正则表达式的方式的标志。

SearchFieldDataType

定义搜索索引中字段的数据类型。

SearchIndexerDataSourceType

定义数据源的类型。

SentimentSkill.SkillVersion

表示 的服务 SentimentSkill版本信息。

SentimentSkillLanguage

已弃用。 SentimentSkill 支持的输入文本的语言代码。

SplitSkillLanguage

SplitSkill 支持的输入文本的语言代码。

TextSplitMode

指示要执行的拆分模式的值。

TextTranslationSkillLanguage

TextTranslationSkill 支持的输入文本的语言代码。

TokenFilterName

定义Azure 认知搜索支持的所有标记筛选器的名称。

VectorSearchAlgorithmKind

用于索引和查询的算法。

VectorSearchAlgorithmMetric

用于矢量比较的相似性指标。

VectorSearchVectorizerKind

查询期间要使用的矢量化方法。

VisualFeature

指示要返回的视觉特征类型的字符串。

枚举

CjkBigramTokenFilterScripts

CjkBigramTokenFilter 可以忽略的脚本。

EdgeNGramTokenFilterSide

指定应从哪个端生成 n 元语法的输入。

IndexerExecutionStatus

表示单个索引器执行的状态。

IndexerStatus

表示总体的索引器状态。

MicrosoftStemmingTokenizerLanguage

列出 Microsoft 语言词干分析 tokenizer 支持的语言。

MicrosoftTokenizerLanguage

列出 Microsoft 语言 tokenizer 支持的语言。

PhoneticEncoder

标识要与 PhoneticTokenFilter 一起使用的拼音编码器的类型。

ScoringFunctionAggregation

定义用于合并评分配置文件中所有评分函数的结果的聚合函数。

ScoringFunctionInterpolation

定义用于在一系列文档中内插分数提升的函数。

SnowballTokenFilterLanguage

用于 Snowball 令牌筛选器的语言。

StemmerTokenFilterLanguage

用于词干分析器标记筛选器的语言。

StopwordsList

标识特定于语言的预定义非索引字列表。

TokenCharacterKind

表示令牌筛选器可以对其操作的字符类。