@azure/search-documents package

類別

AzureKeyCredential

支援更新基礎金鑰值的靜態索引鍵型認證。

GeographyPoint

表示全域座標的地理點。

IndexDocumentsBatch

類別,用來對索引執行具有多個檔的批次作業。

SearchClient

用來對搜尋索引執行作業的類別,包括查詢索引中的檔,以及新增、更新和移除它們。

SearchIndexClient

執行作業以管理 (建立、更新、列出/刪除) 索引,& 同義字對應。

SearchIndexerClient

類別,用來管理 (建立、更新、列出/刪除) 索引器、數據源 & 技能集。

SearchIndexingBufferedSender

用來對搜尋索引執行緩衝處理作業的類別,包括新增、更新和移除它們。

介面

AnalyzeRequest

指定一些用來將該文字分成標記的文字和分析元件。

AnalyzeResult

測試文字分析器的結果。

AnalyzedTokenInfo

分析器所傳回之令牌的相關信息。

AsciiFoldingTokenFilter

如果這類對等專案存在,則會將前 127 個 ASCII 字元中的字母、數位和符號 Unicode 字元, (“Basic Latin” Unicode 區塊) 轉換成其 ASCII 對等專案。 此令牌篩選器是使用 Apache Lucene 來實作。

AutocompleteItem

自動完成要求的結果。

AutocompleteRequest

模糊比對和其他自動完成查詢行為的參數。

AutocompleteResult

自動完成查詢的結果。

AzureActiveDirectoryApplicationCredentials

為搜尋服務建立之已註冊應用程式的認證,用於驗證存取儲存在 Azure 金鑰保存庫 中的加密密鑰。

BM25Similarity

以 Okapi BM25 相似度演算法為基礎的排名函式。 BM25 是類似 TF-IDF 的演算法,包含由 'b' 參數) 所控制的長度正規化 (,以及由 'k1' 參數) 所控制的詞彙頻率飽和度 (。

BaseCharFilter

字元篩選的基底類型。

BaseCognitiveServicesAccount

描述附加至技能集之任何 Azure AI 服務資源的基底類型。

BaseDataChangeDetectionPolicy

數據變更偵測原則的基底類型。

BaseDataDeletionDetectionPolicy

數據刪除偵測原則的基底類型。

BaseLexicalAnalyzer

分析器的基底類型。

BaseLexicalTokenizer

Tokenizer 的基底類型。

BaseScoringFunction

可在排名期間修改檔分數的函式基底類型。

BaseSearchIndexerSkill

技能的基底類型。

BaseSearchRequestOptions

篩選、排序、Facet、分頁和其他搜尋查詢行為的參數。

BaseTokenFilter

令牌篩選的基底類型。

BaseVectorQuery

向量和混合式搜尋查詢的查詢參數。

BaseVectorSearchAlgorithmConfiguration

包含索引編製和/或查詢期間所用演算法的特定組態選項。

CjkBigramTokenFilter

形成從標準Tokenizer產生的CJK詞彙 bigrams。 此令牌篩選器是使用 Apache Lucene 來實作。

ClassicSimilarity

使用 TF-IDF 之 Lucene TFIDFSimilarity 實作的舊版相似度演算法。 這種 TF-IDF 變化引進靜態文件長度正規化,以及協調只影響僅部分符合所搜尋查詢之檔的因素。

ClassicTokenizer

適用於處理大部分歐洲語言檔的文法型Tokenizer。 此 Tokenizer 是使用 Apache Lucene 來實作。

CognitiveServicesAccountKey

以附加至技能集的密鑰布建的 Azure AI 服務資源。

CommonGramTokenFilter

在編製索引時,建構常用字詞的雙字母組。 仍會編製單個字詞的索引,並與雙字母組重疊。 此令牌篩選器是使用 Apache Lucene 來實作。

ComplexField

表示索引定義中的欄位,描述欄位的名稱、數據類型和搜尋行為。

ConditionalSkill

技能,可讓需要布爾運算的案例來判斷要指派給輸出的數據。

CorsOptions

定義選項,以控制索引的跨原始來源資源分享 (CORS) 。

CreateOrUpdateIndexOptions

建立/更新索引作業的選項。

CreateOrUpdateSkillsetOptions

建立/更新技能集作業的選項。

CreateOrUpdateSynonymMapOptions

建立/更新 synonymmap 作業的選項。

CreateorUpdateDataSourceConnectionOptions

建立/更新數據源作業的選項。

CreateorUpdateIndexerOptions

建立/更新索引器作業的選項。

CustomAnalyzer

可讓您控制將文字轉換成可編製索引/可搜尋標記的程式。 這是使用者定義的組態,由單一預先定義的Tokenizer和一或多個篩選器所組成。 Tokenizer 負責將文字分成令牌,以及修改 Tokenizer 所發出的令牌的篩選條件。

CustomEntity

物件,包含所找到相符專案的相關信息,以及相關的元數據。

CustomEntityAlias

複雜物件,可用來指定根實體名稱的替代拼字或同義字。

CustomEntityLookupSkill

技能會從自定義、使用者定義的單字和片語清單中尋找文字。

DefaultCognitiveServicesAccount

空物件,表示技能集的預設 Azure AI 服務資源。

DeleteDataSourceConnectionOptions

刪除資料源作業的選項。

DeleteIndexOptions

刪除索引作業的選項。

DeleteIndexerOptions

刪除索引器作業的選項。

DeleteSkillsetOptions

刪除技能集操作的選項。

DeleteSynonymMapOptions

刪除同義字對應作業的選項。

DictionaryDecompounderTokenFilter

分解在許多日耳曼語系中找到的複合字。 此令牌篩選是使用 Apache Lucene 實作。

DistanceScoringFunction

定義根據地理位置距離提升分數的函式。

DistanceScoringParameters

提供距離評分函式的參數值。

DocumentExtractionSkill

從擴充管線內的檔案擷取內容的技能。

EdgeNGramTokenFilter

從輸入令牌的前端或後端開始,產生指定大小的 n-gram (s) 。 此令牌篩選是使用 Apache Lucene 實作。

EdgeNGramTokenizer

將邊緣的輸入令牌化為指定大小 (s) 的 n-gram。 此 Tokenizer 是使用 Apache Lucene 實作。

ElisionTokenFilter

移除元音省略。 例如,“l'avion” (平面) 將會轉換成 “avion” (平面) 。 此令牌篩選是使用 Apache Lucene 實作。

EntityLinkingSkill

使用 文字分析 API,從文字中擷取連結的實體。

EntityRecognitionSkill

文字分析實體辨識。

EntityRecognitionSkillV3

使用 文字分析 API,從文字擷取不同類型的實體。

ExhaustiveKnnParameters

包含詳盡 KNN 演算法特有的參數。

ExtractiveQueryAnswer

從傳回的文件內容擷取答案候選專案,以回應以自然語言表示為問題的查詢。

ExtractiveQueryCaption

從相符的檔擷取標題,其中包含與搜尋查詢相關的段落。

FacetResult

Facet 查詢結果的單一貯體。 報告具有域值落在特定範圍內或具有特定值或間隔的檔數目。

FieldMapping

定義數據源中的欄位與索引中目標欄位之間的對應。

FieldMappingFunction

表示在編製索引之前,從數據源轉換值的函式。

FreshnessScoringFunction

定義根據日期時間欄位值提升分數的函式。

FreshnessScoringParameters

提供新式評分函式的參數值。

GetDocumentOptions

擷取單一文件的選項。

HighWaterMarkChangeDetectionPolicy

定義數據變更偵測原則,根據高水位標記數據行的值來擷取變更。

HnswParameters

包含 hnsw 演算法特有的參數。

ImageAnalysisSkill

分析影像檔案的技能。 它會根據影像內容擷取一組豐富的視覺功能。

IndexDocumentsClient

索引文件用戶端

IndexDocumentsOptions

修改索引批次作業的選項。

IndexDocumentsResult

回應,其中包含索引要求中所有文件的作業狀態。

IndexerExecutionResult

表示個別索引器執行的結果。

IndexingParameters

表示索引子執行的參數。

IndexingParametersConfiguration

索引器特定組態屬性的字典。 每個名稱都是特定屬性的名稱。 每個值都必須是基本類型。

IndexingResult

單一檔的索引作業狀態。

IndexingSchedule

表示索引子執行的排程。

InputFieldMappingEntry

技能的輸入欄位對應。

KeepTokenFilter

令牌篩選條件,只保留包含指定單字清單中的文字標記。 此令牌篩選是使用 Apache Lucene 實作。

KeyPhraseExtractionSkill

使用文字分析進行關鍵片語擷取的技能。

KeywordMarkerTokenFilter

將字詞標示為關鍵字。 此令牌篩選是使用 Apache Lucene 實作。

KeywordTokenizer

以單一語彙基元的形式發出整個輸入。 此 Tokenizer 是使用 Apache Lucene 實作。

LanguageDetectionSkill

偵測輸入文字語言的技能,並針對要求上提交的每份文件報告單一語言代碼。 語言代碼會與分數配對,指出分析的信賴度。

LengthTokenFilter

移除太長或太短的文字。 此令牌篩選器是使用 Apache Lucene 來實作。

LimitTokenFilter

限制編製索引時的語彙基元數目。 此令牌篩選是使用 Apache Lucene 實作。

ListSearchResultsPageSettings

擷取搜尋結果下一頁的自變數。

LuceneStandardAnalyzer

標準 Apache Lucene 分析器;由標準 Tokenizer、小寫篩選和停止篩選所組成。

LuceneStandardTokenizer

遵循 Unicode 文字分割規則來分解文字。 此 Tokenizer 是使用 Apache Lucene 實作。

MagnitudeScoringFunction

定義根據數值欄位的大小提升分數的函式。

MagnitudeScoringParameters

提供參數值給量級評分函式。

MappingCharFilter

套用對應選項所定義的對應字元篩選。 比對採用貪婪演算法 (由指定點上最長的模式比對勝出) 取代項目可以是空字串。 此字元篩選是使用 Apache Lucene 實作。

MergeSkill

將兩個或多個字串合併成單一統一字串的技能,其中選擇性的用戶定義分隔符會分隔每個元件元件。

MicrosoftLanguageStemmingTokenizer

使用語言特有的規則來分割文字,並將字組縮減到其基本形式。

MicrosoftLanguageTokenizer

使用語言特有的規則分割文字。

NGramTokenFilter

產生指定大小的 n-gram。 此令牌篩選是使用 Apache Lucene 實作。

NGramTokenizer

將輸入 Token 化到指定的 n-gram 大小。 此 Tokenizer 是使用 Apache Lucene 實作。

OcrSkill

從圖像檔擷取文字的技能。

OutputFieldMappingEntry

技能的輸出欄位對應。

PIIDetectionSkill

使用 文字分析 API,從輸入文字擷取個人資訊,並提供您遮罩它的選項。

PathHierarchyTokenizer

路徑類階層的 Token 化工具。 此 Tokenizer 是使用 Apache Lucene 實作。

PatternAnalyzer

透過規則運算式模式彈性地將文字分割成字詞。 此分析器是使用 Apache Lucene 實作。

PatternCaptureTokenFilter

使用 Java regex 來發出多個令牌 -一個用於一或多個模式中的每個擷取群組。 此令牌篩選是使用 Apache Lucene 實作。

PatternReplaceCharFilter

取代輸入字串中字元的字元篩選。 其使用規則運算式來識別要保留的字元序列,並使用取代模式來識別要取代的字元。 例如,假設輸入文字 “aa bb aa bb”, pattern “ (aa) \s+ (bb) ”, and replacement “$1#$2”, 結果會是 “aa#bb aa#bb”。 此字元篩選是使用 Apache Lucene 實作。

PatternReplaceTokenFilter

取代輸入字串中字元的字元篩選。 其使用規則運算式來識別要保留的字元序列,並使用取代模式來識別要取代的字元。 例如,假設輸入文字 “aa bb aa bb”, pattern “ (aa) \s+ (bb) ”, and replacement “$1#$2”, 結果會是 “aa#bb aa#bb”。 此令牌篩選是使用 Apache Lucene 實作。

PatternTokenizer

使用 regex 模式比對來建構不同令牌的 Tokenizer。 此 Tokenizer 是使用 Apache Lucene 實作。

PhoneticTokenFilter

建立語音相符項目的語彙基元。 此令牌篩選是使用 Apache Lucene 實作。

QueryAnswerResult

答案是從符合查詢之最相關文件的內容中擷取的文字段。 答案會從頂端搜尋結果中擷取。 答案候選項目會進行評分,並選取頂端答案。

QueryCaptionResult

標題是文件相對於搜尋查詢最代表性的一部分。 它們通常用來做為文件摘要。 只有類型的 semantic查詢才會傳回標題。

ResourceCounter

表示資源的使用量和配額。

ScoringProfile

定義影響搜尋查詢評分之搜尋索引的參數。

SearchClientOptions

用來設定認知搜尋 API 要求的客戶端選項。

SearchDocumentsPageResult

包含索引中搜尋頁面結果的回應。

SearchDocumentsResult

包含索引搜尋結果的回應。

SearchDocumentsResultBase

包含索引搜尋結果的回應。

SearchIndex

表示搜尋索引定義,描述索引的欄位和搜尋行為。

SearchIndexClientOptions

用來設定認知搜尋 API 要求的客戶端選項。

SearchIndexStatistics

指定索引的統計數據。 統計數據會定期收集,不保證一律為最新狀態。

SearchIndexer

表示索引器。

SearchIndexerClientOptions

用來設定認知搜尋 API 要求的客戶端選項。

SearchIndexerDataContainer

表示將編製索引之實體 (的相關信息,例如 Azure SQL 數據表或 CosmosDB 集合) 。

SearchIndexerDataSourceConnection

表示數據源定義,可用來設定索引器。

SearchIndexerError

表示項目或文件層級索引錯誤。

SearchIndexerKnowledgeStore

擴充數據的 Azure Blob、數據表或檔案的其他投影定義。

SearchIndexerKnowledgeStoreBlobProjectionSelector

抽象類,在具體選取器之間共用屬性。

SearchIndexerKnowledgeStoreFileProjectionSelector

要儲存在 Azure 檔案儲存體 中的數據投影定義。

SearchIndexerKnowledgeStoreObjectProjectionSelector

要儲存在 Azure Blob 中的數據投影定義。

SearchIndexerKnowledgeStoreProjection

各種投影選取器的容器物件。

SearchIndexerKnowledgeStoreProjectionSelector

抽象類,在具體選取器之間共用屬性。

SearchIndexerKnowledgeStoreTableProjectionSelector

要儲存在 Azure 數據表中的數據描述。

SearchIndexerLimits
SearchIndexerSkillset

技能清單。

SearchIndexerStatus

表示索引子的目前狀態和執行記錄。

SearchIndexerWarning

表示專案層級警告。

SearchIndexingBufferedSenderOptions

SearchIndexingBufferedSender 的選項。

SearchResourceEncryptionKey

Azure 金鑰保存庫 中客戶管理的加密密鑰。 您建立和管理的金鑰可用來加密或解密 Azure 認知搜尋 中的數據,例如索引和同義字對應。

SearchServiceStatistics

從取得服務統計數據要求回應。 如果成功,則會包含服務等級計數器和限制。

SearchSuggester

定義建議 API 如何套用至索引中的欄位群組。

SemanticConfiguration

定義要用於語意功能內容的特定組態。

SemanticField

做為語意設定一部分的欄位。

SemanticPrioritizedFields

描述要用於語意排名、標題、醒目提示和答案的標題、內容和關鍵詞欄位。

SemanticSearch

定義影響語意功能的搜尋索引參數。

SemanticSearchOptions

定義語意搜尋查詢的選項

SentimentSkill

文字分析正面-負面情感分析,在零到 1 的範圍內評分為浮點值。

SentimentSkillV3

使用 文字分析 API 評估非結構化文字,並針對每個記錄提供情感卷標 (,例如「負面」、「中性」和「正面」) ,根據服務在句子和檔層級找到的最高信賴分數。

ServiceCounters

表示服務層級資源計數器和配額。

ServiceLimits

表示各種服務等級限制。

ShaperSkill

調整輸出的技能。 它會建立複雜類型來支持複合字段 (也稱為多部分字段) 。

ShingleTokenFilter

將語彙基元的組合建立為單一語彙基元。 此令牌篩選是使用 Apache Lucene 實作。

Similarity

相似度演算法的基底類型。 相似度演算法可用來計算將查詢系結至檔的分數。 分數越高,檔與該特定查詢越相關。 這些分數是用來排名搜尋結果。

SimpleField

代表索引定義中的欄位,描述欄位的名稱、數據類型和搜尋行為。

SnowballTokenFilter

使用 Snowball 產生的字幹分析器來建立字組的篩選。 此令牌篩選是使用 Apache Lucene 實作。

SoftDeleteColumnDeletionDetectionPolicy

定義實作虛刪除策略的數據刪除偵測原則。 它會根據指定的「虛刪除」數據行值來判斷是否應該刪除專案。

SplitSkill

將字串分割成文字區塊的技能。

SqlIntegratedChangeTrackingPolicy

定義使用 Azure SQL Database 整合式 變更追蹤 功能來擷取變更的數據變更偵測原則。

StemmerOverrideTokenFilter

提供使用自定義字典型字幹分析覆寫其他字幹篩選的功能。 任何字典字幹字詞都會標示為關鍵詞,使其不會以字幹分析器向下鏈結。 必須放在任何詞幹分析篩選器之前。 此令牌篩選是使用 Apache Lucene 實作。

StemmerTokenFilter

語言特定字幹分析篩選器。 此令牌篩選是使用 Apache Lucene 實作。

StopAnalyzer

將文字除以非字母;套用小寫和停用字詞標記篩選。 此分析器是使用 Apache Lucene 實作。

StopwordsTokenFilter

從語彙基元資料流移除停用字詞。 此令牌篩選是使用 Apache Lucene 實作。

SuggestDocumentsResult

包含索引建議查詢結果的回應。

SuggestRequest

篩選、排序、模糊比對和其他建議查詢行為的參數。

SynonymMap

表示同義字對應定義。

SynonymTokenFilter

比對令牌數據流中的單字或多字同義字。 此令牌篩選是使用 Apache Lucene 實作。

TagScoringFunction

定義函式,此函式會使用符合指定標籤清單的字串值來提升檔的分數。

TagScoringParameters

提供標記評分函式的參數值。

TextTranslationSkill

將文字從一種語言翻譯成另一種語言的技能。

TextWeights

定義在搜尋查詢中應該提升評分的索引欄位權數。

TruncateTokenFilter

將字詞截斷為特定長度。 此令牌篩選器是使用 Apache Lucene 來實作。

UaxUrlEmailTokenizer

將 URL 和電子郵件 Token 化為一個語彙基元。 此 Tokenizer 是使用 Apache Lucene 來實作。

UniqueTokenFilter

篩選出與前一個語彙基元使用相同文字的語彙基元。 此令牌篩選器是使用 Apache Lucene 來實作。

VectorSearch

包含與向量搜尋相關的組態選項。

VectorSearchOptions

定義向量搜尋查詢的選項

VectorSearchProfile

定義要與向量搜尋搭配使用的組態組合。

VectorizedQuery

提供原始向量值時,用於向量搜尋的查詢參數。

WebApiSkill

可呼叫 Web API 端點的技能,可讓您藉由呼叫自定義程式代碼來擴充技能集。

WordDelimiterTokenFilter

將字組分割成部分字組,並對部分字組群組執行選擇性的轉換。 此令牌篩選器是使用 Apache Lucene 來實作。

類型別名

AnalyzeTextOptions

用於分析文字作業的選項。

AutocompleteMode

定義 AutocompleteMode 的值。

AutocompleteOptions

擷取部分 searchText 完成文字的選項。

BlobIndexerDataToExtract

服務支援的已知值

storageMetadata:只編製標準 Blob 屬性和使用者指定元數據的索引。 allMetadata:擷取 Azure Blob 記憶體子系統所提供的元數據,以及內容類型特定的元數據 (例如,只會編製索引 .png 檔案的唯一元數據) 。 contentAndMetadata:從每個 Blob 擷取所有元數據和文字內容。

BlobIndexerImageAction

服務支援的已知值

none:忽略數據集中的內嵌影像或圖像檔案。 此為預設值。 generateNormalizedImages:從影像擷取文字 (例如,從流量停止符號) “STOP” 這個字,並將其內嵌到內容欄位中。 此動作要求 「dataToExtract」 設定為 「contentAndMetadata」。 正規化影像是指額外的處理,導致統一影像輸出、大小和旋轉,以在視覺搜尋結果中包含影像時提升一致的轉譯。 當您使用此選項時,每個映像都會產生這項資訊。 generateNormalizedImagePerPage:從影像擷取文字 (例如,流量停止符號) 的 “STOP” 一詞,並將它內嵌到內容字段中,但會將每個頁面的 PDF 檔案以不同的方式呈現為影像,並據以正規化,而不是擷取內嵌影像。 若已設定 「generateNormalizedImages」,則會將非 PDF 檔類型視為相同。

BlobIndexerPDFTextRotationAlgorithm

服務支援的已知值

none:利用一般文字擷取。 此為預設值。 detectAngles:可能會從已旋轉文字的 PDF 檔案中產生更好且更容易閱讀的文字擷取。 請注意,使用此參數時,可能會對效能速度造成較小的影響。 此參數僅適用於 PDF 檔案,僅適用於內嵌文字的 PDF。 如果旋轉的文字出現在 PDF 的內嵌影像內,則不適用此參數。

BlobIndexerParsingMode

服務支援的已知值

default:設定為一般檔案處理的預設值。 text:設定為文字,以改善 Blob 記憶體中純文字檔案的索引效能。 delimitedText:當 Blob 是純 CSV 檔案時,設為 delimitedText。 json:設定為 json,以從 JSON 檔案擷取結構化內容。 jsonArray:設定為 jsonArray,將 JSON 陣列的個別元素擷取為 Azure 認知搜尋 中的個別檔。 jsonLines:設定為 jsonLines 以擷取個別 JSON 實體,並以新行分隔,作為 Azure 認知搜尋 中的個別檔。

CharFilter

包含 CharFilter 的可能案例。

CharFilterName

定義 CharFilterName 的值。
<xref:KnownCharFilterName> 可以與 CharFilterName 交換使用,此列舉包含服務支援的已知值。

服務支援的已知值

html_strip:嘗試移除 HTML 建構的字元篩選。 請參閱 https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html

CjkBigramTokenFilterScripts

定義 CjkBigramTokenFilterScripts 的值。

CognitiveServicesAccount

包含 CognitiveServicesAccount 的可能案例。

ComplexDataType

定義 ComplexDataType 的值。 可能的值包括:'Edm.ComplexType'、'Collection (Edm.ComplexType) '

CountDocumentsOptions

在索引上執行計數作業的選項。

CreateDataSourceConnectionOptions

建立數據源作業的選項。

CreateIndexOptions

建立索引作業的選項。

CreateIndexerOptions

建立索引器作業的選項。

CreateSkillsetOptions

建立技能集作業的選項。

CreateSynonymMapOptions

建立 synonymmap 作業的選項。

CustomEntityLookupSkillLanguage

定義 CustomEntityLookupSkillKnownCustomEntityLookupSkillLanguage 的支持語言可以與這個類型交換使用

DataChangeDetectionPolicy

包含 DataChangeDetectionPolicy 的可能案例。

DataDeletionDetectionPolicy

包含 DataDeletionDetectionPolicy 的可能案例。

DeleteDocumentsOptions

刪除檔案作業的選項。

EdgeNGramTokenFilterSide

定義 EdgeNGramTokenFilterSide 的值。

EntityCategory
EntityRecognitionSkillLanguage

定義 EntityRecognitionSkillKnownEntityRecognitionSkillLanguage 的支持語言可以與這個類型交換使用

ExcludedODataTypes
ExhaustiveKnnAlgorithmConfiguration

包含查詢期間所使用完整 KNN 演算法的特定組態選項,這會在整個向量索引上執行暴力密碼破解搜尋。

ExtractDocumentKey
GetDataSourceConnectionOptions

取得數據源作業的選項。

GetIndexOptions

取得索引作業的選項。

GetIndexStatisticsOptions

取得索引統計數據作業的選項。

GetIndexerOptions

取得索引器作業的選項。

GetIndexerStatusOptions

取得索引器狀態作業的選項。

GetServiceStatisticsOptions

取得服務統計數據作業的選項。

GetSkillSetOptions

取得技能集作業的選項。

GetSynonymMapsOptions

取得同義字對應作業的選項。

HnswAlgorithmConfiguration

包含 hnsw 近似鄰近演算法在編製索引期間使用的特定組態選項。

ImageAnalysisSkillLanguage

定義 ImageAnalysisSkillKnownImageAnalysisSkillLanguage 的支持語言,可以與這個類型交換使用

ImageDetail
IndexActionType

定義 IndexActionType 的值。

IndexDocumentsAction

表示在文件上運作的索引動作。

IndexIterator

用於列出存在於 搜尋服務 索引的反覆運算器。 會在反覆項目期間視需要提出要求。 使用 .byPage () 對每次反覆運算的伺服器提出一個要求。

IndexNameIterator

用於列出存在於 搜尋服務 索引的反覆運算器。 會在反覆項目期間視需要提出要求。 使用 .byPage () 對每次反覆運算的伺服器提出一個要求。

IndexerExecutionEnvironment

服務支援的已知值

標準:指出 Azure 認知搜尋 可以判斷索引器應該執行的位置。 當未指定任何專案且是建議的值時,這是默認環境。 private:指出索引器應該使用專為搜尋服務布建的環境來執行。 只有當索引器需要透過共用的私人鏈接資源安全地存取資源時,才應該將它指定為執行環境。

IndexerExecutionStatus

定義 IndexerExecutionStatus 的值。

IndexerStatus

定義 IndexerStatus 的值。

KeyPhraseExtractionSkillLanguage

定義 KeyPhraseExtractionSkillKnownKeyPhraseExtractionSkillLanguage 的支持語言可以與此類型交換使用

LexicalAnalyzer

包含分析器的可能案例。

LexicalAnalyzerName

定義 LexicalAnalyzerName 的值。
<xref:KnownLexicalAnalyzerName> 可以與 LexicalAnalyzerName 交換使用,此列舉包含服務支援的已知值。

服務支援的已知值

ar.microsoft:適用於阿拉伯文的 Microsoft 分析器。
ar.lucene:適用於阿拉伯文的 Lucene 分析器。
hy.lucene:適用於亞美尼亞文的 Lucene 分析器。
bn.microsoft:適用於孟加拉國的 Microsoft 分析器。
eu.lucene:Basque 的 Lucene 分析器。
bg.microsoft:適用於巴布加文的 Microsoft 分析器。
bg.lucene: Lucene analyzer for一文。
ca.microsoft:適用於卡達尼亞文的 Microsoft 分析器。
ca.lucene:卡達尼亞文的 Lucene 分析器。
zh-Hans.microsoft:適用於簡體中文 () 的 Microsoft 分析器。
zh-Hans.lucene:適用於中文 (簡體中文) 的 Lucene 分析器。
zh-Hant.microsoft:適用於繁體中文 () 的 Microsoft 分析器。
zh-Hant.lucene:繁體中文 (繁體中文) 的 Lucene 分析器。
hr.microsoft:適用於克羅埃西亞的 Microsoft 分析器。
cs.microsoft:適用於捷克文的 Microsoft 分析器。
cs.lucene:適用於捷克文的 Lucene 分析器。
da.microsoft:丹麥文的 Microsoft 分析器。
da.lucene:丹麥文的 Lucene 分析器。
nl.microsoft:荷蘭文的 Microsoft 分析器。
nl.lucene:荷蘭文的 Lucene 分析器。
en.microsoft: 適用於英文的 Microsoft 分析器。
en.lucene: Lucene analyzer for English.
et.microsoft:適用於愛沙尼亞文的 Microsoft 分析器。
fi.microsoft:適用於芬蘭文的 Microsoft 分析器。
fi.lucene:適用於芬蘭文的 Lucene 分析器。
fr.microsoft:適用於法文的 Microsoft 分析器。
fr.lucene: Lucene analyzer for French.
gl.lucene:Galician 的 Lucene 分析器。
de.microsoft: 適用於德文的 Microsoft 分析器。
de.lucene: Lucene analyzer for German.
el.microsoft:希臘文的 Microsoft 分析器。
el.lucene:適用於希臘文的 Lucene 分析器。
gu.microsoft:適用於 Gujarati 的 Microsoft 分析器。
he.microsoft:希伯來文的 Microsoft 分析器。
hi.microsoft:適用於印度文的 Microsoft 分析器。
hi.lucene:適用於印度文的 Lucene 分析器。
hu.microsoft:適用於匈牙利文的 Microsoft 分析器。
hu.lucene:適用於匈牙利文的 Lucene 分析器。
is.microsoft:適用於愛爾蘭文的 Microsoft 分析器。
id.microsoft:適用於印尼文的 Microsoft 分析器 (Bahasa) 。
id.lucene:適用於印尼的 Lucene 分析器。
ga.lucene:適用於愛爾蘭的 Lucene 分析器。
it.microsoft:義大利文的 Microsoft 分析器。
it.lucene:義大利文的 Lucene 分析器。
ja.microsoft:適用於日文的 Microsoft 分析器。
ja.lucene:適用於日文的 Lucene 分析器。
kn.microsoft:適用於 Kannada 的 Microsoft 分析器。
ko.microsoft:適用於韓文的 Microsoft 分析器。
ko.lucene:適用於韓文的 Lucene 分析器。
lv.microsoft:適用於義大利文的 Microsoft 分析器。
lv.lucene:適用於立陶宛的 Lucene 分析器。
lt.microsoft:適用於立陶宛文的 Microsoft 分析器。
ml.microsoft:Microsoft Analyzer for馬來亞蘭文。
ms.microsoft: Microsoft analyzer for 馬來 (拉丁) 。
mr.microsoft:適用於 Marathi 的 Microsoft 分析器。
nb.microsoft:適用於挪威文的 Microsoft 分析器 (Bokmål) 。
no.lucene: 適用於挪威文的 Lucene 分析器。
fa.lucene: Lucene analyzer for Persian.
pl.microsoft:適用於波蘭文的 Microsoft 分析器。
pl.lucene:適用於波蘭文的 Lucene 分析器。
pt-BR.microsoft:適用於葡萄牙文的 Microsoft 分析器 (巴西) 。
pt-BR.lucene:葡萄牙文的 Lucene 分析器 (巴西) 。
pt-PT.microsoft:葡萄牙 (葡萄牙) 的 Microsoft 分析器。
pt-PT.lucene:葡萄牙 (葡萄牙) Lucene 分析器。
pa.microsoft:適用於 Punjabi 的 Microsoft 分析器。
ro.microsoft:適用於羅馬尼亞文的 Microsoft 分析器。
ro.lucene:適用於羅馬尼亞文的 Lucene 分析器。
ru.microsoft:適用於俄文的 Microsoft 分析器。
ru.lucene:適用於俄文的 Lucene 分析器。
sr-cyrillic.microsoft:塞爾維亞文 (斯拉夫) 的 Microsoft 分析器。
sr-latin.microsoft:塞爾維亞文 (拉丁) 的 Microsoft 分析器。
sk.microsoft:適用於斯洛伐克的 Microsoft 分析器。
sl.microsoft:適用於斯洛維尼亞文的 Microsoft 分析器。
es.microsoft:適用於西班牙文的 Microsoft 分析器。
es.lucene:適用於西班牙文的 Lucene 分析器。
sv.microsoft:適用於瑞典文的 Microsoft 分析器。
sv.lucene:適用於瑞典文的 Lucene 分析器。
ta.microsoft:適用於 Tamil 的 Microsoft 分析器。
te.microsoft:適用於 Telugu 的 Microsoft 分析器。
th.microsoft:適用於泰文的 Microsoft 分析器。
th.lucene:適用於泰文的 Lucene 分析器。
tr.microsoft:適用於土耳其文的 Microsoft 分析器。
tr.lucene:適用於土耳其文的 Lucene 分析器。
uk.microsoft:適用於烏克蘭文的 Microsoft 分析器。
your.microsoft:適用於 Urdu 的 Microsoft 分析器。
vi.microsoft:適用於越南文的 Microsoft 分析器。
standard.lucene:Standard Lucene 分析器。
standardasciifolding.lucene:Standard ASCII 折迭 Lucene 分析器。 請參閱 https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers
關鍵詞:將欄位的整個內容視為單一標記。 這適合用於郵遞區號、識別碼和產品名稱等資料。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html
模式:透過正則表示式模式彈性地將文字分隔成字詞。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html
簡單:將非字母的文字分割成小寫。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html
stop:以非字母分割文字;套用小寫和停用字詞標記篩選。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html
空格符:使用空格符Tokenizer的分析器。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html

LexicalTokenizer

包含 Tokenizer 的可能案例。

LexicalTokenizerName

定義 LexicalTokenizerName 的值。
<xref:KnownLexicalTokenizerName> 可以與 LexicalTokenizerName 交換使用,此列舉包含服務支援的已知值。

服務支援的已知值

傳統:適用於處理大部分歐洲語言檔的文法型Tokenizer。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html
edgeNGram:將來自邊緣的輸入標記化為指定大小的 n-gram (s) 。 請參閱 https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html
keyword_v2:以單一令牌的形式發出整個輸入。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html
letter:將文字除以非字母。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html
小寫:將非字母的文字分割成小寫。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html
microsoft_language_tokenizer:使用特定語言規則來分割文字。
microsoft_language_stemming_tokenizer:使用特定語言規則來分割文字,並將單字減少為其基底表單。
nGram:將輸入標記化為指定大小的 n-gram (s) 。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html
path_hierarchy_v2:類似路徑階層的Tokenizer。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html
模式:使用 regex 模式比對來建構不同令牌的 Tokenizer。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html
standard_v2:標準 Lucene 分析器;由標準 Tokenizer、小寫篩選和停止篩選所組成。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html
uax_url_email:將URL和電子郵件令牌化為一個令牌。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html
空格元:將文字除以空格符。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html

ListDataSourceConnectionsOptions

清單數據源作業的選項。

ListIndexersOptions

清單索引器作業的選項。

ListIndexesOptions

清單索引作業的選項。

ListSkillsetsOptions

清單技能集作業的選項。

ListSynonymMapsOptions

清單同義字對應作業的選項。

MergeDocumentsOptions

合併檔案作業的選項。

MergeOrUploadDocumentsOptions

合併或上傳檔作業的選項。

MicrosoftStemmingTokenizerLanguage

定義 MicrosoftStemmingTokenizerLanguage 的值。

MicrosoftTokenizerLanguage

定義 MicrosoftTokenizerLanguage 的值。

NarrowedModel

縮小 [模型類型] 以只包含選取的 [欄位]

OcrSkillLanguage

定義 OcrSkillKnownOcrSkillLanguage 的支持語言可以與這個類型交換使用

PIIDetectionSkillMaskingMode

定義 PIIDetectionSkillMaskingMode 的值。

服務支援的已知值

none:不會發生遮罩,而且不會傳回 maskedText 輸出。 replace:以 maskingCharacter 參數中指定的字元取代偵測到的實體。 字元會重複到偵測到實體的長度,讓位移正確地對應至輸入文字和輸出 maskedText。

PhoneticEncoder

定義 PhoneticEncoder 的值。

QueryAnswer

值,指定是否應該在搜尋回應中傳回答案。 只有在查詢類型為 'semantic' 時,這個參數才有效。 如果設定為 extractive,則查詢會傳回從最高排名檔中主要段落擷取的答案。

QueryCaption

值,指定是否應該在搜尋回應中傳回標題。 只有在查詢類型為 'semantic' 時,這個參數才有效。 如果已設定,查詢會傳回從最高排名檔中主要段落擷取的標題。 當 Captions 為「擷取」時,預設會啟用醒目提示。 默認為 『none』。

QueryType

定義QueryType的值。

RegexFlags

定義 regex 模式比對的旗標

服務支援的已知值

CANON_EQ:啟用標準等價。 CASE_INSENSITIVE:啟用不區分大小寫的比對。 批註:允許模式中的空格符和批注。 DOTALL:啟用 dotall 模式。 值:啟用模式的常值剖析。 MULTILINE:啟用多行模式。 UNICODE_CASE:啟用 Unicode 感知大小寫折疊。 UNIX_LINES:啟用 Unix 行模式。

ResetIndexerOptions

重設索引器作業的選項。

RunIndexerOptions

執行索引器作業的選項。

ScoringFunction

包含 ScoringFunction 的可能案例。

ScoringFunctionAggregation

定義 ScoringFunctionAggregation 的值。

ScoringFunctionInterpolation

定義 ScoringFunctionInterpolation 的值。

ScoringStatistics

定義 ScoringStatistics 的值。

SearchField

代表索引定義中的欄位,描述欄位的名稱、數據類型和搜尋行為。

SearchFieldArray

如果 TModel 是不具類型的物件,則為不具類型的字串陣列,否則為的 TModel斜線分隔字段。

SearchFieldDataType

定義 SearchFieldDataType 的值。 可能的值為:'Edm.String'、'Edm.Int32'、'Edm.Int64'、'Edm.Double'、'Edm.Boolean'、'Edm.DateTimeOffset'、'Edm.GeographyPoint'、'Collection (Edm.String) '、 'Collection (Edm.Int32) '、'Collection (Edm.Int64) '、'Collection (Edm.Double) '、'Collection (Edm.Boolean) '、'Collection (Edm.DateTimeOffset) '、'Collection (Edm.GeographyPoint) '、'Collection (Edm.Single) '

NB: Edm.Single 單獨不是有效的數據類型。 它必須當做集合類型的一部分使用。

SearchIndexerDataSourceType
SearchIndexerSkill

包含技能的可能案例。

SearchIndexingBufferedSenderDeleteDocumentsOptions

SearchIndexingBufferedSenderDeleteDocuments 的選項。

SearchIndexingBufferedSenderFlushDocumentsOptions

SearchIndexingBufferedSenderFlushDocuments 的選項。

SearchIndexingBufferedSenderMergeDocumentsOptions

SearchIndexingBufferedSenderMergeDocuments 的選項。

SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions

SearchIndexingBufferedSenderMergeOrUploadDocuments 的選項。

SearchIndexingBufferedSenderUploadDocumentsOptions

SearchIndexingBufferedSenderUploadDocuments 的選項。

SearchIterator

擷取查詢搜尋結果的反覆運算器。 會在反覆項目期間視需要提出要求。 使用 .byPage () 對每次反覆運算的伺服器提出一個要求。

SearchMode

定義 SearchMode 的值。

SearchOptions

認可完整搜尋要求的選項。

SearchPick

使用有效的認知搜尋 OData $select路徑,深入挑選 T 的欄位。

SearchRequestOptions

篩選、排序、Facet、分頁和其他搜尋查詢行為的參數。

SearchRequestQueryTypeOptions
SearchResult

包含搜尋查詢找到的檔,以及相關聯的元數據。

SelectArray

如果 TFields 不是,則為不具類型的字串數位,否則為取用型別中其他位置所要使用的縮小 Fields[] 類型。

SelectFields

使用以 T 為根目錄的欄位樹狀結構,產生有效的認知搜尋 OData $select路徑的聯集。

SemanticErrorMode

partial:如果語意處理失敗,部分結果仍會傳回。 部分結果的定義取決於哪些語意步驟失敗,以及失敗的原因為何。

fail:如果在語意處理步驟期間發生例外狀況,查詢將會失敗,並根據錯誤傳回適當的 HTTP 程序代碼。

SemanticErrorReason

maxWaitExceeded:如果已設定 'semanticMaxWaitInMilliseconds',且語意處理持續時間超過該值。 只會傳回基底結果。

capacityOverloaded:要求已節流。 只會傳回基底結果。

暫時性:語意處理程式至少有一個步驟失敗。

SemanticSearchResultsType

baseResults:沒有任何語意擴充或重新執行的結果。

rerankedResults:結果已使用重新排名器模型重新進行,且將包含語意標題。 它們不會包含任何答案、答案醒目提示或 標題 重點。

SentimentSkillLanguage

定義 SentimentSkillKnownSentimentSkillLanguage 的支持語言可以與這個類型交換使用

SimilarityAlgorithm

包含相似性的可能案例。

SnowballTokenFilterLanguage

定義 SnowballTokenFilterLanguage 的值。

SplitSkillLanguage

定義 SplitSkillKnownSplitSkillLanguage 的支持語言可以與這個類型交換使用

StemmerTokenFilterLanguage

定義 StemmerTokenFilterLanguage 的值。

StopwordsList

定義 StopwordsList 的值。

SuggestNarrowedModel
SuggestOptions

根據 searchText 擷取建議的選項。

SuggestResult

包含建議查詢所找到文件的結果,加上相關聯的元數據。

TextSplitMode
TextTranslationSkillLanguage

定義 TextTranslationSkillKnownTextTranslationSkillLanguage 的支持語言可以與這個類型交換使用

TokenCharacterKind

定義 TokenCharacterKind 的值。

TokenFilter

包含 TokenFilter 的可能案例。

TokenFilterName

定義 TokenFilterName 的值。
<xref:KnownTokenFilterName> 可以與 TokenFilterName 交換使用,此列舉包含服務支援的已知值。

服務支援的已知值

arabic_normalization:套用阿拉伯文正規化程序來正規化的標記篩選。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html
apostrophe:將單引號 (后的所有字元等量,包括單引號本身) 。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html
asciifolding:如果這類對等專案存在,則會將前 127 個 ASCII 字元中的字母、數值和符號 Unicode 字元轉換成其 ASCII 對等專案 (“Basic Latin” Unicode) 區塊。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html
cjk_bigram:形成從標準Tokenizer產生的CJK詞彙 bigrams。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html
cjk_width:標準化 CJK 寬度差異。 將 fullwidth ASCII 變體折迭成對等的基本拉丁,並將半角片假名變體折疊成對等的 Kana。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html
傳統:移除英文擁有者,以及縮略字中的點。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html
common_grams:針對編製索引時經常發生的字詞建構 bigrams。 仍會編製單個字詞的索引,並與雙字母組重疊。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html
edgeNGram_v2:從輸入令牌的前端或後端開始,產生指定大小的 n-gram (s) 。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html
elision:移除 elisions。 例如,“l'avion” (平面) 將會轉換成 “avion” (平面) 。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html
german_normalization:根據德文2 雪球演算法的啟發學習法將德文字符正規化。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html
hindi_normalization:將印度文中的文字正規化,以移除拼字變化的一些差異。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html
indic_normalization:以印度語言標準化文字的 Unicode 表示法。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html
keyword_repeat:發出每個傳入令牌兩次,一次做為關鍵詞,一次做為非關鍵詞。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html
kstem:適用於英文的高效能 kstem 篩選。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html
length:移除太長或太短的字組。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html
limit:限制索引編製時的令牌數目。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html
小寫:將標記文字正規化為小寫。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.htm
nGram_v2:產生指定大小的 n-gram (s) 。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html
persian_normalization:適用於波斯文的正規化。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html
phonetic:建立注音符號相符專案的令牌。 請參閱 https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html
porter_stem:使用 Porter 字幹分析演算法來轉換令牌數據流。 請參閱 http://tartarus.org/~martin/PorterStemmer
reverse:反轉令牌字串。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html
scandinavian_normalization:標準化使用可交換的快取字元。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html
scandinavian_folding:折迭顯示字元 åÅäæÄÆ-a> 和 öÖøØ-o>. 其也可以區分雙母音 aa、ae、ao、oe 和 oo 的使用,並且只保留第一個。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html
hingle:建立令牌的組合做為單一令牌。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html
snowball:使用 Snowball 產生的字幹分析器進行字幹分析的篩選。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html
sorani_normalization:標準化 Sorani 文字的 Unicode 表示法。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html
字幹分析器:語言特定的字幹分析篩選器。 請參閱 https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters
停用字詞:從令牌數據流中移除停用字詞。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html
trim:修剪標記的開頭和結尾空格符。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html
truncate:將字詞截斷為特定長度。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html
unique:篩選出與上一個標記相同的文字標記。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html
大寫:將標記文字正規化為大寫。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html
word_delimiter:將單字分割成子字詞,並在子字詞群組上執行選擇性轉換。

UnionToIntersection
UploadDocumentsOptions

上傳檔作業的選項。

VectorFilterMode

判斷是否在執行向量搜尋之前或之後套用篩選。

VectorQuery

向量和混合式搜尋查詢的查詢參數。

VectorQueryKind
VectorSearchAlgorithmConfiguration

包含索引編製和/或查詢期間所用演算法的特定組態選項。

VectorSearchAlgorithmKind
VectorSearchAlgorithmMetric

用於向量比較的相似度計量。

VisualFeature

列舉

KnownAnalyzerNames

定義 AnalyzerName 的值。 請參閱 https://docs.microsoft.com/rest/api/searchservice/Language-support

KnownBlobIndexerDataToExtract

服務接受的 BlobIndexerDataToExtract 已知值。

KnownBlobIndexerImageAction

服務接受的 BlobIndexerImageAction 已知值。

KnownBlobIndexerPDFTextRotationAlgorithm

服務接受的 BlobIndexerPDFTextRotationAlgorithm 已知值。

KnownBlobIndexerParsingMode

服務接受的 BlobIndexerParsingMode 已知值。

KnownCharFilterNames

服務接受的 CharFilterName 已知值。

KnownCustomEntityLookupSkillLanguage

服務接受的 CustomEntityLookupSkillLanguage 已知值。

KnownEntityCategory

服務接受的 EntityCategory 已知值。

KnownEntityRecognitionSkillLanguage

服務接受的 EntityRecognitionSkillLanguage 已知值。

KnownImageAnalysisSkillLanguage

服務接受的 ImageAnalysisSkillLanguage 已知值。

KnownImageDetail

服務接受的 ImageDetail 已知值。

KnownKeyPhraseExtractionSkillLanguage

服務接受的 KeyPhraseExtractionSkillLanguage 已知值。

KnownOcrSkillLanguage

服務接受的 OcrSkillLanguage 已知值。

KnownRegexFlags

服務接受的 RegexFlags 已知值。

KnownSearchAudience

搜尋物件的已知值

KnownSearchIndexerDataSourceType

服務接受的 SearchIndexerDataSourceType 已知值。

KnownSentimentSkillLanguage

服務的 SentimentSkillLanguage 已知值。

KnownSplitSkillLanguage

服務接受的 SplitSkillLanguage 已知值。

KnownTextSplitMode

服務接受的 TextSplitMode 已知值。

KnownTextTranslationSkillLanguage

服務接受的 TextTranslationSkillLanguage 已知值。

KnownTokenFilterNames

服務的 TokenFilterName 已知值。

KnownTokenizerNames

服務接受的 LexicalTokenizerName 已知值。

KnownVisualFeature

服務的 已知 VisualFeature 值。

函數

createSynonymMapFromFile(string, string)

用來建立 SynonymMap 對象的協助程式方法。 這是僅限 NodeJS 的方法。

odata(TemplateStringsArray, unknown[])

逸出 odata 篩選表示式,以避免使用引號字串常值的錯誤。 使用方式範例:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

如需所支援語法的詳細資訊,請參閱: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

函式詳細資料

createSynonymMapFromFile(string, string)

用來建立 SynonymMap 對象的協助程式方法。 這是僅限 NodeJS 的方法。

function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>

參數

name

string

SynonymMap 的名稱。

filePath

string

包含同義字的檔案路徑, (以新行分隔)

傳回

Promise<SynonymMap>

SynonymMap 物件

odata(TemplateStringsArray, unknown[])

逸出 odata 篩選表示式,以避免使用引號字串常值的錯誤。 使用方式範例:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

如需所支援語法的詳細資訊,請參閱: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

function odata(strings: TemplateStringsArray, values: unknown[]): string

參數

strings

TemplateStringsArray

表達式的字串數位

values

unknown[]

表達式的值陣列

傳回

string