@azure/search-documents package
類別
AzureKeyCredential |
支援更新基礎金鑰值的靜態索引鍵型認證。 |
GeographyPoint |
表示全域座標的地理點。 |
IndexDocumentsBatch |
類別,用來對索引執行具有多個檔的批次作業。 |
SearchClient |
用來對搜尋索引執行作業的類別,包括查詢索引中的檔,以及新增、更新和移除它們。 |
SearchIndexClient |
執行作業以管理 (建立、更新、列出/刪除) 索引,& 同義字對應。 |
SearchIndexerClient |
類別,用來管理 (建立、更新、列出/刪除) 索引器、數據源 & 技能集。 |
SearchIndexingBufferedSender |
用來對搜尋索引執行緩衝處理作業的類別,包括新增、更新和移除它們。 |
介面
AnalyzeRequest |
指定一些用來將該文字分成標記的文字和分析元件。 |
AnalyzeResult |
測試文字分析器的結果。 |
AnalyzedTokenInfo |
分析器所傳回之令牌的相關信息。 |
AsciiFoldingTokenFilter |
如果這類對等專案存在,則會將前 127 個 ASCII 字元中的字母、數位和符號 Unicode 字元, (“Basic Latin” Unicode 區塊) 轉換成其 ASCII 對等專案。 此令牌篩選器是使用 Apache Lucene 來實作。 |
AutocompleteItem |
自動完成要求的結果。 |
AutocompleteRequest |
模糊比對和其他自動完成查詢行為的參數。 |
AutocompleteResult |
自動完成查詢的結果。 |
AzureActiveDirectoryApplicationCredentials |
為搜尋服務建立之已註冊應用程式的認證,用於驗證存取儲存在 Azure 金鑰保存庫 中的加密密鑰。 |
BM25Similarity |
以 Okapi BM25 相似度演算法為基礎的排名函式。 BM25 是類似 TF-IDF 的演算法,包含由 'b' 參數) 所控制的長度正規化 (,以及由 'k1' 參數) 所控制的詞彙頻率飽和度 (。 |
BaseCharFilter |
字元篩選的基底類型。 |
BaseCognitiveServicesAccount |
描述附加至技能集之任何 Azure AI 服務資源的基底類型。 |
BaseDataChangeDetectionPolicy |
數據變更偵測原則的基底類型。 |
BaseDataDeletionDetectionPolicy |
數據刪除偵測原則的基底類型。 |
BaseLexicalAnalyzer |
分析器的基底類型。 |
BaseLexicalTokenizer |
Tokenizer 的基底類型。 |
BaseScoringFunction |
可在排名期間修改檔分數的函式基底類型。 |
BaseSearchIndexerSkill |
技能的基底類型。 |
BaseSearchRequestOptions |
篩選、排序、Facet、分頁和其他搜尋查詢行為的參數。 |
BaseTokenFilter |
令牌篩選的基底類型。 |
BaseVectorQuery |
向量和混合式搜尋查詢的查詢參數。 |
BaseVectorSearchAlgorithmConfiguration |
包含索引編製和/或查詢期間所用演算法的特定組態選項。 |
CjkBigramTokenFilter |
形成從標準Tokenizer產生的CJK詞彙 bigrams。 此令牌篩選器是使用 Apache Lucene 來實作。 |
ClassicSimilarity |
使用 TF-IDF 之 Lucene TFIDFSimilarity 實作的舊版相似度演算法。 這種 TF-IDF 變化引進靜態文件長度正規化,以及協調只影響僅部分符合所搜尋查詢之檔的因素。 |
ClassicTokenizer |
適用於處理大部分歐洲語言檔的文法型Tokenizer。 此 Tokenizer 是使用 Apache Lucene 來實作。 |
CognitiveServicesAccountKey |
以附加至技能集的密鑰布建的 Azure AI 服務資源。 |
CommonGramTokenFilter |
在編製索引時,建構常用字詞的雙字母組。 仍會編製單個字詞的索引,並與雙字母組重疊。 此令牌篩選器是使用 Apache Lucene 來實作。 |
ComplexField |
表示索引定義中的欄位,描述欄位的名稱、數據類型和搜尋行為。 |
ConditionalSkill |
技能,可讓需要布爾運算的案例來判斷要指派給輸出的數據。 |
CorsOptions |
定義選項,以控制索引的跨原始來源資源分享 (CORS) 。 |
CreateOrUpdateIndexOptions |
建立/更新索引作業的選項。 |
CreateOrUpdateSkillsetOptions |
建立/更新技能集作業的選項。 |
CreateOrUpdateSynonymMapOptions |
建立/更新 synonymmap 作業的選項。 |
CreateorUpdateDataSourceConnectionOptions |
建立/更新數據源作業的選項。 |
CreateorUpdateIndexerOptions |
建立/更新索引器作業的選項。 |
CustomAnalyzer |
可讓您控制將文字轉換成可編製索引/可搜尋標記的程式。 這是使用者定義的組態,由單一預先定義的Tokenizer和一或多個篩選器所組成。 Tokenizer 負責將文字分成令牌,以及修改 Tokenizer 所發出的令牌的篩選條件。 |
CustomEntity |
物件,包含所找到相符專案的相關信息,以及相關的元數據。 |
CustomEntityAlias |
複雜物件,可用來指定根實體名稱的替代拼字或同義字。 |
CustomEntityLookupSkill |
技能會從自定義、使用者定義的單字和片語清單中尋找文字。 |
DefaultCognitiveServicesAccount |
空物件,表示技能集的預設 Azure AI 服務資源。 |
DeleteDataSourceConnectionOptions |
刪除資料源作業的選項。 |
DeleteIndexOptions |
刪除索引作業的選項。 |
DeleteIndexerOptions |
刪除索引器作業的選項。 |
DeleteSkillsetOptions |
刪除技能集操作的選項。 |
DeleteSynonymMapOptions |
刪除同義字對應作業的選項。 |
DictionaryDecompounderTokenFilter |
分解在許多日耳曼語系中找到的複合字。 此令牌篩選是使用 Apache Lucene 實作。 |
DistanceScoringFunction |
定義根據地理位置距離提升分數的函式。 |
DistanceScoringParameters |
提供距離評分函式的參數值。 |
DocumentExtractionSkill |
從擴充管線內的檔案擷取內容的技能。 |
EdgeNGramTokenFilter |
從輸入令牌的前端或後端開始,產生指定大小的 n-gram (s) 。 此令牌篩選是使用 Apache Lucene 實作。 |
EdgeNGramTokenizer |
將邊緣的輸入令牌化為指定大小 (s) 的 n-gram。 此 Tokenizer 是使用 Apache Lucene 實作。 |
ElisionTokenFilter |
移除元音省略。 例如,“l'avion” (平面) 將會轉換成 “avion” (平面) 。 此令牌篩選是使用 Apache Lucene 實作。 |
EntityLinkingSkill |
使用 文字分析 API,從文字中擷取連結的實體。 |
EntityRecognitionSkill |
文字分析實體辨識。 |
EntityRecognitionSkillV3 |
使用 文字分析 API,從文字擷取不同類型的實體。 |
ExhaustiveKnnParameters |
包含詳盡 KNN 演算法特有的參數。 |
ExtractiveQueryAnswer |
從傳回的文件內容擷取答案候選專案,以回應以自然語言表示為問題的查詢。 |
ExtractiveQueryCaption |
從相符的檔擷取標題,其中包含與搜尋查詢相關的段落。 |
FacetResult |
Facet 查詢結果的單一貯體。 報告具有域值落在特定範圍內或具有特定值或間隔的檔數目。 |
FieldMapping |
定義數據源中的欄位與索引中目標欄位之間的對應。 |
FieldMappingFunction |
表示在編製索引之前,從數據源轉換值的函式。 |
FreshnessScoringFunction |
定義根據日期時間欄位值提升分數的函式。 |
FreshnessScoringParameters |
提供新式評分函式的參數值。 |
GetDocumentOptions |
擷取單一文件的選項。 |
HighWaterMarkChangeDetectionPolicy |
定義數據變更偵測原則,根據高水位標記數據行的值來擷取變更。 |
HnswParameters |
包含 hnsw 演算法特有的參數。 |
ImageAnalysisSkill |
分析影像檔案的技能。 它會根據影像內容擷取一組豐富的視覺功能。 |
IndexDocumentsClient |
索引文件用戶端 |
IndexDocumentsOptions |
修改索引批次作業的選項。 |
IndexDocumentsResult |
回應,其中包含索引要求中所有文件的作業狀態。 |
IndexerExecutionResult |
表示個別索引器執行的結果。 |
IndexingParameters |
表示索引子執行的參數。 |
IndexingParametersConfiguration |
索引器特定組態屬性的字典。 每個名稱都是特定屬性的名稱。 每個值都必須是基本類型。 |
IndexingResult |
單一檔的索引作業狀態。 |
IndexingSchedule |
表示索引子執行的排程。 |
InputFieldMappingEntry |
技能的輸入欄位對應。 |
KeepTokenFilter |
令牌篩選條件,只保留包含指定單字清單中的文字標記。 此令牌篩選是使用 Apache Lucene 實作。 |
KeyPhraseExtractionSkill |
使用文字分析進行關鍵片語擷取的技能。 |
KeywordMarkerTokenFilter |
將字詞標示為關鍵字。 此令牌篩選是使用 Apache Lucene 實作。 |
KeywordTokenizer |
以單一語彙基元的形式發出整個輸入。 此 Tokenizer 是使用 Apache Lucene 實作。 |
LanguageDetectionSkill |
偵測輸入文字語言的技能,並針對要求上提交的每份文件報告單一語言代碼。 語言代碼會與分數配對,指出分析的信賴度。 |
LengthTokenFilter |
移除太長或太短的文字。 此令牌篩選器是使用 Apache Lucene 來實作。 |
LimitTokenFilter |
限制編製索引時的語彙基元數目。 此令牌篩選是使用 Apache Lucene 實作。 |
ListSearchResultsPageSettings |
擷取搜尋結果下一頁的自變數。 |
LuceneStandardAnalyzer |
標準 Apache Lucene 分析器;由標準 Tokenizer、小寫篩選和停止篩選所組成。 |
LuceneStandardTokenizer |
遵循 Unicode 文字分割規則來分解文字。 此 Tokenizer 是使用 Apache Lucene 實作。 |
MagnitudeScoringFunction |
定義根據數值欄位的大小提升分數的函式。 |
MagnitudeScoringParameters |
提供參數值給量級評分函式。 |
MappingCharFilter |
套用對應選項所定義的對應字元篩選。 比對採用貪婪演算法 (由指定點上最長的模式比對勝出) 取代項目可以是空字串。 此字元篩選是使用 Apache Lucene 實作。 |
MergeSkill |
將兩個或多個字串合併成單一統一字串的技能,其中選擇性的用戶定義分隔符會分隔每個元件元件。 |
MicrosoftLanguageStemmingTokenizer |
使用語言特有的規則來分割文字,並將字組縮減到其基本形式。 |
MicrosoftLanguageTokenizer |
使用語言特有的規則分割文字。 |
NGramTokenFilter |
產生指定大小的 n-gram。 此令牌篩選是使用 Apache Lucene 實作。 |
NGramTokenizer |
將輸入 Token 化到指定的 n-gram 大小。 此 Tokenizer 是使用 Apache Lucene 實作。 |
OcrSkill |
從圖像檔擷取文字的技能。 |
OutputFieldMappingEntry |
技能的輸出欄位對應。 |
PIIDetectionSkill |
使用 文字分析 API,從輸入文字擷取個人資訊,並提供您遮罩它的選項。 |
PathHierarchyTokenizer |
路徑類階層的 Token 化工具。 此 Tokenizer 是使用 Apache Lucene 實作。 |
PatternAnalyzer |
透過規則運算式模式彈性地將文字分割成字詞。 此分析器是使用 Apache Lucene 實作。 |
PatternCaptureTokenFilter |
使用 Java regex 來發出多個令牌 -一個用於一或多個模式中的每個擷取群組。 此令牌篩選是使用 Apache Lucene 實作。 |
PatternReplaceCharFilter |
取代輸入字串中字元的字元篩選。 其使用規則運算式來識別要保留的字元序列,並使用取代模式來識別要取代的字元。 例如,假設輸入文字 “aa bb aa bb”, pattern “ (aa) \s+ (bb) ”, and replacement “$1#$2”, 結果會是 “aa#bb aa#bb”。 此字元篩選是使用 Apache Lucene 實作。 |
PatternReplaceTokenFilter |
取代輸入字串中字元的字元篩選。 其使用規則運算式來識別要保留的字元序列,並使用取代模式來識別要取代的字元。 例如,假設輸入文字 “aa bb aa bb”, pattern “ (aa) \s+ (bb) ”, and replacement “$1#$2”, 結果會是 “aa#bb aa#bb”。 此令牌篩選是使用 Apache Lucene 實作。 |
PatternTokenizer |
使用 regex 模式比對來建構不同令牌的 Tokenizer。 此 Tokenizer 是使用 Apache Lucene 實作。 |
PhoneticTokenFilter |
建立語音相符項目的語彙基元。 此令牌篩選是使用 Apache Lucene 實作。 |
QueryAnswerResult |
答案是從符合查詢之最相關文件的內容中擷取的文字段。 答案會從頂端搜尋結果中擷取。 答案候選項目會進行評分,並選取頂端答案。 |
QueryCaptionResult |
標題是文件相對於搜尋查詢最代表性的一部分。 它們通常用來做為文件摘要。 只有類型的 |
ResourceCounter |
表示資源的使用量和配額。 |
ScoringProfile |
定義影響搜尋查詢評分之搜尋索引的參數。 |
SearchClientOptions |
用來設定認知搜尋 API 要求的客戶端選項。 |
SearchDocumentsPageResult |
包含索引中搜尋頁面結果的回應。 |
SearchDocumentsResult |
包含索引搜尋結果的回應。 |
SearchDocumentsResultBase |
包含索引搜尋結果的回應。 |
SearchIndex |
表示搜尋索引定義,描述索引的欄位和搜尋行為。 |
SearchIndexClientOptions |
用來設定認知搜尋 API 要求的客戶端選項。 |
SearchIndexStatistics |
指定索引的統計數據。 統計數據會定期收集,不保證一律為最新狀態。 |
SearchIndexer |
表示索引器。 |
SearchIndexerClientOptions |
用來設定認知搜尋 API 要求的客戶端選項。 |
SearchIndexerDataContainer |
表示將編製索引之實體 (的相關信息,例如 Azure SQL 數據表或 CosmosDB 集合) 。 |
SearchIndexerDataSourceConnection |
表示數據源定義,可用來設定索引器。 |
SearchIndexerError |
表示項目或文件層級索引錯誤。 |
SearchIndexerKnowledgeStore |
擴充數據的 Azure Blob、數據表或檔案的其他投影定義。 |
SearchIndexerKnowledgeStoreBlobProjectionSelector |
抽象類,在具體選取器之間共用屬性。 |
SearchIndexerKnowledgeStoreFileProjectionSelector |
要儲存在 Azure 檔案儲存體 中的數據投影定義。 |
SearchIndexerKnowledgeStoreObjectProjectionSelector |
要儲存在 Azure Blob 中的數據投影定義。 |
SearchIndexerKnowledgeStoreProjection |
各種投影選取器的容器物件。 |
SearchIndexerKnowledgeStoreProjectionSelector |
抽象類,在具體選取器之間共用屬性。 |
SearchIndexerKnowledgeStoreTableProjectionSelector |
要儲存在 Azure 數據表中的數據描述。 |
SearchIndexerLimits | |
SearchIndexerSkillset |
技能清單。 |
SearchIndexerStatus |
表示索引子的目前狀態和執行記錄。 |
SearchIndexerWarning |
表示專案層級警告。 |
SearchIndexingBufferedSenderOptions |
SearchIndexingBufferedSender 的選項。 |
SearchResourceEncryptionKey |
Azure 金鑰保存庫 中客戶管理的加密密鑰。 您建立和管理的金鑰可用來加密或解密 Azure 認知搜尋 中的數據,例如索引和同義字對應。 |
SearchServiceStatistics |
從取得服務統計數據要求回應。 如果成功,則會包含服務等級計數器和限制。 |
SearchSuggester |
定義建議 API 如何套用至索引中的欄位群組。 |
SemanticConfiguration |
定義要用於語意功能內容的特定組態。 |
SemanticField |
做為語意設定一部分的欄位。 |
SemanticPrioritizedFields |
描述要用於語意排名、標題、醒目提示和答案的標題、內容和關鍵詞欄位。 |
SemanticSearch |
定義影響語意功能的搜尋索引參數。 |
SemanticSearchOptions |
定義語意搜尋查詢的選項 |
SentimentSkill |
文字分析正面-負面情感分析,在零到 1 的範圍內評分為浮點值。 |
SentimentSkillV3 |
使用 文字分析 API 評估非結構化文字,並針對每個記錄提供情感卷標 (,例如「負面」、「中性」和「正面」) ,根據服務在句子和檔層級找到的最高信賴分數。 |
ServiceCounters |
表示服務層級資源計數器和配額。 |
ServiceLimits |
表示各種服務等級限制。 |
ShaperSkill |
調整輸出的技能。 它會建立複雜類型來支持複合字段 (也稱為多部分字段) 。 |
ShingleTokenFilter |
將語彙基元的組合建立為單一語彙基元。 此令牌篩選是使用 Apache Lucene 實作。 |
Similarity |
相似度演算法的基底類型。 相似度演算法可用來計算將查詢系結至檔的分數。 分數越高,檔與該特定查詢越相關。 這些分數是用來排名搜尋結果。 |
SimpleField |
代表索引定義中的欄位,描述欄位的名稱、數據類型和搜尋行為。 |
SnowballTokenFilter |
使用 Snowball 產生的字幹分析器來建立字組的篩選。 此令牌篩選是使用 Apache Lucene 實作。 |
SoftDeleteColumnDeletionDetectionPolicy |
定義實作虛刪除策略的數據刪除偵測原則。 它會根據指定的「虛刪除」數據行值來判斷是否應該刪除專案。 |
SplitSkill |
將字串分割成文字區塊的技能。 |
SqlIntegratedChangeTrackingPolicy |
定義使用 Azure SQL Database 整合式 變更追蹤 功能來擷取變更的數據變更偵測原則。 |
StemmerOverrideTokenFilter |
提供使用自定義字典型字幹分析覆寫其他字幹篩選的功能。 任何字典字幹字詞都會標示為關鍵詞,使其不會以字幹分析器向下鏈結。 必須放在任何詞幹分析篩選器之前。 此令牌篩選是使用 Apache Lucene 實作。 |
StemmerTokenFilter |
語言特定字幹分析篩選器。 此令牌篩選是使用 Apache Lucene 實作。 |
StopAnalyzer |
將文字除以非字母;套用小寫和停用字詞標記篩選。 此分析器是使用 Apache Lucene 實作。 |
StopwordsTokenFilter |
從語彙基元資料流移除停用字詞。 此令牌篩選是使用 Apache Lucene 實作。 |
SuggestDocumentsResult |
包含索引建議查詢結果的回應。 |
SuggestRequest |
篩選、排序、模糊比對和其他建議查詢行為的參數。 |
SynonymMap |
表示同義字對應定義。 |
SynonymTokenFilter |
比對令牌數據流中的單字或多字同義字。 此令牌篩選是使用 Apache Lucene 實作。 |
TagScoringFunction |
定義函式,此函式會使用符合指定標籤清單的字串值來提升檔的分數。 |
TagScoringParameters |
提供標記評分函式的參數值。 |
TextTranslationSkill |
將文字從一種語言翻譯成另一種語言的技能。 |
TextWeights |
定義在搜尋查詢中應該提升評分的索引欄位權數。 |
TruncateTokenFilter |
將字詞截斷為特定長度。 此令牌篩選器是使用 Apache Lucene 來實作。 |
UaxUrlEmailTokenizer |
將 URL 和電子郵件 Token 化為一個語彙基元。 此 Tokenizer 是使用 Apache Lucene 來實作。 |
UniqueTokenFilter |
篩選出與前一個語彙基元使用相同文字的語彙基元。 此令牌篩選器是使用 Apache Lucene 來實作。 |
VectorSearch |
包含與向量搜尋相關的組態選項。 |
VectorSearchOptions |
定義向量搜尋查詢的選項 |
VectorSearchProfile |
定義要與向量搜尋搭配使用的組態組合。 |
VectorizedQuery |
提供原始向量值時,用於向量搜尋的查詢參數。 |
WebApiSkill |
可呼叫 Web API 端點的技能,可讓您藉由呼叫自定義程式代碼來擴充技能集。 |
WordDelimiterTokenFilter |
將字組分割成部分字組,並對部分字組群組執行選擇性的轉換。 此令牌篩選器是使用 Apache Lucene 來實作。 |
類型別名
AnalyzeTextOptions |
用於分析文字作業的選項。 |
AutocompleteMode |
定義 AutocompleteMode 的值。 |
AutocompleteOptions |
擷取部分 searchText 完成文字的選項。 |
BlobIndexerDataToExtract |
服務支援的已知值storageMetadata:只編製標準 Blob 屬性和使用者指定元數據的索引。 allMetadata:擷取 Azure Blob 記憶體子系統所提供的元數據,以及內容類型特定的元數據 (例如,只會編製索引 .png 檔案的唯一元數據) 。 contentAndMetadata:從每個 Blob 擷取所有元數據和文字內容。 |
BlobIndexerImageAction |
服務支援的已知值none:忽略數據集中的內嵌影像或圖像檔案。 此為預設值。 generateNormalizedImages:從影像擷取文字 (例如,從流量停止符號) “STOP” 這個字,並將其內嵌到內容欄位中。 此動作要求 「dataToExtract」 設定為 「contentAndMetadata」。 正規化影像是指額外的處理,導致統一影像輸出、大小和旋轉,以在視覺搜尋結果中包含影像時提升一致的轉譯。 當您使用此選項時,每個映像都會產生這項資訊。 generateNormalizedImagePerPage:從影像擷取文字 (例如,流量停止符號) 的 “STOP” 一詞,並將它內嵌到內容字段中,但會將每個頁面的 PDF 檔案以不同的方式呈現為影像,並據以正規化,而不是擷取內嵌影像。 若已設定 「generateNormalizedImages」,則會將非 PDF 檔類型視為相同。 |
BlobIndexerPDFTextRotationAlgorithm |
服務支援的已知值none:利用一般文字擷取。 此為預設值。 detectAngles:可能會從已旋轉文字的 PDF 檔案中產生更好且更容易閱讀的文字擷取。 請注意,使用此參數時,可能會對效能速度造成較小的影響。 此參數僅適用於 PDF 檔案,僅適用於內嵌文字的 PDF。 如果旋轉的文字出現在 PDF 的內嵌影像內,則不適用此參數。 |
BlobIndexerParsingMode |
服務支援的已知值default:設定為一般檔案處理的預設值。 text:設定為文字,以改善 Blob 記憶體中純文字檔案的索引效能。 delimitedText:當 Blob 是純 CSV 檔案時,設為 delimitedText。 json:設定為 json,以從 JSON 檔案擷取結構化內容。 jsonArray:設定為 jsonArray,將 JSON 陣列的個別元素擷取為 Azure 認知搜尋 中的個別檔。 jsonLines:設定為 jsonLines 以擷取個別 JSON 實體,並以新行分隔,作為 Azure 認知搜尋 中的個別檔。 |
CharFilter |
包含 CharFilter 的可能案例。 |
CharFilterName |
定義 CharFilterName 的值。 服務支援的已知值html_strip:嘗試移除 HTML 建構的字元篩選。 請參閱 https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html |
CjkBigramTokenFilterScripts |
定義 CjkBigramTokenFilterScripts 的值。 |
CognitiveServicesAccount |
包含 CognitiveServicesAccount 的可能案例。 |
ComplexDataType |
定義 ComplexDataType 的值。 可能的值包括:'Edm.ComplexType'、'Collection (Edm.ComplexType) ' |
CountDocumentsOptions |
在索引上執行計數作業的選項。 |
CreateDataSourceConnectionOptions |
建立數據源作業的選項。 |
CreateIndexOptions |
建立索引作業的選項。 |
CreateIndexerOptions |
建立索引器作業的選項。 |
CreateSkillsetOptions |
建立技能集作業的選項。 |
CreateSynonymMapOptions |
建立 synonymmap 作業的選項。 |
CustomEntityLookupSkillLanguage |
定義 CustomEntityLookupSkillKnownCustomEntityLookupSkillLanguage 的支持語言可以與這個類型交換使用 |
DataChangeDetectionPolicy |
包含 DataChangeDetectionPolicy 的可能案例。 |
DataDeletionDetectionPolicy |
包含 DataDeletionDetectionPolicy 的可能案例。 |
DeleteDocumentsOptions |
刪除檔案作業的選項。 |
EdgeNGramTokenFilterSide |
定義 EdgeNGramTokenFilterSide 的值。 |
EntityCategory | |
EntityRecognitionSkillLanguage |
定義 EntityRecognitionSkillKnownEntityRecognitionSkillLanguage 的支持語言可以與這個類型交換使用 |
ExcludedODataTypes | |
ExhaustiveKnnAlgorithmConfiguration |
包含查詢期間所使用完整 KNN 演算法的特定組態選項,這會在整個向量索引上執行暴力密碼破解搜尋。 |
ExtractDocumentKey | |
GetDataSourceConnectionOptions |
取得數據源作業的選項。 |
GetIndexOptions |
取得索引作業的選項。 |
GetIndexStatisticsOptions |
取得索引統計數據作業的選項。 |
GetIndexerOptions |
取得索引器作業的選項。 |
GetIndexerStatusOptions |
取得索引器狀態作業的選項。 |
GetServiceStatisticsOptions |
取得服務統計數據作業的選項。 |
GetSkillSetOptions |
取得技能集作業的選項。 |
GetSynonymMapsOptions |
取得同義字對應作業的選項。 |
HnswAlgorithmConfiguration |
包含 hnsw 近似鄰近演算法在編製索引期間使用的特定組態選項。 |
ImageAnalysisSkillLanguage |
定義 ImageAnalysisSkillKnownImageAnalysisSkillLanguage 的支持語言,可以與這個類型交換使用 |
ImageDetail | |
IndexActionType |
定義 IndexActionType 的值。 |
IndexDocumentsAction |
表示在文件上運作的索引動作。 |
IndexIterator |
用於列出存在於 搜尋服務 索引的反覆運算器。 會在反覆項目期間視需要提出要求。 使用 .byPage () 對每次反覆運算的伺服器提出一個要求。 |
IndexNameIterator |
用於列出存在於 搜尋服務 索引的反覆運算器。 會在反覆項目期間視需要提出要求。 使用 .byPage () 對每次反覆運算的伺服器提出一個要求。 |
IndexerExecutionEnvironment |
服務支援的已知值標準:指出 Azure 認知搜尋 可以判斷索引器應該執行的位置。 當未指定任何專案且是建議的值時,這是默認環境。 private:指出索引器應該使用專為搜尋服務布建的環境來執行。 只有當索引器需要透過共用的私人鏈接資源安全地存取資源時,才應該將它指定為執行環境。 |
IndexerExecutionStatus |
定義 IndexerExecutionStatus 的值。 |
IndexerStatus |
定義 IndexerStatus 的值。 |
KeyPhraseExtractionSkillLanguage |
定義 KeyPhraseExtractionSkillKnownKeyPhraseExtractionSkillLanguage 的支持語言可以與此類型交換使用 |
LexicalAnalyzer |
包含分析器的可能案例。 |
LexicalAnalyzerName |
定義 LexicalAnalyzerName 的值。 服務支援的已知值ar.microsoft:適用於阿拉伯文的 Microsoft 分析器。 |
LexicalTokenizer |
包含 Tokenizer 的可能案例。 |
LexicalTokenizerName |
定義 LexicalTokenizerName 的值。 服務支援的已知值傳統:適用於處理大部分歐洲語言檔的文法型Tokenizer。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html |
ListDataSourceConnectionsOptions |
清單數據源作業的選項。 |
ListIndexersOptions |
清單索引器作業的選項。 |
ListIndexesOptions |
清單索引作業的選項。 |
ListSkillsetsOptions |
清單技能集作業的選項。 |
ListSynonymMapsOptions |
清單同義字對應作業的選項。 |
MergeDocumentsOptions |
合併檔案作業的選項。 |
MergeOrUploadDocumentsOptions |
合併或上傳檔作業的選項。 |
MicrosoftStemmingTokenizerLanguage |
定義 MicrosoftStemmingTokenizerLanguage 的值。 |
MicrosoftTokenizerLanguage |
定義 MicrosoftTokenizerLanguage 的值。 |
NarrowedModel |
縮小 [模型類型] 以只包含選取的 [欄位] |
OcrSkillLanguage |
定義 OcrSkillKnownOcrSkillLanguage 的支持語言可以與這個類型交換使用 |
PIIDetectionSkillMaskingMode |
定義 PIIDetectionSkillMaskingMode 的值。 服務支援的已知值none:不會發生遮罩,而且不會傳回 maskedText 輸出。 replace:以 maskingCharacter 參數中指定的字元取代偵測到的實體。 字元會重複到偵測到實體的長度,讓位移正確地對應至輸入文字和輸出 maskedText。 |
PhoneticEncoder |
定義 PhoneticEncoder 的值。 |
QueryAnswer |
值,指定是否應該在搜尋回應中傳回答案。
只有在查詢類型為 'semantic' 時,這個參數才有效。 如果設定為 |
QueryCaption |
值,指定是否應該在搜尋回應中傳回標題。 只有在查詢類型為 'semantic' 時,這個參數才有效。 如果已設定,查詢會傳回從最高排名檔中主要段落擷取的標題。 當 Captions 為「擷取」時,預設會啟用醒目提示。 默認為 『none』。 |
QueryType |
定義QueryType的值。 |
RegexFlags |
定義 regex 模式比對的旗標 服務支援的已知值CANON_EQ:啟用標準等價。 CASE_INSENSITIVE:啟用不區分大小寫的比對。 批註:允許模式中的空格符和批注。 DOTALL:啟用 dotall 模式。 常值:啟用模式的常值剖析。 MULTILINE:啟用多行模式。 UNICODE_CASE:啟用 Unicode 感知大小寫折疊。 UNIX_LINES:啟用 Unix 行模式。 |
ResetIndexerOptions |
重設索引器作業的選項。 |
RunIndexerOptions |
執行索引器作業的選項。 |
ScoringFunction |
包含 ScoringFunction 的可能案例。 |
ScoringFunctionAggregation |
定義 ScoringFunctionAggregation 的值。 |
ScoringFunctionInterpolation |
定義 ScoringFunctionInterpolation 的值。 |
ScoringStatistics |
定義 ScoringStatistics 的值。 |
SearchField |
代表索引定義中的欄位,描述欄位的名稱、數據類型和搜尋行為。 |
SearchFieldArray |
如果 |
SearchFieldDataType |
定義 SearchFieldDataType 的值。 可能的值為:'Edm.String'、'Edm.Int32'、'Edm.Int64'、'Edm.Double'、'Edm.Boolean'、'Edm.DateTimeOffset'、'Edm.GeographyPoint'、'Collection (Edm.String) '、 'Collection (Edm.Int32) '、'Collection (Edm.Int64) '、'Collection (Edm.Double) '、'Collection (Edm.Boolean) '、'Collection (Edm.DateTimeOffset) '、'Collection (Edm.GeographyPoint) '、'Collection (Edm.Single) ' NB: |
SearchIndexerDataSourceType | |
SearchIndexerSkill |
包含技能的可能案例。 |
SearchIndexingBufferedSenderDeleteDocumentsOptions |
SearchIndexingBufferedSenderDeleteDocuments 的選項。 |
SearchIndexingBufferedSenderFlushDocumentsOptions |
SearchIndexingBufferedSenderFlushDocuments 的選項。 |
SearchIndexingBufferedSenderMergeDocumentsOptions |
SearchIndexingBufferedSenderMergeDocuments 的選項。 |
SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions |
SearchIndexingBufferedSenderMergeOrUploadDocuments 的選項。 |
SearchIndexingBufferedSenderUploadDocumentsOptions |
SearchIndexingBufferedSenderUploadDocuments 的選項。 |
SearchIterator |
擷取查詢搜尋結果的反覆運算器。 會在反覆項目期間視需要提出要求。 使用 .byPage () 對每次反覆運算的伺服器提出一個要求。 |
SearchMode |
定義 SearchMode 的值。 |
SearchOptions |
認可完整搜尋要求的選項。 |
SearchPick |
使用有效的認知搜尋 OData $select路徑,深入挑選 T 的欄位。 |
SearchRequestOptions |
篩選、排序、Facet、分頁和其他搜尋查詢行為的參數。 |
SearchRequestQueryTypeOptions | |
SearchResult |
包含搜尋查詢找到的檔,以及相關聯的元數據。 |
SelectArray |
如果 |
SelectFields |
使用以 T 為根目錄的欄位樹狀結構,產生有效的認知搜尋 OData $select路徑的聯集。 |
SemanticErrorMode |
partial:如果語意處理失敗,部分結果仍會傳回。 部分結果的定義取決於哪些語意步驟失敗,以及失敗的原因為何。 fail:如果在語意處理步驟期間發生例外狀況,查詢將會失敗,並根據錯誤傳回適當的 HTTP 程序代碼。 |
SemanticErrorReason |
maxWaitExceeded:如果已設定 'semanticMaxWaitInMilliseconds',且語意處理持續時間超過該值。 只會傳回基底結果。 capacityOverloaded:要求已節流。 只會傳回基底結果。 暫時性:語意處理程式至少有一個步驟失敗。 |
SemanticSearchResultsType |
baseResults:沒有任何語意擴充或重新執行的結果。 rerankedResults:結果已使用重新排名器模型重新進行,且將包含語意標題。 它們不會包含任何答案、答案醒目提示或 標題 重點。 |
SentimentSkillLanguage |
定義 SentimentSkillKnownSentimentSkillLanguage 的支持語言可以與這個類型交換使用 |
SimilarityAlgorithm |
包含相似性的可能案例。 |
SnowballTokenFilterLanguage |
定義 SnowballTokenFilterLanguage 的值。 |
SplitSkillLanguage |
定義 SplitSkillKnownSplitSkillLanguage 的支持語言可以與這個類型交換使用 |
StemmerTokenFilterLanguage |
定義 StemmerTokenFilterLanguage 的值。 |
StopwordsList |
定義 StopwordsList 的值。 |
SuggestNarrowedModel | |
SuggestOptions |
根據 searchText 擷取建議的選項。 |
SuggestResult |
包含建議查詢所找到文件的結果,加上相關聯的元數據。 |
TextSplitMode | |
TextTranslationSkillLanguage |
定義 TextTranslationSkillKnownTextTranslationSkillLanguage 的支持語言可以與這個類型交換使用 |
TokenCharacterKind |
定義 TokenCharacterKind 的值。 |
TokenFilter |
包含 TokenFilter 的可能案例。 |
TokenFilterName |
定義 TokenFilterName 的值。 服務支援的已知值arabic_normalization:套用阿拉伯文正規化程序來正規化的標記篩選。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html |
UnionToIntersection | |
UploadDocumentsOptions |
上傳檔作業的選項。 |
VectorFilterMode |
判斷是否在執行向量搜尋之前或之後套用篩選。 |
VectorQuery |
向量和混合式搜尋查詢的查詢參數。 |
VectorQueryKind | |
VectorSearchAlgorithmConfiguration |
包含索引編製和/或查詢期間所用演算法的特定組態選項。 |
VectorSearchAlgorithmKind | |
VectorSearchAlgorithmMetric |
用於向量比較的相似度計量。 |
VisualFeature |
列舉
函數
create |
用來建立 SynonymMap 對象的協助程式方法。 這是僅限 NodeJS 的方法。 |
odata(Template |
逸出 odata 篩選表示式,以避免使用引號字串常值的錯誤。 使用方式範例:
如需所支援語法的詳細資訊,請參閱: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter |
函式詳細資料
createSynonymMapFromFile(string, string)
用來建立 SynonymMap 對象的協助程式方法。 這是僅限 NodeJS 的方法。
function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>
參數
- name
-
string
SynonymMap 的名稱。
- filePath
-
string
包含同義字的檔案路徑, (以新行分隔)
傳回
Promise<SynonymMap>
SynonymMap 物件
odata(TemplateStringsArray, unknown[])
逸出 odata 篩選表示式,以避免使用引號字串常值的錯誤。 使用方式範例:
const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;
如需所支援語法的詳細資訊,請參閱: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter
function odata(strings: TemplateStringsArray, values: unknown[]): string
參數
- strings
-
TemplateStringsArray
表達式的字串數位
- values
-
unknown[]
表達式的值陣列
傳回
string