@azure/search-documents package
類別
AzureKeyCredential |
支援更新基礎金鑰值的靜態金鑰型認證。 |
GeographyPoint |
表示全域座標的地理點。 |
IndexDocumentsBatch |
類別,用來對索引執行具有多個檔的批次作業。 |
SearchClient |
用來對搜尋索引執行作業的類別,包括查詢索引中的檔,以及新增、更新和移除檔。 |
SearchIndexClient |
用來執行作業的類別,以管理(建立、更新、列出/刪除)索引,& 同義字對應。 |
SearchIndexerClient |
用來執行作業的類別,以管理(建立、更新、列出/刪除)索引器、數據源 & 技能集。 |
SearchIndexingBufferedSender |
類別,用來對搜尋索引執行緩衝作業,包括新增、更新和移除它們。 |
介面
AnalyzeRequest |
指定一些用來將文字分成標記的文字和分析元件。 |
AnalyzeResult |
在文字上測試分析器的結果。 |
AnalyzedTokenInfo |
分析器傳回之令牌的相關信息。 |
AsciiFoldingTokenFilter |
如果這類對等專案存在,請將前127個ASCII字元中的字母、數位和符號 Unicode 字元轉換成其 ASCII 對等專案。 此令牌篩選器是使用 Apache Lucene 實作。 |
AutocompleteItem |
自動完成要求的結果。 |
AutocompleteRequest |
模糊比對和其他自動完成查詢行為的參數。 |
AutocompleteResult |
自動完成查詢的結果。 |
AzureActiveDirectoryApplicationCredentials |
為搜尋服務建立之已註冊應用程式的認證,用於對儲存在 Azure Key Vault 中的加密密鑰進行驗證存取。 |
AzureOpenAIEmbeddingSkill |
可讓您使用 Azure OpenAI 資源為指定的文字輸入產生向量內嵌。 |
AzureOpenAIParameters |
包含查詢時使用 Azure Open AI 服務進行向量化的特定參數。 |
AzureOpenAIVectorizer |
包含查詢時使用 Azure Open AI 服務進行向量化的特定參數。 |
BM25Similarity |
根據 Okapi BM25 相似度演算法的排名函式。 BM25 是類似TF-IDF的演算法,包括長度正規化(由'b' 參數控制)以及詞彙頻率飽和度(由 'k1' 參數控制)。 |
BaseCharFilter |
字元篩選的基底類型。 |
BaseCognitiveServicesAccount |
描述連結至技能集之任何 Azure AI 服務資源的基底類型。 |
BaseDataChangeDetectionPolicy |
數據變更偵測原則的基底類型。 |
BaseDataDeletionDetectionPolicy |
數據刪除偵測原則的基底類型。 |
BaseLexicalAnalyzer |
分析器的基底類型。 |
BaseLexicalTokenizer |
Tokenizers 的基底類型。 |
BaseScoringFunction |
可在排名期間修改檔分數的函式基底類型。 |
BaseSearchIndexerDataIdentity |
數據識別的抽象基底類型。 |
BaseSearchIndexerSkill |
技能的基底類型。 |
BaseSearchRequestOptions |
篩選、排序、Facet、分頁和其他搜尋查詢行為的參數。 |
BaseTokenFilter |
令牌篩選的基底類型。 |
BaseVectorQuery |
向量和混合式搜尋查詢的查詢參數。 |
BaseVectorSearchAlgorithmConfiguration |
包含索引編製和/或查詢期間所用演算法的特定組態選項。 |
BaseVectorSearchCompression |
包含在編製索引或查詢期間所使用之壓縮方法的特定組態選項。 |
BaseVectorSearchVectorizer |
包含查詢期間所使用向量化方法的特定詳細數據。 |
BinaryQuantizationCompression |
包含二進位量化壓縮方法在編製索引和查詢期間所使用的組態選項。 |
CjkBigramTokenFilter |
形成從標準Tokenizer產生的CJK詞彙 bigram。 此令牌篩選器是使用 Apache Lucene 實作。 |
ClassicSimilarity |
舊版相似度演算法,其使用 TF-IDF 的 Lucene TFIDFSimilarity 實作。 這種 TF-IDF 變化引進靜態文件長度正規化,以及協調因只部分符合搜尋查詢的檔而受懲罰的因素。 |
ClassicTokenizer |
適用於處理大部分歐洲語言檔的文法型Tokenizer。 這個 Tokenizer 是使用 Apache Lucene 實作。 |
CognitiveServicesAccountKey |
連結至技能集的 Azure AI 服務資源多重區域帳戶密鑰。 |
CommonGramTokenFilter |
針對索引編製時經常發生的字詞建構 bigrams。 單一字詞仍然編製索引,並覆蓋了 bigrams。 此令牌篩選器是使用 Apache Lucene 實作。 |
ComplexField |
表示索引定義中的欄位,描述欄位的名稱、數據類型和搜尋行為。 |
ConditionalSkill |
一種技能,可讓需要布爾運算的案例,以判斷要指派給輸出的數據。 |
CorsOptions |
定義選項,以控制索引的跨原始來源資源分享 (CORS)。 |
CreateOrUpdateIndexOptions |
建立/更新索引作業的選項。 |
CreateOrUpdateSkillsetOptions |
建立/更新技能集作業的選項。 |
CreateOrUpdateSynonymMapOptions |
建立/更新 synonymmap 作業的選項。 |
CreateorUpdateDataSourceConnectionOptions |
建立/更新數據源作業的選項。 |
CreateorUpdateIndexerOptions |
建立/更新索引器作業的選項。 |
CustomAnalyzer |
可讓您控制將文字轉換成可編製索引/可搜尋令牌的程式。 它是使用者定義的組態,由單一預先定義的Tokenizer和一或多個篩選所組成。 Tokenizer 負責將文字分成令牌,以及修改 Tokenizer 所發出的令牌的篩選條件。 |
CustomEntity |
物件,其中包含找到之相符專案的相關信息,以及相關的元數據。 |
CustomEntityAlias |
複雜物件,可用來指定根實體名稱的替代拼字或同義字。 |
CustomEntityLookupSkill |
技能會從自定義的使用者定義單字和片語清單尋找文字。 |
DefaultCognitiveServicesAccount |
空的 物件,表示技能集的預設 Azure AI 服務資源。 |
DeleteDataSourceConnectionOptions |
刪除資料源作業的選項。 |
DeleteIndexOptions |
刪除索引作業的選項。 |
DeleteIndexerOptions |
刪除索引器作業的選項。 |
DeleteSkillsetOptions |
刪除技能集操作的選項。 |
DeleteSynonymMapOptions |
刪除同義字對應作業的選項。 |
DictionaryDecompounderTokenFilter |
分解許多德文語言中發現的複合字組。 此令牌篩選器是使用 Apache Lucene 實作。 |
DistanceScoringFunction |
定義根據地理位置距離提升分數的函式。 |
DistanceScoringParameters |
提供距離評分函式的參數值。 |
DocumentExtractionSkill |
從擴充管線內的檔案擷取內容的技能。 |
EdgeNGramTokenFilter |
從輸入令牌的正面或背面開始,產生指定大小的 n-gram。 此令牌篩選器是使用 Apache Lucene 實作。 |
EdgeNGramTokenizer |
將邊緣的輸入標記化為指定大小的 n-gram。 這個 Tokenizer 是使用 Apache Lucene 實作。 |
ElisionTokenFilter |
拿掉 elisions。 例如,“l'avion” (平面) 會轉換成 “avion” (plane)。 此令牌篩選器是使用 Apache Lucene 實作。 |
EntityLinkingSkill |
使用文字分析 API,從文字擷取連結的實體。 |
EntityRecognitionSkill |
文字分析實體辨識。 |
EntityRecognitionSkillV3 |
使用文字分析 API,從文字擷取不同類型的實體。 |
ExhaustiveKnnParameters |
包含完整 KNN 演算法特有的參數。 |
ExtractiveQueryAnswer |
從傳回的文件內容擷取回應以自然語言表示為問題之查詢的回應候選專案。 |
ExtractiveQueryCaption |
從相符的檔擷取標題,其中包含與搜尋查詢相關的段落。 |
FacetResult |
Facet 查詢結果的單一貯體。 報告域值落在特定範圍內或具有特定值或間隔的檔數目。 |
FieldMapping |
定義數據源中的欄位與索引中目標欄位之間的對應。 |
FieldMappingFunction |
表示在編製索引之前,從數據源轉換值的函式。 |
FreshnessScoringFunction |
定義函式,根據日期時間欄位的值來提升分數。 |
FreshnessScoringParameters |
提供更新評分函式的參數值。 |
GetDocumentOptions |
擷取單一文件的選項。 |
HighWaterMarkChangeDetectionPolicy |
定義數據變更偵測原則,根據高水位線數據行的值擷取變更。 |
HnswParameters |
包含 hnsw 演算法特有的參數。 |
ImageAnalysisSkill |
分析影像檔案的技能。 它會根據影像內容擷取一組豐富的視覺功能。 |
IndexDocumentsClient |
索引文件用戶端 |
IndexDocumentsOptions |
修改索引批次作業的選項。 |
IndexDocumentsResult |
回應,其中包含索引要求中所有文件的作業狀態。 |
IndexerExecutionResult |
表示個別索引器執行的結果。 |
IndexingParameters |
表示索引器執行的參數。 |
IndexingParametersConfiguration |
索引器特定組態屬性的字典。 每個名稱都是特定屬性的名稱。 每個值都必須是基本類型。 |
IndexingResult |
單一檔的索引作業狀態。 |
IndexingSchedule |
表示索引器執行的排程。 |
InputFieldMappingEntry |
技能的輸入欄位對應。 |
KeepTokenFilter |
令牌篩選條件,只保留包含指定單字清單中的文字標記。 此令牌篩選器是使用 Apache Lucene 實作。 |
KeyPhraseExtractionSkill |
使用文字分析進行關鍵片語擷取的技能。 |
KeywordMarkerTokenFilter |
將字詞標示為關鍵詞。 此令牌篩選器是使用 Apache Lucene 實作。 |
KeywordTokenizer |
以單一令牌的形式發出整個輸入。 這個 Tokenizer 是使用 Apache Lucene 實作。 |
LanguageDetectionSkill |
一種技能,可偵測輸入文字的語言,並報告要求上提交之每份檔的單一語言代碼。 語言代碼會與分數配對,指出分析的信心。 |
LengthTokenFilter |
拿掉太長或太短的字組。 此令牌篩選器是使用 Apache Lucene 實作。 |
LimitTokenFilter |
在編製索引時限制令牌數目。 此令牌篩選器是使用 Apache Lucene 實作。 |
ListSearchResultsPageSettings |
擷取搜尋結果下一頁的自變數。 |
LuceneStandardAnalyzer |
標準 Apache Lucene 分析器;由標準 Tokenizer、小寫篩選和停止篩選所組成。 |
LuceneStandardTokenizer |
在 Unicode 文字分割規則之後中斷文字。 這個 Tokenizer 是使用 Apache Lucene 實作。 |
MagnitudeScoringFunction |
定義函式,根據數值欄位的大小來提升分數。 |
MagnitudeScoringParameters |
提供量級評分函式的參數值。 |
MappingCharFilter |
套用對應選項所定義的對應的字元篩選。 比對是貪婪(在指定點獲勝的時間最長的模式比對)。 允許取代為空字串。 此字元篩選器是使用 Apache Lucene 實作。 |
MergeSkill |
將兩個或多個字串合併成單一統一字串的技能,選擇性的使用者定義分隔符會分隔每個元件元件元件。 |
MicrosoftLanguageStemmingTokenizer |
使用語言特定規則來分割文字,並將單字縮減為基底形式。 |
MicrosoftLanguageTokenizer |
使用語言特定規則來分割文字。 |
NGramTokenFilter |
產生指定大小的 n-gram。 此令牌篩選器是使用 Apache Lucene 實作。 |
NGramTokenizer |
將輸入標記化為指定大小的 n-gram。 這個 Tokenizer 是使用 Apache Lucene 實作。 |
OcrSkill |
從圖像檔擷取文字的技能。 |
OutputFieldMappingEntry |
技能的輸出欄位對應。 |
PIIDetectionSkill |
使用文字分析 API,從輸入文字擷取個人資訊,並提供遮罩選項。 |
PathHierarchyTokenizer |
類似路徑階層的Tokenizer。 這個 Tokenizer 是使用 Apache Lucene 實作。 |
PatternAnalyzer |
彈性地透過正則表示式模式將文字分隔成字詞。 此分析器是使用 Apache Lucene 實作的。 |
PatternCaptureTokenFilter |
使用 Java regex 來發出多個令牌 - 一個或多個模式中每個擷取群組各一個。 此令牌篩選器是使用 Apache Lucene 實作。 |
PatternReplaceCharFilter |
字元篩選條件,取代輸入字串中的字元。 它會使用正則表示式來識別要保留的字元序列,以及用來識別要取代的字元的取代模式。 例如,假設輸入文字 “aa bb aa bb”, pattern “(aa)\s+(bb)” 和取代 “$1#$$2”,結果會是 “aa#bb aa#bb”。 此字元篩選器是使用 Apache Lucene 實作。 |
PatternReplaceTokenFilter |
字元篩選條件,取代輸入字串中的字元。 它會使用正則表示式來識別要保留的字元序列,以及用來識別要取代的字元的取代模式。 例如,假設輸入文字 “aa bb aa bb”, pattern “(aa)\s+(bb)” 和取代 “$1#$$2”,結果會是 “aa#bb aa#bb”。 此令牌篩選器是使用 Apache Lucene 實作。 |
PatternTokenizer |
使用 regex 模式比對來建構不同令牌的 Tokenizer。 這個 Tokenizer 是使用 Apache Lucene 實作。 |
PhoneticTokenFilter |
建立注音相符專案的令牌。 此令牌篩選器是使用 Apache Lucene 實作。 |
QueryAnswerResult |
答案是從符合查詢的最相關文件內容擷取的文字段落。 答案會從頂端搜尋結果擷取。 答案候選項目會進行評分,並選取最上方的答案。 |
QueryCaptionResult |
標題是文件相對於搜尋查詢最具代表性的段落。 它們通常用來做為文件摘要。 標題只會針對類型為 |
ResourceCounter |
表示資源的使用量和配額。 |
ScalarQuantizationCompression |
包含索引編製和查詢期間所使用純量量化壓縮方法的特定組態選項。 |
ScalarQuantizationParameters |
包含純量量化特有的參數。 |
ScoringProfile |
定義影響搜尋查詢評分之搜尋索引的參數。 |
SearchClientOptions |
用來設定認知搜尋 API 要求的客戶端選項。 |
SearchDocumentsPageResult |
包含索引搜尋頁面結果的回應。 |
SearchDocumentsResult |
包含索引搜尋結果的回應。 |
SearchDocumentsResultBase |
包含索引搜尋結果的回應。 |
SearchIndex |
表示搜尋索引定義,描述索引的欄位和搜尋行為。 |
SearchIndexClientOptions |
用來設定認知搜尋 API 要求的客戶端選項。 |
SearchIndexStatistics |
指定索引的統計數據。 統計數據會定期收集,不保證一律 up-to-date。 |
SearchIndexer |
表示索引器。 |
SearchIndexerClientOptions |
用來設定認知搜尋 API 要求的客戶端選項。 |
SearchIndexerDataContainer |
表示將編製索引之實體的相關信息(例如 Azure SQL 數據表或 CosmosDB 集合)。 |
SearchIndexerDataNoneIdentity |
清除資料源的識別屬性。 |
SearchIndexerDataSourceConnection |
表示數據源定義,可用來設定索引器。 |
SearchIndexerDataUserAssignedIdentity |
指定要使用之數據源的身分識別。 |
SearchIndexerError |
表示專案或檔層級的索引編製錯誤。 |
SearchIndexerIndexProjection |
對次要搜尋索引進行其他投影的定義。 |
SearchIndexerIndexProjectionParameters |
索引投影特定組態屬性的字典。 每個名稱都是特定屬性的名稱。 每個值都必須是基本類型。 |
SearchIndexerIndexProjectionSelector |
要儲存在指定搜尋索引中的數據描述。 |
SearchIndexerKnowledgeStore |
定義擴充數據之 azure Blob、數據表或檔案的其他投影。 |
SearchIndexerKnowledgeStoreBlobProjectionSelector |
抽象類,在具體選取器之間共用屬性。 |
SearchIndexerKnowledgeStoreFileProjectionSelector |
要儲存在 Azure 檔案記憶體中的數據投影定義。 |
SearchIndexerKnowledgeStoreObjectProjectionSelector |
要儲存在 Azure Blob 中的數據投影定義。 |
SearchIndexerKnowledgeStoreParameters |
知識存放區特定組態屬性的字典。 每個名稱都是特定屬性的名稱。 每個值都必須是基本類型。 |
SearchIndexerKnowledgeStoreProjection |
各種投影選取器的容器物件。 |
SearchIndexerKnowledgeStoreProjectionSelector |
抽象類,在具體選取器之間共用屬性。 |
SearchIndexerKnowledgeStoreTableProjectionSelector |
描述要儲存在 Azure 數據表中的數據。 |
SearchIndexerLimits | |
SearchIndexerSkillset |
技能清單。 |
SearchIndexerStatus |
表示索引器目前的狀態和執行歷程記錄。 |
SearchIndexerWarning |
表示專案層級警告。 |
SearchIndexingBufferedSenderOptions |
SearchIndexingBufferedSender 的選項。 |
SearchResourceEncryptionKey |
Azure Key Vault 中客戶管理的加密密鑰。 您建立和管理的密鑰可用來加密或解密 Azure 認知搜尋中的待用數據,例如索引和同義字對應。 |
SearchServiceStatistics |
來自取得服務統計數據要求的回應。 如果成功,它就會包含服務等級計數器和限制。 |
SearchSuggester |
定義建議 API 應如何套用至索引中的欄位群組。 |
SemanticConfiguration |
定義在語意功能內容中使用的特定組態。 |
SemanticField |
做為語意組態一部分的欄位。 |
SemanticPrioritizedFields |
描述要用於語意排名、標題、醒目提示和答案的標題、內容和關鍵詞欄位。 |
SemanticSearch |
定義影響語意功能的搜尋索引參數。 |
SemanticSearchOptions |
定義語意搜尋查詢的選項 |
SentimentSkill |
文字分析正負情感分析,評分為零到 1 範圍內的浮點值。 |
SentimentSkillV3 |
使用文字分析 API,評估非結構化文字,並針對每個記錄提供情感卷標(例如「負面」、「中性」和「正面」),以服務在句子和檔層級找到的最高信賴分數為基礎。 |
ServiceCounters |
表示服務層級資源計數器和配額。 |
ServiceLimits |
代表各種服務等級限制。 |
ShaperSkill |
重新調整輸出的技能。 它會建立複雜類型來支持複合欄位(也稱為多部分欄位)。 |
ShingleTokenFilter |
建立令牌的組合做為單一令牌。 此令牌篩選器是使用 Apache Lucene 實作。 |
Similarity |
相似度演算法的基底類型。 相似度演算法可用來計算將查詢系結至檔的分數。 分數越高,檔與該特定查詢越相關。 這些分數用來排名搜尋結果。 |
SimpleField |
表示索引定義中的欄位,描述欄位的名稱、數據類型和搜尋行為。 |
SnowballTokenFilter |
使用 Snowball 產生的字幹分析器來幹詞的篩選。 此令牌篩選器是使用 Apache Lucene 實作。 |
SoftDeleteColumnDeletionDetectionPolicy |
定義實作虛刪除策略的數據刪除偵測原則。 它會根據指定之「虛刪除」數據行的值,判斷是否應該刪除專案。 |
SplitSkill |
將字串分割成文字區塊的技能。 |
SqlIntegratedChangeTrackingPolicy |
定義數據變更偵測原則,以使用 Azure SQL Database 的整合式變更追蹤功能來擷取變更。 |
StemmerOverrideTokenFilter |
提供使用自定義字典型字幹分析覆寫其他字幹篩選的功能。 任何字典字幹字詞都會標示為關鍵詞,因此它們不會在鏈結中加上字幹分析器。 必須在任何字幹篩選之前放置。 此令牌篩選器是使用 Apache Lucene 實作。 |
StemmerTokenFilter |
語言特定字幹分析篩選器。 此令牌篩選器是使用 Apache Lucene 實作。 |
StopAnalyzer |
將文字分割為非字母;套用小寫和停用字詞標記篩選。 此分析器是使用 Apache Lucene 實作的。 |
StopwordsTokenFilter |
從令牌數據流移除停用字詞。 此令牌篩選器是使用 Apache Lucene 實作。 |
SuggestDocumentsResult |
包含來自索引之建議查詢結果的回應。 |
SuggestRequest |
篩選、排序、模糊比對和其他建議查詢行為的參數。 |
SynonymMap |
表示同義字對應定義。 |
SynonymTokenFilter |
比對令牌數據流中的單字或多字同義字。 此令牌篩選器是使用 Apache Lucene 實作。 |
TagScoringFunction |
定義函式,此函式會使用符合指定標籤清單的字串值來提升檔的分數。 |
TagScoringParameters |
提供標記評分函式的參數值。 |
TextTranslationSkill |
將文字從一種語言翻譯成另一種語言的技能。 |
TextWeights |
定義索引欄位的加權,比對應該在搜尋查詢中提升評分。 |
TruncateTokenFilter |
將字詞截斷為特定長度。 此令牌篩選器是使用 Apache Lucene 實作。 |
UaxUrlEmailTokenizer |
將 URL 和電子郵件令牌化為一個令牌。 這個 Tokenizer 是使用 Apache Lucene 實作。 |
UniqueTokenFilter |
篩選出與上一個標記相同的文字標記。 此令牌篩選器是使用 Apache Lucene 實作。 |
VectorSearch |
包含與向量搜尋相關的組態選項。 |
VectorSearchOptions |
定義向量搜尋查詢的選項 |
VectorSearchProfile |
定義要與向量搜尋搭配使用的組態組合。 |
VectorizableTextQuery |
提供需要向量化的文字值時,要用於向量搜尋的查詢參數。 |
VectorizedQuery |
提供原始向量值時,用於向量搜尋的查詢參數。 |
WebApiParameters |
指定連接到使用者定義向量化工具的屬性。 |
WebApiSkill |
可呼叫 Web API 端點的技能,可讓您藉由呼叫自定義程式代碼來擴充技能集。 |
WebApiVectorizer |
指定使用者定義的向量化程式,以產生查詢字串的向量內嵌。 外部向量化工具的整合是使用技能集的自定義 Web API 介面來達成。 |
WordDelimiterTokenFilter |
將單字分割成子字詞,並在子字詞群組上執行選擇性轉換。 此令牌篩選器是使用 Apache Lucene 實作。 |
類型別名
AnalyzeTextOptions |
用於分析文字作業的選項。 |
AutocompleteMode |
定義 AutocompleteMode 的值。 |
AutocompleteOptions |
擷取部分 searchText 完成文字的選項。 |
AzureOpenAIModelName |
定義 AzureOpenAIModelName 的值。 服務支援的已知值
text-embedding-ada-002 |
BlobIndexerDataToExtract | |
BlobIndexerImageAction | |
BlobIndexerPDFTextRotationAlgorithm | |
BlobIndexerParsingMode | |
CharFilter |
包含 CharFilter 的可能案例。 |
CharFilterName |
定義 CharFilterName 的值。 服務支援的已知值html_strip:嘗試去除 HTML 建構的字元篩選。 請參閱 https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html |
CjkBigramTokenFilterScripts |
定義 CjkBigramTokenFilterScripts 的值。 |
CognitiveServicesAccount |
包含 CognitiveServicesAccount 的可能案例。 |
ComplexDataType |
定義 ComplexDataType 的值。 可能的值包括:'Edm.ComplexType'、'Collection(Edm.ComplexType)' |
CountDocumentsOptions |
在索引上執行計數作業的選項。 |
CreateDataSourceConnectionOptions |
建立數據源作業的選項。 |
CreateIndexOptions |
建立索引作業的選項。 |
CreateIndexerOptions |
建立索引器作業的選項。 |
CreateSkillsetOptions |
建立技能集作業的選項。 |
CreateSynonymMapOptions |
建立同義字對應作業的選項。 |
CustomEntityLookupSkillLanguage | |
DataChangeDetectionPolicy |
包含 DataChangeDetectionPolicy 的可能案例。 |
DataDeletionDetectionPolicy |
包含 DataDeletionDetectionPolicy 的可能案例。 |
DeleteDocumentsOptions |
刪除檔案作業的選項。 |
EdgeNGramTokenFilterSide |
定義 EdgeNGramTokenFilterSide 的值。 |
EntityCategory | |
EntityRecognitionSkillLanguage | |
ExcludedODataTypes | |
ExhaustiveKnnAlgorithmConfiguration |
包含查詢期間所使用完整 KNN 演算法的特定組態選項,這會在整個向量索引上執行暴力密碼破解搜尋。 |
ExtractDocumentKey | |
GetDataSourceConnectionOptions |
取得數據源作業的選項。 |
GetIndexOptions |
取得索引作業的選項。 |
GetIndexStatisticsOptions |
取得索引統計數據作業的選項。 |
GetIndexerOptions |
取得索引器作業的選項。 |
GetIndexerStatusOptions |
取得索引器狀態作業的選項。 |
GetServiceStatisticsOptions |
取得服務統計數據作業的選項。 |
GetSkillSetOptions |
取得技能集作業的選項。 |
GetSynonymMapsOptions |
取得同義字對應作業的選項。 |
HnswAlgorithmConfiguration |
包含 hnsw 近似近鄰演算法在編製索引期間使用的特定組態選項。 |
ImageAnalysisSkillLanguage | |
ImageDetail | |
IndexActionType |
定義 IndexActionType 的值。 |
IndexDocumentsAction |
表示在文件上運作的索引動作。 |
IndexIterator |
用於列出搜尋服務中之索引的反覆運算器。 會在反覆項目期間視需要提出要求。 使用 .byPage() 對每個反覆項目的伺服器提出一個要求。 |
IndexNameIterator |
用於列出搜尋服務中之索引的反覆運算器。 會在反覆項目期間視需要提出要求。 使用 .byPage() 對每個反覆項目的伺服器提出一個要求。 |
IndexProjectionMode |
定義 IndexProjectionMode 的值。 服務支援的已知值
skipIndexingParentDocuments:源檔將會略過寫入索引器的目標索引。 |
IndexerExecutionEnvironment | |
IndexerExecutionStatus |
定義 IndexerExecutionStatus 的值。 |
IndexerStatus |
定義 IndexerStatus 的值。 |
KeyPhraseExtractionSkillLanguage | |
LexicalAnalyzer |
包含分析器可能的情況。 |
LexicalAnalyzerName |
定義 LexicalAnalyzerName 的值。 服務支援的已知值
ar.microsoft:阿拉伯文Microsoft分析器。 |
LexicalTokenizer |
包含 Tokenizer 的可能案例。 |
LexicalTokenizerName |
定義 LexicalTokenizerName 的值。 服務支援的已知值
傳統:適用於處理大部分歐洲語言檔的文法型Tokenizer。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html |
ListDataSourceConnectionsOptions |
清單數據源作業的選項。 |
ListIndexersOptions |
清單索引器作業的選項。 |
ListIndexesOptions |
清單索引作業的選項。 |
ListSkillsetsOptions |
清單技能集作業的選項。 |
ListSynonymMapsOptions |
清單 synonymMaps 作業的選項。 |
MergeDocumentsOptions |
合併檔案作業的選項。 |
MergeOrUploadDocumentsOptions |
合併或上傳檔作業的選項。 |
MicrosoftStemmingTokenizerLanguage |
定義 MicrosoftStemmingTokenizerLanguage 的值。 |
MicrosoftTokenizerLanguage |
定義 MicrosoftTokenizerLanguage 的值。 |
NarrowedModel |
縮小模型類型,只包含選取的欄位 |
OcrLineEnding |
定義 OcrLineEnding 的值。 服務支援的已知值
空格:行是以單一空格字元分隔。 |
OcrSkillLanguage | |
PIIDetectionSkillMaskingMode | |
PhoneticEncoder |
定義 PhoneticEncoder 的值。 |
QueryAnswer |
值,指定是否應該在搜尋回應中傳回答案。
只有在查詢類型為 'semantic' 時,這個參數才有效。 如果設定為 |
QueryCaption |
值,指定是否應該在搜尋回應中傳回標題。 只有在查詢類型為 'semantic' 時,這個參數才有效。 如果設定,查詢會傳回從最高排名檔中索引鍵段落擷取的標題。 當 Captions 為「擷取」時,預設會啟用醒目提示。 默認為 『none』。 |
QueryType |
定義QueryType的值。 |
RegexFlags | |
ResetIndexerOptions |
重設索引器作業的選項。 |
RunIndexerOptions |
執行索引器作業的選項。 |
ScoringFunction |
包含 ScoringFunction 的可能案例。 |
ScoringFunctionAggregation |
定義 ScoringFunctionAggregation 的值。 |
ScoringFunctionInterpolation |
定義 ScoringFunctionInterpolation 的值。 |
ScoringStatistics |
定義 ScoringStatistics 的值。 |
SearchField |
表示索引定義中的欄位,描述欄位的名稱、數據類型和搜尋行為。 |
SearchFieldArray |
如果 |
SearchFieldDataType |
定義 SearchFieldDataType 的值。 服務支援的已知值:Edm.String:表示字段包含字串。 Edm.Int32:表示欄位包含 32 位帶正負號的整數。 Edm.Int64:表示欄位包含 64 位帶正負號的整數。 Edm.Double:表示欄位包含 IEEE 雙精確度浮點數。 Edm.Boolean:表示欄位包含布爾值 (true 或 false)。 Edm.DateTimeOffset:表示欄位包含日期/時間值,包括時區資訊。 Edm.GeographyPoint:表示欄位在經度和緯度方面包含地理位置。 Edm.ComplexType:表示欄位包含一或多個複雜物件,而該物件又具有其他類型的子字段。 Edm.Single:表示字段包含單精度浮點數。 只有當做為集合類型的一部分使用時,也就是 Collection(Edm.Single)。 Edm.Half:表示字段包含半精確度浮點數。 只有在當做集合類型的一部分使用時,也就是 Collection(Edm.Half)才有效。 Edm.Int16:表示欄位包含 16 位帶正負號的整數。 只有在當做集合類型的一部分使用時,也就是 Collection(Edm.Int16)才有效。 Edm.SByte:表示欄位包含 8 位帶正負號的整數。 只有噹噹做集合類型的一部分使用時,也就是 Collection(Edm.SByte)。 Edm.Byte:表示字段包含 8 位無符號整數。 只有在當做集合類型的一部分使用時,也就是 Collection(Edm.Byte)才有效。 |
SearchIndexerDataIdentity |
包含 SearchIndexerDataIdentity 的可能案例。 |
SearchIndexerDataSourceType | |
SearchIndexerSkill |
包含技能的可能案例。 |
SearchIndexingBufferedSenderDeleteDocumentsOptions |
SearchIndexingBufferedSenderDeleteDocuments 的選項。 |
SearchIndexingBufferedSenderFlushDocumentsOptions |
SearchIndexingBufferedSenderFlushDocuments 的選項。 |
SearchIndexingBufferedSenderMergeDocumentsOptions |
SearchIndexingBufferedSenderMergeDocuments 的選項。 |
SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions |
SearchIndexingBufferedSenderMergeOrUploadDocuments 的選項。 |
SearchIndexingBufferedSenderUploadDocumentsOptions |
SearchIndexingBufferedSenderUploadDocuments 的選項。 |
SearchIterator |
適用於派特式查詢搜尋結果的反覆運算器。 會在反覆項目期間視需要提出要求。 使用 .byPage() 對每個反覆項目的伺服器提出一個要求。 |
SearchMode |
定義 SearchMode 的值。 |
SearchOptions |
認可完整搜尋要求的選項。 |
SearchPick |
使用有效的認知搜尋 OData $select路徑,深入挑選 T 的欄位。 |
SearchRequestOptions |
篩選、排序、Facet、分頁和其他搜尋查詢行為的參數。 |
SearchRequestQueryTypeOptions | |
SearchResult |
包含搜尋查詢所找到的檔,加上相關聯的元數據。 |
SelectArray |
如果 |
SelectFields |
使用以 T 為根目錄的欄位樹狀結構,產生有效的認知搜尋 OData $select路徑聯集。 |
SemanticErrorMode | |
SemanticErrorReason | |
SemanticSearchResultsType | |
SentimentSkillLanguage | |
SimilarityAlgorithm |
包含相似性的可能案例。 |
SnowballTokenFilterLanguage |
定義 SnowballTokenFilterLanguage 的值。 |
SplitSkillLanguage | |
StemmerTokenFilterLanguage |
定義 StemmerTokenFilterLanguage 的值。 |
StopwordsList |
定義 StopwordsList 的值。 |
SuggestNarrowedModel | |
SuggestOptions |
根據 searchText 擷取建議的選項。 |
SuggestResult |
結果,其中包含建議查詢所找到的檔,加上相關聯的元數據。 |
TextSplitMode | |
TextTranslationSkillLanguage | |
TokenCharacterKind |
定義 TokenCharacterKind 的值。 |
TokenFilter |
包含 TokenFilter 的可能案例。 |
TokenFilterName |
定義 TokenFilterName 的值。 服務支援的已知值
arabic_normalization:套用阿拉伯文正規化程式以正規化正寫的標記篩選。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html |
UnionToIntersection | |
UploadDocumentsOptions |
上傳檔作業的選項。 |
VectorEncodingFormat |
定義 VectorEncodingFormat 的值。 服務支援的已知值packedBit:編碼格式,代表封裝成較寬數據類型的位。 |
VectorFilterMode | |
VectorQuery |
向量和混合式搜尋查詢的查詢參數。 |
VectorQueryKind | |
VectorSearchAlgorithmConfiguration |
包含索引編製和/或查詢期間所用演算法的特定組態選項。 |
VectorSearchAlgorithmKind | |
VectorSearchAlgorithmMetric | |
VectorSearchCompression |
包含在編製索引或查詢期間所使用之壓縮方法的特定組態選項。 |
VectorSearchCompressionKind |
定義 VectorSearchCompressionKind 的值。 服務支援的已知值
純量量化:純量量化,這是一種壓縮方法。 在純量量化中,原始向量值會透過離散化和表示向量的每個元件,使用縮減的量化值集來壓縮成較窄的類型,藉此減少整體數據大小。 |
VectorSearchCompressionTarget |
定義 VectorSearchCompressionTarget 的值。 服務支援的已知值int8 |
VectorSearchVectorizer |
包含如何向量化文字向量查詢的組態選項。 |
VectorSearchVectorizerKind |
定義 VectorSearchVectorizerKind 的值。 服務支援的已知值
azureOpenAI:在查詢時使用 Azure OpenAI 資源產生內嵌。 |
VisualFeature |
列舉
函式
create |
用來建立 SynonymMap 對象的協助程式方法。 這是僅限 NodeJS 方法。 |
odata(Template |
逸出 odata 篩選表示式,以避免使用引用字串常值的錯誤。 範例用法:
如需支援語法的詳細資訊,請參閱:https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter |
函式詳細資料
createSynonymMapFromFile(string, string)
用來建立 SynonymMap 對象的協助程式方法。 這是僅限 NodeJS 方法。
function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>
參數
- name
-
string
SynonymMap 的名稱。
- filePath
-
string
包含同義字的檔案路徑(以新行分隔)
傳回
Promise<SynonymMap>
SynonymMap 物件
odata(TemplateStringsArray, unknown[])
逸出 odata 篩選表示式,以避免使用引用字串常值的錯誤。 範例用法:
const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;
如需支援語法的詳細資訊,請參閱:https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter
function odata(strings: TemplateStringsArray, values: unknown[]): string
參數
- strings
-
TemplateStringsArray
表達式的字串數位
- values
-
unknown[]
表達式的值陣列
傳回
string