共用方式為


@azure/search-documents package

類別

AzureKeyCredential

支援更新基礎金鑰值的靜態金鑰型認證。

GeographyPoint

表示全域座標的地理點。

IndexDocumentsBatch

類別,用來對索引執行具有多個檔的批次作業。

SearchClient

用來對搜尋索引執行作業的類別,包括查詢索引中的檔,以及新增、更新和移除檔。

SearchIndexClient

用來執行作業的類別,以管理(建立、更新、列出/刪除)索引,& 同義字對應。

SearchIndexerClient

用來執行作業的類別,以管理(建立、更新、列出/刪除)索引器、數據源 & 技能集。

SearchIndexingBufferedSender

類別,用來對搜尋索引執行緩衝作業,包括新增、更新和移除它們。

介面

AnalyzeRequest

指定一些用來將文字分成標記的文字和分析元件。

AnalyzeResult

在文字上測試分析器的結果。

AnalyzedTokenInfo

分析器傳回之令牌的相關信息。

AsciiFoldingTokenFilter

如果這類對等專案存在,請將前127個ASCII字元中的字母、數位和符號 Unicode 字元轉換成其 ASCII 對等專案。 此令牌篩選器是使用 Apache Lucene 實作。

AutocompleteItem

自動完成要求的結果。

AutocompleteRequest

模糊比對和其他自動完成查詢行為的參數。

AutocompleteResult

自動完成查詢的結果。

AzureActiveDirectoryApplicationCredentials

為搜尋服務建立之已註冊應用程式的認證,用於對儲存在 Azure Key Vault 中的加密密鑰進行驗證存取。

AzureOpenAIEmbeddingSkill

可讓您使用 Azure OpenAI 資源為指定的文字輸入產生向量內嵌。

AzureOpenAIParameters

包含查詢時使用 Azure Open AI 服務進行向量化的特定參數。

AzureOpenAIVectorizer

包含查詢時使用 Azure Open AI 服務進行向量化的特定參數。

BM25Similarity

根據 Okapi BM25 相似度演算法的排名函式。 BM25 是類似TF-IDF的演算法,包括長度正規化(由'b' 參數控制)以及詞彙頻率飽和度(由 'k1' 參數控制)。

BaseCharFilter

字元篩選的基底類型。

BaseCognitiveServicesAccount

描述連結至技能集之任何 Azure AI 服務資源的基底類型。

BaseDataChangeDetectionPolicy

數據變更偵測原則的基底類型。

BaseDataDeletionDetectionPolicy

數據刪除偵測原則的基底類型。

BaseLexicalAnalyzer

分析器的基底類型。

BaseLexicalTokenizer

Tokenizers 的基底類型。

BaseScoringFunction

可在排名期間修改檔分數的函式基底類型。

BaseSearchIndexerDataIdentity

數據識別的抽象基底類型。

BaseSearchIndexerSkill

技能的基底類型。

BaseSearchRequestOptions

篩選、排序、Facet、分頁和其他搜尋查詢行為的參數。

BaseTokenFilter

令牌篩選的基底類型。

BaseVectorQuery

向量和混合式搜尋查詢的查詢參數。

BaseVectorSearchAlgorithmConfiguration

包含索引編製和/或查詢期間所用演算法的特定組態選項。

BaseVectorSearchCompression

包含在編製索引或查詢期間所使用之壓縮方法的特定組態選項。

BaseVectorSearchVectorizer

包含查詢期間所使用向量化方法的特定詳細數據。

BinaryQuantizationCompression

包含二進位量化壓縮方法在編製索引和查詢期間所使用的組態選項。

CjkBigramTokenFilter

形成從標準Tokenizer產生的CJK詞彙 bigram。 此令牌篩選器是使用 Apache Lucene 實作。

ClassicSimilarity

舊版相似度演算法,其使用 TF-IDF 的 Lucene TFIDFSimilarity 實作。 這種 TF-IDF 變化引進靜態文件長度正規化,以及協調因只部分符合搜尋查詢的檔而受懲罰的因素。

ClassicTokenizer

適用於處理大部分歐洲語言檔的文法型Tokenizer。 這個 Tokenizer 是使用 Apache Lucene 實作。

CognitiveServicesAccountKey

連結至技能集的 Azure AI 服務資源多重區域帳戶密鑰。

CommonGramTokenFilter

針對索引編製時經常發生的字詞建構 bigrams。 單一字詞仍然編製索引,並覆蓋了 bigrams。 此令牌篩選器是使用 Apache Lucene 實作。

ComplexField

表示索引定義中的欄位,描述欄位的名稱、數據類型和搜尋行為。

ConditionalSkill

一種技能,可讓需要布爾運算的案例,以判斷要指派給輸出的數據。

CorsOptions

定義選項,以控制索引的跨原始來源資源分享 (CORS)。

CreateOrUpdateIndexOptions

建立/更新索引作業的選項。

CreateOrUpdateSkillsetOptions

建立/更新技能集作業的選項。

CreateOrUpdateSynonymMapOptions

建立/更新 synonymmap 作業的選項。

CreateorUpdateDataSourceConnectionOptions

建立/更新數據源作業的選項。

CreateorUpdateIndexerOptions

建立/更新索引器作業的選項。

CustomAnalyzer

可讓您控制將文字轉換成可編製索引/可搜尋令牌的程式。 它是使用者定義的組態,由單一預先定義的Tokenizer和一或多個篩選所組成。 Tokenizer 負責將文字分成令牌,以及修改 Tokenizer 所發出的令牌的篩選條件。

CustomEntity

物件,其中包含找到之相符專案的相關信息,以及相關的元數據。

CustomEntityAlias

複雜物件,可用來指定根實體名稱的替代拼字或同義字。

CustomEntityLookupSkill

技能會從自定義的使用者定義單字和片語清單尋找文字。

DefaultCognitiveServicesAccount

空的 物件,表示技能集的預設 Azure AI 服務資源。

DeleteDataSourceConnectionOptions

刪除資料源作業的選項。

DeleteIndexOptions

刪除索引作業的選項。

DeleteIndexerOptions

刪除索引器作業的選項。

DeleteSkillsetOptions

刪除技能集操作的選項。

DeleteSynonymMapOptions

刪除同義字對應作業的選項。

DictionaryDecompounderTokenFilter

分解許多德文語言中發現的複合字組。 此令牌篩選器是使用 Apache Lucene 實作。

DistanceScoringFunction

定義根據地理位置距離提升分數的函式。

DistanceScoringParameters

提供距離評分函式的參數值。

DocumentExtractionSkill

從擴充管線內的檔案擷取內容的技能。

EdgeNGramTokenFilter

從輸入令牌的正面或背面開始,產生指定大小的 n-gram。 此令牌篩選器是使用 Apache Lucene 實作。

EdgeNGramTokenizer

將邊緣的輸入標記化為指定大小的 n-gram。 這個 Tokenizer 是使用 Apache Lucene 實作。

ElisionTokenFilter

拿掉 elisions。 例如,“l'avion” (平面) 會轉換成 “avion” (plane)。 此令牌篩選器是使用 Apache Lucene 實作。

EntityLinkingSkill

使用文字分析 API,從文字擷取連結的實體。

EntityRecognitionSkill

文字分析實體辨識。

EntityRecognitionSkillV3

使用文字分析 API,從文字擷取不同類型的實體。

ExhaustiveKnnParameters

包含完整 KNN 演算法特有的參數。

ExtractiveQueryAnswer

從傳回的文件內容擷取回應以自然語言表示為問題之查詢的回應候選專案。

ExtractiveQueryCaption

從相符的檔擷取標題,其中包含與搜尋查詢相關的段落。

FacetResult

Facet 查詢結果的單一貯體。 報告域值落在特定範圍內或具有特定值或間隔的檔數目。

FieldMapping

定義數據源中的欄位與索引中目標欄位之間的對應。

FieldMappingFunction

表示在編製索引之前,從數據源轉換值的函式。

FreshnessScoringFunction

定義函式,根據日期時間欄位的值來提升分數。

FreshnessScoringParameters

提供更新評分函式的參數值。

GetDocumentOptions

擷取單一文件的選項。

HighWaterMarkChangeDetectionPolicy

定義數據變更偵測原則,根據高水位線數據行的值擷取變更。

HnswParameters

包含 hnsw 演算法特有的參數。

ImageAnalysisSkill

分析影像檔案的技能。 它會根據影像內容擷取一組豐富的視覺功能。

IndexDocumentsClient

索引文件用戶端

IndexDocumentsOptions

修改索引批次作業的選項。

IndexDocumentsResult

回應,其中包含索引要求中所有文件的作業狀態。

IndexerExecutionResult

表示個別索引器執行的結果。

IndexingParameters

表示索引器執行的參數。

IndexingParametersConfiguration

索引器特定組態屬性的字典。 每個名稱都是特定屬性的名稱。 每個值都必須是基本類型。

IndexingResult

單一檔的索引作業狀態。

IndexingSchedule

表示索引器執行的排程。

InputFieldMappingEntry

技能的輸入欄位對應。

KeepTokenFilter

令牌篩選條件,只保留包含指定單字清單中的文字標記。 此令牌篩選器是使用 Apache Lucene 實作。

KeyPhraseExtractionSkill

使用文字分析進行關鍵片語擷取的技能。

KeywordMarkerTokenFilter

將字詞標示為關鍵詞。 此令牌篩選器是使用 Apache Lucene 實作。

KeywordTokenizer

以單一令牌的形式發出整個輸入。 這個 Tokenizer 是使用 Apache Lucene 實作。

LanguageDetectionSkill

一種技能,可偵測輸入文字的語言,並報告要求上提交之每份檔的單一語言代碼。 語言代碼會與分數配對,指出分析的信心。

LengthTokenFilter

拿掉太長或太短的字組。 此令牌篩選器是使用 Apache Lucene 實作。

LimitTokenFilter

在編製索引時限制令牌數目。 此令牌篩選器是使用 Apache Lucene 實作。

ListSearchResultsPageSettings

擷取搜尋結果下一頁的自變數。

LuceneStandardAnalyzer

標準 Apache Lucene 分析器;由標準 Tokenizer、小寫篩選和停止篩選所組成。

LuceneStandardTokenizer

在 Unicode 文字分割規則之後中斷文字。 這個 Tokenizer 是使用 Apache Lucene 實作。

MagnitudeScoringFunction

定義函式,根據數值欄位的大小來提升分數。

MagnitudeScoringParameters

提供量級評分函式的參數值。

MappingCharFilter

套用對應選項所定義的對應的字元篩選。 比對是貪婪(在指定點獲勝的時間最長的模式比對)。 允許取代為空字串。 此字元篩選器是使用 Apache Lucene 實作。

MergeSkill

將兩個或多個字串合併成單一統一字串的技能,選擇性的使用者定義分隔符會分隔每個元件元件元件。

MicrosoftLanguageStemmingTokenizer

使用語言特定規則來分割文字,並將單字縮減為基底形式。

MicrosoftLanguageTokenizer

使用語言特定規則來分割文字。

NGramTokenFilter

產生指定大小的 n-gram。 此令牌篩選器是使用 Apache Lucene 實作。

NGramTokenizer

將輸入標記化為指定大小的 n-gram。 這個 Tokenizer 是使用 Apache Lucene 實作。

OcrSkill

從圖像檔擷取文字的技能。

OutputFieldMappingEntry

技能的輸出欄位對應。

PIIDetectionSkill

使用文字分析 API,從輸入文字擷取個人資訊,並提供遮罩選項。

PathHierarchyTokenizer

類似路徑階層的Tokenizer。 這個 Tokenizer 是使用 Apache Lucene 實作。

PatternAnalyzer

彈性地透過正則表示式模式將文字分隔成字詞。 此分析器是使用 Apache Lucene 實作的。

PatternCaptureTokenFilter

使用 Java regex 來發出多個令牌 - 一個或多個模式中每個擷取群組各一個。 此令牌篩選器是使用 Apache Lucene 實作。

PatternReplaceCharFilter

字元篩選條件,取代輸入字串中的字元。 它會使用正則表示式來識別要保留的字元序列,以及用來識別要取代的字元的取代模式。 例如,假設輸入文字 “aa bb aa bb”, pattern “(aa)\s+(bb)” 和取代 “$1#$$2”,結果會是 “aa#bb aa#bb”。 此字元篩選器是使用 Apache Lucene 實作。

PatternReplaceTokenFilter

字元篩選條件,取代輸入字串中的字元。 它會使用正則表示式來識別要保留的字元序列,以及用來識別要取代的字元的取代模式。 例如,假設輸入文字 “aa bb aa bb”, pattern “(aa)\s+(bb)” 和取代 “$1#$$2”,結果會是 “aa#bb aa#bb”。 此令牌篩選器是使用 Apache Lucene 實作。

PatternTokenizer

使用 regex 模式比對來建構不同令牌的 Tokenizer。 這個 Tokenizer 是使用 Apache Lucene 實作。

PhoneticTokenFilter

建立注音相符專案的令牌。 此令牌篩選器是使用 Apache Lucene 實作。

QueryAnswerResult

答案是從符合查詢的最相關文件內容擷取的文字段落。 答案會從頂端搜尋結果擷取。 答案候選項目會進行評分,並選取最上方的答案。

QueryCaptionResult

標題是文件相對於搜尋查詢最具代表性的段落。 它們通常用來做為文件摘要。 標題只會針對類型為 semantic的查詢傳回。

ResourceCounter

表示資源的使用量和配額。

ScalarQuantizationCompression

包含索引編製和查詢期間所使用純量量化壓縮方法的特定組態選項。

ScalarQuantizationParameters

包含純量量化特有的參數。

ScoringProfile

定義影響搜尋查詢評分之搜尋索引的參數。

SearchClientOptions

用來設定認知搜尋 API 要求的客戶端選項。

SearchDocumentsPageResult

包含索引搜尋頁面結果的回應。

SearchDocumentsResult

包含索引搜尋結果的回應。

SearchDocumentsResultBase

包含索引搜尋結果的回應。

SearchIndex

表示搜尋索引定義,描述索引的欄位和搜尋行為。

SearchIndexClientOptions

用來設定認知搜尋 API 要求的客戶端選項。

SearchIndexStatistics

指定索引的統計數據。 統計數據會定期收集,不保證一律 up-to-date。

SearchIndexer

表示索引器。

SearchIndexerClientOptions

用來設定認知搜尋 API 要求的客戶端選項。

SearchIndexerDataContainer

表示將編製索引之實體的相關信息(例如 Azure SQL 數據表或 CosmosDB 集合)。

SearchIndexerDataNoneIdentity

清除資料源的識別屬性。

SearchIndexerDataSourceConnection

表示數據源定義,可用來設定索引器。

SearchIndexerDataUserAssignedIdentity

指定要使用之數據源的身分識別。

SearchIndexerError

表示專案或檔層級的索引編製錯誤。

SearchIndexerIndexProjection

對次要搜尋索引進行其他投影的定義。

SearchIndexerIndexProjectionParameters

索引投影特定組態屬性的字典。 每個名稱都是特定屬性的名稱。 每個值都必須是基本類型。

SearchIndexerIndexProjectionSelector

要儲存在指定搜尋索引中的數據描述。

SearchIndexerKnowledgeStore

定義擴充數據之 azure Blob、數據表或檔案的其他投影。

SearchIndexerKnowledgeStoreBlobProjectionSelector

抽象類,在具體選取器之間共用屬性。

SearchIndexerKnowledgeStoreFileProjectionSelector

要儲存在 Azure 檔案記憶體中的數據投影定義。

SearchIndexerKnowledgeStoreObjectProjectionSelector

要儲存在 Azure Blob 中的數據投影定義。

SearchIndexerKnowledgeStoreParameters

知識存放區特定組態屬性的字典。 每個名稱都是特定屬性的名稱。 每個值都必須是基本類型。

SearchIndexerKnowledgeStoreProjection

各種投影選取器的容器物件。

SearchIndexerKnowledgeStoreProjectionSelector

抽象類,在具體選取器之間共用屬性。

SearchIndexerKnowledgeStoreTableProjectionSelector

描述要儲存在 Azure 數據表中的數據。

SearchIndexerLimits
SearchIndexerSkillset

技能清單。

SearchIndexerStatus

表示索引器目前的狀態和執行歷程記錄。

SearchIndexerWarning

表示專案層級警告。

SearchIndexingBufferedSenderOptions

SearchIndexingBufferedSender 的選項。

SearchResourceEncryptionKey

Azure Key Vault 中客戶管理的加密密鑰。 您建立和管理的密鑰可用來加密或解密 Azure 認知搜尋中的待用數據,例如索引和同義字對應。

SearchServiceStatistics

來自取得服務統計數據要求的回應。 如果成功,它就會包含服務等級計數器和限制。

SearchSuggester

定義建議 API 應如何套用至索引中的欄位群組。

SemanticConfiguration

定義在語意功能內容中使用的特定組態。

SemanticField

做為語意組態一部分的欄位。

SemanticPrioritizedFields

描述要用於語意排名、標題、醒目提示和答案的標題、內容和關鍵詞欄位。

SemanticSearch

定義影響語意功能的搜尋索引參數。

SemanticSearchOptions

定義語意搜尋查詢的選項

SentimentSkill

文字分析正負情感分析,評分為零到 1 範圍內的浮點值。

SentimentSkillV3

使用文字分析 API,評估非結構化文字,並針對每個記錄提供情感卷標(例如「負面」、「中性」和「正面」),以服務在句子和檔層級找到的最高信賴分數為基礎。

ServiceCounters

表示服務層級資源計數器和配額。

ServiceLimits

代表各種服務等級限制。

ShaperSkill

重新調整輸出的技能。 它會建立複雜類型來支持複合欄位(也稱為多部分欄位)。

ShingleTokenFilter

建立令牌的組合做為單一令牌。 此令牌篩選器是使用 Apache Lucene 實作。

Similarity

相似度演算法的基底類型。 相似度演算法可用來計算將查詢系結至檔的分數。 分數越高,檔與該特定查詢越相關。 這些分數用來排名搜尋結果。

SimpleField

表示索引定義中的欄位,描述欄位的名稱、數據類型和搜尋行為。

SnowballTokenFilter

使用 Snowball 產生的字幹分析器來幹詞的篩選。 此令牌篩選器是使用 Apache Lucene 實作。

SoftDeleteColumnDeletionDetectionPolicy

定義實作虛刪除策略的數據刪除偵測原則。 它會根據指定之「虛刪除」數據行的值,判斷是否應該刪除專案。

SplitSkill

將字串分割成文字區塊的技能。

SqlIntegratedChangeTrackingPolicy

定義數據變更偵測原則,以使用 Azure SQL Database 的整合式變更追蹤功能來擷取變更。

StemmerOverrideTokenFilter

提供使用自定義字典型字幹分析覆寫其他字幹篩選的功能。 任何字典字幹字詞都會標示為關鍵詞,因此它們不會在鏈結中加上字幹分析器。 必須在任何字幹篩選之前放置。 此令牌篩選器是使用 Apache Lucene 實作。

StemmerTokenFilter

語言特定字幹分析篩選器。 此令牌篩選器是使用 Apache Lucene 實作。

StopAnalyzer

將文字分割為非字母;套用小寫和停用字詞標記篩選。 此分析器是使用 Apache Lucene 實作的。

StopwordsTokenFilter

從令牌數據流移除停用字詞。 此令牌篩選器是使用 Apache Lucene 實作。

SuggestDocumentsResult

包含來自索引之建議查詢結果的回應。

SuggestRequest

篩選、排序、模糊比對和其他建議查詢行為的參數。

SynonymMap

表示同義字對應定義。

SynonymTokenFilter

比對令牌數據流中的單字或多字同義字。 此令牌篩選器是使用 Apache Lucene 實作。

TagScoringFunction

定義函式,此函式會使用符合指定標籤清單的字串值來提升檔的分數。

TagScoringParameters

提供標記評分函式的參數值。

TextTranslationSkill

將文字從一種語言翻譯成另一種語言的技能。

TextWeights

定義索引欄位的加權,比對應該在搜尋查詢中提升評分。

TruncateTokenFilter

將字詞截斷為特定長度。 此令牌篩選器是使用 Apache Lucene 實作。

UaxUrlEmailTokenizer

將 URL 和電子郵件令牌化為一個令牌。 這個 Tokenizer 是使用 Apache Lucene 實作。

UniqueTokenFilter

篩選出與上一個標記相同的文字標記。 此令牌篩選器是使用 Apache Lucene 實作。

VectorSearch

包含與向量搜尋相關的組態選項。

VectorSearchOptions

定義向量搜尋查詢的選項

VectorSearchProfile

定義要與向量搜尋搭配使用的組態組合。

VectorizableTextQuery

提供需要向量化的文字值時,要用於向量搜尋的查詢參數。

VectorizedQuery

提供原始向量值時,用於向量搜尋的查詢參數。

WebApiParameters

指定連接到使用者定義向量化工具的屬性。

WebApiSkill

可呼叫 Web API 端點的技能,可讓您藉由呼叫自定義程式代碼來擴充技能集。

WebApiVectorizer

指定使用者定義的向量化程式,以產生查詢字串的向量內嵌。 外部向量化工具的整合是使用技能集的自定義 Web API 介面來達成。

WordDelimiterTokenFilter

將單字分割成子字詞,並在子字詞群組上執行選擇性轉換。 此令牌篩選器是使用 Apache Lucene 實作。

類型別名

AnalyzeTextOptions

用於分析文字作業的選項。

AutocompleteMode

定義 AutocompleteMode 的值。

AutocompleteOptions

擷取部分 searchText 完成文字的選項。

AzureOpenAIModelName

定義 AzureOpenAIModelName 的值。
KnownAzureOpenAIModelName 可以與 AzureOpenAIModelName 交換使用,此列舉包含服務支援的已知值。

服務支援的已知值

text-embedding-ada-002
text-embedding-3-large
text-embedding-3-small

BlobIndexerDataToExtract
BlobIndexerImageAction
BlobIndexerPDFTextRotationAlgorithm
BlobIndexerParsingMode
CharFilter

包含 CharFilter 的可能案例。

CharFilterName

定義 CharFilterName 的值。
<xref:KnownCharFilterName> 可以與 CharFilterName 交換使用,此列舉包含服務支援的已知值。

服務支援的已知值

html_strip:嘗試去除 HTML 建構的字元篩選。 請參閱 https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html

CjkBigramTokenFilterScripts

定義 CjkBigramTokenFilterScripts 的值。

CognitiveServicesAccount

包含 CognitiveServicesAccount 的可能案例。

ComplexDataType

定義 ComplexDataType 的值。 可能的值包括:'Edm.ComplexType'、'Collection(Edm.ComplexType)'

CountDocumentsOptions

在索引上執行計數作業的選項。

CreateDataSourceConnectionOptions

建立數據源作業的選項。

CreateIndexOptions

建立索引作業的選項。

CreateIndexerOptions

建立索引器作業的選項。

CreateSkillsetOptions

建立技能集作業的選項。

CreateSynonymMapOptions

建立同義字對應作業的選項。

CustomEntityLookupSkillLanguage
DataChangeDetectionPolicy

包含 DataChangeDetectionPolicy 的可能案例。

DataDeletionDetectionPolicy

包含 DataDeletionDetectionPolicy 的可能案例。

DeleteDocumentsOptions

刪除檔案作業的選項。

EdgeNGramTokenFilterSide

定義 EdgeNGramTokenFilterSide 的值。

EntityCategory
EntityRecognitionSkillLanguage
ExcludedODataTypes
ExhaustiveKnnAlgorithmConfiguration

包含查詢期間所使用完整 KNN 演算法的特定組態選項,這會在整個向量索引上執行暴力密碼破解搜尋。

ExtractDocumentKey
GetDataSourceConnectionOptions

取得數據源作業的選項。

GetIndexOptions

取得索引作業的選項。

GetIndexStatisticsOptions

取得索引統計數據作業的選項。

GetIndexerOptions

取得索引器作業的選項。

GetIndexerStatusOptions

取得索引器狀態作業的選項。

GetServiceStatisticsOptions

取得服務統計數據作業的選項。

GetSkillSetOptions

取得技能集作業的選項。

GetSynonymMapsOptions

取得同義字對應作業的選項。

HnswAlgorithmConfiguration

包含 hnsw 近似近鄰演算法在編製索引期間使用的特定組態選項。

ImageAnalysisSkillLanguage
ImageDetail
IndexActionType

定義 IndexActionType 的值。

IndexDocumentsAction

表示在文件上運作的索引動作。

IndexIterator

用於列出搜尋服務中之索引的反覆運算器。 會在反覆項目期間視需要提出要求。 使用 .byPage() 對每個反覆項目的伺服器提出一個要求。

IndexNameIterator

用於列出搜尋服務中之索引的反覆運算器。 會在反覆項目期間視需要提出要求。 使用 .byPage() 對每個反覆項目的伺服器提出一個要求。

IndexProjectionMode

定義 IndexProjectionMode 的值。
KnownIndexProjectionMode 可以與 IndexProjectionMode 交替使用,此列舉包含服務支援的已知值。

服務支援的已知值

skipIndexingParentDocuments:源檔將會略過寫入索引器的目標索引。
includeIndexingParentDocuments:源檔會寫入索引器的目標索引中。 這是預設模式。

IndexerExecutionEnvironment
IndexerExecutionStatus

定義 IndexerExecutionStatus 的值。

IndexerStatus

定義 IndexerStatus 的值。

KeyPhraseExtractionSkillLanguage
LexicalAnalyzer

包含分析器可能的情況。

LexicalAnalyzerName

定義 LexicalAnalyzerName 的值。
<xref:KnownLexicalAnalyzerName> 可以與 LexicalAnalyzerName 交換使用,此列舉包含服務支援的已知值。

服務支援的已知值

ar.microsoft:阿拉伯文Microsoft分析器。
ar.lucene:適用於阿拉伯文的 Lucene 分析器。
hy.lucene:亞美尼亞文的 Lucene 分析器。
bn.microsoft:班格拉的 Microsoft 分析器。
eu.lucene: Basque 的 Lucene 分析器。
bg.microsoft:保加利亞Microsoft分析器。
bg.lucene:保加利亞的 Lucene 分析器。
ca.microsoft:適用於加泰羅尼亞的 Microsoft 分析器。
ca.lucene:加泰羅尼亞的 Lucene 分析器。
zh-Hans.microsoft:適用於中文(簡體中文)的Microsoft分析器。
zh-Hans.lucene:簡體中文的 Lucene 分析器。
zh-Hant.microsoft:中文(繁體中文)Microsoft分析器。
zh-Hant.lucene:中國(繁體中文)的 Lucene 分析器。
hr.microsoft: Microsoft analyzer for 克羅埃西亞文。
cs.microsoft:適用於捷克文的 Microsoft 分析器。
cs.lucene:適用於捷克的 Lucene 分析器。
da.microsoft:適用於丹麥文的 Microsoft 分析器。
da.lucene:丹麥文的 Lucene 分析器。
nl.microsoft:適用於荷蘭文的 Microsoft 分析器。
nl.lucene:適用於荷蘭的 Lucene 分析器。
en.microsoft:英文Microsoft分析器。
en.lucene:適用於英文的 Lucene 分析器。
et.microsoft:愛沙尼亞Microsoft分析器。
fi.microsoft:芬蘭文Microsoft分析器。
fi.lucene:芬蘭的 Lucene 分析器。
fr.microsoft:適用於法文的 Microsoft 分析器。
fr.lucene:適用於法文的 Lucene 分析器。
gl.lucene:Galician 的 Lucene 分析器。
de.microsoft:適用於德文的 Microsoft 分析器。
de.lucene:適用於德文的 Lucene 分析器。
el.microsoft:適用於希臘文的 Microsoft 分析器。
el.lucene:適用於希臘的 Lucene 分析器。
gu.microsoft:適用於 Gujarati 的 Microsoft 分析器。
he.microsoft:適用於希伯來文的 Microsoft 分析器。
hi.microsoft:適用於印度文的 Microsoft 分析器。
hi.lucene:適用於印度文的 Lucene 分析器。
胡.microsoft:匈牙利文的 Microsoft 分析器。
胡.lucene:匈牙利文的 Lucene 分析器。
is.microsoft:冰島Microsoft分析器。
id.microsoft:印尼文Microsoft分析器(Bahasa)。
id.lucene:適用於印尼的 Lucene 分析器。
ga.lucene:適用於愛爾蘭的 Lucene 分析器。
it.microsoft:義大利文的 Microsoft 分析器。
it.lucene:義大利文的 Lucene 分析器。
ja.microsoft:適用於日文的 Microsoft 分析器。
ja.lucene:適用於日文的 Lucene 分析器。
kn.microsoft:Kannada Microsoft 分析器。
ko.microsoft:適用於韓文的 Microsoft 分析器。
ko.lucene:適用於韓文的 Lucene 分析器。
lv.microsoft:拉脫維亞Microsoft分析器。
lv.lucene:拉脫維亞的 Lucene 分析器。
lt.microsoft:立陶宛Microsoft分析器。
ml.microsoft:適用於馬來亞蘭的 Microsoft 分析器。
ms.microsoft: 馬來文Microsoft分析器(拉丁)。
mr.microsoft:適用於 Marathi 的Microsoft分析器。
nb.microsoft:挪威文(Bokmål)Microsoft分析器。
no.lucene:挪威文的 Lucene 分析器。
fa.lucene:波斯文的 Lucene 分析器。
pl.microsoft:適用於波蘭文的 Microsoft 分析器。
pl.lucene:適用於波蘭的 Lucene 分析器。
pt-BR.microsoft:葡萄牙文(巴西)Microsoft分析器。
pt-BR.lucene: 葡萄牙文 (巴西) 的 Lucene 分析器。
pt-PT.microsoft:葡萄牙文Microsoft分析器。
pt-PT.lucene: 葡萄牙的 Lucene 分析器。
pa.microsoft:旁遮普Microsoft分析器。
ro.microsoft:適用於羅馬尼亞文的 Microsoft 分析器。
ro.lucene:羅馬尼亞的 Lucene 分析器。
ru.microsoft:適用於俄文的 Microsoft 分析器。
ru.lucene:適用於俄文的 Lucene 分析器。
sr-cyrillic.microsoft:塞爾維亞文的Microsoft分析器(斯拉夫)。
sr-latin.microsoft:塞爾維亞文(拉丁文)Microsoft分析器。
sk.microsoft:斯洛伐克Microsoft分析器。
sl.microsoft:斯洛維尼亞Microsoft分析器。
es.microsoft:適用於西班牙文的 Microsoft 分析器。
es.lucene:適用於西班牙文的 Lucene 分析器。
sv.microsoft:適用於瑞典的 Microsoft 分析器。
sv.lucene:適用於瑞典的 Lucene 分析器。
ta.microsoft:泰米爾Microsoft分析器。
te.microsoft:適用於 Telugu 的 Microsoft 分析器。
th.microsoft:適用於泰文的Microsoft分析器。
th.lucene:適用於泰文的 Lucene 分析器。
tr.microsoft:適用於土耳其文的 Microsoft 分析器。
tr.lucene:適用於土耳其的 Lucene 分析器。
uk.microsoft:烏克蘭Microsoft分析器。
your.microsoft:適用於烏爾都語的 Microsoft 分析器。
vi.microsoft:適用於越南文的 Microsoft 分析器。
standard.lucene:Standard Lucene 分析器。
standardasciifolding.lucene:標準 ASCII 折迭 Lucene 分析器。 請參閱 https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers
關鍵詞:將欄位的整個內容視為單一標記。 這適用於郵遞區號、標識元和某些產品名稱等數據。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html
模式:彈性地透過正則表示式模式將文字分隔成字詞。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html
簡單:以非字母分割文字,並將其轉換成小寫。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html
停止:以非字母分割文字;套用小寫和停用字詞標記篩選。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html
空格符:使用空格符 Tokenizer 的分析器。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html

LexicalTokenizer

包含 Tokenizer 的可能案例。

LexicalTokenizerName

定義 LexicalTokenizerName 的值。
<xref:KnownLexicalTokenizerName> 可以與 LexicalTokenizerName 交替使用,此列舉包含服務支援的已知值。

服務支援的已知值

傳統:適用於處理大部分歐洲語言檔的文法型Tokenizer。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html
edgeNGram:將邊緣的輸入轉換成指定大小的 n 克。 請參閱 https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html
keyword_v2:發出整個輸入做為單一令牌。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html
字母:將文字分割為非字母。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html
小寫:以非字母分割文字,並將其轉換成小寫。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html
microsoft_language_tokenizer:使用語言特定規則來分割文字。
microsoft_language_stemming_tokenizer:使用語言特定規則來分割文字,並將單字縮減為基底形式。
nGram:將輸入標記化為指定大小的 n-gram。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html
path_hierarchy_v2:類似路徑階層的Tokenizer。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html
模式:使用 regex 模式比對來建構不同令牌的 Tokenizer。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html
standard_v2:標準 Lucene 分析器;由標準 Tokenizer、小寫篩選和停止篩選所組成。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html
uax_url_email:將URL和電子郵件令牌化為一個令牌。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html
空格符:在空格符處分割文字。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html

ListDataSourceConnectionsOptions

清單數據源作業的選項。

ListIndexersOptions

清單索引器作業的選項。

ListIndexesOptions

清單索引作業的選項。

ListSkillsetsOptions

清單技能集作業的選項。

ListSynonymMapsOptions

清單 synonymMaps 作業的選項。

MergeDocumentsOptions

合併檔案作業的選項。

MergeOrUploadDocumentsOptions

合併或上傳檔作業的選項。

MicrosoftStemmingTokenizerLanguage

定義 MicrosoftStemmingTokenizerLanguage 的值。

MicrosoftTokenizerLanguage

定義 MicrosoftTokenizerLanguage 的值。

NarrowedModel

縮小模型類型,只包含選取的欄位

OcrLineEnding

定義 OcrLineEnding 的值。
KnownOcrLineEnding 可以與 OcrLineEnding 交換使用,此列舉包含服務支援的已知值。

服務支援的已知值

空格:行是以單一空格字元分隔。
歸位字元:行會以歸位字元分隔('\r') 字元。
lineFeed:行是以單一換行字元分隔('\n') 字元。
歸位字元ReturnLineFeed:行會以歸位字元和換行字元 ('\r\n') 字元分隔。

OcrSkillLanguage
PIIDetectionSkillMaskingMode
PhoneticEncoder

定義 PhoneticEncoder 的值。

QueryAnswer

值,指定是否應該在搜尋回應中傳回答案。 只有在查詢類型為 'semantic' 時,這個參數才有效。 如果設定為 extractive,則查詢會傳回從最高排名檔中索引鍵段落擷取的答案。

QueryCaption

值,指定是否應該在搜尋回應中傳回標題。 只有在查詢類型為 'semantic' 時,這個參數才有效。 如果設定,查詢會傳回從最高排名檔中索引鍵段落擷取的標題。 當 Captions 為「擷取」時,預設會啟用醒目提示。 默認為 『none』。

QueryType

定義QueryType的值。

RegexFlags
ResetIndexerOptions

重設索引器作業的選項。

RunIndexerOptions

執行索引器作業的選項。

ScoringFunction

包含 ScoringFunction 的可能案例。

ScoringFunctionAggregation

定義 ScoringFunctionAggregation 的值。

ScoringFunctionInterpolation

定義 ScoringFunctionInterpolation 的值。

ScoringStatistics

定義 ScoringStatistics 的值。

SearchField

表示索引定義中的欄位,描述欄位的名稱、數據類型和搜尋行為。

SearchFieldArray

如果 TModel 為不具類型的物件,則為不具類型的字串陣列,否則為 TModel的斜線分隔字段。

SearchFieldDataType

定義 SearchFieldDataType 的值。

服務支援的已知值:

Edm.String:表示字段包含字串。

Edm.Int32:表示欄位包含 32 位帶正負號的整數。

Edm.Int64:表示欄位包含 64 位帶正負號的整數。

Edm.Double:表示欄位包含 IEEE 雙精確度浮點數。

Edm.Boolean:表示欄位包含布爾值 (true 或 false)。

Edm.DateTimeOffset:表示欄位包含日期/時間值,包括時區資訊。

Edm.GeographyPoint:表示欄位在經度和緯度方面包含地理位置。

Edm.ComplexType:表示欄位包含一或多個複雜物件,而該物件又具有其他類型的子字段。

Edm.Single:表示字段包含單精度浮點數。 只有當做為集合類型的一部分使用時,也就是 Collection(Edm.Single)。

Edm.Half:表示字段包含半精確度浮點數。 只有在當做集合類型的一部分使用時,也就是 Collection(Edm.Half)才有效。

Edm.Int16:表示欄位包含 16 位帶正負號的整數。 只有在當做集合類型的一部分使用時,也就是 Collection(Edm.Int16)才有效。

Edm.SByte:表示欄位包含 8 位帶正負號的整數。 只有噹噹做集合類型的一部分使用時,也就是 Collection(Edm.SByte)。

Edm.Byte:表示字段包含 8 位無符號整數。 只有在當做集合類型的一部分使用時,也就是 Collection(Edm.Byte)才有效。

SearchIndexerDataIdentity

包含 SearchIndexerDataIdentity 的可能案例。

SearchIndexerDataSourceType
SearchIndexerSkill

包含技能的可能案例。

SearchIndexingBufferedSenderDeleteDocumentsOptions

SearchIndexingBufferedSenderDeleteDocuments 的選項。

SearchIndexingBufferedSenderFlushDocumentsOptions

SearchIndexingBufferedSenderFlushDocuments 的選項。

SearchIndexingBufferedSenderMergeDocumentsOptions

SearchIndexingBufferedSenderMergeDocuments 的選項。

SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions

SearchIndexingBufferedSenderMergeOrUploadDocuments 的選項。

SearchIndexingBufferedSenderUploadDocumentsOptions

SearchIndexingBufferedSenderUploadDocuments 的選項。

SearchIterator

適用於派特式查詢搜尋結果的反覆運算器。 會在反覆項目期間視需要提出要求。 使用 .byPage() 對每個反覆項目的伺服器提出一個要求。

SearchMode

定義 SearchMode 的值。

SearchOptions

認可完整搜尋要求的選項。

SearchPick

使用有效的認知搜尋 OData $select路徑,深入挑選 T 的欄位。

SearchRequestOptions

篩選、排序、Facet、分頁和其他搜尋查詢行為的參數。

SearchRequestQueryTypeOptions
SearchResult

包含搜尋查詢所找到的檔,加上相關聯的元數據。

SelectArray

如果 TFields 永遠不是,則為不具類型的字串數位,否則為取用型別中其他地方所要使用的縮小 Fields[] 型別。

SelectFields

使用以 T 為根目錄的欄位樹狀結構,產生有效的認知搜尋 OData $select路徑聯集。

SemanticErrorMode
SemanticErrorReason
SemanticSearchResultsType
SentimentSkillLanguage
SimilarityAlgorithm

包含相似性的可能案例。

SnowballTokenFilterLanguage

定義 SnowballTokenFilterLanguage 的值。

SplitSkillLanguage
StemmerTokenFilterLanguage

定義 StemmerTokenFilterLanguage 的值。

StopwordsList

定義 StopwordsList 的值。

SuggestNarrowedModel
SuggestOptions

根據 searchText 擷取建議的選項。

SuggestResult

結果,其中包含建議查詢所找到的檔,加上相關聯的元數據。

TextSplitMode
TextTranslationSkillLanguage
TokenCharacterKind

定義 TokenCharacterKind 的值。

TokenFilter

包含 TokenFilter 的可能案例。

TokenFilterName

定義 TokenFilterName 的值。
<xref:KnownTokenFilterName> 可以與 TokenFilterName 交換使用,此列舉包含服務支援的已知值。

服務支援的已知值

arabic_normalization:套用阿拉伯文正規化程式以正規化正寫的標記篩選。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html
單引號:在單引號後面去除所有字元(包括單引號本身)。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html
asciifolding:如果這類對等專案存在,則會將前 127 個 ASCII 字元中的字母、數位和符號 Unicode 字元轉換成其 ASCII 對等專案。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html
cjk_bigram:形成從標準Tokenizer產生的CJK字詞 bigram。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html
cjk_width:標準化 CJK 寬度差異。 將全角 ASCII 變體折疊成對等的基本拉丁文,並將半角片假名變體折疊成對等的假名。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html
傳統:移除英文擁有者和縮略字中的點。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html
common_grams:為索引編製索引時經常發生的字詞建構 bigrams。 單一字詞仍然編製索引,並覆蓋了 bigrams。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html
edgeNGram_v2:從輸入令牌的正面或背面開始,產生指定大小的 n 克。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html
elision:移除 elisions。 例如,“l'avion” (平面) 會轉換成 “avion” (plane)。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html
german_normalization:根據德國2雪球演算法的啟發學習法,將德文字元正規化。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html
hindi_normalization:將印度文中的文字正規化,以移除拼字變化的一些差異。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html
indic_normalization:以印度語言標準化文字的 Unicode 表示法。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html
keyword_repeat:發出每個傳入令牌兩次,一次作為關鍵詞,一次作為非關鍵詞。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html
kstem:適用於英文的高效能 kstem 篩選。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html
長度:移除太長或太短的字組。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html
限制:在編製索引時限制令牌數目。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html
小寫:將標記文字正規化為小寫。 請參閱 https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html
nGram_v2:產生指定大小的 n 克。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html
persian_normalization:適用於波斯文的正規化。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html
注音:建立注音相符專案的令牌。 請參閱 https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html
porter_stem:使用 Porter 字幹分析演算法來轉換令牌數據流。 請參閱 http://tartarus.org/~martin/PorterStemmer
反向:反轉令牌字串。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html
scandinavian_normalization:標準化使用可互換的斯堪的納維亞字元。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html
scandinavian_folding: 折迭斯堪的納維亞字元 åÅäääÄÄÄ->a 和 öÖøØ->o. 它還歧視使用雙音音 aa, ae, ao, oe 和 oo, 只留下第一個。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html
閃亮:建立令牌的組合做為單一令牌。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html
雪球:使用雪球產生的字幹分析器來干詞的篩選。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html
sorani_normalization:標準化 Sorani 文字的 Unicode 表示法。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html
字幹分析器:語言特定的字幹分析篩選器。 請參閱 https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters
停用字詞:從令牌數據流移除停用字詞。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html
修剪:修剪標記的開頭和尾端空格符。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html
截斷:將字詞截斷為特定長度。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html
唯一的:篩選出與上一個令牌相同的文字標記。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html
大寫:將標記文字正規化為大寫。 請參閱 https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html
word_delimiter:將單字分割成子字詞,並在子字詞群組上執行選擇性轉換。

UnionToIntersection
UploadDocumentsOptions

上傳檔作業的選項。

VectorEncodingFormat

定義 VectorEncodingFormat 的值。
KnownVectorEncodingFormat 可以與 VectorEncodingFormat 交替使用,此列舉包含服務支援的已知值。

服務支援的已知值

packedBit:編碼格式,代表封裝成較寬數據類型的位。

VectorFilterMode
VectorQuery

向量和混合式搜尋查詢的查詢參數。

VectorQueryKind
VectorSearchAlgorithmConfiguration

包含索引編製和/或查詢期間所用演算法的特定組態選項。

VectorSearchAlgorithmKind
VectorSearchAlgorithmMetric
VectorSearchCompression

包含在編製索引或查詢期間所使用之壓縮方法的特定組態選項。

VectorSearchCompressionKind

定義 VectorSearchCompressionKind 的值。
KnownVectorSearchCompressionKind 可以與 VectorSearchCompressionKind 交換使用,此列舉包含服務支援的已知值。

服務支援的已知值

純量量化:純量量化,這是一種壓縮方法。 在純量量化中,原始向量值會透過離散化和表示向量的每個元件,使用縮減的量化值集來壓縮成較窄的類型,藉此減少整體數據大小。
binaryQuantization:二元量化,這是壓縮方法的類型。 在二進位量化中,原始向量值會藉由離散化並代表使用二進位值來表示向量的每個元件,藉此壓縮為較窄的二進位類型,藉此減少整體數據大小。

VectorSearchCompressionTarget

定義 VectorSearchCompressionTarget 的值。
KnownVectorSearchCompressionTarget 可以與 VectorSearchCompressionTarget 交換使用,此列舉包含服務支援的已知值。

服務支援的已知值

int8

VectorSearchVectorizer

包含如何向量化文字向量查詢的組態選項。

VectorSearchVectorizerKind

定義 VectorSearchVectorizerKind 的值。
KnownVectorSearchVectorizerKind 可以與 VectorSearchVectorizerKind 交替使用,此列舉包含服務支援的已知值。

服務支援的已知值

azureOpenAI:在查詢時使用 Azure OpenAI 資源產生內嵌。
customWebApi:在查詢時使用自定義 Web 端點產生內嵌。

VisualFeature

列舉

KnownAnalyzerNames

定義 AnalyzerName 的值。 請參閱 https://docs.microsoft.com/rest/api/searchservice/Language-support

KnownAzureOpenAIModelName

AzureOpenAIModelName 服務接受的已知值。

KnownBlobIndexerDataToExtract

BlobIndexerDataToExtract 服務的已知值。

KnownBlobIndexerImageAction

BlobIndexerImageAction 服務的已知值。

KnownBlobIndexerPDFTextRotationAlgorithm

BlobIndexerPDFTextRotationAlgorithm 服務的已知值。

KnownBlobIndexerParsingMode

BlobIndexerParsingMode 服務的已知值。

KnownCharFilterNames

服務接受的 CharFilterName 已知值。

KnownCustomEntityLookupSkillLanguage

CustomEntityLookupSkillLanguage 服務的已知值。

KnownEntityCategory

服務的已知值 EntityCategory

KnownEntityRecognitionSkillLanguage

EntityRecognitionSkillLanguage 服務的已知值。

KnownImageAnalysisSkillLanguage

ImageAnalysisSkillLanguage 服務的已知值。

KnownImageDetail

服務接受 ImageDetail 的已知值。

KnownIndexProjectionMode

IndexProjectionMode 服務的已知值。

KnownIndexerExecutionEnvironment

IndexerExecutionEnvironment 服務的已知值。

KnownKeyPhraseExtractionSkillLanguage

KeyPhraseExtractionSkillLanguage 服務的已知值。

KnownOcrLineEnding

服務的已知 OcrLineEnding 值。

KnownOcrSkillLanguage

服務接受 OcrSkillLanguage 的已知值。

KnownPIIDetectionSkillMaskingMode

PIIDetectionSkillMaskingMode 服務的已知值。

KnownRegexFlags

RegexFlags 服務的已知值。

KnownSearchAudience

搜尋物件已知值

KnownSearchFieldDataType

SearchFieldDataType 服務的已知值。

KnownSearchIndexerDataSourceType

服務接受的已知值 SearchIndexerDataSourceType

KnownSemanticErrorMode

服務接受的已知 SemanticErrorMode 值。

KnownSemanticErrorReason

服務接受 SemanticErrorReason 的已知值。

KnownSemanticSearchResultsType

服務接受的已知值 SemanticSearchResultsType

KnownSentimentSkillLanguage

服務接受 SentimentSkillLanguage 的已知值。

KnownSplitSkillLanguage

SplitSkillLanguage 服務的已知值。

KnownTextSplitMode

服務接受 TextSplitMode 的已知值。

KnownTextTranslationSkillLanguage

TextTranslationSkillLanguage 服務的已知值。

KnownTokenFilterNames

服務的已知值 TokenFilterName

KnownTokenizerNames

LexicalTokenizerName 服務的已知值。

KnownVectorEncodingFormat

服務的已知值 VectorEncodingFormat

KnownVectorFilterMode

服務的已知值 VectorFilterMode

KnownVectorQueryKind

服務的已知值 VectorQueryKind

KnownVectorSearchAlgorithmKind

服務的已知值 VectorSearchAlgorithmKind

KnownVectorSearchAlgorithmMetric

服務的已知值 VectorSearchAlgorithmMetric

KnownVectorSearchCompressionKind

服務的已知值 VectorSearchCompressionKind

KnownVectorSearchCompressionTarget

服務的已知值 VectorSearchCompressionTarget

KnownVectorSearchVectorizerKind

服務的已知值 VectorSearchVectorizerKind

KnownVisualFeature

服務的已知 VisualFeature 值。

函式

createSynonymMapFromFile(string, string)

用來建立 SynonymMap 對象的協助程式方法。 這是僅限 NodeJS 方法。

odata(TemplateStringsArray, unknown[])

逸出 odata 篩選表示式,以避免使用引用字串常值的錯誤。 範例用法:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

如需支援語法的詳細資訊,請參閱:https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

函式詳細資料

createSynonymMapFromFile(string, string)

用來建立 SynonymMap 對象的協助程式方法。 這是僅限 NodeJS 方法。

function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>

參數

name

string

SynonymMap 的名稱。

filePath

string

包含同義字的檔案路徑(以新行分隔)

傳回

Promise<SynonymMap>

SynonymMap 物件

odata(TemplateStringsArray, unknown[])

逸出 odata 篩選表示式,以避免使用引用字串常值的錯誤。 範例用法:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

如需支援語法的詳細資訊,請參閱:https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

function odata(strings: TemplateStringsArray, values: unknown[]): string

參數

strings

TemplateStringsArray

表達式的字串數位

values

unknown[]

表達式的值陣列

傳回

string