@azure/search-documents package

クラス

AzureKeyCredential

基になるキー値の更新をサポートする静的キーベースの資格情報。

GeographyPoint

グローバル座標内の地理的な点を表します。

IndexDocumentsBatch

インデックスに対して複数のドキュメントを含むバッチ操作を実行するために使用されるクラス。

KnowledgeRetrievalClient

クラスはかつて知識ベースに対して操作を行うものでした。

SearchClient

インデックス内のドキュメントのクエリ、追加、更新、削除など、検索インデックスに対する操作を実行するために使用されるクラス。

SearchIndexClient

インデックス、& シノニムマップの管理 (作成、更新、リスト/削除) 操作を実行するクラス。

SearchIndexerClient

インデクサー、データソース、& スキルセットを管理 (作成、更新、リスト/削除) する操作を実行するクラス。

SearchIndexingBufferedSender

検索インデックスに対してバッファー操作 (追加、更新、削除など) を実行するために使用されるクラス。

インターフェイス

AIServices

AIサービスのパラメータ。

AIServicesAccountIdentity

スキルセットに紐づけられたAzure AIサービスリソースのマルチリージョンアカウントです。

AIServicesAccountKey

スキルセットに紐づけられたAzure AIサービスリソースのアカウントキーで、そのリソースのサブドメインで使われます。

AnalyzeRequest

そのテキストをトークンに分割するために使用されるテキストおよび分析コンポーネントをいくつか指定します。

AnalyzeResult

テキストでアナライザーをテストした結果。

AnalyzedTokenInfo

アナライザーによって返されるトークンに関する情報。

AsciiFoldingTokenFilter

最初の 127 個の ASCII 文字 ("Basic Latin" Unicode ブロック) に含まれていないアルファベット、数字、記号の Unicode 文字を、ASCII に相当する文字に変換します (そのような文字が存在する場合)。 このトークン フィルターは、Apache Lucene を使用して実装されます。

AutocompleteItem

オートコンプリート要求の結果。

AutocompleteRequest

あいまい一致のパラメーター、およびその他のオートコンプリート クエリの動作。

AutocompleteResult

オートコンプリート クエリの結果。

AzureActiveDirectoryApplicationCredentials

Azure Key Vault に格納されている暗号化キーへの認証済みアクセスに使用される、検索サービス用に作成された登録済みアプリケーションの資格情報。

AzureBlobKnowledgeSource

Azure Blob Storage の構成ナレッジ ソース。

AzureBlobKnowledgeSourceParameters

Azure Blob Storage ナレッジ ソースのパラメーター。

AzureBlobKnowledgeSourceParams

Azure BLOB ナレッジ ソースのランタイム パラメーターを指定します。

AzureMachineLearningVectorizer

Azure AI Foundry Model Catalogを通じてデプロイされるAzure Machine Learningエンドポイントを指定し、クエリ文字列のベクトル埋め込みを生成すること。

AzureOpenAIEmbeddingSkill

Azure OpenAI リソースを使用して、特定のテキスト入力のベクター埋め込みを生成できます。

AzureOpenAIParameters

Azure OpenAI リソースに接続するためのパラメーターを指定します。

AzureOpenAIVectorizer

クエリ時のベクター化に Azure Open AI サービスを使用するために固有のパラメーターが含まれています。

BM25Similarity

Okapi BM25 類似性アルゴリズムに基づくランク付け関数。 BM25 は TF-IDF に似たアルゴリズムであり、長さの正規化 ('b' パラメーターによって制御される) と、用語の頻度の飽和 ('k1' パラメーターによって制御) が含まれます。

BaseAzureMachineLearningVectorizerParameters

すべての AML ベクター化認証の種類間で共通のプロパティを指定します。

BaseCharFilter

文字フィルターの基本型。

BaseCognitiveServicesAccount

スキルセットにアタッチされている Azure AI サービス リソースを記述するための基本型。

BaseDataChangeDetectionPolicy

データ変更検出ポリシーの基本の種類。

BaseDataDeletionDetectionPolicy

データ削除検出ポリシーの基本の種類。

BaseKnowledgeBaseActivityRecord

活動レコードの基本タイプ。 ナレッジベース運用の実行詳細、タイミング、エラーを追跡します。

BaseKnowledgeBaseMessageContent

メッセージ コンテンツのタイプを指定します。

BaseKnowledgeBaseModel

クエリ計画に使用するモデルの接続パラメーターを指定します。

BaseKnowledgeBaseReference

参照の基本型。

BaseKnowledgeRetrievalReasoningEffort

推論の努力に基底タイプ。

BaseKnowledgeSource

ナレッジ ソースの定義を表します。

BaseKnowledgeSourceParams

知識ソースのランタイムパラメータの基本型。

BaseKnowledgeSourceVectorizer

知識源埋め込みモデルに使用するベクトル化手法を指定します。

BaseLexicalAnalyzer

アナライザーの基本型。

BaseLexicalNormalizer

ノーマライザーの基本型。

BaseLexicalTokenizer

トークナイザーの基本型。

BaseScoringFunction

ランク付け中にドキュメント スコアを変更できる関数の基本型。

BaseSearchIndexerDataIdentity

データ ID の抽象基本型。

BaseSearchIndexerSkill

スキルの基本型。

BaseSearchRequestOptions

フィルター処理、並べ替え、ファセット、ページング、およびその他の検索クエリ動作のパラメーター。

BaseSimilarityAlgorithm

類似性アルゴリズムの基本型。 類似性アルゴリズムは、クエリをドキュメントに関連付けるスコアを計算するために使用されます。 スコアが高いほど、ドキュメントはその特定のクエリに対して関連性が高くなります。 これらのスコアは、検索結果のランク付けに使用されます。

BaseTokenFilter

トークン フィルターの基本型。

BaseVectorQuery

ベクター検索クエリとハイブリッド検索クエリのクエリ パラメーター。

BaseVectorSearchAlgorithmConfiguration

インデックス作成やクエリの実行中に使用されるアルゴリズムに固有の構成オプションが含まれています。

BaseVectorSearchCompression

インデックス作成またはクエリ中に使用される圧縮方法に固有の構成オプションが含まれています。

BaseVectorSearchVectorizer

クエリ時に使用するベクター化メソッドの特定の詳細が含まれています。

BinaryQuantizationCompression

インデックス作成およびクエリ中に使用されるバイナリ量子化圧縮方法に固有の構成オプションが含まれています。

ChatCompletionResponseFormat

言語モデルの応答をシリアル化する方法を決定します。 デフォルトは「テキスト」です。

ChatCompletionResponseFormatJsonSchemaProperties

JSONスキーマのレスポンス形式に関するプロパティ。

ChatCompletionSchema

モデルが出力を構造化するために使用するカスタムスキーマを定義するオブジェクト。

ChatCompletionSkill

Azure AI FoundryのChat Completionsエンドポイントを通じて言語モデルを呼び出しるスキルです。

CjkBigramTokenFilter

標準トークナイザーから生成される CJK 用語のビグラムを形成します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

ClassicSimilarity

TF-IDF の Lucene TFIDFSimilarity 実装を使用する従来の類似性アルゴリズム。 この TF-IDF のバリエーションでは、静的ドキュメントの長さの正規化と、検索されたクエリの一部にのみ一致するドキュメントに対する影響を受け取る調整要因が導入されています。

ClassicTokenizer

ほとんどのヨーロッパ言語ドキュメントの処理に適した文法ベースのトークナイザー。 このトークナイザーは、Apache Lucene を使用して実装されます。

CognitiveServicesAccountKey

スキルセットにアタッチされている Azure AI サービス リソースのマルチリージョン アカウント キー。

CommonGramTokenFilter

インデックス作成中に頻繁に発生する用語のビグラムを構築します。 単一の用語もインデックスが作成され、バイグラムが重なっています。 このトークン フィルターは、Apache Lucene を使用して実装されます。

CommonModelParameters

チャット完了の共通言語モデル パラメーター。 省略すると、デフォルト値が使用されます。

CompletedSynchronizationState

最後の同期の完了状態を表します。

ComplexField

インデックス定義内のフィールドを表します。フィールドの名前、データ型、および検索動作を表します。

ConditionalSkill

ブール演算を必要とするシナリオで、出力に割り当てるデータを決定できるようにするスキル。

ContentUnderstandingSkill

Azure AIコンテンツ理解を活用して文書から構造化されたインサイトを処理・抽出し、文書のインデックス作成と検索性を高める充実した検索可能なコンテンツを実現します。

ContentUnderstandingSkillChunkingProperties

コンテンツをチャンクするためのカーディナリティを制御します。

CorsOptions

インデックスのクロスオリジン リソース共有 (CORS) を制御するオプションを定義します。

CreateKnowledgeBaseOptions
CreateKnowledgeSourceOptions
CreateOrUpdateAliasOptions

エイリアスの作成または更新操作のオプション。

CreateOrUpdateIndexOptions

インデックスの作成/更新操作のオプション。

CreateOrUpdateKnowledgeBaseOptions
CreateOrUpdateKnowledgeSourceOptions
CreateOrUpdateSkillsetOptions

スキルセットの作成/更新操作のオプション。

CreateOrUpdateSynonymMapOptions

シノニムマップの作成/更新操作のオプション。

CreateorUpdateDataSourceConnectionOptions

データソースの作成/更新操作のオプション。

CreateorUpdateIndexerOptions

インデクサーの作成/更新操作のオプション。

CustomAnalyzer

テキストをインデックス可能/検索可能なトークンに変換するプロセスを制御できます。 これは、1 つの定義済みのトークナイザーと 1 つ以上のフィルターで構成されるユーザー定義の構成です。 トークナイザーは、テキストをトークンに分割し、トークナイザーによって出力されるトークンを変更するためのフィルターを担当します。

CustomEntity

検出された一致と関連するメタデータに関する情報を含むオブジェクト。

CustomEntityAlias

ルート エンティティ名の代替のスペルまたはシノニムを指定するために使用できる複合オブジェクト。

CustomEntityLookupSkill

スキルは、ユーザー定義の単語と語句のカスタム リストからテキストを検索します。

CustomLexicalNormalizer

フィルター可能、並べ替え可能、ファセット可能なフィールドの正規化を構成できます。既定では、厳密な照合で動作します。 これは、格納されるトークンを変更する、少なくとも 1 つ以上のフィルターで構成されるユーザー定義の構成です。

DefaultCognitiveServicesAccount

スキルセットの既定の Azure AI サービス リソースを表す空のオブジェクト。

DeleteAliasOptions

エイリアスの削除操作のオプション。

DeleteDataSourceConnectionOptions

データソースの削除操作のオプション。

DeleteIndexOptions

インデックスの削除操作のオプション。

DeleteIndexerOptions

インデクサーの削除操作のオプション。

DeleteKnowledgeBaseOptions
DeleteKnowledgeSourceOptions
DeleteSkillsetOptions

スキルセットの削除操作のオプション。

DeleteSynonymMapOptions

シノニムマップの削除操作のオプション。

DictionaryDecompounderTokenFilter

多くのゲルマン語で見つかった複合語を分解します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

DistanceScoringFunction

地理的な場所からの距離に基づいてスコアをブーストする関数を定義します。

DistanceScoringParameters

距離スコアリング関数にパラメーター値を提供します。

DocumentDebugInfo

検索結果をさらに探索するために使用できるデバッグ情報が含まれています。

DocumentExtractionSkill

エンリッチメント パイプライン内のファイルからコンテンツを抽出するスキル。

DocumentIntelligenceLayoutSkill

エンリッチメント パイプライン内のファイルから、Azure AI Services を介してコンテンツとレイアウト情報 (マークダウンとして) を抽出するスキル。

DocumentIntelligenceLayoutSkillChunkingProperties

コンテンツをチャンクするためのカーディナリティを制御します。

EdgeNGramTokenFilter

入力トークンの前面または背面から始まる、指定されたサイズの n グラムを生成します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

EdgeNGramTokenizer

エッジからの入力を特定のサイズの n グラムにトークン化します。 このトークナイザーは、Apache Lucene を使用して実装されます。

ElisionTokenFilter

エリジオンを削除します。 たとえば、"l'avion" (平面) は "avion" (平面) に変換されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

EntityLinkingSkill

Text Analytics API を使用して、リンクされたエンティティをテキストから抽出します。

EntityRecognitionSkill

テキスト分析エンティティの認識。

EntityRecognitionSkillV3

Text Analytics API を使用して、テキストからさまざまな種類のエンティティを抽出します。

ExhaustiveKnnParameters

完全な KNN アルゴリズムに固有のパラメーターが含まれています。

ExtractiveQueryAnswer

自然言語で質問として表現されたクエリに応答して返されたドキュメントの内容から回答候補を抽出します。

ExtractiveQueryCaption

検索クエリに関連する一節を含む一致するドキュメントからキャプションを抽出します。

FacetResult

ファセット クエリ結果の 1 つのバケット。 フィールド値が特定の範囲内または特定の値または間隔を持つドキュメントの数を報告します。

FieldMapping

データ ソース内のフィールドとインデックス内のターゲット フィールドの間のマッピングを定義します。

FieldMappingFunction

インデックス作成の前にデータ ソースから値を変換する関数を表します。

FreshnessScoringFunction

日時フィールドの値に基づいてスコアをブーストする関数を定義します。

FreshnessScoringParameters

新度スコアリング関数にパラメーター値を提供します。

GenerativeQueryRewrites

検索要求の呼び戻しを増やすために、代替クエリ用語を生成します。

GetDocumentOptions

1 つのドキュメントを取得するためのオプション。

GetKnowledgeBaseOptions
GetKnowledgeSourceOptions
GetKnowledgeSourceStatusOptions
HighWaterMarkChangeDetectionPolicy

高基準列の値に基づいて変更をキャプチャするデータ変更検出ポリシーを定義します。

HnswParameters

hnsw アルゴリズムに固有のパラメーターを格納します。

ImageAnalysisSkill

画像ファイルを分析するスキル。 画像の内容に基づいて、豊富なビジュアル機能のセットを抽出します。

IndexDocumentsClient

Index Documents クライアント

IndexDocumentsOptions

インデックスのバッチ変更操作のオプション。

IndexDocumentsResult

インデックス作成要求内のすべてのドキュメントの操作の状態を含む応答。

IndexedOneLakeKnowledgeSource

OneLake ナレッジ ソースの構成。

IndexedOneLakeKnowledgeSourceParameters

OneLake ナレッジ ソースのパラメーター。

IndexedOneLakeKnowledgeSourceParams

インデックス付き OneLake ナレッジ ソースのランタイム パラメーターを指定します

IndexerExecutionResult

個々のインデクサー実行の結果を表します。

IndexingParameters

インデクサー実行のパラメーターを表します。

IndexingParametersConfiguration

インデクサー固有の構成プロパティのディクショナリ。 各名前は、特定のプロパティの名前です。 各値はプリミティブ型である必要があります。

IndexingResult

1 つのドキュメントのインデックス作成操作の状態。

IndexingSchedule

インデクサー実行のスケジュールを表します。

InputFieldMappingEntry

スキルの入力フィールド マッピング。

KeepTokenFilter

指定した単語の一覧に含まれるテキストを持つトークンのみを保持するトークン フィルター。 このトークン フィルターは、Apache Lucene を使用して実装されます。

KeyAuthAzureMachineLearningVectorizerParameters

認証キーを使用して AML ベクタライザーに接続するためのプロパティを指定します。

KeyPhraseExtractionSkill

キー フレーズ抽出にテキスト分析を使用するスキル。

KeywordMarkerTokenFilter

用語をキーワードとしてマークします。 このトークン フィルターは、Apache Lucene を使用して実装されます。

KeywordTokenizer

入力全体を 1 つのトークンとして出力します。 このトークナイザーは、Apache Lucene を使用して実装されます。

KnowledgeBase
KnowledgeBaseAgenticReasoningActivityRecord

エージェント推論アクティビティー・レコードを表します。

KnowledgeBaseAzureBlobReference

Azure Blob Storage ドキュメント参照を表します。

KnowledgeBaseAzureOpenAIModel

クエリ計画の実行に使用する Azure OpenAI リソースを指定します。

KnowledgeBaseErrorAdditionalInfo

リソース管理エラーの追加情報。

KnowledgeBaseErrorDetail

エラーの詳細。

KnowledgeBaseIndexedOneLakeReference

インデックス付きOneLakeドキュメント参照を表します。

KnowledgeBaseMessage

自然言語メッセージスタイルオブジェクト。

KnowledgeBaseMessageImageContent

画像メッセージの種類。

KnowledgeBaseMessageImageContentImage

画像の内容。

KnowledgeBaseMessageTextContent

テキストメッセージの種類。

KnowledgeBaseModelWebSummarizationActivityRecord

LLMのウェブ要約活動レコードを表します。

KnowledgeBaseRetrievalRequest

取得要求の入力コントラクト。

KnowledgeBaseRetrievalResponse

取得応答の出力コントラクト。

KnowledgeBaseSearchIndexReference

Azure Search ドキュメント参照を表します。

KnowledgeBaseWebReference

Web ドキュメント参照を表します。

KnowledgeRetrievalClientOptions

Cognitive Search API 要求の構成に使用されるクライアント オプション。

KnowledgeRetrievalIntent

モデルクエリの計画なしに実行される意図されたクエリ。

KnowledgeRetrievalMinimalReasoningEffort

最小限の推論で知識検索を実行しましょう。

KnowledgeRetrievalSemanticIntent

意味論的なクエリの意図です。

KnowledgeSourceAzureOpenAIVectorizer

クエリ文字列のベクトル化に使用される Azure OpenAI リソースを指定します。

KnowledgeSourceIngestionParameters

ナレッジ ソースのすべての一般的な取り込み設定を統合します。

KnowledgeSourceReference

知識源への言及。

KnowledgeSourceStatistics

ナレッジ ソースの同期履歴に関する統計情報。

KnowledgeSourceStatus

ナレッジ ソースの状態と同期履歴を表します。

KnowledgeSourceSynchronizationError

ナレッジソース同期実行中に遭遇したドキュメントレベルのインデックスエラーを表します。

LanguageDetectionSkill

入力テキストの言語を検出し、要求で送信されたすべてのドキュメントに対して 1 つの言語コードを報告するスキル。 言語コードは、分析の信頼度を示すスコアとペアになっています。

LengthTokenFilter

長すぎる単語または短すぎる単語を削除します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

LimitTokenFilter

インデックス作成中のトークンの数を制限します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

ListKnowledgeBasesOptions
ListKnowledgeSourcesOptions
ListSearchResultsPageSettings

検索結果の次のページを取得するための引数。

LuceneStandardAnalyzer

Standard Apache Lucene アナライザー。標準トークナイザー、小文字フィルター、および停止フィルターで構成されます。

LuceneStandardTokenizer

Unicode テキストのセグメント化ルールに従ってテキストを区切ります。 このトークナイザーは、Apache Lucene を使用して実装されます。

MagnitudeScoringFunction

数値フィールドの大きさに基づいてスコアをブーストする関数を定義します。

MagnitudeScoringParameters

パラメーター値をマグニチュード スコアリング関数に提供します。

MappingCharFilter

マッピング オプションで定義されたマッピングを適用する文字フィルター。 一致は最長一致です (特定のポイントで最も長いパターン マッチングが優先されます)。 置換は空の文字列にすることができます。 この文字フィルターは、Apache Lucene を使用して実装されます。

MergeSkill

2 つ以上の文字列を 1 つの統合文字列にマージするスキル。オプションのユーザー定義区切り記号で各コンポーネント部分を区切ります。

MicrosoftLanguageStemmingTokenizer

言語固有のルールを使用してテキストを分割し、単語を基本フォームに減らします。

MicrosoftLanguageTokenizer

言語固有のルールを使用してテキストを分割します。

NGramTokenFilter

指定されたサイズの n グラムを生成します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

NGramTokenizer

指定したサイズの n グラムに入力をトークン化します。 このトークナイザーは、Apache Lucene を使用して実装されます。

NativeBlobSoftDeleteDeletionDetectionPolicy

Azure Blob Storage のネイティブの論理的な削除機能を使用して削除検出を行うデータ削除検出ポリシーを定義します。

NoAuthAzureMachineLearningVectorizerParameters

認証なしで AML ベクタライザーに接続するためのプロパティを指定します。

OcrSkill

画像ファイルからテキストを抽出するスキル。

OutputFieldMappingEntry

スキルの出力フィールド マッピング。

PIIDetectionSkill

Text Analytics API を使用して、入力テキストから個人情報を抽出し、それをマスクするオプションを提供します。

PageSettings

byPage メソッドのオプション

PagedAsyncIterableIterator

完了とページごとの非同期反復を可能にするインターフェイス。

PathHierarchyTokenizer

パスに似た階層のトークナイザー。 このトークナイザーは、Apache Lucene を使用して実装されます。

PatternAnalyzer

正規表現パターンを使用して、テキストを用語に柔軟に分割します。 このアナライザーは、Apache Lucene を使用して実装されます。

PatternCaptureTokenFilter

Java 正規表現を使用して、1 つ以上のパターンでキャプチャ グループごとに 1 つずつ、複数のトークンを出力します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

PatternReplaceCharFilter

入力文字列内の文字を置き換える文字フィルター。 正規表現を使用して保持する文字シーケンスを識別し、置換する文字を識別する置換パターンを使用します。 たとえば、入力テキスト "aa bb aa bb"、パターン "(aa)\s+(bb)"、置換後の "$1#$2" を指定すると、結果は "aa#bb aa#bb" になります。 この文字フィルターは、Apache Lucene を使用して実装されます。

PatternReplaceTokenFilter

入力文字列内の文字を置き換える文字フィルター。 正規表現を使用して保持する文字シーケンスを識別し、置換する文字を識別する置換パターンを使用します。 たとえば、入力テキスト "aa bb aa bb"、パターン "(aa)\s+(bb)"、置換後の "$1#$2" を指定すると、結果は "aa#bb aa#bb" になります。 このトークン フィルターは、Apache Lucene を使用して実装されます。

PatternTokenizer

正規表現パターン マッチングを使用して個別のトークンを構築するトークナイザー。 このトークナイザーは、Apache Lucene を使用して実装されます。

PhoneticTokenFilter

ふりがなのトークンを作成します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

QueryAnswerResult

回答は、クエリに一致した最も関連性の高いドキュメントの内容から抽出されたテキストの一節です。 回答は上位の検索結果から抽出されます。 回答候補がスコア付けされ、上位の回答が選択されます。

QueryCaptionResult

キャプションは、ドキュメントから検索クエリまでの最も代表的な一節です。 多くの場合、ドキュメントの概要として使用されます。 キャプションは、semantic型のクエリに対してのみ返されます。

QueryResultDocumentSemanticField

セマンティック エンリッチメント プロセスに送信されたフィールドの説明と、その使用方法

QueryResultDocumentSubscores

このドキュメントの検索クエリのテキスト クエリ コンポーネントとベクター クエリ コンポーネント間のサブスコアの内訳。 各ベクター クエリは、受信したのと同じ順序で個別のオブジェクトとして表示されます。

RescoringOptions

再スコアリングのオプションが含まれています。

ResourceCounter

リソースの使用量とクォータを表します。

RetrieveOptions
ScalarQuantizationCompression

インデックス作成およびクエリ中に使用されるスカラー量子化圧縮方法に固有の構成オプションが含まれています。

ScalarQuantizationParameters

スカラー量子化に固有のパラメーターを格納します。

ScoringProfile

検索クエリのスコア付けに影響を与える検索インデックスのパラメーターを定義します。

SearchAlias

エイリアス名からインデックスへのマッピングを表すインデックス エイリアスを表します。 エイリアス名は、サポートされている操作のインデックス名の代わりに使用できます。

SearchClientOptions

AI Search API リクエストの構成に使用されるクライアント オプション。

SearchDocumentsPageResult

インデックスからの検索ページの結果を含む応答。

SearchDocumentsResult

インデックスからの検索結果を含む応答。

SearchDocumentsResultBase

インデックスからの検索結果を含む応答。

SearchIndex

インデックスのフィールドと検索動作を記述する検索インデックス定義を表します。

SearchIndexClientOptions

AI Search API リクエストの構成に使用されるクライアント オプション。

SearchIndexFieldReference

検索インデックスのフィールド参照。

SearchIndexKnowledgeSource

検索インデックスを対象とするナレッジ ソース。

SearchIndexKnowledgeSourceParameters

検索インデックスナレッジソースのパラメーター。

SearchIndexKnowledgeSourceParams

検索インデックスナレッジソースのランタイムパラメータを指定します

SearchIndexStatistics

特定のインデックスの統計。 統計は定期的に収集され、常に -date up-toされるとは限りません。

SearchIndexer

インデクサーを表します。

SearchIndexerClientOptions

AI Search API リクエストの構成に使用されるクライアント オプション。

SearchIndexerDataContainer

インデックスが作成されるエンティティ (Azure SQL テーブルや CosmosDB コレクションなど) に関する情報を表します。

SearchIndexerDataNoneIdentity

データソースの ID プロパティをクリアします。

SearchIndexerDataSourceConnection

インデクサーの構成に使用できるデータソース定義を表します。

SearchIndexerDataUserAssignedIdentity

使用するデータソースの ID を指定します。

SearchIndexerError

アイテム レベルまたはドキュメント レベルのインデックス作成エラーを表します。

SearchIndexerIndexProjection

セカンダリ検索インデックスへの追加プロジェクションの定義。

SearchIndexerIndexProjectionParameters

インデックス プロジェクション固有の構成プロパティのディクショナリ。 各名前は、特定のプロパティの名前です。 各値はプリミティブ型である必要があります。

SearchIndexerIndexProjectionSelector

指定された検索インデックスに格納するデータの説明。

SearchIndexerKnowledgeStore

エンリッチされたデータの Azure BLOB、テーブル、またはファイルへの追加プロジェクションの定義。

SearchIndexerKnowledgeStoreBlobProjectionSelector

具象セレクター間でプロパティを共有する抽象クラス。

SearchIndexerKnowledgeStoreFileProjectionSelector

Azure Files に格納するデータのプロジェクション定義。

SearchIndexerKnowledgeStoreObjectProjectionSelector

Azure BLOB に格納するデータのプロジェクション定義。

SearchIndexerKnowledgeStoreParameters

ナレッジ ストア固有の構成プロパティのディクショナリ。 各名前は、特定のプロパティの名前です。 各値はプリミティブ型である必要があります。

SearchIndexerKnowledgeStoreProjection

さまざまなプロジェクション セレクターのコンテナー オブジェクト。

SearchIndexerKnowledgeStoreProjectionSelector

具象セレクター間でプロパティを共有する抽象クラス。

SearchIndexerKnowledgeStoreTableProjectionSelector

Azure テーブルに格納するデータの説明。

SearchIndexerLimits

インデクサーに適用可能な制限を表します。

SearchIndexerSkillset

スキルの一覧。

SearchIndexerStatus

インデクサーの現在の状態と実行履歴を表します。

SearchIndexerWarning

項目レベルの警告を表します。

SearchIndexingBufferedSenderOptions

SearchIndexingBufferedSender のオプション。

SearchResourceEncryptionKey

Azure Key Vault のカスタマー マネージド暗号化キー。 作成および管理するキーを使用して、インデックスやシノニム マップなどの Azure AI 検索 の保存データを暗号化または復号化できます。

SearchServiceStatistics

サービス統計情報の取得要求からの応答。 成功した場合は、サービス レベルのカウンターと制限が含まれます。

SemanticConfiguration

セマンティック機能のコンテキストで使用する特定の構成を定義します。

SemanticDebugInfo

セマンティック検索クエリのデバッグ オプション。

SemanticField

セマンティック構成の一部として使用されるフィールド。

SemanticPrioritizedFields

セマンティック ランク付け、キャプション、強調表示、回答に使用するタイトル、コンテンツ、キーワードのフィールドについて説明します。

SemanticSearch

セマンティック機能に影響を与える検索インデックスのパラメーターを定義します。

SemanticSearchOptions

セマンティック検索クエリのオプションを定義します

SentimentSkill

テキスト分析の肯定的-否定的なセンチメント分析。0 から 1 の範囲の浮動小数点値としてスコア付けされます。

SentimentSkillV3

Text Analytics API を使用して、非構造化テキストを評価し、各レコードに対して、文とドキュメント レベルでサービスによって検出された最高の信頼度スコアに基づいてセンチメント ラベル ("負"、"ニュートラル"、"肯定的"など) を提供します。

ServiceCounters

サービス レベルのリソース カウンターとクォータを表します。

ServiceLimits

さまざまなサービス レベルの制限を表します。

ShaperSkill

出力を再整形するためのスキル。 複合フィールド (マルチパート フィールドとも呼ばれます) をサポートする複合型が作成されます。

ShingleTokenFilter

トークンの組み合わせを 1 つのトークンとして作成します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

SimpleField

インデックス定義内のフィールドを表します。フィールドの名前、データ型、および検索動作を表します。

SingleVectorFieldResult

1 つのベクター フィールドの結果。 両方

SnowballTokenFilter

Snowball で生成されたステマーを使用して単語の語幹を読み上めるフィルター。 このトークン フィルターは、Apache Lucene を使用して実装されます。

SoftDeleteColumnDeletionDetectionPolicy

論理的な削除戦略を実装するデータ削除検出ポリシーを定義します。 指定された "論理的な削除" 列の値に基づいて、アイテムを削除するかどうかを決定します。

SplitSkill

文字列をテキストのチャンクに分割するスキル。

SqlIntegratedChangeTrackingPolicy

Azure SQL Database の統合変更追跡機能を使用して変更をキャプチャするデータ変更検出ポリシーを定義します。

StemmerOverrideTokenFilter

ユーザー辞書ベースのステミングを使用して、他のステミング フィルターをオーバーライドする機能を提供します。 辞書で語幹を付けた用語はキーワードとしてマークされるため、チェーンの下にあるステマーで語幹を付けないようにします。 ステミング フィルターの前に配置する必要があります。 このトークン フィルターは、Apache Lucene を使用して実装されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/StemmerOverrideFilter.html を参照してください

StemmerTokenFilter

言語固有のステミング フィルター。 このトークン フィルターは、Apache Lucene を使用して実装されます。 https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters を参照してください

StopAnalyzer

テキストを文字以外で除算します。小文字とストップワードのトークン フィルターを適用します。 このアナライザーは、Apache Lucene を使用して実装されます。

StopwordsTokenFilter

トークン ストリームからストップ ワードを削除します。 このトークン フィルターは、Apache Lucene を使用して実装されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html を参照してください

SuggestDocumentsResult

インデックスからの提案クエリ結果を含む応答。

SuggestRequest

フィルター処理、並べ替え、あいまい一致、およびその他の検索候補のクエリ動作のパラメーター。

Suggester

Suggest API をインデックス内のフィールドのグループに適用する方法を定義します。

SynchronizationState

複数のインデクサー実行にまたがる進行中の同期の現在の状態を表します。

SynonymMap

シノニム マップ定義を表します。

SynonymTokenFilter

トークン ストリーム内の単一または複数単語のシノニムと一致します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

TagScoringFunction

特定のタグのリストに一致する文字列値を持つドキュメントのスコアを向上させる関数を定義します。

TagScoringParameters

タグ スコアリング関数にパラメーター値を提供します。

TextResult

クエリのテキスト部分の BM25 またはクラシック スコア。

TextTranslationSkill

ある言語から別の言語にテキストを翻訳するスキル。

TextWeights

検索クエリでスコアリングを向上させる必要がある一致するインデックス フィールドの重みを定義します。

TokenAuthAzureMachineLearningVectorizerParameters

マネージド ID を使用して AML ベクターライザーに接続するためのプロパティを指定します。

TruncateTokenFilter

用語を特定の長さに切り捨てます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

UaxUrlEmailTokenizer

URL と電子メールを 1 つのトークンとしてトークン化します。 このトークナイザーは、Apache Lucene を使用して実装されます。

UniqueTokenFilter

前のトークンと同じテキストを持つトークンを除外します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

VectorSearch

ベクター検索に関連する構成オプションが含まれています。

VectorSearchOptions

ベクター検索クエリのオプションを定義します

VectorSearchProfile

ベクター検索で使用する構成の組み合わせを定義します。

VectorizableImageBinaryQuery

ベクター化する必要があるイメージの base 64 でエンコードされたバイナリが指定されている場合に、ベクター検索に使用するクエリ パラメーター。

VectorizableImageUrlQuery

ベクター化する必要がある画像値を表す URL が指定されている場合に、ベクター検索に使用するクエリ パラメーター。

VectorizableTextQuery

ベクター化する必要があるテキスト値が指定されている場合にベクター検索に使用するクエリ パラメーター。

VectorizedQuery

生のベクター値が指定されたときにベクター検索に使用するクエリ パラメーター。

VectorsDebugInfo

「ベクトルおよびハイブリッド探索に特化したデバッグ情報を含みます。」)

WebApiParameters

ユーザー定義ベクターライザーに接続するためのプロパティを指定します。

WebApiSkill

Web API エンドポイントを呼び出すことができるスキル。カスタム コードを呼び出すことでスキルセットを拡張できます。

WebApiVectorizer

クエリ文字列のベクター埋め込みを生成するためのユーザー定義ベクターライザーを指定します。 外部ベクターライザーの統合は、スキルセットのカスタム Web API インターフェイスを使用して実現されます。

WebKnowledgeSource

Web 結果をターゲットとするナレッジ ソース。

WebKnowledgeSourceDomain

Web ナレッジ ソース ドメインの構成。

WebKnowledgeSourceDomains

Web ナレッジ ソースのドメイン許可/ブロック構成。

WebKnowledgeSourceParameters

Web ナレッジ ソースのパラメーター。

WebKnowledgeSourceParams

Web ナレッジ ソースのランタイム パラメーターを指定します

WordDelimiterTokenFilter

単語をサブワードに分割し、サブワード グループに対してオプションの変換を実行します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

型エイリアス

AIFoundryModelCatalogName

Azure AI Foundryカタログの埋め込みモデルの名前です。
KnownAIFoundryModelCatalogName は AIFoundryModelCatalogName と同じ意味で使用でき、この列挙型にはサービスがサポートする既知の値が含まれています。

サービスでサポートされている既知の値

OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32: OpenAI-CLIP-IMAGE-Text-Embeddings-vit-base-patch32
OpenAI-CLIP-画像-テキスト埋め込み-ViT-Large-Patch14-336: OpenAI-CLIP-画像-テキスト埋め込み-ViT-Large-Patch14-336
Facebook-DinoV2-画像埋め込み-ViT-Base: Facebook-DinoV2-画像埋め込み-ViT-Base
Facebook-DinoV2-画像埋め込み-ViT-Giant: Facebook-DinoV2-画像埋め込み-ViT-Giant
Cohere-embed-v3-english: Cohere-embed-v3-english
Cohere-embed-v3-multilingual: Cohere-embed-v3-multilingual
Cohere-embed-v4: テキストと画像の両方から埋め込みを生成するための Cohere embed v4 モデル。

AliasIterator

Search サービスに存在するエイリアスを一覧表示するための反復子。 これにより、イテレーション中に必要に応じて要求が行われます。 .byPage() を使用して、反復処理ごとにサーバーに 1 つの要求を行います。

AnalyzeTextOptions

テキスト分析操作のオプション。

AutocompleteMode

オートコンプリートのモードを指定します。 デフォルトは「oneTerm」です。 'twoTerms' を使用して帯状疱疹を取得し、'oneTermWithContext' を使用して現在のコンテキストを使用してオートコンプリート用語を生成します。

AutocompleteOptions

部分 searchText の入力候補テキストを取得するためのオプション。

AzureMachineLearningVectorizerParameters

AML ベクターライザーに接続するためのプロパティを指定します。

AzureOpenAIModelName

呼び出される Azure Open AI モデル名。
KnownAzureOpenAIModelName を AzureOpenAIModelName と同じ意味で使用できる、この列挙型には、サービスがサポートする既知の値が含まれています。

サービスでサポートされている既知の値

text-embedding-ada-002: TextEmbeddingAda002モデル。
text-embedding-3-large: TextEmbedding3Large モデル。
text-embedding-3-small: TextEmbedding3Small モデル。
GPT-5-mini:GPT5ミニモデル。
GPT-5-nano:Gpt5Nanoモデル。
GPT-5.4-mini:GPT54ミニモデル。
GPT-5.4-nano:Gpt54Nanoモデル。

BaseKnowledgeRetrievalIntent

Alias for KnowledgeRetrievalIntentUnion

BlobIndexerDataToExtract
BlobIndexerImageAction
BlobIndexerPDFTextRotationAlgorithm
BlobIndexerParsingMode
CharFilter

CharFilter の場合に使用できるケースが含まれます。

CharFilterName

検索エンジンでサポートされているすべての文字フィルターの名前を定義します。
CharFilterName と同じ意味で使用できる <xref:KnownCharFilterName>、この列挙型には、サービスがサポートする既知の値が含まれています。

サービスでサポートされている既知の値

html_strip: HTML コンストラクトを除去しようとする文字フィルター。 https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html を参照してください

ChatCompletionExtraParametersBehavior

Azure AI Foundryが「extraParameters」をどのように扱うべきかを規定しています。 デフォルトは「error」です。
KnownChatCompletionExtraParametersBehavior は ChatCompletionExtraParametersBehavior と同じ意味で使用でき、この列挙型にはサービスがサポートする既知の値が含まれています。

サービスでサポートされている既知の値

passThrough: 追加のパラメータをモデルに直接渡します。
drop: 余分なパラメータをすべて削除します。
error: 余分なパラメータが存在する場合にエラーを発生させます。

ChatCompletionResponseFormatType

LLM が応答をフォーマットする方法を指定します。
KnownChatCompletionResponseFormatType は ChatCompletionResponseFormatType と同じ意味で使用でき、この列挙型にはサービスがサポートする既知の値が含まれています。

サービスでサポートされている既知の値

テキスト:プレーンテキストの応答形式。
jsonObject: 任意のJSONオブジェクト応答形式。
jsonSchema: JSON schema に準拠した応答形式。

CjkBigramTokenFilterScripts

CjkBigramTokenFilter によって無視できるスクリプト。

CognitiveServicesAccount

CognitiveServicesAccount の可能性のあるケースが含まれています。

ComplexDataType

ComplexDataType の値を定義します。 指定できる値は、'Edm.ComplexType'、'Collection(Edm.ComplexType)' です。

ContentUnderstandingSkillChunkingUnit

チャンク単位のカーディナリティを制御します。 デフォルトは「文字」です
KnownContentUnderstandingSkillChunkingUnit はContentUnderstandingSkillChunkingUnitと同義使用可能で、この列挙体はサービスがサポートする既知の値を示しています。

サービスでサポートされている既知の値

characters: チャンクを文字単位で指定します。

ContentUnderstandingSkillExtractionOptions

スキルによってドキュメントから抽出されたコンテンツのカーディナリティを制御します。
KnownContentUnderstandingSkillExtractionOptions はContentUnderstandingSkillExtractionOptionsと互換的に使用可能で、この列挙はサービスがサポートする既知の値を示します。

サービスでサポートされている既知の値

images: ドキュメントから画像コンテンツを抽出することを指定します。
locationMetadata: ドキュメントから場所のメタデータを抽出するように指定します。

ContinuablePage

結果のページを記述するインターフェイス。

CountDocumentsOptions

インデックスに対してカウント操作を実行するためのオプション。

CreateAliasOptions

エイリアスの作成操作のオプション。

CreateDataSourceConnectionOptions

データソースの作成操作のオプション。

CreateIndexOptions

インデックス作成操作のオプション。

CreateIndexerOptions

インデクサーの作成操作のオプション。

CreateSkillsetOptions

スキルセット操作を作成するためのオプション。

CreateSynonymMapOptions

シノニムマップの作成操作のオプション。

CustomEntityLookupSkillLanguage
DataChangeDetectionPolicy

DataChangeDetectionPolicy で使用できるケースが含まれています。

DataDeletionDetectionPolicy

DataDeletionDetectionPolicy で使用できるケースが含まれています。

DeleteDocumentsOptions

ドキュメントの削除操作のオプション。

DocumentIntelligenceLayoutSkillChunkingUnit

チャンク単位のカーディナリティを制御します。 デフォルトは「文字」です
KnownDocumentIntelligenceLayoutSkillChunkingUnit は DocumentIntelligenceLayoutSkillChunkingUnit と同じ意味で使用でき、この列挙型にはサービスがサポートする既知の値が含まれています。

サービスでサポートされている既知の値

characters: チャンクを文字単位で指定します。

DocumentIntelligenceLayoutSkillExtractionOptions

スキルによってドキュメントから抽出されたコンテンツのカーディナリティを制御します。
KnownDocumentIntelligenceLayoutSkillExtractionOptions は DocumentIntelligenceLayoutSkillExtractionOptions と同じ意味で使用でき、この列挙型にはサービスがサポートする既知の値が含まれます。

サービスでサポートされている既知の値

images: ドキュメントから画像コンテンツを抽出することを指定します。
locationMetadata: ドキュメントから場所のメタデータを抽出するように指定します。

DocumentIntelligenceLayoutSkillMarkdownHeaderDepth

マークダウン出力のヘッダーの深さ。 既定値は h6 です。
KnownDocumentIntelligenceLayoutSkillMarkdownHeaderDepth は、DocumentIntelligenceLayoutSkillMarkdownHeaderDepth と同じ意味で使用でき、この列挙型には、サービスがサポートする既知の値が含まれています。

サービスでサポートされている既知の値

h1: ヘッダー レベル 1。
h2: ヘッダー レベル 2。
h3: ヘッダー レベル 3。
h4: ヘッダー レベル 4。
h5: ヘッダー レベル 5。
h6: ヘッダー レベル 6。

DocumentIntelligenceLayoutSkillOutputFormat

出力形式のカーディナリティを制御します。 デフォルトは「markdown」です。
KnownDocumentIntelligenceLayoutSkillOutputFormat は DocumentIntelligenceLayoutSkillOutputFormat と同じ意味で使用でき、この列挙型にはサービスがサポートする既知の値が含まれています。

サービスでサポートされている既知の値

text: 出力の形式をテキストとして指定します。
markdown: 出力の形式をマークダウンとして指定します。

DocumentIntelligenceLayoutSkillOutputMode

スキルによって生成される出力のカーディナリティを制御します。 既定値は 'oneToMany' です。
KnownDocumentIntelligenceLayoutSkillOutputMode は DocumentIntelligenceLayoutSkillOutputMode と同じ意味で使用でき、この列挙型にはサービスがサポートする既知の値が含まれています。

サービスでサポートされている既知の値

oneToMany: 出力を「oneToMany」として解析することを指定します。

EdgeNGramTokenFilterSide

入力のどちら側から n-gram を生成するかを指定します。

EntityCategory

返すエンティティ カテゴリを示す文字列。
KnownEntityCategory はEntityCategoryと同義で使用可能で、この列挙はサービスがサポートする既知の値を含む。

サービスでサポートされている既知の値

場所:物理的な場所を記述するエンティティ。
組織:組織を記述するエンティティ。
人:人を表す存在。
:量を表す実体。
datetime:日付と時間を表すエンティティ。
URL:URLを記述するエンティティ。
メール:メールアドレスを記述するエンティティ。

EntityRecognitionSkillLanguage

EntityRecognitionSkill によって入力テキストでサポートされている言語コード。
KnownEntityRecognitionSkillLanguage はEntityRecognitionSkillLanguageと同義で使用可能で、この列挙はサービスがサポートする既知の値を含みます。

サービスでサポートされている既知の値

ar:アラビア語
CS:チェコ語
zh-Hans:Chinese-Simplified
zh-Hant:Chinese-Traditional
da:デンマーク語
nl: オランダ語
英語
fi:フィンランド語
フランス語:フランス語
ドイツ語
el:ギリシャ語
hu:ハンガリー語
it:イタリア語
ja:日本語
ko:韓国語
いいえ:ノルウェー語(ボクマール)
pl:ポーランド語
pt-PT:ポルトガル語(ポルトガル)
pt-BR:ポルトガル語(ブラジル)
ru:ロシア語
es: スペイン語
sv:スウェーデン語
tr: トルコ語

ExcludedODataTypes
ExhaustiveKnnAlgorithmConfiguration

クエリ中に使用される完全な KNN アルゴリズムに固有の構成オプションが含まれており、ベクター インデックス全体でブルート フォース検索を実行します。

ExtractDocumentKey
GetAliasOptions

エイリアス取得操作のオプション。

GetDataSourceConnectionOptions

データソースの取得操作のオプション。

GetIndexOptions

インデックス取得操作のオプション。

GetIndexStatisticsOptions

インデックス統計の取得操作のオプション。

GetIndexerOptions

インデクサーの取得操作のオプション。

GetIndexerStatusOptions

インデクサーの状態の取得操作のオプション。

GetServiceStatisticsOptions

サービス統計の取得操作のオプション。

GetSkillSetOptions

スキルセットの取得操作のオプション。

GetSynonymMapsOptions

シノニムマップの取得操作のオプション。

HnswAlgorithmConfiguration

インデックス作成時に使用される hnsw 近似最近傍アルゴリズムに固有の構成オプションが含まれています。

ImageAnalysisSkillLanguage
ImageDetail
IndexActionType

インデックス作成バッチ内のドキュメントに対して実行する操作。

IndexDocumentsAction

ドキュメントに対して動作するインデックス アクションを表します。

IndexIterator

Search サービスに存在するインデックスを一覧表示するための反復子。 イテレーション中に必要に応じて要求を行います。 .byPage() を使用して、反復処理ごとにサーバーに 1 つの要求を行います。

IndexNameIterator

Search サービスに存在するインデックスを一覧表示するための反復子。 イテレーション中に必要に応じて要求を行います。 .byPage() を使用して、反復処理ごとにサーバーに 1 つの要求を行います。

IndexProjectionMode

インデクサーの残りの部分に対するインデックス プロジェクションの動作を定義します。
KnownIndexProjectionMode IndexProjectionMode と同じ意味で使用できますが、この列挙型には、サービスがサポートする既知の値が含まれています。

サービスでサポートされている既知の値

skipIndexingParentDocuments: ソース ドキュメントはインデクサーのターゲット インデックスへの書き込みからスキップされます。
includeIndexingParentDocuments : ソース ドキュメントはインデクサーのターゲット インデックスに書き込まれます。 これが既定のパターンです。

IndexerExecutionEnvironment
IndexerExecutionStatus

個々のインデクサーの実行の状態を表します。

IndexerResyncOption

インデックスを作成するさまざまなタイプのアクセス許可データを含むオプション。
KnownIndexerResyncOption は IndexerResyncOption と同じ意味で使用でき、この列挙型にはサービスがサポートする既知の値が含まれています。

サービスでサポートされている既知の値

permissions: データ ソースからインデックスに、事前に選択されたアクセス許可データを再取り込むためのインデクサー。

IndexerStatus

全体的なインデクサーの状態を表します。

KeyPhraseExtractionSkillLanguage
KnowledgeBaseActivityRecord

KnowledgeBaseActivityRecordUnion の別名

KnowledgeBaseActivityRecordType

活動の種類。
<xref:KnownKnowledgeBaseActivityRecordType> KnowledgeBaseActivityRecordTypeと同義で使用可能であり、この列挙はサービスがサポートする既知の値を含む。

サービスでサポートされている既知の値

searchIndex:検索インデックス検索活動。
azureBlob: Azure Blob retrieval activity.
indexedOneLake:インデックス化されたOneLakeの検索活動。
ウェブ:ウェブ検索活動。
modelWebSummarization:LLMウェブサマリゼーション活動。
エージェント的推論:エージェント的推論活動。

KnowledgeBaseIterator

検索サービスに存在する知識ベースを一覧化するためのイテレーターです。 イテレーション中に必要に応じて要求を行います。 .byPage() を使用して、反復処理ごとにサーバーに 1 つの要求を行います。

KnowledgeBaseMessageContent

KnowledgeBaseMessageContentUnion の別名

KnowledgeBaseMessageContentType

メッセージ コンテンツの種類。
<xref:KnownKnowledgeBaseMessageContentType> KnowledgeBaseMessageContentTypeと互換的に使用可能で、この列挙はサービスがサポートする既知の値を含む。

サービスでサポートされている既知の値

テキスト:テキストメッセージの種類。
画像:画像、メッセージの内容の種類。

KnowledgeBaseModel
KnowledgeBaseModelKind

クエリ計画に使用される AI モデル。
KnownKnowledgeBaseModelKind はKnowledgeBaseModelKindと同義で使用可能で、この列挙はサービスがサポートする既知の値を含む。

サービスでサポートされている既知の値

azureOpenAI:クエリ計画Azure Open AIモデルを活用してください。

KnowledgeBaseReference

KnowledgeBaseReferenceUnion の別名

KnowledgeBaseReferenceType

参照の種類。
<xref:KnownKnowledgeBaseReferenceType> KnowledgeBaseReferenceTypeと互換的に使用可能であり、この列挙はサービスがサポートする既知の値を含む。

サービスでサポートされている既知の値

searchIndex:ドキュメント参照を検索。
azureBlob: Azure Blob document reference.
indexedOneLake:インデックスされたOneLake文書参照。
ウェブ:ウェブ文書参照。

KnowledgeRetrievalIntentType

使用するナレッジ ベースの構成の種類。
<xref:KnownKnowledgeRetrievalIntentType> KnowledgeRetrievalIntentTypeと同義使用可能であり、この列挙はサービスがサポートする既知の値を含む。

サービスでサポートされている既知の値

セマンティック:自然言語セマンティッククエリの意図。

KnowledgeRetrievalReasoningEffortKind

取得中に使用する作業量。
<xref:KnownKnowledgeRetrievalReasoningEffortKind> KnowledgeRetrievalReasoningEffortKindと同義で使用可能であり、この列挙はサービスがサポートする既知の値を含む。

サービスでサポートされている既知の値

最小:ソース選択、クエリ計画、反復検索は行いません。

KnowledgeRetrievalReasoningEffortUnion

知識検索理性労力ユニオンの別名

KnowledgeSource
KnowledgeSourceContentExtractionMode

オプションのコンテンツ抽出モード。 デフォルトは「最小」です。
<xref:KnownKnowledgeSourceContentExtractionMode> KnowledgeSourceContentExtractionModeと互換的に使用可能であり、この列挙はサービスがサポートする既知の値を含む。

サービスでサポートされている既知の値

最小限:ほとんどのコンテンツ処理を先送りしつつ、重要なメタデータのみを抽出します。
標準:デフォルトのコンテンツ抽出パイプライン全体を実行します。

KnowledgeSourceIterator

検索サービスに存在する知識ソースを一覧化するためのイテレーターです。 イテレーション中に必要に応じて要求を行います。 .byPage() を使用して、反復処理ごとにサーバーに 1 つの要求を行います。

KnowledgeSourceKind

知識源の種類。
KnownKnowledgeSourceKind は KnowledgeSourceKind と同じ意味で使用でき、この列挙型にはサービスがサポートする既知の値が含まれています。

サービスでサポートされている既知の値

searchIndex: 検索インデックスからデータを読み取るナレッジ ソース。
azureBlob: Azure Blob Storage から検索インデックスにデータを読み取り、取り込むナレッジ ソース。
indexedOneLake:インデックスされたOneLakeからデータを読み取る知識ソースです。
ウェブ:ウェブからデータを読み取る知識源です。

KnowledgeSourceParams

KnowledgeSourceParamsUnion の別名

KnowledgeSourceSynchronizationStatus

ナレッジ ソースの現在の同期ステータス。
<xref:KnownKnowledgeSourceSynchronizationStatus> KnowledgeSourceSynchronizationStatusと同義で使用可能であり、この列挙はサービスがサポートする既知の値を含む。

サービスでサポートされている既知の値

創造:知識源がプロビジョニングされています。
アクティブ:知識ソースがアクティブで同期実行が行われています。
削除:知識ソースが削除され、同期が一時停止されます。

KnowledgeSourceVectorizer
LexicalAnalyzer

アナライザーで使用できるケースが含まれています。

LexicalAnalyzerName

検索エンジンでサポートされているすべてのテキスト アナライザーの名前を定義します。
KnownLexicalAnalyzerName は LexicalAnalyzerName と同じ意味で使用でき、この列挙型にはサービスがサポートする既知の値が含まれています。

サービスでサポートされている既知の値

ar.microsoft: アラビア語用 Microsoft アナライザー。
ar.lucene: アラビア語用 Lucene アナライザー。
hy.lucene: アルメニア語用 Lucene アナライザー。
bn.microsoft: Bangla 用 Microsoft アナライザー。
eu.lucene: バスク用 Lucene アナライザー。
bg.microsoft: ブルガリア語用 Microsoft アナライザー。
bg.lucene: ブルガリア語用 Lucene アナライザー。
ca.microsoft: カタロニア語用 Microsoft アナライザー。
ca.lucene: カタロニア語用 Lucene アナライザー。
zh-Hans.microsoft: Microsoft analyzer for Chinese (簡体字)。
zh-Hans.lucene: 中国語用 Lucene アナライザー (簡体字)。
zh-Hant.microsoft: Microsoft analyzer for Chinese (繁体字)。
zh-Hant.lucene: 中国語用 Lucene アナライザー (繁体字)。
hr.microsoft: クロアチア語用 Microsoft アナライザー。
cs.microsoft: チェコ語用 Microsoft アナライザー。
cs.lucene: チェコ語用 Lucene アナライザー。
da.microsoft: デンマーク語用 Microsoft アナライザー。
da.lucene: デンマーク語用 Lucene アナライザー。
nl.microsoft: オランダ語用 Microsoft アナライザー。
nl.lucene: オランダ語用 Lucene アナライザー。
en.microsoft: 英語用 Microsoft アナライザー。
en.lucene: 英語用 Lucene アナライザー。
et.microsoft: エストニア語用 Microsoft アナライザー。
fi.microsoft: フィンランド語用 Microsoft アナライザー。
fi.lucene: フィンランド語用 Lucene アナライザー。
fr.microsoft: フランス語用 Microsoft アナライザー。
fr.lucene: フランス語用 Lucene アナライザー。
gl.lucene: ガリシア語用 Lucene アナライザー。
de.microsoft: ドイツ語用 Microsoft アナライザー。
de.lucene: ドイツ語用 Lucene アナライザー。
el.microsoft: ギリシャ語用 Microsoft アナライザー。
el.lucene: ギリシャ語用 Lucene アナライザー。
gu.microsoft: Gujarati 用 Microsoft アナライザー。
he.microsoft : ヘブライ語用 Microsoft アナライザーをします。
hi.microsoft: ヒンディー語用 Microsoft アナライザー。
hi.lucene: ヒンディー語用 Lucene アナライザー。
hu.microsoft: ハンガリー語用 Microsoft アナライザー。
hu.lucene: ハンガリー語用 Lucene アナライザー。
is.microsoft: アイスランドの Microsoft アナライザー。
id.microsoft: インドネシア語用 Microsoft アナライザー (Bahasa)。
id.lucene: インドネシア語用 Lucene アナライザー。
ga.lucene: アイルランド語用 Lucene アナライザー。
it.microsoft : イタリア語用 Microsoft アナライザーをします。
.lucene: イタリア語用 Lucene アナライザー。
ja.microsoft: 日本語用 Microsoft アナライザー。
ja.lucene: 日本語用 Lucene アナライザー。
kn.microsoft: カンナダ用 Microsoft アナライザー。
ko.microsoft: 韓国語用 Microsoft アナライザー。
ko.lucene: 韓国語用 Lucene アナライザー。
lv.microsoft: ラトビア語用 Microsoft アナライザー。
lv.lucene: ラトビア語用 Lucene アナライザー。
lt.microsoft: リトアニア語用 Microsoft アナライザー。
ml.microsoft: マラヤーラム用 Microsoft アナライザー。
ms.microsoft : マレー語 (ラテン) 用 Microsoft アナライザーをします。
mr.microsoft : Marathi 用 Microsoft アナライザーをします。
nb。microsoft: Microsoft analyzer for Norwegian (BokmÃll).
no.lucene: ノルウェー語用 Lucene アナライザー。
fa.lucene: ペルシャ語用 Lucene アナライザー。
pl.microsoft: ポーランド語用 Microsoft アナライザー。
pl.lucene: ポーランド語用 Lucene アナライザー。
pt-BR.microsoft: ポルトガル語 (ブラジル) 用 Microsoft アナライザー。
pt-BR.lucene: ポルトガル語 (ブラジル) 用 Lucene アナライザー。
pt-PT.microsoft: ポルトガル語 (ポルトガル) 用 Microsoft アナライザー。
pt-PT.lucene: ポルトガル語 (ポルトガル) 用 Lucene アナライザー。
pa.microsoft: Punjabi 用 Microsoft アナライザー。
ro.microsoft: ルーマニア語用 Microsoft アナライザー。
ro.lucene: ルーマニア語用 Lucene アナライザー。
ru.microsoft: ロシア語用 Microsoft アナライザー。
ru.lucene: ロシア語用 Lucene アナライザー。
sr-cyrillic.microsoft: セルビア語 (キリル) 用 Microsoft アナライザー。
sr-latin.microsoft: セルビア語 (ラテン) 用 Microsoft アナライザー。
sk.microsoft: スロバキア語用 Microsoft アナライザー。
sl.microsoft: スロベニア語用 Microsoft アナライザー。
es.microsoft: スペイン語用 Microsoft アナライザー。
es.lucene: スペイン語用 Lucene アナライザー。
sv.microsoft: スウェーデン語用 Microsoft アナライザー。
sv.lucene: スウェーデン語用 Lucene アナライザー。
ta.microsoft: Tamil 用 Microsoft アナライザー。
te.microsoft : Telugu 用 Microsoft アナライザーをします。
th.microsoft: タイ語用 Microsoft アナライザー。
th.lucene: タイ語用 Lucene アナライザー。
tr.microsoft: トルコ語用 Microsoft アナライザー。
tr.lucene: トルコ語用 Lucene アナライザー。
uk.microsoft: ウクライナ語用 Microsoft アナライザー。
your.microsoft : Urdu 用 Microsoft アナライザーをします。
vi.microsoft: ベトナム語用 Microsoft アナライザー。
standard.lucene: Standard Lucene アナライザー。
standardasciifolding.lucene: Standard ASCII フォールディング Lucene アナライザー。 https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers を参照してください
キーワード: フィールドの内容全体を 1 つのトークンとして扱います。 これは、郵便番号、ID、一部の製品名などのデータに役立ちます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html を参照してください
パターン: 正規表現パターンを使用して、テキストを用語に柔軟に分離します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html を参照してください
単純な: テキストを文字以外で分割し、小文字に変換します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html を参照してください
停止: 文字以外でテキストを分割します。小文字とストップワードのトークン フィルターを適用します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html を参照してください
空白: 空白トークナイザーを使用するアナライザー。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html を参照してください

LexicalNormalizer

LexicalNormalizer の可能性のあるケースを含みます。

LexicalNormalizerName

検索エンジンでサポートされているすべてのテキスト ノーマライザーの名前を定義します。
KnownLexicalNormalizerName は LexicalNormalizerName と同じ意味で使用でき、この列挙型にはサービスがサポートする既知の値が含まれています。

サービスでサポートされている既知の値

asciifolding: 最初の 127 文字の ASCII 文字 ("Basic Latin" Unicode ブロック) に含まれていないアルファベット、数字、記号の Unicode 文字を、ASCII に相当する文字に変換します (そのような文字が存在する場合)。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html を参照してください
elision: エリシオンを削除します。 たとえば、"l'avion" (平面) は "avion" (平面) に変換されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html を参照してください
lowercase: トークンテキストを小文字に正規化します。 https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html を参照してください
standard: 小文字と asciifolding で構成される標準ノーマライザー。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html を参照してください
uppercase: トークンテキストを大文字に正規化します。 https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html を参照してください

LexicalTokenizer

トークナイザーの可能性のあるケースが含まれています。

LexicalTokenizerName

検索エンジンでサポートされているすべてのトークナイザーの名前を定義します。
<xref:KnownLexicalTokenizerName> LexicalTokenizerName と同じ意味で使用できますが、この列挙型には、サービスがサポートする既知の値が含まれています。

サービスでサポートされている既知の値

クラシック: ほとんどのヨーロッパ言語ドキュメントの処理に適した文法ベースのトークナイザーです。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html を参照してください
edgeNGram: エッジからの入力を特定のサイズの n グラムにトークン化します。 https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html を参照してください
keyword_v2: 入力全体を 1 つのトークンとして出力します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html を参照してください
文字: 文字以外の文字で区切ります。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html を参照してください
小文字の: テキストを文字以外で分割し、小文字に変換します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html を参照してください
microsoft_language_tokenizer: 言語固有のルールを使用してテキストを分割します。
microsoft_language_stemming_tokenizer: 言語固有のルールを使用してテキストを分割し、単語を基本フォームに減らします。
nGram: 指定したサイズの n グラムに入力をトークン化します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html を参照してください
path_hierarchy_v2: パスに似た階層のトークナイザー。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html を参照してください
パターン: 正規表現パターン マッチングを使用して個別のトークンを構築するトークナイザー。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html を参照してください
standard_v2: 標準 Lucene アナライザー;標準トークナイザー、小文字フィルター、および停止フィルターで構成されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html を参照してください
uax_url_email: URL と電子メールを 1 つのトークンとしてトークン化します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html を参照してください
空白: 空白でテキストを分割します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html を参照してください

ListAliasesOptions

リスト エイリアス操作のオプション。

ListDataSourceConnectionsOptions

リスト データ ソース操作のオプション。

ListIndexersOptions

リスト インデクサー操作のオプション。

ListIndexesOptions

リスト インデックス操作のオプション。

ListSkillsetsOptions

リスト スキルセット操作のオプション。

ListSynonymMapsOptions

list synonymMaps 操作のオプション。

MarkdownHeaderDepth

マークダウン コンテンツをグループ化するときに考慮されるヘッダーの最大深さを指定します。 既定値は h6 です。
KnownMarkdownHeaderDepth は MarkdownHeaderDepth と同じ意味で使用でき、この列挙型にはサービスがサポートする既知の値が含まれています。

サービスでサポートされている既知の値

h1: マークダウン コンテンツをグループ化するときに、h1 までのヘッダーが考慮されることを示します。
h2: マークダウン コンテンツをグループ化するときに、h2 レベルまでのヘッダーが考慮されることを示します。
h3: マークダウン コンテンツをグループ化する際に、h3 レベルまでのヘッダーが考慮されることを示します。
h4: マークダウン コンテンツをグループ化するときに、h4 レベルまでのヘッダーが考慮されることを示します。
h5: マークダウン コンテンツをグループ化するときに、h5 までのヘッダーが考慮されることを示します。
h6: マークダウン コンテンツをグループ化するときに、h6 レベルまでのヘッダーが考慮されることを示します。 これが既定値です。

MarkdownParsingSubmode

マークダウン ファイルを 1 つの検索ドキュメントに解析するか、複数の検索ドキュメントに解析するかを決定するサブモードを指定します。 既定値は oneToMany です。
KnownMarkdownParsingSubmode は MarkdownParsingSubmode と同じ意味で使用でき、この列挙型にはサービスがサポートする既知の値が含まれています。

サービスでサポートされている既知の値

oneToMany: マークダウン ファイルの各セクション (指定された深さまで) が個々の検索ドキュメントに解析されることを示します。 これにより、1 つのマークダウン ファイルで複数の検索ドキュメントが生成される可能性があります。 これが既定のサブモードです。
oneToOne: 各マークダウン ファイルが 1 つの検索ドキュメントに解析されることを示します。

MergeDocumentsOptions

ドキュメントの差し込み印刷操作のオプション。

MergeOrUploadDocumentsOptions

ドキュメントのマージまたはアップロード操作のオプション。

MicrosoftStemmingTokenizerLanguage

Microsoft言語の語幹トークナイザーでサポートされている言語を一覧化しています。

MicrosoftTokenizerLanguage

Microsoft言語トークナイザーでサポートされている言語を一覧にしています。

NarrowedModel

選択したフィールドのみを含むようにモデルの種類を絞り込みます。

OcrLineEnding

OCR スキルによって認識されるテキスト行間で使用する文字のシーケンスを定義します。 既定値は "space" です。
KnownOcrLineEnding OcrLineEnding と同じ意味で使用できますが、この列挙型には、サービスがサポートする既知の値が含まれています。

サービスでサポートされている既知の値

スペース: 行は 1 つのスペース文字で区切られます。
carriageReturn: 行は復帰 ('\r') 文字で区切られます。
lineFeed: 行は 1 つの改行 ('\n') 文字で区切られます。
carriageReturnLineFeed: 行は復帰文字と改行 ('\r\n') 文字で区切られます。

OcrSkillLanguage
PIIDetectionSkillMaskingMode
PhoneticEncoder

PhoneticTokenFilter で使用する発信エンコーダーの種類を識別します。

QueryAnswer

検索応答の一部として回答を返す必要があるかどうかを指定する値。 このパラメーターは、クエリの種類が 'semantic' の場合にのみ有効です。 extractiveに設定すると、クエリは最もランクの高いドキュメントの主要な一節から抽出された回答を返します。

QueryCaption

キャプションを検索応答の一部として返す必要があるかどうかを指定する値。 このパラメーターは、クエリの種類が 'semantic' の場合にのみ有効です。 設定した場合、クエリは、最もランクの高いドキュメントの主要な通路から抽出されたキャプションを返します。 キャプションが 'extractive' の場合、強調表示は既定で有効になります。 既定値は 'none' です。

QueryDebugMode

検索結果をさらに調べるために使用できるデバッグ ツールを有効にします。 複数のデバッグモードを |文字 (例: semantic|queryRewrites) です。
KnownQueryDebugMode は QueryDebugMode と同じ意味で使用でき、この列挙型にはサービスがサポートする既知の値が含まれています。

サービスでサポートされている既知の値

disabled: クエリのデバッグ情報は返されません。
セマンティック: ユーザーが再ランク付けされた結果をさらに探索できるようにします。
vector: ユーザーは、ハイブリッドおよびベクターのクエリ結果をさらに探索できます。
queryRewrites: ユーザーは、検索要求に対して生成されたクエリの書き換えのリストを探索できます。
innerHits: ユーザーが複合型のコレクション内で一致するベクトルに関するスコアリング情報を取得できるようにします。
all: すべてのデバッグオプションをオンにします。

QueryRewrites

クエリの書き換えのオプションを定義します。

QueryType

検索クエリの構文を指定します。 既定値は "simple" です。 クエリで Lucene クエリ構文を使用する場合は 'full' を使用し、クエリ構文が必要ない場合は 'semantic' を使用します。
<xref:KnownQueryType> QueryTypeと同義で使用可能で、この列挙はサービスがサポートする既知の値を含む。

サービスでサポートされている既知の値

シンプル:検索にはシンプルなクエリ構文を使用します。 検索テキストは、+、*、"" などの記号を使用できる単純なクエリ言語を使用して解釈されます。 クエリは、searchFields パラメーターが指定されていない限り、既定ですべての検索可能なフィールドで評価されます。
full:検索にLuceneの完全なクエリ構文を使用します。 検索テキストは、フィールド固有の重み付けされた検索やその他の高度な機能を可能にするLuceneクエリ言語を使用して解釈されます。
セマンティック:キーワードではなく自然言語で表現されるクエリに最適です。 Webコーパスで学習したランキングモデルを使用して、上位の検索結果を再ランク付けすることで、検索結果の精度を向上させます。

RankingOrder

ドキュメントの並べ替え順序に使用するスコアを表します。
KnownRankingOrder は RankingOrder と同じ意味で使用でき、この列挙型にはサービスがサポートする既知の値が含まれます。

サービスでサポートされている既知の値

BoostedRerankerScore: 並べ替え順序を BoostedRerankerScore に設定します。
RerankerScore: 並べ替え順序を ReRankerScore に設定します。

RegexFlags
ResetIndexerOptions

インデクサーのリセット操作のオプション。

RunIndexerOptions

インデクサーの実行操作のオプション。

ScoringFunction

ScoringFunction の可能性のあるケースが含まれています。

ScoringFunctionAggregation

スコアリングプロファイル内のすべてのスコアリング関数の結果を結合するために使用される集計関数を定義します。

ScoringFunctionInterpolation

さまざまなドキュメントにわたってスコアブーストを補間するために使用される関数を定義します。

ScoringStatistics

スコアリングの統計情報 (ドキュメントの頻度など) をグローバルに計算して、より一貫性のあるスコアリングを行うか、ローカルに計算するかを指定する値。待機時間を短縮します。 デフォルトは「local」です。 スコアリングの前にスコアリング統計をグローバルに集計するには、「global」を使用します。 グローバルスコアリング統計を使用すると、検索クエリの待機時間が長くなる可能性があります。

SearchField

インデックス定義内のフィールドを表します。フィールドの名前、データ型、および検索動作を表します。

SearchFieldArray

TModel が型指定されていないオブジェクトの場合は、型指定されていない文字列配列。それ以外の場合は、TModelのスラッシュで区切られたフィールド。

SearchFieldDataType

SearchFieldDataType の値を定義します。

サービスでサポートされている既知の値:

Edm.String: フィールドに文字列が含まれていることを示します。

Edm.Int32: フィールドに 32 ビット符号付き整数が含まれていることを示します。

Edm.Int64: フィールドに 64 ビット符号付き整数が含まれていることを示します。

Edm.Double: フィールドに IEEE 倍精度浮動小数点数が含まれていることを示します。

Edm.Boolean: フィールドにブール値 (true または false) が含まれていることを示します。

Edm.DateTimeOffset: フィールドに、タイムゾーン情報を含む日付/時刻値が含まれていることを示します。

Edm.GeographyPoint: フィールドに経度と緯度の観点から geo 位置が含まれていることを示します。

Edm.ComplexType: フィールドに 1 つ以上の複合オブジェクトが含まれていることを示します。このオブジェクトには、他の型のサブフィールドが含まれます。

Edm.Single: フィールドに単精度浮動小数点数が含まれていることを示します。 これは、コレクション型 (Collection(Edm.Single) の一部として使用される場合にのみ有効です。

Edm.Half: フィールドに半精度浮動小数点数が含まれていることを示します。 これは、コレクション型 (Collection(Edm.Half) の一部として使用される場合にのみ有効です。

Edm.Int16: フィールドに 16 ビット符号付き整数が含まれていることを示します。 これは、コレクション型 (Collection(Edm.Int16) の一部として使用される場合にのみ有効です。

Edm.SByte: フィールドに 8 ビット符号付き整数が含まれていることを示します。 これは、コレクション型 (Collection(Edm.SByte) の一部として使用される場合にのみ有効です。

Edm.Byte: フィールドに 8 ビット符号なし整数が含まれていることを示します。 これは、コレクション型 (Collection(Edm.Byte) の一部として使用される場合にのみ有効です。

SearchIndexAlias

検索エイリアス オブジェクト。

SearchIndexerDataIdentity

SearchIndexerDataIdentity で使用できるケースが含まれます。

SearchIndexerDataSourceType
SearchIndexerSkill

Skill の可能性のあるケースが含まれています。

SearchIndexingBufferedSenderDeleteDocumentsOptions

SearchIndexingBufferedSenderDeleteDocuments のオプション。

SearchIndexingBufferedSenderFlushDocumentsOptions

SearchIndexingBufferedSenderFlushDocuments のオプション。

SearchIndexingBufferedSenderMergeDocumentsOptions

SearchIndexingBufferedSenderMergeDocuments のオプション。

SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions

SearchIndexingBufferedSenderMergeOrUploadDocuments のオプション。

SearchIndexingBufferedSenderUploadDocumentsOptions

SearchIndexingBufferedSenderUploadDocuments のオプション。

SearchIterator

paticular クエリの検索結果を示す反復子。 イテレーション中に必要に応じて要求を行います。 .byPage() を使用して、反復処理ごとにサーバーに 1 つの要求を行います。

SearchMode

ドキュメントを一致としてカウントするために、検索語のいずれかまたはすべてを一致させる必要があるかどうかを指定します。

SearchOptions

完全な検索要求をコミットするためのオプション。

SearchPick

有効な AI Search OData $select パスを使用して、T のフィールドを深く選択します。

SearchRequestOptions

フィルター処理、並べ替え、ファセット、ページング、およびその他の検索クエリ動作のパラメーター。

SearchRequestQueryTypeOptions
SearchResult

検索クエリによって検出されたドキュメントと、関連するメタデータが含まれます。

SelectFields

T をルートとするフィールド ツリーのポスト オーダー トラバーサルを使用して、T の有効な AI 検索 OData パス$select和集合を生成します。

SemanticErrorMode
SemanticErrorReason
SemanticSearchResultsType

セマンティック ランク付け要求に対して返された部分応答の種類。
KnownSemanticSearchResultsType はSemanticSearchResultsTypeと同義で使用可能で、この列挙はサービスがサポートする既知の値を含む。

サービスでサポートされている既知の値

baseResults:意味的強化や再ランク付けなしの結果。
rerankedResults:結果はリランクモデルで再ランク付けされ、意味論的なキャプションが含まれます。 回答、回答のハイライト、キャプションのハイライトは含まれません。

SentimentSkillLanguage

SentimentSkill によって入力テキストでサポートされている言語コード。
KnownSentimentSkillLanguage はSentimentSkillLanguageと同義で使用可能で、この列挙はサービスがサポートする既知の値を示します。

サービスでサポートされている既知の値

da:デンマーク語
nl: オランダ語
英語
fi:フィンランド語
フランス語:フランス語
ドイツ語
el:ギリシャ語
it:イタリア語
いいえ:ノルウェー語(ボクマール)
pl:ポーランド語
pt-PT:ポルトガル語(ポルトガル)
ru:ロシア語
es: スペイン語
sv:スウェーデン語
tr: トルコ語

Similarity

類似アルゴリズムユニオンの別名

SimilarityAlgorithm

類似性の可能性のあるケースが含まれています。

SnowballTokenFilterLanguage

Snowball トークンフィルターに使用する言語。

SplitSkillLanguage
StemmerTokenFilterLanguage

ステマートークンフィルターに使用する言語。

StopwordsList

言語固有のストップワードの事前定義リストを識別します。

SuggestNarrowedModel
SuggestOptions

searchText に基づいて検索候補を取得するためのオプション。

SuggestResult

提案クエリによって検出されたドキュメントと、関連付けられているメタデータを含む結果。

TextSplitMode
TextTranslationSkillLanguage
TokenCharacterKind

トークン フィルターが操作できる文字のクラスを表します。

TokenFilter

TokenFilter で使用できるケースが含まれます。

TokenFilterName

検索エンジンでサポートされているすべてのトークン フィルターの名前を定義します。
TokenFilterName と同じ意味で使用できる <xref:KnownTokenFilterName>、この列挙型には、サービスがサポートする既知の値が含まれています。

サービスでサポートされている既知の値

arabic_normalization: アラビア語のノーマライザーを適用して序数を正規化するトークン フィルター。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html を参照してください
アポストロフィ: アポストロフィの後のすべての文字を取り除きます (アポストロフィ自体を含む)。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html を参照してください
asciifolding: 最初の 127 文字の ASCII 文字 ("Basic Latin" Unicode ブロック) に含まれていないアルファベット、数字、記号の Unicode 文字を、ASCII に相当する文字に変換します (そのような文字が存在する場合)。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html を参照してください
cjk_bigram: 標準トークナイザーから生成される CJK 用語のビグラムを形成します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html を参照してください
cjk_width: CJK の幅の違いを正規化します。 全幅ASCIIのバリエーションを同等の基本ラテン語に、ハーフワイドカタカナのバリエーションを同等の仮名に折りたたみます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html を参照してください
クラシック: 頭字語から英語の所有物とドットを削除します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html を参照してください
common_grams: インデックス作成中に頻繁に発生する用語のビグラムを構築します。 単一の用語もインデックスが作成され、バイグラムが重なっています。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html を参照してください
edgeNGram_v2: 入力トークンの前面または背面から始まる、指定されたサイズの n グラムを生成します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html を参照してください
elision: エリシオンを削除します。 たとえば、"l'avion" (平面) は "avion" (平面) に変換されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html を参照してください
german_normalization: German2 snowball アルゴリズムのヒューリスティックに従って、ドイツ語の文字を正規化します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html を参照してください
hindi_normalization: ヒンディー語のテキストを正規化して、スペル バリエーションの違いを削除します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html を参照してください
indic_normalization: インド言語でのテキストの Unicode 表現を正規化します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html を参照してください
keyword_repeat: 各受信トークンをキーワードとして 1 回、非キーワードとして 1 回ずつ出力します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html を参照してください
kstem: 英語用の高性能 kstem フィルター。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html を参照してください
: 長すぎる単語または短すぎる単語を削除します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html を参照してください
制限: インデックス作成中のトークンの数を制限します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html を参照してください
小文字: トークン テキストを小文字に正規化します。 https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html を参照してください
nGram_v2: 指定されたサイズの n グラムを生成します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html を参照してください
persian_normalization: ペルシア語の正規化を適用します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html を参照してください
ふりがな: ふりがなのトークンを作成します。 https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html を参照してください
porter_stem: Porter ステミング アルゴリズムを使用してトークン ストリームを変換します。 http://tartarus.org/~martin/PorterStemmer を参照してください
: トークン文字列を反転します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html を参照してください
scandinavian_normalization: 交換可能なスカンジナビア文字の使用を正規化します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html を参照してください
scandinavian_folding:スカンジナビア文字を折りたたむ Ã¥...ア>†アと>アとア・。 また、二重母音 aa、ae、ao、oe、oo の使用を区別し、最初の母音だけを残します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html を参照してください
シングル: トークンの組み合わせを 1 つのトークンとして作成します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html を参照してください
snowball: Snowball で生成されたステマーを使用して単語を語幹にするフィルター。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html を参照してください
sorani_normalization: Sorani テキストの Unicode 表現を正規化します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html を参照してください
ステマー: 言語固有のステミング フィルター。 https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters を参照してください
ストップワード: トークン ストリームからストップ ワードを削除します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html を参照してください
trim: トークンから先頭と末尾の空白をトリミングします。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html を参照してください
切り捨て: 用語を特定の長さに切り捨てます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html を参照してください
一意の: 前のトークンと同じテキストを使用してトークンを除外します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html を参照してください
大文字: トークン テキストを大文字に正規化します。 https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html を参照してください
word_delimiter: 単語をサブワードに分割し、サブワード グループに対してオプションの変換を実行します。

UnionToIntersection
UploadDocumentsOptions

ドキュメントのアップロード操作のオプション。

VectorEncodingFormat

ベクトル フィールドの内容を解釈するためのエンコード形式。
KnownVectorEncodingFormat VectorEncodingFormat と同じ意味で使用できますが、この列挙型には、サービスがサポートする既知の値が含まれています。

サービスでサポートされている既知の値

packedBit: より広いデータ型にパックされたビットを表すエンコード形式。

VectorFilterMode
VectorQuery

ベクター検索クエリとハイブリッド検索クエリのクエリ パラメーター。

VectorQueryKind
VectorSearchAlgorithmConfiguration

インデックス作成やクエリの実行中に使用されるアルゴリズムに固有の構成オプションが含まれています。

VectorSearchAlgorithmKind
VectorSearchAlgorithmMetric
VectorSearchCompression

インデックス作成またはクエリ中に使用される圧縮方法に固有の構成オプションが含まれています。

VectorSearchCompressionKind

インデックス作成とクエリに使用される圧縮方法。
KnownVectorSearchCompressionKind VectorSearchCompressionKind と同じ意味で使用できますが、この列挙型には、サービスがサポートする既知の値が含まれています。

サービスでサポートされている既知の値

scalarQuantization: スカラー量子化 (圧縮方法の一種)。 スカラー量子化では、元のベクトル値は、量子化された値の小さなセットを使用してベクトルの各コンポーネントを分離して表すことによって、より狭い型に圧縮され、それによって全体的なデータ サイズが小さくなります。
binaryQuantization: 圧縮方法の一種であるバイナリ量子化。 二項量子化では、元のベクトル値は、バイナリ値を使用してベクトルの各コンポーネントを分離して表すことによって、より狭いバイナリ型に圧縮され、それによって全体的なデータ サイズが小さくなります。

VectorSearchCompressionRescoreStorageMethod

再スコアリングおよび内部インデックス操作に使用される元の全精度ベクトルの格納方法。
KnownVectorSearchCompressionRescoreStorageMethod は VectorSearchCompressionRescoreStorageMethod と同じ意味で使用でき、この列挙型にはサービスがサポートする既知の値が含まれています。

サービスでサポートされている既知の値

preserveOriginals: このオプションは、元の全精度ベクトルを保持します。 このオプションは、圧縮された検索結果の柔軟性と品質を最大限に高めるために選択します。 これにより、より多くのストレージが消費されますが、再サンプリングとオーバーサンプリングが可能になります。
discardOriginals: このオプションは、元の全精度ベクトルを破棄します。 ストレージを最大節約する場合は、このオプションを選択します。 このオプションでは、再サンプリングとオーバーサンプリングが許可されないため、品質がわずかに低下することがよくあります。

VectorSearchCompressionTarget

圧縮ベクトル値の量子化されたデータ型。
KnownVectorSearchCompressionTarget VectorSearchCompressionTarget と同じ意味で使用できますが、この列挙型には、サービスでサポートされている既知の値が含まれています。

サービスでサポートされている既知の値

int8:8ビット符号付き整数。

VectorSearchVectorizer

テキスト ベクター クエリをベクター化する方法に関する構成オプションが含まれています。

VectorSearchVectorizerKind

クエリ時に使用するベクトル化方法。
KnownVectorSearchVectorizerKind を VectorSearchVectorizerKind と同じ意味で使用できる、この列挙型には、サービスがサポートする既知の値が含まれています。

サービスでサポートされている既知の値

azureOpenAI: クエリ時に Azure OpenAI リソースを使用して埋め込みを生成します。
customWebApi: クエリ時にカスタム Web エンドポイントを使用して埋め込みを生成します。
aiServicesVision: Azure AI Services Vision Vectorize API を使用して、クエリ時に画像またはテキスト入力の埋め込みを生成します。
aml: クエリ時に Azure AI Foundry モデル カタログを介してデプロイされた Azure Machine Learning エンドポイントを使用して埋め込みを生成します。

VisualFeature
WebApiSkills

列挙型

KnownAIFoundryModelCatalogName

Azure AI Foundryカタログの埋め込みモデルの名前です。

KnownAnalyzerNames

AnalyzerName の値を定義します。 https://learn.microsoft.com/rest/api/searchservice/Language-support を参照してください

KnownAzureOpenAIModelName

呼び出される Azure Open AI モデル名。

KnownBlobIndexerDataToExtract

Azure BLOB Storage から抽出するデータを指定し、"imageAction" が "none" 以外の値に設定されている場合に、画像コンテンツから抽出するデータをインデクサーに指示します。 これは、.PDF またはその他のアプリケーションに埋め込まれた画像コンテンツ、または Azure BLOB 内の .jpg や .pngなどの画像ファイルに適用されます。

KnownBlobIndexerImageAction

Azure BLOB Storage 内の埋め込みイメージとイメージ ファイルを処理する方法を決定します。 "imageAction" 構成を "none" 以外の値に設定するには、スキルセットもそのインデクサーにアタッチする必要があります。

KnownBlobIndexerPDFTextRotationAlgorithm

Azure BLOB ストレージ内の PDF ファイルからテキストを抽出するアルゴリズムを決定します。

KnownBlobIndexerParsingMode

Azure BLOB データ ソースからのインデックス作成の解析モードを表します。

KnownCharFilterNames

CharFilterName の値を定義します。

KnownChatCompletionExtraParametersBehavior

Azure AI Foundryが「extraParameters」をどのように扱うべきかを規定しています。 デフォルトは「error」です。

KnownChatCompletionResponseFormatType

LLM が応答をフォーマットする方法を指定します。

KnownContentUnderstandingSkillChunkingUnit

チャンク単位のカーディナリティを制御します。 デフォルトは「characters」です。

KnownContentUnderstandingSkillExtractionOptions

スキルによってドキュメントから抽出されたコンテンツのカーディナリティを制御します。

KnownCustomEntityLookupSkillLanguage

CustomEntityLookupSkill による入力テキストでサポートされている言語コード。

KnownDocumentIntelligenceLayoutSkillChunkingUnit

チャンク単位のカーディナリティを制御します。 デフォルトは「characters」です。

KnownDocumentIntelligenceLayoutSkillExtractionOptions

スキルによってドキュメントから抽出されたコンテンツのカーディナリティを制御します。

KnownDocumentIntelligenceLayoutSkillMarkdownHeaderDepth

マークダウン出力のヘッダーの深さ。 既定値は h6 です。

KnownDocumentIntelligenceLayoutSkillOutputFormat

出力形式のカーディナリティを制御します。 デフォルトは「markdown」です。

KnownDocumentIntelligenceLayoutSkillOutputMode

スキルによって生成される出力のカーディナリティを制御します。 既定値は 'oneToMany' です。

KnownEntityCategory

返すエンティティ カテゴリを示す文字列。

KnownEntityRecognitionSkillLanguage

EntityRecognitionSkill によって入力テキストでサポートされている言語コード。

KnownImageAnalysisSkillLanguage

ImageAnalysisSkillによる入力でサポートされている言語コード。

KnownImageDetail

返すドメイン固有の詳細を示す文字列。

KnownIndexProjectionMode

インデクサーの残りの部分に対するインデックス プロジェクションの動作を定義します。

KnownIndexerExecutionEnvironment

インデクサーを実行する環境を指定します。

KnownIndexerResyncOption

インデックスを作成するさまざまなタイプのアクセス許可データを含むオプション。

KnownKeyPhraseExtractionSkillLanguage

KeyPhraseExtractionSkill による入力テキストでサポートされている言語コード。

KnownKnowledgeBaseModelKind

クエリ計画に使用される AI モデル。

KnownKnowledgeSourceKind

知識源の種類。

KnownLexicalAnalyzerName

検索エンジンでサポートされているすべてのテキスト アナライザーの名前を定義します。

KnownLexicalNormalizerName

検索エンジンでサポートされているすべてのテキスト ノーマライザーの名前を定義します。

KnownMarkdownHeaderDepth

マークダウン コンテンツをグループ化するときに考慮されるヘッダーの最大深さを指定します。 既定値は h6 です。

KnownMarkdownParsingSubmode

マークダウン ファイルを 1 つの検索ドキュメントに解析するか、複数の検索ドキュメントに解析するかを決定するサブモードを指定します。 既定値は oneToMany です。

KnownOcrLineEnding

OCR スキルによって認識されるテキスト行間で使用する文字のシーケンスを定義します。 既定値は "space" です。

KnownOcrSkillLanguage

OcrSkill による入力でサポートされている言語コード。

KnownPIIDetectionSkillMaskingMode

入力テキストで検出された個人情報をマスクするために使用する maskingMode を示す文字列。

KnownQueryDebugMode

検索結果をさらに調べるために使用できるデバッグ ツールを有効にします。 複数のデバッグモードを |文字 (例: semantic|queryRewrites) です。

KnownRankingOrder

ドキュメントの並べ替え順序に使用するスコアを表します。

KnownRegexFlags

パターンアナライザーやパターントークナイザーで使用できる正規表現フラグを定義します。

KnownSearchAudience

検索対象ユーザーの既知の値

KnownSearchFieldDataType

検索インデックス内のフィールドのデータ型を定義します。

KnownSearchIndexerDataSourceType

データソースのタイプを定義します。

KnownSemanticErrorMode

セマンティックコールを完全に失敗させるか、部分的な結果を返すかをユーザーが選択できます。

KnownSemanticErrorReason

セマンティック ランク付け要求に対して部分的な応答が返された理由。

KnownSemanticSearchResultsType

セマンティック ランク付け要求に対して返された部分応答の種類。

KnownSentimentSkillLanguage

SentimentSkill によって入力テキストでサポートされている言語コード。

KnownSplitSkillLanguage

SplitSkill による入力テキストでサポートされている言語コード。

KnownTextSplitMode

実行する分割モードを示す値。

KnownTextTranslationSkillLanguage

TextTranslationSkill による入力テキストでサポートされている言語コード。

KnownTokenFilterNames

TokenFilterName の値を定義します。

KnownTokenizerNames

TokenizerName の値を定義します。

KnownVectorEncodingFormat

ベクトル フィールドの内容を解釈するためのエンコード形式。

KnownVectorFilterMode

ベクトル検索の実行前または実行後にフィルターを適用するかどうかを決定します。

KnownVectorQueryKind

実行されているベクトル クエリの種類。

KnownVectorSearchAlgorithmKind

インデックス作成とクエリに使用されるアルゴリズム。

KnownVectorSearchAlgorithmMetric

ベクトル比較に使用する類似性メトリック。 埋め込みモデルがトレーニングされたのと同じ類似性メトリックを選択することをお勧めします。

KnownVectorSearchCompressionKind

インデックス作成とクエリに使用される圧縮方法。

KnownVectorSearchCompressionRescoreStorageMethod

再スコアリングおよび内部インデックス操作に使用される元の全精度ベクトルの格納方法。

KnownVectorSearchCompressionTarget

圧縮ベクトル値の量子化されたデータ型。

KnownVectorSearchVectorizerKind

クエリ時に使用するベクトル化方法。

KnownVisualFeature

返すビジュアル機能の種類を示す文字列。

関数

createSynonymMapFromFile(string, string)

SynonymMap オブジェクトを作成するヘルパー メソッド。 これは NodeJS のみのメソッドです。

odata(TemplateStringsArray, unknown[])

文字列リテラルを引用符で囲むエラーを回避するために、odata フィルター式をエスケープします。 使用例:

import { odata } from "@azure/search-documents";

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

サポートされている構文の詳細については、次を参照してください: https://learn.microsoft.com/azure/search/search-query-odata-filter

変数

DEFAULT_BATCH_SIZE

デフォルトのバッチサイズ

DEFAULT_FLUSH_WINDOW

デフォルトのウィンドウフラッシュ間隔

DEFAULT_RETRY_COUNT

リトライのデフォルト回数。

関数の詳細

createSynonymMapFromFile(string, string)

SynonymMap オブジェクトを作成するヘルパー メソッド。 これは NodeJS のみのメソッドです。

function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>

パラメーター

name

string

SynonymMap の名前。

filePath

string

シノニムを含むファイルのパス (改行で区切ります)

返品

Promise<SynonymMap>

SynonymMap オブジェクト

odata(TemplateStringsArray, unknown[])

文字列リテラルを引用符で囲むエラーを回避するために、odata フィルター式をエスケープします。 使用例:

import { odata } from "@azure/search-documents";

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

サポートされている構文の詳細については、次を参照してください: https://learn.microsoft.com/azure/search/search-query-odata-filter

function odata(strings: TemplateStringsArray, values: unknown[]): string

パラメーター

strings

TemplateStringsArray

式の文字列の配列

values

unknown[]

式の値の配列

返品

string

変数の詳細

DEFAULT_BATCH_SIZE

デフォルトのバッチサイズ

DEFAULT_BATCH_SIZE: number

number

DEFAULT_FLUSH_WINDOW

デフォルトのウィンドウフラッシュ間隔

DEFAULT_FLUSH_WINDOW: number

number

DEFAULT_RETRY_COUNT

リトライのデフォルト回数。

DEFAULT_RETRY_COUNT: number

number