次の方法で共有


@azure/search-documents package

クラス

AzureKeyCredential

基になるキー値の更新をサポートする静的キーベースの資格情報。

GeographyPoint

グローバル座標内の地理的な点を表します。

IndexDocumentsBatch

インデックスに対して複数のドキュメントを含むバッチ操作を実行するために使用されるクラス。

SearchClient

インデックス内のドキュメントのクエリ、追加、更新、削除など、検索インデックスに対する操作を実行するために使用されるクラス。

SearchIndexClient

インデックス、& シノニムマップの管理 (作成、更新、リスト/削除) 操作を実行するクラス。

SearchIndexerClient

インデクサー、データソース、& スキルセットを管理 (作成、更新、リスト/削除) する操作を実行するクラス。

SearchIndexingBufferedSender

検索インデックスに対してバッファー操作 (追加、更新、削除など) を実行するために使用されるクラス。

インターフェイス

AnalyzeRequest

そのテキストをトークンに分割するために使用されるテキストおよび分析コンポーネントをいくつか指定します。

AnalyzeResult

テキストでアナライザーをテストした結果。

AnalyzedTokenInfo

アナライザーによって返されるトークンに関する情報。

AsciiFoldingTokenFilter

最初の 127 個の ASCII 文字 ("Basic Latin" Unicode ブロック) に含まれていないアルファベット、数字、記号の Unicode 文字を、ASCII に相当する文字に変換します (そのような文字が存在する場合)。 このトークン フィルターは、Apache Lucene を使用して実装されます。

AutocompleteItem

オートコンプリート要求の結果。

AutocompleteRequest

あいまい一致のパラメーター、およびその他のオートコンプリート クエリの動作。

AutocompleteResult

オートコンプリート クエリの結果。

AzureActiveDirectoryApplicationCredentials

Azure Key Vault に格納されている暗号化キーへの認証済みアクセスに使用される、検索サービス用に作成された登録済みアプリケーションの資格情報。

AzureOpenAIEmbeddingSkill

Azure OpenAI リソースを使用して、特定のテキスト入力のベクター埋め込みを生成できます。

AzureOpenAIParameters

クエリ時のベクター化に Azure Open AI サービスを使用するために固有のパラメーターが含まれています。

AzureOpenAIVectorizer

クエリ時のベクター化に Azure Open AI サービスを使用するために固有のパラメーターが含まれています。

BM25Similarity

Okapi BM25 類似性アルゴリズムに基づくランク付け関数。 BM25 は TF-IDF に似たアルゴリズムであり、長さの正規化 ('b' パラメーターによって制御される) と、用語の頻度の飽和 ('k1' パラメーターによって制御) が含まれます。

BaseCharFilter

文字フィルターの基本型。

BaseCognitiveServicesAccount

スキルセットにアタッチされている Azure AI サービス リソースを記述するための基本型。

BaseDataChangeDetectionPolicy

データ変更検出ポリシーの基本の種類。

BaseDataDeletionDetectionPolicy

データ削除検出ポリシーの基本の種類。

BaseLexicalAnalyzer

アナライザーの基本型。

BaseLexicalTokenizer

トークナイザーの基本型。

BaseScoringFunction

ランク付け中にドキュメント スコアを変更できる関数の基本型。

BaseSearchIndexerDataIdentity

データ ID の抽象基本型。

BaseSearchIndexerSkill

スキルの基本型。

BaseSearchRequestOptions

フィルター処理、並べ替え、ファセット、ページング、およびその他の検索クエリ動作のパラメーター。

BaseTokenFilter

トークン フィルターの基本型。

BaseVectorQuery

ベクター検索クエリとハイブリッド検索クエリのクエリ パラメーター。

BaseVectorSearchAlgorithmConfiguration

インデックス作成やクエリの実行中に使用されるアルゴリズムに固有の構成オプションが含まれています。

BaseVectorSearchCompression

インデックス作成またはクエリ中に使用される圧縮方法に固有の構成オプションが含まれています。

BaseVectorSearchVectorizer

クエリ時に使用するベクター化メソッドの特定の詳細が含まれています。

BinaryQuantizationCompression

インデックス作成およびクエリ中に使用されるバイナリ量子化圧縮方法に固有の構成オプションが含まれています。

CjkBigramTokenFilter

標準トークナイザーから生成される CJK 用語のビグラムを形成します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

ClassicSimilarity

TF-IDF の Lucene TFIDFSimilarity 実装を使用する従来の類似性アルゴリズム。 この TF-IDF のバリエーションでは、静的ドキュメントの長さの正規化と、検索されたクエリの一部にのみ一致するドキュメントに対する影響を受け取る調整要因が導入されています。

ClassicTokenizer

ほとんどのヨーロッパ言語ドキュメントの処理に適した文法ベースのトークナイザー。 このトークナイザーは、Apache Lucene を使用して実装されます。

CognitiveServicesAccountKey

スキルセットにアタッチされている Azure AI サービス リソースのマルチリージョン アカウント キー。

CommonGramTokenFilter

インデックス作成中に頻繁に発生する用語のビグラムを構築します。 単一の用語もインデックスが作成され、バイグラムが重なっています。 このトークン フィルターは、Apache Lucene を使用して実装されます。

ComplexField

インデックス定義内のフィールドを表します。フィールドの名前、データ型、および検索動作を表します。

ConditionalSkill

ブール演算を必要とするシナリオで、出力に割り当てるデータを決定できるようにするスキル。

CorsOptions

インデックスのクロスオリジン リソース共有 (CORS) を制御するオプションを定義します。

CreateOrUpdateIndexOptions

インデックスの作成/更新操作のオプション。

CreateOrUpdateSkillsetOptions

スキルセットの作成/更新操作のオプション。

CreateOrUpdateSynonymMapOptions

シノニムマップの作成/更新操作のオプション。

CreateorUpdateDataSourceConnectionOptions

データソースの作成/更新操作のオプション。

CreateorUpdateIndexerOptions

インデクサーの作成/更新操作のオプション。

CustomAnalyzer

テキストをインデックス可能/検索可能なトークンに変換するプロセスを制御できます。 これは、1 つの定義済みのトークナイザーと 1 つ以上のフィルターで構成されるユーザー定義の構成です。 トークナイザーは、テキストをトークンに分割し、トークナイザーによって出力されるトークンを変更するためのフィルターを担当します。

CustomEntity

検出された一致と関連するメタデータに関する情報を含むオブジェクト。

CustomEntityAlias

ルート エンティティ名の代替のスペルまたはシノニムを指定するために使用できる複合オブジェクト。

CustomEntityLookupSkill

スキルは、ユーザー定義の単語と語句のカスタム リストからテキストを検索します。

DefaultCognitiveServicesAccount

スキルセットの既定の Azure AI サービス リソースを表す空のオブジェクト。

DeleteDataSourceConnectionOptions

データソースの削除操作のオプション。

DeleteIndexOptions

インデックスの削除操作のオプション。

DeleteIndexerOptions

インデクサーの削除操作のオプション。

DeleteSkillsetOptions

スキルセットの削除操作のオプション。

DeleteSynonymMapOptions

シノニムマップの削除操作のオプション。

DictionaryDecompounderTokenFilter

多くのゲルマン語で見つかった複合語を分解します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

DistanceScoringFunction

地理的な場所からの距離に基づいてスコアをブーストする関数を定義します。

DistanceScoringParameters

距離スコアリング関数にパラメーター値を提供します。

DocumentExtractionSkill

エンリッチメント パイプライン内のファイルからコンテンツを抽出するスキル。

EdgeNGramTokenFilter

入力トークンの前面または背面から始まる、指定されたサイズの n グラムを生成します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

EdgeNGramTokenizer

エッジからの入力を特定のサイズの n グラムにトークン化します。 このトークナイザーは、Apache Lucene を使用して実装されます。

ElisionTokenFilter

エリジオンを削除します。 たとえば、"l'avion" (平面) は "avion" (平面) に変換されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

EntityLinkingSkill

Text Analytics API を使用して、リンクされたエンティティをテキストから抽出します。

EntityRecognitionSkill

テキスト分析エンティティの認識。

EntityRecognitionSkillV3

Text Analytics API を使用して、テキストからさまざまな種類のエンティティを抽出します。

ExhaustiveKnnParameters

完全な KNN アルゴリズムに固有のパラメーターが含まれています。

ExtractiveQueryAnswer

自然言語で質問として表現されたクエリに応答して返されたドキュメントの内容から回答候補を抽出します。

ExtractiveQueryCaption

検索クエリに関連する一節を含む一致するドキュメントからキャプションを抽出します。

FacetResult

ファセット クエリ結果の 1 つのバケット。 フィールド値が特定の範囲内または特定の値または間隔を持つドキュメントの数を報告します。

FieldMapping

データ ソース内のフィールドとインデックス内のターゲット フィールドの間のマッピングを定義します。

FieldMappingFunction

インデックス作成の前にデータ ソースから値を変換する関数を表します。

FreshnessScoringFunction

日時フィールドの値に基づいてスコアをブーストする関数を定義します。

FreshnessScoringParameters

新度スコアリング関数にパラメーター値を提供します。

GetDocumentOptions

1 つのドキュメントを取得するためのオプション。

HighWaterMarkChangeDetectionPolicy

高基準列の値に基づいて変更をキャプチャするデータ変更検出ポリシーを定義します。

HnswParameters

hnsw アルゴリズムに固有のパラメーターを格納します。

ImageAnalysisSkill

画像ファイルを分析するスキル。 画像の内容に基づいて、豊富なビジュアル機能のセットを抽出します。

IndexDocumentsClient

Index Documents クライアント

IndexDocumentsOptions

インデックスのバッチ変更操作のオプション。

IndexDocumentsResult

インデックス作成要求内のすべてのドキュメントの操作の状態を含む応答。

IndexerExecutionResult

個々のインデクサー実行の結果を表します。

IndexingParameters

インデクサー実行のパラメーターを表します。

IndexingParametersConfiguration

インデクサー固有の構成プロパティのディクショナリ。 各名前は、特定のプロパティの名前です。 各値はプリミティブ型である必要があります。

IndexingResult

1 つのドキュメントのインデックス作成操作の状態。

IndexingSchedule

インデクサー実行のスケジュールを表します。

InputFieldMappingEntry

スキルの入力フィールド マッピング。

KeepTokenFilter

指定した単語の一覧に含まれるテキストを持つトークンのみを保持するトークン フィルター。 このトークン フィルターは、Apache Lucene を使用して実装されます。

KeyPhraseExtractionSkill

キー フレーズ抽出にテキスト分析を使用するスキル。

KeywordMarkerTokenFilter

用語をキーワードとしてマークします。 このトークン フィルターは、Apache Lucene を使用して実装されます。

KeywordTokenizer

入力全体を 1 つのトークンとして出力します。 このトークナイザーは、Apache Lucene を使用して実装されます。

LanguageDetectionSkill

入力テキストの言語を検出し、要求で送信されたすべてのドキュメントに対して 1 つの言語コードを報告するスキル。 言語コードは、分析の信頼度を示すスコアとペアになっています。

LengthTokenFilter

長すぎる単語または短すぎる単語を削除します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

LimitTokenFilter

インデックス作成中のトークンの数を制限します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

ListSearchResultsPageSettings

検索結果の次のページを取得するための引数。

LuceneStandardAnalyzer

Standard Apache Lucene アナライザー。標準トークナイザー、小文字フィルター、および停止フィルターで構成されます。

LuceneStandardTokenizer

Unicode テキストのセグメント化ルールに従ってテキストを区切ります。 このトークナイザーは、Apache Lucene を使用して実装されます。

MagnitudeScoringFunction

数値フィールドの大きさに基づいてスコアをブーストする関数を定義します。

MagnitudeScoringParameters

パラメーター値をマグニチュード スコアリング関数に提供します。

MappingCharFilter

マッピング オプションで定義されたマッピングを適用する文字フィルター。 一致は最長一致です (特定のポイントで最も長いパターン マッチングが優先されます)。 置換は空の文字列にすることができます。 この文字フィルターは、Apache Lucene を使用して実装されます。

MergeSkill

2 つ以上の文字列を 1 つの統合文字列にマージするスキル。オプションのユーザー定義区切り記号で各コンポーネント部分を区切ります。

MicrosoftLanguageStemmingTokenizer

言語固有のルールを使用してテキストを分割し、単語を基本フォームに減らします。

MicrosoftLanguageTokenizer

言語固有のルールを使用してテキストを分割します。

NGramTokenFilter

指定されたサイズの n グラムを生成します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

NGramTokenizer

指定したサイズの n グラムに入力をトークン化します。 このトークナイザーは、Apache Lucene を使用して実装されます。

OcrSkill

画像ファイルからテキストを抽出するスキル。

OutputFieldMappingEntry

スキルの出力フィールド マッピング。

PIIDetectionSkill

Text Analytics API を使用して、入力テキストから個人情報を抽出し、それをマスクするオプションを提供します。

PathHierarchyTokenizer

パスに似た階層のトークナイザー。 このトークナイザーは、Apache Lucene を使用して実装されます。

PatternAnalyzer

正規表現パターンを使用して、テキストを用語に柔軟に分割します。 このアナライザーは、Apache Lucene を使用して実装されます。

PatternCaptureTokenFilter

Java 正規表現を使用して、1 つ以上のパターンでキャプチャ グループごとに 1 つずつ、複数のトークンを出力します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

PatternReplaceCharFilter

入力文字列内の文字を置き換える文字フィルター。 正規表現を使用して保持する文字シーケンスを識別し、置換する文字を識別する置換パターンを使用します。 たとえば、入力テキスト "aa bb aa bb"、パターン "(aa)\s+(bb)"、置換後の "$1#$2" を指定すると、結果は "aa#bb aa#bb" になります。 この文字フィルターは、Apache Lucene を使用して実装されます。

PatternReplaceTokenFilter

入力文字列内の文字を置き換える文字フィルター。 正規表現を使用して保持する文字シーケンスを識別し、置換する文字を識別する置換パターンを使用します。 たとえば、入力テキスト "aa bb aa bb"、パターン "(aa)\s+(bb)"、置換後の "$1#$2" を指定すると、結果は "aa#bb aa#bb" になります。 このトークン フィルターは、Apache Lucene を使用して実装されます。

PatternTokenizer

正規表現パターン マッチングを使用して個別のトークンを構築するトークナイザー。 このトークナイザーは、Apache Lucene を使用して実装されます。

PhoneticTokenFilter

ふりがなのトークンを作成します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

QueryAnswerResult

回答は、クエリに一致した最も関連性の高いドキュメントの内容から抽出されたテキストの一節です。 回答は上位の検索結果から抽出されます。 回答候補がスコア付けされ、上位の回答が選択されます。

QueryCaptionResult

キャプションは、ドキュメントから検索クエリまでの最も代表的な一節です。 多くの場合、ドキュメントの概要として使用されます。 キャプションは、semantic型のクエリに対してのみ返されます。

ResourceCounter

リソースの使用量とクォータを表します。

ScalarQuantizationCompression

インデックス作成およびクエリ中に使用されるスカラー量子化圧縮方法に固有の構成オプションが含まれています。

ScalarQuantizationParameters

スカラー量子化に固有のパラメーターを格納します。

ScoringProfile

検索クエリのスコア付けに影響を与える検索インデックスのパラメーターを定義します。

SearchClientOptions

Cognitive Search API 要求の構成に使用されるクライアント オプション。

SearchDocumentsPageResult

インデックスからの検索ページの結果を含む応答。

SearchDocumentsResult

インデックスからの検索結果を含む応答。

SearchDocumentsResultBase

インデックスからの検索結果を含む応答。

SearchIndex

インデックスのフィールドと検索動作を記述する検索インデックス定義を表します。

SearchIndexClientOptions

Cognitive Search API 要求の構成に使用されるクライアント オプション。

SearchIndexStatistics

特定のインデックスの統計。 統計は定期的に収集され、常に -date up-toされるとは限りません。

SearchIndexer

インデクサーを表します。

SearchIndexerClientOptions

Cognitive Search API 要求の構成に使用されるクライアント オプション。

SearchIndexerDataContainer

インデックスが作成されるエンティティ (Azure SQL テーブルや CosmosDB コレクションなど) に関する情報を表します。

SearchIndexerDataNoneIdentity

データソースの ID プロパティをクリアします。

SearchIndexerDataSourceConnection

インデクサーの構成に使用できるデータソース定義を表します。

SearchIndexerDataUserAssignedIdentity

使用するデータソースの ID を指定します。

SearchIndexerError

アイテム レベルまたはドキュメント レベルのインデックス作成エラーを表します。

SearchIndexerIndexProjection

セカンダリ検索インデックスへの追加プロジェクションの定義。

SearchIndexerIndexProjectionParameters

インデックス プロジェクション固有の構成プロパティのディクショナリ。 各名前は、特定のプロパティの名前です。 各値はプリミティブ型である必要があります。

SearchIndexerIndexProjectionSelector

指定された検索インデックスに格納するデータの説明。

SearchIndexerKnowledgeStore

エンリッチされたデータの Azure BLOB、テーブル、またはファイルへの追加プロジェクションの定義。

SearchIndexerKnowledgeStoreBlobProjectionSelector

具象セレクター間でプロパティを共有する抽象クラス。

SearchIndexerKnowledgeStoreFileProjectionSelector

Azure Files に格納するデータのプロジェクション定義。

SearchIndexerKnowledgeStoreObjectProjectionSelector

Azure BLOB に格納するデータのプロジェクション定義。

SearchIndexerKnowledgeStoreParameters

ナレッジ ストア固有の構成プロパティのディクショナリ。 各名前は、特定のプロパティの名前です。 各値はプリミティブ型である必要があります。

SearchIndexerKnowledgeStoreProjection

さまざまなプロジェクション セレクターのコンテナー オブジェクト。

SearchIndexerKnowledgeStoreProjectionSelector

具象セレクター間でプロパティを共有する抽象クラス。

SearchIndexerKnowledgeStoreTableProjectionSelector

Azure テーブルに格納するデータの説明。

SearchIndexerLimits
SearchIndexerSkillset

スキルの一覧。

SearchIndexerStatus

インデクサーの現在の状態と実行履歴を表します。

SearchIndexerWarning

項目レベルの警告を表します。

SearchIndexingBufferedSenderOptions

SearchIndexingBufferedSender のオプション。

SearchResourceEncryptionKey

Azure Key Vault のカスタマー マネージド暗号化キー。 作成および管理するキーは、インデックスやシノニム マップなど、Azure Cognitive Search の保存データを暗号化または復号化するために使用できます。

SearchServiceStatistics

サービス統計情報の取得要求からの応答。 成功した場合は、サービス レベルのカウンターと制限が含まれます。

SearchSuggester

Suggest API をインデックス内のフィールドのグループに適用する方法を定義します。

SemanticConfiguration

セマンティック機能のコンテキストで使用する特定の構成を定義します。

SemanticField

セマンティック構成の一部として使用されるフィールド。

SemanticPrioritizedFields

セマンティック ランク付け、キャプション、強調表示、回答に使用するタイトル、コンテンツ、キーワードのフィールドについて説明します。

SemanticSearch

セマンティック機能に影響を与える検索インデックスのパラメーターを定義します。

SemanticSearchOptions

セマンティック検索クエリのオプションを定義します

SentimentSkill

テキスト分析の肯定的-否定的なセンチメント分析。0 から 1 の範囲の浮動小数点値としてスコア付けされます。

SentimentSkillV3

Text Analytics API を使用して、非構造化テキストを評価し、各レコードに対して、文とドキュメント レベルでサービスによって検出された最高の信頼度スコアに基づいてセンチメント ラベル ("負"、"ニュートラル"、"肯定的"など) を提供します。

ServiceCounters

サービス レベルのリソース カウンターとクォータを表します。

ServiceLimits

さまざまなサービス レベルの制限を表します。

ShaperSkill

出力を再整形するためのスキル。 複合フィールド (マルチパート フィールドとも呼ばれます) をサポートする複合型が作成されます。

ShingleTokenFilter

トークンの組み合わせを 1 つのトークンとして作成します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

Similarity

類似性アルゴリズムの基本型。 類似性アルゴリズムは、クエリをドキュメントに関連付けるスコアを計算するために使用されます。 スコアが高いほど、ドキュメントはその特定のクエリに対して関連性が高くなります。 これらのスコアは、検索結果のランク付けに使用されます。

SimpleField

インデックス定義内のフィールドを表します。フィールドの名前、データ型、および検索動作を表します。

SnowballTokenFilter

Snowball で生成されたステマーを使用して単語の語幹を読み上めるフィルター。 このトークン フィルターは、Apache Lucene を使用して実装されます。

SoftDeleteColumnDeletionDetectionPolicy

論理的な削除戦略を実装するデータ削除検出ポリシーを定義します。 指定された "論理的な削除" 列の値に基づいて、アイテムを削除するかどうかを決定します。

SplitSkill

文字列をテキストのチャンクに分割するスキル。

SqlIntegratedChangeTrackingPolicy

Azure SQL Database の統合変更追跡機能を使用して変更をキャプチャするデータ変更検出ポリシーを定義します。

StemmerOverrideTokenFilter

ユーザー辞書ベースのステミングを使用して、他のステミング フィルターをオーバーライドする機能を提供します。 辞書で語幹を付けた用語はキーワードとしてマークされるため、チェーンの下にあるステマーで語幹を付けないようにします。 ステミング フィルターの前に配置する必要があります。 このトークン フィルターは、Apache Lucene を使用して実装されます。

StemmerTokenFilter

言語固有のステミング フィルター。 このトークン フィルターは、Apache Lucene を使用して実装されます。

StopAnalyzer

テキストを文字以外で除算します。小文字とストップワードのトークン フィルターを適用します。 このアナライザーは、Apache Lucene を使用して実装されます。

StopwordsTokenFilter

トークン ストリームからストップ ワードを削除します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

SuggestDocumentsResult

インデックスからの提案クエリ結果を含む応答。

SuggestRequest

フィルター処理、並べ替え、あいまい一致、およびその他の検索候補のクエリ動作のパラメーター。

SynonymMap

シノニム マップ定義を表します。

SynonymTokenFilter

トークン ストリーム内の単一または複数単語のシノニムと一致します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

TagScoringFunction

特定のタグのリストに一致する文字列値を持つドキュメントのスコアを向上させる関数を定義します。

TagScoringParameters

タグ スコアリング関数にパラメーター値を提供します。

TextTranslationSkill

ある言語から別の言語にテキストを翻訳するスキル。

TextWeights

検索クエリでスコアリングを向上させる必要がある一致するインデックス フィールドの重みを定義します。

TruncateTokenFilter

用語を特定の長さに切り捨てます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

UaxUrlEmailTokenizer

URL と電子メールを 1 つのトークンとしてトークン化します。 このトークナイザーは、Apache Lucene を使用して実装されます。

UniqueTokenFilter

前のトークンと同じテキストを持つトークンを除外します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

VectorSearch

ベクター検索に関連する構成オプションが含まれています。

VectorSearchOptions

ベクター検索クエリのオプションを定義します

VectorSearchProfile

ベクター検索で使用する構成の組み合わせを定義します。

VectorizableTextQuery

ベクター化する必要があるテキスト値が指定されている場合にベクター検索に使用するクエリ パラメーター。

VectorizedQuery

生のベクター値が指定されたときにベクター検索に使用するクエリ パラメーター。

WebApiParameters

ユーザー定義ベクターライザーに接続するためのプロパティを指定します。

WebApiSkill

Web API エンドポイントを呼び出すことができるスキル。カスタム コードを呼び出すことでスキルセットを拡張できます。

WebApiVectorizer

クエリ文字列のベクター埋め込みを生成するためのユーザー定義ベクターライザーを指定します。 外部ベクターライザーの統合は、スキルセットのカスタム Web API インターフェイスを使用して実現されます。

WordDelimiterTokenFilter

単語をサブワードに分割し、サブワード グループに対してオプションの変換を実行します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

型エイリアス

AnalyzeTextOptions

テキスト分析操作のオプション。

AutocompleteMode

AutocompleteMode の値を定義します。

AutocompleteOptions

部分 searchText の入力候補テキストを取得するためのオプション。

AzureOpenAIModelName

AzureOpenAIModelName の値を定義します。
KnownAzureOpenAIModelName を AzureOpenAIModelName と同じ意味で使用できる 、この列挙型には、サービスがサポートする既知の値が含まれています。

サービスでサポートされている既知の値

text-embedding-ada-002
text-embedding-3-large
text-embedding-3-small

BlobIndexerDataToExtract
BlobIndexerImageAction
BlobIndexerPDFTextRotationAlgorithm
BlobIndexerParsingMode
CharFilter

CharFilter の場合に使用できるケースが含まれます。

CharFilterName

CharFilterName の値を定義します。
CharFilterName と同じ意味で使用できる <xref:KnownCharFilterName>、この列挙型には、サービスがサポートする既知の値が含まれています。

サービスでサポートされている既知の値

html_strip: HTML コンストラクトを除去しようとする文字フィルター。 https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html を参照してください

CjkBigramTokenFilterScripts

CjkBigramTokenFilterScripts の値を定義します。

CognitiveServicesAccount

CognitiveServicesAccount の可能性のあるケースが含まれています。

ComplexDataType

ComplexDataType の値を定義します。 指定できる値は、'Edm.ComplexType'、'Collection(Edm.ComplexType)' です。

CountDocumentsOptions

インデックスに対してカウント操作を実行するためのオプション。

CreateDataSourceConnectionOptions

データソースの作成操作のオプション。

CreateIndexOptions

インデックス作成操作のオプション。

CreateIndexerOptions

インデクサーの作成操作のオプション。

CreateSkillsetOptions

スキルセット操作を作成するためのオプション。

CreateSynonymMapOptions

シノニムマップの作成操作のオプション。

CustomEntityLookupSkillLanguage
DataChangeDetectionPolicy

DataChangeDetectionPolicy で使用できるケースが含まれています。

DataDeletionDetectionPolicy

DataDeletionDetectionPolicy で使用できるケースが含まれています。

DeleteDocumentsOptions

ドキュメントの削除操作のオプション。

EdgeNGramTokenFilterSide

EdgeNGramTokenFilterSide の値を定義します。

EntityCategory
EntityRecognitionSkillLanguage
ExcludedODataTypes
ExhaustiveKnnAlgorithmConfiguration

クエリ中に使用される完全な KNN アルゴリズムに固有の構成オプションが含まれており、ベクター インデックス全体でブルート フォース検索を実行します。

ExtractDocumentKey
GetDataSourceConnectionOptions

データソースの取得操作のオプション。

GetIndexOptions

インデックス取得操作のオプション。

GetIndexStatisticsOptions

インデックス統計の取得操作のオプション。

GetIndexerOptions

インデクサーの取得操作のオプション。

GetIndexerStatusOptions

インデクサーの状態の取得操作のオプション。

GetServiceStatisticsOptions

サービス統計の取得操作のオプション。

GetSkillSetOptions

スキルセットの取得操作のオプション。

GetSynonymMapsOptions

シノニムマップの取得操作のオプション。

HnswAlgorithmConfiguration

インデックス作成時に使用される hnsw 近似最近傍アルゴリズムに固有の構成オプションが含まれています。

ImageAnalysisSkillLanguage
ImageDetail
IndexActionType

IndexActionType の値を定義します。

IndexDocumentsAction

ドキュメントに対して動作するインデックス アクションを表します。

IndexIterator

Search サービスに存在するインデックスを一覧表示するための反復子。 イテレーション中に必要に応じて要求を行います。 .byPage() を使用して、反復処理ごとにサーバーに 1 つの要求を行います。

IndexNameIterator

Search サービスに存在するインデックスを一覧表示するための反復子。 イテレーション中に必要に応じて要求を行います。 .byPage() を使用して、反復処理ごとにサーバーに 1 つの要求を行います。

IndexProjectionMode

IndexProjectionMode の値を定義します。
KnownIndexProjectionMode IndexProjectionMode と同じ意味で使用できますが、この列挙型には、サービスがサポートする既知の値が含まれています。

サービスでサポートされている既知の値

skipIndexingParentDocuments: ソース ドキュメントはインデクサーのターゲット インデックスへの書き込みからスキップされます。
includeIndexingParentDocuments: ソース ドキュメントはインデクサーのターゲット インデックスに書き込まれます。 これが既定のパターンです。

IndexerExecutionEnvironment
IndexerExecutionStatus

IndexerExecutionStatus の値を定義します。

IndexerStatus

IndexerStatus の値を定義します。

KeyPhraseExtractionSkillLanguage
LexicalAnalyzer

アナライザーで使用できるケースが含まれています。

LexicalAnalyzerName

LexicalAnalyzerName の値を定義します。
LexicalAnalyzerName と同じ意味で使用できる <xref:KnownLexicalAnalyzerName>、この列挙型には、サービスがサポートする既知の値が含まれています。

サービスでサポートされている既知の値

ar.microsoft: アラビア語用 Microsoft アナライザー。
ar.lucene: アラビア語用 Lucene アナライザー。
hy.lucene: アルメニア語用 Lucene アナライザー。
bn.microsoft: Bangla 用 Microsoft アナライザー。
eu.lucene: バスク用 Lucene アナライザー。
bg.microsoft: ブルガリア語用 Microsoft アナライザー。
bg.lucene: ブルガリア語用 Lucene アナライザー。
ca.microsoft: カタロニア語用 Microsoft アナライザー。
ca.lucene: カタロニア語用 Lucene アナライザー。
zh-Hans.microsoft: Microsoft analyzer for Chinese (簡体字)。
zh-Hans.lucene: 中国語用 Lucene アナライザー (簡体字)。
zh-Hant.microsoft: Microsoft analyzer for Chinese (繁体字)。
zh-Hant.lucene: 中国語用 Lucene アナライザー (繁体字)。
hr.microsoft: クロアチア語用 Microsoft アナライザー。
cs.microsoft: チェコ語用 Microsoft アナライザー。
cs.lucene: チェコ語用 Lucene アナライザー。
da.microsoft: デンマーク語用 Microsoft アナライザー。
da.lucene: デンマーク語用 Lucene アナライザー。
nl.microsoft: オランダ語用 Microsoft アナライザー。
nl.lucene: オランダ語用 Lucene アナライザー。
en.microsoft: 英語用 Microsoft アナライザー。
en.lucene: 英語用 Lucene アナライザー。
et.microsoft: エストニア語用 Microsoft アナライザー。
fi.microsoft: フィンランド語用 Microsoft アナライザー。
fi.lucene: フィンランド語用 Lucene アナライザー。
fr.microsoft: フランス語用 Microsoft アナライザー。
fr.lucene: フランス語用 Lucene アナライザー。
gl.lucene: ガリシア語用 Lucene アナライザー。
de.microsoft: ドイツ語用 Microsoft アナライザー。
de.lucene: ドイツ語用 Lucene アナライザー。
el.microsoft: ギリシャ語用 Microsoft アナライザー。
el.lucene: ギリシャ語用 Lucene アナライザー。
gu.microsoft: Gujarati 用 Microsoft アナライザー。
he.microsoft: ヘブライ語用 Microsoft アナライザーを します。
hi.microsoft: ヒンディー語用 Microsoft アナライザー。
hi.lucene: ヒンディー語用 Lucene アナライザー。
hu.microsoft: ハンガリー語用 Microsoft アナライザー。
hu.lucene: ハンガリー語用 Lucene アナライザー。
is.microsoft: アイスランドの Microsoft アナライザー。
id.microsoft: インドネシア語用 Microsoft アナライザー (Bahasa)。
id.lucene: インドネシア語用 Lucene アナライザー。
ga.lucene: アイルランド語用 Lucene アナライザー。
it.microsoft
: イタリア語用 Microsoft アナライザーを します。
.lucene: イタリア語用 Lucene アナライザー。
ja.microsoft: 日本語用 Microsoft アナライザー。
ja.lucene: 日本語用 Lucene アナライザー。
kn.microsoft: カンナダ用 Microsoft アナライザー。
ko.microsoft: 韓国語用 Microsoft アナライザー。
ko.lucene: 韓国語用 Lucene アナライザー。
lv.microsoft: ラトビア語用 Microsoft アナライザー。
lv.lucene: ラトビア語用 Lucene アナライザー。
lt.microsoft: リトアニア語用 Microsoft アナライザー。
ml.microsoft: マラヤーラム用 Microsoft アナライザー。
ms.microsoft
: マレー語 (ラテン) 用 Microsoft アナライザーを します。
mr.microsoft
: Marathi 用 Microsoft アナライザーを します。
nb.microsoft: ノルウェー語 (Bokmål) 用 Microsoft アナライザー。
no.lucene: ノルウェー語用 Lucene アナライザー。
fa.lucene: ペルシャ語用 Lucene アナライザー。
pl.microsoft: ポーランド語用 Microsoft アナライザー。
pl.lucene: ポーランド語用 Lucene アナライザー。
pt-BR.microsoft: ポルトガル語 (ブラジル) 用 Microsoft アナライザー。
pt-BR.lucene: ポルトガル語 (ブラジル) 用 Lucene アナライザー。
pt-PT.microsoft: ポルトガル語 (ポルトガル) 用 Microsoft アナライザー。
pt-PT.lucene: ポルトガル語 (ポルトガル) 用 Lucene アナライザー。
pa.microsoft: Punjabi 用 Microsoft アナライザー。
ro.microsoft: ルーマニア語用 Microsoft アナライザー。
ro.lucene: ルーマニア語用 Lucene アナライザー。
ru.microsoft: ロシア語用 Microsoft アナライザー。
ru.lucene: ロシア語用 Lucene アナライザー。
sr-cyrillic.microsoft: セルビア語 (キリル) 用 Microsoft アナライザー。
sr-latin.microsoft: セルビア語 (ラテン) 用 Microsoft アナライザー。
sk.microsoft: スロバキア語用 Microsoft アナライザー。
sl.microsoft: スロベニア語用 Microsoft アナライザー。
es.microsoft: スペイン語用 Microsoft アナライザー。
es.lucene: スペイン語用 Lucene アナライザー。
sv.microsoft: スウェーデン語用 Microsoft アナライザー。
sv.lucene: スウェーデン語用 Lucene アナライザー。
ta.microsoft: Tamil 用 Microsoft アナライザー。
te.microsoft
: Telugu 用 Microsoft アナライザーを します。
th.microsoft: タイ語用 Microsoft アナライザー。
th.lucene: タイ語用 Lucene アナライザー。
tr.microsoft: トルコ語用 Microsoft アナライザー。
tr.lucene: トルコ語用 Lucene アナライザー。
uk.microsoft: ウクライナ語用 Microsoft アナライザー。
your.microsoft
: Urdu 用 Microsoft アナライザーを します。
vi.microsoft: ベトナム語用 Microsoft アナライザー。
standard.lucene: Standard Lucene アナライザー。
standardasciifolding.lucene: Standard ASCII フォールディング Lucene アナライザー。 https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers を参照してください
キーワード: フィールドの内容全体を 1 つのトークンとして扱います。 これは、郵便番号、ID、一部の製品名などのデータに役立ちます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html を参照してください
パターン: 正規表現パターンを使用して、テキストを用語に柔軟に分離します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html を参照してください
単純な: テキストを文字以外で分割し、小文字に変換します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html を参照してください
停止: 文字以外でテキストを分割します。小文字とストップワードのトークン フィルターを適用します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html を参照してください
空白: 空白トークナイザーを使用するアナライザー。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html を参照してください

LexicalTokenizer

トークナイザーの可能性のあるケースが含まれています。

LexicalTokenizerName

LexicalTokenizerName の値を定義します。
<xref:KnownLexicalTokenizerName> LexicalTokenizerName と同じ意味で使用できますが、この列挙型には、サービスがサポートする既知の値が含まれています。

サービスでサポートされている既知の値

クラシック: ほとんどのヨーロッパ言語ドキュメントの処理に適した文法ベースのトークナイザーです。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html を参照してください
edgeNGram: エッジからの入力を特定のサイズの n グラムにトークン化します。 https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html を参照してください
keyword_v2: 入力全体を 1 つのトークンとして出力します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html を参照してください
文字: 文字以外の文字で区切ります。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html を参照してください
小文字の: テキストを文字以外で分割し、小文字に変換します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html を参照してください
microsoft_language_tokenizer: 言語固有のルールを使用してテキストを分割します。
microsoft_language_stemming_tokenizer: 言語固有のルールを使用してテキストを分割し、単語を基本フォームに減らします。
nGram: 指定したサイズの n グラムに入力をトークン化します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html を参照してください
path_hierarchy_v2: パスに似た階層のトークナイザー。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html を参照してください
パターン: 正規表現パターン マッチングを使用して個別のトークンを構築するトークナイザー。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html を参照してください
standard_v2: 標準 Lucene アナライザー;標準トークナイザー、小文字フィルター、および停止フィルターで構成されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html を参照してください
uax_url_email: URL と電子メールを 1 つのトークンとしてトークン化します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html を参照してください
空白: 空白でテキストを分割します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html を参照してください

ListDataSourceConnectionsOptions

リスト データ ソース操作のオプション。

ListIndexersOptions

リスト インデクサー操作のオプション。

ListIndexesOptions

リスト インデックス操作のオプション。

ListSkillsetsOptions

リスト スキルセット操作のオプション。

ListSynonymMapsOptions

list synonymMaps 操作のオプション。

MergeDocumentsOptions

ドキュメントの差し込み印刷操作のオプション。

MergeOrUploadDocumentsOptions

ドキュメントのマージまたはアップロード操作のオプション。

MicrosoftStemmingTokenizerLanguage

MicrosoftStemmingTokenizerLanguage の値を定義します。

MicrosoftTokenizerLanguage

MicrosoftTokenizerLanguage の値を定義します。

NarrowedModel

選択したフィールドのみを含むようにモデルの種類を絞り込みます。

OcrLineEnding

OcrLineEnding の値を定義します。
KnownOcrLineEnding OcrLineEnding と同じ意味で使用できますが、この列挙型には、サービスがサポートする既知の値が含まれています。

サービスでサポートされている既知の値

スペース: 行は 1 つのスペース文字で区切られます。
carriageReturn: 行は復帰 ('\r') 文字で区切られます。
lineFeed: 行は 1 つの改行 ('\n') 文字で区切られます。
carriageReturnLineFeed: 行は復帰文字と改行 ('\r\n') 文字で区切られます。

OcrSkillLanguage
PIIDetectionSkillMaskingMode
PhoneticEncoder

PhoneticEncoder の値を定義します。

QueryAnswer

検索応答の一部として回答を返す必要があるかどうかを指定する値。 このパラメーターは、クエリの種類が 'semantic' の場合にのみ有効です。 extractiveに設定すると、クエリは最もランクの高いドキュメントの主要な一節から抽出された回答を返します。

QueryCaption

キャプションを検索応答の一部として返す必要があるかどうかを指定する値。 このパラメーターは、クエリの種類が 'semantic' の場合にのみ有効です。 設定した場合、クエリは、最もランクの高いドキュメントの主要な通路から抽出されたキャプションを返します。 キャプションが 'extractive' の場合、強調表示は既定で有効になります。 既定値は 'none' です。

QueryType

QueryType の値を定義します。

RegexFlags
ResetIndexerOptions

インデクサーのリセット操作のオプション。

RunIndexerOptions

インデクサーの実行操作のオプション。

ScoringFunction

ScoringFunction の可能性のあるケースが含まれています。

ScoringFunctionAggregation

ScoringFunctionAggregation の値を定義します。

ScoringFunctionInterpolation

ScoringFunctionInterpolation の値を定義します。

ScoringStatistics

ScoringStatistics の値を定義します。

SearchField

インデックス定義内のフィールドを表します。フィールドの名前、データ型、および検索動作を表します。

SearchFieldArray

TModel が型指定されていないオブジェクトの場合は、型指定されていない文字列配列。それ以外の場合は、TModelのスラッシュで区切られたフィールド。

SearchFieldDataType

SearchFieldDataType の値を定義します。

サービスでサポートされている既知の値:

Edm.String: フィールドに文字列が含まれていることを示します。

Edm.Int32: フィールドに 32 ビット符号付き整数が含まれていることを示します。

Edm.Int64: フィールドに 64 ビット符号付き整数が含まれていることを示します。

Edm.Double: フィールドに IEEE 倍精度浮動小数点数が含まれていることを示します。

Edm.Boolean: フィールドにブール値 (true または false) が含まれていることを示します。

Edm.DateTimeOffset: フィールドに、タイムゾーン情報を含む日付/時刻値が含まれていることを示します。

Edm.GeographyPoint: フィールドに経度と緯度の観点から geo 位置が含まれていることを示します。

Edm.ComplexType: フィールドに 1 つ以上の複合オブジェクトが含まれていることを示します。このオブジェクトには、他の型のサブフィールドが含まれます。

Edm.Single: フィールドに単精度浮動小数点数が含まれていることを示します。 これは、コレクション型 (Collection(Edm.Single) の一部として使用される場合にのみ有効です。

Edm.Half: フィールドに半精度浮動小数点数が含まれていることを示します。 これは、コレクション型 (Collection(Edm.Half) の一部として使用される場合にのみ有効です。

Edm.Int16: フィールドに 16 ビット符号付き整数が含まれていることを示します。 これは、コレクション型 (Collection(Edm.Int16) の一部として使用される場合にのみ有効です。

Edm.SByte: フィールドに 8 ビット符号付き整数が含まれていることを示します。 これは、コレクション型 (Collection(Edm.SByte) の一部として使用される場合にのみ有効です。

Edm.Byte: フィールドに 8 ビット符号なし整数が含まれていることを示します。 これは、コレクション型 (Collection(Edm.Byte) の一部として使用される場合にのみ有効です。

SearchIndexerDataIdentity

SearchIndexerDataIdentity で使用できるケースが含まれます。

SearchIndexerDataSourceType
SearchIndexerSkill

Skill の可能性のあるケースが含まれています。

SearchIndexingBufferedSenderDeleteDocumentsOptions

SearchIndexingBufferedSenderDeleteDocuments のオプション。

SearchIndexingBufferedSenderFlushDocumentsOptions

SearchIndexingBufferedSenderFlushDocuments のオプション。

SearchIndexingBufferedSenderMergeDocumentsOptions

SearchIndexingBufferedSenderMergeDocuments のオプション。

SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions

SearchIndexingBufferedSenderMergeOrUploadDocuments のオプション。

SearchIndexingBufferedSenderUploadDocumentsOptions

SearchIndexingBufferedSenderUploadDocuments のオプション。

SearchIterator

paticular クエリの検索結果を示す反復子。 イテレーション中に必要に応じて要求を行います。 .byPage() を使用して、反復処理ごとにサーバーに 1 つの要求を行います。

SearchMode

SearchMode の値を定義します。

SearchOptions

完全な検索要求をコミットするためのオプション。

SearchPick

有効な Cognitive Search OData $select パスを使用して、T のフィールドを深く選択します。

SearchRequestOptions

フィルター処理、並べ替え、ファセット、ページング、およびその他の検索クエリ動作のパラメーター。

SearchRequestQueryTypeOptions
SearchResult

検索クエリによって検出されたドキュメントと、関連するメタデータが含まれます。

SelectArray

TFields しない場合は、型指定されていない文字列配列。それ以外の場合は、使用する型の他の場所で使用される狭い Fields[] 型です。

SelectFields

T にルート化されたフィールド ツリーの後順序トラバーサルを使用して、T の有効な Cognitive Search OData $select パスの和集合を生成します。

SemanticErrorMode
SemanticErrorReason
SemanticSearchResultsType
SentimentSkillLanguage
SimilarityAlgorithm

類似性の可能性のあるケースが含まれています。

SnowballTokenFilterLanguage

SnowballTokenFilterLanguage の値を定義します。

SplitSkillLanguage
StemmerTokenFilterLanguage

StemmerTokenFilterLanguage の値を定義します。

StopwordsList

StopwordsList の値を定義します。

SuggestNarrowedModel
SuggestOptions

searchText に基づいて検索候補を取得するためのオプション。

SuggestResult

提案クエリによって検出されたドキュメントと、関連付けられているメタデータを含む結果。

TextSplitMode
TextTranslationSkillLanguage
TokenCharacterKind

TokenCharacterKind の値を定義します。

TokenFilter

TokenFilter で使用できるケースが含まれます。

TokenFilterName

TokenFilterName の値を定義します。
TokenFilterName と同じ意味で使用できる <xref:KnownTokenFilterName>、この列挙型には、サービスがサポートする既知の値が含まれています。

サービスでサポートされている既知の値

arabic_normalization: アラビア語のノーマライザーを適用して序数を正規化するトークン フィルター。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html を参照してください
アポストロフィ: アポストロフィの後のすべての文字を取り除きます (アポストロフィ自体を含む)。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html を参照してください
asciifolding: 最初の 127 文字の ASCII 文字 ("Basic Latin" Unicode ブロック) に含まれていないアルファベット、数字、記号の Unicode 文字を、ASCII に相当する文字に変換します (そのような文字が存在する場合)。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html を参照してください
cjk_bigram: 標準トークナイザーから生成される CJK 用語のビグラムを形成します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html を参照してください
cjk_width: CJK の幅の違いを正規化します。 フルwidth ASCIIバリアントを同等の基本的なラテン語に、半角カタカナバリアントを同等のかなに折りたたみます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html を参照してください
クラシック: 頭字語から英語の所有物とドットを削除します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html を参照してください
common_grams: インデックス作成中に頻繁に発生する用語のビグラムを構築します。 単一の用語もインデックスが作成され、バイグラムが重なっています。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html を参照してください
edgeNGram_v2: 入力トークンの前面または背面から始まる、指定されたサイズの n グラムを生成します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html を参照してください
elision: エリシオンを削除します。 たとえば、"l'avion" (平面) は "avion" (平面) に変換されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html を参照してください
german_normalization: German2 snowball アルゴリズムのヒューリスティックに従って、ドイツ語の文字を正規化します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html を参照してください
hindi_normalization: ヒンディー語のテキストを正規化して、スペル バリエーションの違いを削除します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html を参照してください
indic_normalization: インド言語でのテキストの Unicode 表現を正規化します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html を参照してください
keyword_repeat: 各受信トークンをキーワードとして 1 回、非キーワードとして 1 回ずつ出力します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html を参照してください
kstem: 英語用の高性能 kstem フィルター。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html を参照してください
: 長すぎる単語または短すぎる単語を削除します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html を参照してください
制限: インデックス作成中のトークンの数を制限します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html を参照してください
小文字: トークン テキストを小文字に正規化します。 https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html を参照してください
nGram_v2: 指定されたサイズの n グラムを生成します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html を参照してください
persian_normalization: ペルシア語の正規化を適用します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html を参照してください
ふりがな: ふりがなのトークンを作成します。 https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html を参照してください
porter_stem: Porter ステミング アルゴリズムを使用してトークン ストリームを変換します。 http://tartarus.org/~martin/PorterStemmer を参照してください
: トークン文字列を反転します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html を参照してください
scandinavian_normalization: 交換可能なスカンジナビア文字の使用を正規化します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html を参照してください
scandinavian_folding: スカンジナビア文字 åÅäæÄÆ->a および öÖøØ->o. また、二重母音 aa、ae、ao、oe、oo の使用を区別し、最初の母音だけを残します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html を参照してください
シングル: トークンの組み合わせを 1 つのトークンとして作成します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html を参照してください
snowball: Snowball で生成されたステマーを使用して単語を語幹にするフィルター。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html を参照してください
sorani_normalization: Sorani テキストの Unicode 表現を正規化します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html を参照してください
ステマー: 言語固有のステミング フィルター。 https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters を参照してください
ストップワード: トークン ストリームからストップ ワードを削除します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html を参照してください
trim: トークンから先頭と末尾の空白をトリミングします。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html を参照してください
切り捨て: 用語を特定の長さに切り捨てます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html を参照してください
一意の: 前のトークンと同じテキストを使用してトークンを除外します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html を参照してください
大文字: トークン テキストを大文字に正規化します。 https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html を参照してください
word_delimiter: 単語をサブワードに分割し、サブワード グループに対してオプションの変換を実行します。

UnionToIntersection
UploadDocumentsOptions

ドキュメントのアップロード操作のオプション。

VectorEncodingFormat

VectorEncodingFormat の値を定義します。
KnownVectorEncodingFormat VectorEncodingFormat と同じ意味で使用できますが、この列挙型には、サービスがサポートする既知の値が含まれています。

サービスでサポートされている既知の値

packedBit: より広いデータ型にパックされたビットを表すエンコード形式。

VectorFilterMode
VectorQuery

ベクター検索クエリとハイブリッド検索クエリのクエリ パラメーター。

VectorQueryKind
VectorSearchAlgorithmConfiguration

インデックス作成やクエリの実行中に使用されるアルゴリズムに固有の構成オプションが含まれています。

VectorSearchAlgorithmKind
VectorSearchAlgorithmMetric
VectorSearchCompression

インデックス作成またはクエリ中に使用される圧縮方法に固有の構成オプションが含まれています。

VectorSearchCompressionKind

VectorSearchCompressionKind の値を定義します。
KnownVectorSearchCompressionKind VectorSearchCompressionKind と同じ意味で使用できますが、この列挙型には、サービスがサポートする既知の値が含まれています。

サービスでサポートされている既知の値

scalarQuantization: スカラー量子化 (圧縮方法の一種)。 スカラー量子化では、元のベクトル値は、量子化された値の小さなセットを使用してベクトルの各コンポーネントを分離して表すことによって、より狭い型に圧縮され、それによって全体的なデータ サイズが小さくなります。
binaryQuantization: 圧縮方法の一種であるバイナリ量子化。 二項量子化では、元のベクトル値は、バイナリ値を使用してベクトルの各コンポーネントを分離して表すことによって、より狭いバイナリ型に圧縮され、それによって全体的なデータ サイズが小さくなります。

VectorSearchCompressionTarget

VectorSearchCompressionTarget の値を定義します。
KnownVectorSearchCompressionTarget VectorSearchCompressionTarget と同じ意味で使用できますが、この列挙型には、サービスでサポートされている既知の値が含まれています。

サービスでサポートされている既知の値

int8 を する

VectorSearchVectorizer

テキスト ベクター クエリをベクター化する方法に関する構成オプションが含まれています。

VectorSearchVectorizerKind

VectorSearchVectorizerKind の値を定義します。
KnownVectorSearchVectorizerKind を VectorSearchVectorizerKind と同じ意味で使用できる 、この列挙型には、サービスがサポートする既知の値が含まれています。

サービスでサポートされている既知の値

azureOpenAI: クエリ時に Azure OpenAI リソースを使用して埋め込みを生成します。
customWebApi: クエリ時にカスタム Web エンドポイントを使用して埋め込みを生成します。

VisualFeature

列挙型

KnownAnalyzerNames

AnalyzerName の値を定義します。 https://docs.microsoft.com/rest/api/searchservice/Language-support を参照してください

KnownAzureOpenAIModelName

サービス 受け入れる AzureOpenAIModelName の既知の値。

KnownBlobIndexerDataToExtract

サービス 受け入れる BlobIndexerDataToExtract の既知の値。

KnownBlobIndexerImageAction

BlobIndexerImageAction 既知の値は、サービスが受け入れる

KnownBlobIndexerPDFTextRotationAlgorithm

サービス 受け入れる BlobIndexerPDFTextRotationAlgorithm の既知の値。

KnownBlobIndexerParsingMode

サービス 受け入れる BlobIndexerParsingMode の既知の値。

KnownCharFilterNames

CharFilterName の既知の値は、サービスが受け入れる

KnownCustomEntityLookupSkillLanguage

CustomEntityLookupSkillLanguage の既知の値は、サービスが受け入れる

KnownEntityCategory

EntityCategory の既知の値は、サービスが受け入れる

KnownEntityRecognitionSkillLanguage

EntityRecognitionSkillLanguage の既知の値は、サービスが受け入れる

KnownImageAnalysisSkillLanguage

サービス 受け入れる ImageAnalysisSkillLanguage の既知の値。

KnownImageDetail

サービス 受け入れる ImageDetail の既知の値。

KnownIndexProjectionMode

サービス 受け入れる IndexProjectionMode の既知の値。

KnownIndexerExecutionEnvironment

IndexerExecutionEnvironment の既知の値は、サービスが受け入れる

KnownKeyPhraseExtractionSkillLanguage

サービス 受け入れる KeyPhraseExtractionSkillLanguage の既知の値。

KnownOcrLineEnding

サービスが受け入れる OcrLineEnding の既知の値。

KnownOcrSkillLanguage

サービス 受け入れる OcrSkillLanguage の既知の値。

KnownPIIDetectionSkillMaskingMode

サービス 受け入れる PIIDetectionSkillMaskingMode の既知の値。

KnownRegexFlags

サービスが受け入れる RegexFlags 既知の値。

KnownSearchAudience

検索対象ユーザーの既知の値

KnownSearchFieldDataType

サービス 受け入れる SearchFieldDataType の既知の値。

KnownSearchIndexerDataSourceType

サービス 受け入れる SearchIndexerDataSourceType の既知の値。

KnownSemanticErrorMode

SemanticErrorMode の既知の値は、サービスが受け入れる

KnownSemanticErrorReason

SemanticErrorReason の既知の値は、サービスが受け入れる

KnownSemanticSearchResultsType

SemanticSearchResultsType の既知の値は、サービスが受け入れる

KnownSentimentSkillLanguage

SentimentSkillLanguage の既知の値は、サービスが受け入れる

KnownSplitSkillLanguage

SplitSkillLanguage の既知の値は、サービスが受け入れる

KnownTextSplitMode

サービス 受け入れる TextSplitMode の既知の値。

KnownTextTranslationSkillLanguage

サービス 受け入れる TextTranslationSkillLanguage の既知の値。

KnownTokenFilterNames

サービスが受け入れる TokenFilterName の既知の値。

KnownTokenizerNames

LexicalTokenizerName サービスが受け入れる既知の値

KnownVectorEncodingFormat

VectorEncodingFormat 既知の値は、サービスが受け入れる

KnownVectorFilterMode

サービスが受け入れる VectorFilterMode 既知の値。

KnownVectorQueryKind

VectorQueryKind の既知の値は、サービスが受け入れる

KnownVectorSearchAlgorithmKind

VectorSearchAlgorithmKind の既知の値は、サービスが受け入れる

KnownVectorSearchAlgorithmMetric

サービス 受け入れる VectorSearchAlgorithmMetric の既知の値。

KnownVectorSearchCompressionKind

VectorSearchCompressionKind の既知の値は、サービスが受け入れる

KnownVectorSearchCompressionTarget

VectorSearchCompressionTarget の既知の値は、サービスが受け入れる です。

KnownVectorSearchVectorizerKind

VectorSearchVectorizerKind 既知の値は、サービスが受け入れる

KnownVisualFeature

サービスが受け入れる VisualFeature 既知の値。

関数

createSynonymMapFromFile(string, string)

SynonymMap オブジェクトを作成するヘルパー メソッド。 これは NodeJS のみのメソッドです。

odata(TemplateStringsArray, unknown[])

文字列リテラルを引用符で囲むエラーを回避するために、odata フィルター式をエスケープします。 使用例:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

サポートされている構文の詳細については、次を参照してください: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

関数の詳細

createSynonymMapFromFile(string, string)

SynonymMap オブジェクトを作成するヘルパー メソッド。 これは NodeJS のみのメソッドです。

function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>

パラメーター

name

string

SynonymMap の名前。

filePath

string

シノニムを含むファイルのパス (改行で区切ります)

戻り値

Promise<SynonymMap>

SynonymMap オブジェクト

odata(TemplateStringsArray, unknown[])

文字列リテラルを引用符で囲むエラーを回避するために、odata フィルター式をエスケープします。 使用例:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

サポートされている構文の詳細については、次を参照してください: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

function odata(strings: TemplateStringsArray, values: unknown[]): string

パラメーター

strings

TemplateStringsArray

式の文字列の配列

values

unknown[]

式の値の配列

戻り値

string