@azure/search-documents package
クラス
AzureKeyCredential |
基になるキー値の更新をサポートする静的キーベースの資格情報。 |
GeographyPoint |
グローバル座標の地理的な点を表します。 |
IndexDocumentsBatch |
インデックスに対して複数のドキュメントを含むバッチ操作を実行するために使用されるクラス。 |
SearchClient |
インデックス内のドキュメントのクエリ、追加、更新、削除など、検索インデックスに対する操作を実行するために使用されるクラス。 |
SearchIndexClient |
インデックス、& シノニムマップを管理 (作成、更新、リスト/削除) するための操作を実行するクラス。 |
SearchIndexerClient |
インデクサー、データソース、& スキルセットを管理 (作成、更新、リスト/削除) するための操作を実行するクラス。 |
SearchIndexingBufferedSender |
検索インデックスに対してバッファー処理を実行するために使用されるクラス (追加、更新、削除など)。 |
インターフェイス
AnalyzeRequest |
そのテキストをトークンに分割するために使用されるテキストおよび分析コンポーネントを指定します。 |
AnalyzeResult |
テキストでアナライザーをテストした結果。 |
AnalyzedTokenInfo |
アナライザーによって返されるトークンに関する情報。 |
AsciiFoldingTokenFilter |
最初の 127 文字の ASCII 文字 ("Basic Latin" Unicode ブロック) にないアルファベット、数字、および記号の Unicode 文字を、ASCII に相当する文字に変換します (そのような文字が存在する場合)。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
AutocompleteItem |
オートコンプリート要求の結果。 |
AutocompleteRequest |
あいまい一致のパラメーター、およびその他のオートコンプリート クエリの動作。 |
AutocompleteResult |
オートコンプリート クエリの結果。 |
AzureActiveDirectoryApplicationCredentials |
Azure Key Vaultに格納されている暗号化キーへの認証済みアクセスに使用される、検索サービス用に作成された登録済みアプリケーションの資格情報。 |
BM25Similarity |
Okapi BM25 類似性アルゴリズムに基づくランク付け関数。 BM25 は TF-IDF に似たアルゴリズムであり、長さの正規化 ('b' パラメーターによって制御) と用語周波数飽和 ('k1' パラメーターによって制御) が含まれます。 |
BaseCharFilter |
文字フィルターの基本型。 |
BaseCognitiveServicesAccount |
スキルセットにアタッチされている Azure AI サービス リソースを記述するための基本型。 |
BaseDataChangeDetectionPolicy |
データ変更検出ポリシーの基本型。 |
BaseDataDeletionDetectionPolicy |
データ削除検出ポリシーの基本の種類。 |
BaseLexicalAnalyzer |
アナライザーの基本型。 |
BaseLexicalTokenizer |
トークナイザーの基本型。 |
BaseScoringFunction |
ランク付け中にドキュメント スコアを変更できる関数の基本型。 |
BaseSearchIndexerSkill |
スキルの基本型。 |
BaseSearchRequestOptions |
フィルター処理、並べ替え、ファセット、ページング、およびその他の検索クエリ動作のパラメーター。 |
BaseTokenFilter |
トークン フィルターの基本型。 |
BaseVectorQuery |
ベクター検索クエリとハイブリッド検索クエリのクエリ パラメーター。 |
BaseVectorSearchAlgorithmConfiguration |
インデックス作成やクエリ中に使用されるアルゴリズムに固有の構成オプションが含まれます。 |
CjkBigramTokenFilter |
標準トークナイザーから生成される CJK 用語の bigrams を形成します。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
ClassicSimilarity |
TF-IDF の Lucene TFIDFSimilarity 実装を使用するレガシ類似性アルゴリズム。 この TF-IDF のバリエーションでは、静的なドキュメント長の正規化と、検索されたクエリに部分的にのみ一致するドキュメントを罰する調整要因が導入されています。 |
ClassicTokenizer |
ほとんどのヨーロッパ言語ドキュメントの処理に適した文法ベースのトークナイザー。 このトークナイザーは、Apache Lucene を使用して実装されます。 |
CognitiveServicesAccountKey |
スキルセットにアタッチされたキーを使用してプロビジョニングされた Azure AI サービス リソース。 |
CommonGramTokenFilter |
インデックス付けの間に、頻繁に発生する用語に対してバイグラムが作成されます。 1 つの用語も、バイグラムがオーバーレイされてインデックス付けされます。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
ComplexField |
フィールドの名前、データ型、および検索動作を記述するインデックス定義のフィールドを表します。 |
ConditionalSkill |
ブール演算を必要とするシナリオで、出力に割り当てるデータを決定できるようにするスキル。 |
CorsOptions |
インデックスのクロスオリジン リソース共有 (CORS) を制御するオプションを定義します。 |
CreateOrUpdateIndexOptions |
インデックスの作成/更新操作のオプション。 |
CreateOrUpdateSkillsetOptions |
スキルセットの作成/更新操作のオプション。 |
CreateOrUpdateSynonymMapOptions |
シノニムマップの作成/更新操作のオプション。 |
CreateorUpdateDataSourceConnectionOptions |
データソースの作成/更新操作のオプション。 |
CreateorUpdateIndexerOptions |
インデクサーの作成/更新操作のオプション。 |
CustomAnalyzer |
テキストをインデックス付き/検索可能なトークンに変換するプロセスを制御できます。 これは、1 つの定義済みトークナイザーと 1 つ以上のフィルターで構成されるユーザー定義の構成です。 トークナイザーは、テキストをトークンに分割し、トークナイザーによって出力されるトークンを変更するためのフィルターを担当します。 |
CustomEntity |
検出された一致と関連するメタデータに関する情報を含む オブジェクト。 |
CustomEntityAlias |
ルート エンティティ名の代替スペルまたはシノニムを指定するために使用できる複合オブジェクト。 |
CustomEntityLookupSkill |
スキルは、ユーザー定義の単語と語句のカスタム リストからテキストを検索します。 |
DefaultCognitiveServicesAccount |
スキルセットの既定の Azure AI サービス リソースを表す空のオブジェクト。 |
DeleteDataSourceConnectionOptions |
データソースの削除操作のオプション。 |
DeleteIndexOptions |
インデックスの削除操作のオプション。 |
DeleteIndexerOptions |
インデクサーの削除操作のオプション。 |
DeleteSkillsetOptions |
スキルセットの削除操作のオプション。 |
DeleteSynonymMapOptions |
シノニムマップの削除操作のオプション。 |
DictionaryDecompounderTokenFilter |
多くのゲルマン言語に出現する複合語を分解します。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
DistanceScoringFunction |
地理的な場所からの距離に基づいてスコアをブーストする関数を定義します。 |
DistanceScoringParameters |
距離スコアリング関数にパラメーター値を提供します。 |
DocumentExtractionSkill |
エンリッチメント パイプライン内のファイルからコンテンツを抽出するスキル。 |
EdgeNGramTokenFilter |
入力トークンの前面または背面から、指定したサイズの n グラムを生成します。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
EdgeNGramTokenizer |
エッジからの入力を、指定されたサイズの n グラムにトークン化します。 このトークナイザーは、Apache Lucene を使用して実装されます。 |
ElisionTokenFilter |
省略記号が削除されます。 たとえば、"l'avion" (平面) は "avion" (平面) に変換されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
EntityLinkingSkill |
Text Analytics API を使用して、リンクされたエンティティをテキストから抽出します。 |
EntityRecognitionSkill |
テキスト分析エンティティ認識。 |
EntityRecognitionSkillV3 |
Text Analytics API を使用して、テキストからさまざまな種類のエンティティを抽出します。 |
ExhaustiveKnnParameters |
完全な KNN アルゴリズムに固有のパラメーターが含まれています。 |
ExtractiveQueryAnswer |
自然言語で質問として表現されたクエリに応答して返されるドキュメントの内容から回答候補を抽出します。 |
ExtractiveQueryCaption |
検索クエリに関連する文章を含む一致するドキュメントからキャプションを抽出します。 |
FacetResult |
ファセット クエリ結果の 1 つのバケット。 フィールド値が特定の範囲内にあるか、特定の値または間隔を持つドキュメントの数を報告します。 |
FieldMapping |
データ ソース内のフィールドとインデックス内のターゲット フィールドの間のマッピングを定義します。 |
FieldMappingFunction |
インデックスを作成する前にデータ ソースから値を変換する関数を表します。 |
FreshnessScoringFunction |
日時フィールドの値に基づいてスコアをブーストする関数を定義します。 |
FreshnessScoringParameters |
鮮度スコアリング関数にパラメーター値を提供します。 |
GetDocumentOptions |
1 つのドキュメントを取得するためのオプション。 |
HighWaterMarkChangeDetectionPolicy |
高いウォーター マーク列の値に基づいて変更をキャプチャするデータ変更検出ポリシーを定義します。 |
HnswParameters |
hnsw アルゴリズムに固有のパラメーターを格納します。 |
ImageAnalysisSkill |
画像ファイルを分析するスキル。 画像コンテンツに基づいて豊富なビジュアル機能のセットを抽出します。 |
IndexDocumentsClient |
インデックス ドキュメント クライアント |
IndexDocumentsOptions |
インデックスバッチ変更操作のオプション。 |
IndexDocumentsResult |
インデックス作成要求内のすべてのドキュメントの操作の状態を含む応答。 |
IndexerExecutionResult |
個々のインデクサー実行の結果を表します。 |
IndexingParameters |
インデクサー実行のパラメーターを表します。 |
IndexingParametersConfiguration |
インデクサー固有の構成プロパティのディクショナリ。 各名前は、特定のプロパティの名前です。 各値はプリミティブ型である必要があります。 |
IndexingResult |
1 つのドキュメントのインデックス作成操作の状態。 |
IndexingSchedule |
インデクサー実行のスケジュールを表します。 |
InputFieldMappingEntry |
スキルの入力フィールド マッピング。 |
KeepTokenFilter |
指定した単語の一覧に含まれるテキストを持つトークンのみを保持するトークン フィルター。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
KeyPhraseExtractionSkill |
キー フレーズ抽出にテキスト分析を使用するスキル。 |
KeywordMarkerTokenFilter |
用語がキーワードとしてマークされます。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
KeywordTokenizer |
入力全体が 1 つのトークンとして生成されます。 このトークナイザーは、Apache Lucene を使用して実装されます。 |
LanguageDetectionSkill |
入力テキストの言語を検出し、要求で送信されたすべてのドキュメントに対して 1 つの言語コードを報告するスキル。 言語コードは、分析の信頼度を示すスコアとペアになっています。 |
LengthTokenFilter |
長すぎる単語または短すぎる単語が削除されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
LimitTokenFilter |
インデックス付けの間に、トークンの数が制限されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
ListSearchResultsPageSettings |
検索結果の次のページを取得するための引数。 |
LuceneStandardAnalyzer |
Standard Apache Lucene アナライザー。標準のトークナイザー、小文字のフィルター、および停止フィルターで構成されます。 |
LuceneStandardTokenizer |
Unicode テキスト セグメント化ルールに従ってテキストを分割します。 このトークナイザーは、Apache Lucene を使用して実装されます。 |
MagnitudeScoringFunction |
数値フィールドの大きさに基づいてスコアをブーストする関数を定義します。 |
MagnitudeScoringParameters |
マグニチュード スコアリング関数にパラメーター値を提供します。 |
MappingCharFilter |
マッピング オプションで定義されたマッピングを適用する文字フィルター。 一致は最長一致です (特定ポイントでの最長パターン マッチングを優先)。 空の文字列での置換が許可されます。 この文字フィルターは、Apache Lucene を使用して実装されます。 |
MergeSkill |
2 つ以上の文字列を 1 つの統合文字列にマージするスキル。オプションのユーザー定義区切り記号で各コンポーネント パーツを区切ります。 |
MicrosoftLanguageStemmingTokenizer |
言語固有のルールを使用してテキストが分割され、基本フォームに単語が減らされます。 |
MicrosoftLanguageTokenizer |
言語固有のルールを使用してテキストが分割されます。 |
NGramTokenFilter |
指定サイズの n グラムが生成されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
NGramTokenizer |
入力が指定サイズの n グラムにトークン化されます。 このトークナイザーは、Apache Lucene を使用して実装されます。 |
OcrSkill |
イメージ ファイルからテキストを抽出するスキル。 |
OutputFieldMappingEntry |
スキルの出力フィールド マッピング。 |
PIIDetectionSkill |
Text Analytics API を使用して、入力テキストから個人情報を抽出し、それをマスクするオプションを提供します。 |
PathHierarchyTokenizer |
パスのような階層のトークナイザー。 このトークナイザーは、Apache Lucene を使用して実装されます。 |
PatternAnalyzer |
正規表現のパターンを使用してテキストを用語に柔軟に分割します。 このアナライザーは、Apache Lucene を使用して実装されます。 |
PatternCaptureTokenFilter |
Java 正規表現を使用して、1 つ以上のパターンでキャプチャ グループごとに 1 つずつ、複数のトークンを出力します。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
PatternReplaceCharFilter |
入力文字列内の文字を置き換える文字フィルター。 正規表現を使用して維持する文字のシーケンスが識別され、置換パターンを使用して置換する文字が識別されます。 たとえば、入力テキスト "aa bb aa bb"、パターン "(aa)\s+(bb)"、置換後の "$1#$2" を指定すると、結果は "aa#bb aa#bb" になります。 この文字フィルターは、Apache Lucene を使用して実装されます。 |
PatternReplaceTokenFilter |
入力文字列内の文字を置き換える文字フィルター。 正規表現を使用して維持する文字のシーケンスが識別され、置換パターンを使用して置換する文字が識別されます。 たとえば、入力テキスト "aa bb aa bb"、パターン "(aa)\s+(bb)"、置換後の "$1#$2" を指定すると、結果は "aa#bb aa#bb" になります。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
PatternTokenizer |
正規表現パターン マッチングを使用して個別のトークンを構築するトークナイザー。 このトークナイザーは、Apache Lucene を使用して実装されます。 |
PhoneticTokenFilter |
音声一致用のトークンが作成されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
QueryAnswerResult |
回答は、クエリに一致した最も関連性の高いドキュメントの内容から抽出されたテキストの一節です。 回答は上位の検索結果から抽出されます。 回答候補がスコア付けされ、上位の回答が選択されます。 |
QueryCaptionResult |
キャプションは、ドキュメントから検索クエリまでの最も代表的な一節です。 多くの場合、ドキュメントの概要として使用されます。 キャプションは、 型 |
ResourceCounter |
リソースの使用量とクォータを表します。 |
ScoringProfile |
検索クエリのスコアリングに影響を与える検索インデックスのパラメーターを定義します。 |
SearchClientOptions |
Cognitive Search API 要求の構成に使用されるクライアント オプション。 |
SearchDocumentsPageResult |
インデックスからの検索ページの結果を含む応答。 |
SearchDocumentsResult |
インデックスからの検索結果を含む応答。 |
SearchDocumentsResultBase |
インデックスからの検索結果を含む応答。 |
SearchIndex |
インデックスのフィールドと検索動作を記述する検索インデックス定義を表します。 |
SearchIndexClientOptions |
Cognitive Search API 要求の構成に使用されるクライアント オプション。 |
SearchIndexStatistics |
特定のインデックスの統計。 統計は定期的に収集され、常に最新であるとは限りません。 |
SearchIndexer |
インデクサーを表します。 |
SearchIndexerClientOptions |
Cognitive Search API 要求の構成に使用されるクライアント オプション。 |
SearchIndexerDataContainer |
インデックスが作成されるエンティティ (Azure SQL テーブルや CosmosDB コレクションなど) に関する情報を表します。 |
SearchIndexerDataSourceConnection |
インデクサーの構成に使用できるデータソース定義を表します。 |
SearchIndexerError |
アイテムレベルまたはドキュメントレベルのインデックス作成エラーを表します。 |
SearchIndexerKnowledgeStore |
エンリッチされたデータの Azure BLOB、テーブル、またはファイルへの追加のプロジェクションの定義。 |
SearchIndexerKnowledgeStoreBlobProjectionSelector |
具象セレクター間でプロパティを共有する抽象クラス。 |
SearchIndexerKnowledgeStoreFileProjectionSelector |
Azure Filesに格納するデータのプロジェクション定義。 |
SearchIndexerKnowledgeStoreObjectProjectionSelector |
Azure Blob に格納するデータのプロジェクション定義。 |
SearchIndexerKnowledgeStoreProjection |
さまざまなプロジェクション セレクターのコンテナー オブジェクト。 |
SearchIndexerKnowledgeStoreProjectionSelector |
具象セレクター間でプロパティを共有する抽象クラス。 |
SearchIndexerKnowledgeStoreTableProjectionSelector |
Azure Tables に格納するデータの説明。 |
SearchIndexerLimits | |
SearchIndexerSkillset |
スキルの一覧。 |
SearchIndexerStatus |
インデクサーの現在の状態と実行の履歴を表します。 |
SearchIndexerWarning |
アイテム レベルの警告を表します。 |
SearchIndexingBufferedSenderOptions |
SearchIndexingBufferedSender のオプション。 |
SearchResourceEncryptionKey |
Azure Key Vaultのカスタマー マネージド暗号化キー。 作成および管理するキーは、インデックスやシノニム マップなど、Azure Cognitive Searchの保存データを暗号化または暗号化解除するために使用できます。 |
SearchServiceStatistics |
サービス統計の取得要求からの応答。 成功した場合は、サービス レベルのカウンターと制限が含まれます。 |
SearchSuggester |
Suggest API をインデックス内のフィールドのグループに適用する方法を定義します。 |
SemanticConfiguration |
セマンティック機能のコンテキストで使用する特定の構成を定義します。 |
SemanticField |
セマンティック構成の一部として使用されるフィールド。 |
SemanticPrioritizedFields |
セマンティック ランク付け、キャプション、強調表示、回答に使用するタイトル、コンテンツ、キーワードのフィールドについて説明します。 |
SemanticSearch |
セマンティック機能に影響を与える検索インデックスのパラメーターを定義します。 |
SemanticSearchOptions |
セマンティック検索クエリのオプションを定義します |
SentimentSkill |
テキスト分析の肯定的-否定的な感情分析。0 から 1 の範囲の浮動小数点値としてスコア付けされます。 |
SentimentSkillV3 |
Text Analytics API を使用して、非構造化テキストを評価し、各レコードに対して、文とドキュメント レベルでサービスによって見つかった最高の信頼度スコアに基づいてセンチメント ラベル ("negative"、"neutral"、"positive" など) を提供します。 |
ServiceCounters |
サービス レベルのリソース カウンターとクォータを表します。 |
ServiceLimits |
さまざまなサービス レベルの制限を表します。 |
ShaperSkill |
出力を再作成するためのスキル。 複合フィールド (マルチパート フィールドとも呼ばれます) をサポートする複合型を作成します。 |
ShingleTokenFilter |
トークンの組み合わせが 1 つのトークンとして作成されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
Similarity |
類似性アルゴリズムの基本型。 類似性アルゴリズムは、クエリをドキュメントに結び付けるスコアを計算するために使用されます。 スコアが高いほど、その特定のクエリに対するドキュメントの関連性が高くなります。 これらのスコアは、検索結果のランク付けに使用されます。 |
SimpleField |
フィールドの名前、データ型、および検索動作を記述する、インデックス定義内のフィールドを表します。 |
SnowballTokenFilter |
Snowball で生成されたステマーを使用して単語をステミングするフィルター。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
SoftDeleteColumnDeletionDetectionPolicy |
論理的な削除戦略を実装するデータ削除検出ポリシーを定義します。 指定された "論理的な削除" 列の値に基づいて、アイテムを削除するかどうかを決定します。 |
SplitSkill |
文字列をテキストのチャンクに分割するスキル。 |
SqlIntegratedChangeTrackingPolicy |
Azure SQL Database の統合Change Tracking機能を使用して変更をキャプチャするデータ変更検出ポリシーを定義します。 |
StemmerOverrideTokenFilter |
ユーザー辞書ベースのステミングを使用して、他のステミング フィルターをオーバーライドする機能を提供します。 辞書で語幹を付けた用語はキーワードとしてマークされるため、チェーンの下のステマーで語幹を付けなくなります。 すべてのステミング フィルターの前に配置する必要があります。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
StemmerTokenFilter |
言語固有のステミング フィルター。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
StopAnalyzer |
テキストを文字以外で分割します。小文字とストップワードのトークン フィルターを適用します。 このアナライザーは、Apache Lucene を使用して実装されます。 |
StopwordsTokenFilter |
トークン ストリームからストップワードが削除されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
SuggestDocumentsResult |
インデックスからの提案クエリ結果を含む応答。 |
SuggestRequest |
フィルター処理、並べ替え、あいまい一致、およびその他の候補のクエリ動作のパラメーター。 |
SynonymMap |
シノニム マップ定義を表します。 |
SynonymTokenFilter |
トークン ストリーム内の単一または複数単語のシノニムと一致します。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
TagScoringFunction |
特定のタグの一覧に一致する文字列値を持つドキュメントのスコアを向上させる関数を定義します。 |
TagScoringParameters |
タグ スコアリング関数にパラメーター値を提供します。 |
TextTranslationSkill |
ある言語から別の言語にテキストを翻訳するスキル。 |
TextWeights |
検索クエリで一致がスコアリングを向上させるインデックス フィールドの重みを定義します。 |
TruncateTokenFilter |
用語を特定の長さに切り捨てます。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
UaxUrlEmailTokenizer |
URL と電子メールが 1 つのトークンとしてトークン化されます。 このトークナイザーは、Apache Lucene を使用して実装されます。 |
UniqueTokenFilter |
前のトークンと同じテキストのトークンが除外されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
VectorSearch |
ベクター検索に関連する構成オプションが含まれています。 |
VectorSearchOptions |
ベクター検索クエリのオプションを定義します |
VectorSearchProfile |
ベクター検索で使用する構成の組み合わせを定義します。 |
VectorizedQuery |
生のベクター値が指定されている場合にベクター検索に使用するクエリ パラメーター。 |
WebApiSkill |
Web API エンドポイントを呼び出すことができるスキル。カスタム コードを呼び出すことでスキルセットを拡張できます。 |
WordDelimiterTokenFilter |
単語がサブ単語に分割され、部分語のグループに対してオプションの変換が実行されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
型エイリアス
AnalyzeTextOptions |
テキストの分析操作のオプション。 |
AutocompleteMode |
AutocompleteMode の値を定義します。 |
AutocompleteOptions |
部分 searchText の入力候補テキストを取得するためのオプション。 |
BlobIndexerDataToExtract |
サービスでサポートされている既知の値storageMetadata: 標準の BLOB プロパティとユーザー指定のメタデータのみをインデックス化します。 allMetadata: Azure BLOB ストレージ サブシステムによって提供されるメタデータとコンテンツ タイプ固有のメタデータ (たとえば、.png ファイルのみに固有のメタデータがインデックス付けされます) を抽出します。 contentAndMetadata: 各 BLOB からすべてのメタデータとテキスト コンテンツを抽出します。 |
BlobIndexerImageAction |
サービスでサポートされている既知の値none: データ セット内の埋め込みイメージまたはイメージ ファイルを無視します。 既定値です。 generateNormalizedImages: 画像からテキストを抽出し (たとえば、トラフィック停止記号から "STOP" という単語)、コンテンツ フィールドに埋め込みます。 このアクションでは、"dataToExtract" が "contentAndMetadata" に設定されている必要があります。 正規化された画像とは、画像を視覚的な検索結果に含めるときに、一貫性のあるレンダリングを促進するためにサイズを変更して回転する、均一な画像出力をもたらす追加の処理を指します。 このオプションを使用すると、各画像に対してこの情報が生成されます。 generateNormalizedImagePerPage: 画像 (たとえば、トラフィック停止記号から "STOP" という単語) からテキストを抽出し、コンテンツ フィールドに埋め込みますが、各ページが画像としてレンダリングされ、埋め込まれた画像を抽出するのではなく、それに応じて正規化されるという点で PDF ファイルの処理方法が異なります。 PDF 以外のファイルの種類は、"generateNormalizedImages" が設定されている場合と同じように扱われます。 |
BlobIndexerPDFTextRotationAlgorithm |
サービスでサポートされている既知の値none: 通常のテキスト抽出を利用します。 既定値です。 detectAngles: テキストを回転させた PDF ファイルから、より適切で読みやすいテキスト抽出が生成される場合があります。 このパラメーターを使用すると、パフォーマンス速度への影響が小さくなる可能性があることに注意してください。 このパラメーターは PDF ファイルにのみ適用され、テキストが埋め込まれた PDF にのみ適用されます。 回転したテキストが PDF の埋め込み画像内に表示される場合、このパラメーターは適用されません。 |
BlobIndexerParsingMode |
サービスでサポートされている既知の値default: 通常のファイル処理の場合は既定値に設定します。 text: BLOB ストレージ内のプレーン テキスト ファイルのインデックス作成のパフォーマンスを向上させるために、テキストに設定します。 delimitedText: BLOB がプレーン CSV ファイルの場合は、delimitedText に設定します。 json: JSON ファイルから構造化コンテンツを抽出するには、json に設定します。 jsonArray: jsonArray に設定すると、JSON 配列の個々の要素がAzure Cognitive Search内の個別のドキュメントとして抽出されます。 jsonLines: jsonLines に設定すると、新しい行で区切られた個々の JSON エンティティが、Azure Cognitive Search内の個別のドキュメントとして抽出されます。 |
CharFilter |
CharFilter の可能性のあるケースが含まれます。 |
CharFilterName |
CharFilterName の値を定義します。 サービスでサポートされている既知の値html_strip: HTML コンストラクトを取り除こうとする文字フィルター。 「https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html」を参照してください。 |
CjkBigramTokenFilterScripts |
CjkBigramTokenFilterScripts の値を定義します。 |
CognitiveServicesAccount |
CognitiveServicesAccount で考えられるケースが含まれます。 |
ComplexDataType |
ComplexDataType の値を定義します。 使用できる値は、'Edm.ComplexType'、'Collection(Edm.ComplexType)' です。 |
CountDocumentsOptions |
インデックスに対してカウント操作を実行するためのオプション。 |
CreateDataSourceConnectionOptions |
データソースの作成操作のオプション。 |
CreateIndexOptions |
インデックス作成操作のオプション。 |
CreateIndexerOptions |
インデクサーの作成操作のオプション。 |
CreateSkillsetOptions |
スキルセット操作を作成するためのオプション。 |
CreateSynonymMapOptions |
シノニムマップの作成操作のオプション。 |
CustomEntityLookupSkillLanguage |
CustomEntityLookupSkillKnownCustomEntityLookupSkillLanguage でサポートされている言語を定義します。この型と同じ意味で使用できます |
DataChangeDetectionPolicy |
DataChangeDetectionPolicy で考えられるケースが含まれます。 |
DataDeletionDetectionPolicy |
DataDeletionDetectionPolicy で考えられるケースが含まれます。 |
DeleteDocumentsOptions |
ドキュメントの削除操作のオプション。 |
EdgeNGramTokenFilterSide |
EdgeNGramTokenFilterSide の値を定義します。 |
EntityCategory | |
EntityRecognitionSkillLanguage |
EntityRecognitionSkillKnownEntityRecognitionSkillLanguage でサポートされている言語を定義します。この型と同じ意味で使用できます |
ExcludedODataTypes | |
ExhaustiveKnnAlgorithmConfiguration |
クエリ中に使用される完全な KNN アルゴリズムに固有の構成オプションが含まれています。これにより、ベクター インデックス全体でブルート フォース検索が実行されます。 |
ExtractDocumentKey | |
GetDataSourceConnectionOptions |
データソースの取得操作のオプション。 |
GetIndexOptions |
インデックスの取得操作のオプション。 |
GetIndexStatisticsOptions |
インデックス統計の取得操作のオプション。 |
GetIndexerOptions |
インデクサーの取得操作のオプション。 |
GetIndexerStatusOptions |
インデクサーの状態の取得操作のオプション。 |
GetServiceStatisticsOptions |
サービス統計の取得操作のオプション。 |
GetSkillSetOptions |
スキルセットの取得操作のオプション。 |
GetSynonymMapsOptions |
シノニムマップの取得操作のオプション。 |
HnswAlgorithmConfiguration |
インデックス作成時に使用される hnsw 近似最近隣アルゴリズムに固有の構成オプションが含まれます。 |
ImageAnalysisSkillLanguage |
ImageAnalysisSkillKnownImageAnalysisSkillLanguage でサポートされている言語を定義します。この型と同じ意味で使用できます |
ImageDetail | |
IndexActionType |
IndexActionType の値を定義します。 |
IndexDocumentsAction |
ドキュメントに対して動作するインデックス アクションを表します。 |
IndexIterator |
Search Serviceに存在するインデックスを一覧表示するための反復子。 イテレーション中に必要に応じて要求を行います。 .byPage() を使用して、イテレーションごとにサーバーに対して 1 つの要求を行います。 |
IndexNameIterator |
Search Serviceに存在するインデックスを一覧表示するための反復子。 イテレーション中に必要に応じて要求を行います。 .byPage() を使用して、イテレーションごとにサーバーに対して 1 つの要求を行います。 |
IndexerExecutionEnvironment |
サービスでサポートされている既知の値standard: Azure Cognitive Searchがインデクサーを実行する場所を決定できることを示します。 これは、何も指定されていない場合の既定の環境であり、推奨される値です。 private: 検索サービス専用にプロビジョニングされた環境でインデクサーを実行する必要があることを示します。 これは、インデクサーが共有プライベート リンク リソース経由でリソースに安全にアクセスする必要がある場合にのみ、実行環境として指定する必要があります。 |
IndexerExecutionStatus |
IndexerExecutionStatus の値を定義します。 |
IndexerStatus |
IndexerStatus の値を定義します。 |
KeyPhraseExtractionSkillLanguage |
KeyPhraseExtractionSkillKnownKeyPhraseExtractionSkillLanguage でサポートされている言語を定義します。この型と同じ意味で使用できます |
LexicalAnalyzer |
アナライザーで使用できるケースが含まれています。 |
LexicalAnalyzerName |
LexicalAnalyzerName の値を定義します。 サービスでサポートされている既知の値ar.microsoft: アラビア語用 Microsoft アナライザー。 |
LexicalTokenizer |
トークナイザーで使用できるケースが含まれます。 |
LexicalTokenizerName |
LexicalTokenizerName の値を定義します。 サービスでサポートされている既知の値classic: ほとんどのヨーロッパ言語ドキュメントの処理に適した文法ベースのトークナイザー。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html」を参照してください。 |
ListDataSourceConnectionsOptions |
リスト データ ソース操作のオプション。 |
ListIndexersOptions |
リスト インデクサー操作のオプション。 |
ListIndexesOptions |
リスト インデックス操作のオプション。 |
ListSkillsetsOptions |
リスト スキルセット操作のオプション。 |
ListSynonymMapsOptions |
list synonymMaps 操作のオプション。 |
MergeDocumentsOptions |
ドキュメントの差し込み印刷操作のオプション。 |
MergeOrUploadDocumentsOptions |
ドキュメントのマージまたはアップロード操作のオプション。 |
MicrosoftStemmingTokenizerLanguage |
MicrosoftStemmingTokenizerLanguage の値を定義します。 |
MicrosoftTokenizerLanguage |
MicrosoftTokenizerLanguage の値を定義します。 |
NarrowedModel |
選択したフィールドのみを含むようにモデルの種類を絞り込みます |
OcrSkillLanguage |
OcrSkillKnownOcrSkillLanguage でサポートされている言語を定義し、この型と同じ意味で使用できます |
PIIDetectionSkillMaskingMode |
PIIDetectionSkillMaskingMode の値を定義します。 サービスでサポートされている既知の値none: マスクは発生せず、maskedText 出力は返されません。 replace: 検出されたエンティティを、maskingCharacter パラメーターで指定された文字に置き換えます。 オフセットが入力テキストと出力 maskedText の両方に正しく対応するように、文字は検出されたエンティティの長さに繰り返されます。 |
PhoneticEncoder |
PhoneticEncoder の値を定義します。 |
QueryAnswer |
検索応答の一部として回答を返すかどうかを示す 値。
このパラメーターは、クエリの種類が 'semantic' の場合にのみ有効です。 が に |
QueryCaption |
検索応答の一部としてキャプションを返す必要があるかどうかを示す 値。 このパラメーターは、クエリの種類が 'semantic' の場合にのみ有効です。 設定されている場合、クエリは、最上位のランク付けされたドキュメント内の主要な部分から抽出されたキャプションを返します。 キャプションが "抽出" の場合、強調表示は既定で有効になっています。 既定値は 'none' です。 |
QueryType |
QueryType の値を定義します。 |
RegexFlags |
正規表現パターン マッチングのフラグを定義します サービスでサポートされている既知の値CANON_EQ: 正規の等価性を有効にします。 CASE_INSENSITIVE: 大文字と小文字を区別しない照合を有効にします。 COMMENTS: パターン内の空白とコメントを許可します。 DOTALL: dotall モードを有効にします。 LITERAL: パターンのリテラル解析を有効にします。 MULTILINE: マルチライン モードを有効にします。 UNICODE_CASE: Unicode 対応のケース フォールディングを有効にします。 UNIX_LINES: Unix 行モードを有効にします。 |
ResetIndexerOptions |
インデクサーのリセット操作のオプション。 |
RunIndexerOptions |
インデクサーの実行操作のオプション。 |
ScoringFunction |
ScoringFunction の可能性のあるケースが含まれます。 |
ScoringFunctionAggregation |
ScoringFunctionAggregation の値を定義します。 |
ScoringFunctionInterpolation |
ScoringFunctionInterpolation の値を定義します。 |
ScoringStatistics |
ScoringStatistics の値を定義します。 |
SearchField |
フィールドの名前、データ型、および検索動作を記述するインデックス定義のフィールドを表します。 |
SearchFieldArray |
が型指定されていないオブジェクトの場合 |
SearchFieldDataType |
SearchFieldDataType の値を定義します。 使用できる値は、'Edm.String'、'Edm.Int32'、'Edm.Int64'、'Edm.Double'、'Edm.Boolean'、'Edm.DateTimeOffset'、'Edm.GeographyPoint'、 'Collection(Edm.String)'、'Collection(Edm.Int32)'、'Collection(Edm.Int64)'、'Collection(Edm.Double)'、'Collection(Edm.Boolean)'、'Collection(Edm.DateTimeOffset)'、'Collection(Edm.GeographyPoint)'、'Collection(Edm.Single)' NB: |
SearchIndexerDataSourceType | |
SearchIndexerSkill |
Skill の考えられるケースが含まれます。 |
SearchIndexingBufferedSenderDeleteDocumentsOptions |
SearchIndexingBufferedSenderDeleteDocuments のオプション。 |
SearchIndexingBufferedSenderFlushDocumentsOptions |
SearchIndexingBufferedSenderFlushDocuments のオプション。 |
SearchIndexingBufferedSenderMergeDocumentsOptions |
SearchIndexingBufferedSenderMergeDocuments のオプション。 |
SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions |
SearchIndexingBufferedSenderMergeOrUploadDocuments のオプション。 |
SearchIndexingBufferedSenderUploadDocumentsOptions |
SearchIndexingBufferedSenderUploadDocuments のオプション。 |
SearchIterator |
paticular クエリの検索結果の反復子。 イテレーション中に必要に応じて要求を行います。 .byPage() を使用して、イテレーションごとにサーバーに対して 1 つの要求を行います。 |
SearchMode |
SearchMode の値を定義します。 |
SearchOptions |
完全な検索要求をコミットするためのオプション。 |
SearchPick |
有効な Cognitive Search OData $select パスを使用して、T のフィールドを深く選択します。 |
SearchRequestOptions |
フィルター処理、並べ替え、ファセット、ページング、およびその他の検索クエリ動作のパラメーター。 |
SearchRequestQueryTypeOptions | |
SearchResult |
検索クエリによって検出されたドキュメントと、関連するメタデータが含まれます。 |
SelectArray |
が指定されていない場合 |
SelectFields |
T にルート化されたフィールド ツリーの後順序トラバーサルを使用して、T の有効な Cognitive Search OData $select パスの和集合を生成します。 |
SemanticErrorMode |
partial: セマンティック処理が失敗した場合でも、部分的な結果が返されます。 部分的な結果の定義は、失敗したセマンティック ステップと失敗の理由によって異なります。 fail: セマンティック処理ステップ中に例外がある場合、クエリは失敗し、エラーに応じて適切な HTTP コードを返します。 |
SemanticErrorReason |
maxWaitExceeded: 'semanticMaxWaitInMilliseconds' が設定され、セマンティック処理期間がその値を超えた場合。 基本結果のみが返されました。 capacityOverloaded: 要求が調整されました。 基本結果のみが返されました。 transient: セマンティック プロセスの少なくとも 1 つのステップが失敗しました。 |
SemanticSearchResultsType |
baseResults: セマンティック エンリッチメントや再ランク付けのない結果。 rerankedResults: 結果は再ランカー モデルで再ランク付けされ、セマンティック キャプションが含まれます。 回答、回答の強調表示、またはキャプションの強調表示は含まれません。 |
SentimentSkillLanguage |
SentimentSkill KnownSentimentSkillLanguage でサポートされている言語を定義します。この型と同じ意味で使用できます |
SimilarityAlgorithm |
類似性の可能性のあるケースが含まれています。 |
SnowballTokenFilterLanguage |
SnowballTokenFilterLanguage の値を定義します。 |
SplitSkillLanguage |
SplitSkillKnownSplitSkillLanguage でサポートされている言語を定義します。この型と同じ意味で使用できます |
StemmerTokenFilterLanguage |
StemmerTokenFilterLanguage の値を定義します。 |
StopwordsList |
StopwordsList の値を定義します。 |
SuggestNarrowedModel | |
SuggestOptions |
searchText に基づいて候補を取得するためのオプション。 |
SuggestResult |
提案クエリによって検出されたドキュメントと、関連付けられているメタデータを含む結果。 |
TextSplitMode | |
TextTranslationSkillLanguage |
TextTranslationSkillKnownTextTranslationSkillLanguage でサポートされている言語を定義します。この型と同じ意味で使用できます |
TokenCharacterKind |
TokenCharacterKind の値を定義します。 |
TokenFilter |
TokenFilter で考えられるケースが含まれています。 |
TokenFilterName |
TokenFilterName の値を定義します。 サービスでサポートされている既知の値arabic_normalization: アラビア語のノーマライザーを適用して序数を正規化するトークン フィルター。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html」を参照してください。 |
UnionToIntersection | |
UploadDocumentsOptions |
ドキュメントのアップロード操作のオプション。 |
VectorFilterMode |
ベクター検索の実行前または実行後にフィルターを適用するかどうかを指定します。 |
VectorQuery |
ベクター検索クエリとハイブリッド検索クエリのクエリ パラメーター。 |
VectorQueryKind | |
VectorSearchAlgorithmConfiguration |
インデックス作成やクエリ中に使用されるアルゴリズムに固有の構成オプションが含まれます。 |
VectorSearchAlgorithmKind | |
VectorSearchAlgorithmMetric |
ベクター比較に使用する類似性メトリック。 |
VisualFeature |
列挙型
機能
create |
SynonymMap オブジェクトを作成するヘルパー メソッド。 これは NodeJS のみのメソッドです。 |
odata(Template |
文字列リテラルを引用符で囲むエラーを回避するために、odata フィルター式をエスケープします。 使用例:
サポートされている構文の詳細については、次を参照してください。 https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter |
関数の詳細
createSynonymMapFromFile(string, string)
SynonymMap オブジェクトを作成するヘルパー メソッド。 これは NodeJS のみのメソッドです。
function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>
パラメーター
- name
-
string
SynonymMap の名前。
- filePath
-
string
シノニムを含むファイルのパス (改行で区切ります)
戻り値
Promise<SynonymMap>
SynonymMap オブジェクト
odata(TemplateStringsArray, unknown[])
文字列リテラルを引用符で囲むエラーを回避するために、odata フィルター式をエスケープします。 使用例:
const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;
サポートされている構文の詳細については、次を参照してください。 https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter
function odata(strings: TemplateStringsArray, values: unknown[]): string
パラメーター
- strings
-
TemplateStringsArray
式の文字列の配列
- values
-
unknown[]
式の値の配列
戻り値
string