次の方法で共有


Indexes - Create

新しい検索インデックスを作成します。

POST {endpoint}/indexes?api-version=2024-03-01-Preview

URI パラメーター

名前 / 必須 説明
endpoint
path True

string

検索サービスのエンドポイント URL。

api-version
query True

string

クライアント API のバージョン。

要求ヘッダー

名前 必須 説明
x-ms-client-request-id

string

uuid

デバッグに役立つ要求と共に送信された追跡 ID。

要求本文

名前 必須 説明
fields True

SearchField[]

インデックスのフィールド。

name True

string

インデックスの名前です。

@odata.etag

string

インデックスの ETag。

analyzers LexicalAnalyzer[]:

インデックスのアナライザー。

charFilters CharFilter[]:

インデックスの文字フィルター。

corsOptions

CorsOptions

インデックスのクロスオリジン リソース共有 (CORS) を制御するオプション。

defaultScoringProfile

string

クエリで何も指定されていない場合に使用するスコアリング プロファイルの名前。 このプロパティが設定されておらず、クエリでスコアリング プロファイルが指定されていない場合は、既定のスコアリング (tf-idf) が使用されます。

encryptionKey

SearchResourceEncryptionKey

Azure Key Vaultで作成する暗号化キーの説明。 このキーは、Microsoft だけでなく、誰もデータの暗号化を解除できないという完全な保証が必要な場合に、データの保存時の暗号化レベルを追加するために使用されます。 データを暗号化すると、常に暗号化されたままになります。 検索サービスは、このプロパティを null に設定する試行を無視します。 暗号化キーをローテーションする場合は、必要に応じてこのプロパティを変更できます。データは影響を受けません。 カスタマー マネージド キーを使用した暗号化は、無料の検索サービスでは使用できません。また、2019 年 1 月 1 日以降に作成された有料サービスでのみ使用できます。

normalizers LexicalNormalizer[]:

CustomNormalizer[]

インデックスのノーマライザー。

scoringProfiles

ScoringProfile[]

インデックスのスコアリング プロファイル。

semantic

SemanticSettings

セマンティック機能に影響を与える検索インデックスのパラメーターを定義します。

similarity Similarity:

検索クエリに一致するドキュメントのスコア付けとランク付けの際に使用する類似性アルゴリズムの種類。 類似性アルゴリズムは、インデックス作成時にのみ定義でき、既存のインデックスでは変更できません。 null の場合は、ClassicSimilarity アルゴリズムが使用されます。

suggesters

Suggester[]

インデックスの suggesters。

tokenFilters TokenFilter[]:

インデックスのトークン フィルター。

tokenizers LexicalTokenizer[]:

インデックスのトークナイザー。

vectorSearch

VectorSearch

ベクター検索に関連する構成オプションが含まれています。

応答

名前 説明
201 Created

SearchIndex

Other Status Codes

ErrorResponse

エラー応答。

SearchServiceCreateIndex

要求のサンプル

POST https://myservice.search.windows.net/indexes?api-version=2024-03-01-Preview

{
  "name": "hotels",
  "fields": [
    {
      "name": "hotelId",
      "type": "Edm.String",
      "key": true,
      "searchable": false
    },
    {
      "name": "baseRate",
      "type": "Edm.Double"
    },
    {
      "name": "description",
      "type": "Edm.String",
      "filterable": false,
      "sortable": false,
      "facetable": false
    },
    {
      "name": "descriptionEmbedding",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "synonymMaps": [],
      "dimensions": 1536,
      "vectorSearchProfile": "myCompressedHnswProfile"
    },
    {
      "name": "descriptionEmbedding_notstored",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": false,
      "stored": false,
      "sortable": false,
      "facetable": false,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "synonymMaps": [],
      "dimensions": 1536,
      "vectorSearchProfile": "myCompressedHnswProfile"
    },
    {
      "name": "description_fr",
      "type": "Edm.String",
      "filterable": false,
      "sortable": false,
      "facetable": false,
      "analyzer": "fr.lucene"
    },
    {
      "name": "hotelName",
      "type": "Edm.String"
    },
    {
      "name": "nameEmbedding",
      "type": "Collection(Edm.Half)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "synonymMaps": [],
      "dimensions": 1536,
      "vectorSearchProfile": "myHnswProfile"
    },
    {
      "name": "category",
      "type": "Edm.String"
    },
    {
      "name": "tags",
      "type": "Collection(Edm.String)",
      "analyzer": "tagsAnalyzer"
    },
    {
      "name": "parkingIncluded",
      "type": "Edm.Boolean"
    },
    {
      "name": "smokingAllowed",
      "type": "Edm.Boolean"
    },
    {
      "name": "lastRenovationDate",
      "type": "Edm.DateTimeOffset"
    },
    {
      "name": "rating",
      "type": "Edm.Int32"
    },
    {
      "name": "location",
      "type": "Edm.GeographyPoint"
    }
  ],
  "scoringProfiles": [
    {
      "name": "geo",
      "text": {
        "weights": {
          "hotelName": 5
        }
      },
      "functions": [
        {
          "type": "distance",
          "boost": 5,
          "fieldName": "location",
          "interpolation": "logarithmic",
          "distance": {
            "referencePointParameter": "currentLocation",
            "boostingDistance": 10
          }
        }
      ]
    }
  ],
  "defaultScoringProfile": "geo",
  "suggesters": [
    {
      "name": "sg",
      "searchMode": "analyzingInfixMatching",
      "sourceFields": [
        "hotelName"
      ]
    }
  ],
  "analyzers": [
    {
      "name": "tagsAnalyzer",
      "@odata.type": "#Microsoft.Azure.Search.CustomAnalyzer",
      "charFilters": [
        "html_strip"
      ],
      "tokenizer": "standard_v2"
    }
  ],
  "corsOptions": {
    "allowedOrigins": [
      "tempuri.org"
    ],
    "maxAgeInSeconds": 60
  },
  "encryptionKey": {
    "keyVaultKeyName": "myUserManagedEncryptionKey-createdinAzureKeyVault",
    "keyVaultKeyVersion": "myKeyVersion-32charAlphaNumericString",
    "keyVaultUri": "https://myKeyVault.vault.azure.net",
    "accessCredentials": {
      "applicationId": "00000000-0000-0000-0000-000000000000",
      "applicationSecret": "<applicationSecret>"
    }
  },
  "similarity": {
    "@odata.type": "#Microsoft.Azure.Search.BM25Similarity",
    "b": 0.5,
    "k1": 1.3
  },
  "semantic": {
    "configurations": [
      {
        "name": "semanticHotels",
        "prioritizedFields": {
          "titleField": {
            "fieldName": "hotelName"
          },
          "prioritizedContentFields": [
            {
              "fieldName": "description"
            },
            {
              "fieldName": "description_fr"
            }
          ],
          "prioritizedKeywordsFields": [
            {
              "fieldName": "tags"
            },
            {
              "fieldName": "category"
            }
          ]
        }
      }
    ]
  },
  "vectorSearch": {
    "profiles": [
      {
        "name": "myHnswProfile",
        "algorithm": "myHnsw",
        "vectorizer": "myOpenAi"
      },
      {
        "name": "myCompressedHnswProfile",
        "algorithm": "myHnsw",
        "vectorizer": "myOpenAi",
        "compression": "mySQ8"
      },
      {
        "name": "myAlgorithm",
        "algorithm": "myHnsw"
      }
    ],
    "algorithms": [
      {
        "name": "myHnsw",
        "kind": "hnsw",
        "hnswParameters": {
          "m": 4,
          "metric": "cosine",
          "efConstruction": 400,
          "efSearch": 500
        }
      },
      {
        "name": "myExhaustiveKnn",
        "kind": "exhaustiveKnn",
        "exhaustiveKnnParameters": {
          "metric": "cosine"
        }
      }
    ],
    "compressions": [
      {
        "name": "mySQ8",
        "kind": "scalarQuantization",
        "scalarQuantizationParameters": {
          "quantizedDataType": "int8"
        },
        "rerankWithOriginalVectors": true,
        "defaultOversampling": 10
      }
    ],
    "vectorizers": [
      {
        "name": "myOpenAi",
        "kind": "azureOpenAI",
        "azureOpenAIParameters": {
          "resourceUri": "https://url.openai.azure.com",
          "deploymentId": "text-embedding-ada-002",
          "apiKey": "topsecretkey"
        }
      }
    ]
  }
}

応答のサンプル

{
  "name": "hotels",
  "fields": [
    {
      "name": "hotelId",
      "type": "Edm.String",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": true,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "normalizer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "baseRate",
      "type": "Edm.Double",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "normalizer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "description",
      "type": "Edm.String",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "normalizer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "descriptionEmbedding",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "normalizer": null,
      "dimensions": 1536,
      "vectorSearchProfile": "myCompressedHnswProfile",
      "synonymMaps": []
    },
    {
      "name": "descriptionEmbedding_notstored",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": false,
      "stored": false,
      "sortable": false,
      "facetable": false,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "synonymMaps": [],
      "dimensions": 1536,
      "vectorSearchProfile": "myCompressedHnswProfile"
    },
    {
      "name": "description_fr",
      "type": "Edm.String",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": "fr.lucene",
      "normalizer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "hotelName",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "normalizer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "nameEmbedding",
      "type": "Collection(Edm.Half)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "normalizer": null,
      "dimensions": 1536,
      "vectorSearchProfile": "myHnswProfile",
      "synonymMaps": []
    },
    {
      "name": "category",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "normalizer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "tags",
      "type": "Collection(Edm.String)",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "sortable": false,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": "tagsAnalyzer",
      "normalizer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "parkingIncluded",
      "type": "Edm.Boolean",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "normalizer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "smokingAllowed",
      "type": "Edm.Boolean",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "normalizer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "lastRenovationDate",
      "type": "Edm.DateTimeOffset",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "normalizer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "rating",
      "type": "Edm.Int32",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "normalizer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "location",
      "type": "Edm.GeographyPoint",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": false,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "normalizer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    }
  ],
  "scoringProfiles": [
    {
      "name": "geo",
      "functionAggregation": "sum",
      "text": {
        "weights": {
          "hotelName": 5
        }
      },
      "functions": [
        {
          "fieldName": "location",
          "interpolation": "logarithmic",
          "type": "distance",
          "boost": 5,
          "distance": {
            "referencePointParameter": "currentLocation",
            "boostingDistance": 10
          }
        }
      ]
    }
  ],
  "defaultScoringProfile": "geo",
  "suggesters": [
    {
      "name": "sg",
      "searchMode": "analyzingInfixMatching",
      "sourceFields": [
        "hotelName"
      ]
    }
  ],
  "analyzers": [
    {
      "name": "tagsAnalyzer",
      "@odata.type": "#Microsoft.Azure.Search.CustomAnalyzer",
      "charFilters": [
        "html_strip"
      ],
      "tokenizer": "standard_v2",
      "tokenFilters": []
    }
  ],
  "tokenizers": [],
  "normalizers": [],
  "tokenFilters": [],
  "charFilters": [],
  "corsOptions": {
    "allowedOrigins": [
      "tempuri.org"
    ],
    "maxAgeInSeconds": 60
  },
  "encryptionKey": {
    "keyVaultKeyName": "myUserManagedEncryptionKey-createdinAzureKeyVault",
    "keyVaultKeyVersion": "myKeyVersion-32charAlphaNumericString",
    "keyVaultUri": "https://myKeyVault.vault.azure.net",
    "accessCredentials": {
      "applicationId": "00000000-0000-0000-0000-000000000000",
      "applicationSecret": null
    }
  },
  "similarity": {
    "@odata.type": "#Microsoft.Azure.Search.BM25Similarity",
    "b": 0.5,
    "k1": 1.3
  },
  "semantic": {
    "defaultConfiguration": null,
    "configurations": [
      {
        "name": "semanticHotels",
        "prioritizedFields": {
          "titleField": {
            "fieldName": "hotelName"
          },
          "prioritizedContentFields": [
            {
              "fieldName": "description"
            },
            {
              "fieldName": "description_fr"
            }
          ],
          "prioritizedKeywordsFields": [
            {
              "fieldName": "tags"
            },
            {
              "fieldName": "category"
            }
          ]
        }
      }
    ]
  },
  "vectorSearch": {
    "algorithms": [
      {
        "name": "myHnsw",
        "kind": "hnsw",
        "hnswParameters": {
          "metric": "cosine",
          "m": 4,
          "efConstruction": 400,
          "efSearch": 500
        }
      },
      {
        "name": "myExhaustiveKnn",
        "kind": "exhaustiveKnn",
        "exhaustiveKnnParameters": {
          "metric": "cosine"
        }
      }
    ],
    "profiles": [
      {
        "name": "myHnswProfile",
        "algorithm": "myHnsw",
        "vectorizer": "myOpenAi"
      },
      {
        "name": "myCompressedHnswProfile",
        "algorithm": "myHnsw",
        "vectorizer": "myOpenAi",
        "compression": "mySQ8"
      },
      {
        "name": "myAlgorithm",
        "algorithm": "myHnsw"
      }
    ],
    "compressions": [
      {
        "name": "mySQ8",
        "kind": "scalarQuantization",
        "scalarQuantizationParameters": {
          "quantizedDataType": "int8"
        },
        "rerankWithOriginalVectors": true,
        "defaultOversampling": 10
      }
    ],
    "vectorizers": [
      {
        "name": "myOpenAi",
        "kind": "azureOpenAI",
        "azureOpenAIParameters": {
          "resourceUri": "https://url.openai.azure.com",
          "deploymentId": "text-embedding-ada-002",
          "apiKey": "topsecretkey",
          "authIdentity": null
        }
      }
    ]
  }
}

定義

名前 説明
AsciiFoldingTokenFilter

最初の 127 文字の ASCII 文字 ("Basic Latin" Unicode ブロック) にないアルファベット文字、数値文字、およびシンボリック Unicode 文字を、ASCII に相当する文字 (存在する場合) に変換します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

AzureActiveDirectoryApplicationCredentials

Azure Key Vaultに格納されている暗号化キーへの認証済みアクセスに使用される、検索サービス用に作成された登録済みアプリケーションの資格情報。

AzureOpenAIParameters

Azure OpenAI リソースに接続するためのパラメーターを指定します。

AzureOpenAIVectorizer

クエリ文字列のベクター化に使用される Azure OpenAI リソースを指定します。

BM25Similarity

Okapi BM25 類似性アルゴリズムに基づくランク付け関数。 BM25 は TF-IDF に似たアルゴリズムであり、長さの正規化 ('b' パラメーターによって制御) と用語周波数飽和 ('k1' パラメーターによって制御) が含まれます。

CharFilterName

検索エンジンでサポートされているすべての文字フィルターの名前を定義します。

CjkBigramTokenFilter

Forms標準トークナイザーから生成される CJK 用語のビッグラムです。 このトークン フィルターは、Apache Lucene を使用して実装されます。

CjkBigramTokenFilterScripts

CjkBigramTokenFilter によって無視できるスクリプト。

ClassicSimilarity

TF-IDF の Lucene TFIDFSimilarity 実装を使用するレガシ類似性アルゴリズム。 この TF-IDF のバリエーションでは、静的なドキュメント長の正規化と、検索されたクエリに部分的にのみ一致するドキュメントを罰する調整要因が導入されています。

ClassicTokenizer

ほとんどのヨーロッパ言語ドキュメントの処理に適した文法ベースのトークナイザー。 このトークナイザーは、Apache Lucene を使用して実装されます。

CommonGramTokenFilter

インデックス付けの間に、頻繁に発生する用語に対してバイグラムが作成されます。 1 つの用語も、バイグラムがオーバーレイされてインデックス付けされます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

CorsOptions

インデックスのクロスオリジン リソース共有 (CORS) を制御するオプションを定義します。

CustomAnalyzer

テキストをインデックス付き/検索可能なトークンに変換するプロセスを制御できます。 これは、1 つの定義済みトークナイザーと 1 つ以上のフィルターで構成されるユーザー定義の構成です。 トークナイザーは、テキストをトークンに分割し、トークナイザーによって出力されるトークンを変更するためのフィルターを担当します。

CustomNormalizer

フィルター可能、並べ替え可能、ファセット可能なフィールドの正規化を構成できます。既定では厳密な一致で動作します。 これは、格納されているトークンを変更する、少なくとも 1 つ以上のフィルターで構成されるユーザー定義の構成です。

CustomVectorizer

クエリ文字列のベクター埋め込みを生成するためのユーザー定義ベクター化器を指定します。 外部ベクター化の統合は、スキルセットのカスタム Web API インターフェイスを使用して実現されます。

CustomWebApiParameters

ユーザー定義ベクター化器に接続するためのプロパティを指定します。

DictionaryDecompounderTokenFilter

多くのゲルマン言語に出現する複合語を分解します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

DistanceScoringFunction

地理的な場所からの距離に基づいてスコアをブーストする関数を定義します。

DistanceScoringParameters

距離スコアリング関数にパラメーター値を提供します。

EdgeNGramTokenFilter

入力トークンの前面または背面から始まる、指定されたサイズの n-gram を生成します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

EdgeNGramTokenFilterSide

n-gram を生成する入力の側を指定します。

EdgeNGramTokenFilterV2

入力トークンの前面または背面から始まる、指定されたサイズの n-gram を生成します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

EdgeNGramTokenizer

エッジからの入力を、指定されたサイズの n グラムにトークン化します。 このトークナイザーは、Apache Lucene を使用して実装されます。

ElisionTokenFilter

省略記号が削除されます。 たとえば、"l'avion" (平面) は "avion" (平面) に変換されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

ErrorAdditionalInfo

リソース管理エラーの追加情報。

ErrorDetail

エラーの詳細。

ErrorResponse

エラー応答

ExhaustiveKnnParameters

完全な KNN アルゴリズムに固有のパラメーターが含まれています。

ExhaustiveKnnVectorSearchAlgorithmConfiguration

クエリ中に使用される完全な KNN アルゴリズムに固有の構成オプションが含まれています。これにより、ベクター インデックス全体でブルート フォース検索が実行されます。

FreshnessScoringFunction

日時フィールドの値に基づいてスコアをブーストする関数を定義します。

FreshnessScoringParameters

鮮度スコアリング関数にパラメーター値を提供します。

HnswParameters

HNSW アルゴリズムに固有のパラメーターが含まれます。

HnswVectorSearchAlgorithmConfiguration

インデックス作成とクエリ中に使用される HNSW 近似最近隣アルゴリズムに固有の構成オプションが含まれています。 HNSW アルゴリズムは、検索速度と精度の間で調整可能なトレードオフを提供します。

KeepTokenFilter

指定した単語の一覧に含まれるテキストを含むトークンのみを保持するトークン フィルター。 このトークン フィルターは、Apache Lucene を使用して実装されます。

KeywordMarkerTokenFilter

用語がキーワードとしてマークされます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

KeywordTokenizer

入力全体が 1 つのトークンとして生成されます。 このトークナイザーは、Apache Lucene を使用して実装されます。

KeywordTokenizerV2

入力全体が 1 つのトークンとして生成されます。 このトークナイザーは、Apache Lucene を使用して実装されます。

LengthTokenFilter

長すぎる単語または短すぎる単語が削除されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

LexicalAnalyzerName

検索エンジンでサポートされているすべてのテキスト アナライザーの名前を定義します。

LexicalNormalizerName

検索エンジンでサポートされているすべてのテキスト ノーマライザーの名前を定義します。

LexicalTokenizerName

検索エンジンでサポートされているすべてのトークナイザーの名前を定義します。

LimitTokenFilter

インデックス付けの間に、トークンの数が制限されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

LuceneStandardAnalyzer

Standard Apache Lucene アナライザー。標準のトークナイザー、小文字のフィルター、および停止フィルターで構成されます。

LuceneStandardTokenizer

Unicode テキスト セグメント化ルールに従ってテキストを分割します。 このトークナイザーは、Apache Lucene を使用して実装されます。

LuceneStandardTokenizerV2

Unicode テキスト セグメント化ルールに従ってテキストを分割します。 このトークナイザーは、Apache Lucene を使用して実装されます。

MagnitudeScoringFunction

数値フィールドの大きさに基づいてスコアをブーストする関数を定義します。

MagnitudeScoringParameters

マグニチュード スコアリング関数にパラメーター値を提供します。

MappingCharFilter

マッピング オプションで定義されたマッピングを適用する文字フィルター。 一致は最長一致です (特定ポイントでの最長パターン マッチングを優先)。 空の文字列での置換が許可されます。 この文字フィルターは、Apache Lucene を使用して実装されます。

MicrosoftLanguageStemmingTokenizer

言語固有のルールを使用してテキストが分割され、基本フォームに単語が減らされます。

MicrosoftLanguageTokenizer

言語固有のルールを使用してテキストが分割されます。

MicrosoftStemmingTokenizerLanguage

microsoft 言語ステミング トークナイザーでサポートされている言語をListsします。

MicrosoftTokenizerLanguage

Microsoft 言語トークナイザーでサポートされている言語をListsします。

NGramTokenFilter

指定サイズの n グラムが生成されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

NGramTokenFilterV2

指定サイズの n グラムが生成されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

NGramTokenizer

入力が指定サイズの n グラムにトークン化されます。 このトークナイザーは、Apache Lucene を使用して実装されます。

PathHierarchyTokenizerV2

パスのような階層のトークナイザー。 このトークナイザーは、Apache Lucene を使用して実装されます。

PatternAnalyzer

正規表現のパターンを使用してテキストを用語に柔軟に分割します。 このアナライザーは、Apache Lucene を使用して実装されます。

PatternCaptureTokenFilter

Java 正規表現を使用して複数のトークン (1 つ以上のパターンでキャプチャ グループごとに 1 つ) を出力します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

PatternReplaceCharFilter

入力文字列内の文字を置き換える文字フィルター。 正規表現を使用して維持する文字のシーケンスが識別され、置換パターンを使用して置換する文字が識別されます。 たとえば、入力テキスト "aa bb aa bb"、パターン "(aa)\s+(bb)"、置換後の "$1#$2" を指定すると、結果は "aa#bb aa#bb" になります。 この文字フィルターは、Apache Lucene を使用して実装されます。

PatternReplaceTokenFilter

入力文字列内の文字を置き換える文字フィルター。 正規表現を使用して維持する文字のシーケンスが識別され、置換パターンを使用して置換する文字が識別されます。 たとえば、入力テキスト "aa bb aa bb"、パターン "(aa)\s+(bb)"、置換後の "$1#$2" を指定すると、結果は "aa#bb aa#bb" になります。 このトークン フィルターは、Apache Lucene を使用して実装されます。

PatternTokenizer

正規表現パターン マッチングを使用して個別のトークンを構築するトークナイザー。 このトークナイザーは、Apache Lucene を使用して実装されます。

PhoneticEncoder

PhoneticTokenFilter で使用するふりがなエンコーダーの種類を識別します。

PhoneticTokenFilter

音声一致用のトークンが作成されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

PrioritizedFields

セマンティック ランク付け、キャプション、強調表示、回答に使用するタイトル、コンテンツ、キーワードのフィールドについて説明します。

RegexFlags

パターン アナライザーとパターン トークナイザーで正規表現を使用する方法を制御するために組み合わせることができるフラグを定義します。

ScalarQuantizationParameters

スカラー量子化に固有のパラメーターが含まれます。

ScalarQuantizationVectorSearchCompressionConfiguration

インデックス作成とクエリ中に使用されるスカラー量子化圧縮方法に固有の構成オプションが含まれています。

ScoringFunctionAggregation

スコアリング プロファイル内のすべてのスコアリング関数の結果を結合するために使用される集計関数を定義します。

ScoringFunctionInterpolation

さまざまなドキュメントでスコアブーストを補間するために使用される関数を定義します。

ScoringProfile

検索クエリのスコアリングに影響を与える検索インデックスのパラメーターを定義します。

SearchField

フィールドの名前、データ型、および検索動作を記述するインデックス定義のフィールドを表します。

SearchFieldDataType

検索インデックス内のフィールドのデータ型を定義します。

SearchIndex

インデックスのフィールドと検索動作を記述する検索インデックス定義を表します。

SearchIndexerDataNoneIdentity

データソースの ID プロパティをクリアします。

SearchIndexerDataUserAssignedIdentity

使用するデータソースの ID を指定します。

SearchResourceEncryptionKey

Azure Key Vaultのカスタマー マネージド暗号化キー。 作成および管理するキーは、インデックスやシノニム マップなどの保存データの暗号化または暗号化解除に使用できます。

SemanticConfiguration

セマンティック機能のコンテキストで使用する特定の構成を定義します。

SemanticField

セマンティック構成の一部として使用されるフィールド。

SemanticSettings

セマンティック機能に影響を与える検索インデックスのパラメーターを定義します。

ShingleTokenFilter

トークンの組み合わせが 1 つのトークンとして作成されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

SnowballTokenFilter

Snowball で生成されたステマーを使用して単語をステミングするフィルター。 このトークン フィルターは、Apache Lucene を使用して実装されます。

SnowballTokenFilterLanguage

Snowball トークン フィルターに使用する言語。

StemmerOverrideTokenFilter

ユーザー辞書ベースのステミングを使用して、他のステミング フィルターをオーバーライドする機能を提供します。 辞書で語幹を付けた用語はキーワードとしてマークされるため、チェーンの下のステマーで語幹を付けなくなります。 すべてのステミング フィルターの前に配置する必要があります。 このトークン フィルターは、Apache Lucene を使用して実装されます。

StemmerTokenFilter

言語固有のステミング フィルター。 このトークン フィルターは、Apache Lucene を使用して実装されます。

StemmerTokenFilterLanguage

ステマー トークン フィルターに使用する言語。

StopAnalyzer

テキストを文字以外で分割します。小文字とストップワードのトークン フィルターを適用します。 このアナライザーは、Apache Lucene を使用して実装されます。

StopwordsList

言語固有のストップワードの定義済みリストを識別します。

StopwordsTokenFilter

トークン ストリームからストップワードが削除されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

Suggester

Suggest API をインデックス内のフィールドのグループに適用する方法を定義します。

SuggesterSearchMode

suggester の機能を示す値。

SynonymTokenFilter

トークン ストリーム内の単一または複数単語のシノニムと一致します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

TagScoringFunction

特定のタグのリストに一致する文字列値を持つドキュメントのスコアを向上させる関数を定義します。

TagScoringParameters

タグ スコアリング関数にパラメーター値を提供します。

TextWeights

検索クエリで一致がスコアリングを向上させるインデックス フィールドの重みを定義します。

TokenCharacterKind

トークン フィルターが動作できる文字のクラスを表します。

TokenFilterName

検索エンジンでサポートされているすべてのトークン フィルターの名前を定義します。

TruncateTokenFilter

用語を特定の長さに切り捨てます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

UaxUrlEmailTokenizer

URL と電子メールが 1 つのトークンとしてトークン化されます。 このトークナイザーは、Apache Lucene を使用して実装されます。

UniqueTokenFilter

前のトークンと同じテキストのトークンが除外されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

VectorSearch

ベクター検索に関連する構成オプションが含まれています。

VectorSearchAlgorithmKind

インデックス作成とクエリに使用されるアルゴリズム。

VectorSearchAlgorithmMetric

ベクター比較に使用する類似性メトリック。

VectorSearchCompressionKind

インデックス作成とクエリに使用される圧縮方法。

VectorSearchCompressionTargetDataType

圧縮ベクター値の量子化されたデータ型。

VectorSearchProfile

ベクター検索で使用する構成の組み合わせを定義します。

VectorSearchVectorizerKind

クエリ時間中に使用されるベクター化メソッド。

WordDelimiterTokenFilter

単語がサブ単語に分割され、部分語のグループに対してオプションの変換が実行されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

AsciiFoldingTokenFilter

最初の 127 文字の ASCII 文字 ("Basic Latin" Unicode ブロック) にないアルファベット文字、数値文字、およびシンボリック Unicode 文字を、ASCII に相当する文字 (存在する場合) に変換します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.AsciiFoldingTokenFilter

トークン フィルターの種類を指定する URI フラグメント。

name

string

トークン フィルターの名前。 アルファベット、数字、空白、ダッシュ、アンダースコアのみを含める必要があります。また、最初と最後の文字は英数字にする必要があり、長さは 128 文字までに制限されています。

preserveOriginal

boolean

False

元のトークンを保持するかどうかを示す値。 既定値は false です。

AzureActiveDirectoryApplicationCredentials

Azure Key Vaultに格納されている暗号化キーへの認証済みアクセスに使用される、検索サービス用に作成された登録済みアプリケーションの資格情報。

名前 説明
applicationId

string

保存データの暗号化時に使用される Azure Key Vaultに必要なアクセス許可が付与された AAD アプリケーション ID。 アプリケーション ID は、AAD アプリケーションのオブジェクト ID と混同しないでください。

applicationSecret

string

指定した AAD アプリケーションの認証キー。

AzureOpenAIParameters

Azure OpenAI リソースに接続するためのパラメーターを指定します。

名前 説明
apiKey

string

指定された Azure OpenAI リソースの API キー。

authIdentity SearchIndexerDataIdentity:

送信接続に使用されるユーザー割り当てマネージド ID。

deploymentId

string

指定されたリソースでの Azure OpenAI モデルデプロイの ID。

resourceUri

string

Azure OpenAI リソースのリソース URI。

AzureOpenAIVectorizer

クエリ文字列のベクター化に使用される Azure OpenAI リソースを指定します。

名前 説明
azureOpenAIParameters

AzureOpenAIParameters

Azure OpenAI 埋め込みベクター化に固有のパラメーターが含まれています。

kind string:

azureOpenAI

ベクター検索で使用するように構成されているベクター化メソッドの種類の名前。

name

string

この特定のベクター化メソッドに関連付ける名前。

BM25Similarity

Okapi BM25 類似性アルゴリズムに基づくランク付け関数。 BM25 は TF-IDF に似たアルゴリズムであり、長さの正規化 ('b' パラメーターによって制御) と用語周波数飽和 ('k1' パラメーターによって制御) が含まれます。

名前 説明
@odata.type string:

#Microsoft.Azure.Search.BM25Similarity

b

number

このプロパティは、ドキュメントの長さが関連性スコアに与える影響を制御します。 既定では、値 0.75 が使用されます。 値 0.0 は長さの正規化が適用されていないことを意味し、値 1.0 はスコアがドキュメントの長さによって完全に正規化されていることを意味します。

k1

number

このプロパティは、一致する各用語の用語頻度とドキュメント クエリ ペアの最終的な関連性スコアの間のスケーリング関数を制御します。 既定では、値 1.2 が使用されます。 値 0.0 は、スコアが用語頻度の増加に伴ってスケーリングされないことを意味します。

CharFilterName

検索エンジンでサポートされているすべての文字フィルターの名前を定義します。

名前 説明
html_strip

string

HTML コンストラクトを取り除こうとする文字フィルター。 「https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html」を参照してください。

CjkBigramTokenFilter

Forms標準トークナイザーから生成される CJK 用語のビッグラムです。 このトークン フィルターは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.CjkBigramTokenFilter

トークン フィルターの種類を指定する URI フラグメント。

ignoreScripts

CjkBigramTokenFilterScripts[]

無視するスクリプト。

name

string

トークン フィルターの名前。 アルファベット、数字、空白、ダッシュ、アンダースコアのみを含める必要があります。また、最初と最後の文字は英数字にする必要があり、長さは 128 文字までに制限されています。

outputUnigrams

boolean

False

ユニグラムとビッグラムの両方を出力するか (true の場合)、または bigram だけを出力するかを示す値 (false の場合)。 既定値は false です。

CjkBigramTokenFilterScripts

CjkBigramTokenFilter によって無視できるスクリプト。

名前 説明
han

string

CJK 用語の bigrams を形成するときに、Han スクリプトを無視します。

hangul

string

CJK 用語の bigrams を形成するときにハングル スクリプトを無視します。

hiragana

string

CJK 用語の bigrams を形成する場合は、ひらがなスクリプトを無視します。

katakana

string

CJK 用語の bigrams を形成する場合は、Katakana スクリプトを無視します。

ClassicSimilarity

TF-IDF の Lucene TFIDFSimilarity 実装を使用するレガシ類似性アルゴリズム。 この TF-IDF のバリエーションでは、静的なドキュメント長の正規化と、検索されたクエリに部分的にのみ一致するドキュメントを罰する調整要因が導入されています。

名前 説明
@odata.type string:

#Microsoft.Azure.Search.ClassicSimilarity

ClassicTokenizer

ほとんどのヨーロッパ言語ドキュメントの処理に適した文法ベースのトークナイザー。 このトークナイザーは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.ClassicTokenizer

トークナイザーの種類を指定する URI フラグメント。

maxTokenLength

integer

255

トークンの最大長。 既定値は 255 です。 最大長より長いトークンは分割されます。 使用できるトークンの最大長は 300 文字です。

name

string

トークナイザーの名前。 アルファベット、数字、空白、ダッシュ、アンダースコアのみを含める必要があります。また、最初と最後の文字は英数字にする必要があり、長さは 128 文字までに制限されています。

CommonGramTokenFilter

インデックス付けの間に、頻繁に発生する用語に対してバイグラムが作成されます。 1 つの用語も、バイグラムがオーバーレイされてインデックス付けされます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.CommonGramTokenFilter

トークン フィルターの種類を指定する URI フラグメント。

commonWords

string[]

一般的な単語のセット。

ignoreCase

boolean

False

一般的な単語の一致で大文字と小文字が区別されるかどうかを示す 値。 既定値は false です。

name

string

トークン フィルターの名前。 アルファベット、数字、空白、ダッシュ、アンダースコアのみを含める必要があります。また、最初と最後の文字は英数字にする必要があり、長さは 128 文字までに制限されています。

queryMode

boolean

False

トークン フィルターがクエリ モードであるかどうかを示す 値。 クエリ モードの場合、トークン フィルターによって bigram が生成され、一般的な単語と 1 つの用語の後に共通語が続きます。 既定値は false です。

CorsOptions

インデックスのクロスオリジン リソース共有 (CORS) を制御するオプションを定義します。

名前 説明
allowedOrigins

string[]

JavaScript コードにインデックスへのアクセス権が付与される配信元の一覧。 {protocol}://{fully-qualified-domain-name}[:{port#}]という形式のホストのリストを含めたり、すべての配信元を許可する単一の '*' を含めることができます (推奨されません)。

maxAgeInSeconds

integer

ブラウザーが CORS プリフライト応答をキャッシュする期間。 既定値は 5 分です。

CustomAnalyzer

テキストをインデックス付き/検索可能なトークンに変換するプロセスを制御できます。 これは、1 つの定義済みトークナイザーと 1 つ以上のフィルターで構成されるユーザー定義の構成です。 トークナイザーは、テキストをトークンに分割し、トークナイザーによって出力されるトークンを変更するためのフィルターを担当します。

名前 説明
@odata.type string:

#Microsoft.Azure.Search.CustomAnalyzer

アナライザーの種類を指定する URI フラグメント。

charFilters

CharFilterName[]

トークナイザーによって処理される前に入力テキストを準備するために使用される文字フィルターの一覧。 たとえば、それらを使用して、特定の文字や記号を置き換えることができます。 フィルターは、一覧表示されている順序で実行されます。

name

string

アナライザーの名前。 アルファベット、数字、空白、ダッシュ、アンダースコアのみを含める必要があります。また、最初と最後の文字は英数字にする必要があり、長さは 128 文字までに制限されています。

tokenFilters

TokenFilterName[]

トークナイザーによって生成されたトークンをフィルター処理または変更するために使用されるトークン フィルターの一覧。 たとえば、すべての文字を小文字に変換する lowercase フィルターを指定することができます。 フィルターは、一覧表示されている順序で実行されます。

tokenizer

LexicalTokenizerName

文を単語に分割するなど、連続するテキストをトークンのシーケンスに分割するために使用するトークナイザーの名前。

CustomNormalizer

フィルター可能、並べ替え可能、ファセット可能なフィールドの正規化を構成できます。既定では厳密な一致で動作します。 これは、格納されているトークンを変更する、少なくとも 1 つ以上のフィルターで構成されるユーザー定義の構成です。

名前 説明
@odata.type string:

#Microsoft.Azure.Search.CustomNormalizer

ノーマライザーの種類を指定する URI フラグメント。

charFilters

CharFilterName[]

入力テキストを処理する前に準備するために使用される文字フィルターの一覧。 たとえば、それらを使用して、特定の文字や記号を置き換えることができます。 フィルターは、一覧表示されている順序で実行されます。

name

string

ノーマライザーの名前。 アルファベット、数字、空白、ダッシュ、アンダースコアのみを含める必要があります。また、最初と最後の文字は英数字にする必要があり、長さは 128 文字までに制限されています。 '.microsoft' または '.lucene' で終わることはできません。また、'asciifolding'、'standard'、'小文字'、'大文字'、または 'elision' という名前を付けることはできません。

tokenFilters

TokenFilterName[]

入力トークンをフィルター処理または変更するために使用されるトークン フィルターの一覧。 たとえば、すべての文字を小文字に変換する lowercase フィルターを指定することができます。 フィルターは、一覧表示されている順序で実行されます。

CustomVectorizer

クエリ文字列のベクター埋め込みを生成するためのユーザー定義ベクター化器を指定します。 外部ベクター化の統合は、スキルセットのカスタム Web API インターフェイスを使用して実現されます。

名前 説明
customWebApiParameters

CustomWebApiParameters

ユーザー定義ベクター化器のプロパティを指定します。

kind string:

customWebApi

ベクター検索で使用するように構成されているベクター化メソッドの種類の名前。

name

string

この特定のベクター化メソッドに関連付ける名前。

CustomWebApiParameters

ユーザー定義ベクター化器に接続するためのプロパティを指定します。

名前 説明
authIdentity SearchIndexerDataIdentity:

送信接続に使用されるユーザー割り当てマネージド ID。 authResourceId が指定されていて、指定されていない場合は、システム割り当てマネージド ID が使用されます。 インデクサーの更新時に、ID が指定されていない場合、値は変更されません。 "none" に設定すると、このプロパティの値はクリアされます。

authResourceId

string

Azure 関数または変換を提供する他のアプリケーションの外部コードに接続するカスタム エンドポイントに適用されます。 この値は、関数またはアプリが Azure Active Directory に登録されたときに作成されたアプリケーション ID である必要があります。 指定すると、ベクター化は、検索サービスのマネージド ID (システムまたはユーザー割り当て) と関数またはアプリのアクセス トークンを使用して関数またはアプリに接続します。この値は、アクセス トークンのスコープを作成するためのリソース ID として使用されます。

httpHeaders

object

HTTP 要求を行うために必要なヘッダー。

httpMethod

string

HTTP 要求のメソッド。

timeout

string

要求に必要なタイムアウト。 既定値は 30 秒です。

uri

string

ベクター化を提供する Web API の URI。

DictionaryDecompounderTokenFilter

多くのゲルマン言語に出現する複合語を分解します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.DictionaryDecompounderTokenFilter

トークン フィルターの種類を指定する URI フラグメント。

maxSubwordSize

integer

15

サブワードの最大サイズ。 これより短いサブワードのみが出力されます。 既定値は 15 です。 最大値は 300 です。

minSubwordSize

integer

2

最小サブワード サイズ。 これより長いサブワードのみが出力されます。 既定値は 2 です。 最大値は 300 です。

minWordSize

integer

5

単語の最小サイズ。 これより長い単語のみが処理されます。 既定値は 5 です。 最大値は 300 です。

name

string

トークン フィルターの名前。 アルファベット、数字、空白、ダッシュ、アンダースコアのみを含める必要があります。また、最初と最後の文字は英数字にする必要があり、長さは 128 文字までに制限されています。

onlyLongestMatch

boolean

False

最も長い一致するサブワードのみを出力に追加するかどうかを示す値。 既定値は false です。

wordList

string[]

一致する単語の一覧。

DistanceScoringFunction

地理的な場所からの距離に基づいてスコアをブーストする関数を定義します。

名前 説明
boost

number

生のスコアの乗数。 1.0 と等しくない正の数値にする必要があります。

distance

DistanceScoringParameters

距離スコアリング関数のパラメーター値。

fieldName

string

スコアリング関数への入力として使用されるフィールドの名前。

interpolation

ScoringFunctionInterpolation

文書のスコア間でブースティングがどのように補間されるかを示す値。既定値は "Linear" です。

type string:

distance

使用する関数の型を示します。 有効な値は、magnitude、freshness、distance、tag です。 関数の型は小文字にする必要があります。

DistanceScoringParameters

距離スコアリング関数にパラメーター値を提供します。

名前 説明
boostingDistance

number

ブースト範囲が終了する基準位置からの距離 (キロメートル)。

referencePointParameter

string

参照場所を指定するために検索クエリで渡されるパラメーターの名前。

EdgeNGramTokenFilter

入力トークンの前面または背面から始まる、指定されたサイズの n-gram を生成します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.EdgeNGramTokenFilter

トークン フィルターの種類を指定する URI フラグメント。

maxGram

integer

2

最大 n グラムの長さ。 既定値は 2 です。

minGram

integer

1

n グラムの最小長。 既定値は 1 です。 maxGram の値より小さくする必要があります。

name

string

トークン フィルターの名前。 アルファベット、数字、空白、ダッシュ、アンダースコアのみを含める必要があります。また、最初と最後の文字は英数字にする必要があり、長さは 128 文字までに制限されています。

side

EdgeNGramTokenFilterSide

front

n-gram を生成する入力の側を指定します。 既定値は "front" です。

EdgeNGramTokenFilterSide

n-gram を生成する入力の側を指定します。

名前 説明
back

string

n-gram を入力の背面から生成することを指定します。

front

string

n-gram を入力の先頭から生成することを指定します。

EdgeNGramTokenFilterV2

入力トークンの前面または背面から始まる、指定されたサイズの n-gram を生成します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.EdgeNGramTokenFilterV2

トークン フィルターの種類を指定する URI フラグメント。

maxGram

integer

2

最大 n グラムの長さ。 既定値は 2 です。 最大値は 300 です。

minGram

integer

1

n グラムの最小長。 既定値は 1 です。 最大値は 300 です。 maxGram の値より小さくする必要があります。

name

string

トークン フィルターの名前。 アルファベット、数字、空白、ダッシュ、アンダースコアのみを含める必要があります。また、最初と最後の文字は英数字にする必要があり、長さは 128 文字までに制限されています。

side

EdgeNGramTokenFilterSide

front

n-gram を生成する入力の側を指定します。 既定値は "front" です。

EdgeNGramTokenizer

エッジからの入力を、指定されたサイズの n グラムにトークン化します。 このトークナイザーは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.EdgeNGramTokenizer

トークナイザーの種類を指定する URI フラグメント。

maxGram

integer

2

n-gram の最大長。 既定値は 2 です。 最大値は 300 です。

minGram

integer

1

n-gram の最小長。 既定値は 1 です。 最大値は 300 です。 maxGram の値より小さくする必要があります。

name

string

トークナイザーの名前。 アルファベット、数字、空白、ダッシュ、アンダースコアのみを含める必要があります。また、最初と最後の文字は英数字にする必要があり、長さは 128 文字までに制限されています。

tokenChars

TokenCharacterKind[]

トークンに保持する文字クラス。

ElisionTokenFilter

省略記号が削除されます。 たとえば、"l'avion" (平面) は "avion" (平面) に変換されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

名前 説明
@odata.type string:

#Microsoft.Azure.Search.ElisionTokenFilter

トークン フィルターの種類を指定する URI フラグメント。

articles

string[]

削除する記事のセット。

name

string

トークン フィルターの名前。 アルファベット、数字、空白、ダッシュ、アンダースコアのみを含める必要があります。また、最初と最後の文字は英数字にする必要があり、長さは 128 文字までに制限されています。

ErrorAdditionalInfo

リソース管理エラーの追加情報。

名前 説明
info

object

追加情報。

type

string

追加情報の種類。

ErrorDetail

エラーの詳細。

名前 説明
additionalInfo

ErrorAdditionalInfo[]

エラーの追加情報。

code

string

エラー コード。

details

ErrorDetail[]

エラーの詳細です。

message

string

エラー メッセージ。

target

string

エラーのターゲット。

ErrorResponse

エラー応答

名前 説明
error

ErrorDetail

error オブジェクト。

ExhaustiveKnnParameters

完全な KNN アルゴリズムに固有のパラメーターが含まれています。

名前 説明
metric

VectorSearchAlgorithmMetric

ベクター比較に使用する類似性メトリック。

ExhaustiveKnnVectorSearchAlgorithmConfiguration

クエリ中に使用される完全な KNN アルゴリズムに固有の構成オプションが含まれています。これにより、ベクター インデックス全体でブルート フォース検索が実行されます。

名前 説明
exhaustiveKnnParameters

ExhaustiveKnnParameters

完全な KNN アルゴリズムに固有のパラメーターが含まれています。

kind string:

exhaustiveKnn

ベクター検索で使用するように構成されているアルゴリズムの種類の名前。

name

string

この特定の構成に関連付ける名前。

FreshnessScoringFunction

日時フィールドの値に基づいてスコアをブーストする関数を定義します。

名前 説明
boost

number

生のスコアの乗数。 1.0 と等しくない正の数値にする必要があります。

fieldName

string

スコアリング関数への入力として使用されるフィールドの名前。

freshness

FreshnessScoringParameters

鮮度スコアリング関数のパラメーター値。

interpolation

ScoringFunctionInterpolation

文書のスコア間でブースティングがどのように補間されるかを示す値。既定値は "Linear" です。

type string:

freshness

使用する関数の型を示します。 有効な値は、magnitude、freshness、distance、tag です。 関数の型は小文字にする必要があります。

FreshnessScoringParameters

鮮度スコアリング関数にパラメーター値を提供します。

名前 説明
boostingDuration

string

その後の有効期限は、特定のドキュメントのブーストが停止します。

HnswParameters

HNSW アルゴリズムに固有のパラメーターが含まれます。

名前 規定値 説明
efConstruction

integer

400

インデックス時間中に使用される、最も近い近隣ノードを含む動的リストのサイズ。 このパラメーターを大きくすると、インデックス作成時間の増加を犠牲にして、インデックスの品質が向上する可能性があります。 特定の時点で、このパラメーターを大きくすると、戻り値が減少します。

efSearch

integer

500

検索時に使用される、最も近い近隣ノードを含む動的リストのサイズ。 このパラメーターを大きくすると、検索速度が低下する代わりに、検索結果が向上する可能性があります。 特定の時点で、このパラメーターを大きくすると、戻り値が減少します。

m

integer

4

構築中に新しい要素ごとに作成された双方向リンクの数。 このパラメーター値を大きくすると、メモリ消費量の増加とインデックス作成時間の長さを犠牲にして、組み込み次元が高いデータセットのリコールが向上し、取得時間が短縮される可能性があります。

metric

VectorSearchAlgorithmMetric

ベクター比較に使用する類似性メトリック。

HnswVectorSearchAlgorithmConfiguration

インデックス作成とクエリ中に使用される HNSW 近似最近隣アルゴリズムに固有の構成オプションが含まれています。 HNSW アルゴリズムは、検索速度と精度の間で調整可能なトレードオフを提供します。

名前 説明
hnswParameters

HnswParameters

HNSW アルゴリズムに固有のパラメーターが含まれます。

kind string:

hnsw

ベクター検索で使用するように構成されているアルゴリズムの種類の名前。

name

string

この特定の構成に関連付ける名前。

KeepTokenFilter

指定した単語の一覧に含まれるテキストを含むトークンのみを保持するトークン フィルター。 このトークン フィルターは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.KeepTokenFilter

トークン フィルターの種類を指定する URI フラグメント。

keepWords

string[]

保持する単語の一覧。

keepWordsCase

boolean

False

すべての単語を最初に小文字にするかどうかを示す値。 既定値は false です。

name

string

トークン フィルターの名前。 アルファベット、数字、空白、ダッシュ、アンダースコアのみを含める必要があります。また、最初と最後の文字は英数字にする必要があり、長さは 128 文字までに制限されています。

KeywordMarkerTokenFilter

用語がキーワードとしてマークされます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.KeywordMarkerTokenFilter

トークン フィルターの種類を指定する URI フラグメント。

ignoreCase

boolean

False

大文字と小文字を無視するかどうかを示す値。 true の場合、すべての単語が最初に小文字に変換されます。 既定値は false です。

keywords

string[]

キーワードとしてマークする単語の一覧。

name

string

トークン フィルターの名前。 アルファベット、数字、空白、ダッシュ、アンダースコアのみを含める必要があります。また、最初と最後の文字は英数字にする必要があり、長さは 128 文字までに制限されています。

KeywordTokenizer

入力全体が 1 つのトークンとして生成されます。 このトークナイザーは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.KeywordTokenizer

トークナイザーの種類を指定する URI フラグメント。

bufferSize

integer

256

読み取りバッファー サイズ (バイト単位)。 既定値は 256 です。

name

string

トークナイザーの名前。 アルファベット、数字、空白、ダッシュ、アンダースコアのみを含める必要があります。また、最初と最後の文字は英数字にする必要があり、長さは 128 文字までに制限されています。

KeywordTokenizerV2

入力全体が 1 つのトークンとして生成されます。 このトークナイザーは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.KeywordTokenizerV2

トークナイザーの種類を指定する URI フラグメント。

maxTokenLength

integer

256

トークンの最大長。 既定値は 256 です。 最大長より長いトークンは分割されます。 使用できるトークンの最大長は 300 文字です。

name

string

トークナイザーの名前。 アルファベット、数字、空白、ダッシュ、アンダースコアのみを含める必要があります。また、最初と最後の文字は英数字にする必要があり、長さは 128 文字までに制限されています。

LengthTokenFilter

長すぎる単語または短すぎる単語が削除されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.LengthTokenFilter

トークン フィルターの種類を指定する URI フラグメント。

max

integer

300

最大文字数。 既定値と最大値は 300 です。

min

integer

0

文字の最小長。 既定値は 0 です。 最大値は 300 です。 max の値より小さくする必要があります。

name

string

トークン フィルターの名前。 アルファベット、数字、空白、ダッシュ、アンダースコアのみを含める必要があります。また、最初と最後の文字は英数字にする必要があり、長さは 128 文字までに制限されています。

LexicalAnalyzerName

検索エンジンでサポートされているすべてのテキスト アナライザーの名前を定義します。

名前 説明
ar.lucene

string

アラビア語用 Lucene アナライザー。

ar.microsoft

string

アラビア語用 Microsoft アナライザー。

bg.lucene

string

ブルガリア語用 Lucene アナライザー。

bg.microsoft

string

ブルガリア語用 Microsoft アナライザー。

bn.microsoft

string

Bangla 用 Microsoft アナライザー。

ca.lucene

string

カタロニア語用 Lucene アナライザー。

ca.microsoft

string

カタロニア語用の Microsoft アナライザー。

cs.lucene

string

チェコ語用 Lucene アナライザー。

cs.microsoft

string

チェコ語用 Microsoft アナライザー。

da.lucene

string

デンマーク語用 Lucene アナライザー。

da.microsoft

string

デンマーク語用の Microsoft アナライザー。

de.lucene

string

ドイツ語用 Lucene アナライザー。

de.microsoft

string

ドイツ語用 Microsoft アナライザー。

el.lucene

string

ギリシャ語用 Lucene アナライザー。

el.microsoft

string

ギリシャ語用 Microsoft アナライザー。

en.lucene

string

英語用 Lucene アナライザー。

en.microsoft

string

英語用 Microsoft アナライザー。

es.lucene

string

スペイン語用 Lucene アナライザー。

es.microsoft

string

スペイン語用 Microsoft アナライザー。

et.microsoft

string

エストニア語用 Microsoft アナライザー。

eu.lucene

string

バスク語用 Lucene アナライザー。

fa.lucene

string

ペルシャ語用 Lucene アナライザー。

fi.lucene

string

フィンランド語用 Lucene アナライザー。

fi.microsoft

string

フィンランド語用 Microsoft アナライザー。

fr.lucene

string

フランス語用 Lucene アナライザー。

fr.microsoft

string

フランス語用 Microsoft アナライザー。

ga.lucene

string

アイルランド語用 Lucene アナライザー。

gl.lucene

string

ガリシア語用 Lucene アナライザー。

gu.microsoft

string

Gujarati 用の Microsoft アナライザー。

he.microsoft

string

ヘブライ語用 Microsoft アナライザー。

hi.lucene

string

ヒンディー語用 Lucene アナライザー。

hi.microsoft

string

ヒンディー語用 Microsoft アナライザー。

hr.microsoft

string

クロアチア語用 Microsoft アナライザー。

hu.lucene

string

ハンガリー語用 Lucene アナライザー。

hu.microsoft

string

ハンガリー語用 Microsoft アナライザー。

hy.lucene

string

アルメニア語用 Lucene アナライザー。

id.lucene

string

インドネシア語用 Lucene アナライザー。

id.microsoft

string

インドネシア語 (Bahasa) 用 Microsoft アナライザー。

is.microsoft

string

アイスランドの Microsoft アナライザー。

it.lucene

string

イタリア語用 Lucene アナライザー。

it.microsoft

string

イタリア語用 Microsoft アナライザー。

ja.lucene

string

日本語用 Lucene アナライザー。

ja.microsoft

string

日本語用 Microsoft アナライザー。

keyword

string

フィールドの内容全体を 1 つのトークンとして扱います。 これは、郵便番号、ID、製品名などのデータで役立ちます。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html」を参照してください。

kn.microsoft

string

カンナダ用 Microsoft アナライザー。

ko.lucene

string

韓国語用 Lucene アナライザー。

ko.microsoft

string

韓国語用 Microsoft アナライザー。

lt.microsoft

string

リトアニア語用 Microsoft アナライザー。

lv.lucene

string

ラトビア語用 Lucene アナライザー。

lv.microsoft

string

ラトビア語用 Microsoft アナライザー。

ml.microsoft

string

マラヤーラム用 Microsoft アナライザー。

mr.microsoft

string

Marathi 用 Microsoft アナライザー。

ms.microsoft

string

マレー語 (ラテン) 用 Microsoft アナライザー。

nb.microsoft

string

ノルウェー語 (Bokmål) 用 Microsoft アナライザー。

nl.lucene

string

オランダ語用 Lucene アナライザー。

nl.microsoft

string

オランダ語用 Microsoft アナライザー。

no.lucene

string

ノルウェー語用 Lucene アナライザー。

pa.microsoft

string

Punjabi 用 Microsoft アナライザー。

pattern

string

正規表現のパターンを使用してテキストを用語に柔軟に分割します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html」を参照してください。

pl.lucene

string

ポーランド語用 Lucene アナライザー。

pl.microsoft

string

ポーランド語用 Microsoft アナライザー。

pt-BR.lucene

string

ポルトガル語 (ブラジル) 用 Lucene アナライザー。

pt-BR.microsoft

string

ポルトガル語 (ブラジル) 用 Microsoft アナライザー。

pt-PT.lucene

string

ポルトガル語 (ポルトガル) 用 Lucene アナライザー。

pt-PT.microsoft

string

ポルトガル語 (ポルトガル) 用 Microsoft アナライザー。

ro.lucene

string

ルーマニア語用 Lucene アナライザー。

ro.microsoft

string

ルーマニア語用の Microsoft アナライザー。

ru.lucene

string

ロシア語用 Lucene アナライザー。

ru.microsoft

string

ロシア語用 Microsoft アナライザー。

simple

string

非文字でテキストが分割され、それらが小文字に変換されます。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html」を参照してください。

sk.microsoft

string

スロバキア語用 Microsoft アナライザー。

sl.microsoft

string

スロベニア語用 Microsoft アナライザー。

sr-cyrillic.microsoft

string

セルビア語 (キリル) 用 Microsoft アナライザー。

sr-latin.microsoft

string

セルビア語 (ラテン) 用の Microsoft アナライザー。

standard.lucene

string

Standard Lucene アナライザー。

standardasciifolding.lucene

string

Standard ASCII フォールディング Lucene アナライザー。 「https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers」を参照してください。

stop

string

テキストを文字以外で分割します。小文字とストップワードのトークン フィルターを適用します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html」を参照してください。

sv.lucene

string

スウェーデン語用 Lucene アナライザー。

sv.microsoft

string

スウェーデン語用 Microsoft アナライザー。

ta.microsoft

string

Tamil 用 Microsoft アナライザー。

te.microsoft

string

テルグ語用 Microsoft アナライザー。

th.lucene

string

タイ語用 Lucene アナライザー。

th.microsoft

string

タイ語用 Microsoft アナライザー。

tr.lucene

string

トルコ語用 Lucene アナライザー。

tr.microsoft

string

トルコ語用 Microsoft アナライザー。

uk.microsoft

string

ウクライナ語用 Microsoft アナライザー。

ur.microsoft

string

Urdu 用 Microsoft アナライザー。

vi.microsoft

string

ベトナム語用 Microsoft アナライザー。

whitespace

string

空白文字トークナイザーを使用するアナライザー。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html」を参照してください。

zh-Hans.lucene

string

Lucene analyzer for Chinese (簡体字)。

zh-Hans.microsoft

string

Microsoft Analyzer for Chinese (簡体字)。

zh-Hant.lucene

string

Lucene analyzer for Chinese (繁体字)。

zh-Hant.microsoft

string

Microsoft Analyzer for Chinese (繁体字)。

LexicalNormalizerName

検索エンジンでサポートされているすべてのテキスト ノーマライザーの名前を定義します。

名前 説明
asciifolding

string

最初の 127 文字の ASCII 文字 ("Basic Latin" Unicode ブロック) にないアルファベット、数字、および記号の Unicode 文字を、ASCII に相当する文字に変換します (そのような文字が存在する場合)。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html」を参照してください。

elision

string

省略記号が削除されます。 たとえば、"l'avion" (平面) は "avion" (平面) に変換されます。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html」を参照してください。

lowercase

string

トークン テキストを小文字に正規化します。 「https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html」を参照してください。

standard

string

標準ノーマライザー。小文字と asciifolding で構成されます。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html」を参照してください。

uppercase

string

トークン テキストを大文字に正規化します。 「https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html」を参照してください。

LexicalTokenizerName

検索エンジンでサポートされているすべてのトークナイザーの名前を定義します。

名前 説明
classic

string

ほとんどのヨーロッパ言語ドキュメントの処理に適した文法ベースのトークナイザー。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html」を参照してください。

edgeNGram

string

エッジからの入力を、指定されたサイズの n グラムにトークン化します。 「https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html」を参照してください。

keyword_v2

string

入力全体が 1 つのトークンとして生成されます。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html」を参照してください。

letter

string

非文字でテキストを分割します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html」を参照してください。

lowercase

string

非文字でテキストが分割され、それらが小文字に変換されます。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html」を参照してください。

microsoft_language_stemming_tokenizer

string

言語固有のルールを使用してテキストが分割され、基本フォームに単語が減らされます。

microsoft_language_tokenizer

string

言語固有のルールを使用してテキストが分割されます。

nGram

string

入力が指定サイズの n グラムにトークン化されます。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html」を参照してください。

path_hierarchy_v2

string

パスのような階層のトークナイザー。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html」を参照してください。

pattern

string

正規表現パターン マッチングを使用して個別のトークンを構築するトークナイザー。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html」を参照してください。

standard_v2

string

Standard Lucene アナライザー。標準のトークナイザー、小文字のフィルター、および停止フィルターで構成されます。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html」を参照してください。

uax_url_email

string

URL と電子メールが 1 つのトークンとしてトークン化されます。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html」を参照してください。

whitespace

string

空白文字によりテキストが分割されます。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html」を参照してください。

LimitTokenFilter

インデックス付けの間に、トークンの数が制限されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.LimitTokenFilter

トークン フィルターの種類を指定する URI フラグメント。

consumeAllTokens

boolean

False

maxTokenCount に達した場合でも、入力のすべてのトークンを使用する必要があるかどうかを示す値。 既定値は false です。

maxTokenCount

integer

1

生成するトークンの最大数。 既定値は 1 です。

name

string

トークン フィルターの名前。 アルファベット、数字、空白、ダッシュ、アンダースコアのみを含める必要があります。また、最初と最後の文字は英数字にする必要があり、長さは 128 文字までに制限されています。

LuceneStandardAnalyzer

Standard Apache Lucene アナライザー。標準のトークナイザー、小文字のフィルター、および停止フィルターで構成されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.StandardAnalyzer

アナライザーの種類を指定する URI フラグメント。

maxTokenLength

integer

255

トークンの最大長。 既定値は 255 です。 最大長より長いトークンは分割されます。 使用できるトークンの最大長は 300 文字です。

name

string

アナライザーの名前。 アルファベット、数字、空白、ダッシュ、アンダースコアのみを含める必要があります。また、最初と最後の文字は英数字にする必要があり、長さは 128 文字までに制限されています。

stopwords

string[]

ストップワードの一覧。

LuceneStandardTokenizer

Unicode テキスト セグメント化ルールに従ってテキストを分割します。 このトークナイザーは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.StandardTokenizer

トークナイザーの種類を指定する URI フラグメント。

maxTokenLength

integer

255

トークンの最大長。 既定値は 255 です。 最大長より長いトークンは分割されます。

name

string

トークナイザーの名前。 アルファベット、数字、空白、ダッシュ、アンダースコアのみを含める必要があります。また、最初と最後の文字は英数字にする必要があり、長さは 128 文字までに制限されています。

LuceneStandardTokenizerV2

Unicode テキスト セグメント化ルールに従ってテキストを分割します。 このトークナイザーは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.StandardTokenizerV2

トークナイザーの種類を指定する URI フラグメント。

maxTokenLength

integer

255

トークンの最大長。 既定値は 255 です。 最大長より長いトークンは分割されます。 使用できる最大トークン長は 300 文字です。

name

string

トークナイザーの名前。 アルファベット、数字、空白、ダッシュ、アンダースコアのみを含める必要があります。また、最初と最後の文字は英数字にする必要があり、長さは 128 文字までに制限されています。

MagnitudeScoringFunction

数値フィールドの大きさに基づいてスコアをブーストする関数を定義します。

名前 説明
boost

number

生のスコアの乗数。 1.0 と等しくない正の数値にする必要があります。

fieldName

string

スコアリング関数への入力として使用されるフィールドの名前。

interpolation

ScoringFunctionInterpolation

文書のスコア間でブースティングがどのように補間されるかを示す値。既定値は "Linear" です。

magnitude

MagnitudeScoringParameters

マグニチュード スコアリング関数のパラメーター値。

type string:

magnitude

使用する関数の型を示します。 有効な値は、magnitude、freshness、distance、tag です。 関数の型は小文字にする必要があります。

MagnitudeScoringParameters

マグニチュード スコアリング関数にパラメーター値を提供します。

名前 説明
boostingRangeEnd

number

ブーストが終了するフィールド値。

boostingRangeStart

number

ブーストが開始されるフィールド値。

constantBoostBeyondRange

boolean

範囲の終了値を超えるフィールド値に定数ブーストを適用するかどうかを示す値。既定値は false です。

MappingCharFilter

マッピング オプションで定義されたマッピングを適用する文字フィルター。 一致は最長一致です (特定ポイントでの最長パターン マッチングを優先)。 空の文字列での置換が許可されます。 この文字フィルターは、Apache Lucene を使用して実装されます。

名前 説明
@odata.type string:

#Microsoft.Azure.Search.MappingCharFilter

char フィルターの種類を指定する URI フラグメント。

mappings

string[]

次の形式のマッピングの一覧: "a=>b" (文字 "a" のすべての出現箇所は、文字 "b" に置き換えられます)。

name

string

char フィルターの名前。 アルファベット、数字、空白、ダッシュ、アンダースコアのみを含める必要があります。また、最初と最後の文字は英数字にする必要があり、長さは 128 文字までに制限されています。

MicrosoftLanguageStemmingTokenizer

言語固有のルールを使用してテキストが分割され、基本フォームに単語が減らされます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.MicrosoftLanguageStemmingTokenizer

トークナイザーの種類を指定する URI フラグメント。

isSearchTokenizer

boolean

False

トークナイザーの使用方法を示す値。 検索トークナイザーとして使用する場合は true に設定し、インデックス作成トークナイザーとして使用する場合は false に設定します。 既定値は false です。

language

MicrosoftStemmingTokenizerLanguage

使用する言語。 既定値は英語です。

maxTokenLength

integer

255

トークンの最大長。 最大長より長いトークンは分割されます。 使用できる最大トークン長は、300 文字です。 300 文字を超えるトークンは、最初に長さ 300 のトークンに分割され、それらの各トークンは最大トークン長セットに基づいて分割されます。 既定値は 255 です。

name

string

トークナイザーの名前。 アルファベット、数字、空白、ダッシュ、アンダースコアのみを含める必要があります。また、最初と最後の文字は英数字にする必要があり、長さは 128 文字までに制限されています。

MicrosoftLanguageTokenizer

言語固有のルールを使用してテキストが分割されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.MicrosoftLanguageTokenizer

トークナイザーの種類を指定する URI フラグメント。

isSearchTokenizer

boolean

False

トークナイザーの使用方法を示す値。 検索トークナイザーとして使用する場合は true に設定し、インデックス作成トークナイザーとして使用する場合は false に設定します。 既定値は false です。

language

MicrosoftTokenizerLanguage

使用する言語。 既定値は英語です。

maxTokenLength

integer

255

トークンの最大長。 最大長より長いトークンは分割されます。 使用できる最大トークン長は、300 文字です。 300 文字を超えるトークンは、最初に長さ 300 のトークンに分割され、それらの各トークンは最大トークン長セットに基づいて分割されます。 既定値は 255 です。

name

string

トークナイザーの名前。 アルファベット、数字、空白、ダッシュ、アンダースコアのみを含める必要があります。また、最初と最後の文字は英数字にする必要があり、長さは 128 文字までに制限されています。

MicrosoftStemmingTokenizerLanguage

microsoft 言語ステミング トークナイザーでサポートされている言語をListsします。

名前 説明
arabic

string

アラビア語の Microsoft ステミング トークナイザーを選択します。

bangla

string

Bangla の Microsoft ステミング トークナイザーを選択します。

bulgarian

string

ブルガリア語の Microsoft ステミング トークナイザーを選択します。

catalan

string

カタロニア語の Microsoft ステミング トークナイザーを選択します。

croatian

string

クロアチア語の Microsoft ステミング トークナイザーを選択します。

czech

string

チェコ語の Microsoft ステミング トークナイザーを選択します。

danish

string

デンマーク語の Microsoft ステミング トークナイザーを選択します。

dutch

string

オランダ語の Microsoft ステミング トークナイザーを選択します。

english

string

英語の Microsoft ステミング トークナイザーを選択します。

estonian

string

エストニア語の Microsoft ステミング トークナイザーを選択します。

finnish

string

フィンランド語の Microsoft ステミング トークナイザーを選択します。

french

string

フランス語の Microsoft ステミング トークナイザーを選択します。

german

string

ドイツ語の Microsoft ステミング トークナイザーを選択します。

greek

string

ギリシャ語の Microsoft ステミング トークナイザーを選択します。

gujarati

string

Gujarati の Microsoft ステミング トークナイザーを選択します。

hebrew

string

ヘブライ語の Microsoft ステミング トークナイザーを選択します。

hindi

string

ヒンディー語の Microsoft ステミング トークナイザーを選択します。

hungarian

string

ハンガリー語の Microsoft ステミング トークナイザーを選択します。

icelandic

string

アイスランド語の Microsoft ステミング トークナイザーを選択します。

indonesian

string

インドネシア語の Microsoft ステミング トークナイザーを選択します。

italian

string

イタリア語の Microsoft ステミング トークナイザーを選択します。

kannada

string

カンナダの Microsoft ステミング トークナイザーを選択します。

latvian

string

ラトビア語の Microsoft ステミング トークナイザーを選択します。

lithuanian

string

リトアニア語の Microsoft ステミング トークナイザーを選択します。

malay

string

マレー語の Microsoft ステミング トークナイザーを選択します。

malayalam

string

マラヤーラム語の Microsoft ステミング トークナイザーを選択します。

marathi

string

Marathi の Microsoft ステミング トークナイザーを選択します。

norwegianBokmaal

string

ノルウェー語 (Bokmål) の Microsoft ステミング トークナイザーを選択します。

polish

string

ポーランド語の Microsoft ステミング トークナイザーを選択します。

portuguese

string

ポルトガル語の Microsoft ステミング トークナイザーを選択します。

portugueseBrazilian

string

ポルトガル語 (ブラジル) の Microsoft ステミング トークナイザーを選択します。

punjabi

string

Punjabi の Microsoft ステミング トークナイザーを選択します。

romanian

string

ルーマニア語の Microsoft ステミング トークナイザーを選択します。

russian

string

ロシア語の Microsoft ステミング トークナイザーを選択します。

serbianCyrillic

string

セルビア語 (キリル) の Microsoft ステミング トークナイザーを選択します。

serbianLatin

string

セルビア語 (ラテン) の Microsoft ステミング トークナイザーを選択します。

slovak

string

スロバキア語の Microsoft ステミング トークナイザーを選択します。

slovenian

string

スロベニア語の Microsoft ステミング トークナイザーを選択します。

spanish

string

スペイン語の Microsoft ステミング トークナイザーを選択します。

swedish

string

スウェーデン語の Microsoft ステミング トークナイザーを選択します。

tamil

string

Tamil の Microsoft ステミング トークナイザーを選択します。

telugu

string

テルグ語の Microsoft ステミング トークナイザーを選択します。

turkish

string

トルコ語の Microsoft ステミング トークナイザーを選択します。

ukrainian

string

ウクライナ語の Microsoft ステミング トークナイザーを選択します。

urdu

string

Urdu の Microsoft ステミング トークナイザーを選択します。

MicrosoftTokenizerLanguage

Microsoft 言語トークナイザーでサポートされている言語をListsします。

名前 説明
bangla

string

Bangla の Microsoft トークナイザーを選択します。

bulgarian

string

ブルガリア語の Microsoft トークナイザーを選択します。

catalan

string

カタロニア語の Microsoft トークナイザーを選択します。

chineseSimplified

string

中国語 (簡体字) 用の Microsoft トークナイザーを選択します。

chineseTraditional

string

中国語 (繁体字) の Microsoft トークナイザーを選択します。

croatian

string

クロアチア語の Microsoft トークナイザーを選択します。

czech

string

チェコ語の Microsoft トークナイザーを選択します。

danish

string

デンマーク語の Microsoft トークナイザーを選択します。

dutch

string

オランダ語の Microsoft トークナイザーを選択します。

english

string

英語用の Microsoft トークナイザーを選択します。

french

string

フランス語の Microsoft トークナイザーを選択します。

german

string

ドイツ語の Microsoft トークナイザーを選択します。

greek

string

ギリシャ語の Microsoft トークナイザーを選択します。

gujarati

string

Gujarati の Microsoft トークナイザーを選択します。

hindi

string

ヒンディー語の Microsoft トークナイザーを選択します。

icelandic

string

アイスランドの Microsoft トークナイザーを選択します。

indonesian

string

インドネシア語の Microsoft トークナイザーを選択します。

italian

string

イタリア語の Microsoft トークナイザーを選択します。

japanese

string

日本語の Microsoft トークナイザーを選択します。

kannada

string

カンナダの Microsoft トークナイザーを選択します。

korean

string

韓国語用の Microsoft トークナイザーを選択します。

malay

string

マレー語の Microsoft トークナイザーを選択します。

malayalam

string

Malayalam の Microsoft トークナイザーを選択します。

marathi

string

Marathi の Microsoft トークナイザーを選択します。

norwegianBokmaal

string

ノルウェー語 (Bokmål) の Microsoft トークナイザーを選択します。

polish

string

ポーランド語の Microsoft トークナイザーを選択します。

portuguese

string

ポルトガル語の Microsoft トークナイザーを選択します。

portugueseBrazilian

string

ポルトガル語 (ブラジル) の Microsoft トークナイザーを選択します。

punjabi

string

Punjabi の Microsoft トークナイザーを選択します。

romanian

string

ルーマニア語の Microsoft トークナイザーを選択します。

russian

string

ロシア語の Microsoft トークナイザーを選択します。

serbianCyrillic

string

セルビア語 (キリル) の Microsoft トークナイザーを選択します。

serbianLatin

string

セルビア語 (ラテン) の Microsoft トークナイザーを選択します。

slovenian

string

スロベニア語の Microsoft トークナイザーを選択します。

spanish

string

スペイン語の Microsoft トークナイザーを選択します。

swedish

string

スウェーデン語の Microsoft トークナイザーを選択します。

tamil

string

Tamil の Microsoft トークナイザーを選択します。

telugu

string

Telugu の Microsoft トークナイザーを選択します。

thai

string

タイ語の Microsoft トークナイザーを選択します。

ukrainian

string

ウクライナ語の Microsoft トークナイザーを選択します。

urdu

string

Urdu の Microsoft トークナイザーを選択します。

vietnamese

string

ベトナム語の Microsoft トークナイザーを選択します。

NGramTokenFilter

指定サイズの n グラムが生成されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.NGramTokenFilter

トークン フィルターの種類を指定する URI フラグメント。

maxGram

integer

2

最大 n グラムの長さ。 既定値は 2 です。

minGram

integer

1

n グラムの最小長。 既定値は 1 です。 maxGram の値より小さくする必要があります。

name

string

トークン フィルターの名前。 アルファベット、数字、空白、ダッシュ、アンダースコアのみを含める必要があります。また、最初と最後の文字は英数字にする必要があり、長さは 128 文字までに制限されています。

NGramTokenFilterV2

指定サイズの n グラムが生成されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.NGramTokenFilterV2

トークン フィルターの種類を指定する URI フラグメント。

maxGram

integer

2

最大 n グラムの長さ。 既定値は 2 です。 最大値は 300 です。

minGram

integer

1

n グラムの最小長。 既定値は 1 です。 最大値は 300 です。 maxGram の値より小さくする必要があります。

name

string

トークン フィルターの名前。 アルファベット、数字、空白、ダッシュ、アンダースコアのみを含める必要があります。また、最初と最後の文字は英数字にする必要があり、長さは 128 文字までに制限されています。

NGramTokenizer

入力が指定サイズの n グラムにトークン化されます。 このトークナイザーは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.NGramTokenizer

トークナイザーの種類を指定する URI フラグメント。

maxGram

integer

2

n-gram の最大長。 既定値は 2 です。 最大値は 300 です。

minGram

integer

1

n-gram の最小長。 既定値は 1 です。 最大値は 300 です。 maxGram の値より小さくする必要があります。

name

string

トークナイザーの名前。 アルファベット、数字、空白、ダッシュ、アンダースコアのみを含める必要があります。また、最初と最後の文字は英数字にする必要があり、長さは 128 文字までに制限されています。

tokenChars

TokenCharacterKind[]

トークンに保持する文字クラス。

PathHierarchyTokenizerV2

パスのような階層のトークナイザー。 このトークナイザーは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.PathHierarchyTokenizerV2

トークナイザーの種類を指定する URI フラグメント。

delimiter

string

/

使用する区切り文字。 既定値は "/" です。

maxTokenLength

integer

300

トークンの最大長。 既定値と最大値は 300 です。

name

string

トークナイザーの名前。 アルファベット、数字、空白、ダッシュ、アンダースコアのみを含める必要があります。また、最初と最後の文字は英数字にする必要があり、長さは 128 文字までに制限されています。

replacement

string

/

設定されている場合は、区切り文字を置き換える値。 既定値は "/" です。

reverse

boolean

False

トークンを逆の順序で生成するかどうかを示す値。 既定値は false です。

skip

integer

0

スキップする初期トークンの数。 既定値は 0 です。

PatternAnalyzer

正規表現のパターンを使用してテキストを用語に柔軟に分割します。 このアナライザーは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.PatternAnalyzer

アナライザーの種類を指定する URI フラグメント。

flags

RegexFlags

正規表現フラグ。

lowercase

boolean

True

用語を小文字にするかどうかを示す値。 既定値は true です。

name

string

アナライザーの名前。 アルファベット、数字、空白、ダッシュ、アンダースコアのみを含める必要があります。また、最初と最後の文字は英数字にする必要があり、長さは 128 文字までに制限されています。

pattern

string

\W+

トークンの区切り記号と一致する正規表現パターン。 既定値は、1 つ以上の単語以外の文字と一致する式です。

stopwords

string[]

ストップワードの一覧。

PatternCaptureTokenFilter

Java 正規表現を使用して複数のトークン (1 つ以上のパターンでキャプチャ グループごとに 1 つ) を出力します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.PatternCaptureTokenFilter

トークン フィルターの種類を指定する URI フラグメント。

name

string

トークン フィルターの名前。 アルファベット、数字、空白、ダッシュ、アンダースコアのみを含める必要があります。また、最初と最後の文字は英数字にする必要があり、長さは 128 文字までに制限されています。

patterns

string[]

各トークンと照合するパターンの一覧。

preserveOriginal

boolean

True

いずれかのパターンが一致する場合でも、元のトークンを返すかどうかを示す値。 既定値は true です。

PatternReplaceCharFilter

入力文字列内の文字を置き換える文字フィルター。 正規表現を使用して維持する文字のシーケンスが識別され、置換パターンを使用して置換する文字が識別されます。 たとえば、入力テキスト "aa bb aa bb"、パターン "(aa)\s+(bb)"、置換後の "$1#$2" を指定すると、結果は "aa#bb aa#bb" になります。 この文字フィルターは、Apache Lucene を使用して実装されます。

名前 説明
@odata.type string:

#Microsoft.Azure.Search.PatternReplaceCharFilter

char フィルターの種類を指定する URI フラグメント。

name

string

char フィルターの名前。 アルファベット、数字、空白、ダッシュ、アンダースコアのみを含める必要があります。また、最初と最後の文字は英数字にする必要があり、長さは 128 文字までに制限されています。

pattern

string

正規表現パターン。

replacement

string

置換テキスト。

PatternReplaceTokenFilter

入力文字列内の文字を置き換える文字フィルター。 正規表現を使用して維持する文字のシーケンスが識別され、置換パターンを使用して置換する文字が識別されます。 たとえば、入力テキスト "aa bb aa bb"、パターン "(aa)\s+(bb)"、置換後の "$1#$2" を指定すると、結果は "aa#bb aa#bb" になります。 このトークン フィルターは、Apache Lucene を使用して実装されます。

名前 説明
@odata.type string:

#Microsoft.Azure.Search.PatternReplaceTokenFilter

トークン フィルターの種類を指定する URI フラグメント。

name

string

トークン フィルターの名前。 アルファベット、数字、空白、ダッシュ、アンダースコアのみを含める必要があります。また、最初と最後の文字は英数字にする必要があり、長さは 128 文字までに制限されています。

pattern

string

正規表現パターン。

replacement

string

置換テキスト。

PatternTokenizer

正規表現パターン マッチングを使用して個別のトークンを構築するトークナイザー。 このトークナイザーは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.PatternTokenizer

トークナイザーの種類を指定する URI フラグメント。

flags

RegexFlags

正規表現フラグ。

group

integer

-1

トークンに抽出する正規表現パターン内の一致するグループの 0 から始まる序数。 一致するグループに関係なく、パターン全体を使用して入力をトークンに分割する場合は、-1 を使用します。 既定値は -1 です。

name

string

トークナイザーの名前。 アルファベット、数字、空白、ダッシュ、アンダースコアのみを含める必要があります。また、最初と最後の文字は英数字にする必要があり、長さは 128 文字までに制限されています。

pattern

string

\W+

トークン区切り記号と一致する正規表現パターン。 既定値は、1 つ以上の単語以外の文字と一致する式です。

PhoneticEncoder

PhoneticTokenFilter で使用するふりがなエンコーダーの種類を識別します。

名前 説明
beiderMorse

string

トークンを Beider-Morse 値にエンコードします。

caverphone1

string

トークンを Caverphone 1.0 値にエンコードします。

caverphone2

string

トークンを Caverphone 2.0 値にエンコードします。

cologne

string

トークンをケルンふりがな値にエンコードします。

doubleMetaphone

string

トークンを二重メタフォン値にエンコードします。

haasePhonetik

string

Kölner Phonetik アルゴリズムの Haase 絞り込みを使用してトークンをエンコードします。

koelnerPhonetik

string

Kölner Phonetik アルゴリズムを使用してトークンをエンコードします。

metaphone

string

トークンをメタフォン値にエンコードします。

nysiis

string

トークンを NYSIIS 値にエンコードします。

refinedSoundex

string

トークンを Refined Soundex 値にエンコードします。

soundex

string

トークンを Soundex 値にエンコードします。

PhoneticTokenFilter

音声一致用のトークンが作成されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.PhoneticTokenFilter

トークン フィルターの種類を指定する URI フラグメント。

encoder

PhoneticEncoder

metaphone

使用するふりがなエンコーダー。 既定値は "metaphone" です。

name

string

トークン フィルターの名前。 アルファベット、数字、空白、ダッシュ、アンダースコアのみを含める必要があります。また、最初と最後の文字は英数字にする必要があり、長さは 128 文字までに制限されています。

replace

boolean

True

エンコードされたトークンが元のトークンを置き換える必要があるかどうかを示す 値。 false の場合、エンコードされたトークンがシノニムとして追加されます。 既定値は true です。

PrioritizedFields

セマンティック ランク付け、キャプション、強調表示、回答に使用するタイトル、コンテンツ、キーワードのフィールドについて説明します。

名前 説明
prioritizedContentFields

SemanticField[]

セマンティック ランク付け、キャプション、強調表示、回答に使用するコンテンツ フィールドを定義します。 最適な結果を得られるには、選択したフィールドに自然言語形式のテキストが含まれている必要があります。 配列内のフィールドの順序は、その優先順位を表します。 コンテンツが長い場合、優先度の低いフィールドは切り捨てられる可能性があります。

prioritizedKeywordsFields

SemanticField[]

セマンティック ランク付け、キャプション、強調表示、回答に使用するキーワード (keyword) フィールドを定義します。 最適な結果を得るには、選択したフィールドにキーワードの一覧が含まれている必要があります。 配列内のフィールドの順序は、その優先順位を表します。 コンテンツが長い場合、優先度の低いフィールドは切り捨てられる可能性があります。

titleField

SemanticField

セマンティック ランク付け、キャプション、強調表示、回答に使用するタイトル フィールドを定義します。 インデックスにタイトル フィールドがない場合は、空白のままにします。

RegexFlags

パターン アナライザーとパターン トークナイザーで正規表現を使用する方法を制御するために組み合わせることができるフラグを定義します。

名前 説明
CANON_EQ

string

正規の等価性を有効にします。

CASE_INSENSITIVE

string

大文字と小文字を区別しない照合を有効にします。

COMMENTS

string

パターン内の空白とコメントを許可します。

DOTALL

string

dotall モードを有効にします。

LITERAL

string

パターンのリテラル解析を有効にします。

MULTILINE

string

複数行モードを有効にします。

UNICODE_CASE

string

Unicode 対応の大文字と小文字の折りたたみを有効にします。

UNIX_LINES

string

Unix 行モードを有効にします。

ScalarQuantizationParameters

スカラー量子化に固有のパラメーターが含まれます。

名前 説明
quantizedDataType

VectorSearchCompressionTargetDataType

圧縮ベクター値の量子化されたデータ型。

ScalarQuantizationVectorSearchCompressionConfiguration

インデックス作成とクエリ中に使用されるスカラー量子化圧縮方法に固有の構成オプションが含まれています。

名前 規定値 説明
defaultOversampling

number

既定のオーバーサンプリング係数。 オーバーサンプリングでは、最初の検索で (この乗数で指定された) より多くのドキュメントが内部的に要求されます。 これにより、全精度ベクトルから再計算された類似性スコアを使用して再ランク付けされる結果のセットが増加します。 最小値は 1 で、オーバーサンプリングなし (1x) を意味します。 このパラメーターは、rerankWithOriginalVectors が true の場合にのみ設定できます。 値を大きくすると、待機時間を犠牲にしてリコールが向上します。

kind string:

scalarQuantization

ベクター検索で使用するように構成されている圧縮方法の種類の名前。

name

string

この特定の構成に関連付ける名前。

rerankWithOriginalVectors

boolean

True

true に設定すると、圧縮ベクトルを使用して計算された順序付けられた結果セットが取得されると、完全精度の類似性スコアを再計算することで、再ランクが再評価されます。 これにより、待機時間を犠牲にしてリコールが向上します。

scalarQuantizationParameters

ScalarQuantizationParameters

スカラー量子化に固有のパラメーターが含まれます。

ScoringFunctionAggregation

スコアリング プロファイル内のすべてのスコアリング関数の結果を結合するために使用される集計関数を定義します。

名前 説明
average

string

すべてのスコアリング関数の結果の平均によってスコアをブーストします。

firstMatching

string

スコアリング プロファイルの最初の適用可能なスコアリング関数を使用してスコアをブーストします。

maximum

string

スコアをすべてのスコアリング関数の結果の最大値でブーストします。

minimum

string

スコアをすべてのスコアリング関数の結果の最小値でブーストします。

sum

string

すべてのスコアリング関数の結果の合計によってスコアをブーストします。

ScoringFunctionInterpolation

さまざまなドキュメントでスコアブーストを補間するために使用される関数を定義します。

名前 説明
constant

string

スコアを一定の係数でブーストします。

linear

string

スコアを直線的に減らす量だけブーストします。 これは、スコアリング関数の既定の補間です。

logarithmic

string

対数的に減少する量だけスコアをブーストします。 ブーストは、スコアが高い場合は急速に減少し、スコアが減少するにつれて徐々に減少します。 tag スコアリング関数では、この補間オプションは使用できません。

quadratic

string

2 次的に減少する量だけスコアをブーストします。 ブーストはスコアが高い場合は徐々に減少し、スコアが減少するにつれてより迅速に減少します。 tag スコアリング関数では、この補間オプションは使用できません。

ScoringProfile

検索クエリのスコアリングに影響を与える検索インデックスのパラメーターを定義します。

名前 説明
functionAggregation

ScoringFunctionAggregation

個々のスコアリング関数の結果を組み合わせる方法を示す値。 既定値は "Sum" です。 スコアリング関数がない場合は無視されます。

functions ScoringFunction[]:

ドキュメントのスコアリングに影響を与える関数のコレクション。

name

string

スコアリング プロファイルの名前。

text

TextWeights

特定のインデックス フィールドのテキスト一致に基づいてスコアリングを向上させるパラメーター。

SearchField

フィールドの名前、データ型、および検索動作を記述するインデックス定義のフィールドを表します。

名前 説明
analyzer

LexicalAnalyzerName

フィールドに使用するアナライザーの名前。 このオプションは、検索可能なフィールドでのみ使用でき、searchAnalyzer または indexAnalyzer と共に設定することはできません。 フィールドのアナライザーを選択した後は変更できません。 複合フィールドの場合は null にする必要があります。

dimensions

integer

ベクター フィールドの次元。

facetable

boolean

ファセット クエリでフィールドを参照できるかどうかを示す値。 通常、カテゴリ別のヒット数を含む検索結果のプレゼンテーションで使用されます (たとえば、デジタルカメラを検索し、ブランド別、メガピクセル別、価格別などのヒット数を確認します)。 複合フィールドの場合、このプロパティは null である必要があります。 Edm.GeographyPoint 型または Collection(Edm.GeographyPoint) 型のフィールドをファセット可能にすることはできません。 他のすべての単純なフィールドの既定値は true です。

fields

SearchField[]

Edm.ComplexType 型または Collection(Edm.ComplexType) 型のフィールドである場合のサブフィールドのリスト。 単純なフィールドの場合は null または空である必要があります。

filterable

boolean

$filterクエリでフィールドを参照できるかどうかを示す値。 filterable は、文字列の処理方法で検索可能とは異なります。 フィルター可能な Edm.String 型または Collection(Edm.String) 型のフィールドは単語区切りを行わないので、比較は完全一致のみを対象とします。 たとえば、このようなフィールド f を "晴れた日" に設定した場合、$filter=f eq 'sunny' は一致しませんが、$filter=f eq 'sunny day' は見つかります。 複合フィールドの場合、このプロパティは null である必要があります。 単純フィールドの場合は既定値は true、複合フィールドの場合は null です。

indexAnalyzer

LexicalAnalyzerName

フィールドのインデックス作成時に使用されるアナライザーの名前。 このオプションは、検索可能なフィールドでのみ使用できます。 searchAnalyzer と共に設定する必要があり、アナライザー オプションと一緒に設定することはできません。 このプロパティを言語アナライザーの名前に設定することはできません。言語アナライザーが必要な場合は、代わりにアナライザー プロパティを使用してください。 フィールドのアナライザーを選択した後は変更できません。 複合フィールドの場合は null にする必要があります。

key

boolean

フィールドがインデックス内のドキュメントを一意に識別するかどうかを示す値。 キー フィールドとして各インデックスの最上位フィールドを 1 つだけ選択し、Edm.String 型にする必要があります。 キー フィールドを使用すると、ドキュメントを直接検索したり、特定のドキュメントを更新または削除したりできます。 単純なフィールドの場合は既定値は false、複合フィールドの場合は null です。

name

string

フィールドの名前。インデックスまたは親フィールドの fields コレクション内で一意である必要があります。

normalizer

LexicalNormalizerName

フィールドに使用するノーマライザーの名前。 このオプションは、フィルター可能、並べ替え可能、またはファセット可能が有効なフィールドでのみ使用できます。 ノーマライザーを選択すると、フィールドに対して変更することはできません。 複合フィールドの場合は null にする必要があります。

retrievable

boolean

検索結果でフィールドを返すことができるかどうかを示す値。 フィルター、並べ替え、スコアリングのメカニズムとしてフィールド (余白など) を使用するが、エンド ユーザーにフィールドを表示したくない場合は、このオプションを無効にすることができます。 このプロパティは、キー フィールドの場合は true である必要があり、複合フィールドの場合は null である必要があります。 このプロパティは、既存のフィールドで変更できます。 このプロパティを有効にしても、インデックス ストレージの要件は増加しません。 単純なフィールドの場合は既定値は true、ベクター フィールドの場合は false、複合フィールドの場合は null です。

searchAnalyzer

LexicalAnalyzerName

フィールドの検索時に使用されるアナライザーの名前。 このオプションは、検索可能なフィールドでのみ使用できます。 indexAnalyzer と共に設定する必要があり、アナライザー オプションと一緒に設定することはできません。 このプロパティを言語アナライザーの名前に設定することはできません。言語アナライザーが必要な場合は、代わりにアナライザー プロパティを使用してください。 このアナライザーは、既存のフィールドで更新できます。 複合フィールドの場合は null にする必要があります。

searchable

boolean

フィールドがフルテキスト検索可能かどうかを示す値。 これは、インデックス処理中に単語の区切りなどの分析が行われることを意味します。 検索可能フィールドを "sunny day" などの値に設定した場合、その値は内部的に個別のトークン "sunny" と "day" に分割されます。 これにより、これらの語句をフルテキスト検索できます。 Edm.String 型または Collection(Edm.String) 型のフィールドは、既定で検索できます。 このプロパティは、他の文字列以外のデータ型の単純なフィールドの場合は false、複合フィールドの場合は null である必要があります。 注: 検索可能なフィールドは、フルテキスト検索のフィールド値のトークン化された追加バージョンに対応するために、インデックスに余分な領域を使用します。 インデックスの領域を節約し、検索にフィールドを含める必要がない場合は、searchable を false に設定します。

sortable

boolean

$orderby式でフィールドを参照できるかどうかを示す値。 既定では、検索エンジンは結果をスコアで並べ替えますが、多くのエクスペリエンスでは、ユーザーはドキュメント内のフィールドで並べ替える必要があります。 単純なフィールドは、単一値の場合にのみ並べ替えることができます (親ドキュメントのスコープに 1 つの値があります)。 単純なコレクション フィールドは複数値であるため、並べ替えできません。 複雑なコレクションの単純なサブフィールドも複数値であるため、並べ替えできません。 これは、それが直接の親フィールドであるか、先祖フィールドであるかに関係なく、複雑なコレクションです。 複合フィールドは並べ替え可能にできず、このようなフィールドの並べ替え可能なプロパティは null である必要があります。 並べ替え可能の既定値は、単一値の単純フィールドの場合は true、複数値の単純フィールドの場合は false、複合フィールドの場合は null です。

stored

boolean

フィールドが検索結果で返されるディスク上に個別に保持されるかどうかを示す変更できない値。 検索応答でフィールドの内容を返してストレージのオーバーヘッドを節約する予定がない場合は、このオプションを無効にすることができます。 これは、インデックスの作成時にのみ設定でき、ベクター フィールドに対してのみ設定できます。 このプロパティは、既存のフィールドに対して変更したり、新しいフィールドに対して false に設定したりすることはできません。 このプロパティが false に設定されている場合は、プロパティ '取得可能' も false に設定する必要があります。 このプロパティは、キー フィールド、新しいフィールド、および非ベクター フィールドの場合は true または unset である必要があり、複合フィールドの場合は null である必要があります。 このプロパティを無効にすると、インデックスストレージの要件が減ります。 ベクトル フィールドの既定値は true です。

synonymMaps

string[]

このフィールドに関連付けるシノニム マップの名前の一覧。 このオプションは、検索可能なフィールドでのみ使用できます。 現時点では、フィールドごとに 1 つのシノニム マップのみがサポートされています。 シノニム マップをフィールドに割り当てると、シノニム マップのルールを使用して、そのフィールドを対象とするクエリ用語がクエリ時に展開されます。 この属性は、既存のフィールドで変更できます。 複合フィールドの場合は null または空のコレクションである必要があります。

type

SearchFieldDataType

フィールドのデータ型。

vectorSearchProfile

string

ベクター フィールドを検索するときに使用するアルゴリズムとベクター化を指定するベクター検索プロファイルの名前。

SearchFieldDataType

検索インデックス内のフィールドのデータ型を定義します。

名前 説明
Edm.Boolean

string

フィールドにブール値 (true または false) が含まれていることを示します。

Edm.ComplexType

string

フィールドに、他の型のサブフィールドを持つ 1 つ以上の複雑なオブジェクトが含まれていることを示します。

Edm.DateTimeOffset

string

フィールドに、タイムゾーン情報を含む日付/時刻値が含まれていることを示します。

Edm.Double

string

フィールドに IEEE 倍精度浮動小数点数が含まれていることを示します。

Edm.GeographyPoint

string

フィールドに経度と緯度の観点から geo 位置が含まれていることを示します。

Edm.Half

string

フィールドに半精度浮動小数点数が含まれていることを示します。 これは、Collection(Edm.Half) と共に使用する場合にのみ有効です。

Edm.Int16

string

フィールドに 16 ビット符号付き整数が含まれていることを示します。 これは、Collection(Edm.Int16) で使用する場合にのみ有効です。

Edm.Int32

string

フィールドに 32 ビット符号付き整数が含まれていることを示します。

Edm.Int64

string

フィールドに 64 ビット符号付き整数が含まれていることを示します。

Edm.SByte

string

フィールドに 8 ビット符号付き整数が含まれていることを示します。 これは、Collection(Edm.SByte) で使用する場合にのみ有効です。

Edm.Single

string

フィールドに単精度浮動小数点数が含まれていることを示します。 これは、Collection(Edm.Single) で使用する場合にのみ有効です。

Edm.String

string

フィールドに文字列が含まれていることを示します。

SearchIndex

インデックスのフィールドと検索動作を記述する検索インデックス定義を表します。

名前 説明
@odata.etag

string

インデックスの ETag。

analyzers LexicalAnalyzer[]:

インデックスのアナライザー。

charFilters CharFilter[]:

インデックスの文字フィルター。

corsOptions

CorsOptions

インデックスのクロスオリジン リソース共有 (CORS) を制御するオプション。

defaultScoringProfile

string

クエリで何も指定されていない場合に使用するスコアリング プロファイルの名前。 このプロパティが設定されておらず、クエリでスコアリング プロファイルが指定されていない場合は、既定のスコアリング (tf-idf) が使用されます。

encryptionKey

SearchResourceEncryptionKey

Azure Key Vaultで作成する暗号化キーの説明。 このキーは、Microsoft だけでなく、誰もデータの暗号化を解除できないという完全な保証が必要な場合に、データの保存時の暗号化レベルを追加するために使用されます。 データを暗号化すると、常に暗号化されたままになります。 検索サービスは、このプロパティを null に設定する試行を無視します。 暗号化キーをローテーションする場合は、必要に応じてこのプロパティを変更できます。データは影響を受けません。 カスタマー マネージド キーを使用した暗号化は、無料の検索サービスでは使用できません。また、2019 年 1 月 1 日以降に作成された有料サービスでのみ使用できます。

fields

SearchField[]

インデックスのフィールド。

name

string

インデックスの名前です。

normalizers LexicalNormalizer[]:

CustomNormalizer[]

インデックスのノーマライザー。

scoringProfiles

ScoringProfile[]

インデックスのスコアリング プロファイル。

semantic

SemanticSettings

セマンティック機能に影響を与える検索インデックスのパラメーターを定義します。

similarity Similarity:

検索クエリに一致するドキュメントのスコア付けとランク付けの際に使用する類似性アルゴリズムの種類。 類似性アルゴリズムは、インデックス作成時にのみ定義でき、既存のインデックスでは変更できません。 null の場合は、ClassicSimilarity アルゴリズムが使用されます。

suggesters

Suggester[]

インデックスの suggesters。

tokenFilters TokenFilter[]:

インデックスのトークン フィルター。

tokenizers LexicalTokenizer[]:

インデックスのトークナイザー。

vectorSearch

VectorSearch

ベクター検索に関連する構成オプションが含まれています。

SearchIndexerDataNoneIdentity

データソースの ID プロパティをクリアします。

名前 説明
@odata.type string:

#Microsoft.Azure.Search.DataNoneIdentity

ID の種類を指定する URI フラグメント。

SearchIndexerDataUserAssignedIdentity

使用するデータソースの ID を指定します。

名前 説明
@odata.type string:

#Microsoft.Azure.Search.DataUserAssignedIdentity

ID の種類を指定する URI フラグメント。

userAssignedIdentity

string

通常、ユーザー割り当てマネージド ID の完全修飾 Azure リソース ID は、検索サービスに割り当てられている必要がある "/subscriptions/12345678-1234-1234-1234-1234567890ab/resourceGroups/rg/providers/Microsoft.ManagedIdentity/userAssignedIdentities/myId" という形式です。

SearchResourceEncryptionKey

Azure Key Vaultのカスタマー マネージド暗号化キー。 作成および管理するキーは、インデックスやシノニム マップなどの保存データの暗号化または暗号化解除に使用できます。

名前 説明
accessCredentials

AzureActiveDirectoryApplicationCredentials

Azure Key Vaultへのアクセスに使用されるオプションの Azure Active Directory 資格情報。 代わりにマネージド ID を使用する場合は必須ではありません。

identity SearchIndexerDataIdentity:

この暗号化キーに使用する明示的なマネージド ID。 指定せず、アクセス資格情報プロパティが null の場合は、システム割り当てマネージド ID が使用されます。 リソースの更新時に、明示的な ID が指定されていない場合は、変更されません。 "none" を指定すると、このプロパティの値はクリアされます。

keyVaultKeyName

string

保存データの暗号化に使用する Azure Key Vault キーの名前。

keyVaultKeyVersion

string

保存データの暗号化に使用する Azure Key Vault キーのバージョン。

keyVaultUri

string

保存データの暗号化に使用するキーを含む Azure Key Vaultの URI (DNS 名とも呼ばれます)。 URI の例として、https://my-keyvault-name.vault.azure.net があります。

SemanticConfiguration

セマンティック機能のコンテキストで使用する特定の構成を定義します。

名前 説明
name

string

セマンティック構成の名前。

prioritizedFields

PrioritizedFields

セマンティックランク付け、キャプション、ハイライト、回答に使用するタイトル、コンテンツ、およびキーワード (keyword)フィールドについて説明します。 3 つのサブ プロパティ (titleField、prioritizedKeywordsFields、prioritizedContentFields) のうち少なくとも 1 つを設定する必要があります。

SemanticField

セマンティック構成の一部として使用されるフィールド。

名前 説明
fieldName

string

SemanticSettings

セマンティック機能に影響を与える検索インデックスのパラメーターを定義します。

名前 説明
configurations

SemanticConfiguration[]

インデックスのセマンティック構成。

defaultConfiguration

string

インデックスに既定のセマンティック構成の名前を設定できます。この構成は、毎回クエリ パラメーターとして渡す省略可能です。

ShingleTokenFilter

トークンの組み合わせが 1 つのトークンとして作成されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.ShingleTokenFilter

トークン フィルターの種類を指定する URI フラグメント。

filterToken

string

_

トークンがない位置ごとに挿入する文字列。 既定値はアンダースコア ("_") です。

maxShingleSize

integer

2

最大シングル サイズ。 既定値と最小値は 2 です。

minShingleSize

integer

2

最小のシングル サイズ。 既定値と最小値は 2 です。 maxShingleSize の値より小さくする必要があります。

name

string

トークン フィルターの名前。 アルファベット、数字、空白、ダッシュ、アンダースコアのみを含める必要があります。また、最初と最後の文字は英数字にする必要があり、長さは 128 文字までに制限されています。

outputUnigrams

boolean

True

出力ストリームに入力トークン (ユニグラム) とシングルグルが含まれるかどうかを示す値。 既定値は true です。

outputUnigramsIfNoShingles

boolean

False

シングルが使用できない場合に、それらの時刻のユニグラムを出力するかどうかを示す値。 outputUnigrams が false に設定されている場合、このプロパティが優先されます。 既定値は false です。

tokenSeparator

string

隣接するトークンを結合してシングルを形成するときに使用する文字列。 既定値は 1 つのスペース (" ") です。

SnowballTokenFilter

Snowball で生成されたステマーを使用して単語をステミングするフィルター。 このトークン フィルターは、Apache Lucene を使用して実装されます。

名前 説明
@odata.type string:

#Microsoft.Azure.Search.SnowballTokenFilter

トークン フィルターの種類を指定する URI フラグメント。

language

SnowballTokenFilterLanguage

使用する言語。

name

string

トークン フィルターの名前。 アルファベット、数字、空白、ダッシュ、アンダースコアのみを含める必要があります。また、最初と最後の文字は英数字にする必要があり、長さは 128 文字までに制限されています。

SnowballTokenFilterLanguage

Snowball トークン フィルターに使用する言語。

名前 説明
armenian

string

アルメニア語の Lucene Snowball ステミング トークナイザーを選択します。

basque

string

バスク語の Lucene Snowball ステミング トークナイザーを選択します。

catalan

string

カタロニア語の Lucene Snowball ステミング トークナイザーを選択します。

danish

string

デンマーク語の Lucene Snowball ステミング トークナイザーを選択します。

dutch

string

オランダ語の Lucene Snowball ステミング トークナイザーを選択します。

english

string

英語の Lucene Snowball ステミング トークナイザーを選択します。

finnish

string

フィンランド語の Lucene Snowball ステミング トークナイザーを選択します。

french

string

フランス語の Lucene Snowball ステミング トークナイザーを選択します。

german

string

ドイツ語の Lucene Snowball ステミング トークナイザーを選択します。

german2

string

ドイツ語のバリアント アルゴリズムを使用する Lucene Snowball ステミング トークナイザーを選択します。

hungarian

string

ハンガリー語の Lucene Snowball ステミング トークナイザーを選択します。

italian

string

イタリア語の Lucene Snowball ステミング トークナイザーを選択します。

kp

string

Kraaij-Pohlmann ステミング アルゴリズムを使用するオランダ語の Lucene Snowball ステミング トークナイザーを選択します。

lovins

string

Lovins ステミング アルゴリズムを使用する英語の Lucene Snowball ステミング トークナイザーを選択します。

norwegian

string

ノルウェー語の Lucene Snowball ステミング トークナイザーを選択します。

porter

string

Porter ステミング アルゴリズムを使用する英語の Lucene Snowball ステミング トークナイザーを選択します。

portuguese

string

ポルトガル語の Lucene Snowball ステミング トークナイザーを選択します。

romanian

string

ルーマニア語の Lucene Snowball ステミング トークナイザーを選択します。

russian

string

ロシア語の Lucene Snowball ステミング トークナイザーを選択します。

spanish

string

スペイン語の Lucene Snowball ステミング トークナイザーを選択します。

swedish

string

スウェーデン語の Lucene Snowball ステミング トークナイザーを選択します。

turkish

string

トルコ語の Lucene Snowball ステミング トークナイザーを選択します。

StemmerOverrideTokenFilter

ユーザー辞書ベースのステミングを使用して、他のステミング フィルターをオーバーライドする機能を提供します。 辞書で語幹を付けた用語はキーワードとしてマークされるため、チェーンの下のステマーで語幹を付けなくなります。 すべてのステミング フィルターの前に配置する必要があります。 このトークン フィルターは、Apache Lucene を使用して実装されます。

名前 説明
@odata.type string:

#Microsoft.Azure.Search.StemmerOverrideTokenFilter

トークン フィルターの種類を指定する URI フラグメント。

name

string

トークン フィルターの名前。 アルファベット、数字、空白、ダッシュ、アンダースコアのみを含める必要があります。また、最初と最後の文字は英数字にする必要があり、長さは 128 文字までに制限されています。

rules

string[]

"word => stem" という形式のステミング ルールの一覧。たとえば、"ran => run" です。

StemmerTokenFilter

言語固有のステミング フィルター。 このトークン フィルターは、Apache Lucene を使用して実装されます。

名前 説明
@odata.type string:

#Microsoft.Azure.Search.StemmerTokenFilter

トークン フィルターの種類を指定する URI フラグメント。

language

StemmerTokenFilterLanguage

使用する言語。

name

string

トークン フィルターの名前。 アルファベット、数字、空白、ダッシュ、アンダースコアのみを含める必要があります。また、最初と最後の文字は英数字にする必要があり、長さは 128 文字までに制限されています。

StemmerTokenFilterLanguage

ステマー トークン フィルターに使用する言語。

名前 説明
arabic

string

アラビア語の Lucene ステミング トークナイザーを選択します。

armenian

string

アルメニア語の Lucene ステミング トークナイザーを選択します。

basque

string

バスク語の Lucene ステミング トークナイザーを選択します。

brazilian

string

ポルトガル語 (ブラジル) の Lucene ステミング トークナイザーを選択します。

bulgarian

string

ブルガリア語の Lucene ステミング トークナイザーを選択します。

catalan

string

カタロニア語の Lucene ステミング トークナイザーを選択します。

czech

string

チェコ語の Lucene ステミング トークナイザーを選択します。

danish

string

デンマーク語の Lucene ステミング トークナイザーを選択します。

dutch

string

オランダ語の Lucene ステミング トークナイザーを選択します。

dutchKp

string

Kraaij-Pohlmann ステミング アルゴリズムを使用するオランダ語の Lucene ステミング トークナイザーを選択します。

english

string

英語の Lucene ステミング トークナイザーを選択します。

finnish

string

フィンランド語の Lucene ステミング トークナイザーを選択します。

french

string

フランス語の Lucene ステミング トークナイザーを選択します。

galician

string

ガリシア語の Lucene ステミング トークナイザーを選択します。

german

string

ドイツ語の Lucene ステミング トークナイザーを選択します。

german2

string

ドイツ語のバリアント アルゴリズムを使用する Lucene ステミング トークナイザーを選択します。

greek

string

ギリシャ語の Lucene ステミング トークナイザーを選択します。

hindi

string

ヒンディー語の Lucene ステミング トークナイザーを選択します。

hungarian

string

ハンガリー語の Lucene ステミング トークナイザーを選択します。

indonesian

string

インドネシア語の Lucene ステミング トークナイザーを選択します。

irish

string

アイルランド語の Lucene ステミング トークナイザーを選択します。

italian

string

イタリア語の Lucene ステミング トークナイザーを選択します。

latvian

string

ラトビア語の Lucene ステミング トークナイザーを選択します。

lightEnglish

string

ライト ステミングを行う英語の Lucene ステミング トークナイザーを選択します。

lightFinnish

string

ライト ステミングを行うフィンランド語の Lucene ステミング トークナイザーを選択します。

lightFrench

string

光ステミングを行うフランス語の Lucene ステミング トークナイザーを選択します。

lightGerman

string

光ステミングを行うドイツ語の Lucene ステミング トークナイザーを選択します。

lightHungarian

string

光ステミングを行うハンガリー語の Lucene ステミング トークナイザーを選択します。

lightItalian

string

ライト ステミングを行うイタリア語の Lucene ステミング トークナイザーを選択します。

lightNorwegian

string

ライト ステミングを行うノルウェー語 (Bokmål) の Lucene ステミング トークナイザーを選択します。

lightNynorsk

string

ライト ステミングを行うノルウェー語 (ニーノシュク) の Lucene ステミング トークナイザーを選択します。

lightPortuguese

string

光ステミングを行うポルトガル語の Lucene ステミング トークナイザーを選択します。

lightRussian

string

光ステミングを行うロシア語の Lucene ステミング トークナイザーを選択します。

lightSpanish

string

光ステミングを行うスペイン語の Lucene ステミング トークナイザーを選択します。

lightSwedish

string

光ステミングを行うスウェーデン語の Lucene ステミング トークナイザーを選択します。

lovins

string

Lovins ステミング アルゴリズムを使用する英語の Lucene ステミング トークナイザーを選択します。

minimalEnglish

string

最小ステミングを行う英語の Lucene ステミング トークナイザーを選択します。

minimalFrench

string

最小ステミングを行うフランス語の Lucene ステミング トークナイザーを選択します。

minimalGalician

string

最小ステミングを行う Galician の Lucene ステミング トークナイザーを選択します。

minimalGerman

string

最小ステミングを行うドイツ語の Lucene ステミング トークナイザーを選択します。

minimalNorwegian

string

最小ステミングを行うノルウェー語 (Bokmål) の Lucene ステミング トークナイザーを選択します。

minimalNynorsk

string

最小ステミングを行うノルウェー語 (ニーノリスク) の Lucene ステミング トークナイザーを選択します。

minimalPortuguese

string

最小ステミングを行うポルトガル語の Lucene ステミング トークナイザーを選択します。

norwegian

string

ノルウェー語 (Bokmål) の Lucene ステミング トークナイザーを選択します。

porter2

string

Porter2 ステミング アルゴリズムを使用する英語の Lucene ステミング トークナイザーを選択します。

portuguese

string

ポルトガル語の Lucene ステミング トークナイザーを選択します。

portugueseRslp

string

RSLP ステミング アルゴリズムを使用するポルトガル語の Lucene ステミング トークナイザーを選択します。

possessiveEnglish

string

単語から末尾の所有物を削除する英語の Lucene ステミング トークナイザーを選択します。

romanian

string

ルーマニア語の Lucene ステミング トークナイザーを選択します。

russian

string

ロシア語の Lucene ステミング トークナイザーを選択します。

sorani

string

Sorani の Lucene ステミング トークナイザーを選択します。

spanish

string

スペイン語の Lucene ステミング トークナイザーを選択します。

swedish

string

スウェーデン語の Lucene ステミング トークナイザーを選択します。

turkish

string

トルコ語の Lucene ステミング トークナイザーを選択します。

StopAnalyzer

テキストを文字以外で分割します。小文字とストップワードのトークン フィルターを適用します。 このアナライザーは、Apache Lucene を使用して実装されます。

名前 説明
@odata.type string:

#Microsoft.Azure.Search.StopAnalyzer

アナライザーの種類を指定する URI フラグメント。

name

string

アナライザーの名前。 アルファベット、数字、空白、ダッシュ、アンダースコアのみを含める必要があります。また、最初と最後の文字は英数字にする必要があり、長さは 128 文字までに制限されています。

stopwords

string[]

ストップワードの一覧。

StopwordsList

言語固有のストップワードの定義済みリストを識別します。

名前 説明
arabic

string

アラビア語のストップワード リストを選択します。

armenian

string

アルメニア語のストップワード リストを選択します。

basque

string

バスク語のストップワード リストを選択します。

brazilian

string

ポルトガル語 (ブラジル) のストップワード の一覧を選択します。

bulgarian

string

ブルガリア語のストップワード リストを選択します。

catalan

string

カタロニア語のストップワード リストを選択します。

czech

string

チェコ語のストップワード リストを選択します。

danish

string

デンマーク語のストップワード リストを選択します。

dutch

string

オランダ語のストップワード リストを選択します。

english

string

英語のストップワード リストを選択します。

finnish

string

フィンランド語のストップワード リストを選択します。

french

string

フランス語のストップワード リストを選択します。

galician

string

ガリシア語のストップワード リストを選択します。

german

string

ドイツ語のストップワード リストを選択します。

greek

string

ギリシャ語のストップワード リストを選択します。

hindi

string

ヒンディー語のストップワード リストを選択します。

hungarian

string

ハンガリー語のストップワード リストを選択します。

indonesian

string

インドネシア語のストップワード リストを選択します。

irish

string

アイルランド語のストップワード リストを選択します。

italian

string

イタリア語のストップワード リストを選択します。

latvian

string

ラトビア語のストップワード リストを選択します。

norwegian

string

ノルウェー語のストップワード リストを選択します。

persian

string

ペルシャ語のストップワード リストを選択します。

portuguese

string

ポルトガル語のストップワード リストを選択します。

romanian

string

ルーマニア語のストップワード リストを選択します。

russian

string

ロシア語のストップワード リストを選択します。

sorani

string

Sorani のストップワード リストを選択します。

spanish

string

スペイン語のストップワード リストを選択します。

swedish

string

スウェーデン語のストップワード リストを選択します。

thai

string

タイ語のストップワード リストを選択します。

turkish

string

トルコ語のストップワード リストを選択します。

StopwordsTokenFilter

トークン ストリームからストップワードが削除されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.StopwordsTokenFilter

トークン フィルターの種類を指定する URI フラグメント。

ignoreCase

boolean

False

大文字と小文字を無視するかどうかを示す値。 true の場合、すべての単語が最初に小文字に変換されます。 既定値は false です。

name

string

トークン フィルターの名前。 アルファベット、数字、空白、ダッシュ、アンダースコアのみを含める必要があります。また、最初と最後の文字は英数字にする必要があり、長さは 128 文字までに制限されています。

removeTrailing

boolean

True

最後の検索語句がストップ ワードの場合に無視するかどうかを示す値。 既定値は true です。

stopwords

string[]

ストップワードの一覧。 このプロパティとストップワード リスト プロパティの両方を設定することはできません。

stopwordsList

StopwordsList

english

使用するストップワードの定義済みリスト。 このプロパティと stopwords プロパティの両方を設定することはできません。 既定値は英語です。

Suggester

Suggest API をインデックス内のフィールドのグループに適用する方法を定義します。

名前 説明
name

string

suggester の名前。

searchMode

SuggesterSearchMode

suggester の機能を示す値。

sourceFields

string[]

suggester が適用されるフィールド名の一覧。 各フィールドは検索可能である必要があります。

SuggesterSearchMode

suggester の機能を示す値。

名前 説明
analyzingInfixMatching

string

フィールド内の連続する用語とプレフィックス全体に一致します。 たとえば、フィールド 'The fastest brown fox' では、クエリ 'fast' と 'fastest brow' の両方が一致します。

SynonymTokenFilter

トークン ストリーム内の単一または複数単語のシノニムと一致します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.SynonymTokenFilter

トークン フィルターの種類を指定する URI フラグメント。

expand

boolean

True

シノニムのリスト内のすべての単語 (=> 表記が使用されていない場合) が相互にマップされるかどうかを示す値。 true の場合、シノニムの一覧内のすべての単語 (=> 表記が使用されていない場合) は相互にマップされます。 次の一覧: 信じられない、信じられない、素晴らしい、素晴らしい と同等です: 信じられないほどの、信じられない、素晴らしい、素晴らしい => 信じられない、信じられない、素晴らしい、素晴らしい。 false の場合、次の一覧: 信じられない、信じられない、素晴らしい、素晴らしい と同等になります: 信じられない、信じられない、素晴らしい、素晴らしい => 信じられない。 既定値は true です。

ignoreCase

boolean

False

一致する入力を大文字と小文字を区別するかどうかを示す値。 既定値は false です。

name

string

トークン フィルターの名前。 アルファベット、数字、空白、ダッシュ、アンダースコアのみを含める必要があります。また、最初と最後の文字は英数字にする必要があり、長さは 128 文字までに制限されています。

synonyms

string[]

次の 2 つの形式のシノニムの一覧: 1。 信じられない、信じられない、素晴らしい=> 素晴らしい - => 記号の左側のすべての用語は、右側のすべての用語に置き換えられます。2. 信じられないほどの、信じられない、素晴らしい、素晴らしい - 同等の単語のコンマ区切りのリスト。 このリストの解釈方法を変更するには、expand オプションを設定します。

TagScoringFunction

特定のタグのリストに一致する文字列値を持つドキュメントのスコアを向上させる関数を定義します。

名前 説明
boost

number

生のスコアの乗数。 1.0 と等しくない正の数値にする必要があります。

fieldName

string

スコアリング関数への入力として使用されるフィールドの名前。

interpolation

ScoringFunctionInterpolation

文書のスコア間でブースティングがどのように補間されるかを示す値。既定値は "Linear" です。

tag

TagScoringParameters

タグ スコアリング関数のパラメーター値。

type string:

tag

使用する関数の型を示します。 有効な値は、magnitude、freshness、distance、tag です。 関数の型は小文字にする必要があります。

TagScoringParameters

タグ スコアリング関数にパラメーター値を提供します。

名前 説明
tagsParameter

string

検索クエリで渡されるパラメーターの名前。ターゲット フィールドと比較するタグの一覧を指定します。

TextWeights

検索クエリで一致がスコアリングを向上させるインデックス フィールドの重みを定義します。

名前 説明
weights

object

ドキュメント スコアリングを向上させるフィールドごとの重みのディクショナリ。 キーはフィールド名であり、値は各フィールドの重みになります。

TokenCharacterKind

トークン フィルターが動作できる文字のクラスを表します。

名前 説明
digit

string

トークン内の数字を保持します。

letter

string

トークン内の文字を保持します。

punctuation

string

句読点をトークンに保持します。

symbol

string

トークン内のシンボルを保持します。

whitespace

string

トークン内の空白を保持します。

TokenFilterName

検索エンジンでサポートされているすべてのトークン フィルターの名前を定義します。

名前 説明
apostrophe

string

アポストロフィ以降 (アポストロフィ自体を含む) のすべての文字が除去されます。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html」を参照してください。

arabic_normalization

string

アラビア語ノーマライザーを適用して正書法を正規化するトークン フィルター。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html」を参照してください。

asciifolding

string

最初の 127 文字の ASCII 文字 ("Basic Latin" Unicode ブロック) にないアルファベット、数字、および記号の Unicode 文字を、ASCII に相当する文字に変換します (そのような文字が存在する場合)。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html」を参照してください。

cjk_bigram

string

標準トークナイザーから生成される CJK 用語のビッグラムをFormsします。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html」を参照してください。

cjk_width

string

CJK の幅の違いが正規化されます。 全角 ASCII バリアントを同等の基本ラテン語に、半角カタカナバリアントを同等のかなに折りたたみます。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html」を参照してください。

classic

string

頭字語から英語の所有物とドットを削除します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html」を参照してください。

common_grams

string

インデックス付けの間に、頻繁に発生する用語に対してバイグラムが作成されます。 1 つの用語も、バイグラムがオーバーレイされてインデックス付けされます。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html」を参照してください。

edgeNGram_v2

string

入力トークンの前面または背面から、指定したサイズの n グラムを生成します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html」を参照してください。

elision

string

省略記号が削除されます。 たとえば、"l'avion" (平面) は "avion" (平面) に変換されます。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html」を参照してください。

german_normalization

string

German2 snowball アルゴリズムのヒューリスティックに従って、ドイツ語の文字を正規化します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html」を参照してください。

hindi_normalization

string

ヒンディー語のテキストが正規化され、スペルのバリエーションの違いが削除されます。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html」を参照してください。

indic_normalization

string

インドの言語でのテキストの Unicode 表現が正規化されます。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html」を参照してください。

keyword_repeat

string

各受信トークンを 2 回、キーワード (keyword)として 1 回、非キーワード (keyword)として 1 回出力します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html」を参照してください。

kstem

string

英語用の高パフォーマンスの kstem フィルター。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html」を参照してください。

length

string

長すぎる単語または短すぎる単語が削除されます。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html」を参照してください。

limit

string

インデックス付けの間に、トークンの数が制限されます。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html」を参照してください。

lowercase

string

トークンのテキストが小文字に正規化されます。 「https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html」を参照してください。

nGram_v2

string

指定サイズの n グラムが生成されます。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html」を参照してください。

persian_normalization

string

ペルシャ語の正規化が適用されます。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html」を参照してください。

phonetic

string

音声一致用のトークンが作成されます。 「https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html」を参照してください。

porter_stem

string

Porter ステミング アルゴリズムを使用してトークン ストリームを変換します。 「http://tartarus.org/~martin/PorterStemmer」を参照してください。

reverse

string

トークンの文字列が反転されます。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html」を参照してください。

scandinavian_folding

string

スカンジナビア語の文字が åÅäæÄÆ->a および öÖøØ->o にフォールドされます。 また、重母音 aa、ae、ao、oe、oo の使用を判別し、最初の 1 つだけが残されます。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html」を参照してください。

scandinavian_normalization

string

交換可能なスカンジナビア語の文字の使用を正規化します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html」を参照してください。

shingle

string

トークンの組み合わせが 1 つのトークンとして作成されます。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html」を参照してください。

snowball

string

Snowball で生成されたステマーを使用して単語をステミングするフィルター。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html」を参照してください。

sorani_normalization

string

ソラニー語テキストの Unicode 表現が正規化されます。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html」を参照してください。

stemmer

string

言語固有のステミング フィルター。 「https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters」を参照してください。

stopwords

string

トークン ストリームからストップワードが削除されます。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html」を参照してください。

trim

string

先頭と末尾の空白文字がトークンからトリミングされます。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html」を参照してください。

truncate

string

用語を特定の長さに切り捨てます。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html」を参照してください。

unique

string

前のトークンと同じテキストのトークンが除外されます。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html」を参照してください。

uppercase

string

トークンのテキストが大文字に正規化されます。 「https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html」を参照してください。

word_delimiter

string

単語がサブ単語に分割され、部分語のグループに対してオプションの変換が実行されます。

TruncateTokenFilter

用語を特定の長さに切り捨てます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.TruncateTokenFilter

トークン フィルターの種類を指定する URI フラグメント。

length

integer

300

用語が切り捨てられる長さ。 既定値と最大値は 300 です。

name

string

トークン フィルターの名前。 アルファベット、数字、空白、ダッシュ、アンダースコアのみを含める必要があります。また、最初と最後の文字は英数字にする必要があり、長さは 128 文字までに制限されています。

UaxUrlEmailTokenizer

URL と電子メールが 1 つのトークンとしてトークン化されます。 このトークナイザーは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.UaxUrlEmailTokenizer

トークナイザーの種類を指定する URI フラグメント。

maxTokenLength

integer

255

トークンの最大長。 既定値は 255 です。 最大長より長いトークンは分割されます。 使用できる最大トークン長は 300 文字です。

name

string

トークナイザーの名前。 アルファベット、数字、空白、ダッシュ、アンダースコアのみを含める必要があります。また、最初と最後の文字は英数字にする必要があり、長さは 128 文字までに制限されています。

UniqueTokenFilter

前のトークンと同じテキストのトークンが除外されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.UniqueTokenFilter

トークン フィルターの種類を指定する URI フラグメント。

name

string

トークン フィルターの名前。 アルファベット、数字、空白、ダッシュ、アンダースコアのみを含める必要があります。また、最初と最後の文字は英数字にする必要があり、長さは 128 文字までに制限されています。

onlyOnSamePosition

boolean

False

同じ位置でのみ重複を削除するかどうかを示す値。 既定値は false です。

VectorSearch

ベクター検索に関連する構成オプションが含まれています。

名前 説明
algorithms VectorSearchAlgorithmConfiguration[]:

インデックス作成またはクエリ中に使用されるアルゴリズムに固有の構成オプションが含まれます。

compressions VectorSearchCompressionConfiguration[]:

ScalarQuantizationVectorSearchCompressionConfiguration[]

インデックス作成またはクエリ中に使用される圧縮方法に固有の構成オプションが含まれています。

profiles

VectorSearchProfile[]

ベクター検索で使用する構成の組み合わせを定義します。

vectorizers VectorSearchVectorizer[]:

テキスト ベクター クエリをベクター化する方法に関する構成オプションが含まれています。

VectorSearchAlgorithmKind

インデックス作成とクエリに使用されるアルゴリズム。

名前 説明
exhaustiveKnn

string

ブルート フォース検索を実行する完全な KNN アルゴリズム。

hnsw

string

HNSW (階層的なナビゲーション可能な小さな世界)、近似最も近い近隣アルゴリズムの一種。

VectorSearchAlgorithmMetric

ベクター比較に使用する類似性メトリック。

名前 説明
cosine

string

dotProduct

string

euclidean

string

VectorSearchCompressionKind

インデックス作成とクエリに使用される圧縮方法。

名前 説明
scalarQuantization

string

スカラー量子化(圧縮方法の一種)。 スカラー量子化では、元のベクトル値は、縮小された量子化された値のセットを使用してベクトルの各コンポーネントを分離して表すことによって、より狭い型に圧縮され、それによって全体的なデータ サイズが小さくなります。

VectorSearchCompressionTargetDataType

圧縮ベクター値の量子化されたデータ型。

名前 説明
int8

string

VectorSearchProfile

ベクター検索で使用する構成の組み合わせを定義します。

名前 説明
algorithm

string

アルゴリズムと省略可能なパラメーターを指定するベクター検索アルゴリズム構成の名前。

compression

string

圧縮方法と省略可能なパラメーターを指定する圧縮方法構成の名前。

name

string

この特定のベクター検索プロファイルに関連付ける名前。

vectorizer

string

ベクター検索で使用するように構成されているベクター化メソッドの種類の名前。

VectorSearchVectorizerKind

クエリ時間中に使用されるベクター化メソッド。

名前 説明
azureOpenAI

string

クエリ時に Azure OpenAI リソースを使用して埋め込みを生成します。

customWebApi

string

クエリ時にカスタム Web エンドポイントを使用して埋め込みを生成します。

WordDelimiterTokenFilter

単語がサブ単語に分割され、部分語のグループに対してオプションの変換が実行されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.WordDelimiterTokenFilter

トークン フィルターの種類を指定する URI フラグメント。

catenateAll

boolean

False

すべてのサブワード 部分を分類するかどうかを示す値。 たとえば、これが true に設定されている場合、"Azure-Search-1" は "AzureSearch1" になります。 既定値は false です。

catenateNumbers

boolean

False

数値部分の最大実行数を分類するかどうかを示す値。 たとえば、これが true に設定されている場合、"1-2" は "12" になります。 既定値は false です。

catenateWords

boolean

False

単語パーツの最大実行数を分類するかどうかを示す値。 たとえば、これが true に設定されている場合、"Azure-Search" は "AzureSearch" になります。 既定値は false です。

generateNumberParts

boolean

True

数値サブワードを生成するかどうかを示す値。 既定値は true です。

generateWordParts

boolean

True

部分単語を生成するかどうかを示す値。 を設定すると、単語の一部が生成されます。たとえば、"AzureSearch" は "Azure" "Search" になります。 既定値は true です。

name

string

トークン フィルターの名前。 アルファベット、数字、空白、ダッシュ、アンダースコアのみを含める必要があります。また、最初と最後の文字は英数字にする必要があり、長さは 128 文字までに制限されています。

preserveOriginal

boolean

False

元の単語が保持され、サブワード リストに追加されるかどうかを示す値。 既定値は false です。

protectedWords

string[]

区切られるのを防ぎ、保護するトークンの一覧。

splitOnCaseChange

boolean

True

caseChange で単語を分割するかどうかを示す値。 たとえば、これが true に設定されている場合、"AzureSearch" は "Azure" "Search" になります。 既定値は true です。

splitOnNumerics

boolean

True

数値で分割するかどうかを示す値。 たとえば、これが true に設定されている場合、"Azure1Search" は "Azure" "1" "Search" になります。 既定値は true です。

stemEnglishPossessive

boolean

True

各サブワードの末尾の "'s" を削除するかどうかを示す値。 既定値は true です。