Microsoft Foundry Models REST API リファレンスでの OpenAI のAzure

この記事では、Azure OpenAI の推論 REST API エンドポイントについて詳しく説明します。

API 仕様

Azure OpenAI モデルとリソースの管理と操作は、3 つの主要な API サーフェスに分かれています。

  • コントロール プレーン
  • データ プレーン - 作成
  • データ プレーン - 推論

各 API サーフェス/仕様は、異なる一連の Azure OpenAI 機能をカプセル化します。 各 API には、プレビューと安定した一般公開 (GA) API リリースの独自のセットがあります。 プレビュー リリースは現在、毎月の周期に従う傾向があります。

大事な

新しいプレビュー推論 API が追加されました。 詳細については、 API ライフサイクル ガイドを参照してください。

API 最新のプレビュー リリース 最新の GA リリース 仕様 説明
コントロール プレーン 2025-07-01-preview 2025-06-01 Spec files コントロール プレーン API は、 リソースの作成モデルのデプロイ、その他の上位レベルのリソース管理タスクなどの操作に使用されます。 また、コントロール プレーンは、Azure Resource Manager、Bicep、Terraform、Azure CLIなどの機能を使用してできることも制御します。
データ プレーン v1 preview v1 Spec files データ プレーン API は、推論と作成の操作を制御します。

認証

Azure OpenAI には、認証に 2 つの方法があります。 API キーまたはMicrosoft Entra IDを使用できます。

  • API キー認証: この種類の認証では、すべての API 要求で、 api-key HTTP ヘッダーに API キーを含める必要があります。 クイック スタートでは、この種類の認証を使用して呼び出しを行う方法に関するガイダンスを提供します。

  • Microsoft Entra ID 認証: Microsoft Entra トークンを使用して API 呼び出しを認証できます。 認証トークンは、 Authorization ヘッダーとして要求に含まれます。 指定するトークンの前に Bearer を付ける必要があります (例: Bearer YOUR_AUTH_TOKEN)。 Microsoft Entra IDに関するハウツー ガイドを読>。

REST API のバージョン管理

サービス API は、 api-version クエリ パラメーターを使用してバージョン管理されます。 すべてのバージョンは、YYYY-MM-DD 日付構造に従います。 例えば:

POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01

データ プレーンの推論

この記事の残りの部分では、Azure OpenAI データ プレーン推論仕様 (2024-10-21) の GA リリースについて説明します。

最新のプレビュー API リリースに関するドキュメントをお探しの場合は、最新のプレビュー データ プレーン推論 API を参照してください

完了

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21

指定されたプロンプト、パラメーター、および選択したモデルの入力候補を作成します。

URI パラメーター

名前 インチ 必須 タイプ 説明
エンドポイント パス はい 文字列
Url
サポートされている Azure OpenAI エンドポイント (プロトコルとホスト名:https://aoairesource.openai.azure.comなど)。"aoairesource" を Azure OpenAI リソース名) に置き換えます。 https://{your-resource-name}.openai.azure.com
deployment-id パス はい 文字列 デプロイされたモデルのデプロイ ID。
api-version クエリ はい 文字列 API バージョン

要求ヘッダー

名前 必須 タイプ 説明
api-key True 文字列 ここで OpenAI API キー Azure指定します

要求本文

Content-Type: application/json

名前 タイプ 説明 必須 既定
ダイアログを表示する 文字列または配列 文字列、文字列の配列、トークンの配列、またはトークン配列の配列としてエンコードされた入力候補を生成するためのプロンプト。

<|endoftext|> は、トレーニング中にモデルに表示されるドキュメント区切り記号であるため、プロンプトが指定されていない場合、モデルは新しいドキュメントの先頭から生成されます。
はい
best_of 整数 サーバー側 best_of 完了を生成し、"best" (トークンあたりのログ確率が最も高いもの) を返します。 結果をストリーミングすることはできません。

nと共に使用する場合、best_ofは候補の入力候補の数を制御し、nは、nより大きくする必要がある â€" best_ofを返す数を指定します。

メモ: このパラメーターは多くの入力候補を生成するため、トークン クォータをすばやく使用できます。 慎重に使用し、 max_tokensstopに適切な設定が設定されていることを確認します。
いいえ 1
エコー ブール 完了に加えてプロンプトをエコー バックする
いいえ False
frequency_penalty -2.0 から 2.0 までの数値。 正の値は、これまでのテキスト内の既存の頻度に基づいて新しいトークンを罰し、モデルが同じ行を逐語的に繰り返す可能性を減らします。
いいえ 0
logit_bias オブジェクト 指定したトークンが完了に表示される可能性を変更します。

トークン (GPT トークナイザーのトークン ID で指定) を関連付けられたバイアス値に -100 から 100 にマップする JSON オブジェクトを受け入れます。 数学的には、バイアスは、サンプリングの前にモデルによって生成されたロジットに追加されます。 正確な効果はモデルによって異なりますが、-1 と1の間の値は選択の可能性を低下または増加させる必要があります。-100 や 100 などの値は、関連するトークンを禁止または排他的に選択する必要があります。

たとえば、 {"50256": -100} を渡して、 <|endoftext|> トークンが生成されないようにすることができます。
いいえ なし
logprobs 整数 最も可能性の高い出力トークンと、選択したトークン logprobs ログの確率を含めます。 たとえば、 logprobs が 5 の場合、API は最も可能性の高い 5 つのトークンの一覧を返します。 API は常にサンプリングされたトークンの logprob を返します。そのため、応答には最大 logprobs+1 要素がある可能性があります。

logprobsの最大値は 5 です。
いいえ なし
max_tokens 整数 完了時に生成できるトークンの最大数。

プロンプトのトークン数と max_tokens は、モデルのコンテキスト長を超えることはできません。
いいえ 16
N 整数 各プロンプトに対して生成する入力候補の数。

メモ: このパラメーターは多くの入力候補を生成するため、トークン クォータをすばやく使用できます。 慎重に使用し、 max_tokensstopに適切な設定が設定されていることを確認します。
いいえ 1
presence_penalty -2.0 から 2.0 までの数値。 正の値は、これまでにテキストに表示されたかどうかに基づいて新しいトークンを罰し、モデルが新しいトピックについて話す可能性を高めます。
いいえ 0
種子 整数 指定した場合、システムは、同じ seed とパラメーターを持つ繰り返し要求が同じ結果を返すように、決定論的にサンプリングするように最善を尽くします。

決定性は保証されません。バックエンドの変更を監視するには、 system_fingerprint 応答パラメーターを参照する必要があります。
いいえ
停止 文字列または配列 API がそれ以降のトークンの生成を停止する最大 4 つのシーケンス。 返されたテキストには、停止シーケンスは含まれません。
いいえ
ストリーミング ブール 部分的な進行状況をストリーム バックするかどうか。 設定した場合、トークンは、使用可能になるとデータ専用 のサーバー送信イベントとして送信 され、ストリームは data: [DONE] メッセージによって終了します。 いいえ False
サフィックス 文字列 挿入されたテキストが完了した後に表示されるサフィックス。

このパラメーターは、 gpt-3.5-turbo-instructでのみサポートされます。
いいえ なし
温度 使用するサンプリング温度 (0 ~ 2)。 0.8 のような値を大きくすると出力がランダムになり、0.2 のような値が小さいほどフォーカスが高くなり、決定論的になります。

一般に、この変更または top_p を行うことをお勧めしますが、両方は変更しないことをお勧めします。
いいえ 1
top_p 温度を使用したサンプリングの代わりに、核サンプリングと呼ばれ、モデルはtop_p確率質量を持つトークンの結果を考慮します。 したがって、0.1 は、上位 10 個の% 確率質量を含むトークンのみが考慮されていることを意味します。

一般に、この変更または temperature を行うことをお勧めしますが、両方は変更しないことをお勧めします。
いいえ 1
ユーザー 文字列 エンド ユーザーを表す一意の識別子。不正使用の監視と検出に役立ちます。
いいえ

応答

状態コード: 200

説明: OK

Content-Type 説明
application/json createCompletionResponse API からの完了応答を表します。 注: ストリーミングされた応答オブジェクトと非ストリーム応答オブジェクトの両方が同じ図形を共有します (チャット エンドポイントとは異なります)。

状態コード: 既定

説明: サービスを利用できない

Content-Type 説明
application/json errorResponse

指定されたプロンプト、パラメーター、および選択したモデルの入力候補を作成します。

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21

{
 "prompt": [
  "tell me a joke about mango"
 ],
 "max_tokens": 32,
 "temperature": 1.0,
 "n": 1
}

応答: 状態コード: 200

{
  "body": {
    "id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
    "created": 1686617332,
    "choices": [
      {
        "text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
        "index": 0,
        "finish_reason": "stop",
        "logprobs": null
      }
    ],
    "usage": {
      "completion_tokens": 20,
      "prompt_tokens": 6,
      "total_tokens": 26
    }
  }
}

埋め込み

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21

機械学習モデルとアルゴリズムで簡単に使用できる、特定の入力のベクター表現を取得します。

URI パラメーター

名前 インチ 必須 タイプ 説明
エンドポイント パス はい 文字列
Url
サポートされている Azure OpenAI エンドポイント (プロトコルとホスト名:https://aoairesource.openai.azure.comなど)。"aoairesource" を Azure OpenAI リソース名) に置き換えます。 https://{your-resource-name}.openai.azure.com
deployment-id パス はい 文字列
api-version クエリ はい 文字列 API バージョン

要求ヘッダー

名前 必須 タイプ 説明
api-key True 文字列 ここで OpenAI API キー Azure指定します

要求本文

Content-Type: application/json

名前 タイプ 説明 必須 既定
入力 文字列または配列 埋め込むテキストを入力します。トークンの文字列または配列としてエンコードされます。 1 つの要求に複数の入力を埋め込むには、文字列の配列またはトークン配列の配列を渡します。 入力は、モデルの最大入力トークン ( text-embedding-ada-002 の場合は 8,192 トークン) を超えてはなりません。空の文字列にすることはできません。また、配列は 2,048 次元以下である必要があります。 はい
ユーザー 文字列 エンド ユーザーを表す一意の識別子。不正使用の監視と検出に役立ちます。 いいえ
input_type 文字列 使用する埋め込み検索の入力の種類 いいえ
encoding_format 文字列 埋め込みを返す形式。 floatまたはbase64にすることができます。 既定値は float です。 いいえ
寸法 整数 結果の出力埋め込みで必要なディメンションの数。 text-embedding-3以降のモデルでのみサポートされます。 いいえ

応答

名前 タイプ 説明 必須 既定
オブジェクト 文字列 はい
モデル 文字列 はい
データ アレイ はい
使用 オブジェクト はい

使用するプロパティ

prompt_tokens

名前 タイプ 説明 既定
prompt_tokens 整数

total_tokens

名前 タイプ 説明 既定
total_tokens 整数

状態コード: 200

説明: OK

Content-Type 説明
application/json オブジェクト

指定されたプロンプトの埋め込みを返します。

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21

{
 "input": [
  "this is a test"
 ]
}

応答: 状態コード: 200

{
  "body": {
    "data": [
      {
        "index": 0,
        "embedding": [
          -0.012838088,
          -0.007421397,
          -0.017617522,
          -0.028278312,
          -0.018666342,
          0.01737855,
          -0.01821495,
          -0.006950092,
          -0.009937238,
          -0.038580645,
          0.010674067,
          0.02412286,
          -0.013647936,
          0.013189907,
          0.0021125758,
          0.012406612,
          0.020790534,
          0.00074595667,
          0.008397198,
          -0.00535031,
          0.008968075,
          0.014351576,
          -0.014086051,
          0.015055214,
          -0.022211088,
          -0.025198232,
          0.0065186154,
          -0.036350243,
          0.009180495,
          -0.009698266,
          0.009446018,
          -0.008463579,
          -0.0040426035,
          -0.03443847,
          -0.00091273896,
          -0.0019217303,
          0.002349888,
          -0.021560553,
          0.016515596,
          -0.015572986,
          0.0038666942,
          -8.432463e-05
        ]
      }
    ],
    "usage": {
      "prompt_tokens": 4,
      "total_tokens": 4
    }
  }
}

チャットの完了

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

チャット メッセージの入力候補を作成します

URI パラメーター

名前 インチ 必須 タイプ 説明
エンドポイント パス はい 文字列
Url
サポートされている Azure OpenAI エンドポイント (プロトコルとホスト名:https://aoairesource.openai.azure.comなど)。"aoairesource" を Azure OpenAI リソース名) に置き換えます。 https://{your-resource-name}.openai.azure.com
deployment-id パス はい 文字列 デプロイされたモデルのデプロイ ID。
api-version クエリ はい 文字列 API バージョン

要求ヘッダー

名前 必須 タイプ 説明
api-key True 文字列 ここで OpenAI API キー Azure指定します

要求本文

Content-Type: application/json

名前 タイプ 説明 必須 既定
温度 使用するサンプリング温度 (0 ~ 2)。 0.8 のような値を大きくすると出力がランダムになり、0.2 のような値が小さいほどフォーカスが高くなり、決定論的になります。

一般に、この変更または top_p を行うことをお勧めしますが、両方は変更しないことをお勧めします。
いいえ 1
top_p 温度を使用したサンプリングの代わりに、核サンプリングと呼ばれ、モデルはtop_p確率質量を持つトークンの結果を考慮します。 したがって、0.1 は、上位 10 個の% 確率質量を含むトークンのみが考慮されていることを意味します。

一般に、この変更または temperature を行うことをお勧めしますが、両方は変更しないことをお勧めします。
いいえ 1
ストリーミング ブール 設定すると、ChatGPT のように部分的なメッセージ デルタが送信されます。 トークンは、使用可能になるとデータのみの サーバー送信イベントとして送信 され、ストリームは data: [DONE] メッセージによって終了します。 いいえ False
停止 文字列または配列 API がそれ以降のトークンの生成を停止する最大 4 つのシーケンス。
いいえ
max_tokens 整数 チャット完了で生成できるトークンの最大数。

入力トークンと生成されたトークンの合計長は、モデルのコンテキスト長によって制限されます。
いいえ
max_completion_tokens 整数 表示される出力トークンや推論トークンなど、完了のために生成できるトークンの数の上限。 いいえ
presence_penalty -2.0 から 2.0 までの数値。 正の値は、これまでにテキストに表示されたかどうかに基づいて新しいトークンを罰し、モデルが新しいトピックについて話す可能性を高めます。
いいえ 0
frequency_penalty -2.0 から 2.0 までの数値。 正の値は、これまでのテキスト内の既存の頻度に基づいて新しいトークンを罰し、モデルが同じ行を逐語的に繰り返す可能性を減らします。
いいえ 0
logit_bias オブジェクト 指定したトークンが完了に表示される可能性を変更します。

トークン (トークナイザー内のトークン ID で指定) を関連付けられたバイアス値に -100 から 100 にマップする JSON オブジェクトを受け入れます。 数学的には、バイアスは、サンプリングの前にモデルによって生成されたロジットに追加されます。 正確な効果はモデルによって異なりますが、-1 と1の間の値は選択の可能性を低下または増加させる必要があります。-100 や 100 などの値は、関連するトークンを禁止または排他的に選択する必要があります。
いいえ なし
ユーザー 文字列 エンド ユーザーを表す一意の識別子。不正使用の監視と検出に役立ちます。
いいえ
メッセージ アレイ これまでの会話を構成するメッセージの一覧。 はい
data_sources アレイ OpenAI チャット拡張機能Azure使用する構成エントリ。
この追加仕様は、Azure OpenAI とのみ互換性があります。
いいえ
logprobs ブール 出力トークンのログ確率を返すかどうか。 true の場合、messagecontentで返される各出力トークンのログ確率を返します。 いいえ False
top_logprobs 整数 各トークン位置で返される可能性が最も高いトークンの数を指定する 0 ~ 20 の整数。それぞれに、ログ確率が関連付けられています。 logprobs このパラメーターを使用する場合は、 true に設定する必要があります。 いいえ
N 整数 入力メッセージごとに生成するチャット完了の選択肢の数。 すべての選択肢で生成されたトークンの数に基づいて課金されることに注意してください。 コストを最小限に抑えるために、 n1 のままにします。 いいえ 1
parallel_tool_calls ParallelToolCalls ツールの使用中に並列関数呼び出しを有効にするかどうかを指定します。 いいえ True
response_format ResponseFormatText または ResponseFormatJsonObject または ResponseFormatJsonSchema モデルが出力する必要がある形式を指定するオブジェクト。 GPT-4oGPT-4oミニGPT-4ターボ、およびすべてのGPT-3.5ターボモデルと互換性があり、gpt-3.5-turbo-1106より新しいモデル。

{ "type": "json_schema", "json_schema": {...} }に設定すると、モデルが指定された JSON スキーマと一致することを保証する構造化出力が有効になります。

{ "type": "json_object" }に設定すると JSON モードが有効になり、モデルによって生成されるメッセージが有効な JSON であることが保証されます。

重要: JSON モードを使用する場合は、システムまたはユーザー メッセージを介して JSON を自分で生成するようにモデルに指示する 必要もあります 。 これを行わないと、生成がトークンの制限に達するまで、モデルは空白の終わりのないストリームを生成し、実行時間が長く、一見 "スタック" な要求になる可能性があります。 また、生成がmax_tokensを超えたか、会話が最大コンテキスト長を超えたことを示すfinish_reason="length"場合は、メッセージの内容が部分的に切断される可能性があることにも注意してください。
いいえ
種子 整数 この機能はベータ版です。
指定した場合、システムは、同じ seed とパラメーターを持つ繰り返し要求が同じ結果を返すように、決定論的にサンプリングするように最善を尽くします。
決定性は保証されません。バックエンドの変更を監視するには、 system_fingerprint 応答パラメーターを参照する必要があります。
いいえ
ツール アレイ モデルが呼び出す可能性があるツールの一覧。 現時点では、関数のみがツールとしてサポートされています。 これを使用して、モデルが JSON 入力を生成する可能性がある関数の一覧を提供します。 最大 128 個の関数がサポートされています。
いいえ
tool_choice chatCompletionToolChoiceOption モデルによって呼び出されるツール (ある場合) を制御します。 none は、モデルがツールを呼び出さず、代わりにメッセージを生成します。 auto は、モデルがメッセージを生成するか、1 つ以上のツールを呼び出すかを選択できることを意味します。 required は、モデルが 1 つ以上のツールを呼び出す必要があるということです。 {"type": "function", "function": {"name": "my_function"}}を使用して特定のツールを指定すると、モデルはそのツールを強制的に呼び出します。 none は、ツールが存在しない場合の既定値です。 auto は、ツールが存在する場合の既定値です。 いいえ
function_call string または chatCompletionFunctionCallOption tool_choiceを優先して非推奨になりました。

モデルによって呼び出される (ある場合) 関数を制御します。
none は、モデルが関数を呼び出さず、代わりにメッセージを生成します。
auto は、モデルがメッセージの生成または関数の呼び出しを選択できることを意味します。
{"name": "my_function"}を使用して特定の関数を指定すると、モデルはその関数を強制的に呼び出します。

none は、関数が存在しない場合の既定値です。 auto は、関数が存在する場合の既定値です。
いいえ
関数 アレイ toolsを優先して非推奨になりました。

モデルが JSON 入力を生成する可能性がある関数の一覧。
いいえ

応答

状態コード: 200

説明: OK

Content-Type 説明
application/json createChatCompletionResponse または createChatCompletionStreamResponse

状態コード: 既定

説明: サービスを利用できない

Content-Type 説明
application/json errorResponse

指定されたプロンプト、パラメーター、および選択したモデルの入力候補を作成します。

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "system",
   "content": "you are a helpful assistant that talks like a pirate"
  },
  {
   "role": "user",
   "content": "can you tell me how to care for a parrot?"
  }
 ]
}

応答: 状態コード: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

検索データとシステム割り当てマネージド ID Azure基づいて完了を作成します。

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "authentication": {
     "type": "system_assigned_managed_identity"
    }
   }
  }
 ]
}

応答: 状態コード: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

検索ベクター データ、以前のアシスタント メッセージ、ユーザー割り当てマネージド ID Azure基づいて入力候補を作成します。

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a cat?"
  },
  {
   "role": "assistant",
   "content": "Content of the completion [doc1].",
   "context": {
    "intent": "cat care"
   }
  },
  {
   "role": "user",
   "content": "how about dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "authentication": {
     "type": "user_assigned_managed_identity",
     "managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
    },
    "index_name": "{index name}",
    "query_type": "vector",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "in_scope": true,
    "top_n_documents": 5,
    "strictness": 3,
    "role_information": "You are an AI assistant that helps people find information.",
    "fields_mapping": {
     "content_fields_separator": "\\n",
     "content_fields": [
      "content"
     ],
     "filepath_field": "filepath",
     "title_field": "title",
     "url_field": "url",
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

応答: 状態コード: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content 2.",
                "title": "Citation Title 2",
                "filepath": "contoso2.txt",
                "url": "https://contoso.blob.windows.net/container/contoso2.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

指定されたAzure Cosmos DBの完了を作成します。

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_cosmos_db",
   "parameters": {
    "authentication": {
     "type": "connection_string",
     "connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
    },
    "database_name": "vectordb",
    "container_name": "azuredocs",
    "index_name": "azuredocindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

応答: 状態コード: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

文字起こし - 作成

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21

オーディオを入力言語に文字起こしします。

URI パラメーター

名前 インチ 必須 タイプ 説明
エンドポイント パス はい 文字列
Url
サポートされている Azure OpenAI エンドポイント (プロトコルとホスト名:https://aoairesource.openai.azure.comなど)。"aoairesource" を Azure OpenAI リソース名) に置き換えます。 https://{your-resource-name}.openai.azure.com
deployment-id パス はい 文字列 音声テキスト変換モデルのデプロイ ID。

サポートされているモデルの詳細については、「/azure/ai-foundry/openai/concepts/models#audio-models」を参照してください。
api-version クエリ はい 文字列 API バージョン

要求ヘッダー

名前 必須 タイプ 説明
api-key True 文字列 ここで OpenAI API キー Azure指定します

要求本文

Content-Type: multipart/form-data

名前 タイプ 説明 必須 既定
ファイル 文字列 文字起こしするオーディオ ファイル オブジェクト。 はい
ダイアログを表示する 文字列 モデルのスタイルをガイドしたり、前のオーディオ セグメントを続行したりするための省略可能なテキスト。 プロンプトはオーディオ言語と一致する必要があります。 いいえ
response_format audioResponseFormat 出力の形式を定義します。 いいえ
温度 サンプリング温度 (0 ~ 1)。 0.8 のような値を大きくすると出力がランダムになり、0.2 のような値が小さいほどフォーカスが高くなり、決定論的になります。 0 に設定すると、モデルはログ確率を使用して、特定のしきい値に達するまで温度を自動的に上昇させます。 いいえ 0
言語 文字列 入力オーディオの言語。 ISO-639-1 形式で入力言語を指定すると、精度と待機時間が向上します。 いいえ

応答

状態コード: 200

説明: OK

Content-Type 説明
application/json audioResponse または audioVerboseResponse
text/plain 文字列 出力形式で文字起こしされたテキスト (response_formatがテキスト、vtt、または srt の 1 つであった場合)。

指定された音声オーディオ データから、文字起こしされたテキストと関連するメタデータを取得します。

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21

応答: 状態コード: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

指定された音声オーディオ データから、文字起こしされたテキストと関連するメタデータを取得します。

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

応答: 状態コード: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

翻訳 - 作成

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21

入力オーディオを文字起こしし、英語のテキストに翻訳します。

URI パラメーター

名前 インチ 必須 タイプ 説明
エンドポイント パス はい 文字列
Url
サポートされている Azure OpenAI エンドポイント (プロトコルとホスト名:https://aoairesource.openai.azure.comなど)。"aoairesource" を Azure OpenAI リソース名) に置き換えます。 https://{your-resource-name}.openai.azure.com
deployment-id パス はい 文字列 デプロイされたささやきモデルのデプロイ ID。

サポートされているモデルの詳細については、「/azure/ai-foundry/openai/concepts/models#audio-models」を参照してください。
api-version クエリ はい 文字列 API バージョン

要求ヘッダー

名前 必須 タイプ 説明
api-key True 文字列 ここで OpenAI API キー Azure指定します

要求本文

Content-Type: multipart/form-data

名前 タイプ 説明 必須 既定
ファイル 文字列 翻訳するオーディオ ファイル。 はい
ダイアログを表示する 文字列 モデルのスタイルをガイドしたり、前のオーディオ セグメントを続行したりするための省略可能なテキスト。 プロンプトは英語にする必要があります。 いいえ
response_format audioResponseFormat 出力の形式を定義します。 いいえ
温度 サンプリング温度 (0 ~ 1)。 0.8 のような値を大きくすると出力がランダムになり、0.2 のような値が小さいほどフォーカスが高くなり、決定論的になります。 0 に設定すると、モデルはログ確率を使用して、特定のしきい値に達するまで温度を自動的に上昇させます。 いいえ 0

応答

状態コード: 200

説明: OK

Content-Type 説明
application/json audioResponse または audioVerboseResponse
text/plain 文字列 出力形式で文字起こしされたテキスト (response_formatがテキスト、vtt、または srt の 1 つであった場合)。

提供された音声データから、英語で文字起こしされたテキストと関連するメタデータを取得します。

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

応答: 状態コード: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

提供された音声データから、英語で文字起こしされたテキストと関連するメタデータを取得します。

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

応答: 状態コード: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

イメージの生成

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21

特定の dall-e モデルデプロイのテキスト キャプションからイメージのバッチを生成します

URI パラメーター

名前 インチ 必須 タイプ 説明
エンドポイント パス はい 文字列
Url
サポートされている Azure OpenAI エンドポイント (プロトコルとホスト名:https://aoairesource.openai.azure.comなど)。"aoairesource" を Azure OpenAI リソース名) に置き換えます。 https://{your-resource-name}.openai.azure.com
deployment-id パス はい 文字列 デプロイされた dall-e モデルのデプロイ ID。
api-version クエリ はい 文字列 API バージョン

要求ヘッダー

名前 必須 タイプ 説明
api-key True 文字列 ここで OpenAI API キー Azure指定します

要求本文

Content-Type: application/json

名前 タイプ 説明 必須 既定
ダイアログを表示する 文字列 目的のイメージのテキストの説明。 最大長は 4,000 文字です。 はい
N 整数 生成するイメージの数。 いいえ 1
サイズ Imagesize 生成されたイメージのサイズ。 いいえ 1024 x 1024
response_format imagesResponseFormat 生成されたイメージが返される形式。 いいえ Url
ユーザー 文字列 エンド ユーザーを表す一意の識別子。不正使用の監視と検出に役立ちます。 いいえ
品質 imageQuality 生成されるイメージの品質。 いいえ 標準
スタイル imageStyle 生成されたイメージのスタイル。 いいえ 鮮やか

応答

状態コード: 200

説明: OK

Content-Type 説明
application/json generateImagesResponse

状態コード: 既定

説明: エラーが発生しました。

Content-Type 説明
application/json dalleErrorResponse

プロンプトが表示されたイメージを作成します。

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21

{
 "prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
 "n": 1,
 "style": "natural",
 "quality": "standard"
}

応答: 状態コード: 200

{
  "body": {
    "created": 1698342300,
    "data": [
      {
        "revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
        "prompt_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          },
          "profanity": {
            "detected": false,
            "filtered": false
          }
        },
        "url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
        "content_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          }
        }
      }
    ]
  }
}

コンポーネント

errorResponse

名前 タイプ 説明 必須 既定
エラー エラー いいえ

errorBase

名前 タイプ 説明 必須 既定
コード 文字列 いいえ
メッセージ 文字列 いいえ

エラー

名前 タイプ 説明 必須 既定
Param 文字列 いいえ
文字列 いいえ
inner_error innerError 追加の詳細を含む内部エラー。 いいえ

innerError

追加の詳細を含む内部エラー。

名前 タイプ 説明 必須 既定
コード innerErrorCode 内部エラー オブジェクトのエラー コード。 いいえ
content_filter_results contentFilterPromptResults コンテンツ フィルタリング カテゴリ (ヘイト、性的、暴力、self_harm)、検出された場合の重大度レベル (有害なコンテンツの強度とリスク レベルを決定するvery_low、低、中、高スケール) に関する情報、およびフィルター処理されたかどうか。 脱獄コンテンツと不適切な表現に関する情報。検出された場合、およびフィルター処理されたかどうか。 また、顧客ブロックリストに関する情報 (フィルター処理された場合とその ID)。 いいえ

innerErrorCode

内部エラー オブジェクトのエラー コード。

説明: 内部エラー オブジェクトのエラー コード。

: string

既定値:

列挙名: InnerErrorCode

列挙値:

説明
ResponsibleAIPolicyViolation プロンプトは、その他のコンテンツ フィルター規則のいずれかに違反しました。

dalleErrorResponse

名前 タイプ 説明 必須 既定
エラー dalleError いいえ

dalleError

名前 タイプ 説明 必須 既定
Param 文字列 いいえ
文字列 いいえ
inner_error dalleInnerError 追加の詳細を含む内部エラー。 いいえ

dalleInnerError

追加の詳細を含む内部エラー。

名前 タイプ 説明 必須 既定
コード innerErrorCode 内部エラー オブジェクトのエラー コード。 いいえ
content_filter_results dalleFilterResults コンテンツ フィルタリング カテゴリ (ヘイト、性的、暴力、self_harm)、検出された場合の重大度レベル (有害なコンテンツの強度とリスク レベルを決定するvery_low、低、中、高スケール) に関する情報、およびフィルター処理されたかどうか。 脱獄コンテンツと不適切な表現に関する情報。検出された場合、およびフィルター処理されたかどうか。 また、顧客ブロックリストに関する情報 (フィルター処理された場合とその ID)。 いいえ
revised_prompt 文字列 イメージの生成に使用されたプロンプト (プロンプトにリビジョンがある場合)。 いいえ

contentFilterResultBase

名前 タイプ 説明 必須 既定
フィルター ブール はい

contentFilterSeverityResult

名前 タイプ 説明 必須 既定
フィルター ブール はい
重大 度 文字列 いいえ

contentFilterDetectedResult

名前 タイプ 説明 必須 既定
フィルター ブール はい
検出 ブール いいえ

contentFilterDetectedWithCitationResult

名前 タイプ 説明 必須 既定
引用 オブジェクト いいえ

引用のプロパティ

URL

名前 タイプ 説明 既定
URL 文字列

ライセンス

名前 タイプ 説明 既定
ライセンス 文字列

contentFilterResultsBase

コンテンツ フィルタリングの結果に関する情報。

名前 タイプ 説明 必須 既定
性的 contentFilterSeverityResult いいえ
暴力 contentFilterSeverityResult いいえ
嫌い contentFilterSeverityResult いいえ
self_harm contentFilterSeverityResult いいえ
冒涜 contentFilterDetectedResult いいえ
エラー errorBase いいえ

contentFilterPromptResults

コンテンツ フィルタリング カテゴリ (ヘイト、性的、暴力、self_harm)、検出された場合の重大度レベル (有害なコンテンツの強度とリスク レベルを決定するvery_low、低、中、高スケール) に関する情報、およびフィルター処理されたかどうか。 脱獄コンテンツと不適切な表現に関する情報。検出された場合、およびフィルター処理されたかどうか。 また、顧客ブロックリストに関する情報 (フィルター処理された場合とその ID)。

名前 タイプ 説明 必須 既定
性的 contentFilterSeverityResult いいえ
暴力 contentFilterSeverityResult いいえ
嫌い contentFilterSeverityResult いいえ
self_harm contentFilterSeverityResult いいえ
冒涜 contentFilterDetectedResult いいえ
エラー errorBase いいえ
脱獄 contentFilterDetectedResult いいえ

contentFilterChoiceResults

コンテンツ フィルタリング カテゴリ (ヘイト、性的、暴力、self_harm)、検出された場合の重大度レベル (有害なコンテンツの強度とリスク レベルを決定するvery_low、低、中、高スケール) に関する情報、およびフィルター処理されたかどうか。 サード パーティのテキストと不適切な表現に関する情報(検出された場合、フィルター処理されているかどうか)。 また、顧客ブロックリストに関する情報 (フィルター処理された場合とその ID)。

名前 タイプ 説明 必須 既定
性的 contentFilterSeverityResult いいえ
暴力 contentFilterSeverityResult いいえ
嫌い contentFilterSeverityResult いいえ
self_harm contentFilterSeverityResult いいえ
冒涜 contentFilterDetectedResult いいえ
エラー errorBase いいえ
protected_material_text contentFilterDetectedResult いいえ
protected_material_code contentFilterDetectedWithCitationResult いいえ

promptFilterResult

要求内の 1 つのプロンプトに対するコンテンツ フィルタリングの結果。

名前 タイプ 説明 必須 既定
prompt_index 整数 いいえ
content_filter_results contentFilterPromptResults コンテンツ フィルタリング カテゴリ (ヘイト、性的、暴力、self_harm)、検出された場合の重大度レベル (有害なコンテンツの強度とリスク レベルを決定するvery_low、低、中、高スケール) に関する情報、およびフィルター処理されたかどうか。 脱獄コンテンツと不適切な表現に関する情報。検出された場合、およびフィルター処理されたかどうか。 また、顧客ブロックリストに関する情報 (フィルター処理された場合とその ID)。 いいえ

promptFilterResults

要求内の 0 個以上のプロンプトの結果をフィルター処理するコンテンツ。 ストリーミング要求では、異なるプロンプトの結果が、異なる時間または異なる順序で到着する場合があります。

このコンポーネントにはプロパティが定義されていません。

dalleContentFilterResults

コンテンツ フィルタリングの結果に関する情報。

名前 タイプ 説明 必須 既定
性的 contentFilterSeverityResult いいえ
暴力 contentFilterSeverityResult いいえ
嫌い contentFilterSeverityResult いいえ
self_harm contentFilterSeverityResult いいえ

dalleFilterResults

コンテンツ フィルタリング カテゴリ (ヘイト、性的、暴力、self_harm)、検出された場合の重大度レベル (有害なコンテンツの強度とリスク レベルを決定するvery_low、低、中、高スケール) に関する情報、およびフィルター処理されたかどうか。 脱獄コンテンツと不適切な表現に関する情報。検出された場合、およびフィルター処理されたかどうか。 また、顧客ブロックリストに関する情報 (フィルター処理された場合とその ID)。

名前 タイプ 説明 必須 既定
性的 contentFilterSeverityResult いいえ
暴力 contentFilterSeverityResult いいえ
嫌い contentFilterSeverityResult いいえ
self_harm contentFilterSeverityResult いいえ
冒涜 contentFilterDetectedResult いいえ
脱獄 contentFilterDetectedResult いいえ

chatCompletionsRequestCommon

名前 タイプ 説明 必須 既定
温度 使用するサンプリング温度 (0 ~ 2)。 0.8 のような値を大きくすると出力がランダムになり、0.2 のような値が小さいほどフォーカスが高くなり、決定論的になります。
一般に、この変更または top_p を行うことをお勧めしますが、両方は変更しないことをお勧めします。
いいえ 1
top_p 温度を使用したサンプリングの代わりに、核サンプリングと呼ばれ、モデルはtop_p確率質量を持つトークンの結果を考慮します。 したがって、0.1 は、上位 10 個の% 確率質量を含むトークンのみが考慮されていることを意味します。
一般に、この変更または temperature を行うことをお勧めしますが、両方は変更しないことをお勧めします。
いいえ 1
ストリーミング ブール 設定すると、ChatGPT のように部分的なメッセージ デルタが送信されます。 トークンは、使用可能になるとデータのみのサーバー送信イベントとして送信され、ストリームは data: [DONE] メッセージによって終了します。 いいえ False
停止 文字列または配列 API がそれ以降のトークンの生成を停止する最大 4 つのシーケンス。 いいえ
max_tokens 整数 生成された回答に許可されるトークンの最大数。 既定では、モデルが返すことができるトークンの数は (4096 - プロンプト トークン) になります。 この値は、 max_completion_tokensを優先して非推奨になり、o1 シリーズ モデルと互換性がありません。 いいえ 4096
max_completion_tokens 整数 表示される出力トークンや推論トークンなど、完了のために生成できるトークンの数の上限。 いいえ
presence_penalty -2.0 から 2.0 までの数値。 正の値は、これまでにテキストに表示されたかどうかに基づいて新しいトークンを罰し、モデルが新しいトピックについて話す可能性を高めます。 いいえ 0
frequency_penalty -2.0 から 2.0 までの数値。 正の値は、これまでのテキスト内の既存の頻度に基づいて新しいトークンを罰し、モデルが同じ行を逐語的に繰り返す可能性を減らします。 いいえ 0
logit_bias オブジェクト 指定したトークンが完了に表示される可能性を変更します。 トークン (トークナイザー内のトークン ID で指定) を関連付けられたバイアス値に -100 から 100 にマップする json オブジェクトを受け入れます。 数学的には、バイアスは、サンプリングの前にモデルによって生成されたロジットに追加されます。 正確な効果はモデルによって異なりますが、-1 と1の間の値は選択の可能性を低下または増加させる必要があります。-100 や 100 などの値は、関連するトークンを禁止または排他的に選択する必要があります。 いいえ
ユーザー 文字列 エンド ユーザーを表す一意の識別子。OpenAI をAzureして不正使用を監視および検出するのに役立ちます。 いいえ

createCompletionRequest

名前 タイプ 説明 必須 既定
ダイアログを表示する 文字列または配列 文字列、文字列の配列、トークンの配列、またはトークン配列の配列としてエンコードされた入力候補を生成するためのプロンプト。

<|endoftext|> は、トレーニング中にモデルに表示されるドキュメント区切り記号であるため、プロンプトが指定されていない場合、モデルは新しいドキュメントの先頭から生成されます。
はい
best_of 整数 サーバー側 best_of 完了を生成し、"best" (トークンあたりのログ確率が最も高いもの) を返します。 結果をストリーミングすることはできません。

nと共に使用する場合、best_ofは候補の入力候補の数を制御し、nは、nより大きくする必要がある â€" best_ofを返す数を指定します。

メモ: このパラメーターは多くの入力候補を生成するため、トークン クォータをすばやく使用できます。 慎重に使用し、 max_tokensstopに適切な設定が設定されていることを確認します。
いいえ 1
エコー ブール 完了に加えてプロンプトをエコー バックする
いいえ False
frequency_penalty -2.0 から 2.0 までの数値。 正の値は、これまでのテキスト内の既存の頻度に基づいて新しいトークンを罰し、モデルが同じ行を逐語的に繰り返す可能性を減らします。
いいえ 0
logit_bias オブジェクト 指定したトークンが完了に表示される可能性を変更します。

トークン (GPT トークナイザーのトークン ID で指定) を関連付けられたバイアス値に -100 から 100 にマップする JSON オブジェクトを受け入れます。 数学的には、バイアスは、サンプリングの前にモデルによって生成されたロジットに追加されます。 正確な効果はモデルによって異なりますが、-1 と1の間の値は選択の可能性を低下または増加させる必要があります。-100 や 100 などの値は、関連するトークンを禁止または排他的に選択する必要があります。

たとえば、 {"50256": -100} を渡して、 <|endoftext|> トークンが生成されないようにすることができます。
いいえ なし
logprobs 整数 最も可能性の高い出力トークンと、選択したトークン logprobs ログの確率を含めます。 たとえば、 logprobs が 5 の場合、API は最も可能性の高い 5 つのトークンの一覧を返します。 API は常にサンプリングされたトークンの logprob を返します。そのため、応答には最大 logprobs+1 要素がある可能性があります。

logprobsの最大値は 5 です。
いいえ なし
max_tokens 整数 完了時に生成できるトークンの最大数。

プロンプトのトークン数と max_tokens は、モデルのコンテキスト長を超えることはできません。
いいえ 16
N 整数 各プロンプトに対して生成する入力候補の数。

メモ: このパラメーターは多くの入力候補を生成するため、トークン クォータをすばやく使用できます。 慎重に使用し、 max_tokensstopに適切な設定が設定されていることを確認します。
いいえ 1
presence_penalty -2.0 から 2.0 までの数値。 正の値は、これまでにテキストに表示されたかどうかに基づいて新しいトークンを罰し、モデルが新しいトピックについて話す可能性を高めます。
いいえ 0
種子 整数 指定した場合、システムは、同じ seed とパラメーターを持つ繰り返し要求が同じ結果を返すように、決定論的にサンプリングするように最善を尽くします。

決定性は保証されません。バックエンドの変更を監視するには、 system_fingerprint 応答パラメーターを参照する必要があります。
いいえ
停止 文字列または配列 API がそれ以降のトークンの生成を停止する最大 4 つのシーケンス。 返されたテキストには、停止シーケンスは含まれません。
いいえ
ストリーミング ブール 部分的な進行状況をストリーム バックするかどうか。 設定した場合、トークンは、使用可能になるとデータ専用 のサーバー送信イベントとして送信 され、ストリームは data: [DONE] メッセージによって終了します。 いいえ False
サフィックス 文字列 挿入されたテキストが完了した後に表示されるサフィックス。

このパラメーターは、 gpt-3.5-turbo-instructでのみサポートされます。
いいえ なし
温度 使用するサンプリング温度 (0 ~ 2)。 0.8 のような値を大きくすると出力がランダムになり、0.2 のような値が小さいほどフォーカスが高くなり、決定論的になります。

一般に、この変更または top_p を行うことをお勧めしますが、両方は変更しないことをお勧めします。
いいえ 1
top_p 温度を使用したサンプリングの代わりに、核サンプリングと呼ばれ、モデルはtop_p確率質量を持つトークンの結果を考慮します。 したがって、0.1 は、上位 10 個の% 確率質量を含むトークンのみが考慮されていることを意味します。

一般に、この変更または temperature を行うことをお勧めしますが、両方は変更しないことをお勧めします。
いいえ 1
ユーザー 文字列 エンド ユーザーを表す一意の識別子。不正使用の監視と検出に役立ちます。
いいえ

createCompletionResponse

API からの完了応答を表します。 注: ストリーミングされた応答オブジェクトと非ストリーム応答オブジェクトの両方が同じ図形を共有します (チャット エンドポイントとは異なります)。

名前 タイプ 説明 必須 既定
Id 文字列 完了の一意識別子。 はい
選択肢 アレイ 入力プロンプト用に生成されたモデルの入力候補の一覧。 はい
作成 整数 完了が作成されたときの Unix タイムスタンプ (秒単位)。 はい
モデル 文字列 完了に使用されるモデル。 はい
prompt_filter_results promptFilterResults 要求内の 0 個以上のプロンプトの結果をフィルター処理するコンテンツ。 ストリーミング要求では、異なるプロンプトの結果が、異なる時間または異なる順序で到着する場合があります。 いいえ
system_fingerprint 文字列 このフィンガープリントは、モデルが実行されるバックエンド構成を表します。

決定主義に影響を与える可能性のあるバックエンドの変更がいつ行われたのか理解するために、 seed 要求パラメーターと組み合わせて使用できます。
いいえ
オブジェクト 列挙型 常に "text_completion" であるオブジェクト型
使用可能な値: text_completion
はい
使用 completionUsage 完了要求の使用状況の統計情報。 いいえ

createChatCompletionRequest

名前 タイプ 説明 必須 既定
温度 使用するサンプリング温度 (0 ~ 2)。 0.8 のような値を大きくすると出力がランダムになり、0.2 のような値が小さいほどフォーカスが高くなり、決定論的になります。

一般に、この変更または top_p を行うことをお勧めしますが、両方は変更しないことをお勧めします。
いいえ 1
top_p 温度を使用したサンプリングの代わりに、核サンプリングと呼ばれ、モデルはtop_p確率質量を持つトークンの結果を考慮します。 したがって、0.1 は、上位 10 個の% 確率質量を含むトークンのみが考慮されていることを意味します。

一般に、この変更または temperature を行うことをお勧めしますが、両方は変更しないことをお勧めします。
いいえ 1
ストリーミング ブール 設定すると、ChatGPT のように部分的なメッセージ デルタが送信されます。 トークンは、使用可能になるとデータのみの サーバー送信イベントとして送信 され、ストリームは data: [DONE] メッセージによって終了します。 いいえ False
停止 文字列または配列 API がそれ以降のトークンの生成を停止する最大 4 つのシーケンス。
いいえ
max_tokens 整数 チャット完了で生成できるトークンの最大数。

入力トークンと生成されたトークンの合計長は、モデルのコンテキスト長によって制限されます。
いいえ
max_completion_tokens 整数 表示される出力トークンや推論トークンなど、完了のために生成できるトークンの数の上限。 いいえ
presence_penalty -2.0 から 2.0 までの数値。 正の値は、これまでにテキストに表示されたかどうかに基づいて新しいトークンを罰し、モデルが新しいトピックについて話す可能性を高めます。
いいえ 0
frequency_penalty -2.0 から 2.0 までの数値。 正の値は、これまでのテキスト内の既存の頻度に基づいて新しいトークンを罰し、モデルが同じ行を逐語的に繰り返す可能性を減らします。
いいえ 0
logit_bias オブジェクト 指定したトークンが完了に表示される可能性を変更します。

トークン (トークナイザー内のトークン ID で指定) を関連付けられたバイアス値に -100 から 100 にマップする JSON オブジェクトを受け入れます。 数学的には、バイアスは、サンプリングの前にモデルによって生成されたロジットに追加されます。 正確な効果はモデルによって異なりますが、-1 と1の間の値は選択の可能性を低下または増加させる必要があります。-100 や 100 などの値は、関連するトークンを禁止または排他的に選択する必要があります。
いいえ なし
ユーザー 文字列 エンド ユーザーを表す一意の識別子。不正使用の監視と検出に役立ちます。
いいえ
メッセージ アレイ これまでの会話を構成するメッセージの一覧。 はい
data_sources アレイ OpenAI チャット拡張機能Azure使用する構成エントリ。
この追加仕様は、Azure OpenAI とのみ互換性があります。
いいえ
logprobs ブール 出力トークンのログ確率を返すかどうか。 true の場合、messagecontentで返される各出力トークンのログ確率を返します。 いいえ False
top_logprobs 整数 各トークン位置で返される可能性が最も高いトークンの数を指定する 0 ~ 20 の整数。それぞれに、ログ確率が関連付けられています。 logprobs このパラメーターを使用する場合は、 true に設定する必要があります。 いいえ
N 整数 入力メッセージごとに生成するチャット完了の選択肢の数。 すべての選択肢で生成されたトークンの数に基づいて課金されることに注意してください。 コストを最小限に抑えるために、 n1 のままにします。 いいえ 1
parallel_tool_calls ParallelToolCalls ツールの使用中に並列関数呼び出しを有効にするかどうかを指定します。 いいえ True
response_format ResponseFormatText または ResponseFormatJsonObject または ResponseFormatJsonSchema モデルが出力する必要がある形式を指定するオブジェクト。 GPT-4oGPT-4oミニGPT-4ターボ、およびすべてのGPT-3.5ターボモデルと互換性があり、gpt-3.5-turbo-1106より新しいモデル。

{ "type": "json_schema", "json_schema": {...} }に設定すると、モデルが指定された JSON スキーマと一致することを保証する構造化出力が有効になります。

{ "type": "json_object" }に設定すると JSON モードが有効になり、モデルによって生成されるメッセージが有効な JSON であることが保証されます。

重要: JSON モードを使用する場合は、システムまたはユーザー メッセージを介して JSON を自分で生成するようにモデルに指示する 必要もあります 。 これを行わないと、生成がトークンの制限に達するまで、モデルは空白の終わりのないストリームを生成し、実行時間が長く、一見 "スタック" な要求になる可能性があります。 また、生成がmax_tokensを超えたか、会話が最大コンテキスト長を超えたことを示すfinish_reason="length"場合は、メッセージの内容が部分的に切断される可能性があることにも注意してください。
いいえ
種子 整数 この機能はベータ版です。
指定した場合、システムは、同じ seed とパラメーターを持つ繰り返し要求が同じ結果を返すように、決定論的にサンプリングするように最善を尽くします。
決定性は保証されません。バックエンドの変更を監視するには、 system_fingerprint 応答パラメーターを参照する必要があります。
いいえ
ツール アレイ モデルが呼び出す可能性があるツールの一覧。 現時点では、関数のみがツールとしてサポートされています。 これを使用して、モデルが JSON 入力を生成する可能性がある関数の一覧を提供します。 最大 128 個の関数がサポートされています。
いいえ
tool_choice chatCompletionToolChoiceOption モデルによって呼び出されるツール (ある場合) を制御します。 none は、モデルがツールを呼び出さず、代わりにメッセージを生成します。 auto は、モデルがメッセージを生成するか、1 つ以上のツールを呼び出すかを選択できることを意味します。 required は、モデルが 1 つ以上のツールを呼び出す必要があるということです。 {"type": "function", "function": {"name": "my_function"}}を使用して特定のツールを指定すると、モデルはそのツールを強制的に呼び出します。 none は、ツールが存在しない場合の既定値です。 auto は、ツールが存在する場合の既定値です。 いいえ
function_call string または chatCompletionFunctionCallOption tool_choiceを優先して非推奨になりました。

モデルによって呼び出される (ある場合) 関数を制御します。
none は、モデルが関数を呼び出さず、代わりにメッセージを生成します。
auto は、モデルがメッセージの生成または関数の呼び出しを選択できることを意味します。
{"name": "my_function"}を使用して特定の関数を指定すると、モデルはその関数を強制的に呼び出します。

none は、関数が存在しない場合の既定値です。 auto は、関数が存在する場合の既定値です。
いいえ
関数 アレイ toolsを優先して非推奨になりました。

モデルが JSON 入力を生成する可能性がある関数の一覧。
いいえ

chatCompletionFunctions

名前 タイプ 説明 必須 既定
説明 文字列 関数の実行内容の説明。関数を呼び出すタイミングと方法を選択するためにモデルによって使用されます。 いいえ
名前 文字列 呼び出す関数の名前。 最大長は 64 の a から z、A から Z、0 から 9、またはアンダースコアとダッシュを含む必要があります。 はい
パラメーター FunctionParameters 関数が受け入れるパラメーター (JSON スキーマ オブジェクトとして記述)。 例についてはガイド を参照し、形式に関するドキュメントについては JSON スキーマ リファレンス を参照してください。

parametersを省略すると、空のパラメーター リストを持つ関数が定義されます。
いいえ

chatCompletionFunctionCallOption

{"name": "my_function"}を使用して特定の関数を指定すると、モデルはその関数を強制的に呼び出します。

名前 タイプ 説明 必須 既定
名前 文字列 呼び出す関数の名前。 はい

chatCompletionRequestMessage

このコンポーネントには、次のいずれかを指定できます。

chatCompletionRequestSystemMessage

名前 タイプ 説明 必須 既定
コンテンツ 文字列または配列 システム メッセージの内容。 はい
ロール 列挙型 メッセージ作成者の役割 (この場合は system
使用可能な値: システム
はい
名前 文字列 参加者の省略可能な名前。 同じロールの参加者を区別するためのモデル情報を提供します。 いいえ

chatCompletionRequestUserMessage

名前 タイプ 説明 必須 既定
コンテンツ 文字列または配列 ユーザー メッセージの内容。
はい
ロール 列挙型 メッセージ作成者の役割 (この場合は user
使用可能な値: ユーザー
はい
名前 文字列 参加者の省略可能な名前。 同じロールの参加者を区別するためのモデル情報を提供します。 いいえ

chatCompletionRequestAssistantMessage

名前 タイプ 説明 必須 既定
コンテンツ 文字列または配列 アシスタント メッセージの内容。 tool_callsまたはfunction_callが指定されていない限り、必須です。
いいえ
拒否 文字列 アシスタントによる拒否メッセージ。 いいえ
ロール 列挙型 メッセージ作成者の役割 (この場合は assistant
使用可能な値: assistant
はい
名前 文字列 参加者の省略可能な名前。 同じロールの参加者を区別するためのモデル情報を提供します。 いいえ
tool_calls chatCompletionMessageToolCalls 関数呼び出しなど、モデルによって生成されるツール呼び出し。 いいえ
function_call オブジェクト 非推奨となり、 tool_callsに置き換えられました。 モデルによって生成される、呼び出す必要がある関数の名前と引数。 いいえ

function_callのプロパティ

引数

名前 タイプ 説明 既定
引数 文字列 モデルによって JSON 形式で生成された関数を呼び出す引数。 モデルは常に有効な JSON を生成するとは限らず、関数スキーマで定義されていないパラメーターを生成する場合があることに注意してください。 関数を呼び出す前に、コード内の引数を検証します。

名前

名前 タイプ 説明 既定
名前 文字列 呼び出す関数の名前。

chatCompletionRequestToolMessage

名前 タイプ 説明 必須 既定
ロール 列挙型 メッセージ作成者の役割 (この場合は tool
使用可能な値: ツール
はい
コンテンツ 文字列または配列 ツール メッセージの内容。 はい
tool_call_id 文字列 このメッセージが応答しているツール呼び出し。 はい

chatCompletionRequestFunctionMessage

名前 タイプ 説明 必須 既定
ロール 列挙型 メッセージ作成者の役割 (この場合は function
指定できる値: 関数
はい
コンテンツ 文字列 関数メッセージの内容。 はい
名前 文字列 呼び出す関数の名前。 はい

chatCompletionRequestSystemMessageContentPart

このコンポーネントには、次のいずれかを指定できます。

chatCompletionRequestUserMessageContentPart

このコンポーネントには、次のいずれかを指定できます。

chatCompletionRequestAssistantMessageContentPart

このコンポーネントには、次のいずれかを指定できます。

chatCompletionRequestToolMessageContentPart

このコンポーネントには、次のいずれかを指定できます。

chatCompletionRequestMessageContentPartText

名前 タイプ 説明 必須 既定
列挙型 コンテンツ パーツの種類。
使用可能な値: テキスト
はい
SMS 送信 文字列 テキストの内容。 はい

chatCompletionRequestMessageContentPartImage

名前 タイプ 説明 必須 既定
列挙型 コンテンツ パーツの種類。
使用可能な値: image_url
はい
image_url オブジェクト はい

image_urlのプロパティ

Url

名前 タイプ 説明 既定
Url 文字列 イメージの URL または base64 でエンコードされたイメージ データ。

詳細

名前 タイプ 説明 既定
詳細 文字列 イメージの詳細レベルを指定します。 詳しくは、 ビジョン ガイドをご覧ください。 自動

chatCompletionRequestMessageContentPartRefusal

名前 タイプ 説明 必須 既定
列挙型 コンテンツ パーツの種類。
使用可能な値: 拒否
はい
拒否 文字列 モデルによって生成される拒否メッセージ。 はい

azureChatExtensionConfiguration

1 つの Azure OpenAI チャット拡張機能の構成データの表現。 これは、Azure OpenAI チャット拡張機能を使用して応答動作を拡張する必要があるチャット完了要求によって使用されます。 この構成の使用は、Azure OpenAI とのみ互換性があります。

名前 タイプ 説明 必須 既定
azureChatExtensionType 1 つの Azure OpenAI チャット拡張機能の構成データの表現。 これはチャットで使用されます
完了要求は、OpenAI チャット拡張機能Azure使用して応答動作を拡張する必要があります。
この構成の使用は、Azure OpenAI とのみ互換性があります。
はい

azureChatExtensionType

1 つの Azure OpenAI チャット拡張機能の構成データの表現。 これは、Azure OpenAI チャット拡張機能を使用して応答動作を拡張する必要があるチャット完了要求によって使用されます。 この構成の使用は、Azure OpenAI とのみ互換性があります。

Description: 1 つの Azure OpenAI チャット拡張機能の構成データの表現。 これは、Azure OpenAI チャット拡張機能を使用して応答動作を拡張する必要があるチャット完了要求によって使用されます。 この構成の使用は、Azure OpenAI とのみ互換性があります。

: string

既定値:

列挙型: AzureChatExtensionType

列挙値:

説明
azure_search Azure OpenAI チャット拡張機能としての Azure Search の使用を表します。
azure_cosmos_db Azure OpenAI チャット拡張機能としてのAzure Cosmos DBの使用を表します。

azureSearchChatExtensionConfiguration

Azure OpenAI チャット拡張機能として使用する場合の、Azure Search の構成可能なオプションの具体的な表現。

名前 タイプ 説明 必須 既定
azureChatExtensionType 1 つの Azure OpenAI チャット拡張機能の構成データの表現。 これはチャットで使用されます
完了要求は、OpenAI チャット拡張機能Azure使用して応答動作を拡張する必要があります。
この構成の使用は、Azure OpenAI とのみ互換性があります。
はい
パラメーター azureSearchChatExtensionParameters Azure OpenAI チャット拡張機能として使用する場合のAzure検索のパラメーター。 いいえ

azureSearchChatExtensionParameters

Azure OpenAI チャット拡張機能として使用する場合のAzure検索のパラメーター。

名前 タイプ 説明 必須 既定
認証 onYourDataApiKeyAuthenticationOptions または onYourDataSystemAssignedManagedIdentityAuthenticationOptions または onYourDataUserAssignedManagedIdentityAuthenticationOptions はい
top_n_documents 整数 構成されたクエリに対して機能するように構成されたドキュメントの上位数。 いいえ
in_scope ブール クエリをインデックス付きデータの使用に制限するかどうかを指定します。 いいえ
厳し さ 整数 検索の関連性フィルター処理の構成された厳密さ。 厳密さが高いほど、精度は高くなりますが、回答の再現率は低くなります。 いいえ
role_information 文字列 モデルの動作と、応答の生成時に参照する必要があるコンテキストに関する指示をモデルに提供します。 アシスタントの性格を説明し、応答の書式設定方法を伝えることができます。 トークンには 100 個のトークン制限があり、全体的なトークン制限に対してカウントされます。 いいえ
エンドポイント 文字列 使用する Azure Search リソースの絶対エンドポイント パス。 はい
Index_name 文字列 参照先の Azure Search リソースで使用可能なインデックスの名前。 はい
fields_mapping azureSearchIndexFieldMappingOptions 構成された Azure Search リソースを使用する場合のフィールドの処理方法を制御するオプションの設定。 いいえ
query_type azureSearchQueryType Azure OpenAI チャット拡張機能として使用するときに実行する必要がある検索検索クエリAzureの種類。 いいえ
semantic_configuration 文字列 クエリの追加のセマンティック構成。 いいえ
フィルタ 文字列 検索フィルター。 いいえ
embedding_dependency onYourDataEndpointVectorizationSource または onYourDataDeploymentNameVectorizationSource いいえ

azureSearchIndexFieldMappingOptions

構成された Azure Search リソースを使用する場合のフィールドの処理方法を制御するオプションの設定。

名前 タイプ 説明 必須 既定
title_field 文字列 タイトルとして使用するインデックス フィールドの名前。 いいえ
url_field 文字列 URL として使用するインデックス フィールドの名前。 いいえ
filepath_field 文字列 ファイルパスとして使用するインデックス フィールドの名前。 いいえ
content_fields アレイ コンテンツとして扱う必要があるインデックス フィールドの名前。 いいえ
content_fields_separator 文字列 コンテンツ フィールドで使用する区切り記号パターン。 いいえ
vector_fields アレイ ベクター データを表すフィールドの名前。 いいえ

azureSearchQueryType

Azure OpenAI チャット拡張機能として使用するときに実行する必要がある検索検索クエリAzureの種類。

Description: Azure OpenAI チャット拡張機能として使用する場合に実行するAzure検索検索クエリの種類。

: string

既定値:

列挙名: AzureSearchQueryType

列挙値:

説明
簡単 既定の単純なクエリ パーサーを表します。
セマンティック 高度なセマンティック モデリングのセマンティック クエリ パーサーを表します。
ベクタ 計算されたデータに対するベクター検索を表します。
vector_simple_hybrid 単純なクエリ戦略とベクター データの組み合わせを表します。
vector_semantic_hybrid セマンティック検索とベクター データ クエリの組み合わせを表します。

azureCosmosDBChatExtensionConfiguration

Azure OpenAI チャット拡張機能として使用する場合のAzure Cosmos DBの構成可能なオプションの具体的な表現。

名前 タイプ 説明 必須 既定
azureChatExtensionType 1 つの Azure OpenAI チャット拡張機能の構成データの表現。 これはチャットで使用されます
完了要求は、OpenAI チャット拡張機能Azure使用して応答動作を拡張する必要があります。
この構成の使用は、Azure OpenAI とのみ互換性があります。
はい
パラメーター azureCosmosDBChatExtensionParameters Azure Cosmos DBを使用するときに OpenAI on Your Data チャット拡張機能Azure構成するときに使用するパラメーター
MongoDB 仮想コア。
いいえ

azureCosmosDBChatExtensionParameters

Azure Cosmos DB for MongoDB 仮想コアを使用する場合Azure OpenAI On Your Data チャット拡張機能を構成するときに使用するパラメーター。

名前 タイプ 説明 必須 既定
認証 onYourDataConnectionStringAuthenticationOptions 接続文字列を使用する場合Azure OpenAI On Your Data の認証オプション。 はい
top_n_documents 整数 構成されたクエリに対して機能するように構成されたドキュメントの上位数。 いいえ
in_scope ブール クエリをインデックス付きデータの使用に制限するかどうかを指定します。 いいえ
厳し さ 整数 検索の関連性フィルター処理の構成された厳密さ。 厳密さが高いほど、精度は高くなりますが、回答の再現率は低くなります。 いいえ
role_information 文字列 モデルの動作と、応答の生成時に参照する必要があるコンテキストに関する指示をモデルに提供します。 アシスタントの性格を説明し、応答の書式設定方法を伝えることができます。 トークンには 100 個のトークン制限があり、全体的なトークン制限に対してカウントされます。 いいえ
database_name 文字列 Azure Cosmos DBで使用する MongoDB 仮想コア データベース名。 はい
container_name 文字列 Azure Cosmos DB リソース コンテナーの名前。 はい
Index_name 文字列 Azure Cosmos DBで使用する MongoDB 仮想コア インデックス名。 はい
fields_mapping azureCosmosDBFieldMappingOptions 構成されたAzure Cosmos DB リソースを使用する場合のフィールドの処理方法を制御するオプションの設定。 はい
embedding_dependency onYourDataEndpointVectorizationSource または onYourDataDeploymentNameVectorizationSource はい

azureCosmosDBFieldMappingOptions

構成されたAzure Cosmos DB リソースを使用する場合のフィールドの処理方法を制御するオプションの設定。

名前 タイプ 説明 必須 既定
title_field 文字列 タイトルとして使用するインデックス フィールドの名前。 いいえ
url_field 文字列 URL として使用するインデックス フィールドの名前。 いいえ
filepath_field 文字列 ファイルパスとして使用するインデックス フィールドの名前。 いいえ
content_fields アレイ コンテンツとして扱う必要があるインデックス フィールドの名前。 はい
content_fields_separator 文字列 コンテンツ フィールドで使用する区切り記号パターン。 いいえ
vector_fields アレイ ベクター データを表すフィールドの名前。 はい

onYourDataAuthenticationOptions

データで OpenAI をAzureするための認証オプション。

名前 タイプ 説明 必須 既定
onYourDataAuthenticationType Azure OpenAI On Your Data でサポートされる認証の種類。 はい

onYourDataAuthenticationType

Azure OpenAI On Your Data でサポートされる認証の種類。

Description: Azure OpenAI On Your Data でサポートされる認証の種類。

: string

既定値:

列挙名: OnYourDataAuthenticationType

列挙値:

説明
api_key API キーによる認証。
connection_string 接続文字列による認証。
system_assigned_managed_identity システム割り当てマネージド ID を使用した認証。
user_assigned_managed_identity ユーザー割り当てマネージド ID を使用した認証。

onYourDataApiKeyAuthenticationOptions

API キーを使用する場合Azure OpenAI On Your Data の認証オプション。

名前 タイプ 説明 必須 既定
onYourDataAuthenticationType Azure OpenAI On Your Data でサポートされる認証の種類。 はい
キー 文字列 認証に使用する API キー。 いいえ

onYourDataConnectionStringAuthenticationOptions

接続文字列を使用する場合Azure OpenAI On Your Data の認証オプション。

名前 タイプ 説明 必須 既定
onYourDataAuthenticationType Azure OpenAI On Your Data でサポートされる認証の種類。 はい
connection_string 文字列 認証に使用する接続文字列。 いいえ

onYourDataSystemAssignedManagedIdentityAuthenticationOptions

システム割り当てマネージド ID を使用する場合Azure OpenAI On Your Data の認証オプション。

名前 タイプ 説明 必須 既定
onYourDataAuthenticationType Azure OpenAI On Your Data でサポートされる認証の種類。 はい

onYourDataUserAssignedManagedIdentityAuthenticationOptions

ユーザー割り当てマネージド ID を使用する場合Azure OpenAI On Your Data の認証オプション。

名前 タイプ 説明 必須 既定
onYourDataAuthenticationType Azure OpenAI On Your Data でサポートされる認証の種類。 はい
managed_identity_resource_id 文字列 認証に使用するユーザー割り当てマネージド ID のリソース ID。 いいえ

onYourDataVectorizationSource

Azure OpenAI On Your Data のベクター検索を使用したベクター化ソースの抽象表現。

名前 タイプ 説明 必須 既定
onYourDataVectorizationSourceType OpenAI On Your Data Azure使用して使用するデータのベクター化を構成するために使用できるソースを表します。
ベクター検索。
はい

onYourDataVectorizationSourceType

OpenAI On Your Data Azure使用可能なソースを表し、ベクター検索で使用するデータのベクター化を構成できます。

Description: OpenAI On Your Data で使用するデータのベクター化を構成するために使用できるAzureソースを表します
ベクター検索。

: string

既定値:

Enum Name: OnYourDataVectorizationSourceType

列挙値:

説明
エンドポイント Azure OpenAI 埋め込みモデルに対するパブリック サービス呼び出しによって実行されるベクター化を表します。
deployment_name 使用する Ada モデルのデプロイ名を表します。 このモデルデプロイは、OpenAI リソースAzure同じである必要がありますが、
データでは、パブリック呼び出しではなく内部呼び出しを介してこのモデルデプロイを使用します。これにより、ベクトルが有効になります
プライベート ネットワークでも検索できます。

onYourDataDeploymentNameVectorizationSource

Azure OpenAI On Your Data でベクター検索を適用するときに使用されるベクター化ソースの詳細。これは、同じ Azure OpenAI リソース内の内部埋め込みモデルデプロイ名に基づいています。

名前 タイプ 説明 必須 既定
onYourDataVectorizationSourceType OpenAI On Your Data Azure使用して使用するデータのベクター化を構成するために使用できるソースを表します。
ベクター検索。
はい
deployment_name 文字列 ベクター化に使用するモデル デプロイの名前を指定します。 このモデルデプロイは、OpenAI リソースAzure同じである必要がありますが、On Your Data では、プライベート ネットワークでもベクター検索を可能にするパブリック呼び出しではなく、内部呼び出しを介してこのモデルデプロイを使用します。 いいえ

onYourDataEndpointVectorizationSource

ベクター検索の適用時に OpenAI On Your Data Azure使用されるベクター化ソースの詳細。これは、埋め込みのためのパブリック Azure OpenAI エンドポイント呼び出しに基づいています。

名前 タイプ 説明 必須 既定
onYourDataVectorizationSourceType OpenAI On Your Data Azure使用して使用するデータのベクター化を構成するために使用できるソースを表します。
ベクター検索。
はい
認証 onYourDataApiKeyAuthenticationOptions API キーを使用する場合Azure OpenAI On Your Data の認証オプション。 いいえ
エンドポイント 文字列 ベクター化に使用するエンドポイントを指定します。 このエンドポイントは、OpenAI リソースAzure同じである必要がありますが、On Your Data では、プライベート ネットワークでもベクター検索を有効にするパブリック呼び出しではなく、内部呼び出しを介してこのエンドポイントを使用します。 いいえ

azureChatExtensionsMessageContext

OpenAI チャット拡張機能Azure対応するチャット完了応答の生成に関係する場合に使用できる追加のコンテキスト情報の表現。 このコンテキスト情報は、一致する拡張機能を使用するように構成された Azure OpenAI 要求を使用する場合にのみ設定されます。

名前 タイプ 説明 必須 既定
引用 アレイ 応答でアシスタント メッセージを生成するために使用されるデータ ソースの取得結果。 いいえ
意図 文字列 チャット履歴から検出された意図。コンテキストを引き継ぐ次のターンに渡すために使用されます。 いいえ

引用

チャット完了応答メッセージの引用情報。

名前 タイプ 説明 必須 既定
コンテンツ 文字列 引用文献の内容。 はい
タイトル 文字列 引用文献のタイトル。 いいえ
Url 文字列 引用文献の URL。 いいえ
Filepath 文字列 引用文献のファイル パス。 いいえ
chunk_id 文字列 引用文献のチャンク ID。 いいえ

chatCompletionMessageToolCall

名前 タイプ 説明 必須 既定
Id 文字列 ツール呼び出しの ID。 はい
toolCallType ツール呼び出しの種類 (この場合は function はい
関数 オブジェクト モデルが呼び出した関数。 はい

関数のプロパティ

名前

名前 タイプ 説明 既定
名前 文字列 呼び出す関数の名前。

引数

名前 タイプ 説明 既定
引数 文字列 モデルによって JSON 形式で生成された関数を呼び出す引数。 モデルは常に有効な JSON を生成するとは限らず、関数スキーマで定義されていないパラメーターを生成する場合があることに注意してください。 関数を呼び出す前に、コード内の引数を検証します。

toolCallType

ツール呼び出しの種類 (この場合は function

説明: ツール呼び出しの種類 (この場合は function

: string

既定値:

列挙名: ToolCallType

列挙値:

説明
関数 ツール呼び出しの種類は関数です。

chatCompletionRequestMessageTool

名前 タイプ 説明 必須 既定
tool_call_id 文字列 このメッセージが応答しているツール呼び出し。 いいえ
コンテンツ 文字列 メッセージの内容。 いいえ

chatCompletionRequestMessageFunction

名前 タイプ 説明 必須 既定
ロール 列挙型 メッセージ作成者の役割 (この場合は function
指定できる値: 関数
いいえ
名前 文字列 メッセージの内容。 いいえ
コンテンツ 文字列 メッセージの内容。 いいえ

createChatCompletionResponse

指定された入力に基づいて、モデルによって返されるチャット完了応答を表します。

名前 タイプ 説明 必須 既定
Id 文字列 チャット完了の一意識別子。 はい
prompt_filter_results promptFilterResults 要求内の 0 個以上のプロンプトの結果をフィルター処理するコンテンツ。 ストリーミング要求では、異なるプロンプトの結果が、異なる時間または異なる順序で到着する場合があります。 いいえ
選択肢 アレイ チャットの完了の選択肢の一覧。 nが 1 より大きい場合は、複数の値を指定できます。 はい
作成 整数 チャットの完了が作成されたときの Unix タイムスタンプ (秒単位)。 はい
モデル 文字列 チャットの完了に使用されるモデル。 はい
system_fingerprint 文字列 このフィンガープリントは、モデルが実行されるバックエンド構成を表します。

決定主義に影響を与える可能性のあるバックエンドの変更がいつ行われたのか理解するために、 seed 要求パラメーターと組み合わせて使用できます。
いいえ
オブジェクト 列挙型 常に chat.completionされるオブジェクト型。
指定できる値: chat.completion
はい
使用 completionUsage 完了要求の使用状況の統計情報。 いいえ

createChatCompletionStreamResponse

提供された入力に基づいて、モデルによって返されるチャット完了応答のストリーミング チャンクを表します。

名前 タイプ 説明 必須 既定
Id 文字列 チャット完了の一意識別子。 各チャンクは同じ ID を持っています。 はい
選択肢 アレイ チャットの完了の選択肢の一覧。 nが 1 より大きい場合は、複数の要素を含めることができます。
はい
作成 整数 チャットの完了が作成されたときの Unix タイムスタンプ (秒単位)。 各チャンクには同じタイムスタンプがあります。 はい
モデル 文字列 完了を生成するモデル。 はい
system_fingerprint 文字列 このフィンガープリントは、モデルが実行されるバックエンド構成を表します。
決定主義に影響を与える可能性のあるバックエンドの変更がいつ行われたのか理解するために、 seed 要求パラメーターと組み合わせて使用できます。
いいえ
オブジェクト 列挙型 常に chat.completion.chunkされるオブジェクト型。
指定できる値: chat.completion.chunk
はい

chatCompletionStreamResponseDelta

ストリーミング されたモデル応答によって生成されるチャット完了デルタ。

名前 タイプ 説明 必須 既定
コンテンツ 文字列 チャンク メッセージの内容。 いいえ
function_call オブジェクト 非推奨となり、 tool_callsに置き換えられました。 モデルによって生成される、呼び出す必要がある関数の名前と引数。 いいえ
tool_calls アレイ いいえ
ロール 列挙型 このメッセージの作成者の役割。
使用可能な値: システム、ユーザー、アシスタント、ツール
いいえ
拒否 文字列 モデルによって生成される拒否メッセージ。 いいえ

function_callのプロパティ

引数

名前 タイプ 説明 既定
引数 文字列 モデルによって JSON 形式で生成された関数を呼び出す引数。 モデルは常に有効な JSON を生成するとは限らず、関数スキーマで定義されていないパラメーターを生成する場合があることに注意してください。 関数を呼び出す前に、コード内の引数を検証します。

名前

名前 タイプ 説明 既定
名前 文字列 呼び出す関数の名前。

chatCompletionMessageToolCallChunk

名前 タイプ 説明 必須 既定
インデックス 整数 はい
Id 文字列 ツール呼び出しの ID。 いいえ
列挙型 ツールの種類。 現時点では、 function のみがサポートされています。
指定できる値: 関数
いいえ
関数 オブジェクト いいえ

関数のプロパティ

名前

名前 タイプ 説明 既定
名前 文字列 呼び出す関数の名前。

引数

名前 タイプ 説明 既定
引数 文字列 モデルによって JSON 形式で生成された関数を呼び出す引数。 モデルは常に有効な JSON を生成するとは限らず、関数スキーマで定義されていないパラメーターを生成する場合があることに注意してください。 関数を呼び出す前に、コード内の引数を検証します。

chatCompletionStreamOptions

ストリーミング応答のオプション。 これは、 stream: true設定した場合にのみ設定します。

名前 タイプ 説明 必須 既定
include_usage ブール 設定すると、 data: [DONE] メッセージの前に追加のチャンクがストリーミングされます。 このチャンクの usage フィールドには、要求全体のトークン使用状況の統計情報が表示され、 choices フィールドは常に空の配列になります。 その他のすべてのチャンクには、 usage フィールドも含まれますが、null 値が含まれます。
いいえ

chatCompletionChoiceLogProbs

選択肢の確率情報をログに記録します。

名前 タイプ 説明 必須 既定
コンテンツ アレイ ログ確率情報を含むメッセージ コンテンツ トークンの一覧。 はい
拒否 アレイ ログの確率情報を含むメッセージ拒否トークンの一覧。 いいえ

chatCompletionTokenLogprob

名前 タイプ 説明 必須 既定
トークン 文字列 トークン。 はい
logprob このトークンのログ確率。 はい
バイト アレイ トークンの UTF-8 バイト表現を表す整数のリスト。 文字が複数のトークンによって表され、そのバイト表現を組み合わせて正しいテキスト表現を生成する必要がある場合に便利です。 トークンのバイト表現がない場合は、 null できます。 はい
top_logprobs アレイ このトークン位置にある、最も可能性の高いトークンとそのログ確率の一覧。 まれに、要求された top_logprobs 返される数よりも少ない場合があります。 はい

chatCompletionResponseMessage

モデルによって生成されたチャット完了メッセージ。

名前 タイプ 説明 必須 既定
ロール chatCompletionResponseMessageRole 応答メッセージの作成者の役割。 はい
拒否 文字列 モデルによって生成される拒否メッセージ。 はい
コンテンツ 文字列 メッセージの内容。 はい
tool_calls アレイ 関数呼び出しなど、モデルによって生成されるツール呼び出し。 いいえ
function_call chatCompletionFunctionCall 非推奨となり、 tool_callsに置き換えられました。 モデルによって生成される、呼び出す必要がある関数の名前と引数。 いいえ
コンテキスト azureChatExtensionsMessageContext Azure OpenAI チャット拡張機能が関係している場合に使用できる追加のコンテキスト情報の表現
対応するチャット完了応答の生成に使用されます。 このコンテキスト情報は、次の場合にのみ設定されます。
一致する拡張機能を使用するように構成されたAzure OpenAI 要求を使用する。
いいえ

chatCompletionResponseMessageRole

応答メッセージの作成者の役割。

説明: 応答メッセージの作成者の役割。

: string

既定値:

列挙値:

  • アシスタント

chatCompletionToolChoiceOption

モデルによって呼び出されるツール (ある場合) を制御します。 none は、モデルがツールを呼び出さず、代わりにメッセージを生成します。 auto は、モデルがメッセージを生成するか、1 つ以上のツールを呼び出すかを選択できることを意味します。 required は、モデルが 1 つ以上のツールを呼び出す必要があるということです。 {"type": "function", "function": {"name": "my_function"}}を使用して特定のツールを指定すると、モデルはそのツールを強制的に呼び出します。 none は、ツールが存在しない場合の既定値です。 auto は、ツールが存在する場合の既定値です。

このコンポーネントには、次のいずれかを指定できます。

chatCompletionNamedToolChoice

モデルで使用するツールを指定します。 モデルで特定の関数を強制的に呼び出すために使用します。

名前 タイプ 説明 必須 既定
列挙型 ツールの種類。 現時点では、 function のみがサポートされています。
指定できる値: 関数
はい
関数 オブジェクト はい

関数のプロパティ

名前

名前 タイプ 説明 既定
名前 文字列 呼び出す関数の名前。

ParallelToolCalls

ツールの使用中に並列関数呼び出しを有効にするかどうかを指定します。

このコンポーネントにはプロパティが定義されていません。

chatCompletionMessageToolCalls

関数呼び出しなど、モデルによって生成されるツール呼び出し。

このコンポーネントにはプロパティが定義されていません。

chatCompletionFunctionCall

非推奨となり、 tool_callsに置き換えられました。 モデルによって生成される、呼び出す必要がある関数の名前と引数。

名前 タイプ 説明 必須 既定
名前 文字列 呼び出す関数の名前。 はい
引数 文字列 モデルによって JSON 形式で生成された関数を呼び出す引数。 モデルは常に有効な JSON を生成するとは限らず、関数スキーマで定義されていないパラメーターを生成する場合があることに注意してください。 関数を呼び出す前に、コード内の引数を検証します。 はい

completionUsage

完了要求の使用状況の統計情報。

名前 タイプ 説明 必須 既定
prompt_tokens 整数 プロンプト内のトークンの数。 はい
completion_tokens 整数 生成された完了のトークンの数。 はい
total_tokens 整数 要求で使用されたトークンの合計数 (プロンプト + 完了)。 はい
completion_tokens_details オブジェクト 完了で使用されるトークンの内訳。 いいえ

completion_tokens_detailsのプロパティ

reasoning_tokens

名前 タイプ 説明 既定
reasoning_tokens 整数 推論のためにモデルによって生成されたトークン。

chatCompletionTool

名前 タイプ 説明 必須 既定
列挙型 ツールの種類。 現時点では、 function のみがサポートされています。
指定できる値: 関数
はい
関数 FunctionObject はい

FunctionParameters

関数が受け入れるパラメーター (JSON スキーマ オブジェクトとして記述)。 例についてはガイド を参照し、形式に関するドキュメントについては JSON スキーマ リファレンス を参照してください。

parametersを省略すると、空のパラメーター リストを持つ関数が定義されます。

このコンポーネントにはプロパティが定義されていません。

FunctionObject

名前 タイプ 説明 必須 既定
説明 文字列 関数の実行内容の説明。関数を呼び出すタイミングと方法を選択するためにモデルによって使用されます。 いいえ
名前 文字列 呼び出す関数の名前。 最大長は 64 の a から z、A から Z、0 から 9、またはアンダースコアとダッシュを含む必要があります。 はい
パラメーター FunctionParameters 関数が受け入れるパラメーター (JSON スキーマ オブジェクトとして記述)。 例についてはガイド を参照し、形式に関するドキュメントについては JSON スキーマ リファレンス を参照してください。

parametersを省略すると、空のパラメーター リストを持つ関数が定義されます。
いいえ
厳しい ブール 関数呼び出しの生成時に厳密なスキーマ準拠を有効にするかどうか。 true に設定すると、モデルは parameters フィールドで定義された正確なスキーマに従います。 stricttrueされている場合は、JSON スキーマのサブセットのみがサポートされます。 いいえ False

ResponseFormatText

名前 タイプ 説明 必須 既定
列挙型 定義されている応答形式の種類: text
使用可能な値: テキスト
はい

ResponseFormatJsonObject

名前 タイプ 説明 必須 既定
列挙型 定義されている応答形式の種類: json_object
使用可能な値: json_object
はい

ResponseFormatJsonSchemaSchema

JSON スキーマ オブジェクトとして記述された応答形式のスキーマ。

このコンポーネントにはプロパティが定義されていません。

ResponseFormatJsonSchema

名前 タイプ 説明 必須 既定
列挙型 定義されている応答形式の種類: json_schema
使用可能な値: json_schema
はい
json_schema オブジェクト はい

json_schemaのプロパティ

説明

名前 タイプ 説明 既定
説明 文字列 応答形式の説明。形式で応答する方法を決定するためにモデルによって使用されます。

名前

名前 タイプ 説明 既定
名前 文字列 応答形式の名前。 最大長は 64 の a から z、A から Z、0 から 9、またはアンダースコアとダッシュを含む必要があります。

スキーマ

名前 タイプ 説明 既定
スキーマ ResponseFormatJsonSchemaSchema JSON スキーマ オブジェクトとして記述された応答形式のスキーマ。

厳しい

名前 タイプ 説明 既定
厳しい ブール 出力の生成時に厳密なスキーマ準拠を有効にするかどうかを指定します。 true に設定すると、モデルは常に schema フィールドで定義されている正確なスキーマに従います。 stricttrueされている場合は、JSON スキーマのサブセットのみがサポートされます。 False

chatCompletionChoiceCommon

名前 タイプ 説明 必須 既定
インデックス 整数 いいえ
finish_reason 文字列 いいえ

createTranslationRequest

翻訳要求。

名前 タイプ 説明 必須 既定
ファイル 文字列 翻訳するオーディオ ファイル。 はい
ダイアログを表示する 文字列 モデルのスタイルをガイドしたり、前のオーディオ セグメントを続行したりするための省略可能なテキスト。 プロンプトは英語にする必要があります。 いいえ
response_format audioResponseFormat 出力の形式を定義します。 いいえ
温度 サンプリング温度 (0 ~ 1)。 0.8 のような値を大きくすると出力がランダムになり、0.2 のような値が小さいほどフォーカスが高くなり、決定論的になります。 0 に設定すると、モデルはログ確率を使用して、特定のしきい値に達するまで温度を自動的に上昇させます。 いいえ 0

audioResponse

response_formatが json であった場合の翻訳または文字起こしの応答

名前 タイプ 説明 必須 既定
SMS 送信 文字列 翻訳または文字起こしされたテキスト。 はい

audioVerboseResponse

response_formatがverbose_jsonされたときの翻訳または文字起こしの応答

名前 タイプ 説明 必須 既定
SMS 送信 文字列 翻訳または文字起こしされたテキスト。 はい
タスク 文字列 オーディオ タスクの種類。 いいえ
言語 文字列 言語。 いいえ
期間 期間。 いいえ
セグメント アレイ いいえ

audioResponseFormat

出力の形式を定義します。

説明: 出力の形式を定義します。

: string

既定値:

列挙値:

  • Json
  • SMS 送信
  • Srt
  • verbose_json
  • Vtt

createTranscriptionRequest

文字起こし要求。

名前 タイプ 説明 必須 既定
ファイル 文字列 文字起こしするオーディオ ファイル オブジェクト。 はい
ダイアログを表示する 文字列 モデルのスタイルをガイドしたり、前のオーディオ セグメントを続行したりするための省略可能なテキスト。 プロンプトはオーディオ言語と一致する必要があります。 いいえ
response_format audioResponseFormat 出力の形式を定義します。 いいえ
温度 サンプリング温度 (0 ~ 1)。 0.8 のような値を大きくすると出力がランダムになり、0.2 のような値が小さいほどフォーカスが高くなり、決定論的になります。 0 に設定すると、モデルはログ確率を使用して、特定のしきい値に達するまで温度を自動的に上昇させます。 いいえ 0
言語 文字列 入力オーディオの言語。 ISO-639-1 形式で入力言語を指定すると、精度と待機時間が向上します。 いいえ

audioSegment

文字起こしまたは翻訳セグメント。

名前 タイプ 説明 必須 既定
Id 整数 セグメント識別子。 いいえ
求める セグメントのオフセット。 いいえ
開始 セグメントの開始オフセット。 いいえ
終わり セグメントの終了オフセット。 いいえ
SMS 送信 文字列 テキストをセグメント化します。 いいえ
トークン アレイ テキストのトークン。 いいえ
温度 温度。 いいえ
avg_logprob 平均ログ確率。 いいえ
compression_ratio 圧縮率。 いいえ
no_speech_prob no speechの確率。 いいえ

imageQuality

生成されるイメージの品質。

説明: 生成されるイメージの品質。

: string

既定値: standard

列挙名: 品質

列挙値:

説明
標準 標準品質では、標準品質の画像が作成されます。
Hd HD 品質により、より詳細な画像が作成され、イメージ全体の一貫性が向上します。

imagesResponseFormat

生成されたイメージが返される形式。

説明: 生成されたイメージが返される形式。

: string

既定値: URL

列挙名: ImagesResponseFormat

列挙値:

説明
Url 生成されたイメージをダウンロードするための一時的なアクセスを提供する URL。
b64_json 生成されたイメージは、base64 でエンコードされた文字列として返されます。

Imagesize

生成されたイメージのサイズ。

説明: 生成されたイメージのサイズ。

: string

既定値: 1024 x 1024

列挙名: サイズ

列挙値:

説明
1792x1024 生成されるイメージの目的のサイズは 1792 x 1024 ピクセルです。
1024 x 1792 生成されるイメージの目的のサイズは 1024 x 1792 ピクセルです。
1024 x 1024 生成されるイメージの目的のサイズは 1024 x 1024 ピクセルです。

imageStyle

生成されたイメージのスタイル。

説明: 生成されたイメージのスタイル。

: string

既定値: 鮮やか

列挙型名: スタイル

列挙値:

説明
鮮やか ビビットは、超現実的で劇的な画像を作成します。
自然 ナチュラルは、より自然で、ハイパーリアルではない画像を作成します。

imageGenerationsRequest

名前 タイプ 説明 必須 既定
ダイアログを表示する 文字列 目的のイメージのテキストの説明。 最大長は 4,000 文字です。 はい
N 整数 生成するイメージの数。 いいえ 1
サイズ Imagesize 生成されたイメージのサイズ。 いいえ 1024 x 1024
response_format imagesResponseFormat 生成されたイメージが返される形式。 いいえ Url
ユーザー 文字列 エンド ユーザーを表す一意の識別子。不正使用の監視と検出に役立ちます。 いいえ
品質 imageQuality 生成されるイメージの品質。 いいえ 標準
スタイル imageStyle 生成されたイメージのスタイル。 いいえ 鮮やか

generateImagesResponse

名前 タイプ 説明 必須 既定
作成 整数 操作が作成されたときの unix タイムスタンプ。 はい
データ アレイ 操作の結果データ (成功した場合) はい

imageResult

成功した場合はイメージ URL またはエンコードされたイメージ。それ以外の場合はエラー。

名前 タイプ 説明 必須 既定
Url 文字列 イメージの URL。 いいえ
b64_json 文字列 base64 でエンコードされたイメージ いいえ
content_filter_results dalleContentFilterResults コンテンツ フィルタリングの結果に関する情報。 いいえ
revised_prompt 文字列 イメージの生成に使用されたプロンプト (プロンプトにリビジョンがある場合)。 いいえ
prompt_filter_results dalleFilterResults コンテンツ フィルタリング カテゴリ (ヘイト、性的、暴力、self_harm)、検出された場合の重大度レベル (有害なコンテンツの強度とリスク レベルを決定するvery_low、低、中、高スケール) に関する情報、およびフィルター処理されたかどうか。 脱獄コンテンツと不適切な表現に関する情報。検出された場合、およびフィルター処理されたかどうか。 また、顧客ブロックリストに関する情報 (フィルター処理された場合とその ID)。 いいえ

入力候補の拡張機能

入力候補拡張機能は、Azure OpenAI データ プレーン推論仕様の最新の GA バージョンの一部ではありません。

Chatmessage

チャット メッセージ オブジェクトは、Azure OpenAI データ プレーン推論仕様の最新 GA バージョンの一部ではありません。

テキスト読み上げ (プレビュー)

現在、Azure OpenAI データ プレーン推論仕様の最新Azure OpenAI GA バージョンの一部ではありません。この機能については、最新の preview バージョンを参照してください。

次の手順

モデルと REST API を使用した微調整について説明します。 OpenAI をAzureする基になるモデルの詳細について説明します。