この記事では、Azure OpenAI向けの推論REST APIエンドポイントについて詳細を提供します。
API specs
Azure OpenAIモデルやリソースの管理とやり取りは、主に3つのAPIサーフェスに分かれています。
- Control plane
- データプレーン - オーサリング
- データプレーン - 推論
各APIサーフェス/仕様は異なるAzure OpenAIの機能セットをカプセル化しています。 各APIは独自のプレビューおよび安定版/一般公開版(GA)APIリリースを持っています。 プレビューリリースは現在、月次のリリースリズムに従う傾向があります。
Important
現在、新しいプレビュー推論APIが登場しました。 API ライフサイクルガイドで詳しくご覧ください。
| API | 最新プレビューリリース | 最新のGAリリース | Specifications | Description |
|---|---|---|---|---|
| Control plane | 2025-07-01-preview |
2025-06-01 |
Spec files | コントロールプレーンAPIは 、リソースの作成、 モデル展開、その他の高レベルのリソース管理タスクなどの操作に使用されます。 コントロールプレーンはまた、Azure Resource Manager、Bicep、Terraform、Azure CLIなどの機能で何が可能かも管理しています。 |
| Data plane | v1 preview |
v1 |
Spec files | データプレーンAPIは推論およびオーサリング操作を制御します。 |
Authentication
Azure OpenAIは認証のために2つの方法を提供しています。 APIキーかMicrosoft Entra IDのどちらかを使うことができます。
APIキー認証:この種の認証では、すべてのAPIリクエストに
api-keyHTTPヘッダーにAPIキーを含める必要があります。 クイックスタートは、この種の認証で通話する方法についてのガイダンスを提供します。Microsoft Entra ID authentication:Microsoft Entraトークンを使ってAPI呼び出しを認証できます。 認証トークンはリクエストの中には
Authorizationヘッダーとして含まれています。 提供されるトークンの前にBearerが必ず付き、例えばBearer YOUR_AUTH_TOKEN。 Microsoft Entra ID<>でのauthenticating の使い方ガイドをお読みいただけます。
REST API バージョン管理
サービスAPIは api-version クエリパラメータを用いてバージョン管理されています。 すべてのバージョンはYYYY-MM-DD 日付構造に従っています。 For example:
POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01
データプレーン推論
この記事の残りの部分は、Azure OpenAIデータプレーン推論仕様2024-10-21のGAリリースについて扱います。
最新のプレビューAPIリリースに関するドキュメントをお探しの場合は、最新のプレビューデータプレーン推論APIを参照してください
Completions
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21
提供されたプロンプト、パラメータ、選択したモデルに対して補完を作成します。
URI Parameters
| Name | In | Required | タイプ | Description |
|---|---|---|---|---|
| エンドポイント | パス | Yes | 文字列 url |
OpenAI Azureエンドポイント(プロトコルおよびホスト名、例:https://aoairesource.openai.azure.com)に対応しています。「aoairesource」をAzure OpenAIリソース名に置き換えてください。 https://{your-resource-name}.openai.azure.com |
| deployment-id | パス | Yes | 文字列 | 展開されたモデルのデプロイID |
| api-version | クエリ | Yes | 文字列 | API version |
Request Header
| Name | Required | タイプ | Description |
|---|---|---|---|
| api-key | True | 文字列 | ここにAzure OpenAI API キーを提供してください |
Request Body
Content-Type: application/json
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| ダイアログを表示する | 文字列または配列 | 完了を生成するプロンプトは、文字列、文字列の配列、トークンの配列、またはトークン配列の配列としてエンコードされます。 <|endoftext|>は、トレーニング中にモデルが認識する文書の区切り子であるため、プロンプトが指定されていない場合、モデルは新しいドキュメントの冒頭から生成されます。 |
Yes | |
| best_of | 整数 | サーバー側で best_of 完結を生成し、「最良」(トークンあたりのログ確率が最も高いもの)を返します。 結果はストリーミングできません。nと組み合わせて使う場合、best_ofは候補の完了数を制御し、n返すべき数を指定します。best_ofはnより大きくなければなりません。注: このパラメータは多くの完了を生み出すため、トークンのクォータをすぐに消費してしまいます。 慎重に使い、 max_tokens と stopの設定を適切に設定してください。 |
No | 1 |
| echo | boolean | 完成に加えてプロンプトにもエコーを返してください |
No | False |
| frequency_penalty | number | 数字は-2.0から2.0の間です。 正の値は、これまでテキスト内の既存の頻度に基づいて新しいトークンにペナルティを与え、モデルが同じ行を逐語的に繰り返す可能性を減らします。 |
No | 0 |
| logit_bias | オブジェクト | 完了に指定されたトークンが現れる確率を修正します。 GPTトークナイザーでトークンIDで指定されたトークンを、-100 から100までのバイアス値にマッピングするJSONオブジェクトを受け入れます。 数学的には、バイアスはサンプリング前にモデルが生成するロジットに加算されます。 正確な効果はモデルによって異なりますが、-1 から1の間の値は選択の可能性を下げたり増やしたりするはずです。-100 や100のような値が出ると、該当するトークンが禁止されるか、排他的に選択されるべきです。 例として、<|endoftext|>トークンの生成を防ぐために {"50256": -100}パスを送ることができます。 |
No | None |
| logprobs | 整数 | 最も可能性が高い出力トークン logprobs のログ確率を含め、選ばれたトークンを含めてください。 例えば、 logprobs が5の場合、APIは最も可能性の高い5つのトークンのリストを返します。 APIは常にサンプリングされたトークンの logprob を返すため、レスポンスには最大 logprobs+1 要素が存在することがあります。logprobsの最大値は5です。 |
No | None |
| max_tokens | 整数 | 完了で生成可能な最大トークン数。 プロンプトのトークン数と max_tokens はモデルのコンテキストの長さを超えてはいけません。 |
No | 16 |
| n | 整数 | 各プロンプトごとに何回の完了を生成するか。 注: このパラメータは多くの完了を生み出すため、トークンのクォータをすぐに消費してしまいます。 慎重に使い、 max_tokens と stopの設定を適切に設定してください。 |
No | 1 |
| presence_penalty | number | 数字は-2.0から2.0の間です。 正の値は、テキストに現れたかどうかに基づいて新しいトークンにペナルティを与え、モデルが新しいトピックについて語る可能性を高めます。 |
No | 0 |
| seed | 整数 | 仕様が明示されれば、システムは決定論的にサンプリングを試み、同じ seed とパラメータで繰り返しリクエストしても同じ結果が返るよう努めます。決定性は保証されていないので、バックエンドの変更を監視するために system_fingerprint 応答パラメータを参照すべきです。 |
No | |
| stop | 文字列または配列 | APIが今後トークンの生成を停止するシーケンスは最大4つまであります。 返されたテキストには停止のシーケンスが含まれません。 |
No | |
| ストリーミング | boolean | 部分的な進行をストリームバックするかどうか。 設定すると、トークンは利用可能なデータのみサーバー 送信イベント として送信され、ストリームは data: [DONE] メッセージで終了します。 |
No | False |
| suffix | 文字列 | 挿入されたテキストの完了後に付く接尾辞です。 このパラメータは gpt-3.5-turbo-instructのみサポートされています。 |
No | None |
| temperature | number | どのサンプリング温度を使うか、0から2の間で。 0.8のような高い値は出力をよりランダムにし、0.2のように低い値はより集中して決定的になります。 一般的にはこれを変更するか、あるいは top_p を変えることを推奨しますが、両方はおすすめしません。 |
No | 1 |
| top_p | number | 温度によるサンプリングの代替として核サンプリングと呼ばれ、モデルは確率質量top_pトークンの結果を考慮します。 つまり0.1とは、確率質量の上位10個を構成するトークンのみ% 考慮されることを意味します。 一般的にはこれを変更するか、あるいは temperature を変えることを推奨しますが、両方はおすすめしません。 |
No | 1 |
| ユーザー | 文字列 | エンドユーザーを表す一意の識別子であり、悪用の監視や検出に役立ちます。 |
No |
Responses
ステータスコード: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | createCompletionResponse | APIからの完了応答を表します。 注:ストリーミングされたレスポンスオブジェクトと非ストリーミングされたレスポンスオブジェクトは同じ形状を共有しています(チャットエンドポイントとは異なります)。 |
ステータスコード: デフォルト
説明:サービス利用不可
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Examples
Example
提供されたプロンプト、パラメータ、選択したモデルに対して補完を作成します。
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21
{
"prompt": [
"tell me a joke about mango"
],
"max_tokens": 32,
"temperature": 1.0,
"n": 1
}
回答:ステータスコード:200
{
"body": {
"id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
"created": 1686617332,
"choices": [
{
"text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
"index": 0,
"finish_reason": "stop",
"logprobs": null
}
],
"usage": {
"completion_tokens": 20,
"prompt_tokens": 6,
"total_tokens": 26
}
}
}
Embeddings
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21
機械学習モデルやアルゴリズムで簡単に処理できる、与えられた入力のベクトル表現を得ること。
URI Parameters
| Name | In | Required | タイプ | Description |
|---|---|---|---|---|
| エンドポイント | パス | Yes | 文字列 url |
OpenAI Azureエンドポイント(プロトコルおよびホスト名、例:https://aoairesource.openai.azure.com)に対応しています。「aoairesource」をAzure OpenAIリソース名に置き換えてください。 https://{your-resource-name}.openai.azure.com |
| deployment-id | パス | Yes | 文字列 | |
| api-version | クエリ | Yes | 文字列 | API version |
Request Header
| Name | Required | タイプ | Description |
|---|---|---|---|
| api-key | True | 文字列 | ここにAzure OpenAI API キーを提供してください |
Request Body
Content-Type: application/json
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| 入力 | 文字列または配列 | 入力テキストを埋め込み、文字列またはトークン配列としてエンコードします。 単一のリクエストに複数の入力を埋め込むには、文字列の配列やトークン配列の配列を渡します。 入力はモデルの最大入力トークン数( text-embedding-ada-002は8,192トークン)を超えてはならず、空文字列であってはならず、配列の次元は2,048次元以下でなければなりません。 |
Yes | |
| ユーザー | 文字列 | エンドユーザーを表す一意の識別子で、悪用の監視や検出に役立ちます。 | No | |
| input_type | 文字列 | 使用する埋め込み探索の入力タイプ | No | |
| encoding_format | 文字列 | 埋め込みを戻すためのフォーマット。
floatでもbase64でも構いません。 デフォルトは floatです。 |
No | |
| dimensions | 整数 | 結果として得られる出力埋め込みが持つ次元の数。
text-embedding-3年以降のモデルのみでサポートされています。 |
No |
Responses
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| オブジェクト | 文字列 | Yes | ||
| モデル | 文字列 | Yes | ||
| データ | アレイ | Yes | ||
| 使用 | オブジェクト | Yes |
用途に関する性質
prompt_tokens
| Name | タイプ | Description | Default |
|---|---|---|---|
| prompt_tokens | 整数 |
total_tokens
| Name | タイプ | Description | Default |
|---|---|---|---|
| total_tokens | 整数 |
ステータスコード: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | オブジェクト |
Examples
Example
指定されたプロンプトに対して埋め込みを返します。
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21
{
"input": [
"this is a test"
]
}
回答:ステータスコード:200
{
"body": {
"data": [
{
"index": 0,
"embedding": [
-0.012838088,
-0.007421397,
-0.017617522,
-0.028278312,
-0.018666342,
0.01737855,
-0.01821495,
-0.006950092,
-0.009937238,
-0.038580645,
0.010674067,
0.02412286,
-0.013647936,
0.013189907,
0.0021125758,
0.012406612,
0.020790534,
0.00074595667,
0.008397198,
-0.00535031,
0.008968075,
0.014351576,
-0.014086051,
0.015055214,
-0.022211088,
-0.025198232,
0.0065186154,
-0.036350243,
0.009180495,
-0.009698266,
0.009446018,
-0.008463579,
-0.0040426035,
-0.03443847,
-0.00091273896,
-0.0019217303,
0.002349888,
-0.021560553,
0.016515596,
-0.015572986,
0.0038666942,
-8.432463e-05
]
}
],
"usage": {
"prompt_tokens": 4,
"total_tokens": 4
}
}
}
Chat completions
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
チャットメッセージの完了を作成する
URI Parameters
| Name | In | Required | タイプ | Description |
|---|---|---|---|---|
| エンドポイント | パス | Yes | 文字列 url |
OpenAI Azureエンドポイント(プロトコルおよびホスト名、例:https://aoairesource.openai.azure.com)に対応しています。「aoairesource」をAzure OpenAIリソース名に置き換えてください。 https://{your-resource-name}.openai.azure.com |
| deployment-id | パス | Yes | 文字列 | 展開されたモデルのデプロイID |
| api-version | クエリ | Yes | 文字列 | API version |
Request Header
| Name | Required | タイプ | Description |
|---|---|---|---|
| api-key | True | 文字列 | ここにAzure OpenAI API キーを提供してください |
Request Body
Content-Type: application/json
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| temperature | number | どのサンプリング温度を使うか、0から2の間で。 0.8のような高い値は出力をよりランダムにし、0.2のように低い値はより集中して決定的になります。 一般的にはこれを変更するか、あるいは top_p を変えることを推奨しますが、両方はおすすめしません。 |
No | 1 |
| top_p | number | 温度によるサンプリングの代替として核サンプリングと呼ばれ、モデルは確率質量top_pトークンの結果を考慮します。 つまり0.1とは、確率質量の上位10個を構成するトークンのみ% 考慮されることを意味します。 一般的にはこれを変更するか、あるいは temperature を変えることを推奨しますが、両方はおすすめしません。 |
No | 1 |
| ストリーミング | boolean | 設定すると、ChatGPTのように部分的なメッセージの差が送信されます。 トークンは利用可能なデータのみサーバー 送信イベント として送信され、ストリームは data: [DONE] メッセージで終了します。 |
No | False |
| stop | 文字列または配列 | APIが今後トークンの生成を停止するシーケンスは最大4つまであります。 |
No | |
| max_tokens | 整数 | チャット完了時に生成できるトークンの最大数。 入力トークンと生成トークンの総長は、モデルのコンテキスト長によって制限されます。 |
No | |
| max_completion_tokens | 整数 | 完了化で生成可能なトークン数の上限であり、可視出力トークンや推論トークンも含まれます。 | No | |
| presence_penalty | number | 数字は-2.0から2.0の間です。 正の値は、テキストに現れたかどうかに基づいて新しいトークンにペナルティを与え、モデルが新しいトピックについて語る可能性を高めます。 |
No | 0 |
| frequency_penalty | number | 数字は-2.0から2.0の間です。 正の値は、これまでテキスト内の既存の頻度に基づいて新しいトークンにペナルティを与え、モデルが同じ行を逐語的に繰り返す可能性を減らします。 |
No | 0 |
| logit_bias | オブジェクト | 完了に指定されたトークンが現れる確率を修正します。 トークン(トークンIDで指定)を -100 から100までの付随するバイアス値にマッピングするJSONオブジェクトを受け付けます。 数学的には、バイアスはサンプリング前にモデルが生成するロジットに加算されます。 正確な効果はモデルによって異なりますが、-1 から1の間の値は選択の可能性を下げたり増やしたりするはずです。-100 や100のような値が出ると、該当するトークンが禁止されるか、排他的に選択されるべきです。 |
No | None |
| ユーザー | 文字列 | エンドユーザーを表す一意の識別子であり、悪用の監視や検出に役立ちます。 |
No | |
| messages | アレイ | これまでの会話のメッセージリスト。 | Yes | |
| data_sources | アレイ | Azure OpenAIチャット拡張機能の構成エントリーです。 この追加仕様はAzure OpenAIのみと互換性があります。 |
No | |
| logprobs | boolean | 出力トークンのログ確率を返すかどうか。 もし真であれば、messagecontentで返された各出力トークンの対数確率を返します。 |
No | False |
| top_logprobs | 整数 | 0から20の間の整数で、各トークン位置で返される可能性が最も高いトークンの数を示し、それぞれに対数の確率が伴います。
logprobs このパラメータを使用する場合は true に設定されなければなりません。 |
No | |
| n | 整数 | 入力メッセージごとに何つのチャット完了選択肢を生成するか。 なお、すべての選択肢で生成されたトークンの数に応じて料金が発生します。 コストを抑えるために、 n を常に保持 1 しましょう。 |
No | 1 |
| parallel_tool_calls | ParallelToolCalls | 工具使用中に並列関数呼び出しを有効にするかどうか。 | No | True |
| response_format | ResponseFormatText または ResponseFormatJsonObject または ResponseFormatJsonSchema | モデルが出力すべきフォーマットを指定するオブジェクト。
GPT-4o、GPT-4o mini、GPT-4 Turbo、およびgpt-3.5-turbo-1106より新しいすべてのGPT-3.5 Turboモデルに対応しています。{ "type": "json_schema", "json_schema": {...} }に設定すると構造化出力が有効になり、モデルが提供されたJSONスキーマと一致することを保証します。{ "type": "json_object" }に設定するとJSONモードが有効になり、モデルが生成するメッセージが有効なJSONであることが保証されます。重要事項: JSONモードを使用する際は、システムやユーザーメッセージを通じてモデルに自分でJSONを作成するよう指示 する必要があります 。 これがなければ、モデルはトークンの上限に達するまで無限の空白ストリームを生成し、長期間実行され「詰まった」ように見えるリクエストを生み出します。 また、 finish_reason="length"の場合はメッセージ内容が部分的に切り離されている可能性があり、これは生成時間が max_tokens を超えたか、会話が最大コンテキスト長を超えていることを示しています。 |
No | |
| seed | 整数 | この機能はベータ版です。 仕様が明示されれば、システムは決定論的にサンプリングを試み、同じ seed とパラメータで繰り返しリクエストしても同じ結果が返るよう努めます。決定性は保証されていないので、バックエンドの変更を監視するために system_fingerprint 応答パラメータを参照すべきです。 |
No | |
| tools | アレイ | モデルが呼び出す可能性のあるツールのリスト。 現在、ツールとしてサポートされているのは関数のみです。 これを使って、モデルがJSON入力を生成する可能性のある関数のリストを提供します。 最大128の機能までサポートされています。 |
No | |
| tool_choice | chatCompletionToolChoiceOption | モデルが呼び出すツール(もしあれば)を制御します。
none つまり、モデルはツールを呼び出さず、代わりにメッセージを生成します。
auto つまり、モデルはメッセージを生成するか、1つ以上のツールを呼び出すかを選べるということです。
required モデルは1つ以上のツールを呼び出しなければならないことを意味します。
{"type": "function", "function": {"name": "my_function"}}で特定のツールを指定すると、モデルはそのツールを呼び出すことを強制します。
none ツールがない場合のデフォルトです。
auto ツールがある場合はデフォルトです。 |
No | |
| function_call | 文字列または chatCompletionFunctionCallOption |
tool_choiceに優先して廃止されました。モデルが呼び出す関数(もしあれば)を制御します。 none モデルは関数を呼び出すのではなく、代わりにメッセージを生成します。auto モデルはメッセージを生成するか関数を呼び出すかを選択できることを意味します。{"name": "my_function"}で特定の関数を指定すると、モデルはその関数を呼び出すことを強制します。none 関数が存在しない場合のデフォルトです。
auto 関数が存在する場合のデフォルトです。 |
No | |
| functions | アレイ |
toolsに優先して廃止されました。モデルがJSON入力を生成する関数のリスト。 |
No |
Responses
ステータスコード: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | createChatCompletionResponse または createChatCompletionStreamResponse |
ステータスコード: デフォルト
説明:サービス利用不可
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Examples
Example
提供されたプロンプト、パラメータ、選択したモデルに対して補完を作成します。
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "system",
"content": "you are a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
回答:ステータスコード:200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Azure Searchのデータとシステム割り当てのマネージデンティティに基づいて完了を作成します。
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"authentication": {
"type": "system_assigned_managed_identity"
}
}
}
]
}
回答:ステータスコード:200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Azure Searchのベクターデータ、過去のアシスタントメッセージ、ユーザー割り当てのマネージデンティティに基づいて完了を作成します。
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a cat?"
},
{
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"intent": "cat care"
}
},
{
"role": "user",
"content": "how about dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"authentication": {
"type": "user_assigned_managed_identity",
"managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
},
"index_name": "{index name}",
"query_type": "vector",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"in_scope": true,
"top_n_documents": 5,
"strictness": 3,
"role_information": "You are an AI assistant that helps people find information.",
"fields_mapping": {
"content_fields_separator": "\\n",
"content_fields": [
"content"
],
"filepath_field": "filepath",
"title_field": "title",
"url_field": "url",
"vector_fields": [
"contentvector"
]
}
}
}
]
}
回答:ステータスコード:200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content 2.",
"title": "Citation Title 2",
"filepath": "contoso2.txt",
"url": "https://contoso.blob.windows.net/container/contoso2.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
提供されたAzure Cosmos DBの完了を作成する。
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_cosmos_db",
"parameters": {
"authentication": {
"type": "connection_string",
"connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
},
"database_name": "vectordb",
"container_name": "azuredocs",
"index_name": "azuredocindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
回答:ステータスコード:200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
書き起こし - 作成
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
音声を入力言語に書き起こします。
URI Parameters
| Name | In | Required | タイプ | Description |
|---|---|---|---|---|
| エンドポイント | パス | Yes | 文字列 url |
OpenAI Azureエンドポイント(プロトコルおよびホスト名、例:https://aoairesource.openai.azure.com)に対応しています。「aoairesource」をAzure OpenAIリソース名に置き換えてください。 https://{your-resource-name}.openai.azure.com |
| deployment-id | パス | Yes | 文字列 | 音声入力モデルのデプロイID サポートモデルの詳細については、[/azure/ai-foundry/openai/concepts/models#audio-models]をご覧ください。 |
| api-version | クエリ | Yes | 文字列 | API version |
Request Header
| Name | Required | タイプ | Description |
|---|---|---|---|
| api-key | True | 文字列 | ここにAzure OpenAI API キーを提供してください |
Request Body
Content-Type: multipart/form-data
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| ファイル | 文字列 | 音声ファイルオブジェクトを文字起こしします。 | Yes | |
| ダイアログを表示する | 文字列 | モデルのスタイルをガイドしたり、前の音声セグメントを続けるためのオプションテキスト。 プロンプトは音声言語に合っているべきです。 | No | |
| response_format | audioResponseFormat | 出力のフォーマットを定義します。 | No | |
| temperature | number | サンプリング温度は0から1の間です。 0.8のような高い値は出力をよりランダムにし、0.2のように低い値はより集中して決定的になります。 0に設定された場合、モデルは対数確率で一定の閾値に達するまで自動的に温度を上げます。 | No | 0 |
| 言語 | 文字列 | 入力音声の言語。 入力言語をISO-639-1形式で提供することで、精度と遅延が向上します。 | No |
Responses
ステータスコード: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | audioResponse または audioVerboseResponse | |
| text/plain | 文字列 | テキストがテキスト、vtt、srtのいずれかだった場合、出力形式で文字起こしresponse_format。 |
Examples
Example
提供された音声データから文字起こしテキストと関連メタデータを取得します。
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
回答:ステータスコード:200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Example
提供された音声データから文字起こしテキストと関連メタデータを取得します。
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
回答:ステータスコード:200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
翻訳 - 作成
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
入力された音声を英語テキストに書き起こし・翻訳します。
URI Parameters
| Name | In | Required | タイプ | Description |
|---|---|---|---|---|
| エンドポイント | パス | Yes | 文字列 url |
OpenAI Azureエンドポイント(プロトコルおよびホスト名、例:https://aoairesource.openai.azure.com)に対応しています。「aoairesource」をAzure OpenAIリソース名に置き換えてください。 https://{your-resource-name}.openai.azure.com |
| deployment-id | パス | Yes | 文字列 | 展開されたウィスパーモデルのデプロイメントID。 サポートモデルの詳細については、[/azure/ai-foundry/openai/concepts/models#audio-models]をご覧ください。 |
| api-version | クエリ | Yes | 文字列 | API version |
Request Header
| Name | Required | タイプ | Description |
|---|---|---|---|
| api-key | True | 文字列 | ここにAzure OpenAI API キーを提供してください |
Request Body
Content-Type: multipart/form-data
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| ファイル | 文字列 | 翻訳用の音声ファイル。 | Yes | |
| ダイアログを表示する | 文字列 | モデルのスタイルをガイドしたり、前の音声セグメントを続けるためのオプションテキスト。 プロンプトは英語で書かれるべきです。 | No | |
| response_format | audioResponseFormat | 出力のフォーマットを定義します。 | No | |
| temperature | number | サンプリング温度は0から1の間です。 0.8のような高い値は出力をよりランダムにし、0.2のように低い値はより集中して決定的になります。 0に設定された場合、モデルは対数確率で一定の閾値に達するまで自動的に温度を上げます。 | No | 0 |
Responses
ステータスコード: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | audioResponse または audioVerboseResponse | |
| text/plain | 文字列 | テキストがテキスト、vtt、srtのいずれかだった場合、出力形式で文字起こしresponse_format。 |
Examples
Example
提供された音声データから英語の文字起こしテキストと関連するメタデータを取得します。
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
回答:ステータスコード:200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Example
提供された音声データから英語の文字起こしテキストと関連するメタデータを取得します。
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
回答:ステータスコード:200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Image generation
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21
与えられたDall-eモデル展開時のテキストキャプションから画像の一括を生成する
URI Parameters
| Name | In | Required | タイプ | Description |
|---|---|---|---|---|
| エンドポイント | パス | Yes | 文字列 url |
OpenAI Azureエンドポイント(プロトコルおよびホスト名、例:https://aoairesource.openai.azure.com)に対応しています。「aoairesource」をAzure OpenAIリソース名に置き換えてください。 https://{your-resource-name}.openai.azure.com |
| deployment-id | パス | Yes | 文字列 | 展開されたdall-eモデルのデプロイID |
| api-version | クエリ | Yes | 文字列 | API version |
Request Header
| Name | Required | タイプ | Description |
|---|---|---|---|
| api-key | True | 文字列 | ここにAzure OpenAI API キーを提供してください |
Request Body
Content-Type: application/json
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| ダイアログを表示する | 文字列 | 目的の画像のテキスト説明。 最大長さは4,000文字です。 | Yes | |
| n | 整数 | 生成すべき画像の数。 | No | 1 |
| size | imageSize | 生成される画像のサイズ。 | No | 1024x1024 |
| response_format | imagesResponseFormat | 生成された画像が返される形式。 | No | url |
| ユーザー | 文字列 | エンドユーザーを表す一意の識別子であり、悪用の監視や検出に役立ちます。 | No | |
| quality | imageQuality | 生成される画像の品質。 | No | 標準 |
| スタイル | imageStyle | 生成された画像のスタイル。 | No | vivid |
Responses
ステータスコード: 200
Description: Ok
| Content-Type | Type | Description |
|---|---|---|
| application/json | generateImagesResponse |
ステータスコード: デフォルト
説明:エラーが発生しました。
| Content-Type | Type | Description |
|---|---|---|
| application/json | dalleErrorResponse |
Examples
Example
プロンプトを与えられた画像を作成します。
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21
{
"prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
"n": 1,
"style": "natural",
"quality": "standard"
}
回答:ステータスコード:200
{
"body": {
"created": 1698342300,
"data": [
{
"revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
"prompt_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
},
"profanity": {
"detected": false,
"filtered": false
}
},
"url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
"content_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
}
}
}
]
}
}
Components
errorResponse
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| エラー | error | No |
errorBase
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| コード | 文字列 | No | ||
| メッセージ | 文字列 | No |
エラー
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| param | 文字列 | No | ||
| 型 | 文字列 | No | ||
| inner_error | innerError | 内部の誤りに追加の詳細を加えた。 | No |
innerError
内部の誤りに追加の詳細を加えた。
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| コード | innerErrorCode | 内側のエラーオブジェクトのエラーコード。 | No | |
| content_filter_results | contentFilterPromptResults | コンテンツフィルタリングのカテゴリ(ヘイト、性的、暴力、self_harm)、検出されたかどうか、そして有害なコンテンツの強度やリスクレベルを決定する重症度レベル(very_low、低、中、高)およびフィルタリングの有無に関する情報。 脱獄コンテンツや罵り言葉に関する情報、検出されたかどうか、フィルタリングされているかどうか。 顧客ブロックリストの情報(フィルタリング済みか)やID(ID)も含めて。 | No |
innerErrorCode
内側のエラーオブジェクトのエラーコード。
説明:内側のエラーオブジェクトのエラーコード。
Type: string
Default:
列挙名:InnerErrorCode
Enum Values:
| Value | Description |
|---|---|
| ResponsibleAIPolicyViolation | プロンプトはさらにコンテンツフィルターのルールの一つに違反していました。 |
dalleErrorResponse
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| エラー | dalleError | No |
dalleError
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| param | 文字列 | No | ||
| 型 | 文字列 | No | ||
| inner_error | dalleInnerError | 内部の誤りに追加の詳細を加えた。 | No |
dalleInnerError
内部の誤りに追加の詳細を加えた。
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| コード | innerErrorCode | 内側のエラーオブジェクトのエラーコード。 | No | |
| content_filter_results | dalleFilterResults | コンテンツフィルタリングのカテゴリ(ヘイト、性的、暴力、self_harm)、検出されたかどうか、そして有害なコンテンツの強度やリスクレベルを決定する重症度レベル(very_low、低、中、高)およびフィルタリングの有無に関する情報。 脱獄コンテンツや罵り言葉に関する情報、検出されたかどうか、フィルタリングされているかどうか。 顧客ブロックリストの情報(フィルタリング済みか)やID(ID)も含めて。 | No | |
| revised_prompt | 文字列 | 画像を生成するために使われたプロンプト、もしプロンプトに修正があったなら。 | No |
contentFilterResultBase
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes |
contentFilterSeverityResult
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes | ||
| severity | 文字列 | No |
contentFilterDetectedResult
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes | ||
| detected | boolean | No |
contentFilterDetectedWithCitationResult
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| citation | オブジェクト | No |
引用のための性質
URL
| Name | タイプ | Description | Default |
|---|---|---|---|
| URL | 文字列 |
ライセンス
| Name | タイプ | Description | Default |
|---|---|---|---|
| ライセンス | 文字列 |
contentFilterResultsBase
コンテンツフィルタリングの結果に関する情報。
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| エラー | errorBase | No |
contentFilterPromptResults
コンテンツフィルタリングのカテゴリ(ヘイト、性的、暴力、self_harm)、検出されたかどうか、そして有害なコンテンツの強度やリスクレベルを決定する重症度レベル(very_low、低、中、高)およびフィルタリングの有無に関する情報。 脱獄コンテンツや罵り言葉に関する情報、検出されたかどうか、フィルタリングされているかどうか。 顧客ブロックリストの情報(フィルタリング済みか)やID(ID)も含めて。
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| エラー | errorBase | No | ||
| jailbreak | contentFilterDetectedResult | No |
contentFilterChoiceResults
コンテンツフィルタリングのカテゴリ(ヘイト、性的、暴力、self_harm)、検出されたかどうか、そして有害なコンテンツの強度やリスクレベルを決定する重症度レベル(very_low、低、中、高)およびフィルタリングの有無に関する情報。 第三者のテキストや罵り言葉に関する情報、検出されたかどうか、フィルタリングされているかどうか。 顧客ブロックリストの情報(フィルタリング済みか)やID(ID)も含めて。
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| エラー | errorBase | No | ||
| protected_material_text | contentFilterDetectedResult | No | ||
| protected_material_code | contentFilterDetectedWithCitationResult | No |
promptFilterResult
リクエスト内の単一のプロンプトに対するコンテンツフィルタリングの結果。
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| prompt_index | 整数 | No | ||
| content_filter_results | contentFilterPromptResults | コンテンツフィルタリングのカテゴリ(ヘイト、性的、暴力、self_harm)、検出されたかどうか、そして有害なコンテンツの強度やリスクレベルを決定する重症度レベル(very_low、低、中、高)およびフィルタリングの有無に関する情報。 脱獄コンテンツや罵り言葉に関する情報、検出されたかどうか、フィルタリングされているかどうか。 顧客ブロックリストの情報(フィルタリング済みか)やID(ID)も含めて。 | No |
promptFilterResults
リクエスト内のプロンプトが0つ以上に対してコンテンツフィルタリングの結果が出ます。 ストリーミングリクエストでは、異なるプロンプトの結果が異なる時間や順序で届くことがあります。
このコンポーネントにはプロパティが定義されていません。
dalleContentFilterResults
コンテンツフィルタリングの結果に関する情報。
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No |
dalleFilterResults
コンテンツフィルタリングのカテゴリ(ヘイト、性的、暴力、self_harm)、検出されたかどうか、そして有害なコンテンツの強度やリスクレベルを決定する重症度レベル(very_low、低、中、高)およびフィルタリングの有無に関する情報。 脱獄コンテンツや罵り言葉に関する情報、検出されたかどうか、フィルタリングされているかどうか。 顧客ブロックリストの情報(フィルタリング済みか)やID(ID)も含めて。
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| jailbreak | contentFilterDetectedResult | No |
chatCompletionsRequestCommon
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| temperature | number | どのサンプリング温度を使うか、0から2の間で。 0.8のような高い値は出力をよりランダムにし、0.2のように低い値はより集中して決定的になります。 一般的にはこれを変更するか、あるいは top_p を変えることを推奨しますが、両方はおすすめしません。 |
No | 1 |
| top_p | number | 温度によるサンプリングの代替として核サンプリングと呼ばれ、モデルは確率質量top_pトークンの結果を考慮します。 つまり0.1とは、確率質量の上位10個を構成するトークンのみ% 考慮されることを意味します。 一般的にはこれを変更するか、あるいは temperature を変えることを推奨しますが、両方はおすすめしません。 |
No | 1 |
| ストリーミング | boolean | 設定すると、ChatGPTのように部分的なメッセージの差が送信されます。 トークンは利用可能なデータ専用サーバー送信イベントとして送信され、ストリームは data: [DONE] メッセージで終了します。 |
No | False |
| stop | 文字列または配列 | APIが今後トークンの生成を停止するシーケンスは最大4つまであります。 | No | |
| max_tokens | 整数 | 生成される答えに許される最大トークン数。 デフォルトでは、モデルが返せるトークンの数は(4096 - プロンプトトークン)となります。 この値は現在 max_completion_tokensに置き換えられ、o1シリーズモデルとは互換性がありません。 |
No | 4096 |
| max_completion_tokens | 整数 | 完了化で生成可能なトークン数の上限であり、可視出力トークンや推論トークンも含まれます。 | No | |
| presence_penalty | number | 数字は-2.0から2.0の間です。 正の値は、テキストに現れたかどうかに基づいて新しいトークンにペナルティを与え、モデルが新しいトピックについて語る可能性を高めます。 | No | 0 |
| frequency_penalty | number | 数字は-2.0から2.0の間です。 正の値は、これまでテキスト内の既存の頻度に基づいて新しいトークンにペナルティを与え、モデルが同じ行を逐語的に繰り返す可能性を減らします。 | No | 0 |
| logit_bias | オブジェクト | 完了に指定されたトークンが現れる確率を修正します。 トークン(トークナイザーのトークンIDで指定)を -100 から100までの付随するバイアス値にマッピングするjsonオブジェクトを受け入れます。 数学的には、バイアスはサンプリング前にモデルが生成するロジットに加算されます。 正確な効果はモデルによって異なりますが、-1 から1の間の値は選択の可能性を下げたり増やしたりするはずです。-100 や100のような値が出ると、該当するトークンが禁止されるか、排他的に選択されるべきです。 | No | |
| ユーザー | 文字列 | エンドユーザーを表す一意の識別子で、Azure OpenAIが不正を監視・検出するのに役立ちます。 | No |
createCompletionRequest
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| ダイアログを表示する | 文字列または配列 | 完了を生成するプロンプトは、文字列、文字列の配列、トークンの配列、またはトークン配列の配列としてエンコードされます。 <|endoftext|>は、トレーニング中にモデルが認識する文書の区切り子であるため、プロンプトが指定されていない場合、モデルは新しいドキュメントの冒頭から生成されます。 |
Yes | |
| best_of | 整数 | サーバー側で best_of 完結を生成し、「最良」(トークンあたりのログ確率が最も高いもの)を返します。 結果はストリーミングできません。nと組み合わせて使う場合、best_ofは候補の完了数を制御し、n返すべき数を指定します。best_ofはnより大きくなければなりません。注: このパラメータは多くの完了を生み出すため、トークンのクォータをすぐに消費してしまいます。 慎重に使い、 max_tokens と stopの設定を適切に設定してください。 |
No | 1 |
| echo | boolean | 完成に加えてプロンプトにもエコーを返してください |
No | False |
| frequency_penalty | number | 数字は-2.0から2.0の間です。 正の値は、これまでテキスト内の既存の頻度に基づいて新しいトークンにペナルティを与え、モデルが同じ行を逐語的に繰り返す可能性を減らします。 |
No | 0 |
| logit_bias | オブジェクト | 完了に指定されたトークンが現れる確率を修正します。 GPTトークナイザーでトークンIDで指定されたトークンを、-100 から100までのバイアス値にマッピングするJSONオブジェクトを受け入れます。 数学的には、バイアスはサンプリング前にモデルが生成するロジットに加算されます。 正確な効果はモデルによって異なりますが、-1 から1の間の値は選択の可能性を下げたり増やしたりするはずです。-100 や100のような値が出ると、該当するトークンが禁止されるか、排他的に選択されるべきです。 例として、<|endoftext|>トークンの生成を防ぐために {"50256": -100}パスを送ることができます。 |
No | None |
| logprobs | 整数 | 最も可能性が高い出力トークン logprobs のログ確率を含め、選ばれたトークンを含めてください。 例えば、 logprobs が5の場合、APIは最も可能性の高い5つのトークンのリストを返します。 APIは常にサンプリングされたトークンの logprob を返すため、レスポンスには最大 logprobs+1 要素が存在することがあります。logprobsの最大値は5です。 |
No | None |
| max_tokens | 整数 | 完了で生成可能な最大トークン数。 プロンプトのトークン数と max_tokens はモデルのコンテキストの長さを超えてはいけません。 |
No | 16 |
| n | 整数 | 各プロンプトごとに何回の完了を生成するか。 注: このパラメータは多くの完了を生み出すため、トークンのクォータをすぐに消費してしまいます。 慎重に使い、 max_tokens と stopの設定を適切に設定してください。 |
No | 1 |
| presence_penalty | number | 数字は-2.0から2.0の間です。 正の値は、テキストに現れたかどうかに基づいて新しいトークンにペナルティを与え、モデルが新しいトピックについて語る可能性を高めます。 |
No | 0 |
| seed | 整数 | 仕様が明示されれば、システムは決定論的にサンプリングを試み、同じ seed とパラメータで繰り返しリクエストしても同じ結果が返るよう努めます。決定性は保証されていないので、バックエンドの変更を監視するために system_fingerprint 応答パラメータを参照すべきです。 |
No | |
| stop | 文字列または配列 | APIが今後トークンの生成を停止するシーケンスは最大4つまであります。 返されたテキストには停止のシーケンスが含まれません。 |
No | |
| ストリーミング | boolean | 部分的な進行をストリームバックするかどうか。 設定すると、トークンは利用可能なデータのみサーバー 送信イベント として送信され、ストリームは data: [DONE] メッセージで終了します。 |
No | False |
| suffix | 文字列 | 挿入されたテキストの完了後に付く接尾辞です。 このパラメータは gpt-3.5-turbo-instructのみサポートされています。 |
No | None |
| temperature | number | どのサンプリング温度を使うか、0から2の間で。 0.8のような高い値は出力をよりランダムにし、0.2のように低い値はより集中して決定的になります。 一般的にはこれを変更するか、あるいは top_p を変えることを推奨しますが、両方はおすすめしません。 |
No | 1 |
| top_p | number | 温度によるサンプリングの代替として核サンプリングと呼ばれ、モデルは確率質量top_pトークンの結果を考慮します。 つまり0.1とは、確率質量の上位10個を構成するトークンのみ% 考慮されることを意味します。 一般的にはこれを変更するか、あるいは temperature を変えることを推奨しますが、両方はおすすめしません。 |
No | 1 |
| ユーザー | 文字列 | エンドユーザーを表す一意の識別子であり、悪用の監視や検出に役立ちます。 |
No |
createCompletionResponse
APIからの完了応答を表します。 注:ストリーミングされたレスポンスオブジェクトと非ストリーミングされたレスポンスオブジェクトは同じ形状を共有しています(チャットエンドポイントとは異なります)。
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| id | 文字列 | 完了の一意識別子。 | Yes | |
| choices | アレイ | モデルが入力プロンプトに対して生成した完了選択のリストです。 | Yes | |
| created | 整数 | 完了が作成されたUnixのタイムスタンプ(秒単位)です。 | Yes | |
| モデル | 文字列 | 完成に用いられるモデル。 | Yes | |
| prompt_filter_results | promptFilterResults | リクエスト内のプロンプトが0つ以上に対してコンテンツフィルタリングの結果が出ます。 ストリーミングリクエストでは、異なるプロンプトの結果が異なる時間や順序で届くことがあります。 | No | |
| system_fingerprint | 文字列 | このフィンガープリントはモデルが動作するバックエンド構成を表します。seedリクエストパラメータと組み合わせて、決定性に影響を与える可能性のあるバックエンドの変更がいつ行われたかを理解するために使用できます。 |
No | |
| オブジェクト | 列挙型 | オブジェクトタイプは常に「text_completion」です。 可能な値:text_completion |
Yes | |
| 使用 | completionUsage | 完了リクエストの使用統計。 | No |
createChatCompletionRequest
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| temperature | number | どのサンプリング温度を使うか、0から2の間で。 0.8のような高い値は出力をよりランダムにし、0.2のように低い値はより集中して決定的になります。 一般的にはこれを変更するか、あるいは top_p を変えることを推奨しますが、両方はおすすめしません。 |
No | 1 |
| top_p | number | 温度によるサンプリングの代替として核サンプリングと呼ばれ、モデルは確率質量top_pトークンの結果を考慮します。 つまり0.1とは、確率質量の上位10個を構成するトークンのみ% 考慮されることを意味します。 一般的にはこれを変更するか、あるいは temperature を変えることを推奨しますが、両方はおすすめしません。 |
No | 1 |
| ストリーミング | boolean | 設定すると、ChatGPTのように部分的なメッセージの差が送信されます。 トークンは利用可能なデータのみサーバー 送信イベント として送信され、ストリームは data: [DONE] メッセージで終了します。 |
No | False |
| stop | 文字列または配列 | APIが今後トークンの生成を停止するシーケンスは最大4つまであります。 |
No | |
| max_tokens | 整数 | チャット完了時に生成できるトークンの最大数。 入力トークンと生成トークンの総長は、モデルのコンテキスト長によって制限されます。 |
No | |
| max_completion_tokens | 整数 | 完了化で生成可能なトークン数の上限であり、可視出力トークンや推論トークンも含まれます。 | No | |
| presence_penalty | number | 数字は-2.0から2.0の間です。 正の値は、テキストに現れたかどうかに基づいて新しいトークンにペナルティを与え、モデルが新しいトピックについて語る可能性を高めます。 |
No | 0 |
| frequency_penalty | number | 数字は-2.0から2.0の間です。 正の値は、これまでテキスト内の既存の頻度に基づいて新しいトークンにペナルティを与え、モデルが同じ行を逐語的に繰り返す可能性を減らします。 |
No | 0 |
| logit_bias | オブジェクト | 完了に指定されたトークンが現れる確率を修正します。 トークン(トークンIDで指定)を -100 から100までの付随するバイアス値にマッピングするJSONオブジェクトを受け付けます。 数学的には、バイアスはサンプリング前にモデルが生成するロジットに加算されます。 正確な効果はモデルによって異なりますが、-1 から1の間の値は選択の可能性を下げたり増やしたりするはずです。-100 や100のような値が出ると、該当するトークンが禁止されるか、排他的に選択されるべきです。 |
No | None |
| ユーザー | 文字列 | エンドユーザーを表す一意の識別子であり、悪用の監視や検出に役立ちます。 |
No | |
| messages | アレイ | これまでの会話のメッセージリスト。 | Yes | |
| data_sources | アレイ | Azure OpenAIチャット拡張機能の構成エントリーです。 この追加仕様はAzure OpenAIのみと互換性があります。 |
No | |
| logprobs | boolean | 出力トークンのログ確率を返すかどうか。 もし真であれば、messagecontentで返された各出力トークンの対数確率を返します。 |
No | False |
| top_logprobs | 整数 | 0から20の間の整数で、各トークン位置で返される可能性が最も高いトークンの数を示し、それぞれに対数の確率が伴います。
logprobs このパラメータを使用する場合は true に設定されなければなりません。 |
No | |
| n | 整数 | 入力メッセージごとに何つのチャット完了選択肢を生成するか。 なお、すべての選択肢で生成されたトークンの数に応じて料金が発生します。 コストを抑えるために、 n を常に保持 1 しましょう。 |
No | 1 |
| parallel_tool_calls | ParallelToolCalls | 工具使用中に並列関数呼び出しを有効にするかどうか。 | No | True |
| response_format | ResponseFormatText または ResponseFormatJsonObject または ResponseFormatJsonSchema | モデルが出力すべきフォーマットを指定するオブジェクト。
GPT-4o、GPT-4o mini、GPT-4 Turbo、およびgpt-3.5-turbo-1106より新しいすべてのGPT-3.5 Turboモデルに対応しています。{ "type": "json_schema", "json_schema": {...} }に設定すると構造化出力が有効になり、モデルが提供されたJSONスキーマと一致することを保証します。{ "type": "json_object" }に設定するとJSONモードが有効になり、モデルが生成するメッセージが有効なJSONであることが保証されます。重要事項: JSONモードを使用する際は、システムやユーザーメッセージを通じてモデルに自分でJSONを作成するよう指示 する必要があります 。 これがなければ、モデルはトークンの上限に達するまで無限の空白ストリームを生成し、長期間実行され「詰まった」ように見えるリクエストを生み出します。 また、 finish_reason="length"の場合はメッセージ内容が部分的に切り離されている可能性があり、これは生成時間が max_tokens を超えたか、会話が最大コンテキスト長を超えていることを示しています。 |
No | |
| seed | 整数 | この機能はベータ版です。 仕様が明示されれば、システムは決定論的にサンプリングを試み、同じ seed とパラメータで繰り返しリクエストしても同じ結果が返るよう努めます。決定性は保証されていないので、バックエンドの変更を監視するために system_fingerprint 応答パラメータを参照すべきです。 |
No | |
| tools | アレイ | モデルが呼び出す可能性のあるツールのリスト。 現在、ツールとしてサポートされているのは関数のみです。 これを使って、モデルがJSON入力を生成する可能性のある関数のリストを提供します。 最大128の機能までサポートされています。 |
No | |
| tool_choice | chatCompletionToolChoiceOption | モデルが呼び出すツール(もしあれば)を制御します。
none つまり、モデルはツールを呼び出さず、代わりにメッセージを生成します。
auto つまり、モデルはメッセージを生成するか、1つ以上のツールを呼び出すかを選べるということです。
required モデルは1つ以上のツールを呼び出しなければならないことを意味します。
{"type": "function", "function": {"name": "my_function"}}で特定のツールを指定すると、モデルはそのツールを呼び出すことを強制します。
none ツールがない場合のデフォルトです。
auto ツールがある場合はデフォルトです。 |
No | |
| function_call | 文字列または chatCompletionFunctionCallOption |
tool_choiceに優先して廃止されました。モデルが呼び出す関数(もしあれば)を制御します。 none モデルは関数を呼び出すのではなく、代わりにメッセージを生成します。auto モデルはメッセージを生成するか関数を呼び出すかを選択できることを意味します。{"name": "my_function"}で特定の関数を指定すると、モデルはその関数を呼び出すことを強制します。none 関数が存在しない場合のデフォルトです。
auto 関数が存在する場合のデフォルトです。 |
No | |
| functions | アレイ |
toolsに優先して廃止されました。モデルがJSON入力を生成する関数のリスト。 |
No |
chatCompletionFunctions
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| description | 文字列 | 関数が何をするかの記述で、モデルがいつどのように関数を呼び出すかを決めるためのもの。 | No | |
| name | 文字列 | 呼び出す関数の名前。 a-z、A-Z、0-9、またはアンダースコアとダッシュを含む必要があり、最大64までの長さです。 | Yes | |
| parameters | FunctionParameters | 関数が受け入れるパラメータは、JSONスキーマオブジェクトとして記述されます。 例についてはガイドと、フォーマットに関するドキュメントについてはJSON Schemaの参考文献をご覧ください。 parametersを省略すると、パラメータリストが空の関数を定義します。 |
No |
chatCompletionFunctionCallOption
{"name": "my_function"}で特定の関数を指定すると、モデルはその関数を呼び出すことを強制します。
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| name | 文字列 | 呼び出しする関数の名前。 | Yes |
chatCompletionRequestMessage
このコンポーネントは以下のいずれかである:
chatCompletionRequestSystemMessage
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| コンテンツ | 文字列または配列 | システムメッセージの内容。 | Yes | |
| ロール | 列挙型 | この場合、メッセージ作成者の役割は system。可能な値:システム |
Yes | |
| name | 文字列 | 参加者の任意の名前。 同じ役割の参加者を区別するためのモデル情報を提供します。 | No |
chatCompletionRequestUserMessage
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| コンテンツ | 文字列または配列 | ユーザーメッセージの内容。 |
Yes | |
| ロール | 列挙型 | この場合、メッセージ作成者の役割は user。可能な値は:ユーザー |
Yes | |
| name | 文字列 | 参加者の任意の名前。 同じ役割の参加者を区別するためのモデル情報を提供します。 | No |
chatCompletionRequestAssistantMessage
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| コンテンツ | 文字列または配列 | アシスタントメッセージの内容です。
tool_callsやfunction_callが指定されていない限り、必須です。 |
No | |
| refusal | 文字列 | アシスタントからの拒否メッセージ。 | No | |
| ロール | 列挙型 | この場合、メッセージ作成者の役割は assistant。可能な値:アシスタント |
Yes | |
| name | 文字列 | 参加者の任意の名前。 同じ役割の参加者を区別するためのモデル情報を提供します。 | No | |
| tool_calls | chatCompletionMessageToolCalls | モデルによって生成されるツール呼び出し、例えば関数呼び出しなどです。 | No | |
| function_call | オブジェクト | 廃止され、 tool_callsに置き換えられました。 モデルが生成した関数の名前と引数を呼び出す必要があります。 |
No |
function_callの性質
arguments
| Name | タイプ | Description | Default |
|---|---|---|---|
| arguments | 文字列 | モデルがJSON形式で生成した関数を呼び出す引数。 なお、モデルが必ずしも有効なJSONを生成するわけではなく、関数スキーマで定義されていないパラメータを生成することもあります。 関数を呼び出す前に、コード内の引数を検証してください。 |
name
| Name | タイプ | Description | Default |
|---|---|---|---|
| name | 文字列 | 呼び出しする関数の名前。 |
chatCompletionRequestToolMessage
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| ロール | 列挙型 | この場合、メッセージ作成者の役割は tool。可能な値:ツール |
Yes | |
| コンテンツ | 文字列または配列 | ツールメッセージの内容。 | Yes | |
| tool_call_id | 文字列 | このメッセージが応答しているツールコールです。 | Yes |
chatCompletionRequestFunctionMessage
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| ロール | 列挙型 | この場合、メッセージ作成者の役割は function。可能な値:関数 |
Yes | |
| コンテンツ | 文字列 | 関数メッセージの内容です。 | Yes | |
| name | 文字列 | 呼び出しする関数の名前。 | Yes |
chatCompletionRequestSystemMessageContentPart
このコンポーネントは以下のいずれかである:
chatCompletionRequestUserMessageContentPart
このコンポーネントは以下のいずれかである:
chatCompletionRequestAssistantMessageContentPart
このコンポーネントは以下のいずれかである:
chatCompletionRequestToolMessageContentPart
このコンポーネントは以下のいずれかである:
chatCompletionRequestMessageContentPartText
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| 型 | 列挙型 | 内容の種類。 可能な値:テキスト |
Yes | |
| SMS 送信 | 文字列 | テキストの内容。 | Yes |
chatCompletionRequestMessageContentPartImage
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| 型 | 列挙型 | 内容の種類。 可能な値:image_url |
Yes | |
| image_url | オブジェクト | Yes |
image_urlの性質
url
| Name | タイプ | Description | Default |
|---|---|---|---|
| url | 文字列 | 画像のURLかbase64でエンコードされた画像データのいずれかです。 |
detail
| Name | タイプ | Description | Default |
|---|---|---|---|
| detail | 文字列 | 画像の詳細レベルを指定します。 詳細は ビジョンガイドをご覧ください。 | auto |
chatCompletionRequestMessageContentPartRefusal
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| 型 | 列挙型 | 内容の種類。 可能な価値観:拒否 |
Yes | |
| refusal | 文字列 | モデルによって生成される拒否メッセージ。 | Yes |
azureChatExtensionConfiguration
単一のAzure OpenAIチャット拡張の構成データの表現。 これはチャット完了リクエストに使われ、Azure OpenAIのチャット拡張機能を使って応答動作を補強します。 この構成の使用はAzure OpenAIのみと互換性があります。
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| 型 | azureChatExtensionType | 単一のAzure OpenAIチャット拡張の構成データの表現。 これはチャットで使われます 完了リクエストは、応答動作を補強するためにAzure OpenAIチャット拡張機能を使うべきです。 この構成の使用はAzure OpenAIのみと互換性があります。 |
Yes |
azureChatExtensionType
単一のAzure OpenAIチャット拡張の構成データの表現。 これはチャット完了リクエストに使われ、Azure OpenAIのチャット拡張機能を使って応答動作を補強します。 この構成の使用はAzure OpenAIのみと互換性があります。
Description:単一のOpenAIチャット拡張機能の構成データの表現Azure。 これはチャット完了リクエストに使われ、Azure OpenAIのチャット拡張機能を使って応答動作を補強します。 この構成の使用はAzure OpenAIのみと互換性があります。
Type: string
Default:
Enum name: AzureChatExtensionType
Enum Values:
| Value | Description |
|---|---|
| azure_search | Azure SearchをAzure OpenAIチャット拡張機能として利用していることを表しています。 |
| azure_cosmos_db | Azure Cosmos DBをAzure OpenAIチャット拡張機能として利用していることを表しています。 |
azureSearchChatExtensionConfiguration
Azure SearchをAzure OpenAIチャット拡張機能として使用した場合の設定可能なオプションの具体的な表現です。
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| 型 | azureChatExtensionType | 単一のAzure OpenAIチャット拡張の構成データの表現。 これはチャットで使われます 完了リクエストは、応答動作を補強するためにAzure OpenAIチャット拡張機能を使うべきです。 この構成の使用はAzure OpenAIのみと互換性があります。 |
Yes | |
| parameters | azureSearchChatExtensionParameters | Azure OpenAIチャット拡張機能として使う場合のAzure検索のパラメータ。 | No |
azureSearchChatExtensionParameters
Azure OpenAIチャット拡張機能として使う場合のAzure検索のパラメータ。
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| 認証 | onYourDataApiKeyAuthenticationOptions や onYourDataSystemAssignedManagedIdentityAuthenticationOptions 、または onYourDataUserAssignedManagedIdentityAuthenticationOptions | Yes | ||
| top_n_documents | 整数 | 設定されたクエリで機能するドキュメントの上限数。 | No | |
| in_scope | boolean | クエリはインデックス付きデータの使用に限定すべきか。 | No | |
| strictness | 整数 | 検索関連性フィルタリングの設定厳密性。 厳密度が高いほど、答えの精度は高いですが、呼び起こす記憶力は低いです。 | No | |
| role_information | 文字列 | モデルに、どのように振る舞うべきか、応答を生成する際に参照すべきコンテキストについて指示を与えます。 アシスタントの性格を説明し、返答のフォーマットを教えることができます。 トークンの上限は100枚で、全体のトークン制限にカウントされます。 | No | |
| エンドポイント | 文字列 | Azure Searchリソースが使う絶対的なエンドポイントパスです。 | Yes | |
| index_name | 文字列 | 参照されているAzure検索リソースで利用可能なインデックス名。 | Yes | |
| fields_mapping | azureSearchIndexFieldMappingOptions | 設定済みのAzure Searchリソースを使用した際のフィールド処理方法を制御するオプション設定。 | No | |
| query_type | azureSearchQueryType | Azure OpenAIチャット拡張機能として使用する際に実行すべきAzure検索検索クエリの種類。 | No | |
| semantic_configuration | 文字列 | クエリの追加セマンティック構成。 | No | |
| フィルタ | 文字列 | Search filter. | No | |
| embedding_dependency | onYourDataEndpointVectorizationSource または onYourDataDeploymentNameVectorizationSource | No |
azureSearchIndexFieldMappingOptions
設定済みのAzure Searchリソースを使用した際のフィールド処理方法を制御するオプション設定。
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| title_field | 文字列 | タイトルとして使うインデックスフィールドの名前。 | No | |
| url_field | 文字列 | URLとして使うインデックスフィールドの名前。 | No | |
| filepath_field | 文字列 | ファイルパスとして使うインデックスフィールドの名前。 | No | |
| content_fields | アレイ | コンテンツとして扱うべきインデックスフィールドの名前。 | No | |
| content_fields_separator | 文字列 | コンテンツフィールドが使うべき区切りパターン。 | No | |
| vector_fields | アレイ | ベクトルデータを表すフィールドの名前。 | No |
azureSearchQueryType
Azure OpenAIチャット拡張機能として使用する際に実行すべきAzure検索検索クエリの種類。
Description:Azure Azure OpenAIチャット拡張機能として使用した場合に実行すべき検索クエリのタイプです。
Type: string
Default:
Enum name: AzureSearchQueryType
Enum Values:
| Value | Description |
|---|---|
| simple | デフォルトの単純なクエリパーサーを表します。 |
| semantic | 高度なセマンティックモデリングのための意味クエリパーサーを表します。 |
| ベクタ | 計算データに対するベクトル探索を表します。 |
| vector_simple_hybrid | 単純なクエリ戦略とベクトルデータの組み合わせを表します。 |
| vector_semantic_hybrid | 意味探索とベクトルデータクエリの組み合わせを表します。 |
azureCosmosDBChatExtensionConfiguration
Azure Cosmos DBをAzure OpenAIチャット拡張機能として使用した場合の設定可能なオプションの具体的な表現です。
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| 型 | azureChatExtensionType | 単一のAzure OpenAIチャット拡張の構成データの表現。 これはチャットで使われます 完了リクエストは、応答動作を補強するためにAzure OpenAIチャット拡張機能を使うべきです。 この構成の使用はAzure OpenAIのみと互換性があります。 |
Yes | |
| parameters | azureCosmosDBChatExtensionParameters | Azure OpenAI On Your Data チャット拡張を Azure Cosmos DB for で使用する際のパラメータ MongoDB vCore. |
No |
azureCosmosDBChatExtensionParameters
Azure OpenAI On Your Data チャット拡張を Azure Cosmos DB for MongoDB vCore で使用する際のパラメータ。
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| 認証 | onYourDataConnectionStringAuthenticationOptions | azure OpenAI On Your Data の認証オプションについて、接続文字列 を使用した場合のことです。 | Yes | |
| top_n_documents | 整数 | 設定されたクエリで機能するドキュメントの上限数。 | No | |
| in_scope | boolean | クエリはインデックス付きデータの使用に限定すべきか。 | No | |
| strictness | 整数 | 検索関連性フィルタリングの設定厳密性。 厳密度が高いほど、答えの精度は高いですが、呼び起こす記憶力は低いです。 | No | |
| role_information | 文字列 | モデルに、どのように振る舞うべきか、応答を生成する際に参照すべきコンテキストについて指示を与えます。 アシスタントの性格を説明し、返答のフォーマットを教えることができます。 トークンの上限は100枚で、全体のトークン制限にカウントされます。 | No | |
| database_name | 文字列 | Azure Cosmos DBで使うMongoDB vCoreデータベース名。 | Yes | |
| container_name | 文字列 | Azure Cosmos DBリソースコンテナの名前です。 | Yes | |
| index_name | 文字列 | Azure Cosmos DBで使用するMongoDB vCoreインデックス名。 | Yes | |
| fields_mapping | azureCosmosDBFieldMappingOptions | 設定済みのAzure Cosmos DBリソースを使用する際のフィールド処理方法を制御するオプション設定。 | Yes | |
| embedding_dependency | onYourDataEndpointVectorizationSource または onYourDataDeploymentNameVectorizationSource | Yes |
azureCosmosDBFieldMappingOptions
設定済みのAzure Cosmos DBリソースを使用する際のフィールド処理方法を制御するオプション設定。
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| title_field | 文字列 | タイトルとして使うインデックスフィールドの名前。 | No | |
| url_field | 文字列 | URLとして使うインデックスフィールドの名前。 | No | |
| filepath_field | 文字列 | ファイルパスとして使うインデックスフィールドの名前。 | No | |
| content_fields | アレイ | コンテンツとして扱うべきインデックスフィールドの名前。 | Yes | |
| content_fields_separator | 文字列 | コンテンツフィールドが使うべき区切りパターン。 | No | |
| vector_fields | アレイ | ベクトルデータを表すフィールドの名前。 | Yes |
onYourDataAuthenticationOptions
あなたのデータに対するAzure OpenAIの認証オプション。
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| 型 | onYourDataAuthenticationType | Azure OpenAI On Your Dataでサポートされている認証タイプ。 | Yes |
onYourDataAuthenticationType
Azure OpenAI On Your Dataでサポートされている認証タイプ。
Description:あなたのデータに対してAzure OpenAIがサポートする認証タイプ。
Type: string
Default:
Enum 名前: OnYourDataAuthenticationType
Enum Values:
| Value | Description |
|---|---|
| api_key | APIキーによる認証。 |
| connection_string | 認証は接続文字列を使います。 |
| system_assigned_managed_identity | システム割り当て管理IDによる認証。 |
| user_assigned_managed_identity | ユーザー割り当ての管理型IDによる認証。 |
onYourDataApiKeyAuthenticationOptions
APIキーを使用した際のAzure OpenAI On Your Dataの認証オプションについて。
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| 型 | onYourDataAuthenticationType | Azure OpenAI On Your Dataでサポートされている認証タイプ。 | Yes | |
| キー | 文字列 | 認証に使うAPIキー。 | No |
onYourDataConnectionStringAuthenticationOptions
azure OpenAI On Your Data の認証オプションについて、接続文字列 を使用した場合のことです。
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| 型 | onYourDataAuthenticationType | Azure OpenAI On Your Dataでサポートされている認証タイプ。 | Yes | |
| connection_string | 文字列 | 認証に使う接続文字列。 | No |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions
システム割り当て管理型IDを使用した際のAzure OpenAI On Your Dataの認証オプションについて。
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| 型 | onYourDataAuthenticationType | Azure OpenAI On Your Dataでサポートされている認証タイプ。 | Yes |
onYourDataUserAssignedManagedIdentityAuthenticationOptions
ユーザー割り当て管理IDを使用した際のAzure OpenAI On Your Dataの認証オプションについて。
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| 型 | onYourDataAuthenticationType | Azure OpenAI On Your Dataでサポートされている認証タイプ。 | Yes | |
| managed_identity_resource_id | 文字列 | 認証に使用するユーザー割り当て管理IDのリソースID。 | No |
onYourDataVectorizationSource
Azure OpenAI On Your Dataのベクトル検索によるベクトル化ソースの抽象表現です。
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| 型 | onYourDataVectorizationSourceType | これはAzure OpenAI On Your Dataが利用可能なデータのベクトル化設定に使える利用可能なソースを表します。 vector search. |
Yes |
onYourDataVectorizationSourceType
Azure OpenAI On Your Dataがベクター検索用のベクトル化設定に使用できる利用可能なソースを表しています。
Description:OpenAIがあなたのデータ上で利用できるAzure利用可能なソースを表し、データのベクトル化を設定するために利用可能です。
vector search.
Type: string
Default:
Enum名:OnYourDataVectorizationSourceType
Enum Values:
| Value | Description |
|---|---|
| エンドポイント | パブリックサービス呼び出しによってAzure OpenAI埋め込みモデルに対して行われるベクトル化を表します。 |
| deployment_name | 使用するためのAdaモデル展開名を表します。 このモデル展開は同じAzure OpenAIリソース内で行う必要がありますが、 On Your Dataは公開コールではなく内部コールを通じてこのモデル展開を行い、これによりベクトルが可能になります プライベートネットワークでも検索できます。 |
onYourDataDeploymentNameVectorizationSource
ベクトル検索を適用する際にAzure OpenAI On Your Dataで使用されるベクトル化ソースの詳細は、同じAzure OpenAIリソース内の内部埋め込みモデル展開名に基づいています。
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| 型 | onYourDataVectorizationSourceType | これはAzure OpenAI On Your Dataが利用可能なデータのベクトル化設定に使える利用可能なソースを表します。 vector search. |
Yes | |
| deployment_name | 文字列 | ベクトル化に使用されるモデル展開名を指定します。 このモデル展開は同じAzure OpenAIリソース内で行う必要がありますが、On Your Dataでは公開コールではなく内部呼び出しを通じてこのモデル展開が使用されるため、プライベートネットワーク内でもベクターサーチが可能です。 | No |
onYourDataEndpointVectorizationSource
ベクトル検索を適用する際にAzure OpenAI On Your Dataで使用されるベクトル化ソースの詳細。これは公開されたAzure OpenAIエンドポイントの埋め込み呼び出しに基づいています。
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| 型 | onYourDataVectorizationSourceType | これはAzure OpenAI On Your Dataが利用可能なデータのベクトル化設定に使える利用可能なソースを表します。 vector search. |
Yes | |
| 認証 | onYourDataApiKeyAuthenticationOptions | APIキーを使用した際のAzure OpenAI On Your Dataの認証オプションについて。 | No | |
| エンドポイント | 文字列 | ベクトル化に使用する端点を指定します。 このエンドポイントは同じAzure OpenAIリソース内にある必要がありますが、On Your Dataは公開コールではなく内部呼び出しを通じてこのエンドポイントを使用し、プライベートネットワーク内でもベクターサーチが可能です。 | No |
azureChatExtensionsMessageContext
Azure OpenAIチャット拡張機能が対応するチャット完了応答の生成に関与した際に追加のコンテキスト情報を表現したものです。 このコンテキスト情報は、対応する拡張機能を使用するように設定されたAzure OpenAIリクエストを使用した場合にのみ入力されます。
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| citations | アレイ | データソースの取得結果は、応答のアシスタントメッセージを生成するために使用されます。 | No | |
| 意図 | 文字列 | チャット履歴から検出された意図は、文脈を引き継ぐために次のターンに渡されていました。 | No |
citation
チャット完了メッセージの引用情報。
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| コンテンツ | 文字列 | 引用内容。 | Yes | |
| title | 文字列 | 表彰状のタイトル。 | No | |
| url | 文字列 | 引用のURLです。 | No | |
| filepath | 文字列 | 引用のファイルパス。 | No | |
| chunk_id | 文字列 | 引用のチャンクIDです。 | No |
chatCompletionMessageToolCall
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| id | 文字列 | ツールコールのIDです。 | Yes | |
| 型 | toolCallType | この場合、ツールコールの種類 function。 |
Yes | |
| 関数 | オブジェクト | モデルが呼び出した関数です。 | Yes |
関数の性質
name
| Name | タイプ | Description | Default |
|---|---|---|---|
| name | 文字列 | 呼び出しする関数の名前。 |
arguments
| Name | タイプ | Description | Default |
|---|---|---|---|
| arguments | 文字列 | モデルがJSON形式で生成した関数を呼び出す引数。 なお、モデルが必ずしも有効なJSONを生成するわけではなく、関数スキーマで定義されていないパラメータを生成することもあります。 関数を呼び出す前に、コード内の引数を検証してください。 |
toolCallType
この場合、ツールコールの種類 function。
説明:ツール呼び出しの種類、この場合は function。
Type: string
Default:
エナム名:ToolCallType
Enum Values:
| Value | Description |
|---|---|
| 関数 | ツールコールの種類は関数です。 |
chatCompletionRequestMessageTool
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| tool_call_id | 文字列 | このメッセージが応答しているツールコールです。 | No | |
| コンテンツ | 文字列 | メッセージの内容。 | No |
chatCompletionRequestMessageFunction
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| ロール | 列挙型 | この場合、メッセージ作成者の役割は function。可能な値:関数 |
No | |
| name | 文字列 | メッセージの内容。 | No | |
| コンテンツ | 文字列 | メッセージの内容。 | No |
createChatCompletionResponse
提供された入力に基づいてモデルから返されるチャット完了応答を表します。
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| id | 文字列 | チャット完了のための一意識別子。 | Yes | |
| prompt_filter_results | promptFilterResults | リクエスト内のプロンプトが0つ以上に対してコンテンツフィルタリングの結果が出ます。 ストリーミングリクエストでは、異なるプロンプトの結果が異なる時間や順序で届くことがあります。 | No | |
| choices | アレイ | チャット完了の選択肢一覧。
nが1より大きくなれば、1より多くなることもあります。 |
Yes | |
| created | 整数 | チャット完了が作成されたUnixのタイムスタンプ(秒単位)です。 | Yes | |
| モデル | 文字列 | チャット完了に使われたモデル。 | Yes | |
| system_fingerprint | 文字列 | このフィンガープリントはモデルが動作するバックエンド構成を表します。seedリクエストパラメータと組み合わせて、決定性に影響を与える可能性のあるバックエンドの変更がいつ行われたかを理解するために使用できます。 |
No | |
| オブジェクト | 列挙型 | オブジェクトタイプは常に chat.completionです。可能な値:chat.completion |
Yes | |
| 使用 | completionUsage | 完了リクエストの使用統計。 | No |
createChatCompletionStreamResponse
提供された入力に基づいてモデルから返されるチャット完了応答のストリームチャンクを表します。
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| id | 文字列 | チャット完了のための一意識別子。 各チャンクは同じIDを持っています。 | Yes | |
| choices | アレイ | チャット完了の選択肢一覧。
nが1より大きい場合、複数の要素を含むことができます。 |
Yes | |
| created | 整数 | チャット完了が作成されたUnixのタイムスタンプ(秒単位)です。 各チャンクは同じタイムスタンプを持っています。 | Yes | |
| モデル | 文字列 | 完備化を生成するモデル。 | Yes | |
| system_fingerprint | 文字列 | このフィンガープリントはモデルが動作するバックエンド構成を表します。seedリクエストパラメータと組み合わせて、決定性に影響を与える可能性のあるバックエンドの変更がいつ行われたかを理解するために使用できます。 |
No | |
| オブジェクト | 列挙型 | オブジェクトタイプは常に chat.completion.chunkです。可能な値:chat.completion.chunk |
Yes |
chatCompletionStreamResponseDelta
ストリーミングされたモデル応答によって生成されるチャット完了のデルタ。
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| コンテンツ | 文字列 | チャンクメッセージの内容です。 | No | |
| function_call | オブジェクト | 廃止され、 tool_callsに置き換えられました。 モデルが生成した関数の名前と引数を呼び出す必要があります。 |
No | |
| tool_calls | アレイ | No | ||
| ロール | 列挙型 | このメッセージの作者の役割。 可能な値:システム、ユーザー、アシスタント、ツール |
No | |
| refusal | 文字列 | モデルによって生成される拒否メッセージ。 | No |
function_callの性質
arguments
| Name | タイプ | Description | Default |
|---|---|---|---|
| arguments | 文字列 | モデルがJSON形式で生成した関数を呼び出す引数。 なお、モデルが必ずしも有効なJSONを生成するわけではなく、関数スキーマで定義されていないパラメータを生成することもあります。 関数を呼び出す前に、コード内の引数を検証してください。 |
name
| Name | タイプ | Description | Default |
|---|---|---|---|
| name | 文字列 | 呼び出しする関数の名前。 |
chatCompletionMessageToolCallChunk
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| インデックス | 整数 | Yes | ||
| id | 文字列 | ツールコールのIDです。 | No | |
| 型 | 列挙型 | 道具の種類。 現在、サポートされているのは function のみです。可能な値:関数 |
No | |
| 関数 | オブジェクト | No |
関数の性質
name
| Name | タイプ | Description | Default |
|---|---|---|---|
| name | 文字列 | 呼び出しする関数の名前。 |
arguments
| Name | タイプ | Description | Default |
|---|---|---|---|
| arguments | 文字列 | モデルがJSON形式で生成した関数を呼び出す引数。 なお、モデルが必ずしも有効なJSONを生成するわけではなく、関数スキーマで定義されていないパラメータを生成することもあります。 関数を呼び出す前に、コード内の引数を検証してください。 |
chatCompletionStreamOptions
ストリーミング応答の選択肢。 設定したときにだけ設定 stream: true。
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| include_usage | boolean | 設定すると、 data: [DONE] メッセージの前に追加のチャンクがストリーミングされます。 このチャンクの usage フィールドはリクエスト全体のトークン使用統計を示し、 choices フィールドは常に空の配列になります。 その他のチャンクもまた usage フィールドを含みますが、nullの値が付いています。 |
No |
chatCompletionChoiceLogProbs
選択の確率情報を記録してください。
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| コンテンツ | アレイ | ログ確率情報を含むメッセージ内容トークンのリスト。 | Yes | |
| refusal | アレイ | ログ確率情報付きのメッセージ拒否トークンのリスト。 | No |
chatCompletionTokenLogprob
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| トークン | 文字列 | The token. | Yes | |
| logprob | number | このトークンの対数確率。 | Yes | |
| bytes | アレイ | トークンのUTF-8バイト表現を表す整数のリストです。 複数のトークンで表される文字や、それらのバイト表現を組み合わせて正しいテキスト表現を生成する場合に有用です。 トークンにバイト表現がなければ null ことがあります。 |
Yes | |
| top_logprobs | アレイ | このトークン位置における最も可能性が高いトークンとその対数確率のリスト。 まれに、返却された top_logprobs 数が少ないこともあります。 |
Yes |
chatCompletionResponseMessage
モデルによって生成されるチャット完了メッセージ。
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| ロール | chatCompletionResponseMessageRole | レスポンスメッセージの作者の役割。 | Yes | |
| refusal | 文字列 | モデルによって生成される拒否メッセージ。 | Yes | |
| コンテンツ | 文字列 | メッセージの内容。 | Yes | |
| tool_calls | アレイ | モデルによって生成されるツール呼び出し、例えば関数呼び出しなどです。 | No | |
| function_call | chatCompletionFunctionCall | 廃止され、 tool_callsに置き換えられました。 モデルが生成した関数の名前と引数を呼び出す必要があります。 |
No | |
| コンテキスト | azureChatExtensionsMessageContext | Azure OpenAIチャット拡張機能が関与した際に利用可能な追加のコンテキスト情報の表現です 対応するチャット完了応答の生成において。 このコンテキスト情報は、 AzureのOpenAIリクエストを使い、対応する拡張機能を使うように設定しています。 |
No |
chatCompletionResponseMessageRole
レスポンスメッセージの作者の役割。
説明:応答メッセージの作者の役割。
Type: string
Default:
Enum Values:
- アシスタント
chatCompletionToolChoiceOption
モデルが呼び出すツール(もしあれば)を制御します。
none つまり、モデルはツールを呼び出さず、代わりにメッセージを生成します。
auto つまり、モデルはメッセージを生成するか、1つ以上のツールを呼び出すかを選べるということです。
required モデルは1つ以上のツールを呼び出しなければならないことを意味します。
{"type": "function", "function": {"name": "my_function"}}で特定のツールを指定すると、モデルはそのツールを呼び出すことを強制します。
none ツールがない場合のデフォルトです。
auto ツールがある場合はデフォルトです。
このコンポーネントは以下のいずれかである:
chatCompletionNamedToolChoice
モデルが使うべきツールを指定します。 モデルに特定の関数を強制的に呼び出すために使います。
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| 型 | 列挙型 | 道具の種類。 現在、サポートされているのは function のみです。可能な値:関数 |
Yes | |
| 関数 | オブジェクト | Yes |
関数の性質
name
| Name | タイプ | Description | Default |
|---|---|---|---|
| name | 文字列 | 呼び出しする関数の名前。 |
ParallelToolCalls
工具使用中に並列関数呼び出しを有効にするかどうか。
このコンポーネントにはプロパティが定義されていません。
chatCompletionMessageToolCalls
モデルによって生成されるツール呼び出し、例えば関数呼び出しなどです。
このコンポーネントにはプロパティが定義されていません。
chatCompletionFunctionCall
廃止され、 tool_callsに置き換えられました。 モデルが生成した関数の名前と引数を呼び出す必要があります。
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| name | 文字列 | 呼び出しする関数の名前。 | Yes | |
| arguments | 文字列 | モデルがJSON形式で生成した関数を呼び出す引数。 なお、モデルが必ずしも有効なJSONを生成するわけではなく、関数スキーマで定義されていないパラメータを生成することもあります。 関数を呼び出す前に、コード内の引数を検証してください。 | Yes |
completionUsage
完了リクエストの使用統計。
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| prompt_tokens | 整数 | プロンプト内のトークンの数。 | Yes | |
| completion_tokens | 整数 | 生成された完了項目のトークン数。 | Yes | |
| total_tokens | 整数 | リクエストで使用されたトークンの総数(プロンプト+完了)。 | Yes | |
| completion_tokens_details | オブジェクト | 完了で使われたトークンの内訳。 | No |
completion_tokens_detailsの性質
reasoning_tokens
| Name | タイプ | Description | Default |
|---|---|---|---|
| reasoning_tokens | 整数 | 推論のためにモデルによって生成されたトークン。 |
chatCompletionTool
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| 型 | 列挙型 | 道具の種類。 現在、サポートされているのは function のみです。可能な値:関数 |
Yes | |
| 関数 | FunctionObject | Yes |
FunctionParameters
関数が受け入れるパラメータは、JSONスキーマオブジェクトとして記述されます。 例についてはガイドと、フォーマットに関するドキュメントについてはJSON Schemaの参考文献をご覧ください。
parametersを省略すると、パラメータリストが空の関数を定義します。
このコンポーネントにはプロパティが定義されていません。
FunctionObject
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| description | 文字列 | 関数が何をするかの記述で、モデルがいつどのように関数を呼び出すかを決めるためのもの。 | No | |
| name | 文字列 | 呼び出す関数の名前。 a-z、A-Z、0-9、またはアンダースコアとダッシュを含む必要があり、最大64までの長さです。 | Yes | |
| parameters | FunctionParameters | 関数が受け入れるパラメータは、JSONスキーマオブジェクトとして記述されます。 例についてはガイドと、フォーマットに関するドキュメントについてはJSON Schemaの参考文献をご覧ください。 parametersを省略すると、パラメータリストが空の関数を定義します。 |
No | |
| strict | boolean | 関数呼び出しを生成する際に厳密なスキーマ準拠を有効にするかどうか。 trueに設定すると、モデルは parameters フィールドで定義された正確なスキーマに従います。
true
strict時にはJSONスキーマの一部のみがサポートされます。 |
No | False |
ResponseFormatText
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| 型 | 列挙型 | 定義される応答形式の種類: text可能な値:テキスト |
Yes |
ResponseFormatJsonObject
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| 型 | 列挙型 | 定義される応答形式の種類: json_object可能な値:json_object |
Yes |
ResponseFormatJsonSchemaSchema
応答形式のスキーマは、JSONスキーマオブジェクトとして説明されます。
このコンポーネントにはプロパティが定義されていません。
ResponseFormatJsonSchema
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| 型 | 列挙型 | 定義される応答形式の種類: json_schema可能な値:json_schema |
Yes | |
| json_schema | オブジェクト | Yes |
json_schemaの性質
description
| Name | タイプ | Description | Default |
|---|---|---|---|
| description | 文字列 | 回答形式の説明であり、モデルがその形式での応答方法を決定するために用いられます。 |
name
| Name | タイプ | Description | Default |
|---|---|---|---|
| name | 文字列 | レスポンス形式の名前です。 a-z、A-Z、0-9、またはアンダースコアとダッシュを含む必要があり、最大64までの長さです。 |
スキーマ
| Name | タイプ | Description | Default |
|---|---|---|---|
| スキーマ | ResponseFormatJsonSchemaSchema | 応答形式のスキーマは、JSONスキーマオブジェクトとして説明されます。 |
strict
| Name | タイプ | Description | Default |
|---|---|---|---|
| strict | boolean | 出力を生成する際に厳格なスキーマ準拠を有効にするかどうか。 trueに設定すると、モデルは常に schema フィールドで定義された正確なスキーマに従います。
true
strict時にはJSONスキーマの一部のみがサポートされます。 |
False |
chatCompletionChoiceCommon
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| インデックス | 整数 | No | ||
| finish_reason | 文字列 | No |
createTranslationRequest
Translation request.
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| ファイル | 文字列 | 翻訳用の音声ファイル。 | Yes | |
| ダイアログを表示する | 文字列 | モデルのスタイルをガイドしたり、前の音声セグメントを続けるためのオプションテキスト。 プロンプトは英語で書かれるべきです。 | No | |
| response_format | audioResponseFormat | 出力のフォーマットを定義します。 | No | |
| temperature | number | サンプリング温度は0から1の間です。 0.8のような高い値は出力をよりランダムにし、0.2のように低い値はより集中して決定的になります。 0に設定された場合、モデルは対数確率で一定の閾値に達するまで自動的に温度を上げます。 | No | 0 |
audioResponse
json response_format翻訳または転写応答
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| SMS 送信 | 文字列 | 翻訳または文字起こしのテキスト。 | Yes |
audioVerboseResponse
response_formatが翻訳または転写された応答verbose_json
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| SMS 送信 | 文字列 | 翻訳または文字起こしのテキスト。 | Yes | |
| タスク | 文字列 | 音声タスクの種類。 | No | |
| 言語 | 文字列 | Language. | No | |
| duration | number | Duration. | No | |
| segments | アレイ | No |
audioResponseFormat
出力のフォーマットを定義します。
説明:出力のフォーマットを定義します。
Type: string
Default:
Enum Values:
- json
- SMS 送信
- srt
- verbose_json
- vtt
createTranscriptionRequest
Transcription request.
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| ファイル | 文字列 | 音声ファイルオブジェクトを文字起こしします。 | Yes | |
| ダイアログを表示する | 文字列 | モデルのスタイルをガイドしたり、前の音声セグメントを続けるためのオプションテキスト。 プロンプトは音声言語に合っているべきです。 | No | |
| response_format | audioResponseFormat | 出力のフォーマットを定義します。 | No | |
| temperature | number | サンプリング温度は0から1の間です。 0.8のような高い値は出力をよりランダムにし、0.2のように低い値はより集中して決定的になります。 0に設定された場合、モデルは対数確率で一定の閾値に達するまで自動的に温度を上げます。 | No | 0 |
| 言語 | 文字列 | 入力音声の言語。 入力言語をISO-639-1形式で提供することで、精度と遅延が向上します。 | No |
audioSegment
文字起こしまたは翻訳セグメント。
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| id | 整数 | Segment identifier. | No | |
| seek | number | セグメントのオフセット。 | No | |
| start | number | セグメント開始はずれています。 | No | |
| end | number | セグメントの端がずれています。 | No | |
| SMS 送信 | 文字列 | Segment text. | No | |
| tokens | アレイ | テキストのトークン。 | No | |
| temperature | number | Temperature. | No | |
| avg_logprob | number | 平均対数確率。 | No | |
| compression_ratio | number | Compression ratio. | No | |
| no_speech_prob | number |
no speechの確率。 |
No |
imageQuality
生成される画像の品質。
説明:生成される画像の品質。
Type: string
Default: standard
エナム名:品質
Enum Values:
| Value | Description |
|---|---|
| 標準 | 標準品質の画像は標準的な品質で作られます。 |
| hd | HD画質は、より細かく、画像全体でより一貫性のある画像を作り出します。 |
imagesResponseFormat
生成された画像が返される形式。
説明:生成された画像が返される形式。
Type: string
Default: url
列挙名:ImagesResponseFormat
Enum Values:
| Value | Description |
|---|---|
| url | 生成された画像をダウンロードするための一時的なアクセスを提供するURLです。 |
| b64_json | 生成された画像はbase64エンコード文字列として返されます。 |
imageSize
生成される画像のサイズ。
説明:生成される画像のサイズ。
Type: string
Default: 1024x1024
エナム名:サイズ
Enum Values:
| Value | Description |
|---|---|
| 1792x1024 | 生成される画像の望ましいサイズは1792×1024ピクセルです。 |
| 1024x1792 | 生成される画像の希望サイズは1024×1792ピクセルです。 |
| 1024x1024 | 生成画像の希望サイズは1024×1024ピクセルです。 |
imageStyle
生成された画像のスタイル。
説明:生成された画像のスタイル。
Type: string
Default: vivid
エンム名:スタイル
Enum Values:
| Value | Description |
|---|---|
| vivid | Vividは超リアルでドラマチックな映像を作り出します。 |
| natural | 自然なものは、より自然で、過度にリアルでないイメージを作り出します。 |
imageGenerationsRequest
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| ダイアログを表示する | 文字列 | 目的の画像のテキスト説明。 最大長さは4,000文字です。 | Yes | |
| n | 整数 | 生成すべき画像の数。 | No | 1 |
| size | imageSize | 生成される画像のサイズ。 | No | 1024x1024 |
| response_format | imagesResponseFormat | 生成された画像が返される形式。 | No | url |
| ユーザー | 文字列 | エンドユーザーを表す一意の識別子であり、悪用の監視や検出に役立ちます。 | No | |
| quality | imageQuality | 生成される画像の品質。 | No | 標準 |
| スタイル | imageStyle | 生成された画像のスタイル。 | No | vivid |
generateImagesResponse
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| created | 整数 | 操作が作られたUnixのタイムスタンプ。 | Yes | |
| データ | アレイ | 成功した場合の操作結果データ | Yes |
imageResult
成功すれば画像のURLまたは符号化された画像が表示され、そうでなければエラーとなります。
| Name | タイプ | Description | Required | Default |
|---|---|---|---|---|
| url | 文字列 | 画像のURLです。 | No | |
| b64_json | 文字列 | base64符号化画像 | No | |
| content_filter_results | dalleContentFilterResults | コンテンツフィルタリングの結果に関する情報。 | No | |
| revised_prompt | 文字列 | 画像を生成するために使われたプロンプト、もしプロンプトに修正があったなら。 | No | |
| prompt_filter_results | dalleFilterResults | コンテンツフィルタリングのカテゴリ(ヘイト、性的、暴力、self_harm)、検出されたかどうか、そして有害なコンテンツの強度やリスクレベルを決定する重症度レベル(very_low、低、中、高)およびフィルタリングの有無に関する情報。 脱獄コンテンツや罵り言葉に関する情報、検出されたかどうか、フィルタリングされているかどうか。 顧客ブロックリストの情報(フィルタリング済みか)やID(ID)も含めて。 | No |
Completions extensions
完了拡張はAzure OpenAIのデータプレーン推論仕様の最新GAバージョンには含まれていません。
Chatmessage
チャットメッセージオブジェクトは、最新のGAバージョンであるAzure OpenAIのデータプレーン推論仕様には含まれていません。
テキスト読み上げ(プレビュー)
現在、Azure OpenAIデータプレーン推論仕様の最新 Azure OpenAI GA バージョンには含まれていません。この機能については最新の preview バージョンを参照してください。
Next steps
モデルやREST APIでのファインチューニングについて学びましょう。 OpenAI をAzureする基になるモデルの詳細について説明します。