Azure AI モデル推論 (プレビュー)
サーバーレスエンドポイントとセルフホステッド エンドポイントを使用して Azure AI と Azure ML にデプロイされたモデルのモデル推論 API。
このコネクタは、次の製品とリージョンで使用できます。
| Service | クラス | リージョン |
|---|---|---|
| ロジック アプリ | Standard | 次を除くすべての Logic Apps リージョン : - Azure Government リージョン - 中国リージョンAzure - 米国国防総省 (DoD) |
| 連絡先 | |
|---|---|
| 名前 | マイクロソフト |
| URL | https://support.microsoft.com |
| コネクタ メタデータ | |
|---|---|
| 発行者 | Microsoft Copilot Studio |
| プライバシー ポリシー | https://privacy.microsoft.com/privacystatement |
| ウェブサイト | https://learn.microsoft.com/en-us/azure/ai-studio/reference/reference-model-inference-api |
| カテゴリ | AI |
Azure AI 推論コネクタを使用して、Azure ai Studio から独自のモデルに接続しましょう
前提条件
- Azure ai Studio にデプロイされたモデル
資格情報を取得する
API 要求を認証するには、モデルのエンドポイントと API キーが必要です。
azure open ai Studio -> デプロイでリソースに移動します。 次に、[エンドポイント] の下のエンドポイントは "ターゲット URI" で、キーは [キー] の下にあります。
サポートされている操作
Azure AI 推論コネクタでは、次の操作がサポートされています。
- GetModelInfo - エンドポイントの下にデプロイされたモデルに関する情報を返します
[Required parameters]\(必須のパラメーター\):
* `api-version` - The version of the Inference API
- GetChatCompletions - 指定されたチャット会話のモデル応答を作成します
[Required parameters]\(必須のパラメーター\):
* `api-version` - The version of the Inference API
* `messages` - The chat conversation to be completed
* `model` - The Deployment name of the model, Required only for openai models
省略可能なパラメーターの既定値:
* `frequency_penalty` - 0
* `presence_penalty` - 0
* `temperature` - 0.7
* `top_p` - 1
接続を作成する
コネクタでは、次の認証の種類がサポートされています。
| デフォルト | 接続を作成するためのパラメーター。 | すべてのリージョン | 共有不可 |
デフォルト
適用対象: すべてのリージョン
接続を作成するためのパラメーター。
これは共有可能な接続ではありません。 電源アプリが別のユーザーと共有されている場合、別のユーザーは新しい接続を明示的に作成するように求められます。
| 名前 | タイプ | 説明 | 必須 |
|---|---|---|---|
| Azure モデル エンドポイントの URL | 文字列 | デプロイしたモデル エンドポイントの URL を入力します。 例: https://resource.openai.azure.com | 正しい |
| API キー | securestring | この API の承認 | 正しい |
調整制限
| 名前 | 呼び出し | 更新期間 |
|---|---|---|
| 接続ごとの API 呼び出し | 100 | 60 秒 |
アクション
| エンドポイントの下にデプロイされたモデルに関する情報を返します。 |
AI モデルに関する情報を返します。 このメソッドは、指定されたエンドポイント上の |
| 指定されたチャット会話のモデル応答を作成します |
指定されたチャット会話のモデル応答を作成します。 |
エンドポイントの下にデプロイされたモデルに関する情報を返します。
AI モデルに関する情報を返します。 このメソッドは、指定されたエンドポイント上の /info ルートに対して REST API 呼び出しを行います。 このメソッドは、サーバーレス API またはマネージド コンピューティング エンドポイントを使用する場合にのみ機能します。 GitHub Models エンドポイントまたは Azure OpenAI エンドポイントでは機能しません。
パラメーター
| 名前 | キー | 必須 | 型 | 説明 |
|---|---|---|---|---|
|
"YYYY-MM-DD" または "YYYY-MM-DD-preview" 形式の API のバージョン。
|
api-version | True | string |
"YYYY-MM-DD" または "YYYY-MM-DD-preview" 形式の API のバージョン。 |
|
要求をルーティングするデプロイの名前。
|
azureml-model-deployment | string |
要求をルーティングするデプロイの名前。 複数のデプロイをサポートするエンドポイントでサポートされます。 |
戻り値
AI モデルに関するいくつかの基本情報を表します。
- 本文
- ModelInfo
指定されたチャット会話のモデル応答を作成します
指定されたチャット会話のモデル応答を作成します。
パラメーター
| 名前 | キー | 必須 | 型 | 説明 |
|---|---|---|---|---|
|
コンテンツ
|
content | True | string |
システム メッセージのコンテンツ。 |
|
ロール
|
role | True | string |
メッセージ作成者のロール。この場合は |
|
名前
|
name | string |
参加者の名前 (省略可能)。 同じロールの参加者を区別するためのモデル情報を指定します。 |
|
|
頻度ペナルティ (frequency_penalty)
|
frequency_penalty | float |
生成されたテキストの累積頻度に基づいて、生成されたトークンが出現する確率に影響する値。 正の値を指定すると、頻度の増加に伴ってトークンが表示されにくく、モデルが同じステートメントを逐語的に繰り返す可能性が低下します。 サポートされる範囲は [-2, 2] です。 |
|
|
ストリーミング
|
stream | boolean |
この要求に対してチャットの完了をストリーミングする必要があるかどうかを示す値。 |
|
|
presence_penalty
|
presence_penalty | float |
生成されたテキスト内の既存の存在に基づいて生成されたトークンが出現する確率に影響する値。 正の値を指定すると、トークンが既に存在する場合にトークンが表示される可能性が低くなり、モデルが新しいトピックを出力する可能性が高くなります。 サポートされる範囲は [-2, 2] です。 |
|
|
温度
|
temperature | float |
生成された完了の明らかな創造性を制御する使用するサンプリング温度。 値が大きいほど出力がランダムになり、値が小さいほど結果のフォーカスが高くなり、決定論的になります。 これら 2 つの設定の相互作用を予測するのが困難であるため、同じ完了要求の温度とtop_pを変更することはお勧めしません。 サポートされる範囲は [0, 1] です。 |
|
|
top_p
|
top_p | float |
核サンプリングと呼ばれる温度でのサンプリングの代替。 この値により、モデルは、指定された確率質量を持つトークンの結果を考慮します。 たとえば、値が 0.15 の場合、上位 15% の確率質量を含むトークンのみが考慮されます。 これら 2 つの設定の相互作用を予測するのが困難であるため、同じ完了要求の温度とtop_pを変更することはお勧めしません。 サポートされる範囲は [0, 1] です。 |
|
|
マックス_トークン
|
max_tokens | integer |
生成するトークンの最大数。 |
|
|
型
|
type | string |
|
|
|
stop
|
stop | array of string |
完了の生成を終了するテキスト シーケンスのコレクション。 |
|
|
型
|
type | True | string |
ツールの種類。 現時点では、 |
|
説明
|
description | string |
関数の動作の説明。 モデルでは、関数を選択してそのパラメーターを解釈するときに、この説明が使用されます。 |
|
|
名前
|
name | True | string |
呼び出す関数の名前。 |
|
パラメータ
|
parameters | object |
関数が受け入れるパラメーター (JSON スキーマ オブジェクトとして記述)。 |
|
|
seed
|
seed | integer |
指定した場合、システムは、同じシードとパラメーターを使用して繰り返される要求が同じ結果を返すように、決定論的にサンプリングするように最善を尽くします。 決定性は保証されません。 |
|
|
モデル
|
model | string |
エンドポイントで複数のモデルが使用可能な場合に使用する特定の AI モデルの ID。 |
|
|
"YYYY-MM-DD" または "YYYY-MM-DD-preview" 形式の API のバージョン。
|
api-version | True | string |
"YYYY-MM-DD" または "YYYY-MM-DD-preview" 形式の API のバージョン。 |
|
不明なパラメーターが渡された場合の動作を制御します。
|
extra-parameters | string |
REST API によって定義されていない追加のパラメーターが JSON 要求ペイロードで渡された場合の動作を制御します。 これにより、HTTP 要求ヘッダー |
|
|
要求をルーティングするデプロイの名前。
|
azureml-model-deployment | string |
要求をルーティングするデプロイの名前。 複数のデプロイをサポートするエンドポイントでサポートされます。 |
戻り値
指定された入力に基づいて、モデルによって返されるチャット入力候補応答を表します。
定義
ModelInfo
AI モデルに関するいくつかの基本情報を表します。
| 名前 | パス | 型 | 説明 |
|---|---|---|---|
|
モデル名
|
model_name | string |
AI モデルの名前。 |
|
|
model_type | string |
AI モデルの種類。 プロファイルの一意識別子。 |
|
model_provider_name
|
model_provider_name | string |
モデル プロバイダー名。 |
|
capabilities
|
capabilities |
ChatCompletionMessageToolCalls
関数呼び出しなど、モデルによって生成されるツール呼び出し。
| 名前 | パス | 型 | 説明 |
|---|---|---|---|
|
アイテム
|
ChatCompletionMessageToolCall |
ChatCompletionMessageToolCall
| 名前 | パス | 型 | 説明 |
|---|---|---|---|
|
識別子
|
id | string |
ツール呼び出しの ID。 |
|
型
|
type | string |
ツールの種類。 現時点では、 |
|
名前
|
function.name | string |
呼び出す関数の名前。 |
|
arguments
|
function.arguments | string |
モデルによって JSON 形式で生成された、関数を呼び出すための引数。 モデルは常に有効な JSON を生成するとは限らず、関数スキーマで定義されていないパラメーターを生成する可能性があることに注意してください。 関数を呼び出す前に、コード内の引数を検証してください。 |
ChatCompletionResponseMessage
モデルによって生成されたチャット入力候補メッセージ。
| 名前 | パス | 型 | 説明 |
|---|---|---|---|
|
コンテンツ
|
content | string |
メッセージの内容。 |
|
tool_calls
|
tool_calls | ChatCompletionMessageToolCalls |
関数呼び出しなど、モデルによって生成されるツール呼び出し。 |
|
ロール
|
role | string |
このメッセージの作成者の役割。 |
CreateChatCompletionResponse
指定された入力に基づいて、モデルによって返されるチャット入力候補応答を表します。
| 名前 | パス | 型 | 説明 |
|---|---|---|---|
|
識別子
|
id | string |
このチャット完了応答に関連付けられている一意の識別子。 |
|
選択肢
|
choices | array of object |
チャット入力候補の選択肢の一覧。
|
|
|
choices.finish_reason | string |
モデルがトークンの生成を停止した理由。 これは、モデルが自然な停止ポイントまたは指定された停止シーケンスにヒットした場合に |
|
content_filter_result
|
choices.content_filter_result | ||
|
インデックス
|
choices.index | integer |
このチャット入力候補に関連付けられている順序付きインデックス。 |
|
メッセージ
|
choices.message | ChatCompletionResponseMessage |
モデルによって生成されたチャット入力候補メッセージ。 |
|
作成済み
|
created | integer |
この完了応答の生成アクティビティに関連付けられた最初のタイムスタンプ。1970 年 1 月 1 日の Unix エポック 00:00 の開始からの秒数として表されます。 |
|
モデル
|
model | string |
チャット入力候補に使われるモデル。 |
|
オブジェクト
|
object | string |
オブジェクトの種類。これは常に |
|
使用
|
usage | CompletionUsage |
完了要求に対して処理されたトークン数の表現。 カウントでは、プロンプト、選択肢、選択肢の代替、best_of世代、およびその他のコンシューマー全体のすべてのトークンが考慮されます。 |
CompletionUsage
完了要求に対して処理されたトークン数の表現。 カウントでは、プロンプト、選択肢、選択肢の代替、best_of世代、およびその他のコンシューマー全体のすべてのトークンが考慮されます。
| 名前 | パス | 型 | 説明 |
|---|---|---|---|
|
completion_tokens
|
completion_tokens | integer |
すべての完了エミッションで生成されたトークンの数。 |
|
prompt_tokens
|
prompt_tokens | integer |
入力候補要求の指定されたプロンプト内のトークンの数。 |
|
total_tokens
|
total_tokens | integer |
完了要求と応答に対して処理されたトークンの合計数。 |