次の方法で共有


Azure AI モデル推論 (プレビュー)

サーバーレスエンドポイントとセルフホステッド エンドポイントを使用して Azure AI と Azure ML にデプロイされたモデルのモデル推論 API。

このコネクタは、次の製品とリージョンで使用できます。

Service クラス リージョン
ロジック アプリ Standard 次を除くすべての Logic Apps リージョン :
     - Azure Government リージョン
     - 中国リージョンAzure
     - 米国国防総省 (DoD)
連絡先
名前 マイクロソフト
URL https://support.microsoft.com
コネクタ メタデータ
発行者 Microsoft Copilot Studio
プライバシー ポリシー https://privacy.microsoft.com/privacystatement
ウェブサイト https://learn.microsoft.com/en-us/azure/ai-studio/reference/reference-model-inference-api
カテゴリ AI

Azure AI 推論コネクタを使用して、Azure ai Studio から独自のモデルに接続しましょう

前提条件

  • Azure ai Studio にデプロイされたモデル

資格情報を取得する

API 要求を認証するには、モデルのエンドポイントと API キーが必要です。

azure open ai Studio -> デプロイでリソースに移動します。 次に、[エンドポイント] の下のエンドポイントは "ターゲット URI" で、キーは [キー] の下にあります。

サポートされている操作

Azure AI 推論コネクタでは、次の操作がサポートされています。

  1. GetModelInfo - エンドポイントの下にデプロイされたモデルに関する情報を返します

[Required parameters]\(必須のパラメーター\):

* `api-version` - The version of the Inference API
  1. GetChatCompletions - 指定されたチャット会話のモデル応答を作成します

[Required parameters]\(必須のパラメーター\):

* `api-version` - The version of the Inference API
* `messages` - The chat conversation to be completed
* `model` - The Deployment name of the model, Required only for openai models

省略可能なパラメーターの既定値:

* `frequency_penalty` - 0
* `presence_penalty` - 0
* `temperature` - 0.7
* `top_p` - 1

接続を作成する

コネクタでは、次の認証の種類がサポートされています。

デフォルト 接続を作成するためのパラメーター。 すべてのリージョン 共有不可

デフォルト

適用対象: すべてのリージョン

接続を作成するためのパラメーター。

これは共有可能な接続ではありません。 電源アプリが別のユーザーと共有されている場合、別のユーザーは新しい接続を明示的に作成するように求められます。

名前 タイプ 説明 必須
Azure モデル エンドポイントの URL 文字列 デプロイしたモデル エンドポイントの URL を入力します。 例: https://resource.openai.azure.com 正しい
API キー securestring この API の承認 正しい

調整制限

名前 呼び出し 更新期間
接続ごとの API 呼び出し 100 60 秒

アクション

エンドポイントの下にデプロイされたモデルに関する情報を返します。

AI モデルに関する情報を返します。 このメソッドは、指定されたエンドポイント上の /info ルートに対して REST API 呼び出しを行います。 このメソッドは、サーバーレス API またはマネージド コンピューティング エンドポイントを使用する場合にのみ機能します。 GitHub Models エンドポイントまたは Azure OpenAI エンドポイントでは機能しません。

指定されたチャット会話のモデル応答を作成します

指定されたチャット会話のモデル応答を作成します。

エンドポイントの下にデプロイされたモデルに関する情報を返します。

AI モデルに関する情報を返します。 このメソッドは、指定されたエンドポイント上の /info ルートに対して REST API 呼び出しを行います。 このメソッドは、サーバーレス API またはマネージド コンピューティング エンドポイントを使用する場合にのみ機能します。 GitHub Models エンドポイントまたは Azure OpenAI エンドポイントでは機能しません。

パラメーター

名前 キー 必須 説明
"YYYY-MM-DD" または "YYYY-MM-DD-preview" 形式の API のバージョン。
api-version True string

"YYYY-MM-DD" または "YYYY-MM-DD-preview" 形式の API のバージョン。

要求をルーティングするデプロイの名前。
azureml-model-deployment string

要求をルーティングするデプロイの名前。 複数のデプロイをサポートするエンドポイントでサポートされます。

戻り値

AI モデルに関するいくつかの基本情報を表します。

本文
ModelInfo

指定されたチャット会話のモデル応答を作成します

指定されたチャット会話のモデル応答を作成します。

パラメーター

名前 キー 必須 説明
コンテンツ
content True string

システム メッセージのコンテンツ。

ロール
role True string

メッセージ作成者のロール。この場合は system

名前
name string

参加者の名前 (省略可能)。 同じロールの参加者を区別するためのモデル情報を指定します。

頻度ペナルティ (frequency_penalty)
frequency_penalty float

生成されたテキストの累積頻度に基づいて、生成されたトークンが出現する確率に影響する値。 正の値を指定すると、頻度の増加に伴ってトークンが表示されにくく、モデルが同じステートメントを逐語的に繰り返す可能性が低下します。 サポートされる範囲は [-2, 2] です。

ストリーミング
stream boolean

この要求に対してチャットの完了をストリーミングする必要があるかどうかを示す値。

presence_penalty
presence_penalty float

生成されたテキスト内の既存の存在に基づいて生成されたトークンが出現する確率に影響する値。 正の値を指定すると、トークンが既に存在する場合にトークンが表示される可能性が低くなり、モデルが新しいトピックを出力する可能性が高くなります。 サポートされる範囲は [-2, 2] です。

温度
temperature float

生成された完了の明らかな創造性を制御する使用するサンプリング温度。 値が大きいほど出力がランダムになり、値が小さいほど結果のフォーカスが高くなり、決定論的になります。 これら 2 つの設定の相互作用を予測するのが困難であるため、同じ完了要求の温度とtop_pを変更することはお勧めしません。 サポートされる範囲は [0, 1] です。

top_p
top_p float

核サンプリングと呼ばれる温度でのサンプリングの代替。 この値により、モデルは、指定された確率質量を持つトークンの結果を考慮します。 たとえば、値が 0.15 の場合、上位 15% の確率質量を含むトークンのみが考慮されます。 これら 2 つの設定の相互作用を予測するのが困難であるため、同じ完了要求の温度とtop_pを変更することはお勧めしません。 サポートされる範囲は [0, 1] です。

マックス_トークン
max_tokens integer

生成するトークンの最大数。

type string

text または json_object のいずれかである必要があります。

stop
stop array of string

完了の生成を終了するテキスト シーケンスのコレクション。

type True string

ツールの種類。 現時点では、function のみがサポートされています。

説明
description string

関数の動作の説明。 モデルでは、関数を選択してそのパラメーターを解釈するときに、この説明が使用されます。

名前
name True string

呼び出す関数の名前。

パラメータ
parameters object

関数が受け入れるパラメーター (JSON スキーマ オブジェクトとして記述)。

seed
seed integer

指定した場合、システムは、同じシードとパラメーターを使用して繰り返される要求が同じ結果を返すように、決定論的にサンプリングするように最善を尽くします。 決定性は保証されません。

モデル
model string

エンドポイントで複数のモデルが使用可能な場合に使用する特定の AI モデルの ID。

"YYYY-MM-DD" または "YYYY-MM-DD-preview" 形式の API のバージョン。
api-version True string

"YYYY-MM-DD" または "YYYY-MM-DD-preview" 形式の API のバージョン。

不明なパラメーターが渡された場合の動作を制御します。
extra-parameters string

REST API によって定義されていない追加のパラメーターが JSON 要求ペイロードで渡された場合の動作を制御します。 これにより、HTTP 要求ヘッダー extra-parametersが設定されます。 error - 要求ペイロードに追加のパラメーターが検出された場合、サービスはエラーになります。 これがサービスの既定値です。 drop - サービスは、要求ペイロード内の追加のパラメーターを無視 (ドロップ) します。 既知のパラメーターのみがバックエンド AI モデルに渡されます。 パススルー - サービスはバックエンド AI モデルに追加のパラメーターを渡します。

要求をルーティングするデプロイの名前。
azureml-model-deployment string

要求をルーティングするデプロイの名前。 複数のデプロイをサポートするエンドポイントでサポートされます。

戻り値

指定された入力に基づいて、モデルによって返されるチャット入力候補応答を表します。

定義

ModelInfo

AI モデルに関するいくつかの基本情報を表します。

名前 パス 説明
モデル名
model_name string

AI モデルの名前。

model_type string

AI モデルの種類。 プロファイルの一意識別子。

model_provider_name
model_provider_name string

モデル プロバイダー名。

capabilities
capabilities

ChatCompletionMessageToolCalls

関数呼び出しなど、モデルによって生成されるツール呼び出し。

名前 パス 説明
アイテム
ChatCompletionMessageToolCall

ChatCompletionMessageToolCall

名前 パス 説明
識別子
id string

ツール呼び出しの ID。

type string

ツールの種類。 現時点では、function のみがサポートされています。

名前
function.name string

呼び出す関数の名前。

arguments
function.arguments string

モデルによって JSON 形式で生成された、関数を呼び出すための引数。 モデルは常に有効な JSON を生成するとは限らず、関数スキーマで定義されていないパラメーターを生成する可能性があることに注意してください。 関数を呼び出す前に、コード内の引数を検証してください。

ChatCompletionResponseMessage

モデルによって生成されたチャット入力候補メッセージ。

名前 パス 説明
コンテンツ
content string

メッセージの内容。

tool_calls
tool_calls ChatCompletionMessageToolCalls

関数呼び出しなど、モデルによって生成されるツール呼び出し。

ロール
role string

このメッセージの作成者の役割。

CreateChatCompletionResponse

指定された入力に基づいて、モデルによって返されるチャット入力候補応答を表します。

名前 パス 説明
識別子
id string

このチャット完了応答に関連付けられている一意の識別子。

選択肢
choices array of object

チャット入力候補の選択肢の一覧。 n が 1 より大きい場合は複数の値を指定できます。

choices.finish_reason string

モデルがトークンの生成を停止した理由。 これは、モデルが自然な停止ポイントまたは指定された停止シーケンスにヒットした場合に stop されます。要求で指定されたトークンの最大数に達した場合length 、コンテンツ フィルターからのフラグのためにコンテンツが省略された場合content_filter 、モデルがツールを呼び出した場合tool_calls

content_filter_result
choices.content_filter_result
インデックス
choices.index integer

このチャット入力候補に関連付けられている順序付きインデックス。

メッセージ
choices.message ChatCompletionResponseMessage

モデルによって生成されたチャット入力候補メッセージ。

作成済み
created integer

この完了応答の生成アクティビティに関連付けられた最初のタイムスタンプ。1970 年 1 月 1 日の Unix エポック 00:00 の開始からの秒数として表されます。

モデル
model string

チャット入力候補に使われるモデル。

オブジェクト
object string

オブジェクトの種類。これは常に chat.completion です。

使用
usage CompletionUsage

完了要求に対して処理されたトークン数の表現。 カウントでは、プロンプト、選択肢、選択肢の代替、best_of世代、およびその他のコンシューマー全体のすべてのトークンが考慮されます。

CompletionUsage

完了要求に対して処理されたトークン数の表現。 カウントでは、プロンプト、選択肢、選択肢の代替、best_of世代、およびその他のコンシューマー全体のすべてのトークンが考慮されます。

名前 パス 説明
completion_tokens
completion_tokens integer

すべての完了エミッションで生成されたトークンの数。

prompt_tokens
prompt_tokens integer

入力候補要求の指定されたプロンプト内のトークンの数。

total_tokens
total_tokens integer

完了要求と応答に対して処理されたトークンの合計数。