次の方法で共有


サーバーレス API エンドポイントを異なるワークスペースから使用する

この記事では、デプロイされたワークスペースとは異なるワークスペースで既存のサーバーレス API エンドポイントを構成する方法について説明します。

モデル カタログ内の特定のモデルは、サーバーレス API としてデプロイできます。 この種類のデプロイは、組織が必要とする企業レベルのセキュリティとコンプライアンスを維持しながら、サブスクリプションでホストせずに API としてモデルを使う方法を提供します。 このデプロイ オプションでは、サブスクリプションからのクォータを必要としません。

次のような状況で、デプロイの作成に使用されたものとは異なるワークスペースでサーバーレス API エンドポイントを使用することが必要になる可能性があります。

  • 特定のワークスペースにデプロイを一元化し、組織内の異なるワークスペースから使用する必要があります。
  • モデルのサーバーレス デプロイを使用できる特定の Azure リージョンのワークスペースにモデルをデプロイする必要があります。 しかしそれを、その特定のモデルに対してサーバーレス デプロイを使用できない別のリージョンから使用する必要があります。

前提条件

  • 有効な支払い方法を持つ Azure サブスクリプション。 無料または試用版の Azure サブスクリプションは機能しません。 Azure サブスクリプションを持っていない場合は、始めるために有料の Azure アカウントを作成してください。

  • 既存のデプロイを使用する Azure Machine Learning ワークスペース

  • サーバーレス API エンドポイントにデプロイされたモデル。 この記事では、前に Meta-Llama-3-8B-Instruct モデルをデプロイしたと想定しています。 このモデルをサーバーレス API としてデプロイする方法については、「モデルをサーバーレス API としてデプロイする」を参照してください。

  • Azure Machine Learning を使用するには、次のソフトウェアをインストールする必要があります。

    互換性のある任意の Web ブラウザーを使用して、Azure Machine Learning スタジオ内を移動できます。

サーバーレス API エンドポイント接続を作成する

次の手順に従って、コンテナーを作成します。

  1. エンドポイントがデプロイされているワークスペースに接続します。

    Azure Machine Learning スタジオにアクセスし、接続対象のエンドポイントがデプロイされているワークスペースに移動します。

  2. 接続対象のエンドポイントの URL と資格情報を取得します。 この例では、エンドポイント名 meta-llama3-8b-qwerty の詳細を取得します。

    1. 左側のサイドバーで [エンドポイント] を選びます。

    2. [Serverless endpoints] (サーバーレス エンドポイント) タブを選択して、サーバーレス API エンドポイントを表示します。

    3. 接続対象のエンドポイントを選びます。

    4. エンドポイントの [詳細] タブで、[ターゲット URI][キー] の値をコピーします。

  3. 次に、"接続を作成してエンドポイントを使用する" ワークスペースに接続します。

  4. ワークスペースに接続を作成します。

    1. 接続を作成する必要がある対象ワークスペースに移動します。

    2. 左側のナビゲーション バーの [管理] セクションに移動し、[接続] を選びます。

    3. [作成] を選択します

    4. [サーバーレス モデル] を選択します。

    5. [ターゲット URI] には、前にコピーした値を貼り付けます。

    6. [キー] には、前にコピーした値を貼り付けます。

    7. 接続に名前 (この場合は meta-llama3-8b-connection) を付けます。

    8. [接続の追加] を選択します。

  5. これで、接続が利用できるようになりました。

  6. 接続が機能していることを検証するには、次のようにします。

    1. Azure Machine Learning スタジオの左側のナビゲーション バーで、[作成]>[プロンプト フロー] に移動します。

    2. [作成] を選択して新しいフローを作成します。

    3. [チャット フロー] ボックスで [作成] を選びます。

    4. [プロンプト フロー] に名前を付け、[作成] を選びます。

    5. グラフから [チャット] ノードを選択し、[チャット] セクションに移動します。

    6. [接続] に対して、ドロップダウン リストを開いて、作成したばかりの接続 (この場合は meta-llama3-8b-connection) を選びます。

    7. 上部のナビゲーション バーから [コンピューティング セッションを開始する] を選択して、プロンプト フローの自動ランタイムを開始します。

    8. [チャット] オプションを選びます。 メッセージを送信して応答を取得できるようになりました。