Share via


概要: Azure AI Studio を使用してモデル、フロー、Web アプリをデプロイする

重要

この記事で説明する機能の一部は、プレビューでのみ使用できる場合があります。 このプレビューはサービス レベル アグリーメントなしで提供されており、運用環境ではお勧めしません。 特定の機能はサポート対象ではなく、機能が制限されることがあります。 詳しくは、Microsoft Azure プレビューの追加使用条件に関するページをご覧ください。

Azure AI Studio では、大規模な言語モデル (LLM)、フロー、Web アプリのデプロイがサポートされています。 LLM またはフローをデプロイすると、Web サイト、アプリケーション、またはその他の運用環境で使用できるようになります。 これには通常、サーバーまたはクラウドでモデルをホストし、ユーザーがモデルと対話するための API またはその他のインターフェイスを作成することが含まれます。

モデルとのこの対話のことを "推論" と呼ぶことがよくあります。 推論とは、モデルに新しい入力データを適用して出力を生成するプロセスのことです。 推論は、さまざまなアプリケーションで使用できます。 たとえば、チャット補完モデルを使用して、ユーザーが入力している単語や語句をリアルタイムでオートコンプリートできます。 チャット モデルを使用すると、"シアトルでの 1 日の訪問スケジュールを作成できますか?" に対して応答を生成できます。 可能性は無限です。

モデルのデプロイ

最初に次のような疑問があるかもしれません。

  • "どのようなモデルをデプロイできますか?"Azure AI Studio では、Microsoft、Hugging Face、Meta によってキュレーションされた最も一般的な大規模言語およびビジョン基盤モデルのデプロイがサポートされています。
  • "適切なモデルを選択するにはどうすればよいですか?"Azure AI Studio には、ユース ケースに基づいてモデルを検索およびフィルター処理できるモデルカタログが用意されています。 また、プロジェクトにデプロイする前に、サンプル プレイグラウンドでモデルをテストすることもできます。
  • "Azure AI Studio のどこからモデルをデプロイできますか?"モデルは、モデル カタログまたはプロジェクトのデプロイ ページからデプロイできます。

Azure AI Studio によりデプロイが簡略化されます。 単純な選択またはコード行によってモデルがデプロイされ、アプリケーションが使用する API エンドポイントが生成されます。

Azure OpenAI のモデル

Azure OpenAI を使用すると、Azure からエンタープライズ機能を使用して最新の OpenAI モデルにアクセスできます。 AI Studio で OpenAI モデルをデプロイする方法の詳細を確認してください。

オープン モデル

モデル カタログでは、さまざまなモダリティでさまざまなモデルにアクセスできます。 モデル カタログ内の特定のモデルは、従量課金制でサービスとしてデプロイでき、企業のセキュリティとコンプライアンス組織のニーズを維持しながら、サブスクリプションでホストせずに API として使用する方法が提供されます。

サービスとしてのモデル (Maas) を使用してモデルをデプロイする

このデプロイ オプションでは、サブスクリプションからのクォータを必要としません。 サーバーレス API デプロイとしてデプロイを行い、従量課金制でトークンごとに課金が行われます。 サービスとしてのモデルを使用して Llama 2 モデル ファミリをデプロイして使用する方法について説明します。

ホストされたマネージド インフラストラクチャを使用してモデルをデプロイする

また、マネージド インフラストラクチャ、仮想マシン、容量管理用の多数のインスタンスを使用して、独自のサブスクリプションでオープン モデルをホストすることもできます。 現在、Azure AI、HuggingFace、Nvidia から幅広いモデルを提供しています。 オープン モデルをリアルタイム エンドポイントにデプロイする方法に関する詳細を確認します。

Azure AI Studio での LLM のデプロイと推論に関する課金

次の表では、Azure AI Studio での LLM のデプロイと推論に対する課金について説明します。 コストの追跡方法に関する詳細については、Azure Marketplace 全体で提供されるモデルのコストの監視に関するページを参照してください。

ユース ケース Azure OpenAI のモデル サーバーレス API としてデプロイされたモデル (従量課金制) マネージド コンピューティングを使用してデプロイされたモデル
モデル カタログからプロジェクトへのモデルのデプロイ いいえ。Azure OpenAI モデルをプロジェクトにデプロイしても課金されません。 はい。エンドポイントのインフラストラクチャごとに課金されます1 はい。モデルをホストするインフラストラクチャに対して課金されます2
プロジェクトにモデルをデプロイした後のプレイグラウンドでのチャット モードのテスト はい。トークンの使用状況に基づいて課金されます はい。トークンの使用状況に基づいて課金されます なし。
モデル カタログのサンプル プレイグラウンドでのモデルのテスト (該当する場合) 適用なし なし。 なし。
プロジェクトのプレイグラウンド (該当する場合) またはプロジェクトのデプロイ詳細ページの [テスト] タブでのモデルのテスト。 はい。トークンの使用状況に基づいて課金されます はい。トークンの使用状況に基づいて課金されます なし。

1 最小エンドポイント インフラストラクチャは 1 分単位で課金されます。 従量課金制でモデル自体をホストしているインフラストラクチャに対しては課金されません。 エンドポイントが削除された後、それ以上の料金は発生しません。

2 課金は、SKU と、作成時以降にデプロイで使用されたインスタンスの数に応じて分単位で行われます。 エンドポイントが削除された後、それ以上の料金は発生しません。

フローのデプロイ

フローとは何ですか。また、デプロイする理由は何ですか? フローとは、生成型 AI アプリケーションの構築に使用できるツールのシーケンスです。 フローのデプロイは、独自のデータや埋め込み、ベクター DB 参照などの他のコンポーネントを使用してフローをカスタマイズできる点で、モデルのデプロイとは異なります。 カスタム接続。 ハウツー ガイドについては、「Azure AI Studio を使用したフローのデプロイ」を参照してください。

たとえば、データを使用して、ユーザーの問い合わせに対する情報に基づいた応答を生成するチャットボットを構築できます。 プレイグラウンドにデータを追加すると、プロンプト フローが自動的に生成されます。 フローをそのままデプロイすることも、独自のデータやその他のコンポーネントを使用してさらにカスタマイズすることもできます。 Azure AI Studio では、独自のフローを一から作成することもできます。

Azure AI Studio でフローを作成するどの方法を選択するかにかかわらず、それを迅速にデプロイし、アプリケーションが使用する API エンドポイントを生成できます。

Web アプリのデプロイ

デプロイするモデルまたはフローは、Azure でホストされている Web アプリケーションで使用できます。 Azure AI Studio には、Web アプリを簡単にデプロイする方法が用意されています。 詳細については、Azure AI Enterprise Chat に関するチュートリアルを参照してください。

デプロイされたモデルの AI の安全性の計画

GPT-4 などの Azure OpenAI モデルの場合、Azure AI Studio では、AI の責任ある使用を保証するために、デプロイ中に AI の安全性フィルターが提供されます。 AI コンテンツの安全性フィルターを使用すると、有害および機密性の高いコンテンツをモデレートして、AI 強化アプリケーションの安全性を促進できます。 Azure AI Studio では、AI の安全性フィルターに加えて、デプロイされたモデルのモデルモニタリングも提供されます。 LLM のモデルモニタリングでは、最新の GPT 言語モデルを使用して監視し、モデルの出力が生成の安全性と品質の設定されたしきい値に対してパフォーマンスが低い場合にアラートを生成します。 たとえば、モデルで生成された回答が入力ソースからの情報にどの程度一致しているか ("現実性")、および実測値の文章やドキュメントにどの程度適合しているか ("類似性") を評価するモニターを構成できます。

デプロイされたモデルのパフォーマンスの最適化

LLM を最適化するには、運用メトリック (待機時間など)、品質メトリック (精度など)、コストなど、いくつかの要因を慎重に検討する必要があります。 経験豊富なデータ サイエンティストやエンジニアと協力して、モデルが特定のユース ケースに合わせて最適化されるようにすることが重要です。

次のステップ