概要: Azure AI Studio で AI モデルをデプロイする
Azure AI Studio のモデルカタログは、生成 AI アプリケーションを構築するための幅広いモデルを検索して使用するためのハブです。 モデルが推論要求を受け取れるようにするには、モデルをデプロイする必要があります。 デプロイされたモデルとの対話のプロセスは、"推論" と呼ばれます。 Azure AI Studio では、ニーズとモデルの要件に応じて、これらのモデルの包括的なデプロイ オプション スイートが提供されます。
モデルのデプロイ
デプロイ オプションは、モデルの種類によって異なります。
- Azure OpenAI モデル: Azure のエンタープライズ機能を持つ最新の OpenAI モデル。
- サービス モデルとしてのモデル: これらのモデルでは、お客様のサブスクリプションからのコンピューティング クォータは必要ありません。 このオプションを使用すると、サービスとしてのモデル (MaaS) をデプロイできます。 サーバーレス API デプロイを使用して、従量課金制でトークンごとに課金が行われます。
- オープン モデルとカスタム モデル: モデル カタログは、オープン アクセスのモダリティ全体にわたるさまざまなモデルへのアクセスを提供します。 マネージド インフラストラクチャ、仮想マシン、容量管理用の多数のインスタンスを使用して、独自のサブスクリプションでオープン モデルをホストできます。 Azure OpenAI、Hugging Face、NVIDIA の幅広いモデルがあります。
Azure AI Studio には、次の 4 つの異なるデプロイ オプションが用意されています。
Name | Azure OpenAI Service | Azure AI モデル推論サービス | サーバーレス API | マネージド コンピューティング |
---|---|---|---|---|
デプロイできるモデルはどれですか? | Azure OpenAI のモデル | Azure OpenAI モデルとサービスとしてのモデル | サービスとしてのモデル | オープン モデルとカスタム モデル |
デプロイ リソース | Azure OpenAI Service | Azure AI サービス | AI プロジェクト | AI プロジェクト |
最適なタイミング | OpenAI モデルのみを使用することを計画している場合 | OpenAI を含む Azure AI カタログ内の主要なモデルを利用する予定の場合。 | 特定のプロバイダー (OpenAI を除く) の 1 つのモデルを使用する予定の場合。 | オープン モデルを使用する予定であり、使用できるコンピューティング クォータがサブスクリプションに十分に残っている場合。 |
課金情報ベース | トークンの使用法 | トークンの使用法 | トークンの使用法1 | コンピューティング コア時間2 |
デプロイの手順 | Azure OpenAI Service にデプロイする | Azure AI モデル推論にデプロイする | サーバーレス API にデプロイする | マネージド コンピューティングにデプロイする |
1 最小エンドポイント インフラストラクチャは 1 分単位で課金されます。 従量課金制でモデルをホストするインフラストラクチャに対しては課金されません。 エンドポイントを削除したら、それ以上の料金は発生しません。
2 課金は、製品層と、作成時以降にデプロイで使用されたインスタンスの数に応じて分単位で行われます。 エンドポイントを削除したら、それ以上の料金は発生しません。
ヒント
コストを追跡する方法の詳細については、「Azure Marketplace を通じて提供されるモデルのコストを監視する」を参照してください。
デプロイ オプションはどのような考えで選択すればよいですか?
Azure AI Studio では、お客様がデプロイ オプションを調べ、ご自身のビジネスと技術的なニーズに最適なものを選択することをお勧めします。 一般に、次の工程に従って考慮できます。
広範囲のスコープを持つデプロイ オプションから始めます。 そうすることで、何かを変更するたびにアーキテクチャを再構築する必要なく、アプリケーションでの反復処理とプロトタイプの作成をより迅速に行えます。 Azure AI モデル推論サービスは、Azure OpenAI の最新の革新的技術を含む、Azure AI カタログ内のすべての主要なモデルをサポートするデプロイ ターゲットです。
特定のモデルを使用する予定の場合:
OpenAI モデルに関心をお持ちであれば、Azure OpenAI Service を使用します。Azure OpenAI サービスには、さまざまな機能が用意されており、それらのモデル用に設計されています。
「サービスとしてのモデル」からの特定のモデルに関心があり、他の種類のモデルを使用する予定がない場合は、サーバーレス API エンドポイントを使用します。 エンドポイント URL とキーの一意のセットに基づいて 1 つのモデルをデプロイできます。
目的のモデルが「サービスとしてのモデル」として使用できず、お客様のサブスクリプションに使用可能なコンピューティング クォータがある場合は、オープン モデルとカスタム モデルのデプロイをサポートするマネージド コンピューティングを使用します。 また、この方法では、デプロイ推論サーバー、プロトコル、詳細な構成の高度なカスタマイズも可能です。
ヒント
各デプロイ オプションは、ネットワーク、セキュリティ、コンテンツの安全性などの追加機能の点で、異なる機能を提供している場合があります。 それぞれに関するドキュメントを確認して、制限事項を理解してください。