Azure Container Appsは、マイクロサービスと AI を利用したアプリケーションのデプロイとスケーリングを簡略化するサーバーレス コンテナー プラットフォームです。 GPU ワークロードのネイティブ サポート、Foundry Tools とのシームレスな統合、柔軟なデプロイ オプションにより、インテリジェントなクラウドネイティブ ソリューションを構築するための理想的なプラットフォームです。
GPU を利用した推論
GPU 高速ワークロード プロファイルを使用して、次のようなさまざまな AI ワークロードのニーズを満たします。
- サーバーレス GPU: トラフィックの変動シナリオやコスト重視の推論ワークロードに最適です。
- 専用 GPU: 継続的で待機時間の短い推論シナリオに最適です。
- ゼロにスケーリング: アイドル状態の GPU リソースを自動的にスケールダウンして、コストを最小限に抑えます。
AI によって生成されたコードの動的セッション
動的セッションは、AI で生成されたコードを実行するための、セキュリティで保護された分離された環境を提供します。 サンドボックス実行、コード評価、AI エージェントなどのシナリオに最適です。
サポートされるセッションの種類は次のとおりです。
- Platform マネージド組み込みコンテナー: Pythonと Node.jsでのコードの実行をサポートするプラットフォームマネージド コンテナーです。
- カスタム コンテナー: 特殊なワークロードまたは追加の言語サポート用のカスタム コンテナーを使用してセッション プールを作成します。
Microsoft Foundry モデルのデプロイ
Azure Container Apps Foundry と統合されるため、キュレーションされた AI モデルをコンテナー化された環境に直接デプロイできます。 この統合により、モデルのデプロイと管理が簡素化され、Container Apps でインテリジェントなアプリケーションを簡単に構築できるようになります。
サンプル プロジェクト
次に、Azure Container Appsとの AI 統合を示すいくつかの例を示します。 これらのサンプルでは、OpenAI 統合、マルチエージェント調整、Azure AI Searchを使用した取得拡張生成 (RAG) など、さまざまな AI 機能を紹介します。 その他のサンプルについては、 テンプレート ライブラリを参照してください。
| Sample | Description |
|---|---|
| Terraform を使用して ACA にデプロイされた OpenAI、LangChain、ChromaDB、Chainlit を使用する ChatGPT のようなアプリ。 | |
| MCP サーバーをホストします | Container Apps の Azure OpenAI モデルと GitHub モデルで MCP プロトコルを使用したマルチエージェント調整を示します。 |
| MCP クライアントとサーバー | Azure OpenAI と TypeScript MCP サーバーを使用する .NET ベースの MCP エージェント アプリ。どちらも ACA でホストされています。 |
| リモートMCPサーバー | Container Apps 用の TypeScript ベースの MCP サーバー テンプレート。カスタム AI ツールチェーンの構築に最適です。 |
| ダイナミックセッションのPythonコードインタープリター | セキュリティで保護された環境でPythonコードを実行するための動的セッション。 |