ほとんどの企業はチャットボットだけを望んでいません。より高速でエラーの少ない自動化を望んでいます。 これは、ドキュメントの要約、請求書の処理、サポート チケットの管理、またはブログ投稿の公開を意味する場合があります。 いずれの場合も、目標は同じです。反復的で予測可能なタスクをオフロードすることで、人とリソースを解放し、価値の高い作業に集中できるようにします。
大規模言語モデル (LLM) は、非構造化データを理解し、意思決定を行い、コンテンツを生成できるシステムを使用して、新しい種類の自動化への扉を開きました。 実際には、企業がデモを超えて運用環境に移行することは困難な場合があります。 LLM は、誤差が起き、間違っている可能性があり、アカウンタビリティが不足している可能性があります。 可視性、ポリシーの適用、オーケストレーションがなければ、これらのモデルは実際のビジネス ワークフローで信頼するのが困難です。
Azure AI Foundry は、その変更を目的として設計されています。 モデル、ツール、フレームワーク、ガバナンスを統合されたシステムに組み合わせてインテリジェントなエージェントを構築するプラットフォームです。 このシステムの中心には Azure AI Foundry Agent Service があり、開発、デプロイ、運用全体でエージェントの操作を可能にします。
AI Foundry Agent Service は、モデル、ツール、フレームワークなどの Azure AI Foundry のコア部分を 1 つのランタイムに接続します。 これにより、スレッドの管理、ツール呼び出しの調整、コンテンツの安全性の適用、ID、ネットワーク、監視システムとの統合が行われ、エージェントがセキュリティで保護され、スケーラブルで運用環境に対応できるようになります。
AI Foundry Agent Service は、インフラストラクチャの複雑さを抽象化し、設計によって信頼と安全性を強制することで、プロトタイプから生産に自信を持って簡単に移行できるようにします。
AI エージェントとは
エージェントは意思決定を行い、ツールを呼び出し、ワークフローに参加します。 時には独立して、時には他のエージェントや人間と協力します。 エージェントとアシスタントの違いは自律性です。アシスタントは人をサポートし、エージェントは目標を達成します。 これらは、実際のプロセス自動化の基礎となります。
AI Foundry を使用して作成されたエージェントはモノリスではありません。 これらは構成可能な単位です。 それぞれに特定のロールがあり、適切なモデルを利用し、適切なツールが装備され、セキュリティで保護され、監視可能で管理可能なランタイム内にデプロイされます。
各エージェントには、次の 3 つのコア コンポーネントがあります。
- モデル (LLM): 推論と言語理解を可能にする
- 手順: エージェントの目標、動作、制約を定義する
- ツール: エージェントがナレッジを取得したり、アクションを実行したりできるようにします
エージェントは、ユーザー プロンプト、アラート、他のエージェントからのメッセージなどの非構造化入力を受け取ります。 ツールの結果またはメッセージの形式で出力が生成されます。 その過程で、ツールを呼び出して取得を実行したり、アクションをトリガーしたりできます。
AI Foundry のエージェントのしくみ
Azure AI Foundry は、インテリジェント エージェントの組み立てラインと考えてください。 他の最新の工場と同様に、最終製品の一部を形成する役割を担うさまざまな専門ステーションがまとめられている。 Agent Factory では、マシンとコンベヤ ベルトの代わりに、モデル、ツール、ポリシー、オーケストレーションを使用して、セキュリティで保護され、テスト可能で、実稼働可能なエージェントを構築します。 ファクトリのしくみを段階的に次に示します。
1.モデル
アセンブリラインは、エージェントにインテリジェンスを提供するモデルを選択することから始まります。 GPT-4o、GPT-4、GPT-3.5 (Azure OpenAI)、Llama などの大規模な言語モデルのカタログから選択できます。 これは、その決定を強化するエージェントの推論コアです。
2. カスタマイズ
次に、ユース ケースに合わせてモデルを整形します。 微調整、蒸留、またはドメイン固有のプロンプトを使用してエージェントをカスタマイズします。 この手順では、実際のスレッド コンテンツとツールの結果からキャプチャされたデータを使用して、エージェントの動作、ロール固有の知識、および以前のパフォーマンスからのパターンをエンコードできます。
3. AI ツール
次に、エージェントにツールを装備します。 これにより、エンタープライズナレッジ (Bing、SharePoint、Azure AI Search など) にアクセスし、実際のアクション (Logic Apps、Azure Functions、OpenAPI などを介して) を実行できます。 これにより、エージェントの機能を拡張する機能が強化されます。
4. オーケストレーション
次に、エージェントの調整が必要です。 接続されたエージェント は、ツール呼び出しの処理、スレッドの状態の更新、再試行の管理、出力のログ記録などのライフサイクル全体を調整します。
5. 信頼
エージェントが割り当てられているワークロードに適した信頼性を確保することが重要です。 AI Foundry は、Microsoft Entra、RBAC、コンテンツ フィルター、暗号化、ネットワーク分離を介した ID を含むエンタープライズ レベルの信頼機能を適用します。 プラットフォーム管理のインフラストラクチャまたは独自のインフラストラクチャを使用して、エージェントをどのように、どこで実行するかを選択します。
6. 可観測性
最後に、エージェントがテストおよび監視されます。 AI Foundry では、すべてのステップでログ、トレース、評価をキャプチャできます。 完全なスレッドレベルの可視性と Application Insights の統合により、チームはすべての決定を検査し、時間の経過と共にエージェントを継続的に改善できます。
結果? 運用の準備ができているエージェント:信頼性が高く、拡張可能で、ワークフロー全体に安全にデプロイできます。
Azure AI Foundry Agent Service を使用する理由
Azure AI Foundry Agent Service は、エンタープライズ環境にインテリジェント エージェントをデプロイするための運用準備が整った基盤を提供します。 主な機能を比較する方法を次に示します。
能力 | Azure AI ファウンドリー エージェント サービス |
---|---|
1. 会話の可視性 | ユーザー↔エージェントメッセージとエージェント↔エージェント メッセージの両方を含む、構造化 されたスレッドへのフル アクセス。 UI、デバッグ、トレーニングに最適 |
2. マルチエージェントコーディネーション | エージェント間メッセージングの組み込みサポート。 |
3. ツールオーケストレーション | 構造化ログを使用した ツール呼び出し のサーバー側の実行と再試行。 手動オーケストレーションは必要ありません。 |
4. 信頼と安全 | 統合コンテンツ フィルター は、誤用を防ぎ、迅速なインジェクション リスク (XPIA) を軽減するのに役立ちます。 すべての出力はポリシーによって管理されます。 |
5. エンタープライズ統合 | コンプライアンスのニーズを満たすために、独自の ストレージ、 Azure AI Search インデックス、 仮想ネットワーク を使用します。 |
6. 可観測性とデバッグ | スレッド、ツール呼び出し、メッセージ トレースは完全にトレース可能です。テレメトリの Application Insights 統合 |
7. ID とポリシーの制御 | RBAC、監査ログ、エンタープライズ条件付きアクセスを完全にサポートする Microsoft Entra 上に構築されています。 |
Foundry Agent Service を始める
Foundry Agent Service の使用を開始するには、Azure サブスクリプションに Azure AI Foundry プロジェクトを作成する必要があります。
サービスを初めて使用する場合は、 環境のセットアップ と クイック スタート ガイドから始めます。
- 必要なリソースを含むプロジェクトを作成できます。
- プロジェクトを作成したら、GPT-4o などの互換性のあるモデルをデプロイできます。
- デプロイされたモデルがある場合は、SDK を使用してサービスへの API 呼び出しを開始することもできます。
次のステップ
エージェントを強化するモデルの詳細について説明します。