次の方法で共有


Microsoft Foundry クイック スタート

このクイック スタートでは、Foundry でモデルとエージェントの使用を開始します。

そうするでしょう:

  • モデルから応答を生成する
  • 定義されたプロンプトを使用してエージェントを作成する
  • エージェントと複数ターンの会話を行う

[前提条件]

環境変数を設定してコードを取得する

プロジェクト エンドポイントを環境変数として格納します。 また、スクリプトで使用するためにこれらの値を設定します。

PROJECT_ENDPOINT=<endpoint copied from welcome screen>
AGENT_NAME="MyAgent"
MODEL_DEPLOYMENT_NAME="gpt-4.1-mini"

以下に従うか、コードを取得します。

Cli az login コマンドを使用してサインインし、Python スクリプトを実行する前に認証します。

インストールと認証

次に示すように、パッケージの正しいプレビュー/プレリリース バージョンをインストールしてください。

  1. azure-ai-projectsのプレビュー バージョンを含め、これらのパッケージをインストールします。 このバージョンでは、 Foundry プロジェクト (新規) API (プレビュー) が使用されます。

    pip install --pre "azure-ai-projects>=2.0.0b4"
    pip install python-dotenv
    
  2. Cli az login コマンドを使用してサインインし、Python スクリプトを実行する前に認証します。

ヒント

コードは Azure AI Projects 2.x を使用し、Azure AI Projects 1.x と互換性がありません。 Azure AI Projects 1.x バージョンについては、Foundry (クラシック) のドキュメントを参照してください

モデルとのチャット

モデルとの対話は、AI アプリケーションの基本的な構成要素です。 入力を送信し、モデルから応答を受信します。

import os
from dotenv import load_dotenv
from azure.identity import DefaultAzureCredential
from azure.ai.projects import AIProjectClient

load_dotenv()

print(f"Using PROJECT_ENDPOINT: {os.environ['PROJECT_ENDPOINT']}")
print(f"Using MODEL_DEPLOYMENT_NAME: {os.environ['MODEL_DEPLOYMENT_NAME']}")

project_client = AIProjectClient(
    endpoint=os.environ["PROJECT_ENDPOINT"],
    credential=DefaultAzureCredential(),
)

openai_client = project_client.get_openai_client()

response = openai_client.responses.create(
    model=os.environ["MODEL_DEPLOYMENT_NAME"],
    input="What is the size of France in square miles?",
)
print(f"Response output: {response.output_text}")

コードを実行すると、コンソールにモデルによって生成された応答 (短い詩やプロンプトへの回答など) が表示されます。 これにより、プロジェクト エンドポイント、認証、およびモデルのデプロイが正しく動作していることを確認できます。

ヒント

コードは Azure AI Projects 2.x を使用し、Azure AI Projects 1.x と互換性がありません。 Azure AI Projects 1.x バージョンについては、Foundry (クラシック) のドキュメントを参照してください

エージェントを作成する

デプロイしたモデルを使用してエージェントを作成します。

エージェントは、コア動作を定義します。 作成されると、毎回手順を繰り返すことなく、ユーザーの操作で一貫した応答が保証されます。 エージェントはいつでも更新または削除できます。

import os
from dotenv import load_dotenv
from azure.identity import DefaultAzureCredential
from azure.ai.projects import AIProjectClient
from azure.ai.projects.models import PromptAgentDefinition

load_dotenv()

project_client = AIProjectClient(
    endpoint=os.environ["PROJECT_ENDPOINT"],
    credential=DefaultAzureCredential(),
)

agent = project_client.agents.create_version(
    agent_name=os.environ["AGENT_NAME"],
    definition=PromptAgentDefinition(
        model=os.environ["MODEL_DEPLOYMENT_NAME"],
        instructions="You are a helpful assistant that answers general questions",
    ),
)
print(f"Agent created (id: {agent.id}, name: {agent.name}, version: {agent.version})")

出力は、エージェントが作成されたことを確認します。 SDK タブの場合、エージェント名と ID がコンソールに出力されます。

ヒント

コードは Azure AI Projects 2.x を使用し、Azure AI Projects 1.x と互換性がありません。 Azure AI Projects 1.x バージョンについては、Foundry (クラシック) のドキュメントを参照してください

エージェントとのチャット

以前に作成した "MyAgent" という名前のエージェントを使用して、質問と関連するフォローアップを行って対話します。 会話は、これらの対話全体の履歴を保持します。

import os
from dotenv import load_dotenv
from azure.identity import DefaultAzureCredential
from azure.ai.projects import AIProjectClient

load_dotenv()

project_client = AIProjectClient(
    endpoint=os.environ["PROJECT_ENDPOINT"],
    credential=DefaultAzureCredential(),
)

agent_name = os.environ["AGENT_NAME"]
openai_client = project_client.get_openai_client()

# Optional Step: Create a conversation to use with the agent
conversation = openai_client.conversations.create()
print(f"Created conversation (id: {conversation.id})")

# Chat with the agent to answer questions
response = openai_client.responses.create(
    conversation=conversation.id, #Optional conversation context for multi-turn
    extra_body={"agent_reference": {"name": agent_name, "type": "agent_reference"}},
    input="What is the size of France in square miles?",
)
print(f"Response output: {response.output_text}")

# Optional Step: Ask a follow-up question in the same conversation
response = openai_client.responses.create(
    conversation=conversation.id,
    extra_body={"agent_reference": {"name": agent_name, "type": "agent_reference"}},
    input="And what is the capital city?",
)
print(f"Response output: {response.output_text}")

両方のプロンプトに対するエージェントの応答が表示されます。 フォローアップ応答は、エージェントが順番に会話履歴を保持することを示しています。

ヒント

コードは Azure AI Projects 2.x を使用し、Azure AI Projects 1.x と互換性がありません。 Azure AI Projects 1.x バージョンについては、Foundry (クラシック) のドキュメントを参照してください

リソースをクリーンアップする

作成したリソースが不要になった場合は、プロジェクトに関連付けられているリソース グループを削除します。

  • Azure portal でリソース グループを選択し、[削除] を選択します。 リソース グループを削除することを確認します。

次のステップ