Partager via


Étape 1 : Votre premier agent

Créez un agent et obtenez une réponse , en quelques lignes de code seulement.

dotnet add package Azure.AI.Projects --prerelease
dotnet add package Azure.Identity
dotnet add package Microsoft.Agents.AI.Foundry --prerelease

Créez l’agent :

using System;
using Azure.AI.Projects;
using Azure.Identity;
using Microsoft.Agents.AI;

var endpoint = Environment.GetEnvironmentVariable("AZURE_OPENAI_ENDPOINT")
    ?? throw new InvalidOperationException("Set AZURE_OPENAI_ENDPOINT");
var deploymentName = Environment.GetEnvironmentVariable("AZURE_OPENAI_DEPLOYMENT_NAME") ?? "gpt-4o-mini";

AIAgent agent = new AIProjectClient(new Uri(endpoint), new DefaultAzureCredential())
    .AsAIAgent(
        model: deploymentName,
        instructions: "You are a friendly assistant. Keep your answers brief.",
        name: "HelloAgent");

Avertissement

DefaultAzureCredential est pratique pour le développement, mais nécessite une considération minutieuse en production. En production, envisagez d’utiliser des informations d’identification spécifiques (par exemple ManagedIdentityCredential) pour éviter les problèmes de latence, la détection involontaire des informations d’identification et les risques de sécurité potentiels liés aux mécanismes de secours.

Exécutez-le :

Console.WriteLine(await agent.RunAsync("What is the largest city in France?"));

Ou diffusez en continu la réponse :

await foreach (var update in agent.RunStreamingAsync("Tell me a one-sentence fun fact."))
{
    Console.Write(update);
}

Conseil / Astuce

Consultez cet article pour obtenir un exemple d’application exécutable complet.

pip install agent-framework

Créez et exécutez un agent :

client = FoundryChatClient(
    project_endpoint="https://your-project.services.ai.azure.com",
    model="gpt-4o",
    credential=AzureCliCredential(),
)

agent = Agent(
    client=client,
    name="HelloAgent",
    instructions="You are a friendly assistant. Keep your answers brief.",
)
# Non-streaming: get the complete response at once
result = await agent.run("What is the capital of France?")
print(f"Agent: {result}")

Ou diffusez en continu la réponse :

# Streaming: receive tokens as they are generated
print("Agent (streaming): ", end="", flush=True)
async for chunk in agent.run("Tell me a one-sentence fun fact.", stream=True):
    if chunk.text:
        print(chunk.text, end="", flush=True)
print()

Note

Agent Framework ne charge .env automatiquement les fichiers. Pour utiliser un .env fichier pour la configuration, appelez load_dotenv() au début de votre script :

from dotenv import load_dotenv
load_dotenv()

Vous pouvez également définir des variables d’environnement directement dans votre interpréteur de commandes ou votre IDE. Pour plus d’informations, consultez la note de migration des paramètres .

Conseil / Astuce

Consultez l’exemple complet du fichier exécutable complet.

Prochaines étapes

Aller plus loin :