Partager via


Ollama

Ollama vous permet d’exécuter des modèles open source localement et de les utiliser avec Agent Framework. Cela est idéal pour le développement, les tests et les scénarios dans lesquels vous devez conserver des données locales.

L’exemple suivant montre comment créer un agent à l’aide de Ollama :

using System;
using Microsoft.Agents.AI;
using Microsoft.Extensions.AI;

// Create an Ollama agent using Microsoft.Extensions.AI.Ollama
// Requires: dotnet add package Microsoft.Extensions.AI.Ollama --prerelease
var chatClient = new OllamaChatClient(
    new Uri("http://localhost:11434"),
    modelId: "llama3.2");

AIAgent agent = chatClient.AsAIAgent(
    instructions: "You are a helpful assistant running locally via Ollama.");

Console.WriteLine(await agent.RunAsync("What is the largest city in France?"));

Note

La prise en charge de Python pour Ollama est disponible via l’API compatible OpenAI. Utilisez l’URL OpenAIChatClient de base personnalisée pointant vers votre instance Ollama.

Prochaines étapes