Ollama を使用すると、オープンソース モデルをローカルで実行し、Agent Framework で使用できます。 これは、データをオンプレミスに保持する必要がある開発、テスト、シナリオに最適です。
次の例は、Ollama を使用してエージェントを作成する方法を示しています。
using System;
using Microsoft.Agents.AI;
using Microsoft.Extensions.AI;
// Create an Ollama agent using Microsoft.Extensions.AI.Ollama
// Requires: dotnet add package Microsoft.Extensions.AI.Ollama --prerelease
var chatClient = new OllamaChatClient(
new Uri("http://localhost:11434"),
modelId: "llama3.2");
AIAgent agent = chatClient.AsAIAgent(
instructions: "You are a helpful assistant running locally via Ollama.");
Console.WriteLine(await agent.RunAsync("What is the largest city in France?"));
注
Ollama の Python サポートは、OpenAI と互換性のある API を通じて利用できます。 Ollama インスタンスを指すカスタム ベース URL で OpenAIChatClient を使用します。