Dela via


Ollama

Med Ollama kan du köra modeller med öppen källkod lokalt och använda dem med Agent Framework. Detta är idealiskt för utveckling, testning och scenarier där du behöver lagra data lokalt.

I följande exempel visas hur du skapar en agent med Ollama:

using System;
using Microsoft.Agents.AI;
using Microsoft.Extensions.AI;

// Create an Ollama agent using Microsoft.Extensions.AI.Ollama
// Requires: dotnet add package Microsoft.Extensions.AI.Ollama --prerelease
var chatClient = new OllamaChatClient(
    new Uri("http://localhost:11434"),
    modelId: "llama3.2");

AIAgent agent = chatClient.AsAIAgent(
    instructions: "You are a helpful assistant running locally via Ollama.");

Console.WriteLine(await agent.RunAsync("What is the largest city in France?"));

Anmärkning

Python-stöd för Ollama är tillgängligt via OpenAI-kompatibelt API. OpenAIChatClient Använd med en anpassad bas-URL som pekar på din Ollama-instans.

Nästa steg