Freigeben über


Ollama

Mit Ollama können Sie Open-Source-Modelle lokal ausführen und mit Agent Framework verwenden. Dies eignet sich ideal für Entwicklung, Tests und Szenarien, in denen Sie Daten lokal aufbewahren müssen.

Das folgende Beispiel zeigt, wie Sie einen Agent mit Ollama erstellen:

using System;
using Microsoft.Agents.AI;
using Microsoft.Extensions.AI;

// Create an Ollama agent using Microsoft.Extensions.AI.Ollama
// Requires: dotnet add package Microsoft.Extensions.AI.Ollama --prerelease
var chatClient = new OllamaChatClient(
    new Uri("http://localhost:11434"),
    modelId: "llama3.2");

AIAgent agent = chatClient.AsAIAgent(
    instructions: "You are a helpful assistant running locally via Ollama.");

Console.WriteLine(await agent.RunAsync("What is the largest city in France?"));

Hinweis

Python-Unterstützung für Ollama ist über die OpenAI-kompatible API verfügbar. Verwenden Sie die OpenAIChatClient url mit einer benutzerdefinierten Basis-URL, die auf Ihre Ollama-Instanz verweist.

Nächste Schritte