Partilhar via


Ollama

O Ollama permite executar modelos open-source localmente e usá-los com o Agent Framework. Isto é ideal para desenvolvimento, testes e cenários onde precisa de manter os dados no local.

O exemplo seguinte mostra como criar um agente usando o Ollama:

using System;
using Microsoft.Agents.AI;
using Microsoft.Extensions.AI;

// Create an Ollama agent using Microsoft.Extensions.AI.Ollama
// Requires: dotnet add package Microsoft.Extensions.AI.Ollama --prerelease
var chatClient = new OllamaChatClient(
    new Uri("http://localhost:11434"),
    modelId: "llama3.2");

AIAgent agent = chatClient.AsAIAgent(
    instructions: "You are a helpful assistant running locally via Ollama.");

Console.WriteLine(await agent.RunAsync("What is the largest city in France?"));

Observação

O suporte para Python para Ollama está disponível através da API compatível com OpenAI. Use o OpenAIChatClient com uma URL base personalizada que aponte para a sua instância Ollama.

Próximos passos