Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
O Ollama permite executar modelos de software livre localmente e usá-los com o Agent Framework. Isso é ideal para desenvolvimento, teste e cenários em que você precisa manter dados locais.
O exemplo a seguir mostra como criar um agente usando o Ollama:
using System;
using Microsoft.Agents.AI;
using Microsoft.Extensions.AI;
// Create an Ollama agent using Microsoft.Extensions.AI.Ollama
// Requires: dotnet add package Microsoft.Extensions.AI.Ollama --prerelease
var chatClient = new OllamaChatClient(
new Uri("http://localhost:11434"),
modelId: "llama3.2");
AIAgent agent = chatClient.AsAIAgent(
instructions: "You are a helpful assistant running locally via Ollama.");
Console.WriteLine(await agent.RunAsync("What is the largest city in France?"));
Observação
O suporte do Python para Ollama está disponível por meio da API compatível com OpenAI. Use com OpenAIChatClient uma URL base personalizada apontando para sua instância do Ollama.