Plug-in Ollama

Importante

A gennaio 2026, il progetto AI Shell non è più attivamente mantenuto. Questo progetto dovrebbe essere considerato archiviato dal punto di vista ingegneristico.

Questo agente viene usato per interagire con un modello linguistico in esecuzione in locale usando l'API Ollama. Prima di usare questo agente, è necessario che Ollama sia installato e in esecuzione. Per creare un agente, è necessario implementare l'interfaccia IAgent .

È anche possibile utilizzare questo codice di esempio come modello per creare un agente personalizzato.

Prerequisiti per l'uso dell'agente

Configurazione

Attualmente per modificare il modello è necessario modificare la query nel codice nella classe OllamaChatService. Il modello predefinito è phi3.

L'endpoint predefinito è http://localhost:11434/api/generate con 11434 come porta predefinita. Questa operazione può essere modificata nel codice e alla fine verrà aggiunta a un file di configurazione.

È disponibile una versione aggiornata dell'agente Ollama nel repository AI Shell. Vedere il file README per il plug-in Ollama.

Limitazioni note

  • Nessuna cronologia condivisa tra le query, quindi il modello non sarà in grado di ricordare le query precedenti
  • Lo streaming non è attualmente supportato se si modifica il valore del flusso in true nei dati da inviare all'API non funzionerà