Ollama 插件

重要

截至2026年1月,AI Shell项目已不再被积极维护。 该项目应从工程角度视为存档。

此代理用于通过利用 Ollama API 与本地运行的语言模型进行交互。 使用此代理之前,需要安装并运行 Ollama。 要创建代理,您需要实现接口 IAgent

您也可以使用此示例代码作为模板来创建自己的代理。

使用代理的先决条件

配置

若要更改模型,需要修改 OllamaChatService 类中的代码中的查询。 默认模型为 phi3

默认终结点 http://localhost:11434/api/generate11434 为默认端口。 这可以在代码中更改,最终将添加到配置文件中。

AI Shell 存储库中提供了 Ollama 代理的更新版本。 请参阅 Ollama 插件的 README 文件。

已知限制

  • 没有跨查询共享的历史记录,因此模型将无法记住以前的查询
  • 如果将流值更改为要发送到 API 的数据中的 true,则当前不支持流式处理