重要
截至2026年1月,AI Shell项目已不再被积极维护。 该项目应从工程角度视为存档。
此代理用于通过利用 Ollama API 与本地运行的语言模型进行交互。
使用此代理之前,需要安装并运行 Ollama。 要创建代理,您需要实现接口 IAgent 。
您也可以使用此示例代码作为模板来创建自己的代理。
使用代理的先决条件
- 安装 Ollama
- 安装 Ollama 模型,我们建议使用该
phi3模型,因为它在代码中被设置为默认模型 - 启动 Ollama API 服务器
配置
若要更改模型,需要修改 OllamaChatService 类中的代码中的查询。 默认模型为 phi3。
默认终结点 http://localhost:11434/api/generate,11434 为默认端口。
这可以在代码中更改,最终将添加到配置文件中。
AI Shell 存储库中提供了 Ollama 代理的更新版本。 请参阅 Ollama 插件的 README 文件。
已知限制
- 没有跨查询共享的历史记录,因此模型将无法记住以前的查询
- 如果将流值更改为要发送到 API 的数据中的
true,则当前不支持流式处理