剧集

使用 Ollama 在本地计算机上运行 AI 模型(第 5 部分(共 10 部分)

替换为 Yohan Lasorsa

了解如何使用 Ollama 将本地 AI 模型无缝集成到开发工作流中。 你将了解如何在计算机上下载、运行和与功能强大的 AI 模型交互,并与 OpenAI 的 API 保持兼容性。 我们将探索 Phi-3 模型系列,并了解如何使用它来生成原型和试验 AI 应用程序。

章节

  • 00:00 - 本地 AI 模型简介
  • 00:12 - 使用本地模型的好处
  • 00:52 - Phi-3 模型系列概述
  • 01:30 - 奥拉马简介
  • 02:10 - 安装 Ollama 和下载模型
  • 03:10 - 使用 Ollama 运行 UI
  • 04:20 - 使用 Ollama 的 HTTP API
  • 05:50 - OpenAI 兼容的 API 功能
  • 06:40 - Ollama 和 Phi-3 的后续步骤