Серия

Запуск моделей ИИ на локальном компьютере с помощью Ollama (часть 5 из 10)

на Yohan Lasorsa

Узнайте, как легко интегрировать локальные модели ИИ в рабочий процесс разработки с помощью Ollama. Вы узнаете, как скачать, запустить и взаимодействовать с мощными моделями ИИ на компьютере и поддерживать совместимость с API OpenAI. Мы рассмотрим семейство моделей Phi-3 и узнаем, как его можно использовать для создания прототипов и экспериментов с приложениями искусственного интеллекта.

Главы

  • 00:00 . Общие сведения о локальных моделях искусственного интеллекта
  • 00:12 — преимущества использования локальных моделей
  • 00:52 — обзор семейства моделей Phi-3
  • 01:30 - Введение в Ollama
  • 02:10 . Установка моделей Ollama и скачивание моделей
  • 03:10 — запуск пользовательского интерфейса с Ollama
  • 04:20 . Использование HTTP-API Ollama
  • 05:50 — функции API, совместимые с OpenAI
  • 06:40 - Дальнейшие шаги с Ollama и Phi-3