Episode

Jalankan model AI di komputer lokal Anda dengan Ollama (Bagian 5 dari 10)

dengan Yohan Lasorsa

Pelajari cara mengintegrasikan model AI lokal dengan lancar ke dalam alur kerja pengembangan Anda menggunakan Ollama. Anda akan melihat cara mengunduh, menjalankan, dan berinteraksi dengan model AI yang kuat di komputer Anda, dan menjaga kompatibilitas dengan API OpenAI. Kita akan menjelajahi keluarga model Phi-3 dan menemukan bagaimana Anda dapat menggunakannya untuk membangun prototipe dan bereksperimen dengan aplikasi AI.

Bab

  • 00:00 - Pengantar Model AI Lokal
  • 00:12 - Manfaat Menggunakan Model Lokal
  • 00:52 - Gambaran Umum Keluarga Model Phi-3
  • 01:30 - Pengantar Ollama
  • 02:10 - Menginstal Ollama dan Mengunduh Model
  • 03:10 - Menjalankan UI dengan Ollama
  • 04:20 - Menggunakan API HTTP Ollama
  • 05:50 - Fitur API yang Kompatibel dengan OpenAI
  • 06:40 - Langkah Selanjutnya dengan Ollama dan Phi-3