Episode
Jalankan model AI di komputer lokal Anda dengan Ollama (Bagian 5 dari 10)
dengan Yohan Lasorsa
Pelajari cara mengintegrasikan model AI lokal dengan lancar ke dalam alur kerja pengembangan Anda menggunakan Ollama. Anda akan melihat cara mengunduh, menjalankan, dan berinteraksi dengan model AI yang kuat di komputer Anda, dan menjaga kompatibilitas dengan API OpenAI. Kita akan menjelajahi keluarga model Phi-3 dan menemukan bagaimana Anda dapat menggunakannya untuk membangun prototipe dan bereksperimen dengan aplikasi AI.
Bab
- 00:00 - Pengantar Model AI Lokal
- 00:12 - Manfaat Menggunakan Model Lokal
- 00:52 - Gambaran Umum Keluarga Model Phi-3
- 01:30 - Pengantar Ollama
- 02:10 - Menginstal Ollama dan Mengunduh Model
- 03:10 - Menjalankan UI dengan Ollama
- 04:20 - Menggunakan API HTTP Ollama
- 05:50 - Fitur API yang Kompatibel dengan OpenAI
- 06:40 - Langkah Selanjutnya dengan Ollama dan Phi-3
Sumber daya yang disarankan
Episode terkait
Pelajari cara mengintegrasikan model AI lokal dengan lancar ke dalam alur kerja pengembangan Anda menggunakan Ollama. Anda akan melihat cara mengunduh, menjalankan, dan berinteraksi dengan model AI yang kuat di komputer Anda, dan menjaga kompatibilitas dengan API OpenAI. Kita akan menjelajahi keluarga model Phi-3 dan menemukan bagaimana Anda dapat menggunakannya untuk membangun prototipe dan bereksperimen dengan aplikasi AI.
Bab
- 00:00 - Pengantar Model AI Lokal
- 00:12 - Manfaat Menggunakan Model Lokal
- 00:52 - Gambaran Umum Keluarga Model Phi-3
- 01:30 - Pengantar Ollama
- 02:10 - Menginstal Ollama dan Mengunduh Model
- 03:10 - Menjalankan UI dengan Ollama
- 04:20 - Menggunakan API HTTP Ollama
- 05:50 - Fitur API yang Kompatibel dengan OpenAI
- 06:40 - Langkah Selanjutnya dengan Ollama dan Phi-3
Sumber daya yang disarankan
Episode terkait
Memiliki umpan balik? Kirimkan masalah di sini.