Episodio

Eseguire modelli di intelligenza artificiale nel computer locale con Ollama (parte 5 di 10)

con Yohan Lasorsa

Informazioni su come integrare facilmente i modelli di intelligenza artificiale locale nel flusso di lavoro di sviluppo usando Ollama. Si vedrà come scaricare, eseguire e interagire con potenti modelli di intelligenza artificiale nel computer e mantenere la compatibilità con l'API di OpenAI. Si esaminerà la famiglia di modelli Phi-3 e si scoprirà come usarla per creare prototipi e sperimentare con le applicazioni di intelligenza artificiale.

Capitoli

  • 00:00 - Introduzione ai modelli di intelligenza artificiale locale
  • 00:12 - Vantaggi dell'uso di modelli locali
  • 00:52 - Panoramica della famiglia di modelli Phi-3
  • 01:30 - Introduzione a Ollama
  • 02:10 - Installazione di Ollama e download di modelli
  • 03:10 - Esecuzione di un'interfaccia utente con Ollama
  • 04:20 - Uso dell'API HTTP di Ollama
  • 05:50 - Funzionalità dell'API compatibili con OpenAI
  • 06:40 - Passaggi successivi con Ollama e Phi-3