Episódio

Execute modelos de IA em sua máquina local com Ollama (Parte 5 de 10)

por Yohan Lasorsa

Saiba como integrar perfeitamente modelos de IA locais em seu fluxo de trabalho de desenvolvimento usando o Ollama. Você verá como baixar, executar e interagir com modelos de IA poderosos em sua máquina e manter a compatibilidade com a API da OpenAI. Exploraremos a família de modelos Phi-3 e descobriremos como você pode usá-la para criar protótipos e experimentar aplicativos de IA.

Capítulos

  • 00:00 – Introdução aos modelos de IA locais
  • 00:12 – Benefícios do uso de modelos locais
  • 00:52 – Visão geral da família de modelos Phi-3
  • 01:30 – Introdução ao Ollama
  • 02:10 – Instalando o Ollama e baixando modelos
  • 03:10 – Executando uma interface do usuário com Ollama
  • 04:20 – Usando a API HTTP do Ollama
  • 05:50 – Recursos de API compatíveis com OpenAI
  • 06:40 - Próximos passos com Ollama e Phi-3