Episódio
Execute modelos de IA em sua máquina local com Ollama (Parte 5 de 10)
por Yohan Lasorsa
Saiba como integrar perfeitamente modelos de IA locais em seu fluxo de trabalho de desenvolvimento usando o Ollama. Você verá como baixar, executar e interagir com modelos de IA poderosos em sua máquina e manter a compatibilidade com a API da OpenAI. Exploraremos a família de modelos Phi-3 e descobriremos como você pode usá-la para criar protótipos e experimentar aplicativos de IA.
Capítulos
- 00:00 – Introdução aos modelos de IA locais
- 00:12 – Benefícios do uso de modelos locais
- 00:52 – Visão geral da família de modelos Phi-3
- 01:30 – Introdução ao Ollama
- 02:10 – Instalando o Ollama e baixando modelos
- 03:10 – Executando uma interface do usuário com Ollama
- 04:20 – Usando a API HTTP do Ollama
- 05:50 – Recursos de API compatíveis com OpenAI
- 06:40 - Próximos passos com Ollama e Phi-3
Recursos recomendados
- Livro de receitas Phi-3
- Playground de JavaScript de IA
- Site da Ollama
- Todos os slides e exemplos de código
Episódios relacionados
Saiba como integrar perfeitamente modelos de IA locais em seu fluxo de trabalho de desenvolvimento usando o Ollama. Você verá como baixar, executar e interagir com modelos de IA poderosos em sua máquina e manter a compatibilidade com a API da OpenAI. Exploraremos a família de modelos Phi-3 e descobriremos como você pode usá-la para criar protótipos e experimentar aplicativos de IA.
Capítulos
- 00:00 – Introdução aos modelos de IA locais
- 00:12 – Benefícios do uso de modelos locais
- 00:52 – Visão geral da família de modelos Phi-3
- 01:30 – Introdução ao Ollama
- 02:10 – Instalando o Ollama e baixando modelos
- 03:10 – Executando uma interface do usuário com Ollama
- 04:20 – Usando a API HTTP do Ollama
- 05:50 – Recursos de API compatíveis com OpenAI
- 06:40 - Próximos passos com Ollama e Phi-3
Recursos recomendados
- Livro de receitas Phi-3
- Playground de JavaScript de IA
- Site da Ollama
- Todos os slides e exemplos de código
Episódios relacionados
Tem comentários? Envie um problema aqui.