Episodio

Ejecución de modelos de IA en la máquina local con Ollama (parte 5 de 10)

con Yohan Lasorsa

Obtenga información sobre cómo integrar sin problemas los modelos de inteligencia artificial local en el flujo de trabajo de desarrollo mediante Ollama. Verá cómo descargar, ejecutar e interactuar con modelos de IA eficaces en la máquina y mantener la compatibilidad con la API de OpenAI. Exploraremos la familia de modelos Phi-3 y descubriremos cómo se puede usar para crear prototipos y experimentar con aplicaciones de inteligencia artificial.

Capítulos

  • 00:00 : Introducción a los modelos de inteligencia artificial local
  • 00:12 : Ventajas del uso de modelos locales
  • 00:52 - Introducción a la familia de modelos Phi-3
  • 01:30 - Introducción a Ollama
  • 02:10 - Instalar Ollama y descargar modelos
  • 03:10 - Ejecución de una interfaz de usuario con Ollama
  • 04:20 : Uso de la API HTTP de Ollama
  • 05:50 : Características de api compatibles con OpenAI
  • 06:40 - Pasos siguientes con Ollama y Phi-3