에피소드

Ollama를 사용하여 로컬 컴퓨터에서 AI 모델 실행(10부 중 5부)

다음과 같이 바꿉니다. Yohan Lasorsa

Ollama를 사용하여 로컬 AI 모델을 개발 워크플로에 원활하게 통합하는 방법을 알아봅니다. 컴퓨터에서 강력한 AI 모델을 다운로드, 실행 및 상호 작용하고 OpenAI의 API와 호환성을 유지하는 방법을 알아보세요. Phi-3 모델 제품군을 살펴보고 이를 사용하여 프로토타입을 빌드하고 AI 애플리케이션을 실험하는 방법을 알아보세요.

  • 00:00 - 로컬 AI 모델 소개
  • 00:12 - 로컬 모델 사용의 이점
  • 00:52 - Phi-3 모델 패밀리 개요
  • 01:30 - 올라마 소개
  • 02:10 - Ollama 설치 및 모델 다운로드
  • 03:10 - Ollama를 사용하여 UI 실행
  • 04:20 - Ollama의 HTTP API 사용
  • 05:50 - OpenAI 호환 API 기능
  • 06:40 - 올라마와 피-3의 다음 단계