에피소드
Ollama를 사용하여 로컬 컴퓨터에서 AI 모델 실행(10부 중 5부)
다음과 같이 바꿉니다. Yohan Lasorsa
Ollama를 사용하여 로컬 AI 모델을 개발 워크플로에 원활하게 통합하는 방법을 알아봅니다. 컴퓨터에서 강력한 AI 모델을 다운로드, 실행 및 상호 작용하고 OpenAI의 API와 호환성을 유지하는 방법을 알아보세요. Phi-3 모델 제품군을 살펴보고 이를 사용하여 프로토타입을 빌드하고 AI 애플리케이션을 실험하는 방법을 알아보세요.
장
- 00:00 - 로컬 AI 모델 소개
- 00:12 - 로컬 모델 사용의 이점
- 00:52 - Phi-3 모델 패밀리 개요
- 01:30 - 올라마 소개
- 02:10 - Ollama 설치 및 모델 다운로드
- 03:10 - Ollama를 사용하여 UI 실행
- 04:20 - Ollama의 HTTP API 사용
- 05:50 - OpenAI 호환 API 기능
- 06:40 - 올라마와 피-3의 다음 단계
권장되는 리소스
관련 에피소드
Ollama를 사용하여 로컬 AI 모델을 개발 워크플로에 원활하게 통합하는 방법을 알아봅니다. 컴퓨터에서 강력한 AI 모델을 다운로드, 실행 및 상호 작용하고 OpenAI의 API와 호환성을 유지하는 방법을 알아보세요. Phi-3 모델 제품군을 살펴보고 이를 사용하여 프로토타입을 빌드하고 AI 애플리케이션을 실험하는 방법을 알아보세요.
장
- 00:00 - 로컬 AI 모델 소개
- 00:12 - 로컬 모델 사용의 이점
- 00:52 - Phi-3 모델 패밀리 개요
- 01:30 - 올라마 소개
- 02:10 - Ollama 설치 및 모델 다운로드
- 03:10 - Ollama를 사용하여 UI 실행
- 04:20 - Ollama의 HTTP API 사용
- 05:50 - OpenAI 호환 API 기능
- 06:40 - 올라마와 피-3의 다음 단계
권장되는 리소스
관련 에피소드
비디오 URL
HTML iframe
의견이 있으신가요? 여기에서 문제를 제출합니다.