エピソード

Ollama を使用してローカル コンピューターで AI モデルを実行する (パート 5/10)

代入 Yohan Lasorsa

Ollama を使用して、ローカル AI モデルを開発ワークフローにシームレスに統合する方法について説明します。 マシン上の強力な AI モデルをダウンロード、実行、操作し、OpenAI の API との互換性を維持する方法について説明します。 Phi-3 モデル ファミリを探索し、それを使用してプロトタイプを構築し、AI アプリケーションを試す方法を見ていきます。

  • 00:00 - ローカル AI モデルの概要
  • 00:12 - ローカル モデルを使用する利点
  • 00:52 - Phi-3モデルファミリーの概要
  • 01:30 - オラマの紹介
  • 02:10 - Ollama のインストールとモデルのダウンロード
  • 03:10 - Ollama で UI を実行する
  • 04:20 - Ollama の HTTP API の使用
  • 05:50 - OpenAI 互換 API 機能
  • 06:40 - Ollama と Phi-3 の次のステップ