エピソード
Ollama を使用してローカル コンピューターで AI モデルを実行する (パート 5/10)
代入 Yohan Lasorsa
Ollama を使用して、ローカル AI モデルを開発ワークフローにシームレスに統合する方法について説明します。 マシン上の強力な AI モデルをダウンロード、実行、操作し、OpenAI の API との互換性を維持する方法について説明します。 Phi-3 モデル ファミリを探索し、それを使用してプロトタイプを構築し、AI アプリケーションを試す方法を見ていきます。
章
- 00:00 - ローカル AI モデルの概要
- 00:12 - ローカル モデルを使用する利点
- 00:52 - Phi-3モデルファミリーの概要
- 01:30 - オラマの紹介
- 02:10 - Ollama のインストールとモデルのダウンロード
- 03:10 - Ollama で UI を実行する
- 04:20 - Ollama の HTTP API の使用
- 05:50 - OpenAI 互換 API 機能
- 06:40 - Ollama と Phi-3 の次のステップ
推奨リソース
関連エピソード
Ollama を使用して、ローカル AI モデルを開発ワークフローにシームレスに統合する方法について説明します。 マシン上の強力な AI モデルをダウンロード、実行、操作し、OpenAI の API との互換性を維持する方法について説明します。 Phi-3 モデル ファミリを探索し、それを使用してプロトタイプを構築し、AI アプリケーションを試す方法を見ていきます。
章
- 00:00 - ローカル AI モデルの概要
- 00:12 - ローカル モデルを使用する利点
- 00:52 - Phi-3モデルファミリーの概要
- 01:30 - オラマの紹介
- 02:10 - Ollama のインストールとモデルのダウンロード
- 03:10 - Ollama で UI を実行する
- 04:20 - Ollama の HTTP API の使用
- 05:50 - OpenAI 互換 API 機能
- 06:40 - Ollama と Phi-3 の次のステップ
推奨リソース
関連エピソード
ビデオの URL
HTML iframe
ご意見およびご提案がある場合は、 こちらから問題を送信してください。