このエージェントは、Ollama API を使用してローカルで実行されている言語モデルと対話するために使用されます。
このエージェントを使用する前に、Ollama をインストールして実行する必要があります。 エージェントを作成するには、 IAgent
インターフェイスを実装する必要があります。
このサンプルコードをテンプレートとして使用して、独自のエージェントを作成することもできます。
エージェントを使用するための前提条件
- Ollama
インストールする -
Ollama モデルをインストールするには、コードで既定のモデルとして設定されている
phi3
モデルを使用することをお勧めします - Ollama API サーバー を起動
構成
現在モデルを変更するには、OllamaChatService
クラスのコード内のクエリを変更する必要があります。 既定のモデルは phi3
です。
既定のエンドポイントは http://localhost:11434/api/generate
され、11434
が既定のポートになります。
これはコード内で変更でき、最終的には構成ファイルに追加されます。
Ollama エージェントの更新バージョンは、AI Shell リポジトリで入手できます。 Ollama プラグインの README ファイルを参照してください。
既知の制限事項
- クエリ間で共有される履歴がないため、モデルは以前のクエリを覚えることができません
- ストリーム値をデータ内の
true
に変更して API に送信すると機能しない場合、ストリーミングは現在サポートされていません