次の方法で共有


Ollama プラグイン

このエージェントは、Ollama API を使用してローカルで実行されている言語モデルと対話するために使用されます。 このエージェントを使用する前に、Ollama をインストールして実行する必要があります。 エージェントを作成するには、 IAgent インターフェイスを実装する必要があります。

このサンプルコードをテンプレートとして使用して、独自のエージェントを作成することもできます。

エージェントを使用するための前提条件

  • Ollama インストールする
  • Ollama モデルをインストールするには、コードで既定のモデルとして設定されている phi3 モデルを使用することをお勧めします
  • Ollama API サーバー を起動

構成

現在モデルを変更するには、OllamaChatService クラスのコード内のクエリを変更する必要があります。 既定のモデルは phi3です。

既定のエンドポイントは http://localhost:11434/api/generate され、11434 が既定のポートになります。 これはコード内で変更でき、最終的には構成ファイルに追加されます。

Ollama エージェントの更新バージョンは、AI Shell リポジトリで入手できます。 Ollama プラグインの README ファイルを参照してください。

既知の制限事項

  • クエリ間で共有される履歴がないため、モデルは以前のクエリを覚えることができません
  • ストリーム値をデータ内の true に変更して API に送信すると機能しない場合、ストリーミングは現在サポートされていません