Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Important
Depuis janvier 2026, le projet AI Shell n’est plus activement maintenu. Ce projet doit être considéré comme archivé d’un point de vue ingénieur.
Cet agent est utilisé pour interagir avec un modèle de langage exécuté localement en utilisant l’API Ollama.
Avant d’utiliser cet agent, vous devez installer et exécuter Ollama. Pour créer un agent, vous devez implémenter l’interface IAgent .
Vous pouvez également utiliser cet exemple de code comme modèle pour créer votre propre agent.
Conditions préalables à l’utilisation de l’agent
- Installer Ollama
- Installez un modèle Ollama, nous vous suggérons d’utiliser le
phi3modèle car il est défini comme modèle par défaut dans le code - Démarrer le serveur d’API Ollama
Paramétrage
Pour modifier le modèle, vous devez modifier la requête dans le code de la classe OllamaChatService. Le modèle par défaut est phi3.
Le point de terminaison par défaut est http://localhost:11434/api/generate avec 11434 étant le port par défaut.
Cela peut être modifié dans le code et éventuellement être ajouté à un fichier de configuration.
Une version mise à jour de l’agent Ollama est disponible dans le dépôt AI Shell. Voir le fichier README pour le plugin Ollama.
Limitations connues
- Il n’y a pas d’historique partagé entre les requêtes afin que le modèle ne puisse pas mémoriser les requêtes précédentes
- La diffusion en continu n’est actuellement pas prise en charge si vous modifiez la valeur de flux en
truedans les données à envoyer à l’API qu’elle ne fonctionnera pas