Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
La mémoire permet aux agents d’INTELLIGENCE artificielle de mémoriser des informations antérieures dans la conversation ou dans les conversations précédentes. Cela permet aux agents de fournir des réponses contextuelles et de créer des expériences personnalisées au fil du temps. Utilisez Databricks Lakebase, une base de données Postgres OLTP complètement managée, pour gérer l’état et l’historique des conversations.
Spécifications
- Activez Databricks Apps dans votre espace de travail. Consultez Configurer votre espace de travail Databricks Apps et votre environnement de développement.
- Instance Lakebase, consultez Créer et gérer une instance de base de données.
Mémoire à court terme et à long terme
La mémoire à court terme capture le contexte dans une session de conversation unique, tandis que la mémoire à long terme extrait et stocke les informations clés dans plusieurs conversations. Vous pouvez générer votre agent avec l’un ou les deux types de mémoire.
Agents avec mémoire à court terme et à long terme
| Mémoire à court terme | Mémoire à long terme |
|---|---|
| Capturer le contexte dans une session de conversation unique à l’aide d’ID de thread et de points de contrôle Maintenir le contexte des questions de suivi dans une session |
Extraire et stocker automatiquement des insights clés sur plusieurs sessions Personnaliser les interactions en fonction des préférences passées Créer une base de connaissances sur les utilisateurs qui améliorent les réponses au fil du temps |
Get started
Pour créer un agent avec de la mémoire sur Databricks Apps, clonez un modèle d’application prédéfini et suivez le flux de travail de développement décrit dans Créer un agent IA et le déployer sur les applications. Les modèles suivants montrent comment ajouter de la mémoire à court terme et à long terme aux agents à l’aide de frameworks populaires.
LangGraph
Utilisez les modèles LangGraph suivants pour ajouter de la mémoire à votre agent. Ces modèles utilisent le point de contrôle intégré de LangGraph avec Lakebase pour la gestion durable de l’état.
Mémoire à court terme : clonez le modèle agent-langgraph-short-term-memory pour générer un agent LangGraph qui gère le contexte de conversation au sein d’une session. Le modèle utilise des ID de thread et des points de contrôle LangGraph soutenus par Lakebase pour conserver l’état de conversation.
git clone https://github.com/databricks/app-templates.git cd app-templates/agent-langgraph-short-term-memoryMémoire à long terme : clonez le modèle agent-langgraph-long-term-memory pour créer un agent LangGraph qui mémorise les informations clés sur plusieurs conversations. Le modèle extrait et stocke automatiquement les insights utilisateur dans Lakebase, ce qui permet des interactions personnalisées au fil du temps.
git clone https://github.com/databricks/app-templates.git cd app-templates/agent-langgraph-long-term-memory
Kit de développement logiciel (SDK) Des agents OpenAI
Utilisez le modèle sdk OpenAI Agents suivant pour ajouter de la mémoire à votre agent. Ce modèle utilise les sessions du Kit de développement logiciel (SDK) Des agents OpenAI avec Lakebase pour la gestion durable de l’état.
Mémoire à court terme : clonez le modèle agent-openai-agents-sdk-short-term-memory pour générer un agent à l’aide du Kit de développement logiciel (SDK) Des agents OpenAI avec la gestion automatique de l’historique des conversations. Le modèle conserve les données de session dans Lakebase, ce qui active les conversations à plusieurs tours avec état sans gestion manuelle de la mémoire.
git clone https://github.com/databricks/app-templates.git cd app-templates/agent-openai-agents-sdk-short-term-memory
Déployer et interroger votre agent
Après avoir configuré votre agent avec de la mémoire, suivez les étapes décrites dans Créer un agent IA et déployez-le sur Applications pour exécuter votre agent localement, l’évaluer et le déployer sur Databricks Apps.