Partager via


Mémoire de l’agent IA

La mémoire permet aux agents d’INTELLIGENCE artificielle de mémoriser des informations antérieures dans la conversation ou dans les conversations précédentes. Cela permet aux agents de fournir des réponses contextuelles et de créer des expériences personnalisées au fil du temps. Utilisez Databricks Lakebase, une base de données Postgres OLTP complètement managée, pour gérer l’état et l’historique des conversations.

Spécifications

Mémoire à court terme et à long terme

La mémoire à court terme capture le contexte dans une session de conversation unique, tandis que la mémoire à long terme extrait et stocke les informations clés dans plusieurs conversations. Vous pouvez générer votre agent avec l’un ou les deux types de mémoire.

Agents avec mémoire à court terme et à long terme

Mémoire à court terme Mémoire à long terme
Capturer le contexte dans une session de conversation unique à l’aide d’ID de thread et de points de contrôle
Maintenir le contexte des questions de suivi dans une session
Extraire et stocker automatiquement des insights clés sur plusieurs sessions
Personnaliser les interactions en fonction des préférences passées
Créer une base de connaissances sur les utilisateurs qui améliorent les réponses au fil du temps

Get started

Pour créer un agent avec de la mémoire sur Databricks Apps, clonez un modèle d’application prédéfini et suivez le flux de travail de développement décrit dans Créer un agent IA et le déployer sur les applications. Les modèles suivants montrent comment ajouter de la mémoire à court terme et à long terme aux agents à l’aide de frameworks populaires.

LangGraph

Utilisez les modèles LangGraph suivants pour ajouter de la mémoire à votre agent. Ces modèles utilisent le point de contrôle intégré de LangGraph avec Lakebase pour la gestion durable de l’état.

  • Mémoire à court terme : clonez le modèle agent-langgraph-short-term-memory pour générer un agent LangGraph qui gère le contexte de conversation au sein d’une session. Le modèle utilise des ID de thread et des points de contrôle LangGraph soutenus par Lakebase pour conserver l’état de conversation.

    git clone https://github.com/databricks/app-templates.git
    cd app-templates/agent-langgraph-short-term-memory
    
  • Mémoire à long terme : clonez le modèle agent-langgraph-long-term-memory pour créer un agent LangGraph qui mémorise les informations clés sur plusieurs conversations. Le modèle extrait et stocke automatiquement les insights utilisateur dans Lakebase, ce qui permet des interactions personnalisées au fil du temps.

    git clone https://github.com/databricks/app-templates.git
    cd app-templates/agent-langgraph-long-term-memory
    
Kit de développement logiciel (SDK) Des agents OpenAI

Utilisez le modèle sdk OpenAI Agents suivant pour ajouter de la mémoire à votre agent. Ce modèle utilise les sessions du Kit de développement logiciel (SDK) Des agents OpenAI avec Lakebase pour la gestion durable de l’état.

  • Mémoire à court terme : clonez le modèle agent-openai-agents-sdk-short-term-memory pour générer un agent à l’aide du Kit de développement logiciel (SDK) Des agents OpenAI avec la gestion automatique de l’historique des conversations. Le modèle conserve les données de session dans Lakebase, ce qui active les conversations à plusieurs tours avec état sans gestion manuelle de la mémoire.

    git clone https://github.com/databricks/app-templates.git
    cd app-templates/agent-openai-agents-sdk-short-term-memory
    

Déployer et interroger votre agent

Après avoir configuré votre agent avec de la mémoire, suivez les étapes décrites dans Créer un agent IA et déployez-le sur Applications pour exécuter votre agent localement, l’évaluer et le déployer sur Databricks Apps.

Étapes suivantes