Partage via


Commencez avec Serverless AI Chat avec RAG en utilisant LangChain.js

Créer des applications d’IA peut être complexe. Avec LangChain.js, Azure Functions et les technologies Serverless, vous pouvez simplifier ce processus. Ces outils gèrent l’infrastructure et évoluent automatiquement, vous permettant de vous concentrer sur la fonctionnalité du chatbot. Le chatbot utilise des documents d’entreprise pour générer des réponses d’IA.

Le code inclut des données d’exemple pour une entreprise fictive, Contoso Real Estate. Les clients peuvent poser des questions de support sur les produits de l’entreprise. Les données incluent des documents sur les conditions de service de l’entreprise, la politique de confidentialité et le guide de support.

Capture d’écran de l’application de conversation dans le navigateur montrant plusieurs suggestions d’entrée de conversation et la zone de texte de conversation pour entrer une question.

Remarque

Cet article utilise un ou plusieurs modèles d’application IA comme base pour les exemples et les conseils qu’il contient. Les modèles d’application IA vous fournissent des implémentations de référence bien gérées et faciles à déployer, qui constituent un point de départ de qualité pour vos applications IA.

Vue d’ensemble de l’architecture

L’application de chat

L’utilisateur interagit avec l’application :

  • Avec l’interface de chat dans l’application web client.
  • L’application web client envoie la requête de l’utilisateur à l’API Serverless via des appels HTTP.
  • L’API Serverless crée une chaîne pour coordonner les interactions entre Azure AI et Azure AI Search afin de générer une réponse.
  • S’il est nécessaire de faire référence aux documents, Azure Blob Storage est utilisé pour récupérer les documents PDF.
  • La réponse générée est ensuite renvoyée à l’application web et affichée à l’utilisateur.

Une architecture simple de l’application de conversation est illustrée dans le diagramme suivant :

Diagramme montrant l’architecture du client à l’application back-end.

LangChainjs simplifie la complexité entre les services

Le flux de l’API est utile pour comprendre comment LangChainJS est utile dans ce scénario en extrayant les interactions. L’endpoint de l’API serverless :

  • Reçoit la question de l’utilisateur.
  • Crée des objets clients :
    • Azure OpenAI pour les embeddings et le chat
    • Azure AI Search pour le magasin de vecteurs
  • Crée une chaîne de documents avec le modèle LLM, le message de chat (invites système et utilisateur) et la source du document.
  • Crée une chaîne de récupération à partir de la chaîne de documents et du magasin de vecteurs.
  • Diffuse les réponses de la chaîne de récupération.

Le travail du développeur consiste à configurer correctement les services de dépendance, comme Azure OpenAI et Azure AI Search, et à construire correctement les chaînes. La logique sous-jacente de la chaîne sait comment résoudre la requête. Cela vous permet de construire des chaînes à partir de nombreux services et configurations différents tant qu’ils fonctionnent avec les exigences de LangChain.

Où se trouve Azure dans cette architecture ?

Cette application est composée de plusieurs composants :

  • Une application web réalisée avec un seul composant web de chat construit avec Lit et hébergée sur Azure Static Web Apps. Le code se trouve dans le dossier packages/webapp.

  • Une API serverless construite avec Azure Functions et utilisant LangChain.js pour ingérer les documents et générer des réponses aux requêtes de chat des utilisateurs. Le code se trouve dans le dossier packages/api.

  • Un service Azure OpenAI pour créer des embeddings et générer une réponse.

  • Une base de données pour stocker le texte extrait des documents et les vecteurs générés par LangChain.js, en utilisant Azure AI Search.

  • Un stockage de fichiers pour stocker les documents source, en utilisant Azure Blob Storage.

Prérequis

Un environnement de conteneur de développement est disponible avec toutes les dépendances requises pour terminer cet article. Vous pouvez exécuter le conteneur de développement dans GitHub Codespaces (dans un navigateur) ou localement à l’aide de Visual Studio Code.

Pour suivre les instructions de cet article, vous devez disposer des éléments suivants :

  • Un abonnement Azure - En créer un gratuitement
  • Autorisations de compte Azure : votre compte Azure doit disposer d’autorisations Microsoft.Authorization/roleAssignments/write, telles que Administrateur de l’accès utilisateur ou Propriétaire.
  • Accès accordé à Azure OpenAI dans l’abonnement Azure souhaité. L’accès à ce service n’est accordé qu’à l’application. Vous pouvez demander l’accès à Azure OpenAI en complétant le formulaire à l’adresse https://aka.ms/oai/access. Ouvrez un problème sur ce dépôt pour nous contacter si vous rencontrez un problème.
  • GitHub

Environnement de développement ouvert

Commencez maintenant par un environnement de développement sur lequel toutes les dépendances sont installées pour terminer cet article.

GitHub Codespaces exécute un conteneur de développement géré par GitHub avec Visual Studio Code pour le web comme interface utilisateur. Pour un environnement de développement le plus simple, utilisez GitHub Codespaces pour disposer des outils de développement et des dépendances appropriés préinstallés pour terminer cet article.

Important

Tous les comptes GitHub peuvent utiliser codespaces pendant jusqu’à 60 heures gratuites chaque mois avec 2 instances principales. Pour plus d’informations, consultez Le stockage mensuel inclus et les heures de cœur GitHub Codespaces.

  1. Ouvrez dans Codespace.

    Ouvrir dans un GitHub Codespaces

  2. Attendez que le codespace démarre. Ce processus de démarrage peut prendre quelques minutes.

  3. Dans le terminal en bas de l’écran, connectez-vous à Azure avec Azure Developer CLI.

    azd auth login
    

    Complétez le processus d’authentification.

  4. Les tâches restantes de cet article s’effectuent dans ce conteneur de développement.

Déployer et exécuter

Le référentiel d’exemples contient tout le code et les fichiers de configuration dont vous avez besoin pour déployer l’application de chat serverless sur Azure. Les étapes suivantes vous guident tout au long du processus de déploiement de l’exemple sur Azure.

Déployer une application de conversation sur Azure

Important

Les ressources Azure créées dans cette section entraînent des coûts immédiats, principalement de la ressource Recherche Azure AI. Ces ressources peuvent entraîner des coûts même si vous interrompez la commande avant la fin de exécution.

  1. Exécutez la commande Azure Developer CLI suivante pour provisionner les ressources Azure et déployer le code source :

    azd up
    
  2. Utilisez le tableau suivant pour répondre aux invites :

    Prompt Réponse
    Nom de l’environnement Gardez-le court et en minuscules. Ajoutez votre nom ou votre pseudo. Par exemple : john-chat. Il est utilisé comme partie du nom du groupe de ressources.
    Abonnement Sélectionnez l’abonnement pour créer les ressources.
    Emplacement (pour l’hébergement) Sélectionnez un emplacement près de chez vous dans la liste.
    Emplacement pour le modèle OpenAI Sélectionnez un emplacement près de chez vous dans la liste. Si le premier emplacement choisi est également disponible, sélectionnez-le.
  3. Attendez que l’application soit déployée. Le déploiement peut prendre 5 à 10 minutes.

  4. Une fois l’application déployée avec succès, vous voyez deux URL affichées dans le terminal.

  5. Sélectionnez cette URL étiquetée Deploying service webapp pour ouvrir l’application de conversation dans un navigateur.

Utiliser l’application de conversation pour obtenir des réponses à partir de fichiers PDF

L’application de chat est préchargée avec des informations de location à partir d’un catalogue de fichiers PDF. Vous pouvez utiliser l’application de chat pour poser des questions sur le processus de location. Les étapes suivantes vous guident tout au long du processus d’utilisation de l’application de conversation.

  1. Dans le navigateur, sélectionnez ou saisissez Quelle est la politique de remboursement.

    Capture d’écran de la première question et réponse de l’application de chat.

  2. Sélectionnez une question de suivi.

    Capture d’écran de l’invite de suivi suggérée par l’application de chat et réponse.

  3. À partir de la réponse, sélectionnez la citation pour voir le document utilisé pour générer la réponse. Cela livre le document d’Azure Storage au client. Lorsque vous avez terminé avec le nouvel onglet du navigateur, fermez-le pour revenir à l’application de chat serverless.

    Capture d’écran du document original contenant la citation.

Nettoyer les ressources

Nettoyage des ressources Azure

Les ressources Azure créées dans cet article sont facturées dans votre abonnement Azure. Si vous pensez ne plus avoir besoin de ces ressources, supprimez-les pour éviter des frais supplémentaires.

Exécutez la commande Azure Developer CLI suivante pour supprimer les ressources Azure et le code source :

azd down --purge

Nettoyer GitHub Codespaces

La suppression de l’environnement GitHub Codespaces vous permet d’optimiser le nombre d’heures gratuites par cœur que vous obtenez pour votre compte.

Important

Pour plus d’informations sur les droits de votre compte GitHub, consultez GitHub Codespaces mensuel inclus stockage et heures principales.

  1. Connectez-vous au tableau de bord GitHub Codespaces (https://github.com/codespaces).

  2. Localisez vos codespaces en cours d’exécution provenant du référentiel GitHub Azure-Samples/serverless-chat-langchainjs.

    Capture d’écran de tous les Codespaces en cours d’exécution, avec leur état et leurs modèles.

  3. Ouvrez le menu contextuel, ..., pour le codespace, puis sélectionnez Supprimer.

Obtenir de l’aide

Cet exemple de référentiel propose des informations de résolution des problèmes.

Si votre problème n’est pas résolu, consignez votre problème dans les Problèmes du référentiel.