Partager via


Modèles d’application d’IA

Cette section de la documentation vous présente les modèles d’applications AI et les articles associés qui utilisent ces modèles pour démontrer comment effectuer des tâches clés de développement. Les modèles d’application IA vous fournissent des implémentations de référence bien gérées et faciles à déployer, qui constituent un point de départ de qualité pour vos applications IA.

Il existe deux catégories de modèles d’application IA, les blocs de construction et les solutions de bout en bout. Les sections suivantes présentent certains des principaux modèles dans chaque catégorie pour le langage de programmation que vous avez sélectionné en haut de cet article. Pour parcourir une liste plus complète incluant ces modèles et d’autres, veuillez consulter les modèles d’applications AI sur la galerie Azure Developer CLI.

Blocs de construction

Les blocs de construction sont des exemples à plus petite échelle qui se concentrent sur des scénarios et des tâches spécifiques. La plupart des blocs de construction démontrent des fonctionnalités qui tirent parti de la solution de bout en bout pour une application de chat utilisant vos propres données.

Bloc de construction Description
Équilibrer la charge avec Azure Container Apps Découvrez comment ajouter l’équilibrage de charge à votre application pour étendre l’application de conversation au-delà des limites de quota relatives aux modèles et aux jetons Azure OpenAI. Cette approche utilise Azure Container Apps pour créer trois points de terminaison Azure OpenAI et un conteneur principal pour diriger le trafic entrant vers l’un de ces trois points de terminaison.
Bloc de construction Description
Configurer la sécurité des documents pour l’application de chat Lorsque vous créez une application de chat en utilisant le modèle RAG avec vos propres données, assurez-vous que chaque utilisateur reçoit une réponse basée sur ses autorisations. Un utilisateur autorisé doit avoir accès aux réponses contenues dans les documents de l’application de chat. Un utilisateur non autorisé ne devrait pas avoir accès aux réponses provenant de documents sécurisés qu’il n’est pas autorisé à voir.
Évaluer les réponses de l’application de chat Apprenez comment évaluer les réponses d’une application de chat par rapport à un ensemble de réponses correctes ou idéales (connues sous le nom de vérité de base). Chaque fois que vous modifiez votre application de chat d’une manière qui affecte les réponses, exécutez une évaluation pour comparer les modifications. Cette application de démonstration offre des outils que vous pouvez utiliser dès aujourd’hui pour faciliter l’exécution des évaluations.
Équilibrer la charge avec Azure Container Apps Découvrez comment ajouter l’équilibrage de charge à votre application pour étendre l’application de conversation au-delà des limites de quota relatives aux modèles et aux jetons Azure OpenAI. Cette approche utilise Azure Container Apps pour créer trois points de terminaison Azure OpenAI et un conteneur principal pour diriger le trafic entrant vers l’un de ces trois points de terminaison.
Équilibre de charge avec API Management Découvrez comment ajouter l’équilibrage de charge à votre application pour étendre l’application de conversation au-delà des limites de quota relatives aux modèles et aux jetons Azure OpenAI. Cette approche utilise Azure API Management pour créer trois points de terminaison Azure OpenAI, ainsi qu’un conteneur principal pour diriger le trafic entrant vers l’un des trois points de terminaison.
Tester la charge de l’application de chat Python avec Locust Découvrez le processus pour effectuer un test de charge sur une application de chat Python utilisant le modèle RAG avec Locust, un outil de test de charge open-source populaire. L’objectif principal du test de charge est de s’assurer que la charge attendue sur votre application de chat ne dépasse pas le quota actuel de Transactions Par Minute (TPM) d’Azure OpenAI. En simulant le comportement des utilisateurs sous une charge lourde, vous pouvez identifier les goulets d’étranglement potentiels et les problèmes de scalabilité dans votre application.
Bloc de construction Description
Équilibrer la charge avec Azure Container Apps Découvrez comment ajouter l’équilibrage de charge à votre application pour étendre l’application de conversation au-delà des limites de quota relatives aux modèles et aux jetons Azure OpenAI. Cette approche utilise Azure Container Apps pour créer trois points de terminaison Azure OpenAI et un conteneur principal pour diriger le trafic entrant vers l’un de ces trois points de terminaison.
Bloc de construction Description
Évaluer les réponses de l’application de chat Apprenez comment évaluer les réponses d’une application de chat par rapport à un ensemble de réponses correctes ou idéales (connues sous le nom de vérité de base). Chaque fois que vous modifiez votre application de chat d’une manière qui affecte les réponses, exécutez une évaluation pour comparer les modifications. Cette application de démonstration offre des outils que vous pouvez utiliser dès aujourd’hui pour faciliter l’exécution des évaluations.
Équilibrer la charge avec Azure Container Apps Découvrez comment ajouter l’équilibrage de charge à votre application pour étendre l’application de conversation au-delà des limites de quota relatives aux modèles et aux jetons Azure OpenAI. Cette approche utilise Azure Container Apps pour créer trois points de terminaison Azure OpenAI et un conteneur principal pour diriger le trafic entrant vers l’un de ces trois points de terminaison.
Équilibre de charge avec API Management Découvrez comment ajouter l’équilibrage de charge à votre application pour étendre l’application de conversation au-delà des limites de quota relatives aux modèles et aux jetons Azure OpenAI. Cette approche utilise Azure API Management pour créer trois points de terminaison Azure OpenAI, ainsi qu’un conteneur principal pour diriger le trafic entrant vers l’un des trois points de terminaison.

Solutions de bout en bout

Les solutions de bout en bout sont des exemples de référence complets, comprenant la documentation, le code source et le déploiement que vous pouvez utiliser et étendre à vos propres fins.

Discutez avec vos données en utilisant Azure OpenAI et Azure AI Search avec .NET

Ce modèle est une solution complète de bout en bout démontrant le modèle de génération augmentée par récupération (RAG) fonctionnant dans Azure. Il utilise Azure AI Search pour la récupération et les grands modèles de langage Azure OpenAI pour alimenter des expériences de type ChatGPT et Questions & Réponses.

Pour commencer avec ce modèle, veuillez consulter la section Démarrer avec l’exemple de chat utilisant vos propres données pour .NET. Pour accéder au code source et lire des détails approfondis sur le modèle, veuillez consulter le référentiel GitHub azure-search-openai-demo-csharp.

Diagramme montrant l’architecture du client à l’application backend pour .NET.

Capture d’écran de l’application de chat .NET dans un navigateur montrant plusieurs suggestions pour l’entrée de chat et la zone de texte de chat pour entrer une question.

Ce modèle démontre l’utilisation de ces fonctionnalités.

Solution d’hébergement Azure Technologies Modèles IA
Azure Container Apps
Azure Functions
Azure OpenAI
Vision par ordinateur Azure
Azure Form Recognizer
Recherche Azure AI
Stockage Azure
GPT 3.5 Turbo
GPT 4.0

Contoso chat retail Copilot avec .NET et Semantic Kernel

Ce modèle implémente Contoso Outdoors, un magasin conceptuel spécialisé dans l’équipement de plein air pour les amateurs de randonnée et de camping. Ce magasin virtuel améliore l’engagement des clients et le soutien aux ventes grâce à un agent de chat intelligent. Cet agent est alimenté par le modèle de génération augmentée par récupération (RAG) dans la pile Microsoft Azure AI, enrichi avec Semantic Kernel et le support Prompty.

Pour accéder au code source et lire des détails approfondis sur le modèle, veuillez consulter le référentiel GitHub contoso-chat-csharp-prompty.

Diagramme montrant l’architecture du client à l’application backend pour l’application de randonnée.

Capture d’écran du magasin de passionnés de randonnée et de camping .NET.

Ce modèle démontre l’utilisation de ces fonctionnalités.

Solution d’hébergement Azure Technologies Modèles IA
Azure Container Apps
Azure OpenAI
Microsoft Entra ID
Identité managée Azure
Azure Monitor
Recherche Azure AI
Azure AI Studio
Azure SQL
Stockage Azure
GPT 3.5 Turbo
GPT 4.0

Automatisation des processus avec conversion de la parole en texte et résumé avec .NET et GPT 3.5 Turbo

Ce modèle est une solution d’automatisation des processus qui reçoit des problèmes signalés par les travailleurs de terrain et de l’atelier dans une entreprise appelée Contoso Manufacturing, une entreprise de fabrication de batteries de voiture. Les problèmes sont partagés par les travailleurs soit en direct via l’entrée du microphone, soit pré-enregistrés sous forme de fichiers audio. La solution traduit l’entrée audio de la parole en texte, puis utilise un LLM et Prompty ou Promptflow pour résumer le problème et renvoyer les résultats dans un format spécifié par la solution.

Pour accéder au code source et lire des détails approfondis sur le modèle, veuillez consulter le référentiel GitHub summarization-openai-csharp-prompty.

Capture d’écran de l’application web .NET avec chat latéral pour la conversion de la parole en texte et le résumé pour Contoso Manufacturing.

Ce modèle démontre l’utilisation de ces fonctionnalités.

Solution d’hébergement Azure Technologies Modèles IA
Azure Container Apps Reconnaissance vocale
Résumé
Azure OpenAI
GPT 3.5 Turbo

Discutez avec vos données en utilisant Azure OpenAI et Azure AI Search avec Python

Ce modèle est une solution complète de bout en bout démontrant le modèle de génération augmentée par récupération (RAG) fonctionnant dans Azure. Il utilise Azure AI Search pour la récupération et les grands modèles de langage Azure OpenAI pour alimenter des expériences de type ChatGPT et Questions & Réponses.

Pour commencer avec ce modèle, veuillez consulter la section Démarrer avec l’exemple de chat utilisant vos propres données pour Python. Pour accéder au code source et lire des détails approfondis sur le modèle, veuillez consulter le référentiel GitHub azure-search-openai-demo.

Capture d’écran de l’application de conversation dans le navigateur montrant plusieurs suggestions d’entrée de conversation et la zone de texte de conversation pour entrer une question.

Diagramme montrant l’architecture du client à l’application back-end

Ce modèle démontre l’utilisation de ces fonctionnalités.

Solution d’hébergement Azure Technologies Modèles IA
Azure App Service Azure OpenAI
Recherche Bing
Identité managée Azure
Azure Monitor
Recherche Azure AI
Azure AI Studio
GPT 3.5 Turbo
GPT 4.0
DALL-E

Copilote d’écriture créative multimodale avec DALL-E

Ce modèle est une solution d’écriture créative multi-agent pour aider les utilisateurs à rédiger des articles. Il démontre comment créer et travailler avec des agents AI pilotés par Azure OpenAI. Il inclut une application Flask qui prend un sujet et une instruction d’un utilisateur, puis appelle un agent de recherche qui utilise l’API Bing Search pour rechercher le sujet, un agent de produit qui utilise Azure AI Search pour effectuer une recherche de similarité sémantique pour des produits associés à partir d’un magasin vectoriel, un agent rédacteur pour combiner les informations de recherche et de produit dans un article utile, et un agent éditeur pour affiner l’article qui est finalement présenté à l’utilisateur.

Pour accéder au code source et lire des détails approfondis sur le modèle, veuillez consulter le référentiel GitHub agent-openai-python-prompty.

Diagramme architectural de l’application copilote d’écriture créative multimodale Python.

Ce modèle démontre l’utilisation de ces fonctionnalités.

Solution d’hébergement Azure Technologies Modèles IA
Registre de conteneurs Azure
Azure Kubernetes
Azure OpenAI
Recherche Bing
Identité managée Azure
Azure Monitor
Recherche Azure AI
Azure AI Studio
GPT 3.5 Turbo
GPT 4.0
DALL-E

Contoso Chat Retail Copilot avec AI Studio

Ce modèle est une solution de chat pour les ventes et le support client. Il démontre comment construire une application de grand modèle de langage (LLM) avec une architecture RAG (Retrieval Augmented Generation) utilisant Azure AI Studio et Flux d’invite.

Pour accéder au code source et lire des détails approfondis sur le modèle, veuillez consulter le référentiel GitHub contoso-chat.

Capture d’écran de l’application de chat avec flux d’invite dans l’éditeur visuel pour le copilote de vente au détail Contoso.

Ce modèle démontre l’utilisation de ces fonctionnalités.

Solution d’hébergement Azure Technologies Modèles IA
Azure Container Apps
Azure OpenAI
Recherche Azure AI
Azure AI Studio
Azure Cosmos DB
GPT 3.5 Turbo
GPT 4.0
Runtime d’intégration géré (MIR)

Automatisation des processus avec conversion de la parole en texte et résumé avec AI Studio

Ce modèle est une solution d’automatisation des processus qui reçoit des problèmes signalés par les travailleurs de terrain et de l’atelier dans une entreprise appelée Contoso Manufacturing, une entreprise de fabrication de batteries de voiture. Les problèmes sont partagés par les travailleurs soit en direct via l’entrée du microphone, préenregistrés sous forme de fichiers audio ou sous forme de texte. La solution traduit l’entrée audio de la parole en texte, puis utilise les rapports texte comme entrée pour un LLM et Prompty/Promptflow pour résumer le problème et renvoyer les résultats dans un format spécifié par la solution.

Pour accéder au code source et lire des détails approfondis sur le modèle, veuillez consulter le référentiel GitHub summarization-openai-python-prompflow.

Diagramme architectural pour l’automatisation des processus avec conversion de la parole en texte et résumé avec AI Studio pour Python.

Ce modèle démontre l’utilisation de ces fonctionnalités.

Solution d’hébergement Azure Technologies Modèles IA
Azure Container Apps Azure AI Studio
Service de conversion de la parole en texte
Flux d’invite
Runtime d’intégration géré (MIR)
GPT 3.5 Turbo

Ce modèle est une application qui utilise Prompty, Langchain et Elasticsearch pour construire un agent de recherche de grand modèle de langage (LLM). Cet agent avec la technologie Retrieval Augmented Generation (RAG) est capable de répondre aux questions des utilisateurs sur la base des données fournies en intégrant la récupération d’informations en temps réel avec des réponses génératives.

Pour accéder au code source et lire des détails approfondis sur le modèle, veuillez consulter le référentiel GitHub agent-python-openai-prompty-langchain.

Diagramme architectural pour une application utilisant l’outil Prompty, Langchain et Elasticsearch pour construire un agent de recherche de grand modèle de langage (LLM) avec appel de fonction pour Python.

Ce modèle démontre l’utilisation de ces fonctionnalités.

Solution d’hébergement Azure Technologies Modèles IA
Machine Learning Service Azure AI Studio
Recherche élastique
Microsoft Entra ID
Identité managée Azure
Azure Monitor
Stockage Azure
Azure AI Studio
Runtime d’intégration géré (MIR)
GPT 3.5 Turbo

Appel de fonction avec Prompty, LangChain et Pinecone

Ce modèle utilise le nouvel outil Prompty, Langchain et Pinecone pour construire un agent de recherche de grand modèle de langage (LLM). Cet agent avec la technologie Retrieval Augmented Generation (RAG) est capable de répondre aux questions des utilisateurs sur la base des données fournies en intégrant la récupération d’informations en temps réel avec des réponses génératives.

Pour accéder au code source et lire des détails approfondis sur le modèle, veuillez consulter le référentiel GitHub agent-openai-python-prompty-langchain-pinecone.

Diagramme architectural pour une application d’agent OpenAI utilisant Prompty, Langchain et Pinecone avec Python.

Ce modèle démontre l’utilisation de ces fonctionnalités.

Solution d’hébergement Azure Technologies Modèles IA
Azure Container Apps Pinecone
Microsoft Entra ID
Identité gérée par Microsoft
Azure Monitor
Stockage Azure
GPT 3.5 Turbo

Copilote analytique de l’API Assistant avec Python et Azure AI Studio

Ce modèle est une API d’assistant pour discuter avec des données tabulaires et effectuer des analyses en langage naturel. Pour accéder au code source et lire des détails approfondis sur le modèle, veuillez consulter le référentiel GitHub assistant-data-openai-python-promptflow.

Diagramme architectural pour une API d’assistant pour discuter avec des données tabulaires et effectuer des analyses en langage naturel.

Ce modèle démontre l’utilisation de ces fonctionnalités.

Solution d’hébergement Azure Technologies Modèles IA
Machine Learning Service Recherche Azure AI
Azure AI Studio
Runtime d’intégration géré (MIR)
Azure OpenAI
GPT 3.5 Turbo
GPT 4

Discutez avec vos données en utilisant Azure OpenAI et Azure AI Search avec Java

Ce modèle est une solution complète de bout en bout qui démontre le modèle de génération augmentée par récupération (RAG) fonctionnant dans Azure. Il utilise Azure AI Search pour la récupération et les grands modèles de langage Azure OpenAI pour alimenter des expériences de type ChatGPT et Questions & Réponses.

Pour commencer avec ce modèle, veuillez consulter la section Démarrer avec l’exemple de chat utilisant vos propres données pour Java. Pour accéder au code source et lire des détails approfondis sur le modèle, veuillez consulter le référentiel GitHub azure-search-openai-demo-java.

Diagramme montrant l’architecture du client à l’application backend en Java.

Capture d’écran de l’application de chat Java dans un navigateur montrant plusieurs suggestions pour l’entrée de chat et la zone de texte de chat pour entrer une question.

Ce modèle démontre l’utilisation de ces fonctionnalités.

Solution d’hébergement Azure Technologies Modèles IA
Azure App Service
Azure Container Apps
Azure Kubernetes Service
Azure OpenAI
Recherche Azure AI
Stockage Azure
Azure Monitor

Discutez avec vos données en utilisant Azure OpenAI et Azure AI Search avec JavaScript

Ce modèle est une solution complète de bout en bout démontrant le modèle de génération augmentée par récupération (RAG) fonctionnant dans Azure. Il utilise Azure AI Search pour la récupération et les grands modèles de langage Azure OpenAI pour alimenter des expériences de type ChatGPT et Questions & Réponses.

Pour commencer avec ce modèle, veuillez consulter la section Démarrer avec l’exemple de chat utilisant vos propres données pour JavaScript. Pour accéder au code source et lire des détails approfondis sur le modèle, veuillez consulter le référentiel GitHub azure-search-openai-javascript.

Diagramme montrant l’architecture du client à l’application back-end.

Capture d’écran de l’application de conversation dans le navigateur montrant plusieurs suggestions d’entrée de conversation et la zone de texte de conversation pour entrer une question.

Ce modèle démontre l’utilisation de ces fonctionnalités.

Solution d’hébergement Azure Technologies Modèles IA
Azure Container Apps
Azure Static Web Apps
Azure OpenAI
Recherche Azure AI
Stockage Azure
Azure Monitor
text-embedding-ada-002

Frontend de chat Azure OpenAI

Ce modèle est un composant web de chat OpenAI minimal qui peut être connecté à n’importe quelle implémentation backend en tant que client.

Pour accéder au code source et lire des détails approfondis sur le modèle, veuillez consulter le référentiel GitHub azure-openai-chat-frontend.

Vidéo démontrant l’application frontend de chat JavaScript.

Ce modèle démontre l’utilisation de ces fonctionnalités.

Solution d’hébergement Azure Technologies Modèles IA
Azure Static Web Apps Azure AI Search
Azure OpenAI
GPT 3.5 Turbo
GPT4

Chat AI Serverless avec RAG utilisant LangChain.js

Le modèle est un chatbot AI serverless avec génération augmentée par récupération utilisant LangChain.js et Azure qui utilise un ensemble de documents d’entreprise pour générer des réponses aux requêtes des utilisateurs. Il utilise une entreprise fictive appelée Contoso Real Estate, et l’expérience permet à ses clients de poser des questions de support sur l’utilisation de ses produits. Les données d’exemple incluent un ensemble de documents qui décrit ses conditions d’utilisation, sa politique de confidentialité et un guide de support.

Pour apprendre comment déployer et exécuter ce modèle, veuillez consulter la section Démarrer avec le chat AI Serverless avec RAG utilisant LangChain.js. Pour accéder au code source et lire des détails approfondis sur le modèle, veuillez consulter le référentiel GitHub serverless-chat-langchainjs.

Apprenez comment déployer et exécuter ce modèle de référence JavaScript.

Diagramme montrant l’architecture pour l’API serverless utilisant LangChainjs pour s’intégrer avec Azure OpenAI Service et Azure AI Search.

Vidéo de démonstration de l’application de chat JavaScript utilisant RAG et Langchain.js dans un navigateur

Ce modèle démontre l’utilisation de ces fonctionnalités.

Solution d’hébergement Azure Technologies Modèles IA
Azure Static Web Apps
Azure Functions
Azure AI Search
Azure OpenAI
Azure Cosmos DB
Stockage Azure
Identité managée Azure
GPT4
Mistral
Ollama