Partager via


Modèles d’application d’IA

Cette section de la documentation vous présente les modèles d’application IA et les articles connexes qui utilisent ces modèles pour montrer comment effectuer des tâches de développement clés. Les modèles d’application IA vous fournissent des implémentations de référence bien gérées et faciles à déployer, qui constituent un point de départ de qualité pour vos applications IA.

Il existe deux catégories de modèles d’application IA, les blocs de construction et les solutions de bout en bout. Les sections suivantes présentent certains des modèles clés de chaque catégorie pour le langage de programmation que vous avez sélectionné en haut de cet article. Pour parcourir une liste plus complète, y compris ces modèles et d’autres modèles, consultez les modèles d’application IA dans la galerie Azure Developer CLI.

Blocs de construction

Les blocs de construction sont des exemples à plus petite échelle qui se concentrent sur des scénarios et des tâches spécifiques. La plupart des blocs de construction illustrent les fonctionnalités qui tirent parti de la solution de bout en bout pour une application de conversation qui utilise vos propres données.

Bloc de construction Description
Équilibre de charge avec Azure Container Apps Découvrez comment ajouter l’équilibrage de charge à votre application pour étendre l’application de conversation au-delà des limites de quota relatives aux modèles et aux jetons Azure OpenAI. Cette approche utilise Azure Container Apps pour créer trois points de terminaison Azure OpenAI et un conteneur principal pour diriger le trafic entrant vers l’un de ces trois points de terminaison.
Bloc de construction Description
Configurer la sécurité des documents pour l’application de conversation Lorsque vous générez une application de conversation à l’aide du modèle RAG avec vos propres données, assurez-vous que chaque utilisateur reçoit une réponse en fonction de ses autorisations. Un utilisateur autorisé doit avoir accès aux réponses contenues dans les documents de l’application de conversation. Un utilisateur non autorisé ne doit pas avoir accès aux réponses à partir de documents sécurisés qu’il n’a pas l’autorisation de voir.
Évaluer les réponses de l’application de conversation Découvrez comment évaluer les réponses d’une application de conversation par rapport à un ensemble de réponses correctes ou idéales (appelées vérité terrestre). Chaque fois que vous modifiez votre application de conversation d’une manière qui affecte les réponses, exécutez une évaluation pour comparer les modifications. Cette application de démonstration offre des outils que vous pouvez utiliser aujourd’hui pour faciliter l’exécution des évaluations.
Équilibre de charge avec Azure Container Apps Découvrez comment ajouter l’équilibrage de charge à votre application pour étendre l’application de conversation au-delà des limites de quota relatives aux modèles et aux jetons Azure OpenAI. Cette approche utilise Azure Container Apps pour créer trois points de terminaison Azure OpenAI et un conteneur principal pour diriger le trafic entrant vers l’un de ces trois points de terminaison.
Équilibre de charge avec Gestion des API Découvrez comment ajouter l’équilibrage de charge à votre application pour étendre l’application de conversation au-delà des limites de quota relatives aux modèles et aux jetons Azure OpenAI. Cette approche utilise Azure Gestion des API pour créer trois points de terminaison Azure OpenAI, ainsi qu’un conteneur principal pour diriger le trafic entrant vers l’un des trois points de terminaison.
Tester la charge de l’application de conversation Python avec Locust Découvrez le processus permettant d’effectuer des tests de charge sur une application de conversation Python à l’aide du modèle RAG avec Locust, un outil de test de charge open source populaire. L’objectif principal du test de charge est de s’assurer que la charge attendue sur votre application de conversation ne dépasse pas le quota actuel de transactions Azure OpenAI par minute (TPM). En simulant le comportement de l’utilisateur sous une charge importante, vous pouvez identifier les goulots d’étranglement potentiels et les problèmes d’extensibilité dans votre application.
Bloc de construction Description
Équilibre de charge avec Azure Container Apps Découvrez comment ajouter l’équilibrage de charge à votre application pour étendre l’application de conversation au-delà des limites de quota relatives aux modèles et aux jetons Azure OpenAI. Cette approche utilise Azure Container Apps pour créer trois points de terminaison Azure OpenAI et un conteneur principal pour diriger le trafic entrant vers l’un de ces trois points de terminaison.
Bloc de construction Description
Évaluer les réponses de l’application de conversation Découvrez comment évaluer les réponses d’une application de conversation par rapport à un ensemble de réponses correctes ou idéales (appelées vérité terrestre). Chaque fois que vous modifiez votre application de conversation d’une manière qui affecte les réponses, exécutez une évaluation pour comparer les modifications. Cette application de démonstration offre des outils que vous pouvez utiliser aujourd’hui pour faciliter l’exécution des évaluations.
Équilibre de charge avec Azure Container Apps Découvrez comment ajouter l’équilibrage de charge à votre application pour étendre l’application de conversation au-delà des limites de quota relatives aux modèles et aux jetons Azure OpenAI. Cette approche utilise Azure Container Apps pour créer trois points de terminaison Azure OpenAI et un conteneur principal pour diriger le trafic entrant vers l’un de ces trois points de terminaison.
Équilibre de charge avec Gestion des API Découvrez comment ajouter l’équilibrage de charge à votre application pour étendre l’application de conversation au-delà des limites de quota relatives aux modèles et aux jetons Azure OpenAI. Cette approche utilise Azure Gestion des API pour créer trois points de terminaison Azure OpenAI, ainsi qu’un conteneur principal pour diriger le trafic entrant vers l’un des trois points de terminaison.

Solutions de bout en bout

Les solutions de bout en bout sont des exemples de référence complets, comprenant la documentation, le code source et le déploiement que vous pouvez utiliser et étendre à vos propres fins.

Discuter avec vos données à l’aide d’Azure OpenAI et d’Azure AI Search avec .NET

Ce modèle est une solution complète de bout en bout montrant le modèle rag (Récupération augmentée) exécuté dans Azure. Il utilise Azure AI Search pour la récupération et les modèles de langage volumineux Azure OpenAI pour alimenter les expériences Q&A et de style ChatGPT.

Pour commencer à utiliser ce modèle, consultez Prise en main de la conversation à l’aide de votre propre exemple de données pour .NET. Pour accéder au code source et lire des détails détaillés sur le modèle, consultez le dépôt GitHub azure-search-openai-demo-csharp .

Diagramme montrant l’architecture du client à l’application back-end pour .NET.

Capture d’écran de l’application de conversation .NET dans le navigateur montrant plusieurs suggestions d’entrée de conversation et la zone de texte de conversation pour entrer une question.

Ce modèle illustre l’utilisation de ces fonctionnalités.

Solution d’hébergement Azure Technologies Modèles IA
Azure Container Apps
Azure Functions
Azure OpenAI
Vision par ordinateur Azure
Azure Form Recognizer
Recherche Azure AI
Stockage Azure
GPT 3.5 Turbo
GPT 4.0

Contoso chat retail Copilot avec .NET et le noyau sémantique

Ce modèle implémente Contoso Plein air, un magasin conceptuel spécialisé dans l’équipement extérieur pour les amateurs de randonnée et de camping. Ce magasin virtuel améliore l’engagement client et le support commercial via un agent de conversation intelligent. Cet agent est alimenté par le modèle RAG (Recovery Augmented Generation) au sein de Microsoft Azure AI Stack, enrichi avec la prise en charge du noyau sémantique et de l’invite.

Pour accéder au code source et lire des détails détaillés sur le modèle, consultez le dépôt GitHub contoso-chat-csharp-prompty .

Diagramme montrant l’architecture du client à l’application back-end pour l’application de randonnée.

Capture d’écran de la randonnée .NET et du magasin amateur de camping.

Ce modèle illustre l’utilisation de ces fonctionnalités.

Solution d’hébergement Azure Technologies Modèles IA
Azure Container Apps
Azure OpenAI
Microsoft Entra ID
Identité managée Azure
Azure Monitor
Recherche Azure AI
Azure AI Studio
Azure SQL
Stockage Azure
GPT 3.5 Turbo
GPT 4.0

Traiter l’automatisation avec la reconnaissance vocale et la synthèse avec .NET et GPT 3.5 Turbo

Ce modèle est une solution d’automatisation des processus qui répond aux problèmes signalés par les travailleurs de terrain et d’ateliers d’une entreprise appelée Contoso Manufacturing, une entreprise de fabrication qui fabrique des batteries de voitures. Les problèmes sont partagés par les workers en direct via l’entrée du microphone ou préenregistrés sous forme de fichiers audio. La solution traduit l’entrée audio de la reconnaissance vocale en texte, puis utilise un flux DLM et Prompty ou Promptflow pour résumer le problème et retourner les résultats dans un format spécifié par la solution.

Pour accéder au code source et lire des détails détaillés sur le modèle, consultez le dépôt GitHub summarization-openai-csharp-prompty .

Capture d’écran de l’application web .NET avec conversation latérale pour la reconnaissance vocale et la synthèse pour Contoso Manufacturing.

Ce modèle illustre l’utilisation de ces fonctionnalités.

Solution d’hébergement Azure Technologies Modèles IA
Azure Container Apps Reconnaissance vocale
Résumé
Azure OpenAI
GPT 3.5 Turbo

Discuter avec vos données à l’aide d’Azure OpenAI et d’Azure AI Search avec Python

Ce modèle est une solution complète de bout en bout montrant le modèle rag (Récupération augmentée) exécuté dans Azure. Il utilise Azure AI Search pour la récupération et les modèles de langage volumineux Azure OpenAI pour alimenter les expériences Q&A et de style ChatGPT.

Pour commencer à utiliser ce modèle, consultez Prise en main de la conversation à l’aide de votre propre exemple de données pour Python. Pour accéder au code source et lire des détails détaillés sur le modèle, consultez le dépôt GitHub azure-search-openai-demo .

Capture d’écran de l’application de conversation dans le navigateur montrant plusieurs suggestions d’entrée de conversation et la zone de texte de conversation pour entrer une question.

Diagramme montrant l’architecture du client à l’application back-end

Ce modèle illustre l’utilisation de ces fonctionnalités.

Solution d’hébergement Azure Technologies Modèles IA
Azure App Service Azure OpenAI
Recherche Bing
Identité managée Azure
Azure Monitor
Recherche Azure AI
Azure AI Studio
GPT 3.5 Turbo
GPT 4.0
DALL-E

Écriture créative multimodèle Copilot avec DALL-E

Ce modèle est une solution d’écriture multi-agent créative pour aider les utilisateurs à écrire des articles. Il montre comment créer et utiliser des agents IA pilotés par Azure OpenAI. Il inclut une application Flask qui prend une rubrique et une instruction d’un utilisateur appelle ensuite un agent de recherche qui utilise l’API Recherche Bing pour rechercher la rubrique, un agent de produit qui utilise Recherche d’IA Azure pour effectuer une recherche sémantique des produits connexes à partir d’un magasin de vecteurs, un agent enregistreur pour combiner les informations de recherche et de produit dans un article utile, et un agent d’éditeur pour affiner l’article qui est finalement présenté à l’utilisateur.

Pour accéder au code source et lire des détails détaillés sur le modèle, consultez le dépôt GitHub agent-openai-python-prompty .

Diagramme architectural de l’application copilote d’écriture multimodèle python.

Ce modèle illustre l’utilisation de ces fonctionnalités.

Solution d’hébergement Azure Technologies Modèles IA
Registre de conteneurs Azure
Azure Kubernetes
Azure OpenAI
Recherche Bing
Identité managée Azure
Azure Monitor
Recherche Azure AI
Azure AI Studio
GPT 3.5 Turbo
GPT 4.0
DALL-E

Contoso Chat Retail Copilot avec AI Studio

Ce modèle est une solution de conversation de support et de vente des clients. Il montre comment créer une application LLM (Large Language Model) avec une architecture RAG (Récupération augmentée génération) à l’aide d’Azure AI Studio et prompt Flow.

Pour accéder au code source et lire des détails détaillés sur le modèle, consultez le dépôt GitHub contoso-chat .

Capture d’écran de l’application de conversation avec flux d’invite dans l’éditeur visuel pour contoso chat retail copilot.

Ce modèle illustre l’utilisation de ces fonctionnalités.

Solution d’hébergement Azure Technologies Modèles IA
Azure Container Apps
Azure OpenAI
Recherche Azure AI
Azure AI Studio
Azure Cosmos DB
GPT 3.5 Turbo
GPT 4.0
Managed Integration Runtime (MIR)

Traiter l’automatisation avec la reconnaissance vocale et la synthèse avec AI Studio

Ce modèle est une solution d’automatisation des processus qui répond aux problèmes signalés par les travailleurs de terrain et d’ateliers d’une entreprise appelée Contoso Manufacturing, une entreprise de fabrication qui fabrique des batteries de voitures. Les problèmes sont partagés par les workers en direct via l’entrée du microphone, préenregistrés en tant que fichiers audio ou en tant qu’entrée de texte. La solution traduit l’entrée audio de la reconnaissance vocale en texte, puis utilise les rapports de texte comme entrée dans un flux DLM et Prompty/Promptflow pour résumer le problème et retourner les résultats dans un format spécifié par la solution.

Pour accéder au code source et lire des détails détaillés sur le modèle, consultez le dépôt GitHub summarization-openai-python-prompflow .

Diagramme architectural pour l’automatisation des processus avec synthèse vocale et synthèse avec AI Studio pour Python.

Ce modèle illustre l’utilisation de ces fonctionnalités.

Solution d’hébergement Azure Technologies Modèles IA
Azure Container Apps Azure AI Studio
Service de reconnaissance vocale
Flux d’invite
Managed Integration Runtime (MIR)
GPT 3.5 Turbo

Ce modèle est une application qui utilise Prompty, Langchain et Elasticsearch pour créer un agent de recherche LLM (Large Language Model). Cet agent avec la technologie RAG (Recovery Augmented Generation) est capable de répondre aux questions des utilisateurs en fonction des données fournies en intégrant la récupération d’informations en temps réel à des réponses génératives.

Pour accéder au code source et lire des détails détaillés sur le modèle, consultez le dépôt GitHub agent-python-openai-prompty-langchain .

Diagramme architectural d’une application à l’aide de l’outil Prompty, Langchain et Elasticsearch pour créer un agent de recherche de modèle de langage (LLM) volumineux avec appel de fonction pour Python.

Ce modèle illustre l’utilisation de ces fonctionnalités.

Solution d’hébergement Azure Technologies Modèles IA
Machine Learning Service Azure AI Studio
Recherche élastique
Microsoft Entra ID
Identité managée Azure
Azure Monitor
Stockage Azure
Azure AI Studio
Managed Integration Runtime (MIR)
GPT 3.5 Turbo

Appel de fonction avec Prompty, LangChain et Pinecone

Ce modèle utilise le nouvel outil Prompty, Langchain et Pinecone pour créer un agent de recherche LLM (Large Language Model). Cet agent avec la technologie RAG (Recovery Augmented Generation) est capable de répondre aux questions des utilisateurs en fonction des données fournies en intégrant la récupération d’informations en temps réel à des réponses génératives.

Pour accéder au code source et lire des détails détaillés sur le modèle, consultez le dépôt GitHub agent-openai-python-prompty-langchain-pinecone .

Diagramme architectural d’une application d’agent OpenAI à l’aide de Prompty, Langchain et Pinecone avec Python.

Ce modèle illustre l’utilisation de ces fonctionnalités.

Solution d’hébergement Azure Technologies Modèles IA
Azure Container Apps Pinecone
Microsoft Entra ID
Identité managée Microsoft
Azure Monitor
Stockage Azure
GPT 3.5 Turbo

Copilote analytique de l’API Assistant avec Python et Azure AI Studio

Ce modèle est une API Assistant pour discuter avec des données tabulaires et effectuer des analyses en langage naturel. Pour accéder au code source et lire des détails détaillés sur le modèle, consultez le dépôt GitHub Assistant-data-openai-python-promptflow .

Diagramme architectural d’une API Assistant pour discuter avec des données tabulaires et effectuer des analyses en langage naturel.

Ce modèle illustre l’utilisation de ces fonctionnalités.

Solution d’hébergement Azure Technologies Modèles IA
Machine Learning Service Recherche Azure AI
Azure AI Studio
Managed Integration Runtime (MIR)
Azure OpenAI
GPT 3.5 Turbo
GPT 4

Discuter avec vos données à l’aide d’Azure OpenAI et d’Azure AI Search avec Java

Ce modèle est une solution complète de bout en bout qui illustre le modèle rag (Récupération augmentée) en cours d’exécution dans Azure. Il utilise Azure AI Search pour la récupération et les modèles de langage volumineux Azure OpenAI pour alimenter les expériences Q&A et de style ChatGPT.

Pour commencer à utiliser ce modèle, consultez Prise en main de la conversation à l’aide de votre propre exemple de données pour Java. Pour accéder au code source et lire des détails détaillés sur le modèle, consultez le dépôt GitHub azure-search-openai-demo-java .

Diagramme montrant l’architecture du client à l’application back-end en Java.

Capture d’écran de l’application de conversation Java dans le navigateur montrant plusieurs suggestions d’entrée de conversation et la zone de texte de conversation pour entrer une question.

Ce modèle illustre l’utilisation de ces fonctionnalités.

Solution d’hébergement Azure Technologies Modèles IA
Azure App Service
Azure Container Apps
Azure Kubernetes Service
Azure OpenAI
Recherche Azure AI
Stockage Azure
Azure Monitor

Discuter avec vos données à l’aide d’Azure OpenAI et d’Azure AI Search avec JavaScript

Ce modèle est une solution complète de bout en bout montrant le modèle rag (Récupération augmentée) exécuté dans Azure. Il utilise Azure AI Search pour la récupération et les modèles de langage volumineux Azure OpenAI pour alimenter les expériences Q&A et de style ChatGPT.

Pour commencer à utiliser ce modèle, consultez Prise en main de la conversation à l’aide de votre propre exemple de données pour JavaScript. Pour accéder au code source et lire des détails détaillés sur le modèle, consultez le dépôt GitHub azure-search-openai-javascript .

Diagramme montrant l’architecture du client à l’application back-end.

Capture d’écran de l’application de conversation dans le navigateur montrant plusieurs suggestions d’entrée de conversation et la zone de texte de conversation pour entrer une question.

Ce modèle illustre l’utilisation de ces fonctionnalités.

Solution d’hébergement Azure Technologies Modèles IA
Azure Container Apps
Azure Static Web Apps
Azure OpenAI
Recherche Azure AI
Stockage Azure
Azure Monitor
text-embedding-ada-002

Frontend de conversation Azure OpenAI

Ce modèle est un composant web de conversation OpenAI minimal qui peut être relié à n’importe quelle implémentation back-end en tant que client.

Pour accéder au code source et lire des détails détaillés sur le modèle, consultez le dépôt GitHub azure-openai-chat-frontend .

Vidéo illustrant l’application frontale de conversation JavaScript.

Ce modèle illustre l’utilisation de ces fonctionnalités.

Solution d’hébergement Azure Technologies Modèles IA
Azure Static Web Apps Azure AI Search
Azure OpenAI
GPT 3.5 Turbo
GPT4

Conversation AI serverless avec RAG à l’aide de LangChain.js

Le modèle est un chatbot IA serverless avec récupération de génération augmentée à l’aide de LangChain.js et Azure qui utilise un ensemble de documents d’entreprise pour générer des réponses aux requêtes utilisateur. Il utilise une société fictive appelée Contoso Real Estate, et l’expérience permet à ses clients de poser des questions de support sur l’utilisation de ses produits. L’exemple de données comprend un ensemble de documents qui décrivent ses conditions d’utilisation, sa politique de confidentialité et un guide de support.

Pour savoir comment déployer et exécuter ce modèle, consultez Prise en main de Serverless AI Chat avec RAG à l’aide de LangChain.js. Pour accéder au code source et lire des détails détaillés sur le modèle, consultez le dépôt GitHub serverless-chat-langchainjs .

Découvrez comment déployer et exécuter ce modèle de référence JavaScript.

Diagramme montrant l’architecture de l’API serverless à l’aide de LangChainjs pour s’intégrer à Azure OpenAI Service et Azure AI Search.

Vidéo de navigateur de démonstration de l’application de conversation JavaScript à l’aide de RAG et de Langchain.js

Ce modèle illustre l’utilisation de ces fonctionnalités.

Solution d’hébergement Azure Technologies Modèles IA
Azure Static Web Apps
Azure Functions
Azure AI Search
Azure OpenAI
Azure Cosmos DB
Stockage Azure
Identité managée Azure
GPT4
Mistral
Ollama