Modèles d’application d’IA
Cette section de la documentation vous présente les modèles d’application IA et les articles connexes qui utilisent ces modèles pour montrer comment effectuer des tâches de développement clés. Les modèles d’application IA vous fournissent des implémentations de référence bien gérées et faciles à déployer, qui constituent un point de départ de qualité pour vos applications IA.
Il existe deux catégories de modèles d’application IA, les blocs de construction et les solutions de bout en bout. Les sections suivantes présentent certains des modèles clés de chaque catégorie pour le langage de programmation que vous avez sélectionné en haut de cet article. Pour parcourir une liste plus complète, y compris ces modèles et d’autres modèles, consultez les modèles d’application IA dans la galerie Azure Developer CLI.
Blocs de construction
Les blocs de construction sont des exemples à plus petite échelle qui se concentrent sur des scénarios et des tâches spécifiques. La plupart des blocs de construction illustrent les fonctionnalités qui tirent parti de la solution de bout en bout pour une application de conversation qui utilise vos propres données.
Bloc de construction | Description |
---|---|
Équilibre de charge avec Azure Container Apps | Découvrez comment ajouter l’équilibrage de charge à votre application pour étendre l’application de conversation au-delà des limites de quota relatives aux modèles et aux jetons Azure OpenAI. Cette approche utilise Azure Container Apps pour créer trois points de terminaison Azure OpenAI et un conteneur principal pour diriger le trafic entrant vers l’un de ces trois points de terminaison. |
Bloc de construction | Description |
---|---|
Configurer la sécurité des documents pour l’application de conversation | Lorsque vous générez une application de conversation à l’aide du modèle RAG avec vos propres données, assurez-vous que chaque utilisateur reçoit une réponse en fonction de ses autorisations. Un utilisateur autorisé doit avoir accès aux réponses contenues dans les documents de l’application de conversation. Un utilisateur non autorisé ne doit pas avoir accès aux réponses à partir de documents sécurisés qu’il n’a pas l’autorisation de voir. |
Évaluer les réponses de l’application de conversation | Découvrez comment évaluer les réponses d’une application de conversation par rapport à un ensemble de réponses correctes ou idéales (appelées vérité terrestre). Chaque fois que vous modifiez votre application de conversation d’une manière qui affecte les réponses, exécutez une évaluation pour comparer les modifications. Cette application de démonstration offre des outils que vous pouvez utiliser aujourd’hui pour faciliter l’exécution des évaluations. |
Équilibre de charge avec Azure Container Apps | Découvrez comment ajouter l’équilibrage de charge à votre application pour étendre l’application de conversation au-delà des limites de quota relatives aux modèles et aux jetons Azure OpenAI. Cette approche utilise Azure Container Apps pour créer trois points de terminaison Azure OpenAI et un conteneur principal pour diriger le trafic entrant vers l’un de ces trois points de terminaison. |
Équilibre de charge avec Gestion des API | Découvrez comment ajouter l’équilibrage de charge à votre application pour étendre l’application de conversation au-delà des limites de quota relatives aux modèles et aux jetons Azure OpenAI. Cette approche utilise Azure Gestion des API pour créer trois points de terminaison Azure OpenAI, ainsi qu’un conteneur principal pour diriger le trafic entrant vers l’un des trois points de terminaison. |
Tester la charge de l’application de conversation Python avec Locust | Découvrez le processus permettant d’effectuer des tests de charge sur une application de conversation Python à l’aide du modèle RAG avec Locust, un outil de test de charge open source populaire. L’objectif principal du test de charge est de s’assurer que la charge attendue sur votre application de conversation ne dépasse pas le quota actuel de transactions Azure OpenAI par minute (TPM). En simulant le comportement de l’utilisateur sous une charge importante, vous pouvez identifier les goulots d’étranglement potentiels et les problèmes d’extensibilité dans votre application. |
Bloc de construction | Description |
---|---|
Équilibre de charge avec Azure Container Apps | Découvrez comment ajouter l’équilibrage de charge à votre application pour étendre l’application de conversation au-delà des limites de quota relatives aux modèles et aux jetons Azure OpenAI. Cette approche utilise Azure Container Apps pour créer trois points de terminaison Azure OpenAI et un conteneur principal pour diriger le trafic entrant vers l’un de ces trois points de terminaison. |
Bloc de construction | Description |
---|---|
Évaluer les réponses de l’application de conversation | Découvrez comment évaluer les réponses d’une application de conversation par rapport à un ensemble de réponses correctes ou idéales (appelées vérité terrestre). Chaque fois que vous modifiez votre application de conversation d’une manière qui affecte les réponses, exécutez une évaluation pour comparer les modifications. Cette application de démonstration offre des outils que vous pouvez utiliser aujourd’hui pour faciliter l’exécution des évaluations. |
Équilibre de charge avec Azure Container Apps | Découvrez comment ajouter l’équilibrage de charge à votre application pour étendre l’application de conversation au-delà des limites de quota relatives aux modèles et aux jetons Azure OpenAI. Cette approche utilise Azure Container Apps pour créer trois points de terminaison Azure OpenAI et un conteneur principal pour diriger le trafic entrant vers l’un de ces trois points de terminaison. |
Équilibre de charge avec Gestion des API | Découvrez comment ajouter l’équilibrage de charge à votre application pour étendre l’application de conversation au-delà des limites de quota relatives aux modèles et aux jetons Azure OpenAI. Cette approche utilise Azure Gestion des API pour créer trois points de terminaison Azure OpenAI, ainsi qu’un conteneur principal pour diriger le trafic entrant vers l’un des trois points de terminaison. |
Solutions de bout en bout
Les solutions de bout en bout sont des exemples de référence complets, comprenant la documentation, le code source et le déploiement que vous pouvez utiliser et étendre à vos propres fins.
Discuter avec vos données à l’aide d’Azure OpenAI et d’Azure AI Search avec .NET
Ce modèle est une solution complète de bout en bout montrant le modèle rag (Récupération augmentée) exécuté dans Azure. Il utilise Azure AI Search pour la récupération et les modèles de langage volumineux Azure OpenAI pour alimenter les expériences Q&A et de style ChatGPT.
Pour commencer à utiliser ce modèle, consultez Prise en main de la conversation à l’aide de votre propre exemple de données pour .NET. Pour accéder au code source et lire des détails détaillés sur le modèle, consultez le dépôt GitHub azure-search-openai-demo-csharp .
Ce modèle illustre l’utilisation de ces fonctionnalités.
Solution d’hébergement Azure | Technologies | Modèles IA |
---|---|---|
Azure Container Apps Azure Functions |
Azure OpenAI Vision par ordinateur Azure Azure Form Recognizer Recherche Azure AI Stockage Azure |
GPT 3.5 Turbo GPT 4.0 |
Contoso chat retail Copilot avec .NET et le noyau sémantique
Ce modèle implémente Contoso Plein air, un magasin conceptuel spécialisé dans l’équipement extérieur pour les amateurs de randonnée et de camping. Ce magasin virtuel améliore l’engagement client et le support commercial via un agent de conversation intelligent. Cet agent est alimenté par le modèle RAG (Recovery Augmented Generation) au sein de Microsoft Azure AI Stack, enrichi avec la prise en charge du noyau sémantique et de l’invite.
Pour accéder au code source et lire des détails détaillés sur le modèle, consultez le dépôt GitHub contoso-chat-csharp-prompty .
Ce modèle illustre l’utilisation de ces fonctionnalités.
Solution d’hébergement Azure | Technologies | Modèles IA |
---|---|---|
Azure Container Apps |
Azure OpenAI Microsoft Entra ID Identité managée Azure Azure Monitor Recherche Azure AI Azure AI Studio Azure SQL Stockage Azure |
GPT 3.5 Turbo GPT 4.0 |
Traiter l’automatisation avec la reconnaissance vocale et la synthèse avec .NET et GPT 3.5 Turbo
Ce modèle est une solution d’automatisation des processus qui répond aux problèmes signalés par les travailleurs de terrain et d’ateliers d’une entreprise appelée Contoso Manufacturing, une entreprise de fabrication qui fabrique des batteries de voitures. Les problèmes sont partagés par les workers en direct via l’entrée du microphone ou préenregistrés sous forme de fichiers audio. La solution traduit l’entrée audio de la reconnaissance vocale en texte, puis utilise un flux DLM et Prompty ou Promptflow pour résumer le problème et retourner les résultats dans un format spécifié par la solution.
Pour accéder au code source et lire des détails détaillés sur le modèle, consultez le dépôt GitHub summarization-openai-csharp-prompty .
Ce modèle illustre l’utilisation de ces fonctionnalités.
Solution d’hébergement Azure | Technologies | Modèles IA |
---|---|---|
Azure Container Apps | Reconnaissance vocale Résumé Azure OpenAI |
GPT 3.5 Turbo |
Discuter avec vos données à l’aide d’Azure OpenAI et d’Azure AI Search avec Python
Ce modèle est une solution complète de bout en bout montrant le modèle rag (Récupération augmentée) exécuté dans Azure. Il utilise Azure AI Search pour la récupération et les modèles de langage volumineux Azure OpenAI pour alimenter les expériences Q&A et de style ChatGPT.
Pour commencer à utiliser ce modèle, consultez Prise en main de la conversation à l’aide de votre propre exemple de données pour Python. Pour accéder au code source et lire des détails détaillés sur le modèle, consultez le dépôt GitHub azure-search-openai-demo .
Ce modèle illustre l’utilisation de ces fonctionnalités.
Solution d’hébergement Azure | Technologies | Modèles IA |
---|---|---|
Azure App Service | Azure OpenAI Recherche Bing Identité managée Azure Azure Monitor Recherche Azure AI Azure AI Studio |
GPT 3.5 Turbo GPT 4.0 DALL-E |
Écriture créative multimodèle Copilot avec DALL-E
Ce modèle est une solution d’écriture multi-agent créative pour aider les utilisateurs à écrire des articles. Il montre comment créer et utiliser des agents IA pilotés par Azure OpenAI. Il inclut une application Flask qui prend une rubrique et une instruction d’un utilisateur appelle ensuite un agent de recherche qui utilise l’API Recherche Bing pour rechercher la rubrique, un agent de produit qui utilise Recherche d’IA Azure pour effectuer une recherche sémantique des produits connexes à partir d’un magasin de vecteurs, un agent enregistreur pour combiner les informations de recherche et de produit dans un article utile, et un agent d’éditeur pour affiner l’article qui est finalement présenté à l’utilisateur.
Pour accéder au code source et lire des détails détaillés sur le modèle, consultez le dépôt GitHub agent-openai-python-prompty .
Ce modèle illustre l’utilisation de ces fonctionnalités.
Solution d’hébergement Azure | Technologies | Modèles IA |
---|---|---|
Registre de conteneurs Azure Azure Kubernetes |
Azure OpenAI Recherche Bing Identité managée Azure Azure Monitor Recherche Azure AI Azure AI Studio |
GPT 3.5 Turbo GPT 4.0 DALL-E |
Contoso Chat Retail Copilot avec AI Studio
Ce modèle est une solution de conversation de support et de vente des clients. Il montre comment créer une application LLM (Large Language Model) avec une architecture RAG (Récupération augmentée génération) à l’aide d’Azure AI Studio et prompt Flow.
Pour accéder au code source et lire des détails détaillés sur le modèle, consultez le dépôt GitHub contoso-chat .
Ce modèle illustre l’utilisation de ces fonctionnalités.
Solution d’hébergement Azure | Technologies | Modèles IA |
---|---|---|
Azure Container Apps |
Azure OpenAI Recherche Azure AI Azure AI Studio Azure Cosmos DB |
GPT 3.5 Turbo GPT 4.0 Managed Integration Runtime (MIR) |
Traiter l’automatisation avec la reconnaissance vocale et la synthèse avec AI Studio
Ce modèle est une solution d’automatisation des processus qui répond aux problèmes signalés par les travailleurs de terrain et d’ateliers d’une entreprise appelée Contoso Manufacturing, une entreprise de fabrication qui fabrique des batteries de voitures. Les problèmes sont partagés par les workers en direct via l’entrée du microphone, préenregistrés en tant que fichiers audio ou en tant qu’entrée de texte. La solution traduit l’entrée audio de la reconnaissance vocale en texte, puis utilise les rapports de texte comme entrée dans un flux DLM et Prompty/Promptflow pour résumer le problème et retourner les résultats dans un format spécifié par la solution.
Pour accéder au code source et lire des détails détaillés sur le modèle, consultez le dépôt GitHub summarization-openai-python-prompflow .
Ce modèle illustre l’utilisation de ces fonctionnalités.
Solution d’hébergement Azure | Technologies | Modèles IA |
---|---|---|
Azure Container Apps | Azure AI Studio Service de reconnaissance vocale Flux d’invite Managed Integration Runtime (MIR) |
GPT 3.5 Turbo |
Appel de fonction avec Prompty, LangChain et Elastic Search
Ce modèle est une application qui utilise Prompty, Langchain et Elasticsearch pour créer un agent de recherche LLM (Large Language Model). Cet agent avec la technologie RAG (Recovery Augmented Generation) est capable de répondre aux questions des utilisateurs en fonction des données fournies en intégrant la récupération d’informations en temps réel à des réponses génératives.
Pour accéder au code source et lire des détails détaillés sur le modèle, consultez le dépôt GitHub agent-python-openai-prompty-langchain .
Ce modèle illustre l’utilisation de ces fonctionnalités.
Solution d’hébergement Azure | Technologies | Modèles IA |
---|---|---|
Machine Learning Service | Azure AI Studio Recherche élastique Microsoft Entra ID Identité managée Azure Azure Monitor Stockage Azure Azure AI Studio Managed Integration Runtime (MIR) |
GPT 3.5 Turbo |
Appel de fonction avec Prompty, LangChain et Pinecone
Ce modèle utilise le nouvel outil Prompty, Langchain et Pinecone pour créer un agent de recherche LLM (Large Language Model). Cet agent avec la technologie RAG (Recovery Augmented Generation) est capable de répondre aux questions des utilisateurs en fonction des données fournies en intégrant la récupération d’informations en temps réel à des réponses génératives.
Pour accéder au code source et lire des détails détaillés sur le modèle, consultez le dépôt GitHub agent-openai-python-prompty-langchain-pinecone .
Ce modèle illustre l’utilisation de ces fonctionnalités.
Solution d’hébergement Azure | Technologies | Modèles IA |
---|---|---|
Azure Container Apps | Pinecone Microsoft Entra ID Identité managée Microsoft Azure Monitor Stockage Azure |
GPT 3.5 Turbo |
Copilote analytique de l’API Assistant avec Python et Azure AI Studio
Ce modèle est une API Assistant pour discuter avec des données tabulaires et effectuer des analyses en langage naturel. Pour accéder au code source et lire des détails détaillés sur le modèle, consultez le dépôt GitHub Assistant-data-openai-python-promptflow .
Ce modèle illustre l’utilisation de ces fonctionnalités.
Solution d’hébergement Azure | Technologies | Modèles IA |
---|---|---|
Machine Learning Service | Recherche Azure AI Azure AI Studio Managed Integration Runtime (MIR) Azure OpenAI |
GPT 3.5 Turbo GPT 4 |
Discuter avec vos données à l’aide d’Azure OpenAI et d’Azure AI Search avec Java
Ce modèle est une solution complète de bout en bout qui illustre le modèle rag (Récupération augmentée) en cours d’exécution dans Azure. Il utilise Azure AI Search pour la récupération et les modèles de langage volumineux Azure OpenAI pour alimenter les expériences Q&A et de style ChatGPT.
Pour commencer à utiliser ce modèle, consultez Prise en main de la conversation à l’aide de votre propre exemple de données pour Java. Pour accéder au code source et lire des détails détaillés sur le modèle, consultez le dépôt GitHub azure-search-openai-demo-java .
Ce modèle illustre l’utilisation de ces fonctionnalités.
Solution d’hébergement Azure | Technologies | Modèles IA |
---|---|---|
Azure App Service Azure Container Apps Azure Kubernetes Service |
Azure OpenAI Recherche Azure AI Stockage Azure Azure Monitor |
Discuter avec vos données à l’aide d’Azure OpenAI et d’Azure AI Search avec JavaScript
Ce modèle est une solution complète de bout en bout montrant le modèle rag (Récupération augmentée) exécuté dans Azure. Il utilise Azure AI Search pour la récupération et les modèles de langage volumineux Azure OpenAI pour alimenter les expériences Q&A et de style ChatGPT.
Pour commencer à utiliser ce modèle, consultez Prise en main de la conversation à l’aide de votre propre exemple de données pour JavaScript. Pour accéder au code source et lire des détails détaillés sur le modèle, consultez le dépôt GitHub azure-search-openai-javascript .
Ce modèle illustre l’utilisation de ces fonctionnalités.
Solution d’hébergement Azure | Technologies | Modèles IA |
---|---|---|
Azure Container Apps Azure Static Web Apps |
Azure OpenAI Recherche Azure AI Stockage Azure Azure Monitor |
text-embedding-ada-002 |
Frontend de conversation Azure OpenAI
Ce modèle est un composant web de conversation OpenAI minimal qui peut être relié à n’importe quelle implémentation back-end en tant que client.
Pour accéder au code source et lire des détails détaillés sur le modèle, consultez le dépôt GitHub azure-openai-chat-frontend .
Ce modèle illustre l’utilisation de ces fonctionnalités.
Solution d’hébergement Azure | Technologies | Modèles IA |
---|---|---|
Azure Static Web Apps | Azure AI Search Azure OpenAI |
GPT 3.5 Turbo GPT4 |
Conversation AI serverless avec RAG à l’aide de LangChain.js
Le modèle est un chatbot IA serverless avec récupération de génération augmentée à l’aide de LangChain.js et Azure qui utilise un ensemble de documents d’entreprise pour générer des réponses aux requêtes utilisateur. Il utilise une société fictive appelée Contoso Real Estate, et l’expérience permet à ses clients de poser des questions de support sur l’utilisation de ses produits. L’exemple de données comprend un ensemble de documents qui décrivent ses conditions d’utilisation, sa politique de confidentialité et un guide de support.
Pour savoir comment déployer et exécuter ce modèle, consultez Prise en main de Serverless AI Chat avec RAG à l’aide de LangChain.js. Pour accéder au code source et lire des détails détaillés sur le modèle, consultez le dépôt GitHub serverless-chat-langchainjs .
Découvrez comment déployer et exécuter ce modèle de référence JavaScript.
Ce modèle illustre l’utilisation de ces fonctionnalités.
Solution d’hébergement Azure | Technologies | Modèles IA |
---|---|---|
Azure Static Web Apps Azure Functions |
Azure AI Search Azure OpenAI Azure Cosmos DB Stockage Azure Identité managée Azure |
GPT4 Mistral Ollama |
Commentaires
https://aka.ms/ContentUserFeedback.
Bientôt disponible : Tout au long de 2024, nous allons supprimer progressivement GitHub Issues comme mécanisme de commentaires pour le contenu et le remplacer par un nouveau système de commentaires. Pour plus d’informations, consultezEnvoyer et afficher des commentaires pour