AI-appmallar
I det här avsnittet av dokumentationen får du lära dig om AI-appmallar och relaterade artiklar som använder dessa mallar för att visa hur du utför viktiga uppgifter för utvecklare. Med AI-appmallar får du väl underhållna och enkla att distribuera referensimplementeringar som hjälper dig att säkerställa en högkvalitativ startpunkt för dina AI-appar.
Det finns två kategorier av AI-appmallar, byggstenar och lösningar från slutpunkt till slutpunkt. I följande avsnitt beskrivs några av de viktigaste mallarna i varje kategori för det programmeringsspråk som du har valt överst i den här artikeln. Om du vill bläddra i en mer omfattande lista med dessa och andra mallar kan du läsa AI-appmallarna i Azure Developer CLI-galleriet.
Byggblocken
Byggstenar är mindre skalningsexempel som fokuserar på specifika scenarier och uppgifter. De flesta byggstenar visar funktioner som utnyttjar lösningen från slutpunkt till slutpunkt för en chattapp som använder dina egna data.
Byggblock | beskrivning |
---|---|
Belastningsutjämning med Azure Container Apps | Lär dig hur du lägger till belastningsutjämning i ditt program för att utöka chattappen utöver gränserna för Azure OpenAI-token och modellkvoter. Den här metoden använder Azure Container Apps för att skapa tre Azure OpenAI-slutpunkter samt en primär container för att dirigera inkommande trafik till en av de tre slutpunkterna. |
Byggblock | beskrivning |
---|---|
Konfigurera dokumentsäkerhet för chattappen | När du skapar ett chattprogram med HJÄLP av RAG-mönstret med dina egna data kontrollerar du att varje användare får ett svar baserat på deras behörigheter. En behörig användare bör ha åtkomst till svar som finns i chattappens dokument. En obehörig användare bör inte ha åtkomst till svar från skyddade dokument som de inte har behörighet att se. |
Utvärdera chattappens svar | Lär dig hur du utvärderar en chattapps svar mot en uppsättning korrekta eller idealiska svar (kallas grundsanning). När du ändrar chattprogrammet på ett sätt som påverkar svaren kör du en utvärdering för att jämföra ändringarna. Det här demoprogrammet erbjuder verktyg som du kan använda i dag för att göra det enklare att köra utvärderingar. |
Belastningsutjämning med Azure Container Apps | Lär dig hur du lägger till belastningsutjämning i ditt program för att utöka chattappen utöver gränserna för Azure OpenAI-token och modellkvoter. Den här metoden använder Azure Container Apps för att skapa tre Azure OpenAI-slutpunkter samt en primär container för att dirigera inkommande trafik till en av de tre slutpunkterna. |
Belastningsutjämning med API Management | Lär dig hur du lägger till belastningsutjämning i ditt program för att utöka chattappen utöver gränserna för Azure OpenAI-token och modellkvoter. Den här metoden använder Azure API Management för att skapa tre Azure OpenAI-slutpunkter samt en primär container för att dirigera inkommande trafik till en av de tre slutpunkterna. |
Läs in test av Python-chattappen med Locust | Lär dig hur du utför belastningstestning i ett Python-chattprogram med hjälp av RAG-mönstret med Locust, ett populärt verktyg för belastningstestning med öppen källkod. Det primära målet med belastningstestning är att säkerställa att den förväntade belastningen i chattprogrammet inte överskrider den aktuella TPM-kvoten (Azure OpenAI Transactions Per Minute). Genom att simulera användarbeteende under hög belastning kan du identifiera potentiella flaskhalsar och skalbarhetsproblem i ditt program. |
Byggblock | beskrivning |
---|---|
Belastningsutjämning med Azure Container Apps | Lär dig hur du lägger till belastningsutjämning i ditt program för att utöka chattappen utöver gränserna för Azure OpenAI-token och modellkvoter. Den här metoden använder Azure Container Apps för att skapa tre Azure OpenAI-slutpunkter samt en primär container för att dirigera inkommande trafik till en av de tre slutpunkterna. |
Byggblock | beskrivning |
---|---|
Utvärdera chattappens svar | Lär dig hur du utvärderar en chattapps svar mot en uppsättning korrekta eller idealiska svar (kallas grundsanning). När du ändrar chattprogrammet på ett sätt som påverkar svaren kör du en utvärdering för att jämföra ändringarna. Det här demoprogrammet erbjuder verktyg som du kan använda i dag för att göra det enklare att köra utvärderingar. |
Belastningsutjämning med Azure Container Apps | Lär dig hur du lägger till belastningsutjämning i ditt program för att utöka chattappen utöver gränserna för Azure OpenAI-token och modellkvoter. Den här metoden använder Azure Container Apps för att skapa tre Azure OpenAI-slutpunkter samt en primär container för att dirigera inkommande trafik till en av de tre slutpunkterna. |
Belastningsutjämning med API Management | Lär dig hur du lägger till belastningsutjämning i ditt program för att utöka chattappen utöver gränserna för Azure OpenAI-token och modellkvoter. Den här metoden använder Azure API Management för att skapa tre Azure OpenAI-slutpunkter samt en primär container för att dirigera inkommande trafik till en av de tre slutpunkterna. |
Lösningar från slutpunkt till slutpunkt
Lösningar från slutpunkt till slutpunkt är omfattande referensexempel, inklusive dokumentering, källkod och distribution så att du kan ta och utöka för dina egna syften.
Chatta med dina data med Hjälp av Azure OpenAI och Azure AI Search med .NET
Den här mallen är en komplett lösning från slutpunkt till slutpunkt som visar RAG-mönstret (Retrieval-Augmented Generation) som körs i Azure. Den använder Azure AI Search för hämtning och stora språkmodeller i Azure OpenAI för att driva ChattGPT-stil och Q&A-upplevelser.
Information om hur du kommer igång med den här mallen finns i Kom igång med chatten med ditt eget dataexempel för .NET. Om du vill komma åt källkoden och läsa detaljerad information om mallen kan du läsa GitHub-lagringsplatsen azure-search-openai-demo-csharp .
Den här mallen visar hur dessa funktioner används.
Azure-värdlösning | Tekniker | AI-modeller |
---|---|---|
Azure Container Apps Azure Functions |
Azure OpenAI Azure Computer Vision Formigenkänning i Azure Azure AI-sökning Azure Storage |
GPT 3.5 Turbo GPT 4.0 |
Contoso chattbutik copilot med .NET och semantisk kernel
Den här mallen implementerar Contoso Outdoors, en konceptbutik som specialiserat sig på utomhusutrustning för vandrings- och campingentusiaster. Den här virtuella butiken förbättrar kundengagemanget och säljsupporten via en intelligent chattagent. Den här agenten drivs av RAG-mönstret (Retrieval Augmented Generation) i Microsoft Azure AI Stack, berikad med stöd för semantisk kernel och prompty.
Information om mallen finns i GitHub-lagringsplatsen contoso-chat-csharp-prompty för att komma åt källkoden och läsa detaljerad information om mallen.
Den här mallen visar hur dessa funktioner används.
Azure-värdlösning | Tekniker | AI-modeller |
---|---|---|
Azure Container Apps |
Azure OpenAI Microsoft Entra ID Azure Managed Identity Azure Monitor Azure AI-sökning Azure AI Studio Azure SQL Azure Storage |
GPT 3.5 Turbo GPT 4.0 |
Processautomatisering med tal till text och sammanfattning med .NET och GPT 3.5 Turbo
Den här mallen är en processautomatiseringslösning som tar emot problem som rapporterats av fält- och butiksarbetare på ett företag som heter Contoso Manufacturing, ett tillverkningsföretag som tillverkar bilbatterier. Problemen delas av arbetarna antingen live via mikrofoninmatning eller förinspelade som ljudfiler. Lösningen översätter ljudindata från tal till text och använder sedan en LLM och Prompty eller Promptflow för att sammanfatta problemet och returnera resultatet i ett format som anges av lösningen.
Om du vill komma åt källkoden och läsa detaljerad information om mallen kan du läsa GitHub-lagringsplatsen summarization-openai-csharp-prompty .
Den här mallen visar hur dessa funktioner används.
Azure-värdlösning | Tekniker | AI-modeller |
---|---|---|
Azure Container Apps | Tal till text Summering Azure OpenAI |
GPT 3.5 Turbo |
Chatta med dina data med Azure OpenAI och Azure AI Search med Python
Den här mallen är en komplett lösning från slutpunkt till slutpunkt som visar RAG-mönstret (Retrieval-Augmented Generation) som körs i Azure. Den använder Azure AI Search för hämtning och stora språkmodeller i Azure OpenAI för att driva ChattGPT-stil och Q&A-upplevelser.
Information om hur du kommer igång med den här mallen finns i Kom igång med chatten med ditt eget dataexempel för Python. Information om mallen finns i GitHub-lagringsplatsen azure-search-openai-demo för att få åtkomst till källkoden och läsa detaljerad information om mallen.
Den här mallen visar hur dessa funktioner används.
Azure-värdlösning | Tekniker | AI-modeller |
---|---|---|
Azure App Service | Azure OpenAI Bing-sökning Azure Managed Identity Azure Monitor Azure AI-sökning Azure AI Studio |
GPT 3.5 Turbo GPT 4.0 DALL-E |
Multi-Modal Creative Writing Copilot med DALL-E
Den här mallen är en kreativ lösning för att skriva flera agenter som hjälper användarna att skriva artiklar. Den visar hur du skapar och arbetar med AI-agenter som drivs av Azure OpenAI. Den innehåller en Flask-app som tar ett ämne och instruktioner från en användare och sedan anropar en forskningsagent som använder API:et för Bing-sökning för att undersöka ämnet, en produktagent som använder Azure AI Search för att göra en semantisk likhetssökning efter relaterade produkter från ett vektorarkiv, en skrivagent för att kombinera forskning och produktinformation till en användbar artikel. och en redigeraragent för att förfina artikeln som slutligen presenteras för användaren.
Information om mallen finns i GitHub-lagringsplatsen agent-openai-python-prompty för att komma åt källkoden och läsa detaljerad information om mallen.
Den här mallen visar hur dessa funktioner används.
Azure-värdlösning | Tekniker | AI-modeller |
---|---|---|
Azure Container registery Azure Kubernetes |
Azure OpenAI Bing-sökning Azure Managed Identity Azure Monitor Azure AI-sökning Azure AI Studio |
GPT 3.5 Turbo GPT 4.0 DALL-E |
Contoso Chat Retail Copilot med AI Studio
Den här mallen är en chattlösning för kundförsäljning och support. Den visar hur du skapar ett LLM-program (Large Language Model) med en RAG-arkitektur (Retrieval Augmented Generation) med hjälp av Azure AI Studio och Prompt Flow.
Information om mallen finns i GitHub-lagringsplatsen contoso-chat för att få åtkomst till källkoden och läsa detaljerad information om mallen.
Den här mallen visar hur dessa funktioner används.
Azure-värdlösning | Tekniker | AI-modeller |
---|---|---|
Azure Container Apps |
Azure OpenAI Azure AI-sökning Azure AI Studio Azure Cosmos DB |
GPT 3.5 Turbo GPT 4.0 Managed Integration Runtime (MIR) |
Processautomatisering med tal till text och sammanfattning med AI Studio
Den här mallen är en processautomatiseringslösning som tar emot problem som rapporterats av fält- och butiksarbetare på ett företag som heter Contoso Manufacturing, ett tillverkningsföretag som tillverkar bilbatterier. Problemen delas av arbetarna antingen live via mikrofonindata, förinspelade som ljudfiler eller som textinmatning. Lösningen översätter ljudindata från tal till text och använder sedan textrapporterna som indata till en LLM och Prompty/Promptflow för att sammanfatta problemet och returnera resultaten i ett format som anges av lösningen.
Information om mallen finns i GitHub-lagringsplatsen summarization-openai-python-prompflow för att få åtkomst till källkoden och läsa detaljerad information om mallen.
Den här mallen visar hur dessa funktioner används.
Azure-värdlösning | Tekniker | AI-modeller |
---|---|---|
Azure Container Apps | Azure AI Studio Tal till text-tjänsten Prompt Flow Managed Integration Runtime (MIR) |
GPT 3.5 Turbo |
Funktionsanrop med Prompty, LangChain och Elastic Search
Den här mallen är ett program som använder Prompty, Langchain och Elasticsearch för att skapa en llm-sökagent (large language model). Den här agenten med RAG-teknik (Retrieval Augmented Generation) kan besvara användarfrågor baserat på tillhandahållna data genom att integrera informationshämtning i realtid med generativa svar.
Information om mallen finns i GitHub-lagringsplatsen agent-python-openai-prompty-langchain för att få åtkomst till källkoden och läsa detaljerad information om mallen.
Den här mallen visar hur dessa funktioner används.
Azure-värdlösning | Tekniker | AI-modeller |
---|---|---|
Machine Learning Service | Azure AI Studio Elastisk sökning Microsoft Entra ID Azure Managed Identity Azure Monitor Azure Storage Azure AI Studio Managed Integration Runtime (MIR) |
GPT 3.5 Turbo |
Funktionsanrop med Prompty, LangChain och Pinecone
Den här mallen använder det nya prompty-verktyget Langchain och Pinecone för att skapa en LLM-sökagent (large language model). Den här agenten med RAG-teknik (Retrieval Augmented Generation) kan besvara användarfrågor baserat på tillhandahållna data genom att integrera informationshämtning i realtid med generativa svar.
Information om mallen finns i GitHub-lagringsplatsen agent-openai-python-prompty-langchain-pinecone för att få åtkomst till källkoden och läsa detaljerad information om mallen.
Den här mallen visar hur dessa funktioner används.
Azure-värdlösning | Tekniker | AI-modeller |
---|---|---|
Azure Container Apps | Pinecone Microsoft Entra ID Microsoft Managed Identity Azure Monitor Azure Storage |
GPT 3.5 Turbo |
Assistant API Analytics Copilot med Python och Azure AI Studio
Den här mallen är ett assistent-API för att chatta med tabelldata och utföra analyser på naturligt språk. Information om mallen finns i GitHub-lagringsplatsen assistant-data-openai-python-promptflow för att få åtkomst till källkoden och läsa detaljerad information om mallen.
Den här mallen visar hur dessa funktioner används.
Azure-värdlösning | Tekniker | AI-modeller |
---|---|---|
Machine Learning Service | Azure AI-sökning Azure AI Studio Managed Integration Runtime (MIR) Azure OpenAI |
GPT 3.5 Turbo GPT-4 |
Chatta med dina data med Hjälp av Azure OpenAI och Azure AI Search med Java
Den här mallen är en komplett lösning från slutpunkt till slutpunkt som visar RAG-mönstret (Retrieval-Augmented Generation) som körs i Azure. Den använder Azure AI Search för hämtning och stora språkmodeller i Azure OpenAI för att driva ChattGPT-stil och Q&A-upplevelser.
Information om hur du kommer igång med den här mallen finns i Kom igång med chatten med ditt eget dataexempel för Java. Information om mallen finns i GitHub-lagringsplatsen azure-search-openai-demo-java för att få åtkomst till källkoden och läsa detaljerad information om mallen.
Den här mallen visar hur dessa funktioner används.
Azure-värdlösning | Tekniker | AI-modeller |
---|---|---|
Azure App Service Azure Container Apps Azure Kubernetes Service |
Azure OpenAI Azure AI-sökning Azure Storage Azure Monitor |
Chatta med dina data med Hjälp av Azure OpenAI och Azure AI Search med JavaScript
Den här mallen är en komplett lösning från slutpunkt till slutpunkt som visar RAG-mönstret (Retrieval-Augmented Generation) som körs i Azure. Den använder Azure AI Search för hämtning och stora språkmodeller i Azure OpenAI för att driva ChattGPT-stil och Q&A-upplevelser.
Information om hur du kommer igång med den här mallen finns i Kom igång med chatten med ditt eget dataexempel för JavaScript. Information om mallen finns i GitHub-lagringsplatsen azure-search-openai-javascript för att komma åt källkoden och läsa detaljerad information om mallen.
Den här mallen visar hur dessa funktioner används.
Azure-värdlösning | Tekniker | AI-modeller |
---|---|---|
Azure Container Apps Azure Static Web Apps |
Azure OpenAI Azure AI-sökning Azure Storage Azure Monitor |
text-embedding-ada-002 |
Azure OpenAI-chattklientdel
Den här mallen är en minimal OpenAI-chattwebbkomponent som kan kopplas till alla serverdelsimplementeringar som en klient.
Information om mallen finns i GitHub-lagringsplatsen azure-openai-chat-frontend för att få åtkomst till källkoden och läsa detaljerad information om mallen.
Den här mallen visar hur dessa funktioner används.
Azure-värdlösning | Tekniker | AI-modeller |
---|---|---|
Azure Static Web Apps | Azure AI-sökning Azure OpenAI |
GPT 3.5 Turbo GPT4 |
Serverlös AI-chatt med RAG med hjälp av LangChain.js
Mallen är en serverlös AI-chattrobot med hämtningsförhöjd generation med hjälp av LangChain.js och Azure som använder en uppsättning företagsdokument för att generera svar på användarfrågor. Det använder ett fiktivt företag som heter Contoso Real Estate, och upplevelsen gör det möjligt för kunderna att ställa supportfrågor om användningen av sina produkter. Exempeldata innehåller en uppsättning dokument som beskriver dess användarvillkor, sekretesspolicy och en supportguide.
Mer information om hur du distribuerar och kör den här mallen finns i Kom igång med serverlös AI Chat med RAG med hjälp av LangChain.js. Om du vill komma åt källkoden och läsa detaljerad information om mallen kan du läsa GitHub-lagringsplatsen serverless-chat-langchainjs .
Lär dig hur du distribuerar och kör den här JavaScript-referensmallen.
Den här mallen visar hur dessa funktioner används.
Azure-värdlösning | Tekniker | AI-modeller |
---|---|---|
Azure Static Web Apps Azure Functions |
Azure AI-sökning Azure OpenAI Azure Cosmos DB Azure Storage Azure Managed Identity |
GPT4 Mistral Ollama |
Feedback
https://aka.ms/ContentUserFeedback.
Kommer snart: Under hela 2024 kommer vi att fasa ut GitHub-problem som feedbackmekanism för innehåll och ersätta det med ett nytt feedbacksystem. Mer information finns i:Skicka och visa feedback för