Freigeben über


KI-App-Vorlagen

In diesem Abschnitt der Dokumentation werden die KI-App-Vorlagen und verwandte Artikel vorgestellt, die diese Vorlagen verwenden, um zu veranschaulichen, wie wichtige Entwickleraufgaben ausgeführt werden. KI-App-Vorlagen bieten Ihnen gut gepflegte, einfach bereitzustellende Referenzimplementierungen, die helfen, einen qualitativ hochwertigen Ausgangspunkt für Ihre KI-Apps zu gewährleisten.

Es gibt zwei Kategorien von KI-App-Vorlagen, Bausteinen und End-to-End-Lösungen. In den folgenden Abschnitten werden einige der wichtigsten Vorlagen in jeder Kategorie für die Programmiersprache vorgestellt, die Sie oben in diesem Artikel ausgewählt haben. Eine umfassendere Liste einschließlich dieser und anderer Vorlagen finden Sie in den KI-App-Vorlagen im Azure Developer CLI-Katalog.

Bausteine

Bausteine sind kleinere Beispiele, die sich auf bestimmte Szenarien und Aufgaben konzentrieren. Die meisten Bausteine veranschaulichen Funktionen, die die End-to-End-Lösung für eine Chat-App nutzen, die Ihre eigenen Daten verwendet.

Baustein Beschreibung
Lastenausgleich mit Azure-Container-Apps Erfahren Sie, wie Sie Ihrer Anwendung einen Lastenausgleich hinzufügen, um die Chat-App über die Azure OpenAI-Token- und Modellkontingentgrenzen hinaus zu erweitern. Dieser Ansatz verwendet Azure-Container-Apps, um drei Azure OpenAI-Endpunkte zu erstellen, sowie einen primären Container, um eingehenden Datenverkehr an einen der drei Endpunkte zu leiten.
Baustein Beschreibung
Konfigurieren der Dokumentsicherheit für die Chat-App Wenn Sie eine Chatanwendung mithilfe des RAG-Musters mit Ihren eigenen Daten erstellen, stellen Sie sicher, dass jeder Benutzer basierend auf seinen Berechtigungen eine Antwort erhält. Ein autorisierter Benutzer sollte Zugriff auf Antworten haben, die in den Dokumenten der Chat-App enthalten sind. Ein nicht autorisierter Benutzer sollte keinen Zugriff auf Antworten von gesicherten Dokumenten haben, für die er keine Berechtigung zum Anzeigen hat.
Bewerten von Antworten auf Chat-Apps Hier erfahren Sie, wie Sie die Antworten einer Chat-App anhand einer Reihe von korrekten oder idealen Antworten (als Grundwahrheit bezeichnet) bewerten. Wenn Sie Ihre Chatanwendung auf eine Weise ändern, die sich auf die Antworten auswirkt, führen Sie eine Auswertung aus, um die Änderungen zu vergleichen. Diese Demoanwendung bietet Tools, die Sie heute verwenden können, um die Ausführung von Auswertungen zu vereinfachen.
Lastenausgleich mit Azure-Container-Apps Erfahren Sie, wie Sie Ihrer Anwendung einen Lastenausgleich hinzufügen, um die Chat-App über die Azure OpenAI-Token- und Modellkontingentgrenzen hinaus zu erweitern. Dieser Ansatz verwendet Azure-Container-Apps, um drei Azure OpenAI-Endpunkte zu erstellen, sowie einen primären Container, um eingehenden Datenverkehr an einen der drei Endpunkte zu leiten.
Lastenausgleich mit API-Verwaltung Erfahren Sie, wie Sie Ihrer Anwendung einen Lastenausgleich hinzufügen, um die Chat-App über die Azure OpenAI-Token- und Modellkontingentgrenzen hinaus zu erweitern. Dieser Ansatz verwendet Azure API Management zum Erstellen von drei Azure OpenAI-Endpunkten sowie einen primären Container, um eingehenden Datenverkehr an einen der drei Endpunkte zu leiten.
Laden des Tests der Python-Chat-App mit Locust Lernen Sie den Prozess kennen, um Lasttests für eine Python-Chatanwendung mithilfe des RAG-Musters mit Locust durchzuführen, einem beliebten Open-Source-Lasttesttool. Das Hauptziel des Auslastungstests besteht darin, sicherzustellen, dass die erwartete Auslastung ihrer Chatanwendung das aktuelle Azure OpenAI Transactions Per Minute (TPM)-Kontingent nicht überschreitet. Durch die Simulation des Benutzerverhaltens unter hoher Last können Sie potenzielle Engpässe und Skalierbarkeitsprobleme in Ihrer Anwendung erkennen.
Baustein Beschreibung
Lastenausgleich mit Azure-Container-Apps Erfahren Sie, wie Sie Ihrer Anwendung einen Lastenausgleich hinzufügen, um die Chat-App über die Azure OpenAI-Token- und Modellkontingentgrenzen hinaus zu erweitern. Dieser Ansatz verwendet Azure-Container-Apps, um drei Azure OpenAI-Endpunkte zu erstellen, sowie einen primären Container, um eingehenden Datenverkehr an einen der drei Endpunkte zu leiten.
Baustein Beschreibung
Bewerten von Antworten auf Chat-Apps Hier erfahren Sie, wie Sie die Antworten einer Chat-App anhand einer Reihe von korrekten oder idealen Antworten (als Grundwahrheit bezeichnet) bewerten. Wenn Sie Ihre Chatanwendung auf eine Weise ändern, die sich auf die Antworten auswirkt, führen Sie eine Auswertung aus, um die Änderungen zu vergleichen. Diese Demoanwendung bietet Tools, die Sie heute verwenden können, um die Ausführung von Auswertungen zu vereinfachen.
Lastenausgleich mit Azure-Container-Apps Erfahren Sie, wie Sie Ihrer Anwendung einen Lastenausgleich hinzufügen, um die Chat-App über die Azure OpenAI-Token- und Modellkontingentgrenzen hinaus zu erweitern. Dieser Ansatz verwendet Azure-Container-Apps, um drei Azure OpenAI-Endpunkte zu erstellen, sowie einen primären Container, um eingehenden Datenverkehr an einen der drei Endpunkte zu leiten.
Lastenausgleich mit API-Verwaltung Erfahren Sie, wie Sie Ihrer Anwendung einen Lastenausgleich hinzufügen, um die Chat-App über die Azure OpenAI-Token- und Modellkontingentgrenzen hinaus zu erweitern. Dieser Ansatz verwendet Azure API Management zum Erstellen von drei Azure OpenAI-Endpunkten sowie einen primären Container, um eingehenden Datenverkehr an einen der drei Endpunkte zu leiten.

End-to-End-Lösungen

End-to-End-Lösungen sind umfassende Referenzbeispiele, einschließlich Dokumention, Quellcode und Bereitstellung, damit Sie sie für Ihre eigenen Zwecke übernehmen und erweitern können.

Chatten Sie mit Ihren Daten mit Azure OpenAI und Azure AI Search mit .NET

Diese Vorlage ist eine vollständige End-to-End-Lösung, die das In Azure ausgeführte Rag-Muster (Retrieval-Augmented Generation) veranschaulicht. Es verwendet Azure AI Search für das Abrufen und Azure OpenAI große Sprachmodelle, um ChatGPT-Stil und Q&A-Erfahrungen zu ermöglichen.

Informationen zu den ersten Schritten mit dieser Vorlage finden Sie unter "Erste Schritte mit dem Chat mithilfe Ihres eigenen Datenbeispiels für .NET". Um auf den Quellcode zuzugreifen und ausführliche Details zur Vorlage zu lesen, lesen Sie das GitHub-Repository azure-search-openai-demo-csharp .

Diagramm mit Architektur von Client zu Back-End-App für .NET.

Screenshot der .NET-Chat-App im Browser mit mehreren Vorschlägen für die Chateingabe und dem Chattextfeld, um eine Frage einzugeben.

Diese Vorlage veranschaulicht die Verwendung dieser Features.

Azure-Hostinglösung Technologie KI-Modelle
Azure Container Apps
Azure-Funktionen
Azure OpenAI
Maschinelles Sehen in Azure
Azure-Formularerkennung
Azure KI Search
Azure Storage
GPT 3.5 Turbo
GPT 4.0

Contoso chat retail Copilot with .NET and Semantic Kernel

Diese Vorlage implementiert Contoso Outdoors, einen konzeptionellen Store, der auf Outdoor-Ausrüstung für Wander- und Campingliebhaber spezialisiert ist. Dieser virtuelle Store verbessert das Kundenbindungs- und Vertriebssupport durch einen intelligenten Chat-Agent. Dieser Agent wird durch das RAG-Muster (Retrieval Augmented Generation) innerhalb des Microsoft Azure AI Stack unterstützt, das mit semantischer Kernel- und Prompty-Unterstützung erweitert wird.

Um auf den Quellcode zuzugreifen und ausführliche Details zur Vorlage zu lesen, lesen Sie das GitHub-Repository "contoso-chat-csharp-prompty ".

Diagramm mit Architektur von Client zu Back-End-App für Wander-App.

Screenshot des .NET Wander- und Camping-Enthusiasten-Stores.

Diese Vorlage veranschaulicht die Verwendung dieser Features.

Azure-Hostinglösung Technologie KI-Modelle
Azure Container Apps
Azure OpenAI
Microsoft Entra ID
Verwaltete Azure-Identität
Azure Monitor
Azure KI Search
Azure KI Studio
Azure SQL
Azure Storage
GPT 3.5 Turbo
GPT 4.0

Prozessautomatisierung mit Sprache zu Text und Zusammenfassung mit .NET und GPT 3.5 Turbo

Diese Vorlage ist eine Prozessautomatisierungslösung, bei der Probleme auftreten, die von Feld- und Ladenbodenmitarbeitern in einem Unternehmen namens Contoso Manufacturing gemeldet werden, einem Produktionsunternehmen, das Autobatterien herstellt. Die Probleme werden von den Mitarbeitern entweder über Mikrofoneingaben oder vorab als Audiodateien aufgezeichnet. Die Lösung übersetzt Audioeingaben von Sprache in Text und verwendet dann einen LLM- und Eingabeaufforderungs- oder Eingabeaufforderungsfluss, um das Problem zusammenzufassen und die Ergebnisse in einem von der Lösung angegebenen Format zurückzugeben.

Um auf den Quellcode zuzugreifen und ausführliche Details zur Vorlage zu lesen, lesen Sie das Repository "summaryzation-openai-csharp-prompty GitHub".

Screenshot der .NET-Webapp mit seitenseitigem Chat für Sprache zu Text und Zusammenfassung für Contoso Manufacturing.

Diese Vorlage veranschaulicht die Verwendung dieser Features.

Azure-Hostinglösung Technologie KI-Modelle
Azure Container Apps Spracherkennung
Zusammenfassung
Azure OpenAI
GPT 3.5 Turbo

Chatten Sie mit Ihren Daten mit Azure OpenAI und Azure AI Search mit Python

Diese Vorlage ist eine vollständige End-to-End-Lösung, die das In Azure ausgeführte Rag-Muster (Retrieval-Augmented Generation) veranschaulicht. Es verwendet Azure AI Search für das Abrufen und Azure OpenAI große Sprachmodelle, um ChatGPT-Stil und Q&A-Erfahrungen zu ermöglichen.

Informationen zu den ersten Schritten mit dieser Vorlage finden Sie unter "Erste Schritte mit dem Chat mit Ihrem eigenen Datenbeispiel für Python". Um auf den Quellcode zuzugreifen und ausführliche Details zur Vorlage zu lesen, lesen Sie das GitHub-Repository azure-search-openai-demo .

Screenshot der Chat-App im Browser mit mehreren Vorschlägen für Chateingaben und dem Chattextfeld, um eine Frage einzugeben

Diagramm mit Architektur von Client zu Back-End-App

Diese Vorlage veranschaulicht die Verwendung dieser Features.

Azure-Hostinglösung Technologie KI-Modelle
Azure App Service Azure OpenAI
Bing-Suche
Verwaltete Azure-Identität
Azure Monitor
Azure KI Search
Azure KI Studio
GPT 3.5 Turbo
GPT 4.0
DALL-E

Multi-Modal Creative Writing Copilot mit DALL-E

Diese Vorlage ist eine kreative Lösung zum Schreiben von Multi-Agent-Lösungen, die Benutzern beim Schreiben von Artikeln helfen. Es veranschaulicht, wie Sie KI-Agents erstellen und arbeiten, die von Azure OpenAI gesteuert werden. Es enthält eine Flask-App, die ein Thema und eine Anweisung von einem Benutzer verwendet und dann einen Recherche-Agent aufruft, der die Bing Search-API verwendet, um das Thema zu recherchieren, ein Produkt-Agent, der Azure AI Search verwendet, um eine semantische Ähnlichkeitssuche für verwandte Produkte aus einem Vektorspeicher durchzuführen, einen Writer-Agent, um die Recherche und Produktinformationen in einem hilfreichen Artikel zu kombinieren, und ein Editor-Agent, um den Artikel zu verfeinern, der dem Benutzer schließlich präsentiert wird.

Um auf den Quellcode zuzugreifen und ausführliche Details zur Vorlage zu lesen, lesen Sie das GitHub-Repository "agent-openai-python-prompty ".

Architekturdiagramm der multi modalen creative writing copilot-Anwendung von Python.

Diese Vorlage veranschaulicht die Verwendung dieser Features.

Azure-Hostinglösung Technologie KI-Modelle
Azure-Containerregister
Azure Kubernetes
Azure OpenAI
Bing-Suche
Verwaltete Azure-Identität
Azure Monitor
Azure KI Search
Azure KI Studio
GPT 3.5 Turbo
GPT 4.0
DALL-E

Contoso Chat Retail Copilot mit AI Studio

Diese Vorlage ist eine Kunden-Vertriebs- und Support-Chatlösung. Es veranschaulicht, wie Sie eine LLM-Anwendung (Large Language Model) mit einer RAG-Architektur (Retrieval Augmented Generation) mit Azure AI Studio und Prompt Flow erstellen.

Um auf den Quellcode zuzugreifen und ausführliche Details zur Vorlage zu lesen, lesen Sie das GitHub-Repository "contoso-chat ".

Screenshot der Chat-App mit Aufforderungsfluss im visuellen Editor für Contoso-Chat-Einzelhandels-Copilot.

Diese Vorlage veranschaulicht die Verwendung dieser Features.

Azure-Hostinglösung Technologie KI-Modelle
Azure Container Apps
Azure OpenAI
Azure KI Search
Azure KI Studio
Azure Cosmos DB
GPT 3.5 Turbo
GPT 4.0
Managed Integration Runtime (MIR)

Prozessautomatisierung mit Sprache zu Text und Zusammenfassung mit AI Studio

Diese Vorlage ist eine Prozessautomatisierungslösung, bei der Probleme auftreten, die von Feld- und Ladenbodenmitarbeitern in einem Unternehmen namens Contoso Manufacturing gemeldet werden, einem Produktionsunternehmen, das Autobatterien herstellt. Die Probleme werden von den Mitarbeitern entweder über Mikrofoneingaben, vorab als Audiodateien oder als Texteingabe aufgezeichnet. Die Lösung übersetzt Audioeingaben von Sprache in Text und verwendet dann die Textberichte als Eingabe für einen LLM und Prompty/Promptflow, um das Problem zusammenzufassen und die Ergebnisse in einem von der Lösung angegebenen Format zurückzugeben.

Um auf den Quellcode zuzugreifen und ausführliche Details zur Vorlage zu lesen, lesen Sie das Repository "summaryzation-openai-python-prompflow GitHub".

Architekturdiagramm für die Prozessautomatisierung mit Sprach-zu-Text- und Zusammenfassungen mit AI Studio für Python.

Diese Vorlage veranschaulicht die Verwendung dieser Features.

Azure-Hostinglösung Technologie KI-Modelle
Azure Container Apps Azure KI Studio
Sprach-zu-Text-Dienst
Eingabeaufforderungsfluss
Managed Integration Runtime (MIR)
GPT 3.5 Turbo

Diese Vorlage ist eine Anwendung, die prompty, Langchain und Elasticsearch verwendet, um einen LLM-Such-Agent (Large Language Model) zu erstellen. Dieser Agent mit RAG-Technologie (Retrieval Augmented Generation) kann Benutzerfragen basierend auf den bereitgestellten Daten beantworten, indem der Abruf von Echtzeitinformationen mit generativen Antworten integriert wird.

Um auf den Quellcode zuzugreifen und ausführliche Details zur Vorlage zu lesen, lesen Sie das GitHub-Repository "agent-python-openai-prompty-langchain ".

Architekturdiagramm für eine App mit dem Tool Prompty, Langchain und Elasticsearch zum Erstellen eines LLM-Such-Agents (Large Language Model) mit Funktionsaufrufen für Python.

Diese Vorlage veranschaulicht die Verwendung dieser Features.

Azure-Hostinglösung Technologie KI-Modelle
Machine Learning-Dienst Azure KI Studio
Elastic Search
Microsoft Entra ID
Verwaltete Azure-Identität
Azure Monitor
Azure Storage
Azure KI Studio
Managed Integration Runtime (MIR)
GPT 3.5 Turbo

Funktionsaufrufe mit Prompty, LangChain und Pinecone

Diese Vorlage verwendet das neue Tool Prompty, Langchain und Pinecone, um einen Such-Agent (Large Language Model, LLM) zu erstellen. Dieser Agent mit RAG-Technologie (Retrieval Augmented Generation) kann Benutzerfragen basierend auf den bereitgestellten Daten beantworten, indem der Abruf von Echtzeitinformationen mit generativen Antworten integriert wird.

Um auf den Quellcode zuzugreifen und ausführliche Details zur Vorlage zu lesen, lesen Sie das GitHub-Repository "agent-openai-python-prompty-langchain-pinecone ".

Architekturdiagramm für eine OpenAI-Agent-App mithilfe der Prompty-, Langchain- und Pinecone-App mit Python.

Diese Vorlage veranschaulicht die Verwendung dieser Features.

Azure-Hostinglösung Technologie KI-Modelle
Azure Container Apps Pinecone
Microsoft Entra ID
Microsoft Managed Identity
Azure Monitor
Azure Storage
GPT 3.5 Turbo

Assistant API Analytics-Copilot mit Python und Azure KI Studio

Diese Vorlage ist eine Assistenten-API, mit tabellarischen Daten zu chatten und Analysen in natürlicher Sprache durchzuführen. Um auf den Quellcode zuzugreifen und ausführliche Details zur Vorlage zu lesen, lesen Sie das GitHub-Repository "assistant-data-openai-python-promptflow ".

Architekturdiagramm für eine Assistenten-API zum Chatten mit tabellarischen Daten und Durchführen von Analysen in natürlicher Sprache.

Diese Vorlage veranschaulicht die Verwendung dieser Features.

Azure-Hostinglösung Technologie KI-Modelle
Machine Learning-Dienst Azure KI Search
Azure KI Studio
Managed Integration Runtime (MIR)
Azure OpenAI
GPT 3.5 Turbo
GPT 4

Chatten Sie mit Ihren Daten mit Azure OpenAI und Azure AI Search mit Java

Diese Vorlage ist eine vollständige End-to-End-Lösung, die das In Azure ausgeführte Rag-Muster (Retrieval-Augmented Generation) veranschaulicht. Es verwendet Azure AI Search für das Abrufen und Azure OpenAI große Sprachmodelle, um ChatGPT-Stil und Q&A-Erfahrungen zu ermöglichen.

Erste Schritte mit dieser Vorlage finden Sie unter "Erste Schritte mit dem Chat mithilfe Ihres eigenen Datenbeispiels für Java". Um auf den Quellcode zuzugreifen und ausführliche Details zur Vorlage zu lesen, lesen Sie das GitHub-Repository azure-search-openai-demo-java .

Diagramm mit Architektur von Client zu Back-End-App in Java.

Screenshot der Java-Chat-App im Browser mit mehreren Vorschlägen für die Chateingabe und dem Chattextfeld, um eine Frage einzugeben.

Diese Vorlage veranschaulicht die Verwendung dieser Features.

Azure-Hostinglösung Technologie KI-Modelle
Azure App Service
Azure Container Apps
Azure Kubernetes Service
Azure OpenAI
Azure KI Search
Azure Storage
Azure Monitor

Chatten Sie mit Ihren Daten mit Azure OpenAI und Azure AI Search mit JavaScript

Diese Vorlage ist eine vollständige End-to-End-Lösung, die das In Azure ausgeführte Rag-Muster (Retrieval-Augmented Generation) veranschaulicht. Es verwendet Azure AI Search für das Abrufen und Azure OpenAI große Sprachmodelle, um ChatGPT-Stil und Q&A-Erfahrungen zu ermöglichen.

Informationen zu den ersten Schritten mit dieser Vorlage finden Sie unter "Erste Schritte mit dem Chat mit Ihrem eigenen Datenbeispiel für JavaScript". Um auf den Quellcode zuzugreifen und ausführliche Details zur Vorlage zu lesen, lesen Sie das GitHub-Repository azure-search-openai-javascript .

Abbildung der Architektur der Client-zu-Back-End-App

Screenshot der Chat-App im Browser mit mehreren Vorschlägen für Chateingaben und dem Chattextfeld, um eine Frage einzugeben

Diese Vorlage veranschaulicht die Verwendung dieser Features.

Azure-Hostinglösung Technologie KI-Modelle
Azure Container Apps
Azure Static Web Apps
Azure OpenAI
Azure KI Search
Azure Storage
Azure Monitor
text-embedding-ada-002

Azure OpenAI-Chat-Frontend

Diese Vorlage ist eine minimale OpenAI-Chat-Webkomponente, die mit jeder Back-End-Implementierung als Client eingebunden werden kann.

Um auf den Quellcode zuzugreifen und ausführliche Details zur Vorlage zu lesen, lesen Sie das GitHub-Repository azure-openai-chat-frontend .

Video, das die JavaScript-Chat-Frontend-Anwendung veranschaulicht.

Diese Vorlage veranschaulicht die Verwendung dieser Features.

Azure-Hostinglösung Technologie KI-Modelle
Azure Static Web Apps Azure KI Cognitive Search
Azure OpenAI
GPT 3.5 Turbo
GPT4

Serverlose KI-Chat mit RAG mit LangChain.js

Die Vorlage ist ein serverloser KI-Chatbot mit "Retrieval Augmented Generation" mit LangChain.js und Azure, der eine Reihe von Unternehmensdokumenten verwendet, um Antworten auf Benutzerabfragen zu generieren. Es verwendet ein fiktives Unternehmen namens Contoso Real Estate, und die Erfahrung ermöglicht es seinen Kunden, Supportfragen zur Nutzung seiner Produkte zu stellen. Die Beispieldaten enthalten eine Reihe von Dokumenten, die die Nutzungsbedingungen, die Datenschutzrichtlinie und einen Supportleitfaden beschreiben.

Informationen zum Bereitstellen und Ausführen dieser Vorlage finden Sie unter "Erste Schritte mit Serverless AI Chat with RAG using LangChain.js". Um auf den Quellcode zuzugreifen und ausführliche Details zur Vorlage zu lesen, lesen Sie das GitHub-Repository "serverless-chat-langchainjs ".

Erfahren Sie, wie Sie diese JavaScript-Referenzvorlage bereitstellen und ausführen.

Diagramm, das die Architektur für serverlose API mit LangChainjs zur Integration in Azure OpenAI Service und Azure AI Search zeigt.

Browservideo zur Demonstration der JavaScript-Chat-App mit RAG und Langchain.js

Diese Vorlage veranschaulicht die Verwendung dieser Features.

Azure-Hostinglösung Technologie KI-Modelle
Azure Static Web Apps
Azure-Funktionen
Azure KI Cognitive Search
Azure OpenAI
Azure Cosmos DB
Azure Storage
Verwaltete Azure-Identität
GPT4
Mistral
Ollama