Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Dieser Artikel führt Sie zu sprachspezifischen Lernprogrammen und Ressourcen, mit denen Sie intelligente Anwendungen mit App Service erstellen können.
Azure App Service erleichtert die Integration von KI-Funktionen in Ihre Webanwendungen in mehrere Programmiersprachen und Frameworks. Ganz gleich, ob Sie leistungsstarke Azure OpenAI-Modelle verwenden möchten, lokale kleine Sprachmodelle (SLMs) direkt mit Ihren Apps bereitstellen, MCP-Server (Model Context Protocol) hosten oder erweiterte Muster implementieren möchten, wie z. B. die abrufende augmentierte Generation (RAG), App Service bietet die flexible, sichere Plattform, die Sie für KI-basierte Anwendungen benötigen.
App Service bietet mehrere Vorteile für die Entwicklung und Bereitstellung von KI-basierten Anwendungen:
- Native Integration in Azure AI-Dienste – Nahtlose Verbindung mit Azure OpenAI und anderen AI-Diensten mithilfe von verwalteten Identitäten für sichere, kennwortlose Authentifizierung
- Lokale SLM-Unterstützung – Verwenden von Sidecar-Erweiterungen, um kleinere Sprachmodelle direkt mit Ihrer Anwendung bereitzustellen
- Sicherheit auf Unternehmensniveau – Implementieren der Netzwerkisolation, End-to-End-Verschlüsselung und rollenbasierter Zugriffssteuerung
- Vereinfachte DevOps mit GitHub-Integration – Optimieren von CI/CD-Pipelines mithilfe von GitHub-Aktionen, Nutzen von GitHub Codespaces mit integriertem GitHub Copilot für KI-unterstützte Entwicklung und Erstellen von End-to-End-Workflows von der Entwicklung bis zur Produktionsbereitstellung
.NET-Anwendungen
Erstellen Sie KI-gestützte .NET-Anwendungen mit den folgenden Lernprogrammen:
- Erstellen Sie einen Chatbot mit Azure OpenAI (Blazor) – Erstellen Sie eine Blazor-Web-App, die eine Verbindung mit Azure OpenAI herstellt, um TLDR-Zusammenfassungen mithilfe des semantischen Kernels zu generieren.
- Erstellen Sie eine RAG-Anwendung mit Azure OpenAI und Azure AI Search (.NET) – Implementieren Sie RAG, um Ihren KI-Modellen den Zugriff auf und die Verwendung der Daten Ihrer Organisation zu ermöglichen.
- Integrieren einer App Service-App als MCP-Server für GitHub Copilot Chat (.NET)
- Hinzufügen einer App Service-App als Tool in Azure AI Foundry Agent Service (.NET)
- Lernprogramm: Erstellen einer agentischen Web-App in Azure App Service mit Microsoft Semantic Kernel oder Azure AI Foundry Agent Service (.NET)
- Erstellen Sie eine RAG-Anwendung mit Azure OpenAI und Azure SQL – Verwenden Sie Azure SQL als Vektordatenbank für RAG-Anwendungen.
- Führen Sie einen Chatbot mit einer lokalen SLM-Sidecar-Erweiterung aus – Stellen Sie einen Chatbot bereit, der einen lokalen SLM verwendet, ohne einen externen KI-Dienst zu benötigen.
- Aufrufen einer Web-App von Azure AI Foundry Agent – Machen Sie Ihre Web-API für KI-Agents verfügbar.
Java-Anwendungen
Integrieren Sie KI-Funktionen in Ihre Java-Anwendungen:
- Erstellen Sie einen Chatbot mit Azure OpenAI (Spring Boot) – Erstellen Sie eine Spring Boot-Anwendung, die eine Verbindung mit Azure OpenAI mithilfe der verwalteten Identität herstellt.
- Erstellen Sie eine RAG-Anwendung mit Azure OpenAI und Azure AI Search (Java) – Implementieren Sie RAG, um Ihre eigenen Dokumente mit Java zu durchsuchen.
- Führen Sie einen Chatbot mit einem lokalen SLM (Spring Boot) aus – Stellen Sie eine Spring Boot-Anwendung mit einem lokalen SLM-Sidecar bereit.
Beispiele:
Node.js-Anwendungen
Fügen Sie Ihren Node.js Webanwendungen KI-Features hinzu:
- Erstellen Sie einen Chatbot mit Azure OpenAI (Express.js) – Erstellen Sie eine Express.js Anwendung, die eine Verbindung mit Azure OpenAI mithilfe verwalteter Identität herstellt.
- Erstellen Sie eine RAG-Anwendung mit Azure OpenAI und Azure AI Search (Node.js) – Erstellen Sie eine RAG-Anwendung mit Node.js.
- Führen Sie einen Chatbot mit einem lokalen SLM (Express.js) aus – Stellen Sie eine Express.js Anwendung mit einem lokalen SLM-Sidecar bereit.
Python-Anwendungen
Implementieren Sie KI-Funktionen in Ihren Python-Webanwendungen:
- Erstellen Sie einen Chatbot mit Azure OpenAI (Flask) – Erstellen Sie eine Flask-Anwendung, die eine Verbindung mit Azure OpenAI mithilfe der verwalteten Identität herstellt.
- Erstellen Sie eine RAG-Anwendung mit Azure OpenAI und Azure AI Search (Python) – implementieren Sie RAG mit Python.
- Führen Sie einen Chatbot mit einem lokalen SLM (FastAPI) aus – Stellen Sie eine FastAPI-Anwendung mit einem lokalen SLM-Sidecar bereit.
- Lernprogramm für Azure AI Foundry: Bereitstellen einer Web-App für Unternehmenschats – Bereitstellen vollständig integrierter KI-Web-App direkt aus Ihrer Bereitstellung in Azure AI Foundry.
Model Context Protocol (MCP) Server
Host Model Context Protocol (MCP) in Ihren Webanwendungen:
- Hosten Sie einen .NET MCP-Server auf Azure App Service – Stellen Sie einen MCP-Server mit .NET bereit.
- Hosten Sie einen Node.js MCP-Server auf Azure App Service – Stellen Sie einen MCP-Server mit Node.jsbereit.
- Hosten Sie einen Python MCP-Server auf Azure App Service – Stellen Sie einen MCP-Server mit Python bereit.
- Hosten Sie einen Pyton MCP-Server mit schlüsselbasierter Autorisierung für Azure App Service – Stellen Sie einen MCP-Server mit Python und schlüsselbasierter Autorisierung bereit.
- Hosten Sie einen Pyton MCP-Server mit OAuth 2.0-Autorisierung auf Azure App Service – Bereitstellen eines MCP-Servers mit Python and Open Authorization (OAuth) 2.0-Autorisierung mit Micrososft Entra ID.