Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Azure Container Apps ist eine serverlose Containerplattform, die die Bereitstellung und Skalierung von Microservices und KI-basierten Anwendungen vereinfacht. Mit nativer Unterstützung für GPU-Workloads, nahtlose Integration in Foundry Tools und flexible Bereitstellungsoptionen ist es eine ideale Plattform für die Erstellung intelligenter cloudeigener Lösungen.
GPU-gestützte Ableitung
Verwenden Sie GPU-beschleunigte Workloadprofile, um eine Vielzahl Ihrer KI-Workloadanforderungen zu erfüllen, darunter:
- Serverlose GPUs: Ideal für szenarien mit variablem Datenverkehr und kostensensiblen Ableitungsworkloads.
- Dedizierte GPUs: am besten für kontinuierliche Inferenzszenarien mit geringer Latenz geeignet.
- Skalieren sie auf Null: skalieren Sie automatisch im Leerlauf befindliche GPU-Ressourcen, um Die Kosten zu minimieren.
Dynamische Sitzungen für KI-generierten Code
Dynamische Sitzungen bieten eine sichere, isolierte Umgebung zum Ausführen von KI-generiertem Code. Perfekt für Szenarien wie Sandkastenausführung, Codeauswertung und KI-Agents.
Zu den unterstützten Sitzungstypen gehören:
- Platform verwaltete integrierte Container: ein plattformverwalteter Container, der das Ausführen von Code in Python und Node.jsunterstützt.
- Benutzerdefinierte Container: Erstellen Sie einen Sitzungspool mit einem benutzerdefinierten Container für spezielle Workloads oder zusätzliche Sprachunterstützung.
Bereitstellen von Microsoft Foundry-Modellen
Azure Container Apps in Foundry integriert, wodurch Sie kuratierte KI-Modelle direkt in Ihren containerisierten Umgebungen bereitstellen können. Diese Integration vereinfacht die Modellbereitstellung und -verwaltung und erleichtert das Erstellen intelligenter Anwendungen in Container-Apps.
Beispielprojekte
Im Folgenden sind einige Beispiele aufgeführt, die die KI-Integration mit Azure Container Apps veranschaulichen. Diese Beispiele zeigen verschiedene KI-Funktionen, einschließlich OpenAI-Integration, Multi-Agent-Koordination und Abruf-Augmented Generation (RAG) mithilfe von Azure AI Search. Weitere Beispiele finden Sie in der Vorlagenbibliothek.
| Beispiel | Description |
|---|---|
| Chat-App mit Azure OpenAI | ChatGPT-ähnliche Apps mit OpenAI, LangChain, ChromaDB und Chainlit, die mit Terraform in ACA bereitgestellt werden. |
| Hosten Sie einen MCP-Server | Veranschaulicht die Multi-Agent-Koordination mithilfe des MCP-Protokolls mit Azure OpenAI- und GitHub Modellen in Container-Apps. |
| MCP-Client und -Server | .NET-basierte MCP-Agent-App mit Azure OpenAI mit einem TypeScript MCP-Server, beide auf ACA gehostet. |
| Remote MCP-Server | TypeScript-basierte MCP-Servervorlage für Container-Apps, ideal zum Erstellen von benutzerdefinierten KI-Toolketten. |
| Dynamic session Python code interpreter | Dynamische Sitzung zum Ausführen von Python Code in einer sicheren Umgebung. |