Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
In diesem Artikel wird der Organisationsprozess zum Erstellen von KI-Workloads in Azure beschrieben. Der Artikel enthält Empfehlungen, um wichtige Entwurfs- und Prozessentscheidungen für die Einführung von KI-Workloads im großen Stil zu treffen. Sie konzentriert sich auf KI-spezifische Anleitungen für die Ressourcenorganisation und Konnektivität.
Einrichten von KI-Verwaltung
KI-Governance erfordert eine ordnungsgemäße Ressourcenorganisation und Richtlinienverwaltung, um sichere, kompatible und kostengünstige Vorgänge sicherzustellen. Sie müssen klare Governance-Grenzen erstellen, um sensible Daten zu schützen und den AI-Ressourcenzugriff effektiv zu steuern. Gehen Sie dazu wie folgt vor:
Erstellen Sie separate Verwaltungsgruppen für über das Internet zugängliche und interne KI-Workloads. Die Trennung von Verwaltungsgruppen etabliert entscheidende Grenzen der Datenverwaltung zwischen externen ("online") und unternehmensinternen ("corporate") KI-Anwendungen. Diese Trennung verhindert, dass externe Benutzer auf vertrauliche interne Geschäftsdaten zugreifen, während Sie geeignete Zugriffssteuerungen verwalten. Der Ansatz steht im Einklang mit den Architekturprinzipien der Azure-Zielzonenverwaltungsgruppe und unterstützt die Richtlinienvererbung für verschiedene Workload-Typen.
Wenden Sie KI-spezifische Richtlinien auf jede Verwaltungsgruppe an. Beginnen Sie mit den Baseline-Richtlinien von Azure Landing Zones und fügen Sie Azure-Richtliniendefinitionen für Foundry, Foundry Tools, Azure KI-Suche und Azure Virtual Machines hinzu. Die Richtlinienerzwingung stellt eine einheitliche KI-Governance auf Ihrer Plattform sicher und reduziert die manuelle Compliance-Aufsicht.
Stellen Sie KI-Ressourcen in workloadspezifischen Abonnements bereit. KI-Ressourcen müssen Governance-Policies von ihrer Workload-Verwaltungsgruppe und nicht von Plattform-Abonnements erben. Diese Trennung verhindert Entwicklungsengpässe, die durch die Kontrollen des Plattformteams entstehen, und ermöglicht es den Arbeitslastteams, mit angemessener Autonomie zu arbeiten. Bereitstellung von KI-Workloads in Abonnements für Anwendungs-Landezonen innerhalb von Azure-Landezonen.
Einrichten von KI-Netzwerken
KI-Netzwerke umfassen die Netzwerkinfrastrukturgestaltung, Sicherheitsmaßnahmen und effiziente Muster der Datenübertragung für KI-Workloads. Sie müssen geeignete Sicherheitskontrollen und Konnektivitätsoptionen implementieren, um netzwerkbasierte Unterbrechungen zu verhindern und eine konsistente Leistung aufrechtzuerhalten. Gehen Sie dazu wie folgt vor:
Aktivieren Sie Azure DDoS Protection für internetzugängliche KI-Workloads.Azure DDoS Protection schützt Ihre KI-Dienste vor potenziellen Unterbrechungen und Ausfallzeiten, die durch Distributed Denial-of-Service (DDoS)-Angriffe verursacht werden. Der DDoS-Schutz auf virtueller Netzwerkebene schützt vor Datenverkehrsfluten, die auf internetorientierte Anwendungen abzielen und während Angriffen die Dienstverfügbarkeit aufrecht erhalten.
Sicherer betriebsbereiter Zugriff auf KI-Workloads mit Azure Bastion. Verwenden Sie eine Jumpbox und Azure Bastion, um den sicheren operativen Zugriff auf KI-Workloads zu gewährleisten und die Verwaltungsschnittstellen vor direkter Internetexposition zu schützen. Mit diesem Ansatz wird ein sicheres Gateway für administrative Aufgaben erstellt und gleichzeitig die Netzwerkisolation für KI-Ressourcen beibehalten.
Wählen Sie die entsprechende Konnektivität für lokale Datenquellen aus. Organisationen, die große Datenmengen aus lokalen Quellen in Cloudumgebungen übertragen, benötigen Verbindungen mit hoher Bandbreite, um die Leistungsanforderungen der KI-Workload zu unterstützen.
Benutzen Sie Azure ExpressRoute für den Datentransfer mit hohem Volumen. Azure ExpressRoute bietet dedizierte Konnektivität für große Datenmengen, Echtzeitverarbeitung oder Arbeitslasten, die eine gleichbleibende Leistung erfordern. ExpressRoute enthält ein FastPath-Feature , das die Leistung des Datenpfads verbessert, indem das ExpressRoute-Gateway für bestimmte Datenverkehrsflüsse umgangen wird.
Verwenden Sie das Azure VPN Gateway für den mittleren Datentransfer.Azure VPN Gateway eignet sich gut für mittlere Datenmengen, seltene Datenübertragungen oder wenn öffentlicher Internetzugang erforderlich ist. VPN Gateway bietet eine einfachere Einrichtung und einen kostengünstigen Betrieb für kleinere Datasets im Vergleich zu ExpressRoute. Verwenden Sie die entsprechende Topologie und den Entwurf für Ihre KI-Workloads, einschließlich Standort-zu-Standort-VPN für standortübergreifende Konnektivität und Point-to-Site-VPN für den sicheren Gerätezugriff.
Sicherstellung der KI-Zuverlässigkeit
AI-Zuverlässigkeit erfordert strategische Regionsplatzierung und Redundanzplanung, um eine konsistente Leistung und hohe Verfügbarkeit sicherzustellen. Organisationen müssen auf Modellhosting, Datenlokalität und Notfallwiederherstellung eingehen, um zuverlässige KI-Dienste aufrechtzuerhalten. Sie müssen Ihre regionale Bereitstellungsstrategie planen, um Dienstunterbrechungen zu vermeiden und die Leistung zu optimieren. Gehen Sie dazu wie folgt vor:
Stellen Sie KI-Endpunkte in mehreren Regionen für Produktionsworkloads bereit. Produktions-KI-Workloads erfordern das Hosting in mindestens zwei Regionen, um Redundanz bereitzustellen und eine hohe Verfügbarkeit sicherzustellen. Bereitstellungen mit mehreren Regionen ermöglichen ein schnelleres Failover und eine schnellere Wiederherstellung bei regionalen Fehlern. Verwenden Sie für Azure OpenAI in Foundry globale Bereitstellungen die Anforderungen automatisch an Regionen mit verfügbarer Kapazität weiterleiten. Implementieren Sie für regionale Bereitstellungen Azure API Management zum Lastenausgleich von API-Anforderungen über KI-Endpunkte hinweg.
Überprüfen Sie die Verfügbarkeit des KI-Diensts in Zielregionen vor der Bereitstellung. Unterschiedliche Regionen bieten unterschiedliche Ebenen der Verfügbarkeit von KI-Diensten und Featureunterstützung. Überprüfen Sie Azure Serviceverfügbarkeit nach Region um zu bestätigen, dass Ihre erforderlichen KI-Dienste verfügbar sind. Azure OpenAI-Bereitstellungsmodelle umfassen globale Standard-, globale, regionale Standard- und regionale Bereitstellungsoptionen mit unterschiedlichen regionalen Verfügbarkeitsmustern.
Bewerten sie regionale Kontingentgrenzwerte und Kapazitätsanforderungen. Foundry Tools verfügen über regionale Abonnementbeschränkungen, die sich auf umfangreiche Modellbereitstellungen und Rückschlussarbeitslasten auswirken. Wenden Sie sich an Azure-Support proaktiv, wenn Sie kapazitätsanforderungen erwarten, die standardkontingente überschreiten, um Dienstunterbrechungen während der Skalierung zu verhindern.
Optimieren Sie die Datenplatzierung für Anwendungen der erweiterten Abrufgenerierung. Der Datenspeicherort wirkt sich in RAG-Szenarien erheblich auf die Anwendungsleistung aus. Das gemeinsame Platzieren von Daten mit KI-Modellen in derselben Region verringert die Latenz und verbessert die Effizienz des Datenabrufs, obwohl regionenübergreifende Konfigurationen für bestimmte Geschäftsanforderungen weiterhin durchführbar bleiben.
Replizieren sie kritische KI-Ressourcen in sekundäre Regionen für die Geschäftskontinuität. Die Geschäftskontinuität erfordert die Replikation fein abgestimmter Modelle, RAG-Datensätze, trainierter Modelle und Trainingsdaten in sekundäre Regionen. Die Bestandsreplikation ermöglicht eine schnellere Wiederherstellung während Ausfällen und verwaltet die Dienstverfügbarkeit in verschiedenen Ausfallszenarien.
Einrichten eines KI-Fundaments
Eine KI-Stiftung bietet die Kerninfrastruktur und Ressourcenhierarchie, die KI-Workloads in Azure unterstützen. Es umfasst das Einrichten skalierbarer, sicherer Umgebungen, die den Governance- und Betriebsanforderungen entsprechen. Ein starkes KI-Fundament ermöglicht eine effiziente Bereitstellung und Verwaltung von KI-Workloads. Es sorgt auch für Sicherheit und Flexibilität bei zukünftigem Wachstum.
Verwendung einer Azure Landingzone
Eine Azure Zielzone ist der empfohlene Ausgangspunkt, der Ihre Azure Umgebung vorbereitet. Sie bietet ein vordefiniertes Setup für Plattform- und Anwendungsressourcen. Sobald die Plattform eingerichtet ist, können Sie KI-Workloads für dedizierte Anwendungszielzonen bereitstellen.
Wenn Ihre Organisation Azure Zielzonen für Workloads verwendet, verwenden Sie sie weiterhin für Workloads, die KI verwenden. Sie stellen Ihre KI-Workloads wie jede andere Workload in regulären Anwendungslandezonen bereit. Siehe AI in Azure Landezonen. In Abbildung 2 unten wird veranschaulicht, wie KI-Workloads in eine Azure Landingzone integriert werden.
Figure 2. KI-Workload in einer Azure Zielzone.
Erstellen einer KI-Umgebung
Wenn Sie keine Azure Zielzone verwenden, folgen Sie den Empfehlungen in diesem Artikel, um Ihre KI-Umgebung zu erstellen. Das folgende Diagramm zeigt eine grundlegende Ressourcenhierarchie. Es segmentiert interne KI-Workloads und internetorientierte KI-Workloads. Interne Workloads verwenden Richtlinien, um den Onlinezugriff von Kunden zu verweigern. Diese Trennung schützt interne Daten vor der Offenlegung für externe Benutzer. Die KI-Entwicklung sollte eine Jumpbox verwenden, um KI-Ressourcen und Daten zu verwalten.
Abbildung 3: Basisressourcenhierarchie für KI-Workloads.
Nächste Schritte
Der nächste Schritt besteht darin, KI-Workloads in Ihrer KI-Umgebung zu erstellen und bereitzustellen. Unter den folgenden Links finden Sie die Ihren Anforderungen entsprechenden Architekturleitfäden. Beginnen Sie mit PaaS-Architekturen (Platform-as-a-Service). PaaS ist Microsoft empfohlener Ansatz zur Einführung von KI.