Bearbeiten

Share via


Baselinearchitektur für AKS in Azure Stack HCI

Azure Stack
Windows Server

Erfahren Sie in diesem Szenario, wie Sie eine Baselinearchitektur für Microsoft Azure Kubernetes Service (AKS) entwerfen und implementieren, die in Azure Stack HCI (AKS hybrid) ausgeführt wird.

Dieser Artikel enthält Empfehlungen für Netzwerk, Sicherheit, Identität, Verwaltung und Überwachung des Clusters basierend auf den Geschäftsanforderungen einer Organisation. Er ist Teil eines aus zwei Artikeln bestehenden Leitfadens für die Architekturbaseline. Die Empfehlungen für den Netzwerkentwurf finden Sie hier.

Aufbau

Die folgende Abbildung zeigt die Baselinearchitektur für Azure Kubernetes Service in Azure Stack HCI- oder Windows Server 2019/2022 Datacenter-Failoverclustern:

Conceptual image of Baseline architecture for Azure Kubernetes Service on Azure Stack HCI.

Laden Sie eine Visio-Datei dieser Architektur herunter.

Die Architektur umfasst die folgenden Komponenten und Funktionen:

  • Azure Stack HCI (20H2): Eine HCI-Clusterlösung (Hyperconverged Infrastruktur, hyperkonvergente Infrastruktur), mit der virtualisierte Windows- und Linux-Workloads und ihr Speicher in einer lokalen Hybridumgebung gehostet werden. Ein Azure Stack HCI-Cluster wird mit 2–8 Knoten implementiert.
  • Azure Kubernetes Service in Azure Stack HCI (AKS hybrid) Eine lokale Implementierung von AKS, die die Ausführung von containerisierten Anwendungen im großen Stil automatisiert.
  • Azure Arc ist ein cloudbasierter Dienst, der das auf dem Azure Resource Manager basierende Verwaltungsmodell um Nicht-Azure-Ressourcen erweitert, einschließlich virtueller Computer (VMs), Kubernetes-Cluster und containerisierter Datenbanken.
  • Azure Policy. Ein cloudbasierter Dienst, der bei der Erzwingung von Organisationsstandards und Bewertung der Konformität im großen Stil hilft, indem Azure- (einschließlich Arc-fähiger) Ressourcen anhand ihrer Ressourcen in Bezug auf Geschäftsregeln ausgewertet werden. Diese Standards umfassen auch Azure Policy für Kubernetes, womit Richtlinien auf die im Clusters ausgeführten Workloads angewendet werden.
  • Azure Monitor: Hierbei handelt es sich um einen cloudbasierten Dienst, der die Verfügbarkeit und Leistung Ihrer Anwendungen und Dienste durch die Bereitstellung einer umfassenden Lösung für das Sammeln, Analysieren und Reagieren auf Telemetriedaten aus Ihren cloudbasierten und lokalen Umgebungen maximiert.
  • Microsoft Defender für Cloud: Ein vereinheitlichtes Sicherheitsverwaltungssystem für Infrastrukturen, mit dem der Sicherheitsstatus Ihrer Rechenzentren gestärkt wird und erweiterter Schutz vor Bedrohungen für Ihre Hybridworkloads in der Cloud- und lokalen Umgebung bereitgestellt wird.
  • durch Azure Automation Stellt einen cloudbasierten Automatisierungs- und Konfigurationsdienst bereit, der eine einheitliche Verwaltung Ihrer Azure- und Nicht-Azure-Umgebungen unterstützt.
  • Velero. Ein Open-Source-Tool, das bedarfsgesteuerte und geplante Sicherungen unterstützt und mit dem alle Objekte im Kubernetes-Cluster wiederhergestellt werden.
  • Azure Blob Storage: Ein hochgradig skalierbarer und sicherer Objektspeicher für cloudnative Workloads, Archive, Data Lakes, High Performance Computing und maschinelles Lernen.

Komponenten

Szenariodetails

Mögliche Anwendungsfälle

  • Implementieren Sie in einer lokalen Kubernetes-Implementierung von AKS hoch verfügbare, containerbasierte Workloads.
  • Automatisieren Sie die Ausführung containerisierter Anwendungen im großen Stil.
  • Reduzieren der Gesamtkosten (TCO) durch von Microsoft zertifizierte Lösungen, cloudbasierte Automatisierung, zentralisierte Verwaltung und zentralisierte Überwachung

Zertifizierte Hardware

Setzen Sie Azure Stack HCI-zertifizierte Hardware ein, die standardmäßig die Einstellungen für die Features „Sicherer Start“, United Extensible Firmware Interface (UEFI) und Trusted Platform Module (TPM) bereitstellt. Die Computeanforderungen hängen von der Anwendung und Anzahl der Workerknoten ab, die in AKS im Azure Stack HCI-Cluster ausgeführt werden. Um Hochverfügbarkeit zu erreichen, benötigen Sie mehrere physische Knoten für die Bereitstellung von Azure Stack HCI oder mindestens einen Windows Server Datacenter-Failovercluster mit zwei Knoten. Es ist erforderlich, dass alle Server vom selben Hersteller stammen, dasselbe Modell aufweisen und 64-Bit-Prozessoren der Intel Nehalem-Architektur oder der AMD EPYC-Architektur oder kompatible Prozessoren mit höherer Spezifikation und SLAT (Second-Level Address Translation, Adressübersetzung der zweiten Ebene) verwenden.

Bereitstellungsstrategien für Cluster

AKS vereinfacht die lokale Kubernetes-Bereitstellung, indem Assistenten oder PowerShell-Cmdlets zur Verfügung gestellt werden, mit denen Sie Kubernetes und wichtige Azure Stack HCI-Add-Ons einrichten können. Ein Azure Kubernetes Service-Cluster ist in Azure Stack HCI beinhaltet folgende Komponenten:

  • Verwaltungscluster: Stellen Sie den Verwaltungscluster auf einem hochverfügbaren virtuellen Computer (VM) bereit, der entweder in Azure Stack HCI oder einem Windows Server 2019/2022 Datacenter-Failovercluster ausgeführt wird. Der Verwaltungscluster ist für die Bereitstellung und Verwaltung mehrerer Workloadcluster verantwortlich und umfasst die folgenden Komponenten:
    • API-Server. Interagiert mit den Verwaltungstools.
    • Lastenausgleich. Verwaltet Lastenausgleichsregeln für den API-Server des Verwaltungsclusters.
  • Workloadcluster. Implementieren Sie hochverfügbare Komponenten auf Steuerungsebene und Workerknotenkomponenten. Containerisierte Anwendungen werden in einem Workloadcluster ausgeführt. Um Anwendungsisolation zu erreichen, können Sie bis zu acht Workloadcluster bereitstellen. Der Workloadcluster besteht aus den folgenden Komponenten:
    • Steuerungsebene. Wird in einer Linux-Distribution ausgeführt und enthält API-Serverkomponenten für die Interaktion mit der Kubernetes-API und einen verteilten Schlüssel-Wert-Speicher (etcd) zum Speichern aller Konfigurationen und Daten des Clusters.
    • Lastenausgleich. Wird auf einer Linux-VM ausgeführt und stellt Dienste zum Lastenausgleich für den Workloadcluster bereit.
    • Workerknoten. Werden unter einem Windows- oder Linux-Betriebssystem ausgeführt, das containerisierte Anwendungen hostet.
    • Kubernetes-Ressourcen. Pods stellen eine einzelne Instanz Ihrer Anwendung dar, die in der Regel eine 1:1-Zuordnung zu einem Container aufweisen. Bestimmte Pods können jedoch mehrere Container enthalten. Bereitstellungen stellen einen oder mehrere identische Pods dar. Pods und Bereitstellungen werden logisch in einem Namespace gruppiert, der den Zugriff zur Verwaltung der Ressourcen steuert.

Netzwerkanforderungen

Durch das Verbinden der Kubernetes-Knoten mit dem virtuellen Netzwerk bietet Kubernetes eine Abstraktionsebene für virtuelle Netzwerke. Es bietet auch über die Komponente kube-proxy ein- und ausgehende Konnektivität für Pods. Die Azure Stack HCI-Plattform bietet eine weitere Vereinfachung der Bereitstellung durch Konfiguration der Lastenausgleichs-VM für HAProxy.

Hinweis

Informationen zu Entwurf und Implementierung von Netzwerkkonzepten für die Bereitstellung von AKS-Knoten in Azure Stack HCI- und Windows Server-Clustern finden Sie im zweiten Artikel dieser Reihe, Netzwerkarchitektur.

In der Architektur wird ein virtuelles Netzwerk verwendet, das IP-Adressen mithilfe einer der folgenden Netzwerkoptionen zuordnet:

  • Netzwerk mit statischen IP-Adressen. Verwendet für alle Objekte in der Bereitstellung einen statischen, festgelegten Adressenpool. Es bietet zusätzliche Vorteile und garantiert, dass Workload und Anwendung stets erreichbar sind. Dies ist die empfohlene Methode.
  • DHCP-Netzwerk. Ordnet den Kubernetes-Knoten, zugrunde liegenden VMs und Lastenausgleichsmodulen dynamische IP-Adressen über einen DHCP-Server (Dynamic Host Configuration Protocol) zu.

Ein Pool virtueller IP-Adressen ist ein Bereich reservierter IP-Adressen, der zum Zuordnen von IP-Adressen zum API-Server des Kubernetes-Clusters und für Kubernetes-Dienste verwendet wird.

Über Project Calico für Kubernetes werden Ihnen andere Netzwerkfeatures wie Netzwerkrichtlinien und Flusssteuerung zur Verfügung gestellt.

Speicheranforderungen

Alle Server im Cluster müssen die gleichen Laufwerkstypen mit der gleichen Größe und dem gleichen Modell aufweisen. Azure Stack HCI funktioniert mit direkt angeschlossenen SATA- (Serial Advanced Technology Attachment), SAS- (Serial Attached SCSI) und NVMe-Laufwerken (Non-Volatile Memory Express) oder Laufwerken mit persistentem Arbeitsspeicher, die physisch an jeweils einen Server angeschlossen sind. Für Clustervolumes verwendet HCI softwaredefinierte Speichertechnologie (Direkte Speicherplätze), um die physischen Laufwerke im Speicherpool zum Zweck der Fehlertoleranz, Skalierbarkeit und Leistungsoptimierung zu kombinieren. Anwendungen, die in Kubernetes in Azure Stack HCI ausgeführt werden, erwarten häufig, dass ihnen die folgenden Speicheroptionen zur Verfügung stehen:

  • Volumes: Bieten eine Möglichkeit, Daten während des Lebenszyklus der Anwendung in mehreren Pods zu speichern, abzurufen und beizubehalten.
  • Persistente Volumes. Eine von der Kubernetes-API erstellte und verwaltete Speicherressource, die unabhängig von der Lebensdauer eines einzelnen Pods vorhanden sein kann.

Erwägen Sie die Definition von Speicherklassen für verschiedene Ebenen und Standorte, um Kosten und Leistung zu optimieren. Die Speicherklassen unterstützen die dynamische Bereitstellung persistenter Volumes und definieren die Richtlinie reclaimPolicy, um die Aktion der zugrunde liegenden Speicherressource zur Verwaltung persistenter Volumes anzugeben, wenn der Pod gelöscht wird.

Verwalten von AKS in Azure Stack HCI

Sie können AKS in Azure Stack HCI verwalten, indem Sie die folgenden Verwaltungsoptionen verwenden:

  • Windows Admin Center. Bietet eine intuitive Benutzeroberfläche für den Kubernetes-Operator zur Verwaltung des Lebenszyklus von Azure Kubernetes Service-Clustern in Azure Stack HCI.
  • PowerShell: Eine einfache Möglichkeit, AKS in Azure Stack HCI herunterzuladen, zu konfigurieren und bereitzustellen. Das PowerShell-Modul unterstützt auch Bereitstellung und Konfiguration weiterer Workloadcluster und die Neukonfiguration bestehender Cluster.

Active Directory-Anforderungen

Integrieren Sie zur Optimierung der Verwaltung AKS in Azure Stack HCI- oder Windows Server Datacenter-Failovercluster in eine AD DS-Umgebung (Active Directory Domain Services). Arbeiten Sie nach Möglichkeit mit separate Organisationseinheiten für die Server und Dienste von AKS in Azure Stack HCI, um Zugriffssteuerung und Berechtigungen präziser bereitzustellen. Die Integration von Active Directory und Azure Kubernetes Service in Azure Stack HCI ermöglicht einem Benutzer eines in eine Windows-Domäne eingebundenen Computers, sich (über kubectl) mit seinen Anmeldeinformationen für einmaliges Anmelden (Single Sign-On, SSO) mit dem API-Server zu verbinden.

Empfehlungen

Die folgenden Empfehlungen gelten für die meisten Szenarios. Halten Sie sich an die Empfehlungen, es sei denn, Sie haben eine spezielle Anforderung, die Vorrang hat.

Integrieren von AKS-Hybridbereitstellungen in Azure Arc

Um die Gesamtkosten zu minimieren, integrieren Sie AKS-Hybridbereitstellungen in Azure Arc. Erwägen Sie die Nutzung der folgenden Azure-Dienste:

  • Azure Monitor Container Insights Überwacht die Leistung von Containerworkloads, die in Linux- und Windows-Clustern ausgeführt werden. Das Feature erfasst über die Metrik-API Speicher- und Prozessormetriken von Controllern, Knoten und Containern. Mit Container Insights können Sie die Arbeitsspeicher- und Prozessorauslastung ermitteln, die Gesamtleistung des Pods bestimmen, das Verhalten des Clusters verstehen und für eine proaktive Überwachung Warnungen konfigurieren.
  • Möglichkeiten zur Automatisierung. „AKS hybrid“ bietet eine große Bandbreite an Automatisierungsfunktionen. Dabei werden Betriebssystemupdates mit Full-Stack-Updates (einschließlich Firmware und Treiber) kombiniert, die von Azure Stack HCI-Anbietern und Partnern bereitgestellt werden. Sie können Windows PowerShell lokal über einen Azure Stack HCI-Server oder remote über einen Verwaltungscomputer ausführen. Die Integration in Azure Automation und Azure Arc ermöglicht für virtualisierte und containerisierte Workloads eine Vielzahl von Automatisierungsszenarien.
  • Velero und Azure Blob Storage. Velero ist ein Open-Source-Tool, das bedarfsgesteuerte und geplante Sicherungen sowie die Wiederherstellung aller Objekte im Kubernetes-Cluster für beliebige Ressourcen unterstützt, die in einer etcd-Datenbank als Kubernetes Custom Resource Definition (CRD) definiert und gespeichert sind. Das Tool ermöglicht mithilfe von Namespaces oder Bezeichnungsselektoren die Sicherung von Kubernetes-Ressourcen und -Volumes für einen gesamten Cluster oder einen Teil davon. Sie speichern den mit Velero erstellten Sicherungssatz in einem Azure-Speicherkonto in einem Blobcontainer.
  • Azure Arc-fähiges Kubernetes Service. Stellt eine Azure Resource Manager-Darstellung von AKS in Azure Stack HCI-Clustern bereit. Stellen Sie Azure Arc-fähige Agents in einem Kubernetes-Namespace bereit, um Protokolle und Metriken zu sammeln, Clustermetadaten, Clusterversion und Knotenanzahl zu erfassen und sicherzustellen, dass Agents eine optimale Leistung bringen.
  • Azure Policy. Mit Azure Policy können Sie integrierte Sicherheitsrichtlinien im AKS-Cluster bereitstellen und erzwingen. Sie können außerdem mithilfe einer benutzerdefinierten Richtliniendefinition GitOps erzwingen, womit Sie den gewünschten Zustand der Kubernetes-Konfiguration (Bereitstellungen, Namespaces usw.) in einem Git-Repository deklarieren.
  • Azure Policy für Kubernetes. Verwalten Sie die von Gatekeeper implementierten internen Clusterrichtlinien, stellen Sie die Richtliniendefinition als Einschränkungsvorlage im Cluster bereit, und erstellen Sie Berichte über den Konformitätsstatus Ihrer Kubernetes-Cluster an zentrale Stelle.
  • Azure RBAC. Dient zur Rollenzuweisung und Verwaltung des Zugriffs auf Azure Arc-fähiges Kubernetes.

Überlegungen

Diese Überlegungen beruhen auf den Säulen des Azure Well-Architected Frameworks, d. h. einer Reihe von Grundsätzen, mit denen die Qualität von Workloads verbessert werden kann. Weitere Informationen finden Sie unter Microsoft Azure Well-Architected Framework.

Zuverlässigkeit

  • Implementieren Sie eine hochverfügbare VM für den Verwaltungscluster und mehrere Hosts im Kubernetes-Cluster, um für Workloads einen Mindestgrad an Verfügbarkeit zu gewährleisten.
  • Das Sichern und Wiederherstellen von Workloadclustern kann mithilfe von Velero und Azure Blob Storage erfolgen. Definieren Sie Verfügbarkeits- und Wiederherstellungsziele, um die geschäftlichen Anforderungen zu erfüllen.
  • AKS-Hybridbereitstellungen arbeiten zum Zweck der Hochverfügbarkeit und Fehlertoleranz mit Failoverclustering und Livemigration. Die Livemigration ist eine Hyper-V-Funktion, mit der Sie ausgeführte VMs ohne wahrgenommene Downtime transparent von einem Hyper-V-Host zu einem anderen migrieren können.
  • Konfigurieren Sie Bereitstellungen für die Verwendung von Kubernetes-Funktionen wie Deployments, Affinity Mapping und ReplicaSets, um sicherzustellen, dass die Pods bei Störungen resilient sind.
  • Stellen Sie sicher, dass die Dienste, auf die im Abschnitt Architektur verwiesen wird, in der Region unterstützt werden, in der Azure Arc bereitgestellt wird.
  • Erwägen Sie das Einschränken der Verwendung öffentlicher Containerimages, und ziehen Sie nur Daten aus Containerregistrierungen heran, bei denen Sie die Kontrolle über die SLA haben, wie z. B. ACR.

Sicherheit

Konzentrieren Sie sich auf den gesamten Stapel, indem Sie den Host und die Container schützen.

Sicherheit der Infrastruktur

  • Verwenden Sie für Azure Stack HCI zertifizierte Hardware, die Standardeinstellungen für sicheren Start, UEFI und TPM bereitstellt. Diese Technologien helfen in Kombination mit der virtualisierungsbasierten Sicherheit (VBS) dabei, sicherheitsrelevante Workloads zu schützen. Auf der Website mit Azure Stack HCI-Lösungen finden Sie geprüfte Lösungen.
  • Verwenden Sie das Feature „Sicherer Start“, um zu gewährleisten, dass der Server nur Software startet, die von einem Originalgerätehersteller als vertrauenswürdig eingestuft wurde.
  • Steuern Sie den Startvorgang des Servers über UEFI.
  • Mit TPM können Sie kryptografische Schlüssel speichern und alle hardwarebasierten, sicherheitsbezogenen Funktionen isolieren.
  • Mit der BitLocker-Laufwerkverschlüsselung können Sie Volumes des Typs „Direkte Speicherplätze“ mit ruhenden Daten verschlüsseln.
  • Konfigurieren Sie Calico-Netzwerkrichtlinien, um Regeln für die Netzwerkisolation zwischen Containern festzulegen.
  • Bei erhöhten Sicherheitsanforderungen sollten Sie die Bereitstellung eines Workloadclusters auf einem dedizierten Windows-Server in Betracht ziehen.
  • Mit dem über Windows Admin Center verfügbaren Microsoft Defender for Cloud können Sie die Sicherheitseinstellungen für Server und Clouds zentral verwalten. Das Tool bietet Bedrohungsschutz für Ihre Arc-fähigen Kubernetes-Cluster. Microsoft Defender for Cloud sammelt Daten von Knoten im Cluster und sendet sie zur weiteren Analyse an das Azure Defender for Kubernetes-Back-End in der Cloud.
  • Schützen Sie die Kommunikation mit Zertifikaten.
  • Rotieren Sie die Verschlüsselungsschlüssel des Kubernetes-Geheimnisspeichers (etcd) mithilfe des KMS-Plug-Ins (Schlüsselverwaltungserver).

Anwendungssicherheit

  • Verwenden Sie die Erweiterung des Azure Key Vault Secrets-Anbieters in Ihrer AKS in Azure Stack HCI-Instanz, um Ihre von verschiedenen Anwendungen verwendeten Geheimnisse noch besser zu schützen, indem Sie sie im Dienst Azure Key Vault speichern.
  • Verwenden Sie das Add-On für Open Service Mesh AKS, um die Kommunikation zwischen Diensten zu schützen, indem gegenseitiges TLS (mTLS) aktiviert wird. Sie können mit diesem Add-On auch detailliertere Zugriffssteuerungsrichtlinien für Dienste festlegen und umsetzen.
  • Mithilfe von Azure Policy for Kubernetes können Sie Richtlinien für Clustersicherheit erzwingen, wie z. B. für nicht berechtigte Pods.
  • Verwenden Sie eine Azure Container Registry-Instanz, die ihr Containerrepository auf Sicherheitsrisiken überprüft.
  • Nutzen Sie gruppenverwaltete Sicherheitskonten für Windows-Workloads mit einem nicht in die Domäne eingebundenen Host. (Gilt nur für Windows Server.)

Containersicherheit

  • Härten Sie die Host- und Daemonumgebung, indem Sie unnötige Dienste entfernen.
  • Schließen Sie Geheimnisse nicht in die Images ein, und binden Sie sie nur über die Engine für die Containerorchestrierung ein.
  • Schützen Sie die Images in einer Azure Container Registry-Instanz, die die Überprüfung von Sicherheitsrisiken und RBAC unterstützt.
  • Isolieren Sie Container, und vermeiden Sie die Ausführung von Containern im privilegierten Modus, um Angreifer daran zu hindern, ihre Berechtigungen zu erweitern, sollte der Container kompromittiert werden.

Kostenoptimierung

Optimaler Betrieb

  • Clustererstellungs-Assistent. Bietet eine vereinfachte Bereitstellung und Verwaltung mithilfe von Windows Admin Center. Der Clustererstellungs-Assistent in Windows Admin Center bietet eine assistentengesteuerte Schnittstelle, die Sie durch die Erstellung eines Azure Stack HCI-Clusters führt. Der Clustererstellungs-Assistent stellt einen Kompromiss aus Gründen der Vereinfachung gegenüber der Erstellung von Bereitstellungsskripts dar, den Sie zwecks Überwachung und Wiederholbarkeit für mehrere Bereitstellungen mit der Quellcodeverwaltung steuern können. Ebenso vereinfacht Windows Admin Center das Verwalten von Azure Stack HCI-VMs.
  • Azure Arc: Nehmen Sie die Integration in Azure Arc oder in eine Reihe von Azure-Diensten vor, die zusätzliche Verwaltungs-, Wartungs- und Resilienzfunktionen bieten (z. B. Azure Monitor und Log Analytics).
  • GitOps. Verwenden Sie anstelle einer manuellen Konfiguration von Kubertnetes-Komponenten automatisierte Tools zum Anwenden von Konfigurationen auf einen Kubernetes-Cluster, da diese Konfigurationen in ein Quellrepository eingecheckt werden. Dieser Ansatz wird häufig als GitOps bezeichnet, und zu den beliebten GitOps-Lösungen für Kubernetes gehören Flux und Argo CD. In dieser Architektur wird empfohlen, die von Microsoft bereitgestellte GitOps-Erweiterung zu verwenden, die auf Flux basiert.
  • Azure Arc-fähiges Open Service Mesh (OSM). Ein schlankes, erweiterbares, cloudnatives Dienstmesh, mit dem Benutzer die standardmäßigen Einblickfunktionen für sehr dynamische Microserviceumgebungen einheitlich verwalten, schützen und erhalten können.

Effiziente Leistung

  • Verwenden Sie für Azure Stack HCI zertifizierte Hardware, um Betriebszeit und Leistung von Anwendungen zu verbessern, Verwaltung und Betrieb zu vereinfachen und die Gesamtkosten zu senken.
  • Machen Sie sich mit den Grenzwerten für AKS in Azure Stack HCI vertraut. Microsoft unterstützt AKS in Azure Stack-Bereitstellungen mit maximal acht physischen Servern pro Cluster, acht Kubernetes-Clustern und 200 VMs.
  • Die Skalierung von AKS in Azure Stack HCI hängt von der Anzahl der Workerknoten und Zielcluster ab. Um die Hardware für die Workerknoten ordnungsgemäß zu dimensionieren, müssen Sie die Anzahl von Pods, Containern und Workerknoten in einem Zielcluster antizipieren. Sie sollten sicherstellen, dass mindestens 15 % der Azure Stack HCI-Kapazität sowohl für geplante als auch für ungeplante Ausfälle reserviert sind. Nutzen Sie die IT-Ressourcen effizient für die Erfüllung von Systemanforderungen, und halten Sie diese Effizienz aufrecht, wenn sich die Nachfrage ändert und sich Technologien weiterentwickeln. Die allgemeine Regel lautet: Wenn ein Knoten während der Wartung oder bei einem ungeplanten Ausfall offline geschaltet wird, reicht die Kapazität der übrigen Knoten aus, um die erhöhte Last zu bewältigen.
  • Erwägen Sie, die Größe der Lastenausgleichs-VM zu erhöhen, wenn Sie in jedem Zielcluster viele Kubernetes-Dienste ausführen.
  • AKS in Azure Stack HCI verteilt die Workerknoten für jeden Knotenpool in einem Zielcluster mithilfe der Azure Stack HCI-Platzierungslogik.
  • Planen Sie IP-Adressreservierungen zum Konfigurieren von AKS-Hosts, Workloadclustern, Cluster-API-Servern, Kubernetes Service-Instanzen und Anwendungsdiensten. Microsoft empfiehlt, mindestens 256 IP-Adressen für die Bereitstellung von AKS in Azure Stack HCI zu reservieren.
  • Erwägen Sie die Implementierung eines Eingangsdatencontrollers, der auf Layer 7 funktioniert und intelligentere Regeln zum Verteilen von Anwendungsdatenverkehr verwendet.
  • Implementieren Sie für die Zuordnung von Bandbreite für Datenverkehr eine Optimierung der Netzwerkleistung.
  • Verwenden Sie für umfangreiche Workloads die GPU-Beschleunigung (Graphics Processing Unit).

Beitragende

Dieser Artikel wird von Microsoft gepflegt. Er wurde ursprünglich von folgenden Mitwirkenden geschrieben:

Hauptautoren:

Andere Mitwirkende:

Nächste Schritte