Bearbeiten

Freigeben über


Verwenden von API-Gateways in Microservices

Azure Application Gateway
Azure API Management

In einer Microservices-Architektur interagiert ein Client ggf. mit mehreren Front-End-Diensten. Woher weiß ein Client aber, welche Endpunkte er aufrufen soll? Was passiert, wenn neue Dienste eingeführt oder vorhandene Dienste umgestaltet werden? Wie behandeln Dienste SSL-Beendigung, Authentifizierung und andere Anliegen? Hier kann ein API-Gateway hilfreich sein.

Diagram of an API gateway

Laden Sie eine Visio-Datei dieser Architektur herunter.

Was ist ein API-Gateway?

Ein API-Gateway befindet sich zwischen Clients und Diensten. Es fungiert als Reverseproxy und leitet Anforderungen von Clients an Dienste weiter. Darüber hinaus kann es verschiedene übergreifende Aufgaben wie Authentifizierung, SSL-Beendigung und Ratenbegrenzung übernehmen. Wenn Sie kein Gateway bereitstellen, müssen Clients Anforderungen direkt an Front-End-Dienste senden. Der direkte Kontakt zwischen Diensten und Clients kann jedoch problematisch sein:

  • Er kann zu komplexem Clientcode führen. Der Client muss den Überblick über mehrere Endpunkte behalten und über eine robuste Fehlerbehandlung verfügen.
  • Er führt zu einer Kopplung zwischen Client und Back-End. Der Client benötigt Informationen zur Aufspaltung der einzelnen Dienste. Dies erschwert die Verwaltung des Clients sowie die Umgestaltung von Diensten.
  • Für einen einzelnen Vorgang müssen möglicherweise mehrere Dienste aufgerufen werden. Dies kann mehrere Netzwerkroundtrips zwischen Client und Server erforderlich machen und die Wartezeit erheblich erhöhen.
  • Jeder öffentliche Dienst muss Aspekte wie Authentifizierung, SSL und Clientratenbegrenzung behandeln.
  • Dienste müssen ein clientfreundliches Protokoll wie HTTP oder WebSocket verfügbar machen. Dies schränkt die in Frage kommenden Kommunikationsprotokolle ein.
  • Dienste mit öffentlichen Endpunkten stellen ein potenzielles Angriffsziel dar und müssen gehärtet werden.

Ein Gateway trägt zur Bewältigung dieser Herausforderungen bei, indem es Clients von Diensten entkoppelt. Gateways können eine ganze Reihe unterschiedlicher Funktionen übernehmen, die Sie möglicherweise gar nicht alle benötigen. Die Funktionen lassen sich in folgende Entwurfsmuster unterteilen:

Gatewayrouting: Verwenden Sie das Gateway als Reverseproxy, um Anforderungen mittels Layer-7-Routing an Back-End-Dienste weiterzuleiten. Das Gateway stellt einen einzelnen Endpunkt für Clients bereit und trägt zur Entkopplung von Clients und Diensten bei.

Gatewayaggregation: Aggregieren Sie mehrere Anforderungen mithilfe des Gateways in einer einzelnen Anforderung. Dieses Muster kommt zur Anwendung, wenn für einen einzelnen Vorgang mehrere Back-End-Dienste aufgerufen werden müssen. Der Client sendet eine einzelne Anforderung an das Gateway. Das Gateway sendet Anforderungen an die verschiedenen Back-End-Systeme, aggregiert die Ergebnisse und gibt sie an den Client zurück. Dadurch verringert sich die Kommunikation zwischen Client Back-End.

Gatewayabladung: Nutzen Sie das Gateway, um Funktionen einzelner Dienste (insbesondere übergreifende Aspekte) an das Gateway auszulagern. Es kann hilfreich sein, diese Funktionen an einem zentralen Ort zusammenzufassen, anstatt ihre Implementierung den einzelnen Diensten zu überlassen. Das gilt insbesondere für Features wie Authentifizierung und Autorisierung, deren korrekte Implementierung spezielles Fachwissen voraussetzt.

Folgende Funktionen können beispielsweise an ein Gateway ausgelagert werden:

  • SSL-Terminierung
  • Authentifizierung
  • IP-Positivliste oder -Sperrliste
  • Clientratenbegrenzung (Drosselung)
  • Protokollierung und Überwachung
  • Zwischenspeicherung von Antworten
  • Web Application Firewall
  • GZIP-Komprimierung
  • Wartung statischer Inhalte

Wählen einer Gatewaytechnologie

In diesem Abschnitt finden Sie einige Optionen für die Implementierung eines API-Gateways in Ihrer Anwendung.

  • Reverseproxyserver: Nginx und HAProxy sind gängige Reverseproxyserver, die Features wie Lastenausgleich, SSL und Layer-7-Routing unterstützen. Beides sind kostenlose Open-Source-Produkte, die auch als kostenpflichtige Editionen mit zusätzlichen Features und Unterstützungsoptionen erhältlich sind. Nginx und HAProxy sind ausgereifte, leistungsfähige Produkte mit großem Funktionsumfang. Sie können mit Drittanbietermodulen oder benutzerdefinierten Lua-Skripts erweitert werden. Nginx unterstützt auch ein JavaScript-basiertes Skripterstellungsmodul namens NGINX JavaScript. Dieses Modul wird offiziell als nginScript bezeichnet.

  • Dienstnetz-Eingangscontroller: Ziehen Sie bei Verwendung eines Dienstnetzes wie Linkerd oder Istio die Features in Erwägung, die vom Eingangsdatencontroller für das Dienstnetz bereitgestellt werden. Der Istio-Eingangscontroller unterstützt beispielsweise Layer-7-Routing, HTTP-Umleitungen, Wiederholungen und andere Features.

  • Azure Application Gateway: Application Gateway ist ein verwalteter Lastenausgleichsdienst, der für Layer-7-Routing und SSL-Beendigung geeignet ist. Darüber hinaus verfügt er über eine Web Application Firewall (WAF).

  • Azure Front Door ist das moderne Cloud-CDN (Content Delivery Network) von Microsoft, das schnellen, zuverlässigen und sicheren Zugriff zwischen Ihren Benutzer*innen sowie den statischen und dynamischen Webinhalten Ihrer Anwendungen auf der ganzen Welt ermöglicht. Azure Front Door stellt Ihre Inhalte mithilfe des globalen Edgenetzwerks von Microsoft bereit – mit Hunderten von globalen und lokalen POPs (Point of Presence) auf der ganzen Welt, die sich sowohl in der Nähe Ihrer Unternehmensbenutzer als auch Ihrer Endbenutzer befinden.

  • Azure API Management: API Management ist eine sofort einsatzbereite Lösung zum Veröffentlichen von APIs für externe und interne Kunden. Sie bietet hilfreiche Features für die Verwaltung einer öffentlichen API, z. B. Ratenbeschränkung, IP-Beschränkungen und Authentifizierung mit Microsoft Entra ID oder anderen Identitätsanbietern. Da API Management über keinen Lastenausgleich verfügt, sollte die Lösung mit einem Lastenausgleich wie Application Gateway oder einem Reverseproxy kombiniert werden. Informationen zur Verwendung von API Management mit Application Gateway finden Sie unter Integrieren von API Management in ein internes VNet mit Application Gateway.

Berücksichtigen Sie bei der Wahl einer Gatewaytechnologie Folgendes:

Features: Die oben aufgeführten Optionen unterstützen alle Layer-7-Routing. Die Unterstützung anderer Features variiert. Je nach benötigten Features können Sie mehrere Gateways bereitstellen.

Bereitstellung. Azure Application Gateway und API Management sind verwaltete Dienste. Nginx und HAProxy werden in der Regel in Containern innerhalb des Clusters ausgeführt, können aber auch auf dedizierten virtuellen Computern außerhalb des Clusters bereitgestellt werden. Dadurch wird das Gateway vom Rest der Workload isoliert, verursacht aber auch einen höheren Verwaltungsaufwand.

Verwaltung. Wenn Dienste aktualisiert oder neue Dienste hinzugefügt werden, müssen ggf. die Gatewayroutingregeln aktualisiert werden. Überlegen Sie sich, wie dieser Prozess gehandhabt werden soll. Ähnliche Überlegungen müssen für den Umgang mit SSL-Zertifikaten, IP-Positivlisten und anderen Konfigurationsaspekten angestellt werden.

Bereitstellen von Nginx oder HAProxy für Kubernetes

Sie können Nginx oder HAProxy für Kubernetes als ReplicaSet oder DaemonSet bereitstellen, das das Nginx- oder HAProxy-Containerimage angibt. Speichern Sie die Konfigurationsdatei für den Proxy mithilfe eines ConfigMap-Elements, und binden Sie dieses als Volume ein. Erstellen Sie einen LoadBalancer-Dienst, um das Gateway über einen Azure Load Balancer verfügbar zu machen.

Alternativ können Sie auch einen Eingangscontroller erstellen. Ein Eingangscontroller ist eine Kubernetes-Ressource, die einen Lastenausgleich oder Reverseproxyserver bereitstellt. Hierfür stehen mehrere Implementierungen (unter anderem Nginx und HAProxy) zur Verfügung. Eine separate Ressource namens „Ingress“ (Eingang) definiert die Einstellungen für den Eingangscontroller (beispielsweise Routingregeln und TLS-Zertifikate). Dadurch müssen Sie keine komplexen spezifischen Konfigurationsdateien für eine bestimmte Proxyservertechnologie verwalten.

Das Gateway ist ein potenzieller Engpass oder Single Point of Failure des Systems. Stellen Sie daher immer mindestens zwei Replikate bereit, um eine hohe Verfügbarkeit zu gewährleisten. Abhängig von der Last müssen die Replikate ggf. weiter aufskaliert werden.

Unter Umständen empfiehlt es sich auch, das Gateway auf einer dedizierten Gruppe von Knoten im Cluster auszuführen. Dieser Ansatz bietet folgende Vorteile:

  • Isolation: Sämtlicher eingehender Datenverkehr geht an eine feste Gruppe von Knoten, die von Back-End-Diensten isoliert werden können.

  • Stabile Konfiguration: Im Falle einer falschen Gatewaykonfiguration ist möglicherweise die gesamte Anwendung nicht verfügbar.

  • Leistung. Aus Leistungsgründen empfiehlt sich unter Umständen die Verwendung einer bestimmten VM-Konfiguration für das Gateway.

Nächste Schritte

In den vorherigen Artikeln wurden die Schnittstellen zwischen Microservices oder zwischen Microservices und Clientanwendungen behandelt. Von diesen Schnittstellen werden die einzelnen Dienste entwurfsbedingt als undurchsichtige Box behandelt. Microservices dürfen insbesondere niemals Implementierungsdetails offenlegen, die Rückschlüsse auf die Vorgehensweise bei der Datenverwaltung zulassen. Dies hat Auswirkungen auf die Datenintegrität und -konsistenz, wie im nächsten Artikel erläutert.

Data considerations for microservices (Überlegungen zu Daten für Microservices)