Bereitstellen von Big Data-Cluster für SQL Server in Kubernetes
Gilt für: SQL Server 2019 (15.x)
Wichtig
Das Microsoft SQL Server 2019-Big Data-Cluster-Add-On wird eingestellt. Der Support für SQL Server 2019-Big Data-Clusters endet am 28. Februar 2025. Alle vorhandenen Benutzer*innen von SQL Server 2019 mit Software Assurance werden auf der Plattform vollständig unterstützt, und die Software wird bis zu diesem Zeitpunkt weiterhin über kumulative SQL Server-Updates verwaltet. Weitere Informationen finden Sie im Ankündigungsblogbeitrag und unter Big Data-Optionen auf der Microsoft SQL Server-Plattform.
Big Data-Cluster für SQL Server werden als Docker-Container auf einem Kubernetes-Cluster bereitgestellt. Im Folgenden finden Sie eine Übersicht über die Einrichtungs-und Konfigurationsschritte:
- Einrichten eines Kubernetes-Clusters auf einer einzelnen VM, auf einem VM-Cluster oder in Azure Kubernetes Service (AKS), Red Hat OpenShift oder Azure Red Hat OpenShift (ARO)
- Installieren des Clusterkonfigurationstools Azure Data CLI (
azdata
) auf dem Clientcomputer - Bereitstellen eines Big-Data-Clusters für SQL Server auf einem Kubernetes-Cluster
Getestete Konfigurationen
Eine vollständige Liste der verschiedenen Kubernetes-Plattformen, auf denen die SQL Server-Plattform „Big Data-Cluster“ bereitgestellt werden kann, finden Sie unter Getestete Konfigurationen.
SQL Server-Editionen
Edition | Notizen |
---|---|
Enterprise Standard Entwickler |
Die Edition von Big Data-Clustern wird von der Edition der SQL Server-Masterinstanz bestimmt. Zum Zeitpunkt der Bereitstellung wird standardmäßig die Developer Edition bereitgestellt. Sie können die Edition nach der Bereitstellung ändern. Informationen dazu finden Sie unter Konfigurieren der SQL Server-Masterinstanz. |
Kubernetes
Einrichten des Kubernetes-Clusters
Wenn Sie bereits über einen Kubernetes-Cluster verfügen, der die oben genannten Anforderungen erfüllt, können Sie direkt mit dem Bereitstellungsschritt fortfahren. In diesem Abschnitt werden grundlegende Kubernetes-Kenntnisse vorausgesetzt. Ausführliche Informationen finden Sie in der Kubernetes-Dokumentation.
Sie können Kubernetes auf eine der folgenden Arten bereitstellen:
Bereitstellung von Kubernetes auf bzw. in: | BESCHREIBUNG | Link |
---|---|---|
Azure Kubernetes Service (AKS) | Ein Managed Kubernetes-Containerdienst in Azure. | Anweisungen |
Einzelne oder mehrere Computer (kubeadm ) |
Ein Kubernetes-Cluster, der auf physischen oder virtuellen Computern mithilfe von kubeadm bereitgestellt wird. |
Anweisungen |
Azure Red Hat OpenShift | Ein verwaltetes Angebot von OpenShift, das in Azure ausgeführt wird | Anweisungen |
Red Hat OpenShift | Eine Kubernetes-Anwendungsplattform auf Unternehmensniveau mit Hybrid Cloud | Anweisungen |
Tipp
Sie können auch ein Skript erstellen, mit dem die Bereitstellung von AKS und eines Big-Data-Clusters in einem Schritt ausgeführt wird. Weitere Informationen finden Sie im Artikel zur Verwendung eines Python-Skripts oder im Artikel zur Nutzung eines Notebooks in Azure Data Studio.
Überprüfen der Kubernetes-Konfiguration
Führen Sie den Befehl kubectl
aus, um sich die Clusterkonfiguration anzeigen zu lassen. Stellen Sie sicher, dass kubectl auf den richtigen Clusterkontext verweist.
kubectl config view
Wichtig
Stellen Sie sicher, dass bei der Bereitstellung in einem Kubernetes-Cluster mit mehreren Knoten, den Sie mithilfe von kubeadm
gestartet haben, die Uhren auf allen für die Bereitstellung verwendeten Kubernetes-Knoten synchronisiert werden. Der Big Data-Cluster verfügt über integrierte Integritätseigenschaften für verschiedene zeitempfindliche Dienste. Zudem können zeitliche Abweichungen zu einer falschen Statusangabe führen.
Nachdem Sie den Kubernetes-Cluster konfiguriert haben, können Sie mit der Bereitstellung eines neuen Big-Data-Clusters für SQL Server fortfahren. Wenn Sie ein Upgrade von einem früheren Release durchführen, finden Sie weitere Informationen unter Durchführen eines Upgrades für Big Data-Cluster für SQL Server.
Sicherstellung von konfiguriertem Speicher
Für die meisten Big Data-Cluster-Bereitstellungen ist persistenter Speicher erforderlich. Derzeit müssen Sie sicherstellen, dass Sie vor der Bereitstellung über einen Plan für die Bereitstellung des persistenten Speichers im Kubernetes-Cluster verfügen.
- Bei einer Bereitstellung in AKS müssen Sie keinen Speicher einrichten. AKS bietet integrierte Speicherklassen mit dynamischer Bereitstellung. Sie können die Speicherklasse (
default
odermanaged-premium
) in der Bereitstellungskonfigurationsdatei anpassen. Für die integrierten Profile wird einedefault
-Speicherklasse verwendet. - Wenn Sie eine Bereitstellung auf einem Kubernetes-Cluster durchführen, der mit
kubeadm
bereitgestellt wurde, müssen Sie sicherstellen, dass ausreichend Speicher für einen Cluster des gewünschten Umfangs verfügbar und konfiguriert ist. Wenn Sie die Nutzung Ihres Speichers konfigurieren möchten, sollten Sie das tun, bevor Sie fortfahren. Weitere Informationen finden Sie unter Datenpersistenz mit SQL Server-Big Data-Clustern in Kubernetes.
Installieren von Big Data-Tools für SQL Server 2019
Bevor Sie einen Big-Data-Cluster für SQL Server 2019 bereitstellen können, müssen Sie zuerst die folgenden Big-Data-Tools installieren:
- Azure Data CLI (
azdata
) kubectl
- Azure Data Studio
- Datenvirtualisierungserweiterung für Azure Data Studio
- Die Azure CLI, wenn die Bereitstellung in AKS durchgeführt wird
Übersicht über die Bereitstellung
Die meisten Einstellungen für Big-Data-Cluster werden in einer JSON-Konfigurationsdatei für Bereitstellungen definiert. Sie können ein Standardbereitstellungsprofil für AKS und Kubernetes-Cluster, die mit kubeadm
erstellt wurden, verwenden. Alternativ können Sie auch eine eigene Konfigurationsdatei für Bereitstellungen während der Einrichtung anpassen. Aus Sicherheitsgründen werden Authentifizierungseinstellungen mithilfe von Umgebungsvariablen übermittelt.
In den folgenden Abschnitten finden Sie weitere Informationen darüber, wie Sie Bereitstellungen von Big-Data-Clustern konfigurieren. Außerdem lernen Sie Beispiele für übliche Anpassungen kennen. Sie können jederzeit die benutzerdefinierte Konfigurationsdatei für Bereitstellungen mit einem Editor wie beispielsweise VS Code bearbeiten.
Standardkonfigurationen
Die Bereitstellungsoptionen für Big-Data-Cluster werden in JSON-Konfigurationsdateien definiert. Sie können mit der Anpassung der Clusterbereitstellung über die integrierten Bereitstellungsprofile beginnen, die in Azure Data CLI (azdata
)verfügbar sind.
Hinweis
Die Containerimages, die für die Bereitstellung im Big Data-Cluster erforderlich sind, werden im mssql/bdc
-Repository auf Microsoft Container Registry (mcr.microsoft.com
) gehostet. Diese Einstellungen sind standardmäßig bereits in der control.json
-Konfigurationsdatei in allen in Azure Data CLI (azdata
) enthaltenen Bereitstellungsprofile vorhanden. Außerdem ist das Containerimagetag für jedes Release ebenfalls bereits in der gleichen Konfigurationsdatei voreingestellt. Wenn Sie die Containerimages in Ihrer eigenen privaten Containerregistrierung abrufen und/oder die Einstellungen für die Containerregistrierung oder das Containerrepository ändern müssen, befolgen Sie die Anweisungen im Artikel Offlineinstallation.
Führen Sie diesen Befehl aus, um die verfügbaren Vorlagen zu finden:
azdata bdc config list -o table
Die folgenden Vorlagen sind ab SQL Server 2019 CU5 verfügbar:
Bereitstellungsprofil | Kubernetes-Umgebung |
---|---|
aks-dev-test |
Wird für die Bereitstellung von Big Data-Clustern für SQL Server unter Azure Kubernetes Service (AKS) verwendet. |
aks-dev-test-ha |
Wird für die Bereitstellung von Big Data-Clustern für SQL Server unter Azure Kubernetes Service (AKS) verwendet. Unternehmenskritische Dienste wie SQL Server Master und HDFS-Namenknoten sind für Hochverfügbarkeit konfiguriert. |
aro-dev-test |
Wird für die Bereitstellung von SQL Server-Big Data-Clustern in Azure Red Hat OpenShift für Entwicklungs- und Testzwecke verwendet. Es wurde in SQL Server 2019 CU 5 eingeführt. |
aro-dev-test-ha |
Wird für die Bereitstellung von SQL Server-Big Data-Clustern mit Hochverfügbarkeit in einem Red Hat OpenShift-Cluster für Entwicklungs- und Testzwecke verwendet. Es wurde in SQL Server 2019 CU 5 eingeführt. |
kubeadm-dev-test |
Wird für die Bereitstellung von Big Data-Clustern für SQL Server auf einem mit kubeadm erstellten Kubernetes-Cluster verwendet, unter Verwendung von einem oder mehreren physischen oder virtuellen Computern. |
kubeadm-prod |
Wird für die Bereitstellung von Big Data-Clustern für SQL Server auf einem mit kubeadm erstellten Kubernetes-Cluster verwendet, unter Verwendung von einem oder mehreren physischen oder virtuellen Computern. Diese Vorlage kann für die Integration von Big Data-Clusterdiensten mit Active Directory verwendet werden. Unternehmenskritische Dienste wie die SQL Server-Masterinstanz und HDFS-Namenknoten werden in einer Hochverfügbarkeitskonfiguration bereitgestellt. |
openshift-dev-test |
Wird für die Bereitstellung von SQL Server-Big Data-Clustern in einem Red Hat OpenShift-Cluster für Entwicklungs- und Testzwecke verwendet. Es wurde in SQL Server 2019 CU 5 eingeführt. |
openshift-prod |
Wird für die Bereitstellung von SQL Server-Big Data-Clustern mit Hochverfügbarkeit in einem Red Hat OpenShift-Cluster verwendet. Es wurde in SQL Server 2019 CU 5 eingeführt. |
Sie können einen Big Data-Cluster bereitstellen, indem Sie azdata bdc create
ausführen. Dadurch werden Sie aufgefordert, eine der Standardkonfigurationen auszuwählen. Anschließend werden Sie durch die Bereitstellungsschritte geführt.
Wenn Sie zum ersten Mal Azure Data CLI (azdata
) ausführen, müssen Sie auch --accept-eula=yes
angeben, um die Lizenzbedingungen zu akzeptieren.
azdata bdc create --accept-eula=yes
In diesem Szenario werden Sie aufgefordert, Informationen wie Kennwörter anzugeben, die nicht Teil der Standardkonfiguration sind.
Wichtig
Der Standardname für den Big Data-Cluster ist mssql-cluster
. Sie benötigen diesen, um kubectl
-Befehle ausführen zu können, mit denen der Kubernetes-Namespace mithilfe des -n
-Parameters angeben wird.
Benutzerdefinierte Konfigurationen
Es ist auch möglich, die Bereitstellung an die Workloads anzupassen, die Sie ausführen möchten. Die Größe (Anzahl von Replikaten) und Speichereinstellungen für Big Data-Cluster-Dienste können nach der Bereitstellung nicht mehr geändert werden. Daher müssen Sie die Bereitstellungskonfiguration sorgfältig planen, um Kapazitätsprobleme zu vermeiden. Führen Sie die folgenden Schritte aus, um die Bereitstellung anzupassen:
Beginnen Sie mit einem Standardbereitstellungsprofil, das für Ihre Kubernetes-Umgebung geeignet ist. Sie können sich alle Profile mit dem Befehl
azdata bdc config list
anzeigen lassen:azdata bdc config list
Erstellen Sie eine Kopie des Bereitstellungsprofils mit dem Befehl
azdata bdc config init
, um die Bereitstellung anzupassen. Mit dem folgenden Befehl wird beispielsweise eine Kopie deraks-dev-test
-Konfigurationsdateien für Bereitstellungen in einem Zielverzeichnis namenscustom
erstellt:azdata bdc config init --source aks-dev-test --target custom
Tipp
Mit
--target
wird ein Verzeichnis angegeben, das in Abhängigkeit des--source
-Parameters die Konfigurationsdateienbdc.json
undcontrol.json
enthält.Sie können die Einstellungen in Ihrem Bereitstellungsprofil anpassen, indem Sie die Konfigurationsdatei für Bereitstellungen in einem Tool bearbeiten. Dieses muss sich zur Bearbeitung von JSON-Dateien eignen. Für diese Aufgabe können Sie beispielweise VS Code verwenden. Zur skriptbasierten Automatisierung können Sie auch das benutzerdefinierte Bereitstellungsprofil mit dem Befehl
azdata bdc config
bearbeiten. Mit dem folgenden Befehl wird z. B. ein benutzerdefiniertes Bereitstellungsprofil angepasst. Dabei wird der Standardname des bereitgestellten Clusters (mssql-cluster
) intest-cluster
geändert:azdata bdc config replace --config-file custom/bdc.json --json-values "metadata.name=test-cluster"
Tipp
Sie können den Clusternamen auch zum Zeitpunkt der Bereitstellung übergeben, indem Sie den Parameter --name für den Befehl
azdata create bdc
verwenden. Die Befehlsparameter haben Vorrang vor den Werten in den Konfigurationsdateien.Ein nützliches Tool zum Ermitteln von JSON-Pfaden ist JSONPath Online Evaluator.
Sie können darin nicht nur Schlüssel-Wert-Paare, sondern auch Inline-JSON-Werte angeben und JSON-Patchdateien übergeben. Weitere Informationen finden Sie unter Konfigurieren von Bereitstellungseinstellungen für Big Data-Cluster-Ressourcen und -Dienste.
Übergeben Sie dem Befehl
azdata bdc create
die benutzerdefinierte Konfigurationsdatei. Beachten Sie, dass Sie die erforderlichen Umgebungsvariablen festlegen müssen. Andernfalls werden Sie vom Terminal aufgefordert, die entsprechenden Werte einzugeben:azdata bdc create --config-profile custom --accept-eula yes
Warnung
Der Parameter imagePullPolicy
muss in der Datei „control.json“ des Bereitstellungsprofils auf "Always"
festgelegt werden.
Weitere Informationen zur Struktur einer Konfigurationsdatei für Bereitstellungen finden Sie in der zugehörigen Referenzdokumentation. Weitere Konfigurationsbeispiele finden Sie unter Konfigurieren von Bereitstellungseinstellungen für Big Data-Cluster.
Umgebungsvariablen
Die folgenden Umgebungsvariablen werden für Sicherheitseinstellungen verwendet, die nicht in einer Konfigurationsdatei für Bereitstellungen gespeichert werden. Beachten Sie, dass Docker-Einstellungen mit Ausnahme der Anmeldeinformationen in der Konfigurationsdatei festgelegt werden können.
Umgebungsvariable | Anforderung | BESCHREIBUNG |
---|---|---|
AZDATA_USERNAME |
Erforderlich | Der Benutzername für den Big Data-Clusteradministrator für SQL Server. In der SQL Server-Masterinstanz wird eine SysAdmin-Anmeldung mit dem gleichen Namen erstellt. Als bewährte Sicherheitsmaßnahme wird das sa -Konto deaktiviert. Beginnend mit SQL Server 2019 (15.x) CU 5 verwenden alle Endpunkte einschließlich Gateway AZDATA_USERNAME und AZDATA_PASSWORD , wenn Sie einen neuen Cluster mit Standardauthentifizierung bereitstellen. Endpunkte auf Clustern, die ein Upgrade auf CU 5 erhalten, verwenden weiterhin root als Nutzername für die Verbindung mit dem Gatewayendpunkt. Diese Änderung gilt nicht für Bereitstellungen, die die Active Directory-Authentifizierung verwenden. Weitere Informationen finden Sie unter Anmeldeinformationen für den Zugriff auf Dienste über den Gatewayendpunkt in den Versionshinweisen. |
AZDATA_PASSWORD |
Erforderlich | Das Kennwort für die oben erstellten Benutzerkonten. Bei Clustern, die vor SQL Server 2019 CU5 bereitgestellt wurden, wird dasselbe Kennwort für den Benutzer root verwendet, um das Knox Gateway und HDFS zu sichern. |
ACCEPT_EULA |
Erforderlich für die erste Verwendung von Azure Data CLI (azdata ) |
Legen Sie diese Einstellung auf „Ja“ fest. Wenn dieser Wert als Umgebungsvariable festgelegt ist, werden die Lizenzbedingungen für SQL Server und Azure Data CLI (azdata ) akzeptiert. Wenn nicht als Umgebungsvariable festgelegt ist, können Sie --accept-eula=yes angeben, wenn Sie den Befehl Azure Data CLI (azdata ) zum ersten Mal verwenden. |
DOCKER_USERNAME |
Optional | Der Benutzername, mit dem auf Containerimages zugegriffen wird, wenn diese in einem privaten Repository gespeichert sind. Weitere Informationen darüber, wie Sie ein privates Docker-Repository zur Bereitstellung von Big-Data-Clustern nutzen, finden Sie im Artikel Offlinebereitstellungen. |
DOCKER_PASSWORD |
Optional | Das Kennwort, mit dem auf das oben erwähnte private Repository zugegriffen wird. |
Sie müssen diese Umgebungsvariablen festlegen, bevor Sie azdata bdc create
aufrufen. Wenn eine Variable nicht festgelegt ist, werden Sie aufgefordert, diese anzugeben.
Im folgenden Beispiel wird gezeigt, wie Sie die Umgebungsvariablen für Linux (Bash) und Windows (PowerShell) festlegen:
export AZDATA_USERNAME=admin
export AZDATA_PASSWORD=<password>
export ACCEPT_EULA=yes
SET AZDATA_USERNAME=admin
SET AZDATA_PASSWORD=<password>
Hinweis
Bei Clustern, die vor SQL Server 2019 CU5 bereitgestellt wurden, müssen Sie den Benutzer root
für das Knox Gateway mit dem obigen Kennwort verwenden. root
ist der einzige Benutzer, der in dieser Standardauthentifizierung (Benutzername/Kennwort) unterstützt wird.
Beginnend mit SQL Server 2019 (15.x) CU 5 verwenden alle Endpunkte einschließlich Gateway AZDATA_USERNAME
und AZDATA_PASSWORD
, wenn Sie einen neuen Cluster mit Standardauthentifizierung bereitstellen. Endpunkte auf Clustern, die ein Upgrade auf CU 5 erhalten, verwenden weiterhin root
als Nutzername für die Verbindung mit dem Gatewayendpunkt. Diese Änderung gilt nicht für Bereitstellungen, die die Active Directory-Authentifizierung verwenden. Weitere Informationen finden Sie unter Anmeldeinformationen für den Zugriff auf Dienste über den Gatewayendpunkt in den Versionshinweisen.
Verwenden Sie dieselben Werte wie die Umgebungsvariablen AZDATA_USERNAME und AZDATA_PASSWORD, um über die Standardauthentifizierung eine Verbindung mit SQL Server herzustellen.
Nachdem Sie die Umgebungsvariablen festgelegt haben, müssen Sie azdata bdc create
ausführen, um die Bereitstellung auszulösen. Im folgenden Beispiel wird das oben erstellte Clusterkonfigurationsprofil verwendet:
azdata bdc create --config-profile custom --accept-eula yes
Beachten Sie die folgenden Richtlinien:
- Setzen Sie das Kennwort immer in doppelte Anführungszeichen, wenn es Sonderzeichen enthält. Sie können für
AZDATA_PASSWORD
eine beliebige Zeichenfolge festlegen. Das Kennwort muss jedoch ausreichend komplex sein und darf nicht die Zeichen!
,&
oder'
enthalten. Doppelte Anführungszeichen können nur in Bash-Befehlen als Trennzeichen verwendet werden. - Die
AZDATA_USERNAME
-Anmeldung ist ein Systemadministrator auf der SQL Server-Masterinstanz und wird bei der Einrichtung erstellt. Nach dem Erstellen Ihres SQL Server-Containers wird die von Ihnen festgelegteAZDATA_PASSWORD
Umgebungsvariable sichtbar, wenn Sie sie in dem Container ausführenecho $AZDATA_PASSWORD
. Es wird empfohlen, dass Sie das Kennwort aus Sicherheitsgründen ändern.
Unbeaufsichtigtes Installieren
Bei einer unbeaufsichtigten Bereitstellung müssen Sie alle erforderlichen Umgebungsvariablen festlegen, eine Konfigurationsdatei verwenden und den Befehl azdata bdc create
mit dem --accept-eula yes
-Parameter aufrufen. Die Beispiele im vorherigen Abschnitt veranschaulichen die Syntax für eine unbeaufsichtigte Installation.
Überwachen der Bereitstellung
Während des Clusterbootstraps wird der Bereitstellungsstatus im Befehlsfenster des Clients zurückgegeben. Im Verlauf des Bereitstellungsprozesses sollten mehrere Wartemeldungen für den Controllerpod angezeigt werden:
Waiting for cluster controller to start.
Nach 15 bis 30 Minuten sollten Sie benachrichtigt werden, dass der Controllerpod ausgeführt wird:
Cluster controller endpoint is available at 11.111.111.11:30080.
Cluster control plane is ready.
Wichtig
Die vollständige Bereitstellung kann einige Zeit in Anspruch nehmen, da die Containerimages für die Komponenten des Big-Data-Clusters heruntergeladen werden müssen. Der Vorgang sollte jedoch nicht mehrere Stunden dauern. Wenn Probleme bei der Bereitstellung auftreten, finden Sie weitere Informationen unter Überwachung und Problembehandlung: Big Data-Cluster für SQL Server.
Nachdem die Bereitstellung erfolgreich abgeschlossen wurde, wird die folgende Meldung ausgegeben:
Cluster deployed successfully.
Tipp
Der Standardname für den bereitgestellten Big-Data-Cluster ist mssql-cluster
, falls er nicht durch eine benutzerdefinierte Konfiguration geändert wird.
Abrufen von Endpunkten
Nachdem das Bereitstellungsskript erfolgreich ausgeführt wurde, können Sie die Adressen der externen Endpunkte für den Big Data-Cluster mithilfe der folgenden Schritte abrufen.
Suchen Sie nach der Bereitstellung die IP-Adresse des Controllerendpunkts in der Standardausgabe. Alternativ können Sie sich auch die Ausgabe des folgenden
kubectl
-Befehls ansehen und die IP-Adresse unter „EXTERNAL-IP“ ablesen:kubectl get svc controller-svc-external -n <your-big-data-cluster-name>
Tipp
Wenn Sie den Standardnamen während der Bereitstellung nicht geändert haben, verwenden Sie im vorherigen Befehl
-n mssql-cluster
.mssql-cluster
ist der Standardname für den Big Data-Cluster.Melden Sie sich beim Big-Data-Cluster mit azdata login an. Legen Sie den Parameter
--endpoint
auf die externe IP-Adresse des Controllerendpunkts fest.azdata login --endpoint https://<ip-address-of-controller-svc-external>:30080 --username <user-name>
Geben Sie den Benutzernamen und das Kennwort an (AZDATA_USERNAME und AZDATA_PASSWORD), die Sie während der Bereitstellung für den Big Data-Clusteradministrator konfiguriert haben.
Tipp
Wenn Sie der Kubernetes-Clusteradministrator sind und Zugriff auf die Clusterkonfigurationsdatei (Kube-Konfigurationsdatei) haben, können Sie den aktuellen Kontext so konfigurieren, dass er auf den Kubernetes-Zielcluster verweist. In diesem Fall können Sie sich mit
azdata login -n <namespaceName>
anmelden, wobeinamespace
der Big Data-Clustername ist. Sie werden zur Eingabe von Anmeldeinformationen aufgefordert, wenn diese im Anmeldebefehl nicht angegeben sind.Führen Sie azdata bdc endpoint list aus, um eine Liste mit Beschreibungen jedes Endpunkts sowie deren entsprechende IP-Adressen und Portwerte abzurufen.
azdata bdc endpoint list -o table
Die folgende Liste zeigt eine Beispielausgabe dieses Befehls an:
Description Endpoint Ip Name Port Protocol ------------------------------------------------------ --------------------------------------------------------- -------------- ----------------- ------ ---------- Gateway to access HDFS files, Spark https://11.111.111.111:30443 11.111.111.111 gateway 30443 https Spark Jobs Management and Monitoring Dashboard https://11.111.111.111:30443/gateway/default/sparkhistory 11.111.111.111 spark-history 30443 https Spark Diagnostics and Monitoring Dashboard https://11.111.111.111:30443/gateway/default/yarn 11.111.111.111 yarn-ui 30443 https Application Proxy https://11.111.111.111:30778 11.111.111.111 app-proxy 30778 https Management Proxy https://11.111.111.111:30777 11.111.111.111 mgmtproxy 30777 https Log Search Dashboard https://11.111.111.111:30777/kibana 11.111.111.111 logsui 30777 https Metrics Dashboard https://11.111.111.111:30777/grafana 11.111.111.111 metricsui 30777 https Cluster Management Service https://11.111.111.111:30080 11.111.111.111 controller 30080 https SQL Server Master Instance Front-End 11.111.111.111,31433 11.111.111.111 sql-server-master 31433 tcp HDFS File System Proxy https://11.111.111.111:30443/gateway/default/webhdfs/v1 11.111.111.111 webhdfs 30443 https Proxy for running Spark statements, jobs, applications https://11.111.111.111:30443/gateway/default/livy/v1 11.111.111.111 livy 30443 https
Sie können auch alle Dienstendpunkte, die für den Cluster bereitgestellt wurden, durch die Ausführung des folgenden kubectl
-Befehls abrufen:
kubectl get svc -n <your-big-data-cluster-name>
Überprüfen des Clusterstatus
Nach der Bereitstellung können Sie den Status des Clusters mit dem Befehl azdata bdc status show überprüfen.
azdata bdc status show
Tipp
Zum Ausführen der Statusbefehle müssen Sie sich zunächst mit dem Befehl azdata login
anmelden, der im vorangegangenen Abschnitt zu Endpunkten gezeigt wurde.
Im Folgenden wird eine Beispielausgabe dieses Befehls angezeigt:
Bdc: ready Health Status: healthy
===========================================================================================================================================================================================================================================
Services: ready Health Status: healthy
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Servicename State Healthstatus Details
sql ready healthy -
hdfs ready healthy -
spark ready healthy -
control ready healthy -
gateway ready healthy -
app ready healthy -
Sql Services: ready Health Status: healthy
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Resourcename State Healthstatus Details
master ready healthy StatefulSet master is healthy
compute-0 ready healthy StatefulSet compute-0 is healthy
data-0 ready healthy StatefulSet data-0 is healthy
storage-0 ready healthy StatefulSet storage-0 is healthy
Hdfs Services: ready Health Status: healthy
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Resourcename State Healthstatus Details
nmnode-0 ready healthy StatefulSet nmnode-0 is healthy
storage-0 ready healthy StatefulSet storage-0 is healthy
sparkhead ready healthy StatefulSet sparkhead is healthy
Spark Services: ready Health Status: healthy
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Resourcename State Healthstatus Details
sparkhead ready healthy StatefulSet sparkhead is healthy
storage-0 ready healthy StatefulSet storage-0 is healthy
Control Services: ready Health Status: healthy
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Resourcename State Healthstatus Details
controldb ready healthy -
control ready healthy -
metricsdc ready healthy DaemonSet metricsdc is healthy
metricsui ready healthy ReplicaSet metricsui is healthy
metricsdb ready healthy StatefulSet metricsdb is healthy
logsui ready healthy ReplicaSet logsui is healthy
logsdb ready healthy StatefulSet logsdb is healthy
mgmtproxy ready healthy ReplicaSet mgmtproxy is healthy
Gateway Services: ready Health Status: healthy
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Resourcename State Healthstatus Details
gateway ready healthy StatefulSet gateway is healthy
App Services: ready Health Status: healthy
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Resourcename State Healthstatus Details
appproxy ready healthy ReplicaSet appproxy is healthy
Mit den folgenden Befehlen können Sie sich zusätzliche Statusinformationen anzeigen lassen:
- azdata bdc control status show gibt den Integritätsstatus für alle Komponenten zurück, die dem Steuerungsverwaltungsdienst zugeordnet sind.
azdata bdc control status show
Beispielausgabe:
Control: ready Health Status: healthy
===========================================================================================================================================================================================================================================
Resources: ready Health Status: healthy
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Resourcename State Healthstatus Details
controldb ready healthy -
control ready healthy -
metricsdc ready healthy DaemonSet metricsdc is healthy
metricsui ready healthy ReplicaSet metricsui is healthy
metricsdb ready healthy StatefulSet metricsdb is healthy
logsui ready healthy ReplicaSet logsui is healthy
logsdb ready healthy StatefulSet logsdb is healthy
mgmtproxy ready healthy ReplicaSet mgmtproxy is healthy
azdata bdc sql status show
gibt den Integritätsstatus für alle Ressourcen mit einem SQL Server-Dienst zurück.
azdata bdc sql status show
Beispielausgabe:
Sql: ready Health Status: healthy
===========================================================================================================================================================================================================================================
Resources: ready Health Status: healthy
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Resourcename State Healthstatus Details
master ready healthy StatefulSet master is healthy
compute-0 ready healthy StatefulSet compute-0 is healthy
data-0 ready healthy StatefulSet data-0 is healthy
storage-0 ready healthy StatefulSet storage-0 is healthy
Wichtig
Wenn Sie den --all
-Paramenter verwenden, enthalten die Ausgaben dieser Befehle URLs zu Kibana-und Grafana-Dashboards. Dort ist eine ausführlichere Analyse möglich.
Zusätzlich zu Azure Data CLI (azdata
) können Sie auch Azure Data Studio verwenden, um Endpunkt- und Statusinformationen zu ermitteln. Weitere Informationen darüber, wie Sie mit Azure Data CLI (azdata
) und Azure Data Studio den Clusterstatus abrufen können, finden Sie unter Anzeigen des Status eines Big Data-Clusters.
Herstellen einer Verbindung mit dem Cluster
Weitere Informationen darüber, wie Sie eine Verbindung mit dem Big-Data-Cluster herstellen, finden Sie unter Herstellen einer Verbindung mit einem Big-Data-Cluster für SQL Server über Azure Data Studio.
Nächste Schritte
In den folgenden Artikeln finden Sie weitere Informationen zur Bereitstellung von Big Data-Clustern für SQL Server: