Share via


azdata bdc

Gilt für: Azure Data CLI (azdata)

Der folgende Artikel enthält Referenzinformationen zu den sql-Befehlen im azdata-Tool. Weitere Informationen zu anderen azdata-Befehlen finden Sie unter azdata.

Befehle

Befehl BESCHREIBUNG
azdata bdc create Erstellen eines Big Data-Clusters.
azdata bdc delete Löschen eines Big Data-Clusters.
azdata bdc upgrade Aktualisieren Sie die Images, die in den Containern im SQL Server-Big Data-Cluster bereitgestellt werden.
azdata bdc config Konfigurationsbefehle
azdata bdc endpoint Endpunktbefehle
azdata bdc debug Befehle für Debuggen
azdata bdc status Big Data-Cluster-Statusbefehle.
azdata bdc control Befehle für den Steuerungsdienst
azdata bdc sql Befehle für den SQL-Dienst
azdata bdc hdfs Befehle für den HDFS-Dienst
azdata bdc spark Befehle für den Spark-Dienst
azdata bdc gateway Befehle für den Gatewaydienst
azdata bdc app Befehle für den App-Dienst
azdata bdc hdfs Das HDFS-Modul stellt Befehle für Zugreifen auf ein HDFS-Dateisystem bereit.
azdata bdc settings Big Data-Cluster-Einstellungsbefehle.
azdata bdc spark Über die Spark-Befehle kann ein Benutzer mit dem Spark-System interagieren, indem Sitzungen, Anweisungen und Batches erstellt und verwaltet werden.
azdata bdc rotate Dieser Befehl rotiert die Kennwörter automatisch generierter AD-Konten in einem Big Data-Cluster. Weitere Informationen finden Sie unter Übersicht über die AD-Kennwortrotation.

azdata bdc create

Erstellt einen SQL Server-Big Data-Cluster – die Kubernetes-Konfiguration und die Umgebungsvariablen AZDATA_USERNAME und AZDATA_PASSWORD müssen auf Ihrem System vorhanden sein.

azdata bdc create [--name -n] 
                  [--config-profile -c]  
                  
[--accept-eula -a]  
                  
[--node-label -l]  
                  
[--force -f]

Beispiele

Geführte Oberfläche zur Big Data-Cluster-Bereitstellung für SQL Server: Sie erhalten Eingabeaufforderungen für die erforderlichen Werte.

azdata bdc create

Big Data-Cluster-Bereitstellung mit Argumenten und einem benutzerdefinierten Konfigurationsprofil, das über azdata bdc config init initialisiert wurde.

azdata bdc create --accept-eula yes --config-profile ./path/to/config/profile

Big Data-Cluster-Bereitstellung mit benutzerdefiniertem Clusternamen und einem Standardkonfigurationsprofil „aks-dev-test“.

azdata bdc create --name <cluster_name> --accept-eula yes --config-profile aks-dev-test

Big Data-Cluster-Bereitstellung mit Argumenten. Es werden keine Eingabeaufforderungen angezeigt, weil das Flag „--force“ verwendet wird.

azdata bdc create --accept-eula yes --config-profile aks-dev-test --force

Optionale Parameter

--name -n

Der Big Data-Clustername, der für kubernetes-Namespaces verwendet wird.

--config-profile -c

Konfigurationsprofil für Big Data-Cluster, das zum Bereitstellen des Clusters verwendet wird: ['kubeadm-dev-test', 'kubeadm-prod', 'openshift-prod', 'aks-dev-test-ha', 'aks-dev-test', 'aro-dev-test', 'openshift-dev-test', 'aro-dev-test-ha']

--accept-eula -a

Stimmen Sie den Lizenzbedingungen zu? [yes/no]. Wenn Sie dieses Argument nicht verwenden möchten, können Sie die Umgebungsvariable ACCEPT_EULA auf „yes“ festlegen. Die Lizenzbedingungen für azdata finden Sie unter https://aka.ms/eula-azdata-en.

--node-label -l

Die Bezeichnung des Big Data-Clusterknotens. Hiermit wird bestimmt, auf welchem Knoten bereitgestellt werden soll.

--force -f

Das Erstellen wird erzwungen. Der Benutzer wird nicht zur Eingabe von Werten aufgefordert, und alle Probleme werden über stderr ausgegeben.

Globale Argumente

--debug

Ausführlichkeit der Protokollierung erhöhen, um alle Debugprotokolle anzuzeigen.

--help -h

Zeigen Sie diese Hilfemeldung an, und schließen Sie sie.

--output -o

Ausgabeformat. Zulässige Werte: json, jsonc, table, tsv. Standardwert: json.

--query -q

JMESPath-Abfragezeichenfolge. Weitere Informationen und Beispiele finden Sie unter http://jmespath.org/.

--verbose

Ausführlichkeit der Protokollierung erhöhen. „--debug“ für vollständige Debugprotokolle verwenden.

azdata bdc delete

Löscht den SQL Server-Big Data-Cluster – auf Ihrem System ist eine Kubernetes-Konfiguration erforderlich.

azdata bdc delete --name -n 
                  [--force -f]

Beispiele

Löschvorgang in Big Data-Cluster.

azdata bdc delete --name <cluster_name>

Erforderliche Parameter

--name -n

Der Big Data-Clustername, der für den kubernetes-Namespace verwendet wird.

Optionale Parameter

--force -f

Erzwingen Sie das Löschen eines Big Data-Clusters.

Globale Argumente

--debug

Ausführlichkeit der Protokollierung erhöhen, um alle Debugprotokolle anzuzeigen.

--help -h

Zeigen Sie diese Hilfemeldung an, und schließen Sie sie.

--output -o

Ausgabeformat. Zulässige Werte: json, jsonc, table, tsv. Standardwert: json.

--query -q

JMESPath-Abfragezeichenfolge. Weitere Informationen und Beispiele finden Sie unter http://jmespath.org/.

--verbose

Ausführlichkeit der Protokollierung erhöhen. „--debug“ für vollständige Debugprotokolle verwenden.

azdata bdc upgrade

Aktualisieren Sie die Images, die in den Containern im SQL Server-Big Data-Cluster bereitgestellt werden. Die aktualisierten Images basieren auf dem übergebenen Docker-Image. Wenn die aktualisierten Images von einem anderen Docker-Imagerepository als die aktuell bereitgestellten Images stammen, ist auch der Parameter „repository“ erforderlich.

azdata bdc upgrade --name -n 
                   --tag -t  
                   
[--repository -r]  
                   
[--controller-timeout -k]  
                   
[--stability-threshold -s]  
                   
[--component-timeout -p]  
                   
[--force -f]

Beispiele

Big Data-Cluster-Upgrade auf ein neues Imagetag „cu2“ aus demselben Repository.

azdata bdc upgrade -t cu2

Big Data-Cluster-Upgrade auf neue Images mit dem Tag „cu2“ aus einem neuen Repository „foo/bar/baz“.

azdata bdc upgrade -t cu2 -r foo/bar/baz

Big Data-Cluster-Upgrade auf ein neues Image mit dem Tag „cu2“ aus demselben Repository. Das Upgrade wartet 30 Minuten lang auf ein Upgrade des Controllers und weitere 30 Minuten auf ein Upgrade der Controllerdatenbank. Dann wartet das Upgrade drei Minuten auf die Ausführung des Controllers und der Controllerdatenbank ohne einen Absturz, um ein Upgrade für den Rest des Cluster durchzuführen. Jede nachfolgende Phase des Upgrades verfügt über 40 Minuten, in denen sie abgeschlossen werden sollte.

azdata bdc upgrade -t cu2 --controller-timeout=30 --component-timeout=40 --stability-threshold=3

Erforderliche Parameter

--name -n

Der Big Data-Clustername, der für kubernetes-Namespaces verwendet wird.

--tag -t

Das Zieltag des Docker-Images, auf das alle Container im Cluster aktualisiert werden sollen

Optionale Parameter

--repository -r

Das Docker-Repository, aus dem alle Container im Cluster ihre Images abrufen sollen

--controller-timeout -k

Dieser Parameter gibt die Anzahl der Minuten an, die auf das Upgrade des Controllers oder der Controllerdatenbank gewartet wird, bevor ein Rollback für das Upgrade durchgeführt wird.

--stability-threshold -s

Dieser Parameter gibt die Anzahl der Minuten an, die nach einem Upgrade gewartet wird, bevor es als stabil gekennzeichnet wird.

--component-timeout -p

Dieser Parameter gibt die Anzahl der Minuten an, die jede Phase des Upgrades (nach dem Controllerupgrade) gewartet wird, bevor das Upgrade angehalten wird.

--force -f

Wenn er vorhanden ist, wird die Clusterintegritätsprüfung vor dem Start des Upgrades ignoriert.

Globale Argumente

--debug

Ausführlichkeit der Protokollierung erhöhen, um alle Debugprotokolle anzuzeigen.

--help -h

Zeigen Sie diese Hilfemeldung an, und schließen Sie sie.

--output -o

Ausgabeformat. Zulässige Werte: json, jsonc, table, tsv. Standardwert: json.

--query -q

JMESPath-Abfragezeichenfolge. Weitere Informationen und Beispiele finden Sie unter http://jmespath.org/.

--verbose

Ausführlichkeit der Protokollierung erhöhen. „--debug“ für vollständige Debugprotokolle verwenden.

Nächste Schritte

Weitere Informationen zu anderen azdata-Befehlen finden Sie unter azdata.

Weitere Informationen zur Installation des Tools azdata finden Sie unter Installieren von azdata.