Freigeben über


azdata bdc spark batch

Gilt für: Azure Data CLI (azdata)

Hinweis

Einige Szenarien, die zuvor von der Azure Data CLI (azdata) behandelt werden, werden jetzt über Azure CLI-Erweiterungen (az) und Azure Arc-basierte Workflows verwaltet. Es gibt keinen einzigen 1:1-Ersatz für alle azdata Befehle. In der folgenden Tabelle werden häufig verwandte Azure CLI-Alternativen hervorgehoben, in denen sie vorhanden sind.

Azdata-Befehlsbereich Azure CLI-Erweiterung /Befehlsgruppe Azure CLI Referenz
azdata arc dc * az arcdata Azure Arc data CLI-Referenz
azdata arc sql mi * az arcdata sql mi Verwalten der verwalteten Azure SQL-Instanz mit CLI
azdata arc postgres * az arcdata postgres Verwalten des PostgreSQL-Servers mit CLI
azdata migrate * az datamigration Migrieren mit CLI
azdata extension * az extension * Übersicht über Azure CLI-Erweiterungen
azdata login az login az login
azdata sql shell / azdata sql query Keine Azure CLI-Entsprechung (Verwenden sqlcmd, SSMS oder andere SQL-Tools) sqlcmd-Hilfsprogramm

SQL Server Management Studio

Für neue Automatisierungs- und Verwaltungsszenarien bevorzugen Sie Azure CLI (az)-, Azure CLI-Erweiterungen und Azure Arc-Portalerfahrungen.

Der folgende Artikel enthält Referenzinformationen zu den sql-Befehlen im azdata-Tool. Weitere Informationen zu anderen azdata-Befehlen finden Sie unter azdata.

Befehle

Befehl Beschreibung
azdata bdc spark batch create Erstellen Sie einen neuen Spark-Batch.
azdata bdc spark batch list Auflisten aller Batches in Spark.
azdata bdc spark batch info Abrufen von Informationen zu einem aktiven Spark-Batch.
azdata bdc spark batch log Abrufen von Ausführungsprotokollen für einen Spark-Batch.
azdata bdc spark batch state Abrufen des Ausführungszustands für einen Spark-Batch.
azdata bdc spark batch delete Löschen sie einen Spark-Batch.

azdata bdc spark batch create

Dadurch wird ein neuer Batch-Spark-Auftrag erstellt, der den bereitgestellten Code ausführt.

azdata bdc spark batch create --file -f 
                              [--class-name -c]  
                              
[--arguments -a]  
                              
[--jar-files -j]  
                              
[--py-files -p]  
                              
[--files]  
                              
[--driver-memory]  
                              
[--driver-cores]  
                              
[--executor-memory]  
                              
[--executor-cores]  
                              
[--executor-count]  
                              
[--archives]  
                              
[--queue -q]  
                              
[--name -n]  
                              
[--config]

Beispiele

Erstellen Sie einen neuen Spark-Batch.

azdata spark batch create --code "2+2"

Erforderliche Parameter

--file -f

Pfad zur auszuführenden Datei.

Optionale Parameter

--class-name -c

Der Name der Klasse, die beim Übergeben einer oder mehrerer Jar-Dateien ausgeführt werden soll.

--arguments -a

Liste der Argumente. Um die Werte in einer Listen-JSON-Codierung zu übergeben. Beispiel: '["entry1", "entry2"]'.

--jar-files -j

Liste der Jar-Dateipfade. Um die Werte in einer Listen-JSON-Codierung zu übergeben. Beispiel: '["entry1", "entry2"]'.

--py-files -p

Liste der Python-Dateipfade. Um die Werte in einer Listen-JSON-Codierung zu übergeben. Beispiel: '["entry1", "entry2"]'.

--files

Liste der Dateipfade. Um die Werte in einer Listen-JSON-Codierung zu übergeben. Beispiel: '["entry1", "entry2"]'.

--driver-memory

Menge des Arbeitsspeichers, der dem Treiber zugewiesen werden soll. Geben Sie Einheiten als Teil des Werts an. Beispiel 512M oder 2G.

--driver-cores

Die Menge der CPU-Kerne, die dem Treiber zugewiesen werden sollen.

--executor-memory

Menge des Arbeitsspeichers, der dem Executor zugewiesen werden soll. Geben Sie Einheiten als Teil des Werts an. Beispiel 512M oder 2G.

--executor-cores

Die Menge der CPU-Kerne, die dem Executor zugewiesen werden sollen.

--executor-count

Anzahl der Instanzen des auszuführenden Executors.

--archives

Liste der Archivpfade. Um die Werte in einer Listen-JSON-Codierung zu übergeben. Beispiel: '["entry1", "entry2"]'.

--queue -q

Name der Spark-Warteschlange, in der die Sitzung ausgeführt werden soll.

--name -n

Name der Spark-Sitzung.

--config

Liste der Namenswertpaare, die Spark-Konfigurationswerte enthalten. Codiert als JSON-Wörterbuch. Beispiel: '{"name":"value", "name2":"value2"}'.

Globale Argumente

--debug

Erhöhen Sie die Ausführlichkeit der Protokollierung, um alle Debugprotokolle anzuzeigen.

--help -h

Diese Hilfemeldung anzeigen und schließen.

--output -o

Ausgabeformat. Zulässige Werte: json, jsonc, table, tsv. Standardwert: json.

--query -q

JMESPath-Abfragezeichenfolge. Weitere Informationen und Beispiele finden Sie unter http://jmespath.org/.

--verbose

Erhöhen Sie die Ausführlichkeit der Protokollierung. Verwenden Sie "-debug" für vollständige Debugprotokolle.

azdata bdc spark batch list

Auflisten aller Batches in Spark.

azdata bdc spark batch list 

Beispiele

Listet alle aktiven Batches auf.

azdata spark batch list

Globale Argumente

--debug

Erhöhen Sie die Ausführlichkeit der Protokollierung, um alle Debugprotokolle anzuzeigen.

--help -h

Diese Hilfemeldung anzeigen und schließen.

--output -o

Ausgabeformat. Zulässige Werte: json, jsonc, table, tsv. Standardwert: json.

--query -q

JMESPath-Abfragezeichenfolge. Weitere Informationen und Beispiele finden Sie unter http://jmespath.org/.

--verbose

Erhöhen Sie die Ausführlichkeit der Protokollierung. Verwenden Sie "-debug" für vollständige Debugprotokolle.

azdata bdc spark batch info

Dies ruft die Informationen für einen Spark-Batch mit der angegebenen ID ab. Die Batch-ID wird von "Spark Batch create" zurückgegeben.

azdata bdc spark batch info --batch-id -i 
                            

Beispiele

Abrufen von Batchinformationen für Batch mit der ID 0.

azdata spark batch info --batch-id 0

Erforderliche Parameter

--batch-id -i

Spark Batch-ID-Nummer.

Globale Argumente

--debug

Erhöhen Sie die Ausführlichkeit der Protokollierung, um alle Debugprotokolle anzuzeigen.

--help -h

Diese Hilfemeldung anzeigen und schließen.

--output -o

Ausgabeformat. Zulässige Werte: json, jsonc, table, tsv. Standardwert: json.

--query -q

JMESPath-Abfragezeichenfolge. Weitere Informationen und Beispiele finden Sie unter http://jmespath.org/.

--verbose

Erhöhen Sie die Ausführlichkeit der Protokollierung. Verwenden Sie "-debug" für vollständige Debugprotokolle.

azdata bdc spark batch log

Dies ruft die Batchprotokolleinträge für einen Spark-Batch mit der angegebenen ID ab. Die Batch-ID wird von "Spark Batch create" zurückgegeben.

azdata bdc spark batch log --batch-id -i 
                           

Beispiele

Abrufen des Batchprotokolls für batch mit der ID 0.

azdata spark batch log --batch-id 0

Erforderliche Parameter

--batch-id -i

Spark Batch-ID-Nummer.

Globale Argumente

--debug

Erhöhen Sie die Ausführlichkeit der Protokollierung, um alle Debugprotokolle anzuzeigen.

--help -h

Diese Hilfemeldung anzeigen und schließen.

--output -o

Ausgabeformat. Zulässige Werte: json, jsonc, table, tsv. Standardwert: json.

--query -q

JMESPath-Abfragezeichenfolge. Weitere Informationen und Beispiele finden Sie unter http://jmespath.org/.

--verbose

Erhöhen Sie die Ausführlichkeit der Protokollierung. Verwenden Sie "-debug" für vollständige Debugprotokolle.

azdata bdc spark batch state

Dadurch wird der Batchstatus für einen Spark-Batch mit der angegebenen ID angezeigt. Die Batch-ID wird von "Spark Batch create" zurückgegeben.

azdata bdc spark batch state --batch-id -i 
                             

Beispiele

Abrufen des Batchzustands für Batch mit der ID 0.

azdata spark batch state --batch-id 0

Erforderliche Parameter

--batch-id -i

Spark Batch-ID-Nummer.

Globale Argumente

--debug

Erhöhen Sie die Ausführlichkeit der Protokollierung, um alle Debugprotokolle anzuzeigen.

--help -h

Diese Hilfemeldung anzeigen und schließen.

--output -o

Ausgabeformat. Zulässige Werte: json, jsonc, table, tsv. Standardwert: json.

--query -q

JMESPath-Abfragezeichenfolge. Weitere Informationen und Beispiele finden Sie unter http://jmespath.org/.

--verbose

Erhöhen Sie die Ausführlichkeit der Protokollierung. Verwenden Sie "-debug" für vollständige Debugprotokolle.

azdata bdc spark batch delete

Dadurch wird ein Spark-Batch gelöscht. Die Batch-ID wird von "Spark Batch create" zurückgegeben.

azdata bdc spark batch delete --batch-id -i 
                              

Beispiele

Löschen eines Batches.

azdata spark batch delete --batch-id 0

Erforderliche Parameter

--batch-id -i

Spark Batch-ID-Nummer.

Globale Argumente

--debug

Erhöhen Sie die Ausführlichkeit der Protokollierung, um alle Debugprotokolle anzuzeigen.

--help -h

Diese Hilfemeldung anzeigen und schließen.

--output -o

Ausgabeformat. Zulässige Werte: json, jsonc, table, tsv. Standardwert: json.

--query -q

JMESPath-Abfragezeichenfolge. Weitere Informationen und Beispiele finden Sie unter http://jmespath.org/.

--verbose

Erhöhen Sie die Ausführlichkeit der Protokollierung. Verwenden Sie "-debug" für vollständige Debugprotokolle.

Nächste Schritte

Weitere Informationen zu anderen azdata-Befehlen finden Sie unter azdata.

Weitere Informationen zur Installation des Tools azdata finden Sie unter Installieren von azdata.