azdata bdc spark batch
適用於: Azure Data CLI ()azdata
下列文章提供 azdata 工具中 sql 命令的參考。 如需其他 azdata 命令的詳細資訊,請參閱 azdata 參考
命令
命令 | 說明 |
---|---|
azdata bdc spark batch create | 建立新的 Spark 批次。 |
azdata bdc spark batch list | 列出 Spark 中的所有批次。 |
azdata bdc spark batch info | 取得作用中 Spark 批次的相關資訊。 |
azdata bdc spark batch log | 取得 Spark 批次的執行記錄。 |
azdata bdc spark batch state | 取得 Spark 批次的執行狀態。 |
azdata bdc spark batch delete | 刪除 Spark 批次。 |
azdata bdc spark batch create
這會建立新的批次 Spark 作業,其能執行所提供的程式碼。
azdata bdc spark batch create --file -f
[--class-name -c]
[--arguments -a]
[--jar-files -j]
[--py-files -p]
[--files]
[--driver-memory]
[--driver-cores]
[--executor-memory]
[--executor-cores]
[--executor-count]
[--archives]
[--queue -q]
[--name -n]
[--config]
範例
建立新的 Spark 批次。
azdata spark batch create --code "2+2"
必要參數
--file -f
要執行之檔案的路徑。
選擇性參數
--class-name -c
在傳入一或多個 jar 檔案時要執行之類別的名稱。
--arguments -a
引數的清單。 為了傳入清單,JSON 會將值編碼。 範例:'["entry1", "entry2"]'。
--jar-files -j
jar 檔案路徑的清單。 為了傳入清單,JSON 會將值編碼。 範例:'["entry1", "entry2"]'。
--py-files -p
Python 檔案路徑的清單。 為了傳入清單,JSON 會將值編碼。 範例:'["entry1", "entry2"]'。
--files
檔案路徑的清單。 為了傳入清單,JSON 會將值編碼。 範例:'["entry1", "entry2"]'。
--driver-memory
要配置給驅動程式的記憶體數量。 將單位指定為值的一部分。 範例:512M 或 2G。
--driver-cores
要配置給驅動程式的 CPU 核心數量。
--executor-memory
要配置給執行程式的記憶體數量。 將單位指定為值的一部分。 範例:512M 或 2G。
--executor-cores
要配置給執行程式的 CPU 核心數量。
--executor-count
要執行之執行程式的執行個體數目。
--archives
封存路徑的清單。 為了傳入清單,JSON 會將值編碼。 範例:'["entry1", "entry2"]'。
--queue -q
要執行工作階段所在之 Spark 佇列的名稱。
--name -n
Spark 工作階段的名稱。
--config
包含 Spark 設定值之名稱值組的清單。 編碼為 JSON 字典。 範例:'{"name":"value", "name2":"value2"}'。
全域引數
--debug
增加記錄詳細資訊,以顯示所有偵錯記錄。
--help -h
顯示此說明訊息並結束。
--output -o
輸出格式。 允許的值:json、jsonc、table、tsv。 預設值:json。
--query -q
JMESPath 查詢字串。 如需詳細資訊和範例,請參閱 http://jmespath.org/。
--verbose
增加記錄詳細資訊。 使用 --debug 來取得完整偵錯記錄。
azdata bdc spark batch list
列出 Spark 中的所有批次。
azdata bdc spark batch list
範例
列出所有作用中批次。
azdata spark batch list
全域引數
--debug
增加記錄詳細資訊,以顯示所有偵錯記錄。
--help -h
顯示此說明訊息並結束。
--output -o
輸出格式。 允許的值:json、jsonc、table、tsv。 預設值:json。
--query -q
JMESPath 查詢字串。 如需詳細資訊和範例,請參閱 http://jmespath.org/。
--verbose
增加記錄詳細資訊。 使用 --debug 來取得完整偵錯記錄。
azdata bdc spark batch info
這會取得具有指定識別碼之 Spark 批次的相關資訊。 批次識別碼會從 'spark batch create' 傳回。
azdata bdc spark batch info --batch-id -i
範例
取得識別碼為 0 之批次的批次資訊。
azdata spark batch info --batch-id 0
必要參數
--batch-id -i
Spark 批次識別碼號碼。
全域引數
--debug
增加記錄詳細資訊,以顯示所有偵錯記錄。
--help -h
顯示此說明訊息並結束。
--output -o
輸出格式。 允許的值:json、jsonc、table、tsv。 預設值:json。
--query -q
JMESPath 查詢字串。 如需詳細資訊和範例,請參閱 http://jmespath.org/。
--verbose
增加記錄詳細資訊。 使用 --debug 來取得完整偵錯記錄。
azdata bdc spark batch log
這會取得具有指定識別碼之 Spark 批次的批次記錄項目。 批次識別碼會從 'spark batch create' 傳回。
azdata bdc spark batch log --batch-id -i
範例
取得識別碼為 0 之批次的批次記錄。
azdata spark batch log --batch-id 0
必要參數
--batch-id -i
Spark 批次識別碼號碼。
全域引數
--debug
增加記錄詳細資訊,以顯示所有偵錯記錄。
--help -h
顯示此說明訊息並結束。
--output -o
輸出格式。 允許的值:json、jsonc、table、tsv。 預設值:json。
--query -q
JMESPath 查詢字串。 如需詳細資訊和範例,請參閱 http://jmespath.org/。
--verbose
增加記錄詳細資訊。 使用 --debug 來取得完整偵錯記錄。
azdata bdc spark batch state
這會取得具有指定識別碼之 Spark 批次的批次狀態。 批次識別碼會從 'spark batch create' 傳回。
azdata bdc spark batch state --batch-id -i
範例
取得識別碼為 0 之批次的批次狀態。
azdata spark batch state --batch-id 0
必要參數
--batch-id -i
Spark 批次識別碼號碼。
全域引數
--debug
增加記錄詳細資訊,以顯示所有偵錯記錄。
--help -h
顯示此說明訊息並結束。
--output -o
輸出格式。 允許的值:json、jsonc、table、tsv。 預設值:json。
--query -q
JMESPath 查詢字串。 如需詳細資訊和範例,請參閱 http://jmespath.org/。
--verbose
增加記錄詳細資訊。 使用 --debug 來取得完整偵錯記錄。
azdata bdc spark batch delete
這會刪除 Spark 批次。 批次識別碼會從 'spark batch create' 傳回。
azdata bdc spark batch delete --batch-id -i
範例
刪除批次。
azdata spark batch delete --batch-id 0
必要參數
--batch-id -i
Spark 批次識別碼號碼。
全域引數
--debug
增加記錄詳細資訊,以顯示所有偵錯記錄。
--help -h
顯示此說明訊息並結束。
--output -o
輸出格式。 允許的值:json、jsonc、table、tsv。 預設值:json。
--query -q
JMESPath 查詢字串。 如需詳細資訊和範例,請參閱 http://jmespath.org/。
--verbose
增加記錄詳細資訊。 使用 --debug 來取得完整偵錯記錄。
後續步驟
如需其他 azdata 命令的詳細資訊,請參閱 azdata 參考。
如需如何安裝 azdata 工具的詳細資訊,請參閱安裝 azdata。
意見反應
https://aka.ms/ContentUserFeedback。
即將登場:在 2024 年,我們將逐步淘汰 GitHub 問題作為內容的意見反應機制,並將它取代為新的意見反應系統。 如需詳細資訊,請參閱:提交並檢視相關的意見反應