共用方式為


azdata BDC Spark batch

適用於:Azure Data CLI (azdata)

備註

過去由 Azure Data CLIazdata() 處理的部分情境,現在透過 Azure CLI (az) 擴充功能基於 Azure Arc 的工作流程來管理。 沒有一個單一 azdata 的 1:1 指令替換。 下表列出常見相關的 Azure CLI 替代方案(若有)。

AZDATA 指揮區 Azure CLI extension / command group Azure CLI 參考資料
azdata arc dc * az arcdata Azure Arc data CLI reference
azdata arc sql mi * az arcdata sql mi Manage Azure SQL Managed Instance with CLI
azdata arc postgres * az arcdata postgres 用 CLI 管理 PostgreSQL 伺服器
azdata migrate * az datamigration 使用 CLI 進行遷移
azdata extension * az extension * Azure CLI extensions overview
azdata login az login AZ Login
azdata sql shell / azdata sql query 沒有 Azure CLI 的對應工具(使用 sqlcmd、SSMS 或其他 SQL 工具) sqlcmd 公用程式

SQL Server 管理工作室

對於新的自動化與管理場景,建議使用 Azure CLI (az)、Azure CLI 擴充套件Azure Arc 入口網站體驗

下列文章提供 azdata 工具中 sql 命令的參考。 如需其他 azdata 命令的詳細資訊,請參閱 azdata 參考

Commands

命令 說明
azdata BDC Spark Batch Create 建立新的 Spark 批次。
azdata BDC Spark Batch List 在 Spark 裡列出所有批次。
azdata BDC Spark Batch Info 獲取有關活躍 Spark 批次的資訊。
azdata BDC Spark Batch log 取得 Spark 批次的執行日誌。
azdata BDC SPARK Batch State 取得 Spark 批次的執行狀態。
azdata BDC Spark Batch Delete 刪除 Spark 批次。

azdata BDC Spark Batch Create

這會建立一個新的批次 Spark 工作,執行所提供的程式碼。

azdata bdc spark batch create --file -f 
                              [--class-name -c]  
                              
[--arguments -a]  
                              
[--jar-files -j]  
                              
[--py-files -p]  
                              
[--files]  
                              
[--driver-memory]  
                              
[--driver-cores]  
                              
[--executor-memory]  
                              
[--executor-cores]  
                              
[--executor-count]  
                              
[--archives]  
                              
[--queue -q]  
                              
[--name -n]  
                              
[--config]

Examples

建立新的 Spark 批次。

azdata spark batch create --code "2+2"

所需參數

--file -f

執行檔案的路徑。

選擇性參數

--class-name -c

傳遞一個或多個 jar 檔案時要執行的類別名稱。

--arguments -a

論點清單。 要傳遞一個清單,JSON 會編碼這些值。 範例:『[“entry1”, “entry2”]」。

--jar-files -j

jar 檔案路徑列表。 要傳遞一個清單,JSON 會編碼這些值。 範例:『[“entry1”, “entry2”]」。

--py-files -p

Python 檔案路徑列表。 要傳遞一個清單,JSON 會編碼這些值。 範例:『[“entry1”, “entry2”]」。

--files

檔案路徑列表。 要傳遞一個清單,JSON 會編碼這些值。 範例:『[“entry1”, “entry2”]」。

--driver-memory

分配給驅動程式的記憶體量。 請將單位列為價值的一部分。 例如512M或2G。

--driver-cores

分配給驅動程式的 CPU 核心數量。

--executor-memory

分配給執行者的記憶體量。 請將單位列為價值的一部分。 例如512M或2G。

--executor-cores

分配給執行器的 CPU 核心數量。

--executor-count

執行執行者執行的實例數量。

--archives

檔案路徑列表。 要傳遞一個清單,JSON 會編碼這些值。 範例:『[“entry1”, “entry2”]」。

--queue -q

執行會話的 Spark 佇列名稱。

--name -n

Spark 會議名稱。

--config

包含 Spark 設定值的名稱值對列表。 以 JSON 字典編碼。 範例:'{“name”:“value”, “name2”:“value2”}'。

全域引數

--debug

提高日誌詳細程度以顯示所有調試日誌。

--help -h

顯示此說明訊息並結束。

--output -o

輸出格式。 允許的值:json、jsonc、table、tsv。 預設值:json。

--query -q

JMESPath 查詢字串。 如需詳細資訊和範例,請參閱 http://jmespath.org/

--verbose

增加記錄的詳細程度。 針對完整偵錯記錄使用 --debug。

azdata BDC Spark Batch List

在 Spark 裡列出所有批次。

azdata bdc spark batch list 

Examples

列出所有活躍批次。

azdata spark batch list

全域引數

--debug

提高日誌詳細程度以顯示所有調試日誌。

--help -h

顯示此說明訊息並結束。

--output -o

輸出格式。 允許的值:json、jsonc、table、tsv。 預設值:json。

--query -q

JMESPath 查詢字串。 如需詳細資訊和範例,請參閱 http://jmespath.org/

--verbose

增加記錄的詳細程度。 針對完整偵錯記錄使用 --debug。

azdata BDC Spark Batch Info

這會取得帶有指定 ID 的 Spark 批次資訊。 批次 ID 是從「spark batch create」回傳的。

azdata bdc spark batch info --batch-id -i 
                            

Examples

取得 ID 為 0 的批次資訊。

azdata spark batch info --batch-id 0

所需參數

--batch-id -i

火花批次編號。

全域引數

--debug

提高日誌詳細程度以顯示所有調試日誌。

--help -h

顯示此說明訊息並結束。

--output -o

輸出格式。 允許的值:json、jsonc、table、tsv。 預設值:json。

--query -q

JMESPath 查詢字串。 如需詳細資訊和範例,請參閱 http://jmespath.org/

--verbose

增加記錄的詳細程度。 針對完整偵錯記錄使用 --debug。

azdata BDC Spark Batch log

這樣會取得 Spark 批次中 ID 的批次日誌條目。 批次 ID 是從「spark batch create」回傳的。

azdata bdc spark batch log --batch-id -i 
                           

Examples

取得批次日誌,ID 為 0。

azdata spark batch log --batch-id 0

所需參數

--batch-id -i

火花批次編號。

全域引數

--debug

提高日誌詳細程度以顯示所有調試日誌。

--help -h

顯示此說明訊息並結束。

--output -o

輸出格式。 允許的值:json、jsonc、table、tsv。 預設值:json。

--query -q

JMESPath 查詢字串。 如需詳細資訊和範例,請參閱 http://jmespath.org/

--verbose

增加記錄的詳細程度。 針對完整偵錯記錄使用 --debug。

azdata BDC SPARK Batch State

這會取得具有相同 ID 的 Spark 批次的批次狀態。 批次 ID 是從「spark batch create」回傳的。

azdata bdc spark batch state --batch-id -i 
                             

Examples

取得 ID 為 0 的批次狀態。

azdata spark batch state --batch-id 0

所需參數

--batch-id -i

火花批次編號。

全域引數

--debug

提高日誌詳細程度以顯示所有調試日誌。

--help -h

顯示此說明訊息並結束。

--output -o

輸出格式。 允許的值:json、jsonc、table、tsv。 預設值:json。

--query -q

JMESPath 查詢字串。 如需詳細資訊和範例,請參閱 http://jmespath.org/

--verbose

增加記錄的詳細程度。 針對完整偵錯記錄使用 --debug。

azdata BDC Spark Batch Delete

這會刪除一個 Spark 批次。 批次 ID 是從「spark batch create」回傳的。

azdata bdc spark batch delete --batch-id -i 
                              

Examples

刪除一批。

azdata spark batch delete --batch-id 0

所需參數

--batch-id -i

火花批次編號。

全域引數

--debug

提高日誌詳細程度以顯示所有調試日誌。

--help -h

顯示此說明訊息並結束。

--output -o

輸出格式。 允許的值:json、jsonc、table、tsv。 預設值:json。

--query -q

JMESPath 查詢字串。 如需詳細資訊和範例,請參閱 http://jmespath.org/

--verbose

增加記錄的詳細程度。 針對完整偵錯記錄使用 --debug。

下一步

如需其他 azdata 命令的詳細資訊,請參閱 azdata 參考

如需如何安裝 azdata 工具的詳細資訊,請參閱安裝 azdata