Share via


az hdinsight-on-aks cluster

注意

此參考是 Azure CLI 的 hdinsightonaks 延伸模組的一部分(2.56.0 版或更高版本)。 擴充功能會在您第一次執行 az hdinsight-on-aks cluster 命令時自動安裝。 深入了解擴充功能。

此命令群組處於預覽狀態,且正在開發中。 參考和支援層級: https://aka.ms/CLI_refstatus

叢集作業。

命令

名稱 Description 類型 狀態
az hdinsight-on-aks cluster create

建立叢集。

副檔名 預覽​​
az hdinsight-on-aks cluster delete

刪除叢集。

副檔名 預覽​​
az hdinsight-on-aks cluster instance-view

取得叢集實例的狀態。

副檔名 預覽​​
az hdinsight-on-aks cluster instance-view list

列出實例檢視的清單。

副檔名 預覽​​
az hdinsight-on-aks cluster instance-view show

取得叢集實例的狀態。

副檔名 預覽​​
az hdinsight-on-aks cluster job

叢集作業作業。

副檔名 預覽​​
az hdinsight-on-aks cluster job list

列出 AKS 叢集上的 HDInsight 作業。

副檔名 預覽​​
az hdinsight-on-aks cluster job run

AKS 叢集上 HDInsight 作業的作業。

副檔名 預覽​​
az hdinsight-on-aks cluster list

列出資源群組底下的 HDInsight 叢集集區。

副檔名 預覽​​
az hdinsight-on-aks cluster list-service-config

列出叢集中執行之所有服務的組態傾印。

副檔名 預覽​​
az hdinsight-on-aks cluster node-profile

管理計算節點配置檔。

副檔名 預覽​​
az hdinsight-on-aks cluster node-profile create

建立具有 SKU 和背景工作計數的節點配置檔。

副檔名 預覽​​
az hdinsight-on-aks cluster resize

調整現有叢集的大小。

副檔名 預覽​​
az hdinsight-on-aks cluster secret

管理秘密參考。

副檔名 預覽​​
az hdinsight-on-aks cluster secret create

建立參考,以提供密碼來儲存用來存取資料庫的密碼。

副檔名 預覽​​
az hdinsight-on-aks cluster show

取得 HDInsight 叢集。

副檔名 預覽​​
az hdinsight-on-aks cluster trino-hive-catalog

管理Hive目錄設定。

副檔名 預覽​​
az hdinsight-on-aks cluster trino-hive-catalog create

建立設定為 Trino 叢集的 Hive 目錄。

副檔名 預覽​​
az hdinsight-on-aks cluster update

更新叢集。

副檔名 預覽​​
az hdinsight-on-aks cluster upgrade

升級叢集。

副檔名 預覽​​
az hdinsight-on-aks cluster upgrade list

列出叢集可用的升級。

副檔名 預覽​​
az hdinsight-on-aks cluster upgrade run

升級叢集。

副檔名 預覽​​
az hdinsight-on-aks cluster wait

將 CLI 置於等候狀態,直到符合條件為止。

副檔名 預覽​​

az hdinsight-on-aks cluster create

預覽

命令群組 'az hdinsight-on-aks cluster' 處於預覽狀態,且正在開發中。 參考和支援層級: https://aka.ms/CLI_refstatus

建立叢集。

az hdinsight-on-aks cluster create --cluster-name
                                   --cluster-pool-name
                                   --resource-group
                                   [--application-log-std-error-enabled {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--application-log-std-out-enabled {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--assigned-identity-client-id]
                                   [--assigned-identity-id]
                                   [--assigned-identity-object-id]
                                   [--authorization-group-id]
                                   [--authorization-user-id]
                                   [--autoscale-profile-graceful-decommission-timeout]
                                   [--autoscale-profile-type {LoadBased, ScheduleBased}]
                                   [--cluster-type]
                                   [--cluster-version]
                                   [--cooldown-period]
                                   [--coord-debug-port]
                                   [--coord-debug-suspend {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--coordinator-debug-enabled {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--coordinator-high-availability-enabled {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--db-connection-authentication-mode {IdentityAuth, SqlAuth}]
                                   [--deployment-mode {Application, Session}]
                                   [--enable-autoscale {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--enable-la-metrics {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--enable-log-analytics {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--enable-prometheu {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--enable-worker-debug {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--flink-db-auth-mode {IdentityAuth, SqlAuth}]
                                   [--flink-hive-catalog-db-connection-password-secret]
                                   [--flink-hive-catalog-db-connection-url]
                                   [--flink-hive-catalog-db-connection-user-name]
                                   [--flink-storage-key]
                                   [--flink-storage-uri]
                                   [--history-server-cpu]
                                   [--history-server-memory]
                                   [--internal-ingress {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--job-manager-cpu]
                                   [--job-manager-memory]
                                   [--job-spec]
                                   [--kafka-profile]
                                   [--key-vault-id]
                                   [--llap-profile]
                                   [--loadbased-config-max-nodes]
                                   [--loadbased-config-min-nodes]
                                   [--loadbased-config-poll-interval]
                                   [--loadbased-config-scaling-rules]
                                   [--location]
                                   [--no-wait {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--nodes]
                                   [--num-replicas]
                                   [--oss-version]
                                   [--ranger-plugin-profile]
                                   [--ranger-profile]
                                   [--schedule-based-config-default-count]
                                   [--schedule-based-config-schedule]
                                   [--schedule-based-config-time-zone]
                                   [--script-action-profiles]
                                   [--secret-reference]
                                   [--service-configs]
                                   [--spark-hive-catalog-db-name]
                                   [--spark-hive-catalog-db-password-secret]
                                   [--spark-hive-catalog-db-server-name]
                                   [--spark-hive-catalog-db-user-name]
                                   [--spark-hive-catalog-key-vault-id]
                                   [--spark-hive-catalog-thrift-url]
                                   [--spark-storage-url]
                                   [--ssh-profile-count]
                                   [--stub-profile]
                                   [--tags]
                                   [--task-manager-cpu]
                                   [--task-manager-memory]
                                   [--trino-hive-catalog]
                                   [--trino-plugins-spec]
                                   [--trino-profile-user-plugins-telemetry-spec]
                                   [--user-plugins-spec]
                                   [--worker-debug-port]
                                   [--worker-debug-suspend {0, 1, f, false, n, no, t, true, y, yes}]

範例

建立 Trino 叢集。 需要使用 az hdinsight-on-aks cluster node-profile create $node frist。

az hdinsight-on-aks cluster node-profile create --count 5 --node-type Worker --vm-size Standard_D8d_v5
az hdinsightonaks cluster create -n {clustername} --cluster-pool-name {clusterpoolname} -g {resourcesGroup} -l {location} --assigned-identity-object-id {00000000-0000-0000-0000-000000000000} --assigned-identity-client-id {00000000-0000-0000-0000-000000000000} --authorization-user-id {00000000-0000-0000-0000-000000000000} --assigned-identity-id {/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/PSGroup/providers/Microsoft.ManagedIdentity/userAssignedIdentities/yourmsi} --cluster-type Trino --cluster-version {1.0.6} --oss-version {0.410.0} --nodes $node-profile

建立 Flink 叢集。

az hdinsight-on-aks cluster create  -n {clustername} --cluster-pool-name {clusterpoolname} -g {RG} -l {westus3} --assigned-identity-object-id {00000000-0000-0000-0000-000000000000} --assigned-identity-client-id {00000000-0000-0000-0000-000000000000} --authorization-user-id {00000000-0000-0000-0000-000000000000} --assigned-identity-id {/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/PSGroup/providers/Microsoft.ManagedIdentity/userAssignedIdentities/yourmsi} --cluster-type Flink --cluster-version {flinkversion} --oss-version {flinkossversion} --nodes {nodes} --flink-storage-uri {storageUri} --job-manager-cpu {1} --job-manager-memory {2000} --task-manager-cpu {6} --task-manager-memory {49016}

使用Hive目錄建立 Trino 叢集。

az hdinsight-on-aks cluster trino-hive-catalog create --catalog-name {catalogName} --metastore-db-connection-url {metastoreDbConnectionURL} --metastore-db-connection-user-name {metastoreDbUserName}  --metastore-db-connection-password-secret {metastoreDbPasswordSecret} --metastore-warehouse-dir {metastoreWarehouseDir}
az hdinsight-on-aks cluster secret create --secret-name {secretName}  --reference-name {secretName}
az hdinsight-on-aks cluster create -n {clustername} --cluster-pool-name {clusterpoolname} -g {resourcesGroup} -l {westus3} --assigned-identity-object-id {00000000-0000-0000-0000-000000000000} --assigned-identity-client-id {00000000-0000-0000-0000-000000000000} --authorization-user-id {00000000-0000-0000-0000-000000000000} --assigned-identity-id {/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/PSGroup/providers/Microsoft.ManagedIdentity/userAssignedIdentities/yourmsi} --cluster-type Trino --cluster-version {1.0.6} --oss-version {0.410.0} --nodes {node-profile} --secret-reference {secretReference} --key-vault-id {keyVaultResourceId} --trino-hive-catalog {trinoHiveCatalogOption}

必要參數

--cluster-name --name -n

HDInsight 叢集的名稱。

--cluster-pool-name

叢集集區的名稱。

--resource-group -g

資源群組的名稱。 您可以使用 az configure --defaults group=<name> 來設定預設群組。

選擇性參數

--application-log-std-error-enabled --enable-log-std-error

如果已啟用應用程式標準錯誤,則為 True,否則為 false。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--application-log-std-out-enabled --enable-log-std-out

如果已啟用應用程式標準輸出,則為 True,否則為 false。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--assigned-identity-client-id --msi-client-id

MSI 的 ClientId。

--assigned-identity-id --msi-id

MSI 的 ResourceId。

--assigned-identity-object-id --msi-object-id

MSI 的 ObjectId。

--authorization-group-id

已獲授權存取數據平面的 AAD 群組識別碼。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。

--authorization-user-id

已獲授權存取數據平面的 AAD 用戶識別碼。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。

--autoscale-profile-graceful-decommission-timeout --decommission-time

此屬性適用於正常解除委任逾時;其預設設定為3600秒,再進行強制關機。 這是將解除委任節點轉換為 DECOMMISSIONED 之前,等待執行容器和應用程式完成的最大時間。 預設值為3600秒。 負值 (例如 -1) 會處理為無限逾時。

--autoscale-profile-type

使用者指定要實作的自動調整類型 - 排程型或負載型。

接受的值: LoadBased, ScheduleBased
--cluster-type

叢集的類型。

--cluster-version

3/4 部分的版本。

--cooldown-period --loadbased-config-cooldown-period

這是冷卻期間,這是一個以秒為單位的時間週期,它會決定在規則啟動的調整活動與下一個調整活動的開始之間必須經過的時間量,而不論觸發它的規則為何。 預設值為 300 秒。

--coord-debug-port --coordinator-debug-port

如果啟用偵錯,則為旗標。 默認值:8008。

--coord-debug-suspend --coordinator-debug-suspend

如果暫停偵錯,則為旗標。 預設:false。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--coordinator-debug-enabled --enable-coord-debug

如果啟用協調器HA,則會使用具有自動故障轉移的多個協調器複本,每個前端節點各一個。 預設:false。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--coordinator-high-availability-enabled --enable-coord-ha

如果啟用協調器HA,則會使用具有自動故障轉移的多個協調器複本,每個前端節點各一個。 預設:false。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--db-connection-authentication-mode --spark-db-auth-mode

線上到 Hive 中繼存放區資料庫的驗證模式。 更多詳細數據: https://learn.microsoft.com/en-us/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization

接受的值: IdentityAuth, SqlAuth
--deployment-mode

字串屬性,表示 Flink 叢集的部署模式。 它可以有下列其中一個列舉值 => Application, Session。 預設值為 Session。

接受的值: Application, Session
--enable-autoscale

這表示是否在 AKS 叢集的 HDInsight 上啟用自動調整。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--enable-la-metrics --log-analytic-profile-metrics-enabled

如果已啟用計量,則為 True,否則為 false。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--enable-log-analytics

如果叢集已啟用記錄分析,則為 True,否則為 false。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--enable-prometheu

啟用叢集的 Prometheus。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--enable-worker-debug

如果 Trino 叢集啟用偵錯,則為旗標。 預設:false。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--flink-db-auth-mode --metastore-db-connection-authentication-mode

線上到 Hive 中繼存放區資料庫的驗證模式。 更多詳細數據: https://learn.microsoft.com/en-us/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization

接受的值: IdentityAuth, SqlAuth
--flink-hive-catalog-db-connection-password-secret --flink-hive-db-secret

來自 secretsProfile.secrets 的秘密參考名稱,其中包含資料庫連線的密碼。

--flink-hive-catalog-db-connection-url --flink-hive-db-url

hive 中繼存放區資料庫的 連線 字串。

--flink-hive-catalog-db-connection-user-name --flink-hive-db-user

資料庫連線的用戶名稱。

--flink-storage-key

只有 wasb(s) 記憶體需要 儲存體 金鑰。

--flink-storage-uri

儲存體 用於儲存點和檢查點狀態的帳戶 URI。

--history-server-cpu

記錄伺服器CPU計數。

--history-server-memory

記錄伺服器記憶體大小。

--internal-ingress --internal-ingress-enabled

是否要使用私人IP建立叢集,而不是使用公用IP。 這個屬性必須在建立時設定。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--job-manager-cpu

作業管理員 CPU 計數。

--job-manager-memory

作業管理員記憶體大小。

--job-spec

應用程式部署模式中 flink 叢集的作業規格。 即使藉由呼叫 RunJob API 來變更作業屬性,規格仍不可變,請使用 ListJob API 來取得最新的作業資訊。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。

--kafka-profile

Kafka 叢集配置檔。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。

--key-vault-id

儲存所有叢集特定用戶密碼的用戶名稱 金鑰保存庫。

--llap-profile

LLAP 叢集配置檔。 支援 json-file 和 yaml-file。

--loadbased-config-max-nodes --loadbased-max-nodes

用戶必須設定以負載為基礎的調整節點數目上限,以負載為基礎的調整將會使用此調整來相應增加和縮小節點數目的最小值和最大數目。

--loadbased-config-min-nodes --loadbased-min-nodes

用戶必須設定以負載為基礎的調整節點數目下限,以負載為基礎的調整將會使用此調整,在節點數目下限和上限之間相應增加和相應減少。

--loadbased-config-poll-interval --loadbased-interval

用戶可以指定輪詢間隔,這是輪詢計量以觸發調整作業的時間週期(以秒為單位)。

--loadbased-config-scaling-rules --loadbased-rules

調整規則。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。

--location -l

未指定資源所在的地理位置,將會使用資源群組的位置。

--no-wait

請勿等候長時間執行的作業完成。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--nodes

節點定義。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。

--num-replicas

任務管理員的數目。

--oss-version

具有三個部分的版本。

--ranger-plugin-profile

叢集 Ranger 外掛程式設定檔。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。

--ranger-profile

ranger 叢集配置檔。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。

--schedule-based-config-default-count --schedule-default-count

設定目前排程設定的預設節點計數。 默認節點計數會指定執行指定調整作業時預設的節點數目(相應增加/相應減少)。

--schedule-based-config-schedule --schedule-schedules

這會指定要啟用排程型自動調整的排程,用戶可以選擇在排程內跨天數和時間設定多個規則(開始/結束)。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。

--schedule-based-config-time-zone --schedule-time-zone

用戶必須指定排程必須針對以排程為基礎的自動調整設定設定的時區。

--script-action-profiles

文稿動作配置檔清單。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。

--secret-reference

金鑰保存庫 秘密的屬性。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。

--service-configs --service-configs-profiles

服務組態配置檔。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。

--spark-hive-catalog-db-name --spark-hive-db-name

資料庫名稱。

--spark-hive-catalog-db-password-secret --spark-hive-db-secret

包含資料庫用戶密碼的秘密名稱。

--spark-hive-catalog-db-server-name --spark-hive-db-server

資料庫伺服器主機。

--spark-hive-catalog-db-user-name --spark-hive-db-user

資料庫用戶名稱。

--spark-hive-catalog-key-vault-id --spark-hive-kv-id

金鑰保存庫資源識別碼。

--spark-hive-catalog-thrift-url --spark-hive-thrift-url

節儉 URL。

--spark-storage-url

默認記憶體 URL。

--ssh-profile-count

每個叢集的SSH Pod 數目。

--stub-profile

存根叢集配置檔。 支援 json-file 和 yaml-file。

--tags

資源標籤。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。

--task-manager-cpu

任務管理員 CPU 計數。

--task-manager-memory

任務管理器記憶體大小。

--trino-hive-catalog

Trino 叢集 Hive 目錄選項。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。

--trino-plugins-spec --trino-profile-user-plugins-plugin-spec

Trino 使用者外掛程式規格支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。

--trino-profile-user-plugins-telemetry-spec --trino-telemetry-spec

Trino 用戶遙測規格。支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。

--user-plugins-spec

Spark 使用者外掛程式規格支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。

--worker-debug-port

偵錯埠。 默認值:8008。

--worker-debug-suspend

如果 Trino 叢集暫止偵錯,則為旗標。 預設:false。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
全域參數
--debug

增加記錄詳細資訊,以顯示所有偵錯記錄。

--help -h

顯示此說明訊息並結束。

--only-show-errors

只顯示錯誤,隱藏警告。

--output -o

輸出格式。

接受的值: json, jsonc, none, table, tsv, yaml, yamlc
預設值: json
--query

JMESPath 查詢字串。 如需詳細資訊和範例,請參閱 http://jmespath.org/

--subscription

訂用帳戶的名稱或識別碼。 您可以使用 來設定預設訂用 az account set -s NAME_OR_ID帳戶。

--verbose

增加記錄詳細資訊。 使用 --debug 來取得完整偵錯記錄。

az hdinsight-on-aks cluster delete

預覽

命令群組 'az hdinsight-on-aks cluster' 處於預覽狀態,且正在開發中。 參考和支援層級: https://aka.ms/CLI_refstatus

刪除叢集。

az hdinsight-on-aks cluster delete [--cluster-name]
                                   [--cluster-pool-name]
                                   [--ids]
                                   [--no-wait {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--resource-group]
                                   [--subscription]
                                   [--yes]

範例

刪除叢集。

az hdinsight-on-aks cluster delete  -n {clusterName} --cluster-pool-name {poolName} -g {RG}

選擇性參數

--cluster-name --name -n

HDInsight 叢集的名稱。

--cluster-pool-name

叢集集區的名稱。

--ids

一或多個資源識別碼 (以空格分隔)。 它應該是完整資源識別碼,其中包含「資源標識碼」引數的所有資訊。 您應該提供 --ids 或其他「資源識別碼」引數。

--no-wait

請勿等候長時間執行的作業完成。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--resource-group -g

資源群組的名稱。 您可以使用 az configure --defaults group=<name> 來設定預設群組。

--subscription

訂用帳戶的名稱或識別碼。 您可以使用 來設定預設訂用 az account set -s NAME_OR_ID帳戶。

--yes -y

不提示確認。

預設值: False
全域參數
--debug

增加記錄詳細資訊,以顯示所有偵錯記錄。

--help -h

顯示此說明訊息並結束。

--only-show-errors

只顯示錯誤,隱藏警告。

--output -o

輸出格式。

接受的值: json, jsonc, none, table, tsv, yaml, yamlc
預設值: json
--query

JMESPath 查詢字串。 如需詳細資訊和範例,請參閱 http://jmespath.org/

--subscription

訂用帳戶的名稱或識別碼。 您可以使用 來設定預設訂用 az account set -s NAME_OR_ID帳戶。

--verbose

增加記錄詳細資訊。 使用 --debug 來取得完整偵錯記錄。

az hdinsight-on-aks cluster list

預覽

命令群組 'az hdinsight-on-aks cluster' 處於預覽狀態,且正在開發中。 參考和支援層級: https://aka.ms/CLI_refstatus

列出資源群組底下的 HDInsight 叢集集區。

az hdinsight-on-aks cluster list --cluster-pool-name
                                 --resource-group
                                 [--max-items]
                                 [--next-token]

範例

列出叢集集區中的所有叢集。

az hdinsight-on-aks cluster list --cluster-pool-name {poolName}-g {RG}

必要參數

--cluster-pool-name

叢集集區的名稱。

--resource-group -g

資源群組的名稱。 您可以使用 az configure --defaults group=<name> 來設定預設群組。

選擇性參數

--max-items

命令輸出中要傳回的項目總數。 如果可用的專案總數超過指定的值,則會在命令的輸出中提供令牌。 若要繼續分頁,請在後續命令的自變數中 --next-token 提供令牌值。

--next-token

標記,指定要開始分頁的位置。 這是先前截斷回應中的令牌值。

全域參數
--debug

增加記錄詳細資訊,以顯示所有偵錯記錄。

--help -h

顯示此說明訊息並結束。

--only-show-errors

只顯示錯誤,隱藏警告。

--output -o

輸出格式。

接受的值: json, jsonc, none, table, tsv, yaml, yamlc
預設值: json
--query

JMESPath 查詢字串。 如需詳細資訊和範例,請參閱 http://jmespath.org/

--subscription

訂用帳戶的名稱或識別碼。 您可以使用 來設定預設訂用 az account set -s NAME_OR_ID帳戶。

--verbose

增加記錄詳細資訊。 使用 --debug 來取得完整偵錯記錄。

az hdinsight-on-aks cluster list-service-config

預覽

命令群組 'az hdinsight-on-aks cluster' 處於預覽狀態,且正在開發中。 參考和支援層級: https://aka.ms/CLI_refstatus

列出叢集中執行之所有服務的組態傾印。

az hdinsight-on-aks cluster list-service-config --cluster-name
                                                --cluster-pool-name
                                                --resource-group
                                                [--max-items]
                                                [--next-token]

範例

列出叢集中執行之所有服務的組態傾印。

az hdinsight-on-aks cluster list-service-config  --cluster-name {clusterName} --cluster-pool-name {poolName}-g {RG}

必要參數

--cluster-name

HDInsight 叢集的名稱。

--cluster-pool-name

叢集集區的名稱。

--resource-group -g

資源群組的名稱。 您可以使用 az configure --defaults group=<name> 來設定預設群組。

選擇性參數

--max-items

命令輸出中要傳回的項目總數。 如果可用的專案總數超過指定的值,則會在命令的輸出中提供令牌。 若要繼續分頁,請在後續命令的自變數中 --next-token 提供令牌值。

--next-token

標記,指定要開始分頁的位置。 這是先前截斷回應中的令牌值。

全域參數
--debug

增加記錄詳細資訊,以顯示所有偵錯記錄。

--help -h

顯示此說明訊息並結束。

--only-show-errors

只顯示錯誤,隱藏警告。

--output -o

輸出格式。

接受的值: json, jsonc, none, table, tsv, yaml, yamlc
預設值: json
--query

JMESPath 查詢字串。 如需詳細資訊和範例,請參閱 http://jmespath.org/

--subscription

訂用帳戶的名稱或識別碼。 您可以使用 來設定預設訂用 az account set -s NAME_OR_ID帳戶。

--verbose

增加記錄詳細資訊。 使用 --debug 來取得完整偵錯記錄。

az hdinsight-on-aks cluster resize

預覽

命令群組 'az hdinsight-on-aks cluster' 處於預覽狀態,且正在開發中。 參考和支援層級: https://aka.ms/CLI_refstatus

調整現有叢集的大小。

az hdinsight-on-aks cluster resize [--cluster-name]
                                   [--cluster-pool-name]
                                   [--ids]
                                   [--location]
                                   [--no-wait {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--resource-group]
                                   [--subscription]
                                   [--tags]
                                   [--target-worker-node-count]

範例

調整叢集的大小。

az hdinsight-on-aks cluster resize --cluster-name {clusterName} --cluster-pool-name {poolName}-g {RG} -l {westus3} --target-worker-node-count {6}

選擇性參數

--cluster-name

HDInsight 叢集的名稱。

--cluster-pool-name

叢集集區的名稱。

--ids

一或多個資源識別碼 (以空格分隔)。 它應該是完整資源識別碼,其中包含「資源標識碼」引數的所有資訊。 您應該提供 --ids 或其他「資源識別碼」引數。

--location -l

未指定資源所在的地理位置,將會使用資源群組的位置。

--no-wait

請勿等候長時間執行的作業完成。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--resource-group -g

資源群組的名稱。 您可以使用 az configure --defaults group=<name> 來設定預設群組。

--subscription

訂用帳戶的名稱或識別碼。 您可以使用 來設定預設訂用 az account set -s NAME_OR_ID帳戶。

--tags

資源標籤。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。

--target-worker-node-count --worker-node-count

背景工作節點的目標節點計數。

全域參數
--debug

增加記錄詳細資訊,以顯示所有偵錯記錄。

--help -h

顯示此說明訊息並結束。

--only-show-errors

只顯示錯誤,隱藏警告。

--output -o

輸出格式。

接受的值: json, jsonc, none, table, tsv, yaml, yamlc
預設值: json
--query

JMESPath 查詢字串。 如需詳細資訊和範例,請參閱 http://jmespath.org/

--subscription

訂用帳戶的名稱或識別碼。 您可以使用 來設定預設訂用 az account set -s NAME_OR_ID帳戶。

--verbose

增加記錄詳細資訊。 使用 --debug 來取得完整偵錯記錄。

az hdinsight-on-aks cluster show

預覽

命令群組 'az hdinsight-on-aks cluster' 處於預覽狀態,且正在開發中。 參考和支援層級: https://aka.ms/CLI_refstatus

取得 HDInsight 叢集。

az hdinsight-on-aks cluster show [--cluster-name]
                                 [--cluster-pool-name]
                                 [--ids]
                                 [--resource-group]
                                 [--subscription]

範例

取得叢集名稱為的叢集。

az hdinsight-on-aks cluster show  -n {clusterName} --cluster-pool-name {poolName} -g {RG}

選擇性參數

--cluster-name --name -n

HDInsight 叢集的名稱。

--cluster-pool-name

叢集集區的名稱。

--ids

一或多個資源識別碼 (以空格分隔)。 它應該是完整資源識別碼,其中包含「資源標識碼」引數的所有資訊。 您應該提供 --ids 或其他「資源識別碼」引數。

--resource-group -g

資源群組的名稱。 您可以使用 az configure --defaults group=<name> 來設定預設群組。

--subscription

訂用帳戶的名稱或識別碼。 您可以使用 來設定預設訂用 az account set -s NAME_OR_ID帳戶。

全域參數
--debug

增加記錄詳細資訊,以顯示所有偵錯記錄。

--help -h

顯示此說明訊息並結束。

--only-show-errors

只顯示錯誤,隱藏警告。

--output -o

輸出格式。

接受的值: json, jsonc, none, table, tsv, yaml, yamlc
預設值: json
--query

JMESPath 查詢字串。 如需詳細資訊和範例,請參閱 http://jmespath.org/

--subscription

訂用帳戶的名稱或識別碼。 您可以使用 來設定預設訂用 az account set -s NAME_OR_ID帳戶。

--verbose

增加記錄詳細資訊。 使用 --debug 來取得完整偵錯記錄。

az hdinsight-on-aks cluster update

預覽

命令群組 'az hdinsight-on-aks cluster' 處於預覽狀態,且正在開發中。 參考和支援層級: https://aka.ms/CLI_refstatus

更新叢集。

az hdinsight-on-aks cluster update [--add]
                                   [--application-log-std-error-enabled {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--application-log-std-out-enabled {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--assigned-identity-client-id]
                                   [--assigned-identity-id]
                                   [--assigned-identity-object-id]
                                   [--authorization-group-id]
                                   [--authorization-user-id]
                                   [--autoscale-profile-graceful-decommission-timeout]
                                   [--autoscale-profile-type {LoadBased, ScheduleBased}]
                                   [--cluster-name]
                                   [--cluster-pool-name]
                                   [--cluster-version]
                                   [--cooldown-period]
                                   [--coord-debug-port]
                                   [--coord-debug-suspend {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--coordinator-debug-enabled {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--coordinator-high-availability-enabled {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--db-connection-authentication-mode {IdentityAuth, SqlAuth}]
                                   [--deployment-mode {Application, Session}]
                                   [--enable-autoscale {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--enable-la-metrics {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--enable-log-analytics {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--enable-prometheu {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--enable-worker-debug {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--flink-db-auth-mode {IdentityAuth, SqlAuth}]
                                   [--flink-hive-catalog-db-connection-password-secret]
                                   [--flink-hive-catalog-db-connection-url]
                                   [--flink-hive-catalog-db-connection-user-name]
                                   [--flink-storage-key]
                                   [--flink-storage-uri]
                                   [--force-string {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--history-server-cpu]
                                   [--history-server-memory]
                                   [--ids]
                                   [--job-manager-cpu]
                                   [--job-manager-memory]
                                   [--job-spec]
                                   [--kafka-profile]
                                   [--key-vault-id]
                                   [--llap-profile]
                                   [--loadbased-config-max-nodes]
                                   [--loadbased-config-min-nodes]
                                   [--loadbased-config-poll-interval]
                                   [--loadbased-config-scaling-rules]
                                   [--no-wait {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--nodes]
                                   [--num-replicas]
                                   [--oss-version]
                                   [--ranger-plugin-profile]
                                   [--ranger-profile]
                                   [--remove]
                                   [--resource-group]
                                   [--schedule-based-config-default-count]
                                   [--schedule-based-config-schedule]
                                   [--schedule-based-config-time-zone]
                                   [--script-action-profiles]
                                   [--secret-reference]
                                   [--service-configs]
                                   [--set]
                                   [--spark-hive-catalog-db-name]
                                   [--spark-hive-catalog-db-password-secret]
                                   [--spark-hive-catalog-db-server-name]
                                   [--spark-hive-catalog-db-user-name]
                                   [--spark-hive-catalog-key-vault-id]
                                   [--spark-hive-catalog-thrift-url]
                                   [--spark-storage-url]
                                   [--ssh-profile-count]
                                   [--stub-profile]
                                   [--subscription]
                                   [--tags]
                                   [--task-manager-cpu]
                                   [--task-manager-memory]
                                   [--trino-hive-catalog]
                                   [--trino-plugins-spec]
                                   [--trino-profile-user-plugins-telemetry-spec]
                                   [--user-plugins-spec]
                                   [--worker-debug-port]
                                   [--worker-debug-suspend {0, 1, f, false, n, no, t, true, y, yes}]

範例

更新叢集服務組態。

az hdinsight-on-aks cluster update -n {clusterName} --cluster-pool-name {poolName} -g {RG} -service-configs {"[{service-name:yarn-service,configs:[{component:hadoop-config-client,files:[{file-name:yarn-site.xml,values:{yarn.nodemanager.resource.memory-mb:33333}}]}]}]"}

選擇性參數

--add

藉由指定路徑和索引鍵值組,將物件加入物件清單。 範例:--add property.listProperty <key=value、string 或 JSON 字串>。

--application-log-std-error-enabled --enable-log-std-error

如果已啟用應用程式標準錯誤,則為 True,否則為 false。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--application-log-std-out-enabled --enable-log-std-out

如果已啟用應用程式標準輸出,則為 True,否則為 false。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--assigned-identity-client-id --msi-client-id

MSI 的 ClientId。

--assigned-identity-id --msi-id

MSI 的 ResourceId。

--assigned-identity-object-id --msi-object-id

MSI 的 ObjectId。

--authorization-group-id

已獲授權存取數據平面的 AAD 群組識別碼。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。

--authorization-user-id

已獲授權存取數據平面的 AAD 用戶識別碼。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。

--autoscale-profile-graceful-decommission-timeout --decommission-time

此屬性適用於正常解除委任逾時;其預設設定為3600秒,再進行強制關機。 這是將解除委任節點轉換為 DECOMMISSIONED 之前,等待執行容器和應用程式完成的最大時間。 預設值為3600秒。 負值 (例如 -1) 會處理為無限逾時。

--autoscale-profile-type

使用者指定要實作的自動調整類型 - 排程型或負載型。

接受的值: LoadBased, ScheduleBased
--cluster-name --name -n

HDInsight 叢集的名稱。

--cluster-pool-name

叢集集區的名稱。

--cluster-version

3/4 部分的版本。

--cooldown-period --loadbased-config-cooldown-period

這是冷卻期間,這是一個以秒為單位的時間週期,它會決定在規則啟動的調整活動與下一個調整活動的開始之間必須經過的時間量,而不論觸發它的規則為何。 預設值為 300 秒。

--coord-debug-port --coordinator-debug-port

如果啟用偵錯,則為旗標。 默認值:8008。

--coord-debug-suspend --coordinator-debug-suspend

如果暫停偵錯,則為旗標。 預設:false。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--coordinator-debug-enabled --enable-coord-debug

如果啟用協調器HA,則會使用具有自動故障轉移的多個協調器複本,每個前端節點各一個。 預設:false。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--coordinator-high-availability-enabled --enable-coord-ha

如果啟用協調器HA,則會使用具有自動故障轉移的多個協調器複本,每個前端節點各一個。 預設:false。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--db-connection-authentication-mode --spark-db-auth-mode

線上到 Hive 中繼存放區資料庫的驗證模式。 更多詳細數據: https://learn.microsoft.com/en-us/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization

接受的值: IdentityAuth, SqlAuth
--deployment-mode

字串屬性,表示 Flink 叢集的部署模式。 它可以有下列其中一個列舉值 => Application, Session。 預設值為 Session。

接受的值: Application, Session
--enable-autoscale

這表示是否在 AKS 叢集的 HDInsight 上啟用自動調整。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--enable-la-metrics --log-analytic-profile-metrics-enabled

如果已啟用計量,則為 True,否則為 false。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--enable-log-analytics

如果叢集已啟用記錄分析,則為 True,否則為 false。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--enable-prometheu

啟用叢集的 Prometheus。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--enable-worker-debug

如果 Trino 叢集啟用偵錯,則為旗標。 預設:false。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--flink-db-auth-mode --metastore-db-connection-authentication-mode

線上到 Hive 中繼存放區資料庫的驗證模式。 更多詳細數據: https://learn.microsoft.com/en-us/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization

接受的值: IdentityAuth, SqlAuth
--flink-hive-catalog-db-connection-password-secret --flink-hive-db-secret

來自 secretsProfile.secrets 的秘密參考名稱,其中包含資料庫連線的密碼。

--flink-hive-catalog-db-connection-url --flink-hive-db-url

hive 中繼存放區資料庫的 連線 字串。

--flink-hive-catalog-db-connection-user-name --flink-hive-db-user

資料庫連線的用戶名稱。

--flink-storage-key

儲存體 金鑰僅適用於 wasb(s) 記憶體。

--flink-storage-uri

儲存體 用於儲存點和檢查點狀態的帳戶 URI。

--force-string

使用 'set' 或 'add' 時,請保留字串常值,而不是嘗試轉換成 JSON。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--history-server-cpu

記錄伺服器CPU計數。

--history-server-memory

記錄伺服器記憶體大小。

--ids

一或多個資源識別碼 (以空格分隔)。 它應該是完整資源識別碼,其中包含「資源標識碼」引數的所有資訊。 您應該提供 --ids 或其他「資源識別碼」引數。

--job-manager-cpu

作業管理員 CPU 計數。

--job-manager-memory

作業管理員記憶體大小。

--job-spec

應用程式部署模式中 flink 叢集的作業規格。 即使藉由呼叫 RunJob API 來變更作業屬性,規格仍不可變,請使用 ListJob API 來取得最新的作業資訊。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。

--kafka-profile

Kafka 叢集配置檔。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。

--key-vault-id

儲存所有叢集特定用戶密碼的用戶名稱 金鑰保存庫。

--llap-profile

LLAP 叢集配置檔。 支援 json-file 和 yaml-file。

--loadbased-config-max-nodes --loadbased-max-nodes

用戶必須設定以負載為基礎的調整節點數目上限,以負載為基礎的調整將會使用此調整來相應增加和縮小節點數目的最小值和最大數目。

--loadbased-config-min-nodes --loadbased-min-nodes

用戶必須設定以負載為基礎的調整節點數目下限,以負載為基礎的調整將會使用此調整,在節點數目下限和上限之間相應增加和相應減少。

--loadbased-config-poll-interval --loadbased-interval

用戶可以指定輪詢間隔,這是輪詢計量以觸發調整作業的時間週期(以秒為單位)。

--loadbased-config-scaling-rules --loadbased-rules

調整規則。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。

--no-wait

請勿等候長時間執行的作業完成。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--nodes

節點定義。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。

--num-replicas

任務管理員的數目。

--oss-version

具有三個部分的版本。

--ranger-plugin-profile

叢集 Ranger 外掛程式設定檔。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。

--ranger-profile

ranger 叢集配置檔。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。

--remove

從清單中移除屬性或專案。 範例:--remove property.list OR --remove 屬性ToRemove。

--resource-group -g

資源群組的名稱。 您可以使用 az configure --defaults group=<name> 來設定預設群組。

--schedule-based-config-default-count --schedule-default-count

設定目前排程設定的預設節點計數。 默認節點計數會指定執行指定調整作業時預設的節點數目(相應增加/相應減少)。

--schedule-based-config-schedule --schedule-schedules

這會指定要啟用排程型自動調整的排程,用戶可以選擇在排程內跨天數和時間設定多個規則(開始/結束)。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。

--schedule-based-config-time-zone --schedule-time-zone

用戶必須指定排程必須針對以排程為基礎的自動調整設定設定的時區。

--script-action-profiles

文稿動作配置檔清單。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。

--secret-reference

金鑰保存庫 秘密的屬性。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。

--service-configs --service-configs-profiles

服務組態配置檔。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。

--set

指定要設定的屬性路徑和值,以更新物件。 範例:--set property1.property2=。

--spark-hive-catalog-db-name --spark-hive-db-name

資料庫名稱。

--spark-hive-catalog-db-password-secret --spark-hive-db-secret

包含資料庫用戶密碼的秘密名稱。

--spark-hive-catalog-db-server-name --spark-hive-db-server

資料庫伺服器主機。

--spark-hive-catalog-db-user-name --spark-hive-db-user

資料庫用戶名稱。

--spark-hive-catalog-key-vault-id --spark-hive-kv-id

金鑰保存庫資源識別碼。

--spark-hive-catalog-thrift-url --spark-hive-thrift-url

節儉 URL。

--spark-storage-url

默認記憶體 URL。

--ssh-profile-count

每個叢集的SSH Pod 數目。

--stub-profile

存根叢集配置檔。 支援 json-file 和 yaml-file。

--subscription

訂用帳戶的名稱或識別碼。 您可以使用 來設定預設訂用 az account set -s NAME_OR_ID帳戶。

--tags

資源標籤。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。

--task-manager-cpu

任務管理員 CPU 計數。

--task-manager-memory

任務管理器記憶體大小。

--trino-hive-catalog

Hive 目錄選項。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。

--trino-plugins-spec --trino-profile-user-plugins-plugin-spec

Trino 使用者外掛程式規格支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。

--trino-profile-user-plugins-telemetry-spec --trino-telemetry-spec

Trino 用戶遙測規格。支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。

--user-plugins-spec

Spark 使用者外掛程式規格支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。

--worker-debug-port

偵錯埠。 默認值:8008。

--worker-debug-suspend

如果 Trino 叢集暫止偵錯,則為旗標。 預設:false。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
全域參數
--debug

增加記錄詳細資訊,以顯示所有偵錯記錄。

--help -h

顯示此說明訊息並結束。

--only-show-errors

只顯示錯誤,隱藏警告。

--output -o

輸出格式。

接受的值: json, jsonc, none, table, tsv, yaml, yamlc
預設值: json
--query

JMESPath 查詢字串。 如需詳細資訊和範例,請參閱 http://jmespath.org/

--subscription

訂用帳戶的名稱或識別碼。 您可以使用 來設定預設訂用 az account set -s NAME_OR_ID帳戶。

--verbose

增加記錄詳細資訊。 使用 --debug 來取得完整偵錯記錄。

az hdinsight-on-aks cluster wait

預覽

命令群組 'az hdinsight-on-aks cluster' 處於預覽狀態,且正在開發中。 參考和支援層級: https://aka.ms/CLI_refstatus

將 CLI 置於等候狀態,直到符合條件為止。

az hdinsight-on-aks cluster wait [--cluster-name]
                                 [--cluster-pool-name]
                                 [--created]
                                 [--custom]
                                 [--deleted]
                                 [--exists]
                                 [--ids]
                                 [--interval]
                                 [--resource-group]
                                 [--subscription]
                                 [--timeout]
                                 [--updated]

選擇性參數

--cluster-name --name -n

HDInsight 叢集的名稱。

--cluster-pool-name

叢集集區的名稱。

--created

請等候在 'Succeeded' 使用 'provisioningState' 建立。

預設值: False
--custom

等到條件符合自定義 JMESPath 查詢為止。 例如 provisioningState!='InProgress', instanceView.statuses[?code=='PowerState/running']。

--deleted

等到刪除為止。

預設值: False
--exists

等候資源存在。

預設值: False
--ids

一或多個資源識別碼 (以空格分隔)。 它應該是完整資源識別碼,其中包含「資源標識碼」引數的所有資訊。 您應該提供 --ids 或其他「資源識別碼」引數。

--interval

輪詢間隔以秒為單位。

預設值: 30
--resource-group -g

資源群組的名稱。 您可以使用 az configure --defaults group=<name> 來設定預設群組。

--subscription

訂用帳戶的名稱或識別碼。 您可以使用 來設定預設訂用 az account set -s NAME_OR_ID帳戶。

--timeout

以秒為單位的等候上限。

預設值: 3600
--updated

等到 provisioningState 更新為 'Succeeded'。

預設值: False
全域參數
--debug

增加記錄詳細資訊,以顯示所有偵錯記錄。

--help -h

顯示此說明訊息並結束。

--only-show-errors

只顯示錯誤,隱藏警告。

--output -o

輸出格式。

接受的值: json, jsonc, none, table, tsv, yaml, yamlc
預設值: json
--query

JMESPath 查詢字串。 如需詳細資訊和範例,請參閱 http://jmespath.org/

--subscription

訂用帳戶的名稱或識別碼。 您可以使用 來設定預設訂用 az account set -s NAME_OR_ID帳戶。

--verbose

增加記錄詳細資訊。 使用 --debug 來取得完整偵錯記錄。