Condividi tramite


az hdinsight-on-aks cluster

Nota

Questo riferimento fa parte dell'estensione hdinsightonaks per l'interfaccia della riga di comando di Azure (versione 2.57.0 o successiva). L'estensione installerà automaticamente la prima volta che si esegue un comando az hdinsight-on-aks cluster . Altre informazioni sulle estensioni.

Questo gruppo di comandi è in anteprima e in fase di sviluppo. Livelli di riferimento e supporto: https://aka.ms/CLI_refstatus

Operazioni del cluster.

Comandi

Nome Descrizione Tipo Status
az hdinsight-on-aks cluster create

Creare un cluster.

Estensione Anteprima
az hdinsight-on-aks cluster delete

Eliminare un cluster.

Estensione Anteprima
az hdinsight-on-aks cluster instance-view

Ottiene lo stato di un'istanza del cluster.

Estensione Anteprima
az hdinsight-on-aks cluster instance-view list

Elencare gli elenchi delle visualizzazioni dell'istanza.

Estensione Anteprima
az hdinsight-on-aks cluster instance-view show

Ottenere lo stato di un'istanza del cluster.

Estensione Anteprima
az hdinsight-on-aks cluster job

Operazioni del processo del cluster.

Estensione Anteprima
az hdinsight-on-aks cluster job list

Elencare i processi di HDInsight nel cluster del servizio Azure Kubernetes.

Estensione Anteprima
az hdinsight-on-aks cluster job run

Operazioni sui processi di HDInsight nel cluster del servizio Azure Kubernetes.

Estensione Anteprima
az hdinsight-on-aks cluster library

Gestire la libreria del cluster.

Estensione Anteprima
az hdinsight-on-aks cluster library list

Elencare tutte le librerie di HDInsight nel cluster del servizio Azure Kubernetes.

Estensione Anteprima
az hdinsight-on-aks cluster library manage

Operazioni di gestione delle librerie in HDInsight nel cluster del servizio Azure Kubernetes.

Estensione Anteprima
az hdinsight-on-aks cluster list

Elencare i pool di cluster HDInsight in un gruppo di risorse.

Estensione Anteprima
az hdinsight-on-aks cluster list-service-config

Elencare il dump di configurazione di tutti i servizi in esecuzione nel cluster.

Estensione Anteprima
az hdinsight-on-aks cluster node-profile

Gestire il profilo del nodo di calcolo.

Estensione Anteprima
az hdinsight-on-aks cluster node-profile create

Creare un profilo di nodo con SKU e numero di ruoli di lavoro.

Estensione Anteprima
az hdinsight-on-aks cluster resize

Ridimensionare un cluster esistente.

Estensione Anteprima
az hdinsight-on-aks cluster show

Ottenere un cluster HDInsight.

Estensione Anteprima
az hdinsight-on-aks cluster update

Aggiornare un cluster.

Estensione Anteprima
az hdinsight-on-aks cluster upgrade

Aggiornare il cluster.

Estensione Anteprima
az hdinsight-on-aks cluster upgrade history

Elencare un elenco della cronologia degli aggiornamenti.

Estensione Anteprima
az hdinsight-on-aks cluster upgrade list

Elencare gli aggiornamenti disponibili per un cluster.

Estensione Anteprima
az hdinsight-on-aks cluster upgrade rollback

Aggiornamento manuale del rollback per un cluster.

Estensione Anteprima
az hdinsight-on-aks cluster upgrade run

Aggiornare un cluster.

Estensione Anteprima
az hdinsight-on-aks cluster wait

Posizionare l'interfaccia della riga di comando in uno stato di attesa fino a quando non viene soddisfatta una condizione.

Estensione Anteprima

az hdinsight-on-aks cluster create

Anteprima

Il gruppo di comandi 'az hdinsight-on-aks cluster' è in anteprima e in fase di sviluppo. Livelli di riferimento e supporto: https://aka.ms/CLI_refstatus

Creare un cluster.

az hdinsight-on-aks cluster create --cluster-name
                                   --cluster-pool-name
                                   --resource-group
                                   [--application-log-std-error-enabled {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--application-log-std-out-enabled {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--assigned-identity-client-id]
                                   [--assigned-identity-id]
                                   [--assigned-identity-object-id]
                                   [--authorization-group-id]
                                   [--authorization-user-id]
                                   [--autoscale-profile-graceful-decommission-timeout]
                                   [--autoscale-profile-type {LoadBased, ScheduleBased}]
                                   [--availability-zones]
                                   [--cluster-type]
                                   [--cluster-version]
                                   [--cooldown-period]
                                   [--coord-debug-port]
                                   [--coord-debug-suspend {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--coordinator-debug-enabled {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--coordinator-high-availability-enabled {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--db-connection-authentication-mode {IdentityAuth, SqlAuth}]
                                   [--deployment-mode {Application, Session}]
                                   [--enable-autoscale {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--enable-la-metrics {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--enable-log-analytics {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--enable-prometheu {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--enable-worker-debug {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--flink-db-auth-mode {IdentityAuth, SqlAuth}]
                                   [--flink-hive-catalog-db-connection-password-secret]
                                   [--flink-hive-catalog-db-connection-url]
                                   [--flink-hive-catalog-db-connection-user-name]
                                   [--flink-storage-key]
                                   [--flink-storage-uri]
                                   [--history-server-cpu]
                                   [--history-server-memory]
                                   [--identity-list]
                                   [--internal-ingress {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--job-manager-cpu]
                                   [--job-manager-memory]
                                   [--job-spec]
                                   [--kafka-profile]
                                   [--key-vault-id]
                                   [--llap-profile]
                                   [--loadbased-config-max-nodes]
                                   [--loadbased-config-min-nodes]
                                   [--loadbased-config-poll-interval]
                                   [--loadbased-config-scaling-rules]
                                   [--location]
                                   [--no-wait {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--nodes]
                                   [--num-replicas]
                                   [--oss-version]
                                   [--ranger-plugin-profile]
                                   [--ranger-profile]
                                   [--schedule-based-config-default-count]
                                   [--schedule-based-config-schedule]
                                   [--schedule-based-config-time-zone]
                                   [--script-action-profiles]
                                   [--secret-reference]
                                   [--service-configs]
                                   [--spark-hive-catalog-db-name]
                                   [--spark-hive-catalog-db-password-secret]
                                   [--spark-hive-catalog-db-server-name]
                                   [--spark-hive-catalog-db-user-name]
                                   [--spark-hive-catalog-key-vault-id]
                                   [--spark-hive-catalog-thrift-url]
                                   [--spark-storage-url]
                                   [--ssh-profile-count]
                                   [--stub-profile]
                                   [--tags]
                                   [--task-manager-cpu]
                                   [--task-manager-memory]
                                   [--trino-hive-catalog]
                                   [--trino-plugins-spec]
                                   [--trino-profile-user-plugins-telemetry-spec]
                                   [--user-plugins-spec]
                                   [--vm-size]
                                   [--worker-debug-port]
                                   [--worker-debug-suspend {0, 1, f, false, n, no, t, true, y, yes}]

Esempio

Creare un semplice cluster Trino.

az az hdinsight-on-aks cluster create -n {clustername} --cluster-pool-name {clusterpoolname} -g {resourcesGroup} -l {location}--cluster-type trino --cluster-version {1.2.0} --oss-version {0.440.0} --node '[{"count":2,"type":"worker","vm-size":"Standard_D8d_v5"}]' --identity-list '[{"client-id":"00000000-0000-0000-0000-000000000000","object-id":"00000000-0000-0000-0000-000000000000","resource-id":"/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.ManagedIdentity/userAssignedIdentities/yourmsi","type":"cluster"}]' --authorization-user-id "00000000-0000-0000-0000-000000000000"

Creare un semplice cluster Flink.

az hdinsight-on-aks cluster create -n {clustername} --cluster-pool-name {clusterpoolname} -g {resourcesGroup} -l {location}--cluster-type flink --flink-storage-uri {abfs://container@yourstorage.dfs.core.windows.net/} --cluster-version {1.2.0} --oss-version {1.17.0} --node '[{"count":5,"type":"worker","vm-size":"Standard_D8d_v5"}]' --identity-list '[{"client-id":"00000000-0000-0000-0000-000000000000","object-id":"00000000-0000-0000-0000-000000000000","resource-id":"/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.ManagedIdentity/userAssignedIdentities/yourmsi","type":"cluster"}]' --authorization-user-id "00000000-0000-0000-0000-000000000000" --job-manager-cpu {1} --job-manager-memory {2000} --task-manager-cpu {6} --task-manager-memory {49016}

Creare un semplice cluster Spark.

az hdinsight-on-aks cluster create -n {clustername} --cluster-pool-name {clusterpoolname} -g {resourcesGroup} -l {location}--cluster-type spark --spark-storage-url {abfs://container@yourstorage.dfs.core.windows.net/} --cluster-version {1.2.0} --oss-version {3.4.1} --node '[{"count":2,"type":"worker","vm-size":"Standard_D8d_v5"}]' --identity-list '[{"client-id":"00000000-0000-0000-0000-000000000000","object-id":"00000000-0000-0000-0000-000000000000","resource-id":"/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.ManagedIdentity/userAssignedIdentities/yourmsi","type":"cluster"}]' --authorization-user-id "00000000-0000-0000-0000-000000000000"

Creare un semplice cluster Kafka.

az az hdinsight-on-aks cluster create -n {clustername} --cluster-pool-name {clusterpoolname} -g {resourcesGroup} -l {location}--cluster-type kafka --cluster-version {1.2.0} --oss-version {3.6.0} --node '[{"count":2,"type":"worker","vm-size":"Standard_D8d_v5"}]' --identity-list '[{"client-id":"00000000-0000-0000-0000-000000000000","object-id":"00000000-0000-0000-0000-000000000000","resource-id":"/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.ManagedIdentity/userAssignedIdentities/yourmsi","type":"cluster"}]' --authorization-user-id "00000000-0000-0000-0000-000000000000" --kafka-profile '{"disk-storage":{"data-disk-size":8,"data-disk-type":"Standard_SSD_LRS"}}'

Creare un cluster Spark con metastore Hive personalizzato.

az hdinsight-on-aks cluster create -n {clustername} --cluster-pool-name {clusterpoolname} -g {resourcesGroup} -l {location}--cluster-type spark --spark-storage-url {abfs://container@yourstorage.dfs.core.windows.net/} --cluster-version {1.2.0} --oss-version {3.4.1} --node '[{"count":2,"type":"worker","vm-size":"Standard_D8d_v5"}]' --identity-list '[{"client-id":"00000000-0000-0000-0000-000000000000","object-id":"00000000-0000-0000-0000-000000000000","resource-id":"/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.ManagedIdentity/userAssignedIdentities/yourmsi","type":"cluster"}]' --authorization-user-id "00000000-0000-0000-0000-000000000000"  --secret-reference '[{reference-name:sqlpassword,secret-name:sqlpassword,type:Secret}]' --key-vault-id /subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.KeyVault/vaults/CLIKV --spark-hive-kv-id /subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.KeyVault/vaults/CLIKV --spark-db-auth-mode SqlAuth --spark-hive-db-name {sparkhms} --spark-hive-db-secret {sqlpassword} --spark-hive-db-server {yourserver.database.windows.net} --spark-hive-db-user {username}

Creare un cluster Flink con zone di disponibilità.

az hdinsight-on-aks cluster create -n {clustername} --cluster-pool-name {clusterpoolname} -g {resourcesGroup} -l {location}--cluster-type flink --flink-storage-uri {abfs://container@yourstorage.dfs.core.windows.net/} --cluster-version {1.2.0} --oss-version {1.17.0} --node '[{"count":5,"type":"worker","vm-size":"Standard_D8d_v5"}]' --identity-list '[{"client-id":"00000000-0000-0000-0000-000000000000","object-id":"00000000-0000-0000-0000-000000000000","resource-id":"/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.ManagedIdentity/userAssignedIdentities/yourmsi","type":"cluster"}]' --authorization-user-id "00000000-0000-0000-0000-000000000000" --job-manager-cpu {1} --job-manager-memory {2000} --task-manager-cpu {6} --task-manager-memory {49016} --availability-zones [1,2]

Parametri necessari

--cluster-name --name -n

nome del cluster HDInsight.

--cluster-pool-name

Nome del pool di cluster.

--resource-group -g

Nome del gruppo di risorse. È possibile configurare il gruppo predefinito con az configure --defaults group=<name>.

Parametri facoltativi

--application-log-std-error-enabled --enable-log-std-error

True se l'errore standard dell'applicazione è abilitato; in caso contrario, false.

Valori accettati: 0, 1, f, false, n, no, t, true, y, yes
--application-log-std-out-enabled --enable-log-std-out

True se lo standard dell'applicazione è abilitato; in caso contrario, false.

Valori accettati: 0, 1, f, false, n, no, t, true, y, yes
--assigned-identity-client-id --msi-client-id

ClientId dell'identità del servizio gestito.

--assigned-identity-id --msi-id

ResourceId dell'identità del servizio gestito.

--assigned-identity-object-id --msi-object-id

ObjectId dell'identità del servizio gestito.

--authorization-group-id

ID gruppo AAD autorizzati per l'accesso al piano dati. Supportare la sintassi abbreviata, json-file e yaml-file. Prova "??" per mostrare di più.

--authorization-user-id

ID utente di AAD autorizzati per l'accesso al piano dati. Supportare la sintassi abbreviata, json-file e yaml-file. Prova "??" per mostrare di più.

--autoscale-profile-graceful-decommission-timeout --decommission-time

Questa proprietà è per il timeout delle autorizzazioni normale; Ha un'impostazione predefinita di 3600 secondi prima dell'arresto forzato. Questo è il tempo massimo di attesa per il completamento dei contenitori e delle applicazioni in esecuzione prima della transizione di un nodo DECOMMISSIONING in DECOMMISSIONED. Il valore predefinito è 3600 secondi. Il valore negativo (ad esempio -1) viene gestito come timeout infinito.

--autoscale-profile-type

Utente per specificare il tipo di scalabilità automatica da implementare: basato su base pianificata o basata sul carico.

Valori accettati: LoadBased, ScheduleBased
--availability-zones

Elenco delle zone di disponibilità da usare per i nodi del set di scalabilità di macchine virtuali del servizio Azure Kubernetes. Supportare la sintassi abbreviata, json-file e yaml-file. Prova "??" per mostrare di più.

--cluster-type

Tipo di cluster.

--cluster-version

Versione con 3/4 parte.

--cooldown-period --loadbased-config-cooldown-period

Si tratta di un periodo di raffreddamento, ovvero un periodo di tempo in secondi, che determina la quantità di tempo che deve trascorrere tra un'attività di ridimensionamento avviata da una regola e l'inizio dell'attività di ridimensionamento successiva, indipendentemente dalla regola che lo attiva. Il valore predefinito è 300 secondi.

--coord-debug-port --coordinator-debug-port

Flag che se abilita o meno il debug. Impostazione predefinita: 8008.

--coord-debug-suspend --coordinator-debug-suspend

Flag che se sospende o meno il debug. Valore predefinito: false.

Valori accettati: 0, 1, f, false, n, no, t, true, y, yes
--coordinator-debug-enabled --enable-coord-debug

Flag che, se abilita la disponibilità elevata coordinatore, usa più repliche coordinatore con failover automatico, una per ogni nodo head. Valore predefinito: false.

Valori accettati: 0, 1, f, false, n, no, t, true, y, yes
--coordinator-high-availability-enabled --enable-coord-ha

Flag che, se abilita la disponibilità elevata coordinatore, usa più repliche coordinatore con failover automatico, una per ogni nodo head. Valore predefinito: false.

Valori accettati: 0, 1, f, false, n, no, t, true, y, yes
--db-connection-authentication-mode --spark-db-auth-mode

Modalità di autenticazione per connettersi al database metastore Hive. Altri dettagli: https://learn.microsoft.com/en-us/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization.

Valori accettati: IdentityAuth, SqlAuth
--deployment-mode

Proprietà stringa che indica la modalità di distribuzione del cluster Flink. Può avere uno dei valori di enumerazione seguenti => Applicazione, Sessione. Il valore predefinito è Session.

Valori accettati: Application, Session
--enable-autoscale

Indica se la scalabilità automatica è abilitata in HDInsight nel cluster del servizio Azure Kubernetes.

Valori accettati: 0, 1, f, false, n, no, t, true, y, yes
--enable-la-metrics --log-analytic-profile-metrics-enabled

True se le metriche sono abilitate; in caso contrario, false.

Valori accettati: 0, 1, f, false, n, no, t, true, y, yes
--enable-log-analytics

True se Log Analytics è abilitato per il cluster; in caso contrario, false.

Valori accettati: 0, 1, f, false, n, no, t, true, y, yes
--enable-prometheu

Abilitare Prometheus per il cluster o meno.

Valori accettati: 0, 1, f, false, n, no, t, true, y, yes
Valore predefinito: False
--enable-worker-debug

Flag che se il cluster trino abilita o meno il debug. Valore predefinito: false.

Valori accettati: 0, 1, f, false, n, no, t, true, y, yes
--flink-db-auth-mode --metastore-db-connection-authentication-mode

Modalità di autenticazione per connettersi al database metastore Hive. Altri dettagli: https://learn.microsoft.com/en-us/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization.

Valori accettati: IdentityAuth, SqlAuth
--flink-hive-catalog-db-connection-password-secret --flink-hive-db-secret

Nome di riferimento segreto da secretsProfile.secrets contenente la password per la connessione al database.

--flink-hive-catalog-db-connection-url --flink-hive-db-url

Stringa di connessione per il database metastore Hive.

--flink-hive-catalog-db-connection-user-name --flink-hive-db-user

Nome utente per la connessione al database.

--flink-storage-key

La chiave di archiviazione è necessaria solo per l'archiviazione wasb.storage key is only required for wasb/s storage.

--flink-storage-uri

URI dell'account di archiviazione usato per lo stato del punto di salvataggio e del checkpoint.

--history-server-cpu

Conteggio CPU server cronologia.

--history-server-memory

Dimensioni della memoria del server cronologia.

--identity-list

Elenco di identità gestite. Supportare la sintassi abbreviata, json-file e yaml-file. Prova "??" per mostrare di più.

--internal-ingress --internal-ingress-enabled

Indica se creare un cluster usando un indirizzo IP privato anziché un indirizzo IP pubblico. Questa proprietà deve essere impostata in fase di creazione.

Valori accettati: 0, 1, f, false, n, no, t, true, y, yes
--job-manager-cpu

Conteggio CPU del gestore processi.

--job-manager-memory

Dimensioni della memoria del gestore processi.

--job-spec

Specifiche dei processi per i cluster flink in modalità di distribuzione dell'applicazione. La specifica non è modificabile anche se le proprietà del processo vengono modificate chiamando l'API RunJob, usare l'API ListJob per ottenere le informazioni più recenti sul processo. Supportare la sintassi abbreviata, json-file e yaml-file. Prova "??" per mostrare di più.

--kafka-profile

Profilo del cluster Kafka. Supportare la sintassi abbreviata, json-file e yaml-file. Prova "??" per mostrare di più.

--key-vault-id

Nome dell'insieme di credenziali delle chiavi dell'utente in cui sono archiviati tutti i segreti utente specifici del cluster.

--llap-profile

Profilo del cluster LLAP. Supporto di json-file e yaml-file.

--loadbased-config-max-nodes --loadbased-max-nodes

L'utente deve impostare il numero massimo di nodi per il ridimensionamento basato sul carico, il ridimensionamento basato sul carico userà questa opzione per aumentare e ridurre le prestazioni tra il numero minimo e il numero massimo di nodi.

--loadbased-config-min-nodes --loadbased-min-nodes

L'utente deve impostare il numero minimo di nodi per il ridimensionamento basato sul carico, il ridimensionamento basato sul carico userà questa opzione per aumentare e ridurre le prestazioni tra il numero minimo e il numero massimo di nodi.

--loadbased-config-poll-interval --loadbased-interval

L'utente può specificare l'intervallo di polling, ovvero il periodo di tempo (in secondi) dopo il quale viene eseguito il polling delle metriche di ridimensionamento per l'attivazione di un'operazione di ridimensionamento.

--loadbased-config-scaling-rules --loadbased-rules

Regole di ridimensionamento. Supportare la sintassi abbreviata, json-file e yaml-file. Prova "??" per mostrare di più.

--location -l

Posizione geografica in cui si trova la risorsa Se non specificato, verrà usata la posizione del gruppo di risorse.

--no-wait

Indica che non è necessario attendere il termine dell'operazione a esecuzione prolungata.

Valori accettati: 0, 1, f, false, n, no, t, true, y, yes
--nodes

Definizioni di nodi. Supportare la sintassi abbreviata, json-file e yaml-file. Prova "??" per mostrare di più.

--num-replicas

Numero di task manager.

--oss-version

Versione con tre parti.

--ranger-plugin-profile

Profilo del plug-in Cluster Ranger. Supportare la sintassi abbreviata, json-file e yaml-file. Prova "??" per mostrare di più.

--ranger-profile

Profilo del cluster ranger. Supportare la sintassi abbreviata, json-file e yaml-file. Prova "??" per mostrare di più.

--schedule-based-config-default-count --schedule-default-count

Impostazione del numero di nodi predefinito della configurazione della pianificazione corrente. Il numero di nodi predefinito specifica il numero di nodi predefiniti quando viene eseguita un'operazione di ridimensionamento specificata (aumento/riduzione delle prestazioni).

--schedule-based-config-schedule --schedule-schedules

Specifica le pianificazioni in cui abilitare la scalabilità automatica pianificata, l'utente ha la possibilità di impostare più regole all'interno della pianificazione tra giorni e ore (inizio/fine). Supportare la sintassi abbreviata, json-file e yaml-file. Prova "??" per mostrare di più.

--schedule-based-config-time-zone --schedule-time-zone

L'utente deve specificare il fuso orario in cui deve essere impostata la pianificazione per la configurazione della scalabilità automatica basata sulla pianificazione.

--script-action-profiles

Elenco dei profili di azione script. Supportare la sintassi abbreviata, json-file e yaml-file. Prova "??" per mostrare di più.

--secret-reference

Proprietà del segreto dell'insieme di credenziali delle chiavi. Supportare la sintassi abbreviata, json-file e yaml-file. Prova "??" per mostrare di più.

--service-configs --service-configs-profiles

Profili di configurazione del servizio. Supportare la sintassi abbreviata, json-file e yaml-file. Prova "??" per mostrare di più.

--spark-hive-catalog-db-name --spark-hive-db-name

Nome del database.

--spark-hive-catalog-db-password-secret --spark-hive-db-secret

Nome del segreto che contiene la password utente del database.

--spark-hive-catalog-db-server-name --spark-hive-db-server

Host del server di database.

--spark-hive-catalog-db-user-name --spark-hive-db-user

Nome utente del database.

--spark-hive-catalog-key-vault-id --spark-hive-kv-id

ID risorsa dell'insieme di credenziali delle chiavi.

--spark-hive-catalog-thrift-url --spark-hive-thrift-url

URL thrift.

--spark-storage-url

URL di archiviazione predefinito.

--ssh-profile-count

Numero di pod SSH per cluster.

--stub-profile

Profilo del cluster Stub. Supporto di json-file e yaml-file.

--tags

Tag di risorsa. Supportare la sintassi abbreviata, json-file e yaml-file. Prova "??" per mostrare di più.

--task-manager-cpu

Conteggio CPU del gestore attività.

--task-manager-memory

Dimensioni della memoria di Gestione attività.

--trino-hive-catalog

Opzioni del catalogo Hive del cluster Trino. Supportare la sintassi abbreviata, json-file e yaml-file. Prova "??" per mostrare di più.

--trino-plugins-spec --trino-profile-user-plugins-plugin-spec

Specifica plug-in utente Trino Supporto sintassi abbreviata, json-file e yaml-file. Prova "??" per mostrare di più.

--trino-profile-user-plugins-telemetry-spec --trino-telemetry-spec

Specifica di telemetria dell'utente Trino. Supportare la sintassi abbreviata, json-file e yaml-file. Prova "??" per mostrare di più.

--user-plugins-spec

Specifica plug-in utente Spark Supporto sintassi abbreviata, json-file e yaml-file. Prova "??" per mostrare di più.

--vm-size

SKU della macchina virtuale.

--worker-debug-port

Porta di debug. Impostazione predefinita: 8008.

--worker-debug-suspend

Flag che, se il cluster trino sospende o meno il debug. Valore predefinito: false.

Valori accettati: 0, 1, f, false, n, no, t, true, y, yes
Parametri globali
--debug

Aumenta il livello di dettaglio della registrazione per mostrare tutti i log di debug.

--help -h

Visualizza questo messaggio della guida ed esce.

--only-show-errors

Mostra solo gli errori, eliminando gli avvisi.

--output -o

Formato di output.

Valori accettati: json, jsonc, none, table, tsv, yaml, yamlc
Valore predefinito: json
--query

Stringa di query JMESPath. Per altre informazioni ed esempi, vedere http://jmespath.org/.

--subscription

Nome o ID della sottoscrizione. È possibile configurare la posizione predefinito usando az account set -s NAME_OR_ID.

--verbose

Aumenta il livello di dettaglio della registrazione. Usare --debug per log di debug completi.

az hdinsight-on-aks cluster delete

Anteprima

Il gruppo di comandi 'az hdinsight-on-aks cluster' è in anteprima e in fase di sviluppo. Livelli di riferimento e supporto: https://aka.ms/CLI_refstatus

Eliminare un cluster.

az hdinsight-on-aks cluster delete [--cluster-name]
                                   [--cluster-pool-name]
                                   [--ids]
                                   [--no-wait {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--resource-group]
                                   [--subscription]
                                   [--yes]

Esempio

Eliminare un cluster.

az hdinsight-on-aks cluster delete  -n {clusterName} --cluster-pool-name {poolName} -g {RG}

Parametri facoltativi

--cluster-name --name -n

nome del cluster HDInsight.

--cluster-pool-name

Nome del pool di cluster.

--ids

Uno o più ID della risorsa (delimitato da spazio). Deve essere un ID risorsa completo contenente tutte le informazioni degli argomenti 'ID risorsa'. È necessario specificare --ids o altri argomenti 'ID risorsa'.

--no-wait

Indica che non è necessario attendere il termine dell'operazione a esecuzione prolungata.

Valori accettati: 0, 1, f, false, n, no, t, true, y, yes
--resource-group -g

Nome del gruppo di risorse. È possibile configurare il gruppo predefinito con az configure --defaults group=<name>.

--subscription

Nome o ID della sottoscrizione. È possibile configurare la posizione predefinito usando az account set -s NAME_OR_ID.

--yes -y

Indica che non è richiesta la conferma.

Valore predefinito: False
Parametri globali
--debug

Aumenta il livello di dettaglio della registrazione per mostrare tutti i log di debug.

--help -h

Visualizza questo messaggio della guida ed esce.

--only-show-errors

Mostra solo gli errori, eliminando gli avvisi.

--output -o

Formato di output.

Valori accettati: json, jsonc, none, table, tsv, yaml, yamlc
Valore predefinito: json
--query

Stringa di query JMESPath. Per altre informazioni ed esempi, vedere http://jmespath.org/.

--subscription

Nome o ID della sottoscrizione. È possibile configurare la posizione predefinito usando az account set -s NAME_OR_ID.

--verbose

Aumenta il livello di dettaglio della registrazione. Usare --debug per log di debug completi.

az hdinsight-on-aks cluster list

Anteprima

Il gruppo di comandi 'az hdinsight-on-aks cluster' è in anteprima e in fase di sviluppo. Livelli di riferimento e supporto: https://aka.ms/CLI_refstatus

Elencare i pool di cluster HDInsight in un gruppo di risorse.

az hdinsight-on-aks cluster list --cluster-pool-name
                                 --resource-group
                                 [--max-items]
                                 [--next-token]

Esempio

Elencare tutti i cluster in un pool di cluster.

az hdinsight-on-aks cluster list --cluster-pool-name {poolName}-g {RG}

Parametri necessari

--cluster-pool-name

Nome del pool di cluster.

--resource-group -g

Nome del gruppo di risorse. È possibile configurare il gruppo predefinito con az configure --defaults group=<name>.

Parametri facoltativi

--max-items

Numero totale di elementi da restituire nell'output del comando. Se il numero totale di elementi disponibili è maggiore del valore specificato, nell'output del comando viene fornito un token. Per riprendere la paginazione, specificare il valore del token nell'argomento --next-token di un comando successivo.

--next-token

Token per specificare dove iniziare la paginazione. Si tratta del valore del token di una risposta troncata in precedenza.

Parametri globali
--debug

Aumenta il livello di dettaglio della registrazione per mostrare tutti i log di debug.

--help -h

Visualizza questo messaggio della guida ed esce.

--only-show-errors

Mostra solo gli errori, eliminando gli avvisi.

--output -o

Formato di output.

Valori accettati: json, jsonc, none, table, tsv, yaml, yamlc
Valore predefinito: json
--query

Stringa di query JMESPath. Per altre informazioni ed esempi, vedere http://jmespath.org/.

--subscription

Nome o ID della sottoscrizione. È possibile configurare la posizione predefinito usando az account set -s NAME_OR_ID.

--verbose

Aumenta il livello di dettaglio della registrazione. Usare --debug per log di debug completi.

az hdinsight-on-aks cluster list-service-config

Anteprima

Il gruppo di comandi 'az hdinsight-on-aks cluster' è in anteprima e in fase di sviluppo. Livelli di riferimento e supporto: https://aka.ms/CLI_refstatus

Elencare il dump di configurazione di tutti i servizi in esecuzione nel cluster.

az hdinsight-on-aks cluster list-service-config --cluster-name
                                                --cluster-pool-name
                                                --resource-group
                                                [--max-items]
                                                [--next-token]

Esempio

Elenca il dump di configurazione di tutti i servizi in esecuzione nel cluster.

az hdinsight-on-aks cluster list-service-config  --cluster-name {clusterName} --cluster-pool-name {poolName}-g {RG}

Parametri necessari

--cluster-name

nome del cluster HDInsight.

--cluster-pool-name

Nome del pool di cluster.

--resource-group -g

Nome del gruppo di risorse. È possibile configurare il gruppo predefinito con az configure --defaults group=<name>.

Parametri facoltativi

--max-items

Numero totale di elementi da restituire nell'output del comando. Se il numero totale di elementi disponibili è maggiore del valore specificato, nell'output del comando viene fornito un token. Per riprendere la paginazione, specificare il valore del token nell'argomento --next-token di un comando successivo.

--next-token

Token per specificare dove iniziare la paginazione. Si tratta del valore del token di una risposta troncata in precedenza.

Parametri globali
--debug

Aumenta il livello di dettaglio della registrazione per mostrare tutti i log di debug.

--help -h

Visualizza questo messaggio della guida ed esce.

--only-show-errors

Mostra solo gli errori, eliminando gli avvisi.

--output -o

Formato di output.

Valori accettati: json, jsonc, none, table, tsv, yaml, yamlc
Valore predefinito: json
--query

Stringa di query JMESPath. Per altre informazioni ed esempi, vedere http://jmespath.org/.

--subscription

Nome o ID della sottoscrizione. È possibile configurare la posizione predefinito usando az account set -s NAME_OR_ID.

--verbose

Aumenta il livello di dettaglio della registrazione. Usare --debug per log di debug completi.

az hdinsight-on-aks cluster resize

Anteprima

Il gruppo di comandi 'az hdinsight-on-aks cluster' è in anteprima e in fase di sviluppo. Livelli di riferimento e supporto: https://aka.ms/CLI_refstatus

Ridimensionare un cluster esistente.

az hdinsight-on-aks cluster resize [--cluster-name]
                                   [--cluster-pool-name]
                                   [--ids]
                                   [--location]
                                   [--no-wait {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--resource-group]
                                   [--subscription]
                                   [--tags]
                                   [--target-worker-node-count]

Esempio

Ridimensionare un cluster.

az hdinsight-on-aks cluster resize --cluster-name {clusterName} --cluster-pool-name {poolName}-g {RG} -l {westus3} --target-worker-node-count {6}

Parametri facoltativi

--cluster-name

nome del cluster HDInsight.

--cluster-pool-name

Nome del pool di cluster.

--ids

Uno o più ID della risorsa (delimitato da spazio). Deve essere un ID risorsa completo contenente tutte le informazioni degli argomenti 'ID risorsa'. È necessario specificare --ids o altri argomenti 'ID risorsa'.

--location -l

Posizione geografica in cui si trova la risorsa Se non specificato, verrà usata la posizione del gruppo di risorse.

--no-wait

Indica che non è necessario attendere il termine dell'operazione a esecuzione prolungata.

Valori accettati: 0, 1, f, false, n, no, t, true, y, yes
--resource-group -g

Nome del gruppo di risorse. È possibile configurare il gruppo predefinito con az configure --defaults group=<name>.

--subscription

Nome o ID della sottoscrizione. È possibile configurare la posizione predefinito usando az account set -s NAME_OR_ID.

--tags

Tag di risorsa. Supportare la sintassi abbreviata, json-file e yaml-file. Prova "??" per mostrare di più.

--target-worker-node-count --worker-node-count

Numero di nodi di destinazione del nodo di lavoro.

Parametri globali
--debug

Aumenta il livello di dettaglio della registrazione per mostrare tutti i log di debug.

--help -h

Visualizza questo messaggio della guida ed esce.

--only-show-errors

Mostra solo gli errori, eliminando gli avvisi.

--output -o

Formato di output.

Valori accettati: json, jsonc, none, table, tsv, yaml, yamlc
Valore predefinito: json
--query

Stringa di query JMESPath. Per altre informazioni ed esempi, vedere http://jmespath.org/.

--subscription

Nome o ID della sottoscrizione. È possibile configurare la posizione predefinito usando az account set -s NAME_OR_ID.

--verbose

Aumenta il livello di dettaglio della registrazione. Usare --debug per log di debug completi.

az hdinsight-on-aks cluster show

Anteprima

Il gruppo di comandi 'az hdinsight-on-aks cluster' è in anteprima e in fase di sviluppo. Livelli di riferimento e supporto: https://aka.ms/CLI_refstatus

Ottenere un cluster HDInsight.

az hdinsight-on-aks cluster show [--cluster-name]
                                 [--cluster-pool-name]
                                 [--ids]
                                 [--resource-group]
                                 [--subscription]

Esempio

Ottenere un cluster con il nome del cluster.

az hdinsight-on-aks cluster show  -n {clusterName} --cluster-pool-name {poolName} -g {RG}

Parametri facoltativi

--cluster-name --name -n

nome del cluster HDInsight.

--cluster-pool-name

Nome del pool di cluster.

--ids

Uno o più ID della risorsa (delimitato da spazio). Deve essere un ID risorsa completo contenente tutte le informazioni degli argomenti 'ID risorsa'. È necessario specificare --ids o altri argomenti 'ID risorsa'.

--resource-group -g

Nome del gruppo di risorse. È possibile configurare il gruppo predefinito con az configure --defaults group=<name>.

--subscription

Nome o ID della sottoscrizione. È possibile configurare la posizione predefinito usando az account set -s NAME_OR_ID.

Parametri globali
--debug

Aumenta il livello di dettaglio della registrazione per mostrare tutti i log di debug.

--help -h

Visualizza questo messaggio della guida ed esce.

--only-show-errors

Mostra solo gli errori, eliminando gli avvisi.

--output -o

Formato di output.

Valori accettati: json, jsonc, none, table, tsv, yaml, yamlc
Valore predefinito: json
--query

Stringa di query JMESPath. Per altre informazioni ed esempi, vedere http://jmespath.org/.

--subscription

Nome o ID della sottoscrizione. È possibile configurare la posizione predefinito usando az account set -s NAME_OR_ID.

--verbose

Aumenta il livello di dettaglio della registrazione. Usare --debug per log di debug completi.

az hdinsight-on-aks cluster update

Anteprima

Il gruppo di comandi 'az hdinsight-on-aks cluster' è in anteprima e in fase di sviluppo. Livelli di riferimento e supporto: https://aka.ms/CLI_refstatus

Aggiornare un cluster.

az hdinsight-on-aks cluster update [--add]
                                   [--application-log-std-error-enabled {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--application-log-std-out-enabled {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--assigned-identity-client-id]
                                   [--assigned-identity-id]
                                   [--assigned-identity-object-id]
                                   [--authorization-group-id]
                                   [--authorization-user-id]
                                   [--autoscale-profile-graceful-decommission-timeout]
                                   [--autoscale-profile-type {LoadBased, ScheduleBased}]
                                   [--availability-zones]
                                   [--cluster-name]
                                   [--cluster-pool-name]
                                   [--cluster-version]
                                   [--cooldown-period]
                                   [--coord-debug-port]
                                   [--coord-debug-suspend {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--coordinator-debug-enabled {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--coordinator-high-availability-enabled {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--db-connection-authentication-mode {IdentityAuth, SqlAuth}]
                                   [--deployment-mode {Application, Session}]
                                   [--enable-autoscale {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--enable-la-metrics {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--enable-log-analytics {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--enable-prometheu {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--enable-worker-debug {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--flink-db-auth-mode {IdentityAuth, SqlAuth}]
                                   [--flink-hive-catalog-db-connection-password-secret]
                                   [--flink-hive-catalog-db-connection-url]
                                   [--flink-hive-catalog-db-connection-user-name]
                                   [--flink-storage-key]
                                   [--flink-storage-uri]
                                   [--force-string {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--history-server-cpu]
                                   [--history-server-memory]
                                   [--identity-list]
                                   [--ids]
                                   [--job-manager-cpu]
                                   [--job-manager-memory]
                                   [--job-spec]
                                   [--kafka-profile]
                                   [--key-vault-id]
                                   [--llap-profile]
                                   [--loadbased-config-max-nodes]
                                   [--loadbased-config-min-nodes]
                                   [--loadbased-config-poll-interval]
                                   [--loadbased-config-scaling-rules]
                                   [--no-wait {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--nodes]
                                   [--num-replicas]
                                   [--oss-version]
                                   [--ranger-plugin-profile]
                                   [--ranger-profile]
                                   [--remove]
                                   [--resource-group]
                                   [--schedule-based-config-default-count]
                                   [--schedule-based-config-schedule]
                                   [--schedule-based-config-time-zone]
                                   [--script-action-profiles]
                                   [--secret-reference]
                                   [--service-configs]
                                   [--set]
                                   [--spark-hive-catalog-db-name]
                                   [--spark-hive-catalog-db-password-secret]
                                   [--spark-hive-catalog-db-server-name]
                                   [--spark-hive-catalog-db-user-name]
                                   [--spark-hive-catalog-key-vault-id]
                                   [--spark-hive-catalog-thrift-url]
                                   [--spark-storage-url]
                                   [--ssh-profile-count]
                                   [--stub-profile]
                                   [--subscription]
                                   [--tags]
                                   [--task-manager-cpu]
                                   [--task-manager-memory]
                                   [--trino-hive-catalog]
                                   [--trino-plugins-spec]
                                   [--trino-profile-user-plugins-telemetry-spec]
                                   [--user-plugins-spec]
                                   [--vm-size]
                                   [--worker-debug-port]
                                   [--worker-debug-suspend {0, 1, f, false, n, no, t, true, y, yes}]

Esempio

Aggiornare un cluster service-config.

az hdinsight-on-aks cluster update -n {clusterName} --cluster-pool-name {poolName} -g {RG} -service-configs {"[{service-name:yarn-service,configs:[{component:hadoop-config-client,files:[{file-name:yarn-site.xml,values:{yarn.nodemanager.resource.memory-mb:33333}}]}]}]"}

Parametri facoltativi

--add

Aggiungere un oggetto a un elenco di oggetti specificando un percorso e coppie chiave-valore. Esempio: --add property.listProperty <key=value, stringa o stringa> JSON.

--application-log-std-error-enabled --enable-log-std-error

True se l'errore standard dell'applicazione è abilitato; in caso contrario, false.

Valori accettati: 0, 1, f, false, n, no, t, true, y, yes
--application-log-std-out-enabled --enable-log-std-out

True se lo standard dell'applicazione è abilitato; in caso contrario, false.

Valori accettati: 0, 1, f, false, n, no, t, true, y, yes
--assigned-identity-client-id --msi-client-id

ClientId dell'identità del servizio gestito.

--assigned-identity-id --msi-id

ResourceId dell'identità del servizio gestito.

--assigned-identity-object-id --msi-object-id

ObjectId dell'identità del servizio gestito.

--authorization-group-id

ID gruppo AAD autorizzati per l'accesso al piano dati. Supportare la sintassi abbreviata, json-file e yaml-file. Prova "??" per mostrare di più.

--authorization-user-id

ID utente di AAD autorizzati per l'accesso al piano dati. Supportare la sintassi abbreviata, json-file e yaml-file. Prova "??" per mostrare di più.

--autoscale-profile-graceful-decommission-timeout --decommission-time

Questa proprietà è per il timeout delle autorizzazioni normale; Ha un'impostazione predefinita di 3600 secondi prima dell'arresto forzato. Questo è il tempo massimo di attesa per il completamento dei contenitori e delle applicazioni in esecuzione prima della transizione di un nodo DECOMMISSIONING in DECOMMISSIONED. Il valore predefinito è 3600 secondi. Il valore negativo (ad esempio -1) viene gestito come timeout infinito.

--autoscale-profile-type

Utente per specificare il tipo di scalabilità automatica da implementare: basato su base pianificata o basata sul carico.

Valori accettati: LoadBased, ScheduleBased
--availability-zones

Elenco delle zone di disponibilità da usare per i nodi del set di scalabilità di macchine virtuali del servizio Azure Kubernetes. Supportare la sintassi abbreviata, json-file e yaml-file. Prova "??" per mostrare di più.

--cluster-name --name -n

nome del cluster HDInsight.

--cluster-pool-name

Nome del pool di cluster.

--cluster-version

Versione con 3/4 parte.

--cooldown-period --loadbased-config-cooldown-period

Si tratta di un periodo di raffreddamento, ovvero un periodo di tempo in secondi, che determina la quantità di tempo che deve trascorrere tra un'attività di ridimensionamento avviata da una regola e l'inizio dell'attività di ridimensionamento successiva, indipendentemente dalla regola che lo attiva. Il valore predefinito è 300 secondi.

--coord-debug-port --coordinator-debug-port

Flag che se abilita o meno il debug. Impostazione predefinita: 8008.

--coord-debug-suspend --coordinator-debug-suspend

Flag che se sospende o meno il debug. Valore predefinito: false.

Valori accettati: 0, 1, f, false, n, no, t, true, y, yes
--coordinator-debug-enabled --enable-coord-debug

Flag che, se abilita la disponibilità elevata coordinatore, usa più repliche coordinatore con failover automatico, una per ogni nodo head. Valore predefinito: false.

Valori accettati: 0, 1, f, false, n, no, t, true, y, yes
--coordinator-high-availability-enabled --enable-coord-ha

Flag che, se abilita la disponibilità elevata coordinatore, usa più repliche coordinatore con failover automatico, una per ogni nodo head. Valore predefinito: false.

Valori accettati: 0, 1, f, false, n, no, t, true, y, yes
--db-connection-authentication-mode --spark-db-auth-mode

Modalità di autenticazione per connettersi al database metastore Hive. Altri dettagli: https://learn.microsoft.com/en-us/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization.

Valori accettati: IdentityAuth, SqlAuth
--deployment-mode

Proprietà stringa che indica la modalità di distribuzione del cluster Flink. Può avere uno dei valori di enumerazione seguenti => Applicazione, Sessione. Il valore predefinito è Session.

Valori accettati: Application, Session
--enable-autoscale

Indica se la scalabilità automatica è abilitata in HDInsight nel cluster del servizio Azure Kubernetes.

Valori accettati: 0, 1, f, false, n, no, t, true, y, yes
--enable-la-metrics --log-analytic-profile-metrics-enabled

True se le metriche sono abilitate; in caso contrario, false.

Valori accettati: 0, 1, f, false, n, no, t, true, y, yes
--enable-log-analytics

True se Log Analytics è abilitato per il cluster; in caso contrario, false.

Valori accettati: 0, 1, f, false, n, no, t, true, y, yes
--enable-prometheu

Abilitare Prometheus per il cluster o meno.

Valori accettati: 0, 1, f, false, n, no, t, true, y, yes
--enable-worker-debug

Flag che se il cluster trino abilita o meno il debug. Valore predefinito: false.

Valori accettati: 0, 1, f, false, n, no, t, true, y, yes
--flink-db-auth-mode --metastore-db-connection-authentication-mode

Modalità di autenticazione per connettersi al database metastore Hive. Altri dettagli: https://learn.microsoft.com/en-us/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization.

Valori accettati: IdentityAuth, SqlAuth
--flink-hive-catalog-db-connection-password-secret --flink-hive-db-secret

Nome di riferimento segreto da secretsProfile.secrets contenente la password per la connessione al database.

--flink-hive-catalog-db-connection-url --flink-hive-db-url

Stringa di connessione per il database metastore Hive.

--flink-hive-catalog-db-connection-user-name --flink-hive-db-user

Nome utente per la connessione al database.

--flink-storage-key

La chiave di archiviazione è necessaria solo per l'archiviazione wasb.storage key is only required for wasb/s storage.

--flink-storage-uri

URI dell'account di archiviazione usato per lo stato del punto di salvataggio e del checkpoint.

--force-string

Quando si usa 'set' o 'add', mantenere i valori letterali stringa anziché tentare di eseguire la conversione in JSON.

Valori accettati: 0, 1, f, false, n, no, t, true, y, yes
--history-server-cpu

Conteggio CPU server cronologia.

--history-server-memory

Dimensioni della memoria del server cronologia.

--identity-list

Elenco di identità gestite. Supportare la sintassi abbreviata, json-file e yaml-file. Prova "??" per mostrare di più.

--ids

Uno o più ID della risorsa (delimitato da spazio). Deve essere un ID risorsa completo contenente tutte le informazioni degli argomenti 'ID risorsa'. È necessario specificare --ids o altri argomenti 'ID risorsa'.

--job-manager-cpu

Conteggio CPU del gestore processi.

--job-manager-memory

Dimensioni della memoria del gestore processi.

--job-spec

Specifiche dei processi per i cluster flink in modalità di distribuzione dell'applicazione. La specifica non è modificabile anche se le proprietà del processo vengono modificate chiamando l'API RunJob, usare l'API ListJob per ottenere le informazioni più recenti sul processo. Supportare la sintassi abbreviata, json-file e yaml-file. Prova "??" per mostrare di più.

--kafka-profile

Profilo del cluster Kafka. Supportare la sintassi abbreviata, json-file e yaml-file. Prova "??" per mostrare di più.

--key-vault-id

Nome dell'insieme di credenziali delle chiavi dell'utente in cui sono archiviati tutti i segreti utente specifici del cluster.

--llap-profile

Profilo del cluster LLAP. Supporto di json-file e yaml-file.

--loadbased-config-max-nodes --loadbased-max-nodes

L'utente deve impostare il numero massimo di nodi per il ridimensionamento basato sul carico, il ridimensionamento basato sul carico userà questa opzione per aumentare e ridurre le prestazioni tra il numero minimo e il numero massimo di nodi.

--loadbased-config-min-nodes --loadbased-min-nodes

L'utente deve impostare il numero minimo di nodi per il ridimensionamento basato sul carico, il ridimensionamento basato sul carico userà questa opzione per aumentare e ridurre le prestazioni tra il numero minimo e il numero massimo di nodi.

--loadbased-config-poll-interval --loadbased-interval

L'utente può specificare l'intervallo di polling, ovvero il periodo di tempo (in secondi) dopo il quale viene eseguito il polling delle metriche di ridimensionamento per l'attivazione di un'operazione di ridimensionamento.

--loadbased-config-scaling-rules --loadbased-rules

Regole di ridimensionamento. Supportare la sintassi abbreviata, json-file e yaml-file. Prova "??" per mostrare di più.

--no-wait

Indica che non è necessario attendere il termine dell'operazione a esecuzione prolungata.

Valori accettati: 0, 1, f, false, n, no, t, true, y, yes
--nodes

Definizioni di nodi. Supportare la sintassi abbreviata, json-file e yaml-file. Prova "??" per mostrare di più.

--num-replicas

Numero di task manager.

--oss-version

Versione con tre parti.

--ranger-plugin-profile

Profilo del plug-in Cluster Ranger. Supportare la sintassi abbreviata, json-file e yaml-file. Prova "??" per mostrare di più.

--ranger-profile

Profilo del cluster ranger. Supportare la sintassi abbreviata, json-file e yaml-file. Prova "??" per mostrare di più.

--remove

Rimuovere una proprietà o un elemento da un elenco. Esempio: --remove property.list OR --remove propertyToRemove.

--resource-group -g

Nome del gruppo di risorse. È possibile configurare il gruppo predefinito con az configure --defaults group=<name>.

--schedule-based-config-default-count --schedule-default-count

Impostazione del numero di nodi predefinito della configurazione della pianificazione corrente. Il numero di nodi predefinito specifica il numero di nodi predefiniti quando viene eseguita un'operazione di ridimensionamento specificata (aumento/riduzione delle prestazioni).

--schedule-based-config-schedule --schedule-schedules

Specifica le pianificazioni in cui abilitare la scalabilità automatica pianificata, l'utente ha la possibilità di impostare più regole all'interno della pianificazione tra giorni e ore (inizio/fine). Supportare la sintassi abbreviata, json-file e yaml-file. Prova "??" per mostrare di più.

--schedule-based-config-time-zone --schedule-time-zone

L'utente deve specificare il fuso orario in cui deve essere impostata la pianificazione per la configurazione della scalabilità automatica basata sulla pianificazione.

--script-action-profiles

Elenco dei profili di azione script. Supportare la sintassi abbreviata, json-file e yaml-file. Prova "??" per mostrare di più.

--secret-reference

Proprietà del segreto dell'insieme di credenziali delle chiavi. Supportare la sintassi abbreviata, json-file e yaml-file. Prova "??" per mostrare di più.

--service-configs --service-configs-profiles

Profili di configurazione del servizio. Supportare la sintassi abbreviata, json-file e yaml-file. Prova "??" per mostrare di più.

--set

Aggiornare un oggetto specificando un percorso di proprietà e un valore da impostare. Esempio: --set property1.property2=.

--spark-hive-catalog-db-name --spark-hive-db-name

Nome del database.

--spark-hive-catalog-db-password-secret --spark-hive-db-secret

Nome del segreto che contiene la password utente del database.

--spark-hive-catalog-db-server-name --spark-hive-db-server

Host del server di database.

--spark-hive-catalog-db-user-name --spark-hive-db-user

Nome utente del database.

--spark-hive-catalog-key-vault-id --spark-hive-kv-id

ID risorsa dell'insieme di credenziali delle chiavi.

--spark-hive-catalog-thrift-url --spark-hive-thrift-url

URL thrift.

--spark-storage-url

URL di archiviazione predefinito.

--ssh-profile-count

Numero di pod SSH per cluster.

--stub-profile

Profilo del cluster Stub. Supporto di json-file e yaml-file.

--subscription

Nome o ID della sottoscrizione. È possibile configurare la posizione predefinito usando az account set -s NAME_OR_ID.

--tags

Tag di risorsa. Supportare la sintassi abbreviata, json-file e yaml-file. Prova "??" per mostrare di più.

--task-manager-cpu

Conteggio CPU del gestore attività.

--task-manager-memory

Dimensioni della memoria di Gestione attività.

--trino-hive-catalog

Opzioni del catalogo Hive. Supportare la sintassi abbreviata, json-file e yaml-file. Prova "??" per mostrare di più.

--trino-plugins-spec --trino-profile-user-plugins-plugin-spec

Specifica plug-in utente Trino Supporto sintassi abbreviata, json-file e yaml-file. Prova "??" per mostrare di più.

--trino-profile-user-plugins-telemetry-spec --trino-telemetry-spec

Specifica di telemetria dell'utente Trino. Supportare la sintassi abbreviata, json-file e yaml-file. Prova "??" per mostrare di più.

--user-plugins-spec

Specifica plug-in utente Spark Supporto sintassi abbreviata, json-file e yaml-file. Prova "??" per mostrare di più.

--vm-size

SKU della macchina virtuale.

--worker-debug-port

Porta di debug. Impostazione predefinita: 8008.

--worker-debug-suspend

Flag che, se il cluster trino sospende o meno il debug. Valore predefinito: false.

Valori accettati: 0, 1, f, false, n, no, t, true, y, yes
Parametri globali
--debug

Aumenta il livello di dettaglio della registrazione per mostrare tutti i log di debug.

--help -h

Visualizza questo messaggio della guida ed esce.

--only-show-errors

Mostra solo gli errori, eliminando gli avvisi.

--output -o

Formato di output.

Valori accettati: json, jsonc, none, table, tsv, yaml, yamlc
Valore predefinito: json
--query

Stringa di query JMESPath. Per altre informazioni ed esempi, vedere http://jmespath.org/.

--subscription

Nome o ID della sottoscrizione. È possibile configurare la posizione predefinito usando az account set -s NAME_OR_ID.

--verbose

Aumenta il livello di dettaglio della registrazione. Usare --debug per log di debug completi.

az hdinsight-on-aks cluster wait

Anteprima

Il gruppo di comandi 'az hdinsight-on-aks cluster' è in anteprima e in fase di sviluppo. Livelli di riferimento e supporto: https://aka.ms/CLI_refstatus

Posizionare l'interfaccia della riga di comando in uno stato di attesa fino a quando non viene soddisfatta una condizione.

az hdinsight-on-aks cluster wait [--cluster-name]
                                 [--cluster-pool-name]
                                 [--created]
                                 [--custom]
                                 [--deleted]
                                 [--exists]
                                 [--ids]
                                 [--interval]
                                 [--resource-group]
                                 [--subscription]
                                 [--timeout]
                                 [--updated]

Parametri facoltativi

--cluster-name --name -n

nome del cluster HDInsight.

--cluster-pool-name

Nome del pool di cluster.

--created

Attendere fino a quando non viene creato con 'provisioningState' in 'Succeeded'.

Valore predefinito: False
--custom

Attendere che la condizione soddisfi una query JMESPath personalizzata. Ad esempio provisioningState!='InProgress', instanceView.statuses[?code=='PowerState/running'].

--deleted

Attendere l'eliminazione.

Valore predefinito: False
--exists

Attendere che la risorsa esista.

Valore predefinito: False
--ids

Uno o più ID della risorsa (delimitato da spazio). Deve essere un ID risorsa completo contenente tutte le informazioni degli argomenti 'ID risorsa'. È necessario specificare --ids o altri argomenti 'ID risorsa'.

--interval

Intervallo di polling in secondi.

Valore predefinito: 30
--resource-group -g

Nome del gruppo di risorse. È possibile configurare il gruppo predefinito con az configure --defaults group=<name>.

--subscription

Nome o ID della sottoscrizione. È possibile configurare la posizione predefinito usando az account set -s NAME_OR_ID.

--timeout

Attesa massima in secondi.

Valore predefinito: 3600
--updated

Attendere fino a quando non viene aggiornato con provisioningState in 'Succeeded'.

Valore predefinito: False
Parametri globali
--debug

Aumenta il livello di dettaglio della registrazione per mostrare tutti i log di debug.

--help -h

Visualizza questo messaggio della guida ed esce.

--only-show-errors

Mostra solo gli errori, eliminando gli avvisi.

--output -o

Formato di output.

Valori accettati: json, jsonc, none, table, tsv, yaml, yamlc
Valore predefinito: json
--query

Stringa di query JMESPath. Per altre informazioni ed esempi, vedere http://jmespath.org/.

--subscription

Nome o ID della sottoscrizione. È possibile configurare la posizione predefinito usando az account set -s NAME_OR_ID.

--verbose

Aumenta il livello di dettaglio della registrazione. Usare --debug per log di debug completi.