Udostępnij za pośrednictwem


az hdinsight-on-aks cluster

Uwaga

Ta dokumentacja jest częścią rozszerzenia hdinsightonaks dla interfejsu wiersza polecenia platformy Azure (wersja 2.57.0 lub nowsza). Rozszerzenie zostanie automatycznie zainstalowane przy pierwszym uruchomieniu polecenia az hdinsight-on-aks cluster . Dowiedz się więcej o rozszerzeniach.

Ta grupa poleceń jest w wersji zapoznawczej i jest opracowywana. Poziomy odwołań i pomocy technicznej: https://aka.ms/CLI_refstatus

Operacje klastra.

Polecenia

Nazwa Opis Typ Stan
az hdinsight-on-aks cluster create

Tworzenie klastra.

Numer wewnętrzny Wersja Preview
az hdinsight-on-aks cluster delete

Usuwanie klastra.

Numer wewnętrzny Wersja Preview
az hdinsight-on-aks cluster instance-view

Pobiera stan wystąpień klastra.

Numer wewnętrzny Wersja Preview
az hdinsight-on-aks cluster instance-view list

Wyświetl listę widoków wystąpień.

Numer wewnętrzny Wersja Preview
az hdinsight-on-aks cluster instance-view show

Uzyskaj stan wystąpienia klastra.

Numer wewnętrzny Wersja Preview
az hdinsight-on-aks cluster job

Operacje zadań klastra.

Numer wewnętrzny Wersja Preview
az hdinsight-on-aks cluster job list

Wyświetlanie listy zadań usługi HDInsight w klastrze usługi AKS.

Numer wewnętrzny Wersja Preview
az hdinsight-on-aks cluster job run

Operacje na zadaniach usługi HDInsight w klastrze usługi AKS.

Numer wewnętrzny Wersja Preview
az hdinsight-on-aks cluster library

Zarządzanie biblioteką klastra.

Numer wewnętrzny Wersja Preview
az hdinsight-on-aks cluster library list

Wyświetl listę wszystkich bibliotek usługi HDInsight w klastrze usługi AKS.

Numer wewnętrzny Wersja Preview
az hdinsight-on-aks cluster library manage

Operacje zarządzania bibliotekami w usłudze HDInsight w klastrze usługi AKS.

Numer wewnętrzny Wersja Preview
az hdinsight-on-aks cluster list

Wyświetl listę pul klastrów usługi HDInsight w grupie zasobów.

Numer wewnętrzny Wersja Preview
az hdinsight-on-aks cluster list-service-config

Wyświetl listę zrzutu konfiguracji wszystkich usług uruchomionych w klastrze.

Numer wewnętrzny Wersja Preview
az hdinsight-on-aks cluster node-profile

Zarządzanie profilem węzła obliczeniowego.

Numer wewnętrzny Wersja Preview
az hdinsight-on-aks cluster node-profile create

Utwórz profil węzła z jednostkami SKU i liczbą procesów roboczych.

Numer wewnętrzny Wersja Preview
az hdinsight-on-aks cluster resize

Zmień rozmiar istniejącego klastra.

Numer wewnętrzny Wersja Preview
az hdinsight-on-aks cluster show

Pobierz klaster usługi HDInsight.

Numer wewnętrzny Wersja Preview
az hdinsight-on-aks cluster update

Aktualizowanie klastra.

Numer wewnętrzny Wersja Preview
az hdinsight-on-aks cluster upgrade

Uaktualnij klaster.

Numer wewnętrzny Wersja Preview
az hdinsight-on-aks cluster upgrade history

Wyświetl listę historii uaktualniania.

Numer wewnętrzny Wersja Preview
az hdinsight-on-aks cluster upgrade list

Wyświetlanie listy dostępnych uaktualnień klastra.

Numer wewnętrzny Wersja Preview
az hdinsight-on-aks cluster upgrade rollback

Ręczne wycofywanie uaktualnienia klastra.

Numer wewnętrzny Wersja Preview
az hdinsight-on-aks cluster upgrade run

Uaktualnij klaster.

Numer wewnętrzny Wersja Preview
az hdinsight-on-aks cluster wait

Umieść interfejs wiersza polecenia w stanie oczekiwania do momentu spełnienia warunku.

Numer wewnętrzny Wersja Preview

az hdinsight-on-aks cluster create

Wersja zapoznawcza

Grupa poleceń "az hdinsight-on-aks cluster" jest w wersji zapoznawczej i jest opracowywana. Poziomy odwołań i pomocy technicznej: https://aka.ms/CLI_refstatus

Tworzenie klastra.

az hdinsight-on-aks cluster create --cluster-name
                                   --cluster-pool-name
                                   --resource-group
                                   [--application-log-std-error-enabled {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--application-log-std-out-enabled {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--assigned-identity-client-id]
                                   [--assigned-identity-id]
                                   [--assigned-identity-object-id]
                                   [--authorization-group-id]
                                   [--authorization-user-id]
                                   [--autoscale-profile-graceful-decommission-timeout]
                                   [--autoscale-profile-type {LoadBased, ScheduleBased}]
                                   [--availability-zones]
                                   [--cluster-type]
                                   [--cluster-version]
                                   [--cooldown-period]
                                   [--coord-debug-port]
                                   [--coord-debug-suspend {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--coordinator-debug-enabled {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--coordinator-high-availability-enabled {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--db-connection-authentication-mode {IdentityAuth, SqlAuth}]
                                   [--deployment-mode {Application, Session}]
                                   [--enable-autoscale {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--enable-la-metrics {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--enable-log-analytics {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--enable-prometheu {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--enable-worker-debug {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--flink-db-auth-mode {IdentityAuth, SqlAuth}]
                                   [--flink-hive-catalog-db-connection-password-secret]
                                   [--flink-hive-catalog-db-connection-url]
                                   [--flink-hive-catalog-db-connection-user-name]
                                   [--flink-storage-key]
                                   [--flink-storage-uri]
                                   [--history-server-cpu]
                                   [--history-server-memory]
                                   [--identity-list]
                                   [--internal-ingress {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--job-manager-cpu]
                                   [--job-manager-memory]
                                   [--job-spec]
                                   [--kafka-profile]
                                   [--key-vault-id]
                                   [--llap-profile]
                                   [--loadbased-config-max-nodes]
                                   [--loadbased-config-min-nodes]
                                   [--loadbased-config-poll-interval]
                                   [--loadbased-config-scaling-rules]
                                   [--location]
                                   [--no-wait {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--nodes]
                                   [--num-replicas]
                                   [--oss-version]
                                   [--ranger-plugin-profile]
                                   [--ranger-profile]
                                   [--schedule-based-config-default-count]
                                   [--schedule-based-config-schedule]
                                   [--schedule-based-config-time-zone]
                                   [--script-action-profiles]
                                   [--secret-reference]
                                   [--service-configs]
                                   [--spark-hive-catalog-db-name]
                                   [--spark-hive-catalog-db-password-secret]
                                   [--spark-hive-catalog-db-server-name]
                                   [--spark-hive-catalog-db-user-name]
                                   [--spark-hive-catalog-key-vault-id]
                                   [--spark-hive-catalog-thrift-url]
                                   [--spark-storage-url]
                                   [--ssh-profile-count]
                                   [--stub-profile]
                                   [--tags]
                                   [--task-manager-cpu]
                                   [--task-manager-memory]
                                   [--trino-hive-catalog]
                                   [--trino-plugins-spec]
                                   [--trino-profile-user-plugins-telemetry-spec]
                                   [--user-plugins-spec]
                                   [--vm-size]
                                   [--worker-debug-port]
                                   [--worker-debug-suspend {0, 1, f, false, n, no, t, true, y, yes}]

Przykłady

Utwórz prosty klaster Trino.

az az hdinsight-on-aks cluster create -n {clustername} --cluster-pool-name {clusterpoolname} -g {resourcesGroup} -l {location}--cluster-type trino --cluster-version {1.2.0} --oss-version {0.440.0} --node '[{"count":2,"type":"worker","vm-size":"Standard_D8d_v5"}]' --identity-list '[{"client-id":"00000000-0000-0000-0000-000000000000","object-id":"00000000-0000-0000-0000-000000000000","resource-id":"/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.ManagedIdentity/userAssignedIdentities/yourmsi","type":"cluster"}]' --authorization-user-id "00000000-0000-0000-0000-000000000000"

Utwórz prosty klaster Flink.

az hdinsight-on-aks cluster create -n {clustername} --cluster-pool-name {clusterpoolname} -g {resourcesGroup} -l {location}--cluster-type flink --flink-storage-uri {abfs://container@yourstorage.dfs.core.windows.net/} --cluster-version {1.2.0} --oss-version {1.17.0} --node '[{"count":5,"type":"worker","vm-size":"Standard_D8d_v5"}]' --identity-list '[{"client-id":"00000000-0000-0000-0000-000000000000","object-id":"00000000-0000-0000-0000-000000000000","resource-id":"/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.ManagedIdentity/userAssignedIdentities/yourmsi","type":"cluster"}]' --authorization-user-id "00000000-0000-0000-0000-000000000000" --job-manager-cpu {1} --job-manager-memory {2000} --task-manager-cpu {6} --task-manager-memory {49016}

Utwórz prosty klaster Spark.

az hdinsight-on-aks cluster create -n {clustername} --cluster-pool-name {clusterpoolname} -g {resourcesGroup} -l {location}--cluster-type spark --spark-storage-url {abfs://container@yourstorage.dfs.core.windows.net/} --cluster-version {1.2.0} --oss-version {3.4.1} --node '[{"count":2,"type":"worker","vm-size":"Standard_D8d_v5"}]' --identity-list '[{"client-id":"00000000-0000-0000-0000-000000000000","object-id":"00000000-0000-0000-0000-000000000000","resource-id":"/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.ManagedIdentity/userAssignedIdentities/yourmsi","type":"cluster"}]' --authorization-user-id "00000000-0000-0000-0000-000000000000"

Utwórz prosty klaster platformy Kafka.

az az hdinsight-on-aks cluster create -n {clustername} --cluster-pool-name {clusterpoolname} -g {resourcesGroup} -l {location}--cluster-type kafka --cluster-version {1.2.0} --oss-version {3.6.0} --node '[{"count":2,"type":"worker","vm-size":"Standard_D8d_v5"}]' --identity-list '[{"client-id":"00000000-0000-0000-0000-000000000000","object-id":"00000000-0000-0000-0000-000000000000","resource-id":"/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.ManagedIdentity/userAssignedIdentities/yourmsi","type":"cluster"}]' --authorization-user-id "00000000-0000-0000-0000-000000000000" --kafka-profile '{"disk-storage":{"data-disk-size":8,"data-disk-type":"Standard_SSD_LRS"}}'

Utwórz klaster Spark z niestandardowym magazynem metadanych hive.

az hdinsight-on-aks cluster create -n {clustername} --cluster-pool-name {clusterpoolname} -g {resourcesGroup} -l {location}--cluster-type spark --spark-storage-url {abfs://container@yourstorage.dfs.core.windows.net/} --cluster-version {1.2.0} --oss-version {3.4.1} --node '[{"count":2,"type":"worker","vm-size":"Standard_D8d_v5"}]' --identity-list '[{"client-id":"00000000-0000-0000-0000-000000000000","object-id":"00000000-0000-0000-0000-000000000000","resource-id":"/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.ManagedIdentity/userAssignedIdentities/yourmsi","type":"cluster"}]' --authorization-user-id "00000000-0000-0000-0000-000000000000"  --secret-reference '[{reference-name:sqlpassword,secret-name:sqlpassword,type:Secret}]' --key-vault-id /subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.KeyVault/vaults/CLIKV --spark-hive-kv-id /subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.KeyVault/vaults/CLIKV --spark-db-auth-mode SqlAuth --spark-hive-db-name {sparkhms} --spark-hive-db-secret {sqlpassword} --spark-hive-db-server {yourserver.database.windows.net} --spark-hive-db-user {username}

Utwórz klaster Flink ze strefami dostępności.

az hdinsight-on-aks cluster create -n {clustername} --cluster-pool-name {clusterpoolname} -g {resourcesGroup} -l {location}--cluster-type flink --flink-storage-uri {abfs://container@yourstorage.dfs.core.windows.net/} --cluster-version {1.2.0} --oss-version {1.17.0} --node '[{"count":5,"type":"worker","vm-size":"Standard_D8d_v5"}]' --identity-list '[{"client-id":"00000000-0000-0000-0000-000000000000","object-id":"00000000-0000-0000-0000-000000000000","resource-id":"/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.ManagedIdentity/userAssignedIdentities/yourmsi","type":"cluster"}]' --authorization-user-id "00000000-0000-0000-0000-000000000000" --job-manager-cpu {1} --job-manager-memory {2000} --task-manager-cpu {6} --task-manager-memory {49016} --availability-zones [1,2]

Parametry wymagane

--cluster-name --name -n

Nazwa klastra usługi HDInsight.

--cluster-pool-name

Nazwa puli klastrów.

--resource-group -g

Nazwa grupy zasobów. Grupę domyślną można skonfigurować przy użyciu polecenia az configure --defaults group=<name>.

Parametry opcjonalne

--application-log-std-error-enabled --enable-log-std-error

Wartość True, jeśli błąd standardowy aplikacji jest włączony, w przeciwnym razie wartość false.

Dopuszczalne wartości: 0, 1, f, false, n, no, t, true, y, yes
--application-log-std-out-enabled --enable-log-std-out

Wartość True, jeśli włączono standardową aplikację, w przeciwnym razie wartość false.

Dopuszczalne wartości: 0, 1, f, false, n, no, t, true, y, yes
--assigned-identity-client-id --msi-client-id

ClientId tożsamości usługi zarządzanej.

--assigned-identity-id --msi-id

ResourceId tożsamości usługi zarządzanej.

--assigned-identity-object-id --msi-object-id

ObjectId tożsamości usługi zarządzanej.

--authorization-group-id

Identyfikatory grupy usługi AAD autoryzowane na potrzeby dostępu do płaszczyzny danych. Obsługa skróconej składni, pliku json-file i yaml-file. Spróbuj "??", aby pokazać więcej.

--authorization-user-id

Identyfikatory użytkowników usługi AAD autoryzowane do uzyskiwania dostępu do płaszczyzny danych. Obsługa skróconej składni, pliku json-file i yaml-file. Spróbuj "??", aby pokazać więcej.

--autoscale-profile-graceful-decommission-timeout --decommission-time

Ta właściwość służy do bezpiecznego likwidowanie limitu czasu; Ma domyślne ustawienie 3600 sekund przed wymuszonym zamknięciem. Jest to maksymalny czas oczekiwania na ukończenie uruchomionych kontenerów i aplikacji przed przejściem węzła LIKWIDOWANIE do LIKWIDOWANIA. Wartość domyślna to 3600 sekund. Wartość ujemna (na przykład -1) jest obsługiwana jako nieskończony limit czasu.

--autoscale-profile-type

Użytkownik określający typ autoskalowania, który ma zostać zaimplementowany — na podstawie harmonogramu lub na podstawie obciążenia.

Dopuszczalne wartości: LoadBased, ScheduleBased
--availability-zones

Lista stref dostępności do użycia dla węzłów usługi AKS VMSS. Obsługa skróconej składni, pliku json-file i yaml-file. Spróbuj "??", aby pokazać więcej.

--cluster-type

Typ klastra.

--cluster-version

Wersja z częścią 3/4.

--cooldown-period --loadbased-config-cooldown-period

Jest to okres ochładzania— jest to okres w sekundach, który określa czas, który musi upłynąć między działaniem skalowania uruchomionym przez regułę a rozpoczęciem następnego działania skalowania, niezależnie od reguły, która ją wyzwala. Wartość domyślna to 300 sekund.

--coord-debug-port --coordinator-debug-port

Flaga, która jest włączona, jeśli włącz debugowanie, czy nie. Wartość domyślna: 8008.

--coord-debug-suspend --coordinator-debug-suspend

Flaga, która w przypadku wstrzymania debugowania lub nie. Wartość domyślna: false.

Dopuszczalne wartości: 0, 1, f, false, n, no, t, true, y, yes
--coordinator-debug-enabled --enable-coord-debug

Flaga, która w przypadku włączenia funkcji wysokiej dostępności koordynatora używa wielu replik koordynacji z automatycznym trybem failover, po jednym na każdy węzeł główny. Wartość domyślna: false.

Dopuszczalne wartości: 0, 1, f, false, n, no, t, true, y, yes
--coordinator-high-availability-enabled --enable-coord-ha

Flaga, która w przypadku włączenia funkcji wysokiej dostępności koordynatora używa wielu replik koordynacji z automatycznym trybem failover, po jednym na każdy węzeł główny. Wartość domyślna: false.

Dopuszczalne wartości: 0, 1, f, false, n, no, t, true, y, yes
--db-connection-authentication-mode --spark-db-auth-mode

Tryb uwierzytelniania umożliwiający nawiązanie połączenia z bazą danych magazynu metadanych Hive. Więcej szczegółów: https://learn.microsoft.com/en-us/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization.

Dopuszczalne wartości: IdentityAuth, SqlAuth
--deployment-mode

Właściwość ciągu wskazująca tryb wdrażania klastra Flink. Może mieć jedną z następujących wartości wyliczenia => Aplikacja, Sesja. Wartość domyślna to Sesja.

Dopuszczalne wartości: Application, Session
--enable-autoscale

Wskazuje to, czy skalowanie automatyczne jest włączone w usłudze HDInsight w klastrze usługi AKS.

Dopuszczalne wartości: 0, 1, f, false, n, no, t, true, y, yes
--enable-la-metrics --log-analytic-profile-metrics-enabled

Prawda, jeśli metryki są włączone, w przeciwnym razie wartość false.

Dopuszczalne wartości: 0, 1, f, false, n, no, t, true, y, yes
--enable-log-analytics

Wartość True, jeśli dla klastra jest włączona analiza dzienników, w przeciwnym razie wartość false.

Dopuszczalne wartości: 0, 1, f, false, n, no, t, true, y, yes
--enable-prometheu

Włącz rozwiązanie Prometheus dla klastra lub nie.

Dopuszczalne wartości: 0, 1, f, false, n, no, t, true, y, yes
Domyślna wartość: False
--enable-worker-debug

Flaga, że jeśli klaster trino włącz debugowanie, czy nie. Wartość domyślna: false.

Dopuszczalne wartości: 0, 1, f, false, n, no, t, true, y, yes
--flink-db-auth-mode --metastore-db-connection-authentication-mode

Tryb uwierzytelniania umożliwiający nawiązanie połączenia z bazą danych magazynu metadanych Hive. Więcej szczegółów: https://learn.microsoft.com/en-us/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization.

Dopuszczalne wartości: IdentityAuth, SqlAuth
--flink-hive-catalog-db-connection-password-secret --flink-hive-db-secret

Nazwa odwołania do wpisu tajnego z wpisu tajnego secretsProfile.secrets zawierającego hasło do połączenia z bazą danych.

--flink-hive-catalog-db-connection-url --flink-hive-db-url

Parametry połączenia dla bazy danych magazynu metadanych hive.

--flink-hive-catalog-db-connection-user-name --flink-hive-db-user

Nazwa użytkownika dla połączenia z bazą danych.

--flink-storage-key

Klucz magazynu jest wymagany tylko w przypadku magazynu wasb(s).

--flink-storage-uri

Identyfikator URI konta magazynu, który jest używany do tworzenia punktów zapisu i stanu punktu kontrolnego.

--history-server-cpu

Liczba procesorów serwera historii.

--history-server-memory

Rozmiar pamięci serwera historii.

--identity-list

Lista tożsamości zarządzanej. Obsługa skróconej składni, pliku json-file i yaml-file. Spróbuj "??", aby pokazać więcej.

--internal-ingress --internal-ingress-enabled

Czy utworzyć klaster przy użyciu prywatnego adresu IP zamiast publicznego adresu IP. Ta właściwość musi być ustawiona w czasie tworzenia.

Dopuszczalne wartości: 0, 1, f, false, n, no, t, true, y, yes
--job-manager-cpu

Liczba procesorów CPU menedżera zadań.

--job-manager-memory

Rozmiar pamięci menedżera zadań.

--job-spec

Specyfikacje zadań dla klastrów w trybie wdrażania aplikacji. Specyfikacja jest niezmienna, nawet jeśli właściwości zadania są zmieniane przez wywołanie interfejsu API zadania RunJob, użyj interfejsu API listJob, aby uzyskać najnowsze informacje o zadaniu. Obsługa skróconej składni, pliku json-file i yaml-file. Spróbuj "??", aby pokazać więcej.

--kafka-profile

Profil klastra platformy Kafka. Obsługa skróconej składni, pliku json-file i yaml-file. Spróbuj "??", aby pokazać więcej.

--key-vault-id

Nazwa magazynu kluczy użytkownika, w którym są przechowywane wszystkie wpisy tajne określonego użytkownika w klastrze.

--llap-profile

Profil klastra LLAP. Obsługa plików json-file i yaml-file.

--loadbased-config-max-nodes --loadbased-max-nodes

Użytkownik musi ustawić maksymalną liczbę węzłów na potrzeby skalowania na podstawie obciążenia. Skalowanie oparte na obciążeniu będzie używane do skalowania w górę i w dół między minimalną i maksymalną liczbą węzłów.

--loadbased-config-min-nodes --loadbased-min-nodes

Użytkownik musi ustawić minimalną liczbę węzłów na potrzeby skalowania na podstawie obciążenia. Skalowanie oparte na obciążeniu będzie używane do skalowania w górę i w dół między minimalną i maksymalną liczbą węzłów.

--loadbased-config-poll-interval --loadbased-interval

Użytkownik może określić interwał sondowania. Jest to okres (w sekundach), po którym metryki skalowania są sondowane w celu wyzwolenia operacji skalowania.

--loadbased-config-scaling-rules --loadbased-rules

Reguły skalowania. Obsługa skróconej składni, pliku json-file i yaml-file. Spróbuj "??", aby pokazać więcej.

--location -l

Lokalizacja geograficzna, w której znajduje się zasób, gdy nie zostanie określony, zostanie użyta lokalizacja grupy zasobów.

--no-wait

Nie czekaj na zakończenie długotrwałej operacji.

Dopuszczalne wartości: 0, 1, f, false, n, no, t, true, y, yes
--nodes

Definicje węzłów. Obsługa skróconej składni, pliku json-file i yaml-file. Spróbuj "??", aby pokazać więcej.

--num-replicas

Liczba menedżerów zadań.

--oss-version

Wersja z trzema częściami.

--ranger-plugin-profile

Profil wtyczki Ranger klastra. Obsługa skróconej składni, pliku json-file i yaml-file. Spróbuj "??", aby pokazać więcej.

--ranger-profile

Profil klastra ranger. Obsługa skróconej składni, pliku json-file i yaml-file. Spróbuj "??", aby pokazać więcej.

--schedule-based-config-default-count --schedule-default-count

Ustawianie domyślnej liczby węzłów bieżącej konfiguracji harmonogramu. Domyślna liczba węzłów określa liczbę węzłów, które są domyślne po wykonaniu określonej operacji skalowania (skalowanie w górę/w dół).

--schedule-based-config-schedule --schedule-schedules

Określa to harmonogramy, w których ma być włączone zaplanowane automatyczne skalowanie, użytkownik może ustawić wiele reguł w harmonogramie w dniach i godzinach (początek/koniec). Obsługa skróconej składni, pliku json-file i yaml-file. Spróbuj "??", aby pokazać więcej.

--schedule-based-config-time-zone --schedule-time-zone

Użytkownik musi określić strefę czasową, w której harmonogram musi być ustawiony dla konfiguracji automatycznego skalowania na podstawie harmonogramu.

--script-action-profiles

Lista profilów akcji skryptu. Obsługa skróconej składni, pliku json-file i yaml-file. Spróbuj "??", aby pokazać więcej.

--secret-reference

Właściwości wpisu tajnego usługi Key Vault. Obsługa skróconej składni, pliku json-file i yaml-file. Spróbuj "??", aby pokazać więcej.

--service-configs --service-configs-profiles

Profile konfiguracji usługi. Obsługa skróconej składni, pliku json-file i yaml-file. Spróbuj "??", aby pokazać więcej.

--spark-hive-catalog-db-name --spark-hive-db-name

Nazwa bazy danych.

--spark-hive-catalog-db-password-secret --spark-hive-db-secret

Nazwa wpisu tajnego zawierająca hasło użytkownika bazy danych.

--spark-hive-catalog-db-server-name --spark-hive-db-server

Host serwera bazy danych.

--spark-hive-catalog-db-user-name --spark-hive-db-user

Nazwa użytkownika bazy danych.

--spark-hive-catalog-key-vault-id --spark-hive-kv-id

Identyfikator zasobu magazynu kluczy.

--spark-hive-catalog-thrift-url --spark-hive-thrift-url

Adres URL ograniczania.

--spark-storage-url

Domyślny adres URL magazynu.

--ssh-profile-count

Liczba zasobników SSH na klaster.

--stub-profile

Profil klastra wycinkowego. Obsługa plików json-file i yaml-file.

--tags

Tagi zasobów. Obsługa skróconej składni, pliku json-file i yaml-file. Spróbuj "??", aby pokazać więcej.

--task-manager-cpu

Liczba procesorów cpu menedżera zadań.

--task-manager-memory

Rozmiar pamięci menedżera zadań.

--trino-hive-catalog

Opcje katalogu hive klastra Trino. Obsługa skróconej składni, pliku json-file i yaml-file. Spróbuj "??", aby pokazać więcej.

--trino-plugins-spec --trino-profile-user-plugins-plugin-spec

Dodatki użytkownika Trino spec Support shorthand-syntax, json-file i yaml-file. Spróbuj "??", aby pokazać więcej.

--trino-profile-user-plugins-telemetry-spec --trino-telemetry-spec

Specyfikacja telemetrii użytkownika Trino. Obsługa skróconej składni, pliku json-file i yaml-file. Spróbuj "??", aby pokazać więcej.

--user-plugins-spec

Wtyczki użytkowników platformy Spark spec Obsługują skróconą składnię, plik json-i yaml-file. Spróbuj "??", aby pokazać więcej.

--vm-size

Jednostka SKU maszyny wirtualnej.

--worker-debug-port

Port debugowania. Wartość domyślna: 8008.

--worker-debug-suspend

Flaga, że jeśli klaster trino zawiesi debugowanie, czy nie. Wartość domyślna: false.

Dopuszczalne wartości: 0, 1, f, false, n, no, t, true, y, yes
Parametry globalne
--debug

Zwiększ szczegółowość rejestrowania, aby wyświetlić wszystkie dzienniki debugowania.

--help -h

Pokaż ten komunikat pomocy i zakończ pracę.

--only-show-errors

Pokaż tylko błędy, pomijając ostrzeżenia.

--output -o

Format danych wyjściowych.

Dopuszczalne wartości: json, jsonc, none, table, tsv, yaml, yamlc
Domyślna wartość: json
--query

Ciąg zapytania JMESPath. Zobacz http://jmespath.org/ , aby uzyskać więcej informacji i przykładów.

--subscription

Nazwa lub identyfikator subskrypcji. Subskrypcję domyślną można skonfigurować przy użyciu polecenia az account set -s NAME_OR_ID.

--verbose

Zwiększ szczegółowość rejestrowania. Użyj --debuguj, aby uzyskać pełne dzienniki debugowania.

az hdinsight-on-aks cluster delete

Wersja zapoznawcza

Grupa poleceń "az hdinsight-on-aks cluster" jest w wersji zapoznawczej i jest opracowywana. Poziomy odwołań i pomocy technicznej: https://aka.ms/CLI_refstatus

Usuwanie klastra.

az hdinsight-on-aks cluster delete [--cluster-name]
                                   [--cluster-pool-name]
                                   [--ids]
                                   [--no-wait {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--resource-group]
                                   [--subscription]
                                   [--yes]

Przykłady

Usuwanie klastra.

az hdinsight-on-aks cluster delete  -n {clusterName} --cluster-pool-name {poolName} -g {RG}

Parametry opcjonalne

--cluster-name --name -n

Nazwa klastra usługi HDInsight.

--cluster-pool-name

Nazwa puli klastrów.

--ids

Co najmniej jeden identyfikator zasobu (rozdzielany spacjami). Powinien to być pełny identyfikator zasobu zawierający wszystkie informacje o argumentach "Identyfikator zasobu". Należy podać argumenty --ids lub inne argumenty "Identyfikator zasobu".

--no-wait

Nie czekaj na zakończenie długotrwałej operacji.

Dopuszczalne wartości: 0, 1, f, false, n, no, t, true, y, yes
--resource-group -g

Nazwa grupy zasobów. Grupę domyślną można skonfigurować przy użyciu polecenia az configure --defaults group=<name>.

--subscription

Nazwa lub identyfikator subskrypcji. Subskrypcję domyślną można skonfigurować przy użyciu polecenia az account set -s NAME_OR_ID.

--yes -y

Nie monituj o potwierdzenie.

Domyślna wartość: False
Parametry globalne
--debug

Zwiększ szczegółowość rejestrowania, aby wyświetlić wszystkie dzienniki debugowania.

--help -h

Pokaż ten komunikat pomocy i zakończ pracę.

--only-show-errors

Pokaż tylko błędy, pomijając ostrzeżenia.

--output -o

Format danych wyjściowych.

Dopuszczalne wartości: json, jsonc, none, table, tsv, yaml, yamlc
Domyślna wartość: json
--query

Ciąg zapytania JMESPath. Zobacz http://jmespath.org/ , aby uzyskać więcej informacji i przykładów.

--subscription

Nazwa lub identyfikator subskrypcji. Subskrypcję domyślną można skonfigurować przy użyciu polecenia az account set -s NAME_OR_ID.

--verbose

Zwiększ szczegółowość rejestrowania. Użyj --debuguj, aby uzyskać pełne dzienniki debugowania.

az hdinsight-on-aks cluster list

Wersja zapoznawcza

Grupa poleceń "az hdinsight-on-aks cluster" jest w wersji zapoznawczej i jest opracowywana. Poziomy odwołań i pomocy technicznej: https://aka.ms/CLI_refstatus

Wyświetl listę pul klastrów usługi HDInsight w grupie zasobów.

az hdinsight-on-aks cluster list --cluster-pool-name
                                 --resource-group
                                 [--max-items]
                                 [--next-token]

Przykłady

Wyświetl listę wszystkich klastrów w puli klastrów.

az hdinsight-on-aks cluster list --cluster-pool-name {poolName}-g {RG}

Parametry wymagane

--cluster-pool-name

Nazwa puli klastrów.

--resource-group -g

Nazwa grupy zasobów. Grupę domyślną można skonfigurować przy użyciu polecenia az configure --defaults group=<name>.

Parametry opcjonalne

--max-items

Łączna liczba elementów do zwrócenia w danych wyjściowych polecenia. Jeśli łączna liczba dostępnych elementów jest większa niż określona wartość, token jest udostępniany w danych wyjściowych polecenia. Aby wznowić stronicowanie, podaj wartość tokenu w --next-token argumencie kolejnego polecenia.

--next-token

Token do określenia, gdzie rozpocząć stronicowanie. Jest to wartość tokenu z wcześniej obciętej odpowiedzi.

Parametry globalne
--debug

Zwiększ szczegółowość rejestrowania, aby wyświetlić wszystkie dzienniki debugowania.

--help -h

Pokaż ten komunikat pomocy i zakończ pracę.

--only-show-errors

Pokaż tylko błędy, pomijając ostrzeżenia.

--output -o

Format danych wyjściowych.

Dopuszczalne wartości: json, jsonc, none, table, tsv, yaml, yamlc
Domyślna wartość: json
--query

Ciąg zapytania JMESPath. Zobacz http://jmespath.org/ , aby uzyskać więcej informacji i przykładów.

--subscription

Nazwa lub identyfikator subskrypcji. Subskrypcję domyślną można skonfigurować przy użyciu polecenia az account set -s NAME_OR_ID.

--verbose

Zwiększ szczegółowość rejestrowania. Użyj --debuguj, aby uzyskać pełne dzienniki debugowania.

az hdinsight-on-aks cluster list-service-config

Wersja zapoznawcza

Grupa poleceń "az hdinsight-on-aks cluster" jest w wersji zapoznawczej i jest opracowywana. Poziomy odwołań i pomocy technicznej: https://aka.ms/CLI_refstatus

Wyświetl listę zrzutu konfiguracji wszystkich usług uruchomionych w klastrze.

az hdinsight-on-aks cluster list-service-config --cluster-name
                                                --cluster-pool-name
                                                --resource-group
                                                [--max-items]
                                                [--next-token]

Przykłady

Wyświetla listę zrzutu konfiguracji wszystkich usług uruchomionych w klastrze.

az hdinsight-on-aks cluster list-service-config  --cluster-name {clusterName} --cluster-pool-name {poolName}-g {RG}

Parametry wymagane

--cluster-name

Nazwa klastra usługi HDInsight.

--cluster-pool-name

Nazwa puli klastrów.

--resource-group -g

Nazwa grupy zasobów. Grupę domyślną można skonfigurować przy użyciu polecenia az configure --defaults group=<name>.

Parametry opcjonalne

--max-items

Łączna liczba elementów do zwrócenia w danych wyjściowych polecenia. Jeśli łączna liczba dostępnych elementów jest większa niż określona wartość, token jest udostępniany w danych wyjściowych polecenia. Aby wznowić stronicowanie, podaj wartość tokenu w --next-token argumencie kolejnego polecenia.

--next-token

Token do określenia, gdzie rozpocząć stronicowanie. Jest to wartość tokenu z wcześniej obciętej odpowiedzi.

Parametry globalne
--debug

Zwiększ szczegółowość rejestrowania, aby wyświetlić wszystkie dzienniki debugowania.

--help -h

Pokaż ten komunikat pomocy i zakończ pracę.

--only-show-errors

Pokaż tylko błędy, pomijając ostrzeżenia.

--output -o

Format danych wyjściowych.

Dopuszczalne wartości: json, jsonc, none, table, tsv, yaml, yamlc
Domyślna wartość: json
--query

Ciąg zapytania JMESPath. Zobacz http://jmespath.org/ , aby uzyskać więcej informacji i przykładów.

--subscription

Nazwa lub identyfikator subskrypcji. Subskrypcję domyślną można skonfigurować przy użyciu polecenia az account set -s NAME_OR_ID.

--verbose

Zwiększ szczegółowość rejestrowania. Użyj --debuguj, aby uzyskać pełne dzienniki debugowania.

az hdinsight-on-aks cluster resize

Wersja zapoznawcza

Grupa poleceń "az hdinsight-on-aks cluster" jest w wersji zapoznawczej i jest opracowywana. Poziomy odwołań i pomocy technicznej: https://aka.ms/CLI_refstatus

Zmień rozmiar istniejącego klastra.

az hdinsight-on-aks cluster resize [--cluster-name]
                                   [--cluster-pool-name]
                                   [--ids]
                                   [--location]
                                   [--no-wait {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--resource-group]
                                   [--subscription]
                                   [--tags]
                                   [--target-worker-node-count]

Przykłady

Zmienianie rozmiaru klastra.

az hdinsight-on-aks cluster resize --cluster-name {clusterName} --cluster-pool-name {poolName}-g {RG} -l {westus3} --target-worker-node-count {6}

Parametry opcjonalne

--cluster-name

Nazwa klastra usługi HDInsight.

--cluster-pool-name

Nazwa puli klastrów.

--ids

Co najmniej jeden identyfikator zasobu (rozdzielany spacjami). Powinien to być pełny identyfikator zasobu zawierający wszystkie informacje o argumentach "Identyfikator zasobu". Należy podać argumenty --ids lub inne argumenty "Identyfikator zasobu".

--location -l

Lokalizacja geograficzna, w której znajduje się zasób, gdy nie zostanie określony, zostanie użyta lokalizacja grupy zasobów.

--no-wait

Nie czekaj na zakończenie długotrwałej operacji.

Dopuszczalne wartości: 0, 1, f, false, n, no, t, true, y, yes
--resource-group -g

Nazwa grupy zasobów. Grupę domyślną można skonfigurować przy użyciu polecenia az configure --defaults group=<name>.

--subscription

Nazwa lub identyfikator subskrypcji. Subskrypcję domyślną można skonfigurować przy użyciu polecenia az account set -s NAME_OR_ID.

--tags

Tagi zasobów. Obsługa skróconej składni, pliku json-file i yaml-file. Spróbuj "??", aby pokazać więcej.

--target-worker-node-count --worker-node-count

Docelowa liczba węzłów procesu roboczego.

Parametry globalne
--debug

Zwiększ szczegółowość rejestrowania, aby wyświetlić wszystkie dzienniki debugowania.

--help -h

Pokaż ten komunikat pomocy i zakończ pracę.

--only-show-errors

Pokaż tylko błędy, pomijając ostrzeżenia.

--output -o

Format danych wyjściowych.

Dopuszczalne wartości: json, jsonc, none, table, tsv, yaml, yamlc
Domyślna wartość: json
--query

Ciąg zapytania JMESPath. Zobacz http://jmespath.org/ , aby uzyskać więcej informacji i przykładów.

--subscription

Nazwa lub identyfikator subskrypcji. Subskrypcję domyślną można skonfigurować przy użyciu polecenia az account set -s NAME_OR_ID.

--verbose

Zwiększ szczegółowość rejestrowania. Użyj --debuguj, aby uzyskać pełne dzienniki debugowania.

az hdinsight-on-aks cluster show

Wersja zapoznawcza

Grupa poleceń "az hdinsight-on-aks cluster" jest w wersji zapoznawczej i jest opracowywana. Poziomy odwołań i pomocy technicznej: https://aka.ms/CLI_refstatus

Pobierz klaster usługi HDInsight.

az hdinsight-on-aks cluster show [--cluster-name]
                                 [--cluster-pool-name]
                                 [--ids]
                                 [--resource-group]
                                 [--subscription]

Przykłady

Pobierz klaster o nazwie klastra.

az hdinsight-on-aks cluster show  -n {clusterName} --cluster-pool-name {poolName} -g {RG}

Parametry opcjonalne

--cluster-name --name -n

Nazwa klastra usługi HDInsight.

--cluster-pool-name

Nazwa puli klastrów.

--ids

Co najmniej jeden identyfikator zasobu (rozdzielany spacjami). Powinien to być pełny identyfikator zasobu zawierający wszystkie informacje o argumentach "Identyfikator zasobu". Należy podać argumenty --ids lub inne argumenty "Identyfikator zasobu".

--resource-group -g

Nazwa grupy zasobów. Grupę domyślną można skonfigurować przy użyciu polecenia az configure --defaults group=<name>.

--subscription

Nazwa lub identyfikator subskrypcji. Subskrypcję domyślną można skonfigurować przy użyciu polecenia az account set -s NAME_OR_ID.

Parametry globalne
--debug

Zwiększ szczegółowość rejestrowania, aby wyświetlić wszystkie dzienniki debugowania.

--help -h

Pokaż ten komunikat pomocy i zakończ pracę.

--only-show-errors

Pokaż tylko błędy, pomijając ostrzeżenia.

--output -o

Format danych wyjściowych.

Dopuszczalne wartości: json, jsonc, none, table, tsv, yaml, yamlc
Domyślna wartość: json
--query

Ciąg zapytania JMESPath. Zobacz http://jmespath.org/ , aby uzyskać więcej informacji i przykładów.

--subscription

Nazwa lub identyfikator subskrypcji. Subskrypcję domyślną można skonfigurować przy użyciu polecenia az account set -s NAME_OR_ID.

--verbose

Zwiększ szczegółowość rejestrowania. Użyj --debuguj, aby uzyskać pełne dzienniki debugowania.

az hdinsight-on-aks cluster update

Wersja zapoznawcza

Grupa poleceń "az hdinsight-on-aks cluster" jest w wersji zapoznawczej i jest opracowywana. Poziomy odwołań i pomocy technicznej: https://aka.ms/CLI_refstatus

Aktualizowanie klastra.

az hdinsight-on-aks cluster update [--add]
                                   [--application-log-std-error-enabled {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--application-log-std-out-enabled {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--assigned-identity-client-id]
                                   [--assigned-identity-id]
                                   [--assigned-identity-object-id]
                                   [--authorization-group-id]
                                   [--authorization-user-id]
                                   [--autoscale-profile-graceful-decommission-timeout]
                                   [--autoscale-profile-type {LoadBased, ScheduleBased}]
                                   [--availability-zones]
                                   [--cluster-name]
                                   [--cluster-pool-name]
                                   [--cluster-version]
                                   [--cooldown-period]
                                   [--coord-debug-port]
                                   [--coord-debug-suspend {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--coordinator-debug-enabled {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--coordinator-high-availability-enabled {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--db-connection-authentication-mode {IdentityAuth, SqlAuth}]
                                   [--deployment-mode {Application, Session}]
                                   [--enable-autoscale {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--enable-la-metrics {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--enable-log-analytics {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--enable-prometheu {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--enable-worker-debug {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--flink-db-auth-mode {IdentityAuth, SqlAuth}]
                                   [--flink-hive-catalog-db-connection-password-secret]
                                   [--flink-hive-catalog-db-connection-url]
                                   [--flink-hive-catalog-db-connection-user-name]
                                   [--flink-storage-key]
                                   [--flink-storage-uri]
                                   [--force-string {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--history-server-cpu]
                                   [--history-server-memory]
                                   [--identity-list]
                                   [--ids]
                                   [--job-manager-cpu]
                                   [--job-manager-memory]
                                   [--job-spec]
                                   [--kafka-profile]
                                   [--key-vault-id]
                                   [--llap-profile]
                                   [--loadbased-config-max-nodes]
                                   [--loadbased-config-min-nodes]
                                   [--loadbased-config-poll-interval]
                                   [--loadbased-config-scaling-rules]
                                   [--no-wait {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--nodes]
                                   [--num-replicas]
                                   [--oss-version]
                                   [--ranger-plugin-profile]
                                   [--ranger-profile]
                                   [--remove]
                                   [--resource-group]
                                   [--schedule-based-config-default-count]
                                   [--schedule-based-config-schedule]
                                   [--schedule-based-config-time-zone]
                                   [--script-action-profiles]
                                   [--secret-reference]
                                   [--service-configs]
                                   [--set]
                                   [--spark-hive-catalog-db-name]
                                   [--spark-hive-catalog-db-password-secret]
                                   [--spark-hive-catalog-db-server-name]
                                   [--spark-hive-catalog-db-user-name]
                                   [--spark-hive-catalog-key-vault-id]
                                   [--spark-hive-catalog-thrift-url]
                                   [--spark-storage-url]
                                   [--ssh-profile-count]
                                   [--stub-profile]
                                   [--subscription]
                                   [--tags]
                                   [--task-manager-cpu]
                                   [--task-manager-memory]
                                   [--trino-hive-catalog]
                                   [--trino-plugins-spec]
                                   [--trino-profile-user-plugins-telemetry-spec]
                                   [--user-plugins-spec]
                                   [--vm-size]
                                   [--worker-debug-port]
                                   [--worker-debug-suspend {0, 1, f, false, n, no, t, true, y, yes}]

Przykłady

Zaktualizuj konfigurację usługi klastra.

az hdinsight-on-aks cluster update -n {clusterName} --cluster-pool-name {poolName} -g {RG} -service-configs {"[{service-name:yarn-service,configs:[{component:hadoop-config-client,files:[{file-name:yarn-site.xml,values:{yarn.nodemanager.resource.memory-mb:33333}}]}]}]"}

Parametry opcjonalne

--add

Dodaj obiekt do listy obiektów, określając pary ścieżki i wartości klucza. Przykład: --add property.listProperty <key=value, string lub ciąg> JSON.

--application-log-std-error-enabled --enable-log-std-error

Wartość True, jeśli błąd standardowy aplikacji jest włączony, w przeciwnym razie wartość false.

Dopuszczalne wartości: 0, 1, f, false, n, no, t, true, y, yes
--application-log-std-out-enabled --enable-log-std-out

Wartość True, jeśli włączono standardową aplikację, w przeciwnym razie wartość false.

Dopuszczalne wartości: 0, 1, f, false, n, no, t, true, y, yes
--assigned-identity-client-id --msi-client-id

ClientId tożsamości usługi zarządzanej.

--assigned-identity-id --msi-id

ResourceId tożsamości usługi zarządzanej.

--assigned-identity-object-id --msi-object-id

ObjectId tożsamości usługi zarządzanej.

--authorization-group-id

Identyfikatory grupy usługi AAD autoryzowane na potrzeby dostępu do płaszczyzny danych. Obsługa skróconej składni, pliku json-file i yaml-file. Spróbuj "??", aby pokazać więcej.

--authorization-user-id

Identyfikatory użytkowników usługi AAD autoryzowane do uzyskiwania dostępu do płaszczyzny danych. Obsługa skróconej składni, pliku json-file i yaml-file. Spróbuj "??", aby pokazać więcej.

--autoscale-profile-graceful-decommission-timeout --decommission-time

Ta właściwość służy do bezpiecznego likwidowanie limitu czasu; Ma domyślne ustawienie 3600 sekund przed wymuszonym zamknięciem. Jest to maksymalny czas oczekiwania na ukończenie uruchomionych kontenerów i aplikacji przed przejściem węzła LIKWIDOWANIE do LIKWIDOWANIA. Wartość domyślna to 3600 sekund. Wartość ujemna (na przykład -1) jest obsługiwana jako nieskończony limit czasu.

--autoscale-profile-type

Użytkownik określający typ autoskalowania, który ma zostać zaimplementowany — na podstawie harmonogramu lub na podstawie obciążenia.

Dopuszczalne wartości: LoadBased, ScheduleBased
--availability-zones

Lista stref dostępności do użycia dla węzłów usługi AKS VMSS. Obsługa skróconej składni, pliku json-file i yaml-file. Spróbuj "??", aby pokazać więcej.

--cluster-name --name -n

Nazwa klastra usługi HDInsight.

--cluster-pool-name

Nazwa puli klastrów.

--cluster-version

Wersja z częścią 3/4.

--cooldown-period --loadbased-config-cooldown-period

Jest to okres ochładzania— jest to okres w sekundach, który określa czas, który musi upłynąć między działaniem skalowania uruchomionym przez regułę a rozpoczęciem następnego działania skalowania, niezależnie od reguły, która ją wyzwala. Wartość domyślna to 300 sekund.

--coord-debug-port --coordinator-debug-port

Flaga, która jest włączona, jeśli włącz debugowanie, czy nie. Wartość domyślna: 8008.

--coord-debug-suspend --coordinator-debug-suspend

Flaga, która w przypadku wstrzymania debugowania lub nie. Wartość domyślna: false.

Dopuszczalne wartości: 0, 1, f, false, n, no, t, true, y, yes
--coordinator-debug-enabled --enable-coord-debug

Flaga, która w przypadku włączenia funkcji wysokiej dostępności koordynatora używa wielu replik koordynacji z automatycznym trybem failover, po jednym na każdy węzeł główny. Wartość domyślna: false.

Dopuszczalne wartości: 0, 1, f, false, n, no, t, true, y, yes
--coordinator-high-availability-enabled --enable-coord-ha

Flaga, która w przypadku włączenia funkcji wysokiej dostępności koordynatora używa wielu replik koordynacji z automatycznym trybem failover, po jednym na każdy węzeł główny. Wartość domyślna: false.

Dopuszczalne wartości: 0, 1, f, false, n, no, t, true, y, yes
--db-connection-authentication-mode --spark-db-auth-mode

Tryb uwierzytelniania umożliwiający nawiązanie połączenia z bazą danych magazynu metadanych Hive. Więcej szczegółów: https://learn.microsoft.com/en-us/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization.

Dopuszczalne wartości: IdentityAuth, SqlAuth
--deployment-mode

Właściwość ciągu wskazująca tryb wdrażania klastra Flink. Może mieć jedną z następujących wartości wyliczenia => Aplikacja, Sesja. Wartość domyślna to Sesja.

Dopuszczalne wartości: Application, Session
--enable-autoscale

Wskazuje to, czy skalowanie automatyczne jest włączone w usłudze HDInsight w klastrze usługi AKS.

Dopuszczalne wartości: 0, 1, f, false, n, no, t, true, y, yes
--enable-la-metrics --log-analytic-profile-metrics-enabled

Prawda, jeśli metryki są włączone, w przeciwnym razie wartość false.

Dopuszczalne wartości: 0, 1, f, false, n, no, t, true, y, yes
--enable-log-analytics

Wartość True, jeśli dla klastra jest włączona analiza dzienników, w przeciwnym razie wartość false.

Dopuszczalne wartości: 0, 1, f, false, n, no, t, true, y, yes
--enable-prometheu

Włącz rozwiązanie Prometheus dla klastra lub nie.

Dopuszczalne wartości: 0, 1, f, false, n, no, t, true, y, yes
--enable-worker-debug

Flaga, że jeśli klaster trino włącz debugowanie, czy nie. Wartość domyślna: false.

Dopuszczalne wartości: 0, 1, f, false, n, no, t, true, y, yes
--flink-db-auth-mode --metastore-db-connection-authentication-mode

Tryb uwierzytelniania umożliwiający nawiązanie połączenia z bazą danych magazynu metadanych Hive. Więcej szczegółów: https://learn.microsoft.com/en-us/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization.

Dopuszczalne wartości: IdentityAuth, SqlAuth
--flink-hive-catalog-db-connection-password-secret --flink-hive-db-secret

Nazwa odwołania do wpisu tajnego z wpisu tajnego secretsProfile.secrets zawierającego hasło do połączenia z bazą danych.

--flink-hive-catalog-db-connection-url --flink-hive-db-url

Parametry połączenia dla bazy danych magazynu metadanych hive.

--flink-hive-catalog-db-connection-user-name --flink-hive-db-user

Nazwa użytkownika dla połączenia z bazą danych.

--flink-storage-key

Klucz magazynu jest wymagany tylko w przypadku magazynu wasb(s).

--flink-storage-uri

Identyfikator URI konta magazynu, który jest używany do tworzenia punktów zapisu i stanu punktu kontrolnego.

--force-string

W przypadku używania polecenia "set" lub "add" zachowaj literały ciągu zamiast próbować konwertować na format JSON.

Dopuszczalne wartości: 0, 1, f, false, n, no, t, true, y, yes
--history-server-cpu

Liczba procesorów serwera historii.

--history-server-memory

Rozmiar pamięci serwera historii.

--identity-list

Lista tożsamości zarządzanej. Obsługa skróconej składni, pliku json-file i yaml-file. Spróbuj "??", aby pokazać więcej.

--ids

Co najmniej jeden identyfikator zasobu (rozdzielany spacjami). Powinien to być pełny identyfikator zasobu zawierający wszystkie informacje o argumentach "Identyfikator zasobu". Należy podać argumenty --ids lub inne argumenty "Identyfikator zasobu".

--job-manager-cpu

Liczba procesorów CPU menedżera zadań.

--job-manager-memory

Rozmiar pamięci menedżera zadań.

--job-spec

Specyfikacje zadań dla klastrów w trybie wdrażania aplikacji. Specyfikacja jest niezmienna, nawet jeśli właściwości zadania są zmieniane przez wywołanie interfejsu API zadania RunJob, użyj interfejsu API listJob, aby uzyskać najnowsze informacje o zadaniu. Obsługa skróconej składni, pliku json-file i yaml-file. Spróbuj "??", aby pokazać więcej.

--kafka-profile

Profil klastra platformy Kafka. Obsługa skróconej składni, pliku json-file i yaml-file. Spróbuj "??", aby pokazać więcej.

--key-vault-id

Nazwa magazynu kluczy użytkownika, w którym są przechowywane wszystkie wpisy tajne określonego użytkownika w klastrze.

--llap-profile

Profil klastra LLAP. Obsługa plików json-file i yaml-file.

--loadbased-config-max-nodes --loadbased-max-nodes

Użytkownik musi ustawić maksymalną liczbę węzłów na potrzeby skalowania na podstawie obciążenia. Skalowanie oparte na obciążeniu będzie używane do skalowania w górę i w dół między minimalną i maksymalną liczbą węzłów.

--loadbased-config-min-nodes --loadbased-min-nodes

Użytkownik musi ustawić minimalną liczbę węzłów na potrzeby skalowania na podstawie obciążenia. Skalowanie oparte na obciążeniu będzie używane do skalowania w górę i w dół między minimalną i maksymalną liczbą węzłów.

--loadbased-config-poll-interval --loadbased-interval

Użytkownik może określić interwał sondowania. Jest to okres (w sekundach), po którym metryki skalowania są sondowane w celu wyzwolenia operacji skalowania.

--loadbased-config-scaling-rules --loadbased-rules

Reguły skalowania. Obsługa skróconej składni, pliku json-file i yaml-file. Spróbuj "??", aby pokazać więcej.

--no-wait

Nie czekaj na zakończenie długotrwałej operacji.

Dopuszczalne wartości: 0, 1, f, false, n, no, t, true, y, yes
--nodes

Definicje węzłów. Obsługa skróconej składni, pliku json-file i yaml-file. Spróbuj "??", aby pokazać więcej.

--num-replicas

Liczba menedżerów zadań.

--oss-version

Wersja z trzema częściami.

--ranger-plugin-profile

Profil wtyczki Ranger klastra. Obsługa skróconej składni, pliku json-file i yaml-file. Spróbuj "??", aby pokazać więcej.

--ranger-profile

Profil klastra ranger. Obsługa skróconej składni, pliku json-file i yaml-file. Spróbuj "??", aby pokazać więcej.

--remove

Usuń właściwość lub element z listy. Przykład: --remove property.list OR --remove propertyToRemove.

--resource-group -g

Nazwa grupy zasobów. Grupę domyślną można skonfigurować przy użyciu polecenia az configure --defaults group=<name>.

--schedule-based-config-default-count --schedule-default-count

Ustawianie domyślnej liczby węzłów bieżącej konfiguracji harmonogramu. Domyślna liczba węzłów określa liczbę węzłów, które są domyślne po wykonaniu określonej operacji skalowania (skalowanie w górę/w dół).

--schedule-based-config-schedule --schedule-schedules

Określa to harmonogramy, w których ma być włączone zaplanowane automatyczne skalowanie, użytkownik może ustawić wiele reguł w harmonogramie w dniach i godzinach (początek/koniec). Obsługa skróconej składni, pliku json-file i yaml-file. Spróbuj "??", aby pokazać więcej.

--schedule-based-config-time-zone --schedule-time-zone

Użytkownik musi określić strefę czasową, w której harmonogram musi być ustawiony dla konfiguracji automatycznego skalowania na podstawie harmonogramu.

--script-action-profiles

Lista profilów akcji skryptu. Obsługa skróconej składni, pliku json-file i yaml-file. Spróbuj "??", aby pokazać więcej.

--secret-reference

Właściwości wpisu tajnego usługi Key Vault. Obsługa skróconej składni, pliku json-file i yaml-file. Spróbuj "??", aby pokazać więcej.

--service-configs --service-configs-profiles

Profile konfiguracji usługi. Obsługa skróconej składni, pliku json-file i yaml-file. Spróbuj "??", aby pokazać więcej.

--set

Zaktualizuj obiekt, określając ścieżkę właściwości i wartość do ustawienia. Przykład: --set property1.property2=.

--spark-hive-catalog-db-name --spark-hive-db-name

Nazwa bazy danych.

--spark-hive-catalog-db-password-secret --spark-hive-db-secret

Nazwa wpisu tajnego zawierająca hasło użytkownika bazy danych.

--spark-hive-catalog-db-server-name --spark-hive-db-server

Host serwera bazy danych.

--spark-hive-catalog-db-user-name --spark-hive-db-user

Nazwa użytkownika bazy danych.

--spark-hive-catalog-key-vault-id --spark-hive-kv-id

Identyfikator zasobu magazynu kluczy.

--spark-hive-catalog-thrift-url --spark-hive-thrift-url

Adres URL ograniczania.

--spark-storage-url

Domyślny adres URL magazynu.

--ssh-profile-count

Liczba zasobników SSH na klaster.

--stub-profile

Profil klastra wycinkowego. Obsługa plików json-file i yaml-file.

--subscription

Nazwa lub identyfikator subskrypcji. Subskrypcję domyślną można skonfigurować przy użyciu polecenia az account set -s NAME_OR_ID.

--tags

Tagi zasobów. Obsługa skróconej składni, pliku json-file i yaml-file. Spróbuj "??", aby pokazać więcej.

--task-manager-cpu

Liczba procesorów cpu menedżera zadań.

--task-manager-memory

Rozmiar pamięci menedżera zadań.

--trino-hive-catalog

Opcje katalogu programu Hive. Obsługa skróconej składni, pliku json-file i yaml-file. Spróbuj "??", aby pokazać więcej.

--trino-plugins-spec --trino-profile-user-plugins-plugin-spec

Dodatki użytkownika Trino spec Support shorthand-syntax, json-file i yaml-file. Spróbuj "??", aby pokazać więcej.

--trino-profile-user-plugins-telemetry-spec --trino-telemetry-spec

Specyfikacja telemetrii użytkownika Trino. Obsługa skróconej składni, pliku json-file i yaml-file. Spróbuj "??", aby pokazać więcej.

--user-plugins-spec

Wtyczki użytkowników platformy Spark spec Obsługują skróconą składnię, plik json-i yaml-file. Spróbuj "??", aby pokazać więcej.

--vm-size

Jednostka SKU maszyny wirtualnej.

--worker-debug-port

Port debugowania. Wartość domyślna: 8008.

--worker-debug-suspend

Flaga, że jeśli klaster trino zawiesi debugowanie, czy nie. Wartość domyślna: false.

Dopuszczalne wartości: 0, 1, f, false, n, no, t, true, y, yes
Parametry globalne
--debug

Zwiększ szczegółowość rejestrowania, aby wyświetlić wszystkie dzienniki debugowania.

--help -h

Pokaż ten komunikat pomocy i zakończ pracę.

--only-show-errors

Pokaż tylko błędy, pomijając ostrzeżenia.

--output -o

Format danych wyjściowych.

Dopuszczalne wartości: json, jsonc, none, table, tsv, yaml, yamlc
Domyślna wartość: json
--query

Ciąg zapytania JMESPath. Zobacz http://jmespath.org/ , aby uzyskać więcej informacji i przykładów.

--subscription

Nazwa lub identyfikator subskrypcji. Subskrypcję domyślną można skonfigurować przy użyciu polecenia az account set -s NAME_OR_ID.

--verbose

Zwiększ szczegółowość rejestrowania. Użyj --debuguj, aby uzyskać pełne dzienniki debugowania.

az hdinsight-on-aks cluster wait

Wersja zapoznawcza

Grupa poleceń "az hdinsight-on-aks cluster" jest w wersji zapoznawczej i jest opracowywana. Poziomy odwołań i pomocy technicznej: https://aka.ms/CLI_refstatus

Umieść interfejs wiersza polecenia w stanie oczekiwania do momentu spełnienia warunku.

az hdinsight-on-aks cluster wait [--cluster-name]
                                 [--cluster-pool-name]
                                 [--created]
                                 [--custom]
                                 [--deleted]
                                 [--exists]
                                 [--ids]
                                 [--interval]
                                 [--resource-group]
                                 [--subscription]
                                 [--timeout]
                                 [--updated]

Parametry opcjonalne

--cluster-name --name -n

Nazwa klastra usługi HDInsight.

--cluster-pool-name

Nazwa puli klastrów.

--created

Zaczekaj na utworzenie polecenia "provisioningState" o godzinie "Succeeded".

Domyślna wartość: False
--custom

Poczekaj, aż warunek spełnia niestandardowe zapytanie JMESPath. Np. provisioningState!='InProgress', instanceView.statuses[?code=='PowerState/running'].

--deleted

Poczekaj na usunięcie.

Domyślna wartość: False
--exists

Zaczekaj, aż zasób istnieje.

Domyślna wartość: False
--ids

Co najmniej jeden identyfikator zasobu (rozdzielany spacjami). Powinien to być pełny identyfikator zasobu zawierający wszystkie informacje o argumentach "Identyfikator zasobu". Należy podać argumenty --ids lub inne argumenty "Identyfikator zasobu".

--interval

Interwał sondowania w sekundach.

Domyślna wartość: 30
--resource-group -g

Nazwa grupy zasobów. Grupę domyślną można skonfigurować przy użyciu polecenia az configure --defaults group=<name>.

--subscription

Nazwa lub identyfikator subskrypcji. Subskrypcję domyślną można skonfigurować przy użyciu polecenia az account set -s NAME_OR_ID.

--timeout

Maksymalny czas oczekiwania w sekundach.

Domyślna wartość: 3600
--updated

Zaczekaj na zaktualizowanie stanu provisioningState o 'Powodzenie'.

Domyślna wartość: False
Parametry globalne
--debug

Zwiększ szczegółowość rejestrowania, aby wyświetlić wszystkie dzienniki debugowania.

--help -h

Pokaż ten komunikat pomocy i zakończ pracę.

--only-show-errors

Pokaż tylko błędy, pomijając ostrzeżenia.

--output -o

Format danych wyjściowych.

Dopuszczalne wartości: json, jsonc, none, table, tsv, yaml, yamlc
Domyślna wartość: json
--query

Ciąg zapytania JMESPath. Zobacz http://jmespath.org/ , aby uzyskać więcej informacji i przykładów.

--subscription

Nazwa lub identyfikator subskrypcji. Subskrypcję domyślną można skonfigurować przy użyciu polecenia az account set -s NAME_OR_ID.

--verbose

Zwiększ szczegółowość rejestrowania. Użyj --debuguj, aby uzyskać pełne dzienniki debugowania.