New-AzHdInsightOnAksCluster
创建集群。
语法
New-AzHdInsightOnAksCluster
-Name <String>
-PoolName <String>
-ResourceGroupName <String>
[-SubscriptionId <String>]
-Location <String>
[-ApplicationLogStdErrorEnabled]
[-ApplicationLogStdOutEnabled]
[-AssignedIdentityClientId <String>]
[-AssignedIdentityObjectId <String>]
[-AssignedIdentityResourceId <String>]
[-AuthorizationGroupId <String[]>]
[-AuthorizationUserId <String[]>]
[-AutoscaleProfileAutoscaleType <String>]
[-AutoscaleProfileEnabled]
[-AutoscaleProfileGracefulDecommissionTimeout <Int32>]
[-ClusterAccessProfileEnableInternalIngress]
[-ClusterType <String>]
[-ClusterVersion <String>]
[-ComputeProfileAvailabilityZone <String[]>]
[-ComputeProfileNode <INodeProfile[]>]
[-CoordinatorDebugEnable]
[-CoordinatorDebugPort <Int32>]
[-CoordinatorDebugSuspend]
[-CoordinatorHighAvailabilityEnabled]
[-DatabaseHost <String>]
[-DatabaseName <String>]
[-DatabasePasswordSecretRef <String>]
[-DatabaseUsername <String>]
[-DiskStorageDataDiskSize <Int32>]
[-DiskStorageDataDiskType <String>]
[-EnableLogAnalytics]
[-FlinkHiveCatalogDbConnectionUrl <String>]
[-FlinkHiveCatalogDbPasswordSecretName <String>]
[-FlinkHiveCatalogDbUserName <String>]
[-FlinkProfileDeploymentMode <String>]
[-FlinkStorageUrl <String>]
[-FlinkTaskManagerReplicaCount <Int32>]
[-HistoryServerCpu <Single>]
[-HistoryServerMemory <Int64>]
[-HiveMetastoreDbConnectionAuthenticationMode <String>]
[-JobManagerCpu <Single>]
[-JobManagerMemory <Int64>]
[-JobSpecArg <String>]
[-JobSpecEntryClass <String>]
[-JobSpecJarName <String>]
[-JobSpecJobJarDirectory <String>]
[-JobSpecSavePointName <String>]
[-JobSpecUpgradeMode <String>]
[-KafkaProfileEnableKRaft]
[-KafkaProfileEnablePublicEndpoint]
[-KafkaProfileRemoteStorageUri <String>]
[-KeyVaultResourceId <String>]
[-LlapProfile <Hashtable>]
[-LoadBasedConfigCooldownPeriod <Int32>]
[-LoadBasedConfigMaxNode <Int32>]
[-LoadBasedConfigMinNode <Int32>]
[-LoadBasedConfigPollInterval <Int32>]
[-LoadBasedConfigScalingRule <IScalingRule[]>]
[-LogAnalyticProfileMetricsEnabled]
[-ManagedIdentityProfileIdentityList <IManagedIdentitySpec[]>]
[-MetastoreSpecDbConnectionAuthenticationMode <String>]
[-OssVersion <String>]
[-PrometheuProfileEnabled]
[-RangerAdmin <String[]>]
[-RangerAuditStorageAccount <String>]
[-RangerPluginProfileEnabled]
[-RangerUsersyncEnabled]
[-RangerUsersyncGroup <String[]>]
[-RangerUsersyncMode <String>]
[-RangerUsersyncUser <String[]>]
[-RangerUsersyncUserMappingLocation <String>]
[-ScheduleBasedConfigDefaultCount <Int32>]
[-ScheduleBasedConfigSchedule <ISchedule[]>]
[-ScheduleBasedConfigTimeZone <String>]
[-ScriptActionProfile <IScriptActionProfile[]>]
[-SecretReference <ISecretReference[]>]
[-ServiceConfigsProfile <IClusterServiceConfigsProfile[]>]
[-SparkHiveCatalogDbName <String>]
[-SparkHiveCatalogDbPasswordSecretName <String>]
[-SparkHiveCatalogDbServerName <String>]
[-SparkHiveCatalogDbUserName <String>]
[-SparkHiveCatalogKeyVaultId <String>]
[-SparkStorageUrl <String>]
[-SparkThriftUrl <String>]
[-SshProfileCount <Int32>]
[-SshProfileVMSize <String>]
[-StorageHivecatalogName <String>]
[-StorageHivecatalogSchema <String>]
[-StoragePartitionRetentionInDay <Int32>]
[-StoragePath <String>]
[-StubProfile <Hashtable>]
[-Tag <Hashtable>]
[-TaskManagerCpu <Single>]
[-TaskManagerMemory <Int64>]
[-TrinoHiveCatalog <IHiveCatalogOption[]>]
[-TrinoProfileUserPluginsSpecPlugin <ITrinoUserPlugin[]>]
[-WorkerDebugEnable]
[-WorkerDebugPort <Int32>]
[-WorkerDebugSuspend]
[-DefaultProfile <PSObject>]
[-AsJob]
[-NoWait]
[-WhatIf]
[-Confirm]
[<CommonParameters>]
New-AzHdInsightOnAksCluster
-Name <String>
-PoolName <String>
-ResourceGroupName <String>
[-SubscriptionId <String>]
-JsonString <String>
[-DefaultProfile <PSObject>]
[-AsJob]
[-NoWait]
[-WhatIf]
[-Confirm]
[<CommonParameters>]
New-AzHdInsightOnAksCluster
-Name <String>
-PoolName <String>
-ResourceGroupName <String>
[-SubscriptionId <String>]
-JsonFilePath <String>
[-DefaultProfile <PSObject>]
[-AsJob]
[-NoWait]
[-WhatIf]
[-Confirm]
[<CommonParameters>]
New-AzHdInsightOnAksCluster
-Name <String>
-ClusterpoolInputObject <IHdInsightOnAksIdentity>
-Location <String>
[-ApplicationLogStdErrorEnabled]
[-ApplicationLogStdOutEnabled]
[-AssignedIdentityClientId <String>]
[-AssignedIdentityObjectId <String>]
[-AssignedIdentityResourceId <String>]
[-AuthorizationGroupId <String[]>]
[-AuthorizationUserId <String[]>]
[-AutoscaleProfileAutoscaleType <String>]
[-AutoscaleProfileEnabled]
[-AutoscaleProfileGracefulDecommissionTimeout <Int32>]
[-ClusterAccessProfileEnableInternalIngress]
[-ClusterType <String>]
[-ClusterVersion <String>]
[-ComputeProfileAvailabilityZone <String[]>]
[-ComputeProfileNode <INodeProfile[]>]
[-CoordinatorDebugEnable]
[-CoordinatorDebugPort <Int32>]
[-CoordinatorDebugSuspend]
[-CoordinatorHighAvailabilityEnabled]
[-DatabaseHost <String>]
[-DatabaseName <String>]
[-DatabasePasswordSecretRef <String>]
[-DatabaseUsername <String>]
[-DiskStorageDataDiskSize <Int32>]
[-DiskStorageDataDiskType <String>]
[-EnableLogAnalytics]
[-FlinkHiveCatalogDbConnectionUrl <String>]
[-FlinkHiveCatalogDbPasswordSecretName <String>]
[-FlinkHiveCatalogDbUserName <String>]
[-FlinkProfileDeploymentMode <String>]
[-FlinkStorageUrl <String>]
[-FlinkTaskManagerReplicaCount <Int32>]
[-HistoryServerCpu <Single>]
[-HistoryServerMemory <Int64>]
[-HiveMetastoreDbConnectionAuthenticationMode <String>]
[-JobManagerCpu <Single>]
[-JobManagerMemory <Int64>]
[-JobSpecArg <String>]
[-JobSpecEntryClass <String>]
[-JobSpecJarName <String>]
[-JobSpecJobJarDirectory <String>]
[-JobSpecSavePointName <String>]
[-JobSpecUpgradeMode <String>]
[-KafkaProfileEnableKRaft]
[-KafkaProfileEnablePublicEndpoint]
[-KafkaProfileRemoteStorageUri <String>]
[-KeyVaultResourceId <String>]
[-LlapProfile <Hashtable>]
[-LoadBasedConfigCooldownPeriod <Int32>]
[-LoadBasedConfigMaxNode <Int32>]
[-LoadBasedConfigMinNode <Int32>]
[-LoadBasedConfigPollInterval <Int32>]
[-LoadBasedConfigScalingRule <IScalingRule[]>]
[-LogAnalyticProfileMetricsEnabled]
[-ManagedIdentityProfileIdentityList <IManagedIdentitySpec[]>]
[-MetastoreSpecDbConnectionAuthenticationMode <String>]
[-OssVersion <String>]
[-PrometheuProfileEnabled]
[-RangerAdmin <String[]>]
[-RangerAuditStorageAccount <String>]
[-RangerPluginProfileEnabled]
[-RangerUsersyncEnabled]
[-RangerUsersyncGroup <String[]>]
[-RangerUsersyncMode <String>]
[-RangerUsersyncUser <String[]>]
[-RangerUsersyncUserMappingLocation <String>]
[-ScheduleBasedConfigDefaultCount <Int32>]
[-ScheduleBasedConfigSchedule <ISchedule[]>]
[-ScheduleBasedConfigTimeZone <String>]
[-ScriptActionProfile <IScriptActionProfile[]>]
[-SecretReference <ISecretReference[]>]
[-ServiceConfigsProfile <IClusterServiceConfigsProfile[]>]
[-SparkHiveCatalogDbName <String>]
[-SparkHiveCatalogDbPasswordSecretName <String>]
[-SparkHiveCatalogDbServerName <String>]
[-SparkHiveCatalogDbUserName <String>]
[-SparkHiveCatalogKeyVaultId <String>]
[-SparkStorageUrl <String>]
[-SparkThriftUrl <String>]
[-SshProfileCount <Int32>]
[-SshProfileVMSize <String>]
[-StorageHivecatalogName <String>]
[-StorageHivecatalogSchema <String>]
[-StoragePartitionRetentionInDay <Int32>]
[-StoragePath <String>]
[-StubProfile <Hashtable>]
[-Tag <Hashtable>]
[-TaskManagerCpu <Single>]
[-TaskManagerMemory <Int64>]
[-TrinoHiveCatalog <IHiveCatalogOption[]>]
[-TrinoProfileUserPluginsSpecPlugin <ITrinoUserPlugin[]>]
[-WorkerDebugEnable]
[-WorkerDebugPort <Int32>]
[-WorkerDebugSuspend]
[-DefaultProfile <PSObject>]
[-AsJob]
[-NoWait]
[-WhatIf]
[-Confirm]
[<CommonParameters>]
New-AzHdInsightOnAksCluster
-Name <String>
-ClusterpoolInputObject <IHdInsightOnAksIdentity>
-HdInsightOnAksCluster <ICluster>
[-DefaultProfile <PSObject>]
[-AsJob]
[-NoWait]
[-WhatIf]
[-Confirm]
[<CommonParameters>]
New-AzHdInsightOnAksCluster
-Name <String>
-PoolName <String>
-ResourceGroupName <String>
[-SubscriptionId <String>]
-HdInsightOnAksCluster <ICluster>
[-DefaultProfile <PSObject>]
[-AsJob]
[-NoWait]
[-WhatIf]
[-Confirm]
[<CommonParameters>]
New-AzHdInsightOnAksCluster
-InputObject <IHdInsightOnAksIdentity>
-Location <String>
[-ApplicationLogStdErrorEnabled]
[-ApplicationLogStdOutEnabled]
[-AssignedIdentityClientId <String>]
[-AssignedIdentityObjectId <String>]
[-AssignedIdentityResourceId <String>]
[-AuthorizationGroupId <String[]>]
[-AuthorizationUserId <String[]>]
[-AutoscaleProfileAutoscaleType <String>]
[-AutoscaleProfileEnabled]
[-AutoscaleProfileGracefulDecommissionTimeout <Int32>]
[-ClusterAccessProfileEnableInternalIngress]
[-ClusterType <String>]
[-ClusterVersion <String>]
[-ComputeProfileAvailabilityZone <String[]>]
[-ComputeProfileNode <INodeProfile[]>]
[-CoordinatorDebugEnable]
[-CoordinatorDebugPort <Int32>]
[-CoordinatorDebugSuspend]
[-CoordinatorHighAvailabilityEnabled]
[-DatabaseHost <String>]
[-DatabaseName <String>]
[-DatabasePasswordSecretRef <String>]
[-DatabaseUsername <String>]
[-DiskStorageDataDiskSize <Int32>]
[-DiskStorageDataDiskType <String>]
[-EnableLogAnalytics]
[-FlinkHiveCatalogDbConnectionUrl <String>]
[-FlinkHiveCatalogDbPasswordSecretName <String>]
[-FlinkHiveCatalogDbUserName <String>]
[-FlinkProfileDeploymentMode <String>]
[-FlinkStorageUrl <String>]
[-FlinkTaskManagerReplicaCount <Int32>]
[-HistoryServerCpu <Single>]
[-HistoryServerMemory <Int64>]
[-HiveMetastoreDbConnectionAuthenticationMode <String>]
[-JobManagerCpu <Single>]
[-JobManagerMemory <Int64>]
[-JobSpecArg <String>]
[-JobSpecEntryClass <String>]
[-JobSpecJarName <String>]
[-JobSpecJobJarDirectory <String>]
[-JobSpecSavePointName <String>]
[-JobSpecUpgradeMode <String>]
[-KafkaProfileEnableKRaft]
[-KafkaProfileEnablePublicEndpoint]
[-KafkaProfileRemoteStorageUri <String>]
[-KeyVaultResourceId <String>]
[-LlapProfile <Hashtable>]
[-LoadBasedConfigCooldownPeriod <Int32>]
[-LoadBasedConfigMaxNode <Int32>]
[-LoadBasedConfigMinNode <Int32>]
[-LoadBasedConfigPollInterval <Int32>]
[-LoadBasedConfigScalingRule <IScalingRule[]>]
[-LogAnalyticProfileMetricsEnabled]
[-ManagedIdentityProfileIdentityList <IManagedIdentitySpec[]>]
[-MetastoreSpecDbConnectionAuthenticationMode <String>]
[-OssVersion <String>]
[-PrometheuProfileEnabled]
[-RangerAdmin <String[]>]
[-RangerAuditStorageAccount <String>]
[-RangerPluginProfileEnabled]
[-RangerUsersyncEnabled]
[-RangerUsersyncGroup <String[]>]
[-RangerUsersyncMode <String>]
[-RangerUsersyncUser <String[]>]
[-RangerUsersyncUserMappingLocation <String>]
[-ScheduleBasedConfigDefaultCount <Int32>]
[-ScheduleBasedConfigSchedule <ISchedule[]>]
[-ScheduleBasedConfigTimeZone <String>]
[-ScriptActionProfile <IScriptActionProfile[]>]
[-SecretReference <ISecretReference[]>]
[-ServiceConfigsProfile <IClusterServiceConfigsProfile[]>]
[-SparkHiveCatalogDbName <String>]
[-SparkHiveCatalogDbPasswordSecretName <String>]
[-SparkHiveCatalogDbServerName <String>]
[-SparkHiveCatalogDbUserName <String>]
[-SparkHiveCatalogKeyVaultId <String>]
[-SparkStorageUrl <String>]
[-SparkThriftUrl <String>]
[-SshProfileCount <Int32>]
[-SshProfileVMSize <String>]
[-StorageHivecatalogName <String>]
[-StorageHivecatalogSchema <String>]
[-StoragePartitionRetentionInDay <Int32>]
[-StoragePath <String>]
[-StubProfile <Hashtable>]
[-Tag <Hashtable>]
[-TaskManagerCpu <Single>]
[-TaskManagerMemory <Int64>]
[-TrinoHiveCatalog <IHiveCatalogOption[]>]
[-TrinoProfileUserPluginsSpecPlugin <ITrinoUserPlugin[]>]
[-WorkerDebugEnable]
[-WorkerDebugPort <Int32>]
[-WorkerDebugSuspend]
[-DefaultProfile <PSObject>]
[-AsJob]
[-NoWait]
[-WhatIf]
[-Confirm]
[<CommonParameters>]
New-AzHdInsightOnAksCluster
-InputObject <IHdInsightOnAksIdentity>
-HdInsightOnAksCluster <ICluster>
[-DefaultProfile <PSObject>]
[-AsJob]
[-NoWait]
[-WhatIf]
[-Confirm]
[<CommonParameters>]
说明
创建集群。
示例
示例 1:创建简单的 Trino 群集
# Create Simple Trino Cluster
$clusterPoolName="{your cluster pool name}";
$resourceGroupName="{your resource group name}";
$location="West US 2";
$clusterType="Trino"
# Get available cluster version based the command Get-AzHdInsightOnAksAvailableClusterVersion
$clusterVersion= (Get-AzHdInsightOnAksAvailableClusterVersion -Location $location | Where-Object {$_.ClusterType -eq $clusterType})[0]
$msiResourceId="/subscriptions/00000000-0000-0000-0000-000000000000/resourcegroups/{your resource group name}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{your msi}";
$msiClientId="00000000-0000-0000-0000-000000000000";
$msiObjectId="00000000-0000-0000-0000-000000000000";
$userId="00000000-0000-0000-0000-000000000000";
# create node profile
$vmSize="Standard_E8ads_v5";
$workerCount=5;
$nodeProfile = New-AzHdInsightOnAksNodeProfileObject -Type Worker -Count $workerCount -VMSize $vmSize
$clusterName="{your cluster name}";
New-AzHdInsightOnAksCluster -Name $clusterName `
-PoolName $clusterPoolName `
-ResourceGroupName $resourceGroupName `
-Location $location `
-ClusterType $clusterType `
-ClusterVersion $clusterVersion.ClusterVersionValue `
-OssVersion $clusterVersion.OssVersion `
-AssignedIdentityResourceId $msiResourceId `
-AssignedIdentityClientId $msiClientId `
-AssignedIdentityObjectId $msiObjectId `
-ComputeProfileNode $nodeProfile `
-AuthorizationUserId $userId
ApplicationLogStdErrorEnabled : False
ApplicationLogStdOutEnabled : False
AuthorizationProfileGroupId :
AuthorizationProfileUserId : {00000000-0000-0000-0000-000000000000}
AutoscaleProfileAutoscaleType :
AutoscaleProfileEnabled : False
AutoscaleProfileGracefulDecommissionTimeout :
ClusterType : Trino
ComputeProfileNode : {Microsoft.Azure.PowerShell.Cmdlets.HdInsightOnAks.Models.NodeProfil
e, Microsoft.Azure.PowerShell.Cmdlets.HdInsightOnAks.Models.NodeProf
ile}
ConnectivityProfileSsh :
CoordinatorDebugEnable :
...
使用最少参数创建 Trino 群集。
示例 2:使用 Hive 目录创建 Trino 群集
# Create trino cluster with Hive catalog
$clusterPoolName="{your cluster pool name}";
$resourceGroupName="{your resource group name}";
$location="West US 2";
$clusterType="Trino"
# Get available cluster version based the command Get-AzHdInsightOnAksAvailableClusterVersion
$clusterVersion= (Get-AzHdInsightOnAksAvailableClusterVersion -Location $location | Where-Object {$_.ClusterType -eq $clusterType})[0]
# user msi related parameters
$msiResourceId="/subscriptions/00000000-0000-0000-0000-000000000000/resourcegroups/{your resource group name}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{your msi}";
$msiClientId="00000000-0000-0000-0000-000000000000";
$msiObjectId="00000000-0000-0000-0000-000000000000";
# cluster authorization information
$userId="00000000-0000-0000-0000-000000000000";
# create node profile
$vmSize="Standard_E8ads_v5";
$workerCount=5;
$nodeProfile = New-AzHdInsightOnAksNodeProfileObject -Type Worker -Count $workerCount -VMSize $vmSize
$keyVaultResourceId="/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/{your resource group name}/providers/Microsoft.KeyVault/vaults/{your vault name}";
$secretName="{your secret name}"
$referenceName="{your secret reference name}";
$secretReference=New-AzHdInsightOnAksSecretReferenceObject -SecretName $secretName -ReferenceName $referenceName
#hive catalog configuration
$catalogName="{your catalog name}"
$metastoreDbConnectionURL="jdbc:sqlserver://{your sql server url};database={your db name};encrypt=true;trustServerCertificate=true;loginTimeout=30;";
$metastoreDbUserName="{your db user name}";
$metastoreDbPasswordSecret=$secretName;
$metastoreWarehouseDir="abfs://{your container name}@{your adls gen2 endpoint}/{your path}";
$trinoHiveCatalogOption=New-AzHdInsightOnAksTrinoHiveCatalogObject -CatalogName $catalogName -MetastoreDbConnectionUrl $metastoreDbConnectionURL -MetastoreDbConnectionUserName $metastoreDbUserName -MetastoreDbConnectionPasswordSecret $metastoreDbPasswordSecret -MetastoreWarehouseDir $metastoreWarehouseDir
$clusterName="{your cluster name}";
New-AzHdInsightOnAksCluster -Name $clusterName `
-PoolName $clusterPoolName `
-ResourceGroupName $resourceGroupName `
-Location $location `
-ClusterType $clusterType `
-ClusterVersion $clusterVersion.ClusterVersionValue `
-OssVersion $clusterVersion.OssVersion `
-AssignedIdentityResourceId $msiResourceId `
-AssignedIdentityClientId $msiClientId `
-AssignedIdentityObjectId $msiObjectId `
-ComputeProfileNode $nodeProfile `
-AuthorizationUserId $userId `
-KeyVaultResourceId $keyVaultResourceId `
-SecretReference $secretReference `
-TrinoHiveCatalog $trinoHiveCatalogOption
ApplicationLogStdErrorEnabled : False
ApplicationLogStdOutEnabled : False
AuthorizationProfileGroupId :
AuthorizationProfileUserId : {00000000-0000-0000-0000-000000000000}
AutoscaleProfileAutoscaleType :
AutoscaleProfileEnabled : False
AutoscaleProfileGracefulDecommissionTimeout :
ClusterType : Trino
ComputeProfileNode : {Microsoft.Azure.PowerShell.Cmdlets.HdInsightOnAks.Models.NodeProfil
e, Microsoft.Azure.PowerShell.Cmdlets.HdInsightOnAks.Models.NodeProf
ile}
ConnectivityProfileSsh :
CoordinatorDebugEnable :
...
使用 Hive 目录功能创建 Trino 群集。
示例 3:创建简单的 Spark 群集
$clusterPoolName="{your cluster pool name}";
$resourceGroupName="{your resource group name}";
$location="West US 2";
$clusterType="Spark"
# Get available cluster version based the command Get-AzHdInsightOnAksAvailableClusterVersion
$clusterVersion= (Get-AzHdInsightOnAksAvailableClusterVersion -Location $location | Where-Object {$_.ClusterType -eq $clusterType})[0]
$msiResourceId="/subscriptions/00000000-0000-0000-0000-000000000000/resourcegroups/{your resource group name}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{your msi}";
$msiClientId="00000000-0000-0000-0000-000000000000";
$msiObjectId="00000000-0000-0000-0000-000000000000";
$userId="00000000-0000-0000-0000-000000000000";
# create node profile
$vmSize="Standard_E8d_v5";
$workerCount=5;
$nodeProfile = New-AzHdInsightOnAksNodeProfileObject -Type Worker -Count $workerCount -VMSize $vmSize
$sparkStorageUrl="abfs://{your container name}@{your adls gen2 endpoint}"
$clusterName="{your cluster name}";
New-AzHdInsightOnAksCluster -Name $clusterName `
-PoolName $clusterPoolName `
-ResourceGroupName $resourceGroupName `
-Location $location `
-ClusterType $clusterType `
-ClusterVersion $clusterVersion.ClusterVersionValue `
-OssVersion $clusterVersion.OssVersion `
-AssignedIdentityResourceId $msiResourceId `
-AssignedIdentityClientId $msiClientId `
-AssignedIdentityObjectId $msiObjectId `
-ComputeProfileNode $nodeProfile `
-AuthorizationUserId $userId `
-SparkStorageUrl $sparkStorageUrl
ApplicationLogStdErrorEnabled : False
ApplicationLogStdOutEnabled : False
AuthorizationProfileGroupId :
AuthorizationProfileUserId : {00000000-0000-0000-0000-000000000000}
AutoscaleProfileAutoscaleType :
AutoscaleProfileEnabled : False
AutoscaleProfileGracefulDecommissionTimeout :
ClusterType : Spark
ComputeProfileNode : {Microsoft.Azure.PowerShell.Cmdlets.HdInsightOnAks.Models.NodeProfil
e, Microsoft.Azure.PowerShell.Cmdlets.HdInsightOnAks.Models.NodeProf
ile}
ConnectivityProfileSsh :
CoordinatorDebugEnable :
...
使用最少参数创建 Spark 群集。
示例 4:使用 Hive 目录创建 Spark 群集
$clusterPoolName="{your cluster pool name}";
$resourceGroupName="{your resource group name}";
$location="West US 2";
$clusterType="Spark"
# Get available cluster version based the command Get-AzHdInsightOnAksAvailableClusterVersion
$clusterVersion= (Get-AzHdInsightOnAksAvailableClusterVersion -Location $location | Where-Object {$_.ClusterType -eq $clusterType})[0]
$msiResourceId="/subscriptions/00000000-0000-0000-0000-000000000000/resourcegroups/{your resource group name}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{your msi}";
$msiClientId="00000000-0000-0000-0000-000000000000";
$msiObjectId="00000000-0000-0000-0000-000000000000";
$userId="00000000-0000-0000-0000-000000000000";
# create node profile
$vmSize="Standard_E8s_v3";
$workerCount=5;
$nodeProfile = New-AzHdInsightOnAksNodeProfileObject -Type Worker -Count $workerCount -VMSize $vmSize
# secret profile
$keyVaultResourceId="/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/{your resource group name}/providers/Microsoft.KeyVault/vaults/{your vault name}";
$secretName="{your secret name}"
$referenceName="{your secret reference name}";
$secretReference=New-AzHdInsightOnAksSecretReferenceObject -SecretName $secretName -ReferenceName $referenceName
# Spark config
$sparkStorageUrl="abfs://{your container}@{your adls gen2 endpoint}" # example abfs://container@adlsgen2storage.dfs.core.windows.net
# Spark Hive catalog config
$metastoreDbName="{your db name}"
$metastoreServerName="{your sql server endpoint}" # example: server1.database.windows.net
$metastoreDbUserName="{your db user name}"
$metastoreDbPasswordSecret=$secretName
$clusterName="{your cluster name}";
New-AzHdInsightOnAksCluster -Name $clusterName `
-PoolName $clusterPoolName `
-ResourceGroupName $resourceGroupName `
-Location $location `
-ClusterType $clusterType `
-ClusterVersion $clusterVersion.ClusterVersionValue `
-OssVersion $clusterVersion.OssVersion `
-AssignedIdentityResourceId $msiResourceId `
-AssignedIdentityClientId $msiClientId `
-AssignedIdentityObjectId $msiObjectId `
-ComputeProfileNode $nodeProfile `
-AuthorizationUserId $userId `
-KeyVaultResourceId $keyVaultResourceId `
-SecretReference $secretReference `
-SparkStorageUrl $sparkStorageUrl `
-SparkHiveCatalogDbName $metastoreDbName `
-SparkHiveCatalogDbPasswordSecretName $metastoreDbPasswordSecret `
-SparkHiveCatalogDbServerName $metastoreServerName `
-SparkHiveCatalogDbUserName $metastoreDbUserName `
-SparkHiveCatalogKeyVaultId $keyVaultResourceId
ApplicationLogStdErrorEnabled : False
ApplicationLogStdOutEnabled : False
AuthorizationProfileGroupId :
AuthorizationProfileUserId : {00000000-0000-0000-0000-000000000000}
AutoscaleProfileAutoscaleType :
AutoscaleProfileEnabled : False
AutoscaleProfileGracefulDecommissionTimeout :
ClusterType : Spark
ComputeProfileNode : {Microsoft.Azure.PowerShell.Cmdlets.HdInsightOnAks.Models.NodeProfil
e, Microsoft.Azure.PowerShell.Cmdlets.HdInsightOnAks.Models.NodeProf
ile}
ConnectivityProfileSsh :
CoordinatorDebugEnable :
...
使用 Hive 目录功能创建 Spark 群集。
示例 5:创建简单的 Flink 群集
$clusterPoolName="{your cluster pool name}";
$resourceGroupName="{your resource group name}";
$location="West US 2";
$clusterType="Flink"
# Get available cluster version based the command Get-AzHdInsightOnAksAvailableClusterVersion
$clusterVersion= (Get-AzHdInsightOnAksAvailableClusterVersion -Location $location | Where-Object {$_.ClusterType -eq $clusterType})[0]
$msiResourceId="/subscriptions/00000000-0000-0000-0000-000000000000/resourcegroups/{your resource group name}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{your msi}";
$msiClientId="00000000-0000-0000-0000-000000000000";
$msiObjectId="00000000-0000-0000-0000-000000000000";
$userId="00000000-0000-0000-0000-000000000000";
# create node profile
$vmSize="Standard_E8d_v5";
$workerCount=5;
$nodeProfile = New-AzHdInsightOnAksNodeProfileObject -Type Worker -Count $workerCount -VMSize $vmSize
# Flink config
$flinkStorageUrl="abfs://{your container}@{your adls gen2 endpoint}" # example abfs://container@adlsgen2storage.dfs.core.windows.net
$taskManagerCpu=1
$taskManagerMemory=4096 # memory in MB
$jobManagerCpu=1
$jobManagerMemory=4096 # memory in MB
$clusterName="{your cluster name}";
New-AzHdInsightOnAksCluster -Name $clusterName `
-PoolName $clusterPoolName `
-ResourceGroupName $resourceGroupName `
-Location $location `
-ClusterType $clusterType `
-ClusterVersion $clusterVersion.ClusterVersionValue `
-OssVersion $clusterVersion.OssVersion `
-AssignedIdentityResourceId $msiResourceId `
-AssignedIdentityClientId $msiClientId `
-AssignedIdentityObjectId $msiObjectId `
-ComputeProfileNode $nodeProfile `
-AuthorizationUserId $userId `
-FlinkStorageUrl $flinkStorageUrl `
-JobManagerCpu $jobManagerCpu `
-JobManagerMemory $jobManagerMemory `
-TaskManagerCpu $taskManagerCpu `
-TaskManagerMemory $taskManagerMemory
ApplicationLogStdErrorEnabled : False
ApplicationLogStdOutEnabled : False
AuthorizationProfileGroupId :
AuthorizationProfileUserId : {00000000-0000-0000-0000-000000000000}
AutoscaleProfileAutoscaleType :
AutoscaleProfileEnabled : False
AutoscaleProfileGracefulDecommissionTimeout :
ClusterType : Flink
ComputeProfileNode : {Microsoft.Azure.PowerShell.Cmdlets.HdInsightOnAks.Models.NodeProfil
e, Microsoft.Azure.PowerShell.Cmdlets.HdInsightOnAks.Models.NodeProf
ile}
ConnectivityProfileSsh :
CoordinatorDebugEnable :
...
使用最少参数创建 Flink 群集。
示例 6:使用 Hive 目录创建 Flink 群集
$clusterPoolName="{your cluster pool name}";
$resourceGroupName="{your resource group name}";
$location="West US 2";
$clusterType="Flink"
# Get available cluster version based the command Get-AzHdInsightOnAksAvailableClusterVersion
$clusterVersion= (Get-AzHdInsightOnAksAvailableClusterVersion -Location $location | Where-Object {$_.ClusterType -eq $clusterType})[0]
$msiResourceId="/subscriptions/00000000-0000-0000-0000-000000000000/resourcegroups/{your resource group name}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{your msi}";
$msiClientId="00000000-0000-0000-0000-000000000000";
$msiObjectId="00000000-0000-0000-0000-000000000000";
$userId="00000000-0000-0000-0000-000000000000";
# create node profile
$vmSize="Standard_E8d_v5";
$workerCount=5;
$nodeProfile = New-AzHdInsightOnAksNodeProfileObject -Type Worker -Count $workerCount -VMSize $vmSize
# Flink config
$flinkStorageUrl="abfs://{your container}@{your adls gen2 endpoint}" # example abfs://container@adlsgen2storage.dfs.core.windows.net
$taskManagerCpu=1
$taskManagerMemory=4096 # memory in MB
$jobManagerCpu=1
$jobManagerMemory=4096 # memory in MB
# secret profile
$keyVaultResourceId="/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/{your resource group name}/providers/Microsoft.KeyVault/vaults/{your vault name}";
$secretName="{your secret name}"
$referenceName="{your secret reference name}";
$secretReference=New-AzHdInsightOnAksSecretReferenceObject -SecretName $secretName -ReferenceName $referenceName
# Flink hive catalog config
$metastoreDbConnectionUrl="jdbc:sqlserver://{your sql server url};database={your db name};encrypt=true;trustServerCertificate=true;loginTimeout=30;";
$metastoreDbUserName="{your db user name}"
$metastoreDbPasswordSecret=$secretName
$clusterName="{your cluster name}";
New-AzHdInsightOnAksCluster -Name $clusterName `
-PoolName $clusterPoolName `
-ResourceGroupName $resourceGroupName `
-Location $location `
-ClusterType $clusterType `
-ClusterVersion $clusterVersion.ClusterVersionValue `
-OssVersion $clusterVersion.OssVersion `
-AssignedIdentityResourceId $msiResourceId `
-AssignedIdentityClientId $msiClientId `
-AssignedIdentityObjectId $msiObjectId `
-ComputeProfileNode $nodeProfile `
-AuthorizationUserId $userId `
-KeyVaultResourceId $keyVaultResourceId `
-SecretReference $secretReference `
-FlinkStorageUrl $flinkStorageUrl `
-JobManagerCpu $jobManagerCpu `
-JobManagerMemory $jobManagerMemory `
-TaskManagerCpu $taskManagerCpu `
-TaskManagerMemory $taskManagerMemory `
-FlinkHiveCatalogDbConnectionUrl $metastoreDbConnectionUrl `
-FlinkHiveCatalogDbUserName $metastoreDbUserName `
-FlinkHiveCatalogDbPasswordSecretName $metastoreDbPasswordSecret
ApplicationLogStdErrorEnabled : False
ApplicationLogStdOutEnabled : False
AuthorizationProfileGroupId :
AuthorizationProfileUserId : {00000000-0000-0000-0000-000000000000}
AutoscaleProfileAutoscaleType :
AutoscaleProfileEnabled : False
AutoscaleProfileGracefulDecommissionTimeout :
ClusterType : Flink
ComputeProfileNode : {Microsoft.Azure.PowerShell.Cmdlets.HdInsightOnAks.Models.NodeProfil
e, Microsoft.Azure.PowerShell.Cmdlets.HdInsightOnAks.Models.NodeProf
ile}
ConnectivityProfileSsh :
CoordinatorDebugEnable :
...
使用 Hive 目录功能创建 Flink 群集。
参数
-ApplicationLogStdErrorEnabled
如果启用了 stderror,则为 True,否则为 false。
类型: | SwitchParameter |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-ApplicationLogStdOutEnabled
如果启用了 stdout,则为 True,否则为 false。
类型: | SwitchParameter |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-AsJob
以作业身份运行命令
类型: | SwitchParameter |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-AssignedIdentityClientId
MSI 的 ClientId。
类型: | String |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-AssignedIdentityObjectId
MSI 的 ObjectId。
类型: | String |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-AssignedIdentityResourceId
MSI 的 ResourceId。
类型: | String |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-AuthorizationGroupId
有权访问数据平面的 AAD 组 ID。
类型: | String[] |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-AuthorizationUserId
有权访问数据平面的 AAD 用户 ID。
类型: | String[] |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-AutoscaleProfileAutoscaleType
用户指定要实现的自动缩放类型 - 基于计划的或基于负载的。
类型: | String |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-AutoscaleProfileEnabled
这表示是否在 AKS 群集上的 HDInsight 上启用自动缩放。
类型: | SwitchParameter |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-AutoscaleProfileGracefulDecommissionTimeout
此属性用于正常解除授权超时;它在强制关闭前的默认设置为 3600 秒。 这是在将解除授权节点转换为 DECOMMISSIONED 之前等待运行容器和应用程序完成的最大时间。 默认值为 3600 秒。 负值(如 -1)作为无限超时处理。
类型: | Int32 |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-ClusterAccessProfileEnableInternalIngress
是否使用专用 IP 而不是公共 IP 创建群集。 必须在创建时设置此属性。
类型: | SwitchParameter |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-ClusterpoolInputObject
标识参数
类型: | IHdInsightOnAksIdentity |
Position: | Named |
默认值: | None |
必需: | True |
接受管道输入: | True |
接受通配符: | False |
-ClusterType
群集的类型。
类型: | String |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-ClusterVersion
3/4 部分的版本。
类型: | String |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-ComputeProfileAvailabilityZone
用于 AKS VMSS 节点的可用性区域列表。
类型: | String[] |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-ComputeProfileNode
节点定义。
类型: | INodeProfile[] |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-Confirm
在运行 cmdlet 之前,提示你进行确认。
类型: | SwitchParameter |
别名: | cf |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-CoordinatorDebugEnable
如果启用调试或不启用的标志。
类型: | SwitchParameter |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-CoordinatorDebugPort
调试端口。
类型: | Int32 |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-CoordinatorDebugSuspend
如果暂停调试或不进行调试的标志。
类型: | SwitchParameter |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-CoordinatorHighAvailabilityEnabled
如果启用协调器 HA,则使用具有自动故障转移的多个协调器副本,每个头节点各有一个。 默认值:true。
类型: | SwitchParameter |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-DatabaseHost
数据库 URL
类型: | String |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-DatabaseName
数据库名称
类型: | String |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-DatabasePasswordSecretRef
数据库密码参考
类型: | String |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-DatabaseUsername
数据库用户的名称
类型: | String |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-DefaultProfile
DefaultProfile 参数不起作用。 如果对其他订阅执行 cmdlet,请使用 SubscriptionId 参数。
类型: | PSObject |
别名: | AzureRMContext, AzureCredential |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-DiskStorageDataDiskSize
托管磁盘大小(以 GB 为单位)。 标准版和高级 HDD/SSD 支持的最大磁盘大小为 32TB,高级 SSD v2 支持最多 64TB。
类型: | Int32 |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-DiskStorageDataDiskType
托管磁盘类型。
类型: | String |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-EnableLogAnalytics
如果为群集启用了 Log Analytics,则为 True,否则为 false。
类型: | SwitchParameter |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-FlinkHiveCatalogDbConnectionUrl
hive 元存储数据库的连接字符串。
类型: | String |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-FlinkHiveCatalogDbPasswordSecretName
包含数据库连接密码的 secretsProfile.secrets 的机密引用名称。
类型: | String |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-FlinkHiveCatalogDbUserName
数据库连接的用户名。
类型: | String |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-FlinkProfileDeploymentMode
一个字符串属性,指示 Flink 群集的部署模式。 它可以具有以下枚举值之一 => Application, Session。 默认值为 Session
类型: | String |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-FlinkStorageUrl
用于保存点和检查点状态的存储帐户 URI。
类型: | String |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-FlinkTaskManagerReplicaCount
任务管理器的数量。
类型: | Int32 |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-HdInsightOnAksCluster
群集。
类型: | ICluster |
Position: | Named |
默认值: | None |
必需: | True |
接受管道输入: | True |
接受通配符: | False |
-HistoryServerCpu
所需的 CPU。
类型: | Single |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-HistoryServerMemory
所需的内存(以 MB 为单位)的容器内存将为 110 百分点
类型: | Int64 |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-HiveMetastoreDbConnectionAuthenticationMode
用于连接到 Hive 元存储数据库的身份验证模式。 更多详细信息:https://learn.microsoft.com/en-us/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization
类型: | String |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-InputObject
标识参数
类型: | IHdInsightOnAksIdentity |
Position: | Named |
默认值: | None |
必需: | True |
接受管道输入: | True |
接受通配符: | False |
-JobManagerCpu
所需的 CPU。
类型: | Single |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-JobManagerMemory
所需的内存(以 MB 为单位)的容器内存将为 110 百分点
类型: | Int64 |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-JobSpecArg
表示 Flink 作业的其他 JVM 参数的字符串属性。 它应为空格分隔值。
类型: | String |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-JobSpecEntryClass
一个字符串属性,指定 Flink 作业的条目类。 如果未指定,则从 flink 作业 jar 包自动检测入口点。
类型: | String |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-JobSpecJarName
一个表示作业 JAR 名称的字符串属性。
类型: | String |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-JobSpecJobJarDirectory
一个字符串属性,指定作业 JAR 所在的目录。
类型: | String |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-JobSpecSavePointName
一个字符串属性,表示 Flink 作业的保存点的名称
类型: | String |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-JobSpecUpgradeMode
一个字符串属性,指示要对 Flink 作业执行的升级模式。 它可以具有以下枚举值之一 => STATELESS_UPDATE,UPDATE,LAST_STATE_UPDATE。
类型: | String |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-JsonFilePath
提供给“创建”操作的 Json 文件的路径
类型: | String |
Position: | Named |
默认值: | None |
必需: | True |
接受管道输入: | False |
接受通配符: | False |
-JsonString
提供给“创建”操作的 Json 字符串
类型: | String |
Position: | Named |
默认值: | None |
必需: | True |
接受管道输入: | False |
接受通配符: | False |
-KafkaProfileEnableKRaft
在 KRaft 模式下公开 Kafka 群集。
类型: | SwitchParameter |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-KafkaProfileEnablePublicEndpoint
将工作器节点公开为公共终结点。
类型: | SwitchParameter |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-KafkaProfileRemoteStorageUri
用于分层存储的 Azure 存储容器的完全限定路径。
类型: | String |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-KeyVaultResourceId
存储所有群集特定用户机密的用户 Key Vault 的名称。
类型: | String |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-LlapProfile
LLAP 群集配置文件。
类型: | Hashtable |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-LoadBasedConfigCooldownPeriod
这是一个冷却期,这是一个以秒为单位的时间段,它确定在规则启动的缩放活动与下一个缩放活动的开始之间必须经过的时间量,而不考虑触发它的规则。 默认值为 300 秒。
类型: | Int32 |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-LoadBasedConfigMaxNode
用户需要设置基于负载的缩放的最大节点数,基于负载的缩放将使用此缩放在最小节点和最大节点数之间纵向扩展和缩减。
类型: | Int32 |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-LoadBasedConfigMinNode
用户需要为基于负载的缩放设置最小节点数,基于负载的缩放将使用此缩放在最小节点和最大节点数之间纵向扩展和缩减。
类型: | Int32 |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-LoadBasedConfigPollInterval
用户可以指定轮询间隔,这是在轮询缩放指标以触发缩放操作之后的时间段(以秒为单位)。
类型: | Int32 |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-LoadBasedConfigScalingRule
缩放规则。
类型: | IScalingRule[] |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-Location
资源所在的地理位置
类型: | String |
Position: | Named |
默认值: | None |
必需: | True |
接受管道输入: | False |
接受通配符: | False |
-LogAnalyticProfileMetricsEnabled
如果启用了指标,则为 True,否则为 false。
类型: | SwitchParameter |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-ManagedIdentityProfileIdentityList
托管标识列表。
类型: | IManagedIdentitySpec[] |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-MetastoreSpecDbConnectionAuthenticationMode
用于连接到 Hive 元存储数据库的身份验证模式。 更多详细信息:https://learn.microsoft.com/en-us/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization
类型: | String |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-Name
HDInsight 群集的名称。
类型: | String |
别名: | ClusterName |
Position: | Named |
默认值: | None |
必需: | True |
接受管道输入: | False |
接受通配符: | False |
-NoWait
异步运行命令
类型: | SwitchParameter |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-OssVersion
具有三个部分的版本。
类型: | String |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-PoolName
群集池的名称。
类型: | String |
别名: | ClusterPoolName |
Position: | Named |
默认值: | None |
必需: | True |
接受管道输入: | False |
接受通配符: | False |
-PrometheuProfileEnabled
为群集启用 Prometheus。
类型: | SwitchParameter |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-RangerAdmin
应标记为 ranger 管理员的用户名列表。 这些用户名应与相应 AAD 用户的用户主体名称(UPN)匹配。
类型: | String[] |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-RangerAuditStorageAccount
Blob 的 Azure 存储位置。 MSI 应具有对此存储帐户的读/写访问权限。
类型: | String |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-RangerPluginProfileEnabled
为群集启用 Ranger。
类型: | SwitchParameter |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-RangerUsersyncEnabled
表示是否应启用用户同步服务
类型: | SwitchParameter |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-RangerUsersyncGroup
应同步的组列表。 这些组名称应与相应 AAD 组的对象 ID 匹配。
类型: | String[] |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-RangerUsersyncMode
用户 & 组可以自动或通过刷新的静态列表进行同步。
类型: | String |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-RangerUsersyncUser
应同步的用户名列表。 这些用户名应与相应 AAD 用户的用户主体名称匹配。
类型: | String[] |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-RangerUsersyncUserMappingLocation
列出用户 & 组关联的映射文件的 Azure 存储位置。
类型: | String |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-ResourceGroupName
资源组的名称。 此名称不区分大小写。
类型: | String |
Position: | Named |
默认值: | None |
必需: | True |
接受管道输入: | False |
接受通配符: | False |
-ScheduleBasedConfigDefaultCount
设置当前计划配置的默认节点计数。 默认节点计数指定执行指定缩放操作时默认的节点数(纵向扩展/缩减)
类型: | Int32 |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-ScheduleBasedConfigSchedule
这指定要启用基于计划的自动缩放的计划,用户可以选择在计划内跨天数和时间(开始/结束)设置多个规则。
类型: | ISchedule[] |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-ScheduleBasedConfigTimeZone
用户必须指定必须为其设置基于计划的自动缩放配置的时区。
类型: | String |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-ScriptActionProfile
脚本操作配置文件列表。
类型: | IScriptActionProfile[] |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-SecretReference
Key Vault 机密的属性。
类型: | ISecretReference[] |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-ServiceConfigsProfile
服务配置配置文件。
类型: | IClusterServiceConfigsProfile[] |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-SparkHiveCatalogDbName
数据库名称。
类型: | String |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-SparkHiveCatalogDbPasswordSecretName
包含数据库用户密码的机密名称。
类型: | String |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-SparkHiveCatalogDbServerName
数据库服务器主机。
类型: | String |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-SparkHiveCatalogDbUserName
数据库用户名。
类型: | String |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-SparkHiveCatalogKeyVaultId
密钥保管库资源 ID。
类型: | String |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-SparkStorageUrl
默认存储 URL。
类型: | String |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-SparkThriftUrl
节俭 URL。
类型: | String |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-SshProfileCount
每个群集的 ssh Pod 数。
类型: | Int32 |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-SshProfileVMSize
虚拟机 SKU。
类型: | String |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-StorageHivecatalogName
如果未指定,则用于在 Trino 编写的日志上装载外部表的 Hive 目录名称。如果未指定,则不会创建表。
类型: | String |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-StorageHivecatalogSchema
要使用的上述目录的架构,若要将查询日志装载为外部表,如果未指定表,则会在架构 trinolog 下装载。
类型: | String |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-StoragePartitionRetentionInDay
查询日志表分区的保留期,这不会影响实际数据。
类型: | Int32 |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-StoragePath
Blob 的 Azure 存储位置。
类型: | String |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-StubProfile
存根群集配置文件。
类型: | Hashtable |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-SubscriptionId
目标订阅的 ID。 该值必须是 UUID。
类型: | String |
Position: | Named |
默认值: | (Get-AzContext).Subscription.Id |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-Tag
资源标记。
类型: | Hashtable |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-TaskManagerCpu
所需的 CPU。
类型: | Single |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-TaskManagerMemory
所需的内存(以 MB 为单位)的容器内存将为 110 百分点
类型: | Int64 |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-TrinoHiveCatalog
hive 目录选项。
类型: | IHiveCatalogOption[] |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-TrinoProfileUserPluginsSpecPlugin
Trino 用户插件。
类型: | ITrinoUserPlugin[] |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-WhatIf
显示 cmdlet 运行时会发生什么情况。 命令脚本未运行。
类型: | SwitchParameter |
别名: | wi |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-WorkerDebugEnable
如果启用调试或不启用的标志。
类型: | SwitchParameter |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-WorkerDebugPort
调试端口。
类型: | Int32 |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |
-WorkerDebugSuspend
如果暂停调试或不进行调试的标志。
类型: | SwitchParameter |
Position: | Named |
默认值: | None |
必需: | False |
接受管道输入: | False |
接受通配符: | False |