你当前正在访问 Microsoft Azure Global Edition 技术文档网站。 如果需要访问由世纪互联运营的 Microsoft Azure 中国技术文档网站,请访问 https://docs.azure.cn

New-AzHdInsightOnAksCluster

创建集群。

语法

New-AzHdInsightOnAksCluster
   -Name <String>
   -PoolName <String>
   -ResourceGroupName <String>
   [-SubscriptionId <String>]
   -Location <String>
   [-ApplicationLogStdErrorEnabled]
   [-ApplicationLogStdOutEnabled]
   [-AssignedIdentityClientId <String>]
   [-AssignedIdentityObjectId <String>]
   [-AssignedIdentityResourceId <String>]
   [-AuthorizationGroupId <String[]>]
   [-AuthorizationUserId <String[]>]
   [-AutoscaleProfileAutoscaleType <String>]
   [-AutoscaleProfileEnabled]
   [-AutoscaleProfileGracefulDecommissionTimeout <Int32>]
   [-ClusterAccessProfileEnableInternalIngress]
   [-ClusterType <String>]
   [-ClusterVersion <String>]
   [-ComputeProfileAvailabilityZone <String[]>]
   [-ComputeProfileNode <INodeProfile[]>]
   [-CoordinatorDebugEnable]
   [-CoordinatorDebugPort <Int32>]
   [-CoordinatorDebugSuspend]
   [-CoordinatorHighAvailabilityEnabled]
   [-DatabaseHost <String>]
   [-DatabaseName <String>]
   [-DatabasePasswordSecretRef <String>]
   [-DatabaseUsername <String>]
   [-DiskStorageDataDiskSize <Int32>]
   [-DiskStorageDataDiskType <String>]
   [-EnableLogAnalytics]
   [-FlinkHiveCatalogDbConnectionUrl <String>]
   [-FlinkHiveCatalogDbPasswordSecretName <String>]
   [-FlinkHiveCatalogDbUserName <String>]
   [-FlinkProfileDeploymentMode <String>]
   [-FlinkStorageUrl <String>]
   [-FlinkTaskManagerReplicaCount <Int32>]
   [-HistoryServerCpu <Single>]
   [-HistoryServerMemory <Int64>]
   [-HiveMetastoreDbConnectionAuthenticationMode <String>]
   [-JobManagerCpu <Single>]
   [-JobManagerMemory <Int64>]
   [-JobSpecArg <String>]
   [-JobSpecEntryClass <String>]
   [-JobSpecJarName <String>]
   [-JobSpecJobJarDirectory <String>]
   [-JobSpecSavePointName <String>]
   [-JobSpecUpgradeMode <String>]
   [-KafkaProfileEnableKRaft]
   [-KafkaProfileEnablePublicEndpoint]
   [-KafkaProfileRemoteStorageUri <String>]
   [-KeyVaultResourceId <String>]
   [-LlapProfile <Hashtable>]
   [-LoadBasedConfigCooldownPeriod <Int32>]
   [-LoadBasedConfigMaxNode <Int32>]
   [-LoadBasedConfigMinNode <Int32>]
   [-LoadBasedConfigPollInterval <Int32>]
   [-LoadBasedConfigScalingRule <IScalingRule[]>]
   [-LogAnalyticProfileMetricsEnabled]
   [-ManagedIdentityProfileIdentityList <IManagedIdentitySpec[]>]
   [-MetastoreSpecDbConnectionAuthenticationMode <String>]
   [-OssVersion <String>]
   [-PrometheuProfileEnabled]
   [-RangerAdmin <String[]>]
   [-RangerAuditStorageAccount <String>]
   [-RangerPluginProfileEnabled]
   [-RangerUsersyncEnabled]
   [-RangerUsersyncGroup <String[]>]
   [-RangerUsersyncMode <String>]
   [-RangerUsersyncUser <String[]>]
   [-RangerUsersyncUserMappingLocation <String>]
   [-ScheduleBasedConfigDefaultCount <Int32>]
   [-ScheduleBasedConfigSchedule <ISchedule[]>]
   [-ScheduleBasedConfigTimeZone <String>]
   [-ScriptActionProfile <IScriptActionProfile[]>]
   [-SecretReference <ISecretReference[]>]
   [-ServiceConfigsProfile <IClusterServiceConfigsProfile[]>]
   [-SparkHiveCatalogDbName <String>]
   [-SparkHiveCatalogDbPasswordSecretName <String>]
   [-SparkHiveCatalogDbServerName <String>]
   [-SparkHiveCatalogDbUserName <String>]
   [-SparkHiveCatalogKeyVaultId <String>]
   [-SparkStorageUrl <String>]
   [-SparkThriftUrl <String>]
   [-SshProfileCount <Int32>]
   [-SshProfileVMSize <String>]
   [-StorageHivecatalogName <String>]
   [-StorageHivecatalogSchema <String>]
   [-StoragePartitionRetentionInDay <Int32>]
   [-StoragePath <String>]
   [-StubProfile <Hashtable>]
   [-Tag <Hashtable>]
   [-TaskManagerCpu <Single>]
   [-TaskManagerMemory <Int64>]
   [-TrinoHiveCatalog <IHiveCatalogOption[]>]
   [-TrinoProfileUserPluginsSpecPlugin <ITrinoUserPlugin[]>]
   [-WorkerDebugEnable]
   [-WorkerDebugPort <Int32>]
   [-WorkerDebugSuspend]
   [-DefaultProfile <PSObject>]
   [-AsJob]
   [-NoWait]
   [-WhatIf]
   [-Confirm]
   [<CommonParameters>]
New-AzHdInsightOnAksCluster
   -Name <String>
   -PoolName <String>
   -ResourceGroupName <String>
   [-SubscriptionId <String>]
   -JsonString <String>
   [-DefaultProfile <PSObject>]
   [-AsJob]
   [-NoWait]
   [-WhatIf]
   [-Confirm]
   [<CommonParameters>]
New-AzHdInsightOnAksCluster
   -Name <String>
   -PoolName <String>
   -ResourceGroupName <String>
   [-SubscriptionId <String>]
   -JsonFilePath <String>
   [-DefaultProfile <PSObject>]
   [-AsJob]
   [-NoWait]
   [-WhatIf]
   [-Confirm]
   [<CommonParameters>]
New-AzHdInsightOnAksCluster
   -Name <String>
   -ClusterpoolInputObject <IHdInsightOnAksIdentity>
   -Location <String>
   [-ApplicationLogStdErrorEnabled]
   [-ApplicationLogStdOutEnabled]
   [-AssignedIdentityClientId <String>]
   [-AssignedIdentityObjectId <String>]
   [-AssignedIdentityResourceId <String>]
   [-AuthorizationGroupId <String[]>]
   [-AuthorizationUserId <String[]>]
   [-AutoscaleProfileAutoscaleType <String>]
   [-AutoscaleProfileEnabled]
   [-AutoscaleProfileGracefulDecommissionTimeout <Int32>]
   [-ClusterAccessProfileEnableInternalIngress]
   [-ClusterType <String>]
   [-ClusterVersion <String>]
   [-ComputeProfileAvailabilityZone <String[]>]
   [-ComputeProfileNode <INodeProfile[]>]
   [-CoordinatorDebugEnable]
   [-CoordinatorDebugPort <Int32>]
   [-CoordinatorDebugSuspend]
   [-CoordinatorHighAvailabilityEnabled]
   [-DatabaseHost <String>]
   [-DatabaseName <String>]
   [-DatabasePasswordSecretRef <String>]
   [-DatabaseUsername <String>]
   [-DiskStorageDataDiskSize <Int32>]
   [-DiskStorageDataDiskType <String>]
   [-EnableLogAnalytics]
   [-FlinkHiveCatalogDbConnectionUrl <String>]
   [-FlinkHiveCatalogDbPasswordSecretName <String>]
   [-FlinkHiveCatalogDbUserName <String>]
   [-FlinkProfileDeploymentMode <String>]
   [-FlinkStorageUrl <String>]
   [-FlinkTaskManagerReplicaCount <Int32>]
   [-HistoryServerCpu <Single>]
   [-HistoryServerMemory <Int64>]
   [-HiveMetastoreDbConnectionAuthenticationMode <String>]
   [-JobManagerCpu <Single>]
   [-JobManagerMemory <Int64>]
   [-JobSpecArg <String>]
   [-JobSpecEntryClass <String>]
   [-JobSpecJarName <String>]
   [-JobSpecJobJarDirectory <String>]
   [-JobSpecSavePointName <String>]
   [-JobSpecUpgradeMode <String>]
   [-KafkaProfileEnableKRaft]
   [-KafkaProfileEnablePublicEndpoint]
   [-KafkaProfileRemoteStorageUri <String>]
   [-KeyVaultResourceId <String>]
   [-LlapProfile <Hashtable>]
   [-LoadBasedConfigCooldownPeriod <Int32>]
   [-LoadBasedConfigMaxNode <Int32>]
   [-LoadBasedConfigMinNode <Int32>]
   [-LoadBasedConfigPollInterval <Int32>]
   [-LoadBasedConfigScalingRule <IScalingRule[]>]
   [-LogAnalyticProfileMetricsEnabled]
   [-ManagedIdentityProfileIdentityList <IManagedIdentitySpec[]>]
   [-MetastoreSpecDbConnectionAuthenticationMode <String>]
   [-OssVersion <String>]
   [-PrometheuProfileEnabled]
   [-RangerAdmin <String[]>]
   [-RangerAuditStorageAccount <String>]
   [-RangerPluginProfileEnabled]
   [-RangerUsersyncEnabled]
   [-RangerUsersyncGroup <String[]>]
   [-RangerUsersyncMode <String>]
   [-RangerUsersyncUser <String[]>]
   [-RangerUsersyncUserMappingLocation <String>]
   [-ScheduleBasedConfigDefaultCount <Int32>]
   [-ScheduleBasedConfigSchedule <ISchedule[]>]
   [-ScheduleBasedConfigTimeZone <String>]
   [-ScriptActionProfile <IScriptActionProfile[]>]
   [-SecretReference <ISecretReference[]>]
   [-ServiceConfigsProfile <IClusterServiceConfigsProfile[]>]
   [-SparkHiveCatalogDbName <String>]
   [-SparkHiveCatalogDbPasswordSecretName <String>]
   [-SparkHiveCatalogDbServerName <String>]
   [-SparkHiveCatalogDbUserName <String>]
   [-SparkHiveCatalogKeyVaultId <String>]
   [-SparkStorageUrl <String>]
   [-SparkThriftUrl <String>]
   [-SshProfileCount <Int32>]
   [-SshProfileVMSize <String>]
   [-StorageHivecatalogName <String>]
   [-StorageHivecatalogSchema <String>]
   [-StoragePartitionRetentionInDay <Int32>]
   [-StoragePath <String>]
   [-StubProfile <Hashtable>]
   [-Tag <Hashtable>]
   [-TaskManagerCpu <Single>]
   [-TaskManagerMemory <Int64>]
   [-TrinoHiveCatalog <IHiveCatalogOption[]>]
   [-TrinoProfileUserPluginsSpecPlugin <ITrinoUserPlugin[]>]
   [-WorkerDebugEnable]
   [-WorkerDebugPort <Int32>]
   [-WorkerDebugSuspend]
   [-DefaultProfile <PSObject>]
   [-AsJob]
   [-NoWait]
   [-WhatIf]
   [-Confirm]
   [<CommonParameters>]
New-AzHdInsightOnAksCluster
   -Name <String>
   -ClusterpoolInputObject <IHdInsightOnAksIdentity>
   -HdInsightOnAksCluster <ICluster>
   [-DefaultProfile <PSObject>]
   [-AsJob]
   [-NoWait]
   [-WhatIf]
   [-Confirm]
   [<CommonParameters>]
New-AzHdInsightOnAksCluster
   -Name <String>
   -PoolName <String>
   -ResourceGroupName <String>
   [-SubscriptionId <String>]
   -HdInsightOnAksCluster <ICluster>
   [-DefaultProfile <PSObject>]
   [-AsJob]
   [-NoWait]
   [-WhatIf]
   [-Confirm]
   [<CommonParameters>]
New-AzHdInsightOnAksCluster
   -InputObject <IHdInsightOnAksIdentity>
   -Location <String>
   [-ApplicationLogStdErrorEnabled]
   [-ApplicationLogStdOutEnabled]
   [-AssignedIdentityClientId <String>]
   [-AssignedIdentityObjectId <String>]
   [-AssignedIdentityResourceId <String>]
   [-AuthorizationGroupId <String[]>]
   [-AuthorizationUserId <String[]>]
   [-AutoscaleProfileAutoscaleType <String>]
   [-AutoscaleProfileEnabled]
   [-AutoscaleProfileGracefulDecommissionTimeout <Int32>]
   [-ClusterAccessProfileEnableInternalIngress]
   [-ClusterType <String>]
   [-ClusterVersion <String>]
   [-ComputeProfileAvailabilityZone <String[]>]
   [-ComputeProfileNode <INodeProfile[]>]
   [-CoordinatorDebugEnable]
   [-CoordinatorDebugPort <Int32>]
   [-CoordinatorDebugSuspend]
   [-CoordinatorHighAvailabilityEnabled]
   [-DatabaseHost <String>]
   [-DatabaseName <String>]
   [-DatabasePasswordSecretRef <String>]
   [-DatabaseUsername <String>]
   [-DiskStorageDataDiskSize <Int32>]
   [-DiskStorageDataDiskType <String>]
   [-EnableLogAnalytics]
   [-FlinkHiveCatalogDbConnectionUrl <String>]
   [-FlinkHiveCatalogDbPasswordSecretName <String>]
   [-FlinkHiveCatalogDbUserName <String>]
   [-FlinkProfileDeploymentMode <String>]
   [-FlinkStorageUrl <String>]
   [-FlinkTaskManagerReplicaCount <Int32>]
   [-HistoryServerCpu <Single>]
   [-HistoryServerMemory <Int64>]
   [-HiveMetastoreDbConnectionAuthenticationMode <String>]
   [-JobManagerCpu <Single>]
   [-JobManagerMemory <Int64>]
   [-JobSpecArg <String>]
   [-JobSpecEntryClass <String>]
   [-JobSpecJarName <String>]
   [-JobSpecJobJarDirectory <String>]
   [-JobSpecSavePointName <String>]
   [-JobSpecUpgradeMode <String>]
   [-KafkaProfileEnableKRaft]
   [-KafkaProfileEnablePublicEndpoint]
   [-KafkaProfileRemoteStorageUri <String>]
   [-KeyVaultResourceId <String>]
   [-LlapProfile <Hashtable>]
   [-LoadBasedConfigCooldownPeriod <Int32>]
   [-LoadBasedConfigMaxNode <Int32>]
   [-LoadBasedConfigMinNode <Int32>]
   [-LoadBasedConfigPollInterval <Int32>]
   [-LoadBasedConfigScalingRule <IScalingRule[]>]
   [-LogAnalyticProfileMetricsEnabled]
   [-ManagedIdentityProfileIdentityList <IManagedIdentitySpec[]>]
   [-MetastoreSpecDbConnectionAuthenticationMode <String>]
   [-OssVersion <String>]
   [-PrometheuProfileEnabled]
   [-RangerAdmin <String[]>]
   [-RangerAuditStorageAccount <String>]
   [-RangerPluginProfileEnabled]
   [-RangerUsersyncEnabled]
   [-RangerUsersyncGroup <String[]>]
   [-RangerUsersyncMode <String>]
   [-RangerUsersyncUser <String[]>]
   [-RangerUsersyncUserMappingLocation <String>]
   [-ScheduleBasedConfigDefaultCount <Int32>]
   [-ScheduleBasedConfigSchedule <ISchedule[]>]
   [-ScheduleBasedConfigTimeZone <String>]
   [-ScriptActionProfile <IScriptActionProfile[]>]
   [-SecretReference <ISecretReference[]>]
   [-ServiceConfigsProfile <IClusterServiceConfigsProfile[]>]
   [-SparkHiveCatalogDbName <String>]
   [-SparkHiveCatalogDbPasswordSecretName <String>]
   [-SparkHiveCatalogDbServerName <String>]
   [-SparkHiveCatalogDbUserName <String>]
   [-SparkHiveCatalogKeyVaultId <String>]
   [-SparkStorageUrl <String>]
   [-SparkThriftUrl <String>]
   [-SshProfileCount <Int32>]
   [-SshProfileVMSize <String>]
   [-StorageHivecatalogName <String>]
   [-StorageHivecatalogSchema <String>]
   [-StoragePartitionRetentionInDay <Int32>]
   [-StoragePath <String>]
   [-StubProfile <Hashtable>]
   [-Tag <Hashtable>]
   [-TaskManagerCpu <Single>]
   [-TaskManagerMemory <Int64>]
   [-TrinoHiveCatalog <IHiveCatalogOption[]>]
   [-TrinoProfileUserPluginsSpecPlugin <ITrinoUserPlugin[]>]
   [-WorkerDebugEnable]
   [-WorkerDebugPort <Int32>]
   [-WorkerDebugSuspend]
   [-DefaultProfile <PSObject>]
   [-AsJob]
   [-NoWait]
   [-WhatIf]
   [-Confirm]
   [<CommonParameters>]
New-AzHdInsightOnAksCluster
   -InputObject <IHdInsightOnAksIdentity>
   -HdInsightOnAksCluster <ICluster>
   [-DefaultProfile <PSObject>]
   [-AsJob]
   [-NoWait]
   [-WhatIf]
   [-Confirm]
   [<CommonParameters>]

说明

创建集群。

示例

示例 1:创建简单的 Trino 群集

# Create Simple Trino Cluster
$clusterPoolName="{your cluster pool name}";
$resourceGroupName="{your resource group name}";
$location="West US 2";

$clusterType="Trino"
# Get available cluster version based the command Get-AzHdInsightOnAksAvailableClusterVersion
$clusterVersion= (Get-AzHdInsightOnAksAvailableClusterVersion -Location $location | Where-Object {$_.ClusterType -eq $clusterType})[0]

$msiResourceId="/subscriptions/00000000-0000-0000-0000-000000000000/resourcegroups/{your resource group name}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{your msi}";
$msiClientId="00000000-0000-0000-0000-000000000000";
$msiObjectId="00000000-0000-0000-0000-000000000000";

$userId="00000000-0000-0000-0000-000000000000";

# create node profile
$vmSize="Standard_E8ads_v5";
$workerCount=5;

$nodeProfile = New-AzHdInsightOnAksNodeProfileObject -Type Worker -Count $workerCount -VMSize $vmSize

$clusterName="{your cluster name}";


New-AzHdInsightOnAksCluster -Name $clusterName `
                            -PoolName $clusterPoolName `
                            -ResourceGroupName $resourceGroupName `
                            -Location $location `
                            -ClusterType $clusterType `
                            -ClusterVersion $clusterVersion.ClusterVersionValue `
                            -OssVersion $clusterVersion.OssVersion `
                            -AssignedIdentityResourceId $msiResourceId `
                            -AssignedIdentityClientId $msiClientId `
                            -AssignedIdentityObjectId $msiObjectId `
                            -ComputeProfileNode $nodeProfile `
                            -AuthorizationUserId $userId

ApplicationLogStdErrorEnabled               : False
ApplicationLogStdOutEnabled                 : False
AuthorizationProfileGroupId                 :
AuthorizationProfileUserId                  : {00000000-0000-0000-0000-000000000000}
AutoscaleProfileAutoscaleType               :
AutoscaleProfileEnabled                     : False
AutoscaleProfileGracefulDecommissionTimeout :
ClusterType                                 : Trino
ComputeProfileNode                          : {Microsoft.Azure.PowerShell.Cmdlets.HdInsightOnAks.Models.NodeProfil
                                              e, Microsoft.Azure.PowerShell.Cmdlets.HdInsightOnAks.Models.NodeProf
                                              ile}
ConnectivityProfileSsh                      :
CoordinatorDebugEnable                      :
...

使用最少参数创建 Trino 群集。

示例 2:使用 Hive 目录创建 Trino 群集

# Create trino cluster with Hive catalog
$clusterPoolName="{your cluster pool name}";
$resourceGroupName="{your resource group name}";
$location="West US 2";

$clusterType="Trino"
# Get available cluster version based the command Get-AzHdInsightOnAksAvailableClusterVersion
$clusterVersion= (Get-AzHdInsightOnAksAvailableClusterVersion -Location $location | Where-Object {$_.ClusterType -eq $clusterType})[0]

# user msi related parameters
$msiResourceId="/subscriptions/00000000-0000-0000-0000-000000000000/resourcegroups/{your resource group name}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{your msi}";
$msiClientId="00000000-0000-0000-0000-000000000000";
$msiObjectId="00000000-0000-0000-0000-000000000000";

# cluster authorization information
$userId="00000000-0000-0000-0000-000000000000";

# create node profile
$vmSize="Standard_E8ads_v5";
$workerCount=5;

$nodeProfile = New-AzHdInsightOnAksNodeProfileObject -Type Worker -Count $workerCount -VMSize $vmSize

$keyVaultResourceId="/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/{your resource group name}/providers/Microsoft.KeyVault/vaults/{your vault name}";
$secretName="{your secret name}"
$referenceName="{your secret reference name}";

$secretReference=New-AzHdInsightOnAksSecretReferenceObject -SecretName $secretName -ReferenceName $referenceName

#hive catalog configuration

$catalogName="{your catalog name}"
$metastoreDbConnectionURL="jdbc:sqlserver://{your sql server url};database={your db name};encrypt=true;trustServerCertificate=true;loginTimeout=30;";
$metastoreDbUserName="{your db user name}";
$metastoreDbPasswordSecret=$secretName;
$metastoreWarehouseDir="abfs://{your container name}@{your adls gen2 endpoint}/{your path}";

$trinoHiveCatalogOption=New-AzHdInsightOnAksTrinoHiveCatalogObject -CatalogName $catalogName -MetastoreDbConnectionUrl $metastoreDbConnectionURL -MetastoreDbConnectionUserName $metastoreDbUserName -MetastoreDbConnectionPasswordSecret $metastoreDbPasswordSecret -MetastoreWarehouseDir $metastoreWarehouseDir

$clusterName="{your cluster name}";


New-AzHdInsightOnAksCluster -Name $clusterName `
                            -PoolName $clusterPoolName `
                            -ResourceGroupName $resourceGroupName `
                            -Location $location `
                            -ClusterType $clusterType `
                            -ClusterVersion $clusterVersion.ClusterVersionValue `
                            -OssVersion $clusterVersion.OssVersion `
                            -AssignedIdentityResourceId $msiResourceId `
                            -AssignedIdentityClientId $msiClientId `
                            -AssignedIdentityObjectId $msiObjectId `
                            -ComputeProfileNode $nodeProfile `
                            -AuthorizationUserId $userId `
                            -KeyVaultResourceId $keyVaultResourceId `
                            -SecretReference $secretReference `
                            -TrinoHiveCatalog $trinoHiveCatalogOption

ApplicationLogStdErrorEnabled               : False
ApplicationLogStdOutEnabled                 : False
AuthorizationProfileGroupId                 :
AuthorizationProfileUserId                  : {00000000-0000-0000-0000-000000000000}
AutoscaleProfileAutoscaleType               :
AutoscaleProfileEnabled                     : False
AutoscaleProfileGracefulDecommissionTimeout :
ClusterType                                 : Trino
ComputeProfileNode                          : {Microsoft.Azure.PowerShell.Cmdlets.HdInsightOnAks.Models.NodeProfil
                                              e, Microsoft.Azure.PowerShell.Cmdlets.HdInsightOnAks.Models.NodeProf
                                              ile}
ConnectivityProfileSsh                      :
CoordinatorDebugEnable                      :
...

使用 Hive 目录功能创建 Trino 群集。

示例 3:创建简单的 Spark 群集

$clusterPoolName="{your cluster pool name}";
$resourceGroupName="{your resource group name}";
$location="West US 2";

$clusterType="Spark"
# Get available cluster version based the command Get-AzHdInsightOnAksAvailableClusterVersion
$clusterVersion= (Get-AzHdInsightOnAksAvailableClusterVersion -Location $location | Where-Object {$_.ClusterType -eq $clusterType})[0]

$msiResourceId="/subscriptions/00000000-0000-0000-0000-000000000000/resourcegroups/{your resource group name}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{your msi}";
$msiClientId="00000000-0000-0000-0000-000000000000";
$msiObjectId="00000000-0000-0000-0000-000000000000";

$userId="00000000-0000-0000-0000-000000000000";

# create node profile
$vmSize="Standard_E8d_v5";
$workerCount=5;

$nodeProfile = New-AzHdInsightOnAksNodeProfileObject -Type Worker -Count $workerCount -VMSize $vmSize

$sparkStorageUrl="abfs://{your container name}@{your adls gen2 endpoint}"

$clusterName="{your cluster name}";


New-AzHdInsightOnAksCluster -Name $clusterName `
                            -PoolName $clusterPoolName `
                            -ResourceGroupName $resourceGroupName `
                            -Location $location `
                            -ClusterType $clusterType `
                            -ClusterVersion $clusterVersion.ClusterVersionValue `
                            -OssVersion $clusterVersion.OssVersion `
                            -AssignedIdentityResourceId $msiResourceId `
                            -AssignedIdentityClientId $msiClientId `
                            -AssignedIdentityObjectId $msiObjectId `
                            -ComputeProfileNode $nodeProfile `
                            -AuthorizationUserId $userId `
                            -SparkStorageUrl $sparkStorageUrl

ApplicationLogStdErrorEnabled               : False
ApplicationLogStdOutEnabled                 : False
AuthorizationProfileGroupId                 :
AuthorizationProfileUserId                  : {00000000-0000-0000-0000-000000000000}
AutoscaleProfileAutoscaleType               :
AutoscaleProfileEnabled                     : False
AutoscaleProfileGracefulDecommissionTimeout :
ClusterType                                 : Spark
ComputeProfileNode                          : {Microsoft.Azure.PowerShell.Cmdlets.HdInsightOnAks.Models.NodeProfil
                                              e, Microsoft.Azure.PowerShell.Cmdlets.HdInsightOnAks.Models.NodeProf
                                              ile}
ConnectivityProfileSsh                      :
CoordinatorDebugEnable                      :
...

使用最少参数创建 Spark 群集。

示例 4:使用 Hive 目录创建 Spark 群集

$clusterPoolName="{your cluster pool name}";
$resourceGroupName="{your resource group name}";
$location="West US 2";

$clusterType="Spark"
# Get available cluster version based the command Get-AzHdInsightOnAksAvailableClusterVersion
$clusterVersion= (Get-AzHdInsightOnAksAvailableClusterVersion -Location $location | Where-Object {$_.ClusterType -eq $clusterType})[0]

$msiResourceId="/subscriptions/00000000-0000-0000-0000-000000000000/resourcegroups/{your resource group name}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{your msi}";
$msiClientId="00000000-0000-0000-0000-000000000000";
$msiObjectId="00000000-0000-0000-0000-000000000000";

$userId="00000000-0000-0000-0000-000000000000";

# create node profile
$vmSize="Standard_E8s_v3";
$workerCount=5;
$nodeProfile = New-AzHdInsightOnAksNodeProfileObject -Type Worker -Count $workerCount -VMSize $vmSize

# secret profile
$keyVaultResourceId="/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/{your resource group name}/providers/Microsoft.KeyVault/vaults/{your vault name}";
$secretName="{your secret name}"
$referenceName="{your secret reference name}";

$secretReference=New-AzHdInsightOnAksSecretReferenceObject -SecretName $secretName -ReferenceName $referenceName

# Spark config
$sparkStorageUrl="abfs://{your container}@{your adls gen2 endpoint}" # example abfs://container@adlsgen2storage.dfs.core.windows.net

# Spark Hive catalog config
$metastoreDbName="{your db name}"
$metastoreServerName="{your sql server endpoint}" # example: server1.database.windows.net
$metastoreDbUserName="{your db user name}"
$metastoreDbPasswordSecret=$secretName

$clusterName="{your cluster name}";

New-AzHdInsightOnAksCluster -Name $clusterName `
                            -PoolName $clusterPoolName `
                            -ResourceGroupName $resourceGroupName `
                            -Location $location `
                            -ClusterType $clusterType `
                            -ClusterVersion $clusterVersion.ClusterVersionValue `
                            -OssVersion $clusterVersion.OssVersion `
                            -AssignedIdentityResourceId $msiResourceId `
                            -AssignedIdentityClientId $msiClientId `
                            -AssignedIdentityObjectId $msiObjectId `
                            -ComputeProfileNode $nodeProfile `
                            -AuthorizationUserId $userId `
                            -KeyVaultResourceId $keyVaultResourceId `
                            -SecretReference $secretReference `
                            -SparkStorageUrl $sparkStorageUrl `
                            -SparkHiveCatalogDbName $metastoreDbName `
                            -SparkHiveCatalogDbPasswordSecretName $metastoreDbPasswordSecret `
                            -SparkHiveCatalogDbServerName $metastoreServerName `
                            -SparkHiveCatalogDbUserName $metastoreDbUserName `
                            -SparkHiveCatalogKeyVaultId $keyVaultResourceId

ApplicationLogStdErrorEnabled               : False
ApplicationLogStdOutEnabled                 : False
AuthorizationProfileGroupId                 :
AuthorizationProfileUserId                  : {00000000-0000-0000-0000-000000000000}
AutoscaleProfileAutoscaleType               :
AutoscaleProfileEnabled                     : False
AutoscaleProfileGracefulDecommissionTimeout :
ClusterType                                 : Spark
ComputeProfileNode                          : {Microsoft.Azure.PowerShell.Cmdlets.HdInsightOnAks.Models.NodeProfil
                                              e, Microsoft.Azure.PowerShell.Cmdlets.HdInsightOnAks.Models.NodeProf
                                              ile}
ConnectivityProfileSsh                      :
CoordinatorDebugEnable                      :
...

使用 Hive 目录功能创建 Spark 群集。

$clusterPoolName="{your cluster pool name}";
$resourceGroupName="{your resource group name}";
$location="West US 2";

$clusterType="Flink"
# Get available cluster version based the command Get-AzHdInsightOnAksAvailableClusterVersion
$clusterVersion= (Get-AzHdInsightOnAksAvailableClusterVersion -Location $location | Where-Object {$_.ClusterType -eq $clusterType})[0]

$msiResourceId="/subscriptions/00000000-0000-0000-0000-000000000000/resourcegroups/{your resource group name}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{your msi}";
$msiClientId="00000000-0000-0000-0000-000000000000";
$msiObjectId="00000000-0000-0000-0000-000000000000";

$userId="00000000-0000-0000-0000-000000000000";

# create node profile
$vmSize="Standard_E8d_v5";
$workerCount=5;

$nodeProfile = New-AzHdInsightOnAksNodeProfileObject -Type Worker -Count $workerCount -VMSize $vmSize

# Flink config
$flinkStorageUrl="abfs://{your container}@{your adls gen2 endpoint}" # example abfs://container@adlsgen2storage.dfs.core.windows.net
$taskManagerCpu=1
$taskManagerMemory=4096  # memory in MB

$jobManagerCpu=1
$jobManagerMemory=4096   # memory in MB

$clusterName="{your cluster name}";

New-AzHdInsightOnAksCluster -Name $clusterName `
                            -PoolName $clusterPoolName `
                            -ResourceGroupName $resourceGroupName `
                            -Location $location `
                            -ClusterType $clusterType `
                            -ClusterVersion $clusterVersion.ClusterVersionValue `
                            -OssVersion $clusterVersion.OssVersion `
                            -AssignedIdentityResourceId $msiResourceId `
                            -AssignedIdentityClientId $msiClientId `
                            -AssignedIdentityObjectId $msiObjectId `
                            -ComputeProfileNode $nodeProfile `
                            -AuthorizationUserId $userId `
                            -FlinkStorageUrl $flinkStorageUrl `
                            -JobManagerCpu $jobManagerCpu `
                            -JobManagerMemory $jobManagerMemory `
                            -TaskManagerCpu $taskManagerCpu `
                            -TaskManagerMemory $taskManagerMemory

ApplicationLogStdErrorEnabled               : False
ApplicationLogStdOutEnabled                 : False
AuthorizationProfileGroupId                 :
AuthorizationProfileUserId                  : {00000000-0000-0000-0000-000000000000}
AutoscaleProfileAutoscaleType               :
AutoscaleProfileEnabled                     : False
AutoscaleProfileGracefulDecommissionTimeout :
ClusterType                                 : Flink
ComputeProfileNode                          : {Microsoft.Azure.PowerShell.Cmdlets.HdInsightOnAks.Models.NodeProfil
                                              e, Microsoft.Azure.PowerShell.Cmdlets.HdInsightOnAks.Models.NodeProf
                                              ile}
ConnectivityProfileSsh                      :
CoordinatorDebugEnable                      :
...

使用最少参数创建 Flink 群集。

$clusterPoolName="{your cluster pool name}";
$resourceGroupName="{your resource group name}";
$location="West US 2";

$clusterType="Flink"
# Get available cluster version based the command Get-AzHdInsightOnAksAvailableClusterVersion
$clusterVersion= (Get-AzHdInsightOnAksAvailableClusterVersion -Location $location | Where-Object {$_.ClusterType -eq $clusterType})[0]

$msiResourceId="/subscriptions/00000000-0000-0000-0000-000000000000/resourcegroups/{your resource group name}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{your msi}";
$msiClientId="00000000-0000-0000-0000-000000000000";
$msiObjectId="00000000-0000-0000-0000-000000000000";

$userId="00000000-0000-0000-0000-000000000000";

# create node profile
$vmSize="Standard_E8d_v5";
$workerCount=5;

$nodeProfile = New-AzHdInsightOnAksNodeProfileObject -Type Worker -Count $workerCount -VMSize $vmSize

# Flink config
$flinkStorageUrl="abfs://{your container}@{your adls gen2 endpoint}" # example abfs://container@adlsgen2storage.dfs.core.windows.net
$taskManagerCpu=1
$taskManagerMemory=4096  # memory in MB

$jobManagerCpu=1
$jobManagerMemory=4096   # memory in MB

# secret profile
$keyVaultResourceId="/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/{your resource group name}/providers/Microsoft.KeyVault/vaults/{your vault name}";
$secretName="{your secret name}"
$referenceName="{your secret reference name}";

$secretReference=New-AzHdInsightOnAksSecretReferenceObject -SecretName $secretName -ReferenceName $referenceName

# Flink hive catalog config
$metastoreDbConnectionUrl="jdbc:sqlserver://{your sql server url};database={your db name};encrypt=true;trustServerCertificate=true;loginTimeout=30;";
$metastoreDbUserName="{your db user name}"
$metastoreDbPasswordSecret=$secretName

$clusterName="{your cluster name}";

New-AzHdInsightOnAksCluster -Name $clusterName `
                            -PoolName $clusterPoolName `
                            -ResourceGroupName $resourceGroupName `
                            -Location $location `
                            -ClusterType $clusterType `
                            -ClusterVersion $clusterVersion.ClusterVersionValue `
                            -OssVersion $clusterVersion.OssVersion `
                            -AssignedIdentityResourceId $msiResourceId `
                            -AssignedIdentityClientId $msiClientId `
                            -AssignedIdentityObjectId $msiObjectId `
                            -ComputeProfileNode $nodeProfile `
                            -AuthorizationUserId $userId `
                            -KeyVaultResourceId $keyVaultResourceId `
                            -SecretReference $secretReference `
                            -FlinkStorageUrl $flinkStorageUrl `
                            -JobManagerCpu $jobManagerCpu `
                            -JobManagerMemory $jobManagerMemory `
                            -TaskManagerCpu $taskManagerCpu `
                            -TaskManagerMemory $taskManagerMemory `
                            -FlinkHiveCatalogDbConnectionUrl $metastoreDbConnectionUrl `
                            -FlinkHiveCatalogDbUserName $metastoreDbUserName `
                            -FlinkHiveCatalogDbPasswordSecretName $metastoreDbPasswordSecret

ApplicationLogStdErrorEnabled               : False
ApplicationLogStdOutEnabled                 : False
AuthorizationProfileGroupId                 :
AuthorizationProfileUserId                  : {00000000-0000-0000-0000-000000000000}
AutoscaleProfileAutoscaleType               :
AutoscaleProfileEnabled                     : False
AutoscaleProfileGracefulDecommissionTimeout :
ClusterType                                 : Flink
ComputeProfileNode                          : {Microsoft.Azure.PowerShell.Cmdlets.HdInsightOnAks.Models.NodeProfil
                                              e, Microsoft.Azure.PowerShell.Cmdlets.HdInsightOnAks.Models.NodeProf
                                              ile}
ConnectivityProfileSsh                      :
CoordinatorDebugEnable                      :
...

使用 Hive 目录功能创建 Flink 群集。

参数

-ApplicationLogStdErrorEnabled

如果启用了 stderror,则为 True,否则为 false。

类型:SwitchParameter
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-ApplicationLogStdOutEnabled

如果启用了 stdout,则为 True,否则为 false。

类型:SwitchParameter
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-AsJob

以作业身份运行命令

类型:SwitchParameter
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-AssignedIdentityClientId

MSI 的 ClientId。

类型:String
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-AssignedIdentityObjectId

MSI 的 ObjectId。

类型:String
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-AssignedIdentityResourceId

MSI 的 ResourceId。

类型:String
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-AuthorizationGroupId

有权访问数据平面的 AAD 组 ID。

类型:String[]
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-AuthorizationUserId

有权访问数据平面的 AAD 用户 ID。

类型:String[]
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-AutoscaleProfileAutoscaleType

用户指定要实现的自动缩放类型 - 基于计划的或基于负载的。

类型:String
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-AutoscaleProfileEnabled

这表示是否在 AKS 群集上的 HDInsight 上启用自动缩放。

类型:SwitchParameter
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-AutoscaleProfileGracefulDecommissionTimeout

此属性用于正常解除授权超时;它在强制关闭前的默认设置为 3600 秒。 这是在将解除授权节点转换为 DECOMMISSIONED 之前等待运行容器和应用程序完成的最大时间。 默认值为 3600 秒。 负值(如 -1)作为无限超时处理。

类型:Int32
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-ClusterAccessProfileEnableInternalIngress

是否使用专用 IP 而不是公共 IP 创建群集。 必须在创建时设置此属性。

类型:SwitchParameter
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-ClusterpoolInputObject

标识参数

类型:IHdInsightOnAksIdentity
Position:Named
默认值:None
必需:True
接受管道输入:True
接受通配符:False

-ClusterType

群集的类型。

类型:String
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-ClusterVersion

3/4 部分的版本。

类型:String
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-ComputeProfileAvailabilityZone

用于 AKS VMSS 节点的可用性区域列表。

类型:String[]
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-ComputeProfileNode

节点定义。

类型:INodeProfile[]
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-Confirm

在运行 cmdlet 之前,提示你进行确认。

类型:SwitchParameter
别名:cf
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-CoordinatorDebugEnable

如果启用调试或不启用的标志。

类型:SwitchParameter
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-CoordinatorDebugPort

调试端口。

类型:Int32
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-CoordinatorDebugSuspend

如果暂停调试或不进行调试的标志。

类型:SwitchParameter
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-CoordinatorHighAvailabilityEnabled

如果启用协调器 HA,则使用具有自动故障转移的多个协调器副本,每个头节点各有一个。 默认值:true。

类型:SwitchParameter
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-DatabaseHost

数据库 URL

类型:String
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-DatabaseName

数据库名称

类型:String
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-DatabasePasswordSecretRef

数据库密码参考

类型:String
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-DatabaseUsername

数据库用户的名称

类型:String
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-DefaultProfile

DefaultProfile 参数不起作用。 如果对其他订阅执行 cmdlet,请使用 SubscriptionId 参数。

类型:PSObject
别名:AzureRMContext, AzureCredential
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-DiskStorageDataDiskSize

托管磁盘大小(以 GB 为单位)。 标准版和高级 HDD/SSD 支持的最大磁盘大小为 32TB,高级 SSD v2 支持最多 64TB。

类型:Int32
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-DiskStorageDataDiskType

托管磁盘类型。

类型:String
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-EnableLogAnalytics

如果为群集启用了 Log Analytics,则为 True,否则为 false。

类型:SwitchParameter
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-FlinkHiveCatalogDbConnectionUrl

hive 元存储数据库的连接字符串。

类型:String
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-FlinkHiveCatalogDbPasswordSecretName

包含数据库连接密码的 secretsProfile.secrets 的机密引用名称。

类型:String
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-FlinkHiveCatalogDbUserName

数据库连接的用户名。

类型:String
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-FlinkProfileDeploymentMode

一个字符串属性,指示 Flink 群集的部署模式。 它可以具有以下枚举值之一 => Application, Session。 默认值为 Session

类型:String
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-FlinkStorageUrl

用于保存点和检查点状态的存储帐户 URI。

类型:String
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-FlinkTaskManagerReplicaCount

任务管理器的数量。

类型:Int32
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-HdInsightOnAksCluster

群集。

类型:ICluster
Position:Named
默认值:None
必需:True
接受管道输入:True
接受通配符:False

-HistoryServerCpu

所需的 CPU。

类型:Single
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-HistoryServerMemory

所需的内存(以 MB 为单位)的容器内存将为 110 百分点

类型:Int64
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-HiveMetastoreDbConnectionAuthenticationMode

用于连接到 Hive 元存储数据库的身份验证模式。 更多详细信息:https://learn.microsoft.com/en-us/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization

类型:String
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-InputObject

标识参数

类型:IHdInsightOnAksIdentity
Position:Named
默认值:None
必需:True
接受管道输入:True
接受通配符:False

-JobManagerCpu

所需的 CPU。

类型:Single
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-JobManagerMemory

所需的内存(以 MB 为单位)的容器内存将为 110 百分点

类型:Int64
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-JobSpecArg

表示 Flink 作业的其他 JVM 参数的字符串属性。 它应为空格分隔值。

类型:String
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-JobSpecEntryClass

一个字符串属性,指定 Flink 作业的条目类。 如果未指定,则从 flink 作业 jar 包自动检测入口点。

类型:String
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-JobSpecJarName

一个表示作业 JAR 名称的字符串属性。

类型:String
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-JobSpecJobJarDirectory

一个字符串属性,指定作业 JAR 所在的目录。

类型:String
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-JobSpecSavePointName

一个字符串属性,表示 Flink 作业的保存点的名称

类型:String
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-JobSpecUpgradeMode

一个字符串属性,指示要对 Flink 作业执行的升级模式。 它可以具有以下枚举值之一 => STATELESS_UPDATE,UPDATE,LAST_STATE_UPDATE。

类型:String
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-JsonFilePath

提供给“创建”操作的 Json 文件的路径

类型:String
Position:Named
默认值:None
必需:True
接受管道输入:False
接受通配符:False

-JsonString

提供给“创建”操作的 Json 字符串

类型:String
Position:Named
默认值:None
必需:True
接受管道输入:False
接受通配符:False

-KafkaProfileEnableKRaft

在 KRaft 模式下公开 Kafka 群集。

类型:SwitchParameter
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-KafkaProfileEnablePublicEndpoint

将工作器节点公开为公共终结点。

类型:SwitchParameter
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-KafkaProfileRemoteStorageUri

用于分层存储的 Azure 存储容器的完全限定路径。

类型:String
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-KeyVaultResourceId

存储所有群集特定用户机密的用户 Key Vault 的名称。

类型:String
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-LlapProfile

LLAP 群集配置文件。

类型:Hashtable
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-LoadBasedConfigCooldownPeriod

这是一个冷却期,这是一个以秒为单位的时间段,它确定在规则启动的缩放活动与下一个缩放活动的开始之间必须经过的时间量,而不考虑触发它的规则。 默认值为 300 秒。

类型:Int32
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-LoadBasedConfigMaxNode

用户需要设置基于负载的缩放的最大节点数,基于负载的缩放将使用此缩放在最小节点和最大节点数之间纵向扩展和缩减。

类型:Int32
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-LoadBasedConfigMinNode

用户需要为基于负载的缩放设置最小节点数,基于负载的缩放将使用此缩放在最小节点和最大节点数之间纵向扩展和缩减。

类型:Int32
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-LoadBasedConfigPollInterval

用户可以指定轮询间隔,这是在轮询缩放指标以触发缩放操作之后的时间段(以秒为单位)。

类型:Int32
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-LoadBasedConfigScalingRule

缩放规则。

类型:IScalingRule[]
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-Location

资源所在的地理位置

类型:String
Position:Named
默认值:None
必需:True
接受管道输入:False
接受通配符:False

-LogAnalyticProfileMetricsEnabled

如果启用了指标,则为 True,否则为 false。

类型:SwitchParameter
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-ManagedIdentityProfileIdentityList

托管标识列表。

类型:IManagedIdentitySpec[]
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-MetastoreSpecDbConnectionAuthenticationMode

用于连接到 Hive 元存储数据库的身份验证模式。 更多详细信息:https://learn.microsoft.com/en-us/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization

类型:String
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-Name

HDInsight 群集的名称。

类型:String
别名:ClusterName
Position:Named
默认值:None
必需:True
接受管道输入:False
接受通配符:False

-NoWait

异步运行命令

类型:SwitchParameter
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-OssVersion

具有三个部分的版本。

类型:String
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-PoolName

群集池的名称。

类型:String
别名:ClusterPoolName
Position:Named
默认值:None
必需:True
接受管道输入:False
接受通配符:False

-PrometheuProfileEnabled

为群集启用 Prometheus。

类型:SwitchParameter
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-RangerAdmin

应标记为 ranger 管理员的用户名列表。 这些用户名应与相应 AAD 用户的用户主体名称(UPN)匹配。

类型:String[]
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-RangerAuditStorageAccount

Blob 的 Azure 存储位置。 MSI 应具有对此存储帐户的读/写访问权限。

类型:String
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-RangerPluginProfileEnabled

为群集启用 Ranger。

类型:SwitchParameter
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-RangerUsersyncEnabled

表示是否应启用用户同步服务

类型:SwitchParameter
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-RangerUsersyncGroup

应同步的组列表。 这些组名称应与相应 AAD 组的对象 ID 匹配。

类型:String[]
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-RangerUsersyncMode

用户 & 组可以自动或通过刷新的静态列表进行同步。

类型:String
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-RangerUsersyncUser

应同步的用户名列表。 这些用户名应与相应 AAD 用户的用户主体名称匹配。

类型:String[]
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-RangerUsersyncUserMappingLocation

列出用户 & 组关联的映射文件的 Azure 存储位置。

类型:String
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-ResourceGroupName

资源组的名称。 此名称不区分大小写。

类型:String
Position:Named
默认值:None
必需:True
接受管道输入:False
接受通配符:False

-ScheduleBasedConfigDefaultCount

设置当前计划配置的默认节点计数。 默认节点计数指定执行指定缩放操作时默认的节点数(纵向扩展/缩减)

类型:Int32
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-ScheduleBasedConfigSchedule

这指定要启用基于计划的自动缩放的计划,用户可以选择在计划内跨天数和时间(开始/结束)设置多个规则。

类型:ISchedule[]
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-ScheduleBasedConfigTimeZone

用户必须指定必须为其设置基于计划的自动缩放配置的时区。

类型:String
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-ScriptActionProfile

脚本操作配置文件列表。

类型:IScriptActionProfile[]
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-SecretReference

Key Vault 机密的属性。

类型:ISecretReference[]
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-ServiceConfigsProfile

服务配置配置文件。

类型:IClusterServiceConfigsProfile[]
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-SparkHiveCatalogDbName

数据库名称。

类型:String
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-SparkHiveCatalogDbPasswordSecretName

包含数据库用户密码的机密名称。

类型:String
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-SparkHiveCatalogDbServerName

数据库服务器主机。

类型:String
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-SparkHiveCatalogDbUserName

数据库用户名。

类型:String
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-SparkHiveCatalogKeyVaultId

密钥保管库资源 ID。

类型:String
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-SparkStorageUrl

默认存储 URL。

类型:String
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-SparkThriftUrl

节俭 URL。

类型:String
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-SshProfileCount

每个群集的 ssh Pod 数。

类型:Int32
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-SshProfileVMSize

虚拟机 SKU。

类型:String
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-StorageHivecatalogName

如果未指定,则用于在 Trino 编写的日志上装载外部表的 Hive 目录名称。如果未指定,则不会创建表。

类型:String
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-StorageHivecatalogSchema

要使用的上述目录的架构,若要将查询日志装载为外部表,如果未指定表,则会在架构 trinolog 下装载。

类型:String
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-StoragePartitionRetentionInDay

查询日志表分区的保留期,这不会影响实际数据。

类型:Int32
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-StoragePath

Blob 的 Azure 存储位置。

类型:String
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-StubProfile

存根群集配置文件。

类型:Hashtable
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-SubscriptionId

目标订阅的 ID。 该值必须是 UUID。

类型:String
Position:Named
默认值:(Get-AzContext).Subscription.Id
必需:False
接受管道输入:False
接受通配符:False

-Tag

资源标记。

类型:Hashtable
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-TaskManagerCpu

所需的 CPU。

类型:Single
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-TaskManagerMemory

所需的内存(以 MB 为单位)的容器内存将为 110 百分点

类型:Int64
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-TrinoHiveCatalog

hive 目录选项。

类型:IHiveCatalogOption[]
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-TrinoProfileUserPluginsSpecPlugin

Trino 用户插件。

类型:ITrinoUserPlugin[]
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-WhatIf

显示 cmdlet 运行时会发生什么情况。 命令脚本未运行。

类型:SwitchParameter
别名:wi
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-WorkerDebugEnable

如果启用调试或不启用的标志。

类型:SwitchParameter
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-WorkerDebugPort

调试端口。

类型:Int32
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-WorkerDebugSuspend

如果暂停调试或不进行调试的标志。

类型:SwitchParameter
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

输入

ICluster

IHdInsightOnAksIdentity

输出

ICluster