你当前正在访问 Microsoft Azure Global Edition 技术文档网站。 如果需要访问由世纪互联运营的 Microsoft Azure 中国技术文档网站,请访问 https://docs.azure.cn

Wait-AzSynapseSparkJob

等待 Synapse Analytics Spark 作业完成。

语法

Wait-AzSynapseSparkJob
    -WorkspaceName <String>
    -SparkPoolName <String>
    -LivyId <Int32>
    [-WaitIntervalInSeconds <Int32>]
    [-TimeoutInSeconds <Int32>]
    [-DefaultProfile <IAzureContextContainer>]
    [<CommonParameters>]
Wait-AzSynapseSparkJob
    -SparkPoolObject <PSSynapseSparkPool>
    -LivyId <Int32>
    [-WaitIntervalInSeconds <Int32>]
    [-TimeoutInSeconds <Int32>]
    [-DefaultProfile <IAzureContextContainer>]
    [<CommonParameters>]
Wait-AzSynapseSparkJob
    -SparkJobObject <PSSynapseSparkJob>
    [-LivyId <Int32>]
    [-WaitIntervalInSeconds <Int32>]
    [-TimeoutInSeconds <Int32>]
    [-DefaultProfile <IAzureContextContainer>]
    [<CommonParameters>]

说明

Wait-AzSynapseSparkJob cmdlet 等待 Azure Synapse Analytics 作业完成。

示例

示例 1

Wait-AzSynapseSparkJob -WorkspaceName ContosoWorkspace -SparkPoolName ContosoSparkPool -LivyId 324

此命令等待具有指定 ID 的作业完成。

参数

-DefaultProfile

用于与 Azure 通信的凭据、帐户、租户和订阅。

类型:IAzureContextContainer
别名:AzContext, AzureRmContext, AzureCredential
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-LivyId

Spark 作业的标识符。

类型:Int32
别名:Id
Position:Named
默认值:None
必需:True
接受管道输入:False
接受通配符:False

-SparkJobObject

Spark 作业输入对象,通常通过管道传递。

类型:PSSynapseSparkJob
Position:Named
默认值:None
必需:True
接受管道输入:True
接受通配符:False

-SparkPoolName

Synapse Spark 池的名称。

类型:String
Position:Named
默认值:None
必需:True
接受管道输入:False
接受通配符:False

-SparkPoolObject

Spark 池输入对象,通常通过管道传递。

类型:PSSynapseSparkPool
Position:Named
默认值:None
必需:True
接受管道输入:True
接受通配符:False

-TimeoutInSeconds

在出错之前等待的最长时间。默认值为永不超时。

类型:Int32
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-WaitIntervalInSeconds

检查作业状态之间的轮询间隔(以秒为单位)。

类型:Int32
Position:Named
默认值:None
必需:False
接受管道输入:False
接受通配符:False

-WorkspaceName

Synapse 工作区的名称。

类型:String
Position:Named
默认值:None
必需:True
接受管道输入:False
接受通配符:False

输入

PSSynapseSparkPool

PSSynapseSparkJob

输出

Boolean