sys.dm_pdw_dms_external_work (Transact-SQL)
适用于:Azure Synapse AnalyticsAnalytics Platform System (PDW)
Azure Synapse分析系统视图,用于保存有关所有数据移动服务的信息 (DMS) 外部操作的步骤。
注意
Azure Synapse Analytics 中的无服务器 SQL 池不支持此语法。
列名 | 数据类型 | 说明 | 范围 |
---|---|---|---|
request_id | nvarchar(32) | 使用此 DMS 辅助角色的查询。 request_id、step_index和dms_step_index构成此视图的键。 |
与 sys.dm_pdw_exec_requests (Transact-SQL) 中的request_id 相同。 |
step_index | int | 调用此 DMS 辅助角色的查询步骤。 request_id、step_index和dms_step_index构成此视图的键。 |
与 sys.dm_pdw_request_steps (Transact-SQL) 中的step_index 相同。 |
dms_step_index | int | DMS 计划的当前步骤。 request_id、step_index和dms_step_index构成此视图的键。 |
与 sys.dm_pdw_dms_workers (Transact-SQL) 中的dms___step_index 相同。 |
pdw_node_id | int | 运行 DMS 辅助角色的节点。 | 与 sys.dm_pdw_nodes (Transact-SQL) 中的node_id 相同。 |
type | nvarchar(60) | 此节点正在运行的外部操作的类型。 FILE SPLIT 是针对已拆分为多个较小跌落的外部 Hadoop 文件执行的操作。 |
“文件拆分” |
work_id | int | 文件拆分 ID。 | 大于或等于 0。 每个计算节点是唯一的。 |
input_name | nvarchar(60) | 正在读取的输入的字符串名称。 | 对于 Hadoop 文件,这是 Hadoop 文件名。 |
read_location | bigint | 读取位置的偏移量。 | |
bytes_processed | bigint | 此辅助角色处理的字节数。 | 大于或等于 0。 |
length | bigint | 文件拆分中的字节数。 对于 Hadoop,这是 HDFS 块的大小。 |
用户定义的。 默认值为 64 MB。 |
status | nvarchar(32) | 辅助角色的状态。 | 挂起、正在处理、完成、失败、中止 |
start_time | datetime | 开始执行此辅助角色的时间。 | 大于或等于此辅助角色所属的查询步骤的开始时间。 请参阅 sys.dm_pdw_request_steps (Transact-SQL) 。 |
end_time | datetime | 执行结束、失败或取消的时间。 | 对于正在进行的或排队的辅助角色,为 NULL。 否则,大于 start_time。 |
total_elapsed_time | int | 执行所用的总时间(以毫秒为单位)。 | 大于或等于 0。 如果total_elapsed_time超出整数的最大值,total_elapsed_time将继续为最大值。 此条件将生成警告“已超出最大值”。 最大值(以毫秒为单位)相当于 24.8 天。 |
有关此视图保留的最大行数的信息,请参阅 容量限制 主题中的元数据部分。
另请参阅
反馈
https://aka.ms/ContentUserFeedback。
即将推出:在整个 2024 年,我们将逐步取消以“GitHub 问题”作为内容的反馈机制,并将其替换为新的反馈系统。 有关详细信息,请参阅:提交和查看相关反馈