数据工厂限制概述

当前的 Microsoft Fabric 数据工厂功能存在某些限制。 在提交支持请求之前,请查看本节中的列表,以确定你是否遇到已知限制。

有关服务级别中断或降级通知,请查看 Microsoft Fabric 支持

Microsoft Fabric 中的数据管道限制

以下列表介绍了对 Microsoft Fabric 中数据工厂的管道的当前限制。

  • 大多数 Azure 数据工厂复制和编排模式都适用于 Fabric 管道,但翻转窗口尚不可用。
  • 连接器不支持 OAuth 和 Azure 密钥保管库 (AKV)。
  • 托管系统标识 (MSI) 仅适用于 Azure Blob 存储。 即将推出对其他源的支持。
  • GetMetaData 活动不能有来自 Fabric KQL 数据库的源。
  • 脚本活动不能有来自 Fabric KQL 数据库的源。
  • 验证活动、映射数据流活动和 SSIS 集成运行时不可用。
  • Web 活动不支持基于服务主体的身份验证。
  • 管道不会进行身份验证的后台同步。 建议进行简短描述,例如对管道的更新,并保存它们。 这样,即可获取和缓存新令牌,以便管道可以使用已更新的 entra ID 密码再次运行。

数据管道资源限制

下表介绍了对 Microsoft Fabric 数据工厂中管道的资源限制。

管道资源 默认限制 最大限制
工作区中的管道总数 5,000 5,000
每个工作区的并发管道运行数,这些运行在该工作区中的所有管道之间共享 一万 一万
外部活动(如存储过程、Web、Web Hook 等) 3,000 3,000
“查找”、“获取元数据”和“删除”的管道活动执行 1,000 1,000
并发编辑操作(包括测试连接、浏览文件夹列表和表列表、预览数据等) 200 200
每个管道的最大活动数(包括容器的内部活动) 120 120
每个管道的最大参数个数 50 50
ForEach 项 100,000 100,000
ForEach 并行度 20 50
查找活动项计数 五千 五千
每个管道的最大排队运行数 100 100
每个表达式的字符数 8,192 8,192
管道活动运行的最长超时时间 24 小时 24 小时
管道对象中每个对象的字节数 200 KB 200 KB
每个活动运行的每有效负载字节数 896 KB 896 KB
每个复制活动运行的智能吞吐量优化 自动 256
每个工作区的并发智能吞吐量优化 400 400
中心的元数据实体大小限制 2 GB 2 GB

数据工厂 Dataflow Gen2 限制

以下列表介绍了 Microsoft Fabric 中 Data Factory 的 Dataflow Gen2 的限制。

  • 到湖屋的数据目标:
    • 列名或表名不支持空格或特殊字符。
    • 在创作数据流 Gen2 数据流时,不支持持续时间和二进制列。
  • 必须安装当前支持的网关才能与 Dataflow Gen2 一起使用。 数据流 Gen2 至少支持最后六个已发布的网关版本。
  • 使用 OAuth2 凭据时,网关当前不支持刷新时间超过一小时。 这些刷新失败,因为网关在访问令牌过期后无法自动刷新,而访问令牌通常在刷新开始后的一个小时内过期。 如果在使用 OAuth2 凭据访问云数据源时收到错误“InvalidConnectionCredentials”或“AccessUnauthorized”,则即使最近更新了该凭据,也可能会遇到此错误。 对于长期运行的刷新,VNET 网关和本地数据网关都存在这种限制。
  • Delta Lake 规范不支持区分大小写的列名,因此 MyColumnmycolumn 虽然在 Mashup 中受支持,但会导致“重复列”错误。
  • 目前,列可为 null 性默认为允许目标中的所有列为 null。
  • 保存/发布数据流 gen2 后,需要验证/发布过程在每查询 10 分钟内完成。 如果超过此 10 分钟限制,请尝试简化查询或在数据流 gen2 中拆分查询。
  • 如果 Azure 存储帐户已创建一个或多个专用终结点,则无法使用 Power Query Online 或 Dataflow Gen2(无网关)连接到 Azure 存储帐户的公共终结点。 您需要使用通过专用终结点连接的 VNet 数据网关或本地数据网关来连接此类存储帐户。
  • Dataflow Gen2 不支持租户中的来宾用户连接到其以来宾身份使用的租户中的数据源和目标。 使用租户中的本机用户连接到数据源和目标。
  • 通过数据流连接器从 Dataflow Gen2 中使用数据需要具有管理员、成员或参与者权限。 查看器权限不足,不支持从数据流使用数据。

下表指示特定存储位置中支持的数据类型。

每个存储位置支持的数据类型: DataflowStagingLakehouse Azure DB (SQL) 输出 Azure 数据资源管理器输出 Fabric 湖屋 (LH) 输出 Fabric 仓库 (WH) 输出
操作
任何
二进制
货币
DateTimeZone
持续时间
函数
时间
类型
结构化(列表、记录、表)