重要
Google Analytics 原始数据连接器处于公共预览阶段。
此页面列出了使用 Databricks Lakeflow Connect 和 Google BigQuery 从 Google Analytics 引入原始事件级数据的限制和注意事项。
常规 SaaS 连接器限制
本节中的限制适用于 Lakeflow Connect 中的所有 SaaS 连接器。
- 运行计划的管道时,警报不会立即触发。 而是在更新下一次运行时触发。
- 删除源表时不会自动删除目标表。 你必须手动删除目标表。 此行为与 Lakeflow 声明性管道行为不一致。
- 在源维护期间,Databricks 可能无法访问数据。
- 如果源表名称与现有目标表名称冲突,则管道更新将失败。
- 多目标管道支持仅限 API。
- 可以选择重命名引入的表。 如果重命名管道中的表,它将变为仅限 API 的管道,并且不能再在 UI 中编辑管道。
- 列级选择和取消选择仅限于通过 API 实现。
- 如果在管道启动后选择列,连接器不会自动为新列回填数据。 若要引入历史数据,请手动对该表执行全面刷新。
- 即使两个表来自不同的源架构,Databricks 也无法在同一管道中引入具有相同名称的两个或多个表。
- 源系统假定游标列单调增加。
连接器特定的限制
本部分中的限制特定于 GA4 连接器。
身份验证
- 连接器仅支持使用 GCP 服务帐户进行身份验证。
Pipelines
- 不会引入 GA4 中的更新和删除。
- 该连接器每个管道仅支持一个 GA4 属性。
- 不支持从通用分析 (UA) 引入。
表格
- 连接器无法可靠地引入大于 50 GB 的 BigQuery 日期分区表。
- 连接器仅引入从 GA4 导出到 BigQuery 的原始数据,并且会继承对可导出到 BigQuery 的历史数据的 GA4 限制。
- 初始负载提取 GA4/BigQuery 项目中存在的所有日期的数据。
- Databricks 无法保证在
events_intraday
表中提供events
数据后的给定一天保留数据。 这是因为events_intraday
表仅用于临时使用,直到当天的events
表准备好。 - 连接器假定每行是唯一的。 如果出现意外重复项,Databricks 无法保证正确的行为。