适用于:Databricks SQL
Databricks Runtime 12.2 及更高版本
错误条件是描述性的、可读字符串,它们所描述的错误是唯一的。
可以使用错误条件以编程方式处理应用程序中的错误,而无需分析错误消息。
这是 Azure Databricks 返回的常见命名错误条件的列表。
Databricks Runtime 和 Databricks SQL
ADD_DEFAULT_UNSUPPORTED
无法执行 <statementType>
命令,因为向先前存在的目标数据源(表提供程序为“<dataSource>
”)添加新列时不支持 DEFAULT
值。
AGGREGATE_FUNCTION_WITH_NONDETERMINISTIC_EXPRESSION
非确定性表达式 <sqlExpr>
不应出现在聚合函数的参数中。
AGGREGATE_OUT_OF_MEMORY
没有足够的内存用于聚合
AI_FUNCTION_HTTP_PARSE_CAST_ERROR
强制转换为指定的 returnType:“<dataType>
”时未能解析模型输出,响应 JSON 为:“<responseString>
”。 请更新 returnType 以匹配响应 JSON 表示的类型的内容,然后再次重试查询。
AI_FUNCTION_HTTP_PARSE_COLUMNS_ERROR
实际模型输出具有多个列“<responseString>
”。 但是,指定的返回类型[“<dataType>
”]只有一列。 请更新 returnType 以包含与模型输出相同的列数,然后再次重试查询。
AI_FUNCTION_HTTP_REQUEST_ERROR
对函数 <funcName>
发出 HTTP 请求时出错:<errorMessage>
AI_FUNCTION_INVALID_HTTP_RESPONSE
函数 <funcName>
的 HTTP 响应无效:<errorMessage>
AI_FUNCTION_INVALID_MAX_WORDS
最大字词数必须是非负整数,但获得 <maxWords>
。
AI_FUNCTION_INVALID_MODEL_PARAMETERS
提供的模型参数 (<modelParameters>
) 在提供端点“AI_QUERY
”的 <endpointName>
函数中无效。
有关更多详细信息,请参阅 AI_FUNCTION_INVALID_MODEL_PARAMETERS
AI_FUNCTION_INVALID_RESPONSE_FORMAT_TYPE
AI 函数:“<functionName>
”要求 <format>
参数具有有效的 responseFormat
字符串,但发现的响应格式是:“<invalidResponseFormat>
”。 异常:<errorMessage>
AI_FUNCTION_JSON_PARSE_ERROR
分析函数 <funcName>
的 JSON 响应时出错:<errorMessage>
AI_FUNCTION_MODEL_SCHEMA_PARSE_ERROR
未能分析服务终结点“<endpointName>
”的架构:<errorMessage>
,响应 JSON 为:“<responseJson>
”。
在 returnType
函数中手动设置 AI_QUERY
参数以替代架构解析。
AI_FUNCTION_UNSUPPORTED_ERROR
当前环境中不支持函数 <funcName>
。 它仅在 Databricks SQL Pro 和无服务器中可用。
AI_FUNCTION_UNSUPPORTED_REQUEST
无法评估 SQL 函数“<functionName>
”,因为提供的 <invalidValue>
参数具有“<invalidDataType>
”,但仅支持以下类型:<supportedDataTypes>
。 请更新函数调用以提供字符串类型的参数,然后再次重试查询。
AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT
找到不支持的响应格式。
有关更多详细信息,请参阅 AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT
AI_FUNCTION_UNSUPPORTED_RETURN_TYPE
AI 函数:“<functionName>
”不支持将以下类型作为返回类型:“<typeName>
”。 返回类型必须是由 Catalyst 理解并受 AI 函数支持的有效 SQL 类型。 当前支持的类型包括:<supportedValues>
AI_INVALID_ARGUMENT_VALUE_ERROR
参数“<argName>
”不支持提供的值“<argValue>
”。 支持的值包括:<supportedValues>
AI_QUERY_ENDPOINT_NOT_SUPPORT_STRUCTURED_OUTPUT (AI查询端点不支持结构化输出)
期望服务终结点任务类型为“Chat”以支持结构化输出,但为终结点“<endpointName>
”找到“<taskType>
”。
AI_QUERY_RETURN_TYPE_COLUMN_TYPE_MISMATCH
参数 returnType 不支持提供的“<sqlExpr>
”。
AI_SEARCH_CONFLICTING_QUERY_PARAM_SUPPLY_ERROR
为 vector_search
SQL 函数检测到的冲突参数:<conflictParamNames>
。<hint>
AI_SEARCH_EMBEDDING_COLUMN_TYPE_UNSUPPORTED_ERROR
不支持嵌入列类型为 vector_search
的 <embeddingColumnType>
SQL 函数。
AI_SEARCH_EMPTY_QUERY_PARAM_ERROR
vector_search
SQL 函数缺少查询输入参数,请指定至少一个来自:<parameterNames>
。
AI_SEARCH_HYBRID_QUERY_PARAM_DEPRECATION_ERROR
参数 query
到 vector_search
的 SQL 函数不支持用于 hybrid
矢量搜索。 请改用 query_text
。
AI_SEARCH_HYBRID_TEXT_NOT_FOUND_ERROR
vector_search
SQL 函数中找不到用于 hybrid
矢量搜索的查询文本。 请提供 query_text
。
AI_SEARCH_INDEX_TYPE_UNSUPPORTED_ERROR
不支持索引类型 vector_search
的 <indexType>
SQL 函数。
AI_SEARCH_MISSING_EMBEDDING_INPUT_ERROR
必须为索引 query_vector
指定 <indexName>
,因为它与嵌入模型终结点无关。
AI_SEARCH_QUERY_TYPE_CONVERT_ENCODE_ERROR
在请求编码期间,未能具体化从 spark 类型 vector_search
到 scala-native 对象的 <dataType>
SQL 函数查询,并出现错误:<errorMessage>
。
AI_SEARCH_QUERY_TYPE_UNSUPPORTED_ERROR
不支持查询类型为 vector_search
的 SQL 函数 <unexpectedQueryType>
。 请从以下选项中指定一个:<supportedQueryTypes>
。
AI_SEARCH_UNSUPPORTED_NUM_RESULTS_ERROR
不支持 num_results 大于 vector_search
的 <maxLimit>
SQL 函数。 指定的限制为 <requestedLimit>
。 请尝试再次使用num_results <= <maxLimit>
。
AI_TOP_DRIVERS_PARAM_OUT_OF_RANGE
ai_top_drivers
参数<param>
必须介于<lo>
和 <hi>
.
AI_TOP_DRIVERS_UNSUPPORTED_AGGREGATION_TYPE
ai_top_drivers
不支持 <aggName>
聚合。 选择以下支持的聚合之一: <allowed>
AI_TOP_DRIVERS_UNSUPPORTED_DIMENSION_TYPE
ai_top_drivers
不支持数值、映射或结构维度列。 列 <colName>
具有类型 <dataType>
。 移除这个维度或将其转换为支持的类型。
AI_TOP_DRIVERS_UNSUPPORTED_LABEL_TYPE
ai_top_drivers
要求标签列类型为布尔值。 列 <colName>
具有类型 <dataType>
。 更改标签列或将其强制转换为支持的类型。
AI_TOP_DRIVERS_UNSUPPORTED_METRIC_TYPE
ai_top_drivers
要求指标列类型为数值。 列 <colName>
具有类型 <dataType>
。 更改指标列或将其强制转换为支持的类型。
所有参数必须命名
使用名称参数化查询需要命名所有参数。 参数缺少名称 <exprs>
。
ALL_PARTITION_COLUMNS_NOT_ALLOWED
不能将所有列作为分区列使用。
修改的计划不存在
在没有现有计划或触发器的情况下,无法更改表上的 <scheduleType>
。 在尝试更改表格之前,请先向其添加日程或触发器。
ALTER_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
ALTER TABLE <type>
列 <columnName>
多次指定描述符“<optionName>
”,这是无效的。
AMBIGUOUS_ALIAS_IN_NESTED_CTE
嵌套 CTE 中的名称 <name>
不明确。
请将 <config>
设置为“CORRECTED
”,以便内部 CTE 中定义的名称优先。 如果将其设置为“LEGACY
”,外部 CTE 定义将优先。
请参阅“https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine”。
AMBIGUOUS_COLUMN_OR_FIELD
列或字段 <name>
不明确且具有 <n>
个匹配项。
AMBIGUOUS_COLUMN_REFERENCE
列 <name>
不明确。 这是因为你已将多个数据帧联接在一起,其中一些数据帧是相同的。
此列指向其中一个数据帧,但 Spark 无法确定哪一个。
请在联接数据帧之前,通过 DataFrame.alias
将数据帧命名为不同的别名,
然后使用限定名称(例如 df.alias("a").join(df.alias("b"), col("a.id") > col("b.id"))
)指定该列。
AMBIGUOUS_CONSTRAINT
对约束 <constraint>
的引用不明确。
AMBIGUOUS_LATERAL_COLUMN_ALIAS
横向列别名 <name>
不明确且具有 <n>
个匹配项。
AMBIGUOUS_REFERENCE
引用 <name>
不明确,可以是:<referenceNames>
。
AMBIGUOUS_REFERENCE_TO_FIELDS
对字段 <field>
的引用不明确。 它在架构中出现了 <count>
次。
ANALYZE_CONSTRAINTS_NOT_SUPPORTED
不支持 ANALYZE CONSTRAINTS
。
ANSI_CONFIG_CANNOT_BE_DISABLED
不能在此产品中禁用 ANSI SQL 配置 <config>
。
AQE_THREAD_INTERRUPTED
AQE 线程中断,可能是由于用户取消查询。
ARGUMENT_NOT_CONSTANT
函数 <functionName>
在需要常量参数的位置 <parameterName>
处包含参数 <pos>
。 请单独计算参数 <sqlExpr>
,并将结果作为常量传递。
ARITHMETIC_OVERFLOW
<message>
。<alternative>
如有必要,请将 <config>
设置为“false”以绕过此错误。
有关更多详细信息,请参阅 ARITHMETIC_OVERFLOW
ARROW_TYPE_MISMATCH
来自 <operation>
的架构无效:期望 <outputTypes>
,得到 <actualDataTypes>
。
ARTIFACT_ALREADY_EXISTS
工件 <normalizedRemoteRelativePath>
已存在。 请为新工件选择不同的名称,因为无法覆盖它。
ASSIGNMENT_ARITY_MISMATCH
分配或别名的列数或变量数:<numTarget>
与源表达式的数目:<numExpr>
不匹配。
AS_OF_JOIN
as-of join 无效。
有关更多详细信息,请参阅 AS_OF_JOIN
AVRO_无法写入空字段
无法为定义为非 null Avro 数据类型<name>
的字段<dataType>
写入 null 值。
若要允许此字段的 null 值,请使用 avroSchema
选项将其 avro 架构指定为包含“null”的联合类型。
AVRO_DEFAULT_VALUES_UNSUPPORTED
启用rescuedDataColumn
时不支持使用默认值。 可以通过将 spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue
设置为 false 来删除此检查,但默认值将不适用,并且仍将使用 null 值。
AVRO_INCOMPATIBLE_READ_TYPE
无法将 Avro <avroPath>
转换为 SQL <sqlPath>
,因为原始编码的数据类型为 <avroType>
,但是你尝试将字段读取为 <sqlType>
,这会导致错误的答案。
要允许读取此字段,请启用 SQL 配置:“spark.sql.legacy.avro.allowIncompatibleSchema”。
AVRO_NOT_LOADED_SQL_FUNCTIONS_UNUSABLE
无法调用 <functionName>
SQL 函数,因为未加载 Avro 数据源。
请使用加载的“spark-avro”包重启作业或会话,例如在命令行上使用 --packages 参数,然后再次重试查询或命令。
AVRO_POSITIONAL_FIELD_MATCHING_UNSUPPORTED
启用 rescuedDataColumn
或 failOnUnknownFields
时,不支持使用位置字段匹配。 删除这些选项以继续。
BATCH_METADATA_NOT_FOUND
找不到批次 <batchMetadataFile>
。
BIGQUERY_OPTIONS_ARE_MUTUALLY_EXCLUSIVE
必须要么使用“GoogleServiceAccountKeyJson”参数,要么同时使用“projectId”、“OAuthServiceAcctEmail”和“OAuthPvtKey”,来指定 BigQuery 连接凭据
BINARY_ARITHMETIC_OVERFLOW
<value1> <symbol> <value2>
导致了溢出。 使用 <functionName>
忽略溢出问题并返回 NULL
。
BUILT_IN_CATALOG
<operation>
不支持内置目录。
CALL_ON_STREAMING_DATASET_UNSUPPORTED
无法在流式数据集/数据帧上调用方法 <methodName>
。
CANNOT_ALTER_COLLATION_BUCKET_COLUMN
ALTER TABLE (ALTER|CHANGE) COLUMN
无法更改存储桶列的类型/子类型的排序规则,但在表 <columnName>
中找到存储桶列 <tableName>
。
CANNOT_ALTER_PARTITION_COLUMN
分区列不支持 ALTER TABLE (ALTER|CHANGE) COLUMN
,但在表 <columnName>
中找到分区列 <tableName>
。
CANNOT_ASSIGN_EVENT_TIME_COLUMN_WITHOUT_WATERMARK
需要定义水印以重新分配事件时间列。 未能在流式处理查询中找到水印定义。
CANNOT_CAST_DATATYPE
无法将 <sourceType>
强制转换为 <targetType>
。
无法将 Protobuf 字段类型转换为 SQL 类型
无法将 Protobuf <protobufColumn>
转换为 SQL <sqlColumn>
,因为架构不兼容(protobufType = <protobufType>
,sqlType = <sqlType>
)。
无法将 Protobuf 消息类型转换为 SQL 类型
无法将 Protobuf <protobufType>
转换为 SQL 类型 <toType>
。
无法将SQL类型转换为Protobuf字段类型
无法将 SQL <sqlColumn>
转换为 Protobuf <protobufColumn>
,因为架构不兼容(protobufType = <protobufType>
,sqlType = <sqlType>
)。
无法将 SQL 值转换为 PROTOBUF 枚举类型
无法将 SQL <sqlColumn>
转换为 Protobuf <protobufColumn>
,因为 <data>
不在枚举的定义值中:<enumString>
。
CANNOT_COPY_STATE
无法将目录状态(如当前数据库和临时视图)从 Unity 目录复制到旧目录。
无法创建数据源表
未能创建数据源表 <tableName>
:
有关更多详细信息,请参阅 CANNOT_CREATE_DATA_SOURCE_TABLE
无法解码网址
提供的 URL 无法解码:<url>
。 请确保 URL 格式正确,然后重试。
CANNOT_DELETE_SYSTEM_OWNED
无法删除系统拥有的 <resourceType>
。
CANNOT_DROP_AMBIGUOUS_CONSTRAINT
无法删除名称 <constraintName>
由 CHECK
约束共享的约束
和 PRIMARY KEY
或 FOREIGN KEY
约束。 可以删除 PRIMARY KEY
或
按查询的 FOREIGN KEY
约束:
ALTER TABLE
.. DROP PRIMARY KEY
或
ALTER TABLE
.. DROP FOREIGN KEY
..
无法建立连接
无法与远程 <jdbcDialectName>
数据库建立连接。 请检查连接信息和凭据,例如主机、端口、用户、密码和数据库选项。 ** 如果你认为信息正确,请检查工作区的网络设置,并确保它对主机不存在出站限制。 此外,请检查主机是否不会阻止来自部署工作区 Spark 群集的网络的入站连接。 ** 详细的错误消息:<causeErrorMessage>
。
CANNOT_ESTABLISH_CONNECTION_SERVERLESS
无法与远程 <jdbcDialectName>
数据库建立连接。 请检查连接信息和凭据,例如主机、端口、用户、密码和数据库选项。 ** 如果认为信息正确,请允许从 Internet 到主机的入站流量,因为使用的是无服务器计算。 如果网络策略不允许入站 Internet 流量,请使用非无服务器计算服务,或者您可以咨询 Databricks 代表以了解无服务器专用网络。 ** 详细的错误消息:<causeErrorMessage>
。
CANNOT_INVOKE_IN_TRANSFORMATIONS
数据集转换和作只能由驱动程序调用,而不能在其他数据集转换中调用;例如, dataset1.map(x => dataset2.values.count() * x)
由于值转换和计数作不能在 dataset1.map 转换内部执行,因此无效。 有关详细信息,请参阅 SPARK
-28702。
无法加载函数类
注册函数 <className>
时无法加载类 <functionName>
,请确保它在类路径上。
CANNOT_LOAD_PROTOBUF_CLASS
无法加载名称为 <protobufClassName>
的 Protobuf 类。 <explanation>
。
无法加载状态存储
加载状态时发生错误。
有关更多详细信息,请参阅 CANNOT_LOAD_STATE_STORE
CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE
未能合并不兼容的数据类型 <left>
和 <right>
。 请检查要合并的列的数据类型,并确保它们兼容。 如有必要,请在尝试合并之前考虑将列转换为兼容的数据类型。
CANNOT_MERGE_SCHEMAS
合并架构失败:
初始架构:
<left>
无法与初始架构合并的架构:
<right>
。
无法修改配置
无法修改 Spark 配置的值:<key>
。
另请参阅“https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements”。
无法解析小数
无法分析十进制数。 请确保输入是具有可选小数点或逗号分隔符的有效数字。
无法解析间隔
无法分析 <intervalString>
。 请确保提供的值采用有效的格式来定义间隔。 可以参考文档以获取正确的格式。 如果问题仍然存在,请仔细检查输入值是否不为 null 或为空,然后重试。
无法解析JSON字段
无法将 JSON 标记类型 <fieldName>
的字段名称 <fieldValue>
和值 <jsonType>
分析为目标 Spark 数据类型 <dataType>
。
不能解析PROTOBUF描述符
将描述符字节分析为 Protobuf FileDescriptorSet 时出错。
无法解析时间
无法将输入字符串 <input>
分析为 TIME 值,因为它与日期时间格式 <format>
不匹配。
无法解析时间戳
<message>
。 使用 <func>
来容忍无效的输入字符串并改为返回 NULL
。
CANNOT_QUERY_TABLE_DURING_INITIALIZATION
在初始化期间无法查询 MV/ST。
有关更多详细信息,请参阅 CANNOT_QUERY_TABLE_DURING_INITIALIZATION
无法读取归档文件
无法读取路径 <path>
的文件,因为它已存档。 请调整查询筛选器以排除存档的文件。
无法读取文件
无法读取路径 <format>
处的文件 <path>
。
有关更多详细信息,请参阅 CANNOT_READ_FILE
无法从安全提供者读取敏感密钥
无法从安全提供程序读取敏感密钥“<key>
”。
CANNOT_RECOGNIZE_HIVE_TYPE
无法识别 hive 类型字符串:<fieldType>
,列:<fieldName>
。 Spark SQL 无法识别字段的指定数据类型。 请检查指定字段的数据类型,并确保它是有效的 Spark SQL 数据类型。 有关有效数据类型及其格式的列表,请参阅 Spark SQL 文档。 如果数据类型正确,请确保使用的是受支持的 Spark SQL 版本。
CANNOT_REFERENCE_UC_IN_HMS
无法在 Hive 元存储对象中引用 Unity Catalog <objType>
。
CANNOT_REMOVE_RESERVED_PROPERTY
无法删除保留属性:<property>
。
CANNOT_RENAME_ACROSS_CATALOG
不允许跨目录重命名 <type>
。
CANNOT_RENAME_ACROSS_SCHEMA
不允许跨架构重命名 <type>
。
CANNOT_RESOLVE_DATAFRAME_COLUMN
无法解析数据帧列 <name>
。 这可能是因为非法引用,如 df1.select(df2.col("a"))
。
CANNOT_RESOLVE_STAR_EXPAND
无法解析 <targetString>
.* 给定的输入列 <columns>
。 请检查指定的表或结构是否存在,并且可在输入列中访问。
CANNOT_RESTORE_PERMISSIONS_FOR_PATH
无法将创建的路径 <path>
上的权限设置回 <permission>
。
CANNOT_SHALLOW_CLONE_ACROSS_UC_AND_HMS
无法在 Unity Catalog 和 Hive 元存储之间对表进行浅克隆。
CANNOT_SHALLOW_CLONE_NESTED
无法浅克隆已是浅克隆的表 <table>
。
CANNOT_SHALLOW_CLONE_NON_UC_MANAGED_TABLE_AS_SOURCE_OR_TARGET
仅 MANAGED
表类型支持浅克隆。 表 <table>
不是 MANAGED
表。
无法更新字段
无法更新 <table>
字段 <fieldName>
类型:
有关更多详细信息,请参阅 CANNOT_UPDATE_FIELD
CANNOT_UP_CAST_DATATYPE
无法将 <expression>
从 <sourceType>
强制转换为 <targetType>
。
<details>
无法使用KRYO
无法加载 Kryo 序列化编解码器。 无法在 Spark Connect 客户端中使用 Kryo 序列化。 使用 Java 序列化、提供自定义编解码器或使用 Spark 经典版。
无法验证连接
不支持验证 <jdbcDialectName>
连接。 请联系 Databricks 支持团队获取替代解决方案,或将“spark.databricks.testConnectionBeforeCreation”设置为“false”,以跳过创建连接对象前的连接测试。
CANNOT_WRITE_STATE_STORE
为提供程序 <providerClass>
写入状态存储文件时出错。
有关更多详细信息,请参阅 CANNOT_WRITE_STATE_STORE
CAST_INVALID_INPUT
<expression>
类型的值 <sourceType>
无法强制转换为 <targetType>
,因为其格式错误。 根据语法更正值,或更改其目标类型。 改为使用 try_cast
来容许格式错误的输入并返回 NULL
。
有关更多详细信息,请参阅 CAST_INVALID_INPUT
CAST_OVERFLOW
由于溢出,类型 <value>
的值 <sourceType>
无法强制转换为 <targetType>
。 使用 try_cast
容许溢出,并返回 NULL
。
CAST_OVERFLOW_IN_TABLE_INSERT
由于溢出,无法将 <sourceType>
类型的值分配给 <targetType>
类型列或变量 <columnName>
。 请对输入值使用 try_cast
来容忍溢出并改为返回 NULL
。
目录未找到
找不到编号为 <catalogName>
的目录。 请考虑将 SQL 配置 <config>
设置为目录插件。
CATALOG_OWNED_TABLE_CREATION_NOT_ALLOWED
不允许使用 <feature>
表功能创建 Delta 表。 请联系 Databricks 支持部门。
CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND
找不到检查点块 <rddBlockId>
!
可能是最初为此分区设置检查点的执行程序不再处于活动状态,或者未保留原始 RDD。
如果此问题仍然存在,则可以考虑改用 rdd.checkpoint()
,这比本地检查点慢,但容错能力更高。
CIRCULAR_CLASS_REFERENCE
类中不能有循环引用,但收到了类 <t>
的循环引用。
CLASS_NOT_OVERRIDE_EXPECTED_METHOD
<className>
必须替代 <method1>
或 <method2>
。
CLASS_UNSUPPORTED_BY_MAP_OBJECTS
MapObjects
不支持类 <cls>
作为生成的集合。
CLEANROOM_COMMANDS_NOT_SUPPORTED
不支持清洁室命令
CLEANROOM_INVALID_SHARED_DATA_OBJECT_NAME
引用清洁室内 <type>
的名称无效。 按照 [catalog].[schema].[<type>
] 的格式,在清洁室内使用 <type>
的名称。
如果不确定要使用什么名称,可以运行“SHOW ALL IN CLEANROOM
[clean_room]”并使用“name”列中的值。
CLONING_WITH_HISTORY_INVALID_OPTION
带历史记录的克隆指定了无效选项:<invalidOption>
。
有效语法:CREATE
(OR REPLACE) TABLE
... DEEP CLONE
... WITH HISTORY
。
CLONING_WITH_HISTORY_UNSUPPORTED
不支持带历史记录的克隆。
CLOUD_FILE_SOURCE_FILE_NOT_FOUND
已收到文件 <filePath>
的文件通知,但该文件不再存在。 请确保在处理文件之前不会删除这些文件。 若要继续处理流,可以将 Spark SQL 配置 <config>
设置为 true。
云服务提供商错误
云提供商错误:<message>
CLUSTERING_COLUMNS_MISMATCH
指定的聚类分析与现有表 <tableName>
不匹配。
指定的聚类分析列:[<specifiedClusteringString>
]。
现有聚类分析列:[<existingClusteringString>
]。
CLUSTERING_NOT_SUPPORTED
“<operation>
”不支持聚类分析。
CLUSTER_BY_AUTO_FEATURE_NOT_ENABLED
请联系 Databricks 代表来启用群集自动功能。
CLUSTER_BY_AUTO_REQUIRES_CLUSTERING_FEATURE_ENABLED
请启用 clusteringTable.enableClusteringTableFeature 以使用 CLUSTER BY
AUTO。
CLUSTER_BY_AUTO_REQUIRES_PREDICTIVE_OPTIMIZATION
CLUSTER BY
AUTO 要求启用预测优化。
CLUSTER_BY_AUTO_UNSUPPORTED_TABLE_TYPE_ERROR
仅 UC 托管表支持 CLUSTER BY
AUTO。
CODEC_NOT_AVAILABLE
编解码器 <codecName>
不可用。
有关更多详细信息,请参阅 CODEC_NOT_AVAILABLE
CODEC_SHORT_NAME_NOT_FOUND
找不到编解码器 <codecName>
的短名称。
COLLATION_INVALID_NAME
值 <collationName>
不表示正确的排序规则名称。 建议的有效排序规则名称:[<proposals>
]。
COLLATION_INVALID_PROVIDER
值 <provider>
不表示正确的排序规则提供程序。 支持的提供程序包括:[<supportedProviders>
]。
排序不匹配
无法确定要用于字符串函数和运算符的排序规则。
有关更多详细信息,请参阅 COLLATION_MISMATCH
集合大小超出限制
无法使用超过数组大小限制 <numberOfElements>
的 <maxRoundedArrayLength>
元素创建数组,
有关更多详细信息,请参阅 COLLECTION_SIZE_LIMIT_EXCEEDED
COLUMN_ALIASES_NOT_ALLOWED
<op>
中不允许使用列别名。
COLUMN_ALREADY_EXISTS
列 <columnName>
已存在。 选择其他名称或重命名现有列。
COLUMN_ARRAY_ELEMENT_TYPE_MISMATCH
字段 <pos>
中的某些值与列数组类型不兼容。 预期的类型 <type>
。
COLUMN_MASKS_ABAC_MISMATCH
无法解析列掩码 <tableName>
,因为从策略继承的列掩码与显式定义的列掩码之间存在不匹配。 若要继续,请禁用基于属性的访问控制(ABAC),并联系 Databricks 支持部门。
COLUMN_MASKS_CHECK_CONSTRAINT_UNSUPPORTED
不支持对具有列掩码策略的表 CHECK
创建 <tableName>
约束。
COLUMN_MASKS_DUPLICATE_USING_COLUMN_NAME
<statementType>
语句尝试将列掩码策略分配给 USING COLUMNS
列表中包含两个或多个其他引用列的列,该列的名称与 <columnName>
相同,无效。
COLUMN_MASKS_FEATURE_NOT_SUPPORTED
不支持 <tableName>
的列掩码策略:
有关更多详细信息,请参阅 COLUMN_MASKS_FEATURE_NOT_SUPPORTED
COLUMN_MASKS_INCOMPATIBLE_SCHEMA_CHANGE
无法从表 <tableName>
进行 <statementType> <columnName>
,因为它在列 <maskedColumn>
的列掩码策略中被引用。 表所有者必须先删除或更改此策略,然后才能继续。
COLUMN_MASKS_MERGE_UNSUPPORTED_SOURCE
MERGE INTO
操作不支持源表 <tableName>
中的列掩码策略。
COLUMN_MASKS_MERGE_UNSUPPORTED_TARGET
MERGE INTO
操作不支持在有列掩码策略的情况下写入表 <tableName>
。
COLUMN_MASKS_MULTI_PART_TARGET_COLUMN_NAME
此语句尝试将列掩码策略分配给具有多个名称部分的列 <columnName>
,这无效。
COLUMN_MASKS_MULTI_PART_USING_COLUMN_NAME
此语句尝试将列掩码策略分配给某一列,而 USING COLUMNS
列表中包含的名称 <columnName>
具有多个名称部分,这是无效的。
COLUMN_MASKS_NOT_ENABLED
不支持定义列掩码
COLUMN_MASKS_REQUIRE_UNITY_CATALOG
仅在 Unity Catalog 中支持列掩码策略。
COLUMN_MASKS_SHOW_PARTITIONS_UNSUPPORTED
SHOW PARTITIONS
具有列掩码的表不支持 <format>
命令。
COLUMN_MASKS_TABLE_CLONE_SOURCE_NOT_SUPPORTED
不支持使用列掩码策略从表 <mode>
进行 <tableName>
克隆。
COLUMN_MASKS_TABLE_CLONE_TARGET_NOT_SUPPORTED
不支持使用列掩码策略 <mode>
克隆到表 <tableName>
。
COLUMN_MASKS_不支持的常量作为参数
不支持将常量用作列掩码策略中的参数。 请更新 SQL 命令以从列掩码定义中删除常量,然后再次重试该命令。
COLUMN_MASKS_不支持的数据类型
用作列掩码策略的函数 <functionName>
包含数据类型不受支持的 <dataType>
参数。
COLUMN_MASKS_UNSUPPORTED_PROVIDER
无法执行 <statementType>
命令,因为不支持使用表提供程序“<provider>
”为目标数据源分配列掩码策略。
COLUMN_MASKS_UNSUPPORTED_SUBQUERY
无法对表 <operation>
执行 <tableName>
,因为它包含一个或多个带有子查询表达式的列掩码策略,它们尚不受支持。 请联系表所有者更新列掩码策略以继续。
COLUMN_MASKS_USING_COLUMN_NAME_SAME_AS_TARGET_COLUMN
列 <columnName>
的名称与目标列相同,无效;请从 USING COLUMNS
列表中删除该列,然后重试该命令。
COLUMN_NOT_DEFINED_IN_TABLE
<colType>
列 <colName>
未在表 <tableName>
中定义,定义的表列为:<tableCols>
。
COLUMN_NOT_FOUND
找不到列 <colName>
。 根据 SQL 配置 <caseSensitiveConfig>
验证列名的拼写和正确性。
COLUMN_ORDINAL_OUT_OF_BOUNDS
列序号不在范围内。 表中的列数为 <attributesLength>
,但列序号为 <ordinal>
。
属性如下:<attributes>
。
COMMA_PRECEDING_CONSTRAINT_ERROR
约束定义前出现意外的“,”。 确保在未定义列(和预期)时,约束子句不会以逗号开头。
COMMENT_ON_CONNECTION_NOT_IMPLEMENTED_YET
尚未实现 COMMENT ON CONNECTION
命令
比较器返回空值
比较器返回了一个 NULL
,用于 <firstValue>
和 <secondValue>
之间的比较。
它应为“大于”运算符返回正整数,为“等于”运算符返回 0,为“小于”运算符返回负整数。
要恢复将 NULL
视为 0(相等)的已弃用行为,必须将“spark.sql.legacy.allowNullComparisonResultInArraySort”设置为“true”。
COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
无法处理表达式的输入数据类型:<expression>
。
有关更多详细信息,请参阅 COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
CONCURRENT_QUERY
此查询的另一个实例 [id:<queryId>
] 刚刚由并发会话启动 [现有 runId:<existingQueryRunId>
,新 runId:<newQueryRunId>
]。
CONCURRENT_SCHEDULER_INSUFFICIENT_SLOT
群集中所需的最小可用槽数是 <numTasks>
,而群集只有 <numSlots>
个可用槽。 查询将停止或失败。 增加群集大小以继续。
CONCURRENT_STREAM_LOG_UPDATE
对日志的并发更新。 检测到 <batchId>
的多个流式处理作业。
请确保一次只有一个流式处理作业在特定检查点位置上运行。
CONFIG_NOT_AVAILABLE
配置 <config>
不可用。
CONFLICTING_CLUSTER_CONFIGURATION
以下配置与 spark.databricks.streaming.realTimeMode.enabled 冲突:<confNames>
。 从群集配置中删除这些配置并重启 Spark 群集。
CONFLICTING_DIRECTORY_STRUCTURES
检测到有冲突的目录结构。
可疑路径:
<discoveredBasePaths>
如果提供的路径是分区目录,请在数据源的选项中设置“basePath”以指定表的根目录。
如果有多个根目录,请单独加载它们,然后将它们联合起来。
CONFLICTING_PARTITION_COLUMN_NAMES
检测到有冲突的分区列名:
<distinctPartColLists>
对于已分区表目录,数据文件应仅存在于叶目录中。
同一级别的目录应具有相同的分区列名称。
请检查以下目录是否有意外文件或分区列名称不一致:
<suspiciousPaths>
CONFLICTING_PARTITION_COLUMN_NAME_WITH_RESERVED
分区列名称“”<partitionColumnName>
与保留列名称冲突。
<tableName>
的架构与 Hive 不兼容,Spark 会自动生成保留列“<partitionColumnName>
”以特定方式存储表。
请为分区列使用不同的名称。
CONFLICTING_PROVIDER
指定的提供程序 <provider>
与现有目录提供程序 <expectedProvider>
不一致。 请使用 'USING <expectedProvider>
' 并重试命令。
CONFLICTING_SQL_CONFIGURATION
以下配置与 spark.databricks.streaming.realTimeMode.enabled 冲突:<confNames>
。 从 SparkSession 配置中删除这些配置。
CONNECT
泛型 Spark Connect 错误。
有关更多详细信息,请参阅 CONNECT
CONNECTION_ALREADY_EXISTS
无法创建连接 <connectionName>
,因为它已存在。
选择其他名称,删除或替换现有连接,或添加 IF NOT EXISTS
子句以容忍预先存在的连接。
连接名称不能为空
无法执行此命令,因为连接名称必须为非空。
未找到连接
无法执行此命令,因为找不到连接名称 <connectionName>
。
连接选项不受支持
“<connectionType>
”类型的连接不支持以下选项:<optionsNotSupported>
。 支持的选项:<allowedOptions>
。
连接类型不支持
无法创建“<connectionType>
”类型的连接。 支持的连接类型:<allowedTypes>
。
CONNECT_SESSION_MIGRATION
泛型会话迁移错误(userId:<userId>
、sessionId:<sessionId>
、serverSessionId:<serverSessionId>
)。
有关更多详细信息,请参阅 CONNECT_SESSION_MIGRATION
CONSTRAINTS_REQUIRE_UNITY_CATALOG
在 Unity Catalog 中,表约束仅受支持。
CONVERSION_INVALID_INPUT
值 <str> (<fmt>
)无法转换为 <targetType>
,因为它格式不正确。 根据语法更正值,或更改其格式。 改为使用 <suggestion>
来容许格式错误的输入并返回 NULL
。
COPY_INTO_COLUMN_ARITY_MISMATCH
无法写入到 <tableName>
,原因是
有关更多详细信息,请参阅 COPY_INTO_COLUMN_ARITY_MISMATCH
COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON
方案 <scheme>
无效。 COPY INTO
源凭据目前仅支持 s3/s3n/s3a/wasbs/abfss。
COPY_INTO_CREDENTIALS_REQUIRED
COPY INTO
源凭据必须指定 <keyList>
。
COPY_INTO_DUPLICATED_FILES_COPY_NOT_ALLOWED
复制的文件在并发 COPY INTO
操作中提交。 请稍后重试。
COPY_INTO_ENCRYPTION_NOT_ALLOWED_ON
方案 <scheme>
无效。 COPY INTO
源加密目前仅支持 s3/s3n/s3a/abfss。
COPY_INTO_ENCRYPTION_NOT_SUPPORTED_FOR_AZURE
COPY INTO
加密仅支持 ADLS Gen2 或 abfss:// 文件方案
COPY_INTO_ENCRYPTION_REQUIRED
COPY INTO
源加密必须指定 '<key>
'。
COPY_INTO_ENCRYPTION_REQUIRED_WITH_EXPECTED
加密选项 <requiredKey>
无效。 COPY INTO
源加密必须指定 '<requiredKey>
' = '<keyValue>
'。
COPY_INTO_FEATURE_INCOMPATIBLE_SETTING
COPY INTO
功能 '<feature>
' 与 '<incompatibleSetting>
' 不兼容。
COPY_INTO_NON_BLIND_APPEND_NOT_ALLOWED
COPY INTO
除了追加数据外,不允许与其他事务同时运行。 请稍后重试。
COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED
COPY INTO
无法加载其状态,已超过最大重试次数。
COPY_INTO_SCHEMA_MISMATCH_WITH_TARGET_TABLE
复制到 Delta 表时检测到架构不匹配(表:<table>
)。
这可能表示传入数据出现问题,或者可以通过设置使 Delta 表架构根据传入数据自动演变:
COPY_OPTIONS
('mergeSchema' = 'true')
架构差异:
<schemaDiff>
COPY_INTO_SOURCE_FILE_FORMAT_NOT_SUPPORTED
源文件的格式必须是 CSV、JSON、AVRO、ORC、PARQUET
、TEXT 或 BINARYFILE
之一。 不支持在 Delta 表上使用 COPY INTO
作为源,因为在进行 OPTIMIZE
操作后可能会引入重复数据。 可以通过运行 SQL 命令 set spark.databricks.delta.copyInto.formatCheck.enabled = false
关闭此检查。
COPY_INTO_SOURCE_SCHEMA_INFERENCE_FAILED
源目录不包含类型为 <format>
的任何可分析文件。 请检查“<source>
”的内容。
通过将“<config>
”设置为“false”,可以将错误静音。
COPY_INTO_STATE_INTERNAL_ERROR
处理 COPY INTO
状态时发生内部错误。
有关更多详细信息,请参阅 COPY_INTO_STATE_INTERNAL_ERROR
COPY_INTO_SYNTAX_ERROR
无法分析 COPY INTO
命令。
有关更多详细信息,请参阅 COPY_INTO_SYNTAX_ERROR
COPY_INTO_UNSUPPORTED_FEATURE
不支持 COPY INTO
功能 '<feature>
'。
COPY_UNLOAD_FORMAT_TYPE_NOT_SUPPORTED
无法以格式 '<formatType>
' 卸载数据。 <connectionType>
支持的格式为:<allowedFormats>
。
CORRUPTED_CATALOG_FUNCTION
由于目录中的函数信息损坏,无法将目录函数“”<identifier>
转换为 SQL 函数。 如果函数不是 SQL 函数,请确保类名“”<className>
是可加载的。
CREATE_FOREIGN_SCHEMA_NOT_IMPLEMENTED_YET
尚未实现 CREATE FOREIGN SCHEMA
命令
CREATE_FOREIGN_TABLE_NOT_IMPLEMENTED_YET
尚未实现 CREATE FOREIGN TABLE
命令
CREATE_OR_REFRESH_MV_NOT_SUPPORTED
不支持 CREATE OR REFRESH MATERIALIZED VIEW
。 请改用 CREATE OR REPLACE MATERIALIZED VIEW
。
CREATE_OR_REFRESH_MV_ST_ASYNC
无法对指定了 CREATE
的具体化视图或流式处理表运行 REFRESH
或 ASYNC
。 请从 ASYNC
OR CREATE
语句中删除 REFRESH
,或使用 REFRESH ASYNC
异步刷新现有具体化视图或流式处理表。
CREATE_PERMANENT_VIEW_WITHOUT_ALIAS
不允许创建永久视图 <name>
,而无需为表达式 <attr>
显式分配别名。
CREATE_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
CREATE TABLE
列 <columnName>
多次指定描述符 "<optionName>
",这是无效的。
CREATE_VIEW_COLUMN_ARITY_MISMATCH
无法创建视图 <viewName>
,原因是
有关更多详细信息,请参阅 CREATE_VIEW_COLUMN_ARITY_MISMATCH
CREDENTIAL_MISSING
请在创建或更新外部位置时提供凭据。
CREDENTIAL_PURPOSE_MISMATCH
凭据 <credentialName>
具有用途 <actualPurpose>
,但命令中给出的用途是 <expectedPurpose>
。
CSV_ENFORCE_SCHEMA_NOT_SUPPORTED
使用 enforceSchema
或 rescuedDataColumn
时,不能配置 CSV 选项 failOnUnknownFields
,因为此时列是按名称而不是编号来读取的。
CYCLIC_FUNCTION_REFERENCE
检测到循环函数引用:<path>
。
DATABRICKS_DELTA_NOT_ENABLED
帐户中未启用 Databricks Delta。<hints>
数据类型不匹配
由于数据类型不匹配,无法解析 <sqlExpr>
:
有关更多详细信息,请参阅 DATATYPE_MISMATCH
DATATYPE_MISSING_SIZE
DataType <type>
需要长度参数,例如 <type>
(10)。 请指定长度。
DATA_LINEAGE_SECURE_VIEW_LEAF_NODE_HAS_NO_RELATION
写入世系失败:缺少与 CLM/RLS 策略对应的关系。
DATA_SOURCE_ALREADY_EXISTS
数据源“<provider>
”已存在。 请为新数据源选择其他名称。
数据源外部错误 (DATA_SOURCE_EXTERNAL_ERROR)
保存到外部数据源时遇到错误。
数据源不存在 (DATA_SOURCE_NOT_EXIST)
找不到数据源“<provider>
”。 请确保数据源已注册。
数据源未找到 (DATA_SOURCE_NOT_FOUND)
找不到数据源:<provider>
。 请确保提供程序名称正确,并且包已正确注册并与 Spark 版本兼容。
数据源选项包含无效字符
选项 <option>
不得为空,并且不应包含无效字符、查询字符串或参数。
数据源选项是必填项
选项 <option>
是必需的。
DATA_SOURCE_TABLE_SCHEMA_MISMATCH
数据源表的架构与预期的架构不匹配。 如果使用 DataFrameReader.schema API 或创建表,请避免指定架构。
数据源架构:<dsSchema>
预期架构:<expectedSchema>
DATA_SOURCE_URL_NOT_ALLOWED
数据源选项中不允许使用 JDBC URL,请指定“host”、“port”和“database”选项。
DATETIME_FIELD_OUT_OF_BOUNDS
<rangeMessage>
。
有关更多详细信息,请参阅 DATETIME_FIELD_OUT_OF_BOUNDS
DATETIME_OVERFLOW
日期/时间操作溢出:<operation>
。
DC_API_QUOTA_EXCEEDED
已超出数据源 <sourceName>
的 API 配额。
有关更多详细信息,请参阅 DC_API_QUOTA_EXCEEDED
直流连接错误
无法连接到 <sourceName>
源。 错误代码:<errorCode>
。
有关更多详情,请参阅 DC_CONNECTION_ERROR
DC_DYNAMICS_API_ERROR
Dynamics API 调用中发生错误,errorCode:<errorCode>
。
有关详细信息,请参阅 DC_DYNAMICS_API_ERROR
DC_NETSUITE_ERROR
Netsuite JDBC 调用中发生错误,errorCode:<errorCode>
。
有关更多详细信息,请参阅 DC_NETSUITE_ERROR
DC_架构更改错误
SQLSTATE:未分配
架构更改发生在 <tableName>
源的表 <sourceName>
中。
有关更多详细信息,请参阅 DC_SCHEMA_CHANGE_ERROR
DC_SERVICENOW_API_ERROR
ServiceNow API 调用中发生错误,errorCode:<errorCode>
。
有关详细信息,请参阅 DC_SERVICENOW_API_ERROR
DC_SFDC_BULK_QUERY_JOB_INCOMPLETE
对象 <objName>
的引入不完整,因为 Salesforce API 查询作业花费的时间过长、失败或已手动取消。
若要重试,可以重新运行整个管道或刷新此特定目标表。 如果错误仍然存在,请提交票证。 作业 ID:<jobId>
。 作业状态:<jobStatus>
。
DC_SHAREPOINT_API_ERROR
Sharepoint API 调用中发生错误,errorCode:<errorCode>
。
有关详细信息,请参阅 DC_SHAREPOINT_API_ERROR
DC_SOURCE_API_ERROR
<sourceName>
API 调用中发生错误。 源 API 类型:<apiType>
。 错误代码:<errorCode>
。
有时,在达到 <sourceName>
API 限制时,可能会发生这种情况。 如果你未超过 API 限制,请尝试重新运行连接器。 如果问题仍然存在,请提交票证。
DC_UNSUPPORTED_ERROR
数据源 <sourceName>
中发生不支持的错误。
有关更多详细信息,请参阅 DC_UNSUPPORTED_ERROR
DC_WORKDAY_RAAS_API_ERROR
Workday RAAS API 调用中发生错误,errorCode:<errorCode>
。
有关更多详情,请参阅 DC_WORKDAY_RAAS_API_ERROR
小数精度超出最大精度
小数精度 <precision>
超过最大精度 <maxPrecision>
。
默认数据库不存在
默认数据库 <defaultDatabase>
不存在,请先创建它,或者将默认数据库更改为 <defaultDatabase>
。
默认文件未找到
基础文件可能已更新。 可在 SQL 中运行“REFRESH TABLE
tableName”命令或重新创建所涉及的数据集/数据帧,显式地使 Spark 中的缓存失效。 如果磁盘缓存已过时或基础文件已删除,则可以通过重启群集手动使磁盘缓存失效。
DEFAULT_PLACEMENT_INVALID
DEFAULT
、MERGE
、INSERT
或 UPDATE
命令中的 SET VARIABLE
关键字无法直接分配给目标列,因为它是表达式的一部分。
例如: UPDATE SET c1 = DEFAULT
是允许的,但 UPDATE T SET c1 = DEFAULT + 1
不允许。
DEFAULT_UNSUPPORTED
无法执行 <statementType>
命令,因为目标数据源(表提供程序为“<dataSource>
”)不支持 DEFAULT
值。
DESCRIBE_JSON_NOT_EXTENDED
DESCRIBE TABLE
...仅当指定 [EXTENDED|FORMATTED
] 时,才支持 AS JSON。
例如:DESCRIBE EXTENDED <tableName>
支持 AS JSON,但 DESCRIBE <tableName>
AS JSON 不受支持。
DIFFERENT_DELTA_TABLE_READ_BY_STREAMING_SOURCE
流式处理查询从意外的 Delta 表(id =“<newTableId>
”)中读取。
它用于根据检查点从另一个 Delta 表(id =“<oldTableId>
”)中读取。
更改代码以从新表中读取,或者删除表然后
重新创建了一个表。 请还原更改或删除流式处理查询检查点
以从头开始。
DISTINCT_WINDOW_FUNCTION_UNSUPPORTED
不支持不同的窗口函数:<windowExpr>
。
DIVIDE_BY_ZERO
被零除。 使用 try_divide
容许除数为 0,并返回 NULL
。 如有必要,请将 <config>
设置为“false”以绕过此错误。
有关详细信息,请参阅 DIVIDE_BY_ZERO
DLT_EXPECTATIONS_NOT_SUPPORTED
期望仅在 Lakeflow 声明式管道中受支持。
DLT_VIEW_CLUSTER_BY_NOT_SUPPORTED
MATERIALIZED
带有 CLUSTER BY
子句的视图仅在 Lakeflow 声明式管道中受支持。
DLT_VIEW_LOCATION_NOT_SUPPORTED
具体化视图位置仅在 Lakeflow 声明式管道中受支持。
DLT_VIEW_SCHEMA_WITH_TYPE_NOT_SUPPORTED
具有指定类型的具体化视图架构仅在 Lakeflow 声明式管道中受支持。
DLT_VIEW_TABLE_CONSTRAINTS_NOT_SUPPORTED
CONSTRAINT
视图中的子句仅在 Lakeflow 声明式管道中受支持。
DROP_SCHEDULE_DOES_NOT_EXIST
在没有现有计划或触发器的情况下,无法删除表上的 SCHEDULE
。
DUPLICATED_CTE_NAMES
CTE 定义不能有重复的名称:<duplicateNames>
。
DUPLICATED_FIELD_NAME_IN_ARROW_STRUCT
在 Arrow 结构中不允许使用重复的字段名称,结果是 <fieldNames>
。
DUPLICATED_MAP_KEY
找到重复的映射键 <key>
,请检查输入数据。
如果要删除重复的键,可以将 <mapKeyDedupPolicy>
设置为“LAST_WIN
”,以便最后插入的键优先。
DUPLICATED_METRICS_NAME
指标名称不唯一:<metricName>
。 同一名称不能用于具有不同结果的指标。
但是,允许具有相同结果和名称的多个度量实例(例如自联接实例)。
DUPLICATE_ASSIGNMENTS
列或变量 <nameList>
多次显示为赋值目标。
DUPLICATE_CLAUSES
找到了重复子句:<clauseName>
。 请删除其中一个。
DUPLICATE_CONDITION_IN_SCOPE
在作用域中找到重复条件 <condition>
。 请删除其中一个。
DUPLICATE_EXCEPTION_HANDLER
找到重复的处理程序。 请删除其中一个。
有关更多详细信息,请参阅 DUPLICATE_EXCEPTION_HANDLER
DUPLICATE_KEY
发现重复键 <keyColumn>
。
DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
对例程 <routineName>
的调用无效,因为它包含对同一参数名称 <parameterName>
的多个参数赋值。
有关更多详细信息,请参阅 DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
DUPLICATE_ROUTINE_PARAMETER_NAMES
在用户定义的例程的参数列表中找到重复的名称 <routineName>
:<names>
。
DUPLICATE_ROUTINE_RETURNS_COLUMNS
在用户定义的例程 RETURNS
的 <routineName>
子句列列表中找到重复的列:<columns>
。
EMITTING_ROWS_OLDER_THAN_WATERMARK_NOT_ALLOWED
上一个节点发出了一行,其中的 eventTime=<emittedRowEventTime>
早于 current_watermark_value=<currentWatermark>
这可能会导致执行管道下游的状态操作符出现正确性问题。
请更正运算符逻辑以在当前全局水印值之后发出行。
EMPTY_JSON_FIELD_VALUE
未能分析数据类型 <dataType>
的空字符串。
EMPTY_LOCAL_FILE_IN_STAGING_ACCESS_QUERY
暂存 <operation>
查询中包含空本地文件
EMPTY_SCHEMA_NOT_SUPPORTED_FOR_DATASOURCE
<format>
数据源不支持编写空架构或嵌套的空架构。 请确保数据架构至少有一列或多列。
编码器未找到
找不到 Spark SQL 内部表示形式 <typeName>
类型的编码器。
考虑将输入类型更改为“<docroot>
/sql-ref-datatypes.html”支持的其中一个类型。
END_LABEL_WITHOUT_BEGIN_LABEL
如果没有开始标签,则结束标签 <endLabel>
无法存在。
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_LATEST_WITH_TRIGGER_AVAILABLENOW
在使用 Trigger.AvailableNow 运行查询时,某个或多个 Kafka 主题中的某些分区报告的可用偏移量小于结束偏移量。 此错误可能是暂时性的 - 重启查询,如果仍然看到相同的问题,请报告。
最新偏移量:<latestOffset>
,结束偏移量:<endOffset>
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_PREFETCHED
对于具有 Trigger.AvailableNow 的 Kafka 数据源,每个主题分区的结束偏移量应小于或等于预提取的偏移量。 此错误可能是暂时性的 - 重启查询,如果仍然看到相同的问题,请报告。
预提取的偏移量:<prefetchedOffset>
,结束偏移量:<endOffset>
。
ERROR_READING_AVRO_UNKNOWN_FINGERPRINT
读取 avro 数据时出错 -- 遇到未知指纹: <fingerprint>
不确定要使用的架构。
如果在启动 Spark 上下文后注册了其他架构,可能会发生这种情况。
事件日志为空
与<tableOrPipeline>
相关的事件日志没有架构,也不包含任何事件。 稍后等待事件生成后再尝试
EVENT_LOG_REQUIRES_SHARED_COMPUTE
无法从“已分配”或“无隔离共享”群集查询事件日志,请改用共享群集或 Databricks SQL 仓库。
EVENT_LOG_TVF_UNSUPPORTED_FOR_PIPELINE
对于使用“schema”字段的管道或发布到默认存储的管道,不支持 EVENT_LOG
表值函数。
若要查询事件日志,请在管道设置中指定event_log字段,将其发布到元存储。
有关详细信息,请参阅 Monitor Lakeflow 声明性管道文档: https://docs.databricks.com/aws/en/delta-live-tables/observability。
EVENT_LOG_UNAVAILABLE
没有可用于 <tableOrPipeline>
的事件日志。 生成事件后请稍后重试
EVENT_LOG_UNSUPPORTED_TABLE_TYPE
<tableIdentifier>
的表类型为 <tableType>
。
查询事件日志仅支持具体化视图、流式表或 Lakeflow 声明式管道。
EVENT_TIME_IS_NOT_ON_TIMESTAMP_TYPE
事件时间 <eventName>
的 <eventType>
类型无效,应为“TIMESTAMP
”。
超出限制长度
超过 char/varchar 类型长度限制:<limit>
。
EXCEPT_NESTED_COLUMN_INVALID_TYPE
EXCEPT
列 <columnName>
已解析,本应该为 StructType,但发现类型为 <dataType>
。
EXCEPT_OVERLAPPING_COLUMNS
EXCEPT
列表中的列必须非重复且不重叠,但出现了 (<columns>
)。
EXCEPT_RESOLVED_COLUMNS_WITHOUT_MATCH
EXCEPT
列 [<exceptColumns>
] 已解析,但不与星形扩展中的任何 [<expandedColumns>
] 列匹配。
EXCEPT_UNRESOLVED_COLUMN_IN_STRUCT_EXPANSION
无法解析 <objectName>
子句中的列/字段名称 EXCEPT
。 您的意思是以下选项之一:[<objectList>
]?
注意:在结构扩展期间,EXCEPT
子句中的嵌套列可能不包括限定符(表名、父结构列名等);如果限定符与嵌套列一起使用,请尝试删除限定符。
EXECUTOR_BROADCAST_JOIN_OOM
没有足够的内存来生成广播关系 <relationClassName>
。 关系大小 = <relationSize>
. 此任务使用的内存总量 = <taskMemoryUsage>
。 onHeapExecutionMemoryUsed = <onHeapExecutionMemoryUsed>
,offHeapExecutionMemoryUsed = <offHeapExecutionMemoryUsed>
,onHeapStorageMemoryUsed = <onHeapStorageMemoryUsed>
,offHeapStorageMemoryUsed = <offHeapStorageMemoryUsed>
。 [sparkPlanId: <sparkPlanId>
] 使用“set spark.sql.autoBroadcastJoinThreshold=-1”禁用此查询的广播,或使用连接提示强制进行随机联接。
EXECUTOR_BROADCAST_JOIN_STORE_OOM
没有足够的内存来存储广播关系 <relationClassName>
。 关系大小 = <relationSize>
. StorageLevel = <storageLevel>
。 [sparkPlanId: <sparkPlanId>
] 使用“set spark.sql.autoBroadcastJoinThreshold=-1”禁用此查询的广播,或使用连接提示强制进行随机联接。
EXEC_IMMEDIATE_DUPLICATE_ARGUMENT_ALIASES
此 USING
命令的 EXECUTE IMMEDIATE
子句包含多个具有相同别名(<aliases>
)的参数,该参数无效;请更新命令以指定唯一别名,然后重试。
EXPECT_PERMANENT_TABLE_NOT_TEMP
“<operation>
”需要永久表,但 <tableName>
是临时表。 请改为指定永久表。
EXPECT_PERMANENT_VIEW_NOT_TEMP
“<operation>
”需要永久视图,但 <viewName>
是临时视图。
EXPECT_TABLE_NOT_VIEW
“<operation>
”需要一个表,而<viewName>
是视图。
有关更多详细信息,请参阅 EXPECT_TABLE_NOT_VIEW
EXPECT_VIEW_NOT_TABLE
表 <tableName>
不支持 <operation>
。
有关更多详细信息,请参阅 EXPECT_VIEW_NOT_TABLE
表达式解码失败
无法将行解码为表达式的值:<expressions>
。
表达式编码失败 (EXPRESSION_ENCODING_FAILED)
无法将表达式的值 <expressions>
解码为行。
表达式类型不可排序
无法对列表达式 <expr>
进行排序,因为其类型 <exprType>
不可排序。
EXTERNAL_SHALLOW_CLONE_STILL_EXISTS
无法在源表<sourceTable>
上运行操作,因为浅表克隆<targetTable>
仍然存在,其状态无效。 如果确实要继续此操作,请通过显式运行 DROP
命令清理浅克隆。
EXTERNAL_TABLE_INVALID_SCHEME
外部表不支持 <scheme>
方案。
FABRIC_REFRESH_INVALID_SCOPE
运行 'REFRESH FOREIGN <scope> <name>
' 时出错。 无法直接刷新 Fabric <scope>
,请使用 'REFRESH FOREIGN CATALOG <catalogName>
' 改为刷新 Fabric 目录。
FAILED_EXECUTE_UDF
用户自定义函数 (<functionName>
: (<signature>
) =>
<result>
) 由于 <reason>
而失败。
函数调用失败
为调用准备函数 <funcName>
失败。 请仔细检查函数的参数。
FAILED_JDBC
在操作中,JDBC <url>
失败。
有关详细信息,请参阅 FAILED_JDBC
FAILED_PARSE_STRUCT_TYPE
分析结构失败:<raw>
。
文件读取失败
读取文件 <path>
时出错。
有关更多详细信息,请参阅 FAILED_READ_FILE
FAILED_REGISTER_CLASS_WITH_KRYO
未能向 Kryo 注册课程。
FAILED_RENAME_PATH
未能将 <sourcePath>
重命名为 <targetPath>
,因为目标已存在。
FAILED_RENAME_TEMP_FILE
无法将临时文件重命名 <srcPath>
为 <dstPath>
,因为 FileSystem.rename 返回 false。
FAILED_ROW_TO_JSON
无法将类的行值 <value>
<class>
转换为 JSON 格式的目标 SQL 类型 <sqlType>
。
FAILED_TO_LOAD_ROUTINE
无法加载例程 <routineName>
。
FAILED_TO_PARSE_TOO_COMPLEX
该语句(包括潜在的 SQL 函数和引用的视图)太复杂,无法分析。
若要缓解此错误,可将语句划分为多个不太复杂的区块。
FEATURE_NOT_ENABLED
未启用该功能 <featureName>
。 请考虑将配置 <configKey>
设置为 <configValue>
以启用此功能。
FEATURE_NOT_ON_CLASSIC_WAREHOUSE
经典 SQL 仓库不支持 <feature>
。 若要使用此功能,请使用 Pro 或无服务器 SQL 仓库。
FEATURE_REQUIRES_UC
如果不使用 Unity Catalog,则不支持 <feature>
。 若要使用此功能,请启用 Unity 目录。
FEATURE_UNAVAILABLE
<feature>
在你的环境中不受支持。 若要使用此功能,请联系 Databricks 支持部门。
FIELD_ALREADY_EXISTS
无法生成 <op>
列,因为 <fieldNames>
中已存在 <struct>
。
FIELD_NOT_FOUND
<fieldName>
中没有此类结构字段 <fields>
。
FILE_IN_STAGING_PATH_ALREADY_EXISTS
暂存路径中的文件 <path>
已存在,但未设置 OVERWRITE
FLATMAPGROUPSWITHSTATE_USER_FUNCTION_ERROR
在 flatMapGroupsWithState 中用户提供的函数中出错。 原因:<reason>
FORBIDDEN_DATASOURCE_IN_SERVERLESS
不允许在无服务器计算中查询数据源 <source>
。 无服务器计算仅支持 <allowlist>
数据源。
FORBIDDEN_OPERATION
不允许对 <statement>
:<objectType>
执行操作 <objectName>
。
FOREACH_BATCH_USER_FUNCTION_ERROR
用户在 foreach 批处理接收器中提供的函数中发生错误。 原因:<reason>
FOREACH_USER_FUNCTION_ERROR
foreach 汇聚器中用户提供的函数发生错误。 原因:<reason>
FOREIGN_KEY_MISMATCH
外键父列 <parentColumns>
与主键子列 <childColumns>
不匹配。
外部对象名称不能为空
无法执行此命令,因为外 <objectType>
名称必须为非空。
外部表转换不支持
表不符合从 UC Foreign 升级到 UC External 的条件。 原因:
有关更多详细信息,请参阅 FOREIGN_TABLE_CONVERSION_UNSUPPORTED
FOUND_MULTIPLE_DATA_SOURCES
检测到名称为“<provider>
”的多个数据源。 请检查数据源未同时注册并位于 classpath 中。
FROM_JSON_CONFLICTING_SCHEMA_UPDATES
from_json 推理在以下位置遇到冲突的架构更新:<location>
FROM_JSON_CORRUPT_RECORD_COLUMN_IN_SCHEMA
from_json found columnNameOfCorruptRecord (<columnNameOfCorruptRecord>
)
在 JSON 对象中,无法再继续。 请为 columnNameOfCorruptRecord
选项“columnNameOfCorruptRecord”。
FROM_JSON_CORRUPT_SCHEMA
from_json推理无法读取存储在以下位置的架构:<location>
FROM_JSON_INFERENCE_FAILED
from_json无法推断架构。 请改为提供一个架构。
FROM_JSON_INFERENCE_NOT_SUPPORTED
只有在定义流式表时才支持from_json推理。
FROM_JSON_INVALID_CONFIGURATION
from_json配置无效:
有关更多详细信息,请参阅 FROM_JSON_INVALID_CONFIGURATION
FROM_JSON_SCHEMA_EVOLUTION_FAILED
from_json无法从 <old>
发展到 <new>
函数参数必须命名
函数 <function>
需要命名参数。 参数缺少名称 <exprs>
。 请更新函数调用以添加所有参数的名称, <function>
例如(param_name => ...)。
GENERATED_COLUMN_WITH_DEFAULT_VALUE
列不能同时具有默认值和生成表达式,但列 <colName>
具有默认值:(<defaultValue>
)和生成表达式:(<genExpr>
)。
GET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION
Hive 2.2 和更低版本不支持 getTablesByType。 请使用 Hive 2.3 或更高版本。
GET_WARMUP_TRACING_FAILED
未能获取预热跟踪。 原因:<cause>
。
GET_WARMUP_TRACING_FUNCTION_NOT_ALLOWED
不允许使用函数 get_warmup_tracing()。
GRAPHITE_SINK_INVALID_PROTOCOL
无效的 Graphite 协议:<protocol>
。
GRAPHITE_SINK_PROPERTY_MISSING
Graphite 接收器需要“<property>
”属性。
GROUPING_COLUMN_MISMATCH
在分组列 <groupingColumns>
中找不到分组 (<grouping>
) 的列。
GROUPING_ID_COLUMN_MISMATCH
grouping_id (<groupingIdColumn>
) 的列与分组列 (<groupByColumns>
) 不匹配。
分组大小超过限制
分组集大小不能大于 <maxSize>
。
GROUP_BY_AGGREGATE
不允许在 GROUP BY
中使用聚合函数,但发现了 <sqlExpr>
。
有关更多详细信息,请参阅 GROUP_BY_AGGREGATE
GROUP_BY_POS_AGGREGATE
GROUP BY <index>
引用包含聚合函数的表达式 <aggExpr>
。 不允许在 GROUP BY
中使用聚合函数。
GROUP_BY_POS_OUT_OF_RANGE
GROUP BY
位置 <index>
不在选择列表中(有效范围为 [1, <size>
])。
分组表达式类型不可排序
表达式 <sqlExpr>
不能用作分组表达式,因为它的数据类型 <dataType>
不是可排序的数据类型。
HDFS_HTTP_ERROR
尝试从 HDFS 读取时,HTTP 请求失败。
有关详细信息,请参阅 HDFS_HTTP_ERROR
HINT_UNSUPPORTED_FOR_JDBC_DIALECT
JDBC 数据源中的选项 hint
不支持 <jdbcDialect>
。 支持的方言是 MySQLDialect
, OracleDialect
以及 DatabricksDialect
。
HIVE_METASTORE_INVALID_PLACEHOLDER_PATH
查询或命令无法执行,因为“spark.databricks.hive.metastore.tablePlaceholderPath”配置提供了无效的 Hive 元存储表占位符路径。 请使用新值更新此配置,以提供有效的路径,然后再次运行查询或命令。
HIVE_METASTORE_TABLE_PLACEHOLDER_PATH_NOT_SET
查询或命令失败,因为未设置 Hive 元存储表占位符路径,当架构位置位于 DBFS 上时,该路径是必需的,而表位置是对象/文件。 请将 spark.databricks.hive.metastore.tablePlaceholderPath 设置为有权访问的路径,然后重新运行查询或命令。
HLL_INVALID_INPUT_SKETCH_BUFFER
对 <function>
的调用无效;仅支持有效的 HLL 草图缓冲区作为输入(例如由 hll_sketch_agg
函数生成的缓冲区)。
HLL_INVALID_LG_K
对 <function>
的调用无效;lgConfigK
值必须在 <min>
和 <max>
之间,包括:<value>
。
HLL_UNION_DIFFERENT_LG_K
草图具有不同的 lgConfigK
值:<left>
和 <right>
。 将 allowDifferentLgConfigK
参数设置为 true 以使用不同的 <function>
值调用 lgConfigK
。
HMS_FEDERATION_SHALLOW_CLONE_NOT_FOUND_IN_UC
浅克隆路径 '<path>
' 无法解析为 Unity Catalog 中的表。 请确保该表存在并且已集成到 Unity Catalog。
混合分析器异常
尝试使用旧固定点分析器和单传递解析程序解析查询或命令时发生失败。
有关更多详细信息,请参阅 HYBRID_ANALYZER_EXCEPTION
IDENTIFIER_TOO_MANY_NAME_PARTS
<identifier>
不是有效的标识符,因为它具有 2 个以上的名称部分。
IDENTITY_COLUMNS_DUPLICATED_SEQUENCE_GENERATOR_OPTION
重复 IDENTITY
列序列生成器选项:<sequenceGeneratorOption>
。
IDENTITY_COLUMNS_ILLEGAL_STEP
IDENTITY
列步骤不能为 0。
IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE
<dataType>
列不支持 DataType IDENTITY
。
ILLEGAL_DAY_OF_WEEK
非法输入的星期几:<string>
。
ILLEGAL_STATE_STORE_VALUE
提供给状态存储的非法值
有关更多详细信息,请参阅 ILLEGAL_STATE_STORE_VALUE
INAPPROPRIATE_URI_SCHEME_OF_CONNECTION_OPTION
由于为连接选项 '<option>
' 提供的 URI <uri>
方案不合适,无法创建连接。
允许的方案:<allowedSchemes>
。
如果方案不存在于 URI 中,请添加方案,或从允许的值指定方案。
INCOMPARABLE_PIVOT_COLUMN
无效透视列 <columnName>
。 透视列必须可比较。
INCOMPATIBLE_COLUMN_TYPE
只能对具有兼容列类型的表执行 <operator>
。 <columnOrdinalNumber>
表的 <tableOrdinalNumber>
列是 <dataType1>
类型,该类型与第一个表同一列中的 <dataType2>
类型不兼容。<hint>
。
INCOMPATIBLE_DATASOURCE_REGISTER
检测到不兼容的 DataSourceRegister。 请从 classpath 中删除不兼容的库或对其进行升级。 错误:<message>
INCOMPATIBLE_DATA_FOR_TABLE
无法为表写入不兼容的数据 <tableName>
:
有关更多详细信息,请参阅 INCOMPATIBLE_DATA_FOR_TABLE
INCOMPATIBLE_JOIN_TYPES
<joinType1>
和 <joinType2>
的联接类型不兼容。
INCOMPATIBLE_VIEW_SCHEMA_CHANGE
视图 <viewName>
的 SQL 查询具有不兼容的架构更改,无法解析列 <colName>
。 需要名为 <expectedNum>
的 <colName>
列,但收到的列为 <actualCols>
。
请尝试通过运行:<suggestion>
重新创建视图。
不完整类型定义
不完整的复杂类型:
有关更多详细信息,请参阅 INCOMPLETE_TYPE_DEFINITION
INCONSISTENT_BEHAVIOR_CROSS_VERSION
您可能会得到不同的结果,这是由于升级至新的版本。
有关更多详细信息,请参阅 INCONSISTENT_BEHAVIOR_CROSS_VERSION
INCORRECT_NUMBER_OF_ARGUMENTS
<failure>
,<functionName>
至少需要 <minArgs>
参数和大多数 <maxArgs>
参数。
INCORRECT_RAMP_UP_RATE
<rowsPerSecond>
rowsPerSecond 的最大偏移量为 <maxSeconds>
,但“rampUpTimeSeconds”为 <rampUpTimeSeconds>
。
INDETERMINATE_COLLATION
无法确定要用于字符串操作的排序规则。 使用 COLLATE
子句显式设置排序规则。
INDETERMINATE_COLLATION_IN_EXPRESSION
<expr>
的数据类型具有不确定的排序规则。 使用 COLLATE
子句显式设置排序规则。
INDETERMINATE_COLLATION_IN_SCHEMA
架构包含不确定的排序规则:[<columnPaths>
]。 使用 COLLATE
子句显式设置排序规则。
INDEX_ALREADY_EXISTS
无法对表 <indexName>
创建索引 <tableName>
,因为它已存在。
索引未找到
找不到表 <indexName>
上的索引 <tableName>
。
INFINITE_STREAMING_TRIGGER_NOT_SUPPORTED
此群集类型不支持触发器类型 <trigger>
。
使用不同的触发器类型,例如 AvailableNow、Once。
INSERT_COLUMN_ARITY_MISMATCH
无法写入到 <tableName>
,原因是
有关更多详细信息,请参阅 INSERT_COLUMN_ARITY_MISMATCH
INSERT_PARTITION_COLUMN_ARITY_MISMATCH
无法中写入“<tableName>
”,<reason>
:
表列:<tableColumns>
。
使用静态值的分区列:<staticPartCols>
。
数据列:<dataColumns>
。
INSERT_REPLACE_USING_INVALID_SET_OF_COLUMNS
表必须分区,所有指定的列都必须表示表的分区列的完整集。
以下列不是分区列:<nonPartitionColumns>
以下分区列缺失:<missingPartitionsColumns>
INSERT_REPLACE_USING_NOT_ENABLED
请联系 Databricks 代表启用 INSERT INTO
... REPLACE USING
(...) 功能。
INSUFFICIENT_PERMISSIONS
权限不足:
<report>
INSUFFICIENT_PERMISSIONS_EXT_LOC
用户 <user>
对外部位置 <location>
没有足够的权限。
INSUFFICIENT_PERMISSIONS_NO_OWNER
<securableName>
没有所有者。 要求管理员设置所有者。
INSUFFICIENT_PERMISSIONS_OWNERSHIP_SECURABLE
用户不拥有 <securableName>
。
INSUFFICIENT_PERMISSIONS_SECURABLE
用户对 <action>
没有 <securableName>
权限。
INSUFFICIENT_PERMISSIONS_SECURABLE_PARENT_OWNER
<securableName>
的所有者不同于 <parentSecurableName>
的所有者。
INSUFFICIENT_PERMISSIONS_SPARK_CONNECT_CLIENT_SET_CLOUDFETCH_RETENTION_TIMEOUT
客户端无权为 CloudFetch 结果设置自定义保留超时。
INSUFFICIENT_PERMISSIONS_STORAGE_CRED
存储凭据 <credentialName>
权限不足。
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES
由于对基础安全对象的权限,用户无法对 <action>
执行 <securableName>
。
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES_VERBOSE
由于对基础安全对象的权限,用户无法对 <action>
执行 <securableName>
:
<underlyingReport>
INTERVAL_ARITHMETIC_OVERFLOW
使用间隔操作时的整数溢出。
有关更多详细信息,请参阅 INTERVAL_ARITHMETIC_OVERFLOW
INTERVAL_DIVIDED_BY_ZERO
被零除。 使用 try_divide
容许除数为 0,并返回 NULL
。
无效的聚合过滤器
聚合函数中的 FILTER
表达式 <filterExpr>
无效。
有关更多详细信息,请参阅 INVALID_AGGREGATE_FILTER
INVALID_AGNOSTIC_ENCODER
找到无效的不可知编码器。 期望 AgnosticEncoder 实例,但得到 <encoderType>
。 有关详细信息,请参阅“<docroot>
/api/java/index.html?org/apache/spark/sql/Encoder.html”。
INVALID_ALGORITHM_VALUE
无效或不受支持的边缘内插算法值 <alg>
。
无效的数组索引
索引 <indexValue>
超出界限。 数组具有 <arraySize>
元素。 使用 SQL 函数 get()
容许访问无效索引上的元素,并改为返回 NULL
。
有关更多详细信息,请参阅 INVALID_ARRAY_INDEX
INVALID_ARRAY_INDEX_IN_ELEMENT_AT
索引 <indexValue>
超出界限。 数组具有 <arraySize>
元素。 使用 try_element_at
来容忍在无效索引处访问元素,并返回 NULL
作为替代值。
有关更多详细信息,请参阅 INVALID_ARRAY_INDEX_IN_ELEMENT_AT
INVALID_ATTRIBUTE_NAME_SYNTAX
属性名称中的语法错误:<name>
。 检查反引号是否成对显示,带引号的字符串是一个完整的名称部分,并且仅在带引号的名称部分内使用反引号。
无效的AWS认证
请选择以下身份验证方法之一:
提供 Databricks 服务凭据(
<serviceCredential>
)的名称(作为 spark 流选项或群集环境变量)。提供 AWS AccessKey(
<awsAccessKey>
)和 SecretAccessKey(<awsSecretKey>
)以使用 AWS 密钥。请勿提供 AWS 密钥或 Databricks 服务凭据,以使用用于 Kinesis 身份验证的默认 AWS 凭据提供程序链。
AWS身份验证显式选项无效
请提供您的 Databricks 服务凭据的名称或编号(<serviceCredential>
)
或 <awsAccessKey>
和 <awsSecretKey>
INVALID_BITMAP_POSITION
索引为 0 的位图位置 <bitPosition>
超出边界。 位图具有 <bitmapNumBits>
位(<bitmapNumBytes>
字节)。
INVALID_BOOLEAN_STATEMENT
条件中预期会出现布尔语句,但已找到 <invalidStatement>
。
无效边界
边界 <boundary>
无效:<invalidValue>
。
有关更多详细信息,请参阅 INVALID_BOUNDARY
INVALID_BUCKET_COLUMN_DATA_TYPE
不能对存储桶列使用 <type>
。 存储桶不支持排序规则数据类型。
INVALID_BUCKET_FILE
无效的桶文件:<path>
。
INVALID_BYTE_STRING
预期格式为 ByteString,但为 <unsupported> (<class>
。
INVALID_COLUMN_NAME_AS_PATH
数据源 <datasource>
无法保存列 <columnName>
,因为它的名称包含文件路径中不允许的某些字符。 请使用别名对其进行重命名。
INVALID_COLUMN_OR_FIELD_DATA_TYPE
列或字段 <name>
的类型是 <type>
,但必须是 <expectedType>
。
INVALID_CONF_VALUE
配置“<confValue>
”中的值“<confName>
”无效。
有关更多详细信息,请参阅 INVALID_CONF_VALUE
无效或损坏的记录类型
损坏记录的列 <columnName>
必须具有可为 null 的 STRING
类型,但收到了 <actualType>
。
INVALID_CRS_VALUE
无效或不受支持的 CRS(坐标引用系统)值 <crs>
。
INVALID_CURRENT_RECIPIENT_USAGE
current_recipient
函数只能在 CREATE VIEW
语句或 ALTER VIEW
语句中使用,以在 Unity 目录中仅定义共享视图。
INVALID_CURSOR
游标无效。
有关更多详细信息,请参阅 INVALID_CURSOR
INVALID_DATETIME_PATTERN
无法识别的日期/时间模式:<pattern>
。
有关更多详细信息,请参阅 INVALID_DATETIME_PATTERN
无效的默认值
无法执行 <statement>
命令,因为目标列或变量 <colName>
具有 DEFAULT
值 <defaultValue>
,
有关更多详细信息,请参阅 INVALID_DEFAULT_VALUE
无效的分隔符值
分隔符的值无效。
有关更多详细信息,请参阅 INVALID_DELIMITER_VALUE
INVALID_DEST_CATALOG
SYNC
命令的目标目录必须位于 Unity 目录中。 已找到 <catalog>
。
无效的驱动程序内存 (INVALID_DRIVER_MEMORY)
系统内存 <systemMemory>
必须至少 <minSystemMemory>
。
请通过在 Spark 配置中使用 --driver-memory 选项 或 "<config>
" 来增加内存堆的大小。
无效的动态选项
为外部表 <table_name>
传递的选项 <option_list>
是禁止的。
INVALID_EMPTY_LOCATION
位置名称不能为空字符串,但已指定 <location>
。
无效错误条件声明
条件声明无效。
有关更多详细信息,请参阅 INVALID_ERROR_CONDITION_DECLARATION
INVALID_ESC
找到了无效的转义字符串:<invalidEscape>
。 转义字符串必须仅包含一个字符。
INVALID_ESCAPE_CHAR
EscapeChar
应该是长度为 1 的字符串字面量,但结果却是 <sqlExpr>
。
无效的执行器内存
执行程序内存 <executorMemory>
必须至少 <minSystemMemory>
。
请使用 Spark 配置中的 --executor-memory 选项或“”<config>
增加执行程序内存。
表达式编码器无效
找到无效的表达式编码器。 需要 ExpressionEncoder 的实例,但获得 <encoderType>
。 有关详细信息,请参阅“<docroot>
/api/java/index.html?org/apache/spark/sql/Encoder.html”。
INVALID_EXTERNAL_TYPE
外部类型 <externalType>
对表达式 <type>
处的类型 <expr>
无效。
INVALID_EXTRACT_BASE_FIELD_TYPE
无法从 <base>
中提取值。 需要复杂类型[STRUCT
,ARRAY
,MAP
],但得到了 <other>
。
INVALID_EXTRACT_FIELD
无法从 <field>
中提取 <expr>
。
INVALID_EXTRACT_FIELD_TYPE
字段名称应是非 null 字符串文本,但它是 <extraction>
。
INVALID_FIELD_NAME
字段名称 <fieldName>
无效:<path>
不是结构。
格式无效
格式无效:<format>
。
有关更多详细信息,请参阅 INVALID_FORMAT
INVALID_FRACTION_OF_SECOND
秒的有效范围为 [0, 60](含),但提供的值为 <secAndMicros>
。 若要避免此错误,请使用 try_make_timestamp
,如果出错,它将返回 NULL
。
如果不想使用此函数的会话默认时间戳版本,请使用 try_make_timestamp_ntz
或 try_make_timestamp_ltz
。
INVALID_GET_DIAGNOSTICS_USAGE
语句的 GETDIAGNOSTICS
用法无效。
有关更多详细信息,请参阅 INVALID_GET_DIAGNOSTICS_USAGE
INVALID_GET_DIAGNOSTICS_USAGE_CONDITION_NUMBER_MUST_BE_ONE
语句的 GETDIAGNOSTICS
用法无效。 语句中 GETDIAGNOSTICS
条件编号的唯一支持值为 1。
INVALID_HANDLE
句柄 <handle>
无效。
有关更多详细信息,请参阅 INVALID_HANDLE
INVALID_HANDLER_DECLARATION
处理程序声明无效。
有关更多详细信息,请参阅 INVALID_HANDLER_DECLARATION
无效的HTTP请求方法
输入参数:方法、值:<paramValue>
不是http_request的有效参数,因为它不是有效的 HTTP 方法。
无效的HTTP请求路径
输入参数:路径、值:<paramValue>
不是http_request的有效参数,因为不允许路径遍历。
INVALID_IDENTIFIER
未加引号的标识符 <ident>
是无效的,必须加反引号为:<ident>
。
未加引号的标识符只能包含 ASCII
字母 ('a' - 'z', 'A' - 'Z')、数字 ('0' - '9') 和下划线 ('_')。
未引号的标识符也不得以数字开头。
不同的数据源和元存储可能会对有效标识符施加额外的限制。
INVALID_INDEX_OF_ZERO
索引 0 无效。 索引应为< 0
或> 0
(第一个元素的索引为1)。
INVALID_INLINE_TABLE
内联表无效。
有关更多详细信息,请参阅 INVALID_INLINE_TABLE
无效的时间间隔格式
将“<input>
”分析为间隔时出错。 请确保提供的值采用有效的格式来定义间隔。 可以参考文档以获取正确的格式。
有关更多详细信息,请参阅 INVALID_INTERVAL_FORMAT
INVALID_INTERVAL_WITH_MICROSECONDS_ADDITION
无法将间隔添加到日期,因为它的微秒部分不是 0。 若要解决此问题,请将输入日期转换为时间戳,以支持添加包含非零微秒的间隔。
无效的 Java 标识符作为字段名称
<fieldName>
不是 Java 的有效标识符,不能用作字段名称
<walkedTypePath>
。
无效的_JDBC_连接选项 (INVALID_JDBC_CONNECTION_OPTION)
此选项 <optionKey>
不是此 jdbc 连接的有效参数。
无效的 JDBC 连接选项值
具有值<optionKey>
的选项<optionValue>
不是此 jdbc 连接的有效选项。
INVALID_JOIN_TYPE_FOR_JOINWITH
joinWith 中的联接类型无效:<joinType>
。
INVALID_JSON_DATA_TYPE (JSON 数据类型无效)
无法将 JSON 字符串“<invalidType>
”转换为数据类型。 请输入有效的数据类型。
INVALID_JSON_DATA_TYPE_FOR_COLLATIONS
排序规则只能应用于字符串类型,而 JSON 数据类型为 <jsonType>
。
无效的 JSON 记录类型
在 <failFastMode>
模式下推断通用架构时检测到 JSON 记录的类型无效。 需要 STRUCT
类型,但找到了 <invalidType>
。
无效的JSON根字段
无法将 JSON 根字段转换为目标 Spark 类型。
INVALID_JSON_SCHEMA_MAP_TYPE
输入架构 <jsonSchema>
只能包含 STRING
作为 MAP
的键类型。
INVALID_KRYO_SERIALIZER_BUFFER_SIZE
配置“<bufferSizeConfKey>
”的值必须小于 2048 MiB,但却为 <bufferSizeConfValue>
MiB。
INVALID_LABEL_USAGE
标签 <labelName>
的使用无效。
有关更多详细信息,请参阅 INVALID_LABEL_USAGE
无效的Lambda函数调用
lambda 函数调用无效。
有关更多详细信息,请参阅 INVALID_LAMBDA_FUNCTION_CALL
INVALID_LATERAL_JOIN_TYPE
不允许使用具有 <joinType>
关联的 JOINLATERAL
,因为 OUTER
子查询无法与其连接伙伴相关联。 请删除 LATERAL
关联或使用 INNER
JOIN,或改用 LEFT OUTER
JOIN。
INVALID_LIMIT_LIKE_EXPRESSION
表达式 <expr>
等限制无效。
有关更多详细信息,请参阅 INVALID_LIMIT_LIKE_EXPRESSION
日志版本无效
UnsupportedLogVersion。
有关详细信息,请参阅 INVALID_LOG_VERSION
INVALID_NON_ABSOLUTE_PATH
提供的非绝对路径 <path>
不能限定。 请将路径更新为有效的 dbfs 装载位置。
无效的非确定性表达式
运算符需要确定性表达式,但实际表达式是 <sqlExprs>
。
INVALID_NUMERIC_LITERAL_RANGE
数值文本 <rawStrippedQualifier>
超出了 <typeName>
的有效范围,其最小值为 <minValue>
,最大值为 <maxValue>
。 请相应地调整值。
无效观察指标
观察到的指标无效。
有关更多详细信息,请参阅 INVALID_OBSERVED_METRICS
无效选项
无效选项:
有关更多详细信息,请参阅 INVALID_OPTIONS
INVALID_PANDAS_UDF_PLACEMENT
组聚合 pandas UDF <functionList>
不能与其他非 pandas 聚合函数一起调用。
无效参数标记值
提供了无效的参数映射:
有关更多详细信息,请参阅 INVALID_PARAMETER_MARKER_VALUE
参数值无效
<parameter>
中的参数值 <functionName>
无效:
有关更多详细信息,请参阅 INVALID_PARAMETER_VALUE
INVALID_PARTITION_COLUMN_DATA_TYPE
不能对分区列使用 <type>
。
INVALID_PARTITION_OPERATION
分区命令无效。
有关更多详细信息,请参阅 INVALID_PARTITION_OPERATION
INVALID_PARTITION_VALUE
未能将 <value>
的值转换为用于分区列 <dataType>
的数据类型 <columnName>
。 确保该值与此分区列的预期数据类型匹配。
INVALID_PIPELINE_ID
管道 ID <pipelineId>
无效。
管道 ID 应该是格式为“xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx”的 UUID
INVALID_PRIVILEGE
权限 <privilege>
对 <securable>
无效。
无效的属性键
<key>
属性键无效,请使用引号,例如 SET <key>=<value>
。
属性值无效
<value>
属性值无效,请使用引号,例如 SET <key>=<value>
INVALID_QUALIFIED_COLUMN_NAME
列名 <columnName>
无效,因为它未使用表名限定,或者包含 4 个以上的名称部分。
INVALID_QUERY_MIXED_QUERY_PARAMETERS
参数化查询必须使用位置参数或命名参数,但不能同时使用这两个参数。
INVALID_RECURSIVE_CTE
找到的递归定义无效。 递归查询必须包含一个 UNION
或一个包含 2 个子项的 UNION ALL
语句。 第一个子项需要是没有任何递归引用的锚定项。
无效递归引用
在 WITH RECURSIVE
子句中找到无效的递归引用。
有关更多详细信息,请参阅 INVALID_RECURSIVE_REFERENCE
INVALID_REGEXP_REPLACE
无法对源 = "<source>
"、模式 = "<pattern>
"、替换 = "<replacement>
" 和位置 = <position>
执行 regexp_replace。
INVALID_RESET_COMMAND_FORMAT
期望格式为 'RESET
' 或 'RESET
key'。 如果要在密钥中包含特殊字符,请使用引号,例如 RESET key
。
INVALID_RESIGNAL_USAGE
RESIGNAL
当处理程序未处于活动状态时。 RESIGNAL
语句只能在异常处理程序正文中使用。
INVALID_S3_COPY_CREDENTIALS
COPY INTO
凭据必须包括 AWS_ACCESS_KEY
、 AWS_SECRET_KEY
和 AWS_SESSION_TOKEN
。
INVALID_SAVE_MODE
指定的保存模式 <mode>
无效。 有效的保存模式包括“append”、“overwrite”、“ignore”、“error”、“errorifexists”和“default”。
INVALID_SCHEMA
输入架构 <inputSchema>
不是有效的架构字符串。
有关更多详细信息,请参阅 INVALID_SCHEMA
无效的架构或关系名称
<name>
不是表/架构的有效名称。 有效名称仅包含字母字符、数字和 _。
INVALID_SCHEME
Unity 目录不支持将 <name>
作为默认文件方案。
无效的密钥查询
机密查找无效:
有关更多详细信息,请参阅 INVALID_SECRET_LOOKUP
INVALID_SET_SYNTAX
期望格式为 'SET
'、'SET
key' 或 'SET
key=value'。 如果要在键中包含特殊字符,或在值中包含分号,请使用后引号,例如 SET key
=value
。
INVALID_SHARED_ALIAS_NAME
<sharedObjectType>
别名必须采用“schema.name”格式。
INVALID_SINGLE_VARIANT_COLUMN
在启用<schema>
选项时,用户指定的架构singleVariantColumn
无效。 架构必须要么是变体字段,要么是变体字段加上损坏列字段。
INVALID_SOURCE_CATALOG
源目录不得位于 SYNC
命令的 Unity 目录中。 已找到 <catalog>
。
INVALID_SOURCE_FOR_FILTERING_SERVICE_MERGE_COMMAND
筛选服务 MERGE
操作的源只能包含映射和筛选器。
请调整 MERGE
命令或改用暂存表作为源。
<stmt>
无效的SPARK配置
Spark 配置无效:
有关详细信息请参阅INVALID_SPARK_CONFIG
INVALID_SQLSTATE(无效的SQL状态)
无效 SQLSTATE
值:“<sqlState>
”。 SQLSTATE
长度必须为 5 个字符,且仅包含 A-Z 和 0-9。 SQLSTATE
不得以“00”、“01”或“XX”开头。
INVALID_SQL_ARG
<name>
的参数 sql()
无效。 请考虑将其替换为 SQL 文本或集合构造函数,例如 map()
、array()
、struct()
。
SQL语法错误
无效的 SQL 语法:
有关更多详细信息,请参阅 INVALID_SQL_SYNTAX
INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY
暂存 <operation>
查询中的暂存路径无效:<path>
INVALID_STATEMENT_FOR_EXECUTE_INTO
INTO
的 EXECUTE IMMEDIATE
子句仅适用于查询,但给定的语句不是查询:<sqlString>
。
INVALID_STATEMENT_OR_CLAUSE
语句或子句:<operation>
无效。
INVALID_STREAMING_REAL_TIME_MODE_TRIGGER_INTERVAL
实时触发器间隔设置为 <interval>
ms。 这小于 <minBatchDuration>
spark.databricks.streaming.realTimeMode.minBatchDuration 指定的毫秒最小值。
INVALID_STREAMING_REAL_TIME_MODE_TRIGGER_OVERRIDE_INTERVAL
无法解析实时触发器的检查点间隔 <interval>
。 请确认你已传递一个正整数。
无效的子查询表达式
无效的子查询:
有关更多详细信息,请参阅 INVALID_SUBQUERY_EXPRESSION
INVALID_TARGET_FOR_ALTER_COMMAND
ALTER <commandTableType>
... <command>
不支持 <tableName>
。 请改用ALTER <targetTableType>
... <command>
INVALID_TARGET_FOR_SET_TBLPROPERTIES_COMMAND
ALTER <commandTableType>
... SET TBLPROPERTIES
不支持 <tableName>
。 请改用ALTER <targetTableType>
... SET TBLPROPERTIES
INVALID_TEMP_OBJ_REFERENCE
无法创建类型 <objName>
的永久性对象 <obj>
,因为它引用了类型 <tempObjName>
的临时对象 <tempObj>
。 请将临时对象 <tempObjName>
持久化,或将持久对象 <objName>
设为临时对象。
时间戳格式无效
提供的时间戳 <timestamp>
与预期的语法 <format>
不匹配。
INVALID_TIMEZONE
时区:<timeZone>
无效。 时区必须是基于区域的区域 ID 或区域偏移量。 区域 ID 必须具有“区域/城市”的格式,如“America/Los_Angeles”。 时区偏移必须采用“(+|-)HH”、“(+|-)HH:mm”或“(+|-)HH:mm:ss”格式,例如“-08”、“+01:00”或“-13:33:33”,且必须在 -18:00 到 +18:00 范围内。 'Z' 和 'UTC' 被接受为 '+00:00' 的同义词。
INVALID_TIME_TRAVEL_SPEC
在按时间顺序查看表时,无法同时指定版本和时间戳。
INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
时间旅行时间戳表达式 <expr>
无效。
有关更多详细信息,请参阅 INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
INVALID_TYPED_LITERAL
类型化文本 <valueType>
的值无效:<value>
。
INVALID_UDF_IMPLEMENTATION
函数 <funcName>
不实现 ScalarFunction 或 AggregateFunction。
INVALID_UPGRADE_SYNTAX
<command> <supportedOrNot>
源表位于 Hive 元存储中,目标表位于 Unity 目录中。
无效的URL
url 无效:<url>
。 使用 try_parse_url
来容忍无效的 URL 并改为返回 NULL
。
INVALID_USAGE_OF_STAR_OR_REGEX
<elem>
中 <prettyName>
的使用情况无效。
INVALID_UTF8_STRING
在字符串中找到的 UTF8 字节序列无效:<str>
。
无效的UUID
输入 <uuidInput>
不是有效的 UUID。
UUID 应采用“xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx”格式
请检查 UUID 的格式。
无效变量声明
变量声明无效。
有关更多详细信息,请参阅 INVALID_VARIABLE_DECLARATION
INVALID_VARIABLE_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE
变量类型必须是字符串类型,但接收到的是 <varType>
。
INVALID_VARIANT_CAST
变量值 <value>
不能被转换为 <dataType>
。 请改用 try_variant_get
。
INVALID_VARIANT_FROM_PARQUET
无效的变量。
有关更多详细信息,请参阅 INVALID_VARIANT_FROM_PARQUET
INVALID_VARIANT_GET_PATH
路径 <path>
不是 <functionName>
中有效的变体提取路径。
有效路径应以 $
开头,后跟零个或多个段,如 [123]
、.name
、['name']
或 ["name"]
。
INVALID_VARIANT_SHREDDING_SCHEMA
架构 <schema>
不是有效的变体切碎架构。
INVALID_WHERE_CONDITION
WHERE
条件 <condition>
包含无效表达式:<expressionList>
。
重写查询以避免 WHERE
子句中的窗口函数、聚合函数和生成器函数。
INVALID_WINDOW_SPEC_FOR_AGGREGATION_FUNC
无法为 ORDER BY
指定 <aggFunc>
或窗口框架。
组内表达式无效
使用 <funcName>
时,函数 WITHIN GROUP
无效。
有关更多详细信息,请参阅 INVALID_WITHIN_GROUP_EXPRESSION
INVALID_WRITER_COMMIT_MESSAGE
数据源写入器生成了不合理数量的提交消息。 每个任务中应仅有一条写入器提交消息,但收到了 <detail>
。
INVALID_WRITE_DISTRIBUTION
请求的写入分配无效。
有关更多详细信息,请参阅 INVALID_WRITE_DISTRIBUTION
ISOLATED_COMMAND_FAILURE
未能执行 <command>
。 命令输出:
<output>
ISOLATED_COMMAND_UNKNOWN_FAILURE
未能执行 <command>
。
JOIN_CONDITION_IS_NOT_BOOLEAN_TYPE
联接条件 <joinCondition>
的 <conditionType>
类型无效,应为“BOOLEAN
”。
KAFKA_DATA_LOSS
某些数据可能已丢失,因为它们在 Kafka 中不再可用;
数据已被 Kafka 设为过期,或者主题可能在其中的所有数据处理完毕之前
已被删除。
如果不希望流式查询在这种情况下失败,请将源选项 failOnDataLoss 设置为 false。
原因:
有关更多详情,请参阅 KAFKA_DATA_LOSS
KINESIS_COULD_NOT_READ_SHARD_UNTIL_END_OFFSET
在以下 Kinesis 流的分片 <endSeqNum>
达到所需的序列号 <shardId>
之前无法读取
使用使用者模式 <stream>
的 kinesis 流 <consumerMode>
。 查询将因...而失败
潜在的数据丢失。 最后一个读取记录位于序列号 <lastSeqNum>
。
如果存在以下条件,则可能会发生这种情况:具有 endSeqNum 的数据已过期,或者 Kinesis 流已
删除并以相同名称进行了重建。 可以
通过在 Spark 配置中将 spark.databricks.kinesis.failOnDataLoss 设置为 false。
KINESIS_EFO_CONSUMER_NOT_FOUND
对于 kinesis 流 <streamId>
,删除了流的以前注册的 EFO 使用者 <consumerId>
。
重启查询,以便注册新的使用者。
KINESIS_EFO_SUBSCRIBE_LIMIT_EXCEEDED(超出 Kinesis EFO 订阅限制)
对于分片 <shard>
,上一次 subscribeToShard API 调用是在下一次调用的 5 秒内。
在 5 秒或更多秒后重启查询。
KINESIS_FETCHED_SHARD_LESS_THAN_TRACKED_SHARD
从 Kinesis 提取的最小 shardId (<fetchedShardId>
)
小于跟踪的最小 shardId (<trackedShardId>
)。
这是意外的,在删除 Kinesis 流并使用相同的名称重新创建时,会发生此情况,
使用现有检查点位置重启了使用此 Kinesis 流的流式处理查询。
使用新的检查点路径重启流查询,或使用新名称创建流。
KINESIS_POLLING_MODE_UNSUPPORTED
不支持 Kinesis 轮询模式。
KINESIS_RECORD_SEQ_NUMBER_ORDER_VIOLATION
对于分片 <shard>
,上一次提取中从 Kinesis 读取的最后一条记录具有序列号 <lastSeqNum>
,
它大于当前提取中读取的记录的序列号 <recordSeqNum>
。
这是意外的,当重试或下一次提取的开始位置不正确初始化时,可能会造成下游重复的记录。
KINESIS_SOURCE_MUST_BE_IN_EFO_MODE_TO_CONFIGURE_CONSUMERS
若要从 Kinesis Streams 读取使用者配置(consumerName
、consumerNamePrefix
或 registeredConsumerId
),consumerMode
必须是 efo
。
KINESIS_SOURCE_MUST_SPECIFY_REGISTERED_CONSUMER_ID_AND_TYPE
若要从 Kinesis Streams 中读取已注册使用者,必须同时指定 registeredConsumerId
和 registeredConsumerIdType
选项。
KINESIS_SOURCE_MUST_SPECIFY_STREAM_NAMES_OR_ARNS
若要从 Kinesis Streams 读取,必须将 streamName
或 streamARN
选项的任一(但不是两者)配置为以逗号分隔的流名称/ANN 列表。
KINESIS_SOURCE_NO_CONSUMER_OPTIONS_WITH_REGISTERED_CONSUMERS
若要从具有已注册使用者的 Kinesis Streams 进行读取,请不要配置 consumerName
或 consumerNamePrefix
选项,因为它们不会生效。
KINESIS_SOURCE_REGISTERED_CONSUMER_ID_COUNT_MISMATCH
已注册的使用者 ID 数应等于 Kinesis 流的数量,但收到了 <numConsumerIds>
使用者 ID 和 <numStreams>
流。
KINESIS_SOURCE_REGISTERED_CONSUMER_NOT_FOUND
找不到 streamARN <consumerId>
提供的注册使用者 <streamARN>
。 验证是否已注册使用者或未提供 registeredConsumerId
选项。
KINESIS_SOURCE_REGISTERED_CONSUMER_TYPE_INVALID
注册的使用者类型 <consumerType>
无效。 它必须是 name
或 ARN
。
KRYO_BUFFER_OVERFLOW
Kryo 序列化失败:<exceptionMsg>
。 要避免这种情况,请增加“<bufferSizeConfKey>
”值。
LABELS_MISMATCH
开始标签 <beginLabel>
与结束标签 <endLabel>
不匹配。
LABEL_ALREADY_EXISTS
标签 <label>
已存在。 选择其他名称或重命名现有标签。
LABEL_NAME_FORBIDDEN
禁止标签名称 <label>
。
LAKEHOUSE_FEDERATION_DATA_SOURCE_REQUIRES_NEWER_DBR_VERSION
Lakehouse 联合数据源“<provider>
”需要更新的 Databricks Runtime 版本。
有关更多详细信息,请参阅 LAKEHOUSE_FEDERATION_DATA_SOURCE_REQUIRES_NEWER_DBR_VERSION
加载数据路径不存在
LOAD DATA 输入路径不存在:<path>
。
LOCAL_MUST_WITH_SCHEMA_FILE
LOCAL
必须与 file
的架构一起使用,但收到 了 <actualSchema>
。
LOCATION_ALREADY_EXISTS
无法将托管表命名为 <identifier>
,因为其关联位置 <location>
已存在。 请选取其他表名,或首先删除现有位置。
LOST_TOPIC_PARTITIONS_IN_END_OFFSET_WITH_TRIGGER_AVAILABLENOW
使用 Trigger.AvailableNow 运行查询期间,Kafka 主题中的某些分区已丢失。 此错误可能是暂时性的 - 重启查询,如果仍然看到相同的问题,请报告。
最新偏移量 <tpsForLatestOffset>
的主题分区,结束偏移量 <tpsForEndOffset>
的主题分区
MALFORMED_AVRO_MESSAGE
在消息反序列化中检测到格式不正确的 Avro 消息。 分析模式:<mode>
。 要将格式错误的 Avro 消息处理为 null 结果,请尝试将选项“mode”设置为“PERMISSIVE
”。
格式错误的字符编码
使用 <function>
执行 <charset>
时找到的值无效
错误格式的CSV记录
格式不正确的 CSV 记录:<badRecord>
格式错误的日志文件
日志文件格式不正确:无法从 <text>
读取正确的日志版本。
MALFORMED_PROTOBUF_MESSAGE
在消息反序列化中检测到格式不正确的 Protobuf 消息。 分析模式:<failFastMode>
。 若要将格式不正确的 protobuf 消息作为 null 结果处理,请尝试将选项“mode”设置为“PERMISSIVE
”。
解析中的记录格式错误
在记录分析中检测到格式不正确的记录:<badRecord>
。
分析模式:<failFastMode>
。 若要将格式错误的记录作为 null 结果处理,请尝试将选项“mode”设置为“PERMISSIVE
”。
有关更多详细信息,请参阅 MALFORMED_RECORD_IN_PARSING
MALFORMED_STATE_IN_RATE_PER_MICRO_BATCH_SOURCE
RatePerMicroBatch 源中的状态格式错误。
有关更多详细信息,请参阅 MALFORMED_STATE_IN_RATE_PER_MICRO_BATCH_SOURCE
MALFORMED_VARIANT
变体二进制格式不正确。 请检查数据源是否有效。
MANAGED_ICEBERG_ATTEMPTED_TO_ENABLE_CLUSTERING_WITHOUT_DISABLING_DVS_OR_ROW_TRACKING
尝试在托管 Apache Iceberg 表上启用 Liquid 聚类分析,而无需禁用删除向量和行跟踪。 对于托管的 Iceberg 表,不支持删除向量和行跟踪;但对于 Liquid 表的行级并发,这些功能是必需的。 为了在托管的 Iceberg 表上启用 Liquid 聚类分析并降低并发控制,必须禁用此表的删除矢量和行跟踪功能。
MANAGED_ICEBERG_OPERATION_NOT_SUPPORTED
托管 Iceberg 表不支持 <operation>
。
MANAGED_TABLE_WITH_CRED
不支持使用存储凭据创建托管表。
MATERIALIZED_VIEW_MESA_REFRESH_WITHOUT_PIPELINE_ID
无法 <refreshType>
具体化视图,因为它的时间早于具有 pipelineId。 要启用 <refreshType>
,请删除并重新创建具体化视图。
MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
不允许执行具体化视图操作 <operation>
:
有关更多详细信息,请参阅 MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
MATERIALIZED_VIEW_OUTPUT_WITHOUT_EXPLICIT_ALIAS
必须为具体化视图中的输出表达式 <expression>
显式提供别名。
MATERIALIZED_VIEW_OVER_STREAMING_QUERY_INVALID
无法使用流式处理查询来创建具体化视图 <name>
。 请在您的CREATE [OR REFRESH] STREAMING TABLE
子句中使用STREAM
或删除FROM
关键字,以便将此关系转换为批处理查询。
MATERIALIZED_VIEW_UNSUPPORTED_OPERATION
具体化视图目前不支持操作 <operation>
。
会话中的变量数量已超出最大限制
无法创建新变量 <variableName>
,因为会话中的变量数超过允许的最大数目(<maxNumVariables>
)。
MAX_RECORDS_PER_FETCH_INVALID_FOR_KINESIS_SOURCE
maxRecordsPerFetch 必须是小于或等于 <kinesisRecordLimit>
的正整数
MERGE_CARDINALITY_VIOLATION
ON
语句的 MERGE
搜索条件将目标表中的单个行与源表的多个行匹配。
这可能导致对目标行进行多次更新或删除操作,这是不被允许的。
MERGE_WITHOUT_WHEN
WHEN
语句中必须至少有一个 MERGE
子句。
METRIC_CONSTRAINT_NOT_SUPPORTED
METRIC CONSTRAINT
未启用。
METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
METRIC_STORE
表函数的参数“<argName>
”不支持提供的值“<argValue>
”。
有关更多详细信息,请参阅 METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
METRIC_STORE_UNSUPPORTED_ERROR
此环境中当前禁用了指标存储例程 <routineName>
。
METRIC_VIEW_AMBIGUOUS_JOIN_CRITERIA
指标视图定义包含具有不明确条件的联接: <expr>
。 [要么使用 using
连接条件,要么用 <sourceAlias>
别名显式限定列。]
METRIC_VIEW_CACHE_TABLE_NOT_SUPPORTED
不允许指标视图使用缓存表。
METRIC_VIEW_FEATURE_DISABLED
指标视图功能已禁用。 请确保“spark.databricks.sql.metricView.enabled”设置为 true。
METRIC_VIEW_INVALID_MEASURE_FUNCTION_INPUT
MEASURE
() 函数仅采用属性作为输入,但获得 <expr>
METRIC_VIEW_INVALID_VIEW_DEFINITION
指标视图定义无效。 原因:<reason>
。
METRIC_VIEW_IN_CTE_NOT_SUPPORTED
CTE 定义中不允许使用指标视图。 计划:<plan>
METRIC_VIEW_JOIN_NOT_SUPPORTED
不允许使用联接的指标视图。 计划:<plan>
METRIC_VIEW_MATERIALIZATIONS_DISABLED
指标视图具体化已禁用。 请确保“spark.databricks.sql.metricView.materializations.enabled”设置为 true。
METRIC_VIEW_MISSING_MEASURE_FUNCTION
度量值列 <column>
指标视图的使用需要 MEASURE
() 函数才能生成结果。
METRIC_VIEW_RENAME_DIFFERENT_CATALOG_AND_SCHEMA
不允许将指标视图<oldName>
重命名为其他目录或架构: <newName>
METRIC_VIEW_UNSUPPORTED_USAGE
不支持指标视图使用情况。 计划:<plan>
METRIC_VIEW_WINDOW_FUNCTION_NOT_SUPPORTED
不允许指标视图使用窗口函数 <expr>
。
MIGRATION_NOT_SUPPORTED
<table>
不支持迁移到 UC 托管表,因为它不是 <tableKind>
表。
确保要迁移的表是 UC 外部 Delta 表,并且
通过其名称而非路径引用它。
MIGRATION_ROLLBACK_NOT_SUPPORTED
<table>
不支持从托管表回滚到外部表,因为它不是 <tableKind>
表。
MISMATCHED_TOPIC_PARTITIONS_BETWEEN_END_OFFSET_AND_PREFETCHED
Trigger.AvailableNow 中的 Kafka 数据源应在预提取的偏移量中提供相同的主题分区给每个微批的结束偏移量。 此错误可能是暂时性的 - 重启查询,如果仍然看到相同的问题,请报告。
预提取偏移量 <tpsForPrefetched>
的主题分区,结束偏移量 <tpsForEndOffset>
的主题分区。
MISSING_AGGREGATION
非聚合表达式 <expression>
基于不参与 GROUP BY
子句的列。
将列或表达式添加到 GROUP BY
,或对表达式进行聚合;如果不在乎返回组中的哪个值,则使用 <expressionAnyValue>
。
有关更多详细信息,请参阅 MISSING_AGGREGATION
MISSING_CLAUSES_FOR_OPERATION
操作 <clauses>
缺少子句 <operation>
。 请添加所需的条款。
MISSING_CONNECTION_OPTION
“<connectionType>
”类型的连接必须包括以下选项:<requiredOptions>
。
MISSING_DATABASE_FOR_V1_SESSION_CATALOG
v1 会话目录中未指定数据库名称。 请确保在与 v1 目录交互时提供有效的数据库名称。
MISSING_GROUP_BY
查询不包括 GROUP BY
子句。 添加 GROUP BY
或使用 OVER 子句将其转换为窗口函数。
MISSING_NAME_FOR_CHECK_CONSTRAINT
CHECK
约束必须具有名称。
MISSING_PARAMETER_FOR_KAFKA
Kafka 需要参数 <parameterName>
,但 <functionName>
中未指定参数。
MISSING_PARAMETER_FOR_ROUTINE
参数 <parameterName>
是必需的,但未在 <functionName>
中指定。
MISSING_SCHEDULE_DEFINITION
必须遵循 SCHEDULE
提供计划定义。
MISSING_TIMEOUT_CONFIGURATION
操作已超时,但未配置超时时间。 要设置基于处理时间的超时,请在“mapGroupsWithState”或“flatMapGroupsWithState”操作中使用“GroupState.setTimeoutDuration()”。 对于基于事件时间的超时,请使用“GroupState.setTimeoutTimestamp()”并使用“Dataset.withWatermark()”定义水印。
MISSING_WINDOW_SPECIFICATION
WINDOW
的 <windowName>
子句中未定义窗口规范。 有关 WINDOW
子句的更多信息,请参阅“<docroot>
/sql-ref-syntax-qry-select-window.html”。
MODIFY_BUILTIN_CATALOG
不支持修改内置目录 <catalogName>
。
MULTIPLE_LOAD_PATH
Databricks Delta 不支持加载 API 中的多个输入路径。
路径:<pathList>
。 若要通过从同一 Delta 表加载多个路径来
生成单个数据帧,请加载
包含相应分区筛选器的 Delta 表。 如果多个路径
来自不同的 Delta 表,请使用数据集的 union()/unionByName() API
来合并由单独的 load() API 调用生成的数据帧。
MULTIPLE_MATCHING_CONSTRAINTS
发现至少有两个具有给定条件的匹配约束。
MULTIPLE_QUERY_RESULT_CLAUSES_WITH_PIPE_OPERATORS
<clause1>
和 <clause2>
不能在使用“|>”的同一 SQL 管道运算符中共存。 请将多个结果子句分隔为单独的管道运算符,然后再次重试查询。
MULTIPLE_TIME_TRAVEL_SPEC
无法在按时间顺序查看子句和选项中指定按时间顺序查看。
MULTIPLE_XML_DATA_SOURCE
检测到具有名称 <provider> (<sourceNames>
的多个数据源。 请指定完全限定的类名,或者从类路径中删除 <externalSource>
。
MULTI_ALIAS_WITHOUT_GENERATOR
<names>
不支持多部分别名 (<expr>
),因为它不是生成器函数。
MULTI_SOURCES_UNSUPPORTED_FOR_EXPRESSION
表达式 <expr>
不支持多个源。
MULTI_STATEMENT_TRANSACTION_CDF_SCHEMA_WITH_RESERVED_COLUMN_NAME
由于表包含保留列名 (<column_name>
),因此无法在多语句事务中启用更改数据馈送。
要继续,请确保表仅使用非保留列名。
MULTI_STATEMENT_TRANSACTION_CDF_SETTING_HIGH_WATERMARK_NOT_ALLOWED
不允许手动设置 CDC 标识高水位标记。
MULTI_STATEMENT_TRANSACTION_CONCURRENT_CATALOG_METADATA_CHANGE
表/视图 <table>
上检测到并发元数据更改。 请运行 ROLLBACK
并重试此事务。 详细信息:
有关更多详细信息,请参阅 MULTI_STATEMENT_TRANSACTION_CONCURRENT_CATALOG_METADATA_CHANGE
MULTI_STATEMENT_TRANSACTION_CONTEXT_MISMATCH
在当前线程和 Spark 会话之间检测到事务上下文不一致。 当 Spark 会话跨多个线程共享时,通常会发生这种情况。 请在重复使用新事务的会话和线程之前,对每个事务使用专用会话和线程,并在其线程中提交/回滚事务。 详细信息:
有关更多详细信息,请参阅 MULTI_STATEMENT_TRANSACTION_CONTEXT_MISMATCH
MULTI_STATEMENT_TRANSACTION_NOT_SUPPORTED
未能执行该语句。
有关更多详细信息,请参阅 MULTI_STATEMENT_TRANSACTION_NOT_SUPPORTED
MULTI_STATEMENT_TRANSACTION_NO_ACTIVE_TRANSACTION
没有要 <action>
的活动事务。
MULTI_STATEMENT_TRANSACTION_ROLLBACK_REQUIRED_AFTER_ABORT
当前事务已中止。 请在继续之前运行 ROLLBACK TRANSACTION
。 中止原因:
有关更多详细信息,请参阅 MULTI_STATEMENT_TRANSACTION_ROLLBACK_REQUIRED_AFTER_ABORT
MULTI_UDF_INTERFACE_ERROR
不允许实现多个 UDF 接口,UDF 类 <className>
。
MUTUALLY_EXCLUSIVE_CLAUSES
子句 <clauses>
或选项互斥。 请删除其中一个子句。
MV_ST_ALTER_QUERY_INCORRECT_BACKING_TYPE
输入查询需要 <expectedType>
,但基础表是 <givenType>
。
NAMED_PARAMETERS_NOT_SUPPORTED
函数 <functionName>
不支持命名参数;请改用函数调用的位置参数重试查询。
NAMED_PARAMETERS_NOT_SUPPORTED_FOR_SQL_UDFS
无法调用函数 <functionName>
,因为不支持命名参数引用。 在本例中,所指的命名参数是 <argument>
。
NAMED_PARAMETER_SUPPORT_DISABLED
无法调用函数 <functionName>
,因为此处未启用命名参数引用。
在本例中,所指的命名参数是 <argument>
。
将“spark.sql.allowNamedFunctionArguments”设置为“true”以启用功能。
NAMESPACE_ALREADY_EXISTS
无法创建命名空间 <nameSpaceName>
,因为它已存在。
选择其他名称、删除现有命名空间或添加 IF NOT EXISTS
子句以容忍预先存在的命名空间。
NAMESPACE_NOT_EMPTY
无法删除命名空间 <nameSpaceNameName>
,因为它包含对象。
使用 DROP NAMESPACE
... CASCADE
删除命名空间及其所有对象。
NAMESPACE_NOT_FOUND
找不到命名空间 <nameSpaceName>
。 验证命名空间的拼写和正确性。
如果你未限定名称,请验证 current_schema() 输出,或正确限定名称。
若要容许删除时出错,请使用 DROP NAMESPACE IF EXISTS
。
NATIVE_IO_ERROR
本机请求失败。 requestId:<requestId>
,云:<cloud>
,操作:<operation>
request: [https: <https>
, method = <method>
, path = <path>
, params = <params>
, host = <host>
, headers = <headers>
, bodyLen = <bodyLen>
],
错误:<error>
NATIVE_XML_DATA_SOURCE_NOT_ENABLED
此群集中未启用本机 XML 数据源。
NEGATIVE_SCALE_DISALLOWED
不允许负比例:'<scale>
'。 将配置 <sqlConf>
设置为“true”以允许它。
频率表达式中的负值
在 <frequencyExpression>
中找到负值:<negativeValue>
,但预期值为正整数值。
NESTED_AGGREGATE_FUNCTION
不允许在另一个聚合函数的参数中使用聚合函数。 请在子查询中使用内部聚合函数。
NESTED_EXECUTE_IMMEDIATE
不允许嵌套 EXECUTE IMMEDIATE
命令。 请确保提供的 SQL 查询(<sqlString>
)不包含另一个 EXECUTE IMMEDIATE
命令。
列表中不存在的字段名称
字段 <nonExistFields>
不存在。 可用字段:<fieldNames>
NON_FOLDABLE_ARGUMENT
函数 <funcName>
要求参数 <paramName>
是类型 <paramType>
的可折叠表达式,但实际参数是不可折叠的。
NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
当 MATCHED
语句中有多个 MERGE
子句时,只有最后一个 MATCHED
子句可以省略条件。
NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
当 NOT MATCHED BY SOURCE
语句中有多个 MERGE
子句时,只有最后一个 NOT MATCHED BY SOURCE
子句可以省略条件。
NON_LAST_NOT_MATCHED_BY_TARGET_CLAUSE_OMIT_CONDITION
如果 NOT MATCHED [BY TARGET
语句中有多个 MERGE
] 子句,则只有最后一个 NOT MATCHED [BY TARGET
] 子句可以省略条件。
NON_LITERAL_PIVOT_VALUES
必须为透视值提供文本表达式,但找到的是 <expression>
。
NON_PARTITION_COLUMN
PARTITION
子句不能包含非分区列:<columnName>
。
NON_TIME_WINDOW_NOT_SUPPORTED_IN_STREAMING
流式处理数据帧/数据集上的 <windowFunc>
(列 <columnName>
)不支持窗口函数。
结构化流式处理仅支持使用 WINDOW
函数进行时间窗口聚合。 (窗口规范:<windowSpec>
)
NOT_ALLOWED_IN_FROM
在 FROM
子句中不允许:
有关更多详细信息,请参阅 NOT_ALLOWED_IN_FROM
NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE
在管道 WHERE
子句中不允许:
有关更多详细信息,请参阅 NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE
NOT_A_CONSTANT_STRING
用于例程或子句 <expr>
的表达式 <name>
必须是 STRING
的常量 NOT NULL
。
有关更多详细信息,请参阅 NOT_A_CONSTANT_STRING
NOT_A_PARTITIONED_TABLE
由于不是分区表,不允许对 <operation>
执行 <tableIdentWithDB>
操作。
NOT_A_SCALAR_FUNCTION
此处 <functionName>
显示为标量表达式,但该函数被定义为表函数。 请更新查询以将函数调用移动到 FROM
子句中,或改为重新定义 <functionName>
作为标量函数。
NOT_A_TABLE_FUNCTION
此处 <functionName>
显示为表函数,但该函数被定义为标量函数。 请更新查询以将函数调用移到 FROM
子句之外,或改为重新定义 <functionName>
作为表函数。
NOT_NULL_ASSERT_VIOLATION
NULL
值出现在不可为 null 的字段中:<walkedTypePath>
如果架构是从 Scala 元组/案例类或 Java bean 推断出来的,请尝试使用 scala.Option[_] 或其他可为 null 的类型(如 java.lang.Integer 而不是 int/scala.Int)。
NOT_NULL_CONSTRAINT_VIOLATION
此处不允许分配 NULL
。
有关更多详细信息,请参阅 NOT_NULL_CONSTRAINT_VIOLATION
NOT_SUPPORTED_CHANGE_COLUMN
ALTER TABLE ALTER
/ CHANGE COLUMN
不支持将 <table>
的列 <originName>
(类型 <originType>
)更改为 <newName>
(类型 <newType>
)。
NOT_SUPPORTED_CHANGE_SAME_COLUMN
ALTER TABLE ALTER
/CHANGE COLUMN
不支持在同一命令中多次更改 <table>
其列 <fieldName>
,包括其嵌套字段。
NOT_SUPPORTED_COMMAND_FOR_V2_TABLE
v2 表不支持 <cmd>
。
NOT_SUPPORTED_COMMAND_WITHOUT_HIVE_SUPPORT
<cmd>
不支持 ,如果要启用它,请将“spark.sql.catalogImplementation”设置为“hive”。
JDBC目录中不支持
JDBC 目录中不支持的命令:
有关更多详细信息,请参阅 NOT_SUPPORTED_IN_JDBC_CATALOG
NOT_SUPPORTED_WITH_DB_SQL
SQL <operation>
不支持 <endpoint>
。
NOT_SUPPORTED_WITH_SERVERLESS
<operation>
不支持无服务器计算。
NOT_UNRESOLVED_ENCODER
需要未解析的编码器,但找到了 <attr>
。
NO_DEFAULT_COLUMN_VALUE_AVAILABLE
无法确定其默认值 <colName>
,因为它不可为 null,并且没有默认值。
NO_HANDLER_FOR_UDAF
没有适用于 UDAF“<functionName>
”的处理程序。 请改用 sparkSession.udf.register(...)。
NO_MERGE_ACTION_SPECIFIED
df.mergeInto 需要后跟至少一个 whenMatched/whenNotMatched/whenNotMatchedBySource。
NO_PARENT_EXTERNAL_LOCATION_FOR_PATH
SQLSTATE:未分配
找不到路径“<path>
”的父外部位置。 请在其中一个父路径上创建外部位置,然后再次重试查询或命令。
NO_SQL_TYPE_IN_PROTOBUF_SCHEMA (无SQL类型在ProtoBuf架构中)
在 Protobuf 架构中找不到 <catalystFieldPath>
。
没有为表格指定存储位置
SQLSTATE:未分配
生成表凭据时,找不到表“<tableId>
”的存储位置。 请验证表类型和表位置 URL,然后再次重试查询或命令。
NO_SUCH_CATALOG_EXCEPTION
找不到目录“<catalog>
”。 请验证目录名称,然后再次重试查询或命令。
NO_SUCH_CLEANROOM_EXCEPTION
SQLSTATE:未分配
洁净室“<cleanroom>
”不存在。 请验证清理室名称拼写是否正确,并匹配有效的现有清理室的名称,然后再次重试查询或命令。
NO_SUCH_CREDENTIAL_EXCEPTION
凭据“”<credential>
不存在。 请验证凭据名称拼写正确,并匹配有效现有凭据的名称,然后再次重试查询或命令。
NO_SUCH_EXTERNAL_LOCATION_EXCEPTION
SQLSTATE:未分配
外部位置“<externalLocation>
”不存在。 请验证外部位置名称是否正确,然后再次重试查询或命令。
NO_SUCH_METASTORE_EXCEPTION
SQLSTATE:未分配
找不到元存储。 请让帐户管理员将元存储分配给当前工作区,然后再次重试查询或命令。
NO_SUCH_PROVIDER_EXCEPTION
SQLSTATE:未分配
共享提供程序“<providerName>
”不存在。 请验证共享提供程序名称拼写正确,并匹配有效现有提供程序名称的名称,然后再次重试查询或命令。
NO_SUCH_RECIPIENT_EXCEPTION
SQLSTATE:未分配
收件人“<recipient>
”不存在。 请验证收件人名称拼写正确,并匹配有效现有收件人的名称,然后再次重试查询或命令。
NO_SUCH_SHARE_EXCEPTION
SQLSTATE:未分配
共享“<share>
”不存在。 请验证共享名称拼写是否正确,并匹配有效现有共享的名称,然后再次重试查询或命令。
NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION
SQLSTATE:未分配
存储凭据“<storageCredential>
”不存在。 请验证存储凭据名称拼写正确,并匹配有效的现有存储凭据的名称,然后再次重试查询或命令。
NO_SUCH_USER_EXCEPTION
SQLSTATE:未分配
用户“<userName>
”不存在。 请验证你向其授予权限或更改所有权的用户拼写正确,并匹配有效现有用户的名称,然后再次重试查询或命令。
NO_UDF_INTERFACE
UDF 类 <className>
不实现任何 UDF 接口。
NULLABLE_COLUMN_OR_FIELD
列或字段 <name>
可为 null,但它必须不可为 null。
NULLABLE_ROW_ID_ATTRIBUTES
行 ID 属性不能为空值:<nullableRowIdAttrs>
。
NULL_DATA_SOURCE_OPTION
数据源读/写选项 <option>
不能有 null 值。
NULL_MAP_KEY
不能将 null 用作映射键。
NULL_QUERY_STRING_EXECUTE_IMMEDIATE
立即执行需要一个非 null 变量作为查询字符串,但提供的变量 <varName>
为 null。
NULL_VALUE_SIGNAL_STATEMENT
信号语句参数需要非空值,但 <argument>
接收到空值。
NUMERIC_OUT_OF_SUPPORTED_RANGE
<value>
该值不能解释为数字,因为它的位数超过 38 位。
数值超出范围
有关更多详细信息,请参阅 NUMERIC_VALUE_OUT_OF_RANGE
NUM_COLUMNS_MISMATCH
<operator>
只能对列数相同的输入进行操作,但第一个输入有 <firstNumColumns>
列,第 <invalidOrdinalNum>
个输入有 <invalidNumColumns>
列。
NUM_TABLE_VALUE_ALIASES_MISMATCH
给定别名的数目与输出列数不匹配。
函数名称:<funcName>
;别名数:<aliasesNum>
;输出列数:<outColsNum>
。
OAUTH_CUSTOM_IDENTITY_CLAIM_NOT_PROVIDED
未提供自定义标识声明。
此处仅支持秘密功能
此 <functionName>
不支持调用函数 <location>
;此处支持 <supportedFunctions>
。
ONLY_SUPPORTED_WITH_UC_SQL_CONNECTOR
只有在支持 Unity Catalog 的 Databricks SQL 连接器上,SQL 操作 <operation>
才受到支持。
操作已取消
操作已取消。
OPERATION_REQUIRES_UNITY_CATALOG
操作 <operation>
需要启用 Unity Catalog。
OP_NOT_SUPPORTED_READ_ONLY
只读会话模式下不支持 <plan>
。
ORDER_BY_POS_OUT_OF_RANGE
ORDER BY
位置 <index>
不在选择列表中(有效范围为 [1, <size>
])。
PARQUET_CONVERSION_FAILURE
无法为 Parquet 类型为 <dataType>
的数据类型 <parquetType>
创建 Parquet 转换器。
有关更多详细信息,请参阅 PARQUET_CONVERSION_FAILURE
PARQUET_TYPE_ILLEGAL
非法的 Parquet 类型:<parquetType>
。
PARQUET_TYPE_NOT_RECOGNIZED
无法识别的 Parquet 类型:<field>
。
PARQUET_TYPE_NOT_SUPPORTED
尚不支持的 Parquet 类型:<parquetType>
。
PARSE_EMPTY_STATEMENT
语法错误,意外的空语句。
PARSE_MODE_UNSUPPORTED
函数 <funcName>
不支持 <mode>
模式。 可接受的模式是 PERMISSIVE
和 FAILFAST
。
PARSE_SYNTAX_ERROR
<error> <hint>
位置或附近有语法错误。
PARTITIONS_ALREADY_EXIST
无法在表 RENAME
中添加 ADD 或 <partitionList>
TO 分区 <tableName>
,因为它们已存在。
选择其他名称、删除现有分区或添加 IF NOT EXISTS
子句以容忍预先存在的分区。
分区未找到
无法在表 <partitionList>
中找到分区 <tableName>
。
验证分区规范和表名称。
若要容许删除时出错,请使用 ALTER TABLE
... DROP IF EXISTS PARTITION
。
PARTITION_COLUMN_NOT_FOUND_IN_SCHEMA
架构 <column>
中找不到分区列 <schema>
。 请提供用于分区的现有列。
PARTITION_LOCATION_ALREADY_EXISTS
表 <locationPath>
中已存在分区位置 <tableName>
。
PARTITION_LOCATION_IS_NOT_UNDER_TABLE_DIRECTORY
无法执行 ALTER TABLE SET PARTITION LOCATION
语句,因为
分区位置 <location>
不在表目录 <table>
下。
若要修复此问题,请将分区的位置设置为 <table>
的子目录。
PARTITION_METADATA
<action>
不允许在表 <tableName>
上使用,因为 Unity Catalog 不支持存储分区元数据。
PARTITION_NUMBER_MISMATCH
值数量(<partitionNumber>
)与架构的大小(<partitionSchemaSize>
)不匹配:值为 <partitionValues>
,架构为 <partitionSchema>
,文件路径为 <urlEncodedPath>
。
请重新具体化表或联系所有者。
PARTITION_TRANSFORM_EXPRESSION_NOT_IN_PARTITIONED_BY
表达式 <expression>
必须在“partitionedBy”内部。
PATH_ALREADY_EXISTS
路径 <outputPath>
已存在。 请将模式设置为“overwrite”以覆盖现有路径。
路径未找到
路径不存在:<path>
。
PHOTON_DESERIALIZED_PROTOBUF_MEMORY_LIMIT_EXCEEDED
反序列化 Photon protobuf 计划至少需要 <size>
字节,这超过
<limit>
个字节的限制。 这可能是由于一个非常大的计划或存在一个非常
宽的架构。 尝试简化查询、删除不必要的列或禁用 Photon。
PHOTON_SERIALIZED_PROTOBUF_MEMORY_LIMIT_EXCEEDED
序列化的 Photon protobuf 计划的大小 <size>
字节,这超过了限制
<limit>
字节。 计划中数据类型的序列化大小为 <dataTypeSize>
字节。
这可能是由于计划非常大,或者存在非常广泛的架构。
请考虑重写查询以删除不需要的操作和列或禁用 Photon。
管道不存在
管道“<pipelineId>
”不存在
有关详细信息 ,请参阅PIPELINE_DOES_NOT_EXIST
PIPE_OPERATOR_AGGREGATE_EXPRESSION_CONTAINS_NO_AGGREGATE_FUNCTION
非分组表达式 <expr>
作为管道运算符的参数 |> AGGREGATE
提供,但不包含任何聚合函数;请更新它以包含聚合函数,然后再次重试查询。
PIPE_OPERATOR_CONTAINS_AGGREGATE_FUNCTION
使用管道运算符<expr>
子句时不允许聚合函数|> <clause>
;请改用管道运算符|> AGGREGATE
子句。
PIVOT_VALUE_DATA_TYPE_MISMATCH
透视值“<value>
”无效:值数据类型 <valueType>
与透视列数据类型 <pivotType>
不匹配。
POINTER_ARRAY_OUT_OF_MEMORY
内存不足,无法增长指针数组
POLICY_ALREADY_EXISTS
无法创建策略 <policyName>
,因为它已存在。
选择其他名称或删除现有策略以容忍预先存在的连接。
POLICY_NOT_FOUND
无法执行<commandType>
命令,因为找不到该策略<policyName>
<securableFullname>
。
请验证拼写和正确性。
POLICY_ON_SECURABLE_TYPE_NOT_SUPPORTED
无法在安全对象类型 <securableType>
上创建策略。 支持的安全对象类型: <allowedTypes>
。
PROCEDURE_ARGUMENT_NUMBER_MISMATCH
过程 <procedureName>
需要 <expected>
参数,但提供了 <actual>
。
PROCEDURE_CREATION_EMPTY_ROUTINE
不允许使用具有空例程定义的 CREATE PROCEDURE
。
PROCEDURE_CREATION_PARAMETER_OUT_INOUT_WITH_DEFAULT
参数 <parameterName>
使用参数模式 <parameterMode>
定义。 调用例程时,不能省略 OUT
和 INOUT
参数,因此不支持 DEFAULT
表达式。 若要继续,请删除 DEFAULT
子句或更改参数模式以 IN
。
PROCEDURE_NOT_SUPPORTED
不支持存储过程
PROCEDURE_NOT_SUPPORTED_WITH_HMS
Hive 元存储不支持存储过程。 请改用 Unity Catalog。
PROTOBUF_DEPENDENCY_NOT_FOUND
找不到依赖项:<dependencyName>
。
PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND
在路径上读取 Protobuf 描述符文件时出错:<filePath>
。
PROTOBUF_FIELD_MISSING
在 Protobuf 架构中的 <field>
处搜索与给定的 <protobufSchema>
匹配的 <matchSize>
。 候选项:<matches>
。
在SQL架构中缺少的PROTOBUF字段
在 Protobuf 架构中找到 <field>
,但 SQL 架构中没有匹配项。
PROTOBUF_FIELD_TYPE_MISMATCH
字段的类型不匹配:<field>
。
PROTOBUF_JAVA_CLASSES_NOT_SUPPORTED
<protobufFunction>
不支持 Java 类。 有关备用选项,请联系 Databricks 支持部门。
PROTOBUF_MESSAGE_NOT_FOUND
无法在描述符中找到消息 <messageName>
。
PROTOBUF_NOT_LOADED_SQL_FUNCTIONS_UNUSABLE
无法调用 <functionName>
SQL 函数,因为未加载 Protobuf 数据源。
请使用加载的“spark-protobuf”包重启作业或会话,例如在命令行上使用 --packages 参数,然后再次重试查询或命令。
PROTOBUF_TYPE_NOT_SUPPORT
尚不支持 Protobuf 类型:<protobufType>
。
PS_FETCH_RETRY_EXCEPTION
无法重试 pubsub 提取阶段中的任务。 在阶段 <partitionInfo>
,TID <stageInfo>
中对 <taskId>
进行分区。
PS_INVALID_EMPTY_OPTION
<key>
不能是空字符串。
PS_无效密钥类型
PubSub dedup 的键类型无效:<key>
。
PS_INVALID_OPTION
PubSub 不支持 <key>
选项。 它只能在测试中使用。
PS_INVALID_OPTION_TYPE
<key>
的类型无效。 <key>
的类型应为 <type>
类型。
PS_INVALID_READ_LIMIT
PubSub 流的读取限制无效:<limit>
。
PS_INVALID_UNSAFE_ROW_CONVERSION_FROM_PROTO
将解码为 PubSubMessageMetadata 的 UnsafeRow 无效,所需的 proto 架构为:<protoSchema>
。 输入 UnsafeRow 可能已损坏:<unsafeRow>
。
PS_INVALID_WORKLOAD_IDENTITY_FEDERATION_AUDIENCE_OPTION
查询或命令失败,因为存在无效的读取选项:在 spark.readStream.format("pubsub").option("workloadIdentityFederation.audience", <audience>
) 中。 更新 <audience>
以匹配以下格式: //iam.googleapis.com/projects/{PROJECT_NUMBER}/locations/global/workloadIdentityPools/{POOL_ID}/providers/{PROVIDER_ID}
然后再次重试查询或命令。
PS_MISSING_AUTH_INFO
找不到完整的 PubSub 身份验证信息。
PS_MISSING_REQUIRED_OPTION
找不到所需的选项:<key>
。
PS_MOVING_CHECKPOINT_FAILURE
无法将原始数据检查点文件从 <src>
移动到目标目录:<dest>
。
PS_MULTIPLE_AUTH_OPTIONS
请提供 Databricks 服务凭据或 GCP 服务帐户凭据。
PS_MULTIPLE_FAILED_EPOCHS
无法启动 PubSub 流,因为失败的提取不止一个:<failedEpochs>
。
PS_OPTION_NOT_IN_BOUNDS
<key>
必须位于以下边界 (<min>
, <max>
) 之间,不包含这两个边界值。
PS_PROVIDE_CREDENTIALS_WITH_OPTION
共享群集不支持使用实例配置文件进行身份验证。 直接使用 .option() 向数据流提供凭据。
PS_SPARK_SPECULATION_NOT_SUPPORTED
PubSub 源连接器仅在禁用 spark.speculation
的群集中可用。
PS_UNABLE_TO_CREATE_SUBSCRIPTION
尝试创建有关主题 <subId>
的订阅 <topicId>
时出错。 请检查是否有足够的权限创建订阅,然后重试。
PS_UNABLE_TO_PARSE_PROTO
无法分析序列化的字节以生成 proto。
PS_UNSUPPORTED_GET_OFFSET_CALL
如果没有提供限制,则不支持 getOffset。
Python数据源错误
未能<action>
Python 数据源 <type>
:<msg>
PYTHON_STREAMING_DATA_SOURCE_RUNTIME_ERROR
Python 流式处理数据源执行 <action>
时失败:<msg>
查询表与列掩码策略不兼容
无法访问引用的表,因为以前分配的列掩码当前与表架构不兼容;若要继续,请联系表的所有者以更新策略:
有关更多详细信息,请参阅 QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
查询的表与行级安全策略不兼容
无法访问引用的表,因为以前分配的行级别安全策略当前与表架构不兼容;若要继续,请联系表的所有者以更新策略:
有关更多详细信息,请参阅 QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
QUERY_EXECUTION_TIMEOUT_EXCEEDED
由于超时(<timeoutSec>
秒)而取消了查询执行。 可以通过设置 <config>
来增加限制(以秒为单位)。
查询被拒绝
查询执行被拒绝。
QUERY_RESULT_WRITE_TO_CLOUD_STORE_PERMISSION_ERROR
工作区内部存储配置可防止 Databricks 访问云存储。
READ_CURRENT_FILE_NOT_FOUND
<message>
基础文件可能已更新。 可在 SQL 中运行“REFRESH TABLE
tableName”命令或重新创建所涉及的数据集/数据帧,显式地使 Spark 中的缓存失效。
READ_FILES_AMBIGUOUS_ROUTINE_PARAMETERS
函数 <functionName>
的调用中,<parameterName>
和 <alternativeName>
已被设置,且它们是彼此的别名。 请仅设置其中一个。
READ_FILES_CREDENTIALS_PARSE_ERROR
分析 read_files() 函数的临时凭据时出错。
有关更多详细信息,请参阅 READ_FILES_CREDENTIALS_PARSE_ERROR
READ_TVF_UNEXPECTED_REQUIRED_PARAMETER
必须在没有名称的位置 <functionName>
分配函数 <parameterName>
的必需参数 <expectedPos>
。
RECIPIENT_EXPIRATION_NOT_SUPPORTED
仅支持 TIMESTAMP
/TIMESTAMP_LTZ
/TIMESTAMP_NTZ
类型用于收件人过期时间戳。
RECURSION_LEVEL_LIMIT_EXCEEDED
已达到递归级别限制<levelLimit>
,但查询尚未完成,请尝试将其增加为“WITH RECURSIVE
t(col) MAX RECURSION LEVEL
200”。
RECURSION_ROW_LIMIT_EXCEEDED
递归行限制 <rowLimit>
已达到,但是查询尚未结束。尝试在查询 CTE 关系时设置更大的 LIMIT
值。
RECURSIVE_CTE_IN_LEGACY_MODE
递归定义不能在旧 CTE 优先模式中使用(spark.sql.legacy.ctePrecedencePolicy=LEGACY
)。
RECURSIVE_CTE_WITH_LEGACY_INLINE_FLAG
当旧版内联标志设置为 true (spark.sql.legacy.inlineCTEInCommands=true) 时,不能使用递归定义。
RECURSIVE_PROTOBUF_SCHEMA
在 Protobuf 架构中找到递归引用,默认情况下 Spark 无法处理该引用:<fieldDescriptor>
。 请尝试将选项 recursive.fields.max.depth
设置为 1 到 10。 不允许超过 10 个级别的递归。
RECURSIVE_VIEW
检测到递归视图 <viewIdent>
(周期:<newPath>
)。
REF_DEFAULT_VALUE_IS_NOT_ALLOWED_IN_PARTITION
不允许在 DEFAULT
子句中引用 PARTITION
列值。
RELATION_LARGER_THAN_8G
无法生成大于 8G 的 <relationName>
。
REMOTE_FUNCTION_HTTP_FAILED_ERROR
远程 HTTP 请求失败,代码 <errorCode>
,错误消息 <errorMessage>
REMOTE_FUNCTION_HTTP_RESULT_PARSE_ERROR
由于无法分析远程 HTTP 响应中的 JSON 结果,无法评估 <functionName>
SQL 函数;错误消息为 <errorMessage>
。 查看 API 文档:<docUrl>
。 请修复错误消息中指示的问题,然后再次重试查询。
REMOTE_FUNCTION_HTTP_RESULT_UNEXPECTED_ERROR
由于无法处理意外的远程 HTTP 响应,无法评估 <functionName>
SQL 函数;错误消息为 <errorMessage>
。 查看 API 文档:<docUrl>
。 请修复错误消息中指示的问题,然后再次重试查询。
REMOTE_FUNCTION_HTTP_RETRY_TIMEOUT
重试 <N>
次后,远程请求失败;最后一个失败的 HTTP 错误代码是 <errorCode>
,消息为 <errorMessage>
。
REMOTE_FUNCTION_MISSING_REQUIREMENTS_ERROR
由于 <functionName>
,未能计算 <errorMessage>
SQL 表达式。 查看 <docUrl>
中的要求。 请修复错误消息中指示的问题,然后再次重试查询。
RENAME_SRC_PATH_NOT_FOUND
由于未找到 <sourcePath>
,重命名失败。
REPEATED_CLAUSE
在每个 <clause>
操作中,<operation>
子句最多只能使用一次。
REQUIRED_PARAMETER_ALREADY_PROVIDED_POSITIONALLY
例程 <routineName>
所需的参数 <parameterName>
已在位置 <positionalIndex>
被分配,但没有指定名称。
请更新函数调用,以删除名为 <parameterName>
的命名参数,或删除位置参数。
位于 <positionalIndex>
的位置参数,然后重试查询。
必需的参数未找到
无法调用例程 <routineName>
,因为名为 <parameterName>
的参数是必需的,但例程调用不提供值。 请更新例程调用以提供参数值(索引位置 <index>
或按名称排列),然后再次重试查询。
REQUIRES_SINGLE_PART_NAMESPACE
<sessionCatalog>
需要单部分命名空间,但收到了 <namespace>
。
RESCUED_DATA_COLUMN_CONFLICT_WITH_SINGLE_VARIANT
DataFrame API 读取器选项“rescuedDataColumn”与 DataFrame API 选项“singleVariantColumn”互斥。
请删除其中一个,然后再次重试 DataFrame 操作。
RESERVED_CDC_COLUMNS_ON_WRITE
写入包含保留列 <columnList>
,这些列
在内部用作更改数据馈送的元数据。 若要写入表,可以重命名/删除
这些列,或者将
<config>
设置为 false 来禁用表上的更改数据馈送。
受限流媒体选项权限已强制执行
选项 <option>
在 <source>
源的共享群集上具有限制值。
有关更多详细信息,请参阅 RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
ROUTINE_ALREADY_EXISTS
无法创建 <newRoutineType> <routineName>
,因为该名称的 <existingRoutineType>
已存在。
选择其他名称,删除或替换现有 <existingRoutineType>
,或添加 IF NOT EXISTS
子句以容忍预先存在的 <newRoutineType>
。
未找到例程
找不到例程 <routineName>
。 验证架构和目录的拼写和正确性。
如果名称未使用架构和目录限定,请检查 current_schema() 的输出,或者用正确的架构和目录来限定名称。
要容忍删除时的错误,请使用 DROP
... IF EXISTS
。
找不到例程参数
例程 <routineName>
不支持在位置 <parameterName>
指定的参数 <pos>
。<suggestion>
ROUTINE_USES_SYSTEM_RESERVED_CLASS_NAME
无法创建函数 <routineName>
,因为指定的类名“<className>
”保留供系统使用。 请重命名该类,然后重试。
ROW_LEVEL_SECURITY_ABAC_MISMATCH
无法解析 <tableName>
上的行筛选器,因为从策略继承的行筛选器与显式定义的行筛选器之间存在不匹配。 若要继续,请禁用基于属性的访问控制(ABAC),并联系 Databricks 支持部门。
ROW_LEVEL_SECURITY_CHECK_CONSTRAINT_UNSUPPORTED
不支持对具有行级别安全策略的表 CHECK
创建 <tableName>
约束。
ROW_LEVEL_SECURITY_DUPLICATE_COLUMN_NAME
<statementType>
语句尝试将行级安全策略分配给表,但所引用的两个或多个列具有相同的名称 <columnName>
,这是无效的。
ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
不支持 <tableName>
的行级别安全策略:
有关更多详细信息,请参阅 ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
ROW_LEVEL_SECURITY_INCOMPATIBLE_SCHEMA_CHANGE
无法从表 <tableName>
进行 <statementType> <columnName>
,因为它在行级安全策略中被引用。 表所有者必须先删除或更改此策略,然后才能继续。
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_SOURCE
MERGE INTO
操作不支持源表<tableName>
中的行级安全策略。
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_TARGET
MERGE INTO
操作不支持使用行级别安全策略写入表 <tableName>
。
ROW_LEVEL_SECURITY_MULTI_PART_COLUMN_NAME
此语句尝试向表分配行级别安全策略,但引用的列 <columnName>
有多个名称部分,这无效。
ROW_LEVEL_SECURITY_REQUIRE_UNITY_CATALOG
行级别安全策略仅在 Unity 目录中受支持。
ROW_LEVEL_SECURITY_SHOW_PARTITIONS_UNSUPPORTED
SHOW PARTITIONS
具有行级别安全策略的表不支持 <format>
命令。
ROW_LEVEL_SECURITY_TABLE_CLONE_SOURCE_NOT_SUPPORTED
不支持使用行级别安全策略从表 <mode>
进行 <tableName>
克隆。
ROW_LEVEL_SECURITY_TABLE_CLONE_TARGET_NOT_SUPPORTED
不支持使用行级别安全策略 <mode>
克隆到表 <tableName>
。
ROW_LEVEL_SECURITY_UNSUPPORTED_CONSTANT_AS_PARAMETER
不支持将常量用作行级别安全策略中的参数。 请更新 SQL 命令以从行筛选器定义中删除常量,然后再次重试该命令。
ROW_LEVEL_SECURITY_UNSUPPORTED_DATA_TYPE
用于行级别安全策略的函数 <functionName>
具有具有不受支持的数据类型 <dataType>
的参数。
ROW_LEVEL_SECURITY_UNSUPPORTED_PROVIDER
无法执行 <statementType>
命令,因为不支持使用表提供程序“<provider>
”为目标数据源分配行级别安全策略。
ROW_SUBQUERY_TOO_MANY_ROWS
用作行的子查询返回了多个行。
ROW_VALUE_IS_NULL
在索引 NULL
处的行中找到 <index>
,预期为非 NULL
值。
RULE_ID_NOT_FOUND
找不到规则名称“<ruleName>
”的 ID。 如果要添加新规则,请修改 RuleIdCollection.scala。
SALESFORCE_DATA_SHARE_API_UNAUTHORIZED
对 Salesforce Data Share API 的授权失败。 验证 Databricks 连接详细信息是否已提供给相应的 Salesforce 数据共享目标。
SAMPLE_TABLE_PERMISSIONS
示例数据库/表不支持权限。
SCALAR_FUNCTION_NOT_COMPATIBLE
ScalarFunction <scalarFunc>
未使用自定义实现覆盖方法“produceResult(InternalRow)”。
SCALAR_FUNCTION_NOT_FULLY_IMPLEMENTED
ScalarFunction <scalarFunc>
未实现或覆盖方法“produceResult(InternalRow)”。
SCALAR_SUBQUERY_IS_IN_GROUP_BY_OR_AGGREGATE_FUNCTION
相关标量子查询 '<sqlExpr>
' 既不在 GROUP BY
中,也不在聚合函数中。
使用序号位置将其添加到 GROUP BY
中,或者如果不关心获取哪个值,则将其包装在 first()
(或 first_value
)中。
SCALAR_SUBQUERY_TOO_MANY_ROWS
用作表达式的子查询返回了多个行。
SCHEDULE_ALREADY_EXISTS
无法将 <scheduleType>
添加到已具有 <existingScheduleType>
的表。 请删除现有计划或使用 ALTER TABLE
... ALTER <scheduleType>
更改它。
SCHEDULE_PERIOD_INVALID
<timeUnit>
的计划周期必须是介于 1 和 <upperBound>
(含)之间的整数值。 收到了:<actual>
。
SCHEMA_ALREADY_EXISTS
无法创建架构 <schemaName>
,因为它已存在。
选择其他名称、删除现有架构或添加 IF NOT EXISTS
子句以容忍预先存在的架构。
SCHEMA_NOT_EMPTY
无法删除架构 <schemaName>
,因为它包含对象。
使用 DROP SCHEMA
... CASCADE
删除架构及其所有对象。
SCHEMA_NOT_FOUND
找不到架构 <schemaName>
。 验证架构和目录的拼写和正确性。
如果你未使用目录限定名称,请验证 current_schema() 输出,或使用正确的目录限定名称。
若要容许删除时出错,请使用 DROP SCHEMA IF EXISTS
。
SCHEMA_REGISTRY_CONFIGURATION_ERROR
无法初始化架构注册表中的架构。 <reason>
。
第二个函数参数不是整数 (SECOND_FUNCTION_ARGUMENT_NOT_INTEGER)
<functionName>
函数的第二个参数必须是整数。
SECRET_FUNCTION_INVALID_LOCATION
无法执行具有对 <commandType>
函数的一个或多个非加密引用的 SECRET
命令;请使用 AES_ENCRYPT
加密每个此类函数调用的结果,然后重试该命令
SEED_EXPRESSION_IS_UNFOLDABLE
表达式 <seedExpr>
中的种子表达式 <exprWithSeed>
必须可折叠。
服务器正忙
服务器正忙,无法处理请求。 请稍候片刻,然后重试。
SFTP_无法连接
无法使用用户名<host>
连接到端口<port>
上的 SFTP 服务器<user>
。
SFTP用户不匹配
从凭据 <credentialUser>
检索的用户与 SFTP 路径 <path>
中指定的用户不匹配。
SHOW_COLUMNS_WITH_CONFLICT_NAMESPACE
SHOW COLUMNS
包含有冲突的命名空间:<namespaceA>
!= <namespaceB>
。
SORT_BY_WITHOUT_BUCKETING
sortBy 必须与 bucketBy 一起使用。
SPARK_JOB_CANCELLED
作业 <jobId>
已取消 <reason>
SPECIFY_BUCKETING_IS_NOT_ALLOWED
没有显式列列表的 CREATE TABLE
无法指定存储桶信息。
请使用具有显式列列表的表单,然后指定存储桶信息。
或者,允许通过省略此子句来推断存储桶信息。
SPECIFY_CLUSTER_BY_WITH_BUCKETING_IS_NOT_ALLOWED
不能同时指定 CLUSTER BY
和 CLUSTERED BY INTO BUCKETS
。
SPECIFY_CLUSTER_BY_WITH_PARTITIONED_BY_IS_NOT_ALLOWED
不能同时指定 CLUSTER BY
和 PARTITIONED BY
。
SPECIFY_PARTITION_IS_NOT_ALLOWED
没有显式列列表的 CREATE TABLE
无法指定 PARTITIONED BY
。
请将表单与显式列列表一起使用,并指定 PARTITIONED BY
。
或者,允许通过省略 PARTITION BY
子句来推断分区。
SPILL_OUT_OF_MEMORY
调用 spill() 时<consumerToSpill>
出错:<message>
SQL_CONF_NOT_FOUND
找不到 SQL 配置 <sqlConf>
。 请验证配置是否存在。
SQL_SCRIPT_IN_EXECUTE_IMMEDIATE
EXECUTE IMMEDIATE
命令中不允许使用 SQL 脚本。 请确保提供的 SQL 查询 (<sqlString>
) 不是 SQL 脚本。 请确保sql_string是格式正确的 SQL 语句,不包含 BEGIN
和 END。
SQL脚本超出最大字符数限制
已超出 SQL 脚本(ID: <scriptId>
)中的最大字符数。 允许的最大字符数是 <maxChars>
,并且脚本具有 <chars>
字符。
SQL脚本超过最大行数限制
已超出 SQL 脚本中的最大行数(id: <scriptId>
) 。 允许的最大行数是 <maxLines>
,并且脚本包含 <lines>
行。
SQL_SCRIPT_超出本地变量声明的最大数量限制
已超出 SQL 脚本(id: <scriptId>
)中本地变量声明的最大数目。 允许的最大声明数是 <maxDeclarations>
,并且脚本具有 <declarations>
。
SQL_STORED_PROCEDURES_NESTED_CALLS_LIMIT_EXCEEDED
嵌套过程调用的最大数量已超出过程(名称:<procedureName>
,callId:<procedureCallId>
)。 允许的最大嵌套过程调用数为 <limit>
。
当前暂存路径不可访问
访问目标暂存路径时出现暂时性错误 <path>
,请在几分钟内尝试
STAR_GROUP_BY_POS
在使用序号位置 GROUP BY
时,不允许在选择列表中使用星号(*)。
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_HANDLE_STATE
未能执行有状态处理器操作“<operationType>
”,句柄状态“<handleState>
”无效。
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_TIME_MODE
未能执行有状态处理器操作“<operationType>
”,timeMode“<timeMode>
”无效
STATEFUL_PROCESSOR_DUPLICATE_STATE_VARIABLE_DEFINED
已在 StatefulProcessor 中定义了名称 <stateVarName>
的状态变量。
STATEFUL_PROCESSOR_INCORRECT_TIME_MODE_TO_ASSIGN_TTL
在 timeMode“<stateName>
”中不能对状态“<timeMode>
”使用 TTL,请改用 TimeMode.ProcessingTime()。
STATEFUL_PROCESSOR_TTL_DURATION_MUST_BE_POSITIVE
对于针对状态“<operationType>
”执行的状态存储操作“<stateName>
”,TTL 持续时间必须大于零。
STATEFUL_PROCESSOR_UNKNOWN_TIME_MODE
未知时间模式 <timeMode>
。 接受的 timeMode 模式为“none”、“processingTime”、“eventTime”
STATE_STORE_CANNOT_CREATE_COLUMN_FAMILY_WITH_RESERVED_CHARS
未能创建具有不受支持的起始字符和名称“<colFamilyName>
”的列系列。
STATE_STORE_CANNOT_USE_COLUMN_FAMILY_WITH_INVALID_NAME
未能执行列系列操作“<operationName>
”,名称“<colFamilyName>
”无效。 列系列名称不能为空或包含前导/尾随空格,也不能使用保留关键字 default
STATE_STORE_COLUMN_FAMILY_SCHEMA_INCOMPATIBLE
与列系列 =<colFamilyName>
、oldSchema=<oldSchema>
、newSchema=<newSchema>
不兼容的架构转换。
状态存储不支持可重用迭代器
StateStore <inputClass>
不支持可重用迭代器。
STATE_STORE_HANDLE_NOT_INITIALIZED
尚未为此 StatefulProcessor 初始化句柄。
请仅在 transformWithState 运算符中使用 StatefulProcessor。
STATE_STORE_INCORRECT_NUM_ORDERING_COLS_FOR_RANGE_SCAN
范围扫描编码器的排序序号数 <numOrderingCols>
不正确。 排序序号的数量不能为零,也不能超过模式列的数量。
STATE_STORE_INCORRECT_NUM_PREFIX_COLS_FOR_PREFIX_SCAN
前缀扫描编码器的前缀列数 <numPrefixCols>
不正确。 前缀列数不能为零,也不能大于或等于架构列数。
STATE_STORE_INVALID_CONFIG_AFTER_RESTART
无法在重启期间将 <configName>
从 <oldConfig>
更改为 <newConfig>
。 请将 <configName>
设置为 <oldConfig>
,或使用新的检查点目录重启。
STATE_STORE_INVALID_PROVIDER
给定的状态存储提供程序 <inputClass>
不会扩展 org.apache.spark.sql.execution.streaming.state.StateStoreProvider。
STATE_STORE_INVALID_VARIABLE_TYPE_CHANGE
在查询重启之间无法将 <stateVarName>
更改为 <newType>
。 请将 <stateVarName>
设置为 <oldType>
,或使用新的检查点目录重启。
STATE_STORE_NATIVE_ROCKSDB_TIMEOUT
在访问有状态流式操作的 RocksDB 状态存储时,调用本地 RocksDB 函数 <funcName>
在等待 timeout= <timeoutMs>
ms 后超时。 如果错误仍然存在,请重试并重启群集。
STATE_STORE_NULL_TYPE_ORDERING_COLS_NOT_SUPPORTED
范围扫描编码器不支持名称为“<fieldName>
”、索引为“<index>
”的 null 类型排序列。
STATE_STORE_PROVIDER_DOES_NOT_SUPPORT_FINE_GRAINED_STATE_REPLAY
给定的状态存储提供程序 <inputClass>
不会扩展 org.apache.spark.sql.execution.streaming.state.SupportsFineGrainedReplay。
因此,它不支持状态数据源中的 snapshotStartBatchId 或 readChangeFeed 选项。
STATE_STORE_STATE_SCHEMA_FILES_THRESHOLD_EXCEEDED
状态架构文件数 <numStateSchemaFiles>
超过此查询的最大状态架构文件数:<maxStateSchemaFiles>
。
已添加:<addedColumnFamilies>
,已删除:<removedColumnFamilies>
请将“spark.sql.streaming.stateStore.stateSchemaFilesThreshold”设置为更高的数字,或还原状态架构修改
STATE_STORE_UNSUPPORTED_OPERATION_ON_MISSING_COLUMN_FAMILY
不支持对缺少的列系列“<operationType>
”执行状态存储操作“<colFamilyName>
”。
STATE_STORE_VALUE_SCHEMA_EVOLUTION_THRESHOLD_EXCEEDED
<numSchemaEvolutions>
的状态架构演变数超过了允许此列系列的最大状态架构演变数(<maxSchemaEvolutions>
)。
有冲突的列系列:<colFamilyName>
请将“spark.sql.streaming.stateStore.valueStateSchemaEvolutionThreshold”设置为更大的数值,或恢复状态架构修改。
STATE_STORE_VARIABLE_SIZE_ORDERING_COLS_NOT_SUPPORTED
范围扫描编码器不支持名称为“<fieldName>
”、索引为“<index>
”的变量大小排序列。
STATIC_PARTITION_COLUMN_IN_INSERT_COLUMN_LIST
列列表中还指定了静态分区列 <staticName>
。
STDS_COMMITTED_BATCH_UNAVAILABLE
未找到提交的批处理,检查点位置:<checkpointLocation>
。 在停止之前,请确保查询已运行并提交任何微批次。
STDS_CONFLICT_OPTIONS
选项 <options>
不能同时指定。 请指定一个。
STDS_无法读取操作员元数据
未能读取 checkpointLocation=<checkpointLocation>
和 batchId=<batchId>
的运算符元数据。
文件不存在,或者文件已损坏。
重新运行流查询以构建运算符元数据,如果错误仍然存在,请向相应的社区或供应商报告。
STDS_FAILED_TO_READ_STATE_SCHEMA
未能读取状态架构。 文件不存在,或者文件已损坏。 选项:<sourceOptions>
。
重新运行流式处理查询以构造状态架构,并在错误仍然存在时向相应的社区或供应商报告。
STDS_INVALID_OPTION_VALUE
源选项“<optionName>
”的值无效:
有关更多详细信息,请参阅 STDS_INVALID_OPTION_VALUE
STDS_NO_PARTITION_DISCOVERED_IN_STATE_STORE
这个州没有任何分区。 请仔细检查查询是否指向有效状态。 选项:<sourceOptions>
STDS_OFFSET_LOG_UNAVAILABLE
<batchId>
的偏移量日志不存在,检查点位置:<checkpointLocation>
。
请指定可用于查询的批处理 ID - 可以使用状态元数据数据源查询可用的批处理 ID。
STDS_OFFSET_METADATA_LOG_UNAVAILABLE
元数据不适用于 <batchId>
的偏移量日志,检查点位置:<checkpointLocation>
。
检查点似乎仅使用较旧的 Spark 版本运行。 使用最新的 Spark 版本运行流式处理查询,以便 Spark 构造状态元数据。
STDS_REQUIRED_OPTION_UNSPECIFIED
必须指定“<optionName>
”。
STREAMING_AQE_NOT_SUPPORTED_FOR_STATEFUL_OPERATORS
结构化流式处理中的有状态运算符不支持自适应查询执行。
STREAMING_FROM_MATERIALIZED_VIEW
无法从具体化视图 <viewName>
流式处理。 不支持从具体化视图流式处理。
流式输出模式
流式处理输出模式无效:<outputMode>
。
有关更多详细信息,请参阅 STREAMING_OUTPUT_MODE
流媒体实时模式
流式处理实时模式具有以下限制:
有关更多详细信息,请参阅 STREAMING_REAL_TIME_MODE
STREAMING_STATEFUL_OPERATOR_NOT_MATCH_IN_STATE_METADATA
流式处理的有状态运算符名称与状态元数据中的运算符不匹配。 当用户添加/删除/更改现有流式处理查询的有状态运算符时,可能会发生这种情况。
元数据中的有状态运算符:[<OpsInMetadataSeq>
];当前批处理中的有状态运算符:[<OpsInCurBatchSeq>
]。
STREAMING_TABLE_NEEDS_REFRESH
需要刷新流式处理表 <tableName>
才能执行 <operation>
。
如果表是从 DBSQL
创建的,请运行 REFRESH STREAMING TABLE
。
如果表是由 Lakeflow 声明性管道创建的,请运行管道更新。
STREAMING_TABLE_NOT_SUPPORTED
只能在 Lakeflow 声明性管道和 Databricks SQL 数据仓库中创建和刷新流式表。
STREAMING_TABLE_OPERATION_NOT_ALLOWED
操作 <operation>
不被允许:
有关更多详细信息,请参阅 STREAMING_TABLE_OPERATION_NOT_ALLOWED
STREAMING_TABLE_QUERY_INVALID
流表 <tableName>
只能由流式查询创建。 请将 STREAM
关键字添加到 FROM
子句,以将此关系转换为流式处理查询。
STREAM_NOT_FOUND_FOR_KINESIS_SOURCE
在 <streamName>
中找不到 Kinesis 流 <region>
。
请启动指向正确流名称的新查询。
STRUCT_ARRAY_LENGTH_MISMATCH
输入行不包含架构所需的预期值数。 <expected>
字段是必需的,而 <actual>
值是提供的。
SUM_OF_LIMIT_AND_OFFSET_EXCEEDS_MAX_INT
LIMIT
子句和 OFFSET
子句的总和不能大于最大 32 位整数值(2,147,483,647),但发现 limit = <limit>
,offset = <offset>
。
SYNC_METADATA_DELTA_ONLY
仅 delta 表支持修复表同步元数据命令。
SYNC_SRC_TARGET_TBL_NOT_SAME
源表名称 <srcTable>
必须与目标表名 <destTable>
相同。
SYNTAX_DISCONTINUED
对语句或关键字 <clause>
的支持在此上下文中已停止。
有关更多详细信息,请参阅 SYNTAX_DISCONTINUED
TABLE_OR_VIEW_ALREADY_EXISTS
无法创建表或视图 <relationName>
,因为它已存在。
选择其他名称,删除现有对象,添加 IF NOT EXISTS
子句以容忍预先存在的对象,添加 OR REPLACE
子句以替换现有具体化视图,或添加 OR REFRESH
子句以刷新现有流式处理表。
未找到表或视图
找不到表或视图 <relationName>
。 验证架构和目录的拼写和正确性。
如果未使用架构限定名称,请验证 current_schema() 的输出,或者使用正确的架构和目录来限定名称。
若要容许删除时出错,请使用 DROP VIEW IF EXISTS
或 DROP TABLE IF EXISTS
。
有关更多详细信息,请参阅 TABLE_OR_VIEW_NOT_FOUND
TABLE_VALUED_ARGUMENTS_NOT_YET_IMPLEMENTED_FOR_SQL_FUNCTIONS
不能使用 <action>
参数 <functionName>
SQL 用户定义函数 TABLE
,因为此功能尚未实现。
TABLE_VALUED_FUNCTION_FAILED_TO_ANALYZE_IN_PYTHON
未能分析 Python 用户定义的表函数:<msg>
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INCOMPATIBLE_WITH_CALL
无法评估表函数 <functionName>
,因为其表元数据为 <requestedMetadata>
,但函数调用 <invalidFunctionCallProperty>
。
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INVALID
由于表元数据无效,无法评估表函数 <functionName>
;<reason>
。
TABLE_VALUED_FUNCTION_TOO_MANY_TABLE_ARGUMENTS
表值函数的表参数过多。
它允许一个表参数,但得到:<num>
。
如果要设置为允许,请将“spark.sql.allowMultipleTableArguments.enabled”设置为“true”
TABLE_WITH_ID_NOT_FOUND
找不到 ID 为 <tableId>
的表。 验证 UUID 的正确性。
任务写入失败 (TASK_WRITE_FAILED)
将行写入 <path>
时任务失败。
TEMP_CHECKPOINT_LOCATION_NOT_SUPPORTED
当前工作区不支持隐式临时流式检查点位置,请显式指定检查点位置。
对于 display(),请使用以下方法设置检查点位置:
display(df, checkpointLocation = “your_path”)
对于所有其他流式处理查询,请使用:
.option(“checkpointLocation”, “your_path”)。
TEMP_TABLE_CREATION_LEGACY_WITH_QUERY
CREATE TEMPORARY TABLE
... AS ... 在此处不受支持,请使用CREATE TEMPORARY VIEW
代替
TEMP_TABLE_CREATION_MUTUAL_EXCLUSIVE_SPECS
CREATE TEMPORARY TABLE
不支持指定 <unsupportedSpec>
,请改为创建永久表。
TEMP_TABLE_CREATION_REQUIRES_SINGLE_PART_NAME
创建会话本地临时表需要单部分表名,但得到 <tableName>
。 请更新命令以使用单个部件表名称,然后重试。
TEMP_TABLE_DELETION_MUTUAL_EXCLUSIVE_SPECS
DROP TEMPORARY TABLE
不支持指定 <unsupportedSpec>
,请删除此规范,或使用 DROP TABLE
命令删除永久表。
TEMP_TABLE_DELETION_REQUIRES_SINGLE_PART_NAME
删除会话本地临时表需要单部分表名,但得到 <tableName>
。 请更新 DROP TEMPORARY TABLE
命令以使用单部分表名来删除临时表,或者使用 DROP TABLE
命令来删除永久表。
TEMP_TABLE_DELETION_REQUIRES_V2_COMMAND
DROP TEMPORARY TABLE
需要启用 V2 命令。 请将配置“spark.sql.legacy.useV1Command”设置为 false,然后重试。
TEMP_TABLE_NOT_FOUND
当前会话中找不到临时表 <tableName>
。 验证表名称的拼写和正确性,然后再次重试查询或命令。
要容忍删除时的错误,请使用 DROP
TEMP TABLE IF EXISTS
。
TEMP_TABLE_NOT_SUPPORTED_WITH_HMS
Hive 元存储不支持临时表操作 <operation>
。
TEMP_TABLE_OPERATION_NOT_SUPPORTED
不支持对会话本地临时表 <tableName>
进行操作:
有关更多详细信息,请参阅 TEMP_TABLE_OPERATION_NOT_SUPPORTED
TEMP_TABLE_OR_VIEW_ALREADY_EXISTS
无法创建临时表或视图 <relationName>
,因为它已存在。
选择其他名称、删除现有对象或添加 IF NOT EXISTS
子句以容忍预先存在的对象。
TEMP_TABLE_REQUIRES_DELTA
在会话本地临时表上进行操作需要启用 Delta 目录。 请打开 Delta 目录,然后重试。
TEMP_TABLE_REQUIRES_UC
对会话本地临时表的操作需要 Unity Catalog。 请在正在运行的环境中启用 Unity 目录,然后重试。
TEMP_VIEW_NAME_TOO_MANY_NAME_PARTS
CREATE TEMPORARY VIEW
或相应的数据集 API 仅接受单部分视图名称,但收到了 <actualName>
。
TRAILING_COMMA_IN_SELECT
在 SELECT
子句中检测到尾随逗号。 删除 FROM
子句之前的尾随逗号。
交易最大提交时间戳超限
事务无法提交,因为超出最大提交时间戳。 maxCommitTimestamp:<maxCommitTimestampMs>
commitTimestamp:<commitTimestampMs>
TRANSFORM_WITH_STATE_USER_FUNCTION_ERROR
StatefulProcessor 的用户定义函数 <function>
中发生错误。 原因:<reason>
。
TRANSPOSE_EXCEED_ROW_LIMIT
行数超过为 TRANSPOSE
允许的 <maxValues>
限制。 如果这是预期的,请将 <config>
设置为至少与当前行数相同。
TRANSPOSE_INVALID_INDEX_COLUMN
TRANSPOSE
的索引列无效,原因如下:<reason>
TRANSPOSE_NO_LEAST_COMMON_TYPE
转置要求非索引列共享一个最低的公共类型,但<dt1>
和<dt2>
不满足这一条件。
触发间隔无效
触发器间隔必须是可以转换为整秒的正持续时间。 收到了:<actual>
秒。
TUPLE_IS_EMPTY
由于 Scala 对元组的支持有限,因此不支持空元组。
TUPLE_SIZE_EXCEEDS_LIMIT
由于 Scala 对元组的支持有限,不支持包含 22 个以上的元素的元组。
UC_BUCKETED_TABLES
Unity Catalog 中不支持存储桶表。
UC_CATALOG_NAME_NOT_PROVIDED
对于 Unity Catalog,请明确指定目录名称。 例如 SHOW GRANT your.address@email.com ON CATALOG
main。
UC_COMMAND_NOT_SUPPORTED
命令:<commandName>
在 Unity Catalog 中不受支持。
有关更多详细信息,请参阅 UC_COMMAND_NOT_SUPPORTED
UC命令在无服务器环境中不受支持
命令:<commandName>
不支持无服务器模式下的 Unity Catalog 群集。 请改用单用户或共享群集。
UC_命令在共享访问模式下不受支持
共享访问模式下的 Unity Catalog 群集不支持命令 <commandName>
。 改用单用户访问模式。
未找到适用于文件系统源访问的UC连接
评估<path>
后找不到用于访问<connectionNames>
的有效 UC 连接。
确保至少有一个有效的 UC 连接可用于访问目标路径。
已评估连接的详细错误:
<connectionErrors>
UC_CREDENTIAL_PURPOSE_NOT_SUPPORTED
不支持指定的凭据类型。
UC_数据源不受支持
Unity 目录中不支持数据源格式 <dataSourceFormatName>
。
UC_DATASOURCE_OPTIONS_NOT_SUPPORTED
Unity 目录中不支持数据源选项。
UC_DEPENDENCY_DOES_NOT_EXIST
Unity 目录中不存在依赖项:
<errorMessage>
UC_EXTERNAL_VOLUME_MISSING_LOCATION
外部卷必须存在 LOCATION
子句。 请检查用于创建外部卷的语法“CREATE EXTERNAL VOLUME
... LOCATION
...”。
UC_FAILED_PROVISIONING_STATE
查询失败,因为它尝试引用表 <tableName>
,但无法执行此操作:<failureReason>
。 请更新表 <tableName>
以确保它处于活动预配状态,然后再次重试查询。
UC_FILE_SCHEME_FOR_TABLE_CREATION_NOT_SUPPORTED
不支持在 Unity 目录中创建包含文件方案 <schemeName>
的表。
请改为使用同一表提供程序的 CREATE CONNECTION
命令创建联合数据源连接,然后基于与 CREATE FOREIGN CATALOG
命令的连接创建目录,以引用其中表。
UC_HIVE_METASTORE_FEDERATION_CROSS_CATALOG_VIEW_NOT_SUPPORTED
Hive 元存储联合视图不支持跨多个目录的依赖项。 在 Hive 元存储联合目录中查看 <view>
必须使用来自hive_metastore或spark_catalog目录的依赖项,但其依赖项 <dependency>
位于另一个目录 <referencedCatalog>
中。 请更新依赖项以满足此约束,然后再次重试查询或命令。
UC_HIVE_METASTORE_FEDERATION_NOT_ENABLED
未在此群集上启用 Hive 元存储联邦功能。
此群集不支持访问目录 <catalogName>
UC_INVALID_DEPENDENCIES
<viewName>
的依赖项记录为 <storedDeps>
,同时分析为 <parsedDeps>
。 这可能是通过不当使用非 SQL API 而发生的。 可以通过运行 ALTER VIEW <viewName>
AS <viewText>
来修复 Databricks Runtime 中的依赖项。
UC_INVALID_NAMESPACE
Unity 目录中不支持嵌套或空命名空间。
UC_INVALID_REFERENCE
无法在 Unity Catalog 对象中引用非 Unity Catalog 对象 <name>
。
UC_LAKEHOUSE_FEDERATION_WRITES_NOT_ALLOWED
此群集上的提供程序 <provider>
未启用 Unity Catalog Lakehouse 联合身份验证写入支持。
UC_LOCATION_FOR_MANAGED_VOLUME_NOT_SUPPORTED
托管卷不接受 LOCATION
子句。 请检查用于创建托管卷的语法“CREATE VOLUME
...”。
UC_NOT_ENABLED
此群集上未启用 Unity 目录。
UC_QUERY_FEDERATION_NOT_ENABLED
此群集上未启用 Unity 目录查询联邦功能。
UC_RESOLVED_DBFS_PATH_MISMATCH
查询失败,因为它尝试引用 <objectType> <name>
因而未能成功:解析的 DBFS 路径 <resolvedHmsPath>
与 Unity Catalog 存储位置 <ucStorageLocation>
不一致。
UC_SERVICE_CREDENTIALS_NOT_ENABLED
此群集上未启用服务凭据。
UC_VOLUMES_NOT_ENABLED
此实例上未启用对 Unity 目录卷的支持。
UC_VOLUMES_SHARING_NOT_ENABLED
此实例上未启用对卷共享的支持。
UC_VOLUME_NOT_FOUND
卷 <name>
不存在。 请使用“SHOW VOLUMES
”列出可用卷。
UDF环境错误
由于系统错误,无法安装 UDF 依赖项 <udfName>
。
有关更多详细信息,请参阅 UDF_ENVIRONMENT_ERROR
UDF_ENVIRONMENT_USER_ERROR
无法为 <udfName>
安装 UDF 依赖项。
有关详细信息 ,请参阅UDF_ENVIRONMENT_USER_ERROR
UDF_ERROR
SQLSTATE:未分配
函数 <fn>
执行失败
有关详细信息,请参阅 UDF_ERROR
UDF_LIMITS
违反了一个或多个 UDF 限制。
有关详细信息,请参阅 UDF_LIMITS
UDF_MAX_COUNT_EXCEEDED
超出了查询范围的 <maxNumUdfs>
UDF 上限(在公共预览版期间受限)。 已找到 <numUdfs>
。 UDF 为:<udfNames>
。
UDF_PYSPARK_ERROR
Python 工作器意外退出
有关详细信息,请参阅 UDF_PYSPARK_ERROR
UDF_PYSPARK_UNSUPPORTED_TYPE(UDF_PYSPARK不支持的类型)
在共享访问模式的群集上不支持 PySpark UDF <udf> (<eval-type>
)。
UDF_PYSPARK_USER_CODE_ERROR(用户代码错误)
执行失败。
有关更多详细信息,请参阅 UDF_PYSPARK_USER_CODE_ERROR
UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE
用户定义的 <functionType>
函数不支持参数默认值。
UDF_USER_CODE_ERROR
函数<fn>
运行失败。
有关详细信息,请参阅 UDF_USER_CODE_ERROR
UDTF_ALIAS_NUMBER_MISMATCH
AS 子句中提供的别名数与 UDTF 输出的列数不匹配。
需要 <aliasesSize>
别名,但结果是 <aliasesNames>
。
请确保提供的别名数与 UDTF 输出的列数匹配。
UDTF_INVALID_ALIAS_IN_REQUESTED_ORDERING_STRING_FROM_ANALYZE_METHOD
未能计算用户定义的表函数,因为其“analyze”方法返回了请求的 OrderingColumn,其列名表达式包含不必要的别名 <aliasName>
;请删除此别名,然后再次尝试查询。
UDTF_INVALID_REQUESTED_SELECTED_EXPRESSION_FROM_ANALYZE_METHOD_REQUIRES_ALIAS
未能计算用户定义的表函数,因为它的“analyze”方法返回了请求的“select”表达式 (<expression>
),但不包含相应的别名;请更新 UDTF 以在此处指定别名,然后再次尝试查询。
无法获取内存
无法获取内存的 <requestedBytes>
字节,收到了 <receivedBytes>
。
UNABLE_TO_CONVERT_TO_PROTOBUF_MESSAGE_TYPE
无法将 SQL 类型 <toType>
转换为 Protobuf 类型 <protobufType>
。
UNABLE_TO_FETCH_HIVE_TABLES
无法提取 Hive 数据库的表:<dbName>
。 错误类名称:<className>
。
UNABLE_TO_INFER_SCHEMA
无法推断 <format>
的架构。 必须手动指定。
未经授权的访问
未经授权的访问:
<report>
未绑定的SQL参数
找到未绑定的参数:<name>
。 请修复 args
并提供参数到 SQL 文本或集合构造函数的映射,例如 map()
、array()
、struct()
。
UNCLOSED_BRACKETED_COMMENT
找到未闭合的方括号注释。 请在注释末尾追加 */ 。
UNEXPECTED_INPUT_TYPE
函数 <paramIndex>
的参数 <functionName>
需要 <requiredType>
类型,但 <inputSql>
具有类型 <inputType>
。
UNEXPECTED_INPUT_TYPE_OF_NAMED_PARAMETER
函数 <namedParamKey>
的 <functionName>
参数需要 <requiredType>
类型,但 <inputSql>
具有类型 <inputType>
。<hint>
UNEXPECTED_OPERATOR_IN_STREAMING_VIEW
<op>
语句中作为流式处理源的意外运算符 CREATE VIEW
。
流式处理视图查询只能包含 SELECT
、WHERE
和 UNION ALL
操作。
UNEXPECTED_POSITIONAL_ARGUMENT
无法调用例程 <routineName>
,因为它包含在分配给 <parameterName>
的命名参数之后的位置参数;请重新排列这些参数,使位置参数在前,然后再次重试查询。
UNEXPECTED_SERIALIZER_FOR_CLASS
类 <className>
具有意外的表达式序列化器。 期望返回“STRUCT
”的“STRUCT
”或“IF
”,但找到的是 <expr>
。
UNION_NOT_SUPPORTED_IN_RECURSIVE_CTE
UNION
运算符在递归公用表表达式(直接或间接引用自身的 WITH
子句)中尚不支持。 请改用 UNION ALL
。
UNKNOWN_FIELD_EXCEPTION
在分析期间遇到 <changeType>
:<unknownFieldBlob>
,这可以通过自动重试 <isRetryable>
进行修复
有关更多详细信息,请参阅 UNKNOWN_FIELD_EXCEPTION
UNKNOWN_POSITIONAL_ARGUMENT
例程 <routineName>
的调用在位置 <sqlExpr>
处包含一个未知的位置自变量 <pos>
。 这无效。
UNKNOWN_PRIMITIVE_TYPE_IN_VARIANT
在变体值中找到 ID 为 <id>
的未知基元类型。
UNKNOWN_PROTOBUF_MESSAGE_TYPE
尝试将 <descriptorName>
视为消息,但它是 <containingType>
。
UNPIVOT_REQUIRES_ATTRIBUTES
UNPIVOT
要求所有给定的 <given>
表达式在未给出任何 <empty>
表达式时成为列。 这些表达式不是列:[<expressions>
]。
UNPIVOT_REQUIRES_VALUE_COLUMNS
至少需要为 UNPIVOT
指定一个值列,所有列指定为 ID。
UNPIVOT_VALUE_DATA_TYPE_MISMATCH
逆透视值列必须共享一个最不常见的类型,不包括某些类型:[<types>
]。
UNPIVOT_VALUE_SIZE_MISMATCH
所有逆透视值列的大小必须与值列名称 (<names>
) 相同。
未识别的参数名称 (UNRECOGNIZED_PARAMETER_NAME)
无法调用例程 <routineName>
,因为在调用时使用了名为 <argumentName>
的命名参数引用,但此例程的任何函数签名中都不包含具有该名称的参数。 您是指以下选项中的一个吗? [<proposal>
]。
未识别的SQL类型
无法识别的 SQL 类型 - 名称:<typeName>
,id:<jdbcType>
。
未识别的统计数据
无法识别统计信息 <stats>
。 有效统计信息包括 count
、count_distinct
、approx_count_distinct
、mean
、stddev
、min
、max
和百分位值。 百分位数必须是后跟“%”的数值,范围在 0%到 100%之间。
UNRESOLVABLE_TABLE_VALUED_FUNCTION
无法将 <name>
解析为表值函数。
请确保 <name>
定义为表值函数,并正确提供所有必需的参数。
如果未定义 <name>
,请在使用之前创建表值函数。
有关定义表值函数的详细信息,请参阅 Apache Spark 文档。
UNRESOLVED_ALL_IN_GROUP_BY
无法基于 select 子句推断 GROUP BY ALL
的分组列。 请显式指定分组列。
UNRESOLVED_COLUMN
无法解析具有名称 <objectName>
的列、变量或函数参数。
有关更多详细信息,请参阅 UNRESOLVED_COLUMN
未解决的字段
名为 <fieldName>
的字段无法通过结构类型列 <columnPath>
解析。
有关详细信息,请参阅 UNRESOLVED_FIELD
UNRESOLVED_INSERT_REPLACE_USING_COLUMN
REPLACE USING
列 <colName>
无法在 <relationType>
中解析。
是否指的是以下列之一? [<suggestion>
]。
UNRESOLVED_MAP_KEY
无法将列 <objectName>
解析为映射键。 如果键是字符串字面量,请在其两侧添加单引号 ''。
有关更多详细信息,请参阅 UNRESOLVED_MAP_KEY
未解决的例程
无法解析搜索路径 <routineName>
上的例程 <searchPath>
。
验证 <routineName>
的拼写,检查例程是否存在,并确认你对目录和架构具有 USE
权限,以及对例程具有 EXECUTE
权限。
有关更多详细信息,请参阅 UNRESOLVED_ROUTINE
UNRESOLVED_USING_COLUMN_FOR_JOIN
无法解析联接的 USING
一侧的 <colName>
列 <side>
。 <side>
一侧的列:[<suggestion>
]。
未解决的变量
无法解析搜索路径 <variableName>
上的变量 <searchPath>
。
UNSTRUCTURED_DATA_PROCESSING_UNSUPPORTED_FILE_FORMAT
不支持非结构化文件格式 <format>
。 支持的文件格式是 <supportedFormats>
。
请将 format
表达式中的 <expr>
更新为受支持的格式之一,然后再次重试查询。
UNSTRUCTURED_DATA_PROCESSING_UNSUPPORTED_MODEL_OPTION
不支持非结构化模型选项 ('<option>
' ->
''<value>
)。 支持的值为:<supportedValues>
。
切换到其中一个受支持的值,然后再次重试查询。
UNSTRUCTURED_OCR_COLUMN_NOT_ALLOWED_WITH_METADATA_MODEL_OPTION
指定“metadataModel”选项时,函数参数“ocrText”必须是NULL
,或者被省略。 指定的“metadataModel”选项会触发数据提取功能,并禁止使用提供的“ocrText”。
UNSUPPORTED_ADD_FILE
不支持添加文件。
有关更多详细信息,请参阅 UNSUPPORTED_ADD_FILE
UNSUPPORTED_ALTER_COLUMN_PARAMETER
不支持使用 <parameter>
指定 ALTER <commandTableType>
。
UNSUPPORTED_ARROWTYPE
不支持的箭头类型 <typeName>
。
UNSUPPORTED_BATCH_TABLE_VALUED_FUNCTION
函数 <funcName>
不支持批处理查询。
UNSUPPORTED_CALL
无法调用“<className>
”类的“<methodName>
”方法。
有关更多详细信息,请参阅 UNSUPPORTED_CALL
UNSUPPORTED_CHAR_OR_VARCHAR_AS_STRING
不能在表架构中使用 char/varchar 类型。
如果希望 Spark 将其视为与 Spark 3.0 及更早版本所视为的相同字符串类型,请将“spark.sql.legacy.charVarcharAsString”设置为“true”。
UNSUPPORTED_CLAUSE_FOR_OPERATION
<clause>
不支持 <operation>
。
UNSUPPORTED_COLLATION
排序规则 <collationName>
不受支持:
有关更多详细信息,请参阅 UNSUPPORTED_COLLATION
UNSUPPORTED_COMMON_ANCESTOR_LOC_FOR_FILE_STREAM_SOURCE
应向 UC 注册源路径和 sourceArchiveDir 的公共上级。
如果看到此错误消息,则可能是在不同的外部位置注册了源路径和 sourceArchiveDir。
请把它们放到一个单独的外部位置。
不支持的连接功能
Spark Connect 不支持此功能:
有关更多详细信息,请参阅 UNSUPPORTED_CONNECT_FEATURE
UNSUPPORTED_CONSTRAINT_CLAUSES
不支持约束子句 <clauses>
。
不支持的约束类型
不支持的约束类型。 仅支持 <supportedConstraintTypes>
UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY
不支持直接查询文件的数据源类型:<dataSourceType>
不支持的数据类型
不支持的数据类型 <typeName>
。
UNSUPPORTED_DATA_SOURCE_SAVE_MODE
数据源“<source>
”不能以 <createMode>
模式写入。 请改用“追加”或“覆盖”模式。
UNSUPPORTED_DATA_TYPE_FOR_DATASOURCE
<format>
数据源不支持类型为 <columnType>
的列 <columnName>
。
不支持的编码器数据类型
无法为 <dataType>
创建编码器。 请对 UDF 或 DataFrame 使用不同的输出数据类型。
不支持的默认值
不支持 DEFAULT
列值。
有关更多详细信息,请参阅 UNSUPPORTED_DEFAULT_VALUE
UNSUPPORTED_DESERIALIZER
不支持反序列化程序:
有关更多详细信息,请参阅 UNSUPPORTED_DESERIALIZER
UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
由于 <fieldName>
,无法使用生成表达式 <expressionStr>
创建生成的列 <reason>
。
UNSUPPORTED_EXPR_FOR_OPERATOR
查询运算符包含一个或多个不受支持的表达式。
请考虑重写它,以避免 WHERE
子句中的窗口函数、聚合函数和生成器函数。
无效的表达式:[<invalidExprSqls>
]
UNSUPPORTED_EXPR_FOR_PARAMETER
查询参数包含不受支持的表达式。
参数可以是变量或文本。
无效表达式:[<invalidExprSql>
]
UNSUPPORTED_EXPR_FOR_WINDOW
窗口函数中不支持表达式 <sqlExpr>
。
不支持的功能
不支持此功能:
有关更多详细信息,请参阅 UNSUPPORTED_FEATURE
UNSUPPORTED_FN_TYPE
不支持的用户定义函数类型:<language>
不支持的生成器
不支持生成器:
有关详细信息,请参阅 UNSUPPORTED_GENERATOR
UNSUPPORTED_GROUPING_EXPRESSION
grouping()/grouping_id() 只能与 GroupingSets/Cube/Rollup 一起使用。
UNSUPPORTED_INITIAL_POSITION_AND_TRIGGER_PAIR_FOR_KINESIS_SOURCE
Kinesis 源不支持初始位置为 <trigger>
的 <initialPosition>
UNSUPPORTED_INSERT
无法插入到目标中。
有关更多详细信息,请参阅 UNSUPPORTED_INSERT
UNSUPPORTED_JOIN_TYPE (不支持的连接类型)
不支持的联接类型“<typ>
”。 支持的联接类型包括:<supported>
。
UNSUPPORTED_MANAGED_TABLE_CREATION
不支持使用数据源 <tableName>
创建托管表 <dataSource>
。 需要使用数据源DELTA
或使用CREATE EXTERNAL TABLE <tableName>
创建外部表USING <dataSource>
...
不支持的合并条件
MERGE
操作包含不支持的 <condName>
条件。
有关更多详细信息,请参阅 UNSUPPORTED_MERGE_CONDITION
UNSUPPORTED_NESTED_ROW_OR_COLUMN_ACCESS_POLICY
表 <tableName>
具有行级安全策略或列掩码,而该掩码间接引用了具有行级安全策略或列掩码的另一个表;这种情况不被支持。 调用序列:<callSequence>
UNSUPPORTED_OVERWRITE
无法覆盖正在读取的目标。
有关更多详细信息,请参阅 UNSUPPORTED_OVERWRITE
UNSUPPORTED_PARTITION_TRANSFORM
不支持的分区转换:<transform>
。 支持的转换是 identity
、bucket
和 clusterBy
。 确保转换表达式使用其中一种。
不支持的保存模式
以下对象不支持保存模式 <saveMode>
:
有关更多详细信息,请参阅 UNSUPPORTED_SAVE_MODE
UNSUPPORTED_SHOW_CREATE_TABLE
不支持 SHOW CREATE TABLE
命令。
有关更多详细信息,请参阅 UNSUPPORTED_SHOW_CREATE_TABLE
UNSUPPORTED_SINGLE_PASS_ANALYZER_FEATURE
单传递分析器无法处理此查询或命令,因为它尚不支持 <feature>
。
UNSUPPORTED_SQL_UDF_USAGE
在<functionName>
中使用 SQL 函数<nodeName>
是不支持的。
UNSUPPORTED_STREAMING_OPERATOR_WITHOUT_WATERMARK
没有水印的流式处理数据帧/数据集上的 <outputMode>
不支持 <statefulOperator>
输出模式。
UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
不支持流式传输视图。 原因:
有关更多详细信息,请参阅 UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED
共享群集上的数据源 <source>
不支持流式处理选项 <options>
。 请确认选项已指定并拼写正确,并检查 https://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode 的限制。
UNSUPPORTED_STREAMING_SINK_PERMISSION_ENFORCED
不支持将数据源 <sink>
用作共享群集上的流式处理接收器。
UNSUPPORTED_STREAMING_SOURCE_PERMISSION_ENFORCED
不支持将数据源 <source>
用作共享群集上的流式处理源。
UNSUPPORTED_STREAMING_TABLE_VALUED_FUNCTION
函数 <funcName>
不支持流式处理。 请删除 STREAM
关键字
UNSUPPORTED_STREAM_READ_LIMIT_FOR_KINESIS_SOURCE
<streamReadLimit>
在 Kinesis 源中不受支持。
不支持的子查询表达式类别
不支持的子查询表达式:
有关更多详细信息,请参阅 UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
UNSUPPORTED_TABLE_CHANGE_IN_JDBC_CATALOG
对于表 <change>
上的 JDBC 目录,不支持表更改 <tableName>
。 支持的更改包括:AddColumn、RenameColumn、DeleteColumn、UpdateColumnType、UpdateColumnNullability。
UNSUPPORTED_TIMESERIES_COLUMNS
不支持使用时间序列列创建主键
UNSUPPORTED_TIMESERIES_WITH_MORE_THAN_ONE_COLUMN
不支持创建具有多个时序列 <colSeq>
的主键
UNSUPPORTED_TIME_PRECISION
TIME 数据类型的秒精度 <precision>
超过支持的范围 [0, 6]。
不支持的时间类型
不支持数据类型 TIME。
UNSUPPORTED_TRIGGER_FOR_KINESIS_SOURCE
<trigger>
在 Kinesis 源中不受支持。
UNSUPPORTED_TYPED_LITERAL
不支持 <unsupportedType>
类型的文本。 支持的类型是 <supportedTypes>
。
UNSUPPORTED_UDF_FEATURE
函数 <function>
使用以下需要较新版本的 Databricks Runtime 的功能:<features>
。 有关详细信息,请参阅 <docLink>
。
UNSUPPORTED_UDF_TYPES_IN_SAME_PLACE
UDF 类型不能一起使用:<types>
UNTYPED_SCALA_UDF
你正在使用非类型化的 Scala UDF,则该 UDF 没有输入类型信息。
Spark 可能会盲目地将 null 传递给具有基元类型参数的 Scala 闭包,闭包将会看到该 null 参数对应的 Java 类型的默认值,例如 udf((x: Int) => x, IntegerType)
,对于 null 输入结果是 0。 若要摆脱此错误,可以:
使用类型化的 Scala UDF API(不含返回类型参数),例如
udf((x: Int) => x)
。如果输入类型都是非基元,则使用 Java UDF API,例如
udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType)
。将“spark.sql.legacy.allowUntypedScalaUDF”设置为“true”,并谨慎使用此 API。
UPGRADE_NOT_SUPPORTED
表不符合从 Hive 元存储升级到 Unity Catalog 的条件。 原因:
有关更多详细信息,请参阅 UPGRADE_NOT_SUPPORTED
用户定义函数
用户定义的函数无效:
有关更多详细信息,请参阅 USER_DEFINED_FUNCTIONS
USER_RAISED_EXCEPTION
<errorMessage>
USER_RAISED_EXCEPTION_PARAMETER_MISMATCH
raise_error()
函数用于引发错误类:<errorClass>
,需要参数:<expectedParms>
。
提供的 <providedParms>
参数与预期的参数不匹配。
请确保提供所有预期的参数。
USER_RAISED_EXCEPTION_UNKNOWN_ERROR_CLASS
raise_error()
函数用于引发未知错误类:<errorClass>
VARIABLE_ALREADY_EXISTS
无法创建变量 <variableName>
,因为它已存在。
选择其他名称,或者删除或替换现有变量。
变量未找到
找不到变量 <variableName>
。 验证架构和目录的拼写和正确性。
如果名称未使用架构和目录限定,请检查 current_schema() 的输出,或者用正确的架构和目录来限定名称。
若要容许删除时出错,请使用 DROP VARIABLE IF EXISTS
。
VARIANT_CONSTRUCTOR_SIZE_LIMIT
无法构造大于 16 MiB 的 Variant。 Variant 值的最大允许大小为 16 MiB。
VARIANT_DUPLICATE_KEY
由于对象键 <key>
重复,无法生成变体。
变体大小限制
无法在 <sizeLimit>
中生成大于 <functionName>
的变体。
请避免向此表达式添加大型输入字符串(例如,添加函数调用)以检查表达式大小,并在太大时将其转换为 NULL
。
VERSIONED_CLONE_UNSUPPORTED_TABLE_FEATURE
源表历史记录包含此 DBR 版本中版本化克隆不支持的表功能:<unsupportedFeatureNames>
。
请升级到较新的 DBR 版本。
VIEW_ALREADY_EXISTS
无法创建视图 <relationName>
,因为它已存在。
选择其他名称,删除或替换现有对象,或添加 IF NOT EXISTS
子句以容忍预先存在的对象。
VIEW_EXCEED_MAX_NESTED_DEPTH
视图的深度 <viewName>
超出了最大视图分辨率深度(<maxNestedDepth>
)。
分析已中止以避免错误。 要解决此问题,请尝试增加“spark.sql.view.maxNestedViewDepth”的值。
VIEW_NOT_FOUND
找不到视图 <relationName>
。 验证架构和目录的拼写和正确性。
如果未使用架构限定名称,请验证 current_schema() 的输出,或者使用正确的架构和目录来限定名称。
若要容许删除时出错,请使用 DROP VIEW IF EXISTS
。
VOLUME_ALREADY_EXISTS
无法创建卷 <relationName>
,因为它已存在。
选择其他名称,删除或替换现有对象,或添加 IF NOT EXISTS
子句以容忍预先存在的对象。
WINDOW_FUNCTION_AND_FRAME_MISMATCH
<funcName>
函数只能在具有单个偏移量的基于有序行的窗口框架中进行计算:<windowExpr>
。
WINDOW_FUNCTION_WITHOUT_OVER_CLAUSE
窗口函数 <funcName>
需要 OVER 子句。
WITH_CREDENTIAL
WITH CREDENTIAL
不支持 <type>
语法。
WRITE_STREAM_NOT_ALLOWED
writeStream
”只能在流式处理的数据集/数据帧上调用。
WRONG_COLUMN_DEFAULTS_FOR_DELTA_ALTER_TABLE_ADD_COLUMN_NOT_SUPPORTED
无法执行命令,因为添加新值时不支持 DEFAULT
值
不支持 DEFAULT 值;请先添加没有默认值的列,
然后运行第二个 ALTER TABLE ALTER COLUMN SET DEFAULT
命令来应用
请求将来插入的行。
WRONG_COLUMN_DEFAULTS_FOR_DELTA_FEATURE_NOT_ENABLED
未能执行 <commandType>
命令,因为它分配了列 DEFAULT
值,
但未启用相应的表功能。 请再次重试该命令
执行 ALTER TABLE
tableName SET
后
TBLPROPERTIES
('delta.feature.allowColumnDefaults' = 'supported').
命令与对象类型不匹配
操作 <operation>
需要 <requiredType>
。 但 <objectName>
是 <foundType>
。 请改用 <alternative>
。
WRONG_NUM_ARGS
<functionName>
需要 <expectedNum>
个参数,但实际数量为 <actualNum>
。
有关更多详细信息,请参阅 WRONG_NUM_ARGS
XML_ROW_TAG_MISSING
以 XML 格式读取/写入文件需要 <rowTag>
选项。
XML_UNSUPPORTED_NESTED_TYPES
XML 不支持 <innerDataType>
作为内部类型 <dataType>
。 在 <innerDataType>
中使用时,请将 <dataType>
包装在 StructType 字段中。
XML_WILDCARD_RESCUED_DATA_CONFLICT_ERROR
无法同时启用已获救的数据和通配符列。 请删除 wildcardColumnName 选项。
ZORDERBY_COLUMN_DOES_NOT_EXIST
ZOrderBy 列 <columnName>
不存在。
Delta Lake
未找到激活的Delta Spark会话
找不到活动的 SparkSession。
DELTA_ACTIVE_TRANSACTION_ALREADY_SET
当一个 txn 已处于活动状态时,无法将新的 txn 设置为活动状态。
DELTA_ADDING_COLUMN_WITH_INTERNAL_NAME_FAILED
无法添加列 <colName>
,因为名称是保留的。
DELTA_ADDING_DELETION_VECTORS_DISALLOWED
当前操作尝试将删除向量添加到不允许创建新删除向量的表中。 请提交 bug 报告。
DELTA_ADDING_DELETION_VECTORS_WITH_TIGHT_BOUNDS_DISALLOWED
所有添加删除向量的操作应将统计信息中的 tightBounds 列设置为 false。 请提交 bug 报告。
DELTA_ADD_COLUMN_AT_INDEX_LESS_THAN_ZERO
要添加列 <columnIndex>
的索引 <columnName>
小于 0。
DELTA_ADD_COLUMN_PARENT_NOT_STRUCT
无法添加 <columnName>
,因为其父级不是 StructType。 已找到 <other>
。
DELTA_ADD_COLUMN_STRUCT_NOT_FOUND
在位置 <position>
上找不到结构。
DELTA_ADD_CONSTRAINTS
请使用 ALTER TABLE
ADD CONSTRAINT
来添加 CHECK
约束。
DELTA_AGGREGATE_IN_GENERATED_COLUMN
已找到 <sqlExpr>
。 生成的列不能使用聚合表达式。
DELTA_AGGREGATION_NOT_SUPPORTED
<operation> <predicate>
不支持聚合函数。
DELTA_ALTER_COLLATION_NOT_SUPPORTED_BLOOM_FILTER
无法更改列 <column>
的排序规则,因为它具有布隆过滤器索引。 请保留现有的排序规则,或者删除 bloom 筛选器索引,然后再次重试该命令以更改排序规则。
DELTA_ALTER_COLLATION_NOT_SUPPORTED_CLUSTER_BY
无法更改列 <column>
的排序规则,因为它是聚类分析列。 请保留现有的排序规则,或者使用 ALTER TABLE
命令将列更改为非聚集列,然后再次重试该命令以更改排序规则。
DELTA_ALTER_TABLE_CHANGE_COL_NOT_SUPPORTED
ALTER TABLE CHANGE COLUMN
不支持将列 <currentType>
更改为 <newType>
.
DELTA_ALTER_TABLE_CLUSTER_BY_NOT_ALLOWED
只有使用 Liquid 聚类分析的 Delta 表才支持 ALTER TABLE CLUSTER BY
。
DELTA_ALTER_TABLE_CLUSTER_BY_ON_PARTITIONED_TABLE_NOT_ALLOWED
无法将 ALTER TABLE CLUSTER BY
应用于分区表。
DELTA_ALTER_TABLE_RENAME_NOT_ALLOWED
不允许的操作:不允许对 S3 上的托管 Delta 表执行 ALTER TABLE RENAME
TO 操作,因为 S3 上的最终一致性可能会损坏 Delta 事务日志。 如果你坚持这样做,并确保以前从未有一个具有新名称的 Delta 表 <newName>
,则可以通过将 <key>
设置为 true 来启用此功能。
DELTA_ALTER_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
无法使用 <tableFeature>
启用 ALTER TABLE SET TBLPROPERTIES
表功能。 请使用 CREATE
OR REPLACE TABLE CLUSTER BY
创建包含聚类分析的 Delta 表。
DELTA_ALTER_TABLE_SET_MANAGED_DOES_NOT_SUPPORT_UNIFORM_ICEBERG
ALTER
TABLE ...
SET MANAGED
不支持统一 Iceberg 表。 禁用统一并重试。
DELTA_ALTER_TABLE_SET_MANAGED_FAILED
ALTER TABLE <table> SET MANAGED
失败。
有关更多详细信息,请参阅 DELTA_ALTER_TABLE_SET_MANAGED_FAILED
DELTA_ALTER_TABLE_SET_MANAGED_NOT_ENABLED
ALTER TABLE
... SET MANAGED
命令未启用。 请联系 Databricks 支持团队以获取帮助。
DELTA_ALTER_TABLE_UNSET_MANAGED_FAILED
<table>
无法从托管表回滚到外部表。
有关更多详细信息,请参阅 DELTA_ALTER_TABLE_UNSET_MANAGED_FAILED
DELTA_ALTER_TABLE_UNSET_MANAGED_NOT_ENABLED
ALTER TABLE
... UNSET MANAGED
命令未启用。 请联系 Databricks 支持团队以获取帮助。
DELTA_AMBIGUOUS_DATA_TYPE_CHANGE
无法将 <column>
数据类型从 <from>
更改为 <to>
。 此更改包含列删除和添加,因此它们不明确。 请使用 ALTER TABLE
[ADD | DROP | RENAME
] COLUMN
单独进行这些更改。
DELTA_AMBIGUOUS_PARTITION_COLUMN
不明确的分区列 <column>
可以是 <colMatches>
。
DELTA_AMBIGUOUS_PATHS_IN_CREATE_TABLE
CREATE TABLE
包含两个不同的位置:<identifier>
和 <location>
。
可以从 LOCATION
语句中删除 CREATE TABLE
子句,或设置
<config>
为 true 以跳过此检查。
DELTA_ARCHIVED_FILES_IN_LIMIT
表 <table>
在非存档文件中没有足够的记录,无法满足 LIMIT
条记录的指定 <limit>
。
DELTA_ARCHIVED_FILES_IN_SCAN
在表 <numArchivedFiles>
中找到可能归档的 <table>
文件,这些文件需要作为此查询的一部分被扫描。
无法访问存档的文件。 将存档配置为 <archivalTime>
之前的当前时间。
请调整查询筛选器以排除任何存档的文件。
DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION
当表已启用更改数据馈送 (CDF) 并使用 DROP COLUMN
或 RENAME COLUMN
进行了架构更改时,不允许执行“<opName>
”操作。
DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS
无法为以下不存在的列删除布隆筛选器索引:<unknownColumns>
。
DELTA_BLOOM_FILTER_OOM_ON_WRITE
在为以下列编写 bloom 筛选器索引时发生 OutOfMemoryError:<columnsWithBloomFilterIndices>
。
可以通过为“numItems”选项选择更小的值、为“fpp”选项选择更大的值或为更少的列编制索引来减少 bloom 筛选器索引的内存占用。
DELTA_CANNOT_CHANGE_DATA_TYPE
无法更改数据类型: <dataType>
.
DELTA_CANNOT_CHANGE_LOCATION
无法使用 SET TBLPROPERTIES
更改 Delta 表的“位置”。 请改用 ALTER TABLE SET LOCATION
。
DELTA_无法更改供应商
“provider”是保留的表属性,不能更改。
DELTA_CANNOT_CREATE_BLOOM_FILTER_NON_EXISTING_COL
无法为以下不存在的列创建布隆筛选器索引:<unknownCols>
。
DELTA_无法创建日志路径
无法创建 <path>
。
DELTA_CANNOT_DESCRIBE_VIEW_HISTORY
无法描述视图的历史。
DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN
无法删除非索引列上的布隆筛选器索引:<columnName>
。
DELTA_CANNOT_DROP_CHECK_CONSTRAINT_FEATURE
无法删除 CHECK
约束表功能。
必须先删除以下约束:<constraints>
。
DELTA_CANNOT_DROP_COLLATIONS_FEATURE
无法删除排序规则表功能。
具有非默认排序规则的列必须首先更改为使用 UTF8_BINARY:<colNames>
。
DELTA_无法评估表达式
无法计算表达式: <expression>
.
DELTA_CANNOT_FIND_BUCKET_SPEC
期望一个分桶 Delta 表,但在表中找不到分桶规范。
DELTA_无法为表达式生成代码
无法为表达式生成代码: <expression>
.
DELTA_CANNOT_MODIFY_APPEND_ONLY
此表配置为仅允许追加。 如果要允许更新或删除,请使用“”。ALTER TABLE <table_name> SET TBLPROPERTIES (<config> =false)
DELTA_CANNOT_MODIFY_CATALOG_OWNED_DEPENDENCIES
无法覆盖或取消设置提交中时间戳表属性,因为此表由目录拥有。 从 TBLPROPERTIES
子句中删除“delta.enableInCommitTimestamps”、“delta.inCommitTimestampEnablementVersion”和“delta.inCommitTimestampEnablementTimestamp”,然后重试该命令。
DELTA_CANNOT_MODIFY_COORDINATED_COMMITS_DEPENDENCIES
<Command>
无法重写或解除设置提交时间戳表属性,因为此表已启用协调提交功能,并依赖于这些属性。 请从 TBLPROPERTIES
子句中删除它们(“delta.enableInCommitTimestamps”、“delta.inCommitTimestampEnablementVersion”、“delta.inCommitTimestampEnablementTimestamp”),然后重试命令。
DELTA_无法修改表属性
不能由用户指定 Delta 表配置 <prop>
。
DELTA_CANNOT_OVERRIDE_COORDINATED_COMMITS_CONFS
<Command>
无法替代现有目标表的协调提交配置。 请从 TBLPROPERTIES
子句中删除它们 ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview", "delta.coordinatedCommits.tableConf-preview"),然后重试命令。
DELTA_CANNOT_RECONSTRUCT_PATH_FROM_URI
在事务日志中找到无法转换为相对路径的 uri (<uri>
)。
DELTA_CANNOT_RELATIVIZE_PATH
一个无法通过事务日志中找到的当前输入相对化的 (<path>
)
事务日志。 请用以下方式重新运行:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<userPath>
", true)
然后同时运行:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<path>
")
DELTA_CANNOT_RENAME_PATH
无法重命名 <currentPath>
为 <newPath>
.
无法用Delta替换缺失的表
无法替换表 <tableName>
,因为它不存在。 使用 CREATE
OR REPLACE TABLE
创建表。
DELTA_CANNOT_RESOLVE_CLUSTERING_COLUMN
由于出现意外错误,无法解析<columnName>
中的聚类列<schema>
。 运行 ALTER TABLE
... CLUSTER BY
... 以修复 Delta 聚类元数据。
DELTA_CANNOT_RESOLVE_COLUMN
无法解析 <schema>
中的列 <columnName>
DELTA_CANNOT_RESTORE_TABLE_VERSION
无法将表还原到版本 <version>
。 可用版本:[<startVersion>
,<endVersion>
]。
DELTA_无法将时间戳恢复至更早时间
无法将表还原到时间戳(<requestedTimestamp>
),因为它在可用的最早版本之前。 请在 (<earliestTimestamp>
) 之后使用时间戳。
DELTA_CANNOT_RESTORE_TIMESTAMP_GREATER
无法将表还原到时间戳(<requestedTimestamp>
),因为该时间戳晚于当前最新版本。 请在 (<latestTimestamp>
) 之前使用时间戳。
DELTA_CANNOT_SET_COORDINATED_COMMITS_DEPENDENCIES
<Command>
无法将提交中的时间戳表属性与协调的提交一起设置,因为后者依赖于前者并在内部设置前者。 请从 TBLPROPERTIES
子句中删除它们(“delta.enableInCommitTimestamps”、“delta.inCommitTimestampEnablementVersion”、“delta.inCommitTimestampEnablementTimestamp”),然后重试命令。
DELTA_CANNOT_SET_LOCATION_ON_PATH_IDENTIFIER
无法更改基于路径的表的位置。
DELTA_CANNOT_SET_MANAGED_STATS_COLUMNS_PROPERTY
无法在非 DLT 表上设置 delta.managedDataSkippingStatsColumns。
DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_COMMAND
当启用“unity-catalog”作为提交协调器时,无法从命令设置配置“<configuration>
”。 请将其从 TBLPROPERTIES
子句中删除,然后再次重试该命令。
DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_SESSION
启用“unity-catalog”作为提交协调器时,无法从 SparkSession 配置中设置配置“<configuration>
”。 请通过运行 spark.conf.unset("<configuration>")
将其取消设置,然后再次重试该命令。
DELTA_CANNOT_UNSET_COORDINATED_COMMITS_CONFS
ALTER
无法取消设置协调的提交配置。 若要从协调提交降级表,请使用 ALTER
TABLE[table-name]
DROP FEATURE 'coordinatedCommits-preview'
重试。
DELTA_无法更新数组字段
无法更新 <tableName>
字段 <fieldName>
类型:通过更新 <fieldName>
.element` 来更新元素。
DELTA_无法更新_MAP_字段
无法更新 <tableName>
字段 <fieldName>
类型:通过更新 <fieldName>.key
或 <fieldName>.value
来更新映射。
DELTA_CANNOT_UPDATE_OTHER_FIELD
无法更新 <tableName>
类型的 <typeName>
字段。
DELTA_CANNOT_UPDATE_STRUCT_FIELD
无法更新 <tableName>
字段 <fieldName>
类型:通过添加、删除或更新其字段来更新结构体。
DELTA_CANNOT_USE_ALL_COLUMNS_FOR_PARTITION
不能将所有列作为分区列使用。
DELTA_CANNOT_VACUUM_LITE
VACUUM
LITE 无法删除所有符合条件的文件,因为 Delta 日志未引用某些文件。 请运行 VACUUM FULL
。
DELTA_CANNOT_WRITE_INTO_VIEW
<table>
是视图。 不支持对视图的写入。
DELTA_CAST_OVERFLOW_IN_TABLE_WRITE
由于溢出,无法将 <sourceType>
类型的值写入 <targetType>
类型列 <columnName>
。
请对输入值使用 try_cast
来容忍溢出并改为返回 NULL
。
如有必要,将 <storeAssignmentPolicyFlag>
设置为“LEGACY
”以绕过此错误,或将 <updateAndMergeCastingFollowsAnsiEnabledFlag>
设置为 true 以恢复旧行为,并在 UPDATE
和 MERGE
中遵循 <ansiEnabledFlag>
。
此版本中不允许使用DELTA_CDC
配置 delta.enableChangeDataFeed 无法被设置。 来自 Delta 的更改数据馈送尚不可用。
DELTA_CDC_READ_NULL_RANGE_BOUNDARY
CDC 读取开始/结束参数不能为 null。 请提供有效的版本或时间戳。
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_DATA_SCHEMA
由于数据架构不兼容,检索版本 <start>
和 <end>
之间的表更改失败。
你的读取架构是版本 <readSchema>
中的 <readVersion>
,但我们发现版本 <incompatibleVersion>
中的数据架构不兼容。
如果可能,请通过将 <config>
设置为 endVersion
使用最终版本的架构来检索表更改,或者联系支持人员。
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE
由于架构更改不兼容,在版本 <start>
和 <end>
之间检索表更改失败。
您的读取架构为版本 <readSchema>
的 <readVersion>
,但我们在版本 <incompatibleVersion>
中发现了不兼容的架构更改。
如果可能,请分别查询表从版本 <start>
到 <incompatibleVersion>
- 1 的更改,以及从版本 <incompatibleVersion>
到 <end>
的更改。
DELTA_CHANGE_DATA_FILE_NOT_FOUND
找不到事务日志中引用的文件 <filePath>
。 当从文件系统手动删除数据而不是使用表 DELETE
语句时,可能会发生这种情况。 此请求似乎是针对变更数据流的。如果是这种情况,当变更数据日志文件超出保留时间并被 VACUUM
语句删除时,可能会发生此错误。 有关详细信息,请参阅 <faqPath>
DELTA_CHANGE_TABLE_FEED_DISABLED
无法写入具有 delta.enableChangeDataFeed 集的表。 来自 Delta 的更改数据馈送不可用。
DELTA_CHECKPOINT_NON_EXIST_TABLE
无法为不存在的表 <path>
创建检查点。 是否手动删除_delta_log目录中的文件?
DELTA_CLONE_AMBIGUOUS_TARGET
提供了两个路径作为 CLONE
的目标,因而不明确使用哪一个。 在提供
路径的同时,还在 CLONE
处提供 <externalLocation>
的外部位置
<targetIdentifier>
。
DELTA_CLONE_INCOMPATIBLE_SOURCE
克隆源具有有效的格式,但具有 Delta 不支持的功能。
有关更多详细信息,请参阅 DELTA_CLONE_INCOMPATIBLE_SOURCE
DELTA_CLONE_INCOMPLETE_FILE_COPY
文件 (<fileName>
) 未完全复制。 预期文件大小 <expectedSize>
,找到:<actualSize>
。 若要忽略文件大小检查并继续操作,请将 <config>
设置为 false。
DELTA_CLONE_UNSUPPORTED_SOURCE
克隆源“<name>
”不受支持 <mode>
,其格式为 <format>
。
支持的格式为“delta”、“iceberg”和“parquet”。
DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_SOURCE
不支持的源表:
有关更多详细信息,请参阅 DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_SOURCE
DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_TARGET
不支持的目标表:
有关更多详细信息,请参阅 DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_TARGET
DELTA_CLUSTERING_CLONE_TABLE_NOT_SUPPORTED
对于 DBR 版本 < 14.0
,Delta 表的 Liquid 聚类不支持 CLONE
。
DELTA_CLUSTERING_COLUMNS_DATATYPE_NOT_SUPPORTED
CLUSTER BY
不支持,因为以下列:<columnsWithDataTypes>
不支持数据跳过。
DELTA_CLUSTERING_COLUMNS_MISMATCH
提供的聚类分析列与现有的表不匹配。
提供的:
<providedClusteringColumns>
现有的:
<existingClusteringColumns>
DELTA_CLUSTERING_COLUMN_MISSING_STATS
液体聚类分析需要聚类分析列具有统计信息。在统计信息架构中找不到聚类分析列“<columns>
”:
<schema>
DELTA_CLUSTERING_CREATE_EXTERNAL_NON_LIQUID_TABLE_FROM_LIQUID_TABLE
不允许从具有流动聚类的表目录中创建不使用流动聚类的外部表;路径:<path>
。
DELTA_CLUSTERING_NOT_SUPPORTED
“<operation>
”不支持聚类分析。
DELTA_CLUSTERING_PHASE_OUT_FAILED
无法使用 <phaseOutType>
表功能完成表的 <tableFeatureToAdd>
(原因:<reason>
)。 请再次尝试 OPTIMIZE
命令。
== 错误 ==
<error>
DELTA_CLUSTERING_REPLACE_TABLE_WITH_PARTITIONED_TABLE
不允许通过 REPLACE
命令将使用 Liquid 聚类分析的 Delta 表替换为已分区表。
DELTA_CLUSTERING_SHOW_CREATE_TABLE_WITHOUT_CLUSTERING_COLUMNS
使用 Liquid 聚类分析的 Delta 表(无任何聚类分析列)不支持 SHOW CREATE TABLE
。
DELTA_CLUSTERING_TO_PARTITIONED_TABLE_WITH_NON_EMPTY_CLUSTERING_COLUMNS
当现有表具有非空聚类分析列时,不允许将具有 Liquid 聚类分析的 Delta 表转换为分区表:<operation>
。
请先运行 ALTER TABLE CLUSTER BY
NONE 来删除聚类列。
DELTA_CLUSTERING_WITH_DYNAMIC_PARTITION_OVERWRITE
使用 Liquid 集群的 Delta 表不允许动态分区覆盖模式。
DELTA_CLUSTERING_WITH_PARTITION_PREDICATE
OPTIMIZE
Delta 表的 Liquid 聚类命令不支持分区谓词。 请删除谓词:<predicates>
。
DELTA_CLUSTERING_WITH_ZORDER_BY
具有 Liquid 聚类分析的 Delta 表的 OPTIMIZE
命令不能指定 ZORDER BY
。 请删除 ZORDER BY (<zOrderBy>
。
DELTA_CLUSTER_BY_AUTO_MISMATCH
提供的 clusterByAuto 值与现有表的值不匹配。
DELTA_CLUSTER_BY_INVALID_NUM_COLUMNS
Liquid 聚类分析的 CLUSTER BY
支持最多 <numColumnsLimit>
个聚类分析列,但该表具有 <actualNumColumns>
个聚类分析列。 请删除额外的聚类列。
DELTA_CLUSTER_BY_SCHEMA_NOT_PROVIDED
不允许在未定义架构时指定 CLUSTER BY
。 请为表 <tableName>
定义架构。
DELTA_CLUSTER_BY_WITH_BUCKETING
无法同时指定聚类分析和分桶。 如果要创建包含群集的 Delta 表,请删除 CLUSTERED BY INTO BUCKETS
/bucketBy。
DELTA_CLUSTER_BY_WITH_PARTITIONED_BY
无法同时指定聚类分析和分区。 如果要创建具有聚类分析的 Delta 表,请删除 PARTITIONED BY
/partitionBy/partitionedBy。
DELTA_COLLATIONS_NOT_SUPPORTED
Delta Lake 不支持排序规则。
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_PARTITIONED_COLUMN
分区列“<column>
”不支持跳过数据。
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_TYPE
类型为 <type>
的列“<column>
”不支持跳过数据。
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET
未在启用列映射的表中设置最大列 ID 属性(<prop>
)。
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET_CORRECTLY
启用列映射的表的最大列 ID 属性(<prop>
)是 <tableMax>
,不能小于所有字段的最大列 ID(<fieldMax>
)。
DELTA_COLUMN_MISSING_DATA_TYPE
未提供列 <colName>
的数据类型。
DELTA_COLUMN_NOT_FOUND
无法在给定的 [<columnList>
] 中找到列 <columnName>
。
DELTA_COLUMN_NOT_FOUND_IN_MERGE
无法从 INSERT
列中找到目标表的列 '<targetCol>
':<colNames>
。 INSERT
子句必须为目标表的所有列指定值。
DELTA_COLUMN_NOT_FOUND_IN_SCHEMA
在下列位置无法找到 <columnName>
列:
<tableSchema>
DELTA_COLUMN_PATH_NOT_NESTED
预期 <columnPath>
是嵌套数据类型,但却发现了 <other>
。 正在查找
嵌套字段中 <column>
的索引。
图式:
<schema>
DELTA_COLUMN_STRUCT_TYPE_MISMATCH
结构列 <source>
不能插入到 <targetType>
中的 <targetField>
字段 <targetTable>
中。
DELTA_COMMIT_INTERMEDIATE_REDIRECT_STATE
无法处理重定向表状态 '<state>
' 中的表提交。
DELTA_COMPACTION_VALIDATION_FAILED
验证路径 <compactedPath>
到 <newPath>
的压缩失败:请提交 bug 报告。
DELTA_COMPLEX_TYPE_COLUMN_CONTAINS_NULL_TYPE
在数据类型为 <columName>
的 <dataType>
列中找到嵌套的 NullType。 Delta 不支持在复杂类型中写入 NullType。
DELTA_CONCURRENT_APPEND
ConcurrentAppendException:已通过并发更新将文件添加到 <partition>
。 <retryMsg> <conflictingCommit>
有关更多详细信息,请参阅 <docLink>
。
DELTA_CONCURRENT_DELETE_DELETE
ConcurrentDeleteDeleteException:此事务尝试通过并发更新删除一个或多个文件(例如 <file>
)。 请重试该操作。<conflictingCommit>
有关更多详细信息,请参阅 <docLink>
。
DELTA_CONCURRENT_DELETE_READ
ConcurrentDeleteReadException:此事务尝试通过并发更新读取删除的一个或多个文件(例如 <file>
)。 请重试该操作。<conflictingCommit>
有关更多详细信息,请参阅 <docLink>
。
DELTA_CONCURRENT_TRANSACTION
ConcurrentTransactionException:当多个流式处理查询使用相同的检查点写入此表时,会发生此错误。 是否同时运行同一流查询的多个实例?<conflictingCommit>
有关更多详细信息,请参阅 <docLink>
。
DELTA_CONCURRENT_WRITE
ConcurrentWriteException:并发事务已写入新数据,因为当前事务读取表。 请重试该操作。<conflictingCommit>
有关更多详细信息,请参阅 <docLink>
。
DELTA_CONFLICT_SET_COLUMN
这些 SET
列 <columnList>
之间存在冲突。
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_COMMAND
在 <command>
期间,无法从命令设置配置“<configuration>
”。 请将其从 TBLPROPERTIES
子句中删除,然后再次重试该命令。
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_SESSION
在 <command>
期间,无法从 SparkSession 配置中设置配置“<configuration>
”。 请通过运行 spark.conf.unset("<configuration>")
将其取消设置,然后再次重试该命令。
DELTA_CONSTRAINT_ALREADY_EXISTS
约束“<constraintName>
”已存在。 请先删除旧约束。
旧约束:
<oldConstraint>
DELTA_CONSTRAINT_DATA_TYPE_MISMATCH
列 <columnName>
具有数据类型 <columnType>
,无法更改为数据类型 <dataType>
,因为以下检查约束引用了此列:
<constraints>
DELTA_CONSTRAINT_DEPENDENT_COLUMN_CHANGE
无法更改列 <columnName>
,因为以下检查约束引用了此列:
<constraints>
DELTA约束不存在
无法从表 <constraintName>
中删除不存在的约束 <tableName>
。 若要避免引发错误,请提供参数 IF EXISTS
或将 SQL 会话配置 <config>
设置为 <confValue>
。
DELTA_CONVERSION_MERGE_ON_READ_NOT_SUPPORTED
不支持转换读取时合并 <format>
表:<path>
、<hint>
DELTA_CONVERSION_NO_PARTITION_FOUND
在表 <tableName>
的目录中找不到分区信息。 是否在表上运行了“MSCK REPAIR TABLE
”以发现分区?
DELTA_CONVERSION_UNSUPPORTED_COLLATED_PARTITION_COLUMN
无法将已排序分区列的 Parquet 表 <colName>
转换为 Delta。
DELTA_CONVERSION_UNSUPPORTED_COLUMN_MAPPING
使用 CONVERT
TO DELTA
时,无法将配置 '<config>
' 设置为 <mode>
。
DELTA_CONVERSION_UNSUPPORTED_SCHEMA_CHANGE
找到了 <format>
表不支持的架构更改:<path>
、<hint>
DELTA_CONVERT_NON_PARQUET_TABLE
CONVERT
TO DELTA
仅支持 Parquet 表,但你尝试转换的 <sourceName>
源是:<tableId>
。
DELTA_CONVERT_TO_DELTA_ROW_TRACKING_WITHOUT_STATS
如果不收集统计信息,则无法启用行跟踪。
如果要启用行跟踪,请执行以下作:
- 通过运行命令启用统计信息收集
SET <statisticsCollectionPropertyKey>
= true
- 在没有 NO
CONVERT
选项的情况下运行DELTA
TOSTATISTICS
。
如果不想收集统计信息,请禁用行跟踪:
- 默认情况下,通过运行以下命令停用启用表功能:
RESET <rowTrackingTableFeatureDefaultKey>
- 默认情况下,通过运行以下命令停用表属性:
SET <rowTrackingDefaultPropertyKey>
= 假
DELTA_COPY_INTO_TARGET_FORMAT
COPY INTO
目标必须是 Delta 表。
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_SCHEMA
你正在尝试创建外部表 <tableName>
<path>
创建外部表
输入路径为空。
若要了解有关 Delta 的详细信息,请参阅 <docLink>
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_TXN_LOG
你正尝试使用 Delta 从 <path>
创建外部表 <tableName>
,但在 <logPath>
处没有事务日志。 检查上游作业以确保它使用 format("delta") 写入,并且路径是表的根目录。
若要了解有关 Delta 的详细信息,请参阅 <docLink>
DELTA_CREATE_TABLE_IDENTIFIER_LOCATION_MISMATCH
不支持创建具有不同位置的基于路径的 Delta 表。 标识符: <identifier>
,位置: <location>
.
DELTA_CREATE_TABLE_MISSING_TABLE_NAME_OR_LOCATION
必须指定表单名称或位置。
DELTA_CREATE_TABLE_SCHEME_MISMATCH
指定的架构与 <path>
的现有架构不匹配。
== 指定的 ==
<specifiedSchema>
== 现有 ==
<existingSchema>
== 差异 ==
<schemaDifferences>
如果打算保留现有架构,可以省略
从 create table 命令省略该架构。 否则请确保
架构匹配。
DELTA_CREATE_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
无法使用 <tableFeature>
启用 TBLPROPERTIES
表功能。 请使用 CREATE
OR REPLACE TABLE CLUSTER BY
创建包含聚类分析的 Delta 表。
DELTA_CREATE_TABLE_WITH_DIFFERENT_CLUSTERING
指定的聚类分析列与 <path>
的现有聚类分析列不匹配。
== 指定的 ==
<specifiedColumns>
== 现有 ==
<existingColumns>
DELTA_创建带有不同分区的表
指定的分区与 <path>
的现有分区不匹配。
== 指定的 ==
<specifiedColumns>
== 现有 ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PROPERTY
指定的属性与 <path>
的现有属性不匹配。
== 指定的 ==
<specifiedProperties>
== 现有 ==
<existingProperties>
DELTA_CREATE_TABLE_WITH_NON_EMPTY_LOCATION
无法创建表(“<tableId>
”)。 关联的位置(“<tableLocation>
”)不为空,也不是 Delta 表。
DELTA_DATA_CHANGE_FALSE
无法更改表元数据,因为“dataChange”选项设置为 false。 尝试的操作:“<op>
”。
DELTA_DELETED_PARQUET_FILE_NOT_FOUND
找不到事务日志中引用的文件 <filePath>
。 可以在 Delta 的数据保留策略下删除此 parquet 文件。
默认数据保留持续时间:<logRetentionPeriod>
。 Prquet 文件的修改时间:<modificationTime>
。 Prquet 文件的删除时间:<deletionTime>
。 删除的 Delta 版本:<deletionVersion>
。
DELTA_DELETION_VECTOR_MISSING_NUM_RECORDS
提交包含缺少 numRecords 统计信息的删除向量的文件无效。
DELTA_DISABLE_SOURCE_MATERIALIZATION_IN_MERGE_NOT_ALLOWED
通过将“spark.databricks.delta.merge.materializeSource”设置为“none”来禁用 MERGE
中的源具体化是不允许的。
DELTA_DOMAIN_METADATA_NOT_SUPPORTED
检测到域 <domainNames>
的 DomainMetadata 操作,但未启用 DomainMetadataTableFeature。
DELTA_DROP_COLUMN_AT_INDEX_LESS_THAN_ZERO
要删除列的索引 <columnIndex>
小于 0。
DELTA_DROP_COLUMN_ON_SINGLE_FIELD_SCHEMA
无法从具有单个列的架构中删除列。 图式:
<schema>
DELTA_DUPLICATE_ACTIONS_FOUND
针对路径 <path>
多次指定了文件操作“<actionType>
”。
它与 <conflictingPath>
冲突。
在单个提交中,不允许存在具有相同路径的多个文件操作。
DELTA_DUPLICATE_COLUMNS_FOUND
找到重复的列<coltype>
:<duplicateCols>
。
DELTA_DUPLICATE_COLUMNS_ON_INSERT
INSERT
子句中的列名重复。
DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE
<message>
请在更新表之前删除重复的列。
DELTA_DUPLICATE_DATA_SKIPPING_COLUMNS
找到了重复的数据跳过列:<columns>
。
DELTA_DUPLICATE_DOMAIN_METADATA_INTERNAL_ERROR
内部错误:同一事务中的两个 DomainMetadata 操作具有相同的域 <domainName>
。
DELTA_DV_HISTOGRAM_DESERIALIZATON
无法在表完整性验证期间反序列化已删除的记录计数直方图。
DELTA_DYNAMIC_PARTITION_OVERWRITE_DISABLED
动态分区覆盖模式由会话配置或写入选项指定,但由 spark.databricks.delta.dynamicPartitionOverwrite.enabled=false
禁用。
DELTA_EMPTY_DATA
创建 Delta 表时使用的数据没有任何列。
DELTA_EMPTY_DIRECTORY
目录中未找到任何文件:<directory>
。
DELTA_EXCEED_CHAR_VARCHAR_LIMIT
值“<value>
”超过了 char/varchar 类型长度限制。 检查失败:<expr>
。
DELTA_FAILED_CAST_PARTITION_VALUE
未能将分区值 <value>
转换为 <dataType>
。
DELTA_无法在输出列中找到属性
在现有目标输出<newAttributeName>
中找不到 <targetOutputColumns>
。
DELTA_FAILED_INFER_SCHEMA
无法从给定的文件列表中推断架构。
DELTA_FAILED_MERGE_SCHEMA_FILE
未能合并文件 <file>
的架构:
<schema>
DELTA_FAILED_OPERATION_ON_SHALLOW_CLONE
由于浅克隆<sourceTable>
仍然存在,并且其中发生了以下错误:<targetTable>
,所以无法在源表<message>
上运行操作。
DELTA_FAILED_READ_FILE_FOOTER
无法读取文件的页脚:<currentFile>
。
DELTA_FAILED_RECOGNIZE_PREDICATE
无法识别谓词“<predicate>
”。
DELTA_FAILED_SCAN_WITH_HISTORICAL_VERSION
期望对 Delta 源的最新版本进行全扫描,但找到的是版本 <historicalVersion>
的历史扫描。
DELTA_FAILED_TO_MERGE_FIELDS
未能合并字段“<currentField>
”和“<updateField>
”。
DELTA_FEATURES_PROTOCOL_METADATA_MISMATCH
无法对此表进行作,因为下表功能在元数据中已启用,但未在协议中列出:<features>
。
DELTA_FEATURES_REQUIRE_MANUAL_ENABLEMENT
表架构需要手动启用以下表功能:<unsupportedFeatures>
。
为此,请针对上面列出的每个功能运行以下命令:
ALTER TABLE
table_name SET TBLPROPERTIES
('delta.feature.feature_name' = 'supported')
将“table_name”和“feature_name”替换为实际值。
当前支持的功能:<supportedFeatures>
。
DELTA_FEATURE_CAN_ONLY_DROP_CHECKPOINT_PROTECTION_WITH_HISTORY_TRUNCATION
无法删除检查点保护功能。
只能通过截断历史记录来删除此功能。
请使用 TRUNCATE HISTORY
选项重试:
ALTER TABLE
table_name DROP FEATURE
checkpointProtection TRUNCATE HISTORY
DELTA_FEATURE_DROP_CHECKPOINT_FAILED
由于检查点创建失败,删除 <featureName>
失败。
请稍后重试。 此问题仍然存在,请与 Databricks 支持部门联系。
DELTA_FEATURE_DROP_CHECKPOINT_PROTECTION_WAIT_FOR_RETENTION_PERIOD
操作未成功,因为仍然存在已删除特征的痕迹。
表历史记录中。 CheckpointProtection 在这些历史版本过期之前
无法删除。
若要删除 CheckpointProtection,请等待历史版本
过期,然后重复此命令。 历史版本的保留期为
当前配置为 <truncateHistoryLogRetentionPeriod>
。
DELTA_FEATURE_DROP_CONFLICT_REVALIDATION_FAIL
由于并发事务修改了表,因此无法删除功能。
请再次尝试该操作。
<concurrentCommit>
DELTA_FEATURE_DROP_DEPENDENT_FEATURE
无法删除表功能 <feature>
,因为此表中的一些其他功能(<dependentFeatures>
)依赖于 <feature>
。
在删除此功能之前,请考虑先删除它们。
DELTA_FEATURE_DROP_FEATURE_NOT_PRESENT
无法从此表中删除 <feature>
,因为它当前不存在于该表的协议中。
DELTA_FEATURE_DROP_HISTORICAL_VERSIONS_EXIST
无法删除 <feature>
,因为 Delta 日志包含使用该功能的历史版本。
请等到历史记录保留期(<logRetentionPeriodKey>=<logRetentionPeriod>
)
已通过,因为该功能最后处于活动状态。
或者,请等待 TRUNCATE HISTORY
保留期到期(<truncateHistoryLogRetentionPeriod>
)
然后运行:
ALTER TABLE
table_name DROP FEATURE
feature_name TRUNCATE HISTORY
DELTA_FEATURE_DROP_HISTORY_TRUNCATION_NOT_ALLOWED
特定功能不需要历史记录截断。
DELTA_FEATURE_DROP_NONREMOVABLE_FEATURE
无法删除 <feature>
,因为不支持删除此功能。
请联系 Databricks 支持部门。
DELTA_FEATURE_DROP_UNSUPPORTED_CLIENT_FEATURE
无法删除 <feature>
,因为此 Databricks 版本不支持它。
请考虑将 Databricks 与更高版本配合使用。
DELTA_FEATURE_DROP_WAIT_FOR_RETENTION_PERIOD
删除 <feature>
部分成功。
此功能现在不再用于表的当前版本。 但是,该功能
仍存在于表的历史版本中。 无法删除表功能
从表协议中,直到到这些历史版本已过期。
若要从协议中删除表功能,请等待历史版本
过期,然后重复此命令。 历史版本的保留期为
当前配置为 <logRetentionPeriodKey>=<logRetentionPeriod>
。
或者,请等待 TRUNCATE HISTORY
保留期到期(<truncateHistoryLogRetentionPeriod>
)
然后运行:
ALTER TABLE
table_name DROP FEATURE
feature_name TRUNCATE HISTORY
DELTA_FEATURE_REQUIRES_HIGHER_READER_VERSION
无法启用表功能 <feature>
,因为它需要更高的读取器协议版本(当前 <current>
)。 请考虑将表的读取器协议版本升级到 <required>
,或升级到支持读取器表功能的版本。 有关表协议版本的详细信息,请参阅 <docLink>
。
DELTA_FEATURE_REQUIRES_HIGHER_WRITER_VERSION
无法启用表功能 <feature>
,因为它需要更高的编写器协议版本(当前 <current>
)。 请考虑将表的编写器协议版本升级到 <required>
,或升级到支持编写器表功能的版本。 有关表协议版本的详细信息,请参阅 <docLink>
。
DELTA_FILE_ALREADY_EXISTS
现有文件路径 <path>
。
DELTA_FILE_LIST_AND_PATTERN_STRING_CONFLICT
不能同时指定文件列表和模式字符串。
DELTA_FILE_NOT_FOUND
文件路径 <path>
。
DELTA_FILE_NOT_FOUND_DETAILED
找不到事务日志中引用的文件 <filePath>
。 当从文件系统手动删除数据而不是使用表 DELETE
语句时,会出现这种情况。 有关详细信息,请参阅 <faqPath>
DELTA_FILE_OR_DIR_NOT_FOUND
没有此类文件或目录: <path>
。
DELTA_FILE_TO_OVERWRITE_NOT_FOUND
在候选文件中找不到要重写的文件(<path>
):
<pathList>
DELTA_FOUND_MAP_TYPE_COLUMN
已找到 MapType。 若要访问 MapType 的键或值,请指定一个
:
<key>
或
<value>
后跟列的名称(仅当该列是结构类型时)。
例如 mymap.key.mykey
如果列是基本类型,mymap.key或 mymap.value 就足够了。
图式:
<schema>
DELTA_GENERATED_COLUMNS_DATA_TYPE_MISMATCH
列 <columnName>
具有数据类型 <columnType>
,无法更改为数据类型 <dataType>
,因为以下生成的列引用了此列:
<generatedColumns>
。
DELTA_GENERATED_COLUMNS_DEPENDENT_COLUMN_CHANGE
无法更改列 <columnName>
,因为以下生成的列引用了此列:
<generatedColumns>
。
DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH
生成的列 <columnName>
的表达式类型是 <expressionType>
,但列类型为 <columnType>
。
DELTA_GENERATED_COLUMN_UPDATE_TYPE_MISMATCH
列 <currentName>
是一个生成列,或是一个被生成列使用的列。 数据类型是 <currentDataType>
且无法转换为数据类型 <updateDataType>
。
DELTA_GEOSPATIAL_不受支持
此版本的 Delta Lake 不支持地理空间类型。
DELTA_GEOSPATIAL_SRID_NOT_SUPPORTED
地理空间类型具有不受支持的 srid:<srid>
。 Delta 表仅支持非负 srid 值。
DELTA_ICEBERG_COMPAT_VIOLATION
IcebergCompatV<version>
验证失败。
有关更多详细信息,请参阅 DELTA_ICEBERG_COMPAT_VIOLATION
DELTA_ICEBERG_WRITER_COMPAT_VIOLATION
IcebergWriterCompatV<version>
的验证失败。
有关更多详细信息,请参阅 DELTA_ICEBERG_WRITER_COMPAT_VIOLATION
DELTA_IDENTITY_COLUMNS_ALTER_COLUMN_NOT_SUPPORTED
ALTER TABLE ALTER COLUMN
列不支持 IDENTITY
。
DELTA_IDENTITY_COLUMNS_ALTER_NON_DELTA_FORMAT
ALTER TABLE ALTER COLUMN SYNC IDENTITY
仅受 Delta 支持。
DELTA_IDENTITY_COLUMNS_ALTER_NON_IDENTITY_COLUMN
不能对非 ALTER TABLE ALTER COLUMN SYNC IDENTITY
列调用 IDENTITY
。
DELTA_IDENTITY_COLUMNS_EXPLICIT_INSERT_NOT_SUPPORTED
不支持为 GENERATED ALWAYS
AS IDENTITY
列 <colName>
提供值。
DELTA_IDENTITY_COLUMNS_ILLEGAL_STEP
IDENTITY
列步骤不能为 0。
DELTA_IDENTITY_COLUMNS_NON_DELTA_FORMAT
IDENTITY
列仅受 Delta 支持。
DELTA_IDENTITY_COLUMNS_PARTITION_NOT_SUPPORTED
不支持 PARTITIONED BY IDENTITY
列 <colName>
。
DELTA_IDENTITY_COLUMNS_REPLACE_COLUMN_NOT_SUPPORTED
包含 ALTER TABLE REPLACE COLUMNS
列的表不支持 IDENTITY
。
DELTA_IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE
<dataType>
列不支持 DataType IDENTITY
。
DELTA_IDENTITY_COLUMNS_UPDATE_NOT_SUPPORTED
不支持对 UPDATE
列 IDENTITY
运行 <colName>
。
DELTA_IDENTITY_COLUMNS_WITH_GENERATED_EXPRESSION
不能使用生成的列表达式指定 IDENTITY
列。
DELTA_ILLEGAL_OPTION
选项“<name>
”的值“<input>
”无效,<explain>
DELTA_ILLEGAL_USAGE
对 Delta 表执行 <option>
时不允许使用 <operation>
。
DELTA_INCONSISTENT_BUCKET_SPEC
Delta Bucketed 表上的 BucketSpec 与元数据中的 BucketSpec 不匹配。 预期:<expected>
。 实际为:<actual>
。
DELTA_INCONSISTENT_LOGSTORE_CONFS
(<setKeys>
) 不能设置为不同的值。 请仅设置其中一个值,或将其设置为相同的值。
DELTA_INCORRECT_ARRAY_ACCESS
错误地访问数组类型。 使用 arrayname.element.elementname 位置
添加到数组。
DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME
已找到 ArrayType。 若要访问 ArrayType 的元素,请指定
<rightName>
而不是 <wrongName>
。
图式:
<schema>
DELTA_INCORRECT_GET_CONF
使用 getConf()
而不是 conf.getConf()
。
DELTA_INCORRECT_LOG_STORE_IMPLEMENTATION
该错误通常在使用 LogStore 默认实现
(即 hdfslostore)在非 HDFS 存储系统上写入 Delta 表时发生。
若要获取表更新的事务 ACID 保证,必须使用
适合你的存储系统的正确 LogStore 实现。
有关详细信息,请参阅 <docLink>
。
DELTA_INDEX_LARGER_OR_EQUAL_THAN_STRUCT
要删除列的索引 <index>
等于或大于结构体长度:<length>
。
DELTA_INDEX_LARGER_THAN_STRUCT
要添加列 <columnName>
的索 <index>
引大于结构体长度:<length>
。
DELTA_INSERT_COLUMN_ARITY_MISMATCH
无法写入 '<tableName>
',<columnName>
;目标表有 <numColumns>
列,但插入的数据有 <insertColumns>
列。
DELTA_INSERT_COLUMN_MISMATCH
列 <columnName>
未在 INSERT
中指定。
DELTA_INVALID_AUTO_COMPACT_TYPE
自动压缩类型无效:<value>
。 允许的值为:<allowed>
。
DELTA_INVALID_BUCKET_COUNT
无效桶计数:<invalidBucketCount>
。 桶计数应该是一个正数,是 2 的幂,至少是 8。 可以改用 <validBucketCount>
。
DELTA_INVALID_BUCKET_INDEX
在分区列中找不到分桶列。
DELTA_INVALID_CALENDAR_INTERVAL_EMPTY
间隔不能为 null 或空白。
DELTA_INVALID_CDC_RANGE
从起始值 <start>
到结束值 <end>
的 CDC 范围无效。 结束不能早于开始。
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAME
属性名称“<columnName>
”包含 " ,;{}()\\n\\t="
中的无效字符。 请使用别名对其进行重命名。
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAMES
在架构的列名中发现 ' ,;{}()\n\t='
中的无效字符。
无效的列名:<invalidColumnNames>
。
请使用其他字符,然后重试。
或者,启用列映射以继续使用这些字符。
DELTA_INVALID_CLONE_PATH
CLONE
的目标位置必须是绝对路径或表名。 使用
绝对路径而不是 <path>
。
DELTA_INVALID_COLUMN_NAMES_WHEN_REMOVING_COLUMN_MAPPING
在架构的列名中发现 ' ,;{}()\n\t='
中的无效字符。
无效的列名:<invalidColumnNames>
。
如果列名中存在无效字符,则无法删除列映射。
请重命名列以删除无效字符,然后再次执行此命令。
DELTA_INVALID_FORMAT
检测到不兼容的格式。
在 <deltaRootPath>/_delta_log
处发现 Delta 事务日志,
但你正尝试使用 format("<format>
") 进行 <operation> <path>
。 必须在读取和
必须使用“format("delta")”。
若要了解有关 Delta 的详细信息,请参阅 <docLink>
DELTA_INVALID_GENERATED_COLUMN_REFERENCES
生成的列不能使用不存在的列或其他生成的列。
DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS
幂等 Dataframe 写入的选项无效:<reason>
DELTA_INVALID_INTERVAL
<interval>
不是有效的 INTERVAL
。
DELTA_INVALID_INVENTORY_SCHEMA
指定 INVENTORY
的架构不包含所有必填字段。 必填字段为:<expectedSchema>
DELTA_INVALID_ISOLATION_LEVEL
无效的隔离级别“<isolationLevel>
”。
DELTA_INVALID_LOGSTORE_CONF
(<classConfig>
)和(<schemeConfig>
)不能同时设置。 请仅设置其中一组。
DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA
你正在尝试使用 Delta 创建托管表 <tableName>
使用 Delta,但未指定架构。
若要了解有关 Delta 的详细信息,请参阅 <docLink>
DELTA_INVALID_PARTITION_COLUMN
<columnName>
不是表 <tableName>
中有效的分区列。
DELTA_INVALID_PARTITION_COLUMN_NAME
在 " ,;{}()\n\t="
的分区列中找到无效字符。 请将名称更改为分区列。 可以通过设置 spark.conf.set("spark.databricks.delta.partitionColumnValidity.enabled", false) 来关闭此检查,但不建议这样做,因为 Delta 的其他功能可能无法正常工作。
DELTA_INVALID_PARTITION_COLUMN_TYPE
不支持使用 <name>
类型的 <dataType>
列作为分区列。
DELTA_INVALID_PARTITION_PATH
分区路径片段应为类似于 part1=foo/part2=bar
的形式。 分区路径: <path>
.
DELTA_INVALID_PROTOCOL_DOWNGRADE
协议版本不能从 (<oldProtocol>
) 降级到 (<newProtocol>
)。
DELTA_INVALID_PROTOCOL_VERSION
不支持的 Delta 协议版本:表“<tableNameOrPath>
”需要读取器版本 <readerRequired>
和编写器版本 <writerRequired>
,但此版本的 Databricks 支持读取器版本 <supportedReaders>
和编写器版本 <supportedWriters>
。 请升级到较新版本。
DELTA_INVALID_TABLE_VALUE_FUNCTION
函数 <function>
是不支持用于 CDC 读取的表值函数。
DELTA_时间戳格式无效
提供的时间戳 <timestamp>
与预期的语法 <format>
不匹配。
DELTA_LOG_ALREADY_EXISTS
Delta 日志已存在于 <path>
.
DELTA_LOG_FILE_NOT_FOUND_FOR_STREAMING_SOURCE
如果从未删除它,则可能是查询未跟上进度。 请删除其检查点以从头开始。 为避免再次发生这种情况,你可以更新 Delta 表的保留策略。
DELTA_MATERIALIZED_ROW_TRACKING_COLUMN_NAME_MISSING
<rowTrackingColumn>
缺少具体化 <tableName>
列名称。
DELTA_MAX_ARRAY_SIZE_EXCEEDED
请使用小于 Int.MaxValue - 8 的限制。
DELTA_MAX_COMMIT_RETRIES_EXCEEDED
此提交失败,因为它已尝试 <numAttempts>
次,但均未成功。
这可能是由多个并发提交连续提交 Delta 表
造成的。
提交开始于版本:<startVersion>
提交失败的版本:<failVersion>
尝试提交的操作数:<numActions>
尝试此提交所用的总时间:<timeSpent>
ms
DELTA_MAX_LIST_FILE_EXCEEDED
文件列表必须最多有 <maxFileListSize>
个条目,实际有 <numFiles>
个。
DELTA_MERGE_ADD_VOID_COLUMN
无法添加类型为 VOID 的列 <newColumn>
。 请显式指定非 void 类型。
DELTA_MERGE_INCOMPATIBLE_DATATYPE
未能合并不兼容的数据类型 <currentDataType>
和 <updateDataType>
。
DELTA_MERGE_INCOMPATIBLE_DECIMAL_TYPE
无法合并与 <decimalRanges>
不兼容的十进制类型。
DELTA_MERGE_MATERIALIZE_SOURCE_FAILED_REPEATEDLY
保留已具体化的 MERGE
语句的源已一再失败。
DELTA_MERGE_MISSING_WHEN
WHEN
语句中必须至少有一个 MERGE
子句。
DELTA_MERGE_RESOLVED_ATTRIBUTE_MISSING_FROM_INPUT
运算符 <missingAttributes>
中的 <input>
缺失已解析属性 <merge>
。
DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY
意外的分配键:<unexpectedKeyClass>
- <unexpectedKeyObject>
。
DELTA_MERGE_UNRESOLVED_EXPRESSION
无法在 <clause>
给定的列 <cols>
中解析 <sqlExpr>
。
DELTA_METADATA_CHANGED
MetadataChangedException:Delta 表的元数据已由并发更新更改。 请重试该操作。<conflictingCommit>
有关更多详细信息,请参阅 <docLink>
。
DELTA_MISSING_CHANGE_DATA
获取 [<startVersion>
, <endVersion>
] 范围的更改数据时出错,因为未记录
版本 [<version>
] 的更改数据。 如果在此表上启用了更改数据馈送,
使用 DESCRIBE HISTORY
查看其首次启用时间。
否则,若要开始记录更改数据,请使用 ALTER TABLE table_name SET TBLPROPERTIES
(<key>
=true)`。
DELTA_MISSING_COLUMN
在表列中找不到<columnName>
: <columnList>
DELTA_MISSING_COMMIT_INFO
此表启用了特征 <featureName>
,这要求每次提交中都存在 CommitInfo 操作。 但是,提交版本 <version>
中缺少 CommitInfo操作。
DELTA_MISSING_COMMIT_TIMESTAMP
此表启用了编号为 <featureName>
的功能,这要求在 CommitInfo 操作中存在 commitTimestamp。 但是,此字段尚未在提交版本 <version>
中设置。
DELTA_MISSING_DELTA_TABLE
<tableName>
不是 Delta 表。
DELTA_MISSING_DELTA_TABLE_COPY_INTO
表不存在。 首先使用 CREATE TABLE <tableName>
创建空 Delta 表。
DELTA_MISSING_ICEBERG_CLASS
找不到 Iceberg 类。 请确保已安装 Delta Iceberg 支持。
有关详细信息,请参阅 <docLink>
。
DELTA_MISSING_NOT_NULL_COLUMN_VALUE
列 <columnName>
(具有 NOT NULL
约束)在写入表中的数据中缺失。
DELTA_MISSING_PARTITION_COLUMN
架构 <columnName>
中找不到分区列 <columnList>
。
DELTA_MISSING_PART_FILES
找不到检查点版本的所有部件文件:<version>
。
DELTA_MISSING_PROVIDER_FOR_CONVERT
CONVERT
TO DELTA
仅支持 parquet 表。 请将目标重写为 Parquet。 <path>
,如果它是一个 Parquet 目录。
DELTA_MISSING_SET_COLUMN
在 SET
列 <columnName>
中没有找到给定列:<columnList>
。
DELTA_MISSING_TRANSACTION_LOG
检测到不兼容的格式。
你尝试使用 Delta 来访问 <operation> <path>
,但不
存在事务日志。 检查上游作业,确保它正在使用
format("delta") 进行写入,并且你正在尝试对表基本路径执行 %1$s。
若要了解有关 Delta 的详细信息,请参阅 <docLink>
DELTA_MODE_NOT_SUPPORTED
不支持指定模式“<mode>
”。 支持的模式为: <supportedModes>
.
DELTA_MULTIPLE_CDC_BOUNDARY
为 CDC 读取提供的多个 <startingOrEnding>
参数。 请提供一个 <startingOrEnding>
时间戳或 <startingOrEnding>
版本。
DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER
传递给列命令的多个布隆筛选器索引配置:<columnName>
。
DELTA_MULTIPLE_SOURCE_ROW_MATCHING_TARGET_ROW_IN_MERGE
无法执行合并,因为多个源行匹配并尝试以可能冲突的方式修改 Delta 表中的同一目标行。 根据合并的 SQL 语义,当多个源行在同一目标行上匹配时,结果可能不明确,因为不清楚应使用哪个源行来更新或删除匹配的目标行。 你可以预处理源表来消除出现多个匹配项的可能性。 请参阅在“建议的文档”中提供的链接中的
<usageReference>
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_COMMAND
在 <command>
期间,命令中要么同时设置了两个协调提交配置 ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview"),要么都不设置。 缺少:“<configuration>
”。 请在 TBLPROPERTIES
子句中指定此配置或删除其他配置,然后再次重试该命令。
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_SESSION
在 <command>
期间,SparkSession 配置中要么同时设置了两个协调提交配置(“coordinatedCommits.commitCoordinator-preview”、“coordinatedCommits.commitCoordinatorConf-preview”),要么都不设置。 缺少:“<configuration>
”。 请在 SparkSession 中设置此配置或取消设置其他配置,然后再次重试该命令。
DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE
以下列名仅供 Delta 分桶表内部使用:<names>
。
DELTA_NESTED_FIELDS_NEED_RENAME
输入架构包含大小写与目标表不同的嵌套字段。
需要重命名它们,以避免在写入 Delta 时丢失这些字段中的数据。
领域:
<fields>
。
原始架构:
<schema>
DELTA_NESTED_NOT_NULL_CONSTRAINT
字段 <nestType>
的 <parent>
类型包含 NOT NULL
约束。 Delta 不支持嵌套在数组或映射中的 NOT NULL
约束。 若要取消此错误并静默忽略指定的约束,请设置 <configKey>
= true。
分析的 <nestType>
类型:
<nestedPrettyJson>
DELTA_NESTED_SUBQUERY_NOT_SUPPORTED
<operation>
条件不支持嵌套子查询。
DELTA_NEW_CHECK_CONSTRAINT_VIOLATION
<numRows>
行 <tableName>
违反新 CHECK
约束 (<checkConstraint>
)。
DELTA_NEW_NOT_NULL_VIOLATION
<tableName>
中的 <numRows>
行违反了 <colName>
上的新 NOT NULL
约束。
DELTA_NON_BOOLEAN_CHECK_CONSTRAINT
CHECK
约束 '<name>
' (<expr>
) 应该是一个布尔表达式。
DELTA_NON_DETERMINISTIC_EXPRESSION_IN_GENERATED_COLUMN
已找到 <expr>
。 生成的列不能使用非确定性表达式。
DELTA_NON_DETERMINISTIC_FUNCTION_NOT_SUPPORTED
不支持在<operation> <expression>
中使用非确定性函数。
DELTA_NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
当 MATCHED
语句中有多个 MERGE
子句时,只有最后一个 MATCHED
子句可以省略条件。
DELTA_NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
当 NOT MATCHED BY SOURCE
语句中有多个 MERGE
子句时,只有最后一个 NOT MATCHED BY SOURCE
子句可以省略条件。
DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION
当 NOT MATCHED
语句中有多个 MERGE
子句时,只有最后一个 NOT MATCHED
子句可以省略条件。
DELTA_NON_PARSABLE_TAG
无法分析标记 <tag>
。
文件标记为: <tagList>
.
DELTA_NON_PARTITION_COLUMN_ABSENT
写入 Delta 的数据至少需要包含一个非分区列。<details>
DELTA_NON_PARTITION_COLUMN_REFERENCE
谓词引用非分区列“<columnName>
”。 只能引用分区列:[<columnList>
]。
DELTA_NON_PARTITION_COLUMN_SPECIFIED
指定了非分区列 <columnList>
,但只能指定分区列:<fragment>
。
DELTA_NON_SINGLE_PART_NAMESPACE_FOR_CATALOG
Delta 目录需要单部分命名空间,但 <identifier>
是多部分。
DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_COMMAND
不支持通过命令将提交协调器设置为“<nonUcCoordinatorName>
”,因为 UC 管理的表只能将“unity-catalog”设置为提交协调器。 请将其更改为“unity-catalog”,或者从 TBLPROPERTIES
子句中删除所有协调提交表属性,然后再次重试该命令。
DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_SESSION
不支持从 SparkSession 配置中将提交协调器设置为<nonUcCoordinatorName>
,因为 UC 管理的表格只能使用“unity-catalog”作为提交协调器。 请通过运行 spark.conf.set("<coordinatorNameDefaultKey>", "unity-catalog")
将其更改为“unity-catalog”,或者通过运行 spark.conf.unset("<coordinatorNameDefaultKey>")
、spark.conf.unset("<coordinatorConfDefaultKey>")
和 spark.conf.unset("<tableConfDefaultKey>")
从 SparkSession 配置中删除所有协调提交表属性,然后再次重试该命令。
DELTA_NOT_A_DATABRICKS_DELTA_TABLE
<table>
不是 Delta 表。 如果要使用 Databricks Delta 创建此表,请先删除此表。
DELTA_NOT_A_DELTA_TABLE
<tableName>
不是 Delta 表。 如果要使用 Delta Lake 重新创建此表,请先删除此表。
DELTA_NOT_NULL_COLUMN_NOT_FOUND_IN_STRUCT
在结构体中找不到不可为空的列:<struct>
。
DELTA_NOT_NULL_CONSTRAINT_VIOLATED
列 NOT NULL
违反了 <columnName>
约束。
DELTA_NOT_NULL_NESTED_FIELD
不能将不可为 null 的嵌套字段添加到可为 null 的父级。 请相应地设置父列的可为 Null 性。
DELTA_NO_COMMITS_FOUND
在 <logPath>
处未找到提交。
DELTA_NO_RECREATABLE_HISTORY_FOUND
在 <logPath>
处未找到可重建的提交。
DELTA_NO_REDIRECT_RULES_VIOLATED
操作不允许:无法对具有重定向功能的表执行 <operation>
。
不满足无重定向规则 <noRedirectRules>
。
DELTA_NO_RELATION_TABLE
找不到表 <tableIdent>
。
DELTA_NO_START_FOR_CDC_READ
没有为 CDC 读取提供 startingVersion 或 startingTimestamp。
DELTA_NULL_SCHEMA_IN_STREAMING_WRITE
Delta 不接受在架构中使用 NullTypes 进行流写入。
DELTA_ONEOF_IN_TIMETRAVEL
请提供“timestampAsOf”或“versionAsOf”以按时间顺序查看。
DELTA_ONLY_OPERATION
<operation>
仅支持用于 Delta 表。
DELTA_OPERATION_MISSING_PATH
请提供 <operation>
的路径或表标识符。
DELTA_OPERATION_NOT_ALLOWED
不允许的操作:Delta 表不支持 <operation>
。
DELTA_OPERATION_NOT_ALLOWED_DETAIL
不允许的操作:Delta 表不支持 <operation>
:<tableName>
。
DELTA_OPERATION_NOT_SUPPORTED_FOR_COLUMN_WITH_COLLATION
具有非默认排序规则 <operation>
的列 <colName>
不支持 <collation>
。
DELTA_OPERATION_NOT_SUPPORTED_FOR_DATATYPES
<operation>
不支持以下数据类型:<dataTypeList>
。
DELTA_OPERATION_NOT_SUPPORTED_FOR_EXPRESSION_WITH_COLLATION
<operation>
不支持表达式 <exprText>
,因为它使用了非默认排序规则。
DELTA_OPERATION_ON_TEMP_VIEW_WITH_GENERATED_COLS_NOT_SUPPORTED
不支持在引用 Delta 表(包含生成列)的临时视图上执行 <operation>
命令。 <operation>
请直接在 Delta 表上运行命令。
DELTA_OPERATION_ON_VIEW_NOT_ALLOWED
不允许执行操作:不能对视图执行 <operation>
。
DELTA_OPTIMIZE_FULL_NOT_SUPPORTED
只有具有非空聚类分析列的聚集表才支持 OPTIMIZE FULL
。
DELTA_OVERWRITE_MUST_BE_TRUE
如果未设置 OVERWRITE
= 'true',则不能指定复制选项 overwriteSchema。
DELTA_OVERWRITE_SCHEMA_WITH_DYNAMIC_PARTITION_OVERWRITE
“overwriteSchema”不能在动态分区覆盖模式下使用。
DELTA_PARTITION_COLUMN_CAST_FAILED
无法为分区列 <columnName>
将值 <value>
转换为 <dataType>
。
DELTA_PARTITION_COLUMN_NOT_FOUND
架构 [<columnName>
] 中未找到分区列<schemaMap>
。
DELTA_PARTITION_SCHEMA_IN_ICEBERG_TABLES
转换 Iceberg 表时,无法指定分区架构。 系统会自动推理该架构。
DELTA路径不存在
<path>
不存在,或不是 Delta 表。
DELTA_PATH_EXISTS
不设置 OVERWRITE
= 'true',就无法写入已存在的路径 <path>
。
DELTA_POST_COMMIT_HOOK_FAILED
提交 Delta 表版本 <version>
成功,但在执行提交后挂钩 <name> <message>
时出错
DELTA 协议已更改
ProtocolChangedException:Delta表的协议版本已被并发更新更改。 <additionalInfo> <conflictingCommit>
有关更多详细信息,请参阅 <docLink>
。
DELTA_PROTOCOL_PROPERTY_NOT_INT
协议属性 <key>
必须是整数。 已找到 <value>
。
DELTA_READ_FEATURE_PROTOCOL_REQUIRES_WRITE
无法仅升级读取器协议版本以使用表功能。 写入器协议版本必须至少为 <writerVersion>
才能继续。 有关表协议版本的详细信息,请参阅 <docLink>
。
DELTA_READ_TABLE_WITHOUT_COLUMNS
尝试读取不包含任何列的 Delta 表 <tableName>
。
使用选项 mergeSchema = true
写入一些新数据,以便能够读取表。
DELTA_REGEX_OPT_SYNTAX_ERROR
请重新检查“”<regExpOption>
的语法。
DELTA_RELATION_PATH_MISMATCH
关系路径“<relation>
”与 <targetType>
“路径”<targetPath>
不匹配。
DELTA_REPLACE_WHERE_IN_OVERWRITE
不能将 replaceWhere 与按筛选器覆盖结合使用。
DELTA_REPLACE_WHERE_MISMATCH
写入的数据不符合部分表覆盖条件或约束“<replaceWhere>
”。
<message>
DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE
“replaceWhere”表达式和“partitionOverwriteMode”=“dynamic”不能在 DataFrameWriter 选项中设置。
DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET
当“dataChange”设置为 false 时,“replaceWhere”不能与数据筛选器结合使用。 筛选器: <dataFilters>
.
DELTA_ROW_ID_ASSIGNMENT_WITHOUT_STATS
如果没有行计数统计信息,则无法分配行 ID。
Collect statistics for the table by running the following code in a Scala notebook and retry:
import com.databricks.sql.transaction.tahoe.DeltaLog
import com.databricks.sql.transaction.tahoe.stats.StatisticsCollection
import org.apache.spark.sql.catalyst.TableIdentifier
val log = DeltaLog.forTable(spark, TableIdentifier(table_name))
StatisticsCollection.recompute(spark, log)
DELTA_SCHEMA_CHANGED
检测到的架构更改:
流式处理源架构:<readSchema>
数据文件架构:<dataSchema>
请尝试重启查询。 如果每次重启查询后此问题重复出现,并且没有
进展,则原因是你做出了不兼容的架构更改,需要
使用新的检查点目录从头开始启动查询。
DELTA_SCHEMA_CHANGED_WITH_STARTING_OPTIONS
版本 <version>
中检测到的架构更改:
流式处理源架构:<readSchema>
数据文件架构:<dataSchema>
请尝试重启查询。 如果每次重启查询后此问题重复出现,并且没有
进展,则原因是你做出了不兼容的架构更改,需要
使用新的检查点目录从头开始启动查询。 如果问题在之后仍然存在
更换到新的检查点目录时,您可能需要更改现有设置。
“startingVersion”或“startingTimestamp”选项,以使用新的检查点目录
从高于 <version>
的版本重新开始。
DELTA_架构随着版本而改变
版本 <version>
中检测到的架构更改:
流式处理源架构:<readSchema>
数据文件架构:<dataSchema>
请尝试重启查询。 如果每次重启查询后此问题重复出现,并且没有
进展,则原因是你做出了不兼容的架构更改,需要
使用新的检查点目录从头开始启动查询。
DELTA_SCHEMA_CHANGE_SINCE_ANALYSIS
因为你的 DataFrame,Delta 表的架构已以不兼容的方式更改
或者 DeltaTable 对象已被创建。 请重新定义 DataFrame 或 DeltaTable 对象。
变化:
<schemaDiff> <legacyFlagMessage>
DELTA_SCHEMA_NOT_PROVIDED
未提供表架构。 在使用 REPLACE
表时,请提供表的架构(列定义),但未提供 AS SELECT
查询。
DELTA_SCHEMA_NOT_SET
未设置表架构。 将数据写入其中或使用 CREATE TABLE
来设置架构。
DELTA_SET_LOCATION_SCHEMA_MISMATCH
新的 Delta 位置的架构与当前表架构不同。
原始架构:
<original>
目标架构:
<destination>
如果这是预期的更改,可以通过运行以下命令来禁用此检查:
%%sql set <config>
= true
DELTA_SHALLOW_CLONE_FILE_NOT_FOUND
找不到事务日志中引用的文件 <filePath>
。 当从文件系统手动删除数据而不是使用表 DELETE
语句时,可能会发生这种情况。 此表似乎是浅表克隆,如果是这样,当从中克隆此表的原始表删除了该克隆仍在使用的文件时,可能会发生此错误。 如果你希望任何克隆独立于原始表,请改用 DEEP 克隆。
DELTA共享无法修改保留的接收方属性
无法修改以 <prefix>
开头的预定义属性。
DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
数据受收件人属性限制,<property>
不适用于会话中的当前收件人。
有关更多详细信息,请参阅 DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
DELTA_SHARING_INVALID_OP_IN_EXTERNAL_SHARED_VIEW
不能在跨帐户共享的 Delta Sharing 视图中使用 <operation>
。
DELTA_SHARING_INVALID_PROVIDER_AUTH
提供者 <authenticationType>
的身份验证类型 <provider>
非法。
DELTA_SHARING_INVALID_RECIPIENT_AUTH
接收者 <authenticationType>
的身份验证类型 <recipient>
非法。
DELTA_SHARING_INVALID_SHARED_DATA_OBJECT_NAME
引用共享内 <type>
的名称无效。 你可以使用共享内 <type>
的名称,格式为 [schema].[<type>
],也可以使用表的原始全名,格式为 [catalog].[schema].[>type>]。
如果不确定要使用什么名称,可以运行“SHOW ALL IN SHARE
[share]”并查找要删除的 <type>
名称:列“name”是共享内 <type>
的名称,列“shared_object”是 <type>
的原始全名。
DELTA_SHARING_MAXIMUM_RECIPIENT_TOKENS_EXCEEDED
接收者 <recipient>
有两个以上的令牌。
DELTA_SHARING_RECIPIENT_PROPERTY_NOT_FOUND
收件人属性 <property>
不存在。
DELTA_SHARING_RECIPIENT_TOKENS_NOT_FOUND
接收者 <recipient>
缺少接收者令牌。
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_COLUMN
为 SHOW PARTITIONS
指定了非分区列 <badCols>
。
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE
SHOW PARTITIONS
不允许在未分区的表上执行:<tableName>
。
DELTA_SOURCE_IGNORE_DELETE
在版本 <removedFile>
的流源中检测到已删除的数据(例如 <version>
)。 目前不支持。 如果要忽略删除,请将选项“ignoreDeletes”设置为“true”。 可以在路径 <dataPath>
找到源表。
DELTA_SOURCE_TABLE_IGNORE_CHANGES
在版本 <file>
的源表中检测到数据更新(例如 <version>
)。 目前不支持。 如果这种情况经常发生,并且可以跳过更改,请将选项“skipChangeCommits”设置为“true”。 如果希望反映数据更新,请使用新的检查点目录重启此查询,或者在使用 DLT 时执行完全刷新。 如果需要处理这些更改,请切换到 MV 模式。 可以在路径 <dataPath>
找到源表。
DELTA_STARTING_VERSION_AND_TIMESTAMP_BOTH_SET
请提供<version>
或<timestamp>
。
DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND
在 Parquet 元数据中找不到列的 <statsType>
统计信息:<columnPath>
。
DELTA_STREAMING_CANNOT_CONTINUE_PROCESSING_POST_SCHEMA_EVOLUTION
我们检测到 Delta 流式处理源中 Delta 版本 <previousSchemaChangeVersion>
与 <currentSchemaChangeVersion>
之间的一个或多个非累加架构更改 (<opType>
)。
变化:
<columnChangeDetails>
在我们使用版本 <currentSchemaChangeVersion>
的最终架构继续流处理之前,请检查你是否想手动将架构更改传播到接收器表。
一旦修复了接收器表的架构或决定无需修复,就可以设置以下配置来解除非累加架构更改的阻止并继续流处理。
使用数据帧读取器选项:
仅针对此系列架构更改解除此特定流的阻止:
<unblockChangeOptions>
若要解除屏蔽此特定流:
<unblockStreamOptions>
使用 SQL 配置:
仅针对此系列架构更改解除此特定流的阻止:
<unblockChangeConfs>
若要解除屏蔽此特定流:
<unblockStreamConfs>
解除所有流的阻止:
<unblockAllConfs>
DELTA_STREAMING_CHECK_COLUMN_MAPPING_NO_SNAPSHOT
在检查列映射架构更改时,未能获取起始版本的 Delta 日志快照。 请选择其他起始版本,或通过将“<config>
”设置为“true”来强制启用流式读取,但需自负风险。
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE
对具有读取不兼容架构更改的表(例如重命名或删除或数据类型更改)不支持流式读取。
有关解决此问题的详细信息和可能的后续步骤,请查看 <docLink>
的文档
读取的架构:<readSchema>
。 不兼容的数据架构:<incompatibleSchema>
。
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE_USE_SCHEMA_LOG
对具有读取不兼容架构更改的表(例如重命名或删除或数据类型更改)不支持流式读取。
请提供“schemaTrackingLocation”,以便为 Delta 流处理启用非累加架构演变。
有关详细信息,请参阅 <docLink>
。
读取的架构:<readSchema>
。 不兼容的数据架构:<incompatibleSchema>
。
DELTA_STREAMING_METADATA_EVOLUTION
Delta 表的架构、表配置或协议在流式处理期间已更改。
架构或元数据跟踪日志已更新。
请重启流以继续使用更新的元数据进行处理。
更新的架构:<schema>
。
更新的表配置:<config>
。
更新的表协议:<protocol>
DELTA_STREAMING_SCHEMA_EVOLUTION_UNSUPPORTED_ROW_FILTER_COLUMN_MASKS
使用架构跟踪从源表 <tableId>
进行流式传输时不支持行筛选器或列掩码。
请删除行筛选器或列掩码,或者禁用架构跟踪。
DELTA_STREAMING_SCHEMA_LOCATION_CONFLICT
从位于“<table>
”的表流式传输时检测到有冲突的架构位置“<loc>
”。
另一个流可能重用相同的架构位置,这是不允许的。
请提供一个新的唯一 schemaTrackingLocation
路径或 streamingSourceTrackingId
,作为此表中某个数据流的读取选项。
DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT
架构位置“<schemaTrackingLocation>
”必须放在检查点位置“<checkpointLocation>
”下。
DELTA_STREAMING_SCHEMA_LOG_DESERIALIZE_FAILED
“<location>
”处的 Delta 流式处理源架构日志中的日志文件不完整。
架构日志可能已损坏。 请选择新的架构位置。
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_DELTA_TABLE_ID
尝试读取 Delta 流时检测到不兼容的 Delta 表 ID。
持久化表 ID:<persistedId>
,表 ID:<tableId>
架构日志可能已重复使用。 请选择新的架构位置。
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_PARTITION_SCHEMA
尝试读取 Delta 流时检测到不兼容的分区架构。
持久化架构:<persistedSchema>
,Delta 分区架构:<partitionSchema>
如果你最近手动更改了表的分区架构,请选择新的架构位置来重新初始化架构日志。
DELTA_STREAMING_SCHEMA_LOG_INIT_FAILED_INCOMPATIBLE_METADATA
无法初始化 Delta 流式处理源架构日志,因为
我们在从表版本 <a>
向 <b>
提供流式处理批处理时检测到不兼容的架构或协议更改。
DELTA_STREAMING_SCHEMA_LOG_PARSE_SCHEMA_FAILED
无法从 Delta 流式处理源架构日志文件中解析架构。
架构日志可能已损坏。 请选择新的架构位置。
DELTA_TABLE_ALREADY_CONTAINS_CDC_COLUMNS
无法对表启用变更数据捕获。 表已包含
保留的列 <columnList>
,
这些列将在内部用作表的更改数据馈送的元数据。 若要为
表上的更改数据馈送将重命名/删除这些列。
DELTA表已存在
表 <tableName>
已存在。
DELTA_TABLE_FOR_PATH_UNSUPPORTED_HADOOP_CONF
当前 DeltaTable.forPath 仅支持以 <allowedPrefixes>
开头的 Hadoop 配置键,但得到的是 <unsupportedOptions>
。
DELTA_TABLE_ID_MISMATCH
<tableLocation>
处的 Delta 表已替换,但此命令使用的是该表。
表的 ID 从 <oldId>
变为 <newId>
。
请重试当前命令,以确保读取表的视图一致性。
DELTA_TABLE_INVALID_REDIRECT_STATE_TRANSITION
无法更新表重定向状态:尝试状态转换无效。
Delta 表<table>
无法从<oldState>
更改为<newState>
。
DELTA_TABLE_INVALID_SET_UNSET_REDIRECT
无法对SET
上的属性 UNSET
或 <table>
重定向:当前属性 '<currentProperty>
' 与新属性 '<newProperty>
' 不匹配。
DELTA_TABLE_LOCATION_MISMATCH
现有的表 <tableName>
位于 <existingTableLocation>
。 它与指定的位置 <tableLocation>
不匹配。
DELTA_TABLE_NOT_FOUND(未找到Delta表)
Delta 表 <tableName>
不存在。
DELTA_TABLE_NOT_SUPPORTED_IN_OP
表在 <operation>
中不受支持。 请改用路径。
DELTA_TABLE_ONLY_OPERATION
<tableName>
不是 Delta 表。 <operation>
仅支持用于 Delta 表。
DELTA_TABLE_UNRECOGNIZED_REDIRECT_SPEC
Delta 日志包含无法识别的表重定向规范“<spec>
”。
DELTA_TARGET_TABLE_FINAL_SCHEMA_EMPTY
目标表最终架构为空。
DELTA_TIMESTAMP_GREATER_THAN_COMMIT
提供的时间戳 (<providedTimestamp>
) 晚于此
表(<tableName>
)。 请使用早于或等于 <maximumTimestamp>
的时间戳。
DELTA_TIMESTAMP_INVALID
提供的时间戳(<expr>
)无法转换为有效的时间戳。
DELTA_TIME_TRAVEL_INVALID_BEGIN_VALUE
<timeTravelKey>
必须是有效的开始值。
DELTA_TOO_MUCH_LISTING_MEMORY
由于内存不足,无法列出 Delta 表中的文件(<numFiles>
)。 必需内存: <estimatedMemory>
,可用内存: <maxMemory>
。
DELTA_TRUNCATED_TRANSACTION_LOG
<path>
:由于手动删除或遵循日志保留策略(<version>
)和检查点保留策略(<logRetentionKey>=<logRetention>
),事务日志已被截断,因此无法重新构造版本<checkpointRetentionKey>=<checkpointRetention>
状态。
DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED
不允许操作:Delta 表上的 TRUNCATE TABLE
不支持分区谓词;使用 DELETE
删除特定的分区或行。
DELTA_UDF_IN_GENERATED_COLUMN
已找到 <udfExpr>
。 生成的列不能使用用户定义的函数。
DELTA_UNEXPECTED_ACTION_EXPRESSION
意外的操作表达式 <expression>
。
DELTA_UNEXPECTED_NUM_PARTITION_COLUMNS_FROM_FILE_NAME
期望 <expectedColsSize>
分区列:<expectedCols>
,但从解析文件名:<path>
中找到 <parsedColsSize>
分区列:<parsedCols>
。
DELTA_UNEXPECTED_PARTIAL_SCAN
应对 Delta 源进行完整扫描,但发现只扫描了一部分。 路径:<path>
。
DELTA_UNEXPECTED_PARTITION_COLUMN_FROM_FILE_NAME
期望分区列 <expectedCol>
,但从解析文件名:<path>
中找到分区列 <parsedCol>
:
DELTA_UNEXPECTED_PARTITION_SCHEMA_FROM_USER
CONVERT
TO DELTA
被调用时使用了与从目录中推断的不一致的分区架构,请避免提供分区架构,以便系统能从目录中选择合适的分区架构。
目录分区架构:
<catalogPartitionSchema>
提供的分区架构:
<userPartitionSchema>
DELTA_UNIFORM_COMPATIBILITY_LOCATION_CANNOT_BE_CHANGED
无法更改 delta.universalFormat.compatibility.location。
DELTA_UNIFORM_COMPATIBILITY_LOCATION_NOT_REGISTERED
delta.universalFormat.compatibility.location 未在目录中注册。
DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION
统一兼容性格式的位置缺失或无效。 请为 delta.universalFormat.compatibility.location 设置空目录。
失败的原因:
有关更多详细信息,请参阅 DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION
DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
具有 Delta Uniform 的 Read Iceberg 的失败。
有关更多详细信息,请参阅 DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
DELTA_UNIFORM_INGRESS_AMBIGUOUS_FORMAT
发现多个 Delta Uniform 入口格式(<formats>
),最多只能设置一个。
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED
不支持创建或刷新统一入口表。
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED_FORMAT
不支持格式 <fileFormat>
。 仅支持原始文件格式为 iceberg 和 hudi。
DELTA_UNIFORM_INGRESS_VIOLATION
读取 Delta Uniform 失败:
有关更多详细信息,请参阅 DELTA_UNIFORM_INGRESS_VIOLATION
DELTA_UNIFORM_NOT_SUPPORTED
仅 Unity 目录表支持通用格式。
DELTA_UNIFORM_REFRESH参数无效
REFRESH TABLE
包含无效参数:
有关更多详细信息,请参阅 DELTA_UNIFORM_REFRESH_INVALID_ARGUMENT
DELTA_UNIFORM_REFRESH_NOT_SUPPORTED
REFRESH
标识符 SYNC UNIFORM
不受支持,原因如下:
有关更多详细信息,请参阅 DELTA_UNIFORM_REFRESH_NOT_SUPPORTED
DELTA_UNIFORM_REFRESH_NOT_SUPPORTED_FOR_MANAGED_ICEBERG_TABLE_WITH_METADATA_PATH
托管 Iceberg 表不支持带 METADATA_PATH
的 REFRESH TABLE
。
DELTA_通用格式转换失败
无法将表版本 <version>
转换为通用格式 <format>
。 <message>
DELTA_UNIVERSAL_FORMAT_VIOLATION
通用格式 (<format>
) 的验证失败: <violation>
。
DELTA_未知配置
指定了未知配置: <config>
。
若要禁用此检查,请在 Spark 会话配置中设置 <disableCheckConfig>
=true。
DELTA_UNKNOWN_PRIVILEGE
未知权限: <privilege>
。
DELTA_UNKNOWN_READ_LIMIT
未知的读取限制:<limit>
。
DELTA_UNRECOGNIZED_COLUMN_CHANGE
无法识别的列更改 <otherClass>
。 你可能正在运行过时的 Delta Lake 版本。
DELTA_UNRECOGNIZED_INVARIANT
无法识别的不变量。 请升级 Spark 版本。
DELTA_未识别的日志文件
无法识别的日志文件 <filename>
。
DELTA_UNSET_NON_EXISTENT_PROPERTY
尝试在表<property>
中解除设置不存在的属性“<tableName>
”。
DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE
<path>
不支持添加具有绝对路径的文件。
DELTA_UNSUPPORTED_ALTER_TABLE_CHANGE_COL_OP
ALTER TABLE CHANGE COLUMN
不支持将列 <fieldPath>
从 <oldField>
更改为 <newField>
.
DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP
不支持 ALTER TABLE REPLACE COLUMNS
操作。 原因:<details>
无法将架构从
<oldSchema>
更改为:
<newSchema>
DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE
你尝试对具有 REPLACE
的现有表 (<tableName>
) 执行 CLONE
。 此操作
不受支持。 尝试为 CLONE
使用不同的目标,或删除当前位置的表。
DELTA_UNSUPPORTED_COLUMN_MAPPING_MODE_CHANGE
不支持将列映射模式从“<oldMode>
”更改为“<newMode>
”。
DELTA_UNSUPPORTED_COLUMN_MAPPING_OPERATIONS_ON_COLUMNS_WITH_BLOOM_FILTER_INDEX
无法对列 <opName>
执行列映射操作 <quotedColumnNames>
因为这些列包含布隆筛选索引。
如果你要对包含布隆筛选索引的列执行
列映射操作,
请先删除布隆筛选器索引:
DROP BLOOMFILTER INDEX ON TABLE
表名 FOR COLUMNS(<columnNames>
)
如果要删除表上的所有 Bloom 筛选器索引,请使用:
DROP BLOOMFILTER INDEX ON TABLE
表名
DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL
当前表协议版本不支持更改列映射模式
使用 <config>
。
列映射所需的 Delta 协议版本:
<requiredVersion>
表的当前 Delta 协议版本:currentVersion
<currentVersion>
<advice>
DELTA_UNSUPPORTED_COLUMN_MAPPING_SCHEMA_CHANGE
检测到架构更改:
旧架构:
<oldTableSchema>
新架构:
<newTableSchema>
在更改列映射模式期间不允许进行架构更改。
DELTA_UNSUPPORTED_COLUMN_MAPPING_WRITE
不支持使用列映射模式写入数据。
DELTA_UNSUPPORTED_COLUMN_TYPE_IN_BLOOM_FILTER
不支持在类型为 <dataType>
的列上创建布隆筛选器索引:<columnName>
。
DELTA_UNSUPPORTED_COMMENT_MAP_ARRAY
无法向 <fieldPath>
添加注释。 不支持向映射键/值或数组元素添加注释。
DELTA_不支持的数据类型
找到使用不支持数据类型的列:<dataTypeList>
。 可以将“<config>
”设置为“false”以禁用类型检查。 禁用此类型检查可能会允许用户创建不受支持的 Delta 表,并且仅在尝试读取/写入旧表时使用。
DELTA_UNSUPPORTED_DATA_TYPE_IN_GENERATED_COLUMN
<dataType>
不能是生成的列的结果。
DELTA_UNSUPPORTED_DEEP_CLONE
此 Delta 版本不支持深度克隆。
DELTA_UNSUPPORTED_DESCRIBE_DETAIL_VIEW
<view>
是视图。 DESCRIBE DETAIL
仅支持表格。
DELTA_UNSUPPORTED_DROP_CLUSTERING_COLUMN
不允许删除聚类列(<columnList>
)。
DELTA_UNSUPPORTED_DROP_COLUMN
Delta 表不支持 DROP COLUMN
。 <advice>
DELTA_UNSUPPORTED_DROP_NESTED_COLUMN_FROM_NON_STRUCT_TYPE
只能从 StructType 中删除嵌套列。 已找到 <struct>
。
DELTA_UNSUPPORTED_DROP_PARTITION_COLUMN
不允许删除分区列(<columnList>
)。
DELTA_UNSUPPORTED_EXPRESSION
<expType>
不支持的表达式类型 (<causedBy>
)。 支持的类型为 [<supportedTypes>
]。
DELTA_UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
<expression>
不能在生成的列中使用。
DELTA_UNSUPPORTED_FEATURES_FOR_READ
不支持的 Databricks 读取功能:表“<tableNameOrPath>
”需要此版本的 Databricks 不支持的读取器表功能:<unsupported>
。 有关 Delta Lake 功能兼容性的详细信息,请参阅 <link>
。
DELTA_UNSUPPORTED_FEATURES_FOR_WRITE
不支持的 Databricks 写入功能:表“<tableNameOrPath>
”需要此版本的 Databricks 不支持的编写器表功能:<unsupported>
。 有关 Delta Lake 功能兼容性的详细信息,请参阅 <link>
。
DELTA_UNSUPPORTED_FEATURES_IN_CONFIG
此版本的 Databricks 无法识别以下 Spark 配置或 Delta 表属性中配置的表功能:<configs>
。
DELTA_UNSUPPORTED_FEATURE_STATUS
预期表功能 <feature>
的状态是“supported”,但却是“<status>
”。
DELTA_UNSUPPORTED_FIELD_UPDATE_NON_STRUCT
仅 StructType 支持更新嵌套字段,但你在尝试更新类型为 <columnName>
的 <dataType>
的字段。
DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS
不支持对缺少删除矢量文件的表版本执行“FSCK REPAIR TABLE
”命令。
请联系支持人员。
DELTA_UNSUPPORTED_GENERATE_WITH_DELETION_VECTORS
不支持对带有删除矢量的表版本执行“GENERATE
symlink_format_manifest”命令。
为了生成没有删除矢量的表版本,请运行“REORG TABLE
table APPLY (PURGE
”)。 然后重新运行“GENERATE
”命令。
请确保没有并发事务在 REORG
和 GENERATE
之间再次添加删除向量。
如果需要定期生成清单,或者无法防止并发事务,请考虑使用“ALTER TABLE
table SET TBLPROPERTIES
(delta.enableDeletionVectors = false)”禁用此表上的删除矢量。
DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT
不支持在 StructTypes 以外的嵌套字段上应用不变量。
DELTA_UNSUPPORTED_IN_SUBQUERY
<operation>
条件中不支持 In 子查询。
DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX
listKeywithPrefix 不可用。
DELTA_UNSUPPORTED_MANIFEST_GENERATION_WITH_COLUMN_MAPPING
利用列映射的表不支持清单生成,因为外部读取器无法读取这些 Delta 表。 有关更多详细信息,请参阅 Delta 文档。
DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC
带有架构演变的 MERGE INTO
操作目前不支持写入 CDC 输出。
DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE
<operation>
条件中不支持多列 In 谓词。
DELTA_UNSUPPORTED_NESTED_COLUMN_IN_BLOOM_FILTER
当前不支持在嵌套列上创建布隆筛选器索引:<columnName>
。
DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION
<operation>
中不支持嵌套字段(字段 = <fieldName>
)。
DELTA_UNSUPPORTED_NON_EMPTY_CLONE
克隆目标表不为空。 运行 TRUNCATE
之前,请先对表进行 DELETE FROM
或 CLONE
操作。
DELTA_UNSUPPORTED_OUTPUT_MODE
数据源 <dataSource>
不支持 <mode>
输出模式。
DELTA_UNSUPPORTED_PARTITION_COLUMN_IN_BLOOM_FILTER
不支持在分区列上创建布隆筛选器索引:<columnName>
。
DELTA_UNSUPPORTED_RENAME_COLUMN
Delta 表不支持列重命名。 <advice>
DELTA_UNSUPPORTED_SCHEMA_DURING_READ
Delta 不支持在读取时指定架构。
DELTA_UNSUPPORTED_SORT_ON_BUCKETED_TABLES
Delta 分桶表不支持 SORTED BY
。
DELTA_UNSUPPORTED_SOURCE
<operation>
目标仅支持 Delta 源。
<plan>
DELTA_UNSUPPORTED_STATIC_PARTITIONS
在插入期间,目前不支持在分区规范中指定静态分区。
DELTA_UNSUPPORTED_STRATEGY_NAME
不支持的策略名称: <strategy>
。
DELTA_UNSUPPORTED_SUBQUERY
<operation>
不支持子查询(条件 = <cond>
)。
DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES
分区谓词中不支持子查询。
DELTA_UNSUPPORTED_TIME_TRAVEL_MULTIPLE_FORMATS
无法以多种格式指定“按时间顺序查看”。
DELTA_UNSUPPORTED_TIME_TRAVEL_VIEWS
无法按时间顺序查看视图、子查询、流或更改数据馈送查询。
DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES
不支持截断示例表。
DELTA_UNSUPPORTED_TYPE_CHANGE_IN_SCHEMA
由于应用了不支持的类型更改,无法对此表进行操作。 字段 <fieldName>
已从 <fromType>
更改为 <toType>
。
DELTA_UNSUPPORTED_TYPE_CHANGE_ON_COLUMNS_WITH_BLOOM_FILTER_INDEX
无法更改列 <quotedColumnNames>
的数据类型
因为这些列包含布隆筛选索引。
如果要使用 Bloom Filter Index(es) 更改列的数据类型,
请先删除布隆筛选器索引:
DROP BLOOMFILTER INDEX ON TABLE
表名 FOR COLUMNS(<columnNames>
)
如果要删除表上的所有 Bloom 筛选器索引,请使用:
DROP BLOOMFILTER INDEX ON TABLE
表名
DELTA_UNSUPPORTED_VACUUM_SPECIFIC_PARTITION
清空 Delta 表时,请提供基本路径(<baseDeltaPath>
)。 目前不支持清空特定分区。
DELTA_UNSUPPORTED_WRITES_STAGED_TABLE
表实现不支持写入:<tableName>
。
DELTA_UNSUPPORTED_WRITES_WITHOUT_COORDINATOR
你正在尝试对已在提交协调器 <coordinatorName>
中注册的表执行写入。 但是,当前环境中不提供此协调器实现,不允许在没有协调器的情况下进行写入。
DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES
不支持写入示例表。
DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION
无法将 <fromCatalog>
强制转换为 <toCatalog>
。 所有嵌套列必须匹配。
DELTA_V2_操作所需检查点
CHECKPOINT
操作要求表上启用 V2 检查点。
DELTA_VACUUM_COPY_INTO_STATE_FAILED
数据文件上的 VACUUM
操作已成功,但 COPY INTO
状态的垃圾回收操作失败。
DELTA_VERSIONS_NOT_CONTIGUOUS
版本(<versionList>
)不是连续的。
在尝试加载版本<startVersion>
时检测到版本<endVersion>
<versionToLoad>
之间的增量日志中的差距。
有关更多详细信息,请参阅 DELTA_VERSIONS_NOT_CONTIGUOUS
DELTA_VERSION_INVALID
提供的版本 (<version>
) 不是有效的版本。
DELTA_VIOLATE_CONSTRAINT_WITH_VALUES
具有值的行违反了 CHECK
约束 <constraintName> <expression>
:
<values>
。
DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
表 <table>
的属性验证已被违反。
有关更多详细信息,请参阅 DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
DELTA_WRITE_INTO_VIEW_NOT_SUPPORTED
<viewIdentifier>
是视图。 不能将数据写入视图。
DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST
数据架构中不存在 Z 排序列 <columnName>
。
DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS
Z 排序 <cols>
将无效,因为我们当前不收集这些列的统计信息。 有关跳过数据和 z 排序的详细信息,请参阅 <link>
。 可以通过设置禁用此检查
SET <zorderColStatKey>
= 假
DELTA_ZORDERING_ON_PARTITION_COLUMN
<colName>
是分区列。 Z 排序只能对数据列执行
Delta共享
DELTA_SHARING_ACTIVATION_NONCE_DOES_NOT_EXIST
SQLSTATE:未分配
找不到激活 nonce。 使用的激活链接无效或已过期。 重新生成激活链接,然后重试。
DELTA_SHARING_CROSS_REGION_SHARE_UNSUPPORTED
SQLSTATE:未分配
不支持在 <regionHint>
区域与外部区域之间共享。
DELTA_SHARING_GET_RECIPIENT_PROPERTIES_INVALID_DEPENDENT
SQLSTATE:未分配
使用 current_recipient
函数定义的视图仅用于共享,只能从数据接收方查询。 提供的 ID 为 <securableId>
的安全对象不是 Delta Sharing 视图。
DELTA_SHARING_MUTABLE_SECURABLE_KIND_NOT_SUPPORTED
SQLSTATE:未分配
提供的可保护类型 <securableKind>
不支持 Delta 共享中的可变性。
DELTA_SHARING_ROTATE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE
SQLSTATE:未分配
提供的安全对象类型 <securableKind>
不支持市场服务启动的轮换令牌操作。
DS_AUTH_TYPE_NOT_AVAILABLE
SQLSTATE:未分配
<dsError>
:身份验证类型在提供程序实体 <providerEntity>
中不可用。
DS_CDF_NOT_ENABLED
SQLSTATE:未分配
<dsError>
:无法访问 <tableName>
的更改数据馈送。 在版本 <version>
中,CDF 未在原始 Delta 表上启用。 请联系你的数据供应商。
DS_CDF_NOT_SHARED
SQLSTATE:未分配
<dsError>
:无法访问 <tableName>
的更改数据馈送。 CDF 未在表上共享。 请联系你的数据供应商。
DS_CDF_RPC_INVALID_PARAMETER
SQLSTATE:未分配
<dsError>
:<message>
DS_CLIENT_AUTH_ERROR_FOR_DB_DS_SERVER
SQLSTATE:未分配
<dsError>
:<message>
DS_CLIENT_ERROR_FOR_DB_DS_SERVER
SQLSTATE:未分配
<dsError>
:<message>
DS_CLIENT_OAUTH_TOKEN_EXCHANGE_FAILURE
SQLSTATE:未分配
<dsError>
:<message>
DS_CLIENT_OAUTH_TOKEN_EXCHANGE_UNAUTHORIZED
SQLSTATE:未分配
<dsError>
:<message>
DS_CLOUD_VENDOR_UNAVAILABLE
SQLSTATE:未分配
<dsError>
:云供应商暂时无法为 <rpcName>
提供服务,请重试。<traceId>
DS_DATA_MATERIALIZATION_COMMAND_FAILED
SQLSTATE:未分配
<dsError>
:在命令 <runId>
处,从组织 <orgId>
运行的数据具体化任务 <command>
失败
DS_DATA_MATERIALIZATION_COMMAND_NOT_SUPPORTED
SQLSTATE:未分配
<dsError>
:从组织 <runId>
运行的数据具体化任务 <orgId>
不支持命令 <command>
DS_DATA_MATERIALIZATION_NOT_SUPPORTED_WITHOUT_SERVERLESS
SQLSTATE:未分配
<dsError>
:不支持 <featureName>
,因为提供程序工作区中不支持或未启用无服务器。 请联系您的数据供应商以启用无服务器架构。
DS_DATA_MATERIALIZATION_NO_VALID_NAMESPACE
SQLSTATE:未分配
<dsError>
:找不到有效的命名空间来创建 <tableName>
的具体化。 请联系您的数据提供商解决此问题。
DS_DATA_MATERIALIZATION_RUN_DOES_NOT_EXIST
SQLSTATE:未分配
<dsError>
:从组织 <runId>
运行的数据具体化任务 <orgId>
不存在
DS_DELTA_ILLEGAL_STATE
SQLSTATE:未分配
<dsError>
:<message>
DS_DELTA_MISSING_CHECKPOINT_FILES
SQLSTATE:未分配
<dsError>
:找不到版本检查点的所有部件文件:<version>
。 <suggestion>
DS_DELTA_NULL_POINTER
SQLSTATE:未分配
<dsError>
:<message>
DS_DELTA_RUNTIME_EXCEPTION
SQLSTATE:未分配
<dsError>
:<message>
DS_EXPIRE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE
SQLSTATE:未分配
<dsError>
:提供的安全对象类型 <securableKind>
不支持市场服务启动的使令牌过期操作。
DS_FAILED_REQUEST_TO_OPEN_DS_SERVER(请求打开DS服务器失败)
SQLSTATE:未分配
<dsError>
:<message>
DS_FAILED_REQUEST_TO_SAP_DS_SERVER
SQLSTATE:未分配
<dsError>
:<message>
DS_FEATURE_ONLY_FOR_DATABRICKS_TO_DATABRICKS
SQLSTATE:未分配
<dsError>
:仅为 Databricks 到 Databricks Delta Sharing 启用了 <feature>
。
DS_FILE_LISTING_EXCEPTION
SQLSTATE:未分配
<dsError>
: <storage>
: <message>
DS_FILE_SIGNING_EXCEPTION
SQLSTATE:未分配
<dsError>
:<message>
DS_FOREIGN_TABLE_METADATA_REFRESH_FAILED
SQLSTATE:未分配
<dsError>
:<message>
DS_HADOOP_CONFIG_NOT_SET
SQLSTATE:未分配
<dsError>
:调用方未设置 <key>
。
DS_ILLEGAL_STATE
SQLSTATE:未分配
<dsError>
:<message>
DS_INTERNAL_ERROR_FROM_DB_DS_SERVER
SQLSTATE:未分配
<dsError>
:<message>
DS_INVALID_AZURE_PATH
SQLSTATE:未分配
<dsError>
:Azure 路径无效:<path>
。
DS_INVALID_DELTA_ACTION_OPERATION
SQLSTATE:未分配
<dsError>
:<message>
DS_INVALID_FIELD
SQLSTATE:未分配
<dsError>
:<message>
DS_INVALID_ITERATOR_OPERATION
SQLSTATE:未分配
<dsError>
:<message>
DS_INVALID_PARAMETER_VALUE
SQLSTATE:未分配
<dsError>
:由于 <rpcName>
,<cause>
的参数无效。
DS_INVALID_PARTITION_SPEC
SQLSTATE:未分配
<dsError>
:<message>
DS_INVALID_RESPONSE_FROM_DS_SERVER
SQLSTATE:未分配
<dsError>
:<message>
DS_MATERIALIZATION_QUERY_FAILED
SQLSTATE:未分配
<dsError>
:<schema>
查询失败。来自共享 <table>
的 <share>
。
DS_MATERIALIZATION_QUERY_TIMEDOUT
SQLSTATE:未分配
<dsError>
:<schema>
查询超时。<table>
秒后,来自共享 <share>
的 <timeoutInSec>
。
DS_MISSING_IDEMPOTENCY_KEY
SQLSTATE:未分配
<dsError>
:查询 <schema>
时需要幂等密钥。异步来自共享 <table>
的 <share>
。
DS_MORE_THAN_ONE_RPC_PARAMETER_SET
SQLSTATE:未分配
<dsError>
:请仅提供 <parameters>
中的一个。
DS_网络连接已关闭
SQLSTATE:未分配
<dsError>
:由于 <errorCause>
,<rpcName>
的网络连接已关闭,请重试。<traceId>
DS_NETWORK_CONNECTION_TIMEOUT
SQLSTATE:未分配
<dsError>
:由于<errorCause>
,<rpcName>
的网络连接超时,请重试。<traceId>
DS_网络错误
SQLSTATE:未分配
<dsError>
:由于 <errorCause>
,<rpcName>
的网络错误,请重试。<traceId>
DS_NO_METASTORE_ASSIGNED
SQLSTATE:未分配
<dsError>
:没有为当前工作区分配元存储(workspaceId:<workspaceId>
)。
DS_O2D_OIDC_WORKLOAD_IDENTITY_TOKEN_GENERATION_FAILED
SQLSTATE:未分配
<dsError>
:为 O2D OIDC 提供程序生成工作负载标识令牌失败:<message>
。
DS_PAGINATION_AND_QUERY_ARGS_MISMATCH
SQLSTATE:未分配
<dsError>
:分页或查询参数不匹配。
DS_PARTITION_COLUMNS_RENAMED
SQLSTATE:未分配
<dsError>
:共享表上的分区列 [<renamedColumns>
] 已被重命名。 请联系您的数据提供商解决此问题。
DS_QUERY_BEFORE_START_VERSION
SQLSTATE:未分配
<dsError>
:只能查询自版本 <startVersion>
以来的表数据。
DS_QUERY_END_VERSION_AFTER_LATEST_VERSION
SQLSTATE:未分配
<dsError>
:提供的用于读取数据的终止版本(<endVersion>
)无效。 结束版本不能大于表的最新版本(<latestVersion>
)。
DS_QUERY_START_VERSION_AFTER_LATEST_VERSION
SQLSTATE:未分配
<dsError>
:提供的读取数据的起始版本(<startVersion>
)无效。 起始版本不能大于表的最新版本(<latestVersion>
)。
DS_QUERY_TIMEOUT_ON_SERVER
SQLSTATE:未分配
<dsError>
:在跨 <queryType>
迭代进行 <tableName>
更新后处理 <numActions>
上的 <numIter>
时发生超时。<progressUpdate> <suggestion> <traceId>
DS_RATE_LIMIT_ON_DS_SERVER
SQLSTATE:未分配
<dsError>
:<message>
DS_RECIPIENT_RPC_INVALID_PARAMETER
SQLSTATE:未分配
<dsError>
:<message>
DS_RECON_FAILED_ON_UC_WRITE_RPC
SQLSTATE:未分配
<dsError>
:UC RPC <rpcName>
失败,转换为 INTERNAL_ERROR
。
DS资源已存在于DS服务器上 (DS_RESOURCE_ALREADY_EXIST_ON_DS_SERVER)
SQLSTATE:未分配
<dsError>
:<message>
DS_RESOURCE_EXHAUSTED (资源耗尽)
SQLSTATE:未分配
<dsError>
:<resource>
超出限制:[<limitSize>
]<suggestion>
。<traceId>
DS_RESOURCE_NOT_FOUND_ON_DS_SERVER (DS服务器上未找到资源)
SQLSTATE:未分配
<dsError>
:<message>
DS_SCHEMA_NAME_CONFLICT_FOUND
SQLSTATE:未分配
<dsError>
:目录 <catalogName>
已包含在共享 <shareName>
中找到的架构名称。 冲突架构 <description>
的名称:<schemaNamesInCommon>
。
DS_SERVER_TIMEOUT
SQLSTATE:未分配
<dsError>
:由于 <errorCause>
,<rpcName>
的服务器超时,请重试。<traceId>
DS_SHARE_ALREADY_MOUNTED_TO_CATALOG
SQLSTATE:未分配
<dsError>
:提供程序 <providerName>
的共享 <shareName>
已挂载到目录 <catalogName>
。
DS_SYSTEM_WORKSPACE_GROUP_PERMISSION_UNSUPPORTED
SQLSTATE:未分配
无法向系统生成的组 <securableType>
授予对 <principal>
的权限。
DS_TIME_TRAVEL_NOT_PERMITTED
SQLSTATE:未分配
<dsError>
:除非历史记录在 <tableName>
上共享历史记录,否则不允许进行时间旅行查询。 请联系你的数据供应商。
DS_UNAUTHORIZED
SQLSTATE:未分配
<dsError>
:未经授权。
DS_UNAUTHORIZED_D2O_OIDC_RECIPIENT
SQLSTATE:未分配
<dsError>
:未经授权的 D2O OIDC 接收者:<message>
。
DS_UNKNOWN_EXCEPTION
SQLSTATE:未分配
<dsError>
:<traceId>
未知查询ID (DS_UNKNOWN_QUERY_ID)
SQLSTATE:未分配
<dsError>
:<queryID>
的查询 ID <schema>
是未知的。来自共享 <table>
的 <share>
。
DS_UNKNOWN_QUERY_STATUS
SQLSTATE:未分配
<dsError>
:对于 <queryID>
的查询 ID <schema>
的查询状态未知。来自共享 <table>
的 <share>
。
DS_UNKNOWN_RPC
SQLSTATE:未分配
<dsError>
:未知 RPC <rpcName>
。
DS_UNSUPPORTED_DELTA_READER_VERSION
SQLSTATE:未分配
<dsError>
:增量协议读取器版本 <tableReaderVersion>
高于 <supportedReaderVersion>
,不能在增量共享服务器中受支持。
DS_UNSUPPORTED_DELTA_TABLE_FEATURES
SQLSTATE:未分配
<dsError>
:在表 <tableFeatures>
中找到表功能 <versionStr> <historySharingStatusStr> <optionStr>
DS_UNSUPPORTED_OPERATION
SQLSTATE:未分配
<dsError>
:<message>
DS_UNSUPPORTED_STORAGE_SCHEME
SQLSTATE:未分配
<dsError>
:不支持的存储方案:<scheme>
。
DS_UNSUPPORTED_TABLE_TYPE
SQLSTATE:未分配
<dsError>
:无法检索 <schema>
。 来自共享 <share>
的 <table>
,因为 <queryType>
查询中当前不支持类型 [<tableType>
] 的表。
DS_USER_CONTEXT_ERROR
SQLSTATE:未分配
<dsError>
:<message>
DS_VIEW_SHARING_FUNCTIONS_NOT_ALLOWED
SQLSTATE:未分配
<dsError>
:视图共享查询中不允许 <functions>
以下函数。
DS_WORKSPACE_DOMAIN_NOT_SET
SQLSTATE:未分配
<dsError>
:未设置工作区 <workspaceId>
域。
DS_工作空间_未找到
SQLSTATE:未分配
<dsError>
:找不到工作区 <workspaceId>
。
自动加载程序
CF_ADD_NEW_NOT_SUPPORTED
指定架构时不支持架构演变模式 <addNewColumnsMode>
。 若要使用此模式,可以改为通过 cloudFiles.schemaHints
提供架构。
CF_AMBIGUOUS_AUTH_OPTIONS_ERROR
找到了(默认)目录列表模式的通知设置
列出模式:
<options>
如果要使用文件通知模式,请显式设置:
.option("cloudFiles.<useNotificationsKey>
", "true")
如果要跳过选项验证步骤并忽略这些
身份验证选项,可以设置:
.option("cloudFiles.ValidateOptionsKey>", "false")
CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR
增量列表模式 (cloudFiles.<useIncrementalListingKey>
)
和文件通知 (cloudFiles.<useNotificationsKey>
)
已同时启用。
请确保只选择一个。
CF_AZURE_AUTHENTICATION_MISSING_OPTIONS
请提供 Databricks 服务凭据,或者同时提供 clientId 和 clientSecret,以便通过 Azure 进行身份验证。
CF_AZURE_AUTHENTICATION_MULTIPLE_OPTIONS
提供 Databricks 服务凭据时,不应提供其他凭据选项(例如 clientId、clientSecret 或 connectionString)。
CF_AZURE_STORAGE_SUFFIXES_REQUIRED
Azure 需要 adlsBlobSuffix 和 adlsDfsSuffix
CF_BUCKET_MISMATCH
文件事件 <storeType>
中的 <fileEvent>
与源的预期不同:<source>
。
CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY
架构日志为空时无法改进架构。 架构日志位置:<logPath>
CF_CANNOT_PARSE_QUEUE_MESSAGE
无法分析以下队列消息:<message>
无法解析容器名称 (CF_CANNOT_RESOLVE_CONTAINER_NAME)
无法从路径 <path>
解析容器名称,解析的 URI 为 <uri>
CF_CANNOT_RUN_DIRECTORY_LISTING(无法运行目录列表)
当运行异步回填线程时无法运行目录列表
CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON
无法同时打开 cloudFiles.cleanSource 和 cloudFiles.allowOverwrites。
CF_CLEAN_SOURCE_CANNOT_MOVE_FILES_INSIDE_SOURCE_PATH
不支持将文件移动到正在从中摄取的路径下的目录。
CF_CLEAN_SOURCE_NOT_ENABLED
尚未为此工作区启用 CleanSource。 请联系 Databricks 支持部门获取帮助。
CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION
自动加载程序无法存档已处理的文件,因为它对源目录或移动目标没有写入权限。
<reason>
若要修复,可以:
向源目录授予写入权限并移动目标,或
将 cleanSource 设置为“OFF”
还可以通过将 SQLConf spark.databricks.cloudFiles.cleanSource.disabledDueToAuthorizationErrors 设置为“true”来解除阻止流。
CF_DUPLICATE_COLUMN_IN_DATA
尝试推断表的分区架构时出错。 在数据和分区路径中复制了相同的列。 若要忽略分区值,请使用以下命令显式提供分区列: .option("cloudFiles.<partitionColumnsKey>", "{comma-separated-list}")
CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE
当输入路径 <path>
为空时,无法推断架构。 请在输入路径中存在文件或指定架构时尝试启动流。
CF_EVENT_GRID_AUTH_ERROR
无法创建事件网格订阅。 请确保服务
主体具有 <permissionType>
事件网格订阅。 请参阅以下位置的更多详细信息:
<docLink>
CF_EVENT_GRID_CREATION_FAILED
无法创建事件网格订阅。 请确保 Microsoft.EventGrid
在订阅中注册为资源提供程序。 请参阅以下位置的更多详细信息:
<docLink>
CF_EVENT_GRID_NOT_FOUND_ERROR
无法创建事件网格订阅。 请确保存储
帐户 (<storageAccount>
) 位于资源组 (<resourceGroup>
) 的下面,并且
存储帐户是“StorageV2(常规用途 v2)”帐户。 请参阅以下位置的更多详细信息:
<docLink>
CF_EVENT_NOTIFICATION_NOT_SUPPORTED
<cloudStore>
不支持自动加载程序事件通知模式。
CF_FAILED_TO_CHECK_STREAM_NEW
无法检查流是否为新流
CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION
无法创建订阅 <subscriptionName>
。 同名的订阅已存在,并且与另一个主题相关联:<otherTopicName>
。 所需主题为 <proposedTopicName>
。 删除现有订阅或创建具有新资源后缀的订阅。
CF_FAILED_TO_CREATED_PUBSUB_TOPIC
无法创建主题 <topicName>
。 已存在同名的主题。<reason>
删除现有主题,或使用另一个资源后缀重试
CF_无法删除_GCP_通知
未能删除主题 <notificationId>
的存储桶 <bucketName>
上 ID 为 <topicName>
的通知。 请重试或通过 GCP 控制台手动删除通知。
CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA
无法从字符串反序列化持久化架构:“<jsonSchema>
”
CF_FAILED_TO_EVOLVE_SCHEMA
在没有架构日志的情况下无法改进架构。
CF_FAILED_TO_FIND_PROVIDER
找不到 <fileFormatInput>
服务提供者
CF_FAILED_TO_INFER_SCHEMA
无法从输入路径 <fileFormatInput>
中的现有文件中推断格式 <path>
的架构。
有关更多详细信息,请参阅 CF_FAILED_TO_INFER_SCHEMA
CF_无法写入架构日志
无法在位置 <path>
写入架构日志。
CF_FILE_FORMAT_REQUIRED
找不到所需的选项:cloudFiles.format。
CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS
发现主题 <num>
有多个(<topicName>
个)订阅使用自动加载程序前缀:
<subscriptionList>
每个主题只能有一个订阅。 请手动确保主题没有多个订阅。
CF_GCP_AUTHENTICATION
请提供以下所有凭据:<clientEmail>
、<client>
、
<privateKey>
和 <privateKeyId>
,或提供使用 Databricks 服务凭据的 <serviceCredential>
。
或者,请提供它们中的一个,以便使用默认的 GCP 凭据提供程序链对 GCP 资源进行身份验证。
CF_GCP_LABELS_COUNT_EXCEEDED
收到太多 GCP 资源的标签(<num>
个)。 每个资源的最大标签数为 <maxNum>
。
CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED
收到太多 GCP 资源的资源标记(<num>
个)。 每个资源的最大资源标记数量为 <maxNum>
,因为资源标记是作为 GCP 标签存储在资源上的,而 Databricks 特定的标记会占用部分 GCP 标签的配额。
CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG
路径 <path>
的架构日志中不完整的日志文件
CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT
自动加载程序检查点中的元数据文件不完整
CF_INCORRECT_BATCH_USAGE
CloudFiles 是流式处理源。 请使用 spark.readStream 而不是 spark.read。 若要禁用此检查,请将 <cloudFilesFormatValidationEnabled>
设置为 false。
CF_INCORRECT_SQL_PARAMS
cloud_files方法接受两个必需的字符串参数:要从中加载的路径和文件格式。 必须在字符串键值映射中提供文件读取器选项。 例如,cloud_files("path", "json", map("option1", "value1"))。 收到:<params>
CF_INCORRECT_STREAM_USAGE
要将“cloudFiles”用作流式处理源,请使用选项“cloudFiles.format”提供文件格式,并使用 .load() 创建 DataFrame。 若要禁用此检查,请将 <cloudFilesFormatValidationEnabled>
设置为 false。
CF_INTERNAL_ERROR
内部错误。
有关更多详细信息,请参阅 CF_INTERNAL_ERROR
CF_INVALID_ARN
无效 ARN:<arn>
CF_无效的Azure证书
无法解析与选项 cloudFiles.certificate 一起提供的私钥。 请提供 PEM 格式的有效公钥。
CF_INVALID_AZURE_CERT_PRIVATE_KEY(无效的 Azure 证书私钥)
无法解析通过选项 cloudFiles.certificatePrivateKey 提供的私钥。 请以 PEM 格式提供有效的私钥。
CF_INVALID_CHECKPOINT
此检查点不是有效的 CloudFiles 源
CF_INVALID_CLEAN_SOURCE_MODE
清理源选项 <value>
的模式无效。
CF_INVALID_GCP_RESOURCE_TAG_KEY (无效的GCP资源标签键)
GCP 资源的资源标记键无效:<key>
。 键必须以小写字母开头,长度在 1 到 63 个字符以内,并且仅包含小写字母、数字、下划线(_)和连字符(-)。
CF_INVALID_GCP_RESOURCE_TAG_VALUE
GCP 资源的资源标记值无效:<value>
。 值长度必须为 0 到 63 个字符,并且必须仅包含小写字母、数字、下划线(_)和连字符(-)。
CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS
与托管文件事件一起使用时,自动加载程序不支持以下选项:
<optionList>
建议删除这些选项,然后重启流。
CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
来自托管文件事件服务的响应无效。 请联系 Databricks 支持部门获取帮助。
有关更多详情,请参阅 CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
CF_INVALID_SCHEMA_EVOLUTION_MODE
cloudFiles。 <schemaEvolutionModeKey>
必须是以下之一
- “
<addNewColumns>
” - “
<failOnNewColumns>
” - “
<rescue>
” - “
<noEvolution>
”
CF_INVALID_SCHEMA_HINTS_OPTION
模式提示不能多次指定某个特定的列。
在这种情况下,请重新定义列:<columnName>
在 schemaHints 中多次:
<schemaHints>
CF_INVALID_SCHEMA_HINT_COLUMN
架构提示无法用于覆盖映射和数组的嵌套类型。
有冲突的列:<columnName>
CF_LATEST_OFFSET_READ_LIMIT_REQUIRED
应在此源上使用 ReadLimit 调用 latestOffset。
CF 日志文件格式错误
日志文件格式不正确:无法从 <fileName>
读取正确的日志版本。
CF_MANAGED_FILE_EVENTS_BACKFILL_IN_PROGRESS
你已请求自动加载程序通过将 includeExistingFiles 设置为 false 来忽略外部位置中的现有文件。 但是,托管文件事件服务仍在外部位置发现了现有文件。 请在文件管理事件完成对外部位置中所有文件的发现后再试。
CF_MANAGED_FILE_EVENTS_ENDPOINT_NOT_FOUND
你正在将自动加载程序与托管文件事件配合使用,但输入路径“<path>
”的外部位置似乎未启用文件事件,或输入路径无效。 请请求 Databricks 管理员在输入路径的外部位置启用文件事件。
CF_MANAGED_FILE_EVENTS_ENDPOINT_PERMISSION_DENIED
你正在将自动加载程序与托管文件事件配合使用,但你无权访问输入路径“<path>
”的外部位置或卷,或输入路径无效。 请请求 Databricks 管理员授予外部位置或卷的读取权限,或在现有外部位置或卷中提供有效的输入路径。
CF_MANAGED_FILE_EVENTS_IS_PREVIEW
带托管文件事件的自动加载程序是预览功能。 若要继续,请联系 Databricks 支持部门或关闭 cloudFiles.useManagedFileEvents 选项。
CF_MAX必须为正数
max 必须为正
CF_METADATA_FILE_CONCURRENTLY_USED
多个流式处理查询在同时使用 <metadataFile>
CF_MISSING_METADATA_FILE_ERROR
流式处理源检查点目录中的元数据文件丢失。 此元数据
文件包含流的重要默认选项,因此无法重启流
马上。 请联系 Databricks 支持部门获取帮助。
CF_MISSING_PARTITION_COLUMN_ERROR
提供的架构中不存在分区列 <columnName>
:
<schema>
CF_MISSING_SCHEMA_IN_PATHLESS_MODE
如果在使用文件通知模式时未向 CloudFiles 源提供路径,请使用 .schema() 指定架构。 或者,若要让自动加载程序推断架构,请在 .load() 中提供基本路径。
CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC
在存储桶 <topicName>
上发现主题 <bucketName>
的现有通知:
notification,id
<notificationList>
若要避免意外事件污染订阅服务器,请删除上述通知并重试。
CF_NEW_PARTITION_ERROR
从文件中已推断出新的分区列:[<filesList>
]。 请在架构中提供所有分区列,或者提供要通过使用以下方法提取值的分区列列表: .option("cloudFiles.partitionColumns", "{comma-separated-list|empty-string}")
CF_PARTITON_INFERENCE_ERROR
尝试推断当前批处理文件的分区架构时出错。 请通过使用显式提供分区列:.option("cloudFiles.<partitionColumnOption>", "{comma-separated-list}"
)
CF_PATH_DOES_NOT_EXIST_FOR_READ_FILES (读取文件的路径不存在)
当输入路径 <path>
不存在时,无法读取文件。 请确保输入路径存在并重新尝试。
CF_PERIODIC_BACKFILL_NOT_SUPPORTED
如果禁用异步回填,则不支持定期回填。 可以通过将 spark.databricks.cloudFiles.asyncDirListing
设置为 true 来启用异步回填/目录列表
CF_PREFIX_MISMATCH
找到不匹配的事件:密钥 <key>
没有前缀:<prefix>
CF_PROTOCOL_MISMATCH
<message>
如果无需对代码进行任何其他更改,请设置 SQL
配置:“<sourceProtocolVersionKey> = <value>
”
以恢复流。 请参阅:
<docLink>
以获取更多详细信息。
CF_REGION_NOT_FOUND_ERROR
无法获取默认 AWS 区域。 请使用 cloudFiles.region 选项指定区域。
CF_RESOURCE_SUFFIX_EMPTY
无法创建通知服务:资源后缀不能为空。
CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS
无法创建通知服务:资源后缀只能有字母数字字符、连字符(-)和下划线(_)。
CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE
无法创建通知服务:资源后缀只能有小写字母、数字和短划线(-)。
CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP
无法创建通知服务:资源后缀只能包含字母数字字符、连字符 (-)、下划线 (_)、句点 (.)、波浪字符 (~)、加号 (+) 和百分比符号 (<percentSign>
)。
CF_RESOURCE_SUFFIX_LIMIT
无法创建通知服务:资源后缀不能超过 <limit>
个字符。
CF_RESOURCE_SUFFIX_LIMIT_GCP
无法创建通知服务:资源后缀必须在 <lowerLimit>
和 <upperLimit>
个字符之间。
CF_RESTRICTED_GCP_RESOURCE_TAG_KEY
找到受限的 GCP 资源标记键(<key>
)。 自动加载程序限制以下 GCP 资源标记密钥:[<restrictedKeys>
]
CF_RETENTION_GREATER_THAN_MAX_FILE_AGE
cloudFiles.cleanSource.retentionDuration 不能大于 cloudFiles.maxFileAge。
CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX
无法为前缀为 <topic>
的主题 <prefix>
创建通知。 已经存在一个具有不同前缀的同名主题:<oldPrefix>
。 尝试使用不同的资源后缀进行设置或删除现有设置。
CF_SCHEMA_LOG_DEEP_CLONE_FAILED
无法从源架构日志克隆和迁移任何架构日志条目。
CF_SFTP_缺少密码或密钥文件
必须为 SFTP 指定密码或密钥文件。
请在源 URI 中或通过 <passwordOption>
指定密码,或通过 <keyFileOption>
指定密钥文件内容。
CF_SFTP_NOT_ENABLED
未启用访问 SFTP 文件。 请联系 Databricks 支持部门获取帮助。
CF_SFTP_REQUIRE_UC_CLUSTER
访问 SFTP 文件需要启用 UC 的群集。 请联系 Databricks 支持部门获取帮助。
CF_SFTP_USERNAME_NOT_FOUND
必须为 SFTP 指定用户名。
请在源 URI 中或通过 <option>
提供用户名。
CF_SOURCE_DIRECTORY_PATH_REQUIRED
请使用选项 path
提供源目录路径
CF_SOURCE_UNSUPPORTED
云文件源目前仅支持 S3、Azure Blob Storage (wasb/wasbs),以及 Azure Data Lake Gen1 (adl) 和 Gen2 (abfs/abfss) 路径。 路径:“<path>
”,解析的 URI:“<uri>
”。
CF_STATE_INCORRECT_SQL_PARAMS
cloud_files_state 函数接受表示 cloudFiles 流的检查点目录的字符串参数或标识流式处理表的多部分 tableName,以及(可选)表示要加载其状态的检查点版本的第二个整数参数。 第二个参数也可能是“latest”,用于读取最新的检查点。 收到:<params>
CF_STATE_INVALID_CHECKPOINT_PATH
输入检查点路径 <path>
无效。 路径不存在,或者找不到cloud_files源。
CF_STATE_INVALID_VERSION
指定的版本 <version>
不存在,或在分析期间被删除。
CF_THREAD_IS_DEAD
<threadName>
线程已死。
CF_UNABLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION
无法从源检查点位置获取流检查点位置:<checkPointLocation>
CF_无法检测文件格式
无法在 <fileSize>
采样文件中检测源文件格式,找到了 <formats>
。 请指定格式。
CF_UNABLE_TO_EXTRACT_BUCKET_INFO
无法提取存储桶信息。 路径:“<path>
”,解析的 URI:“<uri>
”。
CF_UNABLE_TO_EXTRACT_KEY_INFO(无法提取关键信息)
无法提取密钥信息。 路径:“<path>
”,解析的 URI:“<uri>
”。
CF_UNABLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO
无法提取存储帐户信息。路径:“<path>
”,解析的 URI:“<uri>
”
CF_UNABLE_TO_LIST_EFFICIENTLY
收到路径 <path>
的目录重命名事件,但无法有效地列出此目录。 为了使流继续,请将选项“cloudFiles.ignoreDirRenames”设置为 true,并考虑使用 cloudFiles.backfillInterval 启用常规回填来处理此数据。
CF_UNEXPECTED_READ_LIMIT
意外的 ReadLimit:<readLimit>
CF_UNKNOWN_OPTION_KEYS_ERROR
找到未知选项键:
<optionList>
请确保提供的所有选项键都正确。 如果您想要跳过某个步骤,请执行以下操作:
选项验证步骤并忽略这些未知选项,你可以设置:
.option("cloudFiles.<validateOptions>
", "false")
CF_UNKNOWN_READ_LIMIT(未知读取限制)
未知 ReadLimit:<readLimit>
CF_UNSUPPORTED_CLEAN_SOURCE_MOVE
cleanSource “move” 模式配置不受支持。
有关更多详细信息,请参阅 CF_UNSUPPORTED_CLEAN_SOURCE_MOVE
CF_UNSUPPORTED_CLOUD_FILES_SQL_FUNCTION
创建自动加载程序流式处理源的 SQL 函数“cloud_files”仅在 Lakeflow 声明式管道中受支持。 请参阅以下位置的更多详细信息:
<docLink>
CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE
格式 <format>
不支持架构推理。 请指定架构。
CF_UNSUPPORTED_LOG_VERSION
UnsupportedLogVersion:支持的最大日志版本为 v<maxVersion>
,但遇到的是 v<version>
。 日志文件由较新版本的 DBR 生成,此版本无法读取。 请升级。
CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE
架构演变模式 <mode>
不支持用于格式:<format>
。 请将架构演变模式设置为“none”。
CF_USE_DELTA_FORMAT
此语法不支持从 Delta 表读取。 如果要使用 Delta 中的数据,请参阅文档:读取 Delta 表(<deltaDocLink>
),或读取 Delta 表作为流源(<streamDeltaDocLink>
)。 来自 Delta 的流式处理源已针对数据的增量使用进行了优化。
地理空间
EWKB_PARSE_ERROR
分析 EWKB 时出错:<parseError>
位置处的 <pos>
GEOJSON_PARSE_ERROR
在位置 <parseError>
解析 GeoJSON 时出错:<pos>
有关详细信息,请参阅 GEOJSON_PARSE_ERROR
GEO_ENCODER_SRID_MISMATCH_ERROR
无法对值进行编码 <type>
,因为提供要编码的值的 SRID <valueSrid>
与 SRID 类型不匹配: <typeSrid>
。
H3_INVALID_CELL_ID
<h3Cell>
不是有效的 H3 单元格 ID
有关更多详细信息,请参阅 H3_INVALID_CELL_ID
H3_INVALID_GRID_DISTANCE_VALUE
H3 网格距离 <k>
必须为非负
有关更多详细信息,请参阅 H3_INVALID_GRID_DISTANCE_VALUE
H3_INVALID_RESOLUTION_VALUE
H3 分辨率 <r>
必须介于 <minR>
和 <maxR>
之间(含两端)
有关更多详细信息,请参阅 H3_INVALID_RESOLUTION_VALUE
H3_NOT_ENABLED
禁用或不支持 <h3Expression>
。 请考虑切换到支持 H3 表达式的层
有关更多详细信息,请参阅 H3_NOT_ENABLED
H3_五角大楼_遇到错误
计算网格距离为 <h3Cell>
的 <k>
的六边形环时出现五边形
H3_UNDEFINED_GRID_DISTANCE
未定义 <h3Cell1>
和 <h3Cell2>
之间的 H3 网格距离
ST_DIFFERENT_SRID_VALUES
“<sqlFunction>
”的参数必须具有相同的 SRID 值。 找到的 SRID 值:<srid1>
、<srid2>
ST_INVALID_ARGUMENT
“”<sqlFunction>
: <reason>
ST_INVALID_ARGUMENT_TYPE
“<sqlFunction>
”的参数必须为 <validTypes>
类型
ST_INVALID_CRS_TRANSFORMATION_ERROR
<sqlFunction>
:从 SRID <srcSrid>
到 SRID <trgSrid>
无效或不受支持的 CRS 转换
ST_INVALID_ENDIANNESS_VALUE
字节序“<e>
”必须是“NDR”(小端)或“XDR”(大端)
ST_INVALID_GEOHASH_VALUE (地理哈希值无效)
<sqlFunction>
:无效的地理哈希值:“<geohash>
”。 Geohash 值必须是有效的小写 base32 字符串,如 https://en.wikipedia.org/wiki/Geohash#Textual_representation 中所述
ST_INVALID_INDEX_VALUE
<sqlFunction>
:提供的地理空间值的索引 <index>
无效。
ST_INVALID_PRECISION_VALUE(无效的精度值)
精度 <p>
必须在 <minP>
和 <maxP>
之间(含)
ST_INVALID_SRID_VALUE (无效的SRID值)
无效或不受支持的 SRID <srid>
ST_NOT_ENABLED
禁用或不支持 <stExpression>
。 请考虑切换到支持 ST 表达式的层
ST_不支持的返回类型
查询中无法返回 GEOGRAPHY
和 GEOMETRY
数据类型。 使用以下 SQL 表达式之一将其转换为标准交换格式:<projectionExprs>
。
WKB_PARSE_ERROR
分析 WKB 时出错:<parseError>
位置处的 <pos>
有关更多详细信息,请参阅 WKB_PARSE_ERROR
WKT_PARSE_ERROR
分析 WKT 时出错:<parseError>
位置处的 <pos>
有关更多详细信息,请参阅 WKT_PARSE_ERROR
统一目录
CONFLICTING_COLUMN_NAMES_ERROR
列 <columnName>
与另一列冲突,该列具有相同名称但带有/不带尾随空格(例如,现有列名为 <columnName>
)。 请使用其他名称重命名列。
CONNECTION_CREDENTIALS_NOT_SUPPORTED_FOR_ONLINE_TABLE_CONNECTION
SQLSTATE:未分配
为 <connectionType>
类型的连接获取连接级别凭据的请求无效。 此类凭据仅适用于托管 PostgreSQL 连接。
CONNECTION_TYPE_NOT_ENABLED
SQLSTATE:未分配
连接类型“<connectionType>
”未启用。 请启用连接以使用它。
DELTA_SHARING_READ_ONLY_RECIPIENT_EXISTS
SQLSTATE:未分配
已经存在一个具有相同共享标识符“<existingMetastoreId>
”的 Recipient 对象“<existingRecipientName>
”。
DELTA_SHARING_READ_ONLY_SECURABLE_KIND
SQLSTATE:未分配
Delta Sharing 安全对象类型 <securableKindName>
的数据是只读的,不能创建、修改或删除。
EXTERNAL_ACCESS_DISABLED_ON_METASTORE
SQLSTATE:未分配
由于已禁用元存储 <metastoreName>
的外部数据访问,非 Databricks 计算环境会拒绝凭据贩卖。 请联系你的元存储管理员,在元存储上启用“外部数据访问”配置。
不允许外部访问该表
SQLSTATE:未分配
由于表的类型是 <tableId>
,ID 为 <securableKind>
的表无法从 Databricks 计算环境外部访问。 仅可以外部访问“TABLE_EXTERNAL
”、“TABLE_DELTA_EXTERNAL
”和“TABLE_DELTA
”表类型。
EXTERNAL_USE_SCHEMA_ASSIGNED_TO_INCORRECT_SECURABLE_TYPE
SQLSTATE:未分配
特权 EXTERNAL
USE SCHEMA
不适用于该实体 <assignedSecurableType>
,只能用于架构或目录。 请从 <assignedSecurableType>
对象中删除该权限,并将其分配给架构或目录。
EXTERNAL_WRITE_NOT_ALLOWED_FOR_TABLE
SQLSTATE:未分配
id 为 <tableId>
的表无法从 Databricks 计算环境外部写入,因为它的类型 <securableKind>
。 仅可以外部写入“TABLE_EXTERNAL
”和“TABLE_DELTA_EXTERNAL
”表类型。
FOREIGN_CATALOG_STORAGE_ROOT_MUST_SUPPORT_WRITES
SQLSTATE:未分配
<catalogType>
类型的外部目录的存储位置将用于卸载数据,因此不能设置为只读。
HMS_SECURABLE_OVERLAP_LIMIT_EXCEEDED
SQLSTATE:未分配
输入路径 <resourceType>
的 <url>
数量超过了重叠 HMS <overlapLimit>
允许的限制 (<resourceType>
)。
INVALID_RESOURCE_NAME_DELTA_SHARING
SQLSTATE:未分配
使用资源名称不支持 Delta Sharing 请求
INVALID_RESOURCE_NAME_ENTITY_TYPE
SQLSTATE:未分配
提供的资源名称引用实体类型 <provided>
,但应该引用 <expected>
INVALID_RESOURCE_NAME_METASTORE_ID
SQLSTATE:未分配
提供的资源名称引用不在当前请求范围内的元存储
LOCATION_OVERLAP
SQLSTATE:未分配
输入路径 URL“<path>
”与“<caller>
”调用中的 <overlappingLocation>
重叠。 <conflictingSummary>
。 <permissionErrorSuggestion>
MONGO_DB_SRV_CONNECTION_STRING_DOES_NOT_ALLOW_PORT
SQLSTATE:未分配
不允许创建或更新 MongoDB 连接,因为 MongoDB SRV 连接字符串不需要端口。
请删除端口,因为 SRV 连接字符串不需要端口。
REDSHIFT_FOREIGN_CATALOG_STORAGE_ROOT_MUST_BE_S3
SQLSTATE:未分配
Redshift 外部目录的存储根必须是 AWS S3。
SECURABLE_KIND_DOES_NOT_SUPPORT_LAKEHOUSE_FEDERATION
SQLSTATE:未分配
类型为 <securableKind>
的安全对象不支持 Lakehouse Federation。
SECURABLE_KIND_NOT_ENABLED
SQLSTATE:未分配
安全类型“<securableKind>
”未启用。 如果这是与预览功能关联的安全对象类型,请在工作区设置中启用它。
SECURABLE_TYPE_DOES_NOT_SUPPORT_LAKEHOUSE_FEDERATION
SQLSTATE:未分配
类型为 <securableType>
的安全对象不支持 Lakehouse Federation。
SOURCE_TABLE_COLUMN_COUNT_EXCEEDS_LIMIT
SQLSTATE:未分配
源表包含的列数超过 <columnCount>
。 请将列数减少到 <columnLimitation>
或更少。
UC_AAD_TOKEN_LIFETIME_TOO_SHORT
SQLSTATE:未分配
交换的 AAD 令牌生存期 <lifetime>
配置得太短。 请检查 Azure AD 设置,确保临时访问令牌至少具有一小时生存期。 https://learn.microsoft.com/azure/active-directory/develop/active-directory-configurable-token-lifetimes
UC_ABAC_DEPENDENCY_DIFFERING_RF_CM
SQLSTATE:未分配
依赖项“<dependency>
”被多次引用,导致 ABAC 行筛选器或列掩码不同。
UC_ABAC_EVALUATION_ERROR
SQLSTATE:未分配
评估 <resource>
上的 ABAC 策略时出错。
UC_ABAC_EVALUATION_USER_ERROR
SQLSTATE:未分配
评估“<resource>
”上的 ABAC 策略时出错。 策略“<policyName>
”失败并显示消息: <message>
。
UC_ALTER_DLT_VIEW_OUTSIDE_DEFINING_PIPELINE
SQLSTATE:未分配
不允许在定义视图的管道外部更改视图“<viewFullName>
”。 相反,请从定义它的管道更新视图定义(管道 ID:<owningPipelineId>
)。
UC_AUTHZ_ACTION_NOT_SUPPORTED
SQLSTATE:未分配
不支持授权 <actionName>
;请检查是否已为此资源类型实现 RPC
UC_BUILTIN_HMS_CONNECTION_CREATION_PERMISSION_DENIED
SQLSTATE:未分配
无法为内置 hive 元存储创建连接,因为用户:<userId>
不是工作区的管理员:<workspaceId>
UC_BUILTIN_HMS_CONNECTION_MODIFY_RESTRICTED_FIELD
SQLSTATE:未分配
尝试修改内置 HMS 连接“<connectionName>
”中的受限字段。 仅可以更新“warehouse_directory”。
UC_CANNOT_RENAME_PARTITION_FILTERING_COLUMN
SQLSTATE:未分配
无法重命名表列 <originalLogicalColumn>
,因为它在 <sharedTableName>
中用于分区筛选。 若要继续操作,可以从共享中删除表,重命名列,然后再次与所需的分区筛选列共享。 不过,这可能会中断收件人的流式处理查询。
UC_CHILD_CREATION_FORBIDDEN_FOR_NON_UC_CLUSTER
SQLSTATE:未分配
无法在 <parentSecurableType>
'<parentSecurable>
' 下创建 <securableType>
'<securable>
',因为请求不是来自 UC 群集。
UC_云存储访问失败
SQLSTATE:未分配
无法访问云存储:<errMsg>
exceptionTraceId=<exceptionTraceId>
UC_CONFLICTING_CONNECTION_OPTIONS
SQLSTATE:未分配
无法使用用户名/密码和 oauth 身份验证选项创建连接。 请选择一个。
UC_CONNECTION_CREDENTIALS_MAXIMUM_REACHED
SQLSTATE:未分配
连接名称“<connectionName>
”的凭据已达到最大数量。 请在创建新凭据之前删除现有凭据。
UC_CONNECTION_CREDENTIALS_NOT_EXIST_FOR_USER_WITH_LOGIN
SQLSTATE:未分配
用户身份 ('<userIdentity>
') 的凭据未在连接“<connectionName>
”中找到。 请先通过访问 <connectionPage>
登录到连接。
UC_CONNECTION_CREDENTIALS_TYPE_NOT_SUPPORTED
SQLSTATE:未分配
不支持为安全对象类型“”<securableType>
创建凭据。 支持的安全对象类型: <allowedSecurableType>
。
UC_CONNECTION_EXISTS_FOR_CREDENTIAL
SQLSTATE:未分配
凭据“<credentialName>
”有一个或多个依赖连接。 可以使用强制选项继续更新或删除凭据,但使用此凭据的连接可能不再有效。
UC_CONNECTION_EXPIRED_ACCESS_TOKEN
SQLSTATE:未分配
与连接关联的访问令牌已过期。 请更新连接以重启 OAuth 流以检索令牌。
UC_CONNECTION_EXPIRED_REFRESH_TOKEN
SQLSTATE:未分配
与连接关联的刷新令牌已过期。 请更新连接以重启 OAuth 流以检索新的令牌。
UC连接处于失败状态
SQLSTATE:未分配
连接处于 FAILED
状态。 请使用有效的凭据更新连接以重新激活连接。
UC_CONNECTION_MISSING_OPTION
SQLSTATE:未分配
安全类型“<securableType>
”的连接必须包括以下选项:<requiredOptions>
。
UC_CONNECTION_MISSING_REFRESH_TOKEN
SQLSTATE:未分配
没有与连接关联的刷新令牌。 请更新标识提供者中的 OAuth 客户端集成以返回刷新令牌,并更新或重新创建连接以重启 OAuth 流并检索所需的令牌。
UC_CONNECTION_OAUTH_EXCHANGE_FAILED
SQLSTATE:未分配
OAuth 令牌交换失败,HTTP 状态代码 <httpStatus>
。 返回的服务器响应或异常消息为:<response>
不支持的UC连接选项
SQLSTATE:未分配
安全对象类型<securableType>
的连接不支持以下选项:<optionsNotSupported>
. 支持的选项:<allowedOptions>
。
UC_COORDINATED_COMMITS_NOT_ENABLED
SQLSTATE:未分配
未启用对协调提交的支持。 请联系 Databricks 支持部门。
UC_CREATE_FORBIDDEN_UNDER_INACTIVE_SECURABLE
SQLSTATE:未分配
无法创建 <securableType>
'<securableName>
',因为它位于非活动的 <parentSecurableType>
'<parentSecurableName>
' 下。 请删除父级安全对象并重新创建父级。
UC_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED
SQLSTATE:未分配
未能解析给定的访问连接器 ID:<accessConnectorId>
。 请验证其格式并重试。
UC_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN
SQLSTATE:未分配
未能获取 AAD 令牌以对访问连接器执行云权限验证。 请重试该操作。
UC_CREDENTIAL_INVALID_CLOUD_PERMISSIONS
SQLSTATE:未分配
注册凭据需要通过 ID 为 <accessConnectorId>
的相应访问连接器提供参与者角色。 请联系你的帐户管理员。
UC_CREDENTIAL_INVALID_CREDENTIAL_TYPE_FOR_PURPOSE
SQLSTATE:未分配
凭据类型“<credentialType>
”不支持用途“<credentialPurpose>
”。
UC_CREDENTIAL_PERMISSION_DENIED
SQLSTATE:未分配
只有帐户管理员可以创建或更新类型为 <storageCredentialType>
的凭据。
UC凭证信任策略是开放的
SQLSTATE:未分配
IAM 角色的信任策略,以允许 Databricks 帐户承担该角色应需要外部 ID。请联系帐户管理员以添加外部 ID 条件。 此行为是为了防范困惑代理问题 (https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html)。
UC_CREDENTIAL_UNPRIVILEGED_SERVICE_PRINCIPAL_NOT_SUPPORTED
SQLSTATE:未分配
服务主体无法使用 CREATE STORAGE CREDENTIAL
特权来注册托管标识。 若要注册托管标识,请为服务主体分配帐户管理员角色。
UC_CREDENTIAL_WORKSPACE_API_PROHIBITED
SQLSTATE:未分配
帐户级 API 不支持以非帐户管理员身份创建或更新凭据。 请改用工作区级 API。
UC_DBR_TRUST_VERSION_TOO_OLD
SQLSTATE:未分配
正在使用的 Databricks Runtime 不再支持此操作。 请使用最新版本(可能需要重启群集)。
UC_DELTA_UNIVERSAL_FORMAT_CANNOT_PARSE_ICEBERG_VERSION
SQLSTATE:未分配
无法从元数据位置 <metadataLocation>
分析 Iceberg 表版本。
UC_DELTA_UNIVERSAL_FORMAT_CONCURRENT_WRITE
SQLSTATE:未分配
检测到对同一冰山元数据版本的并发更新。
UC_DELTA_UNIVERSAL_FORMAT_INVALID_METADATA_LOCATION
SQLSTATE:未分配
提交的元数据位置 <metadataLocation>
无效。 它不是表的根目录 <tableRoot>
的子目录。
UC_DELTA_UNIVERSAL_FORMAT_MISSING_FIELD_CONSTRAINT
SQLSTATE:未分配
提供的 delta iceberg 格式转换信息缺少必填字段。
UC_DELTA_UNIVERSAL_FORMAT_NON_CREATE_CONSTRAINT
SQLSTATE:未分配
不支持设置有关创建 delta iceberg 格式的信息。
UC_DELTA_UNIVERSAL_FORMAT_TOO_LARGE_CONSTRAINT
SQLSTATE:未分配
提供的 delta iceberg 格式转换信息太大。
UC_DELTA_UNIVERSAL_FORMAT_UPDATE_INVALID
SQLSTATE:未分配
只能在启用了统一的 Delta 表上更新统一元数据。
UC_依赖深度已超限 (UC_DEPENDENCY_DEPTH_LIMIT_EXCEEDED)
SQLSTATE:未分配
<resourceType>
'<ref>
' 深度超过限制(或存在循环引用)。
UC_DEPENDENCY_DOES_NOT_EXIST
SQLSTATE:未分配
<resourceType>
'<ref>
' 无效,因为基础资源之一不存在。 <cause>
UC_DEPENDENCY_PERMISSION_DENIED
SQLSTATE:未分配
<resourceType>
'<ref>
' 没有足够的权限执行,因为基础资源之一的所有者授权检查失败。 <cause>
重复连接 (UC_DUPLICATE_CONNECTION)
SQLSTATE:未分配
已存在具有相同 URL 的名为“'”<connectionName>
的连接。 请要求所有者使用该连接的权限,而不是创建重复连接。
UC_DUPLICATE_FABRIC_CATALOG_CREATION
SQLSTATE:未分配
尝试创建 URL 为“<storageLocation>
”的 Fabric 目录,该目录与现有目录匹配,这是不允许的。
UC_DUPLICATE_TAG_ASSIGNMENT_CREATION
SQLSTATE:未分配
具有标记键的标记分配 <tagKey>
已存在
UC实体不存在对应的在线集群
SQLSTATE:未分配
实体 <securableType> <entityId>
没有相应的联机群集。
UC_ERROR_CODE_XWYEY
SQLSTATE:未分配
如果此问题持续存在,请联系 Databricks 支持并提供错误代码 #UC-XWYEY
。
UC_EXCEEDS_MAX_FILE_LIMIT
SQLSTATE:未分配
文件数超过 <maxFileResults>
。 请指定 [max_results] 以限制返回的文件数。
UC_EXTERNAL_LOCATION_OP_NOT_ALLOWED
SQLSTATE:未分配
无法 <opName> <extLoc> <reason>
。 <suggestion>
。
UC_功能已禁用
SQLSTATE:未分配
<featureName>
当前已在 UC 中禁用。
UC_FOREIGN_CATALOG_FOR_CONNECTION_TYPE_NOT_SUPPORTED
SQLSTATE:未分配
不支持为连接类型“<connectionType>
”创建外部目录。 此连接类型只能用于创建托管引入管道。 有关详细信息,请参阅 Databricks 文档。
UC_FOREIGN_CREDENTIAL_CHECK_ONLY_FOR_READ_OPERATIONS
SQLSTATE:未分配
只能检索外表的 READ 凭据。
UC_FOREIGN_HMS_SHALLOW_CLONE_MISMATCH
SQLSTATE:未分配
对于在外部 Hive 元存储目录中创建的浅克隆,基表和克隆表必须位于同一目录中。 基表“”位于目录“<baseTableName>
<baseCatalogName>
中,克隆表”<cloneTableName>
“位于目录”“<cloneCatalogName>
中。
UC_FOREIGN_KEY_CHILD_COLUMN_LENGTH_MISMATCH
SQLSTATE:未分配
外键 <constraintName>
子列和父列的大小不同。
UC_FOREIGN_KEY_COLUMN_MISMATCH
SQLSTATE:未分配
外键父列与引用的主键子列不匹配。 外键父列是(<parentColumns>
),主键子列是(<primaryKeyChildColumns>
)。
UC_FOREIGN_KEY_COLUMN_TYPE_MISMATCH
SQLSTATE:未分配
外键子列类型与父列类型不匹配。 外键子列 <childColumnName>
具有类型 <childColumnType>
,父列 <parentColumnName>
具有类型 <parentColumnType>
。
UC_GCP_INVALID_PRIVATE_KEY(无效的私钥)
SQLSTATE:未分配
访问被拒绝。 原因:服务帐户私钥无效。
UC_GCP_无效的私钥JSON格式
SQLSTATE:未分配
Google 服务帐户 OAuth 私钥必须是包含必填字段的有效 JSON 对象,请确保提供从服务帐户详细信息页面的“KEYS”部分生成的完整 JSON 文件。
UC_GCP_INVALID_PRIVATE_KEY_JSON_FORMAT_MISSING_FIELDS
SQLSTATE:未分配
Google 服务帐户 OAuth 私钥必须是包含必填字段的有效 JSON 对象,请确保提供从服务帐户详细信息页面的“KEYS”部分生成的完整 JSON 文件。 缺少的字段为 <missingFields>
UC_IAM_ROLE_NON_SELF_ASSUMING
SQLSTATE:未分配
发现此存储凭据的 IAM 角色不是自假设的。 请检查角色的信任和 IAM 策略,以确保根据 Unity 目录存储凭据文档,你的 IAM 角色可以自担。
UC_ICEBERG_COMMIT_CONFLICT
SQLSTATE:未分配
无法提交 <tableName>
:元数据位置 <baseMetadataLocation>
已从 <catalogMetadataLocation>
更改。
UC_ICEBERG_COMMIT_INVALID_TABLE
SQLSTATE:未分配
无法对非托管 Iceberg 表执行托管 Iceberg 提交:<tableName>
。
UC_ICEBERG_COMMIT_MISSING_FIELD_CONSTRAINT
SQLSTATE:未分配
提供的 Managed Iceberg 提交信息缺少必填字段。
UC_ID_MISMATCH
SQLSTATE:未分配
<type> <name>
没有 ID <wrongId>
。 请重试该操作。
UC_INVALID_ACCESS_BRICKSTORE_PG_CONNECTION
SQLSTATE:未分配
对数据库实例的访问无效。 <reason>
UC_INVALID_ACCESS_DBFS_ENTITY
SQLSTATE:未分配
在联合目录 <securableType> <securableName>
中,访问 <catalogName>
是无效的。 <reason>
UC_INVALID_CLOUDFLARE_ACCOUNT_ID (无效的Cloudflare账户ID)
SQLSTATE:未分配
Cloudflare 帐户 ID 无效。
UC_INVALID_CREDENTIAL_CLOUD
SQLSTATE:未分配
凭据云提供商“<cloud>
”无效。 允许的云提供商“<allowedCloud>
”。
UC_INVALID_CREDENTIAL_PURPOSE_VALUE
SQLSTATE:未分配
凭据的“purpose”值“<value>
”无效。 允许的值“<allowedValues>
”。
UC_INVALID_CREDENTIAL_TRANSITION
SQLSTATE:未分配
无法将连接从 <startingCredentialType>
更新为 <endingCredentialType>
。 唯一有效的转换是从基于用户名/密码的连接到基于 OAuth 令牌的连接。
UC_INVALID_CRON_STRING_FABRIC
SQLSTATE:未分配
cron 字符串无效。 发现:“<cronString>
”解析异常:“<message>
”
UC_INVALID_DIRECT_ACCESS_MANAGED_TABLE
SQLSTATE:未分配
直接访问托管表 <tableName>
无效。 确保未定义源表和管道定义。
UC_INVALID_EMPTY_STORAGE_LOCATION
SQLSTATE:未分配
目录“<catalogName>
”中 <securableType>
'<securableName>
' 的存储位置意外为空。 若要修复此错误,请运行 DESCRIBE SCHEMA <catalogName>
。<securableName>
并刷新此页面。
UC_INVALID_OPTIONS_UPDATE
SQLSTATE:未分配
提供的更新选项无效。 无效选项:<invalidOptions>
。 允许的选项:<allowedOptions>
。
UC_INVALID_OPTION_VALUE
SQLSTATE:未分配
“<option>
”的值“<value>
”无效。 允许的值“<allowedValues>
”。
UC_INVALID_OPTION_VALUE_EMPTY
SQLSTATE:未分配
“<option>
”不能为空。 请输入非空值。
UC_INVALID_POLICY_CONDITION
SQLSTATE:未分配
策略“”<policyName>
中的条件无效。 编译错误,消息为“<message>
”。
UC_INVALID_R2_ACCESS_KEY_ID (无效的R2访问密钥ID)
SQLSTATE:未分配
R2 访问密钥 ID 无效。
UC_INVALID_R2_SECRET_ACCESS_KEY (无效的 R2 密钥访问权限)
SQLSTATE:未分配
R2 机密访问密钥无效。
UC_INVALID_UPDATE_ON_SYSTEM_WORKSPACE_ADMIN_GROUP_OWNED_SECURABLE
SQLSTATE:未分配
无法更新 <securableType>
'<securableName>
',因为它归内部组所有。 请联系 Databricks 支持部门了解更多详细信息。
UC_INVALID_WASBS_EXTERNAL_LOCATION_STORAGE_CREDENTIAL
SQLSTATE:未分配
如果存储凭据 <storageCredentialName>
未与 DBFS 根关联,则禁止创建 wasbs 外部位置。
UC_LOCATION_INVALID_SCHEME
SQLSTATE:未分配
存储位置的 URI 方案无效:<scheme>
。
UC_MALFORMED_OAUTH_SERVER_RESPONSE
SQLSTATE:未分配
令牌服务器的响应缺少字段 <missingField>
。 返回的服务器响应为:<response>
UC_METASTORE_ASSIGNMENT_STATUS_INVALID
SQLSTATE:未分配
“<metastoreAssignmentStatus>
”无法分配。 仅支持 MANUALLY_ASSIGNABLE
和 AUTO_ASSIGNMENT_ENABLED
。
UC_METASTORE_CERTIFICATION_NOT_ENABLED
SQLSTATE:未分配
未启用Metastore认证。
UC_METASTORE_DB_SHARD_MAPPING_NOT_FOUND
SQLSTATE:未分配
由于内部错误,无法检索元存储到元存储 ID 的数据库分片映射 <metastoreId>
。 请联系 Databricks 支持部门。
UC_METASTORE_HAS_ACTIVE_MANAGED_ONLINE_CATALOGS
SQLSTATE:未分配
元存储 <metastoreId>
具有 <numberManagedOnlineCatalogs>
托管联机目录。 请显式删除它们,然后重试元存储删除。
UC_METASTORE_STORAGE_ROOT_CREDENTIAL_UPDATE_INVALID
SQLSTATE:未分配
更新元存储根位置时,无法定义元存储根凭据。 将从元存储父外部位置提取凭据。
UC_METASTORE_STORAGE_ROOT_DELETION_INVALID
SQLSTATE:未分配
删除元存储根位置失败。 <reason>
UC_METASTORE_STORAGE_ROOT_READ_ONLY_INVALID
SQLSTATE:未分配
元存储的根 <securableType>
不能为只读。
UC_METASTORE_STORAGE_ROOT_UPDATE_INVALID
SQLSTATE:未分配
设置元存储根目录后,无法更新元存储根。
UC_MODEL_INVALID_STATE
SQLSTATE:未分配
无法为状态为 <modelVersionStatus>
的模型版本 <modelVersion>
生成临时“<opName>
”凭据。 “<opName>
”凭据只能为状态为 <validStatus>
的模型版本生成。
UC_NO_ORG_ID_IN_CONTEXT
SQLSTATE:未分配
尝试访问组织 ID(或工作区 ID),但上下文没有。
UC_在线目录不可变更
SQLSTATE:未分配
<rpcName>
请求更新 <fieldName>
。 使用联机存储计算选项卡修改联机目录的注释、所有者和 isolationMode 以外的任何内容。
UC_ONLINE_CATALOG_QUOTA_EXCEEDED
SQLSTATE:未分配
无法在元存储中创建超过 <quota>
个联机存储,并且已存在 <currentCount>
。 您可能无法访问任何现有的在线商店。 请联系数据存储管理员,获取访问权限或进一步说明。
UC_ONLINE_INDEX_CATALOG_INVALID_CRUD
SQLSTATE:未分配
联机索引目录必须通过 /vector-search API 进行 <action>
。
UC_ONLINE_INDEX_CATALOG_NOT_MUTABLE
SQLSTATE:未分配
<rpcName>
请求更新 <fieldName>
。 使用 /vector-search API 修改联机索引目录的注释、所有者和 isolationMode 以外的任何内容。
UC_ONLINE_INDEX_CATALOG_QUOTA_EXCEEDED
SQLSTATE:未分配
无法在元存储中创建超过 <quota>
个联机索引目录,并且已存在 <currentCount>
。 你可能无权访问任何现有的联机索引目录。 请联系数据存储管理员,获取访问权限或进一步说明。
UC_ONLINE_INDEX_INVALID_CRUD
SQLSTATE:未分配
联机索引必须通过 /vector-search API 进行 <action>
。
UC_ONLINE_STORE_INVALID_CRUD
SQLSTATE:未分配
必须通过联机存储计算选项卡 <action>
联机存储。
UC_ONLINE_TABLE_COLUMN_NAME_TOO_LONG
SQLSTATE:未分配
源表列名 <columnName>
太长。 最大长度为 <maxLength>
个字符。
UC_ONLINE_TABLE_PRIMARY_KEY_COLUMN_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT
SQLSTATE:未分配
列 <columnName>
不能用作联机表的主键列,因为它不属于源表的现有 PRIMARY KEY
约束的一部分。 有关详细信息,请参阅 <docLink>
UC_ONLINE_TABLE_TIMESERIES_KEY_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT
SQLSTATE:未分配
列 <columnName>
不能用作联机表的超时键,因为它不是源表现有 PRIMARY KEY
约束的超时列。 有关详细信息,请参阅 <docLink>
UC_ONLINE_VIEWS_PER_SOURCE_TABLE_QUOTA_EXCEEDED
SQLSTATE:未分配
无法为每个源表创建 <quota>
个以上的联机表。
UC_ONLINE_VIEW_ACCESS_DENIED
SQLSTATE:未分配
访问资源 <resourceName>
需要使用无服务器 SQL 仓库。 请确保用于在 UI 中执行查询或查看数据库目录的仓库是无服务器的。 有关详细信息,请参阅 <docLink>
UC_ONLINE_VIEW_CONTINUOUS_QUOTA_EXCEEDED
SQLSTATE:未分配
无法在联机存储中创建超过 <quota>
连续联机视图,并且已存在 <currentCount>
。 您可能无法访问任何现有的在线视图。 请联系您的在线商店管理员,以授予访问权限或进一步说明。
UC_ONLINE_VIEW 不支持 DMK
SQLSTATE:未分配
不能使用 Databricks 托管密钥在存储位置下创建 <tableKind>
。 请在存储位置中选择一个不同的架构/目录,而不使用 Databricks 托管密钥加密。
UC_ONLINE_VIEW_INVALID_CATALOG
SQLSTATE:未分配
具有创建 <catalogName>
的种类 <catalogKind>
的目录 <tableKind>
无效。 <tableKind>
只能在 <validCatalogKinds>
类型的目录下创建。
UC_ONLINE_VIEW_INVALID_SCHEMA
SQLSTATE:未分配
要在其中创建 <schemaName>
的类型 <schemaKind>
的架构 <tableKind>
无效。 <tableKind>
只能在特定类型的架构下创建:<validSchemaKinds>
。
UC_ONLINE_VIEW_INVALID_TTL_TIME_COLUMN_TYPE
SQLSTATE:未分配
<columnName>
类型的列 <columnType>
不能用作 TTL 时间列。 允许的类型是 <supportedTypes>
。
UC_OPERATION_NOT_SUPPORTED
SQLSTATE:未分配
Unity Catalog 不支持该操作。 <detailedMessage>
UC_OUT_OF_AUTHORIZED_PATHS_SCOPE
SQLSTATE:未分配
授权路径错误。 目录的授权路径中未定义 <securableType>
位置 <location>
:<catalogName>
。 请要求目录所有者将路径添加到目录上定义的授权路径列表中。
UC_OVERLAPPED_AUTHORIZED_PATHS
SQLSTATE:未分配
“authorized_paths”选项包含重叠路径:<overlappingPaths>
。 确保每个路径都是唯一的,并且不会与列表中的其他人相交。
UC_PAGINATION_AND_QUERY_ARGS_MISMATCH
SQLSTATE:未分配
查询参数“<arg>
”设置为“<received>
”,这与第一次分页调用中使用的值 ('<expected>
') 不同。
UC_PATH_FILTER_ALLOWLIST_VIOLATION
SQLSTATE:未分配
路径“<targetPath>
”与凭据“<credentialName>
”不允许。 请确保该路径是以下列表中的元素的子路径:“”。<allowlist>
UC_PATH_TOO_LONG
SQLSTATE:未分配
输入路径太长。 允许的长度:<maxLength>
。 输入长度:<inputLength>
。 输入:<path>
...
UC_PER_METASTORE_DATABASE_CONCURRENCY_LIMIT_EXCEEDED
SQLSTATE:未分配
元存储 <metastoreId>
的并发限制已超出。 请稍后重试。 如果问题仍然存在,请联系支持人员。 错误代码 #UC-<errorCodeArbitraryFiveLettersUpperCase>
UC_POSTGRESQL_ONLINE_VIEWS_PER_SOURCE_TABLE_QUOTA_EXCEEDED
SQLSTATE:未分配
无法为每个源表创建多个 <quota>
同步的数据库表。
UC_PRIMARY_KEY_ON_NULLABLE_COLUMN
SQLSTATE:未分配
无法创建主键 <constraintName>
,因为其子列 <childColumnNames>
可为 null。 请更改列的可为 null 性,然后重试。
UC_REQUEST_TIMEOUT
SQLSTATE:未分配
此操作花费的时间过长。
UC_ROOT_STORAGE_S3_BUCKET_NAME_CONTAINS_DOT
SQLSTATE:未分配
Unity Catalog 不支持包含点的根存储 S3 存储桶名称:<uri>
UC_SCHEMA_EMPTY_STORAGE_LOCATION
SQLSTATE:未分配
目录“<catalogName>
”中架构“<schemaName>
”的存储位置意外为空。 请确保架构使用 <validPathSchemesListStr>
的路径方案。
UC_SERVERLESS_UNTRUSTED_DOMAIN_STORAGE_TOKEN_MINTING
SQLSTATE:未分配
无服务器笔记本无法从 Unity 目录中检索临时存储凭据。
UC_STORAGE_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED
SQLSTATE:未分配
未能解析给定的访问连接器 ID:<accessConnectorId>
。 请验证其格式并重试。
UC_STORAGE_CREDENTIAL_DBFS_ROOT_CREATION_PERMISSION_DENIED
SQLSTATE:未分配
无法为 DBFS 根目录创建存储凭据,因为用户:<userId>
不是工作区的管理员:<workspaceId>
UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_DBFS_ENABLED
SQLSTATE:未分配
启用了防火墙的 DBFS 的工作区尚不支持 DBFS 根存储凭据
UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_NOT_SUPPORTED
SQLSTATE:未分配
尚不支持当前工作区的 DBFS 根存储凭据
UC_STORAGE_CREDENTIAL_DBFS_ROOT_WORKSPACE_DISABLED
SQLSTATE:未分配
未为工作区 <workspaceId>
启用 DBFS 根
UC_STORAGE_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN
SQLSTATE:未分配
未能获取 AAD 令牌以对访问连接器执行云权限验证。 请重试该操作。
UC_STORAGE_CREDENTIAL_INVALID_CLOUD_PERMISSIONS
SQLSTATE:未分配
注册存储凭据需要通过 ID 为 <accessConnectorId>
的相应访问连接器提供参与者角色。 请联系你的帐户管理员。
UC_STORAGE_CREDENTIAL_PERMISSION_DENIED
SQLSTATE:未分配
只有帐户管理员可以创建或更新类型为 <storageCredentialType>
的存储凭据。
UC_STORAGE_CREDENTIAL_SERVICE_PRINCIPAL_MISSING_VALIDATION_TOKEN
SQLSTATE:未分配
缺少服务主体的验证令牌。 请在“X-Databricks-Azure-SP-Management-Token”请求标头中提供有效的 ARM 范围的 Entra ID 令牌,然后重试。 有关详细信息,请查看 https://docs.databricks.com/api/workspace/storagecredentials
UC_STORAGE_CREDENTIAL_TRUST_POLICY_IS_OPEN
SQLSTATE:未分配
IAM 角色的信任策略,以允许 Databricks 帐户承担该角色应需要外部 ID。请联系帐户管理员以添加外部 ID 条件。 此行为是为了防范困惑代理问题 (https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html)。
UC_STORAGE_CREDENTIAL_UNPRIVILEGED_SERVICE_PRINCIPAL_NOT_SUPPORTED
SQLSTATE:未分配
服务主体无法使用 CREATE STORAGE CREDENTIAL
特权来注册托管标识。 若要注册托管标识,请为服务主体分配帐户管理员角色。
UC_STORAGE_CREDENTIAL_WASBS_NOT_DBFS_ROOT
SQLSTATE:未分配
位置 <location>
不在 DBFS 根目录内,因此我们无法创建存储凭据 <storageCredentialName>
。
UC_STORAGE_CREDENTIAL_WORKSPACE_API_PROHIBITED
SQLSTATE:未分配
帐户级 API 不支持在非帐户管理员身份下创建或更新存储凭据。 请改用工作区级 API。
UC_STORAGE_CREDENTIAL_WS_BUCKET_INVALID_LOCATION
SQLSTATE:未分配
位置 <requestedLocation>
不在允许的上下文中 <allowedLocation>
UC_STORAGE_CREDENTIAL_WS_INTERNAL_CATALOG_NOT_SUPPORTED
SQLSTATE:未分配
当前工作区的工作区内部目录存储凭据尚不支持。
UC_SYSTEM_WORKSPACE_GROUP_PERMISSION_UNSUPPORTED
SQLSTATE:未分配
无法向系统生成的组 <securableType>
授予对 <principal>
的权限。
UC_TABLE_IS_NOT_CATALOG_OWNED
SQLSTATE:未分配
对表“<tableId>
”执行提交/获取提交的请求需要在表上启用目录拥有功能。
UC_TAG_ASSIGNMENT_WITH_KEY_DOES_NOT_EXIST
SQLSTATE:未分配
标记键为 <tagKey>
的标记分配不存在
UC_TEMPORARY_CREDENTIAL_OPERATION_NOT_SUPPORTED
SQLSTATE:未分配
不支持临时凭据操作。
UC_UNDROP_RESOURCE_ID_ALREADY_EXISTS
SQLSTATE:未分配
无法取消删除“<resourceType>
”,因为已存在 ID 为“<resourceId>
”的“<resourceType>
”。
UC_UNDROP_RESOURCE_NAME_ALREADY_EXISTS
SQLSTATE:未分配
无法取消删除“<resourceType>
”,因为已存在名称为“<resourceName>
”的“<resourceType>
”。
UC_UNDROP_RESOURCE_NOT_READY
SQLSTATE:未分配
无法取消删除“<resourceType>
”,因为 ID 为“<resourceId>
”的“<resourceType>
”尚未准备好恢复,请稍后重试。
UC_UNDROP_RESOURCE_PAST_RECOVERABLE_WINDOW
SQLSTATE:未分配
无法取消删除“<resourceType>
”,因为 ID 为“<resourceId>
”的“<resourceType>
”已超出支持的“<maxRestorationPeriodDay>
”天恢复期限。
UC_UNSUPPORTED_HTTP_CONNECTION_BASE_PATH
SQLSTATE:未分配
提供的基路径无效,基本路径应类似于 /api/resources/v1。 不支持的路径:<path>
UC_UNSUPPORTED_HTTP_CONNECTION_HOST
SQLSTATE:未分配
提供的主机名无效,主机名应类似于 https://www.databricks.com,且不应包含路径后缀。 不支持的主机:<host>
UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH
SQLSTATE:未分配
外部位置/卷/表路径仅支持基本 Latin/Latin-1 ASCII
字符。 不支持的路径:<path>
UC_UPDATE_FORBIDDEN_FOR_PROVISIONING_SECURABLE
SQLSTATE:未分配
无法更新 <securableType>
'<securableName>
',因为它正在预配中。
UC_WRITE_CONFLICT
SQLSTATE:未分配
<type> <name>
已被另一个请求修改。 请重试该操作。
UNITY_CATALOG_EXTERNAL_COORDINATED_COMMITS_REQUEST_DENIED
SQLSTATE:未分配
出于安全原因,拒绝从 Databricks Unity Catalog 启用的计算环境外部对表“<tableId>
”执行提交/获取提交的请求。 请联系 Databricks 支持部门以与 Unity Catalog 集成。
UNITY_CATALOG_EXTERNAL_CREATE_STAGING_TABLE_REQUEST_DENIED
SQLSTATE:未分配
出于安全原因,拒绝从 Databricks Unity Catalog 启用的计算环境外部创建临时表“<tableFullName>
”的请求。 请联系 Databricks 支持部门以与 Unity Catalog 集成。
UNITY_CATALOG_EXTERNAL_CREATE_TABLE_REQUEST_FOR_NON_EXTERNAL_TABLE_DENIED
SQLSTATE:未分配
出于安全原因,拒绝从 Databricks Unity Catalog 启用的计算环境外部创建非外部表“<tableFullName>
”的请求。 请联系 Databricks 支持部门以与 Unity Catalog 集成。
UNITY_CATALOG_EXTERNAL_DELETE_TABLE_REQUEST_FOR_NON_EXTERNAL_TABLE_DENIED
SQLSTATE:未分配
不支持从 Databricks Unity Catalog 启用的计算环境外部删除非外部表“<tableFullName>
”的请求。
UNITY_CATALOG_EXTERNAL_GENERATE_PATH_CREDENTIALS_DENIED
SQLSTATE:未分配
出于安全原因,拒绝从 Databricks Unity Catalog 启用的计算环境外部为路径“<path>
”生成访问凭据的请求。 请联系 Databricks 支持部门以与 Unity Catalog 集成。
UNITY_CATALOG_EXTERNAL_GENERATE_TABLE_CREDENTIALS_DENIED
SQLSTATE:未分配
出于安全原因,拒绝从 Databricks Unity Catalog 启用的计算环境外部为表“<tableId>
”生成访问凭据的请求。 请联系 Databricks 支持部门以与 Unity Catalog 集成。
UNITY_CATALOG_EXTERNAL_GET_FOREIGN_CREDENTIALS_DENIED
SQLSTATE:未分配
出于安全原因,拒绝从启用了 Databricks Unity 目录的计算环境外部获取安全对象的外部凭据的请求。
UNITY_CATALOG_EXTERNAL_UPDATA_METADATA_SNAPSHOT_DENIED
SQLSTATE:未分配
出于安全性,拒绝从启用了 Databricks Unity 目录的计算环境外部更新元数据快照的请求。
WRITE_CREDENTIALS_NOT_SUPPORTED_FOR_LEGACY_MANAGED_ONLINE_TABLE
SQLSTATE:未分配
获取联机目录中托管联机表的写入凭据的请求无效。
文件 API
FILES_API_API_IS_NOT_ENABLED
SQLSTATE:未分配
<api_name>
未启用 API
FILES_API_API_IS_NOT_ENABLED_FOR_CLOUD_PATHS
SQLSTATE:未分配
文件 API 的请求方法不支持云路径
FILES_API_AWS_ACCESS_DENIED
SQLSTATE:未分配
AWS 拒绝访问存储存储桶。
FILES_API_AWS_ALL_ACCESS_DISABLED
SQLSTATE:未分配
AWS 中已禁用对存储存储桶的所有访问。
FILES_API_AWS_BUCKET_DOES_NOT_EXIST
SQLSTATE:未分配
AWS 中不存在存储存储桶。
FILES_API_AWS_FORBIDDEN
SQLSTATE:未分配
AWS 禁止访问存储存储桶。
FILES_API_AWS_INVALID_AUTHORIZATION_HEADER
SQLSTATE:未分配
工作区配置错误:它必须与 AWS 工作区根存储存储桶位于同一区域。
FILES_API_AWS_INVALID_BUCKET_NAME
SQLSTATE:未分配
存储存储桶名称无效。
FILES_API_AWS_KMS_KEY_DISABLED
SQLSTATE:未分配
在 AWS 中禁用用于访问存储存储桶的已配置的 KMS 密钥。
FILES_API_AWS_UNAUTHORIZED
SQLSTATE:未分配
未经授权访问 AWS 资源。
FILES_API_AZURE_ACCOUNT_IS_DISABLED
SQLSTATE:未分配
存储帐户在 Azure 中处于禁用状态。
FILES_API_AZURE_AUTHORIZATION_PERMISSION_MISMATCH
SQLSTATE:未分配
授权权限不匹配。
FILES_API_AZURE_CONTAINER_DOES_NOT_EXIST
SQLSTATE:未分配
Azure 容器不存在。
FILES_API_AZURE_FORBIDDEN
SQLSTATE:未分配
Azure 禁止访问存储容器。
FILES_API_AZURE_HAS_A_LEASE
SQLSTATE:未分配
Azure 回应称该资源目前存在租约。 请稍后再试。
FILES_API_AZURE_INSUFFICIENT_ACCOUNT_PERMISSION
SQLSTATE:未分配
要访问的帐户没有足够的权限来执行此作。
FILES_API_AZURE_INVALID_STORAGE_ACCOUNT_CONFIGURATION
SQLSTATE:未分配
访问的帐户的配置不被支持。
FILES_API_AZURE_INVALID_STORAGE_ACCOUNT_NAME
SQLSTATE:未分配
无法访问 Azure 中的存储帐户:存储帐户名称无效。
FILES_API_AZURE_KEY_BASED_AUTHENTICATION_NOT_PERMITTED
SQLSTATE:未分配
Azure 中找不到 Key Vault 保管库。 请检查客户管理的密钥设置。
FILES_API_AZURE_KEY_VAULT_KEY_NOT_FOUND
SQLSTATE:未分配
Azure 密钥保管库密钥在 Azure 中找不到。 请检查客户管理的密钥设置。
FILES_API_AZURE_KEY_VAULT_VAULT_NOT_FOUND
SQLSTATE:未分配
Azure 中找不到 Key Vault 保管库。 请检查客户管理的密钥设置。
FILES_API_AZURE_MI_ACCESS_CONNECTOR_NOT_FOUND
SQLSTATE:未分配
找不到具有访问连接器的 Azure 托管标识凭据。 这可能是因为 IP 访问控制拒绝了你的请求。
FILES_API_AZURE_OPERATION_TIMEOUT
SQLSTATE:未分配
操作无法在允许的时间内完成。
FILES_API_AZURE_PATH_INVALID
SQLSTATE:未分配
请求的路径对 Azure 无效。
FILES_API_AZURE_PATH_IS_IMMUTABLE
SQLSTATE:未分配
请求的路径是不可变的。
FILES_API_AZURE_UNSUPPORTED_HEADER
SQLSTATE:未分配
在操作中指定的某个标头不受支持。
文件_API_无法解析_URL参数
SQLSTATE:未分配
无法分析 URL 参数。
FILES_API_CATALOG_NOT_FOUND
SQLSTATE:未分配
<unity_catalog_error_message>
FILES_API_CLOUD_RESOURCE_EXHAUSTED
SQLSTATE:未分配
<message>
FILES_API_CLOUD_STORAGE_PROVIDER_CONNECTION_ISSUE
SQLSTATE:未分配
存在连接问题,无法连接到<cloud_storage_provider>
。 请稍后重试。
FILES_API_COLON_IS_NOT_SUPPORTED_IN_PATH
SQLSTATE:未分配
路径中不支持“:”字符。
FILES_API_CONSUMER_NETWORK_ZONE_NOT_ALLOWED
SQLSTATE:未分配
不允许从请求者网络区域“<requester_network_zone>
”访问使用者网络区域“<consumer_network_zone>
”。
FILES_API_CONTROL_PLANE_NETWORK_ZONE_NOT_ALLOWED
SQLSTATE:未分配
不允许 Databricks 控制平面网络区域。
FILES_API_DIRECTORIES_CANNOT_HAVE_BODIES
SQLSTATE:未分配
提供了正文,但目录不能包含文件正文
FILES_API_DIRECTORY_IS_NOT_EMPTY
SQLSTATE:未分配
目录不为空。 不支持对非空目录进行此操作。
文件接口目录未找到 (FILES_API_DIRECTORY_IS_NOT_FOUND)
SQLSTATE:未分配
找不到要访问的目录。
FILES_API_DMK_ENCRYPTION_ROOT_KEY_DISABLED
SQLSTATE:未分配
禁用客户管理的加密的根密钥。
FILES_API_DUPLICATED_HEADER
SQLSTATE:未分配
请求包含只允许一次的标头的多个副本。
FILES_API_DUPLICATE_QUERY_PARAMETER
SQLSTATE:未分配
查询参数“<parameter_name>
”必须只出现一次,但却被多次提供。
FILES_API_EMPTY_BUCKET_NAME
SQLSTATE:未分配
DBFS 存储桶名称为空。
FILES_API_ENCRYPTION_KEY_PERMISSION_DENIED
SQLSTATE:未分配
用户无权访问加密密钥。
FILES_API_ENCRYPTION_KEY_RETRIEVAL_OPERATION_TIMEOUT
SQLSTATE:未分配
检索加密密钥的作无法在允许的时间内完成。
FILES_API_ENTITY_TOO_LARGE
SQLSTATE:未分配
对象超过允许的最大对象大小。
FILES_API_ERROR_EXPIRED_TTL
SQLSTATE:未分配
TTL 已过期。
FILES_API_ERROR_INVALID_TTL
SQLSTATE:未分配
TTL 无效。
FILES_API_ERROR_KEY_FOR_WORKSPACE_IS_NOT_FOUND
SQLSTATE:未分配
找不到工作区的密钥。
FILES_API_ERROR_MISSING_REQUIRED_PARAM
SQLSTATE:未分配
URL 缺少必需的参数。
FILES_API_ERROR_TTL_IN_THE_FUTURE
SQLSTATE:未分配
TTL 在未来。
FILES_API_ERROR_URL_INVALID_ISSUER_SHARD_NAME
SQLSTATE:未分配
颁发者分片名称无效。
FILES_API_EXPIRATION_TIME_MUST_BE_PRESENT
SQLSTATE:未分配
过期时间必须存在
FILES_API_EXPIRED_TOKEN
SQLSTATE:未分配
提供的令牌已过期。
FILES_API_EXPIRE_TIME_MUST_BE_IN_THE_FUTURE
SQLSTATE:未分配
ExpireTime 必须是未来时间
FILES_API_EXPIRE_TIME_TOO_FAR_IN_FUTURE
SQLSTATE:未分配
请求的 TTL 超过支持的最大限制(1 小时)
FILES_API_EXTERNAL_LOCATION_PATH_OVERLAP_OTHER_UC_STORAGE_ENTITY
SQLSTATE:未分配
<unity_catalog_error_message>
FILES_API_FILE_ALREADY_EXISTS
SQLSTATE:未分配
正在创建的文件已存在。
FILES_API_FILE_NOT_FOUND
SQLSTATE:未分配
找不到要访问的文件。
FILES_API_FILE_OR_DIRECTORY_ENDS_IN_DOT
SQLSTATE:未分配
不支持以“.”字符结尾的文件或目录。
FILES_API_FILE_SIZE_EXCEEDED
SQLSTATE:未分配
文件大小不应超过 <max_download_size_in_bytes>
字节,但发现了 <size_in_bytes>
字节。
FILES_API_GCP_ACCOUNT_IS_DISABLED
SQLSTATE:未分配
GCP 中已禁用对存储存储桶的访问。
FILES_API_GCP_BUCKET_DOES_NOT_EXIST
SQLSTATE:未分配
GCP 中不存在存储存储桶。
FILES_API_GCP_FORBIDDEN
SQLSTATE:未分配
GCP 禁止访问存储桶。
FILES_API_GCP_KEY_DISABLED_OR_DESTROYED
SQLSTATE:未分配
为该位置配置的客户管理的加密密钥已被禁用或销毁。
FILES_API_GCP_REQUEST_IS_PROHIBITED_BY_POLICY
SQLSTATE:未分配
策略禁止向存储桶发出的 GCP 请求,请检查 VPC 服务控制。
FILES_API_HOST_TEMPORARILY_NOT_AVAILABLE
SQLSTATE:未分配
云提供商主机暂时不可用;请稍后重试。
FILES_API_INVALID_CONTINUATION_TOKEN
SQLSTATE:未分配
提供的页面令牌无效。
FILES_API_INVALID_HOSTNAME
SQLSTATE:未分配
主机名无效。
FILES_API_INVALID_HTTP_METHOD
SQLSTATE:未分配
http 方法无效。 预期“<expected>
”但得到“<actual>
”。
FILES_API_INVALID_METASTORE_ID_HEADER
SQLSTATE:未分配
元存储 ID 标头无效。
FILES_API_INVALID_PAGE_TOKEN
SQLSTATE:未分配
页面令牌无效
FILES_API_INVALID_PATH
SQLSTATE:未分配
路径无效: <validation_error>
FILES_API_INVALID_RANGE
SQLSTATE:未分配
范围标头无效。
FILES_API_INVALID_RESOURCE_FULL_NAME
SQLSTATE:未分配
<unity_catalog_error_message>
FILES_API_INVALID_SESSION_TOKEN
SQLSTATE:未分配
会话令牌无效
FILES_API_INVALID_SESSION_TOKEN_TYPE
SQLSTATE:未分配
会话令牌类型无效。 预期“<expected>
”但得到“<actual>
”。
FILES_API_INVALID_TIMESTAMP
SQLSTATE:未分配
时间戳无效。
FILES_API_INVALID_UPLOAD_TYPE
SQLSTATE:未分配
上传类型无效。 预期“<expected>
”但得到“<actual>
”。
FILES_API_INVALID_URL_PARAMETER
SQLSTATE:未分配
作为参数传递的 URL 无效
FILES_API_INVALID_VALUE_FOR_OVERWRITE_QUERY_PARAMETER
SQLSTATE:未分配
查询参数“overwrite”必须为 true 和 false 之一,但实际为:<got_values>
FILES_API_INVALID_VALUE_FOR_QUERY_PARAMETER
SQLSTATE:未分配
查询参数“<parameter_name>
”必须是以下项之一:<expected>
,但为:<actual>
FILES_API_MALFORMED_REQUEST_BODY
SQLSTATE:未分配
格式不正确的请求正文
FILES_API_MANAGED_CATALOG_FEATURE_DISABLED
SQLSTATE:未分配
<unity_catalog_error_message>
FILES_API_METASTORE_NOT_FOUND
SQLSTATE:未分配
<unity_catalog_error_message>
FILES_API_METHOD_IS_NOT_ENABLED_FOR_JOBS_BACKGROUND_COMPUTE_ARTIFACT_STORAGE
SQLSTATE:未分配
作业后台计算项目存储不支持文件 API 请求的方法。
FILES_API_MISSING_CONTENT_LENGTH
SQLSTATE:未分配
请求中需要内容长度标头。
FILES_API_MISSING_QUERY_PARAMETER
SQLSTATE:未分配
查询参数“<parameter_name>
”是必需的,但请求中缺少该参数。
FILES_API_MISSING_REQUIRED_PARAMETER_IN_REQUEST
SQLSTATE:未分配
请求缺少必需的参数。
FILES_API_MLFLOW_PERMISSION_DENIED
SQLSTATE:未分配
<mlflow_error_message>
FILES_API_MODEL_VERSION_IS_NOT_READY
SQLSTATE:未分配
模型版本尚未就绪
FILES_API_MULTIPART_UPLOAD_ABORT_PRESIGNED_URL_NOT_SUPPORTED
SQLSTATE:未分配
对存储在 <cloud_storage_provider>
上的文件,预签名的 URL 不支持中止多部分上传。
FILES_API_MULTIPART_UPLOAD_EMPTY_PART_LIST
SQLSTATE:未分配
部件列表必须至少有一个元素,但为空。
FILES_API_MULTIPART_UPLOAD_INVALID_PART
SQLSTATE:未分配
找不到一个或多个指定部件。 部件可能尚未上传,或者指定的实体标记可能与部件的实体标记不匹配。
FILES_API_MULTIPART_UPLOAD_INVALID_PART_NUMBER
SQLSTATE:未分配
部件号必须大于或等于 <min>
且小于或等于 <max>
。
FILES_API_MULTIPART_UPLOAD_MISSING_ETAG
SQLSTATE:未分配
必须为存储在<cloud_storage_provider>
上的文件提供ETag。 没有提供至少一个 ETag,或者提供的 ETag 为空。
FILES_API_MULTIPART_UPLOAD_MODIFIED_STORAGE_ENTITY_STATE
SQLSTATE:未分配
自上传启动以来,存储实体的内部状态已被修改,例如文件路径不指向同一基础云存储位置。 通过启动新的上传会话继续。
FILES_API_MULTIPART_UPLOAD_NON_TRAILING_PARTS_WITH_DIFFERENT_SIZES
SQLSTATE:未分配
作为多部分上传会话一部分上传的部件,对于存储在 <cloud_storage_provider>
上的文件,除了最后一个部件可以较小外,其他部件必须大小相同。
FILES_API_MULTIPART_UPLOAD_PART_SIZE_OUT_OF_RANGE
SQLSTATE:未分配
作为多部分上传会话的一部分上传的部分的大小必须大于或等于 <min>
且小于或等于 <max>
。
FILES_API_MULTIPART_UPLOAD_SESSION_NOT_FOUND
SQLSTATE:未分配
找不到上传会话。 它可能已中止或已完成。
FILES_API_MULTIPART_UPLOAD_UNORDERED_PART_LIST
SQLSTATE:未分配
部件列表必须由部件编号排序,但未排序。
FILES_API_NOT_ENABLED_FOR_PLACE
SQLSTATE:未分配
未为此工作区/帐户启用 <place>
的文件 API
FILES_API_NOT_SUPPORTED_FOR_INTERNAL_WORKSPACE_STORAGE
SQLSTATE:未分配
内部工作区存储不支持文件 API 请求的方法
FILES_API_OPERATION_MUST_BE_PRESENT
SQLSTATE:未分配
操作必须存在
FILES_API_OPERATION_TIMEOUT
SQLSTATE:未分配
操作超时。
文件_API_页面大小必须大于或等于零
SQLSTATE:未分配
page_size必须大于或等于 0
FILES_API_PATH_END_WITH_A_SLASH
SQLSTATE:未分配
以“/”字符结尾的路径表示目录。 此 API 不支持对目录的操作。
FILES_API_PATH_IS_A_DIRECTORY
SQLSTATE:未分配
给定的路径指向现有目录。 此 API 不支持对目录的操作。
FILES_API_PATH_IS_A_FILE
SQLSTATE:未分配
给定路径指向现有文件。 此 API 不支持对文件的操作。
FILES_API_PATH_IS_NOT_A_VALID_UTF8_ENCODED_URL
SQLSTATE:未分配
给定路径不是有效的 UTF-8 编码 URL
FILES_API_PATH_IS_NOT_ENABLED_FOR_DATAPLANE_PROXY
SQLSTATE:未分配
未为数据平面代理启用给定的路径
FILES_API_PATH_MUST_BE_PRESENT
SQLSTATE:未分配
路径必须存在
FILES_API_PATH_NOT_SUPPORTED (文件API路径不支持)
SQLSTATE:未分配
<rejection_message>
FILES_API_PATH_TOO_LONG
SQLSTATE:未分配
提供的文件路径太长。
FILES_API_PRECONDITION_FAILED
SQLSTATE:未分配
请求由于前置条件而失败。
FILES_API_PRESIGNED_URLS_FOR_MODELS_NOT_SUPPORTED
SQLSTATE:未分配
目前不支持用于模型的预签名 URL 的文件 API
FILES_API_R2_CREDENTIALS_DISABLED
SQLSTATE:未分配
目前不支持 R2。
FILES_API_RANGE_NOT_SATISFIABLE
SQLSTATE:未分配
请求的范围无法满足。
FILES_API_RECURSIVE_LIST_IS_NOT_SUPPORTED
SQLSTATE:未分配
不支持以递归方式列出文件。
FILES_API_REQUESTER_NETWORK_ZONE_UNKNOWN
SQLSTATE:未分配
无法推断请求者网络区域。
FILES_API_REQUEST_GOT_ROUTED_INCORRECTLY
SQLSTATE:未分配
请求路由不正确
文件_API请求必须包含账户信息
SQLSTATE:未分配
请求必须包含帐户信息
文件_API_请求_必须_包括_用户_信息
SQLSTATE:未分配
请求必须包含用户信息
文件API请求必须包含工作区信息
SQLSTATE:未分配
请求必须包含工作区信息
FILES_API_RESOURCE_IS_READONLY
SQLSTATE:未分配
资源为只读。
FILES_API_RESOURCE_NOT_FOUND
SQLSTATE:未分配
<unity_catalog_error_message>
FILES_API_SCHEMA_NOT_FOUND
SQLSTATE:未分配
<unity_catalog_error_message>
FILES_API_SECURE_URL_CANT_BE_ACCESSED
SQLSTATE:未分配
无法访问该 URL。
文件_API_签名_验证_失败
SQLSTATE:未分配
签名验证失败。
FILES_API_STORAGE_CONTEXT_IS_NOT_SET
SQLSTATE:未分配
无法访问此工作区的存储配置。
FILES_API_STORAGE_CREDENTIAL_NOT_FOUND
SQLSTATE:未分配
<unity_catalog_error_message>
FILES_API_TABLE_TYPE_NOT_SUPPORTED
SQLSTATE:未分配
不支持对 <table_type>
使用 Files API。
FILES_API_UC_AUTHENTICATION_FAILURE
SQLSTATE:未分配
<unity_catalog_error_message>
FILES_API_UC_IAM_ROLE_NON_SELF_ASSUMING
SQLSTATE:未分配
<unity_catalog_error_message>
FILES_API_UC_MODEL_INVALID_STATE
SQLSTATE:未分配
<unity_catalog_error_message>
FILES_API_UC_PERMISSION_DENIED
SQLSTATE:未分配
<unity_catalog_error_message>
FILES_API_UC_RESOURCE_EXHAUSTED
SQLSTATE:未分配
<message>
FILES_API_UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH
SQLSTATE:未分配
<unity_catalog_error_message>
FILES_API_UC_VOLUME_NAME_CHANGED
SQLSTATE:未分配
<unity_catalog_error_message>
FILES_API_UNEXPECTED_ERROR_WHILE_PARSING_URI
SQLSTATE:未分配
分析 URI 时出现意外错误
FILES_API_UNEXPECTED_QUERY_PARAMETERS
SQLSTATE:未分配
意外的查询参数: <unexpected_query_parameters>
FILES_API_UNKNOWN_METHOD
SQLSTATE:未分配
未知方法 <method>
FILES_API_UNKNOWN_SERVER_ERROR
SQLSTATE:未分配
未知服务器错误。
FILES_API_UNKNOWN_URL_HOST
SQLSTATE:未分配
URL 主机未知。
FILES_API_UNSUPPORTED_AUTHENTICATION_METHOD
SQLSTATE:未分配
请求未正确认证。
FILES_API_UNSUPPORTED_HTTP_METHOD
SQLSTATE:未分配
不支持 httpMethod。
FILES_API_UNSUPPORTED_PARAMETERS_COMBINATION
SQLSTATE:未分配
不支持参数组合。
FILES_API_UNSUPPORTED_PATH
SQLSTATE:未分配
文件 API 不支持提供的路径。 确保提供的路径不包含“../”或“./”序列实例。 确保提供的路径不使用多个连续斜杠(例如“///”)。
FILES_API_UPLOAD_PART_URLS_COUNT_MUST_BE_GREATER_THAN_ZERO
SQLSTATE:未分配
输入参数“count”必须大于 0。
FILES_API_URL_GENERATION_DISABLED
SQLSTATE:未分配
未为 <cloud>
启用预签名 URL 生成。
FILES_API_VOLUME_TYPE_NOT_SUPPORTED
SQLSTATE:未分配
不支持对 <volume_type>
使用 Files API。
FILES_API_WORKSPACE_IS_CANCELED
SQLSTATE:未分配
工作区已取消。
FILES_API_WORKSPACE_IS_NOT_FOUND
SQLSTATE:未分配
无法访问此工作区的存储配置。
分布式账本技术 (DLT)
ACTIVE_UPDATE_EXISTS_FOR_LINKED_PIPELINE
链接管道“<linkedPipelineId>
”已存在活动更新“<updateId>
”。
ACTIVE_UPDATE_EXISTS_FOR_PIPELINE
管道“<pipelineId>
”已存在活动更新“<updateId>
”。
ALTER_NOT_ALLOWED_FOR_PIPELINE_TABLE
不允许对表执行 ALTER
,而管理该表的是
有关更多详细信息,请参阅 ALTER_NOT_ALLOWED_FOR_PIPELINE_TABLE
ALTER_SCHEDULE_SCHEDULE_DOES_NOT_EXIST
在没有现有计划或触发器的情况下,无法更改表上的 <type>
。 在尝试更改表格之前,请先向其添加日程或触发器。
API_QUOTA_EXCEEDED
已超出数据源 <sourceName>
的 API 配额。
有关更多详细信息,请参阅 API_QUOTA_EXCEEDED
APPLY_CHANGES_ERROR
AUTO CDC 操作期间发生错误。
有关更多详细信息,请参阅 APPLY_CHANGES_ERROR
APPLY_CHANGES_FROM_SNAPSHOT_ERROR
在AUTO CDC FROM SNAPSHOT
操作期间发生错误。
有关更多详细信息,请参阅 APPLY_CHANGES_FROM_SNAPSHOT_ERROR
APPLY_CHANGES_FROM_SNAPSHOT_EXPECTATIONS_NOT_SUPPORTED
数据集 <datasetName>
定义了期望,但当前不支持对使用 AUTO CDC FROM SNAPSHOT
的数据集设置期望。
消除对解决此错误的期望。 作为替代方案,考虑使用以下结构,通过组合 AUTO CDC
和 AUTO CDC FROM SNAPSHOT
来应用期望:
使用 SCD 类型 1 将快照中的更改应用到没有期望的中间表。
使用
spark.readStream.option("readChangeFeed", "true").table
从中间表中读取更改。除了当前与
dlt.acreate_auto_cdc_flow_from_snapshot
一起使用的参数外,还将dlt.create_auto_cdc_flow
与以下参数配合使用,将更改从中间表应用到最终目标表:
处理更改:
apply_as_deletes = "_change_type == 'delete'"
删除 CDF 添加的列:
except_column_list = ["_change_type", "_commit_version", "_commit_timestamp"]
- 在用于
dlt.create_auto_cdc_flow
的最终目标表上包含当前的期望集。
APPLY_CHANGES_PARTIAL_UPDATES_NOT_ENABLED
功能 COLUMNS
到 UPDATE
处于预览状态,并未在您的工作区中启用。 请联系 Databricks 代表,详细了解此功能并访问个人预览版。
架构迁移失败
有关更多详细信息,请参阅 ARCHITECTURE_MIGRATION_FAILURE
ARCLIGHT_REQUIRES_SERVERLESS
针对使用默认存储的目录的管道必须使用无服务器计算。 如果您无权访问无服务器计算服务,请联系 Databricks 为您的工作区启用该功能。
CANNOT_ADD_COLUMN_TO_INCLUDE_COLUMNS
新列 (<columnNames>
) 已添加到表 <qualifiedTableName>
的管道定义中的 include_columns 字段。 请完全刷新表以避免潜在的数据丢失或从include_columns中删除这些列。
无法添加存储位置
如果要设置存储位置创建新管道,则无法将存储位置添加到具有已定义目录的现有管道。
现有目录:“<catalog>
”。
请求的存储位置: <storageLocation>
.
CANNOT_COMPOSE_DECORATOR
SQLSTATE:未分配
@<decoratorName>
装饰器无法与之组合<otherDecorators>
。
CANNOT_EXCLUDE_NON_EXISTENT_COLUMN
管道定义排除源 <columnNames>
表 <qualifiedTableName>
中不存在的列(<sourceType>
)。 请从exclude_columns字段中删除这些列。
CANNOT_FILTER_OUT_REQUIRED_COLUMN
管道定义不包括源 <columnNames>
的引入表 <qualifiedTableName>
所需的列 (<sourceType>
)。 请将其添加到include_columns,或将其从exclude_columns中删除。
CANNOT_INCLUDE_NON_EXISTENT_COLUMN
管道定义包括源 <columnNames>
表 <qualifiedTableName>
中不存在的列(<sourceType>
)。 请从include_columns字段中删除这些列。
无法导入没有主键的表
<sourceType>
源中的表 <qualifiedTableName>
没有主键。
请在连接器配置中指定主键以引入表(如果存在)。
CANNOT_MODIFY_PIPELINE_OWNER_FOR_UC_PIPELINES
尚不支持更改非 UC 管道的所有者。
CANNOT_MODIFY_PIPELINE_OWNER_PERMISSION_DENIED
只有工作区管理员可以更改管道所有者。
CANNOT_MODIFY_PIPELINE_OWNER_WHEN_MISSING
新所有者不存在。
无法修改管道类型
无法更新 pipeline_type。
当前管道类型:<currentPipelineType>
.
更新后的 pipeline_type:<requestedPipelineType>
。
无法修改存储位置
无法修改现有管道的存储位置。
现有存储位置:“<existingStorageLocation>
”。
请求的存储位置: <requestedStorageLocation>
.
CANNOT_REMOVE_COLUMN_FROM_EXCLUDE_COLUMNS
在表 <columnNames>
的管道定义中,列(<qualifiedTableName>
)被从 exclude_columns 字段中删除。 请对表格进行完全刷新以避免潜在的数据丢失,或者将这些列重新添加到 exclude_columns 中。
无法为HMS_PIPELINE设置目录
如果要使用 UC 创建新管道并设置目录,则无法将目录添加到具有已定义存储位置的现有管道。
现有存储位置:“<storageLocation>
”
请求的目录:“<catalog>
”
CANNOT_SET_LINKED_PIPELINE_ID
管道 ID 相同,设置链接管道 ID 将导致死锁。
无法为现有管道设置架构
管道“<pipelineName>
”的设置中指定的'schema'字段是不合法的。 原因:
有关更多详细信息,请参阅 CANNOT_SET_SCHEMA_FOR_EXISTING_PIPELINE
CANNOT_SPECIFY_BOTH_INCLUDE_EXCLUDE_COLUMNS
管道定义为 <identifier>
指定了 include_columns 和 exclude_columns。 请删除其中一个。
CANNOT_UPDATE_CLUSTERING_COLUMNS
无法更新表 <tableName>
的聚类列,因为其使用了分区列。 表可以使用分区列或聚簇列,但不能同时使用两者。
若要在液体聚类分析与分区之间切换,请触发此表的完全刷新。
CANNOT_UPDATE_PARTITION_COLUMNS
无法更新流式处理表 <tableName>
的分区列。
当前为:<existingPartitionColumns>
,
请求了:<requestedPartitionColumns>
若要应用此分区更改,请触发此表和已更新分区列的任何其他流式处理表的完全刷新。
或者还原此更改以继续使用现有分区列。
CANNOT_UPDATE_TABLE_SCHEMA
无法合并表 <tableName>
的当前架构和新架构。
若要继续执行此架构更改,可以触发此表的完全刷新。
根据用例和架构更改,你也许能够删除架构更改 -- 可以更新查询,以便输出架构与现有架构兼容(例如,通过显式将列强制转换为正确的数据类型)。
CANNOT_WRITE_TO_INACTIVE_COLUMNS
<details>
但是,目标表已具有具有此名称的非活动列;这些列处于非活动状态,因为它们以前是从源表中删除的。
若要继续更新,请对表使用 FULL REFRESH
命令或使用 ALTER TABLE DROP COLUMN
命令删除这些非活动列。
CANNOT_WRITE_TO_INACTIVE_TABLES
目标中的下表处于非活动状态,并且与当前源表冲突:<tables>
。
这些表保持非活动状态,因为它们以前已从源中删除或未从连接器中选择。
若要继续更新,请对表执行 FULL REFRESH
,或者从目录资源管理器中的目标中删除这些非活动表,或通过 DROP TABLE
命令删除这些非活动表,然后重试更新。
CANNOT_WRITE_TO_TABLES_PENDING_RESET
在上一次完整刷新中,目标中的下列表格未正确重置:<tables>
。
请对其触发完全刷新以恢复。
CATALOG_MAPPING_NOT_AVAILABLE_IN_UC
UC 目录没有目录“<sourceCatalog>
”的映射。
请检查目录是否已在 UC 目录中注册。
CATALOG_SCHEMA_MISMATCH_WITH_DESTINATION_PIPELINE
ID 为 <destPipelineCatalog>
的目标管道的目录 <destPipelineSchema>
和架构 <destPipelineId>
与表 <tableName>
的目录和架构不匹配。 目标管道应具有与表相同的目录和架构,或者目标管道必须使用直接发布模式。
CATALOG_SPEC_UNSUPPORTED
数据库连接器当前不支持 CatalogSpecs。 请删除目录规范。
CDC_APPLIER_COLUMN_UOID_NOT_SUPPORTED
CDC 管理的引入管道中不支持表 <tableName>
中 UOID 为 <columnNames>
的列。
请检查引入管道是否支持列 UOID,或请求完全刷新。
CDC_APPLIER_FATAL_FAILURE_FROM_GATEWAY
网关管道遇到严重错误:
<errorMessage>
在此处查看管道更新失败:<link>
。
CDC_APPLIER_REPLICATED_TABLE_METADATA_NOT_READY
表<tableName>
的复制表元数据尚未准备就绪。
现有的作业请求时间戳是 <existingRequestTs>
,但我们需要 <expectedRequestTs>
或更高版本。
CDC_APPLIER_REQUIRES_ALL_DESTINATION_TABLES_FULL_REFRESH
不支持完全刷新一个目标表,不支持从同一源对另一个目标表进行正常更新。
请完全刷新这两个表,以便尽可能继续。
完全刷新表:<fullRefreshTables>
源 <sourceTable>
的目标表:<destinationTables>
CDC_APPLIER_SCHEMA_CHANGED_DURING_STREAMING
架构版本 <dataSchemaVersion>
与读取的架构版本 <readSchemaVersion>
不同。
DLT 将重试更新。
CDC_APPLIER_SEQUENCE_BY_COLUMN_NOT_FOUND
在 sequenceBy 中指定的表 <columnName>
的列 <tableName>
在 <columns>
中不存在。
CDC_APPLIER_SEQUENCE_BY_INVALID_TYPE
sequenceBy 中指定的表 <tableName>
的列 <columnName>
为不支持的类型 <typeName>
。
sequenceBy 列支持的类型为 <allowedTypes>
。
CDC_APPLIER_SEQUENCE_BY_MULTIPLE_COLUMNS_NOT_SUPPORTED
CDC 管理的引入管道的 sequenceBy 中最多可指定一列。
制定列:表 <tableName>
的 <columns>
。
CDC_INCOMPATIBLE_SCHEMA_CHANGES
我们从架构版本 <cause>
到 <previousSchemaVersion>
遇到不兼容的架构更改(<currentSchemaVersion>
)。
因此,我们不能继续对 <tableName>
应用更改。 请请求完全刷新表。
以前的架构:<previousSchema>
当前架构:<currentSchema>
CDC_潜在数据差距
下表 [<needFullRefreshTableList>
] 在 <retention>
天内没有成功的更新。
请对这些表或整个数据管道进行全面刷新。
CDC_SAME_TABLE_FROM_MULTIPLE_SOURCES
从多个源找到同一个表名 <table>
:<sources>
。
请将它们拆分为不同的管道,以避免冲突。
CDC_MULTIPLE_SOURCE_TABLES_MAPPED_TO_SAME_DESTINATION_TABLE
找到多个源表: <source_tables>
映射到同一目标表 <destination_table>
。
请将它们映射到不同的目标表名称或不同的目标架构。
CDC_TABLE_NOT_FOUND_IN_ALL_TABLES
在源数据库的所有表快照中找不到表 <table>
。
表规范详细信息:
<tableSpec>
CHANGES_HMS_PIPELINE_TO_UC_NOT_ALLOWED
不允许将 HMS 管道更改为 UC 管道。
CHANGES_UC_PIPELINE_TO_HMS_NOT_ALLOWED
不允许将 UC 管道更改为 HMS 管道。
CHANGE_PIPELINE_ID_OF_TABLE_NOT_SUPPORTED
不支持更改 <commandTableType>
的管道。
CHANGING_CATALOG_NOT_ALLOWED
无法修改现有管道的目录。 现有目录:“<existingCatalog>
”。 请求的目录:“<requestedCatalog>
”。
不允许更改目标架构
不允许更改目标架构。 原因:<reason>
。
CLUSTER_CREATION_BUDGET_POLICY_LIMIT_EXCEEDED
由于管道的预算策略超出了限制,无法创建群集。 请使用其他策略或联系计费管理员。
CLUSTER_CREATION_CLIENT_ERROR
未能创建管道群集: <errorMessage>
此错误可能是由于管道中的配置错误。
检查管道群集配置和关联的群集策略。
集群创建额度已耗尽
无法创建群集,因为已耗尽可用额度。 请添加付款方式以升级帐户。
CLUSTER_CREATION_RESOURCE_EXHAUSTED
无法创建群集,因为已超出资源限制: <errorMessage>
CLUSTER_LAUNCH_CLIENT_ERROR
未能启动管道群集 <clusterId>
:<clusterStateMessage>
此错误可能是由于管道中的配置错误。
检查管道群集配置和关联的群集策略。
CLUSTER_LAUNCH_CLOUD_FAILURE
未能启动管道群集 <clusterId>
:<clusterStateMessage>
此错误可能是暂时性的 - 重启管道,如果仍然看到相同的问题,请报告。
CLUSTER_SETUP_CLIENT_ERROR(集群设置客户端错误)
有关更多详细信息,请参阅 CLUSTER_SETUP_CLIENT_ERROR
集群无法访问
与驱动程序通信丢失。 群集 <clusterId>
有 <timeoutSeconds>
秒无法访问。
COLUMN_MASK_WITH_NO_COLUMN
在具体化视图/流式表架构中发现列“<columnName>
”的列掩码,但该列不存在。 如果这是因为对基表的架构进行更改,
请使用 ALTER TABLE
[table_name] ALTER COLUMN
[应用掩码的列] DROP
MASK 删除旧掩码;或恢复该列。
COLUMN_TO_UPDATE_NOT_FOUND
在源数据帧中找不到 <column>
TO COLUMNS
中指定的列 UPDATE
。
CONCURRENT_UPGRADE_FAILED_TO_STOP_PREVIOUS_UPDATE
开始升级更新“<upgradedUpdateId>
”,但未能停止先前的更新“<oldUpdateId>
”。
此错误可能是暂时性的。 管道将自动重试,问题应自行解决。
如果仍然看到相同的问题,请将此错误报告给 Databricks。
DATASET_DECORATOR_APPLIED_TWICE
SQLSTATE:未分配
数据集 <datasetName>
已存在。 确保查询函数仅标记为视图或表一次。
数据集_未定义
未能读取数据集“”。<datasetName>
管道中未定义此数据集。
如果此表由其他管道管理,则不要使用 dlt.read
/ dlt.readStream
读取该表,也不要将名称加上 LIVE 关键字。
DBFS_NOT_ENABLED
未为此工作区启用 DBFS;请发布到 Unity 目录,或为管道指定不同的存储位置。
数据库SQL管道不应包含多个表
DBSQL
管道必须恰好有一个具体化视图或流式表,但找到 <tablesSize>
个表:<tables>
DESTINATION_PIPELINE_NOT_FOUND
找不到 ID 为“”<pipelineId>
的目标管道。 请确保您所在的工作区与管道所在的工作区一致,您是该管道的所有者,并且该管道至少运行过一次。
DESTINATION_PIPELINE_NOT_IN_DIRECT_PUBLISHING_MODE
ID 为“”<pipelineId>
的目标管道未使用直接发布模式。
DESTINATION_PIPELINE_PERMISSION_DENIED
不允许执行此操作,因为您不是ID为“<pipelineId>
”的目标管道的所有者。 只有所有者可以更改表的管道。
DESTINATION_PIPELINE_TYPE_NOT_WORKSPACE_PIPELINE_TYPE
ID 为“”<pipelineId>
的目标管道不是 ETL 管道。
DO_CREATE_OR_EDIT_INVALID_USER_ACTION
处理“<action>
”请求时出错。
DROP_SCHEDULE_SCHEDULE_DOES_NOT_EXIST
在没有现有计划或触发器的情况下,无法删除表上的 SCHEDULE
。
DUPLICATED_FROM_JSON_SCHEMA_LOCATION
重复的“from_json”模式位置键:<schemaLocationKey>
。
请在管道中为每个from_json查询选择唯一的架构位置键
DUPLICATED_INGESTION_CONFIG_TABLE_SPECS
引入管道配置包含重复表。 请确保每个表都是唯一的。
EMPTY_INGESTION_CONFIG_OBJECTS
引入配置对象为空。
ENHANCED_AUTOSCALING_REQUIRES_ADVANCED_EDITION
增强型自动缩放“spare_capacity_fraction”设置仅在 Lakeflow 声明式管道的高级产品版本中受支持。
请编辑管道设置,将“edition”设置为:“advanced”以使用“spare_capacity_fraction”。
EVENT_LOG_PICKER_FEATURE_NOT_SUPPORTED
此管道不支持将事件日志发布到 Unity 目录。 如果这是意外的,请联系 Databricks 支持部门。
EXPECTATION_VIOLATION
流“<flowName>
”未能满足预期。
有关更多详细信息,请参阅 EXPECTATION_VIOLATION
EXPLORE_ONLY_CANNOT_BE_SET_WITH_VALIDATE_ONLY
explore_only和validate_only不能同时设置为 true。
EXPLORE_ONLY_IS_NOT_ENABLED
未启用 explore_only 更新。
EXPLORE_ONLY_ON_NON_INGESTION_PIPELINE
explore_only 只能为引入管道设置为 true。
无法创建事件日志
未能使用标识符 <pipelineId>
创建管道(id=<eventLogIdentifier>
)事件日志。 有关更多详细信息,请参阅下面的异常。
FAILED_TO_PUBLISH_VIEW_TO_METASTORE
无法将视图 <viewName>
发布到元存储,因为 <reason>
。
无法更新事件日志
未能将管道 (id=<pipelineId>
) 事件日志标识符更新为 <newEventLogIdentifier>
。 有关更多详细信息,请参阅下面的异常。
流程架构已更改
流 <flowName>
已终止,因为它在执行期间遇到架构更改。
架构更改与现有目标架构兼容,下一次流程运行可以使用新架构恢复。
FOREACH_BATCH_SINK_ONLY_SUPPORTED_IN_PREVIEW_CHANNEL
目前不支持 DLT ForeachBatch 接收器。
DLT ForeachBatch 接收器的专用预览版需要 PREVIEW
通道。
DLT 接收器:<sinkNames>
GATEWAY_PIPELINE_INIT_SCRIPTS_NOT_ALLOWED
网关管道不允许群集初始化脚本。 请将其从 <from>
中删除。
GATEWAY_PIPELINE_SPARK_CONF_NOT_ALLOWED
网关管道不允许 spark 配置 [<configs>
]。 请将其从 <from>
中删除。
GET_ORG_UPDATE_CAPACITY_LIMIT_EXCEEDED
请求的组织 ID 数超过允许的最大限制 <limit>
GOOGLE_ANALYTICS_RAW_DATA_CONNECTOR_SOURCE_CATALOG_MISSING
Google Analytics 原始数据连接器中发生错误。
引入规范中缺少 的源目录。此处的源目录是要从中引入的 GCP 项目的项目 ID。
请确保引入规范中存在源目录以解决此问题。
HMS_NOT_ENABLED
此工作区未启用 Hive 元存储;请发布到 Unity Catalog。
ILLEGAL_COLUMN_TO_UPDATE_DATA_TYPE
COLUMNS
TO UPDATE
中指定的列的数据类型必须是字符串数组,但找到了 <illegalDataType>
。
ILLEGAL_ID_PARAM_IN_PIPELINE_SETTINGS
设置不得包含“<fieldName>
”。
ILLEGAL_SCHEMA_FIELD_IN_PIPELINE_SPEC
管道设置中的指定“schema”字段是非法的。 原因:<reason>
。
根路径类型不正确
根路径“<rootPath>
”必须是目录,但找到 <objectType>
。
INGESTION_CONFIG_DUPLICATED_SCHEMA
引入管道配置包含重复的架构。 请确保每个架构都是唯一的。
传入网关身份验证失败
身份验证失败
有关更多详细信息,请参阅 INGESTION_GATEWAY_AUTHENTICATION_FAILURE
INGESTION_GATEWAY_BREAKING_SCHEMA_CHANGE_FAILURE
源表和目标表之间检测到架构不匹配。 要解决此问题,需要在引入管道上对表“<entityName>
”执行完全刷新。
INGESTION_GATEWAY_CDC_NOT_ENABLED
<entityType>
'<entityName>
' 上未启用 CDC。 在引入管道上启用 CDC 并执行全表刷新。 错误消息:“<errorMessage>
”。
INGESTION_GATEWAY_DDL_OBJECTS_MISSING
<entityType>
'<entityName>
' 上缺少 DDL 对象。 执行 DDL 对象脚本并完全刷新引入管道上的表。 错误消息:“<errorMessage>
”。
INGESTION_GATEWAY_MISSING_CONNECTION_REFERENCE
引入网关配置缺少连接。
请添加对包含凭据的 Unity Catalog 连接的引用。
引入网关管道定义详细信息:
<definition>
INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_CATALOG
引入网关配置缺少内部存储位置目录。
请添加内部存储位置目录。
引入网关管道定义详细信息:
<definition>
INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_NAME
引入网关配置缺少内部存储位置名称。
请添加内部存储位置名称。
引入网关管道定义详细信息:
<definition>
INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_SCHEMA
引入网关配置缺少内部存储位置架构。
请添加内部存储位置架构。
引入网关管道定义详细信息:
<definition>
INGESTION_GATEWAY_MISSING_TABLE_IN_SOURCE
源数据库中不存在表“”<entityName>
或已删除。 解决此问题并在托管引入管道上完全刷新表。 错误消息:“<errorMessage>
”。
INGESTION_GATEWAY_PG_PUBLICATION_ALTER_FAILED
未能为 <entityType>
'<entityName>
' 修改复制发布
错误消息:<errorMessage>
有关更多详细信息,请参阅 INGESTION_GATEWAY_PG_PUBLICATION_ALTER_FAILED
INGESTION_GATEWAY_PG_PUBLICATION_CREATION_FAILED
未能为 <entityType>
'<entityName>
' 创建复制发布
错误消息:<errorMessage>
有关更多详细信息,请参阅 INGESTION_GATEWAY_PG_PUBLICATION_CREATION_FAILED
INGESTION_GATEWAY_PG_PUBLICATION_DROP_FAILED
未能为 <entityType>
'<entityName>
' 删除复制发布
错误消息:<errorMessage>
有关更多详细信息,请参阅 INGESTION_GATEWAY_PG_PUBLICATION_DROP_FAILED
INGESTION_GATEWAY_PG_SLOT_CONSUMED_BY_OTHER_PROCESS
由于复制槽被另一个 PID 使用,无法为 <entityType>
“”<entityName>
创建复制槽。
错误消息:<errorMessage>
INGESTION_GATEWAY_PG_SLOT_CREATION_FAILED
无法为 <entityType>
“”<entityName>
创建复制槽
错误消息:<errorMessage>
有关更多详细信息,请参阅 INGESTION_GATEWAY_PG_SLOT_CREATION_FAILED
INGESTION_GATEWAY_SOURCE_INSUFFICIENT_PERMISSION_FAILURE
用户没有访问此对象或执行存储过程所需的权限。 请确保授予所有必要的特权。 请参阅以下文档: https://docs.databricks.com/aws/en/ingestion/lakeflow-connect/sql-server/database-user-requirements
INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE
由于源数据库的主机名 <host>
和/或端口 <port>
不正确,连接失败。
有关更多详细信息,请参阅 INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE
INVALID_APPLY_CHANGES_COMMAND
AUTO CDC
命令无效。 <reason>
。
INVALID_ARGUMENT_TYPE
SQLSTATE:未分配
传递给参数<paramName>
的值类型无效。 应为 <expectedType>
。 <additionalMsg>
。
无效兼容性选项
为表 <table>
指定的表选项无效,因为
有关更多详细信息,请参阅 INVALID_COMPATIBILITY_OPTIONS
INVALID_DECORATOR_USAGE
SQLSTATE:未分配
传递给 @<decoratorName>
的第一个位置参数必须可调用。 在函数中添加没有参数的 @<decoratorName>
,或者使用关键字参数(例如)<decoratorName>
将选项传递给 @<exampleUsage>
。
无效的事件日志配置
在管道规格中找到的事件日志配置无效: <message>
INVALID_NAME_IN_USE_COMMAND
<name>
命令中的名称“<command>
”无效。 原因:<reason>
INVALID_PARAM_FOR_DBSQL_PIPELINE
在为管道调用“dry_run”时,只能指定“pipeline_id”和“pipeline_type”。DBSQL
INVALID_REFRESH_SELECTION
为此更新指定的刷新选择参数无效,因为
有关更多详细信息,请参阅 INVALID_REFRESH_SELECTION
INVALID_REFRESH_SELECTION_REQUEST_FOR_CONTINUOUS_PIPELINE
连续模式不支持刷新选择。
INVALID_REFRESH_SELECTION_REQUEST_WITH_FULL_REFRESH
对于刷新选择请求,不应将full_refresh设置为 true。
INVALID_ROOT_PATH
无效的根路径 '<rootPath>
':目前仅支持绝对目录路径。 目录路径必须以“/”开头,而不是以“/”结尾。
INVALID_SCHEMA_NAME
管道设置中指定的架构“”<schemaName>
无效。 原因:<reason>
。
INVALID_SNAPSHOT_AND_VERSION_TYPE
SQLSTATE:未分配
目标为“<target>
”的流的 snapshot_and_version 返回不支持的类型。 <additionalMsg>
。
触发间隔格式无效
<configurationType>
中指定的触发器间隔配置无效
职位详情不匹配
如果同时提供了“update_cause_details.job_details”和“job_task”,则它们必须匹配,但实际为 <details>
和 <jobTask>
。
JOB_TASK_DETAILS_MISSING
如果“cause”为 JOB_TASK
,则必须提供“job_task”或“update_cause_details.job_details”。
LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_CLASSIC
不支持在数据集查询定义之外使用 LIVE
虚拟架构(即 @dlt.table 注释)引用数据集。
LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_DPM
不支持在数据集查询定义之外使用 LIVE
虚拟架构 <identifier>
引用数据集(即 @dlt.table 注释)。
LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_SPARK_SQL
在 spark.sql(...) 中使用 LIVE
虚拟模式引用数据集。API 不得在数据集查询定义外(即 @dlt.table 注释外)调用。 只能在数据集查询定义中调用它。
MAX_RETRY_REACHED_BEFORE_ENZYME_RECOMPUTE
重试次数已达上限。 重试计数:<flowRetryCount>
。 maxFlowFailureRetryCountThreshold:<maxFlowRetryAttempts>
。 <message>
MESA_PIPELINE_INVALID_DEFINITION_TYPE
不允许从 UC 定义启动 <definitionType>
管道。
MESA_PIPELINE_MISMATCH_PIPELINE_TYPES
存储和更新的定义必须是相同的管道类型,但必须具有 <stored>
和 <updated>
。
MESA_PIPELINE_MISSING_DEFINITION
管道在 UC 中没有有效定义,但请求刷新。
MESA_PIPELINE_MISSING_DEFINITION_UNEXPECTED
意外地从 UC 中缺少管道定义。
METASTORE_OPERATION_TIMED_OUT
更新 <tableName>
元存储信息所涉及的操作所需的时间比 <timeout>
长。
此问题可能是暂时性的,也可能指示配置的元存储客户端中的 bug。 如果问题仍然存在,请尝试重启管道并报告此问题。
MISSING_CREATE_SCHEMA_PRIVILEGE
用户“<userName>
”无权在目录中创建架构 <catalogName>
MISSING_CREATE_TABLE_PRIVILEGE
用户“<userName>
”无权在架构中创建表 <schemaName>
MISSING_RUN_AS_USER
未为更新指定运行方式用户。
MUTUALLY_EXCLUSIVE_OPTIONS
互斥选项 <options>
。 请删除其中一个选项。
负值
SQLSTATE:未分配
值 <arg_name>
必须大于或等于 0,得到“<arg_value>
”。
NON_UC_TABLE_ALREADY_MANAGED_BY_OTHER_PIPELINE
表 '<tableName>
' 已由管道 <otherPipelineId>
管理。
如果希望表“<tableName>
”由此管道管理 -
从管道“
<otherPipelineId>
”中删除该表。启动此管道的完整刷新更新。
如果要继续从多个管道管理表,请在管道设置中将配置 pipelines.tableManagedByMultiplePipelinesCheck.enabled
更改为 false
,以禁用此检查。
不建议这样做,因为对表的并发操作可能会相互冲突,从而导致意外结果。
NOTEBOOK_NAME_LIMIT_REACHED
无效的笔记本路径:“<nameStart>
...<nameEnd>
”。 它比 <maxNotebookPathLength>
字符长。
笔记本未找到
无法加载笔记本“<notebookPath>
”。
NOTIFICATIONS_DUPLICATE_ALERTS
在 [<alerts>
] 中指定重复警报“<alertsDuplicates>
”。
NOTIFICATIONS_DUPLICATE_EMAIL_ADDRESSES
在 [<emailRecipientsDuplicates>
] 中指定了重复的电子邮件地址“<emailRecipients>
”
NOTIFICATIONS_INVALID_ALERTS
已指定要获取通知的无效警报:<invalidAlerts>
通知_无效的电子邮件地址
指定接收通知的电子邮件地址无效: <invalidEmailAddresses>
NOTIFICATIONS_MISSING_PARAMS
请在其中指定至少一个收件人和一个警报 <setting>
NO_SOURCE_OR_SNAPSHOT_AND_VERSION_ARGUMENT_PROVIDED
SQLSTATE:未分配
对于目标为“<target>
”的 create_auto_cdc_flow_from_snapshot
,必须设置 source
或 snapshot_version
。
NO_TABLES_IN_PIPELINE
管道预计应至少定义一个表,但在您的管道中未找到任何表。
请检查是否已包含预期的源文件,以及您的源代码是否包含表定义(例如,SQL代码中的CREATE MATERIALIZED VIEW
,Python代码中的@dlt.table)。
请注意,只有表计入此检查。 如果仅在管道中包含视图或流,则也可能遇到此错误。
OWNER_IS_MISSING
所有者不存在。
PAGINATION_REQUEST_HAS_NAME_AND_PAGINATION
你可以提供 <name>
或分页,但不能同时提供两者。
PATCH_PIPELINE_DEFINITION_UNSUPPORTED_FIELD
PatchPipelineDefinition 仅支持schedule
该字段,但提供的定义具有其他填充字段:“”。<updatedDefinition>
PERSISTED_VIEW_READS_FROM_STREAMING_SOURCE
持久化视图不支持从流式源读取。
PERSISTED_VIEW_READS_FROM_TEMPORARY_VIEW
持久化视图 <persistedViewName>
不能引用临时视图 <temporaryViewName>
,该临时视图在管道范围外不可用。 使持久视图成为临时视图或保留临时视图。
PIPELINE_CLONING_ALREADY_IN_PROGRESS
管道已在克隆到 ID 为“<pipelineId>
”的管道。
PIPELINE_CLONING_INVALID_DURING_ACTIVE_UPDATE
ID 为“<pipelineId>
”的管道在活动更新期间无法克隆。
PIPELINE_CLONING_INVALID_FIELDS
请求包含用于克隆的具有无效字段的管道规范。 允许的字段包括:名称、目录、目标、配置。
PIPELINE_CLONING_INVALID_FOR_MISSING_TARGET
ID 为“”<pipelineId>
的管道不会发布到目标架构。 源管道需要将数据发布到一个目标架构,以实现克隆。 请在管道规范中指定“目标”字段,然后运行新的更新以发布到目标架构,再重试。
PIPELINE_CLONING_INVALID_FOR_UC_PIPELINE
ID 为 <pipelineId>
的管道已经是 UC 管道。 UC 管道无法克隆。
PIPELINE_CLONING_NO_MODE_SPECIFIED
没有指定的克隆模式。
PIPELINE_CLONING_NO_TARGET_SPECIFIED
没有用于克隆的指定目标目录。
PIPELINE_CREATION_NOT_ENABLED_FOR_WORKSPACE
此工作区未启用管道创建。
管道不存在
ID 为“”<pipelineId>
的管道不存在。
有关详细信息 ,请参阅PIPELINE_DOES_NOT_EXIST
PIPELINE_ENVIRONMENT_NOT_ENABLED
DLT 中不支持使用环境。
PIPELINE_ENVIRONMENT_VERSION_NOT_ALLOWED
管道的环境当前不支持环境版本。
PIPELINE_FAILED_TO_UPDATE_UC_TABLE_DUE_TO_CONCURRENT_UPDATE
管道在 <attempts>
次尝试后,由于并发更改,未能更新 UC 表 (<tableName>
)。
请验证是否有外部进程修改表,请重试更新,如果此问题仍然存在,请联系 Databricks 支持部门。
PIPELINE_FOR_TABLE_NEEDS_REFRESH
该表 <tableName>
未处于所需状态,该表最近尚未更新。 必须再次运行 ID 为“”<pipelineId>
的管道,然后重试该作。
PIPELINE_FOR_TABLE_NOT_FOUND
找不到 ID 为“<pipelineId>
”、管理表 <tableName>
的管道。 请确保您所在的工作区与管道所在的工作区一致,您是该管道的所有者,并且该管道至少运行过一次。
PIPELINE_GLOB_INCLUDES_CONFLICTS
管道设置中 libraries 下的 glob 或 notebook/file 字段应设置其一。 请更改管道设置。
PIPELINE_GLOB_INCLUDES_NOT_SUPPORTED
使用 glob 字段包含源文件是预览功能,已禁用。
重新选择要包含的每个源文件,以便管道修复此错误。
联系 Databricks 支持人员,详细了解此功能并注册预览版。
PIPELINE_GLOB_UNSUPPORTED_SPECIAL_CHARACTER
特殊字符 <specialChar>
是保留的,不应在管道设置中的包含路径“”<path>
中使用。 删除这些字符以修复错误
PIPELINE_NAME_LIMIT_REACHED
名称不能超过 <maxPipelineNameLength>
字符。
PIPELINE_NON_RETRYABLE_ANALYSIS
由于在部分执行后出现不可重试的错误,管道无法分析源表(<tables>
)。
不会创建新的管道更新。 请检查事件日志并相应地修复问题。
PIPELINE_NOT_IN_DIRECT_PUBLISHING_MODE
ID 为“”<pipelineId>
的管道(管理表 <tableName>
)不使用直接发布模式。
PIPELINE_NOT_READY_FOR_SCHEDULED_UPDATE
表格尚未准备好刷新
有关更多详细信息,请参阅 PIPELINE_NOT_READY_FOR_SCHEDULED_UPDATE
PIPELINE_PERMISSION_DENIED_NOT_OWNER
您不允许执行此操作。 你不是 ID 为“<pipelineId>
”、管理表 <tableName>
的管道的所有者。
PIPELINE_SETTINGS_FIELD_CANNOT_BE_EDITED
“”<uneditableFieldName>
不能由用户修改。 如果用户想要添加或修改<settingName>
,请改用“<editableFieldName>
”字段。
PIPELINE_SETTINGS_MODIFIED_CONCURRENTLY
管道设置被同时修改。
PIPELINE_SETTINGS_UNSUPPORTED_CONFIGURATIONS
Lakeflow 声明性管道不支持这些配置 <configurations>
。 请删除这些配置。
PIPELINE_SETTING_SHOULD_NOT_SPECIFY_DEVELOPMENT
不支持使用“开发”设置启动更新。
PIPELINE_SHOULD_NOT_HAVE_MULTIPLE_TABLES
管道必须恰好有一个表,但找到 <tablesSize>
个表:<tables>
PIPELINE_SOURCE_FILE_NUMBER_EXCEEDED
源文件数(包括文件夹中声明的文件)超出了限制 <limit>
。
根据需要删除或合并过多的文件并更改相应的管道规范,
或联系 Databricks 客服请求提升限额。
PIPELINE_SOURCE_FOLDER_DEPTH_EXCEEDED
文件夹“”<folder_path>
超出了允许的最大目录嵌套级别 <limit>
。 减少文件夹嵌套级别或联系 Databricks 支持部门以请求增加限制。
PIPELINE_SPEC_PARAM_CANNOT_BE_CHANGED
不允许在管道设置中修改以下参数<param>
不支持的管道类型
不支持管道类型“<pipelineType>
” 。
PIPELINE_TYPE_NOT_WORKSPACE_PIPELINE_TYPE
ID 为“<pipelineId>
”、管理表 <tableName>
的管道不是 ETL 管道。
PIPELINE_TYPE_QUOTA_EXCEEDED
无法启动更新<updateId>
,因为已达到<pipelineType>
类型的活动管道数量限制。
PIPELINE_UPDATE_FOR_TABLE_IS_RUNNING
ID 为“”<pipelineId>
的管道正在运行,用于管理表 <tableName>
。 请在运行操作之前停止管道。
PIPELINE_WORKSPACE_LIMIT_REACHED
类型为“<pipelineType>
”的管道创建被阻止,因为工作区“<orgId>
”已拥有“<countLimit>
”个管道。 请联系 Databricks 支持部门来调整此限制。
PIP_INSTALL_ERROR(PIP安装错误)
调用 %pip 安装时出错。
PIP_INSTALL_NOT_AT_TOP_OF_NOTEBOOK
找到包含 %pip install 且不在笔记本顶部的单元格用于“<notebookPath>
”
将所有 %pip install 单元格移动到该笔记本的开头。
PY4J_BLOCKED_API
SQLSTATE:未分配
你使用的是当前环境中不支持的 Python API。
请查看 Databricks 文档了解替代项。
<additionalInfo>
REFERENCE_DLT_DATASET_OUTSIDE_QUERY_DEFINITION
不支持引用数据集查询定义外部的 DLT 数据集 <identifier>
(即 @dlt.table 批注)。 请改为在数据集查询定义中读取它。
REFRESH_INITIATED_FROM_INVALID_WORKSPACE
刷新必须在创建资源的工作区 <homeWorkspaceId>
中启动。
在工作区 <userWorkspaceId>
中尝试刷新。
REFRESH_MODE_ALREADY_EXISTS
无法将 <type>
添加到已具有 <existingType>
的表。 请删除现有计划或使用 ALTER TABLE
... ALTER <type>
更改它。
REQUIRED_PARAM_NOT_FOUND
找不到必需的参数 <param>
。
RESERVED_KEYWORD_IN_USE_CATALOG
USE CATALOG
“”<reservedKeyword>
是非法的,因为“”<reservedKeyword>
是 DLT 中的保留关键字。
RESERVED_KEYWORD_IN_USE_SCHEMA
USE SCHEMA
“”<reservedKeyword>
是非法的,因为“”<reservedKeyword>
是 DLT 中的保留关键字。
根路径未找到
无法访问根路径“”。<rootPath>
请确保拥有所需的访问权限。
RUN_AS_USER_NOT_FOUND
更新指定的运行身份用户“<runAsUserId>
”在工作区中不存在。
SAAS连接错误
无法连接到 <sourceName>
源。 错误代码:<saasConnectionErrorCode>
。
有关详细信息,请参阅 SAAS_CONNECTION_ERROR
SAAS_CONNECTOR_REFRESH_TOKEN_EXPIRED
连接的 <connectionName>
刷新令牌已过期。 编辑连接、重新进行身份验证并重新运行管道。
SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR
架构更改发生在 <tableName>
源的表 <sourceName>
中。
有关更多详细信息,请参阅 SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR
SAAS_CONNECTOR_SOURCE_API_ERROR
<sourceName>
API 调用中发生错误。 源 API 类型:<saasSourceApiType>
。 错误代码:<saasSourceApiErrorCode>
。
尝试刷新目标表。 如果问题仍然存在,请提交票证。
SAAS_CONNECTOR_UNSUPPORTED_ERROR
数据源 <sourceName>
中发生不支持的错误。
有关更多详细信息,请参阅 SAAS_CONNECTOR_UNSUPPORTED_ERROR
SAAS_INCOMPATIBLE_SCHEMA_CHANGES_DURING_INIT
初始化管道时检测到不兼容的架构更改:
<details>
请对受影响的表执行完全刷新。
SAAS_PARTIAL_ANALYSIS_INPUT_CREATION_ERROR
为部分分析创建输入时遇到错误。 不会创建新的管道更新。
请检查事件日志并相应地修复问题。
SAAS_SCHEMA_DIVERGED_DURING_ANALYSIS
源表 (<table>
) 的分析架构与预期架构存在分歧。
请重试管道更新,看看问题是否已解决。
如果此问题仍然存在,请对上述表执行完全刷新
预期架构:
<expectedSchema>
实际架构:
<actualSchema>
SAAS_UC_CONNECTION_INACCESSIBLE(SaaS UC 连接不可访问)
提供的连接 <connectionName>
不可访问。 请检查连接,然后重试。
有关更多详细信息,请参阅 SAAS_UC_CONNECTION_INACCESSIBLE
SCHEMA_SPEC_EMPTY_CATALOG
SchemaSpec 在目录字段中有一个空字符串。
请删除空字符串或添加目录名称。 (如果此架构不属于源中的目录,请不要设置字段。
架构规格详细信息:
<schemaSpec>
SCHEMA_SPEC_EMPTY_SCHEMA
SchemaSpec 在架构字段中有一个空字符串。
请删除空字符串或添加架构名称。 (如果此表不属于源中的架构,请不要设置字段。
架构规格详细信息:
<schemaSpec>
SCHEMA_SPEC_REQUIRE_ONE_OF_CATALOG_SCHEMA
必须存在至少一个源目录和源架构。 但两者都是空的。
架构规格详细信息:
<schemaSpec>
SERVERLESS_BUDGET_POLICY_BAD_REQUEST
由于策略工作区绑定约束,此工作区中不能使用此 ID 为“”<budgetPolicyId>
“的预算策略。
无服务器预算策略无效
ID 为“”<budgetPolicyId>
的无服务器预算策略无效。
SERVERLESS_BUDGET_POLICY_MISSING
ID 为“”<budgetPolicyId>
的无服务器预算策略不存在。
SERVERLESS_BUDGET_POLICY_NOT_ENABLED
未启用无服务器预算策略,请联系 Databricks 支持部门。
SERVERLESS_BUDGET_POLICY_NOT_ENABLED_FOR_ACCOUNT
未为此帐户启用无服务器预算策略。 用户无法为此管道指定预算策略。 帐户管理员应尝试通过功能预览门户进行注册。 如果问题仍然存在,请联系 Databricks 支持部门。
SERVERLESS_BUDGET_POLICY_NOT_SUPPORTED_FOR_NON_SERVERLESS_PIPELINE
无法将无服务器预算策略分配给非无服务器管道。
SERVERLESS_BUDGET_POLICY_NOT_SUPPORTED_FOR_PIPELINE_TYPE
管道类型 <pipelineType>
不支持无服务器预算策略。
SERVERLESS_BUDGET_POLICY_PERMISSION_DENIED
用户无权使用 ID 为“”<budgetPolicyId>
的无服务器预算策略。
SERVERLESS_NOT_AVAILABLE
无服务器计算不可用。 有关详细信息,请联系 Databricks。
SERVERLESS_NOT_ENABLED
不能对 Lakeflow 声明性管道使用无服务器计算。 请联系 Databricks 为工作区启用此功能。
SERVERLESS_NOT_ENABLED_FOR_USER
无服务器计算未为调用方启用。 请联系工作区管理员以启用此功能。
SERVERLESS_NOT_ENABLED_FOR_WORKSPACE
无服务器计算不适用于此工作区和/或区域。 有关详细信息,请联系 Databricks。
SERVERLESS_REQUIRED
必须在此工作区中使用无服务器计算。
SERVICENOW_CONNECTION_ERROR
ServiceNow 中发生错误。 源 API 类型:<saasSourceApiType>
。
有关详细信息 ,请参阅SERVICENOW_CONNECTION_ERROR
SERVICENOW_CONNECTOR_EMPTY_CURSOR_KEY_ERROR
ServiceNow 中发生错误。 源 API 类型:<saasSourceApiType>
。
此时,引入管道无法引入表“”<tableName>
,因为行中的游标键包含空字段。
要继续运行管道,请删除此表。 如果错误仍然存在,请提交票证。
SERVICENOW_CONNECTOR_INSTANCE_HIBERNATION_ERROR
ServiceNow 中发生错误。 源 API 类型:<saasSourceApiType>
。
未能连接到 ServiceNow 实例。 该实例似乎处于休眠状态或处于非活动状态。
登录到 ServiceNow 管理门户,等待一段时间,直到实例完全唤醒。
如果错误仍然存在,请提交票证。
SERVICENOW_CONNECTOR_INSTANCE_OFFLINE_ERROR
ServiceNow 中发生错误。 源 API 类型:<saasSourceApiType>
。
未能连接到 ServiceNow 实例。 实例处于脱机状态。
登录到 ServiceNow 管理门户,等待一段时间,直到实例还原。
如果错误仍然存在,请提交票证。
SERVICENOW_CONNECTOR_INVALID_TABLE_ERROR
ServiceNow 中发生错误。 源 API 类型:<saasSourceApiType>
。
未能查询表“”<tableName>
的架构。 此用户的 ServiceNow 帐户中不存在该表。
检查表名称是否有拼写错误,并确保用户具备访问该表所需的权限。
如果错误仍然存在,请提交票证。
ServiceNow连接器IP地址受限错误
ServiceNow 中发生错误。 源 API 类型:<saasSourceApiType>
。
未能连接到 ServiceNow 实例。 该实例具有 IP 地址访问控制限制。
若要解决此问题,可以通过导航到 ServiceNow >> All >> System Security >> IP 地址访问控制来禁用 IP 地址限制,或使用无服务器的固定 IP。
如果错误仍然存在,请提交票证。
SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR
ServiceNow 中发生错误。 源 API 类型:<saasSourceApiType>
。
检测到 ServiceNow API 端点 URL 无效。 URL 结构与预期的 ServiceNow 格式不匹配。
检查 UC 连接凭据中的 ServiceNow 实例配置。
有关更多详细信息,请参阅 SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR
SERVICENOW_CONNECTOR_MAX_FAILED_ATTEMPTS_REACHED
ServiceNow 中发生错误。 源 API 类型:<saasSourceApiType>
。
当表的数据提取时间过长时,通常会发生这种情况。 作为第一步,请与 ServiceNow 管理员协作,在游标列上启用索引。
游标列按以下顺序从列表中选择,按可用性和偏好排序:sys_updated_on(首选)、sys_CREATED_on(次选)、sys_archived(第三选)
有关在 ServiceNow 中启用索引的说明,请参阅: https://docs.databricks.com/ingestion/lakeflow-connect/servicenow-overview#why-is-my-servicenow-ingestion-performance-slow.
我们还建议将 REST API 查询超时增加到 60 秒以上,以允许更多时间提取记录。
然后,重试引入管道。 如果问题仍然存在,请提交工单。
SERVICENOW_CONNECTOR_SCHEMA_FIELD_TYPE_MISMATCH
提取表架构时,ServiceNow 中发生错误。
为字段“”<fieldName>
“”<firstDataType>
和“”<secondDataType>
找到了两种冲突的数据类型。
要继续运行管道,请删除此表。 如果错误仍然存在,请提交票证。
SERVICENOW连接器未经授权访问错误
ServiceNow 中发生错误。 源 API 类型:<saasSourceApiType>
。
有关更多详细信息,请参阅 SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
SET_TBLPROPERTIES_NOT_ALLOWED_FOR_PIPELINE_TABLE
ALTER <commandTableType>
... SET TBLPROPERTIES
不支持。 若要修改表属性,请更改原始定义并运行更新。
SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE
对象 <objName>
的引入不完整,因为 Salesforce API 查询作业花费的时间过长、失败或已手动取消。
有关更多详细信息,请参阅 SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE
SFDC_CONNECTOR_BULK_QUERY_NOT_FOUND
对象 <objName>
引入失败,因为找不到 Salesforce 批量 API 查询作业。
请对特定目标表执行 FULL REFRESH
。
SFDC_CONNECTOR_CREATE_BULK_QUERY_API_LIMIT_EXCEEDED
Salesforce API 调用中出现错误:超出 API 限制
请等待 API 限制重置。 然后尝试刷新目标表。
如果错误仍然存在,请提交票证。
SFDC_CONNECTOR_CREATE_BULK_QUERY_JOB_FAILED
由于创建 Salesforce 批量 API 查询作业失败,对象 <objName>
引入不完整。 错误代码:<saasSourceApiErrorCode>
。
<actionText>
。
SINKS_NOT_SUPPORTED_IN_SEG
在启用无服务器出口控制的工作区中不支持管道中的 DLT 接收器。 支持的 DLT 接收器是 Kafka 和 Delta。
找到以下不支持的接收器:<sinkNames>
,其对应格式为:<sinkFormats>
。
SOURCE_TABLE_NOT_MATERIALIZED
无法读取依赖数据集“”<sourceTableName>
,因为它未具体化。 运行整个工作流以生成所有依赖的数据集。
STANDALONE_PRIVATE_MVST_NOT_SUPPORTED
不支持创建独立的 PRIVATE
MV/ST。 请删除 PRIVATE
修饰符
STREAMING_TARGET_NOT_DEFINED
找不到<target>
对应的<command>
命令的目标表。 管道中未定义目标表 <target>
。
SYNCED_TABLE_USER_ERROR
同步表管道用户错误。
有关详细信息,请参阅SYNCED_TABLE_USER_ERROR
TABLE_CHANGED_DURING_OPERATION
表 <tableName>
在事务外被修改,此事务已回滚。 重试操作。
TABLE_MATERIALIZATION_CYCLIC_FOREIGN_KEY_DEPENDENCY
管道更新为管道:<pipelineId>
检测到外键约束的循环链:<tables>
。
TABLE_SPEC_BOTH_CATALOG_SCHEMA_REQUIRED
TableSpec 缺少源目录和/或源架构之一。
表规范详细信息:
<tableSpec>
TABLE_SPEC_EMPTY_CATALOG
TableSpec 在目录字段中有一个空字符串。
请删除空字符串或添加目录名称。 (如果此表不属于源中的目录,请不要设置字段。
表规范详细信息:
<tableSpec>
TABLE_SPEC_EMPTY_SCHEMA
TableSpec 在架构字段中有一个空字符串。
请删除空字符串或添加架构名称。 (如果此表不属于源中的架构,请不要设置字段。
表规范详细信息:
<tableSpec>
TABLE_SPEC_EMPTY_TABLE
表名为空。 请提供表名。
表规范详细信息:
<tableSpec>
TABLE_TOKEN_NOT_EXIST_FOR_SCHEMA_EVOLUTION_LEGACY_TABLE
由于缺少元数据,无法启用架构演变。 请触发完全刷新。
原因:启用架构演变时必须定义快照表令牌。
触发间隔值无效
触发器间隔必须是正持续时间,最大可接受的值为 2,147,483,647 秒。 收到了:<actual>
秒。
TRIGGER_ON_VIEW_READ_FROM_FILE_NOT_SUPPORTED
源 <source>
是从文件位置读取的视图,当前不被触发器支持。
触发源类型不被支持
触发器当前不支持类型为 <source>
的源 <type>
。
UC_CLEARING_TARGET_SCHEMA_NOT_ALLOWED
不允许在 UC 管道中清除目标架构字段。 原因:<reason>
。
UC_NOT_ENABLED
DLT 中未启用使用 UC 目录。
UC_PIPELINE_CANNOT_PUBLISH_TO_HMS
启用 UC 的管道无法发布到 Hive 元存储。 请选择其他目标目录。
UC_TARGET_SCHEMA_REQUIRED
UC 管道需要目标架构字段。 原因:<reason>
。
UNABLE_TO_INFER_TABLE_SCHEMA
无法从其上游流推断表 <tableName>
的架构。
请修改写入此表的流,使其架构兼容。
到目前为止推断的架构:
<inferredDataSchema>
不兼容的架构:
<incompatibleDataSchema>
UNEXPECTED_PIPELINE_SCHEMA_PERMISSION_ERROR
检查管道 <pipelineId>
的架构权限时出现意外错误。 请联系 Databricks 支持部门。
UNIFORM_COMPATIBILITY_CANNOT_SET_WITH_ROW_FILTERS_OR_COLUMN_MASKS
不能对应用行筛选器或列掩码的物化视图或流式表设置统一的兼容性。
UNITY_CATALOG_INITIALIZATION_FAILED
在群集 <clusterId>
上设置管道时遇到 Unity 目录错误。
确保 Unity 目录配置正确,并且所需的资源(例如目录、架构)存在且可访问。
此外,请验证群集是否具有访问 Unity 目录的适当权限。
详细信息:<ucErrorMessage>
UNRESOLVED_SINK_PATH
无法解析接收器 <identifier>
的存储路径。 请联系 Databricks 支持部门。
UNRESOLVED_TABLES_FOR_MAINTENANCE
下表是在管道定义中找到的,但在维护期间无法解析。 如果问题仍然存在,请使用最新的管道定义运行管道更新任务,以生成管道定义中的所有表,解除维护阻塞,或者联系 Databricks 支持部门。
<unresolvedTableIdentifiersSet>
UNRESOLVED_TABLE_PATH
无法解析表 <identifier>
的存储路径。 请联系 Databricks 支持部门。
UNSUPPORTED_ALTER_COMMAND
ALTER <commandTableType>
... <command>
不支持。
UNSUPPORTED_CHANNEL_FOR_DPM
直接发布模式不支持的通道。 期望“CURRENT
”或“PREVIEW
”通道,但得到“PREVIOUS
”
UNSUPPORTED_COMMAND_IN_NON_DPM_PIPELINE
<command>
仅在启用直接发布模式的 Lakeflow 声明式管道中受支持。
UNSUPPORTED_COMMAND_IN_QUERY_DEFINITION
查询定义不支持“<command>
” 。 请将命令移到查询定义之外。 如果是 Python 中的管道,请将 <command>
移到 @dlt.table()/@dlt.view() 修饰器之外。 如果它是 Scala 中的管道,请将“”<command>
移动到“query”方法的外部。
UNSUPPORTED_CUSTOM_DBR_VERSION
自定义 DBR 版本“<v>
”在 SHIELD
和 HIPAA
工作区中不受支持。 期望 [<supportedDbrVersions>
] 之一
UNSUPPORTED_DBR_VERSION
不支持 DBR 版本“<v>
”。 期望 [<supportedDbrVersions>
] 之一
UNSUPPORTED_FEATURE_FOR_WORKSPACE
工作区不支持 <featureName>
。 请联系 Databricks 支持部门,为工作区启用此功能。
UNSUPPORTED_LANGUAGE
未能加载 <language>
笔记本“<notebookPath>
”。 目前仅支持 <supportedLanguages>
笔记本。
不支持的库文件类型
该文件 <path>
没有.py或.sql后缀。 管道中仅支持 Python 和 SQL 文件。
UNSUPPORTED_LIBRARY_NOTEBOOK_LANGUAGE
笔记本 <path>
不支持语言 <language>
。 管道中仅支持 Python 和 SQL
不支持的库对象类型
包含在路径中的<path>
类型为<objectType>
,该类型不受支持。 目前,只能将笔记本和文件用作库。 若要解决此问题,请删除不受支持的对象或更新为此管道配置的库,以便仅包含受支持的对象类型。
UNSUPPORTED_MANAGED_INGESTION_SOURCE_TYPE
托管引入管道定义无效,源类型不受支持:<sourceType>
。
UNSUPPORTED_SAAS_INGESTION_TYPE
不支持提供的引入类型 <ingestionType>
。
如果此问题仍然存在,请联系 Databricks 支持部门。
不支持的SPARK SQL命令
DLT Python 中的 spark.sql(“...”) API 不支持'<command>
' 。 支持的命令:<supportedCommands>
。
UPDATED_DEFINITION_SET_FOR_NON_DBSQL_PIPELINE
只有 DBSQL
管道可以有 updated_definition。
USE_CATALOG_IN_HMS
USE CATALOG
仅在启用 UC 的 Lakeflow 声明式管道中受支持。
查看未在UC中保存的文本
无法刷新表 <tableName>
,因为它没有保存在 Unity 目录中的查询。 请联系 Databricks 支持部门。
WORKDAY_REPORTS_CONNECTOR_REPORT_NOT_FOUND_ERROR
Workday 报表中发生错误。 源 API 类型:<saasSourceApiType>
。
报表 URL“”<reportUrl>
不正确。 请检查基 URL 或报表名称中的任何拼写错误以解决此问题。
如果问题仍然存在,请提交工单。
Workday 报告连接器未授权访问错误
Workday 报表中发生错误。 源 API 类型:<saasSourceApiType>
。
有关更多详细信息,请参阅 WORKDAY_REPORTS_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
工作日报告网址为空
Workday 报表 URL 为空。 必须至少提供一个报表。
WORKSPACE_QUOTA_EXCEEDED
无法启动更新“<updateId>
”,因为此工作区中已有“<maxActiveUpdates>
”个活动管道在运行。
杂项
ABAC_POLICIES_NOT_SUPPORTED_FOR_RUNTIME_VERSION
SQLSTATE:未分配
由于 <dbrVersionMessage>
,在分配的群集上不支持对具有 ABAC 策略的表 <tableFullName>
进行查询。 需要版本 <minimumSupportedVersion>
或更高版本。
AZURE_ENTRA_CREDENTIALS_MISSING
SQLSTATE:未分配
Azure Entra(即 Azure Active Directory)凭据缺失。
请确保已用 Entra 帐户登录
或已在用户设置中为 > Git 集成设置了 Azure DevOps 个人访问令牌(PAT)。
如果不使用 PAT,并且正在将 Azure DevOps 与 Repos API 配合使用,
必须使用 Azure Entra 访问令牌。
请参阅 https://docs.microsoft.com/azure/databricks/dev-tools/api/latest/aad/app-aad-token 获取 Azure Entra 访问令牌的步骤。
AZURE_ENTRA_CREDENTIALS_PARSE_FAILURE
SQLSTATE:未分配
遇到与您的 Azure Entra(Azure Active Directory)凭据相关的错误。 请尝试注销
Entra (https://portal.azure.com) 并重新登录。
或者,还可以访问“用户设置”> Git 集成来设置
设置 Azure DevOps 个人访问令牌。
Azure Entra 登录错误 (AZURE_ENTRA_LOGIN_ERROR)
SQLSTATE:未分配
您的 Azure Active Directory 凭据出现错误。 请尝试注销
Azure Active Directory (https://portal.azure.com) 并重新登录。
AZURE_ENTRA_WORKLOAD_IDENTITY_ERROR
SQLSTATE:未分配
遇到 Azure 工作负荷身份错误,Azure 异常:<azureWorkloadIdentityExceptionMessage>
CLEAN_ROOM_DELTA_SHARING_ENTITY_NOT_AUTHORIZED
SQLSTATE:未分配
无法请求为清洁室 Delta Sharing 安全对象生成凭据。
CLEAN_ROOM_HIDDEN_SECURABLE_PERMISSION_DENIED
SQLSTATE:未分配
类型为 <securableName>
且种类为 <securableType>
的安全对象 <securableKind>
由清洁室系统管理,用户无权访问。
CONSTRAINT_ALREADY_EXISTS
SQLSTATE:未分配
名为 <constraintName>
的约束已存在,请选择其他名称。
约束不存在
SQLSTATE:未分配
约束 <constraintName>
不存在。
无法读取远程存储库
SQLSTATE:未分配
无法读取远程存储库(<repoUrl>
)。
请访问您的远程 Git 提供商以确保:
远程 Git 存储库 URL 有效。
个人访问令牌或应用密码具有正确的存储库访问权限。
COULD_NOT_RESOLVE_REPOSITORY_HOST
SQLSTATE:未分配
无法解析 <repoUrl>
的主机。
CSMS_BEGINNING_OF_TIME_NOT_SUPPORTED
SQLSTATE:未分配
参数 beginning_of_time
不能为 true。
CSMS_CONTINUATION_TOKEN_EXPIRED
SQLSTATE:未分配
找不到延续令牌的请求对象。
CSMS_INVALID_CONTINUATION_TOKEN
SQLSTATE:未分配
延续令牌无效。 原因:<msg>
CSMS_INVALID_MAX_OBJECTS
SQLSTATE:未分配
参数 max_objects 的值 <value>
无效,预期值应在 [<minValue>
, <maxValue>
] 之间。
CSMS_INVALID_SUBSCRIPTION_ID (无效的订阅ID)
SQLSTATE:未分配
订阅 ID 无效。 原因:<msg>
CSMS_INVALID_URI_FORMAT
SQLSTATE:未分配
URI 格式无效。 需要卷(例如“/Volumes/catalog/schema/volume”)或云存储路径(例如“s3://some-uri”)
CSMS_KAFKA_TOPIC_MISSING
SQLSTATE:未分配
必须提供 Kafka 主题
CSMS_LOCATION_ERROR
SQLSTATE:未分配
无法列出对象。 这个位置存在需要解决的问题。 详细信息:<msg>
CSMS_LOCATION_NOT_KNOWN
SQLSTATE:未分配
找不到 uri <path>
的位置
CSMS_METASTORE_ID_MISSING
SQLSTATE:未分配
必须提供元存储 uuid
CSMS_METASTORE_RESOLUTION_FAILED
SQLSTATE:未分配
无法确定请求的元存储。
CSMS_RESOLVE_LOCAL_SHARD_NAME_FAILED
SQLSTATE:未分配
CSMS 无法解析本地分片名称
CSMS_服务_已禁用
SQLSTATE:未分配
服务已禁用
CSMS_SHARD_NAME_MISSING_IN_REQUEST
SQLSTATE:未分配
发送到 CSMS 的 rpc 请求中缺少分片名称
CSMS_UNITY_CATALOG_ENTITY_NOT_FOUND
SQLSTATE:未分配
找不到 Unity 目录实体。 确保存在目录、架构、卷和/或外部位置。
CSMS_UNITY_CATALOG_EXTERNAL_LOCATION_DOES_NOT_EXIST
SQLSTATE:未分配
Unity 目录外部位置不存在。
CSMS_UNITY_CATALOG_EXTERNAL_STORAGE_OVERLAP
SQLSTATE:未分配
URI 与其他卷重叠
CSMS_UNITY_CATALOG_METASTORE_DOES_NOT_EXIST
SQLSTATE:未分配
无法确定请求的元存储。 元存储不存在
CSMS_UNITY_CATALOG_PERMISSION_DENIED
SQLSTATE:未分配
权限被拒绝
CSMS_UNITY_CATALOG_TABLE_DOES_NOT_EXIST
SQLSTATE:未分配
Unity 目录表不存在。
CSMS_UNITY_CATALOG_VOLUME_DOES_NOT_EXIST
SQLSTATE:未分配
Unity 目录卷不存在。
CSMS_UNSUPPORTED_SECURABLE
SQLSTATE:未分配
不支持的安全对象
CSMS_URI_MISSING
SQLSTATE:未分配
必须提供 URI
CSMS_URI过长
SQLSTATE:未分配
提供的 URI 太长。 允许的最大长度为 <maxLength>
。
DMK_CATALOGS_DISALLOWED_ON_CLASSIC_COMPUTE
SQLSTATE:未分配
无法使用经典计算访问 Databricks 默认存储。 请使用无服务器计算访问默认存储中的数据
GitHub 应用无法刷新凭证
SQLSTATE:未分配
操作失败,因为无法更新关联的 GitHub 应用凭据。
请重试或转到“用户设置”> Git 集成,然后尝试重新链接 Git 提供程序帐户。
如果问题仍然存在,请提交支持票证。
GITHUB_APP_CREDENTIALS_NO_ACCESS
SQLSTATE:未分配
您的 GitHub 帐户链接没有访问权限。 若要修复此错误,请:
- 存储库的管理员必须转到 https://github.com/apps/databricks/installations/new 存储库中并安装 Databricks GitHub 应用。
或者,GitHub 帐户所有者可以在帐户上安装应用,以授予对帐户存储库的访问权限。
- 如果应用已安装,请让管理员确保如果他们使用“仅选择存储库”选项的范围访问,则通过选择它来包含对该存储库的访问。
如果问题仍然存在,请提交支持票证。
GitHub 应用程序凭证已过期
SQLSTATE:未分配
链接的 GitHub 应用凭据在 6 个月不使用后过期。
转到“用户设置”>“Git 集成”,然后尝试重新链接凭据。
如果问题仍然存在,请提交支持票证。
不同用户帐户上的GITHUB应用安装
SQLSTATE:未分配
您的 GitHub 帐户链接没有访问权限。 若要修复此错误,请:
GitHub 用户
<gitCredentialUsername>
应转到 https://github.com/apps/databricks/installations/new 帐户<gitCredentialUsername>
并安装应用以允许访问。如果用户
<gitCredentialUsername>
已安装应用,并且他们使用“仅选择存储库”选项的范围访问,则他们应确保通过选择它来包含对该存储库的访问。
如果问题仍然存在,请提交支持票证。
GITHUB_APP_INSTALL_ON_ORGANIZATION
SQLSTATE:未分配
您的 GitHub 帐户链接没有访问权限。 若要修复此错误,请:
GitHub 组织的
<organizationName>
所有者应转到 https://github.com/apps/databricks/installations/new,并在<organizationName>
组织中安装应用程序以允许访问。如果应用已在 GitHub 组织
<organizationName>
上安装,请让该组织的所有者确保如果使用“仅选择存储库”选项的范围访问,则通过选择它来包含对该存储库的访问。
如果问题仍然存在,请提交支持票证。
在您的账户上安装GitHub应用程序
SQLSTATE:未分配
您的 GitHub 帐户链接没有访问权限。 若要修复此错误,请:
转到 https://github.com/apps/databricks/installations/new 帐户
<gitCredentialUsername>
并安装应用以允许访问。如果应用已安装,并且你使用“仅选择存储库”选项的范围访问,请确保通过选择它来包含对该存储库的访问。
如果问题仍然存在,请提交支持票证。
GIT集群未准备好
SQLSTATE:未分配
Git 群集未准备就绪。
GIT_CREDENTIAL_GENERIC_INVALID
SQLSTATE:未分配
存储库 URL <repoUrl>
的 Git 提供程序凭据无效。
当前 Git 凭据提供程序为 <gitCredentialProvider>
,用户名为 <gitCredentialUsername>
。
转到“用户设置”>“Git 集成”以查看凭据。
请访问您的远程 Git 提供商以确保:
你已使用 Git 提供程序凭据输入正确的 Git 用户电子邮件或用户名。
令牌或应用密码具有正确的存储库访问权限。
令牌未过期。
如果您已为您的 Git 提供商启用 SSO,请务必授权您的令牌。
GIT_CREDENTIAL_INVALID_PAT
SQLSTATE:未分配
存储库 URL <repoUrl>
的 Git 提供程序个人访问令牌凭据无效。
当前 Git 凭据提供程序为 <gitCredentialProvider>
,用户名为 <gitCredentialUsername>
。
转到“用户设置”>“Git 集成”以查看凭据。
请访问您的远程 Git 提供商以确保:
你已使用 Git 提供程序凭据输入正确的 Git 用户电子邮件或用户名。
令牌或应用密码具有正确的存储库访问权限。
令牌未过期。
如果您已为您的 Git 提供商启用 SSO,请务必授权您的令牌。
GIT_CREDENTIAL_MISSING
SQLSTATE:未分配
未配置 Git 凭据,但此存储库需要凭据(<repoUrl>
)。
转到“用户设置”> Git 集成以设置 Git 凭据。
GIT_CREDENTIAL_NO_WRITE_PERMISSION
SQLSTATE:未分配
未授予对 <gitCredentialProvider>
存储库(<repoUrl>
)的写入访问权限。
请确保(<gitCredentialUsername>
)对此远程存储库具有写入访问权限。
GIT_CREDENTIAL_PROVIDER_MISMATCHED
SQLSTATE:未分配
存储库的 Git 凭据提供程序不正确。
你当前的 Git 凭据提供程序 (<gitCredentialProvider>
) 与存储库的 Git 提供程序 <repoUrl>
不匹配。
请尝试其他存储库或转到“用户设置”> Git 集成来更新 Git 凭据。
GIT_PROXY_CLUSTER_NOT_READY
SQLSTATE:未分配
Git 代理群集尚未准备就绪。
GIT_SECRET_IN_CODE
SQLSTATE:未分配
在提交中找到的机密。 详细信息:<secretDetail>
。 若要修复此错误,请:
删除机密,然后重试提交。
如果问题仍然存在,请提交支持票证。
HIERARCHICAL_NAMESPACE_NOT_ENABLED
SQLSTATE:未分配
Azure 存储帐户未启用分层命名空间。
INVALID_FIELD_LENGTH
SQLSTATE:未分配
<rpcName> <fieldName>
太长。 最大长度为 <maxLength>
个字符。
参数值无效
SQLSTATE:未分配
<msg>
有关更多详细信息,请参阅 INVALID_PARAMETER_VALUE
JOBS_TASK_FRAMEWORK_TASK_RUN_OUTPUT_NOT_FOUND
SQLSTATE:未分配
任务框架:找不到具有 runId <runId>
和 orgId <orgId>
的任务运行输出。
JOBS_TASK_FRAMEWORK_TASK_RUN_STATE_NOT_FOUND
SQLSTATE:未分配
任务框架:找不到具有 runId <runId>
和 orgId <orgId>
的任务运行状态。
JOBS_TASK_REGISTRY_TASK_CLIENT_CONFIG_DOES_NOT_EXIST
SQLSTATE:未分配
任务 ID 为 <taskId>
的 RPC ClientConfig 不存在。
JOBS_TASK_REGISTRY_TASK_DOES_NOT_EXIST
SQLSTATE:未分配
ID 为 <taskId>
的任务不存在。
JOBS_TASK_REGISTRY_UNSUPPORTED_JOB_TASK
SQLSTATE:未分配
任务注册表:类 <taskClassName>
不支持或未知的 JobTask。
PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_EXTERNAL_SHALLOW_CLONE
SQLSTATE:未分配
不支持对外部浅克隆表 <tableFullName>
进行基于路径的访问。 请改用表名来访问浅表克隆。
PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_FABRIC
SQLSTATE:未分配
位于 url '<url>
' 的结构表未找到。 请使用 REFRESH FOREIGN CATALOG
命令填充 Fabric 表。
PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_TABLES_WITH_ROW_COLUMN_ACCESS_POLICIES
SQLSTATE:未分配
不支持行筛选器或列掩码的基于路径的访问表 <tableFullName>
。
PERMISSION_DENIED
SQLSTATE:未分配
用户在 <resourceType>
'<resourceName>
' 上没有 <msg>
权限。
REDASH_DELETE_ASSET_HANDLER_INVALID_INPUT
SQLSTATE:未分配
无法分析删除对象请求:<invalidInputMsg>
REDASH_DELETE_OBJECT_NOT_IN_TRASH
SQLSTATE:未分配
无法删除不在回收站中的对象 <resourceName>
REDASH_PERMISSION_DENIED
SQLSTATE:未分配
找不到资源 <resourceId>
,或没有权限访问。
REDASH_QUERY_NOT_FOUND
SQLSTATE:未分配
无法从查询 ID <queryId>
找到资源
REDASH_QUERY_SNIPPET_CREATION_FAILED
SQLSTATE:未分配
无法创建新的查询代码段
REDASH_QUERY_SNIPPET_QUOTA_EXCEEDED
SQLSTATE:未分配
已达到查询代码段数的配额。 当前配额为 <quota>
。
REDASH_QUERY_SNIPPET_TRIGGER_ALREADY_IN_USE
SQLSTATE:未分配
指定的触发器 <trigger>
已被此工作区中的其他查询代码片段使用。
REDASH_RESOURCE_NOT_FOUND
SQLSTATE:未分配
请求的资源 <resourceName>
不存在
REDASH_RESTORE_ASSET_HANDLER_INVALID_INPUT
SQLSTATE:未分配
无法分析删除对象请求:<invalidInputMsg>
REDASH_RESTORE_OBJECT_NOT_IN_TRASH
SQLSTATE:未分配
无法还原不在回收站中的编号为 <resourceName>
的对象
REDASH_TRASH_OBJECT_ALREADY_IN_TRASH
SQLSTATE:未分配
无法将已放入回收站的对象 <resourceName>
再次放入回收站
瑞达什无法生成资源名称
SQLSTATE:未分配
无法从 ID <id>
生成资源名称
REDASH_VISUALIZATION_CREATION_FAILED
SQLSTATE:未分配
无法创建新的可视化效果
REDASH_VISUALIZATION_NOT_FOUND
SQLSTATE:未分配
找不到可视化效果 <visualizationId>
REDASH_VISUALIZATION_QUOTA_EXCEEDED
SQLSTATE:未分配
查询 <query_id>
的可视化数量配额已达到上限。 当前配额为 <quota>
。
存储库网址未找到
SQLSTATE:未分配
找不到远程存储库(<repoUrl>
)。
当前 Git 凭据提供程序为 <gitCredentialProvider>
,用户名为 <gitCredentialUsername>
。
请访问您的远程 Git 提供商以确保:
远程 Git 存储库 URL 有效。
个人访问令牌或应用密码具有正确的存储库访问权限。
RESOURCE_ALREADY_EXISTS
SQLSTATE:未分配
<resourceType>
'<resourceIdentifier>
' 已存在
资源不存在
SQLSTATE:未分配
<resourceType>
'<resourceIdentifier>
' 不存在。
ROW_COLUMN_ACCESS_POLICIES_NOT_SUPPORTED_ON_ASSIGNED_CLUSTERS
SQLSTATE:未分配
在已分配的群集上,不支持对包含行筛选器或列掩码的表 <tableFullName>
执行查询。
ROW_COLUMN_SECURITY_NOT_SUPPORTED_WITH_TABLE_IN_DELTA_SHARING
SQLSTATE:未分配
表 <tableFullName>
正在通过 Delta Sharing 进行共享,不能使用行/列安全性。
服务暂时不可用
SQLSTATE:未分配
<serviceName>
服务暂时处于维护状态。 请稍后重试。
TABLE_WITH_ROW_COLUMN_SECURITY_NOT_SUPPORTED_IN_ONLINE_MODE
SQLSTATE:未分配
表 <tableFullName>
不能同时具有行/列安全性和联机具体化视图。
TOO_MANY_ROWS_TO_UPDATE
SQLSTATE:未分配
要更新的行太多,更新正在中止。