Azure Databricks 中的错误类
适用于 Databricks SQL、Databricks Runtime 12.2 及更高版本
错误类是错误条件特有的描述性、可读性字符串。
可以使用错误类以编程方式处理应用程序中的错误,而无需分析错误消息。
这是 Azure Databricks 返回的常见命名错误条件的列表。
Databricks Runtime 和 Databricks SQL
AGGREGATE_FUNCTION_WITH_NONDETERMINISTIC_EXPRESSION
非确定性表达式 <sqlExpr>
不应出现在聚合函数的参数中。
AI_FUNCTION_HTTP_PARSE_CAST_ERROR
强制转换为指定的 returnType:“<dataType>
”时未能解析模型输出,响应 JSON 为:“<responseString>
”。 请更新 returnType 以匹配响应 JSON 表示的类型的内容,然后再次重试查询。
AI_FUNCTION_HTTP_PARSE_COLUMNS_ERROR
实际模型输出具有多个列“<responseString>
”。 但是,指定的返回类型[“<dataType>
”]只有一列。 请更新 returnType 以包含与模型输出相同的列数,然后再次重试查询。
AI_FUNCTION_HTTP_REQUEST_ERROR
对函数 <funcName>
发出 HTTP 请求时出错:<errorMessage>
AI_FUNCTION_INVALID_HTTP_RESPONSE
函数 <funcName>
的 HTTP 响应无效:<errorMessage>
AI_FUNCTION_INVALID_MAX_WORDS
最大字词数必须是非负整数,但获得 <maxWords>
。
AI_FUNCTION_INVALID_MODEL_PARAMETERS
提供的模型参数 (<modelParameters>
) 在提供终结点“”<endpointName>
的AI_QUERY函数中无效。
有关详细信息,请参阅 AI_FUNCTION_INVALID_MODEL_PARAMETERS
AI_FUNCTION_JSON_PARSE_ERROR
分析函数 <funcName>
的 JSON 响应时出错:<errorMessage>
AI_FUNCTION_MODEL_SCHEMA_PARSE_ERROR
未能分析服务终结点“<endpointName>
”的架构:<errorMessage>
,响应 JSON 为:“<responseJson>
”。
在 AI_QUERY 函数中手动设置 returnType
参数以替代架构解析。
AI_FUNCTION_UNSUPPORTED_ERROR
函数 <funcName>
在当前环境中不受支持。 它仅在 Databricks SQL Pro 和无服务器版本中可用。
AI_FUNCTION_UNSUPPORTED_REQUEST
未能计算 SQL 函数“<functionName>
”,因为提供的 <invalidValue>
参数具有“<invalidDataType>
”,但仅支持以下类型:<supportedDataTypes>
。 请更新函数调用以提供字符串类型的参数,然后再次重试查询。
AI_FUNCTION_UNSUPPORTED_RETURN_TYPE
AI 函数:“<functionName>
”不支持将以下类型作为返回类型:“<typeName>
”。 返回类型必须是由 Catalyst 理解并受 AI 函数支持的有效 SQL 类型。 当前支持的类型包括:<supportedValues>
AI_INVALID_ARGUMENT_VALUE_ERROR
参数“<argName>
”不支持提供的值“<argValue>
”。 支持的值为:<supportedValues>
AI_QUERY_RETURN_TYPE_COLUMN_TYPE_MISMATCH
参数 returnType 不支持所提供的“<sqlExpr>
”。
AI_SEARCH_EMBEDDING_COLUMN_TYPE_UNSUPPORTED_ERROR
不支持嵌入列类型为 <embeddingColumnType>
的矢量搜索。
AI_SEARCH_INDEX_TYPE_UNSUPPORTED_ERROR
不支持索引类型为 <indexType>
的矢量搜索。
AI_SEARCH_QUERY_TYPE_CONVERT_ENCODE_ERROR
在请求编码期间,未能将矢量搜索查询从 spark 类型<dataType>
具体化到 scala-native 对象,并出现错误: <errorMessage>
AI_SEARCH_UNSUPPORTED_NUM_RESULTS_ERROR
不支持 num_results 大于 <maxLimit>
的矢量搜索。 指定的限制为 <requestedLimit>
。 请使用 num_results <= <maxLimit>
重试
ALL_PARAMETERS_MUST_BE_NAMED
使用名称参数化查询时需要命名所有参数。 参数缺少名称 <exprs>
。
ALL_PARTITION_COLUMNS_NOT_ALLOWED
无法将所有列用于分区列。
ALTER_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
ALTER TABLE <type>
列 <columnName>
多次指定了描述符“<optionName>
”,这是无效的操作。
AMBIGUOUS_ALIAS_IN_NESTED_CTE
嵌套 CTE 中的名称 <name>
不明确。
请将 <config>
设置为“CORRECTED”,使内部 CTE 中定义的名称优先。 如果将其设置为“LEGACY”,则外部 CTE 定义优先。
请参阅“https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine”。
AMBIGUOUS_COLUMN_OR_FIELD
列或字段 <name>
不明确且具有 <n>
个匹配项。
AMBIGUOUS_COLUMN_REFERENCE
列 <name>
不明确。 这是因为联接了多个 DataFrame,并且其中一些 DataFrame 是相同的。
此列指向其中一个 DataFrame,但 Spark 无法确定是指向哪一个。
请在联接 DataFrame 之前,通过 DataFrame.alias
将 DataFrame 命名为不同的别名,
然后使用限定名称(例如 df.alias("a").join(df.alias("b"), col("a.id") > col("b.id"))
)指定该列。
AMBIGUOUS_CONSTRAINT
对约束 <constraint>
的引用不明确。
AMBIGUOUS_LATERAL_COLUMN_ALIAS
横向列别名 <name>
不明确且具有 <n>
个匹配项。
AMBIGUOUS_REFERENCE
引用 <name>
不明确,可能是:<referenceNames>
。
AMBIGUOUS_REFERENCE_TO_FIELDS
对字段 <field>
的引用不明确。 它在架构中出现了 <count>
次。
ANALYZE_CONSTRAINTS_NOT_SUPPORTED
不支持 ANALYZE CONSTRAINTS。
ANSI_CONFIG_CANNOT_BE_DISABLED
无法在此产品中禁用 ANSI SQL 配置 <config>
。
AQE_THREAD_INTERRUPTED
AQE 线程中断,可能是由于用户取消查询。
ARGUMENT_NOT_CONSTANT
函数 <functionName>
在需要常量参数的位置 <pos>
处包含参数 <parameterName>
。 请单独计算参数 <sqlExpr>
,并以常量形式传递结果。
ARITHMETIC_OVERFLOW
<message>
。<alternative>
如有必要,可将 <config>
设置为“false”以绕过此错误。
有关更多详细信息,请参阅 ARITHMETIC_OVERFLOW
ASSIGNMENT_ARITY_MISMATCH
分配或别名的列数或变量数:<numTarget>
与源表达式的数目:<numExpr>
不匹配。
AS_OF_JOIN
截止联接无效。
有关更多详细信息,请参阅 AS_OF_JOIN
AVRO_DEFAULT_VALUES_UNSUPPORTED
如果启用 rescuedDataColumn
,则不支持使用默认值。 可以将 spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue
设置为 false 来删除此检查,但仍然不会使用默认值,而是使用 null 值。
AVRO_INCOMPATIBLE_READ_TYPE
无法将 Avro <avroPath>
转换为 SQL <sqlPath>
,因为原始编码的数据类型为 <avroType>
,但你尝试将字段读取为 <sqlType>
,这将导致应答不正确。
若要允许读取此字段,请启用 SQL 配置:“spark.sql.legacy.avro.allowIncompatibleSchema”。
AVRO_POSITIONAL_FIELD_MATCHING_UNSUPPORTED
如果启用 rescuedDataColumn
或 failOnUnknownFields
,则不支持使用位置字段匹配。 可以删除这些选项继续操作。
BATCH_METADATA_NOT_FOUND
无法找到批处理 <batchMetadataFile>
。
BIGQUERY_OPTIONS_ARE_MUTUALLY_EXCLUSIVE
必须使用“GoogleServiceAccountKeyJson”参数或“projectId”、“OAuthServiceAcctEmail”、“OAuthPvtKey”这三项来指定 BigQuery 连接凭据
BINARY_ARITHMETIC_OVERFLOW
<value1>
<symbol>
<value2>
导致溢出。
BOOLEAN_STATEMENT_WITH_EMPTY_ROW
布尔语句 <invalidStatement>
无效。 需要具有类型的值但具有空行的 BOOLEAN
单个行。
BUILT_IN_CATALOG
<operation>
不支持内置目录。
CALL_ON_STREAMING_DATASET_UNSUPPORTED
无法对流式处理数据集/数据帧调用 <methodName>
方法。
CANNOT_ALTER_COLLATION_BUCKET_COLUMN
ALTER TABLE (ALTER|CHANGE) COLUMN 无法更改存储桶列的类型/子类型的排序规则,但在表 <tableName>
中找到了存储桶列 <columnName>
。
CANNOT_ALTER_PARTITION_COLUMN
不支持对分区列使用 ALTER TABLE (ALTER|CHANGE) COLUMN,但却在表 <tableName>
中发现分区列 <columnName>
。
CANNOT_ASSIGN_EVENT_TIME_COLUMN_WITHOUT_WATERMARK
需要定义水印,才能重新分配事件时间列。 未能在流式处理查询中找到水印定义。
CANNOT_CAST_DATATYPE
无法将 <sourceType>
强制转换为 <targetType>
。
CANNOT_CONVERT_PROTOBUF_FIELD_TYPE_TO_SQL_TYPE
无法将 Protobuf <protobufColumn>
转换为 SQL <sqlColumn>
,因为架构不兼容(protobufType = <protobufType>
,sqlType = <sqlType>
)。
CANNOT_CONVERT_PROTOBUF_MESSAGE_TYPE_TO_SQL_TYPE
无法将 Protobuf 的 <protobufType>
转换为 SQL 类型 <toType>
。
CANNOT_CONVERT_SQL_TYPE_TO_PROTOBUF_FIELD_TYPE
无法将 SQL <sqlColumn>
转换为 Protobuf <protobufColumn>
,因为架构不兼容(protobufType = <protobufType>
,sqlType = <sqlType>
)。
CANNOT_CONVERT_SQL_VALUE_TO_PROTOBUF_ENUM_TYPE
无法将 SQL <sqlColumn>
转换为 Protobuf <protobufColumn>
,因为 <data>
不在枚举 <enumString>
的定义值中。
CANNOT_COPY_STATE
无法将目录状态(如当前数据库和临时视图)从 Unity Catalog 复制到旧目录。
CANNOT_CREATE_DATA_SOURCE_TABLE
未能创建数据源表 <tableName>
:
有关详细信息,请参阅 CANNOT_CREATE_DATA_SOURCE_TABLE
CANNOT_DECODE_URL
无法解码提供的 URL:<url>
。 请确保 URL 格式正确,然后重试。
CANNOT_DELETE_SYSTEM_OWNED
无法删除系统拥有的 <resourceType>
。
CANNOT_DROP_AMBIGUOUS_CONSTRAINT
无法删除名称 <constraintName>
由 CHECK 约束共享的约束
以及 PRIMARY KEY 或 FOREIGN KEY 约束共享的约束。 可以通过以下查询删除 PRIMARY KEY 或
FOREIGN KEY 约束:
- ALTER TABLE .. DROP PRIMARY KEY 或
- ALTER TABLE .. DROP FOREIGN KEY ..
CANNOT_ESTABLISH_CONNECTION
无法与远程 <jdbcDialectName>
数据库建立连接。 请检查连接信息和凭据,例如主机、端口、用户、密码和数据库选项。 ** 如果你认为该信息属实,请检查工作区的网络设置,并确保它没有对主机的出站限制。 另请检查主机不会阻止从部署工作区 Spark 群集的网络过来的入站连接。 ** 详细错误消息:<causeErrorMessage>
。
CANNOT_ESTABLISH_CONNECTION_SERVERLESS
无法与远程 <jdbcDialectName>
数据库建立连接。 请检查连接信息和凭据,例如主机、端口、用户、密码和数据库选项。 ** 如果你认为信息正确,请允许从 Internet 到主机的入站流量,因为你使用的是无服务器计算。 如果你的网络策略不允许入站 Internet 流量,请使用非无服务器计算,或者可以联系 Databricks 代表了解无服务器专用网络。 ** 详细错误消息:<causeErrorMessage>
。
CANNOT_INVOKE_IN_TRANSFORMATIONS
数据集转换和操作只能由驱动程序调用,而不能在其他数据集转换内部调用;例如,dataset1.map(x => dataset2.values.count() * x) 无效,因为无法在 dataset1.map 转换内部执行值转换和计数操作。 有关详细信息,请参阅 SPARK-28702。
CANNOT_LOAD_FUNCTION_CLASS
注册函数 <functionName>
时无法加载类 <className>
,请确保它位于类路径上。
CANNOT_LOAD_PROTOBUF_CLASS
无法加载名称为 <protobufClassName>
的 Protobuf 类。 <explanation>
。
CANNOT_LOAD_STATE_STORE
加载状态期间出错。
有关详细信息,请参阅 CANNOT_LOAD_STATE_STORE
CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE
无法合并不兼容的数据类型 <left>
和 <right>
。 请检查要合并的列的数据类型,并确保它们兼容。 如有必要,请考虑在尝试合并之前将列强制转换为兼容的数据类型。
CANNOT_MERGE_SCHEMAS
架构合并失败:
初始架构:
<left>
无法与初始架构合并的架构:
<right>
。
CANNOT_MODIFY_CONFIG
无法修改 Spark 配置的值:<key>
。
另请参阅 https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements”。
CANNOT_PARSE_DECIMAL
无法分析十进制数。 请确保输入是具有可选小数点或逗号分隔符的有效数字。
CANNOT_PARSE_INTERVAL
无法分析 <intervalString>
。 请确保提供的值采用用于定义间隔的有效格式。 可以参考文档获取正确的格式。 如果问题仍然存在,请仔细检查输入值不为 null 或为空,然后重试。
CANNOT_PARSE_JSON_FIELD
无法将 JSON 标记类型 <jsonType>
的字段名称 <fieldName>
和值 <fieldValue>
分析为目标 Spark 数据类型 <dataType>
。
CANNOT_PARSE_PROTOBUF_DESCRIPTOR
将描述符字节解析为 Protobuf FileDescriptorSet 时出错。
CANNOT_PARSE_TIMESTAMP
<message>
。 如有必要,请将 <ansiConfig>
设置为“false”以绕过此错误。
CANNOT_QUERY_TABLE_DURING_INITIALIZATION
初始化期间无法查询 MV/ST。
有关更多详细信息,请参阅 CANNOT_QUERY_TABLE_DURING_INITIALIZATION
CANNOT_READ_ARCHIVED_FILE
无法读取路径 <path>
处的文件,因为该文件已存档。 请调整查询筛选器以排除已存档的文件。
CANNOT_READ_FILE
无法读取路径 <path>
处的 <format>
文件。
有关详细信息,请参阅 CANNOT_READ_FILE
CANNOT_READ_SENSITIVE_KEY_FROM_SECURE_PROVIDER
无法从安全提供程序读取敏感密钥“<key>
”。
CANNOT_RECOGNIZE_HIVE_TYPE
无法识别 hive 类型字符串:<fieldType>
,列:<fieldName>
。 Spark SQL 无法识别字段的指定数据类型。 请检查指定字段的数据类型,并确保它是有效的 Spark SQL 数据类型。 有关有效数据类型及其格式的列表,请参阅 Spark SQL 文档。 如果数据类型正确,请确保你使用的是受支持的 Spark SQL 版本。
CANNOT_REFERENCE_UC_IN_HMS
无法在 Hive 元存储对象中引用 Unity Catalog <objType>
。
CANNOT_RENAME_ACROSS_CATALOG
不允许跨目录重命名 <type>
。
CANNOT_RENAME_ACROSS_SCHEMA
不允许跨架构重命名 <type>
。
CANNOT_RESOLVE_DATAFRAME_COLUMN
无法解析 DataFrame 列 <name>
。 这可能是非法引用(如 df1.select(df2.col("a"))
)造成的。
CANNOT_RESOLVE_STAR_EXPAND
无法解析 <targetString>
.* 给定的输入列 <columns>
。 请检查指定的表或结构是否存在并且可在输入列中访问。
CANNOT_RESTORE_PERMISSIONS_FOR_PATH
无法将创建的路径 <path>
上的权限设置回 <permission>
。
CANNOT_SAVE_VARIANT
无法将变体数据类型保存到外部存储中。
CANNOT_SHALLOW_CLONE_ACROSS_UC_AND_HMS
无法跨 Unity Catalog 和 Hive 元存储浅度克隆表。
CANNOT_SHALLOW_CLONE_NESTED
无法对已经是浅度克隆的表 <table>
执行浅度克隆。
CANNOT_SHALLOW_CLONE_NON_UC_MANAGED_TABLE_AS_SOURCE_OR_TARGET
只有 MANAGED 表类型支持浅度克隆。 表 <table>
不是托管表。
CANNOT_UPDATE_FIELD
无法更新 <table>
字段 <fieldName>
类型:
有关详细信息,请参阅 CANNOT_UPDATE_FIELD
CANNOT_UP_CAST_DATATYPE
无法将 <expression>
从 <sourceType>
强制转换为 <targetType>
。
<details>
CANNOT_VALIDATE_CONNECTION
不支持验证 <jdbcDialectName>
连接。 请联系 Databricks 支持部门获取替代解决方案,或将“spark.databricks.testConnectionBeforeCreation”设置为“false”以在创建连接对象之前跳过连接测试。
CANNOT_WRITE_STATE_STORE
为提供程序 <providerClass>
写入状态存储文件时出错。
有关详细信息,请参阅 CANNOT_WRITE_STATE_STORE
CAST_INVALID_INPUT
类型 <sourceType>
的值 <expression>
无法强制转换为 <targetType>
,因为其格式错误。 根据语法更正值,或更改其目标类型。 使用 try_cast
来容许格式错误的输入并改为返回 NULL。
有关更多详细信息,请参阅 CAST_INVALID_INPUT
CAST_OVERFLOW
由于溢出,类型 <sourceType>
的值 <value>
无法强制转换为 <targetType>
。 使用 try_cast
容许溢出,并返回 NULL。
CAST_OVERFLOW_IN_TABLE_INSERT
由于溢出,无法将 <sourceType>
类型分配到 <targetType>
类型列或变量 <columnName>
。 对输入值使用 try_cast
以容许溢出并改为返回 NULL。
CATALOG_NOT_FOUND
找不到目录 <catalogName>
。 请考虑将 SQL 配置 <config>
设置为目录插件。
CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND
找不到检查点块 <rddBlockId>
!
可能是最初为此分区设置检查点的执行程序不再处于活动状态,或者未保留原始 RDD。
如果此问题仍然存在,可以考虑改用 rdd.checkpoint()
,这个检查点比本地检查点慢,但容错能力更高。
CLASS_NOT_OVERRIDE_EXPECTED_METHOD
<className>
必须替代 <method1>
或 <method2>
。
CLASS_UNSUPPORTED_BY_MAP_OBJECTS
MapObjects
不支持将类 <cls>
作为生成的集合。
CLEANROOM_COMMANDS_NOT_SUPPORTED
不支持清洁室命令
CLEANROOM_INVALID_SHARED_DATA_OBJECT_NAME
引用清洁室内 <type>
的名称无效。 按照 [catalog].[schema].[<type>
] 的格式,在清洁室内使用 <type>
的名称。
如果不确定要使用的名称,则可以运行“在清洁室[clean_room]中全部显示”,并使用“name”列中的值。
CLOUD_FILE_SOURCE_FILE_NOT_FOUND
已收到文件 <filePath>
的文件通知,但该文件不再存在。 请确保在处理文件之前该文件未被删除。 若要继续处理流,可以将 Spark SQL 配置 <config>
设置为 true。
CLOUD_PROVIDER_ERROR
云提供商错误:<message>
CLUSTERING_COLUMNS_MISMATCH
指定的聚类分析与现有表 <tableName>
的群集不匹配。
指定的聚类分析列:[<specifiedClusteringString>
]。
现有聚类分析列:[<existingClusteringString>
]。
CLUSTERING_NOT_SUPPORTED
“<operation>
”不支持聚类分析。
CLUSTER_BY_AUTO_FEATURE_NOT_ENABLED
请联系 Databricks 代表来启用群集自动功能。
CLUSTER_BY_AUTO_REQUIRES_CLUSTERING_FEATURE_ENABLED
请启用 clusteringTable.enableClusteringTableFeature 以使用 CLUSTER BY AUTO。
CLUSTER_BY_AUTO_REQUIRES_PREDICTIVE_OPTIMIZATION
CLUSTER BY AUTO 要求启用预测性优化。
CLUSTER_BY_AUTO_UNSUPPORTED_TABLE_TYPE_ERROR
仅 UC 托管表支持 CLUSTER BY AUTO。
CODEC_NOT_AVAILABLE
编解码器 <codecName>
不可用。
有关更多详细信息,请参阅 CODEC_NOT_AVAILABLE
CODEC_SHORT_NAME_NOT_FOUND
找不到编解码器 <codecName>
的短名称。
COLLATION_INVALID_NAME
值 <collationName>
不表示正确的排序规则名称。 建议的有效排序规则名称:[<proposals>
]。
COLLATION_INVALID_PROVIDER
值 <provider>
不表示正确的排序规则提供程序。 支持的提供程序包括:[<supportedProviders>
]。
COLLATION_MISMATCH
无法确定要用于字符串函数和运算符的排序规则。
有关更多详细信息,请参阅 COLLATION_MISMATCH
COLLECTION_SIZE_LIMIT_EXCEEDED
无法创建包含超出数组大小限制 <maxRoundedArrayLength>
的 <numberOfElements>
元素的数组,
有关详细信息,请参阅 COLLECTION_SIZE_LIMIT_EXCEEDED
COLUMN_ALIASES_NOT_ALLOWED
<op>
中不允许使用列别名。
COLUMN_ALREADY_EXISTS
列 <columnName>
已存在。 选择其他名称或重命名现有列。
COLUMN_MASKS_CHECK_CONSTRAINT_UNSUPPORTED
不支持使用列掩码策略对表 <tableName>
创建 CHECK 约束。
COLUMN_MASKS_DUPLICATE_USING_COLUMN_NAME
<statementType>
语句尝试将列掩码策略分配到某个列,而该列包含 USING COLUMNS 列表中的其他两个或更多个具有名称 <columnName>
的被引用列,这是无效操作。
COLUMN_MASKS_FEATURE_NOT_SUPPORTED
不支持 <tableName>
的列掩码策略:
有关更多详细信息,请参阅 COLUMN_MASKS_FEATURE_NOT_SUPPORTED
COLUMN_MASKS_INCOMPATIBLE_SCHEMA_CHANGE
无法从表 <tableName>
执行 <statementType>
<columnName>
,因为它已在列 <maskedColumn>
的列掩码策略中引用。 表所有者必须先删除或更改此策略,然后才能继续操作。
COLUMN_MASKS_MERGE_UNSUPPORTED_SOURCE
MERGE INTO 操作不支持源表 <tableName>
中的列掩码策略。
COLUMN_MASKS_MERGE_UNSUPPORTED_TARGET
MERGE INTO 操作不支持写入具有列掩码策略的表 <tableName>
。
COLUMN_MASKS_MULTI_PART_TARGET_COLUMN_NAME
此语句尝试将列掩码策略分配到具有多个名称部分的列 <columnName>
,这是无效操作。
COLUMN_MASKS_MULTI_PART_USING_COLUMN_NAME
此语句尝试将列掩码策略分配到某个列,而 USING COLUMNS 列表包含的名称 <columnName>
具有多个名称部分,这是无效操作。
COLUMN_MASKS_NOT_ENABLED
未启用对定义列掩码的支持
COLUMN_MASKS_REQUIRE_UNITY_CATALOG
列掩码策略仅在 Unity Catalog 中受支持。
COLUMN_MASKS_TABLE_CLONE_SOURCE_NOT_SUPPORTED
不支持使用列掩码策略从表 <tableName>
进行 <mode>
克隆。
COLUMN_MASKS_TABLE_CLONE_TARGET_NOT_SUPPORTED
不支持使用列掩码策略将 <mode>
克隆到表 <tableName>
。
COLUMN_MASKS_UNSUPPORTED_CONSTANT_AS_PARAMETER
不支持将常数用作列掩码策略中的参数。 请更新 SQL 命令以从列掩码定义中删除常量,然后再次重试该命令。
COLUMN_MASKS_UNSUPPORTED_PROVIDER
无法执行 <statementType>
命令,因为表提供程序为“<provider>
”的目标数据源不支持分配列掩码策略。
COLUMN_MASKS_UNSUPPORTED_SUBQUERY
无法对表 <tableName>
执行 <operation>
,因为表中包含一个或多个具有子查询表达式的列掩码策略,尚不支持此操作。 请联系表的所有者以更新列掩码策略,以便继续操作。
COLUMN_MASKS_USING_COLUMN_NAME_SAME_AS_TARGET_COLUMN
列 <columnName>
与目标列同名,这是无效的;请从 USING COLUMNS 列表中删除该列,然后重试命令。
COLUMN_NOT_DEFINED_IN_TABLE
<colType>
列 <colName>
未在表 <tableName>
中定义,定义的表列为:<tableCols>
。
COLUMN_NOT_FOUND
找不到列 <colName>
。 根据 SQL 配置 <caseSensitiveConfig>
验证列名的拼写和正确性。
COMMA_PRECEDING_CONSTRAINT_ERROR
约束定义前出现意外的“,”。 确保未定义列(和预期)时,约束子句不以逗号开头。
COMMENT_ON_CONNECTION_NOT_IMPLEMENTED_YET
尚未实现 COMMENT ON CONNECTION 命令
COMPARATOR_RETURNS_NULL
对于 <firstValue>
和 <secondValue>
之间的比较,比较器返回了 NULL。
它应为“大于”运算符返回正整数,为“等于”运算符返回 0,并为“小于”运算符返回负整数。
要还原将 NULL 视为 0(等于)的已弃用行为,必须将“spark.sql.legacy.allowNullComparisonResultInArraySort”设置为“true”。
COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
无法处理表达式的输入数据类型:<expression>
。
有关更多详细信息,请参阅 COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
CONCURRENT_QUERY
此查询的另一个实例 [id:<queryId>
] 刚刚由并发会话启动 [现有 runId:<existingQueryRunId>
,新 runId:<newQueryRunId>
]。
CONCURRENT_STREAM_LOG_UPDATE
并发更新日志。 检测到多个流式处理作业的 <batchId>
。
请确保一次只有一个流式处理作业在特定检查点位置运行。
CONFIG_NOT_AVAILABLE
配置 <config>
不可用。
CONFLICTING_PARTITION_COLUMN_NAMES
检测到的分区列名称冲突:
<distinctPartColLists>
对于已分区表目录,数据文件应仅存在于叶目录中。
同一级别的目录应具有相同的分区列名称。
请检查以下目录是否有意外文件或分区列名称不一致:
<suspiciousPaths>
CONFLICTING_PROVIDER
指定的提供程序 <provider>
与现有目录提供程序 <expectedProvider>
不一致。 请使用“USING <expectedProvider>
”,然后重试该命令。
CONNECT
泛型 Spark 连接错误。
有关详细信息,请参阅 CONNECT
CONNECTION_ALREADY_EXISTS
连接无法创建连接 <connectionName>
,因为它已存在。
选择其他名称、删除或替换现有连接,或者添加 IF NOT EXISTS 子句以容许现有的连接。
CONNECTION_NAME_CANNOT_BE_EMPTY
无法执行此命令,因为连接名称必须非空。
CONNECTION_NOT_FOUND
无法执行此命令,因为找不到连接名称 <connectionName>
。
CONNECTION_OPTION_NOT_SUPPORTED
类型为“<connectionType>
”的连接不支持以下选项:<optionsNotSupported>
。 支持的选项:<allowedOptions>
。
CONNECTION_TYPE_NOT_SUPPORTED
无法创建类型为“<connectionType>
”的连接。 支持的连接类型:<allowedTypes>
。
CONSTRAINTS_REQUIRE_UNITY_CATALOG
表约束仅在 Unity Catalog 中受支持。
CONVERSION_INVALID_INPUT
无法将值 <str>
(<fmt>
) 转换为 <targetType>
,因为它的格式错误。 请根据语法更正值,或更改其格式。 使用 <suggestion>
来容许格式错误的输入并改为返回 NULL。
COPY_INTO_COLUMN_ARITY_MISMATCH
无法写入 <tableName>
,原因是
有关更多详细信息,请参阅 COPY_INTO_COLUMN_ARITY_MISMATCH
COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON
方案 <scheme>
无效。 COPY INTO 源凭据目前仅支持 s3/s3n/s3a/wasbs/abfss。
COPY_INTO_CREDENTIALS_REQUIRED
COPY INTO 源凭据必须指定 <keyList>
。
COPY_INTO_DUPLICATED_FILES_COPY_NOT_ALLOWED
复制的文件在并发 COPY INTO 操作中提交。 请稍后再试。
COPY_INTO_ENCRYPTION_NOT_ALLOWED_ON
方案 <scheme>
无效。 COPY INTO 源加密目前仅支持 s3/s3n/s3a/abfss。
COPY_INTO_ENCRYPTION_NOT_SUPPORTED_FOR_AZURE
COPY INTO 加密仅支持 ADLS Gen2 或 abfss:// 文件方案
COPY_INTO_ENCRYPTION_REQUIRED
COPY INTO 源加密必须指定“<key>
”。
COPY_INTO_ENCRYPTION_REQUIRED_WITH_EXPECTED
无效加密选项 <requiredKey>
。 COPY INTO 源加密必须指定“<requiredKey>
”=“<keyValue>
”。
COPY_INTO_FEATURE_INCOMPATIBLE_SETTING
COPY INTO 功能“<feature>
”与“<incompatibleSetting>
”不兼容。
COPY_INTO_NON_BLIND_APPEND_NOT_ALLOWED
除了追加数据外,COPY INTO 不能与其他事务同时运行。 请稍后再试。
COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED
COPY INTO 无法加载其状态,超过最大重试次数。
COPY_INTO_SCHEMA_MISMATCH_WITH_TARGET_TABLE
复制到 Delta 表(表:<table>
)时检测到架构不匹配。
这可能表示传入数据存在问题,或者 Delta 表架构通过以下设置根据传入数据进行了自动演变:
COPY_OPTIONS (‘mergeSchema’ = ‘true’)
架构差异:
<schemaDiff>
COPY_INTO_SOURCE_FILE_FORMAT_NOT_SUPPORTED
源文件的格式必须为 CSV、JSON、AVRO、ORC、PARQUET、TEXT 或 BINARYFILE 中的一种。 不支持在 Delta 表上使用 COPY INTO 作为源,因为在进行 OPTIMIZE 操作后可能会引入重复数据。 可以通过运行 SQL 命令 set spark.databricks.delta.copyInto.formatCheck.enabled = false
来关闭此检查。
COPY_INTO_SOURCE_SCHEMA_INFERENCE_FAILED
源目录不包含 <format>
类型的任何可分析文件。 请检查“<source>
”的内容。
可以通过将“<config>
”设置为“false”来消除错误。
COPY_INTO_STATE_INTERNAL_ERROR
处理 COPY INTO 状态时出现内部错误。
有关详细信息,请参阅 COPY_INTO_STATE_INTERNAL_ERROR
COPY_INTO_SYNTAX_ERROR
未能分析 COPY INTO 命令。
有关详细信息,请参阅 COPY_INTO_SYNTAX_ERROR
COPY_INTO_UNSUPPORTED_FEATURE
COPY INTO 功能“<feature>
”不受支持。
COPY_UNLOAD_FORMAT_TYPE_NOT_SUPPORTED
无法以“”<formatType>
格式卸载数据。 支持的格式 <connectionType>
为: <allowedFormats>
。
CREATE_FOREIGN_SCHEMA_NOT_IMPLEMENTED_YET
尚未实现 CREATE FOREIGN SCHEMA 命令
CREATE_FOREIGN_TABLE_NOT_IMPLEMENTED_YET
尚未实现 CREATE FOREIGN TABLE 命令
CREATE_OR_REFRESH_MV_ST_ASYNC
无法创建或刷新指定了 ASYNC 的具体化视图或流式处理表。 请从 CREATE 或 REFRESH 语句中删除 ASYNC,或使用 REFRESH ASYNC 异步刷新现有具体化视图或流式处理表。
CREATE_PERMANENT_VIEW_WITHOUT_ALIAS
不允许在未显式分配表达式 <attr>
的别名的情况下创建永久视图 <name>
。
CREATE_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
CREATE TABLE <columnName>
多次指定了描述符“<optionName>
”,这是无效的操作。
CREATE_VIEW_COLUMN_ARITY_MISMATCH
无法创建视图 <viewName>
,原因为
有关更多详细信息,请参阅 CREATE_VIEW_COLUMN_ARITY_MISMATCH
CREDENTIAL_MISSING
创建或更新外部位置时请提供凭据。
CSV_ENFORCE_SCHEMA_NOT_SUPPORTED
使用 rescuedDataColumn
或 failOnUnknownFields
时,无法设置 CSV 选项 enforceSchema
,因为列是按名称读取的,而不是序号。
CYCLIC_FUNCTION_REFERENCE
检测到循环函数引用:<path>
。
DATABRICKS_DELTA_NOT_ENABLED
未在帐户中启用 Databricks Delta。<hints>
DATATYPE_MISMATCH
由于数据类型不匹配,无法进行解析 <sqlExpr>
:
有关更多详细信息,请参阅 DATATYPE_MISMATCH
DATATYPE_MISSING_SIZE
DataType <type>
需要长度参数,例如 <type>
(10)。 请指定长度。
DATA_LINEAGE_SECURE_VIEW_LEAF_NODE_HAS_NO_RELATION
写入世系失败:缺少与 CLM/RLS 策略对应的关系。
DATA_SOURCE_ALREADY_EXISTS
数据源 <provider>
已存在。 请为新数据源选择其他名称。
DATA_SOURCE_EXTERNAL_ERROR
保存到外部数据源时遇到错误。
DATA_SOURCE_NOT_EXIST
未找到数据源 <provider>
。 请确保已注册该数据源。
DATA_SOURCE_NOT_FOUND
未能找到数据源:<provider>
。 请确保提供程序名称正确,并且包已正确注册且与 Spark 版本兼容。
DATA_SOURCE_OPTION_CONTAINS_INVALID_CHARACTERS
选项 <option>
不能为空,且不应包含无效字符、查询字符串或参数。
DATA_SOURCE_OPTION_IS_REQUIRED
选项 <option>
是必需的。
DATA_SOURCE_TABLE_SCHEMA_MISMATCH
数据源表的架构与预期的架构不匹配。 如果使用 DataFrameReader.schema API 或要创建表,请避免指定该架构。
数据源架构:<dsSchema>
预期架构:<expectedSchema>
DATA_SOURCE_URL_NOT_ALLOWED
数据源选项中不允许使用 JDBC URL,请改为指定“主机”、“端口”和“数据库”选项。
DATETIME_OVERFLOW
日期/时间操作溢出:<operation>
。
DC_API_QUOTA_EXCEEDED
已超出数据源 <sourceName>
的 API 配额。
有关详细信息,请参阅 DC_API_QUOTA_EXCEEDED
DC_CONNECTION_ERROR
未能连接到 <sourceName>
源。 错误代码:<errorCode>
。
有关更多详情,请参阅 DC_CONNECTION_ERROR
DC_DYNAMICS_API_ERROR
Dynamics API 调用中出错,errorCode:<errorCode>
。
有关更多详细信息,请参阅 DC_DYNAMICS_API_ERROR
DC_NETSUITE_ERROR
Netsuite JDBC 调用中出错,errorCode:<errorCode>
。
有关更多详细信息,请参阅 DC_NETSUITE_ERROR
DC_SCHEMA_CHANGE_ERROR
SQLSTATE:未分配
架构更改发生在 <sourceName>
源的表 <tableName>
中。
有关更多详细信息,请参阅 DC_SCHEMA_CHANGE_ERROR
DC_SERVICENOW_API_ERROR
ServiceNow API 调用中出错,errorCode:<errorCode>
。
有关更多详细信息,请参阅 DC_SERVICENOW_API_ERROR
DC_SFDC_BULK_QUERY_JOB_INCOMPLETE
对象 <objName>
的引入不完整,因为 Salesforce API 查询作业花费的时间过长、失败或已手动取消。
若要重试,可以重新运行整个管道或刷新此特定的目标表。 如果错误仍然存在,请提交票证。 作业 ID:<jobId>
。 作业状态:<jobStatus>
。
DC_SHAREPOINT_API_ERROR
Sharepoint API 调用中出错,errorCode:<errorCode>
。
有关更多详细信息,请参阅 DC_SHAREPOINT_API_ERROR
DC_SOURCE_API_ERROR
<sourceName>
API 调用中发生错误。 源 API 类型:<apiType>
。 错误代码:<errorCode>
。
当你达到 <sourceName>
API 限制时,有时会发生这种情况。 如果尚未超过 API 限制,请尝试重新运行连接器。 如果问题仍然存在,请提交票证。
DC_UNSUPPORTED_ERROR
数据源 <sourceName>
中出现“不受支持”错误。
有关更多详细信息,请参阅 DC_UNSUPPORTED_ERROR
DC_WORKDAY_RAAS_API_ERROR
Workday RAAS API 调用发生错误,errorCode:<errorCode>
。
有关更多详情,请参阅 DC_WORKDAY_RAAS_API_ERROR
DECIMAL_PRECISION_EXCEEDS_MAX_PRECISION
小数精度 <precision>
超过最大精度 <maxPrecision>
。
DEFAULT_DATABASE_NOT_EXISTS
默认数据库 <defaultDatabase>
不存在,请先创建该数据库,或将默认数据库更改为 <defaultDatabase>
。
DEFAULT_FILE_NOT_FOUND
可能已更新基础文件。 可通过在 SQL 中运行“REFRESH TABLE tableName”命令或重新创建所涉及的数据集/数据帧来显式地使 Spark 中的缓存失效。 如果磁盘缓存已过时,或者基础文件已删除,可以通过重启群集手动使磁盘缓存失效。
DEFAULT_PLACEMENT_INVALID
无法将 MERGE、INSERT、UPDATE 或 SET VARIABLE 命令中的 DEFAULT 关键字直接分配给目标列,因为它是表达式的一部分。
例如,允许 UPDATE SET c1 = DEFAULT
,但不允许 UPDATE T SET c1 = DEFAULT + 1
。
DIFFERENT_DELTA_TABLE_READ_BY_STREAMING_SOURCE
流式处理查询正在从意外的 Delta 表(id =“<newTableId>
”)读取。
它用于根据检查点从另一个 Delta 表读取(id =“<oldTableId>
”)。
更改代码以从新表中读取,或者删除表然后
可能会发生此错误。 请还原更改或删除流式处理查询检查点
以从头开始。
DISTINCT_WINDOW_FUNCTION_UNSUPPORTED
不支持不同的窗口函数:<windowExpr>
。
DIVIDE_BY_ZERO
被零除。 使用 try_divide
容许除数为 0,并返回 NULL。 如有必要,请将 <config>
设置为“false”以绕过此错误。
有关更多详细信息,请参阅 DIVIDE_BY_ZERO
DLT_EXPECTATIONS_NOT_SUPPORTED
预期仅在增量实时表管道中受支持。
DLT_VIEW_CLUSTER_BY_NOT_SUPPORTED
具有 CLUSTER BY 子句的具体化视图仅在 Delta Live Tables 管道中受支持。
DLT_VIEW_LOCATION_NOT_SUPPORTED
具体化视图位置仅在增量实时表管道中受支持。
DLT_VIEW_SCHEMA_WITH_TYPE_NOT_SUPPORTED
具有指定类型的具体化视图架构仅在增量实时表管道中受支持。
DLT_VIEW_TABLE_CONSTRAINTS_NOT_SUPPORTED
视图中的 CONSTRAINT 子句仅在增量实时表管道中受支持。
DUPLICATED_FIELD_NAME_IN_ARROW_STRUCT
箭头结构中不允许出现重复的字段名称,已得到 <fieldNames>
。
DUPLICATED_MAP_KEY
找到重复的映射键 <key>
,请检查输入数据。
如果要移除重复的键,可以将 <mapKeyDedupPolicy>
设置为“LAST_WIN”,以便最后插入的键优先。
DUPLICATED_METRICS_NAME
指标名称不唯一:<metricName>
。 同一名称不能用于具有不同结果的指标。
但是,允许具有相同结果和名称的多个指标实例(例如自联接)。
DUPLICATE_ASSIGNMENTS
列或变量 <nameList>
作为赋值目标出现多次。
DUPLICATE_CLAUSES
发现重复子句:<clauseName>
。 请删除其中的一个。
DUPLICATE_KEY
发现重复键 <keyColumn>
。
DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
对例程 <functionName>
的调用无效,因为它包含对同一参数名称 <parameterName>
的多个参数赋值。
有关更多详细信息,请参阅 DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
DUPLICATE_ROUTINE_PARAMETER_NAMES
在用户定义的例程 <routineName>
的参数列表中发现重复的名称:<names>
。
DUPLICATE_ROUTINE_RETURNS_COLUMNS
在用户定义的例程 <routineName>
的 RETURNS 子句列列表中发现重复的列:<columns>
。
EMITTING_ROWS_OLDER_THAN_WATERMARK_NOT_ALLOWED
上一个节点发出了 eventTime=<emittedRowEventTime>
早于 current_watermark_value=<currentWatermark>
的行
这可能会导致执行管道下游有状态运算符出现正确性问题。
请更正运算符逻辑,以在当前全局水印值之后发出行。
EMPTY_JSON_FIELD_VALUE
无法分析数据类型 <dataType>
的空字符串。
EMPTY_LOCAL_FILE_IN_STAGING_ACCESS_QUERY
暂存 <operation>
查询中包含空本地文件
ENCODER_NOT_FOUND
找不到 Spark SQL 内部表示形式的 <typeName>
类型编码器。
请考虑将输入类型更改为 “<docroot>
/sql-ref-datatypes.html”中支持的类型之一。
END_LABEL_WITHOUT_BEGIN_LABEL
没有开始标签,结束标签 <endLabel>
就不存在。
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_LATEST_WITH_TRIGGER_AVAILABLENOW
在使用 Trigger.AvailableNow 运行查询期间,Kafka 主题中某些分区报告的可用偏移量小于结束偏移量。 此错误可能是暂时性的 - 请重启查询,如果仍然看到相同问题,请予以报告。
最新偏移量:<latestOffset>
,结束偏移量:<endOffset>
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_PREFETCHED
对于具有 Trigger.AvailableNow 的 Kafka 数据源,每个主题分区的结束偏移量应小于或等于预提取的偏移量。 此错误可能是暂时性的 - 请重启查询,如果仍然看到相同问题,请予以报告。
预提取的偏移量:<prefetchedOffset>
,结束偏移量:<endOffset>
ERROR_READING_AVRO_UNKNOWN_FINGERPRINT
读取 avro 数据时出错 - 遇到未知指纹:<fingerprint>
,不确定要使用哪一架构。
如果在启动 Spark 上下文后注册了其他架构,则可能会发生这种情况。
EVENT_LOG_REQUIRES_SHARED_COMPUTE
无法从“已分配”或“无隔离共享”群集查询事件日志,请改用共享群集或 Databricks SQL 仓库。
EVENT_LOG_UNAVAILABLE
没有任何适用于 <tableOrPipeline>
的事件日志。 请稍后在生成事件后重试
EVENT_LOG_UNSUPPORTED_TABLE_TYPE
<tableIdentifier>
的表类型为 <tableType>
。
查询事件日志仅支持具体化视图、流式处理表或增量实时表管道
EVENT_TIME_IS_NOT_ON_TIMESTAMP_TYPE
事件时间 <eventName>
具有无效类型 <eventType>
,但应为“TIMESTAMP
”。
EXCEED_LIMIT_LENGTH
超过 char/varchar 类型长度限制:<limit>
。
EXCEPT_NESTED_COLUMN_INVALID_TYPE
EXCEPT 列 <columnName>
已解析,本应该为 StructType,但发现类型为 <dataType>
。
EXCEPT_OVERLAPPING_COLUMNS
EXCEPT 列表中的列必须非重复且不重叠,但出现了 (<columns>
)。
EXCEPT_RESOLVED_COLUMNS_WITHOUT_MATCH
EXCEPT 列 [<exceptColumns>
] 已解析,但不与星形扩展中的任何 [<expandedColumns>
] 列匹配。
EXCEPT_UNRESOLVED_COLUMN_IN_STRUCT_EXPANSION
无法解析 EXCEPT 子句中的列/字段名称 <objectName>
。 你是否指的是下列其中一项:[<objectList>
]?
注意:在结构扩展期间,EXCEPT 子句中的嵌套列可能不包含限定符(表名、父结构列名等);如果将限定符用于嵌套列,请尝试删除限定符。
EXECUTOR_BROADCAST_JOIN_OOM
内存不足,无法生成广播关系 <relationClassName>
。 关系大小 = <relationSize>
. 此任务使用的内存总量 = <taskMemoryUsage>
。 onHeapExecutionMemoryUsed = <onHeapExecutionMemoryUsed>
,offHeapExecutionMemoryUsed = <offHeapExecutionMemoryUsed>
,onHeapStorageMemoryUsed = <onHeapStorageMemoryUsed>
,offHeapStorageMemoryUsed = <offHeapStorageMemoryUsed>
。 [sparkPlanId: <sparkPlanId>
]
EXEC_IMMEDIATE_DUPLICATE_ARGUMENT_ALIASES
此 EXECUTE IMMEDIATE 命令的 USING 子句包含多个具有相同别名 (<aliases>
) 的参数,这是无效的;请更新命令以指定唯一的别名,然后重试。
EXPECT_PERMANENT_VIEW_NOT_TEMP
“<operation>
”需要永久视图,但 <viewName>
是临时视图。
EXPECT_TABLE_NOT_VIEW
“<operation>
”需要一个表,但 <viewName>
是一个视图。
有关更多详细信息,请参阅 EXPECT_TABLE_NOT_VIEW
EXPECT_VIEW_NOT_TABLE
表 <tableName>
不支持 <operation>
。
有关更多详细信息,请参阅 EXPECT_VIEW_NOT_TABLE
EXPRESSION_DECODING_FAILED
无法将行解码为表达式的值:<expressions>
。
EXPRESSION_ENCODING_FAILED
无法将表达式的值 <expressions>
解码为行。
EXPRESSION_TYPE_IS_NOT_ORDERABLE
列表达式 <expr>
无法排序,因为其类型 <exprType>
不可排序。
EXTERNAL_TABLE_INVALID_SCHEME
外部表不支持 <scheme>
方案。
FABRIC_REFRESH_INVALID_SCOPE
运行“REFRESH FOREIGN <scope>
<name>
”时出错。 无法直接刷新 Fabric <scope>
,请改用“REFRESH FOREIGN CATALOG <catalogName>
”刷新 Fabric Catalog。
FAILED_EXECUTE_UDF
由于 <reason>
,用户定义函数 (<functionName>
: (<signature>
) =><result>
) 失败。
FAILED_FUNCTION_CALL
为调用准备函数 <funcName>
失败。 请仔细检查函数的参数。
FAILED_JDBC
操作上的 JDBC <url>
失败:
有关详细信息,请参阅 FAILED_JDBC
FAILED_PARSE_STRUCT_TYPE
解析结构 <raw>
失败。
FAILED_READ_FILE
读取文件 <path>
时出错。
有关更多详细信息,请参阅 FAILED_READ_FILE
FAILED_REGISTER_CLASS_WITH_KRYO
无法向 Kryo 注册课程。
FAILED_RENAME_PATH
无法将 <sourcePath>
重命名为 <targetPath>
,因为目标已存在。
FAILED_RENAME_TEMP_FILE
无法将临时文件 <srcPath>
重命名为<dstPath>
,因为 FileSystem.rename 返回 false。
FAILED_ROW_TO_JSON
未能将类 <class>
的行值 <value>
转换为 JSON 格式的目标 SQL 类型 <sqlType>
。
FAILED_TO_PARSE_TOO_COMPLEX
该语句(包括潜在的 SQL 函数和引用的视图)太复杂,无法分析。
若要缓解此错误,可将语句划分为多个不太复杂的区块。
FEATURE_NOT_ENABLED
功能 <featureName>
未启用。 请考虑将配置 <configKey>
设置为 <configValue>
以启用此功能。
FEATURE_NOT_ON_CLASSIC_WAREHOUSE
<feature>
在经典 SQL 仓库上不受支持。 若要使用此功能,请使用专业或无服务器 SQL 仓库。 若要详细了解仓库类型,请参阅 <docLink>
FEATURE_REQUIRES_UC
<feature>
在没有 Unity Catalog 的情况下不受支持。 若要使用此功能,请启用 Unity Catalog。 若要详细了解 Unity Catalog,请参阅 <docLink>
FEATURE_UNAVAILABLE
<feature>
在你的环境中不受支持。 若要使用此功能,请联系 Databricks 支持人员。
FIELD_ALREADY_EXISTS
无法 <op>
列,因为 <fieldNames>
已在 <struct>
中存在。
FIELD_NOT_FOUND
<fields>
中没有此类结构字段 <fieldName>
。
FILE_IN_STAGING_PATH_ALREADY_EXISTS
暂存路径 <path>
中的文件已存在,但未设置 OVERWRITE
FLATMAPGROUPSWITHSTATE_USER_FUNCTION_ERROR
在 flatMapGroupsWithState 中用户提供的函数中出错。 原因:<reason>
FORBIDDEN_OPERATION
不允许对 <objectType>
执行 <statement>
操作:<objectName>
。
FOREACH_BATCH_USER_FUNCTION_ERROR
用户在 foreach 批处理接收器中提供的函数中发生错误。 原因:<reason>
FOREACH_USER_FUNCTION_ERROR
foreach 接收器中用户提供的函数中发生错误。 原因:<reason>
FOREIGN_KEY_MISMATCH
外键父列 <parentColumns>
与主键子列 <childColumns>
不匹配。
FOREIGN_OBJECT_NAME_CANNOT_BE_EMPTY
无法执行此命令,因为外部 <objectType>
名称必须非空。
FOUND_MULTIPLE_DATA_SOURCES
检测到多个名为 <provider>
的数据源。 请检查数据源是否同时注册并位于类路径中。
FROM_JSON_CONFLICTING_SCHEMA_UPDATES
from_json 推理在以下位置遇到冲突的架构更新:<location>
FROM_JSON_CORRUPT_RECORD_COLUMN_IN_SCHEMA
from_json found columnNameOfCorruptRecord (<columnNameOfCorruptRecord>
)
在 JSON 对象中,无法再继续。 请为 columnNameOfCorruptRecord
配置其他值。
FROM_JSON_CORRUPT_SCHEMA
from_json 推理无法读取存储在以下位置的架构:<location>
FROM_JSON_INFERENCE_FAILED
from_json 无法推断架构。 请改为提供一个架构。
FROM_JSON_INFERENCE_NOT_SUPPORTED
仅当定义流式处理表时,才支持 from_json 推理
FROM_JSON_INVALID_CONFIGURATION
from_json 配置无效:
有关更多详细信息,请参阅 FROM_JSON_INVALID_CONFIGURATION
FROM_JSON_SCHEMA_EVOLUTION_FAILED
from_json 无法从 <old>
发展为 <new>
FUNCTION_PARAMETERS_MUST_BE_NAMED
函数 <function>
需要命名参数。 参数缺少名称 <exprs>
。 请更新函数调用以添加所有参数的名称,例如 <function>
(param_name => …)。
GENERATED_COLUMN_WITH_DEFAULT_VALUE
列不能同时具有默认值和生成表达式,但列 <colName>
具有默认值 (<defaultValue>
) 和生成表达式 (<genExpr>
)。
GET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION
Hive 2.2 和更低版本不支持 getTablesByType。 请使用 Hive 2.3 或更高版本。
GET_WARMUP_TRACING_FAILED
未能获取预热跟踪。 原因:<cause>
。
GET_WARMUP_TRACING_FUNCTION_NOT_ALLOWED
不允许使用函数 get_warmup_tracing()。
GRAPHITE_SINK_INVALID_PROTOCOL
无效的 Graphite 协议:<protocol>
。
GRAPHITE_SINK_PROPERTY_MISSING
Graphite 接收器需要“<property>
”属性。
GROUPING_COLUMN_MISMATCH
在分组列 <groupingColumns>
中找不到分组列(<grouping>
)。
GROUPING_ID_COLUMN_MISMATCH
grouping_id (<groupingIdColumn>
) 的列与分组列 (<groupByColumns>
) 不匹配。
GROUPING_SIZE_LIMIT_EXCEEDED
分组集大小不能大于 <maxSize>
。
GROUP_BY_AGGREGATE
GROUP BY 中不允许使用聚合函数,但找到了 <sqlExpr>
。
有关更多详细信息,请参阅 GROUP_BY_AGGREGATE
GROUP_BY_POS_AGGREGATE
GROUP BY <index>
引用了包含聚合函数的表达式 <aggExpr>
。 GROUP BY 中不允许使用聚合函数。
GROUP_BY_POS_OUT_OF_RANGE
GROUP BY 位置 <index>
不在选择列表中(有效范围为 [1, <size>
])。
GROUP_EXPRESSION_TYPE_IS_NOT_ORDERABLE
表达式 <sqlExpr>
无法用作分组表达式,因为其数据类型 <dataType>
不是可排序的数据类型。
HDFS_HTTP_ERROR
尝试从 HDFS 读取时,HTTP 请求失败。
有关详细信息,请参阅 HDFS_HTTP_ERROR
HLL_INVALID_INPUT_SKETCH_BUFFER
对 <function>
的调用无效;仅支持有效的 HLL 草图缓冲区作为输入(例如 hll_sketch_agg
函数生成的缓冲区)。
HLL_INVALID_LG_K
对 <function>
的调用无效;lgConfigK
值必须介于 <min>
和 <max>
之间,包括:<value>
。
HLL_UNION_DIFFERENT_LG_K
草图具有不同的 lgConfigK
值:<left>
和 <right>
。 将 allowDifferentLgConfigK
参数设置为 true 以使用不同的 lgConfigK
值调用 <function>
。
IDENTIFIER_TOO_MANY_NAME_PARTS
<identifier>
不是有效的标识符,因为它的名称部分超过 2 个。
ILLEGAL_STATE_STORE_VALUE
提供给状态存储的非法值
有关更多详细信息,请参阅 ILLEGAL_STATE_STORE_VALUE
INCOMPARABLE_PIVOT_COLUMN
无效透视列 <columnName>
。 透视列必须可比较。
INCOMPATIBLE_COLUMN_TYPE
只能对具有兼容列类型的表执行 <operator>
。 <tableOrdinalNumber>
表的 <columnOrdinalNumber>
列是 <dataType1>
类型,与第一个表同一列的 <dataType2>
不兼容。<hint>
。
INCOMPATIBLE_DATASOURCE_REGISTER
检测到不兼容的 DataSourceRegister。 请从类路径中删除不兼容的库或升级它。 错误:<message>
INCOMPATIBLE_DATA_FOR_TABLE
无法为表 <tableName>
写入不兼容的数据:
有关更多详细信息,请参阅 INCOMPATIBLE_DATA_FOR_TABLE
INCOMPATIBLE_JOIN_TYPES
联接类型 <joinType1>
和 <joinType2>
不兼容。
INCOMPATIBLE_VIEW_SCHEMA_CHANGE
视图 <viewName>
的 SQL 查询包含不兼容的架构更改,无法解析列 <colName>
。 需要名为 <colName>
的 <expectedNum>
列,但收到的列为 <actualCols>
。
请尝试通过运行 <suggestion>
重新创建视图。
INCOMPLETE_TYPE_DEFINITION
不完整的复杂类型:
有关更多详细信息,请参阅 INCOMPLETE_TYPE_DEFINITION
INCONSISTENT_BEHAVIOR_CROSS_VERSION
由于升级到,可能会得到其他结果
有关详细信息,请参阅 INCONSISTENT_BEHAVIOR_CROSS_VERSION
INCORRECT_NUMBER_OF_ARGUMENTS
<failure>
,<functionName>
至少需要 <minArgs>
个参数,最多需要 <maxArgs>
个参数。
INCORRECT_RAMP_UP_RATE
<rowsPerSecond>
rowsPerSecond 的最大偏移量为 <maxSeconds>
,但“rampUpTimeSeconds”为 <rampUpTimeSeconds>
。
INDETERMINATE_COLLATION
调用的函数需要知道它应该应用的排序规则,但找到了不确定的排序规则。 使用 COLLATE 函数显式设置排序规则。
INDEX_ALREADY_EXISTS
无法在表 <tableName>
上创建索引 <indexName>
,因为它已存在。
INDEX_NOT_FOUND
在表 <tableName>
上找不到索引 <indexName>
。
INFINITE_STREAMING_TRIGGER_NOT_SUPPORTED
此群集类型不支持触发器类型 <trigger>
。
使用不同的触发器类型,例如 AvailableNow、Once。
INSERT_COLUMN_ARITY_MISMATCH
无法写入 <tableName>
,原因是
有关更多详细信息,请参阅 INSERT_COLUMN_ARITY_MISMATCH
INSERT_PARTITION_COLUMN_ARITY_MISMATCH
无法写入到“<tableName>
”,<reason>
:
表列:<tableColumns>
。
使用静态值对列进行分区:<staticPartCols>
。
数据列:<dataColumns>
。
INSUFFICIENT_PERMISSIONS
权限不足:
<report>
INSUFFICIENT_PERMISSIONS_EXT_LOC
用户 <user>
对外部位置 <location>
的特权不足。
INSUFFICIENT_PERMISSIONS_NO_OWNER
<securableName>
没有所有者。 要求管理员设置所有者。
INSUFFICIENT_PERMISSIONS_OWNERSHIP_SECURABLE
用户不拥有 <securableName>
。
INSUFFICIENT_PERMISSIONS_SECURABLE
用户对 <securableName>
没有 <action>
权限。
INSUFFICIENT_PERMISSIONS_SECURABLE_PARENT_OWNER
<securableName>
的所有者不同于 <parentSecurableName>
的所有者。
INSUFFICIENT_PERMISSIONS_STORAGE_CRED
存储凭据 <credentialName>
的特权不足。
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES
由于对基础安全对象的权限,用户无法对 <securableName>
执行 <action>
。
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES_VERBOSE
由于对基础安全对象的权限,用户无法对 <securableName>
执行 <action>
:
<underlyingReport>
INTERVAL_ARITHMETIC_OVERFLOW
<message>
.<alternative>
INTERVAL_DIVIDED_BY_ZERO
被零除。 使用 try_divide
容许除数为 0,并返回 NULL。
INVALID_AGGREGATE_FILTER
聚合函数中的 FILTER 表达式 <filterExpr>
无效。
有关更多详细信息,请参阅 INVALID_AGGREGATE_FILTER
INVALID_ARRAY_INDEX
索引 <indexValue>
超出界限。 数组具有 <arraySize>
个元素。 使用 SQL 函数 get()
容许访问无效索引上的元素,并改为返回 NULL。 如有必要,请将 <ansiConfig>
设置为“false”以绕过此错误。
有关更多详细信息,请参阅 INVALID_ARRAY_INDEX
INVALID_ARRAY_INDEX_IN_ELEMENT_AT
索引 <indexValue>
超出界限。 数组具有 <arraySize>
个元素。 使用 try_element_at
容许访问无效索引上的元素,并返回 NULL。 如有必要,请将 <ansiConfig>
设置为“false”以绕过此错误。
有关更多详细信息,请参阅 INVALID_ARRAY_INDEX_IN_ELEMENT_AT
INVALID_BITMAP_POSITION
索引为 0 的位图位置 <bitPosition>
超出边界。 位图具有 <bitmapNumBits>
位(<bitmapNumBytes>
字节)。
INVALID_BOOLEAN_STATEMENT
布尔语句在条件中预期,但 <invalidStatement>
已找到。
INVALID_BOUNDARY
边界 <boundary>
无效:<invalidValue>
。
有关更多详细信息,请参阅 INVALID_BOUNDARY
INVALID_BUCKET_COLUMN_DATA_TYPE
不能对存储桶列使用 <type>
。 存储桶不支持排序规则数据类型。
INVALID_BUCKET_FILE
无效的桶文件:<path>
。
INVALID_BYTE_STRING
预期的格式为 ByteString,但实际为 <unsupported>
(<class>
)。
INVALID_COLUMN_NAME_AS_PATH
数据源 <datasource>
无法保存列 <columnName>
,因为它的名称包含文件路径中不允许的某些字符。 请使用别名将其重命名。
INVALID_COLUMN_OR_FIELD_DATA_TYPE
列或字段 <name>
的类型为 <type>
,但要求为 <expectedType>
。
INVALID_CONF_VALUE
配置“<confName>
”中的值“<confValue>
”无效。
有关更多详细信息,请参阅 INVALID_CONF_VALUE
INVALID_CURRENT_RECIPIENT_USAGE
要在 Unity Catalog 中定义仅共享视图,current_recipient
函数只能在 CREATE VIEW
语句或 ALTER VIEW
语句中使用。
INVALID_CURSOR
游标无效。
有关更多详细信息,请参阅 INVALID_CURSOR
INVALID_DATETIME_PATTERN
无法识别的日期/时间模式:<pattern>
。
有关更多详细信息,请参阅 INVALID_DATETIME_PATTERN
INVALID_DEFAULT_VALUE
无法执行 <statement>
命令,因为目标列或变量 <colName>
具有 DEFAULT 值 <defaultValue>
,
有关更多详细信息,请参阅 INVALID_DEFAULT_VALUE
INVALID_DELIMITER_VALUE
分隔符的值无效。
有关更多详细信息,请参阅 INVALID_DELIMITER_VALUE
INVALID_DEST_CATALOG
SYNC 命令的目标目录必须位于 Unity Catalog 中。 已找到 <catalog>
。
INVALID_DRIVER_MEMORY
系统内存 <systemMemory>
必须至少为 <minSystemMemory>
。
请在 Spark 配置中使用–driver-memory 选项或“<config>
”增加堆大小。
INVALID_DYNAMIC_OPTIONS
对于外表<table_name>>,禁止option_list<传递的选项。
INVALID_EMPTY_LOCATION
位置名称不能为空字符串,但已给出 <location>
。
INVALID_ESC
发现无效的转义字符串:<invalidEscape>
。 转义字符串只能包含一个字符。
INVALID_ESCAPE_CHAR
EscapeChar
应该是长度为 1 的字符串字面量,但收到了 <sqlExpr>
。
INVALID_EXECUTOR_MEMORY
执行程序内存 <executorMemory>
必须至少为 <minSystemMemory>
。
请在 Spark 配置中使用 –executor-memory 选项或“<config>
”增加执行程序内存。
INVALID_EXPRESSION_ENCODER
找到无效的表达式编码器。 需要 ExpressionEncoder 的实例,但获得 <encoderType>
。 有关详细信息,请参阅“<docroot>
/api/java/index.html?org/apache/spark/sql/Encoder.html”。
INVALID_EXTRACT_BASE_FIELD_TYPE
无法从 <base>
中提取值。 需要复杂类型 [STRUCT
、ARRAY
、MAP
],但收到了 <other>
。
INVALID_EXTRACT_FIELD
无法从 <expr>
中提取 <field>
。
INVALID_EXTRACT_FIELD_TYPE
字段名称应是非 null 字符串字面量,但它是 <extraction>
。
INVALID_FIELD_NAME
字段名称 <fieldName>
无效:<path>
不是结构。
INVALID_FORMAT
格式无效:<format>
。
有关更多详细信息,请参阅 INVALID_FORMAT
INVALID_FRACTION_OF_SECOND
秒的分数必须为零。 有效的范围为 [0, 60]。 如有必要,请将 <ansiConfig>
设置为“false”以绕过此错误。
INVALID_HANDLE
句柄 <handle>
无效。
有关更多详细信息,请参阅 INVALID_HANDLE
INVALID_IDENTIFIER
未加引号的标识符 <ident>
无效,必须反引号为:<ident>
。
未加引号的标识符只能包含 ASCII 字母(‘a’ - ‘z’、‘A’ - ‘Z’)、数字 (‘0’ - ‘9’) 和下划线 (‘_’)。
未加引号的标识符也不得以数字开头。
不同的数据源和元存储可能会对有效标识符施加额外的限制。
INVALID_INDEX_OF_ZERO
索引 0 无效。 索引应 < 0 或 > 0(第一个元素的索引为 1)。
INVALID_INLINE_TABLE
无效的内联表。
有关更多详细信息,请参阅 INVALID_INLINE_TABLE
INVALID_INTERVAL_FORMAT
将“<input>
”分析为时间间隔时出错。 请确保提供的值采用用于定义间隔的有效格式。 可以参考文档获取正确的格式。
有关更多详细信息,请参阅 INVALID_INTERVAL_FORMAT
INVALID_INVERSE_DISTRIBUTION_FUNCTION
反向分布函数 <funcName>
无效。
有关详细信息,请参阅 INVALID_INVERSE_DISTRIBUTION_FUNCTION
INVALID_JOIN_TYPE_FOR_JOINWITH
joinWith 中的联接类型无效: <joinType>
。
INVALID_JSON_DATA_TYPE
未能将 JSON 字符串“<invalidType>
”转换为数据类型。 请输入有效的数据类型。
INVALID_JSON_DATA_TYPE_FOR_COLLATIONS
排序规则只能应用于字符串类型,但 JSON 数据类型为 <jsonType>
。
INVALID_JSON_ROOT_FIELD
无法将 JSON 根字段转换为目标 Spark 类型。
INVALID_JSON_SCHEMA_MAP_TYPE
输入架构 <jsonSchema>
只能包含 STRING
作为 MAP
的键类型。
INVALID_KRYO_SERIALIZER_BUFFER_SIZE
配置“<bufferSizeConfKey>
”的值必须小于 2048 MiB,但得到 <bufferSizeConfValue>
MiB。
INVALID_LABEL_USAGE
标签 <labelName>
的使用无效。
有关详细信息,请参阅 INVALID_LABEL_USAGE
INVALID_LAMBDA_FUNCTION_CALL
无效的 lambda 函数调用。
有关更多详细信息,请参阅 INVALID_LAMBDA_FUNCTION_CALL
INVALID_LATERAL_JOIN_TYPE
不允许使用具有 LATERAL 关联的 <joinType>
JOIN,因为 OUTER 子查询无法与其连接伙伴相关联。 删除 LATERAL 关联,或者改用 INNER JOIN 或 LEFT OUTER JOIN。
INVALID_LIMIT_LIKE_EXPRESSION
表达式 <expr>
等限制无效。
有关更多详细信息,请参阅 INVALID_LIMIT_LIKE_EXPRESSION
INVALID_LOCATION
位置名称不能是无效的 URI,但 <location>
已给定。
INVALID_NON_ABSOLUTE_PATH
提供的非绝对路径 <path>
不能限定。 请将路径更新为有效的 dbfs 装载位置。
INVALID_NON_DETERMINISTIC_EXPRESSIONS
运算符需要确定性表达式,但实际表达式为 <sqlExprs>
。
INVALID_NUMERIC_LITERAL_RANGE
数值 <rawStrippedQualifier>
超出了 <typeName>
的有效范围,最小值为 <minValue>
,最大值为 <maxValue>
。 请相应地调整值。
INVALID_OBSERVED_METRICS
观察到的指标无效。
有关更多详细信息,请参阅 INVALID_OBSERVED_METRICS
INVALID_OPTIONS
无效选项:
有关更多详细信息,请参阅 INVALID_OPTIONS
INVALID_PANDAS_UDF_PLACEMENT
组聚合 pandas UDF <functionList>
不能与其他非 pandas 聚合函数一起调用。
INVALID_PARAMETER_MARKER_VALUE
提供的参数映射无效:
有关更多详细信息,请参阅 INVALID_PARAMETER_MARKER_VALUE
INVALID_PARAMETER_VALUE
<functionName>
中参数 <parameter>
的值无效:
有关更多详细信息,请参阅 INVALID_PARAMETER_VALUE
INVALID_PARTITION_COLUMN_DATA_TYPE
不能对分区列使用 <type>
。
INVALID_PARTITION_OPERATION
分区命令无效。
有关更多详细信息,请参阅 INVALID_PARTITION_OPERATION
INVALID_PIPELINE_ID
管道 ID <pipelineId>
无效。
管道 ID 应为采用“xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx”格式的 UUID
INVALID_PRIVILEGE
特权 <privilege>
对于 <securable>
无效。
INVALID_PROPERTY_KEY
<key>
是一个无效的属性键,请使用引号,例如 SET <key>
=<value>
。
INVALID_PROPERTY_VALUE
<value>
是一个无效的属性值,请使用引号,例如 SET <key>
=<value>
INVALID_QUERY_MIXED_QUERY_PARAMETERS
参数化查询必须使用位置参数或命名参数,但不能同时使用这两种参数。
INVALID_S3_COPY_CREDENTIALS
COPY INTO 凭据必须包括 AWS_ACCESS_KEY、AWS_SECRET_KEY 和 AWS_SESSION_TOKEN。
INVALID_SAVE_MODE
指定的保存模式 <mode>
无效。 有效的保存模式包括“append”、“overwrite”、“ignore”、“error”、“errorifexists”和“default”。
INVALID_SCHEMA
输入架构 <inputSchema>
不是有效的架构字符串。
有关更多详细信息,请参阅 INVALID_SCHEMA
INVALID_SCHEMA_OR_RELATION_NAME
<name>
不是表/架构的有效名称。 有效名称仅包含字母字符、数字和 _。
INVALID_SCHEME
Unity Catalog 不支持 <name>
作为默认文件方案。
INVALID_SECRET_LOOKUP
机密查找无效:
有关更多详细信息,请参阅 INVALID_SECRET_LOOKUP
INVALID_SET_SYNTAX
预期格式为“SET”、“SET key”或“SET key=value”。 如果你要在键中包含特殊字符,或者在值中包含分号,请使用反引号,例如 SET key
=value
。
INVALID_SHARED_ALIAS_NAME
<sharedObjectType>
别名必须采用“schema.name”格式。
INVALID_SINGLE_VARIANT_COLUMN
如果还有用户指定的架构,则无法使用 singleVariantColumn
选项。
INVALID_SOURCE_CATALOG
源目录不得位于 SYNC 命令的 Unity Catalog 中。 已找到 <catalog>
。
INVALID_SQL_ARG
sql()
的参数 <name>
无效。 请考虑将其替换为 SQL 文本或集合构造函数 (如 map()
、array()
、struct()
)。
INVALID_SQL_SYNTAX
无效的 SQL 语法:
有关更多详细信息,请参阅 INVALID_SQL_SYNTAX
INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY
暂存 <operation>
查询中的暂存路径无效:<path>
INVALID_STATEMENT_FOR_EXECUTE_INTO
EXECUTE IMMEDIATE 的 INTO 子句仅适用于查询,但给定语句不是查询:<sqlString>
。
INVALID_STATEMENT_OR_CLAUSE
语句或子句:<operation>
无效。
INVALID_SUBQUERY_EXPRESSION
子查询无效:
有关更多详细信息,请参阅 INVALID_SUBQUERY_EXPRESSION
INVALID_TEMP_OBJ_REFERENCE
无法创建类型为 <obj>
的持久对象 <objName>
,因为该对象引用了类型为 <tempObj>
的临时对象 <tempObjName>
。 请将临时对象 <tempObjName>
设为持久对象,或将持久对象 <objName>
设为临时对象。
INVALID_TIMESTAMP_FORMAT
提供的时间戳 <timestamp>
与预期的语法 <format>
不匹配。
INVALID_TIME_TRAVEL_SPEC
在按时间顺序查看表时,无法同时指定版本和时间戳。
INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
时间回溯时间戳表达式 <expr>
无效。
有关更多详细信息,请参阅 INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
INVALID_TYPED_LITERAL
类型化文本 <valueType>
的值无效:<value>
。
INVALID_UDF_IMPLEMENTATION
函数 <funcName>
未实现 ScalarFunction 和 AggregateFunction。
INVALID_UPGRADE_SYNTAX
<command>
<supportedOrNot>
源表在 Hive 元存储中,而目标表在 Unity Catalog 中。
INVALID_URL
URL 无效:<url>
。 如有必要,请将 <ansiConfig>
设置为“false”以绕过此错误。
INVALID_USAGE_OF_STAR_OR_REGEX
在 <prettyName>
中使用的 <elem>
无效。
INVALID_UTF8_STRING
在字符串中找到的 UTF8 字节序列无效:<str>
。
INVALID_UUID
输入 <uuidInput>
不是有效的 UUID。
UUID 应采用“xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx”格式
请检查 UUID 的格式。
INVALID_VARIABLE_DECLARATION
变量声明无效。
有关详细信息,请参阅 INVALID_VARIABLE_DECLARATION
INVALID_VARIABLE_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE
变量类型必须是字符串类型,但实际类型是 <varType>
。
INVALID_VARIANT_CAST
变量值 <value>
不能强制转换为 <dataType>
。 请改用 try_variant_get
。
INVALID_VARIANT_FROM_PARQUET
变体无效。
有关更多详细信息,请参阅 INVALID_VARIANT_FROM_PARQUET
INVALID_VARIANT_GET_PATH
路径 <path>
不是 <functionName>
中有效的变体提取路径。
有效路径应以 $
开头,后跟零个或多个段,例如 [123]
、.name
、['name']
或 ["name"]
。
INVALID_WHERE_CONDITION
WHERE 条件 <condition>
包含无效表达式:<expressionList>
。
重写查询以避免 WHERE 子句中的窗口函数、聚合函数和生成器函数。
INVALID_WINDOW_SPEC_FOR_AGGREGATION_FUNC
无法为 <aggFunc>
指定 ORDER BY 或窗口框架。
INVALID_WRITER_COMMIT_MESSAGE
数据源写入器生成了无效数量的提交消息。 每个任务中应仅有一条写入器提交消息,但收到了 <detail>
。
INVALID_WRITE_DISTRIBUTION
请求的写入分发无效。
有关详细信息,请参阅 INVALID_WRITE_DISTRIBUTION
JOIN_CONDITION_IS_NOT_BOOLEAN_TYPE
联接条件 <joinCondition>
具有无效类型 <conditionType>
,应为“BOOLEAN
”。
KAFKA_DATA_LOSS
有些数据可能已经丢失,因为它们在 Kafka 中不再可用;
数据已被 Kafka 设为过期,或者主题可能在其中的所有数据处理完毕之前
已被删除。
如果不希望流式查询在这种情况下失败,请将源选项 failOnDataLoss 设置为 false。
原因:
有关更多详情,请参阅 KAFKA_DATA_LOSS
KINESIS_COULD_NOT_READ_SHARD_UNTIL_END_OFFSET
在以下 Kinesis 流的分片 <shardId>
达到所需的序列号 <endSeqNum>
之前无法读取:
使用使用者模式 <consumerMode>
的 kinesis 流 <stream>
。 由于潜在的数据丢失,此
查询将失败。 最后读取记录的序列号为 <lastSeqNum>
。
如果存在以下条件,则可能会发生这种情况:具有 endSeqNum 的数据已过期,或者 Kinesis 流已
删除并以相同名称进行了重建。 可以
在 spark 配置中将 spark.databricks.kinesis.failOnDataLoss 设置为 false 替代此失败行为。
KINESIS_FETCHED_SHARD_LESS_THAN_TRACKED_SHARD
从 Kinesis 提取的最小 shardId (<fetchedShardId>
)
小于跟踪的最小 shardId (<trackedShardId>
)。
此为意外错误,当删除 Kinesis 流并使用相同的名称重新创建,
并使用现有检查点位置重启使用此 Kinesis 流的流式处理查询时,会发生这种情况。
使用新的检查点位置重启流式处理查询,或使用新名称创建流。
KINESIS_RECORD_SEQ_NUMBER_ORDER_VIOLATION
对于分片 <shard>
,上一次提取中从 Kinesis 读取的最后一条记录具有序列号 <lastSeqNum>
,
它大于当前提取中读取的记录的序列号 <recordSeqNum>
。
这是意外行为,当重试或下一次提取的开始位置未正确初始化时,可能会发生这种情况,并可能导致下游记录重复。
KRYO_BUFFER_OVERFLOW
Kryo 序列化失败:<exceptionMsg>
。 若要避免这种情况,请增大“<bufferSizeConfKey>
”值。
LABELS_MISMATCH
开始标签 <beginLabel>
与结束标签 <endLabel>
不匹配。
LOAD_DATA_PATH_NOT_EXISTS
LOAD DATA 输入路径不存在:<path>
。
LOCAL_MUST_WITH_SCHEMA_FILE
LOCAL 必须与 file
的架构配合使用,但收到了:<actualSchema>
。
LOCATION_ALREADY_EXISTS
无法将托管表命名为 <identifier>
,因为它的关联位置 <location>
已存在。 请选择其他表名,或者先删除现有位置。
LOST_TOPIC_PARTITIONS_IN_END_OFFSET_WITH_TRIGGER_AVAILABLENOW
在使用 Trigger.AvailableNow 运行查询期间,Kafka 主题中某些分区丢失。 此错误可能是暂时性的 - 请重启查询,如果仍然看到相同问题,请予以报告。
最新偏移量 <tpsForLatestOffset>
的主题分区,结束偏移量 <tpsForEndOffset>
的主题分区
MALFORMED_AVRO_MESSAGE
在消息反序列化中检测到格式错误的 Avro 消息。 分析模式:<mode>
。 若要将格式错误的 Avro 消息作为 null 结果处理,请尝试将选项“mode”设置为“PERMISSIVE”。
MALFORMED_CHARACTER_CODING
使用 执行 <function>
时找到的值无效 <charset>
MALFORMED_CSV_RECORD
CSV 记录的格式错误:<badRecord>
MALFORMED_RECORD_IN_PARSING
在记录分析中检测到格式错误的记录:<badRecord>
。
分析模式:<failFastMode>
。 要将格式错误的记录作为 null 结果处理,请尝试将选项“mode”设置为“PERMISSIVE”。
有关更多详细信息,请参阅 MALFORMED_RECORD_IN_PARSING
MALFORMED_VARIANT
变体二进制格式不正确。 请检查数据源是否有效。
MANAGED_TABLE_WITH_CRED
不支持使用存储凭据创建托管表。
MATERIALIZED_VIEW_MESA_REFRESH_WITHOUT_PIPELINE_ID
无法对具体化视图运行 <refreshType>
,因为它之前包含 pipelineId。 若要启用 <refreshType>
,请删除再重新创建具体化视图。
MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
不允许具体化视图操作 <operation>
:
有关更多详细信息,请参阅 MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
MATERIALIZED_VIEW_OUTPUT_WITHOUT_EXPLICIT_ALIAS
必须显式为具体化视图中的输出表达式 <expression>
指定别名。
MATERIALIZED_VIEW_OVER_STREAMING_QUERY_INVALID
无法使用流式处理查询来创建具体化视图 <name>
。 请使用 CREATE [OR REFRESH] STREAMING TABLE 或删除 FROM 子句中的 STREAM 关键字,以将此关系转换为批处理查询。
MATERIALIZED_VIEW_UNSUPPORTED_OPERATION
不支持对此版本的具体化视图执行 <operation>
操作。
MAX_NUMBER_VARIABLES_IN_SESSION_EXCEEDED
无法创建新变量 <variableName>
,因为会话中的变量数超过允许的最大数目 (<maxNumVariables>
)。
MAX_RECORDS_PER_FETCH_INVALID_FOR_KINESIS_SOURCE
maxRecordsPerFetch 必须是小于或等于 <kinesisRecordLimit>
的正整数
MERGE_CARDINALITY_VIOLATION
MERGE 语句的 ON 搜索条件将目标表中的单行与源表的多行匹配。
这可能会导致对目标行执行多次更新或删除操作,这是不允许的。
METRIC_CONSTRAINT_NOT_SUPPORTED
METRIC CONSTRAINT 未启用。
METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
METRIC_STORE 表函数的参数“<argName>
”不支持提供的值“<argValue>
”。
有关更多详细信息,请参阅 METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
METRIC_STORE_UNSUPPORTED_ERROR
Metric Store 函数 <functionName>
目前在此环境中已禁用。
MISMATCHED_TOPIC_PARTITIONS_BETWEEN_END_OFFSET_AND_PREFETCHED
Trigger.AvailableNow 中的 Kafka 数据源应在预提取的偏移量中提供相同的主题分区给每个微批的结束偏移量。 此错误可能是暂时性的 - 请重启查询,如果仍然看到相同问题,请予以报告。
预提取偏移量 <tpsForPrefetched>
的主题分区,结束偏移量 <tpsForEndOffset>
的主题分区。
MISSING_AGGREGATION
非聚合表达式 <expression>
基于不参与 GROUP BY 子句的列。
将列或表达式添加到 GROUP BY、聚合表达式,或者在不关心返回组中哪些值时使用 <expressionAnyValue>
。
有关更多详细信息,请参阅 MISSING_AGGREGATION
MISSING_CONNECTION_OPTION
“<connectionType>
”类型的连接必须包含以下选项:<requiredOptions>
。
MISSING_GROUP_BY
查询不包含 GROUP BY 子句。 添加 GROUP BY 或使用 OVER 子句将其转换为窗口函数。
MISSING_NAME_FOR_CHECK_CONSTRAINT
CHECK 约束必须具有名称。
MISSING_PARAMETER_FOR_KAFKA
参数 <parameterName>
对于 Kafka 是必需的,但未在 <functionName>
中指定。
MISSING_PARAMETER_FOR_ROUTINE
需要参数 <parameterName>
,但未在 <functionName>
中指定。
MISSING_WINDOW_SPECIFICATION
Window 规范未在 WINDOW 子句 <windowName>
中定义 。 有关 WINDOW 子句的详细信息,请参阅“<docroot>
/sql-ref-syntax-qry-select-window.html”。
MODIFY_BUILTIN_CATALOG
不支持修改内置目录 <catalogName>
。
MULTIPLE_LOAD_PATH
Databricks Delta 在 load() API 中不支持多个输入路径。
路径:<pathList>
。 若要通过从同一 Delta 表加载多个路径来
生成单个数据帧,请加载
具有相应分区筛选器的 Delta 表。 如果多个路径
来自不同的 Delta 表,请使用数据集的 union()/unionByName() API
来合并由单独的 load() API 调用生成的数据帧。
MULTIPLE_MATCHING_CONSTRAINTS
找到至少两个与给定条件匹配的约束。
MULTIPLE_TIME_TRAVEL_SPEC
无法在按时间顺序查看子句和选项中指定按时间顺序查看。
MULTIPLE_XML_DATA_SOURCE
检测到多个名为 <provider>
(<sourceNames>
) 的数据源。 请指定完全限定的类名,或者从类路径中删除 <externalSource>
。
MULTI_SOURCES_UNSUPPORTED_FOR_EXPRESSION
表达式 <expr>
不支持多个源。
MULTI_UDF_INTERFACE_ERROR
不允许实现多个 UDF 接口,UDF 类 <className>
。
MUTUALLY_EXCLUSIVE_CLAUSES
子句 <clauses>
或选项互斥。 请删除其中的一个子句。
MV_ST_ALTER_QUERY_INCORRECT_BACKING_TYPE
输入查询需要 <expectedType>
,但基础表是 <givenType>
。
NAMED_PARAMETERS_NOT_SUPPORTED
函数 <functionName>
不支持命名参数;请改为使用函数调用的位置参数重试查询。
NAMED_PARAMETERS_NOT_SUPPORTED_FOR_SQL_UDFS
无法调用函数, <functionName>
因为不支持命名参数引用。 在此情况下,命名参数引用为 <argument>
。
NAMED_PARAMETER_SUPPORT_DISABLED
无法调用函数 <functionName>
,因为此处未启用命名参数引用。
在本例中,命名参数引用为 <argument>
。
将“spark.sql.allowNamedFunctionArguments”设置为“true”以启用功能。
NAMESPACE_ALREADY_EXISTS
无法创建命名空间 <nameSpaceName>
,因为它已存在。
选择其他名称、删除现有命名空间,或添加 IF NOT EXISTS 子句以容许现有的命名空间。
NAMESPACE_NOT_EMPTY
无法删除命名空间 <nameSpaceNameName>
,因为它包含对象。
使用 DROP NAMESPACE ... CASCADE 删除命名空间及其所有对象。
NAMESPACE_NOT_FOUND
找不到命名空间 <nameSpaceName>
。 请验证该命名空间的拼写和正确性。
如果你未限定名称,请验证 current_schema() 输出,或正确限定名称。
若要容许删除时出错,请使用 DROP NAMESPACE IF EXISTS。
NATIVE_IO_ERROR
本机请求失败。 requestId: <requestId>
, cloud: <cloud>
, operation: <operation>
request: [https: <https>
, method = <method>
, path =<path>
, params <params>
= , host <host>
= , headers = , bodyLen = <bodyLen>
<headers>
],
错误: <error>
NATIVE_XML_DATA_SOURCE_NOT_ENABLED
此群集中未启用本机 XML 数据源。
NESTED_AGGREGATE_FUNCTION
不允许在另一个聚合函数的参数中使用聚合函数。 请在子查询中使用内部聚合函数。
NESTED_EXECUTE_IMMEDIATE
不允许使用嵌套 EXECUTE IMMEDIATE 命令。 请确保提供的 SQL 查询 (<sqlString>
) 不包含另一个 EXECUTE IMMEDIATE 命令。
NONEXISTENT_FIELD_NAME_IN_LIST
字段 <nonExistFields>
不存在。 可用字段:<fieldNames>
NON_FOLDABLE_ARGUMENT
函数 <funcName>
要求参数 <paramName>
为 <paramType>
类型的可折叠表达式,但实际参数是不可折叠的。
NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
当 MERGE 语句中有多个 MATCHED 子句时,只有最后一个 MATCHED 子句可以省略该条件。
NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
当 MERGE 语句中有多个 NOT MATCHED BY SOURCE 子句时,只有最后一个 NOT MATCHED BY SOURCE 子句可以省略该条件。
NON_LAST_NOT_MATCHED_BY_TARGET_CLAUSE_OMIT_CONDITION
当 MERGE 语句中有多个 NOT MATCHED [BY TARGET] 子句时,只有最后一个 NOT MATCHED [BY TARGET] 子句可以省略该条件。
NON_LITERAL_PIVOT_VALUES
必须为透视值提供文本表达式,但找到的是 <expression>
。
NON_PARTITION_COLUMN
PARTITION 子句不能包含非分区列:<columnName>
。
NON_TIME_WINDOW_NOT_SUPPORTED_IN_STREAMING
流式处理数据帧/数据集的 <windowFunc>
(如列 <columnName>
)不支持窗口函数。
结构化流式处理仅支持使用 WINDOW 函数的时间窗口聚合。 (窗口规范:<windowSpec>
)
NOT_ALLOWED_IN_FROM
FROM 子句中不允许:
有关更多详细信息,请参阅 NOT_ALLOWED_IN_FROM
NOT_A_CONSTANT_STRING
用于例程或 <name>
子句的表达式 <expr>
必须是非 NULL 的常量 STRING
。
有关更多详细信息,请参阅 NOT_A_CONSTANT_STRING
NOT_A_PARTITIONED_TABLE
不允许对 <tableIdentWithDB>
执行操作 <operation>
,因为它不是已分区表。
NOT_A_SCALAR_FUNCTION
<functionName>
此处显示为标量表达式,但函数定义为表函数。 请更新查询以将函数调用移动到 FROM 子句中,或者将 <functionName>
重新定义为标量函数。
NOT_A_TABLE_FUNCTION
<functionName>
此处显示为表函数,但函数定义为标量函数。 请更新查询以将函数调用移动到 FROM 子句外部,或者将 <functionName>
重新定义为表函数。
NOT_NULL_ASSERT_VIOLATION
NULL 值出现在不可为 null 的字段中:<walkedTypePath>
如果架构是从 Scala 元组/大小写类或 Java bean 推断的,请尝试使用 scala.Option[_],或其他可为 null 的类型(如 java.lang.Integer 而不是 int/scala.Int)。
NOT_NULL_CONSTRAINT_VIOLATION
此处不允许分配 NULL。
有关更多详细信息,请参阅 NOT_NULL_CONSTRAINT_VIOLATION
NOT_SUPPORTED_CHANGE_COLUMN
ALTER TABLE ALTER/CHANGE COLUMN 不支持将 <table>
的 <originType>
类型 <originName>
列更改为 <newType>
类型 <newName>
列。
NOT_SUPPORTED_COMMAND_FOR_V2_TABLE
v2 表不支持 <cmd>
。
NOT_SUPPORTED_COMMAND_WITHOUT_HIVE_SUPPORT
不支持 <cmd>
,如果要启用它,请将“spark.sql.catalogImplementation”设置为“hive”。
NOT_SUPPORTED_IN_JDBC_CATALOG
JDBC 目录中不支持的命令:
有关更多详细信息,请参阅 NOT_SUPPORTED_IN_JDBC_CATALOG
NOT_SUPPORTED_WITH_DB_SQL
<operation>
在 SQL <endpoint>
上不受支持。
NOT_SUPPORTED_WITH_SERVERLESS
无服务器计算不支持 <operation>
。
NOT_UNRESOLVED_ENCODER
需要未解析的编码器,但找到了 <attr>
。
NO_DEFAULT_COLUMN_VALUE_AVAILABLE
无法确定 <colName>
的默认值,因为它不可为 null 且没有默认值。
NO_HANDLER_FOR_UDAF
没有适用于 UDAF“<functionName>
”的处理程序。 请改用 sparkSession.udf.register(…)。
NO_MERGE_ACTION_SPECIFIED
df.mergeInto 需要后跟至少一个 whenMatched/whenNotMatched/whenNotMatchedBySource。
NO_PARENT_EXTERNAL_LOCATION_FOR_PATH
SQLSTATE:未分配
找不到路径 <path>
的父外部位置。 请在其中一个父路径上创建外部位置,然后再次重试查询或命令。
NO_SQL_TYPE_IN_PROTOBUF_SCHEMA
在 Protobuf 架构中找不到 <catalystFieldPath>
。
NO_STORAGE_LOCATION_FOR_TABLE
SQLSTATE:未分配
生成表凭据时找不到表 <tableId>
的存储位置。 请验证表类型和表位置 URL,然后再次重试查询或命令。
NO_SUCH_CATALOG_EXCEPTION
SQLSTATE:未分配
找不到目录 <catalog>
。 请验证目录名称,然后再次重试查询或命令。
NO_SUCH_CLEANROOM_EXCEPTION
SQLSTATE:未分配
洁净室“<cleanroom>
”不存在。 请验证洁净室名称拼写正确并且与有效的现有洁净室名称匹配,然后再次重试查询或命令。
NO_SUCH_EXTERNAL_LOCATION_EXCEPTION
SQLSTATE:未分配
外部位置 <externalLocation>
不存在。 请验证外部位置名称是否正确,然后再次重试查询或命令。
NO_SUCH_METASTORE_EXCEPTION
SQLSTATE:未分配
找不到元存储。 请让帐户管理员将元存储分配给当前工作区,然后再次重试查询或命令。
NO_SUCH_PROVIDER_EXCEPTION
SQLSTATE:未分配
共享提供程序 <providerName>
不存在。 请验证共享提供程序名称是否拼写正确,以及是否匹配现有的有效提供程序名称,然后再次重试查询或命令。
NO_SUCH_RECIPIENT_EXCEPTION
SQLSTATE:未分配
收件人 <recipient>
不存在。 请验证收件人名称是否拼写正确,以及是否匹配现有的有效收件人的名称,然后再次重试查询或命令。
NO_SUCH_SHARE_EXCEPTION
SQLSTATE:未分配
共享 <share>
不存在。 请验证共享名是否拼写正确,以及是否匹配现有的有效共享的名称,然后再次重试查询或命令。
NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION
SQLSTATE:未分配
存储凭据 <storageCredential>
不存在。 请验证存储凭据名称是否拼写正确,以及是否匹配现有的有效存储凭据的名称,然后再次重试查询或命令。
NO_SUCH_USER_EXCEPTION
SQLSTATE:未分配
用户 <userName>
不存在。 请验证你授予权限或更改所有权的用户名是否拼写正确,以及是否匹配现有的有效用户的名称,然后再次重试查询或命令。
NO_UDF_INTERFACE
UDF 类 <className>
不实现任何 UDF 接口。
NULLABLE_COLUMN_OR_FIELD
列或字段 <name>
可为 null,但要求不可为 null。
NULLABLE_ROW_ID_ATTRIBUTES
行 ID 属性不可为 null:<nullableRowIdAttrs>
。
NULL_DATA_SOURCE_OPTION
数据源读/写选项 <option>
不能有 null 值。
NULL_MAP_KEY
不能使用 null 作为映射键。
NULL_QUERY_STRING_EXECUTE_IMMEDIATE
立即执行需要一个非 null 变量作为查询字符串,但提供的变量 <varName>
为 null。
NUMERIC_OUT_OF_SUPPORTED_RANGE
值 <value>
无法解释为数字,因为它的位数超过了 38 位。
NUMERIC_VALUE_OUT_OF_RANGE
有关更多详细信息,请参阅 NUMERIC_VALUE_OUT_OF_RANGE
NUM_COLUMNS_MISMATCH
只能对列数相同的输入执行 <operator>
,但第一个输入包含 <firstNumColumns>
列,而 <invalidOrdinalNum>
输入包含 <invalidNumColumns>
列。
NUM_TABLE_VALUE_ALIASES_MISMATCH
给定别名的数目与输出列数不匹配。
函数名称:<funcName>
;别名数:<aliasesNum>
;输出列数:<outColsNum>
。
OAUTH_CUSTOM_IDENTITY_CLAIM_NOT_PROVIDED
未提供自定义标识声明。
ONLY_SECRET_FUNCTION_SUPPORTED_HERE
此 <location>
不支持调用函数 <functionName>
;此处支持 <supportedFunctions>
。
ONLY_SUPPORTED_WITH_UC_SQL_CONNECTOR
只有支持 Unity Catalog 的 Databricks SQL 连接器才支持 SQL 操作 <operation>
。
OPERATION_CANCELED
操作已取消。
OPERATION_REQUIRES_UNITY_CATALOG
操作 <operation>
需要启用 Unity Catalog。
OP_NOT_SUPPORTED_READ_ONLY
<plan>
在只读会话模式下不受支持。
ORDER_BY_POS_OUT_OF_RANGE
ORDER BY 位置 <index>
不在选择列表中(有效范围为 [1, <size>
])。
PARQUET_CONVERSION_FAILURE
无法为 Parquet 类型为<parquetType>
的数据类型<dataType>
创建 Parquet 转换器。
有关详细信息,请参阅 PARQUET_CONVERSION_FAILURE
PARSE_EMPTY_STATEMENT
语法错误,意外空语句。
PARSE_SYNTAX_ERROR
<error>
<hint>
位置或附近有语法错误。
PARTITIONS_ALREADY_EXIST
无法在表 <tableName>
中添加 (ADD) 或重命名 (RENAME TO) 分区 <partitionList>
,因为它们已存在。
选择其他名称、删除现有分区,或添加 IF NOT EXISTS 子句以容许现有的分区。
PARTITIONS_NOT_FOUND
在表 <tableName>
中找不到分区 <partitionList>
。
请验证分区规范和表名。
若要容许删除时出错,请使用 ALTER TABLE ... DROP IF EXISTS PARTITION。
PARTITION_LOCATION_ALREADY_EXISTS
表 <tableName>
中已存在分区位置 <locationPath>
。
PARTITION_LOCATION_IS_NOT_UNDER_TABLE_DIRECTORY
未能执行 ALTER TABLE SET PARTITION LOCATION 语句,因为
分区位置 <location>
不在表目录 <table>
下。
若要修复此问题,请将分区的位置设置为 <table>
的子目录。
PARTITION_METADATA
不允许对表 <tableName>
执行 <action>
,因为 Unity Catalog 中不支持存储分区元数据。
PATH_ALREADY_EXISTS
路径 <outputPath>
已存在。 将模式设置为“覆盖”以覆盖现有路径。
PATH_NOT_FOUND
路径不存在:<path>
。
PIPE_OPERATOR_SELECT_CONTAINS_AGGREGATE_FUNCTION
使用管道运算符时不允许聚合函数 <expr>
|> SELECT 子句;请使用管道运算符 |> 相反,AGGREGATE 子句
PIVOT_VALUE_DATA_TYPE_MISMATCH
透视值“<value>
”无效:值数据类型 <valueType>
与透视列数据类型 <pivotType>
不匹配。
PROCEDURE_ARGUMENT_NUMBER_MISMATCH
过程 <procedureName>
需要 <expected>
参数,但提供了 <actual>
。
PROCEDURE_CREATION_EMPTY_ROUTINE
不允许使用具有空例程定义的 CREATE PROCEDURE。
PROCEDURE_CREATION_PARAMETER_OUT_INOUT_WITH_DEFAULT
参数 <parameterName>
是使用参数模式 <parameterMode>
定义的。 调用例程时,不能省略 OUT 和 INOUT 参数,因此不支持 DEFAULT 表达式。 若要继续操作,请删除 DEFAULT 子句或将参数模式更改为 IN。
PROCEDURE_NOT_SUPPORTED
不支持存储过程
PROCEDURE_NOT_SUPPORTED_WITH_HMS
Hive 元存储不支持存储过程。 请改用 Unity Catalog。
PROTOBUF_DEPENDENCY_NOT_FOUND
找不到依赖项:<dependencyName>
。
PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND
读取路径中的 Protobuf 描述符文件时出错:<filePath>
。
PROTOBUF_FIELD_MISSING
在 Protobuf 架构中的 <protobufSchema>
处搜索与给定的 <matchSize>
匹配的 <field>
。 候选项:<matches>
。
PROTOBUF_FIELD_MISSING_IN_SQL_SCHEMA
在 Protobuf 架构中找到了 <field>
,但 SQL 架构中没有匹配项。
PROTOBUF_FIELD_TYPE_MISMATCH
字段的类型不匹配:<field>
。
PROTOBUF_JAVA_CLASSES_NOT_SUPPORTED
<protobufFunction>
不支持 Java 类。 有关备用选项,请联系 Databricks 支持人员。
PROTOBUF_MESSAGE_NOT_FOUND
无法在描述符中找到消息 <messageName>
。
PROTOBUF_TYPE_NOT_SUPPORT
尚不支持 Protobuf 类型:<protobufType>
。
PS_FETCH_RETRY_EXCEPTION
无法重试 pubsub 提取阶段中的任务。 阶段 <stageInfo>
中的分区 <partitionInfo>
,TID <taskId>
。
PS_INVALID_EMPTY_OPTION
<key>
不能为空字符串。
PS_INVALID_KEY_TYPE
无效的 PubSub dedup 密钥类型:<key>
。
PS_INVALID_OPTION
PubSub 不支持选项 <key>
。 它只能在测试中使用。
PS_INVALID_OPTION_TYPE
无效的 <key>
类型。 <key>
的预期类型为类型 <type>
。
PS_INVALID_READ_LIMIT
PubSub 流上的读取限制无效:<limit>
。
PS_INVALID_UNSAFE_ROW_CONVERSION_FROM_PROTO
解码为 PubSubMessageMetadata 的 UnsafeRow 无效,所需的 proto 架构为:<protoSchema>
。 输入 UnsafeRow 可能已损坏:<unsafeRow>
。
PS_MISSING_AUTH_INFO
找不到完整的 PubSub 身份验证信息。
PS_MISSING_REQUIRED_OPTION
无法找到所需选项:<key>
。
PS_MOVING_CHECKPOINT_FAILURE
无法将原始数据检查点文件从 <src>
移动到目标目录:<dest>
。
PS_MULTIPLE_FAILED_EPOCHS
无法启动 PubSub 流,因为存在多个失败的提取:<failedEpochs>
。
PS_OPTION_NOT_IN_BOUNDS
<key>
必须在以下边界内:(<min>
, <max>
)(不包括这两个边界)。
PS_PROVIDE_CREDENTIALS_WITH_OPTION
共享群集不支持使用实例配置文件进行身份验证。 使用 .option() 直接向流提供凭据。
PS_SPARK_SPECULATION_NOT_SUPPORTED
PubSub 源连接器仅在禁用 spark.speculation
的群集中可用。
PS_UNABLE_TO_CREATE_SUBSCRIPTION
尝试在主题 <topicId>
上创建订阅 <subId>
时出错。 请检查是否有足够的权限来创建订阅,然后重试。
PS_UNABLE_TO_PARSE_PROTO
无法分析串行化字节以生成 proto。
PS_UNSUPPORTED_GET_OFFSET_CALL
如果不提供限制,则不支持 getOffset。
PYTHON_DATA_SOURCE_ERROR
未能<action>
Python 数据源 <type>
:<msg>
PYTHON_STREAMING_DATA_SOURCE_RUNTIME_ERROR
Python 流式处理数据源执行 <action>
时失败:<msg>
QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
无法访问被引用表,因为以前分配的列掩码当前与表架构不兼容;若要继续,请联系表的所有者以更新策略:
有关更多详细信息,请参阅 QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
无法访问被引用表,因为以前分配的行级别安全策略当前与表架构不兼容;若要继续,请联系表的所有者以更新策略:
有关更多详细信息,请参阅 QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
READ_CURRENT_FILE_NOT_FOUND
<message>
可能已更新基础文件。 可通过在 SQL 中运行“REFRESH TABLE tableName”命令或重新创建所涉及的数据集/数据帧来显式地使 Spark 中的缓存失效。
READ_FILES_AMBIGUOUS_ROUTINE_PARAMETERS
为 <functionName>
函数调用设置了 <parameterName>
和 <alternativeName>
,它们是彼此的别名。 请仅设置其中一个。
READ_TVF_UNEXPECTED_REQUIRED_PARAMETER
必须在没有名称的位置 <expectedPos>
分配函数 <functionName>
的必需参数 <parameterName>
。
RECIPIENT_EXPIRATION_NOT_SUPPORTED
收件人过期时间戳仅支持 TIMESTAMP
/TIMESTAMP_LTZ/TIMESTAMP_NTZ 类型。
RECURSIVE_PROTOBUF_SCHEMA
在 Protobuf 架构中找到了递归引用,Spark 默认无法处理这种引用:<fieldDescriptor>
。 请尝试将选项 recursive.fields.max.depth
1 设置为 10。 不允许超过 10 个递归级别。
RECURSIVE_VIEW
检测到递归视图 <viewIdent>
(周期:<newPath>
)。
REF_DEFAULT_VALUE_IS_NOT_ALLOWED_IN_PARTITION
PARTITION 子句中不允许引用 DEFAULT 列值。
RELATION_LARGER_THAN_8G
无法生成大于 8G 的 <relationName>
。
REMOTE_FUNCTION_HTTP_FAILED_ERROR
远程 HTTP 请求失败,错误代码为 <errorCode>
,错误消息为 <errorMessage>
REMOTE_FUNCTION_HTTP_RESULT_PARSE_ERROR
由于无法分析远程 HTTP 响应的 JSON 结果,因此无法计算 <functionName>
SQL 函数;错误消息为“<errorMessage>
”。 查看 API 文档:<docUrl>
。 请修复错误消息中指示的问题,然后再次重试查询。
REMOTE_FUNCTION_HTTP_RESULT_UNEXPECTED_ERROR
由于无法处理意外的远程 HTTP 响应,因此无法计算 <functionName>
SQL 函数;错误消息为“<errorMessage>
”。 查看 API 文档:<docUrl>
。 请修复错误消息中指示的问题,然后再次重试查询。
REMOTE_FUNCTION_HTTP_RETRY_TIMEOUT
远程请求在重试 <N>
次后失败;最后一个失败的 HTTP 错误代码为 <errorCode>
,消息为 <errorMessage>
REMOTE_FUNCTION_MISSING_REQUIREMENTS_ERROR
由于 <errorMessage>
,未能计算 <functionName>
SQL 表达式。 查看 <docUrl>
中的要求。 请修复错误消息中指示的问题,然后再次重试查询。
RENAME_SRC_PATH_NOT_FOUND
由于未找到 <sourcePath>
,重命名失败。
REPEATED_CLAUSE
在每个 <operation>
操作中最多可以使用 <clause>
子句一次。
REQUIRED_PARAMETER_ALREADY_PROVIDED_POSITIONALLY
已在没有名称的位置 <positionalIndex>
分配函数 <functionName>
的必需参数 <parameterName>
。
请更新函数调用以删除此参数带 <parameterName>
的命名参数,或删除
位于 <positionalIndex>
的位置参数,然后重试查询。
REQUIRED_PARAMETER_NOT_FOUND
无法调用函数 <functionName>
,因为需要名为 <parameterName>
的参数,但函数调用未提供值。 请更新函数调用,以(在索引 <index>
按位置或按名称)提供参数值,然后重试查询。
REQUIRES_SINGLE_PART_NAMESPACE
<sessionCatalog>
需要单部分命名空间,但收到了 <namespace>
。
RESCUED_DATA_COLUMN_CONFLICT_WITH_SINGLE_VARIANT
“rescuedDataColumn”数据帧 API 读取器选项与“singleVariantColumn”数据帧 API 选项互斥。
请删除其中一个,然后再次重试 DataFrame 操作。
RESERVED_CDC_COLUMNS_ON_WRITE
写入包含保留列 <columnList>
,这些列
在内部用作更改数据馈送的元数据。 若要写入表,可以重命名/删除
这些列,或者将
<config>
设置为 false 来禁用表上的更改数据馈送。
RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
选项 <option>
在 <source>
源的共享群集上具有受限值。
有关详细信息,请参阅 RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
ROUTINE_ALREADY_EXISTS
无法创建<newRoutineType>
<routineName>
该名称,因为<existingRoutineType>
该名称已存在。
选择其他名称,删除或替换现有 <existingRoutineType>
名称,或添加 IF NOT EXISTS 子句以容忍预先存在的 <newRoutineType>
子句。
ROUTINE_NOT_FOUND
找不到例程 <routineName>
。 请验证架构和目录的拼写和正确性。
如果未使用架构和目录限定名称,请验证 current_schema() 输出,或使用正确的架构和目录限定名称。
若要容许删除时出错,请使用 DROP … IF EXISTS。
ROUTINE_PARAMETER_NOT_FOUND
函数 <functionName>
不支持位置 <pos>
处指定的参数 <parameterName>
。<suggestion>
ROUTINE_USES_SYSTEM_RESERVED_CLASS_NAME
无法创建函数 <routineName>
,因为指定的类名“<className>
”保留为供系统使用。 请重命名该类,然后重试。
ROW_LEVEL_SECURITY_CHECK_CONSTRAINT_UNSUPPORTED
不支持使用行级别安全策略对表 <tableName>
创建 CHECK 约束。
ROW_LEVEL_SECURITY_DUPLICATE_COLUMN_NAME
<statementType>
语句尝试将行级别安全策略分配到某个表,但两个或更多个被引用列具有相同的名称 <columnName>
,这是无效操作。
ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
不支持 <tableName>
的行级别安全策略:
有关更多详细信息,请参阅 ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
ROW_LEVEL_SECURITY_INCOMPATIBLE_SCHEMA_CHANGE
无法从表 <tableName>
执行 <statementType>
<columnName>
,因为它已在行级安全策略中引用。 表所有者必须先删除或更改此策略,然后才能继续操作。
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_SOURCE
MERGE INTO 操作不支持源表 <tableName>
中的行级别安全策略。
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_TARGET
MERGE INTO 操作不支持写入具有行级别安全策略的表 <tableName>
。
ROW_LEVEL_SECURITY_MULTI_PART_COLUMN_NAME
此语句尝试将行级别安全策略分配到某个表,但被引用列 <columnName>
具有多个名称部分,这是无效操作。
ROW_LEVEL_SECURITY_REQUIRE_UNITY_CATALOG
行级别安全策略仅在 Unity Catalog 中受支持。
ROW_LEVEL_SECURITY_TABLE_CLONE_SOURCE_NOT_SUPPORTED
不支持使用行级别安全策略从表 <tableName>
进行 <mode>
克隆。
ROW_LEVEL_SECURITY_TABLE_CLONE_TARGET_NOT_SUPPORTED
不支持使用行级别安全策略将 <mode>
克隆到表 <tableName>
。
ROW_LEVEL_SECURITY_UNSUPPORTED_CONSTANT_AS_PARAMETER
不支持在行级安全策略中使用常数作为参数。 请更新 SQL 命令以从行筛选器定义中删除常数,然后再次重试该命令。
ROW_LEVEL_SECURITY_UNSUPPORTED_PROVIDER
无法执行 <statementType>
命令,因为表提供程序为“<provider>
”的目标数据源不支持分配行级别安全策略。
ROW_SUBQUERY_TOO_MANY_ROWS
用作行的子查询返回了多个行。
ROW_VALUE_IS_NULL
在索引 <index>
处的行中找到 NULL,预期为非 NULL 值。
RULE_ID_NOT_FOUND
找不到规则名称“<ruleName>
”的 id。 如果要添加新规则,请修改 RuleIdCollection.scala。
SAMPLE_TABLE_PERMISSIONS
示例数据库/表不支持权限。
SCALAR_SUBQUERY_IS_IN_GROUP_BY_OR_AGGREGATE_FUNCTION
相关的标量子查询“<sqlExpr>
”既不存在于 GROUP BY 中,也不存在于聚合函数中。
使用序号位置将其添加到 GROUP BY,或者如果不在乎获得的值,可以将其包装在 first()
(或 first_value
)中。
SCALAR_SUBQUERY_TOO_MANY_ROWS
用作表达式的子查询返回了多个行。
SCHEDULE_PERIOD_INVALID
计划期限 <timeUnit>
必须是介于 1 和 <upperBound>
(含)之间的整数值。 接收: <actual>
.
SCHEMA_ALREADY_EXISTS
无法创建架构 <schemaName>
,因为它已存在。
选择其他名称、删除现有架构,或添加 IF NOT EXISTS 子句以容许现有的架构。
SCHEMA_NOT_EMPTY
无法删除架构 <schemaName>
,因为它包含对象。
使用 DROP SCHEMA … CASCADE 删除架构及其所有对象。
SCHEMA_NOT_FOUND
找不到架构 <schemaName>
。 请验证架构和目录的拼写和正确性。
如果你未使用目录限定名称,请验证 current_schema() 输出,或使用正确的目录限定名称。
若要容许删除时出错,请使用 DROP SCHEMA IF EXISTS。
SCHEMA_REGISTRY_CONFIGURATION_ERROR
无法初始化架构注册表中的架构。 <reason>
。
SECOND_FUNCTION_ARGUMENT_NOT_INTEGER
<functionName>
函数的第二个参数需是整数。
SECRET_FUNCTION_INVALID_LOCATION
无法使用对 SECRET 函数的一个或多个非加密引用执行 <commandType>
命令;请使用 AES_ENCRYPT 加密每个此类函数调用的结果,然后重试该命令
SEED_EXPRESSION_IS_UNFOLDABLE
表达式 <exprWithSeed>
的种子表达式 <seedExpr>
必须可折叠。
SERVER_IS_BUSY
服务器正忙,无法处理该请求。 请稍等片刻,然后重试。
SORT_BY_WITHOUT_BUCKETING
sortBy 必须与 bucketBy 一起使用。
SPARK_JOB_CANCELLED
作业 <jobId>
已取消 <reason>
SPECIFY_BUCKETING_IS_NOT_ALLOWED
没有显式列列表的 CREATE TABLE 无法指定存储桶信息。
请使用具有显式列列表的表单,然后指定存储桶信息。
或者,允许通过省略此子句来推断存储桶信息。
SPECIFY_CLUSTER_BY_WITH_BUCKETING_IS_NOT_ALLOWED
不能同时指定 CLUSTER BY 和 CLUSTERED BY INTO BUCKETS。
SPECIFY_CLUSTER_BY_WITH_PARTITIONED_BY_IS_NOT_ALLOWED
不能同时指定 CLUSTER BY 和 PARTITIONED BY。
SPECIFY_PARTITION_IS_NOT_ALLOWED
没有显式列列表的 CREATE TABLE 无法指定 PARTITIONED BY。
请使用具有显式列列表的表单,然后指定 PARTITIONED BY。
或者,允许通过省略此 PARTITION BY 子句来推断分区方式。
SQL_CONF_NOT_FOUND
找不到 SQL 配置 <sqlConf>
。 请验证该配置是否存在。
STAGING_PATH_CURRENTLY_INACCESSIBLE
访问目标暂存路径 <path>
时发生暂时性错误,请在几分钟后重试
STAR_GROUP_BY_POS
使用 GROUP BY 和序号位置时,不允许在选择列表中使用星号 (*)。
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_HANDLE_STATE
未能执行有状态处理器操作“<operationType>
”,句柄状态“<handleState>
”无效。
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_TIME_MODE
未能执行有状态处理器操作“<operationType>
”,timeMode“<timeMode>
”无效
STATEFUL_PROCESSOR_CANNOT_REINITIALIZE_STATE_ON_KEY
在对有状态处理器进行初始状态处理期间,无法在同一分组键上重新初始化状态。 无效的分组键“<groupingKey>
”。 请检查初始状态,删除重复行,然后重启查询。
STATEFUL_PROCESSOR_DUPLICATE_STATE_VARIABLE_DEFINED
具有名称 <stateVarName>
的状态变量已在 StatefulProcessor 中定义。
STATEFUL_PROCESSOR_INCORRECT_TIME_MODE_TO_ASSIGN_TTL
在 timeMode“<timeMode>
”中不能对状态“<stateName>
”使用 TTL,请改用 TimeMode.ProcessingTime()。
STATEFUL_PROCESSOR_TTL_DURATION_MUST_BE_POSITIVE
对于针对状态“<stateName>
”执行的状态存储操作“<operationType>
”,TTL 持续时间必须大于零。
STATEFUL_PROCESSOR_UNKNOWN_TIME_MODE
未知时间模式 <timeMode>
。 接受的 timeMode 模式为“none”、“processingTime”、“eventTime”
STATE_STORE_CANNOT_CREATE_COLUMN_FAMILY_WITH_RESERVED_CHARS
未能创建具有不受支持的起始字符和名称“<colFamilyName>
”的列系列。
STATE_STORE_CANNOT_USE_COLUMN_FAMILY_WITH_INVALID_NAME
未能执行列系列操作“<operationName>
”,名称“<colFamilyName>
”无效。 列系列名称不能为空或包含前导/尾随空格,也不能使用保留关键字“default”
STATE_STORE_COLUMN_FAMILY_SCHEMA_INCOMPATIBLE
与列系列=<colFamilyName>
、oldSchema=、newSchema=<oldSchema>
<newSchema>
的不兼容架构转换。
STATE_STORE_HANDLE_NOT_INITIALIZED
尚未为此 StatefulProcessor 初始化句柄。
请仅在 transformWithState 运算符中使用 StatefulProcessor。
STATE_STORE_INCORRECT_NUM_ORDERING_COLS_FOR_RANGE_SCAN
范围扫描编码器的排序序号数 <numOrderingCols>
不正确。 排序序号数不能为零,也不能大于架构列数。
STATE_STORE_INCORRECT_NUM_PREFIX_COLS_FOR_PREFIX_SCAN
前缀扫描编码器的前缀列数 <numPrefixCols>
不正确。 前缀列数不能为零,也不能大于或等于架构列数。
STATE_STORE_INVALID_CONFIG_AFTER_RESTART
不能在重启之间更改 <configName>
<oldConfig>
<newConfig>
。 请设置为<configName>
<oldConfig>
,或使用新的检查点目录重启。
STATE_STORE_INVALID_PROVIDER
给定的状态存储提供程序 <inputClass>
不会扩展 org.apache.spark.sql.execution.streaming.state.StateStoreProvider。
STATE_STORE_INVALID_VARIABLE_TYPE_CHANGE
在查询重启之间无法更改为<stateVarName>
<newType>
。 请设置为<stateVarName>
<oldType>
,或使用新的检查点目录重启。
STATE_STORE_NULL_TYPE_ORDERING_COLS_NOT_SUPPORTED
范围扫描编码器不支持名称为“<fieldName>
”、索引为“<index>
”的 null 类型排序列。
STATE_STORE_PROVIDER_DOES_NOT_SUPPORT_FINE_GRAINED_STATE_REPLAY
给定的状态存储提供程序 <inputClass>
不会扩展 org.apache.spark.sql.execution.streaming.state.SupportsFineGrainedReplay。
因此,它不支持状态数据源中的 snapshotStartBatchId 或 readChangeFeed 选项。
STATE_STORE_UNSUPPORTED_OPERATION_ON_MISSING_COLUMN_FAMILY
不支持对缺少的列系列“<colFamilyName>
”执行状态存储操作“<operationType>
”。
STATE_STORE_VARIABLE_SIZE_ORDERING_COLS_NOT_SUPPORTED
范围扫描编码器不支持名称为“<fieldName>
”、索引为“<index>
”的变量大小排序列。
STATIC_PARTITION_COLUMN_IN_INSERT_COLUMN_LIST
列列表中还指定了静态分区列 <staticName>
。
STDS_COMMITTED_BATCH_UNAVAILABLE
未找到提交的批处理,检查点位置:<checkpointLocation>
。 在停止之前,请确保查询已运行并提交任何微批次。
STDS_CONFLICT_OPTIONS
这些选项 <options>
不能一起指定。 请指定一个。
STDS_FAILED_TO_READ_OPERATOR_METADATA
未能读取 checkpointLocation=<checkpointLocation>
和 batchId=<batchId>
的运算符元数据。
文件不存在,或者文件已损坏。
重新运行流式处理查询以构造操作员元数据,并在错误仍然存在时向相应的社区或供应商报告。
STDS_FAILED_TO_READ_STATE_SCHEMA
未能读取状态架构。 文件不存在,或者文件已损坏。 选项:<sourceOptions>
。
请重新运行流式处理查询以构造状态架构,如果错误仍然存在,则向相应的社区或供应商报告。
STDS_INVALID_OPTION_VALUE
源选项“<optionName>
”的值无效:
有关更多详细信息,请参阅 STDS_INVALID_OPTION_VALUE
STDS_NO_PARTITION_DISCOVERED_IN_STATE_STORE
状态没有任何分区。 请仔细检查查询是否指向有效状态。 选项:<sourceOptions>
STDS_OFFSET_LOG_UNAVAILABLE
<batchId>
的偏移量日志不存在,检查点位置:<checkpointLocation>
。
请指定可用于查询的批处理 ID - 可使用状态元数据数据源查询可用的批处理 ID。
STDS_OFFSET_METADATA_LOG_UNAVAILABLE
元数据不适用于 <batchId>
的偏移量日志,检查点位置:<checkpointLocation>
。
该检查点似乎只能使用较旧的 Spark 版本运行。 请使用最近的 Spark 版本运行流式处理查询,以便 Spark 构造状态元数据。
STDS_REQUIRED_OPTION_UNSPECIFIED
必须指定“<optionName>
”。
STREAMING_AQE_NOT_SUPPORTED_FOR_STATEFUL_OPERATORS
结构化流式处理中的有状态运算符不支持自适应查询执行。
STREAMING_FROM_MATERIALIZED_VIEW
无法从具体化视图 <viewName>
流式处理。 不支持从具体化视图流式处理。
STREAMING_OUTPUT_MODE
流式处理输出模式无效: <outputMode>
。
有关详细信息,请参阅 STREAMING_OUTPUT_MODE
STREAMING_STATEFUL_OPERATOR_NOT_MATCH_IN_STATE_METADATA
流式处理的有状态运算符名称与状态元数据中的运算符不匹配。 当用户添加/删除/更改现有流式处理查询的有状态运算符时,可能会发生这种情况。
元数据中的有状态运算符:[<OpsInMetadataSeq>
];当前批次中的有状态运算符:[<OpsInCurBatchSeq>
]。
STREAMING_TABLE_NEEDS_REFRESH
需要刷新流式处理表 <tableName>
才能执行 <operation>
。 请运行 CREATE OR REFRESH STREAMING TABLE <tableName>
AS 来更新该表。
STREAMING_TABLE_NOT_SUPPORTED
只能在增量实时表和 Databricks SQL 仓库中创建和刷新流式处理表。
STREAMING_TABLE_OPERATION_NOT_ALLOWED
不允许 <operation>
操作:
有关更多详细信息,请参阅 STREAMING_TABLE_OPERATION_NOT_ALLOWED
STREAMING_TABLE_QUERY_INVALID
只能从流式处理查询创建流式处理表 <tableName>
。 请将 STREAM 关键字添加到 FROM 子句,以将此关系转换为流式处理查询。
STREAM_NOT_FOUND_FOR_KINESIS_SOURCE
在 <region>
中找不到 Kinesis 流 <streamName>
。
请启动指向正确流名称的新查询。
STRUCT_ARRAY_LENGTH_MISMATCH
输入行没有架构所需的预期值数。 提供 <actual>
值时,<expected>
字段是必填字段。
SUM_OF_LIMIT_AND_OFFSET_EXCEEDS_MAX_INT
LIMIT 子句和 OFFSET 子句的总和不得大于最大 32 位整数值 (2,147,483,647),但发现限值 = <limit>
,偏移值 = <offset>
。
SYNC_METADATA_DELTA_ONLY
仅 delta 表支持修复表同步元数据命令。
SYNC_METADATA_NOT_SUPPORTED
仅 Unity Catalog 表支持修复表同步元数据命令。
SYNC_SRC_TARGET_TBL_NOT_SAME
源表名 <srcTable>
必须与目标表名 <destTable>
相同。
SYNTAX_DISCONTINUED
在此上下文中,已停止支持子句或关键字:<clause>
。
有关更多详细信息,请参阅 SYNTAX_DISCONTINUED
TABLE_OR_VIEW_ALREADY_EXISTS
无法创建表或视图 <relationName>
,因为它已存在。
选择其他名称、删除现有对象、添加 IF NOT EXISTS 子句以容许预先存在的对象、添加 OR REPLACE 子句以替换现有的具体化视图,或添加 OR REFRESH 子句来刷新现有的流式处理表。
TABLE_OR_VIEW_NOT_FOUND
找不到表或视图 <relationName>
。 请验证架构和目录的拼写和正确性。
如果未使用架构限定名称,请验证 current_schema() 输出,或使用正确的架构和目录限定名称。
若要容许删除时出错,请使用 DROP VIEW IF EXISTS 或 DROP TABLE IF EXISTS。
有关更多详细信息,请参阅 TABLE_OR_VIEW_NOT_FOUND
TABLE_VALUED_ARGUMENTS_NOT_YET_IMPLEMENTED_FOR_SQL_FUNCTIONS
无法对带有 TABLE 参数的 SQL 用户定义函数 <functionName>
执行 <action>
,因为此功能尚未实现。
TABLE_VALUED_FUNCTION_FAILED_TO_ANALYZE_IN_PYTHON
无法分析 Python 用户定义表函数:<msg>
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INCOMPATIBLE_WITH_CALL
无法评估表函数 <functionName>
,因为其表元数据为 <requestedMetadata>
,但函数调用 <invalidFunctionCallProperty>
。
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INVALID
无法评估表函数 <functionName>
,因为其表元数据无效;<reason>
。
TABLE_VALUED_FUNCTION_TOO_MANY_TABLE_ARGUMENTS
表值函数的表参数太多。
它允许一个表参数,但结果却是:<num>
个。
如果要允许此结果,请将“spark.sql.allowMultipleTableArguments.enabled”设置为“true”
TABLE_WITH_ID_NOT_FOUND
找不到 ID 为 <tableId>
的表。 请验证 UUID 是否正确。
TASK_WRITE_FAILED
将行写入 <path>
时任务失败。
TEMP_TABLE_OR_VIEW_ALREADY_EXISTS
无法创建临时视图 <relationName>
,因为它已存在。
选择其他名称、删除或替换现有视图,或者添加 IF NOT EXISTS 子句以容许现有的视图。
TEMP_VIEW_NAME_TOO_MANY_NAME_PARTS
CREATE TEMPORARY VIEW 或相应的数据集 API 仅接受单部分视图名称,但收到了:<actualName>
。
UC_BUCKETED_TABLES
Unity Catalog 中不支持存储桶表。
UC_CATALOG_NAME_NOT_PROVIDED
对于 Unity Catalog,请显式指定目录名称。 例如,在主目录上显示授予 your.address@email.com
权限。
UC_COMMAND_NOT_SUPPORTED
Unity Catalog 不支持命令 <commandName>
。
有关更多详细信息,请参阅 UC_COMMAND_NOT_SUPPORTED
UC_COMMAND_NOT_SUPPORTED_IN_SHARED_ACCESS_MODE
共享访问模式下的 Unity Catalog 群集不支持命令 <commandName>
。 改用单用户访问模式。
UC_CREDENTIAL_PURPOSE_NOT_SUPPORTED
指定的凭据类型不受支持。
UC_DATASOURCE_NOT_SUPPORTED
Unity Catalog 中不支持数据源格式 <dataSourceFormatName>
。
UC_DATASOURCE_OPTIONS_NOT_SUPPORTED
Unity Catalog 中不支持数据源选项。
UC_EXTERNAL_VOLUME_MISSING_LOCATION
外部卷必须存在 LOCATION 子句。 请检查用于创建外部卷的“CREATE EXTERNAL VOLUME ... LOCATION ...” 语法。
UC_FAILED_PROVISIONING_STATE
查询失败,因为它尝试引用表 <tableName>
,但无法执行此操作:<failureReason>
。 请更新表 <tableName>
以确保它处于活动预配状态,然后再次重试查询。
UC_FILE_SCHEME_FOR_TABLE_CREATION_NOT_SUPPORTED
不支持在 Unity Catalog 中使用文件方案 <schemeName>
创建表。
请改为使用同一表提供程序的 CREATE CONNECTION 命令创建联合数据源连接,然后使用 CREATE FOREIGN CATALOG 命令创建基于连接的目录以引用其中的表。
UC_HIVE_METASTORE_FEDERATION_CROSS_CATALOG_VIEW_NOT_SUPPORTED
Hive 元存储联合视图不支持跨多个目录的依赖项。 Hive 元存储联合目录中的视图 <view>
必须使用hive_metastore或spark_catalog目录中的依赖项,但其依赖项 <dependency>
位于另一个目录中 <referencedCatalog>
。 请更新依赖项以满足此约束,然后再次重试查询或命令。
UC_HIVE_METASTORE_FEDERATION_NOT_ENABLED
未在此群集上启用 Hive 元存储联合。
此群集不支持访问目录 <catalogName>
UC_INVALID_DEPENDENCIES
<viewName>
的依赖项在作为 <parsedDeps>
分析时被记录为 <storedDeps>
。 此问题可能是因为不当使用非 SQL API 而导致。 可以通过运行 ALTER VIEW <viewName>
AS <viewText>
来修复 Databricks Runtime 中的依赖项。
UC_INVALID_NAMESPACE
Unity Catalog 中不支持嵌套或空命名空间。
UC_INVALID_REFERENCE
无法在 Unity Catalog 对象中引用非 Unity Catalog 对象 <name>
。
UC_LAKEHOUSE_FEDERATION_WRITES_NOT_ALLOWED
此群集上的提供程序 <provider>
未启用 Unity Catalog Lakehouse 联合身份验证写入支持。
UC_LOCATION_FOR_MANAGED_VOLUME_NOT_SUPPORTED
托管卷不接受 LOCATION 子句。 请检查用于创建托管卷的 “CREATE VOLUME ...”语法。
UC_NOT_ENABLED
此群集上未启用 Unity Catalog。
UC_QUERY_FEDERATION_NOT_ENABLED
未在此群集上启用 Unity Catalog 查询联合。
UC_SERVICE_CREDENTIALS_NOT_ENABLED
此群集上未启用服务凭据。
UC_VOLUMES_NOT_ENABLED
此实例上未启用对 Unity Catalog 卷的支持。
UC_VOLUMES_SHARING_NOT_ENABLED
此实例上未启用对卷共享的支持。
UC_VOLUME_NOT_FOUND
卷 <name>
不存在。 请使用“SHOW VOLUMES”列出可用卷。
UDF_ERROR
SQLSTATE:未分配
函数 <fn>
执行失败
有关更多详细信息,请参阅 UDF_ERROR
UDF_LIMITS
违反了一个或多个 UDF 限制。
有关更多详细信息,请参阅 UDF_LIMITS
UDF_MAX_COUNT_EXCEEDED
超出了 <maxNumUdfs>
个 UDF 的查询范围 UDF 限制(公共预览期间受限制)。 已找到 <numUdfs>
。 UDF 为:<udfNames>
。
UDF_PYSPARK_ERROR
Python 辅助角色意外退出
有关详细信息,请参阅 UDF_PYSPARK_ERROR
UDF_PYSPARK_UNSUPPORTED_TYPE
处于共享访问模式的群集不支持 PySpark UDF <udf>
(<eval-type>
)。
UDF_PYSPARK_USER_CODE_ERROR
执行失败。
有关详细信息,请参阅 UDF_PYSPARK_USER_CODE_ERROR
UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE
用户定义的 <functionType>
函数不支持参数默认值。
UDF_USER_CODE_ERROR
函数 <fn>
执行失败。
有关更多详细信息,请参阅 UDF_USER_CODE_ERROR
UDTF_ALIAS_NUMBER_MISMATCH
AS 子句中提供的别名数与 UDTF 输出的列数不一致。
需要 <aliasesNames>
别名,但收到了 <aliasesSize>
。
请确保提供的别名数与 UDTF 输出的列数一致。
UDTF_INVALID_ALIAS_IN_REQUESTED_ORDERING_STRING_FROM_ANALYZE_METHOD
未能评估用户定义的表函数,因为其 analyze 方法返回了请求的 OrderingColumn,其列名表达式包含不必要的别名 <aliasName>
;请删除此别名,然后重试查询。
UDTF_INVALID_REQUESTED_SELECTED_EXPRESSION_FROM_ANALYZE_METHOD_REQUIRES_ALIAS
未能计算用户定义的表函数,因为它的“analyze”方法返回了请求的“select”表达式 (<expression>
),但不包含相应的别名;请更新 UDTF 以在此处指定别名,然后再次尝试查询。
UNABLE_TO_ACQUIRE_MEMORY
无法获取内存的 <requestedBytes>
字节,收到了 <receivedBytes>
。
UNABLE_TO_CONVERT_TO_PROTOBUF_MESSAGE_TYPE
无法将 SQL 类型 <toType>
转换为 Protobuf 类型 <protobufType>
。
UNABLE_TO_FETCH_HIVE_TABLES
无法提取 Hive 数据库 <dbName>
的表。 错误类名称:<className>
.
UNABLE_TO_INFER_SCHEMA
无法推理 <format>
的架构。 必须手动指定。
UNAUTHORIZED_ACCESS
未授权访问:
<report>
UNBOUND_SQL_PARAMETER
找到未绑定的参数:<name>
。 请修复 args
并提供对 SQL 文本或集合构造函数 (例如 map()
、array()
、struct()
) 的映射参数。
UNCLOSED_BRACKETED_COMMENT
找到未闭合的方括号注释。 请在注释的末尾追加 */。
UNEXPECTED_INPUT_TYPE
函数 <functionName>
的参数 <paramIndex>
需要 <requiredType>
类型,但 <inputSql>
的类型为 <inputType>
。
UNEXPECTED_OPERATOR_IN_STREAMING_VIEW
CREATE VIEW 语句中作为流式处理源的意外运算符 <op>
。
流式处理视图查询只能包含 SELECT、WHERE 和 UNION ALL 操作。
UNEXPECTED_POSITIONAL_ARGUMENT
无法调用函数 <functionName>
,因为它在分配到 <parameterName>
的已命名参数之后包含位置参数;请重新排列它们,使位置参数排在前面,然后重试查询。
UNEXPECTED_SERIALIZER_FOR_CLASS
类 <className>
具有意外的表达式序列化程序。 应为“STRUCT
”或返回“STRUCT
”的 IF,但找到了 <expr>
。
UNKNOWN_FIELD_EXCEPTION
分析期间遇到未知字段 <unknownFieldBlob>
,可通过自动重试将其修复:<isRetryable>
有关更多详细信息,请参阅 UNKNOWN_FIELD_EXCEPTION
UNKNOWN_POSITIONAL_ARGUMENT
函数 <functionName>
的调用在位置 <pos>
处包含一个未知的位置自变量 <sqlExpr>
。 这是无效的。
UNKNOWN_PRIMITIVE_TYPE_IN_VARIANT
在变量值中找到 ID <id>
未知的基元类型。
UNKNOWN_PROTOBUF_MESSAGE_TYPE
尝试将 <descriptorName>
视为消息,但它是 <containingType>
。
UNPIVOT_REQUIRES_ATTRIBUTES
当未给定 <empty>
表达式时,UNPIVOT 要求所有给定的 <given>
表达式都是列。 这些表达式不是列:[<expressions>
]。
UNPIVOT_REQUIRES_VALUE_COLUMNS
至少需要为 UNPIVOT 指定一个值列,所有列均指定为 ID。
UNPIVOT_VALUE_DATA_TYPE_MISMATCH
逆透视值列必须共享一个最不常见的类型,不包括某些类型:[<types>
]。
UNPIVOT_VALUE_SIZE_MISMATCH
所有逆透视值列的大小必须与值列名称 (<names>
) 相同。
UNRECOGNIZED_PARAMETER_NAME
无法调用函数 <functionName>
,因为函数调用包含名为 <argumentName>
的参数的命名参数引用,但此函数不包括任何包含具有此名称的参数的签名。 你是否指以下其中一项? [<proposal>
]。
UNRECOGNIZED_SQL_TYPE
无法识别的 SQL 类型 - 名称:<typeName>
,ID:<jdbcType>
。
UNRESOLVABLE_TABLE_VALUED_FUNCTION
无法将 <name>
解析为表值函数。
请确保 <name>
定义为表值函数,并且正确提供了所有必需的参数。
如果未定义 <name>
,请在使用表值函数之前创建它。
有关定义表值函数的详细信息,请参阅 Apache Spark 文档。
UNRESOLVED_ALL_IN_GROUP_BY
无法基于 select 子句推断 GROUP BY ALL 的分组列。 请显式指定分组列。
UNRESOLVED_COLUMN
无法解析名称为 <objectName>
的列、变量或函数参数。
有关更多详细信息,请参阅 UNRESOLVED_COLUMN
UNRESOLVED_FIELD
无法使用结构类型列 <columnPath>
解析具有名称 <fieldName>
的字段。
有关更多详细信息,请参阅 UNRESOLVED_FIELD
UNRESOLVED_MAP_KEY
无法将列 <objectName>
解析为映射键。 如果键是字符串字面量,请在其两侧添加单引号‘’。
有关更多详细信息,请参阅 UNRESOLVED_MAP_KEY
UNRESOLVED_ROUTINE
无法解析搜索路径 <searchPath>
上的例程 <routineName>
。
有关更多详细信息,请参阅 UNRESOLVED_ROUTINE
UNRESOLVED_USING_COLUMN_FOR_JOIN
无法解析联接的 <side>
一侧的 USING 列 <colName>
。 <side>
一侧的列:[<suggestion>
]。
UNRESOLVED_VARIABLE
无法解析搜索路径 <searchPath>
上的变量 <variableName>
。
UNSUPPORTED_ADD_FILE
不支持添加文件。
有关更多详细信息,请参阅 UNSUPPORTED_ADD_FILE
UNSUPPORTED_ARROWTYPE
不支持的箭头类型 <typeName>
。
UNSUPPORTED_BATCH_TABLE_VALUED_FUNCTION
函数 <funcName>
不支持批处理查询。
UNSUPPORTED_CALL
无法调用类“<className>
”的方法“<methodName>
”。
有关更多详细信息,请参阅 UNSUPPORTED_CALL
UNSUPPORTED_CHAR_OR_VARCHAR_AS_STRING
不能在表架构中使用 char/varchar 类型。
如果希望 Spark 将它们视为与 Spark 3.0 及更早版本相同的字符串类型,请将“spark.sql.legacy.charVarcharAsString”设置为“true”。
UNSUPPORTED_CLAUSE_FOR_OPERATION
<operation>
不支持 <clause>
。
UNSUPPORTED_COLLATION
排序规则 <collationName>
不受支持:
有关更多详细信息,请参阅 UNSUPPORTED_COLLATION
UNSUPPORTED_COMMON_ANCESTOR_LOC_FOR_FILE_STREAM_SOURCE
应向 UC 注册源路径和 sourceArchiveDir 的公共上级。
如果看到此错误消息,则可能是你在不同的外部位置注册了源路径和 sourceArchiveDir。
请将它们放入单个外部位置。
UNSUPPORTED_CONSTRAINT_CLAUSES
不支持约束子句 <clauses>
。
UNSUPPORTED_CONSTRAINT_TYPE
不支持的约束类型。 仅支持 <supportedConstraintTypes>
UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY
不支持直接查询文件中的数据源类型:<dataSourceType>
UNSUPPORTED_DATATYPE
不支持的数据类型 <typeName>
。
UNSUPPORTED_DATA_SOURCE_SAVE_MODE
数据源“<source>
”不能以 <createMode>
模式写入。 请改用“追加”或“覆盖”模式。
UNSUPPORTED_DATA_TYPE_FOR_DATASOURCE
数据源 <format>
不支持类型 <columnType>
的列 <columnName>
。
UNSUPPORTED_DATA_TYPE_FOR_ENCODER
无法为 <dataType>
创建编码器。 请对 UDF 或 DataFrame 使用不同的输出数据类型。
UNSUPPORTED_DEFAULT_VALUE
不支持 DEFAULT 列值。
有关更多详细信息,请参阅 UNSUPPORTED_DEFAULT_VALUE
UNSUPPORTED_DESERIALIZER
不支持反序列化程序:
有关详细信息,请参阅 UNSUPPORTED_DESERIALIZER
UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
无法使用生成表达式 <expressionStr>
创建生成的列 <fieldName>
,因为 <reason>
。
UNSUPPORTED_EXPR_FOR_OPERATOR
查询运算符包含一个或多个不受支持的表达式。
考虑重写该查询,以避免 WHERE 子句中的窗口函数、聚合函数和生成器函数。
无效的表达式:[<invalidExprSqls>
]
UNSUPPORTED_EXPR_FOR_PARAMETER
查询参数包含不受支持的表达式。
参数可以是变量或文本。
无效表达式:[<invalidExprSql>
]
UNSUPPORTED_EXPR_FOR_WINDOW
窗口函数中不支持表达式 <sqlExpr>
。
UNSUPPORTED_FEATURE
不支持该功能:
有关详细信息,请参阅 UNSUPPORTED_FEATURE
UNSUPPORTED_FN_TYPE
不支持的用户定义函数类型:<language>
UNSUPPORTED_GENERATOR
不支持生成器:
有关详细信息,请参阅 UNSUPPORTED_GENERATOR
UNSUPPORTED_GROUPING_EXPRESSION
grouping()/grouping_id() 只能与 GroupingSets/Cube/Rollup 结合使用。
UNSUPPORTED_INITIAL_POSITION_AND_TRIGGER_PAIR_FOR_KINESIS_SOURCE
Kinesis 源不支持初始位置为 <initialPosition>
的 <trigger>
UNSUPPORTED_INSERT
无法插入到目标。
有关更多详细信息,请参阅 UNSUPPORTED_INSERT
UNSUPPORTED_JOIN_TYPE
不支持的联接类型“”。<typ>
支持的联接类型包括: <supported>
。
UNSUPPORTED_MANAGED_TABLE_CREATION
不支持使用数据源 <dataSource>
创建托管表 <tableName>
。 需要使用数据源 DELTA 或使用 CREATE EXTERNAL TABLE <tableName>
, 使用 <dataSource>
创建外部表
UNSUPPORTED_MERGE_CONDITION
MERGE 操作包含不受支持的 <condName>
条件。
有关更多详细信息,请参阅 UNSUPPORTED_MERGE_CONDITION
UNSUPPORTED_NESTED_ROW_OR_COLUMN_ACCESS_POLICY
表 <tableName>
包含的行级别安全策略或列掩码间接引用了另一个包含行级别安全策略或列掩码的表;这种情况不受支持。 调用序列:<callSequence>
UNSUPPORTED_OVERWRITE
无法覆盖同样在被读取的目标。
有关详细信息,请参阅 UNSUPPORTED_OVERWRITE
UNSUPPORTED_SAVE_MODE
以下对象不支持保存模式 <saveMode>
:
有关详细信息,请参阅 UNSUPPORTED_SAVE_MODE
UNSUPPORTED_STREAMING_OPERATOR_WITHOUT_WATERMARK
<outputMode>
在没有水印的流式处理数据帧/数据集上不支持 <statefulOperator>
输出模式。
UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
不支持流式传输视图。 原因:
有关详细信息,请参阅 UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED
共享群集上的数据源 <source>
不支持流式处理选项 <options>
。 请确认选项已指定并拼写正确,并检查https://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode 限制。
UNSUPPORTED_STREAMING_SINK_PERMISSION_ENFORCED
不支持将数据源 <sink>
用作共享群集上的流式处理接收器。
UNSUPPORTED_STREAMING_SOURCE_PERMISSION_ENFORCED
不支持将数据源 <source>
用作共享群集上的流式处理源。
UNSUPPORTED_STREAMING_TABLE_VALUED_FUNCTION
函数 <funcName>
不支持流式处理。 请删除 STREAM 关键字
UNSUPPORTED_STREAM_READ_LIMIT_FOR_KINESIS_SOURCE
Kinesis 源不支持 <streamReadLimit>
UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
不支持的子查询表达式:
有关更多详细信息,请参阅 UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
UNSUPPORTED_TIMESERIES_COLUMNS
不支持创建具有时序列的主键
UNSUPPORTED_TIMESERIES_WITH_MORE_THAN_ONE_COLUMN
不支持创建具有多个时序列 <colSeq>
的主键
UNSUPPORTED_TRIGGER_FOR_KINESIS_SOURCE
Kinesis 源不支持 <trigger>
UNSUPPORTED_TYPED_LITERAL
不支持 <unsupportedType>
类型的文本。 支持的类型为<supportedTypes>
。
UNTYPED_SCALA_UDF
你正在使用非类型化的 Scala UDF,则该 UDF 没有输入类型信息。
Spark 可能会盲目地向具有基元类型参数的 Scala 闭包传递 NULL,闭包将看到 NULL 参数的 Java 类型的默认值,例如 udf((x: Int) => x, IntegerType)
,NULL 输入的结果为 0。 若要消除此错误,可以:
- 使用类型化的 Scala UDF API(没有返回类型参数),例如
udf((x: Int) => x)
。 - 如果输入类型都是非基元,则使用 Java UDF API,例如
udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType)
。 - 将“spark.sql.legacy.allowUntypedScalaUDF”设置为“true”,并谨慎使用此 API。
UPGRADE_NOT_SUPPORTED
表不符合从 Hive 元存储升级到 Unity Catalog 的条件。 原因:
有关更多详细信息,请参阅 UPGRADE_NOT_SUPPORTED
USER_DEFINED_FUNCTIONS
用户定义函数无效:
有关更多详细信息,请参阅 USER_DEFINED_FUNCTIONS
USER_RAISED_EXCEPTION
<errorMessage>
USER_RAISED_EXCEPTION_PARAMETER_MISMATCH
raise_error()
函数用于引发错误类:<errorClass>
,需要参数:<expectedParms>
。
提供的参数 <providedParms>
与需要的参数不匹配。
请确保提供所有需要的参数。
USER_RAISED_EXCEPTION_UNKNOWN_ERROR_CLASS
raise_error()
函数用于引发未知错误类:<errorClass>
VARIABLE_ALREADY_EXISTS
无法创建变量 <variableName>
,因为它已存在。
选择其他名称,或者删除或替换现有变量。
VARIABLE_NOT_FOUND
找不到 <variableName>
变量。 请验证架构和目录的拼写和正确性。
如果未使用架构和目录限定名称,请验证 current_schema() 输出,或使用正确的架构和目录限定名称。
若要容许删除时出错,请使用 DROP VARIABLE IF EXISTS。
VARIANT_CONSTRUCTOR_SIZE_LIMIT
无法构造大于 16 MiB 的变体。 变体值的最大允许大小为 16 MiB。
VARIANT_DUPLICATE_KEY
由于对象键 <key>
重复,无法构建变体。
VARIANT_SIZE_LIMIT
无法在 <functionName>
中生成大于 <sizeLimit>
的变体。
请避免在此表达式中输入较大的字符串(例如,添加函数调用来检查表达式大小,如果太大,则首先将其转换为 NULL)。
VIEW_ALREADY_EXISTS
无法创建视图 <relationName>
,因为它已存在。
选择其他名称、删除或替换现有对象,或者添加 IF NOT EXISTS 子句以容许现有的对象。
VIEW_EXCEED_MAX_NESTED_DEPTH
视图 <viewName>
的深度超出了最大视图分辨率深度 (<maxNestedDepth>
)。
分析已中止以避免错误。 若要解决此问题,请尝试增加“spark.sql.view.maxNestedViewDepth”的值。
VIEW_NOT_FOUND
找不到视图 <relationName>
。 请验证架构和目录的拼写和正确性。
如果未使用架构限定名称,请验证 current_schema() 输出,或使用正确的架构和目录限定名称。
若要容许删除时出错,请使用 DROP VIEW IF EXISTS。
VOLUME_ALREADY_EXISTS
无法创建卷 <relationName>
,因为它已存在。
选择其他名称、删除或替换现有对象,或者添加 IF NOT EXISTS 子句以容许现有的对象。
WINDOW_FUNCTION_AND_FRAME_MISMATCH
<funcName>
函数只能在具有单个偏移量的有序的基于行的窗口框架中进行计算:<windowExpr>
。
WINDOW_FUNCTION_WITHOUT_OVER_CLAUSE
Window 函数 <funcName>
需要 OVER 子句。
WITH_CREDENTIAL
<type>
不支持 WITH CREDENTIAL 语法。
WRITE_STREAM_NOT_ALLOWED
只能在流式处理数据集/数据帧上调用 writeStream
。
WRONG_COLUMN_DEFAULTS_FOR_DELTA_ALTER_TABLE_ADD_COLUMN_NOT_SUPPORTED
未能执行命令,因为将新列添加到先前存在的 Delta 表时,
不支持 DEFAULT 值;请先添加没有默认值的列,
然后再运行第二个命令 ALTER TABLE ALTER COLUMN SET DEFAULT 以
请求将来插入的行。
WRONG_COLUMN_DEFAULTS_FOR_DELTA_FEATURE_NOT_ENABLED
未能执行 <commandType>
命令,因为它为某个列分配了 DEFAULT 值,
但未启用相应的表功能。 请在执行 ALTER TABLE tableName SET
TBLPROPERTIES(‘delta.feature.allowColumnDefaults’ = ‘supported’)
后再次运行此命令。
WRONG_COMMAND_FOR_OBJECT_TYPE
操作 <operation>
需要 <requiredType>
。 但 <objectName>
是 <foundType>
。 请改用 <alternative>
。
WRONG_NUM_ARGS
<functionName>
需要 <expectedNum>
个参数,但实际数量为 <actualNum>
。
有关更多详细信息,请参阅 WRONG_NUM_ARGS
XML_ROW_TAG_MISSING
读取 XML 格式的文件需要 <rowTag>
选项。
XML_UNSUPPORTED_NESTED_TYPES
XML 不支持 <innerDataType>
作为 <dataType>
的内部类型。 在 <dataType>
中使用时,请将 <innerDataType>
包装在 StructType 字段中。
XML_WILDCARD_RESCUED_DATA_CONFLICT_ERROR
无法同时启用已获救的数据和通配符列。 请删除 wildcardColumnName 选项。
ZORDERBY_COLUMN_DOES_NOT_EXIST
ZOrderBy 列 <columnName>
不存在。
Delta Lake
DELTA_ACTIVE_SPARK_SESSION_NOT_FOUND
找不到活动的 SparkSession
DELTA_ACTIVE_TRANSACTION_ALREADY_SET
当 txn 已处于活动状态时,无法将新的 txn 设置为活动状态
DELTA_ADDING_COLUMN_WITH_INTERNAL_NAME_FAILED
无法添加列 <colName>
,因为名称是保留的。
DELTA_ADDING_DELETION_VECTORS_DISALLOWED
当前操作尝试将删除向量添加到不允许创建新删除向量的表中。 请提交 bug 报告。
DELTA_ADDING_DELETION_VECTORS_WITH_TIGHT_BOUNDS_DISALLOWED
所有添加删除向量的操作应将统计信息中的 tightBounds 列设置为 false。 请提交 bug 报告。
DELTA_ADD_COLUMN_AT_INDEX_LESS_THAN_ZERO
要添加列 <columnName>
的索引 <columnIndex>
小于 0
DELTA_ADD_COLUMN_PARENT_NOT_STRUCT
无法添加 <columnName>
,因为其父级不是 StructType。 已找到 <other>
DELTA_ADD_COLUMN_STRUCT_NOT_FOUND
未在位置 <position>
处找到结构
DELTA_ADD_CONSTRAINTS
请使用 ALTER TABLE ADD CONSTRAINT 添加 CHECK 约束。
DELTA_AGGREGATE_IN_GENERATED_COLUMN
已找到 <sqlExpr>
。 生成的列不能使用聚合表达式
DELTA_AGGREGATION_NOT_SUPPORTED
<operation>
<predicate>
中不支持聚合函数。
DELTA_ALTER_COLLATION_NOT_SUPPORTED_BLOOM_FILTER
无法更改列 <column>
的排序规则,因为它具有布隆筛选器索引。 请保留现有的排序规则,或者删除布隆筛选器索引,然后再次重试该命令,以更改排序规则。
DELTA_ALTER_COLLATION_NOT_SUPPORTED_CLUSTER_BY
无法更改列 <column>
的排序规则,因为它是聚类分析列。 请保留现有的排序规则,或者使用 ALTER TABLE 命令将列更改为非聚类分析列,然后再次重试该命令,以更改排序规则。
DELTA_ALTER_TABLE_CHANGE_COL_NOT_SUPPORTED
ALTER TABLE CHANGE COLUMN 不支持将列 <currentType>
更改为 <newType>
DELTA_ALTER_TABLE_CLUSTER_BY_NOT_ALLOWED
只有使用 Liquid 聚类分析的 Delta 表支持使用 ALTER TABLE CLUSTER BY。
DELTA_ALTER_TABLE_CLUSTER_BY_ON_PARTITIONED_TABLE_NOT_ALLOWED
ALTER TABLE CLUSTER BY 不能应用于已分区表。
DELTA_ALTER_TABLE_RENAME_NOT_ALLOWED
不允许的操作:不允许对 S3 上的托管 Delta 表执行 ALTER TABLE RENAME TO 操作,因为 S3 上的最终一致性可能会损坏 Delta 事务日志。 如果你坚持这样做,并确保以前从未有过具有新名称 <newName>
的 Delta 表,可以通过将 <key>
设置为 true 来启用它。
DELTA_ALTER_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
无法使用 ALTER TABLE SET TBLPROPERTIES 启用 <tableFeature>
表功能。 请使用 CREATE OR REPLACE TABLE CLUSTER BY 创建具有聚类分析的 Delta 表。
DELTA_AMBIGUOUS_DATA_TYPE_CHANGE
无法将 <column>
的数据类型从 <from>
更改为 <to>
。 此更改包含列删除和添加,因此它们不明确。 请使用 ALTER TABLE [ADD |DROP | RENAME] 列。
DELTA_AMBIGUOUS_PARTITION_COLUMN
不明确的分区列 <column>
可以是 <colMatches>
。
DELTA_AMBIGUOUS_PATHS_IN_CREATE_TABLE
CREATE TABLE 包含两个不同的位置:<identifier>
和 <location>
。
可以从 CREATE TABLE 语句中删除 LOCATION 子句,或将
<config>
设置为 true 以跳过此检查。
DELTA_ARCHIVED_FILES_IN_LIMIT
表 <table>
不包含非存档文件中的足够记录,无法满足指定的限制(<limit>
条记录)。
DELTA_ARCHIVED_FILES_IN_SCAN
在表 <table>
中找到 <numArchivedFiles>
个需要作为此查询的一部分扫描的可能已存档文件。
无法访问已存档的文件。 当前存档前时间配置为 <archivalTime>
。
请调整查询筛选器以排除所有已存档的文件。
DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION
如果表启用了更改数据馈送 (CDF),并且已使用 DROP COLUMN 或 RENAME COLUMN 进行架构更改,则不允许执行操作“<opName>
”。
DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS
无法删除以下不存在的列的 Bloom 筛选器索引:<unknownColumns>
DELTA_BLOOM_FILTER_OOM_ON_WRITE
在为以下列编写 bloom 筛选器索引时发生 OutOfMemoryError:<columnsWithBloomFilterIndices>
。
可以通过为“numItems”选项选择较小的值、为“fpp”选项选择较大的值或为更少的列编制索引来减少 bloom 筛选器索引的内存占用量。
DELTA_CANNOT_CHANGE_DATA_TYPE
无法更改数据类型:<dataType>
DELTA_CANNOT_CHANGE_LOCATION
无法使用 SET TBLPROPERTIES 更改 Delta 表的“位置”。 请改用 ALTER TABLE SET LOCATION。
DELTA_CANNOT_CHANGE_PROVIDER
“provider”是保留的表属性,不能更改。
DELTA_CANNOT_CREATE_BLOOM_FILTER_NON_EXISTING_COL
无法为以下不存在的列创建 Bloom 筛选器索引:<unknownCols>
DELTA_CANNOT_CREATE_LOG_PATH
无法创建 <path>
DELTA_CANNOT_DESCRIBE_VIEW_HISTORY
无法描述视图的历史记录。
DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN
无法删除非索引列上的 bloom 筛选器索引:<columnName>
DELTA_CANNOT_DROP_CHECK_CONSTRAINT_FEATURE
无法删除 CHECK 约束表功能。
必须先删除以下约束:<constraints>
。
DELTA_CANNOT_EVALUATE_EXPRESSION
无法计算表达式:<expression>
DELTA_CANNOT_FIND_BUCKET_SPEC
需要 Bucket 存储 Delta 表,但在表中找不到 Bucket 规格
DELTA_CANNOT_GENERATE_CODE_FOR_EXPRESSION
无法生成表达式的代码:<expression>
DELTA_CANNOT_MODIFY_APPEND_ONLY
此表配置为仅允许追加。 如果要允许更新或删除,请使用“ALTER TABLE <table_name> SET TBLPROPERTIES (<config>
=false)”。
DELTA_CANNOT_MODIFY_COORDINATED_COMMITS_DEPENDENCIES
<Command>
无法重写或取消设置提交中的时间戳表属性,因为在此表中启用了协调提交,并依赖于它们。 请从 TBLPROPERTIES 子句中删除它们(“delta.enableInCommitTimestamps”、“delta.inCommitTimestampEnablementVersion”、“delta.inCommitTimestampEnablementTimestamp”),然后再次重试该命令。
DELTA_CANNOT_MODIFY_TABLE_PROPERTY
用户无法指定 Delta 表配置 <prop>
DELTA_CANNOT_OVERRIDE_COORDINATED_COMMITS_CONFS
<Command>
无法替代现有目标表的协调提交配置。 请从 TBLPROPERTIES 子句中删除它们(“delta.coordinatedCommits.commitCoordinator-preview”、“delta.coordinatedCommits.tableConf-preview”),然后再次重试该命令。
DELTA_CANNOT_RECONSTRUCT_PATH_FROM_URI
在事务日志中找到无法转换为相对路径的 uri(<uri>
)。
DELTA_CANNOT_RELATIVIZE_PATH
无法与在事务日志中找到的当前输入相对化的路径(<path>
)
路径 (
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog(“<userPath>
”, true)
然后运行:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog(“<path>
”)
DELTA_CANNOT_RENAME_PATH
无法将 <currentPath>
重命名为 <newPath>
DELTA_CANNOT_REPLACE_MISSING_TABLE
无法替换表 <tableName>
,因为它不存在。 使用 CREATE OR REPLACE TABLE 创建表。
DELTA_CANNOT_RESOLVE_COLUMN
无法解析 <schema>
中的列 <columnName>
DELTA_CANNOT_RESTORE_TABLE_VERSION
无法将表还原到 <version>
版本。 可用版本:[<startVersion>
, <endVersion>
]。
DELTA_CANNOT_RESTORE_TIMESTAMP_EARLIER
无法将表还原到时间戳 (<requestedTimestamp>
),因为它早于可用的最早版本。 请使用晚于 (<earliestTimestamp>
) 的时间戳。
DELTA_CANNOT_RESTORE_TIMESTAMP_GREATER
无法将表还原到时间戳 (<requestedTimestamp>
),因为它在可用的最新版本之后。 请使用早于 (<latestTimestamp>
) 的时间戳
DELTA_CANNOT_SET_COORDINATED_COMMITS_DEPENDENCIES
<Command>
无法将提交中的时间戳表属性与协调的提交一起设置,因为后者依赖于前者并在内部设置前者。 请从 TBLPROPERTIES 子句中删除它们(“delta.enableInCommitTimestamps”、“delta.inCommitTimestampEnablementVersion”、“delta.inCommitTimestampEnablementTimestamp”),然后再次重试该命令。
DELTA_CANNOT_SET_LOCATION_ON_PATH_IDENTIFIER
无法更改基于路径的表的位置。
DELTA_CANNOT_SET_MANAGED_STATS_COLUMNS_PROPERTY
无法在非 DLT 表上设置 delta.managedDataSkippingStatsColumns
DELTA_CANNOT_UNSET_COORDINATED_COMMITS_CONFS
ALTER 无法取消设置协调提交配置。 若要从协调提交降级表,请重试使用 ALTER TABLE [table-name] DROP FEATURE 'coordinatedCommits-preview'
。
DELTA_CANNOT_UPDATE_ARRAY_FIELD
无法更新 %1$s 字段 %2$s 类型:通过更新 %2$s.element 来更新元素
DELTA_CANNOT_UPDATE_MAP_FIELD
无法更新 %1$s 字段 %2$s 类型:通过更新 %2$s.key 或 %2$s.value 更新映射
DELTA_CANNOT_UPDATE_OTHER_FIELD
无法更新 <typeName>
类型的 <tableName>
字段
DELTA_CANNOT_UPDATE_STRUCT_FIELD
无法更新 <tableName>
字段 <fieldName>
类型:通过添加、删除或更新其字段来更新结构
DELTA_CANNOT_USE_ALL_COLUMNS_FOR_PARTITION
无法将所有列用于分区列
DELTA_CANNOT_WRITE_INTO_VIEW
<table>
是视图。 不支持对视图的写入。
DELTA_CAST_OVERFLOW_IN_TABLE_WRITE
由于溢出,无法将 <sourceType>
类型值写入 <targetType>
类型列 <columnName>
。
对输入值使用 try_cast
以容许溢出并改为返回 NULL。
如有必要,将 <storeAssignmentPolicyFlag>
设置为“LEGACY”可避开此错误,或将 <updateAndMergeCastingFollowsAnsiEnabledFlag>
设置为 true 可还原到旧行为,并在 UPDATE 和 MERGE 中跟随 <ansiEnabledFlag>
。
DELTA_CDC_NOT_ALLOWED_IN_THIS_VERSION
无法设置配置 delta.enableChangeDataFeed。 来自 Delta 的更改数据馈送尚不可用。
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_DATA_SCHEMA
由于数据架构不兼容,检索版本 <start>
和 <end>
之间的表更改失败。
你的读取架构是版本 <readVersion>
中的 <readSchema>
,但我们发现版本 <incompatibleVersion>
中的数据架构不兼容。
如果可能,请通过将 <config>
设置为 endVersion
使用最终版本的架构来检索表更改,或联系客户支持。
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE
由于架构更改不兼容,检索版本 <start>
和 <end>
之间的表更改失败。
你的读取架构是版本 <readVersion>
中的 <readSchema>
,但我们发现版本 <incompatibleVersion>
中的架构更改不兼容。
如果可能,请分别将查询表从版本 <start>
更改为 <incompatibleVersion>
- 1,从版本 <incompatibleVersion>
更改为 <end>
。
DELTA_CHANGE_DATA_FILE_NOT_FOUND
找不到事务日志中引用的文件 <filePath>
。 如果已从文件系统中手动删除数据,而不是使用表 DELETE
语句进行删除,则可能会发生这种情况。 此请求似乎针对更改数据馈送,如果是这样,当更改数据文件超出保留期并由 VACUUM
语句删除时,可能会发生此错误。 有关详细信息,请参阅 <faqPath>
DELTA_CHANGE_TABLE_FEED_DISABLED
无法写入到设置了 delta.enableChangeDataFeed 的表。 来自 Delta 的更改数据馈送不可用。
DELTA_CHECKPOINT_NON_EXIST_TABLE
无法为不存在的表 <path>
创建检查点。 是否手动删除了 _delta_log 目录中的文件?
DELTA_CLONE_AMBIGUOUS_TARGET
提供两条路径作为 CLONE 目标,因此使用哪条路径是不明确的。 在提供
路径的同时,还在 <externalLocation>
处提供 CLONE 的外部位置
<targetIdentifier>
。
DELTA_CLONE_INCOMPLETE_FILE_COPY
未完全复制文件 (<fileName>
)。 预期文件大小 <expectedSize>
,找到:<actualSize>
。 若要忽略文件大小检查以继续操作,请将 <config>
设置为 false。
DELTA_CLONE_UNSUPPORTED_SOURCE
<mode>
克隆源“<name>
”不受支持,其格式为 <format>
。
支持的格式为“delta”、“iceberg”和“parquet”。
DELTA_CLUSTERING_CLONE_TABLE_NOT_SUPPORTED
使用适用于 DBR 版本 < 14.0 的 Liquid 聚类分析 的 Delta 表不支持 CLONE。
DELTA_CLUSTERING_COLUMNS_DATATYPE_NOT_SUPPORTED
不支持 CLUSTER BY,因为以下列(s): <columnsWithDataTypes>
不支持跳过数据。
DELTA_CLUSTERING_COLUMNS_MISMATCH
提供的聚类分析列与现有表的不匹配。
- 提供的:
<providedClusteringColumns>
- 现有的:
<existingClusteringColumns>
DELTA_CLUSTERING_COLUMN_MISSING_STATS
Liquid 聚类分析需要聚类分析列具有统计信息。但在统计信息架构中找不到聚类分析列 <columns>
:
<schema>
DELTA_CLUSTERING_CREATE_EXTERNAL_NON_LIQUID_TABLE_FROM_LIQUID_TABLE
不允许从使用液体聚类分析的表目录创建不使用液体聚类分析的外部表;路径:<path>
。
DELTA_CLUSTERING_NOT_SUPPORTED
“<operation>
”不支持聚类分析。
DELTA_CLUSTERING_PHASE_OUT_FAILED
无法使用 <tableFeatureToAdd>
表功能完成表的 <phaseOutType>
(原因:<reason>
)。 请再次尝试执行 OPTIMIZE 命令。
== 错误 ==
<error>
DELTA_CLUSTERING_REPLACE_TABLE_WITH_PARTITIONED_TABLE
不允许使用已分区表 REPLACE 使用 Liquid 聚类分析的 Delta 表。
DELTA_CLUSTERING_SHOW_CREATE_TABLE_WITHOUT_CLUSTERING_COLUMNS
无任何聚类分析列的 Liquid 聚类分析 Delta 表不支持 SHOW CREATE TABLE。
DELTA_CLUSTERING_TO_PARTITIONED_TABLE_WITH_NON_EMPTY_CLUSTERING_COLUMNS
当现有表具有非空聚类分析列时,不允许将具有液体聚类分析的 Delta 表转换为分区表: <operation>
请首先运行 ALTER TABLE CLUSTER BY NONE 以删除聚类分析列。
DELTA_CLUSTERING_WITH_DYNAMIC_PARTITION_OVERWRITE
使用 Liquid 集群的 Delta 表不允许动态分区覆盖模式。
DELTA_CLUSTERING_WITH_PARTITION_PREDICATE
使用 Liquid 聚类分析的 Delta 表的 OPTIMIZE 命令不支持分区谓词。 请删除谓词:<predicates>
。
DELTA_CLUSTERING_WITH_ZORDER_BY
使用 Liquid 聚类分析的 Delta 表的 OPTIMIZE 命令无法指定 ZORDER BY。 请删除 ZORDER BY (<zOrderBy>
)。
DELTA_CLUSTER_BY_INVALID_NUM_COLUMNS
Liquid 聚类分析的 CLUSTER BY 最多支持 <numColumnsLimit>
个聚类分析列,但表中有 <actualNumColumns>
个聚类分析列。 请删除多余的聚类分析列。
DELTA_CLUSTER_BY_SCHEMA_NOT_PROVIDED
未定义架构时,不允许指定 CLUSTER BY。 请定义表 <tableName>
的架构。
DELTA_CLUSTER_BY_WITH_BUCKETING
无法同时指定聚类分析和分桶。 如果要使用聚类分析创建 Delta 表,请删除 CLUSTERED BY INTO BUCKETS/bucketBy。
DELTA_CLUSTER_BY_WITH_PARTITIONED_BY
无法同时指定聚类分析和分区。 如果要使用聚类分析创建 Delta 表,请删除 PARTITIONED BY/partitionBy /partitionedBy。
DELTA_COLLATIONS_NOT_SUPPORTED
Delta Lake 不支持排序规则。
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_PARTITIONED_COLUMN
分区列“<column>
”不支持跳过数据。
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_TYPE
类型为 <type>
的列“<column>
”不支持跳过数据。
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET
未在启用列映射的表上设置最大列 ID 属性 (<prop>
)。
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET_CORRECTLY
启用列映射的表上的最大列 ID 属性 (<prop>
) 为 <tableMax>
,它不能小于所有字段的最大列 ID (<fieldMax>
)。
DELTA_COLUMN_MISSING_DATA_TYPE
未提供列 <colName>
的数据类型。
DELTA_COLUMN_NOT_FOUND
无法找到给定 [<columnList>
] 的 <columnName>
列
DELTA_COLUMN_NOT_FOUND_IN_MERGE
无法从以下 INSERT 列 <colNames>
找到目标表的列“<targetCol>
”。 INSERT 子句必须为目标表的所有列指定值。
DELTA_COLUMN_NOT_FOUND_IN_SCHEMA
在下列位置无法找到列 <columnName>
:
<tableSchema>
DELTA_COLUMN_PATH_NOT_NESTED
<columnPath>
应为嵌套数据类型,但找到的类型为 <other>
。 正在查找
嵌套字段中 <column>
的索引。
架构:
<schema>
DELTA_COLUMN_STRUCT_TYPE_MISMATCH
结构列 <source>
无法插入到 <targetTable>
中的 <targetType>
字段 <targetField>
。
DELTA_COMPACTION_VALIDATION_FAILED
路径 <compactedPath>
到 <newPath>
的压缩验证失败:请提交 bug 报告。
DELTA_COMPLEX_TYPE_COLUMN_CONTAINS_NULL_TYPE
在数据类型为 <dataType>
的 <columName>
列中找到嵌套的 NullType。 Delta 不支持在复杂类型中写入 NullType。
DELTA_CONCURRENT_APPEND
ConcurrentAppendException:已通过并发更新将文件添加到 <partition>
。 <retryMsg>
<conflictingCommit>
有关更多详细信息,请参阅 <docLink>
。
DELTA_CONCURRENT_DELETE_DELETE
ConcurrentDeleteDeleteException:此事务尝试删除已由并发更新删除的一个或多个文件(例如 <file>
)。 请重试该操作。<conflictingCommit>
有关更多详细信息,请参阅 <docLink>
。
DELTA_CONCURRENT_DELETE_READ
ConcurrentDeleteReadException:此事务尝试读取已由并发更新删除的一个或多个文件(例如 <file>
)。 请重试该操作。<conflictingCommit>
有关更多详细信息,请参阅 <docLink>
。
DELTA_CONCURRENT_TRANSACTION
ConcurrentTransactionException:当多个流式处理查询使用相同的检查点来写入此表时,会发生此错误。 是否同时运行了同一流式处理查询的多个实例?<conflictingCommit>
有关更多详细信息,请参阅 <docLink>
。
DELTA_CONCURRENT_WRITE
ConcurrentWriteException:自当前事务读取表以来,并发事务已写入新数据。 请重试该操作。<conflictingCommit>
有关更多详细信息,请参阅 <docLink>
。
DELTA_CONFLICT_SET_COLUMN
这些 SET 列之间存在冲突:<columnList>
。
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_COMMAND
在此期间 <command>
,无法从命令设置配置“<configuration>
”。 请将其从 TBLPROPERTIES 子句中删除,然后再次重试该命令。
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_SESSION
在此期间 <command>
,无法从 SparkSession 配置设置配置“<configuration>
” 。 请通过运行 spark.conf.unset("<configuration>")
来取消设置它,然后再次重试该命令。
DELTA_CONSTRAINT_ALREADY_EXISTS
约束“<constraintName>
”已存在。 请先删除旧约束。
旧约束:
<oldConstraint>
DELTA_CONSTRAINT_DATA_TYPE_MISMATCH
列 <columnName>
具有数据类型 <columnType>
,无法更改为数据类型 <dataType>
,因为以下检查约束引用了此列:
<constraints>
DELTA_CONSTRAINT_DEPENDENT_COLUMN_CHANGE
无法更改列 <columnName>
,因为以下检查约束引用了此列:
<constraints>
DELTA_CONSTRAINT_DOES_NOT_EXIST
无法从表 <tableName>
中删除不存在的约束 <constraintName>
。 若要避免引发错误,请提供参数 IF EXISTS 或将 SQL 会话配置 <config>
设置为 <confValue>
。
DELTA_CONVERSION_NO_PARTITION_FOUND
在目录中找不到表 <tableName>
的分区信息。 你是否已对你的表运行“MSCK REPAIR TABLE”来发现分区?
DELTA_CONVERSION_UNSUPPORTED_COLLATED_PARTITION_COLUMN
无法将已排序分区列 <colName>
的 Parquet 表转换为 Delta。
DELTA_CONVERSION_UNSUPPORTED_COLUMN_MAPPING
使用 CONVERT TO DELTA 时,无法将配置“<config>
”设置为 <mode>
。
DELTA_CONVERT_NON_PARQUET_TABLE
CONVERT TO DELTA 仅支持 Parquet 表,但你尝试转换 <sourceName>
源:<tableId>
DELTA_CONVERT_TO_DELTA_ROW_TRACKING_WITHOUT_STATS
无法在不收集统计信息的情况下启用行跟踪。
如果要启用行跟踪,请执行以下操作:
通过运行以下命令启用统计信息收集:
SET
<statisticsCollectionPropertyKey>
= true- 运行 CONVERT TO DELTA 而不使用“NO STATISTICS”选项。
如果不需要收集统计信息,请禁用行跟踪:
通过运行以下命令停用默认启用表功能:
RESET
<rowTrackingTableFeatureDefaultKey>
通过运行以下命令停用默认表属性:
SET
<rowTrackingDefaultPropertyKey>
= false
DELTA_COPY_INTO_TARGET_FORMAT
COPY INTO 目标必须是 Delta 表。
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_SCHEMA
你正在尝试使用 Delta 从以下位置创建外部表 <tableName>
:
<path>
创建外部表
未指定架构。
若要详细了解 Delta,请参阅 <docLink>
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_TXN_LOG
你正在尝试使用 Delta 从以下位置创建外部表 <tableName>
:
%2$s
创建外部表,但 %2$s/_delta_log 中不存在事务日志。
%2$s/_delta_log
。 检查上游作业,确保它正在使用
格式(“delta”)写入,并且该路径是表的根。
若要详细了解 Delta,请参阅 <docLink>
DELTA_CREATE_TABLE_IDENTIFIER_LOCATION_MISMATCH
不支持创建具有不同位置的基于路径的 Delta 表。 标识符:<identifier>
,位置:<location>
DELTA_CREATE_TABLE_MISSING_TABLE_NAME_OR_LOCATION
必须指定表单名称或位置。
DELTA_CREATE_TABLE_SCHEME_MISMATCH
指定的架构与位于 <path>
的现有架构不匹配。
== Specified ==
<specifiedSchema>
== Existing ==
<existingSchema>
== Differences ==
<schemaDifferences>
如果打算保留现有架构,可以
从 create table 命令省略该架构。 否则请确保
架构匹配。
DELTA_CREATE_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
无法使用 TBLPROPERTIES 启用 <tableFeature>
表功能。 请使用 CREATE OR REPLACE TABLE CLUSTER BY 创建具有聚类分析的 Delta 表。
DELTA_CREATE_TABLE_WITH_DIFFERENT_CLUSTERING
指定的聚类分析列与 <path>
的现有聚类分析列不匹配。
== Specified ==
<specifiedColumns>
== Existing ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PARTITIONING
指定的分区与 <path>
处的现有分区不匹配。
== Specified ==
<specifiedColumns>
== Existing ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PROPERTY
指定的属性与 <path>
处的现有属性不匹配。
== Specified ==
<specifiedProperties>
== Existing ==
<existingProperties>
DELTA_CREATE_TABLE_WITH_NON_EMPTY_LOCATION
无法创建表(“<tableId>
”)。 关联的位置(“<tableLocation>
”)不为空,也不是 Delta 表。
DELTA_DATA_CHANGE_FALSE
无法更改表元数据,因为“dataChange”选项设置为 false。 尝试的操作:“<op>
”。
DELTA_DELETED_PARQUET_FILE_NOT_FOUND
找不到事务日志中引用的文件 <filePath>
。 根据 Delta 数据保留策略,可能已删除此 parquet 文件。
默认数据保留持续时间:<logRetentionPeriod>
。 Prquet 文件的修改时间:<modificationTime>
。 Prquet 文件的删除时间:<deletionTime>
。 删除的 Delta 版本:<deletionVersion>
。
DELTA_DELETION_VECTOR_MISSING_NUM_RECORDS
提交删除向量缺少 numRecords 统计信息的文件是无效操作。
DELTA_DOMAIN_METADATA_NOT_SUPPORTED
检测到域 <domainNames>
的 DomainMetadata 操作,但未启用 DomainMetadataTableFeature。
DELTA_DROP_COLUMN_AT_INDEX_LESS_THAN_ZERO
删除列的索引 <columnIndex>
低于 0
DELTA_DROP_COLUMN_ON_SINGLE_FIELD_SCHEMA
无法从具有单个列的架构中删除列。 架构:
<schema>
DELTA_DUPLICATE_ACTIONS_FOUND
针对路径 <path>
多次指定了文件操作“<actionType>
”。
它与 <conflictingPath>
冲突。
单个提交中不能存在使用相同路径的多个文件操作。
DELTA_DUPLICATE_COLUMNS_FOUND
已找到重复列 <coltype>
:<duplicateCols>
DELTA_DUPLICATE_COLUMNS_ON_INSERT
INSERT 子句中的重复列名
DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE
<message>
请在更新表之前删除重复的列。
DELTA_DUPLICATE_DATA_SKIPPING_COLUMNS
发现跳过列的重复数据:<columns>
。
DELTA_DUPLICATE_DOMAIN_METADATA_INTERNAL_ERROR
内部错误:同一事务中的两个 DomainMetadata 操作具有相同的域 <domainName>
DELTA_DV_HISTOGRAM_DESERIALIZATON
在表完整性验证期间,无法反序列化已删除的记录计数直方图。
DELTA_DYNAMIC_PARTITION_OVERWRITE_DISABLED
动态分区覆盖模式由会话配置或写入选项指定,但它已被 spark.databricks.delta.dynamicPartitionOverwrite.enabled=false
禁用。
DELTA_EMPTY_DATA
创建 Delta 表时使用的数据没有任何列。
DELTA_EMPTY_DIRECTORY
在以下目录中未找到任何文件:<directory>
。
DELTA_EXCEED_CHAR_VARCHAR_LIMIT
值“<value>
”超过 char/varchar 类型长度限制。 检查失败:<expr>
。
DELTA_FAILED_CAST_PARTITION_VALUE
无法将分区值 <value>
强制转换为 <dataType>
DELTA_FAILED_FIND_ATTRIBUTE_IN_OUTPUT_COLUMNS
在现有目标输出 <targetOutputColumns>
中找不到 <newAttributeName>
DELTA_FAILED_INFER_SCHEMA
无法从给定的文件列表推断架构。
DELTA_FAILED_MERGE_SCHEMA_FILE
无法合并文件 <file>
的架构:
<schema>
DELTA_FAILED_READ_FILE_FOOTER
无法读取文件的页脚:<currentFile>
DELTA_FAILED_RECOGNIZE_PREDICATE
无法识别谓词“<predicate>
”
DELTA_FAILED_SCAN_WITH_HISTORICAL_VERSION
需要对最新版本的 Delta 源进行完全扫描,但找到了版本 <historicalVersion>
的历史扫描
DELTA_FAILED_TO_MERGE_FIELDS
未能合并字段“<currentField>
”和“<updateField>
”
DELTA_FEATURES_PROTOCOL_METADATA_MISMATCH
无法对此表执行操作,因为以下表功能已在元数据中已启用,但在协议中未列出:<features>
。
DELTA_FEATURES_REQUIRE_MANUAL_ENABLEMENT
需要手动为表架构启用以下表功能:<unsupportedFeatures>
。
为此,请对上面列出的每个功能运行以下命令:
ALTER TABLE table_name SET TBLPROPERTIES ('delta.feature.feature_name' = 'supported')
将“table_name”和“feature_name”替换为实际值。
当前支持的功能:<supportedFeatures>
。
DELTA_FEATURE_DROP_CONFLICT_REVALIDATION_FAIL
无法删除功能,因为并发事务修改了表。
请重试此操作。
<concurrentCommit>
DELTA_FEATURE_DROP_DEPENDENT_FEATURE
无法删除表特征 <feature>
,因为此表中的一些其他特征 (<dependentFeatures>
) 依赖于 <feature>
。
在删除此特征之前,请考虑先删除它们。
DELTA_FEATURE_DROP_FEATURE_NOT_PRESENT
无法从此表中删除 <feature>
,因为它当前不存在于该表的协议中。
DELTA_FEATURE_DROP_HISTORICAL_VERSIONS_EXIST
无法删除 <feature>
,因为 Delta 日志包含使用该功能的历史版本。
请等到历史记录保持期 (<logRetentionPeriodKey>
=<logRetentionPeriod>
)
是时间已经过去,自上次激活该功能以来。
或者,请等待 TRUNCATE HISTORY 保留期到期 (<truncateHistoryLogRetentionPeriod>
)
然后运行:
ALTER TABLE table_name DROP FEATURE feature_name TRUNCATE HISTORY
DELTA_FEATURE_DROP_HISTORY_TRUNCATION_NOT_ALLOWED
特定功能不需要历史记录截断。
DELTA_FEATURE_DROP_NONREMOVABLE_FEATURE
无法删除 <feature>
,因为不支持删除此功能。
请联系 Databricks 支持人员。
DELTA_FEATURE_DROP_UNSUPPORTED_CLIENT_FEATURE
无法删除 <feature>
,因为此 Databricks 版本不支持它。
请考虑将 Databricks 与更高版本配合使用。
DELTA_FEATURE_DROP_WAIT_FOR_RETENTION_PERIOD
删除 <feature>
部分成功。
当前版本的表中不再使用该功能。 但是,该功能
仍存在于表的历史版本中。 无法删除表功能
从表协议中,直到到这些历史版本已过期。
若要从协议中删除表功能,请等待历史版本
过期,然后重复此命令。 历史版本的保持期为
当前已配置为 <logRetentionPeriodKey>
=<logRetentionPeriod>
。
或者,请等待 TRUNCATE HISTORY 保留期到期 (<truncateHistoryLogRetentionPeriod>
)
然后运行:
ALTER TABLE table_name DROP FEATURE feature_name TRUNCATE HISTORY
DELTA_FEATURE_REQUIRES_HIGHER_READER_VERSION
无法启用表功能 <feature>
,因为它需要更高的读取器协议版本(当前为 <current>
)。 请考虑将表的读取器协议版本升级到 <required>
,或升级到支持读取器表功能的版本。 有关表协议版本的详细信息,请参阅 <docLink>
。
DELTA_FEATURE_REQUIRES_HIGHER_WRITER_VERSION
无法启用表功能 <feature>
,因为它需要更高的编写器协议版本(当前为 <current>
)。 请考虑将表的编写器协议版本升级到 <required>
,或升级到支持编写器表功能的版本。 有关表协议版本的详细信息,请参阅 <docLink>
。
DELTA_FILE_ALREADY_EXISTS
现有文件路径 <path>
DELTA_FILE_LIST_AND_PATTERN_STRING_CONFLICT
无法同时指定文件列表和模式字符串。
DELTA_FILE_NOT_FOUND
文件路径 <path>
DELTA_FILE_NOT_FOUND_DETAILED
找不到事务日志中引用的文件 <filePath>
。 如果已从文件系统中手动删除数据,而不是使用表 DELETE
语句进行删除,则会发生这种情况。 有关详细信息,请参阅 <faqPath>
DELTA_FILE_OR_DIR_NOT_FOUND
无此类文件或目录:<path>
DELTA_FILE_TO_OVERWRITE_NOT_FOUND
未在候选文件中找到要重写的文件 (<path>
):
<pathList>
DELTA_FOUND_MAP_TYPE_COLUMN
已找到 MapType。 若要访问 MapType 的键或值,请指定一个
:
<key>
或
<value>
后跟列的名称(仅当该列是结构类型时)。
例如 mymap.key.mykey
如果列是基本类型,mymap.key 或 mymap.value 就足够了。
架构:
<schema>
DELTA_GENERATED_COLUMNS_DATA_TYPE_MISMATCH
列 <columnName>
具有数据类型 <columnType>
,无法更改为数据类型 <dataType>
,因为以下生成的列引用了此列:
<generatedColumns>
DELTA_GENERATED_COLUMNS_DEPENDENT_COLUMN_CHANGE
无法更改列 <columnName>
,因为以下生成的列引用了此列:
<generatedColumns>
DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH
生成的列 <columnName>
的表达式类型为 <expressionType>
,但列类型为 <columnType>
DELTA_GENERATED_COLUMN_UPDATE_TYPE_MISMATCH
列 <currentName>
是生成的列或由生成的列使用的列。 数据类型为 <currentDataType>
,无法转换为数据类型 <updateDataType>
DELTA_ICEBERG_COMPAT_VIOLATION
IcebergCompatV<version>
的验证失败。
有关更多详细信息,请参阅 DELTA_ICEBERG_COMPAT_VIOLATION
DELTA_IDENTITY_COLUMNS_ALTER_COLUMN_NOT_SUPPORTED
IDENTITY 列不支持 ALTER TABLE ALTER COLUMN。
DELTA_IDENTITY_COLUMNS_ALTER_NON_DELTA_FORMAT
ALTER TABLE ALTER COLUMN SYNC IDENTITY 仅受 Delta 支持。
DELTA_IDENTITY_COLUMNS_ALTER_NON_IDENTITY_COLUMN
不能对非 IDENTITY 列调用 ALTER TABLE ALTER COLUMN SYNC IDENTITY。
DELTA_IDENTITY_COLUMNS_EXPLICIT_INSERT_NOT_SUPPORTED
不支持为 GENERATED ALWAYS AS IDENTITY 列 <colName>
提供值。
DELTA_IDENTITY_COLUMNS_ILLEGAL_STEP
IDENTITY 列步长不能为 0。
DELTA_IDENTITY_COLUMNS_NON_DELTA_FORMAT
IDENTITY 列仅受 Delta 支持。
DELTA_IDENTITY_COLUMNS_PARTITION_NOT_SUPPORTED
不支持 PARTITIONED BY IDENTITY 列 <colName>
。
DELTA_IDENTITY_COLUMNS_REPLACE_COLUMN_NOT_SUPPORTED
具有 IDENTITY 列的表不支持 ALTER TABLE REPLACE COLUMNS。
DELTA_IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE
IDENTITY 列不支持 DataType <dataType>
。
DELTA_IDENTITY_COLUMNS_UPDATE_NOT_SUPPORTED
不支持 UPDATE on IDENTITY 列 <colName>
。
DELTA_IDENTITY_COLUMNS_WITH_GENERATED_EXPRESSION
不能使用生成的列表达式来指定 IDENTITY 列。
DELTA_ILLEGAL_OPTION
选项“<name>
”的值“<input>
”无效,<explain>
DELTA_ILLEGAL_USAGE
对 Delta 表执行 <operation>
时不允许使用 <option>
。
DELTA_INCONSISTENT_BUCKET_SPEC
Delta 存储表上的 BucketSpec 与元数据中的 BucketSpec 不匹配。应为:<expected>
。 实际为:<actual>
。
DELTA_INCONSISTENT_LOGSTORE_CONFS
(<setKeys>
) 不能设置为不同的值。 请仅设置其中的一个,或将其设置为相同的值。
DELTA_INCORRECT_ARRAY_ACCESS
错误访问 ArrayType。 使用 arrayname.element.elementname 位置
添加到数组。
DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME
已找到 ArrayType。 要访问 ArrayType 的元素,请指定
<rightName>
,而不是 <wrongName>
。
架构:
<schema>
DELTA_INCORRECT_GET_CONF
使用 getConf()
而不是 `conf.getConf()
DELTA_INCORRECT_LOG_STORE_IMPLEMENTATION
该错误通常在使用 LogStore 默认实现
(即 hdfslostore)在非 HDFS 存储系统上写入 Delta 表时发生。
若要获取表更新的事务 ACID 保证,必须使用
适合你的存储系统的正确 LogStore 实现。
有关详细信息,请参阅<docLink>
。
DELTA_INDEX_LARGER_OR_EQUAL_THAN_STRUCT
删除列的索引 <position>
等于或大于结构长度:<length>
DELTA_INDEX_LARGER_THAN_STRUCT
添加列 <columnName>
的索引 <index>
大于结构长度:<length>
DELTA_INSERT_COLUMN_ARITY_MISMATCH
无法写入“<tableName>
”<columnName>
;目标表具有 <numColumns>
列,但插入的数据具有 <insertColumns>
列
DELTA_INSERT_COLUMN_MISMATCH
在 INSERT 中未指定列 <columnName>
DELTA_INVALID_AUTO_COMPACT_TYPE
自动压缩类型无效:<value>
。 允许的值为:<allowed>
。
DELTA_INVALID_BUCKET_COUNT
无效桶计数:<invalidBucketCount>
。 桶计数应该是一个正数,是 2 的幂,至少是 8。 可以改用 <validBucketCount>
。
DELTA_INVALID_BUCKET_INDEX
无法在分区列中找到 Bucket 列
DELTA_INVALID_CALENDAR_INTERVAL_EMPTY
间隔不能为 null 或空白。
DELTA_INVALID_CDC_RANGE
从起始值 <start>
到结束值 <end>
的 CDC 范围无效。 结束值不能早于起始值。
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAME
属性名称“<columnName>
”包含“ ,;{}()\n\t=”中的无效字符。 请使用别名对其进行重命名。
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAMES
在架构列名的“,;{}()\n\t=”中发现无效字符。
无效的列名:<invalidColumnNames>
。
请使用其他字符,然后重试。
或者,启用列映射以继续使用这些字符。
DELTA_INVALID_CLONE_PATH
CLONE 的目标位置需要是绝对路径或表名。 使用
绝对路径而不是 <path>
。
DELTA_INVALID_COLUMN_NAMES_WHEN_REMOVING_COLUMN_MAPPING
在架构列名的“,;{}()\n\t=”中发现无效字符。
无效的列名:<invalidColumnNames>
。
如果列名中存在无效字符,则无法删除列映射。
请重命名列以删除该无效字符,然后再次执行此命令。
DELTA_INVALID_FORMAT
检测到不兼容的格式。
在 <deltaRootPath>
/_delta_log`` 处找到 Delta 的事务日志,
但你正在尝试使用 format(“<format>
”) 执行 <operation>
<path>
。 必须在读取和
写入 delta 表时使用“格式(‘delta’)”。
若要详细了解 Delta,请参阅 <docLink>
DELTA_INVALID_GENERATED_COLUMN_REFERENCES
生成的列不能使用不存在的列或其他生成的列
DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS
幂等 Dataframe 写入的选项无效:<reason>
DELTA_INVALID_INTERVAL
<interval>
不是有效的 INTERVAL。
DELTA_INVALID_INVENTORY_SCHEMA
指定的 INVENTORY 的架构未包含所有必填字段。 必填字段为:<expectedSchema>
DELTA_INVALID_ISOLATION_LEVEL
隔离级别“<isolationLevel>
”无效
DELTA_INVALID_LOGSTORE_CONF
无法同时设置 <classConfig>
和 <schemeConfig>
。 请仅设置其中一组。
DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA
你正在尝试使用 Delta 创建托管表 <tableName>
但未指定架构。
若要详细了解 Delta,请参阅 <docLink>
DELTA_INVALID_PARTITION_COLUMN
<columnName>
不是表 <tableName>
中的有效分区列。
DELTA_INVALID_PARTITION_COLUMN_NAME
在“,;{}()nt=”中找到了包含无效字符的分区列。 请将名称更改为分区列。 可以通过设置 spark.conf.set(“spark.databricks.delta.partitionColumnValidity.enabled”, false) 来关闭此检查,但不建议这样做,因为 Delta 的其他功能可能无法正常工作。
DELTA_INVALID_PARTITION_COLUMN_TYPE
不支持使用 <dataType>
类型的 <name>
列作为分区列。
DELTA_INVALID_PARTITION_PATH
分区路径片段的形式应为 part1=foo/part2=bar
。 分区路径:<path>
DELTA_INVALID_PROTOCOL_DOWNGRADE
协议版本无法从 <oldProtocol>
降级到 <newProtocol>
DELTA_INVALID_PROTOCOL_VERSION
Delta 协议版本不受支持:表“<tableNameOrPath>
”需要的读取器版本为 <readerRequired>
、写入器版本为 <writerRequired>
,但此版本的 Databricks 支持的读取器版本为 <supportedReaders>
、写入器版本为 <supportedWriters>
。 请升级到较新版本。
DELTA_INVALID_TABLE_VALUE_FUNCTION
函数 <function>
是不支持用于 CDC 读取的表值函数。
DELTA_INVALID_TIMESTAMP_FORMAT
提供的时间戳 <timestamp>
与预期的语法 <format>
不匹配。
DELTA_LOG_ALREADY_EXISTS
Delta 日志已存在于 <path>
DELTA_LOG_FILE_NOT_FOUND_FOR_STREAMING_SOURCE
如果你从未删除过它,则可能是你的查询未跟上进度。 请删除其检查点以从头开始。 为了避免再次发生这种情况,可以更新 Delta 表的保留策略
DELTA_MATERIALIZED_ROW_TRACKING_COLUMN_NAME_MISSING
<tableName>
缺少具体化行 <rowTrackingColumn>
列名称。
DELTA_MAX_ARRAY_SIZE_EXCEEDED
请使用小于 Int.MaxValue - 8 的限制。
DELTA_MAX_COMMIT_RETRIES_EXCEEDED
此提交失败,因为它已尝试 <numAttempts>
次,但均未成功。
这可能是由多个并发提交连续提交 Delta 表
造成的。
提交开始于版本:<startVersion>
提交失败的版本:<failVersion>
尝试提交的操作数:<numActions>
尝试此提交所花费的总时间:<timeSpent>
ms
DELTA_MAX_LIST_FILE_EXCEEDED
文件列表必须最多有 <maxFileListSize>
个条目,实际有 <numFiles>
个。
DELTA_MERGE_ADD_VOID_COLUMN
无法添加类型为 VOID 的列 <newColumn>
。 请显式指定非 void 类型。
DELTA_MERGE_INCOMPATIBLE_DATATYPE
未能合并不兼容的数据类型 <currentDataType>
和 <updateDataType>
DELTA_MERGE_INCOMPATIBLE_DECIMAL_TYPE
无法将十进制类型与不兼容的 <decimalRanges>
合并
DELTA_MERGE_MATERIALIZE_SOURCE_FAILED_REPEATEDLY
使 MERGE 语句的源保持具体化状态反复失败。
DELTA_MERGE_MISSING_WHEN
MERGE 语句中必须至少包含一个 WHEN 子句。
DELTA_MERGE_RESOLVED_ATTRIBUTE_MISSING_FROM_INPUT
运算符 <merge>
中的 <input>
缺失已解析属性 <missingAttributes>
DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY
意外分配密钥:<unexpectedKeyClass>
- <unexpectedKeyObject>
DELTA_MERGE_UNRESOLVED_EXPRESSION
无法解析给定 <cols>
中 <clause>
的 <sqlExpr>
。
DELTA_METADATA_CHANGED
MetadataChangedException:Delta 表的元数据已由并发更新更改。 请重试该操作。<conflictingCommit>
有关更多详细信息,请参阅 <docLink>
。
DELTA_MISSING_CHANGE_DATA
获取 [<startVersion>
, <endVersion>
] 范围的更改数据时出错,因为未记录
版本 [<version>
] 的更改数据。 如果在此表上启用了更改数据馈送,
请使用 DESCRIBE HISTORY
查看它首次启用的时间。
否则,若要开始记录更改数据,请使用 `ALTER TABLE table_name SET TBLPROPERTIES
(<key>
=true)`。
DELTA_MISSING_COLUMN
无法在表列中找到 <columnName>
:<columnList>
DELTA_MISSING_COMMIT_INFO
此表启用了特征 <featureName>
,这要求每次提交中都存在 CommitInfo 操作。 但是,提交版本 <version>
中缺少 CommitInfo 操作。
DELTA_MISSING_COMMIT_TIMESTAMP
此表启用了特征 <featureName>
,这要求 CommitInfo 操作中存在 commitTimestamp。 但是,提交版本 <version>
中尚未设置此字段。
DELTA_MISSING_DELTA_TABLE
<tableName>
不是 Delta 表。
DELTA_MISSING_DELTA_TABLE_COPY_INTO
表不存在。 首先使用 CREATE TABLE <tableName>
创建空的 Delta 表。
DELTA_MISSING_ICEBERG_CLASS
找不到 Iceberg 类。 请确保已安装 Delta Iceberg 支持。
有关更多详细信息,请参阅 <docLink>
。
DELTA_MISSING_NOT_NULL_COLUMN_VALUE
写入表中的数据中缺失具有 NOT NULL 约束的 <columnName>
列。
DELTA_MISSING_PARTITION_COLUMN
在架构 <columnList>
中找不到分区列 <columnName>
DELTA_MISSING_PART_FILES
找不到检查点版本的所有部件文件:<version>
DELTA_MISSING_PROVIDER_FOR_CONVERT
CONVERT TO DELTA 仅支持 Parquet 表。 请将目标重写为 Parquet。如果它是 Parquet 目录,则为 <path>
DELTA_MISSING_SET_COLUMN
SET 列 <columnName>
没有找到给定列:<columnList>
。
DELTA_MISSING_TRANSACTION_LOG
检测到不兼容的格式。
你正在尝试使用 Delta 执行 <operation>
<path>
,但没有
事务日志。 检查上游作业,确保它正在使用
格式(“delta”)写入,并且你正在尝试 %1$s 表基路径。
若要详细了解 Delta,请参阅 <docLink>
DELTA_MODE_NOT_SUPPORTED
不支持指定模式“<mode>
”。 支持的模式包括:<supportedModes>
DELTA_MULTIPLE_CDC_BOUNDARY
为 CDC 读取提供的多个 <startingOrEnding>
参数。 请提供一个 <startingOrEnding>
时间戳或 <startingOrEnding>
版本。
DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER
传递给列命令的多个 bloom 筛选器索引配置:<columnName>
DELTA_MULTIPLE_SOURCE_ROW_MATCHING_TARGET_ROW_IN_MERGE
无法执行合并,因为多个源行匹配并尝试
以可能冲突的方式修改 Delta 表中的同一目标行。 根据合并的 SQL 语义,
当多个源行在同一目标行上匹配时,结果可能是不明确的,
因为不清楚应该使用哪一个源行来更新或删除匹配的
目标行。 你可以预处理源表来消除
出现多个匹配项的可能性。 请参阅在“建议的文档”中提供的链接中的
<usageReference>
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_COMMAND
在此期间 <command>
,两个协调提交配置(“delta.coordinatedCommits.commitCoordinator-preview”、“delta.coordinatedCommits.commitCoordinatorConf-preview”)均在命令中设置或两者均未设置。 缺少:“<configuration>
”。 请在 TBLPROPERTIES 子句中指定此配置或删除其他配置,然后再次重试该命令。
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_SESSION
在此期间 <command>
,在 SparkSession 配置中设置协调提交配置(“coordinatedCommits.commitCoordinator-preview”、“coordinatedCommits.commitCoordinatorConf-preview”)或两者均未设置。 缺少:“<configuration>
”。 请在 SparkSession 中设置此配置或取消设置其他配置,然后再次重试该命令。
DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE
以下列名仅限 Delta Bucket 表内部使用:<names>
DELTA_NESTED_FIELDS_NEED_RENAME
输入架构包含大小写与目标表不同的嵌套字段。
需要重命名它们,以避免在写入 Delta 时丢失这些字段中的数据。
字段:
<fields>
。
原始架构:
<schema>
DELTA_NESTED_NOT_NULL_CONSTRAINT
字段 <parent>
的 <nestType>
类型包含 NOT NULL 约束。 Delta 不支持嵌套在数组或映射中的 NOT NULL 约束。 若要消除此错误并以静默方式忽略指定的约束,请设置 <configKey>
= true。
分析的 <nestType>
类型:
<nestedPrettyJson>
DELTA_NESTED_SUBQUERY_NOT_SUPPORTED
<operation>
条件不支持嵌套子查询。
DELTA_NEW_CHECK_CONSTRAINT_VIOLATION
<tableName>
中有 <numRows>
行违反新的 CHECK 约束 (<checkConstraint>
)
DELTA_NEW_NOT_NULL_VIOLATION
<tableName>
中有 <numRows>
行违反 <colName>
上的新 NOT NULL 约束
DELTA_NON_BOOLEAN_CHECK_CONSTRAINT
CHECK 约束“<name>
”(<expr>
)应为布尔表达式。
DELTA_NON_DETERMINISTIC_EXPRESSION_IN_GENERATED_COLUMN
已找到 <expr>
。 生成的列不能使用非确定性表达式。
DELTA_NON_DETERMINISTIC_FUNCTION_NOT_SUPPORTED
<operation>
<expression>
中不支持非确定性函数
DELTA_NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
当 MERGE 语句中有多个 MATCHED 子句时,只有最后一个 MATCHED 子句可以省略该条件。
DELTA_NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
当 MERGE 语句中有多个 NOT MATCHED BY SOURCE 子句时,只有最后一个 NOT MATCHED BY SOURCE 子句可以省略该条件。
DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION
当 MERGE 语句中有多个 NOT MATCHED 子句时,只有最后一个 NOT MATCHED 子句可以省略该条件
DELTA_NON_PARSABLE_TAG
无法分析标记 <tag>
。
文件标记为:<tagList>
DELTA_NON_PARTITION_COLUMN_ABSENT
写入 Delta 的数据需要包含至少一个非分区列。<details>
DELTA_NON_PARTITION_COLUMN_REFERENCE
谓词引用了非分区列“<columnName>
”。 只能引用分区列:[<columnList>
]
DELTA_NON_PARTITION_COLUMN_SPECIFIED
指定了非分区列 <columnList>
,但只能指定分区列:<fragment>
。
DELTA_NON_SINGLE_PART_NAMESPACE_FOR_CATALOG
Delta 目录需要一个单部分命名空间,但 <identifier>
是多部分命名空间。
DELTA_NOT_A_DATABRICKS_DELTA_TABLE
<table>
不是 Delta 表。 如果要使用 Databricks Delta 创建表,请先删除此表。
DELTA_NOT_A_DELTA_TABLE
<tableName>
不是 Delta 表。 如果要使用 Delta Lake 重新创建表,请先删除此表。
DELTA_NOT_NULL_COLUMN_NOT_FOUND_IN_STRUCT
未在结构中找到不可为 null 的列:<struct>
DELTA_NOT_NULL_CONSTRAINT_VIOLATED
列违反了 NOT NULL 约束:<columnName>
。
DELTA_NOT_NULL_NESTED_FIELD
无法将不可为 null 的嵌套字段添加到可为空的父列。 请相应地设置父列的可为 Null 性。
DELTA_NO_COMMITS_FOUND
未在 <logPath>
处找到提交
DELTA_NO_RECREATABLE_HISTORY_FOUND
在 <logPath>
处找不到可重新创建的提交
DELTA_NO_RELATION_TABLE
找不到表 <tableIdent>
DELTA_NO_START_FOR_CDC_READ
没有为 CDC 读取提供 startingVersion 或 startingTimestamp。
DELTA_NULL_SCHEMA_IN_STREAMING_WRITE
Delta 不接受架构中的 NullType 进行流式处理写入。
DELTA_ONEOF_IN_TIMETRAVEL
请提供“timestampAsOf”或“versionAsOf”以按时间顺序查看。
DELTA_ONLY_OPERATION
<operation>
仅支持用于 Delta 表。
DELTA_OPERATION_MISSING_PATH
请为 <operation>
提供路径或表标识符。
DELTA_OPERATION_NOT_ALLOWED
不允许操作:Delta 表不支持 <operation>
DELTA_OPERATION_NOT_ALLOWED_DETAIL
不允许的操作:不支持对 Delta 表执行 <operation>
:<tableName>
DELTA_OPERATION_NOT_SUPPORTED_FOR_COLUMN_WITH_COLLATION
具有非默认排序规则 <collation>
的列 <colName>
不支持 <operation>
。
DELTA_OPERATION_NOT_SUPPORTED_FOR_EXPRESSION_WITH_COLLATION
表达式 <exprText>
不支持 <operation>
,因为它使用非默认排序规则。
DELTA_OPERATION_ON_TEMP_VIEW_WITH_GENERATED_COLS_NOT_SUPPORTED
不支持在引用 Delta 表(包含生成列)的临时视图上执行 <operation>
命令。 请直接对 Delta 表运行 <operation>
命令
DELTA_OPERATION_ON_VIEW_NOT_ALLOWED
不允许执行操作:不能对视图执行 <operation>
。
DELTA_OPTIMIZE_FULL_NOT_SUPPORTED
只有具有非空聚类分析列的聚集表才支持 OPTIMIZE FULL。
DELTA_OVERWRITE_MUST_BE_TRUE
如果未设置 OVERWRITE =“true”,则无法指定复制选项 overwriteSchema。
DELTA_OVERWRITE_SCHEMA_WITH_DYNAMIC_PARTITION_OVERWRITE
“overwriteSchema”不能在动态分区覆盖模式下使用。
DELTA_PARTITION_COLUMN_CAST_FAILED
未能将分区列 <columnName>
的值 <value>
强制转换为 <dataType>
DELTA_PARTITION_COLUMN_NOT_FOUND
在架构 [<schemaMap>
] 中找不到分区列 <columnName>
DELTA_PARTITION_SCHEMA_IN_ICEBERG_TABLES
转换 Iceberg 表时,无法指定分区架构。 系统会自动推理该架构。
DELTA_PATH_DOES_NOT_EXIST
<path>
不存在,或者不是 Delta 表。
DELTA_PATH_EXISTS
如果未设置 OVERWRITE =“true”,则无法写入已存在的路径 <path>
。
DELTA_POST_COMMIT_HOOK_FAILED
提交 Delta 表版本 <version>
成功,但在执行提交后挂钩 <name>
<message>
时出错
DELTA_PROTOCOL_CHANGED
ProtocolChangedException:Delta 表的协议版本已由并发更新更改。 <additionalInfo>
<conflictingCommit>
有关更多详细信息,请参阅 <docLink>
。
DELTA_PROTOCOL_PROPERTY_NOT_INT
协议属性 <key>
需是整数。 已找到 <value>
DELTA_READ_FEATURE_PROTOCOL_REQUIRES_WRITE
无法仅升级读取器协议版本以使用表功能。 写入器协议版本必须至少为 <writerVersion>
才能继续。 有关表协议版本的详细信息,请参阅 <docLink>
。
DELTA_READ_TABLE_WITHOUT_COLUMNS
尝试读取没有任何列的 Delta 表 <tableName>
。
使用 mergeSchema = true
选项写入一些新数据,以便能够读取表。
DELTA_REGEX_OPT_SYNTAX_ERROR
请重新检查“<regExpOption>
”的语法
DELTA_REPLACE_WHERE_IN_OVERWRITE
不能将 replaceWhere 与“按筛选器覆盖”结合使用
DELTA_REPLACE_WHERE_MISMATCH
写入的数据不符合部分表覆盖条件或约束“<replaceWhere>
”。
<message>
DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE
“replaceWhere”表达式和“partitionOverwriteMode”=“dynamic”不能在 DataFrameWriter 选项中设置。
DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET
当“dataChange”设置为 false 时,“replaceWhere”不能与数据筛选器结合使用。 筛选器:<dataFilters>
DELTA_ROW_ID_ASSIGNMENT_WITHOUT_STATS
无法分配缺少行计数统计信息的行 ID。
通过在 Scala 笔记本中运行以下代码来收集表的统计信息,然后重试:
import com.databricks.sql.transaction.tahoe.DeltaLog
import com.databricks.sql.transaction.tahoe.stats.StatisticsCollection
import org.apache.spark.sql.catalyst.TableIdentifier
val log = DeltaLog.forTable(spark, TableIdentifier(table_name))
StatisticsCollection.recompute(spark, log)
DELTA_SCHEMA_CHANGED
检测到架构更改:
流式处理源架构:<readSchema>
数据文件架构:<dataSchema>
请尝试重启查询。 如果每次重启查询后此问题重复出现,并且没有
进展,则原因是你做出了不兼容的架构更改,需要
使用新的检查点目录从头开始启动查询。
DELTA_SCHEMA_CHANGED_WITH_STARTING_OPTIONS
在版本 <version>
中检测到架构更改:
流式处理源架构:<readSchema>
数据文件架构:<dataSchema>
请尝试重启查询。 如果每次重启查询后此问题重复出现,并且没有
进展,则原因是你做出了不兼容的架构更改,需要
使用新的检查点目录从头开始启动查询。 如果该问题在更改为
新的检查点目录后仍然出现,你可能需要更改现有的
“startingVersion”或“startingTimestamp”选项,以使用新的检查点目录
从高于 <version>
的版本重新开始。
DELTA_SCHEMA_CHANGED_WITH_VERSION
在版本 <version>
中检测到架构更改:
流式处理源架构:<readSchema>
数据文件架构:<dataSchema>
请尝试重启查询。 如果每次重启查询后此问题重复出现,并且没有
进展,则原因是你做出了不兼容的架构更改,需要
使用新的检查点目录从头开始启动查询。
DELTA_SCHEMA_CHANGE_SINCE_ANALYSIS
自创建 DataFrame 或 DeltaTable 对象以来,
Delta 表的架构已经以不兼容的方式发生更改。 请重新定义 DataFrame 或 DeltaTable 对象。
更改:
<schemaDiff>
<legacyFlagMessage>
DELTA_SCHEMA_NOT_PROVIDED
未提供表架构。 使用 REPLACE 表且未提供 AS SELECT 查询时,请提供表的架构(列定义)。
DELTA_SCHEMA_NOT_SET
表架构未设置。 将数据写入其中或使用 CREATE TABLE 设置架构。
DELTA_SET_LOCATION_SCHEMA_MISMATCH
新 Delta 位置的架构不同于当前表架构。
原始架构:
<original>
目标架构:
<destination>
如果这是预期更改,可以通过运行以下内容来关闭此检查:
%%sql set <config>
= true
DELTA_SHALLOW_CLONE_FILE_NOT_FOUND
找不到事务日志中引用的文件 <filePath>
。 如果已从文件系统中手动删除数据,而不是使用表 DELETE
语句进行删除,则可能会发生这种情况。 此表似乎是浅表克隆,如果是这样,当从中克隆此表的原始表删除了该克隆仍在使用的文件时,可能会发生此错误。 如果你希望任何克隆独立于原始表,请改用 DEEP 克隆。
DELTA_SHARING_CANNOT_MODIFY_RESERVED_RECIPIENT_PROPERTY
无法修改以开头的 <prefix>
预定义属性。
DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
数据受收件人属性 <property>
的限制,此属性不适用于会话中的当前收件人。
有关更多详细信息,请参阅 DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
DELTA_SHARING_INVALID_OP_IN_EXTERNAL_SHARED_VIEW
不能在跨帐户共享的增量共享视图中使用 <operation>
。
DELTA_SHARING_INVALID_PROVIDER_AUTH
提供程序<provider>
的非法身份验证类型<authenticationType>
。
DELTA_SHARING_INVALID_RECIPIENT_AUTH
收件人<recipient>
的非法身份验证类型<authenticationType>
。
DELTA_SHARING_INVALID_SHARED_DATA_OBJECT_NAME
引用 <type>
共享内的名称无效。 可以按照 [schema].[<type>
] 格式在<type>
共享中使用 's name,也可以按照 [catalog].[ 格式使用表的原始全名。schema]。[>type>]。
如果不确定要使用的名称,则可以运行“SHOW ALL IN SHARE [share]”,并找到要删除的名称<type>
:列“name”是共享中的'名称,列“shared_object”是<type>
<type>
'原始全名。
DELTA_SHARING_MAXIMUM_RECIPIENT_TOKENS_EXCEEDED
收件人 <recipient>
有两个以上的令牌。
DELTA_SHARING_RECIPIENT_PROPERTY_NOT_FOUND
收件人属性 <property>
不存在。
DELTA_SHARING_RECIPIENT_TOKENS_NOT_FOUND
收件人缺少收件人 <recipient>
令牌。
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_COLUMN
为 SHOW PARTITIONS 指定了非分区列 <badCols>
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE
在未分区的表上不允许 SHOW PARTITIONS:<tableName>
DELTA_SOURCE_IGNORE_DELETE
在版本 <version>
的流源中检测到已删除的数据(例如 <removedFile>
)。 目前不支持。 如果要忽略删除,请将选项“ignoreDeletes”设置为“true”。 源表可以在路径 <dataPath>
中找到。
DELTA_SOURCE_TABLE_IGNORE_CHANGES
在版本 <version>
的源表中检测到数据更新(例如 <file>
)。 目前不支持。 如果这种情况经常发生,并且可以跳过更改,请将选项“skipChangeCommits”设置为“true”。 如果你想要反映数据更新,请使用全新的检查点目录重启此查询,或者如果你使用的是 DLT,请进行完全刷新。 如果需要处理这些更改,请切换到 MV。 源表可以在路径 <dataPath>
中找到。
DELTA_STARTING_VERSION_AND_TIMESTAMP_BOTH_SET
请提供“<version>
”或“<timestamp>
”
DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND
在 Parquet 元数据中找不到列的 <statsType>
统计信息:<columnPath>
。
DELTA_STREAMING_CANNOT_CONTINUE_PROCESSING_POST_SCHEMA_EVOLUTION
我们在 Delta 流式处理源中检测到 Delta 版本 <previousSchemaChangeVersion>
和 <currentSchemaChangeVersion>
之间存在一项或多项非累加架构更改 (<opType>
)。
在我们使用 <currentSchemaChangeVersion>
处的最终架构继续进行流处理之前,请检查是否要手动将架构更改传播到接收器表。
修复接收器表的架构或确定无需修复后,可以设置以下 SQL 配置之一,以解除阻止非累加架构更改并继续进行流处理。
若要仅针对此系列架构更改解除阻止此特定流,请设置 <allowCkptVerKey>` = `<allowCkptVerValue>
。
若要解除阻止此特定流,请设置 <allowCkptKey>` = `<allowCkptValue>
若要解除阻止所有流,请设置 <allowAllKey>` = `<allowAllValue>
。
或者,在适用的情况下,可以在 SQL 配置中将 <allowAllMode>
替换为 <opSpecificMode>
,以便仅解除阻止此架构更改类型的流。
DELTA_STREAMING_CHECK_COLUMN_MAPPING_NO_SNAPSHOT
检查列映射架构更改时无法获取起始版本的 Delta 日志快照。 请选择其他起始版本,或通过将“<config>
”设置为“true”来强制启用流式读取,但需自负风险。
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE
流式读取在具有读取不兼容的架构更改(例如重命名或删除或数据类型更改)的表上不受支持。
有关解决此问题的更多信息和可能的后续步骤,请查看 <docLink>
上的文档
读取的架构:<readSchema>
。 不兼容的数据架构:<incompatibleSchema>
。
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE_USE_SCHEMA_LOG
具有读取不兼容架构更改(例如重命名或删除或数据类型更改)的表不支持流式读取。
请提供“schemaTrackingLocation”,以便为 Delta 流处理启用非累加性架构演变。
有关更多详细信息,请参阅<docLink>
。
读取的架构:<readSchema>
。 不兼容的数据架构:<incompatibleSchema>
。
DELTA_STREAMING_METADATA_EVOLUTION
Delta 表的架构、表配置或协议在流式处理期间已更改。
架构或元数据跟踪日志已更新。
请重启流以使用更新的元数据继续处理。
更新的架构:<schema>
。
更新的表配置:<config>
。
更新的表协议:<protocol>
DELTA_STREAMING_SCHEMA_EVOLUTION_UNSUPPORTED_ROW_FILTER_COLUMN_MASKS
使用架构跟踪从源表 <tableId>
进行流式处理不支持行筛选器或列掩码。
请删除行筛选器或列掩码,或禁用架构跟踪。
DELTA_STREAMING_SCHEMA_LOCATION_CONFLICT
从表或位于“<table>
”的表流式传输时,检测到存在冲突的架构位置“<loc>
”。
另一个流可能正在重用相同的架构位置,这是不允许的。
请为此表中的某个流提供新的唯一 schemaTrackingLocation
路径或 streamingSourceTrackingId
作为读取器选项。
DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT
架构位置“<schemaTrackingLocation>
”必须放在检查点位置“<checkpointLocation>
”下。
DELTA_STREAMING_SCHEMA_LOG_DESERIALIZE_FAILED
“<location>
”处的 Delta 流式处理源架构日志中的日志文件不完整。
架构日志可能已损坏。 请选择新的架构位置。
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_DELTA_TABLE_ID
尝试读取 Delta 流时检测到不兼容的 Delta 表 ID。
持久化表 ID:<persistedId>
,表 ID:<tableId>
架构日志可能已重复使用。 请选择新的架构位置。
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_PARTITION_SCHEMA
尝试读取 Delta 流时检测到不兼容的分区架构。
持久化架构:<persistedSchema>
,Delta 分区架构:<partitionSchema>
如果最近手动更改了表的分区架构,请选取新的架构位置来重新初始化架构日志。
DELTA_STREAMING_SCHEMA_LOG_INIT_FAILED_INCOMPATIBLE_METADATA
无法初始化 Delta 流式处理源架构日志,因为
在提供从表版本 <a>
到 <b>
的流式处理批时,我们检测到不兼容的架构或协议更改。
DELTA_STREAMING_SCHEMA_LOG_PARSE_SCHEMA_FAILED
无法从 Delta 流式处理源架构日志分析架构。
架构日志可能已损坏。 请选择新的架构位置。
DELTA_TABLE_ALREADY_CONTAINS_CDC_COLUMNS
无法对表启用变更数据捕获。 表已包含
保留的列 <columnList>
,
这些列将在内部用作表的更改数据馈送的元数据。 若要为
表上的更改数据馈送将重命名/删除这些列。
DELTA_TABLE_ALREADY_EXISTS
表 <tableName>
已存在。
DELTA_TABLE_FOR_PATH_UNSUPPORTED_HADOOP_CONF
DeltaTable.forPath 目前仅支持以 <allowedPrefixes>
开头的 hadoop 配置键,但获取的键为 <unsupportedOptions>
DELTA_TABLE_ID_MISMATCH
<tableLocation>
处的 Delta 表已替换,但此命令使用的是该表。
表 ID 之前为 <oldId>
,但现在为 <newId>
。
请重试当前命令,确保它读取的是一致的表视图。
DELTA_TABLE_LOCATION_MISMATCH
现有表 <tableName>
的位置为 <existingTableLocation>
。 它与指定的位置 <tableLocation>
不匹配。
DELTA_TABLE_NOT_FOUND
Delta 表 <tableName>
不存在。
DELTA_TABLE_NOT_SUPPORTED_IN_OP
表在 <operation>
中不受支持。 请改用路径。
DELTA_TABLE_ONLY_OPERATION
<tableName>
不是 Delta 表。 <operation>
仅支持用于 Delta 表。
DELTA_TARGET_TABLE_FINAL_SCHEMA_EMPTY
目标表最终架构为空。
DELTA_TIMESTAMP_GREATER_THAN_COMMIT
提供的时间戳 (<providedTimestamp>
) 晚于此
表 (<tableName>
) 可用的最新版本。 请使用早于或等于 <maximumTimestamp>
的时间戳。
DELTA_TIMESTAMP_INVALID
提供的时间戳 (<expr>
) 无法转换为有效时间戳。
DELTA_TIME_TRAVEL_INVALID_BEGIN_VALUE
<timeTravelKey>
需是有效的开始值。
DELTA_TRUNCATED_TRANSACTION_LOG
<path>
:由于手动删除或日志保留策略 (<logRetentionKey>
=<logRetention>
) 和检查点保留策略 (<checkpointRetentionKey>
=<checkpointRetention>
) 导致事务日志被截断,无法在版本 <version>
中重构状态
DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED
不允许操作:Delta 表上的 TRUNCATE TABLE 不支持分区谓词;使用 DELETE 删除特定的分区或行。
DELTA_UDF_IN_GENERATED_COLUMN
已找到 <udfExpr>
。 生成的列不能使用用户定义的函数
DELTA_UNEXPECTED_ACTION_EXPRESSION
意外的操作表达式 <expression>
。
DELTA_UNEXPECTED_NUM_PARTITION_COLUMNS_FROM_FILE_NAME
需要 <expectedColsSize>
分区列 <parsedColsSize>
,但通过分析文件名 <path>
找到了 <expectedCols>
分区列 <parsedCols>
DELTA_UNEXPECTED_PARTIAL_SCAN
应对 Delta 源进行完整扫描,但发现只扫描了一部分。 path:<path>
DELTA_UNEXPECTED_PARTITION_COLUMN_FROM_FILE_NAME
需要分区列 <expectedCol>
,但通过分析文件名 <path>
找到了分区列 <parsedCol>
DELTA_UNEXPECTED_PARTITION_SCHEMA_FROM_USER
用于调用 CONVERT TO DELTA 的分区架构不同于从目录推理的分区架构,请避免提供架构,以便可以从目录中选择分区架构。
目录分区架构:
<catalogPartitionSchema>
提供的分区架构:
<userPartitionSchema>
DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
具有 Delta Uniform 的 Read Iceberg 的失败。
有关更多详细信息,请参阅 DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED
不支持创建或刷新统一入口表。
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED_FORMAT
不支持格式 <fileFormat>
。 仅支持作为原始文件格式的 iceberg。
DELTA_UNIFORM_NOT_SUPPORTED
仅 Unity Catalog 表支持通用格式。
DELTA_UNIVERSAL_FORMAT_CONVERSION_FAILED
未能将表版本 <version>
转换为通用格式 <format>
。 <message>
DELTA_UNIVERSAL_FORMAT_VIOLATION
通用格式 (<format>
) 验证失败:<violation>
DELTA_UNKNOWN_CONFIGURATION
指定了未知配置:<config>
DELTA_UNKNOWN_PRIVILEGE
未知特权:<privilege>
DELTA_UNKNOWN_READ_LIMIT
未知 ReadLimit:<limit>
DELTA_UNRECOGNIZED_COLUMN_CHANGE
无法识别的列更改 <otherClass>
。 运行的 Delta Lake 版本可能已过时。
DELTA_UNRECOGNIZED_INVARIANT
无法识别的不变量。 请升级 Spark 版本。
DELTA_UNRECOGNIZED_LOGFILE
无法识别的日志文件 <fileName>
DELTA_UNSET_NON_EXISTENT_PROPERTY
已尝试取消设置表 <tableName>
中不存在的属性“<property>
”
DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE
<path>
不支持使用绝对路径添加文件
DELTA_UNSUPPORTED_ALTER_TABLE_CHANGE_COL_OP
ALTER TABLE CHANGE COLUMN 不支持将列 <fieldPath>
从 <oldField>
更改为 <newField>
DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP
ALTER TABLE REPLACE COLUMNS 操作不受支持。 原因:<details>
无法将架构从
<oldSchema>
to:
<newSchema>
DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE
你尝试将现有表 (<tableName>
) 替换为 CLONE。 此操作
不受支持。 尝试使用其他 CLONE 目标位置或删除当前目标位置中的表。
DELTA_UNSUPPORTED_COLUMN_MAPPING_MODE_CHANGE
不支持将列映射模式从“<oldMode>
”更改为“<newMode>
”。
DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL
当前表协议版本不支持使用
使用 <config>
。
列映射所需的 Delta 协议版本:
<requiredVersion>
表的当前 Delta 协议版本:
<currentVersion>
<advice>
DELTA_UNSUPPORTED_COLUMN_MAPPING_SCHEMA_CHANGE
检测到架构更改:
旧架构:
<oldTableSchema>
新架构:
<newTableSchema>
在更改列映射模式期间不允许更改架构。
DELTA_UNSUPPORTED_COLUMN_MAPPING_WRITE
不支持使用列映射模式写入数据。
DELTA_UNSUPPORTED_COLUMN_TYPE_IN_BLOOM_FILTER
不支持在类型为 <dataType>
的列上创建 bloom 筛选器索引:<columnName>
DELTA_UNSUPPORTED_COMMENT_MAP_ARRAY
无法向 <fieldPath>
添加注释。 不支持向映射键/值或数组元素添加注释。
DELTA_UNSUPPORTED_DATA_TYPES
发现有列使用不受支持的数据类型:<dataTypeList>
。 可以将“<config>
”设置为“false”以禁用类型检查。 禁用此类型检查后,用户可以创建不受支持的 Delta 表,并且仅应在尝试读取/写入旧表时使用此选项。
DELTA_UNSUPPORTED_DATA_TYPE_IN_GENERATED_COLUMN
<dataType>
不能是生成的列的结果
DELTA_UNSUPPORTED_DEEP_CLONE
此 Delta 版本不支持深度克隆。
DELTA_UNSUPPORTED_DESCRIBE_DETAIL_VIEW
<view>
是视图。 只有表支持 DESCRIBE DETAIL。
DELTA_UNSUPPORTED_DROP_CLUSTERING_COLUMN
不允许删除群集列 (<columnList>
)。
DELTA_UNSUPPORTED_DROP_COLUMN
Delta 表不支持 DROP COLUMN。 <advice>
DELTA_UNSUPPORTED_DROP_NESTED_COLUMN_FROM_NON_STRUCT_TYPE
只能从 StructType 中删除嵌套列。 已找到 <struct>
DELTA_UNSUPPORTED_DROP_PARTITION_COLUMN
不允许删除分区列 (<columnList>
)。
DELTA_UNSUPPORTED_EXPRESSION
<causedBy>
不支持的表达式类型 (<expType>
)。 支持的类型为 [<supportedTypes>
]。
DELTA_UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
无法在生成的列中使用 <expression>
DELTA_UNSUPPORTED_FEATURES_FOR_READ
Delta 读取功能不受支持:表“<tableNameOrPath>
”需要此版本的 Databricks 不支持的读取器表功能:<unsupported>
。 有关 Delta Lake 功能兼容性的详细信息,请参阅 <link>
。
DELTA_UNSUPPORTED_FEATURES_FOR_WRITE
Delta 写入功能不受支持:表“<tableNameOrPath>
”需要此版本的 Databricks 不支持的写入器表功能:<unsupported>
。 有关 Delta Lake 功能兼容性的详细信息,请参阅 <link>
。
DELTA_UNSUPPORTED_FEATURES_IN_CONFIG
此版本的 Databricks 未识别在以下 Spark 配置或 Delta 表属性中配置的表功能:<configs>
。
DELTA_UNSUPPORTED_FEATURE_STATUS
预期表功能 <feature>
的状态是“受支持”,但收到“<status>
”。
DELTA_UNSUPPORTED_FIELD_UPDATE_NON_STRUCT
仅 StructType 支持更新嵌套字段,但你在尝试更新类型为 <dataType>
的 <columnName>
的字段。
DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS
包含缺失删除向量文件的表版本不支持“FSCK REPAIR TABLE”命令。
请联系客户支持。
DELTA_UNSUPPORTED_GENERATE_WITH_DELETION_VECTORS
删除矢量的表版本不支持“GENERATE symlink_format_manifest”命令。
若要在不删除向量的情况下生成表的版本,请运行“REORG TABLE table APPLY (PURGE)”。 然后重新运行“GENERATE”命令。
请确保没有并发事务再次在 REORG 和 GENERATE 之间添加删除向量。
如果需要定期生成清单,或者无法阻止并发事务,请考虑使用“ALTER TABLE table SET TBLPROPERTIES (delta.enableDeletionVectors = false)”禁用此表中的删除向量。
DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT
不支持 StructType 以外的嵌套字段上的不变量。
DELTA_UNSUPPORTED_IN_SUBQUERY
<operation>
条件中不支持 In 子查询。
DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX
listKeywithPrefix 不可用
DELTA_UNSUPPORTED_MANIFEST_GENERATION_WITH_COLUMN_MAPPING
利用列映射的表不支持清单生成,因为外部读取器无法读取这些 Delta 表。 有关更多详细信息,请参阅 Delta 文档。
DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC
带有架构演变的 MERGE INTO 操作目前不支持写入 CDC 输出。
DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE
<operation>
条件中不支持多列 In 谓词。
DELTA_UNSUPPORTED_NESTED_COLUMN_IN_BLOOM_FILTER
目前不支持在嵌套列 <columnName>
上创建 bloom 筛选器索引
DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION
<operation>
中不支持嵌套字段(字段 = <fieldName>
)。
DELTA_UNSUPPORTED_NON_EMPTY_CLONE
克隆目标表不为空。 在运行 CLONE 之前请对表运行 TRUNCATE 或 DELETE FROM。
DELTA_UNSUPPORTED_OUTPUT_MODE
数据源 <dataSource>
不支持 <mode>
输出模式
DELTA_UNSUPPORTED_PARTITION_COLUMN_IN_BLOOM_FILTER
不支持在分区列 <columnName>
上创建 bloom 筛选器索引
DELTA_UNSUPPORTED_RENAME_COLUMN
Delta 表不支持列重命名。 <advice>
DELTA_UNSUPPORTED_SCHEMA_DURING_READ
Delta 不支持在读取时指定架构。
DELTA_UNSUPPORTED_SORT_ON_BUCKETED_TABLES
Delta Bucket 表不支持 SORTED BY
DELTA_UNSUPPORTED_SOURCE
<operation>
目标仅支持 Delta 源。
<plan>
DELTA_UNSUPPORTED_STATIC_PARTITIONS
目前在插入期间不支持在分区规格中指定静态分区
DELTA_UNSUPPORTED_STRATEGY_NAME
不支持的策略名称:<strategy>
DELTA_UNSUPPORTED_SUBQUERY
<operation>
(条件 = <cond>
)中不支持子查询。
DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES
分区谓词中不支持子查询。
DELTA_UNSUPPORTED_TIME_TRAVEL_MULTIPLE_FORMATS
无法以多种格式指定“按时间顺序查看”。
DELTA_UNSUPPORTED_TIME_TRAVEL_VIEWS
无法按时间顺序查看视图、子查询、流或更改数据馈送查询。
DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES
不支持截断示例表
DELTA_UNSUPPORTED_TYPE_CHANGE_IN_SCHEMA
由于应用了不支持的类型更改,无法对此表执行操作。 字段 <fieldName>
已从 <fromType>
更改为 <toType>
。
DELTA_UNSUPPORTED_VACUUM_SPECIFIC_PARTITION
清空 Delta 表时,请提供基本路径 (<baseDeltaPath>
)。 目前不支持清空特定分区。
DELTA_UNSUPPORTED_WRITES_STAGED_TABLE
表实现不支持写入操作:<tableName>
DELTA_UNSUPPORTED_WRITES_WITHOUT_COORDINATOR
您正尝试对已向提交协调器 <coordinatorName>
注册的表执行写入操作。 但是,当前环境中不提供此协调器实现,不允许在没有协调器的情况下进行写入。
DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES
不支持写入示例表
DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION
无法将 <fromCatalog>
强制转换为 <toCatalog>
。 所有嵌套列必须匹配。
DELTA_VACUUM_COPY_INTO_STATE_FAILED
数据文件上的 VACUUM 成功,但 COPY INTO 状态垃圾回收失败。
DELTA_VERSIONS_NOT_CONTIGUOUS
版本 (<versionList>
) 不是连续的。
有关更多详细信息,请参阅 DELTA_VERSIONS_NOT_CONTIGUOUS
DELTA_VIOLATE_CONSTRAINT_WITH_VALUES
具有值的行违反了 CHECK 约束 <constraintName>
<expression>
:
<values>
DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
违反了表 <table>
的属性验证:
有关更多详细信息,请参阅 DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
DELTA_WRITE_INTO_VIEW_NOT_SUPPORTED
<viewIdentifier>
是视图。 不能将数据写入视图。
DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST
数据架构中不存在 Z 排序列 <columnName>
。
DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS
<cols>
上的 Z 排序将
无效,因为我们目前不收集这些列的统计数据。 请参阅在“建议的文档”中提供的链接中的
<link>
有关数据跳过和 Z 排序的详细信息。 可以通过
设置“%%sql set = false”
“%%sql set <zorderColStatKey>
= false”禁用此检查
DELTA_ZORDERING_ON_PARTITION_COLUMN
<colName>
是分区列。 只能对数据列执行 Z 排序
自动换带机
CF_ADD_NEW_NOT_SUPPORTED
指定了架构时不支持架构演变模式 <addNewColumnsMode>
。 若要使用此模式,可以通过 cloudFiles.schemaHints
提供架构。
CF_AMBIGUOUS_AUTH_OPTIONS_ERROR
找到了(默认)目录列表模式的通知设置
身份验证选项:
<options>
如果要使用文件通知模式,请显式设置:
.option(“cloudFiles.<useNotificationsKey>
”, “true”)
如果要跳过选项验证步骤并忽略这些
身份验证选项,也可以设置:
.option("cloudFiles.ValidateOptionsKey>", "false")
CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR
增量列表模式 (cloudFiles.<useIncrementalListingKey>
)
和文件通知 (cloudFiles.<useNotificationsKey>
)
已同时启用。
请确保仅选择一个。
CF_AZURE_STORAGE_SUFFIXES_REQUIRED
Azure 需要 adlsBlobSuffix 和 adlsDfsSuffix
CF_BUCKET_MISMATCH
文件事件 <fileEvent>
中的 <storeType>
与源 <source>
所预期的不同。
CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY
架构日志为空时无法演变架构。 架构日志位置:<logPath>
CF_CANNOT_PARSE_QUEUE_MESSAGE
无法分析以下队列消息:<message>
CF_CANNOT_RESOLVE_CONTAINER_NAME
无法从路径 <path>
解析容器名称,解析的 URI 为 <uri>
CF_CANNOT_RUN_DIRECTORY_LISTING
当有异步回填线程在运行时,无法运行目录列表
CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON
无法同时打开 cloudFiles.cleanSource 和 cloudFiles.allowOverwrites。
CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION
自动加载程序无法删除已处理的文件,因为它对源目录没有写入权限。
<reason>
若要修复,可以执行以下操作之一:
- 授予对源目录的写入权限或
- 将 cleanSource 设置为“关”
还可以通过将 SQLConf spark.databricks.cloudFiles.cleanSource.disabledDueToAuthorizationErrors 设置为“true”来取消阻止流。
CF_DUPLICATE_COLUMN_IN_DATA
尝试推断表的分区架构时出错。 在数据和分区路径中复制了相同的列。 要忽略分区值,请使用 .option(“cloudFiles.<partitionColumnsKey>
”, “{comma-separated-list}”) 显式提供分区列
CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE
输入路径 <path>
为空时无法推断架构。 请在输入路径中存在文件时尝试启动流,或指定架构。
CF_EVENT_GRID_AUTH_ERROR
无法创建事件网格订阅。 请确保服务
主体具有 <permissionType>
事件网格订阅。 有关详细信息,请参阅:
<docLink>
CF_EVENT_GRID_CREATION_FAILED
无法创建事件网格订阅。 请确保 Microsoft.EventGrid
在订阅中注册为资源提供程序。 有关详细信息,请参阅:
<docLink>
CF_EVENT_GRID_NOT_FOUND_ERROR
无法创建事件网格订阅。 请确保存储
帐户 (<storageAccount>
) 位于资源组 (<resourceGroup>
) 的下面,并且
存储帐户是“StorageV2(常规用途 v2)”帐户。 有关详细信息,请参阅:
<docLink>
CF_EVENT_NOTIFICATION_NOT_SUPPORTED
<cloudStore>
不支持自动加载程序事件通知模式。
CF_FAILED_TO_CHECK_STREAM_NEW
无法检查流是否为新流
CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION
无法创建订阅 <subscriptionName>
。 已存在同名订阅,并与另一个主题 <otherTopicName>
相关联。 所需主题为 <proposedTopicName>
。 要么删除现有订阅,要么创建采用新资源后缀的订阅。
CF_FAILED_TO_CREATED_PUBSUB_TOPIC
无法创建主题 <topicName>
。 已存在同名的主题。<reason>
请删除现有主题或使用其他资源后缀重试
CF_FAILED_TO_DELETE_GCP_NOTIFICATION
未能删除主题 <topicName>
的存储桶 <bucketName>
上 ID 为 <notificationId>
的通知。 请重试或通过 GCP Console 手动删除通知。
CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA
无法从字符串反序列化持久化架构:“<jsonSchema>
”
CF_FAILED_TO_EVOLVE_SCHEMA
无法在没有架构日志的情况下演变架构。
CF_FAILED_TO_FIND_PROVIDER
找不到 <fileFormatInput>
的提供程序
CF_FAILED_TO_INFER_SCHEMA
无法从输入路径 <path>
中的现有文件推断 <fileFormatInput>
格式的架构。
有关更多详细信息,请参阅 CF_FAILED_TO_INFER_SCHEMA
CF_FAILED_TO_WRITE_TO_SCHEMA_LOG
无法写入位于 <path>
的架构日志。
CF_FILE_FORMAT_REQUIRED
无法找到所需选项:cloudFiles.format。
CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS
发现主题 <topicName>
有多个(<num>
个)订阅使用自动加载程序前缀:
<subscriptionList>
每个主题只能有一个订阅。 请手动确保主题没有多个订阅。
CF_GCP_AUTHENTICATION
请提供以下所有凭据:<clientEmail>
、<client>
、
<privateKey>
和 <privateKeyId>
,或者一个都不提供,以使用默认的
GCP 凭据提供程序链对 GCP 资源进行身份验证。
CF_GCP_LABELS_COUNT_EXCEEDED
收到太多 GCP 资源的标签(<num>
个)。 每项资源的最大标签计数为 <maxNum>
。
CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED
收到太多 GCP 资源的资源标记(<num>
个)。 每项资源的最大资源标记计数为 <maxNum>
,因为资源标记存储为资源上的 GCP 标签,而特定于 Databricks 的标记会消耗一部分标签配额。
CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG
路径 <path>
上的架构日志中的日志文件不完整
CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT
自动加载程序检查点中的元数据文件不完整
CF_INCORRECT_SQL_PARAMS
cloud_files 方法接受两个必需的字符串参数:要从中加载的路径,以及文件格式。 必须在字符串键值映射中提供文件读取器选项。 例如,cloud_files(“path”、“json”、map(“option1”、“value1”))。 收到:<params>
CF_INTERNAL_ERROR
内部错误。
有关更多详细信息,请参阅 CF_INTERNAL_ERROR
CF_INVALID_ARN
无效 ARN:<arn>
CF_INVALID_AZURE_CERTIFICATE
无法分析随选项 cloudFiles.certificate 提供的私钥。 请提供 PEM 格式的有效公钥。
CF_INVALID_AZURE_CERT_PRIVATE_KEY
无法分析随选项 cloudFiles.certificatePrivateKey 提供的私钥。 请提供 PEM 格式的有效私钥。
CF_INVALID_CHECKPOINT
此检查点不是有效的 CloudFiles 源
CF_INVALID_CLEAN_SOURCE_MODE
清理源选项 <value>
的模式无效。
CF_INVALID_GCP_RESOURCE_TAG_KEY
GCP 资源的资源标记密钥 <key>
无效。 密钥必须以小写字母开头,长度在 1-63 个字符之间,并且仅包含小写字母、数字、下划线 (_) 和连字符 (-)。
CF_INVALID_GCP_RESOURCE_TAG_VALUE
GCP 资源的资源标记值 <value>
无效。 值的长度必须在 0-63 个字符之间,并且仅包含小写字母、数字、下划线 (_) 和连字符 (-)。
CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS
自动加载程序与托管文件事件一起使用时,不支持以下选项:
<optionList>
建议删除这些选项,然后重启流。
CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
来自托管文件事件服务的响应无效。 请联系 Databricks 支持人员获取帮助。
有关更多详情,请参阅 CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
CF_INVALID_SCHEMA_EVOLUTION_MODE
cloudFiles.<schemaEvolutionModeKey>
必须是下列其中一项:{
“<addNewColumns>
”
“<failOnNewColumns>
”
“<rescue>
”
“<noEvolution>
”}
CF_INVALID_SCHEMA_HINTS_OPTION
架构提示只能指定特定列一次。
在这种情况下,请在架构提示中多次重新定义列:<columnName>
多次重新定义列
<schemaHints>
CF_INVALID_SCHEMA_HINT_COLUMN
架构提示无法用于覆盖映射和数组的嵌套类型。
有冲突的列:<columnName>
CF_LATEST_OFFSET_READ_LIMIT_REQUIRED
应在此源上使用 ReadLimit 调用 latestOffset。
CF_LOG_FILE_MALFORMED
日志文件格式不正确:无法从 <fileName>
中读取正确的日志版本。
CF_MANAGED_FILE_EVENTS_BACKFILL_IN_PROGRESS
已请求自动加载程序通过将 includeExistingFiles 设置为 false 来忽略外部位置中的现有文件。 但是,托管文件事件服务仍在外部位置发现了现有文件。 请在托管文件事件服务发现外部位置的所有文件后重试。
CF_MANAGED_FILE_EVENTS_ENDPOINT_NOT_FOUND
已将自动加载程序用于托管文件事件,但输入路径“<path>
”的外部位置似乎并未启用文件事件或输入路径无效。 请请求 Databricks 管理员在输入路径的外部位置启用文件事件。
CF_MANAGED_FILE_EVENTS_ENDPOINT_PERMISSION_DENIED
已将自动加载程序用于托管文件事件,但无法访问输入路径“<path>
”的外部位置或卷或输入路径无效。 请请求 Databricks 管理员授予外部位置或卷的读取权限,或在现有外部位置或卷中提供有效的输入路径。
CF_MANAGED_FILE_EVENTS_ONLY_ON_SERVERLESS
只能在 Databricks 无服务器版本上使用托管文件事件的自动加载程序。 若要继续,请将此工作负载移动到 Databricks 无服务器版本或关闭 cloudFiles.useManagedFileEvents 选项。
CF_MAX_MUST_BE_POSITIVE
最大值必须为正数
CF_METADATA_FILE_CONCURRENTLY_USED
多个流式处理查询在同时使用 <metadataFile>
CF_MISSING_METADATA_FILE_ERROR
流式处理源检查点目录中的元数据文件丢失。 此元数据
文件包含流的重要默认选项,因此流无法立即
重启。 请联系 Databricks 支持人员获取帮助。
CF_MISSING_PARTITION_COLUMN_ERROR
提供的架构中不存在分区列 <columnName>
:
<schema>
CF_MISSING_SCHEMA_IN_PATHLESS_MODE
如果在使用文件通知模式时未向 CloudFiles 源提供路径,请使用 .schema() 指定架构。 若要让自动加载程序推断架构,也可在 .load () 中提供基本路径。
CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC
在存储桶 <topicName>
上发现主题 <bucketName>
的现有通知:
notification,id
<notificationList>
若要避免意外事件污染订阅服务器,请删除上述通知并重试。
CF_NEW_PARTITION_ERROR
从文件中推断出新的分区列:[<filesList>
]。 请提供架构中的所有分区列,或者提供想要通过使用 .option("cloudFiles.partitionColumns", "{comma-separated-list|empty-string}") 提取其中的值的分区列列表
CF_PARTITON_INFERENCE_ERROR
尝试推断当前文件批次的分区架构时出错。 请使用:.option(“cloudFiles.<partitionColumnOption>
”, “{comma-separated-list}”) 显式提供分区列
CF_PATH_DOES_NOT_EXIST_FOR_READ_FILES
当输入路径 <path>
不存在时无法读取文件。 请确保该输入路径存在,然后重试。
CF_PERIODIC_BACKFILL_NOT_SUPPORTED
如果禁用异步回填,则不支持定期回填。 可以通过将 spark.databricks.cloudFiles.asyncDirListing
设置为 true 来启用异步回填/目录列表
CF_PREFIX_MISMATCH
找到不匹配的事件:密钥 <key>
未包含前缀:<prefix>
CF_PROTOCOL_MISMATCH
<message>
如果无需对代码进行任何其他更改,请设置 SQL
配置:“<sourceProtocolVersionKey>
= <value>
”
以恢复流。 请参阅:
<docLink>
以获取更多详细信息。
CF_REGION_NOT_FOUND_ERROR
无法获取默认 AWS 区域。 请使用 cloudFiles.region 选项指定区域。
CF_RESOURCE_SUFFIX_EMPTY
无法创建通知服务:资源后缀不能为空。
CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS
无法创建通知服务:资源后缀只能包含字母数字字符、连字符 (-) 和下划线 (_)。
CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE
无法创建通知服务:资源后缀只能包含小写字母、数字和短划线 (-)。
CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP
无法创建通知服务:资源后缀只能包含字母数字字符、连字符 (-)、下划线 (_)、句点 (.)、波浪字符 (~)、加号 (+) 和百分比符号 (<percentSign>
)。
CF_RESOURCE_SUFFIX_LIMIT
无法创建通知服务:资源后缀不能超过 <limit>
个字符。
CF_RESOURCE_SUFFIX_LIMIT_GCP
无法创建通知服务:资源后缀的字符数介于 <lowerLimit>
和 <upperLimit>
之间。
CF_RESTRICTED_GCP_RESOURCE_TAG_KEY
找到受限的 GCP 资源标记密钥 (<key>
)。 自动加载程序限制以下 GCP 资源标记密钥:[<restrictedKeys>
]
CF_RETENTION_GREATER_THAN_MAX_FILE_AGE
cloudFiles.cleanSource.retentionDuration 不能大于 cloudFiles.maxFileAge。
CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX
无法为前缀为 <prefix>
的主题 <topic>
创建通知。 已经有一个具有相同名称且前缀为 <oldPrefix>
的主题。 尝试使用不同的资源后缀进行设置或删除现有设置。
CF_SOURCE_DIRECTORY_PATH_REQUIRED
请提供带有选项 path
的源目录路径
CF_SOURCE_UNSUPPORTED
云文件源目前仅支持 S3、Azure Blob Storage (wasb/wasbs),以及 Azure Data Lake Gen1 (adl) 和 Gen2 (abfs/abfss) 路径。 路径:“<path>
”,解析的 URI:“<uri>
”
CF_STATE_INCORRECT_SQL_PARAMS
cloud_files_state 函数接受表示 cloudFiles 流的检查点目录的字符串参数或标识流式处理表的多部分 tableName,以及(可选)表示要加载其状态的检查点版本的第二个整数参数。 第二个参数也可以是“latest”,用于读取最新的检查点。 收到:<params>
CF_STATE_INVALID_CHECKPOINT_PATH
输入检查点路径 <path>
无效。 路径不存在,或者找不到 cloud_files 源。
CF_STATE_INVALID_VERSION
指定的版本 <version>
不存在,或在分析期间已删除。
CF_THREAD_IS_DEAD
<threadName>
线程终止。
CF_UNABLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION
无法从源检查点位置派生流检查点位置:<checkPointLocation>
CF_UNABLE_TO_DETECT_FILE_FORMAT
无法在 <fileSize>
采样文件中检测源文件格式,找到了 <formats>
。 请指定格式。
CF_UNABLE_TO_EXTRACT_BUCKET_INFO
无法提取存储桶信息。 路径:“<path>
”,解析的 URI:“<uri>
”。
CF_UNABLE_TO_EXTRACT_KEY_INFO
无法提取密钥信息。 路径:“<path>
”,解析的 URI:“<uri>
”。
CF_UNABLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO
无法提取存储帐户信息。路径:“<path>
”,解析的 URI:“<uri>
”
CF_UNABLE_TO_LIST_EFFICIENTLY
已收到路径 <path>
的目录重命名事件,但无法有效列出此目录。 为了使流继续,请将选项“cloudFiles.ignoreDirRenames”设置为 true,并考虑使用 cloudFiles.backfillInterval 启用常规回填来处理此数据。
CF_UNEXPECTED_READ_LIMIT
意外的 ReadLimit:<readLimit>
CF_UNKNOWN_OPTION_KEYS_ERROR
找到未知选项密钥:
<optionList>
请确保所有提供的选项密钥都正确。 如果要跳过
选项验证步骤并忽略这些未知选项,你可以设置:
.option(“cloudFiles.<validateOptions>
”, “false”)
CF_UNKNOWN_READ_LIMIT
未知 ReadLimit:<readLimit>
CF_UNSUPPORTED_CLOUD_FILES_SQL_FUNCTION
仅在增量实时表管道中支持用于创建自动加载程序流式处理源的 SQL 函数“cloud_files”。 有关详细信息,请参阅:
<docLink>
CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE
格式 <format>
不支持架构推理。 请指定架构。
CF_UNSUPPORTED_LOG_VERSION
UnsupportedLogVersion:支持的最大日志版本为 v<maxVersion>``, but encountered v``<version>
。 日志文件由较新的 DBR 版本生成,但无法由此版本读取。 请升级。
CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE
格式 <format>
不支持架构演变模式 <mode>
。 请将架构演变模式设置为“none”。
CF_USE_DELTA_FORMAT
此语法不支持从 Delta 表进行读取。 如果要使用 Delta 中的数据,请参阅文档:读取 Delta 表 (<deltaDocLink>
),或读取 Delta 表作为流源 (<streamDeltaDocLink>
)。 来自 Delta 的流式处理源已针对数据的增量使用进行了优化。
地理空间
EWKB_PARSE_ERROR
分析 EWKB 时出错:<pos>
位置处的 <parseError>
GEOJSON_PARSE_ERROR
分析 GeoJSON 时出错:<pos>
位置处的 <parseError>
有关更多详细信息,请参阅 GEOJSON_PARSE_ERROR
H3_INVALID_CELL_ID
<h3Cell>
不是有效的 H3 单元格 ID
有关更多详细信息,请参阅 H3_INVALID_CELL_ID
H3_INVALID_GRID_DISTANCE_VALUE
H3 网格距离 <k>
必须为非负数
有关更多详细信息,请参阅 H3_INVALID_GRID_DISTANCE_VALUE
H3_INVALID_RESOLUTION_VALUE
H3 分辨率 <r>
必须介于 <minR>
和 <maxR>
(含)之间
有关更多详细信息,请参阅 H3_INVALID_RESOLUTION_VALUE
H3_NOT_ENABLED
<h3Expression>
被禁用或不受支持。 请考虑启用 Photon 或切换到支持 H3 表达式的层
有关更多详细信息,请参阅 H3_NOT_ENABLED
H3_PENTAGON_ENCOUNTERED_ERROR
计算网格距离为 <k>
的 <h3Cell>
的六边形环时出现五边形
H3_UNDEFINED_GRID_DISTANCE
<h3Cell1>
和 <h3Cell2>
之间的 H3 网格距离未定义
ST_DIFFERENT_SRID_VALUES
“<sqlFunction>
”的参数必须具有相同的 SRID 值。 找到 SRID 值:<srid1>
、<srid2>
ST_INVALID_ARGUMENT
“”<sqlFunction>
: <reason>
ST_INVALID_ARGUMENT_TYPE
“<sqlFunction>
”参数的类型必须是 <validTypes>
ST_INVALID_CRS_TRANSFORMATION_ERROR
<sqlFunction>
:从 SRID <srcSrid>
到 SRID <trgSrid>
的 CRS 转换无效或不受支持
ST_INVALID_ENDIANNESS_VALUE
Endianness <e>
必须是“NDR”(little-endian) 或“XDR”(big-endian)
ST_INVALID_GEOHASH_VALUE
<sqlFunction>
:无效的 geohash 值:“<geohash>
”。 Geohash 值必须是有效的小写 base32 字符串,如 https://en.wikipedia.org/wiki/Geohash#Textual_representation 中所述
ST_INVALID_PRECISION_VALUE
精度 <p>
必须介于 <minP>
和 <maxP>
(含)之间
ST_INVALID_SRID_VALUE
SRID <srid>
无效或不受支持
ST_NOT_ENABLED
<stExpression>
已禁用或不受支持。 请考虑启用 Photon 或切换到支持 ST 表达式的层
ST_UNSUPPORTED_RETURN_TYPE
无法在查询中返回 GEOGRAPHY 和 GEOMETRY 数据类型。 使用以下 SQL 表达式之一将其转换为标准交换格式:<projectionExprs>
。
WKB_PARSE_ERROR
分析 WKB 时出错:<pos>
位置处的 <parseError>
有关更多详细信息,请参阅 WKB_PARSE_ERROR
WKT_PARSE_ERROR
分析 WKT 时出错:<pos>
位置处的 <parseError>
有关更多详细信息,请参阅 WKT_PARSE_ERROR