Azure Databricks 中的错误条件

适用于:打勾标记Databricks SQL打勾标记 Databricks Runtime 12.2 及更高版本

错误条件是描述性的、可读字符串,它们所描述的错误是唯一的。

可以使用错误条件以编程方式处理应用程序中的错误,而无需分析错误消息。

这是 Azure Databricks 返回的常见命名错误条件的列表。

Databricks Runtime 和 Databricks SQL

ADD_DEFAULT_UNSUPPORTED

SQLSTATE:42623

无法执行 <statementType> 命令,因为向先前存在的目标数据源(表提供程序为“<dataSource>”)添加新列时不支持 DEFAULT值。

AGGREGATE_FUNCTION_WITH_NONDETERMINISTIC_EXPRESSION

SQLSTATE:42845

非确定性表达式 <sqlExpr> 不应出现在聚合函数的参数中。

AGGREGATE_OUT_OF_MEMORY

SQLSTATE:82001

没有足够的内存用于聚合

AI_FUNCTION_HTTP_PARSE_CAST_ERROR

SQLSTATE:2203G

强制转换为指定的 returnType:“<dataType>”时未能解析模型输出,响应 JSON 为:“<responseString>”。 请更新 returnType 以匹配响应 JSON 表示的类型的内容,然后再次重试查询。

AI_FUNCTION_HTTP_PARSE_COLUMNS_ERROR

SQLSTATE:2203G

实际模型输出具有多个列“<responseString>”。 但是,指定的返回类型[“<dataType>”]只有一列。 请更新 returnType 以包含与模型输出相同的列数,然后再次重试查询。

AI_FUNCTION_HTTP_REQUEST_ERROR

SQLSTATE:08000

对函数 <funcName>发出 HTTP 请求时出错:<errorMessage>

AI_FUNCTION_INVALID_HTTP_RESPONSE

SQLSTATE:08000

函数 <funcName>的 HTTP 响应无效:<errorMessage>

AI_FUNCTION_INVALID_MAX_WORDS

SQLSTATE:22032

最大字词数必须是非负整数,但获得 <maxWords>

AI_FUNCTION_INVALID_MODEL_PARAMETERS

SQLSTATE:22023

提供的模型参数 (<modelParameters>) 在提供端点“AI_QUERY”的 <endpointName> 函数中无效。

有关更多详细信息,请参阅 AI_FUNCTION_INVALID_MODEL_PARAMETERS

AI_FUNCTION_INVALID_RESPONSE_FORMAT_TYPE

SQLSTATE:0A000

AI 函数:“<functionName>”要求 <format> 参数具有有效的 responseFormat 字符串,但发现的响应格式是:“<invalidResponseFormat>”。 异常:<errorMessage>

AI_FUNCTION_JSON_PARSE_ERROR

SQLSTATE:22000

分析函数 <funcName>的 JSON 响应时出错:<errorMessage>

AI_FUNCTION_MODEL_SCHEMA_PARSE_ERROR

SQLSTATE:2203G

未能分析服务终结点“<endpointName>”的架构:<errorMessage>,响应 JSON 为:“<responseJson>”。

returnType 函数中手动设置 AI_QUERY 参数以替代架构解析。

AI_FUNCTION_UNSUPPORTED_ERROR

SQLSTATE:56038

当前环境中不支持函数 <funcName>。 它仅在 Databricks SQL Pro 和无服务器中可用。

AI_FUNCTION_UNSUPPORTED_REQUEST

SQLSTATE:0A000

无法评估 SQL 函数“<functionName>”,因为提供的 <invalidValue> 参数具有“<invalidDataType>”,但仅支持以下类型:<supportedDataTypes>。 请更新函数调用以提供字符串类型的参数,然后再次重试查询。

AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT

SQLSTATE:0A000

找到不支持的响应格式。

有关更多详细信息,请参阅 AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT

AI_FUNCTION_UNSUPPORTED_RETURN_TYPE

SQLSTATE:0A000

AI 函数:“<functionName>”不支持将以下类型作为返回类型:“<typeName>”。 返回类型必须是由 Catalyst 理解并受 AI 函数支持的有效 SQL 类型。 当前支持的类型包括:<supportedValues>

AI_INVALID_ARGUMENT_VALUE_ERROR

SQLSTATE:22032

参数“<argName>”不支持提供的值“<argValue>”。 支持的值包括:<supportedValues>

AI_QUERY_ENDPOINT_NOT_SUPPORT_STRUCTURED_OUTPUT (AI查询端点不支持结构化输出)

SQLSTATE:0A000

期望服务终结点任务类型为“Chat”以支持结构化输出,但为终结点“<endpointName>”找到“<taskType>”。

AI_QUERY_RETURN_TYPE_COLUMN_TYPE_MISMATCH

SQLSTATE:0A000

参数 returnType 不支持提供的“<sqlExpr>”。

AI_SEARCH_CONFLICTING_QUERY_PARAM_SUPPLY_ERROR

SQLSTATE:0A000

vector_search SQL 函数检测到的冲突参数:<conflictParamNames><hint>

AI_SEARCH_EMBEDDING_COLUMN_TYPE_UNSUPPORTED_ERROR

SQLSTATE:0A000

不支持嵌入列类型为 vector_search<embeddingColumnType> SQL 函数。

AI_SEARCH_EMPTY_QUERY_PARAM_ERROR

SQLSTATE:0A000

vector_search SQL 函数缺少查询输入参数,请指定至少一个来自:<parameterNames>

AI_SEARCH_HYBRID_QUERY_PARAM_DEPRECATION_ERROR

SQLSTATE:0A000

参数 queryvector_search 的 SQL 函数不支持用于 hybrid 矢量搜索。 请改用 query_text

AI_SEARCH_HYBRID_TEXT_NOT_FOUND_ERROR

SQLSTATE:0A000

vector_search SQL 函数中找不到用于 hybrid 矢量搜索的查询文本。 请提供 query_text

AI_SEARCH_INDEX_TYPE_UNSUPPORTED_ERROR

SQLSTATE:0A000

不支持索引类型 vector_search<indexType> SQL 函数。

AI_SEARCH_MISSING_EMBEDDING_INPUT_ERROR

SQLSTATE:0A000

必须为索引 query_vector 指定 <indexName>,因为它与嵌入模型终结点无关。

AI_SEARCH_QUERY_TYPE_CONVERT_ENCODE_ERROR

SQLSTATE:0A000

在请求编码期间,未能具体化从 spark 类型 vector_search 到 scala-native 对象的 <dataType> SQL 函数查询,并出现错误:<errorMessage>

AI_SEARCH_QUERY_TYPE_UNSUPPORTED_ERROR

SQLSTATE:0A000

不支持查询类型为 vector_search 的 SQL 函数 <unexpectedQueryType>。 请从以下选项中指定一个:<supportedQueryTypes>

AI_SEARCH_UNSUPPORTED_NUM_RESULTS_ERROR

SQLSTATE:0A000

不支持 num_results 大于 vector_search<maxLimit> SQL 函数。 指定的限制为 <requestedLimit>。 请尝试再次使用num_results <= <maxLimit>

AI_TOP_DRIVERS_PARAM_OUT_OF_RANGE

SQLSTATE:22003

ai_top_drivers参数<param>必须介于<lo><hi>.

AI_TOP_DRIVERS_UNSUPPORTED_AGGREGATION_TYPE

SQLSTATE:0A000

ai_top_drivers 不支持 <aggName> 聚合。 选择以下支持的聚合之一: <allowed>

AI_TOP_DRIVERS_UNSUPPORTED_DIMENSION_TYPE

SQLSTATE:0A000

ai_top_drivers 不支持数值、映射或结构维度列。 列 <colName> 具有类型 <dataType>。 移除这个维度或将其转换为支持的类型。

AI_TOP_DRIVERS_UNSUPPORTED_LABEL_TYPE

SQLSTATE:0A000

ai_top_drivers 要求标签列类型为布尔值。 列 <colName> 具有类型 <dataType>。 更改标签列或将其强制转换为支持的类型。

AI_TOP_DRIVERS_UNSUPPORTED_METRIC_TYPE

SQLSTATE:0A000

ai_top_drivers 要求指标列类型为数值。 列 <colName> 具有类型 <dataType>。 更改指标列或将其强制转换为支持的类型。

所有参数必须命名

SQLSTATE:07001

使用名称参数化查询需要命名所有参数。 参数缺少名称 <exprs>

ALL_PARTITION_COLUMNS_NOT_ALLOWED

SQLSTATE:KD005

不能将所有列作为分区列使用。

修改的计划不存在

SQLSTATE:42704

在没有现有计划或触发器的情况下,无法更改表上的 <scheduleType>。 在尝试更改表格之前,请先向其添加日程或触发器。

ALTER_TABLE_COLUMN_DESCRIPTOR_DUPLICATE

SQLSTATE:42710

ALTER TABLE <type><columnName> 多次指定描述符“<optionName>”,这是无效的。

AMBIGUOUS_ALIAS_IN_NESTED_CTE

SQLSTATE:42KD0

嵌套 CTE 中的名称 <name> 不明确。

请将 <config> 设置为“CORRECTED”,以便内部 CTE 中定义的名称优先。 如果将其设置为“LEGACY”,外部 CTE 定义将优先。

请参阅“https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine”。

AMBIGUOUS_COLUMN_OR_FIELD

SQLSTATE:42702

列或字段 <name> 不明确且具有 <n> 个匹配项。

AMBIGUOUS_COLUMN_REFERENCE

SQLSTATE:42702

<name> 不明确。 这是因为你已将多个数据帧联接在一起,其中一些数据帧是相同的。

此列指向其中一个数据帧,但 Spark 无法确定哪一个。

请在联接数据帧之前,通过 DataFrame.alias 将数据帧命名为不同的别名,

然后使用限定名称(例如 df.alias("a").join(df.alias("b"), col("a.id") > col("b.id")))指定该列。

AMBIGUOUS_CONSTRAINT

SQLSTATE:42K0C

对约束 <constraint> 的引用不明确。

AMBIGUOUS_LATERAL_COLUMN_ALIAS

SQLSTATE:42702

横向列别名 <name> 不明确且具有 <n> 个匹配项。

AMBIGUOUS_REFERENCE

SQLSTATE:42704

引用 <name> 不明确,可以是:<referenceNames>

AMBIGUOUS_REFERENCE_TO_FIELDS

SQLSTATE:42000

对字段 <field> 的引用不明确。 它在架构中出现了 <count> 次。

ANALYZE_CONSTRAINTS_NOT_SUPPORTED

SQLSTATE:0A000

不支持 ANALYZE CONSTRAINTS

ANSI_CONFIG_CANNOT_BE_DISABLED

SQLSTATE:56038

不能在此产品中禁用 ANSI SQL 配置 <config>

AQE_THREAD_INTERRUPTED

SQLSTATE:HY008

AQE 线程中断,可能是由于用户取消查询。

ARGUMENT_NOT_CONSTANT

SQLSTATE:42K08

函数 <functionName> 在需要常量参数的位置 <parameterName> 处包含参数 <pos>。 请单独计算参数 <sqlExpr>,并将结果作为常量传递。

ARITHMETIC_OVERFLOW

SQLSTATE:22003

<message><alternative> 如有必要,请将 <config> 设置为“false”以绕过此错误。

有关更多详细信息,请参阅 ARITHMETIC_OVERFLOW

ARROW_TYPE_MISMATCH

SQLSTATE:42K0G

来自 <operation> 的架构无效:期望 <outputTypes>,得到 <actualDataTypes>

ARTIFACT_ALREADY_EXISTS

SQLSTATE:42713

工件 <normalizedRemoteRelativePath> 已存在。 请为新工件选择不同的名称,因为无法覆盖它。

ASSIGNMENT_ARITY_MISMATCH

SQLSTATE:42802

分配或别名的列数或变量数:<numTarget> 与源表达式的数目:<numExpr> 不匹配。

AS_OF_JOIN

SQLSTATE:42604

as-of join 无效。

有关更多详细信息,请参阅 AS_OF_JOIN

AVRO_无法写入空字段

SQLSTATE:22004

无法为定义为非 null Avro 数据类型<name>的字段<dataType>写入 null 值。

若要允许此字段的 null 值,请使用 avroSchema 选项将其 avro 架构指定为包含“null”的联合类型。

AVRO_DEFAULT_VALUES_UNSUPPORTED

SQLSTATE:0A000

启用rescuedDataColumn 时不支持使用默认值。 可以通过将 spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue 设置为 false 来删除此检查,但默认值将不适用,并且仍将使用 null 值。

AVRO_INCOMPATIBLE_READ_TYPE

SQLSTATE:22KD3

无法将 Avro <avroPath> 转换为 SQL <sqlPath>,因为原始编码的数据类型为 <avroType>,但是你尝试将字段读取为 <sqlType>,这会导致错误的答案。

要允许读取此字段,请启用 SQL 配置:“spark.sql.legacy.avro.allowIncompatibleSchema”。

AVRO_NOT_LOADED_SQL_FUNCTIONS_UNUSABLE

SQLSTATE:22KD3

无法调用 <functionName> SQL 函数,因为未加载 Avro 数据源。

请使用加载的“spark-avro”包重启作业或会话,例如在命令行上使用 --packages 参数,然后再次重试查询或命令。

AVRO_POSITIONAL_FIELD_MATCHING_UNSUPPORTED

SQLSTATE:0A000

启用 rescuedDataColumnfailOnUnknownFields 时,不支持使用位置字段匹配。 删除这些选项以继续。

BATCH_METADATA_NOT_FOUND

SQLSTATE:42K03

找不到批次 <batchMetadataFile>

BIGQUERY_OPTIONS_ARE_MUTUALLY_EXCLUSIVE

SQLSTATE:42616

必须要么使用“GoogleServiceAccountKeyJson”参数,要么同时使用“projectId”、“OAuthServiceAcctEmail”和“OAuthPvtKey”,来指定 BigQuery 连接凭据

BINARY_ARITHMETIC_OVERFLOW

SQLSTATE:22003

<value1> <symbol> <value2> 导致了溢出。 使用 <functionName> 忽略溢出问题并返回 NULL

BUILT_IN_CATALOG

SQLSTATE:42832

<operation> 不支持内置目录。

CALL_ON_STREAMING_DATASET_UNSUPPORTED

SQLSTATE:42KDE

无法在流式数据集/数据帧上调用方法 <methodName>

CANNOT_ALTER_COLLATION_BUCKET_COLUMN

SQLSTATE:428FR

ALTER TABLE (ALTER|CHANGE) COLUMN 无法更改存储桶列的类型/子类型的排序规则,但在表 <columnName>中找到存储桶列 <tableName>

CANNOT_ALTER_PARTITION_COLUMN

SQLSTATE:428FR

分区列不支持 ALTER TABLE (ALTER|CHANGE) COLUMN,但在表 <columnName>中找到分区列 <tableName>

CANNOT_ASSIGN_EVENT_TIME_COLUMN_WITHOUT_WATERMARK

SQLSTATE:42611

需要定义水印以重新分配事件时间列。 未能在流式处理查询中找到水印定义。

CANNOT_CAST_DATATYPE

SQLSTATE:42846

无法将 <sourceType> 强制转换为 <targetType>

无法将 Protobuf 字段类型转换为 SQL 类型

SQLSTATE:42846

无法将 Protobuf <protobufColumn> 转换为 SQL <sqlColumn>,因为架构不兼容(protobufType = <protobufType>,sqlType = <sqlType>)。

无法将 Protobuf 消息类型转换为 SQL 类型

SQLSTATE:42846

无法将 Protobuf <protobufType> 转换为 SQL 类型 <toType>

无法将SQL类型转换为Protobuf字段类型

SQLSTATE:42846

无法将 SQL <sqlColumn> 转换为 Protobuf <protobufColumn>,因为架构不兼容(protobufType = <protobufType>,sqlType = <sqlType>)。

无法将 SQL 值转换为 PROTOBUF 枚举类型

SQLSTATE:42846

无法将 SQL <sqlColumn> 转换为 Protobuf <protobufColumn>,因为 <data> 不在枚举的定义值中:<enumString>

CANNOT_COPY_STATE

SQLSTATE:0AKD0

无法将目录状态(如当前数据库和临时视图)从 Unity 目录复制到旧目录。

无法创建数据源表

SQLSTATE:42KDE

未能创建数据源表 <tableName>

有关更多详细信息,请参阅 CANNOT_CREATE_DATA_SOURCE_TABLE

无法解码网址

SQLSTATE:22546

提供的 URL 无法解码:<url>。 请确保 URL 格式正确,然后重试。

CANNOT_DELETE_SYSTEM_OWNED

SQLSTATE:42832

无法删除系统拥有的 <resourceType>

CANNOT_DROP_AMBIGUOUS_CONSTRAINT

SQLSTATE:42K0C

无法删除名称 <constraintName>CHECK 约束共享的约束

PRIMARY KEYFOREIGN KEY 约束。 可以删除 PRIMARY KEY

按查询的 FOREIGN KEY 约束:

ALTER TABLE .. DROP PRIMARY KEY

ALTER TABLE .. DROP FOREIGN KEY ..

无法建立连接

SQLSTATE:08001

无法与远程 <jdbcDialectName> 数据库建立连接。 请检查连接信息和凭据,例如主机、端口、用户、密码和数据库选项。 ** 如果你认为信息正确,请检查工作区的网络设置,并确保它对主机不存在出站限制。 此外,请检查主机是否不会阻止来自部署工作区 Spark 群集的网络的入站连接。 ** 详细的错误消息:<causeErrorMessage>

CANNOT_ESTABLISH_CONNECTION_SERVERLESS

SQLSTATE:08001

无法与远程 <jdbcDialectName> 数据库建立连接。 请检查连接信息和凭据,例如主机、端口、用户、密码和数据库选项。 ** 如果认为信息正确,请允许从 Internet 到主机的入站流量,因为使用的是无服务器计算。 如果网络策略不允许入站 Internet 流量,请使用非无服务器计算服务,或者您可以咨询 Databricks 代表以了解无服务器专用网络。 ** 详细的错误消息:<causeErrorMessage>

CANNOT_INVOKE_IN_TRANSFORMATIONS

SQLSTATE:0A000

数据集转换和作只能由驱动程序调用,而不能在其他数据集转换中调用;例如, dataset1.map(x => dataset2.values.count() * x) 由于值转换和计数作不能在 dataset1.map 转换内部执行,因此无效。 有关详细信息,请参阅 SPARK-28702。

无法加载函数类

SQLSTATE:46103

注册函数 <className>时无法加载类 <functionName>,请确保它在类路径上。

CANNOT_LOAD_PROTOBUF_CLASS

SQLSTATE:42K03

无法加载名称为 <protobufClassName>的 Protobuf 类。 <explanation>

无法加载状态存储

SQLSTATE:58030

加载状态时发生错误。

有关更多详细信息,请参阅 CANNOT_LOAD_STATE_STORE

CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE

SQLSTATE:42825

未能合并不兼容的数据类型 <left><right>。 请检查要合并的列的数据类型,并确保它们兼容。 如有必要,请在尝试合并之前考虑将列转换为兼容的数据类型。

CANNOT_MERGE_SCHEMAS

SQLSTATE:42KD9

合并架构失败:

初始架构:

<left>

无法与初始架构合并的架构:

<right>

无法修改配置

SQLSTATE:46110

无法修改 Spark 配置的值:<key>

另请参阅“https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements”。

无法解析小数

SQLSTATE:22018

无法分析十进制数。 请确保输入是具有可选小数点或逗号分隔符的有效数字。

无法解析间隔

SQLSTATE:22006

无法分析 <intervalString>。 请确保提供的值采用有效的格式来定义间隔。 可以参考文档以获取正确的格式。 如果问题仍然存在,请仔细检查输入值是否不为 null 或为空,然后重试。

无法解析JSON字段

SQLSTATE:2203G

无法将 JSON 标记类型 <fieldName> 的字段名称 <fieldValue> 和值 <jsonType> 分析为目标 Spark 数据类型 <dataType>

不能解析PROTOBUF描述符

SQLSTATE:22018

将描述符字节分析为 Protobuf FileDescriptorSet 时出错。

无法解析时间

SQLSTATE:22010

无法将输入字符串 <input> 分析为 TIME 值,因为它与日期时间格式 <format>不匹配。

无法解析时间戳

SQLSTATE:22007

<message>。 使用 <func> 来容忍无效的输入字符串并改为返回 NULL

CANNOT_QUERY_TABLE_DURING_INITIALIZATION

SQLSTATE:55019

在初始化期间无法查询 MV/ST。

有关更多详细信息,请参阅 CANNOT_QUERY_TABLE_DURING_INITIALIZATION

无法读取归档文件

SQLSTATE:KD003

无法读取路径 <path> 的文件,因为它已存档。 请调整查询筛选器以排除存档的文件。

无法读取文件

SQLSTATE:KD003

无法读取路径 <format> 处的文件 <path>

有关更多详细信息,请参阅 CANNOT_READ_FILE

无法从安全提供者读取敏感密钥

SQLSTATE:42501

无法从安全提供程序读取敏感密钥“<key>”。

CANNOT_RECOGNIZE_HIVE_TYPE

SQLSTATE:429BB

无法识别 hive 类型字符串:<fieldType>,列:<fieldName>。 Spark SQL 无法识别字段的指定数据类型。 请检查指定字段的数据类型,并确保它是有效的 Spark SQL 数据类型。 有关有效数据类型及其格式的列表,请参阅 Spark SQL 文档。 如果数据类型正确,请确保使用的是受支持的 Spark SQL 版本。

CANNOT_REFERENCE_UC_IN_HMS

SQLSTATE:0AKD0

无法在 Hive 元存储对象中引用 Unity Catalog <objType>

CANNOT_REMOVE_RESERVED_PROPERTY

SQLSTATE:42000

无法删除保留属性:<property>

CANNOT_RENAME_ACROSS_CATALOG

SQLSTATE:0AKD0

不允许跨目录重命名 <type>

CANNOT_RENAME_ACROSS_SCHEMA

SQLSTATE:0AKD0

不允许跨架构重命名 <type>

CANNOT_RESOLVE_DATAFRAME_COLUMN

SQLSTATE:42704

无法解析数据帧列 <name>。 这可能是因为非法引用,如 df1.select(df2.col("a"))

CANNOT_RESOLVE_STAR_EXPAND

SQLSTATE:42704

无法解析 <targetString>.* 给定的输入列 <columns>。 请检查指定的表或结构是否存在,并且可在输入列中访问。

CANNOT_RESTORE_PERMISSIONS_FOR_PATH

SQLSTATE:58030

无法将创建的路径 <path> 上的权限设置回 <permission>

CANNOT_SHALLOW_CLONE_ACROSS_UC_AND_HMS

SQLSTATE:0AKD0

无法在 Unity Catalog 和 Hive 元存储之间对表进行浅克隆。

CANNOT_SHALLOW_CLONE_NESTED

SQLSTATE:0AKUC

无法浅克隆已是浅克隆的表 <table>

CANNOT_SHALLOW_CLONE_NON_UC_MANAGED_TABLE_AS_SOURCE_OR_TARGET

SQLSTATE:0AKUC

MANAGED 表类型支持浅克隆。 表 <table> 不是 MANAGED 表。

无法更新字段

SQLSTATE:0A000

无法更新 <table> 字段 <fieldName> 类型:

有关更多详细信息,请参阅 CANNOT_UPDATE_FIELD

CANNOT_UP_CAST_DATATYPE

SQLSTATE:42846

无法将 <expression><sourceType> 强制转换为 <targetType>

<details>

无法使用KRYO

SQLSTATE:22KD3

无法加载 Kryo 序列化编解码器。 无法在 Spark Connect 客户端中使用 Kryo 序列化。 使用 Java 序列化、提供自定义编解码器或使用 Spark 经典版。

无法验证连接

SQLSTATE:08000

不支持验证 <jdbcDialectName> 连接。 请联系 Databricks 支持团队获取替代解决方案,或将“spark.databricks.testConnectionBeforeCreation”设置为“false”,以跳过创建连接对象前的连接测试。

CANNOT_WRITE_STATE_STORE

SQLSTATE:58030

为提供程序 <providerClass> 写入状态存储文件时出错。

有关更多详细信息,请参阅 CANNOT_WRITE_STATE_STORE

CAST_INVALID_INPUT

SQLSTATE:22018

<expression> 类型的值 <sourceType> 无法强制转换为 <targetType>,因为其格式错误。 根据语法更正值,或更改其目标类型。 改为使用 try_cast 来容许格式错误的输入并返回 NULL

有关更多详细信息,请参阅 CAST_INVALID_INPUT

CAST_OVERFLOW

SQLSTATE:22003

由于溢出,类型 <value> 的值 <sourceType> 无法强制转换为 <targetType>。 使用 try_cast 容许溢出,并返回 NULL

CAST_OVERFLOW_IN_TABLE_INSERT

SQLSTATE:22003

由于溢出,无法将 <sourceType> 类型的值分配给 <targetType> 类型列或变量 <columnName>。 请对输入值使用 try_cast 来容忍溢出并改为返回 NULL

目录未找到

SQLSTATE:42P08

找不到编号为 <catalogName> 的目录。 请考虑将 SQL 配置 <config> 设置为目录插件。

CATALOG_OWNED_TABLE_CREATION_NOT_ALLOWED

SQLSTATE:0A000

不允许使用 <feature> 表功能创建 Delta 表。 请联系 Databricks 支持部门。

CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND

SQLSTATE:56000

找不到检查点块 <rddBlockId>!

可能是最初为此分区设置检查点的执行程序不再处于活动状态,或者未保留原始 RDD。

如果此问题仍然存在,则可以考虑改用 rdd.checkpoint(),这比本地检查点慢,但容错能力更高。

CIRCULAR_CLASS_REFERENCE

SQLSTATE:42602

类中不能有循环引用,但收到了类 <t> 的循环引用。

CLASS_NOT_OVERRIDE_EXPECTED_METHOD

SQLSTATE:38000

<className> 必须替代 <method1><method2>

CLASS_UNSUPPORTED_BY_MAP_OBJECTS

SQLSTATE:0A000

MapObjects 不支持类 <cls> 作为生成的集合。

CLEANROOM_COMMANDS_NOT_SUPPORTED

SQLSTATE:0A000

不支持清洁室命令

CLEANROOM_INVALID_SHARED_DATA_OBJECT_NAME

SQLSTATE:42K05

引用清洁室内 <type> 的名称无效。 按照 [catalog].[schema].[<type>] 的格式,在清洁室内使用 <type> 的名称。

如果不确定要使用什么名称,可以运行“SHOW ALL IN CLEANROOM [clean_room]”并使用“name”列中的值。

CLONING_WITH_HISTORY_INVALID_OPTION

SQLSTATE:42613

带历史记录的克隆指定了无效选项:<invalidOption>

有效语法:CREATE (OR REPLACE) TABLE ... DEEP CLONE ... WITH HISTORY

CLONING_WITH_HISTORY_UNSUPPORTED

SQLSTATE:0A000

不支持带历史记录的克隆。

CLOUD_FILE_SOURCE_FILE_NOT_FOUND

SQLSTATE:42K03

已收到文件 <filePath> 的文件通知,但该文件不再存在。 请确保在处理文件之前不会删除这些文件。 若要继续处理流,可以将 Spark SQL 配置 <config> 设置为 true。

云服务提供商错误

SQLSTATE:58000

云提供商错误:<message>

CLUSTERING_COLUMNS_MISMATCH

SQLSTATE:42P10

指定的聚类分析与现有表 <tableName>不匹配。

指定的聚类分析列:[<specifiedClusteringString>]。

现有聚类分析列:[<existingClusteringString>]。

CLUSTERING_NOT_SUPPORTED

SQLSTATE:42000

<operation>”不支持聚类分析。

CLUSTER_BY_AUTO_FEATURE_NOT_ENABLED

SQLSTATE:0A000

请联系 Databricks 代表来启用群集自动功能。

CLUSTER_BY_AUTO_REQUIRES_CLUSTERING_FEATURE_ENABLED

SQLSTATE:56038

请启用 clusteringTable.enableClusteringTableFeature 以使用 CLUSTER BY AUTO。

CLUSTER_BY_AUTO_REQUIRES_PREDICTIVE_OPTIMIZATION

SQLSTATE:56038

CLUSTER BY AUTO 要求启用预测优化。

CLUSTER_BY_AUTO_UNSUPPORTED_TABLE_TYPE_ERROR

SQLSTATE:56038

仅 UC 托管表支持 CLUSTER BY AUTO。

CODEC_NOT_AVAILABLE

SQLSTATE:56038

编解码器 <codecName> 不可用。

有关更多详细信息,请参阅 CODEC_NOT_AVAILABLE

CODEC_SHORT_NAME_NOT_FOUND

SQLSTATE:42704

找不到编解码器 <codecName>的短名称。

COLLATION_INVALID_NAME

SQLSTATE:42704

<collationName> 不表示正确的排序规则名称。 建议的有效排序规则名称:[<proposals>]。

COLLATION_INVALID_PROVIDER

SQLSTATE:42704

<provider> 不表示正确的排序规则提供程序。 支持的提供程序包括:[<supportedProviders>]。

排序不匹配

SQLSTATE:42P21

无法确定要用于字符串函数和运算符的排序规则。

有关更多详细信息,请参阅 COLLATION_MISMATCH

集合大小超出限制

SQLSTATE:54000

无法使用超过数组大小限制 <numberOfElements><maxRoundedArrayLength> 元素创建数组,

有关更多详细信息,请参阅 COLLECTION_SIZE_LIMIT_EXCEEDED

COLUMN_ALIASES_NOT_ALLOWED

SQLSTATE:42601

<op>中不允许使用列别名。

COLUMN_ALREADY_EXISTS

SQLSTATE:42711

<columnName> 已存在。 选择其他名称或重命名现有列。

COLUMN_ARRAY_ELEMENT_TYPE_MISMATCH

SQLSTATE:0A000

字段 <pos> 中的某些值与列数组类型不兼容。 预期的类型 <type>

COLUMN_MASKS_ABAC_MISMATCH

SQLSTATE:0A000

无法解析列掩码 <tableName>,因为从策略继承的列掩码与显式定义的列掩码之间存在不匹配。 若要继续,请禁用基于属性的访问控制(ABAC),并联系 Databricks 支持部门。

COLUMN_MASKS_CHECK_CONSTRAINT_UNSUPPORTED

SQLSTATE:0A000

不支持对具有列掩码策略的表 CHECK 创建 <tableName> 约束。

COLUMN_MASKS_DUPLICATE_USING_COLUMN_NAME

SQLSTATE:42734

<statementType> 语句尝试将列掩码策略分配给 USING COLUMNS 列表中包含两个或多个其他引用列的列,该列的名称与 <columnName>相同,无效。

COLUMN_MASKS_FEATURE_NOT_SUPPORTED

SQLSTATE:0A000

不支持 <tableName> 的列掩码策略:

有关更多详细信息,请参阅 COLUMN_MASKS_FEATURE_NOT_SUPPORTED

COLUMN_MASKS_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE:0A000

无法从表 <tableName> 进行 <statementType> <columnName>,因为它在列 <maskedColumn> 的列掩码策略中被引用。 表所有者必须先删除或更改此策略,然后才能继续。

COLUMN_MASKS_MERGE_UNSUPPORTED_SOURCE

SQLSTATE:0A000

MERGE INTO操作不支持源表 <tableName>中的列掩码策略。

COLUMN_MASKS_MERGE_UNSUPPORTED_TARGET

SQLSTATE:0A000

MERGE INTO 操作不支持在有列掩码策略的情况下写入表 <tableName>

COLUMN_MASKS_MULTI_PART_TARGET_COLUMN_NAME

SQLSTATE:42K05

此语句尝试将列掩码策略分配给具有多个名称部分的列 <columnName>,这无效。

COLUMN_MASKS_MULTI_PART_USING_COLUMN_NAME

SQLSTATE:42K05

此语句尝试将列掩码策略分配给某一列,而 USING COLUMNS 列表中包含的名称 <columnName> 具有多个名称部分,这是无效的。

COLUMN_MASKS_NOT_ENABLED

SQLSTATE:56038

不支持定义列掩码

COLUMN_MASKS_REQUIRE_UNITY_CATALOG

SQLSTATE:0A000

仅在 Unity Catalog 中支持列掩码策略。

COLUMN_MASKS_SHOW_PARTITIONS_UNSUPPORTED

SQLSTATE:0A000

SHOW PARTITIONS 具有列掩码的表不支持 <format> 命令。

COLUMN_MASKS_TABLE_CLONE_SOURCE_NOT_SUPPORTED

SQLSTATE:0A000

不支持使用列掩码策略从表 <mode> 进行 <tableName> 克隆。

COLUMN_MASKS_TABLE_CLONE_TARGET_NOT_SUPPORTED

SQLSTATE:0A000

不支持使用列掩码策略 <mode> 克隆到表 <tableName>

COLUMN_MASKS_不支持的常量作为参数

SQLSTATE:0AKD1

不支持将常量用作列掩码策略中的参数。 请更新 SQL 命令以从列掩码定义中删除常量,然后再次重试该命令。

COLUMN_MASKS_不支持的数据类型

SQLSTATE:0AKDC

用作列掩码策略的函数 <functionName> 包含数据类型不受支持的 <dataType>参数。

COLUMN_MASKS_UNSUPPORTED_PROVIDER

SQLSTATE:0A000

无法执行 <statementType> 命令,因为不支持使用表提供程序“<provider>”为目标数据源分配列掩码策略。

COLUMN_MASKS_UNSUPPORTED_SUBQUERY

SQLSTATE:0A000

无法对表 <operation> 执行 <tableName>,因为它包含一个或多个带有子查询表达式的列掩码策略,它们尚不受支持。 请联系表所有者更新列掩码策略以继续。

COLUMN_MASKS_USING_COLUMN_NAME_SAME_AS_TARGET_COLUMN

SQLSTATE:42734

<columnName> 的名称与目标列相同,无效;请从 USING COLUMNS 列表中删除该列,然后重试该命令。

COLUMN_NOT_DEFINED_IN_TABLE

SQLSTATE:42703

<colType><colName> 未在表 <tableName>中定义,定义的表列为:<tableCols>

COLUMN_NOT_FOUND

SQLSTATE:42703

找不到列 <colName>。 根据 SQL 配置 <caseSensitiveConfig>验证列名的拼写和正确性。

COLUMN_ORDINAL_OUT_OF_BOUNDS

SQLSTATE:22003

列序号不在范围内。 表中的列数为 <attributesLength>,但列序号为 <ordinal>

属性如下:<attributes>

COMMA_PRECEDING_CONSTRAINT_ERROR

SQLSTATE:42601

约束定义前出现意外的“,”。 确保在未定义列(和预期)时,约束子句不会以逗号开头。

COMMENT_ON_CONNECTION_NOT_IMPLEMENTED_YET

SQLSTATE:42000

尚未实现 COMMENT ON CONNECTION 命令

比较器返回空值

SQLSTATE:22004

比较器返回了一个 NULL,用于 <firstValue><secondValue>之间的比较。

它应为“大于”运算符返回正整数,为“等于”运算符返回 0,为“小于”运算符返回负整数。

要恢复将 NULL 视为 0(相等)的已弃用行为,必须将“spark.sql.legacy.allowNullComparisonResultInArraySort”设置为“true”。

COMPLEX_EXPRESSION_UNSUPPORTED_INPUT

SQLSTATE:42K09

无法处理表达式的输入数据类型:<expression>

有关更多详细信息,请参阅 COMPLEX_EXPRESSION_UNSUPPORTED_INPUT

CONCURRENT_QUERY

SQLSTATE:0A000

此查询的另一个实例 [id:<queryId>] 刚刚由并发会话启动 [现有 runId:<existingQueryRunId>,新 runId:<newQueryRunId>]。

CONCURRENT_SCHEDULER_INSUFFICIENT_SLOT

SQLSTATE:53000

群集中所需的最小可用槽数是 <numTasks>,而群集只有 <numSlots> 个可用槽。 查询将停止或失败。 增加群集大小以继续。

CONCURRENT_STREAM_LOG_UPDATE

SQLSTATE:40000

对日志的并发更新。 检测到 <batchId> 的多个流式处理作业。

请确保一次只有一个流式处理作业在特定检查点位置上运行。

CONFIG_NOT_AVAILABLE

SQLSTATE:42K0I

配置 <config> 不可用。

CONFLICTING_CLUSTER_CONFIGURATION

SQLSTATE:22023

以下配置与 spark.databricks.streaming.realTimeMode.enabled 冲突:<confNames>。 从群集配置中删除这些配置并重启 Spark 群集。

CONFLICTING_DIRECTORY_STRUCTURES

SQLSTATE:KD009

检测到有冲突的目录结构。

可疑路径:

<discoveredBasePaths>

如果提供的路径是分区目录,请在数据源的选项中设置“basePath”以指定表的根目录。

如果有多个根目录,请单独加载它们,然后将它们联合起来。

CONFLICTING_PARTITION_COLUMN_NAMES

SQLSTATE:KD009

检测到有冲突的分区列名:

<distinctPartColLists>

对于已分区表目录,数据文件应仅存在于叶目录中。

同一级别的目录应具有相同的分区列名称。

请检查以下目录是否有意外文件或分区列名称不一致:

<suspiciousPaths>

CONFLICTING_PARTITION_COLUMN_NAME_WITH_RESERVED

SQLSTATE:KD009

分区列名称“”<partitionColumnName>与保留列名称冲突。

<tableName> 的架构与 Hive 不兼容,Spark 会自动生成保留列“<partitionColumnName>”以特定方式存储表。

请为分区列使用不同的名称。

CONFLICTING_PROVIDER

SQLSTATE:22023

指定的提供程序 <provider> 与现有目录提供程序 <expectedProvider>不一致。 请使用 'USING <expectedProvider>' 并重试命令。

CONFLICTING_SQL_CONFIGURATION

SQLSTATE:22023

以下配置与 spark.databricks.streaming.realTimeMode.enabled 冲突:<confNames>。 从 SparkSession 配置中删除这些配置。

CONNECT

SQLSTATE:56K00

泛型 Spark Connect 错误。

有关更多详细信息,请参阅 CONNECT

CONNECTION_ALREADY_EXISTS

SQLSTATE:42000

无法创建连接 <connectionName>,因为它已存在。

选择其他名称,删除或替换现有连接,或添加 IF NOT EXISTS 子句以容忍预先存在的连接。

连接名称不能为空

SQLSTATE:42000

无法执行此命令,因为连接名称必须为非空。

未找到连接

SQLSTATE:42000

无法执行此命令,因为找不到连接名称 <connectionName>

连接选项不受支持

SQLSTATE:42000

<connectionType>”类型的连接不支持以下选项:<optionsNotSupported>。 支持的选项:<allowedOptions>

连接类型不支持

SQLSTATE:42000

无法创建“<connectionType>”类型的连接。 支持的连接类型:<allowedTypes>

CONNECT_SESSION_MIGRATION

SQLSTATE:56K00

泛型会话迁移错误(userId:<userId>、sessionId:<sessionId>、serverSessionId:<serverSessionId>)。

有关更多详细信息,请参阅 CONNECT_SESSION_MIGRATION

CONSTRAINTS_REQUIRE_UNITY_CATALOG

SQLSTATE:0A000

在 Unity Catalog 中,表约束仅受支持。

CONVERSION_INVALID_INPUT

SQLSTATE:22018

<str> (<fmt>)无法转换为 <targetType>,因为它格式不正确。 根据语法更正值,或更改其格式。 改为使用 <suggestion> 来容许格式错误的输入并返回 NULL

COPY_INTO_COLUMN_ARITY_MISMATCH

SQLSTATE:21S01

无法写入到 <tableName>,原因是

有关更多详细信息,请参阅 COPY_INTO_COLUMN_ARITY_MISMATCH

COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON

SQLSTATE:0A000

方案 <scheme> 无效。 COPY INTO 源凭据目前仅支持 s3/s3n/s3a/wasbs/abfss。

COPY_INTO_CREDENTIALS_REQUIRED

SQLSTATE:42601

COPY INTO 源凭据必须指定 <keyList>

COPY_INTO_DUPLICATED_FILES_COPY_NOT_ALLOWED

SQLSTATE:25000

复制的文件在并发 COPY INTO 操作中提交。 请稍后重试。

COPY_INTO_ENCRYPTION_NOT_ALLOWED_ON

SQLSTATE:0A000

方案 <scheme> 无效。 COPY INTO 源加密目前仅支持 s3/s3n/s3a/abfss。

COPY_INTO_ENCRYPTION_NOT_SUPPORTED_FOR_AZURE

SQLSTATE:0A000

COPY INTO 加密仅支持 ADLS Gen2 或 abfss:// 文件方案

COPY_INTO_ENCRYPTION_REQUIRED

SQLSTATE:42601

COPY INTO 源加密必须指定 '<key>'。

COPY_INTO_ENCRYPTION_REQUIRED_WITH_EXPECTED

SQLSTATE:42601

加密选项 <requiredKey>无效。 COPY INTO 源加密必须指定 '<requiredKey>' = '<keyValue>'。

COPY_INTO_FEATURE_INCOMPATIBLE_SETTING

SQLSTATE:42613

COPY INTO 功能 '<feature>' 与 '<incompatibleSetting>' 不兼容。

COPY_INTO_NON_BLIND_APPEND_NOT_ALLOWED

SQLSTATE:25000

COPY INTO 除了追加数据外,不允许与其他事务同时运行。 请稍后重试。

COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED

SQLSTATE:25000

COPY INTO 无法加载其状态,已超过最大重试次数。

COPY_INTO_SCHEMA_MISMATCH_WITH_TARGET_TABLE

SQLSTATE:42KDG

复制到 Delta 表时检测到架构不匹配(表:<table>)。

这可能表示传入数据出现问题,或者可以通过设置使 Delta 表架构根据传入数据自动演变:

COPY_OPTIONS ('mergeSchema' = 'true')

架构差异:

<schemaDiff>

COPY_INTO_SOURCE_FILE_FORMAT_NOT_SUPPORTED

SQLSTATE:0A000

源文件的格式必须是 CSV、JSON、AVRO、ORC、PARQUET、TEXT 或 BINARYFILE之一。 不支持在 Delta 表上使用 COPY INTO 作为源,因为在进行 OPTIMIZE 操作后可能会引入重复数据。 可以通过运行 SQL 命令 set spark.databricks.delta.copyInto.formatCheck.enabled = false关闭此检查。

COPY_INTO_SOURCE_SCHEMA_INFERENCE_FAILED

SQLSTATE:42KD9

源目录不包含类型为 <format>的任何可分析文件。 请检查“<source>”的内容。

通过将“<config>”设置为“false”,可以将错误静音。

COPY_INTO_STATE_INTERNAL_ERROR

SQLSTATE:55019

处理 COPY INTO 状态时发生内部错误。

有关更多详细信息,请参阅 COPY_INTO_STATE_INTERNAL_ERROR

COPY_INTO_SYNTAX_ERROR

SQLSTATE:42601

无法分析 COPY INTO 命令。

有关更多详细信息,请参阅 COPY_INTO_SYNTAX_ERROR

COPY_INTO_UNSUPPORTED_FEATURE

SQLSTATE:0A000

不支持 COPY INTO 功能 '<feature>'。

COPY_UNLOAD_FORMAT_TYPE_NOT_SUPPORTED

SQLSTATE:42000

无法以格式 '<formatType>' 卸载数据。 <connectionType> 支持的格式为:<allowedFormats>

CORRUPTED_CATALOG_FUNCTION

SQLSTATE:0A000

由于目录中的函数信息损坏,无法将目录函数“”<identifier>转换为 SQL 函数。 如果函数不是 SQL 函数,请确保类名“”<className>是可加载的。

CREATE_FOREIGN_SCHEMA_NOT_IMPLEMENTED_YET

SQLSTATE:42000

尚未实现 CREATE FOREIGN SCHEMA 命令

CREATE_FOREIGN_TABLE_NOT_IMPLEMENTED_YET

SQLSTATE:42000

尚未实现 CREATE FOREIGN TABLE 命令

CREATE_OR_REFRESH_MV_NOT_SUPPORTED

SQLSTATE:42601

不支持 CREATE OR REFRESH MATERIALIZED VIEW。 请改用 CREATE OR REPLACE MATERIALIZED VIEW

CREATE_OR_REFRESH_MV_ST_ASYNC

SQLSTATE:0A000

无法对指定了 CREATE 的具体化视图或流式处理表运行 REFRESHASYNC。 请从 ASYNC OR CREATE 语句中删除 REFRESH,或使用 REFRESH ASYNC 异步刷新现有具体化视图或流式处理表。

CREATE_PERMANENT_VIEW_WITHOUT_ALIAS

SQLSTATE:0A000

不允许创建永久视图 <name>,而无需为表达式 <attr>显式分配别名。

CREATE_TABLE_COLUMN_DESCRIPTOR_DUPLICATE

SQLSTATE:42710

CREATE TABLE<columnName> 多次指定描述符 "<optionName>",这是无效的。

CREATE_VIEW_COLUMN_ARITY_MISMATCH

SQLSTATE:21S01

无法创建视图 <viewName>,原因是

有关更多详细信息,请参阅 CREATE_VIEW_COLUMN_ARITY_MISMATCH

CREDENTIAL_MISSING

SQLSTATE:42601

请在创建或更新外部位置时提供凭据。

CREDENTIAL_PURPOSE_MISMATCH

SQLSTATE:42809

凭据 <credentialName> 具有用途 <actualPurpose> ,但命令中给出的用途是 <expectedPurpose>

CSV_ENFORCE_SCHEMA_NOT_SUPPORTED

SQLSTATE:0A000

使用 enforceSchemarescuedDataColumn时,不能配置 CSV 选项 failOnUnknownFields,因为此时列是按名称而不是编号来读取的。

CYCLIC_FUNCTION_REFERENCE

SQLSTATE:42887

检测到循环函数引用:<path>

DATABRICKS_DELTA_NOT_ENABLED

SQLSTATE:56038

帐户中未启用 Databricks Delta。<hints>

数据类型不匹配

SQLSTATE:42K09

由于数据类型不匹配,无法解析 <sqlExpr>

有关更多详细信息,请参阅 DATATYPE_MISMATCH

DATATYPE_MISSING_SIZE

SQLSTATE:42K01

DataType <type> 需要长度参数,例如 <type>(10)。 请指定长度。

DATA_LINEAGE_SECURE_VIEW_LEAF_NODE_HAS_NO_RELATION

SQLSTATE:25000

写入世系失败:缺少与 CLM/RLS 策略对应的关系。

DATA_SOURCE_ALREADY_EXISTS

SQLSTATE:42710

数据源“<provider>”已存在。 请为新数据源选择其他名称。

数据源外部错误 (DATA_SOURCE_EXTERNAL_ERROR)

SQLSTATE:KD010

保存到外部数据源时遇到错误。

数据源不存在 (DATA_SOURCE_NOT_EXIST)

SQLSTATE:42704

找不到数据源“<provider>”。 请确保数据源已注册。

数据源未找到 (DATA_SOURCE_NOT_FOUND)

SQLSTATE:42K02

找不到数据源:<provider>。 请确保提供程序名称正确,并且包已正确注册并与 Spark 版本兼容。

数据源选项包含无效字符

SQLSTATE:42602

选项 <option> 不得为空,并且不应包含无效字符、查询字符串或参数。

数据源选项是必填项

SQLSTATE:42601

选项 <option> 是必需的。

DATA_SOURCE_TABLE_SCHEMA_MISMATCH

SQLSTATE:42K03

数据源表的架构与预期的架构不匹配。 如果使用 DataFrameReader.schema API 或创建表,请避免指定架构。

数据源架构:<dsSchema>

预期架构:<expectedSchema>

DATA_SOURCE_URL_NOT_ALLOWED

SQLSTATE:42KDB

数据源选项中不允许使用 JDBC URL,请指定“host”、“port”和“database”选项。

DATETIME_FIELD_OUT_OF_BOUNDS

SQLSTATE:22023

<rangeMessage>

有关更多详细信息,请参阅 DATETIME_FIELD_OUT_OF_BOUNDS

DATETIME_OVERFLOW

SQLSTATE:22008

日期/时间操作溢出:<operation>

DC_API_QUOTA_EXCEEDED

SQLSTATE:KD000

已超出数据源 <sourceName>的 API 配额。

有关更多详细信息,请参阅 DC_API_QUOTA_EXCEEDED

直流连接错误

SQLSTATE:KD000

无法连接到 <sourceName> 源。 错误代码:<errorCode>

有关更多详情,请参阅 DC_CONNECTION_ERROR

DC_DYNAMICS_API_ERROR

SQLSTATE:KD000

Dynamics API 调用中发生错误,errorCode:<errorCode>

有关详细信息,请参阅 DC_DYNAMICS_API_ERROR

DC_NETSUITE_ERROR

SQLSTATE:KD000

Netsuite JDBC 调用中发生错误,errorCode:<errorCode>

有关更多详细信息,请参阅 DC_NETSUITE_ERROR

DC_架构更改错误

SQLSTATE:未分配

架构更改发生在 <tableName> 源的表 <sourceName> 中。

有关更多详细信息,请参阅 DC_SCHEMA_CHANGE_ERROR

DC_SERVICENOW_API_ERROR

SQLSTATE:KD000

ServiceNow API 调用中发生错误,errorCode:<errorCode>

有关详细信息,请参阅 DC_SERVICENOW_API_ERROR

DC_SFDC_BULK_QUERY_JOB_INCOMPLETE

SQLSTATE:KD000

对象 <objName> 的引入不完整,因为 Salesforce API 查询作业花费的时间过长、失败或已手动取消。

若要重试,可以重新运行整个管道或刷新此特定目标表。 如果错误仍然存在,请提交票证。 作业 ID:<jobId>。 作业状态:<jobStatus>

DC_SHAREPOINT_API_ERROR

SQLSTATE:KD000

Sharepoint API 调用中发生错误,errorCode:<errorCode>

有关详细信息,请参阅 DC_SHAREPOINT_API_ERROR

DC_SOURCE_API_ERROR

SQLSTATE:KD000

<sourceName> API 调用中发生错误。 源 API 类型:<apiType>。 错误代码:<errorCode>

有时,在达到 <sourceName> API 限制时,可能会发生这种情况。 如果你未超过 API 限制,请尝试重新运行连接器。 如果问题仍然存在,请提交票证。

DC_UNSUPPORTED_ERROR

SQLSTATE:0A000

数据源 <sourceName>中发生不支持的错误。

有关更多详细信息,请参阅 DC_UNSUPPORTED_ERROR

DC_WORKDAY_RAAS_API_ERROR

SQLSTATE:KD000

Workday RAAS API 调用中发生错误,errorCode:<errorCode>

有关更多详情,请参阅 DC_WORKDAY_RAAS_API_ERROR

小数精度超出最大精度

SQLSTATE:22003

小数精度 <precision> 超过最大精度 <maxPrecision>

默认数据库不存在

SQLSTATE:42704

默认数据库 <defaultDatabase> 不存在,请先创建它,或者将默认数据库更改为 <defaultDatabase>

默认文件未找到

SQLSTATE:42K03

基础文件可能已更新。 可在 SQL 中运行“REFRESH TABLE tableName”命令或重新创建所涉及的数据集/数据帧,显式地使 Spark 中的缓存失效。 如果磁盘缓存已过时或基础文件已删除,则可以通过重启群集手动使磁盘缓存失效。

DEFAULT_PLACEMENT_INVALID

SQLSTATE:42608

DEFAULTMERGEINSERTUPDATE 命令中的 SET VARIABLE 关键字无法直接分配给目标列,因为它是表达式的一部分。

例如: UPDATE SET c1 = DEFAULT 是允许的,但 UPDATE T SET c1 = DEFAULT + 1 不允许。

DEFAULT_UNSUPPORTED

SQLSTATE:42623

无法执行 <statementType> 命令,因为目标数据源(表提供程序为“<dataSource>”)不支持 DEFAULT 值。

DESCRIBE_JSON_NOT_EXTENDED

SQLSTATE:0A000

DESCRIBE TABLE ...仅当指定 [EXTENDED|FORMATTED] 时,才支持 AS JSON。

例如:DESCRIBE EXTENDED <tableName> 支持 AS JSON,但 DESCRIBE <tableName> AS JSON 不受支持。

DIFFERENT_DELTA_TABLE_READ_BY_STREAMING_SOURCE

SQLSTATE:55019

流式处理查询从意外的 Delta 表(id =“<newTableId>”)中读取。

它用于根据检查点从另一个 Delta 表(id =“<oldTableId>”)中读取。

更改代码以从新表中读取,或者删除表然后

重新创建了一个表。 请还原更改或删除流式处理查询检查点

以从头开始。

DISTINCT_WINDOW_FUNCTION_UNSUPPORTED

SQLSTATE:0A000

不支持不同的窗口函数:<windowExpr>

DIVIDE_BY_ZERO

SQLSTATE:22012

被零除。 使用 try_divide 容许除数为 0,并返回 NULL。 如有必要,请将 <config> 设置为“false”以绕过此错误。

有关详细信息,请参阅 DIVIDE_BY_ZERO

DLT_EXPECTATIONS_NOT_SUPPORTED

SQLSTATE:56038

期望仅在 Lakeflow 声明式管道中受支持。

DLT_VIEW_CLUSTER_BY_NOT_SUPPORTED

SQLSTATE:56038

MATERIALIZED 带有 CLUSTER BY 子句的视图仅在 Lakeflow 声明式管道中受支持。

DLT_VIEW_LOCATION_NOT_SUPPORTED

SQLSTATE:56038

具体化视图位置仅在 Lakeflow 声明式管道中受支持。

DLT_VIEW_SCHEMA_WITH_TYPE_NOT_SUPPORTED

SQLSTATE:56038

具有指定类型的具体化视图架构仅在 Lakeflow 声明式管道中受支持。

DLT_VIEW_TABLE_CONSTRAINTS_NOT_SUPPORTED

SQLSTATE:56038

CONSTRAINT 视图中的子句仅在 Lakeflow 声明式管道中受支持。

DROP_SCHEDULE_DOES_NOT_EXIST

SQLSTATE:42000

在没有现有计划或触发器的情况下,无法删除表上的 SCHEDULE

DUPLICATED_CTE_NAMES

SQLSTATE:42602

CTE 定义不能有重复的名称:<duplicateNames>

DUPLICATED_FIELD_NAME_IN_ARROW_STRUCT

SQLSTATE:42713

在 Arrow 结构中不允许使用重复的字段名称,结果是 <fieldNames>

DUPLICATED_MAP_KEY

SQLSTATE:23505

找到重复的映射键 <key>,请检查输入数据。

如果要删除重复的键,可以将 <mapKeyDedupPolicy> 设置为“LAST_WIN”,以便最后插入的键优先。

DUPLICATED_METRICS_NAME

SQLSTATE:42710

指标名称不唯一:<metricName>。 同一名称不能用于具有不同结果的指标。

但是,允许具有相同结果和名称的多个度量实例(例如自联接实例)。

DUPLICATE_ASSIGNMENTS

SQLSTATE:42701

列或变量 <nameList> 多次显示为赋值目标。

DUPLICATE_CLAUSES

SQLSTATE:42614

找到了重复子句:<clauseName>。 请删除其中一个。

DUPLICATE_CONDITION_IN_SCOPE

SQLSTATE:42734

在作用域中找到重复条件 <condition> 。 请删除其中一个。

DUPLICATE_EXCEPTION_HANDLER

SQLSTATE:42734

找到重复的处理程序。 请删除其中一个。

有关更多详细信息,请参阅 DUPLICATE_EXCEPTION_HANDLER

DUPLICATE_KEY

SQLSTATE:23505

发现重复键 <keyColumn>

DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT

SQLSTATE:4274K

对例程 <routineName> 的调用无效,因为它包含对同一参数名称 <parameterName>的多个参数赋值。

有关更多详细信息,请参阅 DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT

DUPLICATE_ROUTINE_PARAMETER_NAMES

SQLSTATE:42734

在用户定义的例程的参数列表中找到重复的名称 <routineName><names>

DUPLICATE_ROUTINE_RETURNS_COLUMNS

SQLSTATE:42711

在用户定义的例程 RETURNS<routineName> 子句列列表中找到重复的列:<columns>

EMITTING_ROWS_OLDER_THAN_WATERMARK_NOT_ALLOWED

SQLSTATE:42815

上一个节点发出了一行,其中的 eventTime=<emittedRowEventTime> 早于 current_watermark_value=<currentWatermark>

这可能会导致执行管道下游的状态操作符出现正确性问题。

请更正运算符逻辑以在当前全局水印值之后发出行。

EMPTY_JSON_FIELD_VALUE

SQLSTATE:42604

未能分析数据类型 <dataType>的空字符串。

EMPTY_LOCAL_FILE_IN_STAGING_ACCESS_QUERY

SQLSTATE:22023

暂存 <operation> 查询中包含空本地文件

EMPTY_SCHEMA_NOT_SUPPORTED_FOR_DATASOURCE

SQLSTATE:0A000

<format> 数据源不支持编写空架构或嵌套的空架构。 请确保数据架构至少有一列或多列。

编码器未找到

SQLSTATE:42704

找不到 Spark SQL 内部表示形式 <typeName> 类型的编码器。

考虑将输入类型更改为“<docroot>/sql-ref-datatypes.html”支持的其中一个类型。

END_LABEL_WITHOUT_BEGIN_LABEL

SQLSTATE:42K0L

如果没有开始标签,则结束标签 <endLabel> 无法存在。

END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_LATEST_WITH_TRIGGER_AVAILABLENOW

SQLSTATE:KD000

在使用 Trigger.AvailableNow 运行查询时,某个或多个 Kafka 主题中的某些分区报告的可用偏移量小于结束偏移量。 此错误可能是暂时性的 - 重启查询,如果仍然看到相同的问题,请报告。

最新偏移量:<latestOffset>,结束偏移量:<endOffset>

END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_PREFETCHED

SQLSTATE:KD000

对于具有 Trigger.AvailableNow 的 Kafka 数据源,每个主题分区的结束偏移量应小于或等于预提取的偏移量。 此错误可能是暂时性的 - 重启查询,如果仍然看到相同的问题,请报告。

预提取的偏移量:<prefetchedOffset>,结束偏移量:<endOffset>

ERROR_READING_AVRO_UNKNOWN_FINGERPRINT

SQLSTATE:KD00B

读取 avro 数据时出错 -- 遇到未知指纹: <fingerprint>不确定要使用的架构。

如果在启动 Spark 上下文后注册了其他架构,可能会发生这种情况。

事件日志为空

SQLSTATE:55019

<tableOrPipeline>相关的事件日志没有架构,也不包含任何事件。 稍后等待事件生成后再尝试

EVENT_LOG_REQUIRES_SHARED_COMPUTE

SQLSTATE:42601

无法从“已分配”或“无隔离共享”群集查询事件日志,请改用共享群集或 Databricks SQL 仓库。

EVENT_LOG_TVF_UNSUPPORTED_FOR_PIPELINE

SQLSTATE:0A000

对于使用“schema”字段的管道或发布到默认存储的管道,不支持 EVENT_LOG 表值函数。

若要查询事件日志,请在管道设置中指定event_log字段,将其发布到元存储。

有关详细信息,请参阅 Monitor Lakeflow 声明性管道文档: https://docs.databricks.com/aws/en/delta-live-tables/observability

EVENT_LOG_UNAVAILABLE

SQLSTATE:55019

没有可用于 <tableOrPipeline>的事件日志。 生成事件后请稍后重试

EVENT_LOG_UNSUPPORTED_TABLE_TYPE

SQLSTATE:42832

<tableIdentifier> 的表类型为 <tableType>

查询事件日志仅支持具体化视图、流式表或 Lakeflow 声明式管道。

EVENT_TIME_IS_NOT_ON_TIMESTAMP_TYPE

SQLSTATE:42K09

事件时间 <eventName><eventType> 类型无效,应为“TIMESTAMP”。

超出限制长度

SQLSTATE:54006

超过 char/varchar 类型长度限制:<limit>

EXCEPT_NESTED_COLUMN_INVALID_TYPE

SQLSTATE:428H2

EXCEPT<columnName> 已解析,本应该为 StructType,但发现类型为 <dataType>

EXCEPT_OVERLAPPING_COLUMNS

SQLSTATE:42702

EXCEPT 列表中的列必须非重复且不重叠,但出现了 (<columns>)。

EXCEPT_RESOLVED_COLUMNS_WITHOUT_MATCH

SQLSTATE:42703

EXCEPT 列 [<exceptColumns>] 已解析,但不与星形扩展中的任何 [<expandedColumns>] 列匹配。

EXCEPT_UNRESOLVED_COLUMN_IN_STRUCT_EXPANSION

SQLSTATE:42703

无法解析 <objectName> 子句中的列/字段名称 EXCEPT。 您的意思是以下选项之一:[<objectList>]?

注意:在结构扩展期间,EXCEPT 子句中的嵌套列可能不包括限定符(表名、父结构列名等);如果限定符与嵌套列一起使用,请尝试删除限定符。

EXECUTOR_BROADCAST_JOIN_OOM

SQLSTATE:53200

没有足够的内存来生成广播关系 <relationClassName>。 关系大小 = <relationSize>. 此任务使用的内存总量 = <taskMemoryUsage>。 onHeapExecutionMemoryUsed = <onHeapExecutionMemoryUsed>,offHeapExecutionMemoryUsed = <offHeapExecutionMemoryUsed>,onHeapStorageMemoryUsed = <onHeapStorageMemoryUsed>,offHeapStorageMemoryUsed = <offHeapStorageMemoryUsed>。 [sparkPlanId: <sparkPlanId>] 使用“set spark.sql.autoBroadcastJoinThreshold=-1”禁用此查询的广播,或使用连接提示强制进行随机联接。

EXECUTOR_BROADCAST_JOIN_STORE_OOM

SQLSTATE:53200

没有足够的内存来存储广播关系 <relationClassName>。 关系大小 = <relationSize>. StorageLevel = <storageLevel>。 [sparkPlanId: <sparkPlanId>] 使用“set spark.sql.autoBroadcastJoinThreshold=-1”禁用此查询的广播,或使用连接提示强制进行随机联接。

EXEC_IMMEDIATE_DUPLICATE_ARGUMENT_ALIASES

SQLSTATE:42701

USING 命令的 EXECUTE IMMEDIATE 子句包含多个具有相同别名(<aliases>)的参数,该参数无效;请更新命令以指定唯一别名,然后重试。

EXPECT_PERMANENT_TABLE_NOT_TEMP

SQLSTATE:42809

<operation>”需要永久表,但 <tableName> 是临时表。 请改为指定永久表。

EXPECT_PERMANENT_VIEW_NOT_TEMP

SQLSTATE:42809

<operation>”需要永久视图,但 <viewName> 是临时视图。

EXPECT_TABLE_NOT_VIEW

SQLSTATE:42809

<operation>”需要一个表,而<viewName>是视图。

有关更多详细信息,请参阅 EXPECT_TABLE_NOT_VIEW

EXPECT_VIEW_NOT_TABLE

SQLSTATE:42809

<tableName> 不支持 <operation>

有关更多详细信息,请参阅 EXPECT_VIEW_NOT_TABLE

表达式解码失败

SQLSTATE:42846

无法将行解码为表达式的值:<expressions>

表达式编码失败 (EXPRESSION_ENCODING_FAILED)

SQLSTATE:42846

无法将表达式的值 <expressions> 解码为行。

表达式类型不可排序

SQLSTATE:42822

无法对列表达式 <expr> 进行排序,因为其类型 <exprType> 不可排序。

EXTERNAL_SHALLOW_CLONE_STILL_EXISTS

SQLSTATE:42893

无法在源表<sourceTable>上运行操作,因为浅表克隆<targetTable>仍然存在,其状态无效。 如果确实要继续此操作,请通过显式运行 DROP 命令清理浅克隆。

EXTERNAL_TABLE_INVALID_SCHEME

SQLSTATE:0A000

外部表不支持 <scheme> 方案。

FABRIC_REFRESH_INVALID_SCOPE

SQLSTATE:0A000

运行 'REFRESH FOREIGN <scope> <name>' 时出错。 无法直接刷新 Fabric <scope>,请使用 'REFRESH FOREIGN CATALOG <catalogName>' 改为刷新 Fabric 目录。

FAILED_EXECUTE_UDF

SQLSTATE:39000

用户自定义函数 (<functionName>: (<signature>) =><result>) 由于 <reason> 而失败。

函数调用失败

SQLSTATE:38000

为调用准备函数 <funcName> 失败。 请仔细检查函数的参数。

FAILED_JDBC

SQLSTATE:HV000

在操作中,JDBC <url> 失败。

有关详细信息,请参阅 FAILED_JDBC

FAILED_PARSE_STRUCT_TYPE

SQLSTATE:22018

分析结构失败:<raw>

文件读取失败

SQLSTATE:KD001

读取文件 <path>时出错。

有关更多详细信息,请参阅 FAILED_READ_FILE

FAILED_REGISTER_CLASS_WITH_KRYO

SQLSTATE:KD000

未能向 Kryo 注册课程。

FAILED_RENAME_PATH

SQLSTATE:42K04

未能将 <sourcePath> 重命名为 <targetPath>,因为目标已存在。

FAILED_RENAME_TEMP_FILE

SQLSTATE:58030

无法将临时文件重命名 <srcPath><dstPath>,因为 FileSystem.rename 返回 false。

FAILED_ROW_TO_JSON

SQLSTATE:2203G

无法将类的行值 <value><class> 转换为 JSON 格式的目标 SQL 类型 <sqlType>

FAILED_TO_LOAD_ROUTINE

SQLSTATE:38000

无法加载例程 <routineName>

FAILED_TO_PARSE_TOO_COMPLEX

SQLSTATE:54001

该语句(包括潜在的 SQL 函数和引用的视图)太复杂,无法分析。

若要缓解此错误,可将语句划分为多个不太复杂的区块。

FEATURE_NOT_ENABLED

SQLSTATE:56038

未启用该功能 <featureName>。 请考虑将配置 <configKey> 设置为 <configValue> 以启用此功能。

FEATURE_NOT_ON_CLASSIC_WAREHOUSE

SQLSTATE:56038

经典 SQL 仓库不支持 <feature>。 若要使用此功能,请使用 Pro 或无服务器 SQL 仓库。

FEATURE_REQUIRES_UC

SQLSTATE:0AKUD

如果不使用 Unity Catalog,则不支持 <feature>。 若要使用此功能,请启用 Unity 目录。

FEATURE_UNAVAILABLE

SQLSTATE:56038

<feature> 在你的环境中不受支持。 若要使用此功能,请联系 Databricks 支持部门。

FIELD_ALREADY_EXISTS

SQLSTATE:42710

无法生成 <op> 列,因为 <fieldNames>中已存在 <struct>

FIELD_NOT_FOUND

SQLSTATE:42704

<fieldName>中没有此类结构字段 <fields>

FILE_IN_STAGING_PATH_ALREADY_EXISTS

SQLSTATE:42K04

暂存路径中的文件 <path> 已存在,但未设置 OVERWRITE

FLATMAPGROUPSWITHSTATE_USER_FUNCTION_ERROR

SQLSTATE:39000

在 flatMapGroupsWithState 中用户提供的函数中出错。 原因:<reason>

FORBIDDEN_DATASOURCE_IN_SERVERLESS

SQLSTATE:0A000

不允许在无服务器计算中查询数据源 <source>。 无服务器计算仅支持 <allowlist> 数据源。

FORBIDDEN_OPERATION

SQLSTATE:42809

不允许对 <statement>:<objectType>执行操作 <objectName>

FOREACH_BATCH_USER_FUNCTION_ERROR

SQLSTATE:39000

用户在 foreach 批处理接收器中提供的函数中发生错误。 原因:<reason>

FOREACH_USER_FUNCTION_ERROR

SQLSTATE:39000

foreach 汇聚器中用户提供的函数发生错误。 原因:<reason>

FOREIGN_KEY_MISMATCH

SQLSTATE:42830

外键父列 <parentColumns> 与主键子列 <childColumns>不匹配。

外部对象名称不能为空

SQLSTATE:42000

无法执行此命令,因为外 <objectType> 名称必须为非空。

外部表转换不支持

SQLSTATE:0AKUC

表不符合从 UC Foreign 升级到 UC External 的条件。 原因:

有关更多详细信息,请参阅 FOREIGN_TABLE_CONVERSION_UNSUPPORTED

FOUND_MULTIPLE_DATA_SOURCES

SQLSTATE:42710

检测到名称为“<provider>”的多个数据源。 请检查数据源未同时注册并位于 classpath 中。

FROM_JSON_CONFLICTING_SCHEMA_UPDATES

SQLSTATE:42601

from_json 推理在以下位置遇到冲突的架构更新:<location>

FROM_JSON_CORRUPT_RECORD_COLUMN_IN_SCHEMA

SQLSTATE:42601

from_json found columnNameOfCorruptRecord (<columnNameOfCorruptRecord>)

在 JSON 对象中,无法再继续。 请为 columnNameOfCorruptRecord

选项“columnNameOfCorruptRecord”。

FROM_JSON_CORRUPT_SCHEMA

SQLSTATE:42601

from_json推理无法读取存储在以下位置的架构:<location>

FROM_JSON_INFERENCE_FAILED

SQLSTATE:42601

from_json无法推断架构。 请改为提供一个架构。

FROM_JSON_INFERENCE_NOT_SUPPORTED

SQLSTATE:0A000

只有在定义流式表时才支持from_json推理。

FROM_JSON_INVALID_CONFIGURATION

SQLSTATE:42601

from_json配置无效:

有关更多详细信息,请参阅 FROM_JSON_INVALID_CONFIGURATION

FROM_JSON_SCHEMA_EVOLUTION_FAILED

SQLSTATE:22KD3

from_json无法从 <old> 发展到 <new>

函数参数必须命名

SQLSTATE:07001

函数 <function> 需要命名参数。 参数缺少名称 <exprs>。 请更新函数调用以添加所有参数的名称, <function>例如(param_name => ...)。

GENERATED_COLUMN_WITH_DEFAULT_VALUE

SQLSTATE:42623

列不能同时具有默认值和生成表达式,但列 <colName> 具有默认值:(<defaultValue>)和生成表达式:(<genExpr>)。

GET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION

SQLSTATE:56038

Hive 2.2 和更低版本不支持 getTablesByType。 请使用 Hive 2.3 或更高版本。

GET_WARMUP_TRACING_FAILED

SQLSTATE:42601

未能获取预热跟踪。 原因:<cause>

GET_WARMUP_TRACING_FUNCTION_NOT_ALLOWED

SQLSTATE:42601

不允许使用函数 get_warmup_tracing()。

GRAPHITE_SINK_INVALID_PROTOCOL

SQLSTATE:KD000

无效的 Graphite 协议:<protocol>

GRAPHITE_SINK_PROPERTY_MISSING

SQLSTATE:KD000

Graphite 接收器需要“<property>”属性。

GROUPING_COLUMN_MISMATCH

SQLSTATE:42803

在分组列 <groupingColumns> 中找不到分组 (<grouping>) 的列。

GROUPING_ID_COLUMN_MISMATCH

SQLSTATE:42803

grouping_id (<groupingIdColumn>) 的列与分组列 (<groupByColumns>) 不匹配。

分组大小超过限制

SQLSTATE:54000

分组集大小不能大于 <maxSize>

GROUP_BY_AGGREGATE

SQLSTATE:42903

不允许在 GROUP BY中使用聚合函数,但发现了 <sqlExpr>

有关更多详细信息,请参阅 GROUP_BY_AGGREGATE

GROUP_BY_POS_AGGREGATE

SQLSTATE:42903

GROUP BY <index> 引用包含聚合函数的表达式 <aggExpr>。 不允许在 GROUP BY中使用聚合函数。

GROUP_BY_POS_OUT_OF_RANGE

SQLSTATE:42805

GROUP BY 位置 <index> 不在选择列表中(有效范围为 [1, <size>])。

分组表达式类型不可排序

SQLSTATE:42822

表达式 <sqlExpr> 不能用作分组表达式,因为它的数据类型 <dataType> 不是可排序的数据类型。

HDFS_HTTP_ERROR

SQLSTATE:KD00F

尝试从 HDFS 读取时,HTTP 请求失败。

有关详细信息,请参阅 HDFS_HTTP_ERROR

HINT_UNSUPPORTED_FOR_JDBC_DIALECT

SQLSTATE:42822

JDBC 数据源中的选项 hint 不支持 <jdbcDialect>。 支持的方言是 MySQLDialectOracleDialect 以及 DatabricksDialect

HIVE_METASTORE_INVALID_PLACEHOLDER_PATH

SQLSTATE:42K06

查询或命令无法执行,因为“spark.databricks.hive.metastore.tablePlaceholderPath”配置提供了无效的 Hive 元存储表占位符路径。 请使用新值更新此配置,以提供有效的路径,然后再次运行查询或命令。

HIVE_METASTORE_TABLE_PLACEHOLDER_PATH_NOT_SET

SQLSTATE:42000

查询或命令失败,因为未设置 Hive 元存储表占位符路径,当架构位置位于 DBFS 上时,该路径是必需的,而表位置是对象/文件。 请将 spark.databricks.hive.metastore.tablePlaceholderPath 设置为有权访问的路径,然后重新运行查询或命令。

HLL_INVALID_INPUT_SKETCH_BUFFER

SQLSTATE:22546

<function>的调用无效;仅支持有效的 HLL 草图缓冲区作为输入(例如由 hll_sketch_agg 函数生成的缓冲区)。

HLL_INVALID_LG_K

SQLSTATE:22546

<function>的调用无效;lgConfigK 值必须在 <min><max>之间,包括:<value>

HLL_UNION_DIFFERENT_LG_K

SQLSTATE:22000

草图具有不同的 lgConfigK 值:<left><right>。 将 allowDifferentLgConfigK 参数设置为 true 以使用不同的 <function> 值调用 lgConfigK

HMS_FEDERATION_SHALLOW_CLONE_NOT_FOUND_IN_UC

SQLSTATE:22KD1

浅克隆路径 '<path>' 无法解析为 Unity Catalog 中的表。 请确保该表存在并且已集成到 Unity Catalog。

混合分析器异常

SQLSTATE:0A000

尝试使用旧固定点分析器和单传递解析程序解析查询或命令时发生失败。

有关更多详细信息,请参阅 HYBRID_ANALYZER_EXCEPTION

IDENTIFIER_TOO_MANY_NAME_PARTS

SQLSTATE:42601

<identifier> 不是有效的标识符,因为它具有 2 个以上的名称部分。

IDENTITY_COLUMNS_DUPLICATED_SEQUENCE_GENERATOR_OPTION

SQLSTATE:42601

重复 IDENTITY 列序列生成器选项:<sequenceGeneratorOption>

IDENTITY_COLUMNS_ILLEGAL_STEP

SQLSTATE:42611

IDENTITY 列步骤不能为 0。

IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE

SQLSTATE:428H2

<dataType> 列不支持 DataType IDENTITY

ILLEGAL_DAY_OF_WEEK

SQLSTATE:22009

非法输入的星期几:<string>

ILLEGAL_STATE_STORE_VALUE

SQLSTATE:42601

提供给状态存储的非法值

有关更多详细信息,请参阅 ILLEGAL_STATE_STORE_VALUE

INAPPROPRIATE_URI_SCHEME_OF_CONNECTION_OPTION

SQLSTATE:42616

由于为连接选项 '<option>' 提供的 URI <uri> 方案不合适,无法创建连接。

允许的方案:<allowedSchemes>

如果方案不存在于 URI 中,请添加方案,或从允许的值指定方案。

INCOMPARABLE_PIVOT_COLUMN

SQLSTATE:42818

无效透视列 <columnName>。 透视列必须可比较。

INCOMPATIBLE_COLUMN_TYPE

SQLSTATE:42825

只能对具有兼容列类型的表执行 <operator><columnOrdinalNumber> 表的 <tableOrdinalNumber> 列是 <dataType1> 类型,该类型与第一个表同一列中的 <dataType2> 类型不兼容。<hint>

INCOMPATIBLE_DATASOURCE_REGISTER

SQLSTATE:56038

检测到不兼容的 DataSourceRegister。 请从 classpath 中删除不兼容的库或对其进行升级。 错误:<message>

INCOMPATIBLE_DATA_FOR_TABLE

SQLSTATE:KD000

无法为表写入不兼容的数据 <tableName>

有关更多详细信息,请参阅 INCOMPATIBLE_DATA_FOR_TABLE

INCOMPATIBLE_JOIN_TYPES

SQLSTATE:42613

<joinType1><joinType2> 的联接类型不兼容。

INCOMPATIBLE_VIEW_SCHEMA_CHANGE

SQLSTATE:51024

视图 <viewName> 的 SQL 查询具有不兼容的架构更改,无法解析列 <colName>。 需要名为 <expectedNum><colName> 列,但收到的列为 <actualCols>

请尝试通过运行:<suggestion>重新创建视图。

不完整类型定义

SQLSTATE:42K01

不完整的复杂类型:

有关更多详细信息,请参阅 INCOMPLETE_TYPE_DEFINITION

INCONSISTENT_BEHAVIOR_CROSS_VERSION

SQLSTATE:42K0B

您可能会得到不同的结果,这是由于升级至新的版本。

有关更多详细信息,请参阅 INCONSISTENT_BEHAVIOR_CROSS_VERSION

INCORRECT_NUMBER_OF_ARGUMENTS

SQLSTATE:42605

<failure><functionName> 至少需要 <minArgs> 参数和大多数 <maxArgs> 参数。

INCORRECT_RAMP_UP_RATE

SQLSTATE:22003

<rowsPerSecond> rowsPerSecond 的最大偏移量为 <maxSeconds>,但“rampUpTimeSeconds”为 <rampUpTimeSeconds>

INDETERMINATE_COLLATION

SQLSTATE:42P22

无法确定要用于字符串操作的排序规则。 使用 COLLATE 子句显式设置排序规则。

INDETERMINATE_COLLATION_IN_EXPRESSION

SQLSTATE:42P22

<expr> 的数据类型具有不确定的排序规则。 使用 COLLATE 子句显式设置排序规则。

INDETERMINATE_COLLATION_IN_SCHEMA

SQLSTATE:42P22

架构包含不确定的排序规则:[<columnPaths>]。 使用 COLLATE 子句显式设置排序规则。

INDEX_ALREADY_EXISTS

SQLSTATE:42710

无法对表 <indexName> 创建索引 <tableName>,因为它已存在。

索引未找到

SQLSTATE:42704

找不到表 <indexName>上的索引 <tableName>

INFINITE_STREAMING_TRIGGER_NOT_SUPPORTED

SQLSTATE:0A000

此群集类型不支持触发器类型 <trigger>

使用不同的触发器类型,例如 AvailableNow、Once。

INSERT_COLUMN_ARITY_MISMATCH

SQLSTATE:21S01

无法写入到 <tableName>,原因是

有关更多详细信息,请参阅 INSERT_COLUMN_ARITY_MISMATCH

INSERT_PARTITION_COLUMN_ARITY_MISMATCH

SQLSTATE:21S01

无法中写入“<tableName>”,<reason>

表列:<tableColumns>

使用静态值的分区列:<staticPartCols>

数据列:<dataColumns>

INSERT_REPLACE_USING_INVALID_SET_OF_COLUMNS

SQLSTATE:42000

表必须分区,所有指定的列都必须表示表的分区列的完整集。

以下列不是分区列:<nonPartitionColumns>

以下分区列缺失:<missingPartitionsColumns>

INSERT_REPLACE_USING_NOT_ENABLED

SQLSTATE:0A000

请联系 Databricks 代表启用 INSERT INTO ... REPLACE USING (...) 功能。

INSUFFICIENT_PERMISSIONS

SQLSTATE:42501

权限不足:

<report>

INSUFFICIENT_PERMISSIONS_EXT_LOC

SQLSTATE:42501

用户 <user> 对外部位置 <location>没有足够的权限。

INSUFFICIENT_PERMISSIONS_NO_OWNER

SQLSTATE:42501

<securableName>没有所有者。 要求管理员设置所有者。

INSUFFICIENT_PERMISSIONS_OWNERSHIP_SECURABLE

SQLSTATE:42501

用户不拥有 <securableName>

INSUFFICIENT_PERMISSIONS_SECURABLE

SQLSTATE:42501

用户对 <action> 没有 <securableName> 权限。

INSUFFICIENT_PERMISSIONS_SECURABLE_PARENT_OWNER

SQLSTATE:42501

<securableName> 的所有者不同于 <parentSecurableName>的所有者。

INSUFFICIENT_PERMISSIONS_SPARK_CONNECT_CLIENT_SET_CLOUDFETCH_RETENTION_TIMEOUT

SQLSTATE:42501

客户端无权为 CloudFetch 结果设置自定义保留超时。

INSUFFICIENT_PERMISSIONS_STORAGE_CRED

SQLSTATE:42501

存储凭据 <credentialName> 权限不足。

INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES

SQLSTATE:42501

由于对基础安全对象的权限,用户无法对 <action> 执行 <securableName>

INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES_VERBOSE

SQLSTATE:42501

由于对基础安全对象的权限,用户无法对 <action> 执行 <securableName>

<underlyingReport>

INTERVAL_ARITHMETIC_OVERFLOW

SQLSTATE:22015

使用间隔操作时的整数溢出。

有关更多详细信息,请参阅 INTERVAL_ARITHMETIC_OVERFLOW

INTERVAL_DIVIDED_BY_ZERO

SQLSTATE:22012

被零除。 使用 try_divide 容许除数为 0,并返回 NULL

无效的聚合过滤器

SQLSTATE:42903

聚合函数中的 FILTER 表达式 <filterExpr> 无效。

有关更多详细信息,请参阅 INVALID_AGGREGATE_FILTER

INVALID_AGNOSTIC_ENCODER

SQLSTATE:42001

找到无效的不可知编码器。 期望 AgnosticEncoder 实例,但得到 <encoderType>。 有关详细信息,请参阅“<docroot>/api/java/index.html?org/apache/spark/sql/Encoder.html”。

INVALID_ALGORITHM_VALUE

SQLSTATE:22023

无效或不受支持的边缘内插算法值 <alg>

无效的数组索引

SQLSTATE:22003

索引 <indexValue> 超出界限。 数组具有 <arraySize> 元素。 使用 SQL 函数 get() 容许访问无效索引上的元素,并改为返回 NULL

有关更多详细信息,请参阅 INVALID_ARRAY_INDEX

INVALID_ARRAY_INDEX_IN_ELEMENT_AT

SQLSTATE:22003

索引 <indexValue> 超出界限。 数组具有 <arraySize> 元素。 使用 try_element_at 来容忍在无效索引处访问元素,并返回 NULL 作为替代值。

有关更多详细信息,请参阅 INVALID_ARRAY_INDEX_IN_ELEMENT_AT

INVALID_ATTRIBUTE_NAME_SYNTAX

SQLSTATE:42601

属性名称中的语法错误:<name>。 检查反引号是否成对显示,带引号的字符串是一个完整的名称部分,并且仅在带引号的名称部分内使用反引号。

无效的AWS认证

SQLSTATE:42000

请选择以下身份验证方法之一:

  • 提供 Databricks 服务凭据(<serviceCredential>)的名称(作为 spark 流选项或群集环境变量)。

  • 提供 AWS AccessKey(<awsAccessKey>)和 SecretAccessKey(<awsSecretKey>)以使用 AWS 密钥。

  • 请勿提供 AWS 密钥或 Databricks 服务凭据,以使用用于 Kinesis 身份验证的默认 AWS 凭据提供程序链。

AWS身份验证显式选项无效

SQLSTATE:42000

请提供您的 Databricks 服务凭据的名称或编号(<serviceCredential>

<awsAccessKey><awsSecretKey>

INVALID_BITMAP_POSITION

SQLSTATE:22003

索引为 0 的位图位置 <bitPosition> 超出边界。 位图具有 <bitmapNumBits> 位(<bitmapNumBytes> 字节)。

INVALID_BOOLEAN_STATEMENT

SQLSTATE:22546

条件中预期会出现布尔语句,但已找到 <invalidStatement>

无效边界

SQLSTATE:22003

边界 <boundary> 无效:<invalidValue>

有关更多详细信息,请参阅 INVALID_BOUNDARY

INVALID_BUCKET_COLUMN_DATA_TYPE

SQLSTATE:42601

不能对存储桶列使用 <type>。 存储桶不支持排序规则数据类型。

INVALID_BUCKET_FILE

SQLSTATE:58030

无效的桶文件:<path>

INVALID_BYTE_STRING

SQLSTATE:22P03

预期格式为 ByteString,但为 <unsupported> (<class>

INVALID_COLUMN_NAME_AS_PATH

SQLSTATE:46121

数据源 <datasource> 无法保存列 <columnName>,因为它的名称包含文件路径中不允许的某些字符。 请使用别名对其进行重命名。

INVALID_COLUMN_OR_FIELD_DATA_TYPE

SQLSTATE:42000

列或字段 <name> 的类型是 <type>,但必须是 <expectedType>

INVALID_CONF_VALUE

SQLSTATE:22022

配置“<confValue>”中的值“<confName>”无效。

有关更多详细信息,请参阅 INVALID_CONF_VALUE

无效或损坏的记录类型

SQLSTATE:42804

损坏记录的列 <columnName> 必须具有可为 null 的 STRING 类型,但收到了 <actualType>

INVALID_CRS_VALUE

SQLSTATE:22023

无效或不受支持的 CRS(坐标引用系统)值 <crs>

INVALID_CURRENT_RECIPIENT_USAGE

SQLSTATE:42887

current_recipient 函数只能在 CREATE VIEW 语句或 ALTER VIEW 语句中使用,以在 Unity 目录中仅定义共享视图。

INVALID_CURSOR

SQLSTATE:HY109

游标无效。

有关更多详细信息,请参阅 INVALID_CURSOR

INVALID_DATETIME_PATTERN

SQLSTATE:22007

无法识别的日期/时间模式:<pattern>

有关更多详细信息,请参阅 INVALID_DATETIME_PATTERN

无效的默认值

SQLSTATE:42623

无法执行 <statement> 命令,因为目标列或变量 <colName> 具有 DEFAULT<defaultValue>

有关更多详细信息,请参阅 INVALID_DEFAULT_VALUE

无效的分隔符值

SQLSTATE:42602

分隔符的值无效。

有关更多详细信息,请参阅 INVALID_DELIMITER_VALUE

INVALID_DEST_CATALOG

SQLSTATE:42809

SYNC 命令的目标目录必须位于 Unity 目录中。 已找到 <catalog>

无效的驱动程序内存 (INVALID_DRIVER_MEMORY)

SQLSTATE:F0000

系统内存 <systemMemory> 必须至少 <minSystemMemory>

请通过在 Spark 配置中使用 --driver-memory 选项 或 "<config>" 来增加内存堆的大小。

无效的动态选项

SQLSTATE:42K10

为外部表 <table_name> 传递的选项 <option_list> 是禁止的。

INVALID_EMPTY_LOCATION

SQLSTATE:42K05

位置名称不能为空字符串,但已指定 <location>

无效错误条件声明

SQLSTATE:42K0R

条件声明无效。

有关更多详细信息,请参阅 INVALID_ERROR_CONDITION_DECLARATION

INVALID_ESC

SQLSTATE:42604

找到了无效的转义字符串:<invalidEscape>。 转义字符串必须仅包含一个字符。

INVALID_ESCAPE_CHAR

SQLSTATE:42604

EscapeChar 应该是长度为 1 的字符串字面量,但结果却是 <sqlExpr>

无效的执行器内存

SQLSTATE:F0000

执行程序内存 <executorMemory> 必须至少 <minSystemMemory>

请使用 Spark 配置中的 --executor-memory 选项或“”<config>增加执行程序内存。

表达式编码器无效

SQLSTATE:42001

找到无效的表达式编码器。 需要 ExpressionEncoder 的实例,但获得 <encoderType>。 有关详细信息,请参阅“<docroot>/api/java/index.html?org/apache/spark/sql/Encoder.html”。

INVALID_EXTERNAL_TYPE

SQLSTATE:42K0N

外部类型 <externalType> 对表达式 <type>处的类型 <expr> 无效。

INVALID_EXTRACT_BASE_FIELD_TYPE

SQLSTATE:42000

无法从 <base> 中提取值。 需要复杂类型[STRUCTARRAYMAP],但得到了 <other>

INVALID_EXTRACT_FIELD

SQLSTATE:42601

无法从 <field>中提取 <expr>

INVALID_EXTRACT_FIELD_TYPE

SQLSTATE:42000

字段名称应是非 null 字符串文本,但它是 <extraction>

INVALID_FIELD_NAME

SQLSTATE:42000

字段名称 <fieldName> 无效:<path> 不是结构。

格式无效

SQLSTATE:42601

格式无效:<format>

有关更多详细信息,请参阅 INVALID_FORMAT

INVALID_FRACTION_OF_SECOND

SQLSTATE:22023

秒的有效范围为 [0, 60](含),但提供的值为 <secAndMicros>。 若要避免此错误,请使用 try_make_timestamp,如果出错,它将返回 NULL

如果不想使用此函数的会话默认时间戳版本,请使用 try_make_timestamp_ntztry_make_timestamp_ltz

INVALID_GET_DIAGNOSTICS_USAGE

SQLSTATE:42612

语句的 GETDIAGNOSTICS 用法无效。

有关更多详细信息,请参阅 INVALID_GET_DIAGNOSTICS_USAGE

INVALID_GET_DIAGNOSTICS_USAGE_CONDITION_NUMBER_MUST_BE_ONE

SQLSTATE:35000

语句的 GETDIAGNOSTICS 用法无效。 语句中 GETDIAGNOSTICS 条件编号的唯一支持值为 1。

INVALID_HANDLE

SQLSTATE:HY000

句柄 <handle> 无效。

有关更多详细信息,请参阅 INVALID_HANDLE

INVALID_HANDLER_DECLARATION

SQLSTATE:42K0Q

处理程序声明无效。

有关更多详细信息,请参阅 INVALID_HANDLER_DECLARATION

无效的HTTP请求方法

SQLSTATE:22023

输入参数:方法、值:<paramValue> 不是http_request的有效参数,因为它不是有效的 HTTP 方法。

无效的HTTP请求路径

SQLSTATE:22023

输入参数:路径、值:<paramValue> 不是http_request的有效参数,因为不允许路径遍历。

INVALID_IDENTIFIER

SQLSTATE:42602

未加引号的标识符 <ident> 是无效的,必须加反引号为:<ident>

未加引号的标识符只能包含 ASCII 字母 ('a' - 'z', 'A' - 'Z')、数字 ('0' - '9') 和下划线 ('_')。

未引号的标识符也不得以数字开头。

不同的数据源和元存储可能会对有效标识符施加额外的限制。

INVALID_INDEX_OF_ZERO

SQLSTATE:22003

索引 0 无效。 索引应为< 0> 0(第一个元素的索引为1)。

INVALID_INLINE_TABLE

SQLSTATE:42000

内联表无效。

有关更多详细信息,请参阅 INVALID_INLINE_TABLE

无效的时间间隔格式

SQLSTATE:22006

将“<input>”分析为间隔时出错。 请确保提供的值采用有效的格式来定义间隔。 可以参考文档以获取正确的格式。

有关更多详细信息,请参阅 INVALID_INTERVAL_FORMAT

INVALID_INTERVAL_WITH_MICROSECONDS_ADDITION

SQLSTATE:22006

无法将间隔添加到日期,因为它的微秒部分不是 0。 若要解决此问题,请将输入日期转换为时间戳,以支持添加包含非零微秒的间隔。

无效的 Java 标识符作为字段名称

SQLSTATE:46121

<fieldName> 不是 Java 的有效标识符,不能用作字段名称

<walkedTypePath>

无效的_JDBC_连接选项 (INVALID_JDBC_CONNECTION_OPTION)

SQLSTATE:42616

此选项 <optionKey> 不是此 jdbc 连接的有效参数。

无效的 JDBC 连接选项值

SQLSTATE:42616

具有值<optionKey>的选项<optionValue>不是此 jdbc 连接的有效选项。

INVALID_JOIN_TYPE_FOR_JOINWITH

SQLSTATE:42613

joinWith 中的联接类型无效:<joinType>

INVALID_JSON_DATA_TYPE (JSON 数据类型无效)

SQLSTATE:2203G

无法将 JSON 字符串“<invalidType>”转换为数据类型。 请输入有效的数据类型。

INVALID_JSON_DATA_TYPE_FOR_COLLATIONS

SQLSTATE:2203G

排序规则只能应用于字符串类型,而 JSON 数据类型为 <jsonType>

无效的 JSON 记录类型

SQLSTATE:22023

<failFastMode>模式下推断通用架构时检测到 JSON 记录的类型无效。 需要 STRUCT 类型,但找到了 <invalidType>

无效的JSON根字段

SQLSTATE:22032

无法将 JSON 根字段转换为目标 Spark 类型。

INVALID_JSON_SCHEMA_MAP_TYPE

SQLSTATE:22032

输入架构 <jsonSchema> 只能包含 STRING 作为 MAP的键类型。

INVALID_KRYO_SERIALIZER_BUFFER_SIZE

SQLSTATE:F0000

配置“<bufferSizeConfKey>”的值必须小于 2048 MiB,但却为 <bufferSizeConfValue> MiB。

INVALID_LABEL_USAGE

SQLSTATE:42K0L

标签 <labelName> 的使用无效。

有关更多详细信息,请参阅 INVALID_LABEL_USAGE

无效的Lambda函数调用

SQLSTATE:42K0D

lambda 函数调用无效。

有关更多详细信息,请参阅 INVALID_LAMBDA_FUNCTION_CALL

INVALID_LATERAL_JOIN_TYPE

SQLSTATE:42613

不允许使用具有 <joinType> 关联的 JOINLATERAL,因为 OUTER 子查询无法与其连接伙伴相关联。 请删除 LATERAL 关联或使用 INNERJOIN,或改用 LEFT OUTERJOIN。

INVALID_LIMIT_LIKE_EXPRESSION

SQLSTATE:42K0E

表达式 <expr> 等限制无效。

有关更多详细信息,请参阅 INVALID_LIMIT_LIKE_EXPRESSION

日志版本无效

SQLSTATE:KD002

UnsupportedLogVersion。

有关详细信息,请参阅 INVALID_LOG_VERSION

INVALID_NON_ABSOLUTE_PATH

SQLSTATE:22KD1

提供的非绝对路径 <path> 不能限定。 请将路径更新为有效的 dbfs 装载位置。

无效的非确定性表达式

SQLSTATE:42K0E

运算符需要确定性表达式,但实际表达式是 <sqlExprs>

INVALID_NUMERIC_LITERAL_RANGE

SQLSTATE:22003

数值文本 <rawStrippedQualifier> 超出了 <typeName> 的有效范围,其最小值为 <minValue>,最大值为 <maxValue>。 请相应地调整值。

无效观察指标

SQLSTATE:42K0E

观察到的指标无效。

有关更多详细信息,请参阅 INVALID_OBSERVED_METRICS

无效选项

SQLSTATE:42K06

无效选项:

有关更多详细信息,请参阅 INVALID_OPTIONS

INVALID_PANDAS_UDF_PLACEMENT

SQLSTATE:0A000

组聚合 pandas UDF <functionList> 不能与其他非 pandas 聚合函数一起调用。

无效参数标记值

SQLSTATE:22023

提供了无效的参数映射:

有关更多详细信息,请参阅 INVALID_PARAMETER_MARKER_VALUE

参数值无效

SQLSTATE:22023

<parameter> 中的参数值 <functionName> 无效:

有关更多详细信息,请参阅 INVALID_PARAMETER_VALUE

INVALID_PARTITION_COLUMN_DATA_TYPE

SQLSTATE:0A000

不能对分区列使用 <type>

INVALID_PARTITION_OPERATION

SQLSTATE:42601

分区命令无效。

有关更多详细信息,请参阅 INVALID_PARTITION_OPERATION

INVALID_PARTITION_VALUE

SQLSTATE:42846

未能将 <value> 的值转换为用于分区列 <dataType>的数据类型 <columnName>。 确保该值与此分区列的预期数据类型匹配。

INVALID_PIPELINE_ID

SQLSTATE:42604

管道 ID <pipelineId> 无效。

管道 ID 应该是格式为“xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx”的 UUID

INVALID_PRIVILEGE

SQLSTATE:42852

权限 <privilege><securable>无效。

无效的属性键

SQLSTATE:42602

<key> 属性键无效,请使用引号,例如 SET <key>=<value>

属性值无效

SQLSTATE:42602

<value> 属性值无效,请使用引号,例如 SET <key>=<value>

INVALID_QUALIFIED_COLUMN_NAME

SQLSTATE:42000

列名 <columnName> 无效,因为它未使用表名限定,或者包含 4 个以上的名称部分。

INVALID_QUERY_MIXED_QUERY_PARAMETERS

SQLSTATE:42613

参数化查询必须使用位置参数或命名参数,但不能同时使用这两个参数。

INVALID_RECURSIVE_CTE

SQLSTATE:42836

找到的递归定义无效。 递归查询必须包含一个 UNION 或一个包含 2 个子项的 UNION ALL 语句。 第一个子项需要是没有任何递归引用的锚定项。

无效递归引用

SQLSTATE:42836

WITH RECURSIVE 子句中找到无效的递归引用。

有关更多详细信息,请参阅 INVALID_RECURSIVE_REFERENCE

INVALID_REGEXP_REPLACE

SQLSTATE:22023

无法对源 = "<source>"、模式 = "<pattern>"、替换 = "<replacement>" 和位置 = <position> 执行 regexp_replace。

INVALID_RESET_COMMAND_FORMAT

SQLSTATE:42000

期望格式为 'RESET' 或 'RESET key'。 如果要在密钥中包含特殊字符,请使用引号,例如 RESET key

INVALID_RESIGNAL_USAGE

SQLSTATE:0K000

RESIGNAL 当处理程序未处于活动状态时。 RESIGNAL 语句只能在异常处理程序正文中使用。

INVALID_S3_COPY_CREDENTIALS

SQLSTATE:42501

COPY INTO 凭据必须包括 AWS_ACCESS_KEYAWS_SECRET_KEYAWS_SESSION_TOKEN

INVALID_SAVE_MODE

SQLSTATE:42000

指定的保存模式 <mode> 无效。 有效的保存模式包括“append”、“overwrite”、“ignore”、“error”、“errorifexists”和“default”。

INVALID_SCHEMA

SQLSTATE:42K07

输入架构 <inputSchema> 不是有效的架构字符串。

有关更多详细信息,请参阅 INVALID_SCHEMA

无效的架构或关系名称

SQLSTATE:42602

<name> 不是表/架构的有效名称。 有效名称仅包含字母字符、数字和 _。

INVALID_SCHEME

SQLSTATE:0AKUC

Unity 目录不支持将 <name> 作为默认文件方案。

无效的密钥查询

SQLSTATE:22531

机密查找无效:

有关更多详细信息,请参阅 INVALID_SECRET_LOOKUP

INVALID_SET_SYNTAX

SQLSTATE:42000

期望格式为 'SET'、'SET key' 或 'SET key=value'。 如果要在键中包含特殊字符,或在值中包含分号,请使用后引号,例如 SET key=value

INVALID_SHARED_ALIAS_NAME

SQLSTATE:42601

<sharedObjectType> 别名必须采用“schema.name”格式。

INVALID_SINGLE_VARIANT_COLUMN

SQLSTATE:42613

在启用<schema>选项时,用户指定的架构singleVariantColumn无效。 架构必须要么是变体字段,要么是变体字段加上损坏列字段。

INVALID_SOURCE_CATALOG

SQLSTATE:42809

源目录不得位于 SYNC 命令的 Unity 目录中。 已找到 <catalog>

INVALID_SOURCE_FOR_FILTERING_SERVICE_MERGE_COMMAND

SQLSTATE:42KDH

筛选服务 MERGE 操作的源只能包含映射和筛选器。

请调整 MERGE 命令或改用暂存表作为源。

<stmt>

无效的SPARK配置

SQLSTATE:42616

Spark 配置无效:

有关详细信息请参阅INVALID_SPARK_CONFIG

INVALID_SQLSTATE(无效的SQL状态)

SQLSTATE:428B3

无效 SQLSTATE 值:“<sqlState>”。 SQLSTATE 长度必须为 5 个字符,且仅包含 A-Z 和 0-9。 SQLSTATE 不得以“00”、“01”或“XX”开头。

INVALID_SQL_ARG

SQLSTATE:42K08

<name> 的参数 sql() 无效。 请考虑将其替换为 SQL 文本或集合构造函数,例如 map()array()struct()

SQL语法错误

SQLSTATE:42000

无效的 SQL 语法:

有关更多详细信息,请参阅 INVALID_SQL_SYNTAX

INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY

SQLSTATE:42604

暂存 <operation> 查询中的暂存路径无效:<path>

INVALID_STATEMENT_FOR_EXECUTE_INTO

SQLSTATE:07501

INTOEXECUTE IMMEDIATE 子句仅适用于查询,但给定的语句不是查询:<sqlString>

INVALID_STATEMENT_OR_CLAUSE

SQLSTATE:42601

语句或子句:<operation> 无效。

INVALID_STREAMING_REAL_TIME_MODE_TRIGGER_INTERVAL

SQLSTATE:22023

实时触发器间隔设置为 <interval> ms。 这小于 <minBatchDuration> spark.databricks.streaming.realTimeMode.minBatchDuration 指定的毫秒最小值。

INVALID_STREAMING_REAL_TIME_MODE_TRIGGER_OVERRIDE_INTERVAL

SQLSTATE:22023

无法解析实时触发器的检查点间隔 <interval>。 请确认你已传递一个正整数。

无效的子查询表达式

SQLSTATE:42823

无效的子查询:

有关更多详细信息,请参阅 INVALID_SUBQUERY_EXPRESSION

INVALID_TARGET_FOR_ALTER_COMMAND

SQLSTATE:42809

ALTER <commandTableType> ... <command> 不支持 <tableName>。 请改用ALTER <targetTableType>... <command>

INVALID_TARGET_FOR_SET_TBLPROPERTIES_COMMAND

SQLSTATE:42809

ALTER <commandTableType> ... SET TBLPROPERTIES 不支持 <tableName>。 请改用ALTER <targetTableType>... SET TBLPROPERTIES

INVALID_TEMP_OBJ_REFERENCE

SQLSTATE:42K0F

无法创建类型 <objName> 的永久性对象 <obj>,因为它引用了类型 <tempObjName>的临时对象 <tempObj>。 请将临时对象 <tempObjName> 持久化,或将持久对象 <objName> 设为临时对象。

时间戳格式无效

SQLSTATE:22000

提供的时间戳 <timestamp> 与预期的语法 <format> 不匹配。

INVALID_TIMEZONE

SQLSTATE:22009

时区:<timeZone> 无效。 时区必须是基于区域的区域 ID 或区域偏移量。 区域 ID 必须具有“区域/城市”的格式,如“America/Los_Angeles”。 时区偏移必须采用“(+|-)HH”、“(+|-)HH:mm”或“(+|-)HH:mm:ss”格式,例如“-08”、“+01:00”或“-13:33:33”,且必须在 -18:00 到 +18:00 范围内。 'Z' 和 'UTC' 被接受为 '+00:00' 的同义词。

INVALID_TIME_TRAVEL_SPEC

SQLSTATE:42K0E

在按时间顺序查看表时,无法同时指定版本和时间戳。

INVALID_TIME_TRAVEL_TIMESTAMP_EXPR

SQLSTATE:42K0E

时间旅行时间戳表达式 <expr> 无效。

有关更多详细信息,请参阅 INVALID_TIME_TRAVEL_TIMESTAMP_EXPR

INVALID_TYPED_LITERAL

SQLSTATE:42604

类型化文本 <valueType> 的值无效:<value>

INVALID_UDF_IMPLEMENTATION

SQLSTATE:38000

函数 <funcName> 不实现 ScalarFunction 或 AggregateFunction。

INVALID_UPGRADE_SYNTAX

SQLSTATE:42809

<command> <supportedOrNot> 源表位于 Hive 元存储中,目标表位于 Unity 目录中。

无效的URL

SQLSTATE:22P02

url 无效:<url>。 使用 try_parse_url 来容忍无效的 URL 并改为返回 NULL

INVALID_USAGE_OF_STAR_OR_REGEX

SQLSTATE:42000

<elem><prettyName> 的使用情况无效。

INVALID_UTF8_STRING

SQLSTATE:22029

在字符串中找到的 UTF8 字节序列无效:<str>

无效的UUID

SQLSTATE:42604

输入 <uuidInput> 不是有效的 UUID。

UUID 应采用“xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx”格式

请检查 UUID 的格式。

无效变量声明

SQLSTATE:42K0M

变量声明无效。

有关更多详细信息,请参阅 INVALID_VARIABLE_DECLARATION

INVALID_VARIABLE_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE

SQLSTATE:42K09

变量类型必须是字符串类型,但接收到的是 <varType>

INVALID_VARIANT_CAST

SQLSTATE:22023

变量值 <value> 不能被转换为 <dataType>。 请改用 try_variant_get

INVALID_VARIANT_FROM_PARQUET

SQLSTATE:22023

无效的变量。

有关更多详细信息,请参阅 INVALID_VARIANT_FROM_PARQUET

INVALID_VARIANT_GET_PATH

SQLSTATE:22023

路径 <path> 不是 <functionName>中有效的变体提取路径。

有效路径应以 $ 开头,后跟零个或多个段,如 [123].name['name']["name"]

INVALID_VARIANT_SHREDDING_SCHEMA

SQLSTATE:22023

架构 <schema> 不是有效的变体切碎架构。

INVALID_WHERE_CONDITION

SQLSTATE:42903

WHERE 条件 <condition> 包含无效表达式:<expressionList>

重写查询以避免 WHERE 子句中的窗口函数、聚合函数和生成器函数。

INVALID_WINDOW_SPEC_FOR_AGGREGATION_FUNC

SQLSTATE:42601

无法为 ORDER BY指定 <aggFunc> 或窗口框架。

组内表达式无效

SQLSTATE:42K0K

使用 <funcName> 时,函数 WITHIN GROUP 无效。

有关更多详细信息,请参阅 INVALID_WITHIN_GROUP_EXPRESSION

INVALID_WRITER_COMMIT_MESSAGE

SQLSTATE:42KDE

数据源写入器生成了不合理数量的提交消息。 每个任务中应仅有一条写入器提交消息,但收到了 <detail>

INVALID_WRITE_DISTRIBUTION

SQLSTATE:42000

请求的写入分配无效。

有关更多详细信息,请参阅 INVALID_WRITE_DISTRIBUTION

ISOLATED_COMMAND_FAILURE

SQLSTATE:39000

未能执行 <command>。 命令输出:

<output>

ISOLATED_COMMAND_UNKNOWN_FAILURE

SQLSTATE:39000

未能执行 <command>

JOIN_CONDITION_IS_NOT_BOOLEAN_TYPE

SQLSTATE:42K0E

联接条件 <joinCondition><conditionType> 类型无效,应为“BOOLEAN”。

KAFKA_DATA_LOSS

SQLSTATE:22000

某些数据可能已丢失,因为它们在 Kafka 中不再可用;

数据已被 Kafka 设为过期,或者主题可能在其中的所有数据处理完毕之前

已被删除。

如果不希望流式查询在这种情况下失败,请将源选项 failOnDataLoss 设置为 false。

原因:

有关更多详情,请参阅 KAFKA_DATA_LOSS

KINESIS_COULD_NOT_READ_SHARD_UNTIL_END_OFFSET

SQLSTATE:22000

在以下 Kinesis 流的分片 <endSeqNum> 达到所需的序列号 <shardId> 之前无法读取

使用使用者模式 <stream> 的 kinesis 流 <consumerMode>。 查询将因...而失败

潜在的数据丢失。 最后一个读取记录位于序列号 <lastSeqNum>

如果存在以下条件,则可能会发生这种情况:具有 endSeqNum 的数据已过期,或者 Kinesis 流已

删除并以相同名称进行了重建。 可以

通过在 Spark 配置中将 spark.databricks.kinesis.failOnDataLoss 设置为 false。

KINESIS_EFO_CONSUMER_NOT_FOUND

SQLSTATE:51000

对于 kinesis 流 <streamId>,删除了流的以前注册的 EFO 使用者 <consumerId>

重启查询,以便注册新的使用者。

KINESIS_EFO_SUBSCRIBE_LIMIT_EXCEEDED(超出 Kinesis EFO 订阅限制)

SQLSTATE:51000

对于分片 <shard>,上一次 subscribeToShard API 调用是在下一次调用的 5 秒内。

在 5 秒或更多秒后重启查询。

KINESIS_FETCHED_SHARD_LESS_THAN_TRACKED_SHARD

SQLSTATE:42K04

从 Kinesis 提取的最小 shardId (<fetchedShardId>)

小于跟踪的最小 shardId (<trackedShardId>)。

这是意外的,在删除 Kinesis 流并使用相同的名称重新创建时,会发生此情况,

使用现有检查点位置重启了使用此 Kinesis 流的流式处理查询。

使用新的检查点路径重启流查询,或使用新名称创建流。

KINESIS_POLLING_MODE_UNSUPPORTED

SQLSTATE:0A000

不支持 Kinesis 轮询模式。

KINESIS_RECORD_SEQ_NUMBER_ORDER_VIOLATION

SQLSTATE:22000

对于分片 <shard>,上一次提取中从 Kinesis 读取的最后一条记录具有序列号 <lastSeqNum>

它大于当前提取中读取的记录的序列号 <recordSeqNum>

这是意外的,当重试或下一次提取的开始位置不正确初始化时,可能会造成下游重复的记录。

KINESIS_SOURCE_MUST_BE_IN_EFO_MODE_TO_CONFIGURE_CONSUMERS

SQLSTATE:42KDF

若要从 Kinesis Streams 读取使用者配置(consumerNameconsumerNamePrefixregisteredConsumerId),consumerMode 必须是 efo

KINESIS_SOURCE_MUST_SPECIFY_REGISTERED_CONSUMER_ID_AND_TYPE

SQLSTATE:42KDF

若要从 Kinesis Streams 中读取已注册使用者,必须同时指定 registeredConsumerIdregisteredConsumerIdType 选项。

KINESIS_SOURCE_MUST_SPECIFY_STREAM_NAMES_OR_ARNS

SQLSTATE:42KDF

若要从 Kinesis Streams 读取,必须将 streamNamestreamARN 选项的任一(但不是两者)配置为以逗号分隔的流名称/ANN 列表。

KINESIS_SOURCE_NO_CONSUMER_OPTIONS_WITH_REGISTERED_CONSUMERS

SQLSTATE:42KDF

若要从具有已注册使用者的 Kinesis Streams 进行读取,请不要配置 consumerNameconsumerNamePrefix 选项,因为它们不会生效。

KINESIS_SOURCE_REGISTERED_CONSUMER_ID_COUNT_MISMATCH

SQLSTATE:22023

已注册的使用者 ID 数应等于 Kinesis 流的数量,但收到了 <numConsumerIds> 使用者 ID 和 <numStreams> 流。

KINESIS_SOURCE_REGISTERED_CONSUMER_NOT_FOUND

SQLSTATE:22023

找不到 streamARN <consumerId> 提供的注册使用者 <streamARN>。 验证是否已注册使用者或未提供 registeredConsumerId 选项。

KINESIS_SOURCE_REGISTERED_CONSUMER_TYPE_INVALID

SQLSTATE:22023

注册的使用者类型 <consumerType> 无效。 它必须是 nameARN

KRYO_BUFFER_OVERFLOW

SQLSTATE:54006

Kryo 序列化失败:<exceptionMsg>。 要避免这种情况,请增加“<bufferSizeConfKey>”值。

LABELS_MISMATCH

SQLSTATE:42K0L

开始标签 <beginLabel> 与结束标签 <endLabel>不匹配。

LABEL_ALREADY_EXISTS

SQLSTATE:42K0L

标签 <label> 已存在。 选择其他名称或重命名现有标签。

LABEL_NAME_FORBIDDEN

SQLSTATE:42K0L

禁止标签名称 <label>

LAKEHOUSE_FEDERATION_DATA_SOURCE_REQUIRES_NEWER_DBR_VERSION

SQLSTATE:0A000

Lakehouse 联合数据源“<provider>”需要更新的 Databricks Runtime 版本。

有关更多详细信息,请参阅 LAKEHOUSE_FEDERATION_DATA_SOURCE_REQUIRES_NEWER_DBR_VERSION

加载数据路径不存在

SQLSTATE:42K03

LOAD DATA 输入路径不存在:<path>

LOCAL_MUST_WITH_SCHEMA_FILE

SQLSTATE:42601

LOCAL 必须与 file 的架构一起使用,但收到 了 <actualSchema>

LOCATION_ALREADY_EXISTS

SQLSTATE:42710

无法将托管表命名为 <identifier>,因为其关联位置 <location> 已存在。 请选取其他表名,或首先删除现有位置。

LOST_TOPIC_PARTITIONS_IN_END_OFFSET_WITH_TRIGGER_AVAILABLENOW

SQLSTATE:KD000

使用 Trigger.AvailableNow 运行查询期间,Kafka 主题中的某些分区已丢失。 此错误可能是暂时性的 - 重启查询,如果仍然看到相同的问题,请报告。

最新偏移量 <tpsForLatestOffset> 的主题分区,结束偏移量 <tpsForEndOffset> 的主题分区

MALFORMED_AVRO_MESSAGE

SQLSTATE:KD000

在消息反序列化中检测到格式不正确的 Avro 消息。 分析模式:<mode>。 要将格式错误的 Avro 消息处理为 null 结果,请尝试将选项“mode”设置为“PERMISSIVE”。

格式错误的字符编码

SQLSTATE:22000

使用 <function> 执行 <charset> 时找到的值无效

错误格式的CSV记录

SQLSTATE:KD000

格式不正确的 CSV 记录:<badRecord>

格式错误的日志文件

SQLSTATE:KD002

日志文件格式不正确:无法从 <text>读取正确的日志版本。

MALFORMED_PROTOBUF_MESSAGE

SQLSTATE:42K0G

在消息反序列化中检测到格式不正确的 Protobuf 消息。 分析模式:<failFastMode>。 若要将格式不正确的 protobuf 消息作为 null 结果处理,请尝试将选项“mode”设置为“PERMISSIVE”。

解析中的记录格式错误

SQLSTATE:22023

在记录分析中检测到格式不正确的记录:<badRecord>

分析模式:<failFastMode>。 若要将格式错误的记录作为 null 结果处理,请尝试将选项“mode”设置为“PERMISSIVE”。

有关更多详细信息,请参阅 MALFORMED_RECORD_IN_PARSING

MALFORMED_STATE_IN_RATE_PER_MICRO_BATCH_SOURCE

SQLSTATE:22000

RatePerMicroBatch 源中的状态格式错误。

有关更多详细信息,请参阅 MALFORMED_STATE_IN_RATE_PER_MICRO_BATCH_SOURCE

MALFORMED_VARIANT

SQLSTATE:22023

变体二进制格式不正确。 请检查数据源是否有效。

MANAGED_ICEBERG_ATTEMPTED_TO_ENABLE_CLUSTERING_WITHOUT_DISABLING_DVS_OR_ROW_TRACKING

SQLSTATE:0A000

尝试在托管 Apache Iceberg 表上启用 Liquid 聚类分析,而无需禁用删除向量和行跟踪。 对于托管的 Iceberg 表,不支持删除向量和行跟踪;但对于 Liquid 表的行级并发,这些功能是必需的。 为了在托管的 Iceberg 表上启用 Liquid 聚类分析并降低并发控制,必须禁用此表的删除矢量和行跟踪功能。

MANAGED_ICEBERG_OPERATION_NOT_SUPPORTED

SQLSTATE:0A000

托管 Iceberg 表不支持 <operation>

MANAGED_TABLE_WITH_CRED

SQLSTATE:42613

不支持使用存储凭据创建托管表。

MATERIALIZED_VIEW_MESA_REFRESH_WITHOUT_PIPELINE_ID

SQLSTATE:55019

无法 <refreshType> 具体化视图,因为它的时间早于具有 pipelineId。 要启用 <refreshType>,请删除并重新创建具体化视图。

MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED

SQLSTATE:56038

不允许执行具体化视图操作 <operation>

有关更多详细信息,请参阅 MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED

MATERIALIZED_VIEW_OUTPUT_WITHOUT_EXPLICIT_ALIAS

SQLSTATE:0A000

必须为具体化视图中的输出表达式 <expression>显式提供别名。

MATERIALIZED_VIEW_OVER_STREAMING_QUERY_INVALID

SQLSTATE:42000

无法使用流式处理查询来创建具体化视图 <name>。 请在您的CREATE [OR REFRESH] STREAMING TABLE子句中使用STREAM或删除FROM关键字,以便将此关系转换为批处理查询。

MATERIALIZED_VIEW_UNSUPPORTED_OPERATION

SQLSTATE:0A000

具体化视图目前不支持操作 <operation>

会话中的变量数量已超出最大限制

SQLSTATE:54KD1

无法创建新变量 <variableName>,因为会话中的变量数超过允许的最大数目(<maxNumVariables>)。

MAX_RECORDS_PER_FETCH_INVALID_FOR_KINESIS_SOURCE

SQLSTATE:22023

maxRecordsPerFetch 必须是小于或等于 <kinesisRecordLimit> 的正整数

MERGE_CARDINALITY_VIOLATION

SQLSTATE:23K01

ON 语句的 MERGE 搜索条件将目标表中的单个行与源表的多个行匹配。

这可能导致对目标行进行多次更新或删除操作,这是不被允许的。

MERGE_WITHOUT_WHEN

SQLSTATE:42601

WHEN 语句中必须至少有一个 MERGE 子句。

METRIC_CONSTRAINT_NOT_SUPPORTED

SQLSTATE:0A000

METRIC CONSTRAINT 未启用。

METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR

SQLSTATE:22023

METRIC_STORE 表函数的参数“<argName>”不支持提供的值“<argValue>”。

有关更多详细信息,请参阅 METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR

METRIC_STORE_UNSUPPORTED_ERROR

SQLSTATE:56038

此环境中当前禁用了指标存储例程 <routineName>

METRIC_VIEW_AMBIGUOUS_JOIN_CRITERIA

SQLSTATE:42K0E

指标视图定义包含具有不明确条件的联接: <expr>。 [要么使用 using 连接条件,要么用 <sourceAlias> 别名显式限定列。]

METRIC_VIEW_CACHE_TABLE_NOT_SUPPORTED

SQLSTATE:42K0E

不允许指标视图使用缓存表。

METRIC_VIEW_FEATURE_DISABLED

SQLSTATE:42K0E

指标视图功能已禁用。 请确保“spark.databricks.sql.metricView.enabled”设置为 true。

METRIC_VIEW_INVALID_MEASURE_FUNCTION_INPUT

SQLSTATE:42K0E

MEASURE() 函数仅采用属性作为输入,但获得 <expr>

METRIC_VIEW_INVALID_VIEW_DEFINITION

SQLSTATE:42K0E

指标视图定义无效。 原因:<reason>

METRIC_VIEW_IN_CTE_NOT_SUPPORTED

SQLSTATE:42K0E

CTE 定义中不允许使用指标视图。 计划:<plan>

METRIC_VIEW_JOIN_NOT_SUPPORTED

SQLSTATE:42K0E

不允许使用联接的指标视图。 计划:<plan>

METRIC_VIEW_MATERIALIZATIONS_DISABLED

SQLSTATE:42K0E

指标视图具体化已禁用。 请确保“spark.databricks.sql.metricView.materializations.enabled”设置为 true。

METRIC_VIEW_MISSING_MEASURE_FUNCTION

SQLSTATE:42K0E

度量值列 <column> 指标视图的使用需要 MEASURE() 函数才能生成结果。

METRIC_VIEW_RENAME_DIFFERENT_CATALOG_AND_SCHEMA

SQLSTATE:42602

不允许将指标视图<oldName>重命名为其他目录或架构: <newName>

METRIC_VIEW_UNSUPPORTED_USAGE

SQLSTATE:42K0E

不支持指标视图使用情况。 计划:<plan>

METRIC_VIEW_WINDOW_FUNCTION_NOT_SUPPORTED

SQLSTATE:42K0E

不允许指标视图使用窗口函数 <expr>

MIGRATION_NOT_SUPPORTED

SQLSTATE:42601

<table> 不支持迁移到 UC 托管表,因为它不是 <tableKind> 表。

确保要迁移的表是 UC 外部 Delta 表,并且

通过其名称而非路径引用它。

MIGRATION_ROLLBACK_NOT_SUPPORTED

SQLSTATE:42809

<table> 不支持从托管表回滚到外部表,因为它不是 <tableKind> 表。

MISMATCHED_TOPIC_PARTITIONS_BETWEEN_END_OFFSET_AND_PREFETCHED

SQLSTATE:KD000

Trigger.AvailableNow 中的 Kafka 数据源应在预提取的偏移量中提供相同的主题分区给每个微批的结束偏移量。 此错误可能是暂时性的 - 重启查询,如果仍然看到相同的问题,请报告。

预提取偏移量 <tpsForPrefetched> 的主题分区,结束偏移量 <tpsForEndOffset> 的主题分区。

MISSING_AGGREGATION

SQLSTATE:42803

非聚合表达式 <expression> 基于不参与 GROUP BY 子句的列。

将列或表达式添加到 GROUP BY,或对表达式进行聚合;如果不在乎返回组中的哪个值,则使用 <expressionAnyValue>

有关更多详细信息,请参阅 MISSING_AGGREGATION

MISSING_CLAUSES_FOR_OPERATION

SQLSTATE:42601

操作 <clauses> 缺少子句 <operation>。 请添加所需的条款。

MISSING_CONNECTION_OPTION

SQLSTATE:42000

<connectionType>”类型的连接必须包括以下选项:<requiredOptions>

MISSING_DATABASE_FOR_V1_SESSION_CATALOG

SQLSTATE:3F000

v1 会话目录中未指定数据库名称。 请确保在与 v1 目录交互时提供有效的数据库名称。

MISSING_GROUP_BY

SQLSTATE:42803

查询不包括 GROUP BY 子句。 添加 GROUP BY 或使用 OVER 子句将其转换为窗口函数。

MISSING_NAME_FOR_CHECK_CONSTRAINT

SQLSTATE:42000

CHECK 约束必须具有名称。

MISSING_PARAMETER_FOR_KAFKA

SQLSTATE:42KDF

Kafka 需要参数 <parameterName>,但 <functionName>中未指定参数。

MISSING_PARAMETER_FOR_ROUTINE

SQLSTATE:42KDF

参数 <parameterName> 是必需的,但未在 <functionName>中指定。

MISSING_SCHEDULE_DEFINITION

SQLSTATE:42000

必须遵循 SCHEDULE 提供计划定义。

MISSING_TIMEOUT_CONFIGURATION

SQLSTATE:HY000

操作已超时,但未配置超时时间。 要设置基于处理时间的超时,请在“mapGroupsWithState”或“flatMapGroupsWithState”操作中使用“GroupState.setTimeoutDuration()”。 对于基于事件时间的超时,请使用“GroupState.setTimeoutTimestamp()”并使用“Dataset.withWatermark()”定义水印。

MISSING_WINDOW_SPECIFICATION

SQLSTATE:42P20

WINDOW<windowName> 子句中未定义窗口规范。 有关 WINDOW 子句的更多信息,请参阅“<docroot>/sql-ref-syntax-qry-select-window.html”。

MODIFY_BUILTIN_CATALOG

SQLSTATE:42832

不支持修改内置目录 <catalogName>

MULTIPLE_LOAD_PATH

SQLSTATE:42000

Databricks Delta 不支持加载 API 中的多个输入路径。

路径:<pathList>。 若要通过从同一 Delta 表加载多个路径来

生成单个数据帧,请加载

包含相应分区筛选器的 Delta 表。 如果多个路径

来自不同的 Delta 表,请使用数据集的 union()/unionByName() API

来合并由单独的 load() API 调用生成的数据帧。

MULTIPLE_MATCHING_CONSTRAINTS

SQLSTATE:42891

发现至少有两个具有给定条件的匹配约束。

MULTIPLE_QUERY_RESULT_CLAUSES_WITH_PIPE_OPERATORS

SQLSTATE:42000

<clause1><clause2> 不能在使用“|>”的同一 SQL 管道运算符中共存。 请将多个结果子句分隔为单独的管道运算符,然后再次重试查询。

MULTIPLE_TIME_TRAVEL_SPEC

SQLSTATE:42K0E

无法在按时间顺序查看子句和选项中指定按时间顺序查看。

MULTIPLE_XML_DATA_SOURCE

SQLSTATE:42710

检测到具有名称 <provider> (<sourceNames>的多个数据源。 请指定完全限定的类名,或者从类路径中删除 <externalSource>

MULTI_ALIAS_WITHOUT_GENERATOR

SQLSTATE:42K0E

<names> 不支持多部分别名 (<expr>),因为它不是生成器函数。

MULTI_SOURCES_UNSUPPORTED_FOR_EXPRESSION

SQLSTATE:42K0E

表达式 <expr> 不支持多个源。

MULTI_STATEMENT_TRANSACTION_CDF_SCHEMA_WITH_RESERVED_COLUMN_NAME

SQLSTATE:42939

由于表包含保留列名 (<column_name>),因此无法在多语句事务中启用更改数据馈送。

要继续,请确保表仅使用非保留列名。

MULTI_STATEMENT_TRANSACTION_CDF_SETTING_HIGH_WATERMARK_NOT_ALLOWED

SQLSTATE:25000

不允许手动设置 CDC 标识高水位标记。

MULTI_STATEMENT_TRANSACTION_CONCURRENT_CATALOG_METADATA_CHANGE

SQLSTATE:40000

表/视图 <table>上检测到并发元数据更改。 请运行 ROLLBACK 并重试此事务。 详细信息:

有关更多详细信息,请参阅 MULTI_STATEMENT_TRANSACTION_CONCURRENT_CATALOG_METADATA_CHANGE

MULTI_STATEMENT_TRANSACTION_CONTEXT_MISMATCH

SQLSTATE:25000

在当前线程和 Spark 会话之间检测到事务上下文不一致。 当 Spark 会话跨多个线程共享时,通常会发生这种情况。 请在重复使用新事务的会话和线程之前,对每个事务使用专用会话和线程,并在其线程中提交/回滚事务。 详细信息:

有关更多详细信息,请参阅 MULTI_STATEMENT_TRANSACTION_CONTEXT_MISMATCH

MULTI_STATEMENT_TRANSACTION_NOT_SUPPORTED

SQLSTATE:0A000

未能执行该语句。

有关更多详细信息,请参阅 MULTI_STATEMENT_TRANSACTION_NOT_SUPPORTED

MULTI_STATEMENT_TRANSACTION_NO_ACTIVE_TRANSACTION

SQLSTATE:25000

没有要 <action> 的活动事务。

MULTI_STATEMENT_TRANSACTION_ROLLBACK_REQUIRED_AFTER_ABORT

SQLSTATE:40000

当前事务已中止。 请在继续之前运行 ROLLBACK TRANSACTION 。 中止原因:

有关更多详细信息,请参阅 MULTI_STATEMENT_TRANSACTION_ROLLBACK_REQUIRED_AFTER_ABORT

MULTI_UDF_INTERFACE_ERROR

SQLSTATE:0A000

不允许实现多个 UDF 接口,UDF 类 <className>

MUTUALLY_EXCLUSIVE_CLAUSES

SQLSTATE:42613

子句 <clauses> 或选项互斥。 请删除其中一个子句。

MV_ST_ALTER_QUERY_INCORRECT_BACKING_TYPE

SQLSTATE:42601

输入查询需要 <expectedType>,但基础表是 <givenType>

NAMED_PARAMETERS_NOT_SUPPORTED

SQLSTATE:4274K

函数 <functionName>不支持命名参数;请改用函数调用的位置参数重试查询。

NAMED_PARAMETERS_NOT_SUPPORTED_FOR_SQL_UDFS

SQLSTATE:0A000

无法调用函数 <functionName>,因为不支持命名参数引用。 在本例中,所指的命名参数是 <argument>

NAMED_PARAMETER_SUPPORT_DISABLED

SQLSTATE:0A000

无法调用函数 <functionName>,因为此处未启用命名参数引用。

在本例中,所指的命名参数是 <argument>

将“spark.sql.allowNamedFunctionArguments”设置为“true”以启用功能。

NAMESPACE_ALREADY_EXISTS

SQLSTATE:42000

无法创建命名空间 <nameSpaceName>,因为它已存在。

选择其他名称、删除现有命名空间或添加 IF NOT EXISTS 子句以容忍预先存在的命名空间。

NAMESPACE_NOT_EMPTY

SQLSTATE:42000

无法删除命名空间 <nameSpaceNameName>,因为它包含对象。

使用 DROP NAMESPACE ... CASCADE 删除命名空间及其所有对象。

NAMESPACE_NOT_FOUND

SQLSTATE:42000

找不到命名空间 <nameSpaceName>。 验证命名空间的拼写和正确性。

如果你未限定名称,请验证 current_schema() 输出,或正确限定名称。

若要容许删除时出错,请使用 DROP NAMESPACE IF EXISTS

NATIVE_IO_ERROR

SQLSTATE:KD00F

本机请求失败。 requestId:<requestId>,云:<cloud>,操作:<operation>

request: [https: <https>, method = <method>, path = <path>, params = <params>, host = <host>, headers = <headers>, bodyLen = <bodyLen>],

错误:<error>

NATIVE_XML_DATA_SOURCE_NOT_ENABLED

SQLSTATE:56038

此群集中未启用本机 XML 数据源。

NEGATIVE_SCALE_DISALLOWED

SQLSTATE:0A000

不允许负比例:'<scale>'。 将配置 <sqlConf> 设置为“true”以允许它。

频率表达式中的负值

SQLSTATE:22003

<frequencyExpression> 中找到负值:<negativeValue>,但预期值为正整数值。

NESTED_AGGREGATE_FUNCTION

SQLSTATE:42607

不允许在另一个聚合函数的参数中使用聚合函数。 请在子查询中使用内部聚合函数。

NESTED_EXECUTE_IMMEDIATE

SQLSTATE:07501

不允许嵌套 EXECUTE IMMEDIATE 命令。 请确保提供的 SQL 查询(<sqlString>)不包含另一个 EXECUTE IMMEDIATE 命令。

列表中不存在的字段名称

SQLSTATE:HV091

字段 <nonExistFields> 不存在。 可用字段:<fieldNames>

NON_FOLDABLE_ARGUMENT

SQLSTATE:42K08

函数 <funcName> 要求参数 <paramName> 是类型 <paramType>的可折叠表达式,但实际参数是不可折叠的。

NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION

SQLSTATE:42613

MATCHED 语句中有多个 MERGE 子句时,只有最后一个 MATCHED 子句可以省略条件。

NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION

SQLSTATE:42613

NOT MATCHED BY SOURCE 语句中有多个 MERGE 子句时,只有最后一个 NOT MATCHED BY SOURCE 子句可以省略条件。

NON_LAST_NOT_MATCHED_BY_TARGET_CLAUSE_OMIT_CONDITION

SQLSTATE:42613

如果 NOT MATCHED [BY TARGET 语句中有多个 MERGE] 子句,则只有最后一个 NOT MATCHED [BY TARGET] 子句可以省略条件。

NON_LITERAL_PIVOT_VALUES

SQLSTATE:42K08

必须为透视值提供文本表达式,但找到的是 <expression>

NON_PARTITION_COLUMN

SQLSTATE:42000

PARTITION 子句不能包含非分区列:<columnName>

NON_TIME_WINDOW_NOT_SUPPORTED_IN_STREAMING

SQLSTATE:42KDE

流式处理数据帧/数据集上的 <windowFunc>(列 <columnName>)不支持窗口函数。

结构化流式处理仅支持使用 WINDOW 函数进行时间窗口聚合。 (窗口规范:<windowSpec>

NOT_ALLOWED_IN_FROM

SQLSTATE:42601

FROM 子句中不允许:

有关更多详细信息,请参阅 NOT_ALLOWED_IN_FROM

NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE

SQLSTATE:42601

在管道 WHERE 子句中不允许:

有关更多详细信息,请参阅 NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE

NOT_A_CONSTANT_STRING

SQLSTATE:42601

用于例程或子句 <expr> 的表达式 <name> 必须是 STRING 的常量 NOT NULL

有关更多详细信息,请参阅 NOT_A_CONSTANT_STRING

NOT_A_PARTITIONED_TABLE

SQLSTATE:42809

由于不是分区表,不允许对 <operation> 执行 <tableIdentWithDB> 操作。

NOT_A_SCALAR_FUNCTION

SQLSTATE:42887

此处 <functionName> 显示为标量表达式,但该函数被定义为表函数。 请更新查询以将函数调用移动到 FROM 子句中,或改为重新定义 <functionName> 作为标量函数。

NOT_A_TABLE_FUNCTION

SQLSTATE:42887

此处 <functionName> 显示为表函数,但该函数被定义为标量函数。 请更新查询以将函数调用移到 FROM 子句之外,或改为重新定义 <functionName> 作为表函数。

NOT_NULL_ASSERT_VIOLATION

SQLSTATE:42000

NULL 值出现在不可为 null 的字段中:<walkedTypePath>如果架构是从 Scala 元组/案例类或 Java bean 推断出来的,请尝试使用 scala.Option[_] 或其他可为 null 的类型(如 java.lang.Integer 而不是 int/scala.Int)。

NOT_NULL_CONSTRAINT_VIOLATION

SQLSTATE:42000

此处不允许分配 NULL

有关更多详细信息,请参阅 NOT_NULL_CONSTRAINT_VIOLATION

NOT_SUPPORTED_CHANGE_COLUMN

SQLSTATE:0A000

ALTER TABLE ALTER / CHANGE COLUMN 不支持将 <table> 的列 <originName>(类型 <originType>)更改为 <newName>(类型 <newType>)。

NOT_SUPPORTED_CHANGE_SAME_COLUMN

SQLSTATE:0A000

ALTER TABLE ALTER/CHANGE COLUMN 不支持在同一命令中多次更改 <table>其列 <fieldName> ,包括其嵌套字段。

NOT_SUPPORTED_COMMAND_FOR_V2_TABLE

SQLSTATE:0A000

v2 表不支持 <cmd>

NOT_SUPPORTED_COMMAND_WITHOUT_HIVE_SUPPORT

SQLSTATE:0A000

<cmd> 不支持 ,如果要启用它,请将“spark.sql.catalogImplementation”设置为“hive”。

JDBC目录中不支持

SQLSTATE:0A000

JDBC 目录中不支持的命令:

有关更多详细信息,请参阅 NOT_SUPPORTED_IN_JDBC_CATALOG

NOT_SUPPORTED_WITH_DB_SQL

SQLSTATE:0A000

SQL <operation>不支持 <endpoint>

NOT_SUPPORTED_WITH_SERVERLESS

SQLSTATE:0A000

<operation> 不支持无服务器计算。

NOT_UNRESOLVED_ENCODER

SQLSTATE:42601

需要未解析的编码器,但找到了 <attr>

NO_DEFAULT_COLUMN_VALUE_AVAILABLE

SQLSTATE:42608

无法确定其默认值 <colName> ,因为它不可为 null,并且没有默认值。

NO_HANDLER_FOR_UDAF

SQLSTATE:42000

没有适用于 UDAF“<functionName>”的处理程序。 请改用 sparkSession.udf.register(...)。

NO_MERGE_ACTION_SPECIFIED

SQLSTATE:42K0E

df.mergeInto 需要后跟至少一个 whenMatched/whenNotMatched/whenNotMatchedBySource。

NO_PARENT_EXTERNAL_LOCATION_FOR_PATH

SQLSTATE:未分配

找不到路径“<path>”的父外部位置。 请在其中一个父路径上创建外部位置,然后再次重试查询或命令。

NO_SQL_TYPE_IN_PROTOBUF_SCHEMA (无SQL类型在ProtoBuf架构中)

SQLSTATE:42S22

在 Protobuf 架构中找不到 <catalystFieldPath>

没有为表格指定存储位置

SQLSTATE:未分配

生成表凭据时,找不到表“<tableId>”的存储位置。 请验证表类型和表位置 URL,然后再次重试查询或命令。

NO_SUCH_CATALOG_EXCEPTION

SQLSTATE:42704

找不到目录“<catalog>”。 请验证目录名称,然后再次重试查询或命令。

NO_SUCH_CLEANROOM_EXCEPTION

SQLSTATE:未分配

洁净室“<cleanroom>”不存在。 请验证清理室名称拼写是否正确,并匹配有效的现有清理室的名称,然后再次重试查询或命令。

NO_SUCH_CREDENTIAL_EXCEPTION

SQLSTATE:KD000

凭据“”<credential>不存在。 请验证凭据名称拼写正确,并匹配有效现有凭据的名称,然后再次重试查询或命令。

NO_SUCH_EXTERNAL_LOCATION_EXCEPTION

SQLSTATE:未分配

外部位置“<externalLocation>”不存在。 请验证外部位置名称是否正确,然后再次重试查询或命令。

NO_SUCH_METASTORE_EXCEPTION

SQLSTATE:未分配

找不到元存储。 请让帐户管理员将元存储分配给当前工作区,然后再次重试查询或命令。

NO_SUCH_PROVIDER_EXCEPTION

SQLSTATE:未分配

共享提供程序“<providerName>”不存在。 请验证共享提供程序名称拼写正确,并匹配有效现有提供程序名称的名称,然后再次重试查询或命令。

NO_SUCH_RECIPIENT_EXCEPTION

SQLSTATE:未分配

收件人“<recipient>”不存在。 请验证收件人名称拼写正确,并匹配有效现有收件人的名称,然后再次重试查询或命令。

NO_SUCH_SHARE_EXCEPTION

SQLSTATE:未分配

共享“<share>”不存在。 请验证共享名称拼写是否正确,并匹配有效现有共享的名称,然后再次重试查询或命令。

NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION

SQLSTATE:未分配

存储凭据“<storageCredential>”不存在。 请验证存储凭据名称拼写正确,并匹配有效的现有存储凭据的名称,然后再次重试查询或命令。

NO_SUCH_USER_EXCEPTION

SQLSTATE:未分配

用户“<userName>”不存在。 请验证你向其授予权限或更改所有权的用户拼写正确,并匹配有效现有用户的名称,然后再次重试查询或命令。

NO_UDF_INTERFACE

SQLSTATE:38000

UDF 类 <className> 不实现任何 UDF 接口。

NULLABLE_COLUMN_OR_FIELD

SQLSTATE:42000

列或字段 <name> 可为 null,但它必须不可为 null。

NULLABLE_ROW_ID_ATTRIBUTES

SQLSTATE:42000

行 ID 属性不能为空值:<nullableRowIdAttrs>

NULL_DATA_SOURCE_OPTION

SQLSTATE:22024

数据源读/写选项 <option> 不能有 null 值。

NULL_MAP_KEY

SQLSTATE:2200E

不能将 null 用作映射键。

NULL_QUERY_STRING_EXECUTE_IMMEDIATE

SQLSTATE:22004

立即执行需要一个非 null 变量作为查询字符串,但提供的变量 <varName> 为 null。

NULL_VALUE_SIGNAL_STATEMENT

SQLSTATE:22004

信号语句参数需要非空值,但 <argument> 接收到空值。

NUMERIC_OUT_OF_SUPPORTED_RANGE

SQLSTATE:22003

<value>该值不能解释为数字,因为它的位数超过 38 位。

数值超出范围

SQLSTATE:22003

有关更多详细信息,请参阅 NUMERIC_VALUE_OUT_OF_RANGE

NUM_COLUMNS_MISMATCH

SQLSTATE:42826

<operator> 只能对列数相同的输入进行操作,但第一个输入有 <firstNumColumns> 列,第 <invalidOrdinalNum> 个输入有 <invalidNumColumns> 列。

NUM_TABLE_VALUE_ALIASES_MISMATCH

SQLSTATE:42826

给定别名的数目与输出列数不匹配。

函数名称:<funcName>;别名数:<aliasesNum>;输出列数:<outColsNum>

OAUTH_CUSTOM_IDENTITY_CLAIM_NOT_PROVIDED

SQLSTATE:22KD2

未提供自定义标识声明。

此处仅支持秘密功能

SQLSTATE:42K0E

<functionName>不支持调用函数 <location>;此处支持 <supportedFunctions>

ONLY_SUPPORTED_WITH_UC_SQL_CONNECTOR

SQLSTATE:0A000

只有在支持 Unity Catalog 的 Databricks SQL 连接器上,SQL 操作 <operation> 才受到支持。

操作已取消

SQLSTATE:HY008

操作已取消。

OPERATION_REQUIRES_UNITY_CATALOG

SQLSTATE:0AKUD

操作 <operation> 需要启用 Unity Catalog。

OP_NOT_SUPPORTED_READ_ONLY

SQLSTATE:42KD1

只读会话模式下不支持 <plan>

ORDER_BY_POS_OUT_OF_RANGE

SQLSTATE:42805

ORDER BY 位置 <index> 不在选择列表中(有效范围为 [1, <size>])。

PARQUET_CONVERSION_FAILURE

SQLSTATE:42846

无法为 Parquet 类型为 <dataType> 的数据类型 <parquetType> 创建 Parquet 转换器。

有关更多详细信息,请参阅 PARQUET_CONVERSION_FAILURE

PARQUET_TYPE_ILLEGAL

SQLSTATE:42846

非法的 Parquet 类型:<parquetType>

PARQUET_TYPE_NOT_RECOGNIZED

SQLSTATE:42846

无法识别的 Parquet 类型:<field>

PARQUET_TYPE_NOT_SUPPORTED

SQLSTATE:42846

尚不支持的 Parquet 类型:<parquetType>

PARSE_EMPTY_STATEMENT

SQLSTATE:42617

语法错误,意外的空语句。

PARSE_MODE_UNSUPPORTED

SQLSTATE:42601

函数 <funcName> 不支持 <mode> 模式。 可接受的模式是 PERMISSIVEFAILFAST

PARSE_SYNTAX_ERROR

SQLSTATE:42601

<error> <hint> 位置或附近有语法错误。

PARTITIONS_ALREADY_EXIST

SQLSTATE:428FT

无法在表 RENAME 中添加 ADD 或 <partitionList> TO 分区 <tableName>,因为它们已存在。

选择其他名称、删除现有分区或添加 IF NOT EXISTS 子句以容忍预先存在的分区。

分区未找到

SQLSTATE:428FT

无法在表 <partitionList>中找到分区 <tableName>

验证分区规范和表名称。

若要容许删除时出错,请使用 ALTER TABLE ... DROP IF EXISTS PARTITION

PARTITION_COLUMN_NOT_FOUND_IN_SCHEMA

SQLSTATE:42000

架构 <column>中找不到分区列 <schema>。 请提供用于分区的现有列。

PARTITION_LOCATION_ALREADY_EXISTS

SQLSTATE:42K04

<locationPath>中已存在分区位置 <tableName>

PARTITION_LOCATION_IS_NOT_UNDER_TABLE_DIRECTORY

SQLSTATE:42KD5

无法执行 ALTER TABLE SET PARTITION LOCATION 语句,因为

分区位置 <location> 不在表目录 <table>下。

若要修复此问题,请将分区的位置设置为 <table>的子目录。

PARTITION_METADATA

SQLSTATE:0AKUC

<action> 不允许在表 <tableName> 上使用,因为 Unity Catalog 不支持存储分区元数据。

PARTITION_NUMBER_MISMATCH

SQLSTATE:KD009

值数量(<partitionNumber>)与架构的大小(<partitionSchemaSize>)不匹配:值为 <partitionValues>,架构为 <partitionSchema>,文件路径为 <urlEncodedPath>

请重新具体化表或联系所有者。

PARTITION_TRANSFORM_EXPRESSION_NOT_IN_PARTITIONED_BY

SQLSTATE:42S23

表达式 <expression> 必须在“partitionedBy”内部。

PATH_ALREADY_EXISTS

SQLSTATE:42K04

路径 <outputPath> 已存在。 请将模式设置为“overwrite”以覆盖现有路径。

路径未找到

SQLSTATE:42K03

路径不存在:<path>

PHOTON_DESERIALIZED_PROTOBUF_MEMORY_LIMIT_EXCEEDED

SQLSTATE:54000

反序列化 Photon protobuf 计划至少需要 <size> 字节,这超过

<limit> 个字节的限制。 这可能是由于一个非常大的计划或存在一个非常

宽的架构。 尝试简化查询、删除不必要的列或禁用 Photon。

PHOTON_SERIALIZED_PROTOBUF_MEMORY_LIMIT_EXCEEDED

SQLSTATE:54000

序列化的 Photon protobuf 计划的大小 <size> 字节,这超过了限制

<limit> 字节。 计划中数据类型的序列化大小为 <dataTypeSize> 字节。

这可能是由于计划非常大,或者存在非常广泛的架构。

请考虑重写查询以删除不需要的操作和列或禁用 Photon。

管道不存在

SQLSTATE:42K03

管道“<pipelineId>”不存在

有关详细信息 ,请参阅PIPELINE_DOES_NOT_EXIST

PIPE_OPERATOR_AGGREGATE_EXPRESSION_CONTAINS_NO_AGGREGATE_FUNCTION

SQLSTATE:0A000

非分组表达式 <expr> 作为管道运算符的参数 |> AGGREGATE 提供,但不包含任何聚合函数;请更新它以包含聚合函数,然后再次重试查询。

PIPE_OPERATOR_CONTAINS_AGGREGATE_FUNCTION

SQLSTATE:0A000

使用管道运算符<expr>子句时不允许聚合函数|> <clause>;请改用管道运算符|> AGGREGATE子句。

PIVOT_VALUE_DATA_TYPE_MISMATCH

SQLSTATE:42K09

透视值“<value>”无效:值数据类型 <valueType> 与透视列数据类型 <pivotType> 不匹配。

POINTER_ARRAY_OUT_OF_MEMORY

SQLSTATE:82002

内存不足,无法增长指针数组

POLICY_ALREADY_EXISTS

SQLSTATE:42000

无法创建策略 <policyName> ,因为它已存在。

选择其他名称或删除现有策略以容忍预先存在的连接。

POLICY_NOT_FOUND

SQLSTATE:22023

无法执行<commandType>命令,因为找不到该策略<policyName><securableFullname>

请验证拼写和正确性。

POLICY_ON_SECURABLE_TYPE_NOT_SUPPORTED

SQLSTATE:42000

无法在安全对象类型 <securableType>上创建策略。 支持的安全对象类型: <allowedTypes>

PROCEDURE_ARGUMENT_NUMBER_MISMATCH

SQLSTATE:42605

过程 <procedureName> 需要 <expected> 参数,但提供了 <actual>

PROCEDURE_CREATION_EMPTY_ROUTINE

SQLSTATE:0A000

不允许使用具有空例程定义的 CREATE PROCEDURE

PROCEDURE_CREATION_PARAMETER_OUT_INOUT_WITH_DEFAULT

SQLSTATE:42601

参数 <parameterName> 使用参数模式 <parameterMode>定义。 调用例程时,不能省略 OUTINOUT 参数,因此不支持 DEFAULT 表达式。 若要继续,请删除 DEFAULT 子句或更改参数模式以 IN

PROCEDURE_NOT_SUPPORTED

SQLSTATE:0A000

不支持存储过程

PROCEDURE_NOT_SUPPORTED_WITH_HMS

SQLSTATE:0A000

Hive 元存储不支持存储过程。 请改用 Unity Catalog。

PROTOBUF_DEPENDENCY_NOT_FOUND

SQLSTATE:42K0G

找不到依赖项:<dependencyName>

PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND

SQLSTATE:42K0G

在路径上读取 Protobuf 描述符文件时出错:<filePath>

PROTOBUF_FIELD_MISSING

SQLSTATE:42K0G

在 Protobuf 架构中的 <field> 处搜索与给定的 <protobufSchema> 匹配的 <matchSize>。 候选项:<matches>

在SQL架构中缺少的PROTOBUF字段

SQLSTATE:42K0G

在 Protobuf 架构中找到 <field>,但 SQL 架构中没有匹配项。

PROTOBUF_FIELD_TYPE_MISMATCH

SQLSTATE:42K0G

字段的类型不匹配:<field>

PROTOBUF_JAVA_CLASSES_NOT_SUPPORTED

SQLSTATE:0A000

<protobufFunction>不支持 Java 类。 有关备用选项,请联系 Databricks 支持部门。

PROTOBUF_MESSAGE_NOT_FOUND

SQLSTATE:42K0G

无法在描述符中找到消息 <messageName>

PROTOBUF_NOT_LOADED_SQL_FUNCTIONS_UNUSABLE

SQLSTATE:22KD3

无法调用 <functionName> SQL 函数,因为未加载 Protobuf 数据源。

请使用加载的“spark-protobuf”包重启作业或会话,例如在命令行上使用 --packages 参数,然后再次重试查询或命令。

PROTOBUF_TYPE_NOT_SUPPORT

SQLSTATE:42K0G

尚不支持 Protobuf 类型:<protobufType>

PS_FETCH_RETRY_EXCEPTION

SQLSTATE:22000

无法重试 pubsub 提取阶段中的任务。 在阶段 <partitionInfo>,TID <stageInfo> 中对 <taskId> 进行分区。

PS_INVALID_EMPTY_OPTION

SQLSTATE:42000

<key> 不能是空字符串。

PS_无效密钥类型

SQLSTATE:22000

PubSub dedup 的键类型无效:<key>

PS_INVALID_OPTION

SQLSTATE:42000

PubSub 不支持 <key> 选项。 它只能在测试中使用。

PS_INVALID_OPTION_TYPE

SQLSTATE:42000

<key>的类型无效。 <key> 的类型应为 <type> 类型。

PS_INVALID_READ_LIMIT

SQLSTATE:42000

PubSub 流的读取限制无效:<limit>

PS_INVALID_UNSAFE_ROW_CONVERSION_FROM_PROTO

SQLSTATE:22000

将解码为 PubSubMessageMetadata 的 UnsafeRow 无效,所需的 proto 架构为:<protoSchema>。 输入 UnsafeRow 可能已损坏:<unsafeRow>

PS_INVALID_WORKLOAD_IDENTITY_FEDERATION_AUDIENCE_OPTION

SQLSTATE:42000

查询或命令失败,因为存在无效的读取选项:在 spark.readStream.format("pubsub").option("workloadIdentityFederation.audience", <audience>) 中。 更新 <audience> 以匹配以下格式: //iam.googleapis.com/projects/{PROJECT_NUMBER}/locations/global/workloadIdentityPools/{POOL_ID}/providers/{PROVIDER_ID} 然后再次重试查询或命令。

PS_MISSING_AUTH_INFO

SQLSTATE:42000

找不到完整的 PubSub 身份验证信息。

PS_MISSING_REQUIRED_OPTION

SQLSTATE:42000

找不到所需的选项:<key>

PS_MOVING_CHECKPOINT_FAILURE

SQLSTATE:22000

无法将原始数据检查点文件从 <src> 移动到目标目录:<dest>

PS_MULTIPLE_AUTH_OPTIONS

SQLSTATE:42000

请提供 Databricks 服务凭据或 GCP 服务帐户凭据。

PS_MULTIPLE_FAILED_EPOCHS

SQLSTATE:22000

无法启动 PubSub 流,因为失败的提取不止一个:<failedEpochs>

PS_OPTION_NOT_IN_BOUNDS

SQLSTATE:22000

<key> 必须位于以下边界 (<min>, <max>) 之间,不包含这两个边界值。

PS_PROVIDE_CREDENTIALS_WITH_OPTION

SQLSTATE:42000

共享群集不支持使用实例配置文件进行身份验证。 直接使用 .option() 向数据流提供凭据。

PS_SPARK_SPECULATION_NOT_SUPPORTED

SQLSTATE:0A000

PubSub 源连接器仅在禁用 spark.speculation 的群集中可用。

PS_UNABLE_TO_CREATE_SUBSCRIPTION

SQLSTATE:42000

尝试创建有关主题 <subId>的订阅 <topicId> 时出错。 请检查是否有足够的权限创建订阅,然后重试。

PS_UNABLE_TO_PARSE_PROTO

SQLSTATE:22000

无法分析序列化的字节以生成 proto。

PS_UNSUPPORTED_GET_OFFSET_CALL

SQLSTATE:0A000

如果没有提供限制,则不支持 getOffset。

Python数据源错误

SQLSTATE:38000

未能<action> Python 数据源 <type><msg>

PYTHON_STREAMING_DATA_SOURCE_RUNTIME_ERROR

SQLSTATE:38000

Python 流式处理数据源执行 <action> 时失败:<msg>

查询表与列掩码策略不兼容

SQLSTATE:428HD

无法访问引用的表,因为以前分配的列掩码当前与表架构不兼容;若要继续,请联系表的所有者以更新策略:

有关更多详细信息,请参阅 QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY

查询的表与行级安全策略不兼容

SQLSTATE:428HD

无法访问引用的表,因为以前分配的行级别安全策略当前与表架构不兼容;若要继续,请联系表的所有者以更新策略:

有关更多详细信息,请参阅 QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY

QUERY_EXECUTION_TIMEOUT_EXCEEDED

SQLSTATE:57KD0

由于超时(<timeoutSec>秒)而取消了查询执行。 可以通过设置 <config>来增加限制(以秒为单位)。

查询被拒绝

SQLSTATE:08004

查询执行被拒绝。

QUERY_RESULT_WRITE_TO_CLOUD_STORE_PERMISSION_ERROR

SQLSTATE:42501

工作区内部存储配置可防止 Databricks 访问云存储。

READ_CURRENT_FILE_NOT_FOUND

SQLSTATE:42K03

<message>

基础文件可能已更新。 可在 SQL 中运行“REFRESH TABLE tableName”命令或重新创建所涉及的数据集/数据帧,显式地使 Spark 中的缓存失效。

READ_FILES_AMBIGUOUS_ROUTINE_PARAMETERS

SQLSTATE:4274K

函数 <functionName> 的调用中,<parameterName><alternativeName> 已被设置,且它们是彼此的别名。 请仅设置其中一个。

READ_FILES_CREDENTIALS_PARSE_ERROR

SQLSTATE:42000

分析 read_files() 函数的临时凭据时出错。

有关更多详细信息,请参阅 READ_FILES_CREDENTIALS_PARSE_ERROR

READ_TVF_UNEXPECTED_REQUIRED_PARAMETER

SQLSTATE:4274K

必须在没有名称的位置 <functionName> 分配函数 <parameterName> 的必需参数 <expectedPos>

RECIPIENT_EXPIRATION_NOT_SUPPORTED

SQLSTATE:0A000

仅支持 TIMESTAMP/TIMESTAMP_LTZ/TIMESTAMP_NTZ 类型用于收件人过期时间戳。

RECURSION_LEVEL_LIMIT_EXCEEDED

SQLSTATE:42836

已达到递归级别限制<levelLimit>,但查询尚未完成,请尝试将其增加为“WITH RECURSIVE t(col) MAX RECURSION LEVEL 200”。

RECURSION_ROW_LIMIT_EXCEEDED

SQLSTATE:42836

递归行限制 <rowLimit> 已达到,但是查询尚未结束。尝试在查询 CTE 关系时设置更大的 LIMIT 值。

RECURSIVE_CTE_IN_LEGACY_MODE

SQLSTATE:42836

递归定义不能在旧 CTE 优先模式中使用(spark.sql.legacy.ctePrecedencePolicy=LEGACY)。

RECURSIVE_CTE_WITH_LEGACY_INLINE_FLAG

SQLSTATE:42836

当旧版内联标志设置为 true (spark.sql.legacy.inlineCTEInCommands=true) 时,不能使用递归定义。

RECURSIVE_PROTOBUF_SCHEMA

SQLSTATE:42K0G

在 Protobuf 架构中找到递归引用,默认情况下 Spark 无法处理该引用:<fieldDescriptor>。 请尝试将选项 recursive.fields.max.depth 设置为 1 到 10。 不允许超过 10 个级别的递归。

RECURSIVE_VIEW

SQLSTATE:42K0H

检测到递归视图 <viewIdent>(周期:<newPath>)。

REF_DEFAULT_VALUE_IS_NOT_ALLOWED_IN_PARTITION

SQLSTATE:42601

不允许在 DEFAULT 子句中引用 PARTITION 列值。

RELATION_LARGER_THAN_8G

SQLSTATE:54000

无法生成大于 8G 的 <relationName>

REMOTE_FUNCTION_HTTP_FAILED_ERROR

SQLSTATE:57012

远程 HTTP 请求失败,代码 <errorCode>,错误消息 <errorMessage>

REMOTE_FUNCTION_HTTP_RESULT_PARSE_ERROR

SQLSTATE:22032

由于无法分析远程 HTTP 响应中的 JSON 结果,无法评估 <functionName> SQL 函数;错误消息为 <errorMessage>。 查看 API 文档:<docUrl>。 请修复错误消息中指示的问题,然后再次重试查询。

REMOTE_FUNCTION_HTTP_RESULT_UNEXPECTED_ERROR

SQLSTATE:57012

由于无法处理意外的远程 HTTP 响应,无法评估 <functionName> SQL 函数;错误消息为 <errorMessage>。 查看 API 文档:<docUrl>。 请修复错误消息中指示的问题,然后再次重试查询。

REMOTE_FUNCTION_HTTP_RETRY_TIMEOUT

SQLSTATE:57012

重试 <N> 次后,远程请求失败;最后一个失败的 HTTP 错误代码是 <errorCode>,消息为 <errorMessage>

REMOTE_FUNCTION_MISSING_REQUIREMENTS_ERROR

SQLSTATE:57012

由于 <functionName>,未能计算 <errorMessage> SQL 表达式。 查看 <docUrl> 中的要求。 请修复错误消息中指示的问题,然后再次重试查询。

RENAME_SRC_PATH_NOT_FOUND

SQLSTATE:42K03

由于未找到 <sourcePath>,重命名失败。

REPEATED_CLAUSE

SQLSTATE:42614

在每个 <clause> 操作中,<operation> 子句最多只能使用一次。

REQUIRED_PARAMETER_ALREADY_PROVIDED_POSITIONALLY

SQLSTATE:4274K

例程 <routineName> 所需的参数 <parameterName> 已在位置 <positionalIndex> 被分配,但没有指定名称。

请更新函数调用,以删除名为 <parameterName> 的命名参数,或删除位置参数。

位于 <positionalIndex> 的位置参数,然后重试查询。

必需的参数未找到

SQLSTATE:4274K

无法调用例程 <routineName>,因为名为 <parameterName> 的参数是必需的,但例程调用不提供值。 请更新例程调用以提供参数值(索引位置 <index> 或按名称排列),然后再次重试查询。

REQUIRES_SINGLE_PART_NAMESPACE

SQLSTATE:42K05

<sessionCatalog> 需要单部分命名空间,但收到了 <namespace>

RESCUED_DATA_COLUMN_CONFLICT_WITH_SINGLE_VARIANT

SQLSTATE:4274K

DataFrame API 读取器选项“rescuedDataColumn”与 DataFrame API 选项“singleVariantColumn”互斥。

请删除其中一个,然后再次重试 DataFrame 操作。

RESERVED_CDC_COLUMNS_ON_WRITE

SQLSTATE:42939

写入包含保留列 <columnList>,这些列

在内部用作更改数据馈送的元数据。 若要写入表,可以重命名/删除

这些列,或者将

<config> 设置为 false 来禁用表上的更改数据馈送。

受限流媒体选项权限已强制执行

SQLSTATE:0A000

选项 <option><source> 源的共享群集上具有限制值。

有关更多详细信息,请参阅 RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED

ROUTINE_ALREADY_EXISTS

SQLSTATE:42723

无法创建 <newRoutineType> <routineName>,因为该名称的 <existingRoutineType> 已存在。

选择其他名称,删除或替换现有 <existingRoutineType>,或添加 IF NOT EXISTS 子句以容忍预先存在的 <newRoutineType>

未找到例程

SQLSTATE:42883

找不到例程 <routineName>。 验证架构和目录的拼写和正确性。

如果名称未使用架构和目录限定,请检查 current_schema() 的输出,或者用正确的架构和目录来限定名称。

要容忍删除时的错误,请使用 DROP ... IF EXISTS

找不到例程参数

SQLSTATE:42000

例程 <routineName> 不支持在位置 <parameterName>指定的参数 <pos><suggestion>

ROUTINE_USES_SYSTEM_RESERVED_CLASS_NAME

SQLSTATE:42939

无法创建函数 <routineName>,因为指定的类名“<className>”保留供系统使用。 请重命名该类,然后重试。

ROW_LEVEL_SECURITY_ABAC_MISMATCH

SQLSTATE:0A000

无法解析 <tableName> 上的行筛选器,因为从策略继承的行筛选器与显式定义的行筛选器之间存在不匹配。 若要继续,请禁用基于属性的访问控制(ABAC),并联系 Databricks 支持部门。

ROW_LEVEL_SECURITY_CHECK_CONSTRAINT_UNSUPPORTED

SQLSTATE:0A000

不支持对具有行级别安全策略的表 CHECK 创建 <tableName> 约束。

ROW_LEVEL_SECURITY_DUPLICATE_COLUMN_NAME

SQLSTATE:42734

<statementType> 语句尝试将行级安全策略分配给表,但所引用的两个或多个列具有相同的名称 <columnName>,这是无效的。

ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED

SQLSTATE:0A000

不支持 <tableName> 的行级别安全策略:

有关更多详细信息,请参阅 ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED

ROW_LEVEL_SECURITY_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE:0A000

无法从表 <tableName> 进行 <statementType> <columnName>,因为它在行级安全策略中被引用。 表所有者必须先删除或更改此策略,然后才能继续。

ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_SOURCE

SQLSTATE:0A000

MERGE INTO操作不支持源表<tableName>中的行级安全策略。

ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_TARGET

SQLSTATE:0A000

MERGE INTO操作不支持使用行级别安全策略写入表 <tableName>

ROW_LEVEL_SECURITY_MULTI_PART_COLUMN_NAME

SQLSTATE:42K05

此语句尝试向表分配行级别安全策略,但引用的列 <columnName> 有多个名称部分,这无效。

ROW_LEVEL_SECURITY_REQUIRE_UNITY_CATALOG

SQLSTATE:0A000

行级别安全策略仅在 Unity 目录中受支持。

ROW_LEVEL_SECURITY_SHOW_PARTITIONS_UNSUPPORTED

SQLSTATE:0A000

SHOW PARTITIONS 具有行级别安全策略的表不支持 <format> 命令。

ROW_LEVEL_SECURITY_TABLE_CLONE_SOURCE_NOT_SUPPORTED

SQLSTATE:0A000

不支持使用行级别安全策略从表 <mode> 进行 <tableName> 克隆。

ROW_LEVEL_SECURITY_TABLE_CLONE_TARGET_NOT_SUPPORTED

SQLSTATE:0A000

不支持使用行级别安全策略 <mode> 克隆到表 <tableName>

ROW_LEVEL_SECURITY_UNSUPPORTED_CONSTANT_AS_PARAMETER

SQLSTATE:0AKD1

不支持将常量用作行级别安全策略中的参数。 请更新 SQL 命令以从行筛选器定义中删除常量,然后再次重试该命令。

ROW_LEVEL_SECURITY_UNSUPPORTED_DATA_TYPE

SQLSTATE:0AKDC

用于行级别安全策略的函数 <functionName> 具有具有不受支持的数据类型 <dataType>的参数。

ROW_LEVEL_SECURITY_UNSUPPORTED_PROVIDER

SQLSTATE:0A000

无法执行 <statementType> 命令,因为不支持使用表提供程序“<provider>”为目标数据源分配行级别安全策略。

ROW_SUBQUERY_TOO_MANY_ROWS

SQLSTATE:21000

用作行的子查询返回了多个行。

ROW_VALUE_IS_NULL

SQLSTATE:22023

在索引 NULL 处的行中找到 <index>,预期为非 NULL 值。

RULE_ID_NOT_FOUND

SQLSTATE:22023

找不到规则名称“<ruleName>”的 ID。 如果要添加新规则,请修改 RuleIdCollection.scala。

SALESFORCE_DATA_SHARE_API_UNAUTHORIZED

SQLSTATE:42505

对 Salesforce Data Share API 的授权失败。 验证 Databricks 连接详细信息是否已提供给相应的 Salesforce 数据共享目标。

SAMPLE_TABLE_PERMISSIONS

SQLSTATE:42832

示例数据库/表不支持权限。

SCALAR_FUNCTION_NOT_COMPATIBLE

SQLSTATE:42K0O

ScalarFunction <scalarFunc> 未使用自定义实现覆盖方法“produceResult(InternalRow)”。

SCALAR_FUNCTION_NOT_FULLY_IMPLEMENTED

SQLSTATE:42K0P

ScalarFunction <scalarFunc> 未实现或覆盖方法“produceResult(InternalRow)”。

SCALAR_SUBQUERY_IS_IN_GROUP_BY_OR_AGGREGATE_FUNCTION

SQLSTATE:0A000

相关标量子查询 '<sqlExpr>' 既不在 GROUP BY 中,也不在聚合函数中。

使用序号位置将其添加到 GROUP BY 中,或者如果不关心获取哪个值,则将其包装在 first()(或 first_value)中。

SCALAR_SUBQUERY_TOO_MANY_ROWS

SQLSTATE:21000

用作表达式的子查询返回了多个行。

SCHEDULE_ALREADY_EXISTS

SQLSTATE:42710

无法将 <scheduleType> 添加到已具有 <existingScheduleType>的表。 请删除现有计划或使用 ALTER TABLE ... ALTER <scheduleType> 更改它。

SCHEDULE_PERIOD_INVALID

SQLSTATE:22003

<timeUnit> 的计划周期必须是介于 1 和 <upperBound>(含)之间的整数值。 收到了:<actual>

SCHEMA_ALREADY_EXISTS

SQLSTATE:42P06

无法创建架构 <schemaName>,因为它已存在。

选择其他名称、删除现有架构或添加 IF NOT EXISTS 子句以容忍预先存在的架构。

SCHEMA_NOT_EMPTY

SQLSTATE:2BP01

无法删除架构 <schemaName>,因为它包含对象。

使用 DROP SCHEMA ... CASCADE 删除架构及其所有对象。

SCHEMA_NOT_FOUND

SQLSTATE:42704

找不到架构 <schemaName>。 验证架构和目录的拼写和正确性。

如果你未使用目录限定名称,请验证 current_schema() 输出,或使用正确的目录限定名称。

若要容许删除时出错,请使用 DROP SCHEMA IF EXISTS

SCHEMA_REGISTRY_CONFIGURATION_ERROR

SQLSTATE:42K0G

无法初始化架构注册表中的架构。 <reason>

第二个函数参数不是整数 (SECOND_FUNCTION_ARGUMENT_NOT_INTEGER)

SQLSTATE:22023

<functionName> 函数的第二个参数必须是整数。

SECRET_FUNCTION_INVALID_LOCATION

SQLSTATE:42K0E

无法执行具有对 <commandType> 函数的一个或多个非加密引用的 SECRET 命令;请使用 AES_ENCRYPT 加密每个此类函数调用的结果,然后重试该命令

SEED_EXPRESSION_IS_UNFOLDABLE

SQLSTATE:42K08

表达式 <seedExpr> 中的种子表达式 <exprWithSeed> 必须可折叠。

服务器正忙

SQLSTATE:08KD1

服务器正忙,无法处理请求。 请稍候片刻,然后重试。

SFTP_无法连接

SQLSTATE:08006

无法使用用户名<host>连接到端口<port>上的 SFTP 服务器<user>

SFTP用户不匹配

SQLSTATE:08006

从凭据 <credentialUser> 检索的用户与 SFTP 路径 <path>中指定的用户不匹配。

SHOW_COLUMNS_WITH_CONFLICT_NAMESPACE

SQLSTATE:42K05

SHOW COLUMNS 包含有冲突的命名空间:<namespaceA> != <namespaceB>

SORT_BY_WITHOUT_BUCKETING

SQLSTATE:42601

sortBy 必须与 bucketBy 一起使用。

SPARK_JOB_CANCELLED

SQLSTATE:HY008

作业 <jobId> 已取消 <reason>

SPECIFY_BUCKETING_IS_NOT_ALLOWED

SQLSTATE:42601

没有显式列列表的 CREATE TABLE 无法指定存储桶信息。

请使用具有显式列列表的表单,然后指定存储桶信息。

或者,允许通过省略此子句来推断存储桶信息。

SPECIFY_CLUSTER_BY_WITH_BUCKETING_IS_NOT_ALLOWED

SQLSTATE:42908

不能同时指定 CLUSTER BYCLUSTERED BY INTO BUCKETS

SPECIFY_CLUSTER_BY_WITH_PARTITIONED_BY_IS_NOT_ALLOWED

SQLSTATE:42908

不能同时指定 CLUSTER BYPARTITIONED BY

SPECIFY_PARTITION_IS_NOT_ALLOWED

SQLSTATE:42601

没有显式列列表的 CREATE TABLE 无法指定 PARTITIONED BY

请将表单与显式列列表一起使用,并指定 PARTITIONED BY

或者,允许通过省略 PARTITION BY 子句来推断分区。

SPILL_OUT_OF_MEMORY

SQLSTATE:82003

调用 spill() 时<consumerToSpill> 出错:<message>

SQL_CONF_NOT_FOUND

SQLSTATE:42K0I

找不到 SQL 配置 <sqlConf>。 请验证配置是否存在。

SQL_SCRIPT_IN_EXECUTE_IMMEDIATE

SQLSTATE:07501

EXECUTE IMMEDIATE 命令中不允许使用 SQL 脚本。 请确保提供的 SQL 查询 (<sqlString>) 不是 SQL 脚本。 请确保sql_string是格式正确的 SQL 语句,不包含 BEGIN 和 END。

SQL脚本超出最大字符数限制

SQLSTATE:54000

已超出 SQL 脚本(ID: <scriptId>)中的最大字符数。 允许的最大字符数是 <maxChars>,并且脚本具有 <chars> 字符。

SQL脚本超过最大行数限制

SQLSTATE:54000

已超出 SQL 脚本中的最大行数(id: <scriptId>) 。 允许的最大行数是 <maxLines>,并且脚本包含 <lines> 行。

SQL_SCRIPT_超出本地变量声明的最大数量限制

SQLSTATE:54KD1

已超出 SQL 脚本(id: <scriptId>)中本地变量声明的最大数目。 允许的最大声明数是 <maxDeclarations>,并且脚本具有 <declarations>

SQL_STORED_PROCEDURES_NESTED_CALLS_LIMIT_EXCEEDED

SQLSTATE:54000

嵌套过程调用的最大数量已超出过程(名称:<procedureName>,callId:<procedureCallId>)。 允许的最大嵌套过程调用数为 <limit>

当前暂存路径不可访问

SQLSTATE:22000

访问目标暂存路径时出现暂时性错误 <path>,请在几分钟内尝试

STAR_GROUP_BY_POS

SQLSTATE:0A000

在使用序号位置 GROUP BY 时,不允许在选择列表中使用星号(*)。

STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_HANDLE_STATE

SQLSTATE:42802

未能执行有状态处理器操作“<operationType>”,句柄状态“<handleState>”无效。

STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_TIME_MODE

SQLSTATE:42802

未能执行有状态处理器操作“<operationType>”,timeMode“<timeMode>”无效

STATEFUL_PROCESSOR_DUPLICATE_STATE_VARIABLE_DEFINED

SQLSTATE:42802

已在 StatefulProcessor 中定义了名称 <stateVarName> 的状态变量。

STATEFUL_PROCESSOR_INCORRECT_TIME_MODE_TO_ASSIGN_TTL

SQLSTATE:42802

在 timeMode“<stateName>”中不能对状态“<timeMode>”使用 TTL,请改用 TimeMode.ProcessingTime()。

STATEFUL_PROCESSOR_TTL_DURATION_MUST_BE_POSITIVE

SQLSTATE:42802

对于针对状态“<operationType>”执行的状态存储操作“<stateName>”,TTL 持续时间必须大于零。

STATEFUL_PROCESSOR_UNKNOWN_TIME_MODE

SQLSTATE:42802

未知时间模式 <timeMode>。 接受的 timeMode 模式为“none”、“processingTime”、“eventTime”

STATE_STORE_CANNOT_CREATE_COLUMN_FAMILY_WITH_RESERVED_CHARS

SQLSTATE:42802

未能创建具有不受支持的起始字符和名称“<colFamilyName>”的列系列。

STATE_STORE_CANNOT_USE_COLUMN_FAMILY_WITH_INVALID_NAME

SQLSTATE:42802

未能执行列系列操作“<operationName>”,名称“<colFamilyName>”无效。 列系列名称不能为空或包含前导/尾随空格,也不能使用保留关键字 default

STATE_STORE_COLUMN_FAMILY_SCHEMA_INCOMPATIBLE

SQLSTATE:42802

与列系列 =<colFamilyName>、oldSchema=<oldSchema>、newSchema=<newSchema> 不兼容的架构转换。

状态存储不支持可重用迭代器

SQLSTATE:42K06

StateStore <inputClass> 不支持可重用迭代器。

STATE_STORE_HANDLE_NOT_INITIALIZED

SQLSTATE:42802

尚未为此 StatefulProcessor 初始化句柄。

请仅在 transformWithState 运算符中使用 StatefulProcessor。

STATE_STORE_INCORRECT_NUM_ORDERING_COLS_FOR_RANGE_SCAN

SQLSTATE:42802

范围扫描编码器的排序序号数 <numOrderingCols> 不正确。 排序序号的数量不能为零,也不能超过模式列的数量。

STATE_STORE_INCORRECT_NUM_PREFIX_COLS_FOR_PREFIX_SCAN

SQLSTATE:42802

前缀扫描编码器的前缀列数 <numPrefixCols> 不正确。 前缀列数不能为零,也不能大于或等于架构列数。

STATE_STORE_INVALID_CONFIG_AFTER_RESTART

SQLSTATE:42K06

无法在重启期间将 <configName><oldConfig> 更改为 <newConfig>。 请将 <configName> 设置为 <oldConfig>,或使用新的检查点目录重启。

STATE_STORE_INVALID_PROVIDER

SQLSTATE:42K06

给定的状态存储提供程序 <inputClass> 不会扩展 org.apache.spark.sql.execution.streaming.state.StateStoreProvider。

STATE_STORE_INVALID_VARIABLE_TYPE_CHANGE

SQLSTATE:42K06

在查询重启之间无法将 <stateVarName> 更改为 <newType>。 请将 <stateVarName> 设置为 <oldType>,或使用新的检查点目录重启。

STATE_STORE_NATIVE_ROCKSDB_TIMEOUT

SQLSTATE:58030

在访问有状态流式操作的 RocksDB 状态存储时,调用本地 RocksDB 函数 <funcName> 在等待 timeout= <timeoutMs> ms 后超时。 如果错误仍然存在,请重试并重启群集。

STATE_STORE_NULL_TYPE_ORDERING_COLS_NOT_SUPPORTED

SQLSTATE:42802

范围扫描编码器不支持名称为“<fieldName>”、索引为“<index>”的 null 类型排序列。

STATE_STORE_PROVIDER_DOES_NOT_SUPPORT_FINE_GRAINED_STATE_REPLAY

SQLSTATE:42K06

给定的状态存储提供程序 <inputClass> 不会扩展 org.apache.spark.sql.execution.streaming.state.SupportsFineGrainedReplay。

因此,它不支持状态数据源中的 snapshotStartBatchId 或 readChangeFeed 选项。

STATE_STORE_STATE_SCHEMA_FILES_THRESHOLD_EXCEEDED

SQLSTATE:42K06

状态架构文件数 <numStateSchemaFiles> 超过此查询的最大状态架构文件数:<maxStateSchemaFiles>

已添加:<addedColumnFamilies>,已删除:<removedColumnFamilies>

请将“spark.sql.streaming.stateStore.stateSchemaFilesThreshold”设置为更高的数字,或还原状态架构修改

STATE_STORE_UNSUPPORTED_OPERATION_ON_MISSING_COLUMN_FAMILY

SQLSTATE:42802

不支持对缺少的列系列“<operationType>”执行状态存储操作“<colFamilyName>”。

STATE_STORE_VALUE_SCHEMA_EVOLUTION_THRESHOLD_EXCEEDED

SQLSTATE:42K06

<numSchemaEvolutions> 的状态架构演变数超过了允许此列系列的最大状态架构演变数(<maxSchemaEvolutions>)。

有冲突的列系列:<colFamilyName>

请将“spark.sql.streaming.stateStore.valueStateSchemaEvolutionThreshold”设置为更大的数值,或恢复状态架构修改。

STATE_STORE_VARIABLE_SIZE_ORDERING_COLS_NOT_SUPPORTED

SQLSTATE:42802

范围扫描编码器不支持名称为“<fieldName>”、索引为“<index>”的变量大小排序列。

STATIC_PARTITION_COLUMN_IN_INSERT_COLUMN_LIST

SQLSTATE:42713

列列表中还指定了静态分区列 <staticName>

STDS_COMMITTED_BATCH_UNAVAILABLE

SQLSTATE:KD006

未找到提交的批处理,检查点位置:<checkpointLocation>。 在停止之前,请确保查询已运行并提交任何微批次。

STDS_CONFLICT_OPTIONS

SQLSTATE:42613

选项 <options> 不能同时指定。 请指定一个。

STDS_无法读取操作员元数据

SQLSTATE:42K03

未能读取 checkpointLocation=<checkpointLocation> 和 batchId=<batchId>的运算符元数据。

文件不存在,或者文件已损坏。

重新运行流查询以构建运算符元数据,如果错误仍然存在,请向相应的社区或供应商报告。

STDS_FAILED_TO_READ_STATE_SCHEMA

SQLSTATE:42K03

未能读取状态架构。 文件不存在,或者文件已损坏。 选项:<sourceOptions>

重新运行流式处理查询以构造状态架构,并在错误仍然存在时向相应的社区或供应商报告。

STDS_INVALID_OPTION_VALUE

SQLSTATE:42616

源选项“<optionName>”的值无效:

有关更多详细信息,请参阅 STDS_INVALID_OPTION_VALUE

STDS_NO_PARTITION_DISCOVERED_IN_STATE_STORE

SQLSTATE:KD006

这个州没有任何分区。 请仔细检查查询是否指向有效状态。 选项:<sourceOptions>

STDS_OFFSET_LOG_UNAVAILABLE

SQLSTATE:KD006

<batchId> 的偏移量日志不存在,检查点位置:<checkpointLocation>

请指定可用于查询的批处理 ID - 可以使用状态元数据数据源查询可用的批处理 ID。

STDS_OFFSET_METADATA_LOG_UNAVAILABLE

SQLSTATE:KD006

元数据不适用于 <batchId> 的偏移量日志,检查点位置:<checkpointLocation>

检查点似乎仅使用较旧的 Spark 版本运行。 使用最新的 Spark 版本运行流式处理查询,以便 Spark 构造状态元数据。

STDS_REQUIRED_OPTION_UNSPECIFIED

SQLSTATE:42601

必须指定“<optionName>”。

STREAMING_AQE_NOT_SUPPORTED_FOR_STATEFUL_OPERATORS

SQLSTATE:0A000

结构化流式处理中的有状态运算符不支持自适应查询执行。

STREAMING_FROM_MATERIALIZED_VIEW

SQLSTATE:0A000

无法从具体化视图 <viewName> 流式处理。 不支持从具体化视图流式处理。

流式输出模式

SQLSTATE:42KDE

流式处理输出模式无效:<outputMode>

有关更多详细信息,请参阅 STREAMING_OUTPUT_MODE

流媒体实时模式

SQLSTATE:0A000

流式处理实时模式具有以下限制:

有关更多详细信息,请参阅 STREAMING_REAL_TIME_MODE

STREAMING_STATEFUL_OPERATOR_NOT_MATCH_IN_STATE_METADATA

SQLSTATE:42K03

流式处理的有状态运算符名称与状态元数据中的运算符不匹配。 当用户添加/删除/更改现有流式处理查询的有状态运算符时,可能会发生这种情况。

元数据中的有状态运算符:[<OpsInMetadataSeq>];当前批处理中的有状态运算符:[<OpsInCurBatchSeq>]。

STREAMING_TABLE_NEEDS_REFRESH

SQLSTATE:55019

需要刷新流式处理表 <tableName> 才能执行 <operation>

如果表是从 DBSQL创建的,请运行 REFRESH STREAMING TABLE

如果表是由 Lakeflow 声明性管道创建的,请运行管道更新。

STREAMING_TABLE_NOT_SUPPORTED

SQLSTATE:56038

只能在 Lakeflow 声明性管道和 Databricks SQL 数据仓库中创建和刷新流式表。

STREAMING_TABLE_OPERATION_NOT_ALLOWED

SQLSTATE:42601

操作 <operation> 不被允许:

有关更多详细信息,请参阅 STREAMING_TABLE_OPERATION_NOT_ALLOWED

STREAMING_TABLE_QUERY_INVALID

SQLSTATE:42000

流表 <tableName> 只能由流式查询创建。 请将 STREAM 关键字添加到 FROM 子句,以将此关系转换为流式处理查询。

STREAM_NOT_FOUND_FOR_KINESIS_SOURCE

SQLSTATE:42K02

<streamName> 中找不到 Kinesis 流 <region>

请启动指向正确流名称的新查询。

STRUCT_ARRAY_LENGTH_MISMATCH

SQLSTATE:2201E

输入行不包含架构所需的预期值数。 <expected> 字段是必需的,而 <actual> 值是提供的。

SUM_OF_LIMIT_AND_OFFSET_EXCEEDS_MAX_INT

SQLSTATE:22003

LIMIT 子句和 OFFSET 子句的总和不能大于最大 32 位整数值(2,147,483,647),但发现 limit = <limit>,offset = <offset>

SYNC_METADATA_DELTA_ONLY

SQLSTATE:0AKDD

仅 delta 表支持修复表同步元数据命令。

SYNC_SRC_TARGET_TBL_NOT_SAME

SQLSTATE:42KD2

源表名称 <srcTable> 必须与目标表名 <destTable>相同。

SYNTAX_DISCONTINUED

SQLSTATE:42601

对语句或关键字 <clause> 的支持在此上下文中已停止。

有关更多详细信息,请参阅 SYNTAX_DISCONTINUED

TABLE_OR_VIEW_ALREADY_EXISTS

SQLSTATE:42P07

无法创建表或视图 <relationName>,因为它已存在。

选择其他名称,删除现有对象,添加 IF NOT EXISTS 子句以容忍预先存在的对象,添加 OR REPLACE 子句以替换现有具体化视图,或添加 OR REFRESH 子句以刷新现有流式处理表。

未找到表或视图

SQLSTATE:42P01

找不到表或视图 <relationName>。 验证架构和目录的拼写和正确性。

如果未使用架构限定名称,请验证 current_schema() 的输出,或者使用正确的架构和目录来限定名称。

若要容许删除时出错,请使用 DROP VIEW IF EXISTSDROP TABLE IF EXISTS

有关更多详细信息,请参阅 TABLE_OR_VIEW_NOT_FOUND

TABLE_VALUED_ARGUMENTS_NOT_YET_IMPLEMENTED_FOR_SQL_FUNCTIONS

SQLSTATE:0A000

不能使用 <action> 参数 <functionName> SQL 用户定义函数 TABLE,因为此功能尚未实现。

TABLE_VALUED_FUNCTION_FAILED_TO_ANALYZE_IN_PYTHON

SQLSTATE:38000

未能分析 Python 用户定义的表函数:<msg>

TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INCOMPATIBLE_WITH_CALL

SQLSTATE:22023

无法评估表函数 <functionName>,因为其表元数据为 <requestedMetadata>,但函数调用 <invalidFunctionCallProperty>

TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INVALID

SQLSTATE:22023

由于表元数据无效,无法评估表函数 <functionName>;<reason>

TABLE_VALUED_FUNCTION_TOO_MANY_TABLE_ARGUMENTS

SQLSTATE:54023

表值函数的表参数过多。

它允许一个表参数,但得到:<num>

如果要设置为允许,请将“spark.sql.allowMultipleTableArguments.enabled”设置为“true”

TABLE_WITH_ID_NOT_FOUND

SQLSTATE:42P01

找不到 ID 为 <tableId> 的表。 验证 UUID 的正确性。

任务写入失败 (TASK_WRITE_FAILED)

SQLSTATE:58030

将行写入 <path> 时任务失败。

TEMP_CHECKPOINT_LOCATION_NOT_SUPPORTED

SQLSTATE:0A000

当前工作区不支持隐式临时流式检查点位置,请显式指定检查点位置。

对于 display(),请使用以下方法设置检查点位置:

display(df, checkpointLocation = “your_path”)

对于所有其他流式处理查询,请使用:

.option(“checkpointLocation”, “your_path”)。

TEMP_TABLE_CREATION_LEGACY_WITH_QUERY

SQLSTATE:0A000

CREATE TEMPORARY TABLE ... AS ... 在此处不受支持,请使用CREATE TEMPORARY VIEW 代替

TEMP_TABLE_CREATION_MUTUAL_EXCLUSIVE_SPECS

SQLSTATE:0A000

CREATE TEMPORARY TABLE 不支持指定 <unsupportedSpec>,请改为创建永久表。

TEMP_TABLE_CREATION_REQUIRES_SINGLE_PART_NAME

SQLSTATE:42K05

创建会话本地临时表需要单部分表名,但得到 <tableName>。 请更新命令以使用单个部件表名称,然后重试。

TEMP_TABLE_DELETION_MUTUAL_EXCLUSIVE_SPECS

SQLSTATE:0A000

DROP TEMPORARY TABLE 不支持指定 <unsupportedSpec>,请删除此规范,或使用 DROP TABLE 命令删除永久表。

TEMP_TABLE_DELETION_REQUIRES_SINGLE_PART_NAME

SQLSTATE:42K05

删除会话本地临时表需要单部分表名,但得到 <tableName>。 请更新 DROP TEMPORARY TABLE 命令以使用单部分表名来删除临时表,或者使用 DROP TABLE 命令来删除永久表。

TEMP_TABLE_DELETION_REQUIRES_V2_COMMAND

SQLSTATE:0A000

DROP TEMPORARY TABLE 需要启用 V2 命令。 请将配置“spark.sql.legacy.useV1Command”设置为 false,然后重试。

TEMP_TABLE_NOT_FOUND

SQLSTATE:42P01

当前会话中找不到临时表 <tableName> 。 验证表名称的拼写和正确性,然后再次重试查询或命令。

要容忍删除时的错误,请使用 DROP TEMP TABLE IF EXISTS

TEMP_TABLE_NOT_SUPPORTED_WITH_HMS

SQLSTATE:0A000

Hive 元存储不支持临时表操作 <operation>

TEMP_TABLE_OPERATION_NOT_SUPPORTED

SQLSTATE:0A000

不支持对会话本地临时表 <tableName> 进行操作:

有关更多详细信息,请参阅 TEMP_TABLE_OPERATION_NOT_SUPPORTED

TEMP_TABLE_OR_VIEW_ALREADY_EXISTS

SQLSTATE:42P07

无法创建临时表或视图 <relationName> ,因为它已存在。

选择其他名称、删除现有对象或添加 IF NOT EXISTS 子句以容忍预先存在的对象。

TEMP_TABLE_REQUIRES_DELTA

SQLSTATE:0AKDD

在会话本地临时表上进行操作需要启用 Delta 目录。 请打开 Delta 目录,然后重试。

TEMP_TABLE_REQUIRES_UC

SQLSTATE:0AKUD

对会话本地临时表的操作需要 Unity Catalog。 请在正在运行的环境中启用 Unity 目录,然后重试。

TEMP_VIEW_NAME_TOO_MANY_NAME_PARTS

SQLSTATE:428EK

CREATE TEMPORARY VIEW 或相应的数据集 API 仅接受单部分视图名称,但收到了 <actualName>

TRAILING_COMMA_IN_SELECT

SQLSTATE:42601

SELECT 子句中检测到尾随逗号。 删除 FROM 子句之前的尾随逗号。

交易最大提交时间戳超限

SQLSTATE:25000

事务无法提交,因为超出最大提交时间戳。 maxCommitTimestamp:<maxCommitTimestampMs> commitTimestamp:<commitTimestampMs>

TRANSFORM_WITH_STATE_USER_FUNCTION_ERROR

SQLSTATE:39000

StatefulProcessor 的用户定义函数 <function> 中发生错误。 原因:<reason>

TRANSPOSE_EXCEED_ROW_LIMIT

SQLSTATE:54006

行数超过为 TRANSPOSE 允许的 <maxValues> 限制。 如果这是预期的,请将 <config> 设置为至少与当前行数相同。

TRANSPOSE_INVALID_INDEX_COLUMN

SQLSTATE:42804

TRANSPOSE 的索引列无效,原因如下:<reason>

TRANSPOSE_NO_LEAST_COMMON_TYPE

SQLSTATE:42K09

转置要求非索引列共享一个最低的公共类型,但<dt1><dt2>不满足这一条件。

触发间隔无效

SQLSTATE:22003

触发器间隔必须是可以转换为整秒的正持续时间。 收到了:<actual> 秒。

TUPLE_IS_EMPTY

SQLSTATE:22004

由于 Scala 对元组的支持有限,因此不支持空元组。

TUPLE_SIZE_EXCEEDS_LIMIT

SQLSTATE:54011

由于 Scala 对元组的支持有限,不支持包含 22 个以上的元素的元组。

UC_BUCKETED_TABLES

SQLSTATE:0AKUC

Unity Catalog 中不支持存储桶表。

UC_CATALOG_NAME_NOT_PROVIDED

SQLSTATE:3D000

对于 Unity Catalog,请明确指定目录名称。 例如 SHOW GRANT your.address@email.com ON CATALOG main。

UC_COMMAND_NOT_SUPPORTED

SQLSTATE:0AKUC

命令:<commandName> 在 Unity Catalog 中不受支持。

有关更多详细信息,请参阅 UC_COMMAND_NOT_SUPPORTED

UC命令在无服务器环境中不受支持

SQLSTATE:0AKUC

命令:<commandName> 不支持无服务器模式下的 Unity Catalog 群集。 请改用单用户或共享群集。

UC_命令在共享访问模式下不受支持

SQLSTATE:0AKUC

共享访问模式下的 Unity Catalog 群集不支持命令 <commandName>。 改用单用户访问模式。

未找到适用于文件系统源访问的UC连接

SQLSTATE:42704

评估<path>后找不到用于访问<connectionNames>的有效 UC 连接。

确保至少有一个有效的 UC 连接可用于访问目标路径。

已评估连接的详细错误:

<connectionErrors>

UC_CREDENTIAL_PURPOSE_NOT_SUPPORTED

SQLSTATE:0AKUC

不支持指定的凭据类型。

UC_数据源不受支持

SQLSTATE:0AKUC

Unity 目录中不支持数据源格式 <dataSourceFormatName>

UC_DATASOURCE_OPTIONS_NOT_SUPPORTED

SQLSTATE:0AKUC

Unity 目录中不支持数据源选项。

UC_DEPENDENCY_DOES_NOT_EXIST

SQLSTATE:42P01

Unity 目录中不存在依赖项:

<errorMessage>

UC_EXTERNAL_VOLUME_MISSING_LOCATION

SQLSTATE:42601

外部卷必须存在 LOCATION 子句。 请检查用于创建外部卷的语法“CREATE EXTERNAL VOLUME ... LOCATION ...”。

UC_FAILED_PROVISIONING_STATE

SQLSTATE:0AKUC

查询失败,因为它尝试引用表 <tableName>,但无法执行此操作:<failureReason>。 请更新表 <tableName> 以确保它处于活动预配状态,然后再次重试查询。

UC_FILE_SCHEME_FOR_TABLE_CREATION_NOT_SUPPORTED

SQLSTATE:0AKUC

不支持在 Unity 目录中创建包含文件方案 <schemeName> 的表。

请改为使用同一表提供程序的 CREATE CONNECTION 命令创建联合数据源连接,然后基于与 CREATE FOREIGN CATALOG 命令的连接创建目录,以引用其中表。

UC_HIVE_METASTORE_FEDERATION_CROSS_CATALOG_VIEW_NOT_SUPPORTED

SQLSTATE:56038

Hive 元存储联合视图不支持跨多个目录的依赖项。 在 Hive 元存储联合目录中查看 <view> 必须使用来自hive_metastore或spark_catalog目录的依赖项,但其依赖项 <dependency> 位于另一个目录 <referencedCatalog>中。 请更新依赖项以满足此约束,然后再次重试查询或命令。

UC_HIVE_METASTORE_FEDERATION_NOT_ENABLED

SQLSTATE:0A000

未在此群集上启用 Hive 元存储联邦功能。

此群集不支持访问目录 <catalogName>

UC_INVALID_DEPENDENCIES

SQLSTATE:56098

<viewName> 的依赖项记录为 <storedDeps>,同时分析为 <parsedDeps>。 这可能是通过不当使用非 SQL API 而发生的。 可以通过运行 ALTER VIEW <viewName> AS <viewText>来修复 Databricks Runtime 中的依赖项。

UC_INVALID_NAMESPACE

SQLSTATE:0AKUC

Unity 目录中不支持嵌套或空命名空间。

UC_INVALID_REFERENCE

SQLSTATE:0AKUC

无法在 Unity Catalog 对象中引用非 Unity Catalog 对象 <name>

UC_LAKEHOUSE_FEDERATION_WRITES_NOT_ALLOWED

SQLSTATE:56038

此群集上的提供程序 <provider> 未启用 Unity Catalog Lakehouse 联合身份验证写入支持。

UC_LOCATION_FOR_MANAGED_VOLUME_NOT_SUPPORTED

SQLSTATE:42601

托管卷不接受 LOCATION 子句。 请检查用于创建托管卷的语法“CREATE VOLUME ...”。

UC_NOT_ENABLED

SQLSTATE:56038

此群集上未启用 Unity 目录。

UC_QUERY_FEDERATION_NOT_ENABLED

SQLSTATE:56038

此群集上未启用 Unity 目录查询联邦功能。

UC_RESOLVED_DBFS_PATH_MISMATCH

SQLSTATE:0AKUC

查询失败,因为它尝试引用 <objectType> <name> 因而未能成功:解析的 DBFS 路径 <resolvedHmsPath> 与 Unity Catalog 存储位置 <ucStorageLocation> 不一致。

UC_SERVICE_CREDENTIALS_NOT_ENABLED

SQLSTATE:56038

此群集上未启用服务凭据。

UC_VOLUMES_NOT_ENABLED

SQLSTATE:56038

此实例上未启用对 Unity 目录卷的支持。

UC_VOLUMES_SHARING_NOT_ENABLED

SQLSTATE:56038

此实例上未启用对卷共享的支持。

UC_VOLUME_NOT_FOUND

SQLSTATE:42704

<name> 不存在。 请使用“SHOW VOLUMES”列出可用卷。

UDF环境错误

SQLSTATE:39000

由于系统错误,无法安装 UDF 依赖项 <udfName>

有关更多详细信息,请参阅 UDF_ENVIRONMENT_ERROR

UDF_ENVIRONMENT_USER_ERROR

SQLSTATE:39000

无法为 <udfName>安装 UDF 依赖项。

有关详细信息 ,请参阅UDF_ENVIRONMENT_USER_ERROR

UDF_ERROR

SQLSTATE:未分配

函数 <fn> 执行失败

有关详细信息,请参阅 UDF_ERROR

UDF_LIMITS

SQLSTATE:54KD0

违反了一个或多个 UDF 限制。

有关详细信息,请参阅 UDF_LIMITS

UDF_MAX_COUNT_EXCEEDED

SQLSTATE:54KD0

超出了查询范围的 <maxNumUdfs> UDF 上限(在公共预览版期间受限)。 已找到 <numUdfs>。 UDF 为:<udfNames>

UDF_PYSPARK_ERROR

SQLSTATE:39000

Python 工作器意外退出

有关详细信息,请参阅 UDF_PYSPARK_ERROR

UDF_PYSPARK_UNSUPPORTED_TYPE(UDF_PYSPARK不支持的类型)

SQLSTATE:0A000

在共享访问模式的群集上不支持 PySpark UDF <udf> (<eval-type>)。

UDF_PYSPARK_USER_CODE_ERROR(用户代码错误)

SQLSTATE:39000

执行失败。

有关更多详细信息,请参阅 UDF_PYSPARK_USER_CODE_ERROR

UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE

SQLSTATE:0A000

用户定义的 <functionType> 函数不支持参数默认值。

UDF_USER_CODE_ERROR

SQLSTATE:39000

函数<fn>运行失败。

有关详细信息,请参阅 UDF_USER_CODE_ERROR

UDTF_ALIAS_NUMBER_MISMATCH

SQLSTATE:42802

AS 子句中提供的别名数与 UDTF 输出的列数不匹配。

需要 <aliasesSize> 别名,但结果是 <aliasesNames>

请确保提供的别名数与 UDTF 输出的列数匹配。

UDTF_INVALID_ALIAS_IN_REQUESTED_ORDERING_STRING_FROM_ANALYZE_METHOD

SQLSTATE:42802

未能计算用户定义的表函数,因为其“analyze”方法返回了请求的 OrderingColumn,其列名表达式包含不必要的别名 <aliasName>;请删除此别名,然后再次尝试查询。

UDTF_INVALID_REQUESTED_SELECTED_EXPRESSION_FROM_ANALYZE_METHOD_REQUIRES_ALIAS

SQLSTATE:42802

未能计算用户定义的表函数,因为它的“analyze”方法返回了请求的“select”表达式 (<expression>),但不包含相应的别名;请更新 UDTF 以在此处指定别名,然后再次尝试查询。

无法获取内存

SQLSTATE:53200

无法获取内存的 <requestedBytes> 字节,收到了 <receivedBytes>

UNABLE_TO_CONVERT_TO_PROTOBUF_MESSAGE_TYPE

SQLSTATE:42K0G

无法将 SQL 类型 <toType> 转换为 Protobuf 类型 <protobufType>

UNABLE_TO_FETCH_HIVE_TABLES

SQLSTATE:58030

无法提取 Hive 数据库的表:<dbName>。 错误类名称:<className>

UNABLE_TO_INFER_SCHEMA

SQLSTATE:42KD9

无法推断 <format>的架构。 必须手动指定。

未经授权的访问

SQLSTATE:42501

未经授权的访问:

<report>

未绑定的SQL参数

SQLSTATE:42P02

找到未绑定的参数:<name>。 请修复 args 并提供参数到 SQL 文本或集合构造函数的映射,例如 map()array()struct()

UNCLOSED_BRACKETED_COMMENT

SQLSTATE:42601

找到未闭合的方括号注释。 请在注释末尾追加 */ 。

UNEXPECTED_INPUT_TYPE

SQLSTATE:42K09

函数 <paramIndex> 的参数 <functionName> 需要 <requiredType> 类型,但 <inputSql> 具有类型 <inputType>

UNEXPECTED_INPUT_TYPE_OF_NAMED_PARAMETER

SQLSTATE:42K09

函数 <namedParamKey><functionName> 参数需要 <requiredType> 类型,但 <inputSql> 具有类型 <inputType><hint>

UNEXPECTED_OPERATOR_IN_STREAMING_VIEW

SQLSTATE:42KDD

<op> 语句中作为流式处理源的意外运算符 CREATE VIEW

流式处理视图查询只能包含 SELECTWHEREUNION ALL 操作。

UNEXPECTED_POSITIONAL_ARGUMENT

SQLSTATE:4274K

无法调用例程 <routineName>,因为它包含在分配给 <parameterName>的命名参数之后的位置参数;请重新排列这些参数,使位置参数在前,然后再次重试查询。

UNEXPECTED_SERIALIZER_FOR_CLASS

SQLSTATE:42846

<className> 具有意外的表达式序列化器。 期望返回“STRUCT”的“STRUCT”或“IF”,但找到的是 <expr>

UNION_NOT_SUPPORTED_IN_RECURSIVE_CTE

SQLSTATE:42836

UNION 运算符在递归公用表表达式(直接或间接引用自身的 WITH 子句)中尚不支持。 请改用 UNION ALL

UNKNOWN_FIELD_EXCEPTION

SQLSTATE:KD003

在分析期间遇到 <changeType><unknownFieldBlob>,这可以通过自动重试 <isRetryable> 进行修复

有关更多详细信息,请参阅 UNKNOWN_FIELD_EXCEPTION

UNKNOWN_POSITIONAL_ARGUMENT

SQLSTATE:4274K

例程 <routineName> 的调用在位置 <sqlExpr> 处包含一个未知的位置自变量 <pos>。 这无效。

UNKNOWN_PRIMITIVE_TYPE_IN_VARIANT

SQLSTATE:22023

在变体值中找到 ID 为 <id> 的未知基元类型。

UNKNOWN_PROTOBUF_MESSAGE_TYPE

SQLSTATE:42K0G

尝试将 <descriptorName> 视为消息,但它是 <containingType>

UNPIVOT_REQUIRES_ATTRIBUTES

SQLSTATE:42K0A

UNPIVOT 要求所有给定的 <given> 表达式在未给出任何 <empty> 表达式时成为列。 这些表达式不是列:[<expressions>]。

UNPIVOT_REQUIRES_VALUE_COLUMNS

SQLSTATE:42K0A

至少需要为 UNPIVOT 指定一个值列,所有列指定为 ID。

UNPIVOT_VALUE_DATA_TYPE_MISMATCH

SQLSTATE:42K09

逆透视值列必须共享一个最不常见的类型,不包括某些类型:[<types>]。

UNPIVOT_VALUE_SIZE_MISMATCH

SQLSTATE:428C4

所有逆透视值列的大小必须与值列名称 (<names>) 相同。

未识别的参数名称 (UNRECOGNIZED_PARAMETER_NAME)

SQLSTATE:4274K

无法调用例程 <routineName>,因为在调用时使用了名为 <argumentName>的命名参数引用,但此例程的任何函数签名中都不包含具有该名称的参数。 您是指以下选项中的一个吗? [<proposal>]。

未识别的SQL类型

SQLSTATE:42704

无法识别的 SQL 类型 - 名称:<typeName>,id:<jdbcType>

未识别的统计数据

SQLSTATE:42704

无法识别统计信息 <stats>。 有效统计信息包括 countcount_distinctapprox_count_distinctmeanstddevminmax和百分位值。 百分位数必须是后跟“%”的数值,范围在 0%到 100%之间。

UNRESOLVABLE_TABLE_VALUED_FUNCTION

SQLSTATE:42883

无法将 <name> 解析为表值函数。

请确保 <name> 定义为表值函数,并正确提供所有必需的参数。

如果未定义 <name>,请在使用之前创建表值函数。

有关定义表值函数的详细信息,请参阅 Apache Spark 文档。

UNRESOLVED_ALL_IN_GROUP_BY

SQLSTATE:42803

无法基于 select 子句推断 GROUP BY ALL 的分组列。 请显式指定分组列。

UNRESOLVED_COLUMN

SQLSTATE:42703

无法解析具有名称 <objectName> 的列、变量或函数参数。

有关更多详细信息,请参阅 UNRESOLVED_COLUMN

未解决的字段

SQLSTATE:42703

名为 <fieldName> 的字段无法通过结构类型列 <columnPath>解析。

有关详细信息,请参阅 UNRESOLVED_FIELD

UNRESOLVED_INSERT_REPLACE_USING_COLUMN

SQLSTATE:42703

REPLACE USING<colName> 无法在 <relationType> 中解析。

是否指的是以下列之一? [<suggestion>]。

UNRESOLVED_MAP_KEY

SQLSTATE:42703

无法将列 <objectName> 解析为映射键。 如果键是字符串字面量,请在其两侧添加单引号 ''。

有关更多详细信息,请参阅 UNRESOLVED_MAP_KEY

未解决的例程

SQLSTATE:42883

无法解析搜索路径 <routineName>上的例程 <searchPath>

验证 <routineName>的拼写,检查例程是否存在,并确认你对目录和架构具有 USE 权限,以及对例程具有 EXECUTE 权限。

有关更多详细信息,请参阅 UNRESOLVED_ROUTINE

UNRESOLVED_USING_COLUMN_FOR_JOIN

SQLSTATE:42703

无法解析联接的 USING 一侧的 <colName><side><side> 一侧的列:[<suggestion>]。

未解决的变量

SQLSTATE:42883

无法解析搜索路径 <variableName>上的变量 <searchPath>

UNSTRUCTURED_DATA_PROCESSING_UNSUPPORTED_FILE_FORMAT

SQLSTATE:0A000

不支持非结构化文件格式 <format>。 支持的文件格式是 <supportedFormats>

请将 format 表达式中的 <expr> 更新为受支持的格式之一,然后再次重试查询。

UNSTRUCTURED_DATA_PROCESSING_UNSUPPORTED_MODEL_OPTION

SQLSTATE:0A000

不支持非结构化模型选项 ('<option>' -> ''<value>)。 支持的值为:<supportedValues>

切换到其中一个受支持的值,然后再次重试查询。

UNSTRUCTURED_OCR_COLUMN_NOT_ALLOWED_WITH_METADATA_MODEL_OPTION

SQLSTATE:42000

指定“metadataModel”选项时,函数参数“ocrText”必须是NULL,或者被省略。 指定的“metadataModel”选项会触发数据提取功能,并禁止使用提供的“ocrText”。

UNSUPPORTED_ADD_FILE

SQLSTATE:0A000

不支持添加文件。

有关更多详细信息,请参阅 UNSUPPORTED_ADD_FILE

UNSUPPORTED_ALTER_COLUMN_PARAMETER

SQLSTATE:0A000

不支持使用 <parameter> 指定 ALTER <commandTableType>

UNSUPPORTED_ARROWTYPE

SQLSTATE:0A000

不支持的箭头类型 <typeName>

UNSUPPORTED_BATCH_TABLE_VALUED_FUNCTION

SQLSTATE:42000

函数 <funcName> 不支持批处理查询。

UNSUPPORTED_CALL

SQLSTATE:0A000

无法调用“<className>”类的“<methodName>”方法。

有关更多详细信息,请参阅 UNSUPPORTED_CALL

UNSUPPORTED_CHAR_OR_VARCHAR_AS_STRING

SQLSTATE:0A000

不能在表架构中使用 char/varchar 类型。

如果希望 Spark 将其视为与 Spark 3.0 及更早版本所视为的相同字符串类型,请将“spark.sql.legacy.charVarcharAsString”设置为“true”。

UNSUPPORTED_CLAUSE_FOR_OPERATION

SQLSTATE:0A000

<clause> 不支持 <operation>

UNSUPPORTED_COLLATION

SQLSTATE:0A000

排序规则 <collationName> 不受支持:

有关更多详细信息,请参阅 UNSUPPORTED_COLLATION

UNSUPPORTED_COMMON_ANCESTOR_LOC_FOR_FILE_STREAM_SOURCE

SQLSTATE:42616

应向 UC 注册源路径和 sourceArchiveDir 的公共上级。

如果看到此错误消息,则可能是在不同的外部位置注册了源路径和 sourceArchiveDir。

请把它们放到一个单独的外部位置。

不支持的连接功能

SQLSTATE:0A000

Spark Connect 不支持此功能:

有关更多详细信息,请参阅 UNSUPPORTED_CONNECT_FEATURE

UNSUPPORTED_CONSTRAINT_CLAUSES

SQLSTATE:0A000

不支持约束子句 <clauses>

不支持的约束类型

SQLSTATE:42000

不支持的约束类型。 仅支持 <supportedConstraintTypes>

UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY

SQLSTATE:0A000

不支持直接查询文件的数据源类型:<dataSourceType>

不支持的数据类型

SQLSTATE:0A000

不支持的数据类型 <typeName>

UNSUPPORTED_DATA_SOURCE_SAVE_MODE

SQLSTATE:0A000

数据源“<source>”不能以 <createMode> 模式写入。 请改用“追加”或“覆盖”模式。

UNSUPPORTED_DATA_TYPE_FOR_DATASOURCE

SQLSTATE:0A000

<format> 数据源不支持类型为 <columnType> 的列 <columnName>

不支持的编码器数据类型

SQLSTATE:0A000

无法为 <dataType>创建编码器。 请对 UDF 或 DataFrame 使用不同的输出数据类型。

不支持的默认值

SQLSTATE:0A000

不支持 DEFAULT 列值。

有关更多详细信息,请参阅 UNSUPPORTED_DEFAULT_VALUE

UNSUPPORTED_DESERIALIZER

SQLSTATE:0A000

不支持反序列化程序:

有关更多详细信息,请参阅 UNSUPPORTED_DESERIALIZER

UNSUPPORTED_EXPRESSION_GENERATED_COLUMN

SQLSTATE:42621

由于 <fieldName>,无法使用生成表达式 <expressionStr> 创建生成的列 <reason>

UNSUPPORTED_EXPR_FOR_OPERATOR

SQLSTATE:42K0E

查询运算符包含一个或多个不受支持的表达式。

请考虑重写它,以避免 WHERE 子句中的窗口函数、聚合函数和生成器函数。

无效的表达式:[<invalidExprSqls>]

UNSUPPORTED_EXPR_FOR_PARAMETER

SQLSTATE:42K0E

查询参数包含不受支持的表达式。

参数可以是变量或文本。

无效表达式:[<invalidExprSql>]

UNSUPPORTED_EXPR_FOR_WINDOW

SQLSTATE:42P20

窗口函数中不支持表达式 <sqlExpr>

不支持的功能

SQLSTATE:0A000

不支持此功能:

有关更多详细信息,请参阅 UNSUPPORTED_FEATURE

UNSUPPORTED_FN_TYPE

SQLSTATE:0A000

不支持的用户定义函数类型:<language>

不支持的生成器

SQLSTATE:42K0E

不支持生成器:

有关详细信息,请参阅 UNSUPPORTED_GENERATOR

UNSUPPORTED_GROUPING_EXPRESSION

SQLSTATE:42K0E

grouping()/grouping_id() 只能与 GroupingSets/Cube/Rollup 一起使用。

UNSUPPORTED_INITIAL_POSITION_AND_TRIGGER_PAIR_FOR_KINESIS_SOURCE

SQLSTATE:42616

Kinesis 源不支持初始位置为 <trigger><initialPosition>

UNSUPPORTED_INSERT

SQLSTATE:42809

无法插入到目标中。

有关更多详细信息,请参阅 UNSUPPORTED_INSERT

UNSUPPORTED_JOIN_TYPE (不支持的连接类型)

SQLSTATE:0A000

不支持的联接类型“<typ>”。 支持的联接类型包括:<supported>

UNSUPPORTED_MANAGED_TABLE_CREATION

SQLSTATE:0AKDD

不支持使用数据源 <tableName> 创建托管表 <dataSource>。 需要使用数据源DELTA或使用CREATE EXTERNAL TABLE <tableName>创建外部表USING <dataSource>...

不支持的合并条件

SQLSTATE:42K0E

MERGE 操作包含不支持的 <condName> 条件。

有关更多详细信息,请参阅 UNSUPPORTED_MERGE_CONDITION

UNSUPPORTED_NESTED_ROW_OR_COLUMN_ACCESS_POLICY

SQLSTATE:0A000

<tableName> 具有行级安全策略或列掩码,而该掩码间接引用了具有行级安全策略或列掩码的另一个表;这种情况不被支持。 调用序列:<callSequence>

UNSUPPORTED_OVERWRITE

SQLSTATE:42902

无法覆盖正在读取的目标。

有关更多详细信息,请参阅 UNSUPPORTED_OVERWRITE

UNSUPPORTED_PARTITION_TRANSFORM

SQLSTATE:0A000

不支持的分区转换:<transform>。 支持的转换是 identitybucketclusterBy。 确保转换表达式使用其中一种。

不支持的保存模式

SQLSTATE:0A000

以下对象不支持保存模式 <saveMode>

有关更多详细信息,请参阅 UNSUPPORTED_SAVE_MODE

UNSUPPORTED_SHOW_CREATE_TABLE

SQLSTATE:0A000

不支持 SHOW CREATE TABLE 命令。

有关更多详细信息,请参阅 UNSUPPORTED_SHOW_CREATE_TABLE

UNSUPPORTED_SINGLE_PASS_ANALYZER_FEATURE

SQLSTATE:0A000

单传递分析器无法处理此查询或命令,因为它尚不支持 <feature>

UNSUPPORTED_SQL_UDF_USAGE

SQLSTATE:0A000

<functionName>中使用 SQL 函数<nodeName>是不支持的。

UNSUPPORTED_STREAMING_OPERATOR_WITHOUT_WATERMARK

SQLSTATE:0A000

没有水印的流式处理数据帧/数据集上的 <outputMode> 不支持 <statefulOperator> 输出模式。

UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW

SQLSTATE:0A000

不支持流式传输视图。 原因:

有关更多详细信息,请参阅 UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW

UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED

SQLSTATE:0A000

共享群集上的数据源 <source> 不支持流式处理选项 <options>。 请确认选项已指定并拼写正确,并检查 https://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode 的限制。

UNSUPPORTED_STREAMING_SINK_PERMISSION_ENFORCED

SQLSTATE:0A000

不支持将数据源 <sink> 用作共享群集上的流式处理接收器。

UNSUPPORTED_STREAMING_SOURCE_PERMISSION_ENFORCED

SQLSTATE:0A000

不支持将数据源 <source> 用作共享群集上的流式处理源。

UNSUPPORTED_STREAMING_TABLE_VALUED_FUNCTION

SQLSTATE:42000

函数 <funcName> 不支持流式处理。 请删除 STREAM 关键字

UNSUPPORTED_STREAM_READ_LIMIT_FOR_KINESIS_SOURCE

SQLSTATE:0A000

<streamReadLimit> 在 Kinesis 源中不受支持。

不支持的子查询表达式类别

SQLSTATE:0A000

不支持的子查询表达式:

有关更多详细信息,请参阅 UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY

UNSUPPORTED_TABLE_CHANGE_IN_JDBC_CATALOG

SQLSTATE:42000

对于表 <change> 上的 JDBC 目录,不支持表更改 <tableName>。 支持的更改包括:AddColumn、RenameColumn、DeleteColumn、UpdateColumnType、UpdateColumnNullability。

UNSUPPORTED_TIMESERIES_COLUMNS

SQLSTATE:56038

不支持使用时间序列列创建主键

UNSUPPORTED_TIMESERIES_WITH_MORE_THAN_ONE_COLUMN

SQLSTATE:0A000

不支持创建具有多个时序列 <colSeq> 的主键

UNSUPPORTED_TIME_PRECISION

SQLSTATE:0A001

TIME 数据类型的秒精度 <precision> 超过支持的范围 [0, 6]。

不支持的时间类型

SQLSTATE:0A000

不支持数据类型 TIME。

UNSUPPORTED_TRIGGER_FOR_KINESIS_SOURCE

SQLSTATE:0A000

<trigger> 在 Kinesis 源中不受支持。

UNSUPPORTED_TYPED_LITERAL

SQLSTATE:0A000

不支持 <unsupportedType> 类型的文本。 支持的类型是 <supportedTypes>

UNSUPPORTED_UDF_FEATURE

SQLSTATE:0A000

函数 <function> 使用以下需要较新版本的 Databricks Runtime 的功能:<features>。 有关详细信息,请参阅 <docLink>

UNSUPPORTED_UDF_TYPES_IN_SAME_PLACE

SQLSTATE:0A000

UDF 类型不能一起使用:<types>

UNTYPED_SCALA_UDF

SQLSTATE:42K0E

你正在使用非类型化的 Scala UDF,则该 UDF 没有输入类型信息。

Spark 可能会盲目地将 null 传递给具有基元类型参数的 Scala 闭包,闭包将会看到该 null 参数对应的 Java 类型的默认值,例如 udf((x: Int) => x, IntegerType),对于 null 输入结果是 0。 若要摆脱此错误,可以:

  1. 使用类型化的 Scala UDF API(不含返回类型参数),例如 udf((x: Int) => x)

  2. 如果输入类型都是非基元,则使用 Java UDF API,例如 udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType)

  3. 将“spark.sql.legacy.allowUntypedScalaUDF”设置为“true”,并谨慎使用此 API。

UPGRADE_NOT_SUPPORTED

SQLSTATE:0AKUC

表不符合从 Hive 元存储升级到 Unity Catalog 的条件。 原因:

有关更多详细信息,请参阅 UPGRADE_NOT_SUPPORTED

用户定义函数

SQLSTATE:42601

用户定义的函数无效:

有关更多详细信息,请参阅 USER_DEFINED_FUNCTIONS

USER_RAISED_EXCEPTION

SQLSTATE:P0001

<errorMessage>

USER_RAISED_EXCEPTION_PARAMETER_MISMATCH

SQLSTATE:P0001

raise_error() 函数用于引发错误类:<errorClass>,需要参数:<expectedParms>

提供的 <providedParms> 参数与预期的参数不匹配。

请确保提供所有预期的参数。

USER_RAISED_EXCEPTION_UNKNOWN_ERROR_CLASS

SQLSTATE:P0001

raise_error() 函数用于引发未知错误类:<errorClass>

VARIABLE_ALREADY_EXISTS

SQLSTATE:42723

无法创建变量 <variableName>,因为它已存在。

选择其他名称,或者删除或替换现有变量。

变量未找到

SQLSTATE:42883

找不到变量 <variableName>。 验证架构和目录的拼写和正确性。

如果名称未使用架构和目录限定,请检查 current_schema() 的输出,或者用正确的架构和目录来限定名称。

若要容许删除时出错,请使用 DROP VARIABLE IF EXISTS

VARIANT_CONSTRUCTOR_SIZE_LIMIT

SQLSTATE:22023

无法构造大于 16 MiB 的 Variant。 Variant 值的最大允许大小为 16 MiB。

VARIANT_DUPLICATE_KEY

SQLSTATE:22023

由于对象键 <key>重复,无法生成变体。

变体大小限制

SQLSTATE:22023

无法在 <sizeLimit>中生成大于 <functionName> 的变体。

请避免向此表达式添加大型输入字符串(例如,添加函数调用)以检查表达式大小,并在太大时将其转换为 NULL

VERSIONED_CLONE_UNSUPPORTED_TABLE_FEATURE

SQLSTATE:56038

源表历史记录包含此 DBR 版本中版本化克隆不支持的表功能:<unsupportedFeatureNames>

请升级到较新的 DBR 版本。

VIEW_ALREADY_EXISTS

SQLSTATE:42P07

无法创建视图 <relationName>,因为它已存在。

选择其他名称,删除或替换现有对象,或添加 IF NOT EXISTS 子句以容忍预先存在的对象。

VIEW_EXCEED_MAX_NESTED_DEPTH

SQLSTATE:54K00

视图的深度 <viewName> 超出了最大视图分辨率深度(<maxNestedDepth>)。

分析已中止以避免错误。 要解决此问题,请尝试增加“spark.sql.view.maxNestedViewDepth”的值。

VIEW_NOT_FOUND

SQLSTATE:42P01

找不到视图 <relationName>。 验证架构和目录的拼写和正确性。

如果未使用架构限定名称,请验证 current_schema() 的输出,或者使用正确的架构和目录来限定名称。

若要容许删除时出错,请使用 DROP VIEW IF EXISTS

VOLUME_ALREADY_EXISTS

SQLSTATE:42000

无法创建卷 <relationName>,因为它已存在。

选择其他名称,删除或替换现有对象,或添加 IF NOT EXISTS 子句以容忍预先存在的对象。

WINDOW_FUNCTION_AND_FRAME_MISMATCH

SQLSTATE:42K0E

<funcName> 函数只能在具有单个偏移量的基于有序行的窗口框架中进行计算:<windowExpr>

WINDOW_FUNCTION_WITHOUT_OVER_CLAUSE

SQLSTATE:42601

窗口函数 <funcName> 需要 OVER 子句。

WITH_CREDENTIAL

SQLSTATE:42601

WITH CREDENTIAL不支持 <type> 语法。

WRITE_STREAM_NOT_ALLOWED

SQLSTATE:42601

writeStream”只能在流式处理的数据集/数据帧上调用。

WRONG_COLUMN_DEFAULTS_FOR_DELTA_ALTER_TABLE_ADD_COLUMN_NOT_SUPPORTED

SQLSTATE:0AKDC

无法执行命令,因为添加新值时不支持 DEFAULT

不支持 DEFAULT 值;请先添加没有默认值的列,

然后运行第二个 ALTER TABLE ALTER COLUMN SET DEFAULT 命令来应用

请求将来插入的行。

WRONG_COLUMN_DEFAULTS_FOR_DELTA_FEATURE_NOT_ENABLED

SQLSTATE:0AKDE

未能执行 <commandType> 命令,因为它分配了列 DEFAULT 值,

但未启用相应的表功能。 请再次重试该命令

执行 ALTER TABLE tableName SET

TBLPROPERTIES('delta.feature.allowColumnDefaults' = 'supported').

命令与对象类型不匹配

SQLSTATE:42809

操作 <operation> 需要 <requiredType>。 但 <objectName><foundType>。 请改用 <alternative>

WRONG_NUM_ARGS

SQLSTATE:42605

<functionName> 需要 <expectedNum> 个参数,但实际数量为 <actualNum>

有关更多详细信息,请参阅 WRONG_NUM_ARGS

XML_ROW_TAG_MISSING

SQLSTATE:42KDF

以 XML 格式读取/写入文件需要 <rowTag> 选项。

XML_UNSUPPORTED_NESTED_TYPES

SQLSTATE:0N000

XML 不支持 <innerDataType> 作为内部类型 <dataType>。 在 <innerDataType> 中使用时,请将 <dataType> 包装在 StructType 字段中。

XML_WILDCARD_RESCUED_DATA_CONFLICT_ERROR

SQLSTATE:22023

无法同时启用已获救的数据和通配符列。 请删除 wildcardColumnName 选项。

ZORDERBY_COLUMN_DOES_NOT_EXIST

SQLSTATE:42703

ZOrderBy 列 <columnName> 不存在。

Delta Lake

未找到激活的Delta Spark会话

SQLSTATE:08003

找不到活动的 SparkSession。

DELTA_ACTIVE_TRANSACTION_ALREADY_SET

SQLSTATE:0B000

当一个 txn 已处于活动状态时,无法将新的 txn 设置为活动状态。

DELTA_ADDING_COLUMN_WITH_INTERNAL_NAME_FAILED

SQLSTATE:42000

无法添加列 <colName>,因为名称是保留的。

DELTA_ADDING_DELETION_VECTORS_DISALLOWED

SQLSTATE:0A000

当前操作尝试将删除向量添加到不允许创建新删除向量的表中。 请提交 bug 报告。

DELTA_ADDING_DELETION_VECTORS_WITH_TIGHT_BOUNDS_DISALLOWED

SQLSTATE:42000

所有添加删除向量的操作应将统计信息中的 tightBounds 列设置为 false。 请提交 bug 报告。

DELTA_ADD_COLUMN_AT_INDEX_LESS_THAN_ZERO

SQLSTATE:42KD3

要添加列 <columnIndex> 的索引 <columnName> 小于 0。

DELTA_ADD_COLUMN_PARENT_NOT_STRUCT

SQLSTATE:42KD3

无法添加 <columnName>,因为其父级不是 StructType。 已找到 <other>

DELTA_ADD_COLUMN_STRUCT_NOT_FOUND

SQLSTATE:42KD3

在位置 <position>上找不到结构。

DELTA_ADD_CONSTRAINTS

SQLSTATE:0A000

请使用 ALTER TABLE ADD CONSTRAINT 来添加 CHECK 约束。

DELTA_AGGREGATE_IN_GENERATED_COLUMN

SQLSTATE:42621

已找到 <sqlExpr>。 生成的列不能使用聚合表达式。

DELTA_AGGREGATION_NOT_SUPPORTED

SQLSTATE:42903

<operation> <predicate>不支持聚合函数。

DELTA_ALTER_COLLATION_NOT_SUPPORTED_BLOOM_FILTER

SQLSTATE:428FR

无法更改列 <column> 的排序规则,因为它具有布隆过滤器索引。 请保留现有的排序规则,或者删除 bloom 筛选器索引,然后再次重试该命令以更改排序规则。

DELTA_ALTER_COLLATION_NOT_SUPPORTED_CLUSTER_BY

SQLSTATE:428FR

无法更改列 <column> 的排序规则,因为它是聚类分析列。 请保留现有的排序规则,或者使用 ALTER TABLE 命令将列更改为非聚集列,然后再次重试该命令以更改排序规则。

DELTA_ALTER_TABLE_CHANGE_COL_NOT_SUPPORTED

SQLSTATE:42837

ALTER TABLE CHANGE COLUMN 不支持将列 <currentType> 更改为 <newType>.

DELTA_ALTER_TABLE_CLUSTER_BY_NOT_ALLOWED

SQLSTATE:42000

只有使用 Liquid 聚类分析的 Delta 表才支持 ALTER TABLE CLUSTER BY

DELTA_ALTER_TABLE_CLUSTER_BY_ON_PARTITIONED_TABLE_NOT_ALLOWED

SQLSTATE:42000

无法将 ALTER TABLE CLUSTER BY 应用于分区表。

DELTA_ALTER_TABLE_RENAME_NOT_ALLOWED

SQLSTATE:42000

不允许的操作:不允许对 S3 上的托管 Delta 表执行 ALTER TABLE RENAME TO 操作,因为 S3 上的最终一致性可能会损坏 Delta 事务日志。 如果你坚持这样做,并确保以前从未有一个具有新名称的 Delta 表 <newName>,则可以通过将 <key> 设置为 true 来启用此功能。

DELTA_ALTER_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED

SQLSTATE:42000

无法使用 <tableFeature> 启用 ALTER TABLE SET TBLPROPERTIES 表功能。 请使用 CREATE OR REPLACE TABLE CLUSTER BY 创建包含聚类分析的 Delta 表。

DELTA_ALTER_TABLE_SET_MANAGED_DOES_NOT_SUPPORT_UNIFORM_ICEBERG

SQLSTATE:0A000

ALTER TABLE ... SET MANAGED 不支持统一 Iceberg 表。 禁用统一并重试。

DELTA_ALTER_TABLE_SET_MANAGED_FAILED

SQLSTATE:42809

ALTER TABLE <table> SET MANAGED 失败。

有关更多详细信息,请参阅 DELTA_ALTER_TABLE_SET_MANAGED_FAILED

DELTA_ALTER_TABLE_SET_MANAGED_NOT_ENABLED

SQLSTATE:0AKDC

ALTER TABLE ... SET MANAGED 命令未启用。 请联系 Databricks 支持团队以获取帮助。

DELTA_ALTER_TABLE_UNSET_MANAGED_FAILED

SQLSTATE:42809

<table> 无法从托管表回滚到外部表。

有关更多详细信息,请参阅 DELTA_ALTER_TABLE_UNSET_MANAGED_FAILED

DELTA_ALTER_TABLE_UNSET_MANAGED_NOT_ENABLED

SQLSTATE:0AKDC

ALTER TABLE ... UNSET MANAGED 命令未启用。 请联系 Databricks 支持团队以获取帮助。

DELTA_AMBIGUOUS_DATA_TYPE_CHANGE

SQLSTATE:429BQ

无法将 <column> 数据类型从 <from> 更改为 <to>。 此更改包含列删除和添加,因此它们不明确。 请使用 ALTER TABLE [ADD | DROP | RENAME] COLUMN单独进行这些更改。

DELTA_AMBIGUOUS_PARTITION_COLUMN

SQLSTATE:42702

不明确的分区列 <column> 可以是 <colMatches>

DELTA_AMBIGUOUS_PATHS_IN_CREATE_TABLE

SQLSTATE:42613

CREATE TABLE 包含两个不同的位置:<identifier><location>

可以从 LOCATION 语句中删除 CREATE TABLE 子句,或设置

<config> 为 true 以跳过此检查。

DELTA_ARCHIVED_FILES_IN_LIMIT

SQLSTATE:42KDC

<table> 在非存档文件中没有足够的记录,无法满足 LIMIT 条记录的指定 <limit>

DELTA_ARCHIVED_FILES_IN_SCAN

SQLSTATE:42KDC

在表 <numArchivedFiles> 中找到可能归档的 <table> 文件,这些文件需要作为此查询的一部分被扫描。

无法访问存档的文件。 将存档配置为 <archivalTime> 之前的当前时间。

请调整查询筛选器以排除任何存档的文件。

DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION

SQLSTATE:42KD4

当表已启用更改数据馈送 (CDF) 并使用 DROP COLUMNRENAME COLUMN 进行了架构更改时,不允许执行“<opName>”操作。

DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS

SQLSTATE:42703

无法为以下不存在的列删除布隆筛选器索引:<unknownColumns>

DELTA_BLOOM_FILTER_OOM_ON_WRITE

SQLSTATE:82100

在为以下列编写 bloom 筛选器索引时发生 OutOfMemoryError:<columnsWithBloomFilterIndices>

可以通过为“numItems”选项选择更小的值、为“fpp”选项选择更大的值或为更少的列编制索引来减少 bloom 筛选器索引的内存占用。

DELTA_CANNOT_CHANGE_DATA_TYPE

SQLSTATE:429BQ

无法更改数据类型: <dataType>.

DELTA_CANNOT_CHANGE_LOCATION

SQLSTATE:42601

无法使用 SET TBLPROPERTIES 更改 Delta 表的“位置”。 请改用 ALTER TABLE SET LOCATION

DELTA_无法更改供应商

SQLSTATE:42939

“provider”是保留的表属性,不能更改。

DELTA_CANNOT_CREATE_BLOOM_FILTER_NON_EXISTING_COL

SQLSTATE:42703

无法为以下不存在的列创建布隆筛选器索引:<unknownCols>

DELTA_无法创建日志路径

SQLSTATE:42KD5

无法创建 <path>

DELTA_CANNOT_DESCRIBE_VIEW_HISTORY

SQLSTATE:42809

无法描述视图的历史。

DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN

SQLSTATE:42703

无法删除非索引列上的布隆筛选器索引:<columnName>

DELTA_CANNOT_DROP_CHECK_CONSTRAINT_FEATURE

SQLSTATE:0AKDE

无法删除 CHECK 约束表功能。

必须先删除以下约束:<constraints>

DELTA_CANNOT_DROP_COLLATIONS_FEATURE

SQLSTATE:0AKDE

无法删除排序规则表功能。

具有非默认排序规则的列必须首先更改为使用 UTF8_BINARY:<colNames>

DELTA_无法评估表达式

SQLSTATE:0AKDC

无法计算表达式: <expression>.

DELTA_CANNOT_FIND_BUCKET_SPEC

SQLSTATE:22000

期望一个分桶 Delta 表,但在表中找不到分桶规范。

DELTA_无法为表达式生成代码

SQLSTATE:0AKDC

无法为表达式生成代码: <expression>.

DELTA_CANNOT_MODIFY_APPEND_ONLY

SQLSTATE:42809

此表配置为仅允许追加。 如果要允许更新或删除,请使用“”。ALTER TABLE <table_name> SET TBLPROPERTIES (<config> =false)

DELTA_CANNOT_MODIFY_CATALOG_OWNED_DEPENDENCIES

SQLSTATE:42616

无法覆盖或取消设置提交中时间戳表属性,因为此表由目录拥有。 从 TBLPROPERTIES 子句中删除“delta.enableInCommitTimestamps”、“delta.inCommitTimestampEnablementVersion”和“delta.inCommitTimestampEnablementTimestamp”,然后重试该命令。

DELTA_CANNOT_MODIFY_COORDINATED_COMMITS_DEPENDENCIES

SQLSTATE:42616

<Command> 无法重写或解除设置提交时间戳表属性,因为此表已启用协调提交功能,并依赖于这些属性。 请从 TBLPROPERTIES 子句中删除它们(“delta.enableInCommitTimestamps”、“delta.inCommitTimestampEnablementVersion”、“delta.inCommitTimestampEnablementTimestamp”),然后重试命令。

DELTA_无法修改表属性

SQLSTATE:42939

不能由用户指定 Delta 表配置 <prop>

DELTA_CANNOT_OVERRIDE_COORDINATED_COMMITS_CONFS

SQLSTATE:42616

<Command> 无法替代现有目标表的协调提交配置。 请从 TBLPROPERTIES 子句中删除它们 ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview", "delta.coordinatedCommits.tableConf-preview"),然后重试命令。

DELTA_CANNOT_RECONSTRUCT_PATH_FROM_URI

SQLSTATE:22KD1

在事务日志中找到无法转换为相对路径的 uri (<uri>)。

DELTA_CANNOT_RELATIVIZE_PATH

SQLSTATE:42000

一个无法通过事务日志中找到的当前输入相对化的 (<path>)

事务日志。 请用以下方式重新运行:

%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<userPath>", true)

然后同时运行:

%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<path>")

DELTA_CANNOT_RENAME_PATH

SQLSTATE:22KD1

无法重命名 <currentPath><newPath>.

无法用Delta替换缺失的表

SQLSTATE:42P01

无法替换表 <tableName>,因为它不存在。 使用 CREATE OR REPLACE TABLE 创建表。

DELTA_CANNOT_RESOLVE_CLUSTERING_COLUMN

SQLSTATE:42703

由于出现意外错误,无法解析<columnName>中的聚类列<schema>。 运行 ALTER TABLE ... CLUSTER BY ... 以修复 Delta 聚类元数据。

DELTA_CANNOT_RESOLVE_COLUMN

SQLSTATE:42703

无法解析 <schema> 中的列 <columnName>

DELTA_CANNOT_RESTORE_TABLE_VERSION

SQLSTATE:22003

无法将表还原到版本 <version>。 可用版本:[<startVersion><endVersion>]。

DELTA_无法将时间戳恢复至更早时间

SQLSTATE:22003

无法将表还原到时间戳(<requestedTimestamp>),因为它在可用的最早版本之前。 请在 (<earliestTimestamp>) 之后使用时间戳。

DELTA_CANNOT_RESTORE_TIMESTAMP_GREATER

SQLSTATE:22003

无法将表还原到时间戳(<requestedTimestamp>),因为该时间戳晚于当前最新版本。 请在 (<latestTimestamp>) 之前使用时间戳。

DELTA_CANNOT_SET_COORDINATED_COMMITS_DEPENDENCIES

SQLSTATE:42616

<Command> 无法将提交中的时间戳表属性与协调的提交一起设置,因为后者依赖于前者并在内部设置前者。 请从 TBLPROPERTIES 子句中删除它们(“delta.enableInCommitTimestamps”、“delta.inCommitTimestampEnablementVersion”、“delta.inCommitTimestampEnablementTimestamp”),然后重试命令。

DELTA_CANNOT_SET_LOCATION_ON_PATH_IDENTIFIER

SQLSTATE:42613

无法更改基于路径的表的位置。

DELTA_CANNOT_SET_MANAGED_STATS_COLUMNS_PROPERTY

SQLSTATE:42616

无法在非 DLT 表上设置 delta.managedDataSkippingStatsColumns。

DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_COMMAND

SQLSTATE:42616

当启用“unity-catalog”作为提交协调器时,无法从命令设置配置“<configuration>”。 请将其从 TBLPROPERTIES 子句中删除,然后再次重试该命令。

DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_SESSION

SQLSTATE:42616

启用“unity-catalog”作为提交协调器时,无法从 SparkSession 配置中设置配置“<configuration>”。 请通过运行 spark.conf.unset("<configuration>") 将其取消设置,然后再次重试该命令。

DELTA_CANNOT_UNSET_COORDINATED_COMMITS_CONFS

SQLSTATE:42616

ALTER 无法取消设置协调的提交配置。 若要从协调提交降级表,请使用 ALTER TABLE[table-name]DROP FEATURE 'coordinatedCommits-preview' 重试。

DELTA_无法更新数组字段

SQLSTATE:429BQ

无法更新 <tableName> 字段 <fieldName> 类型:通过更新 <fieldName>.element` 来更新元素。

DELTA_无法更新_MAP_字段

SQLSTATE:429BQ

无法更新 <tableName> 字段 <fieldName> 类型:通过更新 <fieldName>.key<fieldName>.value 来更新映射。

DELTA_CANNOT_UPDATE_OTHER_FIELD

SQLSTATE:429BQ

无法更新 <tableName> 类型的 <typeName>字段。

DELTA_CANNOT_UPDATE_STRUCT_FIELD

SQLSTATE:429BQ

无法更新 <tableName> 字段 <fieldName> 类型:通过添加、删除或更新其字段来更新结构体。

DELTA_CANNOT_USE_ALL_COLUMNS_FOR_PARTITION

SQLSTATE:428FT

不能将所有列作为分区列使用。

DELTA_CANNOT_VACUUM_LITE

SQLSTATE:55000

VACUUM LITE 无法删除所有符合条件的文件,因为 Delta 日志未引用某些文件。 请运行 VACUUM FULL

DELTA_CANNOT_WRITE_INTO_VIEW

SQLSTATE:0A000

<table> 是视图。 不支持对视图的写入。

DELTA_CAST_OVERFLOW_IN_TABLE_WRITE

SQLSTATE:22003

由于溢出,无法将 <sourceType> 类型的值写入 <targetType> 类型列 <columnName>

请对输入值使用 try_cast 来容忍溢出并改为返回 NULL

如有必要,将 <storeAssignmentPolicyFlag> 设置为“LEGACY”以绕过此错误,或将 <updateAndMergeCastingFollowsAnsiEnabledFlag> 设置为 true 以恢复旧行为,并在 UPDATEMERGE 中遵循 <ansiEnabledFlag>

此版本中不允许使用DELTA_CDC

SQLSTATE:0AKDC

配置 delta.enableChangeDataFeed 无法被设置。 来自 Delta 的更改数据馈送尚不可用。

DELTA_CDC_READ_NULL_RANGE_BOUNDARY

SQLSTATE:22004

CDC 读取开始/结束参数不能为 null。 请提供有效的版本或时间戳。

DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_DATA_SCHEMA

SQLSTATE:0AKDC

由于数据架构不兼容,检索版本 <start><end> 之间的表更改失败。

你的读取架构是版本 <readSchema> 中的 <readVersion>,但我们发现版本 <incompatibleVersion> 中的数据架构不兼容。

如果可能,请通过将 <config> 设置为 endVersion 使用最终版本的架构来检索表更改,或者联系支持人员。

DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE:0AKDC

由于架构更改不兼容,在版本 <start><end> 之间检索表更改失败。

您的读取架构为版本 <readSchema><readVersion>,但我们在版本 <incompatibleVersion>中发现了不兼容的架构更改。

如果可能,请分别查询表从版本 <start><incompatibleVersion> - 1 的更改,以及从版本 <incompatibleVersion><end>的更改。

DELTA_CHANGE_DATA_FILE_NOT_FOUND

SQLSTATE:42K03

找不到事务日志中引用的文件 <filePath>。 当从文件系统手动删除数据而不是使用表 DELETE 语句时,可能会发生这种情况。 此请求似乎是针对变更数据流的。如果是这种情况,当变更数据日志文件超出保留时间并被 VACUUM 语句删除时,可能会发生此错误。 有关详细信息,请参阅 <faqPath>

DELTA_CHANGE_TABLE_FEED_DISABLED

SQLSTATE:42807

无法写入具有 delta.enableChangeDataFeed 集的表。 来自 Delta 的更改数据馈送不可用。

DELTA_CHECKPOINT_NON_EXIST_TABLE

SQLSTATE:42K03

无法为不存在的表 <path> 创建检查点。 是否手动删除_delta_log目录中的文件?

DELTA_CLONE_AMBIGUOUS_TARGET

SQLSTATE:42613

提供了两个路径作为 CLONE 的目标,因而不明确使用哪一个。 在提供

路径的同时,还在 CLONE 处提供 <externalLocation> 的外部位置

<targetIdentifier>

DELTA_CLONE_INCOMPATIBLE_SOURCE

SQLSTATE:0AKDC

克隆源具有有效的格式,但具有 Delta 不支持的功能。

有关更多详细信息,请参阅 DELTA_CLONE_INCOMPATIBLE_SOURCE

DELTA_CLONE_INCOMPLETE_FILE_COPY

SQLSTATE:42000

文件 (<fileName>) 未完全复制。 预期文件大小 <expectedSize>,找到:<actualSize>。 若要忽略文件大小检查并继续操作,请将 <config> 设置为 false。

DELTA_CLONE_UNSUPPORTED_SOURCE

SQLSTATE:0AKDC

克隆源“<name>”不受支持 <mode>,其格式为 <format>

支持的格式为“delta”、“iceberg”和“parquet”。

DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_SOURCE

SQLSTATE:0AKDC

不支持的源表:

有关更多详细信息,请参阅 DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_SOURCE

DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_TARGET

SQLSTATE:0AKDC

不支持的目标表:

有关更多详细信息,请参阅 DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_TARGET

DELTA_CLUSTERING_CLONE_TABLE_NOT_SUPPORTED

SQLSTATE:0A000

对于 DBR 版本 < 14.0,Delta 表的 Liquid 聚类不支持 CLONE

DELTA_CLUSTERING_COLUMNS_DATATYPE_NOT_SUPPORTED

SQLSTATE:0A000

CLUSTER BY 不支持,因为以下列:<columnsWithDataTypes> 不支持数据跳过。

DELTA_CLUSTERING_COLUMNS_MISMATCH

SQLSTATE:42P10

提供的聚类分析列与现有的表不匹配。

  • 提供的:<providedClusteringColumns>

  • 现有的:<existingClusteringColumns>

DELTA_CLUSTERING_COLUMN_MISSING_STATS

SQLSTATE:22000

液体聚类分析需要聚类分析列具有统计信息。在统计信息架构中找不到聚类分析列“<columns>”:

<schema>

DELTA_CLUSTERING_CREATE_EXTERNAL_NON_LIQUID_TABLE_FROM_LIQUID_TABLE

SQLSTATE:22000

不允许从具有流动聚类的表目录中创建不使用流动聚类的外部表;路径:<path>

DELTA_CLUSTERING_NOT_SUPPORTED

SQLSTATE:42000

<operation>”不支持聚类分析。

DELTA_CLUSTERING_PHASE_OUT_FAILED

SQLSTATE:0AKDE

无法使用 <phaseOutType> 表功能完成表的 <tableFeatureToAdd>(原因:<reason>)。 请再次尝试 OPTIMIZE 命令。

== 错误 ==

<error>

DELTA_CLUSTERING_REPLACE_TABLE_WITH_PARTITIONED_TABLE

SQLSTATE:42000

不允许通过 REPLACE 命令将使用 Liquid 聚类分析的 Delta 表替换为已分区表。

DELTA_CLUSTERING_SHOW_CREATE_TABLE_WITHOUT_CLUSTERING_COLUMNS

SQLSTATE:0A000

使用 Liquid 聚类分析的 Delta 表(无任何聚类分析列)不支持 SHOW CREATE TABLE

DELTA_CLUSTERING_TO_PARTITIONED_TABLE_WITH_NON_EMPTY_CLUSTERING_COLUMNS

SQLSTATE:42000

当现有表具有非空聚类分析列时,不允许将具有 Liquid 聚类分析的 Delta 表转换为分区表:<operation>

请先运行 ALTER TABLE CLUSTER BY NONE 来删除聚类列。

DELTA_CLUSTERING_WITH_DYNAMIC_PARTITION_OVERWRITE

SQLSTATE:42000

使用 Liquid 集群的 Delta 表不允许动态分区覆盖模式。

DELTA_CLUSTERING_WITH_PARTITION_PREDICATE

SQLSTATE:0A000

OPTIMIZE Delta 表的 Liquid 聚类命令不支持分区谓词。 请删除谓词:<predicates>

DELTA_CLUSTERING_WITH_ZORDER_BY

SQLSTATE:42613

具有 Liquid 聚类分析的 Delta 表的 OPTIMIZE 命令不能指定 ZORDER BY。 请删除 ZORDER BY (<zOrderBy>

DELTA_CLUSTER_BY_AUTO_MISMATCH

SQLSTATE:42000

提供的 clusterByAuto 值与现有表的值不匹配。

DELTA_CLUSTER_BY_INVALID_NUM_COLUMNS

SQLSTATE:54000

Liquid 聚类分析的 CLUSTER BY 支持最多 <numColumnsLimit> 个聚类分析列,但该表具有 <actualNumColumns> 个聚类分析列。 请删除额外的聚类列。

DELTA_CLUSTER_BY_SCHEMA_NOT_PROVIDED

SQLSTATE:42908

不允许在未定义架构时指定 CLUSTER BY。 请为表 <tableName>定义架构。

DELTA_CLUSTER_BY_WITH_BUCKETING

SQLSTATE:42613

无法同时指定聚类分析和分桶。 如果要创建包含群集的 Delta 表,请删除 CLUSTERED BY INTO BUCKETS/bucketBy。

DELTA_CLUSTER_BY_WITH_PARTITIONED_BY

SQLSTATE:42613

无法同时指定聚类分析和分区。 如果要创建具有聚类分析的 Delta 表,请删除 PARTITIONED BY/partitionBy/partitionedBy。

DELTA_COLLATIONS_NOT_SUPPORTED

SQLSTATE:0AKDC

Delta Lake 不支持排序规则。

DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_PARTITIONED_COLUMN

SQLSTATE:0AKDC

分区列“<column>”不支持跳过数据。

DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_TYPE

SQLSTATE:0AKDC

类型为 <type> 的列“<column>”不支持跳过数据。

DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET

SQLSTATE:42703

未在启用列映射的表中设置最大列 ID 属性(<prop>)。

DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET_CORRECTLY

SQLSTATE:42703

启用列映射的表的最大列 ID 属性(<prop>)是 <tableMax>,不能小于所有字段的最大列 ID(<fieldMax>)。

DELTA_COLUMN_MISSING_DATA_TYPE

SQLSTATE:42601

未提供列 <colName> 的数据类型。

DELTA_COLUMN_NOT_FOUND

SQLSTATE:42703

无法在给定的 [<columnList>] 中找到列 <columnName>

DELTA_COLUMN_NOT_FOUND_IN_MERGE

SQLSTATE:42703

无法从 INSERT 列中找到目标表的列 '<targetCol>':<colNames>INSERT 子句必须为目标表的所有列指定值。

DELTA_COLUMN_NOT_FOUND_IN_SCHEMA

SQLSTATE:42703

在下列位置无法找到 <columnName> 列:

<tableSchema>

DELTA_COLUMN_PATH_NOT_NESTED

SQLSTATE:42704

预期 <columnPath> 是嵌套数据类型,但却发现了 <other>。 正在查找

嵌套字段中 <column> 的索引。

图式:

<schema>

DELTA_COLUMN_STRUCT_TYPE_MISMATCH

SQLSTATE:2200G

结构列 <source> 不能插入到 <targetType>中的 <targetField> 字段 <targetTable> 中。

DELTA_COMMIT_INTERMEDIATE_REDIRECT_STATE

SQLSTATE:42P01

无法处理重定向表状态 '<state>' 中的表提交。

DELTA_COMPACTION_VALIDATION_FAILED

SQLSTATE:22000

验证路径 <compactedPath><newPath> 的压缩失败:请提交 bug 报告。

DELTA_COMPLEX_TYPE_COLUMN_CONTAINS_NULL_TYPE

SQLSTATE:22005

在数据类型为 <columName><dataType> 列中找到嵌套的 NullType。 Delta 不支持在复杂类型中写入 NullType。

DELTA_CONCURRENT_APPEND

SQLSTATE:2D521

ConcurrentAppendException:已通过并发更新将文件添加到 <partition><retryMsg> <conflictingCommit>

有关更多详细信息,请参阅 <docLink>

DELTA_CONCURRENT_DELETE_DELETE

SQLSTATE:2D521

ConcurrentDeleteDeleteException:此事务尝试通过并发更新删除一个或多个文件(例如 <file>)。 请重试该操作。<conflictingCommit>

有关更多详细信息,请参阅 <docLink>

DELTA_CONCURRENT_DELETE_READ

SQLSTATE:2D521

ConcurrentDeleteReadException:此事务尝试通过并发更新读取删除的一个或多个文件(例如 <file>)。 请重试该操作。<conflictingCommit>

有关更多详细信息,请参阅 <docLink>

DELTA_CONCURRENT_TRANSACTION

SQLSTATE:2D521

ConcurrentTransactionException:当多个流式处理查询使用相同的检查点写入此表时,会发生此错误。 是否同时运行同一流查询的多个实例?<conflictingCommit>

有关更多详细信息,请参阅 <docLink>

DELTA_CONCURRENT_WRITE

SQLSTATE:2D521

ConcurrentWriteException:并发事务已写入新数据,因为当前事务读取表。 请重试该操作。<conflictingCommit>

有关更多详细信息,请参阅 <docLink>

DELTA_CONFLICT_SET_COLUMN

SQLSTATE:42701

这些 SET<columnList> 之间存在冲突。

DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_COMMAND

SQLSTATE:42616

<command> 期间,无法从命令设置配置“<configuration>”。 请将其从 TBLPROPERTIES 子句中删除,然后再次重试该命令。

DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_SESSION

SQLSTATE:42616

<command> 期间,无法从 SparkSession 配置中设置配置“<configuration>”。 请通过运行 spark.conf.unset("<configuration>") 将其取消设置,然后再次重试该命令。

DELTA_CONSTRAINT_ALREADY_EXISTS

SQLSTATE:42710

约束“<constraintName>”已存在。 请先删除旧约束。

旧约束:

<oldConstraint>

DELTA_CONSTRAINT_DATA_TYPE_MISMATCH

SQLSTATE:42K09

<columnName> 具有数据类型 <columnType>,无法更改为数据类型 <dataType>,因为以下检查约束引用了此列:

<constraints>

DELTA_CONSTRAINT_DEPENDENT_COLUMN_CHANGE

SQLSTATE:42K09

无法更改列 <columnName>,因为以下检查约束引用了此列:

<constraints>

DELTA约束不存在

SQLSTATE:42704

无法从表 <constraintName>中删除不存在的约束 <tableName>。 若要避免引发错误,请提供参数 IF EXISTS 或将 SQL 会话配置 <config> 设置为 <confValue>

DELTA_CONVERSION_MERGE_ON_READ_NOT_SUPPORTED

SQLSTATE:0AKDC

不支持转换读取时合并 <format> 表:<path><hint>

DELTA_CONVERSION_NO_PARTITION_FOUND

SQLSTATE:42KD6

在表 <tableName>的目录中找不到分区信息。 是否在表上运行了“MSCK REPAIR TABLE”以发现分区?

DELTA_CONVERSION_UNSUPPORTED_COLLATED_PARTITION_COLUMN

SQLSTATE:0AKDC

无法将已排序分区列的 Parquet 表 <colName> 转换为 Delta。

DELTA_CONVERSION_UNSUPPORTED_COLUMN_MAPPING

SQLSTATE:0AKDC

使用 CONVERT TO DELTA 时,无法将配置 '<config>' 设置为 <mode>

DELTA_CONVERSION_UNSUPPORTED_SCHEMA_CHANGE

SQLSTATE:0AKDC

找到了 <format> 表不支持的架构更改:<path><hint>

DELTA_CONVERT_NON_PARQUET_TABLE

SQLSTATE:0AKDC

CONVERT TO DELTA 仅支持 Parquet 表,但你尝试转换的 <sourceName> 源是:<tableId>

DELTA_CONVERT_TO_DELTA_ROW_TRACKING_WITHOUT_STATS

SQLSTATE:22000

如果不收集统计信息,则无法启用行跟踪。

如果要启用行跟踪,请执行以下作:

  1. 通过运行命令启用统计信息收集

SET <statisticsCollectionPropertyKey> = true

  1. 在没有 NO CONVERT 选项的情况下运行 DELTA TO STATISTICS

如果不想收集统计信息,请禁用行跟踪:

  1. 默认情况下,通过运行以下命令停用启用表功能:

RESET <rowTrackingTableFeatureDefaultKey>

  1. 默认情况下,通过运行以下命令停用表属性:

SET <rowTrackingDefaultPropertyKey> = 假

DELTA_COPY_INTO_TARGET_FORMAT

SQLSTATE:0AKDD

COPY INTO 目标必须是 Delta 表。

DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_SCHEMA

SQLSTATE:42601

你正在尝试创建外部表 <tableName>

<path> 创建外部表 ,但在输入路径为空时

输入路径为空。

若要了解有关 Delta 的详细信息,请参阅 <docLink>

DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_TXN_LOG

SQLSTATE:42K03

你正尝试使用 Delta 从 <path> 创建外部表 <tableName>,但在 <logPath> 处没有事务日志。 检查上游作业以确保它使用 format("delta") 写入,并且路径是表的根目录。

若要了解有关 Delta 的详细信息,请参阅 <docLink>

DELTA_CREATE_TABLE_IDENTIFIER_LOCATION_MISMATCH

SQLSTATE:0AKDC

不支持创建具有不同位置的基于路径的 Delta 表。 标识符: <identifier>,位置: <location>.

DELTA_CREATE_TABLE_MISSING_TABLE_NAME_OR_LOCATION

SQLSTATE:42601

必须指定表单名称或位置。

DELTA_CREATE_TABLE_SCHEME_MISMATCH

SQLSTATE:42KD7

指定的架构与 <path>的现有架构不匹配。

== 指定的 ==

<specifiedSchema>

== 现有 ==

<existingSchema>

== 差异 ==

<schemaDifferences>

如果打算保留现有架构,可以省略

从 create table 命令省略该架构。 否则请确保

架构匹配。

DELTA_CREATE_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED

SQLSTATE:42000

无法使用 <tableFeature> 启用 TBLPROPERTIES 表功能。 请使用 CREATE OR REPLACE TABLE CLUSTER BY 创建包含聚类分析的 Delta 表。

DELTA_CREATE_TABLE_WITH_DIFFERENT_CLUSTERING

SQLSTATE:42KD7

指定的聚类分析列与 <path>的现有聚类分析列不匹配。

== 指定的 ==

<specifiedColumns>

== 现有 ==

<existingColumns>

DELTA_创建带有不同分区的表

SQLSTATE:42KD7

指定的分区与 <path>的现有分区不匹配。

== 指定的 ==

<specifiedColumns>

== 现有 ==

<existingColumns>

DELTA_CREATE_TABLE_WITH_DIFFERENT_PROPERTY

SQLSTATE:42KD7

指定的属性与 <path>的现有属性不匹配。

== 指定的 ==

<specifiedProperties>

== 现有 ==

<existingProperties>

DELTA_CREATE_TABLE_WITH_NON_EMPTY_LOCATION

SQLSTATE:42601

无法创建表(“<tableId>”)。 关联的位置(“<tableLocation>”)不为空,也不是 Delta 表。

DELTA_DATA_CHANGE_FALSE

SQLSTATE:0AKDE

无法更改表元数据,因为“dataChange”选项设置为 false。 尝试的操作:“<op>”。

DELTA_DELETED_PARQUET_FILE_NOT_FOUND

SQLSTATE:42K03

找不到事务日志中引用的文件 <filePath>。 可以在 Delta 的数据保留策略下删除此 parquet 文件。

默认数据保留持续时间:<logRetentionPeriod>。 Prquet 文件的修改时间:<modificationTime>。 Prquet 文件的删除时间:<deletionTime>。 删除的 Delta 版本:<deletionVersion>

DELTA_DELETION_VECTOR_MISSING_NUM_RECORDS

SQLSTATE:2D521

提交包含缺少 numRecords 统计信息的删除向量的文件无效。

DELTA_DISABLE_SOURCE_MATERIALIZATION_IN_MERGE_NOT_ALLOWED

SQLSTATE:0AKDC

通过将“spark.databricks.delta.merge.materializeSource”设置为“none”来禁用 MERGE 中的源具体化是不允许的。

DELTA_DOMAIN_METADATA_NOT_SUPPORTED

SQLSTATE:0A000

检测到域 <domainNames>的 DomainMetadata 操作,但未启用 DomainMetadataTableFeature。

DELTA_DROP_COLUMN_AT_INDEX_LESS_THAN_ZERO

SQLSTATE:42KD8

要删除列的索引 <columnIndex> 小于 0。

DELTA_DROP_COLUMN_ON_SINGLE_FIELD_SCHEMA

SQLSTATE:0AKDC

无法从具有单个列的架构中删除列。 图式:

<schema>

DELTA_DUPLICATE_ACTIONS_FOUND

SQLSTATE:2D521

针对路径 <path> 多次指定了文件操作“<actionType>”。

它与 <conflictingPath>冲突。

在单个提交中,不允许存在具有相同路径的多个文件操作。

DELTA_DUPLICATE_COLUMNS_FOUND

SQLSTATE:42711

找到重复的列<coltype><duplicateCols>

DELTA_DUPLICATE_COLUMNS_ON_INSERT

SQLSTATE:42701

INSERT 子句中的列名重复。

DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE

SQLSTATE:42701

<message>

请在更新表之前删除重复的列。

DELTA_DUPLICATE_DATA_SKIPPING_COLUMNS

SQLSTATE:42701

找到了重复的数据跳过列:<columns>

DELTA_DUPLICATE_DOMAIN_METADATA_INTERNAL_ERROR

SQLSTATE:42601

内部错误:同一事务中的两个 DomainMetadata 操作具有相同的域 <domainName>

DELTA_DV_HISTOGRAM_DESERIALIZATON

SQLSTATE:22000

无法在表完整性验证期间反序列化已删除的记录计数直方图。

DELTA_DYNAMIC_PARTITION_OVERWRITE_DISABLED

SQLSTATE:0A000

动态分区覆盖模式由会话配置或写入选项指定,但由 spark.databricks.delta.dynamicPartitionOverwrite.enabled=false禁用。

DELTA_EMPTY_DATA

SQLSTATE:428GU

创建 Delta 表时使用的数据没有任何列。

DELTA_EMPTY_DIRECTORY

SQLSTATE:42K03

目录中未找到任何文件:<directory>

DELTA_EXCEED_CHAR_VARCHAR_LIMIT

SQLSTATE:22001

值“<value>”超过了 char/varchar 类型长度限制。 检查失败:<expr>

DELTA_FAILED_CAST_PARTITION_VALUE

SQLSTATE:22018

未能将分区值 <value> 转换为 <dataType>

DELTA_无法在输出列中找到属性

SQLSTATE:42703

在现有目标输出<newAttributeName>中找不到 <targetOutputColumns>

DELTA_FAILED_INFER_SCHEMA

SQLSTATE:42KD9

无法从给定的文件列表中推断架构。

DELTA_FAILED_MERGE_SCHEMA_FILE

SQLSTATE:42KDA

未能合并文件 <file>的架构:

<schema>

DELTA_FAILED_OPERATION_ON_SHALLOW_CLONE

SQLSTATE:42893

由于浅克隆<sourceTable>仍然存在,并且其中发生了以下错误:<targetTable>,所以无法在源表<message>上运行操作。

SQLSTATE:KD001

无法读取文件的页脚:<currentFile>

DELTA_FAILED_RECOGNIZE_PREDICATE

SQLSTATE:42601

无法识别谓词“<predicate>”。

DELTA_FAILED_SCAN_WITH_HISTORICAL_VERSION

SQLSTATE:KD002

期望对 Delta 源的最新版本进行全扫描,但找到的是版本 <historicalVersion> 的历史扫描。

DELTA_FAILED_TO_MERGE_FIELDS

SQLSTATE:22005

未能合并字段“<currentField>”和“<updateField>”。

DELTA_FEATURES_PROTOCOL_METADATA_MISMATCH

SQLSTATE:KD004

无法对此表进行作,因为下表功能在元数据中已启用,但未在协议中列出:<features>

DELTA_FEATURES_REQUIRE_MANUAL_ENABLEMENT

SQLSTATE:42000

表架构需要手动启用以下表功能:<unsupportedFeatures>

为此,请针对上面列出的每个功能运行以下命令:

ALTER TABLE table_name SET TBLPROPERTIES ('delta.feature.feature_name' = 'supported')

将“table_name”和“feature_name”替换为实际值。

当前支持的功能:<supportedFeatures>

DELTA_FEATURE_CAN_ONLY_DROP_CHECKPOINT_PROTECTION_WITH_HISTORY_TRUNCATION

SQLSTATE:55000

无法删除检查点保护功能。

只能通过截断历史记录来删除此功能。

请使用 TRUNCATE HISTORY 选项重试:

ALTER TABLE table_name DROP FEATURE checkpointProtection TRUNCATE HISTORY

DELTA_FEATURE_DROP_CHECKPOINT_FAILED

SQLSTATE:22KD0

由于检查点创建失败,删除 <featureName> 失败。

请稍后重试。 此问题仍然存在,请与 Databricks 支持部门联系。

DELTA_FEATURE_DROP_CHECKPOINT_PROTECTION_WAIT_FOR_RETENTION_PERIOD

SQLSTATE:22KD0

操作未成功,因为仍然存在已删除特征的痕迹。

表历史记录中。 CheckpointProtection 在这些历史版本过期之前

无法删除。

若要删除 CheckpointProtection,请等待历史版本

过期,然后重复此命令。 历史版本的保留期为

当前配置为 <truncateHistoryLogRetentionPeriod>

DELTA_FEATURE_DROP_CONFLICT_REVALIDATION_FAIL

SQLSTATE:40000

由于并发事务修改了表,因此无法删除功能。

请再次尝试该操作。

<concurrentCommit>

DELTA_FEATURE_DROP_DEPENDENT_FEATURE

SQLSTATE:55000

无法删除表功能 <feature>,因为此表中的一些其他功能(<dependentFeatures>)依赖于 <feature>

在删除此功能之前,请考虑先删除它们。

DELTA_FEATURE_DROP_FEATURE_NOT_PRESENT

SQLSTATE:55000

无法从此表中删除 <feature>,因为它当前不存在于该表的协议中。

DELTA_FEATURE_DROP_HISTORICAL_VERSIONS_EXIST

SQLSTATE:22KD0

无法删除 <feature>,因为 Delta 日志包含使用该功能的历史版本。

请等到历史记录保留期(<logRetentionPeriodKey>=<logRetentionPeriod>

已通过,因为该功能最后处于活动状态。

或者,请等待 TRUNCATE HISTORY 保留期到期(<truncateHistoryLogRetentionPeriod>

然后运行:

ALTER TABLE table_name DROP FEATURE feature_name TRUNCATE HISTORY

DELTA_FEATURE_DROP_HISTORY_TRUNCATION_NOT_ALLOWED

SQLSTATE:42000

特定功能不需要历史记录截断。

DELTA_FEATURE_DROP_NONREMOVABLE_FEATURE

SQLSTATE:0AKDC

无法删除 <feature>,因为不支持删除此功能。

请联系 Databricks 支持部门。

DELTA_FEATURE_DROP_UNSUPPORTED_CLIENT_FEATURE

SQLSTATE:0AKDC

无法删除 <feature>,因为此 Databricks 版本不支持它。

请考虑将 Databricks 与更高版本配合使用。

DELTA_FEATURE_DROP_WAIT_FOR_RETENTION_PERIOD

SQLSTATE:22KD0

删除 <feature> 部分成功。

此功能现在不再用于表的当前版本。 但是,该功能

仍存在于表的历史版本中。 无法删除表功能

从表协议中,直到到这些历史版本已过期。

若要从协议中删除表功能,请等待历史版本

过期,然后重复此命令。 历史版本的保留期为

当前配置为 <logRetentionPeriodKey>=<logRetentionPeriod>

或者,请等待 TRUNCATE HISTORY 保留期到期(<truncateHistoryLogRetentionPeriod>

然后运行:

ALTER TABLE table_name DROP FEATURE feature_name TRUNCATE HISTORY

DELTA_FEATURE_REQUIRES_HIGHER_READER_VERSION

SQLSTATE:55000

无法启用表功能 <feature>,因为它需要更高的读取器协议版本(当前 <current>)。 请考虑将表的读取器协议版本升级到 <required>,或升级到支持读取器表功能的版本。 有关表协议版本的详细信息,请参阅 <docLink>

DELTA_FEATURE_REQUIRES_HIGHER_WRITER_VERSION

SQLSTATE:55000

无法启用表功能 <feature>,因为它需要更高的编写器协议版本(当前 <current>)。 请考虑将表的编写器协议版本升级到 <required>,或升级到支持编写器表功能的版本。 有关表协议版本的详细信息,请参阅 <docLink>

DELTA_FILE_ALREADY_EXISTS

SQLSTATE:42K04

现有文件路径 <path>

DELTA_FILE_LIST_AND_PATTERN_STRING_CONFLICT

SQLSTATE:42613

不能同时指定文件列表和模式字符串。

DELTA_FILE_NOT_FOUND

SQLSTATE:42K03

文件路径 <path>

DELTA_FILE_NOT_FOUND_DETAILED

SQLSTATE:42K03

找不到事务日志中引用的文件 <filePath>。 当从文件系统手动删除数据而不是使用表 DELETE 语句时,会出现这种情况。 有关详细信息,请参阅 <faqPath>

DELTA_FILE_OR_DIR_NOT_FOUND

SQLSTATE:42K03

没有此类文件或目录: <path>

DELTA_FILE_TO_OVERWRITE_NOT_FOUND

SQLSTATE:42K03

在候选文件中找不到要重写的文件(<path>):

<pathList>

DELTA_FOUND_MAP_TYPE_COLUMN

SQLSTATE:KD003

已找到 MapType。 若要访问 MapType 的键或值,请指定一个

<key>

<value>

后跟列的名称(仅当该列是结构类型时)。

例如 mymap.key.mykey

如果列是基本类型,mymap.key或 mymap.value 就足够了。

图式:

<schema>

DELTA_GENERATED_COLUMNS_DATA_TYPE_MISMATCH

SQLSTATE:42K09

<columnName> 具有数据类型 <columnType>,无法更改为数据类型 <dataType>,因为以下生成的列引用了此列:

<generatedColumns>

DELTA_GENERATED_COLUMNS_DEPENDENT_COLUMN_CHANGE

SQLSTATE:42K09

无法更改列 <columnName>,因为以下生成的列引用了此列:

<generatedColumns>

DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH

SQLSTATE:42K09

生成的列 <columnName> 的表达式类型是 <expressionType>,但列类型为 <columnType>

DELTA_GENERATED_COLUMN_UPDATE_TYPE_MISMATCH

SQLSTATE:42K09

<currentName> 是一个生成列,或是一个被生成列使用的列。 数据类型是 <currentDataType> 且无法转换为数据类型 <updateDataType>

DELTA_GEOSPATIAL_不受支持

SQLSTATE:0AKDC

此版本的 Delta Lake 不支持地理空间类型。

DELTA_GEOSPATIAL_SRID_NOT_SUPPORTED

SQLSTATE:0AKDC

地理空间类型具有不受支持的 srid:<srid>。 Delta 表仅支持非负 srid 值。

DELTA_ICEBERG_COMPAT_VIOLATION

SQLSTATE:KD00E

IcebergCompatV<version> 验证失败。

有关更多详细信息,请参阅 DELTA_ICEBERG_COMPAT_VIOLATION

DELTA_ICEBERG_WRITER_COMPAT_VIOLATION

SQLSTATE:KD00E

IcebergWriterCompatV<version> 的验证失败。

有关更多详细信息,请参阅 DELTA_ICEBERG_WRITER_COMPAT_VIOLATION

DELTA_IDENTITY_COLUMNS_ALTER_COLUMN_NOT_SUPPORTED

SQLSTATE:429BQ

ALTER TABLE ALTER COLUMN 列不支持 IDENTITY

DELTA_IDENTITY_COLUMNS_ALTER_NON_DELTA_FORMAT

SQLSTATE:0AKDD

ALTER TABLE ALTER COLUMN SYNC IDENTITY 仅受 Delta 支持。

DELTA_IDENTITY_COLUMNS_ALTER_NON_IDENTITY_COLUMN

SQLSTATE:429BQ

不能对非 ALTER TABLE ALTER COLUMN SYNC IDENTITY 列调用 IDENTITY

DELTA_IDENTITY_COLUMNS_EXPLICIT_INSERT_NOT_SUPPORTED

SQLSTATE:42808

不支持为 GENERATED ALWAYS AS IDENTITY<colName> 提供值。

DELTA_IDENTITY_COLUMNS_ILLEGAL_STEP

SQLSTATE:42611

IDENTITY 列步骤不能为 0。

DELTA_IDENTITY_COLUMNS_NON_DELTA_FORMAT

SQLSTATE:0AKDD

IDENTITY 列仅受 Delta 支持。

DELTA_IDENTITY_COLUMNS_PARTITION_NOT_SUPPORTED

SQLSTATE:42601

不支持 PARTITIONED BY IDENTITY<colName>

DELTA_IDENTITY_COLUMNS_REPLACE_COLUMN_NOT_SUPPORTED

SQLSTATE:429BQ

包含 ALTER TABLE REPLACE COLUMNS 列的表不支持 IDENTITY

DELTA_IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE

SQLSTATE:428H2

<dataType> 列不支持 DataType IDENTITY

DELTA_IDENTITY_COLUMNS_UPDATE_NOT_SUPPORTED

SQLSTATE:42808

不支持对 UPDATEIDENTITY 运行 <colName>

DELTA_IDENTITY_COLUMNS_WITH_GENERATED_EXPRESSION

SQLSTATE:42613

不能使用生成的列表达式指定 IDENTITY 列。

DELTA_ILLEGAL_OPTION

SQLSTATE:42616

选项“<name>”的值“<input>”无效,<explain>

DELTA_ILLEGAL_USAGE

SQLSTATE:42601

对 Delta 表执行 <option> 时不允许使用 <operation>

DELTA_INCONSISTENT_BUCKET_SPEC

SQLSTATE:42000

Delta Bucketed 表上的 BucketSpec 与元数据中的 BucketSpec 不匹配。 预期:<expected>。 实际为:<actual>

DELTA_INCONSISTENT_LOGSTORE_CONFS

SQLSTATE:F0000

<setKeys>) 不能设置为不同的值。 请仅设置其中一个值,或将其设置为相同的值。

DELTA_INCORRECT_ARRAY_ACCESS

SQLSTATE:KD003

错误地访问数组类型。 使用 arrayname.element.elementname 位置

添加到数组。

DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME

SQLSTATE:KD003

已找到 ArrayType。 若要访问 ArrayType 的元素,请指定

<rightName> 而不是 <wrongName>

图式:

<schema>

DELTA_INCORRECT_GET_CONF

SQLSTATE:42000

使用 getConf() 而不是 conf.getConf()

DELTA_INCORRECT_LOG_STORE_IMPLEMENTATION

SQLSTATE:0AKDC

该错误通常在使用 LogStore 默认实现

(即 hdfslostore)在非 HDFS 存储系统上写入 Delta 表时发生。

若要获取表更新的事务 ACID 保证,必须使用

适合你的存储系统的正确 LogStore 实现。

有关详细信息,请参阅 <docLink>

DELTA_INDEX_LARGER_OR_EQUAL_THAN_STRUCT

SQLSTATE:42KD8

要删除列的索引 <index> 等于或大于结构体长度:<length>

DELTA_INDEX_LARGER_THAN_STRUCT

SQLSTATE:42KD8

要添加列 <columnName> 的索 <index> 引大于结构体长度:<length>

DELTA_INSERT_COLUMN_ARITY_MISMATCH

SQLSTATE:42802

无法写入 '<tableName>',<columnName>;目标表有 <numColumns> 列,但插入的数据有 <insertColumns> 列。

DELTA_INSERT_COLUMN_MISMATCH

SQLSTATE:42802

<columnName> 未在 INSERT 中指定。

DELTA_INVALID_AUTO_COMPACT_TYPE

SQLSTATE:22023

自动压缩类型无效:<value>。 允许的值为:<allowed>

DELTA_INVALID_BUCKET_COUNT

SQLSTATE:22023

无效桶计数:<invalidBucketCount>。 桶计数应该是一个正数,是 2 的幂,至少是 8。 可以改用 <validBucketCount>

DELTA_INVALID_BUCKET_INDEX

SQLSTATE:22023

在分区列中找不到分桶列。

DELTA_INVALID_CALENDAR_INTERVAL_EMPTY

SQLSTATE:2200P

间隔不能为 null 或空白。

DELTA_INVALID_CDC_RANGE

SQLSTATE:22003

从起始值 <start> 到结束值 <end> 的 CDC 范围无效。 结束不能早于开始。

DELTA_INVALID_CHARACTERS_IN_COLUMN_NAME

SQLSTATE:42K05

属性名称“<columnName>”包含 " ,;{}()\\n\\t=" 中的无效字符。 请使用别名对其进行重命名。

DELTA_INVALID_CHARACTERS_IN_COLUMN_NAMES

SQLSTATE:42K05

在架构的列名中发现 ' ,;{}()\n\t=' 中的无效字符。

无效的列名:<invalidColumnNames>

请使用其他字符,然后重试。

或者,启用列映射以继续使用这些字符。

DELTA_INVALID_CLONE_PATH

SQLSTATE:22KD1

CLONE 的目标位置必须是绝对路径或表名。 使用

绝对路径而不是 <path>

DELTA_INVALID_COLUMN_NAMES_WHEN_REMOVING_COLUMN_MAPPING

SQLSTATE:42K05

在架构的列名中发现 ' ,;{}()\n\t=' 中的无效字符。

无效的列名:<invalidColumnNames>

如果列名中存在无效字符,则无法删除列映射。

请重命名列以删除无效字符,然后再次执行此命令。

DELTA_INVALID_FORMAT

SQLSTATE:22000

检测到不兼容的格式。

<deltaRootPath>/_delta_log 处发现 Delta 事务日志,

但你正尝试使用 format("<format>") 进行 <operation> <path>。 必须在读取和

必须使用“format("delta")”。

若要了解有关 Delta 的详细信息,请参阅 <docLink>

DELTA_INVALID_GENERATED_COLUMN_REFERENCES

SQLSTATE:42621

生成的列不能使用不存在的列或其他生成的列。

DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS

SQLSTATE:42616

幂等 Dataframe 写入的选项无效:<reason>

DELTA_INVALID_INTERVAL

SQLSTATE:22006

<interval> 不是有效的 INTERVAL

DELTA_INVALID_INVENTORY_SCHEMA

SQLSTATE:42000

指定 INVENTORY 的架构不包含所有必填字段。 必填字段为:<expectedSchema>

DELTA_INVALID_ISOLATION_LEVEL

SQLSTATE:25000

无效的隔离级别“<isolationLevel>”。

DELTA_INVALID_LOGSTORE_CONF

SQLSTATE:F0000

<classConfig>)和(<schemeConfig>)不能同时设置。 请仅设置其中一组。

DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA

SQLSTATE:42000

你正在尝试使用 Delta 创建托管表 <tableName>

使用 Delta,但未指定架构。

若要了解有关 Delta 的详细信息,请参阅 <docLink>

DELTA_INVALID_PARTITION_COLUMN

SQLSTATE:42996

<columnName> 不是表 <tableName>中有效的分区列。

DELTA_INVALID_PARTITION_COLUMN_NAME

SQLSTATE:42996

" ,;{}()\n\t=" 的分区列中找到无效字符。 请将名称更改为分区列。 可以通过设置 spark.conf.set("spark.databricks.delta.partitionColumnValidity.enabled", false) 来关闭此检查,但不建议这样做,因为 Delta 的其他功能可能无法正常工作。

DELTA_INVALID_PARTITION_COLUMN_TYPE

SQLSTATE:42996

不支持使用 <name> 类型的 <dataType> 列作为分区列。

DELTA_INVALID_PARTITION_PATH

SQLSTATE:22KD1

分区路径片段应为类似于 part1=foo/part2=bar的形式。 分区路径: <path>.

DELTA_INVALID_PROTOCOL_DOWNGRADE

SQLSTATE:KD004

协议版本不能从 (<oldProtocol>) 降级到 (<newProtocol>)。

DELTA_INVALID_PROTOCOL_VERSION

SQLSTATE:KD004

不支持的 Delta 协议版本:表“<tableNameOrPath>”需要读取器版本 <readerRequired> 和编写器版本 <writerRequired>,但此版本的 Databricks 支持读取器版本 <supportedReaders> 和编写器版本 <supportedWriters>。 请升级到较新版本。

DELTA_INVALID_TABLE_VALUE_FUNCTION

SQLSTATE:22000

函数 <function> 是不支持用于 CDC 读取的表值函数。

DELTA_时间戳格式无效

SQLSTATE:22007

提供的时间戳 <timestamp> 与预期的语法 <format>不匹配。

DELTA_LOG_ALREADY_EXISTS

SQLSTATE:42K04

Delta 日志已存在于 <path>.

DELTA_LOG_FILE_NOT_FOUND_FOR_STREAMING_SOURCE

SQLSTATE:42K03

如果从未删除它,则可能是查询未跟上进度。 请删除其检查点以从头开始。 为避免再次发生这种情况,你可以更新 Delta 表的保留策略。

DELTA_MATERIALIZED_ROW_TRACKING_COLUMN_NAME_MISSING

SQLSTATE:22000

<rowTrackingColumn> 缺少具体化 <tableName> 列名称。

DELTA_MAX_ARRAY_SIZE_EXCEEDED

SQLSTATE:42000

请使用小于 Int.MaxValue - 8 的限制。

DELTA_MAX_COMMIT_RETRIES_EXCEEDED

SQLSTATE:40000

此提交失败,因为它已尝试 <numAttempts> 次,但均未成功。

这可能是由多个并发提交连续提交 Delta 表

造成的。

提交开始于版本:<startVersion>

提交失败的版本:<failVersion>

尝试提交的操作数:<numActions>

尝试此提交所用的总时间:<timeSpent> ms

DELTA_MAX_LIST_FILE_EXCEEDED

SQLSTATE:42000

文件列表必须最多有 <maxFileListSize> 个条目,实际有 <numFiles> 个。

DELTA_MERGE_ADD_VOID_COLUMN

SQLSTATE:42K09

无法添加类型为 VOID 的列 <newColumn>。 请显式指定非 void 类型。

DELTA_MERGE_INCOMPATIBLE_DATATYPE

SQLSTATE:42K09

未能合并不兼容的数据类型 <currentDataType><updateDataType>

DELTA_MERGE_INCOMPATIBLE_DECIMAL_TYPE

SQLSTATE:42806

无法合并与 <decimalRanges> 不兼容的十进制类型。

DELTA_MERGE_MATERIALIZE_SOURCE_FAILED_REPEATEDLY

SQLSTATE:25000

保留已具体化的 MERGE 语句的源已一再失败。

DELTA_MERGE_MISSING_WHEN

SQLSTATE:42601

WHEN 语句中必须至少有一个 MERGE 子句。

DELTA_MERGE_RESOLVED_ATTRIBUTE_MISSING_FROM_INPUT

SQLSTATE:42601

运算符 <missingAttributes> 中的 <input> 缺失已解析属性 <merge>

DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY

SQLSTATE:22005

意外的分配键:<unexpectedKeyClass> - <unexpectedKeyObject>

DELTA_MERGE_UNRESOLVED_EXPRESSION

SQLSTATE:42601

无法在 <clause> 给定的列 <cols> 中解析 <sqlExpr>

DELTA_METADATA_CHANGED

SQLSTATE:2D521

MetadataChangedException:Delta 表的元数据已由并发更新更改。 请重试该操作。<conflictingCommit>

有关更多详细信息,请参阅 <docLink>

DELTA_MISSING_CHANGE_DATA

SQLSTATE:KD002

获取 [<startVersion>, <endVersion>] 范围的更改数据时出错,因为未记录

版本 [<version>] 的更改数据。 如果在此表上启用了更改数据馈送,

使用 DESCRIBE HISTORY 查看其首次启用时间。

否则,若要开始记录更改数据,请使用 ALTER TABLE table_name SET TBLPROPERTIES

(<key>=true)`。

DELTA_MISSING_COLUMN

SQLSTATE:42703

在表列中找不到<columnName><columnList>

DELTA_MISSING_COMMIT_INFO

SQLSTATE:KD004

此表启用了特征 <featureName>,这要求每次提交中都存在 CommitInfo 操作。 但是,提交版本 <version>中缺少 CommitInfo操作。

DELTA_MISSING_COMMIT_TIMESTAMP

SQLSTATE:KD004

此表启用了编号为 <featureName> 的功能,这要求在 CommitInfo 操作中存在 commitTimestamp。 但是,此字段尚未在提交版本 <version>中设置。

DELTA_MISSING_DELTA_TABLE

SQLSTATE:42P01

<tableName> 不是 Delta 表。

DELTA_MISSING_DELTA_TABLE_COPY_INTO

SQLSTATE:42P01

表不存在。 首先使用 CREATE TABLE <tableName>创建空 Delta 表。

DELTA_MISSING_ICEBERG_CLASS

SQLSTATE:56038

找不到 Iceberg 类。 请确保已安装 Delta Iceberg 支持。

有关详细信息,请参阅 <docLink>

DELTA_MISSING_NOT_NULL_COLUMN_VALUE

SQLSTATE:23502

<columnName>(具有 NOT NULL 约束)在写入表中的数据中缺失。

DELTA_MISSING_PARTITION_COLUMN

SQLSTATE:42KD6

架构 <columnName>中找不到分区列 <columnList>

DELTA_MISSING_PART_FILES

SQLSTATE:42KD6

找不到检查点版本的所有部件文件:<version>

DELTA_MISSING_PROVIDER_FOR_CONVERT

SQLSTATE:0AKDC

CONVERT TO DELTA 仅支持 parquet 表。 请将目标重写为 Parquet。 <path>,如果它是一个 Parquet 目录。

DELTA_MISSING_SET_COLUMN

SQLSTATE:42703

SET<columnName> 中没有找到给定列:<columnList>

DELTA_MISSING_TRANSACTION_LOG

SQLSTATE:42000

检测到不兼容的格式。

你尝试使用 Delta 来访问 <operation> <path>,但不

存在事务日志。 检查上游作业,确保它正在使用

format("delta") 进行写入,并且你正在尝试对表基本路径执行 %1$s。

若要了解有关 Delta 的详细信息,请参阅 <docLink>

DELTA_MODE_NOT_SUPPORTED

SQLSTATE:0AKDC

不支持指定模式“<mode>”。 支持的模式为: <supportedModes>.

DELTA_MULTIPLE_CDC_BOUNDARY

SQLSTATE:42614

为 CDC 读取提供的多个 <startingOrEnding> 参数。 请提供一个 <startingOrEnding> 时间戳或 <startingOrEnding> 版本。

DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER

SQLSTATE:42614

传递给列命令的多个布隆筛选器索引配置:<columnName>

DELTA_MULTIPLE_SOURCE_ROW_MATCHING_TARGET_ROW_IN_MERGE

SQLSTATE:21506

无法执行合并,因为多个源行匹配并尝试以可能冲突的方式修改 Delta 表中的同一目标行。 根据合并的 SQL 语义,当多个源行在同一目标行上匹配时,结果可能不明确,因为不清楚应使用哪个源行来更新或删除匹配的目标行。 你可以预处理源表来消除出现多个匹配项的可能性。 请参阅在“建议的文档”中提供的链接中的

<usageReference>

DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_COMMAND

SQLSTATE:42616

<command> 期间,命令中要么同时设置了两个协调提交配置 ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview"),要么都不设置。 缺少:“<configuration>”。 请在 TBLPROPERTIES 子句中指定此配置或删除其他配置,然后再次重试该命令。

DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_SESSION

SQLSTATE:42616

<command> 期间,SparkSession 配置中要么同时设置了两个协调提交配置(“coordinatedCommits.commitCoordinator-preview”、“coordinatedCommits.commitCoordinatorConf-preview”),要么都不设置。 缺少:“<configuration>”。 请在 SparkSession 中设置此配置或取消设置其他配置,然后再次重试该命令。

DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE

SQLSTATE:42000

以下列名仅供 Delta 分桶表内部使用:<names>

DELTA_NESTED_FIELDS_NEED_RENAME

SQLSTATE:42K05

输入架构包含大小写与目标表不同的嵌套字段。

需要重命名它们,以避免在写入 Delta 时丢失这些字段中的数据。

领域:

<fields>

原始架构:

<schema>

DELTA_NESTED_NOT_NULL_CONSTRAINT

SQLSTATE:0AKDC

字段 <nestType><parent> 类型包含 NOT NULL 约束。 Delta 不支持嵌套在数组或映射中的 NOT NULL 约束。 若要取消此错误并静默忽略指定的约束,请设置 <configKey> = true。

分析的 <nestType> 类型:

<nestedPrettyJson>

DELTA_NESTED_SUBQUERY_NOT_SUPPORTED

SQLSTATE:0A000

<operation> 条件不支持嵌套子查询。

DELTA_NEW_CHECK_CONSTRAINT_VIOLATION

SQLSTATE:23512

<numRows><tableName> 违反新 CHECK 约束 (<checkConstraint>)。

DELTA_NEW_NOT_NULL_VIOLATION

SQLSTATE:23512

<tableName> 中的 <numRows> 行违反了 <colName> 上的新 NOT NULL 约束。

DELTA_NON_BOOLEAN_CHECK_CONSTRAINT

SQLSTATE:42621

CHECK 约束 '<name>' (<expr>) 应该是一个布尔表达式。

DELTA_NON_DETERMINISTIC_EXPRESSION_IN_GENERATED_COLUMN

SQLSTATE:42621

已找到 <expr>。 生成的列不能使用非确定性表达式。

DELTA_NON_DETERMINISTIC_FUNCTION_NOT_SUPPORTED

SQLSTATE:0AKDC

不支持在<operation> <expression>中使用非确定性函数。

DELTA_NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION

SQLSTATE:42601

MATCHED 语句中有多个 MERGE 子句时,只有最后一个 MATCHED 子句可以省略条件。

DELTA_NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION

SQLSTATE:42601

NOT MATCHED BY SOURCE 语句中有多个 MERGE 子句时,只有最后一个 NOT MATCHED BY SOURCE 子句可以省略条件。

DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION

SQLSTATE:42601

NOT MATCHED 语句中有多个 MERGE 子句时,只有最后一个 NOT MATCHED 子句可以省略条件。

DELTA_NON_PARSABLE_TAG

SQLSTATE:42601

无法分析标记 <tag>

文件标记为: <tagList>.

DELTA_NON_PARTITION_COLUMN_ABSENT

SQLSTATE:KD005

写入 Delta 的数据至少需要包含一个非分区列。<details>

DELTA_NON_PARTITION_COLUMN_REFERENCE

SQLSTATE:42P10

谓词引用非分区列“<columnName>”。 只能引用分区列:[<columnList>]。

DELTA_NON_PARTITION_COLUMN_SPECIFIED

SQLSTATE:42P10

指定了非分区列 <columnList>,但只能指定分区列:<fragment>

DELTA_NON_SINGLE_PART_NAMESPACE_FOR_CATALOG

SQLSTATE:42K05

Delta 目录需要单部分命名空间,但 <identifier> 是多部分。

DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_COMMAND

SQLSTATE:42616

不支持通过命令将提交协调器设置为“<nonUcCoordinatorName>”,因为 UC 管理的表只能将“unity-catalog”设置为提交协调器。 请将其更改为“unity-catalog”,或者从 TBLPROPERTIES 子句中删除所有协调提交表属性,然后再次重试该命令。

DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_SESSION

SQLSTATE:42616

不支持从 SparkSession 配置中将提交协调器设置为<nonUcCoordinatorName>,因为 UC 管理的表格只能使用“unity-catalog”作为提交协调器。 请通过运行 spark.conf.set("<coordinatorNameDefaultKey>", "unity-catalog") 将其更改为“unity-catalog”,或者通过运行 spark.conf.unset("<coordinatorNameDefaultKey>")spark.conf.unset("<coordinatorConfDefaultKey>")spark.conf.unset("<tableConfDefaultKey>") 从 SparkSession 配置中删除所有协调提交表属性,然后再次重试该命令。

DELTA_NOT_A_DATABRICKS_DELTA_TABLE

SQLSTATE:42000

<table> 不是 Delta 表。 如果要使用 Databricks Delta 创建此表,请先删除此表。

DELTA_NOT_A_DELTA_TABLE

SQLSTATE:0AKDD

<tableName> 不是 Delta 表。 如果要使用 Delta Lake 重新创建此表,请先删除此表。

DELTA_NOT_NULL_COLUMN_NOT_FOUND_IN_STRUCT

SQLSTATE:42K09

在结构体中找不到不可为空的列:<struct>

DELTA_NOT_NULL_CONSTRAINT_VIOLATED

SQLSTATE:23502

NOT NULL 违反了 <columnName> 约束。

DELTA_NOT_NULL_NESTED_FIELD

SQLSTATE:0A000

不能将不可为 null 的嵌套字段添加到可为 null 的父级。 请相应地设置父列的可为 Null 性。

DELTA_NO_COMMITS_FOUND

SQLSTATE:KD006

<logPath> 处未找到提交。

DELTA_NO_RECREATABLE_HISTORY_FOUND

SQLSTATE:KD006

<logPath> 处未找到可重建的提交。

DELTA_NO_REDIRECT_RULES_VIOLATED

SQLSTATE:42P01

操作不允许:无法对具有重定向功能的表执行 <operation>

不满足无重定向规则 <noRedirectRules>

DELTA_NO_RELATION_TABLE

SQLSTATE:42P01

找不到表 <tableIdent>

DELTA_NO_START_FOR_CDC_READ

SQLSTATE:42601

没有为 CDC 读取提供 startingVersion 或 startingTimestamp。

DELTA_NULL_SCHEMA_IN_STREAMING_WRITE

SQLSTATE:42P18

Delta 不接受在架构中使用 NullTypes 进行流写入。

DELTA_ONEOF_IN_TIMETRAVEL

SQLSTATE:42601

请提供“timestampAsOf”或“versionAsOf”以按时间顺序查看。

DELTA_ONLY_OPERATION

SQLSTATE:0AKDD

<operation> 仅支持用于 Delta 表。

DELTA_OPERATION_MISSING_PATH

SQLSTATE:42601

请提供 <operation>的路径或表标识符。

DELTA_OPERATION_NOT_ALLOWED

SQLSTATE:0AKDC

不允许的操作:Delta 表不支持 <operation>

DELTA_OPERATION_NOT_ALLOWED_DETAIL

SQLSTATE:0AKDC

不允许的操作:Delta 表不支持 <operation><tableName>

DELTA_OPERATION_NOT_SUPPORTED_FOR_COLUMN_WITH_COLLATION

SQLSTATE:0AKDC

具有非默认排序规则 <operation> 的列 <colName> 不支持 <collation>

DELTA_OPERATION_NOT_SUPPORTED_FOR_DATATYPES

SQLSTATE:0AKDC

<operation> 不支持以下数据类型:<dataTypeList>

DELTA_OPERATION_NOT_SUPPORTED_FOR_EXPRESSION_WITH_COLLATION

SQLSTATE:0AKDC

<operation> 不支持表达式 <exprText>,因为它使用了非默认排序规则。

DELTA_OPERATION_ON_TEMP_VIEW_WITH_GENERATED_COLS_NOT_SUPPORTED

SQLSTATE:0A000

不支持在引用 Delta 表(包含生成列)的临时视图上执行 <operation> 命令。 <operation>请直接在 Delta 表上运行命令。

DELTA_OPERATION_ON_VIEW_NOT_ALLOWED

SQLSTATE:0AKDC

不允许执行操作:不能对视图执行 <operation>

DELTA_OPTIMIZE_FULL_NOT_SUPPORTED

SQLSTATE:42601

只有具有非空聚类分析列的聚集表才支持 OPTIMIZE FULL

DELTA_OVERWRITE_MUST_BE_TRUE

SQLSTATE:42000

如果未设置 OVERWRITE = 'true',则不能指定复制选项 overwriteSchema。

DELTA_OVERWRITE_SCHEMA_WITH_DYNAMIC_PARTITION_OVERWRITE

SQLSTATE:42613

“overwriteSchema”不能在动态分区覆盖模式下使用。

DELTA_PARTITION_COLUMN_CAST_FAILED

SQLSTATE:22525

无法为分区列 <columnName> 将值 <value> 转换为 <dataType>

DELTA_PARTITION_COLUMN_NOT_FOUND

SQLSTATE:42703

架构 [<columnName>] 中未找到分区列<schemaMap>

DELTA_PARTITION_SCHEMA_IN_ICEBERG_TABLES

SQLSTATE:42613

转换 Iceberg 表时,无法指定分区架构。 系统会自动推理该架构。

DELTA路径不存在

SQLSTATE:42K03

<path> 不存在,或不是 Delta 表。

DELTA_PATH_EXISTS

SQLSTATE:42K04

不设置 OVERWRITE = 'true',就无法写入已存在的路径 <path>

DELTA_POST_COMMIT_HOOK_FAILED

SQLSTATE:2DKD0

提交 Delta 表版本 <version> 成功,但在执行提交后挂钩 <name> <message> 时出错

DELTA 协议已更改

SQLSTATE:2D521

ProtocolChangedException:Delta表的协议版本已被并发更新更改。 <additionalInfo> <conflictingCommit>

有关更多详细信息,请参阅 <docLink>

DELTA_PROTOCOL_PROPERTY_NOT_INT

SQLSTATE:42K06

协议属性 <key> 必须是整数。 已找到 <value>

DELTA_READ_FEATURE_PROTOCOL_REQUIRES_WRITE

SQLSTATE:KD004

无法仅升级读取器协议版本以使用表功能。 写入器协议版本必须至少为 <writerVersion> 才能继续。 有关表协议版本的详细信息,请参阅 <docLink>

DELTA_READ_TABLE_WITHOUT_COLUMNS

SQLSTATE:428GU

尝试读取不包含任何列的 Delta 表 <tableName>

使用选项 mergeSchema = true 写入一些新数据,以便能够读取表。

DELTA_REGEX_OPT_SYNTAX_ERROR

SQLSTATE:2201B

请重新检查“”<regExpOption>的语法。

DELTA_RELATION_PATH_MISMATCH

SQLSTATE:2201B

关系路径“<relation>”与 <targetType>“路径”<targetPath>不匹配。

DELTA_REPLACE_WHERE_IN_OVERWRITE

SQLSTATE:42613

不能将 replaceWhere 与按筛选器覆盖结合使用。

DELTA_REPLACE_WHERE_MISMATCH

SQLSTATE:44000

写入的数据不符合部分表覆盖条件或约束“<replaceWhere>”。

<message>

DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE

SQLSTATE:42613

“replaceWhere”表达式和“partitionOverwriteMode”=“dynamic”不能在 DataFrameWriter 选项中设置。

DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET

SQLSTATE:42613

当“dataChange”设置为 false 时,“replaceWhere”不能与数据筛选器结合使用。 筛选器: <dataFilters>.

DELTA_ROW_ID_ASSIGNMENT_WITHOUT_STATS

SQLSTATE:22000

如果没有行计数统计信息,则无法分配行 ID。

Collect statistics for the table by running the following code in a Scala notebook and retry:

import com.databricks.sql.transaction.tahoe.DeltaLog

import com.databricks.sql.transaction.tahoe.stats.StatisticsCollection

import org.apache.spark.sql.catalyst.TableIdentifier

val log = DeltaLog.forTable(spark, TableIdentifier(table_name))

StatisticsCollection.recompute(spark, log)

DELTA_SCHEMA_CHANGED

SQLSTATE:KD007

检测到的架构更改:

流式处理源架构:<readSchema>

数据文件架构:<dataSchema>

请尝试重启查询。 如果每次重启查询后此问题重复出现,并且没有

进展,则原因是你做出了不兼容的架构更改,需要

使用新的检查点目录从头开始启动查询。

DELTA_SCHEMA_CHANGED_WITH_STARTING_OPTIONS

SQLSTATE:KD007

版本 <version>中检测到的架构更改:

流式处理源架构:<readSchema>

数据文件架构:<dataSchema>

请尝试重启查询。 如果每次重启查询后此问题重复出现,并且没有

进展,则原因是你做出了不兼容的架构更改,需要

使用新的检查点目录从头开始启动查询。 如果问题在之后仍然存在

更换到新的检查点目录时,您可能需要更改现有设置。

“startingVersion”或“startingTimestamp”选项,以使用新的检查点目录

从高于 <version> 的版本重新开始。

DELTA_架构随着版本而改变

SQLSTATE:KD007

版本 <version>中检测到的架构更改:

流式处理源架构:<readSchema>

数据文件架构:<dataSchema>

请尝试重启查询。 如果每次重启查询后此问题重复出现,并且没有

进展,则原因是你做出了不兼容的架构更改,需要

使用新的检查点目录从头开始启动查询。

DELTA_SCHEMA_CHANGE_SINCE_ANALYSIS

SQLSTATE:KD007

因为你的 DataFrame,Delta 表的架构已以不兼容的方式更改

或者 DeltaTable 对象已被创建。 请重新定义 DataFrame 或 DeltaTable 对象。

变化:

<schemaDiff> <legacyFlagMessage>

DELTA_SCHEMA_NOT_PROVIDED

SQLSTATE:42908

未提供表架构。 在使用 REPLACE 表时,请提供表的架构(列定义),但未提供 AS SELECT 查询。

DELTA_SCHEMA_NOT_SET

SQLSTATE:KD008

未设置表架构。 将数据写入其中或使用 CREATE TABLE 来设置架构。

DELTA_SET_LOCATION_SCHEMA_MISMATCH

SQLSTATE:42KD7

新的 Delta 位置的架构与当前表架构不同。

原始架构:

<original>

目标架构:

<destination>

如果这是预期的更改,可以通过运行以下命令来禁用此检查:

%%sql set <config> = true

DELTA_SHALLOW_CLONE_FILE_NOT_FOUND

SQLSTATE:42K03

找不到事务日志中引用的文件 <filePath>。 当从文件系统手动删除数据而不是使用表 DELETE 语句时,可能会发生这种情况。 此表似乎是浅表克隆,如果是这样,当从中克隆此表的原始表删除了该克隆仍在使用的文件时,可能会发生此错误。 如果你希望任何克隆独立于原始表,请改用 DEEP 克隆。

DELTA共享无法修改保留的接收方属性

SQLSTATE:42939

无法修改以 <prefix> 开头的预定义属性。

DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED

SQLSTATE:42704

数据受收件人属性限制,<property> 不适用于会话中的当前收件人。

有关更多详细信息,请参阅 DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED

DELTA_SHARING_INVALID_OP_IN_EXTERNAL_SHARED_VIEW

SQLSTATE:42887

不能在跨帐户共享的 Delta Sharing 视图中使用 <operation>

DELTA_SHARING_INVALID_PROVIDER_AUTH

SQLSTATE:28000

提供者 <authenticationType> 的身份验证类型 <provider> 非法。

DELTA_SHARING_INVALID_RECIPIENT_AUTH

SQLSTATE:28000

接收者 <authenticationType> 的身份验证类型 <recipient> 非法。

DELTA_SHARING_INVALID_SHARED_DATA_OBJECT_NAME

SQLSTATE:42K05

引用共享内 <type> 的名称无效。 你可以使用共享内 <type> 的名称,格式为 [schema].[<type>],也可以使用表的原始全名,格式为 [catalog].[schema].[>type>]。

如果不确定要使用什么名称,可以运行“SHOW ALL IN SHARE [share]”并查找要删除的 <type> 名称:列“name”是共享内 <type> 的名称,列“shared_object”是 <type> 的原始全名。

DELTA_SHARING_MAXIMUM_RECIPIENT_TOKENS_EXCEEDED

SQLSTATE:54000

接收者 <recipient> 有两个以上的令牌。

DELTA_SHARING_RECIPIENT_PROPERTY_NOT_FOUND

SQLSTATE:42704

收件人属性 <property> 不存在。

DELTA_SHARING_RECIPIENT_TOKENS_NOT_FOUND

SQLSTATE:42704

接收者 <recipient> 缺少接收者令牌。

DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_COLUMN

SQLSTATE:42P10

SHOW PARTITIONS 指定了非分区列 <badCols>

DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE

SQLSTATE:42809

SHOW PARTITIONS 不允许在未分区的表上执行:<tableName>

DELTA_SOURCE_IGNORE_DELETE

SQLSTATE:0A000

在版本 <removedFile> 的流源中检测到已删除的数据(例如 <version>)。 目前不支持。 如果要忽略删除,请将选项“ignoreDeletes”设置为“true”。 可以在路径 <dataPath>找到源表。

DELTA_SOURCE_TABLE_IGNORE_CHANGES

SQLSTATE:0A000

在版本 <file>的源表中检测到数据更新(例如 <version>)。 目前不支持。 如果这种情况经常发生,并且可以跳过更改,请将选项“skipChangeCommits”设置为“true”。 如果希望反映数据更新,请使用新的检查点目录重启此查询,或者在使用 DLT 时执行完全刷新。 如果需要处理这些更改,请切换到 MV 模式。 可以在路径 <dataPath>找到源表。

DELTA_STARTING_VERSION_AND_TIMESTAMP_BOTH_SET

SQLSTATE:42613

请提供<version><timestamp>

DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND

SQLSTATE:42000

在 Parquet 元数据中找不到列的 <statsType> 统计信息:<columnPath>

DELTA_STREAMING_CANNOT_CONTINUE_PROCESSING_POST_SCHEMA_EVOLUTION

SQLSTATE:KD002

我们检测到 Delta 流式处理源中 Delta 版本 <previousSchemaChangeVersion><currentSchemaChangeVersion> 之间的一个或多个非累加架构更改 (<opType>)。

变化:

<columnChangeDetails>

在我们使用版本 <currentSchemaChangeVersion> 的最终架构继续流处理之前,请检查你是否想手动将架构更改传播到接收器表。

一旦修复了接收器表的架构或决定无需修复,就可以设置以下配置来解除非累加架构更改的阻止并继续流处理。

使用数据帧读取器选项:

仅针对此系列架构更改解除此特定流的阻止:

<unblockChangeOptions>

若要解除屏蔽此特定流:

<unblockStreamOptions>

使用 SQL 配置:

仅针对此系列架构更改解除此特定流的阻止:

<unblockChangeConfs>

若要解除屏蔽此特定流:

<unblockStreamConfs>

解除所有流的阻止:

<unblockAllConfs>

DELTA_STREAMING_CHECK_COLUMN_MAPPING_NO_SNAPSHOT

SQLSTATE:KD002

在检查列映射架构更改时,未能获取起始版本的 Delta 日志快照。 请选择其他起始版本,或通过将“<config>”设置为“true”来强制启用流式读取,但需自负风险。

DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE:42KD4

对具有读取不兼容架构更改的表(例如重命名或删除或数据类型更改)不支持流式读取。

有关解决此问题的详细信息和可能的后续步骤,请查看 <docLink> 的文档

读取的架构:<readSchema>。 不兼容的数据架构:<incompatibleSchema>

DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE_USE_SCHEMA_LOG

SQLSTATE:42KD4

对具有读取不兼容架构更改的表(例如重命名或删除或数据类型更改)不支持流式读取。

请提供“schemaTrackingLocation”,以便为 Delta 流处理启用非累加架构演变。

有关详细信息,请参阅 <docLink>

读取的架构:<readSchema>。 不兼容的数据架构:<incompatibleSchema>

DELTA_STREAMING_METADATA_EVOLUTION

SQLSTATE:22000

Delta 表的架构、表配置或协议在流式处理期间已更改。

架构或元数据跟踪日志已更新。

请重启流以继续使用更新的元数据进行处理。

更新的架构:<schema>

更新的表配置:<config>

更新的表协议:<protocol>

DELTA_STREAMING_SCHEMA_EVOLUTION_UNSUPPORTED_ROW_FILTER_COLUMN_MASKS

SQLSTATE:22000

使用架构跟踪从源表 <tableId> 进行流式传输时不支持行筛选器或列掩码。

请删除行筛选器或列掩码,或者禁用架构跟踪。

DELTA_STREAMING_SCHEMA_LOCATION_CONFLICT

SQLSTATE:22000

从位于“<table>”的表流式传输时检测到有冲突的架构位置“<loc>”。

另一个流可能重用相同的架构位置,这是不允许的。

请提供一个新的唯一 schemaTrackingLocation 路径或 streamingSourceTrackingId,作为此表中某个数据流的读取选项。

DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT

SQLSTATE:22000

架构位置“<schemaTrackingLocation>”必须放在检查点位置“<checkpointLocation>”下。

DELTA_STREAMING_SCHEMA_LOG_DESERIALIZE_FAILED

SQLSTATE:22000

<location>”处的 Delta 流式处理源架构日志中的日志文件不完整。

架构日志可能已损坏。 请选择新的架构位置。

DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_DELTA_TABLE_ID

SQLSTATE:22000

尝试读取 Delta 流时检测到不兼容的 Delta 表 ID。

持久化表 ID:<persistedId>,表 ID:<tableId>

架构日志可能已重复使用。 请选择新的架构位置。

DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_PARTITION_SCHEMA

SQLSTATE:22000

尝试读取 Delta 流时检测到不兼容的分区架构。

持久化架构:<persistedSchema>,Delta 分区架构:<partitionSchema>

如果你最近手动更改了表的分区架构,请选择新的架构位置来重新初始化架构日志。

DELTA_STREAMING_SCHEMA_LOG_INIT_FAILED_INCOMPATIBLE_METADATA

SQLSTATE:22000

无法初始化 Delta 流式处理源架构日志,因为

我们在从表版本 <a><b>提供流式处理批处理时检测到不兼容的架构或协议更改。

DELTA_STREAMING_SCHEMA_LOG_PARSE_SCHEMA_FAILED

SQLSTATE:22000

无法从 Delta 流式处理源架构日志文件中解析架构。

架构日志可能已损坏。 请选择新的架构位置。

DELTA_TABLE_ALREADY_CONTAINS_CDC_COLUMNS

SQLSTATE:42711

无法对表启用变更数据捕获。 表已包含

保留的列 <columnList>

这些列将在内部用作表的更改数据馈送的元数据。 若要为

表上的更改数据馈送将重命名/删除这些列。

DELTA表已存在

SQLSTATE:42P07

<tableName> 已存在。

DELTA_TABLE_FOR_PATH_UNSUPPORTED_HADOOP_CONF

SQLSTATE:0AKDC

当前 DeltaTable.forPath 仅支持以 <allowedPrefixes> 开头的 Hadoop 配置键,但得到的是 <unsupportedOptions>

DELTA_TABLE_ID_MISMATCH

SQLSTATE:KD007

<tableLocation> 处的 Delta 表已替换,但此命令使用的是该表。

表的 ID 从 <oldId> 变为 <newId>

请重试当前命令,以确保读取表的视图一致性。

DELTA_TABLE_INVALID_REDIRECT_STATE_TRANSITION

SQLSTATE:22023

无法更新表重定向状态:尝试状态转换无效。

Delta 表<table>无法从<oldState>更改为<newState>

DELTA_TABLE_INVALID_SET_UNSET_REDIRECT

SQLSTATE:22023

无法对SET上的属性 UNSET<table> 重定向:当前属性 '<currentProperty>' 与新属性 '<newProperty>' 不匹配。

DELTA_TABLE_LOCATION_MISMATCH

SQLSTATE:42613

现有的表 <tableName> 位于 <existingTableLocation>。 它与指定的位置 <tableLocation> 不匹配。

DELTA_TABLE_NOT_FOUND(未找到Delta表)

SQLSTATE:42P01

Delta 表 <tableName> 不存在。

DELTA_TABLE_NOT_SUPPORTED_IN_OP

SQLSTATE:42809

表在 <operation> 中不受支持。 请改用路径。

DELTA_TABLE_ONLY_OPERATION

SQLSTATE:0AKDD

<tableName> 不是 Delta 表。 <operation> 仅支持用于 Delta 表。

DELTA_TABLE_UNRECOGNIZED_REDIRECT_SPEC

SQLSTATE:42704

Delta 日志包含无法识别的表重定向规范“<spec>”。

DELTA_TARGET_TABLE_FINAL_SCHEMA_EMPTY

SQLSTATE:428GU

目标表最终架构为空。

DELTA_TIMESTAMP_GREATER_THAN_COMMIT

SQLSTATE:42816

提供的时间戳 (<providedTimestamp>) 晚于此

表(<tableName>)。 请使用早于或等于 <maximumTimestamp> 的时间戳。

DELTA_TIMESTAMP_INVALID

SQLSTATE:42816

提供的时间戳(<expr>)无法转换为有效的时间戳。

DELTA_TIME_TRAVEL_INVALID_BEGIN_VALUE

SQLSTATE:42604

<timeTravelKey> 必须是有效的开始值。

DELTA_TOO_MUCH_LISTING_MEMORY

SQLSTATE:53000

由于内存不足,无法列出 Delta 表中的文件(<numFiles>)。 必需内存: <estimatedMemory>,可用内存: <maxMemory>

DELTA_TRUNCATED_TRANSACTION_LOG

SQLSTATE:42K03

<path>:由于手动删除或遵循日志保留策略(<version>)和检查点保留策略(<logRetentionKey>=<logRetention>),事务日志已被截断,因此无法重新构造版本<checkpointRetentionKey>=<checkpointRetention>状态。

DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED

SQLSTATE:0AKDC

不允许操作:Delta 表上的 TRUNCATE TABLE 不支持分区谓词;使用 DELETE 删除特定的分区或行。

DELTA_UDF_IN_GENERATED_COLUMN

SQLSTATE:42621

已找到 <udfExpr>。 生成的列不能使用用户定义的函数。

DELTA_UNEXPECTED_ACTION_EXPRESSION

SQLSTATE:42601

意外的操作表达式 <expression>

DELTA_UNEXPECTED_NUM_PARTITION_COLUMNS_FROM_FILE_NAME

SQLSTATE:KD009

期望 <expectedColsSize> 分区列:<expectedCols>,但从解析文件名:<path> 中找到 <parsedColsSize> 分区列:<parsedCols>

DELTA_UNEXPECTED_PARTIAL_SCAN

SQLSTATE:KD00A

应对 Delta 源进行完整扫描,但发现只扫描了一部分。 路径:<path>

DELTA_UNEXPECTED_PARTITION_COLUMN_FROM_FILE_NAME

SQLSTATE:KD009

期望分区列 <expectedCol>,但从解析文件名:<path> 中找到分区列 <parsedCol>

DELTA_UNEXPECTED_PARTITION_SCHEMA_FROM_USER

SQLSTATE:KD009

CONVERT TO DELTA 被调用时使用了与从目录中推断的不一致的分区架构,请避免提供分区架构,以便系统能从目录中选择合适的分区架构。

目录分区架构:

<catalogPartitionSchema>

提供的分区架构:

<userPartitionSchema>

DELTA_UNIFORM_COMPATIBILITY_LOCATION_CANNOT_BE_CHANGED

SQLSTATE:0AKDC

无法更改 delta.universalFormat.compatibility.location。

DELTA_UNIFORM_COMPATIBILITY_LOCATION_NOT_REGISTERED

SQLSTATE:42K0I

delta.universalFormat.compatibility.location 未在目录中注册。

DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION

SQLSTATE:42601

统一兼容性格式的位置缺失或无效。 请为 delta.universalFormat.compatibility.location 设置空目录。

失败的原因:

有关更多详细信息,请参阅 DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION

DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION

SQLSTATE:KD00E

具有 Delta Uniform 的 Read Iceberg 的失败。

有关更多详细信息,请参阅 DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION

DELTA_UNIFORM_INGRESS_AMBIGUOUS_FORMAT

SQLSTATE:KD00E

发现多个 Delta Uniform 入口格式(<formats>),最多只能设置一个。

DELTA_UNIFORM_INGRESS_NOT_SUPPORTED

SQLSTATE:0A000

不支持创建或刷新统一入口表。

DELTA_UNIFORM_INGRESS_NOT_SUPPORTED_FORMAT

SQLSTATE:0AKDC

不支持格式 <fileFormat>。 仅支持原始文件格式为 iceberg 和 hudi。

DELTA_UNIFORM_INGRESS_VIOLATION

SQLSTATE:KD00E

读取 Delta Uniform 失败:

有关更多详细信息,请参阅 DELTA_UNIFORM_INGRESS_VIOLATION

DELTA_UNIFORM_NOT_SUPPORTED

SQLSTATE:0AKDC

仅 Unity 目录表支持通用格式。

DELTA_UNIFORM_REFRESH参数无效

SQLSTATE:42616

REFRESH TABLE 包含无效参数:

有关更多详细信息,请参阅 DELTA_UNIFORM_REFRESH_INVALID_ARGUMENT

DELTA_UNIFORM_REFRESH_NOT_SUPPORTED

SQLSTATE:0AKDC

REFRESH 标识符 SYNC UNIFORM 不受支持,原因如下:

有关更多详细信息,请参阅 DELTA_UNIFORM_REFRESH_NOT_SUPPORTED

DELTA_UNIFORM_REFRESH_NOT_SUPPORTED_FOR_MANAGED_ICEBERG_TABLE_WITH_METADATA_PATH

SQLSTATE:0AKDC

托管 Iceberg 表不支持带 METADATA_PATHREFRESH TABLE

DELTA_通用格式转换失败

SQLSTATE:KD00E

无法将表版本 <version> 转换为通用格式 <format><message>

DELTA_UNIVERSAL_FORMAT_VIOLATION

SQLSTATE:KD00E

通用格式 (<format>) 的验证失败: <violation>

DELTA_未知配置

SQLSTATE:F0000

指定了未知配置: <config>

若要禁用此检查,请在 Spark 会话配置中设置 <disableCheckConfig>=true。

DELTA_UNKNOWN_PRIVILEGE

SQLSTATE:42601

未知权限: <privilege>

DELTA_UNKNOWN_READ_LIMIT

SQLSTATE:42601

未知的读取限制:<limit>

DELTA_UNRECOGNIZED_COLUMN_CHANGE

SQLSTATE:42601

无法识别的列更改 <otherClass>。 你可能正在运行过时的 Delta Lake 版本。

DELTA_UNRECOGNIZED_INVARIANT

SQLSTATE:56038

无法识别的不变量。 请升级 Spark 版本。

DELTA_未识别的日志文件

SQLSTATE:KD00B

无法识别的日志文件 <filename>

DELTA_UNSET_NON_EXISTENT_PROPERTY

SQLSTATE:42616

尝试在表<property>中解除设置不存在的属性“<tableName>”。

DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE

SQLSTATE:0AKDC

<path> 不支持添加具有绝对路径的文件。

DELTA_UNSUPPORTED_ALTER_TABLE_CHANGE_COL_OP

SQLSTATE:0AKDC

ALTER TABLE CHANGE COLUMN 不支持将列 <fieldPath><oldField> 更改为 <newField>.

DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP

SQLSTATE:0AKDC

不支持 ALTER TABLE REPLACE COLUMNS 操作。 原因:<details>

无法将架构从

<oldSchema>

更改为:

<newSchema>

DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE

SQLSTATE:0AKDC

你尝试对具有 REPLACE 的现有表 (<tableName>) 执行 CLONE。 此操作

不受支持。 尝试为 CLONE 使用不同的目标,或删除当前位置的表。

DELTA_UNSUPPORTED_COLUMN_MAPPING_MODE_CHANGE

SQLSTATE:0AKDC

不支持将列映射模式从“<oldMode>”更改为“<newMode>”。

DELTA_UNSUPPORTED_COLUMN_MAPPING_OPERATIONS_ON_COLUMNS_WITH_BLOOM_FILTER_INDEX

SQLSTATE:0AKDC

无法对列 <opName> 执行列映射操作 <quotedColumnNames>

因为这些列包含布隆筛选索引。

如果你要对包含布隆筛选索引的列执行

列映射操作,

请先删除布隆筛选器索引:

DROP BLOOMFILTER INDEX ON TABLE 表名 FOR COLUMNS(<columnNames>

如果要删除表上的所有 Bloom 筛选器索引,请使用:

DROP BLOOMFILTER INDEX ON TABLE 表名

DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL

SQLSTATE:KD004

当前表协议版本不支持更改列映射模式

使用 <config>

列映射所需的 Delta 协议版本:

<requiredVersion>

表的当前 Delta 协议版本:currentVersion

<currentVersion>

<advice>

DELTA_UNSUPPORTED_COLUMN_MAPPING_SCHEMA_CHANGE

SQLSTATE:0AKDC

检测到架构更改:

旧架构:

<oldTableSchema>

新架构:

<newTableSchema>

在更改列映射模式期间不允许进行架构更改。

DELTA_UNSUPPORTED_COLUMN_MAPPING_WRITE

SQLSTATE:0AKDC

不支持使用列映射模式写入数据。

DELTA_UNSUPPORTED_COLUMN_TYPE_IN_BLOOM_FILTER

SQLSTATE:0AKDC

不支持在类型为 <dataType> 的列上创建布隆筛选器索引:<columnName>

DELTA_UNSUPPORTED_COMMENT_MAP_ARRAY

SQLSTATE:0AKDC

无法向 <fieldPath> 添加注释。 不支持向映射键/值或数组元素添加注释。

DELTA_不支持的数据类型

SQLSTATE:0AKDC

找到使用不支持数据类型的列:<dataTypeList>。 可以将“<config>”设置为“false”以禁用类型检查。 禁用此类型检查可能会允许用户创建不受支持的 Delta 表,并且仅在尝试读取/写入旧表时使用。

DELTA_UNSUPPORTED_DATA_TYPE_IN_GENERATED_COLUMN

SQLSTATE:42621

<dataType> 不能是生成的列的结果。

DELTA_UNSUPPORTED_DEEP_CLONE

SQLSTATE:0A000

此 Delta 版本不支持深度克隆。

DELTA_UNSUPPORTED_DESCRIBE_DETAIL_VIEW

SQLSTATE:42809

<view> 是视图。 DESCRIBE DETAIL 仅支持表格。

DELTA_UNSUPPORTED_DROP_CLUSTERING_COLUMN

SQLSTATE:0AKDC

不允许删除聚类列(<columnList>)。

DELTA_UNSUPPORTED_DROP_COLUMN

SQLSTATE:0AKDC

Delta 表不支持 DROP COLUMN<advice>

DELTA_UNSUPPORTED_DROP_NESTED_COLUMN_FROM_NON_STRUCT_TYPE

SQLSTATE:0AKDC

只能从 StructType 中删除嵌套列。 已找到 <struct>

DELTA_UNSUPPORTED_DROP_PARTITION_COLUMN

SQLSTATE:0AKDC

不允许删除分区列(<columnList>)。

DELTA_UNSUPPORTED_EXPRESSION

SQLSTATE:0A000

<expType> 不支持的表达式类型 (<causedBy>)。 支持的类型为 [<supportedTypes>]。

DELTA_UNSUPPORTED_EXPRESSION_GENERATED_COLUMN

SQLSTATE:42621

<expression> 不能在生成的列中使用。

DELTA_UNSUPPORTED_FEATURES_FOR_READ

SQLSTATE:56038

不支持的 Databricks 读取功能:表“<tableNameOrPath>”需要此版本的 Databricks 不支持的读取器表功能:<unsupported>。 有关 Delta Lake 功能兼容性的详细信息,请参阅 <link>

DELTA_UNSUPPORTED_FEATURES_FOR_WRITE

SQLSTATE:56038

不支持的 Databricks 写入功能:表“<tableNameOrPath>”需要此版本的 Databricks 不支持的编写器表功能:<unsupported>。 有关 Delta Lake 功能兼容性的详细信息,请参阅 <link>

DELTA_UNSUPPORTED_FEATURES_IN_CONFIG

SQLSTATE:56038

此版本的 Databricks 无法识别以下 Spark 配置或 Delta 表属性中配置的表功能:<configs>

DELTA_UNSUPPORTED_FEATURE_STATUS

SQLSTATE:0AKDE

预期表功能 <feature> 的状态是“supported”,但却是“<status>”。

DELTA_UNSUPPORTED_FIELD_UPDATE_NON_STRUCT

SQLSTATE:0AKDC

仅 StructType 支持更新嵌套字段,但你在尝试更新类型为 <columnName><dataType> 的字段。

DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS

SQLSTATE:0A000

不支持对缺少删除矢量文件的表版本执行“FSCK REPAIR TABLE”命令。

请联系支持人员。

DELTA_UNSUPPORTED_GENERATE_WITH_DELETION_VECTORS

SQLSTATE:0A000

不支持对带有删除矢量的表版本执行“GENERATE symlink_format_manifest”命令。

为了生成没有删除矢量的表版本,请运行“REORG TABLE table APPLY (PURGE”)。 然后重新运行“GENERATE”命令。

请确保没有并发事务在 REORGGENERATE之间再次添加删除向量。

如果需要定期生成清单,或者无法防止并发事务,请考虑使用“ALTER TABLE table SET TBLPROPERTIES (delta.enableDeletionVectors = false)”禁用此表上的删除矢量。

DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT

SQLSTATE:0AKDC

不支持在 StructTypes 以外的嵌套字段上应用不变量。

DELTA_UNSUPPORTED_IN_SUBQUERY

SQLSTATE:0AKDC

<operation> 条件中不支持 In 子查询。

DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX

SQLSTATE:0A000

listKeywithPrefix 不可用。

DELTA_UNSUPPORTED_MANIFEST_GENERATION_WITH_COLUMN_MAPPING

SQLSTATE:0AKDC

利用列映射的表不支持清单生成,因为外部读取器无法读取这些 Delta 表。 有关更多详细信息,请参阅 Delta 文档。

DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC

SQLSTATE:0A000

带有架构演变的 MERGE INTO 操作目前不支持写入 CDC 输出。

DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE

SQLSTATE:0AKDC

<operation> 条件中不支持多列 In 谓词。

DELTA_UNSUPPORTED_NESTED_COLUMN_IN_BLOOM_FILTER

SQLSTATE:0AKDC

当前不支持在嵌套列上创建布隆筛选器索引:<columnName>

DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION

SQLSTATE:0AKDC

<operation> 中不支持嵌套字段(字段 = <fieldName>)。

DELTA_UNSUPPORTED_NON_EMPTY_CLONE

SQLSTATE:0AKDC

克隆目标表不为空。 运行 TRUNCATE之前,请先对表进行 DELETE FROMCLONE 操作。

DELTA_UNSUPPORTED_OUTPUT_MODE

SQLSTATE:0AKDC

数据源 <dataSource> 不支持 <mode> 输出模式。

DELTA_UNSUPPORTED_PARTITION_COLUMN_IN_BLOOM_FILTER

SQLSTATE:0AKDC

不支持在分区列上创建布隆筛选器索引:<columnName>

DELTA_UNSUPPORTED_RENAME_COLUMN

SQLSTATE:0AKDC

Delta 表不支持列重命名。 <advice>

DELTA_UNSUPPORTED_SCHEMA_DURING_READ

SQLSTATE:0AKDC

Delta 不支持在读取时指定架构。

DELTA_UNSUPPORTED_SORT_ON_BUCKETED_TABLES

SQLSTATE:0A000

Delta 分桶表不支持 SORTED BY

DELTA_UNSUPPORTED_SOURCE

SQLSTATE:0AKDD

<operation> 目标仅支持 Delta 源。

<plan>

DELTA_UNSUPPORTED_STATIC_PARTITIONS

SQLSTATE:0AKDD

在插入期间,目前不支持在分区规范中指定静态分区。

DELTA_UNSUPPORTED_STRATEGY_NAME

SQLSTATE:22023

不支持的策略名称: <strategy>

DELTA_UNSUPPORTED_SUBQUERY

SQLSTATE:0AKDC

<operation> 不支持子查询(条件 = <cond>)。

DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES

SQLSTATE:0AKDC

分区谓词中不支持子查询。

DELTA_UNSUPPORTED_TIME_TRAVEL_MULTIPLE_FORMATS

SQLSTATE:42613

无法以多种格式指定“按时间顺序查看”。

DELTA_UNSUPPORTED_TIME_TRAVEL_VIEWS

SQLSTATE:0AKDC

无法按时间顺序查看视图、子查询、流或更改数据馈送查询。

DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES

SQLSTATE:0A000

不支持截断示例表。

DELTA_UNSUPPORTED_TYPE_CHANGE_IN_SCHEMA

SQLSTATE:0AKDC

由于应用了不支持的类型更改,无法对此表进行操作。 字段 <fieldName> 已从 <fromType> 更改为 <toType>

DELTA_UNSUPPORTED_TYPE_CHANGE_ON_COLUMNS_WITH_BLOOM_FILTER_INDEX

SQLSTATE:0AKDC

无法更改列 <quotedColumnNames> 的数据类型

因为这些列包含布隆筛选索引。

如果要使用 Bloom Filter Index(es) 更改列的数据类型,

请先删除布隆筛选器索引:

DROP BLOOMFILTER INDEX ON TABLE 表名 FOR COLUMNS(<columnNames>

如果要删除表上的所有 Bloom 筛选器索引,请使用:

DROP BLOOMFILTER INDEX ON TABLE 表名

DELTA_UNSUPPORTED_VACUUM_SPECIFIC_PARTITION

SQLSTATE:0AKDC

清空 Delta 表时,请提供基本路径(<baseDeltaPath>)。 目前不支持清空特定分区。

DELTA_UNSUPPORTED_WRITES_STAGED_TABLE

SQLSTATE:42807

表实现不支持写入:<tableName>

DELTA_UNSUPPORTED_WRITES_WITHOUT_COORDINATOR

SQLSTATE:0AKDC

你正在尝试对已在提交协调器 <coordinatorName> 中注册的表执行写入。 但是,当前环境中不提供此协调器实现,不允许在没有协调器的情况下进行写入。

DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES

SQLSTATE:0A000

不支持写入示例表。

DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION

SQLSTATE:42846

无法将 <fromCatalog> 强制转换为 <toCatalog>。 所有嵌套列必须匹配。

DELTA_V2_操作所需检查点

SQLSTATE:55019

CHECKPOINT 操作要求表上启用 V2 检查点。

DELTA_VACUUM_COPY_INTO_STATE_FAILED

SQLSTATE:22000

数据文件上的 VACUUM 操作已成功,但 COPY INTO 状态的垃圾回收操作失败。

DELTA_VERSIONS_NOT_CONTIGUOUS

SQLSTATE:KD00C

版本(<versionList>)不是连续的。

在尝试加载版本<startVersion>时检测到版本<endVersion><versionToLoad>之间的增量日志中的差距。

有关更多详细信息,请参阅 DELTA_VERSIONS_NOT_CONTIGUOUS

DELTA_VERSION_INVALID

SQLSTATE:42815

提供的版本 (<version>) 不是有效的版本。

DELTA_VIOLATE_CONSTRAINT_WITH_VALUES

SQLSTATE:23001

具有值的行违反了 CHECK 约束 <constraintName> <expression>

<values>

DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED

SQLSTATE:0A000

<table> 的属性验证已被违反。

有关更多详细信息,请参阅 DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED

DELTA_WRITE_INTO_VIEW_NOT_SUPPORTED

SQLSTATE:0A000

<viewIdentifier> 是视图。 不能将数据写入视图。

DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST

SQLSTATE:42703

数据架构中不存在 Z 排序列 <columnName>

DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS

SQLSTATE:KD00D

Z 排序 <cols> 将无效,因为我们当前不收集这些列的统计信息。 有关跳过数据和 z 排序的详细信息,请参阅 <link> 。 可以通过设置禁用此检查

SET <zorderColStatKey> = 假

DELTA_ZORDERING_ON_PARTITION_COLUMN

SQLSTATE:42P10

<colName> 是分区列。 Z 排序只能对数据列执行

Delta共享

DELTA_SHARING_ACTIVATION_NONCE_DOES_NOT_EXIST

SQLSTATE:未分配

找不到激活 nonce。 使用的激活链接无效或已过期。 重新生成激活链接,然后重试。

DELTA_SHARING_CROSS_REGION_SHARE_UNSUPPORTED

SQLSTATE:未分配

不支持在 <regionHint> 区域与外部区域之间共享。

DELTA_SHARING_GET_RECIPIENT_PROPERTIES_INVALID_DEPENDENT

SQLSTATE:未分配

使用 current_recipient 函数定义的视图仅用于共享,只能从数据接收方查询。 提供的 ID 为 <securableId> 的安全对象不是 Delta Sharing 视图。

DELTA_SHARING_MUTABLE_SECURABLE_KIND_NOT_SUPPORTED

SQLSTATE:未分配

提供的可保护类型 <securableKind> 不支持 Delta 共享中的可变性。

DELTA_SHARING_ROTATE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE

SQLSTATE:未分配

提供的安全对象类型 <securableKind> 不支持市场服务启动的轮换令牌操作。

DS_AUTH_TYPE_NOT_AVAILABLE

SQLSTATE:未分配

<dsError>:身份验证类型在提供程序实体 <providerEntity>中不可用。

DS_CDF_NOT_ENABLED

SQLSTATE:未分配

<dsError>:无法访问 <tableName> 的更改数据馈送。 在版本 <version> 中,CDF 未在原始 Delta 表上启用。 请联系你的数据供应商。

DS_CDF_NOT_SHARED

SQLSTATE:未分配

<dsError>:无法访问 <tableName> 的更改数据馈送。 CDF 未在表上共享。 请联系你的数据供应商。

DS_CDF_RPC_INVALID_PARAMETER

SQLSTATE:未分配

<dsError><message>

DS_CLIENT_AUTH_ERROR_FOR_DB_DS_SERVER

SQLSTATE:未分配

<dsError><message>

DS_CLIENT_ERROR_FOR_DB_DS_SERVER

SQLSTATE:未分配

<dsError><message>

DS_CLIENT_OAUTH_TOKEN_EXCHANGE_FAILURE

SQLSTATE:未分配

<dsError><message>

DS_CLIENT_OAUTH_TOKEN_EXCHANGE_UNAUTHORIZED

SQLSTATE:未分配

<dsError><message>

DS_CLOUD_VENDOR_UNAVAILABLE

SQLSTATE:未分配

<dsError>:云供应商暂时无法为 <rpcName>提供服务,请重试。<traceId>

DS_DATA_MATERIALIZATION_COMMAND_FAILED

SQLSTATE:未分配

<dsError>:在命令 <runId> 处,从组织 <orgId> 运行的数据具体化任务 <command> 失败

DS_DATA_MATERIALIZATION_COMMAND_NOT_SUPPORTED

SQLSTATE:未分配

<dsError>:从组织 <runId> 运行的数据具体化任务 <orgId> 不支持命令 <command>

DS_DATA_MATERIALIZATION_NOT_SUPPORTED_WITHOUT_SERVERLESS

SQLSTATE:未分配

<dsError>:不支持 <featureName>,因为提供程序工作区中不支持或未启用无服务器。 请联系您的数据供应商以启用无服务器架构。

DS_DATA_MATERIALIZATION_NO_VALID_NAMESPACE

SQLSTATE:未分配

<dsError>:找不到有效的命名空间来创建 <tableName> 的具体化。 请联系您的数据提供商解决此问题。

DS_DATA_MATERIALIZATION_RUN_DOES_NOT_EXIST

SQLSTATE:未分配

<dsError>:从组织 <runId> 运行的数据具体化任务 <orgId> 不存在

DS_DELTA_ILLEGAL_STATE

SQLSTATE:未分配

<dsError><message>

DS_DELTA_MISSING_CHECKPOINT_FILES

SQLSTATE:未分配

<dsError>:找不到版本检查点的所有部件文件:<version><suggestion>

DS_DELTA_NULL_POINTER

SQLSTATE:未分配

<dsError><message>

DS_DELTA_RUNTIME_EXCEPTION

SQLSTATE:未分配

<dsError><message>

DS_EXPIRE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE

SQLSTATE:未分配

<dsError>:提供的安全对象类型 <securableKind> 不支持市场服务启动的使令牌过期操作。

DS_FAILED_REQUEST_TO_OPEN_DS_SERVER(请求打开DS服务器失败)

SQLSTATE:未分配

<dsError><message>

DS_FAILED_REQUEST_TO_SAP_DS_SERVER

SQLSTATE:未分配

<dsError><message>

DS_FEATURE_ONLY_FOR_DATABRICKS_TO_DATABRICKS

SQLSTATE:未分配

<dsError>:仅为 Databricks 到 Databricks Delta Sharing 启用了 <feature>

DS_FILE_LISTING_EXCEPTION

SQLSTATE:未分配

<dsError><storage><message>

DS_FILE_SIGNING_EXCEPTION

SQLSTATE:未分配

<dsError><message>

DS_FOREIGN_TABLE_METADATA_REFRESH_FAILED

SQLSTATE:未分配

<dsError><message>

DS_HADOOP_CONFIG_NOT_SET

SQLSTATE:未分配

<dsError>:调用方未设置 <key>

DS_ILLEGAL_STATE

SQLSTATE:未分配

<dsError><message>

DS_INTERNAL_ERROR_FROM_DB_DS_SERVER

SQLSTATE:未分配

<dsError><message>

DS_INVALID_AZURE_PATH

SQLSTATE:未分配

<dsError>:Azure 路径无效:<path>

DS_INVALID_DELTA_ACTION_OPERATION

SQLSTATE:未分配

<dsError><message>

DS_INVALID_FIELD

SQLSTATE:未分配

<dsError><message>

DS_INVALID_ITERATOR_OPERATION

SQLSTATE:未分配

<dsError><message>

DS_INVALID_PARAMETER_VALUE

SQLSTATE:未分配

<dsError>:由于 <rpcName><cause> 的参数无效。

DS_INVALID_PARTITION_SPEC

SQLSTATE:未分配

<dsError><message>

DS_INVALID_RESPONSE_FROM_DS_SERVER

SQLSTATE:未分配

<dsError><message>

DS_MATERIALIZATION_QUERY_FAILED

SQLSTATE:未分配

<dsError><schema> 查询失败。来自共享 <table><share>

DS_MATERIALIZATION_QUERY_TIMEDOUT

SQLSTATE:未分配

<dsError><schema> 查询超时。<table> 秒后,来自共享 <share><timeoutInSec>

DS_MISSING_IDEMPOTENCY_KEY

SQLSTATE:未分配

<dsError>:查询 <schema>时需要幂等密钥。异步来自共享 <table><share>

DS_MORE_THAN_ONE_RPC_PARAMETER_SET

SQLSTATE:未分配

<dsError>:请仅提供 <parameters> 中的一个。

DS_网络连接已关闭

SQLSTATE:未分配

<dsError>:由于 <errorCause><rpcName> 的网络连接已关闭,请重试。<traceId>

DS_NETWORK_CONNECTION_TIMEOUT

SQLSTATE:未分配

<dsError>:由于<errorCause><rpcName> 的网络连接超时,请重试。<traceId>

DS_网络错误

SQLSTATE:未分配

<dsError>:由于 <errorCause><rpcName> 的网络错误,请重试。<traceId>

DS_NO_METASTORE_ASSIGNED

SQLSTATE:未分配

<dsError>:没有为当前工作区分配元存储(workspaceId:<workspaceId>)。

DS_O2D_OIDC_WORKLOAD_IDENTITY_TOKEN_GENERATION_FAILED

SQLSTATE:未分配

<dsError>:为 O2D OIDC 提供程序生成工作负载标识令牌失败:<message>

DS_PAGINATION_AND_QUERY_ARGS_MISMATCH

SQLSTATE:未分配

<dsError>:分页或查询参数不匹配。

DS_PARTITION_COLUMNS_RENAMED

SQLSTATE:未分配

<dsError>:共享表上的分区列 [<renamedColumns>] 已被重命名。 请联系您的数据提供商解决此问题。

DS_QUERY_BEFORE_START_VERSION

SQLSTATE:未分配

<dsError>:只能查询自版本 <startVersion>以来的表数据。

DS_QUERY_END_VERSION_AFTER_LATEST_VERSION

SQLSTATE:未分配

<dsError>:提供的用于读取数据的终止版本(<endVersion>)无效。 结束版本不能大于表的最新版本(<latestVersion>)。

DS_QUERY_START_VERSION_AFTER_LATEST_VERSION

SQLSTATE:未分配

<dsError>:提供的读取数据的起始版本(<startVersion>)无效。 起始版本不能大于表的最新版本(<latestVersion>)。

DS_QUERY_TIMEOUT_ON_SERVER

SQLSTATE:未分配

<dsError>:在跨 <queryType> 迭代进行 <tableName> 更新后处理 <numActions> 上的 <numIter> 时发生超时。<progressUpdate> <suggestion> <traceId>

DS_RATE_LIMIT_ON_DS_SERVER

SQLSTATE:未分配

<dsError><message>

DS_RECIPIENT_RPC_INVALID_PARAMETER

SQLSTATE:未分配

<dsError><message>

DS_RECON_FAILED_ON_UC_WRITE_RPC

SQLSTATE:未分配

<dsError>:UC RPC <rpcName> 失败,转换为 INTERNAL_ERROR

DS资源已存在于DS服务器上 (DS_RESOURCE_ALREADY_EXIST_ON_DS_SERVER)

SQLSTATE:未分配

<dsError><message>

DS_RESOURCE_EXHAUSTED (资源耗尽)

SQLSTATE:未分配

<dsError><resource> 超出限制:[<limitSize>]<suggestion><traceId>

DS_RESOURCE_NOT_FOUND_ON_DS_SERVER (DS服务器上未找到资源)

SQLSTATE:未分配

<dsError><message>

DS_SCHEMA_NAME_CONFLICT_FOUND

SQLSTATE:未分配

<dsError>:目录 <catalogName> 已包含在共享 <shareName>中找到的架构名称。 冲突架构 <description> 的名称:<schemaNamesInCommon>

DS_SERVER_TIMEOUT

SQLSTATE:未分配

<dsError>:由于 <errorCause><rpcName> 的服务器超时,请重试。<traceId>

DS_SHARE_ALREADY_MOUNTED_TO_CATALOG

SQLSTATE:未分配

<dsError>:提供程序 <providerName> 的共享 <shareName> 已挂载到目录 <catalogName>

DS_SYSTEM_WORKSPACE_GROUP_PERMISSION_UNSUPPORTED

SQLSTATE:未分配

无法向系统生成的组 <securableType> 授予对 <principal> 的权限。

DS_TIME_TRAVEL_NOT_PERMITTED

SQLSTATE:未分配

<dsError>:除非历史记录在 <tableName> 上共享历史记录,否则不允许进行时间旅行查询。 请联系你的数据供应商。

DS_UNAUTHORIZED

SQLSTATE:未分配

<dsError>:未经授权。

DS_UNAUTHORIZED_D2O_OIDC_RECIPIENT

SQLSTATE:未分配

<dsError>:未经授权的 D2O OIDC 接收者:<message>

DS_UNKNOWN_EXCEPTION

SQLSTATE:未分配

<dsError><traceId>

未知查询ID (DS_UNKNOWN_QUERY_ID)

SQLSTATE:未分配

<dsError><queryID>的查询 ID <schema> 是未知的。来自共享 <table><share>

DS_UNKNOWN_QUERY_STATUS

SQLSTATE:未分配

<dsError>:对于 <queryID>的查询 ID <schema> 的查询状态未知。来自共享 <table><share>

DS_UNKNOWN_RPC

SQLSTATE:未分配

<dsError>:未知 RPC <rpcName>

DS_UNSUPPORTED_DELTA_READER_VERSION

SQLSTATE:未分配

<dsError>:增量协议读取器版本 <tableReaderVersion> 高于 <supportedReaderVersion>,不能在增量共享服务器中受支持。

DS_UNSUPPORTED_DELTA_TABLE_FEATURES

SQLSTATE:未分配

<dsError>:在表 <tableFeatures> 中找到表功能 <versionStr> <historySharingStatusStr> <optionStr>

DS_UNSUPPORTED_OPERATION

SQLSTATE:未分配

<dsError><message>

DS_UNSUPPORTED_STORAGE_SCHEME

SQLSTATE:未分配

<dsError>:不支持的存储方案:<scheme>

DS_UNSUPPORTED_TABLE_TYPE

SQLSTATE:未分配

<dsError>:无法检索 <schema>。 来自共享 <share><table>,因为 <queryType> 查询中当前不支持类型 [<tableType>] 的表。

DS_USER_CONTEXT_ERROR

SQLSTATE:未分配

<dsError><message>

DS_VIEW_SHARING_FUNCTIONS_NOT_ALLOWED

SQLSTATE:未分配

<dsError>:视图共享查询中不允许 <functions> 以下函数。

DS_WORKSPACE_DOMAIN_NOT_SET

SQLSTATE:未分配

<dsError>:未设置工作区 <workspaceId> 域。

DS_工作空间_未找到

SQLSTATE:未分配

<dsError>:找不到工作区 <workspaceId>

自动加载程序

CF_ADD_NEW_NOT_SUPPORTED

SQLSTATE:0A000

指定架构时不支持架构演变模式 <addNewColumnsMode>。 若要使用此模式,可以改为通过 cloudFiles.schemaHints 提供架构。

CF_AMBIGUOUS_AUTH_OPTIONS_ERROR

SQLSTATE:42000

找到了(默认)目录列表模式的通知设置

列出模式:

<options>

如果要使用文件通知模式,请显式设置:

.option("cloudFiles.<useNotificationsKey>", "true")

如果要跳过选项验证步骤并忽略这些

身份验证选项,可以设置:

.option("cloudFiles.ValidateOptionsKey>", "false")

CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR

SQLSTATE:42000

增量列表模式 (cloudFiles.<useIncrementalListingKey>

和文件通知 (cloudFiles.<useNotificationsKey>)

已同时启用。

请确保只选择一个。

CF_AZURE_AUTHENTICATION_MISSING_OPTIONS

SQLSTATE:42000

请提供 Databricks 服务凭据,或者同时提供 clientId 和 clientSecret,以便通过 Azure 进行身份验证。

CF_AZURE_AUTHENTICATION_MULTIPLE_OPTIONS

SQLSTATE:42000

提供 Databricks 服务凭据时,不应提供其他凭据选项(例如 clientId、clientSecret 或 connectionString)。

CF_AZURE_STORAGE_SUFFIXES_REQUIRED

SQLSTATE:42000

Azure 需要 adlsBlobSuffix 和 adlsDfsSuffix

CF_BUCKET_MISMATCH

SQLSTATE:22000

文件事件 <storeType> 中的 <fileEvent> 与源的预期不同:<source>

CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY

SQLSTATE:22000

架构日志为空时无法改进架构。 架构日志位置:<logPath>

CF_CANNOT_PARSE_QUEUE_MESSAGE

SQLSTATE:22000

无法分析以下队列消息:<message>

无法解析容器名称 (CF_CANNOT_RESOLVE_CONTAINER_NAME)

SQLSTATE:22000

无法从路径 <path> 解析容器名称,解析的 URI 为 <uri>

CF_CANNOT_RUN_DIRECTORY_LISTING(无法运行目录列表)

SQLSTATE:22000

当运行异步回填线程时无法运行目录列表

CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON

SQLSTATE:42000

无法同时打开 cloudFiles.cleanSource 和 cloudFiles.allowOverwrites。

CF_CLEAN_SOURCE_CANNOT_MOVE_FILES_INSIDE_SOURCE_PATH

SQLSTATE:42000

不支持将文件移动到正在从中摄取的路径下的目录。

CF_CLEAN_SOURCE_NOT_ENABLED

SQLSTATE:0A000

尚未为此工作区启用 CleanSource。 请联系 Databricks 支持部门获取帮助。

CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION

SQLSTATE:42501

自动加载程序无法存档已处理的文件,因为它对源目录或移动目标没有写入权限。

<reason>

若要修复,可以:

  1. 向源目录授予写入权限并移动目标,或

  2. 将 cleanSource 设置为“OFF”

还可以通过将 SQLConf spark.databricks.cloudFiles.cleanSource.disabledDueToAuthorizationErrors 设置为“true”来解除阻止流。

CF_DUPLICATE_COLUMN_IN_DATA

SQLSTATE:22000

尝试推断表的分区架构时出错。 在数据和分区路径中复制了相同的列。 若要忽略分区值,请使用以下命令显式提供分区列: .option("cloudFiles.<partitionColumnsKey>", "{comma-separated-list}")

CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE

SQLSTATE:42000

当输入路径 <path> 为空时,无法推断架构。 请在输入路径中存在文件或指定架构时尝试启动流。

CF_EVENT_GRID_AUTH_ERROR

SQLSTATE:22000

无法创建事件网格订阅。 请确保服务

主体具有 <permissionType> 事件网格订阅。 请参阅以下位置的更多详细信息:

<docLink>

CF_EVENT_GRID_CREATION_FAILED

SQLSTATE:22000

无法创建事件网格订阅。 请确保 Microsoft.EventGrid

在订阅中注册为资源提供程序。 请参阅以下位置的更多详细信息:

<docLink>

CF_EVENT_GRID_NOT_FOUND_ERROR

SQLSTATE:22000

无法创建事件网格订阅。 请确保存储

帐户 (<storageAccount>) 位于资源组 (<resourceGroup>) 的下面,并且

存储帐户是“StorageV2(常规用途 v2)”帐户。 请参阅以下位置的更多详细信息:

<docLink>

CF_EVENT_NOTIFICATION_NOT_SUPPORTED

SQLSTATE:0A000

<cloudStore> 不支持自动加载程序事件通知模式。

CF_FAILED_TO_CHECK_STREAM_NEW

SQLSTATE:22000

无法检查流是否为新流

CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION

SQLSTATE:22000

无法创建订阅 <subscriptionName>。 同名的订阅已存在,并且与另一个主题相关联:<otherTopicName>。 所需主题为 <proposedTopicName>。 删除现有订阅或创建具有新资源后缀的订阅。

CF_FAILED_TO_CREATED_PUBSUB_TOPIC

SQLSTATE:22000

无法创建主题 <topicName>。 已存在同名的主题。<reason> 删除现有主题,或使用另一个资源后缀重试

CF_无法删除_GCP_通知

SQLSTATE:22000

未能删除主题 <notificationId> 的存储桶 <bucketName> 上 ID 为 <topicName> 的通知。 请重试或通过 GCP 控制台手动删除通知。

CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA

SQLSTATE:22000

无法从字符串反序列化持久化架构:“<jsonSchema>

CF_FAILED_TO_EVOLVE_SCHEMA

SQLSTATE:22000

在没有架构日志的情况下无法改进架构。

CF_FAILED_TO_FIND_PROVIDER

SQLSTATE:42000

找不到 <fileFormatInput> 服务提供者

CF_FAILED_TO_INFER_SCHEMA

SQLSTATE:22000

无法从输入路径 <fileFormatInput>中的现有文件中推断格式 <path> 的架构。

有关更多详细信息,请参阅 CF_FAILED_TO_INFER_SCHEMA

CF_无法写入架构日志

SQLSTATE:22000

无法在位置 <path>写入架构日志。

CF_FILE_FORMAT_REQUIRED

SQLSTATE:42000

找不到所需的选项:cloudFiles.format。

CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS

SQLSTATE:22000

发现主题 <num> 有多个(<topicName> 个)订阅使用自动加载程序前缀:

<subscriptionList>

每个主题只能有一个订阅。 请手动确保主题没有多个订阅。

CF_GCP_AUTHENTICATION

SQLSTATE:42000

请提供以下所有凭据:<clientEmail><client>

<privateKey><privateKeyId>,或提供使用 Databricks 服务凭据的 <serviceCredential>

或者,请提供它们中的一个,以便使用默认的 GCP 凭据提供程序链对 GCP 资源进行身份验证。

CF_GCP_LABELS_COUNT_EXCEEDED

SQLSTATE:22000

收到太多 GCP 资源的标签(<num> 个)。 每个资源的最大标签数为 <maxNum>

CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED

SQLSTATE:22000

收到太多 GCP 资源的资源标记(<num> 个)。 每个资源的最大资源标记数量为 <maxNum>,因为资源标记是作为 GCP 标签存储在资源上的,而 Databricks 特定的标记会占用部分 GCP 标签的配额。

CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG

SQLSTATE:22000

路径 <path> 的架构日志中不完整的日志文件

CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT

SQLSTATE:22000

自动加载程序检查点中的元数据文件不完整

CF_INCORRECT_BATCH_USAGE

SQLSTATE:42887

CloudFiles 是流式处理源。 请使用 spark.readStream 而不是 spark.read。 若要禁用此检查,请将 <cloudFilesFormatValidationEnabled> 设置为 false。

CF_INCORRECT_SQL_PARAMS

SQLSTATE:42000

cloud_files方法接受两个必需的字符串参数:要从中加载的路径和文件格式。 必须在字符串键值映射中提供文件读取器选项。 例如,cloud_files("path", "json", map("option1", "value1"))。 收到:<params>

CF_INCORRECT_STREAM_USAGE

SQLSTATE:42887

要将“cloudFiles”用作流式处理源,请使用选项“cloudFiles.format”提供文件格式,并使用 .load() 创建 DataFrame。 若要禁用此检查,请将 <cloudFilesFormatValidationEnabled> 设置为 false。

CF_INTERNAL_ERROR

SQLSTATE:42000

内部错误。

有关更多详细信息,请参阅 CF_INTERNAL_ERROR

CF_INVALID_ARN

SQLSTATE:42000

无效 ARN:<arn>

CF_无效的Azure证书

SQLSTATE:42000

无法解析与选项 cloudFiles.certificate 一起提供的私钥。 请提供 PEM 格式的有效公钥。

CF_INVALID_AZURE_CERT_PRIVATE_KEY(无效的 Azure 证书私钥)

SQLSTATE:42000

无法解析通过选项 cloudFiles.certificatePrivateKey 提供的私钥。 请以 PEM 格式提供有效的私钥。

CF_INVALID_CHECKPOINT

SQLSTATE:42000

此检查点不是有效的 CloudFiles 源

CF_INVALID_CLEAN_SOURCE_MODE

SQLSTATE:42000

清理源选项 <value> 的模式无效。

CF_INVALID_GCP_RESOURCE_TAG_KEY (无效的GCP资源标签键)

SQLSTATE:42000

GCP 资源的资源标记键无效:<key>。 键必须以小写字母开头,长度在 1 到 63 个字符以内,并且仅包含小写字母、数字、下划线(_)和连字符(-)。

CF_INVALID_GCP_RESOURCE_TAG_VALUE

SQLSTATE:42000

GCP 资源的资源标记值无效:<value>。 值长度必须为 0 到 63 个字符,并且必须仅包含小写字母、数字、下划线(_)和连字符(-)。

CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS

SQLSTATE:42000

与托管文件事件一起使用时,自动加载程序不支持以下选项:

<optionList>

建议删除这些选项,然后重启流。

CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE

SQLSTATE:22000

来自托管文件事件服务的响应无效。 请联系 Databricks 支持部门获取帮助。

有关更多详情,请参阅 CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE

CF_INVALID_SCHEMA_EVOLUTION_MODE

SQLSTATE:42000

cloudFiles。 <schemaEvolutionModeKey> 必须是以下之一

  • <addNewColumns>
  • <failOnNewColumns>
  • <rescue>
  • <noEvolution>

CF_INVALID_SCHEMA_HINTS_OPTION

SQLSTATE:42000

模式提示不能多次指定某个特定的列。

在这种情况下,请重新定义列:<columnName>

在 schemaHints 中多次:

<schemaHints>

CF_INVALID_SCHEMA_HINT_COLUMN

SQLSTATE:42000

架构提示无法用于覆盖映射和数组的嵌套类型。

有冲突的列:<columnName>

CF_LATEST_OFFSET_READ_LIMIT_REQUIRED

SQLSTATE:22000

应在此源上使用 ReadLimit 调用 latestOffset。

CF 日志文件格式错误

SQLSTATE:22000

日志文件格式不正确:无法从 <fileName>读取正确的日志版本。

CF_MANAGED_FILE_EVENTS_BACKFILL_IN_PROGRESS

SQLSTATE:22000

你已请求自动加载程序通过将 includeExistingFiles 设置为 false 来忽略外部位置中的现有文件。 但是,托管文件事件服务仍在外部位置发现了现有文件。 请在文件管理事件完成对外部位置中所有文件的发现后再试。

CF_MANAGED_FILE_EVENTS_ENDPOINT_NOT_FOUND

SQLSTATE:42000

你正在将自动加载程序与托管文件事件配合使用,但输入路径“<path>”的外部位置似乎未启用文件事件,或输入路径无效。 请请求 Databricks 管理员在输入路径的外部位置启用文件事件。

CF_MANAGED_FILE_EVENTS_ENDPOINT_PERMISSION_DENIED

SQLSTATE:42000

你正在将自动加载程序与托管文件事件配合使用,但你无权访问输入路径“<path>”的外部位置或卷,或输入路径无效。 请请求 Databricks 管理员授予外部位置或卷的读取权限,或在现有外部位置或卷中提供有效的输入路径。

CF_MANAGED_FILE_EVENTS_IS_PREVIEW

SQLSTATE:56038

带托管文件事件的自动加载程序是预览功能。 若要继续,请联系 Databricks 支持部门或关闭 cloudFiles.useManagedFileEvents 选项。

CF_MAX必须为正数

SQLSTATE:42000

max 必须为正

CF_METADATA_FILE_CONCURRENTLY_USED

SQLSTATE:22000

多个流式处理查询在同时使用 <metadataFile>

CF_MISSING_METADATA_FILE_ERROR

SQLSTATE:42000

流式处理源检查点目录中的元数据文件丢失。 此元数据

文件包含流的重要默认选项,因此无法重启流

马上。 请联系 Databricks 支持部门获取帮助。

CF_MISSING_PARTITION_COLUMN_ERROR

SQLSTATE:42000

提供的架构中不存在分区列 <columnName>

<schema>

CF_MISSING_SCHEMA_IN_PATHLESS_MODE

SQLSTATE:42000

如果在使用文件通知模式时未向 CloudFiles 源提供路径,请使用 .schema() 指定架构。 或者,若要让自动加载程序推断架构,请在 .load() 中提供基本路径。

CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC

SQLSTATE:22000

在存储桶 <topicName> 上发现主题 <bucketName> 的现有通知:

notification,id

<notificationList>

若要避免意外事件污染订阅服务器,请删除上述通知并重试。

CF_NEW_PARTITION_ERROR

SQLSTATE:22000

从文件中已推断出新的分区列:[<filesList>]。 请在架构中提供所有分区列,或者提供要通过使用以下方法提取值的分区列列表: .option("cloudFiles.partitionColumns", "{comma-separated-list|empty-string}")

CF_PARTITON_INFERENCE_ERROR

SQLSTATE:22000

尝试推断当前批处理文件的分区架构时出错。 请通过使用显式提供分区列:.option("cloudFiles.<partitionColumnOption>", "{comma-separated-list}"

CF_PATH_DOES_NOT_EXIST_FOR_READ_FILES (读取文件的路径不存在)

SQLSTATE:42000

当输入路径 <path> 不存在时,无法读取文件。 请确保输入路径存在并重新尝试。

CF_PERIODIC_BACKFILL_NOT_SUPPORTED

SQLSTATE:0A000

如果禁用异步回填,则不支持定期回填。 可以通过将 spark.databricks.cloudFiles.asyncDirListing 设置为 true 来启用异步回填/目录列表

CF_PREFIX_MISMATCH

SQLSTATE:22000

找到不匹配的事件:密钥 <key> 没有前缀:<prefix>

CF_PROTOCOL_MISMATCH

SQLSTATE:22000

<message>

如果无需对代码进行任何其他更改,请设置 SQL

配置:“<sourceProtocolVersionKey> = <value>

以恢复流。 请参阅:

<docLink>

以获取更多详细信息。

CF_REGION_NOT_FOUND_ERROR

SQLSTATE:42000

无法获取默认 AWS 区域。 请使用 cloudFiles.region 选项指定区域。

CF_RESOURCE_SUFFIX_EMPTY

SQLSTATE:42000

无法创建通知服务:资源后缀不能为空。

CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS

SQLSTATE:42000

无法创建通知服务:资源后缀只能有字母数字字符、连字符(-)和下划线(_)。

CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE

SQLSTATE:42000

无法创建通知服务:资源后缀只能有小写字母、数字和短划线(-)。

CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP

SQLSTATE:42000

无法创建通知服务:资源后缀只能包含字母数字字符、连字符 (-)、下划线 (_)、句点 (.)、波浪字符 (~)、加号 (+) 和百分比符号 (<percentSign>)。

CF_RESOURCE_SUFFIX_LIMIT

SQLSTATE:42000

无法创建通知服务:资源后缀不能超过 <limit> 个字符。

CF_RESOURCE_SUFFIX_LIMIT_GCP

SQLSTATE:42000

无法创建通知服务:资源后缀必须在 <lowerLimit><upperLimit> 个字符之间。

CF_RESTRICTED_GCP_RESOURCE_TAG_KEY

SQLSTATE:22000

找到受限的 GCP 资源标记键(<key>)。 自动加载程序限制以下 GCP 资源标记密钥:[<restrictedKeys>]

CF_RETENTION_GREATER_THAN_MAX_FILE_AGE

SQLSTATE:42000

cloudFiles.cleanSource.retentionDuration 不能大于 cloudFiles.maxFileAge。

CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX

SQLSTATE:22000

无法为前缀为 <topic> 的主题 <prefix> 创建通知。 已经存在一个具有不同前缀的同名主题:<oldPrefix>。 尝试使用不同的资源后缀进行设置或删除现有设置。

CF_SCHEMA_LOG_DEEP_CLONE_FAILED

SQLSTATE:42000

无法从源架构日志克隆和迁移任何架构日志条目。

CF_SFTP_缺少密码或密钥文件

SQLSTATE:42000

必须为 SFTP 指定密码或密钥文件。

请在源 URI 中或通过 <passwordOption>指定密码,或通过 <keyFileOption>指定密钥文件内容。

CF_SFTP_NOT_ENABLED

SQLSTATE:0A000

未启用访问 SFTP 文件。 请联系 Databricks 支持部门获取帮助。

CF_SFTP_REQUIRE_UC_CLUSTER

SQLSTATE:0A000

访问 SFTP 文件需要启用 UC 的群集。 请联系 Databricks 支持部门获取帮助。

CF_SFTP_USERNAME_NOT_FOUND

SQLSTATE:42000

必须为 SFTP 指定用户名。

请在源 URI 中或通过 <option>提供用户名。

CF_SOURCE_DIRECTORY_PATH_REQUIRED

SQLSTATE:42000

请使用选项 path 提供源目录路径

CF_SOURCE_UNSUPPORTED

SQLSTATE:0A000

云文件源目前仅支持 S3、Azure Blob Storage (wasb/wasbs),以及 Azure Data Lake Gen1 (adl) 和 Gen2 (abfs/abfss) 路径。 路径:“<path>”,解析的 URI:“<uri>”。

CF_STATE_INCORRECT_SQL_PARAMS

SQLSTATE:42000

cloud_files_state 函数接受表示 cloudFiles 流的检查点目录的字符串参数或标识流式处理表的多部分 tableName,以及(可选)表示要加载其状态的检查点版本的第二个整数参数。 第二个参数也可能是“latest”,用于读取最新的检查点。 收到:<params>

CF_STATE_INVALID_CHECKPOINT_PATH

SQLSTATE:42000

输入检查点路径 <path> 无效。 路径不存在,或者找不到cloud_files源。

CF_STATE_INVALID_VERSION

SQLSTATE:42000

指定的版本 <version> 不存在,或在分析期间被删除。

CF_THREAD_IS_DEAD

SQLSTATE:22000

<threadName> 线程已死。

CF_UNABLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION

SQLSTATE:42000

无法从源检查点位置获取流检查点位置:<checkPointLocation>

CF_无法检测文件格式

SQLSTATE:42000

无法在 <fileSize> 采样文件中检测源文件格式,找到了 <formats>。 请指定格式。

CF_UNABLE_TO_EXTRACT_BUCKET_INFO

SQLSTATE:42000

无法提取存储桶信息。 路径:“<path>”,解析的 URI:“<uri>”。

CF_UNABLE_TO_EXTRACT_KEY_INFO(无法提取关键信息)

SQLSTATE:42000

无法提取密钥信息。 路径:“<path>”,解析的 URI:“<uri>”。

CF_UNABLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO

SQLSTATE:42000

无法提取存储帐户信息。路径:“<path>”,解析的 URI:“<uri>

CF_UNABLE_TO_LIST_EFFICIENTLY

SQLSTATE:22000

收到路径 <path>的目录重命名事件,但无法有效地列出此目录。 为了使流继续,请将选项“cloudFiles.ignoreDirRenames”设置为 true,并考虑使用 cloudFiles.backfillInterval 启用常规回填来处理此数据。

CF_UNEXPECTED_READ_LIMIT

SQLSTATE:22000

意外的 ReadLimit:<readLimit>

CF_UNKNOWN_OPTION_KEYS_ERROR

SQLSTATE:42000

找到未知选项键:

<optionList>

请确保提供的所有选项键都正确。 如果您想要跳过某个步骤,请执行以下操作:

选项验证步骤并忽略这些未知选项,你可以设置:

.option("cloudFiles.<validateOptions>", "false")

CF_UNKNOWN_READ_LIMIT(未知读取限制)

SQLSTATE:22000

未知 ReadLimit:<readLimit>

CF_UNSUPPORTED_CLEAN_SOURCE_MOVE

SQLSTATE:0A000

cleanSource “move” 模式配置不受支持。

有关更多详细信息,请参阅 CF_UNSUPPORTED_CLEAN_SOURCE_MOVE

CF_UNSUPPORTED_CLOUD_FILES_SQL_FUNCTION

SQLSTATE:0A000

创建自动加载程序流式处理源的 SQL 函数“cloud_files”仅在 Lakeflow 声明式管道中受支持。 请参阅以下位置的更多详细信息:

<docLink>

CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE

SQLSTATE:0A000

格式 <format> 不支持架构推理。 请指定架构。

CF_UNSUPPORTED_LOG_VERSION

SQLSTATE:0A000

UnsupportedLogVersion:支持的最大日志版本为 v<maxVersion>,但遇到的是 v<version>。 日志文件由较新版本的 DBR 生成,此版本无法读取。 请升级。

CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE

SQLSTATE:0A000

架构演变模式 <mode> 不支持用于格式:<format>。 请将架构演变模式设置为“none”。

CF_USE_DELTA_FORMAT

SQLSTATE:42000

此语法不支持从 Delta 表读取。 如果要使用 Delta 中的数据,请参阅文档:读取 Delta 表(<deltaDocLink>),或读取 Delta 表作为流源(<streamDeltaDocLink>)。 来自 Delta 的流式处理源已针对数据的增量使用进行了优化。

地理空间

EWKB_PARSE_ERROR

SQLSTATE:22023

分析 EWKB 时出错:<parseError> 位置处的 <pos>

GEOJSON_PARSE_ERROR

SQLSTATE:22023

在位置 <parseError> 解析 GeoJSON 时出错:<pos>

有关详细信息,请参阅 GEOJSON_PARSE_ERROR

GEO_ENCODER_SRID_MISMATCH_ERROR

SQLSTATE:42K09

无法对值进行编码 <type> ,因为提供要编码的值的 SRID <valueSrid> 与 SRID 类型不匹配: <typeSrid>

H3_INVALID_CELL_ID

SQLSTATE:22023

<h3Cell> 不是有效的 H3 单元格 ID

有关更多详细信息,请参阅 H3_INVALID_CELL_ID

H3_INVALID_GRID_DISTANCE_VALUE

SQLSTATE:22023

H3 网格距离 <k> 必须为非负

有关更多详细信息,请参阅 H3_INVALID_GRID_DISTANCE_VALUE

H3_INVALID_RESOLUTION_VALUE

SQLSTATE:22023

H3 分辨率 <r> 必须介于 <minR><maxR>之间(含两端)

有关更多详细信息,请参阅 H3_INVALID_RESOLUTION_VALUE

H3_NOT_ENABLED

SQLSTATE:0A000

禁用或不支持 <h3Expression>。 请考虑切换到支持 H3 表达式的层

有关更多详细信息,请参阅 H3_NOT_ENABLED

H3_五角大楼_遇到错误

SQLSTATE:22023

计算网格距离为 <h3Cell><k> 的六边形环时出现五边形

H3_UNDEFINED_GRID_DISTANCE

SQLSTATE:22023

未定义 <h3Cell1><h3Cell2> 之间的 H3 网格距离

ST_DIFFERENT_SRID_VALUES

SQLSTATE:22023

<sqlFunction>”的参数必须具有相同的 SRID 值。 找到的 SRID 值:<srid1><srid2>

ST_INVALID_ARGUMENT

SQLSTATE:22023

“”<sqlFunction><reason>

ST_INVALID_ARGUMENT_TYPE

SQLSTATE:22023

<sqlFunction>”的参数必须为 <validTypes> 类型

ST_INVALID_CRS_TRANSFORMATION_ERROR

SQLSTATE:22023

<sqlFunction>:从 SRID <srcSrid> 到 SRID <trgSrid> 无效或不受支持的 CRS 转换

ST_INVALID_ENDIANNESS_VALUE

SQLSTATE:22023

字节序“<e>”必须是“NDR”(小端)或“XDR”(大端)

ST_INVALID_GEOHASH_VALUE (地理哈希值无效)

SQLSTATE:22023

<sqlFunction>:无效的地理哈希值:“<geohash>”。 Geohash 值必须是有效的小写 base32 字符串,如 https://en.wikipedia.org/wiki/Geohash#Textual_representation 中所述

ST_INVALID_INDEX_VALUE

SQLSTATE:22023

<sqlFunction>:提供的地理空间值的索引 <index> 无效。

ST_INVALID_PRECISION_VALUE(无效的精度值)

SQLSTATE:22023

精度 <p> 必须在 <minP><maxP>之间(含)

ST_INVALID_SRID_VALUE (无效的SRID值)

SQLSTATE:22023

无效或不受支持的 SRID <srid>

ST_NOT_ENABLED

SQLSTATE:0A000

禁用或不支持 <stExpression>。 请考虑切换到支持 ST 表达式的层

ST_不支持的返回类型

SQLSTATE:0A000

查询中无法返回 GEOGRAPHYGEOMETRY 数据类型。 使用以下 SQL 表达式之一将其转换为标准交换格式:<projectionExprs>

WKB_PARSE_ERROR

SQLSTATE:22023

分析 WKB 时出错:<parseError> 位置处的 <pos>

有关更多详细信息,请参阅 WKB_PARSE_ERROR

WKT_PARSE_ERROR

SQLSTATE:22023

分析 WKT 时出错:<parseError> 位置处的 <pos>

有关更多详细信息,请参阅 WKT_PARSE_ERROR

统一目录

CONFLICTING_COLUMN_NAMES_ERROR

SQLSTATE:42711

<columnName> 与另一列冲突,该列具有相同名称但带有/不带尾随空格(例如,现有列名为 <columnName>)。 请使用其他名称重命名列。

CONNECTION_CREDENTIALS_NOT_SUPPORTED_FOR_ONLINE_TABLE_CONNECTION

SQLSTATE:未分配

<connectionType>类型的连接获取连接级别凭据的请求无效。 此类凭据仅适用于托管 PostgreSQL 连接。

CONNECTION_TYPE_NOT_ENABLED

SQLSTATE:未分配

连接类型“<connectionType>”未启用。 请启用连接以使用它。

DELTA_SHARING_READ_ONLY_RECIPIENT_EXISTS

SQLSTATE:未分配

已经存在一个具有相同共享标识符“<existingMetastoreId>”的 Recipient 对象“<existingRecipientName>”。

DELTA_SHARING_READ_ONLY_SECURABLE_KIND

SQLSTATE:未分配

Delta Sharing 安全对象类型 <securableKindName> 的数据是只读的,不能创建、修改或删除。

EXTERNAL_ACCESS_DISABLED_ON_METASTORE

SQLSTATE:未分配

由于已禁用元存储 <metastoreName> 的外部数据访问,非 Databricks 计算环境会拒绝凭据贩卖。 请联系你的元存储管理员,在元存储上启用“外部数据访问”配置。

不允许外部访问该表

SQLSTATE:未分配

由于表的类型是 <tableId>,ID 为 <securableKind> 的表无法从 Databricks 计算环境外部访问。 仅可以外部访问“TABLE_EXTERNAL”、“TABLE_DELTA_EXTERNAL”和“TABLE_DELTA”表类型。

EXTERNAL_USE_SCHEMA_ASSIGNED_TO_INCORRECT_SECURABLE_TYPE

SQLSTATE:未分配

特权 EXTERNAL USE SCHEMA 不适用于该实体 <assignedSecurableType>,只能用于架构或目录。 请从 <assignedSecurableType> 对象中删除该权限,并将其分配给架构或目录。

EXTERNAL_WRITE_NOT_ALLOWED_FOR_TABLE

SQLSTATE:未分配

id 为 <tableId> 的表无法从 Databricks 计算环境外部写入,因为它的类型 <securableKind>。 仅可以外部写入“TABLE_EXTERNAL”和“TABLE_DELTA_EXTERNAL”表类型。

FOREIGN_CATALOG_STORAGE_ROOT_MUST_SUPPORT_WRITES

SQLSTATE:未分配

<catalogType> 类型的外部目录的存储位置将用于卸载数据,因此不能设置为只读。

HMS_SECURABLE_OVERLAP_LIMIT_EXCEEDED

SQLSTATE:未分配

输入路径 <resourceType><url> 数量超过了重叠 HMS <overlapLimit> 允许的限制 (<resourceType>)。

INVALID_RESOURCE_NAME_DELTA_SHARING

SQLSTATE:未分配

使用资源名称不支持 Delta Sharing 请求

INVALID_RESOURCE_NAME_ENTITY_TYPE

SQLSTATE:未分配

提供的资源名称引用实体类型 <provided>,但应该引用 <expected>

INVALID_RESOURCE_NAME_METASTORE_ID

SQLSTATE:未分配

提供的资源名称引用不在当前请求范围内的元存储

LOCATION_OVERLAP

SQLSTATE:未分配

输入路径 URL“<path>”与“<caller>”调用中的 <overlappingLocation> 重叠。 <conflictingSummary><permissionErrorSuggestion>

MONGO_DB_SRV_CONNECTION_STRING_DOES_NOT_ALLOW_PORT

SQLSTATE:未分配

不允许创建或更新 MongoDB 连接,因为 MongoDB SRV 连接字符串不需要端口。

请删除端口,因为 SRV 连接字符串不需要端口。

REDSHIFT_FOREIGN_CATALOG_STORAGE_ROOT_MUST_BE_S3

SQLSTATE:未分配

Redshift 外部目录的存储根必须是 AWS S3。

SECURABLE_KIND_DOES_NOT_SUPPORT_LAKEHOUSE_FEDERATION

SQLSTATE:未分配

类型为 <securableKind> 的安全对象不支持 Lakehouse Federation。

SECURABLE_KIND_NOT_ENABLED

SQLSTATE:未分配

安全类型“<securableKind>”未启用。 如果这是与预览功能关联的安全对象类型,请在工作区设置中启用它。

SECURABLE_TYPE_DOES_NOT_SUPPORT_LAKEHOUSE_FEDERATION

SQLSTATE:未分配

类型为 <securableType> 的安全对象不支持 Lakehouse Federation。

SOURCE_TABLE_COLUMN_COUNT_EXCEEDS_LIMIT

SQLSTATE:未分配

源表包含的列数超过 <columnCount>。 请将列数减少到 <columnLimitation> 或更少。

UC_AAD_TOKEN_LIFETIME_TOO_SHORT

SQLSTATE:未分配

交换的 AAD 令牌生存期 <lifetime> 配置得太短。 请检查 Azure AD 设置,确保临时访问令牌至少具有一小时生存期。 https://learn.microsoft.com/azure/active-directory/develop/active-directory-configurable-token-lifetimes

UC_ABAC_DEPENDENCY_DIFFERING_RF_CM

SQLSTATE:未分配

依赖项“<dependency>”被多次引用,导致 ABAC 行筛选器或列掩码不同。

UC_ABAC_EVALUATION_ERROR

SQLSTATE:未分配

评估 <resource> 上的 ABAC 策略时出错。

UC_ABAC_EVALUATION_USER_ERROR

SQLSTATE:未分配

评估“<resource>”上的 ABAC 策略时出错。 策略“<policyName>”失败并显示消息: <message>

UC_ALTER_DLT_VIEW_OUTSIDE_DEFINING_PIPELINE

SQLSTATE:未分配

不允许在定义视图的管道外部更改视图“<viewFullName>”。 相反,请从定义它的管道更新视图定义(管道 ID:<owningPipelineId>)。

UC_AUTHZ_ACTION_NOT_SUPPORTED

SQLSTATE:未分配

不支持授权 <actionName>;请检查是否已为此资源类型实现 RPC

UC_BUILTIN_HMS_CONNECTION_CREATION_PERMISSION_DENIED

SQLSTATE:未分配

无法为内置 hive 元存储创建连接,因为用户:<userId> 不是工作区的管理员:<workspaceId>

UC_BUILTIN_HMS_CONNECTION_MODIFY_RESTRICTED_FIELD

SQLSTATE:未分配

尝试修改内置 HMS 连接“<connectionName>”中的受限字段。 仅可以更新“warehouse_directory”。

UC_CANNOT_RENAME_PARTITION_FILTERING_COLUMN

SQLSTATE:未分配

无法重命名表列 <originalLogicalColumn>,因为它在 <sharedTableName> 中用于分区筛选。 若要继续操作,可以从共享中删除表,重命名列,然后再次与所需的分区筛选列共享。 不过,这可能会中断收件人的流式处理查询。

UC_CHILD_CREATION_FORBIDDEN_FOR_NON_UC_CLUSTER

SQLSTATE:未分配

无法在 <parentSecurableType> '<parentSecurable>' 下创建 <securableType> '<securable>',因为请求不是来自 UC 群集。

UC_云存储访问失败

SQLSTATE:未分配

无法访问云存储:<errMsg> exceptionTraceId=<exceptionTraceId>

UC_CONFLICTING_CONNECTION_OPTIONS

SQLSTATE:未分配

无法使用用户名/密码和 oauth 身份验证选项创建连接。 请选择一个。

UC_CONNECTION_CREDENTIALS_MAXIMUM_REACHED

SQLSTATE:未分配

连接名称“<connectionName>”的凭据已达到最大数量。 请在创建新凭据之前删除现有凭据。

UC_CONNECTION_CREDENTIALS_NOT_EXIST_FOR_USER_WITH_LOGIN

SQLSTATE:未分配

用户身份 ('<userIdentity>') 的凭据未在连接“<connectionName>”中找到。 请先通过访问 <connectionPage> 登录到连接。

UC_CONNECTION_CREDENTIALS_TYPE_NOT_SUPPORTED

SQLSTATE:未分配

不支持为安全对象类型“”<securableType>创建凭据。 支持的安全对象类型: <allowedSecurableType>

UC_CONNECTION_EXISTS_FOR_CREDENTIAL

SQLSTATE:未分配

凭据“<credentialName>”有一个或多个依赖连接。 可以使用强制选项继续更新或删除凭据,但使用此凭据的连接可能不再有效。

UC_CONNECTION_EXPIRED_ACCESS_TOKEN

SQLSTATE:未分配

与连接关联的访问令牌已过期。 请更新连接以重启 OAuth 流以检索令牌。

UC_CONNECTION_EXPIRED_REFRESH_TOKEN

SQLSTATE:未分配

与连接关联的刷新令牌已过期。 请更新连接以重启 OAuth 流以检索新的令牌。

UC连接处于失败状态

SQLSTATE:未分配

连接处于 FAILED 状态。 请使用有效的凭据更新连接以重新激活连接。

UC_CONNECTION_MISSING_OPTION

SQLSTATE:未分配

安全类型“<securableType>”的连接必须包括以下选项:<requiredOptions>

UC_CONNECTION_MISSING_REFRESH_TOKEN

SQLSTATE:未分配

没有与连接关联的刷新令牌。 请更新标识提供者中的 OAuth 客户端集成以返回刷新令牌,并更新或重新创建连接以重启 OAuth 流并检索所需的令牌。

UC_CONNECTION_OAUTH_EXCHANGE_FAILED

SQLSTATE:未分配

OAuth 令牌交换失败,HTTP 状态代码 <httpStatus>。 返回的服务器响应或异常消息为:<response>

不支持的UC连接选项

SQLSTATE:未分配

安全对象类型<securableType>的连接不支持以下选项:<optionsNotSupported>. 支持的选项:<allowedOptions>

UC_COORDINATED_COMMITS_NOT_ENABLED

SQLSTATE:未分配

未启用对协调提交的支持。 请联系 Databricks 支持部门。

UC_CREATE_FORBIDDEN_UNDER_INACTIVE_SECURABLE

SQLSTATE:未分配

无法创建 <securableType> '<securableName>',因为它位于非活动的 <parentSecurableType> '<parentSecurableName>' 下。 请删除父级安全对象并重新创建父级。

UC_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED

SQLSTATE:未分配

未能解析给定的访问连接器 ID:<accessConnectorId>。 请验证其格式并重试。

UC_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN

SQLSTATE:未分配

未能获取 AAD 令牌以对访问连接器执行云权限验证。 请重试该操作。

UC_CREDENTIAL_INVALID_CLOUD_PERMISSIONS

SQLSTATE:未分配

注册凭据需要通过 ID 为 <accessConnectorId> 的相应访问连接器提供参与者角色。 请联系你的帐户管理员。

UC_CREDENTIAL_INVALID_CREDENTIAL_TYPE_FOR_PURPOSE

SQLSTATE:未分配

凭据类型“<credentialType>”不支持用途“<credentialPurpose>”。

UC_CREDENTIAL_PERMISSION_DENIED

SQLSTATE:未分配

只有帐户管理员可以创建或更新类型为 <storageCredentialType>的凭据。

UC凭证信任策略是开放的

SQLSTATE:未分配

IAM 角色的信任策略,以允许 Databricks 帐户承担该角色应需要外部 ID。请联系帐户管理员以添加外部 ID 条件。 此行为是为了防范困惑代理问题 (https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html)。

UC_CREDENTIAL_UNPRIVILEGED_SERVICE_PRINCIPAL_NOT_SUPPORTED

SQLSTATE:未分配

服务主体无法使用 CREATE STORAGE CREDENTIAL 特权来注册托管标识。 若要注册托管标识,请为服务主体分配帐户管理员角色。

UC_CREDENTIAL_WORKSPACE_API_PROHIBITED

SQLSTATE:未分配

帐户级 API 不支持以非帐户管理员身份创建或更新凭据。 请改用工作区级 API。

UC_DBR_TRUST_VERSION_TOO_OLD

SQLSTATE:未分配

正在使用的 Databricks Runtime 不再支持此操作。 请使用最新版本(可能需要重启群集)。

UC_DELTA_UNIVERSAL_FORMAT_CANNOT_PARSE_ICEBERG_VERSION

SQLSTATE:未分配

无法从元数据位置 <metadataLocation> 分析 Iceberg 表版本。

UC_DELTA_UNIVERSAL_FORMAT_CONCURRENT_WRITE

SQLSTATE:未分配

检测到对同一冰山元数据版本的并发更新。

UC_DELTA_UNIVERSAL_FORMAT_INVALID_METADATA_LOCATION

SQLSTATE:未分配

提交的元数据位置 <metadataLocation> 无效。 它不是表的根目录 <tableRoot> 的子目录。

UC_DELTA_UNIVERSAL_FORMAT_MISSING_FIELD_CONSTRAINT

SQLSTATE:未分配

提供的 delta iceberg 格式转换信息缺少必填字段。

UC_DELTA_UNIVERSAL_FORMAT_NON_CREATE_CONSTRAINT

SQLSTATE:未分配

不支持设置有关创建 delta iceberg 格式的信息。

UC_DELTA_UNIVERSAL_FORMAT_TOO_LARGE_CONSTRAINT

SQLSTATE:未分配

提供的 delta iceberg 格式转换信息太大。

UC_DELTA_UNIVERSAL_FORMAT_UPDATE_INVALID

SQLSTATE:未分配

只能在启用了统一的 Delta 表上更新统一元数据。

UC_依赖深度已超限 (UC_DEPENDENCY_DEPTH_LIMIT_EXCEEDED)

SQLSTATE:未分配

<resourceType> '<ref>' 深度超过限制(或存在循环引用)。

UC_DEPENDENCY_DOES_NOT_EXIST

SQLSTATE:未分配

<resourceType> '<ref>' 无效,因为基础资源之一不存在。 <cause>

UC_DEPENDENCY_PERMISSION_DENIED

SQLSTATE:未分配

<resourceType> '<ref>' 没有足够的权限执行,因为基础资源之一的所有者授权检查失败。 <cause>

重复连接 (UC_DUPLICATE_CONNECTION)

SQLSTATE:未分配

已存在具有相同 URL 的名为“'”<connectionName>的连接。 请要求所有者使用该连接的权限,而不是创建重复连接。

UC_DUPLICATE_FABRIC_CATALOG_CREATION

SQLSTATE:未分配

尝试创建 URL 为“<storageLocation>”的 Fabric 目录,该目录与现有目录匹配,这是不允许的。

UC_DUPLICATE_TAG_ASSIGNMENT_CREATION

SQLSTATE:未分配

具有标记键的标记分配 <tagKey> 已存在

UC实体不存在对应的在线集群

SQLSTATE:未分配

实体 <securableType> <entityId> 没有相应的联机群集。

UC_ERROR_CODE_XWYEY

SQLSTATE:未分配

如果此问题持续存在,请联系 Databricks 支持并提供错误代码 #UC-XWYEY

UC_EXCEEDS_MAX_FILE_LIMIT

SQLSTATE:未分配

文件数超过 <maxFileResults>。 请指定 [max_results] 以限制返回的文件数。

UC_EXTERNAL_LOCATION_OP_NOT_ALLOWED

SQLSTATE:未分配

无法 <opName> <extLoc> <reason><suggestion>

UC_功能已禁用

SQLSTATE:未分配

<featureName> 当前已在 UC 中禁用。

UC_FOREIGN_CATALOG_FOR_CONNECTION_TYPE_NOT_SUPPORTED

SQLSTATE:未分配

不支持为连接类型“<connectionType>”创建外部目录。 此连接类型只能用于创建托管引入管道。 有关详细信息,请参阅 Databricks 文档。

UC_FOREIGN_CREDENTIAL_CHECK_ONLY_FOR_READ_OPERATIONS

SQLSTATE:未分配

只能检索外表的 READ 凭据。

UC_FOREIGN_HMS_SHALLOW_CLONE_MISMATCH

SQLSTATE:未分配

对于在外部 Hive 元存储目录中创建的浅克隆,基表和克隆表必须位于同一目录中。 基表“”位于目录“<baseTableName><baseCatalogName>中,克隆表”<cloneTableName>“位于目录”“<cloneCatalogName>中。

UC_FOREIGN_KEY_CHILD_COLUMN_LENGTH_MISMATCH

SQLSTATE:未分配

外键 <constraintName> 子列和父列的大小不同。

UC_FOREIGN_KEY_COLUMN_MISMATCH

SQLSTATE:未分配

外键父列与引用的主键子列不匹配。 外键父列是(<parentColumns>),主键子列是(<primaryKeyChildColumns>)。

UC_FOREIGN_KEY_COLUMN_TYPE_MISMATCH

SQLSTATE:未分配

外键子列类型与父列类型不匹配。 外键子列 <childColumnName> 具有类型 <childColumnType>,父列 <parentColumnName> 具有类型 <parentColumnType>

UC_GCP_INVALID_PRIVATE_KEY(无效的私钥)

SQLSTATE:未分配

访问被拒绝。 原因:服务帐户私钥无效。

UC_GCP_无效的私钥JSON格式

SQLSTATE:未分配

Google 服务帐户 OAuth 私钥必须是包含必填字段的有效 JSON 对象,请确保提供从服务帐户详细信息页面的“KEYS”部分生成的完整 JSON 文件。

UC_GCP_INVALID_PRIVATE_KEY_JSON_FORMAT_MISSING_FIELDS

SQLSTATE:未分配

Google 服务帐户 OAuth 私钥必须是包含必填字段的有效 JSON 对象,请确保提供从服务帐户详细信息页面的“KEYS”部分生成的完整 JSON 文件。 缺少的字段为 <missingFields>

UC_IAM_ROLE_NON_SELF_ASSUMING

SQLSTATE:未分配

发现此存储凭据的 IAM 角色不是自假设的。 请检查角色的信任和 IAM 策略,以确保根据 Unity 目录存储凭据文档,你的 IAM 角色可以自担。

UC_ICEBERG_COMMIT_CONFLICT

SQLSTATE:未分配

无法提交 <tableName>:元数据位置 <baseMetadataLocation> 已从 <catalogMetadataLocation>更改。

UC_ICEBERG_COMMIT_INVALID_TABLE

SQLSTATE:未分配

无法对非托管 Iceberg 表执行托管 Iceberg 提交:<tableName>

UC_ICEBERG_COMMIT_MISSING_FIELD_CONSTRAINT

SQLSTATE:未分配

提供的 Managed Iceberg 提交信息缺少必填字段。

UC_ID_MISMATCH

SQLSTATE:未分配

<type> <name> 没有 ID <wrongId>。 请重试该操作。

UC_INVALID_ACCESS_BRICKSTORE_PG_CONNECTION

SQLSTATE:未分配

对数据库实例的访问无效。 <reason>

UC_INVALID_ACCESS_DBFS_ENTITY

SQLSTATE:未分配

在联合目录 <securableType> <securableName>中,访问 <catalogName> 是无效的。 <reason>

UC_INVALID_CLOUDFLARE_ACCOUNT_ID (无效的Cloudflare账户ID)

SQLSTATE:未分配

Cloudflare 帐户 ID 无效。

UC_INVALID_CREDENTIAL_CLOUD

SQLSTATE:未分配

凭据云提供商“<cloud>”无效。 允许的云提供商“<allowedCloud>”。

UC_INVALID_CREDENTIAL_PURPOSE_VALUE

SQLSTATE:未分配

凭据的“purpose”值“<value>”无效。 允许的值“<allowedValues>”。

UC_INVALID_CREDENTIAL_TRANSITION

SQLSTATE:未分配

无法将连接从 <startingCredentialType> 更新为 <endingCredentialType>。 唯一有效的转换是从基于用户名/密码的连接到基于 OAuth 令牌的连接。

UC_INVALID_CRON_STRING_FABRIC

SQLSTATE:未分配

cron 字符串无效。 发现:“<cronString>”解析异常:“<message>

UC_INVALID_DIRECT_ACCESS_MANAGED_TABLE

SQLSTATE:未分配

直接访问托管表 <tableName> 无效。 确保未定义源表和管道定义。

UC_INVALID_EMPTY_STORAGE_LOCATION

SQLSTATE:未分配

目录“<catalogName>”中 <securableType> '<securableName>' 的存储位置意外为空。 若要修复此错误,请运行 DESCRIBE SCHEMA <catalogName><securableName> 并刷新此页面。

UC_INVALID_OPTIONS_UPDATE

SQLSTATE:未分配

提供的更新选项无效。 无效选项:<invalidOptions>。 允许的选项:<allowedOptions>

UC_INVALID_OPTION_VALUE

SQLSTATE:未分配

<option>”的值“<value>”无效。 允许的值“<allowedValues>”。

UC_INVALID_OPTION_VALUE_EMPTY

SQLSTATE:未分配

<option>”不能为空。 请输入非空值。

UC_INVALID_POLICY_CONDITION

SQLSTATE:未分配

策略“”<policyName>中的条件无效。 编译错误,消息为“<message>”。

UC_INVALID_R2_ACCESS_KEY_ID (无效的R2访问密钥ID)

SQLSTATE:未分配

R2 访问密钥 ID 无效。

UC_INVALID_R2_SECRET_ACCESS_KEY (无效的 R2 密钥访问权限)

SQLSTATE:未分配

R2 机密访问密钥无效。

UC_INVALID_UPDATE_ON_SYSTEM_WORKSPACE_ADMIN_GROUP_OWNED_SECURABLE

SQLSTATE:未分配

无法更新 <securableType> '<securableName>',因为它归内部组所有。 请联系 Databricks 支持部门了解更多详细信息。

UC_INVALID_WASBS_EXTERNAL_LOCATION_STORAGE_CREDENTIAL

SQLSTATE:未分配

如果存储凭据 <storageCredentialName> 未与 DBFS 根关联,则禁止创建 wasbs 外部位置。

UC_LOCATION_INVALID_SCHEME

SQLSTATE:未分配

存储位置的 URI 方案无效:<scheme>

UC_MALFORMED_OAUTH_SERVER_RESPONSE

SQLSTATE:未分配

令牌服务器的响应缺少字段 <missingField>。 返回的服务器响应为:<response>

UC_METASTORE_ASSIGNMENT_STATUS_INVALID

SQLSTATE:未分配

<metastoreAssignmentStatus>”无法分配。 仅支持 MANUALLY_ASSIGNABLEAUTO_ASSIGNMENT_ENABLED

UC_METASTORE_CERTIFICATION_NOT_ENABLED

SQLSTATE:未分配

未启用Metastore认证。

UC_METASTORE_DB_SHARD_MAPPING_NOT_FOUND

SQLSTATE:未分配

由于内部错误,无法检索元存储到元存储 ID 的数据库分片映射 <metastoreId>。 请联系 Databricks 支持部门。

UC_METASTORE_HAS_ACTIVE_MANAGED_ONLINE_CATALOGS

SQLSTATE:未分配

元存储 <metastoreId> 具有 <numberManagedOnlineCatalogs> 托管联机目录。 请显式删除它们,然后重试元存储删除。

UC_METASTORE_STORAGE_ROOT_CREDENTIAL_UPDATE_INVALID

SQLSTATE:未分配

更新元存储根位置时,无法定义元存储根凭据。 将从元存储父外部位置提取凭据。

UC_METASTORE_STORAGE_ROOT_DELETION_INVALID

SQLSTATE:未分配

删除元存储根位置失败。 <reason>

UC_METASTORE_STORAGE_ROOT_READ_ONLY_INVALID

SQLSTATE:未分配

元存储的根 <securableType> 不能为只读。

UC_METASTORE_STORAGE_ROOT_UPDATE_INVALID

SQLSTATE:未分配

设置元存储根目录后,无法更新元存储根。

UC_MODEL_INVALID_STATE

SQLSTATE:未分配

无法为状态为 <modelVersionStatus> 的模型版本 <modelVersion> 生成临时“<opName>”凭据。 “<opName>”凭据只能为状态为 <validStatus> 的模型版本生成。

UC_NO_ORG_ID_IN_CONTEXT

SQLSTATE:未分配

尝试访问组织 ID(或工作区 ID),但上下文没有。

UC_在线目录不可变更

SQLSTATE:未分配

<rpcName> 请求更新 <fieldName>。 使用联机存储计算选项卡修改联机目录的注释、所有者和 isolationMode 以外的任何内容。

UC_ONLINE_CATALOG_QUOTA_EXCEEDED

SQLSTATE:未分配

无法在元存储中创建超过 <quota> 个联机存储,并且已存在 <currentCount>。 您可能无法访问任何现有的在线商店。 请联系数据存储管理员,获取访问权限或进一步说明。

UC_ONLINE_INDEX_CATALOG_INVALID_CRUD

SQLSTATE:未分配

联机索引目录必须通过 /vector-search API 进行 <action>

UC_ONLINE_INDEX_CATALOG_NOT_MUTABLE

SQLSTATE:未分配

<rpcName> 请求更新 <fieldName>。 使用 /vector-search API 修改联机索引目录的注释、所有者和 isolationMode 以外的任何内容。

UC_ONLINE_INDEX_CATALOG_QUOTA_EXCEEDED

SQLSTATE:未分配

无法在元存储中创建超过 <quota> 个联机索引目录,并且已存在 <currentCount>。 你可能无权访问任何现有的联机索引目录。 请联系数据存储管理员,获取访问权限或进一步说明。

UC_ONLINE_INDEX_INVALID_CRUD

SQLSTATE:未分配

联机索引必须通过 /vector-search API 进行 <action>

UC_ONLINE_STORE_INVALID_CRUD

SQLSTATE:未分配

必须通过联机存储计算选项卡 <action> 联机存储。

UC_ONLINE_TABLE_COLUMN_NAME_TOO_LONG

SQLSTATE:未分配

源表列名 <columnName> 太长。 最大长度为 <maxLength> 个字符。

UC_ONLINE_TABLE_PRIMARY_KEY_COLUMN_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT

SQLSTATE:未分配

<columnName> 不能用作联机表的主键列,因为它不属于源表的现有 PRIMARY KEY 约束的一部分。 有关详细信息,请参阅 <docLink>

UC_ONLINE_TABLE_TIMESERIES_KEY_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT

SQLSTATE:未分配

<columnName> 不能用作联机表的超时键,因为它不是源表现有 PRIMARY KEY 约束的超时列。 有关详细信息,请参阅 <docLink>

UC_ONLINE_VIEWS_PER_SOURCE_TABLE_QUOTA_EXCEEDED

SQLSTATE:未分配

无法为每个源表创建 <quota> 个以上的联机表。

UC_ONLINE_VIEW_ACCESS_DENIED

SQLSTATE:未分配

访问资源 <resourceName> 需要使用无服务器 SQL 仓库。 请确保用于在 UI 中执行查询或查看数据库目录的仓库是无服务器的。 有关详细信息,请参阅 <docLink>

UC_ONLINE_VIEW_CONTINUOUS_QUOTA_EXCEEDED

SQLSTATE:未分配

无法在联机存储中创建超过 <quota> 连续联机视图,并且已存在 <currentCount>。 您可能无法访问任何现有的在线视图。 请联系您的在线商店管理员,以授予访问权限或进一步说明。

UC_ONLINE_VIEW 不支持 DMK

SQLSTATE:未分配

不能使用 Databricks 托管密钥在存储位置下创建 <tableKind>。 请在存储位置中选择一个不同的架构/目录,而不使用 Databricks 托管密钥加密。

UC_ONLINE_VIEW_INVALID_CATALOG

SQLSTATE:未分配

具有创建 <catalogName> 的种类 <catalogKind> 的目录 <tableKind> 无效。 <tableKind> 只能在 <validCatalogKinds> 类型的目录下创建。

UC_ONLINE_VIEW_INVALID_SCHEMA

SQLSTATE:未分配

要在其中创建 <schemaName> 的类型 <schemaKind> 的架构 <tableKind> 无效。 <tableKind> 只能在特定类型的架构下创建:<validSchemaKinds>

UC_ONLINE_VIEW_INVALID_TTL_TIME_COLUMN_TYPE

SQLSTATE:未分配

<columnName> 类型的列 <columnType> 不能用作 TTL 时间列。 允许的类型是 <supportedTypes>

UC_OPERATION_NOT_SUPPORTED

SQLSTATE:未分配

Unity Catalog 不支持该操作。 <detailedMessage>

UC_OUT_OF_AUTHORIZED_PATHS_SCOPE

SQLSTATE:未分配

授权路径错误。 目录的授权路径中未定义 <securableType> 位置 <location><catalogName>。 请要求目录所有者将路径添加到目录上定义的授权路径列表中。

UC_OVERLAPPED_AUTHORIZED_PATHS

SQLSTATE:未分配

“authorized_paths”选项包含重叠路径:<overlappingPaths>。 确保每个路径都是唯一的,并且不会与列表中的其他人相交。

UC_PAGINATION_AND_QUERY_ARGS_MISMATCH

SQLSTATE:未分配

查询参数“<arg>”设置为“<received>”,这与第一次分页调用中使用的值 ('<expected>') 不同。

UC_PATH_FILTER_ALLOWLIST_VIOLATION

SQLSTATE:未分配

路径“<targetPath>”与凭据“<credentialName>”不允许。 请确保该路径是以下列表中的元素的子路径:“”。<allowlist>

UC_PATH_TOO_LONG

SQLSTATE:未分配

输入路径太长。 允许的长度:<maxLength>。 输入长度:<inputLength>。 输入:<path>...

UC_PER_METASTORE_DATABASE_CONCURRENCY_LIMIT_EXCEEDED

SQLSTATE:未分配

元存储 <metastoreId> 的并发限制已超出。 请稍后重试。 如果问题仍然存在,请联系支持人员。 错误代码 #UC-<errorCodeArbitraryFiveLettersUpperCase>

UC_POSTGRESQL_ONLINE_VIEWS_PER_SOURCE_TABLE_QUOTA_EXCEEDED

SQLSTATE:未分配

无法为每个源表创建多个 <quota> 同步的数据库表。

UC_PRIMARY_KEY_ON_NULLABLE_COLUMN

SQLSTATE:未分配

无法创建主键 <constraintName>,因为其子列 <childColumnNames> 可为 null。 请更改列的可为 null 性,然后重试。

UC_REQUEST_TIMEOUT

SQLSTATE:未分配

此操作花费的时间过长。

UC_ROOT_STORAGE_S3_BUCKET_NAME_CONTAINS_DOT

SQLSTATE:未分配

Unity Catalog 不支持包含点的根存储 S3 存储桶名称:<uri>

UC_SCHEMA_EMPTY_STORAGE_LOCATION

SQLSTATE:未分配

目录“<catalogName>”中架构“<schemaName>”的存储位置意外为空。 请确保架构使用 <validPathSchemesListStr> 的路径方案。

UC_SERVERLESS_UNTRUSTED_DOMAIN_STORAGE_TOKEN_MINTING

SQLSTATE:未分配

无服务器笔记本无法从 Unity 目录中检索临时存储凭据。

UC_STORAGE_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED

SQLSTATE:未分配

未能解析给定的访问连接器 ID:<accessConnectorId>。 请验证其格式并重试。

UC_STORAGE_CREDENTIAL_DBFS_ROOT_CREATION_PERMISSION_DENIED

SQLSTATE:未分配

无法为 DBFS 根目录创建存储凭据,因为用户:<userId> 不是工作区的管理员:<workspaceId>

UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_DBFS_ENABLED

SQLSTATE:未分配

启用了防火墙的 DBFS 的工作区尚不支持 DBFS 根存储凭据

UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_NOT_SUPPORTED

SQLSTATE:未分配

尚不支持当前工作区的 DBFS 根存储凭据

UC_STORAGE_CREDENTIAL_DBFS_ROOT_WORKSPACE_DISABLED

SQLSTATE:未分配

未为工作区 <workspaceId> 启用 DBFS 根

UC_STORAGE_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN

SQLSTATE:未分配

未能获取 AAD 令牌以对访问连接器执行云权限验证。 请重试该操作。

UC_STORAGE_CREDENTIAL_INVALID_CLOUD_PERMISSIONS

SQLSTATE:未分配

注册存储凭据需要通过 ID 为 <accessConnectorId> 的相应访问连接器提供参与者角色。 请联系你的帐户管理员。

UC_STORAGE_CREDENTIAL_PERMISSION_DENIED

SQLSTATE:未分配

只有帐户管理员可以创建或更新类型为 <storageCredentialType>的存储凭据。

UC_STORAGE_CREDENTIAL_SERVICE_PRINCIPAL_MISSING_VALIDATION_TOKEN

SQLSTATE:未分配

缺少服务主体的验证令牌。 请在“X-Databricks-Azure-SP-Management-Token”请求标头中提供有效的 ARM 范围的 Entra ID 令牌,然后重试。 有关详细信息,请查看 https://docs.databricks.com/api/workspace/storagecredentials

UC_STORAGE_CREDENTIAL_TRUST_POLICY_IS_OPEN

SQLSTATE:未分配

IAM 角色的信任策略,以允许 Databricks 帐户承担该角色应需要外部 ID。请联系帐户管理员以添加外部 ID 条件。 此行为是为了防范困惑代理问题 (https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html)。

UC_STORAGE_CREDENTIAL_UNPRIVILEGED_SERVICE_PRINCIPAL_NOT_SUPPORTED

SQLSTATE:未分配

服务主体无法使用 CREATE STORAGE CREDENTIAL 特权来注册托管标识。 若要注册托管标识,请为服务主体分配帐户管理员角色。

UC_STORAGE_CREDENTIAL_WASBS_NOT_DBFS_ROOT

SQLSTATE:未分配

位置 <location> 不在 DBFS 根目录内,因此我们无法创建存储凭据 <storageCredentialName>

UC_STORAGE_CREDENTIAL_WORKSPACE_API_PROHIBITED

SQLSTATE:未分配

帐户级 API 不支持在非帐户管理员身份下创建或更新存储凭据。 请改用工作区级 API。

UC_STORAGE_CREDENTIAL_WS_BUCKET_INVALID_LOCATION

SQLSTATE:未分配

位置 <requestedLocation> 不在允许的上下文中 <allowedLocation>

UC_STORAGE_CREDENTIAL_WS_INTERNAL_CATALOG_NOT_SUPPORTED

SQLSTATE:未分配

当前工作区的工作区内部目录存储凭据尚不支持。

UC_SYSTEM_WORKSPACE_GROUP_PERMISSION_UNSUPPORTED

SQLSTATE:未分配

无法向系统生成的组 <securableType> 授予对 <principal> 的权限。

UC_TABLE_IS_NOT_CATALOG_OWNED

SQLSTATE:未分配

对表“<tableId>”执行提交/获取提交的请求需要在表上启用目录拥有功能。

UC_TAG_ASSIGNMENT_WITH_KEY_DOES_NOT_EXIST

SQLSTATE:未分配

标记键为 <tagKey> 的标记分配不存在

UC_TEMPORARY_CREDENTIAL_OPERATION_NOT_SUPPORTED

SQLSTATE:未分配

不支持临时凭据操作。

UC_UNDROP_RESOURCE_ID_ALREADY_EXISTS

SQLSTATE:未分配

无法取消删除“<resourceType>”,因为已存在 ID 为“<resourceId>”的“<resourceType>”。

UC_UNDROP_RESOURCE_NAME_ALREADY_EXISTS

SQLSTATE:未分配

无法取消删除“<resourceType>”,因为已存在名称为“<resourceName>”的“<resourceType>”。

UC_UNDROP_RESOURCE_NOT_READY

SQLSTATE:未分配

无法取消删除“<resourceType>”,因为 ID 为“<resourceId>”的“<resourceType>”尚未准备好恢复,请稍后重试。

UC_UNDROP_RESOURCE_PAST_RECOVERABLE_WINDOW

SQLSTATE:未分配

无法取消删除“<resourceType>”,因为 ID 为“<resourceId>”的“<resourceType>”已超出支持的“<maxRestorationPeriodDay>”天恢复期限。

UC_UNSUPPORTED_HTTP_CONNECTION_BASE_PATH

SQLSTATE:未分配

提供的基路径无效,基本路径应类似于 /api/resources/v1。 不支持的路径:<path>

UC_UNSUPPORTED_HTTP_CONNECTION_HOST

SQLSTATE:未分配

提供的主机名无效,主机名应类似于 https://www.databricks.com,且不应包含路径后缀。 不支持的主机:<host>

UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH

SQLSTATE:未分配

外部位置/卷/表路径仅支持基本 Latin/Latin-1 ASCII 字符。 不支持的路径:<path>

UC_UPDATE_FORBIDDEN_FOR_PROVISIONING_SECURABLE

SQLSTATE:未分配

无法更新 <securableType> '<securableName>',因为它正在预配中。

UC_WRITE_CONFLICT

SQLSTATE:未分配

<type> <name> 已被另一个请求修改。 请重试该操作。

UNITY_CATALOG_EXTERNAL_COORDINATED_COMMITS_REQUEST_DENIED

SQLSTATE:未分配

出于安全原因,拒绝从 Databricks Unity Catalog 启用的计算环境外部对表“<tableId>”执行提交/获取提交的请求。 请联系 Databricks 支持部门以与 Unity Catalog 集成。

UNITY_CATALOG_EXTERNAL_CREATE_STAGING_TABLE_REQUEST_DENIED

SQLSTATE:未分配

出于安全原因,拒绝从 Databricks Unity Catalog 启用的计算环境外部创建临时表“<tableFullName>”的请求。 请联系 Databricks 支持部门以与 Unity Catalog 集成。

UNITY_CATALOG_EXTERNAL_CREATE_TABLE_REQUEST_FOR_NON_EXTERNAL_TABLE_DENIED

SQLSTATE:未分配

出于安全原因,拒绝从 Databricks Unity Catalog 启用的计算环境外部创建非外部表“<tableFullName>”的请求。 请联系 Databricks 支持部门以与 Unity Catalog 集成。

UNITY_CATALOG_EXTERNAL_DELETE_TABLE_REQUEST_FOR_NON_EXTERNAL_TABLE_DENIED

SQLSTATE:未分配

不支持从 Databricks Unity Catalog 启用的计算环境外部删除非外部表“<tableFullName>”的请求。

UNITY_CATALOG_EXTERNAL_GENERATE_PATH_CREDENTIALS_DENIED

SQLSTATE:未分配

出于安全原因,拒绝从 Databricks Unity Catalog 启用的计算环境外部为路径“<path>”生成访问凭据的请求。 请联系 Databricks 支持部门以与 Unity Catalog 集成。

UNITY_CATALOG_EXTERNAL_GENERATE_TABLE_CREDENTIALS_DENIED

SQLSTATE:未分配

出于安全原因,拒绝从 Databricks Unity Catalog 启用的计算环境外部为表“<tableId>”生成访问凭据的请求。 请联系 Databricks 支持部门以与 Unity Catalog 集成。

UNITY_CATALOG_EXTERNAL_GET_FOREIGN_CREDENTIALS_DENIED

SQLSTATE:未分配

出于安全原因,拒绝从启用了 Databricks Unity 目录的计算环境外部获取安全对象的外部凭据的请求。

UNITY_CATALOG_EXTERNAL_UPDATA_METADATA_SNAPSHOT_DENIED

SQLSTATE:未分配

出于安全性,拒绝从启用了 Databricks Unity 目录的计算环境外部更新元数据快照的请求。

WRITE_CREDENTIALS_NOT_SUPPORTED_FOR_LEGACY_MANAGED_ONLINE_TABLE

SQLSTATE:未分配

获取联机目录中托管联机表的写入凭据的请求无效。

文件 API

FILES_API_API_IS_NOT_ENABLED

SQLSTATE:未分配

<api_name> 未启用 API

FILES_API_API_IS_NOT_ENABLED_FOR_CLOUD_PATHS

SQLSTATE:未分配

文件 API 的请求方法不支持云路径

FILES_API_AWS_ACCESS_DENIED

SQLSTATE:未分配

AWS 拒绝访问存储存储桶。

FILES_API_AWS_ALL_ACCESS_DISABLED

SQLSTATE:未分配

AWS 中已禁用对存储存储桶的所有访问。

FILES_API_AWS_BUCKET_DOES_NOT_EXIST

SQLSTATE:未分配

AWS 中不存在存储存储桶。

FILES_API_AWS_FORBIDDEN

SQLSTATE:未分配

AWS 禁止访问存储存储桶。

FILES_API_AWS_INVALID_AUTHORIZATION_HEADER

SQLSTATE:未分配

工作区配置错误:它必须与 AWS 工作区根存储存储桶位于同一区域。

FILES_API_AWS_INVALID_BUCKET_NAME

SQLSTATE:未分配

存储存储桶名称无效。

FILES_API_AWS_KMS_KEY_DISABLED

SQLSTATE:未分配

在 AWS 中禁用用于访问存储存储桶的已配置的 KMS 密钥。

FILES_API_AWS_UNAUTHORIZED

SQLSTATE:未分配

未经授权访问 AWS 资源。

FILES_API_AZURE_ACCOUNT_IS_DISABLED

SQLSTATE:未分配

存储帐户在 Azure 中处于禁用状态。

FILES_API_AZURE_AUTHORIZATION_PERMISSION_MISMATCH

SQLSTATE:未分配

授权权限不匹配。

FILES_API_AZURE_CONTAINER_DOES_NOT_EXIST

SQLSTATE:未分配

Azure 容器不存在。

FILES_API_AZURE_FORBIDDEN

SQLSTATE:未分配

Azure 禁止访问存储容器。

FILES_API_AZURE_HAS_A_LEASE

SQLSTATE:未分配

Azure 回应称该资源目前存在租约。 请稍后再试。

FILES_API_AZURE_INSUFFICIENT_ACCOUNT_PERMISSION

SQLSTATE:未分配

要访问的帐户没有足够的权限来执行此作。

FILES_API_AZURE_INVALID_STORAGE_ACCOUNT_CONFIGURATION

SQLSTATE:未分配

访问的帐户的配置不被支持。

FILES_API_AZURE_INVALID_STORAGE_ACCOUNT_NAME

SQLSTATE:未分配

无法访问 Azure 中的存储帐户:存储帐户名称无效。

FILES_API_AZURE_KEY_BASED_AUTHENTICATION_NOT_PERMITTED

SQLSTATE:未分配

Azure 中找不到 Key Vault 保管库。 请检查客户管理的密钥设置。

FILES_API_AZURE_KEY_VAULT_KEY_NOT_FOUND

SQLSTATE:未分配

Azure 密钥保管库密钥在 Azure 中找不到。 请检查客户管理的密钥设置。

FILES_API_AZURE_KEY_VAULT_VAULT_NOT_FOUND

SQLSTATE:未分配

Azure 中找不到 Key Vault 保管库。 请检查客户管理的密钥设置。

FILES_API_AZURE_MI_ACCESS_CONNECTOR_NOT_FOUND

SQLSTATE:未分配

找不到具有访问连接器的 Azure 托管标识凭据。 这可能是因为 IP 访问控制拒绝了你的请求。

FILES_API_AZURE_OPERATION_TIMEOUT

SQLSTATE:未分配

操作无法在允许的时间内完成。

FILES_API_AZURE_PATH_INVALID

SQLSTATE:未分配

请求的路径对 Azure 无效。

FILES_API_AZURE_PATH_IS_IMMUTABLE

SQLSTATE:未分配

请求的路径是不可变的。

FILES_API_AZURE_UNSUPPORTED_HEADER

SQLSTATE:未分配

在操作中指定的某个标头不受支持。

文件_API_无法解析_URL参数

SQLSTATE:未分配

无法分析 URL 参数。

FILES_API_CATALOG_NOT_FOUND

SQLSTATE:未分配

<unity_catalog_error_message>

FILES_API_CLOUD_RESOURCE_EXHAUSTED

SQLSTATE:未分配

<message>

FILES_API_CLOUD_STORAGE_PROVIDER_CONNECTION_ISSUE

SQLSTATE:未分配

存在连接问题,无法连接到<cloud_storage_provider>。 请稍后重试。

FILES_API_COLON_IS_NOT_SUPPORTED_IN_PATH

SQLSTATE:未分配

路径中不支持“:”字符。

FILES_API_CONSUMER_NETWORK_ZONE_NOT_ALLOWED

SQLSTATE:未分配

不允许从请求者网络区域“<requester_network_zone>”访问使用者网络区域“<consumer_network_zone>”。

FILES_API_CONTROL_PLANE_NETWORK_ZONE_NOT_ALLOWED

SQLSTATE:未分配

不允许 Databricks 控制平面网络区域。

FILES_API_DIRECTORIES_CANNOT_HAVE_BODIES

SQLSTATE:未分配

提供了正文,但目录不能包含文件正文

FILES_API_DIRECTORY_IS_NOT_EMPTY

SQLSTATE:未分配

目录不为空。 不支持对非空目录进行此操作。

文件接口目录未找到 (FILES_API_DIRECTORY_IS_NOT_FOUND)

SQLSTATE:未分配

找不到要访问的目录。

FILES_API_DMK_ENCRYPTION_ROOT_KEY_DISABLED

SQLSTATE:未分配

禁用客户管理的加密的根密钥。

FILES_API_DUPLICATED_HEADER

SQLSTATE:未分配

请求包含只允许一次的标头的多个副本。

FILES_API_DUPLICATE_QUERY_PARAMETER

SQLSTATE:未分配

查询参数“<parameter_name>”必须只出现一次,但却被多次提供。

FILES_API_EMPTY_BUCKET_NAME

SQLSTATE:未分配

DBFS 存储桶名称为空。

FILES_API_ENCRYPTION_KEY_PERMISSION_DENIED

SQLSTATE:未分配

用户无权访问加密密钥。

FILES_API_ENCRYPTION_KEY_RETRIEVAL_OPERATION_TIMEOUT

SQLSTATE:未分配

检索加密密钥的作无法在允许的时间内完成。

FILES_API_ENTITY_TOO_LARGE

SQLSTATE:未分配

对象超过允许的最大对象大小。

FILES_API_ERROR_EXPIRED_TTL

SQLSTATE:未分配

TTL 已过期。

FILES_API_ERROR_INVALID_TTL

SQLSTATE:未分配

TTL 无效。

FILES_API_ERROR_KEY_FOR_WORKSPACE_IS_NOT_FOUND

SQLSTATE:未分配

找不到工作区的密钥。

FILES_API_ERROR_MISSING_REQUIRED_PARAM

SQLSTATE:未分配

URL 缺少必需的参数。

FILES_API_ERROR_TTL_IN_THE_FUTURE

SQLSTATE:未分配

TTL 在未来。

FILES_API_ERROR_URL_INVALID_ISSUER_SHARD_NAME

SQLSTATE:未分配

颁发者分片名称无效。

FILES_API_EXPIRATION_TIME_MUST_BE_PRESENT

SQLSTATE:未分配

过期时间必须存在

FILES_API_EXPIRED_TOKEN

SQLSTATE:未分配

提供的令牌已过期。

FILES_API_EXPIRE_TIME_MUST_BE_IN_THE_FUTURE

SQLSTATE:未分配

ExpireTime 必须是未来时间

FILES_API_EXPIRE_TIME_TOO_FAR_IN_FUTURE

SQLSTATE:未分配

请求的 TTL 超过支持的最大限制(1 小时)

FILES_API_EXTERNAL_LOCATION_PATH_OVERLAP_OTHER_UC_STORAGE_ENTITY

SQLSTATE:未分配

<unity_catalog_error_message>

FILES_API_FILE_ALREADY_EXISTS

SQLSTATE:未分配

正在创建的文件已存在。

FILES_API_FILE_NOT_FOUND

SQLSTATE:未分配

找不到要访问的文件。

FILES_API_FILE_OR_DIRECTORY_ENDS_IN_DOT

SQLSTATE:未分配

不支持以“.”字符结尾的文件或目录。

FILES_API_FILE_SIZE_EXCEEDED

SQLSTATE:未分配

文件大小不应超过 <max_download_size_in_bytes> 字节,但发现了 <size_in_bytes> 字节。

FILES_API_GCP_ACCOUNT_IS_DISABLED

SQLSTATE:未分配

GCP 中已禁用对存储存储桶的访问。

FILES_API_GCP_BUCKET_DOES_NOT_EXIST

SQLSTATE:未分配

GCP 中不存在存储存储桶。

FILES_API_GCP_FORBIDDEN

SQLSTATE:未分配

GCP 禁止访问存储桶。

FILES_API_GCP_KEY_DISABLED_OR_DESTROYED

SQLSTATE:未分配

为该位置配置的客户管理的加密密钥已被禁用或销毁。

FILES_API_GCP_REQUEST_IS_PROHIBITED_BY_POLICY

SQLSTATE:未分配

策略禁止向存储桶发出的 GCP 请求,请检查 VPC 服务控制。

FILES_API_HOST_TEMPORARILY_NOT_AVAILABLE

SQLSTATE:未分配

云提供商主机暂时不可用;请稍后重试。

FILES_API_INVALID_CONTINUATION_TOKEN

SQLSTATE:未分配

提供的页面令牌无效。

FILES_API_INVALID_HOSTNAME

SQLSTATE:未分配

主机名无效。

FILES_API_INVALID_HTTP_METHOD

SQLSTATE:未分配

http 方法无效。 预期“<expected>”但得到“<actual>”。

FILES_API_INVALID_METASTORE_ID_HEADER

SQLSTATE:未分配

元存储 ID 标头无效。

FILES_API_INVALID_PAGE_TOKEN

SQLSTATE:未分配

页面令牌无效

FILES_API_INVALID_PATH

SQLSTATE:未分配

路径无效: <validation_error>

FILES_API_INVALID_RANGE

SQLSTATE:未分配

范围标头无效。

FILES_API_INVALID_RESOURCE_FULL_NAME

SQLSTATE:未分配

<unity_catalog_error_message>

FILES_API_INVALID_SESSION_TOKEN

SQLSTATE:未分配

会话令牌无效

FILES_API_INVALID_SESSION_TOKEN_TYPE

SQLSTATE:未分配

会话令牌类型无效。 预期“<expected>”但得到“<actual>”。

FILES_API_INVALID_TIMESTAMP

SQLSTATE:未分配

时间戳无效。

FILES_API_INVALID_UPLOAD_TYPE

SQLSTATE:未分配

上传类型无效。 预期“<expected>”但得到“<actual>”。

FILES_API_INVALID_URL_PARAMETER

SQLSTATE:未分配

作为参数传递的 URL 无效

FILES_API_INVALID_VALUE_FOR_OVERWRITE_QUERY_PARAMETER

SQLSTATE:未分配

查询参数“overwrite”必须为 true 和 false 之一,但实际为:<got_values>

FILES_API_INVALID_VALUE_FOR_QUERY_PARAMETER

SQLSTATE:未分配

查询参数“<parameter_name>”必须是以下项之一:<expected>,但为:<actual>

FILES_API_MALFORMED_REQUEST_BODY

SQLSTATE:未分配

格式不正确的请求正文

FILES_API_MANAGED_CATALOG_FEATURE_DISABLED

SQLSTATE:未分配

<unity_catalog_error_message>

FILES_API_METASTORE_NOT_FOUND

SQLSTATE:未分配

<unity_catalog_error_message>

FILES_API_METHOD_IS_NOT_ENABLED_FOR_JOBS_BACKGROUND_COMPUTE_ARTIFACT_STORAGE

SQLSTATE:未分配

作业后台计算项目存储不支持文件 API 请求的方法。

FILES_API_MISSING_CONTENT_LENGTH

SQLSTATE:未分配

请求中需要内容长度标头。

FILES_API_MISSING_QUERY_PARAMETER

SQLSTATE:未分配

查询参数“<parameter_name>”是必需的,但请求中缺少该参数。

FILES_API_MISSING_REQUIRED_PARAMETER_IN_REQUEST

SQLSTATE:未分配

请求缺少必需的参数。

FILES_API_MLFLOW_PERMISSION_DENIED

SQLSTATE:未分配

<mlflow_error_message>

FILES_API_MODEL_VERSION_IS_NOT_READY

SQLSTATE:未分配

模型版本尚未就绪

FILES_API_MULTIPART_UPLOAD_ABORT_PRESIGNED_URL_NOT_SUPPORTED

SQLSTATE:未分配

对存储在 <cloud_storage_provider>上的文件,预签名的 URL 不支持中止多部分上传。

FILES_API_MULTIPART_UPLOAD_EMPTY_PART_LIST

SQLSTATE:未分配

部件列表必须至少有一个元素,但为空。

FILES_API_MULTIPART_UPLOAD_INVALID_PART

SQLSTATE:未分配

找不到一个或多个指定部件。 部件可能尚未上传,或者指定的实体标记可能与部件的实体标记不匹配。

FILES_API_MULTIPART_UPLOAD_INVALID_PART_NUMBER

SQLSTATE:未分配

部件号必须大于或等于 <min> 且小于或等于 <max>

FILES_API_MULTIPART_UPLOAD_MISSING_ETAG

SQLSTATE:未分配

必须为存储在<cloud_storage_provider>上的文件提供ETag。 没有提供至少一个 ETag,或者提供的 ETag 为空。

FILES_API_MULTIPART_UPLOAD_MODIFIED_STORAGE_ENTITY_STATE

SQLSTATE:未分配

自上传启动以来,存储实体的内部状态已被修改,例如文件路径不指向同一基础云存储位置。 通过启动新的上传会话继续。

FILES_API_MULTIPART_UPLOAD_NON_TRAILING_PARTS_WITH_DIFFERENT_SIZES

SQLSTATE:未分配

作为多部分上传会话一部分上传的部件,对于存储在 <cloud_storage_provider> 上的文件,除了最后一个部件可以较小外,其他部件必须大小相同。

FILES_API_MULTIPART_UPLOAD_PART_SIZE_OUT_OF_RANGE

SQLSTATE:未分配

作为多部分上传会话的一部分上传的部分的大小必须大于或等于 <min> 且小于或等于 <max>

FILES_API_MULTIPART_UPLOAD_SESSION_NOT_FOUND

SQLSTATE:未分配

找不到上传会话。 它可能已中止或已完成。

FILES_API_MULTIPART_UPLOAD_UNORDERED_PART_LIST

SQLSTATE:未分配

部件列表必须由部件编号排序,但未排序。

FILES_API_NOT_ENABLED_FOR_PLACE

SQLSTATE:未分配

未为此工作区/帐户启用 <place> 的文件 API

FILES_API_NOT_SUPPORTED_FOR_INTERNAL_WORKSPACE_STORAGE

SQLSTATE:未分配

内部工作区存储不支持文件 API 请求的方法

FILES_API_OPERATION_MUST_BE_PRESENT

SQLSTATE:未分配

操作必须存在

FILES_API_OPERATION_TIMEOUT

SQLSTATE:未分配

操作超时。

文件_API_页面大小必须大于或等于零

SQLSTATE:未分配

page_size必须大于或等于 0

FILES_API_PATH_END_WITH_A_SLASH

SQLSTATE:未分配

以“/”字符结尾的路径表示目录。 此 API 不支持对目录的操作。

FILES_API_PATH_IS_A_DIRECTORY

SQLSTATE:未分配

给定的路径指向现有目录。 此 API 不支持对目录的操作。

FILES_API_PATH_IS_A_FILE

SQLSTATE:未分配

给定路径指向现有文件。 此 API 不支持对文件的操作。

FILES_API_PATH_IS_NOT_A_VALID_UTF8_ENCODED_URL

SQLSTATE:未分配

给定路径不是有效的 UTF-8 编码 URL

FILES_API_PATH_IS_NOT_ENABLED_FOR_DATAPLANE_PROXY

SQLSTATE:未分配

未为数据平面代理启用给定的路径

FILES_API_PATH_MUST_BE_PRESENT

SQLSTATE:未分配

路径必须存在

FILES_API_PATH_NOT_SUPPORTED (文件API路径不支持)

SQLSTATE:未分配

<rejection_message>

FILES_API_PATH_TOO_LONG

SQLSTATE:未分配

提供的文件路径太长。

FILES_API_PRECONDITION_FAILED

SQLSTATE:未分配

请求由于前置条件而失败。

FILES_API_PRESIGNED_URLS_FOR_MODELS_NOT_SUPPORTED

SQLSTATE:未分配

目前不支持用于模型的预签名 URL 的文件 API

FILES_API_R2_CREDENTIALS_DISABLED

SQLSTATE:未分配

目前不支持 R2。

FILES_API_RANGE_NOT_SATISFIABLE

SQLSTATE:未分配

请求的范围无法满足。

FILES_API_RECURSIVE_LIST_IS_NOT_SUPPORTED

SQLSTATE:未分配

不支持以递归方式列出文件。

FILES_API_REQUESTER_NETWORK_ZONE_UNKNOWN

SQLSTATE:未分配

无法推断请求者网络区域。

FILES_API_REQUEST_GOT_ROUTED_INCORRECTLY

SQLSTATE:未分配

请求路由不正确

文件_API请求必须包含账户信息

SQLSTATE:未分配

请求必须包含帐户信息

文件_API_请求_必须_包括_用户_信息

SQLSTATE:未分配

请求必须包含用户信息

文件API请求必须包含工作区信息

SQLSTATE:未分配

请求必须包含工作区信息

FILES_API_RESOURCE_IS_READONLY

SQLSTATE:未分配

资源为只读。

FILES_API_RESOURCE_NOT_FOUND

SQLSTATE:未分配

<unity_catalog_error_message>

FILES_API_SCHEMA_NOT_FOUND

SQLSTATE:未分配

<unity_catalog_error_message>

FILES_API_SECURE_URL_CANT_BE_ACCESSED

SQLSTATE:未分配

无法访问该 URL。

文件_API_签名_验证_失败

SQLSTATE:未分配

签名验证失败。

FILES_API_STORAGE_CONTEXT_IS_NOT_SET

SQLSTATE:未分配

无法访问此工作区的存储配置。

FILES_API_STORAGE_CREDENTIAL_NOT_FOUND

SQLSTATE:未分配

<unity_catalog_error_message>

FILES_API_TABLE_TYPE_NOT_SUPPORTED

SQLSTATE:未分配

不支持对 <table_type> 使用 Files API。

FILES_API_UC_AUTHENTICATION_FAILURE

SQLSTATE:未分配

<unity_catalog_error_message>

FILES_API_UC_IAM_ROLE_NON_SELF_ASSUMING

SQLSTATE:未分配

<unity_catalog_error_message>

FILES_API_UC_MODEL_INVALID_STATE

SQLSTATE:未分配

<unity_catalog_error_message>

FILES_API_UC_PERMISSION_DENIED

SQLSTATE:未分配

<unity_catalog_error_message>

FILES_API_UC_RESOURCE_EXHAUSTED

SQLSTATE:未分配

<message>

FILES_API_UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH

SQLSTATE:未分配

<unity_catalog_error_message>

FILES_API_UC_VOLUME_NAME_CHANGED

SQLSTATE:未分配

<unity_catalog_error_message>

FILES_API_UNEXPECTED_ERROR_WHILE_PARSING_URI

SQLSTATE:未分配

分析 URI 时出现意外错误

FILES_API_UNEXPECTED_QUERY_PARAMETERS

SQLSTATE:未分配

意外的查询参数: <unexpected_query_parameters>

FILES_API_UNKNOWN_METHOD

SQLSTATE:未分配

未知方法 <method>

FILES_API_UNKNOWN_SERVER_ERROR

SQLSTATE:未分配

未知服务器错误。

FILES_API_UNKNOWN_URL_HOST

SQLSTATE:未分配

URL 主机未知。

FILES_API_UNSUPPORTED_AUTHENTICATION_METHOD

SQLSTATE:未分配

请求未正确认证。

FILES_API_UNSUPPORTED_HTTP_METHOD

SQLSTATE:未分配

不支持 httpMethod。

FILES_API_UNSUPPORTED_PARAMETERS_COMBINATION

SQLSTATE:未分配

不支持参数组合。

FILES_API_UNSUPPORTED_PATH

SQLSTATE:未分配

文件 API 不支持提供的路径。 确保提供的路径不包含“../”或“./”序列实例。 确保提供的路径不使用多个连续斜杠(例如“///”)。

FILES_API_UPLOAD_PART_URLS_COUNT_MUST_BE_GREATER_THAN_ZERO

SQLSTATE:未分配

输入参数“count”必须大于 0。

FILES_API_URL_GENERATION_DISABLED

SQLSTATE:未分配

未为 <cloud>启用预签名 URL 生成。

FILES_API_VOLUME_TYPE_NOT_SUPPORTED

SQLSTATE:未分配

不支持对 <volume_type> 使用 Files API。

FILES_API_WORKSPACE_IS_CANCELED

SQLSTATE:未分配

工作区已取消。

FILES_API_WORKSPACE_IS_NOT_FOUND

SQLSTATE:未分配

无法访问此工作区的存储配置。

分布式账本技术 (DLT)

ACTIVE_UPDATE_EXISTS_FOR_LINKED_PIPELINE

SQLSTATE:42000

链接管道“<linkedPipelineId>”已存在活动更新“<updateId>”。

ACTIVE_UPDATE_EXISTS_FOR_PIPELINE

SQLSTATE:42000

管道“<pipelineId>”已存在活动更新“<updateId>”。

ALTER_NOT_ALLOWED_FOR_PIPELINE_TABLE

SQLSTATE:0A000

不允许对表执行 ALTER,而管理该表的是

有关更多详细信息,请参阅 ALTER_NOT_ALLOWED_FOR_PIPELINE_TABLE

ALTER_SCHEDULE_SCHEDULE_DOES_NOT_EXIST

SQLSTATE:42704

在没有现有计划或触发器的情况下,无法更改表上的 <type>。 在尝试更改表格之前,请先向其添加日程或触发器。

API_QUOTA_EXCEEDED

SQLSTATE:KD000

已超出数据源 <sourceName>的 API 配额。

有关更多详细信息,请参阅 API_QUOTA_EXCEEDED

APPLY_CHANGES_ERROR

SQLSTATE:42000

AUTO CDC 操作期间发生错误。

有关更多详细信息,请参阅 APPLY_CHANGES_ERROR

APPLY_CHANGES_FROM_SNAPSHOT_ERROR

SQLSTATE:22000

AUTO CDC FROM SNAPSHOT操作期间发生错误。

有关更多详细信息,请参阅 APPLY_CHANGES_FROM_SNAPSHOT_ERROR

APPLY_CHANGES_FROM_SNAPSHOT_EXPECTATIONS_NOT_SUPPORTED

SQLSTATE:0A000

数据集 <datasetName> 定义了期望,但当前不支持对使用 AUTO CDC FROM SNAPSHOT 的数据集设置期望。

消除对解决此错误的期望。 作为替代方案,考虑使用以下结构,通过组合 AUTO CDCAUTO CDC FROM SNAPSHOT 来应用期望:

  1. 使用 SCD 类型 1 将快照中的更改应用到没有期望的中间表。

  2. 使用spark.readStream.option("readChangeFeed", "true").table从中间表中读取更改。

  3. 除了当前与 dlt.acreate_auto_cdc_flow_from_snapshot 一起使用的参数外,还将 dlt.create_auto_cdc_flow 与以下参数配合使用,将更改从中间表应用到最终目标表:

  • 处理更改:apply_as_deletes = "_change_type == 'delete'"

  • 删除 CDF 添加的列:except_column_list = ["_change_type", "_commit_version", "_commit_timestamp"]

  1. 在用于 dlt.create_auto_cdc_flow 的最终目标表上包含当前的期望集。

APPLY_CHANGES_PARTIAL_UPDATES_NOT_ENABLED

SQLSTATE:0A000

功能 COLUMNSUPDATE 处于预览状态,并未在您的工作区中启用。 请联系 Databricks 代表,详细了解此功能并访问个人预览版。

架构迁移失败

SQLSTATE:55000

有关更多详细信息,请参阅 ARCHITECTURE_MIGRATION_FAILURE

ARCLIGHT_REQUIRES_SERVERLESS

SQLSTATE:42000

针对使用默认存储的目录的管道必须使用无服务器计算。 如果您无权访问无服务器计算服务,请联系 Databricks 为您的工作区启用该功能。

CANNOT_ADD_COLUMN_TO_INCLUDE_COLUMNS

SQLSTATE:42000

新列 (<columnNames>) 已添加到表 <qualifiedTableName> 的管道定义中的 include_columns 字段。 请完全刷新表以避免潜在的数据丢失或从include_columns中删除这些列。

无法添加存储位置

SQLSTATE:42000

如果要设置存储位置创建新管道,则无法将存储位置添加到具有已定义目录的现有管道。

现有目录:“<catalog>”。

请求的存储位置: <storageLocation>.

CANNOT_COMPOSE_DECORATOR

SQLSTATE:未分配

@<decoratorName>装饰器无法与之组合<otherDecorators>

CANNOT_EXCLUDE_NON_EXISTENT_COLUMN

SQLSTATE:42703

管道定义排除源 <columnNames><qualifiedTableName> 中不存在的列(<sourceType>)。 请从exclude_columns字段中删除这些列。

CANNOT_FILTER_OUT_REQUIRED_COLUMN

SQLSTATE:42000

管道定义不包括源 <columnNames> 的引入表 <qualifiedTableName> 所需的列 (<sourceType>)。 请将其添加到include_columns,或将其从exclude_columns中删除。

CANNOT_INCLUDE_NON_EXISTENT_COLUMN

SQLSTATE:42703

管道定义包括源 <columnNames><qualifiedTableName> 中不存在的列(<sourceType>)。 请从include_columns字段中删除这些列。

无法导入没有主键的表

SQLSTATE:42000

<sourceType> 源中的表 <qualifiedTableName> 没有主键。

请在连接器配置中指定主键以引入表(如果存在)。

CANNOT_MODIFY_PIPELINE_OWNER_FOR_UC_PIPELINES

SQLSTATE:42000

尚不支持更改非 UC 管道的所有者。

CANNOT_MODIFY_PIPELINE_OWNER_PERMISSION_DENIED

SQLSTATE:42000

只有工作区管理员可以更改管道所有者。

CANNOT_MODIFY_PIPELINE_OWNER_WHEN_MISSING

SQLSTATE:42000

新所有者不存在。

无法修改管道类型

SQLSTATE:42000

无法更新 pipeline_type。

当前管道类型:<currentPipelineType>.

更新后的 pipeline_type:<requestedPipelineType>

无法修改存储位置

SQLSTATE:42000

无法修改现有管道的存储位置。

现有存储位置:“<existingStorageLocation>”。

请求的存储位置: <requestedStorageLocation>.

CANNOT_REMOVE_COLUMN_FROM_EXCLUDE_COLUMNS

SQLSTATE:42000

在表 <columnNames>的管道定义中,列(<qualifiedTableName>)被从 exclude_columns 字段中删除。 请对表格进行完全刷新以避免潜在的数据丢失,或者将这些列重新添加到 exclude_columns 中。

无法为HMS_PIPELINE设置目录

SQLSTATE:42613

如果要使用 UC 创建新管道并设置目录,则无法将目录添加到具有已定义存储位置的现有管道。

现有存储位置:“<storageLocation>

请求的目录:“<catalog>

CANNOT_SET_LINKED_PIPELINE_ID

SQLSTATE:42000

管道 ID 相同,设置链接管道 ID 将导致死锁。

无法为现有管道设置架构

SQLSTATE:0AKD0

管道“<pipelineName>”的设置中指定的'schema'字段是不合法的。 原因:

有关更多详细信息,请参阅 CANNOT_SET_SCHEMA_FOR_EXISTING_PIPELINE

CANNOT_SPECIFY_BOTH_INCLUDE_EXCLUDE_COLUMNS

SQLSTATE:42000

管道定义为 <identifier> 指定了 include_columns 和 exclude_columns。 请删除其中一个。

CANNOT_UPDATE_CLUSTERING_COLUMNS

SQLSTATE:42000

无法更新表 <tableName> 的聚类列,因为其使用了分区列。 表可以使用分区列或聚簇列,但不能同时使用两者。

若要在液体聚类分析与分区之间切换,请触发此表的完全刷新。

CANNOT_UPDATE_PARTITION_COLUMNS

SQLSTATE:42000

无法更新流式处理表 <tableName> 的分区列。

当前为:<existingPartitionColumns>

请求了:<requestedPartitionColumns>

若要应用此分区更改,请触发此表和已更新分区列的任何其他流式处理表的完全刷新。

或者还原此更改以继续使用现有分区列。

CANNOT_UPDATE_TABLE_SCHEMA

SQLSTATE:42KD9

无法合并表 <tableName>的当前架构和新架构。

若要继续执行此架构更改,可以触发此表的完全刷新。

根据用例和架构更改,你也许能够删除架构更改 -- 可以更新查询,以便输出架构与现有架构兼容(例如,通过显式将列强制转换为正确的数据类型)。

CANNOT_WRITE_TO_INACTIVE_COLUMNS

SQLSTATE:55000

<details>

但是,目标表已具有具有此名称的非活动列;这些列处于非活动状态,因为它们以前是从源表中删除的。

若要继续更新,请对表使用 FULL REFRESH 命令或使用 ALTER TABLE DROP COLUMN 命令删除这些非活动列。

CANNOT_WRITE_TO_INACTIVE_TABLES

SQLSTATE:55000

目标中的下表处于非活动状态,并且与当前源表冲突:<tables>

这些表保持非活动状态,因为它们以前已从源中删除或未从连接器中选择。

若要继续更新,请对表执行 FULL REFRESH,或者从目录资源管理器中的目标中删除这些非活动表,或通过 DROP TABLE 命令删除这些非活动表,然后重试更新。

CANNOT_WRITE_TO_TABLES_PENDING_RESET

SQLSTATE:55000

在上一次完整刷新中,目标中的下列表格未正确重置:<tables>

请对其触发完全刷新以恢复。

CATALOG_MAPPING_NOT_AVAILABLE_IN_UC

SQLSTATE:3D000

UC 目录没有目录“<sourceCatalog>”的映射。

请检查目录是否已在 UC 目录中注册。

CATALOG_SCHEMA_MISMATCH_WITH_DESTINATION_PIPELINE

SQLSTATE:55000

ID 为 <destPipelineCatalog> 的目标管道的目录 <destPipelineSchema> 和架构 <destPipelineId> 与表 <tableName> 的目录和架构不匹配。 目标管道应具有与表相同的目录和架构,或者目标管道必须使用直接发布模式。

CATALOG_SPEC_UNSUPPORTED

SQLSTATE:0A000

数据库连接器当前不支持 CatalogSpecs。 请删除目录规范。

CDC_APPLIER_COLUMN_UOID_NOT_SUPPORTED

SQLSTATE:0A000

CDC 管理的引入管道中不支持表 <tableName> 中 UOID 为 <columnNames> 的列。

请检查引入管道是否支持列 UOID,或请求完全刷新。

CDC_APPLIER_FATAL_FAILURE_FROM_GATEWAY

SQLSTATE:42000

网关管道遇到严重错误:

<errorMessage>

在此处查看管道更新失败:<link>

CDC_APPLIER_REPLICATED_TABLE_METADATA_NOT_READY

SQLSTATE:42KD4

<tableName>的复制表元数据尚未准备就绪。

现有的作业请求时间戳是 <existingRequestTs>,但我们需要 <expectedRequestTs> 或更高版本。

CDC_APPLIER_REQUIRES_ALL_DESTINATION_TABLES_FULL_REFRESH

SQLSTATE:42000

不支持完全刷新一个目标表,不支持从同一源对另一个目标表进行正常更新。

请完全刷新这两个表,以便尽可能继续。

完全刷新表:<fullRefreshTables>

<sourceTable> 的目标表:<destinationTables>

CDC_APPLIER_SCHEMA_CHANGED_DURING_STREAMING

SQLSTATE:42KD4

架构版本 <dataSchemaVersion> 与读取的架构版本 <readSchemaVersion>不同。

DLT 将重试更新。

CDC_APPLIER_SEQUENCE_BY_COLUMN_NOT_FOUND

SQLSTATE:42704

在 sequenceBy 中指定的表 <columnName> 的列 <tableName><columns> 中不存在。

CDC_APPLIER_SEQUENCE_BY_INVALID_TYPE

SQLSTATE:0A000

sequenceBy 中指定的表 <tableName> 的列 <columnName> 为不支持的类型 <typeName>

sequenceBy 列支持的类型为 <allowedTypes>

CDC_APPLIER_SEQUENCE_BY_MULTIPLE_COLUMNS_NOT_SUPPORTED

SQLSTATE:0A000

CDC 管理的引入管道的 sequenceBy 中最多可指定一列。

制定列:表 <tableName><columns>

CDC_INCOMPATIBLE_SCHEMA_CHANGES

SQLSTATE:42KD4

我们从架构版本 <cause><previousSchemaVersion>遇到不兼容的架构更改(<currentSchemaVersion>)。

因此,我们不能继续对 <tableName>应用更改。 请请求完全刷新表。

以前的架构:<previousSchema>

当前架构:<currentSchema>

CDC_潜在数据差距

SQLSTATE:55000

下表 [<needFullRefreshTableList>] 在 <retention> 天内没有成功的更新。

请对这些表或整个数据管道进行全面刷新。

CDC_SAME_TABLE_FROM_MULTIPLE_SOURCES

SQLSTATE:42000

从多个源找到同一个表名 <table><sources>

请将它们拆分为不同的管道,以避免冲突。

CDC_MULTIPLE_SOURCE_TABLES_MAPPED_TO_SAME_DESTINATION_TABLE

SQLSTATE:42000

找到多个源表: <source_tables> 映射到同一目标表 <destination_table>

请将它们映射到不同的目标表名称或不同的目标架构。

CDC_TABLE_NOT_FOUND_IN_ALL_TABLES

SQLSTATE:42P01

在源数据库的所有表快照中找不到表 <table>

表规范详细信息:

<tableSpec>

CHANGES_HMS_PIPELINE_TO_UC_NOT_ALLOWED

SQLSTATE:0AKD0

不允许将 HMS 管道更改为 UC 管道。

CHANGES_UC_PIPELINE_TO_HMS_NOT_ALLOWED

SQLSTATE:0AKD0

不允许将 UC 管道更改为 HMS 管道。

CHANGE_PIPELINE_ID_OF_TABLE_NOT_SUPPORTED

SQLSTATE:0AKLT

不支持更改 <commandTableType> 的管道。

CHANGING_CATALOG_NOT_ALLOWED

SQLSTATE:0AKD0

无法修改现有管道的目录。 现有目录:“<existingCatalog>”。 请求的目录:“<requestedCatalog>”。

不允许更改目标架构

SQLSTATE:0AKD0

不允许更改目标架构。 原因:<reason>

CLUSTER_CREATION_BUDGET_POLICY_LIMIT_EXCEEDED

SQLSTATE:57000

由于管道的预算策略超出了限制,无法创建群集。 请使用其他策略或联系计费管理员。

CLUSTER_CREATION_CLIENT_ERROR

SQLSTATE:KDL01

未能创建管道群集: <errorMessage>

此错误可能是由于管道中的配置错误。

检查管道群集配置和关联的群集策略。

集群创建额度已耗尽

SQLSTATE:57000

无法创建群集,因为已耗尽可用额度。 请添加付款方式以升级帐户。

CLUSTER_CREATION_RESOURCE_EXHAUSTED

SQLSTATE:57000

无法创建群集,因为已超出资源限制: <errorMessage>

CLUSTER_LAUNCH_CLIENT_ERROR

SQLSTATE:KDL01

未能启动管道群集 <clusterId><clusterStateMessage>

此错误可能是由于管道中的配置错误。

检查管道群集配置和关联的群集策略。

CLUSTER_LAUNCH_CLOUD_FAILURE

SQLSTATE:58000

未能启动管道群集 <clusterId><clusterStateMessage>

此错误可能是暂时性的 - 重启管道,如果仍然看到相同的问题,请报告。

CLUSTER_SETUP_CLIENT_ERROR(集群设置客户端错误)

SQLSTATE:KDL01

有关更多详细信息,请参阅 CLUSTER_SETUP_CLIENT_ERROR

集群无法访问

SQLSTATE:08000

与驱动程序通信丢失。 群集 <clusterId><timeoutSeconds> 秒无法访问。

COLUMN_MASK_WITH_NO_COLUMN

SQLSTATE:42000

在具体化视图/流式表架构中发现列“<columnName>”的列掩码,但该列不存在。 如果这是因为对基表的架构进行更改,

请使用 ALTER TABLE [table_name] ALTER COLUMN [应用掩码的列] DROP MASK 删除旧掩码;或恢复该列。

COLUMN_TO_UPDATE_NOT_FOUND

SQLSTATE:42703

在源数据帧中找不到 <column> TO COLUMNS 中指定的列 UPDATE

CONCURRENT_UPGRADE_FAILED_TO_STOP_PREVIOUS_UPDATE

SQLSTATE:2D521

开始升级更新“<upgradedUpdateId>”,但未能停止先前的更新“<oldUpdateId>”。

此错误可能是暂时性的。 管道将自动重试,问题应自行解决。

如果仍然看到相同的问题,请将此错误报告给 Databricks。

DATASET_DECORATOR_APPLIED_TWICE

SQLSTATE:未分配

数据集 <datasetName> 已存在。 确保查询函数仅标记为视图或表一次。

数据集_未定义

SQLSTATE:42P01

未能读取数据集“”。<datasetName> 管道中未定义此数据集。

如果此表由其他管道管理,则不要使用 dlt.read / dlt.readStream 读取该表,也不要将名称加上 LIVE 关键字。

DBFS_NOT_ENABLED

SQLSTATE:42000

未为此工作区启用 DBFS;请发布到 Unity 目录,或为管道指定不同的存储位置。

数据库SQL管道不应包含多个表

SQLSTATE:42000

DBSQL 管道必须恰好有一个具体化视图或流式表,但找到 <tablesSize> 个表:<tables>

DESTINATION_PIPELINE_NOT_FOUND

SQLSTATE:42K03

找不到 ID 为“”<pipelineId>的目标管道。 请确保您所在的工作区与管道所在的工作区一致,您是该管道的所有者,并且该管道至少运行过一次。

DESTINATION_PIPELINE_NOT_IN_DIRECT_PUBLISHING_MODE

SQLSTATE:0AKLT

ID 为“”<pipelineId>的目标管道未使用直接发布模式。

DESTINATION_PIPELINE_PERMISSION_DENIED

SQLSTATE:42501

不允许执行此操作,因为您不是ID为“<pipelineId>”的目标管道的所有者。 只有所有者可以更改表的管道。

DESTINATION_PIPELINE_TYPE_NOT_WORKSPACE_PIPELINE_TYPE

SQLSTATE:0AKLT

ID 为“”<pipelineId>的目标管道不是 ETL 管道。

DO_CREATE_OR_EDIT_INVALID_USER_ACTION

SQLSTATE:42000

处理“<action>”请求时出错。

DROP_SCHEDULE_SCHEDULE_DOES_NOT_EXIST

SQLSTATE:42000

在没有现有计划或触发器的情况下,无法删除表上的 SCHEDULE

DUPLICATED_FROM_JSON_SCHEMA_LOCATION

SQLSTATE:42616

重复的“from_json”模式位置键:<schemaLocationKey>

请在管道中为每个from_json查询选择唯一的架构位置键

DUPLICATED_INGESTION_CONFIG_TABLE_SPECS

SQLSTATE:42710

引入管道配置包含重复表。 请确保每个表都是唯一的。

EMPTY_INGESTION_CONFIG_OBJECTS

SQLSTATE:42000

引入配置对象为空。

ENHANCED_AUTOSCALING_REQUIRES_ADVANCED_EDITION

SQLSTATE:42000

增强型自动缩放“spare_capacity_fraction”设置仅在 Lakeflow 声明式管道的高级产品版本中受支持。

请编辑管道设置,将“edition”设置为:“advanced”以使用“spare_capacity_fraction”。

EVENT_LOG_PICKER_FEATURE_NOT_SUPPORTED

SQLSTATE:0A000

此管道不支持将事件日志发布到 Unity 目录。 如果这是意外的,请联系 Databricks 支持部门。

EXPECTATION_VIOLATION

SQLSTATE:22000

流“<flowName>”未能满足预期。

有关更多详细信息,请参阅 EXPECTATION_VIOLATION

EXPLORE_ONLY_CANNOT_BE_SET_WITH_VALIDATE_ONLY

SQLSTATE:42000

explore_only和validate_only不能同时设置为 true。

EXPLORE_ONLY_IS_NOT_ENABLED

SQLSTATE:0A000

未启用 explore_only 更新。

EXPLORE_ONLY_ON_NON_INGESTION_PIPELINE

SQLSTATE:42000

explore_only 只能为引入管道设置为 true。

无法创建事件日志

SQLSTATE:58030

未能使用标识符 <pipelineId>创建管道(id=<eventLogIdentifier>)事件日志。 有关更多详细信息,请参阅下面的异常。

FAILED_TO_PUBLISH_VIEW_TO_METASTORE

SQLSTATE:42000

无法将视图 <viewName> 发布到元存储,因为 <reason>

无法更新事件日志

SQLSTATE:58030

未能将管道 (id=<pipelineId>) 事件日志标识符更新为 <newEventLogIdentifier>。 有关更多详细信息,请参阅下面的异常。

流程架构已更改

SQLSTATE:KD007

<flowName> 已终止,因为它在执行期间遇到架构更改。

架构更改与现有目标架构兼容,下一次流程运行可以使用新架构恢复。

FOREACH_BATCH_SINK_ONLY_SUPPORTED_IN_PREVIEW_CHANNEL

SQLSTATE:0A000

目前不支持 DLT ForeachBatch 接收器。

DLT ForeachBatch 接收器的专用预览版需要 PREVIEW 通道。

DLT 接收器:<sinkNames>

GATEWAY_PIPELINE_INIT_SCRIPTS_NOT_ALLOWED

SQLSTATE:0A000

网关管道不允许群集初始化脚本。 请将其从 <from>中删除。

GATEWAY_PIPELINE_SPARK_CONF_NOT_ALLOWED

SQLSTATE:0A000

网关管道不允许 spark 配置 [<configs>]。 请将其从 <from>中删除。

GET_ORG_UPDATE_CAPACITY_LIMIT_EXCEEDED

SQLSTATE:54000

请求的组织 ID 数超过允许的最大限制 <limit>

GOOGLE_ANALYTICS_RAW_DATA_CONNECTOR_SOURCE_CATALOG_MISSING

SQLSTATE:KD000

Google Analytics 原始数据连接器中发生错误。

引入规范中缺少 的源目录。此处的源目录是要从中引入的 GCP 项目的项目 ID。

请确保引入规范中存在源目录以解决此问题。

HMS_NOT_ENABLED

SQLSTATE:42000

此工作区未启用 Hive 元存储;请发布到 Unity Catalog。

ILLEGAL_COLUMN_TO_UPDATE_DATA_TYPE

SQLSTATE:42000

COLUMNS TO UPDATE 中指定的列的数据类型必须是字符串数组,但找到了 <illegalDataType>

ILLEGAL_ID_PARAM_IN_PIPELINE_SETTINGS

SQLSTATE:42000

设置不得包含“<fieldName>”。

ILLEGAL_SCHEMA_FIELD_IN_PIPELINE_SPEC

SQLSTATE:42000

管道设置中的指定“schema”字段是非法的。 原因:<reason>

根路径类型不正确

SQLSTATE:42000

根路径“<rootPath>”必须是目录,但找到 <objectType>

INGESTION_CONFIG_DUPLICATED_SCHEMA

SQLSTATE:42710

引入管道配置包含重复的架构。 请确保每个架构都是唯一的。

传入网关身份验证失败

SQLSTATE:42501

身份验证失败

有关更多详细信息,请参阅 INGESTION_GATEWAY_AUTHENTICATION_FAILURE

INGESTION_GATEWAY_BREAKING_SCHEMA_CHANGE_FAILURE

SQLSTATE:42KD4

源表和目标表之间检测到架构不匹配。 要解决此问题,需要在引入管道上对表“<entityName>”执行完全刷新。

INGESTION_GATEWAY_CDC_NOT_ENABLED

SQLSTATE:42000

<entityType> '<entityName>' 上未启用 CDC。 在引入管道上启用 CDC 并执行全表刷新。 错误消息:“<errorMessage>”。

INGESTION_GATEWAY_DDL_OBJECTS_MISSING

SQLSTATE:42000

<entityType> '<entityName>' 上缺少 DDL 对象。 执行 DDL 对象脚本并完全刷新引入管道上的表。 错误消息:“<errorMessage>”。

INGESTION_GATEWAY_MISSING_CONNECTION_REFERENCE

SQLSTATE:42000

引入网关配置缺少连接。

请添加对包含凭据的 Unity Catalog 连接的引用。

引入网关管道定义详细信息:

<definition>

INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_CATALOG

SQLSTATE:42000

引入网关配置缺少内部存储位置目录。

请添加内部存储位置目录。

引入网关管道定义详细信息:

<definition>

INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_NAME

SQLSTATE:42000

引入网关配置缺少内部存储位置名称。

请添加内部存储位置名称。

引入网关管道定义详细信息:

<definition>

INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_SCHEMA

SQLSTATE:42000

引入网关配置缺少内部存储位置架构。

请添加内部存储位置架构。

引入网关管道定义详细信息:

<definition>

INGESTION_GATEWAY_MISSING_TABLE_IN_SOURCE

SQLSTATE:42P01

源数据库中不存在表“”<entityName>或已删除。 解决此问题并在托管引入管道上完全刷新表。 错误消息:“<errorMessage>”。

INGESTION_GATEWAY_PG_PUBLICATION_ALTER_FAILED

SQLSTATE:42000

未能为 <entityType> '<entityName>' 修改复制发布

错误消息:<errorMessage>

有关更多详细信息,请参阅 INGESTION_GATEWAY_PG_PUBLICATION_ALTER_FAILED

INGESTION_GATEWAY_PG_PUBLICATION_CREATION_FAILED

SQLSTATE:42000

未能为 <entityType> '<entityName>' 创建复制发布

错误消息:<errorMessage>

有关更多详细信息,请参阅 INGESTION_GATEWAY_PG_PUBLICATION_CREATION_FAILED

INGESTION_GATEWAY_PG_PUBLICATION_DROP_FAILED

SQLSTATE:42000

未能为 <entityType> '<entityName>' 删除复制发布

错误消息:<errorMessage>

有关更多详细信息,请参阅 INGESTION_GATEWAY_PG_PUBLICATION_DROP_FAILED

INGESTION_GATEWAY_PG_SLOT_CONSUMED_BY_OTHER_PROCESS

SQLSTATE:42000

由于复制槽被另一个 PID 使用,无法为 <entityType> “”<entityName>创建复制槽。

错误消息:<errorMessage>

INGESTION_GATEWAY_PG_SLOT_CREATION_FAILED

SQLSTATE:42000

无法为 <entityType> “”<entityName>创建复制槽

错误消息:<errorMessage>

有关更多详细信息,请参阅 INGESTION_GATEWAY_PG_SLOT_CREATION_FAILED

INGESTION_GATEWAY_SOURCE_INSUFFICIENT_PERMISSION_FAILURE

SQLSTATE:42501

用户没有访问此对象或执行存储过程所需的权限。 请确保授予所有必要的特权。 请参阅以下文档: https://docs.databricks.com/aws/en/ingestion/lakeflow-connect/sql-server/database-user-requirements

INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE

SQLSTATE:08000

由于源数据库的主机名 <host> 和/或端口 <port> 不正确,连接失败。

有关更多详细信息,请参阅 INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE

INVALID_APPLY_CHANGES_COMMAND

SQLSTATE:42000

AUTO CDC 命令无效。 <reason>

INVALID_ARGUMENT_TYPE

SQLSTATE:未分配

传递给参数<paramName> 的值类型无效。 应为 <expectedType><additionalMsg>

无效兼容性选项

SQLSTATE:42616

为表 <table> 指定的表选项无效,因为

有关更多详细信息,请参阅 INVALID_COMPATIBILITY_OPTIONS

INVALID_DECORATOR_USAGE

SQLSTATE:未分配

传递给 @<decoratorName> 的第一个位置参数必须可调用。 在函数中添加没有参数的 @<decoratorName>,或者使用关键字参数(例如)<decoratorName>将选项传递给 @<exampleUsage>

无效的事件日志配置

SQLSTATE:F0000

在管道规格中找到的事件日志配置无效: <message>

INVALID_NAME_IN_USE_COMMAND

SQLSTATE:42000

<name>命令中的名称“<command>”无效。 原因:<reason>

INVALID_PARAM_FOR_DBSQL_PIPELINE

SQLSTATE:42000

在为管道调用“dry_run”时,只能指定“pipeline_id”和“pipeline_type”。DBSQL

INVALID_REFRESH_SELECTION

SQLSTATE:42000

为此更新指定的刷新选择参数无效,因为

有关更多详细信息,请参阅 INVALID_REFRESH_SELECTION

INVALID_REFRESH_SELECTION_REQUEST_FOR_CONTINUOUS_PIPELINE

SQLSTATE:42000

连续模式不支持刷新选择。

INVALID_REFRESH_SELECTION_REQUEST_WITH_FULL_REFRESH

SQLSTATE:42000

对于刷新选择请求,不应将full_refresh设置为 true。

INVALID_ROOT_PATH

SQLSTATE:42000

无效的根路径 '<rootPath>':目前仅支持绝对目录路径。 目录路径必须以“/”开头,而不是以“/”结尾。

INVALID_SCHEMA_NAME

SQLSTATE:3F000

管道设置中指定的架构“”<schemaName>无效。 原因:<reason>

INVALID_SNAPSHOT_AND_VERSION_TYPE

SQLSTATE:未分配

目标为“<target>”的流的 snapshot_and_version 返回不支持的类型。 <additionalMsg>

触发间隔格式无效

SQLSTATE:42000

<configurationType> 中指定的触发器间隔配置无效

职位详情不匹配

SQLSTATE:42000

如果同时提供了“update_cause_details.job_details”和“job_task”,则它们必须匹配,但实际为 <details><jobTask>

JOB_TASK_DETAILS_MISSING

SQLSTATE:42000

如果“cause”为 JOB_TASK,则必须提供“job_task”或“update_cause_details.job_details”。

LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_CLASSIC

SQLSTATE:42000

不支持在数据集查询定义之外使用 LIVE 虚拟架构(即 @dlt.table 注释)引用数据集。

LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_DPM

SQLSTATE:42000

不支持在数据集查询定义之外使用 LIVE 虚拟架构 <identifier> 引用数据集(即 @dlt.table 注释)。

LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_SPARK_SQL

SQLSTATE:0A000

在 spark.sql(...) 中使用 LIVE 虚拟模式引用数据集。API 不得在数据集查询定义外(即 @dlt.table 注释外)调用。 只能在数据集查询定义中调用它。

MAX_RETRY_REACHED_BEFORE_ENZYME_RECOMPUTE

SQLSTATE:42000

重试次数已达上限。 重试计数:<flowRetryCount>。 maxFlowFailureRetryCountThreshold:<maxFlowRetryAttempts><message>

MESA_PIPELINE_INVALID_DEFINITION_TYPE

SQLSTATE:42000

不允许从 UC 定义启动 <definitionType> 管道。

MESA_PIPELINE_MISMATCH_PIPELINE_TYPES

SQLSTATE:42000

存储和更新的定义必须是相同的管道类型,但必须具有 <stored><updated>

MESA_PIPELINE_MISSING_DEFINITION

SQLSTATE:42000

管道在 UC 中没有有效定义,但请求刷新。

MESA_PIPELINE_MISSING_DEFINITION_UNEXPECTED

SQLSTATE:42000

意外地从 UC 中缺少管道定义。

METASTORE_OPERATION_TIMED_OUT

SQLSTATE:58000

更新 <tableName> 元存储信息所涉及的操作所需的时间比 <timeout>长。

此问题可能是暂时性的,也可能指示配置的元存储客户端中的 bug。 如果问题仍然存在,请尝试重启管道并报告此问题。

MISSING_CREATE_SCHEMA_PRIVILEGE

SQLSTATE:42501

用户“<userName>”无权在目录中创建架构 <catalogName>

MISSING_CREATE_TABLE_PRIVILEGE

SQLSTATE:42501

用户“<userName>”无权在架构中创建表 <schemaName>

MISSING_RUN_AS_USER

SQLSTATE:28000

未为更新指定运行方式用户。

MUTUALLY_EXCLUSIVE_OPTIONS

SQLSTATE:42000

互斥选项 <options>。 请删除其中一个选项。

负值

SQLSTATE:未分配

<arg_name> 必须大于或等于 0,得到“<arg_value>”。

NON_UC_TABLE_ALREADY_MANAGED_BY_OTHER_PIPELINE

SQLSTATE:42P07

表 '<tableName>' 已由管道 <otherPipelineId>管理。

如果希望表“<tableName>”由此管道管理 -

  1. 从管道“<otherPipelineId>”中删除该表。

  2. 启动此管道的完整刷新更新。

如果要继续从多个管道管理表,请在管道设置中将配置 pipelines.tableManagedByMultiplePipelinesCheck.enabled 更改为 false,以禁用此检查。

不建议这样做,因为对表的并发操作可能会相互冲突,从而导致意外结果。

NOTEBOOK_NAME_LIMIT_REACHED

SQLSTATE:42000

无效的笔记本路径:“<nameStart>...<nameEnd>”。 它比 <maxNotebookPathLength> 字符长。

笔记本未找到

SQLSTATE:42000

无法加载笔记本“<notebookPath>”。

NOTIFICATIONS_DUPLICATE_ALERTS

SQLSTATE:42000

在 [<alerts>] 中指定重复警报“<alertsDuplicates>”。

NOTIFICATIONS_DUPLICATE_EMAIL_ADDRESSES

SQLSTATE:42000

在 [<emailRecipientsDuplicates>] 中指定了重复的电子邮件地址“<emailRecipients>

NOTIFICATIONS_INVALID_ALERTS

SQLSTATE:42000

已指定要获取通知的无效警报:<invalidAlerts>

通知_无效的电子邮件地址

SQLSTATE:42000

指定接收通知的电子邮件地址无效: <invalidEmailAddresses>

NOTIFICATIONS_MISSING_PARAMS

SQLSTATE:42000

请在其中指定至少一个收件人和一个警报 <setting>

NO_SOURCE_OR_SNAPSHOT_AND_VERSION_ARGUMENT_PROVIDED

SQLSTATE:未分配

对于目标为“<target>”的 create_auto_cdc_flow_from_snapshot,必须设置 sourcesnapshot_version

NO_TABLES_IN_PIPELINE

SQLSTATE:42617

管道预计应至少定义一个表,但在您的管道中未找到任何表。

请检查是否已包含预期的源文件,以及您的源代码是否包含表定义(例如,SQL代码中的CREATE MATERIALIZED VIEW,Python代码中的@dlt.table)。

请注意,只有表计入此检查。 如果仅在管道中包含视图或流,则也可能遇到此错误。

OWNER_IS_MISSING

SQLSTATE:42000

所有者不存在。

PAGINATION_REQUEST_HAS_NAME_AND_PAGINATION

SQLSTATE:42000

你可以提供 <name> 或分页,但不能同时提供两者。

PATCH_PIPELINE_DEFINITION_UNSUPPORTED_FIELD

SQLSTATE:42000

PatchPipelineDefinition 仅支持schedule该字段,但提供的定义具有其他填充字段:“”。<updatedDefinition>

PERSISTED_VIEW_READS_FROM_STREAMING_SOURCE

SQLSTATE:42000

持久化视图不支持从流式源读取。

PERSISTED_VIEW_READS_FROM_TEMPORARY_VIEW

SQLSTATE:42K0F

持久化视图 <persistedViewName> 不能引用临时视图 <temporaryViewName>,该临时视图在管道范围外不可用。 使持久视图成为临时视图或保留临时视图。

PIPELINE_CLONING_ALREADY_IN_PROGRESS

SQLSTATE:42000

管道已在克隆到 ID 为“<pipelineId>”的管道。

PIPELINE_CLONING_INVALID_DURING_ACTIVE_UPDATE

SQLSTATE:42000

ID 为“<pipelineId>”的管道在活动更新期间无法克隆。

PIPELINE_CLONING_INVALID_FIELDS

SQLSTATE:42000

请求包含用于克隆的具有无效字段的管道规范。 允许的字段包括:名称、目录、目标、配置。

PIPELINE_CLONING_INVALID_FOR_MISSING_TARGET

SQLSTATE:42000

ID 为“”<pipelineId>的管道不会发布到目标架构。 源管道需要将数据发布到一个目标架构,以实现克隆。 请在管道规范中指定“目标”字段,然后运行新的更新以发布到目标架构,再重试。

PIPELINE_CLONING_INVALID_FOR_UC_PIPELINE

SQLSTATE:42000

ID 为 <pipelineId> 的管道已经是 UC 管道。 UC 管道无法克隆。

PIPELINE_CLONING_NO_MODE_SPECIFIED

SQLSTATE:42000

没有指定的克隆模式。

PIPELINE_CLONING_NO_TARGET_SPECIFIED

SQLSTATE:42000

没有用于克隆的指定目标目录。

PIPELINE_CREATION_NOT_ENABLED_FOR_WORKSPACE

SQLSTATE:42000

此工作区未启用管道创建。

管道不存在

SQLSTATE:42000

ID 为“”<pipelineId>的管道不存在。

有关详细信息 ,请参阅PIPELINE_DOES_NOT_EXIST

PIPELINE_ENVIRONMENT_NOT_ENABLED

SQLSTATE:0A000

DLT 中不支持使用环境。

PIPELINE_ENVIRONMENT_VERSION_NOT_ALLOWED

SQLSTATE:54000

管道的环境当前不支持环境版本。

PIPELINE_FAILED_TO_UPDATE_UC_TABLE_DUE_TO_CONCURRENT_UPDATE

SQLSTATE:55000

管道在 <attempts> 次尝试后,由于并发更改,未能更新 UC 表 (<tableName>)。

请验证是否有外部进程修改表,请重试更新,如果此问题仍然存在,请联系 Databricks 支持部门。

PIPELINE_FOR_TABLE_NEEDS_REFRESH

SQLSTATE:55000

该表 <tableName> 未处于所需状态,该表最近尚未更新。 必须再次运行 ID 为“”<pipelineId>的管道,然后重试该作。

PIPELINE_FOR_TABLE_NOT_FOUND

SQLSTATE:42K03

找不到 ID 为“<pipelineId>”、管理表 <tableName> 的管道。 请确保您所在的工作区与管道所在的工作区一致,您是该管道的所有者,并且该管道至少运行过一次。

PIPELINE_GLOB_INCLUDES_CONFLICTS

SQLSTATE:F0000

管道设置中 libraries 下的 glob 或 notebook/file 字段应设置其一。 请更改管道设置。

PIPELINE_GLOB_INCLUDES_NOT_SUPPORTED

SQLSTATE:0A000

使用 glob 字段包含源文件是预览功能,已禁用。

重新选择要包含的每个源文件,以便管道修复此错误。

联系 Databricks 支持人员,详细了解此功能并注册预览版。

PIPELINE_GLOB_UNSUPPORTED_SPECIAL_CHARACTER

SQLSTATE:42000

特殊字符 <specialChar> 是保留的,不应在管道设置中的包含路径“”<path>中使用。 删除这些字符以修复错误

PIPELINE_NAME_LIMIT_REACHED

SQLSTATE:42000

名称不能超过 <maxPipelineNameLength> 字符。

PIPELINE_NON_RETRYABLE_ANALYSIS

SQLSTATE:42000

由于在部分执行后出现不可重试的错误,管道无法分析源表(<tables>)。

不会创建新的管道更新。 请检查事件日志并相应地修复问题。

PIPELINE_NOT_IN_DIRECT_PUBLISHING_MODE

SQLSTATE:0AKLT

ID 为“”<pipelineId>的管道(管理表 <tableName>)不使用直接发布模式。

PIPELINE_NOT_READY_FOR_SCHEDULED_UPDATE

SQLSTATE:55000

表格尚未准备好刷新

有关更多详细信息,请参阅 PIPELINE_NOT_READY_FOR_SCHEDULED_UPDATE

PIPELINE_PERMISSION_DENIED_NOT_OWNER

SQLSTATE:42501

您不允许执行此操作。 你不是 ID 为“<pipelineId>”、管理表 <tableName> 的管道的所有者。

PIPELINE_SETTINGS_FIELD_CANNOT_BE_EDITED

SQLSTATE:42000

“”<uneditableFieldName>不能由用户修改。 如果用户想要添加或修改<settingName>,请改用“<editableFieldName>”字段。

PIPELINE_SETTINGS_MODIFIED_CONCURRENTLY

SQLSTATE:42000

管道设置被同时修改。

PIPELINE_SETTINGS_UNSUPPORTED_CONFIGURATIONS

SQLSTATE:42000

Lakeflow 声明性管道不支持这些配置 <configurations> 。 请删除这些配置。

PIPELINE_SETTING_SHOULD_NOT_SPECIFY_DEVELOPMENT

SQLSTATE:42000

不支持使用“开发”设置启动更新。

PIPELINE_SHOULD_NOT_HAVE_MULTIPLE_TABLES

SQLSTATE:42000

管道必须恰好有一个表,但找到 <tablesSize> 个表:<tables>

PIPELINE_SOURCE_FILE_NUMBER_EXCEEDED

SQLSTATE:54000

源文件数(包括文件夹中声明的文件)超出了限制 <limit>

根据需要删除或合并过多的文件并更改相应的管道规范,

或联系 Databricks 客服请求提升限额。

PIPELINE_SOURCE_FOLDER_DEPTH_EXCEEDED

SQLSTATE:54000

文件夹“”<folder_path>超出了允许的最大目录嵌套级别 <limit>。 减少文件夹嵌套级别或联系 Databricks 支持部门以请求增加限制。

PIPELINE_SPEC_PARAM_CANNOT_BE_CHANGED

SQLSTATE:42000

不允许在管道设置中修改以下参数<param>

不支持的管道类型

SQLSTATE:42000

不支持管道类型“<pipelineType>” 。

PIPELINE_TYPE_NOT_WORKSPACE_PIPELINE_TYPE

SQLSTATE:0AKLT

ID 为“<pipelineId>”、管理表 <tableName> 的管道不是 ETL 管道。

PIPELINE_TYPE_QUOTA_EXCEEDED

SQLSTATE:54000

无法启动更新<updateId>,因为已达到<pipelineType>类型的活动管道数量限制。

PIPELINE_UPDATE_FOR_TABLE_IS_RUNNING

SQLSTATE:55000

ID 为“”<pipelineId>的管道正在运行,用于管理表 <tableName>。 请在运行操作之前停止管道。

PIPELINE_WORKSPACE_LIMIT_REACHED

SQLSTATE:42000

类型为“<pipelineType>”的管道创建被阻止,因为工作区“<orgId>”已拥有“<countLimit>”个管道。 请联系 Databricks 支持部门来调整此限制。

PIP_INSTALL_ERROR(PIP安装错误)

SQLSTATE:42000

调用 %pip 安装时出错。

PIP_INSTALL_NOT_AT_TOP_OF_NOTEBOOK

SQLSTATE:42000

找到包含 %pip install 且不在笔记本顶部的单元格用于“<notebookPath>

将所有 %pip install 单元格移动到该笔记本的开头。

PY4J_BLOCKED_API

SQLSTATE:未分配

你使用的是当前环境中不支持的 Python API。

请查看 Databricks 文档了解替代项。

<additionalInfo>

REFERENCE_DLT_DATASET_OUTSIDE_QUERY_DEFINITION

SQLSTATE:0A000

不支持引用数据集查询定义外部的 DLT 数据集 <identifier>(即 @dlt.table 批注)。 请改为在数据集查询定义中读取它。

REFRESH_INITIATED_FROM_INVALID_WORKSPACE

SQLSTATE:42000

刷新必须在创建资源的工作区 <homeWorkspaceId>中启动。

在工作区 <userWorkspaceId>中尝试刷新。

REFRESH_MODE_ALREADY_EXISTS

SQLSTATE:42710

无法将 <type> 添加到已具有 <existingType>的表。 请删除现有计划或使用 ALTER TABLE ... ALTER <type> 更改它。

REQUIRED_PARAM_NOT_FOUND

SQLSTATE:42000

找不到必需的参数 <param>

RESERVED_KEYWORD_IN_USE_CATALOG

SQLSTATE:42000

USE CATALOG “”<reservedKeyword>是非法的,因为“”<reservedKeyword>是 DLT 中的保留关键字。

RESERVED_KEYWORD_IN_USE_SCHEMA

SQLSTATE:42000

USE SCHEMA “”<reservedKeyword>是非法的,因为“”<reservedKeyword>是 DLT 中的保留关键字。

根路径未找到

SQLSTATE:42000

无法访问根路径“”。<rootPath> 请确保拥有所需的访问权限。

RUN_AS_USER_NOT_FOUND

SQLSTATE:28000

更新指定的运行身份用户“<runAsUserId>”在工作区中不存在。

SAAS连接错误

SQLSTATE:KD000

无法连接到 <sourceName> 源。 错误代码:<saasConnectionErrorCode>

有关详细信息,请参阅 SAAS_CONNECTION_ERROR

SAAS_CONNECTOR_REFRESH_TOKEN_EXPIRED

SQLSTATE:KD000

连接的 <connectionName> 刷新令牌已过期。 编辑连接、重新进行身份验证并重新运行管道。

SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR

SQLSTATE:42KD4

架构更改发生在 <tableName> 源的表 <sourceName> 中。

有关更多详细信息,请参阅 SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR

SAAS_CONNECTOR_SOURCE_API_ERROR

SQLSTATE:KD000

<sourceName> API 调用中发生错误。 源 API 类型:<saasSourceApiType>。 错误代码:<saasSourceApiErrorCode>

尝试刷新目标表。 如果问题仍然存在,请提交票证。

SAAS_CONNECTOR_UNSUPPORTED_ERROR

SQLSTATE:0A000

数据源 <sourceName>中发生不支持的错误。

有关更多详细信息,请参阅 SAAS_CONNECTOR_UNSUPPORTED_ERROR

SAAS_INCOMPATIBLE_SCHEMA_CHANGES_DURING_INIT

SQLSTATE:42KD4

初始化管道时检测到不兼容的架构更改:

<details>

请对受影响的表执行完全刷新。

SAAS_PARTIAL_ANALYSIS_INPUT_CREATION_ERROR

SQLSTATE:42KD4

为部分分析创建输入时遇到错误。 不会创建新的管道更新。

请检查事件日志并相应地修复问题。

SAAS_SCHEMA_DIVERGED_DURING_ANALYSIS

SQLSTATE:42KD4

源表 (<table>) 的分析架构与预期架构存在分歧。

请重试管道更新,看看问题是否已解决。

如果此问题仍然存在,请对上述表执行完全刷新

预期架构:

<expectedSchema>

实际架构:

<actualSchema>

SAAS_UC_CONNECTION_INACCESSIBLE(SaaS UC 连接不可访问)

SQLSTATE:08000

提供的连接 <connectionName> 不可访问。 请检查连接,然后重试。

有关更多详细信息,请参阅 SAAS_UC_CONNECTION_INACCESSIBLE

SCHEMA_SPEC_EMPTY_CATALOG

SQLSTATE:3D000

SchemaSpec 在目录字段中有一个空字符串。

请删除空字符串或添加目录名称。 (如果此架构不属于源中的目录,请不要设置字段。

架构规格详细信息:

<schemaSpec>

SCHEMA_SPEC_EMPTY_SCHEMA

SQLSTATE:3F000

SchemaSpec 在架构字段中有一个空字符串。

请删除空字符串或添加架构名称。 (如果此表不属于源中的架构,请不要设置字段。

架构规格详细信息:

<schemaSpec>

SCHEMA_SPEC_REQUIRE_ONE_OF_CATALOG_SCHEMA

SQLSTATE:42000

必须存在至少一个源目录和源架构。 但两者都是空的。

架构规格详细信息:

<schemaSpec>

SERVERLESS_BUDGET_POLICY_BAD_REQUEST

SQLSTATE:42000

由于策略工作区绑定约束,此工作区中不能使用此 ID 为“”<budgetPolicyId>“的预算策略。

无服务器预算策略无效

SQLSTATE:42000

ID 为“”<budgetPolicyId>的无服务器预算策略无效。

SERVERLESS_BUDGET_POLICY_MISSING

SQLSTATE:42000

ID 为“”<budgetPolicyId>的无服务器预算策略不存在。

SERVERLESS_BUDGET_POLICY_NOT_ENABLED

SQLSTATE:0A000

未启用无服务器预算策略,请联系 Databricks 支持部门。

SERVERLESS_BUDGET_POLICY_NOT_ENABLED_FOR_ACCOUNT

SQLSTATE:0A000

未为此帐户启用无服务器预算策略。 用户无法为此管道指定预算策略。 帐户管理员应尝试通过功能预览门户进行注册。 如果问题仍然存在,请联系 Databricks 支持部门。

SERVERLESS_BUDGET_POLICY_NOT_SUPPORTED_FOR_NON_SERVERLESS_PIPELINE

SQLSTATE:42000

无法将无服务器预算策略分配给非无服务器管道。

SERVERLESS_BUDGET_POLICY_NOT_SUPPORTED_FOR_PIPELINE_TYPE

SQLSTATE:42000

管道类型 <pipelineType>不支持无服务器预算策略。

SERVERLESS_BUDGET_POLICY_PERMISSION_DENIED

SQLSTATE:42000

用户无权使用 ID 为“”<budgetPolicyId>的无服务器预算策略。

SERVERLESS_NOT_AVAILABLE

SQLSTATE:0A000

无服务器计算不可用。 有关详细信息,请联系 Databricks。

SERVERLESS_NOT_ENABLED

SQLSTATE:0A000

不能对 Lakeflow 声明性管道使用无服务器计算。 请联系 Databricks 为工作区启用此功能。

SERVERLESS_NOT_ENABLED_FOR_USER

SQLSTATE:0A000

无服务器计算未为调用方启用。 请联系工作区管理员以启用此功能。

SERVERLESS_NOT_ENABLED_FOR_WORKSPACE

SQLSTATE:0A000

无服务器计算不适用于此工作区和/或区域。 有关详细信息,请联系 Databricks。

SERVERLESS_REQUIRED

SQLSTATE:42000

必须在此工作区中使用无服务器计算。

SERVICENOW_CONNECTION_ERROR

SQLSTATE:KD000

ServiceNow 中发生错误。 源 API 类型:<saasSourceApiType>

有关详细信息 ,请参阅SERVICENOW_CONNECTION_ERROR

SERVICENOW_CONNECTOR_EMPTY_CURSOR_KEY_ERROR

SQLSTATE:KD000

ServiceNow 中发生错误。 源 API 类型:<saasSourceApiType>

此时,引入管道无法引入表“”<tableName>,因为行中的游标键包含空字段。

要继续运行管道,请删除此表。 如果错误仍然存在,请提交票证。

SERVICENOW_CONNECTOR_INSTANCE_HIBERNATION_ERROR

SQLSTATE:KD000

ServiceNow 中发生错误。 源 API 类型:<saasSourceApiType>

未能连接到 ServiceNow 实例。 该实例似乎处于休眠状态或处于非活动状态。

登录到 ServiceNow 管理门户,等待一段时间,直到实例完全唤醒。

如果错误仍然存在,请提交票证。

SERVICENOW_CONNECTOR_INSTANCE_OFFLINE_ERROR

SQLSTATE:KD000

ServiceNow 中发生错误。 源 API 类型:<saasSourceApiType>

未能连接到 ServiceNow 实例。 实例处于脱机状态。

登录到 ServiceNow 管理门户,等待一段时间,直到实例还原。

如果错误仍然存在,请提交票证。

SERVICENOW_CONNECTOR_INVALID_TABLE_ERROR

SQLSTATE:KD000

ServiceNow 中发生错误。 源 API 类型:<saasSourceApiType>

未能查询表“”<tableName>的架构。 此用户的 ServiceNow 帐户中不存在该表。

检查表名称是否有拼写错误,并确保用户具备访问该表所需的权限。

如果错误仍然存在,请提交票证。

ServiceNow连接器IP地址受限错误

SQLSTATE:KD000

ServiceNow 中发生错误。 源 API 类型:<saasSourceApiType>

未能连接到 ServiceNow 实例。 该实例具有 IP 地址访问控制限制。

若要解决此问题,可以通过导航到 ServiceNow >> All >> System Security >> IP 地址访问控制来禁用 IP 地址限制,或使用无服务器的固定 IP。

如果错误仍然存在,请提交票证。

SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR

SQLSTATE:KD000

ServiceNow 中发生错误。 源 API 类型:<saasSourceApiType>

检测到 ServiceNow API 端点 URL 无效。 URL 结构与预期的 ServiceNow 格式不匹配。

检查 UC 连接凭据中的 ServiceNow 实例配置。

有关更多详细信息,请参阅 SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR

SERVICENOW_CONNECTOR_MAX_FAILED_ATTEMPTS_REACHED

SQLSTATE:KD000

ServiceNow 中发生错误。 源 API 类型:<saasSourceApiType>

当表的数据提取时间过长时,通常会发生这种情况。 作为第一步,请与 ServiceNow 管理员协作,在游标列上启用索引。

游标列按以下顺序从列表中选择,按可用性和偏好排序:sys_updated_on(首选)、sys_CREATED_on(次选)、sys_archived(第三选)

有关在 ServiceNow 中启用索引的说明,请参阅: https://docs.databricks.com/ingestion/lakeflow-connect/servicenow-overview#why-is-my-servicenow-ingestion-performance-slow.

我们还建议将 REST API 查询超时增加到 60 秒以上,以允许更多时间提取记录。

然后,重试引入管道。 如果问题仍然存在,请提交工单。

SERVICENOW_CONNECTOR_SCHEMA_FIELD_TYPE_MISMATCH

SQLSTATE:KD000

提取表架构时,ServiceNow 中发生错误。

为字段“”<fieldName>“”<firstDataType>和“”<secondDataType>找到了两种冲突的数据类型。

要继续运行管道,请删除此表。 如果错误仍然存在,请提交票证。

SERVICENOW连接器未经授权访问错误

SQLSTATE:KD000

ServiceNow 中发生错误。 源 API 类型:<saasSourceApiType>

有关更多详细信息,请参阅 SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR

SET_TBLPROPERTIES_NOT_ALLOWED_FOR_PIPELINE_TABLE

SQLSTATE:0AKLT

ALTER <commandTableType> ... SET TBLPROPERTIES 不支持。 若要修改表属性,请更改原始定义并运行更新。

SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE

SQLSTATE:KD000

对象 <objName> 的引入不完整,因为 Salesforce API 查询作业花费的时间过长、失败或已手动取消。

有关更多详细信息,请参阅 SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE

SFDC_CONNECTOR_BULK_QUERY_NOT_FOUND

SQLSTATE:KD000

对象 <objName> 引入失败,因为找不到 Salesforce 批量 API 查询作业。

请对特定目标表执行 FULL REFRESH

SFDC_CONNECTOR_CREATE_BULK_QUERY_API_LIMIT_EXCEEDED

SQLSTATE:KD000

Salesforce API 调用中出现错误:超出 API 限制

请等待 API 限制重置。 然后尝试刷新目标表。

如果错误仍然存在,请提交票证。

SFDC_CONNECTOR_CREATE_BULK_QUERY_JOB_FAILED

SQLSTATE:KD000

由于创建 Salesforce 批量 API 查询作业失败,对象 <objName> 引入不完整。 错误代码:<saasSourceApiErrorCode>

<actionText>

SINKS_NOT_SUPPORTED_IN_SEG

SQLSTATE:0A000

在启用无服务器出口控制的工作区中不支持管道中的 DLT 接收器。 支持的 DLT 接收器是 Kafka 和 Delta。

找到以下不支持的接收器:<sinkNames>,其对应格式为:<sinkFormats>

SOURCE_TABLE_NOT_MATERIALIZED

SQLSTATE:42704

无法读取依赖数据集“”<sourceTableName>,因为它未具体化。 运行整个工作流以生成所有依赖的数据集。

STANDALONE_PRIVATE_MVST_NOT_SUPPORTED

SQLSTATE:0A000

不支持创建独立的 PRIVATE MV/ST。 请删除 PRIVATE 修饰符

STREAMING_TARGET_NOT_DEFINED

SQLSTATE:42P01

找不到<target>对应的<command>命令的目标表。 管道中未定义目标表 <target>

SYNCED_TABLE_USER_ERROR

SQLSTATE:42000

同步表管道用户错误。

有关详细信息,请参阅SYNCED_TABLE_USER_ERROR

TABLE_CHANGED_DURING_OPERATION

SQLSTATE:55019

<tableName> 在事务外被修改,此事务已回滚。 重试操作。

TABLE_MATERIALIZATION_CYCLIC_FOREIGN_KEY_DEPENDENCY

SQLSTATE:42887

管道更新为管道:<pipelineId> 检测到外键约束的循环链:<tables>

TABLE_SPEC_BOTH_CATALOG_SCHEMA_REQUIRED

SQLSTATE:42000

TableSpec 缺少源目录和/或源架构之一。

表规范详细信息:

<tableSpec>

TABLE_SPEC_EMPTY_CATALOG

SQLSTATE:3D000

TableSpec 在目录字段中有一个空字符串。

请删除空字符串或添加目录名称。 (如果此表不属于源中的目录,请不要设置字段。

表规范详细信息:

<tableSpec>

TABLE_SPEC_EMPTY_SCHEMA

SQLSTATE:3F000

TableSpec 在架构字段中有一个空字符串。

请删除空字符串或添加架构名称。 (如果此表不属于源中的架构,请不要设置字段。

表规范详细信息:

<tableSpec>

TABLE_SPEC_EMPTY_TABLE

SQLSTATE:42601

表名为空。 请提供表名。

表规范详细信息:

<tableSpec>

TABLE_TOKEN_NOT_EXIST_FOR_SCHEMA_EVOLUTION_LEGACY_TABLE

SQLSTATE:42KD4

由于缺少元数据,无法启用架构演变。 请触发完全刷新。

原因:启用架构演变时必须定义快照表令牌。

触发间隔值无效

SQLSTATE:22003

触发器间隔必须是正持续时间,最大可接受的值为 2,147,483,647 秒。 收到了:<actual> 秒。

TRIGGER_ON_VIEW_READ_FROM_FILE_NOT_SUPPORTED

SQLSTATE:0A000

<source> 是从文件位置读取的视图,当前不被触发器支持。

触发源类型不被支持

SQLSTATE:0A000

触发器当前不支持类型为 <source> 的源 <type>

UC_CLEARING_TARGET_SCHEMA_NOT_ALLOWED

SQLSTATE:0AKD0

不允许在 UC 管道中清除目标架构字段。 原因:<reason>

UC_NOT_ENABLED

SQLSTATE:0A000

DLT 中未启用使用 UC 目录。

UC_PIPELINE_CANNOT_PUBLISH_TO_HMS

SQLSTATE:42000

启用 UC 的管道无法发布到 Hive 元存储。 请选择其他目标目录。

UC_TARGET_SCHEMA_REQUIRED

SQLSTATE:0AKD0

UC 管道需要目标架构字段。 原因:<reason>

UNABLE_TO_INFER_TABLE_SCHEMA

SQLSTATE:42KD9

无法从其上游流推断表 <tableName> 的架构。

请修改写入此表的流,使其架构兼容。

到目前为止推断的架构:

<inferredDataSchema>

不兼容的架构:

<incompatibleDataSchema>

UNEXPECTED_PIPELINE_SCHEMA_PERMISSION_ERROR

SQLSTATE:42501

检查管道 <pipelineId>的架构权限时出现意外错误。 请联系 Databricks 支持部门。

UNIFORM_COMPATIBILITY_CANNOT_SET_WITH_ROW_FILTERS_OR_COLUMN_MASKS

SQLSTATE:42000

不能对应用行筛选器或列掩码的物化视图或流式表设置统一的兼容性。

UNITY_CATALOG_INITIALIZATION_FAILED

SQLSTATE:56000

在群集 <clusterId>上设置管道时遇到 Unity 目录错误。

确保 Unity 目录配置正确,并且所需的资源(例如目录、架构)存在且可访问。

此外,请验证群集是否具有访问 Unity 目录的适当权限。

详细信息:<ucErrorMessage>

UNRESOLVED_SINK_PATH

SQLSTATE:22KD1

无法解析接收器 <identifier> 的存储路径。 请联系 Databricks 支持部门。

UNRESOLVED_TABLES_FOR_MAINTENANCE

SQLSTATE:55000

下表是在管道定义中找到的,但在维护期间无法解析。 如果问题仍然存在,请使用最新的管道定义运行管道更新任务,以生成管道定义中的所有表,解除维护阻塞,或者联系 Databricks 支持部门。

<unresolvedTableIdentifiersSet>

UNRESOLVED_TABLE_PATH

SQLSTATE:22KD1

无法解析表 <identifier> 的存储路径。 请联系 Databricks 支持部门。

UNSUPPORTED_ALTER_COMMAND

SQLSTATE:0A000

ALTER <commandTableType> ... <command> 不支持。

UNSUPPORTED_CHANNEL_FOR_DPM

SQLSTATE:0A000

直接发布模式不支持的通道。 期望“CURRENT”或“PREVIEW”通道,但得到“PREVIOUS

UNSUPPORTED_COMMAND_IN_NON_DPM_PIPELINE

SQLSTATE:0A000

<command> 仅在启用直接发布模式的 Lakeflow 声明式管道中受支持。

UNSUPPORTED_COMMAND_IN_QUERY_DEFINITION

SQLSTATE:0A000

查询定义不支持“<command>” 。 请将命令移到查询定义之外。 如果是 Python 中的管道,请将 <command> 移到 @dlt.table()/@dlt.view() 修饰器之外。 如果它是 Scala 中的管道,请将“”<command>移动到“query”方法的外部。

UNSUPPORTED_CUSTOM_DBR_VERSION

SQLSTATE:42000

自定义 DBR 版本“<v>”在 SHIELDHIPAA 工作区中不受支持。 期望 [<supportedDbrVersions>] 之一

UNSUPPORTED_DBR_VERSION

SQLSTATE:42000

不支持 DBR 版本“<v>”。 期望 [<supportedDbrVersions>] 之一

UNSUPPORTED_FEATURE_FOR_WORKSPACE

SQLSTATE:0A000

工作区不支持 <featureName>。 请联系 Databricks 支持部门,为工作区启用此功能。

UNSUPPORTED_LANGUAGE

SQLSTATE:0A000

未能加载 <language> 笔记本“<notebookPath>”。 目前仅支持 <supportedLanguages> 笔记本。

不支持的库文件类型

SQLSTATE:0A000

该文件 <path> 没有.py或.sql后缀。 管道中仅支持 Python 和 SQL 文件。

UNSUPPORTED_LIBRARY_NOTEBOOK_LANGUAGE

SQLSTATE:0A000

笔记本 <path> 不支持语言 <language>。 管道中仅支持 Python 和 SQL

不支持的库对象类型

SQLSTATE:0A000

包含在路径中的<path>类型为<objectType>,该类型不受支持。 目前,只能将笔记本和文件用作库。 若要解决此问题,请删除不受支持的对象或更新为此管道配置的库,以便仅包含受支持的对象类型。

UNSUPPORTED_MANAGED_INGESTION_SOURCE_TYPE

SQLSTATE:0A000

托管引入管道定义无效,源类型不受支持:<sourceType>

UNSUPPORTED_SAAS_INGESTION_TYPE

SQLSTATE:0A000

不支持提供的引入类型 <ingestionType>

如果此问题仍然存在,请联系 Databricks 支持部门。

不支持的SPARK SQL命令

SQLSTATE:0A000

DLT Python 中的 spark.sql(“...”) API 不支持'<command>' 。 支持的命令:<supportedCommands>

UPDATED_DEFINITION_SET_FOR_NON_DBSQL_PIPELINE

SQLSTATE:42000

只有 DBSQL 管道可以有 updated_definition。

USE_CATALOG_IN_HMS

SQLSTATE:0A000

USE CATALOG 仅在启用 UC 的 Lakeflow 声明式管道中受支持。

查看未在UC中保存的文本

SQLSTATE:42000

无法刷新表 <tableName>,因为它没有保存在 Unity 目录中的查询。 请联系 Databricks 支持部门。

WORKDAY_REPORTS_CONNECTOR_REPORT_NOT_FOUND_ERROR

SQLSTATE:KD000

Workday 报表中发生错误。 源 API 类型:<saasSourceApiType>

报表 URL“”<reportUrl>不正确。 请检查基 URL 或报表名称中的任何拼写错误以解决此问题。

如果问题仍然存在,请提交工单。

Workday 报告连接器未授权访问错误

SQLSTATE:KD000

Workday 报表中发生错误。 源 API 类型:<saasSourceApiType>

有关更多详细信息,请参阅 WORKDAY_REPORTS_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR

工作日报告网址为空

SQLSTATE:42000

Workday 报表 URL 为空。 必须至少提供一个报表。

WORKSPACE_QUOTA_EXCEEDED

SQLSTATE:54000

无法启动更新“<updateId>”,因为此工作区中已有“<maxActiveUpdates>”个活动管道在运行。

杂项

ABAC_POLICIES_NOT_SUPPORTED_FOR_RUNTIME_VERSION

SQLSTATE:未分配

由于 <dbrVersionMessage>,在分配的群集上不支持对具有 ABAC 策略的表 <tableFullName> 进行查询。 需要版本 <minimumSupportedVersion> 或更高版本。

AZURE_ENTRA_CREDENTIALS_MISSING

SQLSTATE:未分配

Azure Entra(即 Azure Active Directory)凭据缺失。

请确保已用 Entra 帐户登录

或已在用户设置中为 > Git 集成设置了 Azure DevOps 个人访问令牌(PAT)。

如果不使用 PAT,并且正在将 Azure DevOps 与 Repos API 配合使用,

必须使用 Azure Entra 访问令牌。

请参阅 https://docs.microsoft.com/azure/databricks/dev-tools/api/latest/aad/app-aad-token 获取 Azure Entra 访问令牌的步骤。

AZURE_ENTRA_CREDENTIALS_PARSE_FAILURE

SQLSTATE:未分配

遇到与您的 Azure Entra(Azure Active Directory)凭据相关的错误。 请尝试注销

Entra (https://portal.azure.com) 并重新登录。

或者,还可以访问“用户设置”> Git 集成来设置

设置 Azure DevOps 个人访问令牌。

Azure Entra 登录错误 (AZURE_ENTRA_LOGIN_ERROR)

SQLSTATE:未分配

您的 Azure Active Directory 凭据出现错误。 请尝试注销

Azure Active Directory (https://portal.azure.com) 并重新登录。

AZURE_ENTRA_WORKLOAD_IDENTITY_ERROR

SQLSTATE:未分配

遇到 Azure 工作负荷身份错误,Azure 异常:<azureWorkloadIdentityExceptionMessage>

CLEAN_ROOM_DELTA_SHARING_ENTITY_NOT_AUTHORIZED

SQLSTATE:未分配

无法请求为清洁室 Delta Sharing 安全对象生成凭据。

CLEAN_ROOM_HIDDEN_SECURABLE_PERMISSION_DENIED

SQLSTATE:未分配

类型为 <securableName> 且种类为 <securableType> 的安全对象 <securableKind> 由清洁室系统管理,用户无权访问。

CONSTRAINT_ALREADY_EXISTS

SQLSTATE:未分配

名为 <constraintName> 的约束已存在,请选择其他名称。

约束不存在

SQLSTATE:未分配

约束 <constraintName> 不存在。

无法读取远程存储库

SQLSTATE:未分配

无法读取远程存储库(<repoUrl>)。

请访问您的远程 Git 提供商以确保:

  1. 远程 Git 存储库 URL 有效。

  2. 个人访问令牌或应用密码具有正确的存储库访问权限。

COULD_NOT_RESOLVE_REPOSITORY_HOST

SQLSTATE:未分配

无法解析 <repoUrl> 的主机。

CSMS_BEGINNING_OF_TIME_NOT_SUPPORTED

SQLSTATE:未分配

参数 beginning_of_time 不能为 true。

CSMS_CONTINUATION_TOKEN_EXPIRED

SQLSTATE:未分配

找不到延续令牌的请求对象。

CSMS_INVALID_CONTINUATION_TOKEN

SQLSTATE:未分配

延续令牌无效。 原因:<msg>

CSMS_INVALID_MAX_OBJECTS

SQLSTATE:未分配

参数 max_objects 的值 <value> 无效,预期值应在 [<minValue>, <maxValue>] 之间。

CSMS_INVALID_SUBSCRIPTION_ID (无效的订阅ID)

SQLSTATE:未分配

订阅 ID 无效。 原因:<msg>

CSMS_INVALID_URI_FORMAT

SQLSTATE:未分配

URI 格式无效。 需要卷(例如“/Volumes/catalog/schema/volume”)或云存储路径(例如“s3://some-uri”)

CSMS_KAFKA_TOPIC_MISSING

SQLSTATE:未分配

必须提供 Kafka 主题

CSMS_LOCATION_ERROR

SQLSTATE:未分配

无法列出对象。 这个位置存在需要解决的问题。 详细信息:<msg>

CSMS_LOCATION_NOT_KNOWN

SQLSTATE:未分配

找不到 uri <path> 的位置

CSMS_METASTORE_ID_MISSING

SQLSTATE:未分配

必须提供元存储 uuid

CSMS_METASTORE_RESOLUTION_FAILED

SQLSTATE:未分配

无法确定请求的元存储。

CSMS_RESOLVE_LOCAL_SHARD_NAME_FAILED

SQLSTATE:未分配

CSMS 无法解析本地分片名称

CSMS_服务_已禁用

SQLSTATE:未分配

服务已禁用

CSMS_SHARD_NAME_MISSING_IN_REQUEST

SQLSTATE:未分配

发送到 CSMS 的 rpc 请求中缺少分片名称

CSMS_UNITY_CATALOG_ENTITY_NOT_FOUND

SQLSTATE:未分配

找不到 Unity 目录实体。 确保存在目录、架构、卷和/或外部位置。

CSMS_UNITY_CATALOG_EXTERNAL_LOCATION_DOES_NOT_EXIST

SQLSTATE:未分配

Unity 目录外部位置不存在。

CSMS_UNITY_CATALOG_EXTERNAL_STORAGE_OVERLAP

SQLSTATE:未分配

URI 与其他卷重叠

CSMS_UNITY_CATALOG_METASTORE_DOES_NOT_EXIST

SQLSTATE:未分配

无法确定请求的元存储。 元存储不存在

CSMS_UNITY_CATALOG_PERMISSION_DENIED

SQLSTATE:未分配

权限被拒绝

CSMS_UNITY_CATALOG_TABLE_DOES_NOT_EXIST

SQLSTATE:未分配

Unity 目录表不存在。

CSMS_UNITY_CATALOG_VOLUME_DOES_NOT_EXIST

SQLSTATE:未分配

Unity 目录卷不存在。

CSMS_UNSUPPORTED_SECURABLE

SQLSTATE:未分配

不支持的安全对象

CSMS_URI_MISSING

SQLSTATE:未分配

必须提供 URI

CSMS_URI过长

SQLSTATE:未分配

提供的 URI 太长。 允许的最大长度为 <maxLength>

DMK_CATALOGS_DISALLOWED_ON_CLASSIC_COMPUTE

SQLSTATE:未分配

无法使用经典计算访问 Databricks 默认存储。 请使用无服务器计算访问默认存储中的数据

GitHub 应用无法刷新凭证

SQLSTATE:未分配

操作失败,因为无法更新关联的 GitHub 应用凭据。

请重试或转到“用户设置”> Git 集成,然后尝试重新链接 Git 提供程序帐户。

如果问题仍然存在,请提交支持票证。

GITHUB_APP_CREDENTIALS_NO_ACCESS

SQLSTATE:未分配

您的 GitHub 帐户链接没有访问权限。 若要修复此错误,请:

  1. 存储库的管理员必须转到 https://github.com/apps/databricks/installations/new 存储库中并安装 Databricks GitHub 应用。

或者,GitHub 帐户所有者可以在帐户上安装应用,以授予对帐户存储库的访问权限。

  1. 如果应用已安装,请让管理员确保如果他们使用“仅选择存储库”选项的范围访问,则通过选择它来包含对该存储库的访问。

有关详细信息,请参阅https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app

如果问题仍然存在,请提交支持票证。

GitHub 应用程序凭证已过期

SQLSTATE:未分配

链接的 GitHub 应用凭据在 6 个月不使用后过期。

转到“用户设置”>“Git 集成”,然后尝试重新链接凭据。

如果问题仍然存在,请提交支持票证。

不同用户帐户上的GITHUB应用安装

SQLSTATE:未分配

您的 GitHub 帐户链接没有访问权限。 若要修复此错误,请:

  1. GitHub 用户 <gitCredentialUsername> 应转到 https://github.com/apps/databricks/installations/new 帐户 <gitCredentialUsername> 并安装应用以允许访问。

  2. 如果用户 <gitCredentialUsername> 已安装应用,并且他们使用“仅选择存储库”选项的范围访问,则他们应确保通过选择它来包含对该存储库的访问。

有关详细信息,请参阅https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app

如果问题仍然存在,请提交支持票证。

GITHUB_APP_INSTALL_ON_ORGANIZATION

SQLSTATE:未分配

您的 GitHub 帐户链接没有访问权限。 若要修复此错误,请:

  1. GitHub 组织的 <organizationName> 所有者应转到 https://github.com/apps/databricks/installations/new,并在 <organizationName> 组织中安装应用程序以允许访问。

  2. 如果应用已在 GitHub 组织 <organizationName> 上安装,请让该组织的所有者确保如果使用“仅选择存储库”选项的范围访问,则通过选择它来包含对该存储库的访问。

有关详细信息,请参阅https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app

如果问题仍然存在,请提交支持票证。

在您的账户上安装GitHub应用程序

SQLSTATE:未分配

您的 GitHub 帐户链接没有访问权限。 若要修复此错误,请:

  1. 转到 https://github.com/apps/databricks/installations/new 帐户 <gitCredentialUsername> 并安装应用以允许访问。

  2. 如果应用已安装,并且你使用“仅选择存储库”选项的范围访问,请确保通过选择它来包含对该存储库的访问。

有关详细信息,请参阅https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app

如果问题仍然存在,请提交支持票证。

GIT集群未准备好

SQLSTATE:未分配

Git 群集未准备就绪。

GIT_CREDENTIAL_GENERIC_INVALID

SQLSTATE:未分配

存储库 URL <repoUrl>的 Git 提供程序凭据无效。

当前 Git 凭据提供程序为 <gitCredentialProvider>,用户名为 <gitCredentialUsername>

转到“用户设置”>“Git 集成”以查看凭据。

请访问您的远程 Git 提供商以确保:

  1. 你已使用 Git 提供程序凭据输入正确的 Git 用户电子邮件或用户名。

  2. 令牌或应用密码具有正确的存储库访问权限。

  3. 令牌未过期。

  4. 如果您已为您的 Git 提供商启用 SSO,请务必授权您的令牌。

GIT_CREDENTIAL_INVALID_PAT

SQLSTATE:未分配

存储库 URL <repoUrl>的 Git 提供程序个人访问令牌凭据无效。

当前 Git 凭据提供程序为 <gitCredentialProvider>,用户名为 <gitCredentialUsername>

转到“用户设置”>“Git 集成”以查看凭据。

请访问您的远程 Git 提供商以确保:

  1. 你已使用 Git 提供程序凭据输入正确的 Git 用户电子邮件或用户名。

  2. 令牌或应用密码具有正确的存储库访问权限。

  3. 令牌未过期。

  4. 如果您已为您的 Git 提供商启用 SSO,请务必授权您的令牌。

GIT_CREDENTIAL_MISSING

SQLSTATE:未分配

未配置 Git 凭据,但此存储库需要凭据(<repoUrl>)。

转到“用户设置”> Git 集成以设置 Git 凭据。

GIT_CREDENTIAL_NO_WRITE_PERMISSION

SQLSTATE:未分配

未授予对 <gitCredentialProvider> 存储库(<repoUrl>)的写入访问权限。

请确保(<gitCredentialUsername>)对此远程存储库具有写入访问权限。

GIT_CREDENTIAL_PROVIDER_MISMATCHED

SQLSTATE:未分配

存储库的 Git 凭据提供程序不正确。

你当前的 Git 凭据提供程序 (<gitCredentialProvider>) 与存储库的 Git 提供程序 <repoUrl> 不匹配。

请尝试其他存储库或转到“用户设置”> Git 集成来更新 Git 凭据。

GIT_PROXY_CLUSTER_NOT_READY

SQLSTATE:未分配

Git 代理群集尚未准备就绪。

GIT_SECRET_IN_CODE

SQLSTATE:未分配

在提交中找到的机密。 详细信息:<secretDetail>。 若要修复此错误,请:

删除机密,然后重试提交。

如果问题仍然存在,请提交支持票证。

HIERARCHICAL_NAMESPACE_NOT_ENABLED

SQLSTATE:未分配

Azure 存储帐户未启用分层命名空间。

INVALID_FIELD_LENGTH

SQLSTATE:未分配

<rpcName> <fieldName> 太长。 最大长度为 <maxLength> 个字符。

参数值无效

SQLSTATE:未分配

<msg>

有关更多详细信息,请参阅 INVALID_PARAMETER_VALUE

JOBS_TASK_FRAMEWORK_TASK_RUN_OUTPUT_NOT_FOUND

SQLSTATE:未分配

任务框架:找不到具有 runId <runId> 和 orgId <orgId> 的任务运行输出。

JOBS_TASK_FRAMEWORK_TASK_RUN_STATE_NOT_FOUND

SQLSTATE:未分配

任务框架:找不到具有 runId <runId> 和 orgId <orgId> 的任务运行状态。

JOBS_TASK_REGISTRY_TASK_CLIENT_CONFIG_DOES_NOT_EXIST

SQLSTATE:未分配

任务 ID 为 <taskId> 的 RPC ClientConfig 不存在。

JOBS_TASK_REGISTRY_TASK_DOES_NOT_EXIST

SQLSTATE:未分配

ID 为 <taskId> 的任务不存在。

JOBS_TASK_REGISTRY_UNSUPPORTED_JOB_TASK

SQLSTATE:未分配

任务注册表:类 <taskClassName> 不支持或未知的 JobTask。

PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_EXTERNAL_SHALLOW_CLONE

SQLSTATE:未分配

不支持对外部浅克隆表 <tableFullName> 进行基于路径的访问。 请改用表名来访问浅表克隆。

PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_FABRIC

SQLSTATE:未分配

位于 url '<url>' 的结构表未找到。 请使用 REFRESH FOREIGN CATALOG 命令填充 Fabric 表。

PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_TABLES_WITH_ROW_COLUMN_ACCESS_POLICIES

SQLSTATE:未分配

不支持行筛选器或列掩码的基于路径的访问表 <tableFullName>

PERMISSION_DENIED

SQLSTATE:未分配

用户在 <resourceType> '<resourceName>' 上没有 <msg> 权限。

REDASH_DELETE_ASSET_HANDLER_INVALID_INPUT

SQLSTATE:未分配

无法分析删除对象请求:<invalidInputMsg>

REDASH_DELETE_OBJECT_NOT_IN_TRASH

SQLSTATE:未分配

无法删除不在回收站中的对象 <resourceName>

REDASH_PERMISSION_DENIED

SQLSTATE:未分配

找不到资源 <resourceId>,或没有权限访问。

REDASH_QUERY_NOT_FOUND

SQLSTATE:未分配

无法从查询 ID <queryId> 找到资源

REDASH_QUERY_SNIPPET_CREATION_FAILED

SQLSTATE:未分配

无法创建新的查询代码段

REDASH_QUERY_SNIPPET_QUOTA_EXCEEDED

SQLSTATE:未分配

已达到查询代码段数的配额。 当前配额为 <quota>

REDASH_QUERY_SNIPPET_TRIGGER_ALREADY_IN_USE

SQLSTATE:未分配

指定的触发器 <trigger> 已被此工作区中的其他查询代码片段使用。

REDASH_RESOURCE_NOT_FOUND

SQLSTATE:未分配

请求的资源 <resourceName> 不存在

REDASH_RESTORE_ASSET_HANDLER_INVALID_INPUT

SQLSTATE:未分配

无法分析删除对象请求:<invalidInputMsg>

REDASH_RESTORE_OBJECT_NOT_IN_TRASH

SQLSTATE:未分配

无法还原不在回收站中的编号为 <resourceName> 的对象

REDASH_TRASH_OBJECT_ALREADY_IN_TRASH

SQLSTATE:未分配

无法将已放入回收站的对象 <resourceName> 再次放入回收站

瑞达什无法生成资源名称

SQLSTATE:未分配

无法从 ID <id> 生成资源名称

REDASH_VISUALIZATION_CREATION_FAILED

SQLSTATE:未分配

无法创建新的可视化效果

REDASH_VISUALIZATION_NOT_FOUND

SQLSTATE:未分配

找不到可视化效果 <visualizationId>

REDASH_VISUALIZATION_QUOTA_EXCEEDED

SQLSTATE:未分配

查询 <query_id> 的可视化数量配额已达到上限。 当前配额为 <quota>

存储库网址未找到

SQLSTATE:未分配

找不到远程存储库(<repoUrl>)。

当前 Git 凭据提供程序为 <gitCredentialProvider>,用户名为 <gitCredentialUsername>

请访问您的远程 Git 提供商以确保:

  1. 远程 Git 存储库 URL 有效。

  2. 个人访问令牌或应用密码具有正确的存储库访问权限。

RESOURCE_ALREADY_EXISTS

SQLSTATE:未分配

<resourceType> '<resourceIdentifier>' 已存在

资源不存在

SQLSTATE:未分配

<resourceType> '<resourceIdentifier>' 不存在。

ROW_COLUMN_ACCESS_POLICIES_NOT_SUPPORTED_ON_ASSIGNED_CLUSTERS

SQLSTATE:未分配

在已分配的群集上,不支持对包含行筛选器或列掩码的表 <tableFullName> 执行查询。

ROW_COLUMN_SECURITY_NOT_SUPPORTED_WITH_TABLE_IN_DELTA_SHARING

SQLSTATE:未分配

<tableFullName> 正在通过 Delta Sharing 进行共享,不能使用行/列安全性。

服务暂时不可用

SQLSTATE:未分配

<serviceName> 服务暂时处于维护状态。 请稍后重试。

TABLE_WITH_ROW_COLUMN_SECURITY_NOT_SUPPORTED_IN_ONLINE_MODE

SQLSTATE:未分配

<tableFullName> 不能同时具有行/列安全性和联机具体化视图。

TOO_MANY_ROWS_TO_UPDATE

SQLSTATE:未分配

要更新的行太多,更新正在中止。