適用於:
Databricks SQL
Databricks Runtime 12.2 及以上版本
錯誤狀況是具有描述性、方便人類閱讀的字串,這些字串專門用於描述特定的錯誤。
您可以使用錯誤條件,以程式設計方式處理應用程式中的錯誤,而不需要剖析錯誤訊息。
這是 Azure Databricks 傳回的常見具名錯誤條件清單。
Databricks Runtime 和 Databricks SQL
ADD_DEFAULT_UNSUPPORTED
無法執行 <statementType> 命令,因為在使用數據表提供者 "DEFAULT" 將新列新增至已存在的目標數據來源時,<dataSource> 值不受支援。
AGGREGATE_FUNCTION_IN_NESTED_REFERENCES_NOT_SUPPORTED(不支援巢狀引用中的聚合函數)
在不支援的外部範圍參考 <expression> 中偵測到聚合函數。
AGGREGATE_FUNCTION_WITH_NONDETERMINISTIC_EXPRESSION
不具決定性表達式 <sqlExpr> 不應該出現在聚合函數的自變數中。
AI_FUNCTION_HTTP_PARSE_CAST_ERROR
無法將模型輸出轉換為指定的 returnType:“<dataType>”,回應 JSON 是:“<responseString>”。 請更新 returnType,使其與回應 JSON 所代表的類型內容相符,然後再重新嘗試查詢。 例外狀況:<errorMessage>
AI_FUNCTION_HTTP_PARSE_COLUMNS_ERROR
實際模型輸出有多個“<responseString>”列。 不過,指定的傳回類型 [<dataType>] 只有一個欄位。 請更新 returnType,以包含與模型輸出相同的數據行數目,然後再次重試查詢。
AI_FUNCTION_HTTP_REQUEST_ERROR
對函 <funcName>式提出 HTTP 要求時發生錯誤: <errorMessage>
AI_FUNCTION_INVALID_HTTP_RESPONSE
函式的 <funcName>HTTP 回應無效: <errorMessage>
AI_FUNCTION_INVALID_MAX_WORDS
字數上限必須是非負整數,但取得 <maxWords>。
AI_FUNCTION_INVALID_MODEL_PARAMETERS
提供的模型參數(<modelParameters>)在用於服務端點「AI_QUERY」的函數 <endpointName> 中無效。
如需詳細資訊,請參閱 AI_FUNCTION_INVALID_MODEL_PARAMETERS
AI_FUNCTION_INVALID_RESPONSE_FORMAT_TYPE
AI 函式:「<functionName>」需要「<format>」參數的有效「responseFormat」字串,但發現的回應格式如下:「<invalidResponseFormat>」。 例外狀況:<errorMessage>
AI_FUNCTION_JSON_PARSE_ERROR
在解析 JSON 函數 <funcName>的回應時發生錯誤: <errorMessage>
AI_FUNCTION_MODEL_SCHEMA_PARSE_ERROR
未能解析服務端點「<endpointName>“: <errorMessage>,回應 JSON 為:「<responseJson>」。
在returnType函式中手動設定AI_QUERY參數以覆寫架構解析。
AI_FUNCTION_REGISTRY_LOOKUP_FAILURE
無法動態解析 AI 函式登錄檔中的函式「<functionName>」。
AI_FUNCTION_UNSUPPORTED_ERROR
<funcName>目前環境中不支援函式。 它僅適用於 Databricks SQL Pro 和無伺服器。
AI_FUNCTION_UNSUPPORTED_REQUEST
無法評估 SQL 函式 “<functionName>”,因為 提供的 自變數 <invalidValue> 有 “<invalidDataType>”,但只支援下列類型: <supportedDataTypes>。 請更新函式呼叫以提供字串類型的自變數,然後再次重試查詢。
AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT
找到不支持的回應格式。
如需詳細資訊,請參閱 AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT
AI_FUNCTION_UNSUPPORTED_RETURN_TYPE
AI 函式:“<functionName>” 不支援下列類型做為傳回類型:“<typeName>”。 傳回型別必須是由 Catalyst 所瞭解且由 AI 函式支援的有效 SQL 類型。 目前支援的類型包括: <supportedValues>
AI_INVALID_ARGUMENT_VALUE_ERROR
提供的值 "<argValue>" 不被參數 "<argName>" 支援。 支援的值為: <supportedValues>
AI_QUERY_ENDPOINT_NOT_SUPPORT_STRUCTURED_OUTPUT
預期服務端點的工作類型應為「聊天」以支援結構化輸出,但在端點 "<taskType>" 找到了 "<endpointName>"。
AI_QUERY_RETURN_TYPE_COLUMN_TYPE_MISMATCH
自變數 returnType 不支援提供的 “<sqlExpr> ”。
AI_SEARCH_CONFLICTING_QUERY_PARAM_SUPPLY_ERROR
針對 vector_search SQL 函式偵測到的衝突參數: <conflictParamNames>。<hint>
AI_SEARCH_EMBEDDING_COLUMN_TYPE_UNSUPPORTED_ERROR
vector_search 不支援內嵌數據行類型的 <embeddingColumnType> SQL 函式。
AI_SEARCH_EMPTY_QUERY_PARAM_ERROR
vector_search SQL 函式遺漏查詢輸入參數,請至少指定一個來源: <parameterNames>。
AI_SEARCH_HYBRID_QUERY_PARAM_DEPRECATION_ERROR
query 參數對於 vector_search SQL 函式在 hybrid 向量搜尋中是不支持的。 請改用 query_text。
AI_SEARCH_HYBRID_TEXT_NOT_FOUND_ERROR
在 vector_search SQL 函數中找不到 hybrid 向量搜尋的查詢文字。 請提供 query_text。
AI_SEARCH_INDEX_TYPE_UNSUPPORTED_ERROR
vector_search 不支援具有索引類型的 <indexType> SQL 函式。
AI_SEARCH_MISSING_EMBEDDING_INPUT_ERROR
query_vector 必須針對索引 <indexName> 指定,因為它與內嵌模型端點無關。
AI_SEARCH_QUERY_TYPE_CONVERT_ENCODE_ERROR
在要求編碼期間,無法將 SQL 函數查詢從 spark 類型 vector_search 轉化為 Scala 原生物件 <dataType>,並出現錯誤:<errorMessage>。
AI_SEARCH_QUERY_TYPE_UNSUPPORTED_ERROR
vector_search 不支援具有查詢類型的 <unexpectedQueryType> SQL 函式。 請從中選擇一個:<supportedQueryTypes>。
AI_SEARCH_UNSUPPORTED_NUM_RESULTS_ERROR
vector_search 不支援num_results大於 <maxLimit> 的 SQL 函式。 指定的限制為 <requestedLimit>。 請使用 num_results再試一次 <= <maxLimit>
AI_TOP_DRIVERS_PARAM_OUT_OF_RANGE
參數ai_top_drivers<param>必須在<lo>和<hi>之間。
AI_TOP_DRIVERS_UNSUPPORTED_AGGREGATION_TYPE
ai_top_drivers 不支持 <aggName> 匯總。 選擇下列其中一個支援的聚合:<allowed>。
AI_TOP_DRIVERS_UNSUPPORTED_DIMENSION_TYPE
ai_top_drivers 不支援數值、地圖或結構維度數據行。 資料列 <colName> 的類型為 <dataType>。 移除此維度或將其轉換為支援的類型。
AI_TOP_DRIVERS_UNSUPPORTED_LABEL_TYPE
ai_top_drivers 需要標籤欄位的類型為布林值。 資料列 <colName> 的類型為 <dataType>。 變更標籤資料行,或將它轉換成支援的類型。
AI_TOP_DRIVERS_UNSUPPORTED_METRIC_TYPE
ai_top_drivers 需要計量數據行類型為數值。 資料列 <colName> 的類型為 <dataType>。 變更計量數據行,或將它轉換成支持的類型。
ALL_PARAMETERS_MUST_BE_NAMED
使用名稱參數化查詢需要命名所有參數。 參數缺少名稱: <exprs>。
ALL_PARTITION_COLUMNS_NOT_ALLOWED
無法使用所有欄位作為分割欄位。
ALTER_SCHEDULE_DOES_NOT_EXIST
在沒有現有的排程或觸發程式的情況下,無法在數據表上改變 <scheduleType> 。 請先將排程或觸發程式新增至數據表,再嘗試加以改變。
ALTER_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
ALTER TABLE <type> column <columnName> 指定描述元「<optionName>」多次,這是無效的。
AMBIGUOUS_ALIAS_IN_NESTED_CTE
名稱 <name> 在巢狀 CTE 中模棱兩可。
請將 設定 <config> 為 “CORRECTED”,讓內部 CTE 中定義的名稱優先。 如果將其設定為 “LEGACY”,外部 CTE 定義會優先。
請參閱 https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine。
AMBIGUOUS_COLUMN_OR_FIELD
欄或欄位 <name> 模棱兩可,且具有 <n> 匹配項目。
AMBIGUOUS_COLUMN_REFERENCE
數據行 <name> 模棱兩可。 這是因為您已將數個 DataFrame 聯結在一起,而其中一些 DataFrame 相同。
此數據行指向其中一個 DataFrame,但 Spark 無法找出哪一個數據框架。
在聯結數據框架之前,請透過 DataFrame.alias 為數據框架指定不同的名稱作為別名。
並使用限定名稱指定欄位,例如 df.alias("a").join(df.alias("b"), col("a.id") > col("b.id"))。
AMBIGUOUS_CONSTRAINT
對於限制 <constraint> 的不明確參考。
AMBIGUOUS_LATERAL_COLUMN_ALIAS
橫向欄位別名 <name> 具有模棱兩可的含義且有 <n> 個相符項目。
AMBIGUOUS_REFERENCE
參考 <name> 模棱兩可,可能是: <referenceNames>。
AMBIGUOUS_REFERENCE_TO_FIELDS
關於欄位 <field> 的參考不明確。 它會在架構中出現 <count> 次。
ANALYZE_CONSTRAINTS_NOT_SUPPORTED
不支援 ANALYZE CONSTRAINTS。
分析表格計算儲存度量不支持
不支援 ANALYZE TABLE COMPUTE STORAGE METRICS。 請聯繫您的 Databricks 支援團隊,註冊此工作空間。
ANSI_CONFIG_CANNOT_BE_DISABLED
此產品中無法停用 ANSI SQL 組態 <config> 。
從批量查詢中附加一次
請使用 stream() 運算子。
從批次查詢建立串流資料表可防止從來源增量載入新資料。 造成錯誤的資料表:『<table>』。
使用方式範例:
CREATE STREAMING TABLE <target table name>
...
AS SELECT
...
FROM stream(<source table name>) ...
APPROX_TOP_K_INVALID_NUM_OF_ARGUMENTS
approx_top_k 預期會有1到3次論證,但結果是 <argNum>。
近似_最高_K_最大追踪项数量超出限制
追蹤的最大物品數量maxItemsTracked(<maxItemsTracked>)approx_top_k應小於或等於<limit>。
APPROX_TOP_K_MAX_ITEMS_TRACKED_LESS_THAN_K
追蹤物品的最大數量maxItemsTracked(<maxItemsTracked>)approx_top_k應該大於或等於k(<k>)。
APPX_頂層_K_非正值_參數
approx_top_k中<argName>的值必須是正整數,但獲得的卻是<argValue>。
APPROX_TOP_K_NULL_ARG
在approx_top_k中的<argName>值不能是NULL。
APPROX_TOP_K_SKETCH_SIZE_NOT_MATCH
不能將不同大小的 approx_top_k 草圖合併。 找到尺寸為 <size1> 和 <size2> 的草圖。
APPROX_TOP_K_SKETCH_TYPE_NOT_MATCH
不允許將不同類型的approx_top_k草圖結合。 找到了類型 <type1> 和 <type2>的草圖。
AQE_THREAD_INTERRUPTED
AQE 線程中斷,可能是因為使用者取消查詢。
ARGUMENT_NOT_CONSTANT
函式 <functionName> 包含 <parameterName> 位置 <pos> 需要常數自變數的參數。 請個別計算自變數 <sqlExpr> ,並以常數的形式傳遞結果。
ARITHMETIC_OVERFLOW
<message>。
<alternative> 如有必要,請將 設為 <config> 「false」 以略過此錯誤。
如需詳細資訊,請參閱 ARITHMETIC_OVERFLOW
ARROW_TYPE_MISMATCH
來自 <operation> 的模式無效:預期 <outputTypes>,但獲得 <actualDataTypes>。
ARTIFACT_ALREADY_EXISTS
文物 <normalizedRemoteRelativePath> 已經存在。 請選擇新成品的不同名稱,因為它無法覆寫。
ASSIGNMENT_ARITY_MISMATCH
指派或別名的欄位數或變數數目:<numTarget> 不符合來源表達式數目:<numExpr>。
AS_OF_JOIN
無效 as-of 連接。
如需詳細資訊,請參閱 AS_OF_JOIN
在管道查詢函數中嘗試分析
在管線查詢函式中不允許觸發 DataFrame 分析或執行的操作。 把程式碼移出管線查詢函式。
AUTOCOMMIT_BEGIN_TRANSACTION_DURING_AUTOCOMMIT_TRANSACTION
SET AUTOCOMMIT=FALSE 啟動的隱式交易仍處於活躍狀態時,無法啟動新交易。
COMMIT 或 ROLLBACK 先處理目前交易,然後 SET AUTOCOMMIT=TRUE,然後再開始新交易。
AUTOCOMMIT_NOT_SUPPORTED
此 AUTOCOMMIT 模式功能目前仍在開發中,尚未在 Databricks 上支援。
自動提交_不支持舊版_SQL_編輯器
AUTOCOMMIT 無法在舊有的 SQL 編輯器中存取或修改。 切換到新的 SQL 編輯器(<docLink>),或使用連接 Databricks SQL 倉庫的筆記本。
AUTOCOMMIT_ONLY_SUPPORTED_IN_DBSQL
AUTOCOMMIT 只能在 Databricks SQL 倉庫中存取或修改。
AUTOCOMMIT_SET_DURING_ACTIVE_TRANSACTION
SET AUTOCOMMIT 在進行中交易時不允許。 先提交或進行回滾。
AUTOCOMMIT 設為 FALSE 已被停用
當 AUTOCOMMIT 已經被停用時,不允許 SET AUTOCOMMIT=FALSE。 此限制避免混淆,並保持交易界線清晰。
AUTOCOMMIT_SET_TRUE_DURING_AUTOCOMMIT_TRANSACTION
SET AUTOCOMMIT=TRUE 在由SET AUTOCOMMIT=FALSE啟動的隱式交易中語句執行完成後,不允許。 只允許在SET AUTOCOMMIT=FALSE之後(在任何陳述之前),或在COMMIT或ROLLBACK之後。
AUTO_TTL_COLUMN_NOT_FOUND
Auto-TTL 的表格結構無效。 找不到自動TTL欄位 <column> 。
AUTO_TTL_欄位類型不支援
Auto-TTL 欄位 <column> 的型別 <type> 無效。 欄位類型必須是 TIMESTAMP, TIMESTAMP_NTZ、 或 DATE之一。
自動TTL功能未啟用
請聯絡您的 Databricks 代表以啟用 Auto-TTL 功能。
自動TTL不完整設定
要在資料表上設定 Auto-TTL,需要同時具備資料表屬性 autottl.timestampColumn 和 autottl.expireInDays ,但 <missing> 缺少。
自動_TTL_無效的欄位變更
<column> 欄位不能是 <operation>,因為它被用於自動TTL的定義中。
自動TTL不支援淺層複製
淺層克隆表不支援 Auto-TTL。
不支持具有淺層複製的表格的自動TTL
在有淺克隆的資料表上不支援自動 TTL。
AUTO_TTL_REQUIRES_PREDICTIVE_OPTIMIZATION
Auto-TTL 需要啟用預測優化(Predictive Optimization)。
AUTO_TTL_REQUIRES_UC_MANAGED_TABLE
Auto-TTL 僅支援於 UC 管理的資料表。
AVRO_CANNOT_WRITE_NULL_FIELD
無法為定義為非 Null Avro 資料類型<name>的欄位<dataType>寫入 Null 值。
若要允許此欄位的 Null 值,請使用 avroSchema 選項,將其 avro 結構指定為包含「null」的聯合類型。
AVRO_DEFAULT_VALUES_UNSUPPORTED
啟用時rescuedDataColumn 不支援使用預設值。 您可以藉由將 設定 spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue 為 false 來移除此檢查,但預設值將不會套用,而且仍會使用 Null 值。
AVRO_INCOMPATIBLE_READ_TYPE
無法將 Avro <avroPath> 轉換成 SQL <sqlPath> ,因為原始編碼數據類型為 <avroType>,但您嘗試將欄位讀為 <sqlType>,這會導致不正確的答案。
若要允許讀取此字段,請啟用 SQL 組態:「spark.sql.legacy.avro.allowIncompatibleSchema」。
AVRO_NOT_LOADED_SQL_FUNCTIONS_UNUSABLE
無法呼叫 <functionName> SQL 函式,因為未載入 Avro 數據源。
請重新啟動您的作業或會話,並確保已載入 'spark-avro' 套件,例如在命令行使用 --packages 參數,然後再次重試您的查詢或命令。
AVRO_POSITIONAL_FIELD_MATCHING_UNSUPPORTED
啟用 rescuedDataColumn 或 failOnUnknownFields 時,不支援使用定位欄位比對。 拿掉這些選項以繼續進行。
AZURE_憑證配置無效
Azure 金鑰提供者或憑證設定錯誤。 原因: <causedBy>。
BATCH_METADATA_NOT_FOUND
找不到批次 <batchMetadataFile>。
BIGQUERY_DATA_SOURCE_OPTIONS_VALIDATION_FAILED(BigQuery 資料來源選項驗證失敗)
BigQuery 資料來源選項驗證失敗。
如需詳細資訊,請參閱 BIGQUERY_DATA_SOURCE_OPTIONS_VALIDATION_FAILED
BIGQUERY_OPTIONS_ARE_MUTUALLY_EXCLUSIVE
BigQuery 連線認證必須使用 'GoogleServiceAccountKeyJson' 參數或所有 'projectId'、'OAuthServiceAcctEmail'、'OAuthPvtKey' 指定
BINARY_ARITHMETIC_OVERFLOW
<value1> <symbol> <value2> 造成溢位。 使用 <functionName> 忽略溢位問題並傳回 NULL。
BUILT_IN_CATALOG
<operation> 不支援內建目錄。
CALL_ON_STREAMING_DATASET_UNSUPPORTED
無法在串流數據集/數據框架上呼叫 方法 <methodName> 。
CANNOT_ALTER_COLLATION_BUCKET_COLUMN
ALTER TABLE (ALTER|CHANGE) COLUMN無法變更貯體數據行類型/子類型的定序,但在數據表 <columnName>中找到貯體數據行<tableName>。
CANNOT_ALTER_PARTITION_COLUMN
ALTER TABLE (ALTER|CHANGE) COLUMN不支援數據分割數據行,但在數據表 <columnName>中找到數據分割數據行<tableName>。
CANNOT_ASSIGN_EVENT_TIME_COLUMN_WITHOUT_WATERMARK
必須定義水印以重新指派事件時間欄位。 在串流查詢中找不到水印定義。
CANNOT_CAST_DATATYPE
無法將 <sourceType> 類型轉換為 <targetType>。
CANNOT_CONVERT_PROTOBUF_FIELD_TYPE_TO_SQL_TYPE
無法將 Protobuf <protobufColumn> 轉換為 SQL <sqlColumn> ,因為架構不相容(protobufType = <protobufType>,sqlType = <sqlType>)。
CANNOT_CONVERT_PROTOBUF_MESSAGE_TYPE_TO_SQL_TYPE
無法將 Protobuf 的類型<protobufType>轉換為 SQL 類型<toType>。
CANNOT_CONVERT_SQL_TYPE_TO_PROTOBUF_FIELD_TYPE
無法將 SQL <sqlColumn> 轉換成 Protobuf <protobufColumn> ,因為架構不相容(protobufType = <protobufType>,sqlType = <sqlType>)。
CANNOT_CONVERT_SQL_VALUE_TO_PROTOBUF_ENUM_TYPE
無法將 SQL <sqlColumn> 轉換成 Protobuf <protobufColumn> ,因為 <data> 不在列舉的已定義值中: <enumString>。
CANNOT_COPY_STATE
無法將目前資料庫和暫存檢視等目錄狀態從 Unity 目錄複製到舊版目錄。
CANNOT_CREATE_DATA_SOURCE_TABLE
無法建立資料來源資料表 <tableName>:
如需詳細資訊,請參閱 CANNOT_CREATE_DATA_SOURCE_TABLE
CANNOT_DECODE_URL
提供的 URL 無法譯碼: <url>。 請確定 URL 的格式正確,然後再試一次。
CANNOT_DELETE_SYSTEM_OWNED
系統擁有 <resourceType> 無法刪除。
CANNOT_DROP_AMBIGUOUS_CONSTRAINT
無法卸除名稱為<constraintName>的條件約束,因為它由CHECK的條件約束所共用。
PRIMARY KEY和或 FOREIGN KEY 條件約束。 您可以移除 PRIMARY KEY 或
FOREIGN KEY 由查詢所施加的限制:
ALTER TABLE ..
DROP PRIMARY KEY 或
ALTER TABLE ..
DROP FOREIGN KEY ..
無法刪除被淺複本參考的基礎資料表
無法捨棄表格 <baseTable> ,因為它是由一或多個淺層複製所參考: <cloneList>。
DROP 卸除基底表之前所有淺層複製。 如果無法,請考慮使用 'DROP TABLE...FORCE' 來強制放下表格。
WARNING:這將立即中斷所有現有的淺層克隆引用,並使其無法使用。
CANNOT_ESTABLISH_CONNECTION
無法建立與遠端 <jdbcDialectName> 資料庫的連線。 請檢查連線資訊和憑證,例如主機、連接埠、使用者、密碼和資料庫選項。 ** 如果您認為資訊正確,請檢查工作區的網路設定,並確定它沒有主機的輸出限制。 此外,請檢查主機不會封鎖來自部署工作區 Spark 叢集之網路的輸入連線。 ** 詳細的錯誤訊息: <causeErrorMessage>。
CANNOT_ESTABLISH_CONNECTION_SERVERLESS
無法建立與遠端 <jdbcDialectName> 資料庫的連線。 請檢查連線資訊和憑證,例如主機、連接埠、使用者、密碼和資料庫選項。 ** 如果您認為資訊正確,請允許從因特網到主機的輸入流量,因為您使用的是無伺服器計算。 如果您的網路原則不允許輸入因特網流量,請使用非無伺服器計算,或者您可以連絡 Databricks 代表,以了解無伺服器專用網。 ** 詳細的錯誤訊息: <causeErrorMessage>。
無法建立連線到主機
無法建立 <protocol> 與 <host>的連結。 請檢查你工作區的網路設定,確保沒有對主機的外出限制。 請同時檢查主機是否封鎖了來自該工作區叢集部署的網路的入站連線。
CANNOT_INVOKE_IN_TRANSFORMATIONS
資料集轉換與動作只能由驅動程式呼叫,無法在其他資料集轉換中呼叫;例如,dataset1.map(x => dataset2.values.count() * x) 無效,因為 dataset1.map 轉換中無法執行值轉換與計數操作。 如需詳細資訊,請參閱 SPARK-28702。
無法載入檢查點檔案管理器
載入位於 path=<path> 的串流檢查點檔案管理員時發生錯誤。
如需詳細資訊,請參閱 CANNOT_LOAD_CHECKPOINT_FILE_MANAGER
CANNOT_LOAD_FUNCTION_CLASS
註冊函<className>式時,無法載入類別<functionName>,請確定其位於 classpath 上。
CANNOT_LOAD_PROTOBUF_CLASS
無法載入名稱為 <protobufClassName>的 Protobuf 類別。
<explanation>。
CANNOT_LOAD_STATE_STORE
載入狀態期間發生錯誤。
如需詳細資訊,請參閱 CANNOT_LOAD_STATE_STORE
CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE
無法合併不相容的資料類型 <left> 與 <right>。 請檢查要合併之數據行的數據類型,並確定它們相容。 如有必要,請考慮在嘗試合併之前,將數據行轉換成相容的數據類型。
CANNOT_MERGE_SCHEMAS
合併架構失敗:
初始結構描述:
<left>
無法與初始架構合併的架構:
<right>。
CANNOT_MODIFY_CONFIG
無法修改 Spark 組態的值: <key>。
另請參閱 』https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements。
無法修改靜態配置
無法修改靜態 Spark 設定的值: <key>。
CANNOT_PARSE_DECIMAL
無法解析十進位。 請確定輸入是具有選擇性小數點或逗號分隔符的有效數位。
CANNOT_PARSE_INTERVAL
無法剖析 <intervalString>。 請確定所提供的值格式有效,以定義間隔。 您可以參考文件以獲取正確的格式。 如果問題持續發生,請仔細檢查輸入值不是 Null 或空白,然後再試一次。
CANNOT_PARSE_JSON_FIELD
無法解析欄位名稱<fieldName>和代幣類型的<fieldValue>值JSON<jsonType>來定位 Spark 資料型別<dataType>。
CANNOT_PARSE_PROTOBUF_DESCRIPTOR
將描述符位元組剖析為 Protobuf FileDescriptorSet 時發生錯誤。
CANNOT_PARSE_TIME
輸入字串 <input> 無法剖析為 TIME 值,因為它與 datetime 格式 <format>不相符。
CANNOT_PARSE_TIMESTAMP
<message>。 使用 <func> 來容許無效的輸入字串,並改為傳回 NULL 。
CANNOT_QUERY_TABLE_DURING_INITIALIZATION
無法在初始化期間查詢MV/ST。
如需詳細資訊,請參閱 CANNOT_QUERY_TABLE_DURING_INITIALIZATION
CANNOT_READ_ARCHIVED_FILE
無法讀取路徑 <path> 的檔案,因為它已封存。 請調整查詢篩選條件,以排除封存的檔案。
CANNOT_READ_FILE
無法讀取檔案 <format> 於路徑:<path>。
如需詳細資訊,請參閱 CANNOT_READ_FILE
CANNOT_READ_SENSITIVE_KEY_FROM_SECURE_PROVIDER
無法從安全提供者讀取敏感性密鑰 '<key>'。
CANNOT_RECOGNIZE_HIVE_TYPE
無法辨識 Hive 類型字串:<fieldType>、欄:<fieldName>。 Spark SQL 無法辨識欄位的指定資料類型。 請檢查指定欄位的數據類型,並確定它是有效的 Spark SQL 資料類型。 如需有效數據類型及其格式的清單,請參閱 Spark SQL 檔。 如果數據類型正確,請確定您使用的是支援的Spark SQL版本。
CANNOT_REFERENCE_UC_IN_HMS
無法在 Hive 中繼存放區物件中參考 Unity 目錄 <objType> 。
CANNOT_REMOVE_RESERVED_PROPERTY
無法移除保留屬性: <property>。
CANNOT_RENAME_ACROSS_CATALOG
不要允許跨目錄重新命名 <type> 。
CANNOT_RENAME_ACROSS_SCHEMA
不允許跨架構重新命名 <type> 。
CANNOT_RESOLVE_DATAFRAME_COLUMN
無法解析資料框欄 <name>。 這可能是因為像 df1.select(df2.col("a"))這樣的非法引用。
CANNOT_RESOLVE_STAR_EXPAND
無法解決 <targetString> 指定的輸入資料列 <columns> 。 請檢查指定的數據表或結構是否存在,而且可在輸入數據行中存取。
CANNOT_RESTORE_PERMISSIONS_FOR_PATH
無法將已建立路徑 <path> 的權限恢復為 <permission>。
CANNOT_SHALLOW_CLONE_ACROSS_UC_AND_HMS
無法跨 Unity 目錄和 Hive 中繼存放區淺層複製數據表。
CANNOT_SHALLOW_CLONE_AUTO_TTL
無法淺克隆啟用 Auto-TTL 的資料表 <table> 。
CANNOT_SHALLOW_CLONE_NESTED
無法淺層複製已經是淺層複製的數據表 <table> 。
CANNOT_SHALLOW_CLONE_NON_UC_MANAGED_TABLE_AS_SOURCE_OR_TARGET
只有 MANAGED 表格類型支持淺層複製。 數據表 <table> 不是 MANAGED 表格。
CANNOT_UPDATE_FIELD
無法更新 <table> 欄位 <fieldName> 型態:
如需詳細資訊,請參閱 CANNOT_UPDATE_FIELD
CANNOT_UPDATE_PARTITION_COLUMNS
宣告的分割 <requestedPartitionColumns> 與現有的資料表分割 <existingPartitionColumns> 發生衝突。
請刪除資料表或變更所宣告的分割設定以符合其分割區。
CANNOT_UP_CAST_DATATYPE
無法將 <expression> 向上轉型為 <sourceType>。
<details>
CANNOT_USE_KRYO
無法載入 Kryo 串行化編解碼器。 Kryo 串行化無法在 Spark Connect 用戶端中使用。 使用 Java 序列化、提供自訂編解碼器,或使用 Spark Classic。
無法在浮水印條件中使用多重別名
浮水印條款不支援多重別名。
無法使用保留的串流供應商名稱
無法使用保留的串流提供者名稱: <providerName>。
CANNOT_VALIDATE_CONNECTION
不支援驗證 <jdbcDialectName> 連線。 請連絡 Databricks 支援以取得替代解決方案,或將 “spark.databricks.testConnectionBeforeCreation” 設定為 “false”,以在建立連接物件之前略過連線測試。
CANNOT_WRITE_STATE_STORE
寫入提供者 <providerClass>的狀態存放區檔案時發生錯誤。
如需詳細資訊,請參閱 CANNOT_WRITE_STATE_STORE
CAST_INVALID_INPUT
類型 <expression> 的值 <sourceType> 無法轉換成 <targetType>,因為格式不正確。 根據語法更正值,或變更其目標類型。 使用 try_cast 來容許格式不正確的輸入,並改為傳回 NULL 。
如需了解更多詳情,請參閱 CAST_INVALID_INPUT
CAST_OVERFLOW
<value>型別的值<sourceType>因溢位而無法轉換為<targetType>。 使用 try_cast 來允許溢位,並傳回 NULL 作為替代。
CAST_OVERFLOW_IN_TABLE_INSERT
因為溢位問題而無法將 型別為 <sourceType> 的值 指派給 <targetType> 類型欄位或變數 <columnName> 。 使用 try_cast 對輸入值,來容許溢位並傳回 NULL 。
CATALOG_CONVERSION_FOREIGN_ENTITY_PRESENT
從 UC Foreign 轉換到 UC Standard 的目錄失敗,因為目錄包含外國實體(此處最多顯示 10 個): <entityNames> 欲查看本目錄中完整的外國實體列表,請參閱「ALTER CATALOG DROP CONNECTION」命令文件中的相關腳本。
CATALOG_CONVERSION_UNSUPPORTED_CATALOG_TYPE (不支援的目錄類型)
目錄無法從 UC Foreign 轉換成 UC 標準。 只有 <convertableCatalogTypes> 國外的UC目錄才能轉換為UC標準。
CATALOG_NOT_FOUND
找不到目錄 <catalogName> 。 請考慮將 SQL 設定 <config> 設定為 catalog 插件。
CATALOG_OWNED_TABLE_CREATION_NOT_ALLOWED
無法透過 <feature> 表格功能建立 Delta 表格。 請連絡 Databricks 支持人員。
CHECKPOINT_DIR_NOT_SET
檢查點目錄尚未在 SparkContext 中設定。
請將其設定為 SparkContext.setCheckpointDir()。
CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND
找不到檢查點區塊 <rddBlockId> !
原本檢查此分割區的執行程式已不再運作,或原始 RDD 未繼續執行。
如果此問題持續發生,您可能會考慮改用rdd.checkpoint(),這雖然比本機檢查點慢,但容錯能力更強。
檢查約束違反
CHECK 具有值的數據列所違反的條件約束 <constraintName> <expression> :
<values>
CIRCULAR_CLASS_REFERENCE
類別中不能有循環參考,但取得 類別 <t>的循環參考。
CLASS_NOT_OVERRIDE_EXPECTED_METHOD
<className> 必須覆寫 <method1> 或 <method2>。
CLASS_UNSUPPORTED_BY_MAP_OBJECTS
MapObjects 不支援類別 <cls> 作為產生的集合。
CLEANROOM_COMMANDS_NOT_SUPPORTED
不支援「Clean Room」命令
CLEANROOM_INVALID_SHARED_DATA_OBJECT_NAME
在無塵室內引用 <type> 的名稱無效。 在乾淨的房間內,請使用 <type> 的名稱,並遵循 [catalog].[schema].[<type>] 的格式。
如果您不確定要使用什麼名稱,可以執行 "SHOW ALL IN CLEANROOM [clean_room]",並使用“名稱”列中的值。
CLONING_WITH_HISTORY_INVALID_OPTION
指定複製附帶歷程記錄時使用了無效的選項:<invalidOption>。
有效語法: CREATE (或 REPLACE) TABLE ...深沉 CLONE...WITH HISTORY。
CLONING_WITH_HISTORY_UNSUPPORTED
不支援進行有歷程記錄的複製。
雲端檔案已存在
雲端檔案已經存在了。 原因: <causedBy>。
雲端文件未找到
找不到雲端檔案。 原因: <causedBy>。
CLOUD_FILE_SOURCE_FILE_NOT_FOUND
已收到檔案通知:<filePath>,但該檔案已不存在。 請確定檔案在處理之前不會刪除。 若要繼續串流,您可以將Spark SQL 組態 <config> 設定為 true。
CLOUD_PROVIDER_ERROR
雲端提供者錯誤: <message>
CLUSTERING_COLUMNS_MISMATCH
指定的叢集不符合現有資料表 <tableName>的叢集。
指定的叢集數據行: [<specifiedClusteringString>]。
現有的叢集數據行:[<existingClusteringString>]。
CLUSTERING_NOT_SUPPORTED
'<operation>' 不支援叢集。
CLUSTER_BY_AUTO_FEATURE_NOT_ENABLED
請連絡您的 Databricks 代表,以啟用自動叢集功能。
CLUSTER_BY_AUTO_REQUIRES_CLUSTERING_FEATURE_ENABLED
請啟用 clusteringTable.enableClusteringTableFeature 來使用 CLUSTER BY AUTO。
CLUSTER_BY_AUTO_REQUIRES_PREDICTIVE_OPTIMIZATION
CLUSTER BY AUTO 需要啟用預測優化。
CLUSTER_BY_AUTO_UNSUPPORTED_TABLE_TYPE_ERROR
CLUSTER BY 只有UC受控數據表才支援 AUTO。
CODEC_NOT_AVAILABLE
<codecName>編解碼器無法使用。
如需詳細資訊,請參閱 CODEC_NOT_AVAILABLE
CODEC_SHORT_NAME_NOT_FOUND
找不到編解碼器 <codecName>的簡短名稱。
COLLATION_INVALID_NAME
值 <collationName> 不代表正確的定序名稱。 建議的有效定序名稱: [<proposals>]。
COLLATION_INVALID_PROVIDER
值 <provider> 不代表正確的定序提供者。 支援的提供者為:[<supportedProviders>]。
COLLATION_MISMATCH
無法判斷應用於字串函式和運算子的排序規則。
如需詳細資訊,請參閱 COLLATION_MISMATCH
COLLECTION_SIZE_LIMIT_EXCEEDED
無法建立包含超過陣列大小限制<numberOfElements>的元素的陣列<maxRoundedArrayLength>。
如需詳細資訊,請參閱 COLLECTION_SIZE_LIMIT_EXCEEDED
COLUMN_ALIASES_NOT_ALLOWED
在<op>中不允許使用欄位別名。
COLUMN_ALREADY_EXISTS
數據行 <columnName> 已經存在。 選擇其他名稱或重新命名現有的數據行。
COLUMN_ARRAY_ELEMENT_TYPE_MISMATCH
欄位中 <pos> 的某些值與數據行數位型別不相容。 預期類型為 <type>。
COLUMN_MASKS_ABAC_不匹配
無法解析 <tableName> 數據行遮罩,因為從原則繼承的數據行掩碼與明確定義的數據行遮罩之間有不相符的情況。 若要繼續,請停用屬性型訪問控制 (ABAC),並連絡 Databricks 支援。
COLUMN_MASKS_CHECK_CONSTRAINT_UNSUPPORTED (檢查約束不支持)
不支援在具有列遮罩策略的表CHECK上建立<tableName>約束。
COLUMN_MASKS_重複使用列名稱
語句<statementType>嘗試將數據行遮罩原則指派給包含兩個或多個相同名稱USING COLUMNS之清單中其他參考<columnName>數據行的數據行,這無效。
COLUMN_MASKS_功能不支持
不支援 <tableName> 的行遮罩原則。
如需詳細資訊,請參閱 COLUMN_MASKS_FEATURE_NOT_SUPPORTED
COLUMN_MASKS_不相容架構變更
無法 <statementType> <columnName> 數據表 <tableName>,因為它在欄位 <maskedColumn> 的欄位遮罩政策中被參考。 資料表擁有者必須先移除或變更此原則,才能繼續。
COLUMN_MASKS_合併不支援的來源
MERGE INTO 作業不支援來源資料表 <tableName> 中的欄位遮罩策略。
COLUMN_MASKS_合併不支持的目標
MERGE INTO 作業不支援寫入包含欄位遮罩策略的資料表 <tableName> 。
COLUMN_MASKS_多部分目標欄名
此語句嘗試將數據行遮罩原則指派給具有多個名稱部分的數據行 <columnName> ,這無效。
COLUMN_MASKS_多部分使用列名稱
此語句嘗試將欄位遮罩原則指派給欄位,且 USING COLUMNS 清單包含的 <columnName> 名稱具有多個名稱部分,因此無效。
COLUMN_MASKS_未啟用
未啟用定義欄位遮罩的支援
COLUMN_MASKS_需要_UNITY_目錄
只有在 Unity Catalog 中才支援欄位遮罩原則。
COLUMN_MASKS_次要索引建立不支援
無法建立次級索引 ON TABLE <tableName> ,因為資料表中已定義欄位遮罩策略。
COLUMN_MASKS_顯示分區不支持_SHOW_PARTITIONS_UNSUPPORTED
SHOW PARTITIONS 具有欄位遮罩的數據表不支援<format> 命令。
COLUMN_MASKS_表格複製來源不支援
<mode> 不支援從具有欄位遮罩政策的資料表 <tableName> 複製。
COLUMN_MASKS_TABLE_CLONE_TARGET_NOT_SUPPORTED(不支援複製目標)
<mode> 使用列掩碼政策將克隆到表格 <tableName> 是不支援的。
COLUMN_MASKS_不支援的常數作為參數 (UNSUPPORTED_CONSTANT_AS_PARAMETER)
不支援在數據行遮罩原則中使用常數做為參數。 請更新 SQL 命令,以從數據行遮罩定義中移除常數,然後再次重試命令。
COLUMN_MASKS_UNSUPPORTED_DATA_TYPE
<functionName>做為數據行遮罩原則的函式包含具有不支持數據類型 <dataType>的參數。
COLUMN_MASKS_不支援的提供者
無法執行 <statementType> 命令,因為使用數據表提供者的目標數據源不支援指派數據行遮罩原則:“<provider>”。
COLUMN_MASKS_使用的欄位名稱與目標欄位相同
數據行 <columnName> 的名稱與目標數據行相同,無效;請從 USING COLUMNS 清單中移除該數據行,然後重試命令。
COLUMN_NOT_DEFINED_IN_TABLE
<colType> 欄位 <colName> 在表格 <tableName> 中未定義,定義的欄位有:<tableCols>。
COLUMN_NOT_FOUND
找不到數據行 <colName> 。 根據 SQL 組態 <caseSensitiveConfig>確認資料行名稱的拼字和正確性。
表格中找不到欄位
<columnName>欄位未在表格<tableFullName>中找到。
COLUMN_ORDINAL_OUT_OF_BOUNDS
數據行序數超出界限。 資料表中的資料列數目為 <attributesLength>,但資料列序數為 <ordinal>。
屬性如下: <attributes>。
指令未啟用
<command> 命令未啟用。
COMMA_PRECEDING_CONSTRAINT_ERROR
出現在約束條件定義前的逗號是非預期的。 確保在數據行(和期望)未定義時,條件約束子句不會以逗號開頭。
COMMENT_ON_CONNECTION_NOT_IMPLEMENTED_YET
命令 COMMENT ON CONNECTION 尚未實作
COMPARATOR_RETURNS_NULL
比較器已返回NULL,用於<firstValue>與<secondValue>之間的比較。
它應該傳回 「大於」 的正整數,「equal」 為 0,而 「less than」 則傳回負整數。
若要還原為將 NULL 視為 0 (相等)的舊版行為,您必須將 "spark.sql.legacy.allowNullComparisonResultInArraySort" 設定為 "true"。
COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
無法處理表達式的輸入數據類型: <expression>。
如需詳細資訊,請參閱 COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
CONCURRENT_QUERY
此查詢的另一個實例 [id: <queryId>] 剛由並行會話啟動 [現有的 runId: <existingQueryRunId> 新的 runId: <newQueryRunId>]。
CONCURRENT_SCHEDULER_INSUFFICIENT_SLOT
叢集中所需的可用位置數目下限為 <numTasks>,不過,叢集只有 <numSlots> 可用位置。 查詢將會停止或失敗。 增加叢集大小以繼續進行。
CONCURRENT_STREAM_LOG_UPDATE
記錄檔的並行更新。 已偵測到針對<batchId>的多個串流作業。
請確保在特定檢查點位置一次僅執行一個串流作業。
CONFIG_NOT_AVAILABLE
無法使用組態 <config> 。
CONFLICTING_CLUSTER_CONFIGURATION
下列組態與spark.databricks.streaming.realTimeMode.enabled 衝突: <confNames>。 從叢集組態中移除這些組態,然後重新啟動 Spark 叢集。
CONFLICTING_DIRECTORY_STRUCTURES
偵測到的目錄結構衝突。
可疑路徑:
<discoveredBasePaths>
如果提供的路徑是分割區目錄,請在數據源的選項中設定 「basePath」,以指定數據表的根目錄。
如果有多個根目錄,請個別載入它們,然後將它們聯集。
CONFLICTING_PARTITION_COLUMN_NAMES
偵測到的分割區資料列名稱衝突:
<distinctPartColLists>
針對分割表目錄,資料文件應僅存在於末端目錄中。
相同層級的目錄應該具有相同的分區欄位名稱。
請檢查下列目錄是否有非預期的檔案或不一致的分割區資料行名稱:
<suspiciousPaths>
CONFLICTING_PARTITION_COLUMN_NAME_WITH_RESERVED
分割欄名稱『<partitionColumnName>' 與保留欄名衝突。
的架構 <tableName> 與Hive不相容,Spark 會自動產生保留的數據行 '<partitionColumnName>',以特定方式儲存數據表。
請針對分割區數據行使用不同的名稱。
CONFLICTING_PROVIDER
指定的提供者 <provider> 與現有的目錄提供者 <expectedProvider>不一致。 請使用 'USING <expectedProvider>',然後重試命令。
CONFLICTING_SQL_CONFIGURATION
下列組態與spark.databricks.streaming.realTimeMode.enabled 衝突: <confNames>。 從 SparkSession 設定中移除這些組態。
CONNECT
一般 Spark Connect 錯誤。
如需詳細資訊,請參閱 CONNECT
CONNECTION_ALREADY_EXISTS
無法建立連線 <connectionName> ,因為它已經存在。
選擇不同的名稱、卸除或取代現有的連線,或新增 IF NOT EXISTS 子句以容許既有連線。
CONNECTION_NAME_CANNOT_BE_EMPTY
無法執行此命令,因為連接名稱必須是非空白的。
CONNECTION_NOT_FOUND
無法執行此命令,因為找不到連線名稱 <connectionName> 。
CONNECTION_OPTION_NOT_SUPPORTED
類型為 『<connectionType>' 的連接不支援下列選項: <optionsNotSupported>。 支援的選項: <allowedOptions>。
CONNECTION_TYPE_NOT_SUPPORTED
無法建立 '<connectionType>' 型別的連線。 支援的連線類型: <allowedTypes>。
不支持選項注入的連接類型
數據框架選項不支援名稱為 <connectionName> 且類型為 <connectionType> 的連線。
CONNECTION_TYPE_NOT_SUPPORTED_FOR_REMOTE_QUERY_FUNCTION (此連線類型不支援遠端查詢功能)
不支援名稱為 '<connectionName>' 且類型為 '<connectionType>' 的連接進行遠端查詢函式執行。
CONNECT_INVALID_PLAN
Spark Connect 計畫無效。
更多詳情請參見 CONNECT_INVALID_PLAN
CONNECT_SESSION_MIGRATION
一般會話移轉錯誤 (userId: <userId>, sessionId: <sessionId>, serverSessionId: <serverSessionId>]。
如需詳細資訊,請參閱 CONNECT_SESSION_MIGRATION
CONSTRAINTS_REQUIRE_UNITY_CATALOG
資料表約束僅支援於 Unity Catalog。
CONSTRAINT_ALREADY_EXISTS
條件約束 『<constraintName>' 已經存在。 請先刪除現有的約束。
現有約束:
<oldConstraint>
在架構中約束已經存在
限制 <constraintName> 已存在於資料庫 <schemaName>中。
限制已存在_伺服器消息
<serverMessage>
CONSTRAINT_DOES_NOT_EXIST
無法從數據表 <constraintName>卸除不存在的條件約束<tableName>。
CONVERSION_INVALID_INPUT
該數值 <str> (<fmt>) 無法轉換成 <targetType> ,因為它形狀不正確。 根據語法更正值,或變更其格式。 使用 <suggestion> 來容許格式不正確的輸入,並改為傳回 NULL 。
COPY_INTO_COLUMN_ARITY_MISMATCH
無法寫入 <tableName>,原因是
如需詳細資訊,請參閱 COPY_INTO_COLUMN_ARITY_MISMATCH
COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON
無效的模式 <scheme>。
COPY INTO 來源認證目前僅支援 s3/s3n/s3a/wasbs/abfss。
COPY_INTO_CREDENTIALS_REQUIRED
COPY INTO 來源認證必須指定 <keyList>。
COPY_INTO_DUPLICATED_FILES_COPY_NOT_ALLOWED
在並行 COPY INTO 作業中提交了重複的檔案。 請稍後再試一次。
COPY_INTO_ENCRYPTION_NOT_ALLOWED_ON
無效的模式 <scheme>。
COPY INTO 來源加密目前僅支援 s3/s3n/s3a/abfss。
COPY_INTO_ENCRYPTION_NOT_SUPPORTED_FOR_AZURE
COPY INTO 加密僅支援ADLS Gen2或 abfss:// 檔案配置
COPY_INTO_ENCRYPTION_REQUIRED
COPY INTO 來源加密必須指定 『<key>』。
COPY_INTO_ENCRYPTION_REQUIRED_WITH_EXPECTED
不合法的加密選項 <requiredKey>。
COPY INTO 來源加密必須指定 '<requiredKey>' = '<keyValue>'。
COPY_INTO_FEATURE_INCOMPATIBLE_SETTING
COPY INTO功能「<feature>」與「<incompatibleSetting>」不相容。
COPY_INTO_NON_BLIND_APPEND_NOT_ALLOWED
COPY INTO 除附加數據外,其他操作不允許與其他交易同時執行。 請稍後再試一次。
COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED
COPY INTO 無法載入其狀態,超過重試次數上限。
COPY_INTO_SCHEMA_MISMATCH_WITH_TARGET_TABLE
在複製到 Delta 資料表時偵測到架構不符(資料表: <table>)。
這可能表示傳入數據有問題,或者 Delta 資料表架構可以藉由設定來根據傳入數據自動進化:
COPY_OPTIONS (「mergeSchema」 = 「true」)
架構差異:
<schemaDiff>
COPY_INTO_SOURCE_FILE_FORMAT_NOT_SUPPORTED
原始檔案格式必須為 CSV、 JSONAVRO、ORC、 PARQUET、TEXT 或 BINARYFILE。 在 Delta 資料表上使用 COPY INTO 作為來源是不被支援的,因為在 OPTIMIZE 操作後可能會導致重複數據的內嵌。 您可以執行 SQL 命令 set spark.databricks.delta.copyInto.formatCheck.enabled = false來關閉這項檢查。
COPY_INTO_SOURCE_SCHEMA_INFERENCE_FAILED
來源目錄不包含任何類型的 <format>可剖析檔案。 請檢查 『<source>' 的內容。
將 '<config>' 設定為 'false' 即可將錯誤靜音。
COPY_INTO_STATE_INTERNAL_ERROR
處理 COPY INTO 狀態時發生內部錯誤。
如需詳細資訊,請參閱 COPY_INTO_STATE_INTERNAL_ERROR
COPY_INTO_SYNTAX_ERROR
無法剖析 COPY INTO 命令。
如需詳細資訊,請參閱 COPY_INTO_SYNTAX_ERROR
COPY_INTO_UNSUPPORTED_FEATURE
功能COPY INTO '<feature>' 不受支援。
COPY_UNLOAD_FORMAT_TYPE_NOT_SUPPORTED
無法卸載格式為『<formatType>』的數據。 的支援格式 <connectionType> 為: <allowedFormats>。
CORRUPTED_CATALOG_FUNCTION
無法將目錄函式 『<identifier>' 轉換成 SQL 函式,因為目錄中的函式資訊已損毀。 如果函式不是 SQL 函式,請確定類別名稱 『<className>' 是可載入的。
CREATE_FOREIGN_SCHEMA_NOT_IMPLEMENTED_YET
命令 CREATE FOREIGN SCHEMA 尚未實作
CREATE_FOREIGN_TABLE_NOT_IMPLEMENTED_YET
命令 CREATE FOREIGN TABLE 尚未實作
CREATE_OR_REFRESH_MV_NOT_SUPPORTED
CREATE 或 REFRESH MATERIALIZED VIEW 不受支援。 請改用 CREATE OR REPLACE MATERIALIZED VIEW 。
CREATE_OR_REFRESH_MV_ST_ASYNC
無法具體化檢視表或串流數據表 CREATE 或 REFRESH 並指定 ASYNC。 請從 ASYNC 或 CREATE 語句中移除 REFRESH,或使用 REFRESH ASYNC 以異步方式重新整理現有的具體化檢視或串流數據表。
CREATE_PERMANENT_VIEW_WITHOUT_ALIAS
不允許建立永久檢視 <name> ,而不需明確指派表達式 <attr>的別名。
CREATE_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
CREATE TABLE column <columnName> 指定描述元「<optionName>」多次,這是無效的。
CREATE_VIEW_COLUMN_ARITY_MISMATCH
無法建立檢視 <viewName>,原因是
如需詳細資訊,請參閱 CREATE_VIEW_COLUMN_ARITY_MISMATCH
CREDENTIAL_MISSING
建立或更新外部位置時,請提供認證。
CREDENTIAL_PURPOSE_MISMATCH
認證 <credentialName> 有目的 <actualPurpose> ,但命令中指定的目的為 <expectedPurpose>。
CSV_ENFORCE_SCHEMA_NOT_SUPPORTED
使用 enforceSchema 或 rescuedDataColumn時,無法設定 CSV 選項failOnUnknownFields,因為數據行是以名稱而非序數讀取。
CYCLIC_FUNCTION_REFERENCE
偵測到迴圈函數參考: <path>。
DATABRICKS_DELTA_NOT_ENABLED
您的帳戶中未啟用 Databricks Delta。<hints>
資料流圖_未找到
找不到具有 ID <graphId> 的資料流程圖表
資料類型無法排序
類型 <dataType> 不支援有序作業。
DATATYPE_MISMATCH
因為資料類型不符而無法解析 <sqlExpr> :
如需詳細資訊,請參閱 DATATYPE_MISMATCH
DATATYPE_MISSING_SIZE
DataType <type> 需要長度參數,例如 <type>(10)。 請指定長度。
DATA_LINEAGE_SECURE_VIEW_LEAF_NODE_HAS_NO_RELATION
寫入譜系失敗:缺少與CLM/RLS政策對應的關聯。
DATA_SOURCE_ALREADY_EXISTS
數據源 『<provider>' 已經存在。 請選擇新資料來源的不同名稱。
資料來源連線缺少允許清單
此情境下不支援連線 <connectionName> 功能,因為它沒有設定外部選項允許清單。 請更新連結以包含有效的 <optionName>。
DATA_SOURCE_EXTERNAL_ERROR
儲存至外部數據源時發生錯誤。
DATA_SOURCE_NOT_EXIST
找不到資料源「<provider>」。 請確定數據源已註冊。
DATA_SOURCE_NOT_FOUND
找不到數據源: <provider>。 請確定提供者名稱正確,且套件已正確註冊並與您的Spark版本相容。
DATA_SOURCE_OPTIONS_VALIDATION_FAILED
<dataSource>資料來源選項驗證失敗。
如需詳細資訊,請參閱 DATA_SOURCE_OPTIONS_VALIDATION_FAILED
DATA_SOURCE_OPTION_CONTAINS_INVALID_CHARACTERS
選項 <option> 不能是空的,而且不應該包含無效的字元、查詢字串或參數。
DATA_SOURCE_OPTION_IS_REQUIRED
需要選項 <option> 。
資料來源選項不允許由連線
這個選項 <optionName> 不允許由連線 <connectionName> 提供,也無法外部提供。
DATA_SOURCE_OPTION_VALUE_NOT_VALID
提供的數據源選項 '<option>' 包含無效的值 (''<value>' )。
如需詳細資訊,請參閱 DATA_SOURCE_OPTION_VALUE_NOT_VALID
DATA_SOURCE_SYNTAX_ERROR_DURING_QUERY_EXECUTION (資料來源查詢執行期間的語法錯誤)
外部資料來源引擎 <dataSourceEngine> 在執行查詢時<query>丟出語法錯誤。
<externalEngineError>。
DATA_SOURCE_TABLE_SCHEMA_MISMATCH
數據源數據表的架構不符合預期的架構。 如果您使用 DataFrameReader.schema API 或建立數據表,請避免指定架構。
資料來源架構: <dsSchema>
預期的架構: <expectedSchema>
DATA_SOURCE_URL_NOT_ALLOWED
數據源選項中不允許 JDBC URL,請改為指定 'host'、'port' 和 'database' 選項。
DATETIME_FIELD_OUT_OF_BOUNDS
<rangeMessage>。
如需詳細資訊,請參閱 DATETIME_FIELD_OUT_OF_BOUNDS
DATETIME_OVERFLOW
日期時間作業溢位: <operation>。
DC_API_QUOTA_EXCEEDED
您已超過資料來源 <sourceName>的 API 配額。
如需詳細資訊,請參閱 DC_API_QUOTA_EXCEEDED
DC_CONNECTION_ERROR
無法連線至 <sourceName> 來源。 錯誤碼:<errorCode>。
如需詳細資訊,請參閱 DC_CONNECTION_ERROR
DC_DYNAMICS_API_ERROR
Dynamics API 呼叫中發生錯誤,errorCode: <errorCode>。
如需詳細資訊,請參閱 DC_DYNAMICS_API_ERROR
DC_NETSUITE_ERROR
Netsuite JDBC 呼叫中發生錯誤,errorCode: <errorCode>。
如需詳細資訊,請參閱 DC_NETSUITE_ERROR
DC_SCHEMA_CHANGE_ERROR
SQLSTATE:未指派
<tableName> 來源的數據表 <sourceName> 發生架構變更。
如需詳細資訊,請參閱 DC_SCHEMA_CHANGE_ERROR
DC_SERVICENOW_API_ERROR
ServiceNow API 呼叫中發生錯誤,errorCode: <errorCode>。
如需詳細資訊,請參閱 DC_SERVICENOW_API_ERROR
DC_SFDC_BULK_QUERY_JOB_INCOMPLETE
物件 <objName> 的擷取不完整,因為 Salesforce API 查詢作業花費的時間太長、失敗或手動取消。
若要再試一次,您可以重新執行整個管線,或重新整理此特定目的地數據表。 如果錯誤持續發生,請提出票證。 作業識別碼:<jobId>。 工作狀態:<jobStatus>。
DC_SHAREPOINT_API_ERROR
Sharepoint API 呼叫中發生錯誤,errorCode: <errorCode>。
如需詳細資訊,請參閱 DC_SHAREPOINT_API_ERROR
DC_SOURCE_API_ERROR
API 呼叫中 <sourceName> 發生錯誤。 來源 API 類型:<apiType>。 錯誤碼:<errorCode>。
當您達到 <sourceName> API 限制時,有時會發生這種情況。 如果您尚未超過 API 限制,請嘗試重新執行連接器。 如果問題持續發生,請提出票證。
DC_UNSUPPORTED_ERROR
數據源 <sourceName>中發生不支援的錯誤。
如需詳細資訊,請參閱 DC_UNSUPPORTED_ERROR
DC_WORKDAY_RAAS_API_ERROR
Workday RAAS API 呼叫中發生錯誤,errorCode: <errorCode>。
如需詳細資訊,請參閱 DC_WORKDAY_RAAS_API_ERROR
DECIMAL_PRECISION_EXCEEDS_MAX_PRECISION
十進位有效位數 <precision> 超過最大有效位數 <maxPrecision>。
DEFAULT_DATABASE_NOT_EXISTS
預設資料庫 <defaultDatabase> 不存在,請先建立它,或將預設資料庫變更為 <defaultDatabase>。
DEFAULT_FILE_NOT_FOUND
基礎檔案可能已更新。 您可以在 SQL 中執行 'REFRESH TABLE tableName' 命令,或重新建立相關的數據集/數據框架,來明確使 Spark 中的快取失效。 如果磁碟快取過時或基礎檔案已移除,您可以重新啟動叢集,手動使磁碟快取失效。
DEFAULT_PLACEMENT_INVALID
DEFAULT關鍵字在MERGE, INSERT, UPDATE或SET VARIABLE指令中,因為它是表達式的一部分,無法直接指派到目標欄位。
例如: UPDATE SET c1 = DEFAULT 是允許的,但 UPDATE T SET c1 = DEFAULT + 1 不允許。
DEFAULT_UNSUPPORTED
無法執行 <statementType> 命令,因為目標數據源的表格提供者不支持 DEFAULT 值:“<dataSource>”。
定義一次性選項不支持
不支援用「一次性」選項定義一次性流程 <flowName> 。
DESCRIBE_JSON_NOT_EXTENDED
DESCRIBE TABLE
...
AS JSON 僅在指定 [EXTENDED|FORMATTED] 時才支援。
例如: DESCRIBE EXTENDED <tableName> AS JSON 是支持但 DESCRIBE <tableName> AS JSON 不支持。
DIFFERENT_DELTA_TABLE_READ_BY_STREAMING_SOURCE
串流查詢是從非預期的 Delta 數據表讀取的(id = '<newTableId>')。
過去,它依據檢查點從另一個 Delta 數據表(ID = '<oldTableId>')進行讀取。
當您將程式代碼變更為從新數據表讀取,或您刪除某些內容時,可能會發生這種情況。
重新建立數據表。 請還原變更或刪除串流查詢檢查點
從頭開始。
DISTINCT_WINDOW_FUNCTION_UNSUPPORTED
不支援不同的視窗函式: <windowExpr>。
DIVIDE_BY_ZERO
除以零。 使用 try_divide 來容許除數為0並改為傳回 NULL 。 如有必要,請將 設為 <config> 「false」 以略過此錯誤。
如需詳細資訊,請參閱 DIVIDE_BY_ZERO
DLT_EXPECTATIONS_NOT_SUPPORTED
期望僅支持在 Lakeflow Spark 宣告式資料處理管線的處理流程中。
DLT_VIEW_CLUSTER_BY_NOT_SUPPORTED
MATERIALIZED 帶有 CLUSTER BY 子句的 VIEWs 僅於 Lakeflow Spark 宣告式管線中支援。
DLT_VIEW_LOCATION_NOT_SUPPORTED
MATERIALIZED VIEW 地點僅支援於 Lakeflow Spark 宣告式管線。
DLT_VIEW_SCHEMA_WITH_TYPE_NOT_SUPPORTED
MATERIALIZED VIEW 具有特定類型的結構僅在 Lakeflow Spark 宣告式流程中支援。
DLT_VIEW_TABLE_CONSTRAINTS_不支援
CONSTRAINT 檢視中的子句僅在 Lakeflow Spark 宣告式 Pipeliness 管線中受支援。
DML_OPERATIONS_NOT_SUPPORTED_FOR_REMOTE_QUERY_FUNCTION
遠端查詢功能不支援 DML 查詢。
DROP_COMMAND_TYPE_MISMATCH(指令類型不匹配錯誤)
無法丟棄 a <metadataType> 與 DROP <commandType>。
請改用 DROP <metadataTypeUpper>。
DROP_SCHEDULE_DOES_NOT_EXIST
無法對沒有現有排程或觸發器的表格進行刪除 SCHEDULE。
DUPLICATED_CTE_NAMES
CTE 定義不能有重複的名稱: <duplicateNames>。
DUPLICATED_FIELD_NAME_IN_ARROW_STRUCT
不允許 Arrow 結構體中的重複欄位名稱,接收到 <fieldNames>。
DUPLICATED_MAP_KEY
找到重複的映射鍵 <key> ,請檢查輸入資料。
如果您想要移除重複的索引鍵,您可以將 設定 <mapKeyDedupPolicy> 為 “LAST_WIN”,讓最後插入的索引鍵優先。
DUPLICATED_METRICS_NAME
計量名稱不是唯一的: <metricName>。 同名不能用於具有不同結果的計量。
不過,允許具有相同結果和名稱的多個度量執行個體(例如,自我連接)。
DUPLICATE_ASSIGNMENTS
數據行或變數 <nameList> 會多次顯示為指派目標。
DUPLICATE_CLAUSES
找到重複的子句: <clauseName>。 請移除其中一個。
DUPLICATE_CONDITION_IN_SCOPE
在範圍內找到重複的條件 <condition> 。 請移除其中一個。
DUPLICATE_EXCEPTION_HANDLER
找到重複的處理程式。 請移除其中一個。
如需詳細資訊,請參閱 DUPLICATE_EXCEPTION_HANDLER
DUPLICATE_FLOW_SQL_CONF
發現資料集 '<datasetName>' 的重複 SQL 配置:'<key>' 同時由 '<flowName1>' 和 '<flowName2>' 定義。
DUPLICATE_KEY
找到重複的索引鍵 <keyColumn>。
DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
對例程 <routineName> 的呼叫無效,因為它包含相同參數名稱 <parameterName>的多個自變數指派。
如需詳細資訊,請參閱 DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
DUPLICATE_ROUTINE_PARAMETER_NAMES
在使用者定義例程 <routineName>的參數清單中找到重複的名稱: <names>。
DUPLICATE_ROUTINE_RETURNS_COLUMNS
在使用者定義的例程 RETURNS 的 <routineName> 子句欄位清單中找到重複的欄位:<columns>。
宣告中重複的變數名稱
在宣告變數清單中找到重複的變數 <variableName> 。 請移除其中一個。
EMITTING_ROWS_OLDER_THAN_WATERMARK_NOT_ALLOWED
先前的節點發出了事件時間=<emittedRowEventTime> 的一行資料,這早於 current_watermark_value=<currentWatermark>
這可能會導致執行管線下游的具狀態運算元發生正確性上的問題。
請更正運算子邏輯,以在目前的全域水位標記值之後輸出數據列。
EMPTY_JSON_FIELD_VALUE
無法剖析資料類型 <dataType>的空字串。
EMPTY_LOCAL_FILE_IN_STAGING_ACCESS_QUERY
暫存 <operation> 查詢中的空白本機檔案
EMPTY_SCHEMA_NOT_SUPPORTED_FOR_DATASOURCE
<format>數據源不支援寫入空白或巢狀空架構。 請確定數據架構至少有一或多個數據行。
ENCODER_NOT_FOUND
無法找到類型為 <typeName> 的編碼器,以轉換為 Spark SQL 的內部表示法。
請考慮將輸入類型變更為 『<docroot>/sql-ref-datatypes.html』 支援的其中一種。
END_LABEL_WITHOUT_BEGIN_LABEL
沒有開始標籤,結束標籤 <endLabel> 就不能存在。
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_LATEST_WITH_TRIGGER_AVAILABLENOW
在使用 Trigger.AvailableNow 執行查詢時,Kafka 主題中的部分分割區會報告位移值,該值小於結束位移。 此錯誤可能是暫時性的 - 重新啟動查詢,如果您仍然看到相同的問題,請回報。
最新偏移:<latestOffset>,結束偏移:<endOffset>
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_PREFETCHED
針對具有 Trigger.AvailableNow 的 Kafka 資料來源,每個主題分區的結束位移應該低於或等於預擷取位移。 此錯誤可能是暫時性的 - 重新啟動查詢,如果您仍然看到相同的問題,請回報。
預先擷取的位移: <prefetchedOffset>、結束位移: <endOffset>。
ERROR_READING_AVRO_UNKNOWN_FINGERPRINT
讀取 avro 資料時發生錯誤-- 遇到未知的指紋: <fingerprint>,不確定要使用的架構。
如果您在啟動 Spark 內容之後註冊了其他架構,就可能會發生這種情況。
EVENT_LOG_EMPTY
的事件記錄 <tableOrPipeline> 檔沒有架構,而且不包含任何事件。 在產生事件之後再試一次
EVENT_LOG_REQUIRES_SHARED_COMPUTE
無法從指派或無隔離共用叢集查詢事件記錄檔,請改用共用叢集或 Databricks SQL 倉儲。
EVENT_LOG_TVF_UNSUPPORTED_FOR_PIPELINE
EVENT_LOG 使用 [架構] 字段或發佈至預設記憶體的管線不支援 Table-Valued 函式。
若要查詢事件記錄檔,請在管線設定中指定 [event_log] 字段,將其發佈至中繼存放區。
欲了解更多資訊,請參閱 Monitor Lakeflow Spark 宣言式管線管道的文件: https://docs.databricks.com/aws/en/delta-live-tables/observability
EVENT_LOG_UNAVAILABLE
沒有事件記錄檔可用 <tableOrPipeline>。 在產生事件之後,請稍後再試一次
EVENT_LOG_UNSUPPORTED_TABLE_TYPE
的數據表型態 <tableIdentifier> 為 <tableType>。
查詢事件日誌僅支援實體化視圖、串流資料表或 Lakeflow Spark Declarative Pipeliness 管線
EVENT_TIME_IS_NOT_ON_TIMESTAMP_TYPE
事件時間 <eventName> 的類型無效 <eventType>,但預期是 “TIMESTAMP”
EXCEED_LIMIT_LENGTH
超過 char/varchar 類型長度限制: <limit>。
EXCEL_DATA_SOURCE_NOT_ENABLED
此叢集中未啟用 Excel 資料來源。
EXCEL_FILE_ERROR
處理 Excel 檔案 '<filePath>' 時發生錯誤。
如需詳細資訊,請參閱 EXCEL_FILE_ERROR
EXCEL_INVALID_READ_OPTION_VALUE Excel 中的無效讀取選項值
Excel 資料來源的讀取選項值無效。
如需詳細資訊,請參閱 EXCEL_INVALID_READ_OPTION_VALUE
EXCEL_INVALID_WRITE_OPTION_VALUE
Excel 數據源不支援寫入選項 '<value>' 的值 '<option>'。
如需詳細資訊,請參閱 EXCEL_INVALID_WRITE_OPTION_VALUE
Excel_無效寫入架構
Excel 數據源不支援寫入的架構 『<schema>』。
<hint>
EXCEL_PARSING_ERROR
剖析 Excel 資料時出錯。
如需詳細資訊,請參閱 EXCEL_PARSING_ERROR
EXCEL_不支援的寫入選項
Excel 數據源不支援寫入選項 『<option>』。
<hint>
EXCEPT_NESTED_COLUMN_INVALID_TYPE
EXCEPT 欄位 <columnName> 已解析且預期為 StructType,但發現類型 <dataType>。
EXCEPT_OVERLAPPING_COLUMNS
EXCEPT清單中的列必須相異且不重疊,但收到(<columns>)。
EXCEPT_RESOLVED_COLUMNS_WITHOUT_MATCH
EXCEPT 數據行 [<exceptColumns>] 已解析,但與星號展開中的任何數據行 [<expandedColumns>] 不相符。
EXCEPT_UNRESOLVED_COLUMN_IN_STRUCT_EXPANSION
<objectName>子句中的EXCEPT欄/字段名稱無法解析。 您是否表示下列其中一項: [<objectList>]?
注意:子句中的 EXCEPT 巢狀數據行可能不會在結構展開期間包含限定符(數據表名稱、父結構數據行名稱等),如果它們與巢狀數據行搭配使用,請嘗試移除限定符。
EXECUTOR_DISK_OUT_OF_SPACE
執行磁碟空間不足。 如果有磁碟容量,請增加。 如果您正在使用 Serverless,請聯絡我們的客服團隊。
EXEC_IMMEDIATE_DUPLICATE_ARGUMENT_ALIASES
此命令USINGEXECUTE IMMEDIATE的 子句包含多個具有相同別名的自變數 (<aliases>),其無效;請更新命令以指定唯一別名,然後再試一次。
EXPECT_PERMANENT_TABLE_NOT_TEMP
'<operation>' 需要永久數據表,但 <tableName> 是臨時表。 請改為指定永久數據表。
EXPECT_PERMANENT_VIEW_NOT_TEMP
'<operation>' 預期會有永久檢視,但 <viewName> 為暫存檢視。
EXPECT_TABLE_NOT_VIEW
'<operation>' 預期數據表,但 <viewName> 為檢視。
如需詳細資訊,請參閱 EXPECT_TABLE_NOT_VIEW
EXPECT_VIEW_NOT_TABLE
資料表 <tableName> 不支援 <operation>。
如需詳細資訊,請參閱 EXPECT_VIEW_NOT_TABLE
EXPRESSION_DECODING_FAILED
無法將資料列解碼為表達式的值:<expressions>。
EXPRESSION_ENCODING_FAILED
無法將表達式 <expressions> 的值編碼為數據列。
不支援EXPRESSION_TRANSLATION_TO_V2的轉換
表達 <expr> 式無法轉換成 v2 表達式。
EXPRESSION_TYPE_IS_NOT_ORDERABLE
無法排序數據行表示式 <expr> ,因為其類型 <exprType> 無法排序。
EXTERNAL_METASTORE_CLIENT_ERROR
用戶端作業失敗:
如需詳細資訊,請參閱 EXTERNAL_METASTORE_CLIENT_ERROR
EXTERNAL_SHALLOW_CLONE_STILL_EXISTS
無法在源數據表 <sourceTable> 上執行作業,因為淺層複製 <targetTable> 仍然存在,而且其狀態無效。 如果您確實想要繼續進行這項作業,請明確執行 DROP 命令來清除淺層複製。
EXTERNAL_TABLE_INVALID_SCHEME
外部數據表不支援配置 <scheme> 。
FABRIC_REFRESH_INVALID_SCOPE
執行 『REFRESH FOREIGN <scope> <name>' 時發生錯誤。 無法直接重新整理 Fabric <scope>,請改用「REFRESH FOREIGN CATALOG <catalogName>」來重新整理 Fabric 目錄。
FAILED_EXECUTE_UDF
使用者定義函數(<functionName>: (<signature>) => <result>) 因以下原因而失敗 <reason>:
FAILED_FUNCTION_CALL
無法準備 <funcName> 函式以進行呼叫。 請仔細檢查函式的自變數。
FAILED_JDBC
JDBC <url> 在操作時失敗:
如需詳細資訊,請參閱 FAILED_JDBC
FAILED_PARSE_STRUCT_TYPE
剖析結構失敗: <raw>。
FAILED_READ_FILE
讀取檔案 <path>時發生錯誤。
如需詳細資訊,請參閱 FAILED_READ_FILE
FAILED_REGISTER_CLASS_WITH_KRYO
無法向 Kryo 註冊類別。
FAILED_RENAME_PATH
無法將 <sourcePath> 重新命名為 <targetPath>,因為目標名稱已經存在。
FAILED_RENAME_TEMP_FILE
無法將暫存文件從<srcPath>重新命名為<dstPath>,因為 FileSystem.rename 回傳 false。
FAILED_ROW_TO_JSON
未能將類別<class>的列值<value>轉換成目標 SQL 類型<sqlType>,以JSON格式。
無法為直接查詢創建計劃
未能制定直接查詢檔案的計畫: <dataSourceType>
FAILED_TO_LOAD_ROUTINE
無法載入例程 <routineName>。
FAILED_TO_PARSE_TOO_COMPLEX
敘述,包括潛在的 SQL 函數和參考的視圖,太複雜,無法解析。
若要減輕此錯誤,請將 語句分成多個較不複雜的區塊。
FEATURE_NOT_ENABLED
<featureName>此功能未啟用。 請考慮將 組態 <configKey> 設定為 <configValue> 以啟用這項功能。
FEATURE_NOT_ON_CLASSIC_WAREHOUSE
<feature> 傳統 SQL 倉儲不支援。 若要使用這項功能,請使用 Pro 或無伺服器 SQL 倉儲。
FEATURE_REQUIRES_UC
<feature> 在沒有 Unity Catalog 的情況下不受支援。 若要使用此功能,請啟用 Unity 目錄。
FEATURE_UNAVAILABLE
<feature> 在您的環境中不受支援。 若要使用此功能,請連絡 Databricks 支援。
提取失敗
在擷取洗牌資料或元資料時任務失敗: <errorString>。
FGAC_ON_DEDICATED_COMPUTE_FAILED(專用計算資源上的FGAC操作失敗)
專用計算上的細粒度存取控制(FGAC)失敗,原因為以下異常狀況:<message>
FIELD_ALREADY_EXISTS
無法 <op> 欄,因為 <fieldNames> 已存在於 <struct>中。
FIELD_NOT_FOUND
中<fieldName>沒有這類結構欄位<fields>。
FILE_IN_STAGING_PATH_ALREADY_EXISTS
暫存路徑 <path> 中的檔案已經存在,但 OVERWRITE 未設定
FLATMAPGROUPSWITHSTATE_USER_FUNCTION_ERROR
flatMapGroupsWithState 中使用者提供的函式發生錯誤。 原因:<reason>
FORBIDDEN_DATASOURCE_IN_SERVERLESS
不允許在無伺服器計算中查詢數據源 <source> 。 無伺服器計算服務僅支援<allowlist>數據源。
FORBIDDEN_KEYWORD_IN_JDBC_QUERY
查詢選項 <queryOption> 不能包含禁止關鍵詞。 請從查詢中移除下列關鍵字: <keywords>
FORBIDDEN_OPERATION
不允許在<statement>上執行操作<objectType>:<objectName>。
FOREACH_BATCH_USER_FUNCTION_ERROR
foreach 批次資料接收目的地中使用者提供的函式發生錯誤。 原因:<reason>
FOREACH_USER_FUNCTION_ERROR
foreach 匯入點中的使用者提供的函式發生錯誤。 原因:<reason>
FOREIGN_KEY_MISMATCH
外鍵父欄位 <parentColumns> 與主鍵子欄位 <childColumns> 不符。
FOREIGN_OBJECT_NAME_CANNOT_BE_EMPTY
無法執行此命令,因為外部 <objectType> 名稱必須是非空白的。
FOREIGN_TABLE_CONVERSION_UNSUPPORTED
資料表不符合從 UC Foreign 升級至 UC External 的條件。 Reason:
如需詳細資訊,請參閱 FOREIGN_TABLE_CONVERSION_UNSUPPORTED
外部視圖轉換不支持
物件 <objectName> 無法轉換為 UC 管理檢視。 Reason:
請參見 FOREIGN_VIEW_CONVERSION_UNSUPPORTED 以獲取更多詳情
FROM_JSON_CONFLICTING_SCHEMA_UPDATES
from_json 推斷功能在以下遇到相互衝突的架構更新: <location>
FROM_JSON_CORRUPT_RECORD_COLUMN_IN_SCHEMA
from_json找到 columnNameOfCorruptRecord (<columnNameOfCorruptRecord>)存在
在一個 JSON 物件中,無法繼續前進。 請為此配置不同的值
選項 'columnNameOfCorruptRecord'。
FROM_JSON_CORRUPT_SCHEMA
from_json解釋程序無法讀取儲存在指定位置的資料結構: <location>
FROM_JSON_INFERENCE_FAILED
from_json無法推斷架構。 請改為提供一個。
FROM_JSON_INFERENCE_NOT_SUPPORTED
只有在定義串流數據表時,才支援from_json推斷
FROM_JSON_INVALID_CONFIGURATION
from_json組態無效:
如需詳細資訊,請參閱 FROM_JSON_INVALID_CONFIGURATION
FROM_JSON_SCHEMA_EVOLUTION_FAILED
from_json無法從 <old> 進化到 <new>
FUNCTION_PARAMETERS_MUST_BE_NAMED
函式 <function> 需要具名參數。 參數缺少名稱: <exprs>。 請更新函式呼叫,新增所有參數的名稱,例如( <function>param_name => ...)。
GENERATED_COLUMN_WITH_DEFAULT_VALUE
一個欄位不能同時具有預設值和生成表達式,但欄位 <colName> 具有預設值:(<defaultValue>) 和生成表達式:(<genExpr>)。
GET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION
Hive 2.2 和較低版本不支援 getTablesByType。 請使用Hive 2.3或更高版本。
GET_WARMUP_TRACING_FAILED
無法取得熱身追蹤。 原因: <cause>。
GET_WARMUP_TRACING_FUNCTION_NOT_ALLOWED
不允許函式get_warmup_tracing()。
GRAPHITE_SINK_INVALID_PROTOCOL
無效的 Graphite 通訊協定: <protocol>。
GRAPHITE_SINK_PROPERTY_MISSING
Graphite 匯流排需要 '<property>' 屬性。
GROUPING_COLUMN_MISMATCH
無法在群組列<grouping>中找到分類列(<groupingColumns>)。
GROUPING_ID_COLUMN_MISMATCH
grouping_id (<groupingIdColumn>) 的數據行與群組數據行 (<groupByColumns>) 不符。
GROUPING_SIZE_LIMIT_EXCEEDED
叢組集大小不能大於 <maxSize>。
GROUP_BY_AGGREGATE
在 GROUP BY中不允許使用聚合函數,但在 <sqlExpr>中發現了。
如需詳細資訊,請參閱 GROUP_BY_AGGREGATE
GROUP_BY_POS_AGGREGATE
GROUP BY <index> 會參考包含聚合函數的表達式 <aggExpr> 。
GROUP BY 中不允許聚合函數。
GROUP_BY_POS_OUT_OF_RANGE
GROUP BY position <index> 不在選取清單中(有效範圍是 [1, <size>])。
GROUP_EXPRESSION_TYPE_IS_NOT_ORDERABLE
表達式 <sqlExpr> 無法當做群組表達式使用,因為其數據類型 <dataType> 不是可排序的數據類型。
HDFS_HTTP_ERROR
嘗試從 HDFS 讀取時,HTTP 要求失敗。
如需詳細資訊,請參閱 HDFS_HTTP_ERROR
HINT_UNSUPPORTED_FOR_JDBC_DIALECT
JDBC 資料來源中不支援hint選項<jdbcDialect>。 支援的方言有 MySQLDialect, OracleDialect 和 DatabricksDialect。
HIVE_METASTORE_INVALID_PLACEHOLDER_PATH
查詢或命令無法執行,因為 'spark.databricks.hive.metastore.tablePlaceholderPath' 組態提供了無效的 Hive 中繼存放區數據表佔位符路徑。 請使用新的值更新此組態,以提供有效的路徑,然後重新執行查詢或命令。
HIVE_METASTORE_TABLE_PLACEHOLDER_PATH_NOT_SET
查詢或命令失敗,因為未設定Hive中繼存放區數據表佔位元路徑,這在架構位置位於 DBFS 上時是必要的,而數據表位置是物件/檔案。 請將spark.databricks.hive.metastore.tablePlaceholderPath 設定為您有權存取的路徑,然後重新執行查詢或命令。
HLL_INVALID_INPUT_SKETCH_BUFFER
對無效的<function>呼叫;僅支援有效的HLL草圖緩衝區作為輸入(例如由hll_sketch_agg函式產生的那些)。
HLL_INVALID_LG_K
對<function>的呼叫無效;lgConfigK的值必須介於<min>和<max>之間,包含:<value>。
HLL_K_MUST_BE_CONSTANT
無效呼叫至<function>; K值必須是常數,但獲得的是一個非常數表達式。
HLL_UNION_DIFFERENT_LG_K
素描具有不同的 lgConfigK 值:<left> 和 <right>。 將 allowDifferentLgConfigK 參數設定為 true,以使用不同的<function>值呼叫lgConfigK。
HMS_FEDERATION_SHALLOW_CLONE_NOT_FOUND_IN_UC
淺層複製路徑 '<path>' 無法解析為 Unity Catalog 中的數據表。 請確定數據表存在,且與 Unity 目錄同盟。
HYBRID_ANALYZER_EXCEPTION
嘗試使用舊版固定點分析器和單一傳遞解析程式解析查詢或命令時發生失敗。
如需詳細資訊,請參閱 HYBRID_ANALYZER_EXCEPTION
IDENTIFIER_TOO_MANY_NAME_PARTS
<identifier> 不是一個有效的識別碼,因為它包含的不只是 <limit> 名稱部分。
IDENTITY_COLUMNS_DUPLICATED_SEQUENCE_GENERATOR_OPTION
重複的IDENTITY列序列生成器選項:<sequenceGeneratorOption>。
IDENTITY_COLUMNS_ILLEGAL_STEP
IDENTITY 欄位步驟不能是 0。
IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE
不支援 <dataType> 資料類型的 IDENTITY 欄位。
ILLEGAL_DAY_OF_WEEK
星期一的非法輸入: <string>。
ILLEGAL_STATE_STORE_VALUE
提供給狀態儲存區的不合法值
如需詳細資訊,請參閱 ILLEGAL_STATE_STORE_VALUE
INAPPROPRIATE_URI_SCHEME_OF_CONNECTION_OPTION
無法建立連線,因為針對連線選項 『<uri>『 提供的 URI <option> 配置不當。
允許的配置: <allowedSchemes>。
如果配置不存在於 URI 中,請新增配置,或從允許的值指定配置。
INCOMPARABLE_PIVOT_COLUMN
無效的樞紐欄 <columnName>。 樞紐欄位必須是可比較的。
不相容的批次檢視讀取
檢視 <datasetIdentifier> 是批次檢視,必須使用 SparkSession#read 來參考。 您可以藉由設定 Spark conf pipelines.incompatibleViewCheck.enabled = false 來停用此檢查。
INCOMPATIBLE_COLUMN_TYPE
<operator> 只能在具有相容數據行類型的數據表上執行。 第一個表<columnOrdinalNumber>的<tableOrdinalNumber>列是<dataType1>類型,與相同列上<dataType2>的不相容。<hint>。
INCOMPATIBLE_DATASOURCE_REGISTER
偵測到不相容的DataSourceRegister。 請從 classpath 移除不相容的連結庫,或將其升級。 錯誤:<message>
INCOMPATIBLE_DATA_FOR_TABLE
無法為資料表 <tableName>寫入不相容的資料:
如需詳細資訊,請參閱 INCOMPATIBLE_DATA_FOR_TABLE
INCOMPATIBLE_JOIN_TYPES
聯結類型 <joinType1> 與 <joinType2> 不相容。
INCOMPATIBLE_STREAMING_VIEW_READ
檢視 <datasetIdentifier> 是串流檢視,必須使用 SparkSession#readStream 來參考。 您可以藉由設定 Spark conf pipelines.incompatibleViewCheck.enabled = false 來停用此檢查。
INCOMPATIBLE_VIEW_SCHEMA_CHANGE
檢視 <viewName> 的 SQL 查詢具有不相容的架構變更,且無法解析數據行 <colName> 。 預期名為<expectedNum>的<colName>列,但實際取得<actualCols>。
請執行 下列命令,嘗試重新建立檢視: <suggestion>。
INCOMPLETE_TYPE_DEFINITION
不完整的複雜類型:
如需詳細資訊,請參閱 INCOMPLETE_TYPE_DEFINITION
INCONSISTENT_BEHAVIOR_CROSS_VERSION
由於升級至新版本,您可能會收到不同的結果。
如需更多詳細資料,請參閱 INCONSISTENT_BEHAVIOR_CROSS_VERSION
INCORRECT_NUMBER_OF_ARGUMENTS
<failure>, <functionName> 至少需要 <minArgs> 個參數,且最多需要 <maxArgs> 個參數。
INCORRECT_RAMP_UP_RATE
具有 <rowsPerSecond> rowsPerSecond 的最大偏移量為 <maxSeconds>,但 "rampUpTimeSeconds" 為 <rampUpTimeSeconds>。
INDETERMINATE_COLLATION
無法判斷使用哪種定序進行字串操作。 使用 COLLATE 子句明確設定定序。
INDETERMINATE_COLLATION_IN_EXPRESSION
的 <expr> 數據類型具有不確定的定序。 使用 COLLATE 子句明確設定定序。
INDETERMINATE_COLLATION_IN_SCHEMA
結構包含不確定的定序,位於:[<columnPaths>]。 使用 COLLATE 子句明確設定定序。
INDEX_ALREADY_EXISTS
無法在數據表<indexName>上建立索引<tableName>,因為它已經存在。
INDEX_NOT_FOUND
在數據表 <indexName>上找不到索引<tableName>。
INET_FUNCTIONS_NOT_ENABLED (網路功能未啟用)
<functionName> 已停用或不受支援。 INET功能尚未公開。
INFINITE_STREAMING_TRIGGER_NOT_SUPPORTED
此叢集類型不支援觸發類型 <trigger>。
使用不同的觸發程式類型,例如 AvailableNow、Once。
INSERT_COLUMN_ARITY_MISMATCH
無法寫入 <tableName>,原因是
如需詳細資訊,請參閱 INSERT_COLUMN_ARITY_MISMATCH
INSERT_PARTITION_COLUMN_ARITY_MISMATCH
無法寫入 '<tableName>',<reason>:
資料表欄位:<tableColumns>
使用靜態值分割欄位:<staticPartCols>。
資料欄:<dataColumns>。
使用禁用未對齊列的插入替換
USING 子句中的所有欄位必須出現在目標和來源結構描述中的相同位置。
USING 不支援包含未對齊直欄的子句。
下列欄未對齊: <misalignedReplaceUsingCols>
INSERT_REPLACE_USING_INVALID_SET_OF_COLUMNS
資料表必須被分割,且所有指定的欄位必須代表資料表分割欄位的完整集合。
下列欄位不是分割欄位:<nonPartitionColumns>
遺漏下列分區資料行: <missingPartitionsColumns>
INSERT_REPLACE_USING_NOT_ENABLED
請聯絡您的 Databricks 代表以啟用( INSERT INTO...REPLACE USING ...)功能。
INSUFFICIENT_PERMISSIONS
權限不足:
<report>
INSUFFICIENT_PERMISSIONS_EXT_LOC
用戶 <user> 對於外部位置 <location>的許可權不足。
INSUFFICIENT_PERMISSIONS_NO_OWNER
<securableName> 沒有擁有者。 要求系統管理員設定擁有者。
INSUFFICIENT_PERMISSIONS_OWNERSHIP_SECURABLE
使用者不擁有 <securableName>。
INSUFFICIENT_PERMISSIONS_SECURABLE
用戶在<action>上沒有<securableName>的許可權。
INSUFFICIENT_PERMISSIONS_SECURABLE_PARENT_OWNER
的 <securableName> 擁有者與的 <parentSecurableName>擁有者不同。
INSUFFICIENT_PERMISSIONS_SPARK_CONNECT_CLIENT_SET_CLOUDFETCH_RETENTION_TIMEOUT
用戶端無權設定 CloudFetch 結果的自定義保留逾時。
INSUFFICIENT_PERMISSIONS_STORAGE_CRED
記憶體認證 <credentialName> 的許可權不足。
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES
用戶無法在<action>上<securableName>,因為底層可安全的物件的許可權不足。
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES_VERBOSE
使用者無法 <action> 在 <securableName>,因為基礎安全物件的許可權問題。
<underlyingReport>
INTERVAL_ARITHMETIC_OVERFLOW
使用間隔操作時的整數溢位。
如需詳細資訊,請參閱 INTERVAL_ARITHMETIC_OVERFLOW
INTERVAL_DIVIDED_BY_ZERO
除以零。 使用 try_divide 來容許除數為0並改為傳回 NULL 。
INVALID_AGGREGATE_FILTER
聚合函數中的 FILTER 表示式 <filterExpr> 無效。
如需詳細資訊,請參閱 INVALID_AGGREGATE_FILTER
INVALID_AGNOSTIC_ENCODER
發現無效的中立編碼器。 預期為 AgnosticEncoder 的實例,但卻得到了 <encoderType>。 如需詳細資訊,請參閱 '<docroot>/api/java/index.html?org/apache/spark/sql/Encoder.html'。
INVALID_ARRAY_INDEX
索引 <indexValue> 超出界限。 陣列具有 <arraySize> 個元素。 使用 SQL 函式 get() 來容許存取位於無效索引的專案,並改為傳回 NULL 。
如需詳細資訊,請參閱 INVALID_ARRAY_INDEX
INVALID_ARRAY_INDEX_IN_ELEMENT_AT
索引 <indexValue> 超出界限。 陣列具有 <arraySize> 個元素。 使用 try_element_at 來容許存取位於無效索引的元素,並改為傳回 NULL 。
如需詳細資訊,請參閱 INVALID_ARRAY_INDEX_IN_ELEMENT_AT
INVALID_ARTIFACT_PATH
帶有名稱 <name> 的文物無效。 名稱必須是相對路徑,且不能引用父目錄、兄弟目錄或其他級別的目錄。
INVALID_ATTRIBUTE_NAME_SYNTAX
屬性名稱中的語法錯誤: <name>。 檢查反引號是否成對出現,確保用引號括起的字串是完整的名稱部分,並且反引號僅能在引號括起的名稱部分中使用。
INVALID_AUTO_TTL_EXPIRE_IN_DAYS
Auto-TTL 指定的天數必須為非負數。
INVALID_AWS_AUTHENTICATION
請選擇下列其中一個驗證方法:
提供 Databricks 服務認證的名稱 () (
<serviceCredential>作為 Spark 數據流選項或叢集環境變數)。提供 AWS AccessKey (
<awsAccessKey>) 和 SecretAccessKey (<awsSecretKey>) 以使用 AWS 金鑰。不提供 AWS 金鑰或 Databricks 服務認證,以使用預設的 AWS 認證提供者鏈結進行 Kinesis 驗證。
INVALID_AWS_AUTHENTICATION_EXPLICIT_OPTIONS
請提供 Databricks 服務認證的名稱或其他識別資訊 (<serviceCredential>)
<awsAccessKey>或和<awsSecretKey>
INVALID_BITMAP_POSITION
0 索引的位元圖位置<bitPosition>超出界限。 點陣圖具有 <bitmapNumBits> 位元(<bitmapNumBytes> 位元組)。
INVALID_BOOLEAN_STATEMENT
布爾值語句預期在 條件中,但 <invalidStatement> 已找到。
INVALID_BOUNDARY
界限 <boundary> 無效: <invalidValue>。
如需詳細資訊,請參閱 INVALID_BOUNDARY
INVALID_BUCKET_COLUMN_DATA_TYPE
<type>無法用於儲存桶列。 分桶不支援定序數據類型。
INVALID_BUCKET_COUNT
貯體數目應大於 0,但小於或等於 bucketing.maxBuckets (<bucketingMaxBuckets>)。 取得 <numBuckets>。
INVALID_BUCKET_FILE
無效的貯體檔案: <path>。
INVALID_BYTE_STRING
預期格式為 ByteString,但實際上是 <unsupported> (<class>)。
INVALID_CIDR_RANGE
該函數 <functionName> 獲得無效的 CIDR 範圍: <value>。
無效的複製會話請求
無效的會話克隆請求。
更多詳情請參見 INVALID_CLONE_SESSION_REQUEST
INVALID_COLUMN_NAME_AS_PATH
數據源 <datasource> 無法儲存數據行 <columnName> ,因為它的名稱包含檔案路徑中不允許的一些字元。 請使用別名來重新命名它。
INVALID_COLUMN_OR_FIELD_DATA_TYPE
資料列或欄位 <name> 的類型是 <type>,但需要的是 <expectedType>。
INVALID_CONF_VALUE
設定 「<confValue>中的值」<confName> 無效。
如需詳細資訊,請參閱 INVALID_CONF_VALUE
INVALID_CONSTRAINT_CHARACTERISTICS
條件約束特性 [<characteristics>] 會重複或彼此衝突。
INVALID_CORRUPT_RECORD_TYPE
損毀記錄的欄位 <columnName> 必須是可空值的 STRING 類型,但得到的是 <actualType>。
INVALID_CURRENT_RECIPIENT_USAGE
current_recipient 函式只能在 CREATE VIEW 語句或 ALTER VIEW 語句中使用,以在 Unity 目錄中定義僅限共享檢視。
INVALID_CURSOR
游標無效。
如需詳細資訊,請參閱 INVALID_CURSOR
無效資料來源格式以供連線選項注入
名稱為 <connectionName> 且類型為 <connectionType> 的連線不支援 <actualFormat> 格式。 支援的格式:<expectedFormat>。
嘗試覆蓋無效的數據源選項
選項 <optionName> 已存在於連線 <connectionName> 上,且無法覆寫。
INVALID_DATETIME_PATTERN
無法辨識的日期時間模式: <pattern>。
如需詳細資訊,請參閱 INVALID_DATETIME_PATTERN
INVALID_DBFS_MOUNT
DBFS Mount 無法存取。
更多詳情請參見 INVALID_DBFS_MOUNT
INVALID_DBSQL_CONFIG
<confValue> 不支援 SQL 配置金鑰 <confKey>
INVALID_DEFAULT_VALUE
無法執行 <statement> 命令,因為目的地數據行或變數 <colName> 具有 DEFAULT 值 <defaultValue>,
如需詳細資訊,請參閱 INVALID_DEFAULT_VALUE
INVALID_DELIMITER_VALUE
分隔符的值無效。
如需詳細資訊,請參閱 INVALID_DELIMITER_VALUE
INVALID_DEST_CATALOG
命令的 SYNC 目的地目錄必須位於 Unity 目錄內。 找到 <catalog>。
INVALID_DRIVER_MEMORY
系統記憶體 <systemMemory> 必須至少是 <minSystemMemory>。
請使用Spark組態中的 --driver-memory 選項或 “<config>” 來增加堆積大小。
INVALID_DROP_TABLE_OPTIONS (無效的刪除資料表選項)
不能在 PURGE 命令中同時指定 FORCE 和 DROP TABLE 選項。 使用其中一個 PURGE 或 FORCE,但不能同時使用兩者。
INVALID_DYNAMIC_OPTIONS
被禁止傳遞的選項<option_list>不能用於外部表<table_name>。
INVALID_EMPTY_LOCATION
位置名稱不能是空字串,但 <location> 已指定。
INVALID_ENVIRONMENT_SETTINGS_DEPENDENCIES
遺漏環境設定相依性參數,或無法剖析為字串清單。 預期格式:[“dep1”, “dep2”]
無效的環境設置環境版本
此執行版本不支援資料來源的環境版本。 值: <environmentVersion>。
INVALID_ERROR_CONDITION_DECLARATION
無效的條件宣告。
如需詳細資訊,請參閱 INVALID_ERROR_CONDITION_DECLARATION
INVALID_ESC
找到無效的逸出字串: <invalidEscape>。 逸出字串必須只包含一個字元。
INVALID_ESCAPE_CHAR
EscapeChar 應該是一個長度為一的字串,但取得 <sqlExpr>。
INVALID_EXECUTOR_MEMORY
執行程式記憶體<executorMemory>必須至少為<minSystemMemory>。
請使用 Spark 組態中的 --executor-memory 選項或 “<config>” 來增加執行程式記憶體。
INVALID_EXPRESSION_ENCODER
找到無效的表達式編碼器。 預期的是 ExpressionEncoder 的實例,但卻取得了 <encoderType>。 如需詳細資訊,請參閱 '<docroot>/api/java/index.html?org/apache/spark/sql/Encoder.html'。
INVALID_EXPR_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE (無效的表達式類型,用於即時執行查詢)
表達式型別必須是字串型,但得到 <exprType>。
INVALID_EXTERNAL_TYPE
外部類型<externalType>在表達式<type>中的類型<expr>無效。
INVALID_EXTRACT_BASE_FIELD_TYPE
無法從 <base>擷取值。 需要一個複雜型 [STRUCT, ARRAY, MAP],但得到 <other>。
INVALID_EXTRACT_FIELD
無法從 <field> 擷取 <expr>。
INVALID_EXTRACT_FIELD_TYPE
欄位名稱應該是非 null 字串常值,但目前是 <extraction>。
INVALID_FIELD_NAME
<fieldName>欄位名稱無效:<path>不是結構。
INVALID_FLOW_QUERY_TYPE
Flow <flowIdentifier> 傳回無效的關係類型。
如需詳細資訊,請參閱 INVALID_FLOW_QUERY_TYPE
INVALID_FORMAT
格式無效: <format>。
如需詳細資訊,請參閱 INVALID_FORMAT
INVALID_FRACTION_OF_SECOND
秒的有效範圍是 [0, 60] (含),但所提供的值為 <secAndMicros>。 若要避免此錯誤,請使用 try_make_timestamp,它在發生錯誤時傳回NULL。
如果您不想使用此函式的工作階段預設時間戳版本,請使用 try_make_timestamp_ntz 或 try_make_timestamp_ltz。
INVALID_GET_DIAGNOSTICS_USAGE
GET
DIAGNOSTICS 陳述的使用無效。
如需詳細資訊,請參閱 INVALID_GET_DIAGNOSTICS_USAGE
INVALID_GET_DIAGNOSTICS_USAGE_CONDITION_NUMBER_MUST_BE_ONE
GET
DIAGNOSTICS 陳述的使用無效。 該陳述中條件號 GETDIAGNOSTICS 唯一支援的值為 1。
INVALID_HANDLE
句柄 <handle> 無效。
如需詳細資訊,請參閱 INVALID_HANDLE
INVALID_HANDLER_DECLARATION
無效的處理程式宣告。
如需詳細資訊,請參閱 INVALID_HANDLER_DECLARATION
INVALID_HTTP_REQUEST_METHOD
輸入參數:方法、值: <paramValue> 不是http_request的有效參數,因為它不是有效的 HTTP 方法。
INVALID_HTTP_REQUEST_PATH
輸入參數:path、value: <paramValue> 不是http_request的有效參數,因為不允許路徑周遊。
INVALID_IDENTIFIER
未加上引號的標識碼 <ident> 無效,且必須加上引號: <ident>。
未加上批註的識別碼只能包含 ASCII 字母 ('a' - 'z'、'A' - 'Z')、數位 ('0' - '9')和底線 ('_') 。
未加上批注的標識碼也不得以數字開頭。
不同的數據源和中繼存放區可能會對有效的標識符施加額外的限制。
INVALID_INDEX_OF_ZERO
索引 0 無效。 索引應為 < 0 or > 0(或第一個元素的索引為 1)。
INVALID_INLINE_TABLE
無效的內嵌表格。
如需詳細資訊,請參閱 INVALID_INLINE_TABLE
INVALID_INTERVAL_FORMAT
將『<input>『 剖析為間隔時發生錯誤。 請確定所提供的值格式有效,以定義間隔。 您可以參考文件以獲取正確的格式。
如需詳細資訊,請參閱 INVALID_INTERVAL_FORMAT
INVALID_INTERVAL_WITH_MICROSECONDS_ADDITION
無法將間隔新增至日期,因為其微秒部分不是 0。 若要解決此問題,請將輸入日期轉換成時間戳,其支援加入非零微秒的間隔。
無效的IP地址
此功能 <functionName> 接收到無效的IP位址:<value>。
無效的IP地址或CIDR範圍
函式 <functionName> 收到無效的 IP 位址或 CIDR 範圍: <value>。
INVALID_JAVA_IDENTIFIER_AS_FIELD_NAME
<fieldName> 不是 Java 的有效識別碼,不能當做功能變數名稱使用
<walkedTypePath>。
INVALID_JDBC_CONNECTION_OPTION
此選項 <optionKey> 不是這個 jdbc 連線的有效參數。
INVALID_JDBC_CONNECTION_OPTION_VALUE
具有值<optionKey>的選項<optionValue>不是這個 jdbc 連線的有效選項。
INVALID_JOIN_TYPE_FOR_JOINWITH
joinWith 中的聯結類型無效: <joinType>。
INVALID_JSON_DATA_TYPE
無法將字串 'JSON' 轉換<invalidType>成資料型別。 請輸入有效的數據類型。
INVALID_JSON_DATA_TYPE_FOR_COLLATIONS
排序只能應用於字串型別,但資料 JSON 型別為 <jsonType>。
INVALID_JSON_RECORD_TYPE
在推斷模式 中常見的結構JSON時,偵測到一個無效的記錄類型<failFastMode>。
STRUCT預期會是型別,但找到 <invalidType>。
INVALID_JSON_ROOT_FIELD
無法將 JSON 根欄位轉換成目標 Spark 類型。
INVALID_JSON_SCHEMA_MAP_TYPE
輸入架構<jsonSchema>只能包含STRING作為MAP的鍵值類型。
INVALID_KRYO_SERIALIZER_BUFFER_SIZE
設定 “<bufferSizeConfKey>” 的值必須小於 2048 MiB,但取得 <bufferSizeConfValue> MiB。
INVALID_KRYO_SERIALIZER_NO_DATA
物件 '<obj>' 無效或轉換為 <serdeOp> 的格式不正確,使用 <serdeClass> 時出錯。
INVALID_LABEL_USAGE
<labelName>標籤的使用方式無效。
如需詳細資訊,請參閱 INVALID_LABEL_USAGE
INVALID_LAMBDA_FUNCTION_CALL
無效的 Lambda 函數調用。
如需詳細資訊,請參閱 INVALID_LAMBDA_FUNCTION_CALL
INVALID_LATERAL_JOIN_TYPE
<joinType>
JOIN因為LATERAL子查詢無法與其聯結夥伴建立相互關聯,所以不允許OUTER的關聯。 移除LATERAL相互關聯,或使用INNERJOIN,或者改用 LEFT OUTERJOIN。
INVALID_LIMIT_LIKE_EXPRESSION
表達式 <expr> 之類的限制無效。
如需詳細資訊,請參閱 INVALID_LIMIT_LIKE_EXPRESSION
INVALID_LOG_VERSION
UnsupportedLogVersion.
如需詳細資訊,請參閱 INVALID_LOG_VERSION
INVALID_NAME_IN_USE_COMMAND
名稱『<name>』不合法,在<command>命令中。 原因:<reason>
INVALID_NON_ABSOLUTE_PATH
提供的非絕對路徑 <path> 無法限定。 請將路徑更新為有效的 dbfs 掛接位置。
INVALID_NON_DETERMINISTIC_EXPRESSIONS
運算子預期有決定性運算式,但實際運算式為 <sqlExprs>。
INVALID_NUMERIC_LITERAL_RANGE
數值常值 <rawStrippedQualifier> 超出 <typeName> 的有效範圍,最小值為 <minValue>,最大值為 <maxValue>。 請據以調整值。
INVALID_OBSERVED_METRICS
觀察到的計量無效。
如需詳細資訊,請參閱 INVALID_OBSERVED_METRICS
INVALID_OPTIONS
無效選項:
如需詳細資訊,請參閱 INVALID_OPTIONS
INVALID_PANDAS_UDF_PLACEMENT
群組匯總 pandas UDF <functionList> 無法與其他非 pandas 聚合函數一起叫用。
INVALID_PARAMETER_MARKER_VALUE
提供了無效的參數映射。
如需詳細資訊,請參閱 INVALID_PARAMETER_MARKER_VALUE
INVALID_PARAMETER_VALUE
在 <parameter> 中,參數 <functionName> 的值無效:
如需詳細資訊,請參閱 INVALID_PARAMETER_VALUE
INVALID_PARTITION_COLUMN_DATA_TYPE
無法使用 <type> 作為分區欄位。
INVALID_PARTITION_OPERATION
分區命令無效。
如需詳細資訊,請參閱 INVALID_PARTITION_OPERATION
INVALID_PARTITION_VALUE
無法將值<value>轉換成數據分割數據行 <dataType>的數據類型<columnName>。 請確定值符合此資料分割數據行的預期數據類型。
INVALID_PIPELINE_ID
管線標識碼 <pipelineId> 無效。
管線標識符應該是格式為 'xxxxxxxx-xxxx-xxxx-xxxx-xxxxxx' 的 UUID
INVALID_PRIVILEGE
許可權 <privilege> 對 <securable>無效。
INVALID_PROPERTY_KEY
<key> 是無效的屬性索引鍵,請使用引號,例如 SET <key>=<value>。
INVALID_PROPERTY_VALUE
<value> 是無效的屬性值,請使用引號,例如 SET <key>=<value>
INVALID_QUALIFIED_COLUMN_NAME
數據行名稱 <columnName> 無效,因為它沒有數據表名稱限定,或包含超過4個名稱部分。
INVALID_QUERY_MIXED_QUERY_PARAMETERS
參數化查詢必須使用位置或具名參數,但不能同時使用兩者。
INVALID_RECURSIVE_CTE
找到無效的遞歸定義。 遞歸查詢必須包含具有 2 個子系的UNION或UNION ALL語句。 第一個子系需為錨點詞彙,而不應有任何遞迴引用。 任何最上層內部 CTE 都不得包含自我參照。
INVALID_RECURSIVE_REFERENCE
在 WITH RECURSIVE 子句中找到無效的遞歸參考。
如需詳細資訊,請參閱 INVALID_RECURSIVE_REFERENCE
INVALID_REGEXP_REPLACE
無法針對 source = “”、pattern = “<source><pattern>”、replacement = “<replacement>” 和 position = <position>執行regexp_replace。
無效的可重設相依性
表格 <upstreamResettableTables> 是可重設的,但具有不可重設的下游相依性 '<downstreamTable>'。
reset 將會失敗,因為 Spark Streaming 不支援已刪除的來源資料。 您可以從 '<resetAllowedKey>' 中刪除 <downstreamTable>=false 屬性,或將它添加到其上游依賴項中。
INVALID_RESET_COMMAND_FORMAT
預期的格式為「RESET」或「RESET key」。 如果你想在鍵中加入特殊字元,請使用引號,例如 RESET key。
INVALID_RESIGNAL_USAGE
RESIGNAL 當處理程式不在作用中時。
RESIGNAL 語句只能在例外狀況處理程序主體內使用。
INVALID_S3_COPY_CREDENTIALS
COPY INTO 憑證必須包含 AWS_ACCESS_KEY, AWS_SECRET_KEY、 和 AWS_SESSION_TOKEN。
INVALID_SAVE_MODE
指定的儲存模式 <mode> 無效。 有效的儲存模式包括 “append”、“overwrite”、“ignore”、“error”、“errorifexists” 和 “default”。
INVALID_SCHEMA
輸入架構 <inputSchema> 不是有效的架構字串。
如需詳細資訊,請參閱 INVALID_SCHEMA
INVALID_SCHEMA_OR_RELATION_NAME
<name> 不是數據表/架構的有效名稱。 有效名稱只能包含字母字元、數字和 _。
無效的架構類型_非結構體
無效的架構類型。 預期結構類型,但取得 <dataType>。
INVALID_SCHEME
Unity 目錄不支援 <name> 作為預設檔案配置。
INVALID_SECRET_LOOKUP
無效的密鑰查閱:
如需詳細資訊,請參閱 INVALID_SECRET_LOOKUP
INVALID_SET_SYNTAX
預期的格式為 'SET'、'SET key'或 'SET key=value'。 如果你想在關鍵字中加入特殊字元,或在值值中加入分號,請使用反引號,例如。 SET key=value
INVALID_SHARED_ALIAS_NAME
<sharedObjectType>別名名稱的格式必須是 「schema.name」。
INVALID_SINGLE_VARIANT_COLUMN
使用者指定的架構<schema>在啟用singleVariantColumn選項時無效。 結構必須是 Variant 欄位,或者是 Variant 欄位加上損壞欄位。
INVALID_SOURCE_CATALOG
來源目錄不得在命令的 SYNC Unity 目錄內。 找到 <catalog>。
INVALID_SOURCE_FOR_FILTERING_SERVICE_MERGE_COMMAND
篩選服務 MERGE 作業的來源只能包含投射和篩選。
請調整 MERGE 命令或改用暫存表作為來源。
<stmt>
INVALID_SPARK_CONFIG
無效的 Spark 設定:
如需詳細資訊,請參閱 INVALID_SPARK_CONFIG
INVALID_SQLSTATE
無效 SQLSTATE 的值: '<sqlState>'。
SQLSTATE 長度必須只有 5 個字元,且只包含 A-Z 和 0-9。
SQLSTATE 不得以 『00』、『01』 或 『XX』 開頭。
INVALID_SQL_ARG
的 <name> 自變數sql()無效。 考慮以 SQL 字面值或集合建構函式(如 map(), array(), struct())取代它。
無效的SQL功能數據訪問
無法建立一個使用 SQL 存取資料表/視圖,或是讀取 SQL 資料的 SQL 函式。 請改用 READS SQL DATA。
INVALID_SQL_SYNTAX
無效的 SQL 語法:
如需詳細資訊,請參閱 INVALID_SQL_SYNTAX
INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY
暫存查詢中的 <operation> 無效路徑: <path>
INVALID_STATEMENT_FOR_EXECUTE_INTO
的 INTO 子句 EXECUTE IMMEDIATE 只適用於查詢,但指定的語句不是查詢: <sqlString>。
INVALID_STATEMENT_OR_CLAUSE
語句或子句 <operation> 是不合法的。
無效串流速率源版本
速率來源的版本無效: <version>。 版本必須是 1 或 2。
INVALID_STREAMING_REAL_TIME_MODE_TRIGGER_INTERVAL
即時觸發間隔已設定為 <interval> 毫秒。 這小於 <minBatchDuration> spark.databricks.streaming.realTimeMode.minBatchDuration 所指定的毫秒下限。
INVALID_STREAMING_REAL_TIME_MODE_TRIGGER_OVERRIDE_INTERVAL
無法剖析即時觸發器的檢查點間隔 <interval> 。 請確認您已輸入正整數。
INVALID_SUBQUERY_EXPRESSION
子查詢無效:
如需詳細資訊,請參閱 INVALID_SUBQUERY_EXPRESSION
INVALID_TARGET_FOR_ALTER_COMMAND
ALTER <commandTableType>
...
<command> 不支援 <tableName>。 請改用 ALTER <targetTableType>...<command> 。
INVALID_TARGET_FOR_SET_TBLPROPERTIES_COMMAND
ALTER <commandTableType>
...
SET TBLPROPERTIES 不支援 <tableName>。 請改用 ALTER <targetTableType>...SET TBLPROPERTIES 。
INVALID_TEMP_OBJ_REFERENCE
無法建立類型<objName>的持久性物件<obj>,因為它引用了類型<tempObjName>的暫時性物件<tempObj>。 請讓暫存對象 <tempObjName> 持續存在,或讓永續性物件 <objName> 暫存。
INVALID_TIMESTAMP_FORMAT
提供的時間戳 <timestamp> 不符合預期的語法 <format>。
INVALID_TIMEZONE
時區: <timeZone> 無效。 時區必須是區域型區域標識碼或區域位移。 區域標識碼的格式必須是 『area/city』,例如 『America/Los_Angeles』。 區域偏移的格式必須為「(+|-)HH'、'(+|-)HH:mm' 或「(+|-)HH:mm:ss',例如 '-08'」、「+01:00' 或 '-13:33:33',且範圍必須介於 -18:00 至 +18:00。 'Z' 和 'UTC' 被接受為 '+00:00' 的同義字。
INVALID_TIME_TRAVEL_SPEC
無法在操作資料表的時光回溯功能時同時指定版本和時間戳。
INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
時光旅行時間戳記表達式<expr>無效。
如需詳細資訊,請參閱 INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
INVALID_TYPED_LITERAL
具型別常值 <valueType> 的值無效: <value>。
INVALID_UDF_IMPLEMENTATION
函式 <funcName> 不會實作 ScalarFunction 或 AggregateFunction。
INVALID_UPGRADE_SYNTAX
<command> <supportedOrNot> 源數據表位於Hive中繼存放區中,而目的地數據表位於 Unity 目錄中。
INVALID_URL
URL 無效: <url>。 使用 try_parse_url 來容許無效的 URL 並改為傳回 NULL 。
INVALID_USAGE_OF_STAR_OR_REGEX
在<elem>中使用<prettyName>無效。
INVALID_UTF8_STRING
字串中找到的UTF8位元組序列無效: <str>。
INVALID_UUID
輸入 <uuidInput> 不是有效的 UUID。
UUID 的格式應該是 'xxxxxxxx-xxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx'
請檢查 UUID 的格式。
INVALID_VARIABLE_DECLARATION
無效的變數宣告。
如需詳細資訊,請參閱 INVALID_VARIABLE_DECLARATION
INVALID_VARIANT_CAST
變數值 <value> 無法轉換成 <dataType>。 請改用 try_variant_get。
INVALID_VARIANT_FROM_PARQUET
無效的變體。
如需詳細資訊,請參閱 INVALID_VARIANT_FROM_PARQUET
INVALID_VARIANT_GET_PATH
<path> 在 <functionName> 中不是有效的變體擷取路徑。
一條有效的路徑應以 $ 作為起點,後面可以接零個或多個段,如 [123], .name, ['name'] 或 ["name"]。
INVALID_VARIANT_SHREDDING_SCHEMA
架構 <schema> 不是有效的變數切割架構。
INVALID_WHERE_CONDITION
條件WHERE<condition>包含無效的表達式:<expressionList>。
重寫查詢,以避免 子句中的 WHERE 視窗函式、聚合函數和產生器函式。
INVALID_WINDOW_SPEC_FOR_AGGREGATION_FUNC
無法指定 ORDER BY 或 <aggFunc> 的視窗框架。
INVALID_WITHIN_GROUP_EXPRESSION
不合法的函式 <funcName> 與 WITHIN GROUP。
如需更詳細的資訊,請參閱 INVALID_WITHIN_GROUP_EXPRESSION
INVALID_WRITER_COMMIT_MESSAGE
數據源寫入器已產生無效的提交訊息數量。 預期每個工作只有一個提交訊息,但收到 <detail>。
INVALID_WRITE_DISTRIBUTION
要求的寫入分佈無效。
如需詳細資訊,請參閱 INVALID_WRITE_DISTRIBUTION
IRC_CREDENTIAL_VENDING_ERROR
連接 IRC 主機時發生錯誤,無法為 table <tableIdentifier>s 提供憑證。
更多詳情請參見 IRC_CREDENTIAL_VENDING_ERROR
ISOLATED_COMMAND_FAILURE
無法執行 <command>。 指令輸出:
<output>
ISOLATED_COMMAND_UNKNOWN_FAILURE
無法執行 <command>。
ISOLATION_ENVIRONMENT_ERROR
因系統錯誤,無法安裝 <name> 的環境依賴項。
更多細節請參見 ISOLATION_ENVIRONMENT_ERROR
ISOLATION_ENVIRONMENT_USER_ERROR
無法安裝<name>的環境相依套件。
更多詳情請參見 ISOLATION_ENVIRONMENT_USER_ERROR
JDBC_EXTERNAL_ENGINE_SYNTAX_ERROR
JDBC 外部引擎語法錯誤。 錯誤是由查詢 <jdbcQuery>所造成。
<externalEngineError>。
如需詳細資訊,請參閱 JDBC_EXTERNAL_ENGINE_SYNTAX_ERROR
JOIN_CONDITION_IS_NOT_BOOLEAN_TYPE
聯結條件 <joinCondition> 的類型無效 <conditionType>,必須是 “BOOLEAN ” ”
KAFKA_DATA_LOSS
有些數據可能已經遺失,因為它們無法再在 Kafka 中使用;
數據可能已由 Kafka 淘汰,或者主題可能在該主題的所有資料被處理之前就被刪除。
主題已被處理。
如果您不希望串流查詢在這類情況下失敗,請將source選項failOnDataLoss設定為 false。
Reason:
如需詳細資訊,請參閱 KAFKA_DATA_LOSS
KINESIS_COULD_NOT_READ_SHARD_UNTIL_END_OFFSET
在分區 <endSeqNum> 中無法讀取至所需的序號 <shardId>。
kinesis 數據流<stream>具有取用者模式<consumerMode>。 查詢將會因為
潛在的數據遺失。 最後一筆讀取記錄的序號為<lastSeqNum>。
如果 endSeqNum 的數據已過期並被刪除,或 Kinesis 資料流已過期並被移除,就會發生這種情況
已被刪除並以相同名稱重新建構。 可以覆寫失敗行為
在spark組態中將spark.databricks.kinesis.failOnDataLoss設定為false。
KINESIS_EFO_CONSUMER_NOT_FOUND
針對 Kinesis 數據流 <streamId>,此流的先前註冊 EFO 消費者 <consumerId> 已被刪除。
重新啟動查詢,以便註冊新的取用者。
KINESIS_EFO_SUBSCRIBE_LIMIT_EXCEEDED
若為分區 <shard>,先前的 subscribeToShard API 呼叫是在下一次呼叫的 5 秒內。
在 5 秒以上之後重新啟動查詢。
KINESIS_FETCHED_SHARD_LESS_THAN_TRACKED_SHARD
從 Kinesis 擷取的最小 shardId (<fetchedShardId>)
小於最低追蹤的分片ID(<trackedShardId>)。
這是非預期的情況,並且會在刪除 Kinesis 數據流並以相同名稱重新建立時發生。
使用此 Kinesis 資料流的串流查詢將使用現有的檢查點位置重新啟動。
使用新的檢查點位置重新啟動串流查詢,或使用新的名稱建立數據流。
KINESIS_POLLING_MODE_UNSUPPORTED
不支援 Kinesis 輪詢模式。
KINESIS_RECORD_SEQ_NUMBER_ORDER_VIOLATION
針對分區 <shard>,先前擷取中從 Kinesis 讀取的最後一筆記錄具有序號 <lastSeqNum>、
大於在當前擷取中讀取的序號為<recordSeqNum>的記錄。
這是非預期的,而且可能會在重試或下一個擷取的開始位置未正確初始化時發生,而且可能會導致下游重複的記錄。
KINESIS_SOURCE_MUST_BE_IN_EFO_MODE_TO_CONFIGURE_CONSUMERS
若要透過消費者配置(consumerName, consumerNamePrefix或 registeredConsumerId)從 Kinesis Streams 讀取 consumerMode,必須為 efo。
KINESIS_SOURCE_MUST_SPECIFY_REGISTERED_CONSUMER_ID_AND_TYPE
若要從具有已註冊取用者的 Kinesis Streams 讀取資料,您必須同時指定 registeredConsumerId 和 registeredConsumerIdType 選項。
KINESIS_SOURCE_MUST_SPECIFY_STREAM_NAMES_OR_ARNS
若要從 Kinesis Streams 讀取,您必須設定 streamName 或 streamARN 選項(但不能同時設定這兩者)為以逗號分隔的串流名稱/ARN 清單。
KINESIS_SOURCE_NO_CONSUMER_OPTIONS_WITH_REGISTERED_CONSUMERS
若要從具有已註冊取用者的 Kinesis Streams 讀取,請勿設定 consumerName 或 consumerNamePrefix 選項,因為它們不會生效。
KINESIS_SOURCE_REGISTERED_CONSUMER_ID_COUNT_MISMATCH
已註冊的取用者標識碼數目應等於 Kinesis 數據流的數目,但取得 <numConsumerIds> 取用者標識碼和 <numStreams> 數據流。
KINESIS_SOURCE_REGISTERED_CONSUMER_NOT_FOUND
找不到 streamARN <consumerId>提供的已註冊取用者<streamARN>。 確認您已註冊消費者,或者不提供 registeredConsumerId 選項。
KINESIS_SOURCE_REGISTERED_CONSUMER_TYPE_INVALID
已註冊的取用者類型 <consumerType> 無效。 它必須是 name 或 ARN。
KLL_SKETCH_INCOMPATIBLE_MERGE
對於函數 <functionName>,無法合併 KLL 草圖: <reason>
KLL_SKETCH_INVALID_INPUT
對於函數 <functionName>,無效的 KLL 草圖二進位資料:<reason>
KLL_SKETCH_INVALID_QUANTILE_RANGE
對於函數 <functionName>,分位數值必須介於 0.0 到 1.0(含)之間,但得到 <quantile>。
KLL_SKETCH_K_MUST_BE_CONSTANT
對於函數 <functionName>,k 參數必須是常數值,但表達式為非恆定。
KLL_SKETCH_K_OUT_OF_RANGE
對於函數 <functionName>,k 參數必須介於 8 到 65535(含)之間,但得到 <k>。
KRYO_BUFFER_OVERFLOW
Kryo 串行化失敗: <exceptionMsg>。 若要避免這種情況,請增加 “<bufferSizeConfKey>” 值。
LABELS_MISMATCH
開始標籤 <beginLabel> 不符合結束標籤 <endLabel>。
標籤或變數名稱已存在
標籤或 FOR 變數 <label> 已存在。 選擇另一個名稱或重新命名現有名稱。
標籤或變數名稱禁止使用
禁止使用標籤 FOR 或變數名稱 <label>。
LAKEHOUSE_FEDERATION_DATA_SOURCE_REQUIRES_NEWER_DBR_VERSION
Lakehouse 同盟數據源 '<provider>' 需要較新的 Databricks Runtime 版本。
如需詳細資訊,請參閱 LAKEHOUSE_FEDERATION_DATA_SOURCE_REQUIRES_NEWER_DBR_VERSION
LATERAL_JOIN_WITH_ARROW_UDTF_UNSUPPORTED
LATERAL
JOIN 不支援箭頭最佳化的使用者定義表格函數 (UDTF)。 箭頭 UDTF 不能在橫向連接的右側使用。
請改用一般 UDTF,或重組查詢以避免橫向聯結。
由於不支援提供者,無法建立臨時資料表(Legacy)
CREATE TEMPORARY TABLE 必須有提供者,否則不被允許。
LOAD_DATA_PATH_NOT_EXISTS
LOAD DATA 輸入路徑不存在: <path>。
LOCAL_MUST_WITH_SCHEMA_FILE
LOCAL 必須與 file 的架構搭配使用,但得到了:<actualSchema>。
LOCATION_ALREADY_EXISTS
無法將Managed數據表命名為 <identifier>,因為其相關聯的位置 <location> 已經存在。 請挑選不同的數據表名稱,或先移除現有的位置。
LOST_TOPIC_PARTITIONS_IN_END_OFFSET_WITH_TRIGGER_AVAILABLENOW
Kafka 主題中的部分分割區在使用 Trigger.AvailableNow 執行查詢期間已遺失。 此錯誤可能是暫時性的 - 重新啟動查詢,如果您仍然看到相同的問題,請回報。
適用於最新的偏移量的 topic-partitions:<tpsForLatestOffset>,適用於結尾偏移量的 topic-partitions:<tpsForEndOffset>
MALFORMED_AVRO_MESSAGE
在訊息反序列化過程中偵測到格式不正確的 Avro 訊息。 剖析模式:<mode>。 若要將格式錯誤的 Avro 訊息視為 Null 結果處理,請嘗試將選項 'mode' 設定為 'PERMISSIVE'。
MALFORMED_CHARACTER_CODING
執行<function>並使用<charset>時發現值無效
MALFORMED_CSV_RECORD
格式不正確的 CSV 記錄: <badRecord>
MALFORMED_LOG_FILE
記錄檔格式不正確:無法從 <text>讀取正確的記錄版本。
MALFORMED_PROTOBUF_MESSAGE
在訊息反序列化中偵測到格式不正確的 Protobuf 訊息。 剖析模式:<failFastMode>。 若要將格式不正確的 Protobuf 訊息視為 Null 結果,請嘗試將選項 'mode' 設定為 'PERMISSIVE'。
MALFORMED_RECORD_IN_PARSING
在記錄剖析中偵測到格式不正確的記錄:<badRecord>。
剖析模式:<failFastMode>。 若要以 Null 結果處理格式不正確的記錄,請嘗試將選項 'mode' 設定為 'PERMISSIVE'。
如需詳細資訊,請參閱 MALFORMED_RECORD_IN_PARSING
MALFORMED_STATE_IN_RATE_PER_MICRO_BATCH_SOURCE
RatePerMicroBatch來源中狀態格式錯誤。
如需更多的詳細資訊,請參閱 MALFORMED_STATE_IN_RATE_PER_MICRO_BATCH_SOURCE
MALFORMED_VARIANT
Variant binary 格式不正確。 請檢查數據源是否有效。
MANAGED_ICEBERG_ATTEMPTED_TO_ENABLE_CLUSTERING_WITHOUT_DISABLING_DVS_OR_ROW_TRACKING
嘗試在管理型 Apache Iceberg 資料表上啟用 Liquid 叢集,但同時關閉刪除向量和列追蹤功能。 Managed Apache Iceberg 資料表不支援刪除向量與列追蹤,但在 Liquid 資料表中實現列級並行時則需要它們。 若要在管理的 Apache Iceberg 表格上啟用 Liquid 叢集,並減少並行控制,必須關閉刪除向量與列追蹤功能。
MANAGED_ICEBERG_OPERATION_NOT_SUPPORTED
受管理的 Apache Iceberg 資料表不支援 <operation>。
MANAGED_TABLE_WITH_CRED
不支援使用記憶體認證建立受控數據表。
MATERIALIZED_VIEW_MESA_REFRESH_WITHOUT_PIPELINE_ID
無法<refreshType>具體化檢視,因為它的存在早於設定 pipelineId。 若要啟用 <refreshType>,請刪除並重新建立具現化檢視。
MATERIALIZED_VIEW_NOT_INCREMENTALIZABLE
無法建立帶有 <refreshPolicy> 刷新政策的實體化視圖,因為不支援增量刷新。 Reason:
更多詳情請參見 MATERIALIZED_VIEW_NOT_INCREMENTALIZABLE
MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
不允許具體化檢視作業 <operation> :
如需詳細資訊,請參閱 MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
MATERIALIZED_VIEW_OUTPUT_WITHOUT_EXPLICIT_ALIAS
實體檢視中的輸出表達式 <expression> 必須明確指派為別名。
MATERIALIZED_VIEW_OVER_STREAMING_QUERY_INVALID
使用串流查詢無法建立具體化檢視 <name> 。 請使用 CREATE [OR REFRESH] STREAMING TABLE 或移除 STREAM 你子句中的 FROM 關鍵字,將此關係轉為批次查詢。
MATERIALIZED_VIEW_UNSUPPORTED_OPERATION
目前不支援在具體化檢視上進行操作 <operation> 。
MAX_NUMBER_VARIABLES_IN_SESSION_EXCEEDED
無法建立新的變數,因為會話中的變數 <variableName> 數目超過允許的數目上限 (<maxNumVariables>)。
MAX_RECORDS_PER_FETCH_INVALID_FOR_KINESIS_SOURCE
maxRecordsPerFetch 必須是小於或等於的正整數 <kinesisRecordLimit>
MCV_INVALID_INPUT_SKETCH_BUFFER
無效呼叫至 <function>;僅接受 MCV 草圖緩衝區作為有效輸入(例如由 mcv_collect_internal 函數產生的)。
MERGE_CARDINALITY_VIOLATION
語句 ON 的 MERGE 搜尋條件會比對目標數據表中的單一數據列與源數據表的多個數據列。
這可能會導致目標數據列被更新或刪除操作多次處理,而這是不允許的。
MERGE_WITHOUT_WHEN
在一個 WHEN 語句中必須至少有一個 MERGE 子句。
METRIC_CONSTRAINT_NOT_SUPPORTED
METRIC CONSTRAINT 未啟用。
METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
提供的值 "<argValue>" 不被自變數 "<argName>" 支援,適用於 METRIC_STORE 表格函式。
如需詳細資訊,請參閱 METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
METRIC_STORE_UNSUPPORTED_ERROR
計量存放區例程 <routineName> 目前在此環境中已停用。
METRIC_VIEW_AMBIGUOUS_JOIN_CRITERIA
計量檢視定義包含具有模棱兩可準則的聯結: <expr>。 使用 using 聯結準則或明確限定數據欄位的 <sourceAlias> 別名。
METRIC_VIEW_CACHE_TABLE_NOT_SUPPORTED
不允許量度檢視使用快取數據表。
METRIC_VIEW_FEATURE_DISABLED
計量檢視功能已停用。 請確定 [spark.databricks.sql.metricView.enabled] 設定為 true。
METRIC_VIEW_INVALID_MEASURE_FUNCTION_INPUT
() 函 MEASURE式只會接受屬性作為輸入,但已取得 <expr>
METRIC_VIEW_INVALID_VIEW_DEFINITION
計量檢視定義無效。 原因: <reason>。
METRIC_VIEW_IN_CTE_NOT_SUPPORTED
CTE 定義中不允許計量檢視。 計劃: <plan>
METRIC_VIEW_JOIN_NOT_SUPPORTED
不允許使用聯結的計量檢視。 計劃: <plan>
METRIC_VIEW_MATERIALIZATIONS_DISABLED
計量檢視具體化已停用。 請確定 「spark.databricks.sql.metricView.materializations.enabled」 設定為 true。
METRIC_VIEW_MATERIALIZATIONS_UNAGGREGATED_WITH_METRIC_VIEW
當計量檢視參考其他計量檢視時,不支援未彙總的具體化。
在臨時檢視上不支持指標檢視具體化
臨時度量檢視不支援實體化。
指標檢視的具體化不支援依賴於呼叫者的表達式 (METRIC_VIEW_MATERIALIZATION_WITH_INVOKER_DEPENDENT_EXPRESSIONS_NOT_SUPPORTED)
對於包含呼叫器依賴表達式的度量視圖,不支援實體化。 這些表達式避免具現化的重複使用。
在群組依據中測量的指標視圖
<measureColumns> 度量欄位不得用於 GROUP BY 子句或類別值。 我們建議用像 SUM() 這樣的彙總函數包裝它們,以符合預期行為。
METRIC_VIEW_MISSING_MEASURE_FUNCTION
度量檢視的量度欄 <column> 需要使用函式 MEASURE() 才能產生結果。
METRIC_VIEW_NOT_MATERIALIZED (指示度量檢視未被物化)
在未定義具體化的度量視圖上調用了具體化視圖指令
更多詳情請參見 METRIC_VIEW_NOT_MATERIALIZED
METRIC_VIEW 在 HMS 中不受支持
HMS 不支援度量檢視。
METRIC_VIEW_RENAME_DIFFERENT_CATALOG_AND_SCHEMA
不允許計量檢視 <oldName> 重新命名為不同的目錄或架構: <newName>。
METRIC_VIEW_SNOWFLAKE_JOIN_FEATURE_DISABLED
計量檢視雪花聯結功能已停用。 請確定 「spark.databricks.sql.metricView.snowflake.join.enable」 設定為 true。
METRIC_VIEW_UNSUPPORTED_USAGE
不支援計量檢視使用方式。 計劃: <plan>
METRIC_VIEW_WINDOW_FUNCTION_NOT_SUPPORTED
不允許計量檢視使用視窗函式 <expr>。
METRIC_VIEW_YAML_V11_DISABLED
度量檢視 YAML v1.1 已停用。 請確定 “spark.databricks.sql.metricView.yaml.v11.enabled” 設定為 true。
MIGRATION_NOT_SUPPORTED
<table> 不支援移轉至UC受控數據表,因為它不是 <tableKind> 資料表。
請確定要移轉的數據表是UC外部增量資料表。
它是通過其名稱被引用,而不是路徑。
MIGRATION_ROLLBACK_NOT_SUPPORTED
<table> 不支援從Managed復原到外部資料表,因為它不是<tableKind> 資料表。
MISMATCHED_TOPIC_PARTITIONS_BETWEEN_END_OFFSET_AND_PREFETCHED
Trigger.AvailableNow 中的 Kafka 數據源應該在每個 microbatch 的預先擷取位移中提供相同的主題分割區,以結束位移。 此錯誤可能是暫時性的 - 重新啟動查詢,如果您仍然看到相同的問題,請回報。
預先擷取位移的 topic-partitions: <tpsForPrefetched>、end offset 的 topic-partitions: <tpsForEndOffset>。
MISSING_AGGREGATION
非匯總表達式 <expression> 是基於不參與 GROUP BY 子句的欄位。
將欄位或表示式新增至 GROUP BY,對表示式進行匯總,或者如果您不在意群組中傳回的哪個值,可以使用 <expressionAnyValue>。
如需詳細資訊,請參閱 MISSING_AGGREGATION
缺少目錄功能
<plugin>目錄不支援
更多詳情請參見 MISSING_CATALOG_ABILITY
MISSING_CLAUSES_FOR_OPERATION
作業<clauses>的遺漏子句<operation>。 請新增必要的條款。
MISSING_CONNECTION_OPTION
類型為 『<connectionType>' 的連接必須包含下列選項: <requiredOptions>。
MISSING_DATABASE_FOR_V1_SESSION_CATALOG
v1 工作階段目錄中未指定資料庫名稱。 請確定在與 v1 目錄互動時提供有效的資料庫名稱。
MISSING_GROUP_BY
查詢不包含 GROUP BY 子句。 新增 GROUP BY 或使用 OVER 子句將其轉換成視窗函數。
MISSING_NAME_FOR_CHECK_CONSTRAINT
CHECK 條件約束必須具有名稱。
MISSING_PARAMETER_FOR_KAFKA
Kafka 需要參數 <parameterName> ,但未在 <functionName> 中指定。
MISSING_PARAMETER_FOR_ROUTINE
參數 <parameterName> 為必要參數,但未在 中 <functionName>指定。
MISSING_SCHEDULE_DEFINITION
必須遵循 SCHEDULE提供排程定義。
MISSING_TIMEOUT_CONFIGURATION
作業已逾時,但未設定逾時持續時間。 若要設定處理時間型逾時,請在 'mapGroupsWithState' 或 'flatMapGroupsWithState' 作業中使用 'GroupState.setTimeoutDuration()'。 針對事件時間型逾時,請使用 'GroupState.setTimeoutTimestamp()' 並使用 'Dataset.withWatermark()' 定義浮水印。
MISSING_WINDOW_SPECIFICATION
窗戶規格未在WINDOW子句中為<windowName>定義。 如需了解更多關於WINDOW條款的資訊,請參閱'<docroot>/sql-ref-syntax-qry-select-window.html'。
MODIFY_BUILTIN_CATALOG
不支援修改內建目錄 <catalogName> 。
MULTIPART_FLOW_NAME_NOT_SUPPORTED
不支援具有多部分名稱 '<flowName>' 的流程。
多重_EXCEL_數據來源
偵測到多個名為 <provider> (<sourceNames>). 的 Excel 資料來源。 請指定完整類別名稱,或從 classpath 中移除 <externalSource> 。
MULTIPLE_LOAD_PATH
Databricks Delta 不支援載入 API 中的多個輸入路徑。
路徑: <pathList>。 若要藉由載入來建置單一 DataFrame
來自相同 Delta 資料表的多個路徑,請載入其根路徑
具有對應分割過濾條件的 Delta 資料表。 如果多個路徑
來自不同的 Delta 資料表,請使用資料集的 union() / unionByName() API
藉由合併透過各別 load() API 呼叫所生成的 DataFrames。
MULTIPLE_MATCHING_CONSTRAINTS
找到至少兩個符合指定條件的條件約束。
MULTIPLE_QUERY_RESULT_CLAUSES_WITH_PIPE_OPERATORS
<clause1> 和 <clause2> 無法使用 『|>』 並存於相同的 SQL 管道運算子中。 請將多個結果子句分成不同的管道運算符,然後再重試一次查詢。
MULTIPLE_TIME_TRAVEL_SPEC
無法在時間移動子句和選項中指定時間移動。
MULTIPLE_XML_DATA_SOURCE
偵測到多個名為 <provider> (<sourceNames>)的資料來源。 請指定完整類別名稱,或從 classpath 中移除 <externalSource> 。
MULTI_ALIAS_WITHOUT_GENERATOR
不支援多重部分別名 (<names>),因為它不是生成器函數,所以無法使用<expr>。
MULTI_SOURCES_UNSUPPORTED_FOR_EXPRESSION
表達式 <expr> 不支援多個來源。
MULTI_SOURCE_METRIC_VIEW_MEASURE_REFERENCING_DIMENSION
<measureColumn>度量列在度量視圖中無法引用維度欄(<dimensionColumn>)。
MULTI_SOURCE_METRIC_VIEW_UNQUALIFIED_MEASURE_REF
多來源度量檢視中不允許使用未限定的度量欄參考 <measureColumn> 。 請用來源別名來限定測量欄位。
MULTI_SOURCE_METRIC_VIEW_UNSUPPORTED_EXPRESSION
在度量視圖中,不支援基於多個來源的聚合表達式:<expr>。
MULTI_UDF_INTERFACE_ERROR
不允許實作多個 UDF 介面,UDF 類別 <className>。
MUTUALLY_EXCLUSIVE_CLAUSES
互斥子句或選項 <clauses>。 請移除其中一個子句。
MV_ST_ALTER_QUERY_INCORRECT_BACKING_TYPE
輸入查詢需要 <expectedType>,但基礎表是 <givenType>。
NAMED_PARAMETERS_NOT_SUPPORTED
函式<functionName>不支援具名參數;請改用位置引數來重試查詢函式呼叫。
NAMED_PARAMETERS_NOT_SUPPORTED_FOR_SQL_UDFS
無法呼叫函式 <functionName> ,因為不支援具名自變數參考。 在這種情況下,具名自變數參考為 <argument>。
NAMED_PARAMETER_SUPPORT_DISABLED
無法呼叫函式 <functionName> ,因為此處未啟用具名自變數參考。
在這種情況下,具名自變數參考為 <argument>。
將 「spark.sql.allowNamedFunctionArguments」 設定為 「true」 以開啟功能。
NAMESPACE_ALREADY_EXISTS
無法建立命名空間 <nameSpaceName> ,因為它已經存在。
選擇不同的名稱、卸除現有的命名空間,或新增 IF NOT EXISTS 子句以容許預先存在的命名空間。
NAMESPACE_NOT_EMPTY
無法卸載命名空間 <nameSpaceNameName> ,因為它包含物件。
用 DROP NAMESPACE...CASCADE 來丟棄命名空間及其所有物件。
NAMESPACE_NOT_FOUND
找不到命名空間 <nameSpaceName> 。 確認命名空間的拼字和正確性。
如果您未正確限定名稱,請確認 current_schema() 的輸出,或用正確的方法限定名稱。
若要容許卸除操作時發生錯誤,請使用 DROP NAMESPACE IF EXISTS。
NATIVE_IO_ERROR
本地請求失敗。 requestId:、cloud:<requestId>、operation: <cloud><operation>
request:[https:<https>,method = <method>,path = <path>,params = <params>,host = <host>,headers = <headers>,bodyLen = <bodyLen>],
錯誤: <error>
NATIVE_XML_DATA_SOURCE_NOT_ENABLED
此叢集中未啟用原生 XML 數據源。
NEGATIVE_SCALE_DISALLOWED
不允許使用負數刻度:'<scale>'。 將組態 <sqlConf> 設定為 「true」 以允許它。
NEGATIVE_VALUES_IN_FREQUENCY_EXPRESSION
在<frequencyExpression>中找到負值:<negativeValue>,但預期應該是正整數值。
NESTED_AGGREGATE_FUNCTION
不允許在另一個聚合函數的自變數中使用聚合函數。 請在子查詢中使用內部聚合函數。
NESTED_EXECUTE_IMMEDIATE
不允許巢狀 EXECUTE IMMEDIATE 命令。 請確定提供的 SQL 查詢 (<sqlString>) 不包含另一個 EXECUTE IMMEDIATE 命令。
不支持在橫向子查詢中的巢狀引用
在側向子查詢中偵測到不支援的外部範圍引用 <expression> 。 請確保橫向子查詢不包含來自巢狀外部範圍屬性的子查詢。
N/A
在子查詢中偵測到不支援的外部範圍參考 <expression>。
NEW_CHECK_CONSTRAINT_VIOLATION
無法新增檢查限制 (<expression>),因為它會被表格 <tableName>中的現有資料所違反。 在新增之前,請確保所有現有列都滿足約束。
NONEXISTENT_FIELD_NAME_IN_LIST
字段<nonExistFields>不存在。 可用的欄位: <fieldNames>
NON_DETERMINISTIC_CHECK_CONSTRAINT
檢查條件約束 <checkCondition> 是不確定的。 檢查條件約束只能包含確定性運算式。
NON_FOLDABLE_ARGUMENT
<funcName>函式需要參數<paramName>是類型<paramType>的可折疊表達式,然而,實際提供的參數是不可折疊的。
NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
在一個條件語句中有多個MATCHED子句時,只有最後一個MERGE子句可以省略條件。
NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
在一個條件語句中有多個NOT MATCHED BY SOURCE子句時,只有最後一個MERGE子句可以省略條件。
NON_LAST_NOT_MATCHED_BY_TARGET_CLAUSE_OMIT_CONDITION
在一個條件語句中有多個NOT MATCHED [BY TARGET]子句時,只有最後一個MERGE子句可以省略條件。
NON_LITERAL_PIVOT_VALUES
找到 <expression>樞紐值所需的常值表達式。
NON_PARTITION_COLUMN
PARTITION 子句不能包含非分區列:<columnName>。
NON_TIME_WINDOW_NOT_SUPPORTED_IN_STREAMING
在串流的資料框/資料集上,<windowFunc> 的窗口函數不支援(作為欄位 <columnName>)。
結構化串流僅支援使用 函 WINDOW 式的時間範圍匯總。 (視窗規格: <windowSpec>)
NOT_ALLOWED_IN_FROM
FROM 子句中不允許:
如果需要更詳細的信息,請參閱 NOT_ALLOWED_IN_FROM
NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE
在 WHERE 子句中不允許使用:
如需詳細資訊,請參閱 NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE
NOT_A_CONSTANT_STRING
運算式 <expr> 用於例程或子句 <name> 時,必須是常數 STRING,即是 NOT NULL。
如需詳細資訊,請參閱 NOT_A_CONSTANT_STRING
NOT_A_PARTITIONED_TABLE
不允許對 <operation> 執行操作,因為 <tableIdentWithDB> 不是分區資料表。
NOT_A_SCALAR_FUNCTION
<functionName> 這裡會顯示為純量表示式,但函式已定義為數據表函式。 請更新查詢以將函式呼叫 FROM 移至 子句,或改為將 重新定義 <functionName> 為純量函式。
NOT_A_TABLE_FUNCTION
<functionName> 這裡會顯示為數據表函式,但函式已定義為純量函式。 請更新查詢,將函式呼叫移至 FROM 子句之外,或將 <functionName> 重新定義為資料表函式。
NOT_ENOUGH_ARGS(參數不足)
函數 <functionName> 期望至少 <minNum> 有參數,但接收 <actualNum> (<actualArgs>)。
NOT_NULL_ASSERT_VIOLATION
NULL 值出現在不可為 Null 的欄位中: <walkedTypePath>如果欄位架構是從 Scala 的 Tuple 或 case 類別,或 Java bean 推斷而來,請嘗試使用 Scala.Option[_] 或其他可為 Null 的類型(例如 java.lang.Integer,而不是 int/Scala.Int)。
NOT_NULL_CONSTRAINT_VIOLATION
此處不允許指派 NULL。
如需詳細資訊,請參閱 NOT_NULL_CONSTRAINT_VIOLATION
NOT_SUPPORTED_CHANGE_COLUMN
ALTER TABLE ALTER
/
CHANGE COLUMN不支援將<table>的列<originName>從類型<originType>變更為類型<newName>的<newType>。
NOT_SUPPORTED_CHANGE_SAME_COLUMN
ALTER TABLE ALTER
/
CHANGE COLUMN 不支援在相同命令中多次變更 <table> 的欄位 <fieldName>,包括其巢狀欄位。
NOT_SUPPORTED_COMMAND_FOR_V2_TABLE
v2 表格不支援 <cmd>。
NOT_SUPPORTED_COMMAND_WITHOUT_HIVE_SUPPORT
<cmd> 不支援,如果您想要啟用,請將 「spark.sql.catalogImplementation」 設定為 “hive”。
NOT_SUPPORTED_IN_JDBC_CATALOG
JDBC 目錄中不支援的命令:
如需詳細資訊,請參閱 NOT_SUPPORTED_IN_JDBC_CATALOG
NOT_SUPPORTED_WITH_DB_SQL
<operation>不支援於SQL<endpoint>。
NOT_SUPPORTED_WITH_SERVERLESS
<operation> 不支援無伺服器計算。
NOT_UNRESOLVED_ENCODER
預期應為無法解析的編碼器,但找到的是 <attr>。
無活動交易
沒有正在進行的交易對 <action>。
NO_DEFAULT_COLUMN_VALUE_AVAILABLE
無法確定 的 <colName> 預設值,因為它不可空,也沒有預設值。
NO_HANDLER_FOR_UDAF
沒有UDAF'<functionName>' 的處理程式。 請改用 sparkSession.udf.register(...) 。
NO_MERGE_ACTION_SPECIFIED
df.mergeInto 必須至少接續其中之一:whenMatched、whenNotMatched 或 whenNotMatchedBySource。
NO_PARENT_EXTERNAL_LOCATION_FOR_PATH
找不到路徑「<path>」的父外部位置。 請在其中一個父路徑上建立外部位置,然後再次重試查詢或命令。
無主要鍵約束例外 (NO_PRIMARY_KEY_CONSTRAINT_EXCEPTION)
TABLE <table> 沒有主鍵約束。
NO_SQL_TYPE_IN_PROTOBUF_SCHEMA
在 Protobuf 架構中找不到 <catalystFieldPath> 。
NO_STORAGE_LOCATION_FOR_TABLE
SQLSTATE:未指派
產生數據表認證時,找不到資料表'<tableId>' 的儲存位置。 請確認數據表類型和數據表位置 URL,然後再次重試查詢或命令。
NO_SUCH_CATALOG_EXCEPTION
找不到目錄「<catalog>」。 請確認目錄名稱,然後再次重試查詢或命令。
NO_SUCH_CLEANROOM_EXCEPTION
SQLSTATE:未指派
無塵室 '<cleanroom>' 不存在。 請確認清理室名稱拼字正確,並符合有效現有清理室的名稱,然後再次重試查詢或命令。
無此限制例外
在<identifier> 中找不到限制<constraint>。
NO_SUCH_CREDENTIAL_EXCEPTION
認證 '<credential>' 不存在。 請確認認證名稱拼字正確,並符合有效現有認證的名稱,然後再次重試查詢或命令。
NO_SUCH_EXTERNAL_LOCATION_EXCEPTION
SQLSTATE:未指派
外部位置 『<externalLocation>不存在。 請確認外部位置名稱正確,然後再次重試查詢或命令。
NO_SUCH_METASTORE_EXCEPTION
SQLSTATE:未指派
找不到中繼存放區。 請要求您的帳戶管理員將中繼存放區指派給目前的工作區,然後再次重試查詢或命令。
NO_SUCH_PROVIDER_EXCEPTION
SQLSTATE:未指派
共用提供者 『<providerName>』 不存在。 請確認共用提供者名稱拼字正確,並符合有效現有提供者名稱的名稱,然後再次重試查詢或命令。
NO_SUCH_RECIPIENT_EXCEPTION
SQLSTATE:未指派
收件者 『<recipient>』 不存在。 請確認收件者名稱拼字正確,且符合有效現有收件者的名稱,然後再重試查詢或命令。
NO_SUCH_SHARE_EXCEPTION
SQLSTATE:未指派
共有「<share>」不存在。 請確認共用名稱拼字正確,並符合有效現有共享的名稱,然後再重試查詢或命令。
NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION
SQLSTATE:未指派
記憶體認證 『<storageCredential>』 不存在。 請確認記憶體認證名稱拼字正確,並符合有效現有記憶體認證的名稱,然後再次重試查詢或命令。
NO_SUCH_USER_EXCEPTION
SQLSTATE:未指派
使用者「<userName>」不存在。 請確認您授與許可權或變更擁有權的使用者拼寫正確,並符合有效現有使用者的名稱,然後再次重試查詢或命令。
NO_UDF_INTERFACE
UDF 類別 <className> 不會實作任何 UDF 介面。
NULLABLE_COLUMN_OR_FIELD
數據行或欄位 <name> 是可空的,但必須是不可空的。
NULLABLE_ROW_ID_ATTRIBUTES
列ID屬性不可為空值: <nullableRowIdAttrs>。
NULL_DATA_SOURCE_OPTION
數據源讀取/寫入選項 <option> 不能有 Null 值。
NULL_MAP_KEY
不可使用 null 做為映射鍵。
NULL_QUERY_STRING_EXECUTE_IMMEDIATE
立即執行需要非 Null 變數做為查詢字串,但提供的變數 <varName> 為 null。
NULL_VALUE_SIGNAL_STATEMENT
Signal 語句參數需要非 Null 值,但 <argument> 接收到 Null 值。
NUMERIC_OUT_OF_SUPPORTED_RANGE
這個數值 <value> 無法被解釋為數字,因為它有超過 38 位數。
NUMERIC_VALUE_OUT_OF_RANGE
如需詳細資訊,請參閱 NUMERIC_VALUE_OUT_OF_RANGE
NUM_COLUMNS_MISMATCH
<operator> 只能在具有相同數據行數目的輸入上執行,但第一個輸入具有 <firstNumColumns> 數據行,而 <invalidOrdinalNum> 輸入具有 <invalidNumColumns> 數據行。
NUM_TABLE_VALUE_ALIASES_MISMATCH
指定的別名數目不符合輸出資料行的數目。
函式名稱: <funcName>;別名數目: <aliasesNum>;輸出數據行數目: <outColsNum>。
OAUTH_CUSTOM_IDENTITY_CLAIM_NOT_PROVIDED
未提供任何自定義身分識別宣告。
ONLY_SECRET_FUNCTION_SUPPORTED_HERE
在此 <functionName> 中不支援呼叫函數 <location>,這裡支援 <supportedFunctions>。
ONLY_SUPPORTED_WITH_UC_SQL_CONNECTOR
只有具有 Unity 目錄支援的 Databricks SQL 連接器才支援 SQL 作業 <operation> 。
OPERATION_CANCELED
作業已取消。
OPERATION_REQUIRES_UNITY_CATALOG
作業 <operation> 需要啟用 Unity Catalog。
OP_NOT_SUPPORTED_READ_ONLY
<plan> 在唯讀工作階段模式中不受支援。
ORDER_BY_POS_OUT_OF_RANGE
ORDER BY position <index> 不在選取清單中(有效範圍是 [1, <size>])。
PARQUET_CONVERSION_FAILURE
無法為資料類型<dataType>(其 Parquet 類型為<parquetType>)建立 Parquet 轉換器。
如需詳細資訊,請參閱 PARQUET_CONVERSION_FAILURE
PARQUET_TYPE_ILLEGAL
不合法的 Parquet 類型: <parquetType>。
PARQUET_TYPE_NOT_RECOGNIZED
無法辨識的 Parquet 類型: <field>。
PARQUET_TYPE_NOT_SUPPORTED
尚不支援 Parquet 類型: <parquetType>。
PARSE_EMPTY_STATEMENT
語法錯誤,非預期的空白語句。
PARSE_MODE_UNSUPPORTED
<funcName>函式不支援<mode>模式。 可接受的模式為 PERMISSIVE 和 FAILFAST。
PARSE_SYNTAX_ERROR
在<error> <hint>或附近發生語法錯誤。
PARTITIONS_ALREADY_EXIST
無法將RENAME添加或新增至數據表<partitionList>的分割區<tableName>,因為它們已經存在。
選擇不同的名稱、卸除現有的分割區,或新增 IF NOT EXISTS 子句以容許預先存在的分割區。
PARTITIONS_NOT_FOUND
在表格 <partitionList> 中找不到分割區 <tableName>。
確認分割區規格和資料表名稱。
若要容許在移除時發生錯誤,請使用 ALTER TABLE ...
DROP IF EXISTS PARTITION。
PARTITION_COLUMN_NOT_FOUND_IN_SCHEMA
在架構<column>中找不到分區欄位<schema>。 請提供用於分割的現有數據行。
PARTITION_LOCATION_ALREADY_EXISTS
數據分割位置 <locationPath> 已存在於數據表 <tableName>中。
PARTITION_LOCATION_IS_NOT_UNDER_TABLE_DIRECTORY
無法執行 ALTER TABLE SET PARTITION LOCATION 語句,因為
數據分割位置 <location> 不在數據表目錄 <table>底下。
若要修正此問題,請將分割區的位置設定為 的 <table>子目錄。
PARTITION_METADATA
<action> 不允許在表格 <tableName> 中儲存,因為 Unity 目錄不支援儲存分割區元資料。
PARTITION_NUMBER_MISMATCH
值數目 (<partitionNumber>) 不符合架構大小 (<partitionSchemaSize>): 值為 <partitionValues>,架構為 <partitionSchema>,檔案路徑為 <urlEncodedPath>。
請重新具體化數據表或連絡擁有者。
PARTITION_TRANSFORM_EXPRESSION_NOT_IN_PARTITIONED_BY
表達式 <expression> 必須位於 『partitionedBy』 內。
PATH_ALREADY_EXISTS
路徑 <outputPath> 已經存在。 將模式設定為 「覆寫」,以覆寫現有的路徑。
PATH_NOT_FOUND
路徑不存在: <path>。
路徑解析錯誤 (PATH_RESOLUTION_ERROR)
無法解決路徑 <path>。 原因: <causedBy>
PHOTON_DESERIALIZED_PROTOBUF_MEMORY_LIMIT_EXCEEDED
反序列化 Photon 的 protobuf 計劃至少需要 <size> 個位元組,這已超過限制。
<limit> 位元組的限制。 這可能是因為一個非常大型的計劃或是某種非常重要的存在所致。
寬廣的架構。 嘗試簡化查詢、移除不必要的數據行,或停用 Photon。
PHOTON_SERIALIZED_PROTOBUF_MEMORY_LIMIT_EXCEEDED
序列化的 Photon Protobuf 計劃大小為 <size> 位元組,已超出限制
<limit> 位元組。 計劃中數據類型的串行化大小為 <dataTypeSize> 位元組。
這可能是因為非常大型的計劃或非常廣泛的架構。
請考慮重寫查詢以移除不必要的作業和數據行,或停用 Photon。
無流資料集管道
管線資料集 <identifier> 沒有任何已定義的流程。 請附加具有資料集定義的查詢,或明確定義至少一個寫入資料集的流程。
PIPELINE_DOES_NOT_EXIST
管線「<pipelineId>」不存在
如需詳細資訊,請參閱 PIPELINE_DOES_NOT_EXIST
PIPELINE_DUPLICATE_IDENTIFIERS
在管線的資料流程圖形中註冊的元素找到重複的識別碼。
如需詳細資訊,請參閱 PIPELINE_DUPLICATE_IDENTIFIERS
PIPELINE_SQL_GRAPH_ELEMENT_REGISTRATION_ERROR
<message>
<offendingQuery>
<codeLocation>
PIPELINE_STORAGE_ROOT_INVALID
管線儲存根必須是帶有 URI 方案的絕對路徑(例如 file://、s3a♩、hdfs://)。 獲得: <storage_root>。
PIPE_OPERATOR_AGGREGATE_EXPRESSION_CONTAINS_NO_AGGREGATE_FUNCTION
非分組運算式 <expr> 會作為 |>AGGREGATE pipe 運算子的引數提供,但不包含任何彙總函數;請更新它以包含彙總函數,然後重試查詢。
PIPE_OPERATOR_CONTAINS_AGGREGATE_FUNCTION
使用管道運算子 |<expr>> 子句時不允許使用聚合函數<clause>;請改用管道運算子 |>AGGREGATE 子句。
PIVOT_VALUE_DATA_TYPE_MISMATCH
無效的樞紐值 『<value>:實值數據類型 <valueType> 與樞紐數據行數據類型 <pivotType>不符。
POLICY_ALREADY_EXISTS
無法建立原則 <policyName> ,因為它已經存在。
選擇不同的名稱,或卸除現有的原則以容許預先存在的連線。
POLICY_NOT_FOUND
無法執行 <commandType> 命令,因為找不到 <policyName> 上的 <securableFullname> 原則。
請確認拼字和正確性。
POLICY_ON_SECURABLE_TYPE_NOT_SUPPORTED
無法在可保護類型 <securableType> 上建立原則。 支援的安全性實體類型: <allowedTypes>。
預覽功能未啟用
預覽功能 <featureName> 尚未啟用。 請透過預覽入口網站聯絡您的工作區管理員啟用此功能。
PROCEDURE_ARGUMENT_NUMBER_MISMATCH
程式 <procedureName> 需要 <expected> 自變數,但 <actual> 已提供。
PROCEDURE_CREATION_EMPTY_ROUTINE
CREATE PROCEDURE 不允許使用空例程定義。
PROCEDURE_CREATION_PARAMETER_OUT_INOUT_WITH_DEFAULT
參數 <parameterName> 是以參數模式 <parameterMode>定義。 呼叫例程時不能省略 OUT 和 INOUT 參數,因此不支援表達 DEFAULT 式。 若要繼續,請移除 DEFAULT 子句,或將參數模式變更為 IN。
PROCEDURE_NOT_SUPPORTED
不支援預存程序
PROCEDURE_NOT_SUPPORTED_WITH_HMS
Hive Metastore 不支援預存程序。 請改用 Unity 目錄。
PROTOBUF_DEPENDENCY_NOT_FOUND
找不到相依性: <dependencyName>。
PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND
在路徑讀取 Protobuf 描述元檔案時發生錯誤: <filePath>。
PROTOBUF_FIELD_MISSING
在 Protobuf 架構<field>中搜尋<protobufSchema>獲得<matchSize>相符項目。 候選者:<matches>。
PROTOBUF_FIELD_MISSING_IN_SQL_SCHEMA
在 Protobuf 架構中找到 <field> ,但在 SQL 架構中沒有匹配。
PROTOBUF_FIELD_TYPE_MISMATCH
欄位所遇到的類型不符: <field>。
PROTOBUF_JAVA_CLASSES_NOT_SUPPORTED
不支援 <protobufFunction>Java類別。 請連絡 Databricks 支援服務以取得替代選項。
PROTOBUF_MESSAGE_NOT_FOUND
在描述元中找不到訊息 <messageName> 。
PROTOBUF_NOT_LOADED_SQL_FUNCTIONS_UNUSABLE
無法呼叫 <functionName> SQL 函式,因為未載入 Protobuf 數據源。
請使用載入的 'spark-protobuf' 套件重新啟動您的作業或會話,例如在命令行上使用 --packages 自變數,然後再次重試您的查詢或命令。
PROTOBUF_TYPE_NOT_SUPPORT
尚未支援 Protobuf 類型: <protobufType>。
PS_FETCH_RETRY_EXCEPTION
無法重試 pubsub 擷取階段中的工作。 在階段<partitionInfo>中的分區<stageInfo>,TID <taskId>。
PS_INVALID_EMPTY_OPTION
<key> 不可以是空字串。
PS_INVALID_KEY_TYPE
PubSub dedup 的索引鍵類型無效: <key>。
PS_INVALID_OPTION
PubSub 不支援此選項 <key> 。 它只能用於測試。
PS_INVALID_OPTION_TYPE
無效的類型:<key>。 預期<key>的類型應為<type>類型。
PS_INVALID_READ_LIMIT
PubSub 數據流的讀取限制無效: <limit>。
PS_INVALID_UNSAFE_ROW_CONVERSION_FROM_PROTO
無法將 UnsafeRow 解碼為 PubSubMessageMetadata,預期的 Proto 架構為:<protoSchema>。 輸入 UnsafeRow 可能已損毀: <unsafeRow>。
PS_INVALID_WORKLOAD_IDENTITY_FEDERATION_AUDIENCE_OPTION
查詢或命令因為讀取選項無效而失敗:在 spark.readStream.format(“pubsub”option(“workloadIdentityFederation.audience”, <audience>) 中。 更新 <audience> 以符合下列格式://iam.googleapis.com/projects/{PROJECT_NUMBER}/locations/global/workloadIdentityPools/{POOL_ID}/providers/{PROVIDER_ID},然後重試查詢或命令。
PS_MISSING_AUTH_INFO
找不到完整的 PubSub 驗證資訊。
PS_MISSING_REQUIRED_OPTION
找不到必要的選項: <key>。
PS_MOVING_CHECKPOINT_FAILURE
無法將原始數據檢查點檔案從 <src> 移至目的地目錄: <dest>。
PS_MULTIPLE_AUTH_OPTIONS
請提供您的 Databricks 服務認證或 GCP 服務帳戶認證。
PS_MULTIPLE_FAILED_EPOCHS
無法啟動 PubSub 數據流,因為有多次提取失敗:<failedEpochs>。
PS_OPTION_NOT_IN_BOUNDS
<key> 必須在以下範圍內,排除兩者的界限<min>, <max>。
PS_PROVIDE_CREDENTIALS_WITH_OPTION
共用叢集不支援使用實例配置檔進行驗證。 使用 .option() 直接將認證提供給數據流。
PS_SPARK_SPECULATION_NOT_SUPPORTED
PubSub 來源連接器僅適用於已停用的 spark.speculation 叢集中。
PS_UNABLE_TO_CREATE_SUBSCRIPTION
嘗試在主題 <subId>上建立訂<topicId>用帳戶時發生錯誤。 請檢查是否具有足夠的許可權以建立訂閱,然後再試一次。
PS_UNABLE_TO_PARSE_PROTO
無法剖析串行化位元組以產生 Proto。
PS_UNSUPPORTED_GET_OFFSET_CALL
在未提供限量參數的情況下,不支援 getOffset。
PYTHON_DATA_SOURCE_ERROR
無法連線到 <action> Python 資料來源 <type>: <msg>
PYTHON_STREAMING_DATA_SOURCE_RUNTIME_ERROR
Python 串流資料源執行 <action>時失敗: <msg>
QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
無法存取參考的數據表,因為先前指派的數據行遮罩目前與數據表架構不相容;若要繼續,請連絡數據表的擁有者以更新原則:
如需詳細資訊,請參閱 QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
無法存取參考的數據表,因為先前指派的數據列層級安全策略目前與數據表架構不相容;若要繼續,請連絡數據表的擁有者以更新原則:
如需詳細資訊,請參閱 QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
QUERY_EXECUTION_TIMEOUT_EXCEEDED
查詢執行因超過逾時 (<timeoutSec>秒) 而取消。 您可以藉由設定 <config>來增加秒的限制。
QUERY_INCOMPATIBLE_WITH_RLSCM_POLICY
請參見 go/rowcolumncontrols-allowlist。 LogicalPlan <unknownLogicalPlan> 與 RLS/CM 政策不相容。
QUERY_REJECTED
查詢執行遭到拒絕。
QUERY_RESULT_WRITE_TO_CLOUD_STORE_PERMISSION_ERROR
工作區內部記憶體設定可防止 Databricks 存取雲端存放區。
QUERY_TAGS_NOT_IMPLEMENTED_ERROR(查詢標籤未實現錯誤)
SQL 尚未支援查詢標籤。
查詢標籤語法無效
指令格式 SET QUERY_TAGS 無效。
QUERY_TAG_KEY_INVALID(查詢標籤鍵無效)
查詢標籤金鑰「<key>驗證失敗」。
查詢標籤鍵不可為空
查詢標籤鍵不能為空或null。 鍵和值的前後空白會被去除。
查詢標籤超過最大數量限制
查詢標籤數量超過每次會話的最大標籤數上限 <tagLimit> 。
QUERY_TAG_VALUE_INVALID
查詢標籤值 '<value>' 驗證失敗。
QUERY_WATCHDOG_CHECK_FAILED
查詢看門狗檢查失敗。
更多詳情請參見 QUERY_WATCHDOG_CHECK_FAILED
READ_CURRENT_FILE_NOT_FOUND
<message>
基礎檔案可能已更新。 您可以在 SQL 中執行 'REFRESH TABLE tableName' 命令,或重新建立相關的數據集/數據框架,來明確使 Spark 中的快取失效。
READ_FILES_AMBIGUOUS_ROUTINE_PARAMETERS
函式 <functionName> 的調用設置了 <parameterName> 和 <alternativeName>,它們是彼此的別名。 請只設定其中一個。
READ_FILES_CREDENTIALS_PARSE_ERROR
解析read_files()函式的暫時憑證時發生錯誤。
如需詳細資訊,請參閱 READ_FILES_CREDENTIALS_PARSE_ERROR
READ_TVF_UNEXPECTED_REQUIRED_PARAMETER
<functionName>函式必要參數<parameterName>必須指派在位置<expectedPos>,而不指定名稱。
RECIPIENT_EXPIRATION_NOT_SUPPORTED
只有TIMESTAMP/TIMESTAMP_LTZ/TIMESTAMP_NTZ類型支援收件者到期時間戳。
RECURSION_LEVEL_LIMIT_EXCEEDED
已達到遞歸層級限制<levelLimit>但查詢尚未用盡,請嘗試增加遞歸層級限制,如『WITH RECURSIVE t(col) MAX RECURSION LEVEL 200』。
RECURSION_ROW_LIMIT_EXCEEDED
已達到遞歸數據列限制 <rowLimit> ,但查詢尚未用盡,請嘗試在查詢 CTE 關聯時設定較大的 LIMIT 值。
RECURSIVE_CTE_IN_LEGACY_MODE
遞歸定義不能用於舊版 CTE 優先順序模式(spark.sql.legacy.ctePrecedencePolicy=LEGACY)。
RECURSIVE_CTE_WITH_LEGACY_INLINE_FLAG
當舊版內嵌旗標設定為 true 時,無法使用遞歸定義(spark.sql.legacy.inlineCTEInCommands=true)。
RECURSIVE_PROTOBUF_SCHEMA
在 Protobuf 架構中找到遞歸參考,此參考預設無法由 Spark 處理: <fieldDescriptor>。 請嘗試將選項 recursive.fields.max.depth 1 設定為 10。 不允許超過10個遞歸層級。
RECURSIVE_VIEW
偵測到遞歸視圖 <viewIdent> (迴圈: <newPath>)。
REF_DEFAULT_VALUE_IS_NOT_ALLOWED_IN_PARTITION
在DEFAULT子句中不允許參考PARTITION列值。
RELATION_LARGER_THAN_8G
無法建置大於 8G 的 <relationName>。
REMAINDER_BY_ZERO(餘數除以零)
剩餘數減為零。 使用 try_mod 來容許除數為0並改為傳回 NULL 。 如有必要,請將 設為 <config> 「false」 以略過此錯誤。
REMOTE_FUNCTION_HTTP_FAILED_ERROR
遠端 HTTP 請求失敗,錯誤代碼為 <errorCode>,錯誤訊息為 <errorMessage>
REMOTE_FUNCTION_HTTP_RESULT_PARSE_ERROR
因無法解析<functionName>遠端 HTTP 回應的結果,未能評估 JSON SQL 函式;錯誤訊息為 <errorMessage>。 檢查 API 文件:<docUrl>。 請修正錯誤訊息中指出的問題,然後再次重試查詢。
REMOTE_FUNCTION_HTTP_RESULT_UNEXPECTED_ERROR
無法評估 <functionName> SQL 函式,因為無法處理非預期的遠端 HTTP 回應;錯誤訊息為 <errorMessage>。 檢查 API 文件:<docUrl>。 請修正錯誤訊息中指出的問題,然後再次重試查詢。
REMOTE_FUNCTION_HTTP_RETRY_TIMEOUT
重試 <N> 時間之後,遠端要求失敗;最後一個失敗的 HTTP 錯誤碼是 <errorCode> ,而訊息為 <errorMessage>
REMOTE_FUNCTION_MISSING_REQUIREMENTS_ERROR
無法評估 <functionName> SQL 函式,因為 <errorMessage>。 在 <docUrl>中檢查需求。 請修正錯誤訊息中指出的問題,然後再次重試查詢。
REMOTE_QUERY_FUNCTION_UNSUPPORTED_CONNECTOR_PARAMETERS
remote_query函式不支援參數<parameterNames>,該函式查詢型別為 '<connectionName>' 的連接 '<connectionType>'。
如需詳細資訊,請參閱 REMOTE_QUERY_FUNCTION_UNSUPPORTED_CONNECTOR_PARAMETERS
RENAME_SRC_PATH_NOT_FOUND
無法重新命名,因為找不到 <sourcePath>。
REPEATED_CLAUSE
在每個 <clause> 作業中,<operation> 子句最多可使用一次。
REQUIRED_PARAMETER_ALREADY_PROVIDED_POSITIONALLY
未指定名稱的位置<routineName>上已指派例程<parameterName>必要參數<positionalIndex>。
請更新函式呼叫,以刪除此參數的具名參數或移除位置參數。
請將參數設置為 <positionalIndex> ,然後重試查詢。
REQUIRED_PARAMETER_NOT_FOUND
無法叫用例程 <routineName> ,因為需要名為 <parameterName> 的參數,但例程呼叫未提供值。 請更新例程呼叫,以提供自變數值(位置在索引 <index> 或名稱上),然後再次重試查詢。
REQUIRES_EXPLICIT_NAME_IN_WATERMARK_CLAUSE
浮水印子句若指定表達式,則需明確名稱,但 為 <sqlExpr>。
REQUIRES_SINGLE_PART_NAMESPACE
<sessionCatalog> 需要單一部分命名空間,但取得 <namespace>。
RESCUED_DATA_COLUMN_CONFLICT_WITH_SINGLE_VARIANT
'rescuedDataColumn' DataFrame API 讀取器選項與 'singleVariantColumn' DataFrame API 選項互斥。
請移除其中一個,然後再次重試 DataFrame 作業。
RESERVED_CDC_COLUMNS_ON_WRITE
寫入包含保留的欄位<columnList>已被使用
作為變更資料流的元數據在內部使用。 若要寫入表格,請選擇重新命名或刪除某項目。
這些欄位或者通過設定來停用資料表上的變更資料饋送
<config> 為 false。
RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
選項 <option> 在 <source> 來源的共用叢集上具有限制值。
如需詳細資訊,請參閱 RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
ROUTINE_ALREADY_EXISTS
無法建立 <newRoutineType> <routineName>,因為此名稱的 <existingRoutineType> 已經存在。
選擇不同的名稱、卸除或取代現有的 <existingRoutineType>,或新增 IF NOT EXISTS 子句以容許預先存在的 <newRoutineType>。
ROUTINE_NOT_FOUND
找不到例程 <routineName> 。 確認架構和目錄的拼字和正確性。
如果您未使用架構和目錄來限定名稱,請確認current_schema() 輸出,或使用正確的架構和目錄來限定名稱。
為了容忍掉落誤差,使用DROP...IF EXISTS。
ROUTINE_PARAMETER_NOT_FOUND
例程<routineName>不支援在 位置<parameterName>指定的參數<pos>。<suggestion>
ROUTINE_USES_SYSTEM_RESERVED_CLASS_NAME
無法建立函式 <routineName> ,因為指定的 classname '<className>' 保留供系統使用。 請重新命名 類別,然後再試一次。
ROW_LEVEL_SECURITY_ABAC_MISMATCH
無法解析 <tableName> 數據列篩選,因為從原則繼承的數據列篩選與明確定義的數據列篩選之間有不相符的情況。 若要繼續,請停用屬性型訪問控制 (ABAC),並連絡 Databricks 支援。
ROW_LEVEL_SECURITY_CHECK_CONSTRAINT_UNSUPPORTED
不支援在具有數據列層級安全策略的數據表CHECK上建立<tableName>條件約束。
ROW_LEVEL_SECURITY_COLUMN_MASK_UNRESOLVED_REFERENCE_COLUMN
無法解析數據列篩選或數據行遮罩函式參數中所參考名稱 <objectName> 的數據行。
如果基礎表架構已變更,且參考的數據行已不存在,就可能會發生這種情況。
例如,如果在外部系統中移除了欄位(例如,聯邦表),或在REPLACE資料表上的操作卸除了欄位,就會發生這種情況。
為了解決這個問題,擁有管理權限的使用者可以藉由DESCRIBE TABLE EXTENDED檢查目前的列篩選器和欄遮罩,並使用 ROW ALTER TABLE 或 MASK 刪除或重新創建任何參考不存在欄位的欄位...SET/DROPFILTER。
注意:即使未指定遮罩,當新的架構包含相同的欄位時,Databricks 引進了安全性改進,以在 REPLACE 作業期間保留欄位遮罩。 這可防止數據表發生非預期的原則遺失。
ROW_LEVEL_SECURITY_DUPLICATE_COLUMN_NAME
語句 <statementType> 嘗試將數據列層級安全策略指派給數據表,但兩個或多個參考的數據行具有相同的名稱 <columnName>,這無效。
ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
不支援 <tableName> 的行級別安全策略:
如需詳細資訊,請參閱 ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
ROW_LEVEL_SECURITY_INCOMPATIBLE_SCHEMA_CHANGE
無法從資料表 <statementType> <columnName> 中移除 <tableName>,因為它被行級別安全策略所引用。 資料表擁有者必須先移除或變更此原則,才能繼續。
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_SOURCE
MERGE INTO 作業不支援源數據表 <tableName>中的數據列層級安全策略。
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_TARGET
MERGE INTO 作業不支援使用數據列層級安全策略寫入數據表 <tableName> 。
ROW_LEVEL_SECURITY_MULTI_PART_COLUMN_NAME
此語句嘗試將數據列層級安全策略指派給數據表,但參考的數據行 <columnName> 有多個名稱部分,這無效。
ROW_LEVEL_SECURITY_REQUIRE_UNITY_CATALOG
資料列層級的安全策略僅在 Unity Catalog 中有支援。
ROW_LEVEL_SECURITY_SECONDARY_INDEX_CREATION_UNSUPPORTED
無法建立次級索引 ON TABLE <tableName> ,因為資料表已定義了列級的安全政策。
ROW_LEVEL_SECURITY_SHOW_PARTITIONS_UNSUPPORTED
SHOW PARTITIONS 命令不支援具有行級別安全性策略的<format> 資料表。
ROW_LEVEL_SECURITY_TABLE_CLONE_SOURCE_NOT_SUPPORTED
<mode> 不支援從具有數據列層級安全策略的數據表 <tableName> 複製。
ROW_LEVEL_SECURITY_TABLE_CLONE_TARGET_NOT_SUPPORTED
<mode> 不支援複製到具有行級安全策略的數據表 <tableName> 。
ROW_LEVEL_SECURITY_UNSUPPORTED_CONSTANT_AS_PARAMETER
不支援使用常數做為數據列層級安全策略中的參數。 請更新 SQL 命令,以從資料列篩選定義中移除常數,然後再次重試命令。
ROW_LEVEL_SECURITY_UNSUPPORTED_DATA_TYPE
用於數據列層級安全策略的函 <functionName> 式具有具有不支援數據類型 <dataType>的參數。
ROW_LEVEL_SECURITY_UNSUPPORTED_PROVIDER
無法執行 <statementType> 命令,因為使用數據表提供者的目標數據源不支援指派數據列層級安全策略:“<provider>”。
ROW_SUBQUERY_TOO_MANY_ROWS
子查詢以資料列的形式傳回了多行資料。
ROW_VALUE_IS_NULL
在索引NULL的數據列中找到 <index> ,必須是非NULL值。
RULE_ID_NOT_FOUND
找不到規則名稱 「<ruleName>的識別碼」。 如果您要新增規則,請修改 RuleIdCollection.scala。
執行空白管道 (RUN_EMPTY_PIPELINE)
管線預期至少會定義一個非暫時資料集 (資料表、保存檢視),但在管線中找不到非暫時資料集。
請確認你已包含預期的原始碼檔案,且原始碼是否包含資料表定義(例如 CREATE MATERIALIZED VIEW SQL 程式碼、 @dp.table Python 程式碼)。
SALESFORCE_DATA_SHARE_API_UNAUTHORIZED
Salesforce Data Share API 的授權失敗。 確認 Databricks 連線詳細數據已提供給適當的 Salesforce 數據共享目標。
SAMPLE_TABLE_PERMISSIONS
範例資料庫/數據表不支持許可權。
SCALAR_FUNCTION_NOT_COMPATIBLE
ScalarFunction <scalarFunc> 不會使用自定義實作覆寫方法 'produceResult(InternalRow)'。
SCALAR_FUNCTION_NOT_FULLY_IMPLEMENTED
ScalarFunction <scalarFunc> 不會實作或覆寫方法 'produceResult(InternalRow)'。
SCALAR_SUBQUERY_IS_IN_GROUP_BY_OR_AGGREGATE_FUNCTION
相關的純量子查詢 '<sqlExpr>' 既不存在於 GROUP BY 中,也不在任何聚合函數中。
如果您不在乎取得的值,請將它新增至 GROUP BY 使用序數位置,或將其包裝在 first() (或 first_value) 中。
SCALAR_SUBQUERY_TOO_MANY_ROWS
子查詢作為表達式時返回多於一行的記錄。
SCDS_COMMIT_LOG_UNAVAILABLE
提交日誌不存在,檢查點位置=<checkpointLocation>。
SCDS_INVALID_OPTION_VALUE(無效的選項值)
來源 option=<optionName> 的值無效,且為 errorMsg=<message>。
SCDS_OFFSET_LOG_UNAVAILABLE
偏移日誌不存在,檢查點位置=<checkpointLocation>。
SCDS_REQUIRED_OPTION_UNSPECIFIED
無法指定必要的 option=<optionName>。
SCHEDULE_ALREADY_EXISTS
無法新增 <scheduleType> 至已經有 <existingScheduleType>的數據表。 請取消現有的行程表或使用 ALTER TABLE...ALTER <scheduleType> ......改變它。
SCHEDULE_PERIOD_INVALID
的排程期間 <timeUnit> 必須是介於 1 和 <upperBound> (含) 之間的整數值。 已收到: <actual>。
SCHEMA_ALREADY_EXISTS
無法建立架構 <schemaName> ,因為它已經存在。
選擇不同的名稱、卸除現有的架構,或新增 IF NOT EXISTS 子句以容許既有的架構。
SCHEMA_NOT_EMPTY
無法卸除架構 <schemaName> ,因為它包含物件。
用 DROP SCHEMA...CASCADE 來丟棄結構及其所有物件。
SCHEMA_NOT_FOUND
找不到架構 <schemaName> 。 確認架構和目錄的拼字和正確性。
如果您未為名稱指定目錄,請檢查 current_schema() 的輸出,或將名稱歸入正確的目錄。
若要容許卸除操作時發生錯誤,請使用 DROP SCHEMA IF EXISTS。
SCHEMA_REGISTRY_CONFIGURATION_ERROR
無法初始化架構登錄中的架構。
<reason>。
SEARCH_INDEX_CATALOG_SCHEMA_MISMATCH
無法在目錄<indexName>和架構<indexCatalog>中建立搜尋索引<indexSchema>。 索引必須與基底表格<tableName> (<tableCatalog>相同的目錄與結構中建立。<tableSchema>
SEARCH_INDEX_INVALID_PARAMETERS
無法建立搜尋索引,給出無效參數:
更多詳情請參見 SEARCH_INDEX_INVALID_PARAMETERS
SEARCH_INDEX_NAME_CONFLICTS_WITH_TABLE
帶有索引名稱 <indexName> 的表格已經存在。 請提供一個不會與現有資料表衝突的自訂索引名稱。
搜尋索引已過時的架構
搜尋索引 <indexName> 的架構已過時。 請使用以下方法重建索引:
DROP SEARCH INDEX <indexName>;
CREATE SEARCH INDEX <indexName> ON <tableName>(<columnsList>);
SEARCH_REQUIRES_SEARCHABLE_COLUMNS
<context> 需要欄位具有可搜尋型別(STRING COLLATE UTF8_BINARY、 VARIANT或 ARRAY)。
更多詳情請參見 SEARCH_REQUIRES_SEARCHABLE_COLUMNS
搜尋需要字串型別的參數
SEARCH 需要 <argument> 參數是字串字面值,但 <actualExpr> 已被給予。 <possibleOptionsMessage>
SECONDARY_INDEX_REQUIRES_MANAGED_TABLE
無法 <operation> ON TABLE <tableName>。 操作只能在受管理的資料表上執行。
要將資料表轉換成受管理資料表,請使用指令 ALTER TABLE <tableName> SET MANAGED 。
如需詳細資訊,請參閱 https://docs.databricks.com/aws/en/tables/convert-external-managed
SECONDARY_INDEX_UNSUPPORTED_TABLE_FORMAT
不行 <operation> ON TABLE <tableName>
操作只能在以下格式的表格上執行: <supportedFormats>。
請驗證表格格式與 DESCRIBE DETAIL <tableName>。
如果目前的格式是 Parquet 或 Apache Iceberg,你可以在原地用 CONVERT 永久轉換為 DELTA <tableName>,詳情請參見 https://docs.databricks.com/aws/en/sql/language-manual/delta-convert-to-delta。
否則,請用支援的格式重新建立表格。
SECOND_FUNCTION_ARGUMENT_NOT_INTEGER
<functionName> 函式的第二個參數必須是整數。
SECRET_FUNCTION_INVALID_LOCATION
無法執行<commandType>命令,因為其中包含一或多個對SECRET函式的非加密參考。請使用AES_ENCRYPT加密每個函式呼叫的結果,然後再試一次命令。
SECURABLE_DOES_NOT_EXIST(可保護的項目不存在)
<securable> 不存在。
SEED_EXPRESSION_IS_UNFOLDABLE
表達式<seedExpr>的種子表達式<exprWithSeed>必須可折疊。
SERVER_IS_BUSY
伺服器忙碌中,無法處理要求。 請稍候,然後再試一次。
SET_QUERY_TAGS_SYNTAX_INVALID
因為語法無效,無法執行指令 SET 。 此指令的預期語法為 SET QUERY_TAGS 或 SET QUERY_TAGS['key'] = 'value'。 請修正指令使其符合此語法,然後再執行一次。
SFTP_已棄用的_SSH_RSA金鑰算法
SFTP 伺服器 <host>:<port> 正在使用已被取代的 SSH RSA 演演算法進行金鑰交換。
請考慮升級 SFTP 伺服器,以使用更安全的演算法,例如 ECDSA 或 ED25519。
或者,將 設定 <escapeHatchConf> 為 true 以略過此錯誤
SFTP_UNABLE_TO_CONNECT
無法使用使用者名稱<host>連線到埠<port>上的SFTP 伺服器<user>。
<error>
SFTP_UNKNOWN_HOST_KEY
SFTP 伺服器 <host> 的主機金鑰未知或已更改。
請驗證以下錯誤訊息,然後在欄位中提供關鍵指紋 Key fingerprint 。
例如,若訊息顯示「ECDSA 金鑰指紋是 SHA256:XXX/YYY」,則提交「SHA256:XXX/YYY」作為金鑰指紋。
連線錯誤訊息:
<error>
SFTP_USER_DOES_NOT_MATCH
從憑證 <credentialUser> 擷取的使用者不符合 SFTP 路徑 <path> 中指定的使用者。
SHOW_COLUMNS_WITH_CONFLICT_NAMESPACE
SHOW COLUMNS 與衝突的命名空間: <namespaceA> != <namespaceB>。
SNOWFLAKE_DATA_SOURCE_OPTIONS_VALIDATION_FAILED
Snowflake資料來源選項驗證失敗。
如需詳細資訊,請參閱 SNOWFLAKE_DATA_SOURCE_OPTIONS_VALIDATION_FAILED
SORT_BY_WITHOUT_BUCKETING
sortBy 必須與 bucketBy 搭配使用。
SPARK_JOB_CANCELLED
作業 <jobId> 已取消 <reason>
SPECIFY_BUCKETING_IS_NOT_ALLOWED
在沒有明確欄位列表的情況下,CREATE TABLE 無法指定分桶信息。
請使用具有明確欄位清單的表單,並指定分桶資訊。
或者,允許通過省略子句來推斷分組信息。
SPECIFY_CLUSTER_BY_WITH_BUCKETING_IS_NOT_ALLOWED
無法指定 CLUSTER BY 與 CLUSTERED BY INTO BUCKETS。
SPECIFY_CLUSTER_BY_WITH_PARTITIONED_BY_IS_NOT_ALLOWED
無法指定 CLUSTER BY 與 PARTITIONED BY。
SPECIFY_PARTITION_IS_NOT_ALLOWED
沒有明確資料列清單的CREATE TABLE無法指定PARTITIONED BY。
請使用具有明確資料列清單的表單, 並指定 PARTITIONED BY。
或者,允許通過省略 PARTITION BY 子句來推斷分割。
SQL_CONF_NOT_FOUND
找不到 SQL 組態 <sqlConf> 。 請確認設定存在。
SQL_SCRIPT_IN_EXECUTE_IMMEDIATE
EXECUTE IMMEDIATE 命令中不允許使用 SQL 腳本。 請確定提供的 SQL 查詢 (<sqlString>) 不是 SQL 文稿。 請確定sql_string是格式正確的 SQL 語句,且不包含 BEGIN 和 END。
SQL_SCRIPT_MAX_NUMBER_OF_CHARACTERS_EXCEEDED
已超過 SQL 文稿中的最大字元數(id: <scriptId>) 。 允許的字元數目上限為 <maxChars>,且腳本具有 <chars> 字元。
SQL_SCRIPT_MAX_NUMBER_OF_LINES_EXCEEDED
已超過 SQL 文稿中行數上限 (id: <scriptId>: ) 。 允許的最大行數是 <maxLines>,而且腳本有 <lines> 行。
SQL_SCRIPT_MAX_NUMBER_OF_LOCAL_VARIABLE_DECLARATIONS_EXCEEDED
已超過 SQL 文稿中局部變數宣告的數目上限(id: <scriptId>) 。 允許的宣告數目上限為 <maxDeclarations>,且腳稿具有 <declarations>。
SQL_STORED_PROCEDURES_NESTED_CALLS_LIMIT_EXCEEDED
已使用程式超過巢狀過程呼叫數目上限 (name: <procedureName>, callId: <procedureCallId>。 允許的巢狀過程呼叫數目上限為 <limit>。
STAGING_PATH_CURRENTLY_INACCESSIBLE
存取目標預備路徑 <path>時發生暫時性錯誤,請在幾分鐘內嘗試
STAR_GROUP_BY_POS
使用序數位置時,選取清單中不允許使用星號(*)。GROUP BY
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_HANDLE_STATE
無法執行狀態處理器作業<operationType>,因為句柄狀態<handleState>無效。
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_TIME_MODE
無法執行具有無效 timeMode= 的具狀態處理器作業=<operationType><timeMode>
STATEFUL_PROCESSOR_DUPLICATE_STATE_VARIABLE_DEFINED
具名稱 <stateVarName> 的狀態變數已在 StatefulProcessor 中定義。
STATEFUL_PROCESSOR_INCORRECT_TIME_MODE_TO_ASSIGN_TTL
無法使用 TTL 在 state=<stateName> 的 timeMode=<timeMode>,請改用 TimeMode.ProcessingTime()。
STATEFUL_PROCESSOR_TTL_DURATION_MUST_BE_POSITIVE
TTL 時間必須大於零才能在狀態存放區操作=<operationType>的狀態=<stateName>上執行。
STATEFUL_PROCESSOR_UNKNOWN_TIME_MODE
未知的時間模式 <timeMode>。 接受的 timeMode 模式為 'none'、'processingTime'、'eventTime'
STATE_REPARTITION_INVALID_CHECKPOINT
所提供的檢查點位置<checkpointLocation>「''處於無效狀態。
更多詳情請參見 STATE_REPARTITION_INVALID_CHECKPOINT
狀態_重新分配_無效參數
重分配參數 <parameter> 無效:
更多詳情請參見 STATE_REPARTITION_INVALID_PARAMETER
STATE_STORE_CANNOT_CREATE_COLUMN_FAMILY_WITH_RESERVED_CHARS
無法建立欄族,原因是起始字元不被支援,名稱為 name=<colFamilyName>。
STATE_STORE_CANNOT_USE_COLUMN_FAMILY_WITH_INVALID_NAME
無法執行欄位族操作=<operationName>,名稱無效=<colFamilyName>。 欄位系列名稱不可為空白、包含開頭或結尾的空格,或使用保留關鍵字等於default。
狀態儲存檢查點ID不支援
<msg>
狀態存儲檢查點位置非空
檢查點位置 <checkpointLocation> 在第 0 批次應該是空的
請使用新的檢查點位置,或刪除檢查點內的現有資料。
STATE_STORE_COLUMN_FAMILY_SCHEMA_INCOMPATIBLE
不相容的架構轉換,列族=<colFamilyName>,舊架構=<oldSchema>,新架構=<newSchema>。
STATE_STORE_DOES_NOT_SUPPORT_REUSABLE_ITERATOR
StateStore <inputClass> 不支援可重複使用的反覆運算器。
STATE_STORE_HANDLE_NOT_INITIALIZED
此 StatefulProcessor 的句柄尚未初始化。
請只在 transformWithState 運算符內使用 StatefulProcessor。
STATE_STORE_INCORRECT_NUM_ORDERING_COLS_FOR_RANGE_SCAN
範圍掃描編碼器的排序序位數量不正確<numOrderingCols> 。 排序序數不能是零或大於架構數據行的數目。
STATE_STORE_INCORRECT_NUM_PREFIX_COLS_FOR_PREFIX_SCAN
前置掃描編碼器的前置欄數目不正確<numPrefixCols> 。 前綴欄位不能為零或大於等於架構欄位的數量。
無效的AVRO模式在狀態儲存中
偵測到 Avro 編碼的結構描述無效。
如需詳細資訊,請參閱 STATE_STORE_INVALID_AVRO_SCHEMA
STATE_STORE_INVALID_CONFIG_AFTER_RESTART
無法在重新啟動期間將<configName>從<oldConfig>變更為<newConfig>。 請將 設定 <configName> 為 <oldConfig>,或使用新的檢查點目錄重新啟動。
STATE_STORE_INVALID_PROVIDER
指定的狀態存放區提供者 <inputClass> 不會擴充 org.apache.spark.sql.execution.streaming.state.StateStoreProvider。
STATE_STORE_INVALID_VARIABLE_TYPE_CHANGE
查詢重新啟動之間無法變更 <stateVarName> 為 <newType> 。 請將 設定 <stateVarName> 為 <oldType>,或使用新的檢查點目錄重新啟動。
狀態儲存鍵架構不相容
提供的索引鍵架構不符合運算符狀態中的現有架構。
現有的 schema=<storedKeySchema>; 提供的 schema=<newKeySchema>。
若要在沒有架構驗證的情況下執行查詢,請將 spark.sql.streaming.stateStore.stateSchemaCheck 設定為 false。
請注意,在沒有架構驗證的情況下執行可能會有不具決定性的行為。
STATE_STORE_NATIVE_ROCKSDB_TIMEOUT
存取 RocksDB 狀態存放區以進行具狀態串流作業時,呼叫原生 RocksDB 函數在等待逾時<funcName> 毫秒後仍未回應。 如果錯誤持續發生,請再試一次並重新啟動叢集。
STATE_STORE_NULL_TYPE_ORDERING_COLS_NOT_SUPPORTED
範圍掃描編碼器不支援名稱=<fieldName> at index=<index> 的 Null 類型排序數據行。
STATE_STORE_PROVIDER_DOES_NOT_SUPPORT_FINE_GRAINED_STATE_REPLAY
指定的狀態存放區提供者 <inputClass> 不會擴充 org.apache.spark.sql.execution.streaming.state.SupportsFineGrainedReplay。
因此,它不支持在狀態數據源中使用 snapshotStartBatchId 或 readChangeFeed 選項。
STATE_STORE_ROCKSDB_ZIP已存在
RocksDB 快照壓縮檔 <zipFilePath> 已經存在。 這表示快照已經上傳到 DFS。
(allowVersionOverwrite=<allowVersionOverwrite>, shouldUseCommitService=<shouldUseCommitService>)
STATE_STORE_STATE_SCHEMA_FILES_THRESHOLD_EXCEEDED
狀態架構檔案 <numStateSchemaFiles> 數目超過此查詢的狀態架構檔案數目上限: <maxStateSchemaFiles>。
已新增: <addedColumnFamilies>、已移除: <removedColumnFamilies>
請將 『spark.sql.streaming.stateStore.stateSchemaFilesThreshold』 設定為較高的數位,或還原狀態架構修改
STATE_STORE_UNSUPPORTED_OPERATION_ON_MISSING_COLUMN_FAMILY
遺漏資料列系列=不支援狀態存放區作業=<operationType><colFamilyName> 。
STATE_STORE_VALUE_SCHEMA_EVOLUTION_THRESHOLD_EXCEEDED
狀態架構演進 <numSchemaEvolutions> 的數目超過這個數據行系列允許的狀態架構演進 <maxSchemaEvolutions>數目上限。
冒犯資料列系列: <colFamilyName>
請將 『spark.sql.streaming.stateStore.valueStateSchemaEvolutionThreshold』 設定為較高的數位,或還原狀態架構修改
STATE_STORE_VALUE_SCHEMA_NOT_COMPATIBLE
提供的值架構不符合運算符狀態中的現有架構。
現有的 schema=<storedValueSchema>; 提供的 schema=<newValueSchema>。
若要在沒有架構驗證的情況下執行查詢,請將 spark.sql.streaming.stateStore.stateSchemaCheck 設定為 false。
請注意,在沒有架構驗證的情況下執行可能會有不具決定性的行為。
STATE_STORE_VARIABLE_SIZE_ORDERING_COLS_NOT_SUPPORTED
範圍編碼器不支援名稱為<fieldName>、索引為<index>的可變大小排序的欄位。
STATIC_PARTITION_COLUMN_IN_INSERT_COLUMN_LIST
靜態數據分割數據行 <staticName> 也會在數據行清單中指定。
STDS_COMMITTED_BATCH_UNAVAILABLE
找不到已提交的批次,檢查點位置:<checkpointLocation>。 確保查詢在停止之前已經執行並提交任何微批處理。
STDS_CONFLICT_OPTIONS
<options>選項不能一起指定。 請指定一個。
STDS_FAILED_TO_READ_OPERATOR_METADATA
無法讀取 checkpointLocation=<checkpointLocation> 和 batchId=<batchId> 的運算符元數據。
檔案不存在,或檔案已損毀。
重新執行串流查詢以建構作員元數據,並在錯誤持續發生時向對應的社群或廠商報告。
STDS_FAILED_TO_READ_STATE_SCHEMA
無法讀取狀態架構。 檔案不存在,或檔案已損毀。 選項: <sourceOptions>。
重新執行串流查詢以建構狀態架構,並在錯誤持續發生時向對應的社群或廠商報告。
STDS_INVALID_OPTION_VALUE
來源選項 '<optionName>'的值無效:
如需詳細資訊,請參閱 STDS_INVALID_OPTION_VALUE
STDS_MIXED_CHECKPOINT_FORMAT_VERSIONS_NOT_SUPPORTED (不支持混合檢查點格式版本)
不支援讀取跨不同檢查點格式版本的狀態。
startBatchId=<startBatchId>, endBatchId=<endBatchId>.
startFormatVersion=<startFormatVersion>, endFormatVersion=<endFormatVersion>.
STDS_NO_PARTITION_DISCOVERED_IN_STATE_STORE
狀態沒有任何分割。 請仔細檢查查詢是否指向有效狀態。 選項: <sourceOptions>
STDS_OFFSET_LOG_UNAVAILABLE
的位移記錄 <batchId> 不存在,檢查點位置: <checkpointLocation>。
請指定可供查詢的批次識別碼 - 您可以使用狀態元數據資料來源來查詢可用的批次識別碼。
STDS_OFFSET_METADATA_LOG_UNAVAILABLE
元數據不可用於偏移日誌檔 <batchId>,檢查點位置:<checkpointLocation>。
檢查點似乎只會與舊版Spark一起執行。 使用最新的 Spark 版本執行串流查詢,讓 Spark 建構狀態元數據。
STDS_REQUIRED_OPTION_UNSPECIFIED
必須指定『<optionName>。
STREAMING_AQE_NOT_SUPPORTED_FOR_STATEFUL_OPERATORS
結構化串流中的具狀態運算符不支援調適型查詢執行。
串流檢查點元資料錯誤
串流檢查點中繼資料發生錯誤。
如需更多詳細資訊,請參閱 STREAMING_CHECKPOINT_METADATA_ERROR
STREAMING_CHECKPOINT_PIN_BATCH_ERROR
未能在 batchId=<checkpointLocation> 執行串流查詢的 pin 操作,檢查點位置=<batchId>。
更多詳情請參見 STREAMING_CHECKPOINT_PIN_BATCH_ERROR
STREAMING_CHECKPOINT_REWIND_ERROR
未能執行串流查詢的倒帶操作,檢查點位置=<checkpointLocation>。
更多詳情請參見 STREAMING_CHECKPOINT_REWIND_ERROR
STREAMING_CHECKPOINT_REWIND_OPTIONS_ERROR
串流檢查點倒帶作業期間發生錯誤。
如需詳細資訊,請參閱 STREAMING_CHECKPOINT_REWIND_OPTIONS_ERROR
STREAMING_FROM_MATERIALIZED_VIEW
無法從具體化檢視 <viewName> 進行串流。 不支援從具現化檢視進行串流。
STREAMING_OUTPUT_MODE
無效的串流輸出模式: <outputMode>。
如需詳細資訊,請參閱 STREAMING_OUTPUT_MODE
STREAMING_QUERY_EVOLUTION_ERROR
串流查詢演化錯誤:
更多詳情請參見 STREAMING_QUERY_EVOLUTION_ERROR
STREAMING_RATE_SOURCE_OFFSET_VERSION_MISMATCH
預期速率來源位移版本 <expectedVersion>,但已取得版本 <actualVersion>。 若要繼續,請將速率來源選項中的 [版本] 選項設定為 <expectedVersion> 。 例如,spark.readStream.format("rate").option("version", "<expectedVersion>")。
STREAMING_RATE_SOURCE_V2_PARTITION_NUM_CHANGE_UNSUPPORTED
先前微批次中使用的分割區數目 (<prevNum>) 與目前的分割區數目 (<currNum>) 不同。 可能有兩個可能的原因:
速率來源的選項 “numPartitions” 會在查詢重新啟動期間變更。
叢集的大小可能會在查詢重新啟動期間變更。
明確設定速率來源 <prevNum> 的選項「numPartitions」以修正此問題。
資源_v2_數據流速率上升時間不支持
速率版本 2 不支援 「rampUpTime」 選項。 若要使用此選項,請將選項 「version」 設定為 1。 例如,spark.readStream.format("rate").option("version", "1")。
STREAMING_REAL_TIME_MODE
串流即時模式有下列限制:
如需詳細資訊,請參閱 STREAMING_REAL_TIME_MODE
流式即時水印傳播
串流即時浮水印傳播有下列限制:
如需詳細資訊,請參閱 STREAMING_REAL_TIME_WATERMARK_PROPAGATION
串流接收埠傳送模式
無效的串流接收傳遞模式: <deliveryMode>。
如需詳細資訊,請參閱 STREAMING_SINK_DELIVERY_MODE
STREAMING_SKIP_OFFSETS_INVALID_RANGE
無效的跳過偏移範圍:結束偏移 <endOffset> 小於起始偏移 <startOffset>。 修正這個偏移範圍後再試一次。
流式有狀態操作元缺少狀態目錄
無法用有狀態運算子重新啟動串流查詢,因為狀態目錄是空的或缺失的。
這通常發生在狀態檔案被刪除,或串流查詢先前未使用有狀態運算子,但以有狀態運算子重新啟動時發生。
請移除有狀態的運算元、使用新的檢查點位置,或還原遺失的狀態檔案。
STREAMING_STATEFUL_OPERATOR_NOT_MATCH_IN_STATE_METADATA
串流有狀態的運算符名稱與狀態資料中的運算符不符。 當使用者新增/移除/變更現有串流查詢的具狀態運算符時,可能會發生這種情況。
元數據中的具狀態運算符: [<OpsInMetadataSeq>];目前批次中的具狀態運算符: [<OpsInCurBatchSeq>]。
STREAMING_TABLE_NEEDS_REFRESH
串流資料表 <tableName> 必須重新整理才能執行 <operation>。
如果資料表是從 DBSQL建立的,請執行 REFRESH STREAMING TABLE。
如果該表格是由 Lakeflow Spark 宣告式管線中的管線建立,請執行管線更新。
STREAMING_TABLE_NOT_SUPPORTED
串流資料表只能在 Lakeflow、Spark 宣告式管線與 Databricks SQL 倉庫中建立與刷新。
STREAMING_TABLE_OPERATION_NOT_ALLOWED
不允許進行該操作 <operation>
如需詳細資訊,請參閱 STREAMING_TABLE_OPERATION_NOT_ALLOWED
STREAMING_TABLE_QUERY_INVALID
串流數據表 <tableName> 只能從串流查詢建立。 請將 STREAM 關鍵詞新增到 FROM 子句,以將此關係轉換為串流查詢。
STREAM_NOT_FOUND_FOR_KINESIS_SOURCE
在<streamName>中找不到 Kinesis 數據流<region>。
請啟動指向正確數據流名稱的新查詢。
STRUCT_ARRAY_LENGTH_MISMATCH
輸入數據列沒有架構所需的預期值數目。 如果提供<expected>值,則<actual>欄位是必需的。
ST_INVALID_ALGORITHM_VALUE
無效或不支援的邊緣插值演算法值:'<alg>'。
ST_INVALID_CRS_VALUE
無效或不支援的 CRS(座標參考系統)值:'<crs>'。
ST_INVALID_SRID_VALUE
無效或不支援的 SRID(空間參考識別碼)值: <srid>。
SUM_OF_LIMIT_AND_OFFSET_EXCEEDS_MAX_INT
LIMIT 和 OFFSET 子句的總和不可超過 32 位元整數的最大值(2,147,483,647),但發現限制值 = <limit>,偏移量 = <offset>。
SYNC_METADATA_DELTA_ONLY
修復表同步元數據命令僅支援 Delta 表。
SYNC_SRC_TARGET_TBL_NOT_SAME
源數據表名稱 <srcTable> 必須與目的地數據表名稱 <destTable>相同。
SYNTAX_DISCONTINUED
子句或關鍵詞<clause>在此內容中的支援已中止。
如需詳細資訊,請參閱 SYNTAX_DISCONTINUED
表格參數不允許
TABLE 中不支援 <routineType>參數。
表格_不是_有效的_次要_索引
無法執行指令 DESCRIBE SEARCH INDEX,因為表格 <tableName> 不是有效的 <indexType> 索引。 請更新指令,讓它使用有效的索引並重新嘗試。
TABLE_OR_VIEW_ALREADY_EXISTS
無法建立數據表或檢視 <relationName> ,因為它已經存在。
選擇不同的名稱、卸除現有的物件、新增 子句以容許既有的物件、新增 IF NOT EXISTS OR 子句來取代現有的具體化檢視,或新增 OR REPLACEREFRESH 子句以重新整理現有的串流數據表。
TABLE_OR_VIEW_NOT_FOUND
找不到資料表或檢視 <relationName>。 確認架構和目錄的拼字和正確性。
如果您未使用架構限定名稱,請確認current_schema() 輸出,或使用正確的架構和目錄來限定名稱。
若要容許卸除時的錯誤,請使用 DROP VIEW IF EXISTS 或 DROP TABLE IF EXISTS。
如需詳細資訊,請參閱 TABLE_OR_VIEW_NOT_FOUND
TABLE_TYPE_INCOMPATIBLE_WITH_ABAC_POLICY (表格類型與 ABAC 政策不兼容)
表格類型 <tableName>, <tableType>不支援 ABAC 政策。
請移除政策並重試。
TABLE_VALUED_ARGUMENTS_NOT_YET_IMPLEMENTED_FOR_SQL_FUNCTIONS
無法使用有 <action> 參數的 SQL 使用者定義函<functionName>式,因為尚未實作此功能。
TABLE_VALUED_FUNCTION_FAILED_TO_ANALYZE_IN_PYTHON
無法分析 Python 使用者定義資料表函式: <msg>
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INCOMPATIBLE_WITH_CALL
無法評估資料表函 <functionName> 式,因為其資料表元資料 <requestedMetadata>,但函式會呼叫 <invalidFunctionCallProperty>。
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INVALID
無法評估數據表函 <functionName> 式,因為其數據表元數據無效; <reason>。
TABLE_VALUED_FUNCTION_TOO_MANY_TABLE_ARGUMENTS
表格值函式的表格參數過多。
它只允許一個表格參數,但收到的是:<num>。
如果您想要允許,請將 “spark.sql.allowMultipleTableArguments.enabled” 設定為 “true”
TABLE_WITH_ID_NOT_FOUND
找不到標識碼為的 <tableId> 數據表。 確認 UUID 的正確性。
TASK_WRITE_FAILED
將數據列寫入至 <path>時,工作失敗。
TEMP_CHECKPOINT_LOCATION_NOT_SUPPORTED
目前工作區不支援隱含暫時串流檢查點位置,請明確指定檢查點位置。
針對 display(),請使用下列項目來設定檢查點位置:
display(df, checkpointLocation = “your_path”)
針對所有其他串流查詢,請使用:
.option(“checkpointLocation”, “your_path”)。
TEMP_TABLE_CREATION_LEGACY_WITH_QUERY
CREATE TEMPORARY TABLE
...
AS...這裡不支援,請改用CREATE TEMPORARY VIEW
TEMP_TABLE_CREATION_MUTUAL_EXCLUSIVE_SPECS
CREATE TEMPORARY TABLE不支援指定<unsupportedSpec>。
更多詳情請參見 TEMP_TABLE_CREATION_MUTUAL_EXCLUSIVE_SPECS
暫時表創建名稱保留
無法建立暫存資料表 <tableName> ,因為它以保留名稱前綴 <reservedPrefix>開頭。 請選擇其他名字並重試。
TEMP_TABLE_CREATION_NOT_SUPPORTED_IN_COMPUTE(在計算中不支援建立臨時表)
CREATE TEMPORARY TABLE [AS ... ] 不支援當前的 Compute 類型。 請使用 Databricks 的 SQL (DBSQL) 來建立會話本地的暫存資料表。
TEMP_TABLE_CREATION_REQUIRES_SINGLE_PART_NAME
建立工作階段本機暫存表需要單一部分資料表名稱,但取得 <tableName>。 請更新 命令以使用單一元件數據表名稱,然後再試一次。
不支援具有提示的舊式語法的臨時表創建
CREATE TEMPORARY TABLE
...
USING
...
AS ...不支援。 若要建立臨時資料表,請移除該 USING 子句並重試。
TEMP_TABLE_DELETION_MUTUAL_EXCLUSIVE_SPECS
DROP TEMPORARY TABLE 不支援指定 <unsupportedSpec>,請移除此指定或改用 DROP TABLE 命令來刪除永久資料表。
TEMP_TABLE_DELETION_REQUIRES_SINGLE_PART_NAME
刪除會議區域臨時表需要簡單名稱,但取得 <tableName>。 請更新 DROP TEMPORARY TABLE 命令以使用單一部分數據表名稱卸除臨時表,或使用 DROP TABLE 命令來卸除永久數據表。
TEMP_TABLE_NOT_FOUND
目前會話中找不到臨時表 <tableName> 。 確認數據表名稱的拼字和正確性,然後再次重試查詢或命令。
若要容忍掉落時的錯誤,請使用 DROP TEMP TABLE IF EXISTS。
TEMP_TABLE_NOT_SUPPORTED_WITH_DATABRICKS_JOBS
Databricks 作業尚不支援臨時資料表。 請改用 Databricks Notebook,並連絡 Databricks 支援以取得詳細資訊。
TEMP_TABLE_NOT_SUPPORTED_WITH_HMS
Hive Metastore 不支持臨時表操作 <operation>。
TEMP_TABLE_OPERATION_NOT_SUPPORTED
不支援在工作階段本地臨時表 <tableName> 上的操作。
如需詳細資訊,請參閱 TEMP_TABLE_OPERATION_NOT_SUPPORTED
TEMP_TABLE_OPERATION_NOT_SUPPORTED_IN_V1_COMMAND
<operation> 不支援 V1 指令用於暫存資料表。 請將「spark.sql.legacy.useV1Command」設為false並重試。
TEMP_TABLE_OR_VIEW_ALREADY_EXISTS
無法建立臨時表或檢視表 <relationName> ,因為它已經存在。
選擇不同名稱,刪除或替換現有物件。
暫存表替換不支援
CREATE[ OR] REPLACE TEMPORARY TABLE 不支援。 要取代現有的臨時表格,請用 DROP TEMPORARY TABLE ...[IF EXISTS] 並用 CREATE TEMPORARY TABLE ... 來重新創建它。
TEMP_TABLE_REQUIRES_DATABRICKS_ENV
對會話本地暫存資料表的操作需要 Databricks 環境。
TEMP_TABLE_REQUIRES_DELTA
對會話本地臨時資料表的操作需要啟用 Delta 目錄。 請開啟 Delta 目錄,然後重試。
TEMP_TABLE_REQUIRES_UC
會話本地臨時表上的操作需要 Unity Catalog。 請在執行中的環境中啟用 Unity 目錄,然後重試。
TEMP_VIEW_NAME_TOO_MANY_NAME_PARTS
CREATE TEMPORARY VIEW 或對應的數據集 API 只接受單一部分檢視名稱,但取得: <actualName>。
THETA_INVALID_INPUT_SKETCH_BUFFER (Theta無效輸入草稿緩衝區)
無效呼叫 <function>;僅支援有效的 Theta Sketch 緩衝區作為輸入,例如由 theta_sketch_agg 函數產生的那些緩衝區。
THETA_INVALID_LG_NOM_ENTRIES
對<function>的呼叫無效;lgNomEntries的值必須介於<min>和<max>之間,包含:<value>。
THETA_LG_NOM_ENTRIES_MUST_BE_CONSTANT
呼叫 <function> 無效;lgNomEntries 值必須是常數,但收到的是非常數表達式。
TRAILING_COMMA_IN_SELECT
在SELECT段落中偵測到尾端逗號。 刪除在 FROM 子句前面的末尾逗號。
TRANSACTION_CDF_SCHEMA_WITH_RESERVED_COLUMN_NAME
交易中無法啟用變更資料饋送,因為資料表包含保留欄位名稱(<column_name>)。
若要繼續,請確定數據表只使用非保留的數據行名稱。
交易_CDF_設定_高水位標記_不允許
不允許手動設定 CDC 身分識別的高水位標記。
交易_並發_目錄_元數據_變更
偵測到物件<table>的同時元資料變更。 請執行 ROLLBACK ,然後重試此交易。 Details:
如需更多詳情,請參見 TRANSACTION_CONCURRENT_CATALOG_METADATA_CHANGE
TRANSACTION_CONTEXT_MISMATCH
目前線程與 Spark session 之間偵測到事務上下文的不一致。 這通常會在Spark會話跨多個線程共享時發生。 請為每個交易使用專用的會話和線程,並在該線程中提交/回滾交易後,再重複使用該會話和線程進行新的交易。 Details:
更多詳情請參見 TRANSACTION_CONTEXT_MISMATCH
TRANSACTION_MAX_COMMIT_TIMESTAMP_EXCEEDED
交易無法認可,因為超過最大認可時間戳。 maxCommitTimestamp:<maxCommitTimestampMs> commitTimestamp:<commitTimestampMs>
TRANSACTION_NOT_SUPPORTED
無法執行陳述。
更多詳情請參見 TRANSACTION_NOT_SUPPORTED
中止後需要進行交易回滾
目前的交易已中止。 請執行 ROLLBACK TRANSACTION 再繼續。 中止原因:
更多詳情請參見 TRANSACTION_ROLLBACK_REQUIRED_AFTER_ABORT
TRANSFORM_WITH_STATE_USER_FUNCTION_ERROR
StatefulProcessor 使用者定義函 <function> 式中發生錯誤。 原因: <reason>。
TRANSPOSE_EXCEED_ROW_LIMIT
行數超過<maxValues>在TRANSPOSE的允許限制。 如果這是預期的,請將 <config> 設為至少目前的行數。
TRANSPOSE_INVALID_INDEX_COLUMN
的 TRANSPOSE 索引數據行無效,因為: <reason>
TRANSPOSE_NO_LEAST_COMMON_TYPE
轉置需要非索引欄位有一個共同的類型,但<dt1>和<dt2>並不具備。
TRIGGER_INTERVAL_INVALID
觸發間隔必須是可以轉換成整秒的正持續時間。 已收到 <actual> 秒的資訊。
TUPLE_IS_EMPTY
由於 Scala 對 tuple 的支援有限,因此不支援空的 tuple。
TUPLE_SIZE_EXCEEDS_LIMIT
由於 Scala 對 Tuple 的支援有限,因此不支援具有超過 22 個元素的 Tuple。
UC_BUCKETED_TABLES
Unity 目錄中不支援貯體數據表。
UC_CATALOG_NAME_NOT_PROVIDED
針對 Unity 目錄,請明確指定目錄名稱。 例如 SHOW GRANT your.address@email.com ON CATALOG main。
UC_COMMAND_NOT_SUPPORTED
Unity Catalog 不支援指令 <commandName>。
如需詳細資訊,請參閱 UC_COMMAND_NOT_SUPPORTED
UC_COMMAND_NOT_SUPPORTED_IN_SERVERLESS
命令 <commandName> 對於在無伺服器中的 Unity Catalog 叢集不受支援。 請改用單一使用者或共用叢集。
UC_COMMAND_NOT_SUPPORTED_IN_SHARED_ACCESS_MODE
命令(s): <commandName> 在共用存取模式中不支援 Unity 目錄叢集。 請改用單一使用者存取模式。
UC_CONNECTION_NOT_FOUND_FOR_FILE_SYSTEM_SOURCE_ACCESS
評估<path>後,無法找到有效的 UC 連線以存取<connectionNames>。
請確定至少有一個有效的UC連線可供存取目標路徑。
連線評估中的詳細錯誤:
<connectionErrors>
UC_CREDENTIAL_PURPOSE_NOT_SUPPORTED
不支援指定的認證種類。
UC_DATASOURCE_NOT_SUPPORTED
Unity 目錄中不支援數據來源格式 <dataSourceFormatName> 。
UC_DATASOURCE_OPTIONS_NOT_SUPPORTED
Unity 目錄中不支援數據源選項。
UC_DEPENDENCY_DOES_NOT_EXIST
Unity 目錄中不存在依賴項:
<errorMessage>
UC_EXTERNAL_VOLUME_MISSING_LOCATION
LOCATION 子句必須針對外部磁碟區存在。 請檢查語法 'CREATE EXTERNAL VOLUME...LOCATION ...'用來建立外部體積。
UC_FAILED_PROVISIONING_STATE
查詢失敗,因為它嘗試參考數據表 <tableName> ,但無法這麼做: <failureReason>。 請更新數據表 <tableName> ,以確保它處於作用中布建狀態,然後再次重試查詢。
UC_FILE_SCHEME_FOR_TABLE_CREATION_NOT_SUPPORTED
不支援在 Unity Catalog 使用檔案方案 <schemeName> 建立資料表。
相反地,請使用相同數據表提供者的 命令建立同盟數據源連線 CREATE CONNECTION ,然後根據與 CREATE FOREIGN CATALOG 命令的連線建立目錄,以參考該處的數據表。
UC_HIVE_METASTORE_DISABLED_EXCEPTION
該操作嘗試使用 Hive Metastore<identifier>,但因你的帳號或工作區關閉了舊有存取權限而被停用。 請仔細檢查目前會話中的預設目錄和預設命名空間設定。 如果您需要存取Hive中繼存放區,請要求系統管理員透過 Unity 目錄設定 Hive 中繼存放區同盟。
UC_HIVE_METASTORE_FEDERATION_CROSS_CATALOG_VIEW_NOT_SUPPORTED
Hive 中繼存放區同盟檢視不支援跨多個目錄的相依性。 Hive中繼存放區聯合目錄中的檢視<view>必須依賴於hive_metastore或spark_catalog目錄中的項目,但其依賴項<dependency>位於另一個目錄<referencedCatalog>中。 請更新相依性以滿足此條件約束,然後再次重試您的查詢或命令。
UC_HIVE_METASTORE_FEDERATION_NOT_ENABLED
此叢集上未啟用Hive中繼存放區同盟。
此叢集不支援存取目錄<catalogName>
UC_INVALID_DEPENDENCIES
相 <securable> 依性會在剖析為 <storedDeps> 時記錄為 <parsedDeps>。 這可能是透過不當使用非 SQL API 所發生。
更多詳情請參見 UC_INVALID_DEPENDENCIES
UC_INVALID_NAMESPACE
Unity 目錄中不支援巢狀或空白命名空間。
UC_INVALID_REFERENCE
無法在 Unity Catalog 對象 <name> 中參考非Unity-Catalog 物件。
UC_LAKEHOUSE_FEDERATION_WRITES_NOT_ALLOWED
此叢集上的提供者 <provider> 未啟用 Unity Catalog Lakehouse 同盟寫入支援。
UC_LOCATION_FOR_MANAGED_VOLUME_NOT_SUPPORTED
受控磁碟分區不接受 LOCATION 子句。 請檢查語法 'CREATE VOLUME ...' 用於建立受管理磁碟區。
UC_NOT_ENABLED
此叢集上未啟用 Unity 目錄。
UC_QUERY_FEDERATION_NOT_ENABLED
此叢集上未啟用 Unity 目錄查詢同盟。
UC_RESOLVED_DBFS_PATH_MISMATCH
查詢失敗,因為它嘗試參考 <objectType> <name> ,但無法這麼做:已解析的 DBFS 路徑 <resolvedHmsPath> 不符合 Unity 目錄儲存位置 <ucStorageLocation>。
UC_SECRETS_未啟用
尚未啟用對 Unity Catalog Secrets 的支援。
UC_SECRET_ALREADY_EXISTS (假若說明是必需的,以便使用者理解,可以提供中文註釋,但如果這是未翻譯的錯誤代碼,則原封不動保留。)
無法建立秘密 <name> ,因為它已經存在。
選擇不同的名稱、卸除或取代現有的物件,或新增 IF NOT EXISTS 子句以容許預先存在的物件。
UC_SECRET_NOT_FOUND
秘密 <name> 不存在。 使用 'SHOW SECRETS' 列出可用的秘密。
UC_SERVICE_CREDENTIALS_NOT_ENABLED
此叢集上未啟用服務認證。
UC_資料表_元資料_不同步
無法查詢表格 <tableName> ,因為目錄中的表格元資料不同步。 先執行「MSK REPAIR TABLE <tableName> SYNC METADATA」同步元資料,以修復資料表。
UC_UNCAUGHT_CLIENT_EXCEPTION: 未捕獲的客戶端例外狀況
在與 Databricks Unity Catalog 後端通訊時遇到了意外的 HTTP 錯誤。 錯誤代碼: <errCode>。 訊息:<message>
UC_VOLUMES_NOT_ENABLED
此實例上未啟用 Unity 目錄磁碟區的支援。
UC_卷不支持
此操作不支援磁碟區。 指定的路徑是「<path>」。
UC_VOLUMES_SHARING_NOT_ENABLED
此實例上未啟用磁碟區共享的支援。
UC_VOLUME_NOT_FOUND
磁碟 <name> 區不存在。 請使用 『SHOW VOLUMES' 列出可用的磁碟區。
UDF_ENVIRONMENT_ERROR
由於系統錯誤,無法安裝 <udfName> 的 UDF 相依性。
如需詳細資訊,請參閱 UDF_ENVIRONMENT_ERROR
UDF_ENVIRONMENT_USER_ERROR
無法安裝 <udfName>的 UDF 相依性。
如需詳細資訊,請參閱 UDF_ENVIRONMENT_USER_ERROR
UDF_ERROR
SQLSTATE:未指派
功能 <fn> 執行失敗
如需詳細資訊,請參閱 UDF_ERROR
UDF_LIMITS
一或多個 UDF 限制遭到違反。
如需詳細資訊,請參閱 UDF_LIMITS
UDF_MAX_COUNT_EXCEEDED
超過整個查詢 UDF 的 <maxNumUdfs> UDF 限制(在公開預覽期間有限)。 找到 <numUdfs>。 UDF 為: <udfNames>。
UDF_PYSPARK_ERROR
Python 工作程序意外地結束
如需詳細資訊,請參閱 UDF_PYSPARK_ERROR
UDF_PYSPARK_UNSUPPORTED_TYPE
PySpark UDF <udf> (<eval-type>) 不支援在共享存取模式下的叢集。
UDF_PYSPARK_USER_CODE_ERROR
執行失敗。
如需詳細資訊,請參閱 UDF_PYSPARK_USER_CODE_ERROR
UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE
用戶定義 <functionType> 函數不支持參數預設值。
UDF_USER_CODE_ERROR
函式的執行 <fn> 失敗。
如需詳細資訊,請參閱 UDF_USER_CODE_ERROR
UDTF_ALIAS_NUMBER_MISMATCH
該子句中提供的 AS 別名數量與 UDTF 輸出的欄位數不符。
預期得到 <aliasesSize> 別名,但卻得到 <aliasesNames>。
請確定提供的別名數目符合UDTF輸出的數據行數目。
UDTF_INVALID_ALIAS_IN_REQUESTED_ORDERING_STRING_FROM_ANALYZE_METHOD
無法評估使用者定義數據表函式,因為其 'analyze' 方法傳回要求的 OrderingColumn,其數據行名稱表達式包含不必要的別名;請移除此別名 <aliasName>,然後再試一次查詢。
UDTF_INVALID_REQUESTED_SELECTED_EXPRESSION_FROM_ANALYZE_METHOD_REQUIRES_ALIAS
無法評估使用者定義數據表函式,因為其 'analyze' 方法傳回要求的 'select' 表達式 (<expression>) 不包含對應的別名;請更新 UDTF 以指定該處的別名,然後再試一次查詢。
UNABLE_TO_CONVERT_TO_PROTOBUF_MESSAGE_TYPE
無法將 SQL 類型 <toType> 轉換為 Protobuf 類型 <protobufType>。
UNABLE_TO_FETCH_HIVE_TABLES
無法擷取Hive資料庫的數據表: <dbName>。 錯誤類別名稱: <className>。
無法推斷管線表格結構
無法從其上游流程推斷數據表 <tableName> 的架構。
請修改寫入此數據表的流程,使其架構相容。
到目前為止,推斷的架構:
<inferredDataSchema>
不相容的結構描述:
<incompatibleDataSchema>
UNABLE_TO_INFER_SCHEMA
無法推論 <format> 的架構。 必須手動指定。
未經驗證
此要求缺乏有效的認證憑證以執行操作。
UNAUTHORIZED_ACCESS
未經授權的存取:
<report>
UNBOUND_SQL_PARAMETER
找到未系結的參數: <name>。 請修正 args 並提供參數映射到 SQL 字面或集合建構函式(如 map(), array(), struct())。
UNCLOSED_BRACKETED_COMMENT
找到未封閉的括號批注。 請在註尾附加 */ 。
UNEXPECTED_INPUT_TYPE
函式<paramIndex>的參數<functionName>需要<requiredType>型別,但是<inputSql>具有<inputType>型別。
UNEXPECTED_INPUT_TYPE_OF_NAMED_PARAMETER
函 <namedParamKey> 式的參數 <functionName> 需要 <requiredType> 型別,不過 <inputSql> 具有 型別 <inputType>。<hint>
UNEXPECTED_OPERATOR_IN_STREAMING_VIEW
在<op>語句中,CREATE VIEW非預期運算符是作為串流來源的。
串流視圖查詢必須僅包含 SELECT, WHERE 和 UNION ALL 操作。
UNEXPECTED_POSITIONAL_ARGUMENT
無法叫用例程 <routineName> ,因為它包含指派給 <parameterName>的具名自變數之後的位置自變數;請重新排列這些自變數,讓位置自變數先進行,然後再重試查詢。
UNEXPECTED_SERIALIZER_FOR_CLASS
<className>類別具有非預期的表達式串行化程式。 預期「STRUCT」或「IF」會傳回「STRUCT」,但找到<expr>。
UNION_NOT_SUPPORTED_IN_RECURSIVE_CTE
遞歸通用表達式中尚不支援 UNION 運算子(WITH 子句直接或間接參考自身)。 請改用 UNION ALL。
唯一約束_DISABLED
唯一約束特性已停用。 若要啟用它,請將 「spark.databricks.sql.dsv2.unique.enabled」 設定為 true。
UNKNOWN_FIELD_EXCEPTION
在剖析過程中遇到 <changeType>:<unknownFieldBlob>,可以透過自動重試修復:<isRetryable>
如需詳細資訊,請參閱 UNKNOWN_FIELD_EXCEPTION
UNKNOWN_POSITIONAL_ARGUMENT
例程<routineName>的調用包含位於 位置<sqlExpr>的未知位置自變數<pos>。 這無效。
UNKNOWN_PRIMITIVE_TYPE_IN_VARIANT
在 Variant 值中找到未知標識碼 <id> 的基本型別。
UNKNOWN_PROTOBUF_MESSAGE_TYPE
嘗試將 <descriptorName> 當作訊息處理,但它實際上是 <containingType>。
UNPIVOT_REQUIRES_ATTRIBUTES
UNPIVOT要求當沒有<given>表示式時,所有給定的<empty>表達式都必須是欄位。 這些不是欄位:[<expressions>]。
UNPIVOT_REQUIRES_VALUE_COLUMNS
至少必須針對 指定為 UNPIVOTid的所有資料行指定一個值數據行。
UNPIVOT_VALUE_DATA_TYPE_MISMATCH
取消樞紐值數據行必須共用最不常見的類型,某些類型不會: [<types>]。
UNPIVOT_VALUE_SIZE_MISMATCH
所有未透視值欄都應擁有與值欄名稱 (<names>) 相同的大小。
UNRECOGNIZED_PARAMETER_NAME
無法叫用例程 <routineName>,因為例程呼叫中包含名為 <argumentName> 的具名自變數參考,但此例程的簽章不包含任何具有此名稱的自變數。 您的意思是下列其中一項嗎? [<proposal>]。
UNRECOGNIZED_SQL_TYPE
無法辨識的 SQL 類型 - 名稱: <typeName>、識別碼: <jdbcType>。
UNRECOGNIZED_STATISTIC
無法辨識統計數據 <stats> 。 有效的統計數據包括 count, count_distinct, approx_count_distinct, mean, stddev, min, max、 以及百分位數值。 百分位數必須是數值,後面接著 『%』,範圍介於0% 到100%之間。
UNRESOLVABLE_TABLE_VALUED_FUNCTION
無法解析 <name> 為數據表值函式。
請確定 <name> 已定義為數據表值函式,並且已正確提供所有必要的參數。
如果未 <name> 定義,請先建立數據表值函式,再使用它。
如需定義數據表值函式的詳細資訊,請參閱 Apache Spark 檔。
UNRESOLVED_ALL_IN_GROUP_BY
無法根據 select 子句推斷群組欄位GROUP BY ALL。 請明確指定分組欄位。
UNRESOLVED_COLUMN
無法解析具有名稱 <objectName> 的數據行、變數或函式參數。
如需詳細資訊,請參閱 UNRESOLVED_COLUMN
未解析的欄位名稱中列出未決定的欄位
無法在 (<fieldNames>) 中找到欄位名稱 "<colName>"。
UNRESOLVED_FIELD
名為 <fieldName> 的欄位無法通過結構類型欄位 <columnPath>解析。
如需詳細資訊,請參閱 UNRESOLVED_FIELD
UNRESOLVED_INSERT_REPLACE_USING_COLUMN
REPLACE USING 欄 <colName> 在 <relationType> 中無法解析。
您是否指下列其中一個欄位? [<suggestion>]。
UNRESOLVED_MAP_KEY
無法將列 <objectName> 解析為對應索引鍵。 如果鍵是字串字面值,請在其周圍新增單引號 ''。
如需詳細資訊,請參閱 UNRESOLVED_MAP_KEY
UNRESOLVED_ROUTINE
無法解析搜尋路徑 <routineName>上的例程<searchPath>。
確認 <routineName> 的拼字,檢查例程是否存在,並確認您具有 USE 目錄與架構的許可權,以及在例程上的 EXECUTE 許可權。
如需詳細資訊,請參閱 UNRESOLVED_ROUTINE
UNRESOLVED_TABLE_PATH
無法解析數據表 <identifier> 的記憶體路徑。
UNRESOLVED_USING_COLUMN_FOR_JOIN
USING
<colName>無法解析<side>聯結端的數據行。
<side> 端的欄位: [<suggestion>]。
UNRESOLVED_VARIABLE
無法解析搜尋路徑 <variableName>上的變數<searchPath>。
UNSTRUCTURED_DATA_PROCESSING_UNSUPPORTED_FILE_FORMAT
不支援非結構化檔案格式 <format> 。 支援的檔案格式為 <supportedFormats>。
請將format表達式中的<expr>更新為支援的格式之一,然後再次嘗試查詢。
UNSTRUCTURED_DATA_PROCESSING_UNSUPPORTED_MODEL_OPTION
不支援非結構化模型選項('<option>' -> '<value>')。 支援的值包括: <supportedValues>。
切換至其中一個支援的值,然後再次重試查詢。
UNSTRUCTURED_OCR_COLUMN_NOT_ALLOWED_WITH_METADATA_MODEL_OPTION
函數參數 'ocrText' 必須為 NULL 或在指定 'metadataModel' 選項時省略。 指定的 'metadataModel' 選項會觸發元資料擷取,其中禁止提供 'ocrText'。
UNSUPPORTED_ADD_FILE
不支援新增檔案。
如需詳細資訊,請參閱 UNSUPPORTED_ADD_FILE
UNSUPPORTED_ALTER_COLUMN_PARAMETER
不支援<parameter>與ALTER <commandTableType>一起使用。
UNSUPPORTED_ARROWTYPE
不支援的箭號類型 <typeName>。
UNSUPPORTED_BATCH_TABLE_VALUED_FUNCTION
函式 <funcName> 不支援批次查詢。
UNSUPPORTED_CALL
無法呼叫 類別 “” 的 方法 “<methodName><className>”。
如需詳細資訊,請參閱 UNSUPPORTED_CALL
UNSUPPORTED_CHAR_OR_VARCHAR_AS_STRING
無法在數據表架構中使用char/varchar類型。
如果您想要將 Spark 視為與 Spark 3.0 和更早版本的字串類型相同,請將 “spark.sql.legacy.charVarcharAsString” 設定為 “true”。
不支援的字符或VARCHAR排序规则
char/varchar 類型 <type> 不能指定定序。
UNSUPPORTED_CLAUSE_FOR_OPERATION
<clause>不支援 <operation>。
UNSUPPORTED_COLLATION
下列項目不支援定序 <collationName> :
如需詳細資訊,請參閱 UNSUPPORTED_COLLATION
UNSUPPORTED_COMMON_ANCESTOR_LOC_FOR_FILE_STREAM_SOURCE
來源路徑和 sourceArchiveDir 的通用上階應該向 UC 註冊。
如果您看到此錯誤訊息,您可能會在不同的外部位置註冊來源路徑和sourceArchiveDir。
請將它們放入單一外部位置。
UNSUPPORTED_CONNECT_FEATURE
Spark Connect 不支援此功能:
如需詳細資訊,請參閱 UNSUPPORTED_CONNECT_FEATURE
不支持的約束特性
約束特性 '<characteristic>' 不支持約束類型 '<constraintType>'。
UNSUPPORTED_CONSTRAINT_CLAUSES
不支持條件約束子句 <clauses> 。
UNSUPPORTED_CONSTRAINT_TYPE
不支援的條件約束類型。 僅支援 <supportedConstraintTypes>
UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY
不支援直接查詢檔案的資料來源型態: <dataSourceType>
UNSUPPORTED_DATATYPE
不支援的資料類型 <typeName>。
UNSUPPORTED_DATA_SOURCE_SAVE_MODE
資料來源 「<source>無法以 <createMode> 模式寫入」。 請改用 「附加」或「覆寫」模式。
UNSUPPORTED_DATA_TYPE_FOR_DATASOURCE
<format>數據源不支援類型<columnName>的欄位<columnType>。
UNSUPPORTED_DATA_TYPE_FOR_ENCODER
無法建立<dataType>的編碼器。 請針對 UDF 或 DataFrame 使用不同的輸出資料類型。
UNSUPPORTED_DEFAULT_VALUE
不支援 DEFAULT 欄位值。
如需詳細資訊,請參閱 UNSUPPORTED_DEFAULT_VALUE
UNSUPPORTED_DESERIALIZER
不支援反序列化器:
如需詳細資訊,請參閱 UNSUPPORTED_DESERIALIZER
UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
無法建立產生表達式的數據行<fieldName>,因為 <expressionStr>。<reason>
UNSUPPORTED_EXPR_FOR_OPERATOR
查詢運算子包含一或多個不支援的表達式。
請考慮重寫它,以避免子句中的 WHERE 視窗函式、聚合函數和產生器函式。
不合法的表示式: [<invalidExprSqls>]
UNSUPPORTED_EXPR_FOR_PARAMETER
查詢參數包含不支持的表達式。
參數可以是變數或常值。
不合法的表示式: [<invalidExprSql>]
UNSUPPORTED_EXPR_FOR_WINDOW
視窗函式內不支援表達式 <sqlExpr> 。
UNSUPPORTED_FEATURE
不支援此功能:
如需詳細資訊,請參閱 UNSUPPORTED_FEATURE
UNSUPPORTED_FN_TYPE
不支援的使用者定義函式型態: <language>
UNSUPPORTED_GENERATOR
系統不支援此產生器:
如需詳細資訊,請參閱 UNSUPPORTED_GENERATOR
UNSUPPORTED_GROUPING_EXPRESSION
grouping()/grouping_id() 只能與 GroupingSets/Cube/Rollup 搭配使用。
UNSUPPORTED_INITIAL_POSITION_AND_TRIGGER_PAIR_FOR_KINESIS_SOURCE
<trigger> 不支援使用具有初始位置的 Kinesis 來源 <initialPosition>
UNSUPPORTED_INSERT
無法插入目標。
如需詳細資訊,請參閱 UNSUPPORTED_INSERT
UNSUPPORTED_JOIN_TYPE
不支援的聯結類型<typ>。 支援的聯結類型包括: <supported>。
UNSUPPORTED_MANAGED_TABLE_CREATION
不支援使用數據源<tableName>建立受控數據表<dataSource>。 你需要使用資料來源 DELTA 或用 CREATE EXTERNAL TABLE <tableName>...USING <dataSource> ... 建立外部資料表
UNSUPPORTED_MERGE_CONDITION
MERGE 作業包含不支援的 <condName> 條件。
如需詳細資訊,請參閱 UNSUPPORTED_MERGE_CONDITION
不支援的元資料鍵 (UNSUPPORTED_METADATA_KEY)
不支援的元資料鍵號: <key>。 支援按鍵: <supportedKeys>。
UNSUPPORTED_NESTED_ROW_OR_COLUMN_ACCESS_POLICY
數據表 <tableName> 具有數據行層級安全策略或數據列掩碼,間接參考到另一個具有數據行層級安全策略或數據列掩碼的數據表。這是不支援的。 呼叫順序:<callSequence>
不支援的持續記憶體接收器操作
連續記憶體匯不支持作業 <operation>。 如果您要撰寫串流即時模式的測試,請考慮比其他檢查更優先使用 CheckAnswerWithTimeout。
UNSUPPORTED_OVERWRITE
無法覆寫正在被讀取的目標。
如需詳細資訊,請參閱 UNSUPPORTED_OVERWRITE
UNSUPPORTED_PARTITION_TRANSFORM
不支援的分區轉換:<transform>。 所支持的變換為 identity, bucket、 clusterBy和 。 請確定您的轉換表示式會使用下列其中一項。
不支持的管道_SPARK_SQL_命令
在 Spark 宣告式管線的 spark.sql("...") API 中,不支援「<command>」。
不支援的程序排序規則
程式 <procedureName> 必須指定或繼承 DEFAULT COLLATION UTF8_BINARY。 請使用 CREATE PROCEDURE <procedureName> (...) DEFAULT COLLATION UTF_BINARY ...。
UNSUPPORTED_SAVE_MODE
不支援儲存模式 <saveMode> :
如需詳細資訊,請參閱 UNSUPPORTED_SAVE_MODE
UNSUPPORTED_SHOW_CREATE_TABLE
不支援 SHOW CREATE TABLE 命令。
如需詳細資訊,請參閱 UNSUPPORTED_SHOW_CREATE_TABLE
UNSUPPORTED_SINGLE_PASS_ANALYZER_FEATURE
單一傳遞分析器無法處理此查詢或命令,因為它尚不支援<feature>。
UNSUPPORTED_SQL_UDF_USAGE
不支援在<functionName>中使用 SQL 函式<nodeName>。
UNSUPPORTED_STREAMING_OPERATOR_WITHOUT_WATERMARK
<outputMode> 在沒有水位的串流資料框架/資料集上不支援 <statefulOperator> 輸出模式。
UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
不支援串流檢視。 Reason:
如需詳細資訊,請參閱 UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED
共用叢集上的數據源<options>不支援串流選項<source>。 請確認選項的指定與拼寫正確<prefixHint>,並檢查 https://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode 是否有限制。
UNSUPPORTED_STREAMING_SINK_PERMISSION_ENFORCED
共用叢集上的數據流接收不支持數據源 <sink> 。
UNSUPPORTED_STREAMING_SOURCE_PERMISSION_ENFORCED
共用叢集上的數據流來源不支持數據源 <source> 。
UNSUPPORTED_STREAMING_TABLE_VALUED_FUNCTION
函式 <funcName> 不支援串流。 請移除 STREAM 關鍵詞
UNSUPPORTED_STREAM_READ_LIMIT_FOR_KINESIS_SOURCE
<streamReadLimit> 不支援 Kinesis 來源
UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
不支援的子查詢表示式:
如需詳細資訊,請參閱 UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
不支援的表格變更於自動模型演變中
表格上的目錄<changes>不支援這些表格變更<tableName>。
UNSUPPORTED_TABLE_CHANGE_IN_JDBC_CATALOG
在資料表<change>上的 JDBC 目錄不支援表格變更<tableName>。 支持的變更包括:AddColumn、RenameColumn、DeleteColumn、UpdateColumnType、UpdateColumnNullability。
UNSUPPORTED_TIMESERIES_COLUMNS
不支援使用時間序列欄建立主鍵
UNSUPPORTED_TIMESERIES_WITH_MORE_THAN_ONE_COLUMN
不支援使用多個時間序列欄 <colSeq> 建立主鍵
UNSUPPORTED_TIME_PRECISION
TIME 數據類型的秒精確度 <precision> 超出支援的範圍 [0, 6]。
UNSUPPORTED_TIME_TYPE
不支援數據類型 TIME。
UNSUPPORTED_TRIGGER_FOR_KINESIS_SOURCE
<trigger> 不支援 Kinesis 來源
UNSUPPORTED_TYPED_LITERAL
不支援此類型 <unsupportedType> 的常值。 支援的型別為 <supportedTypes>。
UNSUPPORTED_UDF_FEATURE
使用<function>函式時,需要使用下列功能,這些功能需要更新版本的 Databricks 執行環境:<features>。 如需詳細資訊,請參閱 <docLink> 。
UNSUPPORTED_UDF_TYPES_IN_SAME_PLACE
UDF 類型不能一起使用:<types>
UNTYPED_SCALA_UDF
您使用的是不具類型的 Scala UDF,其沒有輸入類型資訊。
Spark可能會盲目地將null傳遞給具有原始類型參數的Scala閉包,閉包會看到null參數的Java類型的預設值,例如, udf((x: Int) => x, IntegerType)null輸入的結果為0。 若要擺脫此錯誤,您可以:
使用類型化的 Scala UDF API(不含傳回類型參數),例如
udf((x: Int) => x)。例如,
udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType)如果輸入類型都是非基本類型,請使用 Java UDF API。將 「spark.sql.legacy.allowUntypedScalaUDF」 設定為 “true”,並謹慎使用此 API。
UPGRADE_NOT_SUPPORTED
數據表不具從 Hive Metastore 升級至 Unity Catalog 的資格。 Reason:
如需詳細資訊,請參閱 UPGRADE_NOT_SUPPORTED
USER_DEFINED_FUNCTIONS
使用者定義函數無效:
如需詳細資訊,請參閱 USER_DEFINED_FUNCTIONS
USER_RAISED_EXCEPTION
<errorMessage>
USER_RAISED_EXCEPTION_PARAMETER_MISMATCH
raise_error() 函數用於產生錯誤類別:<errorClass>,預期參數:<expectedParms>。
所提供的參數 <providedParms> 不符合預期的參數。
請務必提供所有預期的參數。
USER_RAISED_EXCEPTION_UNKNOWN_ERROR_CLASS
函式 raise_error() 被用來引發未知的錯誤類別:<errorClass>
使用者指定與實際結構不匹配
使用者指定的結構與實際架構不符:
使用者指定: <schema>,實際: <actualSchema>。 如果你正在使用
DataFrameReader.schema API 或建立資料表時,請不要指定 schema。
如果您正在掃描現有的表格,則可以刪除並重新建立該表格。
No changes needed; keep the original translation as is.
表格 '<tableName>' 具有與架構不相容的使用者指定的架構
從其查詢中推斷。
<streamingTableHint>
宣告的結構描述:
<specifiedSchema>
推斷的結構描述:
<inferredDataSchema>
在定義者儲存程序中使用目錄結構不支持
不支援在 SQL SECURITY DEFINER 儲存程序中設定目錄或結構。
VARIABLE_ALREADY_EXISTS
無法建立變數 <variableName> ,因為它已經存在。
選擇不同的名稱,或卸除或取代現有的變數。
VARIABLE_NOT_FOUND
找不到變數 <variableName> 。 確認架構和目錄的拼字和正確性。
如果您未使用架構和目錄來限定名稱,請確認current_schema() 輸出,或使用正確的架構和目錄來限定名稱。
若要容許卸除操作時發生錯誤,請使用 DROP VARIABLE IF EXISTS。
VARIANT_CONSTRUCTOR_SIZE_LIMIT
無法建構大於 16 MiB 的 Variant。 Variant 值允許的大小上限為 16 MiB。
VARIANT_DUPLICATE_KEY
因為物件索引鍵 <key>重複,無法建置變體。
VARIANT_SIZE_LIMIT
無法建置在 <sizeLimit> 中大於 <functionName> 的變體。
請避免為此運算式提供過大的輸入字串(例如,可以新增函數調用來檢查運算式的大小,若過大則先將其轉換為NULL)。
VERSIONED_CLONE_UNSUPPORTED_TABLE_FEATURE
源數據表歷程記錄包含此 DBR 版本中版本複製不支援的數據表功能: <unsupportedFeatureNames>。
請升級至較新的 DBR 版本。
VIEW_ALREADY_EXISTS
無法建立檢視 <relationName> ,因為它已經存在。
選擇不同的名稱、卸除或取代現有的物件,或新增 IF NOT EXISTS 子句以容許預先存在的物件。
VIEW_EXCEED_MAX_NESTED_DEPTH
檢視深度超過最大檢視 <viewName> 解析度深度 (<maxNestedDepth>)。
分析已中止以避免錯誤。 如果您想要解決此問題,請嘗試增加 「spark.sql.view.maxNestedViewDepth」 的值。
VIEW_NOT_FOUND
找不到檢視 <relationName> 。 確認架構和目錄的拼字和正確性。
如果您未使用架構限定名稱,請確認current_schema() 輸出,或使用正確的架構和目錄來限定名稱。
若要容許卸除操作時發生錯誤,請使用 DROP VIEW IF EXISTS。
VOLUME_ALREADY_EXISTS
無法建立磁碟區 <relationName> ,因為它已經存在。
選擇不同的名稱、卸除或取代現有的物件,或新增 IF NOT EXISTS 子句以容許預先存在的物件。
水印進階策略
串流水印推進策略有下列限制:
如需詳細資訊,請參閱 WATERMARK_ADVANCEMENT_STRATEGY
WINDOW_FUNCTION_AND_FRAME_MISMATCH
<funcName> 函式只能在具有單一位移的已排序數據列式視窗框架中進行評估: <windowExpr>。
WINDOW_FUNCTION_WITHOUT_OVER_CLAUSE
Window 函式 <funcName> 需要 OVER 子句。
WITH_CREDENTIAL
WITH CREDENTIAL 語法不被支持於 <type>。
WRITE_STREAM_NOT_ALLOWED
writeStream 只能在串流數據集/數據框架上呼叫。
WRONG_COLUMN_DEFAULTS_FOR_DELTA_ALTER_TABLE_ADD_COLUMN_NOT_SUPPORTED
無法執行命令,因為在新增時不支援DEFAULT值
新增欄位至先前已有的 Delta 資料表;請新增沒有預設值的欄位。
首先設定值,然後執行第二個 ALTER TABLE ALTER COLUMN SET DEFAULT 命令以套用。
改為針對未來插入的列。
WRONG_COLUMN_DEFAULTS_FOR_DELTA_FEATURE_NOT_ENABLED
無法執行 <commandType> 命令,因為它已指派數據行 DEFAULT 值,
但未啟用對應的數據表功能。 請再次重試命令
之後執行 ALTER TABLE tableName SET
TBLPROPERTIES('delta.feature.allowColumnDefaults' = 'supported')。
WRONG_COMMAND_FOR_OBJECT_TYPE
工作 <operation> 需要 <requiredType>。 但 <objectName> 是 <foundType>。 請改用 <alternative>。
WRONG_NUM_ARGS
<functionName> 所需參數為 <expectedNum>,但實際數量是 <actualNum>。
如需詳細資訊,請參閱 WRONG_NUM_ARGS
XML_ROW_TAG_MISSING
<rowTag> 讀取/寫入 XML 格式的檔案是需要選項的。
XML_UNSUPPORTED_NESTED_TYPES
XML 不支援 <innerDataType> 作為 <dataType> 的內部類型。 請在<innerDataType>內使用<dataType>時,將<dataType>包裝在 StructType 欄位中。
XML_WILDCARD_RESCUED_DATA_CONFLICT_ERROR
不能同時啟用救援資料和通配符欄位。 移除 wildcardColumnName 選項。
ZORDERBY_COLUMN_DOES_NOT_EXIST
ZOrderBy 數據行 <columnName> 不存在。
三角洲湖
DELTA_ACTIVE_SPARK_SESSION_NOT_FOUND
找不到使用中的SparkSession。
DELTA_ACTIVE_TRANSACTION_ALREADY_SET
當已有 txn 處於作用狀態時,無法設定新的 txn 為作用中。
DELTA_ADDING_COLUMN_WITH_INTERNAL_NAME_FAILED
無法新增資料行 <colName> ,因為名稱已保留。
DELTA_ADDING_DELETION_VECTORS_DISALLOWED
這次操作嘗試將刪除向量新增到不允許建立新刪除向量的資料表。 請提出錯誤報告。
DELTA_ADDING_DELETION_VECTORS_WITH_TIGHT_BOUNDS_DISALLOWED
新增刪除向量的所有作業都應該將統計數據中的 tightBounds 數據行設定為 false。 請提出錯誤報告。
DELTA_ADD_COLUMN_AT_INDEX_LESS_THAN_ZERO
欲加入的欄位<columnIndex>,其索引<columnName>低於 0。
DELTA_ADD_COLUMN_PARENT_NOT_STRUCT
無法新增 <columnName> ,因為其父代不是 StructType。 找到 <other>。
DELTA_ADD_COLUMN_STRUCT_NOT_FOUND
在位置 <position>找不到結構。
DELTA_ADD_CONSTRAINTS
請使用 ALTER TABLE ADD CONSTRAINT 來新增 CHECK 條件約束。
DELTA_AGGREGATE_IN_CHECK_CONSTRAINT
在<sqlExpr>限制條件中發現CHECK。 限制中不允許 CHECK 使用聚合表達式。
DELTA_AGGREGATE_IN_GENERATED_COLUMN
找到 <sqlExpr>。 產生的數據行無法使用匯總表達式。
DELTA_AGGREGATION_NOT_SUPPORTED
中 <operation> <predicate>不支援聚合函數。
DELTA_ALTER_COLLATION_NOT_SUPPORTED_BLOOM_FILTER
無法變更欄 <column> 的排序規則,因為它具有布隆過濾器索引。 請保留現有的定序,或卸除 Bloom 過濾器索引,之後再次嘗試該命令以變更定序。
DELTA_ALTER_COLLATION_NOT_SUPPORTED_CLUSTER_BY
無法變更數據行的 <column> 定序,因為它是叢集數據行。 請保留現有的定序,或者使用 ALTER TABLE 命令將欄位變更為非叢集欄,然後再嘗試重新執行命令以變更定序。
DELTA_ALTER_TABLE_CHANGE_COL_NOT_SUPPORTED
ALTER TABLE CHANGE COLUMN 不支援將資料行 <currentType> 變更為 <newType>。
DELTA_ALTER_TABLE_CLUSTER_BY_NOT_ALLOWED
ALTER TABLE CLUSTER BY 僅支援具有 Liquid 叢集的 Delta 數據表。
DELTA_ALTER_TABLE_CLUSTER_BY_ON_PARTITIONED_TABLE_NOT_ALLOWED
ALTER TABLE CLUSTER BY 無法套用至分割表。
DELTA_ALTER_TABLE_RENAME_NOT_ALLOWED
不允許作業: ALTER TABLE RENAME 在 S3 上的受控 Delta 表中不允許進行 TO 作業,因為 S3 上的最終一致性可能會損毀 Delta 交易日誌。 如果您堅持這樣做,並確定之前從未有過具有新名稱 <newName> 的 Delta 數據表,您可以藉由將 設定 <key> 為 true 來啟用此功能。
DELTA_ALTER_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
無法通過 <tableFeature> 啟用 ALTER TABLE SET TBLPROPERTIES 資料表功能。 請使用 CREATE OR REPLACE TABLE CLUSTER BY 建立具有叢集的 Delta 資料表。
DELTA_更改表_設置_管理_複製_或_移動_必需
外來表<table>需要指定ALTER TABLE ... SET MANAGED或COPY的資料或執行MOVE操作。
DELTA_ALTER_TABLE_SET_MANAGED_DOES_NOT_SUPPORT_UNIFORM_ICEBERG
ALTER TABLE ... SET MANAGED 不支援統一 Apache Iceberg 表格。 停用 Uniform 或使用 SET MANAGED TRUNCATE UNIFORM HISTORY。
DELTA_ALTER_TABLE_SET_MANAGED_FAILED
ALTER TABLE <table> SET MANAGED 失敗。
如需詳細資訊,請參閱 DELTA_ALTER_TABLE_SET_MANAGED_FAILED
DELTA_ALTER_TABLE_SET_MANAGED_NOT_ENABLED
ALTER TABLE
...
SET MANAGED 指令未啟用。 請連絡 Databricks 支援小組以取得協助。
DELTA_ALTER_TABLE_SET_MANAGED_TABLE_NOT_MIGRATABLE (無法遷移的管理表設定)
ALTER TABLE <table> SET MANAGED 無法遷移給定的表格。
確認資料表狀態有效,然後重新嘗試指令。 如果問題持續,請聯絡 Databricks 客服。
更多詳情請參見 DELTA_ALTER_TABLE_SET_MANAGED_TABLE_NOT_MIGRATABLE
DELTA_ALTER_TABLE_SET_MANAGED_UNSUPPORTED_COPY_MOVE_SYNTAX
ALTER TABLE ... SET MANAGED [COPY | MOVE] 不支援 table <table>的語法。 請改用 ALTER TABLE ... SET MANAGED。
DELTA_ALTER_TABLE_SET_MANAGED_UNSUPPORTED_FOREIGN_TABLE
不支援將外來表 <table> 移轉至 UC 受管理的表格:<errorMessage>。
DELTA_ALTER_TABLE_UNSET_MANAGED_DOES_NOT_SUPPORT_COMPATIBILITY_MODE
ALTER TABLE ... UNSET MANAGED 不支援啟用相容模式的表格。
執行此指令前,請先在表格上關閉相容模式。
DELTA_ALTER_TABLE_UNSET_MANAGED_DOES_NOT_SUPPORT_UNIFORM
ALTER TABLE ... UNSET MANAGED 不支援Uniform。 停用 Uniform 或使用 UNSET MANAGED TRUNCATE UNIFORM HISTORY。
DELTA_ALTER_TABLE_UNSET_MANAGED_FAILED
<table> 無法從 Managed 回復至外部數據表。
如需詳細資訊,請參閱 DELTA_ALTER_TABLE_UNSET_MANAGED_FAILED
DELTA_ALTER_TABLE_UNSET_MANAGED_NOT_ENABLED
ALTER TABLE
...
UNSET MANAGED 指令未啟用。 請連絡 Databricks 支援小組以取得協助。
DELTA_AMBIGUOUS_DATA_TYPE_CHANGE
無法將的 <column> 資料類型從 <from> 變更為 <to>。 這項更改包含列的移除和新增,因此它們是不明確的。 請ALTER TABLE個別使用DROP | RENAME [ADD | COLUMN]進行這些變更。
DELTA_AMBIGUOUS_PARTITION_COLUMN
含糊不清的分區欄 <column> 可以是 <colMatches>。
DELTA_AMBIGUOUS_PATHS_IN_CREATE_TABLE
CREATE TABLE 包含兩個不同的位置: <identifier> 和 <location>。
您可以從語句中移除 LOCATION 子句 CREATE TABLE ,或設定
<config> 設為 true 以略過此檢查。
DELTA_ARCHIVED_FILES_IN_LIMIT
數據表<table>未在未封存的檔案中包含足夠的記錄,以滿足指定的LIMIT記錄。
DELTA_ARCHIVED_FILES_IN_SCAN
在數據表<numArchivedFiles>中找到<table>可能已封存的檔案,這些檔案需要作為此查詢的一部分進行掃描。
無法存取封存檔案。 目前距離封存的時間設定為 <archivalTime>。
請調整查詢篩選條件,以排除任何封存的檔案。
DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION
當數據表已啟用變更資料摘要 (CDF) 且已使用 <opName> 或 DROP COLUMN進行架構變更時,不允許作業 “RENAME COLUMN ”
DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS
無法移除下列不存在欄位的 bloom 篩選索引:<unknownColumns>。
DELTA_BLOOM_FILTER_OOM_ON_WRITE
OutOfMemoryError 發生於寫入下列欄位的 Bloom 篩選器索引時:<columnsWithBloomFilterIndices>。
您可以為 'numItems' 選項選擇較小的值、為 'fpp' 選項指定較大的值,或為較少的數據行編製索引,以減少 bloom 篩選索引的記憶體使用量。
DELTA_CANNOT_CHANGE_DATA_TYPE
無法變更數據類型: <dataType>。
DELTA_CANNOT_CHANGE_LOCATION
無法使用 SET TBLPROPERTIES 來變更 Delta 數據表的位置。 請改用 ALTER TABLE SET LOCATION。
DELTA_CANNOT_CHANGE_PROVIDER
'provider' 是保留的數據表屬性,而且無法改變。
DELTA_CANNOT_CREATE_BLOOM_FILTER_NON_EXISTING_COL
無法為下列不存在的欄位建立 bloom 篩選索引: <unknownCols>。
DELTA_CANNOT_CREATE_LOG_PATH
無法建立 <path>。
DELTA_CANNOT_DESCRIBE_VIEW_HISTORY
無法描述檢視的歷程記錄。
DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN
無法刪除非索引欄位上的 bloom 篩選索引:<columnName>。
DELTA_CANNOT_DROP_CHECK_CONSTRAINT_FEATURE
無法卸除 CHECK 條件約束數據表功能。
必須先卸除下列條件約束: <constraints>。
DELTA_CANNOT_DROP_COLLATIONS_FEATURE
無法卸除定序數據表功能。
具有非預設校對順序的數據行必須先變更為使用 UTF8_BINARY:<colNames>。
DELTA_無法從受管控的ICEBERG表格中刪除領域中繼資料功能
無法捨棄domainMetadata資料表功能。 Table <name> 是一個受管理的 Apache Iceberg 表格。 DomainMetadata 無法從受管理的 Apache Iceberg 資料表中刪除。
DELTA_不可刪除_地理空間功能
無法卸除地理空間數據表功能。 重新建立具有 geometry/geography 類型的數據表或刪除這些欄位:<colNames> 然後再試一次。
DELTA 無法刪除變體功能
DROP FEATURE <feature> 但未能成功。 無法移除變體表格功能。 變體欄位必須先捨棄: <colNames>。
DELTA_CANNOT_EVALUATE_EXPRESSION
無法評估表達式: <expression>。
DELTA_CANNOT_FIND_BUCKET_SPEC
期望找到分桶的 Delta 表,但無法在表中找到分桶規格。
DELTA_CANNOT_GENERATE_CODE_FOR_EXPRESSION
無法產生表達式的程式代碼: <expression>。
DELTA_CANNOT_MODIFY_APPEND_ONLY
此資料表設定為只允許附加。 如果你想允許更新或刪除,請使用 'ALTER TABLE <table_name> SET TBLPROPERTIES (<config>=false)'。
DELTA_CANNOT_MODIFY_CATALOG_OWNED_DEPENDENCIES
無法覆寫或取消設定提交時間戳屬性,因為此資料表由資料目錄擁有。 從 TBLPROPERTIES 子句中移除 「delta.enableInCommitTimestamps」、“delta.inCommitTimestampEnablementVersion”和 “delta.inCommitTimestampEnablementTimestamp”,然後重試命令。
DELTA_CANNOT_MODIFY_COORDINATED_COMMITS_DEPENDENCIES
<Command> 無法覆寫或取消設定正在認可中使用的時間戳資料表屬性,因為此資料表已啟用了協調認可並依賴於這些屬性。 請從 TBLPROPERTIES 子句中移除它們 (“delta.enableInCommitTimestamps”、“delta.inCommitTimestampEnablementVersion”、“delta.inCommitTimestampEnablementTimestamp”),然後再次重試命令。
DELTA_CANNOT_MODIFY_TABLE_PROPERTY
用戶無法指定 Delta 資料表組態 <prop> 。
DELTA_CANNOT_OVERRIDE_COORDINATED_COMMITS_CONFS
<Command> 無法覆寫現有目標數據表的協調認可組態。 請從 TBLPROPERTIES 子句中移除它們 (“delta.coordinatedCommits.commitCoordinator-preview”、“delta.coordinatedCommits.commitCoordinatorConf-preview”、“delta.coordinatedCommits.tableConf-preview”),然後再次重試命令。
DELTA_CANNOT_RECONSTRUCT_PATH_FROM_URI
在事務歷史記錄中找到無法轉換成相對路徑的 URI (<uri>)。
DELTA_CANNOT_RELATIVIZE_PATH
無法將路徑(<path>)與目前的輸入進行相對化。
交易記錄。 請按以下方式重新執行:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog(「<userPath>」,true)
接下來還會執行:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog(「<path>」)
DELTA_CANNOT_RENAME_PATH
無法重新命名 <currentPath> 為 <newPath>。
DELTA_CANNOT_REPLACE_MISSING_TABLE
無法取代數據表 <tableName> ,因為它不存在。 使用 CREATE OR REPLACE TABLE 建立數據表。
DELTA_CANNOT_RESOLVE_CLUSTERING_COLUMN
因為發生非預期的錯誤,無法解析 <columnName> 中的叢集數據行 <schema>。 執行 ALTER TABLE...CLUSTER BY ⋯,以修復 Delta 叢集中繼資料。
DELTA_CANNOT_RESOLVE_COLUMN
無法解析 <columnName> 中的欄<schema>
DELTA_CANNOT_RESTORE_TABLE_VERSION
無法將資料表還原至版本 <version>。 可用版本:[<startVersion>, <endVersion>]。
DELTA_CANNOT_RESTORE_TIMESTAMP_EARLIER
無法將數據表還原為時間戳(<requestedTimestamp>),因為它在最早的版本可用之前。 請在(<earliestTimestamp>)之後使用時間戳。
DELTA_CANNOT_RESTORE_TIMESTAMP_GREATER
無法將數據表還原為時間戳 (<requestedTimestamp>) ,因為它位於最新版本可用之後。 請在 (<latestTimestamp>) 之前使用時間戳。
DELTA_CANNOT_SET_COORDINATED_COMMITS_DEPENDENCIES
<Command> 無法設定提交內時間戳表屬性與協調提交,因為後者依賴於前者,並在內部設定。 請從 TBLPROPERTIES 子句中移除它們 (“delta.enableInCommitTimestamps”、“delta.inCommitTimestampEnablementVersion”、“delta.inCommitTimestampEnablementTimestamp”),然後再次重試命令。
DELTA_CANNOT_SET_LOCATION_ON_PATH_IDENTIFIER
無法變更路徑型數據表的位置。
DELTA_CANNOT_SET_MANAGED_STATS_COLUMNS_PROPERTY
無法在非 Lakeflow Spark 宣告式管線數據表上設定 delta.managedDataSkippingStatsColumns。
DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_COMMAND
當啟用 'unity-catalog' 作為提交協調器時,無法從命令設定 "<configuration>"。 請將其從 TBLPROPERTIES 子句中移除,然後再次重試命令。
DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_SESSION
當啟用 'unity-catalog' 作為提交協調器時,無法從 SparkSession 的配置中設置 "<configuration>"。 請執行 spark.conf.unset("<configuration>") 來取消設定它,然後再次重試命令。
DELTA_CANNOT_UNSET_COORDINATED_COMMITS_CONFS
ALTER 無法解除協調的提交配置。 若要將資料表從協調提交降級,請再次使用 ALTER TABLE [table-name] DROP FEATURE 'coordinatedCommits-preview'。
DELTA_CANNOT_UPDATE_ARRAY_FIELD
無法更新 <tableName> 欄位類型 <fieldName>:透過更新 <fieldName>.element 來更新元素。
DELTA_CANNOT_UPDATE_MAP_FIELD
無法更新 <tableName> 欄位 <fieldName> 類型:需透過更新 <fieldName>.key 或 <fieldName>.value 來更新地圖。
DELTA_CANNOT_UPDATE_OTHER_FIELD
無法更新 <tableName> 類型的 <typeName>欄位。
DELTA_CANNOT_UPDATE_STRUCT_FIELD
無法更新 <tableName> 欄位 <fieldName> 類型:藉由新增、刪除或更新其欄位來更新結構。
DELTA_CANNOT_USE_ALL_COLUMNS_FOR_PARTITION
無法使用所有欄位作為分割欄位。
DELTA_CANNOT_VACUUM_LITE
VACUUM LITE 無法刪除所有符合資格的檔案,因為 Delta 記錄不會參考某些檔案。 請執行 VACUUM FULL。
DELTA_CANNOT_WRITE_INTO_VIEW
<table> 是檢視。 不支援寫入視圖。
DELTA_CAST_OVERFLOW_IN_TABLE_WRITE
因為溢位,無法將類型<sourceType>的值寫入類型<targetType>的欄位<columnName>。
使用 try_cast 對輸入值,來容許溢位並傳回 NULL 。
如有必要,將<storeAssignmentPolicyFlag>設定為「LEGACY」以略過此錯誤,或將<updateAndMergeCastingFollowsAnsiEnabledFlag>設為 true 以回復到舊行為,並在<ansiEnabledFlag>和UPDATE中依循MERGE。
DELTA_CATALOG_MANAGED_TABLE_UPGRADE_OR_DOWNGRADE_NOT_SUPPORTED
不支援升級或降級目錄管理資料表。 改為建立一個新表格,包含所需的表格功能。
DELTA_CATALOG_MANAGED_TABLE_UPGRADE_WITH_OTHER_PROPERTIES
無法將表格升級 <tableName> 為目錄管理與其他屬性變更合併。
提供的屬性: <properties>。
DELTA_CDC_NOT_ALLOWED_IN_THIS_VERSION
無法設定 delta.enableChangeDataFeed 的組態。 尚未提供來自 Delta 的變更數據饋送。
DELTA_CDC_READ_NULL_RANGE_BOUNDARY
CDC 讀取開始/結束參數不可以是 Null。 請提供有效的版本或時間戳。
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_DATA_SCHEMA
在從版本 <start> 到 <end> 的過程中,擷取數據表變更失敗,原因是數據架構不相容。
您的讀取架構位於 <readSchema> 版本 <readVersion>,但我們在 版本 <incompatibleVersion>中找到不相容的數據架構。
如果可能,請通過設置<config>為endVersion來使用最終版本的架構擷取數據表變更,或聯繫支持人員。
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE
因架構的變更不相容,導致擷取版本 <start> 和 <end> 之間的資料表變更失敗。
您的讀取架構位於 <readSchema> 版本 <readVersion>,但我們發現 版本 <incompatibleVersion>發生不相容的架構變更。
可能的話,請分別查詢資料表從版本 <start> 的變更至 <incompatibleVersion> - 1,以及從版本 <incompatibleVersion> 的變更至 <end>。
DELTA_CHANGE_DATA_FILE_NOT_FOUND
找不到事務歷史記錄中所參考的檔案 <filePath> 。 當數據已從文件系統手動刪除,而不是使用 table DELETE 語句時,就會發生這種情況。 此要求似乎以變更資料摘要為目標,如果是這種情況,當變更數據檔超過保留期間且已由 VACUUM 語句刪除時,就會發生此錯誤。 如需詳細資訊,請參閱 <faqPath>
DELTA_CHANGE_TABLE_FEED_DISABLED
無法寫入具有 delta.enableChangeDataFeed 集合的數據表。 無法從 Delta 變更數據摘要。
DELTA_CHECKPOINT_NON_EXIST_TABLE
無法檢查非現有資料表 <path>。 您是否手動刪除_delta_log目錄中的檔案?
DELTA_CLONE_AMBIGUOUS_TARGET
提供了兩個路徑作為 CLONE 目標,因此不清楚應該使用哪一個路徑。 外部
CLONE的位置和路徑同時在<externalLocation>提供。
<targetIdentifier>。
DELTA_CLONE_INCOMPATIBLE_SOURCE
複製來源具有有效的格式,但具有 Delta 不支援的功能。
如需詳細資訊,請參閱 DELTA_CLONE_INCOMPATIBLE_SOURCE
DELTA_CLONE_INCOMPLETE_FILE_COPY
檔案 (<fileName>) 未完全複製。 預期的檔案大小:<expectedSize>,實際為:<actualSize>。 若要繼續作業而不進行檔案大小檢查,請將 <config> 設為 false。
DELTA_CLONE_UNSUPPORTED_SOURCE
不支援的 <mode> 複製來源'<name>,其格式為 <format>。
支援的格式包括「delta」、「Apache Iceberg」和「parquet」。
DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_SOURCE
不支援的來源資料表:
如需詳細資訊,請參閱 DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_SOURCE
DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_TARGET
不支援的目標資料表:
如需詳細資訊,請參閱 DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_TARGET
Delta 複製含列跟踪且無統計數據
無法淺層複製沒有統計數據且已啟用數據列追蹤的數據表。
如果您要啟用資料列追蹤,您必須先執行下列命令來收集源資料表上的統計資料:
ANALYZE TABLE 資料表名稱 COMPUTE DELTA STATISTICS
DELTA_CLUSTERING_CLONE_TABLE_NOT_SUPPORTED
CLONE 在 DBR 14.0 < 版本的 Delta 表格中,不支援 Liquid 叢集。
DELTA_CLUSTERING_COLUMNS_DATATYPE_NOT_SUPPORTED
CLUSTER BY 不被支援,因為以下欄位:<columnsWithDataTypes> 不支援略過數據。
DELTA_CLUSTERING_COLUMNS_MISMATCH
提供的叢集數據行不符合現有的數據表。
提供:
<providedClusteringColumns>現存:
<existingClusteringColumns>
DELTA_CLUSTERING_COLUMN_MISSING_STATS
Liquid clustering 需要叢集欄位具備統計資料。無法在統計架構中找到叢集欄位 '<columns>'。
<schema>
DELTA_CLUSTERING_CREATE_EXTERNAL_NON_LIQUID_TABLE_FROM_LIQUID_TABLE
不允許從具有液體叢集的數據表目錄建立外部數據表,而不需進行液體叢集;路徑: <path>。
DELTA_CLUSTERING_NOT_SUPPORTED
'<operation>' 不支援叢集。
DELTA_CLUSTERING_PHASE_OUT_FAILED
無法完成 <phaseOutType> 的資料表,因為使用 <tableFeatureToAdd> 表格功能失敗(原因:<reason>)。 請再試一次這個 OPTIMIZE 命令。
== 錯誤 ==
<error>
DELTA_CLUSTERING_REPLACE_TABLE_WITH_PARTITIONED_TABLE
REPLACE 不允許將 Liquid clustering 與分區表一起使用在 Delta 資料表中。
DELTA_CLUSTERING_SHOW_CREATE_TABLE_WITHOUT_CLUSTERING_COLUMNS
SHOW CREATE TABLE 不支援具有 Liquid 叢集的 Delta 數據表,而不需要任何叢集數據行。
DELTA_CLUSTERING_TO_PARTITIONED_TABLE_WITH_NON_EMPTY_CLUSTERING_COLUMNS
當現有的數據表具有非空白的叢集數據行時,不允許將具有 Liquid 叢集的 Delta 數據表轉換為數據分割數據表: <operation>。
請先執行 ALTER TABLE CLUSTER BY NONE 以移除叢集數據行。
DELTA_CLUSTERING_WITH_DYNAMIC_PARTITION_OVERWRITE
使用 Liquid 叢集的 Delta 資料表不允許動態分割覆寫模式。
DELTA_CLUSTERING_WITH_PARTITION_PREDICATE
OPTIMIZE 具有 Liquid 叢集之 Delta 資料表的指令不支援分區述詞。 請移除述詞: <predicates>。
DELTA_CLUSTERING_WITH_ZORDER_BY
OPTIMIZE 具有 Liquid 叢集之 Delta 資料表的指令無法指定 ZORDER BY。 請刪除 ZORDER BY (<zOrderBy>)。
DELTA_CLUSTER_BY_AUTO_MISMATCH
提供的 clusterByAuto 值不符合現有數據表的值。
DELTA_CLUSTER_BY_INVALID_NUM_COLUMNS
CLUSTER BY 針對 Liquid 叢集,最多可支援 <numColumnsLimit> 個叢集欄,但該表格具有 <actualNumColumns> 個叢集欄。 請移除額外的叢集數據行。
DELTA_CLUSTER_BY_SCHEMA_NOT_PROVIDED
不允許在未定義架構時指定 CLUSTER BY 。 請定義資料表 <tableName>的架構。
DELTA_CLUSTER_BY_WITH_BUCKETING
無法同時指定叢集和貯體。 如果您想要建立具有叢集的 Delta 數據表,請移除 CLUSTERED BY INTO BUCKETS / bucketBy。
DELTA_CLUSTER_BY_WITH_PARTITIONED_BY
無法同時指定叢集和分區。 如果您想要建立具有叢集的 Delta 數據表,請移除 PARTITIONED BY / partitionBy / partitionedBy。
DELTA_COLLATIONS_NOT_SUPPORTED
Delta Lake 不支援排序規則。
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_PARTITIONED_COLUMN
對於區分欄位 '<column>',不支援數據跳過。
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_TYPE
欄位『<column>』的類型<type>不支援資料略過。
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET
在已啟用欄位映射的資料表上未設定最大欄位識別碼屬性(<prop>)。
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET_CORRECTLY
啟用數據行對應之數據表上的最大數據行標識元屬性 (<prop>) 為 <tableMax>,不能小於所有欄位的最大數據行識別碼 (<fieldMax>)。
DELTA_COLUMN_MISSING_DATA_TYPE
未提供數據行 <colName> 的數據類型。
DELTA_COLUMN_NOT_FOUND
找不到指定的欄位<columnName>,此欄位在 [<columnList>] 中。
DELTA_COLUMN_NOT_FOUND_IN_MERGE
無法在<targetCol> 表的欄位中找到目標欄位「INSERT 」:<colNames>。
INSERT 子句必須為目標數據表的所有欄指定值。
DELTA_COLUMN_NOT_FOUND_IN_SCHEMA
找不到欄位 <columnName> 在下列中:
<tableSchema>
DELTA_COLUMN_PATH_NOT_NESTED
預期 <columnPath> 是巢狀資料類型,但實際找到的是 <other>。 正在尋找某物
巢狀欄位中的<column>的索引。
Schema:
<schema>
DELTA_COLUMN_STRUCT_TYPE_MISMATCH
結構數據行<source>無法插入<targetType>中的<targetField>欄位<targetTable>。
DELTA_COMMIT_INTERMEDIATE_REDIRECT_STATE
無法處理重定向表狀態 '<state>' 內的表提交。
DELTA_COMPACTION_VALIDATION_FAILED
驗證路徑<compactedPath><newPath>壓縮失敗:請提出錯誤報告。
DELTA_COMPLEX_TYPE_COLUMN_CONTAINS_NULL_TYPE
在欄位 <columName> 中找到巢狀 NullType,它屬于 <dataType>。 Delta 不支援在複雜類型中撰寫 NullType。
DELTA_CONCURRENT_APPEND
ConcurrentAppendException:檔案已由並行更新新增至 <partition> 。 <retryMsg> <conflictingCommit>
如需詳細資訊, <docLink> 請參閱 。
DELTA_CONCURRENT_DELETE_DELETE
ConcurrentDeleteDeleteException:該交易嘗試刪除一個或多個已被並行更新刪除的檔案,例如 <file>。 請再試一次作業。<conflictingCommit>
如需詳細資訊, <docLink> 請參閱 。
DELTA_CONCURRENT_DELETE_READ
ConcurrentDeleteReadException:此交易嘗試讀取並行更新所刪除的一或多個檔案(例如 <file>)。 請再試一次作業。<conflictingCommit>
如需詳細資訊, <docLink> 請參閱 。
DELTA_CONCURRENT_TRANSACTION
ConcurrentTransactionException:當多個串流查詢使用相同的檢查點寫入此數據表時,就會發生此錯誤。 您是否同時執行相同串流查詢的多個實例?<conflictingCommit>
如需詳細資訊, <docLink> 請參閱 。
DELTA_CONCURRENT_WRITE
ConcurrentWriteException:自當前交易讀取資料表以來,並行交易已寫入新資料。 請再試一次作業。<conflictingCommit>
如需詳細資訊, <docLink> 請參閱 。
DELTA_CONFLICT_SET_COLUMN
這些欄位 SET 發生衝突: <columnList>。
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_COMMAND
在<command>期間,無法從命令設置“<configuration>” 請將其從 TBLPROPERTIES 子句中移除,然後再次重試命令。
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_SESSION
無法在<command>期間通過 SparkSession 設定"配置<configuration>"。 請執行 spark.conf.unset("<configuration>") 來取消設定它,然後再次重試命令。
DELTA_CONSTRAINT_ALREADY_EXISTS
條件約束 『<constraintName>' 已經存在。 請先刪除舊的條件約束。
舊限制
<oldConstraint>
DELTA_CONSTRAINT_DATA_TYPE_MISMATCH
數據 <columnName> 行具有數據類型 <columnType> ,而且無法變更為數據類型 <dataType> ,因為下列檢查條件約束會參考此數據行:
<constraints>
DELTA_CONSTRAINT_DEPENDENT_COLUMN_CHANGE
無法改變資料列 <columnName> ,因為下列檢查條件約束會參考此資料列:
<constraints>
DELTA_CONSTRAINT_DOES_NOT_EXIST
無法從數據表 <constraintName>卸除不存在的條件約束<tableName>。 若要避免擲回錯誤,請提供 參數 IF EXISTS 或將 SQL 工作階段組態 <config> 設定設定為 <confValue>。
DELTA_CONVERSION_MERGE_ON_READ_NOT_SUPPORTED
不支援 Merge-On-Read <format> 表的轉換:<path>, <hint>
DELTA_CONVERSION_NO_PARTITION_FOUND
在數據表 <tableName>的目錄中找不到任何數據分割資訊。 您是否在資料表上執行 「MSCK REPAIR TABLE」 來探索分割區?
DELTA_CONVERSION_UNSUPPORTED_COLLATED_PARTITION_COLUMN
無法將具有定序數據分割數據行 <colName> 的 Parquet 資料表轉換成 Delta。
DELTA_CONVERSION_UNSUPPORTED_COLUMN_MAPPING
使用 <config> TO <mode> 時,無法將組態 'CONVERT' 設定為 DELTA。
DELTA_CONVERSION_UNSUPPORTED_SCHEMA_CHANGE
發現 <format> 表格中未支援的結構變更: <path>, <hint>
DELTA_CONVERT_NON_PARQUET_TABLE
CONVERT TO DELTA 僅支援 parquet 數據表,但您嘗試轉換 <sourceName> 來源: <tableId>。
DELTA_CONVERT_TO_DELTA_ROW_TRACKING_WITHOUT_STATS
無法在不收集統計數據的情況下啟用數據列追蹤。
如果您要啟用資料列追蹤,請執行下列動作:
- 執行 命令來啟用統計數據收集
SET <statisticsCollectionPropertyKey> = 真
- 執行
CONVERTTODELTA而不使用 NOSTATISTICS選項。
如果您不想收集統計數據,請停用列追蹤。
- 執行 命令,預設停用啟用資料表功能:
RESET <rowTrackingTableFeatureDefaultKey>
- 依預設,執行下列動作來停用數據表屬性:
SET <rowTrackingDefaultPropertyKey> = 假
DELTA_COPY_INTO_TARGET_FORMAT
COPY INTO target 必須是 Delta 數據表。
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_SCHEMA
您嘗試建立外部資料表 <tableName>
從 <path> 使用 Delta,但在 時未指定架構
輸入路徑是空的。
若要深入瞭解 Delta,請參閱 <docLink>
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_TXN_LOG
您嘗試使用 Delta 從 <tableName> 建立外部資料表 <path>,但在 <logPath> 沒有找到任何交易日誌紀錄。 請檢查上游作業,確定其使用 format(“delta”) 撰寫,且路徑是數據表的根目錄。
若要深入瞭解 Delta,請參閱 <docLink>
DELTA_CREATE_TABLE_IDENTIFIER_LOCATION_MISMATCH
不支援在不同位置建立以路徑為基礎的 Delta 表格。 標識碼: <identifier>、位置: <location>。
DELTA_CREATE_TABLE_MISSING_TABLE_NAME_OR_LOCATION
必須指定數據表名稱或位置。
DELTA_CREATE_TABLE_SCHEME_MISMATCH
指定的架構與現有架構位於<path>處不符。
== 指定 ==
<specifiedSchema>
== 現有 ==
<existingSchema>
== 差異 ==
<schemaDifferences>
如果您打算保留現有的架構,您可以省略
來自 create table 命令的架構。 否則,請務必確保
架構相符。
DELTA_CREATE_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
無法通過 <tableFeature> 啟用 TBLPROPERTIES 資料表功能。 請使用 CREATE OR REPLACE TABLE CLUSTER BY 建立具有叢集的 Delta 資料表。
DELTA_CREATE_TABLE_WITH_DIFFERENT_CLUSTERING
指定的叢集數據行不符合 位於 <path>的現有叢集數據行。
== 指定 ==
<specifiedColumns>
== 現有 ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PARTITIONING
指定的數據分割與 位於 <path>的現有數據分割不符。
== 指定 ==
<specifiedColumns>
== 現有 ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PROPERTY
指定的屬性不符合 位於 <path>的現有屬性。
== 指定 ==
<specifiedProperties>
== 現有 ==
<existingProperties>
DELTA_CREATE_TABLE_WITH_NON_EMPTY_LOCATION
無法建立數據表 (''<tableId>)。 相關聯的位置 (''<tableLocation>) 不是空的,也不是 Delta 數據表。
DELTA_DATA_CHANGE_FALSE
無法變更數據表元數據,因為 『dataChange』 選項設定為 false。 嘗試的作業: '<op>'。
DELTA_DELETED_PARQUET_FILE_NOT_FOUND
找不到事務歷史記錄中所參考的檔案 <filePath> 。 此 Parquet 檔案可能會在 Delta 的資料保留原則下被刪除。
默認差異數據保留持續時間: <logRetentionPeriod>。 parquet 檔案的修改時間: <modificationTime>。 parquet 檔案的刪除時間: <deletionTime>。 已在 Delta 版本上刪除:<deletionVersion>。
DELTA_DELETION_VECTOR_MISSING_NUM_RECORDS
提交缺少 numRecords 統計數據的刪除向量的檔案是無效的。
DELTA_DISABLE_SOURCE_MATERIALIZATION_IN_INSERT_REPLACE_ON_OR_USING_NOT_ALLOWED
不允許在 INSERT REPLACE ON/USING 中將 'spark.databricks.delta.insertReplaceOnOrUsing.materializeSource' 設定為 'none' 以停用源具現化。
DELTA_DISABLE_SOURCE_MATERIALIZATION_IN_MERGE_NOT_ALLOWED
不允許在 MERGE 中通過將 'spark.databricks.delta.merge.materializeSource' 設定為 'none' 來停用來源具體化。
DELTA_DOMAIN_METADATA_NOT_SUPPORTED
偵測到網域 <domainNames>的 DomainMetadata 動作,但未啟用 DomainMetadataTableFeature。
DELTA_DROP_COLUMN_AT_INDEX_LESS_THAN_ZERO
要刪除欄位的索引<columnIndex>小於0。
DELTA_DROP_COLUMN_ON_SINGLE_FIELD_SCHEMA
無法從只有一個欄位的架構中刪除欄位。 Schema:
<schema>
DELTA_DUPLICATE_ACTIONS_FOUND
指定了幾次檔案作業「<actionType>」於路徑<path>。
它與<conflictingPath>發生衝突。
在一次提交中,不可同時在相同路徑上執行多個檔案操作。
DELTA_DUPLICATE_COLUMNS_FOUND
找到重複的數據行:<coltype><duplicateCols>。
DELTA_DUPLICATE_COLUMNS_ON_INSERT
INSERT 子句中重複的欄位名稱。
DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE
<message>
更新數據表之前,請先移除重複的數據行。
DELTA_DUPLICATE_DATA_SKIPPING_COLUMNS
找到重複的數據略過欄位: <columns>。
DELTA_DUPLICATE_DOMAIN_METADATA_INTERNAL_ERROR
內部錯誤:相同交易內的兩個 DomainMetadata 動作具有相同網域 <domainName>。
DELTA_DUPLICATE_LOG_ENTRIES_FOUND
Delta 日誌處於非法狀態:<numDuplicates> 路徑在版本 <version>中出現重複的項目。
RESTORE 回到介紹重複內容的認可之前的版本,或者聯絡支援人員尋求協助。
DELTA_DV_HISTOGRAM_DESERIALIZATON
表格完整性驗證期間無法反序列化已刪除記錄計數直方圖。
DELTA_DYNAMIC_PARTITION_OVERWRITE_DISABLED
動態分割覆寫模式由會話組態或寫入選項指定,但因 spark.databricks.delta.dynamicPartitionOverwrite.enabled=false而被停用。
DELTA_EMPTY_DATA
用於建立 Delta 資料表的數據沒有任何欄位。
DELTA_EMPTY_DIRECTORY
目錄中找不到檔案: <directory>。
DELTA_EXCEED_CHAR_VARCHAR_LIMIT
值 「<value>超過 char/varchar 類型長度限制。 檢查失敗:<expr>。
DELTA_EXTERNAL_METADATA_UNRESOLVED_PROJECTION
投影查詢 '<query>' 無法在結構描述上解析: <schemaTreeString>
DELTA_EXTERNAL_METADATA_UNSUPPORTED_SOURCE
外部中繼資料不支援來源:
如需詳細資訊,請參閱 DELTA_EXTERNAL_METADATA_UNSUPPORTED_SOURCE
DELTA_FAILED_CAST_PARTITION_VALUE
無法將分割區值<value>轉換為<dataType>。
DELTA_FAILED_FIND_ATTRIBUTE_IN_OUTPUT_COLUMNS
在現有的目標輸出 <newAttributeName> 中找不到 <targetOutputColumns>。
DELTA_FAILED_INFER_SCHEMA
無法從指定的檔案清單中推斷架構。
DELTA_FAILED_MERGE_SCHEMA_FILE
無法合併檔案 <file>的架構:
<schema>
DELTA_FAILED_OPERATION_ON_SHALLOW_CLONE
無法在源資料表 <sourceTable> 上執行作業,因為淺層複製仍然存在,而且淺層複製 <targetTable> 中發生下列錯誤: <message>
DELTA_FAILED_READ_FILE_FOOTER
無法讀取檔案的結尾部分:<currentFile>。
DELTA_FAILED_RECOGNIZE_PREDICATE
無法辨識述詞 '<predicate>'。
DELTA_FAILED_SCAN_WITH_HISTORICAL_VERSION
預期會找到 Delta 來源的最新版本完整掃描,然而發現的是版本 <historicalVersion> 的歷史掃描。
DELTA_FAILED_TO_MERGE_FIELDS
無法合併欄位'<currentField>' 和 '<updateField>'
DELTA_FEATURES_PROTOCOL_METADATA_MISMATCH
無法在此數據表上運作,因為下表功能是在元數據中啟用,但未列在通訊協定中: <features>。
DELTA_FEATURES_REQUIRE_MANUAL_ENABLEMENT
您的數據表架構需要手動啟用下表功能: <unsupportedFeatures>。
若要這樣做,請針對上面所列的每個功能執行下列命令:
ALTER TABLE table_name SET TBLPROPERTIES('delta.feature.feature_name' = 'supported')
將 「table_name」 和 「feature_name」 取代為實際值。
目前支援的功能: <supportedFeatures>。
DELTA_FEATURE_CAN_ONLY_DROP_CHECKPOINT_PROTECTION_WITH_HISTORY_TRUNCATION
無法卸除檢查點保護功能。
此功能只能藉由截斷歷程記錄來卸除。
請再試一次,使用TRUNCATE HISTORY選項。
ALTER TABLE
DROP FEATURE table_name checkpointProtectionTRUNCATE HISTORY
DELTA_FEATURE_DROP_CHECKPOINT_FAILED
<featureName>因為檢查點建立失敗而卸除失敗。
請稍後再試一次。 問題持續發生,請連絡 Databricks 支援。
DELTA_FEATURE_DROP_CHECKPOINT_PROTECTION_WAIT_FOR_RETENTION_PERIOD
作業未成功,因為仍有已刪除功能的殘餘痕跡
在表格歷史中。 在這些歷程記錄之前,無法卸除 CheckpointProtection
版本已過期。
若要卸除 CheckpointProtection,請等候歷程記錄版本完成。
等到命令到期後,然後重複執行此命令。 歷程記錄版本的保留期間為
目前設定為 <truncateHistoryLogRetentionPeriod>。
DELTA_FEATURE_DROP_CONFLICT_REVALIDATION_FAIL
無法卸除功能,因為並行交易已修改數據表。
請再試一次作業。
<concurrentCommit>
DELTA_FEATURE_DROP_DEPENDENT_FEATURE
無法卸除資料表功能 <feature> ,因為此資料表中的一些其他功能 (<dependentFeatures>) 相依於 <feature>。
請先考慮先卸除這些功能,再卸除此功能。
DELTA_FEATURE_DROP_FEATURE_IS_DELTA_PROPERTY
無法刪除 <property> 從此數據表中,因為這是差異數據表的屬性,而不是數據表的特徵。
DELTA_FEATURE_DROP_FEATURE_NOT_PRESENT
無法從這個數據表卸除 <feature> ,因為它目前不存在於數據表的通訊協定中。
DELTA_FEATURE_DROP_HISTORICAL_VERSIONS_EXIST
無法卸除 <feature> ,因為 Delta 記錄檔包含使用此功能的歷史版本。
請等到歷程記錄保留期間 (<logRetentionPeriodKey>=<logRetentionPeriod>)
自該功能最後啟用以來,已經過去一段時間。
或者,請等候 TRUNCATE HISTORY 保留期限到期 (<truncateHistoryLogRetentionPeriod>)
然後執行:
ALTER TABLEtable_nameDROP FEATUREfeature_nameTRUNCATE HISTORY
DELTA_FEATURE_DROP_HISTORY_TRUNCATION_NOT_ALLOWED
特定功能不需要歷程記錄截斷。
DELTA_FEATURE_DROP_NONREMOVABLE_FEATURE
無法卸除 <feature> ,因為不支援卸除此功能。
請連絡 Databricks 支持人員。
DELTA_FEATURE_DROP_UNSUPPORTED_CLIENT_FEATURE
無法卸除 <feature> ,因為此 Databricks 版本不支援它。
請考慮使用較高版本的 Databricks。
DELTA_FEATURE_DROP_WAIT_FOR_RETENTION_PERIOD
取消<feature>部分成功。
功能現在不再用於數據表的目前版本。 不過,此功能
數據表的歷史版本仍然可用。 無法移除表格功能
從資料表協議一直到這些歷史版本過期為止。
若要從通訊協定中刪除數據表功能,請等候歷史版本更新完成。
等到命令到期後,然後重複執行此命令。 歷程記錄版本的保留期間為
目前設定為 <logRetentionPeriodKey>=<logRetentionPeriod>。
或者,請等候 TRUNCATE HISTORY 保留期限到期 (<truncateHistoryLogRetentionPeriod>)
然後執行:
ALTER TABLEtable_nameDROP FEATUREfeature_nameTRUNCATE HISTORY
DELTA_FEATURE_REQUIRES_HIGHER_READER_VERSION
無法啟用數據表功能 <feature> ,因為它需要較高的讀取器通訊協定版本(目前的 <current>)。 請考慮將數據表的讀取器通訊協定版本升級為 <required>,或升級為支援讀取器數據表功能的版本。
<docLink>如需資料表通訊協定版本的詳細資訊,請參閱 。
DELTA_FEATURE_REQUIRES_HIGHER_WRITER_VERSION
無法啟用數據表功能 <feature> ,因為它需要較高的寫入器通訊協定版本(目前的 <current>)。 請考慮將數據表的寫入器通訊協定版本升級為 <required>,或升級至支援寫入器數據表功能的版本。
<docLink>如需資料表通訊協定版本的詳細資訊,請參閱 。
DELTA_FILE_ALREADY_EXISTS
現有的檔案路徑 <path>。
DELTA_FILE_LIST_AND_PATTERN_STRING_CONFLICT
無法同時指定檔案清單和模式字串。
DELTA_FILE_NOT_FOUND
檔案路徑 <path>。
DELTA_FILE_NOT_FOUND_DETAILED
找不到事務歷史記錄中所參考的檔案 <filePath> 。 當從檔案系統手動刪除數據,而不是使用 table DELETE 語句時,就會發生這種情況。 如需詳細資訊,請參閱 <faqPath>
DELTA_FILE_OR_DIR_NOT_FOUND
沒有這類檔案或目錄: <path>。
DELTA_FILE_TO_OVERWRITE_NOT_FOUND
要重寫的檔案 (<path>) 在候選檔案中找不到:
<pathList>
DELTA_FOUND_MAP_TYPE_COLUMN
找到 MapType。 若要存取 MapType 的索引鍵或值,請指定一個
of:
<key> 或
<value>
後面接著數據行的名稱(只有當該數據行是結構類型時)。
例如,mymap.key.mykey
如果數據行是基本類型,mymap.key或 mymap.value 就已足夠。
Schema:
<schema>
DELTA_FSCK_CANNOT_REPAIR_DELTA_LOG
FSCK 無法修復這張桌子。 該資料表沒有有效的檢查點來啟動日誌重播,且沒有足夠的日誌歷史可以從第一個版本開始重播。
DELTA_FSCK_並發修改 (DELTA_FSCK_CONCURRENT_MODIFICATION)
執行 FSCK 時偵測到對表格的同時修改。 請重試 FSCK 指令,並確保修復過程中沒有其他操作寫入資料表。
無效的檢查點使得 DELTA 檔案系統檢查工具無法進行模擬運行。
FSCK 試跑因偵測到無效檢查點而無法繼續。 請先執行「FSCK REPAIR TABLE table METADATA ONLY」來修復檢查點。
無法繼續進行檢查:缺失或無效的分區檔案
FSCK 試跑無法繼續,因為偵測到缺失的檔案或分割區值無效的檔案。 請先執行「FSCK REPAIR TABLE 表格」來修復表格。
DELTA_FSCK_INVALID_BARRIER_CHECKPOINT
FSCK 無法修復這張桌子。 部分無效檢查點是受到保護的,無法移除。 請連絡 Databricks 支持人員。
DELTA_FSCK_NO_VALID_CHECKPOINT(未找到有效的檢查點)
FSCK 無法修復這張桌子。 此表格中的所有檢查點均無效。 請連絡 Databricks 支持人員。
DELTA_GENERATED_COLUMNS_DATA_TYPE_MISMATCH
資料 <columnName> 行具有數據類型 <columnType> ,而且無法變更為數據類型 <dataType> ,因為下列產生的數據行會參考此數據行:
<generatedColumns>。
DELTA_GENERATED_COLUMNS_DEPENDENT_COLUMN_CHANGE
無法改變資料列 <columnName> ,因為下列產生的資料列會參考此資料列:
<generatedColumns>。
DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH
所 <columnName> 產生資料列的運算式型態為 <expressionType>,但資料行型態為 <columnType>。
DELTA_GENERATED_COLUMN_UPDATE_TYPE_MISMATCH
欄位 <currentName> 是生成的欄位或用於生成欄位的欄位。 資料類型為 <currentDataType> ,且無法轉換成資料類型 <updateDataType>。
DELTA_GEOSPATIAL_NOT_SUPPORTED
此版本的 Delta Lake 不支援地理空間類型。
DELTA_GEOSPATIAL_SRID_NOT_SUPPORTED
地理空間類型具有不支援的 SRID(空間參考系統識別碼):<srid>。 Delta 表格只支援非負的 SRID 值。
DELTA_ICEBERG_COMPAT_VIOLATION
IcebergCompatV<version> 的驗證失敗。
如需詳細資訊,請參閱 DELTA_ICEBERG_COMPAT_VIOLATION
DELTA_ICEBERG_WRITER_COMPAT_VIOLATION
IcebergWriterCompatV<version> 的驗證失敗。
如需詳細資訊,請參閱 DELTA_ICEBERG_WRITER_COMPAT_VIOLATION
DELTA_IDENTITY_COLUMNS_ALTER_COLUMN_NOT_SUPPORTED
ALTER TABLE ALTER COLUMN 不支援 IDENTITY 欄位。
DELTA_IDENTITY_COLUMNS_ALTER_NON_DELTA_FORMAT
ALTER TABLE ALTER COLUMN SYNC IDENTITY 只有 Delta 支援。
DELTA_IDENTITY_COLUMNS_ALTER_NON_IDENTITY_COLUMN
ALTER TABLE ALTER COLUMN SYNC IDENTITY 無法在非 IDENTITY 數據行上呼叫。
DELTA_IDENTITY_COLUMNS_EXPLICIT_INSERT_NOT_SUPPORTED
不支援為GENERATED ALWAYS AS IDENTITY欄位提供<colName>的數值。
DELTA_IDENTITY_COLUMNS_ILLEGAL_STEP
IDENTITY 欄位步驟不能是 0。
DELTA_IDENTITY_COLUMNS_NON_DELTA_FORMAT
IDENTITY 只有 Delta 支援欄位。
DELTA_IDENTITY_COLUMNS_PARTITION_NOT_SUPPORTED
PARTITIONED BY IDENTITY 欄位 <colName> 不受支援。
DELTA_IDENTITY_COLUMNS_REPLACE_COLUMN_NOT_SUPPORTED
ALTER TABLE REPLACE COLUMNS 不支援具有 IDENTITY 欄的資料表。
DELTA_IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE
不支援 <dataType> 資料類型的 IDENTITY 欄位。
DELTA_IDENTITY_COLUMNS_UPDATE_NOT_SUPPORTED
不支援UPDATE資料欄IDENTITY上的<colName>。
DELTA_IDENTITY_COLUMNS_WITH_GENERATED_EXPRESSION
無法以生成的欄位表示式來指定IDENTITY。
DELTA_ILLEGAL_OPTION
選項 '<input>' 的值 '<name>' 無效,<explain>
DELTA_ILLEGAL_USAGE
在建立 Delta 資料表時不允許使用 <option>。
DELTA_INCONSISTENT_BUCKET_SPEC
Delta 貯體數據表上的 BucketSpec 與元數據中的 BucketSpec 不符。 預期: <expected>。 實際: <actual>。
DELTA_INCONSISTENT_LOGSTORE_CONFS
(<setKeys>) 不能設定為不同的值。 請只設定其中一個,或將它們設定為相同的值。
DELTA_INCORRECT_ARRAY_ACCESS
無法正確存取ArrayType。 使用 arrayname.element.elementname 位置來設定
新增至陣列。
DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME
已找到資料陣列型態。 若要存取 ArrayType 的元素,請指定
以 <rightName> 取代 <wrongName>。
Schema:
<schema>
DELTA_INCORRECT_GET_CONF
使用 getConf(),而不是 conf.getConf()。
DELTA_INCORRECT_LOG_STORE_IMPLEMENTATION
錯誤通常會在預設的 LogStore 實作時發生,
是,HDFSLogStore 是用來寫入非 HDFS 記憶體系統上的 Delta 資料表。
為了獲得資料表更新的 ACID 交易保證,您必須使用
適用於您記憶體系統的 LogStore 正確實作。
如需詳細資訊,請參閱 <docLink>。
DELTA_INDEX_LARGER_OR_EQUAL_THAN_STRUCT
要刪除欄位的索引 <index> 等於或大於結構體長度:<length>。
DELTA_INDEX_LARGER_THAN_STRUCT
新增欄位<index>的索引<columnName>大於結構的長度:<length>。
DELTA_INSERT_COLUMN_ARITY_MISMATCH
無法寫入「<tableName>」,<columnName>目標數據表有<numColumns>個欄位,但插入的數據有<insertColumns>個欄位。
DELTA_INSERT_COLUMN_MISMATCH
在<columnName>中未指定欄位INSERT。
DELTA_INSERT_REPLACE_ON_AMBIGUOUS_COLUMNS_IN_CONDITION
欄位 <columnNames> 在 INSERT REPLACE ON 的條件中不明确。 請考慮指定這些數據行的別名。
DELTA_INSERT_REPLACE_ON_NOT_ENABLED
請聯絡您的 Databricks 代表以啟用...... INSERT INTO...REPLACE ON SQL 與 DataFrame API。
DELTA_INSERT_REPLACE_ON_UNRESOLVED_COLUMNS_IN_CONDITION
在條件<columnNames>中無法解析欄位INSERT REPLACE ON。
DELTA_INVALID_AUTO_COMPACT_TYPE
無效的自動壓縮類型: <value>。 允許的值為:<allowed>。
DELTA_INVALID_BUCKET_COUNT
無效的桶計數:<invalidBucketCount>。 分桶數應該是 2 的次方且至少是 8 的正數。 您可以改用 <validBucketCount>。
DELTA_INVALID_BUCKET_INDEX
在分割列中找不到 bucket 列。
DELTA_INVALID_CALENDAR_INTERVAL_EMPTY
間隔不能是 Null 或空白。
DELTA_INVALID_CDC_RANGE
從開始 <start> 到結尾 <end> 的 CDC 範圍無效。 結束不能在開始之前。
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAME
屬性名稱「<columnName>」包含無效字元,包括「 ,;{}()\n\t=」。 請使用別名將它重新命名。
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAMES
發現無效字元在 ' ,;{}()\n\t=' 在你的結構欄位名稱中。
無效的數據行名稱: <invalidColumnNames>。
請使用其他字元,然後再試一次。
或者,啟用欄位映射以繼續使用這些字元。
DELTA_INVALID_CHECK_CONSTRAINT_REFERENCES
在CHECK限制中找到<colName>。 檢查約束不能使用不存在的欄位。
DELTA_INVALID_CLONE_PATH
的目標位置 CLONE 必須是絕對路徑或數據表名稱。 使用一個
使用絕對路徑,而不是<path>。
DELTA_INVALID_COLUMN_NAMES_WHEN_REMOVING_COLUMN_MAPPING
在你的模式欄位名稱中發現了無效字元 ' ,;{}()\n\t='。
無效的數據行名稱: <invalidColumnNames>。
當欄名稱中有無效字元時,無法移除欄位對應。
請重新命名數據行以移除無效的字元,然後再次執行此命令。
DELTA_INVALID_FORMAT
偵測到不相容的格式。
在 <deltaRootPath>/_delta_log 找到了 Delta 的交易日志。
但您正嘗試使用 format(“<operation> <path>”) <format>。 您必須使用
讀取和寫入 Delta 表格時,使用 'format("delta")'。
若要深入瞭解 Delta,請參閱 <docLink>
DELTA_INVALID_GENERATED_COLUMN_REFERENCES
產生的數據行無法使用不存在的數據行或其他產生的數據行。
DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS
無效的等冪資料框架寫入選項: <reason>
DELTA_INVALID_INTERVAL
<interval> 不是有效的 INTERVAL。
DELTA_INVALID_INVENTORY_SCHEMA
指定 INVENTORY 之的架構不包含所有必要的欄位。 必要欄位為: <expectedSchema>
DELTA_INVALID_ISOLATION_LEVEL
無效的隔離等級 』<isolationLevel>'
DELTA_INVALID_LOGSTORE_CONF
(<classConfig>) 和 (<schemeConfig>) 不能同時設定。 請只設定其中一個群組。
DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA
您嘗試建立管理的資料表 <tableName>
使用 Delta,但未指定架構。
若要深入瞭解 Delta,請參閱 <docLink>
DELTA_INVALID_PARTITION_COLUMN
<columnName> 不是資料表 <tableName> 中有效的分區欄。
DELTA_INVALID_PARTITION_COLUMN_NAME
發現分割欄位包含無效字元「 ,;{}()\n\t=」中的字元。 請將名稱更改為您的分割區欄位。 這項檢查可以藉由設定 spark.conf.set(“spark.databricks.delta.partitionColumnValidity.enabled”, false) 關閉,但不建議這樣做,因為 Delta 的其他功能可能無法正常運作。
DELTA_INVALID_PARTITION_COLUMN_TYPE
<name>類型為<dataType>的資料行作為分區欄是不支援的。
DELTA_INVALID_PARTITION_PATH
分割區路徑片段應該是類似 part1=foo/part2=bar的形式。 分區路徑:<path>。
DELTA_INVALID_PROTOCOL_DOWNGRADE
通訊協定版本無法從 (<oldProtocol>) 降級為 (<newProtocol>)。
DELTA_INVALID_PROTOCOL_VERSION
不支援的 Delta 協定版本:表格「<tableNameOrPath>」需要讀取版本 <readerRequired> 和寫入版本 <writerRequired>,但此版本的 Databricks 僅支援讀取版本 <supportedReaders> 和寫入版本 <supportedWriters>。 請升級至較新的版本。
DELTA_INVALID_TABLE_VALUE_FUNCTION
函數 <function> 是一個 CDC 讀取不支援的表值函數。
DELTA_INVALID_TIMESTAMP_FORMAT
提供的時間戳 <timestamp> 不符合預期的語法 <format>。
DELTA_LOG_ALREADY_EXISTS
在<path>已經存在一個 Delta 日誌。
DELTA_LOG_FILE_NOT_FOUND
無法擷取差異記錄檔,以從檢查點版本<version>於<checkpointVersion>開始建構表格版本<logPath>。
DELTA_LOG_FILE_NOT_FOUND_FOR_STREAMING_SOURCE
如果您從未刪除過,您的查詢可能會落後。 請刪除其檢查點以從頭開始。 若要避免這種情況再次發生,您可以更新 Delta 數據表的保留政策。
DELTA_LOG_JSON_FILE_ACCESS_DENIED (檔案存取被拒)
讀取 Delta 日誌 JSON 檔時存取被拒絕: <filePath>。 確認你是否已對 Delta 資料表位置有讀取權限。
DELTA_MATERIALIZED_ROW_TRACKING_COLUMN_NAME_MISSING
缺少<rowTrackingColumn>的具體化列名<tableName>。
DELTA_MAX_ARRAY_SIZE_EXCEEDED
請使用小於 Int.MaxValue - 8 的限制。
DELTA_MAX_COMMIT_RETRIES_EXCEEDED
此次提交已失敗,因為已嘗試了 <numAttempts> 次但仍未成功。
可能是因為許多並行操作不斷向 Delta 數據表提交認可所造成的。
commits.
提交開始於版本:<startVersion>
提交在版本 <failVersion> 時失敗
嘗試認可的動作數目: <numActions>
嘗試這次提交所花費的總時間:<timeSpent> 毫秒
DELTA_MAX_LIST_FILE_EXCEEDED
檔案清單最多僅能有 <maxFileListSize> 個項目,但有 <numFiles>。
DELTA_MERGE_ADD_VOID_COLUMN
無法新增類型為 VOID 的欄位 <newColumn>。 請明確指定非空類型。
DELTA_MERGE_INCOMPATIBLE_DATATYPE
無法合併不相容的資料類型 <currentDataType> 與 <updateDataType>。
DELTA_MERGE_INCOMPATIBLE_DECIMAL_TYPE
無法合併不相容的<decimalRanges>十進位類型。
DELTA_MERGE_MATERIALIZE_SOURCE_FAILED_REPEATEDLY
嘗試確保MERGE陳述的來源具體化已多次失敗。
DELTA_MERGE_MISSING_WHEN
在一個 WHEN 語句中必須至少有一個 MERGE 子句。
DELTA_MERGE_RESOLVED_ATTRIBUTE_MISSING_FROM_INPUT
運算子 <missingAttributes>中遺漏<input>的已解析屬性。<merge>。
DELTA_MERGE_SOURCE_CACHED_DURING_EXECUTION
作業 MERGE 失敗,因為在執行 MERGE 作業期間,部分來源計劃已被快取。
DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY
未預期的指派索引鍵: <unexpectedKeyClass> - <unexpectedKeyObject>。
DELTA_MERGE_UNRESOLVED_EXPRESSION
無法解析 <sqlExpr> 在 <clause> 中的資料列 <cols>。
DELTA_METADATA_CHANGED
MetadataChangedException:Delta 數據表的元數據已由並行更新變更。 請再試一次作業。<conflictingCommit>
如需詳細資訊, <docLink> 請參閱 。
DELTA_MISSING_CHANGE_DATA
無法取得範圍 [<startVersion> , <endVersion>] 的變更資料,因為變更資料不存在。
記錄為版本 [<version>]。 如果您已啟用此資料表上的變更資料饋送,
使用 DESCRIBE HISTORY 來查看首次啟用的時間。
否則,若要開始錄製變更數據,請使用 ALTER TABLE table_name SET TBLPROPERTIES
(<key>=真).
DELTA_MISSING_COLUMN
在表格欄位中找不到 <columnName> : <columnList>。
DELTA_MISSING_COMMIT_INFO
這個表格已啟用功能<featureName>,因此需要在每個提交中包含 CommitInfo 動作。 不過,提交版本 <version> 的 CommitInfo 操作遺漏了。
DELTA_MISSING_COMMIT_TIMESTAMP
此數據表已啟用此功能 <featureName> ,這需要在 CommitInfo 動作中存在 commitTimestamp。 不過,此欄位尚未在提交版本 <version>中設定。
DELTA_MISSING_DELTA_TABLE
<tableName> 不是 Delta 數據表。
DELTA_MISSING_DELTA_TABLE_COPY_INTO
數據表不存在。 請先使用 CREATE TABLE <tableName>建立空的 Delta 數據表。
DELTA_MISSING_ICEBERG_CLASS
找不到 Apache Iceberg 類別。 請確定已安裝 Delta Apache Iceberg 支援。
如需詳細資訊, <docLink> 請參閱 。
DELTA_MISSING_NOT_NULL_COLUMN_VALUE
具有<columnName>約束的欄位NOT NULL在寫入數據表時被忽略了。
DELTA_MISSING_PARTITION_COLUMN
在架構<columnName>中找不到分區欄位<columnList>。
DELTA_MISSING_PART_FILES
無法找到檢查點版本的所有部件文件: <version>。
DELTA_MISSING_PROVIDER_FOR_CONVERT
CONVERT TO DELTA 僅支援 parquet 格式表格。 請將您的目標重寫為 parquet。
<path> 如果它是 parquet 目錄。
追蹤CDC遺失資料行的DELTA
錯誤取得 <tableName> 的變更資料,因為列追蹤未啟用。 要啟用列追蹤,請使用 ALTER TABLE table_name SET TBLPROPERTIES (<key>=true)。
DELTA_MISSING_SET_COLUMN
SET 找不到指定的數據行 <columnName> : <columnList>。
DELTA_MISSING_TRANSACTION_LOG
偵測到不相容的格式。
您正在嘗試使用 Delta,但沒有結果。
交易日誌存在。 檢查上游作業以確保它正在寫入數據或資訊。
使用 format(“delta”) 和您嘗試 %1$s 數據表基底路徑。
若要深入瞭解 Delta,請參閱 <docLink>
DELTA_MODE_NOT_SUPPORTED
不支援指定的模式 '<mode>'。 支援的模式為: <supportedModes>。
DELTA_MULTIPLE_CDC_BOUNDARY
用於 CDC 讀取提供的多個 <startingOrEnding> 參數。 請提供其中一個 <startingOrEnding>時間戳或 <startingOrEnding>版本。
DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER
多個 Bloom 篩選索引組態已傳遞至列命令:<columnName>。
DELTA_MULTIPLE_SOURCE_ROW_MATCHING_TARGET_ROW_IN_MERGE
無法執行合併,因為多個來源列同時匹配並嘗試修改同一資料
在 Delta 表中以可能互相衝突的方式處理目標列。 依照 Merge 的 SQL 語意,
當多個來源列在同一目標列上相符時,結果可能會不明確
因為不清楚應該用哪一列來更新或刪除匹配的來源列
目標欄位。 你可以預先處理來源表格,以消除可能性。
多個匹配 請參閱「建議的文件」所提供連結中的
<usageReference>
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_COMMAND
在 <command> 期間,這兩個協調提交組態(“delta.coordinatedCommits.commitCoordinator-preview”、“delta.coordinatedCommits.commitCoordinatorConf-preview”)要么都設定在命令中,要么兩者皆未設定。 遺漏:“<configuration>”。 請在 子句中 TBLPROPERTIES 指定此組態,或移除其他組態,然後再次重試命令。
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_SESSION
在 <command> 期間,SparkSession 組態中要麼設定這兩個協調認可組態(“coordinatedCommits.commitCoordinator-preview”,“coordinatedCommits.commitCoordinatorConf-preview”),要麼兩者都不設定。 遺漏:“<configuration>”。 請在SparkSession 中設定此組態,或取消設定其他組態,然後再次重試命令。
DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE
下列欄位名稱僅供 Delta 分桶表內部使用:<names>。
DELTA_NESTED_FIELDS_NEED_RENAME
輸入架構包含大小寫與目標數據表不同的巢狀欄位。
它們必須重新命名,以避免在寫入 Delta 時遺失這些欄位中的數據。
Fields:
<fields>。
原始模式:
<schema>
DELTA_NESTED_NOT_NULL_CONSTRAINT
欄位<nestType><parent>的類型包含NOT NULL條件約束。 Delta 不支援 NOT NULL 條件約束在陣列或映射中巢狀使用。 若要隱藏此錯誤,並以無訊息方式忽略指定的條件約束,請將 set <configKey> = true。
剖析 <nestType> 的類型:
<nestedPrettyJson>
DELTA_NESTED_SUBQUERY_NOT_SUPPORTED
條件中 <operation> 不支援巢狀子查詢。
DELTA_NEW_CHECK_CONSTRAINT_VIOLATION
<numRows> 中的 <tableName> 行違反新 CHECK 約束(<checkConstraint>)。
DELTA_NEW_NOT_NULL_VIOLATION
<numRows>列中的<tableName>違反了NOT NULL上的新<colName>約束條件。
DELTA_NON_BOOLEAN_CHECK_CONSTRAINT
CHECK 條件約束 '<name>' (<expr>) 應該是布爾表達式。
デルタ_非确定性_表达式_在_检查_约束中
在CHECK的限制中發現<expr>。
CHECK限制不能使用非確定性表達式。
DELTA_NON_DETERMINISTIC_EXPRESSION_IN_GENERATED_COLUMN
找到 <expr>。 產生的數據行無法使用非決定性表達式。
DELTA_NON_DETERMINISTIC_FUNCTION_NOT_SUPPORTED
中 <operation> <expression>不支援不具決定性的函式。
DELTA_NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
在一個條件語句中有多個MATCHED子句時,只有最後一個MERGE子句可以省略條件。
DELTA_NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
在一個條件語句中有多個NOT MATCHED BY SOURCE子句時,只有最後一個MERGE子句可以省略條件。
DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION
在一個條件語句中有多個NOT MATCHED子句時,只有最後一個MERGE子句可以省略條件。
DELTA_NON_PARSABLE_TAG
無法剖析標記 <tag>。
檔案標籤為: <tagList>。
DELTA_NON_PARTITION_COLUMN_ABSENT
寫入 Delta 的數據必須至少包含一個非數據分割的數據行。<details>
DELTA_NON_PARTITION_COLUMN_REFERENCE
謂詞參考非分區欄位 '<columnName>'。 只能參考分割區數據行: [<columnList>]。
DELTA_NON_PARTITION_COLUMN_SPECIFIED
指定非分割欄 <columnList>,而這裡僅預期分割欄:<fragment>。
DELTA_NON_SINGLE_PART_NAMESPACE_FOR_CATALOG
Delta 目錄需要單一部分命名空間,但 <identifier> 為多部分。
DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_COMMAND
不支援透過命令將認可協調器設定為 '<nonUcCoordinatorName>',因為 UC 管理的表格只能以 'unity-catalog' 作為認可協調器。 請將它變更為 'unity-catalog',或從 TBLPROPERTIES 子句中移除所有 Coordinated Commits 數據表屬性,然後再次重試命令。
DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_SESSION
不支援將認可協調器設定為 SparkSession 設定的 '<nonUcCoordinatorName>',因為 UC 管理的數據表只能有 'unity-catalog' 作為認可協調器。 請執行 spark.conf.set("<coordinatorNameDefaultKey>", "unity-catalog") 並將其更改為「unity-catalog」,或執行 spark.conf.unset("<coordinatorNameDefaultKey>"), spark.conf.unset("<coordinatorConfDefaultKey>"), spark.conf.unset("<tableConfDefaultKey>") 移除 SparkSession 配置中的所有協調提交資料表屬性,然後再重試該指令。
DELTA_非UC管理的資料表_不支援升級或降級
數據表 <tableName> 不是UC管理的。 只有 UC 管理的資料表可以升級或降級為目錄管理的資料表。
DELTA_NOT_A_DATABRICKS_DELTA_TABLE
<table> 不是 Delta 數據表。 如果您想要使用 Databricks Delta 建立數據表,請先卸除此數據表。
DELTA_NOT_A_DELTA_TABLE
<tableName> 不是 Delta 數據表。 如果您想要使用 Delta Lake 重新建立數據表,請先卸除此數據表。
DELTA_NOT_NULL_COLUMN_NOT_FOUND_IN_STRUCT
無法在結構中找到非空欄位:<struct>。
DELTA_NOT_NULL_CONSTRAINT_VIOLATED
NOT NULL 欄位違反約束條件:<columnName>。
DELTA_NOT_NULL_NESTED_FIELD
不可為 Null 的巢狀字段無法新增至可為 Null 的父代。 請據以設定父列的可空性。
DELTA_NO_COMMITS_FOUND
在 <logPath> 找不到任何提交。
DELTA_NO_RECREATABLE_HISTORY_FOUND
找不到位於<logPath>的可重建提交記錄。
DELTA_NO_REDIRECT_RULES_VIOLATED
不允許作業: <operation> 無法在具有重新導向功能的數據表上執行。
未滿足不進行重新導向的規則<noRedirectRules>。
DELTA_NO_RELATION_TABLE
找不到數據表 <tableIdent> 。
DELTA_NO_START_FOR_CDC_READ
未提供 startingVersion 或 startingTimestamp 作為 CDC 讀取的基準。
DELTA_NULL_SCHEMA_IN_STREAMING_WRITE
Delta 不接受數據流寫入架構中的 NullType。
DELTA_ONEOF_IN_TIMETRAVEL
請提供「timestampAsOf」或「versionAsOf」以進行歷史數據查詢。
DELTA_ONLY_OPERATION
<operation> 僅支援 Delta 資料表。
DELTA_OPERATION_MISSING_PATH
請提供<operation>的路徑或資料表識別碼。
DELTA_OPERATION_NOT_ALLOWED
不被允許的操作:<operation> 不支援 Delta 資料表。
DELTA_OPERATION_NOT_ALLOWED_DETAIL
不允許操作:<operation> 不支援 Delta 表格:<tableName>。
DELTA_OPERATION_NOT_SUPPORTED_FOR_COLUMN_WITH_COLLATION
<operation>
<colName>不支援具有非預設定序的數據行<collation>。
DELTA_OPERATION_NOT_SUPPORTED_FOR_DATATYPES
<operation> 數據類型不支援: <dataTypeList>。
DELTA_OPERATION_NOT_SUPPORTED_FOR_EXPRESSION_WITH_COLLATION
<operation> 不支援表達式 <exprText>,因為它使用非預設的排序規則。
DELTA_OPERATION_ON_TEMP_VIEW_WITH_GENERATED_COLS_NOT_SUPPORTED
<operation> 不支援於臨時檢視中參考包含生成的欄位之 Delta 資料表的命令。 請直接在 Delta 資料表上執行 <operation> 命令。
DELTA_OPERATION_ON_VIEW_NOT_ALLOWED
不允許作業: <operation> 無法在檢視上執行。
DELTA_OPTIMIZE_FULL_NOT_SUPPORTED
OPTIMIZE FULL 僅支援具有非空白叢集數據行的叢集數據表。
DELTA_OVERWRITE_MUST_BE_TRUE
若未設定 OVERWRITE = 'true',就無法指定複製選項 overwriteSchema。
DELTA_OVERWRITE_SCHEMA_WITH_DYNAMIC_PARTITION_OVERWRITE
'overwriteSchema' 不能用於動態分割覆寫模式。
DELTA_PARTITION_COLUMN_CAST_FAILED
無法將值 <value> 轉換為 <dataType> 以用於分區列 <columnName>。
DELTA_PARTITION_COLUMN_NOT_FOUND
分割欄位<columnName>在架構[<schemaMap>]中找不到。
DELTA_PARTITION_SCHEMA_IN_ICEBERG_TABLES
在轉換 Apache Iceberg 資料表時,無法指定分割區結構。 它會自動推斷。
DELTA_PATH_BASED_ACCESS_TO_CATALOG_MANAGED_TABLE_BLOCKED
Catalog-Managed 表不允許通過路徑進行存取:<path>。 請透過表格名稱進入並重試。
基於路徑的表訪問已被阻止
的 <path> 數據表已移轉至 Unity 目錄受控數據表,且無法再依路徑存取。 更新用戶端以依名稱存取數據表。
DELTA_PATH_DOES_NOT_EXIST
<path> 不存在,或不是 Delta 數據表。
DELTA_PATH_EXISTS
若未設定 <path> = 'true',就無法寫入已經存在的路徑OVERWRITE。
DELTA_POST_COMMIT_HOOK_FAILED
提交至 Delta 表格版本 <version> 成功,但在執行提交后掛鉤 <name> <message> 時發生錯誤
DELTA_PROTOCOL_CHANGED
ProtocolChangedException:Delta 數據表的通訊協定版本已由並行更新變更。 <additionalInfo> <conflictingCommit>
如需詳細資訊, <docLink> 請參閱 。
DELTA_PROTOCOL_PROPERTY_NOT_INT
Protocol 屬性 <key> 必須是整數。 找到 <value>。
DELTA_READ_FEATURE_PROTOCOL_REQUIRES_WRITE
無法只升級讀取器通訊協定版本以使用數據表功能。 寫入器通訊協定版本至少必須為 <writerVersion>,才能繼續進行。
<docLink>如需資料表通訊協定版本的詳細資訊,請參閱 。
DELTA_READ_TABLE_WITHOUT_COLUMNS
您嘗試讀取沒有任何欄位的 Delta 資料表 <tableName> 。
使用 選項 mergeSchema = true 寫入一些新數據,以便讀取數據表。
DELTA_READ_TIME_CDC_不支援具有存取政策的資料表
你在 <tableName> 上嘗試計算變更資料饋送,此 <tableName> 已定義存取政策。 Read Time Change Data Feed 目前處於預覽階段,且不支援有存取控制策略的資料表使用 CDF。 透過將表格屬性 <cdfTableProperty> 設為 'true',啟用讀取最佳化 CDF。
DELTA_REDIRECT_TARGET_ROW_FILTER_COLUMN_MASK_UNSUPPORTED
不支援將重定向到帶有列過濾器或欄遮罩的資料表。 更新你的程式碼,直接參考目標資料表 <tableIdent> 。
DELTA_REGEX_OPT_SYNTAX_ERROR
請重新檢查 '<regExpOption>' 的語法。
DELTA_RELATION_PATH_MISMATCH
關聯路徑 '<relation>' 與 <targetType> 的路徑 '<targetPath>' 不符。
未分區表上不支援DELTA重組實現
在未分割的表格中不支援使用 reorg 指令進行液體轉換。
差分重新組織分割區具現化衝突
無法 <action> 分割欄位。
<instruction> 分割欄位物質化可將資料表屬性 '<tableProperty>' 設 <value> 為 ,或將 SQL 設定 '<sqlConfig>' 設為 <value>。
DELTA_REORG_UNKNOWN_MODE
未知 REORG TABLE 模式: <mode>。
DELTA_REPLACE_WHERE_IN_OVERWRITE
您不能將 replaceWhere 與依篩選條件的覆寫一起使用。
DELTA_REPLACE_WHERE_MISMATCH
寫入的數據不符合部分數據表覆寫條件或條件約束 『<replaceWhere>』。
<message>
DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE
DataFrameWriter 選項中不能同時設定 'replaceWhere' 表達式和 'partitionOverwriteMode'='dynamic'。
DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET
當 'dataChange' 設定為 false 時,'replaceWhere' 無法與數據篩選搭配使用。 篩選: <dataFilters>。
DELTA_ROW_ID_ASSIGNMENT_WITHOUT_STATS
無法在沒有列計數統計資訊的情況下指派列 ID。
執行 ANALYZE TABLE 命令來收集資料表的統計資料。
ANALYZE TABLE 表格名稱 COMPUTE DELTA STATISTICS
DELTA_ROW_TRACKING_BACKFILL 同時運行未回填的過程
偵測到「列追蹤」啟用作業與「列追蹤」停用同時執行。 中止停用操作。 啟用作業完成後,如有必要,請重試停用作業。
DELTA_ROW_TRACKING_ILLEGAL_PROPERTY_COMBINATION
偵測到非法資料表狀態。 表格屬性 <property1> 和 <property2> 都設定為 true。 此問題可以透過停用兩個資料表屬性中的任何一個來解決。
請連絡 Databricks 支援人員以取得進一步協助。
DELTA_SCHEMA_CHANGED
偵測到的架構變更:
串流來源架構: <readSchema>
資料檔案架構: <dataSchema>
請嘗試重新啟動查詢。 如果此問題會在查詢重新啟動時重複,而不需要
取得進展,您已進行了不相容的架構變更,需要重新啟動您的
使用新的檢查點目錄從頭查詢。
DELTA_SCHEMA_CHANGED_WITH_STARTING_OPTIONS
偵測到版本 <version>中的架構變更:
串流來源架構: <readSchema>
資料檔案架構: <dataSchema>
請嘗試重新啟動查詢。 如果此問題會在查詢重新啟動時重複,而不需要
取得進展,您已進行了不相容的架構變更,需要重新啟動您的
使用新的檢查點目錄從頭查詢。 如果問題仍然存在
變更為新的檢查點目錄,您可能需要變更現有的設定
'startingVersion' 或 'startingTimestamp' 選項,從比 更新的版本啟動
<version> 具有新的檢查點目錄。
DELTA_SCHEMA_CHANGED_WITH_VERSION
偵測到版本 <version>中的架構變更:
串流來源架構: <readSchema>
資料檔案架構: <dataSchema>
請嘗試重新啟動查詢。 如果此問題會在查詢重新啟動時重複,而不需要
取得進展,您已進行了不相容的架構變更,需要重新啟動您的
使用新的檢查點目錄從頭查詢。
DELTA_SCHEMA_CHANGE_SINCE_ANALYSIS
你的 Delta 表格結構自 DataFrame 以來以不相容的方式改變了
或者已建立 DeltaTable 物件。 請重新定義 DataFrame 或 DeltaTable 物件。
Changes:
<schemaDiff> <legacyFlagMessage>
DELTA_SCHEMA_NOT_PROVIDED
未提供數據表架構。 使用 REPLACE 表格時,請提供表格的結構(欄位定義),且 AS SELECT 未提供查詢。
DELTA_SCHEMA_NOT_SET
未設定數據表架構。 將數據寫入其中,或使用 CREATE TABLE 來設定架構。
DELTA_SET_LOCATION_SCHEMA_MISMATCH
新 Delta 位置的架構與目前的數據表架構不同。
原始模式:
<original>
目的地架構:
<destination>
如果這是預期的變更,您可以執行下列命令來關閉此檢查:
%%sql 設定 <config> = 真
DELTA_SHALLOW_CLONE_FILE_NOT_FOUND
找不到事務歷史記錄中所參考的檔案 <filePath> 。 當數據已從文件系統手動刪除,而不是使用 table DELETE 語句時,就會發生這種情況。 此資料表似乎是淺層複製的,如果是這種情況,當被複製的原始資料表刪除了複製品仍在使用的某個檔案時,就可能發生這個錯誤。 如果您希望任何克隆與原始資料表獨立,請使用深度克隆。
DELTA_SHARING_CANNOT_MODIFY_RESERVED_RECIPIENT_PROPERTY
開頭為的預先定義屬性 <prefix> 無法修改。
DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
數據受到不適用於會話中目前收件者的收件者屬性 <property> 的限制。
如需詳細資訊,請參閱 DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
DELTA_SHARING_INVALID_OP_IN_EXTERNAL_SHARED_VIEW
<operation> 無法在跨帳戶共用的 Delta 共用檢視中使用。
DELTA_SHARING_INVALID_PROVIDER_AUTH
非法的驗證類型 <authenticationType> 用於提供者 <provider>。
DELTA_SHARING_INVALID_RECIPIENT_AUTH
收件者<authenticationType>的驗證類型<recipient>不合法。
DELTA_SHARING_INVALID_SHARED_DATA_OBJECT_NAME
在 Share 內參考 <type> 的無效名稱。 您可以遵循 [schema].[<type>] 的格式,在共用中使用 <type> 的名稱,或者您也可以使用資料表的完整原始名稱,格式為 [catalog].[schema].[>type>]。
如果您不確定要使用什麼名稱,可以執行 "SHOW ALL IN SHARE [share]" 來尋找要移除的 <type> 名稱:欄位 "name" 是<type> 在共享內的名稱,而欄位 "shared_object" 是 <type> 的原始完整名稱。
最大值_DELTA_SHARING_RECIPIENT_TOKENS_超過
收件者 <recipient> 擁有多於兩個的標記。
DELTA_SHARING_RECIPIENT_PROPERTY_NOT_FOUND
Recipient 屬性 <property> 不存在。
DELTA_SHARING_RECIPIENT_TOKENS_NOT_FOUND(Delta分享未找到)
收件者 <recipient> 缺少令牌。
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_COLUMN
為<badCols>指定的資料分割資料列中包含非資料分割資料列SHOW PARTITIONS。
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE
SHOW PARTITIONS 不允許在未分割的數據表上: <tableName>。
DELTA_SHREDDED_WRITES_DISABLED
無法執行 REORG APPLY(SHRED) 操作,因為分割寫入功能被禁用了。
DELTA_SHREDDING_TABLE_PROPERTY_DISABLED (DELTA_刪除表屬性已停用)
嘗試寫入分段變體,但該表不支援分段寫入。 考慮將 table 屬性 enableVariantShredding 設為 true。
DELTA_SOURCE_IGNORE_DELETE
偵測到串流來源版本<removedFile>已刪除的數據(例如 <version>)。 目前不支援。 如果您想要忽略刪除,請將選項 'ignoreDeletes' 設定為 'true'。 您可以在路徑 <dataPath>中找到來源資料表。
DELTA_SOURCE_TABLE_IGNORE_CHANGES
在版本 <file>上偵測到源數據表中的數據更新(例如 <version>)。 目前不支援。 如果這會定期發生,而且您可以略過變更,請將選項 'skipChangeCommits' 設定為 'true'。 如果您想要反映資料更新,請使用新的檢查點目錄重新啟動此查詢,或者如果您使用 Lakeflow Spark 宣告式管線,請執行完整重新整理。 如果您需要處理這些變更,請切換至MV。 您可以在路徑 <dataPath>中找到來源資料表。
DELTA_STARTING_VERSION_AND_TIMESTAMP_BOTH_SET
請提供 『<version>』 或 『<timestamp>』。
DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND
<statsType> 在 Parquet 元數據中找不到數據行的統計數據: <columnPath>。
增量統計在檔案中未找到
檔案中找不到統計資料: <filePath>。 執行 'ANALYZE TABLE [tableName] COMPUTE DELTA STATISTICS' 來計算統計數據。
DELTA_STREAMING_CANNOT_CONTINUE_PROCESSING_POST_SCHEMA_EVOLUTION
我們已偵測到在 Delta 流式來源中,Delta 版本 <opType> 和 <previousSchemaChangeVersion> 之間存在一個或多個非累加的架構變更。<currentSchemaChangeVersion>
Changes:
<columnChangeDetails>
請先檢查您是否要手動將架構變更傳播至接收數據表,然後再使用版本 <currentSchemaChangeVersion>完成的架構繼續進行串流處理。
修正接收數據表的架構或決定不需要修正之後,您可以設定下列組態來解除封鎖非加總架構變更,並繼續串流處理。
使用資料框讀取器選項:
若要針對此特定數據流解除封鎖,僅需處理此一系列的架構變更:
<unblockChangeOptions>
若要解除封鎖此特定資料流:
<unblockStreamOptions>
使用 SQL 設置:
若要針對此特定數據流解除封鎖,僅需處理此一系列的架構變更:
<unblockChangeConfs>
若要解除封鎖此特定資料流:
<unblockStreamConfs>
若要解除封鎖所有數據流:
<unblockAllConfs>
DELTA_STREAMING_CHECK_COLUMN_MAPPING_NO_SNAPSHOT
檢查欄位映射架構變更時,無法取得起始版本的 Delta 日誌快照。 請選擇不同的開始版本,或者在自行承擔風險下將 '<config>' 設定為 'true' 以強制啟用串流讀取。
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE
具有讀取不相容結構描述變更 (例如,重新命名或捨棄或資料類型變更) 的資料表不支援串流讀取。
如需解決此問題的進一步資訊和可能後續步驟,請檢閱下列檔: <docLink>
讀取架構: <readSchema>。 不相容的數據架構: <incompatibleSchema>。
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE_USE_SCHEMA_LOG
具有讀取不相容結構描述變更 (例如,重新命名或捨棄或資料類型變更) 的資料表不支援串流讀取。
請提供 'schemaTrackingLocation',以啟用 Delta 流處理的非加成性架構演進。
如需詳細資訊,請參閱 <docLink>。
讀取架構: <readSchema>。 不相容的數據架構: <incompatibleSchema>。
DELTA_STREAMING_METADATA_EVOLUTION
Delta 表的架構、資料表配置或協定在串流期間已變更。
架構或元數據追蹤記錄已更新。
請重新啟動數據流,以繼續使用更新的元數據進行處理。
更新的架構: <schema>。
更新的數據表組態: <config>。
更新的數據表通訊協定: <protocol>
Delta流式資料架構演化不支持的列過濾器_COLUMN_MASKS
使用架構追蹤從源資料表<tableId>串流不支援行篩選或列遮罩。
請卸除數據列篩選或數據行遮罩,或停用架構追蹤。
DELTA_STREAMING_SCHEMA_LOCATION_CONFLICT
偵測到在從位於<loc>的數據表串流時發生衝突的架構位置<table>。
另一個數據流可能會重複使用相同的架構位置,這是不允許的。
請提供新的獨特schemaTrackingLocation路徑或streamingSourceTrackingId,作為此表格中其中一個數據流的讀取器選項。
DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT
架構位置 『<schemaTrackingLocation>' 必須放在檢查點位置 『<checkpointLocation>』 之下。
DELTA_STREAMING_SCHEMA_LOG_DESERIALIZE_FAILED
Delta串流源架構記錄檔中的不完整記錄檔位於「<location>」。
架構記錄檔可能已損毀。 請挑選新的架構位置。
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_DELTA_TABLE_ID
嘗試讀取 Delta 數據流時偵測到不相容的 Delta 數據表標識碼。
儲存的資料表識別碼: <persistedId>、資料表識別碼: <tableId>
架構記錄檔可能已重複使用。 請挑選新的架構位置。
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_PARTITION_SCHEMA
嘗試讀取 Delta 數據流時偵測到不相容的數據分割架構。
儲存架構:<persistedSchema>,差異分割區架構:<partitionSchema>
如果您最近手動變更數據表的數據分割架構,請挑選新的架構位置來重新初始化架構記錄檔。
DELTA_STREAMING_SCHEMA_LOG_INIT_FAILED_INCOMPATIBLE_METADATA
我們無法初始化 Delta 串流來源架構記錄,因為
我們在將串流批次從數據表版本<a>切換到<b>時偵測到不相容的架構或通訊協議變更。
DELTA_STREAMING_SCHEMA_LOG_PARSE_SCHEMA_FAILED
無法從 Delta 串流來源架構記錄檔中剖析架構。
架構記錄檔可能已損毀。 請挑選新的架構位置。
DELTA_STREAMING_SINK_TRANSACTION_NOT_FOUND
在串流 Delta Sink 中,最近<versionLimit>個版本未找到批次<batchId>的交易。
DELTA_STREAMING_SKIP_OFFSETS_INVALID_OFFSET_RANGE(可能是流式資料傳輸中無效的偏移範圍錯誤)
跳過偏移範圍對於 Delta 來源範圍來說是無效的=[<startOffset>, <endOffset>)。 修正這個偏移範圍後再試一次。
更多詳情請參見 DELTA_STREAMING_SKIP_OFFSETS_INVALID_OFFSET_RANGE
DELTA_TABLE_ALREADY_CONTAINS_CDC_COLUMNS
無法在數據表上啟用異動數據擷取。 資料表已包含
將保留的欄位<columnList>
在內部作為表格變更數據提要的元數據使用。 若要啟用
更改表格上的資料饋送重新命名/刪除這些欄位。
DELTA_TABLE_ALREADY_EXISTS
數據表 <tableName> 已經存在。
預留的CDC欄位包含於DELTA表中
無法在表格上計算變更資料串流。 該資料表包含保留的欄位名稱 <columnList> ,作為資料表變更資料饋送的輸出欄位。 要計算資料表上的變更資料流,請重新命名或刪除這些欄位。
DELTA_TABLE_FOR_PATH_UNSUPPORTED_HADOOP_CONF
目前,DeltaTable.forPath 僅支援以 <allowedPrefixes> 開頭的 hadoop 組態密鑰,但取得的是 <unsupportedOptions>。
DELTA_TABLE_ID_MISMATCH
位於 <tableLocation> 的 Delta 資料表在此命令使用該表時已被取代。
資料表識別碼是 <oldId> ,但現在為 <newId>。
請重試當前的命令,以確保表格的一致性。
DELTA_TABLE_INVALID_REDIRECT_STATE_TRANSITION
無法更新數據表重新導向狀態:嘗試狀態轉換無效。
Delta 資料表 '<table>' 無法從 '<oldState>' 變更為 '<newState>'。
DELTA_TABLE_INVALID_SET_UNSET_REDIRECT
無法在 SET 上將屬性 UNSET 或 <table> 重新導向:目前屬性 '<currentProperty>' 與新屬性 '<newProperty>' 不匹配。
DELTA_TABLE_LOCATION_MISMATCH
現有資料表 <tableName> 的位置為 <existingTableLocation>。 它不符合指定的位置 <tableLocation>。
DELTA_TABLE_NOT_FOUND
差異數據表 <tableName> 不存在。
DELTA_TABLE_NOT_SUPPORTED_IN_OP
不支援<operation> 的數據表。 請改用路徑。
DELTA_TABLE_ONLY_OPERATION
<tableName> 不是 Delta 數據表。
<operation> 僅支援 Delta 資料表。
DELTA_TABLE_UNRECOGNIZED_REDIRECT_SPEC
Delta 記錄檔包含無法辨識的數據表重新導向規格 『<spec>』。
DELTA_TARGET_TABLE_FINAL_SCHEMA_EMPTY
目標數據表最終架構是空的。
DELTA_TIMESTAMP_EARLIER_THAN_COMMIT_RETENTION
所提供的時間戳記(<userTimestamp>)早於可用的最早版本
此表(<commitTs>)。 請在 <timestampString> 後面使用時間戳記。
DELTA_TIMESTAMP_GREATER_THAN_COMMIT
提供的時間戳記(<providedTimestamp>)比此可用的最新版本還要晚。
表格(<tableName>)。 請在<maximumTimestamp>或之前使用時間戳。
DELTA_TIMESTAMP_INVALID
提供的時間戳 (<expr>) 無法轉換為有效的時間戳。
DELTA_TIME_TRAVEL_INVALID_BEGIN_VALUE
<timeTravelKey> 必須是有效的開始值。
DELTA_TOO_MUCH_LISTING_MEMORY
由於記憶體不足,無法列出 Delta 資料表中的檔案 (<numFiles>)。 必要的記憶體: <estimatedMemory>、可用的記憶體: <maxMemory>。
DELTA_TRUNCATED_TRANSACTION_LOG
<path>:由於手動刪除或記錄保留原則(<version>)和檢查點保留原則(<logRetentionKey>=<logRetention>),事務記錄檔已遭到截斷,無法重新建構版本<checkpointRetentionKey>=<checkpointRetention>的狀態。
DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED
不允許作業:TRUNCATE TABLE 在 Delta 數據表上不支援分割條件,請使用 DELETE 來刪除特定的分割區或資料列。
DELTA_UDF_IN_CHECK_CONSTRAINT
在<expr>限制條件中發現CHECK。
CHECK限制不能使用使用者定義的函式。
DELTA_UDF_IN_GENERATED_COLUMN
找到 <udfExpr>。 產生的數據行無法使用使用者定義函數。
DELTA_UNEXPECTED_ACTION_EXPRESSION
非預期的動作表示式 <expression>。
DELTA_UNEXPECTED_NUM_PARTITION_COLUMNS_FROM_FILE_NAME
預期<expectedColsSize>分區欄位:<expectedCols>,但從剖析檔名<parsedColsSize>發現<parsedCols>分區欄位:<path>。
DELTA_UNEXPECTED_PARTIAL_SCAN
預期會對 Delta 來源進行完全掃描,但發現只有部分掃描過。 路徑: <path>。
DELTA_UNEXPECTED_PARTITION_COLUMN_FROM_FILE_NAME
預期分割欄 <expectedCol>,但在剖析檔名 <parsedCol> 時發現分割欄 <path>。
DELTA_UNEXPECTED_PARTITION_SCHEMA_FROM_USER
CONVERT TO 是以不同於從目錄推斷的數據分割架構來呼叫, DELTA 請避免提供架構,以便從類別目錄選擇數據分割架構。
目錄資料分割架構:
<catalogPartitionSchema>
提供的分割區架構:
<userPartitionSchema>
DELTA_UNIFORM_COMPATIBILITY_LOCATION_CANNOT_BE_CHANGED
delta.universalFormat.compatibility.location 無法變更。
DELTA_UNIFORM_COMPATIBILITY_LOCATION_NOT_REGISTERED
delta.universalFormat.compatibility.location 未在目錄中註冊。
DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION
統一的兼容格式的位置信息缺失或無效。 請為 delta.universalFormat.compatibility.location 設定空的目錄。
失敗原因:
如需了解更多詳情,請參閱 DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION
DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
使用 Delta Uniform 讀取 Apache Iceberg 失敗。
如需詳細資訊,請參閱 DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
DELTA_UNIFORM_INGRESS_AMBIGUOUS_FORMAT
找到多種 Delta Uniform 入口格式(<formats>),最多只能設定一種。
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED
不支援建立或重新整理統一輸入數據表。
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED_FORMAT
不支援格式 <fileFormat> 。 僅支援 Apache Iceberg 和 hudi 作為原始檔案格式。
DELTA_UNIFORM_INGRESS_VIOLATION
讀取差異統一失敗:
如需詳細資訊,請參閱 DELTA_UNIFORM_INGRESS_VIOLATION
DELTA_UNIFORM_NOT_SUPPORTED
只有 Unity 目錄資料表支援通用格式。
DELTA_UNIFORM_REFRESH_INVALID_ARGUMENT
REFRESH TABLE 具有無效自變數:
如需詳細資訊,請參閱 DELTA_UNIFORM_REFRESH_INVALID_ARGUMENT
DELTA_UNIFORM_REFRESH_NOT_SUPPORTED
REFRESH 識別碼 SYNC UNIFORM 不受支援,原因如下:
如需詳細資訊,請參閱 DELTA_UNIFORM_REFRESH_NOT_SUPPORTED
DELTA_UNIFORM_REFRESH_NOT_SUPPORTED_FOR_MANAGED_ICEBERG_TABLE_WITH_METADATA_PATH
REFRESH TABLE 搭配 METADATA_PATH 不支援用於管理的 Apache Iceberg 數據表。
DELTA_UNIVERSAL_FORMAT_CONVERSION_FAILED
無法將數據表版本 <version> 轉換成通用格式 <format>。 <message>
DELTA_UNIVERSAL_FORMAT_VIOLATION
通用格式 (<format>) 的驗證失敗: <violation>。
DELTA_UNKNOWN_CONFIGURATION
指定了未知的組態: <config>。
若要停用這項檢查,請在Spark工作階段組態中設定 <disableCheckConfig>=true。
DELTA_UNKNOWN_PRIVILEGE
未知的許可權: <privilege>。
DELTA_UNKNOWN_READ_LIMIT
未知 ReadLimit:<limit>。
DELTA_UNRECOGNIZED_COLUMN_CHANGE
無法辨識的欄位變更 <otherClass>。 您可能正在執行過時的 Delta Lake 版本。
DELTA_UNRECOGNIZED_INVARIANT
無法辨識的不變量。 請升級您的Spark版本。
DELTA_UNRECOGNIZED_LOGFILE
無法辨識的記錄檔 <filename>。
DELTA_UNSET_NON_EXISTENT_PROPERTY
嘗試移除不存在的屬性 '<property>' 在數據表 <tableName> 中。
DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE
<path> 不支援新增具有絕對路徑的檔案。
DELTA_UNSUPPORTED_ALTER_TABLE_CHANGE_COL_OP
ALTER TABLE CHANGE COLUMN 不支援將資料列 <fieldPath> 從 <oldField> 變更為 <newField>。
DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP
不支援的 ALTER TABLE REPLACE COLUMNS 作業。 原因:<details>
無法變更架構,從:
<oldSchema>
to:
<newSchema>
DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE
您嘗試對現有資料表(REPLACE)使用 <tableName> 進行 CLONE。 此作業為
unsupported. 請嘗試為 CLONE 設定不同的目標,或刪除目前目標的資料表。
DELTA_不支援的分區欄位預測
OPTIMIZE
...
FULL WHERE Liquid 表格的指令不支援以下條件:
更多詳情請參見 DELTA_UNSUPPORTED_CLUSTERING_COLUMN_PREDICATES
DELTA_UNSUPPORTED_COLUMN_MAPPING_MODE_CHANGE
不支援將數據行對應模式從 『<oldMode>' 變更為 『<newMode>』。
DELTA_UNSUPPORTED_COLUMN_MAPPING_OPERATIONS_ON_COLUMNS_WITH_BLOOM_FILTER_INDEX
無法在數據行上執行數據行對應作業<opName><quotedColumnNames>
由於這些欄位具有 Bloom 篩選索引。
如果您想要在一些資料行上執行資料行對應作業
搭配 Bloom 篩選索引(es),
請先移除 Bloom 篩選索引:
DROP BLOOMFILTER INDEX ON TABLE 表格名稱 FOR COLUMNS(<columnNames>)
如果您要移除資料表上的所有 Bloom 篩選索引,請使用:
DROP BLOOMFILTER INDEX ON TABLE 表名
DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL
您目前的數據表通訊協定版本不支援變更資料行對應模式
使用 <config>。
資料列映射所需的 Delta 通訊協定版本:
<requiredVersion>
您資料表目前的 Delta 通訊協定版本:
<currentVersion>
<advice>
DELTA_UNSUPPORTED_COLUMN_MAPPING_SCHEMA_CHANGE
偵測到架構變更:
舊模式:
<oldTableSchema>
新結構描述:
<newTableSchema>
在數據行對應模式變更期間,不允許進行架構變更。
DELTA_UNSUPPORTED_COLUMN_MAPPING_WRITE
不支援通過欄位映射模式寫入數據。
DELTA_UNSUPPORTED_COLUMN_TYPE_IN_BLOOM_FILTER
不支援在類型 <dataType> 的數據行上建立 Bloom 過濾器索引:<columnName>。
DELTA_UNSUPPORTED_COMMENT_MAP_ARRAY
無法將批註新增至 <fieldPath>。 不支援將註釋新增到映射的鍵/值或陣列元素。
DELTA_UNSUPPORTED_DATA_TYPES
找到使用不支持數據類型的數據行: <dataTypeList>。 您可以將 '<config>' 設定為 'false',以停用類型檢查。 停用此類型檢查可讓使用者建立不支援的 Delta 數據表,而且只有在嘗試讀取/寫入舊版數據表時才應該使用。
DELTA_UNSUPPORTED_DATA_TYPE_IN_GENERATED_COLUMN
<dataType> 不能是產生欄位的結果。
DELTA_UNSUPPORTED_DEEP_CLONE
此 Delta 版本不支援深層複製。
DELTA_UNSUPPORTED_DESCRIBE_DETAIL_VIEW
<view> 是檢視。
DESCRIBE DETAIL 僅支持數據表。
DELTA_UNSUPPORTED_DROP_CLUSTERING_COLUMN
不允許刪除叢集欄(<columnList>)。
DELTA_UNSUPPORTED_DROP_COLUMN
DROP COLUMN 無法支援您的 Delta 資料表。 <advice>
DELTA_UNSUPPORTED_DROP_NESTED_COLUMN_FROM_NON_STRUCT_TYPE
只能從 StructType 移除巢狀結構的欄位。 找到 <struct>。
DELTA_UNSUPPORTED_DROP_PARTITION_COLUMN
卸除分區欄位(<columnList>)是不允許的。
DELTA_UNSUPPORTED_EXPRESSION
不支援的表達式類型(<expType>)用於<causedBy>。 支援的型別為 [<supportedTypes>]。
DELTA_UNSUPPORTED_EXPRESSION_CHECK_CONSTRAINT
在<expression>限制條件中發現CHECK。
<expression> 不能用於 CHECK 限制條件。
DELTA_UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
<expression> 無法在產生的數據行中使用。
DELTA_UNSUPPORTED_FEATURES_FOR_READ
不支援的 Delta 讀取功能:資料表 "<tableNameOrPath>" 需要此版本的 Databricks 不支援的讀取特性:<unsupported>。 如需 Delta Lake 功能相容性的詳細資訊,請參閱 <link> 。
DELTA_UNSUPPORTED_FEATURES_FOR_WRITE
不支援的 Delta 寫入功能:數據表 "<tableNameOrPath>" 需要此版本的 Databricks 不支援的寫入表功能:<unsupported>。 如需 Delta Lake 功能相容性的詳細資訊,請參閱 <link> 。
DELTA_UNSUPPORTED_FEATURES_IN_CONFIG
此版本的 Databricks 無法辨識下列 Spark 設定或 Delta 資料表屬性中所設定的數據表功能: <configs>。
DELTA_UNSUPPORTED_FEATURE_STATUS
預期數據表功能 <feature> 的狀態為「支援中」,但取得「<status>」。
DELTA_UNSUPPORTED_FIELD_UPDATE_NON_STRUCT
StructType 僅支援更新巢狀字段,但您嘗試更新 的 <columnName>字段,其類型為: <dataType>。
DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS
缺少刪除向量檔案的數據表版本不支援 『FSCK REPAIR TABLE』命令。
請連絡支援人員。
DELTA_UNSUPPORTED_GENERATE_WITH_DELETION_VECTORS
具有刪除向量的數據表版本不支援 『GENERATE symlink_format_manifest』 命令。
若要產生不含刪除向量的表格版本,請執行 'REORG TABLE table APPLY (PURGE)'。 然後重新執行 『GENERATE' 命令。
請確保在REORG和GENERATE 之間沒有並行交易再次新增刪除向量。
如果您需要定期產生文件清單,或無法防止並發交易,請考慮在此數據表上使用 'ALTER TABLE table SET TBLPROPERTIES (delta.enableDeletionVectors = false)' 停用刪除向量。
DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT
不支援 StructTypes 以外的巢狀字段上的非變異值。
DELTA_UNSUPPORTED_IN_SUBQUERY
在<operation>條件中不支援子查詢。
DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX
listKeywithPrefix 無法使用。
DELTA_UNSUPPORTED_MANIFEST_GENERATION_WITH_COLUMN_MAPPING
使用欄位映射的表格不支援產生清單檔案,因為外部讀取器無法讀取這些 Delta 表格。 如需詳細資訊,請參閱 Delta 檔。
DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC
MERGE INTO 架構演進的作業目前不支援撰寫 CDC 輸出。
DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE
條件中不支援 <operation> 多欄 In 述詞。
DELTA_UNSUPPORTED_NESTED_COLUMN_IN_BLOOM_FILTER
目前不支援在巢狀數據行上建立 bloom filer 索引: <columnName>。
DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION
<operation> 中不支援巢狀欄位(欄位 = <fieldName>)。
DELTA_UNSUPPORTED_NON_EMPTY_CLONE
複製目的地數據表不是空的。 請清除TRUNCATE或重設DELETE FROM資料表,再執行CLONE。
DELTA_UNSUPPORTED_OUTPUT_MODE
數據源 <dataSource> 不支持 <mode> 輸出模式。
DELTA_UNSUPPORTED_PARTITION_COLUMN_IN_BLOOM_FILTER
不支援在分區列上建立 Bloom 篩選索引:<columnName>。
DELTA_UNSUPPORTED_RENAME_COLUMN
Delta 資料表不支援數據行重新命名。 <advice>
DELTA_UNSUPPORTED_SCHEMA_DURING_READ
Delta 不支援在讀取時指定架構。
DELTA_UNSUPPORTED_SORT_ON_BUCKETED_TABLES
SORTED BY 不支援 Delta 分桶表。
DELTA_UNSUPPORTED_SOURCE
<operation> destination 僅支援 Delta 資料來源。
<plan>
DELTA_UNSUPPORTED_STATIC_PARTITIONS
在插入期間,目前不支援在數據分割規格中指定靜態分割區。
DELTA_UNSUPPORTED_STRATEGY_NAME
不支援的策略名稱: <strategy>。
DELTA_UNSUPPORTED_SUBQUERY
在<operation>中,子查詢不受支持(條件 = <cond>)。
DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES
在分區述詞中不支持子查詢。
DELTA不支持超出已刪除檔案保留期限的時間旅行 (DELTA_UNSUPPORTED_TIME_TRAVEL_BEYOND_DELETED_FILE_RETENTION_DURATION)
無法超過資料表上設定的 delta.deletedFileRetentionDuration (<deletedFileRetention> HOURS) 時間旅行。
DELTA_UNSUPPORTED_TIME_TRAVEL_MULTIPLE_FORMATS
無法以多種格式指定時間旅行。
DELTA_UNSUPPORTED_TIME_TRAVEL_VIEWS
無法時間移動檢視、子查詢、串流或變更數據摘要查詢。
DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES
不支援截斷範例數據表。
DELTA_UNSUPPORTED_TYPE_CHANGE_IN_SCHEMA
無法在此數據表上操作,因為已套用不支援的類型更改。 欄位 <fieldName> 已從 <fromType> 變更為 <toType>。
DELTA_UNSUPPORTED_TYPE_CHANGE_ON_COLUMNS_WITH_BLOOM_FILTER_INDEX
無法更改欄位的資料型態 <quotedColumnNames>
因為這些欄位具有 Bloom 篩選索引。
如果您想要變更具有布隆過濾器索引的欄位的數據類型
請先移除 Bloom 篩選索引:
DROP BLOOMFILTER INDEX ON TABLE 表格名稱 FOR COLUMNS(<columnNames>)
如果您要移除資料表上的所有 Bloom 篩選索引,請使用:
DROP BLOOMFILTER INDEX ON TABLE 表名
DELTA_UNSUPPORTED_VACUUM_SPECIFIC_PARTITION
在整理差異數據表時,請提供基底路徑(<baseDeltaPath>)。 目前不支援清理特定分割區。
DELTA_UNSUPPORTED_WRITES_STAGED_TABLE
數據表實作不支援寫入: <tableName>。
DELTA_UNSUPPORTED_WRITES_WITHOUT_COORDINATOR
您正嘗試在已向認可協調器 <coordinatorName>註冊的數據表上執行寫入。 不過,目前環境中沒有此協調器的實作,且不允許在沒有協調器的情況下進行寫入操作。
DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES
不支援寫入範例數據表。
DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION
無法將 <fromCatalog> 類型轉換為 <toCatalog>。 所有巢狀欄位都必須符合要求。
DELTA_V2_CHECKPOINTS_REQUIRED_FOR_OPERATION
CHECKPOINT 操作必須在資料表上啟用 V2 檢查點。
DELTA_VACUUM_COPY_INTO_STATE_FAILED
VACUUM 數據檔案處理成功,但 COPY INTO 狀態的垃圾收集未能完成。
DELTA_VERSIONS_NOT_CONTIGUOUS
版本 (<versionList>) 不是連續的。
在嘗試載入版本<startVersion>時,偵測到版本<endVersion>和<versionToLoad>之間的差異記錄檔中有缺失。
如需詳細資訊,請參閱 DELTA_VERSIONS_NOT_CONTIGUOUS
DELTA_VERSION_INVALID
所提供的版本 (<version>) 不是有效的版本。
DELTA_VERSION_NOT_FOUND(找不到差分版本)
無法將 Delta 表格回溯到版本 <userVersion>。 可用版本:[<earliest>, <latest>]。
DELTA_VIOLATE_CONSTRAINT_WITH_VALUES
CHECK 具有值的數據列所違反的條件約束 <constraintName> <expression> :
<values>。
DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
已違反了對資料表 <table> 屬性之驗證:
如需詳細資訊,請參閱 DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
DELTA_WRITE_INTO_VIEW_NOT_SUPPORTED
<viewIdentifier> 是檢視。 您可能不會將數據寫入檢視中。
DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST
Z 排序數據行 <columnName> 不存在於數據架構中。
DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS
Z 排序 <cols> 將會無效,因為目前我們不收集這些欄位的統計資料。 如需了解「資料跳過」和「Z排序」的更多資訊,請參閱 <link> 。 您可以藉由設定 來停用此檢查
SET <zorderColStatKey> = 假
DELTA_ZORDERING_ON_PARTITION_COLUMN
<colName> 是分割欄位。 Z 排序只能在數據行上執行。
Delta 數據共享
DELTA_SHARING_ACTIVATION_NONCE_DOES_NOT_EXIST
SQLSTATE:未指派
找不到啟用隨機數。 您使用的啟用連結無效或已過期。 重新產生啟用鏈接,然後再試一次。
DELTA_SHARING_CROSS_REGION_SHARE_UNSUPPORTED
SQLSTATE:未指派
不支援 <regionHint> 區域與其外部區域之間的共用。
DELTA_SHARING_GET_RECIPIENT_PROPERTIES_INVALID_DEPENDENT
SQLSTATE:未指派
使用 current_recipient 函式定義的檢視僅供共用,且只能從數據收件者端查詢。 提供的可保護物件 <securableId> 不是 Delta Sharing View。
DELTA_SHARING_MUTABLE_SECURABLE_KIND_NOT_SUPPORTED
SQLSTATE:未指派
提供的安全性類型 <securableKind> 不支援 Delta Sharing 中的可變性。
DELTA_SHARING_ROTATE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE
SQLSTATE:未指派
所提供的可保護類型 <securableKind> 不支援由 Marketplace 服務起始的令牌輪替操作。
DS_AUTH_TYPE_NOT_AVAILABLE
SQLSTATE:未指派
<dsError>:提供者實體 <providerEntity>中沒有可用的驗證類型。
DS_CDF_NOT_ENABLED
SQLSTATE:未指派
<dsError>:無法存取 <tableName> 的變更資料流。 原始差異表的版本 <version> 未啟用CDF。 請連絡您的數據提供者。
DS_CDF_NOT_SHARED
SQLSTATE:未指派
<dsError>:無法存取 <tableName> 的變更資料流。 CDF 不會在桌面上共用。 請連絡您的數據提供者。
DS_CDF_RPC_INVALID_PARAMETER
SQLSTATE:未指派
<dsError>: <message>
DS_CLIENT_AUTH_ERROR_FOR_DB_DS_SERVER
SQLSTATE:未指派
<dsError>: <message>
DS_CLIENT_ERROR_FOR_DB_DS_SERVER
SQLSTATE:未指派
<dsError>: <message>
DS_CLIENT_OAUTH_TOKEN_EXCHANGE_FAILURE
SQLSTATE:未指派
<dsError>: <message>
DS_CLIENT_OAUTH_TOKEN_EXCHANGE_UNAUTHORIZED
SQLSTATE:未指派
<dsError>: <message>
DS_CLOUD_VENDOR_UNAVAILABLE
SQLSTATE:未指派
<dsError>:雲端廠商暫時無法使用 <rpcName>,請重試。<traceId>
DS_DATA_MATERIALIZATION_COMMAND_FAILED
SQLSTATE:未指派
<dsError>:來自組織<runId>的數據具體化任務<orgId>在命令<command>處失敗
DS_DATA_MATERIALIZATION_COMMAND_NOT_SUPPORTED
SQLSTATE:未指派
<dsError>:從組織<runId>執行<orgId>的數據實體化任務不支持該命令<command>
DS_DATA_MATERIALIZATION_NOT_SUPPORTED_WITHOUT_SERVERLESS
SQLSTATE:未指派
<dsError>不支援<featureName>,因為提供者的工作區中未支援或啟用無伺服器。 請連絡您的資料提供者以啟用無伺服器。
DS_DATA_MATERIALIZATION_NO_VALID_NAMESPACE
SQLSTATE:未指派
<dsError>:找不到有效的命名空間來為<tableName>建立具體化。 請連絡您的數據提供者以修正此問題。
DS_資料實體化_接收者_缺少_工作區_ID
SQLSTATE:未指派
<dsError>:未找到適合實現共享資產的工作空間。 請聯絡您的資料提供者,在允許寫入共享資產目錄的工作區中重建接收者。
DS_DATA_MATERIALIZATION_RUN_DOES_NOT_EXIST
SQLSTATE:未指派
<dsError>:從組織<runId>執行<orgId>的數據具體化工作不存在
DS_DELTA_ILLEGAL_STATE
SQLSTATE:未指派
<dsError>: <message>
DS_DELTA_MISSING_CHECKPOINT_FILES
SQLSTATE:未指派
<dsError>:版本 <version> 找不到檢查點的所有部件檔案。 <suggestion>
DS_DELTA_NULL_POINTER
SQLSTATE:未指派
<dsError>: <message>
DS_DELTA_RUNTIME_EXCEPTION
SQLSTATE:未指派
<dsError>: <message>
DS_EXPIRE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE
SQLSTATE:未指派
<dsError>:所提供的可保護的類型<securableKind> 不支援由 Marketplace 服務發起的令牌過期操作。
DS_FAILED_REQUEST_TO_OPEN_DS_SERVER
SQLSTATE:未指派
<dsError>: <message>
DS_FAILED_REQUEST_TO_SAP_DS_SERVER
SQLSTATE:未指派
<dsError>: <message>
DS_FEATURE_ONLY_FOR_DATABRICKS_TO_DATABRICKS
SQLSTATE:未指派
<dsError>:僅在 Databricks 至 Databricks Delta 共用中啟用<feature>。
DS_FILE_LISTING_EXCEPTION
SQLSTATE:未指派
<dsError>: : <storage><message>
DS_FILE_SIGNING_EXCEPTION
SQLSTATE:未指派
<dsError>: <message>
DS_FOREIGN_TABLE_METADATA_REFRESH_FAILED
SQLSTATE:未指派
<dsError>: <message>
DS_GATEKEEPER_DISABLED
SQLSTATE:未指派
<dsError>:帳戶已停用此功能。 請連絡您的數據提供者。
DS_HADOOP_CONFIG_NOT_SET
SQLSTATE:未指派
<dsError>: <key> 不是由呼叫端所設定。
DS_ILLEGAL_STATE
SQLSTATE:未指派
<dsError>: <message>
DS_INTERNAL_ERROR_FROM_DB_DS_SERVER
SQLSTATE:未指派
<dsError>: <message>
DS_INVALID_AZURE_PATH
SQLSTATE:未指派
<dsError>:無效的 Azure 路徑: <path>。
DS_INVALID_DELTA_ACTION_OPERATION
SQLSTATE:未指派
<dsError>: <message>
DS_INVALID_FIELD
SQLSTATE:未指派
<dsError>: <message>
DS_INVALID_ITERATOR_OPERATION
SQLSTATE:未指派
<dsError>: <message>
DS_INVALID_PARAMETER_VALUE
SQLSTATE:未指派
<dsError>:由於<rpcName>,<cause>的參數無效。
DS_INVALID_PARTITION_SPEC
SQLSTATE:未指派
<dsError>: <message>
DS_INVALID_RESPONSE_FROM_DS_SERVER
SQLSTATE:未指派
<dsError>: <message>
DS_MATERIALIZATION_QUERY_FAILED
SQLSTATE:未指派
<dsError>:查詢 <schema>失敗。
<table> 從分享 <share>。
DS_MATERIALIZATION_QUERY_TIMEDOUT
SQLSTATE:未指派
<dsError>:查詢逾時。<schema>
<table> 從 [共享<share>] 後 <timeoutInSec> 秒。
遷移管理API已被調用
SQLSTATE:未指派
<dsError>:UC RPC <rpcName> 失敗。
DS_MISSING_IDEMPOTENCY_KEY
SQLSTATE:未指派
<dsError>:查詢 <schema> 時需要等冪性鍵。
<table> 從異步共用 <share> 。
DS_缺少_SERVERLESS_預算_政策
SQLSTATE:未指派
<dsError>:作業會在提供者的 Databricks 上使用無伺服器,但共用缺少無伺服器預算原則。 請聯絡資料提供者,以新增要共用的無伺服器預算政策。
DS_MORE_THAN_ONE_RPC_PARAMETER_SET
SQLSTATE:未指派
<dsError>:請只提供下列其中一項: <parameters>。
DS_NETWORK_CONNECTION_CLOSED
SQLSTATE:未指派
<dsError>:因為 <rpcName>,<errorCause> 的網路連線已關閉,請重試。<traceId>
DS_NETWORK_CONNECTION_TIMEOUT
SQLSTATE:未指派
<dsError>:由於 ,<rpcName>網路連線逾時<errorCause>,請重試。<traceId>
DS_NETWORK_ERROR
SQLSTATE:未指派
<dsError>:<rpcName>因<errorCause>發生網路錯誤,請重試。<traceId>
DS_NO_METASTORE_ASSIGNED
SQLSTATE:未指派
<dsError>:目前工作區未指派中繼存放區 (workspaceId: <workspaceId>。
DS_O2D_OIDC_WORKLOAD_IDENTITY_TOKEN_GENERATION_FAILED
SQLSTATE:未指派
<dsError>:產生 O2D OIDC 提供者的工作負載識別令牌失敗: <message>。
DS_PAGINATION_AND_QUERY_ARGS_MISMATCH
SQLSTATE:未指派
<dsError>:分頁或查詢參數不符。
DS_PARTITION_COLUMNS_RENAMED
SQLSTATE:未指派
<dsError>:共用表格上的分割欄位 [<renamedColumns>] 已重新命名。 請連絡您的數據提供者以修正此問題。
DS_QUERY_BEFORE_START_VERSION
SQLSTATE:未指派
<dsError>:您只能查詢自 版本 <startVersion>以來的數據表數據。
DS_QUERY_END_VERSION_AFTER_LATEST_VERSION
SQLSTATE:未指派
<dsError>:提供讀取數據的最終版本(<endVersion>) 無效。 結束版本不能大於最新版本的表格(<latestVersion>)。
DS_QUERY_START_VERSION_AFTER_LATEST_VERSION
SQLSTATE:未指派
<dsError>:提供讀取數據的起始版本(<startVersion>) 無效。 起始版本不能大於數據表的最新版本(<latestVersion>)。
DS_QUERY_TIMEOUT_ON_SERVER
SQLSTATE:未指派
<dsError>:在<queryType>次反覆運算過程中的<tableName>次更新後,處理<numActions>上的<numIter>時發生逾時。<progressUpdate> <suggestion> <traceId>
DS_RATE_LIMIT_ON_DS_SERVER
SQLSTATE:未指派
<dsError>: <message>
DS_RECIPIENT_RPC_INVALID_PARAMETER
SQLSTATE:未指派
<dsError>: <message>
DS_RECON_FAILED_ON_UC_WRITE_RPC
SQLSTATE:未指派
<dsError>:UC RPC <rpcName> 失敗,轉換為 INTERNAL_ERROR。
DS_RESOURCE_ALREADY_EXIST_ON_DS_SERVER
SQLSTATE:未指派
<dsError>: <message>
DS_RESOURCE_EXHAUSTED
SQLSTATE:未指派
<dsError>:<resource> 超出了限制:[<limitSize>]<suggestion>。<traceId>
DS_RESOURCE_NOT_FOUND_ON_DS_SERVER
SQLSTATE:未指派
<dsError>: <message>
SAP 不支援的 DBR 版本
SQLSTATE:未指派
<dsError>:不支援 Delta Sharing SAP 連接器於 DBR <dbrVersion>。 支援的最低版本如下: <supportedVersions>。
DS_SCHEMA_NAME_CONFLICT_FOUND
SQLSTATE:未指派
<dsError>:目錄 <catalogName> 已經包含在共享 <shareName>中可找到的架構名稱。
<description> 衝突的架構名稱:<schemaNamesInCommon>。
DS_SERVER_TIMEOUT
SQLSTATE:未指派
<dsError>:由於<rpcName>造成伺服器逾時<errorCause>,請重試。<traceId>
DS_SERVICE_DENIED
SQLSTATE:未指派
<dsError>:要求遭到拒絕,因為服務負載過大。 請稍後再試一次。
DS_SHARE_ALREADY_MOUNTED_TO_CATALOG
SQLSTATE:未指派
<dsError>:從提供者 <shareName> 的共用 <providerName> 已經掛載到目錄 <catalogName>。
DS_SYSTEM_WORKSPACE_GROUP_PERMISSION_UNSUPPORTED
SQLSTATE:未指派
無法將的權限 <securableType> 授與系統產生的群組 <principal>。
臨時無法獲取數據表元數據
SQLSTATE:未指派
<dsError>:表格中繼資料無法提供。 請稍後再試一次。
DS_TIME_TRAVEL_NOT_PERMITTED
SQLSTATE:未指派
<dsError>:除非在 上 <tableName>共用歷程記錄,否則不允許時間移動查詢。 請連絡您的數據提供者。
DS_UNAUTHORIZED
SQLSTATE:未指派
<dsError>:未經 授權。
DS_UNAUTHORIZED_D2O_OIDC_RECIPIENT
SQLSTATE:未指派
<dsError>:未經授權的 D2O OIDC 接收者:<message>。
DS_UNKNOWN_EXCEPTION
SQLSTATE:未指派
<dsError>: <traceId>
DS_UNKNOWN_QUERY_ID
SQLSTATE:未指派
<dsError>:<queryID>的未知查詢識別碼<schema>。
<table> 從分享 <share>。
DS_UNKNOWN_QUERY_STATUS
SQLSTATE:未指派
<dsError>:<queryID>中查詢 ID <schema> 的查詢狀態未知。
<table> 從分享 <share>。
DS_UNKNOWN_RPC
SQLSTATE:未指派
<dsError>:未知的 RPC <rpcName>。
DS_UNSUPPORTED_DELTA_READER_VERSION
SQLSTATE:未指派
<dsError>:差異協議讀取器的版本 <tableReaderVersion> 高於差異共享伺服器的可支援版本 <supportedReaderVersion>,因此無法支援。
DS_UNSUPPORTED_DELTA_TABLE_FEATURES
SQLSTATE:未指派
<dsError>:數據表功能 <tableFeatures> 可在數據表中找到<versionStr> <historySharingStatusStr> <optionStr>
DS_UNSUPPORTED_OPERATION
SQLSTATE:未指派
<dsError>: <message>
DS_UNSUPPORTED_STORAGE_SCHEME
SQLSTATE:未指派
<dsError>:不支持的記憶體配置: <scheme>。
DS_UNSUPPORTED_TABLE_TYPE
SQLSTATE:未指派
<dsError>:無法擷取 <schema>。
<table> from Share <share> ,因為查詢中目前不支援類型為 [<tableType>] 的 <queryType> 數據表。
DS_UNSUPPORTED_TABLE_TYPE_IN_MST
SQLSTATE:未指派
<dsError>:查詢資料表類型 [<tableType>] 不支援多語句交易(MST)查詢。
DS_USER_CONTEXT_ERROR
SQLSTATE:未指派
<dsError>: <message>
DS_VIEW_SHARING_FUNCTIONS_NOT_ALLOWED
SQLSTATE:未指派
<dsError>:在檢視共用查詢中,以下函數 <functions> 不被允許使用。
DS_WORKSPACE_DOMAIN_NOT_SET
SQLSTATE:未指派
<dsError>:工作區 <workspaceId> 的網域尚未設定。
DS_WORKSPACE_NOT_FOUND
SQLSTATE:未指派
<dsError>:找不到工作區 <workspaceId> 。
Autoloader
CF_ADD_NEW_NOT_SUPPORTED
指定架構時,不支援架構演進模式 <addNewColumnsMode> 。 若要使用此模式,您可以改用cloudFiles.schemaHints提供架構。
CF_AMBIGUOUS_AUTH_OPTIONS_ERROR
找到 (預設) 目錄的通知設定驗證選項
上市模式:
<options>
如果您想要使用檔案通知模式,請明確設定:
.option(“cloudFiles.<useNotificationsKey>”, “true”)
或者,如果您想要略過選項的驗證,並忽略這些過程
驗證選項,您可以設定:
.option(“cloudFiles.ValidateOptionsKey>”, “false”)
CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR
增量式清單模式(cloudFiles.<useIncrementalListingKey>)
和檔案通知(cloudFiles.<useNotificationsKey>)
已同時啟用。
請確定您只選取一個。
CF_AZURE_AUTHENTICATION_MISSING_OPTIONS
請提供 Databricks 服務認證或 clientId 和 clientSecret,以向 Azure 進行驗證。
CF_AZURE_AUTHENTICATION_MULTIPLE_OPTIONS
提供 Databricks 服務認證時,不應提供其他認證選項 (例如 clientId、clientSecret 或 connectionString) 。
CF_AZURE_STORAGE_SUFFIXES_REQUIRED
需要適用於 Azure 的 adlsBlobSuffix 和 adlsDfsSuffix
CF_BUCKET_MISMATCH
檔案事件中的<storeType>與來源<fileEvent>的預期不同:<source>。
CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY
當架構記錄是空的時,無法演進架構。 架構記錄檔位置: <logPath>
CF_CANNOT_PARSE_QUEUE_MESSAGE
無法剖析下列佇列訊息: <message>
CF_CANNOT_RESOLVE_CONTAINER_NAME
無法從路徑解析容器名稱: <path>、已解析的 URI: <uri>
CF_CANNOT_RUN_DIRECTORY_LISTING
執行異步回填線程時,無法執行目錄清單
CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON
無法同時開啟 cloudFiles.cleanSource 和 cloudFiles.allowOverwrites。
CF_CLEAN_SOURCE_CANNOT_MOVE_FILES_INSIDE_SOURCE_PATH
不支援將檔案移至正在匯入的路徑下的目錄。
CF_CLEAN_SOURCE_NOT_ENABLED
尚未為此工作區啟用 CleanSource。 請連絡 Databricks 支援以尋求協助。
CF_CLEAN_SOURCE_NOT_SUPPORTED
CleanSource 不支援 <op>。
CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION
自動載入器無法封存處理過的檔案,因為它沒有來源目錄或移動目的地的寫入許可權。
更多詳情請參見 CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION
CF_DUPLICATE_COLUMN_IN_DATA
嘗試推斷數據表的數據分割架構時發生錯誤。 您的數據和分割路徑中有相同的欄位重複。 若要忽略分割區值,請明確提供分割區欄位,通過以下方式指定:.option(“cloudFiles.<partitionColumnsKey>”, “{comma-separated-list}”)
CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE
當輸入路徑 <path> 是空的時,無法推斷架構。 請在輸入路徑中有檔案,或指定架構時,嘗試啟動數據流。
CF_EVENT_GRID_AUTH_ERROR
無法建立事件方格訂用帳戶。 請確定您的服務已準備就緒。
主體具有事件方格訂用 <permissionType> 帳戶。 如需詳細資訊,請參閱:
<docLink>
CF_EVENT_GRID_CREATION_FAILED
無法建立事件方格訂用帳戶。 請確定 Microsoft.EventGrid 已啟用或設定為適當狀態。
在訂用帳戶中註冊為資源提供者。 如需詳細資訊,請參閱:
<docLink>
CF_EVENT_GRID_NOT_FOUND_ERROR
無法建立事件方格訂用帳戶。 請確保您的儲存空間
帳戶 (<storageAccount>) 位於您的資源群組下 (<resourceGroup>) 且
記憶體帳戶是“StorageV2(一般用途 v2)” 帳戶。 如需詳細資訊,請參閱:
<docLink>
CF_EVENT_NOTIFICATION_NOT_SUPPORTED
<cloudStore>不支援自動載入器事件通知模式。
CF_EVENT_NOTIFICATION_SETUP_FAILED
未能設定自動載入器的檔案通知資源。
更多詳情請參見 CF_EVENT_NOTIFICATION_SETUP_FAILED
CF_FAILED_TO_CHECK_STREAM_NEW
無法檢查數據流是否為新的
CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION
無法建立訂用帳戶: <subscriptionName>。 具有相同名稱的訂用帳戶已經存在,且與另一個主題相關聯: <otherTopicName>。 所需的主題為 <proposedTopicName>。 刪除現有的訂用帳戶,或使用新的資源後綴建立訂用帳戶。
CF_FAILED_TO_CREATED_PUBSUB_TOPIC
無法建立主題: <topicName>。 具有相同名稱的主題已經存在。
<reason> 拿掉現有的主題,或使用另一個資源後綴再試一次
CF_FAILED_TO_DELETE_GCP_NOTIFICATION
無法在貯存區<notificationId>上刪除 ID <bucketName> 的主題<topicName>通知。 請重試或手動透過 GCP 控制台移除通知。
CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA
無法將儲存的模式從字串形式反序列化:'<jsonSchema>'
CF_FAILED_TO_EVOLVE_SCHEMA
在沒有架構記錄檔的情況下,無法演進架構。
CF_FAILED_TO_FIND_PROVIDER
找不到提供者 <fileFormatInput>
CF_FAILED_TO_INFER_SCHEMA
無法從輸入路徑 <fileFormatInput>中的現有檔案推斷格式<path>的架構。
如需詳細資訊,請參閱 CF_FAILED_TO_INFER_SCHEMA
CF_FAILED_TO_WRITE_TO_SCHEMA_LOG
無法寫入位置 <path> 的架構日誌。
CF_FILE_FORMAT_REQUIRED
找不到必要的選項:cloudFiles.format。
CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS
找到多個包含自動載入器前置詞的訂閱,適用於主題 <num>:
<subscriptionList>
每個主題應該只有一個訂用帳戶。 請手動確定您的主題沒有多個訂用帳戶。
CF_GCP_AUTHENTICATION
請提供以下所有資料: <clientEmail>, <client>,
<privateKey>、 和 <privateKeyId> 或 提供 <serviceCredential> 以使用 Databricks 服務認證。
或者,請不要提供任何憑證,以便使用預設的 GCP 憑證提供者鏈進行 GCP 資源的驗證。
CF_GCP_LABELS_COUNT_EXCEEDED
接收到過多的標籤(<num>),用於 GCP 資源。 每個資源的標籤計數上限為 <maxNum>。
CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED
接收到過多的 GCP 資源標籤(<num>)。 每個資源的資源標籤數量上限為 <maxNum>,因為資源標籤會儲存為 GCP 標籤,而 Databricks 專用標籤會佔用這些標籤配額的一部分。
CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG
在路徑<path>的架構日誌中,不完整的記錄檔
CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT
自動載入器檢查點中不完整的元數據檔案
CF_INCORRECT_BATCH_USAGE
CloudFiles 是串流來源。 請使用spark.readStream,而不是spark.read。 若要停用此檢查,請將 設定 <cloudFilesFormatValidationEnabled> 為 false。
CF_INCORRECT_SQL_PARAMS
cloud_files方法接受兩個必要的字串參數:要載入的路徑,以及檔案格式。 檔案讀取器選項必須在字串類型鍵值映射中提供。 例如,cloud_files(“path”, “json”, map(“option1”, “value1”))。 收到: <params>
CF_INCORRECT_STREAM_USAGE
若要使用 『cloudFiles』 作為串流來源,請使用 『cloudFiles.format』 選項提供檔格式,並使用 .load() 來建立 DataFrame。 若要停用此檢查,請將 設定 <cloudFilesFormatValidationEnabled> 為 false。
CF_INTERNAL_ERROR
自動載入器遇到內部錯誤。 請連絡 Databricks 支援以尋求協助。
如需詳細資訊,請參閱 CF_INTERNAL_ERROR
CF_INVALID_ARN
無效的 ARN: <arn>
CF_INVALID_AZURE_CERTIFICATE
無法剖析 cloudFiles.certificate 選項所提供的私鑰。 請以 PEM 格式提供有效的公鑰。
CF_INVALID_AZURE_CERT_PRIVATE_KEY
無法剖析 cloudFiles.certificatePrivateKey 選項所提供的私鑰。 請以 PEM 格式提供有效的私鑰。
CF_INVALID_CHECKPOINT
此檢查點不是有效的 CloudFiles 來源。
CF_INVALID_CLEAN_SOURCE_MODE
清除來源選項 <value>的模式無效。
CF_INVALID_GCP_RESOURCE_TAG_KEY
GCP 資源的資源標記索引鍵無效: <key>。 索引鍵的開頭必須是小寫字母、長度為 1 到 63 個字元,且只包含小寫字母、數位、底線 (_) 和連字元 (-)。
CF_INVALID_GCP_RESOURCE_TAG_VALUE
GCP 資源的標籤值無效:<value>。 值長度必須介於 0 到 63 個字元以內,而且必須只包含小寫字母、數位、底線 (_) 和連字元 (-)。
CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS
自動載入器在搭配 Managed 檔案事件使用時不支援下列選項:
<optionList>
建議您移除這些選項,然後重新啟動數據流。
CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
已管理檔案事件服務的回應無效。 請連絡 Databricks 支援以尋求協助。
如需詳細資訊,請參閱 CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
CF_INVALID_SCHEMA_EVOLUTION_MODE
cloudFiles.
<schemaEvolutionModeKey> 必須是:{
「<addNewColumnsWithTypeWidening>」
「<addNewColumns>」
「<failOnNewColumns>」
「<rescue>」
「<noEvolution>」
CF_INVALID_SCHEMA_HINTS_OPTION
模式提示只能指定特定欄位一次。
在此情況下,重新定義資料列: <columnName>
在 schemaHints 中多次出現:
<schemaHints>
CF_INVALID_SCHEMA_HINT_COLUMN
模型提示無法用來覆蓋映射和陣列的巢狀類型。
衝突的欄:<columnName>
CF_LATEST_OFFSET_READ_LIMIT_REQUIRED
latestOffset 應該透過此來源的 ReadLimit 進行呼叫。
CF_LOG_FILE_MALFORMED
記錄檔格式不正確:無法從 <fileName>讀取正確的記錄版本。
CF_MANAGED_FILE_EVENTS_BACKFILL_IN_PROGRESS
您已要求自動載入器將 includeExistingFiles 設定為 false,以忽略外部位置的現有檔案。 不過,受控檔案事件服務仍在偵測外部位置中的現有檔案。 在 Managed 檔案事件完成探索外部位置中的所有檔案之後,請再試一次。
CF_MANAGED_FILE_EVENTS_ENDPOINT_NOT_FOUND
您使用自動載入器並管理檔案事件,但您的輸入路徑 '<path>' 的外部位置似乎未啟用檔案事件功能,或輸入路徑無效。 請要求 Databricks 系統管理員在您的輸入路徑的外部位置啟用檔案事件。
CF_MANAGED_FILE_EVENTS_ENDPOINT_PERMISSION_DENIED
您正使用自動加載器搭配受管理的檔案事件,但無法存取輸入路徑 '<path>' 的外部位置或磁碟區,或輸入路徑無效。 請要求 Databricks 系統管理員授與外部位置或磁碟區的讀取許可權,或提供現有外部位置或磁碟區內的有效輸入路徑。
CF_MANAGED_FILE_EVENTS_INVALID_CONTINUATION_TOKEN 文件事件無效的續傳令牌
您的串流在檔案事件快取中的讀取位置已失效。 這可能是因為檔案事件設定被更新(例如,所提供的佇列網址被更改,或檔案事件被停用後重新啟用)。 請連絡 Databricks 支援以尋求協助。
CF_MANAGED_FILE_EVENTS_IS_PREVIEW
具有受管理檔案事件的自動載入器是預覽版本功能。 若要繼續,請連絡 Databricks 支援或關閉 cloudFiles.useManagedFileEvents 選項。
CF_MANAGED_FILE_EVENTS_RATE_LIMIT_EXCEEDED
同時運行太多自動載入串流。 為了解決,請盡可能減少串流並行性,或在從外部多個子目錄載入時,為每個子目錄建立獨立的卷。 如果問題持續,請聯絡你的 Databricks 代表。
CF_MAX_MUST_BE_POSITIVE
max 必須是正數
CF_METADATA_FILE_CONCURRENTLY_USED
多個串流查詢會同時使用 <metadataFile>
CF_MISSING_METADATA_FILE_ERROR
串流來源檢查點目錄中的元數據檔案遺失。 此中繼資料
檔案包含數據流的重要預設選項,因此無法重新啟動數據流
此刻。 請連絡 Databricks 支援以尋求協助。
CF_MISSING_PARTITION_COLUMN_ERROR
提供的架構中不存在分區欄位 <columnName>。
<schema>
CF_MISSING_SCHEMA_IN_PATHLESS_MODE
如果使用檔案通知模式時未提供 CloudFiles 來源的路徑,請使用 .schema() 指定架構。 或者,若要讓自動載入器推斷架構,請在 .load() 中提供基底路徑。
CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC
在貯<topicName>體上找到主題<bucketName>的現有通知:
notification,id
<notificationList>
若要避免對訂閱者造成意外事件的污染,請刪除上述通知並重試。
CF_NEW_PARTITION_ERROR
從您的檔案推斷出新的分割區數據行: [<filesList>]。 請提供你結構中所有分割區欄位,或提供你想用以下方式提取值的分割欄位清單:.option(“cloudFiles.partitionColumns”, “{comma-separated-list|empty-string}””
CF_PARTITON_INFERENCE_ERROR
嘗試推斷目前檔案批次的數據分割架構時發生錯誤。 請明確提供你的分割區欄位,使用:.option(“cloudFiles.<partitionColumnOption>”, “{comma-separated-list}”)
CF_PATH_DOES_NOT_EXIST_FOR_READ_FILES
輸入路徑 <path> 不存在時,無法讀取檔案。 請確定輸入路徑存在並重新嘗試。
CF_PERIODIC_BACKFILL_NOT_SUPPORTED
如果停用異步回填,則不支援定期回填。 您可以將spark.databricks.cloudFiles.asyncDirListing設置為true,以啟用目錄清單的異步回填功能
CF_PREFIX_MISMATCH
發現事件不匹配:鍵 <key> 缺少前綴:<prefix>
CF_PROTOCOL_MISMATCH
<message>
如果您不需要對程式代碼進行任何其他變更,請設定 SQL
組態: '<sourceProtocolVersionKey> = <value>'
以繼續串流。 請參閱:
<docLink>
如需詳細資訊。
CF_REGION_NOT_FOUND_ERROR
無法取得預設 AWS 區域。 請使用 cloudFiles.region 選項指定區域。
CF_RESOURCE_SUFFIX_EMPTY
無法建立通知服務:資源後綴不能是空的。
CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS
無法建立通知服務:資源後綴只能有英數位元、連字元 (-) 和底線 (_)。
CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE
無法建立通知服務:資源後綴只能有小寫字母、數位和破折號(-)。
CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP
無法建立通知服務:資源後綴只能包含英數字元、連字號(-)、底線(_)、句號(.)、波浪號(~)、加號(+)和百分比符號(%)。
CF_RESOURCE_SUFFIX_LIMIT
無法建立通知服務:資源後綴不能超過 <limit> 字元。
CF_RESOURCE_SUFFIX_LIMIT_GCP
無法建立通知服務:資源後綴必須介於 <lowerLimit> 和 <upperLimit> 字元之間。
CF_RESTRICTED_GCP_RESOURCE_TAG_KEY
找到受限制的 GCP 資源標籤索引鍵 (<key>)。 自動載入器限制下列 GCP 資源標籤索引鍵: [<restrictedKeys>]
CF_RETENTION_GREATER_THAN_MAX_FILE_AGE
cloudFiles.cleanSource.retentionDuration 不能大於 cloudFiles.maxFileAge。
CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX
無法為主題 <topic> 設立通知,使用前綴 <prefix>。 已經有一個相同名稱的主題,但具有不同前置詞:<oldPrefix>。 請嘗試使用不同的資源後綴進行設定或刪除現有的安裝程式。
CF_SCHEMA_LOG_DEEP_CLONE_FAILED
無法從來源架構日誌中複製和移轉任何架構日誌項目。
CF_SFTP_MISSING_PASSWORD_OR_KEY_FILE
必須為 SFTP 指定密碼或金鑰檔案。
請在來源 URI 或 透過 <passwordOption>中指定密碼,或透過 <keyFileOption>指定金鑰檔案內容。
CF_SFTP_NOT_ENABLED
未啟用存取 SFTP 檔案。 請連絡 Databricks 支援以尋求協助。
CF_SFTP_REQUIRE_FULL_PATH
請以 sftp://$user@$host:$port/$path 的形式指定 SFTP 來源的完整路徑元件,以確保能正確查閱 UC 連線。
CF_SFTP_REQUIRE_UC_CLUSTER
需要啟用UC的叢集才能存取SFTP檔案。 請連絡 Databricks 支援以尋求協助。
CF_SFTP_USERNAME_NOT_FOUND
必須為 SFTP 指定用戶名稱。
請在來源 URI 中或透過 <option>提供使用者名稱。
CF_SOURCE_DIRECTORY_PATH_REQUIRED
請提供來源目錄路徑,並使用選項 path
CF_SOURCE_UNSUPPORTED
雲端檔案來源目前僅支援 S3、Azure Blob 記憶體(wasb/wasbs)和 Azure Data Lake Gen1 (adl) 和 Gen2 (abfs/abfss) 路徑。 path: '<path>',解析的 URI: '<uri>'
CF_STATE_INCORRECT_SQL_PARAMS
cloud_files_state函數接受一個字串參數,該參數可代表 cloudFiles 流的檢查點目錄或識別多部分串流數據表的 tableName,以及一個選擇性的第二個整數參數,代表要載入狀態的檢查點版本。 第二個參數也可能是「最新」,可讀取最新的檢查點。 收到: <params>
CF_STATE_INVALID_CHECKPOINT_PATH
輸入檢查點路徑 <path> 無效。 路徑不存在,或找不到cloud_files來源。
CF_STATE_INVALID_VERSION
指定的版本 <version> 不存在,或是在分析期間移除。
CF_THREAD_IS_DEAD
<threadName> 線程已失效。
CF_UNABLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION
無法從來源檢查點位置衍生資料流檢查點位置: <checkPointLocation>
CF_UNABLE_TO_DETECT_FILE_FORMAT
無法從 <fileSize> 取樣的檔案偵測來源檔案格式,找到 <formats>。 請指定格式。
CF_UNABLE_TO_EXTRACT_BUCKET_INFO
無法擷取儲存桶資訊。 路徑:『<path>』,已解析的 uri:『<uri>』。
CF_UNABLE_TO_EXTRACT_KEY_INFO
無法擷取金鑰資訊。 路徑:『<path>』,已解析的 uri:『<uri>』。
CF_UNABLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO
無法擷取儲存帳戶資訊,路徑:'<path>',解析的 URI:'<uri>'
CF_UNABLE_TO_LIST_EFFICIENTLY
收到路徑 <path>的目錄重新命名事件,但我們無法有效率地列出此目錄。 為了讓數據流繼續,請將 'cloudFiles.ignoreDirRenames' 選項設定為 true,並考慮啟用 cloudFiles.backfillInterval 的一般回填,以便處理此數據。
CF_UNEXPECTED_READ_LIMIT
非預期的讀取限制: <readLimit>
CF_UNKNOWN_OPTION_KEYS_ERROR
找到未知的選項鍵:
<optionList>
請確定所有提供的選項金鑰都正確無誤。 如果您想要略過
為了驗證您的選項並忽略那些未知選項,您可以設定:
.option(“cloudFiles.<validateOptions>”, “false”)
CF_UNKNOWN_READ_LIMIT
未知的 ReadLimit: <readLimit>
CF_UNSUPPORTED_CLEAN_SOURCE_MOVE
cleanSource 'move' 模式設定不受支援。
如需詳細資訊,請參閱 CF_UNSUPPORTED_CLEAN_SOURCE_MOVE
CF_UNSUPPORTED_CLOUD_FILES_SQL_FUNCTION
用來建立自動載入器串流來源的 SQL 函式「cloud_files」僅支援於 Lakeflow Spark 宣告式管線。 如需詳細資訊,請參閱:
<docLink>
CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE
不支援進行架構推斷的格式:<format>。 請指定架構。
CF_UNSUPPORTED_LOG_VERSION
UnsupportedLogVersion:支持的記錄版本上限為 v<maxVersion>,但遇到 v<version>。 記錄檔是由較新版本的 DBR 所產生,無法由這個版本讀取。 請升級。
CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE
不支援格式 <mode> 的架構演進模式 <format>。 請將架構演進模式設定為 「無」。
CF_USE_DELTA_FORMAT
此語法不支援從 Delta 資料表讀取。 如果您想要從 Delta 取用數據,請參閱檔:讀取 Delta 資料表 (<deltaDocLink>),或將 Delta 數據表讀取為數據流來源 (<streamDeltaDocLink>)。 Delta 的串流來源已針對增量取用數據進行優化。
Geospatial
EWKB_PARSE_ERROR
剖析 EWKB 時發生錯誤: <parseError> 位置 <pos>
如需詳細資訊,請參閱 EWKB_PARSE_ERROR
EWKT_PARSE_ERROR
錯誤解析 EWKT: <parseError> 在位置 <pos>
GEOJSON_PARSE_ERROR
解析 GeoJSON 時發生錯誤:<parseError> 位置 <pos>
如需詳細資訊,請參閱 GEOJSON_PARSE_ERROR
GEO_ENCODER_SRID_MISMATCH_ERROR
無法編碼 <type> 的值,因為提供的 SRID <valueSrid> 與類型 SRID <typeSrid> 不匹配。
H3_INVALID_CELL_ID
<h3Cell> 不是有效的 H3 單元格標識碼
如需詳細資訊,請參閱 H3_INVALID_CELL_ID
H3_INVALID_GRID_DISTANCE_VALUE
H3 網格線距離 <k> 必須是非負數
如需詳細資訊,請參閱 H3_INVALID_GRID_DISTANCE_VALUE
H3_INVALID_RESOLUTION_VALUE
H3 解析度 <r> 必須介於 <minR> 和 <maxR>之間,且包括這兩個值在內。
如需詳細資訊,請參閱 H3_INVALID_RESOLUTION_VALUE
H3_NOT_ENABLED
<h3Expression> 已停用或不受支援。 請考慮切換至支援 H3 表達式的階層
如需詳細資訊,請參閱 H3_NOT_ENABLED
H3_PENTAGON_ENCOUNTERED_ERROR
在計算具有網格距離 <h3Cell> 的 <k> 六邊形環時,遇到了五邊形。
H3_UNDEFINED_GRID_DISTANCE
<h3Cell1> 和 <h3Cell2> 之間的 H3 網格線距離未定義
ST_DIFFERENT_SRID_VALUES
“<sqlFunction>” 的自變數必須具有相同的 SRID 值。 發現的 SRID 值: <srid1>, <srid2>
ST_INVALID_ARGUMENT
“<sqlFunction>”:
如需詳細資訊,請參閱 ST_INVALID_ARGUMENT
ST_INVALID_CRS_TRANSFORMATION_ERROR
<sqlFunction>:無效或不支援的從 SRID <srcSrid> 到 SRID <trgSrid> 的 CRS 轉換
ST_INVALID_PRECISION_VALUE
精密度<p>必須介於<minP>和<maxP>之間,包含<minP>和<maxP>
ST_NOT_ENABLED
<stExpression> 已停用或不受支援。 請考慮切換至支援 ST 表達式的階層
WKB_PARSE_ERROR
剖析 WKB 時發生錯誤:位置 <parseError><pos>
如需詳細資訊,請參閱 WKB_PARSE_ERROR
WKT_PARSE_ERROR
剖析 WKT 時發生錯誤:<parseError> 位於位置 <pos>
如需詳細資訊,請參閱 WKT_PARSE_ERROR
Unity 目錄
無法刪除已標記的欄位
無法移除欄位,因為它已分配一個或多個管理標籤。 請在刪除欄位前移除所有標籤。 如需指引,請參閱相關文件 <docLink>。
禁止為外部安全對象創建子項
無法在類型<childSecurableName>的父項類別<childSecurableType>中建立類型<parentSecurableName>的安全物件<parentSecurableKind>。
COLUMN_FORMAT_INCOMPATIBLE_WITH_COLUMN_TYPE
欄的<columnName><formatType>格式與欄類型<columnType>不相容。
CONFLICTING_COLUMN_NAMES_ERROR
欄位 <columnName> 與另一個同名但名稱後有/無空白的欄位衝突(例如,已存在的欄位名稱為 <columnName> )。 請以不同的名稱重新命名欄位。
CONNECTION_CREDENTIALS_NOT_SUPPORTED_FOR_ONLINE_TABLE_CONNECTION
針對類型的 <connectionType>連線,取得連線層級認證的要求無效。 這類認證僅適用於受控 PostgreSQL 連線。
CONNECTION_TYPE_NOT_ENABLED
連線類型「<connectionType>」未啟用。 請啟用連線以使用它。
DELTA_SHARING_PROVISIONING_STATE_NOT_ACTIVE(不活動)
共用實體 '<securableFullName>' 目前無法使用,因為它尚未與對應的來源實體完全同步處理。 由: <reason>造成。
DELTA_SHARING_READ_ONLY_RECIPIENT_EXISTS
已經有一個 Recipient 物件 '<existingRecipientName>' 具有與 '<existingMetastoreId>' 相同的共用標識符。
DELTA_SHARING_READ_ONLY_SECURABLE_KIND
Delta 分享的安全性實體類型 <securableKindName> 的數據是唯讀的,且無法建立、修改或刪除。
DISASTER_RECOVERY_READ_ONLY
由災難復原管理的複本目錄 <catalogName> 中的資料為唯讀,無法建立、修改或刪除。
EXTERNAL_ACCESS_DISABLED_ON_METASTORE
由於外部數據存取已停用於中繼存放區 <metastoreName>,非 Databricks 計算環境會拒絕憑證分發。 請連絡中繼存放區管理員,以在中繼存放區上啟用「外部數據存取」設定。
EXTERNAL_ACCESS_NOT_ALLOWED_FOR_TABLE
無法從 Databricks 計算環境外部存取識別子 <tableId> 為的資料表,因為其種類為 <securableKind>。 只有外部可以存取 『TABLE_EXTERNAL'、'TABLE_DELTA_EXTERNAL' 和 'TABLE_DELTA' 資料表類型。
EXTERNAL_USE_SCHEMA_ASSIGNED_TO_INCORRECT_SECURABLE_TYPE
Privilege EXTERNAL USE SCHEMA 不適用於此實體 <assignedSecurableType> ,而且只能指派給架構或目錄。 請移除 <assignedSecurableType> 物件的許可權,並將其賦予架構或目錄。
EXTERNAL_WRITE_NOT_ALLOWED_FOR_TABLE
由於其類型為 <tableId>,因此編號為 <securableKind> 的資料表無法從 Databricks 計算環境之外進行寫入。 只有『TABLE_EXTERNAL' 和 'TABLE_DELTA_EXTERNAL' 資料表類型可以外部寫入。
FOREIGN_CATALOG_STORAGE_ROOT_MUST_SUPPORT_WRITES
類型 <catalogType> 的外部目錄儲存位置將用於卸載資料,且不能設為唯讀。
HMS_SECURABLE_OVERLAP_LIMIT_EXCEEDED
對於輸入路徑 <resourceType>的 <url>s 數目超過重疊 HMS <overlapLimit>的允許限制 (<resourceType>)。
INVALID_DATASOURCE_FORMAT
不支援<datasourceFormat>資料來源格式 '<tableTypeSuffix> <catalogKindSuffix>'。
無效的名稱格式
<fieldDescription> 不是一個有效的名字。 有效名稱必須僅包含字母數字和底線,且不得包含空格、句號、斜線或控制字元。
INVALID_RESOURCE_NAME_DELTA_SHARING
無法透過資源名稱支援 Delta Sharing 要求
INVALID_RESOURCE_NAME_ENTITY_TYPE
所提供的資源名稱指涉實體類型 <provided>,但預期為 <expected>
INVALID_RESOURCE_NAME_METASTORE_ID
提供的資源名稱指向一個不在目前請求範圍內的中繼存放區
INVALID_SECURABLE_NAME
<rpcName>無效<securableType>姓名:「<securableFullName>
LOCATION_OVERLAP
輸入路徑 URL '<path>' 與 <overlappingLocation> '<caller>' 呼叫內重疊。
<conflictingSummary>。 <permissionErrorSuggestion>
位置重疊存儲與工作區存儲衝突
客戶定義的儲存位置在「<caller>」操作期間會與工作區預設的儲存<path>發生衝突。 這會阻止依賴工作區儲存的功能運作。 衝突摘要: <conflictingSummary>。 請參閱 https://docs.databricks.com/aws/en/data-governance/unity-catalog/storage-conflicts 修復步驟。
管理式資料表格式
僅 Delta 支援受管理的資料表。 提供的資料來源格式為 <datasourceFormat>。
MONGO_DB_SRV_CONNECTION_STRING_DOES_NOT_ALLOW_PORT
不允許建立或更新 MongoDB 連線,因為 MongoDB SRV 連接字串不需要埠。
請移除 port,因為 SRV 連接字串不需要 port。
主體不存在
找不到有名字 <principalName>的校長。
特權支援未啟用
尚未為類型 [<typeString>] 啟用權限支援
權限不適用於此實體
本特權 <privilege> 不適用於本實體[<classifier>]。 如果這讓你感到意外,請檢查正在使用的 metastore 的特權版本 [<privilegeVersion>]。
唯讀目錄
Delta Sharing 目錄內的資料是唯讀的,無法建立、修改或刪除。 目錄 '<catalogName>' 是 Delta 共用目錄。
REDSHIFT_FOREIGN_CATALOG_STORAGE_ROOT_MUST_BE_S3
Redshift 外部目錄的記憶體根目錄必須是 AWS S3。
SCHEMA_NOT_EMPTY
結構描述 '<fullName>' 不是空的。 <extraInfo>
SECURABLE_KIND_DOES_NOT_SUPPORT_LAKEHOUSE_FEDERATION
具有種類 <securableKind> 的安全性實體不支援 Lakehouse 同盟。
SECURABLE_KIND_NOT_ENABLED
未啟用可保護類型 '<securableKind>'。 如果這是一個與預覽功能相關聯的可保護種類,請在工作區設定中加以啟用。
SECURABLE_TYPE_DOES_NOT_SUPPORT_LAKEHOUSE_FEDERATION
類型 <securableType> 的安全性實體不支援 Lakehouse 同盟。
SOURCE_TABLE_COLUMN_COUNT_EXCEEDS_LIMIT
源數據表有超過 <columnCount> 數據行。 請將數據行數目減少到 <columnLimitation> 或更少。
SYSTEM_SERVICE_PRINCIPAL_IS_NOT_REGISTERED
找不到具有資源名稱 <servicePrincipalResource>的已註冊系統服務主體。
TABLE_TYPE_DOES_NOT_SUPPORT_COLUMN_METADATA
表格型別 <tableType> 不支援欄位中繼資料。
UC_AAD_CLIENT_SECRET_已過期_給_服務主體
服務主體的客戶端秘密金鑰與應用程式 ID <applicationId> 已過期。 請造訪 Azure 入口網站,為您的服務主體建立新的金鑰。
UC_AAD 用戶端密鑰已過期 (儲存憑證)
用戶端的儲存憑證 <storageCredentialName> 祕密金鑰已過期。 請聯絡擁有者或你的帳號管理員以更新儲存憑證。
UC_AAD_CLIENT_SECRET_INVALID_FOR_SERVICE_PRINCIPAL
服務主體的客戶端秘密金鑰(含應用程式 ID <applicationId> )無效。
UC_AAD_服務主體配置無效
服務主體設定無效。 驗證目錄 ID、應用程式 ID 和用戶端秘密。
UC_AAD_TOKEN_EXCHANGE_GENERIC_FAILURE
無法取得憑證:儲存憑證 <storageCredentialName> 設定不正確。 聯絡擁有者或你的帳號管理員以更新設定。
UC_AAD_TOKEN_LIFETIME_TOO_SHORT
交換的 AAD 令牌有效期限 <lifetime> 設定過短。 請檢查您的 Azure AD 設定,以確定暫時存取令牌至少有一小時的存留期。 https://learn.microsoft.com/azure/active-directory/develop/active-directory-configurable-token-lifetimes
UC_ABAC_AMBIGUOUS_COLUMN_MATCH
在評估 '<resource>' 上的 ABAC 政策時發生錯誤。 原則 '<policyName>' 失敗,並顯示訊息:使用別名 '<alias>' 有 <size> 相符項,只允許 1 個相符項。
UC_ABAC_依賴性複雜度限制超出範圍
<resourceType>
<ref>「」具有過多的<resolverType> abac 依賴關係。
UC_ABAC_DEPENDENCY_DIFFERING_RF_CM
相依性 '<dependency>' 多次被引用,產生不同的 ABAC 列篩選或行遮罩。
UC_ABAC_EVALUATION_USER_ERROR
在評估 '<resource>' 上的 ABAC 政策時發生錯誤。 原則 『<policyName>失敗,訊息為: <message>。
UC_ABAC_INVALID_TAG_POLICY_VALUE
在評估 '<resource>' 上的 ABAC 政策時發生錯誤。 失敗的訊息:索引鍵<tagValue>的標籤政策值<tagKey>無效。
UC_ABAC_MULTIPLE_ROW_FILTERS
對 '<resource>' 的 ABAC 原則進行評估會導致多個列過濾器。 最多允許一列過濾器。
UC_ABAC_UNKNOWN_TAG_POLICY
在評估 '<resource>' 上的 ABAC 政策時發生錯誤。 顯示錯誤消息:未知標籤政策:<tagKey>。
UC_ABAC_未匹配的別名_在使用欄位中
在評估 '<resource>' 上的 ABAC 政策時發生錯誤。 失敗,並顯示訊息:在 <alias> 中使用的別名 'USING COLUMNS' 未符合任何資料行。
UC_ABAC_UNMATCHED_ON_COLUMN_ALIAS
在評估 '<resource>' 上的 ABAC 政策時發生錯誤。 原則 '<policyName>' 失敗,並顯示訊息:在 <alias> 中使用的別名 'ON COLUMN' 不符合任何資料行。
UC_ABAC_UNMATCHED_USING_ALIAS
在評估 '<resource>' 上的 ABAC 政策時發生錯誤。 原則 '<policyName>' 失敗,訊息如下:使用的別名 '<alias>' 沒有匹配的列。
UC_ABAC_USING_REF_OF_NATIVE_MASKED_COLUMNS
在評估 '<resource>' 上的 ABAC 政策時發生錯誤。 訊息失敗:欄位「<usingCol>」已被原生 RLS/CM 政策遮蔽,無法作為 ABAC 政策<policyName>的輸入。
UC_ACCESS需要工作區
無法存取綁定至工作區的安全物件,因為使用者未被指派至相應的工作區。
UC_ALTER_DLT_VIEW_OUTSIDE_DEFINING_PIPELINE
不允許在定義的管線外部更改檢視 '<viewFullName>'。 反之,請從定義它的管線(管線標識符:<owningPipelineId>)更新檢視定義。
UC_ATLAS_NOT_ENABLED_FOR_CALLING_SERVICE
未針對呼叫服務 <serviceName>啟用 Atlas。
UC_AUTHZ_ACTION_NOT_SUPPORTED
<actionName>不支援授權;請檢查是否已針對此資源類型實作 RPC
UC_AWS_ASSUME_ROLE_FAILED (無法假設角色)
無法取得憑證:Unity 目錄憑證中的 AWS IAM 角色設定不正確。 請聯絡你的 Metastore 管理員或憑證擁有者,以更新 AWS 中的設定。
UC_AWS_EMPTY_STORAGE_LOCATION(儲存位置為空)
空置的倉庫位置。
AWS無效的S3策略前綴碼UC_AWS_INVALID_S3_POLICY_PREFIX
儲存位置的 S3 路徑無效:S3 路徑 <providedPath> 的開頭未符合預期的前綴 <expectedPrefix>。
UC_AWS_UNSUPPORTED_S3_SCHEME
儲存位置的 s3 路徑無效:發現不支援的方案: <providedScheme>。 支援的方案包括: <supportedS3Schemes>
UC_AZURE_BLOB_SERVICE_UNAVAILABLE
Azure Blob 服務暫時無法使用。 稍後再試一次。
UC_AZURE_UDK_UNAUTHORIZED (未經授權)
請求使用者委派金鑰未獲授權。 詳: <details>
UC_BUILTIN_HMS_CONNECTION_CREATION_PERMISSION_DENIED
無法為內建的 Hive 中繼資料存放區建立連線,因為使用者:<userId> 不是工作區:<workspaceId> 的管理員。
UC_BUILTIN_HMS_CONNECTION_MODIFY_RESTRICTED_FIELD
嘗試修改內建 HMS 連線 '<connectionName>' 中的受限制欄位。 只能更新 『warehouse_directory』。
UC_CANNOT_RENAME_PARTITION_FILTERING_COLUMN
無法重新命名數據表欄位 <originalLogicalColumn>,因為它用於 <sharedTableName> 的分割篩選。 若要繼續,您可以從共用中移除數據表、重新命名數據行,然後再次與所需的數據分割篩選數據行共用。 不過,這可能會中斷接收方的串流查詢。
UC_CHILD_CREATION_FORBIDDEN_FOR_NON_UC_CLUSTER
無法在<securableType> 「<securable>」 下建立<parentSecurableType> 「<parentSecurable>」,因為請求不是來自 UC 叢集。
UC_衝突連接允許列表選項
無法建立與連線選項重疊的允許清單連線。 值:<conflictingOptions>
UC_CONFLICTING_CONNECTION_OPTIONS
無法使用使用者名稱/密碼和 oauth 驗證選項建立連線。 請選擇一個。
UC_CONNECTION_CREDENTIALS_MAXIMUM_REACHED
已達到連線名稱 『<connectionName>' 的認證數目上限。 請先刪除現有的認證,再建立新的認證。
UC_CONNECTION_CREDENTIALS_NOT_EXIST_FOR_USER_WITH_LOGIN
找不到用於使用者身分識別的認證「<userIdentity>」以連接「<connectionName>」。 請先登入,再造訪連線<connectionPage>
UC_CONNECTION_CREDENTIALS_TYPE_NOT_SUPPORTED
不支援為可保護類型 '<securableType>' 創建憑證。 支援的安全性實體類型: <allowedSecurableType>。
UC_CONNECTION_EXISTS_FOR_CREDENTIAL
認證『<credentialName>』有一或多個相依連線。 您可以使用 force 選項繼續更新或刪除認證,但使用此認證的連線可能無法再運作。
UC_CONNECTION_EXPIRED_ACCESS_TOKEN
與連線相關聯的存取令牌已過期。 請更新連線以重新啟動 OAuth 流程以擷取令牌。
UC_CONNECTION_EXPIRED_REFRESH_TOKEN
與連線相關聯的 refresh token 已過期。 請更新連線以重新啟動 OAuth 流程以擷取新的令牌。
UC_CONNECTION_IN_FAILED_STATE
聯機處於 FAILED 狀態。 請使用有效的認證更新連線,以重新啟用連線。
UC_CONNECTION_MISSING_OPTION
安全類型「<securableType>」的連接必須包含下列選項:<requiredOptions>。
UC_CONNECTION_MISSING_REFRESH_TOKEN
沒有與連線相關聯的刷新令牌。 請更新識別提供者中的 OAuth 用戶端整合以傳回重新整理令牌,並更新或重新建立連線以重新啟動 OAuth 流程並擷取必要的令牌。
UC_CONNECTION_OAUTH_EXCHANGE_FAILED
OAuth 令牌交換失敗,HTTP 狀態代碼 <httpStatus>為 。 傳回的伺服器回應或例外狀況訊息為: <response>
UC_CONNECTION_OPTION_NOT_SUPPORTED
安全性實體類型 『<securableType>』 的連接不支援下列選項:<optionsNotSupported>。 支援的選項: <allowedOptions>。
UC_COORDINATED_COMMITS_NOT_ENABLED
不啟用協調提交。 請連絡 Databricks 支持人員。
UC_CREATE_FORBIDDEN_UNDER_INACTIVE_SECURABLE
無法建立 <securableType> 『<securableName>',因為它位於不在作用中的 <parentSecurableType> '<parentSecurableName>' 底下。 請刪除父安全性實體,然後重新建立父系。
UC_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED
無法剖析提供的存取連接器識別碼: <accessConnectorId>。 請確認其格式,然後再試一次。
UC_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN
無法取得 AAD 令牌,以在存取連接器上執行雲端許可權驗證。 請重試動作。
UC_CREDENTIAL_INVALID_CLOUD_PERMISSIONS
SQLSTATE:未指派
註冊認證需要在標識碼 <accessConnectorId> 的對應存取連接器上擁有貢獻者角色。 請聯絡帳戶管理員。
UC_CREDENTIAL_INVALID_CREDENTIAL_TYPE_FOR_PURPOSE
此目的 '<credentialType>' 不支持認證類型 '<credentialPurpose>'
UC_CREDENTIAL_PERMISSION_DENIED
SQLSTATE:未指派
只有帳戶管理員可以建立或更新類型 <storageCredentialType>為的認證。
UC_CREDENTIAL_TRUST_POLICY_IS_OPEN
IAM 角色的信任策略,允許 Databricks 帳戶擔任該角色,應該需要外部 ID。請連絡您的帳戶管理員以加上外部 ID 條件。 這種行為是用來防範「混淆副手問題」(https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html)。
UC_CREDENTIAL_WORKSPACE_API_PROHIBITED
帳戶層級 API 不支援以非帳戶管理員身分建立或更新認證。 請改用工作區層級 API。
UC_DBR_TRUST_VERSION_TOO_OLD
使用的 Databricks 運行時間不再支援這項作業。 請使用最新版本(您可能只需要重新啟動叢集)。
UC_DELTA_ILLEGAL_BACKFILLED_VERSION
提交時,出現了未預期的 latestBackfilledVersion <latestBackfilledVersion> ,位於提交 (<version>, <commitType>)。
UC_DELTA_ILLEGAL_CONCURRENT_MIGRATION(非法的同時遷移)
不支援同時升級或降級至目錄管理的表格。 確保一次只有一個交易執行遷移指令。 偵測到一個重複的 <commitType>。
UC_DELTA_非法迁移状态更改
非法的狀態轉換,從舊的提交類型 <lastCommitType> 到新的 <commitType>。
UC_DELTA_MIGRATION_STATE_CHANGE_VERSION_MISMATCH
版本間在從舊(<lastVersion>, <lastCommitType>)到新(<version>, <commitType>)的狀態轉換上不匹配。
UC_DELTA_UNIVERSAL_FORMAT_CANNOT_PARSE_ICEBERG_VERSION
無法從元數據位置 <metadataLocation>剖析 Apache Iceberg 數據表版本。
UC_DELTA_UNIVERSAL_FORMAT_CONCURRENT_WRITE
偵測到並行更新至相同的 Apache Iceberg 元資料版本。
UC_DELTA_UNIVERSAL_FORMAT_INVALID_METADATA_LOCATION
認可的元數據位置 <metadataLocation> 無效。 它不是資料表根目錄的子目錄 <tableRoot>。
UC_DELTA_UNIVERSAL_FORMAT_MISSING_FIELD_CONSTRAINT
所提供的 delta Apache Iceberg 格式轉換資訊缺少必填欄位。
UC_DELTA_UNIVERSAL_FORMAT_NON_CREATE_CONSTRAINT
建立時設定 Apache Iceberg 格式的 Delta 資訊是不被支援的。
UC_DELTA_UNIVERSAL_FORMAT_TOO_LARGE_CONSTRAINT
所提供的delta Apache Iceberg格式轉換資訊過於龐大。
UC_DELTA_UNIVERSAL_FORMAT_UPDATE_INVALID
統一元數據只能在已啟用統一的 Delta 數據表上更新。
UC_DEPENDENCY_DEPTH_LIMIT_EXCEEDED
<resourceType> '<ref>' 深度超過限制(或有循環參考)。
UC_DEPENDENCY_DOES_NOT_EXIST
<resourceType> '<ref>' 無效,因為其中一個基礎資源不存在。 <cause>
UC_DEPENDENCY_PERMISSION_DENIED
<resourceType> '<ref>' 沒有足夠的許可權可執行,因為其中一個基礎資源的擁有者無法進行授權檢查。 <cause>
UC_DUPLICATE_CONNECTION
具有相同 URL 的『<connectionName>』連接已經存在。 請要求擁有者使用該連線的許可權,而不是建立重複的連線。
UC_DUPLICATE_FABRIC_CATALOG_CREATION
嘗試建立一個與現有目錄 URL '<storageLocation>' 匹配的 Fabric 目錄,這是不被允許的。
UC_DUPLICATE_TAG_ASSIGNMENT_CREATION
標籤鍵 <tagKey> 的標籤指派已經存在
UC_ENTITY_DOES_NOT_HAVE_CORRESPONDING_ONLINE_CLUSTER
實體 <securableType> <entityId> 沒有對應的在線叢集。
UC_ETAG_MISMATCH
資源已修改。 請獲取最新的 etag 並重試。 預期的 etag 值:<expectedTokenValue>,協定版本 <expectedTokenVersion>;收到的 etag 值:<providedTokenValue>,協定版本 <providedTokenVersion>
UC_EXCEEDS_MAX_FILE_LIMIT
檔案多於 <maxFileResults>。 請指定 [max_results] 來限制傳回的檔案數目。
UC_EXTERNAL_HMS_SCHEMA_LOCATION_NOT_FEDERATED
Schema <schemaName> 處於 DEGRADED 配置狀態,這是預期中的,因為 eHMS / Glue 的 schema 位置尚未被聯合。
UC_EXTERNAL_LOCATION_OP_NOT_ALLOWED
無法 <opName> <extLoc> <reason>。
<suggestion>。
UC_FEATURE_DISABLED
<featureName> 目前在UC中停用。
UC_FOREIGN_CATALOG_FOR_CONNECTION_TYPE_NOT_SUPPORTED
不支援為連線類型 『<connectionType>建立外部目錄。 此連線類型只能用來建立受控擷取管線。 如需詳細資訊,請參閱 Databricks 檔。
UC_FOREIGN_CREDENTIAL_CHECK_ONLY_FOR_READ_OPERATIONS
只能擷取外部資料表的讀取權限。
UC_禁止在轉換期間創建外部實體
在將目錄從 FOREIGN 轉換至 STANDARD 的過程中,禁止在目錄 '<catalogName>' 下建立 '<entityName>'。
UC_FOREIGN_HMS_SHALLOW_CLONE_MISMATCH
基表和克隆表必須位於相同的目錄中,才能在外部 Hive 元存儲目錄中創建淺層克隆。 基表 '' 位於目錄 '<baseTableName><baseCatalogName>' 中,複製數據表 '<cloneTableName>' 位於目錄 '<cloneCatalogName>'。
UC_FOREIGN_KEY_CHILD_COLUMN_LENGTH_MISMATCH
外鍵 <constraintName> 子數據行和父數據行的大小不同。
UC_FOREIGN_KEY_COLUMN_MISMATCH
外鍵父欄位與參考的主鍵子欄位不匹配。 外鍵父欄是(<parentColumns>),且主鍵子欄是(<primaryKeyChildColumns>)。
UC_FOREIGN_KEY_COLUMN_TYPE_MISMATCH
外鍵子欄位類型不匹配父欄位類型。 外鍵子資料列 <childColumnName> 具有 類型 <childColumnType> ,而父資料行 <parentColumnName> 的類型為 <parentColumnType>。
UC_GCP_INVALID_PRIVATE_KEY
拒絕存取。 原因:服務帳戶私鑰無效。
UC_GCP_INVALID_PRIVATE_KEY_JSON_FORMAT
Google 伺服器帳號 OAuth 私鑰必須是具有必要欄位的有效 JSON 物件,請務必提供從服務帳號詳情頁面「KEYS」區產生的完整 JSON 檔案。
UC_GCP_INVALID_PRIVATE_KEY_JSON_FORMAT_MISSING_FIELDS
Google 伺服器帳號 OAuth 私鑰必須是具有必要欄位的有效 JSON 物件,請務必提供從服務帳號詳情頁面「KEYS」區產生的完整 JSON 檔案。 遺漏的欄位為 <missingFields>
UC_IAM_ROLE_NON_SELF_ASSUMING
找到此儲存憑證的 IAM 角色無法自動承擔自身權限。 請檢查您角色的信任和 IAM 原則,以確保您的 IAM 角色可以根據 Unity 目錄記憶體認證檔自行擔任。
UC_ICEBERG_COMMIT_CONFLICT
無法認可 <tableName>:元數據位置 <baseMetadataLocation> 已從 <catalogMetadataLocation>變更。
UC_ICEBERG_COMMIT_INVALID_TABLE
無法對非管理的 Apache Iceberg 表執行管理的 Apache Iceberg 提交操作:<tableName>。
UC_ICEBERG_COMMIT_MISSING_FIELD_CONSTRAINT
提供的 Managed Apache Iceberg 認可資訊遺漏必要的欄位。
UC_ID_MISMATCH
<type> <name>沒有識別碼 <wrongId>。 請重試作業。
UC_INFORMATION_SCHEMA_PER_METASTORE_DB_RATE_LIMIT_EXCEEDED
中繼存放區的資訊結構描述要求太多。 請稍候,然後再試一次。 如果問題仍然存在,請考慮調整查詢的選擇性或聯絡支援人員尋求協助。
UC_INVALID_ACCESS_BRICKSTORE_ONLINE_TABLE_DEPRECATION
線上資料表已被棄用。 不再支援取得線上表格 <securableName> 的存取權。
UC_INVALID_ACCESS_BRICKSTORE_PG_CONNECTION
對資料庫實例的存取無效。 <reason>
UC_INVALID_ACCESS_DBFS_ENTITY
<securableType> <securableName> 在聯合目錄 <catalogName> 的存取無效。 <reason>
UC_INVALID_AZURE_PATH 無效的 Azure 路徑
無效的 Azure 路徑:<path>
UC_INVALID_CLOUDFLARE_ACCOUNT_ID
無效的 Cloudflare 帳戶標識碼。
UC_INVALID_CREDENTIAL_CLOUD
無效的憑證雲端提供者 "<cloud>". 允許的雲端提供者<allowedCloud>。
UC_INVALID_CREDENTIAL_PURPOSE_VALUE
「purpose」的認證值<value>無效。 允許的值為「<allowedValues>」。
UC_INVALID_CREDENTIAL_TRANSITION
無法將連線從 <startingCredentialType> 更新為 <endingCredentialType>。 唯一有效的轉換是從使用者名稱/密碼型連線到 OAuth 令牌型連線。
UC_INVALID_CRON_STRING_FABRIC
無效的cron字串。 找到: '<cronString>' 與解析錯誤: '<message>'
UC_INVALID_DIRECT_ACCESS_MANAGED_TABLE
不合法的直接存取受控資料表 <tableName>。 請確定未定義源數據表和管線定義。
UC_INVALID_EMPTY_STORAGE_LOCATION
目錄 『<securableType>' 中 』<securableName>' 的非<catalogName>預期空白儲存位置。 若要修正此錯誤,請執行 DESCRIBE SCHEMA <catalogName>。
<securableName> 並重新整理此頁面。
UC_INVALID_OPTIONS_UPDATE
提供的更新選項無效。 無效的選項: <invalidOptions>。 允許的選項: <allowedOptions>。
UC_INVALID_OPTION_VALUE
'<value>' 的值 '<option>' 無效。 允許的值為「<allowedValues>」。
UC_INVALID_OPTION_VALUE_EMPTY
'<option>' 不可以是空的。 請輸入非空白值。
UC_INVALID_POLICY_CONDITION
原則 『<policyName>' 中的條件無效。 編譯錯誤,訊息為『<message>』。
UC_INVALID_R2_ACCESS_KEY_ID
無效的 R2 存取金鑰標識碼。
UC_INVALID_R2_SECRET_ACCESS_KEY
無效的 R2 秘密存取金鑰。
UC_INVALID_UPDATE_ON_SYSTEM_WORKSPACE_ADMIN_GROUP_OWNED_SECURABLE
無法更新 <securableType> 『<securableName>,因為它是由內部群組所擁有。 請連絡 Databricks 支援以取得其他詳細數據。
UC_INVALID_WASBS_EXTERNAL_LOCATION_STORAGE_CREDENTIAL
如果記憶體認證 <storageCredentialName> 與 DBFS 根目錄沒有關聯,則禁止建立 wasbs 外部位置。
UC_LOCATION_INVALID_SCHEME
記憶體位置的 URI 配置無效: <scheme>。
UC_MALFORMED_OAUTH_SERVER_RESPONSE
權杖伺服器的回應遺漏欄位 <missingField>。 傳回的伺服器回應為: <response>
UC_MANAGED_ICEBERG_UNSUPPORTED
目前端點無法支援受管的 Apache Iceberg 表格。
UC_METASTORE_ASSIGNMENT_STATUS_INVALID
無法指定 '<metastoreAssignmentStatus>' 。 僅支援 MANUALLY_ASSIGNABLE 和 AUTO_ASSIGNMENT_ENABLED。
UC_METASTORE_CERTIFICATION_NOT_ENABLED
未啟用 Metastore 認證。
UC_METASTORE_HAS_ACTIVE_MANAGED_ONLINE_CATALOGS
SQLSTATE:未指派
中繼存放區 <metastoreId> 管理着 <numberManagedOnlineCatalogs> 在線目錄。 請明確刪除它們,然後重試中繼存放區刪除。
UC_METASTORE_QUOTA_EXCEEDED
ID 為 <accountId> 的帳號已達到區域 <region>metastore 的上限。
UC_METASTORE_STORAGE_ROOT_CREDENTIAL_UPDATE_INVALID
更新中繼存放區根位置時,無法定義中繼存放區根認證。 系統會從中繼存放區父外部位置擷取認證。
UC_METASTORE_STORAGE_ROOT_DELETION_INVALID
刪除中繼存放區記憶體根位置失敗。 <reason>
UC_METASTORE_STORAGE_ROOT_READ_ONLY_INVALID
中繼存放區的根 <securableType> 不能是唯讀的。
UC_METASTORE_STORAGE_ROOT_UPDATE_INVALID
設定後,中繼資料存放庫的根目錄無法再更新。
UC_MODEL_INVALID_STATE
無法為狀態為<opName>的模型版本<modelVersion>產生暫時的『<modelVersionStatus>』憑證。 '<opName>' 憑證只能針對狀態為 <validStatus> 的模型版本生成
使用 ABAC 掩蔽欄位的本地參考
在評估 '<resource>' 上的 ABAC 政策時發生錯誤。 訊息失敗:欄位「<usingCol>」已被 ABAC 政策<policyName>遮蔽,無法作為原生 RLS/CM 政策的輸入。
UC_NO_ORG_ID_IN_CONTEXT
嘗試存取組織 ID(或工作區 ID),但環境中沒有。
UC_ONELAKE_PATH_BAD_DOMAIN
Azure OneLake 路徑「<path>」必須有網域名稱「<expectedHost>」。
UC_ONELAKE_PATH_BAD_FORMAT
Azure OneLake 路徑 '<path>' 必須格式為 'abfss://_WORKSPACE_@<host>/'。
UC_ONELAKE_PATH_MISSING_AT
Azure OneLake 路徑 '<path>' 不含 '@'。
UC_ONELAKE_PATH_MISSING_WORKSPACE
Azure OneLake 路徑 '<path>' 必須包含工作區名稱。
UC_ONLINE_CATALOG_NOT_MUTABLE
SQLSTATE:未指派
要求會更新 <rpcName> 和 <fieldName>。 使用在線商店的計算索引標籤來修改除批註、擁有者和 isolationMode 之外的任何項目。
UC_ONLINE_CATALOG_QUOTA_EXCEEDED
無法在中繼資料庫中建立超過 <quota> 個線上商店,而且已經有 <currentCount>。 您可能無法存取任何現有的線上商店。 請連絡您的中繼存放區管理員,以取得存取權或進一步指示。
UC_ONLINE_INDEX_CATALOG_INVALID_CRUD
SQLSTATE:未指派
線上索引目錄必須透過<action> /vector-search API。
UC_ONLINE_INDEX_CATALOG_NOT_MUTABLE
SQLSTATE:未指派
要求會更新 <rpcName> 和 <fieldName>。 使用 /vector-search API 來修改在線索引目錄中,除批注、擁有者及 isolationMode 以外的內容。
UC_ONLINE_INDEX_CATALOG_QUOTA_EXCEEDED
無法在元存放區中建立超過 <quota> 個線上索引目錄,而目前已經有 <currentCount> 個。 您可能無法存取任何現有的在線索引目錄。 請連絡您的中繼存放區管理員,以取得存取權或進一步指示。
UC_ONLINE_INDEX_INVALID_CRUD
在線索引必須 <action> 透過 /vector-search API。
UC_ONLINE_STORE_INVALID_CRUD
SQLSTATE:未指派
在線商店必須透過 [在線商店計算標籤] <action>。
UC_ONLINE_TABLE_COLUMN_NAME_TOO_LONG
源數據表數據行名稱 <columnName> 太長。 最大長度為 <maxLength> 字元。
UC_ONLINE_TABLE_PRIMARY_KEY_COLUMN_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT
<columnName>欄位不能當做線上表格的主鍵欄位使用,因為它不是源表格現有PRIMARY KEY約束條件的一部分。 如需詳細資訊,請參閱 <docLink>
UC_ONLINE_TABLE_TIMESERIES_KEY_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT
<columnName> 欄不能作為在線表的時序索引鍵使用,因為它不是源表現有 PRIMARY KEY 條件約束的時序欄。 如需詳細資訊,請參閱 <docLink>
UC_ONLINE_VIEWS_PER_SOURCE_TABLE_QUOTA_EXCEEDED
無法為每個源表創建超過 <quota> 個線上表。
UC_ONLINE_VIEW_ACCESS_DENIED
存取資源 <resourceName> 需要使用無伺服器 SQL 倉儲。 請確定用來在 UI 中執行查詢或檢視資料庫目錄的倉儲是無伺服器。 如需詳細資訊,請參閱 <docLink>
UC_ONLINE_VIEW_CONTINUOUS_QUOTA_EXCEEDED
無法在線上商店中建立超過 <quota> 連續的線上檢視,而且已經有 <currentCount>。 您可能無法存取任何現有的線上檢視。 請連絡您的在線商店管理員以取得存取權或進一步指示。
UC_ONLINE_VIEW_DOES_NOT_SUPPORT_DMK
SQLSTATE:未指派
<tableKind> 無法在使用 Databricks 受控金鑰的儲存位置下建立。 請在記憶體位置中選擇不同的架構/目錄,而不需使用 Databricks 受控密鑰加密。
UC_ONLINE_VIEW_INVALID_CATALOG
無法在種類<catalogName>目錄<catalogKind>中建立<tableKind>。
<tableKind> 只能在類別目錄下建立: <validCatalogKinds>。
UC_ONLINE_VIEW_INVALID_SCHEMA
架構<schemaName>無效,無法在其中建立<schemaKind>,因為種類為<tableKind>。
<tableKind> 只能在類型的架構下建立: <validSchemaKinds>。
UC_ONLINE_VIEW_INVALID_TTL_TIME_COLUMN_TYPE
<columnName>類型的<columnType>數據行不能當做TTL時間數據行使用。 允許的類型為 <supportedTypes>。
UC_OPERATION_NOT_SUPPORTED
Unity 目錄不支援此作業。 <detailedMessage>
UC_OUT_OF_AUTHORIZED_PATHS_SCOPE
授權的路徑錯誤。 在目錄 <securableType> 的授權路徑中,位置 <location> 未被定義。 請要求目錄擁有者將路徑新增至目錄上定義的授權路徑清單。
UC_OVERLAPPED_AUTHORIZED_PATHS
「authorized_paths」選項包含重疊的路徑:<overlappingPaths>。 請確定每個路徑都是唯一的,而且不會與清單中的其他人交集。
UC_PAGINATION_AND_QUERY_ARGS_MISMATCH
查詢自變數 '' 設定為 '<arg><received>',這與第一個分頁呼叫中所使用的值不同 (''<expected>)
UC_PATH_FILTER_ALLOWLIST_VIOLATION
認證'<credentialName>' 是工作區預設認證,只允許存取下列路徑中的數據:'<allowlist>。 請確定使用此認證存取的任何路徑都位於下列其中一個路徑之下。
UC_PATH_FILTER_DENYLIST_VIOLATION
認證 '<credentialName>' 是工作區預設認證,無法存取下列限制路徑中的數據: ''<targetPath>。
UC_PATH_TOO_LONG
輸入路徑太長。 允許的長度: <maxLength>。 輸入長度: <inputLength>。 輸入: <path>...
UC_PER_METASTORE_DATABASE_CONCURRENCY_LIMIT_EXCEEDED
中繼存放區 <metastoreId>超過並行限制。 請稍後再試一次。 如果問題持續發生,請連絡以支援。 錯誤碼 #UC-<errorCodeArbitraryFiveLettersUpperCase>
UC_POSTGRESQL_ONLINE_VIEWS_PER_SOURCE_TABLE_QUOTA_EXCEEDED
無法為每個源數據表建立多個 <quota> 同步處理的資料庫數據表。
UC_PRIMARY_KEY_ON_NULLABLE_COLUMN
無法建立主鍵 <constraintName> ,因為它的子數據行 <childColumnNames> 可為 Null。 請變更數據行可為 Null 並重試。
請求次數超過限制
你的申請被拒絕,因為你的組織已經超過費率上限。 請稍後再重試您的要求。
UC_REQUEST_TIMEOUT
這項作業花費的時間太長。
資源配額已超出
無法在<parentResourceType> <parentResourceId>中創建<amount> <resourceType>(估計數量:<currentCount>,上限:<quotaLimit>)。
UC_ROOT_STORAGE_S3_BUCKET_NAME_CONTAINS_DOT
Unity 目錄不支援包含點的根記憶體 S3 貯體名稱: <uri>
UC_SCHEMA_EMPTY_STORAGE_LOCATION
目錄 '' 中架構 '<schemaName><catalogName>' 的非預期空白儲存位置。 請確定架構使用的路徑配置 <validPathSchemesListStr>。
UC_SERVERLESS_UNTRUSTED_DOMAIN_STORAGE_TOKEN_MINTING
禁止無伺服器的 Python 和 Scala 筆記本從網路受限的工作區中擷取 Unity Catalog 的臨時儲存憑證。
UC_SHALLOW_CLONE_BASE_TABLE_DELETED
無法存取淺層複製 '<tableFullName>',因為其基底表 '<baseTableName>' 已被刪除。
UC_STORAGE_CREDENTIALS_WITH_EXTERNAL_LOCATION_DELETION_DENIED
儲存認證 '<credentialName>' 具有 <extTablesCount> 個直接相依的外部資料表和 <extLocationsCount> 個相依的儲存位置。 您可以使用 force 選項將其刪除,但 Unity 目錄無法再清除使用此記憶體認證的受控記憶體數據。
UC_STORAGE_CREDENTIALS_禁止更新外部位置
儲存憑證 '<credentialName>' 具有 <extTablesCount> 直接相依的外部數據表和 <extLocationsCount> 相依儲存位置,無論如何,請使用強制選項來更新。
UC_STORAGE_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED
無法剖析提供的存取連接器識別碼: <accessConnectorId>。 請確認其格式,然後再試一次。
UC_STORAGE_CREDENTIAL_DBFS_ROOT_CREATION_PERMISSION_DENIED
無法為 DBFS 根目錄建立記憶體認證,因為使用者: 不是工作區的管理員: <userId><workspaceId>
UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_DBFS_ENABLED
已啟用防火牆的 DBFS 工作區尚不支援 DBFS 根記憶體認證
UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_NOT_SUPPORTED
目前工作區的 DBFS 根記憶體認證尚不受支援
UC_STORAGE_CREDENTIAL_DBFS_ROOT_WORKSPACE_DISABLED
工作區 <workspaceId> 的 DBFS 根目錄尚未啟用
UC_STORAGE_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN
無法取得 AAD 令牌,以在存取連接器上執行雲端許可權驗證。 請重試動作。
UC_STORAGE_CREDENTIAL_INVALID_CLOUD_PERMISSIONS
註冊儲存憑證需要在具有標識符 <accessConnectorId> 的對應存取連接器上擁有貢獻者角色。 請聯絡帳戶管理員。
UC_STORAGE_CREDENTIAL_METASTORE_ROOT_DELETION_DENIED
無法刪除記憶體認證 '<credentialName>',因為它已設定為此中繼存放區的根認證。 請先更新中繼存放區的根認證,再嘗試刪除。
UC_STORAGE_CREDENTIAL_PERMISSION_DENIED
只有帳戶管理員可以建立或更新類型 <storageCredentialType>為的記憶體認證。
UC_STORAGE_CREDENTIAL_SERVICE_PRINCIPAL_MISSING_VALIDATION_TOKEN
服務主體缺少驗證令牌。 請在 'X-Databricks-Azure-SP-Management-Token' 要求標頭中提供有效的 ARM 範圍內的 Entra ID 令牌,然後重試。 如需詳細資訊,請檢查 https://docs.databricks.com/api/workspace/storagecredentials
UC_STORAGE_CREDENTIAL_TRUST_POLICY_IS_OPEN
IAM 角色的信任策略,允許 Databricks 帳戶擔任該角色,應該需要外部 ID。請連絡您的帳戶管理員以加上外部 ID 條件。 這種行為是用來防範「混淆副手問題」(https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html)。
UC_STORAGE_CREDENTIAL_WASBS_NOT_DBFS_ROOT
位置 <location> 不在 DBFS 根目錄內,因為我們無法建立記憶體認證 <storageCredentialName>
UC_STORAGE_CREDENTIAL_WORKSPACE_API_PROHIBITED
帳戶層級 API 不支援以非帳戶管理員身分建立或更新記憶體認證。 請改用工作區層級 API。
UC_STORAGE_CREDENTIAL_WS_BUCKET_INVALID_LOCATION
位置 <requestedLocation> 不在允許的內容內 <allowedLocation>
UC_STORAGE_CREDENTIAL_WS_INTERNAL_CATALOG_NOT_SUPPORTED
目前工作區的內部目錄儲存憑證尚不受支援
UC_SYSTEM_SCHEMA_NOT_AVAILABLE_FOR_ENABLEMENT(系統架構無法啟用)
系統架構 <systemSchema> 目前無法啟用。 請稍後再試一次。
UC_SYSTEM_WORKSPACE_GROUP_PERMISSION_UNSUPPORTED
無法將的權限 <securableType> 授與系統產生的群組 <principal>。
UC_TABLE_IS_LOCKED_FOR_CATALOG_MANAGED_TABLE_MIGRATION
表格「<tableId>」因目錄管理的表格遷移而被暫時鎖定。 此表格的交易會被封鎖,直到遷移完成。 請盡快重試您的交易。
UC_TABLE_IS_NOT_CATALOG_OWNED
執行提交/getCommits 要求的資料表 『<tableId>',需要在表格上啟用由目錄管理的功能。
UC_TAG_ASSIGNMENT_WITH_KEY_DOES_NOT_EXIST
標記索引鍵 <tagKey> 的標籤分配不存在
UC_TEMPORARY_CREDENTIAL_OPERATION_NOT_SUPPORTED
不支援暫時憑證操作。
UC_UNDROP_RESOURCE_ID_ALREADY_EXISTS
無法取消卸除 '<resourceType>',因為已經存在 ID 為 '<resourceType>' 的 '<resourceId>'。
UC_UNDROP_RESOURCE_NAME_ALREADY_EXISTS
無法恢復 '<resourceType>',因為名稱為 '<resourceType>' 的 '<resourceName>' 已經存在。
UC_UNDROP_RESOURCE_NOT_READY
無法取消刪除 '<resourceType>',因為標識符為 '<resourceType>' 的 '<resourceId>' 尚未準備好還原,請稍後再試一次。
自訂保留期限後取消資源還原
無法取消刪除 '<resourceType>',因為 id 為 '<resourceType>' 的 '<resourceId>' 已超過其自訂還原期間。
UC_UNDROP_RESOURCE_PAST_RECOVERABLE_WINDOW
無法還原 '<resourceType>' ,因為 ID 為 '<resourceType>' 的 '<resourceId>' 超過支援的還原期限,該期限為 '<maxRestorationPeriodDay>' 天。
UC_UNIQUE_CONSTRAINT_CHILD_COLUMNS_ALREADY_EXIST(唯一約束的子欄位已存在)
無法建立UNIQUE條件約束:數據表<newConstraintName>已經有一個<tableName>條件約束UNIQUE:<existingConstraintName>,其子數據行集相同。
UC_UNIQUE_CONSTRAINT_NOT_SUPPORTED
無法執行UNIQUE限制條件<constraintName>:未啟用UNIQUE限制條件。
UC_UNSUPPORTED_HTTP_CONNECTION_BASE_PATH
提供的基底路徑無效,基底路徑應類似 /api/resources/v1。 不支援的路徑: <path>
UC_UNSUPPORTED_HTTP_CONNECTION_HOST
提供的主機名無效,主機名應該像 https://www.databricks.com 一樣,不含路徑後綴。 不支援的主機: <host>
UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH
外部位置/磁碟區/資料表路徑僅支援基本拉丁文/拉丁文-1 ASCII 字元。 不支援的路徑: <path>
UC_UPDATE_FORBIDDEN_FOR_PROVISIONING_SECURABLE
無法更新 <securableType> 「<securableName>」,因為它正在布建中。
UC_USING_REF_OF_MASKED_COLUMNS
在評估 '<resource>' 上的 ABAC 政策時發生錯誤。 訊息失敗:欄位「<usingCol>已被 ABAC 政策<existingMaskingPolicy>遮蔽」,無法用於政策<policyName>「」中。
UC_WRITE_CONFLICT
<type> <name>已由另一個請求所修改。 請重試作業。
無法復原的資料表不存在
無法恢復表,因為沒有符合恢復資格的同名 <tableFullName> 表格。 此表格可能從未被刪除、已超過最大復原期限而無法恢復,或從未存在過。
UNITY_CATALOG_EXTERNAL_COORDINATED_COMMITS_REQUEST_DENIED
針對在非 Databricks Unity Catalog 啟用的運算環境之外,對表格『<tableId>』執行 commit/getCommits 的要求,由於安全性原因將被拒絕。 請連絡 Databricks 支援以與 Unity 目錄整合。
UNITY_CATALOG_EXTERNAL_CREATE_STAGING_TABLE_REQUEST_DENIED
由於安全原因,拒絕從 Databricks Unity 目錄已啟用的運算環境之外建立臨時表 '<tableFullName>' 的要求。 請連絡 Databricks 支援以與 Unity 目錄整合。
UNITY_CATALOG_外部創建表格檢核失敗_COLUMN_MASKS_已定義
拒絕從已啟用 Databricks Unity 目錄的計算環境外部建立資料表 '<tableFullName>' 的要求。 在外部建立數據表時,不支援欄位遮罩。
UNITY_CATALOG_EXTERNAL_CREATE_TABLE_FAILED_VALIDATION_DATA_SOURCE_FORMAT_NOT_DELTA
拒絕從已啟用 Databricks Unity 目錄的計算環境外部建立資料表 '<tableFullName>' 的要求。 數據源格式必須是 DELTA,用於外部建立數據表,但現在卻是 '<dataSourceFormat>'。
UNITY_CATALOG_EXTERNAL_建立資料表失敗_驗證錯誤_資料表類型非外部
拒絕從已啟用 Databricks Unity 目錄的計算環境外部建立資料表 '<tableFullName>' 的要求。 表格類型必須是 EXTERNAL 才能外部建立表格,但目前設定為 '<tableType>'。
UNITY_CATALOG_EXTERNAL_CREATE_TABLE_INFO_CONTAINS_INVALID_FIELDS
外部表格建立僅允許以下欄位:[name、catalog_name、schema_name、table_type、data_source_format、column、storage_location和properties]。
UNITY_CATALOG_EXTERNAL_CREATE_TABLE_REQUEST_FOR_NON_EXTERNAL_TABLE_DENIED
要求從不屬於啟用 Databricks Unity Catalog 的計算環境中建立非外部表因安全原因遭到拒絕。 請連絡 Databricks 支援以與 Unity 目錄整合。
UNITY_CATALOG_EXTERNAL_DELETE_TABLE_REQUEST_FOR_NON_EXTERNAL_TABLE_DENIED
不支援從 Databricks Unity Catalog 已啟用的計算環境之外刪除非外部資料表 '<tableFullName>' 的要求。
UNITY_CATALOG_EXTERNAL_GENERATE_PATH_CREDENTIALS_DENIED
要求從啟用 Databricks Unity 目錄的計算環境外部產生路徑 『<path>' 的存取認證,但基於安全性而遭到拒絕。 請連絡 Databricks 支援以與 Unity 目錄整合。
UNITY_CATALOG_EXTERNAL_GENERATE_TABLE_CREDENTIALS_DENIED
要求從啟用 Databricks Unity Catalog 目錄的計算環境外生成表格 '<tableId>' 的存取憑證,由於安全原因被拒絕。 請連絡 Databricks 支援以與 Unity 目錄整合。
驗證憑證失敗: 已定義的憑證 ID 無效
拒絕要求從已啟用 Databricks Unity 目錄的計算環境外部產生暫存路徑認證。 在外部產生暫存路徑認證時,不得定義認證標識碼。
UNITY_CATALOG_EXTERNAL_GENERATE_TEMP_PATH_CRED_FAILED_VALIDATION_MAKE_PATH_ONLY_PARENT_DEFINED
拒絕要求從已啟用 Databricks Unity 目錄的計算環境外部產生暫存路徑認證。 在外部產生暫存路徑認證時,不得定義make_path_only_parent。
統一目錄外部生成卷憑證被拒絕
從 Databricks Unity Catalog 啟用的運算環境之外為磁碟區<volumeId>產生存取憑證的請求,由於安全理由被拒絕。 請連絡 Databricks 支援以與 Unity 目錄整合。
UNITY_CATALOG_EXTERNAL_無法支援針對可保護類型生成卷認證
為了安全起見,拒絕從 Databricks Unity Catalog 支援的運算環境外部產生 '<volumeSecurableKind>' 的存取憑證。 請連絡 Databricks 支援以與 Unity 目錄整合。
UNITY_CATALOG_EXTERNAL_GET_FOREIGN_CREDENTIALS_DENIED
因安全性考量,拒絕要求在 Databricks Unity Catalog 已啟用的計算環境外取得安全性資產的外部憑證。
UNITY_CATALOG_EXTERNAL_UPDATA_METADATA_SNAPSHOT_DENIED
基於安全考量,拒絕從啟用 Databricks Unity 目錄的計算環境外部請求更新元數據快照。
不支援的定位方案
<fieldName> 具有無效的 URI 配置 <scheme>。 有效的 URI 配置包括 <validSchemes>。 無效路徑: <path>。
UPDATE_SYSTEM_TABLE
無法修改系統擁有的資料表。 表格 '<tableName>' 是系統擁有的表格。
WRITE_CREDENTIALS_NOT_SUPPORTED_FOR_LEGACY_MANAGED_ONLINE_TABLE
從線上目錄中取得線上表格寫入憑證的要求無效。
檔案 API
FILES_API_API_IS_NOT_ENABLED
SQLSTATE:未指派
<api_name> 未啟用 API
FILES_API_API_IS_NOT_ENABLED_FOR_CLOUD_PATHS
SQLSTATE:未指派
雲端路徑不支援檔案 API 所要求的方法
FILES_API_AWS_ACCESS_DENIED
SQLSTATE:未指派
AWS 拒絕存取儲存桶的權限。
FILES_API_AWS_ALL_ACCESS_DISABLED
SQLSTATE:未指派
AWS 已停用對儲存桶的所有存取。
FILES_API_AWS_BUCKET_DOES_NOT_EXIST
SQLSTATE:未指派
在 AWS 中,儲存桶不存在。
FILES_API_AWS_FORBIDDEN
SQLSTATE:未指派
AWS 禁止存取存儲桶。
FILES_API_AWS_INVALID_AUTHORIZATION_HEADER
SQLSTATE:未指派
工作區設定錯誤:它必須位於與 AWS 工作區根記憶體貯體相同的區域中。
FILES_API_AWS_INVALID_BUCKET_NAME
SQLSTATE:未指派
儲存桶名稱無效。
FILES_API_AWS_KMS_KEY_DISABLED
SQLSTATE:未指派
AWS 中已設定用來存取記憶體貯體的 KMS 金鑰已停用。
FILES_API_AWS_UNAUTHORIZED
SQLSTATE:未指派
未經授權存取 AWS 資源。
FILES_API_AZURE_ACCOUNT_IS_DISABLED
SQLSTATE:未指派
Azure 中已停用記憶體帳戶。
FILES_API_AZURE_AUTHORIZATION_PERMISSION_MISMATCH
SQLSTATE:未指派
授權許可權不符。
FILES_API_AZURE_CMK_NOT_FOUND
SQLSTATE:未指派
無法找到管理加密金鑰。
FILES_API_AZURE_CMK_SOFT_DELETED
SQLSTATE:未指派
管理加密金鑰已被軟刪除。
FILES_API_AZURE_CONTAINER_DOES_NOT_EXIST
SQLSTATE:未指派
Azure 容器不存在。
Azure 憑證未找到 (FILES_API_AZURE_CREDENTIAL_NOT_FOUND)
SQLSTATE:未指派
找不到 Azure 認證。 Azure 認證可能遺失或無法存取。
FILES_API_AZURE_FORBIDDEN
SQLSTATE:未指派
Azure 禁止存取記憶體容器。
FILES_API_AZURE_HAS_A_LEASE
SQLSTATE:未指派
Azure 回應說,該資源目前有租約。 稍後再試一次。
FILES_API_AZURE_INSUFFICIENT_ACCOUNT_PERMISSION
SQLSTATE:未指派
存取的帳戶沒有足夠的許可權可執行這項作業。
FILES_API_AZURE_INVALID_STORAGE_ACCOUNT_CONFIGURATION
SQLSTATE:未指派
所存取的帳戶組態不被支援。
FILES_API_AZURE_INVALID_STORAGE_ACCOUNT_NAME
SQLSTATE:未指派
無法存取 Azure 中的記憶體帳戶:無效的記憶體帳戶名稱。
FILES_API_AZURE_KEY_BASED_AUTHENTICATION_NOT_PERMITTED
SQLSTATE:未指派
在 Azure 中找不到金鑰保存庫。 檢查客戶管理的金鑰設定。
FILES_API_AZURE_KEY_VAULT_KEY_NOT_FOUND
SQLSTATE:未指派
在 Azure 中找不到 Azure 金鑰保存庫金鑰。 檢查客戶管理的金鑰設定。
FILES_API_AZURE_KEY_VAULT_VAULT_NOT_FOUND
SQLSTATE:未指派
在 Azure 中找不到金鑰保存庫。 檢查客戶管理的金鑰設定。
FILES_API_AZURE_MI_ACCESS_CONNECTOR_NOT_FOUND
SQLSTATE:未指派
找不到具有 Access Connector 的 Azure 受控識別認證。 這可能是因為IP訪問控制拒絕了您的要求。
FILES_API_AZURE_OPERATION_TIMEOUT
SQLSTATE:未指派
作業無法在允許的時間內完成。
FILES_API_AZURE_PATH_INVALID
SQLSTATE:未指派
要求的路徑對 Azure 無效。
FILES_API_AZURE_PATH_IS_IMMUTABLE
SQLSTATE:未指派
要求的路徑是不可變的。
FILES_API_AZURE_UNSUPPORTED_HEADER
SQLSTATE:未指派
不支援操作中指定的其中一個 HTTP 標頭。
FILES_API_CANNOT_PARSE_URL_PARAMETER
SQLSTATE:未指派
無法剖析 URL 參數。
FILES_API_CATALOG_NOT_FOUND
SQLSTATE:未指派
<unity_catalog_error_message>
FILES_API_CLOUD_RESOURCE_EXHAUSTED
SQLSTATE:未指派
<message>
FILES_API_CLOUD_STORAGE_PROVIDER_CONNECTION_ISSUE
SQLSTATE:未指派
存取 <cloud_storage_provider> 時發生連線問題。 請稍後再試一次。
FILES_API_COLON_IS_NOT_SUPPORTED_IN_PATH
SQLSTATE:未指派
路徑中不支援 『:』 字元
FILES_API_CONSUMER_NETWORK_ZONE_NOT_ALLOWED
SQLSTATE:未指派
請求者網路區域 "<consumer_network_zone>" 不允許消費者網路區域 "<requester_network_zone>"。
FILES_API_CONTROL_PLANE_NETWORK_ZONE_NOT_ALLOWED
SQLSTATE:未指派
不允許 Databricks 控制平面網路區域。
FILES_API_CREDENTIAL_NOT_FOUND
SQLSTATE:未指派
找不到憑證。
FILES_API_DIRECTORIES_CANNOT_HAVE_BODIES
SQLSTATE:未指派
已提供檔案內容,但目錄不能有檔案內容
FILES_API_DIRECTORY_IS_NOT_EMPTY
SQLSTATE:未指派
目錄不是空的。 非空白目錄不支援這項作業。
FILES_API_DIRECTORY_IS_NOT_FOUND
SQLSTATE:未指派
找不到要存取的目錄。
FILES_API_DIRECTORY_ZIP_DOWNLOAD_FILE_LIMIT_EXCEEDED
SQLSTATE:未指派
目錄包含太多檔案以供 ZIP 下載。 允許的檔案上限 <max_file_count> 。
FILES_API_DMK_ENCRYPTION_ROOT_KEY_DISABLED
SQLSTATE:未指派
客戶管理的加密根金鑰已停用。
FILES_API_DUPLICATED_HEADER
SQLSTATE:未指派
要求包含只允許一次的重複標頭。
FILES_API_DUPLICATE_QUERY_PARAMETER
SQLSTATE:未指派
查詢參數 『<parameter_name>' 必須只存在一次,但已多次提供。
FILES_API_EMPTY_BUCKET_NAME
SQLSTATE:未指派
DBFS 桶名稱為空。
FILES_API_ENCRYPTION_KEY_PERMISSION_DENIED
SQLSTATE:未指派
用戶無法存取加密金鑰。
FILES_API_ENCRYPTION_KEY_RETRIEVAL_OPERATION_TIMEOUT
SQLSTATE:未指派
擷取加密金鑰的作業無法在允許的時間內完成。
FILES_API_ENTITY_TOO_LARGE
SQLSTATE:未指派
您的物件超過允許的物件大小上限。
FILES_API_ERROR_EXPIRED_TTL
SQLSTATE:未指派
TTL 已過期。
FILES_API_ERROR_INVALID_TTL
SQLSTATE:未指派
TTL 無效。
FILES_API_ERROR_KEY_FOR_WORKSPACE_IS_NOT_FOUND
SQLSTATE:未指派
找不到工作區的密鑰。
FILES_API_ERROR_MISSING_REQUIRED_PARAM
SQLSTATE:未指派
URL 遺漏必要的參數。
FILES_API_ERROR_TTL_IN_THE_FUTURE
SQLSTATE:未指派
TTL 設定在未來。
FILES_API_ERROR_URL_INVALID_ISSUER_SHARD_NAME
SQLSTATE:未指派
簽發者分區名稱無效。
FILES_API_EXPIRATION_TIME_MUST_BE_PRESENT
SQLSTATE:未指派
到期時間必須存在
FILES_API_EXPIRED_TOKEN
SQLSTATE:未指派
提供的令牌已過期。
FILES_API_EXPIRE_TIME_MUST_BE_IN_THE_FUTURE
SQLSTATE:未指派
ExpireTime 必須設為未來的時間
FILES_API_EXPIRE_TIME_TOO_FAR_IN_FUTURE
SQLSTATE:未指派
所要求的 TTL 超過支援的限制(1 小時)
FILES_API_EXTERNAL_LOCATION_PATH_OVERLAP_OTHER_UC_STORAGE_ENTITY
SQLSTATE:未指派
<unity_catalog_error_message>
FILES_API_FILE_ALREADY_EXISTS
SQLSTATE:未指派
正在建立的檔案已經存在。
FILES_API_FILE_NOT_FOUND
SQLSTATE:未指派
找不到要存取的檔案。
FILES_API_FILE_OR_DIRECTORY_ENDS_IN_DOT
SQLSTATE:未指派
不支援以 『.』 字元結尾的檔案或目錄。
FILES_API_FILE_SIZE_EXCEEDED
SQLSTATE:未指派
檔案大小不應超過 <max_download_size_in_bytes> 位元組,但檢測到的是 <size_in_bytes> 位元組。
FILES_API_GCP_ACCOUNT_IS_DISABLED
SQLSTATE:未指派
GCP 中已停用記憶體貯體存取權。
FILES_API_GCP_BUCKET_DOES_NOT_EXIST
SQLSTATE:未指派
在 GCP 中的儲存桶不存在。
FILES_API_GCP_FORBIDDEN
SQLSTATE:未指派
GCP 拒絕存取存儲桶。
檔案_API_GCP_IAM_身份驗證失敗
SQLSTATE:未指派
GCP IAM 操作驗證失敗。
文件_API_GCP_IAM_憑證_未找到
SQLSTATE:未指派
指定的 GCP 憑證不存在或無法存取。
FILES_API_GCP_IAM_PERMISSION_DENIED
SQLSTATE:未指派
GCP IAM 操作許可被拒絕。
FILES_API_GCP_KEY_DELETED
SQLSTATE:未指派
加密金鑰已被刪除或無法存取。
FILES_API_GCP_KEY_DISABLED_OR_DESTROYED
SQLSTATE:未指派
針對該位置設定的客戶管理的加密金鑰已停用或終結。
FILES_API_GCP_REQUEST_IS_PROHIBITED_BY_POLICY
SQLSTATE:未指派
GCP 對儲存桶的請求被政策禁止,請檢查 VPC 服務控制。
FILES_API_GCP_USER_PROJECT_ACCOUNT_PROBLEM
SQLSTATE:未指派
請求中使用的GCP專案存在問題,導致操作無法成功完成。
FILES_API_HOST_TEMPORARILY_NOT_AVAILABLE
SQLSTATE:未指派
雲端提供者主機暫時無法使用;請稍後再試一次。
FILES_API_INVALID_CONTENT_LENGTH
SQLSTATE:未指派
content-length 標頭的值必須是大於或等於 0 的整數。
FILES_API_INVALID_CONTINUATION_TOKEN
SQLSTATE:未指派
所提供的頁面令牌無效。
FILES_API_INVALID_HEADER_VALUE
SQLSTATE:未指派
標頭 '<header_name>' 的值無效。
FILES_API_INVALID_HOSTNAME
SQLSTATE:未指派
主機名無效。
FILES_API_INVALID_HTTP_METHOD
SQLSTATE:未指派
無效的 HTTP 方法。 預期的是 '<expected>',卻得到了 '<actual>'。
FILES_API_INVALID_METASTORE_ID_HEADER
SQLSTATE:未指派
Metastore ID 標頭無效。
FILES_API_INVALID_PAGE_TOKEN
SQLSTATE:未指派
無效的頁面令牌
FILES_API_INVALID_PATH
SQLSTATE:未指派
不合法的路徑: <validation_error>
FILES_API_INVALID_RANGE
SQLSTATE:未指派
範圍標頭無效。
FILES_API_INVALID_RESOURCE_FULL_NAME
SQLSTATE:未指派
<unity_catalog_error_message>
FILES_API_INVALID_SESSION_TOKEN
SQLSTATE:未指派
無效的會話令牌
FILES_API_INVALID_SESSION_TOKEN_TYPE
SQLSTATE:未指派
無效的會話授權碼類型。 預期的是 '<expected>',卻得到了 '<actual>'。
FILES_API_INVALID_TIMESTAMP
SQLSTATE:未指派
時間戳無效。
FILES_API_INVALID_UPLOAD_TYPE
SQLSTATE:未指派
上傳類型無效。 預期的是 '<expected>',卻得到了 '<actual>'。
FILES_API_INVALID_URL
SQLSTATE:未指派
URL 無效
FILES_API_INVALID_URL_PARAMETER
SQLSTATE:未指派
傳遞為參數的 URL 無效
FILES_API_INVALID_VALUE_FOR_OVERWRITE_QUERY_PARAMETER
SQLSTATE:未指派
查詢參數 'overwrite' 必須是下列其中一個:true、false,但為: <got_values>
FILES_API_INVALID_VALUE_FOR_QUERY_PARAMETER
SQLSTATE:未指派
查詢參數 '<parameter_name>' 必須是下列其中一項:<expected>,但實際為:<actual>
FILES_API_MALFORMED_REQUEST_BODY
SQLSTATE:未指派
格式不正確的要求本文
FILES_API_MANAGED_CATALOG_FEATURE_DISABLED
SQLSTATE:未指派
<unity_catalog_error_message>
FILES_API_METASTORE_NOT_FOUND
SQLSTATE:未指派
<unity_catalog_error_message>
FILES_API_METHOD_IS_NOT_ENABLED_FOR_JOBS_BACKGROUND_COMPUTE_ARTIFACT_STORAGE
SQLSTATE:未指派
不支援作業背景運算成果儲存的檔案 API 之請求方法。
FILES_API_MISSING_CONTENT_LENGTH
SQLSTATE:未指派
要求中需要有「內容長度」標頭。
FILES_API_MISSING_QUERY_PARAMETER
SQLSTATE:未指派
查詢參數 <parameter_name> 是必需的,但在請求中缺失。
FILES_API_MISSING_REQUIRED_PARAMETER_IN_REQUEST
SQLSTATE:未指派
要求遺漏必要的參數。
FILES_API_MLFLOW_PERMISSION_DENIED
SQLSTATE:未指派
<mlflow_error_message>
FILES_API_MLFLOW_RESOURCE_EXHAUSTED
SQLSTATE:未指派
請求超過限制,無法與 mlflow 服務通訊。
FILES_API_MODEL_VERSION_IS_NOT_READY
SQLSTATE:未指派
模型版本尚未就緒
FILES_API_MULTIPART_UPLOAD_ABORT_PRESIGNED_URL_NOT_SUPPORTED
SQLSTATE:未指派
儲存在<cloud_storage_provider>上的檔案不支援預先簽署的 URL 以中止分段上傳。
FILES_API_MULTIPART_UPLOAD_ABORT_UPLOAD_NOT_SUPPORTED
SQLSTATE:未指派
對於儲存在 <cloud_storage_provider>的檔案,不支援中止多段上傳。
FILES_API_MULTIPART_UPLOAD_EMPTY_PART_LIST
SQLSTATE:未指派
元件清單必須至少有一個元素,但是空的。
FILES_API_MULTIPART_UPLOAD_INVALID_PART
SQLSTATE:未指派
找不到一或多個指定的元件。 元件可能尚未上傳,或指定的實體標籤可能不符合元件的實體標籤。
FILES_API_MULTIPART_UPLOAD_INVALID_PART_NUMBER
SQLSTATE:未指派
元件編號必須大於或等於 <min> ,且小於或等於 <max>。
FILES_API_MULTIPART_UPLOAD_MISSING_ETAG
SQLSTATE:未指派
必須針對儲存在 上的 <cloud_storage_provider>檔案提供 ETag。 至少有一個 ETag 未提供或是空的。
FILES_API_MULTIPART_UPLOAD_MODIFIED_STORAGE_ENTITY_STATE
SQLSTATE:未指派
例如,自上傳開始以來,儲存實體的內部狀態已經被修改,因為檔案路徑不指向相同的底層雲端儲存位置。 藉由起始新的上傳會話繼續進行。
FILES_API_MULTIPART_UPLOAD_NON_TRAILING_PARTS_WITH_DIFFERENT_SIZES
SQLSTATE:未指派
作為多部分上傳會話一部分上傳的元件,對於儲存在 上的 <cloud_storage_provider>檔案而言,其大小必須相同,但最後一個部分可能更小。
FILES_API_MULTIPART_UPLOAD_PART_SIZE_OUT_OF_RANGE
SQLSTATE:未指派
在多部分上傳工作階段中上傳的元件大小必須大於或等於 <min> ,且小於或等於 <max>。
FILES_API_MULTIPART_UPLOAD_SESSION_NOT_FOUND
SQLSTATE:未指派
找不到上傳會話。 它可能已中止或完成。
FILES_API_MULTIPART_UPLOAD_UNORDERED_PART_LIST
SQLSTATE:未指派
元件清單必須由元件編號排序,但未排序。
FILES_API_NON_ZERO_CONTENT_LENGTH
SQLSTATE:未指派
此要求的內容長度標頭必須是零。
FILES_API_NOT_ENABLED_FOR_PLACE
SQLSTATE:未指派
尚未為此工作區/帳戶啟用 <place> 檔案 API
FILES_API_NOT_SUPPORTED_FOR_INTERNAL_WORKSPACE_STORAGE
SQLSTATE:未指派
不支援內部工作區儲存空間的檔案 API 請求的方法
FILES_API_OPERATION_MUST_BE_PRESENT
SQLSTATE:未指派
作業必須存在
FILES_API_OPERATION_TIMEOUT
SQLSTATE:未指派
作業逾時。
FILES_API_PAGE_SIZE_MUST_BE_GREATER_OR_EQUAL_TO_ZERO
SQLSTATE:未指派
page_size必須大於或等於 0
基於路徑的 API 無法對表進行有篩選器的訪問 (FILES_API_PATH_BASED_ACCESS_TO_TABLE_WITH_FILTER_NOT_ALLOWED)
SQLSTATE:未指派
<unity_catalog_error_message>
FILES_API_PATH_END_WITH_A_SLASH
SQLSTATE:未指派
結尾為 『/』 字元的路徑代表目錄。 此 API 不支援目錄上的作業。
FILES_API_PATH_IS_A_DIRECTORY
SQLSTATE:未指派
指定的路徑會指向現有的目錄。 此 API 不支援目錄上的作業。
FILES_API_PATH_IS_A_FILE
SQLSTATE:未指派
指定的路徑會指向現有的檔案。 此 API 不支援檔案上的作業。
FILES_API_PATH_IS_NOT_A_VALID_UTF8_ENCODED_URL
SQLSTATE:未指派
指定的路徑不是有效的 UTF-8 編碼 URL
FILES_API_PATH_IS_NOT_ENABLED_FOR_DATAPLANE_PROXY
SQLSTATE:未指派
數據平面 Proxy 未啟用指定的路徑
FILES_API_PATH_MUST_BE_PRESENT
SQLSTATE:未指派
路徑必須存在
FILES_API_PATH_NOT_SUPPORTED
SQLSTATE:未指派
<rejection_message>
FILES_API_PATH_TOO_LONG
SQLSTATE:未指派
提供的檔案路徑太長。
FILES_API_PRECONDITION_FAILED
SQLSTATE:未指派
要求因為前置條件而失敗。
FILES_API_PRESIGNED_URLS_FOR_MODELS_NOT_SUPPORTED
SQLSTATE:未指派
目前不支援模型預先簽署 URL 的檔案 API
FILES_API_R2_CREDENTIALS_DISABLED
SQLSTATE:未指派
目前不支援 R2。
FILES_API_RANGE_NOT_SATISFIABLE
SQLSTATE:未指派
所要求的範圍無法滿足。
FILES_API_RECURSIVE_LIST_IS_NOT_SUPPORTED
SQLSTATE:未指派
不支援以遞歸方式列出檔案。
FILES_API_REQUESTER_NETWORK_ZONE_UNKNOWN
SQLSTATE:未指派
無法推斷要求者網路區域。
FILES_API_REQUEST_GOT_ROUTED_INCORRECTLY
SQLSTATE:未指派
請求被錯誤地路由
FILES_API_REQUEST_MUST_INCLUDE_ACCOUNT_INFORMATION
SQLSTATE:未指派
要求必須包含帳戶資訊
FILES_API_REQUEST_MUST_INCLUDE_RECIPIENT_INFORMATION
SQLSTATE:未指派
要求必須包含收件者資訊。
FILES_API_REQUEST_MUST_INCLUDE_USER_INFORMATION
SQLSTATE:未指派
要求必須包含用戶資訊
FILES_API_REQUEST_MUST_INCLUDE_WORKSPACE_INFORMATION
SQLSTATE:未指派
要求必須包含工作區資訊
FILES_API_RESOURCE_IS_READONLY
SQLSTATE:未指派
資源是唯讀的。
FILES_API_RESOURCE_NOT_FOUND
SQLSTATE:未指派
<unity_catalog_error_message>
FILES_API_SCHEMA_NOT_FOUND
SQLSTATE:未指派
<unity_catalog_error_message>
FILES_API_SECURE_URL_CANT_BE_ACCESSED
SQLSTATE:未指派
無法存取 URL。
FILES_API_SIGNATURE_VERIFICATION_FAILED
SQLSTATE:未指派
簽章驗證失敗。
FILES_API_STORAGE_ACCESS_CONTEXT_INVALID
SQLSTATE:未指派
記憶體存取內容無效。
FILES_API_STORAGE_CONTEXT_IS_NOT_SET
SQLSTATE:未指派
無法存取此工作區的記憶體組態。
FILES_API_STORAGE_CREDENTIAL_NOT_FOUND
SQLSTATE:未指派
<unity_catalog_error_message>
FILES_API_TABLE_TYPE_NOT_SUPPORTED
SQLSTATE:未指派
對於檔案 API 不支援 <table_type>
FILES_API_UC_AUTHENTICATION_FAILURE
SQLSTATE:未指派
<unity_catalog_error_message>
FILES_API_UC_IAM_ROLE_NON_SELF_ASSUMING
SQLSTATE:未指派
<unity_catalog_error_message>
FILES_API_UC_MODEL_INVALID_STATE
SQLSTATE:未指派
<unity_catalog_error_message>
FILES_API_UC_PERMISSION_DENIED
SQLSTATE:未指派
<unity_catalog_error_message>
FILES_API_UC_RESOURCE_EXHAUSTED
SQLSTATE:未指派
<message>
FILES_API_UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH
SQLSTATE:未指派
<unity_catalog_error_message>
FILES_API_UC_VOLUME_NAME_CHANGED
SQLSTATE:未指派
<unity_catalog_error_message>
FILES_API 無法續訂 Azure 托管身分識別
SQLSTATE:未指派
無法更新 Azure 受控識別。
FILES_API_UNEXPECTED_ERROR_WHILE_PARSING_URI
SQLSTATE:未指派
剖析 URI 時發生非預期的錯誤
FILES_API_UNEXPECTED_QUERY_PARAMETERS
SQLSTATE:未指派
非預期的查詢參數: <unexpected_query_parameters>
FILES_API_UNKNOWN_METHOD
SQLSTATE:未指派
未知的方法 <method>
FILES_API_UNKNOWN_SERVER_ERROR
SQLSTATE:未指派
未知的伺服器錯誤。
FILES_API_UNKNOWN_URL_HOST
SQLSTATE:未指派
URL 主機未知。
FILES_API_UNSUPPORTED_AUTHENTICATION_METHOD
SQLSTATE:未指派
該請求的驗證未正確完成。
FILES_API_UNSUPPORTED_HTTP_METHOD
SQLSTATE:未指派
不支援 HTTPMethod。
FILES_API_UNSUPPORTED_PARAMETERS_COMBINATION
SQLSTATE:未指派
不支持參數的組合。
FILES_API_UNSUPPORTED_PATH
SQLSTATE:未指派
檔案 API 不支援提供的路徑。 請確定提供的路徑不包含 '../' 或 './' 的出現序列。 請確定提供的路徑未使用多個連續斜線(例如,'///')。
FILES_API_UPLOAD_PART_URLS_COUNT_MUST_BE_GREATER_THAN_ZERO
SQLSTATE:未指派
輸入參數 『count』 必須大於 0。
FILES_API_URL_GENERATION_DISABLED
SQLSTATE:未指派
未啟用預先簽署的 URL 產生功能針對 <cloud>。
FILES_API_VOLUME_TYPE_NOT_SUPPORTED
SQLSTATE:未指派
不支援 <volume_type>的檔案 API。
FILES_API_WORKSPACE_IS_CANCELED
SQLSTATE:未指派
工作區已被取消。
FILES_API_WORKSPACE_IS_NOT_FOUND
SQLSTATE:未指派
無法存取此工作區的記憶體組態。
Lakeflow Spark 宣告式管線
屬性基礎存取控制政策不支援
在管道內定義的數據表無法支援 ABAC 原則。
移除政策或聯絡 Databricks 技術支援。
驅動程式異常終止
驅動程式在叢集 <clusterId> 上因 <terminationCause>異常終止。 請查看驅動程式日誌以了解更多詳細資訊。
ACTIVE_UPDATE_EXISTS_FOR_LINKED_PIPELINE
已存在作用中的更新『<updateId>』,相關聯的管線『<linkedPipelineId>』。
ACTIVE_UPDATE_EXISTS_FOR_PIPELINE
已經有一個運行中更新「<updateId>」存在於管線「<pipelineId>」。
ALTER_NOT_ALLOWED_FOR_PIPELINE_TABLE
ALTER 不被允許在由...管理的數據表上
如需詳細資訊,請參閱 ALTER_NOT_ALLOWED_FOR_PIPELINE_TABLE
ALTER_SCHEDULE_SCHEDULE_DOES_NOT_EXIST
在沒有現有的排程或觸發程式的情況下,無法在數據表上改變 <type> 。 請先將排程或觸發程式新增至數據表,再嘗試加以改變。
API_QUOTA_EXCEEDED
您已超過資料來源 <sourceName>的 API 配額。
如需詳細資訊,請參閱 API_QUOTA_EXCEEDED
APPLY_CHANGES_ERROR
作業期間 AUTO CDC 發生錯誤。
如需詳細資訊,請參閱 APPLY_CHANGES_ERROR
APPLY_CHANGES_FROM_SNAPSHOT_ERROR
作業期間 AUTO CDC FROM SNAPSHOT 發生錯誤。
如需詳細資訊,請參閱 APPLY_CHANGES_FROM_SNAPSHOT_ERROR
APPLY_CHANGES_FROM_SNAPSHOT_EXPECTATIONS_NOT_SUPPORTED
數據集 <datasetName> 已定義預期,但目前不支援使用 AUTO CDC FROM SNAPSHOT的數據集預期。
拿掉預期以解決此錯誤。 或者,請考慮使用下列結構來結合 AUTO CDC 和 AUTO CDC FROM SNAPSHOT來套用預期:
使用 SCD 類型 1 將快照集的變更套用至中繼數據表,而不需要預期。
使用
spark.readStream.option("readChangeFeed", "true").table從中繼數據表讀取變更。將中繼數據表的變更套用至最終目標數據表時,使用
dlt.apply_changes搭配下列參數,並納入目前使用的dlt.apply_changes_from_snapshot參數:
若要處理變更:
apply_as_deletes = "_change_type == 'delete'"若要移除 CDF 新增的資料列:
except_column_list = ["_change_type", "_commit_version", "_commit_timestamp"]
- 在用於
dlt.apply_changes的最後目標數據表上,包含目前的預期集。
APPLY_CHANGES_PARTIAL_UPDATES_NOT_ENABLED
功能 COLUMNS 至 UPDATE 處於預覽狀態,且未為您的工作區啟用。 請連絡您的 Databricks 代表,以深入瞭解這項功能並存取私人預覽。
應用環境叢集不可用
<pipelineId>的管線計算無法使用。 管道計算可能已停止,或可能仍在啟動中。
請稍後在計算完全可用時再試一次。 如果問題持續發生,請連絡 Databricks 支援。
環境叢集未找到 (APPLY_ENVIRONMENT_CLUSTER_NOT_FOUND)
找不到 <pipelineId> 的管線計算。 此管線計算可能從未啟動或已停止。 請啟動管線
在應用環境之前。
不支援的套用環境
不支援此 ApplyEnvironment 端點。
ARCHITECTURE_MIGRATION_FAILURE
如需詳細資訊,請參閱 ARCHITECTURE_MIGRATION_FAILURE
ARCLIGHT_REQUIRES_SERVERLESS
使用預設記憶體以目錄為目標的管線必須使用無伺服器計算。 如果您沒有無伺服器計算的存取權,請連絡 Databricks 為您的工作區啟用此功能。
自動全刷新已禁用
該表格 <tableName>的自動全刷新功能已關閉。
AUTO_FULL_REFRESH_NOT_ALLOWED(不允許自動完全刷新)
自動全刷新在表格 <tableName> 中失敗,原因是 <reason>。
自動全刷新已被限制
自動全刷新失敗。 表格 <tableName> 在 <timestamp> 時自動完整刷新,距離下一次自動完整刷新的最小間隔是:<minInterval> 分鐘。
AZURE_ACTIVE_DIRECTORY_認證失敗
Azure Active Directory 認證失敗(AADSTS5000224)。
追蹤 ID: <traceId>,相關 ID: <correlationId>。
確認 Azure Active Directory 是否正確設定且可存取。 如果問題持續發生,則請連絡 Microsoft 支援服務。
AZURE_MANAGED_IDENTITY_CREDENTIAL_NOT_FOUND 錯誤:找不到 Azure 的受管理識別驗證。
Azure 管理身份憑證與存取連接器 ID <accessConnectorId> 未在帳戶 <accountId>中找到。
確認憑證是否存在且設定正確。
AZURE_STORAGE_HOSTNAME_RESOLUTION_FAILED
無法解析 Azure 儲存主機名稱: <hostname>。
檢查 DNS 是否正確設定,且儲存帳號能從你的網路存取。
AZURE_STORAGE_REQUEST_NOT_AUTHORIZED
對 Azure 儲存的請求並未獲得網路安全邊界授權。
確認儲存裝置是否正確配置且可存取。
BIGQUERY_資料連接器_來源_目錄_缺失
BigQuery 資料連接器中發生錯誤。
擷取規格中遺漏 「來源目錄」(GCP 項目標識符)。
請在擷取規格中指定來源目錄(專案標識符),以解決此問題。
CANNOT_ADD_COLUMN_TO_INCLUDE_COLUMNS
新的資料欄(
CANNOT_ADD_STORAGE_LOCATION
如果您想要設定儲存位置建立新的管線,則無法將儲存位置新增至具有已定義目錄的現有管線。
現有的目錄: '<catalog>'。
要求的儲存位置: <storageLocation>。
CANNOT_COMPOSE_DECORATOR
SQLSTATE:未指派
@<decoratorName>裝飾器無法與<otherDecorators>搭配使用。
CANNOT_EXCLUDE_NON_EXISTENT_COLUMN
管線定義排除來源 <columnNames> 的資料表 <qualifiedTableName> 中不存在的欄位(<sourceType>)。 請從 [exclude_columns] 欄位中移除這些欄位。
CANNOT_FILTER_OUT_REQUIRED_COLUMN
管線定義中缺少嵌入來源 <columnNames> 的資料表 <qualifiedTableName> 所需的必要欄位 (<sourceType>)。 請將它們新增至include_columns,或從exclude_columns中移除它們。
CANNOT_INCLUDE_NON_EXISTENT_COLUMN
管線定義包含不存在或無法在來源<columnNames>表<qualifiedTableName>中存取的欄位<sourceType>()。 請從 [include_columns] 欄位中移除這些資料行。
CANNOT_INGEST_TABLE_WITHOUT_PRIMARY_KEY
來源中的<qualifiedTableName>數據表<sourceType>沒有主鍵。
如果數據表存在,請在連接器組態中指定主鍵來內嵌數據表。
CANNOT_MODIFY_PIPELINE_OWNER_FOR_UC_PIPELINES
尚不支持變更非UC管線的擁有者。
CANNOT_MODIFY_PIPELINE_OWNER_PERMISSION_DENIED
只有工作區管理員可以變更管線擁有者。
CANNOT_MODIFY_PIPELINE_OWNER_WHEN_MISSING
新的擁有者不存在。
CANNOT_MODIFY_PIPELINE_TYPE
無法更新「pipeline_type」。
目前pipeline_type:<currentPipelineType>。
已更新pipeline_type:<requestedPipelineType>。
CANNOT_MODIFY_STORAGE_LOCATION
無法修改現有管線的儲存位置。
現有的儲存位置: '<existingStorageLocation>'。
要求的儲存位置: <requestedStorageLocation>。
CANNOT_REMOVE_COLUMN_FROM_EXCLUDE_COLUMNS
欄位(<columnNames>)已從資料表 <qualifiedTableName> 的管線定義中的 exclude_columns 欄位中移除。 請完整重新整理數據表,以避免潛在的數據遺失,或將這些數據行新增回exclude_columns。
CANNOT_SET_CATALOG_FOR_HMS_PIPELINE
如果您想要使用 UC 建立新的管線並設定目錄,則無法將目錄新增至具有已定義儲存位置的現有管線。
現有的儲存位置: '<storageLocation>'
要求的目錄: '<catalog>'
CANNOT_SET_LINKED_PIPELINE_ID
管道 ID 相同,設定相連的管道 ID 會導致死結。
CANNOT_SET_SCHEMA_FOR_EXISTING_PIPELINE
在管線 '<pipelineName>' 的設定中指定的「schema」欄位是非法的。 Reason:
如需詳細資訊,請參閱 CANNOT_SET_SCHEMA_FOR_EXISTING_PIPELINE
CANNOT_SET_TOGETHER
SQLSTATE:未指派
<argList> 是互斥的,無法同時設定。
CANNOT_SPECIFY_BOTH_INCLUDE_EXCLUDE_COLUMNS
管道定義會同時指定 <identifier> 的 include_columns 和 exclude_columns。 請移除其中一個。
CANNOT_UPDATE_CLUSTERING_COLUMNS
無法更新資料表 <tableName> 的叢集欄位,因為它使用了分割欄位。 數據表可以使用數據分割數據行或叢集數據行,但不能同時使用兩者。
若要在液體叢集與數據分割之間切換,請觸發此數據表的完整重新整理。
CANNOT_UPDATE_PARTITION_COLUMNS
無法更新串流表的分割欄位 <tableName>。
目前: <existingPartitionColumns>。
要求: <requestedPartitionColumns>
若要套用此分區變更,請對此表和任何其他更新了分區欄位的串流資料表進行完整重新整理。
或者,還原此變更以持續使用現有的分割欄位。
CANNOT_UPDATE_TABLE_SCHEMA
無法合併數據表 <tableName>的目前和新架構。
若要繼續進行此架構變更,您可以觸發此數據表的完整重新整理。
視您的使用案例和架構變更而定,您可能能夠省略架構變更 -- 您可以更新查詢,讓輸出架構與現有的架構相容(例如,藉由明確地將數據行轉換成正確的數據類型)。
CANNOT_WRITE_TO_INACTIVE_COLUMNS
<details>
不過,目的地數據表已經具有具有此名稱的非使用中數據行;數據行處於非使用中狀態,因為它們先前已從源數據表中刪除。
要繼續更新,請在表格上執行 a FULL REFRESH 。
CANNOT_WRITE_TO_INACTIVE_TABLES
目的地中的下表為非使用中,且與目前的源數據表衝突: <tables>。
這些數據表會保持非使用中狀態,因為它們先前已從來源刪除,或未從連接器選取。
要繼續更新,請更改目標資料表名稱,或對這些資料表執行 a 操作 FULL REFRESH ,或在目錄總管中或透過 DROP TABLE 指令將這些非活動資料表從目的地移除,然後重新嘗試更新。
CANNOT_WRITE_TO_TABLES_PENDING_RESET
在先前的完整重新整理中,目的資料庫中的下表未正確重設:<tables>。
請對它們進行完整重新整理來復原。
CATALOG_MAPPING_NOT_AVAILABLE_IN_UC
UC 目錄沒有目錄 '<sourceCatalog>' 的對應。
請檢查目錄是否已在 UC 目錄中註冊。
CATALOG_SCHEMA_MISMATCH_WITH_DESTINATION_PIPELINE
目的地管線ID為『<destPipelineCatalog>』的目錄<destPipelineSchema>和架構<destPipelineId>與資料表<tableName>的目錄和架構不符。 目的地管線應該具有與數據表相同的目錄和架構,或目的地管線必須使用直接發佈模式。
CATALOG_SPEC_UNSUPPORTED
資料庫連接器目前不支援 CatalogSpecs。 請移除目錄中的規格描述。
CDC_APPLIER_AUTO_FULL_REFRESH_POLICY_MUST_BE_SAME_FOR_ALL_DESTINATION_TABLES
所有連接到同一來源資料表的目的資料表的自動全更新政策必須相同。
更改對連接至來源 <sourceTable> 的後續目的資料表 <destinationTables> 的政策。
CDC_APPLIER_COLUMN_UOID_NOT_SUPPORTED
CDC 受控擷取管線不支援資料表 <columnNames> 中具有 UOID <tableName> 的欄位。
請檢查資料引入管線是否支援 UOID 欄位,或請求表格全面刷新。
CDC_APPLIER_FATAL_FAILURE_FROM_GATEWAY
閘道管線發生嚴重錯誤:
<errorMessage>
請在這裡查看管線更新失敗:<link>。
CDC_APPLIER_INGESTION_GATEWAY_REMOVED
連接至管理式引入管道的引入閘道管道 <pipelineId> 已被移除。
請移除受管理式擷取流程,並同時建立擷取閘道和管理式擷取流程。
CDC_APPLIER_REPLICATED_TABLE_METADATA_NOT_READY
複製表<tableName>的元數據尚未就緒。
現有的作業要求時間戳是 <existingRequestTs>,但我們預期 <expectedRequestTs> 或更晚。
CDC_APPLIER_REQUIRES_ALL_DESTINATION_TABLES_FULL_REFRESH
不支援同時從相同來源完整刷新一個目的地數據表並正常更新另一個目的地數據表。
請盡可能繼續重新整理這兩個數據表。
完整重新整理資料表: <fullRefreshTables>
來源 <sourceTable>的目的地資料表: <destinationTables>
CDC_APPLIER_SCHEMA_CHANGED_DURING_STREAMING
架構版本 <dataSchemaVersion> 與讀取架構版本 <readSchemaVersion>不同。
Lakeflow Spark 宣言式管道將重新嘗試更新。
CDC_APPLIER_SEQUENCE_BY_COLUMN_NOT_FOUND
在 sequenceBy 中指定的表格<columnName>的欄位<tableName>不存在於<columns>。
CDC_APPLIER_SEQUENCE_BY_INVALID_TYPE
sequenceBy 所指定的資料表 <columnName> 中的欄 <tableName> 的類型 <typeName> 不受支援。
sequenceBy 資料行的支援類型為 <allowedTypes>。
CDC_APPLIER_SEQUENCE_BY_MULTIPLE_COLUMNS_NOT_SUPPORTED
CDC 管理擷取管線中最多只能指定一個欄作為排序依據。
指定的欄: <columns> 資料表 <tableName>。
CDC_INCOMPATIBLE_SCHEMA_CHANGES
我們遇到從架構版本<cause>到<previousSchemaVersion>的不相容的架構變更<currentSchemaVersion>。
因此,我們無法繼續套用對 <tableName> 的變更。 請要求完整重新整理數據表。
先前的架構: <previousSchema>
目前的架構: <currentSchema>
CDC_MULTIPLE_SOURCE_TABLES_MAPPED_TO_SAME_DESTINATION_TABLE
找到多個來源資料表: <source_tables> 對應至相同的目的地資料表 <destination_table>。
請將它們對應至不同的目的地資料表名稱或不同的目的地架構。
CDC_POTENTIAL_DATA_GAPS
下表 [<needFullRefreshTableList>] 已有 <retention> 天沒有成功更新。
請對這些數據表或整個管線進行完整重新整理。
CDC_SAME_TABLE_FROM_MULTIPLE_SOURCES
從多個來源找到相同的數據表名稱 <table> : <sources>。
請將它們分割成不同的管線,以避免衝突。
CDC來源驗證失敗
來源資料庫驗證偵測到<errorCount>個錯誤。 請參閱事件日誌報告以了解詳細結果與修復步驟。
CDC_TABLE_NOT_FOUND_IN_ALL_TABLES
在源資料庫的所有數據表快照集中找不到數據表 <table> 。
表格規格細節資料:
<tableSpec>
CHANGES_HMS_PIPELINE_TO_UC_NOT_ALLOWED
不允許將 HMS 管線變更為 UC 管線。
CHANGES_UC_PIPELINE_TO_HMS_NOT_ALLOWED
不允許將UC管線變更為 HMS 管線。
CHANGING_CATALOG_NOT_ALLOWED
無法修改現有管線的目錄。 現有的目錄: '<existingCatalog>'。 要求的目錄: '<requestedCatalog>'。
CHANGING_TARGET_SCHEMA_NOT_ALLOWED
不允許變更目標架構。 原因: <reason>。
CLUSTER_CREATION_BUDGET_POLICY_LIMIT_EXCEEDED
無法建立叢集,因為管線的預算政策已超過允許的限制。 請使用不同的原則或連絡您的計費管理員。
CLUSTER_CREATION_CLIENT_ERROR
無法建立管線叢集: <errorMessage>
此錯誤可能是因為管線中的設定錯誤。
檢查管線叢集組態和相關聯的叢集原則。
CLUSTER_CREATION_CLUSTER_POLICY_LIMIT_EXCEEDED
無法建立叢集,因為原則 "<clusterPolicy>" 每個使用者執行中的叢集數目已超過 <clusterLimit> 的限制。 請使用不同的政策或聯絡您的管理員。
CLUSTER_CREATION_CREDITS_EXHAUSTED
無法建立叢集,因為您已用盡可用的點數。 請新增付款方式以升級您的帳戶。
CLUSTER_CREATION_RESOURCE_EXHAUSTED
無法建立叢集,因為您已超過資源限制: <errorMessage>
叢集建立機密資訊擷取失敗
無法取得 Spark 配置中提及的秘密。
請確認秘密是否存在,且叢集擁有者是否擁有讀取權限。
CLUSTER_LAUNCH_CLIENT_ERROR
無法啟動管線叢集 <clusterId>: <clusterStateMessage>
此錯誤可能是因為管線中的設定錯誤。
檢查管線叢集組態和相關聯的叢集原則。
CLUSTER_LAUNCH_CLOUD_FAILURE
無法啟動管線叢集 <clusterId>: <clusterStateMessage>
此錯誤可能是暫時性的 - 如果您仍然看到相同的問題,請重新啟動管線並回報。
CLUSTER_LAUNCH_RESOURCE_EXHAUSTED(叢集啟動資源耗盡)
因資源極度有限未能啟動管線叢集 <clusterId> : <clusterStateMessage>。
CLUSTER_LAUNCH_RESOURCE_STOCKOUT
無法啟動管線叢集 <clusterId>: <clusterStateMessage>
雲端提供者無法提供所要求的執行個體類型。
請檢查您的雲端供應商訂閱,或使用不同的執行個體類型重試。
CLUSTER_SETUP_CLIENT_ERROR
無法成功設定叢集 <clusterId> 以執行管線更新。 Reason:
如需詳細資訊,請參閱 CLUSTER_SETUP_CLIENT_ERROR
CLUSTER_UNREACHABLE
與驅動程式的通訊遺失。 叢集 <clusterId> 在 <timeoutSeconds> 秒內無法連線。
COLUMN_MASK_WITH_NO_COLUMN
針對在MV/ST架構中不存在的欄位 '<columnName>' 找到了欄位遮罩。 如果這是因為基表架構的變更,
請卸除套用在 [table_name] [已套用遮罩的數據欄] 上的舊遮罩ALTER TABLEALTER COLUMNDROP MASK; 或還原該數據欄。
COLUMN_TO_UPDATE_NOT_FOUND
在<column> TO COLUMNS 中指定的資料列 UPDATE 在源數據框架中找不到。
CONCURRENT_UPGRADE_FAILED_TO_STOP_PREVIOUS_UPDATE
已啟動升級的更新「<upgradedUpdateId>」,但無法停止先前的更新「<oldUpdateId>」。
此錯誤可能是暫時性的。 管線會自動重試,問題應該自行解決。
如果您仍然看到相同的問題,請將此錯誤回報給 Databricks。
建立附加一次的流程從批次查詢不被允許
無法從批次查詢建立串流數據表附加一次。
這可防止來源的增量擷取,並可能導致系統行為的不正確。
造成錯誤的資料表:『<table>』。
若要修正此問題,請使用 STREAM() 或 readStream 運算符,將來源宣告為串流輸入。
範例: SELECT...FROM STREAM(<source table name>) 或 spark.readStream.table('<source table name>')
DATASET_DECORATOR_APPLIED_TWICE
SQLSTATE:未指派
數據集 <datasetName> 已經存在。 確定查詢函式只被標示為檢視表或數據表一次。
DATASET_NOT_DEFINED
無法讀取資料集 』<datasetName>' 此數據集未定義於管線中。
如果此數據表是由另一個管線所管理,則請勿使用 dlt.read / dlt.readStream 來讀取數據表或以 LIVE 關鍵詞前面加上名稱。
找不到符合預期的數據集(DATASET_NOT_FOUND_FOR_EXPECTATIONS)
試著定義一個不存在的資料集<datasetName>的期望值
資料集未註冊於流程中
試圖為資料集「<datasetName>」註冊流程,但該資料集尚未註冊。
DBFS_NOT_ENABLED
未為此工作區啟用 DBFS;請發佈至 Unity 目錄,或指定管線的不同儲存位置。
DBSQL_INCONSISTENT_SCHEDULE_IN_PIPELINE
管線 <pipelineId> 有多個生產表,並設定不同的排程設定:[<tableScheduleInfo>]。 所有生產表必須有相同的排程。
DBSQL_INVALID_CHANNEL_VALUE(資料庫 SQL 無效通道值)
指定的屬性 pipelines.channel 是無效通道:<channel>。 有效值為: <validChannels>。
DBSQL_INVALID_SCHEDULE_TYPE
以 schedule 屬性指定的無效排程類型: <scheduleValue>。
排程屬性缺失 (DBSQL_MISSING_SCHEDULE_PROPERTY)
表格屬性中缺少必需的排程屬性。
DBSQL_PIPELINE_IS_MISSING
缺少DBSQL管線。 請重新整理具體化檢視或串流資料表,以建立 DBSQL 管線。
DBSQL_PIPELINE_SHOULD_NOT_HAVE_MULTIPLE_TABLES
DBSQL管線必須只有一個具體化檢視或串流數據表,但找到的<tablesSize>數據表:<tables>
刪除管道已停用
目前無法刪除管線。
請連絡 Databricks 支援服務,以取得刪除管線 '<pipelineId>' 的協助。
DESTINATION_PIPELINE_NOT_FOUND
找不到標識碼為 『<pipelineId>' 的目的地管線。 確保您在與管線相同的工作區中、您是該管線的擁有者,並且該管線至少已執行過一次。
DESTINATION_PIPELINE_NOT_IN_DIRECT_PUBLISHING_MODE
標識碼為 『<pipelineId>' 的目的地管線未使用直接發佈模式。
DESTINATION_PIPELINE_PERMISSION_DENIED
您無法執行這項作業,您不是標識符為 『<pipelineId>' 的目的地管線擁有者。 只有擁有者可以更改數據表的工作流。
DESTINATION_PIPELINE_TYPE_NOT_WORKSPACE_PIPELINE_TYPE
標識子為 『<pipelineId>' 的目的地管線不是 ETL 管線。
目錄路徑需要全域路徑模式
路徑 <path> 是一個目錄。 若要包含目錄中的所有檔案,請在管線設定中使用帶有 '**' 後綴 '<path>/**' 的 glob 圖案。
不允許的恢復管線請求
在<request>狀態下,不允許對管道 '<pipelineId>' 發出RESTORING請求。
DO_CREATE_OR_EDIT_INVALID_USER_ACTION
處理 『<action>' 要求時發生錯誤。
DROP_SCHEDULE_SCHEDULE_DOES_NOT_EXIST
無法對沒有現有排程或觸發器的表格進行刪除 SCHEDULE。
DUPLICATED_FROM_JSON_SCHEMA_LOCATION
重複from_json架構位置索引鍵: <schemaLocationKey>。
請在流程中為每個 from_json 查詢挑選唯一的模式位置鍵。
DUPLICATED_INGESTION_CONFIG_TABLE_SPECS
擷取管線組態包含重複的數據表。 請確定每個數據表都是唯一的。
EMPTY_INGESTION_CONFIG_OBJECTS
匯入配置物件是空的。
ENHANCED_AUTOSCALING_REQUIRES_ADVANCED_EDITION
增強型自動縮放「spare_capacity_fraction」設定僅支援於 Lakeflow Spark 宣告式管線進階產品版。
請編輯您的管線設定,將“edition”設為「advanced」,以便使用'spare_capacity_fraction'。
ENVIRONMENT_PIP_INSTALL_ERROR (環境 PIP 安裝錯誤)
無法安裝環境相依性: '<pipDependency>'。 如需詳細資訊,請查看叢集上的驅動程式 stdout 記錄。
EVENT_LOG_PICKER_FEATURE_NOT_SUPPORTED
在舊版發佈模式下不支援將事件日誌發佈到 Unity 目錄。 要啟用此功能,請依照遷移指南 https://docs.databricks.com/aws/en/dlt/migrate-to-dpm中的步驟,將您的管線遷移到預設發佈模式。 如果你偏好繼續使用舊版發佈模式,請從你的管線規範中移除「event_log」設定。
EXPECTATION_VIOLATION
流程「<flowName>」無法符合預期。
有關更多細節,請參閱 EXPECTATION_VIOLATION
EXPLORE_ONLY_CANNOT_BE_SET_WITH_VALIDATE_ONLY
explore_only和validate_only不能同時設定為 true。
EXPLORE_ONLY_IS_NOT_ENABLED
explore_only更新未啟用。 請連絡 Databricks 支持人員。
FAILED_TO_CREATE_EVENT_LOG
無法建立識別碼為 <pipelineId>的管線 (id=<eventLogIdentifier>) 事件記錄檔。 如需詳細資訊,請參閱下面的例外狀況。
FAILED_TO_PUBLISH_VIEW_TO_METASTORE
無法將檢視 <viewName> 發佈至中繼存放區,因為 <reason>。
FAILED_TO_UPDATE_EVENT_LOG
無法將管線 (id=<pipelineId>) 事件記錄識別碼更新為 <newEventLogIdentifier>。 如需詳細資訊,請參閱下面的例外狀況。
FLOW_SCHEMA_CHANGED
Flow <flowName> 因執行時遇到結構變更而終止。
架構變更與現有的目標架構相容,而流程的下一次執行可以繼續使用新的架構。
FOREACH_BATCH_SINK_ONLY_SUPPORTED_IN_PREVIEW_CHANNEL
Lakeflow Spark 宣告式管線 ForeachBatch Sink 目前不支援。
Lakeflow Spark 宣告式管線 ForeachBatch 接收器的私人預覽需要該 PREVIEW 通道。
Lakeflow Spark 宣告性管線接收端: <sinkNames>
GATEWAY_PIPELINE_INIT_SCRIPTS_NOT_ALLOWED
Gateway 管線不允許叢集初始化腳本。 請從 <from>移除它。
GATEWAY_PIPELINE_SPARK_CONF_NOT_ALLOWED
Gateway 管線不允許 Spark 設定 [<configs>]。 請從 <from>中移除它們。
GET_ORG_UPDATE_CAPACITY_LIMIT_EXCEEDED
要求的組織標識碼數目超過允許的上限 <limit>
GOOGLE_ANALYTICS_RAW_DATA_CONNECTOR_SOURCE_CATALOG_MISSING
Google Analytics 原始資料連接器中發生錯誤。
擷取規格中遺漏 「來源目錄」(GCP 項目標識符)。
請在擷取規格中指定來源目錄(專案標識符),以解決此問題。
HMS_NOT_ENABLED
此工作區未啟用 Hive Metastore。請發佈至 Unity Catalog。
ILLEGAL_COLUMN_TO_UPDATE_DATA_TYPE
COLUMNS TO UPDATE 指定的欄位資料類型必須是字串陣列,但找到 <illegalDataType>。
ILLEGAL_ID_PARAM_IN_PIPELINE_SETTINGS
設定不得包含 『<fieldName>』。
ILLEGAL_SCHEMA_FIELD_IN_PIPELINE_SPEC
管線設定中指定的 'schema' 欄位是非法的。 原因: <reason>。
INCORRECT_ROOT_PATH_TYPE
根路徑 '<rootPath>' 必須是目錄,但找到 <objectType>。
無法使用增量刷新與嚴格刷新策略 - INCREMENTAL_REFRESH_UNAVAILABLE_WITH_STRICT_REFRESH_POLICY
具體化檢視的刷新政策是INCREMENTAL_STRICT,但無法增量更新。
基礎設施維護
叢集 <clusterId> 上的驅動程式因基礎結構維護而終止。
INGESTION_CONFIG_DUPLICATED_SCHEMA
資料輸入管線的配置包含重複的結構。 請確定每個架構都是唯一的。
INGESTION_GATEWAY_AUTHENTICATION_FAILURE
驗證失敗
如需詳細資訊,請參閱 INGESTION_GATEWAY_AUTHENTICATION_FAILURE
INGESTION_GATEWAY_BREAKING_SCHEMA_CHANGE_FAILURE
來源和目標數據表之間偵測到架構不符。 若要解決此問題,需要在擷取管線上對資料表 '<entityName>' 進行完整重新整理。
資料攝取閘道捕捉實例不可用 (INGESTION_GATEWAY_CAPTURE_INSTANCE_UNAVAILABLE)
擷取實例 <entityName> 在來源中已不再可用。
請在啟用 CDC 或 CT 後觸發完整刷新。
INGESTION_GATEWAY_CDC_LOG_TRUNCATED
CDC 日誌因表格「」而被截斷<entityName>,原因為: <errorMessage>。
這可能是因為 CDC 的日誌保留策略在變更追蹤日誌尚未被處理前就截斷了變更追蹤日誌。
表格將被跳過,不會進行處理。 若要重新啟用處理,請完全重新整理表格。
INGESTION_GATEWAY_CDC_NOT_ENABLED
'' 上<entityType><entityName>未啟用 CDC。 啟用 CDC,並在 Ingestion Pipeline 上對表格進行完全刷新。 錯誤訊息:『<errorMessage>。
資料匯入閘道資料庫版本不支援
不支援資料庫版本。
如需詳細資訊,請參閱 INGESTION_GATEWAY_DB_VERSION_NOT_SUPPORTED
INGESTION_GATEWAY_DDL_OBJECTS_MISSING
<entityType> 的 DDL 物件遺漏於 '<entityName>'。 執行 DDL 物件腳本,並在引入管線上對數據表進行完整刷新。 錯誤訊息:『<errorMessage>。
INGESTION_GATEWAY_HEALTH_CHECKER_VALIDATION_CYCLE_FAILED (資料閘道健康檢查器驗證週期失敗)
內部健康檢查器驗證週期失敗。 下次會再嘗試一次,如果問題持續,請提交工單。
錯誤訊息:<errorMessage>
INGESTION_GATEWAY_MISSING_CONNECTION_REFERENCE
入口閘道配置缺少連接。
請新增包含您憑證的 Unity 目錄連線參考。
匯入閘道流程定義詳細資料:
<definition>
INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_CATALOG
資料流入閘道組態缺少內部儲存位置目錄。
請新增內部記憶體位置目錄。
匯入閘道流程定義詳細資料:
<definition>
INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_NAME
擷取閘道組態缺少內部記憶體位置名稱。
請新增內部儲存位置名稱。
匯入閘道流程定義詳細資料:
<definition>
INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_SCHEMA
擷取閘道組態缺少內部記憶體位置架構。
請新增內部記憶體位置架構。
匯入閘道流程定義詳細資料:
<definition>
INGESTION_GATEWAY_MISSING_TABLE_IN_SOURCE
數據表 『<entityName>不存在於源資料庫中,或已卸除。 解決此問題,並在管理擷取管線上完整重新整理資料表。 錯誤訊息:『<errorMessage>。
INGESTION_GATEWAY_MYSQL_BINLOG_FILE_DELETED (資料匯入閘道 MySQL Binlog 檔案已刪除)
來源資料庫中所需的 MySQL binlog 檔案已被刪除。 這通常發生在 binlog 保留期過短,或在保留窗口時間已過後重新啟動時。 為了緩解,可以對所有資料表進行全面刷新,並延長來源的 binlog 保留時間。
錯誤訊息:<errorMessage>
INGESTION_GATEWAY_MYSQL_偵測到遺漏的BINLOG文件
沒偵測到 MySQL 的 Binlog 檔案。 請對 <entityName> 執行完整刷新。
錯誤訊息:<errorMessage>
INGESTION_GATEWAY_ORACLE_ARCHIVE_LOG_FILES_UNAVAILABLE (檔案不可用)
CDC 複寫所需的 Oracle 歸檔日誌檔案已無法在來源資料庫中取得。 當存檔日誌超過保留期限或被手動刪除時,可能會發生這種情況。 請對所有映射到目錄<catalogName>的目標資料表進行完整刷新。 若此問題持續,建議延長原始資料庫的歸檔日誌保留期限,以確保日誌在處理過程中仍可保存。
錯誤訊息:<errorMessage>
INGESTION_GATEWAY_ORACLE_MISSING_CONFIGURATION(資料匯入閘道的 Oracle 配置缺失)
Oracle 連線設定不完整。
更多詳情請參見 INGESTION_GATEWAY_ORACLE_MISSING_CONFIGURATION
INGESTION_GATEWAY_PG_PUBLICATION_ALTER_FAILED
無法變更 <entityType> 的「<entityName>」的復寫發行集
錯誤訊息:<errorMessage>
如需詳細資訊,請參閱 INGESTION_GATEWAY_PG_PUBLICATION_ALTER_FAILED
INGESTION_GATEWAY_PG_PUBLICATION_CREATION_FAILED
無法建立 <entityType> 的「<entityName>」複製發布項目
錯誤訊息:<errorMessage>
如需詳細資訊,請參考 INGESTION_GATEWAY_PG_PUBLICATION_CREATION_FAILED
INGESTION_GATEWAY_PG_PUBLICATION_DROP_FAILED
無法刪除復寫發行集 '<entityType>' 的<entityName>
錯誤訊息:<errorMessage>
如需詳細資訊,請參閱 INGESTION_GATEWAY_PG_PUBLICATION_DROP_FAILED
資料接收閘道 PG 插槽配置無效
複寫槽配置 <entityType> <entityName> 狀態不佳。 為了解決這個問題,請對所有映射到目錄 <catalogName>的目的資料表進行完整刷新。
錯誤訊息:<errorMessage>
INGESTION_GATEWAY_PG_SLOT_CONSUMED_BY_OTHER_PROCESS
因為另一個 PID 正在使用複製槽,所以無法為 <entityType> 『<entityName>』 建立複製槽。
錯誤訊息:<errorMessage>
INGESTION_GATEWAY_PG_SLOT_CREATION_FAILED
無法為「<entityType>」 '<entityName>' 建立複寫槽
錯誤訊息:<errorMessage>
如需詳細資訊,請參閱 INGESTION_GATEWAY_PG_SLOT_CREATION_FAILED
INGESTION_GATEWAY_PG_SLOT_DROP_FAILED
無法刪除<entityType>'<entityName>'的複製插槽。
錯誤訊息:<errorMessage>
更多詳情請參見 INGESTION_GATEWAY_PG_SLOT_DROP_FAILED
INGESTION_GATEWAY_PG_SLOT_HAS_BEEN_DELETED
<entityType>
<entityName> 的複製槽已被刪除。 請對所有映射到目錄「<catalogName>」的目標資料表觸發完整刷新。
錯誤訊息:<errorMessage>
INGESTION_GATEWAY_PG_SLOT_IS_INVALIDATED
<entityType> 的複製槽 '<entityName>' 狀態不佳。 請卸下插槽,並對所有映射到目錄<catalogName>的目的資料表進行完全重整。
錯誤訊息:<errorMessage>
INGESTION_GATEWAY_SOURCE_INSUFFICIENT_PERMISSION_FAILURE
用戶沒有存取此物件或執行預存程式的必要許可權。 請確定已授與所有必要的許可權。 請參閱下列檔: https://docs.databricks.com/aws/en/ingestion/lakeflow-connect/sql-server/database-user-requirements。
資料匯入閘道來源架構缺少實體
沒有數據表可從來源進行複寫。
確認已正確選取數據表並在資料提取管線中定義
使用者擁有必要的目錄和架構存取權。
INGESTION_GATEWAY_SQL_SERVER_CT_DISABLED
來源表格的變更追蹤 <entityName> 功能已被停用。
請在啟用 CDC 或 CT 後觸發完整刷新。
資料匯入閘道表格已刪除
源表 '<entityName>' 已刪除在源代碼上。 錯誤訊息:<errorMessage>
保留原英文字串以確保技術名詞的一致性,如果需要,可以另外提供其中文描述以便理解。
源表 '<entityName>' 已在源上重命名。 錯誤訊息:<errorMessage>
資料匯入閘道跳過該表,因不支援的列資料類型
由於不支援的資料類型資料行,已略過資料表 '<entityName>'。 解決此問題,並在管理擷取管線上完整重新整理資料表。 錯誤訊息:『<errorMessage>。
INGESTION_GATEWAY_UNEXPECTED_COLUMN_UOID
已略過資料表 '<entityName>',因為指派給資料行的 UOID 為非預期值。 請對桌面進行全面刷新以解決此問題。 錯誤: <errorMessage>。
INGESTION_GATEWAY_UNEXPECTED_TABLE_UOID
由於資料表被指派了非預期的 UOID,資料表 '<entityName>' 已被略過。 請對桌面進行全面刷新以解決此問題。 錯誤: <errorMessage>。
INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE
線上失敗,因為源資料庫的主機名 <host> 和/或埠 <port> 不正確。
如需詳細資訊,請參閱 INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE
INGESTION_GATEWAY_UNSUPPORTED_CHARS_IN_OBJECT_NAME
在資料表 <entityName>、 的物件中發現的無支援字元 ,理由: <errorMessage>。 該表將被略過。 請聯絡技術支援以啟用特殊字元的擷取。
INGESTION_GATEWAY_UNSUPPORTED_OBJECT_TYPE
物件「<entityName>''無支撐且已被跳過。 為了解決問題,請將此物件從擷取管線中移除。 錯誤訊息:『<errorMessage>。
No improvements are required if this identifier does not need to be translated due to its nature as a code string or identifier in this specific technical context.
偵測到表格 <entityName>中無法追蹤的表格修改,原因: <errorMessage>。
這可能是由資料表截斷、cdc 日誌輪替或其他無法追蹤的操作所造成。
表格將被跳過,不會進行處理。 若要重新啟用處理,請完全重新整理表格。
INGESTION_GATEWAY_XA_TRANSACTION_NOT_SUPPORTED
無法複製 <entityType>「<entityName>」,因為它是 XA 交易的一部分。
錯誤訊息:<errorMessage>
INVALID_APPLY_CHANGES_COMMAND
AUTO CDC 命令無效。
<reason>。
INVALID_ARGUMENT_TYPE
SQLSTATE:未指派
傳遞無效型別值至參數『<paramName>』。 預期是 <expectedType>。
<additionalMsg>。
INVALID_COMPATIBILITY_OPTIONS
針對 <table> 表格指定的選項無效,因為
如需詳細資訊,請參閱 INVALID_COMPATIBILITY_OPTIONS
INVALID_CONFIG_FOR_UC_PIPELINE
UC 管線不支援將 '<configKey>'' 設定為 '<configValue>'。 請從您的管線設定中移除此設定。
INVALID_DECORATOR_USAGE
SQLSTATE:未指派
傳遞至 @<decoratorName> 的第一個位置自變數必須是可呼叫的。 將 @<decoratorName> 新增至函數中且不帶參數,或者使用關鍵字引數向 @<decoratorName> 傳遞選項(例如 <exampleUsage>)。
INVALID_DESTINATION_PIPELINE_ID (無效的目標管道識別碼)
無效的目的地管線標識碼: '<pipelineId>'。 管線標識碼必須是有效的 UUID。
確認您使用的是正確的管線標識碼,而不是管線名稱。
INVALID_EVENT_LOG_CONFIGURATION
在管線規格中找到無效的事件記錄組態: <message>
INVALID_NAME_IN_USE_COMMAND
名稱『<name>』不合法,在<command>命令中。 原因:<reason>
INVALID_PARAM_FOR_DBSQL_PIPELINE
您只能在呼叫 DBSQL 管線的 『dry_run』 時指定 『pipeline_id』 和 『pipeline_type』。
INVALID_REFRESH_SELECTION
如需詳細資訊,請參閱 INVALID_REFRESH_SELECTION
INVALID_REFRESH_SELECTION_REQUEST_FOR_CONTINUOUS_PIPELINE
連續模式不支援更新選擇。
INVALID_REFRESH_SELECTION_REQUEST_WITH_FULL_REFRESH
對於重新整理選取要求,full_refresh不應設定為 true。
INVALID_REWIND_SPECIFICATION
倒帶規範無效
更多詳情請參見 INVALID_REWIND_SPECIFICATION
INVALID_ROOT_PATH
無效的 root_path '<rootPath>':目前僅支援絕對目錄路徑。 目錄路徑的開頭必須是 『/』,而不是以 『/』 結尾。
INVALID_SCHEMA_NAME
管線設定中指定的架構 『<schemaName>不合法。 原因: <reason>。
INVALID_SNAPSHOT_AND_VERSION_TYPE
SQLSTATE:未指派
snapshot_and_version 針對目標 '<target>' 的流程傳回不支援的類型。
<additionalMsg>。
INVALID_TRIGGER_INTERVAL_FORMAT
中指定的 <configurationType> 觸發程式間隔組態無效
JIRA_ACCESS_FORBIDDEN
連線使用者沒有存取權。 請重新檢查用戶的權限,然後重試。
JIRA 管理員權限缺失
呼叫 Jira API 時發生錯誤。 請務必捐款
連接使用者至您的 Jira 實例所需的 Jira 管理員許可權。
JIRA_AUTHORIZATION_FAILED
呼叫 Jira API 時授權失敗。 請重新認證
UC 連線已建立,請再試一次。
JIRA_CONNECTOR_ENTITY_MAPPING_PARSING_FAILED
Jira 連接器中發生錯誤。
嘗試剖析實體類型的實體對應時發生問題: <entityType>。 檢查您的實體是否屬於支援的型別。
如果錯誤持續發生,請提出票證。
JIRA_缺少必要欄位
Jira API 回應中缺少必填欄位 '<fieldName>'。
JSON 節點: <jsonNode>
JIRA_SITE_MISSING
無法找到對應於所提供 Jira 網域 <domain> 的 cloudId。
請確定連線的使用者可以存取此網站。
JOB_DETAILS_DO_NOT_MATCH
如果同時提供 『update_cause_details.job_details』 和 『job_task』,則它們必須相符,但它們是 <details> 和 <jobTask>
JOB_TASK_DETAILS_MISSING
如果 'cause' 為 JOB_TASK ,則必須提供 'job_task' 或 'update_cause_details.job_details'。
舊版管線創建已禁用
預設會在工作區中將建立舊版發佈模式中的管道功能停用。 如果需要例外狀況,請連絡 Databricks 支援服務。
圖書館文件獲取權限被拒絕
無法存取位於「<path>''的資料庫檔案。 確保使用者擁有讀取此檔案所需的權限。
原因:<reason>
找不到庫檔案
找不到檔案 '<path>',或是run_as使用者沒有權限存取。
LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_CLASSIC
不支援在數據集查詢定義外部使用 LIVE 虛擬架構參考數據集(亦即 @dlt.table 註釋)。
LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_DPM
不支援在數據集查詢定義之外使用 LIVE 虛擬架構 <identifier> 來參照數據集(即 @dlt.table 註釋)。
LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_SPARK_SQL
在使用 LIVE 虛擬架構時,透過 spark.sql(...) API 參考的資料集不得在數據集查詢定義(亦即 @dlt.table 註釋)外部呼叫。 它只能在數據集查詢定義內呼叫。
MANAGED_INGESTION_PIPELINE_SPEC_VALIDATION_ERROR(管理的資料匯入流程規格驗證錯誤)
更多詳情請參見 MANAGED_INGESTION_PIPELINE_SPEC_VALIDATION_ERROR
MATERIALIZED_VIEW_RETURNED_STREAMING_DATAFRAME
SQLSTATE:未指派
具象化視圖 '<datasetName>' 的查詢功能傳回串流資料框。
它必須傳回非串流數據框架。
MAX_RETRY_REACHED_BEFORE_ENZYME_RECOMPUTE
已達到重試次數的上限。 重試計數:<flowRetryCount>。 maxFlowFailureRetryCountThreshold:<maxFlowRetryAttempts>。 <message>
MESA_PIPELINE_INVALID_DEFINITION_TYPE
<definitionType>不允許從 UC 定義啟動管線。
MESA_PIPELINE_MISMATCH_PIPELINE_TYPES
已儲存和更新的定義必須是相同的管線類型,但結果卻是 <stored> 和 <updated>。
MESA_PIPELINE_MISSING_DEFINITION
管線在 UC 中沒有有效的定義,但會要求重新整理。
MESA_PIPELINE_MISSING_DEFINITION_UNEXPECTED
意外遺漏來自UC的管線定義。
METASTORE_OPERATION_TIMED_OUT
更新 <tableName> 的中繼存放區資訊所需的作業花費的時間超過 <timeout>。
此問題可能是暫時性的,或可能表示已設定中繼存放區用戶端中的 Bug。 請嘗試重新啟動您的管線,如果問題仍然存在,請回報此問題。
元件_廣告_參數已變更
Meta 行銷連接器發生錯誤。 ad_insights表的輸入參數已修改。
請對受影響的數據表執行完整重新整理。
META_ADS_SOURCE_API_ERROR
Meta 行銷 API 呼叫發生錯誤。 使用 Facebook 追蹤 ID 與 Meta 支援進行追蹤:<trace_id>。
如果錯誤持續發生,請提出票證。
META_MARKETING_INSIGHTS_LEVEL_INVALID
Meta 行銷連接器在嘗試取得 ad_insights 表格的洞察時發生錯誤。
所提供的電平參數 <level> 無效。 請通過其中一項(廣告、廣告集、活動、帳號)。
META_MARKETING_INSIGHTS_PARAM_BREAKDOWNS_INVALID (行銷洞察參數分解無效)
Meta 行銷連接器在嘗試取得 ad_insights 表格的洞察時發生錯誤。
所提供的分解參數 <breakdowns> 無效。 請查閱 meta API 文件以獲取有效的分解清單。
如果錯誤持續發生,請提出票證。
META_MARKETING_INSIGHTS_PARAM_TIME_INCREMENT_INVALID
Meta 行銷連接器在嘗試取得 ad_insights 表格的洞察時發生錯誤。
所提供的時間增量參數 <timeInc> 無法解析。 請輸入有效的整數。
META_MARKETING_INSIGHTS_開始日期無效
Meta 行銷連接器在嘗試取得 ad_insights 表格的洞察時發生錯誤。
所提供的開始日期參數 <startDate> 無法解析。 請檢查並修改為正確的 YYYY-MM-DD 格式。
META_行銷分析_開始日期_太舊
Meta 行銷連接器在嘗試取得 ad_insights 表格的洞察時發生錯誤。
所提供的起始日期不得超過目前同步日期的37個月。請檢查並修改所提供的參數。
如果錯誤持續發生,請提出票證。
META_MARKETING_RATE_LIMIT_EXCEEDED
該廣告帳號的 Meta API 速率限制已被用盡。 請過一段時間後重新嘗試流程更新。 建議減少同時匯入的資料表數量,以避免再次達到限制。
如果你經常遇到速率限制錯誤,建議考慮升級到進階存取權限(如Meta文件所示): https://developers.facebook.com/docs/marketing-api/get-started/authorization
[META] [行銷] [要求資料的限制已超過]
Meta API 失敗了,因為請求的資料量超過了 Meta 伺服器能處理的限制。
試著用欄位選擇邏輯減少這個表格中要被攝取的欄位數量。 如果錯誤持續發生,請提出票證。
MIGRATION_TO_UNITY_CATALOG
更多詳細資訊請參見 MIGRATION_TO_UNITY_CATALOG
缺少目錄或模式許可權
使用者 '<userName>' 沒有 '<schemaName>' 的權限。 詳: <reason>
MISSING_CREATE_SCHEMA_PRIVILEGE
使用者 '<userName>' 沒有在目錄 <catalogName> 中建立架構的許可權
MISSING_CREATE_TABLE_PRIVILEGE
使用者『<userName>』沒有在架構 <schemaName> 中建立資料表的許可權
MISSING_RUN_AS_USER
更新未指定要以用戶身份執行。
MULTI_QUERY_SNAPSHOT_TARGET_NOT_SUPPORTED
'<tableName>' 已經包含 AUTO CDC FROM SNAPSHOT 查詢 '<flowName>'。 目前,此 API 僅支援每個目的地一個流程。
MUTUALLY_EXCLUSIVE_OPTIONS
互斥選項 <options>。 請移除其中一個選項。
NEGATIVE_VALUE
SQLSTATE:未指派
<arg_name>的值必須大於或等於0,取得'<arg_value>。
NON_UC_TABLE_ALREADY_MANAGED_BY_OTHER_PIPELINE
表格「<tableName>」已經由管線 <otherPipelineId> 管理。
如果您希望資料表 '<tableName>' 由這個管線管理,
從管線 「
<otherPipelineId>」 移除資料表。啟動此管線的完整重新整理更新。
如果您想要繼續從多個管線管理數據表,請在管線設定中將組態設定 pipelines.tableManagedByMultiplePipelinesCheck.enabled 為 false ,以停用此檢查。
不建議這樣做,因為數據表上的並行作業可能會彼此衝突,並導致非預期的結果。
NOTEBOOK_NAME_LIMIT_REACHED
無效的筆記本路徑:『<nameStart>...<nameEnd>』。 長度超過 <maxNotebookPathLength> 字元。
NOTEBOOK_NOT_FOUND
無法存取筆記本 』<notebookPath>。 它不存在,或用來執行此管線 <identity>的身分識別缺少必要的許可權。
NOTEBOOK_PIP_INSTALL_ERROR
無法從筆記本執行 『<pipInstallCommand>』: <notebookPath>。 如需詳細資訊,請查看叢集上的驅動程式 stdout 記錄。
記事本過大
已解決的筆記本內容在「<notebookPath>''處太大,請縮小筆記本大小。
NOTIFICATIONS_DUPLICATE_ALERTS
[<alertsDuplicates>] 中指定的重複警示 '<alerts>'
NOTIFICATIONS_DUPLICATE_EMAIL_ADDRESSES
[<emailRecipientsDuplicates>] 中指定的重複電子郵件位址 '<emailRecipients>'
NOTIFICATIONS_INVALID_ALERTS
指定的警示無效,因此無法接收通知:<invalidAlerts>
NOTIFICATIONS_INVALID_EMAIL_ADDRESS
指定接收通知的電子郵件地址不合法: <invalidEmailAddresses>
NOTIFICATIONS_MISSING_PARAMS
請在<setting>中指定至少一個收件者及一個警示信息。
NO_SOURCE_OR_SNAPSHOT_AND_VERSION_ARGUMENT_PROVIDED
SQLSTATE:未指派
source 或 <target> 必須設定為目標 'snapshot_version' 的 apply_changes_from_snapshot。
NO_TABLES_IN_PIPELINE
管線預期應至少定義一個資料表,但在您的管線中找不到任何資料表。
請確認您已包含原始檔案並且已分享這些檔案(若已設定為以 Run As 模式運行),以及您的原始碼中是否包含表格定義(例如 SQL 程式碼中的 CREATE MATERIALIZED VIEW,Python 程式碼中的 @dlt.table)。
請注意,只有數據表會計入此檢查。 如果您只在您的管線中加入視圖或流程,您也可能會遇到此錯誤。
表格流不支援輸出模式
輸出模式「<outputMode>」不支援針對表格流「<flowName>」的表格「<target>」。 僅支援「附加」模式用於資料表流。
OWNER_IS_MISSING
擁有者不存在。
PAGINATION_REQUEST_HAS_NAME_AND_PAGINATION
您可以提供<name>或分頁,但不能同時提供兩者。
PATCH_PIPELINE_DEFINITION_UNSUPPORTED_FIELD
PatchPipelineDefinition 僅支援 schedule 欄位,但所提供的定義有其他填入的欄位:『<updatedDefinition>。
PERSISTED_VIEW_READS_FROM_STREAMING_SOURCE
持久化的檢視不支援從串流來源讀取。
PERSISTED_VIEW_READS_FROM_TEMPORARY_VIEW
永久檢視 <persistedViewName> 無法引用在管線範圍外不可使用的暫時檢視 <temporaryViewName> 。 讓保存檢視暫時或保存暫存檢視。
PIPELINE_CLONING_ALREADY_IN_PROGRESS
管線已經被複製到 ID 為「<pipelineId>」的管線。
管道複製_已指定目標和結構
在複製管線時,無法同時指定「目標」和「結構」。 請只指定一個。
No changes required as it is a technical identifier.
無法將帶有「schema」的管線複製到帶有「target」的管線。 複製的管線也必須使用「schema」或兩者都省略,才能繼承原始值。
PIPELINE_CLONING_INVALID_DURING_ACTIVE_UPDATE
在正在進行的更新期間,無法複製識別碼為 '<pipelineId>' 的管線。
PIPELINE_CLONING_INVALID_FIELDS
要求包含的管線規格,具有無效的複製欄位。 允許的欄位包括:名稱、目錄、目標、組態。
PIPELINE_CLONING_INVALID_FOR_MISSING_TARGET
ID 為『<pipelineId>』的管線不會將資料發佈到目標架構。 來源管線必須發佈至要複製的目標架構。 請在管線規格中指定 [目標] 字段,然後執行新的更新以發佈至目標架構之後重試。
PIPELINE_CLONING_INVALID_FOR_UC_PIPELINE
ID 為 '<pipelineId>' 的管線已經是 UC 管線。 UC 管線無法被複製。
管線複製時未指定目錄
沒有明確指定用於複製的目錄。
PIPELINE_CLONING_NO_MODE_SPECIFIED
沒有指定的複製模式。
PIPELINE_CLONING_NO_TARGET_SPECIFIED
未指定複製的目標目錄。
PIPELINE_CREATION_NOT_ENABLED_FOR_WORKSPACE
此工作區未啟用建立管線。
PIPELINE_DOES_NOT_EXIST
標識碼為 『<pipelineId>' 的管線不存在。
如需詳細資訊,請參閱 PIPELINE_DOES_NOT_EXIST
PIPELINE_ENVIRONMENT_NOT_ENABLED
在 Lakeflow Spark 宣告式管線中使用環境並未啟用。
PIPELINE_ENVIRONMENT_VERSION_NOT_ALLOWED
管線的環境目前不支援環境版本。
PIPELINE_FAILED_TO_UPDATE_UC_TABLE_DUE_TO_CONCURRENT_UPDATE
管線在進行了<tableName>次嘗試後,因並行變更而未能更新 UC 數據表(<attempts>)。
請確認沒有外部進程修改數據表、重試更新,如果此問題持續發生,請連絡 Databricks 支援。
PIPELINE_FAILED_TO_UPDATE_UC_TABLE_DUE_TO_EXTERNAL_DELETE(因外部刪除而導致無法更新 UC 表的程序)
該資料表 <tableName> 在管線更新時被外部操作刪除。
確認沒有外部程序修改資料表,然後再嘗試更新。
如果問題持續,請聯絡 Databricks 客服。
PIPELINE_FOR_TABLE_NEEDS_REFRESH
數據表 <tableName> 不是必要狀態,數據表最近尚未更新。 標識元為 『<pipelineId>' 的管線必須再次執行,然後重試作業。
PIPELINE_FOR_TABLE_NOT_FOUND
找不到標識碼為 『<pipelineId>』、管理數據表 <tableName>的管線。 確保您在與管線相同的工作區中、您是該管線的擁有者,並且該管線至少已執行過一次。
PIPELINE_GLOB_INCLUDES_CONFLICTS
應在管線設定中的連結庫底下設定 glob 或 Notebook/file 字段。 請變更管線設定。
PIPELINE_GLOB_INCLUDES_NOT_SUPPORTED
使用 glob 欄位來包含來源檔案是預覽功能,且已停用。
重新選取要包含的每個來源檔案,讓管線修正此錯誤。
請連絡 Databricks 支援以深入瞭解這項功能,並在預覽版中註冊。
PIPELINE_GLOB_UNSUPPORTED_SPECIAL_CHARACTER
特殊字元 <specialChar> 是保留的,不應在管線設定中包含路徑 『<path>' 中使用。 拿掉這些字元以修正錯誤
PIPELINE_NAME_LIMIT_REACHED
名稱不能超過 <maxPipelineNameLength> 字元。
無法重試的分析用戶端錯誤 (PIPELINE_NON_RETRYABLE_ANALYSIS_CLIENT_ERROR)
由於部分執行後發生無法重試的錯誤,管線無法分析源表(<tables>)。
將不會建立新的管線更新。
<flowErrors>
檢查事件記錄檔,並據以修正問題。
管道不符合復原資格
管線「<pipelineId>」已超過復原窗口。
PIPELINE_NOT_IN_DIRECT_PUBLISHING_MODE
ID 為『<pipelineId>』的管線,管理數據表 <tableName>,未使用直接發布模式。
PIPELINE_NOT_READY_FOR_SCHEDULED_UPDATE
數據表尚未準備好重新整理
如需詳細資訊,請參閱 PIPELINE_NOT_READY_FOR_SCHEDULED_UPDATE
PIPELINE_PERMISSION_DENIED_NOT_OWNER
您不允許執行這項作業。 您不是識別碼為 '<pipelineId>' 的管線擁有者,會管理資料表 <tableName>。
管線可重試分析
由於在部分執行後發生可重試的錯誤,管線無法分析源表(<tables>)。
將會建立新的流程更新,以重新嘗試處理。 如果錯誤持續發生,請檢查事件記錄檔並據以解決問題。
PIPELINE_SETTINGS_FIELD_CANNOT_BE_EDITED
'<uneditableFieldName>' 無法由使用者修改。 如果使用者想要新增或修改 <settingName>,請改用 『<editableFieldName>' 欄位。
PIPELINE_SETTINGS_MODIFIED_CONCURRENTLY
管線設定已同時修改。
PIPELINE_SETTINGS_UNSUPPORTED_CONFIGURATIONS
這些配置 <configurations> 不被 Lakeflow Spark 宣告式管線支援。 請移除這些設定。
PIPELINE_SETTING_SHOULD_NOT_SPECIFY_DEVELOPMENT
不支援使用 「開發」設定啟動更新。
PIPELINE_SHOULD_NOT_HAVE_MULTIPLE_TABLES
管線必須只有一個數據表,但找到數據表 <tablesSize> : <tables>
PIPELINE_SOURCE_FILE_NUMBER_EXCEEDED
來源檔案的數量,包括在資料夾中宣告的檔案,已超過限制 <limit>。
視需要移除或合併過多的檔案,並變更對應的管線規格,
或聯絡 Databricks 支援以申請提高上限。
PIPELINE_SOURCE_FOLDER_DEPTH_EXCEEDED
資料夾'<folder_path>' 超過 允許的目錄巢狀層級 <limit>上限。 減少資料夾巢狀層級,或連絡 Databricks 支援以要求增加限制。
PIPELINE_SPEC_PARAM_CANNOT_BE_CHANGED
不允許在管線設定中修改下列參數<param>
PIPELINE_TYPE_NOT_SUPPORTED
不支援管線類型 '<pipelineType>'。
PIPELINE_TYPE_NOT_WORKSPACE_PIPELINE_TYPE
標識子為「<pipelineId>」的管道,管理數據表<tableName>,不是 ETL 管道。
PIPELINE_TYPE_QUOTA_EXCEEDED
無法啟動更新 '<updateId>',因為已達到類型 '<pipelineType>' 的作用中管線數量限制。
PIPELINE_UPDATE_FOR_TABLE_IS_RUNNING
識別子為 '<pipelineId>' 的管線正在執行中, 管理資料表 <tableName>。 請先停止管線,再執行作業。
PIPELINE_WORKSPACE_LIMIT_REACHED
因為工作區 『<pipelineType>' 已經有 '<orgId>' 管線,因此已封鎖類型 '<countLimit>' 的管線建立。 請刪除未使用的管道。
PIP_INSTALL_NOT_AT_TOP_OF_NOTEBOOK
找到包含 %pip install 的儲存格,這些儲存格不在 <notebookPath> 的筆記本頂端
將所有 %pip 安裝儲存格移至筆記本的開頭。
PY4J_BLOCKED_API
SQLSTATE:未指派
您使用的是目前環境中不支援的 Python API。
如需替代方案,請參閱 Databricks 檔。
<additionalInfo>
QUERY_BASED_CONNECTOR_SOURCE_API_ERROR
API 呼叫中 <sourceName> 發生錯誤。 來源 API 類型:<qbcSourceApiType>。
請嘗試重新整理目的地數據表。 如果問題持續發生,請提出票證。
QUERY_BASED_INGESTION_CONNECTOR_ERROR
在 <sourceName> 查詢型擷取連接器中發生錯誤。
如需詳細資訊,請參閱 QUERY_BASED_INGESTION_CONNECTOR_ERROR
REFERENCE_DLT_DATASET_OUTSIDE_QUERY_DEFINITION
不支援在資料集查詢定義(即@dlt.table標註)之外引用 Lakeflow Spark 宣告式管線資料集<identifier>。 請改為在數據集查詢定義內加以讀取。
REFRESH_INITIATED_FROM_INVALID_WORKSPACE
重新整理必須在建立資源的工作區 <homeWorkspaceId>中起始。
已在工作區 <userWorkspaceId>中嘗試重新整理。
REFRESH_MODE_ALREADY_EXISTS
無法新增 <type> 至已經有 <existingType>的數據表。 請取消現有的行程表或使用 ALTER TABLE...ALTER <type> ......改變它。
REQUIRED_PARAM_NOT_FOUND
找不到必要的參數 <param> 。
RESERVED_KEYWORD_IN_USE_CATALOG
USE CATALOG '<reservedKeyword>' 是非法的,因為 '<reservedKeyword>' 是 Lakeflow Spark 宣告式管線中的保留關鍵字。
RESERVED_KEYWORD_IN_USE_SCHEMA
USE SCHEMA '<reservedKeyword>' 是非法的,因為 '<reservedKeyword>' 是 Lakeflow Spark 宣告式管線中的保留關鍵字。
資源正在配置中
正在為管線「<pipelineId>」準備資源。
資源在工作空間中為唯讀
<resourceType>
<resourceName>已被指定為「唯讀」在目前的工作區中。
RESTORE_NON_DELETED_PIPELINE
管線 '<pipelineId>' 未被刪除。 還原僅適用於已刪除的管線。
還原管道已停用
未針對管線類型啟用 RestorePipeline <pipelineType>
請連絡 Databricks 支援服務,以取得還原管線 '<pipelineId>' 的協助。
ROOT_PATH_NOT_FOUND
無法存取根路徑 』<rootPath>。 請確定您具有所需的訪問許可權。
RUN_AS_USER_NOT_FOUND
指定的更新執行使用者「<runAsUserId>」不存在於工作區中。
SAAS_CONNECTION_ERROR
無法連線至 <sourceName> 來源。 錯誤碼:<saasConnectionErrorCode>。
如需詳細資訊,請參閱 SAAS_CONNECTION_ERROR
SAAS_CONNECTOR_DUPLICATE_DATA(SaaS 連接器重複數據)
在表格 <tableName>中發現了重複的資料。 資料來源類型: <sourceName>。
更多詳情請參見 SAAS_CONNECTOR_DUPLICATE_DATA
SAAS_CONNECTOR_INVALID_INCLUDE_COLUMNS(無效的包含欄位)
表格<qualifiedTableName> 的 include_columns 指定無效。 原因:<reason>
SAAS_CONNECTOR_INVALID_PRIMARY_KEY_CONFIGURATION
資料表的無效主鍵設定<qualifiedTableName>。 原因:<reason>
SAAS_CONNECTOR_雙向身份驗證失敗
此會話無法相互驗證以用於 <sourceName>。 來源 API 類型:<saasSourceApiType>。 錯誤碼:<saasSourceApiErrorCode>。
請驗證客戶端憑證與私鑰為有效配對且受 <sourceName>信任。
SAAS_CONNECTOR_REFRESH_TOKEN_EXPIRED
刷新令牌 <connectionName> 的連接已過期。 編輯連線、重新驗證,然後重新執行您的管線。
SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR
<tableName> 來源的數據表 <sourceName> 發生架構變更。
如需詳細資訊,請參閱 SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR
SAAS_CONNECTOR_SOURCE_API_ERROR
API 呼叫中 <sourceName> 發生錯誤。 來源 API 類型:<saasSourceApiType>。 錯誤碼:<saasSourceApiErrorCode>。
請嘗試重新整理目的地數據表。 如果問題持續發生,請提出票證。
SAAS_CONNECTOR_UC_CONNECTION_OAUTH_EXCHANGE_FAILED
OAuth 代幣交換因 UC 連線失敗: <connectionName>。
這可能是因為你的加州大學資格問題。 檢查錯誤追蹤記錄,編輯 UC 連線,重新驗證,然後重新執行工作流程。 如果錯誤持續發生,請提出票證。
SAAS_CONNECTOR_UNSUPPORTED_ERROR
數據源 <sourceName>中發生不支援的錯誤。
如需詳細資訊,請參閱 SAAS_CONNECTOR_UNSUPPORTED_ERROR
SAAS_INCOMPATIBLE_SCHEMA_CHANGES_DURING_INIT
初始化管線時,我們偵測到不相容的架構變更:
<details>
請對受影響的數據表執行完整重新整理。
SAAS_PARTIAL_ANALYSIS_INPUT_CREATION_ERROR
在建立部分分析的輸入時遇到錯誤。 將不會建立新的管線更新。
請檢查事件記錄檔,並據以修正問題。
SAAS_SCHEMA_DIVERGED_DURING_ANALYSIS
源數據表 (<table>)分析的架構已與其預期的架構不同。
請重試管線更新,並查看問題是否已解決。
如果此問題持續發生,請在上述數據表上執行完整重新整理
預期的結構描述:
<expectedSchema>
實際模式:
<actualSchema>
SAAS_UC_CONNECTION_INACCESSIBLE
提供的連線 <connectionName> 無法存取。 請檢查連線,然後再試一次。
如需詳細資訊,請參閱 SAAS_UC_CONNECTION_INACCESSIBLE
SCHEMA_SPEC_EMPTY_CATALOG
SchemaSpec 在目錄欄位中有空字串。
請移除空字串或新增目錄名稱。 (如果這個架構不屬於來源中的目錄,請勿設定 欄位。
架構規格詳細資料:
<schemaSpec>
SCHEMA_SPEC_EMPTY_SCHEMA
SchemaSpec 在架構字段中有空字串。
請移除空字串或新增架構名稱。 (如果此數據表不屬於來源中的架構,請勿設定 欄位。
架構規格詳細資料:
<schemaSpec>
SCHEMA_SPEC_REQUIRE_ONE_OF_CATALOG_SCHEMA
至少必須有一個來源目錄和來源架構。 但兩者都是空的。
架構規格詳細資料:
<schemaSpec>
SEQUENCE_BY_COLUMN_NOT_FOUND(序列依據欄位未找到)
管線定義包括在來源<columnNames>的資料表<qualifiedTableName>中不存在的 sequence_by 欄位(<sourceType>)。 請從sequence_by欄位中刪除這些欄。
無伺服器預算政策與使用政策雙重設定 (SERVERLESS_BUDGET_POLICY_AND_USAGE_POLICY_BOTH_SET)
無法同時設定 budget_policy_id 和 usage_policy_id。 請刪除 budget_policy_id。
SERVERLESS_BUDGET_POLICY_BAD_REQUEST
由於政策工作區綁定的限制,無法在此工作區中使用標識符為『<budgetPolicyId>』的預算政策。
SERVERLESS_BUDGET_POLICY_IS_INVALID
標識元為 『<budgetPolicyId>』 的無伺服器預算原則無效。
SERVERLESS_BUDGET_POLICY_MISSING
標識碼為 『<budgetPolicyId>』 的無伺服器預算原則不存在。
SERVERLESS_BUDGET_POLICY_NOT_ENABLED
未啟用無伺服器預算原則,請連絡 Databricks 支援。
SERVERLESS_BUDGET_POLICY_NOT_ENABLED_FOR_ACCOUNT
此帳戶未啟用無伺服器預算原則。 用戶無法為此管線指定預算原則。 帳戶管理員應該嘗試透過功能預覽入口網站註冊。 如果問題持續發生,請連絡 Databricks 支援。
SERVERLESS_BUDGET_POLICY_NOT_SUPPORTED_FOR_NON_SERVERLESS_PIPELINE
無伺服器預算原則無法指派給非無伺服器管線。
SERVERLESS_BUDGET_POLICY_NOT_SUPPORTED_FOR_PIPELINE_TYPE
管線類型 <pipelineType>不支援無伺服器預算原則。
SERVERLESS_BUDGET_POLICY_PERMISSION_DENIED
用戶沒有許可權使用標識碼為 『<budgetPolicyId>』 的無伺服器預算原則。
SERVERLESS_NOT_AVAILABLE
無法使用無伺服器計算。 如需詳細資訊,請連絡 Databricks。
SERVERLESS_NOT_ENABLED
你無法在 Lakeflow Spark 宣告式管線中使用無伺服器運算。 請連絡 Databricks,為您的工作區啟用此功能。
SERVERLESS_NOT_ENABLED_FOR_USER
呼叫者未啟用無伺服器計算。 請連絡您的工作區管理員以啟用這項功能。
SERVERLESS_NOT_ENABLED_FOR_WORKSPACE
無伺服器計算不適用於此工作區和/或區域。 如需詳細資訊,請連絡 Databricks。
SERVERLESS_REQUIRED
您必須在此工作區中使用無伺服器計算。
SERVICENOW_CONNECTION_ERROR
ServiceNow 中發生錯誤。 來源 API 類型:<saasSourceApiType>。
如需詳細資訊,請參閱 SERVICENOW_CONNECTION_ERROR
SERVICENOW_CONNECTOR_EMPTY_CURSOR_KEY_ERROR
ServiceNow 中發生錯誤。 來源 API 類型:<saasSourceApiType>。
此時,導入管線無法匯入數據表 '<tableName>',因為資料行中的游標鍵包含空白字段。
若要繼續執行管線,請移除此資料表。 如果錯誤持續發生,請提出票證。
SERVICENOW_CONNECTOR_INSTANCE_HIBERNATION_ERROR
ServiceNow 中發生錯誤。 來源 API 類型:<saasSourceApiType>。
無法連線到 ServiceNow 實例。 實例似乎處於休眠狀態或非使用中狀態。
登入您的 ServiceNow 系統管理入口網站,並等候一段時間,直到實例完全喚醒為止。
如果錯誤持續發生,請提出票證。
SERVICENOW_CONNECTOR_INSTANCE_OFFLINE_ERROR
ServiceNow 中發生錯誤。 來源 API 類型:<saasSourceApiType>。
無法連線到 ServiceNow 實例。 實例已離線。
登入您的 ServiceNow 系統管理入口網站,並等候一段時間,直到實例還原為止。
如果錯誤持續發生,請提出票證。
SERVICENOW_CONNECTOR_INVALID_TABLE_ERROR
ServiceNow 中發生錯誤。 來源 API 類型:<saasSourceApiType>。
無法查詢資料表『<tableName>』 的架構。 此數據表不存在於此使用者的 ServiceNow 帳戶中。
確認數據表名稱是否有任何拼寫錯誤,並確保使用者擁有存取數據表的必要許可權。
如果錯誤持續發生,請提出票證。
SERVICENOW_CONNECTOR_IP_ADDRESS_RESTRICTED_ERROR
ServiceNow 中發生錯誤。 來源 API 類型:<saasSourceApiType>。
無法連線到 ServiceNow 實例。 實例具有IP位址訪問控制限制。
若要解決此問題,請導航至 [ServiceNow >> 所有 >> 系統安全性 >> IP 位址存取控制] 以停用 IP 位址限制或使用無伺服器穩定 IP
如果錯誤持續發生,請提出票證。
SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR
ServiceNow 中發生錯誤。 來源 API 類型:<saasSourceApiType>。
偵測到無效的 ServiceNow API 端點 URL。 URL 結構不符合預期的 ServiceNow 格式。
檢查 UC 連線認證中的 ServiceNow 實例組態。
如需詳細資訊,請參閱 SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR
SERVICENOW_CONNECTOR_MAX_FAILED_ATTEMPTS_REACHED
ServiceNow 中發生錯誤。 來源 API 類型:<saasSourceApiType>。
當數據表的數據擷取時間太長時,通常會發生這種情況。 首先,請與您的 ServiceNow 系統管理員合作以在游標欄上啟用索引。
游標資料行是從下列清單中選取,依可用性和偏好的順序:sys_updated_on(第一選擇)、sys_created_on(第二選擇)、sys_archived(第三選擇)
如需在 ServiceNow 中啟用索引編製的指示,請參閱這裡: https://docs.databricks.com/ingestion/lakeflow-connect/servicenow-overview#why-is-my-servicenow-ingestion-performance-slow。
我們也建議將 REST API 查詢逾時增加至 60 秒以上,以允許更多時間來擷取記錄。
然後,重試您的擷取管線。 如果問題持續發生,請提出票證。
SERVICENOW_CONNECTOR_SCHEMA_FIELD_TYPE_INACCESSIBLE
ServiceNow 中發生錯誤。 來源 API 類型:<saasSourceApiType>。
以非管理員許可權擷取資料表架構時,無法存取架構資料行的 "internal_type"。
若要解決此問題,請將資料表「sys_glide_object」的讀取權限授與目前使用者。
如果錯誤持續發生,請提出票證。
SERVICENOW_CONNECTOR_SCHEMA_FIELD_TYPE_MISMATCH
擷取數據表架構時,ServiceNow 發生錯誤。
找到欄位 '<fieldName>' 的兩個衝突數據類型:'<firstDataType>' 和 '<secondDataType>'。
若要繼續執行管線,請移除此資料表。 如果錯誤持續發生,請提出票證。
SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
ServiceNow 中發生錯誤。 來源 API 類型:<saasSourceApiType>。
如需詳細資訊,請參閱 SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
SET_TBLPROPERTIES_NOT_ALLOWED_FOR_PIPELINE_TABLE
ALTER <commandTableType>
...
SET TBLPROPERTIES 不支援。 若要修改資料表屬性,請變更原始定義並執行更新。
SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE
物件 <objName> 的擷取不完整,因為 Salesforce API 查詢作業花費的時間太長、失敗或手動取消。
如需進一步了解,請參閱 SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE
SFDC_CONNECTOR_BULK_QUERY_NOT_FOUND
物件 <objName> 匯入失敗,因為找不到 Salesforce 批次 API 查詢作業。
這可能是因為工作已在 Salesforce UI 中刪除,或因為距離上次管道更新已超過 7 天,之後 Salesforce 會自動刪除工作
若要觸發新的大量作業,請在特定的目的地資料表上執行 FULL REFRESH 。
SFDC_CONNECTOR_CREATE_BULK_QUERY_API_LIMIT_EXCEEDED
Salesforce API 呼叫中發生錯誤:超過 API 限制
請等候您的 API 限制重設。 然後嘗試重新整理目的地數據表。
如果錯誤持續發生,請提出票證。
SFDC_CONNECTOR_CREATE_BULK_QUERY_JOB_FAILED
物件 <objName> 整合不完整,因為建立 Salesforce 大量 API 查詢作業失敗。 錯誤碼:<saasSourceApiErrorCode>。
<actionText>。
SFDC_CONNECTOR_MALFORMED_RECORDS
Salesforce 物件 '<objName>' 的擷取失敗,因為 Salesforce <saasSourceApiType> 傳回格式不正確的記錄。
請查看堆疊追蹤以了解更多詳細資訊。
驗證 Salesforce 中的資料,然後重新執行數據管道。
SINKS_NOT_SUPPORTED_IN_SEG
Lakeflow Spark 宣告式管線資料匯流在啟用了無伺服器外部流量控制的工作區中不支援。 支援的 Lakeflow Spark 宣告式資料管線匯入端包括 Kafka 和 Delta。
找到以下不支援的接收端:<sinkNames>,其相對應的格式為:<sinkFormats>。
SOURCE_TABLE_NOT_MATERIALIZED
無法讀取相依數據集 '<sourceTableName>',因為它未具體化。 執行整個管線以實現所有相依數據集。
找不到 SPARK 連線定義路徑
圖元素 '<graphElementName>' 的定義路徑未找到。 請連絡 Databricks 支持人員。
SPARK_CONNECT_DEFINITION_PATH_NOT_FOUND_SPARK_SQL
目前 Spark SQL 執行情境中沒有可用的管線定義路徑。 請連絡 Databricks 支持人員。
SPARK_CONNECT_UNSUPPORTED_FLOW_DEFINITION_ERROR(不支援的流程定義錯誤)
不支援流量定義。 請連絡 Databricks 支持人員。 命令:<defineFlowCommand>
SPARK_CONNECT_UNSUPPORTED_OUTPUT_TYPE
Spark Connect 不支援輸出型別 '<outputType>'。 請連絡 Databricks 支持人員。
STANDALONE_PRIVATE_MVST_NOT_SUPPORTED
不支援建立獨立 PRIVATE MV/ST。 請移除 PRIVATE 修飾詞
啟動 Python REPL 超時
等待 Python REPL 啟動超時。 花了超過<timeoutSeconds>秒的時間。
STREAMING_TARGET_NOT_DEFINED
找不到<target>命令的目標數據表<command>。 管線中未定義目標數據表 <target> 。
SYNCED_TABLE_USER_ERROR
同步資料表流程使用者錯誤。
如需詳細資訊,請參閱 SYNCED_TABLE_USER_ERROR
TABLE_CHANGED_DURING_OPERATION
數據表 <tableName> 已在此交易之外修改,而且此交易已回復。 重試操作。
TABLE_MATERIALIZATION_CYCLIC_FOREIGN_KEY_DEPENDENCY
管線更新:<pipelineId> 偵測到外鍵約束的循環鏈結:<tables>。
TABLE_SPEC_BOTH_CATALOG_SCHEMA_REQUIRED
TableSpec 遺漏其中一個來源目錄和/或來源架構。
表格規格細節資料:
<tableSpec>
TABLE_SPEC_EMPTY_CATALOG
TableSpec 在目錄欄位中有空字串。
請移除空字串或新增目錄名稱。 (如果此數據表不屬於來源中的目錄,請勿設定欄位。
表格規格細節資料:
<tableSpec>
TABLE_SPEC_EMPTY_SCHEMA
TableSpec 在架構欄位中有空字串。
請移除空字串或新增架構名稱。 (如果此數據表不屬於來源中的架構,請勿設定 欄位。
表格規格細節資料:
<tableSpec>
TABLE_SPEC_EMPTY_TABLE
數據表名稱是空的。 請提供資料表名稱。
表格規格細節資料:
<tableSpec>
TABLE_TOKEN_NOT_EXIST_FOR_SCHEMA_EVOLUTION_LEGACY_TABLE
因為缺少元數據,所以無法啟用架構演進。 請進行完整刷新。
原因:啟用結構演變時,必須定義快照表令牌。
已刪除的工作區管線
無法啟動管線,因為管線已丟棄或刪除。
TRIGGER_INTERVAL_VALUE_INVALID
觸發間隔必須是正持續時間,可接受的最大值為 2,147,483,647 秒。 已收到 <actual> 秒的資訊。
觸發器未啟用
未針對此工作區啟用觸發程式。 請在預覽頁面中啟用表格觸發器。
TRIGGER_ON_VIEW_READ_FROM_FILE_NOT_SUPPORTED
來源 <source> 是從檔案位置讀取的檢視,目前觸發程式不支援此檢視。
TRIGGER_REQUEST_SERIALIZATION_ERROR
處理您的請求時發生問題。 請連絡 Databricks 支持人員。
TRIGGER_SECURABLE_KIND_NOT_SUPPORTED (觸發器安全類型不支援)
觸發程式設定失敗:不支援的資料表類型。 如需支援的類型,請參閱文件。
TRIGGER_SOURCE_TYPE_NOT_SUPPORTED
來源<source>具型別<type>目前不受觸發程式支援。
TRIGGER_STATE_SERIALIZATION_ERROR
處理您的請求時發生問題。 請連絡 Databricks 支持人員。
TRIGGER_TABLE_LIMIT_EXCEEDED (觸發表格超出限制)
觸發程式設定失敗:觸發程式包含的資料表數量超過允許的限制。 請參閱文件,以取得資料表限制以及如何解決此問題的詳細資訊。
觸發器表類型不受支持 (TRIGGER_TABLE_TYPE_NOT_SUPPORTED)
觸發程式設定失敗:不支援的資料表類型。 如需支援的類型,請參閱文件。
UC_CLEARING_TARGET_SCHEMA_NOT_ALLOWED
UC 管線不允許清除目標架構欄位。 原因: <reason>。
UC_IAM_ROLE_NON_SELF_ASSUMING
儲存憑證的 IAM 角色被發現並非自假設。
請檢查您角色的信任和 IAM 原則,以確保您的 IAM 角色可以根據 Unity 目錄記憶體認證檔自行擔任。
UC_NOT_ENABLED
在 Lakeflow Spark 宣告式資料管線中使用 UC 目錄功能並未啟用。
UC_PIPELINE_CANNOT_PUBLISH_TO_HMS
已啟用 UC 的管線無法發佈至 Hive 中繼存放區。 請選擇不同的目標目錄。
UC_TARGET_SCHEMA_REQUIRED
UC 管線必須具備目標架構欄位。 原因: <reason>。
UNABLE_TO_INFER_TABLE_SCHEMA
無法從其上游流程推斷數據表 <tableName> 的架構。
請修改寫入此數據表的流程,使其架構相容。
到目前為止,推斷的架構:
<inferredDataSchema>
不相容的結構描述:
<incompatibleDataSchema>
UNEXPECTED_PIPELINE_SCHEMA_PERMISSION_ERROR
檢查管線 <pipelineId>的架構許可權時發生意外的錯誤。 請連絡 Databricks 支持人員。
ROW_FILTERSUNIFORM_COMPATIBILITY_CANNOT_SET_WITH__OR_COLUMN_MASKS
無法在應用行篩選或欄遮罩的實體化視圖或串流資料表上設定統一相容性。
UNITY_CATALOG_INITIALIZATION_FAILED
在叢集 <clusterId>上設定管線時發生 Unity 目錄錯誤。
確保你的 Unity 目錄設定正確,且所需資源(例如目錄、架構)存在且可存取。
也請確認叢集具有存取 Unity 目錄的適當許可權。
詳: <ucErrorMessage>
UNRESOLVED_SINK_PATH
無法解析接收端 <identifier> 的存儲路徑。 請連絡 Databricks 支持人員。
UNRESOLVED_TABLES_FOR_MAINTENANCE
在管線定義中找到下表,但在維護期間無法解析。 請使用最新的管線定義執行管線更新執行,以具體化管線定義中的所有數據表並解除封鎖維護,或如果問題持續發生,請連絡 Databricks 支援。
<unresolvedTableIdentifiersSet>
UNRESOLVED_TABLE_PATH
無法解析數據表 <identifier> 的記憶體路徑。 請連絡 Databricks 支持人員。
UNSUPPORTED_ALTER_COMMAND
ALTER <commandTableType>
...
<command> 不支援。
UNSUPPORTED_CHANNEL_FOR_DPM
不支援直接發佈模式的通道。 預期 'CURRENT' 或 'PREVIEW' 信道,但有 'PREVIOUS'
UNSUPPORTED_COMMAND_IN_NON_DPM_PIPELINE
<command> 僅在啟用直接發佈模式的 Spark 宣告管線中獲得支援
UNSUPPORTED_COMMAND_IN_QUERY_DEFINITION
查詢定義中不支援 『<command>』。 請將命令移至查詢定義之外。 如果是 Python 中的 Spark 宣告式管線,請將 '<command>' 移到 @dlt.table()/@dlt.view() 裝飾器的外面。 如果是 Scala 中的 Spark 宣告式管線,請將 '<command>'' 移到「query」方法之外。
UNSUPPORTED_CUSTOM_DBR_VERSION
在<v>和SHIELD工作區中,不支援自定義 DBR 版本「HIPAA」。 必須是<supportedDbrVersions>中的一個
UNSUPPORTED_CUSTOM_SCHEMA_PREVIEW(不支援的自定義結構預覽)
自訂架構私人預覽已停用。
請使用「schema」欄位建立一個新的管線,使用預設發佈模式
在管線規範中,並將資料集從此管線移至新管線。
UNSUPPORTED_CUSTOM_SCHEMA_PREVIEW_ENABLEMENT
自訂結構的私有預覽是被停用的,你也無法將預覽加入管線。
請從管線設定中移除 <sparkConfKeys> 。
UNSUPPORTED_DBR_VERSION
DBR 版本『<v>』不受支援。 必須是<supportedDbrVersions>中的一個
UNSUPPORTED_FEATURE_FOR_WORKSPACE
<featureName> 您的工作區不支援 。 請連絡 Databricks 支援,為您的工作區啟用此功能。
UNSUPPORTED_LANGUAGE
無法載入<language>筆記本'<notebookPath>'. 目前僅支援 <supportedLanguages> 筆記本。
UNSUPPORTED_LIBRARY_FILE_TYPE
的 <path> 檔案沒有.py或.sql後綴。 管線僅支援 Python 和 SQL 檔案。
UNSUPPORTED_LIBRARY_NOTEBOOK_LANGUAGE
筆記本<language>不支持的語言<path>。 管線僅支援 Python 和 SQL
UNSUPPORTED_LIBRARY_OBJECT_TYPE
路徑 <path> 中包含的 屬於不支援的類型 <objectType> 。 目前,只能使用筆記本和檔案作為函式庫。 若要解決此問題,請移除不支持的物件,或更新為此管線設定的連結庫,因此只包含支持的物件類型。
UNSUPPORTED_MANAGED_INGESTION_SOURCE_TYPE
無效的受管理擷取管線定義,不支援的來源類型:<sourceType>。
UNSUPPORTED_MULTIPLE_UPDATE_TYPE(不支援的多重更新類型)
僅驗證、僅探索與倒帶更新是互斥的。 最多只能設定一個。
不支援的倒帶 (UNSUPPORTED_REWIND)
此工作區尚未啟用回溯操作。
UNSUPPORTED_SAAS_INGESTION_TYPE
不支援所提供的攝取類型 <ingestionType> 。
如果此問題持續發生,請連絡 Databricks 支援。
UNSUPPORTED_SPARK_SQL_COMMAND
在 Lakeflow Spark 宣告式管線的 Python spark.sql("...") API 中,「<command>」不受支援。 支援的命令: <supportedCommands>。
UNSUPPORTED_SQL_STATEMENT
不支援的 SQL 語句 '<datasetType>': <datasetName> 是不支援的。
UPDATED_DEFINITION_SET_FOR_NON_DBSQL_PIPELINE
只有 DBSQL 的管線可以具有更新的定義。
USE_CATALOG_IN_HMS
僅在支援 UC 功能的 Spark 宣告式工作流程中使用 CATALOG
VIEW_TEXT_NOT_SAVED_IN_UC
無法重新整理數據表 <tableName> ,因為它沒有儲存在 Unity 目錄中的查詢。 請連絡 Databricks 支持人員。
WORKDAY_HCM_CONNECTOR_FETCH_BATCH_FAILED
Workday HCM 發生錯誤。 來源 API 類型:<saasSourceApiType>。
無法在偏移<offset>處擷取批次。
請嘗試重新整理目的地數據表。 如果問題持續發生,請提出票證。
WORKDAY_REPORTS_CONNECTOR_INSUFFICIENT_OAUTH_SCOPE_ERROR(Workday報表連接器OAuth範圍不足錯誤)
Workday 報表中發生錯誤。 來源 API 類型:<saasSourceApiType>。
無法擷取報告 '<reportUrl>' 的資料。 OAuth 用戶端沒有足夠的範圍存取權來擷取報告。
若要解決此問題,請確定 OAuth 用戶端已在 Workday 中設定必要的範圍。
如果錯誤持續發生,請提出票證。
「WORKDAY_REPORTS_CONNECTOR_MISSING_REQUIRED_PARAMS_ERROR」錯誤:所需的參數遺失
Workday 報表中發生錯誤。 來源 API 類型:<saasSourceApiType>。
Workday 報告「<reportUrl>」需要參數「<missingParam>」。
確保報告中的所有參數都包含在網址中;你可以查看 Workday 報告的設定,以辨識哪些參數是必須的。
如果問題持續發生,請提出票證。
WORKDAY_REPORTS_CONNECTOR_REPORT_NOT_FOUND_ERROR
Workday 報表中發生錯誤。 來源 API 類型:<saasSourceApiType>。
報表 URL '<reportUrl>' 不正確。 請檢查基底 URL 或報表名稱中的任何錯字,以解決此問題。
如果問題持續發生,請提出票證。
Workday 報表連接器報告超過大小錯誤
Workday 報表中發生錯誤。 來源 API 類型:<saasSourceApiType>。
URL 為 『<reportUrl>' 的報表大小大於 2GB。 請確定報表大小未超過此限制。
如果問題持續發生,請提出票證。
WORKDAY_REPORTS_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
Workday 報表中發生錯誤。 來源 API 類型:<saasSourceApiType>。
如需詳細資訊,請參閱 WORKDAY_REPORTS_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
WORKDAY_REPORT_URL_EMPTY
Workday 報表的 URL 欄位是空的。 至少必須提供一份報表。
WORKSPACE_QUOTA_EXCEEDED
無法啟動更新「<updateId>」,因為此工作區中已有「<maxActiveUpdates>」個作用中的管線正在執行。
Installation
ERROR_BASE_ENVIRONMENT_FILE_NOT_FOUND(基礎環境檔案未找到)
SQLSTATE:未指派
缺少基底環境 YAML 檔案。 請確定檔案存在於指定的路徑中。
描述:在預期的位置找不到所需的基底環境 YAML 檔案時發生。
建議的動作:確定基底環境 YAML 檔案存在於指定的路徑中,然後重試安裝。
ERROR_BASE_ENVIRONMENT_FILE_READ
SQLSTATE:未指派
無法讀取基底環境檔案,因為 YAML 檔案的語法或格式不正確。 請檢閱檔案內容。
描述:當基底環境 YAML 檔案包含語法或格式錯誤時發生。
建議的動作:驗證並修正環境檔案中的 YAML 語法,然後重試安裝。
ERROR_CONNECTION_REFUSED(連線遭拒)
SQLSTATE:未指派
無法連線到套件存放庫。 檢查網路連線能力、防火牆設定或存放庫可用性。
描述:因為網路問題、防火牆限制或存放庫停機,pip 無法建立與遠端套件存放庫的連線時發生。
建議的動作:確認網路連線能力、檢查防火牆或 Proxy 設定、確認可存取存放庫 URL,稍後如果存放庫可能暫時無法使用,請再試一次。
ERROR_CORE_PACKAGE_VERSION_CHANGE(核心套件版本變更)
SQLSTATE:未指派
已安裝的套件與 Databricks 核心套件不相容。 請將套件版本與預安裝的連結庫版本對齊,然後重試安裝。
描述:當 Databricks 核心相依性(例如 pyspark)版本被更改時,會發生這種情況。
建議的動作:將已安裝的套件版本與預安裝的連結庫對齊,然後重試安裝。
錯誤: CRAN 套件不可用
SQLSTATE:未指派
此計算上預安裝的 R 版本無法使用 CRAN 套件。
描述:在計算上未針對已安裝的 R 版本發行 R 套件時發生。
建議的動作:切換至具有相容 R 版本的計算,或選擇不同的套件版本。
ERROR_DBFS_DISABLED
SQLSTATE:未指派
已停用公用 DBFS 根存取。 請使用替代記憶體。
描述:當嘗試從 DBFS 安裝函式庫時,如果工作區中停用了公用 DBFS 根目錄,則會發生此情況。
建議的動作:使用替代儲存位置,例如UC磁碟區、工作區檔案或遠端記憶體。
ERROR_DIRECTORY_NOT_INSTALLABLE
SQLSTATE:未指派
由於 Python 套件結構無效,目錄無法安裝。 請檢查目錄是否已正確設定。
描述:針對沒有有效 Python 套件結構的目錄執行 pip 安裝時發生。
建議的動作:確定目錄包含 setup.py 或 pyproject.toml,然後重試,或將其封裝為滾輪。
安裝重複錯誤
SQLSTATE:未指派
偵測到重複的套件安裝。 請嘗試移除該套件的重複項目,然後重新啟動叢集。
描述:在叢集上已安裝相同的套件,並嘗試重複安裝時發生。
建議的動作:移除重複的套件專案,然後重新啟動叢集。
功能已停用错误
SQLSTATE:未指派
工作區中已停用 Unity 目錄磁碟區。 請連絡工作區管理員以啟用這項功能。
描述:在工作區中停用 Unity 目錄磁碟區時發生,導致無法從 UC 磁碟區安裝。
建議的動作:請連絡工作區管理員以啟用 Unity 目錄磁碟區,或使用替代記憶體。
ERROR_HASH_MISMATCH
SQLSTATE:未指派
偵測到套件雜湊碼不一致。 已下載套件的雜湊值與預期的雜湊值不符。
說明:發生在下載套件的雜湊值與其預期雜湊值不符時。
建議的動作:重試安裝、重新啟動叢集,和/或將大型套件安裝移至 Workspace Files、UC Volumes 或私人 PyPI 儲存庫。
ERROR_INVALID_FILE(檔案無效錯誤)
SQLSTATE:未指派
因為檔案類型不正確,所以無法安裝指定的檔案。 請確認您使用的是有效且支援的檔案類型。
描述:由於檔類型或格式不正確,無法安裝指定的連結庫檔案時發生。
建議行動:使用支援的函式庫檔案類型(例如 wheel、jar)並驗證路徑有效性。
錯誤_無效要求
SQLSTATE:未指派
需求檔案或套件相依性中的語法錯誤或格式不正確的條目。 檢查並更正需求檔案和套件相依性內容。
描述:在您的需求檔案或套件的相依性規格中偵測到無效或格式不正確的需求格式。
建議行動:在需求檔案中使用正確格式(例如「library-name==version」),確認套件相依格式是否有效,並檢查是否有錯字或不支援的版本指定符。
錯誤_無效的腳本進入點
SQLSTATE:未指派
無效的腳本進入點。 請檢查套件進入點或 setup.py 檔案。
描述:在套件元數據中不存在指定的主控台腳本進入點時發生。
建議的動作:確認 setup.py 或 pyproject.toml 中的進入點名稱,或連絡套件維護人員。
錯誤_無效的儲存配置
SQLSTATE:未指派
偵測到雲端記憶體帳戶的記憶體組態值無效。 請檢查記憶體組態、帳戶設定和認證。
描述:當雲端儲存帳戶配置不完整或錯誤時發生。
建議的動作:更正帳戶的記憶體設定,然後重試安裝。
ERROR_INVALID_USER_INPUT
SQLSTATE:未指派
提供的套件語法或自變數無效。 請確認連結庫安裝的輸入和選項有效。
描述:使用無效的選項或自變數叫用 pip 時發生。
建議的動作:確認 pip 選項和命令語法、更正輸入,然後重試安裝。
ERROR_INVALID_WHEEL(無效的輪子)
SQLSTATE:未指派
偵測到損毀、格式不正確或無效的 wheel 檔案。 請檢查滾輪檔案,或重試安裝。
描述:在安裝期間 pip 遇到損毀、不完整或格式錯誤的轉輪檔案時發生。
建議執行的操作:清除 pip 快取,重新下載或重建軟體包,重新安裝,並在重試之前確認其完整性。
ERROR_JAR_EVICTED
SQLSTATE:未指派
由於版本衝突,JAR 套件已由解析程式收回。 請解決相依性版本衝突。
描述:當 Maven 相依性解析由於與其他相依性之版本衝突而棄用該 jar 時發生。
建議的動作:解決相依性設定中的衝突,或使用明確的版本覆寫。
ERROR_MAVEN_LIBRARY_RESOLUTION
SQLSTATE:未指派
無法解析 Maven 連結庫座標。 確認連結庫詳細數據、存放庫存取權或 Maven 存放庫可用性。
描述:當 Maven 因座標資訊錯誤、網路問題或存放庫停機而無法找到或解析指定的庫時發生。
建議的動作:確認 groupId:artifactId:version 格式、檢查存放庫 URL 和認證、嘗試替代存放庫,或稍後如果存放庫暫時無法使用,請再試一次。
錯誤_無相符的分配
SQLSTATE:未指派
無法下載或存取指定的雲端記憶體資產,通常是因為設定錯誤、缺少相依性或連線問題。 請檢閱雲端記憶體設定。
描述:叢集無法從雲端記憶體下載或安裝連結庫檔案時發生,通常是因為設定錯誤、缺少相依性或網路問題。
建議的動作:確定雲端記憶體 URI 正確、認證有效,以及任何必要的網路 Proxy 或連結庫都已正確設定,然後重試安裝。
錯誤_沒有這樣的檔案或目錄
SQLSTATE:未指派
連結庫檔案不存在,或用戶沒有讀取連結庫檔案的許可權。 請檢查連結庫檔案是否存在,且使用者具有存取檔案的正確許可權。
描述:在連結庫安裝期間,指定檔案遺失或無法存取指定的路徑時發生。
建議的動作:確認檔案存在於指定的路徑、更正路徑或上傳遺漏的檔案,並確保適當的許可權。
操作不支援錯誤 (ERROR_OPERATION_NOT_SUPPORTED)
SQLSTATE:未指派
要求的檔案系統不支援此檔案類型的程式庫安裝。 請檢查連結庫類型,並參閱目前計算上所支持連結庫的使用者指南。
描述:在安裝期間,目標檔系統、檔案類型或計算類型不支援要求的作業時發生。
建議的動作:使用支援的檔案系統、檔案類型或計算類型,或將安裝目標調整為支援的位置。
ERROR_拒絕權限
SQLSTATE:未指派
用戶沒有足夠的許可權可安裝套件。 請檢查使用者的檔案和目錄訪問許可權。
描述:安裝使用者缺少在安裝期間讀取或寫入檔案或目錄的許可權時發生。
建議的動作:確認並授與目標目錄的適當許可權,或連絡您的系統管理員。
ERROR_PIP_CONFIG (錯誤)
SQLSTATE:未指派
用戶嘗試安裝 Python 連結庫,但叢集或工作區層級 pip 組態檔的語法錯誤或格式不正確。 請檢查並修正 pip 組態檔。
描述:當 pip 的組態檔發生語法錯誤或格式不正確時發生。
建議的動作:修正 pip 組態檔中的語法錯誤、移除組態檔以使用預設設定、重新啟動叢集,然後重試安裝。
ERROR_PYTHON_REPL_RESTORE_FAILURE
SQLSTATE:未指派
安裝套件後,Python REPL 還原失敗。
說明:通常發生在核心 Python 套件更新時,導致還原時破壞執行環境。
建議行動:檢視最近安裝的套件及與 Databricks 環境預設相容的安裝套件,如 numpy、pandas、pyspark 及其他標準函式庫。 確保版本與你的 Databricks 執行時版本相容。 如果還是失敗,請聯絡 Databricks 客服。
錯誤_需求檔案_安裝
SQLSTATE:未指派
非 UC 啟用的叢集不支援含有 Unity Catalog 磁碟區或工作區檔案參考的 requirements.txt 檔案。 請使用啟用 UC 功能的群集來安裝指向 UC 磁碟區或工作區檔案的 requirements.txt。
描述:當 requirements.txt 在非 UC 啟用的叢集上包含 UC 卷或工作區檔案引用時,就會發生此情況。
建議的動作:對於指向工作區或 UC 檔案的 "requirements.txt",請使用啟用了 UC 的叢集,或者移除這些參考。
ERROR_REQUIRE_HASHES (需要雜湊值)
SQLSTATE:未指派
在 --require-hashes 模式中執行 pip 時,如果需求條件缺少哈希,則會遺漏哈希。 請解決哈希需求或停用哈希檢查。
描述:在 --require-hashes 模式中執行 pip,且需求缺少哈希時發生。
建議的動作:為 requirements.txt 中的所有套件新增哈希,或者移除 --require-hashes 旗標。
ERROR_RESTART_PYTHON
SQLSTATE:未指派
無法重新啟動 Python 程式。 這可能是因為更新與預安裝運行時函式庫衝突的套件版本。 請檢查並對齊套件相依性及其版本。
描述:在連結庫安裝之後無法重新啟動 Python 環境時發生,通常是因為已安裝的套件與預安裝 Databricks 運行時間連結庫之間的衝突。
建議的動作:將已安裝的套件版本與預安裝的 Databricks 運行時間連結庫對齊,以避免衝突和 Python 重新啟動錯誤。
ERROR_RESTART_SCALA
SQLSTATE:未指派
無法重新啟動 Scala 進程。 這可能是因為 Scala 版本在 Scala JAR 中不匹配(例如,在 2.13 核心上執行 2.12 jar)。 請檢查並對齊 Scala 版本。
描述:當 Scala 環境無法重新啟動時,通常是因為 Scala 的版本不匹配,導致 Scala JAR 文件中發生衝突。
建議的動作:將 JAR Scala 版本與核心 Scala 版本對齊,以避免衝突和 Scala 重新啟動錯誤。
ERROR_S3_FORBIDDEN (S3 服務存取被拒絕)
SQLSTATE:未指派
拒絕存取 S3 資源。 檢查 IAM 許可權和桶政策。
描述:叢集的 AWS 認證沒有足夠的許可權可存取指定的 S3 資源。
建議的動作:驗證並更新 S3 儲存桶原則或 IAM 角色,以授予叢集必要的讀取權限。
ERROR_SCALA_INSTALLATION
SQLSTATE:未指派
因為權限問題或檔案遺失,無法安裝 Java 相依性。
描述:當無法安裝 Java 相依關係時,通常因路徑無效、網址或檔案權限不足而發生。
建議行動:驗證檔案路徑與網址,確保權限正確,並重試安裝。
ERROR_SETUP_PY_FAILURE
SQLSTATE:未指派
由於相容性問題、遺漏相依性或設定錯誤,Python 套件的 setup.py 未成功執行。 請檢查您依賴元件的設定檔案。
描述:當套件的 setup.py 腳本因相容性問題、遺漏相依性或組態錯誤而失敗時發生。
建議的動作:更新套件版本、安裝遺漏的相依性、取代已取代的套件,以及驗證 setup.py 腳本。
SSL錯誤:違規 (ERROR_SSL_VIOLATION)
SQLSTATE:未指派
Pip 遇到 SSL 交握或憑證驗證問題。 請檢閱計算或工作區上的 SSL 組態和憑證。
描述:當 pip 連線至套件存放庫時遇到 SSL 交握或憑證驗證問題時發生。
建議的動作:確認 SSL 憑證有效、在 pip 中設定受信任的主機,或檢查網路 SSL 設定。
ERROR_UC_ASSET_NOT_FOUND(資源未找到)
SQLSTATE:未指派
找不到 Unity Catalog 物件。 確認目錄、架構和磁碟區存在。
描述:發生於指定的 Unity 目錄磁碟區、目錄或架構不存在或無法存取時
建議的動作:確認 Unity 目錄物件路徑正確,且該物件存在於您的帳戶中。
ERROR_UNSUPPORTED_LIBRARY_TYPE(不支援的程式庫類型)
SQLSTATE:未指派
此計算資源不支援程式庫類型。 請檢查計算類型支援的函式庫。
說明:嘗試安裝與所選運算平台不相容的函式庫類型時發生。
建議的動作:使用適合此計算的支援函式庫類型,或切換至支援此函式庫類型的計算設備。
ERROR_UNSUPPORTED_PYTHON_VERSION(不支援的 Python 版本錯誤)
SQLSTATE:未指派
Python 庫與此電腦上的 Python 版本不相容。 請使用具有相容 Python 版本的計算。
描述:當套件的條件 python_requires 約束與計算上執行的 Python 版本不符時發生。
建議的動作:安裝支援目前 Python 版本的套件版本,或變更計算版本。
ERROR_UNSUPPORTED_SSL_ENABLED
SQLSTATE:未指派
當 spark.ssl.enabled 組態開啟時,安裝會失敗,因為這不支援函式庫安裝。 停用 SSL 設定,然後重新啟動叢集。
描述:當啟用 spark.ssl.enabled 設定時,因不支持函式庫安裝,將會發生錯誤。
建議的動作:停用 SSL 設定 (例如,設定 spark.ssl.enabled=false 或設定 spark.databricks.libraries.ignoreSSL=true) ,然後重新啟動叢集。
ERROR_USER_NOT_FOUND_IN_WORKSPACE
SQLSTATE:未指派
連結庫安裝失敗,因為工作區中找不到使用者。 這通常發生在使用者已從工作區中移除,但其令牌仍在使用時。
描述:當使用者的存取令牌正在使用中,但使用者已不存在於指定的工作區時發生。
建議的動作:請確定使用者可存取工作區,或更新叢集組態以使用有效的用戶認證。
磁碟區權限被拒絕錯誤
SQLSTATE:未指派
Unity Catalog 的磁碟區權限不足。 請檢查 UC 磁碟區存取權限,或向 UC 磁碟區擁有者請求存取權限。
描述:當使用者缺少指定UC磁碟區的許可權時發生。
建議的動作:向磁碟區擁有者或系統管理員要求 Unity 目錄磁碟區的讀取許可權。
ERROR_WHEEL_BUILD
SQLSTATE:未指派
Pip 無法成功建置轉輪,因為缺少組建相依性或錯誤。 請檢查轉輪套件內容和相依性。
描述:因為缺少組建相依性或錯誤,pip 無法建置套件的轉輪時發生。
建議的動作:確定已安裝建置工具和標頭,或使用 --no-binary 安裝預先建置的轉輪。
ERROR_WHEEL_INSTALLATION(輪子安裝錯誤)
SQLSTATE:未指派
滾輪與目前的計算不相容,因為平台卷標不符或無效的滾輪檔案。 請檢查滾輪套件內容、相依性,以及其與計算的相容性。
描述:當滾輪檔案無效或平台標籤不相符時發生。
建議的動作:使用針對目前平臺建置的滾輪,或使用適當的捲標重建滾輪。
FAULT_CLOUD_STORAGE_INSTALLATION
SQLSTATE:未指派
無法下載或存取指定的雲端記憶體資產,通常是因為設定錯誤或連線問題。 請檢閱雲端記憶體設定。
描述:計算無法從雲端記憶體下載或安裝連結庫檔案時發生,通常是因為設定錯誤或網路問題。
建議的動作:確定雲端記憶體 URI 正確、認證有效,以及任何必要的網路 Proxy 或連結庫都已正確設定,然後重試安裝。
FAULT_DBR_VERSION_EOS
SQLSTATE:未指派
計算上的 Databricks Runtime 版本已達到終止支援,不再受到支援。 請使用支援的 Databricks 執行時間版本。
描述:當程式庫安裝在不再接收更新或支援的 Databricks Runtime 版本時,會發生此情況。
建議的動作:將叢集升級至支援的 Databricks 運行時間版本,然後重試安裝。
FAULT_POLLER_ALLOWLIST_VALIDATION驗證
SQLSTATE:未指派
程式庫安裝因未在允許清單中而遭到封鎖。 如果在將連結庫新增至叢集之後,從允許清單中移除它,就會發生這種情況。 檢查連結庫allowlist,要求系統管理員將連結庫新增至allowlist,或從叢集中移除未經授權的套件。
描述:當一個或多個要求的程式庫未通過中繼存放區的允許清單核准,安裝將被阻止時發生。 如果先前允許的函式庫被移除出允許清單,也可能會發生此情況。
建議的動作:檢查中繼存放區允許清單、要求系統管理員將遺漏的連結庫新增至allowlist,或從叢集移除未經授權的連結庫。
FAULT_POLLER_DBR_UNSUPPORTED
SQLSTATE:未指派
叢集上的 Databricks 運行時間版本已達到支援終止,不再受到支援。 請使用支援的 Databricks 執行時間版本。
描述:當程式庫安裝在不再接收更新或支援的 Databricks Runtime 版本時,會發生此情況。
建議的動作:將叢集變更為使用支援的 Databricks 運行時間版本,然後重試安裝。
故障輪詢器庫存儲格式不支持
SQLSTATE:未指派
選取的 Databricks 執行時間版本可能不支援特定連結庫儲存格式,例如 gs:// 或 abfss:// 路徑。 請升級 Databricks Runtime,或參閱有關不同 Databricks Runtime 版本功能的使用者指南。
描述:當 Databricks Runtime 版本不支援指定的連結庫儲存格式或通訊協議時發生。
建議的動作:使用支援的記憶體配置或升級至支援所需儲存格式的 Databricks Runtime 版本。
FAULT_POLLER_UNITY_CATALOG_NOT_AVAILABLE_ERROR(故障輪詢器統一目錄不可用錯誤)
SQLSTATE:未指派
程式庫安裝需要 Unity 目錄,但在叢集或工作區中無法使用 Unity 目錄。 請連絡工作區管理員以啟用這項功能。
描述:當庫安裝需要 Unity Catalog,但在工作區中無法使用時發生。
建議的動作:要求系統管理以在您的工作區中啟用 Unity 目錄,或使用支援 Unity 目錄的叢集。
存儲存取失敗錯誤
SQLSTATE:未指派
因為認證、網路或許可權問題而無法存取雲端儲存資源。 請檢查雲端記憶體存取設定。
描述:計算因認證、網路或許可權問題而無法存取雲端記憶體資源時發生。
建議的動作:確認記憶體認證、網路連線和訪問許可權,然後重試安裝。
Miscellaneous
ABAC_POLICIES_NOT_SUPPORTED_FOR_RUNTIME_VERSION
SQLSTATE:未指派
DBR 版本 <abacDBRMajorVersion>。
<abacDBRMinorVersion> 或更高版本是查詢資料表 <tableFullName> 所需的,因為它受 ABAC 策略的保護。
AZURE_ENTRA_CREDENTIALS_MISSING
SQLSTATE:未指派
Azure Entra (也稱為 Azure Active Directory) 認證遺失。
請確定您已使用 Entra 帳戶登入
或已在用戶設定 > Git 整合中設定 Azure DevOps 個人存取令牌 (PAT)。
如果您未使用 PAT,且搭配 Repos API 使用 Azure DevOps,
您必須使用 Azure Entra 存取令牌。
如需取得 Azure Entra 存取令牌的步驟,請參閱 https://docs.microsoft.com/azure/databricks/dev-tools/api/latest/aad/app-aad-token 。
<pickOrCreateNewCredential>
AZURE_ENTRA_CREDENTIALS_PARSE_FAILURE
SQLSTATE:未指派
您的 Azure Entra (Azure Active Directory) 認證發生錯誤。 請嘗試從系統註銷
Entra (https://portal.azure.com) 和重新登入。
或者,您也可以瀏覽使用者設定 > Git 整合來設定
設定 Azure DevOps 個人存取令牌。
<pickOrCreateNewCredential>
AZURE_ENTRA_LOGIN_ERROR
SQLSTATE:未指派
您的 Azure Active Directory 認證發生錯誤。 請嘗試從系統註銷
Azure Active Directory (https://portal.azure.com) 和重新登入。
<pickOrCreateNewCredential>
AZURE_ENTRA_WORKLOAD_IDENTITY_ERROR
SQLSTATE:未指派
遇到 Azure 工作負載身分識別錯誤,伴隨 Azure 例外狀況:<azureWorkloadIdentityExceptionMessage>
CLEAN_ROOM_DELTA_SHARING_ENTITY_NOT_AUTHORIZED
SQLSTATE:未指派
無法要求生成與無塵室差異共享相關的安全憑證。
CLEAN_ROOM_HIDDEN_SECURABLE_PERMISSION_DENIED
SQLSTATE:未指派
具有類型<securableName>和種類<securableType>的安全性實體<securableKind>是由無塵室系統管理,用戶無法存取。
CONSTRAINT_ALREADY_EXISTS
SQLSTATE:未指派
名為<constraintName>的限制已存在,請選擇不同的名稱。
CONSTRAINT_DOES_NOT_EXIST
SQLSTATE:未指派
條件約束 <constraintName> 不存在。
COULD_NOT_READ_REMOTE_REPOSITORY
SQLSTATE:未指派
無法讀取遠端存放庫 (<repoUrl>)。
使用<credentialName> (<credentialId>)了憑證<because>。
這個 Git 憑證的提供者是 <gitCredentialProvider> ,電子郵件/使用者名稱是 <gitCredentialUsername>。
請移至您的遠端 Git 提供者,以確保:
您的遠端 Git 存放庫 URL 有效。
您的個人存取令牌或應用程式密碼具有正確的存放庫存取權。
<pickOrCreateNewCredential>
COULD_NOT_RESOLVE_REPOSITORY_HOST
SQLSTATE:未指派
無法解析主機 <repoUrl>。
憑證<credentialName> (<credentialId>)已使用<because>。
這個 Git 憑證的提供者是 <gitCredentialProvider> ,電子郵件/使用者名稱是 <gitCredentialUsername>。
CSMS_BEGINNING_OF_TIME_NOT_SUPPORTED
SQLSTATE:未指派
參數 beginning_of_time 不可以是 true。
CSMS_CONTINUATION_TOKEN_EXPIRED
SQLSTATE:未指派
續航代幣已過期。 原因:<msg>
缺少 CSMS 憑證名稱
SQLSTATE:未指派
請求中缺少憑證名稱
CSMS_FILE_EVENTS_VALIDATION_USER_ERROR
SQLSTATE:未指派
操作時檔案事件驗證失敗 <operation>: <message>
CSMS_INVALID_CONTINUATION_TOKEN
SQLSTATE:未指派
接續令牌無效。 原因:<msg>
CSMS_INVALID_FILE_EVENTS_QUEUE
SQLSTATE:未指派
<missingField>在請求中缺少<queueType>
CSMS_INVALID_MAX_OBJECTS
SQLSTATE:未指派
參數 max_objects 的無效值 <value> ,期望值在 [<minValue>, <maxValue>]
CSMS_INVALID_SUBSCRIPTION_ID
SQLSTATE:未指派
訂用帳戶標識碼無效。 原因:<msg>
CSMS_INVALID_URI_FORMAT
SQLSTATE:未指派
無效的 URI 格式。 預期磁碟區 (例如「/Volumes/catalog/schema/volume」) 或雲端儲存路徑 (例如「s3://some-uri」)
CSMS_KAFKA_TOPIC_MISSING
SQLSTATE:未指派
必須提供 Kafka 主題
CSMS_LOCATION_ERROR
SQLSTATE:未指派
無法列出物件。 有些位置上的問題需要解決。 詳: <msg>
CSMS_LOCATION_NOT_KNOWN
SQLSTATE:未指派
找不到 URI <path> 的位置
CSMS_METASTORE_ID_MISSING
SQLSTATE:未指派
必須提供資料中繼庫 uuid
CSMS_METASTORE_RESOLUTION_FAILED
SQLSTATE:未指派
無法判斷要求的中繼存放區。
CSMS_RESOLVE_CREDENTIAL_ID_FAILED
SQLSTATE:未指派
無法解析憑證的 ID:<credentialName>
CSMS_RESOLVE_LOCAL_SHARD_NAME_FAILED
SQLSTATE:未指派
CSMS 無法解析本機分區名稱
CSMS_SERVICE_DISABLED
SQLSTATE:未指派
服務已停用
CSMS_SHARD_NAME_MISSING_IN_REQUEST
SQLSTATE:未指派
在對 CSMS 的 RPC 請求中遺漏分片名稱
CSMS_STORAGE_CREDENTIAL_DOES_NOT_EXIST(儲存憑證不存在)
SQLSTATE:未指派
儲存憑證不存在。
CSMS_訂閱_ID_在請求中遺失
SQLSTATE:未指派
要求中遺漏訂用帳戶標識碼。
CSMS_SUBSCRIPTION_NOT_FOUND(找不到訂閱)
SQLSTATE:未指派
找不到 ID 為 <id> 的訂閱。
CSMS_UNITY_CATALOG_DISABLED(統一目錄已禁用)
SQLSTATE:未指派
已停用此工作區的 Unity 目錄
CSMS_UNITY_CATALOG_ENTITY_NOT_FOUND
SQLSTATE:未指派
找不到 Unity 目錄實體。 確保目錄、結構、磁碟區及/或外部位置是否存在。
CSMS_UNITY_CATALOG_EXTERNAL_LOCATION_DOES_NOT_EXIST
SQLSTATE:未指派
Unity 目錄外部位置不存在。
CSMS_UNITY_CATALOG_EXTERNAL_STORAGE_OVERLAP
SQLSTATE:未指派
URI 與其他磁碟區重疊
CSMS_UNITY_CATALOG_METASTORE_DOES_NOT_EXIST
SQLSTATE:未指派
無法判斷要求的中繼存放區。 中繼存放區不存在
CSMS_UNITY_CATALOG_基於路徑的存取權限不允許對表進行篩選
SQLSTATE:未指派
URI 指向具有數據列層級篩選或數據行遮罩的數據表。 不允許此資料表的路徑型存取。
CSMS_UNITY_CATALOG_PERMISSION_DENIED
SQLSTATE:未指派
權限遭拒
CSMS_UNITY_CATALOG_速率限制
SQLSTATE:未指派
請求速率超過上限。 請過一陣子再試。
CSMS_UNITY_CATALOG_TABLE_DOES_NOT_EXIST
SQLSTATE:未指派
Unity 目錄數據表不存在。
CSMS_UNITY_CATALOG_VOLUME_DOES_NOT_EXIST
SQLSTATE:未指派
Unity Catalog 的磁碟區不存在。
CSMS_UNSUPPORTED_FILE_EVENTS_QUEUE
SQLSTATE:未指派
請求中的未知檔案事件佇列
不支援的管理資源類型
SQLSTATE:未指派
不支援受管理資源類型<resourceType>
CSMS_UNSUPPORTED_SECURABLE
SQLSTATE:未指派
不支援的可保護項目
CSMS_URI_MISSING
SQLSTATE:未指派
必須提供 URI
CSMS_URI_TOO_LONG
SQLSTATE:未指派
提供的 URI 太長。 允許的最大長度為 <maxLength>。
請求中缺少使用者上下文
SQLSTATE:未指派
向 CSMS 發送的 rpc 請求缺少用戶上下文
DMK_CATALOGS_DISALLOWED_ON_CLASSIC_COMPUTE
SQLSTATE:未指派
無法使用傳統計算來存取 Databricks 預設記憶體。 請使用無伺服器計算來存取預設記憶體中的數據
GITHUB_APP_COULD_NOT_REFRESH_CREDENTIALS
SQLSTATE:未指派
作業失敗,因為無法重新整理連結的 GitHub 應用程式認證。
請再試一次,或移至 [用戶設定 > ][Git 整合],然後嘗試重新連結您的 Git 提供者帳戶。
如果問題持續發生,請提出支援請求。
<pickOrCreateNewCredential>
GITHUB_APP_CREDENTIALS_NO_ACCESS
SQLSTATE:未指派
您的 GitHub 帳戶連結無法存取。 若要修正此錯誤:
- 存放庫的系統管理員必須移至 https://github.com/apps/databricks/installations/new 存放庫上並安裝 Databricks GitHub 應用程式。
或者,GitHub 帳戶擁有者可以在帳戶上安裝應用程式,以授與帳戶存放庫的存取權。
- 如果應用程式已安裝,請讓管理員確認他們是否使用了「僅選取存放庫」選項的限制存取權,並確保已包含此存放庫的存取權。
<pickOrCreateNewCredential>
GITHUB_APP_EXPIRED_CREDENTIALS
SQLSTATE:未指派
連結的 GitHub 應用程式認證在閒置 6 個月後過期。
移至 [用戶設定 > ][Git 整合],然後嘗試重新連結您的認證。
如果問題持續發生,請提出支援請求。
<pickOrCreateNewCredential>
GITHUB_APP_INSTALL_ON_DIFFERENT_USER_ACCOUNT
SQLSTATE:未指派
您的 GitHub 帳戶連結無法存取。 若要修正此錯誤:
GitHub 使用者
<gitCredentialUsername>應該移至 https://github.com/apps/databricks/installations/new 帳戶<gitCredentialUsername>並安裝應用程式,以允許存取。如果使用者已安裝應用程式,並且正在使用 [僅選取存放庫] 選項進行範圍存取,則他們應該選擇包含此存放庫的存取權,以確保已獲得對此存放庫的存取權。
<pickOrCreateNewCredential>
GITHUB_APP_INSTALL_ON_ORGANIZATION
SQLSTATE:未指派
您的 GitHub 帳戶連結無法存取。 若要修正此錯誤:
GitHub 組織的
<organizationName>擁有者應該移至 https://github.com/apps/databricks/installations/new 組織並安裝應用程式<organizationName>,以允許存取。如果應用程式已安裝在 GitHub 組織
<organizationName>上,請組織擁有者確認在使用[僅選取存放庫]選項的情況下,已選擇此存放庫以確保其存取權。
<pickOrCreateNewCredential>
GITHUB_APP_INSTALL_ON_YOUR_ACCOUNT
SQLSTATE:未指派
您的 GitHub 帳戶連結無法存取。 若要修正此錯誤:
移至 https://github.com/apps/databricks/installations/new ,並在您的帳戶
<gitCredentialUsername>上安裝應用程式以允許存取。如果已安裝應用程式,而且您使用範圍存取搭配 [僅選取存放庫] 選項,請選取此存放庫,確定您已包含此存放庫的存取權。
<pickOrCreateNewCredential>
GIT_CLUSTER_NOT_READY
SQLSTATE:未指派
Git 叢集尚未就緒。
GIT_CREDENTIAL_GENERIC_INVALID
SQLSTATE:未指派
存放庫 URL 的 Git 提供者認證 <repoUrl>無效。
憑證<credentialName> (<credentialId>)已使用<because>。
這個 Git 憑證的提供者是 <gitCredentialProvider> ,電子郵件/使用者名稱是 <gitCredentialUsername>。
請移至您的遠端 Git 提供者,以確保:
您已使用您的 Git 提供者認證輸入正確的 Git 使用者電子郵件或使用者名稱。
你的代幣擁有正確的倉庫存取權限。
您的令牌尚未過期。
如果您已啟用 Git 提供者的 SSO,請務必授權您的令牌。
<pickOrCreateNewCredential>
GIT_CREDENTIAL_INVALID_PAT
SQLSTATE:未指派
存放庫 URL <repoUrl>的 Git 提供者個人存取令牌認證無效。
使用憑證<credentialName> (<credentialId>)<because>了。
這個 Git 憑證的提供者是 <gitCredentialProvider> ,電子郵件/使用者名稱是 <gitCredentialUsername>。
請移至您的遠端 Git 提供者,以確保:
您已使用您的 Git 提供者認證輸入正確的 Git 使用者電子郵件或使用者名稱。
你的代幣擁有正確的倉庫存取權限。
您的令牌尚未過期。
如果您已啟用 Git 提供者的 SSO,請務必授權您的令牌。
<pickOrCreateNewCredential>
.
GIT_CREDENTIAL_MISSING
SQLSTATE:未指派
未設定 Git 憑證,但此存放庫需要憑證(<repoUrl>)。
移至 [用戶設定 > ][Git 整合],以設定您的 Git 認證。
GIT_CREDENTIAL_NO_WRITE_PERMISSION
SQLSTATE:未指派
未授予 <gitCredentialProvider> 儲存庫(<repoUrl>)的寫入權限。
<credentialName> (<credentialId>)憑證被使用<because>了。
這個 Git 憑證的提供者是 <gitCredentialProvider> ,電子郵件/使用者名稱是 <gitCredentialUsername>。
請確定您 (<gitCredentialUsername>) 具有此遠端存放庫的寫入許可權。
GIT_CREDENTIAL_PROVIDER_MISMATCHED
SQLSTATE:未指派
存放庫的 Git 認證提供者不正確。
你沒有與倉庫的 Git 提供者<repoUrl>相符的 Git 憑證<repositoryGitProvider>。
到使用者設定 > 中的 Git 整合,為 Git 提供者 <repositoryGitProvider>建立新的憑證。
GIT_檔案名稱過長
SQLSTATE:未指派
路徑 <path> 中的檔案或資料夾名稱超過 <maxComponentBytes>每個元件的 -byte 最大值。
Unix 型系統僅支援每個檔案或資料夾名稱最多 <maxComponentBytes> 位元組。
違反: <violations>
請縮短違規元件以繼續進行。
GIT_PROVIDER_INFO_MISSING
SQLSTATE:未指派
Git 提供者資訊缺失或空白。
請新增 git 憑證資訊並重新嘗試。
如果問題持續發生,請提出支援請求。
GIT_PROXY_CLUSTER_NOT_READY
SQLSTATE:未指派
Git Proxy 叢集尚未就緒。
GIT_PROXY_CONNECTION_FAILED
SQLSTATE:未指派
無法連線到 Git Proxy,請檢查 Git Proxy 是否已啟動並執行。
錯誤:<error>
GIT_SECRET_IN_CODE
SQLSTATE:未指派
提交中找到的秘密。 詳細資料: <secretDetail>。 若要修正此錯誤:
拿掉密碼,然後再試一次提交。
如果問題持續發生,請提出支援請求。
GIT_STALE_REMOTE_REFS
SQLSTATE:未指派
Git 擷取已完成,但因檔案系統路徑衝突(例如刪除分支或「feature」與「feature/sub」)無法更新過時的遠端參考。
git 錯誤: <gitErrorMessage>
HIERARCHICAL_NAMESPACE_NOT_ENABLED
SQLSTATE:未指派
Azure 記憶體帳戶未啟用階層命名空間。
INVALID_FIELD_LENGTH
<rpcName> <fieldName> 太長了。 長度上限為 <maxLength> 字元。
INVALID_PARAMETER_VALUE
<msg>
如需詳細資訊,請參閱 INVALID_PARAMETER_VALUE
JOBS_TASK_FRAMEWORK_TASK_RUN_OUTPUT_NOT_FOUND
SQLSTATE:未指派
工作架構:無法找到 runId <runId> 和 orgId <orgId> 的工作的執行輸出。
JOBS_TASK_FRAMEWORK_TASK_RUN_STATE_NOT_FOUND
SQLSTATE:未指派
工作架構:無法找到 runId <runId> 和 orgId <orgId> 的工作執行狀態。
JOBS_TASK_REGISTRY_TASK_CLIENT_CONFIG_DOES_NOT_EXIST
SQLSTATE:未指派
工作 ID <taskId> 的 RPC ClientConfig 不存在。
JOBS_TASK_REGISTRY_TASK_DOES_NOT_EXIST
SQLSTATE:未指派
標識碼 <taskId> 為的工作不存在。
JOBS_TASK_REGISTRY_UNSUPPORTED_JOB_TASK
SQLSTATE:未指派
工作登錄:類別 <taskClassName>不支援或未知的JobTask。
PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_EXTERNAL_SHALLOW_CLONE
SQLSTATE:未指派
不支援外部淺層複製數據表 <tableFullName> 的路徑型存取。 請改用數據表名稱來存取淺層複製。
PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_FABRIC
SQLSTATE:未指派
找不到位於 URL'<url>' 的網狀架構數據表。 請使用 REFRESH FOREIGN CATALOG 命令填入 Fabric 資料表。
PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_TABLES_WITH_ROW_COLUMN_ACCESS_POLICIES
SQLSTATE:未指派
不支援以路徑為基礎的方式存取帶有行篩選或列遮罩的表格 <tableFullName>。
PERMISSION_DENIED
SQLSTATE:未指派
<principalName> 沒有在 <msg> '<resourceType>' 上的 <resourceName>。
REDASH_DELETE_ASSET_HANDLER_INVALID_INPUT
SQLSTATE:未指派
無法剖析刪除物件要求: <invalidInputMsg>
REDASH_DELETE_OBJECT_NOT_IN_TRASH
SQLSTATE:未指派
無法刪除不在垃圾箱中的物件<resourceName>
REDASH_PERMISSION_DENIED
SQLSTATE:未指派
找不到資源或沒有權限存取資源 <resourceId>
REDASH_QUERY_NOT_FOUND
SQLSTATE:未指派
無法從查詢識別碼找到資源 <queryId>
REDASH_QUERY_SNIPPET_CREATION_FAILED
SQLSTATE:未指派
無法建立新的查詢片段
REDASH_QUERY_SNIPPET_QUOTA_EXCEEDED
SQLSTATE:未指派
已達到查詢片段數目的配額。 目前的配額為 <quota>。
REDASH_QUERY_SNIPPET_TRIGGER_ALREADY_IN_USE
SQLSTATE:未指派
指定的觸發器 <trigger> 已被此工作區中的另一個查詢片段使用。
REDASH_RESOURCE_NOT_FOUND
SQLSTATE:未指派
要求的資源 <resourceName> 不存在
REDASH_RESTORE_ASSET_HANDLER_INVALID_INPUT
SQLSTATE:未指派
無法剖析刪除物件要求: <invalidInputMsg>
REDASH_RESTORE_OBJECT_NOT_IN_TRASH
SQLSTATE:未指派
無法還原不在垃圾桶中的物件<resourceName>
REDASH_TRASH_OBJECT_ALREADY_IN_TRASH
SQLSTATE:未指派
無法刪除已刪除的物件 <resourceName>
REDASH_UNABLE_TO_GENERATE_RESOURCE_NAME
SQLSTATE:未指派
無法從識別碼產生資源名稱 <id>
REDASH_VISUALIZATION_CREATION_FAILED
SQLSTATE:未指派
無法建立新的視覺效果
REDASH_VISUALIZATION_NOT_FOUND
SQLSTATE:未指派
找不到視覺效果 <visualizationId>
REDASH_VISUALIZATION_QUOTA_EXCEEDED
SQLSTATE:未指派
已達到查詢 <query_id> 上視覺效果數目的配額。 目前的配額為 <quota>。
REPOSITORY_URL_NOT_FOUND
SQLSTATE:未指派
找不到遠端存放庫 (<repoUrl>)。
使用<credentialName> (<credentialId>)了憑證<because>。
這個 Git 憑證的提供者是 <gitCredentialProvider> ,電子郵件/使用者名稱是 <gitCredentialUsername>。
請移至您的遠端 Git 提供者,以確保:
您的遠端 Git 存放庫 URL 有效。
您的個人存取令牌或應用程式密碼具有正確的存放庫存取權。
<pickOrCreateNewCredential>
RESOURCE_ALREADY_EXISTS
<resourceType> '<resourceIdentifier>' 已經存在
RESOURCE_DOES_NOT_EXIST
<resourceType> '<resourceIdentifier>' 不存在。
ROW_COLUMN_ACCESS_POLICIES_NOT_SUPPORTED_ON_ASSIGNED_CLUSTERS
SQLSTATE:未指派
在指派的叢集上,數據表 <tableFullName> 不支持使用行篩選或列遮罩的查詢。
ROW_COLUMN_SECURITY_NOT_SUPPORTED_WITH_TABLE_IN_DELTA_SHARING
SQLSTATE:未指派
資料表 <tableFullName> 正在與 Delta Sharing 共用,無法使用資料列/資料行安全性。
SERVICE_TEMPORARILY_UNAVAILABLE
SQLSTATE:未指派
服務 <serviceName> 暫時處於維護中。 請稍後再試一次。
TABLE_WITH_ROW_COLUMN_SECURITY_NOT_SUPPORTED_IN_ONLINE_MODE
SQLSTATE:未指派
表格 <tableFullName> 無法同時擁有行/列安全性和在線具體化視圖。
TOO_MANY_ROWS_TO_UPDATE
SQLSTATE:未指派
太多數據列無法更新、中止更新。
UC_ABAC_UNSUPPORTED_TABLE_TYPE
SQLSTATE:未指派
ABAC 政策不支援資料表類型 <tableType>。