Azure Databricks 中的錯誤類別

適用於:檢查標示為是 Databricks SQL 檢查標示為是 Databricks Runtime 12.2 和更新版本

錯誤類別是錯誤條件中唯一的描述性、人類可讀取的字串。

您可以使用錯誤類別,以程式設計方式處理應用程式中的錯誤,而不需要剖析錯誤訊息。

這是 Azure Databricks 傳回的常見具名錯誤條件清單。

Databricks Runtime 和 Databricks SQL

AGGREGATE_FUNCTION_WITH_NONDETERMINISTIC_EXPRESSION

SQLSTATE:42845

不具決定性表達式 <sqlExpr> 不應該出現在聚合函數的自變數中。

AI_FUNCTION_HTTP_PARSE_CAST_ERROR

SQLSTATE: 2203G

無法剖析模型輸出,當轉換成指定的 returnType: “<dataType>”,回應 JSON 為:“<responseString>”。 請更新 returnType 以符合回應 JSON 表示的類型內容,然後再次重試查詢。

AI_FUNCTION_HTTP_PARSE_COLUMNS_ERROR

SQLSTATE: 2203G

實際模型輸出有一個以上的數據行 “<responseString> ” 不過,指定的傳回類型[“”<dataType>] 只有一個數據行。 請更新 returnType,以包含與模型輸出相同的數據行數目,然後再次重試查詢。

AI_FUNCTION_HTTP_REQUEST_ERROR

SQLSTATE: 08000

對函 <funcName>式提出 HTTP 要求時發生錯誤: <errorMessage>

AI_FUNCTION_INVALID_HTTP_RESPONSE

SQLSTATE: 08000

函式的 <funcName>HTTP 回應無效: <errorMessage>

AI_FUNCTION_INVALID_MAX_WORDS

SQLSTATE: 22032

字數上限必須是非負整數,但取得 <maxWords>

AI_FUNCTION_JSON_PARSE_ERROR

SQLSTATE: 22000

剖析函式的 <funcName>JSON 回應時發生錯誤: <errorMessage>

AI_FUNCTION_UNSUPPORTED_ERROR

SQLSTATE:56038

<funcName>目前環境中不支援函式。 它僅適用於 Databricks SQL Pro 和無伺服器。

AI_FUNCTION_UNSUPPORTED_REQUEST

SQLSTATE:0A000

無法評估 SQL 函式 “<functionName>”,因為 提供的 自變數 <invalidValue> 有 “<invalidDataType>”,但只支援下列類型: <supportedDataTypes>。 請更新函式呼叫以提供字串類型的自變數,然後再次重試查詢。

AI_FUNCTION_UNSUPPORTED_RETURN_TYPE

SQLSTATE:0A000

AI 函式:“<functionName>” 不支援下列類型做為傳回類型:“<typeName>”。 傳回型別必須是由 Catalyst 所瞭解且由 AI 函式支援的有效 SQL 類型。 目前支援的類型包括: <supportedValues>

AI_INVALID_ARGUMENT_VALUE_ERROR

SQLSTATE: 22032

自變數 “” 不支援提供的值 “<argValue><argName> ” 支援的值為: <supportedValues>

ALL_PARAMETERS_MUST_BE_NAMED

SQLSTATE:07001

使用名稱參數化查詢需要命名所有參數。 參數缺少名稱: <exprs>

ALL_PARTITION_COLUMNS_NOT_ALLOWED

SQLSTATE: KD005

無法針對數據分割數據行使用所有數據行。

ALTER_TABLE_COLUMN_DESCRIPTOR_DUPLICATE

SQLSTATE: 42710

ALTER TABLE <type> 數據 <columnName> 行會指定描述元 「<optionName>一次以上,這無效。

AMBIGUOUS_ALIAS_IN_NESTED_CTE

SQLSTATE: 42KD0

名稱 <name> 在巢狀 CTE 中模棱兩可。

請將 設定 <config> 為 「CORRECTED」,讓內部 CTE 中定義的名稱優先。 如果將其設定為 「LEGACY」 ,外部 CTE 定義會優先使用。

請參閱 https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine』。

AMBIGUOUS_COLUMN_OR_FIELD

SQLSTATE: 42702

數據行或欄位 <name> 模棱兩可,且具有 <n> 相符專案。

AMBIGUOUS_COLUMN_REFERENCE

SQLSTATE: 42702

數據行 <name> 模棱兩可。 這是因為您已將數個 DataFrame 聯結在一起,而其中一些 DataFrame 相同。

此數據行指向其中一個 DataFrame,但 Spark 無法找出哪一個數據框架。

在聯結數據框架之前,請先透過 以不同的名稱 DataFrame.alias 將 DataFrame 別名。

與使用限定名稱指定資料列,例如 df.alias("a").join(df.alias("b"), col("a.id") > col("b.id"))

AMBIGUOUS_CONSTRAINT

SQLSTATE: 42K0C

條件約束 <constraint>的模棱兩可參考。

AMBIGUOUS_LATERAL_COLUMN_ALIAS

SQLSTATE: 42702

橫向數據行別名 <name> 模棱兩可且相符 <n>

AMBIGUOUS_REFERENCE

SQLSTATE:42704

參考 <name> 模棱兩可,可能是: <referenceNames>

AMBIGUOUS_REFERENCE_TO_FIELDS

SQLSTATE:42000

欄位 <field>的模棱兩可參考。 它會出現 <count> 在架構中的時間。

ANSI_CONFIG_CANNOT_BE_DISABLED

SQLSTATE:56038

此產品中無法停用 ANSI SQL 組態 <config>

ARGUMENT_NOT_CONSTANT

SQLSTATE:42K08

函式 <functionName> 包含 <parameterName> 位置 <pos> 需要常數自變數的參數。 請個別計算自變數 <sqlExpr> ,並以常數的形式傳遞結果。

ARITHMETIC_OVERFLOW

SQLSTATE: 22003

<message>.<alternative> 如有必要,請將 設為 <config> 「false」 以略過此錯誤。

如需詳細資訊,請參閱 ARITHMETIC_OVERFLOW

ASSIGNMENT_ARITY_MISMATCH

SQLSTATE:42802

指派或別名的數據行數或變數數目: <numTarget> 不符合來源表達式的數目: <numExpr>

AS_OF_JOIN

SQLSTATE:42604

聯結時無效。

如需詳細資訊,請參閱 AS_OF_JOIN

AVRO_DEFAULT_VALUES_UNSUPPORTED

SQLSTATE:0A000

啟用時rescuedDataColumn 不支援使用預設值。 您可以藉由將 設定 spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue 為 false 來移除此檢查,但預設值將不會套用,而且仍會使用 Null 值。

AVRO_INCOMPATIBLE_READ_TYPE

SQLSTATE: 22KD3

無法將 Avro <avroPath> 轉換成 SQL <sqlPath> ,因為原始編碼數據類型為 <avroType>,但您嘗試將欄位讀為 <sqlType>,這會導致不正確的答案。

若要允許讀取此字段,請啟用 SQL 組態:「spark.sql.legacy.avro.allowIncompatibleSchema」。

AVRO_POSITIONAL_FIELD_MATCHING_UNSUPPORTED

SQLSTATE:0A000

啟用 或 failOnUnknownFieldsrescuedDataColumn,不支援使用位置欄位比對。 拿掉這些選項以繼續進行。

BATCH_METADATA_NOT_FOUND

SQLSTATE:42K03

找不到批次 <batchMetadataFile>

BIGQUERY_OPTIONS_ARE_MUTUALLY_EXCLUSIVE

SQLSTATE:42616

BigQuery 連線認證必須使用 'GoogleServiceAccountKeyJson' 參數或所有 'projectId'、'OAuthServiceAcctEmail'、'OAuthPvtKey' 指定

BINARY_ARITHMETIC_OVERFLOW

SQLSTATE: 22003

<value1><symbol><value2> 造成溢位。

BUILT_IN_CATALOG

SQLSTATE:42832

<operation> 不支援內建目錄。

CALL_ON_STREAMING_DATASET_UNSUPPORTED

SQLSTATE:42KDE

無法在串流數據集/數據框架上呼叫 方法 <methodName>

CANNOT_ALTER_PARTITION_COLUMN

SQLSTATE: 428FR

ALTER TABLE (ALTER|變更) 資料分割數據行不支援 COLUMN,但在數據表 <tableName>中找到資料分割數據行<columnName>

CANNOT_CAST_DATATYPE

SQLSTATE: 42846

無法轉換成 <sourceType><targetType>

CANNOT_CONVERT_PROTOBUF_FIELD_TYPE_TO_SQL_TYPE

SQLSTATE: 42846

無法將 Protobuf <protobufColumn> 轉換為 SQL <sqlColumn> ,因為架構不相容(protobufType = <protobufType>,sqlType = <sqlType>)。

CANNOT_CONVERT_PROTOBUF_MESSAGE_TYPE_TO_SQL_TYPE

SQLSTATE: 42846

無法將 Protobuf 轉換成 <protobufType> SQL 類型 <toType>

CANNOT_CONVERT_SQL_TYPE_TO_PROTOBUF_FIELD_TYPE

SQLSTATE: 42846

無法將 SQL <sqlColumn> 轉換成 Protobuf <protobufColumn> ,因為架構不相容(protobufType = <protobufType>,sqlType = <sqlType>)。

CANNOT_CONVERT_SQL_VALUE_TO_PROTOBUF_ENUM_TYPE

SQLSTATE: 42846

無法將 SQL <sqlColumn> 轉換成 Protobuf <protobufColumn> ,因為 <data> 不在列舉的已定義值中: <enumString>

CANNOT_COPY_STATE

SQLSTATE: 0AKD0

無法將目前資料庫和暫存檢視等目錄狀態從 Unity 目錄複製到舊版目錄。

CANNOT_CREATE_DATA_SOURCE_TABLE

SQLSTATE:42KDE

無法建立資料來源資料表 <tableName>

如需詳細資訊,請參閱 CANNOT_CREATE_DATA_SOURCE_TABLE

CANNOT_DECODE_URL

SQLSTATE: 22546

提供的 URL 無法譯碼: <url>。 請確定 URL 的格式正確,然後再試一次。

CANNOT_DELETE_SYSTEM_OWNED

SQLSTATE:42832

系統擁有 <resourceType> 無法刪除。

CANNOT_DROP_AMBIGUOUS_CONSTRAINT

SQLSTATE: 42K0C

無法卸除具有 CHECK 條件約束所共用名稱 <constraintName> 的條件約束

和 PRIMARY KEY 或 FOREIGN KEY 條件約束。 您可以卸除 PRIMARY KEY 或

依查詢排序的 FOREIGN KEY 條件約束:

  • ALTER TABLE .. DROP PRIMARY KEY 或
  • ALTER TABLE .. DROP FOREIGN KEY ..

CANNOT_ESTABLISH_CONNECTION

SQLSTATE:08001

無法建立與遠端 <jdbcDialectName> 資料庫的連線。 請檢查連線資訊和認證,例如主機、埠、用戶、密碼和資料庫選項。 ** 如果您認為資訊正確,請檢查工作區的網路設定,並確定它沒有主機的輸出限制。 此外,請檢查主機不會封鎖來自部署工作區 Spark 叢集之網路的輸入連線。 ** 詳細的錯誤訊息: <causeErrorMessage>

CANNOT_ESTABLISH_CONNECTION_SERVERLESS

SQLSTATE:08001

無法建立與遠端 <jdbcDialectName> 資料庫的連線。 請檢查連線資訊和認證,例如主機、埠、用戶、密碼和資料庫選項。 ** 如果您認為資訊正確,請允許從因特網到主機的輸入流量,因為您使用的是無伺服器計算。 如果您的網路原則不允許輸入因特網流量,請使用非無伺服器計算,或者您可以連絡 Databricks 代表,以了解無伺服器專用網。 ** 詳細的錯誤訊息: <causeErrorMessage>

CANNOT_INVOKE_IN_TRANSFORMATIONS

SQLSTATE:0A000

數據集轉換和動作只能由驅動程式叫用,而不是在其他數據集轉換內;例如,dataset1.map(x => dataset2.values.count() * x) 無效,因為無法在 dataset1.map 轉換內執行值轉換和計數動作。 如需詳細資訊,請參閱SPARK-28702。

CANNOT_LOAD_FUNCTION_CLASS

SQLSTATE:46103

註冊函<functionName>式時,無法載入類別<className>,請確定其位於 classpath 上。

CANNOT_LOAD_PROTOBUF_CLASS

SQLSTATE:42K03

無法載入名稱為 <protobufClassName>的 Protobuf 類別。 <explanation>.

CANNOT_LOAD_STATE_STORE

SQLSTATE:58030

載入狀態期間發生錯誤。

如需詳細資訊,請參閱 CANNOT_LOAD_STATE_STORE

CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE

SQLSTATE:42825

無法合併不相容的資料類型 <left><right>。 請檢查要合併之數據行的數據類型,並確定它們相容。 如有必要,請考慮在嘗試合併之前,將數據行轉換成相容的數據類型。

CANNOT_MERGE_SCHEMAS

SQLSTATE: 42KD9

合併架構失敗:

初始架構:

<left>

無法與初始架構合併的架構:

<right>.

CANNOT_MODIFY_CONFIG

SQLSTATE:46110

無法修改 Spark 組態的值: <key>

https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements請參閱 』。

CANNOT_PARSE_DECIMAL

SQLSTATE: 22018

無法剖析十進位。 請確定輸入是具有選擇性小數點或逗號分隔符的有效數位。

CANNOT_PARSE_INTERVAL

SQLSTATE: 22006

無法剖析 <intervalString>。 請確定所提供的值格式有效,以定義間隔。 您可以參考正確格式的檔案。 如果問題持續發生,請仔細檢查輸入值不是 Null 或空白,然後再試一次。

CANNOT_PARSE_JSON_FIELD

SQLSTATE: 2203G

無法剖析功能變數名稱<fieldName>和 JSON 令牌類型的<jsonType><fieldValue>,以將 Spark 資料類型<dataType>設為目標。

CANNOT_PARSE_PROTOBUF_DESCRIPTOR

SQLSTATE: 22018

將描述元位元組剖析為 Protobuf FileDescriptorSet 時發生錯誤。

CANNOT_PARSE_TIMESTAMP

SQLSTATE: 22007

<message>. 如有必要,請將 設為 <ansiConfig> 「false」 以略過此錯誤。

CANNOT_READ_ARCHIVED_FILE

SQLSTATE: KD003

無法讀取路徑 <path> 的檔案,因為它已封存。 請調整查詢篩選條件,以排除封存的檔案。

CANNOT_READ_FILE

SQLSTATE: KD003

無法讀取 <format> 路徑的檔案: <path>

如需詳細資訊,請參閱 CANNOT_READ_FILE

SQLSTATE: KD001

無法讀取檔案的頁尾: <file>。 請確定檔案為 ORC 或 Parquet 格式。

如果沒有,請將它轉換成有效的格式。 如果檔案的格式有效,請檢查檔案是否損毀。

如果是,您可以選擇忽略它或修正損毀。

CANNOT_READ_SENSITIVE_KEY_FROM_SECURE_PROVIDER

SQLSTATE:42501

無法從安全提供者讀取敏感性密鑰 '<key>'。

CANNOT_RECOGNIZE_HIVE_TYPE

SQLSTATE: 429BB

無法辨識 Hive 類型字串: <fieldType>、數據行: <fieldName>。 Spark SQL 無法辨識欄位的指定資料類型。 請檢查指定欄位的數據類型,並確定它是有效的 Spark SQL 資料類型。 如需有效數據類型及其格式的清單,請參閱 Spark SQL 檔。 如果數據類型正確,請確定您使用的是支援的Spark SQL版本。

CANNOT_REFERENCE_UC_IN_HMS

SQLSTATE: 0AKD0

無法在 Hive 中繼存放區物件中參考 Unity 目錄 <objType>

CANNOT_RENAME_ACROSS_CATALOG

SQLSTATE: 0AKD0

不要允許跨目錄重新命名 <type>

CANNOT_RENAME_ACROSS_SCHEMA

SQLSTATE: 0AKD0

不允許跨架構重新命名 <type>

CANNOT_RESOLVE_DATAFRAME_COLUMN

SQLSTATE:42704

無法剖析資料框架資料列 <name>。 這可能是因為類似的 df1.select(df2.col("a"))非法參考。

CANNOT_RESOLVE_STAR_EXPAND

SQLSTATE:42704

無法剖析 <targetString>指定輸入資料列 <columns>的 .* 。 請檢查指定的數據表或結構是否存在,而且可在輸入數據行中存取。

CANNOT_RESTORE_PERMISSIONS_FOR_PATH

SQLSTATE:58030

無法建立路徑 <path> 的權限設定回 <permission>

CANNOT_SAVE_VARIANT

SQLSTATE:0A000

無法將 Variant 資料類型儲存至外部記憶體。

CANNOT_SHALLOW_CLONE_ACROSS_UC_AND_HMS

SQLSTATE: 0AKD0

無法跨 Unity 目錄和 Hive 中繼存放區淺層複製數據表。

CANNOT_SHALLOW_CLONE_NESTED

SQLSTATE: 0AKUC

無法淺層複製已經是淺層複製的數據表 <table>

CANNOT_SHALLOW_CLONE_NON_UC_MANAGED_TABLE_AS_SOURCE_OR_TARGET

SQLSTATE: 0AKUC

只有 MANAGED 資料表類型才支援淺層複製。 數據表 <table> 不是 MANAGED 資料表。

CANNOT_UPDATE_FIELD

SQLSTATE:0A000

無法更新 <table> 欄位 <fieldName> 型態:

如需詳細資訊,請參閱 CANNOT_UPDATE_FIELD

CANNOT_UP_CAST_DATATYPE

SQLSTATE: 42846

無法從 <sourceType><targetType>轉換為 <expression>

<details>

CANNOT_VALIDATE_CONNECTION

SQLSTATE: 08000

不支援連線驗證 <jdbcDialectName> 。 請連絡 Databricks 支援以取得替代解決方案,或將 “spark.databricks.test 連線 ionBeforeCreation” 設定為 “false”,以在建立連接物件之前略過連線測試。

CANNOT_WRITE_STATE_STORE

SQLSTATE:58030

寫入提供者 <providerClass>的狀態存放區檔案時發生錯誤。

如需詳細資訊,請參閱 CANNOT_WRITE_STATE_STORE

CAST_INVALID_INPUT

SQLSTATE: 22018

<sourceType>別的值<expression>無法轉換成 <targetType> ,因為它的格式不正確。 根據語法更正值,或變更其目標類型。 使用 try_cast 來容許格式不正確的輸入,並改為傳回 NULL。 如有必要,請將 設為 <ansiConfig> 「false」 以略過此錯誤。

如需詳細資訊,請參閱 CAST_INVALID_INPUT

CAST_OVERFLOW

SQLSTATE: 22003

因為溢位而無法轉換<targetType><sourceType>別的值<value>。 使用 try_cast 來容許溢位並改為傳回 NULL。 如有必要,請將 設為 <ansiConfig> 「false」 以略過此錯誤。

CAST_OVERFLOW_IN_TABLE_INSERT

SQLSTATE: 22003

因為溢位而無法將 型別的值 <sourceType> 指派給 <targetType> 類型數據行或變數 <columnName> 。 在 try_cast 輸入值上使用 來容許溢位,並改為傳回NULL。

CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND

SQLSTATE:56000

找不到檢查點區塊 <rddBlockId>

原本檢查此分割區的執行程式已不再運作,或原始 RDD 未繼續執行。

如果此問題持續發生,您可能會考慮改用 rdd.checkpoint() ,這比本機檢查點慢,但更容錯。

CLASS_UNSUPPORTED_BY_MAP_OBJECTS

SQLSTATE:0A000

MapObjects 不支援類別 <cls> 作為產生的集合。

CLEANROOM_COMMANDS_NOT_SUPPORTED

SQLSTATE:0A000

不支援 Clean Room 命令

CLEANROOM_INVALID_SHARED_DATA_OBJECT_NAME

SQLSTATE:42K05

在清理室內參考 <type> 的無效名稱。 <type>請遵循 [catalog].[ 格式,在乾淨的房間內使用 's 名稱。[schema]。[<type>]。

如果您不確定要使用的名稱,您可以執行「顯示所有在 CLEANROOM [clean_room]」,並使用 “name” 資料行中的值。

CLOUD_FILE_SOURCE_FILE_NOT_FOUND

SQLSTATE:42K03

已收到檔案的檔案通知: <filePath> 但檔案已不存在。 請確定檔案在處理之前不會刪除。 若要繼續串流,您可以將Spark SQL 組態 <config> 設定為 true。

CODEC_NOT_AVAILABLE

SQLSTATE:56038

<codecName>編解碼器無法使用。 請考慮將群組態 <configKey> 設定為 <configVal>

CODEC_SHORT_NAME_NOT_FOUND

SQLSTATE:42704

找不到編解碼器 <codecName>的簡短名稱。

COLLATION_INVALID_NAME

SQLSTATE:42704

<collationName> 不代表正確的定序名稱。 建議的有效定序名稱: [<proposal>]。

COLLECTION_SIZE_LIMIT_EXCEEDED

SQLSTATE:54000

無法使用超過數位大小限制<maxRoundedArrayLength>的專案來建立數位<numberOfElements>

如需詳細資訊,請參閱 COLLECTION_SIZE_LIMIT_EXCEEDED

COLUMN_ALIASES_NOT_ALLOWED

SQLSTATE:42601

<op>不允許數據行別名。

COLUMN_ALREADY_EXISTS

SQLSTATE:42711

數據行 <columnName> 已經存在。 選擇其他名稱或重新命名現有的數據行。

COLUMN_MASKS_CHECK_CONSTRAINT_UNSUPPORTED

SQLSTATE:0A000

不支援在具有數據行遮罩原則的數據表 <tableName> 上建立 CHECK 條件約束。

COLUMN_MASKS_DUPLICATE_USING_COLUMN_NAME

SQLSTATE:42734

語句 <statementType> 嘗試將數據行遮罩原則指派給包含兩個或多個其他參考數據行的數據行,且名稱 <columnName>相同,無效。

COLUMN_MASKS_FEATURE_NOT_SUPPORTED

SQLSTATE:0A000

不支援 的數據 <tableName> 行遮罩原則:

如需詳細資訊,請參閱 COLUMN_MASKS_FEATURE_NOT_SUPPORTED

COLUMN_MASKS_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE:0A000

無法 <statementType><columnName> 從數據表 <tableName> 參考,因為它在數據 <maskedColumn>行的數據行遮罩原則中參考。 數據表擁有者必須先移除或變更此原則,才能繼續。

COLUMN_MASKS_MERGE_UNSUPPORTED_SOURCE

SQLSTATE:0A000

MERGE INTO 作業不支援源數據表 <tableName>中的數據行遮罩原則。

COLUMN_MASKS_MERGE_UNSUPPORTED_TARGET

SQLSTATE:0A000

MERGE INTO 作業不支援使用數據行遮罩原則寫入數據表 <tableName>

COLUMN_MASKS_MULTI_PART_TARGET_COLUMN_NAME

SQLSTATE:42K05

此語句嘗試將數據行遮罩原則指派給具有多個名稱部分的數據行 <columnName> ,這無效。

COLUMN_MASKS_MULTI_PART_USING_COLUMN_NAME

SQLSTATE:42K05

此語句嘗試將數據行遮罩原則指派給數據行,而USING COLUMNS清單包含 <columnName> 名稱與多個名稱部分,無效。

COLUMN_MASKS_NOT_ENABLED

SQLSTATE:56038

未啟用定義數據行遮罩的支援

COLUMN_MASKS_REQUIRE_UNITY_CATALOG

SQLSTATE:0A000

只有 Unity 目錄中才支援數據行遮罩原則。

COLUMN_MASKS_TABLE_CLONE_SOURCE_NOT_SUPPORTED

SQLSTATE:0A000

<mode> 不支援從具有數據行遮罩原則的數據表 <tableName> 複製。

COLUMN_MASKS_TABLE_CLONE_TARGET_NOT_SUPPORTED

SQLSTATE:0A000

<mode> 不支援使用數據行遮罩原則複製到數據表 <tableName>

COLUMN_MASKS_UNSUPPORTED_CONSTANT_AS_PARAMETER

SQLSTATE: 0AKD1

不支援在數據行遮罩原則中使用常數做為參數。 請更新 SQL 命令,以從數據行遮罩定義中移除常數,然後再次重試命令。

COLUMN_MASKS_UNSUPPORTED_PROVIDER

SQLSTATE:0A000

無法執行 <statementType> 命令,因為使用數據表提供者的目標數據源不支援指派數據行遮罩原則:“<provider>”。

COLUMN_MASKS_UNSUPPORTED_SUBQUERY

SQLSTATE:0A000

無法針對數據表<tableName>執行<operation>,因為它包含一或多個具有子查詢表達式的數據行遮罩原則,但尚不受支援。 請連絡數據表的擁有者以更新數據行遮罩原則,以便繼續。

COLUMN_MASKS_USING_COLUMN_NAME_SAME_AS_TARGET_COLUMN

SQLSTATE:42734

數據行 <columnName> 的名稱與目標數據行相同,無效;請從 USING COLUMNS 清單中移除資料行,然後重試命令。

COLUMN_NOT_DEFINED_IN_TABLE

SQLSTATE:42703

<colType> 數據行 <colName> 未定義於數據表 <tableName>中,定義的數據表數據行為: <tableCols>

COLUMN_NOT_FOUND

SQLSTATE:42703

找不到數據行 <colName> 。 根據 SQL 組態 <caseSensitiveConfig>確認資料行名稱的拼字和正確性。

COMMA_PRECEDING_CONSTRAINT_ERROR

SQLSTATE:42601

非預期的 ',' 在條件約束定義之前。 確定未定義數據行時,條件約束子句不會以逗號開頭。

COMPARATOR_RETURNS_NULL

SQLSTATE: 22004

比較子已傳回 NULL,以便與之間的<firstValue><secondValue>比較。

它應該傳回 「大於」 的正整數,「equal」 為 0,而 「less than」 則傳回負整數。

若要還原為將 NULL 視為 0(等於)的已淘汰行為,您必須將 “spark.sql.legacy.allowNullComparisonResultInArraySort” 設定為 “true”。

CONCURRENT_QUERY

SQLSTATE:0A000

此查詢的另一個實例 [id: <queryId>] 剛由並行會話啟動 [現有的 runId: <existingQueryRunId> 新的 runId: <newQueryRunId>]。

CONCURRENT_STREAM_LOG_UPDATE

SQLSTATE:40000

記錄檔的並行更新。 針對 <batchId>偵測到多個串流作業。

請確定一次只會在特定檢查點位置上執行一個串流作業。

CONFLICTING_PROVIDER

SQLSTATE: 22023

指定的提供者 <provider> 與現有的目錄提供者 <expectedProvider>不一致。 請使用 'USING <expectedProvider>' ,然後重試命令。

CONNECT

SQLSTATE: 56K00

一般 Spark 連線 錯誤。

如需詳細資訊,請參閱 CONNECT

CONNECTION_ALREADY_EXISTS

SQLSTATE:42000

無法建立連線 <connectionName> ,因為它已經存在。

選擇不同的名稱、卸除或取代現有的連線,或新增IF NOT EXISTS子句以容許既有連線。

CONNECTION_NAME_CANNOT_BE_EMPTY

SQLSTATE:42000

無法執行此命令,因為連接名稱必須是非空白的。

CONNECTION_NOT_FOUND

SQLSTATE:42000

無法執行此命令,因為找不到連線名稱 <connectionName>

CONNECTION_OPTION_NOT_SUPPORTED

SQLSTATE:42000

類型 『<connectionType>' 的 連線 不支援下列選項:<optionsNotSupported>。 支援的選項: <allowedOptions>

CONNECTION_TYPE_NOT_SUPPORTED

SQLSTATE:42000

無法建立類型為 『<connectionType>的連線。 支援的連線類型: <allowedTypes>

CONSTRAINTS_REQUIRE_UNITY_CATALOG

SQLSTATE:0A000

只有 Unity 目錄才支援資料表條件約束。

CONVERSION_INVALID_INPUT

SQLSTATE: 22018

<str><fmt>) 無法轉換成 <targetType> ,因為它的格式不正確。 根據語法更正值,或變更其格式。 使用 <suggestion> 來容許格式不正確的輸入,並改為傳回 NULL。

COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON

SQLSTATE:0A000

不合法的設定 <scheme>。 COPY INTO 來源認證目前僅支援 s3/s3n/s3a/wasbs/abfss。

COPY_INTO_CREDENTIALS_REQUIRED

SQLSTATE:42601

COPY INTO 來源認證必須指定 <keyList>

COPY_INTO_DUPLICATED_FILES_COPY_NOT_ALLOWED

SQLSTATE:25000

在並行 COPY INTO 作業中認可重複的檔案。 請稍後再試一次。

COPY_INTO_ENCRYPTION_NOT_ALLOWED_ON

SQLSTATE:0A000

不合法的設定 <scheme>。 COPY INTO 來源加密目前僅支援 s3/s3n/s3a/abfss。

COPY_INTO_ENCRYPTION_NOT_SUPPORTED_FOR_AZURE

SQLSTATE:0A000

COPY INTO 加密僅支援ADLS Gen2或 abfss:// 檔案配置

COPY_INTO_ENCRYPTION_REQUIRED

SQLSTATE:42601

COPY INTO 來源加密必須指定 『<key>』 。

COPY_INTO_ENCRYPTION_REQUIRED_WITH_EXPECTED

SQLSTATE:42601

不合法的加密選項 <requiredKey>。 COPY INTO 來源加密必須指定 '<requiredKey>' = ''<keyValue>

COPY_INTO_NON_BLIND_APPEND_NOT_ALLOWED

SQLSTATE:25000

附加數據以外的 COPY INTO 不允許與其他交易同時執行。 請稍後再試一次。

COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED

SQLSTATE:25000

COPY INTO 無法載入其狀態,超過重試次數上限。

COPY_INTO_SCHEMA_MISMATCH_WITH_TARGET_TABLE

SQLSTATE:42KDG

在複製到 Delta 資料表時偵測到架構不符(資料表: <table>)。

這可能表示傳入數據有問題,或者 Delta 資料表架構可以藉由設定來根據傳入數據自動進化:

COPY_OPTIONS ('mergeSchema' = 'true')

架構差異:

<schemaDiff>

COPY_INTO_SOURCE_FILE_FORMAT_NOT_SUPPORTED

SQLSTATE:0A000

來源檔案的格式必須是 CSV、JSON、AVRO、ORC、PARQUET、TEXT 或 BINARYFILE 的其中一個。 在 Delta 資料表上使用 COPY INTO,因為來源不受支援,因為 OPTIMIZE 作業之後可能會內嵌重複的數據。 您可以執行 SQL 命令 set spark.databricks.delta.copyInto.formatCheck.enabled = false來關閉這項檢查。

COPY_INTO_SOURCE_SCHEMA_INFERENCE_FAILED

SQLSTATE: 42KD9

來源目錄不包含任何類型的 <format>可剖析檔案。 請檢查 『<source>' 的內容。

COPY_INTO_SYNTAX_ERROR

SQLSTATE:42601

無法剖析 COPY INTO 命令。

如需詳細資訊,請參閱 COPY_INTO_SYNTAX_ERROR

CREATE_OR_REFRESH_MV_ST_ASYNC

SQLSTATE:0A000

無法建立或重新整理已指定 ASYNC 的具體化檢視或串流數據表。 請從 CREATE 或 REFRESH 語句中移除 ASYNC,或使用 REFRESH ASYNC 以異步方式重新整理現有的具體化檢視或串流數據表。

CREATE_PERMANENT_VIEW_WITHOUT_ALIAS

SQLSTATE:0A000

不允許建立永久檢視 <name> ,而不需明確指派表達式 <attr>的別名。

CREATE_TABLE_COLUMN_DESCRIPTOR_DUPLICATE

SQLSTATE: 42710

CREATE TABLE 數據行 <columnName> 會指定一次以上的描述元 “<optionName>”,這無效。

CREATE_VIEW_COLUMN_ARITY_MISMATCH

SQLSTATE:21S01

無法建立檢視 <viewName>,原因是

如需詳細資訊,請參閱 CREATE_VIEW_COLUMN_ARITY_MISMATCH

CREDENTIAL_MISSING

SQLSTATE:42601

建立或更新外部位置時,請提供認證。

CSV_ENFORCE_SCHEMA_NOT_SUPPORTED

SQLSTATE:0A000

使用 rescuedDataColumnfailOnUnknownFields時,無法設定 CSV 選項enforceSchema,因為數據行是以名稱而非序數讀取。

CYCLIC_FUNCTION_REFERENCE

SQLSTATE:42887

偵測到迴圈函數參考: <path>

DATABRICKS_DELTA_NOT_ENABLED

SQLSTATE:56038

您的帳戶中未啟用 Databricks Delta。<hints>

DATATYPE_MISMATCH

SQLSTATE:42K09

因為資料類型不符而無法解析 <sqlExpr>

如需詳細資訊,請參閱 DATATYPE_MISMATCH

DATATYPE_MISSING_SIZE

SQLSTATE: 42K01

DataType <type> 需要長度參數,例如 <type>(10)。 請指定長度。

DATA_LINEAGE_SECURE_VIEW_LEAF_NODE_HAS_NO_RELATION

SQLSTATE:25000

寫入歷程失敗:缺少與CLM/RLS原則對應的關聯。

DATA_SOURCE_ALREADY_EXISTS

SQLSTATE: 42710

數據源 『<provider>' 已經存在。 請選擇新資料來源的不同名稱。

DATA_SOURCE_NOT_EXIST

SQLSTATE:42704

找不到資料源 』<provider>。 請確定數據源已註冊。

DATA_SOURCE_NOT_FOUND

SQLSTATE: 42K02

找不到數據源: <provider>。 請確定提供者名稱正確,且套件已正確註冊並與您的Spark版本相容。

DATA_SOURCE_OPTION_CONTAINS_INVALID_CHARACTERS

SQLSTATE: 42602

選項 <option> 不能是空的,而且不應該包含無效的字元、查詢字串或參數。

DATA_SOURCE_OPTION_IS_REQUIRED

SQLSTATE:42601

需要選項 <option>

DATA_SOURCE_TABLE_SCHEMA_MISMATCH

SQLSTATE:42K03

數據源數據表的架構不符合預期的架構。 如果您使用 DataFrameReader.schema API 或建立數據表,請避免指定架構。

資料來源架構: <dsSchema>

預期的架構: <expectedSchema>

DATA_SOURCE_URL_NOT_ALLOWED

SQLSTATE:42KDB

數據源選項中不允許 JDBC URL,請改為指定 'host'、'port' 和 'database' 選項。

DATETIME_OVERFLOW

SQLSTATE:22008

日期時間作業溢位: <operation>

DC_CONNECTION_ERROR

SQLSTATE: KD000

無法連線至資料來源 <sourceName>。 錯誤碼:<errorCode>

如需詳細資訊,請參閱 DC_CONNECTION_ERROR

DC_CONNECTOR_ERROR

SQLSTATE: KD000

數據源 <sourceName>中發生錯誤。 錯誤碼:<errorCode>

如需詳細資訊,請參閱 DC_CONNECTOR_ERROR

DC_FEATURE_NOT_ENABLED

SQLSTATE:0A000

<feature> 未啟用。 請參閱 <action>

DC_FILE_BACKUP_NOT_FOUND

SQLSTATE: KD000

區塊管理員遺失數據,而且沒有文件備份。 請重新整理管線。

DC_GA4_RAW_DATA_ERROR

SQLSTATE: KD000

GA4 原始數據連接器呼叫中發生錯誤,errorCode: <errorCode>

如需詳細資訊,請參閱 DC_GA4_RAW_DATA_ERROR

DC_INVALID_OFFSET

SQLSTATE: KD000

無法剖析位移 <offset> 或找不到位移。 請從新的檢查點目錄重新啟動查詢。

DC_SFDC_API_DAILY_QUOTA_THRESHOLD_EXCEEDED

SQLSTATE: KD000

您已超過 設定的<sourceName>每日 API 配額 (<type>) 。

目前的使用量: <usage>、已設定的配額: <quota>

請增加 Salesforce 中的配額,或更新設定的閾值。

DC_SFDC_API_ERROR

SQLSTATE: KD000

salesforce API 呼叫中發生錯誤,errorCode: <errorCode>

如需詳細資訊,請參閱 DC_SFDC_API_ERROR

DC_SQLSERVER_ERROR

SQLSTATE: KD000

SQL Server 連接器中發生錯誤。

如需詳細資訊,請參閱 DC_SQLSERVER_ERROR

DC_UNSUPPORTED_ERROR

SQLSTATE:0A000

數據源 <sourceName>中發生不支援的錯誤。

如需詳細資訊,請參閱 DC_UNSUPPORTED_ERROR

DC_WORKDAY_RAAS_API_ERROR

SQLSTATE: KD000

Workday RAAS API 呼叫中發生錯誤,errorCode: <errorCode>

如需詳細資訊,請參閱 DC_WORKDAY_RAAS_API_ERROR

DECIMAL_PRECISION_EXCEEDS_MAX_PRECISION

SQLSTATE: 22003

十進位有效位數超過最大有效 <precision> 位數 <maxPrecision>

DEFAULT_DATABASE_NOT_EXISTS

SQLSTATE:42704

預設資料庫 <defaultDatabase> 不存在,請先建立它,或將預設資料庫變更為 <defaultDatabase>

DEFAULT_FILE_NOT_FOUND

SQLSTATE:42K03

基礎檔案可能已更新。 您可以在 SQL 中執行 'REFRESH TABLE tableName' 命令,或重新建立相關的數據集/數據框架,以明確使 Spark 中的快取失效。 如果磁碟快取過時或基礎檔案已移除,您可以重新啟動叢集,手動使磁碟快取失效。

DEFAULT_PLACEMENT_INVALID

SQLSTATE: 42608

MERGE、INSERT、UPDATE 或 SET VARIABLE 命令中的 DEFAULT 關鍵詞無法直接指派給目標數據行,因為它是表達式的一部分。

例如: UPDATE SET c1 = DEFAULT 是允許的,但 UPDATE T SET c1 = DEFAULT + 1 不允許。

DIFFERENT_DELTA_TABLE_READ_BY_STREAMING_SOURCE

SQLSTATE:55019

串流查詢是從非預期的 Delta 數據表讀取的(id = '<newTableId>')。

它用來根據檢查點從另一個 Delta 數據表讀取(id = ''<oldTableId>)。

當您將程式代碼變更為從新數據表讀取,或您刪除和時,可能會發生這種情況。

重新建立數據表。 請還原變更或刪除串流查詢檢查點

以從頭開始重新啟動。

DISTINCT_WINDOW_FUNCTION_UNSUPPORTED

SQLSTATE:0A000

不支援不同的視窗函式: <windowExpr>

DIVIDE_BY_ZERO

SQLSTATE:22012

除數為零。 使用 try_divide 來容許 0 的除數,並改為傳回 NULL。 如有必要,請將 設為 <config> 「false」 以略過此錯誤。

如需詳細資訊,請參閱 DIVIDE_BY_ZERO

DLT_EXPECTATIONS_NOT_SUPPORTED

SQLSTATE:56038

只有在 Delta Live Tables 管線內才支持預期。

DLT_VIEW_CLUSTER_BY_NOT_SUPPORTED

SQLSTATE:56038

只有 Delta Live Tables 管線才支援具有 CLUSTER BY 子句的 MATERIALIZED VIEW。

DLT_VIEW_LOCATION_NOT_SUPPORTED

SQLSTATE:56038

只有 Delta Live Tables 管線才支援 MATERIALIZED VIEW 位置。

DLT_VIEW_SCHEMA_WITH_TYPE_NOT_SUPPORTED

SQLSTATE:56038

只有 Delta Live Tables 管線才支援具有指定類型的 MATERIALIZED VIEW 架構。

DLT_VIEW_TABLE_CONSTRAINTS_NOT_SUPPORTED

SQLSTATE:56038

檢視中的 CONSTRAINT 子句僅支援 Delta Live Tables 管線。

DUPLICATED_FIELD_NAME_IN_ARROW_STRUCT

SQLSTATE:42713

不允許箭頭結構中的重複功能變數名稱,取得 <fieldNames>

DUPLICATED_MAP_KEY

SQLSTATE:23505

找到重複的對應索引鍵 <key> ,請檢查輸入數據。

如果您想要移除重複的索引鍵,您可以將 設定 <mapKeyDedupPolicy> 為 「LAST_WIN」,讓最後插入的索引鍵優先。

DUPLICATED_METRICS_NAME

SQLSTATE: 42710

計量名稱不是唯一的: <metricName>。 同名不能用於具有不同結果的計量。

不過,允許具有相同結果和名稱的多個計量實例(例如自我聯結)。

DUPLICATE_ASSIGNMENTS

SQLSTATE:42701

數據行或變數 <nameList> 會多次顯示為指派目標。

DUPLICATE_CLAUSES

SQLSTATE:42614

找到重複的子句: <clauseName>。 請移除其中一個。

DUPLICATE_KEY

SQLSTATE:23505

找到重複的索引鍵 <keyColumn>

DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT

SQLSTATE: 4274K

對函 <functionName> 式的呼叫無效,因為它包含相同參數名稱 <parameterName>的多個自變數指派。

如需詳細資訊,請參閱 DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT

DUPLICATE_ROUTINE_PARAMETER_NAMES

SQLSTATE:42734

在使用者定義例程 <routineName>的參數清單中找到重複的名稱: <names>

DUPLICATE_ROUTINE_RETURNS_COLUMNS

SQLSTATE:42711

在使用者定義的例程 <routineName>的 RETURNS 子句數據行清單中找到重複的數據行: <columns>

EMPTY_JSON_FIELD_VALUE

SQLSTATE:42604

無法剖析資料類型 <dataType>的空字串。

EMPTY_LOCAL_FILE_IN_STAGING_ACCESS_QUERY

SQLSTATE: 22023

暫存 <operation> 查詢中的空白本機檔案

ENCODER_NOT_FOUND

SQLSTATE:42704

找不到類型為 Spark SQL 內部表示法的 <typeName> 編碼器。

請考慮將輸入類型變更為 『<docroot>/sql-ref-datatypes.html』 支援的其中一種。

END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_LATEST_WITH_TRIGGER_AVAILABLENOW

SQLSTATE: KD000

Kafka 主題(s) 中的部分分割區會報告可用的位移,在使用 Trigger.AvailableNow 執行查詢期間,該位移小於結束位移。 此錯誤可能是暫時性的 - 重新啟動查詢,如果您仍然看到相同的問題,請回報。

latest offset: <latestOffset>, end offset: <endOffset>

END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_PREFETCHED

SQLSTATE: KD000

針對具有 Trigger.AvailableNow 的 Kafka 數據源,每個主題數據分割的結束位移應該低於或等於預先擷取的位移。 此錯誤可能是暫時性的 - 重新啟動查詢,如果您仍然看到相同的問題,請回報。

預先擷取的位移: <prefetchedOffset>、結束位移: <endOffset>

ERROR_READING_AVRO_UNKNOWN_FINGERPRINT

SQLSTATE: KD00B

讀取 avro 數據時發生錯誤 - 遇到未知的指紋: <fingerprint>,不確定要使用的架構。

如果您在啟動 Spark 內容之後註冊了其他架構,就可能會發生這種情況。

EVENT_LOG_REQUIRES_SHARED_COMPUTE

SQLSTATE:42601

無法從指派或無隔離共用叢集查詢事件記錄檔,請改用共用叢集或 Databricks SQL 倉儲。

EVENT_LOG_UNAVAILABLE

SQLSTATE:55019

沒有事件記錄檔可供 使用 <tableOrPipeline>。 在產生事件之後,請稍後再試一次

EVENT_LOG_UNSUPPORTED_TABLE_TYPE

SQLSTATE:42832

的數據表型態 <tableIdentifier><tableType>

查詢事件記錄僅支持具體化檢視、串流數據表或 Delta 實時數據表管線

EVENT_TIME_IS_NOT_ON_TIMESTAMP_TYPE

SQLSTATE:42K09

事件時間 <eventName> 的類型無效 <eventType>,但必須是 “TIMESTAMP ” ”

EXCEED_LIMIT_LENGTH

SQLSTATE:54006

超過 char/varchar 類型長度限制: <limit>

EXCEPT_NESTED_COLUMN_INVALID_TYPE

SQLSTATE: 428H2

EXCEPT 資料行 <columnName> 已解析且預期為 StructType,但找到類型 <dataType>

EXCEPT_OVERLAPPING_COLUMNS

SQLSTATE: 42702

EXCEPT 清單中的數據行必須相異且不重疊,但取得 (<columns>)。

EXCEPT_RESOLVED_COLUMNS_WITHOUT_MATCH

SQLSTATE:42703

EXCEPT 資料行 [<exceptColumns>] 已解析,但與星號展開中的任何數據行 [<expandedColumns>] 不相符。

EXCEPT_UNRESOLVED_COLUMN_IN_STRUCT_EXPANSION

SQLSTATE:42703

無法解析 EXCEPT 子句中的數據行/功能變數名稱 <objectName> 。 您是否表示下列其中一項: [<objectList>]?

注意:在結構展開期間,EXCEPT 子句中的巢狀數據行不得包含限定符(數據表名稱、父結構數據行名稱等)。如果限定符與巢狀數據行搭配使用,請嘗試移除限定符。

EXECUTOR_BROADCAST_JOIN_OOM

SQLSTATE:53200

記憶體不足,無法建置廣播關聯 <relationClassName>。 關聯大小 = <relationSize>。 組建端隨機大小 = <shuffleSize>。 這個工作所使用的記憶體總計 = <taskMemoryUsage>。 執行程式記憶體管理員計量:onHeapExecutionMemoryUsed = <onHeapExecutionMemoryUsed>、offHeapExecutionMemoryUsed = <offHeapExecutionMemoryUsed>、onHeap 儲存體 MemoryUsed = <onHeapStorageMemoryUsed>、offHeap 儲存體 MemoryUsed = <offHeapStorageMemoryUsed>。 [shuffleId: <shuffleId>]

EXEC_IMMEDIATE_DUPLICATE_ARGUMENT_ALIASES

SQLSTATE:42701

這個 EXECUTE IMMEDIATE 命令的 USING 子句包含多個具有相同別名的自變數 (<aliases>),這無效;請更新命令以指定唯一別名,然後再試一次。

EXPECT_PERMANENT_VIEW_NOT_TEMP

SQLSTATE:42809

'<operation>' 預期會有永久檢視,但 <viewName> 為暫存檢視。

EXPECT_TABLE_NOT_VIEW

SQLSTATE:42809

'<operation>' 預期數據表,但 <viewName> 為檢視。

如需詳細資訊,請參閱 EXPECT_TABLE_NOT_VIEW

EXPECT_VIEW_NOT_TABLE

SQLSTATE:42809

資料表 <tableName> 不支援 <operation>

如需詳細資訊,請參閱 EXPECT_VIEW_NOT_TABLE

EXPRESSION_DECODING_FAILED

SQLSTATE: 42846

無法將數據列譯碼為表達式的值: <expressions>

EXPRESSION_ENCODING_FAILED

SQLSTATE: 42846

無法將表達式 <expressions> 的值編碼為數據列。

EXPRESSION_TYPE_IS_NOT_ORDERABLE

SQLSTATE: 42822

無法排序數據行表示式 <expr> ,因為其類型 <exprType> 無法排序。

EXTERNAL_TABLE_INVALID_SCHEME

SQLSTATE:0A000

外部數據表不支援配置 <scheme>

FABRIC_REFRESH_INVALID_SCOPE

SQLSTATE:0A000

執行 'REFRESH FOREIGN <scope><name>' 時發生錯誤。 無法直接重新整理網狀架構 <scope> ,請改用「重新整理外部目錄 <catalogName>」來重新整理網狀架構目錄。

FAILED_EXECUTE_UDF

SQLSTATE:39000

用戶定義函數 (: (<functionName><signature>) =><result>) 失敗,因為:<reason>

FAILED_FUNCTION_CALL

SQLSTATE:38000

無法準備 <funcName> 函式以進行呼叫。 請仔細檢查函式的自變數。

FAILED_JDBC

SQLSTATE: HV000

工作上的 JDBC <url> 失敗:

如需詳細資訊,請參閱 FAILED_JDBC

FAILED_PARSE_STRUCT_TYPE

SQLSTATE: 22018

剖析結構失敗: <raw>

FAILED_REGISTER_CLASS_WITH_KRYO

SQLSTATE: KD000

無法向 Kryo 註冊類別。

FAILED_RENAME_PATH

SQLSTATE:42K04

無法重新命名 <sourcePath><targetPath> 目的地已經存在。

FAILED_RENAME_TEMP_FILE

SQLSTATE:58030

無法將暫存盤重新 <srcPath> 命名為 <dstPath> FileSystem.rename 傳回 false。

FEATURE_NOT_ON_CLASSIC_WAREHOUSE

SQLSTATE:56038

<feature> 傳統 SQL 倉儲不支援。 若要使用這項功能,請使用 Pro 或無伺服器 SQL 倉儲。 若要深入瞭解倉儲類型,請參閱 <docLink>

FEATURE_REQUIRES_UC

SQLSTATE: 0AKUD

<feature> 不支援沒有 Unity 目錄。 若要使用此功能,請啟用 Unity 目錄。 若要深入瞭解 Unity 目錄,請參閱 <docLink>

FEATURE_UNAVAILABLE

SQLSTATE:56038

<feature> 在您的環境中不受支援。 若要使用此功能,請連絡 Databricks 支援。

FIELDS_ALREADY_EXISTS

SQLSTATE: 42710

無法 <op> 數據行,因為 <fieldNames> 已存在於 <struct>中。

FIELD_NOT_FOUND

SQLSTATE:42704

<fields>沒有這類結構欄位<fieldName>

FILE_IN_STAGING_PATH_ALREADY_EXISTS

SQLSTATE:42K04

暫存路徑 <path> 中的檔案已經存在,但未設定 OVERWRITE

FORBIDDEN_OPERATION

SQLSTATE:42809

不允許在 上<objectType>執行此工作<statement><objectName>

FOREACH_BATCH_USER_FUNCTION_ERROR

SQLSTATE:39000

foreach 批次接收中使用者提供的函式發生錯誤。 原因: <reason>

FOREIGN_KEY_MISMATCH

SQLSTATE:42830

外鍵父 <parentColumns> 資料列不符合主鍵子資料列 <childColumns>

FOREIGN_OBJECT_NAME_CANNOT_BE_EMPTY

SQLSTATE:42000

無法執行此命令,因為外部 <objectType> 名稱必須是非空白的。

FOUND_MULTIPLE_DATA_SOURCES

SQLSTATE: 42710

偵測到名稱為 『<provider>' 的多個數據源。 請檢查數據源未同時註冊並位於 classpath 中。

FROM_JSON_CONFLICTING_SCHEMA_UPDATES

SQLSTATE:42601

from_json推斷在下列情況發生衝突的架構更新: <location>

FROM_JSON_CORRUPT_RECORD_COLUMN_IN_SCHEMA

SQLSTATE:42601

from_json找到 columnNameOfCorruptRecord (<columnNameOfCorruptRecord>) present

在 JSON 物件中,無法再繼續。 請為 設定不同的值

選項 'columnNameOfCorruptRecord'。

FROM_JSON_CORRUPT_SCHEMA

SQLSTATE:42601

from_json推斷無法讀取儲存在: <location>

FROM_JSON_INFERENCE_FAILED

SQLSTATE:42601

from_json無法推斷架構。 請改為提供一個。

FROM_JSON_INFERENCE_NOT_SUPPORTED

SQLSTATE:0A000

只有在定義串流數據表時,才支援from_json推斷

FROM_JSON_INVALID_CONFIGURATION

SQLSTATE:42601

from_json組態無效:

如需詳細資訊,請參閱 FROM_JSON_INVALID_CONFIGURATION

FROM_JSON_SCHEMA_EVOLUTION_FAILED

SQLSTATE: 22KD3

from_json無法從 <old> 進化到 <new>

GENERATED_COLUMN_WITH_DEFAULT_VALUE

SQLSTATE: 42623

數據行不能同時有預設值和產生表達式,但數據<colName>行具有預設值:() 和產生表達式:(<defaultValue><genExpr>)。

GET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION

SQLSTATE:56038

Hive 2.2 和較低版本不支援 getTablesByType。 請使用Hive 2.3或更高版本。

GRAPHITE_SINK_INVALID_PROTOCOL

SQLSTATE: KD000

無效的 Graphite 通訊協定: <protocol>

GRAPHITE_SINK_PROPERTY_MISSING

SQLSTATE: KD000

Graphite 接收需要 '<property>' 屬性。

GROUPING_COLUMN_MISMATCH

SQLSTATE:42803

在群組<groupingColumns>數據列 中找不到群組數據行 (<grouping>) 的數據行。

GROUPING_ID_COLUMN_MISMATCH

SQLSTATE:42803

grouping_id (<groupingIdColumn>) 的數據行與群組數據行 (<groupByColumns>) 不符。

GROUPING_SIZE_LIMIT_EXCEEDED

SQLSTATE:54000

叢組集大小不能大於 <maxSize>

GROUP_BY_AGGREGATE

SQLSTATE:42903

GROUP BY 中不允許聚合函數,但找到 <sqlExpr>

如需詳細資訊,請參閱 GROUP_BY_AGGREGATE

GROUP_BY_POS_AGGREGATE

SQLSTATE:42903

GROUP BY <index> 是指包含聚合函數的表達式 <aggExpr> 。 GROUP BY 中不允許聚合函數。

GROUP_BY_POS_OUT_OF_RANGE

SQLSTATE:42805

GROUP BY 位置 <index> 不在選取清單中(有效範圍是 [1, <size>])。

GROUP_EXPRESSION_TYPE_IS_NOT_ORDERABLE

SQLSTATE: 42822

表達式 <sqlExpr> 無法當做群組表達式使用,因為其數據類型 <dataType> 不是可排序的數據類型。

HLL_INVALID_INPUT_SKETCH_BUFFER

SQLSTATE: 22546

對 無效的 <function>呼叫;僅支援有效的 HLL 草圖緩衝區做為輸入(例如函式所產生的 hll_sketch_agg 輸入)。

HLL_INVALID_LG_K

SQLSTATE: 22546

<function>的呼叫無效;值lgConfigK必須介於 和 <max>之間<min>,內含:<value>

HLL_UNION_DIFFERENT_LG_K

SQLSTATE: 22000

素描有不同的 lgConfigK 值: <left><right>。 將 allowDifferentLgConfigK 參數設定為 true,以使用不同的lgConfigK值呼叫<function>

IDENTIFIER_TOO_MANY_NAME_PARTS

SQLSTATE:42601

<identifier> 不是有效的標識碼,因為它有超過 2 個名稱部分。

INCOMPARABLE_PIVOT_COLUMN

SQLSTATE:42818

不合法的樞紐資料列 <columnName>。 樞紐數據行必須是可比較的。

INCOMPATIBLE_COLUMN_TYPE

SQLSTATE:42825

<operator> 只能在具有相容數據行類型的數據表上執行。 數據表<columnOrdinalNumber>的數據行類型<dataType1>與第一個 table<hint> 的相同數據行不相容<dataType2><tableOrdinalNumber>

INCOMPATIBLE_DATASOURCE_REGISTER

SQLSTATE:56038

偵測到不相容的DataSourceRegister。 請從 classpath 移除不相容的連結庫,或將其升級。 錯誤: <message>

INCOMPATIBLE_DATA_FOR_TABLE

SQLSTATE: KD000

無法寫入資料表 <tableName>的不相容資料:

如需詳細資訊,請參閱 INCOMPATIBLE_DATA_FOR_TABLE

INCOMPATIBLE_JOIN_TYPES

SQLSTATE: 42613

聯結類型 <joinType1><joinType2> 不相容。

INCOMPATIBLE_VIEW_SCHEMA_CHANGE

SQLSTATE:51024

檢視 <viewName> 的 SQL 查詢具有不相容的架構變更,且無法解析數據行 <colName> 。 名為 但取得 的預期<expectedNum>數據行<colName><actualCols>

請執行 下列命令,嘗試重新建立檢視: <suggestion>

INCOMPLETE_TYPE_DEFINITION

SQLSTATE: 42K01

不完整的複雜類型:

如需詳細資訊,請參閱 INCOMPLETE_TYPE_DEFINITION

INCONSISTENT_BEHAVIOR_CROSS_VERSION

SQLSTATE: 42K0B

由於升級至 ,您可能會收到不同的結果

如需詳細資訊,請參閱 INCONSISTENT_BEHAVIOR_CROSS_VERSION

INCORRECT_NUMBER_OF_ARGUMENTS

SQLSTATE:42605

<failure><functionName> 至少 <minArgs> 需要自變數和最多 <maxArgs> 自變數。

INCORRECT_RAMP_UP_RATE

SQLSTATE: 22003

具有 <rowsPerSecond> rowsPerSecond 的最大位移為 <maxSeconds>,但 'rampUpTimeSeconds' 為 <rampUpTimeSeconds>

INDEX_ALREADY_EXISTS

SQLSTATE: 42710

無法在數據表<tableName>上建立索引<indexName>,因為它已經存在。

INDEX_NOT_FOUND

SQLSTATE:42704

在數據表 <tableName>上找不到索引<indexName>

INFINITE_STREAMING_TRIGGER_NOT_SUPPORTED

SQLSTATE:0A000

此叢集類型 <trigger> 不支援觸發程序類型。

使用不同的觸發程式類型,例如 AvailableNow、Once。

INSERT_COLUMN_ARITY_MISMATCH

SQLSTATE:21S01

無法寫入 , <tableName>原因為

如需詳細資訊,請參閱 INSERT_COLUMN_ARITY_MISMATCH

INSERT_PARTITION_COLUMN_ARITY_MISMATCH

SQLSTATE:21S01

無法寫入 '<tableName>', <reason>

數據表數據行: <tableColumns>

使用靜態值分割數據行: <staticPartCols>

數據行: <dataColumns>

INSUFFICIENT_PERMISSIONS

SQLSTATE:42501

權限不足:

<report>

INSUFFICIENT_PERMISSIONS_EXT_LOC

SQLSTATE:42501

用戶 <user> 對於外部位置 <location>的許可權不足。

INSUFFICIENT_PERMISSIONS_NO_OWNER

SQLSTATE:42501

沒有的 <securableName>擁有者。 要求系統管理員設定擁有者。

INSUFFICIENT_PERMISSIONS_OWNERSHIP_SECURABLE

SQLSTATE:42501

使用者不擁有 <securableName>

INSUFFICIENT_PERMISSIONS_SECURABLE

SQLSTATE:42501

用戶沒有的許可權<action><securableName>

INSUFFICIENT_PERMISSIONS_SECURABLE_PARENT_OWNER

SQLSTATE:42501

<securableName> 擁有者與的 <parentSecurableName>擁有者不同。

INSUFFICIENT_PERMISSIONS_STORAGE_CRED

SQLSTATE:42501

儲存體 認證<credentialName>的許可權不足。

INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES

SQLSTATE:42501

用戶無法 <action> 開啟 <securableName> ,因為基礎安全性實體的許可權。

INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES_VERBOSE

SQLSTATE:42501

使用者無法 <action> 開啟 <securableName> ,因為基礎安全性實體的許可權:

<underlyingReport>

INTERVAL_ARITHMETIC_OVERFLOW

SQLSTATE: 22015

<message>.<alternative>

INTERVAL_DIVIDED_BY_ZERO

SQLSTATE:22012

除數為零。 使用 try_divide 來容許 0 的除數,並改為傳回 NULL。

INVALID_ARRAY_INDEX

SQLSTATE: 22003

索引 <indexValue> 超出界限。 陣列具有 <arraySize> 元素。 使用 SQL 函式 get() 來容許存取位於無效索引的專案,並改為傳回 NULL。 如有必要,請將 設為 <ansiConfig> 「false」 以略過此錯誤。

如需詳細資訊,請參閱 INVALID_ARRAY_INDEX

INVALID_ARRAY_INDEX_IN_ELEMENT_AT

SQLSTATE: 22003

索引 <indexValue> 超出界限。 陣列具有 <arraySize> 元素。 使用 try_element_at 來容許存取無效索引的專案,並改為傳回NULL。 如有必要,請將 設為 <ansiConfig> 「false」 以略過此錯誤。

如需詳細資訊,請參閱 INVALID_ARRAY_INDEX_IN_ELEMENT_AT

INVALID_BITMAP_POSITION

SQLSTATE: 22003

0 索引的位陣圖位置 <bitPosition> 超出界限。 點陣圖具有 <bitmapNumBits> 位 (<bitmapNumBytes> 位元元元)。

INVALID_BOUNDARY

SQLSTATE: 22003

界限 <boundary> 無效: <invalidValue>

如需詳細資訊,請參閱 INVALID_BOUNDARY

INVALID_BUCKET_FILE

SQLSTATE:58030

無效的貯體檔案: <path>

INVALID_BYTE_STRING

SQLSTATE: 22P03

預期的格式為 ByteString,但 為 <unsupported><class>)。

INVALID_COLUMN_NAME_AS_PATH

SQLSTATE:46121

數據源 <datasource> 無法儲存數據行 <columnName> ,因為它的名稱包含檔案路徑中不允許的一些字元。 請使用別名來重新命名它。

INVALID_COLUMN_OR_FIELD_DATA_TYPE

SQLSTATE:42000

資料列或欄位 <name> 的類型 <type> 為 ,但必須是 <expectedType>

INVALID_CURRENT_RECIPIENT_USAGE

SQLSTATE:42887

current_recipient函式只能在語句或 ALTER VIEW 語句中使用CREATE VIEW,以在 Unity 目錄中定義僅限共享檢視。

INVALID_CURSOR

SQLSTATE: HY109

數據指標無效。

如需詳細資訊,請參閱 INVALID_CURSOR

INVALID_DEFAULT_VALUE

SQLSTATE: 42623

無法執行 <statement> 命令,因為目的地資料行或變數 <colName> 具有 DEFAULT 值 <defaultValue>

如需詳細資訊,請參閱 INVALID_DEFAULT_VALUE

INVALID_DEST_CATALOG

SQLSTATE:42809

SYNC 命令的目的地目錄必須位於 Unity 目錄內。 找到 <catalog>

INVALID_DRIVER_MEMORY

SQLSTATE: F0000

系統記憶體 <systemMemory> 至少 <minSystemMemory>必須是 。

請使用 Spark 組態中的 –driver-memory 選項或 “<config>” 來增加堆積大小。

INVALID_EMPTY_LOCATION

SQLSTATE:42K05

位置名稱不能是空字串,但 <location> 已指定。

INVALID_ESC

SQLSTATE:42604

找到無效的逸出字串: <invalidEscape>。 逸出字串必須只包含一個字元。

INVALID_ESCAPE_CHAR

SQLSTATE:42604

EscapeChar 應該是長度一的字串常值,但取得 <sqlExpr>

INVALID_EXECUTOR_MEMORY

SQLSTATE: F0000

執行程式記憶體 <executorMemory> 至少 <minSystemMemory>必須是 。

請使用 Spark 組態中的 –executor-memory 選項或 “<config>” 來增加執行程式記憶體。

INVALID_EXPRESSION_ENCODER

SQLSTATE:42001

找到無效的表達式編碼器。 預期 ExpressionEncoder 的實例,但取得 <encoderType>。 如需詳細資訊,請參閱 '<docroot>/api/java/index.html?org/apache/spark/sql/Encoder.html'。

INVALID_EXTRACT_BASE_FIELD_TYPE

SQLSTATE:42000

無法從 <base>擷取值。 需要複雜類型 [STRUCT, , ARRAYMAP] 但已取得 <other>

INVALID_EXTRACT_FIELD

SQLSTATE:42601

無法從擷取 <field><expr>

INVALID_EXTRACT_FIELD_TYPE

SQLSTATE:42000

功能變數名稱應該是非 Null 字串常值,但它是 <extraction>

INVALID_FIELD_NAME

SQLSTATE:42000

<fieldName>功能變數名稱無效:<path>不是結構。

INVALID_FORMAT

SQLSTATE:42601

格式無效: <format>

如需詳細資訊,請參閱 INVALID_FORMAT

INVALID_FRACTION_OF_SECOND

SQLSTATE: 22023

秒的分數必須是零。 有效範圍為 [0, 60]。 如有必要,請將 設為 <ansiConfig> 「false」 以略過此錯誤。

INVALID_HANDLE

SQLSTATE: HY000

句柄 <handle> 無效。

如需詳細資訊,請參閱 INVALID_HANDLE

INVALID_IDENTIFIER

SQLSTATE: 42602

標識碼 <ident> 無效。 請考慮將引號引用為 <ident>

INVALID_INDEX_OF_ZERO

SQLSTATE: 22003

索引 0 無效。 索引應為 < 0 或 > 0(第一個專案具有索引 1)。

INVALID_INLINE_TABLE

SQLSTATE:42000

無效的內嵌數據表。

如需詳細資訊,請參閱 INVALID_INLINE_TABLE

INVALID_INVERSE_DISTRIBUTION_FUNCTION

SQLSTATE: 42K0K

不合法的反向分配函式 <funcName>

如需詳細資訊,請參閱 INVALID_INVERSE_DISTRIBUTION_FUNCTION

INVALID_JSON_ROOT_FIELD

SQLSTATE: 22032

無法將 JSON 根欄位轉換為目標 Spark 類型。

INVALID_JSON_SCHEMA_MAP_TYPE

SQLSTATE: 22032

輸入架構 <jsonSchema> 只能包含 STRING 做為的 MAP索引鍵類型。

INVALID_KRYO_SERIALIZER_BUFFER_SIZE

SQLSTATE: F0000

設定 “<bufferSizeConfKey>” 的值必須小於 2048 MiB,但取得 <bufferSizeConfValue> MiB。

INVALID_LAMBDA_FUNCTION_CALL

SQLSTATE: 42K0D

無效的 Lambda 函數調用。

如需詳細資訊,請參閱 INVALID_LAMBDA_FUNCTION_CALL

INVALID_LATERAL_JOIN_TYPE

SQLSTATE: 42613

<joinType>不允許具有 LATERAL 相互關聯的 JOIN,因為 OUTER 子查詢無法與其聯結夥伴相互關聯。 請移除 LATERAL 相互關聯,或使用 INNER JOIN 或 LEFT OUTER JOIN。

INVALID_LIMIT_LIKE_EXPRESSION

SQLSTATE: 42K0E

表達式之類的 <expr> 限制無效。

如需詳細資訊,請參閱 INVALID_LIMIT_LIKE_EXPRESSION

INVALID_NON_DETERMINISTIC_EXPRESSIONS

SQLSTATE: 42K0E

運算子預期有決定性運算式,但實際運算式為 <sqlExprs>

INVALID_NUMERIC_LITERAL_RANGE

SQLSTATE: 22003

數值常值 <rawStrippedQualifier> 超出的有效範圍 <typeName> ,其最小值 <minValue> 為 ,最大值為 <maxValue>。 請據以調整值。

INVALID_OBSERVED_METRICS

SQLSTATE: 42K0E

觀察到的計量無效。

如需詳細資訊,請參閱 INVALID_OBSERVED_METRICS

INVALID_OPTIONS

SQLSTATE:42K06

不合法的選項:

如需詳細資訊,請參閱 INVALID_OPTIONS

INVALID_PANDAS_UDF_PLACEMENT

SQLSTATE:0A000

群組匯總 pandas UDF <functionList> 無法與其他非 pandas 聚合函數一起叫用。

INVALID_PARAMETER_MARKER_VALUE

SQLSTATE: 22023

提供無效的參數對應:

如需詳細資訊,請參閱 INVALID_PARAMETER_MARKER_VALUE

INVALID_PARAMETER_VALUE

SQLSTATE: 22023

中的 <functionName> parameter(s) <parameter> 值無效:

如需詳細資訊,請參閱 INVALID_PARAMETER_VALUE

INVALID_PARTITION_OPERATION

SQLSTATE:42601

數據分割命令無效。

如需詳細資訊,請參閱 INVALID_PARTITION_OPERATION

INVALID_PIPELINE_ID

SQLSTATE:42604

管線標識碼 <pipelineId> 無效。

管線標識符應該是格式為 'xxxxxxxx-xxxx-xxxx-xxxx-xxxxxx' 的 UUID

INVALID_PRIVILEGE

SQLSTATE:42852

許可權 <privilege><securable>無效。

INVALID_PROPERTY_KEY

SQLSTATE: 42602

<key> 是無效的屬性索引鍵,請使用引號,例如 SET <key>=<value>

INVALID_PROPERTY_VALUE

SQLSTATE: 42602

<value> 是無效的屬性值,請使用引號,例如SET <key>=<value>

INVALID_QUERY_MIXED_QUERY_PARAMETERS

SQLSTATE: 42613

參數化查詢必須使用位置或具名參數,但不能同時使用兩者。

INVALID_S3_COPY_CREDENTIALS

SQLSTATE:42501

COPY INTO 認證必須包含AWS_ACCESS_KEY、AWS_SECRET_KEY和AWS_SESSION_TOKEN。

INVALID_SAVE_MODE

SQLSTATE:42000

指定的儲存模式 <mode> 無效。 有效的儲存模式包括 “append”、“overwrite”、“ignore”、“error”、“errorifexists” 和 “default”。

INVALID_SCHEMA

SQLSTATE:42K07

輸入架構 <inputSchema> 不是有效的架構字串。

如需詳細資訊,請參閱 INVALID_SCHEMA

INVALID_SCHEMA_OR_RELATION_NAME

SQLSTATE: 42602

<name> 不是數據表/架構的有效名稱。 有效名稱只包含字母字元、數位和 _。

INVALID_SCHEME

SQLSTATE: 0AKUC

Unity 目錄不支援 <name> 作為預設檔案配置。

INVALID_SECRET_LOOKUP

SQLSTATE: 22531

無效的秘密查閱:

如需詳細資訊,請參閱 INVALID_SECRET_LOOKUP

INVALID_SET_SYNTAX

SQLSTATE:42000

預期的格式為 『SET』、『SET key』或 『SET key=value』。 如果您要在索引鍵中包含特殊字元,或將分號包含在值中,請使用backquotes,例如 SET key=value

INVALID_SHARED_ALIAS_NAME

SQLSTATE:42601

<sharedObjectType>別名名稱的格式必須是 「schema.name」。

INVALID_SINGLE_VARIANT_COLUMN

SQLSTATE: 42613

在掃描資料源<dataSource>中指定 時singleVariantColumn,用戶必須提供具有一個單一變體數據行的明確架構(例如 column VARIANT)。

INVALID_SOURCE_CATALOG

SQLSTATE:42809

來源目錄不得位於 SYNC 命令的 Unity 目錄內。 找到 <catalog>

INVALID_SQL_ARG

SQLSTATE:42K08

sql() 自變數<name>無效。 請考慮將它取代為 SQL 常值或集合建構函式,例如 map()、、 array()struct()

INVALID_SQL_SYNTAX

SQLSTATE:42000

無效的 SQL 語法:

如需詳細資訊,請參閱 INVALID_SQL_SYNTAX

INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY

SQLSTATE:42604

暫存查詢中的暫存 <operation> 路徑無效: <path>

INVALID_STATEMENT_FOR_EXECUTE_INTO

SQLSTATE:07501

EXECUTE IMMEDIATE 的 INTO 子句只適用於查詢,但指定的語句不是查詢: <sqlString>

INVALID_SUBQUERY_EXPRESSION

SQLSTATE:42823

不合法的子查詢:

如需詳細資訊,請參閱 INVALID_SUBQUERY_EXPRESSION

INVALID_TEMP_OBJ_REFERENCE

SQLSTATE: 42K0F

無法建立型<obj>別的永續性對象<objName>,因為它參考型<tempObj>別 的暫存物件<tempObjName>。 請讓暫存對象 <tempObjName> 持續存在,或讓永續性物件 <objName> 暫存。

INVALID_TIMESTAMP_FORMAT

SQLSTATE: 22000

提供的時間戳 <timestamp> 不符合預期的語法 <format>

INVALID_TIME_TRAVEL_SPEC

SQLSTATE: 42K0E

無法指定當時間前往資料表時的版本和時間戳。

INVALID_TIME_TRAVEL_TIMESTAMP_EXPR

SQLSTATE: 42K0E

時間移動時間戳表達式 <expr> 無效。

如需詳細資訊,請參閱 INVALID_TIME_TRAVEL_TIMESTAMP_EXPR

INVALID_TYPED_LITERAL

SQLSTATE:42604

具型別常值 <valueType> 的值無效: <value>

INVALID_UDF_IMPLEMENTATION

SQLSTATE:38000

函式 <funcName> 不會實作 ScalarFunction 或 AggregateFunction。

INVALID_UPGRADE_SYNTAX

SQLSTATE:42809

<command><supportedOrNot> 源數據表位於Hive中繼存放區中,而目的地數據表位於 Unity 目錄中。

INVALID_URL

SQLSTATE: 22P02

URL 無效: <url>。 如有必要,請將 設為 <ansiConfig> 「false」 以略過此錯誤。

INVALID_USAGE_OF_STAR_OR_REGEX

SQLSTATE:42000

中的<prettyName>使用<elem>方式無效。

INVALID_UUID

SQLSTATE:42604

輸入 <uuidInput> 不是有效的 UUID。

UUID 的格式應該是 'xxxxxxxx-xxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx'

請檢查 UUID 的格式。

INVALID_VARIABLE_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE

SQLSTATE:42K09

變數類型必須是字串類型,但取得 <varType>

INVALID_WHERE_CONDITION

SQLSTATE:42903

WHERE 條件 <condition> 包含無效的運算式: <expressionList>

重寫查詢,以避免 WHERE 子句中的視窗函式、聚合函數和產生器函式。

INVALID_WINDOW_SPEC_FOR_AGGREGATION_FUNC

SQLSTATE:42601

無法指定 ORDER BY 或的 <aggFunc>視窗框架。

INVALID_WRITER_COMMIT_MESSAGE

SQLSTATE:42KDE

數據源寫入器已產生無效的認可訊息數目。 預期每個工作只有一個寫入器認可訊息,但收到 <detail>

INVALID_WRITE_DISTRIBUTION

SQLSTATE:42000

要求的寫入散發套件無效。

如需詳細資訊,請參閱 INVALID_WRITE_DISTRIBUTION

JOIN_CONDITION_IS_NOT_BOOLEAN_TYPE

SQLSTATE: 42K0E

聯結條件 <joinCondition> 的類型無效 <conditionType>,必須是 “BOOLEAN ” ”

KAFKA_DATA_LOSS

SQLSTATE: 22000

有些數據可能已經遺失,因為它們無法再在 Kafka 中使用;

數據已由 Kafka 淘汰,或主題可能已在 中的所有資料之前刪除

已處理主題。

如果您不希望串流查詢在這類情況下失敗,請將source選項failOnDataLoss設定為 false。

原因:

如需詳細資訊,請參閱 KAFKA_DATA_LOSS

KINESIS_COULD_NOT_READ_SHARD_UNTIL_END_OFFSET

SQLSTATE: 22000

在中分區<shardId>所需的序號<endSeqNum>之前,無法讀取

具有取用者模式 <consumerMode>的 kinesis 數據流<stream>。 查詢將會因為

潛在的數據遺失。 最後一筆讀取記錄的序號 <lastSeqNum>為 。

如果 endSeqNum 的數據已過時,或 Kinesis 數據流已過時,就會發生這種情況

已以相同名稱刪除並重新建構。 可以覆寫失敗行為

在spark組態中將spark.databricks.kinesis.failOnDataLoss設定為 false。

KINESIS_FETCHED_SHARD_LESS_THAN_TRACKED_SHARD

SQLSTATE:42K04

從 Kinesis 擷取的最小 shardId (<fetchedShardId>

小於最小追蹤的shardId(<trackedShardId>)。

這是非預期的情況,而且會在以相同名稱刪除並重新建立 Kinesis 數據流時發生。

和使用此 Kinesis 資料流的串流查詢會使用現有的檢查點位置重新啟動。

使用新的檢查點位置重新啟動串流查詢,或使用新的名稱建立數據流。

KRYO_BUFFER_OVERFLOW

SQLSTATE:54006

Kryo 串行化失敗: <exceptionMsg>。 若要避免這種情況,請增加 “<bufferSizeConfKey>” 值。

LOAD_DATA_PATH_NOT_EXISTS

SQLSTATE:42K03

LOAD DATA 輸入路徑不存在: <path>

LOCAL_MUST_WITH_SCHEMA_FILE

SQLSTATE:42601

LOCAL 必須與的 file架構搭配使用,但取得: <actualSchema>

LOCATION_ALREADY_EXISTS

SQLSTATE: 42710

無法將Managed數據表命名為 <identifier>,因為其相關聯的位置 <location> 已經存在。 請挑選不同的數據表名稱,或先移除現有的位置。

LOST_TOPIC_PARTITIONS_IN_END_OFFSET_WITH_TRIGGER_AVAILABLENOW

SQLSTATE: KD000

Kafka 主題中的部分分割區在使用 Trigger.AvailableNow 執行查詢期間已遺失。 此錯誤可能是暫時性的 - 重新啟動查詢,如果您仍然看到相同的問題,請回報。

適用於最新位移的 topic-partitions: <tpsForLatestOffset>,end offset 的 topic-partitions: <tpsForEndOffset>

MALFORMED_AVRO_MESSAGE

SQLSTATE: KD000

在訊息還原串行化中偵測到格式不正確的 Avro 訊息。 剖析模式: <mode>。 若要將格式錯誤的 Avro 訊息視為 Null 結果,請嘗試將選項 'mode' 設定為 'PERMISSIVE'。

MALFORMED_CSV_RECORD

SQLSTATE: KD000

格式不正確的 CSV 記錄: <badRecord>

MALFORMED_RECORD_IN_PARSING

SQLSTATE: 22023

在記錄剖析中偵測到格式不正確的記錄: <badRecord>

剖析模式: <failFastMode>。 若要以 Null 結果處理格式不正確的記錄,請嘗試將選項 'mode' 設定為 'PERMISSIVE'。

如需詳細資訊,請參閱 MALFORMED_RECORD_IN_PARSING

MALFORMED_VARIANT

SQLSTATE: 22023

Variant binary 格式不正確。 請檢查數據源是否有效。

MANAGED_TABLE_WITH_CRED

SQLSTATE: 42613

不支援使用記憶體認證建立受控數據表。

MATERIALIZED_VIEW_MESA_REFRESH_WITHOUT_PIPELINE_ID

SQLSTATE:55019

無法 <refreshType> 具體化檢視,因為它會預先具有 pipelineId。 若要啟用 <refreshType> ,請卸除並重新建立具體化檢視。

MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED

SQLSTATE:56038

不允許具體化檢視作業 <operation>

如需詳細資訊,請參閱 MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED

MATERIALIZED_VIEW_OUTPUT_WITHOUT_EXPLICIT_ALIAS

SQLSTATE:0A000

具體化檢視中的輸出表達式 <expression> 必須明確為別名。

MATERIALIZED_VIEW_UNSUPPORTED_OPERATION

SQLSTATE:0A000

此版本的具體化檢視不支持作業 <operation>

MAX_NUMBER_VARIABLES_IN_SESSION_EXCEEDED

SQLSTATE:54KD1

無法建立新的變數,因為會話中的變數 <variableName> 數目超過允許的數目上限 (<maxNumVariables>)。

MAX_RECORDS_PER_FETCH_INVALID_FOR_KINESIS_SOURCE

SQLSTATE: 22023

maxRecordsPerFetch 必須是小於或等於的正整數 <kinesisRecordLimit>

MERGE_CARDINALITY_VIOLATION

SQLSTATE:23K01

MERGE 語句的 ON 搜尋條件會比對目標數據表中的單一數據列與源數據表的多個數據列。

這可能會導致使用更新或刪除作業多次操作目標數據列,而且不允許。

MISMATCHED_TOPIC_PARTITIONS_BETWEEN_END_OFFSET_AND_PREFETCHED

SQLSTATE: KD000

Trigger.AvailableNow 中的 Kafka 數據源應該在每個 microbatch 的預先擷取位移中提供相同的主題分割區,以結束位移。 此錯誤可能是暫時性的 - 重新啟動查詢,如果您仍然看到相同的問題,請回報。

預先擷取位移的 topic-partitions: <tpsForPrefetched>、end offset 的 topic-partitions: <tpsForEndOffset>

MISSING_AGGREGATION

SQLSTATE:42803

非匯總表達式 <expression> 是以未參與 GROUP BY 子句的數據行為基礎。

將資料行或表示式新增至 GROUP BY、匯總運算式,或如果您不在意群組內傳回哪些值,請使用 <expressionAnyValue>

如需詳細資訊,請參閱 MISSING_AGGREGATION

MISSING_CONNECTION_OPTION

SQLSTATE:42000

類型 『<connectionType>' 連線 必須包含下列選項:<requiredOptions>

MISSING_GROUP_BY

SQLSTATE:42803

查詢不包含 GROUP BY 子句。 使用 OVER 子句新增 GROUP BY 或將其轉換成視窗函式。

MISSING_NAME_FOR_CHECK_CONSTRAINT

SQLSTATE:42000

CHECK 條件約束必須具有名稱。

MISSING_PARAMETER_FOR_KAFKA

SQLSTATE:42KDF

Kafka 需要參數 <parameterName> ,但未在 中 <functionName>指定。

MISSING_PARAMETER_FOR_ROUTINE

SQLSTATE:42KDF

參數 <parameterName> 為必要參數,但未在 中 <functionName>指定。

MODIFY_BUILTIN_CATALOG

SQLSTATE:42832

不支援修改內建目錄 <catalogName>

MULTIPLE_LOAD_PATH

SQLSTATE:42000

Databricks Delta 不支援載入 API 中的多個輸入路徑。

路徑: <pathList>。 若要藉由載入來建置單一 DataFrame

來自相同 Delta 資料表的多個路徑,請載入 的根路徑

具有對應數據分割篩選的 Delta 數據表。 如果多個路徑

來自不同的差異數據表,請使用數據集的 union()/unionByName() API

表示合併由個別load() API 呼叫所產生的DataFrame。

MULTIPLE_MATCHING_CONSTRAINTS

SQLSTATE:42891

找到至少兩個符合指定條件的條件約束。

MULTIPLE_TIME_TRAVEL_SPEC

SQLSTATE: 42K0E

無法在時間移動子句和選項中指定時間移動。

MULTIPLE_XML_DATA_SOURCE

SQLSTATE: 42710

偵測到名稱為 (<sourceNames>) 的<provider>多個數據源。 請指定完整類別名稱,或從 classpath 中移除 <externalSource>

MULTI_SOURCES_UNSUPPORTED_FOR_EXPRESSION

SQLSTATE: 42K0E

表達式 <expr> 不支援多個來源。

MULTI_UDF_INTERFACE_ERROR

SQLSTATE:0A000

不允許實作多個 UDF 介面,UDF 類別 <className>

MUTUALLY_EXCLUSIVE_CLAUSES

SQLSTATE: 42613

互斥子句或選項 <clauses>。 請移除其中一個子句。

MV_ST_ALTER_QUERY_INCORRECT_BACKING_TYPE

SQLSTATE:42601

輸入查詢需要 <expectedType>,但基礎表是 <givenType>

NAMED_PARAMETERS_NOT_SUPPORTED

SQLSTATE: 4274K

函式不支援 <functionName>具名參數;請改用位置自變數來重試查詢函式呼叫。

NAMED_PARAMETERS_NOT_SUPPORTED_FOR_SQL_UDFS

SQLSTATE:0A000

無法呼叫函式 <functionName> ,因為不支援 SQL UDF 的具名自變數參考。 在這裡情況下,具名自變數參考為 <argument>

NAMED_PARAMETER_SUPPORT_DISABLED

SQLSTATE:0A000

無法呼叫函式 <functionName> ,因為此處未啟用具名自變數參考。

在這裡情況下,具名自變數參考為 <argument>

將 「spark.sql.allowNamedFunctionArguments」 設定為 「true」 以開啟功能。

NAMESPACE_ALREADY_EXISTS

SQLSTATE:42000

無法建立命名空間 <nameSpaceName> ,因為它已經存在。

選擇不同的名稱、卸除現有的命名空間,或新增 IF NOT EXISTS 子句來容許預先存在的命名空間。

NAMESPACE_NOT_EMPTY

SQLSTATE:42000

無法卸載命名空間 <nameSpaceNameName> ,因為它包含物件。

使用 DROP NAMESPACE ... CASCADE 可卸除命名空間及其所有物件。

NAMESPACE_NOT_FOUND

SQLSTATE:42000

找不到命名空間 <nameSpaceName> 。 確認命名空間的拼字和正確性。

如果您未將名稱限定為 ,請確認current_schema() 輸出,或以正確限定名稱。

若要容許卸除時發生錯誤,請使用DROP NAMESPACE IF EXISTS。

NATIVE_XML_DATA_SOURCE_NOT_ENABLED

SQLSTATE:56038

此叢集中未啟用原生 XML 數據源。

NESTED_AGGREGATE_FUNCTION

SQLSTATE:42607

不允許在另一個聚合函數的自變數中使用聚合函數。 請在子查詢中使用內部聚合函數。

NESTED_EXECUTE_IMMEDIATE

SQLSTATE:07501

不允許巢狀EXECUTE IMMEDIATE命令。 請確定提供的 SQL 查詢 (<sqlString>) 不包含另一個 EXECUTE IMMEDIATE 命令。

NON_FOLDABLE_ARGUMENT

SQLSTATE:42K08

<funcName>函式需要 參數<paramName>是型<paramType>別的可折疊表達式,但實際自變數是不可折疊的。

NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION

SQLSTATE: 42613

當 MERGE 語句中有多個 MATCHED 子句時,只有最後一個 MATCHED 子句可以省略條件。

NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION

SQLSTATE: 42613

在 MERGE 語句中有多個 NOT MATCHED BY SOURCE 子句時,只有最後一個 NOT MATCHED BY SOURCE 子句可以省略條件。

NON_LAST_NOT_MATCHED_BY_TARGET_CLAUSE_OMIT_CONDITION

SQLSTATE: 42613

在 MERGE 語句中有多個 NOT MATCHED [BY TARGET] 子句時,只有最後一個 NOT MATCHED [BY TARGET] 子句可以省略條件。

NON_LITERAL_PIVOT_VALUES

SQLSTATE:42K08

找到 <expression>樞紐值所需的常值表達式。

NON_PARTITION_COLUMN

SQLSTATE:42000

PARTITION 子句不能包含非數據分割數據行: <columnName>

NON_TIME_WINDOW_NOT_SUPPORTED_IN_STREAMING

SQLSTATE:42KDE

串流數據框架/數據集上的 <windowFunc> [視窗] 函式不支援 (as column <columnName>)。

結構化串流僅支援使用 WINDOW 函式的時間範圍匯總。 (視窗規格: <windowSpec>

NOT_ALLOWED_IN_FROM

SQLSTATE:42601

FROM 子句中不允許:

如需詳細資訊,請參閱 NOT_ALLOWED_IN_FROM

NOT_A_CONSTANT_STRING

SQLSTATE:42601

用於例程或子句的表達式<expr>必須是非 NULL 的常數STRING<name>

如需詳細資訊,請參閱 NOT_A_CONSTANT_STRING

NOT_A_PARTITIONED_TABLE

SQLSTATE:42809

不允許作業 <operation><tableIdentWithDB> 因為它不是數據分割數據表。

NOT_A_SCALAR_FUNCTION

SQLSTATE:42887

<functionName> 這裡會顯示為純量表示式,但函式已定義為數據表函式。 請更新查詢以將函式呼叫移至FROM子句,或改為重新定義 <functionName> 為純量函式。

NOT_A_TABLE_FUNCTION

SQLSTATE:42887

<functionName> 這裡會顯示為數據表函式,但函式已定義為純量函式。 請更新查詢以將函式呼叫移至FROM子句之外,或改為重新定義 <functionName> 為數據表函式。

NOT_NULL_CONSTRAINT_VIOLATION

SQLSTATE:42000

此處不允許指派 NULL。

如需詳細資訊,請參閱 NOT_NULL_CONSTRAINT_VIOLATION

NOT_SUPPORTED_CHANGE_COLUMN

SQLSTATE:0A000

不支援將 類型<originType>為 的 資料行<originName>變更<table><newName><newType>不支援 ALTER TABLE ALTER/CHANGE COLUMN。

NOT_SUPPORTED_COMMAND_FOR_V2_TABLE

SQLSTATE:0A000

<cmd> v2 數據表不支援。

NOT_SUPPORTED_COMMAND_WITHOUT_HIVE_SUPPORT

SQLSTATE:0A000

<cmd> 不支援,如果您想要啟用,請將 「spark.sql.catalogImplementation」 設定為 “hive”。

NOT_SUPPORTED_IN_JDBC_CATALOG

SQLSTATE:0A000

JDBC 目錄中不支援的命令:

如需詳細資訊,請參閱 NOT_SUPPORTED_IN_JDBC_CATALOG

NOT_SUPPORTED_WITH_DB_SQL

SQLSTATE:0A000

<operation> SQL <endpoint>不支援 。

NO_DEFAULT_COLUMN_VALUE_AVAILABLE

SQLSTATE: 42608

無法判斷的預設值 <colName> ,因為它不可為 Null,而且沒有預設值。

NO_HANDLER_FOR_UDAF

SQLSTATE:42000

沒有UDAF'<functionName>' 的處理程式。 請改用 sparkSession.udf.register(...) 。

NO_MERGE_ACTION_SPECIFIED

SQLSTATE: 42K0E

df.mergeInto 必須接著至少一個 whenMatched/whenNotMatched/whenNotMatchedBySource。

NO_PARENT_EXTERNAL_LOCATION_FOR_PATH

SQLSTATE:未指派

找不到路徑 『<path>' 的父外部位置。 請在其中一個父路徑上建立外部位置,然後再次重試查詢或命令。

NO_SQL_TYPE_IN_PROTOBUF_SCHEMA

SQLSTATE:42S22

在 Protobuf 架構中找不到 <catalystFieldPath>

NO_STORAGE_LOCATION_FOR_TABLE

SQLSTATE:未指派

產生數據表認證時,找不到資料表'<tableId>' 的儲存位置。 請確認數據表類型和數據表位置 URL,然後再次重試查詢或命令。

NO_SUCH_CATALOG_EXCEPTION

SQLSTATE:未指派

找不到目錄 『<catalog>。 請確認目錄名稱,然後再次重試查詢或命令。

NO_SUCH_CLEANROOM_EXCEPTION

SQLSTATE:未指派

乾淨的房間 『<cleanroom>不存在。 請確認清理室名稱拼字正確,並符合有效現有清理室的名稱,然後再次重試查詢或命令。

NO_SUCH_EXTERNAL_LOCATION_EXCEPTION

SQLSTATE:未指派

外部位置 『<externalLocation>不存在。 請確認外部位置名稱正確,然後再次重試查詢或命令。

NO_SUCH_METASTORE_EXCEPTION

SQLSTATE:未指派

找不到中繼存放區。 請要求您的帳戶管理員將中繼存放區指派給目前的工作區,然後再次重試查詢或命令。

NO_SUCH_PROVIDER_EXCEPTION

SQLSTATE:未指派

共用提供者 『<providerName>』 不存在。 請確認共用提供者名稱拼字正確,並符合有效現有提供者名稱的名稱,然後再次重試查詢或命令。

NO_SUCH_RECIPIENT_EXCEPTION

SQLSTATE:未指派

收件者 『<recipient>』 不存在。 請確認收件者名稱拼字正確,且符合有效現有收件者的名稱,然後再重試查詢或命令。

NO_SUCH_SHARE_EXCEPTION

SQLSTATE:未指派

共用 『<share>不存在』 不存在。 請確認共用名稱拼字正確,並符合有效現有共享的名稱,然後再重試查詢或命令。

NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION

SQLSTATE:未指派

記憶體認證 『<storageCredential>』 不存在。 請確認記憶體認證名稱拼字正確,並符合有效現有記憶體認證的名稱,然後再次重試查詢或命令。

NO_SUCH_USER_EXCEPTION

SQLSTATE:未指派

使用者 『<userName>不存在』 不存在。 請確認您授與許可權或變更擁有權的使用者拼寫正確,並符合有效現有使用者的名稱,然後再次重試查詢或命令。

NO_UDF_INTERFACE

SQLSTATE:38000

UDF 類別 <className> 不會實作任何 UDF 介面。

NULLABLE_COLUMN_OR_FIELD

SQLSTATE:42000

數據行或欄位 <name> 是可為 Null 的,但必須是不可為 Null 的。

NULLABLE_ROW_ID_ATTRIBUTES

SQLSTATE:42000

數據列標識碼屬性不可為 Null: <nullableRowIdAttrs>

NULL_MAP_KEY

SQLSTATE: 2200E

無法使用 null 做為對應索引鍵。

NUMERIC_OUT_OF_SUPPORTED_RANGE

SQLSTATE: 22003

<value> 無法解譯為數值,因為它有超過38位數。

NUMERIC_VALUE_OUT_OF_RANGE

SQLSTATE: 22003

<value> 無法表示為 Decimal(<precision><scale>)。 如有必要,請將 設定 <config> 為 「false」 以略過此錯誤,並改為傳回 NULL。

NUM_COLUMNS_MISMATCH

SQLSTATE:42826

<operator> 只能在具有相同數據行數目的輸入上執行,但第一個輸入具有 <firstNumColumns> 數據行,而 <invalidOrdinalNum> 輸入具有 <invalidNumColumns> 數據行。

NUM_TABLE_VALUE_ALIASES_MISMATCH

SQLSTATE:42826

指定的別名數目不符合輸出資料行的數目。

函式名稱: <funcName>;別名數目: <aliasesNum>;輸出數據行數目: <outColsNum>

OAUTH_CUSTOM_IDENTITY_CLAIM_NOT_PROVIDED

SQLSTATE: 22KD2

未提供任何自定義身分識別宣告。

ONLY_SECRET_FUNCTION_SUPPORTED_HERE

SQLSTATE: 42K0E

<location>不支援呼叫函<functionName>式;<supportedFunctions>這裏支援。

OPERATION_CANCELED

SQLSTATE: HY008

作業已取消。

OPERATION_REQUIRES_UNITY_CATALOG

SQLSTATE: 0AKUD

作業 <operation> 需要啟用 Unity 目錄。

OP_NOT_SUPPORTED_READ_ONLY

SQLSTATE: 42KD1

<plan> 唯讀工作階段模式不支援 。

ORDER_BY_POS_OUT_OF_RANGE

SQLSTATE:42805

ORDER BY 位置 <index> 不在選取清單中(有效範圍是 [1, <size>])。

PARSE_EMPTY_STATEMENT

SQLSTATE:42617

語法錯誤,非預期的空白語句。

PARSE_SYNTAX_ERROR

SQLSTATE:42601

或附近發生 <error><hint>語法錯誤。

PARTITIONS_ALREADY_EXIST

SQLSTATE: 428FT

無法新增或重新命名數據表<tableName>中的分割區,<partitionList>因為它們已經存在。

選擇不同的名稱、卸除現有的分割區,或新增 IF NOT EXISTS 子句來容許預先存在的分割區。

PARTITIONS_NOT_FOUND

SQLSTATE: 428FT

在數據表 <tableName>中找不到數據分割。<partitionList>

確認數據分割規格和數據表名稱。

若要容許卸除時的錯誤,請使用 ALTER TABLE ... DROP IF EXISTS PARTITION。

PARTITION_LOCATION_ALREADY_EXISTS

SQLSTATE:42K04

數據分割位置 <locationPath> 已存在於數據表 <tableName>中。

PARTITION_LOCATION_IS_NOT_UNDER_TABLE_DIRECTORY

SQLSTATE:42KD5

無法執行 ALTER TABLE SET PARTITION LOCATION 語句,因為

數據分割位置 <location> 不在數據表目錄 <table>底下。

若要修正此問題,請將分割區的位置設定為 的 <table>子目錄。

PARTITION_METADATA

SQLSTATE: 0AKUC

<action> 不允許在數據表 <tableName> 上,因為 Unity 目錄不支援儲存分割區元數據。

PATH_ALREADY_EXISTS

SQLSTATE:42K04

路徑 <outputPath> 已經存在。 將模式設定為 「覆寫」,以覆寫現有的路徑。

PATH_NOT_FOUND

SQLSTATE:42K03

路徑不存在: <path>

PIVOT_VALUE_DATA_TYPE_MISMATCH

SQLSTATE:42K09

無效的樞紐值 『<value>:實值數據類型 <valueType> 與樞紐數據行數據類型 <pivotType>不符。

PROTOBUF_DEPENDENCY_NOT_FOUND

SQLSTATE:42K0G

找不到相依性: <dependencyName>

PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND

SQLSTATE:42K0G

在路徑讀取 Protobuf 描述元檔案時發生錯誤: <filePath>

PROTOBUF_FIELD_MISSING

SQLSTATE:42K0G

在 Protobuf 架構<protobufSchema>中搜尋<field>提供<matchSize>相符專案。 候選專案: <matches>

PROTOBUF_FIELD_MISSING_IN_SQL_SCHEMA

SQLSTATE:42K0G

<field> Protobuf 架構中找到,但 SQL 架構中沒有相符專案。

PROTOBUF_FIELD_TYPE_MISMATCH

SQLSTATE:42K0G

欄位所遇到的類型不符: <field>

PROTOBUF_JAVA_CLASSES_NOT_SUPPORTED

SQLSTATE:0A000

不支援 <protobufFunction>Java類別。 請連絡 Databricks 支援服務以取得替代選項。

PROTOBUF_MESSAGE_NOT_FOUND

SQLSTATE:42K0G

在描述元中找不到訊息 <messageName>

PROTOBUF_TYPE_NOT_SUPPORT

SQLSTATE:42K0G

尚未支援 Protobuf 類型: <protobufType>

PS_FETCH_RETRY_EXCEPTION

SQLSTATE: 22000

無法重試 pubsub 擷取階段中的工作。 階段中的數據分割<partitionInfo>,TID <taskId><stageInfo>

PS_INVALID_EMPTY_OPTION

SQLSTATE:42000

<key> 不可以是空字串。

PS_INVALID_KEY_TYPE

SQLSTATE: 22000

PubSub dedup 的索引鍵類型無效: <key>

PS_INVALID_OPTION

SQLSTATE:42000

PubSub 不支援此選項 <key> 。 它只能用於測試。

PS_INVALID_OPTION_TYPE

SQLSTATE:42000

無效的類型 <key>。 必須是 型 <key> 別的 型別 <type>

PS_INVALID_READ_LIMIT

SQLSTATE:42000

PubSub 數據流的讀取限制無效: <limit>

PS_INVALID_UNSAFE_ROW_CONVERSION_FROM_PROTO

SQLSTATE: 22000

將 UnsafeRow 譯碼為 PubSubMessageMetadata 無效,所需的 Proto 架構為: <protoSchema>。 輸入 UnsafeRow 可能已損毀: <unsafeRow>

PS_MISSING_AUTH_INFO

SQLSTATE:42000

找不到完整的 PubSub 驗證資訊。

PS_MISSING_REQUIRED_OPTION

SQLSTATE:42000

找不到必要的選項: <key>

PS_MOVING_CHECKPOINT_FAILURE

SQLSTATE: 22000

無法將原始數據檢查點檔案從 <src> 移至目的地目錄: <dest>

PS_MULTIPLE_FAILED_EPOCHS

SQLSTATE: 22000

無法啟動 PubSub 數據流,因為有多個失敗的擷取: <failedEpochs>

PS_OPTION_NOT_IN_BOUNDS

SQLSTATE: 22000

<key> 必須位於下列界限內 (<min><max>) 的兩個界限。

PS_PROVIDE_CREDENTIALS_WITH_OPTION

SQLSTATE:42000

共用叢集不支援使用實例配置檔進行驗證。 使用 .option() 直接將認證提供給數據流。

PS_SPARK_SPECULATION_NOT_SUPPORTED

SQLSTATE:0A000

PubSub 來源連接器僅適用於已停用的 spark.speculation 叢集中。

PS_UNABLE_TO_CREATE_SUBSCRIPTION

SQLSTATE:42000

嘗試在主題 <topicId>上建立訂<subId>用帳戶時發生錯誤。 請檢查有足夠的許可權可建立訂用帳戶,然後再試一次。

PS_UNABLE_TO_PARSE_PROTO

SQLSTATE: 22000

無法剖析串行化位元組以產生 Proto。

PS_UNSUPPORTED_GET_OFFSET_CALL

SQLSTATE:0A000

未提供限制,不支援 getOffset。

PYTHON_DATA_SOURCE_ERROR

SQLSTATE:38000

無法連線到 <action> Python 資料來源 <type><msg>

QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY

SQLSTATE:428HD

無法存取參考的數據表,因為先前指派的數據行遮罩目前與數據表架構不相容;若要繼續,請連絡數據表的擁有者以更新原則:

如需詳細資訊,請參閱 QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY

QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY

SQLSTATE:428HD

無法存取參考的數據表,因為先前指派的數據列層級安全策略目前與數據表架構不相容;若要繼續,請連絡數據表的擁有者以更新原則:

如需詳細資訊,請參閱 QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY

READ_FILES_AMBIGUOUS_ROUTINE_PARAMETERS

SQLSTATE: 4274K

函式的 <functionName> 調用具有 <parameterName><alternativeName> 設定,也就是彼此的別名。 請只設定其中一個。

READ_TVF_UNEXPECTED_REQUIRED_PARAMETER

SQLSTATE: 4274K

<functionName>函式必要參數<parameterName>必須指派在位置<expectedPos>,而不指定名稱。

RECURSIVE_PROTOBUF_SCHEMA

SQLSTATE:42K0G

在 Protobuf 架構中找到遞歸參考,此參考預設無法由 Spark 處理: <fieldDescriptor>。 請嘗試將選項 recursive.fields.max.depth 0 設定為 10。 不允許超過10個遞歸層級。

RECURSIVE_VIEW

SQLSTATE: 42K0H

偵測到遞歸檢視 <viewIdent> (迴圈: <newPath>)。

REF_DEFAULT_VALUE_IS_NOT_ALLOWED_IN_PARTITION

SQLSTATE:42601

PARTITION 子句中不允許 DEFAULT 資料行值的參考。

RELATION_LARGER_THAN_8G

SQLSTATE:54000

無法建置 <relationName> 大於 8G 的 。

REMOTE_FUNCTION_HTTP_FAILED_ERROR

SQLSTATE:57012

遠端 HTTP 要求失敗,並出現代碼 <errorCode>和錯誤訊息 <errorMessage>

REMOTE_FUNCTION_HTTP_RESULT_PARSE_ERROR

SQLSTATE: 22032

無法評估 <functionName> SQL 函式,因為無法從遠端 HTTP 回應剖析 JSON 結果;錯誤訊息為 <errorMessage>。 檢查 API 檔: <docUrl>。 請修正錯誤訊息中指出的問題,然後再次重試查詢。

REMOTE_FUNCTION_HTTP_RESULT_UNEXPECTED_ERROR

SQLSTATE:57012

無法評估 <functionName> SQL 函式,因為無法處理非預期的遠端 HTTP 回應;錯誤訊息為 <errorMessage>。 檢查 API 檔: <docUrl>。 請修正錯誤訊息中指出的問題,然後再次重試查詢。

REMOTE_FUNCTION_HTTP_RETRY_TIMEOUT

SQLSTATE:57012

重試 <N> 時間之後,遠端要求失敗;最後一個失敗的 HTTP 錯誤碼是 <errorCode> ,而訊息為 <errorMessage>

REMOTE_FUNCTION_MISSING_REQUIREMENTS_ERROR

SQLSTATE:57012

無法評估 SQL 函式, <functionName> 因為 <errorMessage>。 在中 <docUrl>檢查需求。 請修正錯誤訊息中指出的問題,然後再次重試查詢。

RENAME_SRC_PATH_NOT_FOUND

SQLSTATE:42K03

無法將 重新命名為 <sourcePath> 找不到。

REPEATED_CLAUSE

SQLSTATE:42614

<clause> 句最多可以使用一次每個 <operation> 作業。

REQUIRED_PARAMETER_NOT_FOUND

SQLSTATE: 4274K

無法叫用函式 <functionName> ,因為需要名為 <parameterName> 的參數,但函數調用未提供值。 請更新函式呼叫,以提供自變數值(位置在索引 <index> 或名稱上),然後再次重試查詢。

REQUIRES_SINGLE_PART_NAMESPACE

SQLSTATE:42K05

<sessionCatalog> 需要單一部分命名空間,但取得 <namespace>

RESERVED_CDC_COLUMNS_ON_WRITE

SQLSTATE:42939

寫入包含使用的保留數據行<columnList>

內部作為變更數據摘要的元數據。 若要寫入數據表,請重新命名/卸除

這些數據行或藉由設定來停用數據表上的異動數據摘要

<config> 為 false。

RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED

SQLSTATE:0A000

此選項 <option> 在來源的共用叢集 <source> 上具有限制值。

如需詳細資訊,請參閱 RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED

ROUTINE_ALREADY_EXISTS

SQLSTATE:42723

無法建立函式 <routineName> ,因為它已經存在。

選擇不同的名稱、卸除或取代現有的函式,或新增IF NOT EXISTS 子句來容許既有的函式。

ROUTINE_NOT_FOUND

SQLSTATE:42883

找不到函式 <routineName> 。 確認架構和目錄的拼字和正確性。

如果您未使用架構和目錄來限定名稱,請確認current_schema() 輸出,或使用正確的架構和目錄來限定名稱。

若要容許卸除時的錯誤,請使用DROP FUNCTION IF EXISTS。

ROUTINE_PARAMETER_NOT_FOUND

SQLSTATE:42000

函式<functionName>不支援在 位置<pos>指定的參數<parameterName><suggestion>

ROUTINE_USES_SYSTEM_RESERVED_CLASS_NAME

SQLSTATE:42939

無法建立函式 <routineName> ,因為指定的 classname '<className>' 保留供系統使用。 請重新命名 類別,然後再試一次。

ROW_LEVEL_SECURITY_CHECK_CONSTRAINT_UNSUPPORTED

SQLSTATE:0A000

不支援在具有數據列層級安全策略的數據表 <tableName> 上建立 CHECK 條件約束。

ROW_LEVEL_SECURITY_DUPLICATE_COLUMN_NAME

SQLSTATE:42734

語句 <statementType> 嘗試將數據列層級安全策略指派給數據表,但兩個或多個參考的數據行具有相同的名稱 <columnName>,這無效。

ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED

SQLSTATE:0A000

不支援的數據 <tableName> 列層級安全策略:

如需詳細資訊,請參閱 ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED

ROW_LEVEL_SECURITY_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE:0A000

無法 <statementType><columnName> 從數據表 <tableName> 參考,因為它在數據列層級安全策略中參考。 數據表擁有者必須先移除或變更此原則,才能繼續。

ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_SOURCE

SQLSTATE:0A000

MERGE INTO 作業不支援源數據表 <tableName>中的數據列層級安全策略。

ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_TARGET

SQLSTATE:0A000

MERGE INTO 作業不支援使用資料列層級安全策略寫入數據表 <tableName>

ROW_LEVEL_SECURITY_MULTI_PART_COLUMN_NAME

SQLSTATE:42K05

此語句嘗試將數據列層級安全策略指派給數據表,但參考的數據行 <columnName> 有多個名稱部分,這無效。

ROW_LEVEL_SECURITY_REQUIRE_UNITY_CATALOG

SQLSTATE:0A000

只有 Unity 目錄才支援資料列層級安全策略。

ROW_LEVEL_SECURITY_TABLE_CLONE_SOURCE_NOT_SUPPORTED

SQLSTATE:0A000

<mode> 不支援從具有數據列層級安全策略的數據表 <tableName> 複製。

ROW_LEVEL_SECURITY_TABLE_CLONE_TARGET_NOT_SUPPORTED

SQLSTATE:0A000

<mode> 不支援將數據列層級安全策略複製到數據表 <tableName>

ROW_LEVEL_SECURITY_UNSUPPORTED_CONSTANT_AS_PARAMETER

SQLSTATE: 0AKD1

不支援使用常數做為數據列層級安全策略中的參數。 請更新 SQL 命令,以從資料列篩選定義中移除常數,然後再次重試命令。

ROW_LEVEL_SECURITY_UNSUPPORTED_PROVIDER

SQLSTATE:0A000

無法執行 <statementType> 命令,因為使用數據表提供者的目標數據源不支援指派數據列層級安全策略:“<provider>”。

ROW_SUBQUERY_TOO_MANY_ROWS

SQLSTATE:21000

子查詢傳回的多個數據列,用來作為數據列。

RULE_ID_NOT_FOUND

SQLSTATE: 22023

找不到規則名稱 「<ruleName>的識別碼」。 如果您要新增規則,請修改 RuleIdCollection.scala。

SAMPLE_TABLE_PERMISSIONS

SQLSTATE:42832

範例資料庫/數據表不支持許可權。

SCALAR_SUBQUERY_IS_IN_GROUP_BY_OR_AGGREGATE_FUNCTION

SQLSTATE:0A000

相互關聯的純量子查詢 『<sqlExpr>既不存在於 GROUP BY 中,也不是在聚合函數中。

如果您不在乎取得的值,請使用序數位置將其新增至 GROUP BY,或將其包裝在 first() (或 first_value) 中。

SCALAR_SUBQUERY_TOO_MANY_ROWS

SQLSTATE:21000

子查詢傳回的多個數據列,用來做為表達式。

SCHEMA_ALREADY_EXISTS

SQLSTATE: 42P06

無法建立架構 <schemaName> ,因為它已經存在。

選擇不同的名稱、卸除現有的架構,或新增 IF NOT EXISTS 子句以容許預先存在的架構。

SCHEMA_NOT_EMPTY

SQLSTATE: 2BP01

無法卸除架構 <schemaName> ,因為它包含物件。

使用 DROP SCHEMA ... CASCADE 可卸除架構及其所有物件。

SCHEMA_NOT_FOUND

SQLSTATE:42704

找不到架構 <schemaName> 。 確認架構和目錄的拼字和正確性。

如果您未將名稱限定為目錄,請確認current_schema() 輸出,或使用正確的目錄限定名稱。

若要容許卸除時發生錯誤,請使用DROP SCHEMA IF EXISTS。

SCHEMA_REGISTRY_CONFIGURATION_ERROR

SQLSTATE:42K0G

無法初始化架構登錄中的架構。 <reason>.

SECOND_FUNCTION_ARGUMENT_NOT_INTEGER

SQLSTATE: 22023

函式的第 <functionName> 二個自變數必須是整數。

SECRET_FUNCTION_INVALID_LOCATION

SQLSTATE: 42K0E

無法使用對 SECRET 函式的一或多個非加密參考來執行 <commandType> 命令;請使用 AES_ENCRYPT 加密每個這類函式呼叫的結果,然後再試一次命令

SEED_EXPRESSION_IS_UNFOLDABLE

SQLSTATE:42K08

表達式<exprWithSeed>的種子表達式<seedExpr>必須可折疊。

SERVER_IS_BUSY

SQLSTATE:08KD1

伺服器忙碌中,無法處理要求。 請稍候,然後再試一次。

SORT_BY_WITHOUT_BUCKETING

SQLSTATE:42601

sortBy 必須與 bucketBy 搭配使用。

SPECIFY_BUCKETING_IS_NOT_ALLOWED

SQLSTATE:42601

沒有明確數據行清單的 CREATE TABLE 無法指定貯體資訊。

請使用具有明確數據行清單的表單,並指定貯體資訊。

或者,允許省略 子句來推斷貯體資訊。

SPECIFY_CLUSTER_BY_WITH_BUCKETING_IS_NOT_ALLOWED

SQLSTATE:42908

無法同時將 CLUSTER BY 和 CLUSTERED BY 指定為 BUCKETS。

SPECIFY_CLUSTER_BY_WITH_PARTITIONED_BY_IS_NOT_ALLOWED

SQLSTATE:42908

無法同時指定 CLUSTER BY 和 PARTITIONED BY。

SPECIFY_PARTITION_IS_NOT_ALLOWED

SQLSTATE:42601

沒有明確數據行清單的 CREATE TABLE 無法指定 PARTITIONED BY。

請使用具有明確數據行清單的表單,並指定 PARTITIONED BY。

或者,允許藉由省略 PARTITION BY 子句來推斷數據分割。

SQL_CONF_NOT_FOUND

SQLSTATE: 42K0I

找不到 SQL 組態 <sqlConf> 。 請確認組態存在。

STAGING_PATH_CURRENTLY_INACCESSIBLE

SQLSTATE: 22000

存取目標預備路徑 <path>時發生暫時性錯誤,請在幾分鐘內嘗試

STAR_GROUP_BY_POS

SQLSTATE:0A000

使用 GROUP BY 序數位置時,不允許在選取清單中使用 Star \ 。

STATE_STORE_CANNOT_REMOVE_DEFAULT_COLUMN_FAMILY

SQLSTATE:42802

無法移除保留名稱=<colFamilyName>的預設數據列系列。

STATE_STORE_MULTIPLE_VALUES_PER_KEY

SQLSTATE:42802

市集不支援每個索引鍵的多個值

STATIC_PARTITION_COLUMN_IN_INSERT_COLUMN_LIST

SQLSTATE:42713

靜態數據分割數據行 <staticName> 也會在數據行清單中指定。

STDS_COMMITTED_BATCH_UNAVAILABLE

SQLSTATE: KD006

找不到認可的批次,檢查點位置: <checkpointLocation>。 請確定查詢已在停止之前執行並認可任何 microbatch。

STDS_CONFLICT_OPTIONS

SQLSTATE: 42613

<options>選項不能一起指定。 請指定一個。

STDS_FAILED_TO_READ_STATE_SCHEMA

SQLSTATE:42K03

無法讀取狀態架構。 檔案不存在,或檔案已損毀。 選項: <sourceOptions>

重新執行串流查詢以建構狀態架構,並在錯誤持續發生時向對應的社群或廠商報告。

STDS_INVALID_OPTION_VALUE

SQLSTATE:42616

來源選項 '<optionName>'的值無效:

如需詳細資訊,請參閱 STDS_INVALID_OPTION_VALUE

STDS_NO_PARTITION_DISCOVERED_IN_STATE_STORE

SQLSTATE: KD006

狀態沒有任何數據分割。 請仔細檢查查詢是否指向有效狀態。 選項: <sourceOptions>

STDS_OFFSET_LOG_UNAVAILABLE

SQLSTATE: KD006

的位移記錄 <batchId> 不存在,檢查點位置: <checkpointLocation>

請指定可供查詢的批次識別碼 - 您可以使用狀態元數據資料來源來查詢可用的批次識別碼。

STDS_OFFSET_METADATA_LOG_UNAVAILABLE

SQLSTATE: KD006

的位移記錄 <batchId>檔無法使用元數據,檢查點位置: <checkpointLocation>

檢查點似乎只會與舊版Spark一起執行。 使用最新的 Spark 版本執行串流查詢,讓 Spark 建構狀態元數據。

STDS_REQUIRED_OPTION_UNSPECIFIED

SQLSTATE:42601

必須指定『<optionName>

STORED_PROCEDURE_NOT_SUPPORTED

SQLSTATE:0A000

不支援預存程式

STREAMING_AQE_NOT_SUPPORTED_FOR_STATEFUL_OPERATORS

SQLSTATE:0A000

結構化串流中的具狀態運算符不支援調適型查詢執行。

STREAMING_FROM_MATERIALIZED_VIEW

SQLSTATE:0A000

無法從具體化檢視 <viewName>進行數據流處理。 不支援從具體化檢視串流。

STREAMING_STATEFUL_OPERATOR_NOT_MATCH_IN_STATE_METADATA

SQLSTATE:42K03

串流具狀態運算符名稱與狀態元數據中的運算符不符。 當使用者新增/移除/變更現有串流查詢的具狀態運算符時,可能會發生這種情況。

元數據中的具狀態運算符: [<OpsInMetadataSeq>];目前批次中的具狀態運算符: [<OpsInCurBatchSeq>]。

STREAMING_TABLE_NEEDS_REFRESH

SQLSTATE:55019

串流數據表 <tableName> 必須重新整理。 請執行 CREATE 或 REFRESH 串流數據表 <tableName> AS 來更新資料表。

STREAMING_TABLE_NOT_SUPPORTED

SQLSTATE:56038

串流數據表只能在 Delta 實時數據表和 Databricks SQL 倉儲中建立和重新整理。

STREAMING_TABLE_OPERATION_NOT_ALLOWED

SQLSTATE:42601

不允許此工作 <operation>

如需詳細資訊,請參閱 STREAMING_TABLE_OPERATION_NOT_ALLOWED

STREAMING_TABLE_QUERY_INVALID

SQLSTATE:42000

串流數據表 <tableName> 只能從串流查詢建立。 請將 STREAM 關鍵詞新增至 FROM 子句,以將此關聯轉換成串流查詢。

STREAM_NOT_FOUND_FOR_KINESIS_SOURCE

SQLSTATE: 42K02

找不到中的 <region> Kinesis 數據流<streamName>

請啟動指向正確數據流名稱的新查詢。

SUM_OF_LIMIT_AND_OFFSET_EXCEEDS_MAX_INT

SQLSTATE: 22003

LIMIT 子句和 OFFSET 子句的總和不能大於最大 32 位整數值(2,147,483,647),但發現 limit = ,offset = <limit><offset>

SYNC_METADATA_DELTA_ONLY

SQLSTATE: 0AKDD

只有差異數據表支援修復數據表同步元數據命令。

SYNC_METADATA_NOT_SUPPORTED

SQLSTATE: 0AKUD

只有 Unity 目錄資料表支援修復資料表同步元數據命令。

SYNC_SRC_TARGET_TBL_NOT_SAME

SQLSTATE: 42KD2

源數據表名稱 <srcTable> 必須與目的地數據表名稱 <destTable>相同。

TABLE_OR_VIEW_ALREADY_EXISTS

SQLSTATE: 42P07

無法建立數據表或檢視 <relationName> ,因為它已經存在。

選擇不同的名稱、卸除或取代現有的物件、新增 IF NOT EXISTS 子句以容許既有的物件,或新增 OR REFRESH 子句以重新整理現有的串流數據表。

TABLE_OR_VIEW_NOT_FOUND

SQLSTATE: 42P01

找不到數據表或檢視表 <relationName> 。 確認架構和目錄的拼字和正確性。

如果您未使用架構限定名稱,請確認current_schema() 輸出,或使用正確的架構和目錄來限定名稱。

若要容許卸除時的錯誤,請使用DROP VIEW IF EXISTS 或DROP TABLE IF EXISTS。

如需詳細資訊,請參閱 TABLE_OR_VIEW_NOT_FOUND

TABLE_VALUED_ARGUMENTS_NOT_YET_IMPLEMENTED_FOR_SQL_FUNCTIONS

SQLSTATE:0A000

無法使用 <action> TABLE 自變數來 SQL 使用者定義函數 <functionName> ,因為這項功能尚未實作。

TABLE_VALUED_FUNCTION_FAILED_TO_ANALYZE_IN_PYTHON

SQLSTATE:38000

無法分析 Python 使用者定義資料表函式: <msg>

TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INCOMPATIBLE_WITH_CALL

SQLSTATE: 22023

無法評估資料表函 <functionName> 式,因為其資料表元資料 <requestedMetadata>,但函式會呼叫 <invalidFunctionCallProperty>

TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INVALID

SQLSTATE: 22023

無法評估數據表函 <functionName> 式,因為其數據表元數據無效; <reason>

TABLE_VALUED_FUNCTION_TOO_MANY_TABLE_ARGUMENTS

SQLSTATE:54023

數據表值函式的數據表自變數太多。

它允許一個數據表自變數,但有: <num>

如果您想要允許,請將 “spark.sql.allowMultipleTableArguments.enabled” 設定為 “true”

TABLE_WITH_ID_NOT_FOUND

SQLSTATE: 42P01

找不到標識碼為的 <tableId> 數據表。 確認 UUID 的正確性。

TASK_WRITE_FAILED

SQLSTATE:58030

將數據列寫入至 <path>時,工作失敗。

TEMP_TABLE_OR_VIEW_ALREADY_EXISTS

SQLSTATE: 42P07

無法建立暫存檢視 <relationName> ,因為它已經存在。

選擇不同的名稱、卸除或取代現有的檢視,或新增 IF NOT EXISTS 子句以容許既有檢視。

TEMP_VIEW_NAME_TOO_MANY_NAME_PARTS

SQLSTATE: 428EK

CREATE TEMPORARY VIEW 或對應的數據集 API 只接受單一部分檢視名稱,但取得: <actualName>

TWS_VALUE_SHOULD_NOT_BE_NULL

SQLSTATE: 22004

新值應該是非 Null 的 <typeOfState>

UC_BUCKETED_TABLES

SQLSTATE: 0AKUC

Unity 目錄中不支援貯體數據表。

UC_CATALOG_NAME_NOT_PROVIDED

SQLSTATE:3D000

針對 Unity 目錄,請明確指定目錄名稱。 例如,在目錄主要上顯示 GRANT your.address@email.com

UC_COMMAND_NOT_SUPPORTED

SQLSTATE: 0AKUC

Unity 目錄不支援命令。。 <commandName>

如需詳細資訊,請參閱 UC_COMMAND_NOT_SUPPORTED

UC_DATASOURCE_NOT_SUPPORTED

SQLSTATE: 0AKUC

Unity 目錄中不支援數據來源格式 <dataSourceFormatName>

UC_DATASOURCE_OPTIONS_NOT_SUPPORTED

SQLSTATE: 0AKUC

Unity 目錄中不支援數據源選項。

UC_EXTERNAL_VOLUME_MISSING_LOCATION

SQLSTATE:42601

LOCATION 子句必須存在外部磁碟區。 請檢查語法 'CREATE EXTERNAL VOLUME ... 位置...' 用於建立外部磁碟區。

UC_FILE_SCHEME_FOR_TABLE_CREATION_NOT_SUPPORTED

SQLSTATE: 0AKUC

不支援在具有檔案配置的 <schemeName> Unity 目錄中建立數據表。

相反地,請使用相同數據表提供者的 CREATE CONNECTION 命令建立同盟數據源連線,然後根據使用 CREATE FOREIGN CATALOG 命令的連線建立目錄,以參考該處的數據表。

UC_HIVE_METASTORE_FEDERATION_NOT_ENABLED

SQLSTATE:0A000

此叢集上未啟用Hive中繼存放區同盟。

此叢集不支援存取目錄<catalogName>

UC_INVALID_DEPENDENCIES

SQLSTATE:56098

<viewName> 依性會在剖析為 <storedDeps> 時記錄為 <parsedDeps>。 這可能是透過不當使用非 SQL API 所發生。 您可以執行 ALTER VIEW <viewName> AS <viewText>來修復 Databricks Runtime 中的相依性。

UC_INVALID_NAMESPACE

SQLSTATE: 0AKUC

Unity 目錄中不支援巢狀或空白命名空間。

UC_INVALID_REFERENCE

SQLSTATE: 0AKUC

無法在 Unity Catalog 對象中參考非 Unity-Catalog 物件 <name>

UC_LAKEHOUSE_FEDERATION_WRITES_NOT_ALLOWED

SQLSTATE:56038

此叢集上的提供者 <provider> 未啟用 Unity Catalog Lakehouse 同盟寫入支援。

UC_LOCATION_FOR_MANAGED_VOLUME_NOT_SUPPORTED

SQLSTATE:42601

受控磁碟區不接受 LOCATION 子句。 請檢查語法 'CREATE VOLUME ...' 用於建立受控磁碟區。

UC_NOT_ENABLED

SQLSTATE:56038

此叢集上未啟用 Unity 目錄。

UC_QUERY_FEDERATION_NOT_ENABLED

SQLSTATE:56038

此叢集上未啟用 Unity 目錄查詢同盟。

UC_VOLUMES_NOT_ENABLED

SQLSTATE:56038

此實例上未啟用 Unity 目錄磁碟區的支援。

UC_VOLUMES_SHARING_NOT_ENABLED

SQLSTATE:56038

此實例上未啟用磁碟區共享的支援。

UC_VOLUME_NOT_FOUND

SQLSTATE:42704

磁碟 <name> 區不存在。 請使用 「顯示磁碟區」來列出可用的磁碟區。

UDF_ERROR

SQLSTATE:未指派

函式執行 <fn> 失敗

如需詳細資訊,請參閱 UDF_ERROR

UDF_LIMITS

SQLSTATE:54KD0

違反一或多個 UDF 限制。

如需詳細資訊,請參閱 UDF_LIMITS

UDF_MAX_COUNT_EXCEEDED

SQLSTATE:54KD0

超過整個查詢 UDF 的 <maxNumUdfs> UDF 限制(在公開預覽期間有限)。 找到 <numUdfs>。 UDF 為: <udfNames>

UDF_PYSPARK_UNSUPPORTED_TYPE

SQLSTATE:0A000

共用存取模式中的叢集不支援 PySpark UDF <udf><eval-type>)。

UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE

SQLSTATE:0A000

用戶定義 <functionType> 函數不支持參數預設值。

UDF_USER_CODE_ERROR

SQLSTATE:39000

函式的執行 <fn> 失敗。

如需詳細資訊,請參閱 UDF_USER_CODE_ERROR

UDTF_ALIAS_NUMBER_MISMATCH

SQLSTATE:42802

AS 子句中提供的別名數目不符合 UDTF 輸出的數據行數目。

預期的 <aliasesSize> 別名,但已取得 <aliasesNames>

請確定提供的別名數目符合UDTF輸出的數據行數目。

UDTF_INVALID_ALIAS_IN_REQUESTED_ORDERING_STRING_FROM_ANALYZE_METHOD

SQLSTATE:42802

無法評估使用者定義數據表函式,因為其 'analyze' 方法傳回要求的 OrderingColumn,其數據行名稱表達式包含不必要的別名;請移除此別名 <aliasName>,然後再試一次查詢。

UDTF_INVALID_REQUESTED_SELECTED_EXPRESSION_FROM_ANALYZE_METHOD_REQUIRES_ALIAS

SQLSTATE:42802

無法評估使用者定義數據表函式,因為其 'analyze' 方法傳回要求的 'select' 表達式 (<expression>) 不包含對應的別名;請更新 UDTF 以指定該處的別名,然後再試一次查詢。

UDTF_PYSPARK_NOT_SUPPORTED

SQLSTATE:0A000

共用存取模式中的叢集不支援 PySpark UDTF。 若要繼續,請改為建立單一使用者叢集,然後重新執行筆記本。

UNABLE_TO_ACQUIRE_MEMORY

SQLSTATE:53200

無法取得 <requestedBytes> 記憶體的位元組,取得 <receivedBytes>

UNABLE_TO_CONVERT_TO_PROTOBUF_MESSAGE_TYPE

SQLSTATE:42K0G

無法將 SQL 類型 <toType> 轉換為 Protobuf 類型 <protobufType>

UNABLE_TO_FETCH_HIVE_TABLES

SQLSTATE:58030

無法擷取Hive資料庫的數據表: <dbName>。 錯誤類別名稱: <className>

UNABLE_TO_INFER_SCHEMA

SQLSTATE: 42KD9

無法推斷的 <format>架構。 必須手動指定。

UNAUTHORIZED_ACCESS

SQLSTATE:42501

未經授權的存取:

<report>

UNBOUND_SQL_PARAMETER

SQLSTATE: 42P02

找到未系結的參數: <name>。 請修正 args 並提供 參數與 SQL 常值或集合建構函式的對應,例如 map()array()struct()

UNCLOSED_BRACKETED_COMMENT

SQLSTATE:42601

找到未封閉的括號批注。 請在註尾附加 */ 。

UNEXPECTED_INPUT_TYPE

SQLSTATE:42K09

函式的參數<paramIndex>需要 <requiredType> 型別,但是<inputSql>具有 型別 <inputType><functionName>

UNEXPECTED_OPERATOR_IN_STREAMING_VIEW

SQLSTATE: 42KDD

CREATE VIEW 語句中的非預期運算符 <op> 做為串流來源。

串流檢視查詢只能包含 SELECT、WHERE 和 UNION ALL 作業。

UNEXPECTED_POSITIONAL_ARGUMENT

SQLSTATE: 4274K

無法叫用函式 <functionName> ,因為它包含指派給 <parameterName>的具名自變數之後的位置自變數;請重新排列它們,讓位置自變數先進行,然後再重試查詢。

UNEXPECTED_SERIALIZER_FOR_CLASS

SQLSTATE: 42846

<className>類別具有非預期的表達式串行化程式。 預期會傳回 「STRUCTSTRUCT或」IF 但找到 <expr>

UNKNOWN_FIELD_EXCEPTION

SQLSTATE: KD003

剖析期間遇到未知的欄位:,可透過自動重試來修正: <unknownFieldBlob><isRetryable>

如需詳細資訊,請參閱 UNKNOWN_FIELD_EXCEPTION

UNKNOWN_POSITIONAL_ARGUMENT

SQLSTATE: 4274K

函式的<functionName>調用包含位於 位置<pos>的未知位置自變數<sqlExpr>。 這無效。

UNKNOWN_PROTOBUF_MESSAGE_TYPE

SQLSTATE:42K0G

試著將 視為 <descriptorName> 訊息,但它是 <containingType>

UNPIVOT_REQUIRES_ATTRIBUTES

SQLSTATE: 42K0A

UNPIVOT 要求所有指定的 <given> 表達式在未 <empty> 指定表示式時成為數據行。 這些不是數據行:[<expressions>]。

UNPIVOT_REQUIRES_VALUE_COLUMNS

SQLSTATE: 42K0A

至少必須針對 UNPIVOT 指定一個值數據行,所有指定為 id 的數據行。

UNPIVOT_VALUE_DATA_TYPE_MISMATCH

SQLSTATE:42K09

取消樞紐值數據行必須共用最不常見的類型,某些類型不會: [<types>]。

UNPIVOT_VALUE_SIZE_MISMATCH

SQLSTATE: 428C4

所有未樞紐值數據行的大小都必須與有值數據行名稱 (<names>) 相同。

UNRECOGNIZED_PARAMETER_NAME

SQLSTATE: 4274K

無法叫用函式 <functionName> ,因為函式呼叫包含名為 之自變數的具名 <argumentName>自變數參考,但此函式不包含包含具有此名稱之自變數的任何簽章。 您的意思是下列其中一項嗎? [<proposal>]。

UNRECOGNIZED_SQL_TYPE

SQLSTATE:42704

無法辨識的 SQL 類型 - 名稱: <typeName>、識別碼: <jdbcType>

UNRESOLVABLE_TABLE_VALUED_FUNCTION

SQLSTATE:42883

無法解析 <name> 為數據表值函式。

請確定 <name> 已定義為數據表值函式,並且已正確提供所有必要的參數。

如果未 <name> 定義,請先建立數據表值函式,再使用它。

如需定義數據表值函式的詳細資訊,請參閱 Apache Spark 檔。

UNRESOLVED_ALL_IN_GROUP_BY

SQLSTATE:42803

無法根據 select 子句推斷 GROUP BY ALL 的群組數據行。 請明確指定群組數據行。

UNRESOLVED_COLUMN

SQLSTATE:42703

無法解析具有名稱 <objectName> 的數據行、變數或函式參數。

如需詳細資訊,請參閱 UNRESOLVED_COLUMN

UNRESOLVED_FIELD

SQLSTATE:42703

名稱為 <fieldName> 的欄位無法使用結構類型數據行 <columnPath>解析。

如需詳細資訊,請參閱 UNRESOLVED_FIELD

UNRESOLVED_MAP_KEY

SQLSTATE:42703

無法將數據行 <objectName> 解析為對應索引鍵。 如果索引鍵是字串常值,請新增其周圍的單引號 ''。

如需詳細資訊,請參閱 UNRESOLVED_MAP_KEY

UNRESOLVED_ROUTINE

SQLSTATE:42883

無法解析搜尋路徑 <searchPath>上的函式<routineName>

如需詳細資訊,請參閱 UNRESOLVED_ROUTINE

UNRESOLVED_USING_COLUMN_FOR_JOIN

SQLSTATE:42703

USING 資料行 <colName> 無法在聯結的一邊解析 <side> 。 -side 數據 <side>行: [<suggestion>]。

UNRESOLVED_VARIABLE

SQLSTATE:42883

無法解析搜尋路徑 <searchPath>上的變數<variableName>

UNSET_NONEXISTENT_PROPERTIES

SQLSTATE: 42K0J

試著在資料表<table>取消設定不存在的屬性 [<properties>] 。

UNSUPPORTED_ADD_FILE

SQLSTATE:0A000

不支援新增檔案。

如需詳細資訊,請參閱 UNSUPPORTED_ADD_FILE

UNSUPPORTED_ARROWTYPE

SQLSTATE:0A000

不支援的箭號類型 <typeName>

UNSUPPORTED_BATCH_TABLE_VALUED_FUNCTION

SQLSTATE:42000

函式 <funcName> 不支援批次查詢。

UNSUPPORTED_CHAR_OR_VARCHAR_AS_STRING

SQLSTATE:0A000

無法在數據表架構中使用char/varchar類型。

如果您想要將 Spark 視為與 Spark 3.0 和更早版本的字串類型相同,請將 “spark.sql.legacy.charVarcharAsString” 設定為 “true”。

UNSUPPORTED_CLAUSE_FOR_OPERATION

SQLSTATE:0A000

<clause>不支援 <operation>

UNSUPPORTED_COMMON_ANCESTOR_LOC_FOR_FILE_STREAM_SOURCE

SQLSTATE:42616

來源路徑和 sourceArchiveDir 的通用上階應該向 UC 註冊。

如果您看到此錯誤訊息,您可能會在不同的外部位置註冊來源路徑和sourceArchiveDir。

請將它們放入單一外部位置。

UNSUPPORTED_CONSTRAINT_CLAUSES

SQLSTATE:0A000

不支持條件約束子句 <clauses>

UNSUPPORTED_CONSTRAINT_TYPE

SQLSTATE:42000

不支援的條件約束類型。 僅 <supportedConstraintTypes> 支援

UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY

SQLSTATE:0A000

不支援直接查詢檔案的資料來源型態: <dataSourceType>

UNSUPPORTED_DATATYPE

SQLSTATE:0A000

不支援的資料類型 <typeName>

UNSUPPORTED_DATA_SOURCE_SAVE_MODE

SQLSTATE:0A000

資料來源 「<source>無法以 <createMode> 模式寫入」。 請改用 「附加」或「覆寫」模式。

UNSUPPORTED_DATA_TYPE_FOR_DATASOURCE

SQLSTATE:0A000

<format>數據源不支援 類型<columnType>的數據行<columnName>

UNSUPPORTED_DEFAULT_VALUE

SQLSTATE:0A000

不支援 DEFAULT 資料行值。

如需詳細資訊,請參閱 UNSUPPORTED_DEFAULT_VALUE

UNSUPPORTED_DESERIALIZER

SQLSTATE:0A000

不支援還原串行化程式:

如需詳細資訊,請參閱 UNSUPPORTED_DESERIALIZER

UNSUPPORTED_EXPRESSION_GENERATED_COLUMN

SQLSTATE:42621

無法建立產生表達式的數據行<fieldName>,因為 <reason><expressionStr>

UNSUPPORTED_EXPR_FOR_OPERATOR

SQLSTATE: 42K0E

查詢運算子包含一或多個不支援的表達式。

請考慮重寫它,以避免 WHERE 子句中的視窗函式、聚合函數和產生器函式。

不合法的表示式: [<invalidExprSqls>]

UNSUPPORTED_EXPR_FOR_PARAMETER

SQLSTATE: 42K0E

查詢參數包含不支持的表達式。

參數可以是變數或常值。

不合法的表示式: [<invalidExprSql>]

UNSUPPORTED_EXPR_FOR_WINDOW

SQLSTATE: 42P20

視窗函式內不支援表達式 <sqlExpr>

UNSUPPORTED_FEATURE

SQLSTATE:0A000

不支援此功能:

如需詳細資訊,請參閱 UNSUPPORTED_FEATURE

UNSUPPORTED_FN_TYPE

SQLSTATE:0A000

不支援的使用者定義函式型態: <language>

UNSUPPORTED_GENERATOR

SQLSTATE: 42K0E

不支援產生器:

如需詳細資訊,請參閱 UNSUPPORTED_GENERATOR

UNSUPPORTED_GROUPING_EXPRESSION

SQLSTATE: 42K0E

grouping()/grouping_id() 只能與 GroupingSets/Cube/Rollup 搭配使用。

UNSUPPORTED_INITIAL_POSITION_AND_TRIGGER_PAIR_FOR_KINESIS_SOURCE

SQLSTATE:42616

<trigger>Kinesis 來源不支援具有初始位置<initialPosition>

UNSUPPORTED_INSERT

SQLSTATE:42809

無法插入目標。

如需詳細資訊,請參閱 UNSUPPORTED_INSERT

UNSUPPORTED_MANAGED_TABLE_CREATION

SQLSTATE: 0AKDD

不支援使用數據源<dataSource>建立受控數據表<tableName>。 您必須使用數據源 DELTA,或使用 CREATE EXTERNAL TABLE 建立外部數據表 <tableName> ... USING <dataSource> ...

UNSUPPORTED_MERGE_CONDITION

SQLSTATE: 42K0E

MERGE 作業包含不支持 <condName> 的條件。

如需詳細資訊,請參閱 UNSUPPORTED_MERGE_CONDITION

UNSUPPORTED_NESTED_ROW_OR_COLUMN_ACCESS_POLICY

SQLSTATE:0A000

數據表 <tableName> 具有數據列層級安全策略或數據行掩碼,間接參考具有數據列層級安全策略或數據行掩碼的另一個數據表;這不支援。 呼叫順序: <callSequence>

UNSUPPORTED_OVERWRITE

SQLSTATE:42902

無法覆寫也正在讀取的目標。

如需詳細資訊,請參閱 UNSUPPORTED_OVERWRITE

UNSUPPORTED_SAVE_MODE

SQLSTATE:0A000

不支援儲存模式 <saveMode>

如需詳細資訊,請參閱 UNSUPPORTED_SAVE_MODE

UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW

SQLSTATE:0A000

不支援串流檢視。 原因:

如需詳細資訊,請參閱 UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW

UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED

SQLSTATE:0A000

共用叢集上的數據源<source>不支援串流選項<options>

UNSUPPORTED_STREAMING_SINK_PERMISSION_ENFORCED

SQLSTATE:0A000

共用叢集上的數據流接收不支持數據源 <sink>

UNSUPPORTED_STREAMING_SOURCE_PERMISSION_ENFORCED

SQLSTATE:0A000

共用叢集上的數據流來源不支持數據源 <source>

UNSUPPORTED_STREAMING_TABLE_VALUED_FUNCTION

SQLSTATE:42000

函式 <funcName> 不支援串流。 請移除 STREAM 關鍵詞

UNSUPPORTED_STREAM_READ_LIMIT_FOR_KINESIS_SOURCE

SQLSTATE:0A000

<streamReadLimit> 不支援 Kinesis 來源

UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY

SQLSTATE:0A000

不支援的子查詢表示式:

如需詳細資訊,請參閱 UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY

UNSUPPORTED_TIMESERIES_COLUMNS

SQLSTATE:56038

不支援使用時間器數據行建立主鍵

UNSUPPORTED_TIMESERIES_WITH_MORE_THAN_ONE_COLUMN

SQLSTATE:0A000

不支援使用多個次次數據行 <colSeq> 建立主鍵

UNSUPPORTED_TRIGGER_FOR_KINESIS_SOURCE

SQLSTATE:0A000

<trigger> 不支援 Kinesis 來源

UNSUPPORTED_TYPED_LITERAL

SQLSTATE:0A000

不支援類型的 <unsupportedType> 常值。 支援的型別為 <supportedTypes>

UNTYPED_SCALA_UDF

SQLSTATE: 42K0E

您使用的是不具類型的 Scala UDF,其沒有輸入類型資訊。

Spark 可能會盲目地使用基本類型自變數將 Null 傳遞至 Scala 關閉,而關閉將會看到 Null 自變數的 Java 類型預設值,例如 udf((x: Int) => x, IntegerType),結果為 Null 輸入為 0。 若要擺脫此錯誤,您可以:

  1. 使用具類型的 Scala UDF API(不含傳回型別參數),例如 udf((x: Int) => x)
  2. 如果輸入類型都是非基本類型,請使用 Java UDF API, 例如 udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType)
  3. 將 「spark.sql.legacy.allowUntypedScalaUDF」 設定為 “true”,並謹慎使用此 API。

UPGRADE_NOT_SUPPORTED

SQLSTATE: 0AKUC

數據表不符合從Hive中繼存放區升級至 Unity 目錄的資格。 原因:

如需詳細資訊,請參閱 UPGRADE_NOT_SUPPORTED

USER_DEFINED_FUNCTIONS

SQLSTATE:42601

使用者定義函數無效:

如需詳細資訊,請參閱 USER_DEFINED_FUNCTIONS

USER_RAISED_EXCEPTION

SQLSTATE: P0001

<errorMessage>

USER_RAISED_EXCEPTION_PARAMETER_MISMATCH

SQLSTATE: P0001

raise_error() 式是用來引發錯誤類別: <errorClass> 預期參數: <expectedParms>

所提供的參數 <providedParms> 不符合預期的參數。

請務必提供所有預期的參數。

USER_RAISED_EXCEPTION_UNKNOWN_ERROR_CLASS

SQLSTATE: P0001

raise_error() 式用來引發未知的錯誤類別: <errorClass>

VARIABLE_ALREADY_EXISTS

SQLSTATE:42723

無法建立變數 <variableName> ,因為它已經存在。

選擇不同的名稱,或卸除或取代現有的變數。

VARIABLE_NOT_FOUND

SQLSTATE:42883

找不到變數 <variableName> 。 確認架構和目錄的拼字和正確性。

如果您未使用架構和目錄來限定名稱,請確認current_schema() 輸出,或使用正確的架構和目錄來限定名稱。

若要容許卸除時的錯誤,請使用DROP VARIABLE IF EXISTS。

VARIANT_SIZE_LIMIT

SQLSTATE: 22023

無法建置大於 <sizeLimit> 中的 <functionName>變體。

請避免此表達式的大型輸入字串(例如,新增函數調用(s)來檢查表達式大小,並在太大時先轉換為 NULL。

VIEW_ALREADY_EXISTS

SQLSTATE: 42P07

無法建立檢視 <relationName> ,因為它已經存在。

選擇不同的名稱、卸除或取代現有的物件,或新增IF NOT EXISTS 子句以容許既有的物件。

VIEW_EXCEED_MAX_NESTED_DEPTH

SQLSTATE:54K00

檢視深度超過最大檢視 <viewName> 解析度深度 (<maxNestedDepth>)。

分析已中止以避免錯誤。 如果您想要解決此問題,請嘗試增加 「spark.sql.view.maxNestedViewDepth」 的值。

VIEW_NOT_FOUND

SQLSTATE: 42P01

找不到檢視 <relationName> 。 確認架構和目錄的拼字和正確性。

如果您未使用架構限定名稱,請確認current_schema() 輸出,或使用正確的架構和目錄來限定名稱。

若要容許卸除時的錯誤,請使用DROP VIEW IF EXISTS。

VOLUME_ALREADY_EXISTS

SQLSTATE:42000

無法建立磁碟區 <relationName> ,因為它已經存在。

選擇不同的名稱、卸除或取代現有的物件,或新增IF NOT EXISTS 子句以容許既有的物件。

WINDOW_FUNCTION_AND_FRAME_MISMATCH

SQLSTATE: 42K0E

<funcName> 函式只能在具有單一位移的已排序數據列式視窗框架中進行評估: <windowExpr>

WINDOW_FUNCTION_WITHOUT_OVER_CLAUSE

SQLSTATE:42601

Window 函式 <funcName> 需要 OVER 子句。

WITH_CREDENTIAL

SQLSTATE:42601

不支援 <type>WITH CREDENTIAL語法。

WRITE_STREAM_NOT_ALLOWED

SQLSTATE:42601

writeStream 只能在串流數據集/數據框架上呼叫。

WRONG_COLUMN_DEFAULTS_FOR_DELTA_ALTER_TABLE_ADD_COLUMN_NOT_SUPPORTED

SQLSTATE:0AKDC

無法執行命令,因為新增時不支援 DEFAULT 值

先前現有 Delta 資料表的數據行;請新增沒有預設值的數據行

首先,然後執行第二個 ALTER TABLE ALTER COLUMN SET DEFAULT 命令以套用

改為針對未來的插入數據列。

WRONG_COLUMN_DEFAULTS_FOR_DELTA_FEATURE_NOT_ENABLED

SQLSTATE: 0AKDE

無法執行 <commandType> 命令,因為它已指派數據行 DEFAULT 值,

但未啟用對應的數據表功能。 請再次重試命令

執行 ALTER TABLE tableName SET 之後

TBLPROPERTIES('delta.feature.allowColumnDefaults' = 'supported')。

WRONG_COMMAND_FOR_OBJECT_TYPE

SQLSTATE:42809

工作 <operation> 需要 <requiredType>。 但 <objectName><foundType>。 請改用 <alternative>

WRONG_NUM_ARGS

SQLSTATE:42605

<functionName>需要<expectedNum>參數,但實際數位為 <actualNum>

如需詳細資訊,請參閱 WRONG_NUM_ARGS

XML_ROW_TAG_MISSING

SQLSTATE:42KDF

<rowTag> 讀取 XML 格式的檔案需要選項。

XML_UNSUPPORTED_NESTED_TYPES

SQLSTATE:0N000

XML 不支援 <innerDataType> 做為 的內部 <dataType>類型。 請在內部<dataType>使用它時,將 包裝<innerDataType>在 StructType 欄位中。

XML_WILDCARD_RESCUED_DATA_CONFLICT_ERROR

SQLSTATE: 22023

無法同時啟用已獲救的數據和通配符數據行。 拿掉通配符ColumnName 選項。

ZORDERBY_COLUMN_DOES_NOT_EXIST

SQLSTATE:42703

ZOrderBy 數據行 <columnName> 不存在。

Delta Lake

DELTA_ACTIVE_SPARK_SESSION_NOT_FOUND

SQLSTATE:08003

找不到使用中的SparkSession

DELTA_ACTIVE_TRANSACTION_ALREADY_SET

SQLSTATE:0B000

當新的 txn 已在使用中時,無法將新的 txn 設定為作用中

DELTA_ADDING_COLUMN_WITH_INTERNAL_NAME_FAILED

SQLSTATE:42000

無法新增資料行 <colName> ,因為名稱已保留。

DELTA_ADDING_DELETION_VECTORS_DISALLOWED

SQLSTATE:0A000

目前作業嘗試將刪除向量新增至不允許建立新刪除向量的數據表。 請提出錯誤報告。

DELTA_ADDING_DELETION_VECTORS_WITH_TIGHT_BOUNDS_DISALLOWED

SQLSTATE:42000

新增刪除向量的所有作業都應該將統計數據中的 tightBounds 數據行設定為 false。 請提出錯誤報告。

DELTA_ADD_COLUMN_AT_INDEX_LESS_THAN_ZERO

SQLSTATE:42KD3

要加入數據行<columnName>的索引<columnIndex>低於 0

DELTA_ADD_COLUMN_PARENT_NOT_STRUCT

SQLSTATE:42KD3

無法新增 <columnName> ,因為其父代不是 StructType。 發現 <other>

DELTA_ADD_COLUMN_STRUCT_NOT_FOUND

SQLSTATE:42KD3

在位置上找不到結構 <position>

DELTA_ADD_CONSTRAINTS

SQLSTATE:0A000

請使用 ALTER TABLE ADD CONSTRAINT 來新增 CHECK 條件約束。

DELTA_AGGREGATE_IN_GENERATED_COLUMN

SQLSTATE:42621

找到 <sqlExpr>。 產生的數據行無法使用匯總表達式

DELTA_AGGREGATION_NOT_SUPPORTED

SQLSTATE:42903

<operation><predicate>不支援聚合函數。

DELTA_ALTER_TABLE_CHANGE_COL_NOT_SUPPORTED

SQLSTATE:42837

變更數據行不支援將數據行 <currentType> 變更為 <newType>

DELTA_ALTER_TABLE_CLUSTER_BY_NOT_ALLOWED

SQLSTATE:42000

只有具有 Liquid 叢集的 Delta 數據表才支援 ALTER TABLE CLUSTER BY。

DELTA_ALTER_TABLE_CLUSTER_BY_ON_PARTITIONED_TABLE_NOT_ALLOWED

SQLSTATE:42000

ALTER TABLE CLUSTER BY 無法套用至數據分割數據表。

DELTA_ALTER_TABLE_RENAME_NOT_ALLOWED

SQLSTATE:42000

不允許作業:S3 上的 Managed Delta 數據表不允許 ALTER TABLE RENAME TO,因為 S3 上的最終一致性可能會損毀差異事務歷史記錄。 如果您堅持這樣做,並確定之前從未有過具有新名稱 <newName> 的 Delta 數據表,您可以藉由將 設定 <key> 為 true 來啟用此功能。

DELTA_ALTER_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED

SQLSTATE:42000

無法使用 ALTER TABLE SET TBLPROPERTIES 來啟用 <tableFeature> 資料表功能。 請使用 CREATE OR REPLACE TABLE CLUSTER BY 來建立具有叢集的 Delta 數據表。

DELTA_AMBIGUOUS_DATA_TYPE_CHANGE

SQLSTATE: 429BQ

無法將的 <column> 資料類型從 <from> 變更為 <to>。 這項變更包含數據行移除和新增專案,因此它們模棱兩可。 請使用 ALTER TABLE 個別進行這些變更 [ADD |DROP |RENAME] 資料行。

DELTA_AMBIGUOUS_PARTITION_COLUMN

SQLSTATE: 42702

模棱兩可的數據分割資料列 <column> 可以是 <colMatches>

DELTA_AMBIGUOUS_PATHS_IN_CREATE_TABLE

SQLSTATE: 42613

CREATE TABLE 包含兩個不同的位置: <identifier><location>

您可以從 CREATE TABLE 語句移除 LOCATION 子句,或設定

<config> 若要略過此檢查,則為 true。

DELTA_ARCHIVED_FILES_IN_LIMIT

SQLSTATE:42KDC

數據表 <table> 未在未封存的檔案中包含足夠的記錄,無法滿足指定的記錄 LIMIT <limit>

DELTA_ARCHIVED_FILES_IN_SCAN

SQLSTATE:42KDC

在需要在此查詢中掃描的數據表<table>中,找到<numArchivedFiles>可能封存的檔案。

無法存取封存盤案。 封存設定為 <archivalTime>的目前時間。

請調整查詢篩選條件,以排除任何封存的檔案。

DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION

SQLSTATE: 42KD4

當數據表已啟用變更數據摘要 (CDF) 並使用DROP COLUMN 或 RENAME COLUMN 進行架構變更時,不允許作業 “<opName>

DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS

SQLSTATE:42703

無法卸除下列不存在資料行的 bloom 篩選索引: <unknownColumns>

DELTA_BLOOM_FILTER_OOM_ON_WRITE

SQLSTATE:82100

OutOfMemoryError 是在撰寫下列數據行的 bloom 篩選索引時發生: <columnsWithBloomFilterIndices>

您可以為 'numItems' 選項選擇較小的值、為 'fpp' 選項指定較大的值,或為較少的數據行編製索引,以減少 bloom 篩選索引的記憶體使用量。

DELTA_CANNOT_CHANGE_DATA_TYPE

SQLSTATE: 429BQ

無法變更資料類型: <dataType>

DELTA_CANNOT_CHANGE_LOCATION

SQLSTATE:42601

無法使用 SET TBLPROPERTIES 變更 Delta 數據表的 'location'。 請改用 ALTER TABLE SET LOCATION。

DELTA_CANNOT_CHANGE_PROVIDER

SQLSTATE:42939

'provider' 是保留的數據表屬性,而且無法改變。

DELTA_CANNOT_CREATE_BLOOM_FILTER_NON_EXISTING_COL

SQLSTATE:42703

無法為下列不存在的數據行建立 bloom 篩選索引: <unknownCols>

DELTA_CANNOT_CREATE_LOG_PATH

SQLSTATE:42KD5

無法建立 <path>

DELTA_CANNOT_DESCRIBE_VIEW_HISTORY

SQLSTATE:42809

無法描述檢視的歷程記錄。

DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN

SQLSTATE:42703

無法在非索引資料行上卸除 bloom 篩選索引: <columnName>

DELTA_CANNOT_EVALUATE_EXPRESSION

SQLSTATE:0AKDC

無法評估表示式: <expression>

DELTA_CANNOT_FIND_BUCKET_SPEC

SQLSTATE: 22000

預期貯體差異數據表,但找不到數據表中的貯體規格

DELTA_CANNOT_GENERATE_CODE_FOR_EXPRESSION

SQLSTATE:0AKDC

無法產生表示式的程式代碼: <expression>

DELTA_CANNOT_MODIFY_APPEND_ONLY

SQLSTATE:42809

此資料表設定為只允許附加。 如果您想要允許更新或刪除,請使用 『ALTER TABLE <table_name> SET TBLPROPERTIES (<config>=false)』。

DELTA_CANNOT_MODIFY_TABLE_PROPERTY

SQLSTATE:42939

用戶無法指定 Delta 資料表組態<prop>

DELTA_CANNOT_RECONSTRUCT_PATH_FROM_URI

SQLSTATE:22KD1

在事務歷史記錄中找到無法轉換成相對路徑的 URI (<uri>)。

DELTA_CANNOT_RELATIVIZE_PATH

SQLSTATE:42000

路徑 (<path>) 無法與 中找到的目前輸入相對化

事務歷史記錄檔。 請以下欄方式重新執行:

%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog(“”<userPath>,true)

然後也會執行:

%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog(“”<path>

DELTA_CANNOT_RENAME_PATH

SQLSTATE:22KD1

無法重新命名 <currentPath><newPath>

DELTA_CANNOT_REPLACE_MISSING_TABLE

SQLSTATE: 42P01

無法取代數據表 <tableName> ,因為它不存在。 使用 CREATE OR REPLACE TABLE 來建立數據表。

DELTA_CANNOT_RESOLVE_COLUMN

SQLSTATE:42703

無法解析 中的數據行<columnName><schema>

DELTA_CANNOT_RESTORE_TABLE_VERSION

SQLSTATE: 22003

無法將資料表還原至版本 <version>。 可用的版本:[<startVersion><endVersion>]。

DELTA_CANNOT_RESTORE_TIMESTAMP_GREATER

SQLSTATE: 22003

無法將數據表還原為時間戳 (<requestedTimestamp>) ,因為它位於最新版本可用之後。 請使用時間戳之前 (<latestTimestamp>

DELTA_CANNOT_SET_LOCATION_ON_PATH_IDENTIFIER

SQLSTATE: 42613

無法變更路徑型數據表的位置。

DELTA_CANNOT_UPDATE_ARRAY_FIELD

SQLSTATE: 429BQ

無法更新 %1$s 字段 %2$s 類型:藉由更新 %2$s.element 來更新元素

DELTA_CANNOT_UPDATE_MAP_FIELD

SQLSTATE: 429BQ

無法更新 %1$s 字段 %2$s 類型:藉由更新%2$s.key或 %2$s.value 來更新對應

DELTA_CANNOT_UPDATE_OTHER_FIELD

SQLSTATE: 429BQ

無法更新 <tableName> 類型的欄位 <typeName>

DELTA_CANNOT_UPDATE_STRUCT_FIELD

SQLSTATE: 429BQ

無法更新 <tableName> 欄位 <fieldName> 類型:藉由新增、刪除或更新其欄位來更新結構

DELTA_CANNOT_USE_ALL_COLUMNS_FOR_PARTITION

SQLSTATE: 428FT

無法針對數據分割數據行使用所有數據行

DELTA_CANNOT_WRITE_INTO_VIEW

SQLSTATE:0A000

<table> 是檢視。 不支援寫入檢視。

DELTA_CAST_OVERFLOW_IN_TABLE_WRITE

SQLSTATE: 22003

因為溢位而無法將 類型的<targetType><sourceType>寫入類型<columnName>數據行。

try_cast 輸入值上使用 來容許溢位,並改為傳回NULL。

如有必要,請將 設定 <storeAssignmentPolicyFlag> 為 「LEGACY」 以略過此錯誤,或設定 <updateAndMergeCastingFollowsAnsiEnabledFlag> 為 true 以還原為舊行為,並在 UPDATE 和 MERGE 中追蹤 <ansiEnabledFlag>

DELTA_CDC_NOT_ALLOWED_IN_THIS_VERSION

SQLSTATE:0AKDC

無法設定 Configuration delta.enableChangeDataFeed。 尚未提供從 Delta 變更數據摘要。

DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_DATA_SCHEMA

SQLSTATE:0AKDC

因為數據架構不相容,在版本 <start> 之間擷取數據表變更而 <end> 失敗。

您的讀取架構位於 <readSchema> 版本 <readVersion>,但我們在 版本 <incompatibleVersion>中找到不相容的數據架構。

可能的話,請將 設定 <config>endVersion,或連絡支持人員,以使用結束版本的架構擷取數據表變更。

DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE:0AKDC

擷取版本 <start> 之間的數據表變更,因為 <end> 架構變更不相容而失敗。

您的讀取架構位於 <readSchema> 版本 <readVersion>,但我們發現 版本 <incompatibleVersion>發生不相容的架構變更。

可能的話,請查詢資料表會分別從版本 <start> 變更為 <incompatibleVersion> - 1,以及從版本 <incompatibleVersion> 變更為 <end>

DELTA_CHANGE_DATA_FILE_NOT_FOUND

SQLSTATE:42K03

找不到事務歷史記錄中所參考的檔案 <filePath> 。 當數據已從文件系統手動刪除,而不是使用 table DELETE 語句時,就會發生這種情況。 此要求似乎以變更資料摘要為目標,如果是這種情況,當變更數據檔超過保留期間且已由 VACUUM 語句刪除時,就會發生此錯誤。 如需詳細資訊,請參閱 <faqPath>

DELTA_CHANGE_TABLE_FEED_DISABLED

SQLSTATE:42807

無法寫入具有 delta.enableChangeDataFeed 集合的數據表。 無法從 Delta 變更數據摘要。

DELTA_CHECKPOINT_NON_EXIST_TABLE

SQLSTATE:42K03

無法檢查非現有資料表 <path>。 您是否手動刪除_delta_log目錄中的檔案?

DELTA_CLONE_AMBIGUOUS_TARGET

SQLSTATE: 42613

已提供兩個路徑做為CLONE目標,因此使用這個路徑模棱兩可。 外部

CLONE 的位置與路徑同時提供<externalLocation>

<targetIdentifier>.

DELTA_CLONE_INCOMPLETE_FILE_COPY

SQLSTATE:42000

檔案 (<fileName>) 未完全複製。 預期的檔案大小: <expectedSize>,找到: <actualSize>。 若要繼續作業,請忽略設定 <config> 為 false 的檔案大小檢查。

DELTA_CLONE_UNSUPPORTED_SOURCE

SQLSTATE:0AKDC

不支援的 <mode> 複製來源'<name>,其格式為 <format>

支援的格式為 『delta』、'iceberg' 和 'parquet'。

DELTA_CLUSTERING_CLONE_TABLE_NOT_SUPPORTED

SQLSTATE:0A000

DBR 14.0 版 < 的 Liquid 叢集不支援 DELTA 資料表的 CLONE。

DELTA_CLUSTERING_COLUMNS_MISMATCH

SQLSTATE: 42P10

提供的叢集數據行不符合現有的數據表。

  • 提供: <providedClusteringColumns>
  • 現有: <existingClusteringColumns>

DELTA_CLUSTERING_COLUMN_MISSING_STATS

SQLSTATE: 22000

Liquid clustering 需要叢集數據行具有統計數據。在統計資料架構中找不到叢集資料列 '<columns>' :

<schema>

DELTA_CLUSTERING_CREATE_EXTERNAL_NON_LIQUID_TABLE_FROM_LIQUID_TABLE

SQLSTATE: 22000

不允許從具有液體叢集的數據表目錄建立外部數據表,而不需進行液體叢集;路徑: <path>

DELTA_CLUSTERING_NOT_SUPPORTED

SQLSTATE:42000

'<operation>' 不支援叢集。

DELTA_CLUSTERING_PHASE_OUT_FAILED

SQLSTATE: 0AKDE

無法使用資料表功能完成 <phaseOutType> 資料表 <tableFeatureToAdd> 的 (原因: <reason>。 請再次嘗試 OPTIMIZE 命令。

== 錯誤 ==

<error>

DELTA_CLUSTERING_REPLACE_TABLE_WITH_PARTITIONED_TABLE

SQLSTATE:42000

不允許使用數據分割數據表取代使用 Liquid 叢集的 Delta 資料表。

DELTA_CLUSTERING_SHOW_CREATE_TABLE_WITHOUT_CLUSTERING_COLUMNS

SQLSTATE:0A000

沒有任何叢集數據行的情況下,使用 Liquid 叢集的 Delta 資料表不支援 SHOW CREATE TABLE。

DELTA_CLUSTERING_WITH_DYNAMIC_PARTITION_OVERWRITE

SQLSTATE:42000

使用 Liquid 叢集的 Delta 資料表不允許動態分割覆寫模式。

DELTA_CLUSTERING_WITH_PARTITION_PREDICATE

SQLSTATE:0A000

具有 Liquid 叢集之 Delta 資料表的 OPTIMIZE 命令不支持數據分割述詞。 請移除述詞: <predicates>

DELTA_CLUSTERING_WITH_ZORDER_BY

SQLSTATE: 42613

具有 Liquid 叢集之 Delta 資料表的 OPTIMIZE 命令無法指定 ZORDER BY。 請移除 ZORDER BY (<zOrderBy>)。

DELTA_CLUSTER_BY_INVALID_NUM_COLUMNS

SQLSTATE:54000

Liquid 叢集的 CLUSTER BY 最多可 <numColumnsLimit> 支援叢集數據行,但數據表具有 <actualNumColumns> 叢集數據行。 請移除額外的叢集數據行。

DELTA_CLUSTER_BY_SCHEMA_NOT_PROVIDED

SQLSTATE:42908

當架構未定義時,不允許指定CLUSTER BY。 請定義資料表 <tableName>的架構。

DELTA_CLUSTER_BY_WITH_BUCKETING

SQLSTATE: 42613

無法同時指定叢集和貯體。 如果您想要建立具有叢集的 Delta 數據表,請將 CLUSTERED BY 移除至 BUCKETS / bucketBy。

DELTA_CLUSTER_BY_WITH_PARTITIONED_BY

SQLSTATE: 42613

無法同時指定叢集和數據分割。 如果您想要建立具有叢集的 Delta 數據表,請移除 PARTITIONED BY / partitionBy / partitionedBy。

DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_PARTITIONED_COLUMN

SQLSTATE:0AKDC

數據分割資料行 『<column>' 不支援略過數據。

DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_TYPE

SQLSTATE:0AKDC

類型<type>的數據行 『<column>' 不支援資料略過。

DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET

SQLSTATE:42703

開啟資料列對應的資料列對應資料表上未設定 max 資料行識別元屬性 (<prop>) 。

DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET_CORRECTLY

SQLSTATE:42703

啟用數據行對應之數據表上的最大數據行標識元屬性 (<prop>) 為 <tableMax>,不能小於所有欄位的最大數據行識別碼 (<fieldMax>)。

DELTA_COLUMN_NOT_FOUND

SQLSTATE:42703

找不到指定的資料列 <columnName> [<columnList>]

DELTA_COLUMN_NOT_FOUND_IN_MERGE

SQLSTATE:42703

無法從 INSERT 資料行中尋找目標數據表的數據行 『<targetCol>': <colNames>。 INSERT 子句必須指定目標數據表所有數據行的值。

DELTA_COLUMN_NOT_FOUND_IN_SCHEMA

SQLSTATE:42703

在下列項目中找不到資料列 <columnName>

<tableSchema>

DELTA_COLUMN_PATH_NOT_NESTED

SQLSTATE:42704

必須是 <columnPath> 巢狀資料類型,但找到 <other>。 正在尋找

巢狀欄位中的 <column> 索引

DELTA_COLUMN_STRUCT_TYPE_MISMATCH

SQLSTATE: 2200G

結構數據行<source>無法插入 中的<targetType><targetTable>欄位<targetField>

DELTA_COMPACTION_VALIDATION_FAILED

SQLSTATE: 22000

驗證路徑<compactedPath><newPath>壓縮失敗:請提出錯誤報告。

DELTA_COMPLEX_TYPE_COLUMN_CONTAINS_NULL_TYPE

SQLSTATE: 22005

在 資料列 <columName> 中找到巢狀 NullType,其為 <dataType>。 Delta 不支援在複雜類型中撰寫 NullType。

DELTA_CONFLICT_SET_COLUMN

SQLSTATE:42701

這些 SET 資料行發生衝突: <columnList>

DELTA_CONSTRAINT_ALREADY_EXISTS

SQLSTATE: 42710

條件約束 『<constraintName>' 已經存在。 請先刪除舊的條件約束。

舊條件約束:

<oldConstraint>

DELTA_CONSTRAINT_DOES_NOT_EXIST

SQLSTATE:42704

無法從數據表 <tableName>卸除不存在的條件約束<constraintName>。 若要避免擲回錯誤,請提供 IF EXISTS 參數,或將 SQL 工作階段組態 <config> 設定設定為 <confValue>

DELTA_CONVERSION_NO_PARTITION_FOUND

SQLSTATE: 42KD6

在數據表 <tableName>的目錄中找不到任何數據分割資訊。 您是否在資料表上執行 「MSCK REPAIR TABLE」 來探索分割區?

DELTA_CONVERSION_UNSUPPORTED_COLUMN_MAPPING

SQLSTATE:0AKDC

使用 CONVERT TO DELTA 時,無法將組態'<config>' 設定為 <mode>

DELTA_CONVERT_NON_PARQUET_TABLE

SQLSTATE:0AKDC

CONVERT TO DELTA 僅支援 parquet 數據表,但您嘗試轉換 <sourceName> 來源: <tableId>

DELTA_CONVERT_TO_DELTA_ROW_TRACKING_WITHOUT_STATS

SQLSTATE: 22000

無法在不收集統計數據的情況下啟用數據列追蹤。

如果您要啟用資料列追蹤,請執行下列動作:

  1. 執行 命令來啟用統計數據收集

    SET <statisticsCollectionPropertyKey> = true

    1. 在沒有 NO STATISTICS 選項的情況下執行 CONVERT TO DELTA。

如果您不想收集統計數據,請停用數據列追蹤:

  1. 執行 命令,預設停用啟用資料表功能:

    重置 <rowTrackingTableFeatureDefaultKey>

    1. 依預設,執行下列動作來停用數據表屬性:

      SET <rowTrackingDefaultPropertyKey> = false

DELTA_COPY_INTO_TARGET_FORMAT

SQLSTATE: 0AKDD

COPY INTO 目標必須是 Delta 資料表。

DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_SCHEMA

SQLSTATE:42601

您嘗試建立外部資料表 <tableName>

<path> 使用 Delta,但在 時未指定架構

輸入路徑是空的。

若要深入瞭解 Delta,請參閱 <docLink>

DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_TXN_LOG

SQLSTATE:42K03

您嘗試建立外部資料表 <tableName>

使用 %2$s Delta,但不存在事務歷史記錄

%2$s/_delta_log. 檢查上游作業,以確定其正在使用 撰寫

format(“delta”) 和路徑是數據表的根目錄。

若要深入瞭解 Delta,請參閱 <docLink>

DELTA_CREATE_TABLE_SCHEME_MISMATCH

SQLSTATE: 42KD7

指定的架構與 上的現有架構 <path>不符。

== 指定 ==

<specifiedSchema>

== 現有 ==

<existingSchema>

== 差異 ==

<schemaDifferences>

如果您打算保留現有的架構,您可以省略

來自 create table 命令的架構。 否則,請確定

架構相符。

DELTA_CREATE_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED

SQLSTATE:42000

無法使用 TBLPROPERTIES 啟用 <tableFeature> 資料表功能。 請使用 CREATE OR REPLACE TABLE CLUSTER BY 來建立具有叢集的 Delta 數據表。

DELTA_CREATE_TABLE_WITH_DIFFERENT_CLUSTERING

SQLSTATE: 42KD7

指定的叢集數據行不符合 位於 <path>的現有叢集數據行。

== 指定 ==

<specifiedColumns>

== 現有 ==

<existingColumns>

DELTA_CREATE_TABLE_WITH_DIFFERENT_PARTITIONING

SQLSTATE: 42KD7

指定的數據分割與 位於 <path>的現有數據分割不符。

== 指定 ==

<specifiedColumns>

== 現有 ==

<existingColumns>

DELTA_CREATE_TABLE_WITH_DIFFERENT_PROPERTY

SQLSTATE: 42KD7

指定的屬性不符合 位於 <path>的現有屬性。

== 指定 ==

<specificiedProperties>

== 現有 ==

<existingProperties>

DELTA_CREATE_TABLE_WITH_NON_EMPTY_LOCATION

SQLSTATE:42601

無法建立數據表 (''<tableId>)。 相關聯的位置 (''<tableLocation>) 不是空的,也不是 Delta 數據表。

DELTA_DATA_CHANGE_FALSE

SQLSTATE: 0AKDE

無法變更數據表元數據,因為 『dataChange』 選項設定為 false。 嘗試的作業: '<op>'。

DELTA_DELETED_PARQUET_FILE_NOT_FOUND

SQLSTATE:42K03

找不到事務歷史記錄中所參考的檔案 <filePath> 。 此 parquet 檔案可能會在 Delta 的數據保留原則下刪除。

默認差異數據保留持續時間: <logRetentionPeriod>。 parquet 檔案的修改時間: <modificationTime>。 parquet 檔案的刪除時間: <deletionTime>。 在差異版本上刪除: <deletionVersion>

DELTA_DELETION_VECTOR_MISSING_NUM_RECORDS

SQLSTATE: 2D521

使用遺漏 numRecords 統計數據的刪除向量認可檔案是無效的。

DELTA_DOMAIN_METADATA_NOT_SUPPORTED

SQLSTATE:0A000

偵測到網域 <domainNames>的 DomainMetadata 動作,但未啟用 DomainMetadataTableFeature。

DELTA_DROP_COLUMN_AT_INDEX_LESS_THAN_ZERO

SQLSTATE: 42KD8

要卸除數據行的索引 <columnIndex> 低於 0

DELTA_DUPLICATE_ACTIONS_FOUND

SQLSTATE: 2D521

已指定路徑<path>的檔案作業 『<actionType>數次。

它與衝突 <conflictingPath>

單一認可中存在相同路徑的多個檔案作業無效。

DELTA_DUPLICATE_COLUMNS_FOUND

SQLSTATE:42711

找到重複的資料列(s) <coltype><duplicateCols>

DELTA_DUPLICATE_COLUMNS_ON_INSERT

SQLSTATE:42701

INSERT 子句中的重複資料行名稱

DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE

SQLSTATE:42701

<message>

更新數據表之前,請先移除重複的數據行。

DELTA_DUPLICATE_DATA_SKIPPING_COLUMNS

SQLSTATE:42701

找到重複的數據略過數據行: <columns>

DELTA_DUPLICATE_DOMAIN_METADATA_INTERNAL_ERROR

SQLSTATE:42601

內部錯誤:相同交易內的兩個 DomainMetadata 動作具有相同網域 <domainName>

DELTA_DV_HISTOGRAM_DESERIALIZATON

SQLSTATE: 22000

無法在數據表完整性驗證期間還原串行化已刪除的記錄計數直方圖。

DELTA_DYNAMIC_PARTITION_OVERWRITE_DISABLED

SQLSTATE:0A000

動態分割覆寫模式是由會話組態或寫入選項所指定,但 由 spark.databricks.delta.dynamicPartitionOverwrite.enabled=false停用。

DELTA_EMPTY_DATA

SQLSTATE: 428GU

建立 Delta 資料表時所使用的數據沒有任何數據行。

DELTA_EMPTY_DIRECTORY

SQLSTATE:42K03

目錄中找不到檔案: <directory>

DELTA_EXCEED_CHAR_VARCHAR_LIMIT

SQLSTATE: 22001

超過 char/varchar 類型長度限制。 失敗檢查: <expr>

DELTA_FAILED_CAST_PARTITION_VALUE

SQLSTATE: 22018

無法將分割區值 <value> 轉換成 <dataType>

DELTA_FAILED_FIND_ATTRIBUTE_IN_OUTPUT_COLUMNS

SQLSTATE:42703

在現有的目標輸出中找不到<newAttributeName><targetOutputColumns>

DELTA_FAILED_INFER_SCHEMA

SQLSTATE: 42KD9

無法從指定的檔案清單中推斷架構。

DELTA_FAILED_MERGE_SCHEMA_FILE

SQLSTATE:42KDA

無法合併檔案 <file>的架構:

<schema>

SQLSTATE: KD001

無法讀取檔案的頁尾: <currentFile>

DELTA_FAILED_RECOGNIZE_PREDICATE

SQLSTATE:42601

無法辨識述詞 '<predicate>'

DELTA_FAILED_SCAN_WITH_HISTORICAL_VERSION

SQLSTATE: KD002

預期完整掃描最新版的差異來源,但發現版本的歷史掃描 <historicalVersion>

DELTA_FAILED_TO_MERGE_FIELDS

SQLSTATE: 22005

無法合併欄位'<currentField>' 和 '<updateField>'

DELTA_FEATURES_PROTOCOL_METADATA_MISMATCH

SQLSTATE: 0AKDE

無法在此數據表上運作,因為下表功能是在元數據中啟用,但未列在通訊協定中: <features>

DELTA_FEATURES_REQUIRE_MANUAL_ENABLEMENT

SQLSTATE: 0AKDE

您的數據表架構需要手動啟用下表功能: <unsupportedFeatures>

若要這樣做,請針對上面所列的每個功能執行下列命令:

ALTER TABLE table_name SET TBLPROPERTIES ('delta.feature.feature_name' = 'supported')

將 「table_name」 和 「feature_name」 取代為實際值。

目前支援的功能: <supportedFeatures>

DELTA_FEATURE_DROP_CONFLICT_REVALIDATION_FAIL

SQLSTATE: 0AKDE

無法卸除功能,因為並行交易已修改數據表。

請再試一次作業。

<concurrentCommit>

DELTA_FEATURE_DROP_FEATURE_NOT_PRESENT

SQLSTATE: 0AKDE

無法從這個數據表卸除 <feature> ,因為它目前不存在於數據表的通訊協定中。

DELTA_FEATURE_DROP_HISTORICAL_VERSIONS_EXIST

SQLSTATE: 0AKDE

無法卸除 <feature> ,因為 Delta 記錄檔包含使用此功能的歷史版本。

請等到歷程記錄保留期間 (<logRetentionPeriodKey>=<logRetentionPeriod>

自功能上次作用中以來已通過。

或者,請等候 TRUNCATE HISTORY 保留期限到期 (<truncateHistoryLogRetentionPeriod>

然後執行:

ALTER TABLE table_name DROP FEATURE feature_name TRUNCATE HISTORY

DELTA_FEATURE_DROP_HISTORY_TRUNCATION_NOT_ALLOWED

SQLSTATE: 0AKDE

歷程記錄截斷僅與讀取器功能相關。

DELTA_FEATURE_DROP_NONREMOVABLE_FEATURE

SQLSTATE: 0AKDE

無法卸除 <feature> ,因為不支援卸除此功能。

請連絡 Databricks 支持人員。

DELTA_FEATURE_DROP_UNSUPPORTED_CLIENT_FEATURE

SQLSTATE: 0AKDE

無法卸除 <feature> ,因為此 Databricks 版本不支援它。

請考慮搭配較高版本使用 Databricks。

DELTA_FEATURE_DROP_WAIT_FOR_RETENTION_PERIOD

SQLSTATE: 0AKDE

<feature> 除部分成功。

功能現在不再用於數據表的目前版本。 不過,此功能

數據表的歷程記錄版本仍然存在。 無法卸除數據表功能

從數據表通訊協定到這些歷程記錄版本到期為止。

若要從通訊協定卸除數據表功能,請等候歷程記錄版本

到期,然後重複此命令。 歷程記錄版本的保留期間為

目前設定為 <logRetentionPeriodKey>=<logRetentionPeriod>

或者,請等候 TRUNCATE HISTORY 保留期限到期 (<truncateHistoryLogRetentionPeriod>

然後執行:

ALTER TABLE table_name DROP FEATURE feature_name TRUNCATE HISTORY

DELTA_FEATURE_REQUIRES_HIGHER_READER_VERSION

SQLSTATE: 0AKDE

無法啟用數據表功能 <feature> ,因為它需要較高的讀取器通訊協定版本(目前的 <current>)。 請考慮將數據表的讀取器通訊協定版本升級為 <required>,或升級為支援讀取器數據表功能的版本。 <docLink>如需資料表通訊協定版本的詳細資訊,請參閱 。

DELTA_FEATURE_REQUIRES_HIGHER_WRITER_VERSION

SQLSTATE: 0AKDE

無法啟用數據表功能 <feature> ,因為它需要較高的寫入器通訊協定版本(目前的 <current>)。 請考慮將數據表的寫入器通訊協定版本升級為 <required>,或升級至支援寫入器數據表功能的版本。 <docLink>如需資料表通訊協定版本的詳細資訊,請參閱 。

DELTA_FILE_ALREADY_EXISTS

SQLSTATE:42K04

現有的檔案路徑 <path>

DELTA_FILE_LIST_AND_PATTERN_STRING_CONFLICT

SQLSTATE: 42613

無法同時指定檔案清單和模式字串。

DELTA_FILE_NOT_FOUND

SQLSTATE:42K03

檔案路徑 <path>

DELTA_FILE_NOT_FOUND_DETAILED

SQLSTATE:42K03

找不到事務歷史記錄中所參考的檔案 <filePath> 。 當從檔案系統手動刪除數據,而不是使用 table DELETE 語句時,就會發生這種情況。 如需詳細資訊,請參閱 <faqPath>

DELTA_FILE_OR_DIR_NOT_FOUND

SQLSTATE:42K03

沒有這類檔案或目錄: <path>

DELTA_FILE_TO_OVERWRITE_NOT_FOUND

SQLSTATE:42K03

要重寫的檔案 (<path>) 在候選檔案中找不到:

<pathList>

DELTA_FOUND_MAP_TYPE_COLUMN

SQLSTATE: KD003

找到 MapType。 若要存取 MapType 的索引鍵或值,請指定一個

of:

<key>

<value>

後面接著數據行的名稱(只有當該數據行是結構類型時)。

例如 mymap.key.mykey

如果數據行是基本類型,mymap.key或 mymap.value 就已足夠。

DELTA_GENERATED_COLUMNS_DATA_TYPE_MISMATCH

SQLSTATE:42K09

數據 <columnName> 行是產生的數據行或產生的數據行。 資料類型為 <columnType>。 它不接受數據類型 <dataType>

DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH

SQLSTATE:42K09

<columnName> 產生數據行的表示式類型為 <expressionType>,但數據行類型為 <columnType>

DELTA_GENERATED_COLUMN_UPDATE_TYPE_MISMATCH

SQLSTATE:42K09

數據 <currentName> 行是產生的數據行或產生的數據行。 數據類型為 <currentDataType> 且無法轉換成數據類型 <updateDataType>

DELTA_ICEBERG_COMPAT_VIOLATION

SQLSTATE: KD00E

IcebergCompatV<version> 的驗證失敗。

如需詳細資訊,請參閱 DELTA_ICEBERG_COMPAT_VIOLATION

DELTA_ILLEGAL_OPTION

SQLSTATE:42616

選項 '' 的值 『<input><name>' 無效,<explain>

DELTA_ILLEGAL_USAGE

SQLSTATE:42601

Delta 資料表時<operation>不允許使用 <option> 的 。

DELTA_INCONSISTENT_BUCKET_SPEC

SQLSTATE:42000

Delta 貯體數據表上的 BucketSpec 與元數據中的 BucketSpec 不符。預期: <expected>。 實際: <actual>

DELTA_INCONSISTENT_LOGSTORE_CONFS

SQLSTATE: F0000

<setKeys>) 不能設定為不同的值。 請只設定其中一個,或將它們設定為相同的值。

DELTA_INCORRECT_ARRAY_ACCESS

SQLSTATE: KD003

無法正確存取ArrayType。 使用 arrayname.element.elementname 位置來設定

新增至陣列。

DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME

SQLSTATE: KD003

找到 ArrayType。 若要存取 ArrayType 的專案,請指定

<rightName>

而不是 <wrongName>

DELTA_INCORRECT_GET_CONF

SQLSTATE:42000

使用 getConf() 而不是 'conf.getConf()

DELTA_INCORRECT_LOG_STORE_IMPLEMENTATION

SQLSTATE:0AKDC

錯誤通常會在預設的 LogStore 實作時發生,

是,HDFSLogStore 是用來寫入非 HDFS 記憶體系統上的 Delta 資料表。

若要取得數據表更新的交易 ACID 保證,您必須使用

適用於您記憶體系統的 LogStore 正確實作。

如需詳細資訊,請參閱<docLink>

DELTA_INDEX_LARGER_OR_EQUAL_THAN_STRUCT

SQLSTATE: 42KD8

要卸除數據行的索引 <position> 等於 或 大於結構長度: <length>

DELTA_INDEX_LARGER_THAN_STRUCT

SQLSTATE: 42KD8

要加入資料行<columnName>的索引<index>大於結構長度:<length>

DELTA_INSERT_COLUMN_ARITY_MISMATCH

SQLSTATE:42802

無法寫入 『<tableName>; <columnName>目標數據表有 <numColumns> column(s),但插入的數據有 <insertColumns> column(s)

DELTA_INSERT_COLUMN_MISMATCH

SQLSTATE:42802

INSERT 中未指定數據行<columnName>

DELTA_INVALID_AUTO_COMPACT_TYPE

SQLSTATE: 22023

無效的自動壓縮類型: <value>。 允許值為:<allowed>

DELTA_INVALID_BUCKET_COUNT

SQLSTATE: 22023

無效的貯體計數: <invalidBucketCount>。 貯體計數應該是乘冪為 2 和至少 8 的正數。 您可以改用 <validBucketCount>

DELTA_INVALID_BUCKET_INDEX

SQLSTATE: 22023

在數據分割數據行中找不到貯體數據行

DELTA_INVALID_CALENDAR_INTERVAL_EMPTY

SQLSTATE: 2200P

間隔不能是 Null 或空白。

DELTA_INVALID_CDC_RANGE

SQLSTATE: 22003

從開始 <start> 到結尾 <end> 的 CDC 範圍無效。 結束不能在開始之前。

DELTA_INVALID_CHARACTERS_IN_COLUMN_NAME

SQLSTATE:42K05

屬性名稱 「<columnName>在 」 之間包含無效的字元;;{}()\n\t=“。 請使用別名將它重新命名。

DELTA_INVALID_CHARACTERS_IN_COLUMN_NAMES

SQLSTATE:42K05

在 ' 中找到無效的字元;;{}()nt=' 在架構的數據行名稱中。

無效的數據行名稱: <invalidColumnNames>

請使用其他字元,然後再試一次。

DELTA_INVALID_CLONE_PATH

SQLSTATE:22KD1

CLONE 的目標位置必須是絕對路徑或數據表名稱。 使用

絕對路徑, <path>而不是 。

DELTA_INVALID_COLUMN_NAMES_WHEN_REMOVING_COLUMN_MAPPING

SQLSTATE:42K05

在 ' 中找到無效的字元;;{}()nt=' 在架構的數據行名稱中。

無效的數據行名稱: <invalidColumnNames>

當資料行名稱中有無效字元時,無法移除資料行對應。

請重新命名數據行以移除無效的字元,然後再次執行此命令。

DELTA_INVALID_FORMAT

SQLSTATE: 22000

偵測到不相容的格式。

在 /_delta_log''' 找到 <deltaRootPath>Delta 的事務歷史記錄

但您正嘗試<operation><path>使用 format(“)。<format> 您必須使用

讀取和寫入差異數據表時,'format(“delta”)'。

若要深入瞭解 Delta,請參閱 <docLink>

DELTA_INVALID_GENERATED_COLUMN_REFERENCES

SQLSTATE:42621

產生的數據行無法使用不存在的數據行或其他產生的數據行

DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS

SQLSTATE:42616

無效的等冪資料框架寫入選項: <reason>

DELTA_INVALID_INTERVAL

SQLSTATE: 22006

<interval> 不是有效的 INTERVAL。

DELTA_INVALID_ISOLATION_LEVEL

SQLSTATE:25000

無效的隔離等級 '<isolationLevel>'

DELTA_INVALID_LOGSTORE_CONF

SQLSTATE: F0000

<classConfig>) 和 (<schemeConfig>) 不能同時設定。 請只設定其中一個群組。

DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA

SQLSTATE:42000

您嘗試建立受控數據表 <tableName>

使用 Delta,但未指定架構。

若要深入瞭解 Delta,請參閱 <docLink>

DELTA_INVALID_PARTITION_COLUMN

SQLSTATE:42996

<columnName> 不是數據表 <tableName>中有效的數據分割數據行。

DELTA_INVALID_PARTITION_COLUMN_NAME

SQLSTATE:42996

找到在 「 中具有無效字元的數據分割數據行;{}()nt=“。 請將名稱變更為資料分割資料行。 這項檢查可以藉由設定 spark.conf.set(“spark.databricks.delta.partitionColumnValidity.enabled”, false) 關閉,但不建議這樣做,因為 Delta 的其他功能可能無法正常運作。

DELTA_INVALID_PARTITION_COLUMN_TYPE

SQLSTATE:42996

<name>不支援使用類型<dataType>為數據分割數據行的數據行。

DELTA_INVALID_PARTITION_PATH

SQLSTATE:22KD1

分割區路徑片段應該是類似 part1=foo/part2=bar的形式。 資料分割路徑: <path>

DELTA_INVALID_PROTOCOL_DOWNGRADE

SQLSTATE: KD004

通訊協定版本無法從 <oldProtocol> 降級為 <newProtocol>

DELTA_INVALID_PROTOCOL_VERSION

SQLSTATE: KD004

不支援的差異通訊協定版本:數據表 「<tableNameOrPath>需要讀取器版本 <readerRequired> 和寫入器版本 <writerRequired>,但此版本的 Databricks 支援讀取器版本 <supportedReaders> 和寫入器版本 <supportedWriters>。 請升級至較新的版本。

DELTA_INVALID_TABLE_VALUE_FUNCTION

SQLSTATE: 22000

<function> 式是 CDC 讀取不支援的數據表值函式。

DELTA_INVALID_TIMESTAMP_FORMAT

SQLSTATE: 22007

提供的時間戳 <timestamp> 不符合預期的語法 <format>

DELTA_LOG_ALREADY_EXISTS

SQLSTATE:42K04

差異記錄已經存在 <path>

DELTA_LOG_FILE_NOT_FOUND_FOR_STREAMING_SOURCE

SQLSTATE:42K03

如果您從未刪除過,您的查詢可能會落後。 請從頭刪除其檢查點以重新啟動。 若要避免這種情況再次發生,您可以更新 Delta 數據表的保留原則

DELTA_MATERIALIZED_ROW_TRACKING_COLUMN_NAME_MISSING

SQLSTATE: 22000

遺漏<tableName>的具體化數據<rowTrackingColumn>行名稱。

DELTA_MAX_ARRAY_SIZE_EXCEEDED

SQLSTATE:42000

請使用小於 Int.MaxValue - 8 的限制。

DELTA_MAX_COMMIT_RETRIES_EXCEEDED

SQLSTATE:40000

此認可失敗,因為已嘗試 <numAttempts> 過但未成功。

這可能會由許多並行認可 Delta 數據表所造成

提交。

認可開始於版本: <startVersion>

在版本認可失敗: <failVersion>

嘗試認可的動作數目: <numActions>

嘗試此認可所花費的總時間: <timeSpent> ms

DELTA_MAX_LIST_FILE_EXCEEDED

SQLSTATE:42000

檔案清單最多 <maxFileListSize> 必須有 專案,具有 <numFiles>

DELTA_MERGE_INCOMPATIBLE_DATATYPE

SQLSTATE:42K09

無法合併不相容的數據類型 <currentDataType><updateDataType>

DELTA_MERGE_INCOMPATIBLE_DECIMAL_TYPE

SQLSTATE:42806

無法合併不相容的十進位類型 <decimalRanges>

DELTA_MERGE_MATERIALIZE_SOURCE_FAILED_REPEATEDLY

SQLSTATE:25000

保留 MERGE 語句具體化的來源已重複失敗。

DELTA_MERGE_MISSING_WHEN

SQLSTATE:42601

MERGE 語句中必須至少有一個 WHEN 子句。

DELTA_MERGE_RESOLVED_ATTRIBUTE_MISSING_FROM_INPUT

SQLSTATE:42601

運算子中遺漏<input>的已解析屬性 <missingAttributes><merge>

DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY

SQLSTATE: 22005

非預期的指派索引鍵: <unexpectedKeyClass> - <unexpectedKeyObject>

DELTA_MERGE_UNRESOLVED_EXPRESSION

SQLSTATE:42601

無法在指定的 <cols><clause>解析<sqlExpr>

DELTA_MISSING_CHANGE_DATA

SQLSTATE: KD002

取得範圍[<startVersion> 變更 <endVersion>資料時發生錯誤, 因為變更資料不是

記錄為版本 [<version>]。 如果您已啟用此資料表上的變更數據摘要,

用來 DESCRIBE HISTORY 查看第一次啟用時。

否則,若要開始錄製變更數據,請使用 『ALTER TABLE table_name SET TBLPROPERTIES

<key>=true)'。

DELTA_MISSING_COLUMN

SQLSTATE:42703

在資料表資料列中找不到 <columnName><columnList>

DELTA_MISSING_DELTA_TABLE

SQLSTATE: 42P01

<tableName> 不是 Delta 數據表。

DELTA_MISSING_DELTA_TABLE_COPY_INTO

SQLSTATE: 42P01

數據表不存在。 先使用 CREATE TABLE 建立空的 Delta 數據表 <tableName>

DELTA_MISSING_ICEBERG_CLASS

SQLSTATE:56038

找不到冰山班。 請確定已安裝 Delta Iceberg 支援。

如需詳細資訊, <docLink> 請參閱 。

DELTA_MISSING_NOT_NULL_COLUMN_VALUE

SQLSTATE:23502

<columnName>數據行,其具有NOT NULL條件約束,從寫入數據表的數據中遺漏。

DELTA_MISSING_PARTITION_COLUMN

SQLSTATE: 42KD6

架構中找不到數據分割數據行<columnName><columnList>

DELTA_MISSING_PART_FILES

SQLSTATE: 42KD6

找不到檢查點版本的所有元件檔案: <version>

DELTA_MISSING_PROVIDER_FOR_CONVERT

SQLSTATE:0AKDC

CONVERT TO DELTA 僅支援 parquet 數據表。 請將您的目標重寫為 parquet。<path> 如果它是 parquet 目錄,則為 。

DELTA_MISSING_SET_COLUMN

SQLSTATE:42703

找不到指定資料行的 SET 資料列 <columnName><columnList>

DELTA_MISSING_TRANSACTION_LOG

SQLSTATE:42000

偵測到不相容的格式。

您嘗試 <operation><path> 使用 Delta,但沒有

事務歷史記錄存在。 檢查上游作業以確定其正在寫入

使用 format(“delta”) 並嘗試 %1$s 資料表基底路徑。

若要深入瞭解 Delta,請參閱 <docLink>

DELTA_MODE_NOT_SUPPORTED

SQLSTATE:0AKDC

不支援指定的模式 』<mode>。 支援的模式如下: <supportedModes>

DELTA_MULTIPLE_CDC_BOUNDARY

SQLSTATE:42614

為 CDC 讀取提供的多個 <startingOrEnding> 自變數。 請提供其中一個 <startingOrEnding>時間戳或 <startingOrEnding>版本。

DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER

SQLSTATE:42614

傳遞至資料列命令的多個 bloom 篩選索引組態: <columnName>

DELTA_MULTIPLE_SOURCE_ROW_MATCHING_TARGET_ROW_IN_MERGE

SQLSTATE: 21506

無法以符合的多個來源數據列執行合併,並嘗試修改相同的數據列

Delta 數據表中的目標數據列可能衝突的方式。 依合併的 SQL 語意,

當相同目標數據列上的多個源數據列相符時,結果可能會模棱兩可

目前還不清楚應該使用哪個來源數據列來更新或刪除比對

目標數據列。 您可以預先處理源數據表,以消除的可能性

多個相符專案。 請參閱「建議的文件」所提供連結中的

<usageReference>

DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE

SQLSTATE:42000

下列資料行名稱僅保留給 Delta 貯體資料表內部使用量: <names>

DELTA_NESTED_FIELDS_NEED_RENAME

SQLSTATE:42K05

輸入架構包含大小寫與目標數據表不同的巢狀欄位。

它們必須重新命名,以避免在寫入 Delta 時遺失這些欄位中的數據。

欄位:

<fields>.

原始架構:

<schema>

DELTA_NESTED_NOT_NULL_CONSTRAINT

SQLSTATE:0AKDC

欄位<nestType><parent>的類型包含 NOT NULL 條件約束。 Delta 不支援巢狀於數位或對應內的 NOT NULL 條件約束。 若要隱藏此錯誤,並以無訊息方式忽略指定的條件約束,請將 set <configKey> = true。

剖析 <nestType> 的類型:

<nestedPrettyJson>

DELTA_NESTED_SUBQUERY_NOT_SUPPORTED

SQLSTATE:0A000

條件中 <operation> 不支援巢狀子查詢。

DELTA_NEW_CHECK_CONSTRAINT_VIOLATION

SQLSTATE:23512

<numRows> 中的數據 <tableName> 列違反新的 CHECK 條件約束 (<checkConstraint>

DELTA_NEW_NOT_NULL_VIOLATION

SQLSTATE:23512

<numRows> 中的數據 <tableName> 列違反 上新的NOT NULL條件約束 <colName>

DELTA_NON_BOOLEAN_CHECK_CONSTRAINT

SQLSTATE:42621

CHECK 條件約束 '<name>' (<expr>) 應該是布爾表達式。

DELTA_NON_DETERMINISTIC_FUNCTION_NOT_SUPPORTED

SQLSTATE:0AKDC

中不支援不具決定性的函式 <operation><expression>

DELTA_NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION

SQLSTATE:42601

當 MERGE 語句中有多個 MATCHED 子句時,只有最後一個 MATCHED 子句可以省略條件。

DELTA_NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION

SQLSTATE:42601

在 MERGE 語句中有多個 NOT MATCHED BY SOURCE 子句時,只有最後一個 NOT MATCHED BY SOURCE 子句可以省略條件。

DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION

SQLSTATE:42601

在 MERGE 語句中有多個 NOT MATCHED 子句時,只有最後一個 NOT MATCHED 子句可以省略條件

DELTA_NON_PARSABLE_TAG

SQLSTATE:42601

無法剖析標記 <tag>

檔案標籤如下: <tagList>

DELTA_NON_PARTITION_COLUMN_ABSENT

SQLSTATE: KD005

寫入 Delta 的數據必須至少包含一個非數據分割的數據行。<details>

DELTA_NON_PARTITION_COLUMN_REFERENCE

SQLSTATE: 42P10

述詞參考非數據分割數據行 』<columnName>' 只能參考資料分割資料列: [<columnList>]

DELTA_NON_PARTITION_COLUMN_SPECIFIED

SQLSTATE: 42P10

指定非數據分割數據行, <columnList> 只預期只有數據分割數據行: <fragment>

DELTA_NON_SINGLE_PART_NAMESPACE_FOR_CATALOG

SQLSTATE:42K05

Delta 目錄需要單一部分命名空間,但 <identifier> 為多部分。

DELTA_NOT_A_DATABRICKS_DELTA_TABLE

SQLSTATE:42000

<table> 不是 Delta 數據表。 如果您想要使用 Databricks Delta 建立數據表,請先卸除此數據表。

DELTA_NOT_A_DELTA_TABLE

SQLSTATE: 0AKDD

<tableName> 不是 Delta 數據表。 如果您想要使用 Delta Lake 重新建立數據表,請先卸除此數據表。

DELTA_NOT_NULL_COLUMN_NOT_FOUND_IN_STRUCT

SQLSTATE:42K09

結構中找不到不可為 Null 的數據行: <struct>

DELTA_NOT_NULL_CONSTRAINT_VIOLATED

SQLSTATE:23502

數據行違反 NOT NULL 條件約束: <columnName>

DELTA_NOT_NULL_NESTED_FIELD

SQLSTATE:0A000

不可為 Null 的巢狀字段無法新增至可為 Null 的父代。 請據以設定父數據行的 Null 屬性。

DELTA_NO_COMMITS_FOUND

SQLSTATE: KD006

找不到在 <logPath>

DELTA_NO_RECREATABLE_HISTORY_FOUND

SQLSTATE: KD006

找不到可重新建立的認可 <logPath>

DELTA_NO_RELATION_TABLE

SQLSTATE: 42P01

找不到數據表<tableIdent>

DELTA_NO_START_FOR_CDC_READ

SQLSTATE:42601

沒有針對 CDC 讀取提供的 startingVersion 或 startingTimestamp。

DELTA_NULL_SCHEMA_IN_STREAMING_WRITE

SQLSTATE: 42P18

Delta 不接受數據流寫入架構中的 NullType。

DELTA_ONEOF_IN_TIMETRAVEL

SQLSTATE:42601

請提供時間旅行的 『timestampAsOf』 或 'versionAsOf'。

DELTA_ONLY_OPERATION

SQLSTATE: 0AKDD

<operation> 僅支援 Delta 資料表。

DELTA_OPERATION_MISSING_PATH

SQLSTATE:42601

請提供的路徑或資料表識別碼 <operation>

DELTA_OPERATION_NOT_ALLOWED

SQLSTATE:0AKDC

不允許作業: <operation> 差異數據表不支援

DELTA_OPERATION_NOT_ALLOWED_DETAIL

SQLSTATE:0AKDC

不允許工作:差異資料表不支援: <operation><tableName>

DELTA_OPERATION_ON_TEMP_VIEW_WITH_GENERATED_COLS_NOT_SUPPORTED

SQLSTATE:0A000

<operation> 不支援在臨時檢視上參考包含所產生數據行之 Delta 數據表的命令。 請直接在 Delta 資料表上執行 <operation> 命令

DELTA_OVERWRITE_MUST_BE_TRUE

SQLSTATE:42000

若未設定 OVERWRITE = 'true',就無法指定 Copy 選項 overwriteSchema。

DELTA_OVERWRITE_SCHEMA_WITH_DYNAMIC_PARTITION_OVERWRITE

SQLSTATE: 42613

'overwriteSchema' 不能用於動態分割覆寫模式。

DELTA_PARTITION_COLUMN_CAST_FAILED

SQLSTATE:22525

無法將數據分割數據行的值<value><dataType>轉換成<columnName>

DELTA_PARTITION_COLUMN_NOT_FOUND

SQLSTATE:42703

在架構中找不到資料分割資料行 <columnName> [<schemaMap>]

DELTA_PARTITION_SCHEMA_IN_ICEBERG_TABLES

SQLSTATE: 42613

轉換 Iceberg 資料表時,無法指定分割區架構。 它會自動推斷。

DELTA_PATH_DOES_NOT_EXIST

SQLSTATE:42K03

<path> 不存在,或不是 Delta 數據表。

DELTA_PATH_EXISTS

SQLSTATE:42K04

若未設定 OVERWRITE = 'true',就無法寫入已經存在的路徑 <path>

DELTA_POST_COMMIT_HOOK_FAILED

SQLSTATE: 2DKD0

認可至 Delta 數據表版本 <version> 成功,但在執行認可后攔截時發生錯誤 <name><message>

DELTA_PROTOCOL_PROPERTY_NOT_INT

SQLSTATE:42K06

Protocol 屬性 <key> 必須是整數。 發現 <value>

DELTA_READ_FEATURE_PROTOCOL_REQUIRES_WRITE

SQLSTATE: KD004

無法只升級讀取器通訊協定版本以使用數據表功能。 寫入器通訊協定版本至少 <writerVersion> 必須繼續進行。 <docLink>如需資料表通訊協定版本的詳細資訊,請參閱 。

DELTA_READ_TABLE_WITHOUT_COLUMNS

SQLSTATE: 428GU

您嘗試讀取沒有任何數據行的 Delta 資料表 <tableName>

使用 選項 mergeSchema = true 寫入一些新數據,以便讀取數據表。

DELTA_REGEX_OPT_SYNTAX_ERROR

SQLSTATE: 2201B

請重新檢查 '' 的<regExpOption>語法

DELTA_REPLACE_WHERE_IN_OVERWRITE

SQLSTATE: 42613

您無法使用 replaceWhere 搭配篩選條件覆寫

DELTA_REPLACE_WHERE_MISMATCH

SQLSTATE:44000

寫入的數據不符合部分數據表覆寫條件或條件約束 『<replaceWhere>』。

<message>

DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE

SQLSTATE: 42613

DataFrameWriter 選項中不能同時設定 'replaceWhere' 表達式和 'partitionOverwriteMode'='dynamic'。

DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET

SQLSTATE: 42613

當 'dataChange' 設定為 false 時,'replaceWhere' 無法與數據篩選搭配使用。 過濾器: <dataFilters>

DELTA_ROW_ID_ASSIGNMENT_WITHOUT_STATS

SQLSTATE: 22000

無法指派沒有數據列計數統計數據的數據列標識碼。

在 Scala 筆記本中執行下列程式代碼來收集資料表的統計數據,然後重試:

import com.databricks.sql.transaction.tahoe.DeltaLog

import com.databricks.sql.transaction.tahoe.stats.StatisticsCollection

import org.apache.spark.sql.catalyst.TableIdentifier

val log = DeltaLog.forTable(spark, TableIdentifier(table_name))

StatisticsCollection.recompute(spark, log)

DELTA_SCHEMA_CHANGED

SQLSTATE: KD007

偵測到的架構變更:

串流來源架構: <readSchema>

資料檔案架構: <dataSchema>

請嘗試重新啟動查詢。 如果此問題會在查詢重新啟動時重複,而不需要

進行中,您已進行不相容的架構變更,且需要啟動您的

使用新的檢查點目錄從頭查詢。

DELTA_SCHEMA_CHANGED_WITH_STARTING_OPTIONS

SQLSTATE: KD007

偵測到版本 <version>中的架構變更:

串流來源架構: <readSchema>

資料檔案架構: <dataSchema>

請嘗試重新啟動查詢。 如果此問題會在查詢重新啟動時重複,而不需要

進行中,您已進行不相容的架構變更,且需要啟動您的

使用新的檢查點目錄從頭查詢。 如果問題持續發生之後

變更為新的檢查點目錄,您可能需要變更現有的

'startingVersion' 或 'startingTimestamp' 選項,從比 更新的版本啟動

<version> 具有新的檢查點目錄。

DELTA_SCHEMA_CHANGED_WITH_VERSION

SQLSTATE: KD007

偵測到版本 <version>中的架構變更:

串流來源架構: <readSchema>

資料檔案架構: <dataSchema>

請嘗試重新啟動查詢。 如果此問題會在查詢重新啟動時重複,而不需要

進行中,您已進行不相容的架構變更,且需要啟動您的

使用新的檢查點目錄從頭查詢。

DELTA_SCHEMA_CHANGE_SINCE_ANALYSIS

SQLSTATE: KD007

自從 DataFrame 以來,Delta 數據表的架構已以不相容的方式變更

或 DeltaTable 物件已建立。 請重新定義 DataFrame 或 DeltaTable 物件。

變化:

<schemaDiff> <legacyFlagMessage>

DELTA_SCHEMA_NOT_PROVIDED

SQLSTATE:42908

未提供數據表架構。 在使用 REPLACE 資料表和未提供 AS SELECT 查詢時,請提供資料表的架構(資料行定義)。

DELTA_SCHEMA_NOT_SET

SQLSTATE: KD008

未設定數據表架構。 將數據寫入其中,或使用 CREATE TABLE 來設定架構。

DELTA_SET_LOCATION_SCHEMA_MISMATCH

SQLSTATE: 42KD7

新 Delta 位置的架構與目前的數據表架構不同。

原始架構:

<original>

目的地架構:

<destination>

如果這是預期的變更,您可以執行下列命令來關閉此檢查:

%%sql set <config> = true

DELTA_SHALLOW_CLONE_FILE_NOT_FOUND

SQLSTATE:42K03

找不到事務歷史記錄中所參考的檔案 <filePath> 。 當數據已從文件系統手動刪除,而不是使用 table DELETE 語句時,就會發生這種情況。 此資料表似乎是淺層複製品,如果是這種情況,當複製此數據表的原始數據表已刪除複製仍在使用的檔案時,就會發生此錯誤。 如果您想要讓任何複製與原始數據表無關,請改用 DEEP 複製。

DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED

SQLSTATE:42704

數據受限於未套用至會話中目前收件者之收件者屬性 <property> 。 請連絡數據提供者以解決問題。

DELTA_SHARING_INVALID_OP_IN_EXTERNAL_SHARED_VIEW

SQLSTATE:42887

<operation> 無法在跨帳戶共用的 Delta 共用檢視中使用。

DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_COLUMN

SQLSTATE: 42P10

針對 SHOW PARTITIONS 指定非資料分割資料列 <badCols>

DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE

SQLSTATE:42809

在未分割的數據表上不允許 SHOW PARTITIONS: <tableName>

DELTA_SOURCE_IGNORE_DELETE

SQLSTATE:0A000

偵測到版本 上的串流來源<version>已刪除的數據(例如 <removedFile>)。 目前不支援。 如果您想要忽略刪除,請將選項 'ignoreDeletes' 設定為 'true'。 您可以在路徑 <dataPath>中找到來源資料表。

DELTA_SOURCE_TABLE_IGNORE_CHANGES

SQLSTATE:0A000

在版本 <version>上偵測到源數據表中的數據更新(例如 <file>)。 目前不支援。 如果這會定期發生,而且您可以略過變更,請將選項 'skipChangeCommits' 設定為 'true'。 如果您想要反映數據更新,請使用全新的檢查點目錄重新啟動此查詢,或使用 DLT 執行完整重新整理。 如果您需要處理這些變更,請切換至MV。 您可以在路徑 <dataPath>中找到來源資料表。

DELTA_STARTING_VERSION_AND_TIMESTAMP_BOTH_SET

SQLSTATE: 42613

請提供 '<version>' 或 '<timestamp>'

DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND

SQLSTATE:42000

<statsType> 在 Parquet 元數據中找不到數據行的統計數據: <columnPath>

DELTA_STREAMING_CANNOT_CONTINUE_PROCESSING_POST_SCHEMA_EVOLUTION

SQLSTATE: KD002

我們已偵測到差異版本<previousSchemaChangeVersion><currentSchemaChangeVersion>差異串流來源中的一或多個非加總架構變更。<opType>

請先檢查您是否要手動將架構變更傳播至接收數據表,然後再使用 上的完成架構 <currentSchemaChangeVersion>繼續進行串流處理。

修正接收數據表的架構或決定不需要修正之後,您可以設定下列其中一個 SQL 組態來解除封鎖非加總架構變更,並繼續串流處理。

若要解除封鎖此特定資料流,請只針對這個系列的架構變更:設定 <allowCkptVerKey>` = `<allowCkptVerValue>

若要解除封鎖此特定數據流:set <allowCkptKey>` = `<allowCkptValue>

若要解除封鎖所有資料流:設定 <allowAllKey>` = `<allowAllValue>

或者,如果適用,您可以在 SQL conf 中將 取代<allowAllMode><opSpecificMode>為 ,只解除封鎖此架構變更類型的數據流。

DELTA_STREAMING_CHECK_COLUMN_MAPPING_NO_SNAPSHOT

SQLSTATE: KD002

檢查數據行對應架構變更時,無法取得起始版本的差異記錄快照集。 請選擇不同的開始版本,或強制將 '' 設定為 『<config>true』 以自行風險啟用串流讀取。

DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE: 42KD4

具有讀取不相容架構變更的數據表不支援串流讀取(例如重新命名或卸除或數據類型變更)。

如需解決此問題的進一步資訊和可能後續步驟,請檢閱下列檔: <docLink>

讀取架構: <readSchema>。 不相容的數據架構: <incompatibleSchema>

DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE_USE_SCHEMA_LOG

SQLSTATE: 42KD4

具有讀取不相容架構變更的數據表不支援串流讀取(例如重新命名或卸除或數據類型變更)。

請提供 'schemaTrackingLocation',以啟用差異串流處理的非加總架構演進。

如需詳細資訊,請參閱 <docLink>

讀取架構: <readSchema>。 不相容的數據架構: <incompatibleSchema>

DELTA_STREAMING_METADATA_EVOLUTION

SQLSTATE: 22000

差異數據表的架構、數據表組態或通訊協定在串流期間已變更。

架構或元數據追蹤記錄已更新。

請重新啟動數據流,以繼續使用更新的元數據進行處理。

更新的架構: <schema>

更新的數據表組態: <config>

更新的數據表通訊協定: <protocol>

DELTA_STREAMING_SCHEMA_EVOLUTION_UNSUPPORTED_ROW_FILTER_COLUMN_MASKS

SQLSTATE: 22000

使用架構追蹤從源數據表 <tableId> 串流不支援數據列篩選或數據行遮罩。

請卸除數據列篩選或數據行遮罩,或停用架構追蹤。

DELTA_STREAMING_SCHEMA_LOCATION_CONFLICT

SQLSTATE: 22000

偵測到從位於 '' 的數據表或數據表串流時發生衝突的架構位置<loc> '<table>'。

另一個數據流可能會重複使用相同的架構位置,這是不允許的。

請提供新的唯 schemaTrackingLocation 一路徑,或 streamingSourceTrackingId 作為此數據表中其中一個數據流的讀取器選項。

DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT

SQLSTATE: 22000

架構位置 『<schemaTrackingLocation>' 必須放在檢查點位置 『<checkpointLocation>』 之下。

DELTA_STREAMING_SCHEMA_LOG_DESERIALIZE_FAILED

SQLSTATE: 22000

差異串流來源架構記錄檔 '' 中不完整的記錄<location>檔。

架構記錄檔可能已損毀。 請挑選新的架構位置。

DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_DELTA_TABLE_ID

SQLSTATE: 22000

嘗試讀取 Delta 數據流時偵測到不相容的 Delta 數據表標識碼。

儲存的資料表識別碼: <persistedId>、資料表識別碼: <tableId>

架構記錄檔可能已重複使用。 請挑選新的架構位置。

DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_PARTITION_SCHEMA

SQLSTATE: 22000

嘗試讀取 Delta 數據流時偵測到不相容的數據分割架構。

儲存架構: <persistedSchema>差異分割區架構: <partitionSchema>

如果您最近手動變更數據表的數據分割架構,請挑選新的架構位置來重新初始化架構記錄檔。

DELTA_STREAMING_SCHEMA_LOG_INIT_FAILED_INCOMPATIBLE_METADATA

SQLSTATE: 22000

我們無法初始化 Delta 串流來源架構記錄,因為

我們在將串流批次從數據表版本<a><b>提供至 時偵測到不相容的架構或通訊協議變更。

DELTA_STREAMING_SCHEMA_LOG_PARSE_SCHEMA_FAILED

SQLSTATE: 22000

無法從 Delta 串流來源架構記錄剖析架構。

架構記錄檔可能已損毀。 請挑選新的架構位置。

DELTA_TABLE_ALREADY_CONTAINS_CDC_COLUMNS

SQLSTATE:42711

無法在數據表上啟用異動數據擷取。 數據表已包含

將保留的數據行<columnList>

在內部作為數據表變更數據摘要的元數據使用。 若要為

變更數據表上的數據摘要重新命名/卸除這些數據行。

DELTA_TABLE_ALREADY_EXISTS

SQLSTATE: 42P07

數據表 <tableName> 已經存在。

DELTA_TABLE_FOR_PATH_UNSUPPORTED_HADOOP_CONF

SQLSTATE:0AKDC

目前 DeltaTable.forPath 僅支援從 開始 <allowedPrefixes> 但取得的 hadoop 設定密鑰 <unsupportedOptions>

DELTA_TABLE_ID_MISMATCH

SQLSTATE: KD007

當此命令使用 數據表時,已取代 位於 <tableLocation> 的 Delta 資料表。

資料表識別碼是 <oldId> ,但現在為 <newId>

請重試目前的命令,以確保它會讀取數據表的一致檢視。

DELTA_TABLE_LOCATION_MISMATCH

SQLSTATE: 42613

現有資料表 <tableName> 的位置為 <existingTableLocation>。 它不符合指定的位置 <tableLocation>

DELTA_TABLE_NOT_FOUND

SQLSTATE: 42P01

差異數據表 <tableName> 不存在。

DELTA_TABLE_NOT_SUPPORTED_IN_OP

SQLSTATE:42809

不支援 <operation>數據表。 請改用路徑。

DELTA_TABLE_ONLY_OPERATION

SQLSTATE: 0AKDD

<tableName> 不是 Delta 數據表。 <operation> 僅支援 Delta 資料表。

DELTA_TARGET_TABLE_FINAL_SCHEMA_EMPTY

SQLSTATE: 428GU

目標數據表最終架構是空的。

DELTA_TIMESTAMP_GREATER_THAN_COMMIT

SQLSTATE: 42816

提供的時間戳 (<providedTimestamp>) 是在最新版本可供使用之後

table (<tableName>)。 請在 或 <maximumTimestamp>之前使用時間戳。

DELTA_TIMESTAMP_INVALID

SQLSTATE: 42816

提供的時間戳 (<expr>) 無法轉換為有效的時間戳。

DELTA_TIME_TRAVEL_INVALID_BEGIN_VALUE

SQLSTATE:42604

<timeTravelKey> 必須是有效的開始值。

DELTA_TRUNCATED_TRANSACTION_LOG

SQLSTATE:42K03

<path>:由於手動刪除或記錄保留原則 () 和檢查點保留原則 ,==<checkpointRetention><checkpointRetentionKey><logRetentionKey><logRetention>所以無法在版本<version>重新建構狀態,因為事務歷史記錄已遭到截斷

DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED

SQLSTATE:0AKDC

不允許作業:Delta 數據表上的 TRUNCATE TABLE 不支援分割區述詞;使用 DELETE 刪除特定的分割區或資料列。

DELTA_UDF_IN_GENERATED_COLUMN

SQLSTATE:42621

找到 <udfExpr>。 產生的數據行無法使用使用者定義的函數

DELTA_UNEXPECTED_ACTION_EXPRESSION

SQLSTATE:42601

非預期的動作表示式 <expression>

DELTA_UNEXPECTED_NUM_PARTITION_COLUMNS_FROM_FILE_NAME

SQLSTATE: KD009

<expectedColsSize>預期數據分割資料列:<expectedCols>,但找到<parsedColsSize>資料分割資料列:<parsedCols>剖析檔名:<path>

DELTA_UNEXPECTED_PARTIAL_SCAN

SQLSTATE: KD00A

預期會完整掃描差異來源,但發現部分掃描。 路徑:<path>

DELTA_UNEXPECTED_PARTITION_COLUMN_FROM_FILE_NAME

SQLSTATE: KD009

預期資料分割資料列 <expectedCol>,但已找到剖析檔案名的數據分割資料列 <parsedCol><path>

DELTA_UNEXPECTED_PARTITION_SCHEMA_FROM_USER

SQLSTATE: KD009

已呼叫 CONVERT TO DELTA,其分割區架構與從目錄推斷的數據分割架構不同,請避免提供架構,以便從目錄選擇分割區架構。

目錄資料分割架構:

<catalogPartitionSchema>

提供的分割區架構:

<userPartitionSchema>

DELTA_UNIFORM_NOT_SUPPORTED

SQLSTATE:0AKDC

只有 Unity 目錄資料表支援通用格式。

DELTA_UNIVERSAL_FORMAT_VIOLATION

SQLSTATE: KD00E

通用格式 (<format>) 的驗證失敗: <violation>

DELTA_UNKNOWN_CONFIGURATION

SQLSTATE: F0000

指定了未知的組態: <config>

DELTA_UNKNOWN_PRIVILEGE

SQLSTATE:42601

未知的權限: <privilege>

DELTA_UNKNOWN_READ_LIMIT

SQLSTATE:42601

未知的 ReadLimit: <limit>

DELTA_UNRECOGNIZED_COLUMN_CHANGE

SQLSTATE:42601

無法辨識的資料行變更 <otherClass>。 您可能正在執行過時的 Delta Lake 版本。

DELTA_UNRECOGNIZED_INVARIANT

SQLSTATE:56038

無法辨識的不變。 請升級您的Spark版本。

DELTA_UNRECOGNIZED_LOGFILE

SQLSTATE: KD00B

無法辨識的記錄檔 <fileName>

DELTA_UNSET_NON_EXISTENT_PROPERTY

SQLSTATE:42616

嘗試在數據表中取消設定不存在的屬性 '<property>' <tableName>

DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE

SQLSTATE:0AKDC

<path> 不支援新增具有絕對路徑的檔案

DELTA_UNSUPPORTED_ALTER_TABLE_CHANGE_COL_OP

SQLSTATE:0AKDC

將數據行 <fieldPath><oldField> 變更為 不支援 ALTER TABLE CHANGE COLUMN <newField>

DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP

SQLSTATE:0AKDC

不支援的 ALTER TABLE REPLACE COLUMNS 作業。 原因: <details>

無法從:

<oldSchema>

變更為:

<newSchema>

DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE

SQLSTATE:0AKDC

您嘗試以 CLONE 取代現有的數據表 (<tableName>)。 此作業為

支援。 針對 CLONE 嘗試不同的目標,或刪除目前目標上的資料表。

DELTA_UNSUPPORTED_COLUMN_MAPPING_MODE_CHANGE

SQLSTATE:0AKDC

不支援將數據行對應模式從 『<oldMode>' 變更為 『<newMode>』。

DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL

SQLSTATE: KD004

您目前的數據表通訊協定版本不支援變更資料行對應模式

使用 <config>

資料行對應所需的差異通訊協定版本:

<requiredVersion>

您資料表目前的 Delta 通訊協定版本:

<currentVersion>

<advice>

DELTA_UNSUPPORTED_COLUMN_MAPPING_SCHEMA_CHANGE

SQLSTATE:0AKDC

偵測到架構變更:

舊架構:

<oldTableSchema>

新架構:

<newTableSchema>

在數據行對應模式變更期間,不允許進行架構變更。

DELTA_UNSUPPORTED_COLUMN_MAPPING_WRITE

SQLSTATE:0AKDC

不支援使用數據行對應模式寫入數據。

DELTA_UNSUPPORTED_COLUMN_TYPE_IN_BLOOM_FILTER

SQLSTATE:0AKDC

不支援在類型 <dataType> 為的數據行上建立 bloom 篩選索引: <columnName>

DELTA_UNSUPPORTED_COMMENT_MAP_ARRAY

SQLSTATE:0AKDC

無法將批註新增至 <fieldPath>。 不支援將批註新增至對應索引鍵/值或陣列專案。

DELTA_UNSUPPORTED_DATA_TYPES

SQLSTATE:0AKDC

找到使用不支持數據類型的數據行: <dataTypeList>。 您可以將 '<config>' 設定為 'false',以停用類型檢查。 停用此類型檢查可讓使用者建立不支援的 Delta 數據表,而且只有在嘗試讀取/寫入舊版數據表時才應該使用。

DELTA_UNSUPPORTED_DEEP_CLONE

SQLSTATE:0A000

此差異版本不支援深層複製。

DELTA_UNSUPPORTED_DESCRIBE_DETAIL_VIEW

SQLSTATE:42809

<view> 是檢視。 僅支持數據表的 DESCRIBE DETAIL。

DELTA_UNSUPPORTED_DROP_CLUSTERING_COLUMN

SQLSTATE:0AKDC

不允許卸除叢集資料列 (<columnList>) 。

DELTA_UNSUPPORTED_DROP_COLUMN

SQLSTATE:0AKDC

Delta 數據表不支援DROP COLUMN。 <advice>

DELTA_UNSUPPORTED_DROP_NESTED_COLUMN_FROM_NON_STRUCT_TYPE

SQLSTATE:0AKDC

只能從 StructType 卸除巢狀數據行。 發現 <struct>

DELTA_UNSUPPORTED_DROP_PARTITION_COLUMN

SQLSTATE:0AKDC

不允許卸除資料分割資料列 (<columnList>) 。

DELTA_UNSUPPORTED_EXPRESSION

SQLSTATE:0A000

不支援的表達式類型(<expType>) 。<causedBy> 支援的型別為 [<supportedTypes>]。

DELTA_UNSUPPORTED_EXPRESSION_GENERATED_COLUMN

SQLSTATE:42621

<expression> 無法在產生的數據行中使用

DELTA_UNSUPPORTED_FEATURES_FOR_READ

SQLSTATE:56038

不支援的差異讀取功能:數據表 “<tableNameOrPath>” 需要此 Databricks 版本不支援的讀取器數據表功能: <unsupported>。 如需 Delta Lake 功能相容性的詳細資訊,請參閱 <link>

DELTA_UNSUPPORTED_FEATURES_FOR_WRITE

SQLSTATE:56038

不支援的差異寫入功能:數據表 “<tableNameOrPath>” 需要這個版本的 Databricks 不支援的寫入器數據表功能: <unsupported>。 如需 Delta Lake 功能相容性的詳細資訊,請參閱 <link>

DELTA_UNSUPPORTED_FEATURES_IN_CONFIG

SQLSTATE:56038

此版本的 Databricks 無法辨識下列 Spark 設定或 Delta 資料表屬性中所設定的數據表功能: <configs>

DELTA_UNSUPPORTED_FEATURE_STATUS

SQLSTATE: 0AKDE

預期數據表功能 <feature> 的狀態為「支援」,但取得 「<status>」。

DELTA_UNSUPPORTED_FIELD_UPDATE_NON_STRUCT

SQLSTATE:0AKDC

StructType 僅支援更新巢狀字段,但您嘗試更新 的 <columnName>字段,其類型為: <dataType>

DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS

SQLSTATE:0A000

缺少刪除向量檔案的數據表版本不支援 『FSCK REPAIR TABLE』 命令。

請連絡支援人員。

DELTA_UNSUPPORTED_GENERATE_WITH_DELETION_VECTORS

SQLSTATE:0A000

具有刪除向量的數據表版本不支援 『GENERATE symlink_format_manifest』 命令。

若要產生不含刪除向量的數據表版本,請執行 『REORG TABLE table APPLY (PURGE)』。 然後重新執行 『GENERATE』 命令。

請確定 REORG 與 GENERATE 之間沒有並行交易會再次新增刪除向量。

如果您需要定期產生指令清單,或無法防止並行交易,請考慮使用 'ALTER TABLE table SET TBLPROPERTIES (delta.enableDeletionVectors = false) 停用此數據表上的刪除向量。

DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT

SQLSTATE:0AKDC

不支援 StructTypes 以外的巢狀字段上的非變異值。

DELTA_UNSUPPORTED_IN_SUBQUERY

SQLSTATE:0AKDC

條件不支援在子查詢中 <operation>

DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX

SQLSTATE:0A000

listKeywithPrefix 無法使用

DELTA_UNSUPPORTED_MANIFEST_GENERATION_WITH_COLUMN_MAPPING

SQLSTATE:0AKDC

使用數據行對應的數據表不支援產生指令清單,因為外部讀取器無法讀取這些 Delta 數據表。 如需詳細資訊,請參閱 Delta 檔。

DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC

SQLSTATE:0A000

具有架構演進的 MERGE INTO 作業目前不支援撰寫 CDC 輸出。

DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE

SQLSTATE:0AKDC

條件中不支援 <operation> 多欄 In 述詞。

DELTA_UNSUPPORTED_NESTED_COLUMN_IN_BLOOM_FILTER

SQLSTATE:0AKDC

目前不支援在巢狀數據行上建立 bloom filer 索引: <columnName>

DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION

SQLSTATE:0AKDC

在 (field = <fieldName>) 中<operation>不支援巢狀欄位。

DELTA_UNSUPPORTED_NON_EMPTY_CLONE

SQLSTATE:0AKDC

複製目的地數據表不是空的。 請在執行 CLONE 之前,先從數據表進行 TRUNCATE 或 DELETE。

DELTA_UNSUPPORTED_OUTPUT_MODE

SQLSTATE:0AKDC

數據源 <dataSource> 不支持 <mode> 輸出模式

DELTA_UNSUPPORTED_PARTITION_COLUMN_IN_BLOOM_FILTER

SQLSTATE:0AKDC

不支援在資料分割數據行上建立 bloom 篩選索引: <columnName>

DELTA_UNSUPPORTED_RENAME_COLUMN

SQLSTATE:0AKDC

Delta 資料表不支援數據行重新命名。 <advice>

DELTA_UNSUPPORTED_SCHEMA_DURING_READ

SQLSTATE:0AKDC

Delta 不支援在讀取時指定架構。

DELTA_UNSUPPORTED_SORT_ON_BUCKETED_TABLES

SQLSTATE:0A000

差異貯體數據表不支援 SORTED BY

DELTA_UNSUPPORTED_SOURCE

SQLSTATE: 0AKDD

<operation> destination 僅支援 Delta 來源。

<plan>

DELTA_UNSUPPORTED_STATIC_PARTITIONS

SQLSTATE: 0AKDD

插入期間目前不支援在分割區規格中指定靜態分割區

DELTA_UNSUPPORTED_STRATEGY_NAME

SQLSTATE: 22023

不支援的原則名稱: <strategy>

DELTA_UNSUPPORTED_SUBQUERY

SQLSTATE:0AKDC

(condition = <cond>) 中不支持<operation>子查詢。

DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES

SQLSTATE:0AKDC

數據分割述詞不支持子查詢。

DELTA_UNSUPPORTED_TIME_TRAVEL_MULTIPLE_FORMATS

SQLSTATE: 42613

無法以多種格式指定時間移動。

DELTA_UNSUPPORTED_TIME_TRAVEL_VIEWS

SQLSTATE:0AKDC

無法時間移動檢視、子查詢、串流或變更數據摘要查詢。

DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES

SQLSTATE:0A000

不支援截斷範例數據表

DELTA_UNSUPPORTED_VACUUM_SPECIFIC_PARTITION

SQLSTATE:0AKDC

在清理差異數據表時,請提供基底路徑 (<baseDeltaPath>)。 目前不支援清理特定分割區。

DELTA_UNSUPPORTED_WRITES_STAGED_TABLE

SQLSTATE:42807

資料表實作不支援寫入: <tableName>

DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES

SQLSTATE:0A000

不支援寫入範例數據表

DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION

SQLSTATE: 42846

無法轉換成 <fromCatalog><toCatalog>。 所有巢狀數據行都必須相符。

DELTA_VERSIONS_NOT_CONTIGUOUS

SQLSTATE: KD00C

版本 (<versionList>) 不是連續的。

如需詳細資訊,請參閱 DELTA_VERSIONS_NOT_CONTIGUOUS

DELTA_VIOLATE_CONSTRAINT_WITH_VALUES

SQLSTATE:23001

具有值的數據列違反 CHECK 條件約束 <constraintName><expression>

<values>

DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED

SQLSTATE:0A000

已違反資料表 <table> 屬性的驗證:

如需詳細資訊,請參閱 DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED

DELTA_WRITE_INTO_VIEW_NOT_SUPPORTED

SQLSTATE:0A000

<viewIdentifier> 是檢視。 您可能不會將數據寫入檢視中。

DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST

SQLSTATE:42703

Z 排序數據行 <columnName> 不存在於數據架構中。

DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS

SQLSTATE: KD00D

Z 排序 <cols> 將會是

無效,因為我們目前不會收集這些數據行的統計數據。 請參閱「建議的文件」所提供連結中的

<link>

如需有關數據略過和迭置順序的詳細資訊。 您可以停用

藉由設定此檢查

'%%sql set <zorderColStatKey> = false'

DELTA_ZORDERING_ON_PARTITION_COLUMN

SQLSTATE: 42P10

<colName> 是數據分割數據行。 Z 排序只能在數據行上執行

自動載入器

CF_ADD_NEW_NOT_SUPPORTED

SQLSTATE:0A000

指定架構時,不支援架構演進模式 <addNewColumnsMode> 。 若要使用此模式,您可以改為提供架構 cloudFiles.schemaHints

CF_AMBIGUOUS_AUTH_OPTIONS_ERROR

SQLSTATE:42000

找到 (預設) 目錄的通知設定驗證選項

清單模式:

<options>

如果您想要使用檔案通知模式,請明確設定:

.option(“cloudFiles.<useNotificationsKey>”, “true”)

或者,如果您想要略過選項的驗證,並忽略這些驗證

驗證選項,您可以設定:

.option(“cloudFiles.ValidateOptionsKey>”, “false”)

CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR

SQLSTATE:42000

累加式清單模式 (cloudFiles.<useIncrementalListingKey>

和檔案通知 (cloudFiles.<useNotificationsKey>

已同時啟用。

請確定您只選取一個。

CF_AZURE_STORAGE_SUFFIXES_REQUIRED

SQLSTATE:42000

需要適用於 Azure 的 adlsBlobSuffix 和 adlsDfsSuffix

CF_BUCKET_MISMATCH

SQLSTATE: 22000

檔案事件中的 與<storeType>來源的預期不同:<source><fileEvent>

CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY

SQLSTATE: 22000

當架構記錄是空的時,無法演進架構。 架構記錄檔位置: <logPath>

CF_CANNOT_PARSE_QUEUE_MESSAGE

SQLSTATE: 22000

無法剖析下列佇列訊息: <message>

CF_CANNOT_RESOLVE_CONTAINER_NAME

SQLSTATE: 22000

無法從路徑解析容器名稱: <path>、已解析的 URI: <uri>

CF_CANNOT_RUN_DIRECTORY_LISTING

SQLSTATE: 22000

執行異步回填線程時,無法執行目錄清單

CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON

SQLSTATE:42000

無法同時開啟 cloudFiles.cleanSource 和 cloudFiles.allowOverwrites。

CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION

SQLSTATE:42501

自動載入器無法刪除已處理的檔案,因為它沒有來源目錄的寫入許可權。

<reason>

若要修正,您可以:

  1. 將寫入許可權授與來源目錄 OR
  2. 將 cleanSource 設定為 'OFF'

您也可以將 SQLConf spark.databricks.cloudFiles.cleanSource.disabledDueToAuthorizationErrors 設定為 'true' 來解除封鎖串流。

CF_DUPLICATE_COLUMN_IN_DATA

SQLSTATE: 22000

嘗試推斷數據表的數據分割架構時發生錯誤。 您的數據和資料分割路徑中有相同的數據行重複。 若要忽略分割區值,請使用:.option(“cloudFiles.<partitionColumnsKey>”, “{comma-separated-list}”) 明確提供分割區數據行。

CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE

SQLSTATE:42000

當輸入路徑 <path> 是空的時,無法推斷架構。 請在輸入路徑中有檔案,或指定架構時,嘗試啟動數據流。

CF_EVENT_GRID_AUTH_ERROR

SQLSTATE: 22000

無法建立事件方格訂用帳戶。 請確定您的服務

主體具有事件方格訂用 <permissionType> 帳戶。 如需詳細資訊,請參閱:

<docLink>

CF_EVENT_GRID_CREATION_FAILED

SQLSTATE: 22000

無法建立事件方格訂用帳戶。 請確定 Microsoft.EventGrid 為

在訂用帳戶中註冊為資源提供者。 如需詳細資訊,請參閱:

<docLink>

CF_EVENT_GRID_NOT_FOUND_ERROR

SQLSTATE: 22000

無法建立事件方格訂用帳戶。 請確定您的記憶體

帳戶 (<storageAccount>) 位於您的資源群組下 (<resourceGroup>) 且

記憶體帳戶是「儲存體 V2(一般用途 v2)」帳戶。 如需詳細資訊,請參閱:

<docLink>

CF_EVENT_NOTIFICATION_NOT_SUPPORTED

SQLSTATE:0A000

不支援 <cloudStore>自動載入器事件通知模式。

CF_FAILED_TO_CHECK_STREAM_NEW

SQLSTATE: 22000

無法檢查數據流是否為新的

CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION

SQLSTATE: 22000

無法建立訂用帳戶: <subscriptionName>。 具有相同名稱的訂用帳戶已經存在,且與另一個主題相關聯: <otherTopicName>。 所需的主題為 <proposedTopicName>。 刪除現有的訂用帳戶,或使用新的資源後綴建立訂用帳戶。

CF_FAILED_TO_CREATED_PUBSUB_TOPIC

SQLSTATE: 22000

無法建立主題: <topicName>。 具有相同名稱的主題已經存在。<reason> 拿掉現有的主題,或使用另一個資源後綴再試一次

CF_FAILED_TO_DELETE_GCP_NOTIFICATION

SQLSTATE: 22000

無法在主題<topicName>的貯<bucketName>體上刪除標識碼為 <notificationId> 的通知。 請重試或手動透過 GCP 控制台移除通知。

CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA

SQLSTATE: 22000

無法從字串還原串行化儲存的架構: '<jsonSchema>'

CF_FAILED_TO_EVOLVE_SCHEMA

SQLSTATE: 22000

在沒有架構記錄檔的情況下,無法演進架構。

CF_FAILED_TO_FIND_PROVIDER

SQLSTATE:42000

找不到的提供者 <fileFormatInput>

CF_FAILED_TO_INFER_SCHEMA

SQLSTATE: 22000

無法從輸入路徑 <path>中的現有檔案推斷格式<fileFormatInput>的架構。 請確定您已正確設定選項,或明確指定架構。

CF_FAILED_TO_WRITE_TO_SCHEMA_LOG

SQLSTATE: 22000

無法寫入位置 <path>的架構記錄檔。

CF_FILE_FORMAT_REQUIRED

SQLSTATE:42000

找不到必要的選項:cloudFiles.format。

CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS

SQLSTATE: 22000

找到多個訂<num>用帳戶,其中包含主題的自動載入器前置詞 <topicName>

<subscriptionList>

每個主題應該只有一個訂用帳戶。 請手動確定您的主題沒有多個訂用帳戶。

CF_GCP_AUTHENTICATION

SQLSTATE:42000

請提供下列所有專案:<clientEmail>、、 <client>

<privateKey>、 和 <privateKeyId> 或 提供其中任何專案,以使用預設值

用於向 GCP 資源進行驗證的 GCP 認證提供者鏈結。

CF_GCP_LABELS_COUNT_EXCEEDED

SQLSTATE: 22000

收到太多標籤 (<num>) 用於 GCP 資源。 每個資源的標籤計數上限為 <maxNum>

CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED

SQLSTATE: 22000

收到太多 GCP 資源的資源標籤 (<num>)。 每個資源的資源標籤計數上限為 <maxNum>,因為資源標籤會儲存為資源上的 GCP 標籤,而 Databricks 特定標籤會耗用此標籤配額的一些。

CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG

SQLSTATE: 22000

路徑的架構記錄檔中不完整的記錄檔 <path>

CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT

SQLSTATE: 22000

自動載入器檢查點中不完整的元數據檔案

CF_INCORRECT_SQL_PARAMS

SQLSTATE:42000

cloud_files方法接受兩個必要的字串參數:要載入的路徑,以及檔案格式。 檔案讀取器選項必須在字串索引鍵/值對應中提供。 例如cloud_files(“path”, “json”, map(“option1”, “value1”))。 收到: <params>

CF_INTERNAL_ERROR

SQLSTATE:42000

內部錯誤。

如需詳細資訊,請參閱 CF_INTERNAL_ERROR

CF_INVALID_ARN

SQLSTATE:42000

無效的 ARN: <arn>

CF_INVALID_CHECKPOINT

SQLSTATE:42000

此檢查點不是有效的 CloudFiles 來源

CF_INVALID_CLEAN_SOURCE_MODE

SQLSTATE:42000

清除來源選項 <value>的模式無效。

CF_INVALID_GCP_RESOURCE_TAG_KEY

SQLSTATE:42000

GCP 資源的資源標記索引鍵無效: <key>。 索引鍵的開頭必須是小寫字母、長度為 1 到 63 個字元,且只包含小寫字母、數位、底線 (_) 和連字元 (-)。

CF_INVALID_GCP_RESOURCE_TAG_VALUE

SQLSTATE:42000

GCP 資源的資源標籤無效: <value>。 值長度必須介於 0 到 63 個字元以內,而且必須只包含小寫字母、數位、底線 (_) 和連字元 (-)。

CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS

SQLSTATE:42000

自動載入器在搭配 Managed 檔案事件使用時不支援下列選項:

<optionList>

建議您移除這些選項,然後重新啟動數據流。

CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE

SQLSTATE: 22000

Managed 檔案事件服務的回應無效。 請連絡 Databricks 支援以尋求協助。

如需詳細資訊,請參閱 CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE

CF_INVALID_SCHEMA_EVOLUTION_MODE

SQLSTATE:42000

cloudFiles。<schemaEvolutionModeKey> 必須是 { 的其中一個

<addNewColumns>

<failOnNewColumns>

<rescue>

<noEvolution>”}

CF_INVALID_SCHEMA_HINTS_OPTION

SQLSTATE:42000

架構提示只能指定特定數據行一次。

在此情況下,重新定義資料列: <columnName>

schemaHints 中的多次:

<schemaHints>

CF_INVALID_SCHEMA_HINT_COLUMN

SQLSTATE:42000

架構提示無法用來覆寫對應和數位的巢狀類型。

衝突的資料列: <columnName>

CF_LATEST_OFFSET_READ_LIMIT_REQUIRED

SQLSTATE: 22000

latestOffset 應該在此來源上使用 ReadLimit 呼叫。

CF_LOG_FILE_MALFORMED

SQLSTATE: 22000

記錄檔格式不正確:無法從 <fileName>讀取正確的記錄版本。

CF_MANAGED_FILE_EVENTS_BACKFILL_IN_PROGRESS

SQLSTATE: 22000

您已要求自動載入器將 includeExistingFiles 設定為 false,以忽略外部位置的現有檔案。 不過,受控檔案事件服務仍在探索外部位置中的現有檔案。 在 Managed 檔案事件完成探索外部位置中的所有檔案之後,請再試一次。

CF_MANAGED_FILE_EVENTS_ENDPOINT_NOT_FOUND

SQLSTATE:42000

您使用自動載入器搭配Managed檔案事件,但您的輸入路徑'<path>' 的外部位置似乎未啟用檔案事件,或輸入路徑無效。 請要求 Databricks 管理員 istrator 在輸入路徑的外部位置上啟用檔案事件。

CF_MANAGED_FILE_EVENTS_ENDPOINT_PERMISSION_DENIED

SQLSTATE:42000

您正使用自動載入器搭配 Managed 檔案事件,但無法存取輸入路徑 '<path>' 的外部位置或磁碟區,或輸入路徑無效。 請要求 Databricks 管理員 istrator 授與外部位置或磁碟區的讀取許可權,或提供現有外部位置或磁碟區內的有效輸入路徑。

CF_MANAGED_FILE_EVENTS_ONLY_ON_SERVERLESS

SQLSTATE:56038

具有 Managed 檔案事件的自動載入器僅適用於 Databricks 無伺服器。 若要繼續,請將此工作負載移至 Databricks 無伺服器或關閉 cloudFiles.useManagedFileEvents 選項。

CF_MAX_MUST_BE_POSITIVE

SQLSTATE:42000

max 必須是正數

CF_METADATA_FILE_CONCURRENTLY_USED

SQLSTATE: 22000

多個串流查詢會同時使用 <metadataFile>

CF_MISSING_METADATA_FILE_ERROR

SQLSTATE:42000

串流來源檢查點目錄中的元數據檔案遺失。 此元數據

檔案包含數據流的重要預設選項,因此無法重新啟動數據流

[發行]。 請連絡 Databricks 支援以尋求協助。

CF_MISSING_PARTITION_COLUMN_ERROR

SQLSTATE:42000

資料分割資料列 <columnName> 不存在於提供的架構中:

<schema>

CF_MISSING_SCHEMA_IN_PATHLESS_MODE

SQLSTATE:42000

如果使用檔案通知模式時未提供 CloudFiles 來源的路徑,請使用 .schema() 指定架構。 或者,若要讓自動載入器推斷架構,請在 .load() 中提供基底路徑。

CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC

SQLSTATE: 22000

在貯<bucketName>體上找到主題<topicName>的現有通知:

notification,id

<notificationList>

若要避免對訂閱者造成意外事件的污染,請刪除上述通知並重試。

CF_NEW_PARTITION_ERROR

SQLSTATE: 22000

從您的檔案推斷出新的分割區數據行: [<filesList>]。 請提供架構中的所有數據分割數據行,或提供您想要使用下列方法擷取值的數據分割數據行清單:.option(“cloudFiles.partitionColumns”, “{comma-separated-list|empty-string}”)

CF_PARTITON_INFERENCE_ERROR

SQLSTATE: 22000

嘗試推斷目前檔案批次的數據分割架構時發生錯誤。 請使用:.option(“cloudFiles.<partitionColumnOption>”, “{comma-separated-list}”) 明確提供分割區數據行。

CF_PATH_DOES_NOT_EXIST_FOR_READ_FILES

SQLSTATE:42000

輸入路徑 <path> 不存在時,無法讀取檔案。 請確定輸入路徑存在並重新嘗試。

CF_PERIODIC_BACKFILL_NOT_SUPPORTED

SQLSTATE:0A000

如果停用異步回填,則不支援定期回填。 您可以將 設定 spark.databricks.cloudFiles.asyncDirListing 為 true,以啟用異步回填/目錄清單

CF_PREFIX_MISMATCH

SQLSTATE: 22000

發現不相符的事件:索引鍵 <key> 沒有前置詞: <prefix>

CF_PROTOCOL_MISMATCH

SQLSTATE: 22000

<message>

如果您不需要對程式代碼進行任何其他變更,請設定 SQL

組態: '<sourceProtocolVersionKey> = <value>'

以繼續串流。 請參閱:

<docLink>

以取得詳細資料。

CF_REGION_NOT_FOUND_ERROR

SQLSTATE:42000

無法取得預設 AWS 區域。 請使用 cloudFiles.region 選項指定區域。

CF_RESOURCE_SUFFIX_EMPTY

SQLSTATE:42000

無法建立通知服務:資源後綴不能是空的。

CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS

SQLSTATE:42000

無法建立通知服務:資源後綴只能有英數位元、連字元 (-) 和底線 (_)。

CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE

SQLSTATE:42000

無法建立通知服務:資源後綴只能有小寫字母、數位和破折號(-)。

CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP

SQLSTATE:42000

無法建立通知服務:資源後綴只能有英數位元、連字元 (-)、底線 (_)、句號 (.)、底線 (~) 加號 (+) 和百分比符號 (<percentSign>)。

CF_RESOURCE_SUFFIX_LIMIT

SQLSTATE:42000

無法建立通知服務:資源後綴不能超過 <limit> 字元。

CF_RESOURCE_SUFFIX_LIMIT_GCP

SQLSTATE:42000

無法建立通知服務:資源後綴必須介於 和 <upperLimit> 字元之間<lowerLimit>

CF_RESTRICTED_GCP_RESOURCE_TAG_KEY

SQLSTATE: 22000

找到受限制的 GCP 資源標籤索引鍵 (<key>)。 自動載入器限制下列 GCP 資源標籤索引鍵: [<restrictedKeys>]

CF_RETENTION_GREATER_THAN_MAX_FILE_AGE

SQLSTATE:42000

cloudFiles.cleanSource.retentionDuration 不能大於 cloudFiles.maxFileAge。

CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX

SQLSTATE: 22000

無法建立主題的通知: <topic> 前置詞: <prefix>。 已經有一個具有相同名稱的主題與另一個前置詞: <oldPrefix>。 請嘗試使用不同的資源後綴進行設定或刪除現有的安裝程式。

CF_SOURCE_DIRECTORY_PATH_REQUIRED

SQLSTATE:42000

請使用 選項提供來源目錄路徑 path

CF_SOURCE_UNSUPPORTED

SQLSTATE:0A000

雲端檔案來源目前僅支援 S3、Azure Blob 儲存體 (wasb/wasbs) 和 Azure Data Lake Gen1 (adl) 和 Gen2 (abfs/abfss) 路徑。 path: '<path>', resolved uri: '<uri>'

CF_STATEFUL_STREAMING_SCHEMA_EVOLUTION

SQLSTATE:0A000

具狀態串流查詢不支援架構演進。 請將 「cloudFiles.schemaEvolutionMode」 選項設定為 “rescue” 或 “none”。

CF_STATE_INCORRECT_SQL_PARAMS

SQLSTATE:42000

cloud_files_state函式接受字串參數,代表 cloudFiles 數據流的檢查點目錄或識別串流數據表的多部分 tableName,以及代表載入狀態之檢查點版本的選擇性第二個整數參數。 第二個參數也可能是「最新」,可讀取最新的檢查點。 收到: <params>

CF_STATE_INVALID_CHECKPOINT_PATH

SQLSTATE:42000

輸入檢查點路徑 <path> 無效。 路徑不存在,或找不到cloud_files來源。

CF_STATE_INVALID_VERSION

SQLSTATE:42000

指定的版本 <version> 不存在,或是在分析期間移除。

CF_THREAD_IS_DEAD

SQLSTATE: 22000

<threadName> 線程已失效。

CF_UNABLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION

SQLSTATE:42000

無法從來源檢查點位置衍生資料流檢查點位置: <checkPointLocation>

CF_UNABLE_TO_DETECT_FILE_FORMAT

SQLSTATE:42000

無法從 <fileSize> 取樣的檔案偵測來源檔案格式,找到 <formats>。 請指定格式。

CF_UNABLE_TO_EXTRACT_BUCKET_INFO

SQLSTATE:42000

無法擷取貯體資訊。 路徑:『<path>,已解析的 uri: 』<uri>』 。

CF_UNABLE_TO_EXTRACT_KEY_INFO

SQLSTATE:42000

無法擷取金鑰資訊。 路徑:『<path>,已解析的 uri: 』<uri>』 。

CF_UNABLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO

SQLSTATE:42000

無法擷取記憶體帳戶資訊;path: '<path>', resolved uri: '<uri>'

CF_UNABLE_TO_LIST_EFFICIENTLY

SQLSTATE: 22000

收到路徑 <path>的目錄重新命名事件,但我們無法有效率地列出此目錄。 為了讓數據流繼續,請將 'cloudFiles.ignoreDirRenames' 選項設定為 true,並考慮啟用 cloudFiles.backfillInterval 的一般回填,以便處理此數據。

CF_UNEXPECTED_READ_LIMIT

SQLSTATE: 22000

非預期的 ReadLimit: <readLimit>

CF_UNKNOWN_OPTION_KEYS_ERROR

SQLSTATE:42000

找到未知的選項索引鍵:

<optionList>

請確定所有提供的選項金鑰都正確無誤。 如果您想要略過

驗證您的選項並忽略這些未知的選項,您可以設定:

.option(“cloudFiles.<validateOptions>”, “false”)

CF_UNKNOWN_READ_LIMIT

SQLSTATE: 22000

未知的 ReadLimit: <readLimit>

CF_UNSUPPORTED_CLOUD_FILES_SQL_FUNCTION

SQLSTATE:0A000

只有 Delta Live Tables 管線才支援建立自動載入器串流來源的 SQL 函式 'cloud_files'。 如需詳細資訊,請參閱:

<docLink>

CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE

SQLSTATE:0A000

不支援格式的架構推斷: <format>。 請指定架構。

CF_UNSUPPORTED_LOG_VERSION

SQLSTATE:0A000

UnsupportedLogVersion:支持的記錄版本上限為 v<maxVersion>``, but encountered v``<version>。 記錄檔是由較新版本的 DBR 所產生,無法由這個版本讀取。 請升級。

CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE

SQLSTATE:0A000

格式不支援架構演進模式 <mode><format>。 請將架構演進模式設定為 「無」。

CF_USE_DELTA_FORMAT

SQLSTATE:42000

此語法不支援從 Delta 資料表讀取。 如果您想要從 Delta 取用數據,請參閱檔:讀取 Delta 資料表 (<deltaDocLink>),或將 Delta 數據表讀取為數據流來源 (<streamDeltaDocLink>)。 Delta 的串流來源已針對增量取用數據進行優化。

地理空間

EWKB_PARSE_ERROR

SQLSTATE: 22023

剖析 EWKB 時發生錯誤: <parseError> 位置 <pos>

GEOJSON_PARSE_ERROR

SQLSTATE: 22023

剖析 GeoJSON 時發生錯誤: <parseError> 位置 <pos>

如需詳細資訊,請參閱 GEOJSON_PARSE_ERROR

H3_INVALID_CELL_ID

SQLSTATE: 22023

<h3Cell> 不是有效的 H3 單元格標識碼

如需詳細資訊,請參閱 H3_INVALID_CELL_ID

H3_INVALID_GRID_DISTANCE_VALUE

SQLSTATE: 22023

H3 網格線距離 <k> 必須是非負數

如需詳細資訊,請參閱 H3_INVALID_GRID_DISTANCE_VALUE

H3_INVALID_RESOLUTION_VALUE

SQLSTATE: 22023

H3 解決方案<r>必須介於和 <maxR>之間<minR>,且包含

如需詳細資訊,請參閱 H3_INVALID_RESOLUTION_VALUE

H3_NOT_ENABLED

SQLSTATE:0A000

<h3Expression> 已停用或不支援。 請考慮啟用 Photon 或切換至支援 H3 表達式的階層

如需詳細資訊,請參閱 H3_NOT_ENABLED

H3_PENTAGON_ENCOUNTERED_ERROR

SQLSTATE: 22023

使用網格距離計算 的 <h3Cell> 十六進位環時,遇到五角大樓 <k>

H3_UNDEFINED_GRID_DISTANCE

SQLSTATE: 22023

<h3Cell2> 之間的 <h3Cell1> H3 網格線距離未定義

ST_DIFFERENT_SRID_VALUES

SQLSTATE: 22023

<sqlFunction>” 的自變數必須具有相同的 SRID 值。 找到 SRID 值: <srid1><srid2>

ST_INVALID_ARGUMENT

SQLSTATE: 22023

<sqlFunction>”: <reason>

ST_INVALID_ARGUMENT_TYPE

SQLSTATE: 22023

“” 的<sqlFunction>自變數必須是 類型 <validTypes>

ST_INVALID_CRS_TRANSFORMATION_ERROR

SQLSTATE: 22023

<sqlFunction>:從 SRID 轉換成 SRID <srcSrid> 無效或不支援的 CRS 轉換 <trgSrid>

ST_INVALID_ENDIANNESS_VALUE

SQLSTATE: 22023

Endianness <e> 必須是 'NDR' (little-endian) 或 'XDR' (big-endian)

ST_INVALID_GEOHASH_VALUE

SQLSTATE: 22023

<sqlFunction>:無效的地理ash 值: '<geohash>'。 Geohash 值必須是有效的小寫 base32 字串,如中所述https://en.wikipedia.org/wiki/Geohash#Textual_representation

ST_INVALID_PRECISION_VALUE

SQLSTATE: 22023

有效位數<p>必須介於和 <maxP>之間<minP>、內含

ST_INVALID_SRID_VALUE

SQLSTATE: 22023

無效或不支援的 SRID <srid>

ST_NOT_ENABLED

SQLSTATE:0A000

<stExpression> 已停用或不支援。 請考慮啟用 Photon 或切換至支援 ST 表達式的階層

ST_UNSUPPORTED_RETURN_TYPE

SQLSTATE:0A000

GEOGRAPHY 和 GEOMETRY 數據類型無法在查詢中傳回。 使用下列其中一個 SQL 運算式,將它們轉換成標準交換格式: <projectionExprs>

WKB_PARSE_ERROR

SQLSTATE: 22023

剖析 WKB 時發生錯誤: <parseError> 位置 <pos>

如需詳細資訊,請參閱 WKB_PARSE_ERROR

WKT_PARSE_ERROR

SQLSTATE: 22023

剖析 WKT 時發生錯誤: <parseError> 位置 <pos>

如需詳細資訊,請參閱 WKT_PARSE_ERROR