Azure Databricks의 오류 클래스
적용 대상: Databricks SQL
Databricks Runtime 12.2 이상
오류 클래스는 오류 조건에 고유한 설명적이고 사람이 읽을 수 있는 문자열입니다.
오류 클래스를 사용하여 오류 메시지를 구문 분석할 필요 없이 애플리케이션에서 오류를 프로그래밍 방식으로 처리할 수 있습니다.
Azure Databricks에서 반환한 일반적인 명명된 오류 조건의 목록입니다.
Databricks Runtime 및 Databricks SQL
AGGREGATE_FUNCTION_WITH_NONDETERMINISTIC_EXPRESSION
비결정적 식 <sqlExpr>
은 집계 함수의 인수에 나타나지 않아야 합니다.
AI_FUNCTION_HTTP_PARSE_CAST_ERROR
지정된 returnType: "<dataType>
"로 캐스팅할 때 모델 출력을 구문 분석하지 못했습니다. 응답 JSON은 "<responseString>
"입니다. 응답 JSON이 나타내는 형식의 내용과 일치하도록 returnType을 업데이트한 다음 쿼리를 다시 시도하세요.
AI_FUNCTION_HTTP_PARSE_COLUMNS_ERROR
실제 모델 출력에는 "<responseString>
" 열이 두 개 이상 있습니다. 그러나 지정된 반환 형식[""<dataType>
]에는 열이 하나만 있습니다. 모델 출력과 동일한 수의 열을 포함하도록 returnType을 업데이트한 다음 쿼리를 다시 시도하세요.
AI_FUNCTION_HTTP_REQUEST_ERROR
함수 <funcName>
에 대한 HTTP 요청을 수행하는 동안 오류가 발생했습니다. <errorMessage>
AI_FUNCTION_INVALID_HTTP_RESPONSE
함수 <funcName>
에 대한 HTTP 응답이 잘못되었습니다. <errorMessage>
AI_FUNCTION_INVALID_MAX_WORDS
단어의 최대 수는 음수가 아닌 정수여야 하지만 <maxWords>
,
AI_FUNCTION_JSON_PARSE_ERROR
함수 <funcName>
에 대한 JSON 응답을 구문 분석하는 동안 오류가 발생했습니다. <errorMessage>
AI_FUNCTION_UNSUPPORTED_ERROR
함수 <funcName>
는 현재 환경에서 지원되지 않습니다. Databricks SQL Pro 및 서버리스에서만 사용할 수 있습니다.
AI_FUNCTION_UNSUPPORTED_REQUEST
제공된 인수에 "<functionName>
"가 있지만 다음 형식만 지원<supportedDataTypes>
되므로 SQL 함수 "<invalidDataType>
"를 평가하지 <invalidValue>
못했습니다. 문자열 형식의 인수를 제공하고 쿼리를 다시 시도하려면 함수 호출을 업데이트하세요.
AI_FUNCTION_UNSUPPORTED_RETURN_TYPE
AI 함수: "<functionName>
"는 반환 형식<typeName>
으로 다음 형식을 지원하지 않습니다. 반환 형식은 Catalyst에서 이해하고 AI 함수에서 지원하는 유효한 SQL 형식이어야 합니다. 현재 지원되는 형식에는 다음이 포함됩니다. <supportedValues>
AI_INVALID_ARGUMENT_VALUE_ERROR
제공된 값 "<argValue>
"은 인수 "<argName>
"에서 지원되지 않습니다. 지원되는 값은 다음과 같습니다. <supportedValues>
AI_QUERY_RETURN_TYPE_COLUMN_TYPE_MISMATCH
제공된 "<sqlExpr>
"는 returnType 인수에서 지원되지 않습니다.
AI_SEARCH_EMBEDDING_COLUMN_TYPE_UNSUPPORTED_ERROR
열 형식 <embeddingColumnType>
을 포함하는 벡터 검색은 지원되지 않습니다.
AI_SEARCH_INDEX_TYPE_UNSUPPORTED_ERROR
인덱스 형식 <indexType>
의 벡터 검색은 지원되지 않습니다.
AI_SEARCH_UNSUPPORTED_NUM_RESULTS_ERROR
num_results 보다 <maxLimit>
큰 벡터 검색은 지원되지 않습니다. 지정된 제한은 .입니다 <requestedLimit>
. num_results = 플리케이스 다시 <시도 <maxLimit>
ALL_PARAMETERS_MUST_BE_NAMED
매개 변수가 있는 이름 쿼리를 사용하려면 모든 매개 변수의 이름을 지정해야 합니다. 매개 변수 이름 누락: <exprs>
.
ALL_PARTITION_COLUMNS_NOT_ALLOWED
파티션 열에 모든 열을 사용할 수 없습니다.
ALTER_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
ALTER TABLE <type>
열 <columnName>
은 설명자 "<optionName>
"를 두 번 이상 지정하며 이는 유효하지 않습니다.
AMBIGUOUS_ALIAS_IN_NESTED_CTE
이름은 <name>
중첩된 CTE에서 모호합니다.
내부 CTE에 정의된 이름이 우선적으로 적용되도록 "CORRECTED"로 설정 <config>
하세요. "LEGACY"로 설정하면 외부 CTE 정의가 우선합니다.
'를 참조하세요 https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine.
AMBIGUOUS_COLUMN_OR_FIELD
열 또는 필드 <name>
가 모호하며 일치 항목이 있습니다 <n>
.
AMBIGUOUS_COLUMN_REFERENCE
열 <name>
이 모호합니다. 여러 DataFrame을 함께 조인했고 이러한 데이터 프레임 중 일부는 동일하기 때문입니다.
이 열은 DataFrames 중 하나를 가리키지만 Spark는 어느 것을 알아낼 수 없습니다.
조인하기 전에 다른 이름으로 DataFrame.alias
DataFrames의 별칭을 지정하세요.
정규화된 이름을 사용하여 열을 지정합니다(예: .). df.alias("a").join(df.alias("b"), col("a.id") > col("b.id"))
AMBIGUOUS_CONSTRAINT
제약 조건에 <constraint>
대한 모호한 참조입니다.
AMBIGUOUS_LATERAL_COLUMN_ALIAS
횡적 열 별칭 <name>
은 모호하며 일치 항목이 있습니다 <n>
.
AMBIGUOUS_REFERENCE
참조 <name>
는 모호하며 다음과 <referenceNames>
같습니다.
AMBIGUOUS_REFERENCE_TO_FIELDS
필드에 <field>
대한 모호한 참조입니다. 스키마에 <count>
시간이 표시됩니다.
ANALYZE_CONSTRAINTS_NOT_SUPPORTED
ANALYZE 제약 조건은 지원되지 않습니다.
ANSI_CONFIG_CANNOT_BE_DISABLED
이 제품에서는 ANSI SQL 구성 <config>
을 사용하지 않도록 설정할 수 없습니다.
ARGUMENT_NOT_CONSTANT
함수 <functionName>
는 상수 인수가 필요한 위치에 <pos>
매개 변수 <parameterName>
를 포함합니다. 인수 <sqlExpr>
를 별도로 계산하고 결과를 상수로 전달하세요.
ARITHMETIC_OVERFLOW
<message>
.<alternative>
필요한 경우 이 오류를 무시하려면 "false"로 설정합니다 <config>
.
자세한 내용은 ARITHMETIC_OVERFLOW 참조 하세요.
ASSIGNMENT_ARITY_MISMATCH
할당되거나 별칭 <numTarget>
이 지정된 열 또는 변수의 수가 원본 식 수와 일치하지 않습니다. <numExpr>
AS_OF_JOIN
잘못된 현재 조인입니다.
자세한 내용은 AS_OF_JOIN 참조하세요 .
AVRO_DEFAULT_VALUES_UNSUPPORTED
기본값 사용은 사용하도록 설정된 경우rescuedDataColumn
지원되지 않습니다. false로 설정 spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue
하여 이 검사를 제거할 수 있지만 기본값은 적용되지 않으며 null 값은 계속 사용됩니다.
AVRO_INCOMPATIBLE_READ_TYPE
원래 인코딩된 데이터 형식이므로 Avro <avroPath>
를 SQL <sqlPath>
로 <sqlType>
변환할 수 없습니다. 그러나 필드를 읽는 중이면 잘못된 답변이 발생<avroType>
합니다.
이 필드를 읽을 수 있도록 하려면 SQL 구성 "spark.sql.legacy.avro.allowIncompatibleSchema"를 사용하도록 설정합니다.
AVRO_POSITIONAL_FIELD_MATCHING_UNSUPPORTED
위치 필드 일치의 사용은 사용하거나 failOnUnknownFields
사용하도록 설정된 경우 rescuedDataColumn
지원되지 않습니다. 계속하려면 다음 옵션을 제거합니다.
BATCH_METADATA_NOT_FOUND
일괄 처리를 <batchMetadataFile>
찾을 수 없습니다.
BIGQUERY_OPTIONS_ARE_MUTUALLY_EXCLUSIVE
BigQuery 연결 자격 증명은 'GoogleServiceAccountKeyJson' 매개 변수 또는 모든 'projectId', 'OAuthServiceAcctEmail', 'OAuthPvtKey'를 사용하여 지정해야 합니다.
BINARY_ARITHMETIC_OVERFLOW
<value1>
<symbol>
<value2>
오버플로가 발생했습니다.
BUILT_IN_CATALOG
<operation>
는 기본 제공 카탈로그를 지원하지 않습니다.
CALL_ON_STREAMING_DATASET_UNSUPPORTED
스트리밍 데이터 세트/데이터 프레임에서 메서드 <methodName>
를 호출할 수 없습니다.
CANNOT_ALTER_PARTITION_COLUMN
ALTER TABLE(ALTER|CHANGE) COLUMN은 파티션 열에 대해 지원되지 않지만 테이블에서 <tableName>
파티션 열을 <columnName>
찾았습니다.
CANNOT_CAST_DATATYPE
로 캐스팅 <sourceType>
할 <targetType>
수 없습니다.
CANNOT_CONVERT_PROTOBUF_FIELD_TYPE_TO_SQL_TYPE
스키마가 호환되지 않으므로 Protobuf <protobufColumn>
를 SQL <sqlColumn>
로 변환할 수 없습니다(protobufType = <protobufType>
, sqlType = <sqlType>
).
CANNOT_CONVERT_PROTOBUF_MESSAGE_TYPE_TO_SQL_TYPE
Protobuf를 SQL 형식으로 변환 <protobufType>
할 수 없습니다 <toType>
.
CANNOT_CONVERT_SQL_TYPE_TO_PROTOBUF_FIELD_TYPE
스키마가 호환되지 않으므로 SQL <sqlColumn>
을 Protobuf <protobufColumn>
로 변환할 수 없습니다(protobufType = <protobufType>
, sqlType = <sqlType>
).
CANNOT_CONVERT_SQL_VALUE_TO_PROTOBUF_ENUM_TYPE
열거형에 대해 정의된 값이 없으므로 <data>
SQL <sqlColumn>
을 Protobuf <protobufColumn>
로 변환할 수 없습니다. <enumString>
CANNOT_COPY_STATE
현재 데이터베이스 및 임시 보기와 같은 카탈로그 상태를 Unity 카탈로그에서 레거시 카탈로그로 복사할 수 없습니다.
CANNOT_CREATE_DATA_SOURCE_TABLE
데이터 원본 테이블을 만들지 못했습니다.<tableName>
자세한 내용은 CANNOT_CREATE_DATA_SOURCE_TABLE 참조 하세요.
CANNOT_DECODE_URL
제공된 URL은 디코딩 <url>
할 수 없습니다. URL의 형식이 올바르게 지정되었는지 확인하고 다시 시도하세요.
CANNOT_DELETE_SYSTEM_OWNED
시스템 소유는 <resourceType>
삭제할 수 없습니다.
CANNOT_DROP_AMBIGUOUS_CONSTRAINT
CHECK 제약 조건이 공유하는 이름의 제약 조건을 <constraintName>
삭제할 수 없습니다.
공유하는 이름의 제약 조건을 삭제할 수 없습니다. PRIMARY KEY 또는
FOREIGN KEY 제약 조건은
- ALTER TABLE .. DROP PRIMARY KEY 또는
- ALTER TABLE .. DROP FOREIGN KEY 쿼리를 통해 삭제할 수 있습니다.
CANNOT_ESTABLISH_CONNECTION
원격 <jdbcDialectName>
데이터베이스에 대한 연결을 설정할 수 없습니다. 연결 정보 및 자격 증명(예: 호스트, 포트, 사용자, 암호 및 데이터베이스 옵션)을 확인하세요. ** 정보가 정확하다고 생각되면 작업 영역의 네트워크 설정을 확인하고 호스트에 대한 아웃바운드 제한이 없는지 확인하세요. 또한 호스트가 작업 영역의 Spark 클러스터가 배포된 네트워크에서 인바운드 연결을 차단하지 않는지 확인하세요. ** 자세한 오류 메시지: <causeErrorMessage>
.
CANNOT_ESTABLISH_CONNECTION_SERVERLESS
원격 <jdbcDialectName>
데이터베이스에 대한 연결을 설정할 수 없습니다. 연결 정보 및 자격 증명(예: 호스트, 포트, 사용자, 암호 및 데이터베이스 옵션)을 확인하세요. ** 정보가 정확하다고 생각되면 서버리스 컴퓨팅을 사용 중이므로 인터넷에서 호스트로의 인바운드 트래픽을 허용하세요. 네트워크 정책에서 인바운드 인터넷 트래픽을 허용하지 않는 경우 비 서버리스 컴퓨팅을 사용하거나 Databricks 담당자에게 연락하여 서버리스 프라이빗 네트워킹에 대해 알아볼 수 있습니다. ** 자세한 오류 메시지: <causeErrorMessage>
.
CANNOT_INVOKE_IN_TRANSFORMATIONS
데이터 세트 변환 및 작업은 다른 데이터 세트 변환 내부가 아니라 드라이버에서만 호출할 수 있습니다. 예를 들어 dataset1.map(x => dataset2.values.count() * x)는 dataset1.map 변환 내에서 값 변환 및 개수 동작을 수행할 수 없기 때문에 유효하지 않습니다. 자세한 내용은 SPARK-28702를 참조하세요.
CANNOT_LOAD_FUNCTION_CLASS
함수<functionName>
를 등록할 때 클래스 <className>
를 로드할 수 없습니다. 클래스 경로에 있는지 확인하세요.
CANNOT_LOAD_PROTOBUF_CLASS
이름을 <protobufClassName>
가진 Protobuf 클래스를 로드할 수 없습니다. <explanation>
.
CANNOT_LOAD_STATE_STORE
로드하는 동안 오류가 발생했습니다.
자세한 내용은 CANNOT_LOAD_STATE_STORE 참조 하세요.
CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE
호환되지 않는 데이터 형식 <left>
및 <right>
. 병합되는 열의 데이터 형식을 확인하고 호환되는지 확인하세요. 필요한 경우 병합을 시도하기 전에 열을 호환되는 데이터 형식으로 캐스팅하는 것이 좋습니다.
CANNOT_MERGE_SCHEMAS
스키마 병합 실패:
초기 스키마:
<left>
초기 스키마와 병합할 수 없는 스키마:
<right>
.
CANNOT_MODIFY_CONFIG
Spark 구성 <key>
의 값을 수정할 수 없습니다.
'도 https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements참조하세요.
CANNOT_PARSE_DECIMAL
소수 자릿수를 구문 분석할 수 없습니다. 입력이 선택적 소수점 또는 쉼표 구분 기호가 있는 유효한 숫자인지 확인하세요.
CANNOT_PARSE_INTERVAL
를 구문 분석 <intervalString>
할 수 없습니다. 제공된 값이 간격을 정의하는 데 유효한 형식인지 확인하세요. 올바른 형식의 설명서를 참조할 수 있습니다. 문제가 지속되면 입력 값이 null이거나 비어 있지 않은지 다시 확인하고 다시 시도하세요.
CANNOT_PARSE_JSON_FIELD
필드 이름과 <fieldName>
JSON 토큰 형식의 값을 <fieldValue>
대상 Spark 데이터 형식 <jsonType>
<dataType>
으로 구문 분석할 수 없습니다.
CANNOT_PARSE_PROTOBUF_DESCRIPTOR
설명자 바이트를 Protobuf FileDescriptorSet으로 구문 분석하는 동안 오류가 발생했습니다.
CANNOT_PARSE_TIMESTAMP
<message>
. 필요한 경우 이 오류를 무시하려면 "false"로 설정합니다 <ansiConfig>
.
CANNOT_QUERY_TABLE_DURING_INITIALIZATION
초기화 중에 MV/ST를 쿼리할 수 없습니다.
자세한 내용은 CANNOT_QUERY_TABLE_DURING_INITIALIZATION 참조 하세요.
CANNOT_READ_ARCHIVED_FILE
파일이 보관되어 있으므로 경로 <path>
에서 파일을 읽을 수 없습니다. 보관된 파일을 제외하도록 쿼리 필터를 조정하세요.
CANNOT_READ_FILE
경로에서 파일을 읽을 <format>
수 없습니다. <path>
자세한 내용은 CANNOT_READ_FILE 참조하세요 .
CANNOT_READ_SENSITIVE_KEY_FROM_SECURE_PROVIDER
보안 공급자에서 중요한 키 '<key>
'를 읽을 수 없습니다.
CANNOT_RECOGNIZE_HIVE_TYPE
hive 형식 문자열을 인식할 수 없습니다. <fieldType>
, 열: <fieldName>
. Spark SQL에서는 필드에 대해 지정된 데이터 형식을 인식할 수 없습니다. 지정된 필드의 데이터 형식을 확인하고 유효한 Spark SQL 데이터 형식인지 확인하세요. 유효한 데이터 형식 및 해당 형식 목록은 Spark SQL 설명서를 참조하세요. 데이터 형식이 올바른 경우 지원되는 버전의 Spark SQL을 사용하고 있는지 확인하세요.
CANNOT_REFERENCE_UC_IN_HMS
Hive Metastore 개체에서 Unity 카탈로그 <objType>
를 참조할 수 없습니다.
CANNOT_RENAME_ACROSS_CATALOG
카탈로그 간 이름을 <type>
바꾸는 것은 허용되지 않습니다.
CANNOT_RENAME_ACROSS_SCHEMA
스키마 간 이름을 <type>
바꾸는 것은 허용되지 않습니다.
CANNOT_RESOLVE_DATAFRAME_COLUMN
데이터 프레임 열을 <name>
확인할 수 없습니다. 와 같은 df1.select(df2.col("a"))
불법 참조 때문일 수 있습니다.
CANNOT_RESOLVE_STAR_EXPAND
지정된 입력 열을 .*에서 확인할 <targetString>
수 없습니다.<columns>
지정된 테이블 또는 구조체가 있고 입력 열에서 액세스할 수 있는지 확인하세요.
CANNOT_RESTORE_PERMISSIONS_FOR_PATH
만든 경로 <path>
에 대한 사용 권한을 다시 <permission>
설정하지 못했습니다.
CANNOT_SAVE_VARIANT
변형 데이터 형식을 외부 스토리지에 저장할 수 없습니다.
CANNOT_SHALLOW_CLONE_ACROSS_UC_AND_HMS
Unity 카탈로그 및 Hive Metastore에서 테이블을 단순 복제할 수 없습니다.
CANNOT_SHALLOW_CLONE_NESTED
이미 단순 클론인 테이블을 <table>
단순 복제할 수 없습니다.
CANNOT_SHALLOW_CLONE_NON_UC_MANAGED_TABLE_AS_SOURCE_OR_TARGET
단순 클론은 MANAGED 테이블 형식에 대해서만 지원됩니다. 테이블 <table>
이 MANAGED 테이블이 아닙니다.
CANNOT_UPDATE_FIELD
필드 형식을 업데이트 <table>
할 수 없습니다.<fieldName>
자세한 내용은 CANNOT_UPDATE_FIELD 참조 하세요.
CANNOT_UP_CAST_DATATYPE
에서 캐스팅 <expression>
<sourceType>
할 <targetType>
수 없습니다.
<details>
CANNOT_VALIDATE_CONNECTION
연결 유효성 <jdbcDialectName>
검사는 지원되지 않습니다. 대체 솔루션은 Databricks 지원에 문의하거나 연결 개체를 만들기 전에 연결 테스트를 건너뛰려면 "spark.databricks.testConnectionBeforeCreation"을 "false"로 설정하세요.
CANNOT_WRITE_STATE_STORE
공급자 <providerClass>
에 대한 상태 저장소 파일을 쓰는 동안 오류가 발생했습니다.
자세한 내용은 CANNOT_WRITE_STATE_STORE 참조하세요 .
CAST_INVALID_INPUT
형식이 잘못되었기 때문에 형식의 값을 <expression>
캐스팅할 <targetType>
수 <sourceType>
없습니다. 구문에 따라 값을 수정하거나 대상 형식을 변경합니다. 형식이 잘못된 입력을 허용하고 NULL을 대신 반환하려면 try_cast
를 사용합니다. 필요한 경우 이 오류를 무시하려면 "false"로 설정합니다 <ansiConfig>
.
자세한 내용은 CAST_INVALID_INPUT 참조하세요 .
CAST_OVERFLOW
오버플로로 인해 형식의 값을 <value>
캐스팅할 <targetType>
수 <sourceType>
없습니다. 오버플로를 허용하고 NULL을 대신 반환하려면 try_cast
를 사용합니다. 필요한 경우 이 오류를 무시하려면 "false"로 설정합니다 <ansiConfig>
.
CAST_OVERFLOW_IN_TABLE_INSERT
오버플로로 인해 형식 열 또는 변수 <columnName>
에 <targetType>
형식 값을 <sourceType>
할당하지 못합니다. 대신 입력 값에 try_cast
를 사용하여 오버플로를 허용하고 NULL을 반환하세요.
CATALOG_NOT_FOUND
카탈로그 <catalogName>
를 찾을 수 없습니다. SQL 구성 <config>
을 카탈로그 플러그 인으로 설정하는 것이 좋습니다.
CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND
검사점 블록을 <rddBlockId>
찾을 수 없습니다.
원래 이 파티션의 검사점을 지정한 실행기가 더 이상 활성 상태가 아니거나 원래 RDD가 존재하지 않습니다.
이 문제가 지속되면 대신 로컬 검사점보다 느리지만 내결함성이 더 많은 사용을 rdd.checkpoint()
고려할 수 있습니다.
CLASS_NOT_OVERRIDE_EXPECTED_METHOD
<className>
은 (을) 재정 <method1>
<method2>
의해야 합니다.
CLASS_UNSUPPORTED_BY_MAP_OBJECTS
MapObjects
는 클래스 <cls>
를 결과 컬렉션으로 지원하지 않습니다.
CLEANROOM_COMMANDS_NOT_SUPPORTED
Room 정리 명령은 지원되지 않습니다.
CLEANROOM_INVALID_SHARED_DATA_OBJECT_NAME
클린룸 내부를 <type>
참조하는 이름이 잘못되었습니다. <type>
[catalog]의 형식에 따라 클린룸 내에서 '의 이름을 사용합니다.[ schema]. [<type>
].
어떤 이름을 사용할지 잘 모르는 경우 "SHOW ALL IN CLEANROOM [clean_room]"을 실행하고 "name" 열의 값을 사용할 수 있습니다.
CLOUD_FILE_SOURCE_FILE_NOT_FOUND
파일에 대한 파일 <filePath>
알림이 수신되었지만 더 이상 존재하지 않습니다. 파일이 처리되기 전에 삭제되지 않았는지 확인하세요. 스트림을 계속하려면 Spark SQL 구성 <config>
을 true로 설정할 수 있습니다.
CLOUD_PROVIDER_ERROR
클라우드 공급자 오류: <message>
CLUSTER_BY_AUTO_FEATURE_NOT_ENABLED
클러스터별 자동 기능을 사용하도록 설정하려면 Databricks 담당자에게 문의하세요.
CLUSTER_BY_AUTO_REQUIRES_CLUSTERING_FEATURE_ENABLED
CLUSTER BY AUTO를 사용하려면 clusteringTable.enableClusteringTableFeature를 사용하도록 설정하세요.
CLUSTER_BY_AUTO_REQUIRES_PREDICTIVE_OPTIMIZATION
CLUSTER BY AUTO를 사용하려면 예측 최적화를 사용하도록 설정해야 합니다.
CLUSTER_BY_AUTO_UNSUPPORTED_TABLE_TYPE_ERROR
CLUSTER BY AUTO는 UC 관리 테이블에서만 지원됩니다.
CODEC_NOT_AVAILABLE
코덱 <codecName>
을 사용할 수 없습니다.
자세한 내용은 CODEC_NOT_AVAILABLE 참조하세요 .
CODEC_SHORT_NAME_NOT_FOUND
코덱 <codecName>
의 짧은 이름을 찾을 수 없습니다.
COLLATION_INVALID_NAME
값 <collationName>
이 올바른 데이터 정렬 이름을 나타내지 않습니다. 제안된 유효한 데이터 정렬 이름: [<proposal>
].
COLLATION_INVALID_PROVIDER
값 <provider>
이 올바른 데이터 정렬 공급자를 나타내지 않습니다. 지원되는 공급자는 [<supportedProviders>
]입니다.
COLLATION_MISMATCH
문자열 함수 및 연산자에서 사용할 데이터 정렬을 확인할 수 없습니다.
자세한 내용은 COLLATION_MISMATCH 참조 하세요.
COLLECTION_SIZE_LIMIT_EXCEEDED
배열 <numberOfElements>
크기 제한을 <maxRoundedArrayLength>
초과하는 요소를 사용하여 배열을 만들 수 없습니다.
자세한 내용은 COLLECTION_SIZE_LIMIT_EXCEEDED 참조하세요 .
COLUMN_ALIASES_NOT_ALLOWED
열 별칭은 .에서 <op>
허용되지 않습니다.
COLUMN_ALREADY_EXISTS
열 <columnName>
이 이미 있습니다. 다른 이름을 선택하거나 기존 열의 이름을 바꿉니다.
COLUMN_MASKS_CHECK_CONSTRAINT_UNSUPPORTED
열 마스크 정책을 사용하여 테이블에 <tableName>
CHECK 제약 조건을 만드는 것은 지원되지 않습니다.
COLUMN_MASKS_DUPLICATE_USING_COLUMN_NAME
<statementType>
문은 이름이 같은 <columnName>
USING COLUMNS 목록에 참조된 열이 두 개 이상 포함된 열에 열 마스크 정책을 할당하려고 시도했는데 이는 유효하지 않습니다.
COLUMN_MASKS_FEATURE_NOT_SUPPORTED
열 마스크 정책은 <tableName>
지원되지 않습니다.
자세한 내용은 COLUMN_MASKS_FEATURE_NOT_SUPPORTED 참조 하세요.
COLUMN_MASKS_INCOMPATIBLE_SCHEMA_CHANGE
열에 <statementType>
<columnName>
대한 <maskedColumn>
열 마스크 정책에서 참조되므로 테이블에서 <tableName>
가져올 수 없습니다. 계속하기 전에 테이블 소유자가 이 정책을 제거하거나 변경해야 합니다.
COLUMN_MASKS_MERGE_UNSUPPORTED_SOURCE
MERGE INTO 작업은 원본 테이블 <tableName>
의 열 마스크 정책을 지원하지 않습니다.
COLUMN_MASKS_MERGE_UNSUPPORTED_TARGET
MERGE INTO 작업은 열 마스크 정책을 사용하여 테이블에 <tableName>
쓰는 것을 지원하지 않습니다.
COLUMN_MASKS_MULTI_PART_TARGET_COLUMN_NAME
이 문은 여러 이름 부분이 있는 열에 열 <columnName>
마스크 정책을 할당하려고 시도했는데 이는 유효하지 않습니다.
COLUMN_MASKS_MULTI_PART_USING_COLUMN_NAME
이 문은 열에 열 마스크 정책을 할당하려고 시도했으며 USING COLUMNS 목록에는 여러 이름 부분이 있는 이름이 <columnName>
포함되어 있으며 이는 잘못되었습니다.
COLUMN_MASKS_NOT_ENABLED
열 마스크 정의 지원은 사용할 수 없습니다.
COLUMN_MASKS_REQUIRE_UNITY_CATALOG
열 마스크 정책은 Unity 카탈로그에서만 지원됩니다.
COLUMN_MASKS_TABLE_CLONE_SOURCE_NOT_SUPPORTED
<mode>
열 마스크 정책이 있는 테이블 <tableName>
의 복제는 지원되지 않습니다.
COLUMN_MASKS_TABLE_CLONE_TARGET_NOT_SUPPORTED
<mode>
열 마스크 정책을 사용하여 테이블에 <tableName>
복제할 수 없습니다.
COLUMN_MASKS_UNSUPPORTED_CONSTANT_AS_PARAMETER
열 마스크 정책에서 상수를 매개 변수로 사용하는 것은 지원되지 않습니다. SQL 명령을 업데이트하여 열 마스크 정의에서 상수 제거한 다음 명령을 다시 시도하세요.
COLUMN_MASKS_UNSUPPORTED_PROVIDER
테이블 공급자<provider>
가 있는 대상 데이터 원본에 대해 열 마스크 정책 할당이 지원되지 않으므로 명령을 실행 <statementType>
하지 못했습니다.
COLUMN_MASKS_UNSUPPORTED_SUBQUERY
아직 지원되지 않는 하위 쿼리 식이 있는 하나 이상의 열 마스크 정책이 포함되어 있으므로 테이블에 <tableName>
대해 수행할 <operation>
수 없습니다. 계속하려면 테이블 소유자에게 문의하여 열 마스크 정책을 업데이트하세요.
COLUMN_MASKS_USING_COLUMN_NAME_SAME_AS_TARGET_COLUMN
열 <columnName>
의 이름이 대상 열과 같으므로 유효하지 않습니다. USING COLUMNS 목록에서 열을 제거하고 명령을 다시 시도하세요.
COLUMN_NOT_DEFINED_IN_TABLE
<colType>
열 <colName>
이 테이블에 <tableName>
정의되어 있지 않습니다. 정의된 테이블 열은 다음과 <tableCols>
같습니다.
COLUMN_NOT_FOUND
열을 <colName>
찾을 수 없습니다. SQL 구성에 따라 열 이름의 맞춤법 및 정확성을 확인합니다 <caseSensitiveConfig>
.
COMMA_PRECEDING_CONSTRAINT_ERROR
제약 조건 정의 앞에 예기치 않은 ','이(가) 있습니다. 열(및 예상)이 정의되지 않은 경우 제약 조건 절이 쉼표로 시작되지 않는지 확인합니다.
COMPARATOR_RETURNS_NULL
비교자가 비교를 위해 NULL을 <firstValue>
반환했습니다.<secondValue>
"보다 큼"에 대해 양의 정수, "같음"의 경우 0, "보다 작음"의 음수 정수를 반환해야 합니다.
NULL이 0(등)으로 처리되는 사용되지 않는 동작으로 되돌리려면 "spark.sql.legacy.allowNullComparisonResultInArraySort"를 "true"로 설정해야 합니다.
COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
식 <expression>
에 대한 입력 데이터 형식을 처리할 수 없습니다.
자세한 내용은 COMPLEX_EXPRESSION_UNSUPPORTED_INPUT 참조하세요 .
CONCURRENT_QUERY
이 쿼리 [id: <queryId>
] 의 또 다른 인스턴스는 동시 세션 [기존 runId: new runId: <existingQueryRunId>
<newQueryRunId>
]에 의해 시작되었습니다.
CONCURRENT_STREAM_LOG_UPDATE
로그에 대한 동시 업데이트입니다. 에 대해 <batchId>
여러 스트리밍 작업이 검색되었습니다.
한 번에 하나의 스트리밍 작업만 특정 검사점 위치에서 실행되는지 확인하세요.
CONFLICTING_PROVIDER
지정된 공급자가 기존 카탈로그 공급자 <provider>
<expectedProvider>
와 일치하지 않습니다. 'USING <expectedProvider>
'를 사용하고 명령을 다시 시도하세요.
CONNECT
일반 Spark 연결 오류입니다.
자세한 내용은 CONNECT를 참조하세요.
CONNECTION_ALREADY_EXISTS
이미 있으므로 연결을 <connectionName>
만들 수 없습니다.
다른 이름을 선택하거나, 기존 연결을 삭제하거나 바꾸거나, IF NOT EXISTS 절을 추가하여 기존 연결을 허용합니다.
CONNECTION_NAME_CANNOT_BE_EMPTY
연결 이름이 비어 있어야 하므로 이 명령을 실행할 수 없습니다.
CONNECTION_NOT_FOUND
연결 이름을 <connectionName>
찾을 수 없으므로 이 명령을 실행할 수 없습니다.
CONNECTION_OPTION_NOT_SUPPORTED
'<connectionType>
' 형식의 연결은 다음 옵션을 <optionsNotSupported>
지원하지 않습니다. 지원되는 옵션: <allowedOptions>
.
CONNECTION_TYPE_NOT_SUPPORTED
'<connectionType>
형식의 연결을 만들 수 없습니다. 지원되는 연결 유형: <allowedTypes>
.
CONSTRAINTS_REQUIRE_UNITY_CATALOG
테이블 제약 조건은 Unity 카탈로그에서만 지원됩니다.
CONVERSION_INVALID_INPUT
값 <str>
(<fmt>
)이 잘못된 형식이므로 변환할 <targetType>
수 없습니다. 구문에 따라 값을 수정하거나 형식을 변경합니다. 형식이 잘못된 입력을 허용하고 NULL을 대신 반환하려면 <suggestion>
를 사용합니다.
COPY_INTO_COLUMN_ARITY_MISMATCH
쓸 수 없습니다. 그 이유는 다음과 같습니다.<tableName>
자세한 내용은 COPY_INTO_COLUMN_ARITY_MISMATCH 참조하세요 .
COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON
구성표 <scheme>
가 잘못되었습니다. COPY INTO 원본 자격 증명은 현재 s3/s3n/s3a/wasbs/abfss만 지원합니다.
COPY_INTO_CREDENTIALS_REQUIRED
COPY INTO 원본 자격 증명을 지정 <keyList>
해야 합니다.
COPY_INTO_DUPLICATED_FILES_COPY_NOT_ALLOWED
중복된 파일이 동시 COPY INTO 작업에서 커밋되었습니다. 나중에 다시 시도하세요.
COPY_INTO_ENCRYPTION_NOT_ALLOWED_ON
구성표 <scheme>
가 잘못되었습니다. COPY INTO 원본 암호화는 현재 s3/s3n/s3a/abfss만 지원합니다.
COPY_INTO_ENCRYPTION_NOT_SUPPORTED_FOR_AZURE
COPY INTO 암호화는 ADLS Gen2 또는 abfss:// 파일 체계만 지원합니다.
COPY_INTO_ENCRYPTION_REQUIRED
COPY INTO 원본 암호화는 ''<key>
를 지정해야 합니다.
COPY_INTO_ENCRYPTION_REQUIRED_WITH_EXPECTED
암호화 옵션이 <requiredKey>
잘못되었습니다. COPY INTO 원본 암호화는 '' = '<requiredKey>
'<keyValue>
를 지정해야 합니다.
COPY_INTO_FEATURE_INCOMPATIBLE_SETTING
COPY INTO 기능 ''은(<feature>
는) ''<incompatibleSetting>
와 호환되지 않습니다.
COPY_INTO_NON_BLIND_APPEND_NOT_ALLOWED
데이터 추가 이외의 COPY INTO는 다른 트랜잭션과 동시에 실행할 수 없습니다. 나중에 다시 시도하세요.
COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED
COPY INTO가 상태를 로드하지 못했습니다. 최대 재시도 횟수가 초과되었습니다.
COPY_INTO_SCHEMA_MISMATCH_WITH_TARGET_TABLE
델타 테이블로 복사하는 동안 스키마 불일치가 감지되었습니다(테이블: <table>
).
이는 들어오는 데이터에 문제가 있음을 나타내거나 다음을 설정하여 들어오는 데이터에 따라 델타 테이블 스키마를 자동으로 진화할 수 있습니다.
COPY_OPTIONS('mergeSchema' = 'true')
스키마 차이:
<schemaDiff>
COPY_INTO_SOURCE_FILE_FORMAT_NOT_SUPPORTED
원본 파일의 형식은 CSV, JSON, AVRO, ORC, PARQUET, TEXT 또는 BINARYFILE 중 하나여야 합니다. Delta 테이블에서 COPY INTO를 원본으로 사용할 경우 OPTIMIZE 작업 후에 중복 데이터가 수집될 수 있으므로 지원되지 않습니다. 이 검사는 SQL 명령 set spark.databricks.delta.copyInto.formatCheck.enabled = false
를 실행하여 해제할 수 있습니다.
COPY_INTO_SOURCE_SCHEMA_INFERENCE_FAILED
원본 디렉터리에는 형식 <format>
의 구문 분석 가능한 파일이 없습니다. ''<source>
의 내용을 확인하세요.
COPY_INTO_STATE_INTERNAL_ERROR
COPY INTO 상태를 처리하는 동안 내부 오류가 발생했습니다.
자세한 내용은 COPY_INTO_STATE_INTERNAL_ERROR 참조 하세요.
COPY_INTO_SYNTAX_ERROR
COPY INTO 명령을 구문 분석하지 못했습니다.
자세한 내용은 COPY_INTO_SYNTAX_ERROR 참조 하세요.
COPY_INTO_UNSUPPORTED_FEATURE
COPY INTO 기능 '<feature>
'은(는) 지원되지 않습니다.
CREATE_OR_REFRESH_MV_ST_ASYNC
ASYNC가 지정된 구체화된 뷰 또는 스트리밍 테이블을 만들거나 새로 고칠 수 없습니다. CREATE OR REFRESH 문에서 ASYNC를 제거하거나 REFRESH ASYNC를 사용하여 기존 구체화된 뷰 또는 스트리밍 테이블을 비동기적으로 새로 고칩니다.
CREATE_PERMANENT_VIEW_WITHOUT_ALIAS
식<attr>
에 대한 별칭을 명시적으로 할당하지 않고는 영구 보기를 <name>
만들 수 없습니다.
CREATE_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
CREATE TABLE 열 <columnName>
은 설명자 "<optionName>
"를 두 번 이상 지정하며 이는 유효하지 않습니다.
CREATE_VIEW_COLUMN_ARITY_MISMATCH
뷰 <viewName>
를 만들 수 없습니다. 그 이유는 다음과 같습니다.
자세한 내용은 CREATE_VIEW_COLUMN_ARITY_MISMATCH 참조 하세요.
CREDENTIAL_MISSING
외부 위치를 만들거나 업데이트할 때 자격 증명을 제공하세요.
CSV_ENFORCE_SCHEMA_NOT_SUPPORTED
열이 서수가 아닌 이름으로 읽기 때문에 CSV 옵션을 enforceSchema
사용하거나 failOnUnknownFields
사용할 rescuedDataColumn
때 설정할 수 없습니다.
CYCLIC_FUNCTION_REFERENCE
순환 함수 참조가 검색됨: <path>
.
DATABRICKS_DELTA_NOT_ENABLED
계정에서 Databricks Delta를 사용할 수 없습니다.<hints>
DATATYPE_MISMATCH
데이터 형식이 일치하지 않아 해결할 <sqlExpr>
수 없습니다.
자세한 내용은 DATATYPE_MISMATCH를 참조하세요.
DATATYPE_MISSING_SIZE
DataType <type>
에는 길이 매개 변수가 필요합니다(예 <type>
: (10). 길이를 지정하세요.
DATA_LINEAGE_SECURE_VIEW_LEAF_NODE_HAS_NO_RELATION
계보 작성에 실패했습니다. CLM/RLS에 대한 정책과 해당 관계가 없습니다.
DATA_SOURCE_ALREADY_EXISTS
데이터 원본 '<provider>
'이(가) 이미 있습니다. 새 데이터 원본의 다른 이름을 선택하세요.
DATA_SOURCE_NOT_EXIST
데이터 원본 '<provider>
'을(를) 찾을 수 없습니다. 데이터 원본이 등록되어 있는지 확인하세요.
DATA_SOURCE_NOT_FOUND
데이터 원본 <provider>
을 찾지 못했습니다. 공급자 이름이 올바르고 패키지가 올바르게 등록되어 있고 Spark 버전과 호환되는지 확인합니다.
DATA_SOURCE_OPTION_CONTAINS_INVALID_CHARACTERS
옵션은 <option>
비어 있으면 안 되며 잘못된 문자, 쿼리 문자열 또는 매개 변수를 포함하면 안 됩니다.
DATA_SOURCE_OPTION_IS_REQUIRED
옵션이 <option>
필요합니다.
DATA_SOURCE_TABLE_SCHEMA_MISMATCH
데이터 원본 테이블의 스키마가 예상된 스키마와 일치하지 않습니다. DataFrameReader.schema API를 사용하거나 테이블을 만드는 경우 스키마를 지정하지 마십시오.
데이터 원본 스키마: <dsSchema>
필요한 스키마: <expectedSchema>
DATA_SOURCE_URL_NOT_ALLOWED
JDBC URL은 데이터 원본 옵션에서 허용되지 않습니다. 대신 '호스트', '포트' 및 '데이터베이스' 옵션을 지정하세요.
DATETIME_OVERFLOW
날짜/시간 작업 오버플로: <operation>
.
DC_API_QUOTA_EXCEEDED
데이터 원본 <sourceName>
에 대한 API 할당량을 초과했습니다.
자세한 내용은 DC_API_QUOTA_EXCEEDED 참조 하세요.
DC_CONNECTION_ERROR
원본에 연결 <sourceName>
하지 못했습니다. 오류 코드: <errorCode>
.
자세한 내용은 DC_CONNECTION_ERROR 참조 하세요.
DC_DYNAMICS_API_ERROR
Dynamics API 호출에서 오류가 발생했습니다. errorCode: <errorCode>
.
자세한 내용은 DC_DYNAMICS_API_ERROR 참조 하세요.
DC_NETSUITE_ERROR
Netsuite JDBC 호출에서 오류가 발생했습니다. errorCode: <errorCode>
.
자세한 내용은 DC_NETSUITE_ERROR 참조 하세요.
DC_SCHEMA_CHANGE_ERROR
SQLSTATE: 할당된 항목 없음
원본 테이블에서 <tableName>
스키마 변경이 <sourceName>
발생했습니다.
자세한 내용은 DC_SCHEMA_CHANGE_ERROR 참조 하세요.
DC_SERVICENOW_API_ERROR
ServiceNow API 호출에서 오류가 발생했습니다. errorCode: <errorCode>
.
자세한 내용은 DC_SERVICENOW_API_ERROR 참조 하세요.
DC_SFDC_BULK_QUERY_JOB_INCOMPLETE
Salesforce API 쿼리 작업이 너무 오래 걸리거나, 실패했거나, 수동으로 취소되었으므로 개체 <objName>
수집이 완료되지 않았습니다.
다시 시도하려면 전체 파이프라인을 다시 실행하거나 이 특정 대상 테이블을 새로 고칠 수 있습니다. 오류가 지속되면 티켓을 제출합니다. 작업 ID: <jobId>
. 작업 상태: <jobStatus>
.
DC_SHAREPOINT_API_ERROR
Sharepoint API 호출에서 오류가 발생했습니다. errorCode: <errorCode>
.
자세한 내용은 DC_SHAREPOINT_API_ERROR 참조 하세요.
DC_SOURCE_API_ERROR
API 호출에서 <sourceName>
오류가 발생했습니다. 원본 API 유형: <apiType>
. 오류 코드: <errorCode>
.
이 경우 API 제한에 <sourceName>
도달했을 때 발생할 수 있습니다. API 제한을 초과하지 않은 경우 커넥터를 다시 실행해 보세요. 문제가 지속되면 티켓을 제출하세요.
DC_UNSUPPORTED_ERROR
지원되지 않는 오류가 데이터 원본 <sourceName>
에서 발생했습니다.
자세한 내용은 DC_UNSUPPORTED_ERROR 참조하세요 .
DC_WORKDAY_RAAS_API_ERROR
Workday RAAS API 호출에서 오류가 발생했습니다. errorCode: <errorCode>
.
자세한 내용은 DC_WORKDAY_RAAS_API_ERROR 참조 하세요.
DECIMAL_PRECISION_EXCEEDS_MAX_PRECISION
10진수 전체 자릿수 <precision>
가 최대 전체 자릿수 <maxPrecision>
를 초과합니다.
DEFAULT_DATABASE_NOT_EXISTS
기본 데이터베이스 <defaultDatabase>
가 없습니다. 먼저 만들거나 기본 데이터베이스를 .로 <defaultDatabase>
변경하세요.
DEFAULT_FILE_NOT_FOUND
기본 파일이 업데이트되었을 수 있습니다. SQL에서 'REFRESH TABLE tableName' 명령을 실행하거나 관련된 데이터 세트/데이터 프레임을 다시 만들어 Spark에서 캐시를 명시적으로 무효화할 수 있습니다. 디스크 캐시가 부실하거나 기본 파일이 제거된 경우 클러스터를 다시 시작하여 디스크 캐시를 수동으로 무효화할 수 있습니다.
DEFAULT_PLACEMENT_INVALID
MERGE, INSERT, UPDATE 또는 SET VARIABLE 명령의 DEFAULT 키워드는 식의 일부이므로 대상 열에 직접 할당할 수 없습니다.
예: UPDATE SET c1 = DEFAULT
허용되지만 UPDATE T SET c1 = DEFAULT + 1
허용되지 않습니다.
DIFFERENT_DELTA_TABLE_READ_BY_STREAMING_SOURCE
스트리밍 쿼리가 예기치 않은 델타 테이블(id = ''<newTableId>
)에서 읽고 있었습니다.
검사점별로 다른 델타 테이블(id = ''<oldTableId>
)에서 읽는 데 사용됩니다.
이 문제는 새 테이블에서 읽도록 코드를 변경하거나 삭제하고
테이블을 다시 만들었습니다. 변경 내용을 되돌리거나 스트리밍 쿼리 검사점을 삭제하세요.
처음부터 다시 시작합니다.
DISTINCT_WINDOW_FUNCTION_UNSUPPORTED
고유 창 함수는 지원 <windowExpr>
되지 않습니다.
DIVIDE_BY_ZERO
0으로 나눕니다. 0인 제수를 허용하고 NULL을 대신 반환하려면 try_divide
를 사용합니다. 필요한 경우 이 오류를 무시하려면 "false"로 설정합니다 <config>
.
자세한 내용은 DIVIDE_BY_ZERO 참조 하세요.
DLT_EXPECTATIONS_NOT_SUPPORTED
기대치는 Delta Live Tables 파이프라인 내에서만 지원됩니다.
DLT_VIEW_CLUSTER_BY_NOT_SUPPORTED
CLUSTER BY 절이 있는 MATERIALIZED VIEW는 Delta Live Tables 파이프라인에서만 지원됩니다.
DLT_VIEW_LOCATION_NOT_SUPPORTED
MATERIALIZED VIEW 위치는 델타 라이브 테이블 파이프라인에서만 지원됩니다.
DLT_VIEW_SCHEMA_WITH_TYPE_NOT_SUPPORTED
지정된 형식의 MATERIALIZED VIEW 스키마는 Delta Live Tables 파이프라인에서만 지원됩니다.
DLT_VIEW_TABLE_CONSTRAINTS_NOT_SUPPORTED
보기의 CONSTRAINT 절은 Delta Live Tables 파이프라인에서만 지원됩니다.
DUPLICATED_FIELD_NAME_IN_ARROW_STRUCT
화살표 구조체의 중복된 필드 이름은 허용되지 <fieldNames>
않습니다.
DUPLICATED_MAP_KEY
중복된 맵 키가 <key>
발견되었습니다. 입력 데이터를 확인하세요.
중복된 키를 제거하려는 경우 마지막으로 삽입된 키가 우선하도록 "LAST_WIN"로 설정할 <mapKeyDedupPolicy>
수 있습니다.
DUPLICATED_METRICS_NAME
메트릭 이름은 고유 <metricName>
하지 않습니다. 결과가 다른 메트릭에는 동일한 이름을 사용할 수 없습니다.
그러나 동일한 결과와 이름을 가진 여러 메트릭 인스턴스가 허용됩니다(예: 자체 조인).
DUPLICATE_ASSIGNMENTS
열 또는 변수는 <nameList>
할당 대상으로 두 번 이상 나타납니다.
DUPLICATE_CLAUSES
중복 절을 찾았습니다. <clauseName>
. 그 중 하나를 제거하십시오.
DUPLICATE_KEY
중복 키를 찾았습니다 <keyColumn>
.
DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
함수 <functionName>
호출은 동일한 매개 변수 이름 <parameterName>
에 대한 여러 인수 할당을 포함하므로 유효하지 않습니다.
자세한 내용은 DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT 참조 하세요.
DUPLICATE_ROUTINE_PARAMETER_NAMES
사용자 정의 루틴의 매개 변수 목록에서 중복 이름을 찾았습니다.<routineName>
<names>
DUPLICATE_ROUTINE_RETURNS_COLUMNS
사용자 정의 루틴의 RETURNS 절 열 목록에서 중복 열을 찾았습니다.<routineName>
<columns>
EMPTY_JSON_FIELD_VALUE
데이터 형식 <dataType>
에 대한 빈 문자열을 구문 분석하지 못했습니다.
EMPTY_LOCAL_FILE_IN_STAGING_ACCESS_QUERY
준비 <operation>
쿼리의 빈 로컬 파일
ENCODER_NOT_FOUND
Spark SQL 내부 표현에 대한 형식 <typeName>
의 인코더를 찾을 수 없습니다.
입력 형식을 '/sql-ref-datatypes.html'<docroot>
에서 지원되는 형식 중 하나로 변경하는 것이 좋습니다.
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_LATEST_WITH_TRIGGER_AVAILABLENOW
Kafka 토픽의 일부 파티션은 Trigger.AvailableNow를 사용하여 쿼리를 실행하는 동안 끝 오프셋보다 작은 오프셋을 사용할 수 있습니다. 오류가 일시적일 수 있습니다. 쿼리를 다시 시작하고 동일한 문제가 계속 표시되는 경우 보고합니다.
latest offset: <latestOffset>
, end offset: <endOffset>
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_PREFETCHED
Trigger.AvailableNow를 사용한 Kafka 데이터 원본의 경우 끝 오프셋은 미리 페치된 오프셋보다 각 토픽 파티션당 오프셋이 낮거나 같아야 합니다. 오류가 일시적일 수 있습니다. 쿼리를 다시 시작하고 동일한 문제가 계속 표시되는 경우 보고합니다.
미리 인출된 오프셋: <prefetchedOffset>
, 끝 오프셋: <endOffset>
.
ERROR_READING_AVRO_UNKNOWN_FINGERPRINT
avro 데이터를 읽는 동안 오류가 발생했습니다. 알 수 없는 지문이 <fingerprint>
발생했습니다. 어떤 스키마를 사용할지 확실하지 않습니다.
이는 Spark 컨텍스트를 시작한 후 추가 스키마를 등록한 경우에 발생할 수 있습니다.
EVENT_LOG_REQUIRES_SHARED_COMPUTE
할당되거나 격리되지 않은 공유 클러스터에서 이벤트 로그를 쿼리할 수 없습니다. 대신 공유 클러스터 또는 Databricks SQL 웨어하우스를 사용하세요.
EVENT_LOG_UNAVAILABLE
에 사용할 수 있는 <tableOrPipeline>
이벤트 로그가 없습니다. 이벤트가 생성된 후 나중에 다시 시도하세요.
EVENT_LOG_UNSUPPORTED_TABLE_TYPE
테이블 형식 <tableIdentifier>
은 .입니다 <tableType>
.
이벤트 로그 쿼리는 구체화된 뷰, 스트리밍 테이블 또는 델타 라이브 테이블 파이프라인만 지원합니다.
EVENT_TIME_IS_NOT_ON_TIMESTAMP_TYPE
이벤트 시간에 <eventName>
잘못된 형식 <eventType>
이 있지만 예상된 "TIMESTAMP
"입니다.
EXCEED_LIMIT_LENGTH
char/varchar 형식 길이 제한을 초과합니다 <limit>
. .
EXCEPT_NESTED_COLUMN_INVALID_TYPE
EXCEPT 열 <columnName>
이 확인되었고 StructType이지만 찾은 형식 <dataType>
입니다.
EXCEPT_OVERLAPPING_COLUMNS
EXCEPT 목록의 열은 고유하고 겹치지 않아야 하지만 got(<columns>
)이어야 합니다.
EXCEPT_RESOLVED_COLUMNS_WITHOUT_MATCH
EXCEPT 열 [<exceptColumns>
]이(가) 확인되었지만 별 확장의 [] 열과<expandedColumns>
일치하지 않습니다.
EXCEPT_UNRESOLVED_COLUMN_IN_STRUCT_EXPANSION
EXCEPT 절의 열/필드 이름을 <objectName>
확인할 수 없습니다. 다음 중 하나를 의미했나요? [<objectList>
]?
참고: 구조체 확장 중에 EXCEPT 절의 중첩 열에 한정자(테이블 이름, 부모 구조체 열 이름 등)가 포함되지 않을 수 있습니다. 중첩 열과 함께 사용되는 경우 한정자를 제거해 보세요.
EXECUTOR_BROADCAST_JOIN_OOM
브로드캐스트 관계를 <relationClassName>
빌드할 메모리가 부족합니다. 관계 크기 = <relationSize>
. 빌드 쪽 순서 섞기 크기 = <shuffleSize>
. 이 작업에서 사용하는 총 메모리 = <taskMemoryUsage>
. 실행기 메모리 관리자 메트릭: onHeapExecutionMemoryUsed = <onHeapExecutionMemoryUsed>
, offHeapExecutionMemoryUsed = <offHeapExecutionMemoryUsed>
, onHeapStorageMemoryUsed = <onHeapStorageMemoryUsed>
, offHeapStorageMemoryUsed = <offHeapStorageMemoryUsed>
. [shuffleId: <shuffleId>
]
EXEC_IMMEDIATE_DUPLICATE_ARGUMENT_ALIASES
이 EXECUTE IMMEDIATE 명령의 USING 절에는 동일한 별칭(<aliases>
)이 있는 여러 인수가 포함되어 있으며 이는 유효하지 않습니다. 명령을 업데이트하여 고유한 별칭을 지정한 다음 다시 시도하세요.
EXPECT_PERMANENT_VIEW_NOT_TEMP
'<operation>
'은(는) 영구 보기를 기대하지만 <viewName>
임시 보기입니다.
EXPECT_TABLE_NOT_VIEW
'<operation>
'은(는) 테이블을 예상하지만 <viewName>
뷰입니다.
자세한 내용은 EXPECT_TABLE_NOT_VIEW 참조 하세요.
EXPECT_VIEW_NOT_TABLE
테이블 <tableName>
이 지원 <operation>
되지 않습니다.
자세한 내용은 EXPECT_VIEW_NOT_TABLE 참조 하세요.
EXPRESSION_DECODING_FAILED
행을 식 값으로 디코딩하지 못했습니다. <expressions>
EXPRESSION_ENCODING_FAILED
식 <expressions>
값을 행에 인코딩하지 못했습니다.
EXPRESSION_TYPE_IS_NOT_ORDERABLE
열 식 <expr>
의 형식 <exprType>
은 정렬할 수 없으므로 정렬할 수 없습니다.
EXTERNAL_TABLE_INVALID_SCHEME
외부 테이블은 스키마를 <scheme>
지원하지 않습니다.
FABRIC_REFRESH_INVALID_SCOPE
'REFRESH FOREIGN <scope>
<name>
'를 실행하는 동안 오류가 발생했습니다. 패브릭 <scope>
을 직접 새로 고칠 수 없습니다. 'REFRESH FOREIGN CATALOG'를 사용하여 패브릭 카탈로그 <catalogName>
를 새로 고치세요.
FAILED_EXECUTE_UDF
사용자 정의 함수(<functionName>
: (<signature>
) =<result>
>)가 다음<reason>
으로 인해 실패했습니다.
FAILED_FUNCTION_CALL
호출을 위해 함수 <funcName>
를 준비하지 못했습니다. 함수의 인수를 다시 확인하세요.
FAILED_JDBC
작업에서 JDBC <url>
가 실패했습니다.
자세한 내용은 FAILED_JDBC 참조 하세요.
FAILED_PARSE_STRUCT_TYPE
구조체 구문 분석 실패: <raw>
.
FAILED_READ_FILE
파일을 <path>
읽는 동안 오류가 발생했습니다.
자세한 내용은 FAILED_READ_FILE 참조 하세요.
FAILED_REGISTER_CLASS_WITH_KRYO
Kryo에 클래스를 등록하지 못했습니다.
FAILED_RENAME_PATH
대상으로 이름을 바꾸 <sourcePath>
지 <targetPath>
못했습니다.
FAILED_RENAME_TEMP_FILE
FileSystem.rename이 false를 반환함에 <dstPath>
따라 임시 파일 <srcPath>
의 이름을 바꿀 수 없습니다.
FAILED_ROW_TO_JSON
클래스 <class>
의 행 값을 <value>
JSON 형식의 대상 SQL 형식 <sqlType>
으로 변환하지 못했습니다.
FAILED_TO_PARSE_TOO_COMPLEX
잠재적인 SQL 함수 및 참조된 뷰를 포함한 문이 너무 복잡하여 구문 분석할 수 없습니다.
이 오류를 완화하려면 문을 덜 복잡한 여러 청크로 나눕니다.
FEATURE_NOT_ENABLED
기능을 <featureName>
사용할 수 없습니다. 이 기능을 사용하도록 구성 <configKey>
을 설정하는 것이 <configValue>
좋습니다.
FEATURE_NOT_ON_CLASSIC_WAREHOUSE
<feature>
는 클래식 SQL 웨어하우스에서 지원되지 않습니다. 이 기능을 사용하려면 Pro 또는 서버리스 SQL 웨어하우스를 사용합니다. 웨어하우스 유형에 대한 자세한 내용은 <docLink>
FEATURE_REQUIRES_UC
<feature>
는 Unity 카탈로그 없이는 지원되지 않습니다. 이 기능을 사용하려면 Unity 카탈로그를 사용하도록 설정합니다. Unity 카탈로그에 대한 자세한 내용은 <docLink>
FEATURE_UNAVAILABLE
<feature>
는 사용자 환경에서 지원되지 않습니다. 이 기능을 사용하려면 Databricks 지원에 문의하세요.
FIELDS_ALREADY_EXISTS
에 이미 있으므로 열을 열 <fieldNames>
수 <struct>
없습니다<op>
.
FIELD_NOT_FOUND
에 이러한 구조체 필드 <fieldName>
가 <fields>
없습니다.
FILE_IN_STAGING_PATH_ALREADY_EXISTS
준비 경로 <path>
의 파일이 이미 있지만 OVERWRITE가 설정되지 않았습니다.
FORBIDDEN_OPERATION
<statement>
작업은 다음<objectName>
에서 <objectType>
허용되지 않습니다.
FOREACH_BATCH_USER_FUNCTION_ERROR
foreach 일괄 처리 싱크에서 사용자가 제공한 함수에서 오류가 발생했습니다. 이유: <reason>
FOREIGN_KEY_MISMATCH
외래 키 부모 열이 <parentColumns>
기본 키 자식 열과 <childColumns>
일치하지 않습니다.
FOREIGN_OBJECT_NAME_CANNOT_BE_EMPTY
외세의 <objectType>
이름은 비어 있어야 하므로 이 명령을 실행할 수 없습니다.
FOUND_MULTIPLE_DATA_SOURCES
이름이 ''<provider>
인 여러 데이터 원본을 검색했습니다. 데이터 원본이 동시에 등록되지 않고 클래스 경로에 있는지 확인하세요.
FROM_JSON_CONFLICTING_SCHEMA_UPDATES
from_json 다음에서 스키마 업데이트가 충돌하는 것을 유추했습니다. <location>
FROM_JSON_CORRUPT_RECORD_COLUMN_IN_SCHEMA
from_json columnNameOfCorruptRecord(<columnNameOfCorruptRecord>
)가 있는 것을 발견했습니다.
JSON 개체에서 더 이상 진행할 수 없습니다. 에 대해 다른 값을 구성하세요.
'columnNameOfCorruptRecord' 옵션입니다.
FROM_JSON_CORRUPT_SCHEMA
from_json 유추에서 저장된 스키마를 읽을 수 없습니다. <location>
FROM_JSON_INFERENCE_FAILED
from_json 스키마를 유추할 수 없습니다. 대신 입력하세요.
FROM_JSON_INFERENCE_NOT_SUPPORTED
from_json 유추는 스트리밍 테이블을 정의할 때만 지원됩니다.
FROM_JSON_INVALID_CONFIGURATION
from_json 구성이 잘못되었습니다.
자세한 내용은 FROM_JSON_INVALID_CONFIGURATION 참조 하세요.
FROM_JSON_SCHEMA_EVOLUTION_FAILED
from_json 다음으로 발전할 수 없습니다.<old>
<new>
FUNCTION_PARAMETERS_MUST_BE_NAMED
함수 <function>
에는 명명된 매개 변수가 필요합니다. 매개 변수 이름 누락: <exprs>
. 함수 호출을 업데이트하여 모든 매개 변수의 이름(예: <function>
param_name => ...)을 추가하세요.
GENERATED_COLUMN_WITH_DEFAULT_VALUE
열에는 기본값과 생성 식이 모두 있을 수 없지만 열 <colName>
에는 기본값()과 생성 식(<defaultValue>
(<genExpr>
)이 있습니다.
GET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION
Hive 2.2 이하 버전은 getTablesByType을 지원하지 않습니다. Hive 2.3 이상 버전을 사용하세요.
GET_WARMUP_TRACING_FAILED
준비 추적을 얻지 못했습니다. 원인: <cause>
.
GET_WARMUP_TRACING_FUNCTION_NOT_ALLOWED
함수 get_warmup_tracing()는 허용되지 않습니다.
GRAPHITE_SINK_INVALID_PROTOCOL
Graphite 프로토콜이 <protocol>
잘못되었습니다.
GRAPHITE_SINK_PROPERTY_MISSING
Graphite 싱크에는 '<property>
' 속성이 필요합니다.
GROUPING_COLUMN_MISMATCH
그룹화 열(<grouping>
)은 그룹화 열 <groupingColumns>
에서 찾을 수 없습니다.
GROUPING_ID_COLUMN_MISMATCH
grouping_id 열()이<groupingIdColumn>
그룹화 열(<groupByColumns>
)과 일치하지 않습니다.
GROUPING_SIZE_LIMIT_EXCEEDED
그룹화 집합 크기는 .보다 <maxSize>
클 수 없습니다.
GROUP_BY_AGGREGATE
집계 함수는 GROUP BY에서 허용되지 않지만 찾습니다 <sqlExpr>
.
자세한 내용은 GROUP_BY_AGGREGATE 참조 하세요.
GROUP_BY_POS_AGGREGATE
GROUP BY <index>
는 집계 함수를 포함하는 식을 <aggExpr>
참조합니다. 집계 함수는 GROUP BY에서 허용되지 않습니다.
GROUP_BY_POS_OUT_OF_RANGE
GROUP BY 위치 <index>
가 선택 목록에 없습니다(유효한 범위는 [1, <size>
]).
GROUP_EXPRESSION_TYPE_IS_NOT_ORDERABLE
<sqlExpr>
해당 데이터 형식이 정렬 가능한 데이터 형식 <dataType>
이 아니므로 식을 그룹화 식으로 사용할 수 없습니다.
HLL_INVALID_INPUT_SKETCH_BUFFER
잘못된 호출입니다 <function>
. 유효한 HLL 스케치 버퍼만 입력으로 지원됩니다(예: 함수에 hll_sketch_agg
의해 생성된 것).
HLL_INVALID_LG_K
호출이 <function>
잘못되었습니다. 값은 lgConfigK
다음을 <min>
<max>
포함 <value>
해야 합니다.
HLL_UNION_DIFFERENT_LG_K
스케치의 값 <left>
<right>
은 다음과 lgConfigK
같습니다. allowDifferentLgConfigK
다른 lgConfigK
값을 사용하여 호출 <function>
하려면 매개 변수를 true로 설정합니다.
IDENTIFIER_TOO_MANY_NAME_PARTS
<identifier>
은 이름 부분이 2개 이상이므로 유효한 식별자가 아닙니다.
ILLEGAL_STATE_STORE_VALUE
State Store에 잘못된 값이 제공됨
자세한 내용은 ILLEGAL_STATE_STORE_VALUE 참조 하세요.
INCOMPARABLE_PIVOT_COLUMN
피벗 열이 잘못되었습니다 <columnName>
. 피벗 열은 비교할 수 있어야 합니다.
INCOMPATIBLE_COLUMN_TYPE
<operator>
는 호환되는 열 형식의 테이블에서만 수행할 수 있습니다. <columnOrdinalNumber>
테이블의 <tableOrdinalNumber>
열은 <dataType1>
첫 번째 테이블<hint>
의 동일한 열과 <dataType2>
호환되지 않는 형식입니다.
INCOMPATIBLE_DATASOURCE_REGISTER
호환되지 않는 DataSourceRegister가 검색되었습니다. 클래스 경로에서 호환되지 않는 라이브러리를 제거하거나 업그레이드하세요. 오류: <message>
INCOMPATIBLE_DATA_FOR_TABLE
테이블에 <tableName>
대해 호환되지 않는 데이터를 작성할 수 없습니다.
자세한 내용은 INCOMPATIBLE_DATA_FOR_TABLE 참조 하세요.
INCOMPATIBLE_JOIN_TYPES
조인 형식 <joinType1>
이며 <joinType2>
호환되지 않습니다.
INCOMPATIBLE_VIEW_SCHEMA_CHANGE
SQL 뷰 <viewName>
쿼리에 호환되지 않는 스키마 변경 내용이 있으며 열을 <colName>
확인할 수 없습니다. <expectedNum>
이름이 지정 <colName>
되었지만 필요한 열이 있습니다<actualCols>
.
다음을 실행 <suggestion>
하여 보기를 다시 만드세요.
INCOMPLETE_TYPE_DEFINITION
불완전한 복합 형식:
자세한 내용은 INCOMPLETE_TYPE_DEFINITION 참조하세요 .
INCONSISTENT_BEHAVIOR_CROSS_VERSION
업그레이드로 인해 다른 결과를 얻을 수 있습니다.
자세한 내용은 INCONSISTENT_BEHAVIOR_CROSS_VERSION을 참조하세요.
INCORRECT_NUMBER_OF_ARGUMENTS
<failure>
<functionName>
에는 최소한 <minArgs>
인수와 대부분의 <maxArgs>
인수가 필요합니다.
INCORRECT_RAMP_UP_RATE
rowsPerSecond의 최대 오프셋 <rowsPerSecond>
은 <maxSeconds>
'rampUpTimeSeconds'입니다 <rampUpTimeSeconds>
.
INDETERMINATE_COLLATION
호출되는 함수에는 적용해야 하는 데이터 정렬에 대한 지식이 필요하지만 확정되지 않은 데이터 정렬이 발견되었습니다. COLLATE 함수를 사용하여 데이터 정렬을 명시적으로 설정합니다.
INDEX_ALREADY_EXISTS
인덱스가 이미 있으므로 테이블에 <tableName>
인덱 <indexName>
스를 만들 수 없습니다.
INDEX_NOT_FOUND
테이블에서 <tableName>
인덱 <indexName>
스 찾을 수 없습니다.
INFINITE_STREAMING_TRIGGER_NOT_SUPPORTED
트리거 유형 <trigger>
은 이 클러스터 유형에 대해 지원되지 않습니다.
다른 트리거 유형(예: AvailableNow, Once)을 사용합니다.
INSERT_COLUMN_ARITY_MISMATCH
쓸 수 없습니다. 그 이유는 다음과 같습니다.<tableName>
자세한 내용은 INSERT_COLUMN_ARITY_MISMATCH 참조하세요 .
INSERT_PARTITION_COLUMN_ARITY_MISMATCH
''<tableName>
<reason>
에 쓸 수 없습니다.
테이블 열: <tableColumns>
.
정적 값을 사용하여 열을 분할합니다 <staticPartCols>
.
데이터 열: <dataColumns>
.
INSUFFICIENT_PERMISSIONS
권한 부족:
<report>
INSUFFICIENT_PERMISSIONS_EXT_LOC
사용자에게 <user>
외부 위치에 <location>
대한 권한이 부족합니다.
INSUFFICIENT_PERMISSIONS_NO_OWNER
에 대한 <securableName>
소유자가 없습니다. 관리자에게 소유자를 설정하도록 요청합니다.
INSUFFICIENT_PERMISSIONS_OWNERSHIP_SECURABLE
사용자가 소유 <securableName>
하지 않습니다.
INSUFFICIENT_PERMISSIONS_SECURABLE
사용자에게 .에 대한 <securableName>
권한이 <action>
없습니다.
INSUFFICIENT_PERMISSIONS_SECURABLE_PARENT_OWNER
의 <securableName>
소유자는 소유자와 <parentSecurableName>
다릅니다.
INSUFFICIENT_PERMISSIONS_STORAGE_CRED
스토리지 자격 증명에는 <credentialName>
권한이 부족합니다.
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES
기본 보안 개체에 대한 <securableName>
권한 때문에 사용자가 설정할 수 없습니다<action>
.
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES_VERBOSE
기본 보안 개체에 대한 권한 때문에 사용자가 설정할 <securableName>
수 없습니다<action>
.
<underlyingReport>
INTERVAL_ARITHMETIC_OVERFLOW
<message>
.<alternative>
INTERVAL_DIVIDED_BY_ZERO
0으로 나눕니다. 0인 제수를 허용하고 NULL을 대신 반환하려면 try_divide
를 사용합니다.
INVALID_AGGREGATE_FILTER
집계 함수의 FILTER 식 <filterExpr>
이 잘못되었습니다.
자세한 내용은 INVALID_AGGREGATE_FILTER 참조 하세요.
INVALID_ARRAY_INDEX
인덱 <indexValue>
스가 범위를 벗어났습니다. 배열에는 요소가 있습니다 <arraySize>
. SQL 함수 get()
을 사용하여 유효하지 않은 인덱스에서 요소 액세스를 허용하고 대신 NULL을 반환합니다. 필요한 경우 이 오류를 무시하려면 "false"로 설정합니다 <ansiConfig>
.
자세한 내용은 INVALID_ARRAY_INDEX 참조 하세요.
INVALID_ARRAY_INDEX_IN_ELEMENT_AT
인덱 <indexValue>
스가 범위를 벗어났습니다. 배열에는 요소가 있습니다 <arraySize>
. 잘못된 인덱스의 요소 액세스를 허용하고 NULL을 대신 반환하려면 try_element_at
를 사용합니다. 필요한 경우 이 오류를 무시하려면 "false"로 설정합니다 <ansiConfig>
.
자세한 내용은 INVALID_ARRAY_INDEX_IN_ELEMENT_AT 참조하세요 .
INVALID_BITMAP_POSITION
인덱싱된 비트맵 위치 <bitPosition>
가 범위를 벗어났습니다. 비트맵에는 <bitmapNumBits>
비트(<bitmapNumBytes>
바이트)가 있습니다.
INVALID_BOUNDARY
경계 <boundary>
가 잘못되었습니다. <invalidValue>
자세한 내용은 INVALID_BOUNDARY 참조 하세요.
INVALID_BUCKET_COLUMN_DATA_TYPE
버킷 열에는 사용할 <type>
수 없습니다. 데이터 정렬된 데이터 형식은 버킷팅에 지원되지 않습니다.
INVALID_BUCKET_FILE
버킷 파일이 <path>
잘못되었습니다.
INVALID_BYTE_STRING
예상 형식은 ByteString이지만 (<class>
)입니다 <unsupported>
.
INVALID_COLUMN_NAME_AS_PATH
데이터 원본 <datasource>
의 이름에 파일 경로에서 허용되지 않는 일부 문자가 포함되어 있으므로 열을 <columnName>
저장할 수 없습니다. 별칭을 사용하여 이름을 바꾸세요.
INVALID_COLUMN_OR_FIELD_DATA_TYPE
열 또는 필드는 <name>
형식 <type>
이지만 필수 <expectedType>
형식입니다.
INVALID_CONF_VALUE
구성 ""의 값 '<confValue>
<confName>
'이(가) 잘못되었습니다.
자세한 내용은 INVALID_CONF_VALUE 참조 하세요.
INVALID_CURRENT_RECIPIENT_USAGE
current_recipient
함수는 문이나 ALTER VIEW
문에서 CREATE VIEW
만 Unity 카탈로그의 공유 보기만 정의하는 데 사용할 수 있습니다.
INVALID_CURSOR
커서가 잘못되었습니다.
자세한 내용은 INVALID_CURSOR 참조 하세요.
INVALID_DATETIME_PATTERN
인식할 수 없는 날짜/시간 패턴: <pattern>
.
자세한 내용은 INVALID_DATETIME_PATTERN 참조 하세요.
INVALID_DEFAULT_VALUE
대상 열 또는 변수 <colName>
에 DEFAULT 값이 있으므로 명령을 실행 <statement>
하지 못했습니다.<defaultValue>
자세한 내용은 INVALID_DEFAULT_VALUE 참조하세요 .
INVALID_DELIMITER_VALUE
구분 기호의 값이 잘못되었습니다.
자세한 내용은 INVALID_DELIMITER_VALUE 참조 하세요.
INVALID_DEST_CATALOG
SYNC 명령의 대상 카탈로그는 Unity 카탈로그 내에 있어야 합니다. 를 찾았습니다 <catalog>
.
INVALID_DRIVER_MEMORY
시스템 메모리 <systemMemory>
는 적어도 <minSystemMemory>
.
Spark 구성에서 –driver-memory 옵션 또는 "<config>
"를 사용하여 힙 크기를 늘리세요.
INVALID_EMPTY_LOCATION
위치 이름은 빈 문자열일 수 없지만 <location>
이 제공되었습니다.
INVALID_ESC
잘못된 이스케이프 문자열 <invalidEscape>
을 찾았습니다. 이스케이프 문자열에는 문자가 하나만 포함되어야 합니다.
INVALID_ESCAPE_CHAR
EscapeChar
는 길이 1의 문자열 리터럴이어야 하지만 <sqlExpr>
.
INVALID_EXECUTOR_MEMORY
실행기 메모리 <executorMemory>
는 적어도 <minSystemMemory>
.
Spark 구성에서 –executor-memory 옵션 또는 "<config>
"를 사용하여 실행기 메모리를 늘립니다.
INVALID_EXPRESSION_ENCODER
잘못된 식 인코더를 찾았습니다. ExpressionEncoder의 인스턴스를 예상하지만 .<encoderType>
자세한 내용은 '/api/java/index.html?org/apache/spark/sql/Encoder.html'<docroot>
을 참조하세요.
INVALID_EXTRACT_BASE_FIELD_TYPE
에서 값을 <base>
추출할 수 없습니다. 복합 형식이 필요하지만 [STRUCT
, ARRAY
, MAP
] 가 있습니다 <other>
.
INVALID_EXTRACT_FIELD
에서 <expr>
추출 <field>
할 수 없습니다.
INVALID_EXTRACT_FIELD_TYPE
필드 이름은 null이 아닌 문자열 리터럴이어야 하지만 <extraction>
.
INVALID_FIELD_NAME
필드 이름이 <fieldName>
잘못되었습니다 <path>
. 구조체가 아닙니다.
INVALID_FORMAT
형식이 잘못되었습니다 <format>
. .
자세한 내용은 INVALID_FORMAT을 참조하세요.
INVALID_FRACTION_OF_SECOND
초의 소수는 0이어야 합니다. 유효한 범위는 [0, 60]입니다. 필요한 경우 이 오류를 무시하려면 "false"로 설정합니다 <ansiConfig>
.
INVALID_HANDLE
핸들 <handle>
이 잘못되었습니다.
자세한 내용은 INVALID_HANDLE 참조 하세요.
INVALID_IDENTIFIER
따옴표가 지정되지 않은 식별자가 <ident>
잘못되었으며 다음으로 다시 따옴표로 <ident>
묶어야 합니다.
따옴표가 지정되지 않은 식별자는 ASCII 문자('a' - 'z', 'A' - 'Z'), 숫자('0' - '9') 및 언더바('_')만 포함할 수 있습니다.
따옴 지정되지 않은 식별자도 숫자로 시작해서는 안됩니다.
다른 데이터 원본 및 메타 저장소는 유효한 식별자에 추가 제한을 적용할 수 있습니다.
INVALID_INDEX_OF_ZERO
인덱스 0은 유효하지 않습니다. 인덱스는 0보다 작거나 커야 합니다(첫 번째 요소의 인덱스는 1).
INVALID_INLINE_TABLE
인라인 테이블이 잘못되었습니다.
자세한 내용은 INVALID_INLINE_TABLE 참조 하세요.
INVALID_INTERVAL_FORMAT
간격으로 '<input>
'를 구문 분석하는 동안 오류가 발생했습니다. 제공된 값이 간격을 정의하는 데 유효한 형식인지 확인하세요. 올바른 형식의 설명서를 참조할 수 있습니다.
자세한 내용은 INVALID_INTERVAL_FORMAT 참조 하세요.
INVALID_INVERSE_DISTRIBUTION_FUNCTION
역 분포 함수가 <funcName>
잘못되었습니다.
자세한 내용은 INVALID_INVERSE_DISTRIBUTION_FUNCTION 참조 하세요.
INVALID_JSON_DATA_TYPE
JSON 문자열 ''<invalidType>
을 데이터 형식으로 변환하지 못했습니다. 유효한 데이터 형식을 입력하세요.
INVALID_JSON_DATA_TYPE_FOR_COLLATIONS
데이터 정렬은 문자열 형식에만 적용할 수 있지만 JSON 데이터 형식은 다음과 같습니다 <jsonType>
.
INVALID_JSON_ROOT_FIELD
JSON 루트 필드를 대상 Spark 형식으로 변환할 수 없습니다.
INVALID_JSON_SCHEMA_MAP_TYPE
입력 스키마 <jsonSchema>
는 에 대한 키 형식으로만 포함 STRING
할 MAP
수 있습니다.
INVALID_KRYO_SERIALIZER_BUFFER_SIZE
구성 "<bufferSizeConfKey>
"의 값은 2048MiB 미만이어야 하지만 MiB를 얻었습니다 <bufferSizeConfValue>
.
INVALID_LAMBDA_FUNCTION_CALL
잘못된 람다 함수 호출입니다.
자세한 내용은 INVALID_LAMBDA_FUNCTION_CALL 참조하세요 .
INVALID_LATERAL_JOIN_TYPE
<joinType>
OUTER 하위 쿼리가 해당 조인 파트너와 상관 관계를 지정할 수 없으므로 LATERAL 상관 관계가 있는 JOIN은 허용되지 않습니다. LATERAL 상관관계를 제거하거나 대신 INNER JOIN 또는 LEFT OUTER JOIN을 사용합니다.
INVALID_LIMIT_LIKE_EXPRESSION
식 <expr>
과 같은 제한이 잘못되었습니다.
자세한 내용은 INVALID_LIMIT_LIKE_EXPRESSION 참조하세요 .
INVALID_NON_DETERMINISTIC_EXPRESSIONS
연산자는 결정적 식을 예상하지만 실제 식은 <sqlExprs>
.
INVALID_NUMERIC_LITERAL_RANGE
숫자 리터럴 <rawStrippedQualifier>
이 최소값과 최대값 <minValue>
<maxValue>
의 유효한 범위를 벗어났 <typeName>
습니다. 그에 따라 값을 조정하십시오.
INVALID_OBSERVED_METRICS
관찰된 메트릭이 잘못되었습니다.
자세한 내용은 INVALID_OBSERVED_METRICS 참조 하세요.
INVALID_OPTIONS
잘못된 옵션:
자세한 내용은 INVALID_OPTIONS 참조 하세요.
INVALID_PANDAS_UDF_PLACEMENT
그룹 집계 pandas UDF <functionList>
는 다른 비 pandas 집계 함수와 함께 호출할 수 없습니다.
INVALID_PARAMETER_MARKER_VALUE
잘못된 매개 변수 매핑이 제공되었습니다.
자세한 내용은 INVALID_PARAMETER_MARKER_VALUE 참조 하세요.
INVALID_PARAMETER_VALUE
매개 변수 <parameter>
<functionName>
의 값이 잘못되었습니다.
자세한 내용은 INVALID_PARAMETER_VALUE 참조 하세요.
INVALID_PARTITION_COLUMN_DATA_TYPE
파티션 열에는 사용할 <type>
수 없습니다.
INVALID_PARTITION_OPERATION
파티션 명령이 잘못되었습니다.
자세한 내용은 INVALID_PARTITION_OPERATION 참조하세요 .
INVALID_PIPELINE_ID
파이프라인 ID <pipelineId>
가 잘못되었습니다.
파이프라인 ID는 'xxxxxxxx-xxxx-xx' 형식의 UUID여야 합니다.
INVALID_PRIVILEGE
에 대한 권한이 <privilege>
잘못되었습니다 <securable>
.
INVALID_PROPERTY_KEY
<key>
가 잘못된 속성 키입니다. 따옴표(예: SET <key>
=<value>
)를 사용하세요.
INVALID_PROPERTY_VALUE
<value>
가 잘못된 속성 값입니다. 따옴표(예: SET)를 사용하세요. <key>
=<value>
INVALID_QUERY_MIXED_QUERY_PARAMETERS
매개 변수가 있는 쿼리는 위치 또는 명명된 매개 변수를 사용해야 하지만 둘 다 사용해야 합니다.
INVALID_S3_COPY_CREDENTIALS
COPY INTO 자격 증명에는 AWS_ACCESS_KEY, AWS_SECRET_KEY 및 AWS_SESSION_TOKEN이 포함되어야 합니다.
INVALID_SAVE_MODE
지정한 저장 모드 <mode>
가 잘못되었습니다. 유효한 저장 모드에는 "append", "overwrite", "ignore", "error", "errorifexists" 및 "default"가 포함됩니다.
INVALID_SCHEMA
입력 스키마 <inputSchema>
가 유효한 스키마 문자열이 아닙니다.
자세한 내용은 INVALID_SCHEMA를 참조하세요.
INVALID_SCHEMA_OR_RELATION_NAME
<name>
은 테이블/스키마의 유효한 이름이 아닙니다. 유효한 이름에는 영문자, 숫자 및 _만 사용할 수 있습니다.
INVALID_SCHEME
Unity 카탈로그는 기본 파일 구성표로 지원 <name>
되지 않습니다.
INVALID_SECRET_LOOKUP
잘못된 비밀 조회:
자세한 내용은 INVALID_SECRET_LOOKUP을 참조하세요.
INVALID_SET_SYNTAX
필요한 형식은 'SET', 'SET 키' 또는 'SET key=value'입니다. 키에 특수 문자를 포함하거나 값에 세미콜론을 포함하려면 백쿼트(예: SET key
=value
)를 사용하세요.
INVALID_SHARED_ALIAS_NAME
<sharedObjectType>
별칭 이름은 "schema.name" 형식이어야 합니다.
INVALID_SINGLE_VARIANT_COLUMN
사용자가 지정한 스키마도 있는 경우 이 singleVariantColumn
옵션을 사용할 수 없습니다.
INVALID_SOURCE_CATALOG
원본 카탈로그는 SYNC 명령에 대한 Unity 카탈로그 내에 없어야 합니다. 를 찾았습니다 <catalog>
.
INVALID_SQL_ARG
인수 <name>
sql()
가 잘못되었습니다. SQL 리터럴 또는 컬렉션 생성자 함수(예: , array()
struct()
)로 map()
바꿔야 합니다.
INVALID_SQL_SYNTAX
잘못된 SQL 구문:
자세한 내용은 INVALID_SQL_SYNTAX 참조하세요 .
INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY
준비 쿼리의 준비 <operation>
경로가 잘못되었습니다. <path>
INVALID_STATEMENT_FOR_EXECUTE_INTO
EXECUTE IMMEDIATE의 INTO 절은 쿼리에만 유효하지만 지정된 문은 쿼리 <sqlString>
가 아닙니다.
INVALID_STATEMENT_OR_CLAUSE
문 또는 절이 <operation>
잘못되었습니다.
INVALID_SUBQUERY_EXPRESSION
잘못된 하위 쿼리:
자세한 내용은 INVALID_SUBQUERY_EXPRESSION을 참조하세요.
INVALID_TEMP_OBJ_REFERENCE
형식의 임시 개체 <objName>
를 참조하므로 형식 <obj>
<tempObj>
의 영구 개체 <tempObjName>
를 만들 수 없습니다. 임시 개체 <tempObjName>
를 영구적으로 만들거나 영구 개체를 임시로 <objName>
만듭니다.
INVALID_TIMESTAMP_FORMAT
제공된 타임스탬프 <timestamp>
가 예상 구문 <format>
과 일치하지 않습니다.
INVALID_TIME_TRAVEL_SPEC
테이블을 이동하는 시간 동안 버전과 타임스탬프를 둘 다 지정할 수 없습니다.
INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
시간 이동 타임스탬프 식 <expr>
이 잘못되었습니다.
자세한 내용은 INVALID_TIME_TRAVEL_TIMESTAMP_EXPR 참조하세요 .
INVALID_TYPED_LITERAL
형식화된 리터럴 <valueType>
의 값이 잘못되었습니다 <value>
.
INVALID_UDF_IMPLEMENTATION
함수 <funcName>
는 ScalarFunction 또는 AggregateFunction을 구현하지 않습니다.
INVALID_UPGRADE_SYNTAX
<command>
<supportedOrNot>
원본 테이블은 Hive Metastore에 있고 대상 테이블은 Unity 카탈로그에 있습니다.
INVALID_URL
URL이 잘못되었습니다. <url>
. 필요한 경우 이 오류를 무시하려면 "false"로 설정합니다 <ansiConfig>
.
INVALID_USAGE_OF_STAR_OR_REGEX
의 사용법이 <elem>
잘못되었습니다.<prettyName>
INVALID_UUID
입력 <uuidInput>
이 유효한 UUID가 아닙니다.
UUID는 'xxxxxxxx-xxxx-xxxx-xxxx-xxxx' 형식이어야 합니다.
UUID의 형식을 확인하세요.
INVALID_VARIABLE_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE
변수 형식은 문자열 형식이어야 하지만 .<varType>
INVALID_VARIANT_CAST
변형 값을 <value>
.로 캐스팅 <dataType>
할 수 없습니다. 대신 try_variant_get
를 사용하십시오.
INVALID_VARIANT_GET_PATH
경로 <path>
가 .의 유효한 변형 추출 경로가 <functionName>
아닙니다.
유효한 경로는 시작 $
되어야 하며 그 뒤에 0개 이상의 세그먼트(예: [123]
, .name
['name']
또는 ["name"]
.)가 잇습니다.
INVALID_WHERE_CONDITION
WHERE 조건에 <condition>
잘못된 식이 포함되어 있습니다. <expressionList>
WHERE 절에서 창 함수, 집계 함수 및 생성기 함수를 방지하도록 쿼리를 다시 작성합니다.
INVALID_WINDOW_SPEC_FOR_AGGREGATION_FUNC
ORDER BY 또는 창 프레임을 <aggFunc>
지정할 수 없습니다.
INVALID_WRITER_COMMIT_MESSAGE
데이터 원본 작성기가 잘못된 수의 커밋 메시지 생성했습니다. 각 작업에서 정확히 하나의 기록기가 커밋 메시지 예상되었지만 수신되었습니다<detail>
.
INVALID_WRITE_DISTRIBUTION
요청된 쓰기 배포가 잘못되었습니다.
자세한 내용은 INVALID_WRITE_DISTRIBUTION 참조하세요 .
JOIN_CONDITION_IS_NOT_BOOLEAN_TYPE
조인 조건에 <joinCondition>
잘못된 형식 <conditionType>
(예상된 "BOOLEAN
")이 있습니다.
KAFKA_DATA_LOSS
일부 데이터는 더 이상 Kafka에서 사용할 수 없으므로 손실되었을 수 있습니다.
Kafka에 의해 데이터가 오래된 경우 또는 토픽이 삭제된 후
토픽이 처리되었습니다.
이러한 경우 스트리밍 쿼리가 실패하지 않도록 하려면 원본 옵션 failOnDataLoss를 false로 설정합니다.
원인:
자세한 내용은 KAFKA_DATA_LOSS 참조하세요 .
KINESIS_COULD_NOT_READ_SHARD_UNTIL_END_OFFSET
분할된 데이터베이스에 대해 <shardId>
원하는 시퀀스 번호 <endSeqNum>
가 표시될 때까지 읽을 수 없습니다.
소비자 모드<consumerMode>
를 사용한 kinesis 스트림<stream>
. 다음으로 인해 쿼리가 실패합니다.
잠재적인 데이터 손실 마지막 읽기 레코드는 시퀀스 번호 <lastSeqNum>
였습니다.
endSeqNum이 있는 데이터가 이미 오래된 경우 또는 Kinesis 스트림이
삭제되고 동일한 이름으로 다시 구성됩니다. 오류 동작을 재정의할 수 있습니다.
spark 구성에서 spark.databricks.kinesis.failOnDataLoss를 false로 설정하여
KINESIS_FETCHED_SHARD_LESS_THAN_TRACKED_SHARD
Kinesis에서 가져온 최소 shardId(<fetchedShardId>
)
는 추적된 최소 shardId(<trackedShardId>
)보다 작습니다.
이는 예기치 않은 작업이며 Kinesis 스트림을 삭제하고 동일한 이름으로 다시 만들 때 발생합니다.
이 Kinesis 스트림을 사용하는 스트리밍 쿼리는 기존 검사점 위치를 사용하여 다시 시작됩니다.
새 검사점 위치로 스트리밍 쿼리를 다시 시작하거나 새 이름으로 스트림을 만듭니다.
KINESIS_RECORD_SEQ_NUMBER_ORDER_VIOLATION
분할 <shard>
된 데이터베이스의 경우 이전 인출의 Kinesis에서 읽은 마지막 레코드에는 시퀀스 번호 <lastSeqNum>
가 있습니다.
시퀀스 번호 <recordSeqNum>
가 있는 현재 인출에서 읽은 레코드보다 큰 값입니다.
이는 예기치 않은 작업이며 다시 시도 또는 다음 인출의 시작 위치가 잘못 초기화되어 중복 레코드 다운스트림이 발생할 수 있습니다.
KRYO_BUFFER_OVERFLOW
Kryo serialization 실패: <exceptionMsg>
. 이를 방지하려면 "<bufferSizeConfKey>
" 값을 늘립니다.
LOAD_DATA_PATH_NOT_EXISTS
LOAD DATA 입력 경로가 없습니다 <path>
. .
LOCAL_MUST_WITH_SCHEMA_FILE
LOCAL은 다음의 file
스키마와 함께 사용해야 하지만 다음이 있습니다 <actualSchema>
.
LOCATION_ALREADY_EXISTS
연결된 위치 <location>
가 이미 있으므로 관리되는 테이블의 이름을 지정할 <identifier>
수 없습니다. 다른 테이블 이름을 선택하거나 먼저 기존 위치를 제거하세요.
LOST_TOPIC_PARTITIONS_IN_END_OFFSET_WITH_TRIGGER_AVAILABLENOW
Trigger.AvailableNow를 사용하여 쿼리를 실행하는 동안 Kafka 토픽의 일부 파티션이 손실되었습니다. 오류가 일시적일 수 있습니다. 쿼리를 다시 시작하고 동일한 문제가 계속 표시되는 경우 보고합니다.
최신 오프셋에 대한 토픽 파티션: <tpsForLatestOffset>
끝 오프셋에 대한 토픽 파티션: <tpsForEndOffset>
MALFORMED_AVRO_MESSAGE
잘못된 형식의 Avro 메시지는 메시지 역직렬화에서 검색됩니다. 구문 분석 모드: <mode>
. 잘못된 형식의 Avro 메시지를 null 결과로 처리하려면 'mode' 옵션을 'PERMISSIVE'로 설정해 보세요.
MALFORMED_CSV_RECORD
형식이 잘못된 CSV 레코드: <badRecord>
MALFORMED_RECORD_IN_PARSING
형식이 잘못된 레코드는 레코드 구문 분석에서 검색됩니다. <badRecord>
.
구문 분석 모드: <failFastMode>
. 잘못된 형식의 레코드를 null 결과로 처리하려면 'mode' 옵션을 'PERMISSIVE'로 설정해 보세요.
자세한 내용은 MALFORMED_RECORD_IN_PARSING 참조 하세요.
MALFORMED_VARIANT
Variant 이진 파일이 잘못되었습니다. 데이터 원본이 유효한지 확인하세요.
MANAGED_TABLE_WITH_CRED
스토리지 자격 증명을 사용하여 관리형 테이블을 만들 수 없습니다.
MATERIALIZED_VIEW_MESA_REFRESH_WITHOUT_PIPELINE_ID
pipelineId가 있기 전에 구체화된 뷰를 사용할 수 없습니다 <refreshType>
. 활성화 <refreshType>
하려면 구체화된 뷰를 삭제하고 다시 만드세요.
MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
구체화된 뷰 작업은 <operation>
허용되지 않습니다.
자세한 내용은 MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED 참조 하세요.
MATERIALIZED_VIEW_OUTPUT_WITHOUT_EXPLICIT_ALIAS
구체화된 뷰의 출력 식 <expression>
은 명시적으로 별칭을 지정해야 합니다.
MATERIALIZED_VIEW_OVER_STREAMING_QUERY_INVALID
스트리밍 쿼리를 사용하여 구체화된 뷰 <name>
를 만들 수 없습니다. 대신 CREATE [OR REFRESH] STREAMING TABLE을 사용하거나 FROM 절에 STREAM 키워드를 제거하여 이 관계를 일괄 처리 쿼리로 전환하세요.
MATERIALIZED_VIEW_UNSUPPORTED_OPERATION
이 버전의 구체화된 뷰에서는 작업이 <operation>
지원되지 않습니다.
MAX_NUMBER_VARIABLES_IN_SESSION_EXCEEDED
세션의 변수 <variableName>
수가 허용되는 최대 개수(<maxNumVariables>
)를 초과하므로 새 변수를 만들 수 없습니다.
MAX_RECORDS_PER_FETCH_INVALID_FOR_KINESIS_SOURCE
maxRecordsPerFetch는 양수보다 작거나 같아야 합니다. <kinesisRecordLimit>
MERGE_CARDINALITY_VIOLATION
MERGE 문의 ON 검색 조건은 대상 테이블의 단일 행과 원본 테이블의 여러 행을 일치시켰습니다.
이로 인해 대상 행이 업데이트 또는 삭제 작업으로 두 번 이상 작동하고 허용되지 않을 수 있습니다.
METRIC_CONSTRAINT_NOT_SUPPORTED
메트릭 제약 조건을 사용할 수 없습니다.
METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
제공된 값 "<argValue>
"은 METRIC_STORE 테이블 함수의 인수 "<argName>
"에서 지원되지 않습니다.
자세한 내용은 METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR 참조 하세요.
METRIC_STORE_UNSUPPORTED_ERROR
메트릭 저장소 함수 <functionName>
는 현재 이 환경에서 사용할 수 없습니다.
MISMATCHED_TOPIC_PARTITIONS_BETWEEN_END_OFFSET_AND_PREFETCHED
Trigger.AvailableNow의 Kafka 데이터 원본은 각 마이크로배치에 대해 오프셋을 종료하기 위해 미리 인출된 오프셋에 동일한 토픽 파티션을 제공해야 합니다. 오류가 일시적일 수 있습니다. 쿼리를 다시 시작하고 동일한 문제가 계속 표시되는 경우 보고합니다.
미리 페치된 오프셋에 대한 토픽 파티션: <tpsForPrefetched>
- 끝 오프셋에 대한 토픽 파티션: <tpsForEndOffset>
.
MISSING_AGGREGATION
비 집계 식 <expression>
은 GROUP BY 절에 참여하지 않는 열을 기반으로 합니다.
GROUP BY에 열 또는 식을 추가하거나, 식을 집계하거나, 그룹 내에서 반환되는 값 중 어느 값이 반환되는지 신경 쓰지 않는 경우 사용합니다 <expressionAnyValue>
.
자세한 내용은 MISSING_AGGREGATION 참조 하세요.
MISSING_CONNECTION_OPTION
'<connectionType>
' 형식의 연결에는 다음 옵션이 <requiredOptions>
포함되어야 합니다.
MISSING_GROUP_BY
쿼리에 GROUP BY 절이 포함되어 있지 않습니다. GROUP BY를 추가하거나 OVER 절을 사용하여 창 함수로 바꿉니다.
MISSING_NAME_FOR_CHECK_CONSTRAINT
CHECK 제약 조건에는 이름이 있어야 합니다.
MISSING_PARAMETER_FOR_KAFKA
Kafka에는 매개 변수 <parameterName>
가 필요하지만 <functionName>
.
MISSING_PARAMETER_FOR_ROUTINE
매개 변수 <parameterName>
는 필수이지만 <functionName>
.
MODIFY_BUILTIN_CATALOG
기본 제공 카탈로그 <catalogName>
수정은 지원되지 않습니다.
MULTIPLE_LOAD_PATH
Databricks Delta는 load() API에서 여러 입력 경로를 지원하지 않습니다.
paths: <pathList>
. 동일한 Delta 테이블에서 여러 경로를
로드하여 단일 DataFrame을 빌드하려면 해당하는 파티션 필터를
사용하여 Delta 테이블의 루트 경로를 로드하세요. 서로 다른 Delta 테이블의
여러 경로가 있는 경우 Dataset의 union()/unionByName() API를
사용하여 별도의 load() API 호출에 의해 생성된 DataFrame을 결합합니다.
MULTIPLE_MATCHING_CONSTRAINTS
지정된 조건과 일치하는 둘 이상의 제약 조건이 있습니다.
MULTIPLE_TIME_TRAVEL_SPEC
시간 이동 절과 옵션 모두에서 시간 여행을 지정할 수 없습니다.
MULTIPLE_XML_DATA_SOURCE
이름이 <provider>
(<sourceNames>
)인 여러 데이터 원본이 검색되었습니다. 정규화된 클래스 이름을 지정하거나 클래스 경로에서 제거 <externalSource>
하세요.
MULTI_SOURCES_UNSUPPORTED_FOR_EXPRESSION
식 <expr>
은 둘 이상의 원본을 지원하지 않습니다.
MULTI_UDF_INTERFACE_ERROR
여러 UDF 인터페이스, UDF 클래스 <className>
를 구현할 수 없습니다.
MUTUALLY_EXCLUSIVE_CLAUSES
상호 배타적 절 또는 옵션 <clauses>
. 이러한 절 중 하나를 제거하세요.
MV_ST_ALTER_QUERY_INCORRECT_BACKING_TYPE
입력 쿼리에는 <expectedType>
가 포함되지만 기본 테이블은 . <givenType>
입니다.
NAMED_PARAMETERS_NOT_SUPPORTED
명명된 매개 변수는 함수 <functionName>
에 대해 지원되지 않습니다. 대신 함수 호출에 대한 위치 인수를 사용하여 쿼리를 다시 시도하세요.
NAMED_PARAMETERS_NOT_SUPPORTED_FOR_SQL_UDFS
SQL UDF에 대한 명명된 인수 참조가 지원되지 않으므로 함수 <functionName>
를 호출할 수 없습니다. 이 경우 명명된 인수 참조는 .입니다 <argument>
.
NAMED_PARAMETER_SUPPORT_DISABLED
명명된 인수 참조가 여기서 사용되지 않으므로 함수 <functionName>
를 호출할 수 없습니다.
이 경우 명명된 인수 참조는 .입니다 <argument>
.
"spark.sql.allowNamedFunctionArguments"를 "true"로 설정하여 기능을 켭니다.
NAMESPACE_ALREADY_EXISTS
네임스페이스가 <nameSpaceName>
이미 있으므로 만들 수 없습니다.
다른 이름을 선택하거나, 기존 네임스페이스를 삭제하거나, IF NOT EXISTS 절을 추가하여 기존 네임스페이스를 허용합니다.
NAMESPACE_NOT_EMPTY
네임스페이스에 <nameSpaceNameName>
개체가 포함되어 있으므로 삭제할 수 없습니다.
DROP NAMESPACE 사용… CASCADE는 네임스페이스와 모든 해당 개체를 삭제합니다.
NAMESPACE_NOT_FOUND
네임스페이스를 <nameSpaceName>
찾을 수 없습니다. 이름 공간의 맞춤법과 정확성을 확인합니다.
이름을 한정하지 않은 경우 current_schema() 출력을 확인하거나 올바르게 이름을 한정합니다.
삭제 시 오류를 허용하려면 DROP NAMESPACE IF EXISTS를 사용합니다.
NATIVE_XML_DATA_SOURCE_NOT_ENABLED
이 클러스터에서는 네이티브 XML 데이터 원본을 사용할 수 없습니다.
NESTED_AGGREGATE_FUNCTION
다른 집계 함수의 인수에 집계 함수를 사용할 수 없습니다. 하위 쿼리에서 내부 집계 함수를 사용하세요.
NESTED_EXECUTE_IMMEDIATE
중첩된 EXECUTE IMMEDIATE 명령은 허용되지 않습니다. 제공된 SQL 쿼리(<sqlString>
)에 다른 EXECUTE IMMEDIATE 명령이 포함되어 있지 않은지 확인하세요.
NONEXISTENT_FIELD_NAME_IN_LIST
<nonExistFields>
필드 do(es)가 없습니다. 사용 가능한 필드: <fieldNames>
NON_FOLDABLE_ARGUMENT
함수 <funcName>
를 사용하려면 매개 변수 <paramName>
가 형식 <paramType>
의 접을 수 있는 식이어야 하지만 실제 인수는 접을 수 없습니다.
NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
둘 이상의 MATCHED 절이 MERGE 문에 있는 경우 마지막 MATCHED 절만 조건을 생략할 수 있습니다.
NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
MERGE 문에 NOT MATCHED BY SOURCE 절이 둘 이상 있는 경우 마지막 NOT MATCHED BY SOURCE 절만 조건을 생략할 수 있습니다.
NON_LAST_NOT_MATCHED_BY_TARGET_CLAUSE_OMIT_CONDITION
MERGE 문에 NOT MATCHED [BY TARGET] 절이 두 개 이상 있는 경우 마지막 NOT MATCHED [BY TARGET] 절만 조건을 생략할 수 있습니다.
NON_LITERAL_PIVOT_VALUES
피벗 값에 필요한 리터럴 식이 있습니다 <expression>
.
NON_PARTITION_COLUMN
PARTITION 절에는 파티션이 아닌 열 <columnName>
이 포함될 수 없습니다.
NON_TIME_WINDOW_NOT_SUPPORTED_IN_STREAMING
스트리밍 데이터 프레임/데이터 세트의 <windowFunc>
창 함수는 열 <columnName>
로 지원되지 않습니다.
구조적 스트리밍은 WINDOW 함수를 사용하는 시간 창 집계만 지원합니다. (창 사양: <windowSpec>
)
NOT_ALLOWED_IN_FROM
FROM 절에는 허용되지 않습니다.
자세한 내용은 NOT_ALLOWED_IN_FROM 참조 하세요.
NOT_A_CONSTANT_STRING
루틴 또는 절 <name>
에 사용되는 식 <expr>
은 NOT NULL인 상수 STRING
여야 합니다.
자세한 내용은 NOT_A_CONSTANT_STRING 참조 하세요.
NOT_A_PARTITIONED_TABLE
분할된 <tableIdentWithDB>
테이블이 아니므로 작업이 <operation>
허용되지 않습니다.
NOT_A_SCALAR_FUNCTION
<functionName>
는 스칼라 식으로 표시되지만 함수는 테이블 함수로 정의되었습니다. 쿼리를 업데이트하여 함수 호출을 FROM 절로 이동하거나 스칼라 함수로 다시 정의 <functionName>
하세요.
NOT_A_TABLE_FUNCTION
<functionName>
는 여기에 테이블 함수로 표시되지만 함수는 스칼라 함수로 정의되었습니다. FROM 절 외부로 함수 호출을 이동하도록 쿼리를 업데이트하거나 대신 테이블 함수로 다시 정의 <functionName>
하세요.
NOT_NULL_CONSTRAINT_VIOLATION
여기서는 NULL 할당이 허용되지 않습니다.
자세한 내용은 NOT_NULL_CONSTRAINT_VIOLATION 참조 하세요.
NOT_SUPPORTED_CHANGE_COLUMN
ALTER TABLE ALTER/CHANGE COLUMN은 형식이 있는 열을 형식 <originType>
<newType>
이 있는 열 <originName>
로 변경하는 <table>
데 <newName>
지원되지 않습니다.
NOT_SUPPORTED_COMMAND_FOR_V2_TABLE
<cmd>
는 v2 테이블에 대해 지원되지 않습니다.
NOT_SUPPORTED_COMMAND_WITHOUT_HIVE_SUPPORT
<cmd>
은 지원되지 않습니다. 사용하도록 설정하려면 "spark.sql.catalogImplementation"을 "hive"로 설정하세요.
NOT_SUPPORTED_IN_JDBC_CATALOG
JDBC 카탈로그에서 지원되지 않는 명령:
자세한 내용은 NOT_SUPPORTED_IN_JDBC_CATALOG 참조 하세요.
NOT_SUPPORTED_WITH_DB_SQL
<operation>
가 SQL <endpoint>
에서 지원되지 않습니다.
NOT_SUPPORTED_WITH_SERVERLESS
<operation>
는 서버리스 컴퓨팅에서 지원되지 않습니다.
NOT_UNRESOLVED_ENCODER
해결되지 않은 인코더가 필요했지만 <attr>
발견되었습니다.
NO_DEFAULT_COLUMN_VALUE_AVAILABLE
nullable이 아니고 기본값 <colName>
이 없으므로 기본값을 확인할 수 없습니다.
NO_HANDLER_FOR_UDAF
UDAF ''<functionName>
에 대한 처리기가 없습니다. 대신 sparkSession.udf.register(...)를 사용합니다.
NO_MERGE_ACTION_SPECIFIED
df.mergeInto 뒤에는 whenMatched/whenNotMatched/whenNotMatchedBySource 중 하나 이상이 뒤따라야 합니다.
NO_PARENT_EXTERNAL_LOCATION_FOR_PATH
SQLSTATE: 할당된 항목 없음
경로 ''<path>
에 대한 부모 외부 위치를 찾을 수 없습니다. 부모 경로 중 하나에 외부 위치를 만든 다음 쿼리 또는 명령을 다시 시도하세요.
NO_SQL_TYPE_IN_PROTOBUF_SCHEMA
Protobuf 스키마에서 찾을 <catalystFieldPath>
수 없습니다.
NO_STORAGE_LOCATION_FOR_TABLE
SQLSTATE: 할당된 항목 없음
테이블 자격 증명을 생성할 때 테이블 '<tableId>
'에 대한 스토리지 위치를 찾을 수 없습니다. 테이블 형식과 테이블 위치 URL을 확인한 다음 쿼리 또는 명령을 다시 시도하세요.
NO_SUCH_CATALOG_EXCEPTION
SQLSTATE: 할당된 항목 없음
카탈로그 '<catalog>
'을(를) 찾을 수 없습니다. 카탈로그 이름을 확인한 다음 쿼리 또는 명령을 다시 시도하세요.
NO_SUCH_CLEANROOM_EXCEPTION
SQLSTATE: 할당된 항목 없음
클린룸 '<cleanroom>
'이(가) 없습니다. 클린룸 이름의 철자가 올바르고 유효한 기존 클린룸의 이름과 일치하는지 확인한 다음 쿼리 또는 명령을 다시 시도하세요.
NO_SUCH_EXTERNAL_LOCATION_EXCEPTION
SQLSTATE: 할당된 항목 없음
외부 위치 '<externalLocation>
'가 없습니다. 외부 위치 이름이 올바른지 확인한 다음 쿼리 또는 명령을 다시 시도하세요.
NO_SUCH_METASTORE_EXCEPTION
SQLSTATE: 할당된 항목 없음
메타스토어를 찾을 수 없습니다. 계정 관리자에게 현재 작업 영역에 metastore를 할당한 다음 쿼리 또는 명령을 다시 시도하도록 요청하세요.
NO_SUCH_PROVIDER_EXCEPTION
SQLSTATE: 할당된 항목 없음
공유 공급자 '<providerName>
'가 없습니다. 공유 공급자 이름의 철자가 올바르고 유효한 기존 공급자 이름의 이름과 일치하는지 확인한 다음 쿼리 또는 명령을 다시 시도하세요.
NO_SUCH_RECIPIENT_EXCEPTION
SQLSTATE: 할당된 항목 없음
받는 사람 '<recipient>
'이(가) 없습니다. 받는 사람 이름의 철자가 올바르고 유효한 기존 받는 사람의 이름과 일치하는지 확인한 다음 쿼리 또는 명령을 다시 시도하세요.
NO_SUCH_SHARE_EXCEPTION
SQLSTATE: 할당된 항목 없음
공유 '<share>
'이(가) 없습니다. 공유 이름의 철자가 올바르고 유효한 기존 공유의 이름과 일치하는지 확인한 다음 쿼리 또는 명령을 다시 시도하세요.
NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION
SQLSTATE: 할당된 항목 없음
스토리지 자격 증명 '<storageCredential>
'이(가) 없습니다. 스토리지 자격 증명 이름의 철자가 올바르고 유효한 기존 스토리지 자격 증명의 이름과 일치하는지 확인한 다음 쿼리 또는 명령을 다시 시도하세요.
NO_SUCH_USER_EXCEPTION
SQLSTATE: 할당된 항목 없음
사용자 '<userName>
'이(가) 없습니다. 사용 권한을 부여하거나 소유권을 변경하는 사용자에게 철자가 올바르게 지정되어 있고 유효한 기존 사용자의 이름과 일치하는지 확인한 다음 쿼리 또는 명령을 다시 시도하세요.
NO_UDF_INTERFACE
UDF 클래스 <className>
는 UDF 인터페이스를 구현하지 않습니다.
NULLABLE_COLUMN_OR_FIELD
열 또는 필드는 <name>
null을 허용하지 않는 동안 null을 허용합니다.
NULLABLE_ROW_ID_ATTRIBUTES
행 ID 특성은 null을 허용하지 <nullableRowIdAttrs>
않습니다. .
NULL_MAP_KEY
null을 맵 키로 사용할 수 없습니다.
NULL_QUERY_STRING_EXECUTE_IMMEDIATE
즉시 실행하려면 null이 아닌 변수가 쿼리 문자열로 필요하지만 제공된 변수 <varName>
는 null입니다.
NUMERIC_OUT_OF_SUPPORTED_RANGE
값 <value>
은 38자리를 초과하여 숫자로 해석할 수 없습니다.
NUMERIC_VALUE_OUT_OF_RANGE
자세한 내용은 NUMERIC_VALUE_OUT_OF_RANGE 참조 하세요.
NUM_COLUMNS_MISMATCH
<operator>
는 열 수가 동일한 입력에서만 수행할 수 있지만 첫 번째 입력에는 <firstNumColumns>
열이 있고 입력에는 열이 <invalidOrdinalNum>
<invalidNumColumns>
있습니다.
NUM_TABLE_VALUE_ALIASES_MISMATCH
지정된 별칭 수가 출력 열 수와 일치하지 않습니다.
함수 이름: <funcName>
; 별칭 수: <aliasesNum>
; 출력 열 수: <outColsNum>
.
OAUTH_CUSTOM_IDENTITY_CLAIM_NOT_PROVIDED
사용자 지정 ID 클레임이 제공되지 않았습니다.
ONLY_SECRET_FUNCTION_SUPPORTED_HERE
호출 함수 <functionName>
는 여기에서 <location>
<supportedFunctions>
지원되지 않습니다.
ONLY_SUPPORTED_WITH_UC_SQL_CONNECTOR
SQL 작업은 <operation>
Unity 카탈로그가 지원되는 Databricks SQL 커넥터에서만 지원됩니다.
OPERATION_CANCELED
작업이 취소되었습니다.
OPERATION_REQUIRES_UNITY_CATALOG
작업을 <operation>
수행하려면 Unity 카탈로그를 사용하도록 설정해야 합니다.
OP_NOT_SUPPORTED_READ_ONLY
<plan>
는 읽기 전용 세션 모드에서 지원되지 않습니다.
ORDER_BY_POS_OUT_OF_RANGE
ORDER BY 위치 <index>
가 선택 목록에 없습니다(유효한 범위는 [1, <size>
]).
PARSE_EMPTY_STATEMENT
구문 오류, 예기치 않은 빈 문입니다.
PARSE_SYNTAX_ERROR
구문 오류(또는 그 근처에 <error>
<hint>
있는 구문 오류)
PARTITIONS_ALREADY_EXIST
테이블 <tableName>
의 <partitionList>
파티션이 이미 있으므로 TO 파티션을 추가하거나 이름을 바꿀 수 없습니다.
다른 이름을 선택하거나 기존 파티션을 삭제하거나 IF NOT EXISTS 절을 추가하여 기존 파티션을 허용합니다.
PARTITIONS_NOT_FOUND
테이블에서 <tableName>
파티션 <partitionList>
을 찾을 수 없습니다.
파티션 사양 및 테이블 이름을 확인합니다.
삭제시 오류를 허용하려면 ALTER TABLE을 사용합니다. DROP IF EXISTS PARTITION.
PARTITION_LOCATION_ALREADY_EXISTS
파티션 위치 <locationPath>
가 테이블에 <tableName>
이미 있습니다.
PARTITION_LOCATION_IS_NOT_UNDER_TABLE_DIRECTORY
ALTER TABLE SET PARTITION LOCATION 문을 실행하지 못했습니다.
파티션 위치 <location>
가 테이블 디렉터리 <table>
아래에 있지 않습니다.
이 문제를 해결하려면 파티션의 위치를 의 하위 디렉터리 <table>
로 설정하세요.
PARTITION_METADATA
<action>
파티션 메타데이터 저장은 Unity 카탈로그에서 지원되지 않으므로 테이블에서 <tableName>
사용할 수 없습니다.
PATH_ALREADY_EXISTS
경로 <outputPath>
가 이미 있습니다. 모드를 "덮어쓰기"로 설정하여 기존 경로를 덮어씁니다.
PATH_NOT_FOUND
경로가 없습니다 <path>
. .
PIVOT_VALUE_DATA_TYPE_MISMATCH
잘못된 피벗 값 '<value>
': 값 데이터 형식 <valueType>
이 피벗 열 데이터 형식 <pivotType>
과 일치하지 않습니다.
PROCEDURE_ARGUMENT_NUMBER_MISMATCH
프로시저 <procedureName>
는 인수를 <expected>
예상하지만 <actual>
제공되었습니다.
PROCEDURE_CREATION_EMPTY_ROUTINE
빈 루틴 정의가 있는 CREATE PROCEDURE는 허용되지 않습니다.
PROCEDURE_CREATION_PARAMETER_OUT_INOUT_WITH_DEFAULT
매개 변수는 매개 변수 <parameterName>
모드 <parameterMode>
로 정의됩니다. 루틴을 호출할 때 OUT 및 INOUT 매개 변수를 생략할 수 없으므로 DEFAULT 식을 지원하지 않습니다. 계속하려면 DEFAULT 절을 제거하거나 매개 변수 모드를 IN으로 변경합니다.
PROCEDURE_NOT_SUPPORTED
저장 프로시저는 지원되지 않습니다.
PROCEDURE_NOT_SUPPORTED_WITH_HMS
저장 프로시저는 Hive Metastore에서 지원되지 않습니다. 대신 Unity 카탈로그를 사용하세요.
PROTOBUF_DEPENDENCY_NOT_FOUND
종속성을 찾을 수 없습니다. <dependencyName>
.
PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND
경로 <filePath>
에서 Protobuf 설명자 파일을 읽는 동안 오류가 발생했습니다.
PROTOBUF_FIELD_MISSING
<field>
지정된 <matchSize>
일치 항목에서 Protobuf 스키마를 <protobufSchema>
검색합니다. 후보: <matches>
.
PROTOBUF_FIELD_MISSING_IN_SQL_SCHEMA
Protobuf 스키마에서 찾을 <field>
수 있지만 SQL 스키마에는 일치하는 항목이 없습니다.
PROTOBUF_FIELD_TYPE_MISMATCH
필드에 <field>
대한 형식 불일치가 발생했습니다.
PROTOBUF_JAVA_CLASSES_NOT_SUPPORTED
Java 클래스는 .에 대해 <protobufFunction>
지원되지 않습니다. 대체 옵션에 대해서는 Databricks 지원에 문의하세요.
PROTOBUF_MESSAGE_NOT_FOUND
설명자에서 메시지를 <messageName>
찾을 수 없습니다.
PROTOBUF_TYPE_NOT_SUPPORT
Protobuf 형식은 아직 지원 <protobufType>
되지 않습니다. .
PS_FETCH_RETRY_EXCEPTION
pubsub 인출 단계의 작업은 다시 시도될 수 없습니다. 단계<stageInfo>
의 파티션<partitionInfo>
, TID <taskId>
.
PS_INVALID_EMPTY_OPTION
<key>
는 빈 문자열일 수 없습니다.
PS_INVALID_KEY_TYPE
PubSub 중복 제거 <key>
의 키 유형이 잘못되었습니다. .
PS_INVALID_OPTION
이 옵션은 <key>
PubSub에서 지원되지 않습니다. 테스트에만 사용할 수 있습니다.
PS_INVALID_OPTION_TYPE
에 대한 형식이 잘못되었습니다 <key>
. 형식이 필요한 형식 <key>
<type>
입니다.
PS_INVALID_READ_LIMIT
PubSub 스트림 <limit>
의 읽기 제한이 잘못되었습니다.
PS_INVALID_UNSAFE_ROW_CONVERSION_FROM_PROTO
PubSubMessageMetadata로 디코딩하는 UnsafeRow가 잘못되었습니다. 원하는 프로토 스키마는 다음과 <protoSchema>
같습니다. UnsafeRow 입력이 손상되었을 수 있습니다. <unsafeRow>
PS_MISSING_AUTH_INFO
전체 PubSub 인증 정보를 찾지 못했습니다.
PS_MISSING_REQUIRED_OPTION
필요한 옵션을 <key>
찾을 수 없습니다. .
PS_MOVING_CHECKPOINT_FAILURE
원시 데이터 검사점 파일을 대상 디렉터리로 <src>
이동하지 못합니다. <dest>
PS_MULTIPLE_FAILED_EPOCHS
두 개 이상의 페치 <failedEpochs>
실패가 있으므로 PubSub 스트림을 시작할 수 없습니다.
PS_OPTION_NOT_IN_BOUNDS
<key>
는 다음 범위(<min>
, <max>
)에서 두 경계를 모두 제외해야 합니다.
PS_PROVIDE_CREDENTIALS_WITH_OPTION
공유 클러스터는 인스턴스 프로필에 대한 인증을 지원하지 않습니다. .option()을 사용하여 스트림에 직접 자격 증명을 제공합니다.
PS_SPARK_SPECULATION_NOT_SUPPORTED
PubSub 원본 커넥터는 비활성화된 클러스터 spark.speculation
에서만 사용할 수 있습니다.
PS_UNABLE_TO_CREATE_SUBSCRIPTION
토픽<topicId>
에서 구독 <subId>
을 만드는 동안 오류가 발생했습니다. 구독을 만들고 다시 시도할 수 있는 충분한 권한이 있는지 확인하세요.
PS_UNABLE_TO_PARSE_PROTO
직렬화된 바이트를 구문 분석하여 proto를 생성할 수 없습니다.
PS_UNSUPPORTED_GET_OFFSET_CALL
제한을 제공하지 않으면 getOffset이 지원되지 않습니다.
PYTHON_DATA_SOURCE_ERROR
Python 데이터 원본<type>
에 <action>
실패했습니다.<msg>
PYTHON_STREAMING_DATA_SOURCE_RUNTIME_ERROR
Python 스트리밍 데이터 원본이 다음을 수행할 <action>
때 실패했습니다. <msg>
QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
이전에 할당된 열 마스크가 현재 테이블 스키마와 호환되지 않으므로 참조된 테이블에 액세스할 수 없습니다. 계속하려면 테이블 소유자에게 문의하여 정책을 업데이트하세요.
자세한 내용은 QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY 참조 하세요.
QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
이전에 할당된 행 수준 보안 정책이 현재 테이블 스키마와 호환되지 않으므로 참조된 테이블에 액세스할 수 없습니다. 계속하려면 테이블 소유자에게 문의하여 정책을 업데이트하세요.
자세한 내용은 QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY 참조하세요 .
READ_CURRENT_FILE_NOT_FOUND
<message>
기본 파일이 업데이트되었을 수 있습니다. SQL에서 'REFRESH TABLE tableName' 명령을 실행하거나 관련된 데이터 세트/데이터 프레임을 다시 만들어 Spark에서 캐시를 명시적으로 무효화할 수 있습니다.
READ_FILES_AMBIGUOUS_ROUTINE_PARAMETERS
함수 <functionName>
<parameterName>
호출에는 서로의 별칭인 설정이 있습니다 <alternativeName>
. 하나만 설정해주세요.
READ_TVF_UNEXPECTED_REQUIRED_PARAMETER
이름 없이 함수 <functionName>
필수 매개 변수 <parameterName>
를 위치에 <expectedPos>
할당해야 합니다.
RECURSIVE_PROTOBUF_SCHEMA
기본적으로 Spark <fieldDescriptor>
에서 처리할 수 없는 Protobuf 스키마에서 재귀 참조를 찾았습니다. recursive.fields.max.depth
옵션을 0에서 10으로 설정해 보세요. 재귀 수준이 10을 초과하는 것은 허용되지 않습니다.
RECURSIVE_VIEW
재귀 뷰 <viewIdent>
가 검색되었습니다(주기: <newPath>
).
REF_DEFAULT_VALUE_IS_NOT_ALLOWED_IN_PARTITION
DEFAULT 열 값에 대한 참조는 PARTITION 절 내에서 허용되지 않습니다.
RELATION_LARGER_THAN_8G
8G보다 큰 빌드할 수 없습니다 <relationName>
.
REMOTE_FUNCTION_HTTP_FAILED_ERROR
코드 <errorCode>
및 오류 메시지와 함께 원격 HTTP 요청이 실패했습니다. <errorMessage>
REMOTE_FUNCTION_HTTP_RESULT_PARSE_ERROR
원격 HTTP 응답에서 JSON 결과를 구문 분석할 수 없어 SQL 함수를 평가 <functionName>
하지 못했습니다. 오류 메시지는 다음과 같습니다 <errorMessage>
. API 설명서를 확인합니다 <docUrl>
. . 오류 메시지에 표시된 문제를 해결하고 쿼리를 다시 시도하세요.
REMOTE_FUNCTION_HTTP_RESULT_UNEXPECTED_ERROR
예기치 않은 원격 HTTP 응답을 처리할 수 없어 SQL 함수를 평가 <functionName>
하지 못했습니다. 오류 메시지는 다음과 같습니다 <errorMessage>
. API 설명서를 확인합니다 <docUrl>
. . 오류 메시지에 표시된 문제를 해결하고 쿼리를 다시 시도하세요.
REMOTE_FUNCTION_HTTP_RETRY_TIMEOUT
다시 시도 <N>
후 원격 요청이 실패했습니다. 마지막으로 실패한 HTTP 오류 코드이며 <errorCode>
메시지는 다음과 이었습니다. <errorMessage>
REMOTE_FUNCTION_MISSING_REQUIREMENTS_ERROR
로 인해 <errorMessage>
SQL 함수를 <functionName>
평가하지 못했습니다. 에서 요구 사항을 확인합니다 <docUrl>
. 오류 메시지에 표시된 문제를 해결하고 쿼리를 다시 시도하세요.
RENAME_SRC_PATH_NOT_FOUND
찾을 수 없도록 <sourcePath>
이름을 바꾸지 못했습니다.
REPEATED_CLAUSE
절은 <clause>
작업당 <operation>
최대 한 번 사용할 수 있습니다.
REQUIRED_PARAMETER_ALREADY_PROVIDED_POSITIONALLY
함수 <functionName>
필수 매개 변수 <parameterName>
가 이름 없이 위치에 <positionalIndex>
할당되었습니다.
함수 호출을 업데이트하여 이 매개 변수에 대한 명명된 인수 <parameterName>
를 제거하거나 위치 제거
인수에서 <positionalIndex>
쿼리를 다시 시도합니다.
REQUIRED_PARAMETER_NOT_FOUND
명명된 <parameterName>
매개 변수가 필요하지만 함수 <functionName>
호출에서 값을 제공하지 않았기 때문에 함수를 호출할 수 없습니다. 인수 값(인덱 <index>
스 또는 이름)을 제공하려면 함수 호출을 업데이트하고 쿼리를 다시 시도하세요.
REQUIRES_SINGLE_PART_NAMESPACE
<sessionCatalog>
에는 단일 파트 네임스페이스가 필요하지만 <namespace>
.
RESERVED_CDC_COLUMNS_ON_WRITE
쓰기에 사용되는 예약된 열이 포함되어 있습니다.<columnList>
사용 중인 예약된 열이 쓰기에 포함되어 있습니다. 테이블에 쓰려면 이러한 열의
이름 바꾸기/삭제를 수행하거나
<config>
을 false로 설정합니다.
RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
이 옵션 <option>
에는 원본에 대한 공유 클러스터의 값이 <source>
제한됩니다.
자세한 내용은 RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED 참조 하세요.
ROUTINE_ALREADY_EXISTS
함수 <routineName>
가 이미 있으므로 만들 수 없습니다.
다른 이름을 선택하거나, 기존 함수를 삭제 또는 바꾸거나, IF NOT EXISTS 절을 추가하여 기존 함수를 허용합니다.
ROUTINE_NOT_FOUND
함수 <routineName>
를 찾을 수 없습니다. 스키마 및 카탈로그의 맞춤법과 정확성을 확인합니다.
스키마 및 카탈로그로 이름을 한정하지 않은 경우 current_schema() 출력을 확인하거나 올바른 스키마 및 카탈로그로 이름을 한정합니다.
드롭 시 오류를 허용하려면 DROP FUNCTION IF EXISTS를 사용합니다.
ROUTINE_PARAMETER_NOT_FOUND
함수 <functionName>
는 위치에 <pos>
지정된 매개 변수 <parameterName>
를 지원하지 않습니다.<suggestion>
ROUTINE_USES_SYSTEM_RESERVED_CLASS_NAME
지정된 클래스 이름 ''<className>
이(가) 시스템 사용을 위해 예약되어 있으므로 함수 <routineName>
를 만들 수 없습니다. 클래스의 이름을 바꾸고 다시 시도하세요.
ROW_LEVEL_SECURITY_CHECK_CONSTRAINT_UNSUPPORTED
행 수준 보안 정책을 사용하여 테이블에 <tableName>
CHECK 제약 조건을 만드는 것은 지원되지 않습니다.
ROW_LEVEL_SECURITY_DUPLICATE_COLUMN_NAME
문은 <statementType>
테이블에 행 수준 보안 정책을 할당하려고 시도했지만 참조된 두 개 이상의 열의 이름이 <columnName>
같아 잘못된 것입니다.
ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
행 수준 보안 정책은 <tableName>
지원되지 않습니다.
자세한 내용은 ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED 참조 하세요.
ROW_LEVEL_SECURITY_INCOMPATIBLE_SCHEMA_CHANGE
<statementType>
<columnName>
행 수준 보안 정책에서 참조되므로 테이블에서 <tableName>
가져올 수 없습니다. 계속하기 전에 테이블 소유자가 이 정책을 제거하거나 변경해야 합니다.
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_SOURCE
MERGE INTO 작업은 원본 테이블 <tableName>
의 행 수준 보안 정책을 지원하지 않습니다.
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_TARGET
MERGE INTO 작업은 행 수준 보안 정책을 사용하여 테이블에 <tableName>
쓰는 것을 지원하지 않습니다.
ROW_LEVEL_SECURITY_MULTI_PART_COLUMN_NAME
이 문은 테이블에 행 수준 보안 정책을 할당하려고 했지만 참조된 열 <columnName>
에 여러 개의 이름 부분이 있으며 이는 유효하지 않습니다.
ROW_LEVEL_SECURITY_REQUIRE_UNITY_CATALOG
행 수준 보안 정책은 Unity 카탈로그에서만 지원됩니다.
ROW_LEVEL_SECURITY_TABLE_CLONE_SOURCE_NOT_SUPPORTED
<mode>
행 수준 보안 정책이 있는 테이블 <tableName>
의 복제는 지원되지 않습니다.
ROW_LEVEL_SECURITY_TABLE_CLONE_TARGET_NOT_SUPPORTED
<mode>
행 수준 보안 정책이 있는 테이블에 <tableName>
복제는 지원되지 않습니다.
ROW_LEVEL_SECURITY_UNSUPPORTED_CONSTANT_AS_PARAMETER
행 수준 보안 정책에서 상수를 매개 변수로 사용하는 것은 지원되지 않습니다. 행 필터 정의에서 상수 제거를 위해 SQL 명령을 업데이트한 다음 명령을 다시 시도하세요.
ROW_LEVEL_SECURITY_UNSUPPORTED_PROVIDER
테이블 공급자<provider>
가 있는 대상 데이터 원본에 대해 행 수준 보안 정책 할당이 지원되지 않으므로 명령을 실행 <statementType>
하지 못했습니다.
ROW_SUBQUERY_TOO_MANY_ROWS
행으로 사용되는 하위 쿼리에서 둘 이상의 행이 반환됩니다.
RULE_ID_NOT_FOUND
규칙 이름 "<ruleName>
"에 대한 ID를 찾을 수 없습니다. 새 규칙을 추가하는 경우 RuleIdCollection.scala를 수정하세요.
SAMPLE_TABLE_PERMISSIONS
샘플 데이터베이스/테이블에서는 권한이 지원되지 않습니다.
SCALAR_SUBQUERY_IS_IN_GROUP_BY_OR_AGGREGATE_FUNCTION
상관 관계가 있는 스칼라 하위 쿼리 '<sqlExpr>
'는 GROUP BY 또는 집계 함수에 없습니다.
서수 위치를 사용하여 GROUP BY에 추가하거나 first_value
가져오는 값을 신경 쓰지 않는 경우 래핑 first()
합니다.
SCALAR_SUBQUERY_TOO_MANY_ROWS
식으로 사용되는 하위 쿼리에서 둘 이상의 행이 반환되었습니다.
SCHEMA_ALREADY_EXISTS
스키마 <schemaName>
가 이미 있으므로 만들 수 없습니다.
다른 이름을 선택하거나, 기존 스키마를 삭제하거나, IF NOT EXISTS 절을 추가하여 기존 스키마를 허용합니다.
SCHEMA_NOT_EMPTY
개체가 포함되어 있으므로 스키마 <schemaName>
를 삭제할 수 없습니다.
DROP SCHEMA 사용… CASCADE는 스키마와 모든 개체를 삭제합니다.
SCHEMA_NOT_FOUND
스키마 <schemaName>
를 찾을 수 없습니다. 스키마 및 카탈로그의 맞춤법과 정확성을 확인합니다.
카탈로그로 이름을 한정하지 않은 경우 current_schema() 출력을 확인하거나 올바른 카탈로그로 이름을 한정합니다.
삭제 시 오류를 허용하려면 DROP SCHEMA IF EXISTS를 사용합니다.
SCHEMA_REGISTRY_CONFIGURATION_ERROR
스키마 레지스트리의 스키마를 초기화할 수 없습니다. <reason>
.
SECOND_FUNCTION_ARGUMENT_NOT_INTEGER
함수의 <functionName>
두 번째 인수는 정수여야 합니다.
SECRET_FUNCTION_INVALID_LOCATION
SECRET 함수에 대한 암호화되지 않은 참조가 하나 이상 있는 명령을 실행할 <commandType>
수 없습니다. 이러한 각 함수 호출의 결과를 AES_ENCRYPT 암호화하고 명령을 다시 시도하세요.
SEED_EXPRESSION_IS_UNFOLDABLE
식 <exprWithSeed>
의 초기 <seedExpr>
값 식은 접을 수 있어야 합니다.
SERVER_IS_BUSY
서버가 사용 중이므로 요청을 처리할 수 없습니다. 잠시 기다린 후 다시 시도하세요.
SORT_BY_WITHOUT_BUCKETING
sortBy는 bucketBy와 함께 사용해야 합니다.
SPECIFY_BUCKETING_IS_NOT_ALLOWED
명시적 열 목록이 없는 CREATE TABLE은 버킷팅 정보를 지정할 수 없습니다.
명시적 열 목록과 함께 양식을 사용하고 버킷팅 정보를 지정하세요.
또는 절을 생략하여 버킷팅 정보를 유추할 수 있습니다.
SPECIFY_CLUSTER_BY_WITH_BUCKETING_IS_NOT_ALLOWED
CLUSTER BY 및 CLUSTERED BY INTO BUCKETS를 둘 다 지정할 수 없습니다.
SPECIFY_CLUSTER_BY_WITH_PARTITIONED_BY_IS_NOT_ALLOWED
CLUSTER BY 및 PARTITIONED BY를 둘 다 지정할 수 없습니다.
SPECIFY_PARTITION_IS_NOT_ALLOWED
명시적 열 목록이 없는 CREATE TABLE은 PARTITIONED BY를 지정할 수 없습니다.
명시적 열 목록과 함께 양식을 사용하고 PARTITIONED BY를 지정하세요.
또는 PARTITION BY 절을 생략하여 분할을 유추할 수 있습니다.
SQL_CONF_NOT_FOUND
SQL 구성 <sqlConf>
을 찾을 수 없습니다. 구성이 있는지 확인하세요.
STAGING_PATH_CURRENTLY_INACCESSIBLE
대상 준비 경로 <path>
에 액세스하는 동안 일시적인 오류가 발생했습니다. 몇 분 후에 시도해 보세요.
STAR_GROUP_BY_POS
GROUP BY 서수 위치를 사용하는 경우 선택 목록에 별표(*)를 사용할 수 없습니다.
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_HANDLE_STATE
잘못된 핸들 상태=<handleState>
를 사용하여 상태 저장 프로세서 작업=<operationType>
을 수행하지 못했습니다.
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_TIME_MODE
잘못된 timeMode=를 사용하여 상태 저장 프로세서 작업=<operationType>
을 수행하지 못했습니다.<timeMode>
STATEFUL_PROCESSOR_CANNOT_REINITIALIZE_STATE_ON_KEY
상태 저장 프로세서에 대한 초기 상태 처리 중에는 동일한 그룹화 키의 상태를 다시 초기화할 수 없습니다. 잘못된 그룹화 키=<groupingKey>
입니다. 초기 상태를 확인하고, 중복 행을 제거하고, 쿼리를 다시 시작하세요.
STATEFUL_PROCESSOR_INCORRECT_TIME_MODE_TO_ASSIGN_TTL
timeMode=<timeMode>
에서 state=<stateName>
에 TTL을 사용할 수 없습니다. 대신 TimeMode.ProcessingTime()을 사용합니다.
STATEFUL_PROCESSOR_TTL_DURATION_MUST_BE_POSITIVE
State<stateName>
=의 상태 저장소 작업=<operationType>
TTL 기간은 0보다 커야 합니다.
STATE_STORE_CANNOT_CREATE_COLUMN_FAMILY_WITH_RESERVED_CHARS
지원되지 않는 시작 문자와 name=<colFamilyName>
을 사용하여 열 패밀리를 만들지 못했습니다.
STATE_STORE_CANNOT_USE_COLUMN_FAMILY_WITH_INVALID_NAME
이름=<colFamilyName>
이(가) 잘못된 열 패밀리 작업=<operationName>
을 수행하지 못했습니다. 열 패밀리 이름은 비워 둘 수 없거나 선행/후행 공백을 포함하거나 예약 키워드=default를 사용할 수 없습니다.
STATE_STORE_HANDLE_NOT_INITIALIZED
이 StatefulProcessor에 대한 핸들이 초기화되지 않았습니다.
transformWithState 연산자 내에서 StatefulProcessor만 사용하세요.
STATE_STORE_INCORRECT_NUM_ORDERING_COLS_FOR_RANGE_SCAN
범위 검색 인코더의 잘못된 순서 서수 수=<numOrderingCols>
순서 지정 서수의 수는 스키마 열 수보다 0이거나 클 수 없습니다.
STATE_STORE_INCORRECT_NUM_PREFIX_COLS_FOR_PREFIX_SCAN
접두사 검사 인코더에 대한 잘못된 접두사 열 수=<numPrefixCols>
접두사 열은 스키마 열의 num보다 크거나 같을 수 없습니다.
STATE_STORE_NULL_TYPE_ORDERING_COLS_NOT_SUPPORTED
이름=인덱스=<fieldName>
<index>
가 있는 Null 형식 순서 지정 열은 범위 검사 인코더에서 지원되지 않습니다.
STATE_STORE_UNSUPPORTED_OPERATION_ON_MISSING_COLUMN_FAMILY
State Store 작업=<operationType>
누락된 열 패밀리에서 지원되지 않음=<colFamilyName>
.
STATE_STORE_VARIABLE_SIZE_ORDERING_COLS_NOT_SUPPORTED
범위 검사 인코더에는 name=<fieldName>
(인덱스=<index>
)이 있는 변수 크기 순서 지정 열이 지원되지 않습니다.
STATIC_PARTITION_COLUMN_IN_INSERT_COLUMN_LIST
정적 파티션 열 <staticName>
도 열 목록에 지정됩니다.
STDS_COMMITTED_BATCH_UNAVAILABLE
커밋된 일괄 처리를 찾을 수 없습니다. 검사점 위치: <checkpointLocation>
. 중지하기 전에 쿼리가 실행되고 마이크로배치를 커밋했는지 확인합니다.
STDS_CONFLICT_OPTIONS
옵션을 <options>
함께 지정할 수 없습니다. 지정하십시오.
STDS_FAILED_TO_READ_STATE_SCHEMA
상태 스키마를 읽지 못했습니다. 파일이 없거나 파일이 손상되었습니다. options: <sourceOptions>
.
스트리밍 쿼리를 다시 실행하여 상태 스키마를 구성하고 오류가 지속되는 경우 해당 커뮤니티 또는 공급업체에 보고합니다.
STDS_INVALID_OPTION_VALUE
원본 옵션 ''<optionName>
의 값이 잘못되었습니다.
자세한 내용은 STDS_INVALID_OPTION_VALUE 참조하세요 .
STDS_NO_PARTITION_DISCOVERED_IN_STATE_STORE
상태에 파티션이 없습니다. 쿼리가 유효한 상태를 가리키는지 다시 확인하세요. 옵션: <sourceOptions>
STDS_OFFSET_LOG_UNAVAILABLE
오프 <batchId>
셋 로그가 없습니다. 검사점 위치: <checkpointLocation>
.
쿼리에 사용할 수 있는 일괄 처리 ID를 지정하세요. 상태 메타데이터 데이터 원본을 사용하여 사용 가능한 일괄 처리 ID를 쿼리할 수 있습니다.
STDS_OFFSET_METADATA_LOG_UNAVAILABLE
검사점 위치에 <checkpointLocation>
대한 오프셋 로그에는 메타데이터를 <batchId>
사용할 수 없습니다.
검사점은 이전 Spark 버전에서만 실행되는 것 같습니다. Spark가 상태 메타데이터를 생성할 수 있도록 최신 Spark 버전으로 스트리밍 쿼리를 실행합니다.
STDS_REQUIRED_OPTION_UNSPECIFIED
'<optionName>
'을(를) 지정해야 합니다.
STREAMING_AQE_NOT_SUPPORTED_FOR_STATEFUL_OPERATORS
구조적 스트리밍의 상태 저장 연산자는 적응 쿼리 실행을 지원하지 않습니다.
STREAMING_FROM_MATERIALIZED_VIEW
구체화된 뷰 <viewName>
에서 스트리밍할 수 없습니다. 구체화된 뷰의 스트리밍은 지원되지 않습니다.
STREAMING_STATEFUL_OPERATOR_NOT_MATCH_IN_STATE_METADATA
스트리밍 상태 저장 연산자 이름이 상태 메타데이터의 연산자 이름과 일치하지 않습니다. 이는 사용자가 기존 스트리밍 쿼리의 상태 저장 연산자를 추가/제거/변경할 때 발생할 수 있습니다.
메타데이터의 상태 저장 연산자: [<OpsInMetadataSeq>
]; 현재 일괄 처리의 상태 저장 연산자: [<OpsInCurBatchSeq>
].
STREAMING_TABLE_NEEDS_REFRESH
스트리밍 테이블을 <tableName>
새로 고쳐야 합니다. CREATE 또는 REFRESH STREAMING TABLE <tableName>
AS를 실행하여 테이블을 업데이트하세요.
STREAMING_TABLE_NOT_SUPPORTED
스트리밍 테이블은 Delta Live Tables 및 Databricks SQL Warehouse에서만 만들고 새로 고칠 수 있습니다.
STREAMING_TABLE_OPERATION_NOT_ALLOWED
작업은 <operation>
허용되지 않습니다.
자세한 내용은 STREAMING_TABLE_OPERATION_NOT_ALLOWED를 참조하세요.
STREAMING_TABLE_QUERY_INVALID
스트리밍 테이블 <tableName>
은 스트리밍 쿼리에서만 만들 수 있습니다. STREAM 키워드를 FROM 절에 추가하여 이 관계를 스트리밍 쿼리로 전환하세요.
STREAM_NOT_FOUND_FOR_KINESIS_SOURCE
키네시스 스트림 <streamName>
을 <region>
찾을 수 없습니다.
올바른 스트림 이름을 가리키는 새 쿼리를 시작하세요.
STRUCT_ARRAY_LENGTH_MISMATCH
입력 행에는 스키마에 필요한 예상 값 수가 없습니다. <expected>
값이 제공되는 동안 <actual>
에는 필드가 필요합니다.
SUM_OF_LIMIT_AND_OFFSET_EXCEEDS_MAX_INT
LIMIT 절과 OFFSET 절의 합계는 최대 32비트 정수 값(2,147,483,647)보다 크지 않아야 하지만 found limit = <limit>
, offset = <offset>
.
SYNC_METADATA_DELTA_ONLY
복구 테이블 동기화 메타데이터 명령은 델타 테이블에 대해서만 지원됩니다.
SYNC_METADATA_NOT_SUPPORTED
복구 테이블 동기화 메타데이터 명령은 Unity 카탈로그 테이블에 대해서만 지원됩니다.
SYNC_SRC_TARGET_TBL_NOT_SAME
원본 테이블 이름은 <srcTable>
대상 테이블 이름과 <destTable>
동일해야 합니다.
SYNTAX_DISCONTINUED
절 또는 키워드 지원: <clause>
이 컨텍스트에서 중단되었습니다.
자세한 내용은 SYNTAX_DISCONTINUED 참조 하세요.
TABLE_OR_VIEW_ALREADY_EXISTS
테이블 또는 뷰 <relationName>
가 이미 있으므로 만들 수 없습니다.
다른 이름을 선택하거나, 기존 개체를 삭제하거나, 기존 개체를 허용할 IF NOT EXISTS 절을 추가하거나, OR REPLACE 절을 추가하여 기존 구체화된 뷰를 대체하거나, OR REFRESH 절을 추가하여 기존 스트리밍 테이블을 새로 고칩니다.
TABLE_OR_VIEW_NOT_FOUND
테이블 또는 뷰를 <relationName>
찾을 수 없습니다. 스키마 및 카탈로그의 맞춤법과 정확성을 확인합니다.
스키마로 이름을 한정하지 않은 경우 current_schema() 출력을 확인하거나 올바른 스키마 및 카탈로그로 이름을 한정합니다.
드롭 시 오류를 허용하려면 DROP VIEW IF EXISTS 또는 DROP TABLE IF EXISTS를 사용합니다.
자세한 내용은 TABLE_OR_VIEW_NOT_FOUND 참조 하세요.
TABLE_VALUED_ARGUMENTS_NOT_YET_IMPLEMENTED_FOR_SQL_FUNCTIONS
이 기능은 아직 구현되지 않았기 때문에 TABLE 인수를 사용하여 SQL 사용자 정의 함수 <functionName>
를 사용할 수 없습니다<action>
.
TABLE_VALUED_FUNCTION_FAILED_TO_ANALYZE_IN_PYTHON
Python 사용자 정의 테이블 함수를 분석하지 못했습니다. <msg>
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INCOMPATIBLE_WITH_CALL
테이블 메타데이터<requestedMetadata>
로 인해 테이블 함수 <functionName>
를 평가하지 못했지만 함수는 호출<invalidFunctionCallProperty>
합니다.
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INVALID
테이블 메타데이터가 잘못<reason>
되었으므로 테이블 함수 <functionName>
를 평가하지 못했습니다.
TABLE_VALUED_FUNCTION_TOO_MANY_TABLE_ARGUMENTS
테이블 반환 함수에 대한 테이블 인수가 너무 많습니다.
하나의 테이블 인수를 허용하지만 다음과 <num>
같습니다.
허용하려면 "spark.sql.allowMultipleTableArguments.enabled"를 "true"로 설정하세요.
TABLE_WITH_ID_NOT_FOUND
ID <tableId>
가 있는 테이블을 찾을 수 없습니다. UUID의 정확성을 확인합니다.
TASK_WRITE_FAILED
에 행을 쓰는 동안 작업이 실패했습니다 <path>
.
TEMP_TABLE_OR_VIEW_ALREADY_EXISTS
임시 뷰 <relationName>
가 이미 있으므로 만들 수 없습니다.
다른 이름을 선택하거나, 기존 보기를 삭제 또는 바꾸거나, 기존 보기를 허용하도록 IF NOT EXISTS 절을 추가합니다.
TEMP_VIEW_NAME_TOO_MANY_NAME_PARTS
CREATE TEMPORARY VIEW 또는 해당 데이터 세트 API는 단일 파트 뷰 이름만 허용하지만 다음을 받았습니다 <actualName>
.
TWS_VALUE_SHOULD_NOT_BE_NULL
새 값은 에 대해 null이 아니어야 합니다. <typeOfState>
UC_BUCKETED_TABLES
버킷 테이블은 Unity 카탈로그에서 지원되지 않습니다.
UC_CATALOG_NAME_NOT_PROVIDED
Unity 카탈로그의 경우 카탈로그 이름을 명시적으로 지정해야 합니다. 예: SHOW GRANT your.address@email.com
ON CATALOG main.
UC_COMMAND_NOT_SUPPORTED
<commandName>
명령은 Unity 카탈로그에서 지원되지 않습니다.
자세한 내용은 UC_COMMAND_NOT_SUPPORTED 참조 하세요.
UC_DATASOURCE_NOT_SUPPORTED
데이터 원본 형식 <dataSourceFormatName>
은 Unity 카탈로그에서 지원되지 않습니다.
UC_DATASOURCE_OPTIONS_NOT_SUPPORTED
데이터 원본 옵션은 Unity 카탈로그에서 지원되지 않습니다.
UC_EXTERNAL_VOLUME_MISSING_LOCATION
외부 볼륨의 경우 LOCATION 절이 있어야 합니다. 'CREATE EXTERNAL VOLUME ... 위치 ...' 외부 볼륨을 만드는 데 사용할 수 있습니다.
UC_FAILED_PROVISIONING_STATE
쿼리가 테이블을 <tableName>
참조하려고 했지만 쿼리를 참조 <failureReason>
할 수 없어 실패했습니다. 테이블을 <tableName>
업데이트하여 활성 프로비저닝 상태인지 확인하고 쿼리를 다시 시도하세요.
UC_FILE_SCHEME_FOR_TABLE_CREATION_NOT_SUPPORTED
파일 구성표를 <schemeName>
사용하여 Unity 카탈로그에서 테이블을 만드는 것은 지원되지 않습니다.
대신 동일한 테이블 공급자에 대해 CREATE CONNECTION 명령을 사용하여 페더레이션된 데이터 원본 연결을 만든 다음 CREATE FOREIGN CATALOG 명령을 사용하여 연결에 따라 카탈로그를 만들어 해당 테이블을 참조하세요.
UC_HIVE_METASTORE_FEDERATION_NOT_ENABLED
이 클러스터에서는 Hive Metastore 페더레이션을 사용할 수 없습니다.
카탈로그 액세스 <catalogName>
는 이 클러스터에서 지원되지 않습니다.
UC_INVALID_DEPENDENCIES
종속성은 <viewName>
로 구문 분석되는 동안으로 <storedDeps>
기록됩니다 <parsedDeps>
. 이 오류는 SQL이 아닌 API를 부적절하게 사용하여 발생했을 수 있습니다. ALTER VIEW <viewName>
AS <viewText>
를 실행하여 Databricks 런타임에서 종속성을 복구할 수 있습니다.
UC_INVALID_NAMESPACE
Unity 카탈로그에서는 중첩 또는 빈 네임스페이스가 지원되지 않습니다.
UC_INVALID_REFERENCE
Unity 카탈로그가 아닌 개체는 Unity 카탈로그 개체 <name>
에서 참조할 수 없습니다.
UC_LAKEHOUSE_FEDERATION_WRITES_NOT_ALLOWED
이 클러스터의 공급자 <provider>
에 대한 Unity Catalog Lakehouse 페더레이션 쓰기 지원을 사용할 수 없습니다.
UC_LOCATION_FOR_MANAGED_VOLUME_NOT_SUPPORTED
관리되는 볼륨은 LOCATION 절을 허용하지 않습니다. 'CREATE VOLUME ...' 구문을 확인하세요. 관리되는 볼륨을 만드는 데 사용할 수 있습니다.
UC_NOT_ENABLED
Unity 카탈로그는 이 클러스터에서 사용되지 않습니다.
UC_QUERY_FEDERATION_NOT_ENABLED
이 클러스터에서는 Unity 카탈로그 쿼리 페더레이션을 사용할 수 없습니다.
UC_VOLUMES_NOT_ENABLED
이 인스턴스에서는 Unity 카탈로그 볼륨에 대한 지원을 사용할 수 없습니다.
UC_VOLUMES_SHARING_NOT_ENABLED
볼륨 공유에 대한 지원은 이 인스턴스에서 사용할 수 없습니다.
UC_VOLUME_NOT_FOUND
볼륨 <name>
이 없습니다. 사용 가능한 볼륨을 나열하려면 'SHOW VOLUMES'를 사용하세요.
UDF_ERROR
SQLSTATE: 할당된 항목 없음
함수 <fn>
실행 실패
자세한 내용은 UDF_ERROR 참조 하세요.
UDF_LIMITS
하나 이상의 UDF 제한을 위반했습니다.
자세한 내용은 UDF_LIMITS 참조하세요 .
UDF_MAX_COUNT_EXCEEDED
UDF의 <maxNumUdfs>
쿼리 전체 UDF 제한을 초과했습니다(공개 미리 보기 중에 제한됨). 를 찾았습니다 <numUdfs>
. UDF는 다음과 <udfNames>
같습니다.
UDF_PYSPARK_UNSUPPORTED_TYPE
PySpark UDF <udf>
(<eval-type>
)는 공유 액세스 모드의 클러스터에서 지원되지 않습니다.
UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE
매개 변수 기본값은 사용자 정의 <functionType>
함수에 대해 지원되지 않습니다.
UDF_USER_CODE_ERROR
함수 <fn>
를 실행하지 못했습니다.
자세한 내용은 UDF_USER_CODE_ERROR 참조 하세요.
UDTF_ALIAS_NUMBER_MISMATCH
AS 절에 제공된 별칭 수가 UDTF에서 출력하는 열 수와 일치하지 않습니다.
예상 <aliasesSize>
별칭이지만.<aliasesNames>
제공된 별칭 수가 UDTF의 출력 열 수와 일치하는지 확인하세요.
UDTF_INVALID_ALIAS_IN_REQUESTED_ORDERING_STRING_FROM_ANALYZE_METHOD
'analyze' 메서드가 열 이름 식에 불필요한 별칭이 포함된 요청된 OrderingColumn을 반환했기 때문에 사용자 정의 테이블 함수를 평가하지 못했습니다. 이 별 <aliasName>
칭을 제거한 다음 쿼리를 다시 시도하세요.
UDTF_INVALID_REQUESTED_SELECTED_EXPRESSION_FROM_ANALYZE_METHOD_REQUIRES_ALIAS
'analyze' 메서드가 해당 별칭을 포함하지 않는 요청된 'select' 식(<expression>
)을 반환했기 때문에 사용자 정의 테이블 함수를 평가하지 못했습니다. UDTF를 업데이트하여 별칭을 지정한 다음 쿼리를 다시 시도하세요.
UDTF_PYSPARK_NOT_SUPPORTED
PySpark UDTF는 공유 액세스 모드의 클러스터에서 지원되지 않습니다. 계속하려면 단일 사용자 클러스터를 대신 만들고 Notebook을 다시 실행하세요.
UNABLE_TO_ACQUIRE_MEMORY
메모리 바이트를 가져올 <requestedBytes>
수 없습니다.<receivedBytes>
UNABLE_TO_CONVERT_TO_PROTOBUF_MESSAGE_TYPE
SQL 형식을 Protobuf 형식 <toType>
<protobufType>
으로 변환할 수 없습니다.
UNABLE_TO_FETCH_HIVE_TABLES
Hive 데이터베이스 <dbName>
의 테이블을 가져올 수 없습니다. . 오류 클래스 이름: <className>
.
UNABLE_TO_INFER_SCHEMA
에 대한 스키마를 <format>
유추할 수 없습니다. 수동으로 지정해야 합니다.
UNAUTHORIZED_ACCESS
권한 없는 액세스:
<report>
UNBOUND_SQL_PARAMETER
언바운드 매개 변수 <name>
를 찾았습니다. SQL 리터럴 또는 컬렉션 생성자 함수(예: map()
, array()
struct()
)에 대한 매개 변수 매핑을 수정 args
하고 제공합니다.
UNCLOSED_BRACKETED_COMMENT
닫히지 않은 괄호로 묶인 댓글을 찾았습니다. 주석 끝에 */를 추가하세요.
UNEXPECTED_INPUT_TYPE
함수 매개 변수 <paramIndex>
에는 형식이 <requiredType>
필요하지만 <inputSql>
형식<inputType>
이 <functionName>
있습니다.
UNEXPECTED_OPERATOR_IN_STREAMING_VIEW
스트리밍 원본으로 CREATE VIEW 문의 예기치 않은 연산 <op>
자입니다.
스트리밍 뷰 쿼리는 SELECT, WHERE 및 UNION ALL 작업으로만 구성되어야 합니다.
UNEXPECTED_POSITIONAL_ARGUMENT
함수에 할당된 명명된 인수 다음에 위치 인수가 포함되어 있으므로 함수 <functionName>
를 호출할 <parameterName>
수 없습니다. 위치 인수가 먼저 오도록 다시 정렬한 다음 쿼리를 다시 시도하세요.
UNEXPECTED_SERIALIZER_FOR_CLASS
클래스 <className>
에 예기치 않은 식 serializer가 있습니다. "STRUCT
"를 반환하지만 찾<expr>
은 "" 또는 "STRUCT
IF"가 필요합니다.
UNKNOWN_FIELD_EXCEPTION
구문 분석 <unknownFieldBlob>
하는 동안 알 수 없는 필드가 발견되었습니다. 자동 재시도로 수정할 수 있습니다. <isRetryable>
자세한 내용은 UNKNOWN_FIELD_EXCEPTION 참조 하세요.
UNKNOWN_POSITIONAL_ARGUMENT
함수 <functionName>
호출에는 위치에 <pos>
알 수 없는 위치 인수 <sqlExpr>
가 포함됩니다. 유효하지 않습니다.
UNKNOWN_PROTOBUF_MESSAGE_TYPE
메시지로 처리 <descriptorName>
하려고 시도했지만 메시지였습니다 <containingType>
.
UNPIVOT_REQUIRES_ATTRIBUTES
UNPIVOT에서는 식이 지정되지 않은 <empty>
경우 지정된 <given>
모든 식이 열이 되어야 합니다. 다음은 열이 아닙니다. [<expressions>
].
UNPIVOT_REQUIRES_VALUE_COLUMNS
ID로 지정된 모든 열인 UNPIVOT에 대해 하나 이상의 값 열을 지정해야 합니다.
UNPIVOT_VALUE_DATA_TYPE_MISMATCH
피벗 해제 값 열은 최소 공통 형식을 공유해야 합니다. 일부 형식은 그렇지 않습니다. [<types>
].
UNPIVOT_VALUE_SIZE_MISMATCH
모든 피벗 해제 값 열의 크기는 값 열 이름(<names>
)과 같아야 합니다.
UNRECOGNIZED_PARAMETER_NAME
함수 <functionName>
호출에 명명 <argumentName>
된 인수에 대한 명명된 인수 참조가 포함되어 있으므로 함수를 호출할 수 없지만 이 함수는 이 이름의 인수를 포함하는 서명을 포함하지 않습니다. 다음 중 하나를 원하셨나요? [<proposal>
].
UNRECOGNIZED_SQL_TYPE
인식할 수 없는 SQL 형식 - 이름: <typeName>
, id: <jdbcType>
.
UNRESOLVABLE_TABLE_VALUED_FUNCTION
테이블 반환 함수를 확인할 <name>
수 없습니다.
테이블 반환 함수로 정의되고 필요한 모든 매개 변수가 올바르게 제공되는지 확인 <name>
하세요.
정의되지 않은 경우 <name>
사용하기 전에 테이블 반환 함수를 만드세요.
테이블 반환 함수 정의에 대한 자세한 내용은 Apache Spark 설명서를 참조하세요.
UNRESOLVED_ALL_IN_GROUP_BY
select 절을 기반으로 GROUP BY ALL에 대한 그룹화 열을 유추할 수 없습니다. 그룹화 열을 명시적으로 지정하세요.
UNRESOLVED_COLUMN
이름을 <objectName>
가진 열, 변수 또는 함수 매개 변수를 확인할 수 없습니다.
자세한 내용은 UNRESOLVED_COLUMN을 참조하세요.
UNRESOLVED_FIELD
이름이 <fieldName>
있는 필드는 구조체 형식 열 <columnPath>
로 확인할 수 없습니다.
자세한 내용은 UNRESOLVED_FIELD를 참조하세요.
UNRESOLVED_MAP_KEY
열을 <objectName>
지도 키로 확인할 수 없습니다. 키가 문자열 리터럴인 경우 주위에 작은따옴표 ''를 추가합니다.
자세한 내용은 UNRESOLVED_MAP_KEY를 참조하세요.
UNRESOLVED_ROUTINE
검색 경로<searchPath>
에서 함수 <routineName>
를 확인할 수 없습니다.
자세한 내용은 UNRESOLVED_ROUTINE 참조 하세요.
UNRESOLVED_USING_COLUMN_FOR_JOIN
USING 열 <colName>
은 조인 쪽에서 <side>
확인할 수 없습니다. <side>
-side 열: [<suggestion>
].
UNRESOLVED_VARIABLE
검색 경로<searchPath>
에서 변수 <variableName>
를 확인할 수 없습니다.
UNSET_NONEXISTENT_PROPERTIES
테이블에서 <table>
존재하지 않는 속성 [<properties>
]을 설정 해제하려고 했습니다.
UNSUPPORTED_ADD_FILE
파일 추가를 지원하지 않습니다.
자세한 내용은 UNSUPPORTED_ADD_FILE 참조 하세요.
UNSUPPORTED_ARROWTYPE
지원되지 않는 화살표 유형 <typeName>
입니다.
UNSUPPORTED_BATCH_TABLE_VALUED_FUNCTION
함수 <funcName>
는 일괄 처리 쿼리를 지원하지 않습니다.
UNSUPPORTED_CALL
클래스 ""의 메서드 "<methodName>
<className>
"를 호출할 수 없습니다.
자세한 내용은 UNSUPPORTED_CALL 참조하세요 .
UNSUPPORTED_CHAR_OR_VARCHAR_AS_STRING
char/varchar 형식은 테이블 스키마에서 사용할 수 없습니다.
Spark를 Spark 3.0 이하와 동일한 문자열 형식으로 처리하려면 "spark.sql.legacy.charVarcharAsString"을 "true"로 설정하세요.
UNSUPPORTED_CLAUSE_FOR_OPERATION
에 <clause>
대해 <operation>
지원되지 않습니다.
UNSUPPORTED_COLLATION
데이터 정렬 <collationName>
은 다음에서 지원되지 않습니다.
자세한 내용은 UNSUPPORTED_COLLATION 참조 하세요.
UNSUPPORTED_COMMON_ANCESTOR_LOC_FOR_FILE_STREAM_SOURCE
원본 경로 및 sourceArchiveDir의 공통 상위 항목은 UC에 등록되어야 합니다.
이 오류 메시지가 표시되면 원본 경로 및 sourceArchiveDir을 다른 외부 위치에 등록할 가능성이 높습니다.
단일 외부 위치에 배치하세요.
UNSUPPORTED_CONSTRAINT_CLAUSES
제약 조건 절은 <clauses>
지원되지 않습니다.
UNSUPPORTED_CONSTRAINT_TYPE
지원되지 않는 제약 조건 형식입니다. 만 <supportedConstraintTypes>
지원됩니다.
UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY
파일에 대한 직접 쿼리에 지원되지 않는 데이터 원본 형식: <dataSourceType>
UNSUPPORTED_DATATYPE
지원되지 않는 데이터 형식 <typeName>
.
UNSUPPORTED_DATA_SOURCE_SAVE_MODE
데이터 원본 "<source>
"은(는) 모드에서 <createMode>
작성할 수 없습니다. 대신 "추가" 또는 "덮어쓰기" 모드를 사용하세요.
UNSUPPORTED_DATA_TYPE_FOR_DATASOURCE
데이터 원본은 <format>
형식<columnType>
의 열을 <columnName>
지원하지 않습니다.
UNSUPPORTED_DEFAULT_VALUE
DEFAULT 열 값은 지원되지 않습니다.
자세한 내용은 UNSUPPORTED_DEFAULT_VALUE 참조 하세요.
UNSUPPORTED_DESERIALIZER
역직렬 변환기는 지원되지 않습니다.
자세한 내용은 UNSUPPORTED_DESERIALIZER를 참조하세요.
UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
생성 식을 <expressionStr>
<reason>
사용하여 생성된 열을 <fieldName>
만들 수 없습니다.
UNSUPPORTED_EXPR_FOR_OPERATOR
쿼리 연산자에는 지원되지 않는 식이 하나 이상 포함되어 있습니다.
WHERE 절의 창 함수, 집계 함수 및 생성기 함수를 방지하려면 이 함수를 다시 작성해야 합니다.
잘못된 식: [<invalidExprSqls>
]
UNSUPPORTED_EXPR_FOR_PARAMETER
쿼리 매개 변수에는 지원되지 않는 식이 포함됩니다.
매개 변수는 변수 또는 리터럴일 수 있습니다.
잘못된 식: [<invalidExprSql>
]
UNSUPPORTED_EXPR_FOR_WINDOW
<sqlExpr>
창 함수 내에서는 식이 지원되지 않습니다.
UNSUPPORTED_FEATURE
이 기능은 지원되지 않습니다.
자세한 내용은 UNSUPPORTED_FEATURE를 참조하세요.
UNSUPPORTED_FN_TYPE
지원되지 않는 사용자 정의 함수 형식: <language>
UNSUPPORTED_GENERATOR
생성기는 지원되지 않습니다.
자세한 내용은 UNSUPPORTED_GENERATOR를 참조하세요.
UNSUPPORTED_GROUPING_EXPRESSION
grouping()/grouping_id()는 GroupingSets/Cube/Rollup에서만 사용할 수 있습니다.
UNSUPPORTED_INITIAL_POSITION_AND_TRIGGER_PAIR_FOR_KINESIS_SOURCE
<trigger>
초기 위치 <initialPosition>
는 Kinesis 원본에서 지원되지 않습니다.
UNSUPPORTED_INSERT
대상에 삽입할 수 없습니다.
자세한 내용은 UNSUPPORTED_INSERT 참조 하세요.
UNSUPPORTED_MANAGED_TABLE_CREATION
데이터 원본 <dataSource>
을 사용하여 관리되는 테이블을 <tableName>
만드는 것은 지원되지 않습니다. CREATE EXTERNAL TABLE을 사용하여 데이터 원본 DELTA를 사용하거나 외부 테이블을 만들어야 합니다 <tableName>
. 사용 <dataSource>
중...
UNSUPPORTED_MERGE_CONDITION
MERGE 작업에는 지원되지 않는 조건이 포함됩니다 <condName>
.
자세한 내용은 UNSUPPORTED_MERGE_CONDITION 참조하세요 .
UNSUPPORTED_NESTED_ROW_OR_COLUMN_ACCESS_POLICY
테이블에 <tableName>
는 행 수준 보안 정책 또는 열 마스크가 있는 다른 테이블을 간접적으로 참조하는 행 수준 보안 정책 또는 열 마스크가 있습니다. 이는 지원되지 않습니다. 호출 순서: <callSequence>
UNSUPPORTED_OVERWRITE
읽는 대상도 덮어쓸 수 없습니다.
자세한 내용은 UNSUPPORTED_OVERWRITE 참조하세요 .
UNSUPPORTED_SAVE_MODE
저장 모드 <saveMode>
는 다음에서 지원되지 않습니다.
자세한 내용은 UNSUPPORTED_SAVE_MODE를 참조하세요.
UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
보기를 스트리밍하는 데 지원되지 않습니다. 원인:
자세한 내용은 UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW 참조 하세요.
UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED
공유 클러스터의 데이터 원본 <source>
에는 스트리밍 옵션이 <options>
지원되지 않습니다.
UNSUPPORTED_STREAMING_SINK_PERMISSION_ENFORCED
데이터 원본 <sink>
은 공유 클러스터에서 스트리밍 싱크로 지원되지 않습니다.
UNSUPPORTED_STREAMING_SOURCE_PERMISSION_ENFORCED
데이터 원본 <source>
는 공유 클러스터에서 스트리밍 원본으로 지원되지 않습니다.
UNSUPPORTED_STREAMING_TABLE_VALUED_FUNCTION
이 함수 <funcName>
는 스트리밍을 지원하지 않습니다. STREAM 키워드를 삭제하세요.
UNSUPPORTED_STREAM_READ_LIMIT_FOR_KINESIS_SOURCE
<streamReadLimit>
는 Kinesis 원본에서 지원되지 않습니다.
UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
지원되지 않는 하위 쿼리 식:
자세한 내용은 UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY를 참조하세요.
UNSUPPORTED_TIMESERIES_COLUMNS
시간 열이 있는 기본 키 만들기는 지원되지 않습니다.
UNSUPPORTED_TIMESERIES_WITH_MORE_THAN_ONE_COLUMN
둘 이상의 시간 열 <colSeq>
이 있는 기본 키 만들기는 지원되지 않습니다.
UNSUPPORTED_TRIGGER_FOR_KINESIS_SOURCE
<trigger>
는 Kinesis 원본에서 지원되지 않습니다.
UNSUPPORTED_TYPED_LITERAL
형식 <unsupportedType>
의 리터럴은 지원되지 않습니다. 지원되는 형식은 <supportedTypes>
입니다.
UNTYPED_SCALA_UDF
입력 형식 정보가 없는 형식화되지 않은 Scala UDF를 사용하고 있습니다.
Spark는 기본 형식 인수를 사용하여 Scala 클로저에 null을 맹목적으로 전달할 수 있으며, 클로저에서는 null 인수에 대한 Java 형식의 기본값(예: udf((x: Int) => x, IntegerType)
)을 보게 됩니다. null 입력의 결과는 0입니다. 이 오류를 제거하려면 다음을 수행하면 됩니다.
- 형식화된 Scala UDF API(반환 형식 매개 변수 제외)를 사용합니다(예: .)
udf((x: Int) => x)
- 입력 형식이 모두 기본 형식이 아닌 경우와 같이
udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType)
Java UDF API를 사용합니다. - "spark.sql.legacy.allowUntypedScalaUDF"를 "true"로 설정하고 이 API를 주의해서 사용합니다.
UPGRADE_NOT_SUPPORTED
테이블은 Hive 메타스토어에서 Unity 카탈로그로 업그레이드할 수 없습니다. 원인:
자세한 내용은 UPGRADE_NOT_SUPPORTED를 참조하세요.
USER_DEFINED_FUNCTIONS
사용자 정의 함수가 유효하지 않습니다.
자세한 내용은 USER_DEFINED_FUNCTIONS를 참조하세요.
USER_RAISED_EXCEPTION
<errorMessage>
USER_RAISED_EXCEPTION_PARAMETER_MISMATCH
이 함수는 raise_error()
매개 변수<expectedParms>
를 예상하는 오류 클래스 <errorClass>
를 발생시키는 데 사용되었습니다.
제공된 매개 변수가 예상 매개 변수 <providedParms>
와 일치하지 않습니다.
모든 예상 매개 변수를 제공해야 합니다.
USER_RAISED_EXCEPTION_UNKNOWN_ERROR_CLASS
이 함수는 raise_error()
알 수 없는 오류 클래스를 발생하는 데 사용되었습니다. <errorClass>
VARIABLE_ALREADY_EXISTS
변수 <variableName>
가 이미 있으므로 만들 수 없습니다.
다른 이름을 선택하거나 기존 변수를 삭제하거나 바꿉다.
VARIABLE_NOT_FOUND
변수 <variableName>
를 찾을 수 없습니다. 스키마 및 카탈로그의 맞춤법과 정확성을 확인합니다.
스키마 및 카탈로그로 이름을 한정하지 않은 경우 current_schema() 출력을 확인하거나 올바른 스키마 및 카탈로그로 이름을 한정합니다.
삭제 시 오류를 허용하려면 DROP VARIABLE IF EXISTS를 사용합니다.
VARIANT_CONSTRUCTOR_SIZE_LIMIT
16MiB보다 큰 Variant를 생성할 수 없습니다. Variant 값의 허용되는 최대 크기는 16MiB입니다.
VARIANT_DUPLICATE_KEY
중복 개체 키 <key>
로 인해 변형을 빌드하지 못했습니다.
VARIANT_SIZE_LIMIT
에서보다 <sizeLimit>
큰 변형을 <functionName>
빌드할 수 없습니다.
이 식에 큰 입력 문자열을 사용하지 마세요(예: 함수 호출을 추가하여 식 크기를 확인하고 너무 큰 경우 먼저 NULL로 변환).
VIEW_ALREADY_EXISTS
뷰 <relationName>
가 이미 있으므로 만들 수 없습니다.
다른 이름을 선택하거나, 기존 개체를 삭제 또는 바꾸거나, IF NOT EXISTS 절을 추가하여 기존 개체를 허용합니다.
VIEW_EXCEED_MAX_NESTED_DEPTH
뷰 <viewName>
깊이가 최대 뷰 해상도 깊이(<maxNestedDepth>
)를 초과합니다.
오류를 방지하기 위해 분석이 중단됩니다. 이 작업을 수행하려면 "spark.sql.view.maxNestedViewDepth" 값을 늘리세요.
VIEW_NOT_FOUND
보기를 <relationName>
찾을 수 없습니다. 스키마 및 카탈로그의 맞춤법과 정확성을 확인합니다.
스키마로 이름을 한정하지 않은 경우 current_schema() 출력을 확인하거나 올바른 스키마 및 카탈로그로 이름을 한정합니다.
드롭 시 오류를 허용하려면 DROP VIEW IF EXISTS를 사용합니다.
VOLUME_ALREADY_EXISTS
볼륨 <relationName>
이 이미 있으므로 만들 수 없습니다.
다른 이름을 선택하거나, 기존 개체를 삭제 또는 바꾸거나, IF NOT EXISTS 절을 추가하여 기존 개체를 허용합니다.
WINDOW_FUNCTION_AND_FRAME_MISMATCH
<funcName>
함수는 단일 오프셋 <windowExpr>
이 있는 순서가 지정된 행 기반 창 프레임에서만 계산할 수 있습니다.
WINDOW_FUNCTION_WITHOUT_OVER_CLAUSE
Window 함수 <funcName>
에는 OVER 절이 필요합니다.
WITH_CREDENTIAL
WITH CREDENTIAL 구문은 지원되지 않습니다 <type>
.
WRITE_STREAM_NOT_ALLOWED
writeStream
은 스트리밍 Dataset/DataFrame에서만 호출할 수 있습니다.
WRONG_COLUMN_DEFAULTS_FOR_DELTA_ALTER_TABLE_ADD_COLUMN_NOT_SUPPORTED
새 값을 추가할 때 DEFAULT 값이 지원되지 않으므로 명령을 실행하지 못했습니다.
기존 델타 테이블에 대한 열; 기본값 없이 열을 추가하세요.
값을 먼저 실행한 다음 두 번째 ALTER TABLE ALTER COLUMN SET DEFAULT 명령을 실행하여 적용합니다.
나중에 삽입된 행을 대신 사용합니다.
WRONG_COLUMN_DEFAULTS_FOR_DELTA_FEATURE_NOT_ENABLED
기본값 열이 할당되어 명령을 실행 <commandType>
하지 못했습니다.
하지만 해당 테이블 기능을 사용할 수 없습니다. 명령을 다시 시도하세요.
ALTER TABLE tableName SET를 실행한 후
TBLPROPERTIES('delta.feature.allowColumnDefaults' = 'supported').
WRONG_COMMAND_FOR_OBJECT_TYPE
작업에 <operation>
는 .가 <requiredType>
필요합니다. 그러나 <objectName>
a입니다 <foundType>
. 대신 <alternative>
를 사용하세요.
WRONG_NUM_ARGS
<functionName>
매개 변수가 <expectedNum>
필요하지만 실제 숫자는 .입니다<actualNum>
.
자세한 내용은 WRONG_NUM_ARGS를 참조하세요.
XML_ROW_TAG_MISSING
<rowTag>
옵션은 XML 형식의 파일을 읽는 데 필요합니다.
XML_UNSUPPORTED_NESTED_TYPES
XML은 내부 형식<dataType>
으로 지원 <innerDataType>
되지 않습니다. 내부를 <innerDataType>
사용할 <dataType>
때는 StructType 필드를 래핑하세요.
XML_WILDCARD_RESCUED_DATA_CONFLICT_ERROR
복구된 데이터 및 와일드카드 열을 동시에 사용할 수 없습니다. 와일드카드ColumnName 옵션을 제거합니다.
ZORDERBY_COLUMN_DOES_NOT_EXIST
ZOrderBy 열 <columnName>
이 없습니다.
Delta Lake
DELTA_ACTIVE_SPARK_SESSION_NOT_FOUND
활성 SparkSession을 찾을 수 없음
DELTA_ACTIVE_TRANSACTION_ALREADY_SET
이미 활성 상태인 경우 새 txn을 활성으로 설정할 수 없음
DELTA_ADDING_COLUMN_WITH_INTERNAL_NAME_FAILED
이름이 예약되어 있으므로 열을 <colName>
추가하지 못했습니다.
DELTA_ADDING_DELETION_VECTORS_DISALLOWED
현재 작업에서 새 삭제 벡터를 만들 수 없는 테이블에 삭제 벡터를 추가하려고 했습니다. 버그 보고서를 제출하세요.
DELTA_ADDING_DELETION_VECTORS_WITH_TIGHT_BOUNDS_DISALLOWED
삭제 벡터를 추가하는 모든 작업은 통계의 tightBounds 열을 false로 설정해야 합니다. 버그 보고서를 제출하세요.
DELTA_ADD_COLUMN_AT_INDEX_LESS_THAN_ZERO
열을 <columnName>
추가할 인덱 <columnIndex>
스가 0보다 낮음
DELTA_ADD_COLUMN_PARENT_NOT_STRUCT
해당 부모가 StructType이 아니므로 추가할 <columnName>
수 없습니다. 설립하다 <other>
DELTA_ADD_COLUMN_STRUCT_NOT_FOUND
위치에 구조체를 찾을 수 없음 <position>
DELTA_ADD_CONSTRAINTS
ALTER TABLE ADD CONSTRAINT를 사용하여 CHECK 제약 조건을 추가하세요.
DELTA_AGGREGATE_IN_GENERATED_COLUMN
를 찾았습니다 <sqlExpr>
. 생성된 열은 집계 식을 사용할 수 없습니다.
DELTA_AGGREGATION_NOT_SUPPORTED
집계 함수는 .에서 <operation>
<predicate>
지원되지 않습니다.
DELTA_ALTER_TABLE_CHANGE_COL_NOT_SUPPORTED
ALTER TABLE CHANGE COLUMN은 다음으로 열을 <currentType>
변경하는 데 지원되지 않습니다. <newType>
DELTA_ALTER_TABLE_CLUSTER_BY_NOT_ALLOWED
ALTER TABLE CLUSTER BY는 Liquid 클러스터링이 있는 델타 테이블에 대해서만 지원됩니다.
DELTA_ALTER_TABLE_CLUSTER_BY_ON_PARTITIONED_TABLE_NOT_ALLOWED
분할된 테이블에는 ALTER TABLE CLUSTER BY를 적용할 수 없습니다.
DELTA_ALTER_TABLE_RENAME_NOT_ALLOWED
허용되지 않는 작업입니다. S3의 최종 일관성으로 인해 Delta 트랜잭션 로그가 손상될 수 있으므로 S3의 관리되는 Delta 테이블에는 ALTER TABLE RENAME TO가 허용되지 않습니다. 이렇게 해야 한다고 주장하고 이전에 새 이름을 <newName>
가진 델타 테이블이 없다고 확신하는 경우 true로 설정 <key>
하여 이를 사용하도록 설정할 수 있습니다.
DELTA_ALTER_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
ALTER TABLE SET TBLPROPERTIES를 사용하여 테이블 기능을 사용하도록 설정할 <tableFeature>
수 없습니다. CREATE OR REPLACE TABLE CLUSTER BY를 사용하여 클러스터링이 있는 델타 테이블을 만듭니다.
DELTA_AMBIGUOUS_DATA_TYPE_CHANGE
의 데이터 형식을 <column>
<from>
<to>
변경할 수 없습니다. 이 변경 내용에는 열 제거 및 추가가 포함되므로 모호합니다. ALTER TABLE [ADD | 을 사용하여 개별적으로 변경하세요. DROP | RENAME] 열입니다.
DELTA_AMBIGUOUS_PARTITION_COLUMN
모호한 파티션 열 <column>
은 입니다 <colMatches>
.
DELTA_AMBIGUOUS_PATHS_IN_CREATE_TABLE
CREATE TABLE에는 다음과 같은 두 가지 위치가 <identifier>
<location>
있습니다.
CREATE TABLE 문에서 LOCATION 절을 제거하거나
<config>
이 검사를 건너뛰려면 true로 설정합니다.
DELTA_ARCHIVED_FILES_IN_LIMIT
테이블에 <table>
는 보관되지 않은 파일에 지정된 레코드 제한 <limit>
에 맞는 레코드가 충분하지 않습니다.
DELTA_ARCHIVED_FILES_IN_SCAN
<numArchivedFiles>
이 쿼리의 일부로 검색해야 하는 잠재적으로 보관된 파일이 테이블에서 <table>
발견되었습니다.
보관된 파일에 액세스할 수 없습니다. 보관이 로 구성 <archivalTime>
될 때까지의 현재 시간입니다.
보관된 파일을 제외하도록 쿼리 필터를 조정하세요.
DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION
테이블에서 CDF(변경 데이터 피드)를 사용하도록 설정하고 DROP COLUMN 또는 RENAME COLUMN을 사용하여 스키마를 변경한 경우에는 "<opName>
" 작업이 허용되지 않습니다.
DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS
다음과 같은 존재하지 않는 열에 대한 블룸 필터 인덱스를 삭제할 수 없습니다. <unknownColumns>
DELTA_BLOOM_FILTER_OOM_ON_WRITE
다음 열 <columnsWithBloomFilterIndices>
에 대한 블룸 필터 인덱스를 작성하는 동안 OutOfMemoryError가 발생했습니다.
'numItems' 옵션에 대해 더 작은 값, 'fpp' 옵션의 더 큰 값을 선택하거나 더 적은 열을 인덱싱하여 블룸 필터 인덱스의 메모리 공간을 줄일 수 있습니다.
DELTA_CANNOT_CHANGE_DATA_TYPE
데이터 형식을 변경할 수 없습니다. <dataType>
DELTA_CANNOT_CHANGE_LOCATION
SET TBLPROPERTIES를 사용하여 Delta 테이블의 '위치'를 변경할 수 없습니다. ALTER TABLE SET LOCATION을 대신 사용하세요.
DELTA_CANNOT_CHANGE_PROVIDER
'provider'는 예약된 테이블 속성이며 변경할 수 없습니다.
DELTA_CANNOT_CREATE_BLOOM_FILTER_NON_EXISTING_COL
다음과 같은 존재하지 않는 열에 대한 블룸 필터 인덱스를 만들 수 없습니다. <unknownCols>
DELTA_CANNOT_CREATE_LOG_PATH
만들 수 없음 <path>
DELTA_CANNOT_DESCRIBE_VIEW_HISTORY
보기의 기록을 설명할 수 없습니다.
DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN
인덱싱되지 않은 열에 블룸 필터 인덱스 삭제할 수 없습니다. <columnName>
DELTA_CANNOT_EVALUATE_EXPRESSION
식을 계산할 수 없습니다. <expression>
DELTA_CANNOT_FIND_BUCKET_SPEC
버킷팅 Delta 테이블이 필요하지만 테이블에서 버킷 사양을 찾을 수 없습니다.
DELTA_CANNOT_GENERATE_CODE_FOR_EXPRESSION
식에 대한 코드를 생성할 수 없습니다. <expression>
DELTA_CANNOT_MODIFY_APPEND_ONLY
이 테이블은 추가만 허용하도록 구성됩니다. 업데이트 또는 삭제를 허용하려면 'ALTER TABLE <table_name> SET TBLPROPERTIES(<config>
=false)'를 사용합니다.
DELTA_CANNOT_MODIFY_TABLE_PROPERTY
사용자가 델타 테이블 구성 <prop>
을 지정할 수 없습니다.
DELTA_CANNOT_RECONSTRUCT_PATH_FROM_URI
상대 경로로 전환할 수 없는 URI(<uri>
)가 트랜잭션 로그에서 발견되었습니다.
DELTA_CANNOT_RELATIVIZE_PATH
에 있는 현재 입력과 관련될 수 없는 경로(<path>
)
경로()입니다. 이를
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog(""<userPath>
, true)
다시 실행한 후
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<path>
")
DELTA_CANNOT_RENAME_PATH
이름을 다음으로 바꿀 <currentPath>
수 없습니다. <newPath>
DELTA_CANNOT_REPLACE_MISSING_TABLE
테이블 <tableName>
이 없으므로 바꿀 수 없습니다. CREATE OR REPLACE TABLE을 사용하여 테이블을 만듭니다.
DELTA_CANNOT_RESOLVE_COLUMN
에서 열을 <columnName>
확인할 수 없습니다. <schema>
DELTA_CANNOT_RESTORE_TABLE_VERSION
테이블을 버전 <version>
으로 복원할 수 없습니다. 사용 가능한 버전: [<startVersion>
, <endVersion>
].
DELTA_CANNOT_RESTORE_TIMESTAMP_EARLIER
사용 가능한 가장 빠른 버전 이전의 타임스탬프(<requestedTimestamp>
)로 테이블을 복원할 수 없습니다. ()후<earliestTimestamp>
타임스탬프를 사용하세요.
DELTA_CANNOT_RESTORE_TIMESTAMP_GREATER
사용 가능한 최신 버전 이후의 타임스탬프(<requestedTimestamp>
)로 테이블을 복원할 수 없습니다. () 전에<latestTimestamp>
타임스탬프를 사용하세요.
DELTA_CANNOT_SET_LOCATION_ON_PATH_IDENTIFIER
경로 기반 테이블의 위치를 변경할 수 없습니다.
DELTA_CANNOT_UPDATE_ARRAY_FIELD
%1$s 필드 %2$s 형식을 업데이트할 수 없음: %2$s.element을(를) 업데이트하여 요소 업데이트
DELTA_CANNOT_UPDATE_MAP_FIELD
%1$s 필드 %2$s 형식을 업데이트할 수 없음: %2$s.key 또는 %2$s.value을(를) 업데이트하여 맵 업데이트
DELTA_CANNOT_UPDATE_OTHER_FIELD
형식 필드를 업데이트 <tableName>
할 수 없음 <typeName>
DELTA_CANNOT_UPDATE_STRUCT_FIELD
필드 형식을 업데이트 <tableName>
할 수 없습니다. <fieldName>
필드를 추가, 삭제 또는 업데이트하여 구조체를 업데이트합니다.
DELTA_CANNOT_USE_ALL_COLUMNS_FOR_PARTITION
모든 열을 파티션 열에 사용할 수 없습니다.
DELTA_CANNOT_WRITE_INTO_VIEW
<table>
는 보기입니다. 보기에 대한 쓰기는 지원되지 않습니다.
DELTA_CAST_OVERFLOW_IN_TABLE_WRITE
오버플로로 인해 형식 열 <columnName>
에 <targetType>
형식 값을 <sourceType>
쓰지 못했습니다.
대신 입력 값에 try_cast
를 사용하여 오버플로를 허용하고 NULL을 반환하세요.
필요한 경우 "LEGACY"로 설정 <storeAssignmentPolicyFlag>
하여 이 오류를 무시하거나 true로 설정 <updateAndMergeCastingFollowsAnsiEnabledFlag>
하여 이전 동작으로 되돌리고 UPDATE 및 MERGE를 따릅니다 <ansiEnabledFlag>
.
DELTA_CDC_NOT_ALLOWED_IN_THIS_VERSION
delta.enableChangeDataFeed 구성을 설정할 수 없습니다. Delta의 변경 데이터 피드는 아직 사용할 수 없습니다.
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_DATA_SCHEMA
호환되지 않는 데이터 스키마로 인해 버전 <start>
간에 <end>
테이블 변경 내용 검색이 실패했습니다.
읽기 스키마는 <readSchema>
버전에 있지만 버전<readVersion>
<incompatibleVersion>
에서 호환되지 않는 데이터 스키마를 발견했습니다.
가능하면 최종 버전의 스키마 <config>
를 사용하여 테이블 변경 내용을 검색하거나 endVersion
지원에 문의하세요.
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE
호환되지 않는 스키마 변경으로 인해 버전 <start>
간에 <end>
테이블 변경 내용 검색이 실패했습니다.
읽기 스키마는 <readSchema>
버전에 있지만 버전<readVersion>
<incompatibleVersion>
에서 호환되지 않는 스키마 변경이 발견되었습니다.
가능하면 테이블 변경 내용을 버전에서 - 1로 <incompatibleVersion>
, 버전 <start>
<incompatibleVersion>
에서 .로 <end>
개별적으로 쿼리하세요.
DELTA_CHANGE_DATA_FILE_NOT_FOUND
트랜잭션 로그에서 참조된 파일을 <filePath>
찾을 수 없습니다. 테이블 문을 사용하지 DELETE
않고 파일 시스템에서 데이터를 수동으로 삭제한 경우에 발생할 수 있습니다. 이 요청은 변경 데이터 피드를 대상으로 하는 것으로 보입니다. 이 경우 변경 데이터 파일이 보존 기간을 벗어나 문에 의해 VACUUM
삭제되었을 때 이 오류가 발생할 수 있습니다. 자세한 내용은 <faqPath>
를 참조하세요.
DELTA_CHANGE_TABLE_FEED_DISABLED
delta.enableChangeDataFeed가 설정된 테이블에 쓸 수 없습니다. Delta의 변경 데이터 피드는 사용할 수 없습니다.
DELTA_CHECKPOINT_NON_EXIST_TABLE
존재하지 않는 테이블 <path>
의 검사점을 지정할 수 없습니다. _delta_log 디렉터리에서 파일을 수동으로 삭제하셨나요?
DELTA_CLONE_AMBIGUOUS_TARGET
두 경로가 CLONE 대상으로 제공되었으므로 사용할 경로가 모호합니다. CLONE의
CLONE에 대한 위치가 경로와 동시에 제공되었습니다 <externalLocation>
.
<targetIdentifier>
.
DELTA_CLONE_INCOMPLETE_FILE_COPY
파일(<fileName>
)이 완전히 복사되지 않았습니다. 예상 파일 크기: <expectedSize>
, 찾음: <actualSize>
. 파일 크기 검사를 무시하고 작업을 계속하려면 <config>
를 false로 설정합니다.
DELTA_CLONE_UNSUPPORTED_SOURCE
지원 <mode>
되지 않는 복제 원본 ''<name>
(형식은 .)입니다 <format>
.
지원되는 형식은 '델타', '빙산' 및 'parquet'입니다.
DELTA_CLUSTERING_CLONE_TABLE_NOT_SUPPORTED
CLONE은 DBR 버전 < 14.0에 대한 Liquid 클러스터링이 있는 델타 테이블에 대해 지원되지 않습니다.
DELTA_CLUSTERING_COLUMNS_MISMATCH
제공된 클러스터링 열이 기존 테이블과 일치하지 않습니다.
- 제공:
<providedClusteringColumns>
- 현존하는:
<existingClusteringColumns>
DELTA_CLUSTERING_COLUMN_MISSING_STATS
Liquid 클러스터링에는 클러스터링 열에 통계가 있어야 합니다. 통계 스키마에서 클러스터링 열 '<columns>
'을 찾을 수 없습니다.
<schema>
DELTA_CLUSTERING_CREATE_EXTERNAL_NON_LIQUID_TABLE_FROM_LIQUID_TABLE
액체 클러스터링이 있는 테이블 디렉터리에서 액체 클러스터링 없이 외부 테이블을 만들 수 없습니다. path: <path>
.
DELTA_CLUSTERING_NOT_SUPPORTED
'<operation>
'은(는) 클러스터링을 지원하지 않습니다.
DELTA_CLUSTERING_PHASE_OUT_FAILED
테이블 기능(이유: <reason>
)을 사용하여 <tableFeatureToAdd>
테이블을 완료 <phaseOutType>
할 수 없습니다. OPTIMIZE 명령을 다시 시도하세요.
== 오류 ==
<error>
DELTA_CLUSTERING_REPLACE_TABLE_WITH_PARTITIONED_TABLE
델타 테이블을 분할된 테이블로 Liquid 클러스터링으로 바꿀 수 없습니다.
DELTA_CLUSTERING_SHOW_CREATE_TABLE_WITHOUT_CLUSTERING_COLUMNS
SHOW CREATE TABLE은 클러스터링 열이 없는 Liquid 클러스터링이 있는 델타 테이블에 대해 지원되지 않습니다.
DELTA_CLUSTERING_WITH_DYNAMIC_PARTITION_OVERWRITE
Liquid 클러스터링을 사용하는 델타 테이블에는 동적 파티션 덮어쓰기 모드가 허용되지 않습니다.
DELTA_CLUSTERING_WITH_PARTITION_PREDICATE
Liquid 클러스터링이 있는 델타 테이블에 대한 OPTIMIZE 명령은 파티션 조건자를 지원하지 않습니다. 조건자를 제거하세요. <predicates>
.
DELTA_CLUSTERING_WITH_ZORDER_BY
Liquid 클러스터링이 있는 델타 테이블에 대한 OPTIMIZE 명령은 ZORDER BY를 지정할 수 없습니다. ZORDER BY(<zOrderBy>
)를 제거하세요.
DELTA_CLUSTER_BY_INVALID_NUM_COLUMNS
LIQUID 클러스터링용 CLUSTER BY는 클러스터 <numColumnsLimit>
링 열을 지원하지만 테이블에는 클러스터링 열이 <actualNumColumns>
있습니다. 추가 클러스터링 열을 제거하세요.
DELTA_CLUSTER_BY_SCHEMA_NOT_PROVIDED
스키마가 정의되지 않은 경우 CLUSTER BY를 지정할 수 없습니다. 테이블에 <tableName>
대한 스키마를 정의하세요.
DELTA_CLUSTER_BY_WITH_BUCKETING
클러스터링과 버킷팅은 둘 다 지정할 수 없습니다. 클러스터링이 있는 델타 테이블을 만들려면 CLUSTERED BY INTO BUCKETS/bucketBy를 제거하세요.
DELTA_CLUSTER_BY_WITH_PARTITIONED_BY
클러스터링과 분할은 둘 다 지정할 수 없습니다. 클러스터링이 있는 델타 테이블을 만들려면 PARTITIONED BY/partitionBy/partitionedBy를 제거하세요.
DELTA_COLLATIONS_NOT_SUPPORTED
데이터 정렬은 Delta Lake에서 지원되지 않습니다.
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_PARTITIONED_COLUMN
파티션 열 ''<column>
에 대해서는 데이터 건너뛰기가 지원되지 않습니다.
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_TYPE
형식<type>
의 열 ''<column>
에 대해서는 데이터 건너뛰기가 지원되지 않습니다.
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET
열 매핑이 설정된 테이블에는 최대 열 ID 속성(<prop>
)이 설정되지 않았습니다.
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET_CORRECTLY
열 매핑이 설정된 테이블의 최대 열 ID 속성(<prop>
)은 <tableMax>
모든 필드(<fieldMax>
)의 최대 열 ID보다 작을 수 없습니다.
DELTA_COLUMN_MISSING_DATA_TYPE
열 <colName>
의 데이터 형식이 제공되지 않았습니다.
DELTA_COLUMN_NOT_FOUND
지정된 열을 <columnName>
찾을 수 없음 [<columnList>
]
DELTA_COLUMN_NOT_FOUND_IN_MERGE
INSERT 열에서 대상 테이블의 '<targetCol>
' 열을 찾을 수 없습니다. <colNames>
INSERT 절은 대상 테이블의 모든 열에 대한 값을 지정해야 합니다.
DELTA_COLUMN_NOT_FOUND_IN_SCHEMA
에서 열을 <columnName>
찾을 수 없습니다.
<tableSchema>
DELTA_COLUMN_PATH_NOT_NESTED
중첩된 데이터 형식으로 예상 <columnPath>
되지만 찾 <other>
습니다. 중첩된 필드에서
중첩 필드의 <column>
인덱스입니다.
스키마:
<schema>
DELTA_COLUMN_STRUCT_TYPE_MISMATCH
에서 구조체 열을 <source>
필드에 <targetField>
<targetTable>
삽입 <targetType>
할 수 없습니다.
DELTA_COMPACTION_VALIDATION_FAILED
실패한 경로 <compactedPath>
<newPath>
압축의 유효성 검사: 버그 보고서를 제출하세요.
DELTA_COMPLEX_TYPE_COLUMN_CONTAINS_NULL_TYPE
열에 <columName>
중첩된 NullType이 있습니다 <dataType>
. Delta는 복합 형식의 NullType 작성을 지원하지 않습니다.
DELTA_CONCURRENT_APPEND
ConcurrentAppendException: 파일이 동시 업데이트에 <partition>
의해 추가되었습니다. <retryMsg>
<conflictingCommit>
자세한 내용은 참조하세요 <docLink>
.
DELTA_CONCURRENT_DELETE_DELETE
ConcurrentDeleteDeleteException: 이 트랜잭션은 동시 업데이트에 의해 삭제된 파일(예 <file>
: )을 하나 이상 삭제하려고 했습니다. 작업을 다시 시도하세요.<conflictingCommit>
자세한 내용은 참조하세요 <docLink>
.
DELTA_CONCURRENT_DELETE_READ
ConcurrentDeleteReadException: 이 트랜잭션은 동시 업데이트에 의해 삭제된 파일(예 <file>
: )을 하나 이상 읽으려고 했습니다. 작업을 다시 시도하세요.<conflictingCommit>
자세한 내용은 참조하세요 <docLink>
.
DELTA_CONCURRENT_TRANSACTION
ConcurrentTransactionException: 이 오류는 여러 스트리밍 쿼리가 동일한 검사점을 사용하여 이 테이블에 쓸 때 발생합니다. 동일한 스트리밍 쿼리의 여러 인스턴스를 동시에 실행했나요?<conflictingCommit>
자세한 내용은 참조하세요 <docLink>
.
DELTA_CONCURRENT_WRITE
ConcurrentWriteException: 현재 트랜잭션이 테이블을 읽은 이후 동시 트랜잭션이 새 데이터를 작성했습니다. 작업을 다시 시도하세요.<conflictingCommit>
자세한 내용은 참조하세요 <docLink>
.
DELTA_CONFLICT_SET_COLUMN
다음 SET 열에서 충돌이 있습니다. <columnList>
DELTA_CONSTRAINT_ALREADY_EXISTS
제약 조건 '<constraintName>
'이(가) 이미 있습니다. 먼저 이전 제약 조건을 삭제하세요.
이전 제약 조건:
<oldConstraint>
DELTA_CONSTRAINT_DATA_TYPE_MISMATCH
열 <columnName>
에는 데이터 형식 <columnType>
이 있으며 이 열은 다음 check 제약 조건에 의해 참조되므로 데이터 형식 <dataType>
으로 변경할 수 없습니다.
<constraints>
DELTA_CONSTRAINT_DEPENDENT_COLUMN_CHANGE
이 열은 다음 check 제약 조건에 의해 참조되므로 열을 <columnName>
변경할 수 없습니다.
<constraints>
DELTA_CONSTRAINT_DOES_NOT_EXIST
테이블에서 <tableName>
존재하지 않는 제약 조건을 <constraintName>
삭제할 수 없습니다. 오류가 발생하지 않도록 하려면 IF EXISTS 매개 변수를 제공하거나 SQL 세션 구성 <config>
을 .로 <confValue>
설정합니다.
DELTA_CONVERSION_NO_PARTITION_FOUND
카탈로그에서 테이블의 파티션 정보를 찾을 수 <tableName>
없습니다. 파티션을 검색하기 위해 테이블에서 "MSCK REPAIR TABLE"을 실행했나요?
DELTA_CONVERSION_UNSUPPORTED_COLUMN_MAPPING
CONVERT TO DELTA를 사용할 때 구성 '<config>
'을(를 <mode>
) 설정할 수 없습니다.
DELTA_CONVERT_NON_PARQUET_TABLE
CONVERT TO DELTA는 parquet 테이블만 지원하지만 원본을 변환 <sourceName>
하려고 합니다. <tableId>
DELTA_CONVERT_TO_DELTA_ROW_TRACKING_WITHOUT_STATS
통계를 수집하지 않고 행 추적을 사용하도록 설정할 수 없습니다.
행 추적을 사용하도록 설정하려면 다음을 수행합니다.
명령을 실행하여 통계 수집 사용
SET
<statisticsCollectionPropertyKey>
= true- NO STATISTICS 옵션 없이 DELTA로 변환을 실행합니다.
통계를 수집하지 않으려면 행 추적을 사용하지 않도록 설정합니다.
명령을 실행하여 기본적으로 테이블 기능을 사용하도록 설정 비활성화합니다.
재설정
<rowTrackingTableFeatureDefaultKey>
다음을 실행하여 테이블 속성을 기본적으로 비활성화합니다.
SET
<rowTrackingDefaultPropertyKey>
= false
DELTA_COPY_INTO_TARGET_FORMAT
COPY INTO 대상은 델타 테이블이어야 합니다.
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_SCHEMA
외부 테이블을 만들려고 합니다. <tableName>
<path>
에서 외부 테이블을 만들려고 하는데 입력 경로가 비어 있으면
스키마가 지정되지 않습니다.
델타에 대한 자세한 내용은 <docLink>
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_TXN_LOG
외부 테이블을 만들려고 합니다. <tableName>
%2$s
에서 외부 테이블을 만들려고 하는데 다음 위치에 트랜잭션 로그가 없습니다.
%2$s/_delta_log
. 업스트림 작업을 확인하여
형식(“delta”)을 사용하여 작성 중이며 경로가 테이블의 루트인지 확인합니다.
델타에 대한 자세한 내용은 <docLink>
DELTA_CREATE_TABLE_IDENTIFIER_LOCATION_MISMATCH
다른 위치를 사용하여 경로 기반 델타 테이블을 만드는 것은 지원되지 않습니다. 식별자: <identifier>
, 위치: <location>
DELTA_CREATE_TABLE_MISSING_TABLE_NAME_OR_LOCATION
테이블 이름 또는 위치를 지정해야 합니다.
DELTA_CREATE_TABLE_SCHEME_MISMATCH
지정된 스키마가 .의 <path>
기존 스키마와 일치하지 않습니다.
== 지정된 항목 ==
<specifiedSchema>
== 기존 항목 ==
<existingSchema>
== 차이 ==
<schemaDifferences>
기존 스키마를 유지하려는 경우 테이블 생성 명령에서
스키마를 생략할 수 있습니다. 그렇지 않은 경우
스키마가 일치해야 합니다.
DELTA_CREATE_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
TBLPROPERTIES를 사용하여 테이블 기능을 사용하도록 설정할 <tableFeature>
수 없습니다. CREATE OR REPLACE TABLE CLUSTER BY를 사용하여 클러스터링이 있는 델타 테이블을 만듭니다.
DELTA_CREATE_TABLE_WITH_DIFFERENT_CLUSTERING
지정된 클러스터링 열이 에 있는 기존 클러스터링 열과 <path>
일치하지 않습니다.
== 지정된 항목 ==
<specifiedColumns>
== 기존 항목 ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PARTITIONING
지정된 분할이 .에서 <path>
기존 분할과 일치하지 않습니다.
== 지정된 항목 ==
<specifiedColumns>
== 기존 항목 ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PROPERTY
지정된 속성이 .의 기존 속성 <path>
과 일치하지 않습니다.
== 지정된 항목 ==
<specificiedProperties>
== 기존 항목 ==
<existingProperties>
DELTA_CREATE_TABLE_WITH_NON_EMPTY_LOCATION
테이블을 만들 수 없습니다(''<tableId>
). 연결된 위치(''<tableLocation>
)가 비어 있지 않고 델타 테이블도 아닙니다.
DELTA_DATA_CHANGE_FALSE
'dataChange' 옵션이 false로 설정되어 있으므로 테이블 메타데이터를 변경할 수 없습니다. 시도된 작업: ''<op>
.
DELTA_DELETED_PARQUET_FILE_NOT_FOUND
트랜잭션 로그에서 참조된 파일을 <filePath>
찾을 수 없습니다. 이 parquet 파일은 델타의 데이터 보존 정책에 따라 삭제될 수 있습니다.
기본 델타 데이터 보존 기간: <logRetentionPeriod>
. parquet 파일의 수정 시간: <modificationTime>
. parquet 파일의 삭제 시간: <deletionTime>
. 델타 버전에서 삭제됨: <deletionVersion>
.
DELTA_DELETION_VECTOR_MISSING_NUM_RECORDS
numRecords 통계가 누락된 삭제 벡터를 사용하여 파일을 커밋하는 것은 유효하지 않습니다.
DELTA_DOMAIN_METADATA_NOT_SUPPORTED
도메인 <domainNames>
에 대해 DomainMetadata 작업이 검색되었지만 DomainMetadataTableFeature는 사용하도록 설정되지 않았습니다.
DELTA_DROP_COLUMN_AT_INDEX_LESS_THAN_ZERO
열을 삭제할 인덱 <columnIndex>
스가 0보다 낮음
DELTA_DROP_COLUMN_ON_SINGLE_FIELD_SCHEMA
단일 열이 있는 스키마에서 열을 삭제할 수 없습니다. 스키마:
<schema>
DELTA_DUPLICATE_ACTIONS_FOUND
경로 <path>
에 대한 파일 작업 '<actionType>
'이(가) 여러 번 지정되었습니다.
와 충돌합니다 <conflictingPath>
.
단일 커밋에 동일한 경로가 있는 여러 파일 작업에는 유효하지 않습니다.
DELTA_DUPLICATE_COLUMNS_FOUND
중복 열을 찾았습니다. <coltype>
<duplicateCols>
DELTA_DUPLICATE_COLUMNS_ON_INSERT
INSERT 절에서 중복된 열 이름입니다.
DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE
<message>
테이블을 업데이트하기 전에 중복 열을 제거하세요.
DELTA_DUPLICATE_DATA_SKIPPING_COLUMNS
중복된 데이터 건너뛰기 열이 있습니다 <columns>
. .
DELTA_DUPLICATE_DOMAIN_METADATA_INTERNAL_ERROR
내부 오류: 동일한 트랜잭션 내의 두 DomainMetadata 작업에 동일한 도메인이 있습니다. <domainName>
DELTA_DV_HISTOGRAM_DESERIALIZATON
테이블 무결성 확인 중에 삭제된 레코드 수 히스토그램을 역직렬화할 수 없습니다.
DELTA_DYNAMIC_PARTITION_OVERWRITE_DISABLED
동적 파티션 덮어쓰기 모드는 세션 구성 또는 쓰기 옵션에 의해 지정되지만 spark.databricks.delta.dynamicPartitionOverwrite.enabled=false
.
DELTA_EMPTY_DATA
Delta 테이블을 만드는 데 사용되는 데이터에 열이 없습니다.
DELTA_EMPTY_DIRECTORY
디렉터리에 파일이 없습니다. <directory>
.
DELTA_EXCEED_CHAR_VARCHAR_LIMIT
값 "<value>
"이(가) char/varchar 형식 길이 제한을 초과합니다. 실패한 검사: <expr>
.
DELTA_FAILED_CAST_PARTITION_VALUE
파티션 값을 <value>
다음으로 캐스팅하지 못했습니다. <dataType>
DELTA_FAILED_FIND_ATTRIBUTE_IN_OUTPUT_COLUMNS
기존 대상 출력 중에서 찾을 <newAttributeName>
수 없음 <targetOutputColumns>
DELTA_FAILED_INFER_SCHEMA
지정된 파일 목록에서 스키마를 유추하지 못했습니다.
DELTA_FAILED_MERGE_SCHEMA_FILE
파일 <file>
의 스키마를 병합하지 못했습니다.
<schema>
DELTA_FAILED_READ_FILE_FOOTER
파일의 바닥글을 읽을 수 없습니다. <currentFile>
DELTA_FAILED_RECOGNIZE_PREDICATE
조건자 ''<predicate>
를 인식할 수 없습니다.
DELTA_FAILED_SCAN_WITH_HISTORICAL_VERSION
최신 버전의 델타 원본에 대한 전체 검사를 예상하지만 버전 기록 검색을 찾았습니다. <historicalVersion>
DELTA_FAILED_TO_MERGE_FIELDS
'' 및<updateField>
'<currentField>
' 필드를 병합하지 못했습니다.
DELTA_FEATURES_PROTOCOL_METADATA_MISMATCH
다음 테이블 기능은 메타데이터에서 사용하도록 설정되어 있지만 프로토콜 <features>
에 나열되지 않으므로 이 테이블에서 작동할 수 없습니다.
DELTA_FEATURES_REQUIRE_MANUAL_ENABLEMENT
테이블 스키마에는 다음 표 기능을 <unsupportedFeatures>
수동으로 사용하도록 설정해야 합니다.
이렇게 하려면 위에 나열된 각 기능에 대해 다음 명령을 실행합니다.
ALTER TABLE table_name SET TBLPROPERTIES ('delta.feature.feature_name' = 'supported')
"table_name" 및 "feature_name"을 실제 값으로 대체합니다.
현재 지원되는 기능: <supportedFeatures>
.
DELTA_FEATURE_DROP_CONFLICT_REVALIDATION_FAIL
동시 트랜잭션이 테이블을 수정했기 때문에 기능을 삭제할 수 없습니다.
작업을 다시 시도하세요.
<concurrentCommit>
DELTA_FEATURE_DROP_DEPENDENT_FEATURE
이 테이블의 일부 다른 기능(<dependentFeatures>
)은 에 따라 달라지<feature>
므로 테이블 기능을 <feature>
삭제할 수 없습니다.
이 기능을 삭제하기 전에 먼저 삭제하는 것이 좋습니다.
DELTA_FEATURE_DROP_FEATURE_NOT_PRESENT
현재 테이블의 프로토콜에 없기 때문에 이 테이블에서 삭제 <feature>
할 수 없습니다.
DELTA_FEATURE_DROP_HISTORICAL_VERSIONS_EXIST
델타 로그에 이 기능을 사용하는 기록 버전이 포함되어 있으므로 삭제 <feature>
할 수 없습니다.
기록 보존 기간<logRetentionPeriodKey>
=<logRetentionPeriod>
()까지 기다려 주세요.
은 기능이 마지막으로 활성화된 이후 통과되었습니다.
또는 TRUNCATE 기록 보존 기간이 만료되기를 기다립니다(<truncateHistoryLogRetentionPeriod>
)
다음을 실행합니다.
ALTER TABLE table_name DROP FEATURE feature_name TRUNCATE HISTORY
DELTA_FEATURE_DROP_HISTORY_TRUNCATION_NOT_ALLOWED
기록 잘림은 판독기 기능과만 관련이 있습니다.
DELTA_FEATURE_DROP_NONREMOVABLE_FEATURE
이 기능을 삭제할 수 없으므로 삭제 <feature>
할 수 없습니다.
Databricks 지원에 문의하세요.
DELTA_FEATURE_DROP_UNSUPPORTED_CLIENT_FEATURE
이 Databricks 버전에서 지원되지 않으므로 삭제 <feature>
할 수 없습니다.
더 높은 버전으로 Databricks를 사용하는 것이 좋습니다.
DELTA_FEATURE_DROP_WAIT_FOR_RETENTION_PERIOD
삭제 <feature>
는 부분적으로 성공했습니다.
이 기능은 이제 테이블의 현재 버전에서 더 이상 사용되지 않습니다. 그러나 이 기능은
는 여전히 테이블의 기록 버전에 있습니다. 테이블 기능을 삭제할 수 없습니다.
이 기록 버전이 만료될 때까지 테이블 프로토콜에서
프로토콜에서 테이블 기능을 삭제하려면 기록 버전이
이 명령을 반복합니다. 기록 버전의 보존 기간은
현재 .로 <logRetentionPeriodKey>
=<logRetentionPeriod>
구성됩니다.
또는 TRUNCATE 기록 보존 기간이 만료되기를 기다립니다(<truncateHistoryLogRetentionPeriod>
)
다음을 실행합니다.
ALTER TABLE table_name DROP FEATURE feature_name TRUNCATE HISTORY
DELTA_FEATURE_REQUIRES_HIGHER_READER_VERSION
더 높은 판독기 프로토콜 버전(현재<current>
)이 필요하므로 테이블 기능을 <feature>
사용하도록 설정할 수 없습니다. 테이블의 판독기 프로토콜 버전을 판독기 테이블 기능을 지원하는 버전 <required>
으로 업그레이드하는 것이 좋습니다. <docLink>
테이블 프로토콜 버전에 대한 자세한 내용은 참조하세요.
DELTA_FEATURE_REQUIRES_HIGHER_WRITER_VERSION
더 높은 기록기 프로토콜 버전(현재<current>
)이 필요하므로 테이블 기능을 <feature>
사용하도록 설정할 수 없습니다. 테이블의 기록기 프로토콜 버전을 작성기 테이블 기능을 지원하는 버전 <required>
으로 업그레이드하는 것이 좋습니다. <docLink>
테이블 프로토콜 버전에 대한 자세한 내용은 참조하세요.
DELTA_FILE_ALREADY_EXISTS
기존 파일 경로 <path>
DELTA_FILE_LIST_AND_PATTERN_STRING_CONFLICT
파일 목록과 패턴 문자열을 모두 지정할 수 없습니다.
DELTA_FILE_NOT_FOUND
파일 경로 <path>
DELTA_FILE_NOT_FOUND_DETAILED
트랜잭션 로그에서 참조된 파일을 <filePath>
찾을 수 없습니다. 테이블 문을 사용하지 DELETE
않고 파일 시스템에서 데이터를 수동으로 삭제한 경우에 발생합니다. 자세한 내용은 <faqPath>
를 참조하세요.
DELTA_FILE_OR_DIR_NOT_FOUND
이러한 파일 또는 디렉터리가 없습니다. <path>
DELTA_FILE_TO_OVERWRITE_NOT_FOUND
다시 작성할 파일(<path>
)을 후보 파일 중에서 찾을 수 없습니다.
<pathList>
DELTA_FOUND_MAP_TYPE_COLUMN
MapType이 있습니다. MapType의 키 또는 값에 액세스하려면
다음 중 하나를 지정합니다.
<key>
또는
<value>
열 이름 뒤에 지정합니다(해당 열이 구조체 형식인 경우에만).
예를 들어 mymap.key.mykey입니다.
열이 기본 형식인 경우 mymap.key 또는 mymap.value로 충분합니다.
스키마:
<schema>
DELTA_GENERATED_COLUMNS_DATA_TYPE_MISMATCH
열 <columnName>
에는 데이터 형식 <columnType>
이 있으며 다음 생성된 열에서 이 열을 참조하므로 데이터 형식 <dataType>
으로 변경할 수 없습니다.
<generatedColumns>
DELTA_GENERATED_COLUMNS_DEPENDENT_COLUMN_CHANGE
이 열은 다음과 같은 생성된 열 <columnName>
에서 참조되므로 열을 변경할 수 없습니다.
<generatedColumns>
DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH
생성된 열 <columnName>
의 식 형식은 다음과 같지만 열 형식은 입니다 <expressionType>
. <columnType>
DELTA_GENERATED_COLUMN_UPDATE_TYPE_MISMATCH
열 <currentName>
은 생성된 열 또는 생성된 열에서 사용하는 열입니다. 데이터 형식은 데이터 형식이며 <currentDataType>
데이터 형식으로 변환할 수 없습니다. <updateDataType>
DELTA_ICEBERG_COMPAT_VIOLATION
IcebergCompatV<version>
의 유효성 검사에 실패했습니다.
자세한 내용은 DELTA_ICEBERG_COMPAT_VIOLATION 참조 하세요.
DELTA_IDENTITY_COLUMNS_ILLEGAL_STEP
IDENTITY 열 단계는 0일 수 없습니다.
DELTA_IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE
DATAType <dataType>
은 IDENTITY 열에 대해 지원되지 않습니다.
DELTA_IDENTITY_COLUMNS_WITH_GENERATED_EXPRESSION
생성된 열 식을 사용하여 IDENTITY 열을 지정할 수 없습니다.
DELTA_ILLEGAL_OPTION
'<input>
' 옵션의 값 ''이(<name>
가) 잘못되었습니다. <explain>
DELTA_ILLEGAL_USAGE
델타 테이블의 <option>
사용은 허용되지 <operation>
않습니다.
DELTA_INCONSISTENT_BUCKET_SPEC
델타 버킷 테이블의 BucketSpec이 메타데이터의 BucketSpec과 일치하지 않습니다. 예상: <expected>
. 실제: <actual>
.
DELTA_INCONSISTENT_LOGSTORE_CONFS
(<setKeys>
)를 다른 값으로 설정할 수 없습니다. 그 중 하나만 설정하거나 동일한 값으로 설정하세요.
DELTA_INCORRECT_ARRAY_ACCESS
ArrayType에 잘못 액세스. arrayname.element.elementname 위치를 사용하여
배열에 추가합니다.
DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME
ArrayType이 있습니다. ArrayType의 요소에 액세스하려면 지정합니다.
<rightName>
다음을 사용하지 않습니다.<wrongName>
스키마:
<schema>
DELTA_INCORRECT_GET_CONF
'conf.getConf() 대신 getConf()
를 사용하세요.
DELTA_INCORRECT_LOG_STORE_IMPLEMENTATION
이 오류는 일반적으로 기본 LogStore 구현 시, 즉
HDFSLogStore가 HDFS가 아닌 스토리지 시스템의 Delta 테이블에 기록하는 데 사용되는 경우에 발생합니다.
테이블 업데이트에 대한 트랜잭션 ACID 보증을 얻으려면
스토리지 시스템에 적합한 LogStore의 올바른 구현을 사용해야 합니다.
자세한 내용은 <docLink>
를 참조하세요.
DELTA_INDEX_LARGER_OR_EQUAL_THAN_STRUCT
열을 삭제할 인덱 <position>
스는 구조체 길이보다 크거나 같습니다. <length>
DELTA_INDEX_LARGER_THAN_STRUCT
열을 <columnName>
추가할 인덱 <index>
스가 구조체 길이보다 큽다.<length>
DELTA_INSERT_COLUMN_ARITY_MISMATCH
''<tableName>
<columnName>
에 쓸 수 없습니다. 대상 테이블에는 열이 <numColumns>
있지만 삽입된 데이터에는 열이 <insertColumns>
있습니다.
DELTA_INSERT_COLUMN_MISMATCH
INSERT에 열 <columnName>
이 지정되지 않았습니다.
DELTA_INVALID_AUTO_COMPACT_TYPE
자동 압축 유형이 <value>
잘못되었습니다. 허용되는 값: <allowed>
.
DELTA_INVALID_BUCKET_COUNT
버킷 수가 <invalidBucketCount>
잘못되었습니다. 버킷 수는 2의 제곱(8 이상)인 양수여야 합니다. 대신 <validBucketCount>
를 사용하면 됩니다.
DELTA_INVALID_BUCKET_INDEX
파티션 열에서 버킷 열을 찾을 수 없습니다.
DELTA_INVALID_CALENDAR_INTERVAL_EMPTY
간격은 null이거나 비워 둘 수 없습니다.
DELTA_INVALID_CDC_RANGE
CDC 범위가 처음부터 <start>
끝까지 <end>
잘못되었습니다. 끝이 시작보다 앞에 있을 수 없습니다.
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAME
특성 이름 ""에 "<columnName>
,;{} 중 잘못된 문자가 포함되어 있습니다.()\n\t=". 별칭을 사용하여 이름을 바꾸세요.
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAMES
스키마의 열 이름에 잘못된 문자(‘ ,;{}()nt=’)가 있습니다.
열 이름이 <invalidColumnNames>
잘못되었습니다. .
다른 문자를 사용하고 다시 시도하세요.
또는 열 매핑을 사용하도록 설정하여 이러한 문자를 계속 사용합니다.
DELTA_INVALID_CLONE_PATH
CLONE의 대상 위치는 절대 경로 또는 테이블 이름이어야 합니다. 다음 대신
대신 절대 경로입니다 <path>
.
DELTA_INVALID_COLUMN_NAMES_WHEN_REMOVING_COLUMN_MAPPING
스키마의 열 이름에 잘못된 문자(‘ ,;{}()nt=’)가 있습니다.
열 이름이 <invalidColumnNames>
잘못되었습니다. .
열 이름에 잘못된 문자가 있는 경우 열 매핑을 제거할 수 없습니다.
열 이름을 변경하여 잘못된 문자를 제거하고 이 명령을 다시 실행하세요.
DELTA_INVALID_FORMAT
호환되지 않는 형식이 발견되었습니다.
델타에 대한 트랜잭션 로그가 /_delta_log'에서 <deltaRootPath>
발견되었습니다.
그러나 format(""<format>
)을 사용하려고 <operation>
<path>
합니다. 델타 테이블을 읽고 쓸 때에는
‘format(“delta”)’를 사용해야 합니다.
델타에 대한 자세한 내용은 <docLink>
DELTA_INVALID_GENERATED_COLUMN_REFERENCES
생성된 열은 존재하지 않는 열 또는 생성된 다른 열을 사용할 수 없습니다.
DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS
idempotent 데이터 프레임 쓰기에 대한 잘못된 옵션: <reason>
DELTA_INVALID_INTERVAL
<interval>
가 유효한 INTERVAL이 아닙니다.
DELTA_INVALID_INVENTORY_SCHEMA
지정된 인벤토리의 스키마에 필요한 필드가 모두 포함되어 있지는 않습니다. 필수 필드는 다음과 같습니다. <expectedSchema>
DELTA_INVALID_ISOLATION_LEVEL
잘못된 격리 수준 '<isolationLevel>
'
DELTA_INVALID_LOGSTORE_CONF
(<classConfig>
) 및 (<schemeConfig>
)를 동시에 설정할 수 없습니다. 하나의 그룹만 설정하세요.
DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA
관리되는 테이블을 만들려고 합니다. <tableName>
스키마가 지정되지 않았습니다.
델타에 대한 자세한 내용은 <docLink>
DELTA_INVALID_PARTITION_COLUMN
<columnName>
가 테이블 <tableName>
의 유효한 파티션 열이 아닌 경우
DELTA_INVALID_PARTITION_COLUMN_NAME
파티션 열의 ” ,;{}()nt=”에 잘못된 문자가 있는 것이 발견되었습니다. 이름을 해당하는 파티션 열로 변경하세요. spark.conf.set(“spark.databricks.delta.partitionColumnValidity.enabled”, false)를 설정하여 이 검사를 해제할 수 있지만, Delta의 다른 기능이 제대로 작동하지 않을 수 있으므로 권장하지 않습니다.
DELTA_INVALID_PARTITION_COLUMN_TYPE
형식 <dataType>
열을 파티션 열 <name>
로 사용하는 것은 지원되지 않습니다.
DELTA_INVALID_PARTITION_PATH
파티션 경로 조각은 part1=foo/part2=bar
같은 형식이어야 합니다. 파티션 경로: <path>
DELTA_INVALID_PROTOCOL_DOWNGRADE
프로토콜 버전을 다음으로 <oldProtocol>
다운그레이드할 수 없습니다. <newProtocol>
DELTA_INVALID_PROTOCOL_VERSION
지원되지 않는 델타 프로토콜 버전: 테이블 "<tableNameOrPath>
"에는 판독기 버전 <readerRequired>
및 기록기 버전<writerRequired>
이 필요하지만 이 버전의 Databricks는 판독기 버전 및 기록기 버전을 <supportedWriters>
<supportedReaders>
지원합니다. 최신 릴리스로 업그레이드하세요.
DELTA_INVALID_TABLE_VALUE_FUNCTION
함수 <function>
는 CDC 읽기에 지원되지 않는 테이블 반환 함수입니다.
DELTA_INVALID_TIMESTAMP_FORMAT
제공된 타임스탬프 <timestamp>
가 예상 구문 <format>
과 일치하지 않습니다.
DELTA_LOG_ALREADY_EXISTS
델타 로그가 에 이미 있습니다. <path>
DELTA_LOG_FILE_NOT_FOUND_FOR_STREAMING_SOURCE
삭제하지 않은 경우 쿼리가 지연될 수 있습니다. 처음부터 다시 시작하려면 검사점을 삭제하세요. 이러한 일이 다시 발생하지 않도록 Delta 테이블의 보존 정책을 업데이트할 수 있습니다.
DELTA_MATERIALIZED_ROW_TRACKING_COLUMN_NAME_MISSING
구체화된 <rowTrackingColumn>
열 이름이 없습니다.<tableName>
DELTA_MAX_ARRAY_SIZE_EXCEEDED
Int.MaxValue - 8보다 작은 제한을 사용하세요.
DELTA_MAX_COMMIT_RETRIES_EXCEEDED
이 커밋은 여러 번 시도 <numAttempts>
되었지만 성공하지 못했기 때문에 실패했습니다.
이는 Delta 테이블이 많은 동시 커밋에 의해 계속 커밋되기 때문에
발생할 수 있습니다.
커밋이 버전에서 시작됨: <startVersion>
버전에서 커밋 실패: <failVersion>
커밋을 시도한 작업 수: <numActions>
이 커밋을 시도하는 데 소요된 총 시간: <timeSpent>
ms
DELTA_MAX_LIST_FILE_EXCEEDED
파일 목록에는 최대 <maxFileListSize>
항목이 있어야 합니다.<numFiles>
DELTA_MERGE_ADD_VOID_COLUMN
VOID 형식의 열을 <newColumn>
추가할 수 없습니다. void가 아닌 형식을 명시적으로 지정하세요.
DELTA_MERGE_INCOMPATIBLE_DATATYPE
호환되지 않는 데이터 형식을 병합하지 못했습니다.<currentDataType>
<updateDataType>
DELTA_MERGE_INCOMPATIBLE_DECIMAL_TYPE
호환되지 않는 10진수 형식을 병합하지 못했습니다. <decimalRanges>
DELTA_MERGE_MATERIALIZE_SOURCE_FAILED_REPEATEDLY
MERGE 문의 원본을 구체화한 상태로 유지하는 것은 반복적으로 실패했습니다.
DELTA_MERGE_MISSING_WHEN
MERGE 문에 하나 이상의 WHEN 절이 있어야 합니다.
DELTA_MERGE_RESOLVED_ATTRIBUTE_MISSING_FROM_INPUT
in 연산자에서 <input>
누락된 확인된 특성 <missingAttributes>
<merge>
DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY
예기치 않은 할당 키: <unexpectedKeyClass>
- <unexpectedKeyObject>
DELTA_MERGE_UNRESOLVED_EXPRESSION
지정된 <cols>
경우 <clause>
확인할 <sqlExpr>
수 없습니다.
DELTA_METADATA_CHANGED
MetadataChangedException: 델타 테이블의 메타데이터가 동시 업데이트에 의해 변경되었습니다. 작업을 다시 시도하세요.<conflictingCommit>
자세한 내용은 참조하세요 <docLink>
.
DELTA_MISSING_CHANGE_DATA
변경 데이터가 아닌 범위 [<startVersion>
, <endVersion>
] 에 대한 변경 데이터를 가져오는 동안 오류가 발생했습니다.
버전 [<version>
]에 대해 기록됩니다. 이 테이블에서 변경 데이터 피드를 사용하도록 설정한 경우
DESCRIBE HISTORY
를 사용하여 처음 사용하도록 설정한 시기를 확인합니다.
그렇지 않은 경우 변경 데이터 기록을 시작하려면 'ALTER TABLE table_name SET TBLPROPERTIES
(<key>
=true)'.
DELTA_MISSING_COLUMN
테이블 열에서 찾을 <columnName>
수 없습니다. <columnList>
DELTA_MISSING_COMMIT_INFO
이 테이블에는 모든 커밋에 CommitInfo 작업이 있어야 하는 기능이 <featureName>
활성화되어 있습니다. 그러나 CommitInfo 작업이 커밋 버전 <version>
에서 누락되었습니다.
DELTA_MISSING_COMMIT_TIMESTAMP
이 테이블에는 CommitInfo 작업에 commitTimestamp가 있어야 하는 기능이 <featureName>
활성화되어 있습니다. 그러나 이 필드는 커밋 버전 <version>
에서 설정되지 않았습니다.
DELTA_MISSING_DELTA_TABLE
<tableName>
은 델타 테이블이 아닙니다.
DELTA_MISSING_DELTA_TABLE_COPY_INTO
테이블이 없습니다. 먼저 CREATE TABLE을 사용하여 빈 델타 테이블을 <tableName>
만듭니다.
DELTA_MISSING_ICEBERG_CLASS
Iceberg 클래스를 찾을 수 없습니다. Delta Iceberg 지원이 설치되어 있는지 확인하세요.
자세한 내용은 참조 <docLink>
하세요.
DELTA_MISSING_NOT_NULL_COLUMN_VALUE
NOT NULL 제약 조건이 있는 열 <columnName>
이 테이블에 기록되는 데이터에서 누락되었습니다.
DELTA_MISSING_PARTITION_COLUMN
스키마에 파티션 열을 <columnName>
찾을 수 없음 <columnList>
DELTA_MISSING_PART_FILES
검사점 버전의 일부 파일을 모두 찾을 수 없습니다. <version>
DELTA_MISSING_PROVIDER_FOR_CONVERT
CONVERT TO DELTA는 parquet 테이블만 지원합니다. 대상을 parquet로 다시 작성하세요.parquet 디렉터리인 경우 <path>
입니다.
DELTA_MISSING_SET_COLUMN
지정된 열에 SET 열을 <columnName>
찾을 수 없습니다. <columnList>
.
DELTA_MISSING_TRANSACTION_LOG
호환되지 않는 형식이 발견되었습니다.
델타를 사용하려고 <operation>
<path>
하지만 없는 경우
트랜잭션 로그가 있습니다. 업스트림 작업을 확인하여
format("delta")을 사용하여 작성 중인지 확인하고 테이블 기본 경로에 대해 %1$s을(를) 시도합니다.
델타에 대한 자세한 내용은 <docLink>
DELTA_MODE_NOT_SUPPORTED
지정된 모드 '<mode>
'는 지원되지 않습니다. 지원되는 모드는 다음과 같습니다. <supportedModes>
DELTA_MULTIPLE_CDC_BOUNDARY
CDC 읽기에 제공된 여러 <startingOrEnding>
인수입니다. 타임스탬프 또는 <startingOrEnding>
버전 중 <startingOrEnding>
하나를 제공하세요.
DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER
열에 대한 명령에 전달된 여러 블룸 필터 인덱스 구성: <columnName>
DELTA_MULTIPLE_SOURCE_ROW_MATCHING_TARGET_ROW_IN_MERGE
여러 원본 행이 일치하고 Delta 테이블의 동일한 대상 행을 충돌하는 방식으로 수정하려고 시도했으므로
Merge를 수행할 수 없습니다. Merge의 SQL 의미 체계에 따라
동일한 대상 행에서 여러 원본 행이 일치하는 경우 일치하는 대상 행을
업데이트하거나 삭제하는 데 사용해야 하는 원본 행이 명확하지 않으므로
결과가 모호할 수 있습니다. 원본 테이블을 전처리하여 여러 일치 항목이 발생할 가능성을
제거할 수 있습니다. 다음 단계는 "권장 문서"에 제공된 링크의
<usageReference>
DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE
다음 열 이름은 델타 버킷 테이블 내부 사용용으로만 예약됩니다. <names>
DELTA_NESTED_FIELDS_NEED_RENAME
입력 스키마에는 대상 테이블과 다르게 대문자로 표시된 중첩된 필드가 포함됩니다.
Delta에 쓰는 동안 이러한 필드의 데이터 손실을 방지하기 위해 이름을 바꿔야 합니다.
필드:
<fields>
.
원래 스키마:
<schema>
DELTA_NESTED_NOT_NULL_CONSTRAINT
<nestType>
필드 <parent>
의 형식에는 NOT NULL 제약 조건이 포함되어 있습니다. Delta는 배열 또는 맵 내에 중첩된 NOT NULL 제약 조건을 지원하지 않습니다. 이 오류를 표시하지 않으며 지정된 제약 조건을 자동으로 무시하려면 set <configKey>
= true입니다.
구문 분석된 <nestType>
형식:
<nestedPrettyJson>
DELTA_NESTED_SUBQUERY_NOT_SUPPORTED
중첩된 하위 쿼리는 조건에서 지원 <operation>
되지 않습니다.
DELTA_NEW_CHECK_CONSTRAINT_VIOLATION
<numRows>
<tableName>
새 CHECK 제약 조건을 위반하는 행(<checkConstraint>
)
DELTA_NEW_NOT_NULL_VIOLATION
<numRows>
의 <tableName>
새 NOT NULL 제약 조건을 위반하는 행 <colName>
DELTA_NON_BOOLEAN_CHECK_CONSTRAINT
CHECK 제약 조건 '<name>
'(<expr>
)은 부울 식이어야 합니다.
DELTA_NON_DETERMINISTIC_EXPRESSION_IN_GENERATED_COLUMN
를 찾았습니다 <expr>
. 생성된 열은 비결정적 식을 사용할 수 없습니다.
DELTA_NON_DETERMINISTIC_FUNCTION_NOT_SUPPORTED
비결정적 함수는 에서 <operation>
지원되지 않습니다. <expression>
DELTA_NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
둘 이상의 MATCHED 절이 MERGE 문에 있는 경우 마지막 MATCHED 절만 조건을 생략할 수 있습니다.
DELTA_NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
MERGE 문에 NOT MATCHED BY SOURCE 절이 둘 이상 있는 경우 마지막 NOT MATCHED BY SOURCE 절만 조건을 생략할 수 있습니다.
DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION
MERGE 문에 NOT MATCHED 절이 두 개 이상 있는 경우 마지막 NOT MATCHED 절만 조건을 생략할 수 있음
DELTA_NON_PARSABLE_TAG
태그 <tag>
를 구문 분석할 수 없습니다.
파일 태그는 다음과 같습니다. <tagList>
DELTA_NON_PARTITION_COLUMN_ABSENT
Delta에 기록되는 데이터에는 분할되지 않은 열이 하나 이상 포함되어야 합니다.<details>
DELTA_NON_PARTITION_COLUMN_REFERENCE
조건자는 파티션이 아닌 열 ''<columnName>
을 참조합니다. 파티션 열만 참조할 수 있습니다. [<columnList>
]
DELTA_NON_PARTITION_COLUMN_SPECIFIED
분할 열이 아닌 열은 분할 열 <columnList>
만 필요한 <fragment>
위치에 지정됩니다.
DELTA_NON_SINGLE_PART_NAMESPACE_FOR_CATALOG
델타 카탈로그에는 단일 파트 네임스페이스가 필요하지만 <identifier>
여러 부분으로 구성됩니다.
DELTA_NOT_A_DATABRICKS_DELTA_TABLE
<table>
은 델타 테이블이 아닙니다. Databricks Delta를 사용하여 이 테이블을 만들려면 먼저 해당 테이블을 삭제하세요.
DELTA_NOT_A_DELTA_TABLE
<tableName>
은 델타 테이블이 아닙니다. Delta Lake를 사용하여 다시 만들려면 이 테이블을 먼저 삭제하세요.
DELTA_NOT_NULL_COLUMN_NOT_FOUND_IN_STRUCT
구조체에서 nullable 열을 찾을 수 없습니다. <struct>
DELTA_NOT_NULL_CONSTRAINT_VIOLATED
열 <columnName>
에 대해 NOT NULL 제약 조건을 위반했습니다.
DELTA_NOT_NULL_NESTED_FIELD
null을 허용하지 않는 중첩 필드는 null 허용 부모에 추가할 수 없습니다. 이에 맞게 부모 열의 null 허용을 설정하세요.
DELTA_NO_COMMITS_FOUND
에서 커밋을 찾을 수 없음 <logPath>
DELTA_NO_RECREATABLE_HISTORY_FOUND
에서 다시 만들 수 있는 커밋을 찾을 수 없음 <logPath>
DELTA_NO_RELATION_TABLE
테이블을 <tableIdent>
찾을 수 없음
DELTA_NO_START_FOR_CDC_READ
CDC 읽기의 startingVersion 또는 startingTimestamp가 제공되지 않았습니다.
DELTA_NULL_SCHEMA_IN_STREAMING_WRITE
Delta는 스트리밍 쓰기에 대한 스키마에서 NullTypes를 허용하지 않습니다.
DELTA_ONEOF_IN_TIMETRAVEL
시간 이동에 대한 'timestampAsOf' 또는 'versionAsOf'를 제공하세요.
DELTA_ONLY_OPERATION
<operation>
는 델타 테이블에 대해서만 지원됩니다.
DELTA_OPERATION_MISSING_PATH
에 대한 <operation>
경로 또는 테이블 식별자를 제공하세요.
DELTA_OPERATION_NOT_ALLOWED
허용되지 않는 작업입니다. <operation>
은 Delta 테이블에 지원되지 않습니다.
DELTA_OPERATION_NOT_ALLOWED_DETAIL
작업이 허용되지 않음: <operation>
델타 테이블에는 지원되지 않습니다. <tableName>
DELTA_OPERATION_NOT_SUPPORTED_FOR_COLUMN_WITH_COLLATION
<operation>
는 기본 데이터 정렬<collation>
이 아닌 열 <colName>
에 대해 지원되지 않습니다.
DELTA_OPERATION_NOT_SUPPORTED_FOR_EXPRESSION_WITH_COLLATION
<operation>
는 기본이 아닌 데이터 정렬을 <exprText>
사용하기 때문에 식에 지원되지 않습니다.
DELTA_OPERATION_ON_TEMP_VIEW_WITH_GENERATED_COLS_NOT_SUPPORTED
<operation>
생성된 열을 포함하는 델타 테이블을 참조하는 임시 보기의 명령은 지원되지 않습니다. Delta 테이블에서 직접 명령을 실행 <operation>
하세요.
DELTA_OPERATION_ON_VIEW_NOT_ALLOWED
작업이 허용되지 않음: <operation>
보기에서 수행할 수 없습니다.
DELTA_OVERWRITE_MUST_BE_TRUE
OVERWRITE = 'true'를 설정하지 않고는 복사 옵션 overwriteSchema를 지정할 수 없습니다.
DELTA_OVERWRITE_SCHEMA_WITH_DYNAMIC_PARTITION_OVERWRITE
동적 파티션 덮어쓰기 모드에서는 'overwriteSchema'를 사용할 수 없습니다.
DELTA_PARTITION_COLUMN_CAST_FAILED
파티션 열 <columnName>
에서 <value>
값을 <dataType>
으로 캐스팅하지 못함
DELTA_PARTITION_COLUMN_NOT_FOUND
스키마에 파티션 열을 <columnName>
찾을 수 없음 [<schemaMap>
]
DELTA_PARTITION_SCHEMA_IN_ICEBERG_TABLES
Iceberg 테이블을 변환할 때 파티션 스키마를 지정할 수 없습니다. 자동으로 유추됩니다.
DELTA_PATH_DOES_NOT_EXIST
<path>
이 존재하지 않거나 델타 테이블이 아닙니다.
DELTA_PATH_EXISTS
OVERWRITE = 'true'를 설정하지 않고는 기존 경로 <path>
에 쓸 수 없습니다.
DELTA_POST_COMMIT_HOOK_FAILED
델타 테이블 버전 <version>
에 커밋이 성공했지만 커밋 후 후크를 <name>
실행하는 동안 오류가 발생했습니다. <message>
DELTA_PROTOCOL_CHANGED
ProtocolChangedException: 델타 테이블의 프로토콜 버전이 동시 업데이트에 의해 변경되었습니다. <additionalInfo>
<conflictingCommit>
자세한 내용은 참조하세요 <docLink>
.
DELTA_PROTOCOL_PROPERTY_NOT_INT
프로토콜 속성 <key>
은 정수여야 합니다. 설립하다 <value>
DELTA_READ_FEATURE_PROTOCOL_REQUIRES_WRITE
테이블 기능을 사용하기 위해 읽기 권한자 프로토콜 버전만 업그레이드할 수 없습니다. 작성기 프로토콜 버전은 최소한 <writerVersion>
계속 진행해야 합니다. <docLink>
테이블 프로토콜 버전에 대한 자세한 내용은 참조하세요.
DELTA_READ_TABLE_WITHOUT_COLUMNS
열이 없는 델타 테이블을 <tableName>
읽으려고 합니다.
테이블을 읽을 수 있도록 mergeSchema = true
옵션으로 새 데이터를 작성합니다.
DELTA_REGEX_OPT_SYNTAX_ERROR
''<regExpOption>
에 대한 구문을 다시 확인하세요.
DELTA_REPLACE_WHERE_IN_OVERWRITE
replaceWhere는 필터별 덮어쓰기와 함께 사용할 수 없습니다.
DELTA_REPLACE_WHERE_MISMATCH
기록된 데이터는 부분 테이블 덮어쓰기 조건 또는 제약 조건 ''<replaceWhere>
을 따르지 않습니다.
<message>
DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE
'replaceWhere' 식 및 'partitionOverwriteMode'='dynamic' 모두는 DataFrameWriter 옵션에서 설정할 수 없습니다.
DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET
'dataChange'가 false로 설정되면 'replaceWhere'를 데이터 필터와 함께 사용할 수 없습니다. 필터: <dataFilters>
DELTA_ROW_ID_ASSIGNMENT_WITHOUT_STATS
행 개수 통계 없이는 행 ID를 할당할 수 없습니다.
Scala Notebook에서 다음 코드를 실행하여 테이블에 대한 통계를 수집하고 다시 시도합니다.
import com.databricks.sql.transaction.tahoe.DeltaLog
import com.databricks.sql.transaction.tahoe.stats.StatisticsCollection
import org.apache.spark.sql.catalyst.TableIdentifier
val log = DeltaLog.forTable(spark, TableIdentifier(table_name))
StatisticsCollection.recompute(spark, log)
DELTA_SCHEMA_CHANGED
검색된 스키마 변경:
스트리밍 원본 스키마: <readSchema>
데이터 파일 스키마: <dataSchema>
쿼리를 다시 시작하세요. 진행 없이 쿼리를 다시 시작해도 이 문제가 반복되면
호환되지 않는 스키마 변경을 수행한 것이므로 새 검사점 디렉터리를 사용하여
처음부터 쿼리를 시작해야 합니다.
DELTA_SCHEMA_CHANGED_WITH_STARTING_OPTIONS
버전 <version>
에서 검색된 스키마 변경:
스트리밍 원본 스키마: <readSchema>
데이터 파일 스키마: <dataSchema>
쿼리를 다시 시작하세요. 진행 없이 쿼리를 다시 시작해도 이 문제가 반복되면
호환되지 않는 스키마 변경을 수행한 것이므로 새 검사점 디렉터리를 사용하여
처음부터 쿼리를 시작해야 합니다. 이후에도 문제가 지속되는 경우
새 검사점 디렉터리로 변경하려면 기존 디렉터리를 변경해야 할 수 있습니다.
보다 새로운 버전에서 시작하는 'startingVersion' 또는 'startingTimestamp' 옵션
<version>
새 검사점 디렉터리가 있는 경우
DELTA_SCHEMA_CHANGED_WITH_VERSION
버전 <version>
에서 검색된 스키마 변경:
스트리밍 원본 스키마: <readSchema>
데이터 파일 스키마: <dataSchema>
쿼리를 다시 시작하세요. 진행 없이 쿼리를 다시 시작해도 이 문제가 반복되면
호환되지 않는 스키마 변경을 수행한 것이므로 새 검사점 디렉터리를 사용하여
처음부터 쿼리를 시작해야 합니다.
DELTA_SCHEMA_CHANGE_SINCE_ANALYSIS
DataFrame 또는 DeltaTable 개체를 만든 이후 Delta 테이블의 스키마가
호환되지 않는 방식으로 변경되었습니다. DataFrame 또는 DeltaTable 개체를 다시 정의하세요.
변경 내용:
<schemaDiff>
<legacyFlagMessage>
DELTA_SCHEMA_NOT_PROVIDED
테이블 스키마가 제공되지 않습니다. REPLACE 테이블 사용 시 테이블의 스키마(열 정의)를 입력하세요. AS SELECT 쿼리는 제공되지 않습니다.
DELTA_SCHEMA_NOT_SET
테이블 스키마가 설정되지 않았습니다. 데이터를 여기에 쓰거나 CREATE TABLE을 사용하여 스키마를 설정합니다.
DELTA_SET_LOCATION_SCHEMA_MISMATCH
새 Delta 위치의 스키마가 현재 테이블 스키마와 다릅니다.
원래 스키마:
<original>
대상 스키마:
<destination>
의도한 변경인 경우 다음을 실행하여 이 검사를 해제할 수 있습니다.
%%sql set <config>
= true
DELTA_SHALLOW_CLONE_FILE_NOT_FOUND
트랜잭션 로그에서 참조된 파일을 <filePath>
찾을 수 없습니다. 테이블 문을 사용하지 DELETE
않고 파일 시스템에서 데이터를 수동으로 삭제한 경우에 발생할 수 있습니다. 이 테이블은 단순 클론인 것처럼 보입니다. 이 경우 이 테이블이 복제된 원래 테이블이 복제본에서 여전히 사용 중인 파일을 삭제했을 때 이 오류가 발생할 수 있습니다. 클론이 원래 테이블과 독립적이되도록 하려면 대신 DEEP 클론을 사용합니다.
DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
데이터는 세션의 현재 받는 사람에게 적용되지 않는 받는 사람 속성 <property>
에 의해 제한됩니다. 문제를 해결하려면 데이터 공급자에게 문의하세요.
DELTA_SHARING_INVALID_OP_IN_EXTERNAL_SHARED_VIEW
<operation>
는 공유 크로스 계정인 델타 공유 보기에서 사용할 수 없습니다.
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_COLUMN
분할되지 않은 열 <badCols>
은 SHOW PARTITIONS에 대해 지정됩니다.
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE
분할되지 않은 테이블에는 SHOW PARTITIONS가 허용되지 않습니다. <tableName>
DELTA_SOURCE_IGNORE_DELETE
버전<version>
에서 스트리밍 원본에서 삭제된 데이터(예<removedFile>
: )가 검색되었습니다. 현재는 지원되지 않습니다. 삭제를 무시하려면 'ignoreDeletes' 옵션을 'true'로 설정합니다. 원본 테이블은 경로 <dataPath>
에서 찾을 수 있습니다.
DELTA_SOURCE_TABLE_IGNORE_CHANGES
버전의 <version>
원본 테이블에서 데이터 업데이트(예<file>
: )가 검색되었습니다. 현재는 지원되지 않습니다. 이 작업이 정기적으로 수행되고 변경 내용을 건너뛸 수 있는 경우 'skipChangeCommits' 옵션을 'true'로 설정합니다. 데이터 업데이트를 반영하려면 새 검사점 디렉터리로 이 쿼리를 다시 시작하거나 DLT를 사용하는 경우 전체 새로 고침을 수행하세요. 이러한 변경 내용을 처리해야 하는 경우 MV로 전환하세요. 원본 테이블은 경로 <dataPath>
에서 찾을 수 있습니다.
DELTA_STARTING_VERSION_AND_TIMESTAMP_BOTH_SET
'' 또는 '<version>
<timestamp>
'를 제공하세요.
DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND
<statsType>
Parquet 메타데이터 <columnPath>
의 열에 대한 통계를 찾을 수 없습니다. .
DELTA_STREAMING_CANNOT_CONTINUE_PROCESSING_POST_SCHEMA_EVOLUTION
델타 버전 <previousSchemaChangeVersion>
과 <currentSchemaChangeVersion>
델타 스트리밍 원본 간에 하나 이상의 비가산적 스키마 변경이<opType>
발견되었습니다.
종료된 <currentSchemaChangeVersion>
스키마를 사용하여 스트림 처리를 진행하기 전에 싱크 테이블에 스키마 변경 사항을 수동으로 전파할 것인지 확인하세요.
싱크 테이블의 스키마를 수정했거나 수정할 필요가 없다고 결정한 후에는 다음 SQL 구성 중 하나를 설정하여 비가산적 스키마 변경의 차단을 해제하고 스트림 처리를 계속할 수 있습니다.
이 일련의 스키마 변경에 대해 이 특정 스트림에 대한 차단을 해제하려면 다음을 설정합니다 <allowCkptVerKey>` = `<allowCkptVerValue>
.
이 특정 스트림에 대한 차단을 해제하려면 다음을 설정합니다. <allowCkptKey>` = `<allowCkptValue>
모든 스트림의 차단을 해제하려면 다음을 설정합니다 <allowAllKey>` = `<allowAllValue>
.
또는 해당하는 경우 SQL conf에서 이 스키마 변경 형식에 대한 스트림 차단을 해제하도록 바꿀 수 있습니다 <allowAllMode>
<opSpecificMode>
.
DELTA_STREAMING_CHECK_COLUMN_MAPPING_NO_SNAPSHOT
열 매핑 스키마 변경을 확인할 때 시작 버전에 대한 Delta 로그 스냅샷을 가져오지 못했습니다. 다른 시작 버전을 선택하거나 ''를 '<config>
true'로 설정하여 자체 위험 시 스트리밍 읽기를 강제로 사용하도록 설정하세요.
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE
읽기 호환되지 않는 스키마 변경(예: 이름 바꾸기 또는 삭제 또는 데이터 형식 변경)이 있는 테이블에서는 스트리밍 읽기가 지원되지 않습니다.
이 문제를 해결하기 위한 자세한 내용 및 가능한 다음 단계는 다음 설명서를 참조하세요. <docLink>
읽기 스키마: <readSchema>
. 호환되지 않는 데이터 스키마: <incompatibleSchema>
.
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE_USE_SCHEMA_LOG
읽기 호환되지 않는 스키마 변경(예: 이름 바꾸기 또는 삭제 또는 데이터 형식 변경)이 있는 테이블에서는 스트리밍 읽기가 지원되지 않습니다.
델타 스트림 처리에 비가산적 스키마 진화를 사용하도록 설정하려면 'schemaTrackingLocation'을 제공하세요.
자세한 내용은 <docLink>
를 참조하세요.
읽기 스키마: <readSchema>
. 호환되지 않는 데이터 스키마: <incompatibleSchema>
.
DELTA_STREAMING_METADATA_EVOLUTION
스트리밍 중에 델타 테이블의 스키마, 테이블 구성 또는 프로토콜이 변경되었습니다.
스키마 또는 메타데이터 추적 로그가 업데이트되었습니다.
업데이트된 메타데이터를 사용하여 처리를 계속하려면 스트림을 다시 시작하세요.
업데이트된 스키마: <schema>
.
업데이트된 테이블 구성: <config>
.
업데이트된 테이블 프로토콜: <protocol>
DELTA_STREAMING_SCHEMA_EVOLUTION_UNSUPPORTED_ROW_FILTER_COLUMN_MASKS
스키마 추적이 있는 원본 테이블 <tableId>
의 스트리밍은 행 필터 또는 열 마스크를 지원하지 않습니다.
행 필터 또는 열 마스크를 삭제하거나 스키마 추적을 사용하지 않도록 설정하세요.
DELTA_STREAMING_SCHEMA_LOCATION_CONFLICT
'<loc>
'에 있는 테이블 또는 테이블에서 스트리밍하는 동안 충돌하는 스키마 위치 '<table>
'가 검색되었습니다.
다른 스트림은 허용되지 않는 동일한 스키마 위치를 다시 사용할 수 있습니다.
이 테이블의 스트림 중 하나에 대한 새 고유 schemaTrackingLocation
경로 또는 streamingSourceTrackingId
판독기 옵션을 제공하세요.
DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT
스키마 위치 '<schemaTrackingLocation>
'는 검사점 위치 ''<checkpointLocation>
아래에 있어야 합니다.
DELTA_STREAMING_SCHEMA_LOG_DESERIALIZE_FAILED
델타 스트리밍 원본 스키마 로그의 불완전한 로그 파일은 ''<location>
입니다.
스키마 로그가 손상되었을 수 있습니다. 새 스키마 위치를 선택하세요.
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_DELTA_TABLE_ID
델타 스트림을 읽으려고 할 때 호환되지 않는 델타 테이블 ID가 검색되었습니다.
지속형 테이블 ID: <persistedId>
, 테이블 ID: <tableId>
스키마 로그가 다시 사용되었을 수 있습니다. 새 스키마 위치를 선택하세요.
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_PARTITION_SCHEMA
델타 스트림을 읽으려고 할 때 호환되지 않는 파티션 스키마가 검색되었습니다.
지속형 스키마: <persistedSchema>
델타 파티션 스키마: <partitionSchema>
최근에 테이블의 파티션 스키마를 수동으로 변경한 경우 스키마 로그를 다시 초기화하려면 새 스키마 위치를 선택하세요.
DELTA_STREAMING_SCHEMA_LOG_INIT_FAILED_INCOMPATIBLE_METADATA
델타 스트리밍 원본 스키마 로그를 초기화할 수 없습니다.
테이블 버전 <a>
<b>
에서 .로 스트리밍 일괄 처리를 제공하는 동안 호환되지 않는 스키마 또는 프로토콜 변경이 감지되었습니다.
DELTA_STREAMING_SCHEMA_LOG_PARSE_SCHEMA_FAILED
델타 스트리밍 원본 스키마 로그에서 스키마를 구문 분석하지 못했습니다.
스키마 로그가 손상되었을 수 있습니다. 새 스키마 위치를 선택하세요.
DELTA_TABLE_ALREADY_CONTAINS_CDC_COLUMNS
테이블에서 변경 데이터 캡처를 사용하도록 설정할 수 없습니다. 내부적으로 테이블의
예약된 <columnList>
열
사용할 예약 열이 테이블에 이미 포함되어 있습니다. 사용자가
테이블의 변경 데이터 피드 이러한 열의 이름을 바꾸거나 삭제합니다.
DELTA_TABLE_ALREADY_EXISTS
테이블 <tableName>
이 이미 있습니다.
DELTA_TABLE_FOR_PATH_UNSUPPORTED_HADOOP_CONF
현재 DeltaTable.forPath는 hadoop <allowedPrefixes>
구성 키만 지원하지만 <unsupportedOptions>
DELTA_TABLE_ID_MISMATCH
이 명령이 <tableLocation>
테이블을 사용하는 동안 델타 테이블이 대체되었습니다.
테이블 ID는 현재<newId>
입니다<oldId>
.
테이블의 일관된 보기를 읽도록 현재 명령을 다시 시도하세요.
DELTA_TABLE_LOCATION_MISMATCH
기존 테이블 <tableName>
의 위치는 <existingTableLocation>
. 지정된 위치 <tableLocation>
와 일치하지 않습니다.
DELTA_TABLE_NOT_FOUND
Delta 테이블 <tableName>
가 존재하지 않습니다.
DELTA_TABLE_NOT_SUPPORTED_IN_OP
에서 테이블이 지원 <operation>
되지 않습니다. 대신 경로를 사용하세요.
DELTA_TABLE_ONLY_OPERATION
<tableName>
은 델타 테이블이 아닙니다. <operation>
는 델타 테이블에 대해서만 지원됩니다.
DELTA_TARGET_TABLE_FINAL_SCHEMA_EMPTY
대상 테이블 최종 스키마가 비어 있습니다.
DELTA_TIMESTAMP_GREATER_THAN_COMMIT
제공된 타임스탬프(<providedTimestamp>
)는 이 버전에서 사용할 수 있는 최신 버전 이후입니다.
테이블(<tableName>
). 이전 또는 시간에 <maximumTimestamp>
타임스탬프를 사용하세요.
DELTA_TIMESTAMP_INVALID
제공된 타임스탬프(<expr>
)를 유효한 타임스탬프로 변환할 수 없습니다.
DELTA_TIME_TRAVEL_INVALID_BEGIN_VALUE
<timeTravelKey>
는 유효한 시작 값이어야 합니다.
DELTA_TRUNCATED_TRANSACTION_LOG
<path>
: 수동 삭제 또는 로그 보존 정책() 및 검사점 보존 정책(=<logRetentionKey>
<checkpointRetention>
=<checkpointRetentionKey>
<logRetention>
)으로 인해 트랜잭션 로그가 잘렸으므로 버전 <version>
에서 상태를 재구성할 수 없습니다.
DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED
허용되지 않는 작업입니다. Delta 테이블의 TRUNCATE TABLE은 파티션 조건자를 지원하지 않습니다. DELETE를 사용하여 특정 파티션 또는 행을 삭제합니다.
DELTA_UDF_IN_GENERATED_COLUMN
를 찾았습니다 <udfExpr>
. 생성된 열은 사용자 정의 함수를 사용할 수 없습니다.
DELTA_UNEXPECTED_ACTION_EXPRESSION
예기치 않은 작업 식 <expression>
입니다.
DELTA_UNEXPECTED_NUM_PARTITION_COLUMNS_FROM_FILE_NAME
<expectedColsSize>
파티션 열 예상: <expectedCols>
파일 이름 구문 분석에서 파티션 열을 <parsedCols>
찾았습니다<parsedColsSize>
.<path>
DELTA_UNEXPECTED_PARTIAL_SCAN
Delta 원본에 대한 전체 검색이 필요하지만 부분 검색이 발견되었습니다. 길:<path>
DELTA_UNEXPECTED_PARTITION_COLUMN_FROM_FILE_NAME
파티션 열 <expectedCol>
이 예상되지만 파일 이름을 구문 분석할 때 파티션 열을 <parsedCol>
찾았습니다. <path>
DELTA_UNEXPECTED_PARTITION_SCHEMA_FROM_USER
CONVERT TO DELTA는 카탈로그에서 유추된 파티션 스키마와 다른 파티션 스키마를 사용하여 호출되었습니다. 카탈로그에서 파티션 스키마를 선택할 수 있도록 스키마를 제공하지 마세요.
카탈로그 파티션 스키마:
<catalogPartitionSchema>
제공된 파티션 스키마:
<userPartitionSchema>
DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
델타 유니폼이 있는 빙산을 읽지 못했습니다.
자세한 내용은 DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION 참조 하세요.
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED
균일한 수신 테이블 만들기 또는 새로 고침은 지원되지 않습니다.
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED_FORMAT
형식 <fileFormat>
은 지원되지 않습니다. 원래 파일 형식인 빙산만 지원됩니다.
DELTA_UNIFORM_NOT_SUPPORTED
유니버설 형식은 Unity 카탈로그 테이블에서만 지원됩니다.
DELTA_UNIVERSAL_FORMAT_CONVERSION_FAILED
테이블 버전을 <version>
범용 형식 <format>
으로 변환하지 못했습니다. <message>
DELTA_UNIVERSAL_FORMAT_VIOLATION
유니버설 형식(<format>
)의 유효성 검사에 실패했습니다. <violation>
DELTA_UNKNOWN_CONFIGURATION
알 수 없는 구성이 지정되었습니다. <config>
DELTA_UNKNOWN_PRIVILEGE
알 수 없는 권한: <privilege>
DELTA_UNKNOWN_READ_LIMIT
알 수 없는 ReadLimit: <limit>
DELTA_UNRECOGNIZED_COLUMN_CHANGE
인식할 수 없는 열 변경 <otherClass>
. 오래된 Delta Lake 버전을 실행하고 있을 수 있습니다.
DELTA_UNRECOGNIZED_INVARIANT
인식할 수 없는 고정. Spark 버전을 업그레이드하세요.
DELTA_UNRECOGNIZED_LOGFILE
인식할 수 없는 로그 파일 <fileName>
DELTA_UNSET_NON_EXISTENT_PROPERTY
테이블에서 존재하지 않는 속성 '<property>
'을 설정 해제하려고 했습니다. <tableName>
DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE
<path>
는 절대 경로가 있는 파일 추가를 지원하지 않습니다.
DELTA_UNSUPPORTED_ALTER_TABLE_CHANGE_COL_OP
ALTER TABLE CHANGE COLUMN은 열을 <fieldPath>
다음으로 <oldField>
변경하는 데 지원되지 않습니다. <newField>
DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP
지원되지 않는 ALTER TABLE REPLACE COLUMNS 작업입니다. 이유: <details>
스키마를 다음에서 변경하지 못했습니다.
<oldSchema>
다음과 같이 변경합니다.
<newSchema>
DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE
기존 테이블(<tableName>
)을 CLONE으로 바꾸려고 했습니다. 이 작업은 다음과 같습니다.
지원 되지 않는. CLONE에 대해 다른 대상을 시도하거나 현재 대상에서 테이블을 삭제합니다.
DELTA_UNSUPPORTED_COLUMN_MAPPING_MODE_CHANGE
열 매핑 모드를 ''에서 '<oldMode>
<newMode>
'로 변경하는 것은 지원되지 않습니다.
DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL
현재 테이블 프로토콜 버전에서 다음을 사용하는 열 매핑 모드 변경을 지원하지
를 사용하여 <config>
열 매핑에 필요한 Delta 프로토콜 버전:
<requiredVersion>
테이블의 현재 Delta 프로토콜 버전:
<currentVersion>
<advice>
DELTA_UNSUPPORTED_COLUMN_MAPPING_SCHEMA_CHANGE
스키마 변경이 검색됨:
이전 스키마:
<oldTableSchema>
새 스키마:
<newTableSchema>
열 매핑 모드를 변경하는 동안에는 스키마 변경이 허용되지 않습니다.
DELTA_UNSUPPORTED_COLUMN_MAPPING_WRITE
열 매핑 모드를 사용하여 데이터를 쓰는 것은 지원되지 않습니다.
DELTA_UNSUPPORTED_COLUMN_TYPE_IN_BLOOM_FILTER
형식 <dataType>
이 있는 열에 블룸 필터 인덱스를 만드는 것은 지원되지 않습니다. <columnName>
DELTA_UNSUPPORTED_COMMENT_MAP_ARRAY
에 주석 <fieldPath>
을 추가할 수 없습니다. 지도 키/값 또는 배열 요소에 주석을 추가하는 것은 지원되지 않습니다.
DELTA_UNSUPPORTED_DATA_TYPES
지원되지 않는 데이터 형식 <dataTypeList>
을 사용하여 열을 찾았습니다. ''를 '<config>
false'로 설정하여 형식 검사를 사용하지 않도록 설정할 수 있습니다. 이 형식 검사를 사용하지 않도록 설정하면 사용자가 지원되지 않는 Delta 테이블을 만들 수 있으며, 이는 레거시 테이블을 읽거나 쓰려고 할 때만 사용해야 합니다.
DELTA_UNSUPPORTED_DATA_TYPE_IN_GENERATED_COLUMN
<dataType>
는 생성된 열의 결과가 될 수 없습니다.
DELTA_UNSUPPORTED_DEEP_CLONE
이 델타 버전에서는 전체 복제가 지원되지 않습니다.
DELTA_UNSUPPORTED_DESCRIBE_DETAIL_VIEW
<view>
는 보기입니다. DESCRIBE DETAIL은 테이블에만 지원됩니다.
DELTA_UNSUPPORTED_DROP_CLUSTERING_COLUMN
클러스터링 열(<columnList>
)을 삭제할 수 없습니다.
DELTA_UNSUPPORTED_DROP_COLUMN
DROP COLUMN은 Delta 테이블에 지원되지 않습니다. <advice>
DELTA_UNSUPPORTED_DROP_NESTED_COLUMN_FROM_NON_STRUCT_TYPE
StructType에서 중첩된 열만 삭제할 수 있습니다. 설립하다 <struct>
DELTA_UNSUPPORTED_DROP_PARTITION_COLUMN
파티션 열(<columnList>
)을 삭제할 수 없습니다.
DELTA_UNSUPPORTED_EXPRESSION
에 대해 지원되지 않는 식 형식(<expType>
)입니다 <causedBy>
. 지원되는 형식은 [<supportedTypes>
]입니다.
DELTA_UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
<expression>
는 생성된 열에서 사용할 수 없습니다.
DELTA_UNSUPPORTED_FEATURES_FOR_READ
지원되지 않는 델타 읽기 기능: 테이블 "<tableNameOrPath>
"에는 이 버전의 Databricks <unsupported>
에서 지원되지 않는 판독기 테이블 기능이 필요합니다. Delta Lake 기능 호환성에 대한 자세한 내용은 참조 <link>
하세요.
DELTA_UNSUPPORTED_FEATURES_FOR_WRITE
지원되지 않는 델타 쓰기 기능: 테이블 "<tableNameOrPath>
"에는 이 버전의 Databricks <unsupported>
에서 지원되지 않는 기록기 테이블 기능이 필요합니다. Delta Lake 기능 호환성에 대한 자세한 내용은 참조 <link>
하세요.
DELTA_UNSUPPORTED_FEATURES_IN_CONFIG
다음 Spark 구성 또는 델타 테이블 속성에 구성된 테이블 기능은 이 버전의 Databricks <configs>
에서 인식되지 않습니다.
DELTA_UNSUPPORTED_FEATURE_STATUS
테이블 기능 <feature>
의 상태가 "지원"되지만 "<status>
"이(가) 있어야 합니다.
DELTA_UNSUPPORTED_FIELD_UPDATE_NON_STRUCT
중첩 필드 업데이트는 StructType에 대해서만 지원되지만 형식인 필드를 <columnName>
<dataType>
업데이트하려고 합니다.
DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS
삭제 벡터 파일이 누락된 테이블 버전에서는 'FSCK REPAIR TABLE' 명령이 지원되지 않습니다.
지원 담당자에게 문의하세요.
DELTA_UNSUPPORTED_GENERATE_WITH_DELETION_VECTORS
삭제 벡터가 있는 테이블 버전에서는 'GENERATE symlink_format_manifest' 명령이 지원되지 않습니다.
삭제 벡터가 없는 테이블 버전을 생성하려면 ‘REORG TABLE table APPLY (PURGE)’ 명령을 실행합니다. 그런 다음, 'GENERATE' 명령을 다시 실행합니다.
REORG와 GENERATE 사이에 삭제 벡터를 다시 추가하는 동시 트랜잭션이 없는지 확인합니다.
매니페스트를 정기적으로 생성해야 하거나 동시 트랜잭션을 방지할 수 없는 경우 'ALTER TABLE table SET TBLPROPERTIES(delta.enableDeletionVectors = false)'를 사용하여 이 테이블에서 삭제 벡터를 사용하지 않도록 설정하는 것이 좋습니다.
DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT
StructTypes 이외의 중첩 필드에는 고정이 지원되지 않습니다.
DELTA_UNSUPPORTED_IN_SUBQUERY
하위 쿼리에서는 조건에서 지원 <operation>
되지 않습니다.
DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX
listKeywithPrefix를 사용할 수 없음
DELTA_UNSUPPORTED_MANIFEST_GENERATION_WITH_COLUMN_MAPPING
외부 판독기는 이러한 Delta 테이블을 읽을 수 없으므로 열 매핑을 활용하는 테이블에는 매니페스트 생성이 지원되지 않습니다. 자세한 내용은 Delta 설명서를 참조하세요.
DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC
스키마 진화를 사용하는 MERGE INTO 작업은 현재 CDC 출력 쓰기를 지원하지 않습니다.
DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE
조건자의 다중 열은 조건에서 지원 <operation>
되지 않습니다.
DELTA_UNSUPPORTED_NESTED_COLUMN_IN_BLOOM_FILTER
중첩된 열에 블룸 파일러 인덱스 만들기는 현재 지원되지 않습니다. <columnName>
DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION
중첩된 필드는 (필드 = <fieldName>
)에서 <operation>
지원되지 않습니다.
DELTA_UNSUPPORTED_NON_EMPTY_CLONE
복제 대상 테이블이 비어 있지 않습니다. CLONE을 실행하기 전에 테이블의 TRUNCATE 또는 DELETE FROM을 수행하세요.
DELTA_UNSUPPORTED_OUTPUT_MODE
데이터 원본 <dataSource>
은 출력 모드를 지원하지 <mode>
않습니다.
DELTA_UNSUPPORTED_PARTITION_COLUMN_IN_BLOOM_FILTER
분할 열에 블룸 필터 인덱스를 만드는 것은 지원되지 않습니다. <columnName>
DELTA_UNSUPPORTED_RENAME_COLUMN
열 이름은 Delta 테이블에 지원되지 않습니다. <advice>
DELTA_UNSUPPORTED_SCHEMA_DURING_READ
Delta는 읽기 시간에 스키마 지정을 지원하지 않습니다.
DELTA_UNSUPPORTED_SORT_ON_BUCKETED_TABLES
SORTED BY는 Delta 버킷 테이블에 지원되지 않습니다.
DELTA_UNSUPPORTED_SOURCE
<operation>
대상은 델타 원본만 지원합니다.
<plan>
DELTA_UNSUPPORTED_STATIC_PARTITIONS
파티션 사양에서 정적 파티션을 지정하는 것은 현재 삽입 중에 지원되지 않습니다.
DELTA_UNSUPPORTED_STRATEGY_NAME
지원되지 않는 전략 이름: <strategy>
DELTA_UNSUPPORTED_SUBQUERY
하위 쿼리는 (조건 = <cond>
)에서 <operation>
지원되지 않습니다.
DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES
하위 쿼리는 파티션 조건자에서 지원되지 않습니다.
DELTA_UNSUPPORTED_TIME_TRAVEL_MULTIPLE_FORMATS
시간 이동은 여러 형식으로 지정할 수 없습니다.
DELTA_UNSUPPORTED_TIME_TRAVEL_VIEWS
시간 이동 보기, 하위 쿼리, 스트림 또는 데이터 피드 쿼리를 변경할 수 없습니다.
DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES
샘플 테이블 자르기는 지원되지 않습니다.
DELTA_UNSUPPORTED_TYPE_CHANGE_IN_SCHEMA
지원되지 않는 형식 변경이 적용되었으므로 이 테이블에서 작업할 수 없습니다. 필드 <fieldName>
가 .로 <fromType>
<toType>
변경되었습니다.
DELTA_UNSUPPORTED_VACUUM_SPECIFIC_PARTITION
델타 테이블을 진공 처리할 때 기본 경로(<baseDeltaPath>
)를 제공하세요. 특정 파티션을 완전히 비우는 것은 현재 지원되지 않습니다.
DELTA_UNSUPPORTED_WRITES_STAGED_TABLE
테이블 구현은 쓰기를 지원하지 않습니다. <tableName>
DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES
샘플 테이블에는 쓰기가 지원되지 않음
DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION
로 캐스팅 <fromCatalog>
할 <toCatalog>
수 없습니다. 중첩된 모든 열이 일치해야 합니다.
DELTA_VACUUM_COPY_INTO_STATE_FAILED
데이터 파일의 VACUUM이 성공했지만 COPY INTO 상태 가비지 수집에 실패했습니다.
DELTA_VERSIONS_NOT_CONTIGUOUS
버전(<versionList>
)은 연속되지 않습니다.
자세한 내용은 DELTA_VERSIONS_NOT_CONTIGUOUS를 참조하세요.
DELTA_VIOLATE_CONSTRAINT_WITH_VALUES
값이 있는 행에서 위반된 CHECK 제약 조건 <constraintName>
<expression>
:
<values>
DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
테이블 <table>
속성의 유효성 검사가 위반되었습니다.
자세한 내용은 DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED를 참조하세요.
DELTA_WRITE_INTO_VIEW_NOT_SUPPORTED
<viewIdentifier>
는 보기입니다. 뷰에 데이터를 쓸 수 없습니다.
DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST
Z 순서 열 <columnName>
은 데이터 스키마에 없습니다.
DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS
Z-Ordering on <cols>
은
Z-순서 지정이 비효율적입니다. 다음 단계는 "권장 문서"에 제공된 링크의
<link>
데이터 건너뛰기 및 Z-순서 지정에 대한 자세한 내용은 '%%sql set = false'를 설정하여
이 검사를 사용하지 않도록
'%%sql set <zorderColStatKey>
= false'
DELTA_ZORDERING_ON_PARTITION_COLUMN
<colName>
는 파티션 열입니다. Z 순서 지정은 데이터 열에서만 수행할 수 있습니다.
자동 로더
CF_ADD_NEW_NOT_SUPPORTED
스키마를 지정하면 스키마 진화 모드 <addNewColumnsMode>
가 지원되지 않습니다. 이 모드를 사용하려면 cloudFiles.schemaHints
를 통해 스키마를 대신 제공할 수 있습니다.
CF_AMBIGUOUS_AUTH_OPTIONS_ERROR
(기본) 디렉터리에 대한 알림 설정 인증 옵션이 발견됨
나열 모드:
<options>
파일 알림 모드를 사용하려면 다음을 명시적으로 설정하세요.
.option("cloudFiles.<useNotificationsKey>
", "true")
또는 옵션의 유효성 검사를 건너뛰고 이러한 인증 옵션을 무시하려는 경우
다음을 설정할 수 있습니다.
.option(“cloudFiles.ValidateOptionsKey>”, “false”)
CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR
증분 목록 모드(cloudFiles.<useIncrementalListingKey>
)
및 파일 알림(cloudFiles.<useNotificationsKey>
)
동시에 사용하도록 설정되었습니다.
하나만 선택했는지 확인하세요.
CF_AZURE_STORAGE_SUFFIXES_REQUIRED
Azure용 adlsBlobSuffix 및 adlsDfsSuffix 필요
CF_BUCKET_MISMATCH
<storeType>
파일 내 이벤트는 <fileEvent>
소스<source>
에서 예상한 내용과 다릅니다.
CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY
스키마 로그가 비어 있으면 스키마를 진화시킬 수 없습니다. 스키마 로그 위치: <logPath>
CF_CANNOT_PARSE_QUEUE_MESSAGE
다음 큐 메시지를 구문 분석할 수 없습니다. <message>
CF_CANNOT_RESOLVE_CONTAINER_NAME
경로 <path>
에서 컨테이너 이름을 확인할 수 없습니다. , 해결된 URI: <uri>
CF_CANNOT_RUN_DIRECTORY_LISTING
실행 중인 비동기 백필 스레드가 있는 경우 디렉터리 나열을 실행할 수 없음
CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON
cloudFiles.cleanSource 및 cloudFiles.allowOverwrites를 동시에 활성화할 수 없습니다.
CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION
자동 로더는 원본 디렉터리에 대한 쓰기 권한이 없으므로 처리된 파일을 삭제할 수 없습니다.
<reason>
해결하려면 다음 중 하나를 수행할 수 있습니다.
- 원본 디렉터리 OR에 쓰기 권한 부여
- cleanSource를 'OFF'로 설정
SQLConf spark.databricks.cloudFiles.cleanSource.disabledDueToAuthorizationErrors를 'true'로 설정하여 스트림의 차단을 해제할 수도 있습니다.
CF_DUPLICATE_COLUMN_IN_DATA
테이블의 파티션 스키마를 유추하려고 할 때 오류가 발생했습니다. 데이터 및 파티션 경로에 동일한 열이 복제되었습니다. 파티션 값을 무시하려면 .option("cloudFiles.<partitionColumnsKey>
", "{comma-separated-list}")을 사용하여 파티션 열을 명시적으로 제공하세요.
CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE
입력 경로 <path>
가 비어 있으면 스키마를 유추할 수 없습니다. 입력 경로에 파일이 있는 경우 스트림을 시작하거나 스키마를 지정하세요.
CF_EVENT_GRID_AUTH_ERROR
Event Grid 구독을 만들지 못했습니다. 서비스 주체에 Event Grid 구독이
보안 주체에는 <permissionType>
Event Grid 구독이 있습니다. 자세한 내용 참조:
<docLink>
CF_EVENT_GRID_CREATION_FAILED
이벤트 그리드 구독을 만들지 못했습니다. Microsoft.EventGrid가
구독의 리소스 공급자로 등록되어 있는지 확인하세요. 자세한 내용 참조:
<docLink>
CF_EVENT_GRID_NOT_FOUND_ERROR
Event Grid 구독을 만들지 못했습니다. 스토리지 계정 ()이
계정(<storageAccount>
)은 리소스 그룹(<resourceGroup>
) 아래에 있으며
“StorageV2(범용 v2)” 계정인지 확인하세요. 자세한 내용 참조:
<docLink>
CF_EVENT_NOTIFICATION_NOT_SUPPORTED
자동 로더 이벤트 알림 모드는 지원 <cloudStore>
되지 않습니다.
CF_FAILED_TO_CHECK_STREAM_NEW
스트림이 새 스트림인지 확인하지 못했습니다.
CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION
구독 만들기 실패: <subscriptionName>
. 이름이 같은 구독이 이미 있으며 다른 항목(<otherTopicName>
)과 연결되어 있습니다. 원하는 항목은 <proposedTopicName>
입니다. 기존 구독을 삭제하거나 새 리소스 접미사를 사용하여 구독을 만드세요.
CF_FAILED_TO_CREATED_PUBSUB_TOPIC
<topicName>
항목을 만들지 못했습니다. 이름이 같은 항목이 이미 있습니다.<reason>
기존 토픽을 제거하거나 다른 리소스 접미사를 사용하여 다시 시도하세요.
CF_FAILED_TO_DELETE_GCP_NOTIFICATION
<topicName>
항목의 <bucketName>
버킷에서 ID가 <notificationId>
인 알림을 삭제하지 못했습니다. GCP 콘솔을 통해 다시 시도하거나 수동으로 알림을 제거하세요.
CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA
문자열에서 지속형 스키마를 역직렬화하지 못했습니다. '<jsonSchema>
'
CF_FAILED_TO_EVOLVE_SCHEMA
스키마 로그가 없으면 스키마를 진화시킬 수 없습니다.
CF_FAILED_TO_FIND_PROVIDER
에 대한 공급자를 찾지 못했습니다. <fileFormatInput>
CF_FAILED_TO_INFER_SCHEMA
입력 경로<path>
의 기존 파일에서 형식 <fileFormatInput>
에 대한 스키마를 유추하지 못했습니다.
자세한 내용은 CF_FAILED_TO_INFER_SCHEMA 참조 하세요.
CF_FAILED_TO_WRITE_TO_SCHEMA_LOG
위치에서 <path>
스키마 로그에 쓰지 못했습니다.
CF_FILE_FORMAT_REQUIRED
필수 옵션을 찾을 수 없음: cloudFiles.format.
CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS
항목<topicName>
에 대한 자동 로더 접두사를 사용하여 여러(<num>
) 구독을 찾았습니다.
<subscriptionList>
항목당 구독이 하나만 있어야 합니다. 항목에 여러 구독이 없는지 수동으로 확인하세요.
CF_GCP_AUTHENTICATION
다음<clientEmail>
<client>
을 모두 제공하세요.
<privateKey>
<privateKeyId>
또는 기본값을 사용하기 위해 해당 항목 중 하나도 제공하지 않습니다.
GCP , , ,을(를) 모두 제공하거나 아예 제공하지 마세요.
CF_GCP_LABELS_COUNT_EXCEEDED
GCP 리소스에 대해 너무 많은 레이블(<num>
)을 받았습니다. 리소스당 최대 레이블 수는 .입니다 <maxNum>
.
CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED
GCP 리소스에 대해 너무 많은 리소스 태그(<num>
)를 받았습니다. 리소스 태그는 리소스에 GCP 레이블로 저장되고 Databricks 특정 태그는 <maxNum>
이 레이블 할당량의 일부를 사용하므로 리소스당 최대 리소스 태그 수입니다.
CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG
경로의 스키마 로그에 불완전한 로그 파일 <path>
CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT
자동 로더 검사점의 불완전한 메타데이터 파일
CF_INCORRECT_SQL_PARAMS
cloud_files 메서드는 로드할 경로와 파일 형식이라는 두 가지 필수 문자열 매개 변수를 허용합니다. 파일 판독기 옵션은 문자열 키-값 맵에 제공해야 합니다. 예를 들어 cloud_files("path", "json", map("option1", "value1"))입니다. 받은: <params>
CF_INTERNAL_ERROR
내부 오류입니다.
자세한 내용은 CF_INTERNAL_ERROR 참조 하세요.
CF_INVALID_ARN
잘못된 ARN: <arn>
CF_INVALID_CHECKPOINT
이 검사점은 유효한 CloudFiles 원본이 아닙니다.
CF_INVALID_CLEAN_SOURCE_MODE
클린 소스 옵션 <value>
에 대한 모드가 잘못되었습니다.
CF_INVALID_GCP_RESOURCE_TAG_KEY
GCP 리소스에 대한 리소스 태그 키가 잘못됨: <key>
키는 소문자로 시작하고 1~63자 이내여야 하며, 소문자, 숫자, 밑줄(_) 및 하이픈(-)만 포함해야 합니다.
CF_INVALID_GCP_RESOURCE_TAG_VALUE
GCP 리소스에 대한 리소스 태그 값이 잘못됨: <value>
값은 0~63자 이내여야 하며 소문자, 숫자, 밑줄(_) 및 하이픈(-)만 포함해야 합니다.
CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS
자동 로더는 관리되는 파일 이벤트와 함께 사용할 때 다음 옵션을 지원하지 않습니다.
<optionList>
이러한 옵션을 제거한 다음 스트림을 다시 시작하는 것이 좋습니다.
CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
관리되는 파일 이벤트 서비스에서 잘못된 응답입니다. 도움이 필요하면 Databricks 지원에 문의하세요.
자세한 내용은 CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE 참조 하세요.
CF_INVALID_SCHEMA_EVOLUTION_MODE
cloudFiles.<schemaEvolutionModeKey>
{ 중 하나여야 합니다.
"<addNewColumns>
"
"<failOnNewColumns>
"
"<rescue>
"
"<noEvolution>
"}
CF_INVALID_SCHEMA_HINTS_OPTION
스키마 힌트는 특정 열을 한 번만 지정할 수 있습니다.
이 경우 열을 다시 정의합니다. <columnName>
다음 열을 여러 번 다시 정의합니다.
<schemaHints>
CF_INVALID_SCHEMA_HINT_COLUMN
스키마 힌트는 맵과 배열의 중첩 형식을 재정의하는 데 사용할 수 없습니다.
충돌 열: <columnName>
CF_LATEST_OFFSET_READ_LIMIT_REQUIRED
latestOffset은 이 원본에서 ReadLimit를 사용하여 호출해야 합니다.
CF_LOG_FILE_MALFORMED
로그 파일 형식이 잘못되었습니다. .에서 <fileName>
올바른 로그 버전을 읽지 못했습니다.
CF_MANAGED_FILE_EVENTS_BACKFILL_IN_PROGRESS
includeExistingFiles를 false로 설정하여 외부 위치에 있는 기존 파일을 무시하도록 자동 로더에 요청했습니다. 그러나 관리되는 파일 이벤트 서비스는 여전히 외부 위치에서 기존 파일을 검색합니다. 관리되는 파일 이벤트가 외부 위치의 모든 파일 검색을 완료한 후 다시 시도하세요.
CF_MANAGED_FILE_EVENTS_ENDPOINT_NOT_FOUND
관리되는 파일 이벤트와 함께 자동 로더를 사용하지만 입력 경로 '<path>
'의 외부 위치에 파일 이벤트가 활성화되지 않았거나 입력 경로가 잘못된 것으로 나타납니다. 입력 경로에 대한 외부 위치에서 파일 이벤트를 사용하도록 Databricks 관리자에게 요청하세요.
CF_MANAGED_FILE_EVENTS_ENDPOINT_PERMISSION_DENIED
관리되는 파일 이벤트와 함께 자동 로더를 사용하지만 입력 경로 ''<path>
에 대한 외부 위치 또는 볼륨에 액세스할 수 없거나 입력 경로가 잘못되었습니다. Databricks 관리자에게 외부 위치 또는 볼륨에 대한 읽기 권한을 부여하거나 기존 외부 위치 또는 볼륨 내에서 유효한 입력 경로를 제공하도록 요청하세요.
CF_MANAGED_FILE_EVENTS_ONLY_ON_SERVERLESS
관리되는 파일 이벤트가 있는 자동 로더는 Databricks 서버리스에서만 사용할 수 있습니다. 계속하려면 이 워크로드를 Databricks 서버리스로 이동하거나 cloudFiles.useManagedFileEvents 옵션을 해제하세요.
CF_MAX_MUST_BE_POSITIVE
양수여야 합니다.
CF_METADATA_FILE_CONCURRENTLY_USED
여러 스트리밍 쿼리가 동시에 사용 <metadataFile>
CF_MISSING_METADATA_FILE_ERROR
스트리밍 원본 검사점 디렉터리의 메타데이터 파일이 없습니다. 이 메타데이터
파일에 스트림의 중요한 기본 옵션이 포함되어 있으므로 지금은 스트림을 다시 시작할 수
없습니다. 도움이 필요하면 Databricks 지원에 문의하세요.
CF_MISSING_PARTITION_COLUMN_ERROR
제공된 스키마에 파티션 열 <columnName>
이 없습니다.
<schema>
CF_MISSING_SCHEMA_IN_PATHLESS_MODE
파일 알림 모드를 사용하는 동안 경로가 CloudFiles 원본에 제공되지 않은 경우 .schema()를 사용하여 스키마를 지정하세요. 또는 자동 로더가 스키마를 유추하도록 하려면 .load()에 기본 경로를 제공하세요.
CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC
<bucketName>
버킷에서 <topicName>
항목에 대한 기존 알림이 발견됨:
알림,ID
<notificationList>
의도하지 않은 이벤트로 구독자에게 불쾌감을 주지 않도록 위의 알림을 삭제하고 다시 시도하세요.
CF_NEW_PARTITION_ERROR
파일에서 새 파티션 열이 유추되었습니다. [<filesList>
]. 스키마의 모든 파티션 열을 제공하거나 .option(“cloudFiles.partitionColumns”, “{comma-separated-list|empty-string}”)을 사용하여 값을 추출하려는 파티션 열 목록을 제공하세요.
CF_PARTITON_INFERENCE_ERROR
현재 파일 일괄 처리의 파티션 스키마를 유추하려고 할 때 오류가 발생했습니다. .option("cloudFiles.<partitionColumnOption>
", "{comma-separated-list}")을 사용하여 파티션 열을 명시적으로 제공하세요.
CF_PATH_DOES_NOT_EXIST_FOR_READ_FILES
입력 경로 <path>
가 없으면 파일을 읽을 수 없습니다. 입력 경로가 존재하는지 확인하고 다시 시도하세요.
CF_PERIODIC_BACKFILL_NOT_SUPPORTED
비동기 백필을 사용하지 않도록 설정하면 주기적인 백필이 지원되지 않습니다. spark.databricks.cloudFiles.asyncDirListing
을 true로 설정하여 비동기 백필/디렉터리 나열을 사용하도록 설정할 수 있습니다.
CF_PREFIX_MISMATCH
일치하지 않는 이벤트를 발견했습니다. 키 <key>
에는 접두사가 없습니다. <prefix>
CF_PROTOCOL_MISMATCH
<message>
코드에 다른 변경 사항이 필요 없는 경우 SQL
구성: '<sourceProtocolVersionKey>
= <value>
'
스트림을 계속하세요. 다음을 참조하세요.
<docLink>
을 참조하세요.
CF_REGION_NOT_FOUND_ERROR
기본 AWS 지역을 가져올 수 없습니다. cloudFiles.region 옵션을 사용하여 지역을 지정하세요.
CF_RESOURCE_SUFFIX_EMPTY
알림 서비스를 만들지 못했습니다. 리소스 접미사는 비워 둘 수 없습니다.
CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS
알림 서비스를 만들지 못했습니다. 리소스 접미사는 영숫자 문자, 하이픈(-) 및 밑줄(_)만 포함할 수 있습니다.
CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE
알림 서비스를 만들지 못했습니다. 리소스 접미사는 소문자, 숫자 및 대시(-)만 포함할 수 있습니다.
CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP
알림 서비스를 만들지 못했습니다. 리소스 접미사는 영숫자 문자, 하이픈(-), 밑줄(_), 마침표(.), 타일(~) 및 기호(+) 및 백분율 기호(<percentSign>
)만 가질 수 있습니다.
CF_RESOURCE_SUFFIX_LIMIT
알림 서비스를 만들지 못했습니다. 리소스 접미사에 문자 이상이 <limit>
있을 수 없습니다.
CF_RESOURCE_SUFFIX_LIMIT_GCP
알림 서비스를 만들지 못했습니다. 리소스 접미사는 문자 사이 <lowerLimit>
<upperLimit>
여야 합니다.
CF_RESTRICTED_GCP_RESOURCE_TAG_KEY
제한된 GCP 리소스 태그 키(<key>
)를 찾았습니다. 자동 로더에 대해 다음 GCP 리소스 태그 키가 제한됩니다. [<restrictedKeys>
]
CF_RETENTION_GREATER_THAN_MAX_FILE_AGE
cloudFiles.cleanSource.retentionDuration은 cloudFiles.maxFileAge보다 클 수 없습니다.
CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX
<prefix>
접두사를 사용하여 <topic>
항목에 대한 알림을 만들지 못했습니다. 접두사(<oldPrefix>
)는 다르지만 이름이 같은 항목이 이미 있습니다. 다른 리소스 접미사를 사용하여 설정하거나 기존 설정을 삭제해 보세요.
CF_SOURCE_DIRECTORY_PATH_REQUIRED
원본 디렉터리 경로에 path
옵션을 제공하세요.
CF_SOURCE_UNSUPPORTED
클라우드 파일 원본은 현재 S3, Azure Blob Storage(wasb/wasbs), Azure Data Lake Gen1(adl) 및 Gen2(abfs/abfss) 경로만 지원합니다. path: ''<path>
, resolved uri: '<uri>
'
CF_STATE_INCORRECT_SQL_PARAMS
cloud_files_state 함수는 cloudFiles 스트림의 검사점 디렉터리 또는 스트리밍 테이블을 식별하는 다중 파트 tableName을 나타내는 문자열 매개 변수와 상태를 로드할 검사점 버전을 나타내는 선택적 두 번째 정수 매개 변수를 허용합니다. 두 번째 매개 변수는 최신 검사점을 읽는 '최신'일 수도 있습니다. 받은: <params>
CF_STATE_INVALID_CHECKPOINT_PATH
입력 검사점 경로 <path>
가 잘못되었습니다. 경로가 없거나 cloud_files 원본이 없습니다.
CF_STATE_INVALID_VERSION
지정된 버전 <version>
이 없거나 분석 중에 제거되었습니다.
CF_THREAD_IS_DEAD
<threadName>
스레드가 중지되었습니다.
CF_UNABLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION
원본 검사점 위치에서 스트림 검사점 위치를 파생할 수 없습니다. <checkPointLocation>
CF_UNABLE_TO_DETECT_FILE_FORMAT
샘플링된 파일에서 <fileSize>
소스 파일 <formats>
형식을 검색할 수 없습니다. 형식을 지정하세요.
CF_UNABLE_TO_EXTRACT_BUCKET_INFO
버킷 정보를 추출할 수 없습니다. 경로: ''<path>
, 해결된 URI: '<uri>
'.
CF_UNABLE_TO_EXTRACT_KEY_INFO
키 정보를 추출할 수 없습니다. 경로: ''<path>
, 해결된 URI: '<uri>
'.
CF_UNABLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO
스토리지 계정 정보를 추출할 수 없습니다. path: ''<path>
, resolved uri: '<uri>
'
CF_UNABLE_TO_LIST_EFFICIENTLY
경로 <path>
에 대한 디렉터리 이름 바꾸기 이벤트를 받았지만 이 디렉터리를 효율적으로 나열할 수 없습니다. 스트림이 계속되도록 'cloudFiles.ignoreDirRenames' 옵션을 true로 설정하고 이 데이터를 처리할 cloudFiles.backfillInterval을 사용하여 일반 백필을 사용하도록 설정하는 것이 좋습니다.
CF_UNEXPECTED_READ_LIMIT
예기치 않은 ReadLimit: <readLimit>
CF_UNKNOWN_OPTION_KEYS_ERROR
알 수 없는 옵션 키가 발견됨:
<optionList>
제공된 모든 옵션 키가 올바른지 확인하세요. 옵션 유효성 검사를
건너뛰고 이러한 알 수 없는 옵션을 무시하려면 다음을 설정할 수 있습니다.
.option("cloudFiles.<validateOptions>
", "false")
CF_UNKNOWN_READ_LIMIT
알 수 없는 ReadLimit: <readLimit>
CF_UNSUPPORTED_CLOUD_FILES_SQL_FUNCTION
자동 로더 스트리밍 원본을 만드는 SQL 함수 'cloud_files'은 Delta Live Tables 파이프라인에서만 지원됩니다. 자세한 내용 참조:
<docLink>
CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE
스키마 유추는 형식 <format>
에 대해 지원되지 않습니다. 스키마를 지정하세요.
CF_UNSUPPORTED_LOG_VERSION
지원되지 않는LogVersion: 지원되는 최대 로그 버전은 v<maxVersion>``, but encountered v``<version>
입니다. 로그 파일이 최신 버전의 DBR에서 생성되었으며 이 버전에서는 읽을 수 없습니다. 업그레이드하세요.
CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE
스키마 진화 모드 <mode>
는 형식 <format>
에 대해 지원되지 않습니다. 스키마 진화 모드를 'none'으로 설정하세요.
CF_USE_DELTA_FORMAT
Delta 테이블에서 읽기는 이 구문에서 지원되지 않습니다. Delta의 데이터를 사용하려는 경우 델타 테이블을 읽거나 델타 테이블을 스트림 원본(<deltaDocLink>
<streamDeltaDocLink>
)으로 읽는 문서를 참조하세요. Delta의 스트리밍 원본은 이미 점진적인 데이터 사용량에 최적화되어 있습니다.
지리 공간적
EWKB_PARSE_ERROR
EWKB 구문 분석 오류: <parseError>
위치 <pos>
GEOJSON_PARSE_ERROR
GeoJSON 구문 분석 오류: <parseError>
위치 <pos>
자세한 내용은 GEOJSON_PARSE_ERROR 참조 하세요.
H3_INVALID_CELL_ID
<h3Cell>
가 유효한 H3 셀 ID가 아닌 경우
자세한 내용은 H3_INVALID_CELL_ID 참조 하세요.
H3_INVALID_GRID_DISTANCE_VALUE
H3 그리드 거리는 <k>
음수가 아니어야 합니다.
자세한 내용은 H3_INVALID_GRID_DISTANCE_VALUE 참조 하세요.
H3_INVALID_RESOLUTION_VALUE
H3 해상도 <r>
는 포함 및 <maxR>
사이 <minR>
여야 합니다.
자세한 내용은 H3_INVALID_RESOLUTION_VALUE 참조 하세요.
H3_NOT_ENABLED
<h3Expression>
가 비활성화되었거나 지원되지 않습니다. Photon 사용을 고려하거나 H3 식을 지원하는 계층으로 전환
자세한 내용은 H3_NOT_ENABLED 참조 하세요.
H3_PENTAGON_ENCOUNTERED_ERROR
그리드 거리가 있는 16진수 링을 <h3Cell>
계산하는 동안 펜타곤이 발견되었습니다. <k>
H3_UNDEFINED_GRID_DISTANCE
정의되지 않은 H3 <h3Cell1>
<h3Cell2>
그리드 거리
ST_DIFFERENT_SRID_VALUES
"<sqlFunction>
"에 대한 인수는 동일한 SRID 값을 가져야 합니다. SRID 값이 발견되었습니다. <srid1>
<srid2>
ST_INVALID_ARGUMENT
"<sqlFunction>
": <reason>
ST_INVALID_ARGUMENT_TYPE
"<sqlFunction>
"에 대한 인수는 형식이어야 합니다. <validTypes>
ST_INVALID_CRS_TRANSFORMATION_ERROR
<sqlFunction>
: SRID에서 SRID <srcSrid>
로의 잘못된 CRS 변환 또는 지원되지 않는 CRS 변환 <trgSrid>
ST_INVALID_ENDIANNESS_VALUE
엔디안은 <e>
'NDR'(little-endian) 또는 'XDR'(big-endian)이어야 합니다.
ST_INVALID_GEOHASH_VALUE
<sqlFunction>
: 잘못된 geohash 값 : ''<geohash>
. Geohash 값은 에 설명된 대로 유효한 소문자 base32 문자열이어야 합니다.https://en.wikipedia.org/wiki/Geohash#Textual_representation
ST_INVALID_PRECISION_VALUE
전체 자릿수 <p>
는 사이 <minP>
여야 하고 <maxP>
, 포함해야 합니다.
ST_INVALID_SRID_VALUE
잘못되었거나 지원되지 않는 SRID <srid>
ST_NOT_ENABLED
<stExpression>
가 비활성화되었거나 지원되지 않습니다. Photon을 사용하도록 설정하거나 ST 식을 지원하는 계층으로 전환하는 것이 좋습니다.
ST_UNSUPPORTED_RETURN_TYPE
GEOGRAPHY 및 GEOMETRY 데이터 형식은 쿼리에서 반환할 수 없습니다. 다음 SQL 식 중 하나를 사용하여 표준 교환 형식으로 변환합니다 <projectionExprs>
.
WKB_PARSE_ERROR
WKB 구문 분석 오류: <parseError>
위치 <pos>
자세한 내용은 WKB_PARSE_ERROR 참조 하세요.
WKT_PARSE_ERROR
WKT 구문 분석 오류: <parseError>
위치 <pos>
자세한 내용은 WKT_PARSE_ERROR 참조 하세요.
피드백
https://aka.ms/ContentUserFeedback
출시 예정: 2024년 내내 콘텐츠에 대한 피드백 메커니즘으로 GitHub 문제를 단계적으로 폐지하고 이를 새로운 피드백 시스템으로 바꿀 예정입니다. 자세한 내용은 다음을 참조하세요.다음에 대한 사용자 의견 제출 및 보기