Классы ошибок в Azure Databricks
Область применения: Databricks SQL Databricks Runtime 12.2 и более поздних версий
Классы ошибок являются описательными, читаемыми человеком, строками, уникальными для условия ошибки.
Классы ошибок можно использовать для программной обработки ошибок в приложении без необходимости анализа сообщения об ошибке.
Здесь приведен список распространенных состояний именованных ошибок, возвращаемых Azure Databricks.
Databricks Runtime и Databricks SQL
AGGREGATE_FUNCTION_WITH_NONDETERMINISTIC_EXPRESSION
Недетерминированное выражение <sqlExpr>
не должно отображаться в аргументах агрегатной функции.
AI_FUNCTION_HTTP_PARSE_CAST_ERROR
Не удалось проанализировать выходные данные модели при приведение к указанному returnType: "<dataType>
", ответ JSON был : "<responseString>
". Обновите возвращаемый тип, чтобы соответствовать содержимому типа, представленного в формате JSON ответа, а затем повторите запрос.
AI_FUNCTION_HTTP_PARSE_COLUMNS_ERROR
Фактические выходные данные модели имеют несколько столбцов "<responseString>
". Однако указанный тип возвращаемого значения["<dataType>
] имеет только один столбец. Обновите возвращаемый тип, чтобы содержать то же количество столбцов, что и выходные данные модели, а затем повторите запрос снова.
AI_FUNCTION_HTTP_REQUEST_ERROR
Произошла ошибка при выполнении HTTP-запроса для функции <funcName>
: <errorMessage>
AI_FUNCTION_INVALID_HTTP_RESPONSE
Недопустимый HTTP-ответ для функции <funcName>
: <errorMessage>
AI_FUNCTION_INVALID_MAX_WORDS
Максимальное число слов должно быть неотрицательное целое число, но имеется <maxWords>
.
AI_FUNCTION_INVALID_MODEL_PARAMETERS
Указанные параметры модели (<modelParameters>
) недопустимы в функции AI_QUERY для обслуживания конечной точки "<endpointName>
".
Дополнительные сведения см. в AI_FUNCTION_INVALID_MODEL_PARAMETERS
AI_FUNCTION_JSON_PARSE_ERROR
Произошла ошибка при анализе ответа JSON для функции <funcName>
: <errorMessage>
AI_FUNCTION_MODEL_SCHEMA_PARSE_ERROR
Не удалось проанализировать схему для конечной точки обслуживания "<endpointName>
": <errorMessage>
ответ JSON: "<responseJson>
".
returnType
Задайте параметр вручную в функции AI_QUERY, чтобы переопределить разрешение схемы.
AI_FUNCTION_UNSUPPORTED_ERROR
Функция <funcName>
не поддерживается в текущей среде. Он доступен только в Databricks SQL Pro и без сервера.
AI_FUNCTION_UNSUPPORTED_REQUEST
Не удалось оценить функцию SQL"<functionName>
, так как указанный аргумент <invalidValue>
имеет "<invalidDataType>
", но поддерживаются только следующие типы: <supportedDataTypes>
Обновите вызов функции, чтобы указать аргумент типа строки и повторить запрос снова.
AI_FUNCTION_UNSUPPORTED_RETURN_TYPE
Функция ИИ: "<functionName>
" не поддерживает следующий тип в качестве возвращаемого типа: "<typeName>
". Возвращаемый тип должен быть допустимым типом SQL, понятным катализатором и поддерживаемым функцией ИИ. Текущие поддерживаемые типы включают: <supportedValues>
AI_INVALID_ARGUMENT_VALUE_ERROR
Предоставленное значение "<argValue>
" не поддерживается аргументом "<argName>
". Поддерживаемые значения: <supportedValues>
AI_QUERY_RETURN_TYPE_COLUMN_TYPE_MISMATCH
Предоставленный параметр "<sqlExpr>
" не поддерживается возвращаемым типом аргумента.
AI_SEARCH_EMBEDDING_COLUMN_TYPE_UNSUPPORTED_ERROR
Векторный поиск с типом <embeddingColumnType>
столбца внедрения не поддерживается.
AI_SEARCH_INDEX_TYPE_UNSUPPORTED_ERROR
Векторный поиск с типом <indexType>
индекса не поддерживается.
AI_SEARCH_QUERY_TYPE_CONVERT_ENCODE_ERROR
Неспособность материализовать векторный поисковый запрос из типа <dataType>
Spark в скала-собственные объекты во время кодирования запросов с ошибкой: <errorMessage>
AI_SEARCH_UNSUPPORTED_NUM_RESULTS_ERROR
Векторный поиск с num_results больше, чем <maxLimit>
не поддерживается. Указанное ограничение было <requestedLimit>
. Pleaase повторите попытку с num_results <= <maxLimit>
ALL_PARAMETERS_MUST_BE_NAMED
Использование параметризованных имен запросов требует именовать все параметры. Отсутствующие имена параметров: <exprs>
ALL_PARTITION_COLUMNS_NOT_ALLOWED
Не удается использовать все столбцы для столбцов секционирования.
ALTER_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
Столбец <columnName>
ALTER TABLE <type>
указывает дескриптор "<optionName>
" несколько раз, что недопустимо.
AMBIGUOUS_ALIAS_IN_NESTED_CTE
Имя <name>
неоднозначно вложенном CTE.
Задайте значение <config>
"ИСПРАВЛЕНО", чтобы имя, определенное во внутреннем CTE, имеет приоритет. Если задано значение "LEGACY", внешние определения CTE будут иметь приоритет.
См https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine. раздел ".
AMBIGUOUS_COLUMN_OR_FIELD
Столбец или поле <name>
неоднозначно и имеет <n>
совпадения.
AMBIGUOUS_COLUMN_REFERENCE
Столбец <name>
неоднозначный. Это связано с тем, что вы объединили несколько кадров данных, и некоторые из этих кадров данных совпадают.
Этот столбец указывает на один из кадров данных, но Spark не может выяснить, какой из них.
Перед присоединением к ним вы можете псевдонимы кадров данных с различными именами DataFrame.alias
.
и укажите столбец с помощью квалифицированного имени, например df.alias("a").join(df.alias("b"), col("a.id") > col("b.id"))
.
AMBIGUOUS_CONSTRAINT
Неоднозначная ссылка на ограничение <constraint>
.
AMBIGUOUS_LATERAL_COLUMN_ALIAS
Псевдоним <name>
бокового столбца является неоднозначным и имеет <n>
совпадения.
AMBIGUOUS_REFERENCE
Ссылка <name>
неоднозначна, может быть: <referenceNames>
AMBIGUOUS_REFERENCE_TO_FIELDS
Неоднозначная ссылка на поле <field>
. Отображается <count>
время в схеме.
ANALYZE_CONSTRAINTS_NOT_SUPPORTED
АНАЛИЗ ОГРАНИЧЕНИЙ не поддерживается.
ANSI_CONFIG_CANNOT_BE_DISABLED
Конфигурация <config>
ANSI SQL не может быть отключена в этом продукте.
AQE_THREAD_INTERRUPTED
Поток AQE прерывается, вероятно, из-за отмены запроса пользователем.
ARGUMENT_NOT_CONSTANT
Функция <functionName>
включает параметр <parameterName>
по позиции <pos>
, требующий константного аргумента. Вычислить аргумент <sqlExpr>
отдельно и передать результат в виде константы.
ARITHMETIC_OVERFLOW
<message>
.<alternative>
Если необходимо задать значение <config>
false, чтобы обойти эту ошибку.
Дополнительные сведения см. в ARITHMETIC_OVERFLOW
ASSIGNMENT_ARITY_MISMATCH
Число столбцов или переменных, назначенных или псевдонимированных: <numTarget>
не соответствует количеству исходных выражений: <numExpr>
AS_OF_JOIN
Недопустимое соединение по состоянию на соединение.
Дополнительные сведения см. в AS_OF_JOIN
AVRO_DEFAULT_VALUES_UNSUPPORTED
Использование значений по умолчанию не поддерживается приrescuedDataColumn
включении. Эту проверку можно удалить, установив spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue
значение false, но значения по умолчанию не будут применяться, а значения NULL по-прежнему будут использоваться.
AVRO_INCOMPATIBLE_READ_TYPE
Не удается преобразовать Avro <avroPath>
в SQL <sqlPath>
, так как исходный тип <avroType>
данных закодирован, однако вы пытаетесь прочитать поле как <sqlType>
, что приведет к неправильному ответу.
Чтобы разрешить чтение этого поля, включите конфигурацию SQL: "spark.sql.legacy.avro.allowIncompatibleSchema".
AVRO_POSITIONAL_FIELD_MATCHING_UNSUPPORTED
Использование сопоставления позиционного поля не поддерживается при rescuedDataColumn
включении или failOnUnknownFields
включении. Удалите эти параметры, чтобы продолжить.
BATCH_METADATA_NOT_FOUND
Не удалось найти пакет <batchMetadataFile>
.
BIGQUERY_OPTIONS_ARE_MUTUALLY_EXCLUSIVE
Учетные данные подключения BigQuery должны быть указаны с параметром GoogleServiceAccountKeyJson или всеми параметрами projectId, OAuthServiceAcctEmail, OAuthPvtKey.
BINARY_ARITHMETIC_OVERFLOW
<value1>
<symbol>
<value2>
вызвало переполнение.
BOOLEAN_STATEMENT_WITH_EMPTY_ROW
Логический оператор <invalidStatement>
недопустим. Ожидаемая одна строка со значением BOOLEAN
типа, но получила пустую строку.
BUILT_IN_CATALOG
<operation>
не поддерживает встроенные каталоги.
CALL_ON_STREAMING_DATASET_UNSUPPORTED
Метод <methodName>
не может вызываться в потоковом наборе данных или кадре данных.
CANNOT_ALTER_COLLATION_BUCKET_COLUMN
ALTER TABLE (ALTER|CHANGE) COLUMN не может изменить параметры сортировки типов и подтипов столбцов контейнеров, но нашел столбец <columnName>
контейнера в таблице <tableName>
.
CANNOT_ALTER_PARTITION_COLUMN
ALTER TABLE (ALTER|CHANGE) COLUMN не поддерживается для столбцов секционирования, но найден столбец <columnName>
секции в таблице <tableName>
.
CANNOT_ASSIGN_EVENT_TIME_COLUMN_WITHOUT_WATERMARK
Чтобы переназначить столбец времени события, необходимо определить водяной знак. Не удалось найти определение водяного знака в запросе потоковой передачи.
CANNOT_CAST_DATATYPE
Не удается привести <sourceType>
к <targetType>
.
CANNOT_CONVERT_PROTOBUF_FIELD_TYPE_TO_SQL_TYPE
Не удается преобразовать Protobuf <protobufColumn>
в SQL<sqlColumn>
, так как схема несовместима (protobufType =, sqlType = <protobufType>
<sqlType>
).
CANNOT_CONVERT_PROTOBUF_MESSAGE_TYPE_TO_SQL_TYPE
Не удалось преобразовать <protobufType>
Protobuf в тип <toType>
SQL.
CANNOT_CONVERT_SQL_TYPE_TO_PROTOBUF_FIELD_TYPE
Не удается преобразовать SQL <sqlColumn>
в Protobuf<protobufColumn>
, так как схема несовместима (protobufType =, sqlType = <protobufType>
<sqlType>
).
CANNOT_CONVERT_SQL_VALUE_TO_PROTOBUF_ENUM_TYPE
Не удается преобразовать SQL <sqlColumn>
в Protobuf<protobufColumn>
, так как <data>
не имеет определенных значений для перечисления: <enumString>
CANNOT_COPY_STATE
Не удается скопировать состояние каталога, например текущую базу данных и временные представления из каталога Unity, в устаревший каталог.
CANNOT_CREATE_DATA_SOURCE_TABLE
Не удалось создать таблицу <tableName>
источника данных:
Дополнительные сведения см. в CANNOT_CREATE_DATA_SOURCE_TABLE
CANNOT_DECODE_URL
Указанный URL-адрес не может быть декодирован: <url>
Убедитесь, что URL-адрес правильно отформатирован и повторите попытку.
CANNOT_DELETE_SYSTEM_OWNED
<resourceType>
Не удается удалить систему.
CANNOT_DROP_AMBIGUOUS_CONSTRAINT
Не удается удалить ограничение с именем <constraintName>
, которым предоставлен общий доступ к ограничению CHECK
и ограничения PRIMARY KEY или FOREIGN KEY. Вы можете удалить ограничение
PRIMARY KEY или FOREIGN KEY с помощью запросов:
- ALTER TABLE .. DROP PRIMARY KEY или
- ALTER TABLE .. DROP FOREIGN KEY ..
CANNOT_ESTABLISH_CONNECTION
Не удается установить подключение к удаленной <jdbcDialectName>
базе данных. Проверьте сведения о подключении и учетные данные, например узел, порт, пользователь, пароль и параметры базы данных. ** Если вы считаете, что информация правильна, проверьте сетевую настройку рабочей области и убедитесь, что она не имеет исходящих ограничений на узел. Также убедитесь, что узел не блокирует входящие подключения из сети, в которой развернуты кластеры Spark рабочей области. ** Подробное сообщение об ошибке: <causeErrorMessage>
CANNOT_ESTABLISH_CONNECTION_SERVERLESS
Не удается установить подключение к удаленной <jdbcDialectName>
базе данных. Проверьте сведения о подключении и учетные данные, например узел, порт, пользователь, пароль и параметры базы данных. ** Если вы считаете, что информация правильна, разрешите входящий трафик из Интернета в узел, так как вы используете бессерверные вычисления. Если политики сети не разрешают входящий интернет-трафик, используйте бессерверные вычисления или обратитесь к представителю Databricks, чтобы узнать о бессерверных частных сетях. ** Подробное сообщение об ошибке: <causeErrorMessage>
CANNOT_INVOKE_IN_TRANSFORMATIONS
Преобразования и действия набора данных могут вызываться только драйвером, а не в других преобразованиях набора данных; Например, dataset1.map(x => dataset2.values.count() * x) недопустим, так как преобразование значений и действие подсчета невозможно выполнить внутри преобразования dataset1.map. Дополнительные сведения см. в статье SPARK-28702.
CANNOT_LOAD_FUNCTION_CLASS
Не удается загрузить класс <className>
при регистрации функции <functionName>
, убедитесь, что он находится в пути к классу.
CANNOT_LOAD_PROTOBUF_CLASS
Не удалось загрузить класс Protobuf с именем <protobufClassName>
. <explanation>
.
CANNOT_LOAD_STATE_STORE
Произошла ошибка во время загрузки.
Дополнительные сведения см. в CANNOT_LOAD_STATE_STORE
CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE
Не удалось объединить несовместимые типы <left>
данных и <right>
. Проверьте типы данных объединенных столбцов и убедитесь, что они совместимы. При необходимости рассмотрите возможность приведения столбцов к совместимым типам данных перед попыткой слияния.
CANNOT_MERGE_SCHEMAS
Сбой объединения схем:
Начальная схема:
<left>
Схема, которая не может быть объединена с начальной схемой:
<right>
.
CANNOT_MODIFY_CONFIG
Не удается изменить значение конфигурации Spark: <key>
См. также https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements'.
CANNOT_PARSE_DECIMAL
Не удается проанализировать десятичное значение. Убедитесь, что входные данные являются допустимым числом с необязательными десятичными точками или разделителями запятыми.
CANNOT_PARSE_INTERVAL
Не удалось проанализировать <intervalString>
. Убедитесь, что указанное значение имеет допустимый формат для определения интервала. Вы можете ссылаться на документацию по правильному формату. Если проблема сохраняется, убедитесь, что входное значение не равно null или пусто, и повторите попытку.
CANNOT_PARSE_JSON_FIELD
Не удается проанализировать имя <fieldName>
поля и значение <fieldValue>
типа <jsonType>
токена JSON для целевого типа <dataType>
данных Spark.
CANNOT_PARSE_PROTOBUF_DESCRIPTOR
Синтаксический анализ дескриптора байтов в Protobuf FileDescriptorSet.
CANNOT_PARSE_TIMESTAMP
<message>
. Если необходимо задать значение <ansiConfig>
false, чтобы обойти эту ошибку.
CANNOT_QUERY_TABLE_DURING_INITIALIZATION
Не удается запросить MV/ST во время инициализации.
Дополнительные сведения см. в CANNOT_QUERY_TABLE_DURING_INITIALIZATION
CANNOT_READ_ARCHIVED_FILE
Не удается прочитать файл по пути <path>
, так как он был архивирован. Измените фильтры запросов, чтобы исключить архивные файлы.
CANNOT_READ_FILE
Не удается прочитать <format>
файл по пути: <path>
Дополнительные сведения см. в CANNOT_READ_FILE
CANNOT_READ_SENSITIVE_KEY_FROM_SECURE_PROVIDER
Не удается прочитать конфиденциальный ключ из<key>
безопасного поставщика.
CANNOT_RECOGNIZE_HIVE_TYPE
Не удается распознать строку типа hive: <fieldType>
столбец: <fieldName>
. Указанный тип данных для поля нельзя распознать с помощью Spark SQL. Проверьте тип данных указанного поля и убедитесь, что он является допустимым типом данных Spark SQL. Ознакомьтесь с документацией по Spark SQL для списка допустимых типов данных и их формата. Если тип данных правильный, убедитесь, что вы используете поддерживаемую версию Spark SQL.
CANNOT_REFERENCE_UC_IN_HMS
Не удается ссылаться на каталог <objType>
Unity в объектах хранилища метаданных Hive.
CANNOT_RENAME_ACROSS_CATALOG
Переименование <type>
между каталогами запрещено.
CANNOT_RENAME_ACROSS_SCHEMA
Переименование <type>
между схемами запрещено.
CANNOT_RESOLVE_DATAFRAME_COLUMN
Не удается разрешить столбец <name>
кадра данных. Это, вероятно, из-за незаконных ссылок, как df1.select(df2.col("a"))
.
CANNOT_RESOLVE_STAR_EXPAND
Не удается разрешить <targetString>
входные столбцы <columns>
.* . Убедитесь, что указанная таблица или структура существует и доступна в входных столбцах.
CANNOT_RESTORE_PERMISSIONS_FOR_PATH
Не удалось задать разрешения на созданный путь <path>
назад <permission>
.
CANNOT_SAVE_VARIANT
Не удается сохранить тип данных variant в внешнем хранилище.
CANNOT_SHALLOW_CLONE_ACROSS_UC_AND_HMS
Не удается выполнить неглубокое клонирование таблиц в каталоге Unity и хранилище метаданных Hive.
CANNOT_SHALLOW_CLONE_NESTED
Не удается клонировать неглубокое клонирование таблицы <table>
, которая уже является неглубокой клоном.
CANNOT_SHALLOW_CLONE_NON_UC_MANAGED_TABLE_AS_SOURCE_OR_TARGET
Неглубокий клон поддерживается только для типа таблицы MANAGED. <table>
Таблица не является управляемой.
CANNOT_UPDATE_FIELD
Не удается обновить <table>
тип поля <fieldName>
:
Дополнительные сведения см. в CANNOT_UPDATE_FIELD
CANNOT_UP_CAST_DATATYPE
Не удается выполнить приведение <expression>
от<sourceType>
.<targetType>
<details>
CANNOT_VALIDATE_CONNECTION
<jdbcDialectName>
Проверка подключения не поддерживается. Обратитесь в службу поддержки Databricks для альтернативных решений или задайте для параметра Spark.databricks.testConnectionBeforeCreation значение false, чтобы пропустить тестирование подключения перед созданием объекта подключения.
CANNOT_WRITE_STATE_STORE
Ошибка записи файлов хранилища состояний для поставщика <providerClass>
.
Дополнительные сведения см. в CANNOT_WRITE_STATE_STORE
CAST_INVALID_INPUT
Значение <expression>
типа <sourceType>
не может быть приведение, <targetType>
так как оно неправильно сформировано. Исправьте значение согласно синтаксису или измените его целевой тип. Используйте try_cast
для допуска неправильно сформированных входных данных и возврата NULL.
Дополнительные сведения см. в CAST_INVALID_INPUT
CAST_OVERFLOW
Значение <value>
типа <sourceType>
невозможно привести <targetType>
из-за переполнения. Используйте try_cast
для допуска переполнения и возврата NULL.
CAST_OVERFLOW_IN_TABLE_INSERT
Не удается назначить значение <sourceType>
типа столбцу или переменной <columnName>
типа <targetType>
из-за переполнения. Используйте try_cast
во входном значении, чтобы допустить переполнение, возвращая значение NULL.
CATALOG_NOT_FOUND
Каталог <catalogName>
не найден. Рекомендуется задать конфигурацию <config>
SQL для подключаемого модуля каталога.
CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND
Блок <rddBlockId>
контрольной точки не найден!
Либо исполнитель, который первоначально контрольный пункт этой секции больше не существует, либо исходный RDD не выполняется.
Если эта проблема сохраняется, вместо этого можно использовать rdd.checkpoint()
более медленную, чем локальная контрольная точка, но более отказоустойчивая.
CLASS_NOT_OVERRIDE_EXPECTED_METHOD
<className>
должен переопределить либо <method1>
<method2>
.
CLASS_UNSUPPORTED_BY_MAP_OBJECTS
MapObjects
не поддерживает класс <cls>
в виде результирующей коллекции.
CLEANROOM_COMMANDS_NOT_SUPPORTED
Команды "Чистая комната" не поддерживаются
CLEANROOM_INVALID_SHARED_DATA_OBJECT_NAME
Недопустимое имя для ссылки <type>
на внутреннюю комнату. <type>
Используйте имя внутри чистой комнаты после формата [каталога]. schema]. [<type>
].
Если вы не уверены в том, какое имя следует использовать, можно запустить команду SHOW ALL IN CLEANROOM [clean_room]" и использовать значение в столбце "name".
CLOUD_FILE_SOURCE_FILE_NOT_FOUND
Уведомление о файле получено для файла: <filePath>
но оно больше не существует. Убедитесь, что файлы не удаляются перед их обработкой. Чтобы продолжить поток, можно задать для конфигурации <config>
Spark SQL значение true.
CLOUD_PROVIDER_ERROR
Ошибка поставщика облачных служб: <message>
CLUSTERING_COLUMNS_MISMATCH
Указанное кластеризация не соответствует существующей таблице <tableName>
.
Указанные столбцы кластеризации: [<specifiedClusteringString>
].
Существующие столбцы кластеризации: [<existingClusteringString>
].
CLUSTERING_NOT_SUPPORTED
'<operation>
' не поддерживает кластеризацию.
CLUSTER_BY_AUTO_FEATURE_NOT_ENABLED
Обратитесь к представителю Databricks, чтобы включить функцию по кластеру.
CLUSTER_BY_AUTO_REQUIRES_CLUSTERING_FEATURE_ENABLED
Включите clusteringTable.enableClusteringTableFeature для использования CLUSTER BY AUTO.
CLUSTER_BY_AUTO_REQUIRES_PREDICTIVE_OPTIMIZATION
КЛАСТЕР BY AUTO требует включения прогнозной оптимизации.
CLUSTER_BY_AUTO_UNSUPPORTED_TABLE_TYPE_ERROR
КЛАСТЕР BY AUTO поддерживается только в управляемых таблицах UC.
CODEC_NOT_AVAILABLE
Кодек <codecName>
недоступен.
Дополнительные сведения см. в CODEC_NOT_AVAILABLE
CODEC_SHORT_NAME_NOT_FOUND
Не удается найти короткое имя кодека <codecName>
.
COLLATION_INVALID_NAME
Значение <collationName>
не представляет правильное имя сортировки. Предлагаемые допустимые имена сортировки: [<proposals>
].
COLLATION_INVALID_PROVIDER
Значение <provider>
не представляет правильного поставщика параметров сортировки. Поддерживаемые поставщики: [<supportedProviders>
].
COLLATION_MISMATCH
Не удалось определить, какие параметры сортировки следует использовать для строковых функций и операторов.
Дополнительные сведения см. в COLLATION_MISMATCH
COLLECTION_SIZE_LIMIT_EXCEEDED
Не удается создать массив с <numberOfElements>
элементами, превышающими ограничение <maxRoundedArrayLength>
размера массива,
Дополнительные сведения см. в COLLECTION_SIZE_LIMIT_EXCEEDED
COLUMN_ALIASES_NOT_ALLOWED
Псевдонимы столбцов не разрешены.<op>
COLUMN_ALREADY_EXISTS
Столбец <columnName>
уже существует. Выберите другое имя или переименуйте существующий столбец.
COLUMN_MASKS_CHECK_CONSTRAINT_UNSUPPORTED
Создание ограничения CHECK для таблицы <tableName>
с политиками маски столбцов не поддерживается.
COLUMN_MASKS_DUPLICATE_USING_COLUMN_NAME
Инструкция <statementType>
пыталась назначить политику маски столбца столбца столбцу, включающую два или более других ссылочных столбца в списке USING COLUMN с тем же именем <columnName>
, что недопустимо.
COLUMN_MASKS_FEATURE_NOT_SUPPORTED
Политики <tableName>
маски столбцов для не поддерживаются:
Дополнительные сведения см. в COLUMN_MASKS_FEATURE_NOT_SUPPORTED
COLUMN_MASKS_INCOMPATIBLE_SCHEMA_CHANGE
<statementType>
<columnName>
Не удалось получить из таблицы<tableName>
, так как она ссылается в политике маски столбца для столбца<maskedColumn>
. Прежде чем продолжить, владелец таблицы должен удалить или изменить эту политику.
COLUMN_MASKS_MERGE_UNSUPPORTED_SOURCE
Операции MERGE INTO не поддерживают политики маски столбцов в исходной таблице <tableName>
.
COLUMN_MASKS_MERGE_UNSUPPORTED_TARGET
Операции MERGE INTO не поддерживают запись в таблицу <tableName>
с политиками маски столбцов.
COLUMN_MASKS_MULTI_PART_TARGET_COLUMN_NAME
Эта инструкция попыталась назначить политику маски столбца столбцу <columnName>
с несколькими частями имени, что недопустимо.
COLUMN_MASKS_MULTI_PART_USING_COLUMN_NAME
Эта инструкция попыталась назначить политику маски столбца столбца столбцу, а список USING COLUMN включал имя <columnName>
с несколькими частями имени, что недопустимо.
COLUMN_MASKS_NOT_ENABLED
Поддержка определения маски столбцов не включена
COLUMN_MASKS_REQUIRE_UNITY_CATALOG
Политики маски столбцов поддерживаются только в каталоге Unity.
COLUMN_MASKS_TABLE_CLONE_SOURCE_NOT_SUPPORTED
<mode>
Клонирование из таблицы <tableName>
с политиками маски столбцов не поддерживается.
COLUMN_MASKS_TABLE_CLONE_TARGET_NOT_SUPPORTED
<mode>
Клонирование в таблицу <tableName>
с политиками маски столбцов не поддерживается.
COLUMN_MASKS_UNSUPPORTED_CONSTANT_AS_PARAMETER
Использование константы в качестве параметра в политике маски столбцов не поддерживается. Обновите команду SQL, чтобы удалить констанду из определения маски столбца, а затем повторите попытку.
COLUMN_MASKS_UNSUPPORTED_PROVIDER
Не удалось выполнить <statementType>
команду, так как назначение политик маски столбцов не поддерживается для целевого источника данных с поставщиком таблиц: "<provider>
".
COLUMN_MASKS_UNSUPPORTED_SUBQUERY
Невозможно выполнить <operation>
для таблицы <tableName>
, так как она содержит одну или несколько политик маски столбцов с выражениями вложенных запросов, которые еще не поддерживаются. Чтобы продолжить, обратитесь к владельцу таблицы, чтобы обновить политики маски столбцов.
COLUMN_MASKS_USING_COLUMN_NAME_SAME_AS_TARGET_COLUMN
Столбец имел то же имя, что и целевой столбец, который является недопустимым; удалите столбец <columnName>
из списка USING COLUMN и повторите команду.
COLUMN_NOT_DEFINED_IN_TABLE
<colType>
Столбец <colName>
не определен в таблице<tableName>
, определенные столбцы таблицы: <tableCols>
COLUMN_NOT_FOUND
Не удается найти столбец <colName>
. Проверьте орфографию и правильность имени столбца в соответствии с конфигурацией <caseSensitiveConfig>
SQL.
COMMA_PRECEDING_CONSTRAINT_ERROR
Непредвиденное ", перед определением ограничений. Убедитесь, что предложение ограничения не начинается с запятой, если столбцы (и ожидания) не определены.
COMMENT_ON_CONNECTION_NOT_IMPLEMENTED_YET
Команда COMMENT ON CONNECTION еще не реализована
COMPARATOR_RETURNS_NULL
Средство сравнения вернуло значение NULL для сравнения между <firstValue>
и <secondValue>
.
Он должен возвращать положительное целое число для "больше", 0 для "равно" и отрицательное целое число для "меньше".
Чтобы вернуться к устаревшему поведению, в котором значение NULL рассматривается как 0 (равно), необходимо задать для параметра "spark.sql.legacy.allowNullComparisonResultInArraySort" значение true.
COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
Не удается обработать входные типы данных для выражения: <expression>
Дополнительные сведения см. в COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
CONCURRENT_QUERY
Еще один экземпляр этого запроса [id:] <queryId>
был только что запущен параллельным сеансом [существующий runId: <existingQueryRunId>
new runId: <newQueryRunId>
].
CONCURRENT_STREAM_LOG_UPDATE
Параллельное обновление журнала. Для нескольких заданий потоковой передачи обнаружено <batchId>
.
Убедитесь, что одновременно выполняется только одно задание потоковой передачи в определенном расположении контрольной точки.
CONFIG_NOT_AVAILABLE
Конфигурация <config>
недоступна.
CONFLICTING_PARTITION_COLUMN_NAMES
Обнаружены конфликтующие имена столбцов секционирования:
<distinctPartColLists>
Для каталогов секционированных таблиц файлы данных должны жить только в конечных каталогах.
И каталоги на том же уровне должны иметь то же имя столбца секции.
Проверьте следующие каталоги для непредвиденных файлов или несогласованных имен столбцов секций:
<suspiciousPaths>
CONFLICTING_PROVIDER
Указанный поставщик не соответствует существующему поставщику <provider>
<expectedProvider>
каталога. Используйте команду USING <expectedProvider>
и повторите команду.
CONNECT
Ошибка generic Spark Connect.
Дополнительные сведения см. в разделе CONNECT
CONNECTION_ALREADY_EXISTS
Не удается создать подключение <connectionName>
, так как оно уже существует.
Выберите другое имя, удалите или замените существующее подключение или добавьте предложение IF NOT EXISTS, чтобы разрешить существующие подключения.
CONNECTION_NAME_CANNOT_BE_EMPTY
Не удается выполнить эту команду, так как имя подключения должно быть не пустым.
CONNECTION_NOT_FOUND
Не удается выполнить эту команду, так как имя <connectionName>
подключения не найдено.
CONNECTION_OPTION_NOT_SUPPORTED
Подключения типа '<connectionType>
' не поддерживают следующие варианты <optionsNotSupported>
. Поддерживаемые параметры: <allowedOptions>
.
CONNECTION_TYPE_NOT_SUPPORTED
Не удается создать соединение типа '<connectionType>
. Поддерживаемые типы подключений: <allowedTypes>
CONSTRAINTS_REQUIRE_UNITY_CATALOG
Ограничения таблиц поддерживаются только в каталоге Unity.
CONVERSION_INVALID_INPUT
Не удается преобразовать значение <str>
(<fmt>
) в <targetType>
так как оно неправильно сформировано. Исправьте значение по синтаксису или измените его формат. Используйте <suggestion>
для допуска неправильно сформированных входных данных и возврата NULL.
COPY_INTO_COLUMN_ARITY_MISMATCH
Не удается записать <tableName>
в , причина
Дополнительные сведения см. в COPY_INTO_COLUMN_ARITY_MISMATCH
COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON
Недопустимая схема <scheme>
. В настоящее время учетные данные COPY INTO поддерживают только s3/s3n/s3a/wasbs/abfss.
COPY_INTO_CREDENTIALS_REQUIRED
Необходимо указать <keyList>
учетные данные источника COPY INTO.
COPY_INTO_DUPLICATED_FILES_COPY_NOT_ALLOWED
Повторяющиеся файлы были зафиксированы в параллельной операции COPY INTO. Повторите попытку позже".
COPY_INTO_ENCRYPTION_NOT_ALLOWED_ON
Недопустимая схема <scheme>
. В настоящее время шифрование источника с COPY INTO поддерживает только s3/s3n/s3a/abfss.
COPY_INTO_ENCRYPTION_NOT_SUPPORTED_FOR_AZURE
Шифрование с COPY INTO поддерживает только ADLS 2-го поколения или схему файлов abfss://.
COPY_INTO_ENCRYPTION_REQUIRED
Для шифрования источника COPY INTO необходимо указать "<key>
".
COPY_INTO_ENCRYPTION_REQUIRED_WITH_EXPECTED
Недопустимый параметр <requiredKey>
шифрования. Шифрование источника COPY INTO должно указывать '<requiredKey>
' = '<keyValue>
' .
COPY_INTO_FEATURE_INCOMPATIBLE_SETTING
Функция<feature>
COPY INTO "" несовместима с "<incompatibleSetting>
".
COPY_INTO_NON_BLIND_APPEND_NOT_ALLOWED
Не разрешено параллельное выполнение COPY INTO (кроме как для добавления данных) с другими транзакциями. Повторите попытку позже".
COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED
COPY INTO не удалось загрузить собственное состояние, превышено максимальное число повторных попыток.
COPY_INTO_SCHEMA_MISMATCH_WITH_TARGET_TABLE
При копировании в таблицу Delta (таблица: <table>
) обнаружена несоответствие схемы.
Это может указывать на проблему с входящими данными или схему таблицы Delta можно автоматически развивать в соответствии с входящими данными, задав следующие параметры:
COPY_OPTIONS ("mergeSchema" = "true")
Разница в схеме:
<schemaDiff>
COPY_INTO_SOURCE_FILE_FORMAT_NOT_SUPPORTED
Исходные файлы должны иметь формат CSV, JSON, AVRO, ORC, PARQUET, TEXT или BINARYFILE. Использование функции COPY INTO в разностных таблицах в качестве источника не поддерживается, так как после операций OPTIMIZE могут быть приняты дублирующиеся данные. Эту проверку можно отключить, выполнив команду SQL set spark.databricks.delta.copyInto.formatCheck.enabled = false
.
COPY_INTO_SOURCE_SCHEMA_INFERENCE_FAILED
Исходный каталог не содержал файлов синтаксического анализа типа <format>
. Проверьте содержимое '<source>
'.
Ошибка может быть замолчаема, задав для параметра "<config>
false".
COPY_INTO_STATE_INTERNAL_ERROR
При обработке состояния COPY INTO произошла внутренняя ошибка.
Дополнительные сведения см. в COPY_INTO_STATE_INTERNAL_ERROR
COPY_INTO_SYNTAX_ERROR
Не удалось проанализировать команду COPY INTO.
Дополнительные сведения см. в COPY_INTO_SYNTAX_ERROR
COPY_INTO_UNSUPPORTED_FEATURE
Функция COPY INTO "<feature>
" не поддерживается.
COPY_UNLOAD_FORMAT_TYPE_NOT_SUPPORTED
Не удается выгрузить данные в формате '<formatType>
'. Поддерживаемые форматы<connectionType>
: <allowedFormats>
CREATE_FOREIGN_SCHEMA_NOT_IMPLEMENTED_YET
Команда CREATE FOREIGN SCHEMA еще не реализована
CREATE_FOREIGN_TABLE_NOT_IMPLEMENTED_YET
Команда CREATE FOREIGN TABLE еще не реализована
CREATE_OR_REFRESH_MV_ST_ASYNC
Невозможно СОЗДАТЬ ИЛИ ОБНОВИТЬ материализованные представления или таблицы потоковой передачи с указанным ASYNC. Удалите ASYNC из инструкции CREATE OR REFRESH или используйте REFRESH ASYNC для асинхронного обновления существующих материализованных представлений или таблиц потоковой передачи.
CREATE_PERMANENT_VIEW_WITHOUT_ALIAS
Невозможно создать постоянное представление <name>
без явного назначения псевдонима для выражения <attr>
.
CREATE_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
Столбец <columnName>
CREATE TABLE указывает дескриптор "<optionName>
" несколько раз, что недопустимо.
CREATE_VIEW_COLUMN_ARITY_MISMATCH
Не удается создать представление <viewName>
, причина
Дополнительные сведения см. в CREATE_VIEW_COLUMN_ARITY_MISMATCH
CREDENTIAL_MISSING
Укажите учетные данные при создании или обновлении внешних расположений.
CSV_ENFORCE_SCHEMA_NOT_SUPPORTED
Параметр CSV enforceSchema
нельзя задать при использовании rescuedDataColumn
или failOnUnknownFields
как столбцы считываются по имени, а не порядковый номер.
CYCLIC_FUNCTION_REFERENCE
Обнаружена ссылка на циклическую функцию: <path>
DATABRICKS_DELTA_NOT_ENABLED
Databricks Delta не включен в вашей учетной записи.<hints>
DATATYPE_MISMATCH
Не удается разрешить <sqlExpr>
из-за несоответствия типов данных:
Дополнительные сведения см. в DATATYPE_MISMATCH
DATATYPE_MISSING_SIZE
DataType <type>
требует параметра длины, например <type>
(10). Укажите длину.
DATA_LINEAGE_SECURE_VIEW_LEAF_NODE_HAS_NO_RELATION
Ошибка записи происхождения: отсутствует соответствующее отношение с политиками для CLM/RLS.
DATA_SOURCE_ALREADY_EXISTS
Источник данных "<provider>
" уже существует. Выберите другое имя нового источника данных.
DATA_SOURCE_EXTERNAL_ERROR
Произошла ошибка при сохранении во внешний источник данных.
DATA_SOURCE_NOT_EXIST
Источник данных "<provider>
" не найден. Убедитесь, что источник данных зарегистрирован.
DATA_SOURCE_NOT_FOUND
Не удалось найти источник данных: <provider>
Убедитесь, что имя поставщика правильно, и пакет правильно зарегистрирован и совместим с версией Spark.
DATA_SOURCE_OPTION_CONTAINS_INVALID_CHARACTERS
Параметр <option>
не должен быть пустым и не должен содержать недопустимые символы, строки запроса или параметры.
DATA_SOURCE_OPTION_IS_REQUIRED
Требуется параметр <option>
.
DATA_SOURCE_TABLE_SCHEMA_MISMATCH
Схема таблицы источника данных не соответствует ожидаемой схеме. Если вы используете API DataFrameReader.schema или создаете таблицу, избегайте указания схемы.
Схема источника данных: <dsSchema>
Ожидаемая схема: <expectedSchema>
DATA_SOURCE_URL_NOT_ALLOWED
URL-адрес JDBC не разрешен в параметрах источника данных, укажите параметры узла, порта и базы данных.
DATETIME_OVERFLOW
Переполнение операции datetime: <operation>
.
DC_API_QUOTA_EXCEEDED
Превышена квота API для источника <sourceName>
данных.
Дополнительные сведения см. в DC_API_QUOTA_EXCEEDED
DC_CONNECTION_ERROR
Не удалось подключиться к источнику <sourceName>
. Код ошибки: <errorCode>
.
Дополнительные сведения см. в DC_CONNECTION_ERROR
DC_DYNAMICS_API_ERROR
Ошибка произошла в вызовах API Dynamics, errorCode: <errorCode>
.
Дополнительные сведения см. в DC_DYNAMICS_API_ERROR
DC_NETSUITE_ERROR
Ошибка произошла в вызовах JDBC Netsuite, errorCode: <errorCode>
.
Дополнительные сведения см. в DC_NETSUITE_ERROR
DC_SCHEMA_CHANGE_ERROR
SQLSTATE: нет назначенных
Изменение схемы произошло в таблице <tableName>
<sourceName>
источника.
Дополнительные сведения см. в DC_SCHEMA_CHANGE_ERROR
DC_SERVICENOW_API_ERROR
Ошибка произошла в вызовах API ServiceNow, errorCode: <errorCode>
.
Дополнительные сведения см. в DC_SERVICENOW_API_ERROR
DC_SFDC_BULK_QUERY_JOB_INCOMPLETE
Прием для объекта <objName>
является неполным, так как задание запроса API Salesforce заняло слишком много времени, сбой или было отменено вручную.
Чтобы повторить попытку, можно повторно запустить весь конвейер или обновить эту конкретную целевую таблицу. Если ошибка сохраняется, отправьте билет. Идентификатор задания: <jobId>
. Состояние задания: <jobStatus>
.
DC_SHAREPOINT_API_ERROR
Ошибка произошла в вызовах API Sharepoint, errorCode: <errorCode>
.
Дополнительные сведения см. в DC_SHAREPOINT_API_ERROR
DC_SOURCE_API_ERROR
Произошла ошибка в вызове <sourceName>
API. Тип исходного API: <apiType>
. Код ошибки: <errorCode>
.
Иногда это может произойти, когда вы достигли предела <sourceName>
API. Если вы не превысили предел API, попробуйте повторно запустить соединитель. Если проблема сохраняется, отправьте запрос.
DC_UNSUPPORTED_ERROR
Неподдерживаемая ошибка произошла в источнике <sourceName>
данных.
Дополнительные сведения см. в DC_UNSUPPORTED_ERROR
DC_WORKDAY_RAAS_API_ERROR
Ошибка произошла в вызовах API RaAS Workday, errorCode: <errorCode>
.
Дополнительные сведения см. в DC_WORKDAY_RAAS_API_ERROR
DECIMAL_PRECISION_EXCEEDS_MAX_PRECISION
Десятичная точность <precision>
превышает максимальную точность <maxPrecision>
.
DEFAULT_DATABASE_NOT_EXISTS
База данных <defaultDatabase>
по умолчанию не существует, сначала создайте ее или измените базу данных <defaultDatabase>
по умолчанию на .
DEFAULT_FILE_NOT_FOUND
Возможно, базовые файлы были обновлены. Вы можете явно отключить кэш в Spark, выполнив команду REFRESH TABLEName в SQL или повторно выполнив команду Dataset/DataFrame. Если кэш дисков устарел или базовые файлы удалены, можно сделать кэш диска недействительным вручную, перезагрузив кластер.
DEFAULT_PLACEMENT_INVALID
Ключевое слово DEFAULT в команде MERGE, INSERT, UPDATE или SET VARIABLE не может быть напрямую назначено целевому столбцу, так как оно было частью выражения.
Например, UPDATE SET c1 = DEFAULT
разрешено, но UPDATE T SET c1 = DEFAULT + 1
не допускается.
DIFFERENT_DELTA_TABLE_READ_BY_STREAMING_SOURCE
Запрос потоковой передачи считывался из неожиданной таблицы Delta (id = '<newTableId>
).
Он использовался для чтения из другой таблицы Delta (id = '<oldTableId>
) в соответствии с контрольной точкой.
Это может произойти при изменении кода на чтение из новой таблицы или удаления и
повторно создали таблицу. Отмените изменение или удалите контрольную точку потокового запроса
чтобы перезапустить с нуля.
DISTINCT_WINDOW_FUNCTION_UNSUPPORTED
Отдельные функции окна не поддерживаются: <windowExpr>
DIVIDE_BY_ZERO
Деление на ноль. Используйте try_divide
для допуска 0 в качестве значения делителя и возврата NULL. Если необходимо задать значение <config>
false, чтобы обойти эту ошибку.
Дополнительные сведения см. в DIVIDE_BY_ZERO
DLT_EXPECTATIONS_NOT_SUPPORTED
Ожидания поддерживаются только в конвейере Delta Live Tables.
DLT_VIEW_CLUSTER_BY_NOT_SUPPORTED
МАТЕРИАЛИЗОВАННЫЕ VIEWs с предложением CLUSTER BY поддерживаются только в конвейере разностных динамических таблиц.
DLT_VIEW_LOCATION_NOT_SUPPORTED
Расположения MATERIALIZED VIEW поддерживаются только в конвейере разностных динамических таблиц.
DLT_VIEW_SCHEMA_WITH_TYPE_NOT_SUPPORTED
Схемы MATERIALIZED VIEW с указанным типом поддерживаются только в конвейере Delta Live Tables.
DLT_VIEW_TABLE_CONSTRAINTS_NOT_SUPPORTED
Предложения CONSTRAINT в представлении поддерживаются только в конвейере разностных динамических таблиц.
DUPLICATED_FIELD_NAME_IN_ARROW_STRUCT
Повторяющиеся имена полей в структуре со стрелками не разрешены <fieldNames>
.
DUPLICATED_MAP_KEY
Обнаружен повторяющийся ключ <key>
карты, проверьте входные данные.
Если вы хотите удалить повторяющиеся ключи, можно задать <mapKeyDedupPolicy>
значение "LAST_WIN", чтобы ключ, вставленный в последнее время, имеет приоритет.
DUPLICATED_METRICS_NAME
Имя метрики не уникально: <metricName>
То же имя нельзя использовать для метрик с различными результатами.
Однако допускается несколько экземпляров метрик с одинаковым результатом и именем (например, самосоединения).
DUPLICATE_ASSIGNMENTS
Столбцы или переменные отображаются более одного раза в качестве целевых <nameList>
объектов назначения.
DUPLICATE_CLAUSES
Найдено повторяющееся предложение: <clauseName>
. Удалите один из них.
DUPLICATE_KEY
Найден повторяющийся ключ <keyColumn>
.
DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
Вызов подпрограммы недопустим <functionName>
, так как он включает несколько назначений аргументов в одно и то же имя <parameterName>
параметра.
Дополнительные сведения см. в DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
DUPLICATE_ROUTINE_PARAMETER_NAMES
Найдено повторяющееся имя в списке параметров определяемой пользователем подпрограммы <routineName>
: <names>
.
DUPLICATE_ROUTINE_RETURNS_COLUMNS
Найден повторяющийся столбец столбцов в столбце предложения RETURNS определяемой пользователем подпрограммы <routineName>
: <columns>
.
EMITTING_ROWS_OLDER_THAN_WATERMARK_NOT_ALLOWED
Предыдущий узел генерирует строку с eventTime=<emittedRowEventTime>
старше current_watermark_value=<currentWatermark>
Это может привести к проблемам с правильностью в подчиненных операторах с отслеживанием состояния в конвейере выполнения.
Исправьте логику оператора, чтобы вывести строки после текущего глобального значения водяного знака.
EMPTY_JSON_FIELD_VALUE
Не удалось проанализировать пустую строку для типа <dataType>
данных.
EMPTY_LOCAL_FILE_IN_STAGING_ACCESS_QUERY
Пустой локальный файл в промежуточном запросе <operation>
ENCODER_NOT_FOUND
Не найден кодировщик типа <typeName>
для внутреннего представления Spark SQL.
Попробуйте изменить тип входных данных на один из поддерживаемых в "<docroot>
/sql-ref-datatypes.html".
END_LABEL_WITHOUT_BEGIN_LABEL
Конечная метка не может существовать без метки <endLabel>
начала.
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_LATEST_WITH_TRIGGER_AVAILABLENOW
Некоторые секции в отчете Kafka доступны смещения, которое меньше конца смещения во время выполнения запроса с помощью Trigger.AvailableNow. Ошибка может быть временной — перезапустить запрос и сообщить, если вы по-прежнему видите ту же проблему.
последнее смещение: конец смещения: <latestOffset>
<endOffset>
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_PREFETCHED
Для источника данных Kafka с помощью Trigger.AvailableNow смещение конца должно иметь меньшее или равное смещение для каждой секции раздела, чем предварительно извлекаемое смещение. Ошибка может быть временной — перезапустить запрос и сообщить, если вы по-прежнему видите ту же проблему.
предварительно извлекаемое смещение: <prefetchedOffset>
, конечное смещение: <endOffset>
.
ERROR_READING_AVRO_UNKNOWN_FINGERPRINT
Ошибка чтения данных avro — обнаружен неизвестный отпечаток: <fingerprint>
не уверен, какая схема используется.
Это может произойти, если вы зарегистрировали дополнительные схемы после запуска контекста Spark.
EVENT_LOG_REQUIRES_SHARED_COMPUTE
Не удается запросить журналы событий из назначенного или общего кластера изоляции, используйте общий кластер или хранилище Databricks SQL.
EVENT_LOG_UNAVAILABLE
Для журналов событий нет.<tableOrPipeline>
Повторите попытку позже после создания событий
EVENT_LOG_UNSUPPORTED_TABLE_TYPE
Тип <tableIdentifier>
таблицы имеет тип <tableType>
.
Запросы журналов событий поддерживают только материализованные представления, потоковые таблицы или конвейеры разностных динамических таблиц
EVENT_TIME_IS_NOT_ON_TIMESTAMP_TYPE
Время события <eventName>
имеет недопустимый тип <eventType>
, но ожидается "TIMESTAMP
".
EXCEED_LIMIT_LENGTH
Превышает ограничение длины типа char/varchar: <limit>
EXCEPT_NESTED_COLUMN_INVALID_TYPE
Столбец <columnName>
EXCEPT был разрешен и, как ожидается, будет StructType, но найден тип <dataType>
.
EXCEPT_OVERLAPPING_COLUMNS
Столбцы в списке EXCEPT должны быть уникальными и не перекрывающимися, но получили (<columns>
).
EXCEPT_RESOLVED_COLUMNS_WITHOUT_MATCH
Столбцы EXCEPT [<exceptColumns>
] были разрешены, но не соответствуют ни одному из столбцов [<expandedColumns>
] из расширения звезды.
EXCEPT_UNRESOLVED_COLUMN_IN_STRUCT_EXPANSION
Невозможно разрешить имя <objectName>
столбца или поля в предложении EXCEPT. Вы означало одно из следующих: [<objectList>
]?
Примечание. Вложенные столбцы в предложении EXCEPT могут не содержать квалификаторы (имя таблицы, имя столбца родительской структуры и т. д.) во время расширения структуры. Попробуйте удалить квалификаторы, если они используются с вложенными столбцами.
EXECUTOR_BROADCAST_JOIN_OOM
Недостаточно памяти для построения отношения <relationClassName>
трансляции. Размер отношения = <relationSize>
. Общая память, используемая этой задачей = <taskMemoryUsage>
. Метрики диспетчера памяти исполнителя: onHeapExecutionMemoryUsed = , offHeapExecutionMemoryUsed = <onHeapExecutionMemoryUsed>
<offHeapExecutionMemoryUsed>
, onHeapStorageMemoryUsed = <onHeapStorageMemoryUsed>
, offHeapStorageMemoryUsed = <offHeapStorageMemoryUsed>
. [sparkPlanId: <sparkPlanId>
]
EXEC_IMMEDIATE_DUPLICATE_ARGUMENT_ALIASES
Предложение USING этой команды EXECUTE ИНТЕРПРЕТАЦИЯ содержит несколько аргументов с одинаковым псевдонимом (<aliases>
), который является недопустимым; обновите команду, чтобы указать уникальные псевдонимы, а затем повторите попытку.
EXPECT_PERMANENT_VIEW_NOT_TEMP
"<operation>
" ожидает постоянное представление, но <viewName>
является временным представлением.
EXPECT_TABLE_NOT_VIEW
'<operation>
' ожидает таблицу, но <viewName>
является представлением.
Дополнительные сведения см. в EXPECT_TABLE_NOT_VIEW
EXPECT_VIEW_NOT_TABLE
Таблица <tableName>
не поддерживается <operation>
.
Дополнительные сведения см. в EXPECT_VIEW_NOT_TABLE
EXPRESSION_DECODING_FAILED
Не удалось декодировать строку в значение выражений: <expressions>
EXPRESSION_ENCODING_FAILED
Не удалось закодировать значение выражений: <expressions>
в строку.
EXPRESSION_TYPE_IS_NOT_ORDERABLE
Выражение <expr>
столбца не может быть отсортировано, так как его тип <exprType>
не упорядочен.
EXTERNAL_TABLE_INVALID_SCHEME
Внешние таблицы не поддерживают схему <scheme>
.
FABRIC_REFRESH_INVALID_SCOPE
Ошибка при выполнении "REFRESH FOREIGN <scope>
<name>
". Не удается обновить Структуру <scope>
напрямую, используйте "ОБНОВИТЬ ВНЕШНИЙ КАТАЛОГ <catalogName>
" для обновления каталога Fabric.
FAILED_EXECUTE_UDF
Определяемая пользователем функция (: (<functionName>
<signature>
)><result>
=) завершилась ошибкой из-за: <reason>
.
FAILED_FUNCTION_CALL
Не удалось подготовить функцию <funcName>
для вызова. Убедитесь, что аргументы функции двойной проверки.
FAILED_JDBC
Сбой JDBC <url>
для операции:
Дополнительные сведения см. в FAILED_JDBC
FAILED_PARSE_STRUCT_TYPE
Не удалось проанализировать структуру: <raw>
FAILED_READ_FILE
Ошибка при чтении файла <path>
.
Дополнительные сведения см. в FAILED_READ_FILE
FAILED_REGISTER_CLASS_WITH_KRYO
Не удалось зарегистрировать классы в Kryo.
FAILED_RENAME_PATH
Не удалось переименовать <sourcePath>
в <targetPath>
качестве назначения уже существует.
FAILED_RENAME_TEMP_FILE
Не удалось переименовать временный файл <srcPath>
в <dstPath>
файл FileSystem.rename, возвращаемый false.
FAILED_ROW_TO_JSON
Не удалось преобразовать значение <value>
строки класса <class>
в целевой тип <sqlType>
SQL в формате JSON.
FAILED_TO_PARSE_TOO_COMPLEX
Инструкция, включая потенциальные функции SQL и ссылки на представления, была слишком сложной для анализа.
Чтобы устранить эту ошибку, необходимо разделить инструкцию на несколько, менее сложных блоков.
FEATURE_NOT_ENABLED
Функция <featureName>
не включена. Рекомендуется задать конфигурацию <configKey>
, чтобы <configValue>
включить эту возможность.
FEATURE_NOT_ON_CLASSIC_WAREHOUSE
<feature>
не поддерживается в классических хранилищах SQL. Чтобы использовать эту функцию, используйте хранилище Pro или Бессерверное хранилище SQL. Дополнительные сведения о типах складов см. в статье <docLink>
FEATURE_REQUIRES_UC
<feature>
не поддерживается без каталога Unity. Чтобы использовать эту функцию, включите каталог Unity. Дополнительные сведения о каталоге Unity см. в статье <docLink>
FEATURE_UNAVAILABLE
<feature>
не поддерживается в вашей среде. Чтобы использовать эту функцию, обратитесь в службу поддержки Databricks.
FIELD_ALREADY_EXISTS
Не удается <op>
столбец, так как <fieldNames>
уже существует в <struct>
.
FIELD_NOT_FOUND
Нет такого поля <fieldName>
структуры в <fields>
.
FILE_IN_STAGING_PATH_ALREADY_EXISTS
Файл в промежуточном пути <path>
уже существует, но OVERWRITE не задан
FLATMAPGROUPSWITHSTATE_USER_FUNCTION_ERROR
Произошла ошибка в предоставленной пользователем функции в flatMapGroupsWithState. Причина: <reason>
FORBIDDEN_OPERATION
<statement>
Операция не разрешена в : <objectType>
<objectName>
.
FOREACH_BATCH_USER_FUNCTION_ERROR
Произошла ошибка в предоставленной пользователем функции в приемнике пакетной службы foreach. Причина: <reason>
FOREACH_USER_FUNCTION_ERROR
Произошла ошибка в предоставленной пользователем функции в приемнике foreach. Причина: <reason>
FOREIGN_KEY_MISMATCH
Родительские столбцы <parentColumns>
внешнего ключа не соответствуют дочерним столбцам <childColumns>
первичного ключа.
FOREIGN_OBJECT_NAME_CANNOT_BE_EMPTY
Не удается выполнить эту команду, так как внешнее <objectType>
имя должно быть пустым.
FOUND_MULTIPLE_DATA_SOURCES
Обнаружено несколько источников данных с именем '<provider>
'. Проверьте, что источник данных одновременно не зарегистрирован и расположен в пути к классу.
FROM_JSON_CONFLICTING_SCHEMA_UPDATES
from_json вывод столкнулся с конфликтующими обновлениями схемы по адресу: <location>
FROM_JSON_CORRUPT_RECORD_COLUMN_IN_SCHEMA
from_json найден столбецNameOfCorruptRecord (<columnNameOfCorruptRecord>
)
в объекте JSON и больше не может продолжаться. Настройте другое значение для
параметр columnNameOfCorruptRecord.
FROM_JSON_CORRUPT_SCHEMA
from_json вывод не смог прочитать схему, хранимую по адресу: <location>
FROM_JSON_INFERENCE_FAILED
from_json не удалось определить схему. Укажите его вместо этого.
FROM_JSON_INFERENCE_NOT_SUPPORTED
from_json вывод поддерживается только при определении таблиц потоковой передачи
FROM_JSON_INVALID_CONFIGURATION
from_json конфигурация недопустима:
Дополнительные сведения см. в FROM_JSON_INVALID_CONFIGURATION
FROM_JSON_SCHEMA_EVOLUTION_FAILED
from_json не удалось перейти от <old>
<new>
FUNCTION_PARAMETERS_MUST_BE_NAMED
Для функции <function>
требуются именованные параметры. Отсутствующие имена параметров: <exprs>
Обновите вызов функции, чтобы добавить имена для всех параметров, например <function>
(param_name => ...).
GENERATED_COLUMN_WITH_DEFAULT_VALUE
Столбец не может иметь как значение по умолчанию, так и выражение поколения, но столбец <colName>
имеет значение по умолчанию: (<defaultValue>
) и выражение поколения: (<genExpr>
).
GET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION
Hive 2.2 и более низкие версии не поддерживают getTablesByType. Используйте Hive 2.3 или более позднюю версию.
GET_WARMUP_TRACING_FAILED
Не удалось получить трассировку прогрева. Причина: <cause>
.
GET_WARMUP_TRACING_FUNCTION_NOT_ALLOWED
Функция get_warmup_tracing() не разрешена.
GRAPHITE_SINK_INVALID_PROTOCOL
Недопустимый протокол Graphite: <protocol>
.
GRAPHITE_SINK_PROPERTY_MISSING
Для приемника Graphite требуется свойство '<property>
' .
GROUPING_COLUMN_MISMATCH
Столбец группирования (<grouping>
) не найден в столбцах группировки <groupingColumns>
.
GROUPING_ID_COLUMN_MISMATCH
Столбцы grouping_id (<groupingIdColumn>
) не соответствуют столбцам группировки (<groupByColumns>
).
GROUPING_SIZE_LIMIT_EXCEEDED
Размер группирования наборов не может быть больше <maxSize>
.
GROUP_BY_AGGREGATE
Агрегатные функции не разрешены в GROUP BY, но найдены <sqlExpr>
.
Дополнительные сведения см. в GROUP_BY_AGGREGATE
GROUP_BY_POS_AGGREGATE
GROUP BY <index>
ссылается на выражение <aggExpr>
, содержащее агрегатную функцию. Агрегатные функции не допускаются в GROUP BY.
GROUP_BY_POS_OUT_OF_RANGE
Позиция <index>
GROUP BY не находится в списке выбора (допустимый диапазон — [1, <size>
]).
GROUP_EXPRESSION_TYPE_IS_NOT_ORDERABLE
Выражение <sqlExpr>
нельзя использовать в качестве выражения группировки, так как его тип <dataType>
данных не является упорядоченным типом данных.
HDFS_HTTP_ERROR
При попытке чтения из HDFS http-запрос завершился ошибкой.
Дополнительные сведения см. в HDFS_HTTP_ERROR
HLL_INVALID_INPUT_SKETCH_BUFFER
Недопустимый вызов <function>
; поддерживаются только допустимые буферы эскизов HLL (например, созданные hll_sketch_agg
функцией).
HLL_INVALID_LG_K
Недопустимый вызов<function>
; значение должно быть между <min>
и <max>
, включительно: <value>
.lgConfigK
HLL_UNION_DIFFERENT_LG_K
Эскизы имеют разные lgConfigK
значения: <left>
и <right>
. allowDifferentLgConfigK
Задайте для параметра значение true для вызова <function>
с разными lgConfigK
значениями.
IDENTIFIER_TOO_MANY_NAME_PARTS
<identifier>
не является допустимым идентификатором, так как он содержит более 2 частей имени.
ILLEGAL_STATE_STORE_VALUE
Недопустимое значение, предоставленное в хранилище состояний
Дополнительные сведения см. в ILLEGAL_STATE_STORE_VALUE
INCOMPARABLE_PIVOT_COLUMN
Недопустимый столбец сводной таблицы <columnName>
. Сводные столбцы должны быть сравнимыми.
INCOMPATIBLE_COLUMN_TYPE
<operator>
можно выполнять только в таблицах с совместимыми типами столбцов. Столбец <columnOrdinalNumber>
<tableOrdinalNumber>
таблицы является <dataType1>
типом, который несовместим с <dataType2>
тем же столбцом первой таблицы..<hint>
INCOMPATIBLE_DATASOURCE_REGISTER
Обнаружен несовместимый DataSourceRegister. Удалите несовместимую библиотеку из подкаталога классов или обновите ее. Ошибка: <message>
INCOMPATIBLE_DATA_FOR_TABLE
Не удается записать несовместимые данные для таблицы <tableName>
:
Дополнительные сведения см. в INCOMPATIBLE_DATA_FOR_TABLE
INCOMPATIBLE_JOIN_TYPES
Типы <joinType1>
соединения и <joinType2>
несовместимы.
INCOMPATIBLE_VIEW_SCHEMA_CHANGE
Sql-запрос представления <viewName>
имеет несовместимое изменение схемы и столбец <colName>
не может быть разрешен. Ожидаемые <expectedNum>
столбцы с именем <colName>
, но получили <actualCols>
.
Попробуйте повторно создать представление, выполнив следующую команду: <suggestion>
INCOMPLETE_TYPE_DEFINITION
Неполный сложный тип:
Дополнительные сведения см. в INCOMPLETE_TYPE_DEFINITION
INCONSISTENT_BEHAVIOR_CROSS_VERSION
Вы можете получить другой результат из-за обновления до
Дополнительные сведения см. на странице INCONSISTENT_BEHAVIOR_CROSS_VERSION.
INCORRECT_NUMBER_OF_ARGUMENTS
<failure>
, <functionName>
требует по крайней мере аргументы и по крайней <maxArgs>
мере <minArgs>
аргументы.
INCORRECT_RAMP_UP_RATE
Максимальное смещение строкPerSecond <rowsPerSecond>
равно <maxSeconds>
, но " <rampUpTimeSeconds>
rampUpTimeSeconds".
INDETERMINATE_COLLATION
Функция, вызываемая, требует знаний о сортировке, которую она должна применять, но обнаружена детерминированная сортировка. Используйте функцию COLLATE, чтобы явно задать параметры сортировки.
INDEX_ALREADY_EXISTS
Невозможно создать индекс <indexName>
в таблице <tableName>
, так как он уже существует.
INDEX_NOT_FOUND
Не удается найти индекс <indexName>
в таблице <tableName>
.
INFINITE_STREAMING_TRIGGER_NOT_SUPPORTED
Тип триггера не поддерживается для этого типа <trigger>
кластера.
Используйте другой тип триггера, например AvailableNow, Один раз.
INSERT_COLUMN_ARITY_MISMATCH
Не удается записать <tableName>
в , причина
Дополнительные сведения см. в INSERT_COLUMN_ARITY_MISMATCH
INSERT_PARTITION_COLUMN_ARITY_MISMATCH
Не удается записать в "<tableName>
", <reason>
:
Столбцы таблицы: <tableColumns>
.
Столбцы секционирования со статическими значениями: <staticPartCols>
Столбцы данных: <dataColumns>
.
INSUFFICIENT_PERMISSIONS
Недостаточно привилегий:
<report>
INSUFFICIENT_PERMISSIONS_EXT_LOC
У пользователя <user>
недостаточно привилегий для внешнего расположения <location>
.
INSUFFICIENT_PERMISSIONS_NO_OWNER
Нет владельца <securableName>
. Попросите администратора задать владельца.
INSUFFICIENT_PERMISSIONS_OWNERSHIP_SECURABLE
Пользователь не владеет <securableName>
.
INSUFFICIENT_PERMISSIONS_SECURABLE
У пользователя нет разрешения <action>
на <securableName>
.
INSUFFICIENT_PERMISSIONS_SECURABLE_PARENT_OWNER
Владелец <securableName>
отличается от владельца <parentSecurableName>
.
INSUFFICIENT_PERMISSIONS_STORAGE_CRED
Учетные данные <credentialName>
хранения имеют недостаточные привилегии.
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES
Пользователь не может <action>
получить <securableName>
разрешения на базовые защищаемые объекты.
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES_VERBOSE
Пользователь не может <action>
получить <securableName>
разрешения на базовые защищаемые объекты:
<underlyingReport>
INTERVAL_ARITHMETIC_OVERFLOW
<message>
.<alternative>
INTERVAL_DIVIDED_BY_ZERO
Деление на ноль. Используйте try_divide
для допуска 0 в качестве значения делителя и возврата NULL.
INVALID_AGGREGATE_FILTER
Недопустимое выражение <filterExpr>
FILTER в агрегатной функции.
Дополнительные сведения см. в INVALID_AGGREGATE_FILTER
INVALID_ARRAY_INDEX
Индекс <indexValue>
выходит за пределы. Массив содержит <arraySize>
элементы. Используйте функцию get()
SQL, чтобы допускать доступ к элементу с недопустимым индексом и возвращать значение NULL. Если необходимо задать значение <ansiConfig>
false, чтобы обойти эту ошибку.
Дополнительные сведения см. в INVALID_ARRAY_INDEX
INVALID_ARRAY_INDEX_IN_ELEMENT_AT
Индекс <indexValue>
выходит за пределы. Массив содержит <arraySize>
элементы. Используйте try_element_at
для допуска доступа к элементу по недопустимому индексу и возврата NULL. Если необходимо задать значение <ansiConfig>
false, чтобы обойти эту ошибку.
Дополнительные сведения см. в INVALID_ARRAY_INDEX_IN_ELEMENT_AT
INVALID_BITMAP_POSITION
Позиция <bitPosition>
0-индексированного растрового изображения выходит за пределы. Растровое изображение имеет <bitmapNumBits>
биты (<bitmapNumBytes>
байты).
INVALID_BOOLEAN_STATEMENT
Логическое утверждение ожидается в условии, но <invalidStatement>
было найдено.
INVALID_BOUNDARY
<boundary>
Граница недопустима: <invalidValue>
Дополнительные сведения см. в INVALID_BOUNDARY
INVALID_BUCKET_COLUMN_DATA_TYPE
Не удается использовать <type>
для столбца контейнера. Типы данных с сортировкой не поддерживаются для сегментирования.
INVALID_BUCKET_FILE
Недопустимый файл контейнера: <path>
.
INVALID_BYTE_STRING
Ожидаемый формат — ByteString, но был <unsupported>
(<class>
).
INVALID_COLUMN_NAME_AS_PATH
Источник <datasource>
данных не может сохранить столбец <columnName>
, так как его имя содержит некоторые символы, которые не разрешены в путях к файлам. Используйте псевдоним для переименования.
INVALID_COLUMN_OR_FIELD_DATA_TYPE
Столбец или поле <name>
имеет тип <type>
, пока он должен быть <expectedType>
.
INVALID_CONF_VALUE
Недопустимое значение "<confValue>
" в конфигурации<confName>
.
Дополнительные сведения см. в INVALID_CONF_VALUE
INVALID_CURRENT_RECIPIENT_USAGE
current_recipient
функцию можно использовать только в CREATE VIEW
инструкции или ALTER VIEW
инструкции для определения представления общего ресурса только в каталоге Unity.
INVALID_CURSOR
Курсор недопустим.
Дополнительные сведения см. в INVALID_CURSOR
INVALID_DATETIME_PATTERN
Нераспознанный шаблон даты и времени: <pattern>
.
Дополнительные сведения см. в INVALID_DATETIME_PATTERN
INVALID_DEFAULT_VALUE
Не удалось выполнить <statement>
команду, так как целевой столбец или переменная <colName>
имеют значение <defaultValue>
DEFAULT,
Дополнительные сведения см. в INVALID_DEFAULT_VALUE
INVALID_DELIMITER_VALUE
Недопустимое значение для разделителя.
Дополнительные сведения см. в INVALID_DELIMITER_VALUE
INVALID_DEST_CATALOG
Каталог назначения команды SYNC должен находиться в каталоге Unity. Найдено <catalog>
.
INVALID_DRIVER_MEMORY
Системная память <systemMemory>
должна быть по крайней мере <minSystemMemory>
.
Увеличьте размер кучи с помощью параметра -driver-memory или "<config>
" в конфигурации Spark.
INVALID_DYNAMIC_OPTIONS
Параметры, переданные <option_list> , запрещены для внешних таблиц <table_name>.
INVALID_EMPTY_LOCATION
Имя расположения не может быть пустой строкой, но <location>
было задано.
INVALID_ESC
Найдена недопустимая escape-строка: <invalidEscape>
Escape-строка должна содержать только один символ.
INVALID_ESCAPE_CHAR
EscapeChar
должен быть строковым литералом длины, но получил <sqlExpr>
.
INVALID_EXECUTOR_MEMORY
Память <executorMemory>
исполнителя должна быть по крайней мере <minSystemMemory>
.
Увеличьте память исполнителя с помощью параметра -executor-memory или "<config>
" в конфигурации Spark.
INVALID_EXPRESSION_ENCODER
Найден недопустимый кодировщик выражений. Ожидает экземпляр ExpressionEncoder, но получил <encoderType>
. Дополнительные сведения см. в<docroot>
.
INVALID_EXTRACT_BASE_FIELD_TYPE
Не удается извлечь значение из <base>
. Требуется сложный тип [STRUCT
, ARRAY
, MAP
] но получил <other>
.
INVALID_EXTRACT_FIELD
Не удается извлечь <field>
из <expr>
.
INVALID_EXTRACT_FIELD_TYPE
Имя поля должно быть ненулевом строковым литералом, но это <extraction>
.
INVALID_FIELD_NAME
Недопустимое имя <fieldName>
поля: <path>
не является структурой.
INVALID_FORMAT
Недопустимый формат: <format>
Дополнительные сведения см. в INVALID_FORMAT
INVALID_FRACTION_OF_SECOND
Дробное значение секунды должно быть равно нулю. Допустимый диапазон: [0, 60]. Если необходимо задать значение <ansiConfig>
false, чтобы обойти эту ошибку.
INVALID_HANDLE
Дескриптор недопустим <handle>
.
Дополнительные сведения см. в INVALID_HANDLE
INVALID_IDENTIFIER
Недопустимый идентификатор <ident>
без кавычки и должен быть возвращен в кавычки следующим образом: <ident>
Неквотируемые идентификаторы могут содержать только буквы ASCII ("a" - "z", "А" - "Z"), цифры ("0" - "9") и под панелью ('_').
Неквотированные идентификаторы также не должны начинаться с цифры.
Различные источники данных и хранилища метаданных могут накладывать дополнительные ограничения на допустимые идентификаторы.
INVALID_INDEX_OF_ZERO
Индекс 0 недопустим. Индекс должен иметь значение < 0 или > 0 (первый элемент имеет индекс 1).
INVALID_INLINE_TABLE
Недопустимая встроенная таблица.
Дополнительные сведения см. в INVALID_INLINE_TABLE
INVALID_INTERVAL_FORMAT
Ошибка синтаксического анализа "<input>
" в интервал. Убедитесь, что указанное значение имеет допустимый формат для определения интервала. Вы можете ссылаться на документацию по правильному формату.
Дополнительные сведения см. в INVALID_INTERVAL_FORMAT
INVALID_INVERSE_DISTRIBUTION_FUNCTION
Недопустимая функция <funcName>
обратного распределения.
Дополнительные сведения см. в INVALID_INVERSE_DISTRIBUTION_FUNCTION
INVALID_JOIN_TYPE_FOR_JOINWITH
Недопустимый тип соединения в joinWith: <joinType>
.
INVALID_JSON_DATA_TYPE
Не удалось преобразовать строку JSON "<invalidType>
" в тип данных. Введите допустимый тип данных.
INVALID_JSON_DATA_TYPE_FOR_COLLATIONS
Параметры сортировки можно применять только к типам строк, но тип данных JSON .<jsonType>
INVALID_JSON_ROOT_FIELD
Не удается преобразовать корневое поле JSON в целевой тип Spark.
INVALID_JSON_SCHEMA_MAP_TYPE
Входная схема <jsonSchema>
может содержать STRING
только тип ключа для объекта MAP
.
INVALID_KRYO_SERIALIZER_BUFFER_SIZE
Значение конфигурации "<bufferSizeConfKey>
" должно быть меньше 2048 MiB, но получил <bufferSizeConfValue>
MiB.
INVALID_LABEL_USAGE
Недопустимое использование метки <labelName>
.
Дополнительные сведения см. в INVALID_LABEL_USAGE
INVALID_LAMBDA_FUNCTION_CALL
Недопустимый вызов лямбда-функции.
Дополнительные сведения см. в INVALID_LAMBDA_FUNCTION_CALL
INVALID_LATERAL_JOIN_TYPE
<joinType>
Соединение с корреляцией LATERAL запрещено, так как вложенный запрос OUTER не может сопоставить с партнером соединения. Удалите корреляцию LATERAL или используйте ВНУТРЕННЕЕ СОЕДИНЕНИЕ или ЛЕВОЕ ВНЕШНЕЕ СОЕДИНЕНИЕ.
INVALID_LIMIT_LIKE_EXPRESSION
Недопустимое ограничение, например выражение <expr>
.
Дополнительные сведения см. в INVALID_LIMIT_LIKE_EXPRESSION
INVALID_LOCATION
Имя расположения не может быть недопустимым универсальным кодом ресурса (URI), но <location>
было задано.
INVALID_NON_ABSOLUTE_PATH
Указанный не абсолютный путь <path>
не может быть квалифицирован. Обновите путь, чтобы он был допустимым расположением подключения dbfs.
INVALID_NON_DETERMINISTIC_EXPRESSIONS
Оператор ожидает детерминированного выражения, но фактическое выражение .<sqlExprs>
INVALID_NUMERIC_LITERAL_RANGE
Числовый литерал <rawStrippedQualifier>
выходит за пределы допустимого <minValue>
диапазона с <typeName>
минимальным значением и максимальным значением<maxValue>
. Измените значение соответствующим образом.
INVALID_OBSERVED_METRICS
Недопустимые наблюдаемые метрики.
Дополнительные сведения см. в INVALID_OBSERVED_METRICS
INVALID_OPTIONS
Недопустимые параметры:
Дополнительные сведения см. в INVALID_OPTIONS
INVALID_PANDAS_UDF_PLACEMENT
Групповая статистическая функция pandas UDF <functionList>
не может вызываться вместе с другими агрегатными функциями, не являющихся пандами.
INVALID_PARAMETER_MARKER_VALUE
Было предоставлено недопустимое сопоставление параметров:
Дополнительные сведения см. в INVALID_PARAMETER_MARKER_VALUE
INVALID_PARAMETER_VALUE
Недопустимое значение параметров <parameter>
<functionName>
:
Дополнительные сведения см. в INVALID_PARAMETER_VALUE
INVALID_PARTITION_COLUMN_DATA_TYPE
Не удается использовать <type>
для столбца секционирования.
INVALID_PARTITION_OPERATION
Недопустимая команда секции.
Дополнительные сведения см. в INVALID_PARTITION_OPERATION
INVALID_PIPELINE_ID
Недопустимый идентификатор <pipelineId>
конвейера.
Идентификатор конвейера должен быть идентификатором UUID в формате xxxx-xxxx.
INVALID_PRIVILEGE
Привилегия <privilege>
недопустима для <securable>
.
INVALID_PROPERTY_KEY
<key>
— недопустимый ключ свойства, используйте кавычки, например SET <key>
=<value>
.
INVALID_PROPERTY_VALUE
<value>
является недопустимым значением свойства, используйте кавычки, например SET. <key>
=<value>
INVALID_QUERY_MIXED_QUERY_PARAMETERS
Параметризованный запрос должен использовать позиционные или именованные параметры, но не оба.
INVALID_S3_COPY_CREDENTIALS
Учетные данные COPY INTO должны включать AWS_ACCESS_KEY, AWS_SECRET_KEY и AWS_SESSION_TOKEN.
INVALID_SAVE_MODE
Указанный режим <mode>
сохранения недопустим. Допустимые режимы сохранения включают "append", "overwrite", "ignore", "error", "errorifexists" и "default".
INVALID_SCHEMA
Входная схема <inputSchema>
не является допустимой строкой схемы.
Дополнительные сведения см. в INVALID_SCHEMA
INVALID_SCHEMA_OR_RELATION_NAME
<name>
недопустимое имя для таблиц и схем. Имена могут содержать только буквы алфавита, цифры и символы _.
INVALID_SCHEME
Каталог Unity не поддерживается <name>
в качестве схемы файлов по умолчанию.
INVALID_SECRET_LOOKUP
Недопустимый поиск секретов:
Дополнительные сведения см. в INVALID_SECRET_LOOKUP
INVALID_SET_SYNTAX
Ожидаемый формат — SET, SET key или SET key=value. Если вы хотите включить специальные символы в ключ или включить точку с запятой в значение, используйте backquotes, например SET key
=value
.
INVALID_SHARED_ALIAS_NAME
Псевдоним <sharedObjectType>
должен иметь форму "schema.name".
INVALID_SINGLE_VARIANT_COLUMN
Параметр singleVariantColumn
нельзя использовать, если также указана пользовательская схема.
INVALID_SOURCE_CATALOG
Исходный каталог не должен находиться в каталоге Unity для команды SYNC. Найдено <catalog>
.
INVALID_SQL_ARG
Недопустимый аргумент <name>
sql()
. Рекомендуется заменить его литералом SQL или функциями конструктора коллекции, такими как map()
, array()
. struct()
INVALID_SQL_SYNTAX
Недопустимый синтаксис SQL.
Дополнительные сведения см. в INVALID_SQL_SYNTAX
INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY
Недопустимый промежуточный путь в промежуточном <operation>
запросе: <path>
INVALID_STATEMENT_FOR_EXECUTE_INTO
Предложение INTO execute IMMEDIATE допустимо только для запросов, но данная инструкция не является запросом: <sqlString>
INVALID_STATEMENT_OR_CLAUSE
Оператор или предложение: <operation>
недопустимо.
INVALID_SUBQUERY_EXPRESSION
Недопустимый вложенный запрос:
Дополнительные сведения см. в INVALID_SUBQUERY_EXPRESSION
INVALID_TEMP_OBJ_REFERENCE
Не удается создать постоянный объект <objName>
типа <obj>
, так как он ссылается на временный объект <tempObjName>
типа <tempObj>
. Сделайте временный объект <tempObjName>
постоянным или сделайте постоянный объект <objName>
временным.
INVALID_TIMESTAMP_FORMAT
Указанная метка <timestamp>
времени не соответствует ожидаемому синтаксису <format>
.
INVALID_TIME_TRAVEL_SPEC
Не удается указать как версию, так и метку времени при поездке в таблицу.
INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
Недопустимое выражение <expr>
метки времени перемещения времени.
Дополнительные сведения см. в INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
INVALID_TYPED_LITERAL
Недопустимое значение типизированного литерала<valueType>
: <value>
INVALID_UDF_IMPLEMENTATION
Функция <funcName>
не реализует ScalarFunction или AggregateFunction.
INVALID_UPGRADE_SYNTAX
<command>
<supportedOrNot>
Исходная таблица находится в хранилище метаданных Hive, а целевая таблица находится в каталоге Unity.
INVALID_URL
Url-адрес недопустим: <url>
Если необходимо задать значение <ansiConfig>
false, чтобы обойти эту ошибку.
INVALID_USAGE_OF_STAR_OR_REGEX
Недопустимое <elem>
использование в <prettyName>
.
INVALID_UTF8_STRING
Недопустимая последовательность байтов UTF8, найденная в строке: <str>
INVALID_UUID
Входные данные <uuidInput>
не являются допустимыми UUID.
UUID должен быть в формате xxxx-xxxx.
Проверьте формат UUID.
INVALID_VARIABLE_DECLARATION
Недопустимое объявление переменной.
Дополнительные сведения см. в INVALID_VARIABLE_DECLARATION
INVALID_VARIABLE_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE
Тип переменной должен быть строковым типом, но получил.<varType>
INVALID_VARIANT_CAST
Не удается привести <dataType>
значение <value>
варианта. Взамен рекомендуется использовать try_variant_get
.
INVALID_VARIANT_FROM_PARQUET
Недопустимый вариант.
Дополнительные сведения см. в INVALID_VARIANT_FROM_PARQUET
INVALID_VARIANT_GET_PATH
Путь не является допустимым путем <path>
извлечения вариантов в <functionName>
.
Допустимый путь должен начинаться с $
нуля или более сегментов, например [123]
, , .name
['name']
или ["name"]
.
INVALID_WHERE_CONDITION
Условие <condition>
WHERE содержит недопустимые выражения: <expressionList>
Переопределите запрос, чтобы избежать функций окон, агрегатных функций и функций генератора в предложении WHERE.
INVALID_WINDOW_SPEC_FOR_AGGREGATION_FUNC
Не удается указать ORDER BY или рамку окна для <aggFunc>
.
INVALID_WRITER_COMMIT_MESSAGE
Модуль записи источников данных создал недопустимое количество сообщений фиксации. Ожидается ровно одно сообщение записи фиксации из каждой задачи, но получено <detail>
.
INVALID_WRITE_DISTRIBUTION
Запрошенный дистрибутив записи недопустим.
Дополнительные сведения см. в INVALID_WRITE_DISTRIBUTION
JOIN_CONDITION_IS_NOT_BOOLEAN_TYPE
Условие соединения <joinCondition>
имеет недопустимый тип <conditionType>
, ожидаемый "BOOLEAN
".
KAFKA_DATA_LOSS
Некоторые данные могут быть потеряны, так как они больше не доступны в Kafka;
Данные были удалены Kafka или раздел, возможно, были удалены до всех данных в
был обработан раздел.
Если вы не хотите, чтобы потоковый запрос не завершился ошибкой в таких случаях, задайте для параметра источника значение false.
Причина.
Дополнительные сведения см. в KAFKA_DATA_LOSS
KINESIS_COULD_NOT_READ_SHARD_UNTIL_END_OFFSET
Не удалось считывать до требуемого порядкового номера <endSeqNum>
сегмента <shardId>
в
поток <stream>
kinesis с режимом <consumerMode>
потребителя. Запрос завершится ошибкой из-за
потенциальная потеря данных. Последняя запись чтения была в порядковом номере <lastSeqNum>
.
Это может произойти, если данные с endSeqNum уже устарели, или поток Kinesis был удален.
удален и восстановлен с тем же именем. Поведение сбоя может быть переопределено
задав spark.databricks.kinesis.failOnDataLoss значение false в конфигурации Spark.
KINESIS_FETCHED_SHARD_LESS_THAN_TRACKED_SHARD
Минимальное получение shardId из Kinesis (<fetchedShardId>
)
меньше минимально отслеживаемого shardId (<trackedShardId>
).
Это непредвиденное и возникает при удалении и повторном создании потока Kinesis с тем же именем.
и запрос потоковой передачи, использующий этот поток Kinesis, перезапускается с помощью существующего расположения контрольной точки.
Перезапустите потоковый запрос с новым расположением контрольной точки или создайте поток с новым именем.
KINESIS_RECORD_SEQ_NUMBER_ORDER_VIOLATION
Для сегментов <shard>
последняя запись, считываемая из Kinesis в предыдущих наборах, имеет порядковый номер <lastSeqNum>
,
значение больше, чем запись, считываемая в текущем наборе с порядковым номером <recordSeqNum>
.
Это неожиданно и может произойти, когда начальная позиция повтора или следующего получения неправильно инициализирована, и может привести к дублированию записей ниже.
KRYO_BUFFER_OVERFLOW
Сбой сериализации Крио: <exceptionMsg>
Чтобы избежать этого, увеличьте значение "<bufferSizeConfKey>
".
LABELS_MISMATCH
Начальная метка <beginLabel>
не соответствует конечной метки <endLabel>
.
LOAD_DATA_PATH_NOT_EXISTS
Входной путь LOAD DATA не существует: <path>
LOCAL_MUST_WITH_SCHEMA_FILE
Local должен использоваться вместе со схемой file
, но получил: <actualSchema>
LOCATION_ALREADY_EXISTS
Не удается назвать управляемую таблицу как <identifier>
, так как ее связанное расположение <location>
уже существует. Сначала выберите другое имя таблицы или удалите существующее расположение.
LOST_TOPIC_PARTITIONS_IN_END_OFFSET_WITH_TRIGGER_AVAILABLENOW
Некоторые разделы в разделах Kafka были потеряны во время выполнения запроса с помощью Trigger.AvailableNow. Ошибка может быть временной — перезапустить запрос и сообщить, если вы по-прежнему видите ту же проблему.
Разделы раздела для последнего смещения: <tpsForLatestOffset>
, раздел-секции для смещения конца: <tpsForEndOffset>
MALFORMED_AVRO_MESSAGE
Неправильные сообщения Avro обнаруживаются в десериализации сообщений. Режим синтаксического анализа: <mode>
. Чтобы обработать неправильно сформированное сообщение Avro в качестве результата NULL, попробуйте задать параметр mode в качестве PERMISSIVE.
MALFORMED_CHARACTER_CODING
Недопустимое значение, найденное при выполнении <function>
с помощью <charset>
MALFORMED_CSV_RECORD
Неправильно сформированная запись CSV: <badRecord>
MALFORMED_RECORD_IN_PARSING
Неправильные записи обнаруживаются в синтаксическом анализе записей: <badRecord>
Режим синтаксического анализа: <failFastMode>
. Чтобы обработать неправильные записи в качестве результата NULL, попробуйте задать параметр mode в качестве PERMISSIVE.
Дополнительные сведения см. в MALFORMED_RECORD_IN_PARSING
MALFORMED_VARIANT
Двоичный файл variant неправильно сформирован. Проверьте, является ли источник данных допустимым.
MANAGED_TABLE_WITH_CRED
Создание управляемой таблицы с учетными данными хранилища не поддерживается.
MATERIALIZED_VIEW_MESA_REFRESH_WITHOUT_PIPELINE_ID
Не удается <refreshType>
материализованное представление, так как оно предварительно создает идентификатор конвейера. Чтобы включить <refreshType>
, удалите и повторно создайте материализованное представление.
MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
Операция материализованного представления <operation>
не допускается:
Дополнительные сведения см. в MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
MATERIALIZED_VIEW_OUTPUT_WITHOUT_EXPLICIT_ALIAS
<expression>
Выражение вывода в материализованном представлении должно быть явно псевдонимом.
MATERIALIZED_VIEW_OVER_STREAMING_QUERY_INVALID
Не удалось создать материализованное представление <name>
с помощью потокового запроса. Используйте инструкцию CREATE [OR REFRESH] STREAMING TABLE или удалите ключевое слово STREAM в предложение FROM, чтобы преобразовать это отношение в пакетный запрос.
MATERIALIZED_VIEW_UNSUPPORTED_OPERATION
Операция <operation>
не поддерживается в материализованных представлениях для этой версии.
MAX_NUMBER_VARIABLES_IN_SESSION_EXCEEDED
Не удается создать новую переменную <variableName>
, так как число переменных в сеансе превышает максимально допустимое число (<maxNumVariables>
).
MAX_RECORDS_PER_FETCH_INVALID_FOR_KINESIS_SOURCE
maxRecordsPerFetch должен быть положительным целым числом меньше или равно <kinesisRecordLimit>
MERGE_CARDINALITY_VIOLATION
Условие поиска ON инструкции MERGE соответствовало одной строке из целевой таблицы с несколькими строками исходной таблицы.
Это может привести к тому, что целевая строка работает более одного раза с операцией обновления или удаления и не допускается.
METRIC_CONSTRAINT_NOT_SUPPORTED
Ограничение метрик не включено.
METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
Предоставленное значение "<argValue>
" не поддерживается аргументом "<argName>
" для функции таблицы METRIC_STORE.
Дополнительные сведения см. в METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
METRIC_STORE_UNSUPPORTED_ERROR
Функция <functionName>
хранилища метрик в настоящее время отключена в этой среде.
MISMATCHED_TOPIC_PARTITIONS_BETWEEN_END_OFFSET_AND_PREFETCHED
Источник данных Kafka в Trigger.AvailableNow должен предоставлять те же разделы раздела в предварительном смещении, чтобы завершить смещение для каждого микробатча. Ошибка может быть временной — перезапустить запрос и сообщить, если вы по-прежнему видите ту же проблему.
разделы раздела для предварительного получения смещения: <tpsForPrefetched>
, раздел-секции для смещения конца: <tpsForEndOffset>
.
MISSING_AGGREGATION
Выражение, отличное от агрегирования <expression>
, основано на столбцах, которые не участвуют в предложении GROUP BY.
Добавьте столбцы или выражение в GROUP BY, агрегируете выражение или используете <expressionAnyValue>
, если вы не заботитесь о том, какие значения в группе возвращаются.
Дополнительные сведения см. в MISSING_AGGREGATION
MISSING_CONNECTION_OPTION
Подключения типа '<connectionType>
' должны включать следующие параметры <requiredOptions>
:
MISSING_GROUP_BY
Запрос не включает предложение GROUP BY. Добавьте GROUP BY или превратите его в функции окна с помощью предложений OVER.
MISSING_NAME_FOR_CHECK_CONSTRAINT
Ограничение CHECK должно иметь имя.
MISSING_PARAMETER_FOR_KAFKA
Параметр <parameterName>
является обязательным для Kafka, но не указан в <functionName>
.
MISSING_PARAMETER_FOR_ROUTINE
Параметр <parameterName>
является обязательным, но не указан в <functionName>
.
MISSING_WINDOW_SPECIFICATION
Спецификация окна не определена в предложении WINDOW для <windowName>
. Дополнительные сведения о предложениях WINDOW см. в разделе "<docroot>
/sql-ref-syntax-qry-select-window.html".
MODIFY_BUILTIN_CATALOG
Изменение встроенного каталога <catalogName>
не поддерживается.
MULTIPLE_LOAD_PATH
Databricks Delta не поддерживает несколько входных путей в API load().
пути: <pathList>
. Чтобы создать отдельный кадр данных путем загрузки
нескольких путей из одной разностной таблицы, загрузите корневой путь
разностной таблицы с помощью соответствующих фильтров секций. Если используются несколько путей
из разных разностных таблицы, используйте API union()/unionByName() набора данных,
чтобы объединить кадры данных, созданные отдельными вызовами API load().
MULTIPLE_MATCHING_CONSTRAINTS
Найдено по меньшей мере два совпадающих ограничения с заданным условием.
MULTIPLE_TIME_TRAVEL_SPEC
Не удается указать время в предложении и параметрах путешествия по времени.
MULTIPLE_XML_DATA_SOURCE
Обнаружено несколько источников данных с именем <provider>
(<sourceNames>
). Укажите полное имя класса или удалите <externalSource>
его из classpath.
MULTI_SOURCES_UNSUPPORTED_FOR_EXPRESSION
Выражение <expr>
не поддерживает несколько источников.
MULTI_UDF_INTERFACE_ERROR
Не разрешено реализовать несколько интерфейсов UDF, класс <className>
UDF.
MUTUALLY_EXCLUSIVE_CLAUSES
Взаимоисключающие предложения или параметры <clauses>
. Удалите одно из этих предложений.
MV_ST_ALTER_QUERY_INCORRECT_BACKING_TYPE
Входной запрос ожидает, <expectedType>
но базовая таблица — это <givenType>
.
NAMED_PARAMETERS_NOT_SUPPORTED
Именованные параметры не поддерживаются для функции <functionName>
; повторите запрос с позициальными аргументами для вызова функции.
NAMED_PARAMETERS_NOT_SUPPORTED_FOR_SQL_UDFS
Не удается вызвать функцию <functionName>
, так как ссылки на именованные аргументы не поддерживаются. В этом случае ссылка на именованный аргумент была <argument>
.
NAMED_PARAMETER_SUPPORT_DISABLED
Не удается вызвать функцию <functionName>
, так как ссылки на именованные аргументы здесь не включены.
В этом случае ссылка на именованный аргумент была <argument>
.
Задайте для параметра "spark.sql.allowNamedFunctionArguments" значение true, чтобы включить функцию.
NAMESPACE_ALREADY_EXISTS
Не удается создать пространство <nameSpaceName>
имен, так как оно уже существует.
Выберите другое имя, удалите существующее пространство имен или добавьте предложение IF NOT EXISTS, чтобы разрешить существующее пространство имен.
NAMESPACE_NOT_EMPTY
Не удается удалить пространство <nameSpaceNameName>
имен, так как он содержит объекты.
Использование DROP NAMESPACE ... КАСКАД, чтобы удалить пространство имен и все его объекты.
NAMESPACE_NOT_FOUND
Не удается найти пространство <nameSpaceName>
имен. Проверьте орфографию и правильность пространства имен.
Если имя не задано, проверьте выходные данные current_schema() или укажите правильное имя.
Чтобы терпеть ошибку при удалении, используйте DROP NAMESPACE IF EXISTS.
NATIVE_IO_ERROR
Сбой собственного запроса. requestId: , облако: <requestId>
<cloud>
, операция:<operation>
request: [https: <https>
method <method>
= , path <path>
= , params = <params>
, host = <host>
, headers = , bodyLen = <headers>
<bodyLen>
],
ошибка: <error>
NATIVE_XML_DATA_SOURCE_NOT_ENABLED
Источник данных в собственном коде XML не включен в этом кластере.
NESTED_AGGREGATE_FUNCTION
Нельзя использовать агрегатную функцию в аргументе другой агрегатной функции. Используйте внутреннюю агрегатную функцию в подзапросить.
NESTED_EXECUTE_IMMEDIATE
Вложенные команды EXECUTE IMMEDIATE не допускаются. Убедитесь, что предоставленный SQL-запрос (<sqlString>
) не содержит другую команду EXECUTE ИНТЕРПРЕТАЦИЯ.
NONEXISTENT_FIELD_NAME_IN_LIST
Поля (es) <nonExistFields>
не существуют. Доступные поля: <fieldNames>
NON_FOLDABLE_ARGUMENT
Функция <funcName>
требует, чтобы параметр <paramName>
был свертываемым выражением типа <paramType>
, но фактический аргумент является не свертываемым.
NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
При наличии нескольких предложений MATCHED в инструкции MERGE только последнее предложение MATCHED может опустить условие.
NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
Если в инструкции MERGE существует несколько предложений NOT MATCHED BY SOURCE, только последнее предложение NOT MATCHED BY SOURCE может опустить условие.
NON_LAST_NOT_MATCHED_BY_TARGET_CLAUSE_OMIT_CONDITION
Если в инструкции MERGE существует несколько предложений NOT MATCHED [BY TARGET], только последнее предложение NOT MATCHED [BY TARGET] может опустить условие.
NON_LITERAL_PIVOT_VALUES
Литеральные выражения, необходимые для значений сводной таблицы, найдены <expression>
.
NON_PARTITION_COLUMN
Предложение PARTITION не может содержать столбец, отличный от секционирования: <columnName>
NON_TIME_WINDOW_NOT_SUPPORTED_IN_STREAMING
Функция окна не поддерживается ( <windowFunc>
как столбец <columnName>
) для потоковых кадров и наборов данных.
Структурированная потоковая передача поддерживает агрегирование только в окне времени с помощью функции WINDOW. (спецификация окна: <windowSpec>
)
NOT_ALLOWED_IN_FROM
Запрещено в предложении FROM:
Дополнительные сведения см. в NOT_ALLOWED_IN_FROM
NOT_A_CONSTANT_STRING
Выражение <expr>
, используемое для подпрограммы или предложения <name>
, должно быть константой STRING
, которая имеет значение NOT NULL.
Дополнительные сведения см. в NOT_A_CONSTANT_STRING
NOT_A_PARTITIONED_TABLE
Операция <operation>
не допускается <tableIdentWithDB>
, так как она не является секционированной таблицей.
NOT_A_SCALAR_FUNCTION
<functionName>
здесь отображается скалярное выражение, но функция была определена как табличная функция. Обновите запрос, чтобы переместить вызов функции в предложение FROM или переопределить <functionName>
его как скалярную функцию.
NOT_A_TABLE_FUNCTION
<functionName>
отображается здесь как табличная функция, но функция была определена как скалярная функция. Обновите запрос, чтобы переместить вызов функции вне предложения FROM или переопределить <functionName>
ее как функцию таблицы.
NOT_NULL_ASSERT_VIOLATION
Значение NULL появилось в поле без значения NULL: <walkedTypePath>
если схема выводится из класса кортежей Scala или регистра Java, попробуйте использовать scala. Option[_] или другие типы, допускающие значение NULL (например, java.lang.Integer вместо int/scala. Int).
NOT_NULL_CONSTRAINT_VIOLATION
Назначение NULL запрещено здесь.
Дополнительные сведения см. в NOT_NULL_CONSTRAINT_VIOLATION
NOT_SUPPORTED_CHANGE_COLUMN
ALTER TABLE ALTER/CHANGE COLUMN не поддерживается для изменения <table>
столбца <originName>
с типом на тип <originType>
<newName>
<newType>
.
NOT_SUPPORTED_COMMAND_FOR_V2_TABLE
<cmd>
не поддерживается для таблиц версии 2.
NOT_SUPPORTED_COMMAND_WITHOUT_HIVE_SUPPORT
<cmd>
не поддерживается, если вы хотите включить его, задайте для параметра hive значение "spark.sql.catalogImplementation".
NOT_SUPPORTED_IN_JDBC_CATALOG
Не поддерживается команда в каталоге JDBC:
Дополнительные сведения см. в NOT_SUPPORTED_IN_JDBC_CATALOG
NOT_SUPPORTED_WITH_DB_SQL
<operation>
не поддерживается в SQL <endpoint>
.
NOT_SUPPORTED_WITH_SERVERLESS
<operation>
не поддерживается в бессерверных вычислениях.
NOT_UNRESOLVED_ENCODER
Ожидалось неразрешенный кодировщик, но <attr>
был найден.
NO_DEFAULT_COLUMN_VALUE_AVAILABLE
Не удается определить значение <colName>
по умолчанию, так как оно не допускает значение NULL и не имеет значения по умолчанию.
NO_HANDLER_FOR_UDAF
Нет обработчика для UDAF '<functionName>
'. Вместо этого используйте sparkSession.udf.register(…).
NO_MERGE_ACTION_SPECIFIED
df.mergeInto необходимо следовать по крайней мере одному из случаев, когдаMatched/whenNotMatched/whenNotMatchedBySource.
NO_PARENT_EXTERNAL_LOCATION_FOR_PATH
SQLSTATE: нет назначенных
Родительское внешнее расположение не найдено для пути "<path>
". Создайте внешнее расположение на одном из родительских путей, а затем повторите запрос или команду.
NO_SQL_TYPE_IN_PROTOBUF_SCHEMA
Не удается найти <catalystFieldPath>
в схеме Protobuf.
NO_STORAGE_LOCATION_FOR_TABLE
SQLSTATE: нет назначенных
Расположение хранилища для таблицы "<tableId>
" не найдено при создании учетных данных таблицы. Проверьте тип таблицы и URL-адрес расположения таблицы, а затем повторите запрос или команду еще раз.
NO_SUCH_CATALOG_EXCEPTION
SQLSTATE: нет назначенных
Каталог '<catalog>
' не найден. Проверьте имя каталога, а затем повторите запрос или команду.
NO_SUCH_CLEANROOM_EXCEPTION
SQLSTATE: нет назначенных
Чистая комната "<cleanroom>
" не существует. Убедитесь, что имя чистой комнаты указано правильно и соответствует имени допустимой существующей чистой комнаты, а затем повторите запрос или команду еще раз.
NO_SUCH_EXTERNAL_LOCATION_EXCEPTION
SQLSTATE: нет назначенных
Внешнее расположение "<externalLocation>
" не существует. Убедитесь, что имя внешнего расположения правильно, а затем повторите запрос или команду.
NO_SUCH_METASTORE_EXCEPTION
SQLSTATE: нет назначенных
Хранилище метаданных не найдено. Попросите администратора учетной записи назначить хранилище метаданных текущей рабочей области, а затем повторите запрос или команду.
NO_SUCH_PROVIDER_EXCEPTION
SQLSTATE: нет назначенных
Поставщик<providerName>
общих ресурсов "" не существует. Убедитесь, что имя поставщика общих служб указано правильно и соответствует имени допустимого существующего имени поставщика, а затем повторите запрос или команду.
NO_SUCH_RECIPIENT_EXCEPTION
SQLSTATE: нет назначенных
Получатель "<recipient>
" не существует. Убедитесь, что имя получателя указано правильно и соответствует имени допустимого существующего получателя, а затем повторите запрос или команду.
NO_SUCH_SHARE_EXCEPTION
SQLSTATE: нет назначенных
Общая папка "<share>
" не существует. Убедитесь, что имя общей папки орфографировано правильно и соответствует имени допустимой существующей общей папки, а затем повторите запрос или команду.
NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION
SQLSTATE: нет назначенных
Учетные данные хранилища "<storageCredential>
" не существуют. Убедитесь, что имя учетных данных хранилища указано правильно и соответствует имени допустимого существующего учетных данных хранения, а затем повторите запрос или команду еще раз.
NO_SUCH_USER_EXCEPTION
SQLSTATE: нет назначенных
Пользователь "<userName>
" не существует. Убедитесь, что пользователь, которому предоставлено разрешение или изменение владения, правильно написан и соответствует имени допустимого существующего пользователя, а затем повторите запрос или команду.
NO_UDF_INTERFACE
Класс <className>
UDF не реализует интерфейс UDF.
NULLABLE_COLUMN_OR_FIELD
Столбец или поле <name>
может иметь значение NULL, если оно должно быть не допускаемым значением NULL.
NULLABLE_ROW_ID_ATTRIBUTES
Атрибуты идентификатора строки не могут иметь значение NULL: <nullableRowIdAttrs>
NULL_DATA_SOURCE_OPTION
Параметр <option>
чтения и записи источника данных не может иметь значение NULL.
NULL_MAP_KEY
Не удается использовать значение NULL в качестве ключа карты.
NULL_QUERY_STRING_EXECUTE_IMMEDIATE
Для выполнения немедленно требуется переменная, не являющаяся null, в качестве строки запроса, но указанная переменная <varName>
имеет значение NULL.
NUMERIC_OUT_OF_SUPPORTED_RANGE
Значение <value>
не может быть интерпретировано как числовое, так как оно имеет более 38 цифр.
NUMERIC_VALUE_OUT_OF_RANGE
Дополнительные сведения см. в NUMERIC_VALUE_OUT_OF_RANGE
NUM_COLUMNS_MISMATCH
<operator>
можно выполнять только для входных данных с одинаковым числом столбцов, но первый вход имеет <firstNumColumns>
столбцы и <invalidOrdinalNum>
входные данные имеют <invalidNumColumns>
столбцы.
NUM_TABLE_VALUE_ALIASES_MISMATCH
Число заданных псевдонимов не соответствует количеству выходных столбцов.
Имя функции: число псевдонимов: <funcName>
<aliasesNum>
число выходных столбцов: <outColsNum>
OAUTH_CUSTOM_IDENTITY_CLAIM_NOT_PROVIDED
Не было предоставлено утверждение пользовательского удостоверения.
ONLY_SECRET_FUNCTION_SUPPORTED_HERE
<functionName>
Функция вызова не поддерживается в этом <location>
случае; <supportedFunctions>
поддерживается здесь.
ONLY_SUPPORTED_WITH_UC_SQL_CONNECTOR
Операция <operation>
SQL поддерживается только в соединителях Databricks SQL с поддержкой каталога Unity.
OPERATION_CANCELED
Операция отменена.
OPERATION_REQUIRES_UNITY_CATALOG
Операция <operation>
требует включения каталога Unity.
OP_NOT_SUPPORTED_READ_ONLY
<plan>
не поддерживается в режиме сеанса только для чтения.
ORDER_BY_POS_OUT_OF_RANGE
Позиция <index>
ORDER BY не находится в списке выбора (допустимый диапазон равен [1, <size>
]).
PARQUET_CONVERSION_FAILURE
Не удалось создать преобразователь Parquet для типа <dataType>
данных, тип Parquet которого имеет тип <parquetType>
Parquet.
Дополнительные сведения см. в PARQUET_CONVERSION_FAILURE
PARSE_EMPTY_STATEMENT
Синтаксическая ошибка, непредвиденная пустая инструкция.
PARSE_SYNTAX_ERROR
Синтаксическая ошибка в расположении или рядом <error>
<hint>
.
PARTITIONS_ALREADY_EXIST
Невозможно ДОБАВИТЬ или ПЕРЕИМЕНОВАТЬ секции <partitionList>
в таблице <tableName>
, так как они уже существуют.
Выберите другое имя, удалите существующую секцию или добавьте предложение IF NOT EXISTS, чтобы разрешить существующую секцию.
PARTITIONS_NOT_FOUND
Не удается найти секции <partitionList>
в таблице <tableName>
.
Проверьте спецификацию секции и имя таблицы.
Чтобы терпеть ошибку при удалении, используйте ALTER TABLE ... УДАЛИТЕ, ЕСЛИ СУЩЕСТВУЕТ РАЗДЕЛ.
PARTITION_LOCATION_ALREADY_EXISTS
Расположение <locationPath>
секции уже существует в таблице <tableName>
.
PARTITION_LOCATION_IS_NOT_UNDER_TABLE_DIRECTORY
Не удалось выполнить инструкцию ALTER TABLE SET PARTITION LOCATION, так как
Расположение <location>
секции не находится в каталоге <table>
таблиц.
Чтобы исправить его, задайте расположение секции подкаталогом <table>
.
PARTITION_METADATA
<action>
не допускается для таблицы <tableName>
, так как хранение метаданных секции не поддерживается в каталоге Unity.
PATH_ALREADY_EXISTS
Путь <outputPath>
уже существует. Задайте режим перезаписи существующего пути.
PATH_NOT_FOUND
Путь не существует: <path>
PIPE_OPERATOR_SELECT_CONTAINS_AGGREGATE_FUNCTION
Агрегатная функция <expr>
не разрешена при использовании оператора канала |> Предложение SELECT; Используйте оператор канала |> Вместо этого предложение AGGREGATE
PIVOT_VALUE_DATA_TYPE_MISMATCH
Недопустимое значение сводной таблицы '<value>
': тип <valueType>
данных значения не соответствует типу <pivotType>
данных столбца сводной таблицы.
PROCEDURE_ARGUMENT_NUMBER_MISMATCH
Процедура <procedureName>
ожидает <expected>
аргументов, но <actual>
была предоставлена.
PROCEDURE_CREATION_EMPTY_ROUTINE
CREATE PROCEDURE с пустым определением подпрограммы запрещено.
PROCEDURE_CREATION_PARAMETER_OUT_INOUT_WITH_DEFAULT
Параметр <parameterName>
определен с режимом <parameterMode>
параметров. Параметр OUT и INOUT нельзя пропускать при вызове подпрограммы и поэтому не поддерживает выражение DEFAULT. Чтобы продолжить, удалите предложение DEFAULT или измените режим параметров на IN.
PROCEDURE_NOT_SUPPORTED
Хранимая процедура не поддерживается
PROCEDURE_NOT_SUPPORTED_WITH_HMS
Хранимая процедура не поддерживается в хранилище метаданных Hive. Вместо этого используйте каталог Unity.
PROTOBUF_DEPENDENCY_NOT_FOUND
Не удалось найти зависимость: <dependencyName>
PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND
Ошибка чтения файла дескриптора Protobuf по пути: <filePath>
PROTOBUF_FIELD_MISSING
<field>
Поиск в схеме Protobuf по <protobufSchema>
заданному <matchSize>
совпадению. Кандидаты: <matches>
.
PROTOBUF_FIELD_MISSING_IN_SQL_SCHEMA
Найдено <field>
в схеме Protobuf, но в схеме SQL отсутствует совпадение.
PROTOBUF_FIELD_TYPE_MISMATCH
Несоответствие типов, обнаруженное для поля: <field>
PROTOBUF_JAVA_CLASSES_NOT_SUPPORTED
Классы Java не поддерживаются для <protobufFunction>
. Обратитесь в службу поддержки Databricks о альтернативных вариантах.
PROTOBUF_MESSAGE_NOT_FOUND
Не удается найти сообщение <messageName>
в дескрипторе.
PROTOBUF_TYPE_NOT_SUPPORT
Тип Protobuf еще не поддерживается: <protobufType>
PS_FETCH_RETRY_EXCEPTION
Задача в pubsub не может быть извлечена. Секционирование <partitionInfo>
на этапе <stageInfo>
, TID <taskId>
.
PS_INVALID_EMPTY_OPTION
<key>
не может быть пустой строкой.
PS_INVALID_KEY_TYPE
Недопустимый тип ключа для дедупации PubSub: <key>
.
PS_INVALID_OPTION
<key>
Параметр не поддерживается PubSub. Его можно использовать только в тестировании.
PS_INVALID_OPTION_TYPE
Недопустимый тип для <key>
. Ожидаемый <key>
тип типа <type>
.
PS_INVALID_READ_LIMIT
Недопустимое ограничение на чтение в потоке PubSub: <limit>
PS_INVALID_UNSAFE_ROW_CONVERSION_FROM_PROTO
Недопустимый unsafeRow для декодирования в PubSubMessageMetadata, требуется схема proto: <protoSchema>
Входные небезопасныеrow могут быть повреждены: <unsafeRow>
PS_MISSING_AUTH_INFO
Не удалось найти полные сведения о проверке подлинности PubSub.
PS_MISSING_REQUIRED_OPTION
Не удалось найти обязательный параметр: <key>
PS_MOVING_CHECKPOINT_FAILURE
Не удается переместить необработанные файлы контрольных точек данных из <src>
целевого каталога: <dest>
PS_MULTIPLE_FAILED_EPOCHS
Не удается запустить поток PubSub, так как выполняется несколько неудачных выборок: <failedEpochs>
PS_OPTION_NOT_IN_BOUNDS
<key>
должен находиться в пределах следующих границ (<min>
, <max>
), исключающих обе границы.
PS_PROVIDE_CREDENTIALS_WITH_OPTION
Общие кластеры не поддерживают проверку подлинности с профилями экземпляров. Предоставьте учетные данные потоку непосредственно с помощью параметра .option().
PS_SPARK_SPECULATION_NOT_SUPPORTED
Соединитель источника PubSub доступен только в кластере с spark.speculation
отключенным.
PS_UNABLE_TO_CREATE_SUBSCRIPTION
При попытке создать подписку <subId>
по теме <topicId>
произошла ошибка. Убедитесь, что есть достаточные разрешения для создания подписки и повторите попытку.
PS_UNABLE_TO_PARSE_PROTO
Не удалось проанализировать сериализованные байты для создания прототипа.
PS_UNSUPPORTED_GET_OFFSET_CALL
getOffset не поддерживается без предоставления ограничения.
PYTHON_DATA_SOURCE_ERROR
Не удалось получить <action>
источник <type>
данных Python: <msg>
PYTHON_STREAMING_DATA_SOURCE_RUNTIME_ERROR
Сбой при выполнении <action>
источника данных потоковой передачи Python: <msg>
QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
Не удается получить доступ к таблице, так как ранее назначенная маска столбца несовместима с схемой таблицы; Чтобы продолжить, обратитесь к владельцу таблицы, чтобы обновить политику:
Дополнительные сведения см. в QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
Не удается получить доступ к таблице, так как ранее назначенная политика безопасности на уровне строк в настоящее время несовместима со схемой таблицы; Чтобы продолжить, обратитесь к владельцу таблицы, чтобы обновить политику:
Дополнительные сведения см. в QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
READ_CURRENT_FILE_NOT_FOUND
<message>
Возможно, базовые файлы были обновлены. Вы можете явно отключить кэш в Spark, выполнив команду REFRESH TABLEName в SQL или повторно выполнив команду Dataset/DataFrame.
READ_FILES_AMBIGUOUS_ROUTINE_PARAMETERS
Вызов функции <functionName>
имеет <parameterName>
и <alternativeName>
задает псевдонимы друг друга. Задайте только один из них.
READ_TVF_UNEXPECTED_REQUIRED_PARAMETER
Обязательный параметр <parameterName>
функции <functionName>
должен быть назначен в позиции <expectedPos>
без имени.
RECIPIENT_EXPIRATION_NOT_SUPPORTED
Для метки времени окончания срока действия получателя поддерживаются только TIMESTAMP
типы /TIMESTAMP_LTZ/TIMESTAMP_NTZ.
RECURSIVE_PROTOBUF_SCHEMA
Найдена рекурсивная ссылка в схеме Protobuf, которая не может обрабатываться Spark по умолчанию: <fieldDescriptor>
Попробуйте задать параметр recursive.fields.max.depth
1–10. Не допускается переход на 10 уровней рекурсии.
RECURSIVE_VIEW
Обнаружен рекурсивное представление <viewIdent>
(цикл: <newPath>
).
REF_DEFAULT_VALUE_IS_NOT_ALLOWED_IN_PARTITION
Ссылки на значения столбцов DEFAULT не допускаются в предложении PARTITION.
RELATION_LARGER_THAN_8G
Не удается создать объект <relationName>
размером больше 8G.
REMOTE_FUNCTION_HTTP_FAILED_ERROR
Сбой удаленного HTTP-запроса с кодом <errorCode>
и сообщение об ошибке <errorMessage>
REMOTE_FUNCTION_HTTP_RESULT_PARSE_ERROR
Не удалось оценить <functionName>
функцию SQL из-за невозможности анализа результата JSON из удаленного HTTP-ответа; сообщение об ошибке .<errorMessage>
Ознакомьтесь с документацией по API: <docUrl>
Исправьте проблему, указанную в сообщении об ошибке, и повторите запрос.
REMOTE_FUNCTION_HTTP_RESULT_UNEXPECTED_ERROR
Не удалось оценить <functionName>
функцию SQL из-за невозможности обработки неожиданного удаленного HTTP-ответа; сообщение об ошибке — это <errorMessage>
сообщение об ошибке. Ознакомьтесь с документацией по API: <docUrl>
Исправьте проблему, указанную в сообщении об ошибке, и повторите запрос.
REMOTE_FUNCTION_HTTP_RETRY_TIMEOUT
Сбой удаленного запроса после повторных <N>
попыток; последний сбой кода ошибки HTTP был <errorCode>
, и сообщение было сообщение <errorMessage>
REMOTE_FUNCTION_MISSING_REQUIREMENTS_ERROR
Не удалось оценить функцию <functionName>
SQL, так как <errorMessage>
. Проверьте требования в <docUrl>
. Исправьте проблему, указанную в сообщении об ошибке, и повторите запрос.
RENAME_SRC_PATH_NOT_FOUND
Не удалось переименовать как <sourcePath>
не найдено.
REPEATED_CLAUSE
Предложение <clause>
может использоваться по крайней мере один раз для каждой <operation>
операции.
REQUIRED_PARAMETER_ALREADY_PROVIDED_POSITIONALLY
Обязательный параметр <parameterName>
функции <functionName>
был назначен в позиции <positionalIndex>
без имени.
Обновите вызов функции, чтобы удалить именованный аргумент с <parameterName>
этим параметром или удалить позиционный
аргумент по <positionalIndex>
адресу и повторите попытку запроса.
REQUIRED_PARAMETER_NOT_FOUND
Не удается вызвать функцию, так как имя <parameterName>
параметра является обязательным, но вызов функции <functionName>
не предоставлял значение. Обновите вызов функции, чтобы указать значение аргумента (позиционально по индексу <index>
или по имени) и повторите запрос.
REQUIRES_SINGLE_PART_NAMESPACE
<sessionCatalog>
требуется однопартийное пространство имен, но у него.<namespace>
RESCUED_DATA_COLUMN_CONFLICT_WITH_SINGLE_VARIANT
Параметр чтения API кадра данных "rescuedDataColumn" является взаимоисключающим с параметром API кадра данных singleVariantColumn.
Удалите один из них, а затем повторите операцию кадра данных.
RESERVED_CDC_COLUMNS_ON_WRITE
Запись содержит зарезервированные столбцы <columnList>
, используемые
внутренне в качестве метаданных для веб-канала измененных данных. Чтобы выполнить запись в таблицу, переименуйте или удалите
эти столбцы или отключите канал измененных данных в таблице, задав
<config>
значение false.
RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
<option>
Параметр имеет ограниченные значения в общих кластерах для <source>
источника.
Дополнительные сведения см. в RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
ROUTINE_ALREADY_EXISTS
Не удается создать <newRoutineType>
<routineName>
, так как <existingRoutineType>
это имя уже существует.
Выберите другое имя, удалите или замените существующее <existingRoutineType>
предложение, или добавьте предложение IF NOT EXISTS, чтобы разрешить существующий <newRoutineType>
.
ROUTINE_NOT_FOUND
Не удается найти подпрограмму <routineName>
. Проверьте орфографию и правильность схемы и каталога.
Если имя не соответствует схеме и каталогу, проверьте выходные данные current_schema() или укажите имя с правильной схемой и каталогом.
Чтобы терпеть ошибку при удалении, используйте DROP ... ЕСЛИ СУЩЕСТВУЕТ.
ROUTINE_PARAMETER_NOT_FOUND
Функция <functionName>
не поддерживает параметр <parameterName>
, указанный в позиции <pos>
.<suggestion>
ROUTINE_USES_SYSTEM_RESERVED_CLASS_NAME
Не удается создать функцию <routineName>
, так как указанное имя класса "<className>
" зарезервировано для системного использования. Переименуйте класс и повторите попытку.
ROW_LEVEL_SECURITY_CHECK_CONSTRAINT_UNSUPPORTED
Создание ограничения CHECK для таблицы <tableName>
с политиками безопасности на уровне строк не поддерживается.
ROW_LEVEL_SECURITY_DUPLICATE_COLUMN_NAME
Инструкция <statementType>
пыталась назначить политику безопасности на уровне строк таблице, но два или более ссылочных столбцов имели то же имя <columnName>
, что недопустимо.
ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
Политики <tableName>
безопасности на уровне строк для не поддерживаются:
Дополнительные сведения см. в ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
ROW_LEVEL_SECURITY_INCOMPATIBLE_SCHEMA_CHANGE
Не удается получить <statementType>
<columnName>
доступ к таблице <tableName>
, так как она ссылается на политику безопасности на уровне строк. Прежде чем продолжить, владелец таблицы должен удалить или изменить эту политику.
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_SOURCE
Операции MERGE INTO не поддерживают политики безопасности на уровне строк в исходной таблице <tableName>
.
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_TARGET
Операции MERGE INTO не поддерживают запись в таблицу <tableName>
с политиками безопасности на уровне строк.
ROW_LEVEL_SECURITY_MULTI_PART_COLUMN_NAME
Эта инструкция попыталась назначить политику безопасности на уровне строк в таблицу, но на столбец <columnName>
со ссылкой было несколько частей имен, которые являются недопустимыми.
ROW_LEVEL_SECURITY_REQUIRE_UNITY_CATALOG
Политики безопасности на уровне строк поддерживаются только в каталоге Unity.
ROW_LEVEL_SECURITY_TABLE_CLONE_SOURCE_NOT_SUPPORTED
<mode>
Клонирование из таблицы <tableName>
с политикой безопасности на уровне строк не поддерживается.
ROW_LEVEL_SECURITY_TABLE_CLONE_TARGET_NOT_SUPPORTED
<mode>
Клонирование в таблицу <tableName>
с политикой безопасности на уровне строк не поддерживается.
ROW_LEVEL_SECURITY_UNSUPPORTED_CONSTANT_AS_PARAMETER
Использование константы в качестве параметра в политике безопасности на уровне строк не поддерживается. Обновите команду SQL, чтобы удалить константу из определения фильтра строк, а затем повторите попытку.
ROW_LEVEL_SECURITY_UNSUPPORTED_PROVIDER
Не удалось выполнить <statementType>
команду, так как назначение политики безопасности на уровне строк не поддерживается для целевого источника данных с поставщиком таблиц: "<provider>
".
ROW_SUBQUERY_TOO_MANY_ROWS
Несколько строк, возвращаемых вложенным запросом, используемым в качестве строки.
ROW_VALUE_IS_NULL
Найдено значение NULL в строке по индексу <index>
, ожидаемое значение, отличное от NULL.
RULE_ID_NOT_FOUND
Не найден идентификатор для имени правила "<ruleName>
". При добавлении нового правила измените RuleIdCollection.scala.
SAMPLE_TABLE_PERMISSIONS
Разрешения не поддерживаются для примеров баз данных или таблиц.
SCALAR_SUBQUERY_IS_IN_GROUP_BY_OR_AGGREGATE_FUNCTION
Коррелированный скалярный вложенный запрос "<sqlExpr>
" не присутствует ни в GROUP BY, ни в агрегатной функции.
Добавьте его в GROUP BY с помощью порядкового положения или завернуть его в first()
(или first_value
), если вы не заботитесь о том, какое значение вы получаете.
SCALAR_SUBQUERY_TOO_MANY_ROWS
Несколько строк, возвращаемых вложенным запросом, используемым в качестве выражения.
SCHEDULE_PERIOD_INVALID
Период расписания <timeUnit>
должен быть целым значением от 1 до <upperBound>
(включительно). Получено: <actual>
.
SCHEMA_ALREADY_EXISTS
Не удается создать схему <schemaName>
, так как она уже существует.
Выберите другое имя, удалите существующую схему или добавьте предложение IF NOT EXISTS, чтобы разрешить существующую схему.
SCHEMA_NOT_EMPTY
Не удается удалить схему <schemaName>
, так как она содержит объекты.
Использование DROP SCHEMA ... КАСКАД, чтобы удалить схему и все его объекты.
SCHEMA_NOT_FOUND
Не удается найти схему <schemaName>
. Проверьте орфографию и правильность схемы и каталога.
Если имя не задано в каталоге, проверьте выходные данные current_schema() или укажите имя с правильным каталогом.
Чтобы терпеть ошибку при удалении, используйте DROP SCHEMA IF EXISTS.
SCHEMA_REGISTRY_CONFIGURATION_ERROR
Не удалось инициализировать схему из реестра схем. <reason>
.
SECOND_FUNCTION_ARGUMENT_NOT_INTEGER
Второй аргумент <functionName>
функции должен быть целым числом.
SECRET_FUNCTION_INVALID_LOCATION
Не удается выполнить <commandType>
команду с одной или несколькими не зашифрованными ссылками на функцию SECRET; зашифруйте результат каждого вызова такой функции с помощью AES_ENCRYPT и повторите попытку.
SEED_EXPRESSION_IS_UNFOLDABLE
Начальное выражение выражения <seedExpr>
<exprWithSeed>
должно быть свертываемым.
SERVER_IS_BUSY
Сервер занят и не может обрабатывать запрос. Подождите несколько секунд и повторите попытку.
SORT_BY_WITHOUT_BUCKETING
SortBy необходимо использовать вместе с bucketBy.
SPARK_JOB_CANCELLED
Задание <jobId>
отменено <reason>
SPECIFY_BUCKETING_IS_NOT_ALLOWED
Create TABLE без явного списка столбцов не может указывать сведения о сегментированиях.
Используйте форму с явным списком столбцов и укажите сведения о контейнере.
Кроме того, можно разрешить выводить сведения о сегменте, опустив предложение.
SPECIFY_CLUSTER_BY_WITH_BUCKETING_IS_NOT_ALLOWED
Не удается указать КЛАСТЕР BY и CLUSTERED BY В КОНТЕЙНЕРЫ.
SPECIFY_CLUSTER_BY_WITH_PARTITIONED_BY_IS_NOT_ALLOWED
Не удается указать как КЛАСТЕР BY, так и PARTITIONED BY.
SPECIFY_PARTITION_IS_NOT_ALLOWED
CREATE TABLE без явного списка столбцов не может указывать PARTITIONED BY.
Используйте форму с явным списком столбцов и укажите PARTITIONED BY.
Кроме того, можно разрешить выводить секционирование, пропуская предложение PARTITION BY.
SQL_CONF_NOT_FOUND
Не удается найти конфигурацию <sqlConf>
SQL. Убедитесь, что конфигурация существует.
STAGING_PATH_CURRENTLY_INACCESSIBLE
Временная ошибка при доступе к промежуточному пути <path>
целевого объекта, попробуйте через несколько минут.
STAR_GROUP_BY_POS
Звезда (*) не разрешена в списке выбора при использовании порядковой позиции GROUP BY.
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_HANDLE_STATE
Не удалось выполнить операцию обработчика с отслеживанием состояния=<operationType>
с недопустимым состоянием дескриптора.<handleState>
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_TIME_MODE
Не удалось выполнить операцию обработчика с отслеживанием состояния=<operationType>
с недопустимым timeMode=<timeMode>
STATEFUL_PROCESSOR_CANNOT_REINITIALIZE_STATE_ON_KEY
Невозможно повторно инициализировать состояние в том же ключе группировки во время начальной обработки состояния обработчика с отслеживанием состояния. Недопустимый ключ группировки=<groupingKey>
. Проверьте исходное состояние, удалите повторяющиеся строки и перезагрузите запрос.
STATEFUL_PROCESSOR_DUPLICATE_STATE_VARIABLE_DEFINED
Переменная состояния с именем <stateVarName>
уже определена в StatefulProcessor.
STATEFUL_PROCESSOR_INCORRECT_TIME_MODE_TO_ASSIGN_TTL
Не удается использовать TTL для состояния=<stateName>
в timeMode=<timeMode>
, используйте TimeMode.ProcessingTime() вместо этого.
STATEFUL_PROCESSOR_TTL_DURATION_MUST_BE_POSITIVE
Длительность TTL должна быть больше нуля для операции хранилища состояний=<operationType>
в state=<stateName>
.
STATEFUL_PROCESSOR_UNKNOWN_TIME_MODE
Неизвестный режим <timeMode>
времени. Допустимые режимы timeMode : none, processingTime, eventTime
STATE_STORE_CANNOT_CREATE_COLUMN_FAMILY_WITH_RESERVED_CHARS
Не удалось создать семейство столбцов с неподдерживаемой начальной символом и именем=<colFamilyName>
.
STATE_STORE_CANNOT_USE_COLUMN_FAMILY_WITH_INVALID_NAME
Не удалось выполнить операцию семейства столбцов=<operationName>
с недопустимым именем=<colFamilyName>
. Имя семейства столбцов не может быть пустым или включать начальные или конечные пробелы или использовать зарезервированное ключевое слово=default
STATE_STORE_COLUMN_FAMILY_SCHEMA_INCOMPATIBLE
Несовместимое преобразование схемы с семейством столбцов=<colFamilyName>
, oldSchema=<oldSchema>
, newSchema=<newSchema>
.
STATE_STORE_HANDLE_NOT_INITIALIZED
Дескриптор не инициализирован для этого StatefulProcessor.
Используйте только statefulProcessor в операторе transformWithState.
STATE_STORE_INCORRECT_NUM_ORDERING_COLS_FOR_RANGE_SCAN
Неправильное число порядковых порядковых порядков для<numOrderingCols>
кодировщика диапазона. Число порядковых порядков упорядочения не может быть равно нулю или больше числа столбцов схемы.
STATE_STORE_INCORRECT_NUM_PREFIX_COLS_FOR_PREFIX_SCAN
Неправильное число столбцов префикса=<numPrefixCols>
для кодировщика префикса. Столбцы префикса не могут быть равны нулю или больше или равно числу столбцов схемы.
STATE_STORE_INVALID_CONFIG_AFTER_RESTART
Не удается измениться <configName>
между <oldConfig>
<newConfig>
перезапусками. Установите значение <configName>
<oldConfig>
или перезапустите новый каталог контрольных точек.
STATE_STORE_INVALID_PROVIDER
Указанный поставщик <inputClass>
хранилища состояний не расширяет org.apache.spark.sql.execution.streaming.state.StateStoreProvider.
STATE_STORE_INVALID_VARIABLE_TYPE_CHANGE
Невозможно изменить между <stateVarName>
<newType>
перезапусками запросов. Установите значение <stateVarName>
<oldType>
или перезапустите новый каталог контрольных точек.
STATE_STORE_NULL_TYPE_ORDERING_COLS_NOT_SUPPORTED
Столбец упорядочения типов NULL с именем=<fieldName>
по индексу=<index>
не поддерживается для кодировщика сканирования диапазона.
STATE_STORE_PROVIDER_DOES_NOT_SUPPORT_FINE_GRAINED_STATE_REPLAY
Указанный поставщик <inputClass>
хранилища состояний не расширяет org.apache.spark.sql.execution.streaming.state.SupportsFineGrainedReplay.
Поэтому он не поддерживает параметр snapshotStartBatchId или readChangeFeed в источнике данных состояния.
STATE_STORE_UNSUPPORTED_OPERATION_ON_MISSING_COLUMN_FAMILY
Операция хранилища состояний=<operationType>
не поддерживается для отсутствующих семейств столбцов=<colFamilyName>
.
STATE_STORE_VARIABLE_SIZE_ORDERING_COLS_NOT_SUPPORTED
Столбец сортировки размера переменной с именем=<fieldName>
по индексу=<index>
не поддерживается для кодировщика сканирования диапазона.
STATIC_PARTITION_COLUMN_IN_INSERT_COLUMN_LIST
Статический столбец <staticName>
секции также указывается в списке столбцов.
STDS_COMMITTED_BATCH_UNAVAILABLE
Не найдена зафиксированная пакетная служба, расположение контрольной точки: <checkpointLocation>
Убедитесь, что запрос выполняется и фиксирует любой микробатч перед остановкой.
STDS_CONFLICT_OPTIONS
Параметры <options>
нельзя указать вместе. Укажите его.
STDS_FAILED_TO_READ_OPERATOR_METADATA
Не удалось считывать метаданные оператора для контрольных точекLocation=<checkpointLocation>
и batchId=<batchId>
.
Либо файл не существует, либо файл поврежден.
Повторно выполните запрос потоковой передачи, чтобы создать метаданные оператора и сообщить соответствующим сообществам или поставщикам, если ошибка сохраняется.
STDS_FAILED_TO_READ_STATE_SCHEMA
Не удалось прочитать схему состояния. Либо файл не существует, либо файл поврежден. параметры: <sourceOptions>
.
Повторно запустите потоковый запрос, чтобы создать схему состояния, и сообщите соответствующим сообществам или поставщикам, если ошибка сохраняется.
STDS_INVALID_OPTION_VALUE
Недопустимое значение для параметра источника '<optionName>
':
Дополнительные сведения см. в STDS_INVALID_OPTION_VALUE
STDS_NO_PARTITION_DISCOVERED_IN_STATE_STORE
Состояние не имеет секции. Убедитесь, что запрос указывает на допустимое состояние. Параметры: <sourceOptions>
STDS_OFFSET_LOG_UNAVAILABLE
Журнал <batchId>
смещения для не существует, расположение контрольной точки: <checkpointLocation>
Укажите идентификатор пакета, доступный для запроса. Вы можете запросить доступные идентификаторы пакетов с помощью источника данных метаданных состояния.
STDS_OFFSET_METADATA_LOG_UNAVAILABLE
Метаданные недоступны для журнала смещения для <batchId>
расположения контрольной точки: <checkpointLocation>
Контрольная точка, как представляется, выполняется только с более старыми версиями Spark. Запустите потоковый запрос с последней версией Spark, чтобы Spark создает метаданные состояния.
STDS_REQUIRED_OPTION_UNSPECIFIED
Необходимо указать значение '<optionName>
'.
STREAMING_AQE_NOT_SUPPORTED_FOR_STATEFUL_OPERATORS
Адаптивное выполнение запросов не поддерживается для операторов с отслеживанием состояния в структурированной потоковой передаче.
STREAMING_FROM_MATERIALIZED_VIEW
Не удается выполнить поток из материализованного представления <viewName>
. Потоковая передача из материализованных представлений не поддерживается.
STREAMING_OUTPUT_MODE
Недопустимый режим вывода потоковой передачи: <outputMode>
.
Дополнительные сведения см. в STREAMING_OUTPUT_MODE
STREAMING_STATEFUL_OPERATOR_NOT_MATCH_IN_STATE_METADATA
Имя оператора потоковой передачи с отслеживанием состояния не соответствует оператору в метаданных состояния. Это может произойти при добавлении пользователем или удалении или изменении оператора отслеживания состояния существующего потокового запроса.
Операторы с отслеживанием состояния в метаданных: [<OpsInMetadataSeq>
]; Операторы с отслеживанием состояния в текущем пакете: [<OpsInCurBatchSeq>
].
STREAMING_TABLE_NEEDS_REFRESH
Для выполнения <operation>
необходимо обновить таблицу <tableName>
потоковой передачи. Чтобы обновить таблицу, выполните КОМАНДУ CREATE OR REFRESH STREAMING TABLE <tableName>
AS.
STREAMING_TABLE_NOT_SUPPORTED
Потоковые таблицы можно создавать и обновлять только в разностных динамических таблицах и хранилищах SQL Databricks.
STREAMING_TABLE_OPERATION_NOT_ALLOWED
<operation>
Операция не разрешена:
Дополнительные сведения см. в STREAMING_TABLE_OPERATION_NOT_ALLOWED
STREAMING_TABLE_QUERY_INVALID
Потоковая таблица <tableName>
может быть создана только из потокового запроса. Добавьте ключевое слово STREAM в предложение FROM, чтобы превратить это отношение в потоковый запрос.
STREAM_NOT_FOUND_FOR_KINESIS_SOURCE
Поток <streamName>
Kinesis не <region>
найден.
Запустите новый запрос, указывающий на правильное имя потока.
STRUCT_ARRAY_LENGTH_MISMATCH
Входная строка не имеет ожидаемого количества значений, необходимых схеме. <expected>
поля обязательны во время <actual>
предоставления значений.
SUM_OF_LIMIT_AND_OFFSET_EXCEEDS_MAX_INT
Сумма предложения LIMIT и предложения OFFSET не должна превышать максимальное 32-разрядное целочисленное значение (2 147 483 647), но найдено ограничение = , смещение = <limit>
<offset>
.
SYNC_METADATA_DELTA_ONLY
Команда "Восстановить метаданные синхронизации таблиц" поддерживается только для разностной таблицы.
SYNC_METADATA_NOT_SUPPORTED
Команда "Восстановить метаданные синхронизации таблиц" поддерживается только для таблиц каталога Unity.
SYNC_SRC_TARGET_TBL_NOT_SAME
Имя исходной таблицы должно совпадать с именем <srcTable>
<destTable>
целевой таблицы.
SYNTAX_DISCONTINUED
Поддержка предложения или ключевого слова: <clause>
в этом контексте прекращена.
Дополнительные сведения см. в SYNTAX_DISCONTINUED
TABLE_OR_VIEW_ALREADY_EXISTS
Не удается создать таблицу или представление <relationName>
, так как она уже существует.
Выберите другое имя, удалите существующий объект, добавьте предложение IF NOT EXISTS, чтобы разрешить существующие объекты, добавить предложение OR REPLACE для замены существующего материализованного представления или добавить предложение OR REFRESH для обновления существующей потоковой таблицы.
TABLE_OR_VIEW_NOT_FOUND
Не удается найти таблицу или представление <relationName>
. Проверьте орфографию и правильность схемы и каталога.
Если имя не задано схемой, проверьте выходные данные current_schema() или укажите имя с правильной схемой и каталогом.
Чтобы терпеть ошибку при удалении, используйте DROP VIEW IF EXISTS или DROP TABLE IF EXISTS.
Дополнительные сведения см. в TABLE_OR_VIEW_NOT_FOUND
TABLE_VALUED_ARGUMENTS_NOT_YET_IMPLEMENTED_FOR_SQL_FUNCTIONS
Не удается <action>
определить определяемую пользователем функцию <functionName>
SQL с аргументами TABLE, так как эта функция еще не реализована.
TABLE_VALUED_FUNCTION_FAILED_TO_ANALYZE_IN_PYTHON
Не удалось проанализировать определяемую пользователем функцию таблицы Python: <msg>
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INCOMPATIBLE_WITH_CALL
Не удалось оценить функцию <functionName>
таблицы, так как ее метаданные <requestedMetadata>
таблицы, но вызов <invalidFunctionCallProperty>
функции.
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INVALID
Не удалось оценить функцию <functionName>
таблицы, так как ее метаданные таблицы были недопустимыми; <reason>
TABLE_VALUED_FUNCTION_TOO_MANY_TABLE_ARGUMENTS
Существует слишком много аргументов таблицы для табличной функции.
Он разрешает один аргумент таблицы, но получил: <num>
Если вы хотите разрешить его, задайте для параметра "spark.sql.allowMultipleTableArguments". Включено значение true.
TABLE_WITH_ID_NOT_FOUND
Не удается найти таблицу с идентификатором <tableId>
. Проверьте правильность идентификатора UUID.
TASK_WRITE_FAILED
Задача завершилась ошибкой при записи строк <path>
в .
TEMP_TABLE_OR_VIEW_ALREADY_EXISTS
Не удается создать временное представление <relationName>
, так как оно уже существует.
Выберите другое имя, удалите или замените существующее представление или добавьте предложение IF NOT EXISTS, чтобы разрешить существующие представления.
TEMP_VIEW_NAME_TOO_MANY_NAME_PARTS
CREATE TEMPORARY VIEW или соответствующие API набора данных принимают только имена представлений с одной частью, но получили: <actualName>
UC_BUCKETED_TABLES
Сегментированные таблицы не поддерживаются в каталоге Unity.
UC_CATALOG_NAME_NOT_PROVIDED
Для каталога Unity укажите имя каталога явно. Например, SHOW GRANT your.address@email.com
ON CATALOG main.
UC_COMMAND_NOT_SUPPORTED
Команды: <commandName>
не поддерживаются в каталоге Unity.
Дополнительные сведения см. в UC_COMMAND_NOT_SUPPORTED
UC_COMMAND_NOT_SUPPORTED_IN_SHARED_ACCESS_MODE
Команды: <commandName>
не поддерживаются для кластеров каталога Unity в режиме общего доступа. Вместо этого используйте режим доступа с одним пользователем.
UC_CREDENTIAL_PURPOSE_NOT_SUPPORTED
Указанный тип учетных данных не поддерживается.
UC_DATASOURCE_NOT_SUPPORTED
Формат <dataSourceFormatName>
источника данных не поддерживается в каталоге Unity.
UC_DATASOURCE_OPTIONS_NOT_SUPPORTED
Параметры источника данных не поддерживаются в каталоге Unity.
UC_EXTERNAL_VOLUME_MISSING_LOCATION
Предложение LOCATION должно присутствовать для внешнего тома. Проверьте синтаксис CREATE EXTERNAL VOLUME ... РАСПОЛОЖЕНИЕ ...' для создания внешнего тома.
UC_FAILED_PROVISIONING_STATE
Сбой запроса, так как он попытался ссылаться на таблицу<tableName>
, но не смог сделать это: <failureReason>
Обновите таблицу <tableName>
, чтобы убедиться, что она находится в состоянии активной подготовки, а затем повторите запрос.
UC_FILE_SCHEME_FOR_TABLE_CREATION_NOT_SUPPORTED
Создание таблицы в каталоге Unity с помощью схемы <schemeName>
файлов не поддерживается.
Вместо этого создайте федеративное подключение к источнику данных с помощью команды CREATE CONNECTION для того же поставщика таблиц, а затем создайте каталог на основе соединения с командой CREATE FOREIGN CATALOG, чтобы ссылаться на таблицы.
UC_HIVE_METASTORE_FEDERATION_CROSS_CATALOG_VIEW_NOT_SUPPORTED
Представление федерации хранилища метаданных Hive не поддерживает зависимости в нескольких каталогах. Представление <view>
в каталоге федерации хранилища метаданных Hive должно использовать зависимость от hive_metastore или spark_catalog каталога, но его зависимость <dependency>
находится в другом каталоге <referencedCatalog>
. Обновите зависимости, чтобы удовлетворить это ограничение, а затем повторите запрос или команду.
UC_HIVE_METASTORE_FEDERATION_NOT_ENABLED
Федерация хранилища метаданных Hive не включена в этом кластере.
Доступ к каталогу <catalogName>
не поддерживается в этом кластере
UC_INVALID_DEPENDENCIES
<viewName>
Зависимости записываются как <storedDeps>
при синтаксическом анализе<parsedDeps>
. Это, вероятно, произошло через неправильное использование API, отличного от SQL. Вы можете восстановить зависимости в среде выполнения Databricks, выполнив ALTER VIEW <viewName>
AS <viewText>
.
UC_INVALID_NAMESPACE
Вложенные или пустые пространства имен не поддерживаются в каталоге Unity.
UC_INVALID_REFERENCE
Объект <name>
, отличный от Unity-Catalog, нельзя ссылаться на объекты каталога Unity.
UC_LAKEHOUSE_FEDERATION_WRITES_NOT_ALLOWED
Поддержка записи в каталоге Unity Lakehouse не включена для поставщика <provider>
в этом кластере.
UC_LOCATION_FOR_MANAGED_VOLUME_NOT_SUPPORTED
Управляемый том не принимает предложение LOCATION. Проверьте синтаксис CREATE VOLUME .... для создания управляемого тома.
UC_NOT_ENABLED
Каталог Unity не включен в этом кластере.
UC_QUERY_FEDERATION_NOT_ENABLED
Федерация запросов каталога Unity не включена в этом кластере.
UC_SERVICE_CREDENTIALS_NOT_ENABLED
Учетные данные службы не включены в этом кластере.
UC_VOLUMES_NOT_ENABLED
Поддержка томов каталога Unity не включена в этом экземпляре.
UC_VOLUMES_SHARING_NOT_ENABLED
Поддержка общего доступа к томам не включена в этом экземпляре.
UC_VOLUME_NOT_FOUND
Том <name>
не существует. Чтобы получить список доступных томов, используйте команду SHOW VOLUMES.
UDF_ERROR
SQLSTATE: нет назначенных
Сбой выполнения функции <fn>
Дополнительные сведения см. в UDF_ERROR
UDF_LIMITS
Одно или несколько ограничений UDF были нарушены.
Дополнительные сведения см. в UDF_LIMITS
UDF_MAX_COUNT_EXCEEDED
Превышено ограничение <maxNumUdfs>
UDF на уровне запросов для определяемых пользователем пользователей (ограничено во время общедоступной предварительной версии). Найдено <numUdfs>
. Определяемые пользователем функции: <udfNames>
UDF_PYSPARK_ERROR
Рабочий сотрудник Python непредвиденно завершился
Дополнительные сведения см. в UDF_PYSPARK_ERROR
UDF_PYSPARK_UNSUPPORTED_TYPE
UDF <udf>
PySpark (<eval-type>
) не поддерживается в кластерах в режиме общего доступа.
UDF_PYSPARK_USER_CODE_ERROR
Ошибка выполнения.
Дополнительные сведения см. в UDF_PYSPARK_USER_CODE_ERROR
UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE
Значение по умолчанию параметра не поддерживается для определяемой <functionType>
пользователем функции.
UDF_USER_CODE_ERROR
Сбой выполнения функции <fn>
.
Дополнительные сведения см. в UDF_USER_CODE_ERROR
UDTF_ALIAS_NUMBER_MISMATCH
Число псевдонимов, предоставленных в предложении AS, не соответствует количеству выходных столбцов в UDTF.
Ожидаемые <aliasesSize>
псевдонимы, но получили <aliasesNames>
.
Убедитесь, что число псевдонимов, предоставленных, соответствует количеству выходных столбцов в UDTF.
UDTF_INVALID_ALIAS_IN_REQUESTED_ORDERING_STRING_FROM_ANALYZE_METHOD
Не удалось оценить определяемую пользователем функцию таблицы, так как его метод "анализа" вернул запрошенный OrderingColumn, выражение имени столбца которого включало ненужный псевдоним; удалите этот псевдоним <aliasName>
, а затем повторите запрос.
UDTF_INVALID_REQUESTED_SELECTED_EXPRESSION_FROM_ANALYZE_METHOD_REQUIRES_ALIAS
Не удалось оценить определяемую пользователем функцию таблицы, так как его метод анализа вернул запрошенное выражение select (<expression>
), которое не содержит соответствующего псевдонима; обновите UDTF, чтобы указать псевдоним там, а затем повторите запрос.
UNABLE_TO_ACQUIRE_MEMORY
Не удалось получить <requestedBytes>
байты памяти, получили <receivedBytes>
.
UNABLE_TO_CONVERT_TO_PROTOBUF_MESSAGE_TYPE
Не удалось преобразовать тип SQL в тип <toType>
<protobufType>
Protobuf.
UNABLE_TO_FETCH_HIVE_TABLES
Не удается получить таблицы базы данных Hive: <dbName>
Имя класса ошибки: <className>
.
UNABLE_TO_INFER_SCHEMA
Не удается определить схему для <format>
. Его необходимо указать вручную.
UNAUTHORIZED_ACCESS
Несанкционированный доступ:
<report>
UNBOUND_SQL_PARAMETER
Найден несвязанный параметр: <name>
. Исправьте и предоставьте args
сопоставление параметра с функциями конструктора SQL или литералов коллекции, например map()
, array()
. struct()
UNCLOSED_BRACKETED_COMMENT
Найден незакрытый комментарий с скобками. Добавьте */ в конце комментария.
UNEXPECTED_INPUT_TYPE
Для параметра <paramIndex>
функции требуется <requiredType>
тип, однако <inputSql>
имеет тип<inputType>
<functionName>
.
UNEXPECTED_OPERATOR_IN_STREAMING_VIEW
Непредвиденный оператор <op>
в инструкции CREATE VIEW в качестве источника потоковой передачи.
Запрос потокового представления должен состоять только из операций SELECT, WHERE и UNION ALL.
UNEXPECTED_POSITIONAL_ARGUMENT
Не удается вызвать функцию <functionName>
, так как она содержит позиционные аргументы после именованного аргумента, назначенного <parameterName>
; переупорядочение их таким образом, чтобы позиционные аргументы пришли сначала, а затем повторите запрос.
UNEXPECTED_SERIALIZER_FOR_CLASS
<className>
Класс имеет неожиданный сериализатор выражений. Ожидает значение "" или "STRUCT
IF", которое возвращает значение "STRUCT
", но найдено <expr>
.
UNKNOWN_FIELD_EXCEPTION
Обнаружены неизвестные поля во время синтаксического анализа: <unknownFieldBlob>
это может быть исправлено автоматическим повтором: <isRetryable>
Дополнительные сведения см. в UNKNOWN_FIELD_EXCEPTION
UNKNOWN_POSITIONAL_ARGUMENT
Вызов функции <functionName>
содержит неизвестный позиционный аргумент <sqlExpr>
в позиции <pos>
. Это недопустимо.
UNKNOWN_PRIMITIVE_TYPE_IN_VARIANT
Неизвестный примитивный тип с идентификатором <id>
найден в вариантном значении.
UNKNOWN_PROTOBUF_MESSAGE_TYPE
Попытка рассматривать <descriptorName>
как сообщение, но это было <containingType>
.
UNPIVOT_REQUIRES_ATTRIBUTES
ДЛЯ UNPIVOT все заданные <given>
выражения должны быть столбцами, если выражения не <empty>
заданы. Это не столбцы: [<expressions>
].
UNPIVOT_REQUIRES_VALUE_COLUMNS
Для UNPIVOT необходимо указать по крайней мере один столбец значений, все столбцы, указанные в качестве идентификаторов.
UNPIVOT_VALUE_DATA_TYPE_MISMATCH
Несводные столбцы значений должны совместно использовать наименее распространенный тип, некоторые типы не: [<types>
].
UNPIVOT_VALUE_SIZE_MISMATCH
Все столбцы сводных значений должны иметь тот же размер, что и имена столбцов значений (<names>
).
UNRECOGNIZED_PARAMETER_NAME
Не удается вызвать функцию, так как вызов функции <functionName>
включал именованную ссылку на аргумент для именованного <argumentName>
аргумента, но эта функция не включает в себя подпись, содержащую аргумент с этим именем. Вы подразумевали один из следующих вариантов? [<proposal>
].
UNRECOGNIZED_SQL_TYPE
Нераспознанный тип SQL — имя: <typeName>
, id: <jdbcType>
.
UNRESOLVABLE_TABLE_VALUED_FUNCTION
Не удалось разрешить <name>
функцию с табличным значением.
Убедитесь, что <name>
она определена как табличное значение функции и правильно предоставляются все необходимые параметры.
Если <name>
оно не определено, создайте табличную функцию перед его использованием.
Дополнительные сведения об определении табличных функций см. в документации Apache Spark.
UNRESOLVED_ALL_IN_GROUP_BY
Не удается выводить столбцы группирования для GROUP BY ALL на основе предложения select. Явно укажите столбцы группировки.
UNRESOLVED_COLUMN
Невозможно разрешить столбец, переменную или параметр функции с именем <objectName>
.
Дополнительные сведения см. в UNRESOLVED_COLUMN
UNRESOLVED_FIELD
Поле с именем <fieldName>
не может быть разрешено с помощью столбца <columnPath>
типа структуры.
Дополнительные сведения см. в UNRESOLVED_FIELD
UNRESOLVED_MAP_KEY
Не удается разрешить столбец <objectName>
в виде ключа карты. Если ключ является строковым литералом, добавьте одинарные кавычки вокруг него.
Дополнительные сведения см. в UNRESOLVED_MAP_KEY
UNRESOLVED_ROUTINE
Не удается разрешить подпрограмму <routineName>
в пути <searchPath>
поиска.
Дополнительные сведения см. в UNRESOLVED_ROUTINE
UNRESOLVED_USING_COLUMN_FOR_JOIN
Невозможно разрешить столбец <colName>
USING на стороне <side>
соединения. Столбцы на стороне <side>
: [<suggestion>
].
UNRESOLVED_VARIABLE
Не удается разрешить переменную <variableName>
в пути <searchPath>
поиска.
UNSUPPORTED_ADD_FILE
Не поддерживайте добавление файла.
Дополнительные сведения см. в UNSUPPORTED_ADD_FILE
UNSUPPORTED_ARROWTYPE
Неподдерживаемый тип <typeName>
стрелки.
UNSUPPORTED_BATCH_TABLE_VALUED_FUNCTION
Функция <funcName>
не поддерживает пакетные запросы.
UNSUPPORTED_CALL
Не удается вызвать метод "<methodName>
" класса "<className>
".
Дополнительные сведения см. в UNSUPPORTED_CALL
UNSUPPORTED_CHAR_OR_VARCHAR_AS_STRING
Тип char/varchar нельзя использовать в схеме таблицы.
Если вы хотите, чтобы Spark рассматривала их как строковый тип, аналогичный Spark 3.0 и более ранних версий, задайте для параметра "spark.sql.legacy.charVarcharAsString" значение true.
UNSUPPORTED_CLAUSE_FOR_OPERATION
Не <clause>
поддерживается для <operation>
.
UNSUPPORTED_COLLATION
Параметры сортировки <collationName>
не поддерживаются для:
Дополнительные сведения см. в UNSUPPORTED_COLLATION
UNSUPPORTED_COMMON_ANCESTOR_LOC_FOR_FILE_STREAM_SOURCE
Общие предки исходного пути и sourceArchiveDir должны быть зарегистрированы в UC.
Если вы видите это сообщение об ошибке, скорее всего, вы регистрируете путь к источнику и sourceArchiveDir в разных внешних расположениях.
Поместите их в одно внешнее расположение.
UNSUPPORTED_CONSTRAINT_CLAUSES
Предложения ограничений <clauses>
не поддерживаются.
UNSUPPORTED_CONSTRAINT_TYPE
Неподдерживаемый тип ограничения. Поддерживаются только <supportedConstraintTypes>
UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY
Неподдерживаемый тип источника данных для прямого запроса к файлам: <dataSourceType>
UNSUPPORTED_DATATYPE
Неподдерживаемый тип <typeName>
данных.
UNSUPPORTED_DATA_SOURCE_SAVE_MODE
Источник данных "<source>
" не может быть записан в режиме <createMode>
. Вместо этого используйте режим "Добавить" или "Перезаписать".
UNSUPPORTED_DATA_TYPE_FOR_DATASOURCE
Источник <format>
данных не поддерживает столбец <columnName>
типа <columnType>
.
UNSUPPORTED_DATA_TYPE_FOR_ENCODER
Не удается создать кодировщик для <dataType>
. Используйте другой тип выходных данных для UDF или DataFrame.
UNSUPPORTED_DEFAULT_VALUE
Значения столбцов DEFAULT не поддерживаются.
Дополнительные сведения см. в UNSUPPORTED_DEFAULT_VALUE
UNSUPPORTED_DESERIALIZER
Десериализатор не поддерживается:
Дополнительные сведения см. в статье об UNSUPPORTED_DESERIALIZER.
UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
Не удается создать созданный столбец <fieldName>
с выражением <expressionStr>
поколения, так как <reason>
.
UNSUPPORTED_EXPR_FOR_OPERATOR
Оператор запроса содержит одно или несколько неподдерживаемых выражений.
Рекомендуется переписать его, чтобы избежать функций окон, агрегатных функций и функций генератора в предложении WHERE.
Недопустимые выражения: [<invalidExprSqls>
]
UNSUPPORTED_EXPR_FOR_PARAMETER
Параметр запроса содержит неподдерживаемое выражение.
Параметры могут быть переменными или литералами.
Недопустимое выражение: [<invalidExprSql>
]
UNSUPPORTED_EXPR_FOR_WINDOW
Выражение <sqlExpr>
не поддерживается в функции окна.
UNSUPPORTED_FEATURE
Функция не поддерживается:
Дополнительные сведения см. в статье об UNSUPPORTED_FEATURE.
UNSUPPORTED_FN_TYPE
Неподдерживаемый определяемый пользователем тип функции: <language>
UNSUPPORTED_GENERATOR
Генератор не поддерживается.
Дополнительные сведения см. в статье об UNSUPPORTED_GENERATOR.
UNSUPPORTED_GROUPING_EXPRESSION
grouping()/grouping_id() можно использовать только с GroupingSets/Cube/Rollup.
UNSUPPORTED_INITIAL_POSITION_AND_TRIGGER_PAIR_FOR_KINESIS_SOURCE
<trigger>
с исходной позицией <initialPosition>
не поддерживается в источнике Kinesis
UNSUPPORTED_INSERT
Не удается вставить в целевой объект.
Дополнительные сведения см. в UNSUPPORTED_INSERT
UNSUPPORTED_JOIN_TYPE
Неподдерживаемый тип соединения '<typ>
'. Поддерживаемые типы соединения: <supported>
UNSUPPORTED_MANAGED_TABLE_CREATION
Создание управляемой таблицы <tableName>
с помощью источника <dataSource>
данных не поддерживается. Необходимо использовать datasource DELTA или создать внешнюю таблицу с помощью CREATE EXTERNAL TABLE <tableName>
... ИСПОЛЬЗОВАНИЕ <dataSource>
...
UNSUPPORTED_MERGE_CONDITION
Операция MERGE содержит неподдерживаемое <condName>
условие.
Дополнительные сведения см. в UNSUPPORTED_MERGE_CONDITION
UNSUPPORTED_NESTED_ROW_OR_COLUMN_ACCESS_POLICY
Таблица <tableName>
имеет политику безопасности на уровне строк или маску столбцов, которая косвенно ссылается на другую таблицу с политикой безопасности на уровне строк или маской столбцов. Это не поддерживается. Последовательность вызовов: <callSequence>
UNSUPPORTED_OVERWRITE
Не удается перезаписать целевой объект, из который также считывается.
Дополнительные сведения см. в UNSUPPORTED_OVERWRITE
UNSUPPORTED_SAVE_MODE
Режим <saveMode>
сохранения не поддерживается для:
Дополнительные сведения см. в статье об UNSUPPORTED_SAVE_MODE.
UNSUPPORTED_STREAMING_OPERATOR_WITHOUT_WATERMARK
<outputMode>
режим вывода не поддерживается для <statefulOperator>
потоковых кадров данных или наборов данных без водяного знака.
UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
Неподдерживаемый для потоковой передачи представления. Причина.
Дополнительные сведения см. в UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED
Параметры <options>
потоковой передачи не поддерживаются для источника <source>
данных в общем кластере. Убедитесь, что параметры указаны и указаны правильно, а также проверьтеhttps://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode наличие ограничений.
UNSUPPORTED_STREAMING_SINK_PERMISSION_ENFORCED
Источник <sink>
данных не поддерживается в качестве приемника потоковой передачи в общем кластере.
UNSUPPORTED_STREAMING_SOURCE_PERMISSION_ENFORCED
Источник <source>
данных не поддерживается в качестве источника потоковой передачи в общем кластере.
UNSUPPORTED_STREAMING_TABLE_VALUED_FUNCTION
Функция <funcName>
не поддерживает потоковую передачу. Удалите ключевое слово STREAM
UNSUPPORTED_STREAM_READ_LIMIT_FOR_KINESIS_SOURCE
<streamReadLimit>
не поддерживается источником Kinesis
UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
Неподдерживаемое выражение вложенного запроса:
Дополнительные сведения см. в UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
UNSUPPORTED_TIMESERIES_COLUMNS
Создание первичного ключа с столбцами таймерий не поддерживается
UNSUPPORTED_TIMESERIES_WITH_MORE_THAN_ONE_COLUMN
Создание первичного ключа с несколькими столбцами <colSeq>
не поддерживается
UNSUPPORTED_TRIGGER_FOR_KINESIS_SOURCE
<trigger>
не поддерживается источником Kinesis
UNSUPPORTED_TYPED_LITERAL
Литералы типа <unsupportedType>
не поддерживаются. Поддерживаемые типы: <supportedTypes>
.
UNTYPED_SCALA_UDF
Вы используете нетипизированную UDF Scala, которая не содержит сведений о типе ввода.
Spark может вслепую передать значение NULL в завершение Scala с помощью аргумента primitive-type, а завершение увидит значение по умолчанию для типа Java для аргумента NULL (например, с udf((x: Int) => x, IntegerType)
результат будет равен 0 для входных данных со значением NULL). Чтобы избавиться от этой ошибки, можно:
- используйте типизированные API-интерфейсы UDF Scala (без параметра возвращаемого типа), например
udf((x: Int) => x)
. - используйте API UDF Java, например
udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType)
, если типы входных данных являются не примитивными. - Задайте для параметра "spark.sql.legacy.allowUntypedScalaUDF" значение true и используйте этот API с осторожностью.
UPGRADE_NOT_SUPPORTED
Таблица не подходит для обновления из хранилища метаданных Hive в каталог Unity. Причина.
Подробнее см. UPGRADE_NOT_SUPPORTED
USER_DEFINED_FUNCTIONS
Определяемая пользователем функция недопустима:
Дополнительные сведения см. в USER_DEFINED_FUNCTIONS
USER_RAISED_EXCEPTION
<errorMessage>
USER_RAISED_EXCEPTION_PARAMETER_MISMATCH
Функция raise_error()
использовалась для создания класса ошибок: <errorClass>
который ожидает параметры: <expectedParms>
Указанные параметры <providedParms>
не соответствуют ожидаемым параметрам.
Обязательно укажите все ожидаемые параметры.
USER_RAISED_EXCEPTION_UNKNOWN_ERROR_CLASS
Функция raise_error()
использовалась для создания неизвестного класса ошибок: <errorClass>
VARIABLE_ALREADY_EXISTS
Не удается создать переменную <variableName>
, так как она уже существует.
Выберите другое имя или удалите или замените существующую переменную.
VARIABLE_NOT_FOUND
Не удается найти переменную <variableName>
. Проверьте орфографию и правильность схемы и каталога.
Если имя не соответствует схеме и каталогу, проверьте выходные данные current_schema() или укажите имя с правильной схемой и каталогом.
Чтобы терпеть ошибку при удалении, используйте DROP VARIABLE IF EXISTS.
VARIANT_CONSTRUCTOR_SIZE_LIMIT
Не удается создать вариант размером более 16 МиБ. Максимальный допустимый размер значения Variant — 16 МиБ.
VARIANT_DUPLICATE_KEY
Не удалось создать вариант из-за повторяющегося ключа <key>
объекта.
VARIANT_SIZE_LIMIT
Не удается создать вариант больше, чем <sizeLimit>
в <functionName>
.
Избегайте больших входных строк в это выражение (например, добавьте вызовы функций, чтобы проверить размер выражения и преобразовать его в ЗНАЧЕНИЕ NULL, если оно слишком велико).
VIEW_ALREADY_EXISTS
Не удается создать представление <relationName>
, так как оно уже существует.
Выберите другое имя, удалите или замените существующий объект или добавьте предложение IF NOT EXISTS, чтобы не допускать существующие объекты.
VIEW_EXCEED_MAX_NESTED_DEPTH
Глубина представления <viewName>
превышает максимальную глубину разрешения представления (<maxNestedDepth>
).
Анализ прерывается, чтобы избежать ошибок. Если вы хотите обойти эту проблему, попробуйте увеличить значение "spark.sql.view.maxNestedViewDepth".
VIEW_NOT_FOUND
Не удается найти представление <relationName>
. Проверьте орфографию и правильность схемы и каталога.
Если имя не задано схемой, проверьте выходные данные current_schema() или укажите имя с правильной схемой и каталогом.
Чтобы терпеть ошибку при удалении, используйте DROP VIEW IF EXISTS.
VOLUME_ALREADY_EXISTS
Не удается создать том <relationName>
, так как он уже существует.
Выберите другое имя, удалите или замените существующий объект или добавьте предложение IF NOT EXISTS, чтобы не допускать существующие объекты.
WINDOW_FUNCTION_AND_FRAME_MISMATCH
<funcName>
функция может оцениваться только в упорядоченном кадре окна на основе строк с одним смещением: <windowExpr>
WINDOW_FUNCTION_WITHOUT_OVER_CLAUSE
Для функции <funcName>
Window требуется предложение OVER.
WITH_CREDENTIAL
Синтаксис WITH CREDENTIAL не поддерживается.<type>
WRITE_STREAM_NOT_ALLOWED
writeStream
можно вызывать только в потоковом наборе данных или кадре данных.
WRONG_COLUMN_DEFAULTS_FOR_DELTA_ALTER_TABLE_ADD_COLUMN_NOT_SUPPORTED
Не удалось выполнить команду, так как значения DEFAULT не поддерживаются при добавлении новых
столбцы в ранее существующие таблицы Delta; Добавьте столбец без значения по умолчанию
Значение сначала, а затем выполните вторую команду ALTER TABLE ALTER COLUMN SET DEFAULT, чтобы применить
вместо этого для будущих вставленных строк.
WRONG_COLUMN_DEFAULTS_FOR_DELTA_FEATURE_NOT_ENABLED
Не удалось выполнить <commandType>
команду, так как она назначила значение ПО УМОЛЧАНИю столбца.
но соответствующая функция таблицы не включена. Повторите попытку.
после выполнения ALTER TABLE TableName SET
TBLPROPERTIES('delta.feature.allowColumnDefaults" = "supported".
WRONG_COMMAND_FOR_OBJECT_TYPE
Для операции <operation>
требуется <requiredType>
. Но <objectName>
это <foundType>
. Вместо этого используйте <alternative>
.
WRONG_NUM_ARGS
<expectedNum>
Требуются <functionName>
<actualNum>
параметры, но фактическое число.
Дополнительные сведения см. в WRONG_NUM_ARGS
XML_ROW_TAG_MISSING
<rowTag>
параметр требуется для чтения файлов в формате XML.
XML_UNSUPPORTED_NESTED_TYPES
XML не поддерживается <innerDataType>
как внутренний <dataType>
тип. Заключите его <innerDataType>
в поле StructType при его использовании внутри <dataType>
.
XML_WILDCARD_RESCUED_DATA_CONFLICT_ERROR
Спасенных данных и столбца подстановочных знаков нельзя включить одновременно. Удалите параметр подстановочного знакаColumnName.
ZORDERBY_COLUMN_DOES_NOT_EXIST
Столбец <columnName>
ZOrderBy не существует.
Delta Lake
DELTA_ACTIVE_SPARK_SESSION_NOT_FOUND
Не удалось найти активный SparkSession.
DELTA_ACTIVE_TRANSACTION_ALREADY_SET
Не удается задать новый txn как активный, если он уже активен.
DELTA_ADDING_COLUMN_WITH_INTERNAL_NAME_FAILED
Не удалось добавить столбец <colName>
, так как имя зарезервировано.
DELTA_ADDING_DELETION_VECTORS_DISALLOWED
Текущая операция попыталась добавить в таблицу вектор удаления, которая не позволяет создавать новые векторы удаления. Отправьте отчет об ошибке.
DELTA_ADDING_DELETION_VECTORS_WITH_TIGHT_BOUNDS_DISALLOWED
Все операции, добавляющие векторы удаления, должны задать для столбца tightBounds в статистике значение false. Отправьте отчет об ошибке.
DELTA_ADD_COLUMN_AT_INDEX_LESS_THAN_ZERO
Индекс <columnIndex>
для добавления столбца <columnName>
меньше 0
DELTA_ADD_COLUMN_PARENT_NOT_STRUCT
Не удается добавить <columnName>
, так как его родительский элемент не является типом структуры. Основывать <other>
DELTA_ADD_COLUMN_STRUCT_NOT_FOUND
Структуру, не найденную в позиции <position>
DELTA_ADD_CONSTRAINTS
Используйте ALTER TABLE ADD CONSTRAINT, чтобы добавить ограничения CHECK.
DELTA_AGGREGATE_IN_GENERATED_COLUMN
Найдено <sqlExpr>
. Созданный столбец не может использовать статистическое выражение
DELTA_AGGREGATION_NOT_SUPPORTED
Агрегатные функции в ней <operation>
<predicate>
не поддерживаются.
DELTA_ALTER_COLLATION_NOT_SUPPORTED_BLOOM_FILTER
Не удалось изменить параметры сортировки столбца <column>
, так как он имеет индекс фильтра блума. Сохраните существующую параметры сортировки или удалите индекс фильтра блума, а затем повторите команду, чтобы изменить параметры сортировки.
DELTA_ALTER_COLLATION_NOT_SUPPORTED_CLUSTER_BY
Не удалось изменить параметры сортировки столбца <column>
, так как это столбец кластеризации. Сохраните существующие параметры сортировки или измените столбец на столбец, отличный от кластеризации, с помощью команды ALTER TABLE, а затем повторите попытку, чтобы изменить параметры сортировки.
DELTA_ALTER_TABLE_CHANGE_COL_NOT_SUPPORTED
ALTER TABLE CHANGE COLUMN не поддерживается для изменения столбца <currentType>
на <newType>
DELTA_ALTER_TABLE_CLUSTER_BY_NOT_ALLOWED
ALTER TABLE CLUSTER BY поддерживается только для разностной таблицы с кластеризации Liquid.
DELTA_ALTER_TABLE_CLUSTER_BY_ON_PARTITIONED_TABLE_NOT_ALLOWED
ALTER TABLE CLUSTER BY нельзя применить к секционированной таблице.
DELTA_ALTER_TABLE_RENAME_NOT_ALLOWED
Операция не разрешена: ALTER TABLE RENAME TO не допускается для управляемых разностных таблиц в S3, так как итоговая согласованность в S3 может повредить журнал разностных транзакций. Если вы настаиваете на этом и уверены, что никогда не было таблицы Delta с новым именем <newName>
, вы можете включить это, установив <key>
значение true.
DELTA_ALTER_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
Не удается включить <tableFeature>
функцию таблицы с помощью ALTER TABLE SET TBLPROPERTIES. Используйте CREATE OR REPLACE TABLE CLUSTER BY, чтобы создать таблицу Delta с кластеризации.
DELTA_AMBIGUOUS_DATA_TYPE_CHANGE
Не удается изменить тип <column>
данных из <to>
<from>
. Это изменение содержит удаление и добавление столбцов, поэтому они неоднозначны. Внесите эти изменения по отдельности с помощью ALTER TABLE [ADD | DROP | ПЕРЕИМЕНОВАТЬ СТОЛБЕЦ.
DELTA_AMBIGUOUS_PARTITION_COLUMN
Неоднозначный столбец <column>
секции может быть <colMatches>
.
DELTA_AMBIGUOUS_PATHS_IN_CREATE_TABLE
CREATE TABLE содержит два разных расположения: <identifier>
и <location>
.
Можно удалить предложение LOCATION из инструкции CREATE TABLE или задать
<config>
Значение true, чтобы пропустить эту проверку.
DELTA_ARCHIVED_FILES_IN_LIMIT
Таблица <table>
не содержит достаточно записей в неархивированных файлах <limit>
, чтобы удовлетворить указанное ОГРАНИЧЕНИЕ записей.
DELTA_ARCHIVED_FILES_IN_SCAN
Найденные <numArchivedFiles>
потенциально архивированные файлы в таблице <table>
, которые необходимо сканировать в рамках этого запроса.
Доступ к архивным файлам невозможен. Текущее время, пока архивация не будет настроена как <archivalTime>
.
Измените фильтры запросов, чтобы исключить архивные файлы.
DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION
Операция "<opName>
" не допускается, если таблица включила канал данных изменений (CDF) и перенесла изменения схемы с помощью DROP COLUMN или RENAME COLUMN.
DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS
Не удается удалить индексы фильтра цветения для следующих несуществующих столбцов: <unknownColumns>
DELTA_BLOOM_FILTER_OOM_ON_WRITE
OutOfMemoryError произошло при написании индексов фильтров блума для следующих столбцов: <columnsWithBloomFilterIndices>
Вы можете уменьшить объем памяти индексов фильтров цветения, выбрав меньшее значение для параметра numItems, большее значение для параметра fpp или индексируя меньше столбцов.
DELTA_CANNOT_CHANGE_DATA_TYPE
Не удается изменить тип данных: <dataType>
DELTA_CANNOT_CHANGE_LOCATION
Невозможно изменить значение location разностной таблицы с помощью SET TBLPROPERTIES. Используйте ALTER TABLE SET LOCATION.
DELTA_CANNOT_CHANGE_PROVIDER
"provider" является зарезервированным свойством таблицы и не может быть изменено.
DELTA_CANNOT_CREATE_BLOOM_FILTER_NON_EXISTING_COL
Не удается создать индексы фильтра блума для следующих несуществующих столбцов: <unknownCols>
DELTA_CANNOT_CREATE_LOG_PATH
Не удается создать <path>
DELTA_CANNOT_DESCRIBE_VIEW_HISTORY
Не удалось описать журнал представления.
DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN
Невозможно удалить индекс фильтра блума для неиндексированного столбца: <columnName>
DELTA_CANNOT_DROP_CHECK_CONSTRAINT_FEATURE
Не удается удалить функцию таблицы ограничений CHECK.
Сначала необходимо удалить следующие ограничения: <constraints>
DELTA_CANNOT_EVALUATE_EXPRESSION
Не удается оценить выражение: <expression>
DELTA_CANNOT_FIND_BUCKET_SPEC
Ожидается разностная таблица сегментирования, но не удается найти спецификацию контейнера в таблице.
DELTA_CANNOT_GENERATE_CODE_FOR_EXPRESSION
Не удается создать код для выражения: <expression>
DELTA_CANNOT_MODIFY_APPEND_ONLY
Эта таблица настроена для разрешения только добавлений. Если вы хотите разрешить обновления или удаления, используйте инструкцию ALTER TABLE <table_name> SET TBLPROPERTIES (<config>
=false)".
DELTA_CANNOT_MODIFY_COORDINATED_COMMITS_DEPENDENCIES
<Command>
не может переопределить или отменить свойства таблицы метки времени фиксации, так как в этой таблице включены координированные фиксации и зависят от них. Удалите их ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") из предложения TBLPROPERTIES, а затем повторите команду снова.
DELTA_CANNOT_MODIFY_TABLE_PROPERTY
Конфигурация <prop>
таблицы Delta не может быть указана пользователем
DELTA_CANNOT_OVERRIDE_COORDINATED_COMMITS_CONFS
<Command>
не может переопределить конфигурации координированных фиксаций для существующей целевой таблицы. Удалите их ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview", "delta.coordinatedCommits.tableConf-preview") из предложения TBLPROPERTIES, а затем повторите команду снова.
DELTA_CANNOT_RECONSTRUCT_PATH_FROM_URI
URI (<uri>
), который не может быть преобразован в относительный путь, найден в журнале транзакций.
DELTA_CANNOT_RELATIVIZE_PATH
Путь (<path>
), который не может быть релятивирован с текущим входным данным, найденным в
журнале транзакций. Повторно запустите его как
%%scala com.databricks.delta.delta.fixAbsolutePathsInLog(",<userPath>
true)
а затем выполните
%%scala com.databricks.delta.delta.fixAbsolutePathsInLog("<path>
")
DELTA_CANNOT_RENAME_PATH
Не удается переименовать <currentPath>
в <newPath>
DELTA_CANNOT_REPLACE_MISSING_TABLE
Невозможно заменить таблицу <tableName>
, так как она не существует. Используйте CREATE OR REPLACE TABLE, чтобы создать таблицу.
DELTA_CANNOT_RESOLVE_COLUMN
Не удается разрешить столбец <columnName>
в <schema>
DELTA_CANNOT_RESTORE_TABLE_VERSION
Не удается восстановить таблицу до версии <version>
. Доступные версии: [<startVersion>
, <endVersion>
].
DELTA_CANNOT_RESTORE_TIMESTAMP_EARLIER
Не удается восстановить таблицу до метки времени (<requestedTimestamp>
), так как она находится до самой ранней версии. Используйте метку времени после (<earliestTimestamp>
).
DELTA_CANNOT_RESTORE_TIMESTAMP_GREATER
Не удается восстановить таблицу до метки времени (<requestedTimestamp>
), так как она находится после последней версии. Используйте метку времени до (<latestTimestamp>
)
DELTA_CANNOT_SET_COORDINATED_COMMITS_DEPENDENCIES
<Command>
Не удается задать свойства таблицы метки времени фиксации вместе с координированными фиксациями, так как последний зависит от бывшего и задает прежнее внутренне. Удалите их ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") из предложения TBLPROPERTIES, а затем повторите команду снова.
DELTA_CANNOT_SET_LOCATION_ON_PATH_IDENTIFIER
Не удается изменить расположение таблицы на основе пути.
DELTA_CANNOT_SET_MANAGED_STATS_COLUMNS_PROPERTY
Не удается задать delta.managedDataSkippingStatsColumns в таблице, отличной от DLT
DELTA_CANNOT_UNSET_COORDINATED_COMMITS_CONFS
ALTER не может настроить конфигурации координированных фиксаций. Чтобы изменить таблицу из координированных фиксаций, повторите попытку.ALTER TABLE [table-name] DROP FEATURE 'coordinatedCommits-preview'
DELTA_CANNOT_UPDATE_ARRAY_FIELD
Не удается обновить поле %1$s типа %2$s: обновите элемент, обновив %2$s.element.
DELTA_CANNOT_UPDATE_MAP_FIELD
Не удается обновить поле %1$s типа %2$s: обновите сопоставление, обновив %2$s.key или %2$s.value.
DELTA_CANNOT_UPDATE_OTHER_FIELD
Не удается обновить <tableName>
поле типа <typeName>
DELTA_CANNOT_UPDATE_STRUCT_FIELD
Не удается обновить <tableName>
тип поля <fieldName>
: обновить структуру путем добавления, удаления или обновления его полей
DELTA_CANNOT_USE_ALL_COLUMNS_FOR_PARTITION
Не удается использовать все столбцы для столбцов секционирования.
DELTA_CANNOT_WRITE_INTO_VIEW
<table>
— это представление. Записи в представление не поддерживаются.
DELTA_CAST_OVERFLOW_IN_TABLE_WRITE
Не удалось записать значение типа в <targetType>
столбец <columnName>
типа из-за переполнения<sourceType>
.
Используйте try_cast
во входном значении, чтобы допустить переполнение, возвращая значение NULL.
При необходимости установите значение <storeAssignmentPolicyFlag>
"LEGACY", чтобы обойти эту ошибку или установить <updateAndMergeCastingFollowsAnsiEnabledFlag>
значение true, чтобы вернуться к старому поведению и следовать <ansiEnabledFlag>
в UPDATE и MERGE.
DELTA_CDC_NOT_ALLOWED_IN_THIS_VERSION
Невозможно задать конфигурацию delta.enableChangeDataFeed. Канал измененных данных из Delta пока недоступен.
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_DATA_SCHEMA
Получение изменений таблицы между версией <start>
и <end>
сбоем из-за несовместимой схемы данных.
Схема чтения находится <readSchema>
в версии <readVersion>
, но мы нашли несовместимую схему данных в версии <incompatibleVersion>
.
Если это возможно, получите изменения таблицы с помощью схемы конечной версии, установив для <config>
endVersion
параметра или обратитесь в службу поддержки.
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE
Получение изменений таблицы между версией <start>
и <end>
сбоем из-за несовместимого изменения схемы.
Схема чтения находится <readSchema>
в версии <readVersion>
, но мы обнаружили несовместимое изменение схемы в версии <incompatibleVersion>
.
Если это возможно, запросите изменения таблицы отдельно от версии <start>
до <incompatibleVersion>
- 1 и от версии <incompatibleVersion>
до <end>
.
DELTA_CHANGE_DATA_FILE_NOT_FOUND
Файл <filePath>
, на который ссылается журнал транзакций, не найден. Это может произойти, когда данные были вручную удалены из файловой системы, а не с помощью инструкции таблицы DELETE
. Этот запрос, как представляется, предназначен для канала измененных данных, если это так, эта ошибка может возникать, когда файл измененных данных выходит из периода хранения и был удален инструкцией VACUUM
. Дополнительные сведения см. в разделе <faqPath>
.
DELTA_CHANGE_TABLE_FEED_DISABLED
Не удается выполнить запись в таблицу с установленным параметром delta.enableChangeDataFee. Канал данных изменений из Delta недоступен.
DELTA_CHECKPOINT_NON_EXIST_TABLE
Не удается выполнить контрольную точку не существующей таблицы <path>
. Вы вручную удалили файлы в каталоге _delta_log?
DELTA_CLONE_AMBIGUOUS_TARGET
В качестве целевого объекта CLONE были указаны два пути, поэтому возникла неоднозначность. Внешнее
Расположение для CLONE было предоставлено <externalLocation>
в то же время, что и путь
<targetIdentifier>
.
DELTA_CLONE_INCOMPLETE_FILE_COPY
Файл (<fileName>
) не скопирован полностью. Ожидаемый размер файла: <expectedSize>
найден: <actualSize>
. Чтобы продолжить операцию с игнорированием проверки размера файла, задайте для <config>
значение false.
DELTA_CLONE_UNSUPPORTED_SOURCE
Неподдерживаемый источник клона <mode>
"<name>
", формат которого имеет значение <format>
.
Поддерживаемые форматы: delta, айсберг и parquet.
DELTA_CLUSTERING_CLONE_TABLE_NOT_SUPPORTED
CLONE не поддерживается для таблицы Delta с кластеризации Liquid для DBR версии < 14.0.
DELTA_CLUSTERING_COLUMNS_DATATYPE_NOT_SUPPORTED
CLUSTER BY не поддерживается, так как следующие столбцы <columnsWithDataTypes>
не поддерживают пропуск данных.
DELTA_CLUSTERING_COLUMNS_MISMATCH
Указанные столбцы кластеризации не соответствуют существующим таблицам.
- предусмотренный:
<providedClusteringColumns>
- существующий:
<existingClusteringColumns>
DELTA_CLUSTERING_COLUMN_MISSING_STATS
Для кластеризации liquid требуется, чтобы столбцы кластеризации имели статистику. Не удалось найти столбцы кластеризации "<columns>
" в схеме статистики:
<schema>
DELTA_CLUSTERING_CREATE_EXTERNAL_NON_LIQUID_TABLE_FROM_LIQUID_TABLE
Создание внешней таблицы без кластеризации жидкости из каталога таблицы с отказоустойчивой кластеризации запрещено; путь: <path>
.
DELTA_CLUSTERING_NOT_SUPPORTED
'<operation>
' не поддерживает кластеризацию.
DELTA_CLUSTERING_PHASE_OUT_FAILED
Не удается завершить <phaseOutType>
таблицу с <tableFeatureToAdd>
функцией таблицы (причина: <reason>
). Повторите команду OPTIMIZE.
== Ошибка ==
<error>
DELTA_CLUSTERING_REPLACE_TABLE_WITH_PARTITIONED_TABLE
Заменить разностную таблицу с кластеризациями Liquid с секционированной таблицей запрещено.
DELTA_CLUSTERING_SHOW_CREATE_TABLE_WITHOUT_CLUSTERING_COLUMNS
SHOW CREATE TABLE не поддерживается для разностной таблицы с кластеризации Liquid без столбцов кластеризации.
DELTA_CLUSTERING_TO_PARTITIONED_TABLE_WITH_NON_EMPTY_CLUSTERING_COLUMNS
Перенос таблицы Delta с отказоустойчивой кластеризации в секционированную таблицу не допускается для операции: <operation>
если в существующей таблице есть непустые столбцы кластеризации.
Сначала запустите ALTER TABLE CLUSTER BY NONE, чтобы удалить столбцы кластеризации.
DELTA_CLUSTERING_WITH_DYNAMIC_PARTITION_OVERWRITE
Динамический режим перезаписи секций не допускается для таблицы Delta с кластеризации Liquid.
DELTA_CLUSTERING_WITH_PARTITION_PREDICATE
Команда OPTIMIZE для разностной таблицы с кластерированием Liquid не поддерживает предикаты секций. Удалите предикаты: <predicates>
DELTA_CLUSTERING_WITH_ZORDER_BY
Команда OPTIMIZE для разностной таблицы с кластерированием Liquid не может указывать ZORDER BY. Удалите ZORDER BY (<zOrderBy>
).
DELTA_CLUSTER_BY_INVALID_NUM_COLUMNS
CLUSTER BY для кластеризации Liquid поддерживает до <numColumnsLimit>
столбцов кластеризации, но таблица содержит <actualNumColumns>
столбцы кластеризации. Удалите дополнительные столбцы кластеризации.
DELTA_CLUSTER_BY_SCHEMA_NOT_PROVIDED
Невозможно указать CLUSTER BY, если схема не определена. Определите схему для таблицы <tableName>
.
DELTA_CLUSTER_BY_WITH_BUCKETING
Кластеризация и сегментирование не могут быть указаны. Если вы хотите создать разностную таблицу с кластеризации, удалите КЛАСТЕРИЗОВАННЫЕ В КОНТЕЙНЕРЫ ИЛИ контейнеры.
DELTA_CLUSTER_BY_WITH_PARTITIONED_BY
Кластеризация и секционирование не могут быть указаны. Удалите PARTITIONED BY / partitionBy / partitionedBy, если вы хотите создать таблицу Delta с кластеризации.
DELTA_COLLATIONS_NOT_SUPPORTED
Параметры сортировки не поддерживаются в Delta Lake.
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_PARTITIONED_COLUMN
Пропуск данных не поддерживается для столбца секционирования "<column>
".
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_TYPE
Пропуск данных не поддерживается для столбца "<column>
" типа <type>
.
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET
Свойство max column id (<prop>
) не задано в таблице с включенным сопоставлением столбцов.
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET_CORRECTLY
Максимальное свойство идентификатора столбца (<prop>
) в таблице <tableMax>
с включенным сопоставлением столбцов, которое не может быть меньше идентификатора максимального столбца для всех полей (<fieldMax>
).
DELTA_COLUMN_MISSING_DATA_TYPE
Тип данных столбца <colName>
не указан.
DELTA_COLUMN_NOT_FOUND
Не удается найти столбец <columnName>
, заданный [<columnList>
]
DELTA_COLUMN_NOT_FOUND_IN_MERGE
Не удалось найти столбец "<targetCol>
" целевой таблицы из столбцов INSERT: <colNames>
Предложение INSERT должно указывать значение для всех столбцов целевой таблицы.
DELTA_COLUMN_NOT_FOUND_IN_SCHEMA
Не удалось найти столбец <columnName>
в:
<tableSchema>
DELTA_COLUMN_PATH_NOT_NESTED
Ожидается <columnPath>
, что он будет вложенным типом данных, но найден <other>
. Искали
<column>
индекс вложенном поле.
Схема:
<schema>
DELTA_COLUMN_STRUCT_TYPE_MISMATCH
Столбец <source>
структуры нельзя вставить в <targetType>
поле<targetField>
.<targetTable>
DELTA_COMPACTION_VALIDATION_FAILED
Проверка сжатия пути <compactedPath>
к <newPath>
сбою: отправьте отчет об ошибке.
DELTA_COMPLEX_TYPE_COLUMN_CONTAINS_NULL_TYPE
Найден вложенный nullType в столбце <columName>
, который <dataType>
имеет значение . Delta не поддерживает запись NullType в сложные типы.
DELTA_CONCURRENT_APPEND
ConcurrentAppendException: файлы были добавлены <partition>
параллельным обновлением. <retryMsg>
<conflictingCommit>
<docLink>
Дополнительные сведения см. в этой статье.
DELTA_CONCURRENT_DELETE_DELETE
ConcurrentDeleteDeleteException: эта транзакция попыталась удалить один или несколько файлов, которые были удалены (например <file>
) одновременным обновлением. Повторите операцию.<conflictingCommit>
<docLink>
Дополнительные сведения см. в этой статье.
DELTA_CONCURRENT_DELETE_READ
ConcurrentDeleteReadException: эта транзакция попыталась считывать один или несколько файлов, удаленных (например <file>
), одновременным обновлением. Повторите операцию.<conflictingCommit>
<docLink>
Дополнительные сведения см. в этой статье.
DELTA_CONCURRENT_TRANSACTION
ConcurrentTransactionException: эта ошибка возникает, когда несколько запросов потоковой передачи используют одну контрольную точку для записи в эту таблицу. Выполнялось ли одновременно несколько экземпляров одного и того же потокового запроса?<conflictingCommit>
<docLink>
Дополнительные сведения см. в этой статье.
DELTA_CONCURRENT_WRITE
ConcurrentWriteException: параллельная транзакция записывает новые данные, так как текущая транзакция считывает таблицу. Повторите операцию.<conflictingCommit>
<docLink>
Дополнительные сведения см. в этой статье.
DELTA_CONFLICT_SET_COLUMN
Существует конфликт из следующих столбцов SET: <columnList>
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_COMMAND
Во время <command>
настройки "<configuration>
" нельзя задать из команды. Удалите его из предложения TBLPROPERTIES, а затем повторите команду.
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_SESSION
Во время <command>
настройки SparkSession невозможно задать конфигурацию "<configuration>
". Не укажите его, выполнив spark.conf.unset("<configuration>")
и повторите команду.
DELTA_CONSTRAINT_ALREADY_EXISTS
Ограничение "<constraintName>
" уже существует. Сначала удалите старое ограничение.
Старое ограничение:
<oldConstraint>
DELTA_CONSTRAINT_DATA_TYPE_MISMATCH
Столбец <columnName>
имеет тип данных и не может быть изменен на тип <dataType>
<columnType>
данных, так как этот столбец ссылается на следующие ограничения проверки:
<constraints>
DELTA_CONSTRAINT_DEPENDENT_COLUMN_CHANGE
Не удается изменить столбец <columnName>
, так как на этот столбец ссылается следующие ограничения проверки:
<constraints>
DELTA_CONSTRAINT_DOES_NOT_EXIST
Не удается удалить несуществующее ограничение <constraintName>
из таблицы <tableName>
. Чтобы избежать возникновения ошибки, укажите параметр IF EXISTS или задайте для конфигурации сеанса SQL значение <config>
<confValue>
.
DELTA_CONVERSION_NO_PARTITION_FOUND
Не найдено сведений о секции в каталоге для таблицы <tableName>
. Вы выполнили инструкцию MSCK REPAIR TABLE в таблице, чтобы обнаружить секции?
DELTA_CONVERSION_UNSUPPORTED_COLLATED_PARTITION_COLUMN
Не удается преобразовать таблицу Parquet с столбцом с сортировкой <colName>
секции в Delta.
DELTA_CONVERSION_UNSUPPORTED_COLUMN_MAPPING
Конфигурация "<config>
" не может быть задана <mode>
при использовании CONVERT TO DELTA.
DELTA_CONVERT_NON_PARQUET_TABLE
CONVERT TO DELTA поддерживает только таблицы parquet, но вы пытаетесь преобразовать <sourceName>
источник: <tableId>
DELTA_CONVERT_TO_DELTA_ROW_TRACKING_WITHOUT_STATS
Невозможно включить отслеживание строк без сбора статистики.
Если вы хотите включить отслеживание строк, сделайте следующее:
Включение сбора статистики путем выполнения команды
SET
<statisticsCollectionPropertyKey>
= true- Запустите CONVERT TO DELTA без параметра NO STATISTICS.
Если вы не хотите собирать статистику, отключите отслеживание строк:
Отключите функцию включения таблицы по умолчанию, выполнив команду:
СБРОС
<rowTrackingTableFeatureDefaultKey>
Деактивируйте свойство таблицы по умолчанию, выполнив следующую команду:
SET
<rowTrackingDefaultPropertyKey>
= false
DELTA_COPY_INTO_TARGET_FORMAT
Целевой объект COPY INTO должен быть таблицей Delta.
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_SCHEMA
Вы пытаетесь создать внешнюю таблицу <tableName>
из <path>
с помощью Delta, но схема не указана, если
входной путь пуст.
Дополнительные сведения о Delta см. в статье <docLink>
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_TXN_LOG
Вы пытаетесь создать внешнюю таблицу <tableName>
из %2$s
с помощью Delta, но журнал транзакций отсутствует в
%2$s/_delta_log
. Проверьте вышестоящее задание, чтобы убедиться, что оно записывает данные с помощью
format("delta") и что путь является корневым для таблицы.
Дополнительные сведения о Delta см. в статье <docLink>
DELTA_CREATE_TABLE_IDENTIFIER_LOCATION_MISMATCH
Создание таблицы delta на основе пути с другим расположением не поддерживается. Идентификатор: , расположение: <identifier>
<location>
DELTA_CREATE_TABLE_MISSING_TABLE_NAME_OR_LOCATION
Необходимо указать имя таблицы или расположение.
DELTA_CREATE_TABLE_SCHEME_MISMATCH
Указанная схема не соответствует существующей схеме по адресу <path>
.
== Указано ==
<specifiedSchema>
== Существует ==
<existingSchema>
== Различия ==
<schemaDifferences>
Если вы намерены сохранить существующую схему, можно опустить
схему из команды create table. В противном случае убедитесь, что
схема совпадает.
DELTA_CREATE_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
Не удается включить <tableFeature>
функцию таблицы с помощью TBLPROPERTIES. Используйте CREATE OR REPLACE TABLE CLUSTER BY, чтобы создать таблицу Delta с кластеризации.
DELTA_CREATE_TABLE_WITH_DIFFERENT_CLUSTERING
Указанные столбцы кластеризации не соответствуют существующим столбцам кластеризации по адресу <path>
.
== Указано ==
<specifiedColumns>
== Существует ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PARTITIONING
Указанное секционирование не соответствует существующей секционирования по адресу <path>
.
== Указано ==
<specifiedColumns>
== Существует ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PROPERTY
Указанные свойства не соответствуют существующим свойствам по адресу <path>
.
== Указано ==
<specifiedProperties>
== Существует ==
<existingProperties>
DELTA_CREATE_TABLE_WITH_NON_EMPTY_LOCATION
Не удается создать таблицу ('<tableId>
). Связанное расположение ('<tableLocation>
) не пустое, а также не разностная таблица.
DELTA_DATA_CHANGE_FALSE
Не удается изменить метаданные таблицы, так как для параметра dataChange задано значение false. Предпринятая операция: '<op>
'.
DELTA_DELETED_PARQUET_FILE_NOT_FOUND
Файл <filePath>
, на который ссылается журнал транзакций, не найден. Этот файл parquet можно удалить в политике хранения данных Delta.
Длительность хранения разностных данных по умолчанию: <logRetentionPeriod>
. Время изменения файла parquet: <modificationTime>
Время удаления файла parquet: <deletionTime>
. Удалено в разностной версии: <deletionVersion>
DELTA_DELETION_VECTOR_MISSING_NUM_RECORDS
Недопустимо зафиксировать файлы с векторами удаления, отсутствующими статистикой numRecords.
DELTA_DOMAIN_METADATA_NOT_SUPPORTED
Обнаружены действия DomainMetadata для доменов <domainNames>
, но DomainMetadataTableFeature не включен.
DELTA_DROP_COLUMN_AT_INDEX_LESS_THAN_ZERO
Индекс для <columnIndex>
удаления столбца меньше 0
DELTA_DROP_COLUMN_ON_SINGLE_FIELD_SCHEMA
Невозможно удалить столбец из схемы с одним столбцом. Схема:
<schema>
DELTA_DUPLICATE_ACTIONS_FOUND
Операция файла "<actionType>
" для пути <path>
была указана несколько раз.
Он конфликтует с <conflictingPath>
.
Недопустимо для нескольких операций с файлами с одинаковым путем к существованию в одной фиксации.
DELTA_DUPLICATE_COLUMNS_FOUND
Найденные повторяющиеся столбцы <coltype>
: <duplicateCols>
DELTA_DUPLICATE_COLUMNS_ON_INSERT
Повторяющиеся имена столбцов в предложении INSERT.
DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE
<message>
Перед обновлением таблицы удалите повторяющиеся столбцы.
DELTA_DUPLICATE_DATA_SKIPPING_COLUMNS
Найденные повторяющиеся столбцы пропускающих данных: <columns>
DELTA_DUPLICATE_DOMAIN_METADATA_INTERNAL_ERROR
Внутренняя ошибка: два действия DomainMetadata в одной транзакции имеют один и тот же домен. <domainName>
DELTA_DV_HISTOGRAM_DESERIALIZATON
Не удалось десериализировать удаленную запись подсчетом гистограммы во время проверки целостности таблицы.
DELTA_DYNAMIC_PARTITION_OVERWRITE_DISABLED
Динамический режим перезаписи секций задается параметрами конфигурации сеанса или записи, но он отключен spark.databricks.delta.dynamicPartitionOverwrite.enabled=false
.
DELTA_EMPTY_DATA
Данные, используемые при создании разностной таблицы, не содержат столбцов.
DELTA_EMPTY_DIRECTORY
Файл не найден в каталоге: <directory>
DELTA_EXCEED_CHAR_VARCHAR_LIMIT
Значение "<value>
" превышает ограничение длины типа char/varchar. Не удалось проверить: <expr>
DELTA_FAILED_CAST_PARTITION_VALUE
Не удалось привести значение <value>
секции к <dataType>
DELTA_FAILED_FIND_ATTRIBUTE_IN_OUTPUT_COLUMNS
Не удалось найти <newAttributeName>
среди существующих целевых выходных данных <targetOutputColumns>
DELTA_FAILED_INFER_SCHEMA
Не удалось вывести схему из предоставленного списка файлов.
DELTA_FAILED_MERGE_SCHEMA_FILE
Не удалось объединить схему файла <file>
:
<schema>
DELTA_FAILED_READ_FILE_FOOTER
Не удалось прочитать нижний колонтитул для файла: <currentFile>
DELTA_FAILED_RECOGNIZE_PREDICATE
Не удается распознать предикат '<predicate>
'
DELTA_FAILED_SCAN_WITH_HISTORICAL_VERSION
Ожидается полная проверка последней версии источника Delta, но обнаружена историческая проверка версии <historicalVersion>
DELTA_FAILED_TO_MERGE_FIELDS
Не удалось объединить поля "<currentField>
" и "<updateField>
"
DELTA_FEATURES_PROTOCOL_METADATA_MISMATCH
Не удалось работать с этой таблицей, так как следующие функции таблицы включены в метаданных, но не перечислены в протоколе: <features>
DELTA_FEATURES_REQUIRE_MANUAL_ENABLEMENT
Для схемы таблицы требуется вручную включить следующие функции <unsupportedFeatures>
таблицы:
Для этого выполните следующую команду для каждого из перечисленных выше компонентов:
ALTER TABLE table_name SET TBLPROPERTIES ('delta.feature.feature_name' = 'supported')
Замените "table_name" и "feature_name" реальными значениями.
Текущие поддерживаемые функции <supportedFeatures>
.
DELTA_FEATURE_DROP_CONFLICT_REVALIDATION_FAIL
Не удается удалить функцию, так как параллельная транзакция изменила таблицу.
Повторите операцию.
<concurrentCommit>
DELTA_FEATURE_DROP_DEPENDENT_FEATURE
Не удается удалить функцию <feature>
таблицы, так как от некоторых других функций (<dependentFeatures>
) в этой таблице зависит <feature>
.
Прежде чем удалить эту функцию, рассмотрите возможность их удаления.
DELTA_FEATURE_DROP_FEATURE_NOT_PRESENT
Не удается удалить <feature>
из этой таблицы, так как в настоящее время он отсутствует в протоколе таблицы.
DELTA_FEATURE_DROP_HISTORICAL_VERSIONS_EXIST
Не удается удалить <feature>
, так как журнал Delta содержит исторические версии, использующие эту функцию.
Подождите, пока период хранения журнала (<logRetentionPeriodKey>
=<logRetentionPeriod>
)
прошел с момента последнего активного действия функции.
Кроме того, дождитесь истечения срока хранения TRUNCATE HISTORY (<truncateHistoryLogRetentionPeriod>
)
а затем выполните следующую команду:
ALTER TABLE table_name DROP FEATURE feature_name TRUNCATE HISTORY
DELTA_FEATURE_DROP_HISTORY_TRUNCATION_NOT_ALLOWED
Для конкретной функции не требуется усечение журнала.
DELTA_FEATURE_DROP_NONREMOVABLE_FEATURE
Не удается удалить <feature>
, так как удаление этой функции не поддерживается.
Обратитесь в службу поддержки Databricks.
DELTA_FEATURE_DROP_UNSUPPORTED_CLIENT_FEATURE
Не удается удалить <feature>
, так как она не поддерживается этой версией Databricks.
Рекомендуется использовать Databricks с более поздней версией.
DELTA_FEATURE_DROP_WAIT_FOR_RETENTION_PERIOD
Удаление <feature>
было частично успешным.
Функция теперь больше не используется в текущей версии таблицы. Однако эта функция
по-прежнему присутствует в исторических версиях таблицы. Невозможно удалить функцию таблицы
из протокола таблицы до истечения срока действия этих исторических версий.
Чтобы удалить функцию таблицы из протокола, подождите, пока исторические версии будут удалены.
истекает срок действия, а затем повторяется эта команда. Период хранения для исторических версий —
в настоящее время настроено как <logRetentionPeriodKey>
=<logRetentionPeriod>
.
Кроме того, дождитесь истечения срока хранения TRUNCATE HISTORY (<truncateHistoryLogRetentionPeriod>
)
а затем выполните следующую команду:
ALTER TABLE table_name DROP FEATURE feature_name TRUNCATE HISTORY
DELTA_FEATURE_REQUIRES_HIGHER_READER_VERSION
Не удалось включить функцию <feature>
таблицы, так как для нее требуется более высокая версия протокола чтения (текущая <current>
). Рассмотрите возможность обновления версии <required>
протокола чтения таблицы до версии или до версии, поддерживающей функции таблицы чтения. <docLink>
Дополнительные сведения о версиях протокола таблицы см. в статье .
DELTA_FEATURE_REQUIRES_HIGHER_WRITER_VERSION
Не удалось включить функцию <feature>
таблицы, так как для нее требуется более высокая версия протокола записи (текущая <current>
). Рассмотрите возможность обновления версии <required>
протокола записи таблицы до версии или до версии, поддерживающей функции таблицы записи. <docLink>
Дополнительные сведения о версиях протокола таблицы см. в статье .
DELTA_FILE_ALREADY_EXISTS
Существующий путь к файлу <path>
DELTA_FILE_LIST_AND_PATTERN_STRING_CONFLICT
Не удается указать список файлов и строку шаблона.
DELTA_FILE_NOT_FOUND
Путь к файлу <path>
DELTA_FILE_NOT_FOUND_DETAILED
Файл <filePath>
, на который ссылается журнал транзакций, не найден. Это происходит, когда данные были вручную удалены из файловой системы, а не с помощью инструкции таблицы DELETE
. Дополнительные сведения см. в разделе <faqPath>
.
DELTA_FILE_OR_DIR_NOT_FOUND
Нет такого файла или каталога: <path>
DELTA_FILE_TO_OVERWRITE_NOT_FOUND
Файл (<path>
) для перезаписи не найден среди кандидатов файлов:
<pathList>
DELTA_FOUND_MAP_TYPE_COLUMN
Обнаружен MapType. Чтобы получить доступ к ключу или значению MapType, укажите один
из
<key>
или
<value>
за которым следует имя столбца (только если этот столбец является типом struct).
Например, mymap.key.mykey
Если столбец является базовым типом, достаточно mymap.key или mymap.value.
Схема:
<schema>
DELTA_GENERATED_COLUMNS_DATA_TYPE_MISMATCH
Столбец <columnName>
имеет тип данных и не может быть изменен на тип <dataType>
<columnType>
данных, так как этот столбец ссылается на следующие созданные столбцы:
<generatedColumns>
DELTA_GENERATED_COLUMNS_DEPENDENT_COLUMN_CHANGE
Не удается изменить столбец <columnName>
, так как на этот столбец ссылается следующие созданные столбцы:
<generatedColumns>
DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH
Тип выражения созданного столбца <columnName>
<expressionType>
, но тип столбца — <columnType>
DELTA_GENERATED_COLUMN_UPDATE_TYPE_MISMATCH
Столбец <currentName>
— это созданный столбец или столбец, используемый созданным столбцом. Тип данных и <currentDataType>
не может быть преобразован в тип данных <updateDataType>
DELTA_ICEBERG_COMPAT_VIOLATION
Сбой проверки IcebergCompatV<version>
.
Дополнительные сведения см. в DELTA_ICEBERG_COMPAT_VIOLATION
DELTA_IDENTITY_COLUMNS_ALTER_COLUMN_NOT_SUPPORTED
ALTER TABLE ALTER COLUMN не поддерживается для столбцов IDENTITY.
DELTA_IDENTITY_COLUMNS_ALTER_NON_DELTA_FORMAT
ALTER TABLE ALTER COLUMN SYNC IDENTITY поддерживается только Delta.
DELTA_IDENTITY_COLUMNS_ALTER_NON_IDENTITY_COLUMN
ALTER TABLE ALTER COLUMN SYNC IDENTITY не может вызываться для столбцов, отличных от IDENTITY.
DELTA_IDENTITY_COLUMNS_EXPLICIT_INSERT_NOT_SUPPORTED
Предоставление значений для столбца <colName>
GENERATED ALWAYS AS IDENTITY не поддерживается.
DELTA_IDENTITY_COLUMNS_ILLEGAL_STEP
Шаг столбца IDENTITY не может быть 0.
DELTA_IDENTITY_COLUMNS_NON_DELTA_FORMAT
Столбцы IDENTITY поддерживаются только Delta.
DELTA_IDENTITY_COLUMNS_PARTITION_NOT_SUPPORTED
Столбец <colName>
PARTITIONED BY IDENTITY не поддерживается.
DELTA_IDENTITY_COLUMNS_REPLACE_COLUMN_NOT_SUPPORTED
ALTER TABLE REPLACE COLUMNS не поддерживается для таблицы со столбцами IDENTITY.
DELTA_IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE
DataType <dataType>
не поддерживается для столбцов IDENTITY.
DELTA_IDENTITY_COLUMNS_UPDATE_NOT_SUPPORTED
Обновление столбца <colName>
IDENTITY не поддерживается.
DELTA_IDENTITY_COLUMNS_WITH_GENERATED_EXPRESSION
Столбец IDENTITY нельзя указать с созданным выражением столбца.
DELTA_ILLEGAL_OPTION
Недопустимое значение "<input>
" для параметра "<name>
", <explain>
DELTA_ILLEGAL_USAGE
<option>
Использование не допускается, если <operation>
таблица Delta.
DELTA_INCONSISTENT_BUCKET_SPEC
Таблица BucketSpec в сегментированных таблицах Delta не соответствует BucketSpec из метаданных. Ожидается: <expected>
. Фактический: <actual>
.
DELTA_INCONSISTENT_LOGSTORE_CONFS
(<setKeys>
) нельзя задать для разных значений. Задайте значение только для одной из них или задайте для них одно и то же значение.
DELTA_INCORRECT_ARRAY_ACCESS
Неправильный доступ к ArrayType. Используйте позицию arrayname.element.elementname, чтобы
выполнить добавление в массив.
DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME
Обнаружен ArrayType. Чтобы получить доступ к элементам ArrayType, укажите
<rightName>
вместо <wrongName>
.
Схема:
<schema>
DELTA_INCORRECT_GET_CONF
Используйте getConf()
вместо conf.getConf()
DELTA_INCORRECT_LOG_STORE_IMPLEMENTATION
Эта ошибка обычно возникает при реализации LogStore по умолчанию, то есть если
HDFSLogStore используется для записи в разностную таблицу или в систему хранилища не на основе HDFS.
Чтобы получить гарантии транзакционной ACID для обновлений таблицы, необходимо использовать
правильную реализацию LogStore, подходящую для вашей системы хранения.
Подробные сведения см. в разделе <docLink>
.
DELTA_INDEX_LARGER_OR_EQUAL_THAN_STRUCT
Индекс <position>
для удаления столбца равен или больше длины структуры: <length>
DELTA_INDEX_LARGER_THAN_STRUCT
Индекс <index>
для добавления столбца <columnName>
превышает длину структуры: <length>
DELTA_INSERT_COLUMN_ARITY_MISMATCH
Не удается записать в "<tableName>
", ; целевая таблица содержит столбцы, <columnName>
но вставленные данные имеют <numColumns>
<insertColumns>
столбцы.
DELTA_INSERT_COLUMN_MISMATCH
Столбец <columnName>
не указан в INSERT
DELTA_INVALID_AUTO_COMPACT_TYPE
Недопустимый автоматически компактный тип: <value>
. Допустимые значения: <allowed>
.
DELTA_INVALID_BUCKET_COUNT
Недопустимое число контейнеров: <invalidBucketCount>
Число контейнеров должно быть положительным числом, равным степени 2, не менее 8. Вместо этого можно использовать <validBucketCount>
.
DELTA_INVALID_BUCKET_INDEX
Не удается найти столбец контейнера в столбцах секций.
DELTA_INVALID_CALENDAR_INTERVAL_EMPTY
Интервал не может быть пустым или иметь значение NULL.
DELTA_INVALID_CDC_RANGE
Диапазон CDC от начала <start>
до конца <end>
был недопустимым. Окончание не может быть прежде начала.
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAME
Имя атрибута "<columnName>
" содержит недопустимые символы среди ",;{}()\n\t=". Используйте псевдоним, чтобы переименовать его.
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAMES
Найдены недопустимые символы из {}()nt= в именах столбцов вашей схемы.
Недопустимые имена столбцов: <invalidColumnNames>
Используйте другие символы и повторите попытку.
Кроме того, включите сопоставление столбцов для сохранения использования этих символов.
DELTA_INVALID_CLONE_PATH
Целевое расположение для CLONE должно быть абсолютным путем или именем таблицы. Используйте
абсолютный <path>
путь вместо .
DELTA_INVALID_COLUMN_NAMES_WHEN_REMOVING_COLUMN_MAPPING
Найдены недопустимые символы из {}()nt= в именах столбцов вашей схемы.
Недопустимые имена столбцов: <invalidColumnNames>
Сопоставление столбцов невозможно удалить, если в именах столбцов есть недопустимые символы.
Переименуйте столбцы, чтобы удалить недопустимые символы и повторите эту команду.
DELTA_INVALID_FORMAT
Обнаружен несовместимый формат.
Журнал транзакций для Delta найден в <deltaRootPath>
/_delta_log',
но вы пытаетесь <operation>
<path>
использовать формат("<format>
"). Вы должны использовать
format("delta") при чтении и записи в разностную таблицу.
Дополнительные сведения о Delta см. в статье <docLink>
DELTA_INVALID_GENERATED_COLUMN_REFERENCES
Созданный столбец не может использовать несуществующий столбец или другой созданный столбец.
DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS
Недопустимые параметры для записи идемпотентного кадра данных: <reason>
DELTA_INVALID_INTERVAL
<interval>
не является допустимым интервалом.
DELTA_INVALID_INVENTORY_SCHEMA
Схема для указанного инвентаризации не содержит всех обязательных полей. Обязательные поля: <expectedSchema>
DELTA_INVALID_ISOLATION_LEVEL
Недопустимый уровень изоляции '<isolationLevel>
'
DELTA_INVALID_LOGSTORE_CONF
(<classConfig>
) и(<schemeConfig>
) нельзя задать одновременно. Задайте только одну их группу.
DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA
Вы пытаетесь создать управляемую таблицу <tableName>
с помощью Delta, но схема не указана.
Дополнительные сведения о Delta см. в статье <docLink>
DELTA_INVALID_PARTITION_COLUMN
<columnName>
недопустимый столбец секции в таблице <tableName>
.
DELTA_INVALID_PARTITION_COLUMN_NAME
Найдены столбцы секционирования с недопустимыми символами, такими как ,;{}()nt=. Измените имена столбцов секционирования. Эту проверку можно отключить, задав spark.conf.set(“spark.databricks.delta.partitionColumnValidity.enabled”, false), однако это не рекомендуется, так как другие функции Delta могут работать неправильно.
DELTA_INVALID_PARTITION_COLUMN_TYPE
Использование столбца типа <dataType>
в качестве столбца <name>
секционирования не поддерживается.
DELTA_INVALID_PARTITION_PATH
Фрагмент пути секции должен иметь вид part1=foo/part2=bar
. Путь к секции: <path>
DELTA_INVALID_PROTOCOL_DOWNGRADE
Версия протокола не может быть понижена на <oldProtocol>
<newProtocol>
DELTA_INVALID_PROTOCOL_VERSION
Неподдерживаемая версия протокола Delta: для таблицы "<tableNameOrPath>
" требуется версия <readerRequired>
читателя и версия <writerRequired>
записи, но эта версия Databricks поддерживает версии <supportedReaders>
читателя и версии <supportedWriters>
записи. Пожалуйста, обновите Databricks Runtime.
DELTA_INVALID_TABLE_VALUE_FUNCTION
Функция <function>
— это неподдерживаемая табличная функция для операций чтения CDC.
DELTA_INVALID_TIMESTAMP_FORMAT
Указанная метка <timestamp>
времени не соответствует ожидаемому синтаксису <format>
.
DELTA_LOG_ALREADY_EXISTS
Журнал Delta уже существует в <path>
DELTA_LOG_FILE_NOT_FOUND_FOR_STREAMING_SOURCE
Если вы никогда не удалили его, скорее всего, ваш запрос отстает. Удалите ее контрольную точку, чтобы перезапустить с нуля. Чтобы избежать повторения этого, вы можете обновить политику хранения таблицы Delta.
DELTA_MATERIALIZED_ROW_TRACKING_COLUMN_NAME_MISSING
Отсутствуют <tableName>
материализованные <rowTrackingColumn>
имена столбцов.
DELTA_MAX_ARRAY_SIZE_EXCEEDED
Используйте ограничение меньше, чем Int.MaxValue — 8.
DELTA_MAX_COMMIT_RETRIES_EXCEEDED
Эта фиксация завершилась ошибкой, так как она была проверена <numAttempts>
, но не прошла успешно.
Это может быть вызвано непрерывной фиксацией разностной таблицы множеством параллельных
фиксаций.
Фиксация, запущенная в версии: <startVersion>
Сбой фиксации в версии: <failVersion>
Количество действий, которые пытались зафиксировать: <numActions>
Общее время, затраченное на попытку этой фиксации: <timeSpent>
мс
DELTA_MAX_LIST_FILE_EXCEEDED
Список файлов должен содержать не более <maxFileListSize>
записей.<numFiles>
DELTA_MERGE_ADD_VOID_COLUMN
Невозможно добавить столбец <newColumn>
с типом VOID. Явно укажите тип, отличный от void.
DELTA_MERGE_INCOMPATIBLE_DATATYPE
Не удалось объединить несовместимые типы <currentDataType>
данных и <updateDataType>
DELTA_MERGE_INCOMPATIBLE_DECIMAL_TYPE
Не удалось объединить десятичные типы с несовместимыми <decimalRanges>
DELTA_MERGE_MATERIALIZE_SOURCE_FAILED_REPEATEDLY
Сохранение источника инструкции MERGE материализовано неоднократно.
DELTA_MERGE_MISSING_WHEN
В инструкции MERGE должно быть по крайней мере одно предложение WHEN.
DELTA_MERGE_RESOLVED_ATTRIBUTE_MISSING_FROM_INPUT
Разрешенные атрибуты <missingAttributes>
, отсутствующие в <input>
операторе <merge>
DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY
Непредвиденный ключ назначения: <unexpectedKeyClass>
- <unexpectedKeyObject>
DELTA_MERGE_UNRESOLVED_EXPRESSION
Не удается разрешить <sqlExpr>
заданное <clause>
<cols>
значение.
DELTA_METADATA_CHANGED
MetadataChangedException: метаданные таблицы Delta были изменены одновременным обновлением. Повторите операцию.<conflictingCommit>
<docLink>
Дополнительные сведения см. в этой статье.
DELTA_MISSING_CHANGE_DATA
Ошибка при получении данных об изменении диапазона [<startVersion>
, <endVersion>
] как измененные данные не были
записано для версии [<version>
]. Если вы включили канал измененных данных в этой таблице,
используйте DESCRIBE HISTORY
для просмотра времени первого включения.
В противном случае, чтобы начать запись данных об изменениях, используйте инструкцию ALTER TABLE имя_таблицы SET TBLPROPERTIES
(<key>
=true)'.
DELTA_MISSING_COLUMN
Не удается найти <columnName>
в столбцах таблицы: <columnList>
DELTA_MISSING_COMMIT_INFO
Эта таблица включает функцию <featureName>
, требующую наличия действия CommitInfo в каждой фиксации. Однако действие CommitInfo отсутствует в версии фиксации <version>
.
DELTA_MISSING_COMMIT_TIMESTAMP
Эта таблица включает функцию <featureName>
, требующую наличия commitTimestamp в действии CommitInfo. Однако это поле не задано в версии фиксации <version>
.
DELTA_MISSING_DELTA_TABLE
<tableName>
не является таблицей Delta.
DELTA_MISSING_DELTA_TABLE_COPY_INTO
Таблица не существует. Сначала создайте пустую таблицу Delta с помощью CREATE TABLE <tableName>
.
DELTA_MISSING_ICEBERG_CLASS
Класс Айсберга не найден. Убедитесь, что поддержка Delta Iceberg установлена.
Дополнительные сведения см. в этой статье <docLink>
.
DELTA_MISSING_NOT_NULL_COLUMN_VALUE
Столбец <columnName>
, имеющий ограничение NOT NULL, отсутствует из данных, записываемых в таблицу.
DELTA_MISSING_PARTITION_COLUMN
Столбец секционирования <columnName>
не найден в схеме <columnList>
DELTA_MISSING_PART_FILES
Не удалось найти все файлы частей версии контрольной точки: <version>
DELTA_MISSING_PROVIDER_FOR_CONVERT
CONVERT TO DELTA поддерживает только таблицы Parquet. Перезапишите целевой объект как Parquet.<path>
, если это каталог Parquet.
DELTA_MISSING_SET_COLUMN
Столбец <columnName>
SET не найден в заданных столбцах: <columnList>
DELTA_MISSING_TRANSACTION_LOG
Обнаружен несовместимый формат.
Вы пытаетесь <operation>
<path>
использовать Delta, но нет
журнал транзакций отсутствует. Проверьте вышестоящее задание и убедитесь, что оно записывает данные
с помощью format("delta") и вы пытаетесь использовать %1$s для базового пути к таблице.
Дополнительные сведения о Delta см. в статье <docLink>
DELTA_MODE_NOT_SUPPORTED
Указанный режим "<mode>
" не поддерживается. Поддерживаемые режимы: <supportedModes>
DELTA_MULTIPLE_CDC_BOUNDARY
Несколько <startingOrEnding>
аргументов, предоставленных для чтения CDC. Укажите одну из <startingOrEnding>
меток времени или <startingOrEnding>
версии.
DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER
Несколько конфигураций индекса фильтра блум, переданных команде для столбца: <columnName>
DELTA_MULTIPLE_SOURCE_ROW_MATCHING_TARGET_ROW_IN_MERGE
Не удается выполнить слияние, так как несколько исходных записей совпадают и попытаются изменить одну
целевую запись в разностной таблице, возможно, конфликтующим способом. В соответствии с семантикой SQL для слияния,
при совпадении нескольких исходных записей в одной целевой записи результат может быть неоднозначным,
так как неясно, какую исходную запись следует использовать для обновления или удаления соответствующей
целевой записи. Вы можете предварительно обработать исходную таблицу, чтобы исключить возможность
множественных соответствий. Дальнейшие действия описаны в разделе
<usageReference>
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_COMMAND
Во время <command>
обоих согласованных конфигураций фиксаций (delta.coordinatedCommits.commitCoordinator-preview, delta.coordinatedCommits.commitCoordinatorConf-preview) заданы в команде или ни один из них. Отсутствует: "<configuration>
". Укажите эту конфигурацию в предложении TBLPROPERTIES или удалите другую конфигурацию, а затем повторите команду.
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_SESSION
Во время <command>
настройки координированных фиксаций ("coordinatedCommits.commitCoordinator-preview", "coordinatedCommits.commitCoordinatorConf-preview") задаются в конфигурациях SparkSession или ни один из них. Отсутствует: "<configuration>
". Задайте эту конфигурацию в SparkSession или отмените настройку другой конфигурации, а затем повторите команду.
DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE
Следующие имена столбцов зарезервированы только для внутренних внутренних использования разностной таблицы: <names>
DELTA_NESTED_FIELDS_NEED_RENAME
Входная схема содержит вложенные поля, которые прописываются по-разному, чем целевая таблица.
Их необходимо переименовать, чтобы избежать потери данных в этих полях при записи в Delta.
Поля:
<fields>
.
Исходная схема:
<schema>
DELTA_NESTED_NOT_NULL_CONSTRAINT
Тип <nestType>
поля <parent>
содержит ограничение NOT NULL. Delta не поддерживает ограничения NOT NULL, вложенные в массивы или карты. Чтобы отключить эту ошибку и игнорировать указанные ограничения, задайте <configKey>
значение true.
Синтаксический <nestType>
тип:
<nestedPrettyJson>
DELTA_NESTED_SUBQUERY_NOT_SUPPORTED
Вложенный вложенный запрос не поддерживается в условии <operation>
.
DELTA_NEW_CHECK_CONSTRAINT_VIOLATION
<numRows>
строки в <tableName>
нарушении нового ограничения CHECK (<checkConstraint>
)
DELTA_NEW_NOT_NULL_VIOLATION
<numRows>
строки в <tableName>
нарушении нового ограничения NOT NULL <colName>
DELTA_NON_BOOLEAN_CHECK_CONSTRAINT
Ограничение CHECK "<name>
" (<expr>
) должно быть логическим выражением.
DELTA_NON_DETERMINISTIC_EXPRESSION_IN_GENERATED_COLUMN
Найдено <expr>
. Созданный столбец не может использовать недетерминированное выражение.
DELTA_NON_DETERMINISTIC_FUNCTION_NOT_SUPPORTED
Недетерминированные функции не поддерживаются в <operation>
<expression>
DELTA_NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
При наличии нескольких предложений MATCHED в инструкции MERGE только последнее предложение MATCHED может опустить условие.
DELTA_NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
Если в инструкции MERGE существует несколько предложений NOT MATCHED BY SOURCE, только последнее предложение NOT MATCHED BY SOURCE может опустить условие.
DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION
При наличии нескольких предложений NOT MATCHED в инструкции MERGE только последнее предложение NOT MATCHED может опустить условие.
DELTA_NON_PARSABLE_TAG
Не удалось проанализировать тег <tag>
.
Теги файлов: <tagList>
DELTA_NON_PARTITION_COLUMN_ABSENT
Данные, записываемые в Delta, должны содержать по меньшей мере один несекционированный столбец.<details>
DELTA_NON_PARTITION_COLUMN_REFERENCE
Предикат ссылается на столбец, отличный от секционирования'<columnName>
Ссылки могут ссылаться только на столбцы секций: [<columnList>
]
DELTA_NON_PARTITION_COLUMN_SPECIFIED
Столбцы, отличные от секционирования, <columnList>
указываются, где ожидаются только столбцы секционирования: <fragment>
DELTA_NON_SINGLE_PART_NAMESPACE_FOR_CATALOG
Для разностного каталога требуется однокомпонентное пространство имен, но <identifier>
многокомпонентное.
DELTA_NOT_A_DATABRICKS_DELTA_TABLE
<table>
не является таблицей Delta. Сначала удалите эту таблицу, если вы хотите создать ее с помощью Databricks Delta.
DELTA_NOT_A_DELTA_TABLE
<tableName>
не является таблицей Delta. Сначала удалите эту таблицу, если вы хотите воссоздать ее с помощью Delta Lake.
DELTA_NOT_NULL_COLUMN_NOT_FOUND_IN_STRUCT
Столбец, допускающий значение NULL, не найден в структуре: <struct>
DELTA_NOT_NULL_CONSTRAINT_VIOLATED
Ограничение NOT NULL, нарушенное для столбца: <columnName>
DELTA_NOT_NULL_NESTED_FIELD
Вложенное поле со значением не NULL нельзя добавить в родительский элемент, допускающий значение NULL. Задайте допустимость значений NULL для родительского столбца соответствующим образом.
DELTA_NO_COMMITS_FOUND
Нет фиксаций, найденных в <logPath>
DELTA_NO_RECREATABLE_HISTORY_FOUND
В ней не найдены фиксации для повторного выполнения <logPath>
DELTA_NO_RELATION_TABLE
Таблица <tableIdent>
не найдена
DELTA_NO_START_FOR_CDC_READ
Не указано значение startingVersion или startingTimestamp для операции чтения CDC.
DELTA_NULL_SCHEMA_IN_STREAMING_WRITE
Delta не принимает NullTypes в схеме для потоковых операций записи.
DELTA_ONEOF_IN_TIMETRAVEL
Укажите timestampAsOf или versionAsOf для перехода по времени.
DELTA_ONLY_OPERATION
<operation>
поддерживается только для таблиц Delta.
DELTA_OPERATION_MISSING_PATH
Укажите путь или идентификатор таблицы.<operation>
DELTA_OPERATION_NOT_ALLOWED
Операция запрещена: <operation>
не поддерживается для разностных таблиц.
DELTA_OPERATION_NOT_ALLOWED_DETAIL
Операция запрещена: не поддерживается для таблиц Delta: <operation>
<tableName>
DELTA_OPERATION_NOT_SUPPORTED_FOR_COLUMN_WITH_COLLATION
<operation>
не поддерживается для столбца <colName>
с параметрами сортировки, не являющихся значениями <collation>
по умолчанию.
DELTA_OPERATION_NOT_SUPPORTED_FOR_EXPRESSION_WITH_COLLATION
<operation>
не поддерживается для выражения <exprText>
, так как он использует параметры сортировки, отличные от по умолчанию.
DELTA_OPERATION_ON_TEMP_VIEW_WITH_GENERATED_COLS_NOT_SUPPORTED
<operation>
команда в временном представлении, ссылающаяся на таблицу Delta, содержащую созданные столбцы, не поддерживается. Выполните <operation>
команду непосредственно в таблице Delta
DELTA_OPERATION_ON_VIEW_NOT_ALLOWED
Операция не разрешена: <operation>
невозможно выполнить в представлении.
DELTA_OPTIMIZE_FULL_NOT_SUPPORTED
OPTIMIZE FULL поддерживается только для кластеризованных таблиц с непустыми столбцами кластеризации.
DELTA_OVERWRITE_MUST_BE_TRUE
Невозможно указать параметр копирования overwriteSchema без параметра OVERWRITE = true.
DELTA_OVERWRITE_SCHEMA_WITH_DYNAMIC_PARTITION_OVERWRITE
Невозможно использовать overwriteSchema в динамическом режиме перезаписи секций.
DELTA_PARTITION_COLUMN_CAST_FAILED
Не удалось привести значение <value>
к <dataType>
для столбца секции <columnName>
.
DELTA_PARTITION_COLUMN_NOT_FOUND
Столбец секционирования <columnName>
не найден в схеме [<schemaMap>
]
DELTA_PARTITION_SCHEMA_IN_ICEBERG_TABLES
Невозможно указать схему секционирования при преобразовании таблиц Айсберга. Он автоматически выводится.
DELTA_PATH_DOES_NOT_EXIST
<path>
не существует или не является таблицей Delta.
DELTA_PATH_EXISTS
Не удается записать существующий путь <path>
без задания OVERWRITE = true.
DELTA_POST_COMMIT_HOOK_FAILED
Фиксация в версии <version>
таблицы Delta выполнена успешно, но при выполнении перехватчика <name>
после фиксации ошибка <message>
DELTA_PROTOCOL_CHANGED
ProtocolChangedException: версия протокола таблицы Delta была изменена одновременным обновлением. <additionalInfo>
<conflictingCommit>
<docLink>
Дополнительные сведения см. в этой статье.
DELTA_PROTOCOL_PROPERTY_NOT_INT
Свойство <key>
протокола должно быть целым числом. Основывать <value>
DELTA_READ_FEATURE_PROTOCOL_REQUIRES_WRITE
Не удается обновить только версию протокола чтения для использования функций таблицы. Версия протокола записи должна продолжаться по крайней мере <writerVersion>
. <docLink>
Дополнительные сведения о версиях протокола таблицы см. в статье .
DELTA_READ_TABLE_WITHOUT_COLUMNS
Вы пытаетесь прочитать таблицу <tableName>
Delta, которая не содержит столбцов.
Напишите новые данные с помощью параметра mergeSchema = true
, чтобы иметь возможность читать таблицу.
DELTA_REGEX_OPT_SYNTAX_ERROR
Перепроверите синтаксис для '<regExpOption>
'
DELTA_REPLACE_WHERE_IN_OVERWRITE
Невозможно использовать replaceWhere в сочетании с перезаписью фильтром.
DELTA_REPLACE_WHERE_MISMATCH
Записанные данные не соответствуют условию или ограничению<replaceWhere>
частичной таблицы.
<message>
DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE
Выражение replaceWhere и partitionOverwriteMode=dynamic нельзя задать в параметрах DataFrameWriter.
DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET
"replaceWhere" нельзя использовать с фильтрами данных, если для dataChange задано значение false. Фильтры: <dataFilters>
DELTA_ROW_ID_ASSIGNMENT_WITHOUT_STATS
Не удается назначить идентификаторы строк без статистики счетчика строк.
Соберите статистику для таблицы, выполнив следующий код в записной книжке Scala и повторите попытку:
import com.databricks.sql.transaction.tahoe.DeltaLog
import com.databricks.sql.transaction.tahoe.stats.StatisticsCollection
import org.apache.spark.sql.catalyst.TableIdentifier
val log = DeltaLog.forTable(spark, TableIdentifier(table_name))
StatisticsCollection.recompute(spark, log)
DELTA_SCHEMA_CHANGED
Обнаружено изменение схемы:
Схема источника потоковой передачи: <readSchema>
Схема файла данных: <dataSchema>
Попробуйте перезапустить запрос. Если эта проблема повторяется во время перезапуска запроса без
прогресс, вы сделали несовместимое изменение схемы и должны начать работу.
запрос с нуля с помощью нового каталога контрольных точек.
DELTA_SCHEMA_CHANGED_WITH_STARTING_OPTIONS
Обнаружено изменение схемы в версии <version>
:
Схема источника потоковой передачи: <readSchema>
Схема файла данных: <dataSchema>
Попробуйте перезапустить запрос. Если эта проблема повторяется во время перезапуска запроса без
прогресс, вы сделали несовместимое изменение схемы и должны начать работу.
запрос с нуля с помощью нового каталога контрольных точек. Если проблема сохраняется после
Изменение существующего каталога контрольной точки в новом каталоге контрольной точки может потребоваться.
Параметр "startVersion" или "startTimestamp" для запуска с более новой версии
<version>
с новым каталогом контрольной точки.
DELTA_SCHEMA_CHANGED_WITH_VERSION
Обнаружено изменение схемы в версии <version>
:
Схема источника потоковой передачи: <readSchema>
Схема файла данных: <dataSchema>
Попробуйте перезапустить запрос. Если эта проблема повторяется во время перезапуска запроса без
прогресс, вы сделали несовместимое изменение схемы и должны начать работу.
запрос с нуля с помощью нового каталога контрольных точек.
DELTA_SCHEMA_CHANGE_SINCE_ANALYSIS
Схема разностной таблицы изменилась несовместимым образом, так как был создан
кадр данных или объект DeltaTable. Переопределите объект кадра данных или DeltaTable.
Изменения:
<schemaDiff>
<legacyFlagMessage>
DELTA_SCHEMA_NOT_PROVIDED
Схема таблицы не указана. Укажите схему (определение столбца) таблицы при использовании таблицы REPLACE, а запрос AS SELECT не указан.
DELTA_SCHEMA_NOT_SET
Схема таблицы не задана. Запишите в нее данные или используйте CREATE TABLE для задания схемы.
DELTA_SET_LOCATION_SCHEMA_MISMATCH
Схема нового расположения Delta отличается от текущей схемы таблицы.
Исходная схема:
<original>
Целевая схема:
<destination>
Если это предполагаемое изменение, вы можете отключить эту проверку, выполнив следующее:
%%sql set <config>
= true
DELTA_SHALLOW_CLONE_FILE_NOT_FOUND
Файл <filePath>
, на который ссылается журнал транзакций, не найден. Это может произойти, когда данные были вручную удалены из файловой системы, а не с помощью инструкции таблицы DELETE
. Эта таблица, как представляется, является неглубокой клоном, если это так, эта ошибка может возникать, когда исходная таблица, из которой была клонирована эта таблица, удалила файл, который клонирование по-прежнему использует. Если вы хотите, чтобы любые клоны были независимыми от исходной таблицы, используйте вместо этого клон DEEP.
DELTA_SHARING_CANNOT_MODIFY_RESERVED_RECIPIENT_PROPERTY
Предопределенные свойства, начинающиеся с <prefix>
не могут быть изменены.
DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
Данные ограничены свойством <property>
получателя, которое не применяется к текущему получателю в сеансе.
Дополнительные сведения см. в DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
DELTA_SHARING_INVALID_OP_IN_EXTERNAL_SHARED_VIEW
<operation>
нельзя использовать в представлениях delta Shared, которые являются общими для разных учетных записей.
DELTA_SHARING_INVALID_PROVIDER_AUTH
Недопустимый тип <authenticationType>
проверки подлинности для поставщика <provider>
.
DELTA_SHARING_INVALID_RECIPIENT_AUTH
Недопустимый тип <authenticationType>
проверки подлинности для получателя <recipient>
.
DELTA_SHARING_INVALID_SHARED_DATA_OBJECT_NAME
Недопустимое имя для ссылки <type>
на папку внутри общей папки. Имя таблицы можно использовать <type>
в общей папке в формате [schema].[<type>
], или вы также можете использовать исходное полное имя таблицы в формате [каталога]. schema]. [>тип>].
Если вы не уверены в том, какое имя следует использовать, можно запустить "SHOW ALL IN SHARE [share]" и найти имя для удаления: столбец "имя" — <type>
это имя <type>
в общей папке и столбце "shared_object" — <type>
это исходное полное имя.
DELTA_SHARING_MAXIMUM_RECIPIENT_TOKENS_EXCEEDED
Для получателя <recipient>
существует более двух маркеров.
DELTA_SHARING_RECIPIENT_PROPERTY_NOT_FOUND
Свойство <property>
Recipient не существует.
DELTA_SHARING_RECIPIENT_TOKENS_NOT_FOUND
Маркеры получателей отсутствуют для получателя <recipient>
.
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_COLUMN
Столбцы, не относящиеся к секционированиям, <badCols>
указываются для SHOW PARTITIONS
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE
SHOW PARTITIONS не разрешено в таблице, которая не секционирована: <tableName>
DELTA_SOURCE_IGNORE_DELETE
Обнаруженные удаленные данные (например <removedFile>
) из источника потоковой передачи в версии <version>
. В настоящее время это не поддерживается. Если вы хотите игнорировать удаления, задайте для ignoreDeletes значение true. Исходная таблица находится по пути <dataPath>
.
DELTA_SOURCE_TABLE_IGNORE_CHANGES
Обнаружено обновление данных (например <file>
, в исходной таблице в версии <version>
). В настоящее время это не поддерживается. Если это происходит регулярно, и вы можете пропустить изменения, задайте для параметра skipChangeCommits значение true. Если вы хотите отразить обновление данных, перезапустите этот запрос с новым каталогом контрольных точек или выполните полное обновление, если вы используете DLT. Если вам нужно обработать эти изменения, перейдите на MV. Исходная таблица находится по пути <dataPath>
.
DELTA_STARTING_VERSION_AND_TIMESTAMP_BOTH_SET
Укажите "" или "<version>
<timestamp>
"
DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND
<statsType>
Статистика не найдена для столбца в метаданных Parquet: <columnPath>
DELTA_STREAMING_CANNOT_CONTINUE_PROCESSING_POST_SCHEMA_EVOLUTION
Мы обнаружили одно или несколько недитивных изменений схемы (<opType>
) между версией <previousSchemaChangeVersion>
Delta и <currentSchemaChangeVersion>
источником потоковой передачи Delta.
Проверьте, следует ли вручную распространять изменения схемы в таблицу приемника, прежде чем продолжить потоковую обработку с помощью завершенной схемы.<currentSchemaChangeVersion>
После исправления схемы таблицы приемника или решения о необходимости исправления можно задать (одну из следующих конфигураций SQL), чтобы разблокировать изменения схемы без добавок и продолжить потоковую обработку.
Чтобы разблокировать этот конкретный поток только для этого ряда изменений схемы: задано <allowCkptVerKey>` = `<allowCkptVerValue>
.
Чтобы разблокировать этот конкретный поток, задайте для этого конкретного потока: <allowCkptKey>` = `<allowCkptValue>
Чтобы разблокировать все потоки: задайте <allowAllKey>` = `<allowAllValue>
.
Кроме того, если применимо, вы можете заменить <allowAllMode>
<opSpecificMode>
его на sql conf, чтобы разблокировать поток только для этого типа изменения схемы.
DELTA_STREAMING_CHECK_COLUMN_MAPPING_NO_SNAPSHOT
Не удалось получить моментальный снимок журнала Delta для начальной версии при проверке изменений схемы сопоставления столбцов. Выберите другую начальную версию или принудительно включите потоковую передачу чтения с собственным риском, установив для параметра "<config>
true".
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE
Потоковое чтение не поддерживается в таблицах с изменениями схемы, несовместимыми с чтением (например, переименование или удаление или изменение типа данных).
Дополнительные сведения и возможные дальнейшие действия по устранению этой проблемы см. в документации. <docLink>
Чтение схемы: <readSchema>
. Несовместимая схема данных: <incompatibleSchema>
.
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE_USE_SCHEMA_LOG
Потоковое чтение не поддерживается в таблицах с изменениями схемы, несовместимыми с чтением (например, переименование или удаление или изменение типа данных).
Укажите "schemaTrackingLocation", чтобы включить эволюцию недитивной схемы для обработки потока Delta.
Дополнительные сведения см. в статье <docLink>
.
Чтение схемы: <readSchema>
. Несовместимая схема данных: <incompatibleSchema>
.
DELTA_STREAMING_METADATA_EVOLUTION
Схема, конфигурация таблицы или протокол таблицы Delta изменились во время потоковой передачи.
Обновлен журнал отслеживания схем или метаданных.
Перезапустите поток, чтобы продолжить обработку с помощью обновленных метаданных.
Обновленная схема: <schema>
.
Обновленные конфигурации таблиц: <config>
Обновленный протокол таблицы: <protocol>
DELTA_STREAMING_SCHEMA_EVOLUTION_UNSUPPORTED_ROW_FILTER_COLUMN_MASKS
Потоковая передача из исходной таблицы <tableId>
с отслеживанием схемы не поддерживает фильтры строк или маски столбцов.
Удалите фильтры строк или маски столбцов или отключите отслеживание схемы.
DELTA_STREAMING_SCHEMA_LOCATION_CONFLICT
Обнаружено конфликтующее расположение схемы "<loc>
" во время потоковой передачи из таблицы или таблицы, расположенной по адресу '<table>
'.
Другой поток может повторно использовать то же расположение схемы, которое запрещено.
Укажите новый уникальный schemaTrackingLocation
путь или streamingSourceTrackingId
в качестве параметра чтения для одного из потоков из этой таблицы.
DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT
Расположение схемы "<schemaTrackingLocation>
" должно быть помещено в расположение контрольной точки "<checkpointLocation>
".
DELTA_STREAMING_SCHEMA_LOG_DESERIALIZE_FAILED
Неполный файл журнала в журнале схемы источника потоковой передачи Delta по адресу '<location>
'.
Возможно, журнал схемы поврежден. Выберите новое расположение схемы.
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_DELTA_TABLE_ID
Обнаружен несовместимый идентификатор таблицы Delta при попытке чтения потока Delta.
Сохраненный идентификатор таблицы: , идентификатор таблицы: <persistedId>
<tableId>
Возможно, журнал схемы был повторно использован. Выберите новое расположение схемы.
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_PARTITION_SCHEMA
Обнаружена несовместимая схема секции при попытке считывания разностного потока.
Сохраненная схема: схема разностной секции: <persistedSchema>
<partitionSchema>
Выберите новое расположение схемы, чтобы повторно инициализировать журнал схем, если вы недавно изменили схему секционирования таблицы.
DELTA_STREAMING_SCHEMA_LOG_INIT_FAILED_INCOMPATIBLE_METADATA
Не удалось инициализировать журнал схемы источника потоковой передачи Delta, так как
мы обнаружили несовместимую схему или изменение протокола при обслуживании пакета потоковой передачи из версии <a>
<b>
таблицы в .
DELTA_STREAMING_SCHEMA_LOG_PARSE_SCHEMA_FAILED
Не удалось проанализировать схему из журнала исходной схемы разностной потоковой передачи.
Возможно, журнал схемы поврежден. Выберите новое расположение схемы.
DELTA_TABLE_ALREADY_CONTAINS_CDC_COLUMNS
Не удалось включить отслеживание измененных данных в таблице. Таблица уже содержит
зарезервированные столбцы <columnList>
, которые будут
использоваться внутренне в качестве метаданных для канала измененных данных таблицы. Чтобы включить для пользователя
канал измененных данных для таблицы, переименуйте или удалите эти столбцы.
DELTA_TABLE_ALREADY_EXISTS
Таблица <tableName>
уже существует.
DELTA_TABLE_FOR_PATH_UNSUPPORTED_HADOOP_CONF
В настоящее время DeltaTable.forPath поддерживает только ключи конфигурации Hadoop, начиная с <allowedPrefixes>
но получили <unsupportedOptions>
DELTA_TABLE_ID_MISMATCH
Таблица Delta <tableLocation>
была заменена, пока эта команда использовала таблицу.
Идентификатор таблицы был <oldId>
, но теперь <newId>
.
Повторите текущую команду, чтобы убедиться, что она считывает согласованное представление таблицы.
DELTA_TABLE_LOCATION_MISMATCH
Расположение существующей таблицы <tableName>
<existingTableLocation>
. Он не соответствует указанному расположению <tableLocation>
.
DELTA_TABLE_NOT_FOUND
Таблица дельта-данных <tableName>
не существует.
DELTA_TABLE_NOT_SUPPORTED_IN_OP
Таблица не поддерживается в <operation>
. Используйте путь.
DELTA_TABLE_ONLY_OPERATION
<tableName>
не является таблицей Delta. <operation>
поддерживается только для таблиц Delta.
DELTA_TARGET_TABLE_FINAL_SCHEMA_EMPTY
Конечная схема целевой таблицы пуста.
DELTA_TIMESTAMP_GREATER_THAN_COMMIT
Указанная метка времени (<providedTimestamp>
) после последней версии, доступной для этой версии
таблица (<tableName>
). Используйте метку времени до или в <maximumTimestamp>
.
DELTA_TIMESTAMP_INVALID
Указанная метка времени (<expr>
) не может быть преобразована в допустимую метку времени.
DELTA_TIME_TRAVEL_INVALID_BEGIN_VALUE
<timeTravelKey>
должно быть допустимым значением начала.
DELTA_TRUNCATED_TRANSACTION_LOG
<path>
: не удалось восстановить состояние в версии, так как журнал транзакций <version>
был усечен из-за ручного удаления или политики хранения журналов () и политики хранения контрольных точек () (<checkpointRetentionKey>
<logRetentionKey>
<checkpointRetention>
=<logRetention>
=)
DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED
Операция не разрешена: TRUNCATE TABLE в разностных таблицах не поддерживает предикаты секций; используйте DELETE для удаления определенных секций или записей.
DELTA_UDF_IN_GENERATED_COLUMN
Найдено <udfExpr>
. Созданный столбец не может использовать определяемую пользователем функцию
DELTA_UNEXPECTED_ACTION_EXPRESSION
Непредвиденное выражение <expression>
действия.
DELTA_UNEXPECTED_NUM_PARTITION_COLUMNS_FROM_FILE_NAME
Ожидая <expectedColsSize>
столбцы секций, но найденные <parsedColsSize>
столбцы секций: <parsedCols>
<expectedCols>
от синтаксического анализа имени файла:<path>
DELTA_UNEXPECTED_PARTIAL_SCAN
Ожидается полная проверка источников Delta, но обнаружена частичная проверка. путь:<path>
DELTA_UNEXPECTED_PARTITION_COLUMN_FROM_FILE_NAME
Ожидая столбца секции, но найден столбец <expectedCol>
<parsedCol>
секции при анализе имени файла:<path>
DELTA_UNEXPECTED_PARTITION_SCHEMA_FROM_USER
Функция CONVERT TO DELTA была вызвана со схемой секционирования, отличной от схемы, выводимой из каталога. Не предоставляйте схему секционирования, чтобы она выбиралась из каталога.
схема секционирования из каталога:
<catalogPartitionSchema>
предоставленная схема секционирования:
<userPartitionSchema>
DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
Чтение Айсберга с Delta Uniform не удалось.
Дополнительные сведения см. в DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED
Создание или обновление таблицы единого входящего трафика не поддерживается.
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED_FORMAT
Формат <fileFormat>
не поддерживается. Поддерживается только айсберг в качестве исходного формата файла.
DELTA_UNIFORM_NOT_SUPPORTED
Универсальный формат поддерживается только в таблицах каталога Unity.
DELTA_UNIVERSAL_FORMAT_CONVERSION_FAILED
Не удалось преобразовать версию <version>
таблицы в универсальный формат <format>
. <message>
DELTA_UNIVERSAL_FORMAT_VIOLATION
Проверка универсального формата (<format>
) завершилась ошибкой: <violation>
DELTA_UNKNOWN_CONFIGURATION
Указана неизвестная конфигурация: <config>
DELTA_UNKNOWN_PRIVILEGE
Неизвестные привилегии: <privilege>
DELTA_UNKNOWN_READ_LIMIT
Неизвестный ReadLimit: <limit>
DELTA_UNRECOGNIZED_COLUMN_CHANGE
Изменение <otherClass>
нераспознанного столбца. Возможно, вы используете устаревшую версию Delta Lake.
DELTA_UNRECOGNIZED_INVARIANT
Нераспознанный инвариант. Обновите версию Spark.
DELTA_UNRECOGNIZED_LOGFILE
Нераспознанный файл журнала <fileName>
DELTA_UNSET_NON_EXISTENT_PROPERTY
Попытка отменить неисключаемое свойство '<property>
' в таблице <tableName>
DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE
<path>
не поддерживает добавление файлов с абсолютным путем
DELTA_UNSUPPORTED_ALTER_TABLE_CHANGE_COL_OP
ALTER TABLE CHANGE COLUMN не поддерживается для изменения столбца <fieldPath>
на <oldField>
<newField>
DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP
Неподдерживаемая операция ALTER TABLE REPLACE COLUMNS. Причина: <details>
Не удалось изменить схему с
<oldSchema>
на:
<newSchema>
DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE
Вы попытались ЗАМЕНИТЬ существующую таблицу (<tableName>
) с помощью CLONE. Эта операция
не поддерживается. Попробуйте использовать другой целевой объект для CLONE или удалите таблицу в текущем целевом объекте.
DELTA_UNSUPPORTED_COLUMN_MAPPING_MODE_CHANGE
Изменение режима сопоставления столбцов с "<oldMode>
" на "<newMode>
" не поддерживается.
DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL
Текущая версия протокола таблиц не поддерживает изменение режимов сопоставления столбцов
using <config>
.
Требуемая версия протокола Delta для сопоставления столбцов:
<requiredVersion>
Текущая версия протокола Delta для таблицы:
<currentVersion>
<advice>
DELTA_UNSUPPORTED_COLUMN_MAPPING_SCHEMA_CHANGE
Обнаружено изменение схемы:
Старая схема:
<oldTableSchema>
Новая схема:
<newTableSchema>
Изменения схемы не допускаются во время изменения режима сопоставления столбцов.
DELTA_UNSUPPORTED_COLUMN_MAPPING_WRITE
Запись данных в режиме сопоставления столбцов не поддерживается.
DELTA_UNSUPPORTED_COLUMN_TYPE_IN_BLOOM_FILTER
Создание индекса фильтра блума для столбца с типом <dataType>
не поддерживается: <columnName>
DELTA_UNSUPPORTED_COMMENT_MAP_ARRAY
Не удается добавить комментарий в <fieldPath>
. Добавление комментария в элемент map key/value или array не поддерживается.
DELTA_UNSUPPORTED_DATA_TYPES
Найденные столбцы, использующие неподдерживаемые типы данных: <dataTypeList>
Чтобы отключить проверку типа, можно задать значение "<config>
false". Отключение этой проверки типа может позволить пользователям создавать неподдерживаемые разностные таблицы и должно использоваться только при попытке выполнить чтение и запись для устаревших таблиц.
DELTA_UNSUPPORTED_DATA_TYPE_IN_GENERATED_COLUMN
<dataType>
Не может быть результатом созданного столбца
DELTA_UNSUPPORTED_DEEP_CLONE
Глубокая клонирование не поддерживается для этой версии Delta.
DELTA_UNSUPPORTED_DESCRIBE_DETAIL_VIEW
<view>
— это представление. ОПИСАНИЕ СВЕДЕНИЙ поддерживается только для таблиц.
DELTA_UNSUPPORTED_DROP_CLUSTERING_COLUMN
Удаление столбцов кластеризации (<columnList>
) запрещено.
DELTA_UNSUPPORTED_DROP_COLUMN
DROP COLUMN не поддерживается для разностной таблицы. <advice>
DELTA_UNSUPPORTED_DROP_NESTED_COLUMN_FROM_NON_STRUCT_TYPE
Может удалять только вложенные столбцы из StructType. Основывать <struct>
DELTA_UNSUPPORTED_DROP_PARTITION_COLUMN
Удаление столбцов секций (<columnList>
) запрещено.
DELTA_UNSUPPORTED_EXPRESSION
Неподдерживаемый тип выражения(<expType>
) для <causedBy>
. Поддерживаемые типы — [<supportedTypes>
].
DELTA_UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
<expression>
невозможно использовать в созданном столбце
DELTA_UNSUPPORTED_FEATURES_FOR_READ
Неподдерживаемая функция чтения Delta: для таблицы "<tableNameOrPath>
" требуется функция таблицы чтения, неподдерживаемая этой версией Databricks: <unsupported>
Дополнительные сведения о совместимости функций Delta Lake см. в этой статье <link>
.
DELTA_UNSUPPORTED_FEATURES_FOR_WRITE
Неподдерживаемая функция записи Delta: для таблицы "<tableNameOrPath>
" требуется функция таблицы записи, неподдерживаемая этой версией Databricks: <unsupported>
Дополнительные сведения о совместимости функций Delta Lake см. в этой статье <link>
.
DELTA_UNSUPPORTED_FEATURES_IN_CONFIG
Функции таблицы, настроенные в следующих конфигурациях Spark или свойствах таблицы Delta, не распознаются этой версией Databricks: <configs>
DELTA_UNSUPPORTED_FEATURE_STATUS
Ожидая, что состояние функции <feature>
таблицы будет "поддерживается", но имеет значение "<status>
".
DELTA_UNSUPPORTED_FIELD_UPDATE_NON_STRUCT
Обновление вложенных полей поддерживается только для StructType, но вы пытаетесь обновить поле <columnName>
типа: <dataType>
DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS
Команда FSCK REPAIR TABLE не поддерживается в версиях таблиц с отсутствующими файлами векторов удаления.
Обратитесь в службу поддержки.
DELTA_UNSUPPORTED_GENERATE_WITH_DELETION_VECTORS
Команда GENERATE symlink_format_manifest не поддерживается в версиях таблиц с векторами удаления.
Чтобы создать версию таблицы без векторов удаления, выполните команду REORG TABLE table APPLY (PURGE). Затем повторно запустите команду GENERATE.
Убедитесь, что параллельные транзакции не добавляют повторно векторы удаления между REORG и GENERATE.
Если вам нужно регулярно создавать манифесты или не удается предотвратить одновременные транзакции, рассмотрите возможность отключения векторов удаления в этой таблице с помощью инструкции ALTER TABLE SET TBLPROPERTIES (delta.enableDeletionVectors = false)".
DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT
Инварианты во вложенных полях, отличных от StructTypes, не поддерживаются.
DELTA_UNSUPPORTED_IN_SUBQUERY
В вложенных запросах <operation>
не поддерживается условие.
DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX
listKeywithPrefix недоступен.
DELTA_UNSUPPORTED_MANIFEST_GENERATION_WITH_COLUMN_MAPPING
Создание манифеста не поддерживается для таблиц, использующих сопоставление столбцов, так как внешние средства чтения не могут читать эти разностные таблицы. Дополнительные сведения см. в документации по Delta.
DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC
Операции MERGE INTO с эволюцией схемы в настоящее время не поддерживают запись выходных данных CDC.
DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE
Предикаты с несколькими столбцами не поддерживаются в условии <operation>
.
DELTA_UNSUPPORTED_NESTED_COLUMN_IN_BLOOM_FILTER
Создание индекса файлового средства блума в вложенном столбце в настоящее время не поддерживается: <columnName>
DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION
Вложенное поле не поддерживается в <operation>
(поле = <fieldName>
).
DELTA_UNSUPPORTED_NON_EMPTY_CLONE
Таблица назначения клона не пуста. Перед запуском CLONE выполните TRUNCATE или DELETE FROM таблицы.
DELTA_UNSUPPORTED_OUTPUT_MODE
Источник <dataSource>
данных не поддерживает <mode>
режим вывода
DELTA_UNSUPPORTED_PARTITION_COLUMN_IN_BLOOM_FILTER
Создание индекса фильтра блума для столбца секционирования не поддерживается: <columnName>
DELTA_UNSUPPORTED_RENAME_COLUMN
Переименование столбца не поддерживается для разностной таблицы. <advice>
DELTA_UNSUPPORTED_SCHEMA_DURING_READ
Delta не поддерживает указание схемы во время чтения.
DELTA_UNSUPPORTED_SORT_ON_BUCKETED_TABLES
SORTED BY не поддерживается для разностных таблиц с сегментированием.
DELTA_UNSUPPORTED_SOURCE
<operation>
назначение поддерживает только разностные источники.
<plan>
DELTA_UNSUPPORTED_STATIC_PARTITIONS
Указание статических секций в спецификации секций в настоящее время не поддерживается во время вставок.
DELTA_UNSUPPORTED_STRATEGY_NAME
Неподдерживаемое имя стратегии: <strategy>
DELTA_UNSUPPORTED_SUBQUERY
Вложенные запросы не поддерживаются в <operation>
(условие = <cond>
).
DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES
Вложенный запрос не поддерживается в предикатах секций.
DELTA_UNSUPPORTED_TIME_TRAVEL_MULTIPLE_FORMATS
Не удается указать переход по времени в нескольких форматах.
DELTA_UNSUPPORTED_TIME_TRAVEL_VIEWS
Не удается просмотреть представления времени, вложенные запросы, потоки или изменить запросы веб-канала данных.
DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES
Усечение в выборке таблиц не поддерживается.
DELTA_UNSUPPORTED_TYPE_CHANGE_IN_SCHEMA
Не удалось работать с этой таблицей, так как было применено неподдерживаемое изменение типа. Поле <fieldName>
было изменено на <toType>
<fromType>
.
DELTA_UNSUPPORTED_VACUUM_SPECIFIC_PARTITION
Укажите базовый путь (<baseDeltaPath>
) при очистке разностных таблиц. Очистка определенных секций в настоящее время не поддерживается.
DELTA_UNSUPPORTED_WRITES_STAGED_TABLE
Реализация таблицы не поддерживает записи: <tableName>
DELTA_UNSUPPORTED_WRITES_WITHOUT_COORDINATOR
Вы пытаетесь выполнить запись в таблице, которая была зарегистрирована в координаторе <coordinatorName>
фиксации. Однако в текущей среде не предусмотрена реализация этого координатора и запись без координаторов не допускается.
DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES
Запись в выборку таблиц не поддерживается.
DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION
Не удается привести <fromCatalog>
к <toCatalog>
. Все вложенные столбцы должны совпадать.
DELTA_VACUUM_COPY_INTO_STATE_FAILED
ФУНКЦИЯ VACUUM в файлах данных выполнена успешно, но сбой сборки мусора в состоянии COPY INTO.
DELTA_VERSIONS_NOT_CONTIGUOUS
Версии (<versionList>
) не являются смежными.
Дополнительные сведения см. в DELTA_VERSIONS_NOT_CONTIGUOUS
DELTA_VIOLATE_CONSTRAINT_WITH_VALUES
Ограничение <constraintName>
<expression>
CHECK, нарушенное строкой со значениями:
<values>
DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
Проверка свойств таблицы <table>
была нарушена:
Подробнее см. в DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
DELTA_WRITE_INTO_VIEW_NOT_SUPPORTED
<viewIdentifier>
— это представление. Вы не можете записывать данные в представление.
DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST
Столбец <columnName>
Z-Ordering не существует в схеме данных.
DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS
Z-Ordering <cols>
on будет
неэффективным, так как в настоящее время мы не собираем статистику по этим столбцам. Дальнейшие действия описаны в разделе
<link>
о пропуске данных и обратном порядке. Вы можете отключить
эту проверку, задав
"%sql set <zorderColStatKey>
= false"
DELTA_ZORDERING_ON_PARTITION_COLUMN
<colName>
— это столбец секционирования. Обратный порядок можно задавать только для столбцов данных.
Автозагрузчик
CF_ADD_NEW_NOT_SUPPORTED
Режим <addNewColumnsMode>
эволюции схемы не поддерживается при указании схемы. Чтобы использовать этот режим, можно указать схему через cloudFiles.schemaHints
.
CF_AMBIGUOUS_AUTH_OPTIONS_ERROR
Обнаружены параметры аутентификации notification-setup для каталога (по умолчанию)
Режим вывода:
<options>
Если вы хотите использовать режим уведомлений о файлах, задайте явным образом:
.option("cloudFiles.<useNotificationsKey>
", "true")
Кроме того, если вы хотите пропустить проверку своих параметров и проигнорировать эти
параметры аутентификации, вы можете задать:
.option("cloudFiles.ValidateOptionsKey>", "false")
CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR
Режим добавочного перечисления (cloudFiles.<useIncrementalListingKey>
)
и уведомление о файлах (cloudFiles.<useNotificationsKey>
)
включены одновременно.
Убедитесь, что выбран только один.
CF_AZURE_STORAGE_SUFFIXES_REQUIRED
Требовать adlsBlobSuffix и adlsDfsSuffix для Azure.
CF_BUCKET_MISMATCH
Событие <storeType>
файла <fileEvent>
отличается от ожидаемого источника: <source>
CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY
Не удается изменить схему, если журнал схемы пуст. Расположение журнала схемы: <logPath>
CF_CANNOT_PARSE_QUEUE_MESSAGE
Не удается проанализировать следующее сообщение очереди: <message>
CF_CANNOT_RESOLVE_CONTAINER_NAME
Не удается разрешить имя контейнера из пути: разрешенный uri: <path>
<uri>
CF_CANNOT_RUN_DIRECTORY_LISTING
Не удается вывести список каталогов при выполнении асинхронного потока обратного заполнения.
CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON
Не удается включить cloudFiles.cleanSource и cloudFiles.allowOverwrites одновременно.
CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION
Автозагрузчик не может удалить обработанные файлы, так как у него нет разрешений на запись в исходный каталог.
<reason>
Чтобы исправить эту проблему, выполните следующие действия.
- Предоставление разрешений на запись исходному каталогу ИЛИ
- Задайте для cleanSource значение OFF
Вы также можете разблокировать поток, задав sqlConf spark.databricks.cloudFiles.cleanSource.disabledDueToAuthorizationErrors значение true.
CF_DUPLICATE_COLUMN_IN_DATA
При попытке вывести схему секционирования таблицы произошла ошибка. Один и тот же столбец дублируется в пути к данным и пути к секциям. Чтобы игнорировать значение секции, укажите столбцы секции явным образом с помощью : .option("cloudFiles.<partitionColumnsKey>
", "{запятая-разделенный список}")
CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE
Не удается вывести схему, если входной путь <path>
пуст. Попробуйте запустить поток при наличии файлов во входном пути или укажите схему.
CF_EVENT_GRID_AUTH_ERROR
Не удалось создать подписку Сетки событий. Убедитесь, что ваш
у субъекта есть <permissionType>
подписки сетки событий. Дополнительные сведения см. здесь:
<docLink>
CF_EVENT_GRID_CREATION_FAILED
Не удалось создать подписку Сетки событий. Убедитесь, что Microsoft.EventGrid
зарегистрировано в качестве поставщика ресурсов в вашей подписке. Дополнительные сведения см. здесь:
<docLink>
CF_EVENT_GRID_NOT_FOUND_ERROR
Не удалось создать подписку Сетки событий. Убедитесь, что ваша учетная запись
учетная запись (<storageAccount>
) находится под группой ресурсов (<resourceGroup>
) и этой
учетная запись хранения является учетной записью хранения StorageV2 (общего назначения версии 2). Дополнительные сведения см. здесь:
<docLink>
CF_EVENT_NOTIFICATION_NOT_SUPPORTED
Режим уведомлений о событии автозагрузчика не поддерживается <cloudStore>
.
CF_FAILED_TO_CHECK_STREAM_NEW
Не удалось проверить, является ли поток новым.
CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION
Не удалось создать подписку: <subscriptionName>
. Подписка с таким именем уже существует и связана с другим разделом: <otherTopicName>
. Нужный раздел: <proposedTopicName>
. Удалите существующую подписку или создайте подписку с новым суффиксом ресурса.
CF_FAILED_TO_CREATED_PUBSUB_TOPIC
Не удалось создать раздел: <topicName>
. Раздел с таким именем уже существует.<reason>
Удалите существующий раздел или повторите попытку с другим суффиксом ресурса
CF_FAILED_TO_DELETE_GCP_NOTIFICATION
Не удалось удалить уведомление с идентификатором <notificationId>
в контейнере <bucketName>
для раздела <topicName>
. Повторите попытку или вручную удалите уведомление через консоль GCP.
CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA
Не удалось десериализировать сохраненную схему из строки: '<jsonSchema>
'
CF_FAILED_TO_EVOLVE_SCHEMA
Невозможно изменить схему без журнала схемы.
CF_FAILED_TO_FIND_PROVIDER
Не удалось найти поставщика <fileFormatInput>
CF_FAILED_TO_INFER_SCHEMA
Не удалось определить схему формата <fileFormatInput>
из существующих файлов в входном пути <path>
.
Дополнительные сведения см. в CF_FAILED_TO_INFER_SCHEMA
CF_FAILED_TO_WRITE_TO_SCHEMA_LOG
Не удалось записать в журнал схемы в расположении <path>
.
CF_FILE_FORMAT_REQUIRED
Не удалось найти обязательный параметр: cloudFiles.format.
CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS
Найдено несколько<num>
подписок с префиксом автозагрузчика для раздела <topicName>
:
<subscriptionList>
Для каждого раздела должна быть указана только одна подписка. Убедитесь, что в разделе нет нескольких подписок.
CF_GCP_AUTHENTICATION
Укажите все из следующих элементов: <clientEmail>
, <client>
<privateKey>
, и <privateKeyId>
не укажите ни одного из них, чтобы использовать значение по умолчанию
Цепочка поставщиков учетных данных GCP для аутентификации с помощью ресурсов GCP.
CF_GCP_LABELS_COUNT_EXCEEDED
Получено слишком много меток (<num>
) для ресурса GCP. Максимальное число меток для каждого ресурса <maxNum>
.
CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED
Получено слишком много тегов ресурсов (<num>
) для ресурса GCP. Максимальное количество тегов ресурсов для каждого ресурса — <maxNum>
так как теги ресурсов хранятся в виде меток GCP на ресурсах, а определенные теги Databricks используют некоторые из этой квоты меток.
CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG
Неполный файл журнала в журнале схемы по пути <path>
CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT
Неполный файл метаданных в контрольной точке автозагрузчика.
CF_INCORRECT_SQL_PARAMS
Метод cloud_files принимает два обязательных строковых параметра: путь для загрузки и формат файла. Параметры чтения файлов должны быть предоставлены в строковом сопоставлении "ключ-значение". Например, cloud_files("путь", "json", map("вариант1", "значение1")). Полученный: <params>
CF_INTERNAL_ERROR
Внутренняя ошибка.
Дополнительные сведения см. в CF_INTERNAL_ERROR
CF_INVALID_ARN
Недопустимый ARN: <arn>
CF_INVALID_AZURE_CERTIFICATE
Закрытый ключ, предоставленный параметром cloudFiles.certificate, не может быть проанализирован. Укажите допустимый открытый ключ в формате PEM.
CF_INVALID_AZURE_CERT_PRIVATE_KEY
Закрытый ключ, предоставленный параметром cloudFiles.certificatePrivateKey, не может быть проанализирован. Укажите допустимый закрытый ключ в формате PEM.
CF_INVALID_CHECKPOINT
Эта контрольная точка не является допустимым источником CloudFiles.
CF_INVALID_CLEAN_SOURCE_MODE
Недопустимый режим для параметра чистого источника <value>
.
CF_INVALID_GCP_RESOURCE_TAG_KEY
Недопустимый ключ тега ресурса GCP: <key>
. Ключи должны начинаться со строчной буквы, содержать от 1 до 63 символов и включать только строчные буквы, цифры, символы подчеркивания (_) и дефисы (-).
CF_INVALID_GCP_RESOURCE_TAG_VALUE
Недопустимое значение тега ресурса GCP: <value>
. Значения должны содержать от 0 до 63 символов и включать только строчные буквы, цифры, символы подчеркивания (_) и дефисы (-).
CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS
Автозагрузчик не поддерживает следующие параметры при использовании с событиями управляемого файла:
<optionList>
Рекомендуется удалить эти параметры, а затем перезапустить поток.
CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
Недопустимый ответ от службы событий управляемых файлов. Обратитесь в службу поддержки Databricks за помощью.
Дополнительные сведения см. в CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
CF_INVALID_SCHEMA_EVOLUTION_MODE
cloudFiles.<schemaEvolutionModeKey>
должен быть одним из {
"<addNewColumns>
"
"<failOnNewColumns>
"
"<rescue>
"
"<noEvolution>
"}
CF_INVALID_SCHEMA_HINTS_OPTION
Указания схемы могут указывать определенный столбец только один раз.
В этом случае переопределите столбец: <columnName>
несколько раз в schemaHints:
<schemaHints>
CF_INVALID_SCHEMA_HINT_COLUMN
Указания схемы нельзя использовать для переопределения вложенных типов сопоставлений и массивов.
Конфликтуемый столбец: <columnName>
CF_LATEST_OFFSET_READ_LIMIT_REQUIRED
latestOffset должен вызываться с ReadLimit для этого источника.
CF_LOG_FILE_MALFORMED
Файл журнала был неправильно сформирован: не удалось считывать правильную версию журнала из <fileName>
.
CF_MANAGED_FILE_EVENTS_BACKFILL_IN_PROGRESS
Вы попросили автозагрузчик игнорировать существующие файлы во внешнем расположении, задав значение false в параметреExistingFiles. Однако служба событий управляемых файлов по-прежнему обнаруживает существующие файлы во внешнем расположении. Повторите попытку после завершения обнаружения всех файлов во внешнем расположении.
CF_MANAGED_FILE_EVENTS_ENDPOINT_NOT_FOUND
Вы используете автозагрузчик с событиями управляемого файла, но появляется, что внешнее расположение для входного пути "<path>
" не имеет включенных событий файла или входной путь недопустим. Попросите администратора Databricks включить события файлов во внешнем расположении для входного пути.
CF_MANAGED_FILE_EVENTS_ENDPOINT_PERMISSION_DENIED
Вы используете автозагрузчик с событиями управляемого файла, но у вас нет доступа к внешнему расположению или тому для входного пути"<path>
, или входной путь недопустим. Попросите администратора Databricks предоставить разрешения на чтение для внешнего расположения или тома или предоставить допустимый входной путь в существующем внешнем расположении или томе.
CF_MANAGED_FILE_EVENTS_ONLY_ON_SERVERLESS
Автозагрузчик с событиями управляемого файла доступен только в Databricks без сервера. Чтобы продолжить, переместите эту рабочую нагрузку в Databricks без сервера или отключите параметр cloudFiles.useManagedFileEvents.
CF_MAX_MUST_BE_POSITIVE
Значение должно быть положительным.
CF_METADATA_FILE_CONCURRENTLY_USED
Несколько запросов потоковой передачи одновременно используются <metadataFile>
CF_MISSING_METADATA_FILE_ERROR
Отсутствует файл метаданных в каталоге контрольных точек источника потоковой передачи. Этот файл метаданных
содержит важные параметры по умолчанию для потока, поэтому сейчас невозможно перезапустить
нажать кнопку "Опубликовать". Обратитесь в службу поддержки Databricks за помощью.
CF_MISSING_PARTITION_COLUMN_ERROR
Столбец <columnName>
секционирования не существует в предоставленной схеме:
<schema>
CF_MISSING_SCHEMA_IN_PATHLESS_MODE
Укажите схему с помощью .schema(), если путь не предоставлен источнику CloudFiles при использовании режима уведомлений о файлах. Кроме того, чтобы автозагрузчик выводил схему, укажите базовый путь в .load().
CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC
Найдены существующие уведомления для раздела <topicName>
в контейнере <bucketName>
.
уведомление,идентификатор
<notificationList>
Чтобы избежать засорения подписчика непреднамеренными событиями, удалите указанные выше уведомления и повторите попытку.
CF_NEW_PARTITION_ERROR
Новые столбцы секций были выведены из файлов: [<filesList>
]. Укажите все столбцы секций в схеме или укажите список столбцов секционирования, для которых требуется извлечь значения с помощью :option("cloudFiles.partitionColumns", "{comma-separated-list|empty-string}")
CF_PARTITON_INFERENCE_ERROR
При попытке вывести схему секционирования текущего пакета файлов произошла ошибка. Укажите столбцы секции явным образом с помощью :option("cloudFiles.<partitionColumnOption>
", "{запятая-разделенный список}")
CF_PATH_DOES_NOT_EXIST_FOR_READ_FILES
Не удается считывать файлы, если входной путь <path>
не существует. Убедитесь, что входной путь существует и повторите попытку.
CF_PERIODIC_BACKFILL_NOT_SUPPORTED
Периодическое обратное заполнение не поддерживается, если асинхронное обратное заполнение отключено. Вы можете включить асинхронное обратное заполнение или вывод списка каталогов, задав для spark.databricks.cloudFiles.asyncDirListing
значение true.
CF_PREFIX_MISMATCH
Обнаружено несогласованное событие: ключ <key>
не имеет префикса: <prefix>
CF_PROTOCOL_MISMATCH
<message>
Если вам не нужно вносить другие изменения в код, задайте конфигурацию
configuration: '<sourceProtocolVersionKey>
= <value>
'
чтобы возобновить поток. См. статью
<docLink>
зон DNS".
CF_REGION_NOT_FOUND_ERROR
Не удалось получить регион AWS по умолчанию. Укажите регион с помощью параметра cloudFiles.region.
CF_RESOURCE_SUFFIX_EMPTY
Не удалось создать службы уведомлений: суффикс ресурса не может быть пустым.
CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS
Не удалось создать службы уведомлений: суффикс ресурса может содержать только буквенно-цифровые символы, дефисы (-) и символы подчеркивания (_).
CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE
Не удалось создать службы уведомлений: суффикс ресурса может содержать только буквы в нижнем регистре, цифры и дефисы (-).
CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP
Не удалось создать службы уведомлений: суффикс ресурсов может иметь только буквенно-цифровые символы, дефисы (-), подчеркивания (_), периоды (.), тильды (~) плюс (+) и знаки процента (<percentSign>
).
CF_RESOURCE_SUFFIX_LIMIT
Не удалось создать службы уведомлений: суффикс ресурсов не может содержать больше <limit>
символов.
CF_RESOURCE_SUFFIX_LIMIT_GCP
Не удалось создать службы уведомлений: суффикс ресурса должен находиться между <lowerLimit>
символами и <upperLimit>
символами.
CF_RESTRICTED_GCP_RESOURCE_TAG_KEY
Найден ограниченный ключ тега ресурса GCP (<key>
). Для автозагрузчика ограничены следующие ключи тегов ресурсов GCP: [<restrictedKeys>
]
CF_RETENTION_GREATER_THAN_MAX_FILE_AGE
cloudFiles.cleanSource.retentionDuration не может быть больше cloudFiles.maxFileAge.
CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX
Не удалось создать уведомление для раздела: <topic>
с префиксом: <prefix>
. Уже существует раздел с таким же именем с другим префиксом: <oldPrefix>
. Попробуйте использовать другой суффикс ресурсов для установки или удаления существующей установки.
CF_SOURCE_DIRECTORY_PATH_REQUIRED
Укажите путь к исходному каталогу с параметром path
.
CF_SOURCE_UNSUPPORTED
Источник облачных файлов поддерживает только пути S3, Хранилища BLOB-объектов Azure (wasb/wasbs) и Azure Data Lake 1-го (adl) и 2-го поколений (abfs/abfss). path: '<path>
', разрешенный URI: '<uri>
'
CF_STATE_INCORRECT_SQL_PARAMS
Функция cloud_files_state принимает строковый параметр, представляющий каталог контрольных точек потока cloudFiles или многокомпонентное имя таблицы, определяющее таблицу потоковой передачи, и необязательный второй целочисленный параметр, представляющий версию контрольной точки для загрузки состояния. Второй параметр также может быть "последним" для чтения последней контрольной точки. Полученный: <params>
CF_STATE_INVALID_CHECKPOINT_PATH
Недопустимый путь <path>
входной контрольной точки. Либо путь не существует, либо нет cloud_files источников.
CF_STATE_INVALID_VERSION
Указанная версия <version>
не существует или удалена во время анализа.
CF_THREAD_IS_DEAD
<threadName>
поток мертв.
CF_UNABLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION
Не удается получить расположение контрольной точки потока из исходного расположения контрольной точки: <checkPointLocation>
CF_UNABLE_TO_DETECT_FILE_FORMAT
Не удалось обнаружить исходный формат файла из <fileSize>
примеров файлов, найденных <formats>
. Укажите формат.
CF_UNABLE_TO_EXTRACT_BUCKET_INFO
Не удается извлечь сведения о контейнере. Путь: '<path>
', разрешенный URI: '<uri>
'.
CF_UNABLE_TO_EXTRACT_KEY_INFO
Не удается извлечь сведения о ключе. Путь: '<path>
', разрешенный URI: '<uri>
'.
CF_UNABLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO
Не удается извлечь сведения об учетной записи хранения; path: '<path>
', разрешенный URI: '<uri>
'
CF_UNABLE_TO_LIST_EFFICIENTLY
Получено событие переименования каталога для пути <path>
, но мы не можем эффективно перечислить этот каталог. Чтобы поток продолжался, задайте для параметра cloudFiles.ignoreDirRenames значение true и рассмотрите возможность активации регулярных обратных заполнений с помощью cloudFiles.backfillInterval для обработки этих данных.
CF_UNEXPECTED_READ_LIMIT
Непредвиденная readLimit: <readLimit>
CF_UNKNOWN_OPTION_KEYS_ERROR
Найдены неизвестные ключи параметров.
<optionList>
Убедитесь, что все предоставленные ключи параметров верны. Если вы хотите пропустить
проверку параметров и проигнорировать этих неизвестные параметры, вы можете задать
.option("cloudFiles.<validateOptions>
", "false")
CF_UNKNOWN_READ_LIMIT
Неизвестный ReadLimit: <readLimit>
CF_UNSUPPORTED_CLOUD_FILES_SQL_FUNCTION
Функция SQL "cloud_files" для создания источника потоковой передачи автозагрузчика поддерживается только в конвейере разностных динамических таблиц. Дополнительные сведения см. здесь:
<docLink>
CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE
Вывод схемы не поддерживается для формата: <format>
Укажите схему.
CF_UNSUPPORTED_LOG_VERSION
UnsupportedLogVersion: максимальная поддерживаемая версия журнала — v<maxVersion>``, but encountered v``<version>
. Файл журнала был создан более новой версией DBR и не может быть прочитан этой версией. Выполните обновление.
CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE
Режим <mode>
эволюции схемы не поддерживается для формата: <format>
Задайте для режима эволюции схемы значение None.
CF_USE_DELTA_FORMAT
Чтение из таблицы Delta не поддерживается с помощью этого синтаксиса. Если вы хотите использовать данные из Delta, обратитесь к документации: чтение таблицы Delta (<deltaDocLink>
) или чтение таблицы Delta в качестве источника потока (<streamDeltaDocLink>
). Источник потоковой передачи из Delta уже оптимизирован для добавочного потребления данных.
Геопространственные данные
EWKB_PARSE_ERROR
Синтаксический анализ EWKB: <parseError>
в позиции <pos>
GEOJSON_PARSE_ERROR
Синтаксический анализ GeoJSON: <parseError>
в позиции <pos>
Дополнительные сведения см. в GEOJSON_PARSE_ERROR
H3_INVALID_CELL_ID
<h3Cell>
недопустимый идентификатор ячейки H3
Дополнительные сведения см. в H3_INVALID_CELL_ID
H3_INVALID_GRID_DISTANCE_VALUE
Расстояние <k>
сетки H3 должно быть не отрицательным
Дополнительные сведения см. в H3_INVALID_GRID_DISTANCE_VALUE
H3_INVALID_RESOLUTION_VALUE
Разрешение <r>
H3 должно быть между и <maxR>
, включающими <minR>
Дополнительные сведения см. в H3_INVALID_RESOLUTION_VALUE
H3_NOT_ENABLED
<h3Expression>
отключен или не поддерживается. Рассмотрите возможность включения Photon или переключения на уровень, поддерживающий выражения H3
Дополнительные сведения см. в H3_NOT_ENABLED
H3_PENTAGON_ENCOUNTERED_ERROR
Пентагон был обнаружен при вычислении шестнадцатеричного кольца с расстоянием сетки <h3Cell>
<k>
H3_UNDEFINED_GRID_DISTANCE
Расстояние между <h3Cell1>
сеткой H3 и <h3Cell2>
не определено
ST_DIFFERENT_SRID_VALUES
Аргументы "<sqlFunction>
" должны иметь то же значение SRID. Найденные значения SRID: <srid1>
<srid2>
ST_INVALID_ARGUMENT
"<sqlFunction>
": <reason>
ST_INVALID_ARGUMENT_TYPE
Аргумент "<sqlFunction>
" должен иметь тип <validTypes>
ST_INVALID_CRS_TRANSFORMATION_ERROR
<sqlFunction>
: недопустимое или неподдерживаемое преобразование CRS из SRID <srcSrid>
в SRID <trgSrid>
ST_INVALID_ENDIANNESS_VALUE
Эндианность <e>
должна быть "NDR" (маленький эндиан) или "XDR" (big-endian)
ST_INVALID_GEOHASH_VALUE
<sqlFunction>
: недопустимое геохашное значение: '<geohash>
'. Значения geohash должны быть допустимыми строчными строками base32, как описано в описанииhttps://en.wikipedia.org/wiki/Geohash#Textual_representation
ST_INVALID_PRECISION_VALUE
Точность <p>
должна быть между <minP>
и <maxP>
, включающими
ST_INVALID_SRID_VALUE
Недопустимый или неподдерживаемый SRID <srid>
ST_NOT_ENABLED
<stExpression>
отключен или не поддерживается. Рассмотрите возможность включения Photon или переключения на уровень, поддерживающий выражения ST
ST_UNSUPPORTED_RETURN_TYPE
Типы данных GEOGRAPHY и GEOMETRY не могут быть возвращены в запросах. Используйте одно из следующих выражений SQL для преобразования их в стандартные форматы обмена: <projectionExprs>
WKB_PARSE_ERROR
Синтаксический анализ WKB: <parseError>
в позиции <pos>
Дополнительные сведения см. в WKB_PARSE_ERROR
WKT_PARSE_ERROR
Синтаксический анализ WKT: <parseError>
в позиции <pos>