Примечание.
Для доступа к этой странице требуется авторизация. Вы можете попробовать войти или изменить каталоги.
Для доступа к этой странице требуется авторизация. Вы можете попробовать изменить каталоги.
Применимо к:
Databricks SQL
Databricks Runtime 12.2 и выше
Условия ошибки являются описательными, читаемыми для человека строками, уникальными для описываемой ошибки.
Условия ошибки можно использовать для программной обработки ошибок в приложении без необходимости анализа сообщения об ошибке.
Это список распространенных именованных условий ошибки, возвращаемых Azure Databricks.
Databricks Runtime и Databricks SQL
ADD_DEFAULT_UNSUPPORTED
Не удалось выполнить <statementType> команду, так как DEFAULT значения не поддерживаются при добавлении новых столбцов в существующий целевой источник данных с поставщиком таблиц: "<dataSource>".
АГРЕГАТНАЯ_ФУНКЦИЯ_В_ВЛОЖЕННЫХ_ССЫЛКАХ_НЕ_ПОДДЕРЖИВАЕТСЯ
Обнаружены агрегатные функции во внешних ссылках <expression>, что не поддерживается.
AGGREGATE_FUNCTION_WITH_NONDETERMINISTIC_EXPRESSION
Недетерминированное выражение <sqlExpr> не должно отображаться в аргументах статистической функции.
AI_FUNCTION_HTTP_PARSE_CAST_ERROR
Не удалось проанализировать выходные данные модели при приведение к указанному returnType: "<dataType>", ответ JSON был: "<responseString>". Обновите возвращаемый тип, чтобы соответствовать содержимому типа, представленного ответом JSON , а затем повторите запрос снова. Исключение: <errorMessage>
AI_FUNCTION_HTTP_PARSE_COLUMNS_ERROR
Фактические выходные данные модели имеют несколько столбцов "<responseString>". Однако указанный тип возвращаемого значения["<dataType>] имеет только один столбец. Обновите возвращаемый тип, чтобы содержать то же количество столбцов, что и выходные данные модели, а затем повторите запрос снова.
AI_FUNCTION_HTTP_REQUEST_ERROR
Произошла ошибка при выполнении HTTP-запроса для функции <funcName>: <errorMessage>
AI_FUNCTION_INVALID_HTTP_RESPONSE
Недопустимый HTTP-ответ для функции <funcName>: <errorMessage>
AI_FUNCTION_INVALID_MAX_WORDS
Максимальное число слов должно быть неотрицательным целым числом, но получено <maxWords>.
AI_FUNCTION_INVALID_MODEL_PARAMETERS
Предоставленные параметры модели (<modelParameters>) недопустимы в функции для обслуживания конечной AI_QUERY точки "<endpointName>".
Дополнительные сведения см. в AI_FUNCTION_INVALID_MODEL_PARAMETERS
AI_FUNCTION_INVALID_RESPONSE_FORMAT_TYPE
Функция ИИ: "<functionName>" требует допустимой <format> строки для responseFormat параметра, но найден следующий формат ответа: "<invalidResponseFormat>". Исключение: <errorMessage>
AI_FUNCTION_JSON_PARSE_ERROR
Произошла ошибка при анализе JSON ответа для функции <funcName>: <errorMessage>
AI_FUNCTION_MODEL_SCHEMA_PARSE_ERROR
Не удалось проанализировать схему для конечной точки обслуживания "<endpointName>": <errorMessage>, ответ JSON был: "<responseJson>".
Задайте параметр returnType вручную в функции AI_QUERY, чтобы переопределить разрешение схемы.
AI_FUNCTION_REGISTRY_LOOKUP_FAILURE
Не удалось динамически разрешить функцию "<functionName>" из реестра функций ИИ.
AI_FUNCTION_UNSUPPORTED_ERROR
Функция <funcName> не поддерживается в текущей среде. Он доступен только в Databricks SQL Pro и без сервера.
AI_FUNCTION_UNSUPPORTED_REQUEST
Не удалось оценить функцию SQL"<functionName>, так как указанный аргумент <invalidValue> имеет "<invalidDataType>", но поддерживаются только следующие типы: <supportedDataTypes> Обновите вызов функции, чтобы указать аргумент типа строки и повторить запрос снова.
AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT
Найден неподдерживаемый формат ответа.
Дополнительные сведения см. в AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT
AI_FUNCTION_UNSUPPORTED_RETURN_TYPE
Функция ИИ: "<functionName>" не поддерживает следующий тип в качестве возвращаемого типа: "<typeName>". Возвращаемый тип должен быть допустимым типом SQL, понятным катализатором и поддерживаемым функцией ИИ. Текущие поддерживаемые типы включают: <supportedValues>
AI_INVALID_ARGUMENT_VALUE_ERROR
Предоставленное значение "<argValue>" не поддерживается аргументом "<argName>". Поддерживаемые значения: <supportedValues>
AI_QUERY_ENDPOINT_NOT_SUPPORT_STRUCTURED_OUTPUT
Ожидается, что тип задачи обслуживающей конечной точки должен быть "Чат" для структурированной поддержки выходных данных, но найден "<taskType>" для конечной точки "<endpointName>".
AI_QUERY_RETURN_TYPE_COLUMN_TYPE_MISMATCH
Предоставленный параметр "<sqlExpr>" не поддерживается возвращаемым типом аргумента.
AI_SEARCH_CONFLICTING_QUERY_PARAM_SUPPLY_ERROR
Конфликтующие параметры, обнаруженные для функции SQL vector_search: <conflictParamNames>.<hint>
AI_SEARCH_EMBEDDING_COLUMN_TYPE_UNSUPPORTED_ERROR
vector_search функция SQL с типом внедрения столбца <embeddingColumnType> не поддерживается.
AI_SEARCH_EMPTY_QUERY_PARAM_ERROR
vector_search у функции SQL отсутствует входной параметр запроса, укажите хотя бы один из: <parameterNames>.
AI_SEARCH_HYBRID_QUERY_PARAM_DEPRECATION_ERROR
Параметр query для SQL-функции vector_search не поддерживается для векторного поиска hybrid. Вместо этого используйте query_text.
AI_SEARCH_HYBRID_TEXT_NOT_FOUND_ERROR
Текст запроса не найден в функции vector_search SQL для hybrid векторного поиска. Укажите query_text.
AI_SEARCH_INDEX_TYPE_UNSUPPORTED_ERROR
vector_search функции SQL с типом индекса <indexType> не поддерживаются.
AI_SEARCH_MISSING_EMBEDDING_INPUT_ERROR
query_vector необходимо указать для <indexName> индекса, так как он не связан с конечной точкой модели внедрения.
AI_SEARCH_QUERY_TYPE_CONVERT_ENCODE_ERROR
Сбой материализации vector_search запроса функции SQL из типа Spark <dataType> в Scala-нативные объекты при кодировании запроса с ошибкой: <errorMessage>.
AI_SEARCH_QUERY_TYPE_UNSUPPORTED_ERROR
vector_search функции SQL с типом запроса <unexpectedQueryType> не поддерживаются. Укажите один из вариантов: <supportedQueryTypes>.
AI_SEARCH_UNSUPPORTED_NUM_RESULTS_ERROR
Функция SQL vector_search с числом результатов больше <maxLimit> не поддерживается. Указанное ограничение составляло <requestedLimit>. Повторите попытку с num_results <= <maxLimit>
AI_TOP_DRIVERS_PARAM_OUT_OF_RANGE
Параметр ai_top_drivers<param> должен быть между <lo> и <hi>.
AI_TOP_DRIVERS_UNSUPPORTED_AGGREGATION_TYPE
ai_top_drivers не поддерживает <aggName> агрегирование. Выберите один из следующих поддерживаемых статистических выражений: <allowed>
AI_TOP_DRIVERS_UNSUPPORTED_DIMENSION_TYPE
ai_top_drivers не поддерживает числовые столбцы измерения, карты или структуры. Столбец <colName> имеет тип <dataType>. Удалите это измерение или приведите его к поддерживаемому типу.
AI_TOP_DRIVERS_UNSUPPORTED_LABEL_TYPE
ai_top_drivers Требуется, чтобы тип столбца метки был булевым. Столбец <colName> имеет тип <dataType>. Измените столбец метки или приведите его к поддерживаемому типу.
AI_TOP_DRIVERS_UNSUPPORTED_METRIC_TYPE
ai_top_drivers Требует, чтобы тип столбца метрик был числовым. Столбец <colName> имеет тип <dataType>. Измените столбец метрик или приведите его к поддерживаемму типу.
ALL_PARAMETERS_MUST_BE_NAMED
Использование параметризованных имен запросов требует именовать все параметры. Отсутствующие имена параметров: <exprs>.
ALL_PARTITION_COLUMNS_NOT_ALLOWED
Невозможно использовать все столбцы в качестве секционирующих.
ALTER_SCHEDULE_DOES_NOT_EXIST
Невозможно изменить элемент <scheduleType> в таблице без существующего расписания или триггера. Добавьте расписание или триггер в таблицу перед попыткой изменить его.
ALTER_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
ALTER TABLE <type> Столбец <columnName> задает дескриптор "<optionName>" несколько раз, что недопустимо.
AMBIGUOUS_ALIAS_IN_NESTED_CTE
Имя <name> является неоднозначным во вложенном CTE.
Задайте значение <config> "CORRECTED" таким образом, чтобы имя, определенное в внутреннем CTE, имеет приоритет. Если задано значение "LEGACY", внешние определения CTE будут иметь приоритет.
См. 'https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine'.
AMBIGUOUS_COLUMN_OR_FIELD
Поле или столбец <name> являются двусмысленными и имеет <n> совпадений.
AMBIGUOUS_COLUMN_REFERENCE
Столбец <name> неоднозначный. Это связано с тем, что вы объединили несколько кадров данных, и некоторые из этих кадров данных совпадают.
Этот столбец указывает на один из кадров данных, но Spark не может выяснить, какой из них.
Назначьте псевдонимы для кадров данных с различными именами с помощью DataFrame.alias перед их объединением.
и укажите столбец с помощью квалифицированного имени, например df.alias("a").join(df.alias("b"), col("a.id") > col("b.id")).
AMBIGUOUS_CONSTRAINT
Неоднозначная ссылка на ограничение <constraint>.
AMBIGUOUS_LATERAL_COLUMN_ALIAS
Алиас боковой колонки <name> неясен и соответствует <n> вариантам.
AMBIGUOUS_REFERENCE
Ссылка <name> является неоднозначной и может относиться к: <referenceNames>.
AMBIGUOUS_REFERENCE_TO_FIELDS
Неоднозначная ссылка на поле <field>. Отображается <count> раз в схеме.
ANALYZE_CONSTRAINTS_NOT_SUPPORTED
ANALYZE CONSTRAINTS не поддерживается.
ANALYZE_TABLE_COMPUTE_STORAGE_METRICS_NOT_SUPPORTED
ANALYZE TABLE COMPUTE STORAGE METRICS не поддерживается. Обратитесь к группе поддержки Databricks, чтобы зарегистрировать эту рабочую область.
ANSI_CONFIG_CANNOT_BE_DISABLED
Конфигурация ANSI SQL <config> не может быть отключена в этом продукте.
ДОБАВИТЬ_ОДИН_РАЗ_ИЗ_ПАКЕТНОГО_ЗАПРОСА
Используйте оператор stream().
Создание потоковой таблицы из пакетного запроса предотвращает добавочную загрузку новых данных из источника. Некорректная таблица: '<table>'.
Пример использования:
CREATE STREAMING TABLE <target table name>
...
AS SELECT
...
FROM stream(<source table name>) ...
APPROX_TOP_K_INVALID_NUM_OF_ARGUMENTS
approx_top_k ожидает от 1 до 3 аргументов, но получил <argNum>.
APPROX_TOP_K_MAX_ITEMS_TRACKED_EXCEEDS_LIMIT
Максимальное число отслеживаемых maxItemsTrackedэлементов должно<maxItemsTracked>approx_top_k быть меньше или равно<limit>.
APPROX_TOP_K_MAX_ITEMS_TRACKED_LESS_THAN_K
Максимальное число отслеживаемых maxItemsTrackedэлементов (<maxItemsTracked>) approx_top_k должно быть больше или равно k(<k>).
APPROX_TOP_K_NON_POSITIVE_ARG
Значение <argName> в approx_top_k должно быть положительным целым числом, но получил.<argValue>
APPROX_TOP_K_NULL_ARG
Значение <argName> in approx_top_k не может быть NULL.
APPROX_TOP_K_SKETCH_SIZE_NOT_MATCH
Объединение approx_top_k эскизов различных размеров не допускается. Найдены эскизы размера <size1> и <size2>.
APPROX_TOP_K_SKETCH_TYPE_NOT_MATCH
Объединение approx_top_k эскизов различных типов не допускается. Найденные эскизы типа <type1> и <type2>.
AQE_THREAD_INTERRUPTED
Поток AQE прерывается, вероятно, из-за отмены запроса пользователем.
ARGUMENT_NOT_CONSTANT
Функция <functionName> включает параметр <parameterName> в позиции <pos>, требующей константного аргумента. Вычислить аргумент <sqlExpr> отдельно и передать результат в виде константы.
ARITHMETIC_OVERFLOW
<message>.
<alternative> Если необходимо, установите <config> в значение "false" для обхода этой ошибки.
Дополнительные сведения см. в ARITHMETIC_OVERFLOW
ARROW_TYPE_MISMATCH
Недопустимая схема из <operation>: ожидали <outputTypes>, а получили <actualDataTypes>.
ARTIFACT_ALREADY_EXISTS
Артефакт <normalizedRemoteRelativePath> уже существует. Выберите другое имя для нового артефакта, так как оно не может быть перезаписано.
ASSIGNMENT_ARITY_MISMATCH
Число столбцов или переменных, назначенных или имеющих псевдоним: <numTarget> не соответствует количеству исходных выражений: <numExpr>.
AS_OF_JOIN
Недопустимое соединение as-of.
Дополнительные сведения см. в AS_OF_JOIN
ATTEMPT_ANALYSIS_IN_PIPELINE_QUERY_FUNCTION
Операции, которые активируют анализ или выполнение кадра данных, не допускаются в функциях запроса конвейера. Перемещение кода за пределы функции запроса конвейера.
AUTOCOMMIT_BEGIN_TRANSACTION_DURING_AUTOCOMMIT_TRANSACTION
Не удается запустить новую транзакцию, пока неявная транзакция запущена SET AUTOCOMMIT=FALSE активно.
COMMIT или ROLLBACK текущая транзакция сначала и SET AUTOCOMMIT=TRUE перед запуском новой транзакции.
AUTOCOMMIT_NOT_SUPPORTED
Функция AUTOCOMMIT режима в настоящее время находится в процессе разработки и еще не поддерживается в Databricks.
AUTOCOMMIT_OLD_SQL_EDITOR_NOT_SUPPORTED
AUTOCOMMIT невозможно получить доступ или изменить в устаревшем редакторе SQL. Перейдите в новый редактор SQL или<docLink> используйте записную книжку, подключенную к хранилищу SQL Databricks.
AUTOCOMMIT_ONLY_SUPPORTED_IN_DBSQL
AUTOCOMMIT доступ к хранилищу SQL Databricks или изменить их можно только в них.
AUTOCOMMIT_SET_DURING_ACTIVE_TRANSACTION
SET AUTOCOMMIT запрещено во время активной транзакции. Сначала зафиксируйте или откат.
AUTOCOMMIT_SET_FALSE_ALREADY_DISABLED
SET AUTOCOMMIT=FALSE не допускается, если AUTOCOMMIT он уже отключен. Это ограничение предотвращает путаницу и очищает границы транзакций.
AUTOCOMMIT_SET_TRUE_DURING_AUTOCOMMIT_TRANSACTION
SET AUTOCOMMIT=TRUE не допускается после выполнения инструкций в неявной транзакции, запущенной SET AUTOCOMMIT=FALSEс помощью . Допускается только сразу после SET AUTOCOMMIT=FALSE (до каких-либо инструкций) или после или COMMITпослеROLLBACK.
AUTO_TTL_COLUMN_NOT_FOUND
Недопустимая схема таблицы для автоматического TTL. Не удается найти столбец <column> автоматического TTL.
AUTO_TTL_COLUMN_TYPE_NOT_SUPPORTED
Столбец <column> auto-TTL имеет недопустимый тип <type> . Тип столбца должен быть одним из TIMESTAMP, TIMESTAMP_NTZили DATE.
AUTO_TTL_FEATURE_NOT_ENABLED
Обратитесь к представителю Databricks, чтобы включить функцию автоматического TTL.
AUTO_TTL_INCOMPLETE_SETTING
Чтобы задать автоматическое TTL в таблице, свойства таблицы autottl.timestampColumn и autottl.expireInDays обязательные, но <missing> отсутствуют.
AUTO_TTL_INVALID_COLUMN_CHANGE
Столбец <column> не может быть <operation> так как он используется в определении автоматического TTL.
AUTO_TTL_NOT_SUPPORT_SHALLOW_CLONES
Автоматическое TTL не поддерживается в неглубоких клонированных таблицах.
AUTO_TTL_NOT_SUPPORT_TABLES_HAVING_SHALLOW_CLONES
Автоматическое TTL не поддерживается в таблицах с неглубокими клонами.
AUTO_TTL_REQUIRES_PREDICTIVE_OPTIMIZATION
Для автоматического TTL требуется включить прогнозную оптимизацию.
AUTO_TTL_REQUIRES_UC_MANAGED_TABLE
Автоматическое TTL поддерживается только в управляемых таблицах UC.
AVRO_CANNOT_WRITE_NULL_FIELD
Не удается записать значение NULL для поля <name> , определенного как ненулевой тип <dataType>данных Avro.
Чтобы разрешить нулевое значение для этого поля, укажите его схему avro как тип объединения с использованием опции avroSchema "null".
AVRO_DEFAULT_VALUES_UNSUPPORTED
Использование значений по умолчанию не поддерживается при включенииrescuedDataColumn. Эту проверку можно удалить, задав значение false spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue, но значения по умолчанию не будут применяться, а значения NULL по-прежнему будут использоваться.
AVRO_INCOMPATIBLE_READ_TYPE
Не удается преобразовать Avro <avroPath> в SQL <sqlPath> , так как исходный тип <avroType>данных закодирован, однако вы пытаетесь прочитать поле как <sqlType>, что приведет к неправильному ответу.
Чтобы разрешить чтение этого поля, включите настройку SQL: "spark.sql.legacy.avro.allowIncompatibleSchema".
AVRO_NOT_LOADED_SQL_FUNCTIONS_UNUSABLE
Не удается вызвать функцию <functionName> SQL, так как источник данных Avro не загружен.
Перезапустите задание или сеанс с загруженным пакетом spark-avro, например с помощью аргумента --packages в командной строке, а затем повторите запрос или команду снова.
AVRO_POSITIONAL_FIELD_MATCHING_UNSUPPORTED
Использование сопоставления позиционного поля не поддерживается, если включена либо rescuedDataColumn, либо failOnUnknownFields. Удалите эти параметры, чтобы продолжить.
AZURE_INVALID_CREDENTIALS_CONFIGURATION
Поставщик ключей Azure или учетные данные настроены неправильно. Причина: <causedBy>.
BATCH_METADATA_NOT_FOUND
Не удалось найти партию <batchMetadataFile>.
BIGQUERY_DATA_SOURCE_OPTIONS_VALIDATION_FAILED
Проверка параметров источника данных BigQuery завершилась ошибкой.
Дополнительные сведения см. в BIGQUERY_DATA_SOURCE_OPTIONS_VALIDATION_FAILED
BIGQUERY_OPTIONS_ARE_MUTUALLY_EXCLUSIVE
Учетные данные подключения BigQuery должны быть указаны с параметром GoogleServiceAccountKeyJson или всеми параметрами projectId, OAuthServiceAcctEmail, OAuthPvtKey.
BINARY_ARITHMETIC_OVERFLOW
<value1> <symbol> <value2> вызвал переполнение. Используйте <functionName>, чтобы игнорировать проблему переполнения и вернуть NULL.
BUILT_IN_CATALOG
<operation> не поддерживает встроенные каталоги.
CALL_ON_STREAMING_DATASET_UNSUPPORTED
Метод <methodName> не может вызываться для потокового набора данных или кадра данных.
CANNOT_ALTER_COLLATION_BUCKET_COLUMN
ALTER TABLE (ALTER|CHANGE) COLUMN не может изменить параметры сортировки типов или подтипов столбцов контейнеров, но нашел столбец контейнера <columnName> в таблице <tableName>.
CANNOT_ALTER_PARTITION_COLUMN
ALTER TABLE (ALTER|CHANGE) COLUMN не поддерживается для столбцов секционирования, но найден столбец секционирования <columnName> в таблице <tableName>.
CANNOT_ASSIGN_EVENT_TIME_COLUMN_WITHOUT_WATERMARK
Для переназначения столбца времени события необходимо определить маркер времени. Не удалось найти определение водяного знака в запросе потоковой передачи.
CANNOT_CAST_DATATYPE
Не удается выполнить приведение <sourceType> к <targetType>.
CANNOT_CONVERT_PROTOBUF_FIELD_TYPE_TO_SQL_TYPE
Не удается преобразовать protobuf <protobufColumn> в SQL <sqlColumn>, так как схема несовместима (protobufType = <protobufType>, sqlType = <sqlType>).
CANNOT_CONVERT_PROTOBUF_MESSAGE_TYPE_TO_SQL_TYPE
Невозможно преобразовать <protobufType> из Protobuf в тип данных SQL <toType>.
CANNOT_CONVERT_SQL_TYPE_TO_PROTOBUF_FIELD_TYPE
Не удается преобразовать SQL <sqlColumn> в protobuf <protobufColumn>, так как схема несовместима (protobufType = <protobufType>, sqlType = <sqlType>).
CANNOT_CONVERT_SQL_VALUE_TO_PROTOBUF_ENUM_TYPE
Невозможно преобразовать SQL <sqlColumn> в Protobuf <protobufColumn>, так как <data> не входит в определенные значения для перечисления: <enumString>.
CANNOT_COPY_STATE
Не удается скопировать состояние каталога, например текущую базу данных и временные представления из каталога Unity в устаревший каталог.
CANNOT_CREATE_DATA_SOURCE_TABLE
Не удалось создать таблицу источника данных <tableName>:
Дополнительные сведения см. в CANNOT_CREATE_DATA_SOURCE_TABLE
CANNOT_DECODE_URL
Указанный URL-адрес нельзя декодировать: <url>. Убедитесь, что URL-адрес правильно отформатирован и повторите попытку.
CANNOT_DELETE_SYSTEM_OWNED
Невозможно удалить принадлежащий системе <resourceType>.
CANNOT_DROP_AMBIGUOUS_CONSTRAINT
Невозможно удалить ограничение с именем <constraintName>, которое используется другим ограничением CHECK.
и ограничение PRIMARY KEY или FOREIGN KEY. Вы можете удалить PRIMARY KEY или
FOREIGN KEY ограничение по запросам:
ALTER TABLE ..
DROP PRIMARY KEY или
ALTER TABLE ..
DROP FOREIGN KEY ..
НЕЛЬЗЯ УДАЛИТЬ ОСНОВНУЮ ТАБЛИЦУ, ЕСЛИ НА НЕЁ ССЫЛАЕТСЯ ПОВЕРХНОСТНАЯ КОПИЯ
Невозможно удалить таблицу <baseTable>, так как на неё ссылаются один или несколько мелких клонов: <cloneList>.
DROP все мелкие клоны перед удалением базовой таблицы. Если это невозможно, попробуйте использовать "DROP TABLE...FORCE" для принудительного удаления таблицы.
WARNING: это немедленно разорвит все существующие неглубокие ссылки на клоны и сделает их непригодными для использования.
CANNOT_ESTABLISH_CONNECTION
Не удается установить подключение к удаленной базе данных <jdbcDialectName>. Проверьте сведения о подключении и учетные данные, например параметры узла, порта, пользователя, пароля и базы данных. ** Если вы считаете, что информация правильна, проверьте сетевую настройку рабочего пространства и убедитесь в том, что нет ограничений на исходящие соединения к серверу. Также убедитесь, что узел не блокирует входящие подключения из сети, в которой развернуты кластеры Spark рабочей области. ** Подробное сообщение об ошибке: <causeErrorMessage>.
CANNOT_ESTABLISH_CONNECTION_SERVERLESS
Не удается установить подключение к удаленной базе данных <jdbcDialectName>. Проверьте сведения о подключении и учетные данные, например параметры узла, порта, пользователя, пароля и базы данных. ** Если вы считаете, что информация правильна, пожалуйста, разрешите входящий трафик из интернета на ваш хост, так как вы используете бессерверные вычисления. Если политики сети не разрешают входящий интернет-трафик, используйте бессерверные вычисления или обратитесь к представителю Databricks, чтобы узнать о бессерверных частных сетях. ** Подробное сообщение об ошибке: <causeErrorMessage>.
CANNOT_ESTABLISH_CONNECTION_TO_HOST
Не удается установить <protocol> подключение к <host>. Проверьте сетевую настройку рабочей области и убедитесь, что она не имеет ограничений на исходящий трафик для узла. Также убедитесь, что узел не блокирует входящие подключения из сети, в которой развернуты кластеры рабочей области.
CANNOT_INVOKE_IN_TRANSFORMATIONS
Преобразования и действия набора данных могут вызываться только драйвером, а не в других преобразованиях набора данных; например, dataset1.map(x => dataset2.values.count() * x) недопустим, так как преобразование значений и действие подсчета невозможно выполнить внутри преобразования dataset1.map. Дополнительные сведения см. в разделе SPARK-28702.
CANNOT_LOAD_CHECKPOINT_FILE_MANAGER
Ошибка загрузки менеджера файлов контрольной точки потокового вещания для path=<path>.
Дополнительные сведения см. в CANNOT_LOAD_CHECKPOINT_FILE_MANAGER
CANNOT_LOAD_FUNCTION_CLASS
Не удается загрузить класс <className> при регистрации функции <functionName>, убедитесь, что он находится в класс-пассе.
CANNOT_LOAD_PROTOBUF_CLASS
Не удалось загрузить класс Protobuf с именем <protobufClassName>.
<explanation>.
CANNOT_LOAD_STATE_STORE
Произошла ошибка во время состояния загрузки.
Дополнительные сведения см. в CANNOT_LOAD_STATE_STORE
CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE
Не удалось объединить несовместимые типы данных <left> и <right>. Проверьте типы данных объединенных столбцов и убедитесь, что они совместимы. При необходимости рассмотрите возможность приведения столбцов к совместимым типам данных перед попыткой слияния.
CANNOT_MERGE_SCHEMAS
Сбой объединения схем:
Начальная схема:
<left>
Схема, которая не может быть объединена с начальной схемой:
<right>.
CANNOT_MODIFY_CONFIG
Не удается изменить значение конфигурации Spark: <key>.
См. также "https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements".
CANNOT_MODIFY_STATIC_CONFIG
Не удается изменить значение статической конфигурации Spark: <key>
CANNOT_PARSE_DECIMAL
Не удается проанализировать десятичное значение. Убедитесь, что входные данные являются корректным числом с необязательными десятичными точками или запятыми в качестве разделителей.
CANNOT_PARSE_INTERVAL
Не удалось проанализировать <intervalString>. Убедитесь, что указанное значение имеет допустимый формат для определения интервала. Вы можете обратиться к документации для получения правильного формата. Если проблема сохраняется, убедитесь, что входное значение не равно null или пусто, и повторите попытку.
CANNOT_PARSE_JSON_FIELD
Не удается проанализировать имя <fieldName> поля и значение <fieldValue> типа JSON маркера для целевого <jsonType> типа <dataType>данных Spark.
CANNOT_PARSE_PROTOBUF_DESCRIPTOR
Ошибка парсинга дескриптора байтов в Protobuf FileDescriptorSet.
CANNOT_PARSE_TIME
Входная строка <input> не может быть проанализирована со значением TIME, так как она не соответствует формату <format>datetime.
CANNOT_PARSE_TIMESTAMP
<message>. Используйте <func>, чтобы игнорировать неверные входные строки и возвращать вместо них NULL.
CANNOT_QUERY_TABLE_DURING_INITIALIZATION
Не удается запросить MV/ST во время инициализации.
Дополнительные сведения можно найти в CANNOT_QUERY_TABLE_DURING_INITIALIZATION
CANNOT_READ_ARCHIVED_FILE
Не удается прочитать файл по пути <path>, так как он был архивирован. Измените фильтры запросов, чтобы исключить архивные файлы.
CANNOT_READ_FILE
Не удается прочитать файл <format> по пути: <path>.
Дополнительные сведения см. в CANNOT_READ_FILE
CANNOT_READ_SENSITIVE_KEY_FROM_SECURE_PROVIDER
Не удается прочитать конфиденциальный ключ <key> из безопасного поставщика.
CANNOT_RECOGNIZE_HIVE_TYPE
Не удается распознать строку типа hive: <fieldType>, столбец: <fieldName>. Указанный тип данных для поля нельзя распознать с помощью Spark SQL. Проверьте тип данных указанного поля и убедитесь, что он является допустимым типом данных Spark SQL. Ознакомьтесь с документацией по Spark SQL для списка допустимых типов данных и их формата. Если тип данных правильный, убедитесь, что вы используете поддерживаемую версию Spark SQL.
CANNOT_REFERENCE_UC_IN_HMS
Невозможно ссылаться на каталог Unity <objType> в объектах хранилища метаданных Hive.
CANNOT_REMOVE_RESERVED_PROPERTY
Не удается удалить зарезервированное свойство: <property>.
CANNOT_RENAME_ACROSS_CATALOG
Переименование <type> между каталогами запрещено.
CANNOT_RENAME_ACROSS_SCHEMA
Переименование <type> между схемами запрещено.
CANNOT_RESOLVE_DATAFRAME_COLUMN
Не удается определить столбец кадра данных <name>. Это, вероятно, из-за незаконных ссылок, как df1.select(df2.col("a")).
CANNOT_RESOLVE_STAR_EXPAND
Не удается разрешить <targetString>.* для указанных входных столбцов <columns>. Убедитесь, что указанная таблица или структура существует и доступна в входных столбцах.
CANNOT_RESTORE_PERMISSIONS_FOR_PATH
Не удалось установить права доступа для созданного пути <path> до <permission>.
CANNOT_SHALLOW_CLONE_ACROSS_UC_AND_HMS
Не удается выполнить неглубокое клонирование таблиц в каталоге Unity и хранилище метаданных Hive.
CANNOT_SHALLOW_CLONE_AUTO_TTL
Не удается выполнить неглубокое клонирование таблицы <table> с включенной функцией автоматического TTL.
CANNOT_SHALLOW_CLONE_NESTED
Невозможно выполнить поверхностное клонирование таблицы <table>, которая уже является поверхностным клоном.
CANNOT_SHALLOW_CLONE_NON_UC_MANAGED_TABLE_AS_SOURCE_OR_TARGET
Неглубокий клон поддерживается только для типа таблицы MANAGED. Таблица <table> не является MANAGED таблицей.
CANNOT_UPDATE_FIELD
Не удается обновить поле типа <table><fieldName>.
Дополнительные сведения смотрите в CANNOT_UPDATE_FIELD
CANNOT_UPDATE_PARTITION_COLUMNS
Объявленное секционирование <requestedPartitionColumns> конфликтует с существующим секционированием таблиц <existingPartitionColumns>.
Удалите таблицу или измените объявленное разбиение, чтобы оно соответствовало ее разделам.
CANNOT_UP_CAST_DATATYPE
Невозможно привести <expression> от <sourceType> к <targetType>.
<details>
CANNOT_USE_KRYO
Не удается загрузить кодек сериализации Kryo. Сериализация Kryo не может использоваться в клиенте Spark Connect. Используйте сериализацию Java, предоставьте пользовательский кодек или используйте классическую версию Spark.
CANNOT_USE_MULTI_ALIASES_IN_WATERMARK_CLAUSE
Несколько псевдонимов не поддерживаются в предложении водяного знака.
Нельзя использовать зарезервированное имя провайдера потоковой передачи
Не удается использовать имя поставщика зарезервированной потоковой передачи: <providerName>
CANNOT_VALIDATE_CONNECTION
Проверка подключения <jdbcDialectName> не поддерживается. Обратитесь в службу поддержки Databricks для альтернативных решений или задайте для параметра Spark.databricks.testConnectionBeforeCreation значение false, чтобы пропустить тестирование подключения перед созданием объекта подключения.
CANNOT_WRITE_STATE_STORE
Ошибка записи файлов хранилища состояний для поставщика <providerClass>.
Для более подробной информации смотрите CANNOT_WRITE_STATE_STORE
CAST_INVALID_INPUT
Значение <expression> типа <sourceType> не может быть приведено к <targetType>, потому что оно некорректно. Исправьте значение по синтаксису или измените его целевой тип. Вместо этого используйте try_cast, чтобы допускать неправильные входные данные и возвращать NULL.
Дополнительные сведения см. в CAST_INVALID_INPUT
CAST_OVERFLOW
Значение <value> типа <sourceType> нельзя привести к <targetType> из-за переполнения. Вместо этого используйте try_cast, чтобы терпеть переполнение и возвращать NULL.
CAST_OVERFLOW_IN_TABLE_INSERT
Не удалось назначить значение типа <sourceType> столбцу <targetType> или переменной <columnName> из-за переполнения. Используйте try_cast для входного значения для обработки переполнения и возвращайте NULL вместо этого.
CATALOG_CONVERSION_FOREIGN_ENTITY_PRESENT
Преобразование каталога из UC Foreign в UC Standard завершилось сбоем, так как каталог содержит внешние сущности (до 10 показаны здесь): <entityNames> Чтобы просмотреть полный список внешних сущностей в этом каталоге, см. скрипты в документации по командам "ALTER CATALOG DROP CONNECTION".
CATALOG_CONVERSION_UNSUPPORTED_CATALOG_TYPE
Каталог нельзя преобразовать из UC Foreign в UC Standard. Только <convertableCatalogTypes> внешние каталоги UC можно преобразовать в стандарт UC Standard.
CATALOG_NOT_FOUND
Каталог <catalogName> не найден. Рассмотрите возможность установить конфигурацию SQL <config> в плагин каталога.
CATALOG_OWNED_TABLE_CREATION_NOT_ALLOWED
Создание таблиц Delta с функцией таблиц <feature> запрещено. Обратитесь в службу поддержки Databricks.
CHECKPOINT_DIR_NOT_SET
Каталог контрольных точек не задан в SparkContext.
Задайте для него SparkContext.setCheckpointDir()значение .
CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND
Блок контрольной точки <rddBlockId> не найден!
Либо исполнитель, который первоначально сохранил контрольную точку для этого раздела, больше не активен, либо исходный RDD освобожден из памяти.
Если эта проблема сохраняется, вы можете использовать rdd.checkpoint() вместо этого, что медленнее, чем локальная контрольная точка, но более отказоустойчивая.
НАРУШЕНИЕ_ПРОВЕРКИ_ОГРАНИЧЕНИЯ
ограничение CHECK<constraintName> <expression> нарушено строкой со значениями:
<values>
CIRCULAR_CLASS_REFERENCE
Недопустимо наличие циклических ссылок в классе, но обнаружена циклическая ссылка на класс <t>.
CLASS_NOT_OVERRIDE_EXPECTED_METHOD
Необходимо, чтобы <className> переопределял либо <method1>, либо <method2>.
CLASS_UNSUPPORTED_BY_MAP_OBJECTS
MapObjects не поддерживает класс <cls> в виде результирующей коллекции.
CLEANROOM_COMMANDS_NOT_SUPPORTED
Команды "Clean Room" не поддерживаются
CLEANROOM_INVALID_SHARED_DATA_OBJECT_NAME
Недопустимое имя для обозначения <type> в чистой комнате.
<type> Используйте имя в чистой комнате в формате [каталог].[схема].[<type>].
Если вы не уверены в том, какое имя следует использовать, можно запустить "SHOW ALL IN CLEANROOM [clean_room]" и использовать значение в столбце "name".
CLONING_WITH_HISTORY_INVALID_OPTION
Клонирование с историей операций указано с недопустимым параметром: <invalidOption>.
Допустимый синтаксис: CREATE (OR REPLACE) TABLE ... ГЛУБОКО CLONE...WITH HISTORY.
CLONING_WITH_HISTORY_UNSUPPORTED
Клонирование с журналом не поддерживается.
CLOUD_FILE_ALREADY_EXISTS
Облачный файл уже существует. Причина: <causedBy>.
CLOUD_FILE_NOT_FOUND
Облачный файл не найден. Причина: <causedBy>.
CLOUD_FILE_SOURCE_FILE_NOT_FOUND
Уведомление о файле было получено для файла: <filePath>, но файла больше не существует. Убедитесь, что файлы не удаляются перед их обработкой. Чтобы продолжить поток данных, можно установить для параметра <config> в конфигурации Spark SQL значение true.
CLOUD_PROVIDER_ERROR
Ошибка поставщика облачных служб: <message>
CLUSTERING_COLUMNS_MISMATCH
Указанная кластеризация не совпадает с существующей таблицей <tableName>.
Указанные столбцы кластеризации: [<specifiedClusteringString>].
Существующие столбцы кластеризации: [<existingClusteringString>].
CLUSTERING_NOT_SUPPORTED
'<operation>' не поддерживает кластеризацию.
CLUSTER_BY_AUTO_FEATURE_NOT_ENABLED
Обратитесь к вашему представителю Databricks, чтобы включить функцию автоматической кластеризации.
CLUSTER_BY_AUTO_REQUIRES_CLUSTERING_FEATURE_ENABLED
Включите clusteringTable.enableClusteringTableFeature, чтобы активировать CLUSTER BY AUTO.
CLUSTER_BY_AUTO_REQUIRES_PREDICTIVE_OPTIMIZATION
CLUSTER BY AUTO требует включения прогнозной оптимизации.
CLUSTER_BY_AUTO_UNSUPPORTED_TABLE_TYPE_ERROR
CLUSTER BY AUTO поддерживается только в управляемых таблицах UC.
CODEC_NOT_AVAILABLE
<codecName> кодека недоступна.
Дополнительные сведения см. в CODEC_NOT_AVAILABLE
CODEC_SHORT_NAME_NOT_FOUND
Не удается найти короткое имя для <codecName>кодека.
COLLATION_INVALID_NAME
Значение <collationName> не является корректным именем сопоставления. Предлагаемые допустимые имена сортировки: [<proposals>].
COLLATION_INVALID_PROVIDER
Значение <provider> не представляет правильного поставщика сопоставления. Поддерживаемые поставщики: [<supportedProviders>].
COLLATION_MISMATCH
Не удалось определить, какие параметры сортировки следует использовать для строковых функций и операторов.
Дополнительные сведения см. в COLLATION_MISMATCH
COLLECTION_SIZE_LIMIT_EXCEEDED
Не удается создать массив с <numberOfElements> элементами, превышающими ограничение <maxRoundedArrayLength>размера массива,
Дополнительные сведения см. в COLLECTION_SIZE_LIMIT_EXCEEDED
COLUMN_ALIASES_NOT_ALLOWED
Псевдонимы столбцов не допускаются в <op>.
COLUMN_ALREADY_EXISTS
Столбец <columnName> уже существует. Выберите другое имя или переименуйте существующий столбец.
COLUMN_ARRAY_ELEMENT_TYPE_MISMATCH
Некоторые значения в поле <pos> несовместимы с типом массива столбцов. Ожидаемый тип <type>.
COLUMN_MASKS_НЕСООТВЕТСТВИЕ_ABAC
Маски столбцов не удалось разрешить в <tableName> из-за несоответствия между масками столбцов, унаследованными от политик, и явно определенными масками столбцов. Чтобы продолжить, отключите управление доступом на основе атрибутов (ABAC) и обратитесь в службу поддержки Databricks.
COLUMN_MASKS_ПРОВЕРКА_ОГРАНИЧЕНИЯ_НЕПОДДЕРЖИВАЕТСЯ
Создание ограничения CHECK для таблиц <tableName> с политиками маски столбцов не поддерживается.
COLUMN_MASKS_ДУЛИРУЕТСЯ_ИСПОЛЬЗУЯ_ИМЯ_СТОЛБЦА
Инструкция <statementType> пыталась назначить политику маски столбца столбцу, которая включает два или более других столбцов, на которые ссылается список USING COLUMNS с тем же именем <columnName>, что недопустимо.
COLUMN_MASKS_ФУНКЦИЯ_НЕПОДДЕРЖИВАЕТСЯ
Политики маски столбцов для <tableName> не поддерживаются:
Дополнительные сведения см. в COLUMN_MASKS_FEATURE_NOT_SUPPORTED
COLUMN_MASKS_INCOMPATIBLE_SCHEMA_CHANGE
Не удалось выполнить операцию <statementType> <columnName> с таблицей <tableName>, так как она упоминается в политике маски столбца для столбца <maskedColumn>. Перед тем как продолжить, владелец таблицы должен удалить или изменить эту политику.
COLUMN_MASKS_ОБЪЕДИНЕНИЕ_НЕПОДДЕРЖИВАЕМЫЙ_ИСТОЧНИК
MERGE INTO операции не поддерживают политики маски столбцов в исходной таблице <tableName>.
COLUMN_MASKS_НЕПОДДЕРЖИВАЕМЫЙ_ЦЕЛЬ_MERGE
Операции MERGE INTO не позволяют запись в таблицу <tableName> с политиками маски столбцов.
COLUMN_MASKS_МНОГОЧАСТИ_ЦЕЛЕВАЯ_КОЛОНКА_ИМЯ
Эта попытка назначить политику маски столбца столбцу <columnName> с несколькими компонентами имени недопустима.
COLUMN_MASKS_МНОГОЧАСТНАЯ_С_ИСПОЛЬЗОВАНИЕМ_ИМЕНИ_СТОЛБЦА
Эта инструкция попыталась назначить политику маскирования столбца столбцу, но список USING COLUMNS включал имя <columnName>, состоящее из нескольких частей, что недопустимо.
COLUMN_MASKS_НЕ_ВКЛЮЧЕНО
Поддержка определения маски столбцов не включена
COLUMN_MASKS_ТРЕБУЕТ_ЕДИНЫЙ_КАТАЛОГ
Политики маски столбцов поддерживаются только в каталоге Unity.
COLUMN_MASKS_СОЗДАНИЕ_ВТОРИЧНОГО_ИНДЕКСА_НЕ_ПОДДЕРЖИВАЕТСЯ
Не удается создать вторичный индекс ON TABLE <tableName> , так как в таблице определены политики маски столбцов.
COLUMN_MASKS_ПОКАЗАТЬ_РАЗДЕЛЫ_НЕПОДДЕРЖИВАЕТСЯ
команда SHOW PARTITIONS не поддерживается для таблиц<format> с масками столбцов.
COLUMN_MASKS_ИСТОЧНИК_ДЛЯ_КОПИРОВАНИЯ_ТАБЛИЦЫ_НЕ_ПОДДЕРЖИВАЕТСЯ
<mode> клон из таблицы <tableName> с политикой маскирования столбцов не поддерживается.
COLUMN_MASKS_КОПИРОВАНИЕ_ЦЕЛЬ_ТАБЛИЦЫ_НЕ_ПОДДЕРЖИВАЕТСЯ
Клонирование <mode> в таблицу <tableName> с политиками маскирования столбцов не поддерживается.
COLUMN_MASKS_НЕПОДДЕРЖИВАЕМАЯ_КОНСТАНТА_КАК_ПАРАМЕТР
Использование константы в качестве параметра в политике маски столбцов не поддерживается. Обновите команду SQL, чтобы удалить констанду из определения маски столбца, а затем повторите попытку.
COLUMN_MASKS_НЕПОДДЕРЖИВАЕМЫЙ_ТИП_ДАННЫХ
Функция <functionName> , используемая в качестве политики маски столбцов, содержит параметр с неподдерживаемого типа <dataType>данных.
COLUMN_MASKS_НЕПОДДЕРЖИВАЕМЫЙ_ПРОВАЙДЕР
Не удалось выполнить <statementType> команду, так как назначение политик маски столбцов не поддерживается для целевого источника данных с поставщиком таблиц: "<provider>".
COLUMN_MASKS_ИСПОЛЬЗОВАНИЕ_ИМЕНИ_СТОЛБЦА_ТАКОГО_ЖЕ_КАК_ЦЕЛЕВОЙ_СТОЛБЕЦ
Столбец <columnName> имел то же имя, что и целевой столбец, который является недопустимым; Удалите столбец из списка USING COLUMNS и повторите команду.
COLUMN_NOT_DEFINED_IN_TABLE
<colType> Столбец <colName> таблицы <tableName>не определен. Определенные столбцы: <tableCols>.
COLUMN_NOT_FOUND
Не удается найти столбец <colName>. Проверьте орфографию и правильность имени столбца в соответствии с конфигурацией SQL <caseSensitiveConfig>.
COLUMN_NOT_FOUND_IN_TABLE
Столбец <columnName> не найден в таблице <tableFullName>.
COLUMN_ORDINAL_OUT_OF_BOUNDS
Порядковый номер столбца за пределами допустимого диапазона. Число столбцов в таблице — <attributesLength>, но порядковый номер столбца — <ordinal>.
Атрибуты являются следующими: <attributes>.
КОМАНДА_НЕ_ВКЛЮЧЕНА
<command> команда не включена.
COMMA_PRECEDING_CONSTRAINT_ERROR
Неожиданная запятая перед определением(-ями) ограничений. Убедитесь, что предложение ограничения не начинается с запятой, если столбцы (и ожидания) не определены.
COMMENT_ON_CONNECTION_NOT_IMPLEMENTED_YET
Команда COMMENT ON CONNECTION еще не реализована
COMPARATOR_RETURNS_NULL
Компаратор вернул результат NULL для сравнения между <firstValue> и <secondValue>.
Он должен возвращать положительное целое число для "больше", 0 для "равно" и отрицательное целое число для "меньше".
Чтобы вернуться к устаревшему поведению, где NULL обрабатывается как 0 (равно), необходимо задать для настройки "spark.sql.legacy.allowNullComparisonResultInArraySort" значение true.
COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
Не удается обработать входные типы данных для выражения: <expression>.
Дополнительные сведения см. в COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
CONCURRENT_QUERY
Еще один экземпляр этого запроса [id: <queryId>] был только что запущен параллельной сессией [существующий идентификатор выполнения: <existingQueryRunId> новый идентификатор выполнения: <newQueryRunId>].
CONCURRENT_SCHEDULER_INSUFFICIENT_SLOT
Минимальное количество свободных слотов, необходимых в кластере, — <numTasks>, однако кластер имеет только <numSlots> слоты бесплатно. Запрос зависнет или завершится ошибкой. Увеличьте размер кластера, чтобы продолжить.
CONCURRENT_STREAM_LOG_UPDATE
Параллельное обновление журнала. Для <batchId>обнаружено несколько заданий потоковой передачи.
Убедитесь, что одновременно выполняется только одно задание потоковой передачи в определенном расположении контрольной точки.
CONFIG_NOT_AVAILABLE
Конфигурация <config> недоступна.
CONFLICTING_CLUSTER_CONFIGURATION
Следующие конфигурации конфликтуют с spark.databricks.streaming.realTimeMode.enabled: <confNames> Удалите эти конфигурации из конфигурации кластера и перезапустите кластер Spark.
CONFLICTING_DIRECTORY_STRUCTURES
Обнаружены конфликтующие структуры каталогов.
Подозрительные пути:
<discoveredBasePaths>
Если указанные пути являются каталогами секций, задайте значение basePath в параметрах источника данных, чтобы указать корневой каталог таблицы.
Если есть несколько корневых каталогов, загрузите их отдельно, а затем объедините их.
CONFLICTING_PARTITION_COLUMN_NAMES
Обнаружены конфликтующие названия столбцов секционирования:
<distinctPartColLists>
Для каталогов секционированных таблиц файлы данных должны находиться только в конечных каталогах.
И каталоги на том же уровне должны иметь то же имя столбца партиционирования.
Проверьте следующие каталоги для непредвиденных файлов или несогласованных имен столбцов секций:
<suspiciousPaths>
CONFLICTING_PARTITION_COLUMN_NAME_WITH_RESERVED
Имя столбца секции "<partitionColumnName>" конфликтует с зарезервированным именем столбца.
Схема <tableName> несовместима с Hive, Spark автоматически создает зарезервированный столбец "<partitionColumnName>" для хранения таблицы определенным образом.
Пожалуйста, используйте другое имя для разделительного столбца.
CONFLICTING_PROVIDER
Указанный поставщик <provider> не согласуется с существующим поставщиком каталога <expectedProvider>. Используйте "USING <expectedProvider>" и повторите команду.
CONFLICTING_SQL_CONFIGURATION
Следующие конфигурации конфликтуют с spark.databricks.streaming.realTimeMode.enabled: <confNames> Удалите эти конфигурации из конфигурации SparkSession.
CONNECT
Общая ошибка Spark Connect.
Дополнительную информацию см. в CONNECT
CONNECTION_ALREADY_EXISTS
Невозможно создать соединение <connectionName>, так как оно уже существует.
Выберите другое имя, удалите или замените существующее подключение или добавьте предложение IF NOT EXISTS, чтобы разрешить существующие подключения.
CONNECTION_NAME_CANNOT_BE_EMPTY
Не удается выполнить эту команду, так как имя подключения должно быть не пустым.
CONNECTION_NOT_FOUND
Не удается выполнить эту команду, так как имя подключения <connectionName> не найдено.
CONNECTION_OPTION_NOT_SUPPORTED
Подключения типа '<connectionType>' не поддерживают следующие варианты <optionsNotSupported>. Поддерживаемые параметры: <allowedOptions>.
CONNECTION_TYPE_NOT_SUPPORTED
Не удается создать соединение типа '<connectionType>'. Поддерживаемые типы подключений: <allowedTypes>.
Неподдерживаемый тип подключения для инъекции опций
Соединение с именем <connectionName> и типом <connectionType> не поддерживается в параметрах кадра данных.
Тип соединения не поддерживает функцию удаленного запроса.
Соединение с именем '<connectionName>' типа '<connectionType>' не поддерживается для выполнения функции удаленного запроса.
CONNECT_INVALID_PLAN
Недопустимый план Spark Connect.
Дополнительные сведения см. в CONNECT_INVALID_PLAN
CONNECT_SESSION_MIGRATION
Ошибка миграции обобщённого сеанса (userId: <userId>, sessionId: <sessionId>, serverSessionId: <serverSessionId>).
Дополнительные сведения см. в CONNECT_SESSION_MIGRATION
CONSTRAINTS_REQUIRE_UNITY_CATALOG
Ограничения таблиц поддерживаются только в каталоге Unity.
CONSTRAINT_ALREADY_EXISTS
Ограничение "<constraintName>" уже существует. Сначала удалите существующее ограничение.
Существующее ограничение:
<oldConstraint>
CONSTRAINT_ALREADY_EXISTS_IN_SCHEMA
Ограничение <constraintName> уже существует в базе данных <schemaName>.
CONSTRAINT_ALREADY_EXISTS_WITH_SERVER_MESSAGE
<serverMessage>
CONSTRAINT_DOES_NOT_EXIST
Не удается удалить несуществующее ограничение <constraintName> из таблицы <tableName>.
CONVERSION_INVALID_INPUT
Невозможно преобразовать <str> (<fmt>) значение<targetType>, так как оно неправильно сформировано. Исправьте значение по синтаксису или измените его формат. Вместо этого используйте <suggestion>, чтобы допускать неправильные входные данные и возвращать NULL.
COPY_INTO_COLUMN_ARITY_MISMATCH
Не удается записать в <tableName>, причина заключается в том, что
Дополнительные сведения см. в COPY_INTO_COLUMN_ARITY_MISMATCH
COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON
Недопустимая схема <scheme>.
COPY INTO учетные данные исходного источника в настоящее время поддерживают только s3/s3n/s3a/wasbs/abfss.
COPY_INTO_CREDENTIALS_REQUIRED
COPY INTO учетные данные источника должны содержать <keyList>.
COPY_INTO_DUPLICATED_FILES_COPY_NOT_ALLOWED
Дублированные файлы были зафиксированы в параллельной операции COPY INTO. Повторите попытку позже.
COPY_INTO_ENCRYPTION_NOT_ALLOWED_ON
Недопустимая схема <scheme>.
COPY INTO шифрование источника в настоящее время поддерживает только s3/s3n/s3a/abfss.
COPY_INTO_ENCRYPTION_NOT_SUPPORTED_FOR_AZURE
шифрование COPY INTO поддерживает только adLS 2-го поколения или схему файлов abfss://
COPY_INTO_ENCRYPTION_REQUIRED
COPY INTO В шифровании источника необходимо указать "<key>".
COPY_INTO_ENCRYPTION_REQUIRED_WITH_EXPECTED
Недопустимый параметр шифрования <requiredKey>.
COPY INTO Шифрование источника должно указывать '<requiredKey>' = '<keyValue>' .
COPY_INTO_FEATURE_INCOMPATIBLE_SETTING
Функция COPY INTO "<feature>" несовместима с "<incompatibleSetting>".
COPY_INTO_NON_BLIND_APPEND_NOT_ALLOWED
COPY INTO, кроме добавления данных, не допускается одновременно выполняться с другими транзакциями. Повторите попытку позже.
COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED
COPY INTO не удалось загрузить состояние, превышено максимальное количество повторных попыток.
COPY_INTO_SCHEMA_MISMATCH_WITH_TARGET_TABLE
Обнаружена несоответствие схемы при копировании в таблицу Delta (таблица: <table>).
Это может указывать на проблему с входящими данными или схему таблицы Delta можно автоматически развивать в соответствии с входящими данными, задав следующие параметры:
COPY_OPTIONS ('mergeSchema' = 'истина')
Разница в схеме:
<schemaDiff>
COPY_INTO_SOURCE_FILE_FORMAT_NOT_SUPPORTED
Формат исходных файлов должен быть одним из CSV, AVRO, JSONORC, PARQUETTEXT или BINARYFILE. Использование COPY INTO в таблицах Delta в качестве источника данных не поддерживается, так как дублирующиеся данные могут быть получены после операций OPTIMIZE. Эту проверку можно отключить, выполнив команду SQL set spark.databricks.delta.copyInto.formatCheck.enabled = false.
COPY_INTO_SOURCE_SCHEMA_INFERENCE_FAILED
Исходный каталог не содержал файлов синтаксического анализа типа <format>. Проверьте содержимое '<source>'.
Ошибка может быть подавлена, если установить '<config>' в значение 'false'.
COPY_INTO_STATE_INTERNAL_ERROR
При обработке состояния COPY INTO произошла внутренняя ошибка.
Дополнительную информацию см. в COPY_INTO_STATE_INTERNAL_ERROR
COPY_INTO_SYNTAX_ERROR
Не удалось проанализировать команду COPY INTO.
Дополнительные сведения см. в COPY_INTO_SYNTAX_ERROR
COPY_INTO_UNSUPPORTED_FEATURE
Функция COPY INTO "<feature>" не поддерживается.
COPY_UNLOAD_FORMAT_TYPE_NOT_SUPPORTED
Не удается выгрузить данные в формате '<formatType>'. Поддерживаемые форматы для <connectionType>: <allowedFormats>.
CORRUPTED_CATALOG_FUNCTION
Не удается преобразовать функцию каталога "<identifier>" в функцию SQL из-за поврежденной информации о функции в каталоге. Если функция не является функцией SQL, убедитесь, что имя класса "<className>" можно загрузить.
CREATE_FOREIGN_SCHEMA_NOT_IMPLEMENTED_YET
Команда CREATE FOREIGN SCHEMA еще не реализована
CREATE_FOREIGN_TABLE_NOT_IMPLEMENTED_YET
Команда CREATE FOREIGN TABLE еще не реализована
CREATE_OR_REFRESH_MV_NOT_SUPPORTED
CREATE ИЛИ REFRESH MATERIALIZED VIEW не поддерживается. Вместо этого используйте CREATE OR REPLACE MATERIALIZED VIEW .
CREATE_OR_REFRESH_MV_ST_ASYNC
Невозможно материализовать представления или таблицы потоковой передачи с указанным CREATE, если используется REFRESH ИЛИ ASYNC. Удалите ASYNC из инструкции CREATE OR REFRESH или используйте REFRESH ASYNC для асинхронного обновления существующих материализованных представлений или потоковых таблиц.
CREATE_PERMANENT_VIEW_WITHOUT_ALIAS
Невозможно создать постоянное представление <name> без явного назначения псевдонима для выражения <attr>.
CREATE_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
CREATE TABLE Столбец <columnName> задает дескриптор "<optionName>" несколько раз, что недопустимо.
CREATE_VIEW_COLUMN_ARITY_MISMATCH
Не удается создать представление <viewName>, причина заключается в том, что
Дополнительные сведения см. в CREATE_VIEW_COLUMN_ARITY_MISMATCH
CREDENTIAL_MISSING
Пожалуйста, укажите учетные данные при создании или обновлении внешних местоположений.
CREDENTIAL_PURPOSE_MISMATCH
Учетные данные <credentialName> имеют назначение <actualPurpose>, однако назначение, указанное в команде, — <expectedPurpose>.
CSV_ENFORCE_SCHEMA_NOT_SUPPORTED
Параметр CSV enforceSchema нельзя задавать при использовании rescuedDataColumn или failOnUnknownFields, так как столбцы считываются по имени, а не по порядковому номеру.
CYCLIC_FUNCTION_REFERENCE
Обнаружена ссылка на циклическую функцию: <path>.
DATABRICKS_DELTA_NOT_ENABLED
Databricks Delta не включен в вашей учетной записи.<hints>
DATAFLOW_GRAPH_NOT_FOUND
Не удалось найти граф потока данных с идентификатором <graphId>
Тип данных не подлежит упорядочиванию.
Тип <dataType> не поддерживает упорядоченные операции.
DATATYPE_MISMATCH
Не удается разрешить <sqlExpr> из-за несоответствия типа данных:
Дополнительную информацию см. в DATATYPE_MISMATCH
DATATYPE_MISSING_SIZE
DataType <type> требует параметра длины, например <type>(10). Укажите длину.
DATA_LINEAGE_SECURE_VIEW_LEAF_NODE_HAS_NO_RELATION
Запись родословной не удалась: отсутствует соответствующее отношение с политиками для CLM/RLS.
DATA_SOURCE_ALREADY_EXISTS
Источник данных "<provider>" уже существует. Выберите другое имя нового источника данных.
DATA_SOURCE_CONNECTION_MISSING_ALLOW_LIST
Подключение <connectionName> не поддерживается в этом контексте, так как оно не настроено во внешнем списке разрешений. Обновите подключение, чтобы включить допустимый <optionName>.
DATA_SOURCE_EXTERNAL_ERROR
Произошла ошибка при сохранении во внешний источник данных.
DATA_SOURCE_NOT_EXIST
Источник данных "<provider>" не найден. Убедитесь, что источник данных зарегистрирован.
DATA_SOURCE_NOT_FOUND
Не удалось найти источник данных: <provider>. Убедитесь, что имя поставщика правильно, и пакет правильно зарегистрирован и совместим с версией Spark.
DATA_SOURCE_OPTIONS_VALIDATION_FAILED
Проверка параметра(ов) источника данных <dataSource> завершилась сбоем.
Дополнительные сведения см. в DATA_SOURCE_OPTIONS_VALIDATION_FAILED
DATA_SOURCE_OPTION_CONTAINS_INVALID_CHARACTERS
Параметр <option> не должен быть пустым и не должен содержать недопустимые символы, строки запроса или параметры.
DATA_SOURCE_OPTION_IS_REQUIRED
Требуется опция <option>.
DATA_SOURCE_OPTION_NOT_ALLOWED_BY_CONNECTION
Параметр <optionName> не разрешен по подключению <connectionName> и не может быть предоставлен внешним образом.
ОПЦИЯ_ИСТОЧНИКА_ДАННЫХ_НЕПРАВИЛЬНОЕ_ЗНАЧЕНИЕ
Предоставленный параметр источника данных "<option>" содержит недопустимое значение ('<value>).
Дополнительные сведения см. в DATA_SOURCE_OPTION_VALUE_NOT_VALID
DATA_SOURCE_SYNTAX_ERROR_DURING_QUERY_EXECUTION
Внешний подсистема <dataSourceEngine> источника данных вызвала синтаксическую ошибку во время выполнения запроса "<query>".
<externalEngineError>.
DATA_SOURCE_TABLE_SCHEMA_MISMATCH
Схема таблицы источника данных не соответствует ожидаемой схеме. Если вы используете API DataFrameReader.schema или создаете таблицу, избегайте указания схемы.
Схема источника данных: <dsSchema>
Ожидаемая схема: <expectedSchema>
DATA_SOURCE_URL_NOT_ALLOWED
URL-адрес JDBC не разрешен в параметрах источника данных, укажите параметры узла, порта и базы данных.
DATETIME_FIELD_OUT_OF_BOUNDS
<rangeMessage>.
Дополнительные сведения см. в DATETIME_FIELD_OUT_OF_BOUNDS
DATETIME_OVERFLOW
Переполнение операции даты и времени: <operation>.
DC_API_QUOTA_EXCEEDED
Превышена квота API для источника данных <sourceName>.
Дополнительные сведения см. в DC_API_QUOTA_EXCEEDED
DC_CONNECTION_ERROR
Не удалось подключиться к источнику <sourceName>. Код ошибки: <errorCode>.
Дополнительные сведения см. в DC_CONNECTION_ERROR
DC_DYNAMICS_API_ERROR
Ошибка произошла в вызовах API Dynamics, errorCode: <errorCode>.
Дополнительные сведения см. в DC_DYNAMICS_API_ERROR
DC_NETSUITE_ERROR
Ошибка произошла в вызовах JDBC Netsuite, errorCode: <errorCode>.
Дополнительные сведения см. в DC_NETSUITE_ERROR
DC_SCHEMA_CHANGE_ERROR
SQLSTATE: не присвоено
Изменение схемы произошло в таблице <tableName> источника <sourceName>.
Дополнительные сведения см. в DC_SCHEMA_CHANGE_ERROR
DC_SERVICENOW_API_ERROR
Ошибка произошла в вызовах API ServiceNow, errorCode: <errorCode>.
Дополнительные сведения см. в DC_SERVICENOW_API_ERROR
DC_SFDC_BULK_QUERY_JOB_INCOMPLETE
Прием для объекта <objName> неполный, так как задание запроса API Salesforce заняло слишком много времени, завершилось сбоем или было отменено вручную.
Чтобы повторить попытку, можно повторно запустить весь конвейер или обновить эту конкретную целевую таблицу. Если ошибка сохраняется, отправьте билет. Идентификатор задания: <jobId>. Статус задания: <jobStatus>.
DC_SHAREPOINT_API_ERROR
Ошибка произошла в вызовах API Sharepoint, errorCode: <errorCode>.
Дополнительные сведения см. в DC_SHAREPOINT_API_ERROR
DC_SOURCE_API_ERROR
Произошла ошибка в вызове API <sourceName>. Тип исходного API: <apiType>. Код ошибки: <errorCode>.
Иногда это может произойти, когда вы достигли предела <sourceName> API. Если вы не превысили предел API, попробуйте повторно запустить соединитель. Если проблема сохраняется, отправьте запрос.
DC_UNSUPPORTED_ERROR
Неподдерживаемая ошибка произошла в источнике данных <sourceName>.
Дополнительные сведения см. в разделе DC_UNSUPPORTED_ERROR
DC_WORKDAY_RAAS_API_ERROR
Ошибка произошла в вызовах API RaAS Workday, errorCode: <errorCode>.
Более подробную информацию см. в DC_WORKDAY_RAAS_API_ERROR
DECIMAL_PRECISION_EXCEEDS_MAX_PRECISION
Десятичная точность <precision> превышает максимальную точность <maxPrecision>.
DEFAULT_DATABASE_NOT_EXISTS
База данных по умолчанию <defaultDatabase> не существует, сначала создайте ее или измените базу данных по умолчанию на <defaultDatabase>.
DEFAULT_FILE_NOT_FOUND
Возможно, базовые файлы были обновлены. Вы можете явно отключить кэш в Spark, выполнив команду tableNameREFRESH TABLE в SQL или повторно выполнив команду Dataset/DataFrame. Если кэш дисков устарел или базовые файлы удалены, можно сделать кэш диска недействительным вручную, перезагрузив кластер.
DEFAULT_PLACEMENT_INVALID
Ключевое DEFAULT слово в объекте MERGE, INSERT, UPDATEили SET VARIABLE команде не удалось напрямую назначить целевому столбцу, так как оно было частью выражения.
Например, UPDATE SET c1 = DEFAULT разрешено, но UPDATE T SET c1 = DEFAULT + 1 не допускается.
DEFAULT_UNSUPPORTED
Не удалось выполнить <statementType> команду, так как DEFAULT значения не поддерживаются для целевого источника данных с поставщиком таблиц: "<dataSource>".
DEFINE_FLOW_ONCE_OPTION_NOT_SUPPORTED
Определение одноразового потока <flowName> с параметром "один раз" не поддерживается.
DESCRIBE_JSON_NOT_EXTENDED
DESCRIBE TABLE
...
AS JSON поддерживается только при указании [EXTENDED|FORMATTED] .
Например, DESCRIBE EXTENDED <tableName> AS JSON поддерживается, но DESCRIBE <tableName> AS JSON не поддерживается.
DIFFERENT_DELTA_TABLE_READ_BY_STREAMING_SOURCE
Запрос потоковой передачи считывался из неожиданной таблицы Delta (id = '<newTableId>).
Он использовался для чтения из другой таблицы Delta (id = '<oldTableId>) в соответствии с контрольной точкой.
Это может произойти при изменении кода для чтения из новой таблицы или удаления данных.
повторно создали таблицу. Отмените изменение или удалите контрольную точку потокового запроса
чтобы начать заново.
DISTINCT_WINDOW_FUNCTION_UNSUPPORTED
Функции отдельных окон не поддерживаются: <windowExpr>.
DIVIDE_BY_ZERO
Деление на ноль. Используйте try_divide, чтобы допускать делитель, равный 0, и возвращать NULL вместо этого. Если необходимо, установите <config> в "false", чтобы обойти эту ошибку.
Дополнительные сведения см. в DIVIDE_BY_ZERO
DLT_EXPECTATIONS_NOT_SUPPORTED
Ожидания поддерживаются только в конвейере Декларативных конвейеров Spark Lakeflow.
DLT_VIEW_CLUSTER_BY_NOT_SUPPORTED
MATERIALIZED VIEW с CLUSTER BY предложением поддерживается только в конвейере Декларативных конвейеров Spark Lakeflow.
DLT_VIEW_LOCATION_NOT_SUPPORTED
MATERIALIZED VIEW расположения поддерживаются только в конвейере Декларативных конвейеров Spark Lakeflow.
DLT_VIEW_SCHEMA_WITH_TYPE_NOT_SUPPORTED
MATERIALIZED VIEW схемы с указанным типом поддерживаются только в конвейере Декларативных конвейеров Spark Lakeflow Spark.
DLT_VIEW_TABLE_CONSTRAINTS_НЕ ПОДДЕРЖИВАЕТСЯ
CONSTRAINT предложения в представлении поддерживаются только в конвейере Декларативных конвейеров Spark Lakeflow.
DML_OPERATIONS_NOT_SUPPORTED_FOR_REMOTE_QUERY_FUNCTION
Функция удаленного запроса не поддерживает запросы DML.
DROP_COMMAND_TYPE_MISMATCH
Не удается удалить <metadataType> с DROP <commandType>помощью .
Вместо этого используйте DROP <metadataTypeUpper>.
DROP_SCHEDULE_DOES_NOT_EXIST
Невозможно удалить SCHEDULE из таблицы без существующего расписания или триггера.
DUPLICATED_CTE_NAMES
Определение CTE не может содержать повторяющиеся имена: <duplicateNames>
DUPLICATED_FIELD_NAME_IN_ARROW_STRUCT
Повторяющиеся имена полей в структуре Arrow не допускаются, получено <fieldNames>.
DUPLICATED_MAP_KEY
Обнаружен повторяющийся ключ карты <key>, проверьте входные данные.
Если вы хотите удалить повторяющиеся ключи, можно задать <mapKeyDedupPolicy> значение "LAST_WIN", чтобы ключ, вставленный в последнее время, имеет приоритет.
DUPLICATED_METRICS_NAME
Имя метрики не уникально: <metricName>. То же имя нельзя использовать для метрик с различными результатами.
Однако допускается несколько экземпляров метрик с одинаковым результатом и именем (например, самосоединения).
DUPLICATE_ASSIGNMENTS
Столбцы или переменные <nameList> отображаются более одного раза в качестве целевых объектов назначения.
DUPLICATE_CLAUSES
Найдено повторяющееся предложение: <clauseName>. Удалите один из них.
DUPLICATE_CONDITION_IN_SCOPE
Найдено повторяющееся условие <condition> в контексте. Удалите один из них.
DUPLICATE_EXCEPTION_HANDLER
Найдены повторяющиеся обработчики. Удалите один из них.
Дополнительные сведения см. в DUPLICATE_EXCEPTION_HANDLER
DUPLICATE_FLOW_SQL_CONF
Найдена дубликат конфигурации SQL для набора данных '<datasetName>': '<key>' задается как '<flowName1>' и '<flowName2>'
DUPLICATE_KEY
Найдены повторяющиеся ключи <keyColumn>.
DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
Вызов подпрограммы <routineName> недопустим, так как он включает несколько назначений аргументов в одно и то же имя параметра <parameterName>.
Дополнительные сведения см. в DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
DUPLICATE_ROUTINE_PARAMETER_NAMES
Найдено повторяющееся имя в списке параметров определяемой пользователем подпрограммы <routineName>: <names>.
DUPLICATE_ROUTINE_RETURNS_COLUMNS
Найдены повторяющиеся столбцы в списке столбцов предложения RETURNS в определяемой пользователем подпрограмме <routineName>: <columns>.
ПОВТОРНОЕ_ИМЯ_ПЕРЕМЕННОЙ_В_ОПРЕДЕЛЕНИИ
Найдена повторяющаяся переменная в списке объявленных переменных <variableName> . Удалите один из них.
EMITTING_ROWS_OLDER_THAN_WATERMARK_NOT_ALLOWED
Предыдущий узел генерирует строку с eventTime=<emittedRowEventTime>, которая старше current_watermark_value=<currentWatermark>
Это может привести к проблемам с корректностью в операторов с отслеживанием состояния, находящихся далее в конвейере выполнения.
Исправьте логику оператора, чтобы вывести строки после текущего глобального значения метки.
EMPTY_JSON_FIELD_VALUE
Не удалось проанализировать пустую строку для типа данных <dataType>.
EMPTY_LOCAL_FILE_IN_STAGING_ACCESS_QUERY
Пустой локальный файл в промежуточном запросе <operation>
EMPTY_SCHEMA_NOT_SUPPORTED_FOR_DATASOURCE
Источник данных <format> не поддерживает запись пустых или вложенных пустых схем. Убедитесь, что схема данных имеет по крайней мере один или несколько столбцов.
ENCODER_NOT_FOUND
Не найден кодировщик типа <typeName> внутреннего представления Spark SQL.
Рассмотрите возможность смены типа входных данных на один из поддерживаемых в '<docroot>/sql-ref-datatypes.html'.
END_LABEL_WITHOUT_BEGIN_LABEL
Конечные метки <endLabel> не могут существовать без начальной метки.
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_LATEST_WITH_TRIGGER_AVAILABLENOW
Некоторые разделы в темах Kafka сообщают о доступных позициях, которые меньше, чем конечные позиции, во время выполнения запроса с Trigger.AvailableNow. Ошибка может быть временной — перезапустить запрос и сообщить, если вы по-прежнему видите ту же проблему.
последнее смещение: <latestOffset>, смещение конца: <endOffset>
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_PREFETCHED
Для источника данных Kafka с Trigger.AvailableNow конечное смещение должно быть меньшим или равным смещению для каждого раздела топика, чем предварительно извлечённое смещение. Ошибка может быть временной — перезапустить запрос и сообщить, если вы по-прежнему видите ту же проблему.
предварительно извлекаемое смещение: <prefetchedOffset>, конечное смещение: <endOffset>.
ERROR_READING_AVRO_UNKNOWN_FINGERPRINT
Ошибка чтения данных avro — обнаружен неизвестный отпечаток: <fingerprint>, не ясно, какую схему следует использовать.
Это может произойти, если вы зарегистрировали дополнительные схемы после запуска контекста Spark.
EVENT_LOG_EMPTY
Журнал событий для <tableOrPipeline> не имеет схемы и не содержит событий. Повторите попытку позже после создания событий
EVENT_LOG_REQUIRES_SHARED_COMPUTE
Невозможно запросить журналы событий из назначенного или общего кластера без изоляции, пожалуйста, используйте общий кластер или хранилище SQL в Databricks вместо этого.
EVENT_LOG_TVF_UNSUPPORTED_FOR_PIPELINE
EVENT_LOG Функция Table-Valued не поддерживается для конвейеров с полем "схема" или конвейеров, публикующих в хранилище по умолчанию.
Чтобы запросить журнал событий, опубликуйте его в хранилище метаданных, указав поле event_log в параметрах конвейера.
Дополнительные сведения см. в документации по конвейерам Monitor Lakeflow Spark Declarative Pipeliness: https://docs.databricks.com/aws/en/delta-live-tables/observability
EVENT_LOG_UNAVAILABLE
Журналы событий недоступны для <tableOrPipeline>. Повторите попытку позже после создания событий
EVENT_LOG_UNSUPPORTED_TABLE_TYPE
Тип таблицы <tableIdentifier> — <tableType>.
Запросы журналов событий поддерживают только материализованные представления, таблицы потоковой передачи или конвейеры Декларативных конвейеров Spark Spark
EVENT_TIME_IS_NOT_ON_TIMESTAMP_TYPE
Время события <eventName> имеет недопустимый тип <eventType>, но ожидается "TIMESTAMP".
EXCEED_LIMIT_LENGTH
Превышает ограничение длины типа char/varchar: <limit>.
EXCEL_DATA_SOURCE_NOT_ENABLED
Источник данных Excel не включен в этом кластере.
EXCEL_FILE_ERROR
Ошибка при обработке файла Excel '<filePath>'.
См. дополнительные сведения в EXCEL_FILE_ERROR
EXCEL_INVALID_READ_OPTION_VALUE
Недопустимое значение параметра чтения для источника данных Excel.
Дополнительные сведения см. в EXCEL_INVALID_READ_OPTION_VALUE
EXCEL_INVALID_WRITE_OPTION_VALUE (Недопустимое значение параметра записи)
Источник данных Excel не поддерживает значение "<value>" для параметра записи "<option>".
Для получения более подробной информации см. EXCEL_INVALID_WRITE_OPTION_VALUE
EXCEL_INVALID_WRITE_SCHEMA
Источник данных Excel не поддерживает схему "<schema>" для операций записи.
<hint>
EXCEL_PARSING_ERROR
Ошибка синтаксического анализа данных Excel.
Дополнительные сведения см. в EXCEL_PARSING_ERROR
EXCEL_НЕПОДДЕРЖИВАЕМЫЙ_ПАРАМЕТР_ЗАПИСИ
Источник данных Excel не поддерживает параметр записи "<option>".
<hint>
EXCEPT_NESTED_COLUMN_INVALID_TYPE
EXCEPT столбец <columnName> был определён и ожидалось, что будет StructType, но найден тип <dataType>.
EXCEPT_OVERLAPPING_COLUMNS
Столбцы в списке EXCEPT должны быть различными и не пересекающимися, но получили (<columns>).
EXCEPT_RESOLVED_COLUMNS_WITHOUT_MATCH
EXCEPT столбцы [<exceptColumns>] были определены, но не соответствуют ни одному из столбцов [<expandedColumns>] из звёздного расширения.
EXCEPT_UNRESOLVED_COLUMN_IN_STRUCT_EXPANSION
Имя столбца или поля <objectName> в предложении EXCEPT не может быть разрешено. Имели ли вы в виду одно из следующих: [<objectList>]?
Примечание. Вложенные столбцы в предложении EXCEPT могут не включать квалификаторы (имя таблицы, имя родительского столбца структуры и т. д.) во время расширения структуры; попробуйте удалить квалификаторы, если они используются с вложенными столбцами.
EXECUTOR_DISK_OUT_OF_SPACE
Диск исполнителя вне места. При наличии увеличьте емкость диска. Если вы используете бессерверный сервер, обратитесь в нашу службу поддержки.
EXEC_IMMEDIATE_DUPLICATE_ARGUMENT_ALIASES
Предложение USING этой команды EXECUTE IMMEDIATE включало несколько аргументов с одинаковым псевдонимом (<aliases>), что недопустимо; обновите команду с указанием уникальных псевдонимов, а затем повторите команду.
EXPECT_PERMANENT_TABLE_NOT_TEMP
"<operation>" ожидает постоянную таблицу, но <tableName> является временной. Вместо этого укажите постоянную таблицу.
EXPECT_PERMANENT_VIEW_NOT_TEMP
"<operation>" ожидает постоянное представление, но <viewName> является временным представлением.
EXPECT_TABLE_NOT_VIEW
'<operation>' ожидает таблицу, но <viewName> является представлением.
Дополнительные сведения см. в EXPECT_TABLE_NOT_VIEW
EXPECT_VIEW_NOT_TABLE
Таблица <tableName> не поддерживает <operation>.
Дополнительные сведения см. в EXPECT_VIEW_NOT_TABLE
EXPRESSION_DECODING_FAILED
Не удалось декодировать строку до значения выражения: <expressions>.
EXPRESSION_ENCODING_FAILED
Не удалось закодировать значение выражений: <expressions> в строку.
EXPRESSION_TRANSLATION_TO_V2_IS_NOT_SUPPORTED
Выражение <expr> нельзя преобразовать в выражение версии 2.
EXPRESSION_TYPE_IS_NOT_ORDERABLE
Невозможно отсортировать выражение столбца <expr>, так как его тип <exprType> не упорядочен.
EXTERNAL_METASTORE_CLIENT_ERROR
Сбой операции клиента:
За дополнительными сведениями обратитесь к EXTERNAL_METASTORE_CLIENT_ERROR
EXTERNAL_SHALLOW_CLONE_STILL_EXISTS
Не удалось выполнить операцию в исходной таблице <sourceTable>, так как неглубокий клон <targetTable> по-прежнему существует, и его состояние некорректно. Если вы действительно хотите продолжить эту операцию, очистите неглубокое клонирование, явно выполнив DROP команду.
EXTERNAL_TABLE_INVALID_SCHEME
Внешние таблицы не поддерживают схему <scheme> .
FABRIC_REFRESH_INVALID_SCOPE
Ошибка при выполнении 'REFRESH FOREIGN <scope> <name>'. Невозможно обновить Fabric <scope> напрямую, используйте «REFRESH FOREIGN CATALOG <catalogName>» для обновления каталога Fabric.
FAILED_EXECUTE_UDF
Определяемая пользователем функция (: (<functionName><signature>) => <result>завершилась ошибкой из-за: <reason>
FAILED_FUNCTION_CALL
Не удалось подготовить функцию <funcName> для вызова. Пожалуйста, ещё раз проверьте аргументы функции.
FAILED_JDBC
Не удалось выполнить операцию JDBC <url>.
Дополнительные сведения см. в FAILED_JDBC
FAILED_PARSE_STRUCT_TYPE
Не удалось проанализировать структуру: <raw>.
FAILED_READ_FILE
Ошибка при чтении файла <path>.
Для получения дополнительных сведений см. FAILED_READ_FILE
FAILED_REGISTER_CLASS_WITH_KRYO
Не удалось зарегистрировать классы в Kryo.
FAILED_RENAME_PATH
Не удалось переименовать <sourcePath> в <targetPath>, поскольку место назначения уже существует.
FAILED_RENAME_TEMP_FILE
Не удалось переименовать временный файл из <srcPath> в <dstPath>, так как FileSystem.rename вернул false.
FAILED_ROW_TO_JSON
Не удалось преобразовать значение <value> строки класса <class> в целевой тип <sqlType> SQL в JSON формате.
FAILED_TO_CREATE_PLAN_FOR_DIRECT_QUERY
Не удалось создать план прямого запроса к файлам: <dataSourceType>
FAILED_TO_LOAD_ROUTINE
Не удалось загрузить подпрограмму <routineName>.
FAILED_TO_PARSE_TOO_COMPLEX
Инструкция, включая потенциальные функции SQL и ссылки на представления, была слишком сложной для анализа.
Чтобы устранить эту ошибку, необходимо разделить инструкцию на несколько, менее сложных блоков.
FEATURE_NOT_ENABLED
Функция <featureName> не включена. Рекомендуется задать конфигурацию <configKey> для <configValue>, чтобы включить эту возможность.
FEATURE_NOT_ON_CLASSIC_WAREHOUSE
<feature> не поддерживается в классических хранилищах SQL. Чтобы использовать эту функцию, используйте хранилище Pro или Бессерверное хранилище SQL.
FEATURE_REQUIRES_UC
<feature> не поддерживается без каталога Unity. Чтобы использовать эту функцию, включите каталог Unity.
FEATURE_UNAVAILABLE
<feature> не поддерживается в вашей среде. Чтобы использовать эту функцию, обратитесь в службу поддержки Databricks.
FETCH_FAILED
Сбой задачи при выборе данных или метаданных с перемешиванием: <errorString>
FGAC_ON_DEDICATED_COMPUTE_FAILED
Детализированный контроль доступа (FGAC) на выделенном вычислительном ресурсе завершился сбоем из-за следующего исключения: <message>
FIELD_ALREADY_EXISTS
Невозможно выполнить <op> для столбца, так как <fieldNames> уже существует в <struct>.
FIELD_NOT_FOUND
В <fieldName>нет такого поля структуры <fields>.
FILE_IN_STAGING_PATH_ALREADY_EXISTS
Файл в промежуточном пути <path> уже существует, но OVERWRITE не задан
FLATMAPGROUPSWITHSTATE_USER_FUNCTION_ERROR
Произошла ошибка в предоставленной пользователем функции в flatMapGroupsWithState. Причина: <reason>
FORBIDDEN_DATASOURCE_IN_SERVERLESS
Запросы к источнику данных <source> в бессерверных вычислениях запрещены. Только <allowlist> источники данных поддерживаются в бессерверных вычислениях.
FORBIDDEN_KEYWORD_IN_JDBC_QUERY
Параметр <queryOption> запроса не может содержать запрещенные ключевые слова. Удалите следующие ключевые слова из запроса: <keywords>
FORBIDDEN_OPERATION
Операция <statement> запрещена в <objectType>: <objectName>.
FOREACH_BATCH_USER_FUNCTION_ERROR
Произошла ошибка в предоставленной пользователем функции в приемнике пакетной службы foreach. Причина: <reason>
FOREACH_USER_FUNCTION_ERROR
Произошла ошибка в функции, предоставленной пользователем, в компоненте foreach sink. Причина: <reason>
FOREIGN_KEY_MISMATCH
Родительские столбцы внешнего ключа <parentColumns> не совпадают с дочерними столбцами первичного ключа <childColumns>.
FOREIGN_OBJECT_NAME_CANNOT_BE_EMPTY
Не удается выполнить эту команду, так как имя внешнего <objectType> должно быть не пустым.
FOREIGN_TABLE_CONVERSION_UNSUPPORTED
Таблица не может быть обновлена с UC Foreign до UC External. Reason:
Дополнительные сведения см. FOREIGN_TABLE_CONVERSION_UNSUPPORTED
FOREIGN_VIEW_CONVERSION_UNSUPPORTED
Объект <objectName> не имеет права на преобразование в управляемое представление UC. Reason:
Дополнительные сведения см. в FOREIGN_VIEW_CONVERSION_UNSUPPORTED
FROM_JSON_CONFLICTING_SCHEMA_UPDATES
Операция from_json столкнулась с конфликтующими обновлениями схемы в месте: <location>
FROM_JSON_CORRUPT_RECORD_COLUMN_IN_SCHEMA
from_json найден столбецNameOfCorruptRecord (<columnNameOfCorruptRecord>) присутствует
в объекте JSON и больше не может продолжаться. Настройте другое значение для
опция columnNameOfCorruptRecord.
FROM_JSON_CORRUPT_SCHEMA
from_json инференция не смогла прочитать схему, сохраненную в: <location>
FROM_JSON_INFERENCE_FAILED
from_json не удалось определить схему. Укажите его вместо этого.
FROM_JSON_INFERENCE_NOT_SUPPORTED
from_json инференция поддерживается только при определении потоковых таблиц
FROM_JSON_INVALID_CONFIGURATION
from_json конфигурация недопустима:
Дополнительные сведения см. в FROM_JSON_INVALID_CONFIGURATION
FROM_JSON_SCHEMA_EVOLUTION_FAILED
from_json не удалось эволюционировать от <old> до <new>
FUNCTION_PARAMETERS_MUST_BE_NAMED
Функция <function> требует именованных параметров. Отсутствующие имена параметров: <exprs>. Обновите вызов функции, чтобы добавить имена для всех параметров( <function>param_name => ...).
GENERATED_COLUMN_WITH_DEFAULT_VALUE
Столбец не может иметь как значение по умолчанию, так и вычисляемое выражение, но столбец <colName> имеет значение по умолчанию: (<defaultValue>) и вычисляемое выражение: (<genExpr>).
GET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION
Hive 2.2 и более низкие версии не поддерживают getTablesByType. Используйте Hive 2.3 или более позднюю версию.
GET_WARMUP_TRACING_FAILED
Не удалось получить трассировку разогрева. Причина: <cause>.
GET_WARMUP_TRACING_FUNCTION_NOT_ALLOWED
Функция get_warmup_tracing() не разрешена.
GRAPHITE_SINK_INVALID_PROTOCOL
Недопустимый протокол Graphite: <protocol>.
GRAPHITE_SINK_PROPERTY_MISSING
Для приемника Graphite требуется свойство '<property>' .
GROUPING_COLUMN_MISMATCH
Столбец группирования (<grouping>) не найден в столбцах группировки <groupingColumns>.
GROUPING_ID_COLUMN_MISMATCH
Столбцы grouping_id (<groupingIdColumn>) не соответствуют столбцам группировки (<groupByColumns>).
GROUPING_SIZE_LIMIT_EXCEEDED
Размер группирования наборов не может превышать <maxSize>.
GROUP_BY_AGGREGATE
Агрегатные функции не допускаются в GROUP BY, но найдены <sqlExpr>.
Более подробную информацию см. в GROUP_BY_AGGREGATE
GROUP_BY_POS_AGGREGATE
GROUP BY <index> ссылается на выражение <aggExpr>, содержащее агрегатную функцию. Агрегатные функции не допускаются в GROUP BY.
GROUP_BY_POS_OUT_OF_RANGE
GROUP BY положение <index> не находится в списке выбора (допустимый диапазон равен [1, <size>]).
GROUP_EXPRESSION_TYPE_IS_NOT_ORDERABLE
Выражение <sqlExpr> нельзя использовать в качестве выражения группировки, так как его тип данных <dataType> не является упорядоченным типом данных.
HDFS_HTTP_ERROR
При попытке чтения из HDFS http-запрос завершился ошибкой.
Дополнительные сведения см. в HDFS_HTTP_ERROR
HINT_UNSUPPORTED_FOR_JDBC_DIALECT
hint не поддерживается для <jdbcDialect> в источнике данных JDBC. Поддерживаемые диалекты и MySQLDialect, OracleDialectDatabricksDialect.
HIVE_METASTORE_INVALID_PLACEHOLDER_PATH
Не удалось выполнить запрос или команду, так как конфигурация "spark.databricks.hive.metastore.tablePlaceholderPath" предоставила недопустимый путь заполнителя таблицы Hive Metastore. Обновите эту конфигурацию новым значением, чтобы указать допустимый путь, а затем повторно запустите запрос или команду еще раз.
HIVE_METASTORE_TABLE_PLACEHOLDER_PATH_NOT_SET
Запрос или команда завершились сбоем, потому что путь заполнителя в таблице Hive Metastore не установлен, что необходимо, когда расположение схемы находится в DBFS, а расположение таблицы — это объект или файл. Задайте для spark.databricks.hive.metastore.tablePlaceholderPath путь, к которому у вас есть доступ, а затем снова выполните запрос или команду.
HLL_INVALID_INPUT_SKETCH_BUFFER
Недопустимый вызов <function>; Поддерживаются только допустимые буферы эскизов HLL (например, созданные функцией hll_sketch_agg).
HLL_INVALID_LG_K
Недопустимый вызов <function>; значение lgConfigK должно быть в пределах от <min> до <max>включительно: <value>.
HLL_K_MUST_BE_CONSTANT
Недопустимый вызов <function>; K значение должно быть константным, но получил неконстантное выражение.
HLL_UNION_DIFFERENT_LG_K
Эскизы имеют разные значения lgConfigK: <left> и <right>. Задайте для параметра allowDifferentLgConfigK значение true, чтобы вызывать <function> с различными значениями lgConfigK.
HMS_FEDERATION_SHALLOW_CLONE_NOT_FOUND_IN_UC
Не удалось определить путь неглубокого клонирования <path> к таблице в каталоге Unity. Убедитесь, что таблица существует и добавлена в каталог Unity Catalog.
HYBRID_ANALYZER_EXCEPTION
Произошла ошибка при попытке разрешить запрос или команду с помощью как устаревшего анализатора фиксированной точки, так и однопроходного сопоставителя.
Дополнительные сведения см. в HYBRID_ANALYZER_EXCEPTION
IDENTIFIER_TOO_MANY_NAME_PARTS
<identifier> не является допустимым идентификатором, так как он содержит больше <limit> элементов имени.
IDENTITY_COLUMNS_DUPLICATED_SEQUENCE_GENERATOR_OPTION
Параметр генератора последовательности для дублированного столбца IDENTITY: <sequenceGeneratorOption>.
IDENTITY_COLUMNS_ILLEGAL_STEP
IDENTITY шаг столбца не может быть 0.
IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE
Тип данных <dataType> не поддерживается для столбцов IDENTITY.
ILLEGAL_DAY_OF_WEEK
Недопустимое значение для дня недели: <string>.
ILLEGAL_STATE_STORE_VALUE
Недопустимое значение, переданное в хранилище состояния
Дополнительную информацию см. в разделе ILLEGAL_STATE_STORE_VALUE
INAPPROPRIATE_URI_SCHEME_OF_CONNECTION_OPTION
Невозможно создать подключение из-за неуместной схемы URI <uri> , предоставленной для параметра подключения "<option>".
Разрешенные схемы: <allowedSchemes>.
Добавьте схему, если она отсутствует в URI, или укажите схему из допустимых значений.
INCOMPARABLE_PIVOT_COLUMN
Недопустимый сводной столбец <columnName>. Столбцы сводной таблицы должны быть сопоставимыми.
INCOMPATIBLE_BATCH_VIEW_READ
Представление <datasetIdentifier> — это пакетное представление и должно вызываться через SparkSession#read. Эта проверка может быть отключена, установив Spark конфигурацию pipelines.incompatibleViewCheck.enabled в false.
INCOMPATIBLE_COLUMN_TYPE
<operator> можно выполнять только в таблицах с совместимыми типами столбцов. Столбец <columnOrdinalNumber> таблицы <tableOrdinalNumber> является типом <dataType1>, который несовместим с <dataType2> в том же столбце первой таблицы.<hint>.
INCOMPATIBLE_DATASOURCE_REGISTER
Обнаружен несовместимый объект DataSourceRegister. Удалите несовместимую библиотеку из классаpath или обновите ее. Ошибка: <message>
INCOMPATIBLE_DATA_FOR_TABLE
Не удается записать несовместимые данные для таблицы <tableName>:
Дополнительные сведения см. в INCOMPATIBLE_DATA_FOR_TABLE
INCOMPATIBLE_JOIN_TYPES
Типы соединений <joinType1> и <joinType2> несовместимы.
НЕСОВМЕСТИМОЕ_ЧТЕНИЕ_ПОТОКОВОГО_ВИДА
Представление <datasetIdentifier> — это потоковое представление, на которое необходимо ссылаться с помощью SparkSession#readStream. Эта проверка может быть отключена, установив Spark конфигурацию pipelines.incompatibleViewCheck.enabled в false.
INCOMPATIBLE_VIEW_SCHEMA_CHANGE
SQL-запрос представления <viewName> имеет несовместимое изменение схемы, и столбец <colName> невозможно устранить. Ожидалось <expectedNum> столбцов с именем <colName>, но получено <actualCols>.
Попробуйте повторно создать представление, выполнив следующую команду: <suggestion>.
INCOMPLETE_TYPE_DEFINITION
Неполный сложный тип:
Дополнительные сведения см. в INCOMPLETE_TYPE_DEFINITION
INCONSISTENT_BEHAVIOR_CROSS_VERSION
Вы можете получить другой результат из-за обновления системы до новой версии.
Дополнительные сведения см. в INCONSISTENT_BEHAVIOR_CROSS_VERSION
INCORRECT_NUMBER_OF_ARGUMENTS
<failure>, <functionName>требует по крайней мере аргументов и по крайней <minArgs> мере <maxArgs> аргументов.
INCORRECT_RAMP_UP_RATE
Максимальное смещение при <rowsPerSecond> строк в секунду равно <maxSeconds>, но параметр 'rampUpTimeSeconds' равен <rampUpTimeSeconds>.
INDETERMINATE_COLLATION
Не удалось определить, какую колляцию следует использовать для строковой операции. Используйте предложение COLLATE, чтобы явно задать параметры сортировки.
INDETERMINATE_COLLATION_IN_EXPRESSION
Тип данных <expr> имеет неопределённую коллацию. Используйте предложение COLLATE, чтобы явно задать параметры сортировки.
INDETERMINATE_COLLATION_IN_SCHEMA
Схема содержит неопределённую сортировку в [<columnPaths>]. Используйте предложение COLLATE, чтобы явно задать параметры сортировки.
INDEX_ALREADY_EXISTS
Невозможно создать индекс <indexName> в таблице <tableName>, так как он уже существует.
INDEX_NOT_FOUND
Не удается найти индекс <indexName> в таблице <tableName>.
INET_FUNCTIONS_NOT_ENABLED
<functionName> отключен или не поддерживается. Функции INET пока недоступны.
INFINITE_STREAMING_TRIGGER_NOT_SUPPORTED
Тип триггера <trigger> не поддерживается для этого типа кластера.
Используйте другой тип триггера, например AvailableNow, Один раз.
INSERT_COLUMN_ARITY_MISMATCH
Не удается записать в <tableName>, причина заключается в том, что
Дополнительные сведения см. в INSERT_COLUMN_ARITY_MISMATCH
INSERT_PARTITION_COLUMN_ARITY_MISMATCH
Не удается записать в "<tableName>", <reason>:
Столбцы таблицы: <tableColumns>.
Столбцы разделения с постоянными значениями: <staticPartCols>.
Столбцы данных: <dataColumns>.
INSERT_REPLACE_USING_DISALLOW_MISALIGNED_COLUMNS
Все столбцы в USING предложении должны отображаться в одной и той же позиции в целевых и исходных схемах.
USING предложение, содержащее неправильные столбцы, не поддерживается.
Неправильно выровнены следующие столбцы: <misalignedReplaceUsingCols>
INSERT_REPLACE_USING_INVALID_SET_OF_COLUMNS
Таблица должна быть секционирована, и все указанные столбцы должны представлять полный набор столбцов секционирования таблицы.
Следующие столбцы не являются столбцами секционирования: <nonPartitionColumns>
Отсутствуют следующие столбцы секций: <missingPartitionsColumns>
INSERT_REPLACE_USING_NOT_ENABLED
Обратитесь к представителю Databricks, чтобы включить функцию INSERT INTO...REPLACE USING (...).
INSUFFICIENT_PERMISSIONS
Недостаточно привилегий:
<report>
INSUFFICIENT_PERMISSIONS_EXT_LOC
У пользователя <user> недостаточные привилегии для внешнего расположения <location>.
INSUFFICIENT_PERMISSIONS_NO_OWNER
Для <securableName>нет владельца. Попросите администратора назначить владельца.
INSUFFICIENT_PERMISSIONS_OWNERSHIP_SECURABLE
Пользователь не владеет <securableName>.
INSUFFICIENT_PERMISSIONS_SECURABLE
У пользователя нет разрешений <action> на <securableName>.
INSUFFICIENT_PERMISSIONS_SECURABLE_PARENT_OWNER
Владелец <securableName> отличается от владельца <parentSecurableName>.
INSUFFICIENT_PERMISSIONS_SPARK_CONNECT_CLIENT_SET_CLOUDFETCH_RETENTION_TIMEOUT
У клиента нет разрешения на настройку пользовательского времени ожидания хранения для результатов CloudFetch.
INSUFFICIENT_PERMISSIONS_STORAGE_CRED
Учетные данные хранения <credentialName> имеют недостаточно привилегий.
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES
Пользователь не может <action> на <securableName> из-за разрешений на базовые защищаемые объекты.
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES_VERBOSE
Пользователь не может выполнить действие <action> на <securableName> из-за разрешений на подлежащие объекты безопасности.
<underlyingReport>
INTERVAL_ARITHMETIC_OVERFLOW
Переполнение целого числа при операциях с интервалами.
Дополнительные сведения см. в INTERVAL_ARITHMETIC_OVERFLOW
INTERVAL_DIVIDED_BY_ZERO
Деление на ноль. Используйте try_divide, чтобы допускать делитель, равный 0, и возвращать NULL вместо этого.
INVALID_AGGREGATE_FILTER
Выражение FILTER<filterExpr> в агрегатной функции недопустимо.
Дополнительные сведения см. в INVALID_AGGREGATE_FILTER
INVALID_AGNOSTIC_ENCODER
Найден недопустимый нейтральный энкодер. Ожидает экземпляр AgnosticEncoder, но получил <encoderType>. Дополнительные сведения см. в статье "<docroot>/api/java/index.html?org/apache/spark/sql/Encoder.html".
INVALID_ARRAY_INDEX
Индекс <indexValue> находится вне допустимого диапазона. Массив содержит элементы <arraySize>. Используйте функцию SQL get(), чтобы игнорировать доступ к элементу с недопустимым индексом и возвращать NULL вместо этого.
Дополнительные сведения см. в INVALID_ARRAY_INDEX
INVALID_ARRAY_INDEX_IN_ELEMENT_AT
Индекс <indexValue> находится вне допустимого диапазона. Массив содержит элементы <arraySize>. Используйте try_element_at, чтобы допускать доступ к элементу с недопустимым индексом и возвращать NULL.
Дополнительные сведения см. в INVALID_ARRAY_INDEX_IN_ELEMENT_AT
INVALID_ARTIFACT_PATH
Артефакт с именем <name> недопустим. Имя должно быть относительным путем и не может ссылаться на каталоги родителя, брата или племянника.
INVALID_ATTRIBUTE_NAME_SYNTAX
Синтаксическая ошибка в имени атрибута: <name>. Убедитесь, что обратные кавычки идут в парах, строка в кавычках является полной частью имени, и используйте обратную кавычку только внутри частей имени в кавычках.
INVALID_AUTO_TTL_EXPIRE_IN_DAYS
Число дней, указанное для автоотчета, должно быть неотрицательно.
INVALID_AWS_AUTHENTICATION
Выберите именно один из следующих методов проверки подлинности:
Укажите имя учетных данных службы Databricks (
<serviceCredential>) (в качестве параметра потока Spark или в качестве переменной среды кластера).Предоставьте ключи AWS AccessKey (
<awsAccessKey>) и SecretAccessKey (<awsSecretKey>) для использования ключей AWS.Не предоставьте ключи AWS и учетные данные службы Databricks для использования цепочки поставщиков учетных данных AWS по умолчанию для проверки подлинности Kinesis.
INVALID_AWS_AUTHENTICATION_EXPLICIT_OPTIONS
Пожалуйста, укажите имя учетной записи вашей службы Databricks (<serviceCredential>)
ИЛИ как <awsAccessKey>, так и <awsSecretKey>
INVALID_BITMAP_POSITION
Позиция растрового образа с нулевым индексом <bitPosition> выходит за границы. Растровое изображение имеет <bitmapNumBits> бит (<bitmapNumBytes> байт).
INVALID_BOOLEAN_STATEMENT
Логическое выражение ожидается в условии, но <invalidStatement> найдено.
INVALID_BOUNDARY
Граница <boundary> недопустима: <invalidValue>.
Дополнительные сведения см. в INVALID_BOUNDARY
INVALID_BUCKET_COLUMN_DATA_TYPE
Невозможно использовать <type> для столбца корзины. Типы данных с сортировкой не поддерживаются для разбиения на группы.
НЕВЕРНОЕ_КОЛИЧЕСТВО_КОРЗИН
Число ведер должно быть больше 0, но меньше или равно bucketing.maxBuckets (<bucketingMaxBuckets>). Получил <numBuckets>.
INVALID_BUCKET_FILE
Недопустимый файл контейнера: <path>.
INVALID_BYTE_STRING
Ожидаемый формат — ByteString, но был <unsupported> (<class>).
INVALID_CIDR_RANGE
<functionName> Функция получила недопустимый диапазон CIDR: <value>
INVALID_CLONE_SESSION_REQUEST
Недопустимый запрос клонирования сеанса.
Дополнительные сведения см. в INVALID_CLONE_SESSION_REQUEST
INVALID_COLUMN_NAME_AS_PATH
Источник данных <datasource> не может сохранить столбец <columnName>, так как его имя содержит некоторые символы, которые не допускаются в путях к файлам. Пожалуйста, используйте псевдоним для переименования.
INVALID_COLUMN_OR_FIELD_DATA_TYPE
Столбец или поле <name> имеет тип <type>, тогда как требуется тип <expectedType>.
INVALID_CONF_VALUE
Некорректное значение "<confValue>" в конфигурации "<confName>".
Дополнительные сведения см. в INVALID_CONF_VALUE
НЕДЕЙСТВИТЕЛЬНЫЕ ХАРАКТЕРИСТИКИ ОГРАНИЧЕНИЙ
Характеристики ограничений [<characteristics>] дублируются или конфликтуют друг с другом.
INVALID_CORRUPT_RECORD_TYPE
Столбец <columnName> для поврежденных записей должен иметь тип STRING null, но получил <actualType>.
INVALID_CURRENT_RECIPIENT_USAGE
функцию current_recipient можно использовать только в инструкции CREATE VIEW или инструкции ALTER VIEW для определения только представления с общим доступом в Unity Catalog.
INVALID_CURSOR
Курсор недопустим.
Дополнительную информацию см. в разделе INVALID_CURSOR
НЕДЕЙСТВИТЕЛЬНЫЙ_ФОРМАТ_ИСТОЧНИКА_ДАННЫХ_ДЛЯ_ИНЪЕКЦИИ_ПАРАМЕТРОВ_ПОДКЛЮЧЕНИЯ
Соединение с именем <connectionName> и типом <connectionType> не поддерживает формат <actualFormat>. Поддерживаемый формат: <expectedFormat>.
INVALID_DATASOURCE_OPTION_OVERRIDE_ATTEMPT
Параметр <optionName> уже существует при подключении <connectionName> и не может быть переопределен.
INVALID_DATETIME_PATTERN
Нераспознанный шаблон даты и времени: <pattern>.
Дополнительную информацию см. в INVALID_DATETIME_PATTERN
INVALID_DBFS_MOUNT
Невозможно получить доступ к подключению DBFS.
Дополнительные сведения см. в INVALID_DBFS_MOUNT
INVALID_DBSQL_CONFIG
<confValue> не поддерживается для ключа конфигурации SQL <confKey>
INVALID_DEFAULT_VALUE
Не удалось выполнить команду <statement>, так как конечный столбец или переменная <colName> имеет DEFAULT значение <defaultValue>.
Дополнительные сведения см. в INVALID_DEFAULT_VALUE
INVALID_DELIMITER_VALUE
Недопустимое значение для разделителя.
Дополнительные сведения см. в INVALID_DELIMITER_VALUE
INVALID_DEST_CATALOG
Каталог назначения команды SYNC должен находиться в каталоге Unity. Найден <catalog>.
INVALID_DRIVER_MEMORY
Системная память <systemMemory> должна быть не менее <minSystemMemory>.
Увеличьте размер кучи с помощью параметра --driver-memory или "<config>" в конфигурации Spark.
INVALID_DROP_TABLE_OPTIONS
Не удается указать оба параметра PURGE и FORCE в команде DROP TABLE. Используйте либо PURGE или FORCE, но не оба.
INVALID_DYNAMIC_OPTIONS
Переданные <option_list> параметры запрещены для внешней таблицы <table_name>.
INVALID_EMPTY_LOCATION
Имя расположения не может быть пустой строкой, но <location> было задано.
НЕВЕРНЫЕ_ПАРАМЕТРЫ_СЕРЕДЫ_ЗАВИСИМОСТЕЙ
Параметр зависимостей настроек среды отсутствует или его не удалось преобразовать в список строк. Ожидаемый формат: ["dep1", "dep2"]
INVALID_ENVIRONMENT_SETTINGS_ENVIRONMENT_VERSION
Эта версия среды выполнения не поддерживает версию среды для источников данных. Значение: <environmentVersion>.
INVALID_ERROR_CONDITION_DECLARATION
Недопустимое объявление условия.
Дополнительные сведения см. в INVALID_ERROR_CONDITION_DECLARATION
INVALID_ESC
Найдена недопустимая escape-строка: <invalidEscape>. Escape-строка должна содержать только один символ.
INVALID_ESCAPE_CHAR
EscapeChar должен быть строковым литералом длины один, но был передан <sqlExpr>.
INVALID_EXECUTOR_MEMORY
Память исполнителя <executorMemory> должна быть не менее <minSystemMemory>.
Увеличьте память исполнителя с помощью параметра --executor-memory или "<config>" в конфигурации Spark.
INVALID_EXPRESSION_ENCODER
Найден недопустимый кодировщик выражений. Ожидает экземпляр ExpressionEncoder, но получил <encoderType>. Дополнительные сведения см. в статье "<docroot>/api/java/index.html?org/apache/spark/sql/Encoder.html".
INVALID_EXPR_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE
Тип выражения должен быть строковым типом, но получил.<exprType>
INVALID_EXTERNAL_TYPE
Внешний тип <externalType> недопустим для типа <type> выражения <expr>.
INVALID_EXTRACT_BASE_FIELD_TYPE
Не удается извлечь значение из <base>. Требуется сложный тип [STRUCT, ARRAY, MAP] но получил <other>.
INVALID_EXTRACT_FIELD
Не удается извлечь <field> из <expr>.
INVALID_EXTRACT_FIELD_TYPE
Имя поля должно быть ненулевой строковой литерал — это <extraction>.
INVALID_FIELD_NAME
Имя поля <fieldName> недопустимо: <path> не является структурой.
INVALID_FLOW_QUERY_TYPE
Поток <flowIdentifier> возвращает недопустимый тип связи.
См. подробности в разделе INVALID_FLOW_QUERY_TYPE
INVALID_FORMAT
Недопустимый формат: <format>.
Дополнительные сведения смотрите в INVALID_FORMAT
INVALID_FRACTION_OF_SECOND
Допустимый диапазон значений для секунд — [0, 60] (включительно), но введённое значение — <secAndMicros>. Чтобы избежать этой ошибки, используйте try_make_timestamp, которая возвращает NULL при ошибке.
Если вы не хотите использовать версию метки времени сеанса по умолчанию этой функции, используйте try_make_timestamp_ntz или try_make_timestamp_ltz.
INVALID_GET_DIAGNOSTICS_USAGE
Недопустимое использование инструкции GETDIAGNOSTICS .
Для получения дополнительных сведений см. в INVALID_GET_DIAGNOSTICS_USAGE
INVALID_GET_DIAGNOSTICS_USAGE_CONDITION_NUMBER_MUST_BE_ONE
Недопустимое использование инструкции GETDIAGNOSTICS . Единственное поддерживаемое значение для номера условия в инструкции GETDIAGNOSTICS — 1.
INVALID_HANDLE
Недопустимый дескриптор <handle>.
Дополнительные сведения см. в INVALID_HANDLE
INVALID_HANDLER_DECLARATION
Недопустимое объявление обработчика.
Дополнительные сведения см. в разделе INVALID_HANDLER_DECLARATION
INVALID_HTTP_REQUEST_METHOD
Входной параметр: метод, значение: <paramValue> не является допустимым параметром для http_request, так как он не является допустимым методом HTTP.
INVALID_HTTP_REQUEST_PATH
Входной параметр: путь, значение: <paramValue> не является допустимым параметром для http_request, так как обход пути не допускается.
INVALID_IDENTIFIER
Недопустимый неквалифицированный идентификатор <ident> должен быть заключен в кавычки следующим образом: <ident>.
Неквотируемые идентификаторы могут содержать только буквы ('a' - 'z', 'A' - 'Z'), цифры ('0' - '9') и символ нижнего подчеркивания ('_').
Неквотированные идентификаторы также не должны начинаться с цифры.
Различные источники данных и хранилища метаданных могут накладывать дополнительные ограничения на допустимые идентификаторы.
INVALID_INDEX_OF_ZERO
Индекс 0 недопустим. Индекс должен иметь значение < 0 or > 0 (первый элемент имеет индекс 1).
INVALID_INLINE_TABLE
Недопустимая встроенная таблица.
Дополнительные сведения см. в INVALID_INLINE_TABLE
INVALID_INTERVAL_FORMAT
Ошибка синтаксического анализа '<input>' в интервале. Убедитесь, что указанное значение имеет допустимый формат для определения интервала. Вы можете обратиться к документации для получения правильного формата.
Дополнительные сведения см. в INVALID_INTERVAL_FORMAT
INVALID_INTERVAL_WITH_MICROSECONDS_ADDITION
Невозможно добавить интервал к дате, так как часть микросекунд не равна 0. Чтобы устранить эту проблему, приведите входную дату к метке времени, которая поддерживает добавление интервалов с ненулевыми микросекундами.
INVALID_IP_ADDRESS
<functionName> Функция получила недопустимый IP-адрес: <value>
INVALID_IP_ADDRESS_OR_CIDR_RANGE
<functionName> Функция получила недопустимый IP-адрес или диапазон CIDR: <value>
INVALID_JAVA_IDENTIFIER_AS_FIELD_NAME
<fieldName> не является допустимым идентификатором Java и не может использоваться в качестве имени поля.
<walkedTypePath>.
INVALID_JDBC_CONNECTION_OPTION
<optionKey> не является допустимой опцией для этого подключения jdbc.
INVALID_JDBC_CONNECTION_OPTION_VALUE
<optionKey> Параметр со значением <optionValue> не является допустимым параметром для этого подключения jdbc.
INVALID_JOIN_TYPE_FOR_JOINWITH
Недопустимый тип соединения в joinWith: <joinType>.
INVALID_JSON_DATA_TYPE
Не удалось преобразовать JSON строку '<invalidType>' в тип данных. Введите допустимый тип данных.
INVALID_JSON_DATA_TYPE_FOR_COLLATIONS
Параметры сортировки можно применять только к типам строк, но JSON тип данных .<jsonType>
INVALID_JSON_RECORD_TYPE
Обнаружен недопустимый тип JSON записи при выводе общей схемы в режиме <failFastMode>. Ожидается тип STRUCT, но найден <invalidType>.
INVALID_JSON_ROOT_FIELD
Не удается преобразовать JSON корневое поле в целевой тип Spark.
INVALID_JSON_SCHEMA_MAP_TYPE
Входная схема <jsonSchema> может содержать только STRING в качестве типа ключа для MAP.
INVALID_KRYO_SERIALIZER_BUFFER_SIZE
Значение конфигурации "<bufferSizeConfKey>" должно быть меньше 2048 MiB, но получил <bufferSizeConfValue> MiB.
INVALID_KRYO_SERIALIZER_NO_DATA
Объект '<obj>' является недопустимым или неисправным при использовании в <serdeOp> с помощью <serdeClass>.
INVALID_LABEL_USAGE
Недопустимое использование метки <labelName>.
Дополнительные сведения см. в INVALID_LABEL_USAGE
INVALID_LAMBDA_FUNCTION_CALL
Недопустимый вызов лямбда-функции.
Дополнительные сведения см. в INVALID_LAMBDA_FUNCTION_CALL
INVALID_LATERAL_JOIN_TYPE
<joinType>
JOIN с корреляцией LATERAL не допускается, поскольку подзапрос OUTER не может коррелировать со своим партнером соединения. Удалите корреляцию LATERAL или используйте INNERJOINили ЛЕВУЮ OUTERJOIN.
INVALID_LIMIT_LIKE_EXPRESSION
Недопустимое ограничение, например выражение <expr>.
Дополнительные сведения см. в INVALID_LIMIT_LIKE_EXPRESSION
INVALID_LOG_VERSION
UnsupportedLogVersion.
Дополнительные сведения см. в INVALID_LOG_VERSION
INVALID_NAME_IN_USE_COMMAND
Недопустимое имя '<name>' в <command> команде. Причина: <reason>
INVALID_NON_ABSOLUTE_PATH
Указанный не абсолютный путь <path> не может быть квалифицирован. Обновите путь, чтобы он был допустимой точкой подключения dbfs.
INVALID_NON_DETERMINISTIC_EXPRESSIONS
Оператор ожидает детерминированное выражение, но фактическое выражение является <sqlExprs>.
INVALID_NUMERIC_LITERAL_RANGE
Числовой литерал <rawStrippedQualifier> находится вне допустимого диапазона для <typeName> с минимальным значением <minValue> и максимальным значением <maxValue>. Измените значение соответствующим образом.
INVALID_OBSERVED_METRICS
Недопустимые наблюдаемые показатели.
Для получения дополнительной информации см. INVALID_OBSERVED_METRICS
INVALID_OPTIONS
Недопустимые параметры:
Дополнительные сведения см. в INVALID_OPTIONS
INVALID_PANDAS_UDF_PLACEMENT
Групповая агрегатная функция pandas UDF <functionList> не может вызываться вместе с другими агрегатными функциями, отличными от pandas.
INVALID_PARAMETER_MARKER_VALUE
Было предоставлено недопустимое сопоставление параметров:
Дополнительные сведения см. в INVALID_PARAMETER_MARKER_VALUE
INVALID_PARAMETER_VALUE
значение параметра(-ов) <parameter> в <functionName> недопустимо.
Дополнительные сведения см. в INVALID_PARAMETER_VALUE
INVALID_PARTITION_COLUMN_DATA_TYPE
Не удается использовать <type> для столбца секционирования.
INVALID_PARTITION_OPERATION
Недопустимая команда раздела.
Дополнительные сведения см. в INVALID_PARTITION_OPERATION
INVALID_PARTITION_VALUE
Не удалось привести значение <value> к типу данных <dataType> для столбца секционирования <columnName>. Убедитесь, что значение соответствует ожидаемому типу данных для этого столбца раздела.
INVALID_PIPELINE_ID
Идентификатор конвейера <pipelineId> недействителен.
Идентификатор трубопровода должен быть UUID в формате: 'xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx'.
INVALID_PRIVILEGE
<privilege> привилегия недопустима для <securable>.
INVALID_PROPERTY_KEY
<key> — недопустимый ключ свойства, например SET <key>=<value>, используйте кавычки.
INVALID_PROPERTY_VALUE
<value> — недопустимое значение свойства, например, используйте кавычки. SET <key>=<value>
INVALID_QUALIFIED_COLUMN_NAME
Имя столбца <columnName> недопустимо, так как оно не соответствует имени таблицы или состоит из более чем 4 частей имени.
INVALID_QUERY_MIXED_QUERY_PARAMETERS
Параметризованный запрос должен использовать позиционные или именованные параметры, но не оба.
INVALID_RECURSIVE_CTE
Найдено недопустимое рекурсивное определение. Рекурсивные запросы должны содержать либо инструкцию UNION, либо инструкцию UNION ALL с 2 дочерними элементами. Первый ребенок должен быть опорным термином без рекурсивных ссылок. Ни один внутренний CTE верхнего уровня не должен содержать собственные ссылки.
INVALID_RECURSIVE_REFERENCE
Недопустимая рекурсивная ссылка, найденная внутри WITH RECURSIVE предложения.
Дополнительные сведения см. в INVALID_RECURSIVE_REFERENCE
INVALID_REGEXP_REPLACE
Не удалось выполнить regexp_replace для источника = "<source>", шаблон = "<pattern>", замена = "<replacement>" и положение = <position>.
НЕВЕРОЯТНАЯ ЗАВИСИМОСТЬ С ВОЗМОЖНОСТЬЮ СБРОСА
Таблицы <upstreamResettableTables> сбрасываемые, но имеют неизменяемую нисходящую зависимость <downstreamTable>.
reset завершится сбоем, так как потоковая передача Spark не поддерживает удаленные исходные данные. Можно либо удалить свойство <resetAllowedKey>=false из '<downstreamTable>', либо добавить его в его вышестоящие зависимости.
INVALID_RESET_COMMAND_FORMAT
Ожидаемый формат — "RESET" или "RESET ключ". Если вы хотите включить специальные символы в ключ, используйте кавычки, например RESET key.
INVALID_RESIGNAL_USAGE
RESIGNAL если обработчик не активен.
RESIGNAL оператор можно использовать только внутри текста обработчика исключений.
INVALID_S3_COPY_CREDENTIALS
COPY INTO учетные данные должны включать AWS_ACCESS_KEY, AWS_SECRET_KEYи AWS_SESSION_TOKEN.
INVALID_SAVE_MODE
Указанный режим сохранения <mode> недопустим. Допустимые режимы сохранения включают "добавить", "перезаписать", "игнорировать", "ошибка", "ошибка, если существует" и "по умолчанию".
INVALID_SCHEMA
Входная схема <inputSchema> не является допустимой строкой схемы.
Дополнительные сведения см. в INVALID_SCHEMA
INVALID_SCHEMA_OR_RELATION_NAME
<name> не является допустимым именем для таблиц и схем. Допустимые имена содержат только символы алфавита, цифры и _.
INVALID_SCHEMA_TYPE_NON_STRUCT
Недопустимый тип схемы. Ожидался тип struct, но получено <dataType>.
INVALID_SCHEME
Каталог Unity не поддерживает <name> в качестве схемы файлов по умолчанию.
INVALID_SECRET_LOOKUP
Недопустимый поиск секретов:
Дополнительные сведения см. в INVALID_SECRET_LOOKUP
INVALID_SET_SYNTAX
Ожидаемый формат — 'SET', 'SET ключ', или 'SET ключ=значение'. Если вы хотите включить специальные символы в ключ или включить точку с запятой в значение, используйте backquotes, например SET key=value.
INVALID_SHARED_ALIAS_NAME
Псевдоним <sharedObjectType> должен иметь форму "schema.name".
INVALID_SINGLE_VARIANT_COLUMN
Указанная пользователем схема <schema> недопустима при включении параметра singleVariantColumn. Схема должна быть либо полем варианта, либо полем варианта плюс поврежденным полем столбца.
INVALID_SOURCE_CATALOG
Исходный каталог не должен находиться в каталоге Unity для команды SYNC. Найден <catalog>.
INVALID_SOURCE_FOR_FILTERING_SERVICE_MERGE_COMMAND
Источник операции фильтрации службы MERGE может содержать только проекции и фильтры.
Пожалуйста, скорректируйте команду MERGE или используйте промежуточную таблицу в качестве источника.
<stmt>
INVALID_SPARK_CONFIG
Недопустимая конфигурация Spark:
Дополнительные сведения см. в INVALID_SPARK_CONFIG
INVALID_SQLSTATE
Недопустимое SQLSTATE значение: '<sqlState>'.
SQLSTATE должно быть ровно 5 символов длиной и содержать только A-Z и 0-9.
SQLSTATE не должно начинаться с "00", "01" или "XX".
INVALID_SQL_ARG
Аргумент <name> для sql() является недопустимым. Рекомендуется заменить его литералом SQL или функциями конструктора коллекций, такими как map(), array(), struct().
INVALID_SQL_FUNCTION_DATA_ACCESS
Не удается создать функцию SQL с CONTAINS SQL, которая обращается к таблице или представлению или функции SQL, считывающей данные SQL. Вместо этого используйте READS SQL DATA.
INVALID_SQL_SYNTAX
Недопустимый синтаксис SQL:
Дополнительные сведения см. в INVALID_SQL_SYNTAX
INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY
Недопустимый промежуточный путь в промежуточном запросе <operation>: <path>
INVALID_STATEMENT_FOR_EXECUTE_INTO
Пункт INTO из EXECUTE IMMEDIATE допустим только для запросов, но данное утверждение не является запросом: <sqlString>.
INVALID_STATEMENT_OR_CLAUSE
Оператор или условие: <operation> недопустим.
НЕДОПУСТИМАЯ ВЕРСИЯ ИСТОЧНИКА СКОРОСТИ ПОТОКА
Недопустимая версия источника частоты: <version> Версия должна быть либо 1, либо 2.
INVALID_STREAMING_REAL_TIME_MODE_TRIGGER_INTERVAL
Интервал триггера в режиме реального времени установлен на <interval> мс. Это меньше, чем минимальное значение в <minBatchDuration> ms, указанное в spark.databricks.streaming.realTimeMode.minBatchDuration.
INVALID_STREAMING_REAL_TIME_MODE_TRIGGER_OVERRIDE_INTERVAL
Не удалось проанализировать интервал контрольной точки триггера режима реального времени <interval>. Проверьте, что вы передали положительное целое число.
INVALID_SUBQUERY_EXPRESSION
Недопустимый вложенный запрос:
Дополнительные сведения см. в INVALID_SUBQUERY_EXPRESSION
INVALID_TARGET_FOR_ALTER_COMMAND
ALTER <commandTableType>
...
<command> не поддерживает <tableName>. Вместо этого используйте ALTER <targetTableType>...<command> .
INVALID_TARGET_FOR_SET_TBLPROPERTIES_COMMAND
ALTER <commandTableType>
...
SET TBLPROPERTIES не поддерживает <tableName>. Вместо этого используйте ALTER <targetTableType>...SET TBLPROPERTIES .
INVALID_TEMP_OBJ_REFERENCE
Не удается создать постоянный объект <objName> типа <obj>, так как он ссылается на временный объект <tempObjName> типа <tempObj>. Сделайте временный объект <tempObjName> постоянным или сделайте постоянный объект <objName> временным.
INVALID_TIMESTAMP_FORMAT
Указанная метка <timestamp> времени не соответствует ожидаемому синтаксису <format>.
INVALID_TIMEZONE
Часовой пояс: <timeZone> некорректен. Часовой пояс должен быть либо зоной, определяемой регионом, либо смещением зоны. Идентификаторы регионов должны иметь форму "область/город", например "Америка/Los_Angeles". Смещения зоны должны быть в формате "(+|-)HH", "(+|-)HH:mm" или "(+|-)HH:mm:ss", например "-08", "+01:00" или "-13:33:33", и должны находиться в диапазоне от -18:00 до +18:00. "Z" и "UTC" принимаются в качестве синонимов для "+00:00".
INVALID_TIME_TRAVEL_SPEC
Нельзя одновременно указывать версию и временную точку при доступе к таблице во времени.
INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
Недопустимое выражение временной метки для путешествия во времени <expr>.
Дополнительные сведения см. в INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
INVALID_TYPED_LITERAL
Значение заданного литерала <valueType> является недействительным: <value>.
INVALID_UDF_IMPLEMENTATION
Функция <funcName> не реализует ScalarFunction или AggregateFunction.
INVALID_UPGRADE_SYNTAX
<command> <supportedOrNot> исходная таблица находится в хранилище метаданных Hive, а целевая таблица находится в каталоге Unity.
INVALID_URL
Url-адрес недопустим: <url>. Используйте try_parse_url, чтобы не допускать недопустимый URL-адрес и возвращать NULL.
INVALID_USAGE_OF_STAR_OR_REGEX
Недопустимое использование <elem> в <prettyName>.
INVALID_UTF8_STRING
Недопустимая последовательность байтов UTF8, найденная в строке: <str>.
INVALID_UUID
Вход <uuidInput> не является допустимым идентификатором UUID.
UUID должен быть в формате 'xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx'.
Проверьте формат UUID.
INVALID_VARIABLE_DECLARATION
Недопустимое объявление переменной.
Дополнительные сведения см. в INVALID_VARIABLE_DECLARATION
INVALID_VARIANT_CAST
Вариантное значение <value> невозможно привести к <dataType>. Вместо этого используйте try_variant_get.
INVALID_VARIANT_FROM_PARQUET
Недопустимый вариант.
Дополнительные сведения см. в INVALID_VARIANT_FROM_PARQUET
INVALID_VARIANT_GET_PATH
Путь <path> не является допустимым путем для извлечения вариантов в <functionName>.
Допустимый путь должен начинаться с $ нуля или более сегментов, например [123], .name, ['name'], или ["name"].
INVALID_VARIANT_SHREDDING_SCHEMA
Схема <schema> не является допустимой схемой измельчения вариантов.
INVALID_WHERE_CONDITION
Условие WHERE<condition> содержит недопустимые выражения: <expressionList>.
Переопределите запрос, чтобы избежать функций окон, агрегатных функций и функций генератора в предложении WHERE.
INVALID_WINDOW_SPEC_FOR_AGGREGATION_FUNC
Не удается указать ORDER BY или рамку окна для <aggFunc>.
INVALID_WITHIN_GROUP_EXPRESSION
Недопустимая функция <funcName> с WITHIN GROUP.
Для получения дополнительной информации см. INVALID_WITHIN_GROUP_EXPRESSION.
INVALID_WRITER_COMMIT_MESSAGE
Модуль записи источников данных создал недопустимое количество сообщений о фиксации. Ожидается только одно сообщение коммита от каждой задачи, но получено <detail>.
INVALID_WRITE_DISTRIBUTION
Запрошенное распределение записи недействительно.
Дополнительные сведения см. в INVALID_WRITE_DISTRIBUTION
IRC_CREDENTIAL_VENDING_ERROR
Произошла ошибка при подключении к узлу IRC, не удается отправить учетные данные для таблицы <tableIdentifier>.
Дополнительные сведения см. в IRC_CREDENTIAL_VENDING_ERROR
ISOLATED_COMMAND_FAILURE
Не удалось выполнить <command>. Выходные данные команды:
<output>
ISOLATED_COMMAND_UNKNOWN_FAILURE
Не удалось выполнить <command>.
ISOLATION_ENVIRONMENT_ERROR
Не удалось установить зависимости <name> среды из-за системной ошибки.
Дополнительные сведения см. в ISOLATION_ENVIRONMENT_ERROR
ISOLATION_ENVIRONMENT_USER_ERROR
Не удалось установить зависимости среды для <name>.
Дополнительные сведения см. в ISOLATION_ENVIRONMENT_USER_ERROR
JDBC_EXTERNAL_ENGINE_SYNTAX_ERROR
Ошибка синтаксиса внешнего ядра JDBC. Ошибка была вызвана запросом <jdbcQuery>.
<externalEngineError>.
Дополнительные сведения см. в разделе JDBC_EXTERNAL_ENGINE_SYNTAX_ERROR
JOIN_CONDITION_IS_NOT_BOOLEAN_TYPE
Условие соединения <joinCondition> имеет неправильный тип <conditionType>, ожидается "BOOLEAN".
KAFKA_DATA_LOSS
Некоторые данные могут быть потеряны, так как они больше не доступны в Kafka;
Либо данные были устаревшими и удалены Kafka, либо раздел мог быть удалён до того, как все данные были обработаны.
была обработана тема.
Если вы не хотите, чтобы потоковый запрос завершился ошибкой в таких случаях, установите для параметра источника failOnDataLoss значение false.
Reason:
Дополнительные сведения см. в KAFKA_DATA_LOSS
KINESIS_COULD_NOT_READ_SHARD_UNTIL_END_OFFSET
Не удалось прочитать сегмент <endSeqNum> до требуемого номера последовательности <shardId>.
поток Kinesis <stream> с режимом потребителя <consumerMode>. Запрос завершится ошибкой из-за
потенциальная потеря данных. Последняя прочитанная запись имела номер последовательности <lastSeqNum>.
Это может произойти, если данные с endSeqNum уже устарели, или поток Kinesis был удален.
удален и восстановлен с тем же именем. Характер сбоя может быть переопределен
установив параметр spark.databricks.kinesis.failOnDataLoss в значение false в конфигурации Spark.
KINESIS_EFO_CONSUMER_NOT_FOUND
Для потока kinesis <streamId>ранее зарегистрированный потребитель EFO <consumerId> потока был удален.
Перезапустите запрос, чтобы новый потребитель был зарегистрирован.
KINESIS_EFO_SUBSCRIBE_LIMIT_EXCEEDED
Для шарда <shard>предыдущий вызов API subscribeToShard происходил в течение 5 секунд перед следующим вызовом.
Перезапустите запрос через 5 секунд или более.
KINESIS_FETCHED_SHARD_LESS_THAN_TRACKED_SHARD
Минимальный извлечённый shardId из Kinesis (<fetchedShardId>)
меньше, чем минимальный отслеживаемый идентификатор сегмента (<trackedShardId>).
Это непредвиденное и возникает при удалении и повторном создании потока Kinesis с тем же именем.
и запрос потоковой передачи, использующий этот поток Kinesis, перезапускается из существующего расположения контрольной точки.
Перезапустите потоковый запрос с новым расположением контрольной точки или создайте поток с новым именем.
KINESIS_POLLING_MODE_UNSUPPORTED
Режим опроса Kinesis не поддерживается.
KINESIS_RECORD_SEQ_NUMBER_ORDER_VIOLATION
Для шард <shard>, последняя запись, считанная из Kinesis в ходе предыдущих выборок, имеет номер последовательности <lastSeqNum>,
значение больше, чем запись, прочитанная в текущем запросе с номером последовательности <recordSeqNum>.
Это неожиданно и может произойти, когда неправильно инициализирована начальная позиция для повторной попытки или следующего получения, и это может привести к дублированию записей в дальнейшем.
KINESIS_SOURCE_MUST_BE_IN_EFO_MODE_TO_CONFIGURE_CONSUMERS
Для чтения из Kinesis Streams с конфигурациями потребителей (consumerName, consumerNamePrefixили registeredConsumerId) consumerMode должны быть efo.
KINESIS_SOURCE_MUST_SPECIFY_REGISTERED_CONSUMER_ID_AND_TYPE
Чтобы читать из Kinesis Streams с зарегистрированными потребителями, необходимо указать параметры registeredConsumerId и registeredConsumerIdType.
KINESIS_SOURCE_MUST_SPECIFY_STREAM_NAMES_OR_ARNS
Чтобы прочитать из Kinesis Streams, необходимо настроить один из параметров streamName или streamARN в виде списка, разделенного запятыми, из имен потоков или ARN.
KINESIS_SOURCE_NO_CONSUMER_OPTIONS_WITH_REGISTERED_CONSUMERS
Чтобы прочитать из Kinesis Streams с зарегистрированными потребителями, не настраивайте параметры consumerName или consumerNamePrefix, так как они не будут действовать.
KINESIS_SOURCE_REGISTERED_CONSUMER_ID_COUNT_MISMATCH
Число зарегистрированных идентификаторов потребителей должно быть равно количеству потоков Kinesis, но было получено <numConsumerIds> идентификаторов потребителей и <numStreams> потоков.
KINESIS_SOURCE_REGISTERED_CONSUMER_NOT_FOUND
Предоставленный зарегистрированный потребитель <consumerId> не найден для streamARN <streamARN>. Убедитесь, что вы зарегистрировали потребителя или не предоставили параметр registeredConsumerId.
KINESIS_SOURCE_REGISTERED_CONSUMER_TYPE_INVALID
Зарегистрированный тип потребителя <consumerType> недопустим. Он должен быть либо name, либо ARN.
KLL_SKETCH_INCOMPATIBLE_MERGE
Для функции <functionName>не удается объединить эскизы KLL: <reason>
KLL_SKETCH_INVALID_INPUT
Для функции <functionName>недопустимые двоичные данные КЛЛ: <reason>
KLL_SKETCH_INVALID_QUANTILE_RANGE
Для функции <functionName>значение квантильного значения должно быть от 0,0 до 1,0 (включительно), но получил.<quantile>
KLL_SKETCH_K_MUST_BE_CONSTANT
Для функции <functionName>параметр k должен быть константным значением, но получил неконстантное выражение.
KLL_SKETCH_K_OUT_OF_RANGE
Для функции <functionName>параметр k должен быть от 8 до 65535 (включительно), но получил <k>.
KRYO_BUFFER_OVERFLOW
Сбой сериализации Крио: <exceptionMsg>. Чтобы избежать этого, увеличьте значение "<bufferSizeConfKey>".
LABELS_MISMATCH
Начальная метка <beginLabel> не соответствует конечной метке <endLabel>.
Метка или переменная с таким именем уже существует
Метка или FOR переменная <label> уже существует. Выберите другое имя или переименуйте существующий.
МЕТКА_ИЛИ_ИМЯ_ПЕРЕМЕННОЙ_ЗАПРЕЩЕНО
Использование названия метки или переменной FOR и <label> не разрешено.
LAKEHOUSE_FEDERATION_DATA_SOURCE_REQUIRES_NEWER_DBR_VERSION
Источник данных федерации Lakehouse "<provider>" требует более новой версии Databricks Runtime.
Дополнительные сведения см. в LAKEHOUSE_FEDERATION_DATA_SOURCE_REQUIRES_NEWER_DBR_VERSION
LATERAL_JOIN_WITH_ARROW_UDTF_UNSUPPORTED
LATERAL
JOIN Пользовательские табличные функции (UDTF), оптимизированные с помощью Arrow, не поддерживаются. Функции UDTF Arrow нельзя использовать в правой части LATERAL JOIN.
Вместо этого используйте обычный UDTF или переструктурируйте запрос, чтобы избежать бокового соединения.
LEGACY_CREATE_TEMP_TABLE_WITHOUT_PROVIDER_NOT_SUPPORTED
CREATE TEMPORARY TABLE без поставщика не допускается.
LOAD_DATA_PATH_NOT_EXISTS
LOAD DATA входной путь не существует: <path>.
LOCAL_MUST_WITH_SCHEMA_FILE
LOCAL необходимо использовать вместе со схемой file, но получил: <actualSchema>.
LOCATION_ALREADY_EXISTS
Не удается назвать управляемую таблицу как <identifier>, так как ее связанное расположение <location> уже существует. Сначала выберите другое имя таблицы или удалите существующее расположение.
LOST_TOPIC_PARTITIONS_IN_END_OFFSET_WITH_TRIGGER_AVAILABLENOW
Некоторые разделы в темах Kafka были потеряны во время выполнения запроса с Trigger.AvailableNow. Ошибка может быть временной — перезапустить запрос и сообщить, если вы по-прежнему видите ту же проблему.
Разделы для последнего смещения: <tpsForLatestOffset>, разделы для конечного смещения: <tpsForEndOffset>
MALFORMED_AVRO_MESSAGE
Неправильные сообщения Avro обнаруживаются при десериализации. Режим синтаксического анализа: <mode>. Чтобы обработать неправильно сформированное сообщение Avro в качестве результата NULL, попробуйте задать параметр mode в качестве "PERMISSIVE".
MALFORMED_CHARACTER_CODING
Недопустимое значение, обнаруженное при выполнении <function> с <charset>
MALFORMED_CSV_RECORD
Неправильно сформированная запись CSV: <badRecord>
MALFORMED_LOG_FILE
Файл журнала был неправильно сформирован: не удалось считывать правильную версию журнала из <text>.
MALFORMED_PROTOBUF_MESSAGE
Деформированные сообщения Protobuf обнаруживаются при десериализации сообщений. Режим синтаксического анализа: <failFastMode>. Чтобы обработать неправильно сформированное сообщение protobuf как пустой результат, попробуйте задать параметр 'mode' равным 'PERMISSIVE'.
MALFORMED_RECORD_IN_PARSING
Неправильные записи обнаружены при синтаксическом анализе записей: <badRecord>.
Режим синтаксического анализа: <failFastMode>. Чтобы обработать неправильно сформированные записи в качестве результата NULL, попробуйте задать параметр mode в качестве "PERMISSIVE".
Дополнительные сведения см. в MALFORMED_RECORD_IN_PARSING
MALFORMED_STATE_IN_RATE_PER_MICRO_BATCH_SOURCE
Неправильно сформированное состояние в источнике RatePerMicroBatch.
Дополнительные сведения см. в MALFORMED_STATE_IN_RATE_PER_MICRO_BATCH_SOURCE
MALFORMED_VARIANT
Вариант двоичного файла неправильно сформирован. Проверьте, является ли источник данных допустимым.
MANAGED_ICEBERG_ATTEMPTED_TO_ENABLE_CLUSTERING_WITHOUT_DISABLING_DVS_OR_ROW_TRACKING
Попытка включить кластеризацию Liquid в управляемой таблице Apache Iceberg без отключения векторов удаления и отслеживания строк. Векторы удаления и отслеживание строк не поддерживаются для таблиц Managed Apache Iceberg, но необходимы для параллелизма на уровне строк с таблицами Liquid. Чтобы включить кластеризацию Liquid в управляемой таблице Apache Iceberg с уменьшенным контролем параллелизма, для этой таблицы необходимо отключить векторы удаления и отслеживание строк.
MANAGED_ICEBERG_OPERATION_NOT_SUPPORTED
Управляемые таблицы Apache Iceberg не поддерживают <operation>.
MANAGED_TABLE_WITH_CRED
Создание управляемой таблицы с учетными данными хранения не поддерживается.
MATERIALIZED_VIEW_MESA_REFRESH_WITHOUT_PIPELINE_ID
Невозможно выполнить <refreshType> для материализованного представления, так как оно создано до появления идентификатора конвейера. Чтобы включить <refreshType>, удалите материализованное представление и создайте его заново.
MATERIALIZED_VIEW_NOT_INCREMENTALIZABLE
Не удается создать материализованное представление с <refreshPolicy> политикой обновления, так как оно не поддерживается для добавочного обновления. Reason:
Дополнительные сведения см. в MATERIALIZED_VIEW_NOT_INCREMENTALIZABLE
MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
Операция материализованного представления <operation> запрещена.
Пожалуйста, см. дополнительные сведения в MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
MATERIALIZED_VIEW_OUTPUT_WITHOUT_EXPLICIT_ALIAS
Выходное выражение <expression> в материализованном представлении должно быть явно обозначено.
MATERIALIZED_VIEW_OVER_STREAMING_QUERY_INVALID
материализованное представление <name> не удалось создать с помощью потокового запроса. Используйте CREATE [OR REFRESH] STREAMING TABLE или удалите ключевое STREAM слово в предложении FROM , чтобы превратить это отношение в пакетный запрос.
MATERIALIZED_VIEW_UNSUPPORTED_OPERATION
Операция <operation> в настоящее время не поддерживается материализованными представлениями.
MAX_NUMBER_VARIABLES_IN_SESSION_EXCEEDED
Не удается создать новую переменную <variableName>, так как число переменных в сеансе превышает максимально допустимое число (<maxNumVariables>).
MAX_RECORDS_PER_FETCH_INVALID_FOR_KINESIS_SOURCE
maxRecordsPerFetch должен быть положительным целым числом меньше или равно <kinesisRecordLimit>
MCV_INVALID_INPUT_SKETCH_BUFFER
Недопустимый вызов <function>; поддерживаются только допустимые буферы эскизов MCV (например, созданные mcv_collect_internal функцией).
MERGE_CARDINALITY_VIOLATION
Условие поиска ON инструкции MERGE сопоставило одну строку целевой таблицы с несколькими строками исходной таблицы.
Это может привести к тому, что над целевой строкой проводится операция обновления или удаления более одного раза, что не допускается.
MERGE_WITHOUT_WHEN
В операторе WHEN должно быть по крайней мере одно условие MERGE.
METRIC_CONSTRAINT_NOT_SUPPORTED
METRIC CONSTRAINT не активирован.
METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
Предоставленное значение "<argValue>" не поддерживается аргументом "<argName>" для METRIC_STORE функции таблицы.
Дополнительные сведения см. в METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
METRIC_STORE_UNSUPPORTED_ERROR
Подпрограмма хранилища метрик <routineName> в настоящее время отключена в этой среде.
METRIC_VIEW_AMBIGUOUS_JOIN_CRITERIA
Определение представления метрик содержит соединение с неоднозначными критериями: <expr> [Используйте критерии using соединения или явно квалифицируйте столбцы с псевдонимом <sourceAlias> .]
METRIC_VIEW_CACHE_TABLE_NOT_SUPPORTED
Использование таблиц кеша в представлении метрик не допускается.
METRIC_VIEW_FEATURE_DISABLED
Функция представления метрик отключена. Убедитесь, что для параметра "spark.databricks.sql.metricView.enabled" задано значение true.
METRIC_VIEW_INVALID_MEASURE_FUNCTION_INPUT
Функция MEASURE() принимает только атрибут в качестве входных данных, но получил <expr>
METRIC_VIEW_INVALID_VIEW_DEFINITION
Недопустимое определение представления метрик. Причина: <reason>.
METRIC_VIEW_IN_CTE_NOT_SUPPORTED
Представление метрик запрещено в определениях CTE. план: <plan>
METRIC_VIEW_JOIN_NOT_SUPPORTED
Использование соединений в представлении метрик запрещено. план: <plan>
METRIC_VIEW_MATERIALIZATIONS_DISABLED
Материализация представления метрик отключена. Убедитесь, что для параметра spark.databricks.sql.metricView.materializations.enabled задано значение true.
MATERIALIZACИИ_ПРЕДСТАВЛЕНИЙ_МЕТРИК_БЕЗ_АГРЕГИРОВАНИЯ_С_ПРЕДСТАВЛЕНИЕМ_МЕТРИК
Нерегрегированная материализация не поддерживается, если представление метрик ссылается на другие представления метрик.
МАТЕРИАЛИЗАЦИЯ_METRIC_VIEW_НА_ВРЕМЕННОМ_ПРЕДСТАВЛЕНИИ_НЕПОДДЕРЖИВАЕТСЯ
Материализация не поддерживается во временных представлениях метрик.
METRIC_VIEW_MATERIALIZATION_WITH_INVOKER_DEPENDENT_EXPRESSIONS_NOT_SUPPORTED
Материализация не поддерживается для представлений метрик, содержащих выражения, зависящие от вызова. Эти выражения предотвращают повторное использование материализации.
METRIC_VIEW_MEASURE_IN_GROUP_BY
<measureColumns> столбцы мер нельзя использовать в предложении или в GROUP BY качестве категориальных значений. Рекомендуется упаковать их с помощью статистической функции, например SUM() для ожидаемого поведения.
METRIC_VIEW_MISSING_MEASURE_FUNCTION
Использование столбца мер <column> представления метрик требует MEASURE() функции для получения результатов.
METRIC_VIEW_NOT_MATERIALIZED
Вызывается команда материализованного представления в представлении метрик без определенных материализации
Дополнительные сведения см. в METRIC_VIEW_NOT_MATERIALIZED
ПРЕДСТАВЛЕНИЕ_МЕТРИК_НЕ_ПОДДЕРЖИВАЕТСЯ_В_HMS
Метрические представления не поддерживаются в HMS.
METRIC_VIEW_RENAME_DIFFERENT_CATALOG_AND_SCHEMA
Запрещено переименовывать представление <oldName> метрик в другой каталог или другую схему: <newName>.
METRIC_VIEW_SNOWFLAKE_JOIN_FEATURE_DISABLED
Функция соединения snowflake с представлением метрик отключена. Убедитесь, что для параметра spark.databricks.sql.metricView.snowflake.join.enable задано значение true.
METRIC_VIEW_UNSUPPORTED_USAGE
Использование представления метрик не поддерживается. план: <plan>
METRIC_VIEW_WINDOW_FUNCTION_NOT_SUPPORTED
Запрещено использовать оконную функцию <expr>для представления метрик.
METRIC_VIEW_YAML_V11_DISABLED
Представление метрик YAML версии 1.1 отключено. Убедитесь, что для параметра "spark.databricks.sql.metricView.yaml.v11.enabled" задано значение true.
MIGRATION_NOT_SUPPORTED
<table> не поддерживается для миграции в управляемую таблицу UC, так как она не является таблицей <tableKind> .
Убедитесь, что переносимая таблица является внешней разностной таблицей UC и
На него ссылаются по имени, а не по пути.
MIGRATION_ROLLBACK_NOT_SUPPORTED
<table> не поддерживается для отката из управляемой таблицы к внешней, так как она не является таблицей <tableKind> .
MISMATCHED_TOPIC_PARTITIONS_BETWEEN_END_OFFSET_AND_PREFETCHED
Источник данных Kafka в Trigger.AvailableNow должен предоставлять те же разделы темы с предвыбранным смещением до конечного смещения для каждого микробатча. Ошибка может быть временной — перезапустить запрос и сообщить, если вы по-прежнему видите ту же проблему.
разделы темы для предварительного получения смещения: <tpsForPrefetched>, разделы темы для конечного смещения: <tpsForEndOffset>.
MISSING_AGGREGATION
Нерегластрирующее выражение <expression> основано на столбцах, которые не участвуют в предложении GROUP BY.
Добавьте столбцы или выражение в GROUP BY, агрегируйте выражение или используйте <expressionAnyValue>, если не имеет значения, какое значение в группе возвращается.
Более подробную информацию см. в MISSING_AGGREGATION
MISSING_CATALOG_ABILITY
Каталог <plugin> не поддерживает
Дополнительные сведения см. в MISSING_CATALOG_ABILITY
MISSING_CLAUSES_FOR_OPERATION
Отсутствует условие <clauses> для операции <operation>. Добавьте необходимые пункты.
MISSING_CONNECTION_OPTION
Подключения типа '<connectionType>' должны включать следующие параметры <requiredOptions>:
MISSING_DATABASE_FOR_V1_SESSION_CATALOG
Имя базы данных не указано в каталоге сеансов версии 1. При взаимодействии с каталогом версии 1 укажите допустимое имя базы данных.
MISSING_GROUP_BY
Запрос не включает условие GROUP BY. Добавьте GROUP BY или превратите его в функции окна с помощью предложений OVER.
MISSING_NAME_FOR_CHECK_CONSTRAINT
CHECK ограничение должно иметь имя.
MISSING_PARAMETER_FOR_KAFKA
Параметр <parameterName> требуется для Kafka, но не указан в <functionName>.
MISSING_PARAMETER_FOR_ROUTINE
Параметр <parameterName> является обязательным, но не указан в <functionName>.
MISSING_SCHEDULE_DEFINITION
Необходимо предоставить определение расписания в соответствии с SCHEDULE.
MISSING_TIMEOUT_CONFIGURATION
Время ожидания операции истекло, но его продолжительность не настроена. Чтобы задать время ожидания, основанное на обработке, используйте GroupState.setTimeoutDuration() в операции mapGroupsWithState или flatMapGroupsWithState. Для времени ожидания на основе событий используйте GroupState.setTimeoutTimestamp() и определите водяной знак с помощью Dataset.withWatermark().
MISSING_WINDOW_SPECIFICATION
Спецификация окна не определена в предложении WINDOW для <windowName>. Для получения дополнительной информации о WINDOW предложениях, обратитесь к '<docroot>/sql-ref-syntax-qry-select-window.html'.
MODIFY_BUILTIN_CATALOG
Изменение встроенного каталога <catalogName> не поддерживается.
MULTIPART_FLOW_NAME_NOT_SUPPORTED
Поток с многопартийным именем '<flowName>' не поддерживается.
MULTIPLE_EXCEL_DATA_SOURCE
Обнаружено несколько источников данных Excel с именем <provider> (<sourceNames>). Укажите полное имя класса или удалите <externalSource> из класспата.
MULTIPLE_LOAD_PATH
Databricks Delta не поддерживает несколько входных путей в API load().
пути: <pathList>. Для создания одного DataFrame путем загрузки
несколько путей, исходящих из одной таблицы Delta, пожалуйста, загрузите корневой путь
Таблица Delta с соответствующими фильтрами секций. Если несколько путей
данные из разных таблиц Delta, пожалуйста, используйте API union()/unionByName()
для объединения фреймов данных, созданных отдельными вызовами API load().
MULTIPLE_MATCHING_CONSTRAINTS
Найдено по крайней мере два ограничения, соответствующих данному условию.
MULTIPLE_QUERY_RESULT_CLAUSES_WITH_PIPE_OPERATORS
<clause1> и <clause2> не могут сосуществовать в одном операторе канала SQL с помощью "|>". Разделите несколько условий результата на отдельные операторы конвейера, а затем повторите запрос.
MULTIPLE_TIME_TRAVEL_SPEC
Нельзя указывать путешествие во времени одновременно в условии и в параметрах.
MULTIPLE_XML_DATA_SOURCE
Обнаружено несколько источников данных с именем <provider> (<sourceNames>). Укажите полное имя класса или удалите <externalSource> из класспата.
MULTI_ALIAS_WITHOUT_GENERATOR
Многокомпонентное псевдонимирование (<names>) не поддерживается с <expr>, так как это не функция-генератор.
MULTI_SOURCES_UNSUPPORTED_FOR_EXPRESSION
Выражение <expr> не поддерживает несколько источников.
MULTI_SOURCE_METRIC_VIEW_MEASURE_REFERENCING_DIMENSION
Столбец <measureColumn> мер в представлении метрик не может ссылаться на столбцы измерения (<dimensionColumn>).
MULTI_SOURCE_METRIC_VIEW_UNQUALIFIED_MEASURE_REF
Не разрешена ссылка на <measureColumn> столбец неквалифицированной меры в представлении метрик с несколькими источниками. Укажите столбец меры с псевдонимом источника.
MULTI_SOURCE_METRIC_VIEW_UNSUPPORTED_EXPRESSION
Выражение агрегирования на вершине нескольких источников в представлении метрик не поддерживается: <expr>
MULTI_UDF_INTERFACE_ERROR
Не разрешено реализовать несколько интерфейсов UDF, класс UDF <className>.
MUTUALLY_EXCLUSIVE_CLAUSES
Взаимоисключающие предложения или параметры <clauses>. Удалите одно из этих предложений.
MV_ST_ALTER_QUERY_INCORRECT_BACKING_TYPE
Входной запрос ожидает <expectedType>, но базовая таблица — это <givenType>.
NAMED_PARAMETERS_NOT_SUPPORTED
Именованные параметры не поддерживаются для функции <functionName>; повторите запрос, используя вместо них позиционные аргументы для вызова функции.
NAMED_PARAMETERS_NOT_SUPPORTED_FOR_SQL_UDFS
Не удается вызвать функцию <functionName>, так как именованные ссылки на аргументы не поддерживаются. В этом случае ссылка на именованный аргумент была <argument>.
NAMED_PARAMETER_SUPPORT_DISABLED
Не удается вызвать функцию <functionName>, так как ссылки именованных аргументов здесь не включены.
В этом случае ссылка на именованный аргумент была <argument>.
Задайте для параметра "spark.sql.allowNamedFunctionArguments" значение true, чтобы включить функцию.
NAMESPACE_ALREADY_EXISTS
Не удается создать пространство имен <nameSpaceName>, так как он уже существует.
Выберите другое имя, удалите существующее пространство имен или добавьте предложение IF NOT EXISTS, чтобы разрешить предварительно существующее пространство имен.
NAMESPACE_NOT_EMPTY
Не удается удалить пространство имен <nameSpaceNameName>, так как он содержит объекты.
Используется DROP NAMESPACE...CASCADE для удаления пространства имен и всех его объектов.
NAMESPACE_NOT_FOUND
Не удается найти пространство имен <nameSpaceName>. Проверьте орфографию и корректность пространства имен.
Если имя не задано, проверьте выходные данные current_schema() или укажите правильное имя.
Чтобы игнорировать ошибку при удалении, используйте DROP NAMESPACE IF EXISTS.
NATIVE_IO_ERROR
Ошибка выполнения встроенного запроса. requestId: <requestId>, облако: <cloud>, операция: <operation>
request: [https: <https>, метод = <method>, путь = <path>, параметры = <params>, хозяин = <host>, заголовки = <headers>, длина тела = <bodyLen>]
ошибка: <error>
NATIVE_XML_DATA_SOURCE_NOT_ENABLED
Нативный источник данных XML не включен в этом кластере.
NEGATIVE_SCALE_DISALLOWED
Отрицательный масштаб не допускается: "<scale>". Задайте для конфигурации <sqlConf> значение true, чтобы разрешить его.
NEGATIVE_VALUES_IN_FREQUENCY_EXPRESSION
Обнаружено отрицательное значение в <frequencyExpression>: <negativeValue>, тогда как ожидалось положительное целое значение.
NESTED_AGGREGATE_FUNCTION
Нельзя использовать агрегатную функцию в аргументе другой агрегатной функции. Пожалуйста, используйте внутреннюю агрегатную функцию в подзапросе.
NESTED_EXECUTE_IMMEDIATE
Вложенные команды EXECUTE IMMEDIATE не допускаются. Убедитесь, что предоставленный SQL-запрос (<sqlString>) не содержит другую команду EXECUTE IMMEDIATE.
NESTED_REFERENCES_IN_LATERAL_SUBQUERY_NOT_SUPPORTED
Обнаружены ссылки <expression> на внешние области в подзапросе бокового запроса, который не поддерживается. Убедитесь, что боковой вложенный запрос не содержит вложенные запросы, которые ссылаются на атрибуты из вложенных внешних областей.
СЛОЖНЫЕ ССЫЛКИ_В_ПОДЗАПРОСЕ_НЕ_ПОДДЕРЖИВАЮТСЯ
Обнаружены ссылки на внешние области <expression> в подзапросе, что не поддерживается.
НАРУШЕНИЕ НОВОГО КОНСТРАИНТА ПРОВЕРКИ
Новое ограничение проверки (<expression>) нельзя добавить, так как оно будет нарушено существующими данными в таблице <tableName>. Перед добавлением убедитесь, что все существующие строки удовлетворяют ограничению.
NONEXISTENT_FIELD_NAME_IN_LIST
Поля <nonExistFields> не существуют. Доступные поля: <fieldNames>
НЕ_ДЕТЕРМИНИРОВАННОЕ_СВОЙСТВО_ПРОВЕРКИ
Ограничение проверки <checkCondition> не детерминировано. Ограничения проверки должны содержать только детерминированные выражения.
NON_FOLDABLE_ARGUMENT
Функция <funcName> требует, чтобы параметр <paramName> был свертываемым выражением типа <paramType>, но фактический аргумент является не свертываемым.
NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
Если в конструкции MATCHED есть несколько клаузов MERGE, только последняя клауз MATCHED может не иметь условия.
NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
Если в конструкции NOT MATCHED BY SOURCE есть несколько клаузов MERGE, только последняя клауз NOT MATCHED BY SOURCE может не иметь условия.
NON_LAST_NOT_MATCHED_BY_TARGET_CLAUSE_OMIT_CONDITION
Если в конструкции NOT MATCHED [BY TARGET] есть несколько клаузов MERGE, только последняя клауз NOT MATCHED [BY TARGET] может не иметь условия.
NON_LITERAL_PIVOT_VALUES
Литеральные выражения, необходимые для значений сводных элементов, найдены <expression>.
NON_PARTITION_COLUMN
выражение PARTITION не может содержать несекционированный столбец: <columnName>.
NON_TIME_WINDOW_NOT_SUPPORTED_IN_STREAMING
Функция окна не поддерживается в <windowFunc> (как столбец <columnName>) для потоковой передачи кадров и наборов данных.
Структурированная потоковая передача поддерживает агрегирование только в окне времени с помощью функции WINDOW. (спецификация окна: <windowSpec>)
NOT_ALLOWED_IN_FROM
Запрещено в предложении FROM:
Дополнительные сведения см. в NOT_ALLOWED_IN_FROM
NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE
Запрещено в конструкции конвейера WHERE:
Дополнительные сведения см. в NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE
NOT_A_CONSTANT_STRING
Выражение <expr>, используемое в подпрограмме или предложении <name>, должно быть константой STRING, значение которой составляет NOT NULL.
Дополнительные сведения см. в разделе NOT_A_CONSTANT_STRING
NOT_A_PARTITIONED_TABLE
Операция <operation> не допускается для <tableIdentWithDB>, так как она не является секционированной таблицей.
NOT_A_SCALAR_FUNCTION
<functionName> отображается здесь как скалярное выражение, но функция была определена как табличная функция. Обновите запрос, чтобы переместить вызов функции в предложение FROM или переопределить <functionName> как скалярную функцию.
NOT_A_TABLE_FUNCTION
<functionName> отображается здесь как табличная функция, но функция была определена как скалярная функция. Обновите запрос, чтобы переместить вызов функции за пределы предложения FROM или переопределить <functionName> в качестве функции таблицы.
NOT_ENOUGH_ARGS
Функция <functionName> ожидает по крайней мере <minNum> параметры, но полученные <actualNum> (<actualArgs>).
NOT_NULL_ASSERT_VIOLATION
значение NULL появилось в не допускающем значение NULL поле: <walkedTypePath>Если схема выводится из кортежа Scala или case-класса Java, попробуйте использовать scala.Option[_] или другие типы, допускающие значение NULL (например, java.lang.Integer вместо int/scala.Int).
NOT_NULL_CONSTRAINT_VIOLATION
Назначение NULL не допускается здесь.
Для получения более подробной информации обратитесь к NOT_NULL_CONSTRAINT_VIOLATION
NOT_SUPPORTED_CHANGE_COLUMN
ALTER TABLE ALTER
/
CHANGE COLUMN не поддерживает изменение столбца <table><originName> с типом <originType> на <newName> с типом <newType>.
NOT_SUPPORTED_CHANGE_SAME_COLUMN
ALTER TABLE ALTER
/
CHANGE COLUMN не поддерживается для изменения <table>столбца <fieldName> , включая вложенные поля несколько раз в одной команде.
NOT_SUPPORTED_COMMAND_FOR_V2_TABLE
<cmd> не поддерживается для таблиц версии 2.
NOT_SUPPORTED_COMMAND_WITHOUT_HIVE_SUPPORT
<cmd> не поддерживается, если вы хотите включить его, задайте для параметра "spark.sql.catalogImplementation" значение "hive".
NOT_SUPPORTED_IN_JDBC_CATALOG
Не поддерживается команда в каталоге JDBC:
Дополнительные сведения см. в NOT_SUPPORTED_IN_JDBC_CATALOG
NOT_SUPPORTED_WITH_DB_SQL
<operation> не поддерживается в SQL <endpoint>.
NOT_SUPPORTED_WITH_SERVERLESS
<operation> не поддерживается в бессерверных вычислениях.
NOT_UNRESOLVED_ENCODER
Ожидается неопределённый кодировщик, но найден <attr>.
NO_ACTIVE_TRANSACTION
Нет активной транзакции для <action>.
NO_DEFAULT_COLUMN_VALUE_AVAILABLE
Не удается определить значение <colName> по умолчанию, так как оно не допускает значение NULL и не имеет значения по умолчанию.
NO_HANDLER_FOR_UDAF
Нет обработчика для UDAF '<functionName>'. Вместо этого используйте sparkSession.udf.register(...).
NO_MERGE_ACTION_SPECIFIED
df.mergeInto должно сопровождаться как минимум одним из whenMatched/whenNotMatched/whenNotMatchedBySource.
NO_PARENT_EXTERNAL_LOCATION_FOR_PATH
Внешнее родительское местоположение не найдено для пути "<path>". Пожалуйста, создайте внешнее расположение на одном из родительских путей, а затем повторите запрос или команду.
NO_PRIMARY_KEY_CONSTRAINT_EXCEPTION
TABLE <table> не имеет ограничения первичного ключа.
NO_SQL_TYPE_IN_PROTOBUF_SCHEMA
Не удается найти <catalystFieldPath> в схеме Protobuf.
NO_STORAGE_LOCATION_FOR_TABLE
SQLSTATE: не присвоено
Место хранения для таблицы "<tableId>" не найдено при создании учетных данных для таблицы. Проверьте тип таблицы и URL-адрес расположения таблицы, а затем повторите запрос или команду еще раз.
NO_SUCH_CATALOG_EXCEPTION
Каталог '<catalog>' не найден. Проверьте имя каталога, а затем повторите запрос или команду.
NO_SUCH_CLEANROOM_EXCEPTION
SQLSTATE: не присвоено
Чистая комната "<cleanroom>" не существует. Убедитесь, что имя чистой комнаты указано правильно и соответствует имени допустимой существующей чистой комнаты, а затем повторите запрос или команду еще раз.
NO_SUCH_CONSTRAINT_EXCEPTION
Ограничение <constraint> не найдено в <identifier>.
NO_SUCH_CREDENTIAL_EXCEPTION
Учетные данные "<credential>" не существуют. Убедитесь, что имя учетных данных указано правильно и соответствует имени допустимого существующего учетным данным, и повторите попытку выполнить запрос или команду снова.
NO_SUCH_EXTERNAL_LOCATION_EXCEPTION
SQLSTATE: не присвоено
Внешнее расположение "<externalLocation>" не существует. Убедитесь, что имя внешнего расположения правильно, а затем повторите запрос или команду.
NO_SUCH_METASTORE_EXCEPTION
SQLSTATE: не присвоено
Хранилище метаданных не найдено. Попросите администратора учетной записи назначить хранилище метаданных текущей рабочей области, а затем повторите запрос или команду.
NO_SUCH_PROVIDER_EXCEPTION
SQLSTATE: не присвоено
Поставщик "<providerName>" не существует. Убедитесь, что имя поставщика общих служб указано правильно и соответствует имени допустимого существующего имени поставщика, а затем повторите запрос или команду.
NO_SUCH_RECIPIENT_EXCEPTION
SQLSTATE: не присвоено
Получатель "<recipient>" не существует. Убедитесь, что имя получателя указано правильно и соответствует имени допустимого существующего получателя, а затем повторите запрос или команду.
NO_SUCH_SHARE_EXCEPTION
SQLSTATE: не присвоено
Объект "<share>" не существует. Убедитесь, что имя общей папки орфографировано правильно и соответствует имени допустимой существующей общей папки, а затем повторите запрос или команду.
NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION
SQLSTATE: не присвоено
Учетные данные хранилища "<storageCredential>" не существуют. Убедитесь, что имя учетных данных хранилища указано правильно и соответствует имени допустимого существующего учетного данные хранилища, а затем повторите выполнение запроса или команды.
NO_SUCH_USER_EXCEPTION
SQLSTATE: не присвоено
Пользователь "<userName>" не существует. Убедитесь, что имя пользователя, которому вы предоставляете разрешение или меняете владение, написано верно и соответствует имени действующего пользователя, затем повторите попытку выполнить запрос или команду.
NO_UDF_INTERFACE
Класс <className> UDF не реализует интерфейс UDF.
NULLABLE_COLUMN_OR_FIELD
Столбец или поле <name> допускает значение NULL, хотя оно должно быть не допускающим значений NULL.
NULLABLE_ROW_ID_ATTRIBUTES
Атрибуты идентификатора строки не могут иметь значение NULL: <nullableRowIdAttrs>.
NULL_DATA_SOURCE_OPTION
Параметр чтения и записи источника данных <option> не может иметь значение NULL.
NULL_MAP_KEY
Не удается использовать значение NULL в качестве ключа карты.
NULL_QUERY_STRING_EXECUTE_IMMEDIATE
Для немедленного выполнения необходима ненулевая переменная в качестве строки запроса, но указанная переменная <varName> имеет значение null.
NULL_VALUE_SIGNAL_STATEMENT
Аргументы инструкции Signal требуют ненулевых значений, но <argument> получили значение NULL.
NUMERIC_OUT_OF_SUPPORTED_RANGE
Значение <value> не может быть интерпретировано как числовое, так как оно имеет более 38 цифр.
NUMERIC_VALUE_OUT_OF_RANGE
Для получения дополнительных сведений см. NUMERIC_VALUE_OUT_OF_RANGE
NUM_COLUMNS_MISMATCH
<operator> можно выполнять только для входных данных с одинаковым количеством столбцов, но первый вход имеет <firstNumColumns> столбцы, а входные данные <invalidOrdinalNum> имеют <invalidNumColumns> столбцы.
NUM_TABLE_VALUE_ALIASES_MISMATCH
Число заданных псевдонимов не соответствует количеству выходных столбцов.
Имя функции: <funcName>; число псевдонимов: <aliasesNum>; число выходных столбцов: <outColsNum>.
OAUTH_CUSTOM_IDENTITY_CLAIM_NOT_PROVIDED
Не были предоставлены идентификационные данные.
ONLY_SECRET_FUNCTION_SUPPORTED_HERE
Функция вызова <functionName> не поддерживается в этой <location>; <supportedFunctions> поддерживается здесь.
ONLY_SUPPORTED_WITH_UC_SQL_CONNECTOR
Операция SQL <operation> поддерживается только в соединителях Databricks SQL с поддержкой каталога Unity.
OPERATION_CANCELED
Операция отменена.
OPERATION_REQUIRES_UNITY_CATALOG
Для операции <operation> требуется включённый каталог Unity.
OP_NOT_SUPPORTED_READ_ONLY
<plan> не поддерживается в режиме сеанса только для чтения.
ORDER_BY_POS_OUT_OF_RANGE
ORDER BY положение <index> не находится в списке выбора (допустимый диапазон равен [1, <size>]).
PARQUET_CONVERSION_FAILURE
Не удалось создать преобразователь Parquet для типа данных <dataType>, тип Parquet которого <parquetType>.
Дополнительные сведения см. в PARQUET_CONVERSION_FAILURE.
PARQUET_TYPE_ILLEGAL
Недопустимый тип Parquet: <parquetType>.
PARQUET_TYPE_NOT_RECOGNIZED
Нераспознанный тип Parquet: <field>.
PARQUET_TYPE_NOT_SUPPORTED
Тип Parquet пока не поддерживается: <parquetType>.
PARSE_EMPTY_STATEMENT
Синтаксическая ошибка, непредвиденная пустая инструкция.
PARSE_MODE_UNSUPPORTED
Функция <funcName> не поддерживает <mode> режим. Допустимые режимы : PERMISSIVE и FAILFAST.
PARSE_SYNTAX_ERROR
Синтаксическая ошибка в <error> <hint>или рядом с ней.
PARTITIONS_ALREADY_EXIST
Невозможно добавить разделы RENAME в секции <partitionList> таблицы <tableName>, так как они уже существуют.
Выберите другое имя, удалите существующий раздел или добавьте условие IF NOT EXISTS, чтобы разрешить предварительно существующий раздел.
PARTITIONS_NOT_FOUND
Раздел(ы) <partitionList> не найдены в таблице <tableName>.
Проверьте спецификацию раздела и имя таблицы.
Чтобы игнорировать ошибку при сбросе, используйте ALTER TABLE ...
DROP IF EXISTS PARTITION.
PARTITION_COLUMN_NOT_FOUND_IN_SCHEMA
Столбец секционирования <column> не найден в схеме <schema>. Укажите существующий столбец для секционирования.
PARTITION_LOCATION_ALREADY_EXISTS
Расположение секции <locationPath> уже существует в таблице <tableName>.
PARTITION_LOCATION_IS_NOT_UNDER_TABLE_DIRECTORY
Не удалось выполнить инструкцию ALTER TABLE SET PARTITION LOCATION, так как
Расположение раздела <location> не находится в каталоге таблицы <table>.
Чтобы это исправить, укажите расположение раздела как подкаталог <table>.
PARTITION_METADATA
<action> не допускается для таблицы <tableName> , так как хранение метаданных секции не поддерживается в каталоге Unity.
PARTITION_NUMBER_MISMATCH
Число значений (<partitionNumber>) не соответствовало размеру схемы (<partitionSchemaSize>): значения <partitionValues>, схема <partitionSchema>, путь к файлу <urlEncodedPath>.
Повторно материализуйте таблицу или обратитесь к владельцу.
PARTITION_TRANSFORM_EXPRESSION_NOT_IN_PARTITIONED_BY
Выражение <expression> должно находиться внутри partitionedBy.
PATH_ALREADY_EXISTS
Путь <outputPath> уже существует. Установите режим «перезаписать», чтобы перезаписать существующий путь.
PATH_NOT_FOUND
Путь не существует: <path>.
PATH_RESOLUTION_ERROR
Не удалось разрешить путь <path>. Вызвано: <causedBy>
PHOTON_DESERIALIZED_PROTOBUF_MEMORY_LIMIT_EXCEEDED
Десериализация плана Photon protobuf требует по крайней мере <size> байтов, что превышает допустимый предел.
ограничение в <limit> байт. Это может быть связано с очень большим планом или присутствием чего-то очень большого.
широкая схема. Попробуйте упростить запрос, удалить ненужные столбцы или отключить Photon.
PHOTON_SERIALIZED_PROTOBUF_MEMORY_LIMIT_EXCEEDED
Сериализованный план Photon protobuf составляет <size> байт, что превышает допустимый предел.
<limit> байт. Сериализованный размер типов данных в плане составляет <dataTypeSize> байт.
Это может быть связано с очень большим планом или наличием очень широкой схемы.
Попробуйте перезаписать запрос, чтобы удалить нежелательные операции и столбцы или отключить Фотон.
ДАННЫЕ_КОНВЕЙЕРА_БЕЗ_ПОТОКА
Набор данных <identifier> для конвейера не имеет определённых потоков. Вложите запрос с определением набора данных или явно определите по крайней мере один поток, который записывается в набор данных.
PIPELINE_DOES_NOT_EXIST
Конвейер '<pipelineId>' не существует
Дополнительные сведения см. в разделе PIPELINE_DOES_NOT_EXIST
PIPELINE_DUPLICATE_IDENTIFIERS
Обнаружен повторяющийся идентификатор для элементов, зарегистрированных в графе потока данных конвейера.
Дополнительные сведения см. в PIPELINE_DUPLICATE_IDENTIFIERS
Ошибка регистрации элемента графа PIPELINE_SQL
<message>
<offendingQuery>
<codeLocation>
PIPELINE_STORAGE_ROOT_INVALID
Корневой каталог хранилища конвейера должен быть абсолютным путем со схемой URI (например, file://, s3a://, hdfs://). Получил: <storage_root>
PIPE_OPERATOR_AGGREGATE_EXPRESSION_CONTAINS_NO_AGGREGATE_FUNCTION
Выражение <expr> без группировки предоставляется в качестве аргумента оператору |>AGGREGATE pipe, но не содержит статистической функции. Обновите его, чтобы включить агрегатную функцию, а затем повторите запрос.
PIPE_OPERATOR_CONTAINS_AGGREGATE_FUNCTION
Агрегатная функция <expr> не допускается при использовании оператора канала в условиях |><clause>; вместо этого используйте оператор канала в условиях |>AGGREGATE.
PIVOT_VALUE_DATA_TYPE_MISMATCH
Недопустимое значение сводной таблицы '<value>': тип данных <valueType> не соответствует типу данных <pivotType> столбца сводной таблицы.
POLICY_ALREADY_EXISTS
Не удается создать политику <policyName> , так как она уже существует.
Выберите другое имя или удалите существующую политику, чтобы разрешить существующие подключения.
POLICY_NOT_FOUND
Не удается выполнить <commandType> команду, так как не удается найти политику <policyName> на <securableFullname>.
Проверьте орфографию и правильность.
POLICY_ON_SECURABLE_TYPE_NOT_SUPPORTED
Не удается создать политику для защищаемого типа <securableType>. Поддерживаемые защищённые типы: <allowedTypes>
PREVIEW_FEATURE_NOT_ENABLED
Функция предварительного просмотра <featureName> не включена. Обратитесь к администратору рабочей области, чтобы включить эту функцию с помощью портала предварительной версии.
PROCEDURE_ARGUMENT_NUMBER_MISMATCH
Процедура <procedureName> ожидает <expected> аргументов, но <actual> были предоставлены.
PROCEDURE_CREATION_EMPTY_ROUTINE
CREATE PROCEDURE с пустым определением функции запрещено.
PROCEDURE_CREATION_PARAMETER_OUT_INOUT_WITH_DEFAULT
Параметр <parameterName> определен в режиме параметра <parameterMode>. Out и INOUT параметр не могут быть опущены при вызове подпрограммы и поэтому не поддерживают DEFAULT выражение. Чтобы продолжить, удалите предложение DEFAULT или измените режим параметров на IN.
PROCEDURE_NOT_SUPPORTED
Хранимая процедура не поддерживается
PROCEDURE_NOT_SUPPORTED_WITH_HMS
Хранимая процедура не поддерживается в хранилище метаданных Hive. Вместо этого используйте каталог Unity.
PROTOBUF_DEPENDENCY_NOT_FOUND
Не удалось найти зависимость: <dependencyName>.
PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND
Ошибка чтения файла дескриптора протокола Protobuf по пути: <filePath>.
PROTOBUF_FIELD_MISSING
Поиск <field> в схеме Protobuf в <protobufSchema> дал <matchSize> совпадений. Кандидаты: <matches>.
PROTOBUF_FIELD_MISSING_IN_SQL_SCHEMA
Найдено <field> в схеме Protobuf, но в схеме SQL нет совпадения.
PROTOBUF_FIELD_TYPE_MISMATCH
Обнаружено несоответствие типов для поля: <field>.
PROTOBUF_JAVA_CLASSES_NOT_SUPPORTED
Классы Java не поддерживаются для <protobufFunction>. Обратитесь в службу поддержки Databricks о альтернативных вариантах.
PROTOBUF_MESSAGE_NOT_FOUND
Не удается найти сообщение <messageName> в дескрипторе.
PROTOBUF_NOT_LOADED_SQL_FUNCTIONS_UNUSABLE
Не удается вызвать функцию <functionName> SQL, так как источник данных Protobuf не загружен.
Перезапустите задание или сеанс с загруженным пакетом spark-protobuf, например с помощью аргумента --packages в командной строке, а затем повторите запрос или команду снова.
PROTOBUF_TYPE_NOT_SUPPORT
Тип Protobuf еще не поддерживается: <protobufType>.
PS_FETCH_RETRY_EXCEPTION
Задачу на этапе извлечения в "pubsub" нельзя повторить. Раздел <partitionInfo> на этапе <stageInfo>, TID <taskId>.
PS_INVALID_EMPTY_OPTION
<key> не может быть пустой строкой.
PS_INVALID_KEY_TYPE
Недопустимый тип ключа для дедупации PubSub: <key>.
PS_INVALID_OPTION
Параметр <key> не поддерживается PubSub. Его можно использовать только в тестировании.
PS_INVALID_OPTION_TYPE
Недопустимый тип для <key>. Ожидается, что тип <key> будет типа <type>.
PS_INVALID_READ_LIMIT
Недопустимое ограничение на чтение в потоке PubSub: <limit>.
PS_INVALID_UNSAFE_ROW_CONVERSION_FROM_PROTO
Недопустимый UnsafeRow для декодирования в PubSubMessageMetadata, требуемая схема proto: <protoSchema>. Входной UnsafeRow может быть поврежден: <unsafeRow>.
PS_INVALID_WORKLOAD_IDENTITY_FEDERATION_AUDIENCE_OPTION
Сбой запроса или команды из-за недопустимого параметра чтения: в spark.readStream.format("pubsub").option("workloadIdentityFederation.audience", <audience>). Обновите <audience> чтобы соответствовать следующему формату: //iam.googleapis.com/projects/{PROJECT_NUMBER}/locations/global/workloadIdentityPools/{POOL_ID}/providers/{PROVIDER_ID} и затем повторите запрос или команду снова.
PS_MISSING_AUTH_INFO
Не удалось найти полные сведения о проверке подлинности PubSub.
PS_MISSING_REQUIRED_OPTION
Не удалось найти обязательный параметр: <key>.
PS_MOVING_CHECKPOINT_FAILURE
Не удалось переместить необработанные файлы контрольных точек данных из <src> в целевой каталог: <dest>.
PS_MULTIPLE_AUTH_OPTIONS
Укажите учетные данные службы Databricks или учетные данные учетной записи службы GCP.
PS_MULTIPLE_FAILED_EPOCHS
Поток PubSub нельзя запустить, так как имеется несколько неудачных выборок: <failedEpochs>.
PS_OPTION_NOT_IN_BOUNDS
<key> должен находиться в пределах следующих границ (<min>, <max>) без обоих границ.
PS_PROVIDE_CREDENTIALS_WITH_OPTION
Общие кластеры не поддерживают проверку подлинности с профилями экземпляров. Предоставьте учетные данные потоку непосредственно с помощью параметра .option().
PS_SPARK_SPECULATION_NOT_SUPPORTED
Соединитель источника PubSub доступен только в кластере с отключенной функцией spark.speculation.
PS_UNABLE_TO_CREATE_SUBSCRIPTION
Произошла ошибка при попытке создать подписку <subId> на тему <topicId>. Убедитесь, что есть достаточные разрешения для создания подписки и повторите попытку.
PS_UNABLE_TO_PARSE_PROTO
Не удалось проанализировать сериализованные байты для создания прототипа.
PS_UNSUPPORTED_GET_OFFSET_CALL
getOffset не поддерживается без предоставления ограничения.
PYTHON_DATA_SOURCE_ERROR
Ошибка источника данных Python <action><type>: <msg>
PYTHON_STREAMING_DATA_SOURCE_RUNTIME_ERROR
Сбой в работе источника потоковых данных Python <action>: <msg>
QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
Не удается получить доступ к таблице, так как ранее назначенная маска столбца несовместима с схемой таблицы; Чтобы продолжить, обратитесь к владельцу таблицы, чтобы обновить политику:
Для получения дополнительной информации см. в QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
Не удается получить доступ к таблице, так как ранее назначенная политика безопасности на уровне строк в настоящее время несовместима со схемой таблицы; Чтобы продолжить, обратитесь к владельцу таблицы, чтобы обновить политику:
Дополнительные сведения см. в QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
QUERY_EXECUTION_TIMEOUT_EXCEEDED
Выполнение запроса было отменено из-за превышения времени ожидания (<timeoutSec>s). Вы можете увеличить ограничение в секундах, задав <config>.
QUERY_INCOMPATIBLE_WITH_RLSCM_POLICY
См. список разрешений go/rowcolumncontrols-allowlist. Логический план <unknownLogicalPlan> несовместим с политикой RLS/CM.
QUERY_REJECTED
Выполнение запроса было отклонено.
QUERY_RESULT_WRITE_TO_CLOUD_STORE_PERMISSION_ERROR
Конфигурация внутреннего хранилища рабочей области запрещает Databricks получать доступ к облачному хранилищу.
QUERY_TAGS_NOT_IMPLEMENTED_ERROR
Теги запросов пока не поддерживаются в SQL.
QUERY_TAGS_SYNTAX_INVALID
Недопустимый формат команды SET QUERY_TAGS .
QUERY_TAG_KEY_INVALID
Сбой<key> проверки ключа тега запроса.
QUERY_TAG_KEY_MAY_NOT_BE_EMPTY
Ключ тега запроса не может быть пустым или пустым. Начальные и конечные пробелы обрезаются по ключам и значениям.
QUERY_TAG_MAX_COUNT_EXCEEDED
Число тегов запроса превысило ограничение на сеанс в максимальном количестве <tagLimit> тегов.
QUERY_TAG_VALUE_INVALID
Сбой проверки значения<value> тега запроса.
QUERY_WATCHDOG_CHECK_FAILED
Сбой проверки контрольного запроса.
Дополнительные сведения см. в QUERY_WATCHDOG_CHECK_FAILED
READ_CURRENT_FILE_NOT_FOUND
<message>
Возможно, базовые файлы были обновлены. Вы можете явно отключить кэш в Spark, выполнив команду tableNameREFRESH TABLE в SQL или повторно выполнив команду Dataset/DataFrame.
READ_FILES_AMBIGUOUS_ROUTINE_PARAMETERS
Вызов функции <functionName> имеет параметры <parameterName> и <alternativeName>, которые установлены как взаимные псевдонимы. Задайте только один из них.
READ_FILES_CREDENTIALS_PARSE_ERROR
Произошла ошибка при анализе временных учетных данных функции read_files().
Подробнее см. в READ_FILES_CREDENTIALS_PARSE_ERROR
READ_TVF_UNEXPECTED_REQUIRED_PARAMETER
Для функции <functionName> обязательный параметр <parameterName> должен быть установлен на позиции <expectedPos> без указания имени.
RECIPIENT_EXPIRATION_NOT_SUPPORTED
Для метки времени окончания действия для получателя поддерживаются только TIMESTAMP/TIMESTAMP_LTZ/TIMESTAMP_NTZ типы.
RECURSION_LEVEL_LIMIT_EXCEEDED
Достигнуто ограничение уровня рекурсии <levelLimit>, но запрос не исчерпан; попробуйте увеличить его, как в 'tWITH RECURSIVE(col) MAX RECURSION LEVEL 200'.
RECURSION_ROW_LIMIT_EXCEEDED
Предел <rowLimit> строки рекурсии достигнут, но запрос не исчерпан, попробуйте задать большее LIMIT значение при запросе отношения CTE.
RECURSIVE_CTE_IN_LEGACY_MODE
Рекурсивные определения нельзя использовать в устаревшем режиме приоритета CTE (spark.sql.legacy.ctePrecedencePolicy=LEGACY).
RECURSIVE_CTE_WITH_LEGACY_INLINE_FLAG
Рекурсивные определения нельзя использовать, если устаревший встроенный флаг имеет значение true (spark.sql.legacy.inlineCTEInCommands=true).
RECURSIVE_PROTOBUF_SCHEMA
Найдена рекурсивная ссылка в схеме Protobuf, которая не может обрабатываться Spark по умолчанию: <fieldDescriptor>. Попробуйте задать параметр recursive.fields.max.depth 1–10. Не допускается переход на 10 уровней рекурсии.
RECURSIVE_VIEW
Обнаружено рекурсивное представление <viewIdent> (цикл: <newPath>).
REF_DEFAULT_VALUE_IS_NOT_ALLOWED_IN_PARTITION
Ссылки на значения столбцов DEFAULT не допускаются в предложении PARTITION.
RELATION_LARGER_THAN_8G
Невозможно создать <relationName>, размер которого превышает 8 гигабайт.
REMAINDER_BY_ZERO
Оставшаяся часть на нулю. Используйте try_mod, чтобы допускать делитель, равный 0, и возвращать NULL вместо этого. Если необходимо, установите <config> в "false", чтобы обойти эту ошибку.
REMOTE_FUNCTION_HTTP_FAILED_ERROR
Сбой удаленного HTTP-запроса с кодом <errorCode>и сообщение об ошибке <errorMessage>
REMOTE_FUNCTION_HTTP_RESULT_PARSE_ERROR
Не удалось оценить <functionName> функцию SQL из-за невозможности проанализировать JSON результат из удаленного HTTP-ответа; сообщение об ошибке .<errorMessage> Ознакомьтесь с документацией по API: <docUrl>. Исправьте проблему, указанную в сообщении об ошибке, и повторите запрос.
REMOTE_FUNCTION_HTTP_RESULT_UNEXPECTED_ERROR
Не удалось оценить функцию <functionName> SQL из-за невозможности обработки неожиданного удаленного HTTP-ответа; Сообщение об ошибке <errorMessage>. Ознакомьтесь с документацией по API: <docUrl>. Исправьте проблему, указанную в сообщении об ошибке, и повторите запрос.
REMOTE_FUNCTION_HTTP_RETRY_TIMEOUT
Удаленный запрос завершился ошибкой после <N> попыток; код ошибки последнего запроса HTTP был <errorCode>, а сообщение — <errorMessage>
REMOTE_FUNCTION_MISSING_REQUIREMENTS_ERROR
Не удалось оценить функцию <functionName> SQL, так как <errorMessage>. Проверьте требования в <docUrl>. Исправьте проблему, указанную в сообщении об ошибке, и повторите запрос.
Функция_Удаленного_Запроса_Некорректные_Параметры_Коннектора
Параметры <parameterNames> не поддерживаются для функции remote_query, которая запрашивает соединение "<connectionName>" типа "<connectionType>".
Дополнительные сведения см. в REMOTE_QUERY_FUNCTION_UNSUPPORTED_CONNECTOR_PARAMETERS
RENAME_SRC_PATH_NOT_FOUND
Не удалось переименовать, так как <sourcePath> не найден.
REPEATED_CLAUSE
Предложение <clause> может использоваться не более одного раза за операцию <operation>.
REQUIRED_PARAMETER_ALREADY_PROVIDED_POSITIONALLY
Обязательный параметр <routineName> подпрограммы <parameterName> был присвоен на позиции <positionalIndex> без имени.
Обновите вызов функции, чтобы удалить именованный аргумент с <parameterName> для этого параметра или удалить позиционный аргумент.
аргумент в <positionalIndex>, затем попробуйте запрос снова.
REQUIRED_PARAMETER_NOT_FOUND
Не удается вызвать подпрограмму <routineName>, так как требуется параметр с именем <parameterName>, но обычный вызов не предоставлял значение. Обновите обычный вызов, чтобы указать значение аргумента (позиционально по индексу <index> или по имени) и повторите запрос.
REQUIRES_EXPLICIT_NAME_IN_WATERMARK_CLAUSE
Для предложения водяного знака требуется явное имя, если указано выражение, но оно имеется <sqlExpr>.
REQUIRES_SINGLE_PART_NAMESPACE
<sessionCatalog> требуется одночастное пространство имен, но получено <namespace>.
RESCUED_DATA_COLUMN_CONFLICT_WITH_SINGLE_VARIANT
Параметр чтения API DataFrame "rescuedDataColumn" несовместим с параметром API DataFrame "singleVariantColumn".
Удалите один из них, а затем повторите операцию с DataFrame.
RESERVED_CDC_COLUMNS_ON_WRITE
Запись содержит зарезервированные столбцы <columnList>, которые используются.
внутренне в качестве метаданных для канала изменения данных. Чтобы записать в таблицу, либо переименуйте или удалите её.
эти столбцы или отключите фид изменений данных в таблице, установив параметр
Установить <config> в значение false.
RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
Параметр <option> имеет ограниченные значения в общих кластерах для источника <source>.
Дополнительные сведения см. в RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
ROUTINE_ALREADY_EXISTS
Не удается создать <newRoutineType> <routineName>, так как <existingRoutineType> с таким именем уже существует.
Выберите другое имя, удалите или замените существующий <existingRoutineType>, или добавьте условие IF NOT EXISTS, чтобы учесть существующий <newRoutineType>.
ROUTINE_NOT_FOUND
Не удается найти подпрограмму <routineName>. Проверьте орфографию и правильность схемы и каталога.
Если имя не соответствует схеме и каталогу, проверьте выходные данные current_schema() или укажите имя с правильной схемой и каталогом.
Чтобы терпеть ошибку при использовании DROP...IF EXISTSудаления.
ROUTINE_PARAMETER_NOT_FOUND
Подпрограмма <routineName> не поддерживает параметр <parameterName>, указанный в позиции <pos>.<suggestion>
ROUTINE_USES_SYSTEM_RESERVED_CLASS_NAME
Не удается создать функцию <routineName> , так как указанное имя класса "<className>" зарезервировано для системного использования. Переименуйте класс и повторите попытку.
ROW_LEVEL_SECURITY_ABAC_MISMATCH
Не удалось разрешить фильтры строк в <tableName>, так как между фильтрами строк, унаследованными от политик, и явно определенными фильтрами строк было несоответствие. Чтобы продолжить, отключите управление доступом на основе атрибутов (ABAC) и обратитесь в службу поддержки Databricks.
ROW_LEVEL_SECURITY_CHECK_CONSTRAINT_UNSUPPORTED
Создание ограничения CHECK для таблиц <tableName> с политиками безопасности на уровне строк не поддерживается.
ROW_LEVEL_SECURITY_COLUMN_MASK_UNRESOLVED_REFERENCE_COLUMN
Невозможно разрешить столбец с именем <objectName>, на который ссылаются в параметре функции фильтрации строк или маскирования столбца.
Это может произойти, если базовая схема таблицы изменилась, и столбец, на который ссылается ссылка, больше не существует.
Например, это может произойти, если столбец был удален во внешней системе (например, федеративная таблица), или REPLACE если операция с таблицей удалила столбец.
Чтобы устранить эту проблему, пользователи с правами управления в таблице могут проверить текущие фильтры строк и маски столбцов с помощью DESCRIBE TABLE EXTENDEDи удалить или повторно создать любые, которые ссылаются на несуществующие столбцы с помощьюALTER TABLE...SET/DROP ROW FILTER или MASK.
Примечание. Databricks улучшил безопасность, чтобы сохранить маски столбцов во время операций REPLACE, когда новая схема содержит тот же столбец, даже если маска не указана. Это предотвращает непреднамеренные потери политики в таблицах.
ROW_LEVEL_SECURITY_DUPLICATE_COLUMN_NAME
Инструкция <statementType> пыталась назначить политику безопасности уровня строки для таблицы, но два или более ссылаемых столбцов имели одинаковое имя <columnName>, что недопустимо.
ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
Политики безопасности на уровне строк для <tableName> не поддерживаются:
Дополнительные сведения см. в ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
ROW_LEVEL_SECURITY_INCOMPATIBLE_SCHEMA_CHANGE
Не удается выполнить <statementType> <columnName> для таблицы <tableName>, так как она используется в политике безопасности на уровне строк. Перед тем как продолжить, владелец таблицы должен удалить или изменить эту политику.
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_SOURCE
Операции MERGE INTO не реализуют политики безопасности на уровне строк в исходной таблице <tableName>.
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_TARGET
MERGE INTO операции не поддерживают запись в таблицу <tableName> с политиками безопасности на уровне строк.
ROW_LEVEL_SECURITY_MULTI_PART_COLUMN_NAME
Этот оператор пытался назначить политику безопасности уровня строки таблице, но ссылается на столбец <columnName>, который имел несколько частей имени, что недопустимо.
ROW_LEVEL_SECURITY_REQUIRE_UNITY_CATALOG
Политики безопасности на уровне строк поддерживаются только в каталоге Unity.
ROW_LEVEL_SECURITY_SECONDARY_INDEX_CREATION_UNSUPPORTED
Не удается создать вторичный индекс ON TABLE <tableName> , так как таблица имеет определенную политику безопасности на уровне строк.
ROW_LEVEL_SECURITY_SHOW_PARTITIONS_UNSUPPORTED
команда SHOW PARTITIONS не поддерживается для таблиц<format> с политикой безопасности на уровне строк.
ROW_LEVEL_SECURITY_TABLE_CLONE_SOURCE_NOT_SUPPORTED
Клонирование из таблицы <mode> с политикой безопасности на уровне строк для <tableName> не предусмотрено.
ROW_LEVEL_SECURITY_TABLE_CLONE_TARGET_NOT_SUPPORTED
Клонирование <mode> в таблицу <tableName> с политикой безопасности на уровне строк не поддерживается.
ROW_LEVEL_SECURITY_UNSUPPORTED_CONSTANT_AS_PARAMETER
Использование константы в качестве параметра в политике безопасности на уровне строк не поддерживается. Обновите команду SQL, чтобы удалить константу из определения фильтра строк, а затем повторите попытку.
ROW_LEVEL_SECURITY_UNSUPPORTED_DATA_TYPE
Функция <functionName>, используемая для политики безопасности на уровне строк, имеет параметр с неподдерживаемым типом данных <dataType>.
ROW_LEVEL_SECURITY_UNSUPPORTED_PROVIDER
Не удалось выполнить <statementType> команду, так как назначение политики безопасности на уровне строк не поддерживается для целевого источника данных с поставщиком таблиц: "<provider>".
ROW_SUBQUERY_TOO_MANY_ROWS
Более одной строки возвращено вложенным запросом, используемым в качестве строки.
ROW_VALUE_IS_NULL
Найдено NULL в ряду по индексу <index>, ожидалось значение, не равное NULL.
RULE_ID_NOT_FOUND
Не найден идентификатор для имени правила "<ruleName>". При добавлении нового правила измените RuleIdCollection.scala.
Запуск пустого конвейера
Ожидается, что конвейеры должны иметь как минимум один не временный набор данных (таблицы, устойчивые представления), но в вашем конвейере не были найдены не временные наборы данных.
Убедитесь, что вы включили ожидаемые исходные файлы, а исходный код содержит определения таблиц (например, CREATE MATERIALIZED VIEW в коде SQL в коде @dp.table Python).
SALESFORCE_DATA_SHARE_API_UNAUTHORIZED
Сбой авторизации в API salesforce Data Share. Убедитесь, что сведения о подключении Databricks предоставляются соответствующему целевому объекту общего ресурса Salesforce.
SAMPLE_TABLE_PERMISSIONS
Разрешения не поддерживаются в примерах баз данных или таблиц.
SCALAR_FUNCTION_NOT_COMPATIBLE
ScalarFunction <scalarFunc> не переопределяет метод "produceResult(InternalRow)" с пользовательской реализацией.
SCALAR_FUNCTION_NOT_FULLY_IMPLEMENTED
ScalarFunction <scalarFunc> не реализует или переопределяет метод "produceResult(InternalRow)".
SCALAR_SUBQUERY_IS_IN_GROUP_BY_OR_AGGREGATE_FUNCTION
Коррелированный скалярный вложенный запрос "<sqlExpr>" не присутствует ни в GROUP BY, ни в агрегатной функции.
Добавьте его в GROUP BY в порядковую позицию или оберните его в first() или first_value, если вам всё равно, какое значение будет.
SCALAR_SUBQUERY_TOO_MANY_ROWS
Вложенный запрос, используемый в качестве выражения, возвращает более одной строки.
SCDS_COMMIT_LOG_UNAVAILABLE
Журнал фиксации не существует с расположением контрольной точки=<checkpointLocation>.
SCDS_INVALID_OPTION_VALUE
Недопустимое значение для параметра источника=<optionName> с сообщением об ошибке=<message>.
SCDS_OFFSET_LOG_UNAVAILABLE
Журнал смещения не существует с расположением контрольной точки=<checkpointLocation>.
SCDS_REQUIRED_OPTION_UNSPECIFIED
Не удалось указать обязательный параметр=<optionName>.
SCHEDULE_ALREADY_EXISTS
Невозможно добавить <scheduleType> в таблицу, в которой уже есть <existingScheduleType>. Удалите существующее расписание или используйте ALTER TABLE...ALTER <scheduleType> ... чтобы изменить его.
SCHEDULE_PERIOD_INVALID
Период расписания для <timeUnit> должен быть целым значением от 1 до <upperBound> (включительно). Получено: <actual>.
SCHEMA_ALREADY_EXISTS
Не удается создать схему <schemaName>, так как она уже существует.
Выберите другое имя, удалите существующую схему или добавьте пункт IF NOT EXISTS, чтобы учитывать существующую схему.
SCHEMA_NOT_EMPTY
Не удается удалить схему <schemaName>, так как она содержит объекты.
Используется DROP SCHEMA...CASCADE для удаления схемы и всех его объектов.
SCHEMA_NOT_FOUND
Не удается найти схему <schemaName>. Проверьте орфографию и правильность схемы и каталога.
Если имя не задано в каталоге, проверьте выходные данные current_schema() или укажите имя с правильным каталогом.
Чтобы игнорировать ошибку при удалении, используйте DROP SCHEMA IF EXISTS.
SCHEMA_REGISTRY_CONFIGURATION_ERROR
Не удалось инициализировать схему из реестра схем.
<reason>.
SEARCH_INDEX_CATALOG_SCHEMA_MISMATCH
Не удается создать индекс <indexName> поиска в каталоге <indexCatalog> и схеме <indexSchema>. Индекс должен быть создан в том же каталоге и схеме, что и базовая таблица <tableName> (<tableCatalog>.<tableSchema>).
SEARCH_INDEX_INVALID_PARAMETERS
Не удается создать индекс поиска, указан недопустимый параметр:
Дополнительные сведения см. в SEARCH_INDEX_INVALID_PARAMETERS
SEARCH_INDEX_NAME_CONFLICTS_WITH_TABLE
Таблица с именем <indexName> индекса уже существует. Укажите пользовательское имя индекса, которое не конфликтует с существующими таблицами.
SEARCH_INDEX_OUTDATED_SCHEMA
Индекс <indexName> поиска имеет устаревшую схему. Повторно создайте индекс с помощью:
DROP SEARCH INDEX <indexName>;
CREATE SEARCH INDEX <indexName> ON <tableName>(<columnsList>);
SEARCH_REQUIRES_SEARCHABLE_COLUMNS
<context> требует столбцов с типами, доступными для поиска (STRING COLLATE UTF8_BINARY, VARIANTили ARRAY).
Дополнительные сведения см. в SEARCH_REQUIRES_SEARCHABLE_COLUMNS
SEARCH_REQUIRES_STRING_LITERALS_ARGUMENTS
SEARCH требует <argument> , чтобы аргумент был строковым литералом, но <actualExpr> был задан. <possibleOptionsMessage>
SECONDARY_INDEX_REQUIRES_MANAGED_TABLE
Не удается <operation> ON TABLE <tableName>. Операцию можно выполнять только в управляемых таблицах.
Чтобы преобразовать таблицу в управляемую таблицу, используйте ALTER TABLE <tableName> SET MANAGED команду.
Дополнительные сведения см. в https://docs.databricks.com/aws/en/tables/convert-external-managed
SECONDARY_INDEX_UNSUPPORTED_TABLE_FORMAT
Не <operation> ON TABLE <tableName>
Операция может выполняться только в таблицах со следующими форматами: <supportedFormats>
Проверьте формат таблицы с помощью DESCRIBE DETAIL <tableName>.
Если текущий формат — Parquet или Apache Iceberg, вы можете окончательно преобразовать его на месте с помощью
В противном случае повторно создайте таблицу в одном из поддерживаемых форматов.
SECOND_FUNCTION_ARGUMENT_NOT_INTEGER
Второй аргумент функции <functionName> должен быть целым числом.
SECRET_FUNCTION_INVALID_LOCATION
Не удается выполнить команду <commandType> с одной или несколькими не зашифрованными ссылками на функцию SECRET; Зашифруйте результат каждого такого вызова функции с помощью AES_ENCRYPT и повторите попытку.
Безопасный объект не существует
<securable> не существует.
SEED_EXPRESSION_IS_UNFOLDABLE
Выражение <seedExpr> выражения <exprWithSeed> должно быть свертываемым.
SERVER_IS_BUSY
Сервер занят и не может обрабатывать запрос. Подождите минуту и повторите попытку.
SET_QUERY_TAGS_SYNTAX_INVALID
Не удалось выполнить SET команду, так как синтаксис был недопустим. Ожидаемый синтаксис для этой команды имеет SET QUERY_TAGS значение или SET QUERY_TAGS['key'] = "value". Исправьте команду, чтобы соответствовать этому синтаксису, а затем повторно запустите ее снова.
SFTP_DEPRECATED_SSH_RSA_KEY_ALGORITHM
Сервер <host>SFTP:<port> использует устаревший алгоритм SSH RSA для обмена ключами.
Рассмотрите возможность обновления сервера SFTP, чтобы использовать более безопасный алгоритм, например ECDSA или ED25519.
В качестве альтернативы обойдите эту ошибку, задав <escapeHatchConf> значение true.
SFTP_UNABLE_TO_CONNECT
Не удалось подключиться к серверу <host> SFTP через порт <port> с именем пользователя <user>.
<error>
SFTP_НЕИЗВЕСТНЫЙ_КЛЮЧ_ХОСТА
Ключ узла сервера <host> SFTP неизвестен или изменен.
Проверьте сообщение об ошибке ниже, а затем укажите отпечаток ключа в Key fingerprint поле.
Например, если в сообщении отображается ключевойECDSA отпечаток sha256:XXX/YYY, отправьте "SHA256:XXX/YYY" в качестве отпечатка ключа.
Сообщение об ошибке подключения:
<error>
SFTP_USER_DOES_NOT_MATCH
Пользователь, полученный из учетных данных <credentialUser>, не соответствует указанному в пути <path> пользователю SFTP.
SHOW_COLUMNS_WITH_CONFLICT_NAMESPACE
SHOW COLUMNS с конфликтующими пространствами имен: <namespaceA> != <namespaceB>.
SNOWFLAKE_DATA_SOURCE_OPTIONS_VALIDATION_FAILED
Сбой проверки вариант(ов) источника данных Snowflake.
Дополнительные сведения см. в SNOWFLAKE_DATA_SOURCE_OPTIONS_VALIDATION_FAILED
SORT_BY_WITHOUT_BUCKETING
SortBy необходимо использовать вместе с bucketBy.
SPARK_JOB_CANCELLED
<jobId> задача отменена <reason>
SPECIFY_BUCKETING_IS_NOT_ALLOWED
CREATE TABLE без явного списка столбцов не может указывать сведения о разбиении на блоки.
Используйте форму с явным списком столбцов и укажите сведения о контейнере.
В качестве альтернативы, можно позволить выводить информацию о группировке, опустив условие.
SPECIFY_CLUSTER_BY_WITH_BUCKETING_IS_NOT_ALLOWED
Не удается указать как CLUSTER BY, так и CLUSTERED BY INTO BUCKETS.
SPECIFY_CLUSTER_BY_WITH_PARTITIONED_BY_IS_NOT_ALLOWED
Не удается указать как CLUSTER BY, так и PARTITIONED BY.
SPECIFY_PARTITION_IS_NOT_ALLOWED
CREATE TABLE без явного списка столбцов не может указывать PARTITIONED BY.
Используйте форму с явным списком столбцов и укажите PARTITIONED BY.
Кроме того, можно позволить определить разделение, опуская условие PARTITION BY.
SQL_CONF_NOT_FOUND
Не удается найти конфигурацию SQL <sqlConf>. Убедитесь, что конфигурация существует.
SQL_SCRIPT_IN_EXECUTE_IMMEDIATE
Скрипты SQL в EXECUTE IMMEDIATE командах не допускаются. Убедитесь, что предоставленный SQL-запрос (<sqlString>) не является скриптом SQL. Убедитесь, что sql_string является хорошо сформированной инструкцией SQL и не содержит BEGIN и END.
SQL_SCRIPT_MAX_NUMBER_OF_CHARACTERS_EXCEEDED
Превышено максимальное количество символов в скрипте SQL (id: <scriptId>). Максимально допустимое число символов составляет <maxChars>, а скрипт содержал <chars> символы.
SQL_SCRIPT_MAX_NUMBER_OF_LINES_EXCEEDED
Превышено максимальное количество строк в скрипте SQL (id: <scriptId>). Максимально допустимое <maxLines>количество строк, а скрипт имеет <lines> строки.
SQL_SCRIPT_MAX_NUMBER_OF_LOCAL_VARIABLE_DECLARATIONS_EXCEEDED
Превышено максимальное количество локальных переменных в SQL-скрипте (id: <scriptId>). Максимально допустимое число объявлений — <maxDeclarations>, а в скрипте было <declarations>.
SQL_STORED_PROCEDURES_NESTED_CALLS_LIMIT_EXCEEDED
Максимальное количество вызовов вложенных процедур превышено для процедуры (имя: <procedureName>, callId: <procedureCallId>). Максимально допустимое число вложенных вызовов процедур: <limit>.
STAGING_PATH_CURRENTLY_INACCESSIBLE
Временная ошибка при доступе к целевому промежуточному пути <path>, попробуйте через несколько минут
STAR_GROUP_BY_POS
Звёздочка (*) не разрешена в списке выбора, если используется порядковая позиция GROUP BY.
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_HANDLE_STATE
Не удалось выполнить операцию процессора с сохранением состояния<operationType> с недопустимым состоянием идентификатора<handleState>.
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_TIME_MODE
Не удалось выполнить состояниесохраняющую операцию процессора<operationType> с недопустимым режимом времени<timeMode>.
STATEFUL_PROCESSOR_DUPLICATE_STATE_VARIABLE_DEFINED
Переменная состояния с именем <stateVarName> уже определена в StatefulProcessor.
STATEFUL_PROCESSOR_INCORRECT_TIME_MODE_TO_ASSIGN_TTL
Не удается использовать TTL для состояния=<stateName> в timeMode=<timeMode>, используйте TimeMode.ProcessingTime() вместо этого.
STATEFUL_PROCESSOR_TTL_DURATION_MUST_BE_POSITIVE
Длительность TTL должна быть больше нуля для операции хранилища состояний=<operationType> в состоянии=<stateName>.
STATEFUL_PROCESSOR_UNKNOWN_TIME_MODE
Неизвестный режим времени <timeMode>. Допустимые режимы timeMode: 'none', 'processingTime', 'eventTime'
STATE_REPARTITION_INVALID_CHECKPOINT
Предоставленное расположение контрольной точки "<checkpointLocation>" находится в недопустимом состоянии.
Дополнительные сведения см. в STATE_REPARTITION_INVALID_CHECKPOINT
STATE_REPARTITION_INVALID_PARAMETER
Недопустимый параметр <parameter> повторной части:
Дополнительные сведения см. в STATE_REPARTITION_INVALID_PARAMETER
STATE_STORE_CANNOT_CREATE_COLUMN_FAMILY_WITH_RESERVED_CHARS
Не удалось создать семейство столбцов с неподдерживаемым начальным символом и именем=<colFamilyName>.
STATE_STORE_CANNOT_USE_COLUMN_FAMILY_WITH_INVALID_NAME
Не удалось выполнить операцию с семейством столбцов<operationName> с недопустимым именем<colFamilyName>. Имя семейства столбцов не может быть пустым, не должно включать начальные или конечные пробелы, и не должно использовать зарезервированное ключевое слово «default».
STATE_STORE_CHECKPOINT_IDS_NOT_SUPPORTED
<msg>
STATE_STORE_CHECKPOINT_LOCATION_NOT_EMPTY
Расположение <checkpointLocation> контрольной точки должно быть пустым в пакете 0
Используйте новое расположение контрольной точки или удалите существующие данные в расположении контрольной точки.
STATE_STORE_COLUMN_FAMILY_SCHEMA_INCOMPATIBLE
Несовместимое преобразование схемы с семейством столбцов=<colFamilyName>, oldSchema=<oldSchema>, newSchema=<newSchema>.
STATE_STORE_DOES_NOT_SUPPORT_REUSABLE_ITERATOR
<inputClass> StateStore не поддерживает повторно используемый итератор.
STATE_STORE_HANDLE_NOT_INITIALIZED
Дескриптор не инициализирован для этого StatefulProcessor.
Пожалуйста, используйте только StatefulProcessor в операторе transformWithState.
STATE_STORE_INCORRECT_NUM_ORDERING_COLS_FOR_RANGE_SCAN
Неверное число порядковых номеров =<numOrderingCols> для кодировщика диапазонного сканирования. Число порядковых номеров не может быть равно нулю или больше числа столбцов схемы.
STATE_STORE_INCORRECT_NUM_PREFIX_COLS_FOR_PREFIX_SCAN
Неверное количество столбцов с префиксом =<numPrefixCols> для кодировщика сканирования префикса. Столбцы префикса не могут быть равны нулю или быть больше или равны числу столбцов схемы.
STATE_STORE_INVALID_AVRO_SCHEMA (недопустимая схема Avro для хранилища состояний)
Обнаружена недопустимая схема для кодирования Avro.
Дополнительные сведения см. в STATE_STORE_INVALID_AVRO_SCHEMA
STATE_STORE_INVALID_CONFIG_AFTER_RESTART
Невозможно изменить <configName> с <oldConfig> на <newConfig> между перезапусками. Задайте для <configName> значение <oldConfig>или перезапустите новый каталог контрольных точек.
STATE_STORE_INVALID_PROVIDER
Указанный поставщик хранилища состояний <inputClass> не расширяет org.apache.spark.sql.execution.streaming.state.StateStoreProvider.
STATE_STORE_INVALID_VARIABLE_TYPE_CHANGE
Невозможно изменить <stateVarName> на <newType> между перезапусками запросов. Задайте для <stateVarName> значение <oldType>или перезапустите новый каталог контрольных точек.
СХЕМА_КЛЮЧА_ХРАНИЛИЩА_СОСТОЯНИЯ_НЕ_СОВМЕСТИМА
Указанная схема ключа не соответствует существующей схеме в состоянии оператора.
Существующая схема=<storedKeySchema>; предоставленная схема=<newKeySchema>.
Чтобы выполнить запрос без проверки схемы, задайте для параметра spark.sql.streaming.stateStore.stateSchemaCheck значение false.
Обратите внимание, что выполнение без проверки схемы может иметь недетерминированное поведение.
STATE_STORE_NATIVE_ROCKSDB_TIMEOUT
При доступе к хранилищу состояний RocksDB для потоковой операции с отслеживанием состояния произошел таймаут при вызове функции <funcName> RocksDB после ожидания в течение <timeoutMs> мс. Повторите попытку и перезапустите кластер, если ошибка сохраняется.
STATE_STORE_NULL_TYPE_ORDERING_COLS_NOT_SUPPORTED
Столбец с упорядочиванием по типу NULL, с именем<fieldName> и индексом<index>, не поддерживается кодировщиком сканирования диапазона.
STATE_STORE_PROVIDER_DOES_NOT_SUPPORT_FINE_GRAINED_STATE_REPLAY
Указанный поставщик хранилища состояний <inputClass> не расширяет org.apache.spark.sql.execution.streaming.state.SupportsFineGrainedReplay.
Поэтому он не поддерживает параметр snapshotStartBatchId или readChangeFeed в источнике состояния данных.
STATE_STORE_ROCKSDB_ZIP_ALREADY_EXISTS
Zip-файл <zipFilePath> моментального снимка RocksDB уже существует. Это означает, что моментальный снимок уже отправлен в DFS.
(разрешитьПерезаписьВерсии=<allowVersionOverwrite>, использоватьСервисФиксации=<shouldUseCommitService>)
STATE_STORE_STATE_SCHEMA_FILES_THRESHOLD_EXCEEDED
Число файлов схемы состояния, <numStateSchemaFiles> превышает максимальное количество файлов схемы состояния для этого запроса: <maxStateSchemaFiles>.
Добавлено: <addedColumnFamilies>, удалено: <removedColumnFamilies>
Задайте для параметра "spark.sql.streaming.stateStore.stateSchemaFilesThreshold" большее число или отмените изменения схемы состояния
STATE_STORE_UNSUPPORTED_OPERATION_ON_MISSING_COLUMN_FAMILY
Операция хранилища состояний=<operationType> не поддерживается из-за отсутствия семейства столбцов=<colFamilyName>.
STATE_STORE_VALUE_SCHEMA_EVOLUTION_THRESHOLD_EXCEEDED
Число эволюций схемы состояния <numSchemaEvolutions> превышает максимальное количество эволюций схемы состояния, <maxSchemaEvolutions>, разрешенных для этого семейства столбцов.
Семейство оскорбляющих столбцов: <colFamilyName>
Установите для параметра "spark.sql.streaming.stateStore.valueStateSchemaEvolutionThreshold" большее значение или отмените изменения схемы состояния.
STATE_STORE_VALUE_SCHEMA_NOT_COMPATIBLE
Указанная схема значения не соответствует существующей схеме в состоянии оператора.
Существующая схема=<storedValueSchema>; предоставленная схема=<newValueSchema>.
Чтобы выполнить запрос без проверки схемы, задайте для параметра spark.sql.streaming.stateStore.stateSchemaCheck значение false.
Обратите внимание, что выполнение без проверки схемы может иметь недетерминированное поведение.
STATE_STORE_VARIABLE_SIZE_ORDERING_COLS_NOT_SUPPORTED
Столбец переменного размера для сортировки с именем=<fieldName> с индексом=<index> не поддерживается для кодирования в диапазоне сканирования.
STATIC_PARTITION_COLUMN_IN_INSERT_COLUMN_LIST
Статический столбец секционирования <staticName> также указывается в списке столбцов.
STDS_COMMITTED_BATCH_UNAVAILABLE
Нет подтвержденного пакета, расположение контрольной точки: <checkpointLocation>. Убедитесь, что запрос был выполнен и зафиксировал любой микробатч перед остановкой.
STDS_CONFLICT_OPTIONS
Нельзя одновременно указывать параметры <options>. Укажите его.
STDS_FAILED_TO_READ_OPERATOR_METADATA
Не удалось считывать метаданные оператора для контрольных точекLocation=<checkpointLocation> и batchId=<batchId>.
Либо файл не существует, либо файл поврежден.
Повторно выполните запрос потоковой передачи, чтобы создать метаданные оператора и сообщить соответствующим сообществам или поставщикам, если ошибка сохраняется.
STDS_FAILED_TO_READ_STATE_SCHEMA
Не удалось прочитать схему состояния. Либо файл не существует, либо файл поврежден. параметры: <sourceOptions>.
Повторно запустите потоковый запрос, чтобы создать схему состояния, и сообщите соответствующим сообществам или поставщикам, если ошибка сохраняется.
STDS_INVALID_OPTION_VALUE
Недопустимое значение для параметра источника '<optionName>':
Дополнительные сведения см. в STDS_INVALID_OPTION_VALUE
STDS_MIXED_CHECKPOINT_FORMAT_VERSIONS_NOT_SUPPORTED
Состояние чтения в разных версиях формата контрольных точек не поддерживается.
startBatchId=<startBatchId>, endBatchId=<endBatchId>.
startFormatVersion=<startFormatVersion>, endFormatVersion=<endFormatVersion>.
STDS_NO_PARTITION_DISCOVERED_IN_STATE_STORE
Государство не имеет никакого разделения. Проверьте еще раз, что запрос указывает на допустимое состояние. параметры: <sourceOptions>
STDS_OFFSET_LOG_UNAVAILABLE
Журнал смещения для <batchId> не существует, расположение контрольной точки: <checkpointLocation>.
Укажите идентификатор пакета, доступный для запроса. Вы можете запросить доступные идентификаторы пакетов с помощью источника данных метаданных состояния.
STDS_OFFSET_METADATA_LOG_UNAVAILABLE
Метаданные недоступны для журнала смещения <batchId>, расположение контрольной точки: <checkpointLocation>.
Кажется, что контрольная точка работает только со старыми версиями Spark. Запустите потоковый запрос с последней версией Spark, чтобы Spark создает метаданные состояния.
STDS_REQUIRED_OPTION_UNSPECIFIED
Необходимо указать значение '<optionName>'.
STREAMING_AQE_NOT_SUPPORTED_FOR_STATEFUL_OPERATORS
Адаптивное выполнение запросов не поддерживается для операторов с состоянием в структурированной потоковой передаче.
STREAMING_CHECKPOINT_METADATA_ERROR
Ошибка в метаданных контрольной точки потоковой передачи.
Для получения дополнительных сведений см. STREAMING_CHECKPOINT_METADATA_ERROR
STREAMING_CHECKPOINT_PIN_BATCH_ERROR
Не удалось выполнить операцию пин-кода для потокового запроса с расположением контрольной точки=<checkpointLocation> в batchId=<batchId>.
Дополнительные сведения см. в STREAMING_CHECKPOINT_PIN_BATCH_ERROR
STREAMING_CHECKPOINT_REWIND_ERROR
Не удалось выполнить операцию перемотки для потокового запроса с расположением контрольной точки.<checkpointLocation>
Дополнительные сведения см. в STREAMING_CHECKPOINT_REWIND_ERROR
STREAMING_CHECKPOINT_REWIND_OPTIONS_ERROR
Ошибка во время операции перемотки контрольной точки потоковой передачи.
Дополнительные сведения см. в STREAMING_CHECKPOINT_REWIND_OPTIONS_ERROR
STREAMING_FROM_MATERIALIZED_VIEW
Невозможно получить данные из материализованного представления <viewName>. Потоковая передача из материализованных представлений не поддерживается.
STREAMING_OUTPUT_MODE
Недопустимый режим потокового вывода: <outputMode>.
Дополнительные сведения см. в STREAMING_OUTPUT_MODE
STREAMING_QUERY_EVOLUTION_ERROR
Ошибка эволюции потокового запроса:
Дополнительные сведения см. в STREAMING_QUERY_EVOLUTION_ERROR
Несоответствие версии смещения источника скорости потоковой передачи (STREAMING_RATE_SOURCE_OFFSET_VERSION_MISMATCH)
Ожидалась версия <expectedVersion>, смещение источника частоты, но получена версия <actualVersion>. Чтобы продолжить, задайте параметр "версия" <expectedVersion> в параметрах источника частоты. Например, spark.readStream.format("rate").option("version", "<expectedVersion>").
STREAMING_RATE_SOURCE_V2_PARTITION_NUM_CHANGE_UNSUPPORTED
Количество секций (<prevNum>), используемых в предыдущем микробатче, отличается от текущего числа секций (<currNum>). Возможны две причины:
Параметр numPartitions источника скорости изменяется во время перезапуска запроса.
Размер кластера может измениться во время перезапуска запроса.
Явно задайте параметр "numPartitions" для источника rate на <prevNum>, чтобы устранить эту проблему.
STREAMING_RATE_SOURCE_V2_RAMPUP_TIME_UNSUPPORTED
Параметр "rampUpTime" не поддерживается версией rate 2. Чтобы использовать этот параметр, задайте для параметра "версия" значение 1. Например, spark.readStream.format("rate").option("version", "1").
STREAMING_REAL_TIME_MODE
Режим потоковой передачи в режиме реального времени имеет следующее ограничение:
Дополнительную информацию см. в STREAMING_REAL_TIME_MODE
ПОТОКОВАЯ_ПЕРЕДАЧА_РЕАЛЬНОГО_ВРЕМЕНИ_ПРОПАГАЦИЯ_ВОДЯНЫХ_ЗНАКОВ
Распространение подложки потоковой передачи в режиме реального времени имеет следующее ограничение:
Дополнительные сведения см. в STREAMING_REAL_TIME_WATERMARK_PROPAGATION
РЕЖИМ_ДОСТАВКИ_ПОТОКОВОЙ_РАЗВЕТВИТЕЛЬНОЙ_СИСТЕМЫ
Недопустимый режим доставки потока для приемника: <deliveryMode>.
Дополнительные сведения см. в STREAMING_SINK_DELIVERY_MODE
STREAMING_SKIP_OFFSETS_INVALID_RANGE
Недопустимый диапазон смещения пропуска: смещение <endOffset> конца меньше начального смещения <startOffset>. Исправьте этот диапазон смещения и повторите попытку.
STREAMING_STATEFUL_OPERATOR_MISSING_STATE_DIRECTORY
Не удается перезапустить потоковый запрос с операторами с отслеживанием состояния, так как каталог состояния пуст или отсутствует.
Обычно это происходит при удалении файлов состояния или выполнении потокового запроса без операторов с отслеживанием состояния, но перезапускается с помощью операторов с отслеживанием состояния.
Удалите операторы с отслеживанием состояния, используйте новое расположение контрольной точки или восстановите отсутствующие файлы состояния.
STREAMING_STATEFUL_OPERATOR_NOT_MATCH_IN_STATE_METADATA
Имя оператора потоковой передачи с отслеживанием состояния не соответствует оператору в метаданных состояния. Вероятно, это произойдет, когда пользователь добавляет, удаляет или изменяет оператор отслеживания состояния в существующем потоковом запросе.
Операторы с состоянием в метаданных: [<OpsInMetadataSeq>]; Операторы с состоянием в текущем пакете: [<OpsInCurBatchSeq>].
STREAMING_TABLE_NEEDS_REFRESH
Чтобы выполнить <tableName>, таблицу потоковой передачи <operation> необходимо обновить.
Если таблица создается из DBSQL, выполните REFRESH STREAMING TABLE.
Если таблица создается конвейером в Декларативных конвейерах Spark Lakeflow, выполните обновление конвейера.
STREAMING_TABLE_NOT_SUPPORTED
Таблицы потоковой передачи можно создавать и обновлять только в декларативных конвейерах и хранилищах SQL Databricks в Lakeflow Spark.
STREAMING_TABLE_OPERATION_NOT_ALLOWED
Операция <operation> не разрешена:
Дополнительные сведения см. в STREAMING_TABLE_OPERATION_NOT_ALLOWED
STREAMING_TABLE_QUERY_INVALID
Потоковую таблицу <tableName> можно создать только из потокового запроса. Добавьте ключевое слово STREAM в предложение FROM, чтобы преобразовать это отношение в потоковый запрос.
STREAM_NOT_FOUND_FOR_KINESIS_SOURCE
Поток Kinesis <streamName> в <region> не найден.
Запустите новый запрос, указывающий на правильное имя потока.
STRUCT_ARRAY_LENGTH_MISMATCH
Входная строка не имеет ожидаемого количества значений, необходимых схеме. Заполнение полей <expected> обязательно, в то время как значения <actual> предоставляются при необходимости.
ST_INVALID_ALGORITHM_VALUE
Недопустимое или неподдерживаемое значение алгоритма интерполяции края: '<alg>'.
ST_INVALID_CRS_VALUE
Недопустимое или неподдерживаемое значение CRS (координатная эталонная система): '<crs>'
ST_INVALID_SRID_VALUE
Недопустимое или неподдерживаемое значение SRID (идентификатор пространственной ссылки): <srid>
SUM_OF_LIMIT_AND_OFFSET_EXCEEDS_MAX_INT
Сумма предложения LIMIT и предложения OFFSET не должна превышать максимальное 32-разрядное целочисленное значение (2 147 483 647), но найдено ограничение = <limit>, смещение = <offset>.
SYNC_METADATA_DELTA_ONLY
Команда "Восстановить метаданные синхронизации таблиц" поддерживается только для разностной таблицы.
SYNC_SRC_TARGET_TBL_NOT_SAME
Имя исходной таблицы <srcTable> должно совпадать с именем целевой таблицы <destTable>.
SYNTAX_DISCONTINUED
Поддержка предложения или ключевого слова: <clause> была прекращена в этом контексте.
Дополнительные сведения см. в SYNTAX_DISCONTINUED
ТАБЛИЧНЫЕ_АРГУМЕНТЫ_НЕ_ДОПУСКАЮТСЯ
TABLE параметры не поддерживаются в <routineType>.
TABLE_NOT_VALID_SECONDARY_INDEX
Не удалось выполнить DESCRIBE SEARCH INDEX команду, так как таблица <tableName> не является допустимым <indexType> индексом. Обновите команду, чтобы использовать допустимый индекс и повторите попытку.
TABLE_OR_VIEW_ALREADY_EXISTS
Невозможно создать таблицу или представление <relationName>, так как она уже существует.
Выберите другое имя, удалите существующий объект, добавьте IF NOT EXISTS для учета уже существующих объектов, добавьте REPLACE для замены существующего материализованного представления или добавьте REFRESH для обновления существующей потоковой таблицы.
TABLE_OR_VIEW_NOT_FOUND
Не удается найти таблицу или представление <relationName>. Проверьте орфографию и правильность схемы и каталога.
Если вы не связали имя со схемой, проверьте результаты current_schema() или уточните имя с правильной схемой и каталогом.
Чтобы не допускать ошибки при удалении, используйте DROP VIEW IF EXISTS или DROP TABLE IF EXISTS.
Для получения дополнительной информации см. TABLE_OR_VIEW_NOT_FOUND
TABLE_TYPE_INCOMPATIBLE_WITH_ABAC_POLICY
Тип <tableName>, <tableType>таблицы не поддерживает политики ABAC.
Удалите правила и повторите попытку.
TABLE_VALUED_ARGUMENTS_NOT_YET_IMPLEMENTED_FOR_SQL_FUNCTIONS
Невозможно выполнить определяемую пользователем функцию SQL <action><functionName> с аргументами TABLE, так как эта функциональность еще не реализована.
TABLE_VALUED_FUNCTION_FAILED_TO_ANALYZE_IN_PYTHON
Не удалось проанализировать определяемую пользователем функцию таблицы Python: <msg>
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INCOMPATIBLE_WITH_CALL
Не удалось оценить функцию таблицы <functionName> из-за несоответствия: метаданные таблицы <requestedMetadata>, а вызов функции <invalidFunctionCallProperty>.
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INVALID
Не удалось оценить функцию таблицы <functionName>, так как ее метаданные таблицы были недопустимыми; <reason>.
TABLE_VALUED_FUNCTION_TOO_MANY_TABLE_ARGUMENTS
Существует слишком много аргументов таблицы для табличной функции.
Это допускает один аргумент таблицы, но получен: <num>.
Если вы хотите разрешить эту функцию, установите spark.sql.allowMultipleTableArguments.enabled в значение true.
TABLE_WITH_ID_NOT_FOUND
Не удается найти таблицу с идентификатором <tableId>. Проверьте правильность идентификатора UUID.
TASK_WRITE_FAILED
Сбой задачи при записи строк в <path>.
TEMP_CHECKPOINT_LOCATION_NOT_SUPPORTED
Неявные временные расположения контрольных точек потоковой передачи не поддерживаются в текущей рабочей области, укажите явное расположение контрольной точки.
Для display() задайте расположение контрольной точки с помощью:
display(df, контрольная точкаLocation = "your_path")
Для всех других запросов потоковой передачи используйте:
.option("checkpointLocation", "your_path").
TEMP_TABLE_CREATION_LEGACY_WITH_QUERY
CREATE TEMPORARY TABLE
...
AS ... не поддерживается здесь, используйте CREATE TEMPORARY VIEW вместо него
TEMP_TABLE_CREATION_MUTUAL_EXCLUSIVE_SPECS
CREATE TEMPORARY TABLE не поддерживает указание <unsupportedSpec>.
Дополнительные сведения см. в TEMP_TABLE_CREATION_MUTUAL_EXCLUSIVE_SPECS
TEMP_TABLE_CREATION_NAME_RESERVED
Не удается создать временную таблицу <tableName> , так как она начинается с префикса <reservedPrefix>зарезервированного имени. Выберите другое имя и повторите попытку.
TEMP_TABLE_CREATION_NOT_SUPPORTED_IN_COMPUTE
CREATE TEMPORARY TABLE [AS ... ] не поддерживается текущим типом вычислений. Вместо этого используйте Databricks SQL (DBSQL) для создания временных таблиц сеанса.
TEMP_TABLE_CREATION_REQUIRES_SINGLE_PART_NAME
Для создания временной таблицы на уровне сеанса требуется однокомпонентное имя таблицы, но было получено <tableName>. Обновите команду, чтобы использовать одночастное имя таблицы, и попробуйте снова.
TEMP_TABLE_CREATION_UNSUPPORTED_LEGACY_SYNTAX_WITH_HINTS
CREATE TEMPORARY TABLE
...
USING
...
AS ... не поддерживается. Чтобы создать временную таблицу, удалите USING предложение и повторите попытку.
TEMP_TABLE_DELETION_MUTUAL_EXCLUSIVE_SPECS
DROP TEMPORARY TABLE не поддерживает указание <unsupportedSpec>, удалите эту спецификацию или откажитесь от постоянной таблицы, вместо этого используйте команду DROP TABLE.
TEMP_TABLE_DELETION_REQUIRES_SINGLE_PART_NAME
Для удаления локальной временной таблицы сеанса требуется имя таблицы с одной частью, но было получено <tableName>. Обновите команду DROP TEMPORARY TABLE, чтобы использовать имя единичной части таблицы для удаления временной таблицы, или используйте команду DROP TABLE, чтобы удалить постоянную таблицу.
TEMP_TABLE_NOT_FOUND
Временная таблица <tableName> не найдена в текущем сеансе. Проверьте орфографию и правильность имени таблицы и повторите запрос или команду.
Чтобы игнорировать ошибку при сбросе, используйте DROP TEMP TABLE IF EXISTS.
ВРЕМЕННЫЕ_ТАБЛИЦЫ_НЕ_ПОДДЕРЖИВАЮТСЯ_В_ДЕЛАХ_НА_DATABRICKS
Временная таблица пока не поддерживается в заданиях Databricks. Вместо этого используйте записные книжки Databricks и обратитесь в службу поддержки Databricks для получения дополнительных сведений.
TEMP_TABLE_NOT_SUPPORTED_WITH_HMS
Операции с временной таблицей <operation> не поддерживаются в хранилище метаданных Hive.
TEMP_TABLE_OPERATION_NOT_SUPPORTED
Операции с локальной временной таблицей сеанса <tableName> не разрешены.
Дополнительные сведения см. в TEMP_TABLE_OPERATION_NOT_SUPPORTED
TEMP_TABLE_OPERATION_NOT_SUPPORTED_IN_V1_COMMAND
<operation> во временных таблицах не поддерживается командами версии 1. Задайте для параметра "spark.sql.legacy.useV1Command" значение false и повторите попытку.
TEMP_TABLE_OR_VIEW_ALREADY_EXISTS
Не удается создать временную таблицу или представление <relationName> , так как она уже существует.
Выберите другое имя, удалите или замените существующий объект.
TEMP_TABLE_REPLACE_NOT_SUPPORTED
[CREATE OR] REPLACE TEMPORARY TABLE не поддерживается. Чтобы заменить существующую временную таблицу, удалите ее с помощью DROP TEMPORARY TABLE ... [IF EXISTS] и повторно создайте его с помощью CREATE TEMPORARY TABLE ... .
TEMP_TABLE_REQUIRES_DATABRICKS_ENV
Для операций с локальными временными таблицами сеанса требуется среда Databricks.
TEMP_TABLE_REQUIRES_DELTA
Для операций с временными таблицами сеанса требуется включить каталог Delta. Включите каталог Delta и повторите попытку.
TEMP_TABLE_REQUIRES_UC
Для операций с временными таблицами, локальными для сеанса, требуется Unity Catalog. Включите каталог Unity в работающей среде и повторите попытку.
TEMP_VIEW_NAME_TOO_MANY_NAME_PARTS
CREATE TEMPORARY VIEW или соответствующие API наборов данных принимают только имена представлений с одной частью, но получили: <actualName>.
THETA_INVALID_INPUT_SKETCH_BUFFER
Недопустимый вызов <function>; поддерживаются только допустимые буферы эскизов Theta в качестве входных данных (например, созданных функцией theta_sketch_agg ).
THETA_INVALID_LG_NOM_ENTRIES
Недопустимый вызов <function>; значение lgNomEntries должно быть в пределах от <min> до <max>включительно: <value>.
THETA_LG_NOM_ENTRIES_MUST_BE_CONSTANT
Недопустимый вызов <function>; lgNomEntries значение должно быть константным, но получил неконстантное выражение.
TRAILING_COMMA_IN_SELECT
Обнаружена висячая запятая в предложении SELECT. Удалите запятую перед предложением FROM.
TRANSACTION_CDF_SCHEMA_WITH_RESERVED_COLUMN_NAME
Невозможно включить канал изменений в транзакции, так как таблица содержит зарезервированное имя столбца (<column_name>).
Чтобы продолжить, убедитесь, что в таблице используются только не зарезервированные имена столбцов.
TRANSACTION_CDF_SETTING_HIGH_WATERMARK_NOT_ALLOWED
Установка вручную максимального уровня для идентификаторов CDC запрещена.
TRANSACTION_CONCURRENT_CATALOG_METADATA_CHANGE
В объекте <table>обнаружено параллельное изменение метаданных. Выполните ROLLBACK и повторите эту транзакцию. Details:
Дополнительные сведения см. в TRANSACTION_CONCURRENT_CATALOG_METADATA_CHANGE
TRANSACTION_CONTEXT_MISMATCH
Несоответствие контекста транзакций обнаружено между текущим потоком и сеансом Spark. Обычно это происходит при совместном использовании сеанса Spark в нескольких потоках. Пожалуйста, используйте выделенный сеанс и выделенный поток для каждой транзакции, и зафиксируйте или откатите транзакцию в своем потоке, прежде чем повторно использовать сеанс и поток для новой транзакции. Details:
Дополнительные сведения см. в TRANSACTION_CONTEXT_MISMATCH
TRANSACTION_MAX_COMMIT_TIMESTAMP_EXCEEDED
Транзакция не может быть зафиксирована, поскольку превышено максимальное время фиксации. maxCommitTimestamp: commitTimestamp:<maxCommitTimestampMs><commitTimestampMs>
TRANSACTION_NOT_SUPPORTED
Не удалось выполнить инструкцию.
Дополнительные сведения см. в TRANSACTION_NOT_SUPPORTED
TRANSACTION_ROLLBACK_REQUIRED_AFTER_ABORT
Текущая транзакция прервана. Прежде чем продолжить, выполните команду ROLLBACK TRANSACTION . Причина прерывания:
Дополнительные сведения см. в TRANSACTION_ROLLBACK_REQUIRED_AFTER_ABORT
TRANSFORM_WITH_STATE_USER_FUNCTION_ERROR
Произошла ошибка в определяемой пользователем функции <function> StatefulProcessor. Причина: <reason>.
TRANSPOSE_EXCEED_ROW_LIMIT
Число строк превышает допустимое ограничение в <maxValues> для TRANSPOSE. Если это так задумано, задайте <config> равным по крайней мере текущему количеству строк.
TRANSPOSE_INVALID_INDEX_COLUMN
Недопустимый столбец индекса для TRANSPOSE, потому что: <reason>
TRANSPOSE_NO_LEAST_COMMON_TYPE
Для транспонирования требуется, чтобы неиндексированные столбцы имели общий наименьший тип, но <dt1> и <dt2> его не имеют.
TRIGGER_INTERVAL_INVALID
Интервал триггера должен быть положительным и таким, чтобы его можно было преобразовать в целые секунды. Получено: <actual> секунда.
TUPLE_IS_EMPTY
Из-за ограниченной поддержки кортежа Scala пустой кортеж не поддерживается.
TUPLE_SIZE_EXCEEDS_LIMIT
Из-за ограниченной поддержки кортежей в Scala, кортежи, содержащие более 22 элементов, не поддерживаются.
UC_BUCKETED_TABLES
Сегментированные таблицы не поддерживаются в каталоге Unity.
UC_CATALOG_NAME_NOT_PROVIDED
Для каталога Unity укажите явное имя каталога. Например, SHOW GRANT your.address@email.com ON CATALOG main.
UC_COMMAND_NOT_SUPPORTED
Команды: <commandName> не поддерживаются в каталоге Unity.
Дополнительные сведения см. в UC_COMMAND_NOT_SUPPORTED
UC_COMMAND_NOT_SUPPORTED_IN_SERVERLESS
Команды: <commandName> не поддерживаются для кластеров Unity Catalog в безсерверных средах. Вместо этого используйте одно пользовательские или общие кластеры.
UC_COMMAND_NOT_SUPPORTED_IN_SHARED_ACCESS_MODE
Команды: <commandName> не поддерживаются для кластеров каталога Unity в режиме общего доступа. Вместо этого используйте режим доступа с одним пользователем.
UC_CONNECTION_NOT_FOUND_FOR_FILE_SYSTEM_SOURCE_ACCESS
Не удалось найти действительное подключение UC для доступа к <path> после проверки <connectionNames>.
Убедитесь, что для доступа к целевому пути доступно хотя бы одно действительное подключение UC.
Подробные ошибки для оцененных подключений:
<connectionErrors>
UC_CREDENTIAL_PURPOSE_NOT_SUPPORTED
Указанный тип учетных данных не поддерживается.
UC_DATASOURCE_NOT_SUPPORTED
Формат источника данных <dataSourceFormatName> не поддерживается в каталоге Unity.
UC_DATASOURCE_OPTIONS_NOT_SUPPORTED
Параметры источника данных не поддерживаются в каталоге Unity.
UC_DEPENDENCY_DOES_NOT_EXIST
Зависимость не существует в каталоге Unity:
<errorMessage>
UC_EXTERNAL_VOLUME_MISSING_LOCATION
LOCATION пункт должен быть предусмотрен для внешнего тома. Проверьте синтаксис "CREATE EXTERNAL VOLUME...LOCATION ..." для создания внешнего тома.
UC_FAILED_PROVISIONING_STATE
Сбой запроса, так как он пытался ссылаться на таблицу <tableName>, но не смог сделать это: <failureReason>. Обновите таблицу <tableName>, чтобы убедиться, что она находится в активном состоянии подготовки, а затем попробуйте повторно выполнить запрос.
UC_FILE_SCHEME_FOR_TABLE_CREATION_NOT_SUPPORTED
Создание таблицы в каталоге Unity с помощью схемы файлов <schemeName> не поддерживается.
Вместо этого создайте федеративное подключение к источнику данных с помощью команды CREATE CONNECTION для того же поставщика таблиц, а затем создайте каталог на основе соединения с командой CREATE FOREIGN CATALOG, чтобы ссылаться на эти таблицы.
UC_HIVE_METASTORE_DISABLED_EXCEPTION
Операция попыталась использовать хранилище<identifier> метаданных Hive, которое отключено из-за отключения устаревшего доступа в вашей учетной записи или рабочей области. Дважды проверьте каталог по умолчанию в текущем сеансе и параметре пространства имен по умолчанию. Если вам нужно получить доступ к хранилищу метаданных Hive, попросите администратора настроить федерацию хранилища метаданных Hive через каталог Unity.
UC_HIVE_METASTORE_FEDERATION_CROSS_CATALOG_VIEW_NOT_SUPPORTED
Представление федерации хранилища метаданных Hive не поддерживает зависимости между несколькими каталогами. Представление <view> в каталоге федерации метаданных Hive должно использовать зависимость из каталога hive_metastore или spark_catalog, но его зависимость <dependency> находится в другом каталоге <referencedCatalog>. Обновите зависимости, чтобы удовлетворить это ограничение, а затем повторите запрос или команду.
UC_HIVE_METASTORE_FEDERATION_NOT_ENABLED
Федерация хранилища метаданных Hive не включена в этом кластере.
Доступ к каталогу <catalogName> не поддерживается в этом кластере.
UC_INVALID_DEPENDENCIES
Зависимости <securable> записываются как <storedDeps> при синтаксическом анализе как <parsedDeps>. Это, вероятно, произошло через неправильное использование API, отличного от SQL.
Дополнительные сведения см. в UC_INVALID_DEPENDENCIES
UC_INVALID_NAMESPACE
Вложенные или пустые пространства имен не поддерживаются в каталоге Unity.
UC_INVALID_REFERENCE
На объекты каталога Unity нельзя ссылаться, если они не являются объектамиUnity-Catalog <name>.
UC_LAKEHOUSE_FEDERATION_WRITES_NOT_ALLOWED
Поддержка записи Unity Catalog Lakehouse Federation не включена для поставщика <provider> на этом кластере.
UC_LOCATION_FOR_MANAGED_VOLUME_NOT_SUPPORTED
Управляемый том не принимает условие LOCATION. Пожалуйста, проверьте синтаксис "CREATE VOLUME ..." для создания управляемого тома.
UC_NOT_ENABLED
Каталог Unity не включен в этом кластере.
UC_QUERY_FEDERATION_NOT_ENABLED
Федерация запросов каталога Unity не включена в этом кластере.
UC_RESOLVED_DBFS_PATH_MISMATCH
Сбой запроса произошел из-за попытки обращения к <objectType> <name>, которая не удалась. Разрешенный путь DBFS <resolvedHmsPath> не совпадает с местоположением хранилища в Unity Catalog <ucStorageLocation>.
UC_SECRETS_NOT_ENABLED (секреты не включены)
Поддержка секретов каталога Unity не включена.
UC_СЕКРЕТ_УЖЕ_СУЩЕСТВУЕТ
Не удается создать секрет <name> , так как он уже существует.
Выберите другое имя, удалите или замените существующий объект, или добавьте предложение IF NOT EXISTS, чтобы разрешить существующие объекты.
UC_SECRET_NOT_FOUND
Секрет <name> не существует. Используйте "SHOW SECRETS" для перечисления доступных секретов.
UC_SERVICE_CREDENTIALS_NOT_ENABLED
В этом кластере не включены учетные данные службы.
UC_TABLE_METADATA_OUT_OF_SYNC
Не удалось запросить таблицу <tableName> , так как метаданные таблицы не синхронизированы в каталоге. Сначала выполните команду "MSK REPAIR TABLE <tableName> SYNC METADATA" для синхронизации метаданных.
UC_UNCAUGHT_CLIENT_EXCEPTION
Произошла непредвиденная ошибка HTTP при взаимодействии с серверной частью каталога Databricks Unity. Код ошибки: <errCode>. Сообщение: <message>
UC_VOLUMES_NOT_ENABLED
Поддержка объемов каталога Unity не включена в этом экземпляре.
UC_VOLUMES_NOT_SUPPORTED
Томам не поддерживаются для этой операции. Указанный путь был '<path>'.
UC_VOLUMES_SHARING_NOT_ENABLED
Поддержка общего доступа к томам не включена в этом экземпляре.
UC_VOLUME_NOT_FOUND
Том <name> не существует. Используйте "SHOW VOLUMES" для перечисления доступных томов.
UDF_ENVIRONMENT_ERROR
Не удалось установить зависимости UDF из-за системной ошибки <udfName>.
Дополнительные сведения см. в UDF_ENVIRONMENT_ERROR
UDF_ENVIRONMENT_USER_ERROR
Не удалось установить зависимости UDF для <udfName>.
Дополнительные сведения см. UDF_ENVIRONMENT_USER_ERROR
UDF_ERROR
SQLSTATE: не присвоено
Сбой выполнения функции <fn>
Дополнительные сведения см. в UDF_ERROR
UDF_LIMITS
Одно или несколько ограничений UDF были нарушены.
Дополнительные сведения см. в UDF_LIMITS
UDF_MAX_COUNT_EXCEEDED
Превышено ограничение на количество определяемых пользователем функций (UDF) на уровне запросов: <maxNumUdfs> (в период общедоступной предварительной версии). Найден <numUdfs>. Определяемые пользователем функции были: <udfNames>.
UDF_PYSPARK_ERROR
Рабочий сотрудник Python непредвиденно завершился
Дополнительные сведения см. в UDF_PYSPARK_ERROR
UDF_PYSPARK_UNSUPPORTED_TYPE
UDF <udf> (<eval-type>) PySpark не поддерживается в кластерах в режиме общего доступа.
UDF_PYSPARK_USER_CODE_ERROR
Сбой выполнения.
Дополнительные сведения см. в UDF_PYSPARK_USER_CODE_ERROR
UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE
Значение по умолчанию параметра не поддерживается для определяемой пользователем функции <functionType>.
UDF_USER_CODE_ERROR
Сбой выполнения функции <fn>.
Для получения дополнительной информации см. UDF_USER_CODE_ERROR
UDTF_ALIAS_NUMBER_MISMATCH
Число псевдонимов, предоставленных в AS предложении, не соответствует количеству выходных столбцов в UDTF.
Ожидалось <aliasesSize> псевдонимов, но получили <aliasesNames>.
Убедитесь, что число предоставленных псевдонимов соответствует количеству выходных столбцов в UDTF.
UDTF_INVALID_ALIAS_IN_REQUESTED_ORDERING_STRING_FROM_ANALYZE_METHOD
Не удалось оценить определяемую пользователем функцию таблицы, так как его метод "анализа" вернул запрошенный OrderingColumn, выражение имени столбца которого включало ненужный псевдоним; удалите этот псевдоним <aliasName>, а затем повторите запрос.
UDTF_INVALID_REQUESTED_SELECTED_EXPRESSION_FROM_ANALYZE_METHOD_REQUIRES_ALIAS
Не удалось оценить определяемую пользователем функцию таблицы, так как его метод анализа вернул запрошенное выражение select (<expression>), которое не содержит соответствующего псевдонима; обновите UDTF, чтобы указать псевдоним там, а затем повторите запрос.
UNABLE_TO_CONVERT_TO_PROTOBUF_MESSAGE_TYPE
Не удалось преобразовать тип SQL <toType> в тип Protobuf <protobufType>.
UNABLE_TO_FETCH_HIVE_TABLES
Не удается получить таблицы базы данных Hive: <dbName>. Имя класса ошибки: <className>.
НЕВОЗМОЖНО ОПРЕДЕЛИТЬ СХЕМУ ТАБЛИЦЫ КОНВЕЙЕРА
Не удалось определить схему для таблицы <tableName> из его вышестоящих потоков.
Измените потоки, записываемые в эту таблицу, чтобы обеспечить совместимость схем.
Пока сформированная схема:
<inferredDataSchema>
Несовместимая схема:
<incompatibleDataSchema>
UNABLE_TO_INFER_SCHEMA
Не удалось определить схему для <format>. Его необходимо указать вручную.
НЕАУТЕНТИФИЦИРОВАННЫЕ
Запрос не имеет допустимых учетных данных для аутентификации для выполнения операции.
UNAUTHORIZED_ACCESS
Несанкционированный доступ:
<report>
UNBOUND_SQL_PARAMETER
Найден несвязанный параметр: <name>. Исправьте и предоставьте args сопоставление параметра с функциями конструктора SQL или литералов коллекции, например map(), array(), struct().
UNCLOSED_BRACKETED_COMMENT
Найден незакрытый комментарий с скобками. Добавьте */ в конце комментария.
UNEXPECTED_INPUT_TYPE
Параметр <paramIndex> функции <functionName> требует тип <requiredType>, однако <inputSql> имеет тип <inputType>.
UNEXPECTED_INPUT_TYPE_OF_NAMED_PARAMETER
Для параметра <namedParamKey> функции <functionName> требуется тип <requiredType>, однако <inputSql> имеет тип <inputType>.<hint>
UNEXPECTED_OPERATOR_IN_STREAMING_VIEW
Неожиданный оператор <op> в операторе CREATE VIEW, используемом как источник потока.
Запрос потокового представления должен состоять только из SELECT, WHEREопераций и UNION ALL операций.
UNEXPECTED_POSITIONAL_ARGUMENT
Не удается вызвать подпрограмму <routineName>, так как она содержит позиционные аргументы после именованного аргумента, назначенного <parameterName>; Измените их так, чтобы позиционные аргументы пришли сначала, а затем повторите запрос снова.
UNEXPECTED_SERIALIZER_FOR_CLASS
Класс <className> имеет неожиданный сериализатор выражений. Ожидается "STRUCT" или "IF", которые возвращают "STRUCT", но найдено <expr>.
UNION_NOT_SUPPORTED_IN_RECURSIVE_CTE
Оператор UNION пока не поддерживается в рекурсивных общих табличных выражениях (WITH предложения, которые ссылаются на себя напрямую или косвенно). Вместо этого используйте UNION ALL.
Уникальное ограничение отключено
Функция уникального ограничения отключена. Чтобы включить его, задайте для параметра "spark.databricks.sql.dsv2.unique.enabled" значение true.
UNKNOWN_FIELD_EXCEPTION
Обнаружен <changeType> во время синтаксического анализа: <unknownFieldBlob>, проблема может быть исправлена автоматическим повтором: <isRetryable>
Дополнительные сведения см. в UNKNOWN_FIELD_EXCEPTION
UNKNOWN_POSITIONAL_ARGUMENT
Вызов подпрограммы <routineName> содержит неизвестный позиционный аргумент <sqlExpr> в позиции <pos>. Это недопустимо.
UNKNOWN_PRIMITIVE_TYPE_IN_VARIANT
Неизвестный примитивный тип с идентификатором <id> найден в вариантном значении.
UNKNOWN_PROTOBUF_MESSAGE_TYPE
Попытка рассматривать <descriptorName> как сообщение, а оно оказалось <containingType>.
UNPIVOT_REQUIRES_ATTRIBUTES
UNPIVOT требует, чтобы все заданные выражения <given> были столбцами, если не заданы <empty> выражения. Это не столбцы: [<expressions>].
UNPIVOT_REQUIRES_VALUE_COLUMNS
Для UNPIVOTнеобходимо указать по крайней мере один столбец значений; все столбцы обозначены как идентификаторы.
UNPIVOT_VALUE_DATA_TYPE_MISMATCH
Столбцы значений, которые не являются сводными, должны иметь общий минимальный тип, некоторые типы не соответствуют: [<types>].
UNPIVOT_VALUE_SIZE_MISMATCH
Все столбцы значений unpivot должны иметь тот же размер, что и имена столбцов значений (<names>).
UNRECOGNIZED_PARAMETER_NAME
Не удается вызвать подпрограмму <routineName>, так как обычный вызов включал именованную ссылку на аргумент с именем <argumentName>, но эта подпрограмма не включает в себя подпись, содержащую аргумент с этим именем. Вы имели в виду один из следующих вариантов? [<proposal>].
UNRECOGNIZED_SQL_TYPE
Нераспознанный тип SQL — имя: <typeName>, идентификатор: <jdbcType>.
UNRECOGNIZED_STATISTIC
Статистика <stats> не распознается. Допустимая статистика включает count, count_distinct, approx_count_distinct, mean, stddev, min, maxзначения и процентиль. Процентиль должен быть числовым значением, за которым следует "%", в диапазоне от 0% до 100%.
UNRESOLVABLE_TABLE_VALUED_FUNCTION
Не удалось определить <name> как табличную функцию.
Убедитесь, что <name> определяется как табличное значение функции и правильно предоставляются все необходимые параметры.
Если <name> не определен, создайте табличную функцию, возвращающую значение, перед его использованием.
Дополнительные сведения об определении табличных функций см. в документации Apache Spark.
UNRESOLVED_ALL_IN_GROUP_BY
Невозможно определить столбцы группировки для GROUP BY ALL на основе оператора select. Явно укажите столбцы группировки.
UNRESOLVED_COLUMN
Невозможно разрешить столбец, переменную или параметр функции с именем <objectName>.
Дополнительные сведения см. в UNRESOLVED_COLUMN
UNRESOLVED_COLUMN_AMONG_FIELD_NAMES
Не удается разрешить имя столбца "<colName>" между (<fieldNames>).
UNRESOLVED_FIELD
Поле с именем <fieldName> невозможно устранить с помощью столбца типа структуры <columnPath>.
Дополнительные сведения см. в UNRESOLVED_FIELD
UNRESOLVED_INSERT_REPLACE_USING_COLUMN
REPLACE USING столбец <colName> не может быть разрешен в <relationType>.
Вы имели в виду один из следующих столбцов? [<suggestion>].
UNRESOLVED_MAP_KEY
Не удается разрешить столбец <objectName> в качестве ключа мапы. Если ключ является строковым литералом, добавьте одинарные кавычки '' вокруг него.
Дополнительные сведения см. в UNRESOLVED_MAP_KEY
UNRESOLVED_ROUTINE
Не удается определить подпрограмму <routineName> по пути поиска <searchPath>.
Проверьте орфографию <routineName>, убедитесь, что процедура существует, и подтвердите, что у вас есть права USE на каталог и схему, а также EXECUTE на процедуру.
Дополнительные сведения см. в UNRESOLVED_ROUTINE
UNRESOLVED_TABLE_PATH
Путь хранения для таблицы <identifier> не может быть определён.
UNRESOLVED_USING_COLUMN_FOR_JOIN
USING столбец <colName> невозможно разрешить на <side> стороне соединения. Столбцы на стороне <side>: [<suggestion>].
UNRESOLVED_VARIABLE
Не удается разрешить переменную <variableName> в пути поиска <searchPath>.
UNSTRUCTURED_DATA_PROCESSING_UNSUPPORTED_FILE_FORMAT
Неструктурированный формат файла <format> не поддерживается. Поддерживаемые форматы файлов <supportedFormats>.
Обновите format из выражения <expr> до одного из поддерживаемых форматов, а затем повторите запрос.
UNSTRUCTURED_DATA_PROCESSING_UNSUPPORTED_MODEL_OPTION
Параметр неструктурированной модели ('<option>' —> '<value>) не поддерживается. Поддерживаемые значения: <supportedValues>.
Переключитесь на одно из поддерживаемых значений, а затем повторите запрос.
UNSTRUCTURED_OCR_COLUMN_NOT_ALLOWED_WITH_METADATA_MODEL_OPTION
Параметр функции ocrText должен быть NULL или опущен при указании параметра metadataModel. Параметр "metadataModel" активирует извлечение метаданных, при котором запрещено использование предоставленного свойства "ocrText".
UNSUPPORTED_ADD_FILE
Не поддерживайте добавление файла.
Дополнительные сведения см. в UNSUPPORTED_ADD_FILE
UNSUPPORTED_ALTER_COLUMN_PARAMETER
Использование <parameter> с ALTER <commandTableType> не поддерживается.
UNSUPPORTED_ARROWTYPE
Неподдерживаемый тип стрелки <typeName>.
UNSUPPORTED_BATCH_TABLE_VALUED_FUNCTION
Функция <funcName> не поддерживает пакетные запросы.
UNSUPPORTED_CALL
Не удается вызвать метод "<methodName>" класса "<className>".
Дополнительные сведения см. в UNSUPPORTED_CALL
UNSUPPORTED_CHAR_OR_VARCHAR_AS_STRING
Тип char/varchar нельзя использовать в схеме таблицы.
Если вы хотите, чтобы Spark рассматривала их как строковый тип, аналогичный Spark 3.0 и более ранних версий, задайте для параметра "spark.sql.legacy.charVarcharAsString" значение true.
НЕПОДДЕРЖИВАЕМАЯ_КОЛЛАЦИЯ_ДЛЯ_CHAR_ИЛИ_VARCHAR
Тип <type> char/varchar не может указывать параметры сортировки.
UNSUPPORTED_CLAUSE_FOR_OPERATION
<clause> не поддерживается для <operation>.
UNSUPPORTED_COLLATION
Поддержка сортировки <collationName> отсутствует для:
Более подробную информацию см. в UNSUPPORTED_COLLATION
UNSUPPORTED_COMMON_ANCESTOR_LOC_FOR_FILE_STREAM_SOURCE
Общие предки исходного пути и sourceArchiveDir должны быть зарегистрированы в UC.
Если вы видите это сообщение об ошибке, скорее всего, вы регистрируете sourcePath и sourceArchiveDir в разных внешних локациях.
Поместите их в одно внешнее место.
UNSUPPORTED_CONNECT_FEATURE
Функция не поддерживается в Spark Connect:
Дополнительные сведения см. в UNSUPPORTED_CONNECT_FEATURE
UNSUPPORTED_CONSTRAINT_CHARACTERISTIC (Неподдерживаемая характеристика ограничения)
Характеристику ограничения '<characteristic>' не поддерживается для типа ограничения '<constraintType>'.
UNSUPPORTED_CONSTRAINT_CLAUSES
Предложения ограничений <clauses> не поддерживаются.
UNSUPPORTED_CONSTRAINT_TYPE
Неподдерживаемый тип ограничения. Поддерживаются только <supportedConstraintTypes>
UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY
Неподдерживаемый тип источника данных для прямого запроса к файлам: <dataSourceType>
UNSUPPORTED_DATATYPE
Неподдерживаемый тип данных <typeName>.
UNSUPPORTED_DATA_SOURCE_SAVE_MODE
Источник данных "<source>" не может быть записан в режиме <createMode> . Вместо этого используйте режим "Добавить" или "Перезаписать".
UNSUPPORTED_DATA_TYPE_FOR_DATASOURCE
Источник <format> данных не поддерживает столбец <columnName> типа <columnType>.
UNSUPPORTED_DATA_TYPE_FOR_ENCODER
Не удается создать кодировщик для <dataType>. Используйте другой тип выходных данных для UDF или DataFrame.
UNSUPPORTED_DEFAULT_VALUE
Значения столбцов DEFAULT не поддерживаются.
Дополнительные сведения см. в UNSUPPORTED_DEFAULT_VALUE
UNSUPPORTED_DESERIALIZER
Десериализатор не поддерживается:
Дополнительные сведения см. в UNSUPPORTED_DESERIALIZER
UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
Невозможно создать вычисляемый столбец <fieldName> с вычисляемым выражением <expressionStr>, так как <reason>.
UNSUPPORTED_EXPR_FOR_OPERATOR
Оператор запроса содержит одно или несколько неподдерживаемых выражений.
Рассмотрите возможность переписать его, чтобы избежать использования оконных функций, агрегатных функций и функций генератора в условии WHERE.
Недопустимые выражения: [<invalidExprSqls>]
UNSUPPORTED_EXPR_FOR_PARAMETER
Параметр запроса содержит неподдерживаемое выражение.
Параметры могут быть переменными или литералами.
Недопустимое выражение: [<invalidExprSql>]
UNSUPPORTED_EXPR_FOR_WINDOW
Выражение <sqlExpr> не поддерживается в функции окна.
UNSUPPORTED_FEATURE
Эта функция не поддерживается:
Дополнительные сведения см. в UNSUPPORTED_FEATURE
UNSUPPORTED_FN_TYPE
Неподдерживаемый пользовательский тип функции: <language>
UNSUPPORTED_GENERATOR
Генератор не поддерживается:
Дополнительные сведения см. в UNSUPPORTED_GENERATOR
UNSUPPORTED_GROUPING_EXPRESSION
grouping()/grouping_id() можно использовать только с GroupingSets/Cube/Rollup.
UNSUPPORTED_INITIAL_POSITION_AND_TRIGGER_PAIR_FOR_KINESIS_SOURCE
<trigger> с исходной позицией <initialPosition> не поддерживается источником Kinesis.
UNSUPPORTED_INSERT
Не удается вставить в целевой объект.
Дополнительные сведения см. в UNSUPPORTED_INSERT
UNSUPPORTED_JOIN_TYPE
Неподдерживаемый тип соединения '<typ>'. Поддерживаемые типы соединений: <supported>.
UNSUPPORTED_MANAGED_TABLE_CREATION
Создание управляемой таблицы <tableName> с помощью <dataSource> источника данных не поддерживается. Необходимо использовать источник DELTA данных или создать внешнюю таблицу с помощью CREATE EXTERNAL TABLE <tableName>...USING <dataSource> ...
UNSUPPORTED_MERGE_CONDITION
Операция MERGE содержит условие <condName>, которое не поддерживается.
Дополнительную информацию можно найти в UNSUPPORTED_MERGE_CONDITION
UNSUPPORTED_METADATA_KEY
Неподдерживаемый ключ метаданных: <key> Поддерживаемые ключи: <supportedKeys>.
UNSUPPORTED_NESTED_ROW_OR_COLUMN_ACCESS_POLICY
Таблица <tableName> имеет политику безопасности на уровне строк или маску столбцов, которая косвенно ссылается на другую таблицу с политикой безопасности на уровне строк или маской столбцов; это не поддерживается. Последовательность вызовов: <callSequence>
НЕПОДДЕРЖИВАЕМАЯ_ОПЕРАЦИЯ_ДЛЯ_ПОСТОЯННОЙ_ПАМЯТИ_ПРИЕМНИКА
Операция <operation> не поддерживается для приемника непрерывной памяти. Если вы пишете тест для режима потоковой передачи Real-Time, рассмотрите возможность использования CheckAnswerWithTimeout по сравнению с другими проверками.
UNSUPPORTED_OVERWRITE
Не удается перезаписать целевой объект, из которого также считывается.
Дополнительные сведения см. в UNSUPPORTED_OVERWRITE
UNSUPPORTED_PARTITION_TRANSFORM
Неподдерживаемое преобразование раздела: <transform>. Поддерживаемые преобразования: identity, bucketи clusterBy. Убедитесь, что выражение преобразования использует одно из этих выражений.
UNSUPPORTED_PIPELINE_SPARK_SQL_COMMAND
'<command>' не поддерживается в API spark.sql("...") в декларативном конвейере Spark.
НЕПОДДЕРЖИВАЕМАЯ_СОРТИРОВКА_ПРОЦЕДУРЫ
Процедура <procedureName> должна указывать или наследовать DEFAULT COLLATION UTF8_BINARY. Используйте CREATE PROCEDURE <procedureName> (...) DEFAULT COLLATION UTF_BINARY ....
UNSUPPORTED_SAVE_MODE
Режим сохранения <saveMode> не поддерживается для:
Дополнительные сведения см. в UNSUPPORTED_SAVE_MODE
UNSUPPORTED_SHOW_CREATE_TABLE
Неподдерживаемая команда SHOW CREATE TABLE.
Дополнительные сведения см. в UNSUPPORTED_SHOW_CREATE_TABLE
UNSUPPORTED_SINGLE_PASS_ANALYZER_FEATURE
Однопроходный анализатор не может обработать этот запрос или команду, так как он еще не поддерживает <feature>.
UNSUPPORTED_SQL_UDF_USAGE
Использование функции <functionName> SQL в <nodeName> не поддерживается.
UNSUPPORTED_STREAMING_OPERATOR_WITHOUT_WATERMARK
<outputMode> режим вывода не поддерживается для <statefulOperator> потоковой передачи DataFrames/DataSets без подложки.
UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
Неподдерживаемый для потоковой передачи представления. Reason:
Дополнительные сведения см. в UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED
Параметры <options> потоковой передачи не поддерживаются для источника <source> данных в общем кластере. Убедитесь, что параметры указаны и указаны правильно<prefixHint>, а также проверьте https://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode наличие ограничений.
UNSUPPORTED_STREAMING_SINK_PERMISSION_ENFORCED
Источник <sink> данных не поддерживается в качестве приемника потоковой передачи в общем кластере.
UNSUPPORTED_STREAMING_SOURCE_PERMISSION_ENFORCED
Источник <source> данных не поддерживается в качестве источника потоковой передачи в общем кластере.
UNSUPPORTED_STREAMING_TABLE_VALUED_FUNCTION
Функция <funcName> не поддерживает потоковую передачу. Удалите ключевое слово STREAM
UNSUPPORTED_STREAM_READ_LIMIT_FOR_KINESIS_SOURCE
<streamReadLimit> не поддерживается источником Kinesis
UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
Неподдерживаемое выражение подзапроса:
Дополнительные сведения см. в UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
UNSUPPORTED_TABLE_CHANGE_IN_AUTO_SCHEMA_EVOLUTION
Изменения <changes> таблицы не поддерживаются каталогом в таблице <tableName>.
UNSUPPORTED_TABLE_CHANGE_IN_JDBC_CATALOG
Изменение <change> таблицы не поддерживается для каталога JDBC в таблице <tableName>. Поддерживаемые изменения включают: AddColumn, RenameColumn, DeleteColumn, UpdateColumnType, UpdateColumnNullability.
UNSUPPORTED_TIMESERIES_COLUMNS
Создание первичного ключа с столбцами таймерий не поддерживается
UNSUPPORTED_TIMESERIES_WITH_MORE_THAN_ONE_COLUMN
Создание первичного ключа с использованием нескольких столбцов временного ряда <colSeq> не поддерживается
UNSUPPORTED_TIME_PRECISION
Точность секунд <precision> типа данных TIME выходит из поддерживаемого диапазона [0, 6].
UNSUPPORTED_TIME_TYPE
Тип данных TIME не поддерживается.
UNSUPPORTED_TRIGGER_FOR_KINESIS_SOURCE
<trigger> не поддерживается источником Kinesis
UNSUPPORTED_TYPED_LITERAL
Литералы типа <unsupportedType> не поддерживаются. Поддерживаемые типы — это <supportedTypes>.
UNSUPPORTED_UDF_FEATURE
Функция <function> использует следующие функции, требующие более новой версии среды выполнения Databricks: <features>. Дополнительные сведения см. в <docLink>.
UNSUPPORTED_UDF_TYPES_IN_SAME_PLACE
Типы UDF нельзя использовать вместе: <types>
UNTYPED_SCALA_UDF
Вы используете нетипизированный UDF Scala, который не содержит сведений о типе входных данных.
Spark может слепо передать значение null в замыкание Scala с аргументом примитивного типа, и замыкание увидит значение по умолчанию типа Java для аргумента null, например udf((x: Int) => x, IntegerType), результат равен 0 для ввода null. Чтобы избавиться от этой ошибки, можно:
используйте типизированные API-интерфейсы UDF Scala (без параметра возвращаемого типа), например
udf((x: Int) => x).используйте API UDF Java, например
udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType), если входные типы являются немитивными.Задайте для параметра "spark.sql.legacy.allowUntypedScalaUDF" значение true и используйте этот API с осторожностью.
UPGRADE_NOT_SUPPORTED
Таблица не подходит для обновления из хранилища метаданных Hive в каталог Unity. Reason:
Дополнительные сведения см. в UPGRADE_NOT_SUPPORTED
USER_DEFINED_FUNCTIONS
Определяемая пользователем функция недопустима:
Дополнительную информацию см. в USER_DEFINED_FUNCTIONS
USER_RAISED_EXCEPTION
<errorMessage>
USER_RAISED_EXCEPTION_PARAMETER_MISMATCH
Функция raise_error() использовалась для создания класса ошибок: <errorClass>, которая ожидает параметры: <expectedParms>.
Указанные параметры <providedParms> не соответствуют ожидаемым параметрам.
Обязательно укажите все ожидаемые параметры.
USER_RAISED_EXCEPTION_UNKNOWN_ERROR_CLASS
Функция raise_error() использовалась для создания неизвестного класса ошибок: <errorClass>
USER_SPECIFIED_AND_ACTUAL_SCHEMA_MISMATCH
Указанная пользователем схема не соответствует фактической схеме:
указанный пользователем: <schema>, фактический: <actualSchema>. Если вы используете
API схемы DataFrameReader.schema или создание таблицы не указывают схему.
Или, если вы сканируете существующую таблицу, удалите ее и повторно создадите.
USER_SPECIFIED_AND_INFERRED_SCHEMA_NOT_COMPATIBLE (Пользовательская и выведенная схемы несовместимы)
Таблица '<tableName>' имеет указанную пользователем схему, несовместимую с схемой
выводится из запроса.
<streamingTableHint>
Объявленная схема:
<specifiedSchema>
Предполагаемая схема
<inferredDataSchema>
USE_CATALOG_SCHEMA_IN_DEFINER_STORED_PROCEDURE_NOT_SUPPORTED
Настройка каталога или схемы в хранимой процедуре SQL SECURITY DEFINER не поддерживается.
VARIABLE_ALREADY_EXISTS
Не удается создать переменную <variableName>, так как она уже существует.
Выберите другое имя или удалите или замените существующую переменную.
VARIABLE_NOT_FOUND
Не удается найти переменную <variableName>. Проверьте орфографию и правильность схемы и каталога.
Если имя не соответствует схеме и каталогу, проверьте выходные данные current_schema() или укажите имя с правильной схемой и каталогом.
Чтобы игнорировать ошибку при удалении, используйте DROP VARIABLE IF EXISTS.
VARIANT_CONSTRUCTOR_SIZE_LIMIT
Не удается создать вариант размером более 16 МиБ. Максимальный допустимый размер значения Variant — 16 МиБ.
VARIANT_DUPLICATE_KEY
Не удалось создать вариант из-за повторяющегося ключа объекта <key>.
VARIANT_SIZE_LIMIT
Не удается создать вариант больше <sizeLimit> в <functionName>.
Избегайте больших входных строк в это выражение (например, добавьте вызовы функций, чтобы проверить размер выражения и преобразовать его в NULL сначала, если он слишком велик).
VERSIONED_CLONE_UNSUPPORTED_TABLE_FEATURE
Журнал исходной таблицы содержит функцию(ции) таблицы, которые не поддерживаются версионированным клоном в данной версии DBR: <unsupportedFeatureNames>
Обновите до более новой версии DBR.
VIEW_ALREADY_EXISTS
Невозможно создать представление <relationName>, так как оно уже существует.
Выберите другое имя, удалите или замените существующий объект, или добавьте предложение IF NOT EXISTS, чтобы разрешить существующие объекты.
VIEW_EXCEED_MAX_NESTED_DEPTH
Глубина представления <viewName> превышает максимальную глубину разрешения представления (<maxNestedDepth>).
Анализ прерывается, чтобы избежать ошибок. Если вы хотите обойти эту проблему, попробуйте увеличить значение "spark.sql.view.maxNestedViewDepth".
VIEW_NOT_FOUND
Не удается найти представление <relationName>. Проверьте орфографию и правильность схемы и каталога.
Если вы не связали имя со схемой, проверьте результаты current_schema() или уточните имя с правильной схемой и каталогом.
Чтобы игнорировать ошибку при удалении, используйте DROP VIEW IF EXISTS.
VOLUME_ALREADY_EXISTS
Не удается создать том <relationName>, так как он уже существует.
Выберите другое имя, удалите или замените существующий объект, или добавьте предложение IF NOT EXISTS, чтобы разрешить существующие объекты.
WATERMARK_ADVANCEMENT_STRATEGY
Стратегия продвижения подложки потоковой передачи имеет следующее ограничение:
С дополнительной информацией см. в WATERMARK_ADVANCEMENT_STRATEGY
WINDOW_FUNCTION_AND_FRAME_MISMATCH
<funcName> функцию можно оценить только в упорядоченной строко-ориентированной оконной рамке с одним смещением: <windowExpr>.
WINDOW_FUNCTION_WITHOUT_OVER_CLAUSE
Функция окна <funcName> требует предложения OVER.
WITH_CREDENTIAL
синтаксис WITH CREDENTIAL не поддерживается для <type>.
WRITE_STREAM_NOT_ALLOWED
writeStream можно вызывать только в потоковом наборе данных или кадре данных.
WRONG_COLUMN_DEFAULTS_FOR_DELTA_ALTER_TABLE_ADD_COLUMN_NOT_SUPPORTED
Не удалось выполнить команду, так как DEFAULT значения не поддерживаются при добавлении новых
столбцы в ранее существующие таблицы Delta; Добавьте столбец без значения по умолчанию
Сначала задайте значение, затем выполните вторую команду ALTER TABLE ALTER COLUMN SET DEFAULT, чтобы применить его.
для будущих вставляемых строк вместо этого.
WRONG_COLUMN_DEFAULTS_FOR_DELTA_FEATURE_NOT_ENABLED
Не удалось выполнить команду <commandType>, так как она назначила значение в столбец DEFAULT.
но соответствующая функция таблицы не включена. Повторите попытку.
после выполнения ALTER TABLE tableName SET
TBLPROPERTIES('delta.feature.allowColumnDefaults' = 'поддерживается').
WRONG_COMMAND_FOR_OBJECT_TYPE
Для операции <operation> требуется <requiredType>. Но <objectName> это <foundType>. Вместо этого используйте <alternative>.
WRONG_NUM_ARGS
<functionName> требует <expectedNum> параметров, но фактическое количество - <actualNum>.
Дополнительные сведения см. в WRONG_NUM_ARGS
XML_ROW_TAG_MISSING
<rowTag> параметр требуется для чтения и записи файлов в формате XML.
XML_UNSUPPORTED_NESTED_TYPES
XML не поддерживает <innerDataType> как внутренний тип <dataType>. Пожалуйста, оберните <innerDataType> в поле StructType при использовании внутри <dataType>.
XML_WILDCARD_RESCUED_DATA_CONFLICT_ERROR
Спасенные данные и столбец подстановочных знаков нельзя включить одновременно. Удалите параметр wildcardColumnName.
ZORDERBY_COLUMN_DOES_NOT_EXIST
Столбец <columnName> ZOrderBy не существует.
Delta Lake
DELTA_ACTIVE_SPARK_SESSION_NOT_FOUND
Не удалось найти активный SparkSession.
DELTA_ACTIVE_TRANSACTION_ALREADY_SET
Невозможно установить новую транзакцию как активную, если уже существует активная транзакция.
DELTA_ADDING_COLUMN_WITH_INTERNAL_NAME_FAILED
Не удалось добавить столбец <colName>, так как имя зарезервировано.
DELTA_ADDING_DELETION_VECTORS_DISALLOWED
Текущая операция попыталась добавить в таблицу вектор удаления, которая не позволяет создавать новые векторы удаления. Отправьте отчет об ошибке.
DELTA_ADDING_DELETION_VECTORS_WITH_TIGHT_BOUNDS_DISALLOWED
Все операции, добавляющие векторы удаления, должны задать для столбца tightBounds в статистике значение false. Отправьте отчет об ошибке.
DELTA_ADD_COLUMN_AT_INDEX_LESS_THAN_ZERO
Индекс <columnIndex> для добавления столбца <columnName> меньше 0.
DELTA_ADD_COLUMN_PARENT_NOT_STRUCT
Не удается добавить <columnName>, так как его родительский элемент не является типом структуры. Найден <other>.
DELTA_ADD_COLUMN_STRUCT_NOT_FOUND
Структура не найдена в позиции <position>.
DELTA_ADD_CONSTRAINTS
Используйте ALTER TABLE ADD CONSTRAINT для добавления ограничений CHECK.
DELTA_AGGREGATE_IN_CHECK_CONSTRAINT
Найдено <sqlExpr> в ограничении CHECK . Агрегатные выражения не допускаются в CHECK ограничениях.
DELTA_AGGREGATE_IN_GENERATED_COLUMN
Найден <sqlExpr>. Созданный столбец не может использовать агрегатное выражение.
DELTA_AGGREGATION_NOT_SUPPORTED
Агрегатные функции не поддерживаются в <operation> <predicate>.
DELTA_ALTER_COLLATION_NOT_SUPPORTED_BLOOM_FILTER
Не удалось изменить сравнение столбца <column>, так как он имеет индекс фильтра Блума. Либо сохраните существующую сортировку, либо удалите индекс фильтра Блума, а затем повторно выполните команду, чтобы изменить сортировку.
DELTA_ALTER_COLLATION_NOT_SUPPORTED_CLUSTER_BY
Не удалось изменить параметры сортировки столбца <column>, так как это столбец кластеризации. Сохраните существующий параметр сортировки или измените столбец на некластерный с помощью команды ALTER TABLE, а затем повторите попытку изменить параметр сортировки.
DELTA_ALTER_TABLE_CHANGE_COL_NOT_SUPPORTED
ALTER TABLE CHANGE COLUMN не поддерживается для изменения столбца <currentType> на <newType>.
DELTA_ALTER_TABLE_CLUSTER_BY_NOT_ALLOWED
ALTER TABLE CLUSTER BY поддерживается только для Delta таблицы с кластеризацией Liquid.
DELTA_ALTER_TABLE_CLUSTER_BY_ON_PARTITIONED_TABLE_NOT_ALLOWED
ALTER TABLE CLUSTER BY нельзя применить к секционированной таблице.
DELTA_ALTER_TABLE_RENAME_NOT_ALLOWED
Выполнение операции не разрешено: ALTER TABLE RENAME TO запрещено для управляемых таблиц Delta в S3, поскольку возможная согласованность в S3 может повредить журнал транзакций Delta. Если вы настаиваете на этом и уверены, что раньше никогда не было таблицы Delta с новым именем <newName>, вы можете добиться этого, установив <key> в значение true.
DELTA_ALTER_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
Не удается включить функцию таблицы <tableFeature> с помощью ALTER TABLE SET TBLPROPERTIES. Используйте CREATE ИЛИ REPLACE TABLE CLUSTER BY для создания таблицы Delta с кластеризацией.
DELTA_ALTER_TABLE_SET_MANAGED_COPY_OR_MOVE_REQUIRED
ALTER TABLE ... SET MANAGED требуется COPY или переместить для внешней таблицы <table>.
DELTA_ALTER_TABLE_SET_MANAGED_DOES_NOT_SUPPORT_UNIFORM_ICEBERG
ALTER TABLE ... SET MANAGED не поддерживает единую таблицу Apache Iceberg. Отключите единообразие или используйте SET MANAGED TRUNCATE UNIFORM HISTORY.
DELTA_ALTER_TABLE_SET_MANAGED_FAILED
ALTER TABLE <table> SET MANAGED неудавшийся.
Дополнительные сведения см. DELTA_ALTER_TABLE_SET_MANAGED_FAILED
DELTA_ALTER_TABLE_SET_MANAGED_NOT_ENABLED
ALTER TABLE
...
SET MANAGED команда не включена. Обратитесь в службу поддержки Databricks, чтобы получить помощь.
DELTA_ALTER_TABLE_SET_MANAGED_TABLE_NOT_MIGRATABLE
ALTER TABLE <table> SET MANAGED Не удается перенести указанную таблицу.
Убедитесь, что таблица находится в допустимом состоянии и повторите команду. Если проблема сохранится, обратитесь в службу поддержки Databricks.
Дополнительные сведения см. в DELTA_ALTER_TABLE_SET_MANAGED_TABLE_NOT_MIGRATABLE
DELTA_ALTER_TABLE_SET_MANAGED_UNSUPPORTED_COPY_MOVE_SYNTAX
ALTER TABLE ... SET MANAGED [COPY | MOVE] синтаксис не поддерживается для таблицы <table>. Вместо этого используйте ALTER TABLE ... SET MANAGED.
DELTA_ALTER_TABLE_SET_MANAGED_UNSUPPORTED_FOREIGN_TABLE
Внешняя таблица <table> не поддерживается для миграции в управляемую таблицу UC: <errorMessage>
DELTA_ALTER_TABLE_UNSET_MANAGED_DOES_NOT_SUPPORT_COMPATIBILITY_MODE
ALTER TABLE ... UNSET MANAGED не поддерживает таблицу с включенным режимом совместимости.
Отключите режим совместимости в таблице перед выполнением этой команды.
DELTA_ALTER_TABLE_UNSET_MANAGED_DOES_NOT_SUPPORT_UNIFORM
ALTER TABLE ... UNSET MANAGED не поддерживает единообразие. Отключите единообразие или используйте UNSET MANAGED TRUNCATE UNIFORM HISTORY.
DELTA_ALTER_TABLE_UNSET_MANAGED_FAILED
<table> невозможно отменить изменения из управляемой таблицы во внешнюю.
Дополнительные сведения см. в DELTA_ALTER_TABLE_UNSET_MANAGED_FAILED
DELTA_ALTER_TABLE_UNSET_MANAGED_NOT_ENABLED
ALTER TABLE
...
UNSET MANAGED команда не включена. Обратитесь в службу поддержки Databricks, чтобы получить помощь.
DELTA_AMBIGUOUS_DATA_TYPE_CHANGE
Не удается изменить тип данных <column> с <from> на <to>. Это изменение содержит удаление и добавление столбцов, поэтому они неоднозначны. Внесите эти изменения по отдельности с помощью ALTER TABLE [ADD | DROP | RENAME] COLUMN.
DELTA_AMBIGUOUS_PARTITION_COLUMN
Неоднозначный столбец раздела <column> может быть <colMatches>.
DELTA_AMBIGUOUS_PATHS_IN_CREATE_TABLE
CREATE TABLE содержит два разных расположения: <identifier> и <location>.
Вы можете удалить условие LOCATION из оператора CREATE TABLE или задать
Установите <config> в true, чтобы пропустить эту проверку.
DELTA_ARCHIVED_FILES_IN_LIMIT
Таблица <table> не содержит достаточно записей в неархивированных файлах, чтобы удовлетворить требование в количестве LIMIT из <limit> записей.
DELTA_ARCHIVED_FILES_IN_SCAN
Найдено <numArchivedFiles> потенциально архивированных файлов в таблице <table>, которые необходимо сканировать в рамках этого запроса.
Доступ к архивным файлам невозможен. Текущее время до архивации установлено как <archivalTime>.
Измените фильтры запросов, чтобы исключить архивные файлы.
DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION
Операция "<opName>" не допускается, если таблица включила канал данных изменений (CDF) и перенесла изменения схемы с помощью DROP COLUMN или RENAME COLUMN.
DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS
Не удается удалить индексы фильтров Блума для следующих несуществующих столбцов: <unknownColumns>.
DELTA_BLOOM_FILTER_OOM_ON_WRITE
Ошибка OutOfMemory произошла при записи индексов фильтров Блума для следующих столбцов: <columnsWithBloomFilterIndices>.
Вы можете уменьшить объем памятного пространства индексов Bloom фильтров, выбрав меньшее значение для параметра 'numItems', большее значение для параметра 'fpp' или индексируя меньшее количество столбцов.
DELTA_CANNOT_CHANGE_DATA_TYPE
Не удается изменить тип данных: <dataType>
DELTA_CANNOT_CHANGE_LOCATION
Не удается изменить "расположение" таблицы Delta с помощью SET TBLPROPERTIES. Вместо этого используйте ALTER TABLE SET LOCATION.
DELTA_CANNOT_CHANGE_PROVIDER
"provider" — это зарезервированное свойство таблицы и не может быть изменено.
DELTA_CANNOT_CREATE_BLOOM_FILTER_NON_EXISTING_COL
Невозможно создать индексы фильтра Блума для следующих несуществующих столбцов: <unknownCols>.
DELTA_CANNOT_CREATE_LOG_PATH
Не удается создать <path>.
DELTA_CANNOT_DESCRIBE_VIEW_HISTORY
Невозможно описать историю представления.
DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN
Не удается удалить индекс фильтра блума для неиндексированного столбца: <columnName>
DELTA_CANNOT_DROP_CHECK_CONSTRAINT_FEATURE
Не удается удалить функцию таблицы ограничений CHECK.
Сначала необходимо удалить следующие ограничения: <constraints>.
DELTA_CANNOT_DROP_COLLATIONS_FEATURE
Не удается удалить функцию таблицы сортировки.
Столбцы с параметрами сортировки, отличные от по умолчанию, необходимо изменить на использование UTF8_BINARY сначала: <colNames>.
Delta: невозможно удалить функцию метаданных домена из управляемой таблицы Iceberg
Не удается удалить функцию таблицы domainMetadata. Таблица <name> — это управляемая таблица Apache Iceberg. Невозможно удалить метаданные DomainMetadata из управляемых таблиц Apache Iceberg.
DELTA_НЕ_МОЖЕТ_УДАЛИТЬ_ГЕОПРОСТРАНСТВЕННУЮ_ФУНКЦИЮ
Не удается удалить функцию геопространственной таблицы. Создайте таблицу или удалите столбцы с типами geometry/geography: <colNames> и повторите попытку.
DELTA_CANNOT_DROP_VARIANT_FEATURE
DROP FEATURE <feature> не удалось. Не удается удалить функцию таблицы вариантов. Сначала необходимо удалить столбцы вариантов: <colNames>
DELTA_CANNOT_EVALUATE_EXPRESSION
Не удается оценить выражение: <expression>.
DELTA_CANNOT_FIND_BUCKET_SPEC
Ожидалась сегментированная таблица Delta, но не удается найти спецификацию сегментирования в таблице.
DELTA_CANNOT_GENERATE_CODE_FOR_EXPRESSION
Не удается создать код для выражения: <expression>
DELTA_CANNOT_MODIFY_APPEND_ONLY
Эта таблица настроена только для разрешения добавлений. Если вы хотите разрешить обновления или удаления, используйте "ALTER TABLE <table_name> SET TBLPROPERTIES (<config>=false)".
DELTA_CANNOT_MODIFY_CATALOG_OWNED_DEPENDENCIES
Не удается переопределить или отменить свойства таблицы метки времени фиксации, так как эта таблица принадлежит каталогу. Удалите delta.enableInCommitTimestamps, delta.inCommitTimestampEnablementVersion и delta.inCommitTimestampEnablementTimestamp из TBLPROPERTIES предложения, а затем повторите команду.
DELTA_CANNOT_MODIFY_COORDINATED_COMMITS_DEPENDENCIES
<Command> нельзя переопределить или отменить свойства таблицы временных меток в процессе фиксации, так как в этой таблице включены координированные фиксации, которые зависят от этих свойств. Удалите их ("delta.enableInCommitTimestamps", delta.inCommitTimestampEnablementVersion, delta.inCommitTimestampEnablementTimestampTimestamp) из TBLPROPERTIES предложения, а затем повторите команду снова.
DELTA_CANNOT_MODIFY_TABLE_PROPERTY
Конфигурация <prop> таблицы Delta не может быть указана пользователем.
DELTA_CANNOT_OVERRIDE_COORDINATED_COMMITS_CONFS
<Command> нельзя изменить конфигурации фиксированных коммитов для существующей целевой таблицы. Удалите их ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview", "delta.coordinatedCommits.tableConf-preview") из TBLPROPERTIES условия, а затем повторите команду.
DELTA_CANNOT_RECONSTRUCT_PATH_FROM_URI
uri (<uri>), который не может быть преобразован в относительный путь, был обнаружен в журнале транзакций.
DELTA_CANNOT_RELATIVIZE_PATH
Путь (<path>), который не может быть релятивирован с текущим входным данным, найденным в
журнал транзакций. Повторно выполните следующую команду:
%%scala com.databricks.delta.delta.fixAbsolutePathsInLog(",<userPath> true)
а затем также выполните:
%%scala com.databricks.delta.delta.fixAbsolutePathsInLog("<path>")
DELTA_CANNOT_RENAME_PATH
Не удается переименовать <currentPath> в <newPath>.
DELTA_CANNOT_REPLACE_MISSING_TABLE
Невозможно заменить таблицу <tableName>, так как она не существует. Используйте CREATE OR REPLACE TABLE для создания таблицы.
DELTA_CANNOT_RESOLVE_CLUSTERING_COLUMN
Не удается разрешить столбец кластеризации <columnName> в <schema> из-за непредвиденной ошибки. Запустите ALTER TABLE...CLUSTER BY ... для восстановления метаданных разностной кластеризации.
DELTA_CANNOT_RESOLVE_COLUMN
Не удается определить столбец <columnName> в <schema>
DELTA_CANNOT_RESTORE_TABLE_VERSION
Не удается восстановить таблицу до версии <version>. Доступные версии: [<startVersion>, <endVersion>].
DELTA_CANNOT_RESTORE_TIMESTAMP_EARLIER
Невозможно восстановить таблицу до метки времени (<requestedTimestamp>), так как эта метка раньше самой ранней доступной версии. Используйте метку времени после (<earliestTimestamp>).
DELTA_CANNOT_RESTORE_TIMESTAMP_GREATER
Не удается восстановить таблицу до метки времени (<requestedTimestamp>) после последней доступной версии. Используйте метку времени до (<latestTimestamp>).
DELTA_CANNOT_SET_COORDINATED_COMMITS_DEPENDENCIES
<Command> нельзя задать свойства таблицы меток времени в ходе фиксации совместно с согласованными фиксациями, потому что последние зависят от первых и задают их автоматически. Удалите их ("delta.enableInCommitTimestamps", delta.inCommitTimestampEnablementVersion, delta.inCommitTimestampEnablementTimestampTimestamp) из TBLPROPERTIES предложения, а затем повторите команду снова.
DELTA_CANNOT_SET_LOCATION_ON_PATH_IDENTIFIER
Не удается изменить расположение таблицы на основе пути.
DELTA_CANNOT_SET_MANAGED_STATS_COLUMNS_PROPERTY
Не удается задать delta.managedDataSkippingStatsColumns в таблице декларативных конвейеров Spark, отличной от Lakeflow Spark.
DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_COMMAND
Если включить "unity-catalog" в качестве координатора фиксации, конфигурация "<configuration>" не может быть задана из команды. Удалите его из предложения TBLPROPERTIES, а затем повторите команду.
DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_SESSION
Если включить "unity-catalog" в качестве координатора фиксации, конфигурация "<configuration>" не может быть задана из конфигураций SparkSession. Отмените это, выполнив spark.conf.unset("<configuration>"), а затем повторите команду.
DELTA_CANNOT_UNSET_COORDINATED_COMMITS_CONFS
ALTER не удается отменить настройки согласованных коммитов. Чтобы изменить таблицу из координированных фиксаций, повторите попытку.ALTER TABLE [table-name] DROP FEATURE 'coordinatedCommits-preview'
DELTA_CANNOT_UPDATE_ARRAY_FIELD
Не удается обновить <tableName> тип поля <fieldName> : обновить элемент путем обновления <fieldName>.element.
DELTA_CANNOT_UPDATE_MAP_FIELD
Не удается обновить <tableName> тип поля <fieldName> : обновить карту путем обновления <fieldName>.key или <fieldName>.value.
DELTA_CANNOT_UPDATE_OTHER_FIELD
Не удается обновить <tableName> поле типа <typeName>.
DELTA_CANNOT_UPDATE_STRUCT_FIELD
Не удается обновить поле типа <tableName><fieldName>: изменить структуру путем добавления, удаления или модификации его полей.
DELTA_CANNOT_USE_ALL_COLUMNS_FOR_PARTITION
Невозможно использовать все столбцы в качестве секционирующих.
DELTA_CANNOT_VACUUM_LITE
VACUUM LITE не может удалить все подходящие файлы, так как некоторые файлы не ссылаются на журнал Delta. Выполните VACUUM FULL.
DELTA_CANNOT_WRITE_INTO_VIEW
<table> — это представление. Запись в представление не поддерживается.
DELTA_CAST_OVERFLOW_IN_TABLE_WRITE
Не удалось записать значение типа <sourceType> в столбец типа <targetType><columnName> из-за переполнения.
Используйте try_cast для входного значения для обработки переполнения и возвращайте NULL вместо этого.
При необходимости установите <storeAssignmentPolicyFlag> как "LEGACY", чтобы обойти эту ошибку или установите <updateAndMergeCastingFollowsAnsiEnabledFlag> как true, чтобы вернуться к старому поведению и следовать <ansiEnabledFlag> в UPDATE и MERGE.
DELTA_CATALOG_MANAGED_TABLE_UPGRADE_OR_DOWNGRADE_NOT_SUPPORTED
Обновление или понижение управляемой каталогом таблицы не поддерживается. Создайте таблицу с нужными функциями таблицы.
DELTA_CATALOG_MANAGED_TABLE_UPGRADE_WITH_OTHER_PROPERTIES
Не удается объединить таблицу <tableName> обновления до управляемой каталогом с другими изменениями свойств.
Предоставленные свойства: <properties>.
DELTA_CDC_NOT_ALLOWED_IN_THIS_VERSION
Настройка delta.enableChangeDataFeed не может быть задана. Канал данных изменений от Delta пока недоступен.
DELTA_CDC_READ_NULL_RANGE_BOUNDARY
Параметры запуска и окончания чтения CDC не могут иметь значение NULL. Укажите допустимую версию или метку времени.
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_DATA_SCHEMA
Получение изменений таблицы между версией <start> и <end> завершилось сбоем из-за несовместимой схемы данных.
Ваша схема чтения <readSchema> в версии <readVersion>, однако мы обнаружили несовместимую схему данных в версии <incompatibleVersion>.
Если это возможно, пожалуйста, получите изменения таблицы с помощью схемы конечной версии, установив параметр <config> на endVersion, или обратитесь в службу поддержки.
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE
Получить изменения таблицы между версией <start> и <end> не удалось из-за несовместимого изменения схемы.
Ваша схема чтения имеет версию <readSchema> на версии <readVersion>, но мы обнаружили несовместимое изменение схемы на версии <incompatibleVersion>.
Если это возможно, запросите изменения таблицы отдельно от версии <start> до <incompatibleVersion> – 1, а также от версии <incompatibleVersion> до <end>.
DELTA_CHANGE_DATA_FILE_NOT_FOUND
Не удается найти файл <filePath>, на который ссылается журнал транзакций. Это может произойти, если данные были вручную удалены из файловой системы, а не с помощью инструкции таблицы DELETE. Этот запрос, как представляется, предназначен для канала изменений данных, если это так, эта ошибка может возникать, когда файл измененных данных выходит за пределы срока хранения и был удален инструкцией VACUUM. Дополнительные сведения см. в <faqPath>
DELTA_CHANGE_TABLE_FEED_DISABLED
Не удается записать в таблицу, так как включено delta.enableChangeDataFeed. Поток данных об изменениях из Delta недоступен.
DELTA_CHECKPOINT_NON_EXIST_TABLE
Невозможно создать контрольную точку для несуществующей таблицы <path>. Вы вручную удалили файлы в каталоге _delta_log?
DELTA_CLONE_AMBIGUOUS_TARGET
Были предоставлены два пути в качестве целевого объекта CLONE, так что возникает неоднозначность, какой из них следует использовать. Внешний
расположение для CLONE было предоставлено в <externalLocation> одновременно с маршрутом
<targetIdentifier>.
DELTA_CLONE_INCOMPATIBLE_SOURCE
Источник клона имеет допустимый формат, но содержит функцию, неподдерживаемую Delta.
Дополнительные сведения см.: DELTA_CLONE_INCOMPATIBLE_SOURCE
DELTA_CLONE_INCOMPLETE_FILE_COPY
Файл (<fileName>) не скопирован полностью. Ожидаемый размер файла: <expectedSize>, найден: <actualSize>. Чтобы продолжить операцию, игнорируя проверку размера файла, установите <config> в false.
DELTA_CLONE_UNSUPPORTED_SOURCE
Неподдерживаемый источник клонирования <mode> "<name>", формат которого - <format>.
Поддерживаемые форматы: delta, Apache Iceberg и Parquet.
DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_SOURCE
Неподдерживаемая исходная таблица:
Дополнительные сведения см. в DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_SOURCE
DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_TARGET
Неподдерживаемая целевая таблица:
Дополнительные сведения см. в DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_TARGET
КЛОНИРОВАНИЕ_DЕЛЬТА_С_ОТСЛЕЖИВАНИЕМ_СТРОК_БЕЗ_СТАТИСТИКИ
Не удается выполнить неглубокое клонирование таблицы без статистики и с включенным отслеживанием строк.
Если вы хотите включить отслеживание строк, необходимо сначала собрать статистику в исходной таблице, выполнив следующую команду:
ANALYZE TABLE table_name COMPUTE DELTA STATISTICS
DELTA_CLUSTERING_CLONE_TABLE_NOT_SUPPORTED
CLONE Не поддерживается для разностной таблицы с кластеризации Liquid для DBR версии < 14.0.
DELTA_CLUSTERING_COLUMNS_DATATYPE_NOT_SUPPORTED
CLUSTER BY не поддерживается, потому что следующие столбцы: <columnsWithDataTypes> не поддерживают пропуск данных.
DELTA_CLUSTERING_COLUMNS_MISMATCH
Указанные столбцы кластеризации не соответствуют существующим таблицам.
предоставлено:
<providedClusteringColumns>существующий цвет:
<existingClusteringColumns>
DELTA_CLUSTERING_COLUMN_MISSING_STATS
Для кластеризации типа Liquid требуется наличие статистики для столбцов кластеризации. Не удалось найти столбцы кластеризации "<columns>" в схеме статистики.
<schema>
DELTA_CLUSTERING_CREATE_EXTERNAL_NON_LIQUID_TABLE_FROM_LIQUID_TABLE
Создание внешней таблицы без "liquid clustering" из каталога таблицы с "liquid clustering" запрещено; путь: <path>.
DELTA_CLUSTERING_NOT_SUPPORTED
'<operation>' не поддерживает кластеризацию.
DELTA_CLUSTERING_PHASE_OUT_FAILED
Не удается завершить таблицу <phaseOutType> при использовании функции таблицы <tableFeatureToAdd> (причина: <reason>). Повторите команду OPTIMIZE.
== Ошибка ==
<error>
DELTA_CLUSTERING_REPLACE_TABLE_WITH_PARTITIONED_TABLE
REPLACE запрещено использование таблицы Delta с кластеризацией Liquid и секционированием.
DELTA_CLUSTERING_SHOW_CREATE_TABLE_WITHOUT_CLUSTERING_COLUMNS
SHOW CREATE TABLE не поддерживается для таблицы Delta с Liquid кластеризацией без каких-либо столбцов кластеризации.
DELTA_CLUSTERING_TO_PARTITIONED_TABLE_WITH_NON_EMPTY_CLUSTERING_COLUMNS
Перенос таблицы Delta с кластеризацией Liquid в секционированную таблицу не допускается для операции: <operation>, если у существующей таблицы есть непустые столбцы кластеризации.
Сначала выполните ALTER TABLE CLUSTER BY NONE, чтобы удалить кластеризованные столбцы.
DELTA_CLUSTERING_WITH_DYNAMIC_PARTITION_OVERWRITE
Динамический режим перезаписи разделов не допускается для таблицы Delta с использованием Liquid-кластеризации.
DELTA_CLUSTERING_WITH_PARTITION_PREDICATE
OPTIMIZE Команда для таблицы Delta с Liquid-кластеризацией не поддерживает предикаты разделов. Удалите предикаты: <predicates>.
DELTA_CLUSTERING_WITH_ZORDER_BY
команда OPTIMIZE для таблицы Delta с кластеризацией Liquid не может указывать ZORDER BY. Удалите ZORDER BY (<zOrderBy>).
DELTA_CLUSTER_BY_AUTO_MISMATCH
Указанное значение clusterByAuto не соответствует значению существующей таблицы.
DELTA_CLUSTER_BY_INVALID_NUM_COLUMNS
CLUSTER BY для кластеризации Liquid поддерживает до <numColumnsLimit> столбцов кластеризации, но в таблице есть <actualNumColumns> столбцы кластеризации. Удалите дополнительные столбцы кластеризации.
DELTA_CLUSTER_BY_SCHEMA_NOT_PROVIDED
Невозможно указать CLUSTER BY, если схема не определена. Определите схему для таблицы номер <tableName>.
DELTA_CLUSTER_BY_WITH_BUCKETING
Кластеризация и группировка не могут быть указаны одновременно. Удалите CLUSTERED BY INTO BUCKETS / bucketBy, если вы хотите создать таблицу Delta с кластеризацией.
DELTA_CLUSTER_BY_WITH_PARTITIONED_BY
Кластеризация и секционирование не могут быть указаны. Удалите PARTITIONED BY / partitionBy / partitionedBy, если вы хотите создать таблицу Delta с кластеризацией.
DELTA_COLLATIONS_NOT_SUPPORTED
Сортировки данных не поддерживаются в Delta Lake.
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_PARTITIONED_COLUMN
Пропуск данных не поддерживается для столбца секционирования "<column>".
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_TYPE
Пропуск данных не поддерживается для столбца "<column>" типа <type>.
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET
Свойство max column id (<prop>) не задано в таблице с включенным сопоставлением столбцов.
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET_CORRECTLY
Максимальный идентификатор столбца (<prop>) в таблице с включенным сопоставлением столбцов равен <tableMax>и не может быть меньше максимального идентификатора для всех полей (<fieldMax>).
DELTA_COLUMN_MISSING_DATA_TYPE
Тип данных столбца <colName> не указан.
DELTA_COLUMN_NOT_FOUND
Не удалось найти столбец <columnName> , заданный [<columnList>].
DELTA_COLUMN_NOT_FOUND_IN_MERGE
Невозможно найти столбец "<targetCol>" в целевой таблице среди столбцов INSERT: <colNames>. предложение INSERT должно указывать значение для всех столбцов целевой таблицы.
DELTA_COLUMN_NOT_FOUND_IN_SCHEMA
Не удалось найти столбец <columnName> в:
<tableSchema>
DELTA_COLUMN_PATH_NOT_NESTED
Ожидалось, что <columnPath> будет вложенным типом данных, но был найден <other>. Искал(а)
индекс элемента <column> в вложенном поле.
Schema:
<schema>
DELTA_COLUMN_STRUCT_TYPE_MISMATCH
Невозможно вставить структурный столбец <source> в поле <targetType><targetField> в <targetTable>.
DELTA_COMMIT_INTERMEDIATE_REDIRECT_STATE
Не удается обработать фиксацию таблицы в состоянии таблицы перенаправления "<state>".
DELTA_COMPACTION_VALIDATION_FAILED
Проверка сжатия пути <compactedPath> до <newPath> завершилась ошибкой: отправьте отчет об ошибке.
DELTA_COMPLEX_TYPE_COLUMN_CONTAINS_NULL_TYPE
Обнаружен вложенный NullType в столбце <columName>, который принадлежит типу <dataType>. Delta не поддерживает запись NullType в сложных типах.
DELTA_CONCURRENT_APPEND
ConcurrentAppendException: файлы были добавлены в <partition> в результате одновременного обновления. <retryMsg> <conflictingCommit>
Дополнительные сведения см. в <docLink>.
DELTA_CONCURRENT_DELETE_DELETE
ConcurrentDeleteDeleteException: эта транзакция попыталась удалить один или несколько файлов, которые были удалены (например, <file>) одновременным обновлением. Повторите операцию.<conflictingCommit>
Дополнительные сведения см. в <docLink>.
DELTA_CONCURRENT_DELETE_READ
ConcurrentDeleteReadException: эта транзакция попыталась прочитать один или несколько файлов, удаленных (например, <file>) одновременным обновлением. Повторите операцию.<conflictingCommit>
Дополнительные сведения см. в <docLink>.
DELTA_CONCURRENT_TRANSACTION
ConcurrentTransactionException: эта ошибка возникает, когда несколько запросов потоковой передачи используют одну контрольную точку для записи в эту таблицу. Выполнялось ли одновременно несколько экземпляров одного и того же потокового запроса?<conflictingCommit>
Дополнительные сведения см. в <docLink>.
DELTA_CONCURRENT_WRITE
ConcurrentWriteException: параллельная транзакция записывает новые данные, так как текущая транзакция считывает таблицу. Повторите операцию.<conflictingCommit>
Дополнительные сведения см. в <docLink>.
DELTA_CONFLICT_SET_COLUMN
Существует конфликт в этих столбцах SET: <columnList>.
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_COMMAND
Во время <command> настройки "<configuration>" нельзя задать из команды. Удалите его из предложения TBLPROPERTIES, а затем повторите команду.
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_SESSION
Во время настройки <command> конфигурацию "<configuration>" невозможно задать из конфигураций SparkSession. Отмените это, выполнив spark.conf.unset("<configuration>"), а затем повторите команду.
DELTA_CONSTRAINT_ALREADY_EXISTS
Ограничение "<constraintName>" уже существует. Сначала удалите старое ограничение.
Старое ограничение:
<oldConstraint>
DELTA_CONSTRAINT_DATA_TYPE_MISMATCH
Столбец <columnName> имеет тип данных <columnType> и не может быть изменен на тип данных <dataType>, так как этот столбец ссылается на следующие ограничения проверки:
<constraints>
DELTA_CONSTRAINT_DEPENDENT_COLUMN_CHANGE
Не удается изменить столбец <columnName>, так как на этот столбец ссылается следующие ограничения проверки:
<constraints>
DELTA_CONSTRAINT_DOES_NOT_EXIST
Не удается удалить несуществующее ограничение <constraintName> из таблицы <tableName>. Чтобы избежать возникновения ошибки, укажите параметр IF EXISTS или задайте для конфигурации сеанса SQL <config> значение <confValue>.
DELTA_CONVERSION_MERGE_ON_READ_NOT_SUPPORTED
Преобразование таблицы Merge-On-Read <format> не поддерживается: <path>, <hint>
DELTA_CONVERSION_NO_PARTITION_FOUND
Не найдено информации о разделе в каталоге для таблицы <tableName>. Вы выполнили "MSCK REPAIR TABLE" в таблице, чтобы обнаружить разделы?
DELTA_CONVERSION_UNSUPPORTED_COLLATED_PARTITION_COLUMN
Не удается преобразовать таблицу Parquet с отсортированным столбцом секционирования <colName> в Delta.
DELTA_CONVERSION_UNSUPPORTED_COLUMN_MAPPING
Настройка "<config>" не может быть задана <mode> при использовании CONVERT TO DELTA.
DELTA_CONVERSION_UNSUPPORTED_SCHEMA_CHANGE
Неподдерживаемые изменения схемы, найденные для <format> таблицы: <path>, <hint>
DELTA_CONVERT_NON_PARQUET_TABLE
CONVERTTO DELTA поддерживает только таблицы Parquet, но вы пытаетесь преобразовать источник <sourceName> в <tableId>.
DELTA_CONVERT_TO_DELTA_ROW_TRACKING_WITHOUT_STATS
Невозможно включить отслеживание строк без сбора статистики.
Если вы хотите включить отслеживание строк, сделайте следующее:
- Включение сбора статистики путем выполнения команды
SET <statisticsCollectionPropertyKey> = верно
- Запустите
CONVERTTODELTAбез параметра NOSTATISTICS.
Если вы не хотите собирать статистику, отключите отслеживание строк:
- Отключите функцию включения таблицы по умолчанию, выполнив команду:
RESET <rowTrackingTableFeatureDefaultKey>
- Деактивируйте свойство таблицы по умолчанию, выполнив следующую команду:
SET <rowTrackingDefaultPropertyKey> = ложь
DELTA_COPY_INTO_TARGET_FORMAT
COPY INTO целевой объект должен быть таблицей Delta.
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_SCHEMA
Вы пытаетесь создать внешнюю таблицу <tableName>
из <path> с использованием Delta, но схема не указана, когда это происходит
входной путь пуст.
Дополнительные сведения о Delta см. в <docLink>
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_TXN_LOG
Вы пытаетесь создать внешнюю таблицу <tableName> из <path> с помощью Delta, но журналы транзакций отсутствуют по адресу <logPath>. Проверьте вышестоящее задание, чтобы убедиться, что оно записывается с использованием формата («delta») и что путь указывает на корень таблицы.
Дополнительные сведения о Delta см. в <docLink>
DELTA_CREATE_TABLE_IDENTIFIER_LOCATION_MISMATCH
Создание таблицы Delta на основе пути с другим расположением не поддерживается. Идентификатор: <identifier>, расположение: <location>.
DELTA_CREATE_TABLE_MISSING_TABLE_NAME_OR_LOCATION
Необходимо указать имя таблицы или расположение.
DELTA_CREATE_TABLE_SCHEME_MISMATCH
Указанная схема не соответствует существующей схеме в <path>.
== Указанное ==
<specifiedSchema>
== Существующие ==
<existingSchema>
== Отличия ==
<schemaDifferences>
Если вы намерены сохранить существующую схему, можно опустить это.
схема из команды создания таблицы. В противном случае убедитесь, что
Схема соответствует.
DELTA_CREATE_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
Не удается включить функцию таблицы <tableFeature> с помощью TBLPROPERTIES. Используйте CREATE ИЛИ REPLACE TABLE CLUSTER BY для создания таблицы Delta с кластеризацией.
DELTA_CREATE_TABLE_WITH_DIFFERENT_CLUSTERING
Указанные столбцы кластеризации не соответствуют существующим столбцам кластеризации в <path>.
== Указанное ==
<specifiedColumns>
== Существующие ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PARTITIONING
Указанное секционирование не соответствует существующему секционированию на <path>.
== Указанное ==
<specifiedColumns>
== Существующие ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PROPERTY
Указанные свойства не соответствуют существующим свойствам в <path>.
== Указанное ==
<specifiedProperties>
== Существующие ==
<existingProperties>
DELTA_CREATE_TABLE_WITH_NON_EMPTY_LOCATION
Не удается создать таблицу ('<tableId>). Связанное расположение ('<tableLocation>') не пусто, а также не является таблицей Delta.
DELTA_DATA_CHANGE_FALSE
Не удается изменить метаданные таблицы, так как параметр dataChange имеет значение false. Предпринятая операция: '<op>'.
DELTA_DELETED_PARQUET_FILE_NOT_FOUND
Не удается найти файл <filePath>, на который ссылается журнал транзакций. Этот файл Parquet может быть удалён в соответствии с политикой хранения данных Delta.
Длительность хранения данных Delta по умолчанию: <logRetentionPeriod>. Время изменения файла parquet: <modificationTime>. Время удаления файла parquet: <deletionTime>. Удалено в версии Delta: <deletionVersion>.
DELTA_DELETION_VECTOR_MISSING_NUM_RECORDS
Неверно коммитить файлы с векторами на удаление, у которых отсутствует статистика numRecords.
DELTA_DISABLE_SOURCE_MATERIALIZATION_IN_INSERT_REPLACE_ON_OR_USING_NOT_ALLOWED
Отключение материализации источника в INSERT REPLACE ON/USING путем установки параметра 'spark.databricks.delta.insertReplaceOnOrUsing.materializeSource' в 'none' не допускается.
DELTA_DISABLE_SOURCE_MATERIALIZATION_IN_MERGE_NOT_ALLOWED
Запрещено отключать материализацию источника в MERGE путем установки параметра 'spark.databricks.delta.merge.materializeSource' на значение 'none'.
DELTA_DOMAIN_METADATA_NOT_SUPPORTED
Обнаружены действия DomainMetadata для доменов <domainNames>, однако функция DomainMetadataTableFeature не включена.
DELTA_DROP_COLUMN_AT_INDEX_LESS_THAN_ZERO
Индекс <columnIndex> для удаления столбца меньше 0.
DELTA_DROP_COLUMN_ON_SINGLE_FIELD_SCHEMA
Невозможно удалить столбец из схемы с одним столбцом. Schema:
<schema>
DELTA_DUPLICATE_ACTIONS_FOUND
Операция файла "<actionType>" для пути <path> была указана несколько раз.
Он конфликтует с <conflictingPath>.
Недопустимо, чтобы несколько операций с файлами с одинаковым путем находились в рамках одной фиксации.
DELTA_DUPLICATE_COLUMNS_FOUND
Найден повторяющийся столбец <coltype>: <duplicateCols>.
DELTA_DUPLICATE_COLUMNS_ON_INSERT
Повторяющиеся имена столбцов в INSERT предложении.
DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE
<message>
Перед обновлением таблицы удалите повторяющиеся столбцы.
DELTA_DUPLICATE_DATA_SKIPPING_COLUMNS
Обнаружены столбцы с дублированными данными: <columns>.
DELTA_DUPLICATE_DOMAIN_METADATA_INTERNAL_ERROR
Внутренняя ошибка: два действия DomainMetadata в одной транзакции имеют один и тот же домен <domainName>.
DELTA: Найдены дублирующие записи журнала
Журнал Delta находится в недопустимом состоянии: <numDuplicates> пути содержат повторяющиеся записи в версии <version>.
RESTORE откатить до версии, предшествующей коммиту, который привел к дублированию, или обратитесь за помощью в службу поддержки.
DELTA_DV_HISTOGRAM_DESERIALIZATON
Не удалось десериализовать гистограмму подсчетов удаленных записей во время проверки целостности таблицы.
DELTA_DYNAMIC_PARTITION_OVERWRITE_DISABLED
Динамический режим перезаписи разделов задается параметрами конфигурации сеанса или записи, но он отключен настройкой spark.databricks.delta.dynamicPartitionOverwrite.enabled=false.
DELTA_EMPTY_DATA
Данные, используемые при создании таблицы Delta, не имеют столбцов.
DELTA_EMPTY_DIRECTORY
Файл не найден в каталоге: <directory>.
DELTA_EXCEED_CHAR_VARCHAR_LIMIT
Значение "<value>" превышает ограничение длины типа char/varchar. Не удалось проверить: <expr>.
DELTA_EXTERNAL_METADATA_UNRESOLVED_PROJECTION
Запрос проекции "<query>" не может быть разрешен в схеме: <schemaTreeString>
DELTA_EXTERNAL_METADATA_UNSUPPORTED_SOURCE
Внешние метаданные не поддерживают источник:
Дополнительные сведения см. в DELTA_EXTERNAL_METADATA_UNSUPPORTED_SOURCE
DELTA_FAILED_CAST_PARTITION_VALUE
Не удалось привести значение раздела <value> к <dataType>.
DELTA_FAILED_FIND_ATTRIBUTE_IN_OUTPUT_COLUMNS
Не удалось найти <newAttributeName> среди существующих целевых выходных данных <targetOutputColumns>.
DELTA_FAILED_INFER_SCHEMA
Не удалось вывести схему из заданного списка файлов.
DELTA_FAILED_MERGE_SCHEMA_FILE
Не удалось объединить схему файла <file>:
<schema>
DELTA_FAILED_OPERATION_ON_SHALLOW_CLONE
Не удалось выполнить операцию в исходной таблице <sourceTable> , так как неглубокий клон <targetTable> по-прежнему существует, и в неглубоком клоне произошла следующая ошибка: <message>
DELTA_FAILED_READ_FILE_FOOTER
Не удалось прочитать нижний колонтитул для файла: <currentFile>
DELTA_FAILED_RECOGNIZE_PREDICATE
Не удается распознать предикат '<predicate>'.
DELTA_FAILED_SCAN_WITH_HISTORICAL_VERSION
Предполагалась полная проверка самой последней версии источника Delta, но была обнаружена более ранняя проверка версии <historicalVersion>.
DELTA_FAILED_TO_MERGE_FIELDS
Не удалось объединить поля "<currentField>" и "<updateField>".
DELTA_FEATURES_PROTOCOL_METADATA_MISMATCH
Не удалось работать с этой таблицей, так как следующие функции таблицы включены в метаданных, но не указаны в протоколе: <features>.
DELTA_FEATURES_REQUIRE_MANUAL_ENABLEMENT
Для схемы таблицы требуется вручную включить следующие функции таблицы: <unsupportedFeatures>.
Для этого выполните следующую команду для каждого из перечисленных выше компонентов:
ALTER TABLE
SET TBLPROPERTIES table_name ("delta.feature.feature_name" = "поддерживается"
Замените "table_name" и "feature_name" реальными значениями.
Текущая поддерживаемая функция(и): <supportedFeatures>.
DELTA_FEATURE_CAN_ONLY_DROP_CHECKPOINT_PROTECTION_WITH_HISTORY_TRUNCATION
Не удалось удалить функцию защиты контрольных точек.
Эту возможность можно отключить только путем усечения истории.
Повторите попытку с параметром TRUNCATE HISTORY:
ALTER TABLE table_name DROP FEATURE защита контрольной точки TRUNCATE HISTORY
DELTA_FEATURE_DROP_CHECKPOINT_FAILED
Не удалось прервать <featureName> из-за ошибки при создании контрольной точки.
Повторите попытку позже. Если проблема сохраняется, обратитесь в службу поддержки Databricks.
DELTA_FEATURE_DROP_CHECKPOINT_PROTECTION_WAIT_FOR_RETENTION_PERIOD
Операция не завершилась успешно, так как по-прежнему остались следы удаленных функций
в истории таблиц. CheckpointProtection не может быть удален, пока эти исторические записи не будут удалены.
Истек срок действия версий.
Чтобы отказаться от Защиты контрольной точки, подождите, пока исторические версии будут реализованы.
Дождитесь истечения срока действия, а затем выполните эту команду вновь. Период хранения для исторических версий —
В настоящее время настроено <truncateHistoryLogRetentionPeriod>.
DELTA_FEATURE_DROP_CONFLICT_REVALIDATION_FAIL
Не удается удалить функцию, так как параллельная транзакция изменила таблицу.
Повторите операцию.
<concurrentCommit>
DELTA_FEATURE_DROP_DEPENDENT_FEATURE
Не удается удалить функцию таблицы <feature>, так как некоторые другие функции (<dependentFeatures>) в этой таблице зависят от <feature>.
Прежде чем удалить эту функцию, рассмотрите возможность их удаления.
DELTA_FEATURE_DROP_FEATURE_IS_DELTA_PROPERTY
Не удается удалить <property> из этой таблицы, так как это свойство разностной таблицы, а не функция таблицы.
DELTA_FEATURE_DROP_FEATURE_NOT_PRESENT
Не удается удалить <feature> из этой таблицы, так как в настоящее время он отсутствует в протоколе таблицы.
DELTA_FEATURE_DROP_HISTORICAL_VERSIONS_EXIST
Не удается удалить <feature>, так как журнал Delta содержит исторические версии, использующие эту функцию.
Пожалуйста, подождите до завершения периода хранения журнала регистрации (<logRetentionPeriodKey>=<logRetentionPeriod>)
прошел с момента последнего активного действия функции.
Кроме того, дождитесь истечения срока хранения TRUNCATE HISTORY (<truncateHistoryLogRetentionPeriod>)
а затем выполните следующую команду:
ALTER TABLE имя_таблицы DROP FEATURE имя_функции TRUNCATE HISTORY
DELTA_FEATURE_DROP_HISTORY_TRUNCATION_NOT_ALLOWED
Для данной особенности не требуется усечение истории.
DELTA_FEATURE_DROP_NONREMOVABLE_FEATURE
Не удается удалить <feature>, так как удаление этой функции не поддерживается.
Обратитесь в службу поддержки Databricks.
DELTA_FEATURE_DROP_UNSUPPORTED_CLIENT_FEATURE
Не удается удалить <feature>, так как она не поддерживается этой версией Databricks.
Рекомендуется использовать Databricks с более поздней версией.
DELTA_FEATURE_DROP_WAIT_FOR_RETENTION_PERIOD
Удаление <feature> было частично успешным.
Функция теперь больше не используется в текущей версии таблицы. Однако эта функция
по-прежнему присутствует в исторических версиях таблицы. Невозможно удалить функцию таблицы
из протокола таблицы до тех пор, пока у этих исторических версий не истечёт срок действия.
Чтобы удалить функцию таблицы из протокола, подождите, пока исторические версии будут удалены.
Дождитесь истечения срока действия, а затем выполните эту команду вновь. Период хранения для исторических версий —
в настоящее время настроено как <logRetentionPeriodKey>=<logRetentionPeriod>.
Кроме того, дождитесь истечения срока хранения TRUNCATE HISTORY (<truncateHistoryLogRetentionPeriod>)
а затем выполните следующую команду:
ALTER TABLE имя_таблицы DROP FEATURE имя_функции TRUNCATE HISTORY
DELTA_FEATURE_REQUIRES_HIGHER_READER_VERSION
Не удалось включить функцию таблицы <feature>, так как для нее требуется более высокая версия протокола чтения (текущая <current>). Рассмотрите возможность обновления версии протокола чтения таблицы до версии <required> или до версии, поддерживающей функции чтения таблицы. Дополнительные сведения о версиях протокола таблицы см. в <docLink>.
DELTA_FEATURE_REQUIRES_HIGHER_WRITER_VERSION
Не удалось включить функцию таблицы <feature>, так как для нее требуется более высокая версия протокола записи (текущая <current>). Рассмотрите возможность обновления версии протокола записи таблицы до версии <required>, либо до версии, поддерживающей функции записи таблицы. Дополнительные сведения о версиях протокола таблицы см. в <docLink>.
DELTA_FILE_ALREADY_EXISTS
Существующий путь к файлу <path>.
DELTA_FILE_LIST_AND_PATTERN_STRING_CONFLICT
Не удается указать как список файлов, так и строку шаблона.
DELTA_FILE_NOT_FOUND
Путь к файлу <path>.
DELTA_FILE_NOT_FOUND_DETAILED
Не удается найти файл <filePath>, на который ссылается журнал транзакций. Это происходит, когда данные были вручную удалены из файловой системы, а не с помощью инструкции таблицы DELETE. Дополнительные сведения см. в <faqPath>
DELTA_FILE_OR_DIR_NOT_FOUND
Нет такого файла или каталога: <path>
DELTA_FILE_TO_OVERWRITE_NOT_FOUND
Файл (<path>) для перезаписи не найден среди кандидатных файлов.
<pathList>
DELTA_FOUND_MAP_TYPE_COLUMN
Был найден тип карты. Чтобы получить доступ к ключу или значению MapType, укажите один из них.
of:
<key> или
<value>
следует название столбца (только если этот столбец является структурным типом).
например, mymap.key.mykey
Если столбец является базовым типом, достаточно mymap.key или mymap.value.
Schema:
<schema>
DELTA_FSCK_CANNOT_REPAIR_DELTA_LOG
FSCK не может восстановить таблицу. В таблице нет допустимой контрольной точки для запуска воспроизведения журнала, и для воспроизведения первой версии недостаточно журнала журналов.
DELTA_FSCK_CONCURRENT_MODIFICATION
При выполнении FSCK обнаружено параллельное изменение таблицы. Повторите команду FSCK и убедитесь, что другие операции не записываются в таблицу во время процесса восстановления.
DELTA_FSCK_DRY_RUN_CANNOT_PROCEED_WITH_INVALID_CHECKPOINTS
FSCK DRY RUN не может продолжаться, так как обнаружены недопустимые контрольные точки. Сначала выполните команду FSCK REPAIR TABLE table METADATA ONLY, чтобы восстановить контрольные точки.
DELTA_FSCK_DRY_RUN_CANNOT_PROCEED_WITH_MISSING_OR_INVALID_PARTITION_FILES
FSCK DRY RUN не может продолжаться, так как обнаружены отсутствующие файлы или файлы с недопустимыми значениями секций. Сначала запустите таблицу FSCK REPAIR TABLE , чтобы восстановить таблицу.
DELTA_FSCK_INVALID_BARRIER_CHECKPOINT
FSCK не может восстановить таблицу. Некоторые недопустимые контрольные точки защищены и не могут быть удалены. Обратитесь в службу поддержки Databricks.
DELTA_FSCK_NO_VALID_CHECKPOINT
FSCK не может восстановить таблицу. Все контрольные точки этой таблицы недопустимы. Обратитесь в службу поддержки Databricks.
DELTA_GENERATED_COLUMNS_DATA_TYPE_MISMATCH
Столбец <columnName> имеет тип данных <columnType> и не может быть изменен на тип данных <dataType> так как этот столбец ссылается на следующие созданные столбцы:
<generatedColumns>.
DELTA_GENERATED_COLUMNS_DEPENDENT_COLUMN_CHANGE
Не удается изменить столбец <columnName>, так как на этот столбец ссылается следующий созданный столбец:
<generatedColumns>.
DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH
Тип выражения созданного столбца <columnName> — <expressionType>, но тип столбца — <columnType>.
DELTA_GENERATED_COLUMN_UPDATE_TYPE_MISMATCH
Столбец <currentName> — это созданный столбец или столбец, используемый созданным столбцом. Тип данных <currentDataType> не может быть преобразован в тип данных <updateDataType>.
DELTA_GEOSPATIAL_NOT_SUPPORTED
Геопространственные типы не поддерживаются в этой версии Delta Lake.
DELTA_GEOSPATIAL_SRID_NOT_SUPPORTED
Геопространственный тип имеет неподдерживаемый srid: <srid>. Таблицы Delta поддерживают только неотрицательные значения srid.
DELTA_ICEBERG_COMPAT_VIOLATION
Проверка IcebergCompatV<version> не прошла.
Дополнительные сведения см. в DELTA_ICEBERG_COMPAT_VIOLATION
DELTA_ICEBERG_WRITER_COMPAT_VIOLATION
Проверка IcebergWriterCompatV<version> завершилась ошибкой.
Дополнительные сведения см. в DELTA_ICEBERG_WRITER_COMPAT_VIOLATION
DELTA_IDENTITY_COLUMNS_ALTER_COLUMN_NOT_SUPPORTED
ALTER TABLE ALTER COLUMN не поддерживается для столбцов IDENTITY.
DELTA_IDENTITY_COLUMNS_ALTER_NON_DELTA_FORMAT
ALTER TABLE ALTER COLUMN SYNC IDENTITY поддерживается только Delta.
DELTA_IDENTITY_COLUMNS_ALTER_NON_IDENTITY_COLUMN
ALTER TABLE ALTER COLUMN SYNC IDENTITY нельзя вызывать для столбцов, отличных от IDENTITY.
DELTA_IDENTITY_COLUMNS_EXPLICIT_INSERT_NOT_SUPPORTED
Предоставление значений для GENERATED ALWAYS AS IDENTITY столбца <colName> не поддерживается.
DELTA_IDENTITY_COLUMNS_ILLEGAL_STEP
IDENTITY шаг столбца не может быть 0.
DELTA_IDENTITY_COLUMNS_NON_DELTA_FORMAT
Столбцы IDENTITY поддерживаются только Delta.
DELTA_IDENTITY_COLUMNS_PARTITION_NOT_SUPPORTED
PARTITIONED BY IDENTITY столбца <colName> не поддерживается.
DELTA_IDENTITY_COLUMNS_REPLACE_COLUMN_NOT_SUPPORTED
ALTER TABLE REPLACE COLUMNS не поддерживается для таблицы со столбцами IDENTITY.
DELTA_IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE
Тип данных <dataType> не поддерживается для столбцов IDENTITY.
DELTA_IDENTITY_COLUMNS_UPDATE_NOT_SUPPORTED
UPDATE в столбце IDENTITY<colName> не поддерживается.
DELTA_IDENTITY_COLUMNS_WITH_GENERATED_EXPRESSION
Столбец IDENTITY нельзя указывать с сгенерированным выражением для столбца.
DELTA_ILLEGAL_OPTION
Недопустимое значение "<input>" для параметра "<name>", <explain>
DELTA_ILLEGAL_USAGE
Использование <option> не допускается, если <operation> — таблица Delta.
DELTA_INCONSISTENT_BUCKET_SPEC
Спецификация BucketSpec на сегментированной таблице Delta не соответствует спецификации из метаданных. Ожидается: <expected>. Фактический: <actual>.
DELTA_INCONSISTENT_LOGSTORE_CONFS
(<setKeys>) нельзя установить на разные значения. Задайте только одно из них или задайте для них одно и то же значение.
DELTA_INCORRECT_ARRAY_ACCESS
Неправильное обращение к типу массива. Используйте позицию arrayname.element.elementname для выполнения действий.
добавьте в массив.
DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME
Обнаружен объект ArrayType. Чтобы получить доступ к элементам ArrayType, укажите
<rightName> вместо <wrongName>.
Schema:
<schema>
DELTA_INCORRECT_GET_CONF
Используйте getConf() вместо conf.getConf().
DELTA_INCORRECT_LOG_STORE_IMPLEMENTATION
Ошибка обычно возникает при реализации LogStore по умолчанию, когда
HDFSLogStore используется для записи в Delta таблицу на системе хранения, отличной от HDFS.
Чтобы обеспечить гарантии транзакционности ACID при обновлении таблиц, необходимо использовать
правильная реализация LogStore, соответствующая вашей системе хранения.
Дополнительные сведения см. в <docLink>.
DELTA_INDEX_LARGER_OR_EQUAL_THAN_STRUCT
Индекс <index> для удаления столбца равен или больше длины структуры: <length>
DELTA_INDEX_LARGER_THAN_STRUCT
Индекс <index> для добавления столбца <columnName> превышает длину структуры: <length>
DELTA_INSERT_COLUMN_ARITY_MISMATCH
Невозможно записать в "<tableName>"; целевая таблица имеет <columnName> столбцов, но вставленные данные содержат <numColumns> столбцов.
DELTA_INSERT_COLUMN_MISMATCH
Столбец <columnName> не указан в INSERT.
DELTA_INSERT_REPLACE_ON_AMBIGUOUS_COLUMNS_IN_CONDITION
Столбцы <columnNames> неоднозначны в условии INSERT REPLACE ON. Рекомендуется указать псевдоним для этих столбцов.
На сегодняшний день, нет улучшенной версии для этого текста, поскольку он представлен как технический код/идентификатор.
Обратитесь к представителю Databricks, чтобы включить INSERT INTO...REPLACE ON ... API SQL и DataFrame.
DELTA_INSERT_REPLACE_ON_UNRESOLVED_COLUMNS_IN_CONDITION
Столбцы <columnNames> не могут быть разрешены в условии INSERT REPLACE ON.
DELTA_INVALID_AUTO_COMPACT_TYPE
Недопустимый тип автоуплотнения: <value>. Допустимые значения: <allowed>.
DELTA_INVALID_BUCKET_COUNT
Недопустимое число контейнеров: <invalidBucketCount>. Число контейнеров должно быть положительным числом, которое имеет значение 2 и не менее 8. Вместо этого можно использовать <validBucketCount>.
DELTA_INVALID_BUCKET_INDEX
Не удается найти столбец контейнера в столбцах секционирования.
DELTA_INVALID_CALENDAR_INTERVAL_EMPTY
Интервал не может быть нулевым или пустым.
DELTA_INVALID_CDC_RANGE
Диапазон CDC от начального <start> до конечного <end> был недействительным. Конец не может быть до начала.
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAME
Имя атрибута "<columnName>" содержит недопустимые символы среди ",;{}()\n\t=". Используйте псевдоним, чтобы его переименовать.
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAMES
Найдено недопустимое число символов среди ';{}()\n\t=' в именах столбцов схемы.
Недопустимые имена столбцов: <invalidColumnNames>.
Используйте другие символы и повторите попытку.
Кроме того, включите сопоставление столбцов для сохранения использования этих символов.
DELTA_INVALID_CHECK_CONSTRAINT_REFERENCES
Найдено <colName> ограничение CHECK . Ограничение проверки не может использовать несуществующий столбец.
DELTA_INVALID_CLONE_PATH
Целевой путь для CLONE должен быть абсолютным путем или именем таблицы. Использование
абсолютный путь вместо <path>.
DELTA_INVALID_COLUMN_NAMES_WHEN_REMOVING_COLUMN_MAPPING
Найдено недопустимое число символов среди ';{}()\n\t=' в именах столбцов схемы.
Недопустимые имена столбцов: <invalidColumnNames>.
Сопоставление столбцов невозможно удалить, если в именах столбцов есть недопустимые символы.
Переименуйте столбцы, чтобы удалить недопустимые символы и повторите эту команду.
DELTA_INVALID_FORMAT
Обнаружен несовместимый формат.
Журнал транзакций для Delta найден в <deltaRootPath>/_delta_log:
но вы пытаетесь <operation> <path> использовать формат("<format>"). Необходимо использовать
"format("delta")" при чтении и записи в таблицу Delta.
Дополнительные сведения о Delta см. в <docLink>
DELTA_INVALID_GENERATED_COLUMN_REFERENCES
Созданный столбец не может использовать несуществующий столбец или другой созданный столбец.
DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS
Недопустимые параметры для записи idempotent Dataframe: <reason>
DELTA_INVALID_INTERVAL
<interval> не является допустимым INTERVAL.
DELTA_INVALID_INVENTORY_SCHEMA
Схема для указанного INVENTORY не содержит все обязательные поля. Обязательные поля: <expectedSchema>
DELTA_INVALID_ISOLATION_LEVEL
Недопустимый уровень изоляции '<isolationLevel>'.
DELTA_INVALID_LOGSTORE_CONF
(<classConfig>) и (<schemeConfig>) нельзя задать одновременно. Задайте только одну группу из них.
DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA
Вы пытаетесь создать управляемую таблицу <tableName>
Используется Delta, но схема не указана.
Дополнительные сведения о Delta см. в <docLink>
DELTA_INVALID_PARTITION_COLUMN
<columnName> не является допустимым столбцом секционирования в таблице <tableName>.
DELTA_INVALID_PARTITION_COLUMN_NAME
Найденные столбцы секций с недопустимыми символами среди ";{}()\n\t=". Измените имя столбцов секционирования. Эту проверку можно отключить, задав spark.conf.set("spark.databricks.delta.partitionColumnValidity.enabled", false), однако это не рекомендуется, так как другие функции Delta могут работать неправильно.
DELTA_INVALID_PARTITION_COLUMN_TYPE
Использование столбцов <name> типа <dataType> в качестве столбца секционирования не поддерживается.
DELTA_INVALID_PARTITION_PATH
Фрагмент пути раздела должен быть в формате part1=foo/part2=bar. Путь к разделу: <path>.
DELTA_INVALID_PROTOCOL_DOWNGRADE
Версия протокола не может быть понижена с (<oldProtocol>) до (<newProtocol>).
DELTA_INVALID_PROTOCOL_VERSION
Неподдерживаемая версия протокола Delta: для таблицы "<tableNameOrPath>" требуется версия <readerRequired> чтения и версия <writerRequired> записи, но эта версия Databricks поддерживает версии <supportedReaders> чтения и версии <supportedWriters> записи. Обновите до более нового выпуска.
DELTA_INVALID_TABLE_VALUE_FUNCTION
Функция <function> — это неподдерживаемая табличная функция со значениями для чтения данных CDC.
DELTA_INVALID_TIMESTAMP_FORMAT
Указанная метка времени <timestamp> не соответствует ожидаемому синтаксису <format>.
DELTA_LOG_ALREADY_EXISTS
Журнал Delta уже существует в <path>.
DELTA_LOG_FILE_NOT_FOUND
Не удалось получить файлы журнала изменений, чтобы создать версию таблицы <version>, начиная с версии <checkpointVersion> контрольной точки на <logPath>.
DELTA_LOG_FILE_NOT_FOUND_FOR_STREAMING_SOURCE
Если вы никогда не удалили его, скорее всего, ваш запрос отстает. Удалите его контрольную точку, чтобы начать заново. Чтобы избежать повторения этого, вы можете обновить политику хранения вашей таблицы Delta.
DELTA_LOG_JSON_FILE_ACCESS_DENIED
Доступ запрещен при чтении файла журнала JSON Delta: <filePath> Убедитесь, что у вас есть разрешения на чтение для расположения таблицы Delta.
DELTA_MATERIALIZED_ROW_TRACKING_COLUMN_NAME_MISSING
Материализованное имя столбца <rowTrackingColumn> отсутствует для <tableName>.
DELTA_MAX_ARRAY_SIZE_EXCEEDED
Используйте ограничение меньше int.MaxValue — 8.
DELTA_MAX_COMMIT_RETRIES_EXCEEDED
Этот коммит завершился ошибкой, так как его пытались сделать <numAttempts> раз, но безуспешно.
Это может быть вызвано непрерывным фиксированием таблицы Delta многими параллельными процессами.
commits.
Фиксация, начатая в версии: <startVersion>
Сбой коммита в версии: <failVersion>
Количество действий, которые пытались совершить: <numActions>
Общее время, затраченное на выполнение этого коммита: <timeSpent> мс
DELTA_MAX_LIST_FILE_EXCEEDED
Список файлов должен содержать не более <maxFileListSize> записей, <numFiles>.
DELTA_MERGE_ADD_VOID_COLUMN
Невозможно добавить столбец <newColumn> с типом VOID. Явно укажите тип, отличный от void.
DELTA_MERGE_INCOMPATIBLE_DATATYPE
Не удалось объединить несовместимые типы данных <currentDataType> и <updateDataType>.
DELTA_MERGE_INCOMPATIBLE_DECIMAL_TYPE
Не удалось объединить десятичные типы с несовместимыми <decimalRanges>.
DELTA_MERGE_MATERIALIZE_SOURCE_FAILED_REPEATEDLY
Неоднократные попытки материализовать источник заявления MERGE завершились сбоем.
DELTA_MERGE_MISSING_WHEN
В операторе WHEN должно быть по крайней мере одно условие MERGE.
DELTA_MERGE_RESOLVED_ATTRIBUTE_MISSING_FROM_INPUT
Разрешенные атрибуты <missingAttributes> , отсутствующие в <input> операторе <merge>.
DELTA_MERGE_SOURCE_CACHED_DURING_EXECUTION
Операция MERGE завершилась ошибкой, так как (часть) исходного плана была кэширована во время MERGE выполнения операции.
DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY
Непредвиденный ключ присвоения: <unexpectedKeyClass> - <unexpectedKeyObject>.
DELTA_MERGE_UNRESOLVED_EXPRESSION
Не удается обработать <sqlExpr> в <clause>, учитывая заданные столбцы <cols>.
DELTA_METADATA_CHANGED
MetadataChangedException: метаданные таблицы Delta были изменены одновременным обновлением. Повторите операцию.<conflictingCommit>
Дополнительные сведения см. в <docLink>.
DELTA_MISSING_CHANGE_DATA
Ошибка при получении данных об изменении диапазона [<startVersion> , <endVersion>] при изменении данных не была
записано для версии [<version>]. Если вы активировали информационный канал изменений данных в данной таблице,
используйте DESCRIBE HISTORY, чтобы узнать, когда она была впервые включена.
В противном случае, чтобы начать запись измененных данных, используйте ALTER TABLE table_name SET TBLPROPERTIES
(<key>=true).
DELTA_MISSING_COLUMN
Не удается найти <columnName> в столбцах таблицы: <columnList>
DELTA_MISSING_COMMIT_INFO
В этой таблице включена функция <featureName>, для которой требуется наличие действия CommitInfo в каждом коммите. Однако действие CommitInfo отсутствует в версии коммита <version>.
DELTA_MISSING_COMMIT_TIMESTAMP
Эта таблица поддерживает функцию <featureName>, для которой требуется наличие commitTimestamp в действии CommitInfo. Однако это поле не задано в версии коммита <version>.
DELTA_MISSING_DELTA_TABLE
<tableName> не является таблицей Delta.
DELTA_MISSING_DELTA_TABLE_COPY_INTO
Таблица не существует. Сначала создайте пустую таблицу Delta с помощью CREATE TABLE <tableName>.
DELTA_MISSING_ICEBERG_CLASS
Класс Apache Iceberg не найден. Убедитесь, что поддержка Delta Apache Iceberg установлена.
Дополнительные сведения см. в <docLink>.
DELTA_MISSING_NOT_NULL_COLUMN_VALUE
Столбец <columnName>, имеющий ограничение NOT NULL, отсутствует из данных, записываемых в таблицу.
DELTA_MISSING_PARTITION_COLUMN
Столбец секционирования <columnName> не найден в схеме <columnList>.
DELTA_MISSING_PART_FILES
Не удалось найти все файлы частей версии контрольной точки: <version>
DELTA_MISSING_PROVIDER_FOR_CONVERT
CONVERT TO DELTA поддерживают только таблицы в формате Parquet. Перезаписайте целевой объект как parquet.
<path> Если это паркетный каталог.
DELTA_MISSING_ROW_TRACKING_FOR_CDC
Ошибка при получении данных об изменении для <tableName> отслеживания строк не включена. Чтобы включить отслеживание строк, используйте ALTER TABLE table_name SET TBLPROPERTIES (<key>=true).
DELTA_MISSING_SET_COLUMN
SET столбец <columnName> не найден среди указанных столбцов: <columnList>.
DELTA_MISSING_TRANSACTION_LOG
Обнаружен несовместимый формат.
Вы пытаетесь использовать <operation> <path> с помощью Delta, но это невозможно, так как отсутствует необходимое.
присутствует журнал транзакций. Проверьте вышестоящую задачу, чтобы убедиться, что она выполняется правильно.
используя формат("delta") и пытаясь выполнить операцию %1$s с базовым путем таблицы.
Дополнительные сведения о Delta см. в <docLink>
DELTA_MODE_NOT_SUPPORTED
Указанный режим "<mode>" не поддерживается. Поддерживаемые режимы: <supportedModes>
DELTA_MULTIPLE_CDC_BOUNDARY
Несколько <startingOrEnding> аргументов предоставлено для чтения CDC. Укажите либо <startingOrEnding>метку времени, либо <startingOrEnding>версию.
DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER
Команде переданы несколько конфигураций индексации с помощью фильтра Блума для столбца: <columnName>.
DELTA_MULTIPLE_SOURCE_ROW_MATCHING_TARGET_ROW_IN_MERGE
Не удается выполнить слияние в виде нескольких исходных строк, сопоставленных и пытаясь изменить один и тот же
Целевая строка в таблице Delta, возможно, конфликтующими способами. Семантика sql для слияния
При совпадении нескольких исходных строк в одной целевой строке результат может быть неоднозначным.
как неясно, какая исходная строка должна использоваться для обновления или удаления сопоставления
целевая строка. Вы можете предварительно обработать исходную таблицу, чтобы исключить возможность
несколько совпадений. Пожалуйста, обратитесь к
<usageReference>
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_COMMAND
Во время <command> обе согласованные конфигурации фиксаций (delta.coordinatedCommits.commitCoordinator-preview, delta.coordinatedCommits.commitCoordinatorConf-preview) должны быть заданы в команде, либо ни одна из них. Отсутствует: "<configuration>". Укажите эту конфигурацию в предложении TBLPROPERTIES или удалите другую конфигурацию, а затем повторите команду.
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_SESSION
Во время <command> должны быть заданы обе конфигурации координированных фиксаций ("coordinatedCommits.commitCoordinator-preview", "coordinatedCommits.commitCoordinatorConf-preview") в конфигурации SparkSession, или ни одна из них. Отсутствует: "<configuration>". Задайте эту конфигурацию в SparkSession или отмените настройку другой конфигурации, а затем повторите команду.
DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE
Следующие имена столбцов зарезервированы только для внутреннего использования таблицы с разбиением Delta: <names>.
DELTA_NESTED_FIELDS_NEED_RENAME
Входная схема содержит вложенные поля, которые прописываются по-разному, чем целевая таблица.
Их необходимо переименовать, чтобы избежать потери данных в этих полях при записи в систему Delta.
Fields:
<fields>.
Исходная схема:
<schema>
DELTA_NESTED_NOT_NULL_CONSTRAINT
Тип <nestType> поля <parent> содержит ограничение NOT NULL. Delta не поддерживает ограничения NOT NULL, вложенные в массивы или карты. Чтобы отключить эту ошибку и игнорировать указанные ограничения, задайте значение <configKey> = true.
Тип <nestType> синтаксического анализа:
<nestedPrettyJson>
DELTA_NESTED_SUBQUERY_NOT_SUPPORTED
Вложенный запрос не поддерживается в условии <operation>.
DELTA_NEW_CHECK_CONSTRAINT_VIOLATION
<numRows> строки в <tableName> нарушают новое CHECK ограничение (<checkConstraint>).
DELTA_NEW_NOT_NULL_VIOLATION
<numRows> строки в <tableName> нарушают новое NOT NULL ограничение на <colName>.
DELTA_NON_BOOLEAN_CHECK_CONSTRAINT
CHECK ограничение "<name>" (<expr>) должно быть логическим выражением.
DELTA_NON_DETERMINISTIC_EXPRESSION_IN_CHECK_CONSTRAINT
Найдено <expr> в ограничении CHECK . Ограничение CHECK не может использовать недетерминированное выражение.
DELTA_NON_DETERMINISTIC_EXPRESSION_IN_GENERATED_COLUMN
Найден <expr>. Созданный столбец не может использовать недетерминированное выражение.
DELTA_NON_DETERMINISTIC_FUNCTION_NOT_SUPPORTED
Недетерминированные функции не поддерживаются в <operation> <expression>.
DELTA_NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
Если в конструкции MATCHED есть несколько клаузов MERGE, только последняя клауз MATCHED может не иметь условия.
DELTA_NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
Если в конструкции NOT MATCHED BY SOURCE есть несколько клаузов MERGE, только последняя клауз NOT MATCHED BY SOURCE может не иметь условия.
DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION
Если в конструкции NOT MATCHED есть несколько клаузов MERGE, только последняя клауз NOT MATCHED может не иметь условия.
DELTA_NON_PARSABLE_TAG
Не удалось проанализировать тег <tag>.
Теги файлов: <tagList>.
DELTA_NON_PARTITION_COLUMN_ABSENT
Данные, записанные в Delta, должны содержать по крайней мере один неразделенный столбец.<details>
DELTA_NON_PARTITION_COLUMN_REFERENCE
Предикат ссылается на столбец, не относящийся к секционированию '<columnName>'. Ссылаться можно только на столбцы разделов: [<columnList>].
DELTA_NON_PARTITION_COLUMN_SPECIFIED
Не указаны несекционированные столбцы <columnList>, там где должны быть указаны только cтолбцы секционирования <fragment>.
DELTA_NON_SINGLE_PART_NAMESPACE_FOR_CATALOG
Для разностного каталога требуется однокомпонентное пространство имен, но <identifier> является многокомпонентным.
DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_COMMAND
Установка координатора фиксации на "<nonUcCoordinatorName>" из команды не поддерживается, так как таблицы, управляемые UC, могут иметь только 'unity-catalog' в качестве координатора фиксации. Пожалуйста, либо измените его на "unity-catalog", либо удалите все свойства таблицы "Координированные фиксации" из предложения TBLPROPERTIES, а затем снова попробуйте выполнить команду.
DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_SESSION
Установка координатора фиксации на "<nonUcCoordinatorName>" из конфигураций SparkSession не поддерживается, так как таблицы, управляемые UC, могут иметь в качестве координатора фиксации только 'unity-catalog'. Измените его на "каталог unity-catalog", запустив spark.conf.set("<coordinatorNameDefaultKey>", "unity-catalog")или удалите все свойства таблицы "Координированные фиксации" из конфигураций SparkSession, выполнив spark.conf.unset("<coordinatorNameDefaultKey>"), spark.conf.unset("<coordinatorConfDefaultKey>"), spark.conf.unset("<tableConfDefaultKey>")команду, а затем повторите команду.
DELTA_NON_UC_MANAGED_TABLE_UPGRADE_OR_DOWNGRADE_NOT_SUPPORTED
Таблица <tableName> не находится под управлением UC. Только управляемые UC таблицы можно обновить или уменьшить до таблиц, управляемых каталогом.
DELTA_NOT_A_DATABRICKS_DELTA_TABLE
<table> не является таблицей Delta. Сначала удалите эту таблицу, если вы хотите создать ее с помощью Databricks Delta.
DELTA_NOT_A_DELTA_TABLE
<tableName> не является таблицей Delta. Сначала удалите эту таблицу, если вы хотите повторно создать ее с помощью Delta Lake.
DELTA_NOT_NULL_COLUMN_NOT_FOUND_IN_STRUCT
Столбец, недопускающий значение NULL, не найден в структуре: <struct>.
DELTA_NOT_NULL_CONSTRAINT_VIOLATED
NOT NULL ограничение, нарушенное для столбца: <columnName>.
DELTA_NOT_NULL_NESTED_FIELD
Ненулевое вложенное поле нельзя добавить в родительский элемент, допускающий значение NULL. Задайте значение NULL родительского столбца соответствующим образом.
DELTA_NO_COMMITS_FOUND
Нет коммитов в <logPath>.
DELTA_NO_RECREATABLE_HISTORY_FOUND
Не найдены рекреируемые коммиты на <logPath>.
DELTA_NO_REDIRECT_RULES_VIOLATED
Операция не разрешена: <operation> нельзя выполнить в таблице с функцией перенаправления.
Правила отсутствия перенаправления не удовлетворены <noRedirectRules>.
DELTA_NO_RELATION_TABLE
Таблица <tableIdent> не найдена.
DELTA_NO_START_FOR_CDC_READ
Не предоставлены начальная версия или начальная метка времени для чтения CDC.
DELTA_NULL_SCHEMA_IN_STREAMING_WRITE
Delta не принимает NullTypes в схеме потоковой записи.
DELTA_ONEOF_IN_TIMETRAVEL
Укажите "timestampAsOf" или "versionAsOf" для путешествия по времени.
DELTA_ONLY_OPERATION
<operation> поддерживается только для таблиц Delta.
DELTA_OPERATION_MISSING_PATH
Укажите путь или идентификатор таблицы для <operation>.
DELTA_OPERATION_NOT_ALLOWED
Операция запрещена: <operation> не поддерживается для таблиц Delta.
DELTA_OPERATION_NOT_ALLOWED_DETAIL
Операция не допускается: <operation> не поддерживается для таблиц Delta: <tableName>
DELTA_OPERATION_NOT_SUPPORTED_FOR_COLUMN_WITH_COLLATION
<operation> не поддерживается для столбца <colName> с непо умолчанию сортировкой <collation>.
DELTA_OPERATION_NOT_SUPPORTED_FOR_DATATYPES
<operation>не поддерживается для типов данных: <dataTypeList>
DELTA_OPERATION_NOT_SUPPORTED_FOR_EXPRESSION_WITH_COLLATION
<operation> не поддерживается для выражений <exprText>, так как он использует параметры сортировки, отличные от по умолчанию.
DELTA_OPERATION_ON_TEMP_VIEW_WITH_GENERATED_COLS_NOT_SUPPORTED
команда <operation> во временном представлении, ссылающееся на таблицу Delta, содержащую генерируемые столбцы, не поддерживается. Выполните <operation> команду непосредственно в таблице Delta.
DELTA_OPERATION_ON_VIEW_NOT_ALLOWED
Операция не разрешена: <operation> невозможно выполнить в режиме просмотра.
DELTA_OPTIMIZE_FULL_NOT_SUPPORTED
OPTIMIZE FULL поддерживается только для кластеризованных таблиц с непустыми столбцами кластеризации.
DELTA_OVERWRITE_MUST_BE_TRUE
Невозможно указать параметр копирования overwriteSchema без параметра OVERWRITE = true.
DELTA_OVERWRITE_SCHEMA_WITH_DYNAMIC_PARTITION_OVERWRITE
Невозможно использовать overwriteSchema в динамическом режиме перезаписи секций.
DELTA_PARTITION_COLUMN_CAST_FAILED
Не удалось преобразовать значение <value> в <dataType> для столбца секционирования <columnName>.
DELTA_PARTITION_COLUMN_NOT_FOUND
Столбец секционирования <columnName> не найден в схеме [<schemaMap>].
DELTA_PARTITION_SCHEMA_IN_ICEBERG_TABLES
Невозможно указать схему секционирования при преобразовании таблиц Apache Iceberg. Это определяется автоматически.
DELTA_PATH_BASED_ACCESS_TO_CATALOG_MANAGED_TABLE_BLOCKED
Доступ на основе пути не разрешен для таблицы Catalog-Managed: <path> Перейдите к таблице с помощью его имени и повторите попытку.
DELTA_PATH_BASED_ACCESS_TO_TABLE_BLOCKED
Таблица <path> была перенесена в управляемую таблицу каталога Unity и больше не может быть доступна по пути. Обновите клиент, чтобы получить доступ к таблице по имени.
DELTA_PATH_DOES_NOT_EXIST
<path> не существует или не является таблицей Delta.
DELTA_PATH_EXISTS
Не удается записать в уже существующий путь <path> без параметра OVERWRITE = true.
DELTA_POST_COMMIT_HOOK_FAILED
Фиксация версии таблицы Delta <version> прошла успешно, но произошла ошибка при выполнении хука после фиксации <name> <message>.
DELTA_PROTOCOL_CHANGED
ProtocolChangedException: версия протокола таблицы Delta была изменена одновременным обновлением. <additionalInfo> <conflictingCommit>
Дополнительные сведения см. в <docLink>.
DELTA_PROTOCOL_PROPERTY_NOT_INT
Свойство протокола <key> должно быть целым числом. Найден <value>.
DELTA_READ_FEATURE_PROTOCOL_REQUIRES_WRITE
Не удается обновить только версию протокола чтения для использования функций таблицы. Версия протокола записи должна быть по крайней мере <writerVersion> для продолжения работы. Дополнительные сведения о версиях протокола таблицы см. в <docLink>.
DELTA_READ_TABLE_WITHOUT_COLUMNS
Вы пытаетесь прочитать таблицу Delta <tableName>, которая не содержит столбцов.
Напишите новые данные с помощью параметра mergeSchema = true, чтобы иметь возможность читать таблицу.
DELTA_READ_TIME_CDC_NOT_SUPPORTED_FOR_TABLES_WITH_ACCESS_POLICIES
Вы пытаетесь вычислить веб-канал изменений данных с <tableName> определенными политиками доступа. Веб-канал данных об изменении времени чтения в настоящее время находится в предварительной версии и не поддерживает CDF в таблицах с политиками доступа. Включите оптимизированный для чтения CDF, задав свойству таблицы значение<cdfTableProperty> true в таблице.
DELTA_REDIRECT_TARGET_ROW_FILTER_COLUMN_MASK_UNSUPPORTED
Перенаправление в таблицу с фильтром строк или маской столбцов не поддерживается. Обновите код, чтобы напрямую ссылаться на целевую таблицу <tableIdent> .
DELTA_REGEX_OPT_SYNTAX_ERROR
Перепроверьте синтаксис для '<regExpOption>'.
DELTA_RELATION_PATH_MISMATCH
Путь <relation> не соответствует пути <targetType>, который имеет путь <targetPath>.
DELTA_REORG_MATERIALIZATION_NOT_SUPPORTED_ON_UNPARTITIONED_TABLE
Преобразование liquid с помощью команды reorg не поддерживается в непартиментной таблице.
DELTA_REORG_PARTITION_MATERIALIZATION_CONFLICT
Не удается <action> секционирование столбцов.
<instruction>Материализация столбцов секционирования путем задания свойства таблицы "" значение <tableProperty> "<value>" или конфигурации SQL .<sqlConfig><value>
DELTA_REORG_UNKNOWN_MODE
Неизвестный REORG TABLE режим: <mode>.
DELTA_REPLACE_WHERE_IN_OVERWRITE
Вы не можете использовать replaceWhere в сочетании с перезаписью с использованием фильтра.
DELTA_REPLACE_WHERE_MISMATCH
Записанные данные не соответствуют условию или ограничению частичного перезаписи таблицы "<replaceWhere>".
<message>
DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE
Выражение "replaceWhere" и "partitionOverwriteMode"='dynamic" не может быть задано в параметрах DataFrameWriter.
DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET
Параметр "replaceWhere" не может использоваться с фильтрами данных, если параметр dataChange имеет значение false. Фильтры: <dataFilters>.
DELTA_ROW_ID_ASSIGNMENT_WITHOUT_STATS
Не удается назначить идентификаторы строк без статистики счетчика строк.
Соберите статистику для таблицы, выполнив ANALYZE TABLE команду:
ANALYZE TABLE tableName COMPUTE DELTA STATISTICS
DELTA_ROW_TRACKING_BACKFILL_RUNNING_CONCURRENTLY_WITH_UNBACKFILL
Обнаружена операция включения отслеживания строк, выполняющаяся одновременно с операцией отключения отслеживания строк. Прерывание операции отключения. При необходимости повторите операцию отключения при завершении операции включения.
DELTA_ROW_TRACKING_ILLEGAL_PROPERTY_COMBINATION
Обнаружено недопустимое состояние таблицы. Свойства <property1> таблицы и <property2> имеют значение true. Проблему можно устранить, отключив любое из двух свойств таблицы.
Обратитесь в службу поддержки Databricks, чтобы получить дополнительную помощь.
DELTA_SCHEMA_CHANGED
Обнаружено изменение схемы:
схема источника потоковой передачи: <readSchema>
Схема файла данных: <dataSchema>
Попробуйте перезапустить запрос. Если эта проблема повторяется при многократных перезапусках запроса без
достигнув прогресса, вы сделали несовместимое изменение схемы и теперь должны начать заново.
запрос с нуля с использованием нового каталога контрольных точек.
DELTA_SCHEMA_CHANGED_WITH_STARTING_OPTIONS
Обнаружено изменение схемы в версии <version>:
схема источника потоковой передачи: <readSchema>
Схема файла данных: <dataSchema>
Попробуйте перезапустить запрос. Если эта проблема повторяется при многократных перезапусках запроса без
достигнув прогресса, вы сделали несовместимое изменение схемы и теперь должны начать заново.
запрос с нуля с использованием нового каталога контрольных точек. Если проблема сохраняется после
При переходе к новому каталогу контрольной точки может возникнуть необходимость изменить существующий.
Параметр "startVersion" или "startTimestamp" для запуска с более новой версии
<version> с новым каталогом контрольных точек.
DELTA_SCHEMA_CHANGED_WITH_VERSION
Обнаружено изменение схемы в версии <version>:
схема источника потоковой передачи: <readSchema>
Схема файла данных: <dataSchema>
Попробуйте перезапустить запрос. Если эта проблема повторяется при многократных перезапусках запроса без
достигнув прогресса, вы сделали несовместимое изменение схемы и теперь должны начать заново.
запрос с нуля с использованием нового каталога контрольных точек.
DELTA_SCHEMA_CHANGE_SINCE_ANALYSIS
Схема таблицы Delta изменилась несовместимым образом с момента кадра данных.
или был создан объект DeltaTable. Переопределите объект DataFrame или DeltaTable.
Changes:
<schemaDiff> <legacyFlagMessage>
DELTA_SCHEMA_NOT_PROVIDED
Схема таблицы не указана. Укажите схему (определение столбца) таблицы при использовании REPLACE таблицы и AS SELECT запрос не указан.
DELTA_SCHEMA_NOT_SET
Схема таблицы не задана. Записать в нее данные или использовать CREATE TABLE для задания схемы.
DELTA_SET_LOCATION_SCHEMA_MISMATCH
Схема нового расположения Delta отличается от текущей схемы таблицы.
исходная схема:
<original>
схема назначения:
<destination>
Если это предполагаемое изменение, вы можете отключить эту проверку, выполнив следующие действия:
%%sql установить <config> = true
DELTA_SHALLOW_CLONE_FILE_NOT_FOUND
Не удается найти файл <filePath>, на который ссылается журнал транзакций. Это может произойти, если данные были вручную удалены из файловой системы, а не с помощью инструкции таблицы DELETE. Эта таблица, как представляется, является неглубоким клоном. В этом случае ошибка может возникнуть, если исходная таблица, из которой была сделана копия, удалила файл, который копия по-прежнему использует. Если вы хотите, чтобы любые клоны были независимыми от исходной таблицы, используйте вместо этого клон DEEP.
DELTA_SHARING_CANNOT_MODIFY_RESERVED_RECIPIENT_PROPERTY
Предварительно определенные свойства, начинающиеся с <prefix>, нельзя изменить.
DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
Данные ограничены свойством получателя <property>, которые не применяются к текущему получателю в сеансе.
Дополнительные сведения см. в DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
DELTA_SHARING_INVALID_OP_IN_EXTERNAL_SHARED_VIEW
<operation> нельзя использовать в представлениях Delta Shared, которые являются общими для разных учетных записей.
DELTA_SHARING_INVALID_PROVIDER_AUTH
Недопустимый тип аутентификации <authenticationType> для поставщика <provider>.
DELTA_SHARING_INVALID_RECIPIENT_AUTH
Незаконный тип аутентификации <authenticationType> для получателя <recipient>.
DELTA_SHARING_INVALID_SHARED_DATA_OBJECT_NAME
Недопустимое имя для ссылки на <type> внутри общей папки. Можно использовать имя <type> в общем доступе в формате [schema].[<type>], или также можно использовать исходное полное имя таблицы в формате [catalog].[schema].[>type>].
Если вы не уверены, какое имя следует использовать, можно запустить "SHOW ALL IN SHARE [общий ресурс]" и найти имя <type> для удаления: столбец "name" — это имя <type> внутри общего ресурса, а столбец "shared_object" — это исходное полное имя <type>.
RECIPIENT_TOKENSDELTA_SHARING_MAXIMUM__EXCEEDED
Для получателя <recipient>существует более двух токенов.
DELTA_SHARING_RECIPIENT_PROPERTY_NOT_FOUND
Свойство recipient <property> не существует.
RECIPIENT_TOKENSDELTA_PARTAЖ__НЕ_НАЙДЕН
Отсутствуют маркеры получателей для получателя <recipient>.
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_COLUMN
Указаны столбцы, не связанные с секционированием <badCols>, для SHOW PARTITIONS.
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE
SHOW PARTITIONSне допускается для таблицы, которая не секционирована: <tableName>
DELTA_SHREDDED_WRITES_DISABLED
Не удается выполнить REORG APPLY(SHRED) операцию, так как измельченные записи отключены.
DELTA_SHREDDING_TABLE_PROPERTY_DISABLED
Попытка написать измельченные варианты, но таблица не поддерживает измельченные записи. Рассмотрите возможность задания свойства таблицы enableVariantShredding значение true.
DELTA_SOURCE_IGNORE_DELETE
Обнаружены удаленные данные (например, <removedFile>) из источника потоковой передачи в версии <version>. В настоящее время это не поддерживается. Если вы хотите игнорировать удаления, задайте для параметра "ignoreDeletes" значение true. Исходная таблица находится по пути <dataPath>.
DELTA_SOURCE_TABLE_IGNORE_CHANGES
Обнаружено обновление данных (например, <file>) в исходной таблице в версии <version>. В настоящее время это не поддерживается. Если это происходит регулярно, и вы можете пропустить изменения, задайте для параметра skipChangeCommits значение true. Если вы хотите, чтобы обновление данных отображалось, перезапустите этот запрос с помощью нового каталога контрольных точек или выполните полное обновление, если вы используете Декларативные конвейеры Spark Lakeflow Spark. Если вам нужно обработать эти изменения, перейдите на MVs. Исходная таблица находится по пути <dataPath>.
DELTA_STARTING_VERSION_AND_TIMESTAMP_BOTH_SET
Пожалуйста, укажите "<version>" или "<timestamp>".
DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND
<statsType> статистика для столбца не найдена в метаданных Parquet: <columnPath>.
DELTA_STATS_NOT_FOUND_IN_FILE
Статистика не найдена в файле: <filePath> Выполните команду 'ANALYZE TABLE [tableName] COMPUTE DELTA STATISTICS, чтобы вычислить статистику.
DELTA_STREAMING_CANNOT_CONTINUE_PROCESSING_POST_SCHEMA_EVOLUTION
Мы обнаружили одно или несколько неаддитивных изменений схемы (<opType>) между версией Delta <previousSchemaChangeVersion> и <currentSchemaChangeVersion> в источнике потоковой передачи Delta.
Changes:
<columnChangeDetails>
Пожалуйста, проверьте, хотите ли вы вручную применить изменения схемы к таблице приемника, прежде чем мы продолжим потоковую обработку с использованием завершенной схемы версии <currentSchemaChangeVersion>.
Когда вы исправили схему таблицы-приемника или решили, что в исправлении нет необходимости, можно задать следующие конфигурации, чтобы разблокировать изменения схемы, не связанные с добавлением элементов, и продолжить обработку потока.
Использование параметров чтения DataFrame:
Чтобы разблокировать доступ к этому конкретному потоку данных только для этой серии изменений схемы:
<unblockChangeOptions>
Чтобы разблокировать этот конкретный поток, выполните указанные ниже действия.
<unblockStreamOptions>
Использование конфигураций SQL:
Чтобы разблокировать доступ к этому конкретному потоку данных только для этой серии изменений схемы:
<unblockChangeConfs>
Чтобы разблокировать этот конкретный поток, выполните указанные ниже действия.
<unblockStreamConfs>
Чтобы разблокировать все потоки, выполните приведенные далее действия.
<unblockAllConfs>
DELTA_STREAMING_CHECK_COLUMN_MAPPING_NO_SNAPSHOT
Не удалось получить снимок состояния журнала Delta для начальной версии при проверке изменений схемы сопоставления столбцов. Выберите другую начальную версию или на ваш собственный риск принудительно включите потоковое чтение, установив параметр '<config>' на 'true'.
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE
Потоковое чтение не поддерживается для таблиц с изменениями схемы, которые несовместимы с чтением (например, переименование, удаление или изменение типа данных).
Дополнительные сведения и возможные дальнейшие действия по устранению этой проблемы см. в документации по <docLink>
Схема чтения: <readSchema>. Несовместимая схема данных: <incompatibleSchema>.
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE_USE_SCHEMA_LOG
Потоковое чтение не поддерживается для таблиц с изменениями схемы, которые несовместимы с чтением (например, переименование, удаление или изменение типа данных).
Укажите "schemaTrackingLocation", чтобы включить эволюцию недитивной схемы для обработки потока Delta.
Дополнительные сведения см. в <docLink>.
Схема чтения: <readSchema>. Несовместимая схема данных: <incompatibleSchema>.
DELTA_STREAMING_METADATA_EVOLUTION
Схема, конфигурация таблицы или протокол таблицы Delta изменились во время потоковой передачи.
Обновлен журнал отслеживания схем или метаданных.
Перезапустите поток, чтобы продолжить обработку с помощью обновленных метаданных.
Обновленная схема: <schema>.
Обновленные конфигурации таблицы: <config>.
Обновленный протокол таблицы: <protocol>
DELTA_STREAMING_ЭВОЛЮЦИЯ_СХЕМА_НЕПОДДЕРЖИВАЕМЫЙ_ФИЛЬТР_СТРОК_COLUMN_MASKS
Передача данных из исходной таблицы <tableId> с отслеживанием схемы не поддерживает использование фильтров строк или масок столбцов.
Удалите фильтры строк или маски столбцов или отключите отслеживание схемы.
DELTA_STREAMING_SCHEMA_LOCATION_CONFLICT
Обнаружено конфликтующее расположение схемы "<loc>" во время потоковой передачи из таблицы или таблицы, расположенной по адресу '<table>'.
Другой поток может повторно использовать то же расположение схемы, которое запрещено.
Укажите новый уникальный путь schemaTrackingLocation или streamingSourceTrackingId в качестве параметра чтения для одного из потоков из этой таблицы.
DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT
Расположение схемы "<schemaTrackingLocation>" должно быть расположено под расположением контрольной точки "<checkpointLocation>".
DELTA_STREAMING_SCHEMA_LOG_DESERIALIZE_FAILED
Неполный файл журнала в схеме потокового источника Delta по адресу '<location>'.
Возможно, журнал схемы поврежден. Выберите новое расположение схемы.
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_DELTA_TABLE_ID
Обнаружен несовместимый идентификатор таблицы Delta при попытке прочитать поток Delta.
Идентификатор сохраняемой таблицы: <persistedId>, идентификатор таблицы: <tableId>
Возможно, журнал схемы был повторно использован. Выберите новое расположение схемы.
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_PARTITION_SCHEMA
Обнаружена несовместимая схема разделов при попытке считывания Delta-потока.
Сохраненная схема: <persistedSchema>, схема партиционирования Delta: <partitionSchema>
Выберите новое расположение схемы, чтобы повторно инициализировать журнал схем, если вы недавно изменили схему секционирования таблицы.
DELTA_STREAMING_SCHEMA_LOG_INIT_FAILED_INCOMPATIBLE_METADATA
Не удалось инициализировать журнал схемы источника потоковой передачи Delta, так как
мы обнаружили несовместимую схему или изменение протокола при обработке стриминг-пакета от версии таблицы <a> до <b>.
DELTA_STREAMING_SCHEMA_LOG_PARSE_SCHEMA_FAILED
Не удалось проанализировать схему из журнала схемы источника потоковой передачи Delta.
Возможно, журнал схемы поврежден. Выберите новое расположение схемы.
DELTA_STREAMING_SINK_TRANSACTION_NOT_FOUND
Транзакция для пакетной передачи <batchId> в приемнике Delta потоковой передачи в последних <versionLimit> версиях не найдена.
DELTA_STREAMING_SKIP_OFFSETS_INVALID_OFFSET_RANGE
Недопустимый диапазон смещения для диапазона источника Delta=[<startOffset>, <endOffset>). Исправьте этот диапазон смещения и повторите попытку.
Дополнительные сведения см. в DELTA_STREAMING_SKIP_OFFSETS_INVALID_OFFSET_RANGE
DELTA_TABLE_ALREADY_CONTAINS_CDC_COLUMNS
Не удалось включить запись измененных данных в таблице. Таблица уже содержит
зарезервированные столбцы <columnList>, которые будут
используется внутри как метаданные для потока изменений данных таблицы. Включить
Изменение потока данных при переименовании или удалении этих столбцов таблицы.
DELTA_TABLE_ALREADY_EXISTS
Таблица <tableName> уже существует.
DELTA_TABLE_CONTAINS_RESERVED_CDC_COLUMNS
Не удается вычислить канал данных изменений в таблице. Таблица содержит зарезервированные имена <columnList> столбцов, которые используются в качестве выходных столбцов для канала измененных данных таблицы. Чтобы вычислить веб-канал изменений данных в таблице переименовать или удалить эти столбцы.
DELTA_TABLE_FOR_PATH_UNSUPPORTED_HADOOP_CONF
В настоящее время DeltaTable.forPath поддерживает только ключи конфигурации hadoop, начинающиеся с <allowedPrefixes>, но обнаружен <unsupportedOptions>.
DELTA_TABLE_ID_MISMATCH
Таблица Delta в <tableLocation> была заменена, пока эта команда использовала таблицу.
Идентификатор таблицы был <oldId>, но теперь <newId>.
Повторите текущую команду, чтобы убедиться, что она считывает согласованное представление таблицы.
DELTA_TABLE_INVALID_REDIRECT_STATE_TRANSITION
Не удалось обновить состояние перенаправления таблицы: предпринята попытка недопустимого перехода состояния.
Разностная таблица "<table>" не может измениться с "<oldState>" на "<newState>".
DELTA_TABLE_INVALID_SET_UNSET_REDIRECT
Невозможно перенаправить SET или UNSET свойство на <table>: текущее свойство '<currentProperty>' не соответствует новому свойству '<newProperty>'.
DELTA_TABLE_LOCATION_MISMATCH
Расположение существующей таблицы <tableName> равно <existingTableLocation>. Он не соответствует указанному расположению <tableLocation>.
DELTA_TABLE_NOT_FOUND
Таблица Delta <tableName> не существует.
DELTA_TABLE_NOT_SUPPORTED_IN_OP
Таблица не поддерживается в <operation>. Вместо этого используйте путь.
DELTA_TABLE_ONLY_OPERATION
<tableName> не является таблицей Delta.
<operation> поддерживается только для таблиц Delta.
DELTA_TABLE_UNRECOGNIZED_REDIRECT_SPEC
Журнал Delta содержит нераспознанную спецификацию перенаправления таблицы '<spec>'.
DELTA_TARGET_TABLE_FINAL_SCHEMA_EMPTY
Конечная схема целевой таблицы пуста.
DELTA_TIMESTAMP_EARLIER_THAN_COMMIT_RETENTION
Указанная метка времени (<userTimestamp>) перед самой ранней версией, доступной для
эта таблица (<commitTs>). Используйте метку времени после <timestampString>.
DELTA_TIMESTAMP_GREATER_THAN_COMMIT
Указанная метка времени (<providedTimestamp>) расположена после самой последней доступной версии для этой системы.
таблица (<tableName>). Используйте метку времени перед или в <maximumTimestamp>.
DELTA_TIMESTAMP_INVALID
Указанная метка времени (<expr>) не может быть преобразована в допустимую метку времени.
DELTA_TIME_TRAVEL_INVALID_BEGIN_VALUE
<timeTravelKey> должно быть допустимым начальным значением.
DELTA_TOO_MUCH_LISTING_MEMORY
Не удалось перечислить файлы (<numFiles>) в таблице Delta из-за нехватки памяти. Требуемая память: <estimatedMemory>, доступная память: <maxMemory>
DELTA_TRUNCATED_TRANSACTION_LOG
<path>: не удалось восстановить состояние в версии<version>, так как журнал транзакций был усечен из-за ручного удаления или политики хранения журналов () и политики хранения контрольных точек (<logRetentionKey>=<logRetention><checkpointRetentionKey>=<checkpointRetention>).
DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED
Операция не разрешена: TRUNCATE TABLE в таблицах Delta не поддерживает предикаты секций; используйте DELETE для удаления определенных разделов или строк.
DELTA_UDF_IN_CHECK_CONSTRAINT
Найдено <expr> в ограничении CHECK . Ограничение CHECK не может использовать определяемую пользователем функцию.
DELTA_UDF_IN_GENERATED_COLUMN
Найден <udfExpr>. Созданный столбец не может использовать определяемую пользователем функцию.
DELTA_UNEXPECTED_ACTION_EXPRESSION
Неожиданное выражение действия <expression>.
DELTA_UNEXPECTED_NUM_PARTITION_COLUMNS_FROM_FILE_NAME
Ожидались <expectedColsSize> столбцы разделов: <expectedCols>, но обнаружены <parsedColsSize> столбцы разделов: <parsedCols> при анализе имени файла: <path>.
DELTA_UNEXPECTED_PARTIAL_SCAN
Ожидалось всеобъемлющее сканирование источников Delta, но выполнено частичное. Путь: <path>.
DELTA_UNEXPECTED_PARTITION_COLUMN_FROM_FILE_NAME
Ожидался столбец секционирования <expectedCol>, но был найден столбец секционирования <parsedCol> при разборе имени файла: <path>.
DELTA_UNEXPECTED_PARTITION_SCHEMA_FROM_USER
CONVERT TO DELTA был вызван с разделенной схемой, отличной от схемы из каталога, пожалуйста, избегайте предоставления схемы, чтобы схема могла быть выбрана из каталога.
Схема секционирования каталога:
<catalogPartitionSchema>
предоставленная схема раздела:
<userPartitionSchema>
DELTA_UNIFORM_COMPATIBILITY_LOCATION_CANNOT_BE_CHANGED
Изменить delta.universalFormat.compatibility.location нельзя.
DELTA_UNIFORM_COMPATIBILITY_LOCATION_NOT_REGISTERED
delta.universalFormat.compatibility.location не зарегистрирован в каталоге.
DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION
Отсутствует или недопустимое расположение для универсального формата совместимости. Задайте пустой каталог для delta.universalFormat.compatibility.location.
Причина неудачи:
Дополнительные сведения см. в разделе DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION
DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
Ошибка при чтении Apache Iceberg с использованием Delta Uniform.
См. дополнительные сведения в DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
DELTA_UNIFORM_INGRESS_AMBIGUOUS_FORMAT
Обнаружено несколько форматов входящих данных Delta Uniform (<formats>), можно установить не более одного.
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED
Создание или обновление таблицы единого входа не поддерживается.
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED_FORMAT
Формат <fileFormat> не поддерживается. Поддерживаются только Apache Iceberg и Hudi в качестве исходного формата файла.
DELTA_UNIFORM_INGRESS_VIOLATION
Сбой Delta Uniform:
Дополнительные сведения см. в DELTA_UNIFORM_INGRESS_VIOLATION
DELTA_UNIFORM_NOT_SUPPORTED
Универсальный формат поддерживается только в таблицах каталога Unity.
DELTA_UNIFORM_REFRESH_INVALID_ARGUMENT
REFRESH TABLE с недопустимым аргументом:
Дополнительные сведения см. в DELTA_UNIFORM_REFRESH_INVALID_ARGUMENT
DELTA_UNIFORM_REFRESH_NOT_SUPPORTED
REFRESH идентификатор SYNC UNIFORM не поддерживается по следующей причине:
Дополнительные сведения см. в DELTA_UNIFORM_REFRESH_NOT_SUPPORTED
DELTA_UNIFORM_REFRESH_NOT_SUPPORTED_FOR_MANAGED_ICEBERG_TABLE_WITH_METADATA_PATH
REFRESH TABLE с METADATA_PATH не поддерживается для управляемых таблиц Apache Iceberg.
DELTA_UNIVERSAL_FORMAT_CONVERSION_FAILED
Не удалось преобразовать версию таблицы <version> в универсальный формат <format>. <message>
DELTA_UNIVERSAL_FORMAT_VIOLATION
Проверка универсального формата (<format>) завершилась ошибкой. <violation>
DELTA_UNKNOWN_CONFIGURATION
Указана неизвестная конфигурация: <config>
Чтобы отключить эту проверку, задайте <disableCheckConfig>значение =true в конфигурации сеанса Spark.
DELTA_UNKNOWN_PRIVILEGE
Неизвестная привилегия: <privilege>.
DELTA_UNKNOWN_READ_LIMIT
Неизвестный предел чтения: <limit>.
DELTA_UNRECOGNIZED_COLUMN_CHANGE
Нераспознанное изменение столбца <otherClass>. Возможно, вы используете устаревшую версию Delta Lake.
DELTA_UNRECOGNIZED_INVARIANT
Неопознанный инвариант. Обновите версию Spark.
DELTA_UNRECOGNIZED_LOGFILE
Нераспознанный файл журнала <filename>.
DELTA_UNSET_NON_EXISTENT_PROPERTY
Предпринята попытка удалить несуществующее свойство '<property>' в таблице <tableName>.
DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE
<path> не поддерживает добавление файлов с абсолютным путем.
DELTA_UNSUPPORTED_ALTER_TABLE_CHANGE_COL_OP
ALTER TABLE CHANGE COLUMN не поддерживается для изменения столбца <fieldPath> с <oldField> на <newField>.
DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP
Неподдерживаемая операция ALTER TABLE REPLACE COLUMNS. Причина: <details>
Не удалось изменить схему из:
<oldSchema>
to:
<newSchema>
DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE
Вы попытались REPLACE существующую таблицу (<tableName>) с CLONE. Эта операция является
unsupported. Попробуйте использовать другой целевой объект для CLONE или удалите таблицу в текущем целевом объекте.
DELTA_UNSUPPORTED_CLUSTERING_COLUMN_PREDICATES
OPTIMIZE
...
FULL WHERE Команда для таблиц Liquid не поддерживает предоставленные предикаты:
Дополнительные сведения см. в DELTA_UNSUPPORTED_CLUSTERING_COLUMN_PREDICATES
DELTA_UNSUPPORTED_COLUMN_MAPPING_MODE_CHANGE
Изменение режима сопоставления столбцов с "<oldMode>" на "<newMode>" не поддерживается.
DELTA_UNSUPPORTED_COLUMN_MAPPING_OPERATIONS_ON_COLUMNS_WITH_BLOOM_FILTER_INDEX
Не удалось выполнить операцию сопоставления столбцов <opName> по столбцам <quotedColumnNames>
так как эти столбцы имеют индекс фильтра блума.
Если вы хотите выполнить сопоставление столбцов в столбце/столбцах
с индексами фильтра Блума
Сначала удалите индексы фильтра Блума:
DROP BLOOMFILTER INDEX ON TABLE tableName FOR COLUMNS(<columnNames>)
Если вы хотите удалить все индексы фильтра блум в таблице, используйте следующую команду:
имя таблицы DROP BLOOMFILTER INDEX ON TABLE
DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL
Текущая версия протокола таблицы не поддерживает изменение режимов сопоставления столбцов
с помощью <config>.
Требуемая версия протокола Delta для сопоставления столбцов:
<requiredVersion>
Текущая версия протокола Delta для вашей таблицы:
<currentVersion>
<advice>
DELTA_UNSUPPORTED_COLUMN_MAPPING_SCHEMA_CHANGE
Обнаружено изменение схемы:
старая схема:
<oldTableSchema>
новая схема:
<newTableSchema>
Изменения схемы не допускаются во время изменения режима сопоставления столбцов.
DELTA_UNSUPPORTED_COLUMN_MAPPING_WRITE
Запись данных в режиме сопоставления столбцов не поддерживается.
DELTA_UNSUPPORTED_COLUMN_TYPE_IN_BLOOM_FILTER
Создание индекса фильтра Блума для столбца с типом <dataType> не поддерживается: <columnName>
DELTA_UNSUPPORTED_COMMENT_MAP_ARRAY
Не удается добавить комментарий в <fieldPath>. Добавление комментария в элемент map key/value или array не поддерживается.
DELTA_UNSUPPORTED_DATA_TYPES
Найденные столбцы с использованием неподдерживаемых типов данных: <dataTypeList>. Чтобы отключить проверку типа, можно задать значение "<config>false". Отключение проверки типа может позволить пользователям создавать неподдерживаемые таблицы Delta и использовать их только при попытке чтения и записи устаревших таблиц.
DELTA_UNSUPPORTED_DATA_TYPE_IN_GENERATED_COLUMN
<dataType> не может быть результатом созданного столбца.
DELTA_UNSUPPORTED_DEEP_CLONE
Глубокое клонирование не поддерживается этой версией Delta.
DELTA_UNSUPPORTED_DESCRIBE_DETAIL_VIEW
<view> — это представление.
DESCRIBE DETAIL поддерживается только для таблиц.
DELTA_UNSUPPORTED_DROP_CLUSTERING_COLUMN
Удаление столбцов кластеризации (<columnList>) запрещено.
DELTA_UNSUPPORTED_DROP_COLUMN
DROP COLUMN не поддерживается для вашей таблицы Delta. <advice>
DELTA_UNSUPPORTED_DROP_NESTED_COLUMN_FROM_NON_STRUCT_TYPE
Может удалять только вложенные столбцы из StructType. Найден <struct>.
DELTA_UNSUPPORTED_DROP_PARTITION_COLUMN
Удаление столбцов разделов (<columnList>) запрещено.
DELTA_UNSUPPORTED_EXPRESSION
Неподдерживаемый тип выражения (<expType>) для <causedBy>. Поддерживаемыми типами являются [<supportedTypes>].
DELTA_UNSUPPORTED_EXPRESSION_CHECK_CONSTRAINT
Найдено <expression> в ограничении CHECK .
<expression> нельзя использовать в ограничении CHECK .
DELTA_UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
<expression> нельзя использовать в созданном столбце.
DELTA_UNSUPPORTED_FEATURES_FOR_READ
Неподдерживаемая функция чтения Delta: таблице "<tableNameOrPath>" требуются функции чтения таблицы, которые неподдерживаются этой версией Databricks: <unsupported>. Дополнительные сведения о совместимости функций Delta Lake см. в <link>.
DELTA_UNSUPPORTED_FEATURES_FOR_WRITE
Неподдерживаемая функция записи Delta: для таблицы "<tableNameOrPath>" требуется функция таблицы записи, неподдерживаемая этой версией Databricks: <unsupported> Дополнительные сведения о совместимости функций Delta Lake см. в <link>.
DELTA_UNSUPPORTED_FEATURES_IN_CONFIG
Функции таблицы, настроенные в следующих конфигурациях Spark или свойствах таблицы Delta, не распознаются этой версией Databricks: <configs>.
DELTA_UNSUPPORTED_FEATURE_STATUS
Ожидалось, что состояние функции таблицы <feature> будет "поддерживается", но получено "<status>".
DELTA_UNSUPPORTED_FIELD_UPDATE_NON_STRUCT
Обновление вложенных полей поддерживается только для StructType, но вы пытаетесь обновить поле <columnName>, которое имеет тип: <dataType>.
DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS
Команда FSCK REPAIR TABLEне поддерживается в версиях таблиц с отсутствующими файлами векторов удаления.
Обратитесь в службу поддержки.
DELTA_UNSUPPORTED_GENERATE_WITH_DELETION_VECTORS
Команда "GENERATE symlink_format_manifest" не поддерживается в версиях таблиц с векторами удаления.
Чтобы создать версию таблицы без векторов удаления, запуститеREORG TABLE таблицу APPLY (PURGE)'. Затем повторно запустите команду 'GENERATE' .
Убедитесь, что параллельные транзакции снова не добавляют векторы удаления между REORG и GENERATE.
Если вам нужно регулярно создавать манифесты или не удается предотвратить одновременные транзакции, рассмотрите возможность отключения векторов удаления в этой таблице с помощью таблицы 'ALTER TABLE table SET TBLPROPERTIES (delta.enableDeletionVectors = false)".
DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT
Инварианты в вложенных полях, отличных от StructTypes, не поддерживаются.
DELTA_UNSUPPORTED_IN_SUBQUERY
Подзапрос не поддерживается в условии <operation>.
DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX
listKeywithPrefix недоступен.
DELTA_UNSUPPORTED_MANIFEST_GENERATION_WITH_COLUMN_MAPPING
Создание манифеста не поддерживается для таблиц, использующих сопоставление столбцов, так как внешние читатели не могут читать эти Delta таблицы. Дополнительные сведения см. в документации по Delta.
DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC
MERGE INTO операции с эволюцией схемы в настоящее время не поддерживают запись выходных данных CDC.
DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE
Предикаты типа "In" с несколькими столбцами не поддерживаются в условии <operation>.
DELTA_UNSUPPORTED_NESTED_COLUMN_IN_BLOOM_FILTER
Создание индекса блум-фильтра в вложенном столбце в настоящее время не поддерживается: <columnName>
DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION
Вложенное поле не поддерживается в <operation> (поле = <fieldName>).
DELTA_UNSUPPORTED_NON_EMPTY_CLONE
Таблица назначения клона не пуста. Пожалуйста, TRUNCATE или DELETE FROM таблицу перед запуском CLONE.
DELTA_UNSUPPORTED_OUTPUT_MODE
Источник <dataSource> данных не поддерживает <mode> режим вывода.
DELTA_UNSUPPORTED_PARTITION_COLUMN_IN_BLOOM_FILTER
Создание индекса фильтра блума для столбца секционирования не поддерживается: <columnName>
DELTA_UNSUPPORTED_RENAME_COLUMN
Переименование столбца не поддерживается для таблицы Delta. <advice>
DELTA_UNSUPPORTED_SCHEMA_DURING_READ
Delta не поддерживает указание схемы во время чтения.
DELTA_UNSUPPORTED_SORT_ON_BUCKETED_TABLES
SORTED BY не поддерживается для таблиц, разбитых по сегментам Delta.
DELTA_UNSUPPORTED_SOURCE
<operation> пункт назначения поддерживает только источники Delta.
<plan>
DELTA_UNSUPPORTED_STATIC_PARTITIONS
Указание статических секций в спецификации секций в настоящее время не поддерживается во время вставки.
DELTA_UNSUPPORTED_STRATEGY_NAME
Неподдерживаемое имя стратегии: <strategy>
DELTA_UNSUPPORTED_SUBQUERY
В <operation> не поддерживаются вложенные запросы (условие = <cond>).
DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES
Вложенный запрос не поддерживается в предикатах секций.
DELTА_ПУТЕШЕСТВИЕ_ВО_ВРЕМЕНИ_НЕПОДДЕРЖИВАЕТСЯ_ПОЗЖЕ_СРОКА_ХРАНЕНИЯ_УДАЛЁННЫХ_ФАЙЛОВ
Невозможно выполнить путешествие во времени за пределы delta.deletedFileRetentionDuration (<deletedFileRetention> HOURS), установленного для таблицы.
DELTA_UNSUPPORTED_TIME_TRAVEL_MULTIPLE_FORMATS
Не удается указать перемещение по времени в нескольких форматах.
DELTA_UNSUPPORTED_TIME_TRAVEL_VIEWS
Невозможно применить возврат во времени к представлениям, вложенным запросам, потокам или запросам потоков изменения данных.
DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES
Усечение примеров таблиц не поддерживается.
DELTA_UNSUPPORTED_TYPE_CHANGE_IN_SCHEMA
Не удалось работать с этой таблицей, так как было применено неподдерживаемое изменение типа. Поле <fieldName> было изменено с <fromType> на <toType>.
DELTA_UNSUPPORTED_TYPE_CHANGE_ON_COLUMNS_WITH_BLOOM_FILTER_INDEX
Не удалось изменить тип данных столбцов <quotedColumnNames>
потому что эти столбцы имеют индексы фильтра Блума.
Если вы хотите изменить тип данных столбцов с индексами Фильтра Блума,
Сначала удалите индексы фильтра Блума:
DROP BLOOMFILTER INDEX ON TABLE имяТаблицы FOR COLUMNS(<columnNames>)
Если вы хотите удалить все индексы фильтра блум в таблице, используйте следующую команду:
имя таблицы DROP BLOOMFILTER INDEX ON TABLE
DELTA_UNSUPPORTED_VACUUM_SPECIFIC_PARTITION
Укажите базовый путь (<baseDeltaPath>) при вакуумизации Delta таблиц. В настоящее время очистка определенных секций не поддерживается.
DELTA_UNSUPPORTED_WRITES_STAGED_TABLE
Реализация таблицы не поддерживает записи: <tableName>
DELTA_UNSUPPORTED_WRITES_WITHOUT_COORDINATOR
Вы пытаетесь выполнить запись в таблицу, которая была зарегистрирована у координатора фиксации <coordinatorName>. Однако в текущей среде реализация этого координатора отсутствует, и записи без координаторов не разрешены.
DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES
Запись в примеры таблиц не поддерживается.
DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION
Не удается выполнить приведение <fromCatalog> к <toCatalog>. Все вложенные столбцы должны соответствовать.
DELTA_V2_CHECKPOINTS_REQUIRED_FOR_OPERATION
CHECKPOINT Операция требует включения контрольных точек версии 2 в таблице.
DELTA_VACUUM_COPY_INTO_STATE_FAILED
VACUUM в файлах данных выполнено успешно, но сборка мусора состояния для COPY INTO не удалась.
DELTA_VERSIONS_NOT_CONTIGUOUS
Версии (<versionList>) не являются смежными.
Разрыв в разностном журнале между версиями <startVersion> и <endVersion> обнаружен при попытке загрузить версию <versionToLoad>.
Более подробную информацию см. в DELTA_VERSIONS_NOT_CONTIGUOUS
DELTA_VERSION_INVALID
Указанная версия (<version>) не является допустимой.
DELTA_VERSION_NOT_FOUND
Не удается переместить разностную таблицу в версию <userVersion>. Доступные версии: [<earliest>, <latest>].
DELTA_VIOLATE_CONSTRAINT_WITH_VALUES
ограничение CHECK<constraintName> <expression> нарушено строкой со значениями:
<values>.
DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
Проверка свойств таблицы <table> нарушена:
Дополнительную информацию см. в DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
DELTA_WRITE_INTO_VIEW_NOT_SUPPORTED
<viewIdentifier> — это представление. Вы не можете записывать данные в представление.
DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST
Столбец Z-Ordering <columnName> не существует в схеме данных.
DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS
Z-Ordering на <cols> будет неэффективным, так как мы в данный момент не собираем статистику для этих столбцов. Дополнительные сведения о пропуске данных и z-упорядочивании см. в <link>. Вы можете отключить эту проверку, задав опцию
SET <zorderColStatKey> = ложь
DELTA_ZORDERING_ON_PARTITION_COLUMN
<colName> — это разделяющий столбец. Z-Порядок можно выполнять только для столбцов данных.
Delta Sharing (Дельта шаринг)
DELTA_SHARING_ACTIVATION_NONCE_DOES_NOT_EXIST
SQLSTATE: не присвоено
Не найдена активация. Используемая ссылка активации является недопустимой или истекла. Повторно создайте ссылку активации и повторите попытку.
DELTA_SHARING_CROSS_REGION_SHARE_UNSUPPORTED
SQLSTATE: не присвоено
Совместное использование между <regionHint> регионами и регионами за ее пределами не поддерживается.
DELTA_SHARING_GET_RECIPIENT_PROPERTIES_INVALID_DEPENDENT
SQLSTATE: не присвоено
Представление, определенное функцией current_recipient, предназначено только для общего доступа и может запрашиваться только с стороны получателя данных. Предоставленный защищаемый объект с идентификатором <securableId> не является Delta Sharing View.
DELTA_SHARING_MUTABLE_SECURABLE_KIND_NOT_SUPPORTED
SQLSTATE: не присвоено
Предоставленный защищаемый вид <securableKind> не поддерживает мутируемость в Delta Sharing.
DELTA_SHARING_ROTATE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE
SQLSTATE: не присвоено
Предоставляемый защищаемый тип <securableKind> не поддерживает действие вращения токена, инициированное службой Marketplace.
DS_AUTH_TYPE_NOT_AVAILABLE
SQLSTATE: не присвоено
<dsError>: тип проверки подлинности, недоступный в сущности поставщика <providerEntity>.
DS_CDF_NOT_ENABLED
SQLSTATE: не присвоено
<dsError>: не удается получить доступ к каналу передачи изменений данных для <tableName>. CDF не включена в исходной разностной таблице для версии <version>. Обратитесь к поставщику данных.
DS_CDF_NOT_SHARED
SQLSTATE: не присвоено
<dsError>: не удается получить доступ к каналу передачи изменений данных для <tableName>. CDF не представлен в таблице. Обратитесь к поставщику данных.
DS_CDF_RPC_INVALID_PARAMETER
SQLSTATE: не присвоено
<dsError>: <message>
DS_CLIENT_AUTH_ERROR_FOR_DB_DS_SERVER
SQLSTATE: не присвоено
<dsError>: <message>
DS_CLIENT_ERROR_FOR_DB_DS_SERVER
SQLSTATE: не присвоено
<dsError>: <message>
DS_CLIENT_OAUTH_TOKEN_EXCHANGE_FAILURE
SQLSTATE: не присвоено
<dsError>: <message>
DS_CLIENT_OAUTH_TOKEN_EXCHANGE_UNAUTHORIZED
SQLSTATE: не присвоено
<dsError>: <message>
DS_CLOUD_VENDOR_UNAVAILABLE
SQLSTATE: не присвоено
<dsError>: поставщик облачных служб временно недоступен для <rpcName>, повторите попытку.<traceId>
DS_DATA_MATERIALIZATION_COMMAND_FAILED
SQLSTATE: не присвоено
<dsError>: задача материализации данных <runId> из организации <orgId> завершилась ошибкой при выполнении команды <command>
DS_DATA_MATERIALIZATION_COMMAND_NOT_SUPPORTED
SQLSTATE: не присвоено
<dsError>: выполнение задачи материализации данных <runId> организацией <orgId> не поддерживает команду <command>
DS_DATA_MATERIALIZATION_NOT_SUPPORTED_WITHOUT_SERVERLESS
SQLSTATE: не присвоено
<dsError>: <featureName> не поддерживается, поскольку серверлесс не поддерживается или не включен в рабочей области поставщика. Обратитесь к поставщику данных, чтобы включить бессерверный режим.
DS_DATA_MATERIALIZATION_NO_VALID_NAMESPACE
SQLSTATE: не присвоено
<dsError>: не удалось найти допустимое пространство имен для создания материализации для <tableName>. Чтобы устранить эту проблему, обратитесь к поставщику данных.
DS_DATA_MATERIALIZATION_RECIPIENT_MISSING_WORKSPACE_ID
SQLSTATE: не присвоено
<dsError>: не найдена подходящая рабочая область для материализации общего ресурса. Обратитесь к поставщику данных, чтобы повторно создать получателя в рабочей области, где разрешен доступ на запись к каталогу общего ресурса.
DS_DATA_MATERIALIZATION_RUN_DOES_NOT_EXIST
SQLSTATE: не присвоено
<dsError>: Задача материализации данных <runId> от организации <orgId> не существует.
DS_DELTA_ILLEGAL_STATE
SQLSTATE: не присвоено
<dsError>: <message>
DS_DELTA_MISSING_CHECKPOINT_FILES
SQLSTATE: не присвоено
<dsError>: не удалось найти все файлы частей контрольной точки в версии: <version> <suggestion>
DS_DELTA_NULL_POINTER
SQLSTATE: не присвоено
<dsError>: <message>
DS_DELTA_RUNTIME_EXCEPTION
SQLSTATE: не присвоено
<dsError>: <message>
DS_EXPIRE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE
SQLSTATE: не присвоено
<dsError>: предоставленный защищаемый тип <securableKind> не поддерживает действие по истечению срока действия токена, инициированное службой Marketplace.
DS_FAILED_REQUEST_TO_OPEN_DS_SERVER
SQLSTATE: не присвоено
<dsError>: <message>
DS_FAILED_REQUEST_TO_SAP_DS_SERVER
SQLSTATE: не присвоено
<dsError>: <message>
DS_FEATURE_ONLY_FOR_DATABRICKS_TO_DATABRICKS
SQLSTATE: не присвоено
<dsError>: <feature> включен только для обмена между Databricks и Databricks Delta.
DS_FILE_LISTING_EXCEPTION
SQLSTATE: не присвоено
<dsError>: : <storage><message>
DS_FILE_SIGNING_EXCEPTION
SQLSTATE: не присвоено
<dsError>: <message>
DS_FOREIGN_TABLE_METADATA_REFRESH_FAILED
SQLSTATE: не присвоено
<dsError>: <message>
DS_GATEKEEPER_DISABLED
SQLSTATE: не присвоено
<dsError>: эта функция отключена для учетной записи. Обратитесь к поставщику данных.
DS_HADOOP_CONFIG_NOT_SET
SQLSTATE: не присвоено
<dsError>: <key> не задан вызывающим абонентом.
DS_ILLEGAL_STATE
SQLSTATE: не присвоено
<dsError>: <message>
DS_INTERNAL_ERROR_FROM_DB_DS_SERVER
SQLSTATE: не присвоено
<dsError>: <message>
DS_INVALID_AZURE_PATH
SQLSTATE: не присвоено
<dsError>: недопустимый путь к Azure: <path>.
DS_INVALID_DELTA_ACTION_OPERATION
SQLSTATE: не присвоено
<dsError>: <message>
DS_INVALID_FIELD
SQLSTATE: не присвоено
<dsError>: <message>
DS_INVALID_ITERATOR_OPERATION
SQLSTATE: не присвоено
<dsError>: <message>
DS_INVALID_PARAMETER_VALUE
SQLSTATE: не присвоено
<dsError>: недопустимый параметр для <rpcName> из-за <cause>.
DS_INVALID_PARTITION_SPEC
SQLSTATE: не присвоено
<dsError>: <message>
DS_INVALID_RESPONSE_FROM_DS_SERVER
SQLSTATE: не присвоено
<dsError>: <message>
DS_MATERIALIZATION_QUERY_FAILED
SQLSTATE: не присвоено
<dsError>: сбой запроса для <schema>.
<table> из общей папки <share>.
DS_MATERIALIZATION_QUERY_TIMEDOUT
SQLSTATE: не присвоено
<dsError>: время ожидания запроса истекло для <schema>.
<table> от доли <share> через <timeoutInSec> секунд.
DS_МИГРИРОВАННЫЙ_API_УПРАВЛЕНИЯ_ВЫЗВАН (DS_MIGRATED_MANAGEMENT_API_CALLED)
SQLSTATE: не присвоено
<dsError>: Сбой UC RPC <rpcName>.
DS_MISSING_IDEMPOTENCY_KEY
SQLSTATE: не присвоено
<dsError>: ключ идемпотентности требуется для <schema>запроса.
<table> из Share <share> асинхронно.
DS_MISSING_SERVERLESS_BUDGET_POLICY
SQLSTATE: не присвоено
<dsError>: операция использует бессерверные технологии на платформе Databricks поставщика, но отсутствует политика бюджета для бессерверных решений. Обратитесь к поставщику данных, чтобы добавить бессерверную политику бюджета для общего доступа.
DS_MORE_THAN_ONE_RPC_PARAMETER_SET
SQLSTATE: не присвоено
<dsError>: укажите только одно из следующих: <parameters>.
DS_NETWORK_CONNECTION_CLOSED
SQLSTATE: не присвоено
<dsError>: соединение с сетью прервано для <rpcName> из-за <errorCause>, пожалуйста, попробуйте снова.<traceId>
DS_NETWORK_CONNECTION_TIMEOUT
SQLSTATE: не присвоено
<dsError>: время ожидания подключения к сети для <rpcName> истекло из-за <errorCause>, повторите попытку.<traceId>
DS_NETWORK_ERROR
SQLSTATE: не присвоено
<dsError>: ошибка сети для <rpcName> из-за <errorCause>, пожалуйста, повторите попытку.<traceId>
DS_NO_METASTORE_ASSIGNED
SQLSTATE: не присвоено
<dsError>: для текущей рабочей области не назначено хранилище метаданных (workspaceId: <workspaceId>).
DS_O2D_OIDC_WORKLOAD_IDENTITY_TOKEN_GENERATION_FAILED
SQLSTATE: не присвоено
<dsError>: Не удалось создать токен идентификации рабочей нагрузки для поставщика O2D OIDC: <message>.
DS_PAGINATION_AND_QUERY_ARGS_MISMATCH
SQLSTATE: не присвоено
<dsError>: несоответствие аргументов страниц или запросов.
DS_PARTITION_COLUMNS_RENAMED
SQLSTATE: не присвоено
<dsError>: столбец секционирования [<renamedColumns>] переименован на общей таблице. Чтобы устранить эту проблему, обратитесь к поставщику данных.
DS_QUERY_BEFORE_START_VERSION
SQLSTATE: не присвоено
<dsError>. Данные таблицы можно запрашивать только с <startVersion>версии.
DS_QUERY_END_VERSION_AFTER_LATEST_VERSION
SQLSTATE: не присвоено
<dsError>: предоставленная конечная версия(<endVersion>) для чтения данных недействительна. Конечная версия не может быть больше последней версии таблицы(<latestVersion>).
DS_QUERY_START_VERSION_AFTER_LATEST_VERSION
SQLSTATE: не присвоено
<dsError>: указанная начальная версия(<startVersion>) для чтения данных является недопустимой. Начальная версия не может быть больше последней версии таблицы(<latestVersion>).
DS_QUERY_TIMEOUT_ON_SERVER
SQLSTATE: не присвоено
<dsError>: тайм-аут произошел при обработке <queryType> на <tableName> после <numActions> обновлений в течение <numIter> итераций.<progressUpdate> <suggestion> <traceId>
DS_RATE_LIMIT_ON_DS_SERVER
SQLSTATE: не присвоено
<dsError>: <message>
DS_RECIPIENT_RPC_INVALID_PARAMETER
SQLSTATE: не присвоено
<dsError>: <message>
DS_RECON_FAILED_ON_UC_WRITE_RPC
SQLSTATE: не присвоено
<dsError>: сбой UC RPC <rpcName>, преобразование в INTERNAL_ERROR.
DS_RESOURCE_ALREADY_EXIST_ON_DS_SERVER
SQLSTATE: не присвоено
<dsError>: <message>
DS_RESOURCE_EXHAUSTED
SQLSTATE: не присвоено
<dsError>: превышено ограничение <resource>: [<limitSize>]<suggestion>.<traceId>
DS_RESOURCE_NOT_FOUND_ON_DS_SERVER
SQLSTATE: не присвоено
<dsError>: <message>
Неподдерживаемая версия DS_SAP_UNSUPPORTED_DBR_VERSION
SQLSTATE: не присвоено
<dsError>: SAP-коннектор Delta Sharing не поддерживается в DBR <dbrVersion>. Минимальные поддерживаемые версии: <supportedVersions>
DS_SCHEMA_NAME_CONFLICT_FOUND
SQLSTATE: не присвоено
<dsError>: каталог <catalogName> уже содержит имена схем, найденные в общей папке <shareName>.
<description>конфликтующих имен схем: <schemaNamesInCommon>
DS_SERVER_TIMEOUT
SQLSTATE: не присвоено
<dsError>: истекло время ожидания <rpcName> сервера из-за <errorCause>, повторите попытку.<traceId>
DS_SERVICE_DENIED
SQLSTATE: не присвоено
<dsError>: запрос был отклонен, так как служба находится под слишком большой нагрузкой. Повторите попытку позже через некоторое время.
DS_SHARE_ALREADY_MOUNTED_TO_CATALOG
SQLSTATE: не присвоено
<dsError>: ресурс <shareName> от поставщика <providerName> уже подключен к каталогу <catalogName>.
DS_SYSTEM_WORKSPACE_GROUP_PERMISSION_UNSUPPORTED
SQLSTATE: не присвоено
Не удается предоставить права на <securableType> системной созданной группе <principal>.
DS_TABLE_METADATA_TEMPORARILY_UNAVAILABLE
SQLSTATE: не присвоено
<dsError>: метаданные таблицы недоступны. Повторите попытку через несколько минут.
DS_TIME_TRAVEL_NOT_PERMITTED
SQLSTATE: не присвоено
<dsError>. Запрос на перемещение во времени не разрешается, если история не передана на <tableName>. Обратитесь к поставщику данных.
DS_UNAUTHORIZED
SQLSTATE: не присвоено
<dsError>: неавторизованный.
DS_UNAUTHORIZED_D2O_OIDC_RECIPIENT
SQLSTATE: не присвоено
<dsError>: Неавторизованный получатель OIDC D2O: <message>.
DS_UNKNOWN_EXCEPTION
SQLSTATE: не присвоено
<dsError>: <traceId>
DS_UNKNOWN_QUERY_ID
SQLSTATE: не присвоено
<dsError>: неизвестный идентификатор запроса <queryID> для <schema>.
<table> из общей папки <share>.
DS_UNKNOWN_QUERY_STATUS
SQLSTATE: не присвоено
<dsError>: неизвестное состояние запроса для идентификатора запроса <queryID> для <schema>.
<table> из общей папки <share>.
DS_UNKNOWN_RPC
SQLSTATE: не присвоено
<dsError>: rpc неизвестен <rpcName>.
DS_UNSUPPORTED_DELTA_READER_VERSION
SQLSTATE: не присвоено
<dsError>: версия средства чтения протоколов Delta <tableReaderVersion> выше, чем <supportedReaderVersion>, и не может поддерживаться на сервере разностного обмена.
DS_UNSUPPORTED_DELTA_TABLE_FEATURES
SQLSTATE: не присвоено
<dsError>: функции таблиц <tableFeatures> находятся в таблице<versionStr> <historySharingStatusStr> <optionStr>
DS_UNSUPPORTED_OPERATION
SQLSTATE: не присвоено
<dsError>: <message>
DS_UNSUPPORTED_STORAGE_SCHEME
SQLSTATE: не присвоено
<dsError>: неподдерживаемая схема хранения: <scheme>.
DS_UNSUPPORTED_TABLE_TYPE
SQLSTATE: не присвоено
<dsError>: не удалось получить <schema>.
<table> от Share <share>, так как таблица типа [<tableType>] в настоящее время не поддерживается в запросах <queryType>.
DS_UNSUPPORTED_TABLE_TYPE_IN_MST
SQLSTATE: не присвоено
<dsError>: тип таблицы запроса [<tableType>] не поддерживается в запросе многофакторной транзакции (MST).
DS_USER_CONTEXT_ERROR
SQLSTATE: не присвоено
<dsError>: <message>
DS_VIEW_SHARING_FUNCTIONS_NOT_ALLOWED
SQLSTATE: не присвоено
<dsError>: следующие функции: <functions> запрещены в запросе на совместное использование представления.
DS_WORKSPACE_DOMAIN_NOT_SET
SQLSTATE: не присвоено
<dsError>: домен рабочей области <workspaceId> не задан.
DS_WORKSPACE_NOT_FOUND
SQLSTATE: не присвоено
<dsError>: <workspaceId> рабочая область не найдена.
Autoloader
CF_ADD_NEW_NOT_SUPPORTED
Режим эволюции схемы <addNewColumnsMode> не поддерживается при указании схемы. Чтобы использовать этот режим, можно указать схему с помощью cloudFiles.schemaHints вместо этого.
CF_AMBIGUOUS_AUTH_OPTIONS_ERROR
Обнаружены параметры аутентификации для настройки уведомлений в каталоге (по умолчанию)
режим перечисления:
<options>
Если вы хотите использовать режим уведомлений о файлах, задайте явно:
.option("cloudFiles.<useNotificationsKey>", "true")
Кроме того, если вы хотите пропустить проверку параметров и их игнорировать
Параметры проверки подлинности можно задать:
.option("cloudFiles.ValidateOptionsKey>", "false")
CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR
Режим инкрементального перечисления (cloudFiles.<useIncrementalListingKey>)
и уведомление о файлах (cloudFiles.<useNotificationsKey>)
были включены одновременно.
Убедитесь, что выбрано только одно.
CF_AZURE_AUTHENTICATION_MISSING_OPTIONS
Укажите учетные данные службы Databricks или идентификатор клиента и clientSecret для проверки подлинности с помощью Azure.
CF_AZURE_AUTHENTICATION_MULTIPLE_OPTIONS
При предоставлении учетных данных службы Databricks не следует предоставлять другие параметры учетных данных (например, clientId, clientSecret или connectionString).
CF_AZURE_STORAGE_SUFFIXES_REQUIRED
Для Azure требуется adlsBlobSuffix и adlsDfsSuffix
CF_BUCKET_MISMATCH
<storeType> в событии файла <fileEvent> отличается от того, что ожидается источником: <source>.
CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY
Невозможно развивать схему, если журнал схемы пуст. Расположение журнала схемы: <logPath>
CF_CANNOT_PARSE_QUEUE_MESSAGE
Не удается проанализировать следующее сообщение очереди: <message>
CF_CANNOT_RESOLVE_CONTAINER_NAME
Не удается разрешить имя контейнера из пути: <path>, полученный URI: <uri>
CF_CANNOT_RUN_DIRECTORY_LISTING
Невозможно выполнять просмотр содержимого каталога при наличии запущенного асинхронного потока обратной заполнения.
CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON
Не удается включить cloudFiles.cleanSource и cloudFiles.allowOverwrites одновременно.
CF_CLEAN_SOURCE_CANNOT_MOVE_FILES_INSIDE_SOURCE_PATH
Перемещение файлов в каталог, расположенный по пути, из которого производится импорт, не поддерживается.
CF_CLEAN_SOURCE_NOT_ENABLED
CleanSource не включен для этой рабочей области. Обратитесь в службу поддержки Databricks.
CF_CLEAN_SOURCE_NOT_SUPPORTED
CleanSource не поддерживается для <op>.
CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION
Автозагрузчик не может архивировать обработанные файлы, так как у него нет прав на запись в исходный каталог или папку перемещения.
Дополнительные сведения см. в CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION
CF_DUPLICATE_COLUMN_IN_DATA
При попытке определить схему секции таблицы произошла ошибка. Один и тот же столбец повторяется в ваших данных и в путях разделения. Чтобы игнорировать значение секции, укажите столбцы секции явным образом с помощью : .option("cloudFiles.<partitionColumnsKey>", "{запятая-разделенный список}")
CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE
Не удается определить схему, если входной путь <path> пуст. Попробуйте запустить поток при наличии файлов во входном пути или укажите схему.
CF_EVENT_GRID_AUTH_ERROR
Не удалось создать подписку на Event Grid. Убедитесь, что ваша служба работает корректно.
Субъект имеет <permissionType> подписки сетки событий. Дополнительные сведения см. в следующем разделе:
<docLink>
CF_EVENT_GRID_CREATION_FAILED
Не удалось создать подписку на грид событий. Пожалуйста, убедитесь, что Microsoft.EventGrid...
зарегистрирован в качестве поставщика ресурсов в вашей подписке. Дополнительные сведения см. в следующем разделе:
<docLink>
CF_EVENT_GRID_NOT_FOUND_ERROR
Не удалось создать подписку на Event Grid. Убедитесь, что ваше хранилище находится в порядке
учетная запись (<storageAccount>) находится в вашей группе ресурсов (<resourceGroup>) и
учетная запись хранения — это учетная запись StorageV2 (общего назначения версии 2). Дополнительные сведения см. в следующем разделе:
<docLink>
CF_EVENT_NOTIFICATION_NOT_SUPPORTED
Режим уведомлений о событиях автозагрузчика не поддерживается для <cloudStore>.
CF_EVENT_NOTIFICATION_SETUP_FAILED
Не удалось настроить ресурсы уведомлений о файлах для автозагрузчика.
Дополнительные сведения см. в CF_EVENT_NOTIFICATION_SETUP_FAILED
CF_FAILED_TO_CHECK_STREAM_NEW
Не удалось проверить, является ли поток новым
CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION
Не удалось создать подписку: <subscriptionName>. Подписка с тем же именем уже существует и связана с другой темой: <otherTopicName>. Желаемая тема — <proposedTopicName>. Удалите существующую подписку или создайте подписку с новым суффиксом ресурса.
CF_FAILED_TO_CREATED_PUBSUB_TOPIC
Не удалось создать раздел: <topicName>. Раздел с тем же именем уже существует.
<reason> Удалить существующий раздел или повторите попытку с другим суффиксом ресурса
CF_FAILED_TO_DELETE_GCP_NOTIFICATION
Не удалось удалить уведомление с идентификатором <notificationId> в контейнере <bucketName> для раздела <topicName>. Повторите попытку или вручную удалите уведомление через консоль GCP.
CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA
Не удалось десериализировать сохраненную схему из строки: '<jsonSchema>'
CF_FAILED_TO_EVOLVE_SCHEMA
Невозможно развивать схему без журнала схемы.
CF_FAILED_TO_FIND_PROVIDER
Не удалось найти поставщика для <fileFormatInput>
CF_FAILED_TO_INFER_SCHEMA
Не удалось вывести схему для форматирования <fileFormatInput> из существующих файлов в пути ввода <path>.
Дополнительные сведения см. в CF_FAILED_TO_INFER_SCHEMA
CF_FAILED_TO_WRITE_TO_SCHEMA_LOG
Не удалось записать в журнал схемы в расположении <path>.
CF_FILE_FORMAT_REQUIRED
Не удалось найти обязательный параметр: cloudFiles.format.
CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS
Найдено несколько подписок (<num>) с префиксом «Auto Loader» для темы <topicName>:
<subscriptionList>
Для каждой темы должна быть только одна подписка. Пожалуйста, вручную убедитесь, что ваша тема не имеет нескольких подписок.
CF_GCP_AUTHENTICATION
Укажите все из следующих элементов: <clientEmail>, <client>
<privateKey>и <privateKeyId> или предоставьте <serviceCredential> для использования учетных данных сервиса Databricks.
Или не указывайте ни один из них, чтобы использовать цепочку поставщиков учетных данных GCP по умолчанию для аутентификации с ресурсами GCP.
CF_GCP_LABELS_COUNT_EXCEEDED
Получено слишком много меток (<num>) для ресурса GCP. Максимальное число меток для каждого ресурса — <maxNum>.
CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED
Получено слишком много тегов ресурсов (<num>) для ресурса GCP. Максимальное количество тегов ресурсов на ресурс составляет <maxNum>, так как теги ресурсов хранятся в виде меток GCP на ресурсах, а определенные теги Databricks используют некоторые из этой квоты меток.
CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG
Неполный файл в журнале схемы по пути <path>
CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT
Неполный файл метаданных в контрольной точке автозагрузчика
CF_INCORRECT_BATCH_USAGE
CloudFiles — это источник потоковой передачи. Используйте spark.readStream вместо spark.read. Чтобы отключить эту проверку, установите для параметра <cloudFilesFormatValidationEnabled> значение false.
CF_INCORRECT_SQL_PARAMS
Метод cloud_files принимает два обязательных строковых параметра: путь к загрузке и формат файла. Параметры чтения файлов должны быть предоставлены в схеме со строковым ключом-значением. Например, cloud_files("path", "json", map("option1", "value1")). Получено: <params>
CF_INCORRECT_STREAM_USAGE
Чтобы использовать CloudFiles в качестве источника потоковой передачи, укажите формат файла с параметром cloudFiles.format и используйте load() для создания кадра данных. Чтобы отключить эту проверку, установите для параметра <cloudFilesFormatValidationEnabled> значение false.
CF_INTERNAL_ERROR
Автозагрузчик столкнулся с внутренней ошибкой. Обратитесь в службу поддержки Databricks.
Дополнительные сведения см. в CF_INTERNAL_ERROR
CF_INVALID_ARN
Недопустимый ARN: <arn>
CF_INVALID_AZURE_CERTIFICATE
Закрытый ключ, предоставленный параметром cloudFiles.certificate, не может быть проанализирован. Укажите допустимый открытый ключ в формате PEM.
CF_INVALID_AZURE_CERT_PRIVATE_KEY
Закрытый ключ, предоставленный параметром cloudFiles.certificatePrivateKey, не может быть проанализирован. Укажите допустимый закрытый ключ в формате PEM.
CF_INVALID_CHECKPOINT
Эта контрольная точка не является допустимым источником CloudFiles
CF_INVALID_CLEAN_SOURCE_MODE
Недопустимый режим для параметра чистого источника <value>.
CF_INVALID_GCP_RESOURCE_TAG_KEY
Неверный ключ тега ресурса для ресурса GCP: <key>. Ключи должны начинаться со строчной буквы, находиться в пределах от 1 до 63 символов и содержать только строчные буквы, цифры, символы подчеркивания (_) и дефисы (-).
CF_INVALID_GCP_RESOURCE_TAG_VALUE
Недопустимое значение тега ресурса GCP: <value>. Значения должны находиться в пределах от 0 до 63 символов длиной и должны содержать только строчные буквы, цифры, символы подчеркивания (_) и дефисы (-).
CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS
Автозагрузчик не поддерживает следующие параметры при использовании с событиями управляемого файла:
<optionList>
Рекомендуется удалить эти параметры, а затем перезапустить поток.
CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
Недействительный ответ от службы событий для управляемых файлов. Обратитесь в службу поддержки Databricks.
Дополнительные сведения см. в CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
CF_INVALID_SCHEMA_EVOLUTION_MODE
cloudFiles.
<schemaEvolutionModeKey> должен быть одним из {
<addNewColumnsWithTypeWidening>
<addNewColumns>
<failOnNewColumns>
<rescue>
"<noEvolution>"}
CF_INVALID_SCHEMA_HINTS_OPTION
Указания схемы могут указывать только определенный столбец один раз.
В этом случае переопределение столбца: <columnName>
несколько раз в schemaHints:
<schemaHints>
CF_INVALID_SCHEMA_HINT_COLUMN
Указания схемы нельзя использовать для переопределения вложенных типов карт и массивов.
Конфликтуемый столбец: <columnName>
CF_LATEST_OFFSET_READ_LIMIT_REQUIRED
latestOffset должен вызываться с параметром ReadLimit для этого источника.
CF_LOG_FILE_MALFORMED
Файл журнала был неправильно сформирован: не удалось считывать правильную версию журнала из <fileName>.
CF_MANAGED_FILE_EVENTS_BACKFILL_IN_PROGRESS
Вы запросили, чтобы Auto Loader игнорировал существующие файлы во внешнем расположении, установив параметр includeExistingFiles в значение false. Однако служба событий управляемых файлов по-прежнему обнаруживает существующие файлы во внешнем местоположении. Пожалуйста, повторите попытку после того, как управляемые события файлов завершат обнаружение всех файлов во внешнем расположении.
CF_MANAGED_FILE_EVENTS_ENDPOINT_NOT_FOUND
Вы используете Auto Loader с управляемыми событиями файлов, но оказывается, что внешнее место хранения для входного пути "<path>" не имеет включенных событий файла или входной путь указан неверно. Попросите администратора Databricks включить события файлов во внешнем расположении для вашего входного пути.
CF_MANAGED_FILE_EVENTS_ENDPOINT_PERMISSION_DENIED
Вы используете автозагрузчик с управляемыми событиями файлов, но у вас нет доступа к внешнему расположению или к тому носителю, который указан в пути к файлу "<path>", или входной путь недопустим. Пожалуйста, попросите администратора Databricks предоставить права на чтение для внешнего расположения или тома, или укажите допустимый входной путь внутри существующего внешнего расположения или тома.
CF_MANAGED_FILE_EVENTS_INVALID_CONTINUATION_TOKEN
Позиция чтения потока в кэше событий файлов была недопустима. Это может произойти из-за того, что конфигурация событий файла была обновлена (например, изменен URL-адрес предоставленной очереди, или события файлов были отключены и повторно включены). Обратитесь в службу поддержки Databricks.
CF_MANAGED_FILE_EVENTS_IS_PREVIEW
Автозагрузчик с событиями управляемого файла — это предварительная версия функций. Чтобы продолжить, обратитесь в службу поддержки Databricks или отключите параметр cloudFiles.useManagedFileEvents.
CF_MANAGED_FILE_EVENTS_RATE_LIMIT_EXCEEDED
Выполняется слишком много параллельных потоков автозагрузчика. Чтобы устранить проблему, уменьшите параллелизм потока по возможности или создайте отдельные тома для каждого подкаталога при загрузке из нескольких подкаталогов во внешнем расположении. Обратитесь к представителю Databricks, если проблема сохранится.
CF_MAX_MUST_BE_POSITIVE
Max должен быть положительным
CF_METADATA_FILE_CONCURRENTLY_USED
Несколько запросов потоковой передачи одновременно используют <metadataFile>
CF_MISSING_METADATA_FILE_ERROR
Отсутствует файл метаданных в каталоге контрольной точки источника потоковой передачи. Эти метаданные
Файл содержит важные параметры по умолчанию для потока, поэтому поток не может быть перезапущен
Прямо сейчас. Обратитесь в службу поддержки Databricks.
CF_MISSING_PARTITION_COLUMN_ERROR
Столбец секционирования <columnName> не существует в предоставленной схеме:
<schema>
CF_MISSING_SCHEMA_IN_PATHLESS_MODE
Укажите схему с помощью схемы .schema(), если путь не предоставляется источнику CloudFiles при использовании режима уведомлений о файлах. Кроме того, чтобы включить автозагрузчик для вывода схемы, укажите базовый путь в .load().
CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC
Найдены существующие уведомления для темы <topicName> в ведре <bucketName>:
notification,id
<notificationList>
Чтобы избежать загрязнения подписчика непреднамеренными событиями, удалите указанные выше уведомления и повторите попытку.
CF_NEW_PARTITION_ERROR
Новые столбцы разделов были определены из ваших файлов: [<filesList>]. Укажите все столбцы секций в схеме или укажите список столбцов секций, для которых вы хотите извлечь значения с помощью: .option("cloudFiles.partitionColumns", "{запятая-разделенный список|пустая строка}")
CF_PARTITON_INFERENCE_ERROR
При попытке определить схему секционирования текущего пакета файлов произошла ошибка. Укажите столбцы секции явным образом с помощью :option("cloudFiles.<partitionColumnOption>", "{запятая-разделенный список}")
CF_PATH_DOES_NOT_EXIST_FOR_READ_FILES
Не удается считывать файлы, если входной путь <path> не существует. Убедитесь, что входной путь существует и повторите попытку.
CF_PERIODIC_BACKFILL_NOT_SUPPORTED
Периодическое обратное заполнение не поддерживается, если асинхронное обратное заполнение отключено. Вы можете включить асинхронное заполнение/перечисление каталогов, установив параметр spark.databricks.cloudFiles.asyncDirListing в значение true.
CF_PREFIX_MISMATCH
Обнаружено несогласованное событие: ключ <key> не имеет префикса: <prefix>
CF_PROTOCOL_MISMATCH
<message>
Если вам не нужно вносить другие изменения в код, установите SQL
конфигурация: '<sourceProtocolVersionKey> = <value>'
чтобы возобновить трансляцию. Ознакомьтесь со следующими сведениями:
<docLink>
дополнительные сведения.
CF_REGION_NOT_FOUND_ERROR
Не удалось получить регион AWS по умолчанию. Укажите регион с помощью параметра cloudFiles.region.
CF_RESOURCE_SUFFIX_EMPTY
Не удалось создать службы уведомлений: суффикс ресурса не может быть пустым.
CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS
Не удалось создать службы уведомлений: суффикс ресурсов может иметь только буквенно-цифровые символы, дефисы (-) и подчеркивания (_).
CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE
Не удалось создать службы уведомлений: суффикс ресурса может иметь только строчную букву, число и дефис (-).
CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP
Не удалось создать службы уведомлений: суффикс ресурсов может содержать только буквенно-цифровые символы, дефисы (-), подчеркивания (_), точки (.), тильды (~) плюс (+) и знаки процента (<percentSign>).
CF_RESOURCE_SUFFIX_LIMIT
Не удалось создать службы уведомлений: суффикс ресурса не может содержать более <limit> символов.
CF_RESOURCE_SUFFIX_LIMIT_GCP
Не удалось создать службы уведомлений: суффикс ресурса должен находиться между <lowerLimit> и <upperLimit> символами.
CF_RESTRICTED_GCP_RESOURCE_TAG_KEY
Найден ограниченный ключ тега ресурса GCP (<key>). Следующие ключи тега ресурса GCP ограничены для автозагрузчика: [<restrictedKeys>]
CF_RETENTION_GREATER_THAN_MAX_FILE_AGE
cloudFiles.cleanSource.retentionDuration не может быть больше cloudFiles.maxFileAge.
CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX
Не удалось создать уведомление для раздела: <topic> с префиксом: <prefix>. Существует уже раздел с тем же именем с другим префиксом: <oldPrefix>. Попробуйте использовать другой суффикс ресурса для установки или удаления существующей установки.
CF_SCHEMA_LOG_DEEP_CLONE_FAILED
Не удалось клонировать и перенести записи журнала схем из исходного журнала схемы.
CF_SFTP_MISSING_PASSWORD_OR_KEY_FILE
Для SFTP необходимо указать пароль или файл ключа.
Укажите пароль в исходном коде ресурса (URI) или <passwordOption>или укажите содержимое файла ключа с помощью <keyFileOption>.
CF_SFTP_NOT_ENABLED
Доступ к файлам SFTP не включен. Обратитесь в службу поддержки Databricks.
CF_SFTP_REQUIRE_FULL_PATH
Укажите компоненты полного пути для источника SFTP в виде sftp://$user@$host:$port/$path, чтобы обеспечить точный поиск подключения UC.
CF_SFTP_REQUIRE_UC_CLUSTER
Кластер с поддержкой UC необходим для доступа к файлам SFTP. Обратитесь в службу поддержки Databricks.
CF_SFTP_USERNAME_NOT_FOUND
Имя пользователя должно быть указано для SFTP.
Укажите имя пользователя в исходном URI или через <option>.
CF_SOURCE_DIRECTORY_PATH_REQUIRED
Укажите путь к исходному каталогу с параметром path
CF_SOURCE_UNSUPPORTED
На данный момент источник облачных файлов поддерживает только пути для S3, хранилищ BLOB-объектов Azure (wasb/wasbs) и Azure Data Lake первого поколения (adl) и второго поколения (abfs/abfss). path: '<path>', разрешенный URI: '<uri>'
CF_STATE_INCORRECT_SQL_PARAMS
Функция cloud_files_state принимает строковый параметр, представляющий каталог контрольных точек потока cloudFiles, или многокомпонентное имя таблицы, определяющее таблицу потоковой передачи, и необязательный второй целочисленный параметр, представляющий версию контрольной точки, для которой следует загрузить состояние. Второй параметр также может быть "последним" для чтения последней контрольной точки. Получено: <params>
CF_STATE_INVALID_CHECKPOINT_PATH
Путь к входной контрольной точке <path> недопустим. Либо путь не существует, либо не найдены источники cloud_files.
CF_STATE_INVALID_VERSION
Указанная версия <version> не существует или удалена во время анализа.
CF_THREAD_IS_DEAD
<threadName> поток мертв.
CF_UNABLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION
Не удалось получить расположение контрольной точки потока из исходного расположения контрольной точки: <checkPointLocation>
CF_UNABLE_TO_DETECT_FILE_FORMAT
Не удалось определить исходный формат файла из <fileSize> выборок файлов, обнаружено <formats>. Укажите формат.
CF_UNABLE_TO_EXTRACT_BUCKET_INFO
Не удалось извлечь сведения о контейнере. Путь: '<path>', разрешённый URI: '<uri>'.
CF_UNABLE_TO_EXTRACT_KEY_INFO
Не удалось извлечь ключевую информацию. Путь: '<path>', разрешённый URI: '<uri>'.
CF_UNABLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO
Не удается извлечь сведения об учетной записи хранения; path: '<path>', разрешенный URI: '<uri>'
CF_UNABLE_TO_LIST_EFFICIENTLY
Получено событие переименования каталога для пути <path>, но мы не можем эффективно перечислить этот каталог. Чтобы поток продолжался, задайте для параметра cloudFiles.ignoreDirRenames значение true, и попробуйте включить регулярные дозаполнения с помощью cloudFiles.backfillInterval для обработки этих данных.
CF_UNEXPECTED_READ_LIMIT
Непредвиденный лимит чтения: <readLimit>
CF_UNKNOWN_OPTION_KEYS_ERROR
Найденные неизвестные ключи параметров:
<optionList>
Убедитесь, что все предоставленные ключи параметров верны. Если вы хотите пропустить
Чтобы проверить параметры и игнорировать неизвестные параметры, можно установить:
.option("cloudFiles.<validateOptions>", "false")
CF_UNKNOWN_READ_LIMIT
Неизвестный предел чтения: <readLimit>
CF_UNSUPPORTED_CLEAN_SOURCE_MOVE
Конфигурация режима cleanSource «move» не поддерживается.
Дополнительные сведения см. в CF_UNSUPPORTED_CLEAN_SOURCE_MOVE
CF_UNSUPPORTED_CLOUD_FILES_SQL_FUNCTION
Функция SQL "cloud_files" для создания источника потоковой передачи автозагрузчика поддерживается только в конвейере Декларативных конвейеров Spark Lakeflow Spark. Дополнительные сведения см. в следующем разделе:
<docLink>
CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE
Вывод схемы не поддерживается для формата: <format>. Укажите схему.
CF_UNSUPPORTED_LOG_VERSION
UnsupportedLogVersion: максимальная поддерживаемая версия журнала — v<maxVersion>, но обнаружена версия v<version>. Файл журнала был создан более новой версией DBR и не может быть прочитан этой версией. Обновите его.
CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE
Режим эволюции схемы <mode> не поддерживается для формата: <format>. Задайте для режима эволюции схемы значение None.
CF_USE_DELTA_FORMAT
Чтение из таблицы Delta не поддерживается с помощью этого синтаксиса. Если вы хотите использовать данные из Delta, ознакомьтесь с документацией: чтение таблицы Delta (<deltaDocLink>) или чтение таблицы Delta в качестве источника потока (<streamDeltaDocLink>). Источник потоковой передачи из Delta уже оптимизирован для добавочного потребления данных.
Geospatial
EWKB_PARSE_ERROR
Ошибка синтаксического анализа EWKB: <parseError> на позиции <pos>
Дополнительные сведения смотрите EWKB_PARSE_ERROR
EWKT_PARSE_ERROR
Синтаксический анализ EWKT: <parseError> в позиции <pos>
Дополнительные сведения см. в EWKT_PARSE_ERROR
GEOJSON_PARSE_ERROR
Ошибка синтаксического анализа GeoJSON: <parseError> в позиции <pos>
Дополнительные сведения см. в GEOJSON_PARSE_ERROR
GEO_ENCODER_SRID_MISMATCH_ERROR
Не удалось закодировать значение <type>, так как предоставленный SRID <valueSrid> значения для кодирования не соответствует типу SRID: <typeSrid>.
H3_INVALID_CELL_ID
<h3Cell> не является допустимым идентификатором ячейки H3
Дополнительные сведения см. в H3_INVALID_CELL_ID
H3_INVALID_GRID_DISTANCE_VALUE
<k> Расстояние сетки H3 должно быть не отрицательным
Дополнительные сведения см. в H3_INVALID_GRID_DISTANCE_VALUE
H3_INVALID_RESOLUTION_VALUE
<r> разрешение H3 должно быть между <minR> и <maxR>, включительно
См. дополнительные сведения в H3_INVALID_RESOLUTION_VALUE
H3_NOT_ENABLED
<h3Expression> отключен или не поддерживается. Рассмотрите возможность переключения на уровень, поддерживающий выражения H3
Дополнительные сведения см. в H3_NOT_ENABLED
H3_PENTAGON_ENCOUNTERED_ERROR
Был найден пятиугольник при вычислении шестиугольного кольца <h3Cell> с сеточным расстоянием <k>.
H3_UNDEFINED_GRID_DISTANCE
Расстояние между <h3Cell1> и <h3Cell2> сетки H3 не определено
ST_DIFFERENT_SRID_VALUES
Аргументы "<sqlFunction>" должны иметь одинаковое значение SRID. Найденные значения SRID: <srid1>, <srid2>
ST_INVALID_ARGUMENT
"<sqlFunction>":
Дополнительные сведения см. в ST_INVALID_ARGUMENT
ST_INVALID_CRS_TRANSFORMATION_ERROR
<sqlFunction>: недопустимое или неподдерживаемое преобразование CRS из SRID <srcSrid> в SRID <trgSrid>
ST_INVALID_PRECISION_VALUE
Точность <p> должна находиться между <minP> и <maxP>, включительно
ST_NOT_ENABLED
<stExpression> отключен или не поддерживается. Рассмотрите возможность переключения на уровень, поддерживающий выражения ST
WKB_PARSE_ERROR
Ошибка при разборе WKB: <parseError> на позиции <pos>
Дополнительные сведения см. в WKB_PARSE_ERROR
WKT_PARSE_ERROR
Ошибка синтаксического анализа WKT: <parseError> на позиции <pos>
Дополнительные сведения см. в WKT_PARSE_ERROR
Каталог Unity
НЕВОЗМОЖНО_УДАЛИТЬ_МЕТКУ_СТОЛБЦА
Невозможно удалить столбец, так как он имеет один или несколько назначенных тегов. Перед удалением столбца удалите теги. Дополнительные сведения см. в документации <docLink>.
Создание зависимого элемента запрещено для внешнего объекта безопасности
Защищаемый <childSecurableName> типа <childSecurableType> не может быть создан в родительском объекте <parentSecurableName> типа <parentSecurableKind>.
Формат столбца несовместим с типом столбца
Столбец <columnName> имеет <formatType> формат, несовместимый с типом <columnType>столбца.
CONFLICTING_COLUMN_NAMES_ERROR
Столбец <columnName> конфликтует с другим столбцом с тем же именем, но без пробелов (например, существующего столбца с именем <columnName> ). Переименуйте столбец с другим именем.
CONNECTION_CREDENTIALS_NOT_SUPPORTED_FOR_ONLINE_TABLE_CONNECTION
Недопустимый запрос на получение учетных данных для соединения уровня типа <connectionType>. Такие учетные данные доступны только для управляемых подключений PostgreSQL.
CONNECTION_TYPE_NOT_ENABLED
Тип подключения "<connectionType>" не включен. Включите подключение для его использования.
DELTA_SHARING_СОСТОЯНИЕ_ПРЕДОСТАВЛЕНИЯ_НЕАКТИВНО
Общая сущность "<securableFullName>" в настоящее время недоступна, так как она еще не была полностью синхронизирована с соответствующей исходной сущностью. Вызвано: <reason>.
DELTA_SHARING_READ_ONLY_RECIPIENT_EXISTS
Уже существует объект Recipient <existingRecipientName> с тем же идентификатором общего доступа '<existingMetastoreId>'.
DELTA_SHARING_READ_ONLY_SECURABLE_KIND
Данные типа Delta Sharing Securable <securableKindName> доступны только для чтения и не могут быть созданы, изменены или удалены.
DISASTER_RECOVERY_READ_ONLY
Данные внутри каталога <catalogName> реплик, управляемого аварийного восстановления, доступны только для чтения и не могут быть созданы, изменены или удалены.
EXTERNAL_ACCESS_DISABLED_ON_METASTORE
Выдача учетных данных отклоняется для среды, отличной от Databricks Compute, из-за отключения внешнего доступа к данным для метахранилища <metastoreName>. Обратитесь к администратору хранилища метаданных, чтобы включить конфигурацию "Внешний доступ к данным" в хранилище метаданных.
EXTERNAL_ACCESS_NOT_ALLOWED_FOR_TABLE
Доступ к таблице с идентификатором <tableId> невозможен вне вычислительной среды Databricks из-за её типа <securableKind>. Доступ извне возможен только к типам таблиц "TABLE_EXTERNAL", "TABLE_DELTA_EXTERNAL" и "TABLE_DELTA".
EXTERNAL_USE_SCHEMA_ASSIGNED_TO_INCORRECT_SECURABLE_TYPE
Привилегии EXTERNAL USE SCHEMA неприменимо к этой сущности <assignedSecurableType> и могут быть назначены только схеме или каталогу. Удалите привилегии из объекта <assignedSecurableType> и назначьте его схеме или каталогу.
EXTERNAL_WRITE_NOT_ALLOWED_FOR_TABLE
Таблица с идентификатором <tableId> не может быть записана вне вычислительной среды Databricks из-за своего типа <securableKind>. Только виды таблиц "TABLE_EXTERNAL" и "TABLE_DELTA_EXTERNAL" могут быть записаны внешне.
FOREIGN_CATALOG_STORAGE_ROOT_MUST_SUPPORT_WRITES
Расположение хранилища для внешнего каталога типа <catalogType> будет использоваться для выгрузки данных и не может быть доступно только для чтения.
HMS_SECURABLE_OVERLAP_LIMIT_EXCEEDED
Число <resourceType>s для входного пути <url> превышает установленный лимит (<overlapLimit>) для перекрывающихся <resourceType>s HMS.
INVALID_DATASOURCE_FORMAT (Неверный формат источника данных)
Формат источника данных "<datasourceFormat>" не поддерживается<tableTypeSuffix> <catalogKindSuffix>.
INVALID_NAME_FORMAT
<fieldDescription> недопустимое имя. Допустимые имена должны содержать только буквенно-цифровые символы и символы подчеркивания, а также не могут содержать пробелы, точки, косую черту или элементы управления.
INVALID_RESOURCE_NAME_DELTA_SHARING
Запросы Delta Sharing не поддерживаются с использованием имен ресурсов
INVALID_RESOURCE_NAME_ENTITY_TYPE
Предоставленное имя ресурса ссылается на тип сущности <provided>, но ожидаемый <expected>.
INVALID_RESOURCE_NAME_METASTORE_ID
Указанное имя ресурса ссылается на хранилище метаданных, которое не находится в области текущего запроса.
INVALID_SECURABLE_NAME
<rpcName> недопустимое <securableType> имя: '<securableFullName>'
LOCATION_OVERLAP
URL-адрес входного пути "<path>" пересекается с <overlappingLocation> в вызове "<caller>".
<conflictingSummary>. <permissionErrorSuggestion>
LOCATION_OVERLAP_STORAGE_CONFLICT_WITH_WORKSPACE_STORAGE
Определяемое клиентом расположение хранилища конфликтует с хранилищем<path> по умолчанию рабочей области "" во время операции "<caller>". Это предотвращает работу функций, использующих хранилище рабочих областей. Сводка по конфликту: <conflictingSummary>. См https://docs.databricks.com/aws/en/data-governance/unity-catalog/storage-conflicts . инструкции по исправлению.
МАНАГЕРУЕМАЯ_ФОРМАТ_ТАБЛИЦЫ
Для управляемых таблиц поддерживается только Delta. Указан формат <datasourceFormat>источника данных.
MONGO_DB_SRV_CONNECTION_STRING_DOES_NOT_ALLOW_PORT
Создание или обновление подключения MongoDB запрещено, так как строка подключения MongoDB SRV не требует порта.
Удалите порт, так как строка подключения SRV не требует порта.
ПРИНЦИПАЛ_НЕ_СУЩЕСТВУЕТ
Не удалось найти принципала с именем <principalName>.
PRIVILEGES_SUPPORT_NOT_ENABLED
Поддержка привилегий не включена для типа [<typeString>]
PRIVILEGE_NOT_APPLICABLE_TO_ENTITY
Привилегии <privilege> не применимы к этой сущности [<classifier>]. Если это кажется непредвиденным, проверьте версию привилегий хранилища метаданных, используемую [<privilegeVersion>].
КАТАЛОГ_ТОЛЬКО_ДЛЯ_ЧТЕНИЯ
Данные внутри Delta Sharing Catalog доступны только для чтения и не могут быть созданы, изменены или удалены. Каталог '<catalogName>' — это каталог Delta Sharing.
REDSHIFT_FOREIGN_CATALOG_STORAGE_ROOT_MUST_BE_S3
Корневая директория хранилища для внешнего каталога Redshift должна находиться в AWS S3.
SCHEMA_NOT_EMPTY
Схема "<fullName>" не пуста. <extraInfo>
SECURABLE_KIND_DOES_NOT_SUPPORT_LAKEHOUSE_FEDERATION
Защищаемый типа <securableKind> не поддерживает федерацию Lakehouse.
SECURABLE_KIND_NOT_ENABLED
Тип '<securableKind>', который можно защитить, не включен. Если это защищаемый тип, связанный с функцией предварительного просмотра, включите его в настройках рабочей области.
SECURABLE_TYPE_DOES_NOT_SUPPORT_LAKEHOUSE_FEDERATION
Защищаемый с помощью типа <securableType> не поддерживает федерацию Lakehouse.
SOURCE_TABLE_COLUMN_COUNT_EXCEEDS_LIMIT
Исходная таблица содержит более <columnCount> столбцов. Уменьшите количество столбцов до <columnLimitation> или меньше.
СИСТЕМНЫЙ СЛУЖЕБНЫЙ ПРИНЦИПАЛ НЕ ЗАРЕГИСТРИРОВАН
Не удалось найти зарегистрированный системный служебный субъект с именем ресурса <servicePrincipalResource>.
TABLE_TYPE_DOES_NOT_SUPPORT_COLUMN_METADATA
Тип <tableType> таблицы не поддерживает метаданные столбцов.
UC_AAD_CLIENT_SECRET_EXPIRED_FOR_SERVICE_PRINCIPAL
Срок действия ключей секрета клиента для субъекта-службы с идентификатором <applicationId> приложения истек. Посетите портал Azure, чтобы создать новые ключи для субъекта-службы.
UC_AAD_CLIENT_SECRET_EXPIRED_FOR_STORAGE_CREDENTIAL
Срок действия ключей секрета клиента для учетных данных <storageCredentialName> хранения истек. Чтобы обновить учетные данные хранения, обратитесь к владельцу или администратору учетной записи.
UC_AAD_CLIENT_SECRET_INVALID_FOR_SERVICE_PRINCIPAL
Недопустимый ключ секрета клиента для субъекта-службы с идентификатором <applicationId> приложения.
UC_AAD_SERVICE_PRINCIPAL_CONFIG_INVALID
Недопустимая конфигурация субъекта-службы. Проверьте идентификатор каталога, идентификатор приложения и секрет клиента.
UC_AAD_TOKEN_EXCHANGE_GENERIC_FAILURE
Не удалось получить учетные данные: учетные данные <storageCredentialName> хранения настроены неправильно. Чтобы обновить конфигурацию, обратитесь к владельцу или администратору учетной записи.
UC_AAD_TOKEN_LIFETIME_TOO_SHORT
Срок действия токена AAD для Exchanged <lifetime> настроен слишком коротким. Проверьте параметр Azure AD, чтобы убедиться, что временный маркер доступа имеет по крайней мере часовое время существования. https://learn.microsoft.com/azure/active-directory/develop/active-directory-configurable-token-lifetimes
UC_ABAC_AMBIGUOUS_COLUMN_MATCH
Ошибка при оценке политик ABAC для '<resource>'. Политика '<policyName>' завершилась с ошибкой: использование псевдонима '<alias>' дало <size> совпадений, допускается ровно 1 совпадение.
UC_ABAC_DEPENDENCY_COMPLEXITY_LIMIT_EXCEEDED
<resourceType> '<ref>' имеет слишком много <resolverType> зависимостей abac.
UC_ABAC_DEPENDENCY_DIFFERING_RF_CM
Зависимость '<dependency>' упоминается несколько раз и приводит к различию в фильтрах строк ABAC или масках столбцов.
UC_ABAC_EVALUATION_USER_ERROR
Ошибка при оценке политик ABAC для '<resource>'. Политика '<policyName>' завершилась сбоем, сообщение: <message>.
UC_ABAC_INVALID_TAG_POLICY_VALUE
Ошибка при оценке политик ABAC для '<resource>'. Не удалось выполнить сообщение: недопустимое значение <tagValue> политики тегов для ключа <tagKey>.
UC_ABAC_MULTIPLE_ROW_FILTERS
Оценка политик ABAC на "<resource>" привела к нескольким фильтрам строк. Допускается не более одного фильтра строк.
UC_ABAC_UNKNOWN_TAG_POLICY
Ошибка при оценке политик ABAC для '<resource>'. Не удалось выполнить сообщение: политика неизвестных тегов: <tagKey>
UC_ABAC_UNMATCHED_ALIAS_IN_USING_COLUMNS (несовпадение псевдонима в столбцах использования)
Ошибка при оценке политик ABAC для '<resource>'. Сбой с сообщением: псевдоним "<alias>", используемый в USING COLUMNS, не соответствует ни одному столбцу.
UC_ABAC_UNMATCHED_ON_COLUMN_ALIAS
Ошибка при оценке политик ABAC для '<resource>'. Политика '<policyName>' завершилась сбоем с сообщением: псевдоним '<alias>', используемый в ON COLUMN, не соответствует ни одному столбцу.
UC_ABAC_UNMATCHED_USING_ALIAS
Ошибка при оценке политик ABAC для '<resource>'. Политика "<policyName>" завершилась сбоем с сообщением: использование псевдонима "<alias>" не имеет соответствующего столбца.
UC_ABAC_USING_REF_OF_NATIVE_MASKED_COLUMNS
Ошибка при оценке политик ABAC для '<resource>'. Сбой сообщения: столбец '<usingCol>' был маскирован собственной политикой RLS/CM и не может использоваться в качестве входных данных для политики ABAC "<policyName>".
Доступ к UC требует рабочего пространства
Не удается получить доступ к объекту безопасности, связанному с рабочей областью, так как пользователь не назначен в соответствующую рабочую область.
UC_ALTER_DLT_VIEW_OUTSIDE_DEFINING_PIPELINE
Изменение представления "<viewFullName>" за пределами конвейера, который его определяет, запрещено. Вместо этого обновите определение представления из конвейера, который его определил (идентификатор конвейера: <owningPipelineId>).
UC_ATLAS_НЕ_ВКЛЮЧЕН_ДЛЯ_CALLING_SERVICE
Atlas не активирован для вызываемой службы <serviceName>.
UC_AUTHZ_ACTION_NOT_SUPPORTED
Авторизация <actionName> не поддерживается; Убедитесь, что вызываемый RPC реализован для этого типа ресурса
UC_AWS_ASSUME_ROLE_FAILED
Не удалось получить учетные данные: роль AWS IAM в учетных данных каталога Unity настроена неправильно. Обратитесь к администратору хранилища метаданных или владельцу учетных данных, чтобы обновить конфигурацию в AWS.
UC_AWS_EMPTY_STORAGE_LOCATION
Пустое расположение хранилища.
UC_AWS_INVALID_S3_POLICY_PREFIX
Недопустимый путь s3 для расположения хранилища: путь <providedPath> S3 не начинается с ожидаемого префикса: <expectedPrefix>
UC_AWS_UNSUPPORTED_S3_SCHEME
Недопустимый путь s3 для расположения хранилища: обнаружена неподдерживаемая схема: <providedScheme> Поддерживаемые схемы: <supportedS3Schemes>
UC_AZURE_BLOB_SERVICE_UNAVAILABLE
Служба BLOB-объектов Azure временно недоступна. Повторите попытку позже.
UC_AZURE_UDK_UNAUTHORIZED
Запрос ключа делегирования пользователей не авторизован. Сведения: <details>
UC_BUILTIN_HMS_CONNECTION_CREATION_PERMISSION_DENIED
Не удается создать подключение для встроенного хранилища метаданных hive, так как пользователь: <userId> не является администратором рабочей области: <workspaceId>
UC_BUILTIN_HMS_CONNECTION_MODIFY_RESTRICTED_FIELD
Попытка изменить ограниченное поле во встроенном подключении HMS '<connectionName>'. Можно обновить только warehouse_directory.
UC_CANNOT_RENAME_PARTITION_FILTERING_COLUMN
Не удалось переименовать столбец <originalLogicalColumn> таблицы, так как он используется для фильтрации секций.<sharedTableName> Чтобы продолжить, вы можете удалить таблицу из общего доступа, переименовать столбец и снова поделиться ею с желательными столбцами фильтрации секций. Хотя это может нарушить потоковый запрос для получателя.
UC_CHILD_CREATION_FORBIDDEN_FOR_NON_UC_CLUSTER
Невозможно создать <securableType> '<securable>' в <parentSecurableType> '<parentSecurable>', поскольку запрос не поступает из кластера UC.
UC_CONFLICTING_CONNECTION_ALLOW_LIST_OPTIONS
Не удается создать соединение со списком разрешений, перекрывающимся параметром подключения. Значение: <conflictingOptions>
UC_CONFLICTING_CONNECTION_OPTIONS
Не удается создать подключение как с именем пользователя, так и паролем и параметрами проверки подлинности oauth. Выберите один из них.
UC_CONNECTION_CREDENTIALS_MAXIMUM_REACHED
Достигнуто максимальное количество учетных данных для имени подключения "<connectionName>". Удалите существующие учетные данные перед созданием нового.
UC_CONNECTION_CREDENTIALS_NOT_EXIST_FOR_USER_WITH_LOGIN
Учетные данные для идентификации пользователя "<userIdentity>" не найдены для подключения "<connectionName>". Сначала войдите в систему, посетив <connectionPage>
UC_CONNECTION_CREDENTIALS_TYPE_NOT_SUPPORTED
Создание учетных данных для защищаемого типа "<securableType>" не поддерживается. Поддерживаемые защищённые типы: <allowedSecurableType>
UC_CONNECTION_EXISTS_FOR_CREDENTIAL
У учетных данных '<credentialName>' есть одно или несколько зависимых подключений. Вы можете использовать параметр принудительного исполнения для продолжения обновления или удаления учетных данных, но подключения, использующие эти учетные данные, могут больше не работать.
UC_CONNECTION_EXPIRED_ACCESS_TOKEN
Истек срок действия маркера доступа, связанного с подключением. Обновите подключение, чтобы перезапустить поток OAuth, чтобы получить маркер.
UC_CONNECTION_EXPIRED_REFRESH_TOKEN
Срок действия токена обновления, связанного с подключением, истек. Обновите подключение, чтобы перезапустить поток OAuth, чтобы получить новый маркер.
UC_CONNECTION_IN_FAILED_STATE
Подключение находится в состоянии FAILED. Обновите подключение с допустимыми учетными данными, чтобы повторно активировать его.
UC_CONNECTION_MISSING_OPTION
Подключения защищаемого типа "<securableType>" должны включать следующие параметры: <requiredOptions>.
UC_CONNECTION_MISSING_REFRESH_TOKEN
Токен обновления не связан с подключением. Обновите интеграцию клиента OAuth в поставщике идентификаторов для возвращения токенов обновления, а также обновите или создайте заново подключение, чтобы перезапустить поток OAuth и получить необходимые токены.
UC_CONNECTION_OAUTH_EXCHANGE_FAILED
Сбой обмена токенами OAuth с кодом состояния HTTP <httpStatus>. Возвращенный ответ сервера или сообщение об исключении: <response>
UC_CONNECTION_OPTION_NOT_SUPPORTED
Подключения типа, защищаемого '<securableType>', не поддерживают следующие параметры: <optionsNotSupported>. Поддерживаемые параметры: <allowedOptions>.
UC_COORDINATED_COMMITS_NOT_ENABLED
Поддержка координированных коммитов не включена. Обратитесь в службу поддержки Databricks.
UC_CREATE_FORBIDDEN_UNDER_INACTIVE_SECURABLE
Невозможно создать <securableType> "<securableName>", так как он находится в неактивном <parentSecurableType> "<parentSecurableName>". Удалите родительский защищаемый объект и повторно создайте родительский объект.
UC_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED
Не удалось проанализировать предоставленный идентификатор соединителя доступа: <accessConnectorId>. Проверьте форматирование и повторите попытку.
UC_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN
Не удалось получить маркер AAD для выполнения проверки разрешений облака в соединителе доступа. Повторите действие.
UC_CREDENTIAL_INVALID_CLOUD_PERMISSIONS
SQLSTATE: не присвоено
Для регистрации учётных данных необходима роль участника в соответствующем соединителе доступа с идентификатором <accessConnectorId>. Обратитесь к администратору учетной записи.
UC_CREDENTIAL_INVALID_CREDENTIAL_TYPE_FOR_PURPOSE
Тип учетных данных '<credentialType>' не поддерживается для цели '<credentialPurpose>'
UC_CREDENTIAL_PERMISSION_DENIED
SQLSTATE: не присвоено
Только администратор учетной записи может создавать или обновлять учетные данные с типом <storageCredentialType>.
UC_CREDENTIAL_TRUST_POLICY_IS_OPEN
Политика доверия роли IAM, позволяющая учетной записи Databricks использовать роль, должна требовать наличия внешнего идентификатора. Пожалуйста, свяжитесь с администратором вашей учетной записи, чтобы добавить условие для внешнего идентификатора. Такое поведение направлено на защиту от проблемы «Смущённого заместителя» (https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html).
UC_CREDENTIAL_WORKSPACE_API_PROHIBITED
Создание или обновление учетных записей пользователем, не являющимся администратором учетной записи, не поддерживается в API на уровне учетной записи. Вместо этого используйте API уровня рабочей области.
UC_DBR_TRUST_VERSION_TOO_OLD
Среда выполнения Databricks больше не поддерживает эту операцию. Используйте последнюю версию (может потребоваться просто перезапустить кластер).
UC_DELTA_ILLEGAL_BACKFILLED_VERSION
Непредвиденная последняяbackfilledVersion <latestBackfilledVersion> в фиксации (<version>, <commitType>).
UC_DELTA_ILLEGAL_CONCURRENT_MIGRATION
Параллельное обновление или понижение уровня до таблицы, управляемой каталогом, не поддерживается. Убедитесь, что одновременно выполняется только одна транзакция. Обнаружен дубликат <commitType> .
UC_DELTA_ILLEGAL_MIGRATION_STATE_CHANGE
Незаконное переход с старого типа <lastCommitType> фиксации на новый <commitType>.
UC_DELTA_MIGRATION_STATE_CHANGE_VERSION_MISMATCH
Версии не соответствуют переходу состояния от старого (<lastVersion>, <lastCommitType>) к новому (<version>, <commitType>).
UC_DELTA_UNIVERSAL_FORMAT_CANNOT_PARSE_ICEBERG_VERSION
Не удалось проанализировать версию таблицы Apache Iceberg из метаданных в расположении <metadataLocation>.
UC_DELTA_UNIVERSAL_FORMAT_CONCURRENT_WRITE
Обнаружено параллельное обновление до той же версии метаданных Apache Iceberg.
UC_DELTA_UNIVERSAL_FORMAT_INVALID_METADATA_LOCATION
Недопустимое расположение зафиксированных метаданных <metadataLocation>. Это не подкаталог корневого каталога <tableRoot>таблицы.
UC_DELTA_UNIVERSAL_FORMAT_MISSING_FIELD_CONSTRAINT
Предоставленные сведения о преобразовании формата Apache Iceberg отсутствуют в обязательных полях.
UC_DELTA_UNIVERSAL_FORMAT_NON_CREATE_CONSTRAINT
Настройка сведений о формате Delta Apache Iceberg для создания не поддерживается.
UC_DELTA_UNIVERSAL_FORMAT_TOO_LARGE_CONSTRAINT
Сведения о преобразовании формата Apache Iceberg в разностном формате слишком большие.
UC_DELTA_UNIVERSAL_FORMAT_UPDATE_INVALID
Универсальные метаданные можно обновлять только в Delta-таблицах с включённым режимом единообразия.
UC_DEPENDENCY_DEPTH_LIMIT_EXCEEDED
<resourceType> Глубина '<ref>' превышает предел (или имеет циклическую ссылку).
UC_DEPENDENCY_DOES_NOT_EXIST
<resourceType> "<ref>" недопустим, так как один из базовых ресурсов не существует. <cause>
UC_DEPENDENCY_PERMISSION_DENIED
<resourceType> "<ref>" не имеет достаточных привилегий для выполнения, так как владелец одного из базовых ресурсов завершил проверку авторизации. <cause>
UC_DUPLICATE_CONNECTION
Соединение с именем '<connectionName>' с тем же URL-адресом уже существует. Попросите владельца предоставить разрешение на использование этого подключения вместо создания дубликата.
UC_DUPLICATE_ONELAKE_CATALOG_CREATION
Предпринята попытка создать каталог OneLake с URL-адресом"<storageLocation>, который соответствует существующему каталогу, который не допускается.
UC_DUPLICATE_TAG_ASSIGNMENT_CREATION
Назначение тегов с ключом тега <tagKey> уже существует
UC_ENTITY_DOES_NOT_HAVE_CORRESPONDING_ONLINE_CLUSTER
Сущность <securableType> <entityId> не имеет соответствующего сетевого кластера.
UC_ETAG_MISMATCH
Ресурс был изменен. Получите последний etag и повторите попытку. Ожидаемое значение etag: с версией <expectedTokenValue>протокола, полученное значение etag: <expectedTokenVersion><providedTokenValue> с версией протокола<providedTokenVersion>
UC_EXCEEDS_MAX_FILE_LIMIT
Существует более <maxFileResults> файлов. Укажите [max_results], чтобы ограничить количество возвращенных файлов.
UC_EXTERNAL_HMS_SCHEMA_LOCATION_NOT_FEDERATED
Схема <schemaName> находится в DEGRADED состоянии подготовки, которое ожидается, так как расположение схемы eHMS / Glue не является федеративной.
UC_EXTERNAL_LOCATION_OP_NOT_ALLOWED
Не удается <opName> <extLoc> <reason>.
<suggestion>.
UC_FEATURE_DISABLED
<featureName> в настоящее время отключен в UC.
UC_FOREIGN_CATALOG_FOR_CONNECTION_TYPE_NOT_SUPPORTED
Создание внешнего каталога для типа подключения "<connectionType>" не поддерживается. Этот тип подключения можно использовать только для создания конвейеров управляемой загрузки данных. Дополнительные сведения см. в документации Databricks.
UC_FOREIGN_CREDENTIAL_CHECK_ONLY_FOR_READ_OPERATIONS
Для внешних таблиц можно получить только учетные данные READ.
UC_FOREIGN_ENTITY_CREATION_FORBIDDEN_DURING_CONVERSION
Создание FOREIGN <securableType> "<entityName>" в каталоге<catalogName> запрещено при преобразовании каталога в FOREIGNSTANDARD.
UC_FOREIGN_HMS_SHALLOW_CLONE_MISMATCH
Базовая таблица и таблица-клон должны находиться в одном каталоге для поверхностных клонов, созданных в иностранных каталогах хранилища метаданных Hive. Базовая таблица '<baseTableName>' находится в каталоге '<baseCatalogName>', и таблица-клон '<cloneTableName>' находится в каталоге '<cloneCatalogName>'.
UC_FOREIGN_KEY_CHILD_COLUMN_LENGTH_MISMATCH
Внешний ключ <constraintName> имеет разные размеры для дочерних и родительских столбцов.
UC_FOREIGN_KEY_COLUMN_MISMATCH
Родительские столбцы внешнего ключа не соответствуют указанным дочерним столбцам первичного ключа. Родительские столбцы внешнего ключа: (<parentColumns>), а дочерние столбцы первичного ключа — (<primaryKeyChildColumns>).
UC_FOREIGN_KEY_COLUMN_TYPE_MISMATCH
Тип дочернего столбца внешнего ключа не соответствует типу родительского столбца. Дочерний столбец внешнего ключа <childColumnName> имеет тип <childColumnType>, а родительский столбец <parentColumnName> имеет тип <parentColumnType>.
UC_GCP_INVALID_PRIVATE_KEY
Доступ запрещен. Причина: закрытый ключ учетной записи службы недействителен.
UC_GCP_INVALID_PRIVATE_KEY_JSON_FORMAT
Закрытый ключ учетной записи Google Server OAuth должен быть допустимым JSON объектом с обязательными полями, обязательно укажите полный JSON файл, созданный на странице сведений о учетной записи службы.
UC_GCP_INVALID_PRIVATE_KEY_JSON_FORMAT_MISSING_FIELDS
Закрытый ключ учетной записи Google Server OAuth должен быть допустимым JSON объектом с обязательными полями, обязательно укажите полный JSON файл, созданный на странице сведений о учетной записи службы. Отсутствующие поля <missingFields>
UC_IAM_ROLE_NON_SELF_ASSUMING
Роль IAM для этих учетных данных хранения была найдена не самозаверяющей. Проверьте доверенность вашей роли и политики IAM, чтобы удостовериться, что ваша роль IAM может взять на себя функции согласно документации учетных данных Unity Catalog.
UC_ICEBERG_COMMIT_CONFLICT
Не удается зафиксировать <tableName>: расположение метаданных <baseMetadataLocation> изменилось с <catalogMetadataLocation>.
UC_ICEBERG_COMMIT_INVALID_TABLE
Не удается выполнить фиксацию Managed Apache Iceberg в таблице Apache Iceberg, не находящейся под управлением: <tableName>.
UC_ICEBERG_COMMIT_MISSING_FIELD_CONSTRAINT
В предоставленных сведениях о фиксации Управляемого Apache Iceberg отсутствуют обязательные поля.
UC_ID_MISMATCH
<type> <name> не имеет идентификатора <wrongId>. Повторите операцию.
UC_INFORMATION_SCHEMA_PER_METASTORE_DB_RATE_LIMIT_EXCEEDED
Слишком много запросов информационных схем для метахранилища. Подождите минуту и повторите попытку. Если проблема не исчезнет, попробуйте настроить выборку запросов или получить доступ к поддержке.
UC_INVALID_ACCESS_BRICKSTORE_ONLINE_TABLE_DEPRECATION
Не рекомендуется использовать таблицу Online. Получение доступа к онлайн-таблице <securableName> больше не поддерживается.
UC_INVALID_ACCESS_BRICKSTORE_PG_CONNECTION
Недопустимый доступ к экземпляру базы данных. <reason>
UC_INVALID_ACCESS_DBFS_ENTITY
Недопустимый доступ к <securableType> <securableName> в федеративном каталоге <catalogName>. <reason>
UC_INVALID_AZURE_PATH
Недопустимый путь к Azure: <path>
UC_INVALID_CLOUDFLARE_ACCOUNT_ID
Недопустимый идентификатор учетной записи Cloudflare.
UC_INVALID_CREDENTIAL_CLOUD
Недопустимый облачный провайдер аутентификации '<cloud>'. Разрешенный поставщик облачных служб '<allowedCloud>'.
UC_INVALID_CREDENTIAL_PURPOSE_VALUE
Недопустимое значение "<value>" для свойства "назначение" учетных данных. Допустимые значения '<allowedValues>'.
UC_INVALID_CREDENTIAL_TRANSITION
Не удается обновить подключение от <startingCredentialType> до <endingCredentialType>. Единственным допустимым переходом является переход от подключения на основе имени пользователя и пароля к подключению на основе токена OAuth.
UC_INVALID_CRON_STRING_FABRIC
Недопустимая строка cron. Найдено: '<cronString>' с исключением синтаксического анализа: '<message>'
UC_INVALID_DIRECT_ACCESS_MANAGED_TABLE
Недопустимая таблица с управляемым прямым доступом <tableName>. Убедитесь, что ни определение исходной таблицы, ни конвейера не заданы.
UC_INVALID_EMPTY_STORAGE_LOCATION
В каталоге '<securableType>' обнаружено непредвиденное пустое место хранения для <securableName> '<catalogName>'. Чтобы устранить эту ошибку, выполните DESCRIBE SCHEMA <catalogName>.
<securableName> обновите эту страницу.
UC_INVALID_OPTIONS_UPDATE
Недопустимые параметры, указанные для обновления. Недопустимые параметры: <invalidOptions>. Допустимые параметры: <allowedOptions>.
UC_INVALID_OPTION_VALUE
Недопустимое значение '<value>' для '<option>'. Допустимые значения '<allowedValues>'.
UC_INVALID_OPTION_VALUE_EMPTY
"<option>" не может быть пустым. Введите непустое значение.
UC_INVALID_POLICY_CONDITION
Недопустимое условие в политике '<policyName>'. Ошибка компиляции с сообщением '<message>'.
UC_INVALID_R2_ACCESS_KEY_ID
Недопустимый идентификатор ключа доступа R2.
UC_INVALID_R2_SECRET_ACCESS_KEY
Недопустимый секретный ключ доступа R2.
UC_INVALID_UPDATE_ON_SYSTEM_WORKSPACE_ADMIN_GROUP_OWNED_SECURABLE
Не удается обновить <securableType> "<securableName>, так как он принадлежит внутренней группе. Обратитесь в службу поддержки Databricks для получения дополнительных сведений.
UC_INVALID_WASBS_EXTERNAL_LOCATION_STORAGE_CREDENTIAL
Предоставленные учетные данные хранилища <storageCredentialName> не связаны с корнем DBFS, создание isbs External Location запрещено.
UC_LOCATION_INVALID_SCHEME
Расположение хранилища имеет недопустимую схему URI: <scheme>.
UC_MALFORMED_OAUTH_SERVER_RESPONSE
В ответе сервера токенов отсутствует поле <missingField>. Возвращенный ответ сервера: <response>
UC_УПРАВЛЯЕМОЕ_АЙСБЕРГ_НЕПОДДЕРЖИВАЕТСЯ
Не удается поддерживать управляемую таблицу Apache Iceberg в текущей конечной точке.
UC_METASTORE_ASSIGNMENT_STATUS_INVALID
'<metastoreAssignmentStatus>' не может быть присвоено. Поддерживаются только MANUALLY_ASSIGNABLE и AUTO_ASSIGNMENT_ENABLED.
UC_METASTORE_CERTIFICATION_NOT_ENABLED
Сертификация хранилища метаданных не включена.
UC_METASTORE_HAS_ACTIVE_MANAGED_ONLINE_CATALOGS
SQLSTATE: не присвоено
Хранилище метаданных <metastoreId> имеет <numberManagedOnlineCatalogs> управляемые онлайн-каталоги. Удалите их явным образом, а затем повторите удаление хранилища метаданных.
UC_METASTORE_QUOTA_EXCEEDED
Эта учетная запись с идентификатором <accountId> достигла предела для хранилищ метаданных в регионе <region>.
UC_METASTORE_STORAGE_ROOT_CREDENTIAL_UPDATE_INVALID
Корневые учетные данные хранилища метаданных нельзя определить при обновлении корневого расположения хранилища метаданных. Учетные данные будут получены из внешнего родительского расположения метахранилища.
UC_METASTORE_STORAGE_ROOT_DELETION_INVALID
Не удалось удалить корневое расположение хранилища метаданных. <reason>
UC_METASTORE_STORAGE_ROOT_READ_ONLY_INVALID
Корневой элемент <securableType> в хранилище метаданных не может быть только для чтения.
UC_METASTORE_STORAGE_ROOT_UPDATE_INVALID
Корневой каталог хранилища метаданных нельзя обновить после установки.
UC_MODEL_INVALID_STATE
Не удается создать временные<opName> учетные данные для версии <modelVersion> модели с состоянием <modelVersionStatus>. Учетные данные '<opName>' могут быть созданы только для версий модели с состоянием <validStatus>
UC_NATIVE_USING_REF_OF_ABAC_MASKED_COLUMNS
Ошибка при оценке политик ABAC для '<resource>'. Сбой сообщения: столбец "<usingCol>" был маскирован политикой ABAC "<policyName>" и не может использоваться в качестве входных данных в собственную политику RLS/CM.
UC_NO_ORG_ID_IN_CONTEXT
Попытка получить доступ к идентификатору организации (или идентификатору рабочего пространства), но в контексте его нет.
UC_ONELAKE_PATH_BAD_DOMAIN
Путь к Azure OneLake должен<path> иметь доменное имя '<expectedHost>'.
UC_ONELAKE_PATH_BAD_FORMAT
Путь<path> к Azure OneLake должен иметь формат abfs://_WORKSPACE_@<host>/.
UC_ONELAKE_PATH_MISSING_AT
Путь<path> к Azure OneLake не содержит "@".
UC_ONELAKE_PATH_MISSING_WORKSPACE
Путь к Azure OneLake должен<path> содержать имя рабочей области.
UC_ОДНОЕ_ОЗЕРО_ТРЕБУЕТ_ПОЗИЦИЮ_ОЗЕРАХРАНИЛИЩА
Не удается создать том в каталоге OneLake, так как указанный элемент OneLake не является Lakehouse.
UC_ONLINE_CATALOG_NOT_MUTABLE
SQLSTATE: не присвоено
<rpcName> запрос обновляет <fieldName>. Используйте вкладку «Вычисления» в интернет-магазине, чтобы изменить все, кроме комментариев, владельца и режима изоляции онлайн-каталога.
UC_ONLINE_CATALOG_QUOTA_EXCEEDED
Невозможно создать более <quota> интернет-магазинов в мета-хранилище, так как уже существует <currentCount>. Возможно, у вас нет доступа к существующим интернет-магазинам. Обратитесь к администратору хранилища метаданных, чтобы получить доступ или получить дополнительные инструкции.
UC_ONLINE_INDEX_CATALOG_INVALID_CRUD
SQLSTATE: не присвоено
Онлайн каталоги индексов должны быть <action> через API /vector-search.
UC_ONLINE_INDEX_CATALOG_NOT_MUTABLE
SQLSTATE: не присвоено
<rpcName> запрос обновляет <fieldName>. Используйте API /vector-search для изменения чего-либо, кроме комментариев, владельца и режима изоляции каталога онлайн-индексов.
UC_ONLINE_INDEX_CATALOG_QUOTA_EXCEEDED
Невозможно создать более <quota> онлайн-каталогов индексов в хранилище метаданных, так как уже существует <currentCount>. Возможно, у вас нет доступа к существующим каталогам индексов в Сети. Обратитесь к администратору хранилища метаданных, чтобы получить доступ или получить дополнительные инструкции.
UC_ONLINE_INDEX_INVALID_CRUD
Онлайн-индексы должны быть <action> через API /vector-search.
UC_ONLINE_STORE_INVALID_CRUD
SQLSTATE: не присвоено
Интернет-магазины должны быть <action> с помощью вкладки вычислений интернет-магазина.
UC_ONLINE_TABLE_COLUMN_NAME_TOO_LONG
Имя столбца исходной таблицы <columnName> слишком длинно. Максимальная длина — <maxLength> символов.
UC_ONLINE_TABLE_PRIMARY_KEY_COLUMN_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT
Столбец <columnName> нельзя использовать в качестве первичного ключевого столбца таблицы в сети, так как он не является частью существующего ограничения PRIMARY KEY исходной таблицы. Более подробную информацию см. в <docLink>
UC_ONLINE_TABLE_TIMESERIES_KEY_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT
Столбец <columnName> нельзя использовать в качестве ключа временного ряда онлайн-таблицы, так как это не столбец временного ряда существующего ограничения PRIMARY KEY исходной таблицы. Более подробную информацию см. в <docLink>
UC_ONLINE_VIEWS_PER_SOURCE_TABLE_QUOTA_EXCEEDED
Невозможно создать более <quota> онлайн-таблиц для каждой исходной таблицы.
UC_ONLINE_VIEW_ACCESS_DENIED
Для доступа к ресурсам <resourceName> требуется использование бессерверного хранилища SQL. Убедитесь, что хранилище используется для выполнения запроса или просмотра каталога базы данных в пользовательском интерфейсе бессерверным. Более подробную информацию см. в <docLink>
UC_ONLINE_VIEW_CONTINUOUS_QUOTA_EXCEEDED
Невозможно создать более <quota> непрерывных онлайн-просмотров в интернет-магазине, и уже имеется <currentCount>. Возможно, у вас нет доступа к имеющимся онлайн-представлениям. Обратитесь к администратору интернет-магазина, чтобы получить доступ или получить дополнительные инструкции.
UC_ONLINE_VIEW_DOES_NOT_SUPPORT_DMK
SQLSTATE: не присвоено
<tableKind> невозможно создать в пределах расположения хранилища, использующего управляемые ключи Databricks. Пожалуйста, выберите другую схему или каталог в хранилище без шифрования с использованием управляемых ключей Databricks.
UC_ONLINE_VIEW_INVALID_CATALOG
Недопустимый каталог <catalogName> с типом <catalogKind> для создания внутри <tableKind>.
<tableKind> можно создать только в каталогах типов: <validCatalogKinds>.
UC_ONLINE_VIEW_INVALID_SCHEMA
Недопустимая схема <schemaName> с типом <schemaKind> для создания внутри <tableKind>.
<tableKind> можно создать только в схемах типов: <validSchemaKinds>.
UC_ONLINE_VIEW_INVALID_TTL_TIME_COLUMN_TYPE
Столбец <columnName> типа <columnType> нельзя использовать в качестве столбца времени TTL. Допустимые типы <supportedTypes>.
UC_OPERATION_NOT_SUPPORTED
Операция, не поддерживаемая каталогом Unity. <detailedMessage>
UC_OUT_OF_AUTHORIZED_PATHS_SCOPE
Ошибка авторизованного пути. Расположение <securableType><location> не определено в авторизованных путях для каталога: <catalogName>. Попросите владельца каталога добавить путь к списку авторизованных путей, определенных в каталоге.
UC_OVERLAPPED_AUTHORIZED_PATHS
Параметр "authorized_paths" содержит перекрывающиеся пути: <overlappingPaths> Убедитесь, что каждый путь является уникальным и не пересекается с другими путями в списке.
UC_PAGINATION_AND_QUERY_ARGS_MISMATCH
Аргумент запроса "" имеет значение "<arg><received>", которое отличается от значения, используемого в первом вызове разбиения на страницы ('<expected>)
UC_PATH_FILTER_ALLOWLIST_VIOLATION
Учетные данные "<credentialName>" — это учетные данные рабочей области по умолчанию, которые разрешены только для доступа к данным в следующих путях: "<allowlist>". Убедитесь, что любой путь, к которому осуществляется доступ с помощью этих учетных данных, находится в пределах одного из этих путей.
UC_PATH_FILTER_СПИСОК_ЗАПРЕТОВ_НАРУШЕНИЕ
Учетные данные "<credentialName>" — это учетные данные рабочей области по умолчанию, которые не могут получить доступ к данным в следующем ограниченном пути: "<targetPath>".
UC_PATH_TOO_LONG
Входной путь слишком длинен. Разрешенная длина: <maxLength>. Длина входных данных: <inputLength>. Входные данные: <path>...
UC_PER_METASTORE_DATABASE_CONCURRENCY_LIMIT_EXCEEDED
Превышено ограничение параллелизма для хранилища <metastoreId>метаданных. Повторите попытку позже. Если проблема сохранится, обратитесь в службу поддержки. Код ошибки #UC-<errorCodeArbitraryFiveLettersUpperCase>
UC_POSTGRESQL_ONLINE_VIEWS_PER_SOURCE_TABLE_QUOTA_EXCEEDED
Не удается создать более <quota> синхронизированных таблиц базы данных для каждой исходной таблицы.
UC_PRIMARY_KEY_ON_NULLABLE_COLUMN
Невозможно создать первичный ключ <constraintName>, так как дочерний столбец <childColumnNames> может принимать значение NULL. Измените допустимость NULL для столбца и повторите попытку.
UC_REQUEST_LIMIT_EXCEEDED
Ваш запрос был отклонен, так как ваша организация превысила ограничение скорости. Повторите запрос позже.
UC_REQUEST_TIMEOUT
Эта операция заняла слишком много времени.
UC_RESOURCE_QUOTA_EXCEEDED
Не удается создать <amount> <resourceType>(s) в <parentResourceType> <parentResourceId> (предполагаемое число: <currentCount>, ограничение: <quotaLimit>).
UC_ROOT_STORAGE_S3_BUCKET_NAME_CONTAINS_DOT
Имя контейнера S3 корневого хранилища, содержащее точки, не поддерживается каталогом Unity: <uri>
UC_SCHEMA_EMPTY_STORAGE_LOCATION
Неожиданно обнаружено пустое место хранения для схемы "<schemaName>" в каталоге "<catalogName>". Убедитесь, что схема использует схему пути <validPathSchemesListStr>.
UC_SERVERLESS_UNTRUSTED_DOMAIN_STORAGE_TOKEN_MINTING
Бессерверным записным книжкам на Python и Scala запрещено получать временные учетные данные хранилища из каталога Unity в рабочих пространствах с ограниченным сетевым доступом.
UC_БАЗОВАЯ_ТАБЛИЦА_ДЛЯ_ПОВЕРХНОСТНОГО_КЛОНИРОВАНИЯ_УДАЛЕНА
Не удается получить доступ к неглубокому клону "<tableFullName>" из-за удаления базовой таблицы "<baseTableName>".
UC_STORAGE_CREDENTIALS_УДАЛЕНИЕ_ВНЕШНЕГО_РАСПОЛОЖЕНИЯ_ЗАПРЕТЕНО
Учетные данные хранилища '<credentialName>' имеют <extTablesCount> непосредственно зависимые внешние таблицы и <extLocationsCount> зависимые расположения хранилища. Вы можете использовать вариант принудительного удаления, но данные управляемого хранилища с использованием этих учетных данных хранения больше не могут быть удалены с помощью каталога Unity.
STORAGE_CREDENTIALSUC_С_ОТКАЗОМ_ОБНОВЛЕНИЯ_ВНЕШНЕЙ_ЛОКАЦИИ
Учетные данные хранилища "<credentialName>" имеют <extTablesCount> непосредственно зависимые внешние таблицы и <extLocationsCount> зависимые расположения хранилища; используйте параметр принудительного обновления в любом случае.
UC_STORAGE_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED
Не удалось проанализировать предоставленный идентификатор соединителя доступа: <accessConnectorId>. Проверьте форматирование и повторите попытку.
UC_STORAGE_CREDENTIAL_DBFS_ROOT_CREATION_PERMISSION_DENIED
Не удается создать учетные данные хранения для корневого каталога DBFS, так как пользователь: <userId> не является администратором рабочей области: <workspaceId>
UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_DBFS_ENABLED
Учетные данные корневого хранилища DBFS пока не поддерживаются для рабочих областей с поддержкой брандмауэра DBFS
UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_NOT_SUPPORTED
Учетные данные корневого хранилища DBFS для текущей рабочей области пока не поддерживаются
UC_STORAGE_CREDENTIAL_DBFS_ROOT_WORKSPACE_DISABLED
Корневой каталог DBFS не включен для рабочей области <workspaceId>
UC_STORAGE_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN
Не удалось получить маркер AAD для выполнения проверки разрешений облака в соединителе доступа. Повторите действие.
UC_STORAGE_CREDENTIAL_INVALID_CLOUD_PERMISSIONS
Для регистрации учетных данных хранилища требуется роль участника через соответствующий соединитель доступа с идентификатором <accessConnectorId>. Обратитесь к администратору учетной записи.
UC_STORAGE_CREDENTIAL_METASTORE_ROOT_DELETION_DENIED
Удаление учетных данных хранилища <credentialName> невозможно, поскольку они назначены как корневые учетные данные этого метахранилища. Перед попыткой удаления обновите корневые учетные данные хранилища метаданных.
UC_STORAGE_CREDENTIAL_PERMISSION_DENIED
Только администратор учетной записи может создавать или обновлять учетные данные хранения с типом <storageCredentialType>.
UC_STORAGE_CREDENTIAL_SERVICE_PRINCIPAL_MISSING_VALIDATION_TOKEN
Отсутствует маркер проверки для субъекта-службы. Пожалуйста, предоставьте действительный токен Entra ID для области ARM в заголовке запроса 'X-Databricks-Azure-SP-Management-Token' и повторите попытку. Дополнительные сведения см. в статье https://docs.databricks.com/api/workspace/storagecredentials
UC_STORAGE_CREDENTIAL_TRUST_POLICY_IS_OPEN
Политика доверия роли IAM, позволяющая учетной записи Databricks использовать роль, должна требовать наличия внешнего идентификатора. Пожалуйста, свяжитесь с администратором вашей учетной записи, чтобы добавить условие для внешнего идентификатора. Такое поведение направлено на защиту от проблемы «Смущённого заместителя» (https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html).
UC_STORAGE_CREDENTIAL_WASBS_NOT_DBFS_ROOT
Расположение <location> не находится в корневом каталоге DBFS, так как невозможно создать учетные данные хранилища. <storageCredentialName>
UC_STORAGE_CREDENTIAL_WORKSPACE_API_PROHIBITED
Создание или обновление учетных данных хранилища пользователем, не являющимся администратором учетной записи, не поддерживается в API уровня учетной записи. Вместо этого используйте API уровня рабочей области.
UC_STORAGE_CREDENTIAL_WS_BUCKET_INVALID_LOCATION
Расположение <requestedLocation> не находится внутри допустимого контекста <allowedLocation>
UC_STORAGE_CREDENTIAL_WS_INTERNAL_CATALOG_NOT_SUPPORTED
Учетные данные хранилища внутреннего каталога рабочей области для текущей рабочей области пока не поддерживаются
Схема системы UC недоступна для включения
Системная схема <systemSchema> в настоящее время недоступна для активации. Повторите попытку позже.
UC_SYSTEM_WORKSPACE_GROUP_PERMISSION_UNSUPPORTED
Не удается предоставить права на <securableType> системной созданной группе <principal>.
UC_TABLE_IS_LOCKED_FOR_CATALOG_MANAGED_TABLE_MIGRATION
Таблица "<tableId>" временно заблокирована для миграции таблицы, управляемой каталогом. Транзакции в этой таблице блокируются до завершения миграции. Повторите транзакцию в ближайшее время.
UC_TABLE_IS_NOT_CATALOG_OWNED
Запрос на выполнение операций фиксации или getCommits для таблицы "<tableId>" требует включения каталожного элемента, принадлежащего данной таблице.
UC_TAG_ASSIGNMENT_WITH_KEY_DOES_NOT_EXIST
Назначение тега с ключом <tagKey> не найдено
UC_TEMPORARY_CREDENTIAL_OPERATION_NOT_SUPPORTED
Операция с временными учетными данными не поддерживается.
UC_UNDROP_RESOURCE_ID_ALREADY_EXISTS
Не удается удалить "<resourceType>" потому, что "<resourceType>" с идентификатором "<resourceId>" уже существует.
UC_UNDROP_RESOURCE_NAME_ALREADY_EXISTS
Не удается удалить "<resourceType>", так как "<resourceType>" с именем "<resourceName>" уже существует.
UC_UNDROP_RESOURCE_NOT_READY
Не удается отменить удаление "<resourceType>", потому что "<resourceType>" с идентификатором "<resourceId>" не готов к восстановлению, повторите попытку позже.
ОШИБКА_ВОССТАНОВЛЕНИЯ_РЕСУРСА_ПОСЛЕ_ПЕРИОДА_ХРАНЕНИЯ
Невозможно восстановить '<resourceType>', потому что '<resourceType>' с идентификатором '<resourceId>' выходит за рамки настраиваемого периода его восстановления.
UC_UNDROP_RESOURCE_PAST_RECOVERABLE_WINDOW
Не удается удалить "<resourceType>", так как "<resourceType>" с идентификатором "<resourceId>" выходит за рамки поддерживаемого периода восстановления "<maxRestorationPeriodDay>" дней.
UC_ОГРАНИЧЕНИЕ_УНИКАЛЬНОСТИ_ДОЧЕРНИЕ_СТОЛБЦЫ_УЖЕ_СУЩЕСТВУЮТ
Не удалось создать ограничение UNIQUE<newConstraintName>: таблица <tableName> уже имеет ограничение UNIQUE: <existingConstraintName>, которое имеет тот же набор дочерних столбцов.
UC_UNIQUE_CONSTRAINT_NOT_SUPPORTED
Не удалось работать с UNIQUE ограничением <constraintName>: UNIQUE ограничение не включено.
UC_UNSUPPORTED_HTTP_CONNECTION_BASE_PATH
Указан недопустимый базовый путь, базовый путь должен иметь вид /api/resources/v1. Неподдерживаемый путь: <path>
UC_UNSUPPORTED_HTTP_CONNECTION_HOST
Недопустимое имя узла предоставлено, имя узла должно быть наподобие https://www.databricks.com без суффикса пути. Неподдерживаемый узел: <host>
UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH
Во внешних расположениях, объемах и путях к таблицам поддерживаются только базовые латинские или латинские-1 ASCII символы. Неподдерживаемый путь: <path>
UC_UPDATE_FORBIDDEN_FOR_PROVISIONING_SECURABLE
Невозможно обновить <securableType> "<securableName>", так как он находится в процессе подготовки.
UC_USING_REF_OF_MASKED_COLUMNS
Ошибка при оценке политик ABAC для '<resource>'. Сбой сообщения: столбец "<usingCol>" был маскирован политикой ABAC и<existingMaskingPolicy> не может использоваться в политике "<policyName>".
UC_WRITE_CONFLICT
<type> <name> был изменен другим запросом. Повторите операцию.
UNDROP_TABLE_NOT_FOUND
Не удается удалить таблицу, так как таблица с именем <tableFullName> не соответствует undrop. Эта таблица может быть уже отключена, удалена за пределы максимального периода восстановления или никогда не существовала.
UNITY_CATALOG_EXTERNAL_COORDINATED_COMMITS_REQUEST_DENIED
Запрос на выполнение фиксации или getCommits для таблицы "<tableId>" за пределами включенной вычислительной среды каталога Databricks Unity отклонен по соображениям безопасности. Обратитесь в службу поддержки Databricks для интеграции с каталогом Unity.
UNITY_CATALOG_EXTERNAL_CREATE_STAGING_TABLE_REQUEST_DENIED
Запрос на создание промежуточной таблицы "<tableFullName>" вне вычислительной среды с включенным каталогом Databricks Unity запрещен по соображениям безопасности. Обратитесь в службу поддержки Databricks для интеграции с каталогом Unity.
COLUMN_MASKSUNITY_CATALOG_EXTERNAL_CREATE_TABLE_FAILED_VALIDATION__DEFINED
Запрос на создание таблицы "<tableFullName>" из-за пределов включенной вычислительной среды каталога Databricks Unity запрещен. Маски столбцов не поддерживаются при создании таблиц внешне.
UNITY_CATALOG_EXTERNAL_CREATE_TABLE_FAILED_VALIDATION_DATA_SOURCE_FORMAT_NOT_DELTA
Запрос на создание таблицы "<tableFullName>" из-за пределов включенной вычислительной среды каталога Databricks Unity запрещен. Формат источника данных должен быть DELTA для внешнего создания таблицы, но сейчас он "<dataSourceFormat>".
UNITY_CATALOG_EXTERNAL_CREATE_TABLE_FAILED_VALIDATION_ТИП_ТАБЛИЦЫ_НЕ_ЭКСТЕРНАЛЬНЫЙ
Запрос на создание таблицы "<tableFullName>" из-за пределов включенной вычислительной среды каталога Databricks Unity запрещен. Для внешнего создания таблицы тип должен быть EXTERNAL, вместо этого установлен '<tableType>'.
UNITY_CATALOG_EXTERNAL_CREATE_TABLE_INFO_СОДЕРЖИТ_НЕДОПУСТИМЫЕ_ПОЛЯ
Создание внешней таблицы разрешает только эти поля: [имя, catalog_name, schema_name, table_type, data_source_format, столбцы, storage_location и свойства].
UNITY_CATALOG_EXTERNAL_CREATE_TABLE_REQUEST_FOR_NON_EXTERNAL_TABLE_DENIED
Запрос на создание не внешней таблицы "<tableFullName>" из-за пределов включенной вычислительной среды каталога Databricks Unity запрещен для обеспечения безопасности. Обратитесь в службу поддержки Databricks для интеграции с каталогом Unity.
UNITY_CATALOG_EXTERNAL_DELETE_TABLE_REQUEST_FOR_NON_EXTERNAL_TABLE_DENIED
Запрос на удаление не внешней таблицы "<tableFullName>" из-за пределов включенной вычислительной среды каталога Databricks Unity не поддерживается.
UNITY_CATALOG_EXTERNAL_GENERATE_PATH_CREDENTIALS_DENIED
Запрос на создание учетных данных доступа для пути "<path>" из-за пределов включенной вычислительной среды каталога Databricks Unity запрещен для обеспечения безопасности. Обратитесь в службу поддержки Databricks для интеграции с каталогом Unity.
UNITY_CATALOG_EXTERNAL_GENERATE_TABLE_CREDENTIALS_DENIED
Запрос на создание учетных данных доступа для таблицы "<tableId>" из-за пределов включенной вычислительной среды каталога Databricks Unity запрещен для обеспечения безопасности. Обратитесь в службу поддержки Databricks для интеграции с каталогом Unity.
UNITY_CATALOG_EXTERNAL_GENERATE_TEMP_PATH_CRED_FAILED_VALIDATION_CREDENTIAL_ID_DEFINED
Запрос на создание учетных данных временного доступа из внешней вычислительной среды с включенной поддержкой каталога Databricks Unity отклонен. Идентификатор учетных данных не должен быть определен при создании учетных данных временного пути внешним образом.
UNITY_CATALOG_EXTERNAL_GENERATE_TEMP_PATH_CRED_FAILED_VALIDATION_MAKE_PATH_ONLY_PARENT_DEFINED
Запрос на создание учетных данных временного доступа из внешней вычислительной среды с включенной поддержкой каталога Databricks Unity отклонен. make_path_only_parent не должно быть определено при внешнем создании учетных данных для временного пути.
UNITY_CATALOG_EXTERNAL_GENERATE_VOLUME_CREDENTIALS_DENIED
Запрос на создание учетных данных доступа для тома "<volumeId>" из-за пределов включенной вычислительной среды каталога Databricks Unity запрещен для обеспечения безопасности. Обратитесь в службу поддержки Databricks для интеграции с каталогом Unity.
UNITY_CATALOG_EXTERNAL_GENERATE_VOLUME_CREDENTIALS_FOR_SECURABLE_KIND_NOT_SUPPORTED
Запрос на создание учетных данных доступа для "<volumeSecurableKind>" из-за пределов включенной вычислительной среды каталога Databricks Unity запрещен для обеспечения безопасности. Обратитесь в службу поддержки Databricks для интеграции с каталогом Unity.
UNITY_CATALOG_EXTERNAL_GET_FOREIGN_CREDENTIALS_DENIED
Запрос на получение внешних учетных данных для защищаемых объектов из-за пределов включенной вычислительной среды каталога Databricks Unity запрещен для обеспечения безопасности.
UNITY_CATALOG_EXTERNAL_UPDATA_METADATA_SNAPSHOT_DENIED
Запрос на обновление моментальных снимков метаданных вне вычислительной среды с поддержкой Databricks Unity Catalog отклонён в целях безопасности.
НЕПОДДЕРЖИВАЕМАЯ_СХЕМА_РАСПОЛОЖЕНИЯ
<fieldName> имеет недопустимую схему <scheme>URI. Допустимые схемы URI включают <validSchemes>. Недопустимый путь: <path>.
UPDATE_SYSTEM_TABLE
Изменение таблицы, принадлежащей системе, невозможно. Таблица '<tableName>' — это системная таблица.
WRITE_CREDENTIALS_NOT_SUPPORTED_FOR_LEGACY_MANAGED_ONLINE_TABLE
Недопустимый запрос на получение учетных данных записи для управляемой интерактивной таблицы в онлайн-каталоге.
API файлов
FILES_API_API_IS_NOT_ENABLED
SQLSTATE: не присвоено
<api_name> API не включен
FILES_API_API_IS_NOT_ENABLED_FOR_CLOUD_PATHS
SQLSTATE: не присвоено
Запрошенный метод API файлов не поддерживается для облачных путей
FILES_API_AWS_ACCESS_DENIED
SQLSTATE: не присвоено
Доступ к контейнеру хранилища запрещен AWS.
FILES_API_AWS_ALL_ACCESS_DISABLED
SQLSTATE: не присвоено
Весь доступ к контейнеру хранилища отключен в AWS.
FILES_API_AWS_BUCKET_DOES_NOT_EXIST
SQLSTATE: не присвоено
Ведро хранения не существует в облачном сервисе AWS.
FILES_API_AWS_FORBIDDEN
SQLSTATE: не присвоено
Доступ к контейнеру хранилища запрещен AWS.
FILES_API_AWS_INVALID_AUTHORIZATION_HEADER
SQLSTATE: не присвоено
Рабочая область неправильно настроена: она должна находиться в том же регионе, что и контейнер корневого хранилища рабочей области AWS.
FILES_API_AWS_INVALID_BUCKET_NAME
SQLSTATE: не присвоено
Недопустимое имя контейнера хранилища.
FILES_API_AWS_KMS_KEY_DISABLED
SQLSTATE: не присвоено
Настроенные ключи KMS для доступа к контейнеру хранилища отключены в AWS.
FILES_API_AWS_UNAUTHORIZED
SQLSTATE: не присвоено
Доступ к ресурсу AWS не несанкционированен.
FILES_API_AZURE_ACCOUNT_IS_DISABLED
SQLSTATE: не присвоено
Учетная запись хранения отключена в Azure.
FILES_API_AZURE_AUTHORIZATION_PERMISSION_MISMATCH
SQLSTATE: не присвоено
Несоответствие разрешений авторизации.
FILES_API_AZURE_CMK_NOT_FOUND
SQLSTATE: не присвоено
Не удается найти управляемый ключ шифрования.
FILES_API_AZURE_CMK_SOFT_DELETED
SQLSTATE: не присвоено
Управляемый ключ шифрования был обратимо удален.
FILES_API_AZURE_CONTAINER_DOES_NOT_EXIST
SQLSTATE: не присвоено
Контейнер Azure не существует.
FILES_API_AZURE_CREDENTIAL_NOT_FOUND (учётные данные Azure не найдены)
SQLSTATE: не присвоено
Учетные данные Azure не найдены. Учетные данные Azure могут отсутствовать или быть недоступными.
FILES_API_AZURE_FORBIDDEN
SQLSTATE: не присвоено
Доступ к контейнеру хранилища запрещен Azure.
FILES_API_AZURE_HAS_A_LEASE
SQLSTATE: не присвоено
Azure ответила, что в настоящее время есть аренда ресурса. Повторите попытку позже.
FILES_API_AZURE_INSUFFICIENT_ACCOUNT_PERMISSION
SQLSTATE: не присвоено
Доступ к учетной записи не имеет достаточных разрешений для выполнения этой операции.
FILES_API_AZURE_INVALID_STORAGE_ACCOUNT_CONFIGURATION
SQLSTATE: не присвоено
Конфигурация доступа к учетной записи не поддерживается.
FILES_API_AZURE_INVALID_STORAGE_ACCOUNT_NAME
SQLSTATE: не присвоено
Не удается получить доступ к учетной записи хранения в Azure: недопустимое имя учетной записи хранения.
FILES_API_AZURE_KEY_BASED_AUTHENTICATION_NOT_PERMITTED
SQLSTATE: не присвоено
Хранилище ключей не найдено в Azure. Проверьте параметры ключей, управляемых клиентом.
FILES_API_AZURE_KEY_VAULT_KEY_NOT_FOUND
SQLSTATE: не присвоено
Ключ хранилища ключей Azure не найден в Azure. Проверьте параметры ключей, управляемых клиентом.
FILES_API_AZURE_KEY_VAULT_VAULT_NOT_FOUND
SQLSTATE: не присвоено
Хранилище ключей не найдено в Azure. Проверьте параметры ключей, управляемых клиентом.
FILES_API_AZURE_MI_ACCESS_CONNECTOR_NOT_FOUND
SQLSTATE: не присвоено
Учетные данные управляемой идентичности Azure с коннектором доступа не найдены. Это может быть связано с тем, что элементы управления доступом к IP-адресам отклонили запрос.
FILES_API_AZURE_OPERATION_TIMEOUT
SQLSTATE: не присвоено
Операция не может быть выполнена в течение допустимого времени.
FILES_API_AZURE_PATH_INVALID
SQLSTATE: не присвоено
Запрошенный путь недопустим для Azure.
FILES_API_AZURE_PATH_IS_IMMUTABLE
SQLSTATE: не присвоено
Запрошенный путь неизменяем.
FILES_API_AZURE_UNSUPPORTED_HEADER
SQLSTATE: не присвоено
Один из заголовков, указанных в операции, не поддерживается.
FILES_API_CANNOT_PARSE_URL_PARAMETER
SQLSTATE: не присвоено
Невозможно проанализировать параметр URL-адреса.
FILES_API_CATALOG_NOT_FOUND
SQLSTATE: не присвоено
<unity_catalog_error_message>
FILES_API_CLOUD_RESOURCE_EXHAUSTED
SQLSTATE: не присвоено
<message>
FILES_API_CLOUD_STORAGE_PROVIDER_CONNECTION_ISSUE
SQLSTATE: не присвоено
Возникла проблема с подключением к <cloud_storage_provider>. Повторите попытку позже.
FILES_API_COLON_IS_NOT_SUPPORTED_IN_PATH
SQLSTATE: не присвоено
Символ ":" не поддерживается в путях
FILES_API_CONSUMER_NETWORK_ZONE_NOT_ALLOWED
SQLSTATE: не присвоено
Зона сетей потребителей "<consumer_network_zone>" не разрешена в зоне сети запрашивающего пользователя "<requester_network_zone>".
FILES_API_CONTROL_PLANE_NETWORK_ZONE_NOT_ALLOWED
SQLSTATE: не присвоено
Сетевая зона управляющей плоскости Databricks не разрешена.
FILES_API_CREDENTIAL_NOT_FOUND
SQLSTATE: не присвоено
Учетные данные не найдены.
FILES_API_DIRECTORIES_CANNOT_HAVE_BODIES
SQLSTATE: не присвоено
Было предоставлено содержимое, но директории не могут иметь содержимое файла.
FILES_API_DIRECTORY_IS_NOT_EMPTY
SQLSTATE: не присвоено
Каталог не пуст. Эта операция не поддерживается в непустых каталогах.
FILES_API_DIRECTORY_IS_NOT_FOUND
SQLSTATE: не присвоено
Каталог не найден.
ОГРАНИЧЕНИЕ НА КОЛИЧЕСТВО ФАЙЛОВ ПРИ СКАЧИВАНИИ ZIP АРХИВА ПРЕВЫШЕНО
SQLSTATE: не присвоено
Каталог содержит слишком много файлов для скачивания ZIP-файла. Максимально допустимые <max_file_count> файлы.
FILES_API_DMK_ENCRYPTION_ROOT_KEY_DISABLED
SQLSTATE: не присвоено
Корневой ключ для шифрования, управляемого клиентом, отключен.
FILES_API_DUPLICATED_HEADER
SQLSTATE: не присвоено
Запрос содержал несколько копий заголовка, разрешенного только один раз.
FILES_API_DUPLICATE_QUERY_PARAMETER
SQLSTATE: не присвоено
Параметр запроса "<parameter_name>" должен присутствовать ровно один раз, но был предоставлен несколько раз.
FILES_API_EMPTY_BUCKET_NAME
SQLSTATE: не присвоено
Имя контейнера DBFS пусто.
FILES_API_ENCRYPTION_KEY_PERMISSION_DENIED
SQLSTATE: не присвоено
У пользователя нет доступа к ключу шифрования.
FILES_API_ENCRYPTION_KEY_RETRIEVAL_OPERATION_TIMEOUT
SQLSTATE: не присвоено
Операция извлечения ключа шифрования не может быть выполнена в течение допустимого времени.
FILES_API_ENTITY_TOO_LARGE
SQLSTATE: не присвоено
Объект превышает максимальный допустимый размер объекта.
FILES_API_ERROR_EXPIRED_TTL
SQLSTATE: не присвоено
TTL истек.
FILES_API_ERROR_INVALID_TTL
SQLSTATE: не присвоено
TTL недопустим.
FILES_API_ERROR_KEY_FOR_WORKSPACE_IS_NOT_FOUND
SQLSTATE: не присвоено
Ключ рабочей области не найден.
FILES_API_ERROR_MISSING_REQUIRED_PARAM
SQLSTATE: не присвоено
URL-адрес отсутствует обязательный параметр.
FILES_API_ERROR_TTL_IN_THE_FUTURE
SQLSTATE: не присвоено
TTL находится в будущем.
FILES_API_ERROR_URL_INVALID_ISSUER_SHARD_NAME
SQLSTATE: не присвоено
Недопустимое имя шарда издателя.
FILES_API_EXPIRATION_TIME_MUST_BE_PRESENT
SQLSTATE: не присвоено
Время истечения срока должно быть указано
FILES_API_EXPIRED_TOKEN
SQLSTATE: не присвоено
Срок действия предоставленного маркера истек.
FILES_API_EXPIRE_TIME_MUST_BE_IN_THE_FUTURE
SQLSTATE: не присвоено
Время истечения срока должно быть в будущем
FILES_API_EXPIRE_TIME_TOO_FAR_IN_FUTURE
SQLSTATE: не присвоено
Запрошенный срок жизни больше, чем поддерживается (1 час)
FILES_API_EXTERNAL_LOCATION_PATH_OVERLAP_OTHER_UC_STORAGE_ENTITY
SQLSTATE: не присвоено
<unity_catalog_error_message>
FILES_API_FILE_ALREADY_EXISTS
SQLSTATE: не присвоено
Созданный файл уже существует.
FILES_API_FILE_NOT_FOUND
SQLSTATE: не присвоено
Файл не найден.
FILES_API_FILE_OR_DIRECTORY_ENDS_IN_DOT
SQLSTATE: не присвоено
Файлы или каталоги, заканчивающиеся символом "." не поддерживаются.
FILES_API_FILE_SIZE_EXCEEDED
SQLSTATE: не присвоено
Размер файла не должен превышать <max_download_size_in_bytes> байт, но обнаружено <size_in_bytes> байт.
FILES_API_GCP_ACCOUNT_IS_DISABLED
SQLSTATE: не присвоено
Доступ к контейнеру хранилища отключен в GCP.
FILES_API_GCP_BUCKET_DOES_NOT_EXIST
SQLSTATE: не присвоено
Контейнер хранилища не существует в GCP.
FILES_API_GCP_FORBIDDEN
SQLSTATE: не присвоено
Доступ к контейнеру запрещен GCP.
FILES_API_GCP_IAM_AUTHENTICATION_FAILURE
SQLSTATE: не присвоено
Сбой проверки подлинности для операции GCP IAM.
FILES_API_GCP_IAM_CREDENTIALS_NOT_FOUND
SQLSTATE: не присвоено
Указанные учетные данные GCP не существуют или не могут быть доступны.
FILES_API_GCP_IAM_PERMISSION_DENIED
SQLSTATE: не присвоено
Разрешение запрещено для операции GCP IAM.
FILES_API_GCP_KEY_DELETED
SQLSTATE: не присвоено
Ключ шифрования удален или больше недоступен.
FILES_API_GCP_KEY_DISABLED_OR_DESTROYED
SQLSTATE: не присвоено
Ключ шифрования, управляемый клиентом, настроенный для этого расположения, отключен или уничтожен.
FILES_API_GCP_REQUEST_IS_PROHIBITED_BY_POLICY
SQLSTATE: не присвоено
Запросы GCP к бакету запрещены политикой, проверьте ограничения службы VPC.
ПРОБЛЕМА_УЧЕТНОЙ_ЗАПИСИ_ПОЛЬЗОВАТЕЛЯ_ПРОЕКТА_GCP_API_FAYLY
SQLSTATE: не присвоено
Существует проблема с проектом GCP, используемым в запросе, который предотвращает успешное завершение операции.
FILES_API_HOST_TEMPORARILY_NOT_AVAILABLE
SQLSTATE: не присвоено
Узел поставщика облачных услуг временно недоступен; повторите попытку позже.
FILES_API_INVALID_CONTENT_LENGTH
SQLSTATE: не присвоено
Значение заголовка длины содержимого должно быть целым числом, превышающим или равным 0.
FILES_API_INVALID_CONTINUATION_TOKEN
SQLSTATE: не присвоено
Предоставленный маркер страницы недопустим.
FILES_API_INVALID_HEADER_VALUE
SQLSTATE: не присвоено
Недопустимое значение заголовка<header_name>.
FILES_API_INVALID_HOSTNAME
SQLSTATE: не присвоено
Недопустимое имя узла.
FILES_API_INVALID_HTTP_METHOD
SQLSTATE: не присвоено
Недопустимый метод http. Ожидаемое "<expected>", но получено "<actual>".
FILES_API_INVALID_METASTORE_ID_HEADER
SQLSTATE: не присвоено
Недопустимый заголовок идентификатора хранилища метаданных.
FILES_API_INVALID_PAGE_TOKEN
SQLSTATE: не присвоено
Недопустимый маркер страницы
FILES_API_INVALID_PATH
SQLSTATE: не присвоено
Недопустимый путь: <validation_error>
FILES_API_INVALID_RANGE
SQLSTATE: не присвоено
Заголовок диапазона является недопустимым.
FILES_API_INVALID_RESOURCE_FULL_NAME
SQLSTATE: не присвоено
<unity_catalog_error_message>
FILES_API_INVALID_SESSION_TOKEN
SQLSTATE: не присвоено
Недопустимый токен сеанса
FILES_API_INVALID_SESSION_TOKEN_TYPE
SQLSTATE: не присвоено
Недопустимый тип токена сеанса. Ожидаемое "<expected>", но получено "<actual>".
FILES_API_INVALID_TIMESTAMP
SQLSTATE: не присвоено
Отметка времени неверна.
FILES_API_INVALID_UPLOAD_TYPE
SQLSTATE: не присвоено
Недопустимый тип отправки. Ожидаемое "<expected>", но получено "<actual>".
FILES_API_INVALID_URL (Недопустимый URL-адрес API файлов)
SQLSTATE: не присвоено
Неверный URL
FILES_API_INVALID_URL_PARAMETER
SQLSTATE: не присвоено
URL-адрес, переданный в качестве параметра, недопустим
FILES_API_INVALID_VALUE_FOR_OVERWRITE_QUERY_PARAMETER
SQLSTATE: не присвоено
Параметр запроса "overwrite" должен быть одним из следующих: true, false, но является: <got_values>
FILES_API_INVALID_VALUE_FOR_QUERY_PARAMETER
SQLSTATE: не присвоено
Параметр запроса "<parameter_name>" должен быть одним из следующих: <expected>, но был: <actual>
FILES_API_MALFORMED_REQUEST_BODY
SQLSTATE: не присвоено
Неправильно сформированный текст запроса
FILES_API_MANAGED_CATALOG_FEATURE_DISABLED
SQLSTATE: не присвоено
<unity_catalog_error_message>
FILES_API_METASTORE_NOT_FOUND
SQLSTATE: не присвоено
<unity_catalog_error_message>
FILES_API_METHOD_IS_NOT_ENABLED_FOR_JOBS_BACKGROUND_COMPUTE_ARTIFACT_STORAGE
SQLSTATE: не присвоено
Запрошенный метод API файлов не поддерживается для хранения артефактов при фоновой обработке заданий.
FILES_API_MISSING_CONTENT_LENGTH
SQLSTATE: не присвоено
Заголовок длины содержимого обязателен в запросе.
FILES_API_MISSING_QUERY_PARAMETER
SQLSTATE: не присвоено
Параметр запроса "<parameter_name>" является обязательным, но отсутствует в запросе.
FILES_API_MISSING_REQUIRED_PARAMETER_IN_REQUEST
SQLSTATE: не присвоено
В запросе отсутствует обязательный параметр.
FILES_API_MLFLOW_PERMISSION_DENIED
SQLSTATE: не присвоено
<mlflow_error_message>
FILES_API_MLFLOW_RESOURCE_EXHAUSTED
SQLSTATE: не присвоено
Превышен лимит запросов при обращении к службе mlflow.
FILES_API_MODEL_VERSION_IS_NOT_READY
SQLSTATE: не присвоено
Версия модели еще не готова
FILES_API_MULTIPART_UPLOAD_ABORT_PRESIGNED_URL_NOT_SUPPORTED
SQLSTATE: не присвоено
Подписанные URL-адреса для прерывания многопартийных загрузок не поддерживаются для файлов, хранящихся в <cloud_storage_provider>.
FILES_API_MULTIPART_UPLOAD_ABORT_UPLOAD_NOT_SUPPORTED
SQLSTATE: не присвоено
Прерывание многопартийной отправки не поддерживается для файлов, хранящихся в <cloud_storage_provider>.
FILES_API_MULTIPART_UPLOAD_EMPTY_PART_LIST
SQLSTATE: не присвоено
Список частей должен иметь по крайней мере один элемент, но был пустым.
FILES_API_MULTIPART_UPLOAD_INVALID_PART
SQLSTATE: не присвоено
Не удалось найти одну или несколько указанных частей. Часть могла не быть отправлена, или указанный тег сущности может не совпадать с тегом сущности части.
FILES_API_MULTIPART_UPLOAD_INVALID_PART_NUMBER
SQLSTATE: не присвоено
Номера частей должны быть больше или равны <min> и меньше или равны <max>.
FILES_API_MULTIPART_UPLOAD_MISSING_ETAG
SQLSTATE: не присвоено
ETags должны быть предоставлены для файлов, хранящихся в <cloud_storage_provider>. По крайней мере один ETag не был предоставлен или пуст.
FILES_API_MULTIPART_UPLOAD_MODIFIED_STORAGE_ENTITY_STATE
SQLSTATE: не присвоено
Внутреннее состояние сущности хранилища было изменено с момента начала отправки, например, так как путь к файлу не указывает на то же базовое расположение облачного хранилища. Продолжайте, начав новый сеанс загрузки.
FILES_API_MULTIPART_UPLOAD_NON_TRAILING_PARTS_WITH_DIFFERENT_SIZES
SQLSTATE: не присвоено
Части, отправленные в рамках многопартийного сеанса отправки, должны иметь одинаковый размер для файлов, хранящихся на <cloud_storage_provider>, за исключением последней части, которая может быть меньше.
FILES_API_MULTIPART_UPLOAD_PART_SIZE_OUT_OF_RANGE
SQLSTATE: не присвоено
Размер частей, отправленных в рамках сеанса многопартийной загрузки, должен иметь размер более или равный <min> и менее или равный <max>.
FILES_API_MULTIPART_UPLOAD_SESSION_NOT_FOUND
SQLSTATE: не присвоено
Сеанс отправки не найден. Возможно, она была прервана или завершена.
FILES_API_MULTIPART_UPLOAD_UNORDERED_PART_LIST
SQLSTATE: не присвоено
Список частей должен быть упорядочен номером части, но был неупорядочен.
FILES_API_NON_ZERO_CONTENT_LENGTH
SQLSTATE: не присвоено
Заголовок длины содержимого должен быть равен нулю для этого запроса.
FILES_API_NOT_ENABLED_FOR_PLACE
SQLSTATE: не присвоено
API файлов для <place> не включено для этой рабочей области или учетной записи.
FILES_API_NOT_SUPPORTED_FOR_INTERNAL_WORKSPACE_STORAGE
SQLSTATE: не присвоено
Запрошенный метод API файлов не поддерживается для внутреннего хранилища рабочих областей
FILES_API_OPERATION_MUST_BE_PRESENT
SQLSTATE: не присвоено
операция должна присутствовать
FILES_API_OPERATION_TIMEOUT
SQLSTATE: не присвоено
Время ожидания операции истекло.
FILES_API_PAGE_SIZE_MUST_BE_GREATER_OR_EQUAL_TO_ZERO
SQLSTATE: не присвоено
page_size должно быть больше или равно 0
ДОСТУП_К_ТАБЛИЦЕ_С_ФИЛЬТРАМИ_ПО_ПУТИ_FILES_API_НЕ_РАЗРЕШЁН
SQLSTATE: не присвоено
<unity_catalog_error_message>
FILES_API_PATH_END_WITH_A_SLASH
SQLSTATE: не присвоено
Пути, заканчивающиеся символом "/", представляют каталоги. Этот API не поддерживает операции с каталогами.
FILES_API_PATH_IS_A_DIRECTORY
SQLSTATE: не присвоено
Заданный путь указывает на существующий каталог. Этот API не поддерживает операции с каталогами.
FILES_API_PATH_IS_A_FILE
SQLSTATE: не присвоено
Заданный путь указывает на существующий файл. Этот API не поддерживает операции с файлами.
FILES_API_PATH_IS_NOT_A_VALID_UTF8_ENCODED_URL
SQLSTATE: не присвоено
Указанный путь не является допустимым URL-адресом в кодировке UTF-8.
FILES_API_PATH_IS_NOT_ENABLED_FOR_DATAPLANE_PROXY
SQLSTATE: не присвоено
Заданный путь не активирован для прокси-сервера сетевого уровня.
FILES_API_PATH_MUST_BE_PRESENT
SQLSTATE: не присвоено
Путь должен быть указан
FILES_API_PATH_NOT_SUPPORTED
SQLSTATE: не присвоено
<rejection_message>
FILES_API_PATH_TOO_LONG
SQLSTATE: не присвоено
Предоставленный путь к файлу слишком длинный.
FILES_API_PRECONDITION_FAILED
SQLSTATE: не присвоено
Запрос завершился ошибкой из-за несоответствия предварительному условию.
FILES_API_PRESIGNED_URLS_FOR_MODELS_NOT_SUPPORTED
SQLSTATE: не присвоено
В данный момент API для файлов с предварительно подписанными URL-ами для моделей не поддерживается.
FILES_API_R2_CREDENTIALS_DISABLED
SQLSTATE: не присвоено
На данный момент R2 не поддерживается.
FILES_API_RANGE_NOT_SATISFIABLE
SQLSTATE: не присвоено
Запрошенный диапазон не удовлетворяется.
FILES_API_RECURSIVE_LIST_IS_NOT_SUPPORTED
SQLSTATE: не присвоено
Рекурсивно перечисление файлов не поддерживается.
FILES_API_REQUESTER_NETWORK_ZONE_UNKNOWN
SQLSTATE: не присвоено
Не удается определить сетевую зону запрашивающего сервера.
FILES_API_REQUEST_GOT_ROUTED_INCORRECTLY
SQLSTATE: не присвоено
Запрос перенаправился неправильно
FILES_API_REQUEST_MUST_INCLUDE_ACCOUNT_INFORMATION
SQLSTATE: не присвоено
Запрос должен содержать сведения об учетной записи
ЗАПРОС FILES_API ДОЛЖЕН ВКЛЮЧАТЬ ИНФОРМАЦИЮ О ПОЛУЧАТЕЛЕ
SQLSTATE: не присвоено
Запрос должен содержать сведения о получателе.
FILES_API_REQUEST_MUST_INCLUDE_USER_INFORMATION
SQLSTATE: не присвоено
Запрос должен содержать сведения о пользователе
FILES_API_REQUEST_MUST_INCLUDE_WORKSPACE_INFORMATION
SQLSTATE: не присвоено
Запрос должен содержать сведения о рабочей области
FILES_API_RESOURCE_IS_READONLY
SQLSTATE: не присвоено
Ресурс доступен только для чтения.
FILES_API_RESOURCE_NOT_FOUND
SQLSTATE: не присвоено
<unity_catalog_error_message>
FILES_API_SCHEMA_NOT_FOUND
SQLSTATE: не присвоено
<unity_catalog_error_message>
FILES_API_SECURE_URL_CANT_BE_ACCESSED
SQLSTATE: не присвоено
Доступ к URL-адресу невозможно.
FILES_API_SIGNATURE_VERIFICATION_FAILED
SQLSTATE: не присвоено
Сбой проверки подписи.
FILES_API_STORAGE_ACCESS_CONTEXT_INVALID
SQLSTATE: не присвоено
Недопустимый контекст доступа к хранилищу.
FILES_API_STORAGE_CONTEXT_IS_NOT_SET
SQLSTATE: не присвоено
Конфигурация хранилища для этой рабочей области недоступна.
FILES_API_STORAGE_CREDENTIAL_NOT_FOUND
SQLSTATE: не присвоено
<unity_catalog_error_message>
FILES_API_TABLE_TYPE_NOT_SUPPORTED
SQLSTATE: не присвоено
API файлов не поддерживается для <table_type>
FILES_API_UC_AUTHENTICATION_FAILURE
SQLSTATE: не присвоено
<unity_catalog_error_message>
FILES_API_UC_IAM_ROLE_NON_SELF_ASSUMING
SQLSTATE: не присвоено
<unity_catalog_error_message>
FILES_API_UC_MODEL_INVALID_STATE
SQLSTATE: не присвоено
<unity_catalog_error_message>
FILES_API_UC_PERMISSION_DENIED
SQLSTATE: не присвоено
<unity_catalog_error_message>
FILES_API_UC_RESOURCE_EXHAUSTED
SQLSTATE: не присвоено
<message>
FILES_API_UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH
SQLSTATE: не присвоено
<unity_catalog_error_message>
FILES_API_UC_VOLUME_NAME_CHANGED
SQLSTATE: не присвоено
<unity_catalog_error_message>
ФАЙЛЫ_API_НЕ_МОГУТ_ОБНОВИТЬ_УПРАВЛЯЕМЫЕ_ИДЕНТИЧНОСТИ_AZURE
SQLSTATE: не присвоено
Не удалось обновить управляемое удостоверение Azure.
FILES_API_UNEXPECTED_ERROR_WHILE_PARSING_URI
SQLSTATE: не присвоено
Непредвиденная ошибка при анализе URI
FILES_API_UNEXPECTED_QUERY_PARAMETERS
SQLSTATE: не присвоено
Непредвиденные параметры запроса: <unexpected_query_parameters>
FILES_API_UNKNOWN_METHOD
SQLSTATE: не присвоено
Неизвестный метод <method>
FILES_API_UNKNOWN_SERVER_ERROR
SQLSTATE: не присвоено
Неизвестная ошибка сервера.
FILES_API_UNKNOWN_URL_HOST
SQLSTATE: не присвоено
Хост URL-адреса неизвестен.
FILES_API_UNSUPPORTED_AUTHENTICATION_METHOD
SQLSTATE: не присвоено
Запрос не прошел проверку подлинности успешно.
FILES_API_UNSUPPORTED_HTTP_METHOD
SQLSTATE: не присвоено
HttpMethod не поддерживается.
FILES_API_UNSUPPORTED_PARAMETERS_COMBINATION
SQLSTATE: не присвоено
Сочетание параметров не поддерживается.
FILES_API_UNSUPPORTED_PATH
SQLSTATE: не присвоено
Предоставленный путь не поддерживается API файлов. Убедитесь, что указанный путь не содержит вхождений последовательностей '../' или './'. Убедитесь, что указанный путь не использует несколько последовательных косых черт (например, "///").
FILES_API_UPLOAD_PART_URLS_COUNT_MUST_BE_GREATER_THAN_ZERO
SQLSTATE: не присвоено
Входной параметр count должен превышать 0.
FILES_API_URL_GENERATION_DISABLED
SQLSTATE: не присвоено
Создание предварительно заданных URL-адресов не включено для <cloud>.
FILES_API_VOLUME_TYPE_NOT_SUPPORTED
SQLSTATE: не присвоено
API файлов не поддерживается для <volume_type>.
FILES_API_WORKSPACE_IS_CANCELED
SQLSTATE: не присвоено
Рабочая область была отменена.
FILES_API_WORKSPACE_IS_NOT_FOUND
SQLSTATE: не присвоено
Конфигурация хранилища для этой рабочей области недоступна.
Декларативные конвейеры Spark Lakeflow
ПОЛИТИКИ_ABAC_НЕ_ПОДДЕРЖИВАЮТСЯ
Политики ABAC не поддерживаются в таблицах, определенных в конвейере.
Удалите политики или обратитесь в службу поддержки Databricks.
АБНОРМАЛЬНОЕ ЗАВЕРШЕНИЕ ДРАЙВЕРА
Драйвер в кластере <clusterId> завершился ненормально из-за <terminationCause>. Дополнительные сведения см. в журналах драйверов.
ACTIVE_UPDATE_EXISTS_FOR_LINKED_PIPELINE
Активное обновление '<updateId>' уже существует для связанного потока '<linkedPipelineId>'.
ACTIVE_UPDATE_EXISTS_FOR_PIPELINE
Активное обновление "<updateId>" уже существует для конвейера "<pipelineId>".
ALTER_NOT_ALLOWED_FOR_PIPELINE_TABLE
ALTER не допускается для таблиц, управляемых с помощью a
Дополнительные сведения см. в ALTER_NOT_ALLOWED_FOR_PIPELINE_TABLE
ALTER_SCHEDULE_SCHEDULE_DOES_NOT_EXIST
Невозможно изменить элемент <type> в таблице без существующего расписания или триггера. Добавьте расписание или триггер в таблицу перед попыткой изменить его.
API_QUOTA_EXCEEDED
Превышена квота API для источника данных <sourceName>.
Дополнительные сведения см. в API_QUOTA_EXCEEDED
APPLY_CHANGES_ERROR
Произошла ошибка во время AUTO CDC операции.
Дополнительные сведения см. в APPLY_CHANGES_ERROR
APPLY_CHANGES_FROM_SNAPSHOT_ERROR
Произошла ошибка во время AUTO CDC FROM SNAPSHOT операции.
Дополнительные сведения см. в APPLY_CHANGES_FROM_SNAPSHOT_ERROR
APPLY_CHANGES_FROM_SNAPSHOT_EXPECTATIONS_NOT_SUPPORTED
Набор <datasetName> данных имеет определенные ожидания, но ожидания в настоящее время не поддерживаются для наборов данных с помощью AUTO CDC FROM SNAPSHOT.
Удалите ожидания, чтобы устранить эту ошибку. В качестве альтернативы рекомендуется использовать следующую структуру для применения ожиданий путем объединения AUTO CDC и AUTO CDC FROM SNAPSHOT:
Примените изменения, полученные из моментального снимка, используя SCD типа 1, к промежуточной таблице, без заранее определенных результатов.
Чтение изменений из промежуточной таблицы с помощью
spark.readStream.option("readChangeFeed", "true").table.Примените изменения из промежуточной таблицы к конечной целевой таблице, используя
dlt.apply_changesследующие параметры в дополнение к тем, с которыми в настоящее время используетсяdlt.apply_changes_from_snapshot:
Для обработки изменений:
apply_as_deletes = "_change_type == 'delete'"Чтобы удалить столбцы, добавленные CDF, выполните следующие действия.
except_column_list = ["_change_type", "_commit_version", "_commit_timestamp"]
- Включите текущий набор ожиданий в конечной целевой таблице, используемой для
dlt.apply_changes.
APPLY_CHANGES_PARTIAL_UPDATES_NOT_ENABLED
Функция с COLUMNS по UPDATE находится в предварительной версии и не включена для рабочей области. Обратитесь к представителю Databricks, чтобы узнать больше об этой функции и получить доступ к частной предварительной версии.
СУЩЕСТВУЮЩАЯ_КЛАСТЕРНАЯ_СРЕДА_НЕДОСТУПНА
Вычислительные ресурсы <pipelineId> конвейера недоступны. Возможно, вычисления конвейера остановились или все еще запускаются.
Повторите попытку позже, когда вычислительные ресурсы полностью доступны. Если проблема сохранится, обратитесь в службу поддержки Databricks.
ОКРУЖЕНИЕ_КЛАСТЕР_НЕ_НАЙДЕН
Вычисление для <pipelineId> конвейера не найдено. Это вычисление конвейера, возможно, никогда не началось или уже остановлено. Запустите конвейер
перед применением окружения
Неподдерживаемая среда применения
Конечная точка ApplyEnvironment не поддерживается.
ARCHITECTURE_MIGRATION_FAILURE
Для получения дополнительной информации см. ARCHITECTURE_MIGRATION_FAILURE
ARCLIGHT_REQUIRES_SERVERLESS
Конвейеры, предназначенные для каталогов, использующих хранилище по умолчанию, должны использовать бессерверные вычисления. Если у вас нет доступа к бессерверным вычислениям, обратитесь к Databricks, чтобы включить эту функцию для рабочей области.
AUTO_FULL_REFRESH_DISABLED
Автоматическое полное обновление отключено для таблицы <tableName>.
AUTO_FULL_REFRESH_NOT_ALLOWED
Сбой автоматического полного обновления для таблицы <tableName> , так как <reason>.
AUTO_FULL_REFRESH_THROTTLED
Сбой автоматического полного обновления. Таблица <tableName> была автоматически обновлена по <timestamp> крайней мере с минимальным интервалом до следующего автоматического полного обновления: <minInterval> минуты.
AZURE_ACTIVE_DIRECTORY_AUTHENTICATION_FAILED
Сбой проверки подлинности Azure Active Directory (AADSTS5000224).
Идентификатор трассировки: <traceId>, идентификатор корреляции: <correlationId>.
Убедитесь, что Azure Active Directory правильно настроен и доступен. Обратитесь в службу поддержки Майкрософт, если проблема сохраняется.
AZURE_MANAGED_IDENTITY_CREDENTIAL_NOT_FOUND
Учетные данные управляемого удостоверения Azure с идентификатором <accessConnectorId> соединителя доступа не найдены для учетной записи <accountId>.
Убедитесь, что учетные данные существуют и настроены правильно.
AZURE_STORAGE_HOSTNAME_RESOLUTION_FAILED
Не удалось разрешить имя узла хранилища Azure: <hostname>
Убедитесь, что DNS настроен правильно, а учетная запись хранения доступна из сети.
AZURE_STORAGE_REQUEST_NOT_AUTHORIZED
Запрос к хранилищу Azure не был авторизован периметром безопасности сети.
Убедитесь, что хранилище правильно настроено и доступно.
BIGQUERY_DATA_CONNECTOR_SOURCE_CATALOG_MISSING
Произошла ошибка в соединителе данных BigQuery.
В спецификации приема отсутствует каталог источников (идентификатор проекта GCP).
Укажите исходный каталог (идентификатор проекта) в спецификации приема, чтобы устранить эту проблему.
CANNOT_ADD_COLUMN_TO_INCLUDE_COLUMNS
Новые столбцы (<columnNames>) добавляются в поле include_columns в определении конвейера для таблицы <qualifiedTableName>. Обновите таблицу, чтобы избежать потенциальной потери данных или удалить эти столбцы из include_columns.
CANNOT_ADD_STORAGE_LOCATION
Не удается добавить расположение хранилища в существующий конвейер с определенным каталогом, если необходимо задать расположение хранилища, создайте новый конвейер.
Существующий каталог: '<catalog>'.
Запрошено расположение хранилища: <storageLocation>.
CANNOT_COMPOSE_DECORATOR
SQLSTATE: не присвоено
Декоратор @<decoratorName> не может быть составлен с <otherDecorators>.
CANNOT_EXCLUDE_NON_EXISTENT_COLUMN
Определение конвейера исключает столбцы (<columnNames>), которые не существуют в таблице <qualifiedTableName> исходного <sourceType>. Удалите эти столбцы из поля exclude_columns.
CANNOT_FILTER_OUT_REQUIRED_COLUMN
Определение потока данных не включает требуемые столбцы (<columnNames>) в таблице <qualifiedTableName> источника <sourceType> для загрузки. Добавьте их в include_columns или удалите их из exclude_columns.
CANNOT_INCLUDE_NON_EXISTENT_COLUMN
Определение конвейера содержит столбцы (<columnNames>), которые не существуют или недоступны в таблице <qualifiedTableName> источника <sourceType>. Удалите эти столбцы из поля include_columns.
CANNOT_INGEST_TABLE_WITHOUT_PRIMARY_KEY
Таблица <qualifiedTableName> в источнике <sourceType> не имеет первичного ключа.
Укажите первичный ключ в конфигурации соединителя для того чтобы загрузить таблицу, если она существует.
CANNOT_MODIFY_PIPELINE_OWNER_FOR_UC_PIPELINES
Изменение владельца для не-UC конвейеров пока не поддерживается.
CANNOT_MODIFY_PIPELINE_OWNER_PERMISSION_DENIED
Только администраторы рабочей области могут изменить владельца конвейера.
CANNOT_MODIFY_PIPELINE_OWNER_WHEN_MISSING
Новый владелец не существует.
CANNOT_MODIFY_PIPELINE_TYPE
pipeline_type невозможно обновить.
Текущий тип конвейера: <currentPipelineType>.
Обновлён тип конвейера: <requestedPipelineType>.
CANNOT_MODIFY_STORAGE_LOCATION
Не удается изменить расположение хранилища существующего конвейера.
Существующее расположение хранилища: '<existingStorageLocation>'.
Запрошено расположение хранилища: <requestedStorageLocation>.
CANNOT_REMOVE_COLUMN_FROM_EXCLUDE_COLUMNS
Столбцы (<columnNames>) удаляются из поля exclude_columns в определении конвейера обработки данных для таблицы <qualifiedTableName>. Пожалуйста, полностью обновите таблицу, чтобы избежать потенциальной потери данных, или добавьте эти столбцы обратно в 'exclude_columns'.
CANNOT_SET_CATALOG_FOR_HMS_PIPELINE
Не удается добавить каталог в существующий конвейер с определенным расположением хранилища, если вы хотите использовать UC, создайте новый конвейер и задайте каталог.
Существующее расположение хранилища: '<storageLocation>'
Запрошенный каталог: '<catalog>'
CANNOT_SET_LINKED_PIPELINE_ID
Идентификаторы каналов одинаковы, установка идентификаторов связанных каналов приведёт к блокировке.
CANNOT_SET_SCHEMA_FOR_EXISTING_PIPELINE
Указанное поле "схема" в параметрах конвейера для конвейера "<pipelineName>" является незаконным. Reason:
Дополнительные сведения см. в CANNOT_SET_SCHEMA_FOR_EXISTING_PIPELINE
CANNOT_SET_TOGETHER
SQLSTATE: не присвоено
<argList> являются взаимоисключающими и не могут быть заданы одновременно.
CANNOT_SPECIFY_BOTH_INCLUDE_EXCLUDE_COLUMNS
Определение конвейера задаёт параметры include_columns и exclude_columns для <identifier>. Удалите один из них.
CANNOT_UPDATE_CLUSTERING_COLUMNS
Невозможно обновить столбцы кластеризации для таблицы <tableName> , так как он использует столбцы секций. Таблица может использовать столбцы секционирования или кластеризации, но не оба одновременно.
Чтобы переключаться между методами кластеризации и секционирования, выполните полное обновление этой таблицы.
CANNOT_UPDATE_PARTITION_COLUMNS
Невозможно обновить столбцы разделов для потоковой таблицы <tableName>.
Текущий: <existingPartitionColumns>,
Запрошено: <requestedPartitionColumns>
Чтобы применить это изменение раздела, выполните полное обновление этой таблицы и любых других потоковых таблиц, которые имеют обновленные столбцы разделов.
В качестве альтернативы отмените это изменение, чтобы продолжить использование существующих столбцов разделов.
CANNOT_UPDATE_TABLE_SCHEMA
Не удалось объединить текущие и новые схемы для таблиц <tableName>.
Чтобы продолжить изменение схемы, можно активировать полное обновление этой таблицы.
В зависимости от варианта использования и изменений схемы вы можете скрыть изменение схемы. Вы можете обновить запросы, чтобы выходная схема совместима с существующей схемой (например, явно приведение столбцов к правильному типу данных).
CANNOT_WRITE_TO_INACTIVE_COLUMNS
<details>
Однако конечные таблицы уже имеют неактивные столбцы с этим именем; Столбцы неактивны, так как они ранее были удалены из исходных таблиц.
Чтобы продолжить обновление, запустите таблицу FULL REFRESH .
CANNOT_WRITE_TO_INACTIVE_TABLES
Следующие таблицы в назначении неактивны и конфликтуют с текущими исходными таблицами: <tables>.
Эти таблицы остаются неактивными, так как они были ранее удалены из источника или не выбраны из соединителя.
Чтобы продолжить обновление, измените имя целевой таблицы или выполните FULL REFRESH в этих таблицах или удалите эти неактивные таблицы из назначения в обозревателе каталогов или с помощью DROP TABLE команды и повторите обновление.
CANNOT_WRITE_TO_TABLES_PENDING_RESET
Следующие таблицы в месте назначения не были сброшены правильно при предыдущем полном обновлении: <tables>.
Чтобы восстановить их, запустите полное обновление.
CATALOG_MAPPING_NOT_AVAILABLE_IN_UC
Каталог UC не имеет сопоставления для каталога '<sourceCatalog>'.
Проверьте, зарегистрирован ли каталог в каталоге UC.
CATALOG_SCHEMA_MISMATCH_WITH_DESTINATION_PIPELINE
Каталог и схема <destPipelineCatalog> целевого конвейера с идентификатором '<destPipelineSchema>' не соответствуют каталогу <destPipelineId> и схеме таблицы<tableName>. Конечный конвейер должен иметь тот же каталог и схему, что и таблица, или использовать режим прямой публикации.
CATALOG_SPEC_UNSUPPORTED
CatalogSpecs не поддерживается соединителями баз данных в настоящее время. Пожалуйста, удалите спецификацию каталога.
CDC_APPLIER_AUTO_FULL_REFRESH_POLICY_MUST_BE_SAME_FOR_ALL_DESTINATION_TABLES
Политика автоматического полного обновления всех целевых таблиц, подключенных к одной исходной таблице, должна быть одинаковой.
Измените политику для следующих целевых таблиц, подключенных <destinationTables> к источнику <sourceTable>.
CDC_APPLIER_COLUMN_UOID_NOT_SUPPORTED
Столбцы с UOID <columnNames> для таблицы <tableName> не поддерживаются в конвейерах CDC с управляемой загрузкой.
Проверьте, поддерживает ли конвейер приема столбца UOID или запросить полное обновление таблицы.
CDC_APPLIER_FATAL_FAILURE_FROM_GATEWAY
Конвейер шлюза столкнулся с фатальной ошибкой:
<errorMessage>
Ознакомьтесь со сбоем обновления конвейера: <link>
CDC_APPLIER_INGESTION_GATEWAY_REMOVED
Конвейер <pipelineId> шлюза приема, связанный с конвейером управляемого приема, был удален.
Удалите конвейер управляемого приема и создайте шлюз приема и конвейеры управляемого приема.
CDC_APPLIER_REPLICATED_TABLE_METADATA_NOT_READY
Реплицированные метаданные таблицы для таблицы <tableName> не готовы.
Текущая временная метка запроса на выполнение работы — <existingRequestTs>, но мы ожидаем <expectedRequestTs> или более позднего.
CDC_APPLIER_REQUIRES_ALL_DESTINATION_TABLES_FULL_REFRESH
Полное обновление одной целевой таблицы и нормальное обновление другой целевой таблицы из того же источника не поддерживается.
Пожалуйста, полностью обновите обе таблицы, если это возможно, чтобы продолжить.
Полные таблицы обновления: <fullRefreshTables>
Целевые таблицы для исходных данных <sourceTable>: <destinationTables>
CDC_APPLIER_SCHEMA_CHANGED_DURING_STREAMING
Версия схемы <dataSchemaVersion> отличается от версии схемы чтения <readSchemaVersion>.
Декларативные конвейеры Spark Lakeflow повторите обновление.
CDC_APPLIER_SEQUENCE_BY_COLUMN_NOT_FOUND
Столбец <columnName> для таблицы <tableName>, указанной в sequenceBy, не существует в <columns>.
CDC_APPLIER_SEQUENCE_BY_INVALID_TYPE
Столбец <columnName> таблицы <tableName> , указанной в sequenceBy, имеет тип <typeName> , который не поддерживается.
Поддерживаемые типы для столбцов sequenceBy — <allowedTypes>.
CDC_APPLIER_SEQUENCE_BY_MULTIPLE_COLUMNS_NOT_SUPPORTED
По крайней мере один столбец можно указать в последовательности конвейера управляемого приема CDC.
Указанные столбцы: <columns> для таблицы <tableName>.
CDC_INCOMPATIBLE_SCHEMA_CHANGES
Мы обнаружили несовместимое изменение схемы (<cause>) от версии схемы <previousSchemaVersion> до <currentSchemaVersion>.
Поэтому мы не можем продолжить применение изменений для <tableName>. Запросить полное обновление таблицы.
Предыдущая схема: <previousSchema>
Текущая схема: <currentSchema>
CDC_MULTIPLE_SOURCE_TABLES_MAPPED_TO_SAME_DESTINATION_TABLE
Найдено несколько исходных таблиц: <source_tables> сопоставлено с одной целевой таблицей <destination_table>.
Сопоставьте их с другим именем целевой таблицы или с другой целевой схемой.
CDC_POTENTIAL_DATA_GAPS
Следующие таблицы [<needFullRefreshTableList>] не обновлялись успешно в течение <retention> дней.
Выполните полное обновление для этих таблиц или всего потока данных.
CDC_SAME_TABLE_FROM_MULTIPLE_SOURCES
Найдено одно и то же имя таблицы <table> из нескольких источников: <sources>.
Чтобы избежать конфликта, разделите их на разные конвейеры.
CDC_SOURCE_VALIDATION_FAILURE
Обнаружена <errorCount> ошибка проверки исходной базы данных. Подробные результаты и действия по исправлению см. в отчетах журнала событий.
CDC_TABLE_NOT_FOUND_IN_ALL_TABLES
Таблица <table> не найдена в моментальном снимке всех таблиц базы данных-источника.
Сведения о спецификации таблицы:
<tableSpec>
CHANGES_HMS_PIPELINE_TO_UC_NOT_ALLOWED
Невозможно изменить конвейер HMS на конвейер UC.
CHANGES_UC_PIPELINE_TO_HMS_NOT_ALLOWED
Невозможно изменить конвейер UC на конвейер HMS.
CHANGING_CATALOG_NOT_ALLOWED
Не удается изменить каталог существующего конвейера. Существующий каталог: '<existingCatalog>'. Запрошенный каталог: '<requestedCatalog>'.
CHANGING_TARGET_SCHEMA_NOT_ALLOWED
Изменение целевой схемы запрещено. Причина: <reason>.
CLUSTER_CREATION_BUDGET_POLICY_LIMIT_EXCEEDED
Не удалось создать кластер, поскольку бюджетная политика конвейера превысила установленный лимит. Используйте другую политику или обратитесь к администратору выставления счетов.
CLUSTER_CREATION_CLIENT_ERROR
Не удалось создать кластер конвейера: <errorMessage>
Эта ошибка, скорее всего, вызвана неправильной настройкой в конвейере.
Проверьте конфигурацию кластера потока данных и связанную с ним политику кластера.
CLUSTER_CREATION_CLUSTER_POLICY_LIMIT_EXCEEDED
Не удалось создать кластер, так как число запущенных кластеров на пользователя для политики "<clusterPolicy>" превысило ограничение <clusterLimit>. Используйте другую политику или обратитесь к администратору.
CLUSTER_CREATION_CREDITS_EXHAUSTED
Не удалось создать кластер, так как вы исчерпали доступные кредиты. Добавьте метод оплаты для обновления учетной записи.
CLUSTER_CREATION_RESOURCE_EXHAUSTED
Не удалось создать кластер, так как вы превысили ограничения ресурсов: <errorMessage>
CLUSTER_CREATION_SECRETS_FETCH_FAILED
Не удается получить секреты, указанные в конфигурации Spark.
Убедитесь, что секреты существуют, а владелец кластера имеет разрешения на чтение.
CLUSTER_LAUNCH_CLIENT_ERROR
Не удалось запустить кластер конвейера <clusterId>: <clusterStateMessage>
Эта ошибка, скорее всего, вызвана неправильной настройкой в конвейере.
Проверьте конфигурацию кластера потока данных и связанную с ним политику кластера.
CLUSTER_LAUNCH_CLOUD_FAILURE
Не удалось запустить кластер конвейера <clusterId>: <clusterStateMessage>
Эта ошибка может быть временной— перезапустите конвейер и сообщите, если вы по-прежнему видите ту же проблему.
CLUSTER_LAUNCH_RESOURCE_EXHAUSTED
Не удалось запустить кластер <clusterId> конвейера из-за исчерпания ограничений ресурсов: <clusterStateMessage>
КЛАСТЕР_ЗАПУСК_НЕХВАТКА_РЕСУРСОВ
Не удалось запустить кластер конвейера <clusterId>: <clusterStateMessage>
Запрошенный тип экземпляра не может быть предоставлен поставщиком облачных служб.
Проверьте подписку поставщика облачных служб или повторите попытку с другим типом экземпляра.
CLUSTER_SETUP_CLIENT_ERROR
Не удалось успешно настроить кластер <clusterId> для выполнения обновления конвейера. Reason:
Дополнительные сведения см. в CLUSTER_SETUP_CLIENT_ERROR
CLUSTER_UNREACHABLE
Связь с водителем потеряна. Кластер <clusterId> недоступен в течение <timeoutSeconds> секунд.
COLUMN_MASK_WITH_NO_COLUMN
Маска столбца, найденная для столбца "<columnName>", который не существует в схеме MV/ST. Если это связано с изменением схемы базовой таблицы,
Удалите старую маску с ALTER TABLE [table_name] [столбец, где применяется маска] ALTER COLUMNDROP MASK; или восстановите столбец.
COLUMN_TO_UPDATE_NOT_FOUND
Столбец <column>, указанный в COLUMNS TO UPDATE не найден в исходном кадре данных.
CONCURRENT_UPGRADE_FAILED_TO_STOP_PREVIOUS_UPDATE
Запущено обновление '<upgradedUpdateId>' для повышения версии, но не удалось остановить предыдущее обновление '<oldUpdateId>'.
Эта ошибка, скорее всего, является временной. Процесс будет автоматически перезапущен, и проблема должна устраниться самостоятельно.
Сообщите об этой ошибке Databricks, если вы по-прежнему видите ту же проблему.
СОЗДАНИЕ ПОТОКА ДОБАВЛЕНИЯ ОДИН РАЗ НА ОСНОВЕ ПАКЕТНОГО ЗАПРОСА НЕ ДОПУСКАЕТСЯ
Невозможно создать потоковую таблицу, добавляемую один раз из пакетного запроса.
Это блокирует добавочный прием данных из источника и может привести к неправильному поведению.
Некорректная таблица: '<table>'.
Чтобы устранить эту проблему, используйте оператор (STREAM) или readStream, чтобы объявить источник в качестве потокового ввода.
Пример: SELECT...FROM STREAM(<source table name>) или spark.readStream.table('<source table name>)
DATASET_DECORATOR_APPLIED_TWICE
SQLSTATE: не присвоено
Набор данных <datasetName> уже существует. Убедитесь, что функция запроса была отмечена либо как представление, либо как таблица, и это сделано только один раз.
DATASET_NOT_DEFINED
Не удалось прочитать набор данных '<datasetName>'. Этот набор данных не определен в конвейере.
Если эта таблица управляется другим конвейером, то не используйте dlt.read / dlt.readStream для чтения таблицы или не добавляйте к имени ключевое слово LIVE.
DATASET_NOT_FOUND_FOR_EXPECTATIONS
Попытались определить ожидания для набора данных "<datasetName>", который не существует
DATASET_NOT_REGISTERED_FOR_FLOW
Попытка зарегистрировать поток для набора данных "<datasetName>", но набор данных не зарегистрирован.
DBFS_NOT_ENABLED
DBFS не включена для этой рабочей области; Опубликуйте в каталоге Unity или укажите другое расположение хранилища для конвейера.
DBSQL_INCONSISTENT_SCHEDULE_IN_PIPELINE
Конвейер <pipelineId> содержит несколько рабочих таблиц с различными параметрами расписания: [<tableScheduleInfo>]. Все рабочие таблицы должны иметь одинаковое расписание.
DBSQL_INVALID_CHANNEL_VALUE
Недопустимый канал, указанный свойствомpipelines.channel: <channel> Допустимые значения: <validChannels>
DBSQL_INVALID_SCHEDULE_TYPE
Недопустимый тип расписания, указанный со свойством расписания: <scheduleValue>
DBSQL_MISSING_SCHEDULE_PROPERTY
Отсутствует необходимое свойство расписания в свойствах таблицы.
DBSQL_PIPELINE_IS_MISSING
Отсутствует DBSQL конвейер. Обновите материализованное представление или потоковую таблицу DBSQL, чтобы создать конвейер.
DBSQL_PIPELINE_SHOULD_NOT_HAVE_MULTIPLE_TABLES
Конвейер DBSQL должен иметь ровно одно материализованное представление или потоковую таблицу, но найденные <tablesSize> таблицы: <tables>
ОТКЛЮЧЕНИЕ УДАЛЕНИЯ КОНВЕЙЕРА
Конвейер не может быть удален в настоящее время.
Обратитесь в службу поддержки Databricks, чтобы помочь в удалении конвейера '<pipelineId>' .
DESTINATION_PIPELINE_NOT_FOUND
Не удается найти конечный конвейер с идентификатором "<pipelineId>". Убедитесь, что вы находитесь в той же рабочей области, что и поток данных, вы владелец этого потока, и поток выполнялся по крайней мере один раз.
DESTINATION_PIPELINE_NOT_IN_DIRECT_PUBLISHING_MODE
Конечный конвейер с идентификатором '<pipelineId>' не использует режим прямой публикации.
DESTINATION_PIPELINE_PERMISSION_DENIED
Вы не можете выполнить эту операцию, вы не являетесь владельцем целевого конвейера с идентификатором "<pipelineId>". Только владельцы могут изменить поток таблицы.
DESTINATION_PIPELINE_TYPE_NOT_WORKSPACE_PIPELINE_TYPE
Конечный конвейер с идентификатором '<pipelineId>' не является конвейером ETL.
DIRECTORY_PATH_REQUIRES_GLOB
Путь <path> — это каталог. Чтобы включить все файлы в каталог, используйте шаблон glob с суффиксом "**", "<path>/**" в конфигурации конвейера.
Запрос на восстановление конвейера не разрешен
Запрос <request> не разрешён для конвейера "<pipelineId>" в RESTORING состоянии.
DO_CREATE_OR_EDIT_INVALID_USER_ACTION
Ошибка при обработке запроса "<action>".
DROP_SCHEDULE_SCHEDULE_DOES_NOT_EXIST
Невозможно удалить SCHEDULE из таблицы без существующего расписания или триггера.
DUPLICATED_FROM_JSON_SCHEMA_LOCATION
Дублированный ключ расположения схемы from_json: <schemaLocationKey>
Выберите уникальные ключи расположения схемы для каждого запроса from_json в конвейере
DUPLICATED_INGESTION_CONFIG_TABLE_SPECS
Конфигурация потока загрузки данных содержит повторяющиеся таблицы. Убедитесь, что каждая таблица уникальна.
EMPTY_INGESTION_CONFIG_OBJECTS
Объекты конфигурации импорта пусты.
ENHANCED_AUTOSCALING_REQUIRES_ADVANCED_EDITION
Параметр расширенного автомасштабирования "spare_capacity_fraction" поддерживается только в расширенном выпуске продукта Lakeflow Spark Декларативных конвейеров Spark.
Измените настройки вашего конвейера, чтобы установить "edition": "advanced", чтобы иметь возможность использовать 'spare_capacity_fraction'.
ENVIRONMENT_PIP_INSTALL_ERROR
Не удалось установить зависимость среды: "<pipDependency>". Дополнительные сведения см. в журналах драйвера кластера stdout.
EVENT_LOG_PICKER_FEATURE_NOT_SUPPORTED
Публикация журнала событий в каталоге Unity не поддерживается в устаревшем режиме публикации. Чтобы включить эту функцию, перенесите конвейер в режим публикации по умолчанию, выполнив действия, описанные в руководстве по https://docs.databricks.com/aws/en/dlt/migrate-to-dpmмиграции. Если вы предпочитаете продолжать использовать устаревший режим публикации, удалите конфигурацию event_log из спецификации конвейера.
EXPECTATION_VIOLATION
Поток «<flowName>» не оправдал ожидания.
Для получения дополнительной информации см. EXPECTATION_VIOLATION
EXPLORE_ONLY_CANNOT_BE_SET_WITH_VALIDATE_ONLY
explore_only и validate_only не могут одновременно иметь значение true.
EXPLORE_ONLY_IS_NOT_ENABLED
Обновление "explore_only" не включено. Обратитесь в службу поддержки Databricks.
FAILED_TO_CREATE_EVENT_LOG
Не удалось создать журнал событий конвейера (id=<pipelineId>) с идентификатором <eventLogIdentifier>. Дополнительные сведения см. в разделе об исключении ниже.
FAILED_TO_PUBLISH_VIEW_TO_METASTORE
Не удалось опубликовать представление <viewName> в хранилище метаданных, так как <reason>.
FAILED_TO_UPDATE_EVENT_LOG
Не удалось обновить идентификатор журнала событий конвейера (id=<pipelineId>) на <newEventLogIdentifier>. Дополнительные сведения см. в разделе об исключении ниже.
FLOW_SCHEMA_CHANGED
Поток <flowName> завершился после того, как он столкнулся с изменением схемы во время выполнения.
Изменение схемы совместимо с существующей целевой схемой, и следующий запуск потока может возобновиться с новой схемой.
FOREACH_BATCH_SINK_ONLY_SUPPORTED_IN_PREVIEW_CHANNEL
Декларативные конвейеры Spark Lakeflow ForeachBatch в настоящее время не поддерживаются.
Для частной предварительной версии для приемника Lakeflow Spark Декларативные конвейеры ForeachBatch требуется PREVIEW канал.
Приемники Декларативных конвейеров Spark Lakeflow: <sinkNames>
GATEWAY_PIPELINE_INIT_SCRIPTS_NOT_ALLOWED
Трубопровод шлюза не разрешает сценарии инициализации кластера. Удалите его из <from>.
GATEWAY_PIPELINE_SPARK_CONF_NOT_ALLOWED
Пайплайн шлюза не поддерживает конфигурацию Spark [<configs>]. Удалите их из <from>.
GET_ORG_UPDATE_CAPACITY_LIMIT_EXCEEDED
Число запрошенных идентификаторов организации превышает максимально допустимое ограничение <limit>
GOOGLE_ANALYTICS_RAW_DATA_CONNECTOR_SOURCE_CATALOG_MISSING
Произошла ошибка в соединителе необработанных данных Google Analytics.
В спецификации приема отсутствует каталог источников (идентификатор проекта GCP).
Укажите исходный каталог (идентификатор проекта) в спецификации приема, чтобы устранить эту проблему.
HMS_NOT_ENABLED
Хранилище метаданных Hive не включено для этой рабочей области; пожалуйста, опубликуйте в Каталоге Unity.
ILLEGAL_COLUMN_TO_UPDATE_DATA_TYPE
Тип данных столбца, указанного в COLUMNS TO UPDATE, должен быть строковым массивом, но найден <illegalDataType>.
ILLEGAL_ID_PARAM_IN_PIPELINE_SETTINGS
Параметры не должны содержать "<fieldName>".
ILLEGAL_SCHEMA_FIELD_IN_PIPELINE_SPEC
Указанное поле schema в параметрах конвейера является незаконным. Причина: <reason>.
INCORRECT_ROOT_PATH_TYPE
Корневой путь '<rootPath>' должен быть каталогом, но обнаружено <objectType>.
INCREMENTAL_REFRESH_UNAVAILABLE_WITH_STRICT_REFRESH_POLICY
материализованное представление имеет политику INCREMENTAL_STRICT обновления, но не может быть добавочной.
ТЕХНИЧЕСКОЕ_ОБСЛУЖИВАНИЕ_ИНФРАСТРУКТУРЫ
Драйвер в кластере <clusterId> прекратил работу из-за технического обслуживания инфраструктуры.
INGESTION_CONFIG_DUPLICATED_SCHEMA
Конфигурация конвейера приема содержит повторяющиеся схемы. Убедитесь, что каждая схема уникальна.
INGESTION_GATEWAY_AUTHENTICATION_FAILURE
Сбой проверки подлинности
Для получения дополнительной информации см. INGESTION_GATEWAY_AUTHENTICATION_FAILURE
INGESTION_GATEWAY_BREAKING_SCHEMA_CHANGE_FAILURE
Обнаружена несоответствие схемы между исходными и целевыми таблицами. Чтобы устранить эту проблему, необходимо полное обновление таблицы "<entityName>" в конвейере приема.
INGESTION_GATEWAY_CAPTURE_INSTANCE_UNAVAILABLE
Экземпляр записи для <entityName> больше недоступен в источнике.
После включения CDC или CT в таблице активируйте полное обновление.
INGESTION_GATEWAY_CDC_LOG_TRUNCATED
Журнал CDC усечен для таблицы "<entityName>, причина: <errorMessage>.
Это может быть вызвано политикой хранения журналов CDC усечение журналов отслеживания изменений до их обработки.
Таблица будет исключена из обработки. Чтобы повторно включить обработку, обновите таблицу.
INGESTION_GATEWAY_CDC_NOT_ENABLED
CDC не включен в <entityType> "<entityName>". Включите CDC и обновите таблицу в конвейере приема. Сообщение об ошибке: '<errorMessage>'.
INGESTION_GATEWAY_DB_VERSION_NOT_SUPPORTED
Версия базы данных не поддерживается.
См. дополнительные сведения в INGESTION_GATEWAY_DB_VERSION_NOT_SUPPORTED
INGESTION_GATEWAY_DDL_OBJECTS_MISSING
Объекты DDL, отсутствующие в <entityType> "<entityName>". Выполните скрипт объектов DDL и обновите таблицу в конвейере приема данных. Сообщение об ошибке: '<errorMessage>'.
INGESTION_GATEWAY_HEALTH_CHECKER_VALIDATION_CYCLE_FAILED
Сбой цикла проверки внутреннего средства проверки работоспособности. Повторите попытку в следующем цикле, если проблема сохраняется, отправьте запрос.
Сообщение об ошибке: <errorMessage>
INGESTION_GATEWAY_MISSING_CONNECTION_REFERENCE
В конфигурации шлюза приема отсутствует соединение.
Добавьте ссылку на подключение каталога Unity, содержащее учетные данные.
Сведения об определении конвейера шлюза приема:
<definition>
INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_CATALOG
В конфигурации шлюза приема отсутствует каталог расположения внутреннего хранилища.
Добавьте каталог местонахождения внутренней памяти.
Сведения об определении конвейера шлюза приема:
<definition>
INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_NAME
В конфигурации шлюза приема отсутствует название расположения внутреннего хранилища.
Добавьте имя расположения внутреннего хранилища.
Сведения об определении конвейера шлюза приема:
<definition>
INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_SCHEMA
Конфигурация шлюза приема отсутствует для схемы внутреннего расположения хранилища.
Добавьте схему расположения внутреннего хранилища.
Сведения об определении конвейера шлюза приема:
<definition>
INGESTION_GATEWAY_MISSING_TABLE_IN_SOURCE
Таблица "<entityName>" не существует в исходной базе данных или была удалена. Устраните проблему и полностью обновите таблицу в конвейере управляемого приема данных. Сообщение об ошибке: '<errorMessage>'.
INGESTION_GATEWAY_MYSQL_BINLOG_FILE_DELETED
Требуемые файлы binlog MySQL удалены в исходной базе данных. Обычно это происходит, когда период хранения binlog слишком мал или когда прием перезапускается после прохождения периода хранения. Чтобы устранить проблему, выполните полное обновление во всех таблицах и увеличьте хранение двоичных журналов в источнике.
Сообщение об ошибке: <errorMessage>
INGESTION_GATEWAY_MYSQL_MISSED_BINLOG_FILES_DETECTED
Отсутствует обнаружение файлов Binlog MySQL. Выполните полное обновление <entityName>.
Сообщение об ошибке: <errorMessage>
INGESTION_GATEWAY_ORACLE_ARCHIVE_LOG_FILES_UNAVAILABLE
Файлы журнала архива Oracle, необходимые для репликации CDC, больше не доступны в исходной базе данных. Это может произойти, если архивные журналы превышают период хранения или удаляются вручную. Выполните полное обновление для всех целевых таблиц, сопоставленных с каталогом "<catalogName>". Если эта проблема сохранится, рассмотрите возможность увеличения срока хранения архивных журналов в исходной базе данных, чтобы гарантировать, что журналы остаются доступными во время обработки.
Сообщение об ошибке: <errorMessage>
INGESTION_GATEWAY_ORACLE_MISSING_CONFIGURATION
Конфигурация подключения Oracle не завершена.
Дополнительные сведения см. в INGESTION_GATEWAY_ORACLE_MISSING_CONFIGURATION
INGESTION_GATEWAY_PG_PUBLICATION_ALTER_FAILED
Не удалось изменить репликационную публикацию для <entityType> '<entityName>'
Сообщение об ошибке: <errorMessage>
Для получения дополнительной информации см. INGESTION_GATEWAY_PG_PUBLICATION_ALTER_FAILED
INGESTION_GATEWAY_PG_PUBLICATION_CREATION_FAILED
Не удалось создать публикацию репликации для <entityType> '<entityName>'
Сообщение об ошибке: <errorMessage>
Дополнительные сведения см. в INGESTION_GATEWAY_PG_PUBLICATION_CREATION_FAILED
INGESTION_GATEWAY_PG_PUBLICATION_DROP_FAILED
Не удалось удалить публикацию репликации для <entityType> '<entityName>'
Сообщение об ошибке: <errorMessage>
Дополнительные сведения см. в INGESTION_GATEWAY_PG_PUBLICATION_DROP_FAILED
INGESTION_GATEWAY_PG_SLOT_CONFIG_IS_INVALIDATED
Конфигурация <entityType> <entityName> слота репликации не находится в работоспособном состоянии. Чтобы устранить эту проблему, активируйте полное обновление всех целевых таблиц, сопоставленных с каталогом <catalogName>.
Сообщение об ошибке: <errorMessage>
INGESTION_GATEWAY_PG_SLOT_CONSUMED_BY_OTHER_PROCESS
Не удалось создать слот репликации для <entityType> '<entityName>' из-за того, что слот репликации используется другим PID.
Сообщение об ошибке: <errorMessage>
INGESTION_GATEWAY_PG_SLOT_CREATION_FAILED
Не удалось создать слот репликации для <entityType> '<entityName>'
Сообщение об ошибке: <errorMessage>
Дополнительные сведения см. в INGESTION_GATEWAY_PG_SLOT_CREATION_FAILED
INGESTION_GATEWAY_PG_SLOT_DROP_FAILED
Не удалось удалить слот репликации для <entityType> '<entityName>'
Сообщение об ошибке: <errorMessage>
Дополнительные сведения см. в INGESTION_GATEWAY_PG_SLOT_DROP_FAILED
INGESTION_GATEWAY_PG_SLOT_HAS_BEEN_DELETED
Слот репликации для <entityType> '<entityName>' удален. Для всех целевых таблиц, сопоставленных с каталогом,<catalogName> активируйте полное обновление.
Сообщение об ошибке: <errorMessage>
INGESTION_GATEWAY_PG_SLOT_IS_INVALIDATED
Слот репликации для <entityType> '<entityName>' не находится в работоспособном состоянии. Удалите слот и активируйте полное обновление для всех целевых таблиц, сопоставленных с каталогом "<catalogName>".
Сообщение об ошибке: <errorMessage>
INGESTION_GATEWAY_SOURCE_INSUFFICIENT_PERMISSION_FAILURE
У пользователя нет необходимых разрешений для доступа к этому объекту или выполнения хранимой процедуры. Убедитесь, что предоставлены все необходимые привилегии. См. следующую документацию: https://docs.databricks.com/aws/en/ingestion/lakeflow-connect/sql-server/database-user-requirements
INGESTION_GATEWAY_SOURCE_SCHEMA_MISSING_ENTITY
Никакие таблицы не доступны для репликации из источника.
Убедитесь, что таблицы правильно выбраны и определены в конвейере загрузки данных.
и пользователь имеет необходимый доступ к каталогу и схеме.
INGESTION_GATEWAY_SQL_SERVER_CT_DISABLED
Отслеживание изменений для таблицы <entityName> было отключено в источнике.
После включения CDC или CT в таблице активируйте полное обновление.
ТАБЛИЦА ШЛЮЗА ЗАГРУЗКИ УДАЛЕНА
Исходная таблица "<entityName>" была удалена в источнике. Сообщение об ошибке: <errorMessage>
INGESTION_GATEWAY_TABLE_ПЕРЕИМЕНОВАНА
Исходная таблица '<entityName>' была переименована в источнике. Сообщение об ошибке: <errorMessage>
ИМПОРТ ШЛЮЗА ПРОПУЩЕН ИЗ-ЗА НЕПОДДЕРЖИВАЕМОГО ТИПА ДАННЫХ В СТОЛБЦЕ
Таблица "<entityName>" пропущена из-за неподдерживаемых столбцов типов данных. Устраните проблему и полностью обновите таблицу в конвейере управляемого приема данных. Сообщение об ошибке: '<errorMessage>'.
INGESTION_GATEWAY_UNEXPECTED_COLUMN_UOID
Таблица "<entityName>" пропущена из-за непредвиденных UOID, назначенных столбцам. Чтобы устранить проблему, выполните полное обновление таблицы. Ошибка: <errorMessage>.
INGESTION_GATEWAY_UNEXPECTED_TABLE_UOID
Таблица "<entityName>" пропущена из-за непредвиденных UOID, назначенных таблице. Чтобы устранить проблему, выполните полное обновление таблицы. Ошибка: <errorMessage>.
INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE
Сбой подключения из-за неправильного имени <host> узла и (или) порта <port> исходной базы данных.
Дополнительные сведения см. в INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE
INGESTION_GATEWAY_UNSUPPORTED_CHARS_IN_OBJECT_NAME
Неподдерживаемые chars, найденные в объектах для таблицы<entityName>, причина: <errorMessage> Таблица будет пропущена. Обратитесь в службу поддержки, чтобы включить прием специальных символов.
INGESTION_GATEWAY_UNSUPPORTED_OBJECT_TYPE
Объект '<entityName>' не поддерживается и пропущен. Чтобы устранить эту проблему, удалите этот объект из конвейера приема. Сообщение об ошибке: '<errorMessage>'.
ИМПОРТНЫЙ_ШЛЮЗ_НЕИЗВЕСТНОЕ_ИЗМЕНЕНИЕ_ТАБЛИЦЫ
Неотслеживаемые изменения обнаружены в таблице <entityName>, причина: <errorMessage>.
Это может быть вызвано усечением таблицы, откатом журнала CDC или другой неконтролируемой операцией.
Таблица будет исключена из обработки. Чтобы повторно включить обработку, обновите таблицу.
INGESTION_GATEWAY_XA_TRANSACTION_NOT_SUPPORTED
Не удалось реплицировать <entityType> "<entityName>" из-за того, что она является частью транзакции XA.
Сообщение об ошибке: <errorMessage>
INVALID_APPLY_CHANGES_COMMAND
команда AUTO CDC недопустима.
<reason>.
INVALID_ARGUMENT_TYPE
SQLSTATE: не присвоено
Значение недопустимого типа, переданного параметру '<paramName>'. Ожидается <expectedType>.
<additionalMsg>.
INVALID_COMPATIBILITY_OPTIONS
Параметры таблицы, указанные для таблицы <table> , недопустимы, так как
Дополнительные сведения см. в INVALID_COMPATIBILITY_OPTIONS
INVALID_CONFIG_FOR_UC_PIPELINE
Конвейеры UC не поддерживают параметр "" для<configKey> "<configValue>". Удалите эту конфигурацию из параметров конвейера.
INVALID_DECORATOR_USAGE
SQLSTATE: не присвоено
Первый позиционный аргумент, переданный @<decoratorName> , должен быть вызываемым. Либо добавьте @<decoratorName> без параметров в функцию, либо передайте параметры в @<decoratorName> , используя аргументы ключевых слов (например, <exampleUsage>).
НЕВЕРНЫЙ_ID_КОНЕЧНОГО_КАНАЛА
Недопустимый идентификатор конвейера назначения: '<pipelineId>'. Идентификаторы конвейера должны быть допустимыми идентификаторами UUID.
Убедитесь, что вы используете правильный идентификатор конвейера, а не имя конвейера.
INVALID_EVENT_LOG_CONFIGURATION
Недопустимая конфигурация журнала событий, найденная в спецификации конвейера: <message>
INVALID_NAME_IN_USE_COMMAND
Недопустимое имя '<name>' в <command> команде. Причина: <reason>
INVALID_PARAM_FOR_DBSQL_PIPELINE
При вызове "dry_run" для конвейера DBSQL можно указать только pipeline_id и "pipeline_type".
INVALID_REFRESH_SELECTION
Дополнительные сведения см. в "INVALID_REFRESH_SELECTION"
INVALID_REFRESH_SELECTION_REQUEST_FOR_CONTINUOUS_PIPELINE
Выбор обновления не поддерживается для непрерывного режима.
INVALID_REFRESH_SELECTION_REQUEST_WITH_FULL_REFRESH
full_refresh не должно быть задано значение true для запроса на выбор обновления.
INVALID_REWIND_SPECIFICATION
Спецификация перемотки недопустима
Дополнительные сведения см. в INVALID_REWIND_SPECIFICATION
INVALID_ROOT_PATH
Недопустимый root_path '<rootPath>': в настоящее время поддерживаются только абсолютные пути директории. Пути каталогов должны начинаться с '/' и не должны заканчиваться на '/'.
INVALID_SCHEMA_NAME
Недопустимая схема "<schemaName>", указанная в параметре конвейера. Причина: <reason>.
INVALID_SNAPSHOT_AND_VERSION_TYPE
SQLSTATE: не присвоено
snapshot_and_version для потока с целевым <target> вернули неподдерживаемый тип.
<additionalMsg>.
INVALID_TRIGGER_INTERVAL_FORMAT
Недопустимая конфигурация интервала триггера, указанная в <configurationType>
Доступ к JIRA запрещён
У подключающегося пользователя нет доступа. Повторно проверьте разрешения пользователя и повторите попытку.
Отсутствуют права администратора JIRA (JIRA_ADMIN_PERMISSION_MISSING)
При вызове API Jira возникла ошибка. Обязательно предоставьте
Соединение пользователя с разрешениями администратора Jira для экземпляра Jira.
Ошибка авторизации в JIRA
Сбой авторизации при вызове API Jira. Добротная повторная проверка подлинности
Подключение UC создано и повторите попытку.
JIRA_CONNECTOR_ENTITY_MAPPING_PARSING_FAILED
Произошла ошибка в соединителе Jira.
Возникла проблема при попытке проанализировать сопоставление сущностей для типа сущности: <entityType> Проверьте, является ли сущность частью поддерживаемых типов.
Если ошибка сохраняется, отправьте билет.
JIRA_MISSING_REQUIRED_FIELD
Обязательное поле "<fieldName>" отсутствует в ответе API Jira.
JSON Узла: <jsonNode>
JIRA_SITE_MISSING
Не удалось найти cloudId, соответствующий предоставленному домену <domain> Jira.
Убедитесь, что подключающийся пользователь может получить доступ к этому сайту.
JOB_DETAILS_DO_NOT_MATCH
Если заданы оба элемента "update_cause_details.job_details" и "job_task", они должны совпадать, но вместо этого имеются значения <details> и <jobTask>.
JOB_TASK_DETAILS_MISSING
Если "причина" является JOB_TASK , необходимо указать "job_task" или "update_cause_details.job_details".
ОТКЛЮЧЕНО СОЗДАНИЕ УСТАРЕВШЕГО ПАЙПЛАЙНА
Создание потоков данных в устаревшем режиме публикации по умолчанию отключено в рабочих областях. Обратитесь в службу поддержки Databricks, если требуется исключение.
LIBRARY_FILE_FETCH_PERMISSION_DENIED
Не удается получить доступ к файлу библиотеки по адресу '<path>'. Убедитесь, что у пользователя есть необходимые разрешения для чтения этого файла.
Причина: <reason>
LIBRARY_FILE_NOT_FOUND
Файл "<path>" не найден или у пользователя run_as нет разрешений на доступ к нему.
LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_CLASSIC
Ссылки на наборы данных с помощью LIVE виртуальной схемы за пределами определения запроса набора данных (т. е. аннотации @dlt.table) не поддерживаются.
LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_DPM
Ссылки на наборы данных с использованием LIVE виртуальной схемы <identifier> вне определения запроса набора данных (например, @dlt.table аннотация) не поддерживаются.
LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_SPARK_SQL
Ссылка на наборы данных с помощью LIVE виртуальной схемы в API spark.sql(...) не должна вызываться за пределами определения запроса набора данных (т. е. @dlt.table аннотация). Его можно вызывать только в определении запроса набора данных.
MANAGED_INGESTION_PIPELINE_SPEC_VALIDATION_ERROR
Дополнительные сведения см. в MANAGED_INGESTION_PIPELINE_SPEC_VALIDATION_ERROR
Материализованный вид возвратил потоковый DataFrame
SQLSTATE: не присвоено
Функция запроса для материализованного представления "<datasetName>" вернула потоковый кадр данных.
Он должен возвращать не потоковый DataFrame.
MAX_RETRY_REACHED_BEFORE_ENZYME_RECOMPUTE
Достигнуто максимальное число повторных попыток. Число повторных попыток:<flowRetryCount>. Порог количества повторных попыток при сбоях потока maxFlowFailureRetryCountThreshold:<maxFlowRetryAttempts>. <message>
MESA_PIPELINE_INVALID_DEFINITION_TYPE
Запуск конвейера <definitionType> из UC-определения запрещен.
MESA_PIPELINE_MISMATCH_PIPELINE_TYPES
Хранимые и обновленные определения должны быть одного типа конвейера, но в данном случае они разные: <stored> и <updated>.
MESA_PIPELINE_MISSING_DEFINITION
Поток данных не имеет допустимого определения в UC, но требуется обновление.
MESA_PIPELINE_MISSING_DEFINITION_UNEXPECTED
Неожиданно отсутствует определение конвейера из UC.
METASTORE_OPERATION_TIMED_OUT
Операции, связанные с обновлением сведений о хранилище метаданных для <tableName>, заняли больше времени, чем <timeout>.
Эта проблема может быть временной или может указывать на ошибки в настроенном клиенте хранилища метаданных. Попробуйте перезапустить конвейер и сообщить об этой проблеме, если она сохраняется.
META_ADS_PARAMETERS_CHANGED
Произошла ошибка в соединителе мета маркетинга. Входные параметры в таблице ad_insights были изменены.
Выполните полное обновление затронутых таблиц.
META_ADS_SOURCE_API_ERROR
Произошла ошибка в вызове API мета маркетинга. Идентификатор трассировки Facebook для трассировки с поддержкой метаданных: <trace_id>
Если ошибка сохраняется, отправьте билет.
META_MARKETING_INSIGHTS_LEVEL_INVALID
Произошла ошибка в соединителе мета маркетинга при попытке получить аналитические сведения для таблицы ad_insights.
Указанный параметр <level> уровня недопустим. Передайте одно из них (объявление, объявление, кампания, учетная запись).
META_MARKETING_INSIGHTS_PARAM_BREAKDOWNS_INVALID
Произошла ошибка в соединителе мета маркетинга при попытке получить аналитические сведения для таблицы ad_insights.
Указанные разбивки недействительны <breakdowns> . Ознакомьтесь с документацией по мета API, чтобы получить допустимый список разбивки.
Если ошибка сохраняется, отправьте билет.
META_MARKETING_INSIGHTS_PARAM_TIME_INCREMENT_INVALID
Произошла ошибка в соединителе мета маркетинга при попытке получить аналитические сведения для таблицы ad_insights.
Не удалось проанализировать указанный параметр <timeInc> добавочного времени. Введите допустимое целое число.
META_MARKETING_INSIGHTS_START_DATE_INVALID
Произошла ошибка в соединителе мета маркетинга при попытке получить аналитические сведения для таблицы ad_insights.
Указанный параметр <startDate> даты начала не удалось проанализировать. Проверьте и измените его в правильном формате гггг-MM-DD.
META_MARKETING_INSIGHTS_START_DATE_TOO_OLD
Произошла ошибка в соединителе мета маркетинга при попытке получить аналитические сведения для таблицы ad_insights.
Указанная дата начала не может превышать 37 месяцев с текущей даты синхронизации. Проверьте и измените его в предоставленных парам.
Если ошибка сохраняется, отправьте билет.
META_MARKETING_RATE_LIMIT_EXCEEDED
Ограничение скорости мета API для этой рекламной учетной записи было исчерпано. Повторите обновление конвейера через некоторое время. Рекомендуется принять меньшее количество таблиц параллельно, чтобы избежать повторного попадания ограничений.
Если часто возникают ошибки ограничения скорости, рассмотрите возможность обновления до расширенного доступа, если это еще не сделано, как указано в документации по Мета: https://developers.facebook.com/docs/marketing-api/get-started/authorization
META_MARKETING_REQUESTED_DATA_LIMIT_EXCEEDED
Сбой API метаданных, так как объем запрошенных данных превышает ограничение, которое может обрабатывать метасервы.
Попробуйте уменьшить количество полей для приема в этой таблице с помощью логики выбора столбца. Если ошибка сохраняется, отправьте билет.
MIGRATION_TO_UNITY_CATALOG
Дополнительные сведения см. в MIGRATION_TO_UNITY_CATALOG
ОТСУТСТВУЮТ РАЗРЕШЕНИЯ НА КАТАЛОГ ИЛИ СХЕМУ
Пользователь '<userName>' не имеет разрешений на '<schemaName>'. Сведения: <reason>
MISSING_CREATE_SCHEMA_PRIVILEGE
Пользователь "<userName>" не имеет разрешения на создание схемы в каталоге <catalogName>
MISSING_CREATE_TABLE_PRIVILEGE
Пользователь "<userName>" не имеет разрешения на создание таблицы в схеме <schemaName>
MISSING_RUN_AS_USER
Для обновления не было указано выполнение от имени пользователя.
MULTI_QUERY_SNAPSHOT_TARGET_NOT_SUPPORTED
'<tableName>' уже содержит запрос AUTO CDC FROM SNAPSHOT '<flowName>'. В настоящее время этот API поддерживает только один поток для каждого назначения.
MUTUALLY_EXCLUSIVE_OPTIONS
Взаимоисключающие опции <options>. Удалите один из этих вариантов.
NEGATIVE_VALUE
SQLSTATE: не присвоено
Значение для <arg_name> должно быть больше или равно 0, получено '<arg_value>'.
NON_UC_TABLE_ALREADY_MANAGED_BY_OTHER_PIPELINE
Таблица "<tableName>" уже управляется конвейером <otherPipelineId>.
Если вы хотите, чтобы таблица "<tableName>" управляла этим конвейером.
Удалите таблицу из конвейера '
<otherPipelineId>'.Запустите полное обновление для этого потока данных.
Если вы хотите продолжить управление таблицей из нескольких конвейеров, отключите этот флажок, установив для конфигурации pipelines.tableManagedByMultiplePipelinesCheck.enabled значение false в параметрах конвейера.
Это не рекомендуется, так как одновременные операции в таблице могут конфликтовать друг с другом и привести к непредвиденным результатам.
NOTEBOOK_NAME_LIMIT_REACHED
Недопустимый путь к записной книжке: "<nameStart>...<nameEnd>". Это длиннее <maxNotebookPathLength> символов.
NOTEBOOK_NOT_FOUND
Не удается получить доступ к записной книжке "<notebookPath>". Он либо не существует, либо удостоверение, используемое для запуска этого конвейера, <identity>не имеет необходимых разрешений.
NOTEBOOK_PIP_INSTALL_ERROR
Не удалось запустить "<pipInstallCommand>" из записной книжки: <notebookPath> Дополнительные сведения см. в журналах драйвера кластера stdout.
NOTEBOOK_TOO_LARGE
Содержимое разрешенной записной книжки<notebookPath> слишком велико, уменьшите размер записной книжки.
NOTIFICATIONS_DUPLICATE_ALERTS
Повторяющиеся оповещения '<alertsDuplicates>', указанные в [<alerts>]
NOTIFICATIONS_DUPLICATE_EMAIL_ADDRESSES
Повторяющиеся адреса электронной почты '<emailRecipientsDuplicates>', указанные в [<emailRecipients>]
NOTIFICATIONS_INVALID_ALERTS
Для получения уведомлений указаны недопустимые уведомления: <invalidAlerts>
NOTIFICATIONS_INVALID_EMAIL_ADDRESS
Недопустимый адрес электронной почты, указанный для получения уведомлений: <invalidEmailAddresses>
NOTIFICATIONS_MISSING_PARAMS
Укажите по крайней мере одного получателя и одного оповещения в <setting>
NO_SOURCE_OR_SNAPSHOT_AND_VERSION_ARGUMENT_PROVIDED
SQLSTATE: не присвоено
source
snapshot_version Либо необходимо задать для apply_changes_from_snapshot с целевым значением "<target>".
NO_TABLES_IN_PIPELINE
Ожидается, что в ваших каналах данных определена как минимум одна таблица, но в канале данных не найдено ни одной таблицы.
Убедитесь, что вы включили и предоставили общий доступ в случае настройки запуска от имени, ожидаемые исходные файлы и/или каталоги и что исходный код содержит определения таблиц (например CREATE MATERIALIZED VIEW , в коде @dlt.table SQL в коде Python).
Обратите внимание, что для этой проверки учитываются только таблицы. Эта ошибка также может возникнуть, если в ваш конвейер включены только представления или потоки.
OUTPUT_MODE_NOT_SUPPORTED_FOR_TABLE_FLOW
Режим вывода "<outputMode>" не поддерживается для потока таблиц "<flowName>" целевой таблицы "<target>". Для потоков таблиц поддерживается только режим добавления.
OWNER_IS_MISSING
Владелец не существует.
PAGINATION_REQUEST_HAS_NAME_AND_PAGINATION
Вы можете предоставить <name> или разбиение на страницы, но не оба одновременно.
PATCH_PIPELINE_DEFINITION_UNSUPPORTED_FIELD
PatchPipelineDefinition поддерживает только поле schedule, но предоставленное определение имело другие заполненные поля: "<updatedDefinition>".
PERSISTED_VIEW_READS_FROM_STREAMING_SOURCE
Сохраненные представления не поддерживают обработку данных из потоковых источников.
PERSISTED_VIEW_READS_FROM_TEMPORARY_VIEW
Постоянное представление <persistedViewName> не может ссылаться на временное представление <temporaryViewName>, которое не будет доступно за пределами области действия конвейера. Сделайте сохраненное представление временным или сохраните временное представление.
PIPELINE_CLONING_ALREADY_IN_PROGRESS
Конвейер уже клонируется в конвейер с идентификатором '<pipelineId>'.
PIPELINE_CLONING_BOTH_TARGET_AND_SCHEMA_SPECIFIED
Не удается указать как target, так и схему при клонирование конвейера. Укажите только один.
PIPELINE_CLONING_CANNOT_CHANGE_SCHEMA_TO_TARGET
Не удается клонировать конвейер с "схемой" в конвейер с "target". Клонированные конвейеры также должны использовать "схему" или опустить оба для наследования исходного значения.
PIPELINE_CLONING_INVALID_DURING_ACTIVE_UPDATE
Конвейер с идентификатором '<pipelineId>' не может быть клонирован во время активного обновления.
PIPELINE_CLONING_INVALID_FIELDS
Запрос включал спецификацию конвейера с недопустимыми полями для клонирования. Допустимые поля: имя, каталог, целевой объект, конфигурация.
PIPELINE_CLONING_INVALID_FOR_MISSING_TARGET
Конвейер с идентификатором '<pipelineId>' не публикуется в целевой схеме. Исходный конвейер должен публиковаться в целевой схеме, чтобы клонироваться. Повторите попытку после указания поля 'target' в спецификации конвейера и выполнения нового обновления, чтобы опубликовать данные в целевой схеме.
PIPELINE_CLONING_INVALID_FOR_UC_PIPELINE
Конвейер с идентификатором '<pipelineId>' уже является UC-конвейером. Конвейеры UC нельзя клонировать.
PIPELINE_CLONING_NO_CATALOG_SPECIFIED
Не указан каталог для клонирования.
PIPELINE_CLONING_NO_MODE_SPECIFIED
Нет указанного режима клонирования.
PIPELINE_CLONING_NO_TARGET_SPECIFIED
Для клонирования не указан целевой каталог.
PIPELINE_CREATION_NOT_ENABLED_FOR_WORKSPACE
Создание конвейера не включено для этой рабочей области.
PIPELINE_DOES_NOT_EXIST
Конвейер с идентификатором '<pipelineId>' не существует.
Дополнительные сведения см. в разделе PIPELINE_DOES_NOT_EXIST
PIPELINE_ENVIRONMENT_NOT_ENABLED
Использование среды в декларативных конвейерах Spark Lakeflow не включено.
PIPELINE_ENVIRONMENT_VERSION_NOT_ALLOWED
В настоящее время среда конвейера не поддерживает версии окружения.
PIPELINE_FAILED_TO_UPDATE_UC_TABLE_DUE_TO_CONCURRENT_UPDATE
Трубопровод не смог обновить таблицу UC (<tableName>) из-за одновременных изменений после <attempts> попыток.
Убедитесь, что внешние процессы не изменяют таблицу, повторите обновление и обратитесь в службу поддержки Databricks, если эта проблема сохранится.
PIPELINE_FAILED_TO_UPDATE_UC_TABLE_DUE_TO_EXTERNAL_DELETE
Таблица <tableName> была удалена внешней операцией во время обновления конвейера.
Убедитесь, что внешние процессы не изменяют таблицу, а затем повторите обновление.
Если проблема сохранится, обратитесь в службу поддержки Databricks.
PIPELINE_FOR_TABLE_NEEDS_REFRESH
Таблица <tableName> не находится в требуемом состоянии, таблица не была обновлена в последнее время. Конвейер с идентификатором "<pipelineId>" должен выполняться еще раз, после чего повторить операцию.
PIPELINE_FOR_TABLE_NOT_FOUND
Конвейер с идентификатором '<pipelineId>', управляющий таблицей <tableName>, не может быть найден. Убедитесь, что вы находитесь в той же рабочей области, что и поток данных, вы владелец этого потока, и поток выполнялся по крайней мере один раз.
PIPELINE_GLOB_INCLUDES_CONFLICTS
Необходимо задать поле glob или notebook/file в разделе библиотеки в параметрах конвейера. Измените параметры конвейера.
PIPELINE_GLOB_INCLUDES_NOT_SUPPORTED
Использование поля glob для включения исходных файлов является функцией предварительной версии и отключена.
Повторно выберите каждый исходный файл, чтобы включить его в конвейер и устранить эту ошибку.
Обратитесь в службу поддержки Databricks, чтобы узнать больше об этой функции и зарегистрировать в предварительной версии.
PIPELINE_GLOB_UNSUPPORTED_SPECIAL_CHARACTER
Специальные символы <specialChar> зарезервированы и не должны использоваться в пути, включенном в "<path>" в параметрах конвейера. Удаление этих символов для устранения ошибки
PIPELINE_NAME_LIMIT_REACHED
Имя не может быть длиннее <maxPipelineNameLength> символов.
PIPELINE_NON_RETRYABLE_ANALYSIS_CLIENT_ERROR
Процесс сбора данных не смог проанализировать исходные таблицы (<tables>) из-за ошибок, которые невозможно исправить, после частичного выполнения.
Новое обновление конвейера не будет создано.
<flowErrors>
Проверьте журнал событий и исправьте соответствующие проблемы.
ТРУБОПРОВОД НЕ ПОДЛЕЖИТ ВОССТАНОВЛЕНИЮ
Конвейер '<pipelineId>' вышел за пределы окна восстановления.
PIPELINE_NOT_IN_DIRECT_PUBLISHING_MODE
Конвейер с идентификатором '<pipelineId>', который управляет таблицей <tableName>, не использует режим прямой публикации.
PIPELINE_NOT_READY_FOR_SCHEDULED_UPDATE
Таблица еще не готова к обновлению
Дополнительную информацию см. в PIPELINE_NOT_READY_FOR_SCHEDULED_UPDATE.
PIPELINE_PERMISSION_DENIED_NOT_OWNER
Вы не можете выполнить эту операцию. Вы не являетесь владельцем конвейера с идентификатором "<pipelineId>", управляя таблицей <tableName>.
РЕТРАЙБЛ_АНАЛИЗ_ТРУБОПРОВОДА
Конвейер не смог проанализировать исходные таблицы (<tables>) из-за ошибок, подлежащих повторным попыткам, после частичного выполнения.
Новое обновление конвейера обработки будет создано для повторной обработки. Если ошибка сохраняется, проверьте журнал событий и укажите соответствующие проблемы.
PIPELINE_SETTINGS_FIELD_CANNOT_BE_EDITED
"<uneditableFieldName>" нельзя изменить пользователями. Если пользователи хотят добавить или изменить <settingName>, используйте поле '<editableFieldName>' вместо этого.
PIPELINE_SETTINGS_MODIFIED_CONCURRENTLY
Параметры конвейера были изменены одновременно.
PIPELINE_SETTINGS_UNSUPPORTED_CONFIGURATIONS
Конфигурации <configurations> не поддерживаются декларативными конвейерами Spark Lakeflow. Удалите эти конфигурации.
PIPELINE_SETTING_SHOULD_NOT_SPECIFY_DEVELOPMENT
Запуск обновления с параметром "разработка" не поддерживается.
PIPELINE_SHOULD_NOT_HAVE_MULTIPLE_TABLES
Конвейер должен иметь ровно одну таблицу, но найдено <tablesSize> таблиц: <tables>
PIPELINE_SOURCE_FILE_NUMBER_EXCEEDED
Количество исходных файлов, включая файлы, указанные в папках, превышает предел <limit>.
При необходимости удалите или объедините избыточные файлы и измените соответствующую спецификацию конвейера.
или обратитесь в службу поддержки Databricks, чтобы запросить увеличение ограничения.
PIPELINE_SOURCE_FOLDER_DEPTH_EXCEEDED
Папка "<folder_path>" превышает максимально допустимую глубину вложенности каталога <limit>. Уменьшите уровень вложения папок или обратитесь в службу поддержки Databricks, чтобы запросить увеличение ограничения.
PIPELINE_SPEC_PARAM_CANNOT_BE_CHANGED
Изменение следующего параметра <param> в параметрах конвейера запрещено
PIPELINE_TYPE_NOT_SUPPORTED
Тип конвейера "<pipelineType>" не поддерживается.
PIPELINE_TYPE_NOT_WORKSPACE_PIPELINE_TYPE
Конвейер с идентификатором '<pipelineId>', управляя таблицей <tableName>, не является конвейером ETL.
PIPELINE_TYPE_QUOTA_EXCEEDED
Не удается запустить обновление"<updateId>, так как достигнуто ограничение для активных конвейеров типа "<pipelineType>".
PIPELINE_UPDATE_FOR_TABLE_IS_RUNNING
Конвейер с идентификатором "<pipelineId>", управляющий таблицей <tableName>, выполняется. Перед выполнением операции остановите конвейер.
PIPELINE_WORKSPACE_LIMIT_REACHED
Создание конвейера типа "<pipelineType>" заблокировано, так как рабочая область "<orgId>" уже имеет "<countLimit>" конвейеры. Удалите неиспользуемые конвейеры.
PIP_INSTALL_NOT_AT_TOP_OF_NOTEBOOK
Найденные ячейки, содержащие установку %pip, которые расположены не в верхней части записной книжки для '<notebookPath>'
Переместите все ячейки %pip установки в начало записной книжки.
PY4J_BLOCKED_API
SQLSTATE: не присвоено
Вы используете API Python, который не поддерживается в текущей среде.
Пожалуйста, обратитесь к документации по Databricks для альтернатив.
<additionalInfo>
QUERY_BASED_CONNECTOR_SOURCE_API_ERROR
Произошла ошибка в вызове API <sourceName>. Тип исходного API: <qbcSourceApiType>.
Попробуйте обновить целевую таблицу. Если проблема сохраняется, отправьте запрос.
QUERY_BASED_INGESTION_CONNECTOR_ERROR
В соединителе на базе запросов для приема данных <sourceName> возникла ошибка.
Дополнительные сведения см. в QUERY_BASED_INGESTION_CONNECTOR_ERROR.
REFERENCE_DLT_DATASET_OUTSIDE_QUERY_DEFINITION
Ссылка на набор <identifier> данных Lakeflow Spark Декларативный конвейеры за пределами определения запроса набора данных (т. е. @dlt.table заметка) не поддерживается. Пожалуйста, прочитайте это внутри определения запроса набора данных.
REFRESH_INITIATED_FROM_INVALID_WORKSPACE
Обновление должно быть инициировано в рабочей области <homeWorkspaceId>, где был создан ресурс.
Обновление было предприняно в рабочей области <userWorkspaceId>.
REFRESH_MODE_ALREADY_EXISTS
Невозможно добавить <type> в таблицу, в которой уже есть <existingType>. Удалите существующее расписание или используйте ALTER TABLE...ALTER <type> ... чтобы изменить его.
REQUIRED_PARAM_NOT_FOUND
Обязательный параметр <param> не найден.
RESERVED_KEYWORD_IN_USE_CATALOG
CATALOGUSE <reservedKeyword> '' является незаконным, так как '<reservedKeyword>' является зарезервированным ключевым словом в Декларативных конвейерах Spark Lakeflow.
RESERVED_KEYWORD_IN_USE_SCHEMA
SCHEMAUSE <reservedKeyword> '' является незаконным, так как '<reservedKeyword>' является зарезервированным ключевым словом в Декларативных конвейерах Spark Lakeflow.
ПРОВИЗИРОВАНИЕ_РЕСУРСОВ
Ресурсы конвейера подготавливаются для конвейера "<pipelineId>".
RESOURCE_READ_ONLY_IN_WORKSPACE
<resourceType> '<resourceName>' был назначен только для чтения в текущей рабочей области.
ВОССТАНОВЛЕНИЕ_НЕУДАЛЁННОГО_КОНВЕЙЕРА
Конвейер "<pipelineId>" не удаляется. Восстановление применимо только для удаленных конвейеров.
ВОССТАНОВЛЕНИЕ_АЛГОРИТМА_ОТКЛЮЧЕНО
RestorePipeline не активирован для типа потока данных <pipelineType>
Обратитесь в службу поддержки Databricks, чтобы помочь в восстановлении конвейера "<pipelineId>".
ROOT_PATH_NOT_FOUND
Не удается получить доступ к корневому пути '<rootPath>'. Убедитесь, что у вас есть необходимые права доступа.
RUN_AS_USER_NOT_FOUND
Указанный запуск от имени пользователя "<runAsUserId>" для обновления не существует в рабочей области.
SAAS_CONNECTION_ERROR
Не удалось подключиться к источнику <sourceName>. Код ошибки: <saasConnectionErrorCode>.
Дополнительные сведения см. в SAAS_CONNECTION_ERROR
SAAS_CONNECTOR_DUPLICATE_DATA
Найденные повторяющиеся данные в таблице <tableName>. Тип источника: <sourceName>.
Дополнительные сведения см. в SAAS_CONNECTOR_DUPLICATE_DATA
SAAS_CONNECTOR_INVALID_INCLUDE_COLUMNS
Недопустимый include_columns, указанный для таблицы <qualifiedTableName>. Причина: <reason>
SAAS_CONNECTOR_INVALID_PRIMARY_KEY_CONFIGURATION
Недопустимая конфигурация первичного ключа для таблицы <qualifiedTableName>. Причина: <reason>
SAAS_CONNECTOR_MUTUAL_AUTHENTICATION_FAILED
Этот сеанс не удалось выполнить взаимную проверку подлинности для использования <sourceName>. Тип исходного API: <saasSourceApiType>. Код ошибки: <saasSourceApiErrorCode>.
Убедитесь, что сертификат клиента и закрытый ключ являются допустимыми парами и доверенными <sourceName>.
SAAS_CONNECTOR_REFRESH_TOKEN_EXPIRED
Срок действия токена обновления для подключения <connectionName> истек. Измените подключение, повторно выполните проверку подлинности и повторно запустите конвейер.
SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR
Изменение схемы произошло в таблице <tableName> источника <sourceName>.
Дополнительные сведения см. в SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR
SAAS_CONNECTOR_SOURCE_API_ERROR
Произошла ошибка в вызове API <sourceName>. Тип исходного API: <saasSourceApiType>. Код ошибки: <saasSourceApiErrorCode>.
Попробуйте обновить целевую таблицу. Если проблема сохраняется, отправьте запрос.
SAAS_CONNECTOR_UC_CONNECTION_OAUTH_EXCHANGE_FAILED
Сбой обмена маркерами OAuth для подключения UC: <connectionName>
Это может быть вызвано проблемами с учетными данными UC. Проверьте трассировку ошибок, измените подключение UC, повторно выполните проверку подлинности и снова запустите конвейер. Если ошибка сохраняется, отправьте билет.
SAAS_CONNECTOR_UNSUPPORTED_ERROR
Неподдерживаемая ошибка произошла в источнике данных <sourceName>.
Дополнительные сведения см. в SAAS_CONNECTOR_UNSUPPORTED_ERROR
SAAS_INCOMPATIBLE_SCHEMA_CHANGES_DURING_INIT
Мы обнаружили несовместимые изменения схемы при инициализации конвейера:
<details>
Выполните полное обновление затронутых таблиц.
SAAS_PARTIAL_ANALYSIS_INPUT_CREATION_ERROR
Ошибка при создании входных данных для частичного анализа. Новое обновление конвейера не будет создано.
Проверьте журнал событий и исправьте проблемы соответствующим образом.
SAAS_SCHEMA_DIVERGED_DURING_ANALYSIS
Анализируемая схема исходной таблицы (<table>)отличалась от ожидаемой схемы.
Повторите обновление конвейера и проверьте, устранена ли проблема.
Если эта проблема сохраняется, выполните полное обновление таблиц, упомянутых выше.
Ожидаемая схема:
<expectedSchema>
Фактическая схема:
<actualSchema>
SAAS_UC_CONNECTION_INACCESSIBLE
Указанное подключение <connectionName> недоступно. Проверьте подключение и повторите попытку.
Дополнительные сведения см. в SAAS_UC_CONNECTION_INACCESSIBLE
SCHEMA_SPEC_EMPTY_CATALOG
SchemaSpec имеет пустую строку в поле каталога.
Удалите пустую строку или добавьте имя каталога. (Если эта схема не принадлежит каталогу в источнике, не устанавливайте поле.)
Сведения о спецификации схемы:
<schemaSpec>
SCHEMA_SPEC_EMPTY_SCHEMA
SchemaSpec имеет пустую строку в поле схемы.
Удалите пустую строку или добавьте имя схемы. (Если эта таблица не принадлежит к схеме в источнике, не устанавливайте поле.)
Сведения о спецификации схемы:
<schemaSpec>
SCHEMA_SPEC_REQUIRE_ONE_OF_CATALOG_SCHEMA
Должен присутствовать по крайней мере один из исходного каталога и исходной схемы. Но оба пусты.
Сведения о спецификации схемы:
<schemaSpec>
SEQUENCE_BY_COLUMN_NOT_FOUND
Определение конвейера включает столбцы sequence_by (<columnNames>), которые не существуют в таблице <qualifiedTableName> в источнике <sourceType>. Удалите эти столбцы из поля sequence_by.
ПОЛИТИКА БЮДЖЕТА И ПОЛИТИКА ИСПОЛЬЗОВАНИЯ ДЛЯ SERVERLESS Оба Установлены
Не удается задать оба budget_policy_id и usage_policy_id. Удалите budget_policy_id.
SERVERLESS_BUDGET_POLICY_BAD_REQUEST
Указанная политика бюджета с идентификатором "<budgetPolicyId>" не может использоваться в этой рабочей области из-за ограничений привязки рабочей области политики.
SERVERLESS_BUDGET_POLICY_IS_INVALID
Политика бюджета серверлесс с идентификатором '<budgetPolicyId>' является недопустимой.
SERVERLESS_BUDGET_POLICY_MISSING
Бессерверная политика бюджета с идентификатором '<budgetPolicyId>' не существует.
SERVERLESS_BUDGET_POLICY_NOT_ENABLED
Бессерверная политика бюджета не включена, обратитесь в службу поддержки Databricks.
SERVERLESS_BUDGET_POLICY_NOT_ENABLED_FOR_ACCOUNT
Бессерверная политика бюджета не включена для этой учетной записи. Пользователь не может указать политику бюджета для этого конвейера. Администратор учетной записи должен попытаться зарегистрироваться через портал предварительного просмотра функций. Если проблема сохранится, обратитесь в службу поддержки Databricks.
SERVERLESS_BUDGET_POLICY_NOT_SUPPORTED_FOR_NON_SERVERLESS_PIPELINE
Бессерверная политика бюджета не может быть назначена бессерверному конвейеру.
SERVERLESS_BUDGET_POLICY_NOT_SUPPORTED_FOR_PIPELINE_TYPE
Бессерверная политика бюджета не поддерживается для типа <pipelineType>конвейера.
SERVERLESS_BUDGET_POLICY_PERMISSION_DENIED
У пользователя нет разрешения на использование бессерверной политики бюджета с идентификатором '<budgetPolicyId>'.
SERVERLESS_NOT_AVAILABLE
Бессерверные вычисления недоступны. Для получения дополнительной информации обратитесь к Databricks.
SERVERLESS_NOT_ENABLED
Вы не можете использовать бессерверные вычисления с декларативными конвейерами Spark Lakeflow. Обратитесь к Databricks, чтобы включить эту функцию для рабочей области.
SERVERLESS_NOT_ENABLED_FOR_USER
Бессерверные вычисления не включены для вызывающего абонента. Чтобы включить эту функцию, обратитесь к администратору рабочей области.
SERVERLESS_NOT_ENABLED_FOR_WORKSPACE
Бессерверные вычисления недоступны для этой рабочей области и (или) региона. Для получения дополнительной информации обратитесь к Databricks.
SERVERLESS_REQUIRED
В этой рабочей области необходимо использовать бессерверные вычисления.
SERVICENOW_CONNECTION_ERROR
Произошла ошибка в ServiceNow. Тип исходного API: <saasSourceApiType>.
Для получения дополнительной информации см. SERVICENOW_CONNECTION_ERROR
SERVICENOW_CONNECTOR_EMPTY_CURSOR_KEY_ERROR
Произошла ошибка в ServiceNow. Тип исходного API: <saasSourceApiType>.
В настоящее время конвейер обработки данных не может принять таблицу "<tableName>", так как ключ курсора в строке содержит пустое поле.
Чтобы продолжить выполнение конвейера, удалите эту таблицу. Если ошибка сохраняется, отправьте билет.
SERVICENOW_CONNECTOR_INSTANCE_HIBERNATION_ERROR
Произошла ошибка в ServiceNow. Тип исходного API: <saasSourceApiType>.
Не удалось подключиться к экземпляру ServiceNow. Экземпляр, по-видимому, находится в спящем режиме или неактивен.
Войдите в административный портал ServiceNow и подождите несколько минут, пока экземпляр полностью не активируется.
Если ошибка сохраняется, отправьте билет.
SERVICENOW_CONNECTOR_INSTANCE_OFFLINE_ERROR
Произошла ошибка в ServiceNow. Тип исходного API: <saasSourceApiType>.
Не удалось подключиться к экземпляру ServiceNow. Экземпляр находится в автономном режиме.
Войдите на портал администрирования ServiceNow и дождитесь некоторого времени, пока экземпляр не восстановится.
Если ошибка сохраняется, отправьте билет.
SERVICENOW_CONNECTOR_INVALID_TABLE_ERROR
Произошла ошибка в ServiceNow. Тип исходного API: <saasSourceApiType>.
Не удалось запросить схему таблицы "<tableName>". Таблица не существует в учетной записи ServiceNow для этого пользователя.
Проверьте имя таблицы для любых опечаток и убедитесь, что у пользователя есть необходимые разрешения для доступа к таблице.
Если ошибка сохраняется, отправьте билет.
SERVICENOW_CONNECTOR_IP_ADDRESS_RESTRICTED_ERROR
Произошла ошибка в ServiceNow. Тип исходного API: <saasSourceApiType>.
Не удалось подключиться к экземпляру ServiceNow. Экземпляр имеет ограничения доступа по IP-адресу.
Чтобы устранить эту проблему, отключите ограничения IP-адресов, перейдя в ServiceNow >> All >> System Security >> Контроль доступа по IP-адресам или используйте бессерверные фиксированные IP-адреса.
Если ошибка сохраняется, отправьте билет.
SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR
Произошла ошибка в ServiceNow. Тип исходного API: <saasSourceApiType>.
Обнаружен недопустимый URL-адрес конечной точки API ServiceNow. Структура URL-адресов не соответствует ожидаемому формату ServiceNow.
Проверьте конфигурацию экземпляра ServiceNow в учетных данных подключения UC.
Дополнительные сведения см. в SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR
SERVICENOW_CONNECTOR_MAX_FAILED_ATTEMPTS_REACHED
Произошла ошибка в ServiceNow. Тип исходного API: <saasSourceApiType>.
Это часто происходит, когда получение данных для таблицы занимает слишком много времени. На первом шаге обратитесь к администратору ServiceNow, чтобы включить индексирование в столбце курсора.
Столбец курсора выбирается из следующего списка, в порядке доступности и предпочтений: sys_updated_on (первый выбор), sys_created_on (второй выбор), sys_archived (третий вариант)
Инструкции по включению индексирования в ServiceNow см. здесь: https://docs.databricks.com/ingestion/lakeflow-connect/servicenow-overview#why-is-my-servicenow-ingestion-performance-slow
Мы также рекомендуем увеличить время ожидания запроса REST API более чем 60 секунд, чтобы предоставить больше времени для получения записей.
Затем повторите конвейер приема. Если проблема сохранится, отправьте билет.
SERVICENOW_CONNECTOR_SCHEMA_FIELD_TYPE_INACCESSIBLE
Произошла ошибка в ServiceNow. Тип исходного API: <saasSourceApiType>.
При извлечении схемы таблицы без прав администратора internal_type столбцов схемы недоступен.
Чтобы устранить эту проблему, предоставьте разрешения на чтение таблицы "sys_glide_object" текущему пользователю.
Если ошибка сохраняется, отправьте билет.
SERVICENOW_CONNECTOR_SCHEMA_FIELD_TYPE_MISMATCH
В ServiceNow произошла ошибка при получении схемы таблицы.
Найдено два конфликтующих типа данных для поля "": "<fieldName><firstDataType>" и "<secondDataType>".
Чтобы продолжить выполнение конвейера, удалите эту таблицу. Если ошибка сохраняется, отправьте билет.
SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
Произошла ошибка в ServiceNow. Тип исходного API: <saasSourceApiType>.
Дополнительные сведения см. в SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
SET_TBLPROPERTIES_NOT_ALLOWED_FOR_PIPELINE_TABLE
ALTER <commandTableType>
...
SET TBLPROPERTIES не поддерживается. Чтобы изменить свойства таблицы, измените исходное определение и запустите обновление.
SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE
Прием для объекта <objName> неполный, так как задание запроса API Salesforce заняло слишком много времени, завершилось сбоем или было отменено вручную.
Дополнительные сведения см. в разделе SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE
SFDC_CONNECTOR_BULK_QUERY_NOT_FOUND
Прием для объекта <objName> завершился сбоем, поскольку не удалось найти задание запроса Salesforce Bulk API.
Скорее всего, это связано с тем, что задание было удалено в пользовательском интерфейсе Salesforce или было более 7 дней после последнего обновления конвейера, после чего Salesforce автоматически удаляет задание.
Чтобы запустить новое пакетное задание, выполните команду FULL REFRESH в конкретной целевой таблице.
SFDC_CONNECTOR_CREATE_BULK_QUERY_API_LIMIT_EXCEEDED
Произошла ошибка в вызове API Salesforce: превышено ограничение API
Дождитесь сброса ограничений API. Затем попробуйте обновить целевую таблицу.
Если ошибка сохраняется, отправьте билет.
SFDC_CONNECTOR_CREATE_BULK_QUERY_JOB_FAILED
Погрузка для объекта <objName> является неполной из-за ошибки создания задания запроса массового API Salesforce. Код ошибки: <saasSourceApiErrorCode>.
<actionText>.
SFDC_CONNECTOR_MALFORMED_RECORDS
Ошибка при обработке объекта Salesforce <objName>, так как Salesforce <saasSourceApiType> вернул искаженные записи.
Для получения дополнительных сведений см. трассировку стека.
Проверьте данные в Salesforce и повторно запустите конвейер.
SINKS_NOT_SUPPORTED_IN_SEG
Приемники декларативных конвейеров Lakeflow Spark в конвейере не поддерживаются в рабочих областях с поддержкой бессерверного исходящего трафика. Поддерживаемые приемники Декларативных конвейеров Lakeflow Spark: Kafka и Delta.
Обнаружены следующие неподдерживаемые приемники: <sinkNames>, а их соответствующие форматы: <sinkFormats>.
SOURCE_TABLE_NOT_MATERIALIZED
Не удалось считывать зависимый набор данных"<sourceTableName> из-за того, что он не материализован. Запустите весь конвейер, чтобы материализовать все зависимые наборы данных.
SPARK_CONNECT_DEFINITION_PATH_NOT_FOUND
Путь определения для элемента graph '<graphElementName>' не найден. Обратитесь в службу поддержки Databricks.
SPARK_CONNECT_DEFINITION_PATH_NOT_FOUND_SPARK_SQL
Путь определения конвейера недоступен в текущем контексте выполнения SQL Spark. Обратитесь в службу поддержки Databricks.
SPARK_CONNECT_UNSUPPORTED_FLOW_DEFINITION_ERROR
Определение потока не поддерживается. Обратитесь в службу поддержки Databricks. Команда: <defineFlowCommand>
SPARK_CONNECT_UNSUPPORTED_OUTPUT_TYPE
Тип вывода "<outputType>" не поддерживается в Spark Connect. Обратитесь в службу поддержки Databricks.
STANDALONE_PRIVATE_MVST_NOT_SUPPORTED
Создание автономного PRIVATE MV/ST не поддерживается. Удалите PRIVATE модификатор
Начало интерактивного сеанса Python истекло (START_PYTHON_REPL_TIMED_OUT)
Истекло время ожидания запуска REPL Python. Заняло более <timeoutSeconds> секунд.
STREAMING_TARGET_NOT_DEFINED
Не удается найти целевую таблицу <target> для команды <command>. Целевая таблица <target> не определена в конвейере обработки данных.
SYNCED_TABLE_USER_ERROR
Ошибка пользователя в конвейере синхронизированной таблицы.
Дополнительные сведения см. в SYNCED_TABLE_USER_ERROR
TABLE_CHANGED_DURING_OPERATION
Таблица <tableName> была изменена за пределами этой транзакции, и эта транзакция была откатена. Повторите операцию.
TABLE_MATERIALIZATION_CYCLIC_FOREIGN_KEY_DEPENDENCY
Обновление конвейера: <pipelineId> обнаружена циклическая цепочка ограничений внешнего ключа: <tables>
TABLE_SPEC_BOTH_CATALOG_SCHEMA_REQUIRED
У TableSpec отсутствует один из компонентов: исходный каталог и/или исходная схема.
Сведения о спецификации таблицы:
<tableSpec>
TABLE_SPEC_EMPTY_CATALOG
TableSpec имеет пустую строку в поле каталога.
Удалите пустую строку или добавьте имя каталога. (Если эта таблица не принадлежит каталогу в источнике, не устанавливайте поле.)
Сведения о спецификации таблицы:
<tableSpec>
TABLE_SPEC_EMPTY_SCHEMA
TableSpec имеет пустую строку в поле схемы.
Удалите пустую строку или добавьте имя схемы. (Если эта таблица не принадлежит к схеме в источнике, не устанавливайте поле.)
Сведения о спецификации таблицы:
<tableSpec>
TABLE_SPEC_EMPTY_TABLE
Имя таблицы пусто. Укажите имя таблицы.
Сведения о спецификации таблицы:
<tableSpec>
TABLE_TOKEN_NOT_EXIST_FOR_SCHEMA_EVOLUTION_LEGACY_TABLE
Эволюция схемы не может быть включена из-за отсутствия метаданных. Активируйте полное обновление.
Причина: Токен таблицы снимков должен быть определён при включении эволюции схемы.
ТРЕШ_ПАЙПЛАЙН_В_РАБОЧЕЙ_ОБЛАСТИ
Невозможно запустить конвейер, так как конвейер помещен в корзину или удален.
TRIGGER_INTERVAL_VALUE_INVALID
Интервал триггера должен быть положительным, максимально допустимое значение — 2 147 483 647 секунд. Получено: <actual> секунда.
TRIGGER_NOT_ENABLED
Триггеры не включены для этой рабочей области. Включите триггеры таблиц на странице предварительных версий.
TRIGGER_ON_VIEW_READ_FROM_FILE_NOT_SUPPORTED
Источник <source> — это представление, которое считывается из расположения файла, которое в настоящее время не поддерживается триггером.
TRIGGER_REQUEST_SERIALIZATION_ERROR
Возникла проблема с обработкой запроса. Обратитесь в службу поддержки Databricks.
ТИП_ЗАЩИЩАЕМАЯ_ОБЛАСТЬ_НЕ_ПОДДЕРЖИВАЕТСЯ
Сбой установки триггера: неподдерживаемый тип таблицы. См. документацию по поддерживаемым типам.
TRIGGER_SOURCE_TYPE_NOT_SUPPORTED
Триггер в настоящее время не поддерживает источник <source> с типом <type>.
TRIGGER_STATE_SERIALIZATION_ERROR (Ошибка сериализации состояния триггера)
Возникла проблема с обработкой запроса. Обратитесь в службу поддержки Databricks.
ПРЕВЫШЕН ЛИМИТ ТАБЛИЦЫ ТРИГГЕРА (TRIGGER_TABLE_LIMIT_EXCEEDED)
Сбой установки триггера: триггер включает в себя больше таблиц, чем разрешенное ограничение. Дополнительные сведения об ограничениях таблиц и способах устранения этой проблемы см. в документации.
Тип таблицы триггера не поддерживается
Сбой установки триггера: неподдерживаемый тип таблицы. См. документацию по поддерживаемым типам.
UC_CLEARING_TARGET_SCHEMA_NOT_ALLOWED
Очистка поля в целевой схеме не допускается для конвейеров UC. Причина: <reason>.
UC_IAM_ROLE_NON_SELF_ASSUMING
Роль IAM для учетных данных хранения была найдена не самозаверяющей.
Проверьте доверенность вашей роли и политики IAM, чтобы удостовериться, что ваша роль IAM может взять на себя функции согласно документации учетных данных Unity Catalog.
UC_NOT_ENABLED
Использование каталога UC в Декларативных конвейерах Spark Lakeflow не включено.
UC_PIPELINE_CANNOT_PUBLISH_TO_HMS
Конвейеры с поддержкой UC не могут публиковать в хранилище метаданных Hive. Выберите другой целевой каталог.
UC_TARGET_SCHEMA_REQUIRED
Поле целевой схемы требуется для конвейеров UC. Причина: <reason>.
UNABLE_TO_INFER_TABLE_SCHEMA
Не удалось определить схему для таблицы <tableName> из его вышестоящих потоков.
Измените потоки, записываемые в эту таблицу, чтобы обеспечить совместимость схем.
Пока сформированная схема:
<inferredDataSchema>
Несовместимая схема:
<incompatibleDataSchema>
UNEXPECTED_PIPELINE_SCHEMA_PERMISSION_ERROR
Непредвиденная ошибка при проверке разрешений схемы для конвейера <pipelineId>. Обратитесь в службу поддержки Databricks.
ROW_FILTERSНЕВОЗМОЖНО_УСТАНОВИТЬ_СОВМЕСТИМОСТЬ_С_COLUMN_MASKS
Единая совместимость не может быть задана для материализованных представлений или потоковых таблиц с примененными фильтрами строк или масками столбцов.
UNITY_CATALOG_INITIALIZATION_FAILED
При настройке конвейера в кластере <clusterId>произошла ошибка с каталогом Unity.
Убедитесь, что конфигурация каталога Unity правильна, а необходимые ресурсы (например, каталог, схема) существуют и доступны.
Кроме того, убедитесь, что кластер имеет соответствующие разрешения для доступа к каталогу Unity.
Сведения: <ucErrorMessage>
UNRESOLVED_SINK_PATH
Путь к хранилищу для синка <identifier> не может быть определен. Обратитесь в службу поддержки Databricks.
UNRESOLVED_TABLES_FOR_MAINTENANCE
Следующие таблицы были найдены в определении конвейера, но не удалось устранить во время обслуживания. Выполните выполнение обновления конвейера с последним определением конвейера, чтобы материализовать все таблицы в определении конвейера и разблокировать обслуживание или обратиться в службу поддержки Databricks, если проблема сохранится.
<unresolvedTableIdentifiersSet>
UNRESOLVED_TABLE_PATH
Путь хранения для таблицы <identifier> не может быть определён. Обратитесь в службу поддержки Databricks.
UNSUPPORTED_ALTER_COMMAND
ALTER <commandTableType>
...
<command> не поддерживается.
UNSUPPORTED_CHANNEL_FOR_DPM
Неподдерживаемый канал для режима прямой публикации. Ожидается либо канал "CURRENT" либо "PREVIEW", но получен "PREVIOUS"
UNSUPPORTED_COMMAND_IN_NON_DPM_PIPELINE
<command> Поддерживается только в режиме прямой публикации в декларативном конвейере Spark
UNSUPPORTED_COMMAND_IN_QUERY_DEFINITION
'<command>' не поддерживается в определении запроса. Переместите команду за пределы определения запроса. Если это декларативный конвейер Spark в Python, переместите его<command> за пределы @dlt.table()/@dlt.view() декоратора. Если это декларативный конвейер Spark в Scala, переместите его<command> за пределы метода query.
UNSUPPORTED_CUSTOM_DBR_VERSION
Пользовательская версия DBR '<v>' не поддерживается в рабочих областях SHIELD и HIPAA. Ожидается один из вариантов [<supportedDbrVersions>]
ПРОСМОТР НЕПОДДЕРЖИВАЕМОЙ ПОЛЬЗОВАТЕЛЬСКОЙ СХЕМЫ
Приватная предварительная версия пользовательской схемы отключена.
Создайте конвейер с режимом публикации по умолчанию с помощью поля "схема"
в спецификации конвейера и переместите наборы данных из этого конвейера в новый конвейер.
НЕПОДДЕРЖИВАЕМОЕ ВКЛЮЧЕНИЕ ПРЕДПРОСМОТРА ПОЛЬЗОВАТЕЛЬСКОЙ СХЕМЫ
Частная предварительная версия пользовательской схемы отключена, и вы не можете добавить предварительную версию в конвейер.
Удалите <sparkConfKeys> из конфигурации конвейера.
UNSUPPORTED_DBR_VERSION
Версия DBR "<v>" не поддерживается. Ожидается один из вариантов [<supportedDbrVersions>]
UNSUPPORTED_FEATURE_FOR_WORKSPACE
<featureName> не поддерживается в вашей рабочей области. Обратитесь в службу поддержки Databricks, чтобы включить эту функцию для рабочей области.
UNSUPPORTED_LANGUAGE
Не удалось загрузить <language> блокнот "<notebookPath>". В настоящее время поддерживаются только ноутбуки <supportedLanguages>.
UNSUPPORTED_LIBRARY_FILE_TYPE
<path> файл не имеет расширения .py или .sql. В конвейерах поддерживаются только файлы Python и SQL.
UNSUPPORTED_LIBRARY_NOTEBOOK_LANGUAGE
Неподдерживаемый язык для записной книжки <language><path>. Только Python и SQL поддерживаются в конвейерах
UNSUPPORTED_LIBRARY_OBJECT_TYPE
Включенный по пути <path> тип <objectType> , который не поддерживается. В настоящее время в качестве библиотек можно использовать только записные книжки и файлы. Чтобы устранить эту проблему, удалите неподдерживаемый объект или обновите библиотеки, настроенные для этого конвейера, поэтому включены только поддерживаемые типы объектов.
UNSUPPORTED_MANAGED_INGESTION_SOURCE_TYPE
Недопустимое определение управляемого конвейера поглощения, неподдерживаемый тип источника: <sourceType>.
UNSUPPORTED_MULTIPLE_UPDATE_TYPE
Проверка только, изучение только и перемотка обновлений являются взаимоисключающими. По крайней мере его следует задать.
UNSUPPORTED_REWIND
Операции перемотки еще не включены для этой рабочей области.
UNSUPPORTED_SAAS_INGESTION_TYPE
Указанный тип ввода <ingestionType> не поддерживается.
Обратитесь в службу поддержки Databricks, если эта проблема сохраняется.
UNSUPPORTED_SPARK_SQL_COMMAND
'<command>' не поддерживается в API spark.sql("...") в Lakeflow Spark Декларативные конвейеры Python. Поддерживаемая команда: <supportedCommands>.
UNSUPPORTED_SQL_STATEMENT
Неподдерживаемая инструкция SQL для <datasetType> '<datasetName>': <operation> не поддерживается.
UPDATED_DEFINITION_SET_FOR_NON_DBSQL_PIPELINE
Только DBSQL конвейеры могут иметь updated_definition.
USE_CATALOG_IN_HMS
USE CATALOG поддерживается только в декларативном конвейере Spark с поддержкой UC
VIEW_TEXT_NOT_SAVED_IN_UC
Не удается обновить таблицу <tableName>, так как у нее нет запроса, сохраненного в каталоге Unity. Обратитесь в службу поддержки Databricks.
WORKDAY_HCM_CONNECTOR_FETCH_BATCH_FAILED
Произошла ошибка в Workday HCM. Тип исходного API: <saasSourceApiType>.
Не удалось получить пакет при смещение "<offset>".
Попробуйте обновить целевую таблицу. Если проблема сохраняется, отправьте запрос.
WORKDAY_REPORTS_CONNECTOR_INSUFFICIENT_OAUTH_SCOPE_ERROR (Недостаточный объем разрешений OAuth для соединителя Workday Reports)
Произошла ошибка в отчетах Workday. Тип исходного API: <saasSourceApiType>.
Не удалось получить данные для отчета "<reportUrl>". Клиент OAuth не имеет достаточного объема доступа для получения отчета.
Чтобы устранить эту проблему, убедитесь, что клиент OAuth имеет необходимые области, настроенные в Workday.
Если ошибка сохраняется, отправьте билет.
отсутствуют обязательные параметры в соединителе отчётов WORKDAY
Произошла ошибка в отчетах Workday. Тип исходного API: <saasSourceApiType>.
Отчет Workday<reportUrl> "" ожидает параметр "<missingParam>".
Убедитесь, что все параметры отчета включены в URL-адрес; Можно проверить конфигурацию отчета Workday, чтобы определить, какие параметры являются обязательными.
Если проблема сохранится, отправьте билет.
WORKDAY_REPORTS_CONNECTOR_REPORT_NOT_FOUND_ERROR
Произошла ошибка в отчетах Workday. Тип исходного API: <saasSourceApiType>.
Неверный URL-адрес<reportUrl> отчета. Проверьте наличие любых опечаток в базовом URL-адресе или имени отчета, чтобы устранить проблему.
Если проблема сохранится, отправьте билет.
СООЕДИНИТЕЛЬ_ОТЧЁТОВ_WORKDAY_ПРЕВЫШЕН_РАЗМЕР_ОТЧЁТА_ОШИБКА
Произошла ошибка в отчетах Workday. Тип исходного API: <saasSourceApiType>.
Размер отчета с URL-адресом "<reportUrl>" превышает 2 ГБ. Убедитесь, что размер отчета не превышает этот предел.
Если проблема сохранится, отправьте билет.
WORKDAY_REPORTS_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
Произошла ошибка в отчетах Workday. Тип исходного API: <saasSourceApiType>.
Дополнительные сведения см. в разделе WORKDAY_REPORTS_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
WORKDAY_REPORT_URL_EMPTY
URL-адрес отчета Workday пуст. Необходимо предоставить по крайней мере один отчет.
WORKSPACE_QUOTA_EXCEEDED
Не удается запустить обновление"<updateId>, так как в этой рабочей области уже<maxActiveUpdates> запущены активные конвейеры.
Installation
Ошибка: Файл базовой среды не найден (ERROR_BASE_ENVIRONMENT_FILE_NOT_FOUND)
SQLSTATE: не присвоено
Отсутствует файл YAML базовой среды. Убедитесь, что файл существует в указанном пути.
Описание: Происходит, когда требуемый базовый YAML-файл среды не найден в ожидаемом расположении.
Предлагаемое действие. Убедитесь, что базовый файл YAML среды существует в указанном пути и повторите установку.
ERROR_BASE_ENVIRONMENT_FILE_READ
SQLSTATE: не присвоено
Не удалось считывать базовый файл среды из-за неправильного синтаксиса или формата YAML-файла. Просмотрите содержимое файла.
Описание. Происходит, когда базовый файл YAML среды содержит синтаксические или форматные ошибки.
Предлагаемое действие: проверьте и исправьте синтаксис YAML в файле среды, а затем повторите установку.
ОШИБКА_ОТКАЗ_В_СОЕДИНЕНИИ
SQLSTATE: не присвоено
Не удается подключиться к репозиторию пакетов. Проверьте сетевое подключение, параметры брандмауэра или доступность репозитория.
Описание. Происходит, когда pip не может установить подключение к удаленному репозиторию пакетов из-за проблем с сетью, ограничений брандмауэра или простоя репозитория.
Предлагаемое действие. Проверьте сетевое подключение, проверьте параметры брандмауэра или прокси-сервера, убедитесь, что URL-адрес репозитория доступен, и повторите попытку позже, если репозиторий может быть временно недоступным.
ERROR_CORE_PACKAGE_VERSION_CHANGE
SQLSTATE: не присвоено
Установленный пакет несовместим с основными пакетами Databricks. Выровняйте версии пакета с предварительно установленными версиями библиотеки и повторите установку.
Описание. Происходит при изменении основной зависимости Databricks (например, pyspark).
Предлагаемое действие. Выровняйте установленные версии пакетов с предварительно установленными библиотеками и повторите установку.
ERROR_CRAN_PACKAGE_NOT_AVAILABLE
SQLSTATE: не присвоено
Пакет CRAN недоступен для предустановленной версии R на этом вычислительном ресурсе.
Описание: Возникает, когда пакет R не опубликован для установленной версии R в вычислительной среде.
Предлагаемое действие: переключение на вычисления с совместимой версией R или выбор другой версии пакета.
Ошибка: DBFS отключен
SQLSTATE: не присвоено
Общедоступный корневой доступ DBFS отключен. Используйте альтернативное хранилище.
Описание. Происходит при попытке установить библиотеки из DBFS, но общедоступный корневой каталог DBFS отключен в рабочей области.
Предлагаемое действие. Используйте альтернативные расположения хранилища, такие как тома UC, файлы рабочей области или удаленное хранилище.
ERROR_DIRECTORY_NOT_INSTALLABLE (ошибка: директория не может быть установлена)
SQLSTATE: не присвоено
Каталог недоступен из-за недопустимой структуры пакета Python. Убедитесь, что каталог настроен правильно.
Описание. Происходит, когда установка pip выполняется в каталоге без допустимой структуры пакета Python.
Предлагаемое действие: убедитесь, что каталог содержит setup.py или pyproject.toml, и повторите попытку, или упакуйте его в виде wheel.
ERROR_DUPLICATE_INSTALLATION
SQLSTATE: не присвоено
Обнаружена повторяющаяся установка пакета. Попробуйте удалить повторную запись пакета и перезапустить кластер.
Описание. Возникает, когда тот же пакет уже установлен в кластере, и выполняется повторная установка.
Предлагаемое действие: удалите повторяющиеся записи пакета и перезапустите кластер.
ОШИБКА_ФУНКЦИЯ_ОТКЛЮЧЕНА
SQLSTATE: не присвоено
Тома каталога Unity отключены в рабочей области. Чтобы включить эту функцию, обратитесь к администратору рабочей области.
Описание: Происходит, когда тома каталога Unity отключены в рабочей области, что предотвращает установку с томов UC.
Предлагаемое действие. Обратитесь к администратору рабочей области, чтобы включить тома каталога Unity или использовать альтернативное хранилище.
ОШИБКА: НЕСООТВЕТСТВИЕ ХЭШа (ERROR_HASH_MISMATCH)
SQLSTATE: не присвоено
Обнаружено несоответствие хэша пакета. Хэш скачаемого пакета не соответствует ожидаемому хэшу.
Описание. Происходит, когда хэш загруженного пакета не соответствует ожидаемому хэшу.
Предлагаемое действие: повторная установка, перезапуск кластера и (или) перемещение больших установок пакетов в файлы рабочей области, тома UC или частный репозиторий PyPI.
ОШИБКА_НЕВЕРНЫЙ_ФАЙЛ
SQLSTATE: не присвоено
Не удается установить указанный файл из-за неправильного типа файла. Убедитесь, что вы используете допустимый и поддерживаемый тип файла.
Описание. Происходит, когда не удается установить указанный файл библиотеки из-за неправильного типа или формата файла.
Предлагаемое действие: используйте поддерживаемый тип файла библиотеки (например, колесо, jar) и проверьте допустимость пути.
ERROR_INVALID_REQUIREMENT
SQLSTATE: не присвоено
Неправильный синтаксис или неправильные записи в файлах требований или зависимостях пакета. Проверьте и исправьте содержимое файла требований и зависимостей пакета.
Описание. Недопустимый или неправильный формат требований, обнаруженный в файле требований или в спецификациях зависимостей пакета.
Предлагаемое действие. Используйте правильный формат (например, "library-name=version") в файлах требований, убедитесь, что форматы зависимостей пакета допустимы, а также проверьте типос или неподдерживаемые описатели версий.
ERROR_INVALID_SCRIPT_ENTRY_POINT
SQLSTATE: не присвоено
Недопустимая точка входа скрипта. Проверьте точки входа пакета или файл setup.py.
Описание. Происходит, когда указанная точка входа в консольный скрипт не существует в метаданных пакета.
Предлагаемое действие: проверьте имя точки входа в setup.py или pyproject.toml или обратитесь в службу поддержки пакетов.
Ошибка: Неверная конфигурация хранилища (ERROR_INVALID_STORAGE_CONFIGURATION)
SQLSTATE: не присвоено
Недопустимое значение конфигурации хранилища, обнаруженное для облачной учетной записи хранения. Проверьте конфигурацию хранения, параметры учетной записи и учетные данные.
Описание: Происходит при некорректной или ошибочной конфигурации учетной записи облачного хранилища.
Предлагаемое действие. Исправьте конфигурацию хранилища для учетной записи и повторите установку.
ОШИБКА_НЕВЕРНЫЙ_ВВОД_ПОЛЬЗОВАТЕЛЯ
SQLSTATE: не присвоено
Недопустимый синтаксис пакета или предоставленные аргументы. Убедитесь, что входные данные и параметры установки библиотеки допустимы.
Описание. Происходит при вызове pip с недопустимыми параметрами или аргументами.
Предлагаемое действие: проверьте параметры pip и синтаксис команды, исправьте входные данные и повторите установку.
Ошибка: Неверное колесо (ERROR_INVALID_WHEEL)
SQLSTATE: не присвоено
Обнаружен поврежденный, искаженный или недопустимый файл wheel. Проверьте файл колесика или повторите установку.
Описание. Происходит при обнаружении поврежденного, неполного или неправильно сформированного файла колесика во время установки.
Предлагаемое действие: очистка кэша pip, повторное скачивание или перестроение колеса, переустановка, и проверка его целостности перед повторной попыткой.
ERROR_JAR_EVICTED
SQLSTATE: не присвоено
Пакет JAR был исключен резолвером из-за конфликтов версий. Устраните конфликты версий зависимостей.
Описание. Происходит, когда разрешение зависимостей Maven вытесняет jar из-за конфликтов версий с другими зависимостями.
Предлагаемое действие: устраните конфликты в конфигурации зависимостей или используйте явное переопределение версий.
Ошибка: ERROR_MAVEN_LIBRARY_RESOLUTION (Разрешение библиотеки Maven)
SQLSTATE: не присвоено
Не удается разрешить координаты библиотеки Maven. Проверьте сведения о библиотеке, доступ к репозиторию или доступность репозитория Maven.
Описание. Происходит, когда Maven не может найти или устранить указанную библиотеку из-за неправильных координат, проблем с сетью или простоя репозитория.
Предлагаемое действие: проверьте формат groupId:artifactId:version, проверьте URL-адреса репозитория и учетные данные, попробуйте альтернативные репозитории или повторите попытку позже, если репозиторий может быть временно недоступен.
ERROR_NO_MATCHING_DISTRIBUTION (Нет соответствующего распределения)
SQLSTATE: не присвоено
Не удается скачать или получить доступ к указанным ресурсам облачного хранилища, как правило, из-за неправильной настройки, отсутствия зависимостей или проблем с подключением. Ознакомьтесь с настройкой облачного хранилища.
Описание. Происходит, когда кластер не может скачать или установить файлы библиотеки из облачного хранилища, как правило, из-за неправильной настройки, отсутствия зависимостей или проблем с сетью.
Предлагаемое действие. Убедитесь, что URI облачного хранилища правильны, учетные данные действительны, а все необходимые сетевые прокси-серверы или библиотеки настроены правильно, а затем повторите установку.
ERROR_NO_SUCH_FILE_OR_DIRECTORY
SQLSTATE: не присвоено
Файл библиотеки не существует или у пользователя нет разрешения на чтение файла библиотеки. Проверьте, существует ли файл библиотеки, и у пользователя есть правильные разрешения на доступ к файлу.
Описание. Происходит, когда указанный файл отсутствует или недоступен по указанному пути во время установки библиотеки.
Предлагаемое действие. Убедитесь, что файл существует по указанному пути, исправьте путь или отправьте отсутствующий файл и убедитесь, что он имеет соответствующие разрешения.
ERROR_OPERATION_NOT_SUPPORTED
SQLSTATE: не присвоено
Установка библиотеки не поддерживается для этого типа файла из запрошенной файловой системы. Проверьте тип библиотеки и ознакомьтесь с руководством пользователя о поддерживаемой библиотеке в текущем вычислении.
Описание. Происходит, когда целевая файловая система, тип файла или тип вычислений не поддерживает запрошенную операцию во время установки.
Предлагаемое действие: используйте поддерживаемую файловую систему, тип файла или тип вычислений или настройте целевой объект установки в поддерживаемое расположение.
ОШИБКА_ДОСТУП_ЗАПРЕЩЕН
SQLSTATE: не присвоено
У пользователя нет достаточного разрешения на установку пакета. Проверьте права доступа к файлам и каталогам для пользователя.
Описание: Возникает, когда пользователь, устанавливающий программу, не имеет разрешения на чтение или запись файла или каталога во время установки.
Предлагаемое действие: проверьте и предоставьте соответствующие разрешения в целевом каталоге или обратитесь к системному администратору.
ERROR_PIP_CONFIG
SQLSTATE: не присвоено
Пользователь пытался установить библиотеку Python, но файл конфигурации pip на уровне рабочей области имеет синтаксические ошибки или неправильно сформирован. Проверьте и исправьте файл конфигурации pip.
Описание. Происходит, когда файл конфигурации pip имеет синтаксические ошибки или неправильно сформирован.
Предлагаемое действие. Исправьте синтаксические ошибки в файле конфигурации pip, удалите файл конфигурации для использования параметров по умолчанию, перезапустите кластер и повторите установку.
ERROR_PYTHON_REPL_RESTORE_FAILURE
SQLSTATE: не присвоено
Восстановление Python REPL завершилось сбоем после установки пакета.
Описание. Обычно происходит при обновлении основных пакетов Python таким образом, что во время восстановления среда выполнения нарушает среду выполнения.
Предлагаемое действие. Просмотрите недавно установленные пакеты и установите пакеты, совместимые с параметрами среды Databricks по умолчанию, такими как numpy, pandas, pyspark и другие стандартные библиотеки. Убедитесь, что версии совместимы с версией Databricks Runtime. Если это по-прежнему не удается, обратитесь в службу поддержки Databricks.
ОШИБКА_ТРЕБОВАНИЯ_ФАЙЛА_УСТАНОВКИ
SQLSTATE: не присвоено
requirements.txt файлы, содержащие том каталога Unity или ссылку на файл рабочей области, не поддерживаются в кластерах, отличных от UC. Пожалуйста, используйте кластер с поддержкой UC для установки файла requirements.txt, который ссылается на UC-том или файл рабочей области.
Описание: Происходит, когда файл requirements.txt включает тома UC или ссылки на файлы рабочей области в кластере без поддержки UC.
Рекомендуемое действие: используйте кластер с поддержкой UC для файла requirements.txt, который ссылается на рабочую область или файлы UC, или удалите эти ссылки.
ОШИБКА_ТРЕБУЮТСЯ_ХЕШИ
SQLSTATE: не присвоено
Отсутствие хэшей при запуске pip в режиме --require-hashes и если зависимость не имеет хэша. Убедитесь в соответствии хэша требованиям или отключите проверку хэша.
Описание: Возникает, когда pip выполняется в режиме --require-hashes, и запрашиваемый пакет не имеет хэша.
Предлагаемое действие. Добавление хэшей для всех пакетов в requirements.txt или удаление флага --require-hashes.
ERROR_RESTART_PYTHON
SQLSTATE: не присвоено
Не удалось перезапустить процесс Python. Это может быть связано с обновлением версии пакета, конфликтующего с предварительно установленными библиотеками среды выполнения. Проверьте и выровняйте зависимости пакета и их версии.
Описание. Происходит, когда среда Python не может быть перезапущена после установки библиотеки, часто из-за конфликтов между установленными пакетами и предустановленными библиотеками среды выполнения Databricks.
Предлагаемое действие. Выравнивание установленных версий пакетов с предварительно установленными библиотеками среды выполнения Databricks, чтобы избежать конфликтов и ошибок перезапуска Python.
ERROR_RESTART_SCALA
SQLSTATE: не присвоено
Не удалось перезапустить процесс Scala. Это может быть связано с несоответствием версии Scala в scala JARs (например, при запуске 2.12 jar в ядре 2.13). Проверьте и синхронизируйте версии Scala.
Описание. Происходит, когда среда Scala не может быть перезапущена, часто из-за конфликтов несоответствия версий Scala в scala JARs.
Предлагаемое действие: Выровнять версии Scala в JAR с версией Scala, используемой в ядре, чтобы избежать конфликтов и ошибок перезапуска.
ERROR_S3_FORBIDDEN (доступ запрещен)
SQLSTATE: не присвоено
Доступ к ресурсу S3 запрещен. Проверьте разрешения IAM и политики сегментов.
Описание. Учетные данные AWS кластера не имеют достаточных разрешений для доступа к указанному ресурсу S3.
Предлагаемое действие. Проверьте и обновите политики сегментов S3 или роли IAM, чтобы предоставить необходимый доступ на чтение к кластеру.
ERROR_SCALA_INSTALLATION
SQLSTATE: не присвоено
Не удалось установить зависимости Java из-за проблем с разрешениями или отсутствующих файлов.
Описание. Происходит, когда не удается установить зависимости Java, часто из-за недопустимых путей, URL-адресов или недостаточно разрешений на файл.
Предлагаемое действие: проверьте пути к файлам и URL-адресам, убедитесь, что необходимые разрешения и повторите установку.
ERROR_SETUP_PY_FAILURE
SQLSTATE: не присвоено
Setup.py пакета Python не удалось выполнить из-за проблем совместимости, отсутствия зависимостей или ошибок конфигурации. Проверьте файл настройки зависимостей.
Описание: Это происходит, когда скрипт setup.py пакета завершается ошибкой из-за проблем совместимости, отсутствия зависимостей или ошибок конфигурации.
Предлагаемое действие: обновление версий пакетов, установка отсутствующих зависимостей, замена устаревших пакетов и проверка скрипта setup.py.
ERROR_SSL_VIOLATION
SQLSTATE: не присвоено
Pip столкнулся с проблемами SSL рукопожатия или проверки сертификата. Просмотрите конфигурации и сертификаты SSL в вычислительных или рабочих областях.
Описание: Возникает, когда pip сталкивается с проблемами сбоя рукопожатия SSL и проверки сертификата при подключении к репозиториям пакетов.
Предлагаемое действие. Проверка допустимости SSL-сертификатов, настройка доверенных узлов в pip или проверка параметра SSL сети.
ОШИБКА_UC_РЕСУРС_НЕ_НАЙДЕН
SQLSTATE: не присвоено
Объект каталога Unity не найден. Убедитесь, что каталог, схема и том существуют.
Описание. Происходит, если указанный том каталога Unity, каталог или схема не существует или недоступен
Предлагаемое действие. Убедитесь, что путь к объекту каталога Unity является правильным, и объект существует в вашей учетной записи.
ERROR_UNSUPPORTED_LIBRARY_TYPE
SQLSTATE: не присвоено
Тип библиотеки не поддерживается для этого вычисления. Проверьте поддерживаемые библиотеки для типа вычислений.
Описание. Возникает при попытке установить тип библиотеки, несовместимый с выбранным вычислением.
Предлагаемое действие. Используйте поддерживаемый тип библиотеки для этого вычисления или переключитесь на вычислительные ресурсы, поддерживающие этот тип библиотеки.
ERROR_UNSUPPORTED_PYTHON_VERSION (Ошибка: неподдерживаемая версия Python)
SQLSTATE: не присвоено
Библиотека Python несовместима с версией Python в этой вычислительной среде. Используйте вычисления с совместимой версией Python.
Описание. Происходит, когда ограничение пакета python_requires не соответствует версии Python, работающей на вычислительных ресурсах.
Предлагаемое действие: установите версию пакета, которая поддерживает текущую версию Python или измените версию вычислений.
ERROR_UNSUPPORTED_SSL_ENABLED (поддержка SSL не поддерживается)
SQLSTATE: не присвоено
Установка завершается ошибкой, если включена конфигурация spark.ssl.enabled, которая не поддерживается для установки библиотеки. Отключите конфигурацию SSL и перезапустите кластер.
Описание. Происходит при включении конфигурации spark.ssl.enabled, которая не поддерживается для установки библиотеки.
Предлагаемое действие: отключите конфигурацию SSL (например, задайте spark.ssl.enabled=false или задайте spark.databricks.libraries.ignoreSSL=true) и перезапустите кластер.
Ошибка: Пользователь не найден в рабочей области
SQLSTATE: не присвоено
Сбой установки библиотеки, так как пользователь не найден в рабочей области. Обычно это происходит, когда пользователь был удален из рабочей области, но его маркер по-прежнему используется.
Описание. Происходит, когда маркер доступа пользователя используется, но пользователь больше не существует в указанной рабочей области.
Предлагаемое действие. Убедитесь, что пользователь имеет доступ к рабочей области или обновите конфигурацию кластера, чтобы использовать допустимые учетные данные пользователя.
ОШИБКА_ОТКАЗ_В_ДОСТУПЕ_К_РАЗДЕЛУ
SQLSTATE: не присвоено
Недостаточно прав доступа к тому Unity Catalog. Проверьте права доступа к томам UC или запросите доступ к владельцу тома UC.
Описание: Происходит, когда у пользователя нет разрешений на указанный том UC.
Предлагаемое действие: Запросить разрешения на чтение на том каталога Unity от владельца тома или администратора тома.
Ошибка сборки колесной базы
SQLSTATE: не присвоено
Pip не удалось успешно построить колесо из-за отсутствия зависимостей сборки или ошибок. Проверьте содержимое wheel-пакета и его зависимости.
Описание. Происходит, когда pip не удается создать колесо для пакета из-за отсутствия зависимостей сборки или ошибок.
Предлагаемое действие: убедитесь, что установлены средства сборки и заголовочные файлы, или установите предварительно собранное колесо, используя --no-binary.
ERROR_WHEEL_INSTALLATION
SQLSTATE: не присвоено
Колесо несовместимо с текущим вычислением из-за несоответствия тега платформы или недопустимого файла колеса. Проверьте содержимое пакета колес, зависимости и их совместимость с вычислительными ресурсами.
Описание. Происходит, если файл колесика недопустим или теги платформы не совпадают.
Предлагаемое действие: используйте колесо, созданное для текущей платформы, или перестроите колесо с соответствующими тегами.
FAULT_CLOUD_STORAGE_INSTALLATION (ошибка установки облачного хранилища)
SQLSTATE: не присвоено
Не удается скачать или получить доступ к указанным ресурсам облачного хранилища, как правило, из-за неправильной настройки или проблем с подключением. Ознакомьтесь с настройкой облачного хранилища.
Описание. Происходит, когда вычисление не может скачать или установить файлы библиотеки из облачного хранилища, как правило, из-за неправильной настройки или проблем с сетью.
Предлагаемое действие. Убедитесь, что URI облачного хранилища правильны, учетные данные действительны, а все необходимые сетевые прокси-серверы или библиотеки настроены правильно, а затем повторите установку.
FAULT_DBR_VERSION_EOS
SQLSTATE: не присвоено
Версия среды выполнения Databricks в вычислительной среде достигла конца поддержки и больше не поддерживается. Используйте поддерживаемую версию среды выполнения Databricks.
Описание. Происходит при установке библиотеки в версию среды выполнения Databricks, которая больше не получает обновления или поддержку.
Предлагаемое действие: обновите кластер до поддерживаемой версии среды выполнения Databricks и повторите установку.
FAULT_POLLER_ALLOWLIST_VALIDATION
SQLSTATE: не присвоено
Установка библиотеки заблокирована из-за отсутствия в списке разрешений. Это может произойти, если библиотека удаляется из списка разрешений после его добавления в кластер. Проверьте список разрешений библиотеки, попросите администратора добавить библиотеки в список разрешений или удалить несанкционированные пакеты из кластера.
Описание. Возникает, если в списке разрешений хранилища метаданных не утверждено одно или несколько запрошенных библиотек и заблокированы для установки. Это также может произойти, если библиотека была ранее разрешена, но позже удалена из списка разрешений.
Предлагаемое действие. Проверьте список разрешений хранилища метаданных, попросите администратора добавить отсутствующие библиотеки в список разрешений или удалить несанкционированные библиотеки из кластера.
FAULT_POLLER_DBR_UNSUPPORTED
SQLSTATE: не присвоено
Версия Databricks Runtime в кластере достигла конца поддержки и больше не поддерживается. Используйте поддерживаемую версию среды выполнения Databricks.
Описание. Происходит при установке библиотеки в версию среды выполнения Databricks, которая больше не получает обновления или поддержку.
Предлагаемое действие. Измените кластер на использование поддерживаемой версии среды выполнения Databricks и повторите установку.
FAULT_POLLER_LIBRARY_STORAGE_FORMAT_UNSUPPORTED
SQLSTATE: не присвоено
Выбранная версия среды выполнения Databricks может не поддерживать определенные форматы хранилища библиотеки, например gs:// или пути abfss://. Обновите Databricks Runtime или ознакомьтесь с руководством пользователя по возможностям для различных версий среды выполнения Databricks.
Описание. Происходит, когда версия среды выполнения Databricks не поддерживает указанный формат хранилища библиотеки или протокол.
Предлагаемое действие: используйте поддерживаемую схему хранения или обновите версию среды выполнения Databricks, которая поддерживает нужный формат хранилища.
FAULT_POLLER_UNITY_CATALOG_NOT_AVAILABLE_ERROR
SQLSTATE: не присвоено
Для установки библиотеки требуется каталог Unity, но каталог Unity недоступен в кластере или рабочей области. Чтобы включить эту функцию, обратитесь к администратору рабочей области.
Описание. Происходит, если для установки библиотеки требуется каталог Unity, но каталог Unity недоступен в рабочей области.
Предлагаемое действие. Запрос администрирования, чтобы включить каталог Unity в рабочей области или использовать кластер, поддерживающий каталог Unity.
ОШИБКА_ДОСТУПА_К_ХРАНИЛИЩУ
SQLSTATE: не присвоено
Не удается получить доступ к ресурсам облачного хранилища из-за проблем с учетными данными, сетью или разрешениями. Проверьте конфигурацию доступа к облачному хранилищу.
Описание. Происходит, когда вычислительные ресурсы не могут получить доступ к ресурсам облачного хранилища из-за проблем с учетными данными, сетью или разрешениями.
Предлагаемое действие: проверьте учетные данные хранения, сетевое подключение и разрешения на доступ, а затем повторите установку.
Miscellaneous
ABAC_POLICIES_NOT_SUPPORTED_FOR_RUNTIME_VERSION
SQLSTATE: не присвоено
DBR версия <abacDBRMajorVersion>.Требуется версия <abacDBRMinorVersion> или более высокая для запроса таблицы <tableFullName>, потому что она защищена политикой ABAC.
AZURE_ENTRA_CREDENTIALS_MISSING
SQLSTATE: не присвоено
Отсутствуют учетные данные Azure Entra (aka Azure Active Directory).
Убедитесь, что вы вошли в систему с помощью учетной записи Entra
или настроили личный маркер доступа Azure DevOps (PAT) в параметрах пользователя > интеграции Git.
Если вы не используете PAT и используете Azure DevOps с API Repos,
необходимо использовать токен доступа Azure Entra.
См. https://docs.microsoft.com/azure/databricks/dev-tools/api/latest/aad/app-aad-token для получения маркера доступа Azure Entra.
<pickOrCreateNewCredential>
AZURE_ENTRA_CREDENTIALS_PARSE_FAILURE
SQLSTATE: не присвоено
Возникла ошибка с учетными данными Azure Entra (Azure Active Directory). Попробуйте выйти из системы
Entra (https://portal.azure.com) и повторный вход в систему.
Кроме того, вы можете посетить пользовательские настройки в разделе Git интеграции >, чтобы задать
Настройка личного токена доступа Azure DevOps.
<pickOrCreateNewCredential>
AZURE_ENTRA_LOGIN_ERROR
SQLSTATE: не присвоено
Возникла ошибка с учетными данными Azure Active Directory. Попробуйте выйти из системы
Azure Active Directory (https://portal.azure.com) и войдите в систему снова.
<pickOrCreateNewCredential>
AZURE_ENTRA_WORKLOAD_IDENTITY_ERROR
SQLSTATE: не присвоено
Обнаружена ошибка идентификации рабочей нагрузки Azure с исключением Azure: <azureWorkloadIdentityExceptionMessage>
CLEAN_ROOM_DELTA_SHARING_ENTITY_NOT_AUTHORIZED
SQLSTATE: не присвоено
Невозможно запросить создание учетных данных для безопасного обмена дельта-данными в изолированной зоне.
CLEAN_ROOM_HIDDEN_SECURABLE_PERMISSION_DENIED
SQLSTATE: не присвоено
Защищаемые <securableName> с типом <securableType> и типом <securableKind> управляются системой чистых комнат, у пользователя нет доступа.
CONSTRAINT_ALREADY_EXISTS
SQLSTATE: не присвоено
Ограничение с именем <constraintName> уже существует, выберите другое имя.
CONSTRAINT_DOES_NOT_EXIST
SQLSTATE: не присвоено
Ограничение <constraintName> не существует.
COULD_NOT_READ_REMOTE_REPOSITORY
SQLSTATE: не присвоено
Не удалось прочитать удаленный репозиторий (<repoUrl>).
Использовались<credentialName> (<credentialId>) учетные данные<because>.
Поставщик учетных данных Git и <gitCredentialProvider> адрес электронной почты или имя пользователя <gitCredentialUsername>.
Перейдите к удаленному поставщику Git, чтобы убедиться, что:
URL-адрес вашего удаленного репозитория Git является допустимым.
Ваш личный маркер доступа или пароль приложения имеет правильный доступ к репозиторию.
<pickOrCreateNewCredential>
COULD_NOT_RESOLVE_REPOSITORY_HOST
SQLSTATE: не присвоено
Не удалось разрешить хост для <repoUrl>.
Использовались<credentialName> (<credentialId>) учетные данные<because>.
Поставщик учетных данных Git и <gitCredentialProvider> адрес электронной почты или имя пользователя <gitCredentialUsername>.
CSMS_BEGINNING_OF_TIME_NOT_SUPPORTED
SQLSTATE: не присвоено
Параметр beginning_of_time не может быть истинным.
CSMS_CONTINUATION_TOKEN_EXPIRED
SQLSTATE: не присвоено
Срок действия маркера продолжения истек. Причина: <msg>
CSMS_CREDENTIAL_NAME_MISSING
SQLSTATE: не присвоено
Имя учетных данных отсутствует в запросе
CSMS_FILE_EVENTS_VALIDATION_USER_ERROR
SQLSTATE: не присвоено
Сбой проверки событий файлов для операции <operation>: <message>
CSMS_INVALID_CONTINUATION_TOKEN
SQLSTATE: не присвоено
Недопустимый маркер продолжения. Причина: <msg>
CSMS_INVALID_FILE_EVENTS_QUEUE
SQLSTATE: не присвоено
<missingField> отсутствует в <queueType> запросе
CSMS_INVALID_MAX_OBJECTS
SQLSTATE: не присвоено
Недопустимое значение <value> для параметра max_objects, ожидаемое значение в [<minValue>, <maxValue>]
CSMS_INVALID_SUBSCRIPTION_ID
SQLSTATE: не присвоено
Недопустимый идентификатор подписки. Причина: <msg>
CSMS_INVALID_URI_FORMAT
SQLSTATE: не присвоено
Недопустимый формат URI. Ожидается, что будет указан том (например, "/Volumes/catalog/schema/volume") или путь к облачному хранилищу (например, "s3://some-uri")
CSMS_KAFKA_TOPIC_MISSING
SQLSTATE: не присвоено
Должен предоставить топик Kafka
CSMS_LOCATION_ERROR
SQLSTATE: не присвоено
Не удалось перечислить объекты. На месте имеются проблемы, которые необходимо решить. Сведения: <msg>
CSMS_LOCATION_NOT_KNOWN
SQLSTATE: не присвоено
Расположение для URI <path> не найдено
CSMS_METASTORE_ID_MISSING
SQLSTATE: не присвоено
Должен предоставить uuid хранилища метаданных
CSMS_METASTORE_RESOLUTION_FAILED
SQLSTATE: не присвоено
Не удалось определить хранилище метаданных для запроса.
CSMS_RESOLVE_CREDENTIAL_ID_FAILED
SQLSTATE: не присвоено
Не удалось разрешить идентификатор учетных данных для учетных данных: <credentialName>
CSMS_RESOLVE_LOCAL_SHARD_NAME_FAILED
SQLSTATE: не присвоено
Не удалось разрешить имя локального сегмента CSMS
CSMS_SERVICE_DISABLED
SQLSTATE: не присвоено
Служба отключена
CSMS_SHARD_NAME_MISSING_IN_REQUEST
SQLSTATE: не присвоено
Имя сегмента отсутствует в запросе rpc на CSMS
CSMS_STORAGE_CREDENTIAL_DOES_NOT_EXIST
SQLSTATE: не присвоено
Учетные данные хранения не существуют.
CSMS_SUBSCRIPTION_ID_MISSING_IN_REQUEST
SQLSTATE: не присвоено
Идентификатор подписки отсутствует в запросе.
CSMS_SUBSCRIPTION_NOT_FOUND
SQLSTATE: не присвоено
Подписка с идентификатором <id> не найдена.
CSMS_UNITY_CATALOG отключён
SQLSTATE: не присвоено
Каталог Unity отключен для этой рабочей области
CSMS_UNITY_CATALOG_ENTITY_NOT_FOUND
SQLSTATE: не присвоено
Сущность каталога Unity не найдена. Убедитесь, что каталог, схема, том и/или внешнее хранилище существуют.
CSMS_UNITY_CATALOG_EXTERNAL_LOCATION_DOES_NOT_EXIST
SQLSTATE: не присвоено
Внешнее местоположение каталога Unity не существует.
CSMS_UNITY_CATALOG_EXTERNAL_STORAGE_OVERLAP
SQLSTATE: не присвоено
Универсальный код ресурса (URI) совпадает с другими томами
CSMS_UNITY_CATALOG_METASTORE_DOES_NOT_EXIST
SQLSTATE: не присвоено
Не удалось определить хранилище метаданных для запроса. Хранилище метаданных не существует
CSMS_UNITY_CATALOG_PATH_BASED_ACCESS_TO_TABLE_WITH_FILTER_NOT_ALLOWED
SQLSTATE: не присвоено
URI указывает на таблицу с фильтром на уровне строк или маской столбцов. Доступ через путь к этой таблице запрещен.
CSMS_UNITY_CATALOG_PERMISSION_DENIED
SQLSTATE: не присвоено
Отклонено разрешение
CSMS_UNITY_CATALOG_RATE_LIMITED
SQLSTATE: не присвоено
Превышено ограничение скорости запроса. Повторите попытку через некоторое время.
CSMS_UNITY_CATALOG_TABLE_DOES_NOT_EXIST
SQLSTATE: не присвоено
Таблица каталога Unity не существует.
CSMS_UNITY_CATALOG_VOLUME_DOES_NOT_EXIST
SQLSTATE: не присвоено
Том каталога Unity не существует.
CSMS_UNSUPPORTED_FILE_EVENTS_QUEUE
SQLSTATE: не присвоено
Очередь событий неизвестного файла в запросе
CSMS_UNSUPPORTED_MANAGED_RESOURCE_TYPE
SQLSTATE: не присвоено
Тип управляемого ресурса <resourceType> не поддерживается
CSMS_UNSUPPORTED_SECURABLE
SQLSTATE: не присвоено
Неподдерживаемый защищаемый объект
CSMS_URI_MISSING
SQLSTATE: не присвоено
Должен предоставить URI
CSMS_URI_TOO_LONG
SQLSTATE: не присвоено
Предоставленный универсальный код ресурса (URI) слишком длинный. Максимальная разрешенная длина составляет <maxLength>.
CSMS_USER_CONTEXT_MISSING_IN_REQUEST
SQLSTATE: не присвоено
Контекст пользователя отсутствует в запросе rpc на CSMS
DMK_CATALOGS_DISALLOWED_ON_CLASSIC_COMPUTE
SQLSTATE: не присвоено
Хранилище Databricks по умолчанию невозможно получить с помощью классических вычислений. Используйте бессерверные вычисления для доступа к данным в хранилище по умолчанию
GITHUB_APP_COULD_NOT_REFRESH_CREDENTIALS
SQLSTATE: не присвоено
Сбой операции, так как учетные данные связанного приложения GitHub не удалось обновить.
Пожалуйста, повторите попытку или перейдите в раздел "Настройки пользователя" > Git Integration и попробуйте повторно связать учетную запись вашего поставщика Git.
Если проблема сохранится, отправьте запрос в службу поддержки.
<pickOrCreateNewCredential>
GITHUB_APP_CREDENTIALS_NO_ACCESS
SQLSTATE: не присвоено
Ссылка на учетную запись GitHub не имеет доступа. Чтобы устранить эту ошибку, выполните указанные ниже действия.
- Администратор репозитория должен перейти https://github.com/apps/databricks/installations/new и установить приложение Databricks GitHub для репозитория.
Кроме того, владелец учетной записи GitHub может установить приложение в учетной записи, чтобы предоставить доступ к репозиториям учетной записи.
- Если приложение уже установлено, ответственному администратору следует убедиться, что при использовании доступа с ограниченной областью действия с параметром "Только выбор репозиториев" они включили доступ к этому репозиторию, выбрав его.
https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app Дополнительные сведения см. в статье.
<pickOrCreateNewCredential>
GITHUB_APP_EXPIRED_CREDENTIALS
SQLSTATE: не присвоено
Учетные данные связанного приложения GitHub истекли через 6 месяцев бездействия.
Перейдите к настройкам пользователя интеграции Git > и попробуйте переподключить учетные данные.
Если проблема сохранится, отправьте запрос в службу поддержки.
<pickOrCreateNewCredential>
GITHUB_APP_INSTALL_ON_DIFFERENT_USER_ACCOUNT
SQLSTATE: не присвоено
Ссылка на учетную запись GitHub не имеет доступа. Чтобы устранить эту ошибку, выполните указанные ниже действия.
Пользователь GitHub
<gitCredentialUsername>должен перейти на https://github.com/apps/databricks/installations/new и установить приложение на учетную запись<gitCredentialUsername>, чтобы разрешить доступ.Если пользователь
<gitCredentialUsername>уже установил приложение и использует ограниченный доступ с параметром "Только выбор репозиториев", он должен убедиться, что он включил доступ к этому репозиторию, выбрав его.
https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app Дополнительные сведения см. в статье.
<pickOrCreateNewCredential>
GITHUB_APP_INSTALL_ON_ORGANIZATION
SQLSTATE: не присвоено
Ссылка на учетную запись GitHub не имеет доступа. Чтобы устранить эту ошибку, выполните указанные ниже действия.
Владельцу организации GitHub
<organizationName>следует перейти по ссылке https://github.com/apps/databricks/installations/new и установить приложение на организацию<organizationName>для разрешения доступа.Если приложение уже установлено в организации GitHub, владелец этой организации
<organizationName>гарантирует, что при использовании ограниченного доступа с параметром "Только выбор репозиториев" они включили доступ к этому репозиторию, выбрав его.
https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app Дополнительные сведения см. в статье.
<pickOrCreateNewCredential>
GITHUB_APP_INSTALL_ON_YOUR_ACCOUNT
SQLSTATE: не присвоено
Ссылка на учетную запись GitHub не имеет доступа. Чтобы устранить эту ошибку, выполните указанные ниже действия.
Перейдите к https://github.com/apps/databricks/installations/new и установите приложение в учетную запись
<gitCredentialUsername>, чтобы предоставить доступ.Если приложение уже установлено, и вы используете ограниченный доступ с параметром "Только выбор репозиториев", убедитесь, что вы включили доступ к этому репозиторию, выбрав его.
https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app Дополнительные сведения см. в статье.
<pickOrCreateNewCredential>
GIT_CLUSTER_NOT_READY
SQLSTATE: не присвоено
Кластер Git не готов.
GIT_CREDENTIAL_GENERIC_INVALID
SQLSTATE: не присвоено
Недопустимые учетные данные поставщика Git для URL-адреса репозитория <repoUrl>.
Использовались<credentialName> (<credentialId>) учетные данные<because>.
Поставщик учетных данных Git и <gitCredentialProvider> адрес электронной почты или имя пользователя <gitCredentialUsername>.
Перейдите к удаленному поставщику Git, чтобы убедиться, что:
Вы ввели правильный адрес электронной почты пользователя Git или имя пользователя с учетными данными поставщика Git.
У маркера есть правильный доступ к репозиторию.
Срок действия токена не истек.
Если у вас включена единая аутентификация с вашим поставщиком Git, обязательно авторизуйте токен.
<pickOrCreateNewCredential>
GIT_CREDENTIAL_INVALID_PAT
SQLSTATE: не присвоено
Недопустимые учетные данные персонального токена доступа поставщика Git для URL репозитория <repoUrl>.
Использовались<credentialName> (<credentialId>) учетные данные<because>.
Поставщик учетных данных Git и <gitCredentialProvider> адрес электронной почты или имя пользователя <gitCredentialUsername>.
Перейдите к удаленному поставщику Git, чтобы убедиться, что:
Вы ввели правильный адрес электронной почты пользователя Git или имя пользователя с учетными данными поставщика Git.
У маркера есть правильный доступ к репозиторию.
Срок действия токена не истек.
Если у вас включена единая аутентификация с вашим поставщиком Git, обязательно авторизуйте токен.
<pickOrCreateNewCredential>
.
GIT_CREDENTIAL_MISSING
SQLSTATE: не присвоено
Учетные данные Git не настроены, а они необходимы для этого репозитория (<repoUrl>).
Перейдите к настройкам пользователя интеграции Git >, чтобы настроить учетные данные Git.
GIT_CREDENTIAL_NO_WRITE_PERMISSION
SQLSTATE: не присвоено
Доступ к <gitCredentialProvider> хранилищу (<repoUrl>) не предоставлен.
Использовались<credentialName> (<credentialId>) учетные данные<because>.
Поставщик учетных данных Git и <gitCredentialProvider> адрес электронной почты или имя пользователя <gitCredentialUsername>.
Убедитесь, что у вас (<gitCredentialUsername>) есть доступ на запись в этот удаленный репозиторий.
GIT_CREDENTIAL_PROVIDER_MISMATCHED
SQLSTATE: не присвоено
Неверный поставщик учетных данных Git для репозитория.
У вас нет учетных данных Git с поставщиком Git (<repositoryGitProvider>), который соответствует поставщику <repoUrl>Git репозитория.
Перейдите в раздел "Настройка пользователя Git Integration" > , чтобы создать новые учетные данные для поставщика <repositoryGitProvider>Git.
ИМЯ_ФАЙЛА_В_GIT_СЛИШКОМ_ДЛИННОЕ
SQLSTATE: не присвоено
Имя файла или папки в пути <path> превышает максимальное значение <maxComponentBytes> байтов для каждого компонента.
Системы на основе Unix поддерживают только до <maxComponentBytes> байтов на имя файла или папки.
Нарушения: <violations>
Чтобы продолжить, сократите обижающие компоненты.
GIT_PROVIDER_INFO_MISSING
SQLSTATE: не присвоено
Сведения о поставщике Git отсутствуют или пусты.
Добавьте сведения о учетных данных Git и повторите попытку.
Если проблема сохранится, отправьте запрос в службу поддержки.
GIT_PROXY_CLUSTER_NOT_READY
SQLSTATE: не присвоено
Прокси-кластер Git не готов.
GIT_PROXY_CONNECTION_FAILED - Ошибка соединения через прокси сервер с GIT
SQLSTATE: не присвоено
Не удалось подключиться к прокси-серверу Git, проверьте, работает ли прокси-сервер Git.
Ошибка: <error>
GIT_SECRET_IN_CODE
SQLSTATE: не присвоено
Секреты, найденные в коммите. Сведения: <secretDetail>. Чтобы устранить эту ошибку, выполните указанные ниже действия.
Удалите секрет и попробуйте сделать коммит снова.
Если проблема сохранится, отправьте запрос в службу поддержки.
GIT_STALE_REMOTE_REFS
SQLSTATE: не присвоено
Получение Git завершено, но не удалось обновить устаревшие удаленные ссылки из-за конфликтов пути файловой системы (например, удаленных ветвей или "feature" и "feature/sub").
Ошибка Git: <gitErrorMessage>
HIERARCHICAL_NAMESPACE_NOT_ENABLED
SQLSTATE: не присвоено
Учетная запись хранения Azure не включает иерархическое пространство имен.
INVALID_FIELD_LENGTH
<rpcName> <fieldName> слишком долго. Максимальная длина — <maxLength> символов.
INVALID_PARAMETER_VALUE
<msg>
Дополнительные сведения см. в INVALID_PARAMETER_VALUE
JOBS_TASK_FRAMEWORK_TASK_RUN_OUTPUT_NOT_FOUND
SQLSTATE: не присвоено
Фреймворк задач: Выходные данные выполнения задачи для задачи с runId <runId> и orgId <orgId> не найдены.
JOBS_TASK_FRAMEWORK_TASK_RUN_STATE_NOT_FOUND
SQLSTATE: не присвоено
Платформа выполнения задач: не удалось найти состояние выполнения для задачи с runId <runId> и orgId <orgId>.
JOBS_TASK_REGISTRY_TASK_CLIENT_CONFIG_DOES_NOT_EXIST
SQLSTATE: не присвоено
RPC ClientConfig для задачи с идентификатором <taskId> не существует.
JOBS_TASK_REGISTRY_TASK_DOES_NOT_EXIST
SQLSTATE: не присвоено
Задача с идентификатором <taskId> не существует.
JOBS_TASK_REGISTRY_UNSUPPORTED_JOB_TASK
SQLSTATE: не присвоено
Реестр задач: неподдерживаемая или неизвестная задача с классом <taskClassName>.
PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_EXTERNAL_SHALLOW_CLONE
SQLSTATE: не присвоено
Доступ по пути к внешней таблице с неглубоким клонированием <tableFullName> не поддерживается. Вместо этого используйте имена таблиц для доступа к поверхностному клону.
PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_FABRIC
SQLSTATE: не присвоено
Таблица Fabric, расположенная по URL-адресу"<url>, не найдена. Используйте команду REFRESH FOREIGN CATALOG для заполнения таблиц Fabric.
PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_TABLES_WITH_ROW_COLUMN_ACCESS_POLICIES
SQLSTATE: не присвоено
Доступ к таблице <tableFullName> с фильтром строк или маской столбцов на основе пути не поддерживается.
PERMISSION_DENIED
SQLSTATE: не присвоено
<principalName> не имеет <msg> на <resourceType> "<resourceName>".
REDASH_DELETE_ASSET_HANDLER_INVALID_INPUT
SQLSTATE: не присвоено
Не удалось проанализировать запрос на удаление объекта: <invalidInputMsg>
REDASH_DELETE_OBJECT_NOT_IN_TRASH
SQLSTATE: не присвоено
Не удалось удалить объект <resourceName>, так как он не находится в корзине
REDASH_PERMISSION_DENIED
SQLSTATE: не присвоено
Не удалось найти или получить разрешение на доступ к ресурсам <resourceId>
REDASH_QUERY_NOT_FOUND
SQLSTATE: не присвоено
Не удалось найти ресурс из идентификатора запроса <queryId>
REDASH_QUERY_SNIPPET_CREATION_FAILED
SQLSTATE: не присвоено
Не удалось создать новый фрагмент запроса
REDASH_QUERY_SNIPPET_QUOTA_EXCEEDED
SQLSTATE: не присвоено
Достигнута квота для количества фрагментов запроса. Текущая квота <quota>.
REDASH_QUERY_SNIPPET_TRIGGER_ALREADY_IN_USE
SQLSTATE: не присвоено
Указанный триггер <trigger> уже используется другим фрагментом запроса в этой рабочей области.
REDASH_RESOURCE_NOT_FOUND
SQLSTATE: не присвоено
Запрашиваемый ресурс <resourceName> не существует
REDASH_RESTORE_ASSET_HANDLER_INVALID_INPUT
SQLSTATE: не присвоено
Не удалось проанализировать запрос на удаление объекта: <invalidInputMsg>
REDASH_RESTORE_OBJECT_NOT_IN_TRASH
SQLSTATE: не присвоено
Не удалось восстановить объект <resourceName>, который не находится в корзине
REDASH_TRASH_OBJECT_ALREADY_IN_TRASH
SQLSTATE: не присвоено
Не удалось удалить в корзину уже удалённый объект <resourceName>
REDASH_UNABLE_TO_GENERATE_RESOURCE_NAME
SQLSTATE: не присвоено
Не удалось создать имя ресурса из идентификатора <id>
REDASH_VISUALIZATION_CREATION_FAILED
SQLSTATE: не присвоено
Не удалось создать новую визуализацию
REDASH_VISUALIZATION_NOT_FOUND
SQLSTATE: не присвоено
Не удалось найти визуализацию <visualizationId>
REDASH_VISUALIZATION_QUOTA_EXCEEDED
SQLSTATE: не присвоено
Достигнута квота на количество визуализаций в запросе <query_id> . Текущая квота <quota>.
REPOSITORY_URL_NOT_FOUND
SQLSTATE: не присвоено
Удаленный репозиторий (<repoUrl>) не найден.
Использовались<credentialName> (<credentialId>) учетные данные<because>.
Поставщик учетных данных Git и <gitCredentialProvider> адрес электронной почты или имя пользователя <gitCredentialUsername>.
Перейдите к удаленному поставщику Git, чтобы убедиться, что:
URL-адрес вашего удаленного репозитория Git является допустимым.
Ваш личный маркер доступа или пароль приложения имеет правильный доступ к репозиторию.
<pickOrCreateNewCredential>
RESOURCE_ALREADY_EXISTS
<resourceType> '<resourceIdentifier>' уже существует
RESOURCE_DOES_NOT_EXIST
<resourceType> '<resourceIdentifier>' не существует.
ROW_COLUMN_ACCESS_POLICIES_NOT_SUPPORTED_ON_ASSIGNED_CLUSTERS
SQLSTATE: не присвоено
Запрос к таблице <tableFullName> с фильтром строк или маской столбцов не поддерживается в назначенных кластерах.
ROW_COLUMN_SECURITY_NOT_SUPPORTED_WITH_TABLE_IN_DELTA_SHARING
SQLSTATE: не присвоено
Таблица <tableFullName> используется с Delta Sharing и не может использовать безопасность на уровне строк или столбцов.
SERVICE_TEMPORARILY_UNAVAILABLE
SQLSTATE: не присвоено
Служба <serviceName> временно на техобслуживании. Повторите попытку позже.
TABLE_WITH_ROW_COLUMN_SECURITY_NOT_SUPPORTED_IN_ONLINE_MODE
SQLSTATE: не присвоено
Таблица <tableFullName> не может одновременно иметь безопасность строк и столбцов и онлайн материализованные представления.
TOO_MANY_ROWS_TO_UPDATE
SQLSTATE: не присвоено
Слишком много строк для обновления, обновление прерывается.
UC_ABAC_UNSUPPORTED_TABLE_TYPE
SQLSTATE: не присвоено
Политики ABAC не поддерживаются для типа <tableType>таблицы.