次の方法で共有


Azure Databricks のエラー条件

適用対象:チェック マークあり Databricks SQL チェック マークあり Databricks Runtime 12.2 以上

エラー条件は、説明するエラーに固有のわかりやすい、人間が判読できる文字列です。

エラー状態を使用すると、エラー メッセージを解析しなくても、アプリケーション内のエラーをプログラムで処理できます。

これは、Azure Databricks によって返される一般的な名前付きエラー条件の一覧です。

Databricks Runtime と Databricks SQL

ADD_DEFAULT_UNSUPPORTED

SQLSTATE: 42623

テーブル プロバイダー "<statementType>" を使用して既存のターゲット データ ソースに新しい列を追加する場合、DEFAULT値がサポートされていないため、<dataSource> コマンドを実行できませんでした。

ネストされた参照での集約関数はサポートされていません

SQLSTATE: 0A000

外部スコープ参照で検出された集計関数 <expression> サポートされていません。

AGGREGATE_FUNCTION_WITH_NONDETERMINISTIC_EXPRESSION

SQLSTATE: 42845

非決定論的な式 <sqlExpr> は、集計関数の引数には含めないようにする必要があります。

AI_FUNCTION_HTTP_PARSE_CAST_ERROR

SQLSTATE: 2203G

指定した returnType :"<dataType>"、応答 JSON が "<responseString>" である場合、モデルの出力を解析できませんでした。 応答 JSON で表される型の内容と一致するように returnType を更新してから、もう一度クエリを再試行してください。 例外: <errorMessage>

AI_FUNCTION_HTTP_PARSE_COLUMNS_ERROR

SQLSTATE: 2203G

実際のモデル出力には、複数の列 "<responseString>" があります。 ただし、指定された戻り値の型 ["<dataType>"] には 1 つの列しかありません。 returnType を更新して、モデルの出力と同じ数の列を含めてから、クエリをもう一度やり直してください。

AI_FUNCTION_HTTP_REQUEST_ERROR

SQLSTATE: 08000

関数 <funcName>の HTTP 要求の実行中にエラーが発生しました: <errorMessage>

AI_FUNCTION_INVALID_HTTP_RESPONSE

SQLSTATE: 08000

関数 <funcName>の HTTP 応答が無効です: <errorMessage>

AI_FUNCTION_INVALID_MAX_WORDS

SQLSTATE: 22032

単語の最大数は負以外の整数である必要がありますが、<maxWords>が入力されました。

AI_FUNCTION_INVALID_MODEL_PARAMETERS

SQLSTATE: 22023

指定されたモデル パラメーター (<modelParameters>) は、エンドポイント "AI_QUERY" を提供するための<endpointName>関数では無効です。

詳細については、AI_FUNCTION_INVALID_MODEL_PARAMETERS を参照してください

AI_FUNCTION_INVALID_RESPONSE_FORMAT_TYPE

SQLSTATE: 0A000

AI 関数: "<functionName>" には、<format> パラメーターに有効なresponseFormat文字列が必要ですが、"<invalidResponseFormat>" という応答形式が見つかりました。 例外: <errorMessage>

AI_FUNCTION_JSON_PARSE_ERROR

SQLSTATE: 22000

関数<funcName>JSON応答の解析中にエラーが発生しました。<errorMessage>

AI_FUNCTION_MODEL_SCHEMA_PARSE_ERROR

SQLSTATE: 2203G

サービス エンドポイント "<endpointName>" のスキーマを解析できませんでした: <errorMessage>、応答 JSON は "<responseJson>" でした。

スキーマ解決をオーバーライドするには、returnType 関数で AI_QUERY パラメーターを手動で設定します。

AI_FUNCTION_REGISTRY_LOOKUP_FAILURE

SQLSTATE: 42883

AI 関数レジストリから関数 "<functionName>" を動的に解決できませんでした。

AI_FUNCTION_UNSUPPORTED_ERROR

SQLSTATE: 56038

関数 <funcName> は、現在の環境ではサポートされていません。 Databricks SQL Pro とサーバーレスでのみ使用できます。

AI_FUNCTION_UNSUPPORTED_REQUEST

SQLSTATE: 0A000

<functionName>の指定された引数に "<invalidValue>" があるため、SQL 関数 "<invalidDataType>" を評価できませんでしたが、サポートされるのは次の型のみです:<supportedDataTypes>。 文字列型の引数を指定するように関数呼び出しを更新し、クエリをもう一度やり直してください。

AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT

SQLSTATE: 0A000

サポートされていない応答形式が見つかりました。

詳細については、AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT を参照してください

AI_FUNCTION_UNSUPPORTED_RETURN_TYPE

SQLSTATE: 0A000

AI 関数: "<functionName>" は、戻り値の型として "<typeName>" をサポートしていません。 戻り値の型は、Catalyst によって認識され、AI 関数によってサポートされる有効な SQL 型である必要があります。 現在サポートされている型は次のとおりです:<supportedValues>

AI_INVALID_ARGUMENT_VALUE_ERROR

SQLSTATE: 22032

指定された値 "<argValue>" は、引数 "<argName>" ではサポートされていません。 サポートされている値は次のとおりです:<supportedValues>

AI_QUERY_ENDPOINT_NOT_SUPPORT_STRUCTURED_OUTPUT

SQLSTATE: 0A000

サービングエンドポイントタスクのタイプが構造化された出力サポートのために「チャット」であると期待されましたが、エンドポイント「<taskType>」に「<endpointName>」が見つかりました。

AI_QUERY_RETURN_TYPE_COLUMN_TYPE_MISMATCH

SQLSTATE: 0A000

指定された "<sqlExpr>" は、引数 returnType ではサポートされていません。

AI_SEARCH_CONFLICTING_QUERY_PARAM_SUPPLY_ERROR

SQLSTATE: 0A000

vector_search SQL 関数の競合するパラメーターが検出されました: <conflictParamNames><hint>

AI_SEARCH_EMBEDDING_COLUMN_TYPE_UNSUPPORTED_ERROR

SQLSTATE: 0A000

vector_search 型を埋め込む SQL 関数 <embeddingColumnType> はサポートされていません。

AI_SEARCH_EMPTY_QUERY_PARAM_ERROR

SQLSTATE: 0A000

SQL 関数 vector_search クエリ入力パラメーターがありません。<parameterNames>から少なくとも 1 つを指定してください。

AI_SEARCH_HYBRID_QUERY_PARAM_DEPRECATION_ERROR

SQLSTATE: 0A000

SQL 関数のパラメーター query から vector_search は、hybrid ベクター検索ではサポートされていません。 代わりに query_text を使用してください。

AI_SEARCH_HYBRID_TEXT_NOT_FOUND_ERROR

SQLSTATE: 0A000

vector_search ベクター検索の hybrid SQL 関数にクエリ テキストが見つかりません。 query_textを入力してください。

AI_SEARCH_INDEX_TYPE_UNSUPPORTED_ERROR

SQLSTATE: 0A000

vector_search インデックスの種類が <indexType> SQL 関数はサポートされていません。

AI_SEARCH_MISSING_EMBEDDING_INPUT_ERROR

SQLSTATE: 0A000

インデックス query_vector は、埋め込みモデル エンドポイントに関連付けられていないため、<indexName> のために指定する必要があります。

AI_SEARCH_QUERY_TYPE_CONVERT_ENCODE_ERROR

SQLSTATE: 0A000

リクエストのエンコード中に spark 型 vector_search から scala ネイティブ オブジェクトへの SQL 関数クエリ <dataType> 具現化に失敗しました。エラー: <errorMessage>

AI_SEARCH_QUERY_TYPE_UNSUPPORTED_ERROR

SQLSTATE: 0A000

vector_search の SQL 関数はクエリの種類 <unexpectedQueryType> に対してサポートされていません。 <supportedQueryTypes>から 1 つを指定してください。

AI_SEARCH_UNSUPPORTED_NUM_RESULTS_ERROR

SQLSTATE: 0A000

vector_search の num_results が <maxLimit> より大きい SQL 関数はサポートされていません。 指定された制限は <requestedLimit>です。 num_resultsでもう一度お試しください <= <maxLimit>

AI_TOP_DRIVERS_PARAM_OUT_OF_RANGE

SQLSTATE: 22003

ai_top_drivers パラメーター<param>は、<lo><hi>の間にある必要があります。

AI_TOP_DRIVERS_UNSUPPORTED_AGGREGATION_TYPE

SQLSTATE: 0A000

ai_top_drivers では <aggName> 集計がサポートされていません。 サポートされている集計のいずれかを選択します: <allowed>

AI_TOP_DRIVERS_UNSUPPORTED_DIMENSION_TYPE

SQLSTATE: 0A000

ai_top_drivers では、数値、マップ、または構造体ディメンション列はサポートされていません。 列<colName>の型は<dataType>です。 このディメンションを削除するか、サポートされている型にキャストします。

AI_TOP_DRIVERS_UNSUPPORTED_LABEL_TYPE

SQLSTATE: 0A000

ai_top_drivers では、ラベル列の型がブール値である必要があります。 列<colName>の型は<dataType>です。 ラベル列を変更するか、サポートされている型にキャストします。

AI_TOP_DRIVERS_UNSUPPORTED_METRIC_TYPE

SQLSTATE: 0A000

ai_top_drivers では、メトリック列の種類が数値である必要があります。 列<colName>の型は<dataType>です。 メトリック列を変更するか、サポートされている型にキャストします。

ALL_PARAMETERS_MUST_BE_NAMED

SQLSTATE: 07001

名前パラメーター化クエリを使用するには、すべてのパラメーターに名前を付ける必要があります。 パラメーターに名前がありません: <exprs>

ALL_PARTITION_COLUMNS_NOT_ALLOWED

SQLSTATE: KD005

パーティション列にすべての列を使用することはできません。

ALTER_SCHEDULE_DOES_NOT_EXIST

SQLSTATE: 42704

既存のスケジュールまたはトリガーがないテーブルの <scheduleType> を変更することはできません。 変更を試みる前に、スケジュールまたはトリガーをテーブルに追加してください。

ALTER_TABLE_COLUMN_DESCRIPTOR_DUPLICATE

SQLSTATE: 42710

ALTER TABLE <type> column <columnName> は記述子 "<optionName>" を複数回指定しますが、これは無効です。

AMBIGUOUS_ALIAS_IN_NESTED_CTE

SQLSTATE: 42KD0

名前 <name> は、入れ子になった CTE ではあいまいです。

内部 CTE で定義されている名前が優先されるように、 <config> を "CORRECTED" に設定してください。 "LEGACY" に設定すると、外部 CTE 定義が優先されます。

https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine」を参照してください。

AMBIGUOUS_COLUMN_OR_FIELD

SQLSTATE: 42702

列またはフィールド <name> があいまいで、<n> 件の一致があります。

AMBIGUOUS_COLUMN_REFERENCE

SQLSTATE: 42702

<name> があいまいです。 これは、複数の DataFrame を結合し、これらの DataFrame の一部が同じであるためです。

この列はいずれかの DataFrame を指しますが、Spark はどれを見つけることができません。

参加する前に、DataFrame.alias を使用して異なる名前の DataFrame にエイリアスを付けてください。

修飾名を使用して列を指定します (例: df.alias("a").join(df.alias("b"), col("a.id") > col("b.id")))。

AMBIGUOUS_CONSTRAINT

SQLSTATE: 42K0C

制約 <constraint>へのあいまいな参照。

AMBIGUOUS_LATERAL_COLUMN_ALIAS

SQLSTATE: 42702

横列の別名 <name> があいまいで、<n> 件の一致があります。

AMBIGUOUS_REFERENCE

SQLSTATE: 42704

参照 <name> はあいまいで、<referenceNames>のことかもしれません。

AMBIGUOUS_REFERENCE_TO_FIELDS

SQLSTATE: 42000

フィールド <field>へのあいまいな参照。 スキーマに <count> 回現れます。

ANALYZE_CONSTRAINTS_NOT_SUPPORTED

SQLSTATE: 0A000

ANALYZE CONSTRAINTS はサポートされていません。

ANALYZE_TABLE_COMPUTE_STORAGE_METRICS_NOT_SUPPORTED

SQLSTATE: 0A000

ANALYZE TABLE COMPUTE STORAGE METRICS はサポートされていません。 このワークスペースを登録するには、Databricks サポート チームにお問い合わせください。

ANSI_CONFIG_CANNOT_BE_DISABLED

SQLSTATE: 56038

ANSI SQL 構成 <config> は、この製品では無効にできません。

APPEND_ONCE_FROM_BATCH_QUERY

SQLSTATE: 42000

stream() 演算子を使用してください。

バッチ クエリからストリーミング テーブルを作成すると、ソースから新しいデータを増分読み込みできなくなります。 問題のあるテーブル: '<table>'。

使用例:

CREATE STREAMING TABLE <target table name> ... AS SELECT ... FROM stream(<source table name>) ...

APPROX_TOP_K_INVALID_NUM_OF_ARGUMENTS

SQLSTATE: 42605

approx_top_k は 1 から 3 個の引数を受け取りますが、 <argNum>

APPROX_TOP_K_MAX_ITEMS_TRACKED_EXCEEDS_LIMIT

SQLSTATE: 22023

追跡されるapprox_top_kmaxItemsTracked(<maxItemsTracked>)の最大項目は、<limit>以下である必要があります。

APPROX_TOP_K_MAX_ITEMS_TRACKED_LESS_THAN_K

SQLSTATE: 22023

approx_top_kmaxItemsTracked(<maxItemsTracked>)追跡される最大項目数は、k(<k>) 以上である必要があります。

APPROX_TOP_K_NON_POSITIVE_ARG

SQLSTATE: 22023

approx_top_k<argName>の値は正の整数である必要がありますが、<argValue>

APPROX_TOP_K_NULL_ARG

SQLSTATE: 22004

approx_top_k<argName>の値をNULLすることはできません。

APPROX_TOP_K_SKETCH_SIZE_NOT_MATCH

SQLSTATE: 42846

異なるサイズのapprox_top_kスケッチを組み合わせることはできません。 サイズ <size1><size2>のスケッチが見つかりました。

APPROX_TOP_K_SKETCH_TYPE_NOT_MATCH

SQLSTATE: 42846

異なる種類のスケッチapprox_top_k組み合わせることはできません。 <type1>型と<type2>型のスケッチが見つかりました。

AQE_THREAD_INTERRUPTED

SQLSTATE: HY008

ユーザーによるクエリの取り消しが原因で、AQE スレッドが中断される可能性があります。

ARGUMENT_NOT_CONSTANT

SQLSTATE: 42K08

関数 <functionName> には、位置 <parameterName> に定数引数を必要とするパラメーター <pos> が含まれています。 引数 <sqlExpr> を個別に計算し、結果を定数として渡してください。

ARITHMETIC_OVERFLOW

SQLSTATE: 22003

<message><alternative> このエラーをバイパスするには、必要に応じて <config> を "false" に設定します。

詳細については、ARITHMETIC_OVERFLOW を参照してください。

ARROW_TYPE_MISMATCH

SQLSTATE: 42K0G

<operation>のスキーマが無効です。予期されたのは<outputTypes>ですが、実際には<actualDataTypes>がありました。

ARTIFACT_ALREADY_EXISTS

SQLSTATE: 42713

成果物 <normalizedRemoteRelativePath> は既に存在します。 新しい成果物は上書きできないため、別の名前を選択してください。

ASSIGNMENT_ARITY_MISMATCH

SQLSTATE: 42802

代入またはエイリアス化された列または変数の数: <numTarget> は、ソース式の数 (<numExpr>) と一致しません。

AS_OF_JOIN

SQLSTATE: 42604

as-of 結合が無効です。

詳細については、AS_OF_JOIN を参照してください

ATTEMPT_ANALYSIS_IN_PIPELINE_QUERY_FUNCTION

SQLSTATE: 0A000

パイプライン クエリ関数では、DataFrame の分析または実行をトリガーする操作は許可されません。 パイプライン クエリ関数の外部にコードを移動します。

AUTOCOMMIT_BEGIN_TRANSACTION_DURING_AUTOCOMMIT_TRANSACTION

SQLSTATE: 25000

SET AUTOCOMMIT=FALSEによって開始された暗黙的なトランザクションがアクティブな間は、新しいトランザクションを開始できません。 COMMIT または、新しいトランザクションを開始する前に、現在のトランザクションを最初に ROLLBACK し、 SET AUTOCOMMIT =TRUE を指定します。

AUTOCOMMIT_NOT_SUPPORTED

SQLSTATE: 0A000

AUTOCOMMIT モード機能は現在開発中であり、Databricks ではまだサポートされていません。

AUTOCOMMIT_OLD_SQL_EDITOR_NOT_SUPPORTED

SQLSTATE: 0A000

AUTOCOMMIT は、従来の SQL エディターではアクセスまたは変更できません。 新しい SQL エディター (<docLink>) に切り替えるか、Databricks SQL ウェアハウスに接続されているノートブックを使用します。

AUTOCOMMIT_ONLY_SUPPORTED_IN_DBSQL

SQLSTATE: 0A000

AUTOCOMMIT は、Databricks SQL ウェアハウスでのみアクセスまたは変更できます。

AUTOCOMMIT_SET_DURING_ACTIVE_TRANSACTION

SQLSTATE: 25000

SET AUTOCOMMIT は、アクティブなトランザクション中は許可されません。 最初にコミットまたはロールバックします。

AUTOCOMMIT_SET_FALSE_ALREADY_DISABLED

SQLSTATE: 25000

SET AUTOCOMMIT=FALSE は、 AUTOCOMMIT が既に無効になっている場合は許可されません。 この制限により、混乱を防ぎ、トランザクションの境界を明確に保ちます。

AUTOCOMMIT_SET_TRUE_DURING_AUTOCOMMIT_TRANSACTION

SQLSTATE: 25000

SET AUTOCOMMIT=TRUE は、 SET AUTOCOMMIT=FALSEによって開始された暗黙的なトランザクションでステートメントが実行された後は使用できません。 これは、 SET AUTOCOMMIT=FALSE の直後 (ステートメントの前)、または COMMIT または ROLLBACK後にのみ許可されます。

AUTO_TTL_COLUMN_NOT_FOUND

SQLSTATE: 42703

自動 TTL のテーブル スキーマが無効です。 自動 TTL 列 <column> が見つかりません。

AUTO_TTL_COLUMN_TYPE_NOT_SUPPORTED

SQLSTATE: 42K09

自動 TTL 列 <column><type> が無効です。 列の種類は、 TIMESTAMP, TIMESTAMP_NTZまたは DATEのいずれかである必要があります。

AUTO_TTL_FEATURE_NOT_ENABLED

SQLSTATE: 0A000

自動 TTL 機能を有効にするには、Databricks の担当者にお問い合わせください。

AUTO_TTL_INCOMPLETE_SETTING

SQLSTATE: 42601

テーブルに自動 TTL を設定するには、テーブルプロパティ autottl.timestampColumnautottl.expireInDays の両方が必要ですが、 <missing> がありません。

AUTO_TTL_INVALID_COLUMN_CHANGE

SQLSTATE: 42703

<column> は自動 TTL の定義で使用されるため、 <operation> できません。

AUTO_TTL_NOT_SUPPORT_SHALLOW_CLONES

SQLSTATE: 56038

簡易複製テーブルでは、自動 TTL はサポートされていません。

AUTO_TTL_NOT_SUPPORT_TABLES_HAVING_SHALLOW_CLONES

SQLSTATE: 56038

簡易クローンを持つテーブルでは、自動 TTL はサポートされていません。

AUTO_TTL_REQUIRES_PREDICTIVE_OPTIMIZATION

SQLSTATE: 56038

自動 TTL では、予測最適化を有効にする必要があります。

AUTO_TTL_REQUIRES_UC_MANAGED_TABLE

SQLSTATE: 56038

自動 TTL は、UC マネージド テーブルでのみサポートされます。

AVRO_CANNOT_WRITE_NULL_FIELD

SQLSTATE: 22004

null 以外の Avro データ型<name>として定義<dataType>フィールドに null 値を書き込めません。

このフィールドに null 値を許可するには、 avroSchema オプションを使用して、その avro スキーマを共用体の型として "null" と指定します。

AVRO_DEFAULT_VALUES_UNSUPPORTED

SQLSTATE: 0A000

rescuedDataColumn が有効になっている場合、既定値の使用はサポートされません。 spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue を false に設定すると、このチェックを削除できる場合がありますが、既定値は適用されず、null 値は引き続き使用されます。

AVRO_INCOMPATIBLE_READ_TYPE

SQLSTATE: 22KD3

元のエンコードされたデータ型が<avroPath>されているため、Avro <sqlPath>を SQL <avroType>に変換できませんが、フィールドを<sqlType>として読み取ろうとしているため、正しくない回答が発生します。

このフィールドの読み取りを許可するには、SQL 構成 "spark.sql.legacy.avro.allowIncompatibleSchema" を有効にします。

AVRO_NOT_LOADED_SQL_FUNCTIONS_UNUSABLE

SQLSTATE: 22KD3

Avro データ ソースが読み込まれていないため、 <functionName> SQL 関数を呼び出すことができません。

コマンド ラインで --packages 引数を使用するなどして、"spark-avro" パッケージが読み込まれたジョブまたはセッションを再起動してから、クエリまたはコマンドをもう一度やり直してください。

AVRO_POSITIONAL_FIELD_MATCHING_UNSUPPORTED

SQLSTATE: 0A000

rescuedDataColumn または failOnUnknownFields が有効になっている場合、位置指定フィールドマッチングの使用はサポートされません。 続行するには、これらのオプションを削除します。

AZURE_INVALID_CREDENTIALS_CONFIGURATION

SQLSTATE: 42KDK

Azure キー プロバイダーまたは資格情報が正しく構成されていません。 理由: <causedBy>

BATCH_METADATA_NOT_FOUND

SQLSTATE: 42K03

バッチ <batchMetadataFile>が見つかりません。

BIGQUERY_DATA_SOURCE_OPTIONS_VALIDATION_FAILED

SQLSTATE: 42616

BigQuery データ ソース オプションの検証に失敗しました。

詳細については、BIGQUERY_DATA_SOURCE_OPTIONS_VALIDATION_FAILEDを参照してください。

BIGQUERY_OPTIONS_ARE_MUTUALLY_EXCLUSIVE

SQLSTATE: 42616

BigQuery 接続資格情報は、'GoogleServiceAccountKeyJson' パラメーターまたは 'projectId'、'OAuthServiceAcctEmail'、'OAuthPvtKey' のすべてで指定する必要があります。

BINARY_ARITHMETIC_OVERFLOW

SQLSTATE: 22003

<value1> <symbol> <value2> オーバーフローが発生しました。 オーバーフローの問題を無視して <functionName>を返すには、NULL を使用します。

BUILT_IN_CATALOG

SQLSTATE: 42832

<operation> では、組み込みカタログのサポートがありません。

CALL_ON_STREAMING_DATASET_UNSUPPORTED

SQLSTATE: 42KDE

ストリーミング Dataset/DataFrame では、<methodName> メソッドを呼び出できません。

CANNOT_ALTER_COLLATION_BUCKET_COLUMN

SQLSTATE: 428FR

ALTER TABLE (ALTER|CHANGE) COLUMN バケット列の型/サブタイプの照合順序を変更することはできませんが、テーブル <columnName>にバケット列 <tableName> が見つかりました。

CANNOT_ALTER_PARTITION_COLUMN

SQLSTATE: 428FR

ALTER TABLE (ALTER|CHANGE) COLUMN はパーティション列ではサポートされていませんが、テーブル <columnName>にパーティション列 <tableName> が見つかりました。

CANNOT_ASSIGN_EVENT_TIME_COLUMN_WITHOUT_WATERMARK

SQLSTATE: 42611

イベント時間列を再割り当てするには、まず透かしを定義する必要があります。 ストリーミング クエリで透かし定義を見つけることができませんでした。

CANNOT_CAST_DATATYPE

SQLSTATE: 42846

<sourceType><targetType>にキャストできません。

CANNOT_CONVERT_PROTOBUF_FIELD_TYPE_TO_SQL_TYPE

SQLSTATE: 42846

スキーマに互換性がないため、Protobuf <protobufColumn> を SQL <sqlColumn> に変換できません (protobufType = <protobufType>、sqlType = <sqlType>)。

CANNOT_CONVERT_PROTOBUF_MESSAGE_TYPE_TO_SQL_TYPE

SQLSTATE: 42846

Protobuf の <protobufType> を SQL 型の <toType>に変換できません。

CANNOT_CONVERT_SQL_TYPE_TO_PROTOBUF_FIELD_TYPE

SQLSTATE: 42846

スキーマに互換性がないため、SQL <sqlColumn> を Protobuf <protobufColumn> に変換できません (protobufType = <protobufType>、sqlType = <sqlType>)。

CANNOT_CONVERT_SQL_VALUE_TO_PROTOBUF_ENUM_TYPE

SQLSTATE: 42846

sql <sqlColumn> を Protobuf <protobufColumn> に変換できません。<data> は列挙型の定義された値に含まれていません: <enumString>

CANNOT_COPY_STATE

SQLSTATE: 0AKD0

現在のデータベースや一時ビューなどのカタログの状態を Unity カタログからレガシ カタログにコピーすることはできません。

CANNOT_CREATE_DATA_SOURCE_TABLE

SQLSTATE: 42KDE

<tableName>データ ソース テーブルを作成できませんでした:

詳細については、CANNOT_CREATE_DATA_SOURCE_TABLE を参照してください

CANNOT_DECODE_URL

SQLSTATE: 22546

指定された URL をデコードできません: <url>。 URL が正しく書式設定されていることを確認してから、もう一度やり直してください。

CANNOT_DELETE_SYSTEM_OWNED

SQLSTATE: 42832

システム所有の <resourceType> は削除できません。

CANNOT_DROP_AMBIGUOUS_CONSTRAINT

SQLSTATE: 42K0C

名前 <constraintName> の制約 (CHECK 制約

PRIMARY KEY または FOREIGN KEY 制約で共有されている) を削除できません。 PRIMARY KEY を削除するか、

FOREIGN KEY 制約は次のクエリで削除できます。

ALTER TABLE .. DROP PRIMARY KEY または

ALTER TABLE .. DROP FOREIGN KEY ..

SHALLOW_CLONE に参照されているため、基盤テーブルを削除できません

SQLSTATE: 42893

テーブル <baseTable> は、1 つ以上の浅い複製 ( <cloneList>) によって参照されているため、削除できません。 DROP ベーステーブルを削除する前に、すべての浅いクローンを解除します。 これが不可能な場合は、'DROP TABLE...FORCE' を使用してテーブルを強制的に削除することを検討してください。 WARNING: これにより、既存のすべての浅いクローン参照が直ちに中断され、使用できなくなります。

CANNOT_ESTABLISH_CONNECTION

SQLSTATE: 08001

リモート <jdbcDialectName> データベースへの接続を確立できません。 ホスト、ポート、ユーザー、パスワード、データベースのオプションなど、接続情報と資格情報を確認してください。 ** 情報が正しいと思われる場合は、ワークスペースのネットワークセットアップを確認し、ホストへの送信制限がないことを確認してください。 また、ワークスペースの Spark クラスターがデプロイされているネットワークからの受信接続がホストによってブロックされていないことも確認してください。 ** 詳細なエラー メッセージ: <causeErrorMessage>.

CANNOT_ESTABLISH_CONNECTION_SERVERLESS

SQLSTATE: 08001

リモート <jdbcDialectName> データベースへの接続を確立できません。 ホスト、ポート、ユーザー、パスワード、データベースのオプションなど、接続情報と資格情報を確認してください。 ** 情報が正しいと思われる場合は、サーバーレス コンピューティングを使用するため、インターネットからホストへの受信トラフィックを許可してください。 ネットワーク ポリシーで受信インターネット トラフィックが許可されていない場合は、サーバーレス コンピューティング以外を使用するか、Databricks の担当者に連絡してサーバーレス プライベート ネットワークについて学習してください。 ** 詳細なエラー メッセージ: <causeErrorMessage>.

CANNOT_ESTABLISH_CONNECTION_TO_HOST

SQLSTATE: 08001

<host>への<protocol>接続を確立できません。 ワークスペースのネットワークセットアップを確認し、ホストへの送信制限がないことを確認してください。 また、ワークスペースのクラスターがデプロイされているネットワークからの受信接続がホストによってブロックされていないことも確認してください。

CANNOT_INVOKE_IN_TRANSFORMATIONS

SQLSTATE: 0A000

データセット変換とアクションは、他のデータセット変換の内部ではなく、ドライバーによってのみ呼び出すことができます。たとえば、dataset1.map(x => dataset2.values.count() * x) は無効です。値変換とカウント アクションは dataset1.map 変換内で実行できないためです。 詳細については、SPARK-28702 を参照してください。

CANNOT_LOAD_CHECKPOINT_FILE_MANAGER

SQLSTATE: 58030

path=<path> のストリーミング チェックポイント ファイル マネージャーの読み込み中にエラーが発生しました。

詳細については、CANNOT_LOAD_CHECKPOINT_FILE_MANAGERを参照してください。

CANNOT_LOAD_FUNCTION_CLASS

SQLSTATE: 46103

関数 <className>を登録するときにクラス <functionName> を読み込めません。クラスパス上にあることを確認してください。

CANNOT_LOAD_PROTOBUF_CLASS

SQLSTATE: 42K03

名前が <protobufClassName>の Protobuf クラスを読み込めませんでした。 <explanation>

CANNOT_LOAD_STATE_STORE

SQLSTATE: 58030

状態の読み込み中にエラーが発生しました。

詳細については、CANNOT_LOAD_STATE_STORE を参照してください。

CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE

SQLSTATE: 42825

互換性のないデータ型の <left><right>をマージできませんでした。 マージされる列のデータ型を確認し、互換性があることを確認してください。 必要に応じて、マージを試みる前に、互換性のあるデータ型に列をキャストすることを検討してください。

CANNOT_MERGE_SCHEMAS

SQLSTATE: 42KD9

スキーマのマージに失敗しました:

初期スキーマ:

<left>

初期スキーマとマージできないスキーマ:

<right>

CANNOT_MODIFY_CONFIG

SQLSTATE: 46110

Spark 構成の値を変更できません: <key>

https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements」も参照してください。

CANNOT_MODIFY_STATIC_CONFIG

SQLSTATE: 46110

静的な Spark 構成の値を変更できません: <key>

CANNOT_PARSE_DECIMAL

SQLSTATE: 22018

10 進数を解析できません。 入力が、省略可能な小数点またはコンマ区切り記号を持つ有効な数値であることを確認してください。

CANNOT_PARSE_INTERVAL

SQLSTATE: 22006

<intervalString>を解析できません。 指定された値が、間隔を定義するための有効な形式であることを確認してください。 正しい形式のドキュメントを参照できます。 問題が解決しない場合は、入力値が null または空ではないことを再確認してから、やり直してください。

CANNOT_PARSE_JSON_FIELD

SQLSTATE: 2203G

フィールド名<fieldName>を解析できず、JSON トークン型の値<fieldValue><jsonType>、Spark データ型<dataType>を対象とします。

CANNOT_PARSE_PROTOBUF_DESCRIPTOR

SQLSTATE: 22018

記述子バイトを Protobuf FileDescriptorSet に解析中にエラーが発生しました。

CANNOT_PARSE_TIME

SQLSTATE: 22010

入力文字列 <input> は、datetime 形式の <format>と一致しないため、TIME 値に解析できません。

CANNOT_PARSE_TIMESTAMP

SQLSTATE: 22007

<message>。 無効な入力文字列を許容し、代わりに <func> を返すには、NULL を使用します。

CANNOT_QUERY_TABLE_DURING_INITIALIZATION

SQLSTATE: 55019

初期化中に MV/ST にクエリを実行できません。

詳細については、CANNOT_QUERY_TABLE_DURING_INITIALIZATION を参照してください

CANNOT_READ_ARCHIVED_FILE

SQLSTATE: KD003

ファイルがアーカイブされているため、パス <path> でファイルを読み取ることができません。 アーカイブされたファイルを除外するようにクエリ フィルターを調整してください。

CANNOT_READ_FILE

SQLSTATE: KD003

指定されたパス <format><path> ファイルが読み取れません。

詳細については、CANNOT_READ_FILE を参照してください。

CANNOT_READ_SENSITIVE_KEY_FROM_SECURE_PROVIDER

SQLSTATE: 42501

セキュリティで保護されたプロバイダーから機密キー '<key>' を読み取ることができません。

CANNOT_RECOGNIZE_HIVE_TYPE

SQLSTATE: 429BB

Hive 型の文字列 <fieldType>、列 <fieldName> を認識できません。 Spark SQL では、フィールドに指定されたデータ型を認識できません。 指定したフィールドのデータ型を確認し、有効な Spark SQL データ型であることを確認してください。 有効なデータ型とその形式の一覧については、Spark SQL のドキュメントを参照してください。 データ型が正しい場合は、サポートされているバージョンの Spark SQL を使用していることを確認してください。

CANNOT_REFERENCE_UC_IN_HMS

SQLSTATE: 0AKD0

Hive メタストア オブジェクト内の Unity カタログ <objType> を参照できません。

CANNOT_REMOVE_RESERVED_PROPERTY

SQLSTATE: 42000

予約済みプロパティを削除できません: <property>

CANNOT_RENAME_ACROSS_CATALOG

SQLSTATE: 0AKD0

カタログ間で <type> の名前を変更することはできません。

CANNOT_RENAME_ACROSS_SCHEMA

SQLSTATE: 0AKD0

スキーマ間で <type> の名前を変更することはできません。

CANNOT_RESOLVE_DATAFRAME_COLUMN

SQLSTATE: 42704

データフレーム列の <name>を解決できません。 df1.select(df2.col("a"))のような不正な参照が原因である可能性があります。

CANNOT_RESOLVE_STAR_EXPAND

SQLSTATE: 42704

指定された入力列 <targetString><columns>.* を解決できませんでした。 指定したテーブルまたは構造体が存在し、入力列でアクセス可能であることを確認してください。

CANNOT_RESTORE_PERMISSIONS_FOR_PATH

SQLSTATE: 58030

作成されたパス <path> のアクセス許可を <permission>に戻すことができませんでした。

CANNOT_SHALLOW_CLONE_ACROSS_UC_AND_HMS

SQLSTATE: 0AKD0

Unity カタログと Hive メタストア間でテーブルを浅く複製することはできません。

CANNOT_SHALLOW_CLONE_AUTO_TTL

SQLSTATE: 0AKUC

自動 TTL が有効になっているテーブル <table> を浅く複製することはできません。

CANNOT_SHALLOW_CLONE_NESTED

SQLSTATE: 0AKUC

既に浅い複製であるテーブル <table> を浅く複製することはできません。

CANNOT_SHALLOW_CLONE_NON_UC_MANAGED_TABLE_AS_SOURCE_OR_TARGET

SQLSTATE: 0AKUC

簡易クローンは、MANAGED テーブルの種類でのみサポートされます。 テーブル <table> はテーブル MANAGED ではありません。

CANNOT_UPDATE_FIELD

SQLSTATE: 0A000

<table><fieldName> 型フィールドを更新できません。

詳細については、CANNOT_UPDATE_FIELD を参照してください。

CANNOT_UPDATE_PARTITION_COLUMNS

SQLSTATE: 42000

宣言されたパーティション分割 <requestedPartitionColumns> は、既存のテーブル パーティション分割 <existingPartitionColumns>と競合します。

テーブルを削除するか、宣言されたパーティションをそのパーティションと一致するように変更してください。

CANNOT_UP_CAST_DATATYPE

SQLSTATE: 42846

キャスト <expression><sourceType> から <targetType>にアップできません。

<details>

CANNOT_USE_KRYO

SQLSTATE: 22KD3

Kryo シリアル化コーデックを読み込めません。 Kryo シリアル化は、Spark Connect クライアントでは使用できません。 Java シリアル化を使用するか、カスタム コーデックを指定するか、代わりに Spark クラシックを使用します。

CANNOT_USE_MULTI_ALIASES_IN_WATERMARK_CLAUSE

SQLSTATE: 42000

ウォーターマーク句では、複数のエイリアスはサポートされていません。

予約されたストリーミングプロバイダー名を使用できません

SQLSTATE: 42000

予約済みストリーミング プロバイダー名を使用できません: <providerName>

CANNOT_VALIDATE_CONNECTION

SQLSTATE: 08000

<jdbcDialectName> 接続の検証はサポートされていません。 接続オブジェクトを作成する前に接続テストをスキップするには、Databricks の代替ソリューションのサポートに問い合わせるか、"spark.databricks.testConnectionBeforeCreation" を "false" に設定してください。

CANNOT_WRITE_STATE_STORE

SQLSTATE: 58030

プロバイダー <providerClass>の状態ストア ファイルの書き込み中にエラーが発生しました。

詳細については、CANNOT_WRITE_STATE_STORE を参照してください

CAST_INVALID_INPUT

SQLSTATE: 22018

<expression> の値 <sourceType> は、形式が正しくないため、<targetType> にキャストできません。 構文に従って値を修正するか、ターゲットの種類を変更します。 try_cast を使用して、形式が正しくない入力を許容し、代わりに NULL を返します。

詳細については、CAST_INVALID_INPUT を参照してください。

CAST_OVERFLOW

SQLSTATE: 22003

オーバーフローのため、型 <value><sourceType> 値を <targetType> にキャストできません。 try_cast を使用してオーバーフローを許容し、代わりに NULL を返します。

CAST_OVERFLOW_IN_TABLE_INSERT

SQLSTATE: 22003

オーバーフローが原因で <sourceType> 型の列または変数 <targetType><columnName> 型の値を割り当てませんでした。 入力値に try_cast を使用してオーバーフローを許容し、代わりに NULL を返します。

CATALOG_CONVERSION_FOREIGN_ENTITY_PRESENT

SQLSTATE: 55019

カタログに外部エンティティが含まれているため、UC Foreign から UC Standard へのカタログ変換に失敗しました (最大 10 個がここに示されています): <entityNames>。 このカタログ内の外部エンティティの完全な一覧を表示するには、'ALTER CATALOG DROP CONNECTION' コマンド ドキュメントのスクリプトを参照してください。

CATALOG_CONVERSION_UNSUPPORTED_CATALOG_TYPE

SQLSTATE: 0AKUC

カタログを UC Foreign から UC Standard に変換することはできません。 UC Standard に変換できるのは、 <convertableCatalogTypes> 外部 UC カタログのみです。

CATALOG_NOT_FOUND

SQLSTATE: 42P08

カタログ <catalogName> 見つかりません。 SQL 構成 <config> をカタログ プラグインに設定することを検討してください。

CATALOG_OWNED_TABLE_CREATION_NOT_ALLOWED

SQLSTATE: 0A000

<feature> テーブル機能を使用して Dalta テーブルを作成することは許可されていません。 Databricks サポートにお問い合わせください。

CHECKPOINT_DIR_NOT_SET

SQLSTATE: 42K0I

チェックポイント ディレクトリが SparkContext に設定されていません。

SparkContext.setCheckpointDir()で設定してください。

CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND

SQLSTATE: 56000

チェックポイント ブロック <rddBlockId> 見つかりません。

このパーティションを最初にチェックポイント処理した Executor が有効でなくなったか、元の RDD が維持されていません。

この問題が解決しない場合は、代わりに rdd.checkpoint() を使用することを検討してください。これはローカルチェックポイント処理よりも低速ですが、耐障害性があります。

チェック制約違反

SQLSTATE: 23001

次の値を持つ行が CHECK 制約 <constraintName> <expression> に違反しています:

<values>

CIRCULAR_CLASS_REFERENCE

SQLSTATE: 42602

クラス内で循環参照を持つことはできませんが、クラス <t>の循環参照を取得しました。

CLASS_NOT_OVERRIDE_EXPECTED_METHOD

SQLSTATE: 38000

<className> は、<method1> または <method2>をオーバーライドする必要があります。

CLASS_UNSUPPORTED_BY_MAP_OBJECTS

SQLSTATE: 0A000

MapObjects は、結果のコレクションとして <cls> クラスをサポートしていません。

CLEANROOM_COMMANDS_NOT_SUPPORTED

SQLSTATE: 0A000

クリーン ルーム コマンドはサポートされていません

CLEANROOM_INVALID_SHARED_DATA_OBJECT_NAME

SQLSTATE: 42K05

クリーン ルーム内の <type> を参照する名前が無効です。 [catalog]の形式に従って、クリーン ルーム内で <type>の名前を使用します。[schema]。[<type>]。

使用する名前がわからない場合は、"SHOW ALL IN CLEANROOM [clean_room]" を実行し、"name" 列の値を使用できます。

CLONING_WITH_HISTORY_INVALID_OPTION

SQLSTATE: 42613

履歴を使用した複製は、無効なオプション ( <invalidOption>) で指定されています。

有効な構文: CREATE (OR REPLACE) TABLE ...ディープ CLONE...WITH HISTORY

CLONING_WITH_HISTORY_UNSUPPORTED

SQLSTATE: 0A000

履歴を使用した複製はサポートされていません。

CLOUD_FILE_ALREADY_EXISTS

SQLSTATE: 42K04

クラウド ファイルは既に存在します。 理由: <causedBy>

CLOUD_FILE_NOT_FOUND

SQLSTATE: 42K03

クラウド ファイルが見つかりません。 理由: <causedBy>

CLOUD_FILE_SOURCE_FILE_NOT_FOUND

SQLSTATE: 42K03

ファイル <filePath> に関する通知が受信されましたが、そのファイルはもう存在しません。 処理する前に、ファイルが削除されていないことを確認してください。 ストリームを続行するには、Spark SQL 構成 <config> を true に設定します。

CLOUD_PROVIDER_ERROR

SQLSTATE: 58000

クラウド プロバイダー エラー: <message>

CLUSTERING_COLUMNS_MISMATCH

SQLSTATE: 42P10

指定されたクラスタリングが、既存のテーブルの <tableName>と一致しません。

指定されたクラスタリング列: [<specifiedClusteringString>]。

既存のクラスタリング列: [<existingClusteringString>]。

CLUSTERING_NOT_SUPPORTED

SQLSTATE: 42000

'<operation>' はクラスタリングをサポートしていません。

CLUSTER_BY_AUTO_FEATURE_NOT_ENABLED

SQLSTATE: 0A000

自動クラスター機能を有効にするには、Databricks の担当者にお問い合わせください。

CLUSTER_BY_AUTO_REQUIRES_CLUSTERING_FEATURE_ENABLED

SQLSTATE: 56038

CLUSTER BY AUTO を使用するには、clusteringTable.enableClusteringTableFeature を有効にしてください。

CLUSTER_BY_AUTO_REQUIRES_PREDICTIVE_OPTIMIZATION

SQLSTATE: 56038

CLUSTER BY AUTO では、予測最適化を有効にする必要があります。

CLUSTER_BY_AUTO_UNSUPPORTED_TABLE_TYPE_ERROR

SQLSTATE: 56038

CLUSTER BY AUTO は UC マネージド テーブルでのみサポートされます。

CODEC_NOT_AVAILABLE

SQLSTATE: 56038

コーデック <codecName> は使用できません。

詳細については、CODEC_NOT_AVAILABLE を参照してください。

CODEC_SHORT_NAME_NOT_FOUND

SQLSTATE: 42704

コーデック <codecName>の短い名前が見つかりません。

COLLATION_INVALID_NAME

SQLSTATE: 42704

<collationName> 値が正しい照合順序名を表していません。 有効な照合順序名の候補: [<proposals>]。

COLLATION_INVALID_PROVIDER

SQLSTATE: 42704

<provider> の値は正しい照合プロバイダーを表していません。 サポートされているプロバイダーは次のとおりです: [<supportedProviders>]。

COLLATION_MISMATCH

SQLSTATE: 42P21

文字列関数と演算子に使用する照合順序を特定できませんでした。

詳細については、COLLATION_MISMATCH を参照してください。

COLLECTION_SIZE_LIMIT_EXCEEDED

SQLSTATE: 54000

配列サイズの上限 <numberOfElements> を超える要素 <maxRoundedArrayLength> を含む配列は作成できません。

詳細については、COLLECTION_SIZE_LIMIT_EXCEEDED を参照してください

COLUMN_ALIASES_NOT_ALLOWED

SQLSTATE: 42601

<op>では列のエイリアスは使用できません。

COLUMN_ALREADY_EXISTS

SQLSTATE: 42711

<columnName> は既に存在します。 別の名前を選択するか、既存の列の名前を変更します。

COLUMN_ARRAY_ELEMENT_TYPE_MISMATCH

SQLSTATE: 0A000

フィールド <pos> の一部の値は、列配列型と互換性がありません。 予期される型は <type> です。

COLUMN_MASKS_ABAC_MISMATCH

SQLSTATE: 0A000

ポリシーから継承された列マスクと明示的に定義された列マスクの間に不一致があるため、<tableName> で列マスクを解決できませんでした。 続行するには、属性ベースのアクセス制御 (ABAC) を無効にして、Databricks サポートにお問い合わせください。

COLUMN_MASKS_チェック制約_非対応

SQLSTATE: 0A000

列マスク ポリシーを使用したテーブル CHECK に対する <tableName> 制約の作成はサポートされていません。

COLUMN_MASKS_列名を使用した重複

SQLSTATE: 42734

<statementType> ステートメントが、同じ名前の USING COLUMNSを持つ <columnName> リストに他の 2 つ以上の参照列を含む列に列マスク ポリシーを割り当てようとしました。これは無効です。

COLUMN_MASKS_機能はサポートされていません

SQLSTATE: 0A000

<tableName> の列マスク ポリシーはサポートされていません。

詳細については、COLUMN_MASKS_FEATURE_NOT_SUPPORTED を参照してください

COLUMN_MASKS_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE: 0A000

<statementType> <columnName>の列マスク ポリシーで参照されているため、テーブル <tableName>から<maskedColumn>できません。 先に進む前に、テーブル所有者がこのポリシーを削除または変更する必要があります。

COLUMN_MASKS_マージがサポートされていないソース

SQLSTATE: 0A000

MERGE INTO 操作では、ソース テーブル <tableName>の列マスク ポリシーはサポートされていません。

COLUMN_MASKS_マージ_サポートされていないターゲット

SQLSTATE: 0A000

MERGE INTO 操作では、列マスク ポリシーを使用したテーブル <tableName> への書き込みはサポートされていません。

COLUMN_MASKS_マルチパート_ターゲット_カラム名

SQLSTATE: 42K05

このステートメントは、複数の名前部分を持つ列 <columnName> に列マスク ポリシーを割り当てようとしました。これは無効です。

COLUMN_MASKS_MULTI_PART_USING_COLUMN_NAME

SQLSTATE: 42K05

このステートメントでは、列マスク ポリシーを列に割り当てようとしました。USING COLUMNS リストには、複数の名前部分を含む名前 <columnName> が含まれていましたが、これは無効です。

COLUMN_MASKS_無効

SQLSTATE: 56038

列マスクの定義のサポートが有効になっていません

COLUMN_MASKS_REQUIRE_UNITY_CATALOG

SQLSTATE: 0A000

列マスク ポリシーは、Unity カタログでのみサポートされます。

COLUMN_MASKS_SECONDARY_INDEX_CREATION_UNSUPPORTED

SQLSTATE: 0A000

テーブルに列マスク ポリシーが定義されているため、セカンダリ インデックス ON TABLE <tableName> を作成できません。

COLUMN_MASKS_パーティションの表示がサポートされていません

SQLSTATE: 0A000

SHOW PARTITIONS コマンドは、列マスクを持つ<format> テーブルではサポートされていません。

COLUMN_MASKS_テーブルのクローン元がサポートされていません

SQLSTATE: 0A000

カラム マスク ポリシーが適用されたテーブル <mode> からの <tableName> のクローンはサポートされていません。

COLUMN_MASKS_TABLE_CLONE_TARGET_NOT_SUPPORTED (テーブルクローンのターゲットがサポートされていません)

SQLSTATE: 0A000

列マスク ポリシーを持つテーブル <mode> への <tableName> 複製はサポートされていません。

COLUMN_MASKS_サポートされていない定数としてのパラメータ

SQLSTATE: 0AKD1

列マスク ポリシーで定数をパラメーターとして使用することはサポートされていません。 SQL コマンドを更新して、列マスク定義から定数を削除してから、もう一度コマンドを再試行してください。

COLUMN_MASKS_UNSUPPORTED_DATA_TYPE (サポートされていないデータ型)

SQLSTATE: 0AKDC

列マスク ポリシーとして使用 <functionName> 関数には、サポートされていないデータ型 <dataType>を持つパラメーターが含まれています。

COLUMN_MASKS_サポートされていないプロバイダー

SQLSTATE: 0A000

テーブル プロバイダー "<statementType>" を使用したターゲット データ ソースでは列マスク ポリシーの割り当てがサポートされていないため、<provider> コマンドを実行できませんでした。

COLUMN_MASKS_ターゲット列と同じ列名を使用中

SQLSTATE: 42734

<columnName> ターゲット列と同じ名前を持っていましたが、これは無効です。USING COLUMNS リストから列を削除し、コマンドを再試行してください。

COLUMN_NOT_DEFINED_IN_TABLE

SQLSTATE: 42703

<colType><colName> はテーブル <tableName>で定義されていません。定義済みのテーブル列は次のとおりです:<tableCols>

COLUMN_NOT_FOUND

SQLSTATE: 42703

<colName> が見つかりません。 SQL 構成 <caseSensitiveConfig>に従って、列名のスペルと正確性を確認します。

COLUMN_NOT_FOUND_IN_TABLE

SQLSTATE: 42703

<columnName> テーブル <tableFullName>に見つかりません。

COLUMN_ORDINAL_OUT_OF_BOUNDS

SQLSTATE: 22003

列序数が範囲外です。 テーブル内の列の数は <attributesLength>ですが、列序数は <ordinal>です。

属性は次のとおりです: <attributes>.

コマンドが有効ではありません

SQLSTATE: 0A000

<command> コマンドが有効になっていません。

COMMA_PRECEDING_CONSTRAINT_ERROR

SQLSTATE: 42601

制約定義の前に予期しない ',' が発生しました。 列 (および期待値) が定義されていない場合は、制約句がコンマで始まらないことを確認します。

COMMENT_ON_CONNECTION_NOT_IMPLEMENTED_YET

SQLSTATE: 42000

COMMENT ON CONNECTION コマンドはまだ実装されていません

COMPARATOR_RETURNS_NULL

SQLSTATE: 22004

比較器は、NULL<firstValue>の比較のための <secondValue> を返しました。

"より大きい" の場合は正の整数、"等しい" の場合は 0、"より小さい" の場合は負の整数を返す必要があります。

NULLが 0 (等しい) として扱われる非推奨の動作に戻すには、"spark.sql.legacy.allowNullComparisonResultInArraySort" を "true" に設定する必要があります。

COMPLEX_EXPRESSION_UNSUPPORTED_INPUT

SQLSTATE: 42K09

式の入力データ型を処理できません: <expression>

詳細については、COMPLEX_EXPRESSION_UNSUPPORTED_INPUT を参照してください

CONCURRENT_QUERY

SQLSTATE: 0A000

このクエリの別のインスタンス [id: <queryId>] は、同時実行セッション [既存の runId: <existingQueryRunId> 新しい runId: <newQueryRunId>] によって開始されました。

CONCURRENT_SCHEDULER_INSUFFICIENT_SLOT

SQLSTATE: 53000

クラスターで必要な空きスロットの最小数は <numTasks>ですが、クラスターには空きスロット <numSlots> しかありません。 クエリが停止するか、失敗します。 クラスター サイズを増やして続行します。

CONCURRENT_STREAM_LOG_UPDATE

SQLSTATE: 40000

ログの同時更新。 <batchId>に対して複数のストリーミング ジョブが検出されました。

特定のチェックポイントの場所で一度に実行されるストリーミング ジョブは 1 つだけであることを確認してください。

CONFIG_NOT_AVAILABLE

SQLSTATE: 42K0I

構成 <config> は使用できません。

CONFLICTING_CLUSTER_CONFIGURATION

SQLSTATE: 22023

次の構成が spark.databricks.streaming.realTimeMode.enabled と競合しています: <confNames>。 クラスター構成からこれらの構成を削除し、Spark クラスターを再起動します。

CONFLICTING_DIRECTORY_STRUCTURES

SQLSTATE: KD009

競合するディレクトリ構造が検出されました。

疑わしいパス:

<discoveredBasePaths>

指定されたパスがパーティション ディレクトリの場合は、データ ソースのオプションで "basePath" を設定して、テーブルのルート ディレクトリを指定してください。

複数のルート ディレクトリがある場合は、それらを個別に読み込んでから、それらを結合してください。

CONFLICTING_PARTITION_COLUMN_NAMES

SQLSTATE: KD009

パーティション列名の競合が検出されました:

<distinctPartColLists>

パーティション テーブル ディレクトリの場合、データ ファイルはリーフ ディレクトリにのみ格納する必要があります。

また、同じレベルのディレクトリには、同じパーティション列名が必要です。

次のディレクトリで、予期しないファイルや一貫性のないパーティション列名がないか確認してください。

<suspiciousPaths>

CONFLICTING_PARTITION_COLUMN_NAME_WITH_RESERVED

SQLSTATE: KD009

パーティション列名 '<partitionColumnName>' は予約列名と競合します。

<tableName>のスキーマは Hive と互換性がありません。Spark は、テーブルを特定の方法で格納するために予約列 '<partitionColumnName>' を自動的に生成します。

パーティション列には別の名前を使用してください。

CONFLICTING_PROVIDER

SQLSTATE: 22023

指定されたプロバイダー <provider> が、既存のカタログ プロバイダー <expectedProvider>と矛盾しています。 'USING <expectedProvider>' を使用して、コマンドを再試行してください。

CONFLICTING_SQL_CONFIGURATION

SQLSTATE: 22023

次の構成が spark.databricks.streaming.realTimeMode.enabled と競合しています: <confNames>。 SparkSession 構成からこれらの構成を削除します。

CONNECT

SQLSTATE: 56K00

一般的な Spark Connect エラー。

詳細については、CONNECT を参照してください。

CONNECTION_ALREADY_EXISTS

SQLSTATE: 42000

接続 <connectionName> は既に存在するため作成できません。

別の名前を選択するか、既存の接続を削除または置き換えるか、既存の接続を許容する IF NOT EXISTS 句を追加します。

CONNECTION_NAME_CANNOT_BE_EMPTY

SQLSTATE: 42000

接続名が空でない必要があるため、このコマンドを実行できません。

CONNECTION_NOT_FOUND

SQLSTATE: 42000

接続名 <connectionName> が見つからなかったため、このコマンドを実行できません。

CONNECTION_OPTION_NOT_SUPPORTED

SQLSTATE: 42000

型 '<connectionType>' の接続では、次のオプションはサポートされていません: <optionsNotSupported>。 サポートされているオプション: <allowedOptions>.

CONNECTION_TYPE_NOT_SUPPORTED

SQLSTATE: 42000

型 '<connectionType>' の接続を作成できません。 サポートされている接続の種類: <allowedTypes>

オプション注入に対応していない接続タイプ

SQLSTATE: 42000

名前 <connectionName> と種類 <connectionType> を持つ接続は、データフレーム オプションではサポートされていません。

リモートクエリ機能に対応していない接続タイプ

SQLSTATE: 42000

型 '<connectionName>' の名前 '<connectionType>' を持つ接続は、リモート クエリ関数の実行ではサポートされていません。

CONNECT_INVALID_PLAN

SQLSTATE: 56K00

Spark Connect プランが無効です。

詳細については、CONNECT_INVALID_PLANを参照してください。

CONNECT_SESSION_MIGRATION

SQLSTATE: 56K00

汎用セッション移行エラー (userId: <userId>、sessionId: <sessionId>、serverSessionId: <serverSessionId>)。

詳細については、CONNECT_SESSION_MIGRATION を参照してください

CONSTRAINTS_REQUIRE_UNITY_CATALOG

SQLSTATE: 0A000

テーブル制約は Unity カタログでのみサポートされます。

CONSTRAINT_ALREADY_EXISTS

SQLSTATE: 42710

制約 '<constraintName>' は既に存在します。 最初に既存の制約を削除してください。

既存の制約:

<oldConstraint>

CONSTRAINT_ALREADY_EXISTS_IN_SCHEMA

SQLSTATE: 42710

制約 <constraintName> は、データベース <schemaName>に既に存在します。

CONSTRAINT_ALREADY_EXISTS_WITH_SERVER_MESSAGE

SQLSTATE: 42710

<serverMessage>

CONSTRAINT_DOES_NOT_EXIST

SQLSTATE: 42704

テーブル <constraintName>から存在しない制約 <tableName> を削除することはできません。

CONVERSION_INVALID_INPUT

SQLSTATE: 22018

<str> (<fmt>) 形式が正しくないため、 <targetType> に変換できません。 構文に従って値を修正するか、その形式を変更します。 <suggestion> を使用して、形式が正しくない入力を許容し、代わりに NULL を返します。

COPY_INTO_COLUMN_ARITY_MISMATCH

SQLSTATE: 21S01

<tableName>に書き込めません。理由は次のとおりです。

詳細については、COPY_INTO_COLUMN_ARITY_MISMATCH を参照してください

COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON

SQLSTATE: 0A000

スキーム <scheme>が無効です。 COPY INTO ソース資格情報は現在、s3/s3n/s3a/wasbs/abfss のみをサポートしています。

COPY_INTO_CREDENTIALS_REQUIRED

SQLSTATE: 42601

COPY INTO ソース資格情報に<keyList>を指定する必要があります。

COPY_INTO_DUPLICATED_FILES_COPY_NOT_ALLOWED

SQLSTATE: 25000

重複したファイルは、同時 COPY INTO 操作でコミットされました。 後でもう一度やり直してください。

COPY_INTO_ENCRYPTION_NOT_ALLOWED_ON

SQLSTATE: 0A000

スキーム <scheme>が無効です。 COPY INTO ソース暗号化では現在、s3/s3n/s3a/abfss のみがサポートされています。

COPY_INTO_ENCRYPTION_NOT_SUPPORTED_FOR_AZURE

SQLSTATE: 0A000

COPY INTO 暗号化では、ADLS Gen2 または abfss:// ファイル スキームのみがサポートされます

COPY_INTO_ENCRYPTION_REQUIRED

SQLSTATE: 42601

COPY INTO ソース暗号化で '<key>' を指定する必要があります。

COPY_INTO_ENCRYPTION_REQUIRED_WITH_EXPECTED

SQLSTATE: 42601

暗号化オプション <requiredKey>が無効です。 COPY INTO ソース暗号化では、'<requiredKey>' = '<keyValue>' を指定する必要があります。

COPY_INTO_FEATURE_INCOMPATIBLE_SETTING

SQLSTATE: 42613

COPY INTO機能 '<feature>' は '<incompatibleSetting>' と互換性がありません。

COPY_INTO_NON_BLIND_APPEND_NOT_ALLOWED

SQLSTATE: 25000

データの追加以外の COPY INTO は、他のトランザクションと同時に実行することはできません。 後でもう一度やり直してください。

COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED

SQLSTATE: 25000

COPY INTO 状態の読み込みに失敗し、最大再試行回数を超えました。

COPY_INTO_SCHEMA_MISMATCH_WITH_TARGET_TABLE

SQLSTATE: 42KDG

Delta テーブルへのコピー中にスキーマの不一致が検出されました (テーブル: <table>)。

これは、受信データに問題があることを示している場合があります。または、次のように設定することで、受信データに従って Delta テーブル スキーマを自動的に進化させることができます。

COPY_OPTIONS ('mergeSchema' = 'true')

スキーマの違い:

<schemaDiff>

COPY_INTO_SOURCE_FILE_FORMAT_NOT_SUPPORTED

SQLSTATE: 0A000

ソース ファイルの形式は、CSV、 JSON、AVRO、ORC、 PARQUET、TEXT、または BINARYFILEのいずれかである必要があります。 COPY INTO 操作後に重複データが取り込まれる可能性があるため、ソースとしてデルタ テーブルで OPTIMIZE を使用することはサポートされていません。 このチェックは、SQL コマンド set spark.databricks.delta.copyInto.formatCheck.enabled = falseを実行することで無効にすることができます。

COPY_INTO_SOURCE_SCHEMA_INFERENCE_FAILED

SQLSTATE: 42KD9

ソース ディレクトリに、<format>型の解析可能なファイルが含まれていませんでした。 「<source>」の内容をご確認ください。

エラーは、'<config>' を 'false' に設定することで消音できます。

COPY_INTO_STATE_INTERNAL_ERROR

SQLSTATE: 55019

COPY INTO 状態の処理中に内部エラーが発生しました。

詳細については、COPY_INTO_STATE_INTERNAL_ERROR を参照してください

COPY_INTO_SYNTAX_ERROR

SQLSTATE: 42601

COPY INTO コマンドを解析できませんでした。

詳細については、COPY_INTO_SYNTAX_ERROR を参照してください

COPY_INTO_UNSUPPORTED_FEATURE

SQLSTATE: 0A000

COPY INTO機能 '<feature>' はサポートされていません。

COPY_UNLOAD_FORMAT_TYPE_NOT_SUPPORTED

SQLSTATE: 42000

'<formatType>' 形式のデータをアンロードできません。 <connectionType> でサポートされている形式は、<allowedFormats>です。

CORRUPTED_CATALOG_FUNCTION

SQLSTATE: 0A000

カタログ内の関数情報が破損しているため、カタログ関数 '<identifier>' を SQL 関数に変換できません。 関数が SQL 関数でない場合は、クラス名 '<className>' が読み込み可能であることを確認してください。

CREATE_FOREIGN_SCHEMA_NOT_IMPLEMENTED_YET

SQLSTATE: 42000

CREATE FOREIGN SCHEMA コマンドはまだ実装されていません

CREATE_FOREIGN_TABLE_NOT_IMPLEMENTED_YET

SQLSTATE: 42000

CREATE FOREIGN TABLE コマンドはまだ実装されていません

CREATE_OR_REFRESH_MV_NOT_SUPPORTED

SQLSTATE: 42601

CREATE OR REFRESH MATERIALIZED VIEW はサポートされていません。 代わりに CREATE OR REPLACE MATERIALIZED VIEW を使用してください。

CREATE_OR_REFRESH_MV_ST_ASYNC

SQLSTATE: 0A000

CREATE を指定した場合、REFRESH または ASYNC の具体化されたビューやストリーミングテーブルを利用することはできません。 ASYNC OR CREATE ステートメントから REFRESH を削除するか、REFRESH ASYNC を使用して既存の具体化されたビューまたはストリーミング テーブルを非同期的に更新してください。

CREATE_PERMANENT_VIEW_WITHOUT_ALIAS

SQLSTATE: 0A000

<name>のエイリアスを明示的に割り当てずに、永続的なビュー <attr> を作成することはできません。

CREATE_TABLE_COLUMN_DESCRIPTOR_DUPLICATE

SQLSTATE: 42710

CREATE TABLE column <columnName> は記述子 "<optionName>" を複数回指定しますが、これは無効です。

CREATE_VIEW_COLUMN_ARITY_MISMATCH

SQLSTATE: 21S01

ビュー <viewName>を作成できません。理由は次のとおりです。

詳細については、CREATE_VIEW_COLUMN_ARITY_MISMATCH を参照してください

CREDENTIAL_MISSING

SQLSTATE: 42601

外部の場所を作成または更新するときは、資格情報を入力してください。

CREDENTIAL_PURPOSE_MISMATCH

SQLSTATE: 42809

資格情報 <credentialName> には目的 <actualPurpose> がありますが、コマンドで指定された目的は <expectedPurpose>

CSV_ENFORCE_SCHEMA_NOT_SUPPORTED

SQLSTATE: 0A000

列は序数ではなく名前で読み取られるので、enforceSchema または rescuedDataColumnを使用する場合は、CSV オプション failOnUnknownFields を設定できません。

CYCLIC_FUNCTION_REFERENCE

SQLSTATE: 42887

循環関数参照が検出されました: <path>

DATABRICKS_DELTA_NOT_ENABLED

SQLSTATE: 56038

お使いのアカウントで Databricks Delta が有効になっていません。<hints>

DATAFLOW_GRAPH_NOT_FOUND

SQLSTATE: KD012

ID <graphId> を持つデータフロー グラフが見つかりませんでした

データ型の整列ができません

SQLSTATE: 0A000

<dataType> は順序付けされた操作をサポートしていません。

DATATYPE_MISMATCH

SQLSTATE: 42K09

データ型の不一致のため、<sqlExpr> を解決できません。

詳細については、DATATYPE_MISMATCH を参照してください。

DATATYPE_MISSING_SIZE

SQLSTATE: 42K01

DataType <type> には、<type>(10) などの長さのパラメーターが必要です。 長さを指定してください。

DATA_LINEAGE_SECURE_VIEW_LEAF_NODE_HAS_NO_RELATION

SQLSTATE: 25000

系列の書き込みに失敗しました。CLM/RLS に対するポリシーを持つ、対応する関係がありません。

DATA_SOURCE_ALREADY_EXISTS

SQLSTATE: 42710

データ ソース '<provider>' は既に存在します。 新しいデータ ソースに別の名前を選択してください。

DATA_SOURCE_CONNECTION_MISSING_ALLOW_LIST

SQLSTATE: 42000

接続 <connectionName> は、外部オプション許可リストが構成されていないため、このコンテキストではサポートされていません。 有効な <optionName>を含むように接続を更新してください。

DATA_SOURCE_EXTERNAL_ERROR

SQLSTATE: KD010

外部データ ソースに保存するときにエラーが発生しました。

DATA_SOURCE_NOT_EXIST

SQLSTATE: 42704

データ ソース '<provider>' が見つかりません。 データ ソースが登録されていることを確認してください。

DATA_SOURCE_NOT_FOUND

SQLSTATE: 42K02

データ ソース <provider>を見つけることができません。 プロバイダー名が正しく、パッケージが正しく登録され、Spark バージョンと互換性があることを確認します。

DATA_SOURCE_OPTIONS_VALIDATION_FAILED (データ ソース オプションの検証に失敗しました)

SQLSTATE: 42616

<dataSource> データ ソース オプションの検証に失敗しました。

詳細については、DATA_SOURCE_OPTIONS_VALIDATION_FAILEDを参照してください。

DATA_SOURCE_OPTION_CONTAINS_INVALID_CHARACTERS

SQLSTATE: 42602

オプション <option> は空にすることはできません。また、無効な文字、クエリ文字列、またはパラメーターを含めてはなりません。

DATA_SOURCE_OPTION_IS_REQUIRED

SQLSTATE: 42601

オプション <option> が必要です。

DATA_SOURCE_OPTION_NOT_ALLOWED_BY_CONNECTION

SQLSTATE: 42000

オプション <optionName> は、接続 <connectionName> では許可されず、外部で指定することはできません。

DATA_SOURCE_OPTION_VALUE_NOT_VALID

SQLSTATE: 42602

指定されたデータ ソース オプション '<option>' に無効な値 ('<value>') が含まれています。

詳細については、DATA_SOURCE_OPTION_VALUE_NOT_VALIDを参照してください。

DATA_SOURCE_SYNTAX_ERROR_DURING_QUERY_EXECUTION

SQLSTATE: 42000

外部データ ソース エンジン <dataSourceEngine> クエリ '<query>' の実行中に構文エラーがスローされました。 <externalEngineError>

DATA_SOURCE_TABLE_SCHEMA_MISMATCH

SQLSTATE: 42K03

データ ソース テーブルのスキーマが、想定されるスキーマと一致しません。 DataFrameReader.schema API を使用している場合、またはテーブルを作成する場合は、スキーマを指定しないでください。

データ ソース スキーマ: <dsSchema>

必要なスキーマ: <expectedSchema>

DATA_SOURCE_URL_NOT_ALLOWED

SQLSTATE: 42KDB

データ ソース オプションでは JDBC URL は使用できません。代わりに、'host'、'port'、および 'database' オプションを指定してください。

DATETIME_FIELD_OUT_OF_BOUNDS

SQLSTATE: 22023

<rangeMessage>

詳細については、DATETIME_FIELD_OUT_OF_BOUNDSを参照してください。

DATETIME_OVERFLOW

SQLSTATE: 22008

Datetime 操作のオーバーフロー: <operation>

DC_API_QUOTA_EXCEEDED

SQLSTATE: KD000

データ ソース <sourceName>の API クォータを超えました。

詳細については、DC_API_QUOTA_EXCEEDED を参照してください

DC_CONNECTION_ERROR

SQLSTATE: KD000

<sourceName> ソースへの接続に失敗しました。 エラー コード: <errorCode>

詳細については、DC_CONNECTION_ERROR を参照してください。

DC_DYNAMICS_API_ERROR

SQLSTATE: KD000

Dynamics API 呼び出しでエラーが発生しました。errorCode: <errorCode>

詳細については、DC_DYNAMICS_API_ERROR を参照してください。

DC_NETSUITE_ERROR

SQLSTATE: KD000

Netsuite JDBC 呼び出し、errorCode: <errorCode>でエラーが発生しました。

詳細については、DC_NETSUITE_ERROR を参照してください。

DC_SCHEMA_CHANGE_ERROR

SQLSTATE: 割り当てなし

<tableName> ソースのテーブル <sourceName> でスキーマの変更が発生しました。

詳細については、DC_SCHEMA_CHANGE_ERROR を参照してください。

DC_SERVICENOW_API_ERROR

SQLSTATE: KD000

ServiceNow API 呼び出し、errorCode: <errorCode>でエラーが発生しました。

詳細については、DC_SERVICENOW_API_ERROR を参照してください。

DC_SFDC_BULK_QUERY_JOB_INCOMPLETE

SQLSTATE: KD000

Salesforce API クエリ ジョブに時間がかかりすぎたり、失敗したり、手動で取り消されたりしたため、オブジェクト <objName> の取り込みは不完全です。

もう一度試すには、パイプライン全体を再実行するか、この特定の宛先テーブルを更新します。 エラーが解決しない場合は、チケットを提出します。 ジョブ ID: <jobId>。 ジョブの状態: <jobStatus>

DC_SHAREPOINT_API_ERROR

SQLSTATE: KD000

SharePoint API 呼び出し、errorCode: <errorCode>でエラーが発生しました。

詳細については、DC_SHAREPOINT_API_ERROR を参照してください。

DC_SOURCE_API_ERROR

SQLSTATE: KD000

<sourceName> API 呼び出しでエラーが発生しました。 ソース API の種類: <apiType>。 エラー コード: <errorCode>

これは、 <sourceName> API の制限に達したときに発生することがあります。 API の制限を超えていない場合は、コネクタを再実行してみてください。 問題が解決しない場合は、チケットを提出してください。

DC_UNSUPPORTED_ERROR

SQLSTATE: 0A000

データ ソース <sourceName>でサポートされていないエラーが発生しました。

詳細については、DC_UNSUPPORTED_ERROR を参照してください。

DC_WORKDAY_RAAS_API_ERROR

SQLSTATE: KD000

Workday RAAS API 呼び出しでエラーが発生しました。errorCode: <errorCode>

詳細については、DC_WORKDAY_RAAS_API_ERROR を参照してください。

DECIMAL_PRECISION_EXCEEDS_MAX_PRECISION

SQLSTATE: 22003

10 進精度 <precision> が最大精度 <maxPrecision>を超えています。

DEFAULT_DATABASE_NOT_EXISTS

SQLSTATE: 42704

既定のデータベース <defaultDatabase> が存在しません。最初に作成するか、既定のデータベースを <defaultDatabase>に変更してください。

DEFAULT_FILE_NOT_FOUND

SQLSTATE: 42K03

基になるファイルが更新されている可能性があります。 SQL で 'REFRESH TABLE tableName' コマンドを実行するか、関係する Dataset/DataFrame を再作成することで、Spark のキャッシュを明示的に無効にすることができます。 ディスク キャッシュが古い場合、または基になるファイルが削除されている場合は、クラスターを再起動することで、ディスク キャッシュを手動で無効にすることができます。

DEFAULT_PLACEMENT_INVALID

SQLSTATE: 42608

MERGE, INSERT, UPDATEまたは SET VARIABLE コマンドのDEFAULT キーワードは、式の一部であるため、ターゲット列に直接割り当てませんでした。

たとえば、 UPDATE SET c1 = DEFAULT は許可されますが、 UPDATE T SET c1 = DEFAULT + 1 は許可されません。

DEFAULT_UNSUPPORTED

SQLSTATE: 42623

テーブル プロバイダーが "<statementType>" のターゲット データ ソースではDEFAULT値がサポートされていないため、<dataSource>コマンドを実行できませんでした。

DEFINE_FLOW_ONCE_OPTION_NOT_SUPPORTED

SQLSTATE: 0A000

"1 回限り" オプションを使用した 1 回限りのフロー <flowName> の定義はサポートされていません。

DESCRIBE_JSON_NOT_EXTENDED

SQLSTATE: 0A000

DESCRIBE TABLE ... AS JSON [EXTENDED|FORMATTED] が指定されている場合にのみサポートされます。

たとえば、 DESCRIBE EXTENDED <tableName> AS JSON はサポートされていますが、 DESCRIBE <tableName> AS JSON はサポートされていません。

DIFFERENT_DELTA_TABLE_READ_BY_STREAMING_SOURCE

SQLSTATE: 55019

ストリーミング クエリは、予期しない Delta テーブル (id = '<newTableId>') から読み取っていました。

チェックポイントに従って別の Delta テーブル (id = '<oldTableId>') から読み取るために使用されます。

これは、新しいテーブルから読み取るコードを変更した場合、またはテーブルを削除した場合に発生することがあります。

テーブルを再作成しました。 変更を元に戻すか、ストリーミング クエリ チェックポイントを削除してください

削除してください。

DISTINCT_WINDOW_FUNCTION_UNSUPPORTED

SQLSTATE: 0A000

個別のウィンドウ関数はサポートされていません:<windowExpr>

DIVIDE_BY_ZERO

SQLSTATE: 22012

0 で除算します。 除数が 0 であることを許容し、代わりに try_divide を返すには、NULL を使用します。 このエラーをバイパスするには、必要に応じて <config> を "false" に設定します。

詳細については、DIVIDE_BY_ZERO を参照してください。

DLT_EXPECTATIONS_NOT_SUPPORTED

SQLSTATE: 56038

期待値は、Lakeflow Spark 宣言パイプライン パイプライン内でのみサポートされます。

DLT_VIEW_CLUSTER_BY_NOT_SUPPORTED

SQLSTATE: 56038

MATERIALIZED CLUSTER BY句を持つ VIEW は、Lakeflow Spark 宣言パイプライン パイプラインでのみサポートされます。

DLT_VIEW_LOCATION_NOT_SUPPORTED

SQLSTATE: 56038

MATERIALIZED VIEW 場所は、Lakeflow Spark 宣言パイプライン パイプラインでのみサポートされます。

DLT_VIEW_SCHEMA_WITH_TYPE_NOT_SUPPORTED

SQLSTATE: 56038

MATERIALIZED VIEW 指定した型のスキーマは、Lakeflow Spark 宣言パイプライン パイプラインでのみサポートされます。

DLT_VIEW_TABLE_CONSTRAINTS_NOT_SUPPORTED

SQLSTATE: 56038

CONSTRAINT ビューの句は、Lakeflow Spark 宣言パイプライン パイプラインでのみサポートされます。

DML_OPERATIONS_NOT_SUPPORTED_FOR_REMOTE_QUERY_FUNCTION

SQLSTATE: 0A000

リモート クエリ関数は DML クエリをサポートしていません。

DROP_COMMAND_TYPE_MISMATCH

SQLSTATE: 42809

DROP <commandType>を含む<metadataType>を削除できません。

代わりに DROP <metadataTypeUpper> を使用してください。

DROP_SCHEDULE_DOES_NOT_EXIST

SQLSTATE: 42000

既存のスケジュールまたはトリガーがないテーブルに対して SCHEDULE を削除することはできません。

DUPLICATED_CTE_NAMES

SQLSTATE: 42602

CTE 定義に重複する名前 ( <duplicateNames>) を付けることはできません。

DUPLICATED_FIELD_NAME_IN_ARROW_STRUCT

SQLSTATE: 42713

アロー構造体内に重複するフィールド名は許可されません。<fieldNames> を取得しました。

DUPLICATED_MAP_KEY

SQLSTATE: 23505

マップ キーの重複 <key> が見つかりました。入力データを確認してください。

重複したキーを削除する場合は、最後に挿入されたキーが優先されるように、 <mapKeyDedupPolicy> を "LAST_WIN" に設定できます。

DUPLICATED_METRICS_NAME

SQLSTATE: 42710

メトリック名は一意ではありません: <metricName>。 結果が異なるメトリックに同じ名前を使用することはできません。

ただし、同じ結果と名前を持つメトリックの複数のインスタンス (自己結合など) は許可されます。

DUPLICATE_ASSIGNMENTS

SQLSTATE: 42701

列または変数 <nameList> 割り当てターゲットとして複数回表示されます。

DUPLICATE_CLAUSES

SQLSTATE: 42614

重複する句が見つかりました: <clauseName>。 そのうちの 1 つを削除してください。

DUPLICATE_CONDITION_IN_SCOPE

SQLSTATE: 42734

スコープ内で重複する条件 <condition> が見つかりました。 そのうちの 1 つを削除してください。

DUPLICATE_EXCEPTION_HANDLER

SQLSTATE: 42734

重複するハンドラーが見つかりました。 そのうちの 1 つを削除してください。

詳細については、DUPLICATE_EXCEPTION_HANDLERを参照してください。

DUPLICATE_FLOW_SQL_CONF

SQLSTATE: 42710

データセット '<datasetName>' に重複する SQL conf が見つかりました: '<key>' は '<flowName1>' と '<flowName2>' の両方で定義されています

DUPLICATE_KEY

SQLSTATE: 23505

<keyColumn>重複するキーが見つかりました。

DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT

SQLSTATE: 4274K

ルーチン <routineName> の呼び出しは無効です。同じパラメーター名 <parameterName>に対する複数の引数の割り当てが含まれているためです。

詳細については、DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT を参照してください

DUPLICATE_ROUTINE_PARAMETER_NAMES

SQLSTATE: 42734

ユーザー定義ルーチン <routineName>のパラメーター リストに重複する名前が見つかりました: <names>

DUPLICATE_ROUTINE_RETURNS_COLUMNS

SQLSTATE: 42711

ユーザー定義ルーチン RETURNS<routineName> 句列リストに重複する列が見つかりました: <columns>

DECLARE内の変数名の重複

SQLSTATE: 42734

宣言変数リストに重複する変数 <variableName> が見つかりました。 そのうちの 1 つを削除してください。

EMITTING_ROWS_OLDER_THAN_WATERMARK_NOT_ALLOWED

SQLSTATE: 42815

前のノードで、eventTime=<emittedRowEventTime> が current_watermark_value=<currentWatermark> より古い行が出力されました

これにより、実行パイプラインのダウンストリームのステートフル演算子で正確性の問題が発生する可能性があります。

現在のグローバル基準値の後に行を出力する演算子ロジックを修正してください。

EMPTY_JSON_FIELD_VALUE

SQLSTATE: 42604

データ型 <dataType>の空の文字列を解析できませんでした。

EMPTY_LOCAL_FILE_IN_STAGING_ACCESS_QUERY

SQLSTATE: 22023

ステージングのクエリ <operation> にある空のローカルファイル

EMPTY_SCHEMA_NOT_SUPPORTED_FOR_DATASOURCE

SQLSTATE: 0A000

<format> データソースは、空または入れ子になった空のスキーマの書き込みをサポートしていません。 データ スキーマに少なくとも 1 つ以上の列があることを確認してください。

ENCODER_NOT_FOUND

SQLSTATE: 42704

Spark SQL 内部表現に <typeName> 型のエンコーダーが見つかりません。

入力の種類を、'<docroot>/sql-ref-datatypes.html' でサポートされている型のいずれかに変更することを検討してください。

END_LABEL_WITHOUT_BEGIN_LABEL

SQLSTATE: 42K0L

終了ラベル <endLabel> は、開始ラベルなしでは存在できません。

END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_LATEST_WITH_TRIGGER_AVAILABLENOW

SQLSTATE: KD000

Kafka トピックの一部のパーティションでは、Trigger.AvailableNow を使用したクエリの実行中に終了オフセットより小さい使用可能なオフセットが報告されます。 エラーは一時的なものになる可能性があります。クエリを再起動し、同じ問題が引き続き発生した場合は報告します。

最新のオフセット: <latestOffset>, 終了オフセット: <endOffset>

END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_PREFETCHED

SQLSTATE: KD000

Trigger.AvailableNow を使用する Kafka データ ソースの場合、終了オフセットは、プリフェッチされたオフセットよりも各トピック パーティションあたりのオフセットが小さいか等しい必要があります。 エラーは一時的なものになる可能性があります。クエリを再起動し、同じ問題が引き続き発生した場合は報告します。

プリフェッチされたオフセット: <prefetchedOffset>、終了オフセット: <endOffset>

ERROR_READING_AVRO_UNKNOWN_FINGERPRINT

SQLSTATE: KD00B

avro データの読み取り中に不明なフィンガープリントが発生しました: <fingerprint>、使用するスキーマがわからない。

これは、Spark コンテキストの開始後に追加のスキーマを登録した場合に発生する可能性があります。

EVENT_LOG_EMPTY

SQLSTATE: 55019

<tableOrPipeline>のイベント ログにはスキーマがなく、イベントも含まれていません。 イベントが生成された後でもう一度やり直してください

EVENT_LOG_REQUIRES_SHARED_COMPUTE

SQLSTATE: 42601

割り当て済みまたは分離なし共有クラスターからイベント ログを照会できません。代わりに、共有クラスターまたは Databricks SQL ウェアハウスを使用してください。

EVENT_LOG_TVF_UNSUPPORTED_FOR_PIPELINE

SQLSTATE: 0A000

EVENT_LOG Table-Valued関数は、"schema" フィールドを使用するパイプライン、または既定のストレージに発行するパイプラインに対してはサポートされていません。

イベント ログのクエリを実行するには、パイプライン設定で event_log フィールドを指定してメタストアに発行します。

詳細については、Monitor Lakeflow Spark 宣言型パイプラインのドキュメントを参照してください。 https://docs.databricks.com/aws/en/delta-live-tables/observability

EVENT_LOG_UNAVAILABLE

SQLSTATE: 55019

<tableOrPipeline>で使用できるイベント ログはありません。 イベントが生成された後にもう一度やり直してください

EVENT_LOG_UNSUPPORTED_TABLE_TYPE

SQLSTATE: 42832

<tableIdentifier> のテーブルの種類は <tableType>です。

イベント ログのクエリでは、具体化されたビュー、ストリーミング テーブル、または Lakeflow Spark 宣言パイプラインパイプラインのみがサポートされます

EVENT_TIME_IS_NOT_ON_TIMESTAMP_TYPE

SQLSTATE: 42K09

イベント時間 <eventName> は無効な型 <eventType> ですが、"TIMESTAMP" が必要です。

EXCEED_LIMIT_LENGTH

SQLSTATE: 54006

char/varchar 型の長さの制限を超えています: <limit>

EXCELのデータソースが有効になっていません

SQLSTATE: 56038

このクラスターでは、Excel データ ソースが有効になっていません。

EXCEL_FILE_ERROR

SQLSTATE: 58030

Excel ファイル '<filePath>' の処理中にエラーが発生しました。

詳細については、EXCEL_FILE_ERRORを参照してください。

EXCEL_INVALID_READ_OPTION_VALUE(エクセル無効な読み取りオプション値)

SQLSTATE: 42000

Excel データ ソースの読み取りオプションの値が無効です。

詳細については、EXCEL_INVALID_READ_OPTION_VALUEを参照してください。

EXCEL_INVALID_WRITE_OPTION_VALUE(Excel 書き込みオプションの値が無効です)

SQLSTATE: 0A000

Excel データ ソースでは、書き込みオプション '<value>' の値 '<option>' はサポートされていません。

詳細については、EXCEL_INVALID_WRITE_OPTION_VALUEを参照してください。

EXCEL_無効な書き込みスキーマ

SQLSTATE: 42000

Excel データ ソースでは、書き込みのスキーマ '<schema>' はサポートされていません。

<hint>

EXCEL_PARSING_ERROR

SQLSTATE: 22000

Excel データの解析中にエラーが発生しました。

詳細については、EXCEL_PARSING_ERRORを参照してください。

EXCEL_サポートされていない書き込みオプション

SQLSTATE: 42616

Excel データ ソースでは、書き込みオプション '<option>' はサポートされていません。

<hint>

EXCEPT_NESTED_COLUMN_INVALID_TYPE

SQLSTATE: 428H2

EXCEPT<columnName> が解決され、StructType であることが予期されましたが、型 <dataType>が見つかりました。

EXCEPT_OVERLAPPING_COLUMNS

SQLSTATE: 42702

EXCEPT リスト内の列は、それぞれ異なっていて、重複していない必要がありますが、(<columns>) を受け取りました。

EXCEPT_RESOLVED_COLUMNS_WITHOUT_MATCH

SQLSTATE: 42703

EXCEPT 列 [<exceptColumns>] は解決されましたが、スター型展開のどの列 [<expandedColumns>] とも一致しません。

EXCEPT_UNRESOLVED_COLUMN_IN_STRUCT_EXPANSION

SQLSTATE: 42703

<objectName> 句にある列/フィールド名 EXCEPT を解決できません。 次のいずれかの意味でしたか: [<objectList>]?

注: EXCEPT 句の入れ子になった列には、構造体の展開中に修飾子 (テーブル名、親構造体列名など) を含めないことがあります。入れ子になった列で修飾子を使用する場合は、修飾子を削除してみてください。

EXECUTOR_DISK_OUT_OF_SPACE

SQLSTATE: 53100

Executor ディスクの空き領域が不足しています。 使用可能な場合は、ディスク容量を増やしてください。 サーバーレスを使用している場合は、サポート チームにお問い合わせください。

EXEC_IMMEDIATE_DUPLICATE_ARGUMENT_ALIASES

SQLSTATE: 42701

この USING コマンドの EXECUTE IMMEDIATE 句には、同じエイリアス (<aliases>) を持つ複数の引数が含まれていました。これは無効です。コマンドを更新して一意のエイリアスを指定してから、もう一度やり直してください。

EXPECT_PERMANENT_TABLE_NOT_TEMP

SQLSTATE: 42809

'<operation>' には永続的なテーブルが必要ですが、 <tableName> は一時テーブルです。 代わりに永続的なテーブルを指定してください。

EXPECT_PERMANENT_VIEW_NOT_TEMP

SQLSTATE: 42809

'<operation>' は永続的なビューを必要としますが、 <viewName> は一時ビューです。

EXPECT_TABLE_NOT_VIEW

SQLSTATE: 42809

'<operation>' にはテーブルが必要ですが、 <viewName> はビューです。

詳細については、EXPECT_TABLE_NOT_VIEW を参照してください。

EXPECT_VIEW_NOT_TABLE

SQLSTATE: 42809

テーブル <tableName><operation>をサポートしていません。

詳細については、EXPECT_VIEW_NOT_TABLE を参照してください

EXPRESSION_DECODING_FAILED

SQLSTATE: 42846

行を式の値 (<expressions>) にデコードできませんでした。

EXPRESSION_ENCODING_FAILED

SQLSTATE: 42846

式の値 <expressions> を行にエンコードできませんでした。

EXPRESSION_TRANSLATION_TO_V2_IS_NOT_SUPPORTED

SQLSTATE: 0A000

<expr> v2 式に変換できません。

EXPRESSION_TYPE_IS_NOT_ORDERABLE

SQLSTATE: 42822

列式 <expr> の型 <exprType> は順序付けできないため、並べ替えできません。

EXTERNAL_METASTORE_CLIENT_ERROR

SQLSTATE: 58000

クライアント操作が失敗しました:

詳細については、EXTERNAL_METASTORE_CLIENT_ERRORを参照してください。

EXTERNAL_SHALLOW_CLONE_STILL_EXISTS

SQLSTATE: 42893

浅い複製<sourceTable>がまだ存在し、その状態が無効であるため、ソース テーブル<targetTable>に対して操作を実行できませんでした。 この操作を実際に続行する場合は、DROP コマンドを明示的に実行して浅いクローンをクリーンアップしてください。

EXTERNAL_TABLE_INVALID_SCHEME

SQLSTATE: 0A000

外部テーブルは、 <scheme> スキームをサポートしていません。

FABRIC_REFRESH_INVALID_SCOPE

SQLSTATE: 0A000

'REFRESH FOREIGN <scope> <name>' の実行中にエラーが発生しました。 Fabric <scope> を直接更新することはできません。代わりに、"REFRESH FOREIGN CATALOG <catalogName>" を使用してファブリック カタログを更新してください。

FAILED_EXECUTE_UDF

SQLSTATE: 39000

ユーザー定義関数 (<functionName>: (<signature>) => <result>) は、 <reason>が原因で失敗しました。

FAILED_FUNCTION_CALL

SQLSTATE: 38000

呼び出しのために関数 <funcName> の準備に失敗しました。 関数の引数を再確認してください。

FAILED_JDBC

SQLSTATE: HV000

操作で JDBC <url> が失敗しました。

詳細については、FAILED_JDBC を参照してください。

FAILED_PARSE_STRUCT_TYPE

SQLSTATE: 22018

失敗した解析構造体: <raw>

FAILED_READ_FILE

SQLSTATE: KD001

ファイル <path>の読み取り中にエラーが発生しました。

詳細については、FAILED_READ_FILE を参照してください。

FAILED_REGISTER_CLASS_WITH_KRYO

SQLSTATE: KD000

Kryo にクラスを登録できませんでした。

FAILED_RENAME_PATH

SQLSTATE: 42K04

宛先が既に存在するため、<sourcePath> の名前を <targetPath> に変更できませんでした。

FAILED_RENAME_TEMP_FILE

SQLSTATE: 58030

FileSystem.rename が false に返されたので、一時ファイル <srcPath> の名前を <dstPath> に変更できませんでした。

FAILED_ROW_TO_JSON

SQLSTATE: 2203G

<class>クラスの行値<value>を、JSON形式のターゲット SQL 型<sqlType>に変換できませんでした。

FAILED_TO_CREATE_PLAN_FOR_DIRECT_QUERY

SQLSTATE: 58030

ファイルに対する直接クエリのプランを作成できませんでした: <dataSourceType>

FAILED_TO_LOAD_ROUTINE

SQLSTATE: 38000

ルーチン <routineName>を読み込めませんでした。

FAILED_TO_PARSE_TOO_COMPLEX

SQLSTATE: 54001

潜在的な SQL 関数や参照されるビューを含むステートメントは、解析が複雑すぎます。

このエラーを軽減するために、ステートメントを複数のより複雑でないチャンクに分割します。

FEATURE_NOT_ENABLED

SQLSTATE: 56038

機能 <featureName> が有効になっていません。 この機能を有効にするには、構成 <configKey><configValue> に設定することを検討してください。

FEATURE_NOT_ON_CLASSIC_WAREHOUSE

SQLSTATE: 56038

<feature> は、クラシック SQL ウェアハウスではサポートされていません。 この機能を使用するには、Pro またはサーバーレス SQL ウェアハウスを使用します。

FEATURE_REQUIRES_UC

SQLSTATE: 0AKUD

<feature> は Unity カタログなしではサポートされていません。 この機能を使用するには、Unity カタログを有効にします。

FEATURE_UNAVAILABLE

SQLSTATE: 56038

<feature> は、環境内ではサポートされていません。 この機能を使用するには、Databricks サポートにお問い合わせください。

FETCH_FAILED

SQLSTATE: 58000

シャッフル データまたはメタデータのフェッチ中にタスクが失敗しました: <errorString>

FGAC_ON_DEDICATED_COMPUTE_FAILED

SQLSTATE: KD011

次の例外により、専用コンピューティングでのきめ細かいアクセス制御 (FGAC) に失敗しました。 <message>

FIELD_ALREADY_EXISTS

SQLSTATE: 42710

<op> が既に <fieldNames>に存在するため、<struct> 列を作成できません。

FIELD_NOT_FOUND

SQLSTATE: 42704

<fieldName>にこのような構造体フィールド <fields> はありません。

FILE_IN_STAGING_PATH_ALREADY_EXISTS

SQLSTATE: 42K04

ステージング パス内のファイル <path> 既に存在しますが、OVERWRITE が設定されていません

FLATMAPGROUPSWITHSTATE_USER_FUNCTION_ERROR

SQLSTATE: 39000

flatMapGroupsWithState のユーザー指定関数でエラーが発生しました。 理由: <reason>

FORBIDDEN_DATASOURCE_IN_SERVERLESS

SQLSTATE: 0A000

サーバーレス コンピューティングでデータ ソース <source> のクエリを実行することはできません。 サーバーレス コンピューティングでは、<allowlist> データ ソースのみがサポートされます。

FORBIDDEN_KEYWORD_IN_JDBC_QUERY

SQLSTATE: 42000

クエリ オプション <queryOption> 禁止キーワードを含めることはできません。 クエリから次のキーワードを削除してください。 <keywords>

FORBIDDEN_OPERATION

SQLSTATE: 42809

<statement>: <objectType>では、操作 <objectName> は許可されていません。

FOREACH_BATCH_USER_FUNCTION_ERROR

SQLSTATE: 39000

foreach バッチ シンクのユーザー指定関数でエラーが発生しました。 理由: <reason>

FOREACH_USER_FUNCTION_ERROR

SQLSTATE: 39000

foreach シンクのユーザー指定関数でエラーが発生しました。 理由: <reason>

FOREIGN_KEY_MISMATCH

SQLSTATE: 42830

外部キーの親列 <parentColumns> が主キーの子列 <childColumns>と一致しません。

FOREIGN_OBJECT_NAME_CANNOT_BE_EMPTY

SQLSTATE: 42000

外部 <objectType> 名は空でない必要があるため、このコマンドを実行できません。

FOREIGN_TABLE_CONVERSION_UNSUPPORTED

SQLSTATE: 0AKUC

テーブルは UC Foreign から UC External へのアップグレードの対象ではありません。 Reason:

詳細については、FOREIGN_TABLE_CONVERSION_UNSUPPORTEDを参照してください。

FOREIGN_VIEW_CONVERSION_UNSUPPORTED

SQLSTATE: 0AKUC

オブジェクト <objectName> は、UC マネージド ビューへの変換の対象ではありません。 Reason:

詳細については、FOREIGN_VIEW_CONVERSION_UNSUPPORTEDを参照してください。

FROM_JSON_CONFLICTING_SCHEMA_UPDATES

SQLSTATE: 42601

from_json推論で競合するスキーマの更新が発生しました: <location>

FROM_JSON_CORRUPT_RECORD_COLUMN_IN_SCHEMA

SQLSTATE: 42601

from_jsonはcolumnNameOfCorruptRecord(<columnNameOfCorruptRecord>)が存在することを見つけました。

JSON オブジェクトに格納し、続行できなくなります。 別の値を設定してください。

オプション 'columnNameOfCorruptRecord'。

FROM_JSON_CORRUPT_SCHEMA

SQLSTATE: 42601

from_jsonの推論は、格納されているスキーマを<location>で読み取れませんでした。

FROM_JSON_INFERENCE_FAILED

SQLSTATE: 42601

from_jsonはスキーマを推論できませんでした。 代わりに 1 つ指定してください。

FROM_JSON_INFERENCE_NOT_SUPPORTED

SQLSTATE: 0A000

from_json推論は、ストリーミング テーブルを定義する場合にのみサポートされます

FROM_JSON_INVALID_CONFIGURATION

SQLSTATE: 42601

from_json構成が無効です。

詳細については、FROM_JSON_INVALID_CONFIGURATION を参照してください

FROM_JSON_SCHEMA_EVOLUTION_FAILED

SQLSTATE: 22KD3

from_jsonは <old> から <new> に進化できませんでした

FUNCTION_PARAMETERS_MUST_BE_NAMED

SQLSTATE: 07001

関数 <function> には名前付きパラメーターが必要です。 パラメーターに名前がありません: <exprs>。 関数呼び出しを更新して、すべてのパラメーターの名前を追加してください (例: <function>(param_name => ...)。

GENERATED_COLUMN_WITH_DEFAULT_VALUE

SQLSTATE: 42623

列には既定値と世代式の両方を指定できませんが、列 <colName> には既定値 (<defaultValue>) と生成式: (<genExpr>) があります。

GET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION

SQLSTATE: 56038

Hive 2.2 以前のバージョンでは、getTablesByType はサポートされていません。 Hive 2.3 以降のバージョンを使用してください。

GET_WARMUP_TRACING_FAILED

SQLSTATE: 42601

ウォームアップを追跡できませんでした。 原因: <cause>

GET_WARMUP_TRACING_FUNCTION_NOT_ALLOWED

SQLSTATE: 42601

関数 get_warmup_tracing() は使用できません。

GRAPHITE_SINK_INVALID_PROTOCOL

SQLSTATE: KD000

無効なグラファイトプロトコル: <protocol>.

GRAPHITE_SINK_PROPERTY_MISSING

SQLSTATE: KD000

Graphite シンクには '<property>' プロパティが必要です。

GROUPING_COLUMN_MISMATCH

SQLSTATE: 42803

グループ化の列 (<grouping>) は、グループ化列 <groupingColumns>で見つかりません。

GROUPING_ID_COLUMN_MISMATCH

SQLSTATE: 42803

grouping_id (<groupingIdColumn>) の列がグループ化列 (<groupByColumns>) と一致しません。

GROUPING_SIZE_LIMIT_EXCEEDED

SQLSTATE: 54000

グループ化セットのサイズを <maxSize>より大きくすることはできません。

GROUP_BY_AGGREGATE

SQLSTATE: 42903

集計関数は、GROUP BYでは使用できませんが、<sqlExpr>見つかりました。

詳細については、GROUP_BY_AGGREGATE を参照してください。

GROUP_BY_POS_AGGREGATE

SQLSTATE: 42903

GROUP BY <index> は、集計関数を含む式 <aggExpr> を参照します。 GROUP BYでは集計関数を使用できません。

GROUP_BY_POS_OUT_OF_RANGE

SQLSTATE: 42805

GROUP BY 位置 <index> が選択リストに含まれていません (有効な範囲は [1, <size>])。

GROUP_EXPRESSION_TYPE_IS_NOT_ORDERABLE

SQLSTATE: 42822

<sqlExpr> データ型 <dataType> は順序付け可能なデータ型ではないため、グループ化式として使用できません。

HDFS_HTTP_ERROR

SQLSTATE: KD00F

HDFS から読み取ろうとすると、HTTP 要求が失敗しました。

詳細については、HDFS_HTTP_ERROR を参照してください。

HINT_UNSUPPORTED_FOR_JDBC_DIALECT

SQLSTATE: 42822

オプション hint は、JDBC データ ソースの <jdbcDialect> ではサポートされていません。 サポートされている方言は、 MySQLDialect, OracleDialectDatabricksDialectです。

HIVE_METASTORE_INVALID_PLACEHOLDER_PATH

SQLSTATE: 42K06

'spark.databricks.hive.metastore.tablePlaceholderPath' 構成で無効な Hive メタストア テーブル プレースホルダー パスが提供されたため、クエリまたはコマンドの実行に失敗しました。 有効なパスを指定するには、この構成を新しい値で更新してから、クエリまたはコマンドをもう一度実行してください。

HIVE_METASTORE_TABLE_PLACEHOLDER_PATH_NOT_SET

SQLSTATE: 42000

Hive Metastore テーブルのプレースホルダー パスが設定されていないため、クエリまたはコマンドが失敗しました。これは、スキーマの場所が DBFS 上にあり、テーブルの場所がオブジェクト/ファイルである場合に必要です。 アクセスできるパスに spark.databricks.hive.metastore.tablePlaceholderPath を設定してから、クエリまたはコマンドを再実行してください。

HLL_INVALID_INPUT_SKETCH_BUFFER

SQLSTATE: 22546

<function>の呼び出しが無効です。有効な HLL スケッチ バッファーのみが入力としてサポートされます (hll_sketch_agg 関数によって生成されるバッファーなど)。

HLL_INVALID_LG_K

SQLSTATE: 22546

<function>の呼び出しが無効です。lgConfigK の値は、<min><max>の間 (<value>を含む) である必要があります。

HLL_K_MUST_BE_CONSTANT

SQLSTATE: 42K0E

<function>の呼び出しが無効です。K値は定数値である必要がありますが、定数以外の式を取得しました。

HLL_UNION_DIFFERENT_LG_K

SQLSTATE: 22000

スケッチには、lgConfigK<left><right> 値が異なります。 allowDifferentLgConfigK パラメーターを true に設定して、異なる <function> 値で lgConfigK を呼び出します。

HMS_FEDERATION_SHALLOW_CLONE_NOT_FOUND_IN_UC

SQLSTATE: 22KD1

浅いクローン パス '<path>' を Unity カタログのテーブルに解決できませんでした。 テーブルが存在し、Unity カタログにフェデレーションされていることを確認してください。

HYBRID_ANALYZER_EXCEPTION

SQLSTATE: 0A000

従来の固定小数点アナライザーとシングルパス リゾルバーの両方を使用してクエリまたはコマンドを解決しようとすると、エラーが発生しました。

詳細については、HYBRID_ANALYZER_EXCEPTION を参照してください

IDENTIFIER_TOO_MANY_NAME_PARTS

SQLSTATE: 42601

<identifier> は有効な識別子ではありません。名前の部分 <limit> 超えています。

IDENTITY_COLUMNS_DUPLICATED_SEQUENCE_GENERATOR_OPTION

SQLSTATE: 42601

IDENTITY 列のシーケンス生成オプション <sequenceGeneratorOption> が重複しています。

IDENTITY_COLUMNS_ILLEGAL_STEP

SQLSTATE: 42611

列ステップ IDENTITY 0 にすることはできません。

IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE

SQLSTATE: 428H2

dataType <dataType> は、IDENTITY 列ではサポートされていません。

ILLEGAL_DAY_OF_WEEK

SQLSTATE: 22009

曜日の入力が不正です: <string>

ILLEGAL_STATE_STORE_VALUE

SQLSTATE: 42601

状態ストアに指定された無効な値

詳細については、ILLEGAL_STATE_STORE_VALUE を参照してください

INAPPROPRIATE_URI_SCHEME_OF_CONNECTION_OPTION

SQLSTATE: 42616

接続オプション '<uri>' に対して URI <option>の不適切なスキームが指定されているため、接続を作成できません。

許可されるスキーム: <allowedSchemes>

URI に存在しない場合はスキームを追加するか、許可される値からスキームを指定してください。

INCOMPARABLE_PIVOT_COLUMN

SQLSTATE: 42818

ピボット列の <columnName>が無効です。 ピボット列は比較可能である必要があります。

INCOMPATIBLE_BATCH_VIEW_READ

SQLSTATE: 42000

ビュー <datasetIdentifier> はバッチ ビューであり、SparkSession#read を使用して参照する必要があります。 このチェックは、Spark conf pipelines.incompatibleViewCheck.enabled = false を設定することで無効にすることができます。

INCOMPATIBLE_COLUMN_TYPE

SQLSTATE: 42825

<operator> は、互換性のある列型を持つテーブルでのみ実行できます。 <columnOrdinalNumber> テーブルの <tableOrdinalNumber> 列は <dataType1> 型であり、最初のテーブルの同じ列にある <dataType2> と互換性がありません。<hint>.

INCOMPATIBLE_DATASOURCE_REGISTER

SQLSTATE: 56038

互換性のない DataSourceRegister が検出されました。 互換性のないライブラリをクラスパスから削除するか、アップグレードしてください。 エラー: <message>

INCOMPATIBLE_DATA_FOR_TABLE

SQLSTATE: KD000

テーブル <tableName>の互換性のないデータを書き込めません:

詳細については、INCOMPATIBLE_DATA_FOR_TABLE を参照してください

INCOMPATIBLE_JOIN_TYPES

SQLSTATE: 42613

結合の種類 <joinType1><joinType2> には互換性がありません。

INCOMPATIBLE_STREAMING_VIEW_READ

SQLSTATE: 42000

ビュー <datasetIdentifier> はストリーミング ビューであり、SparkSession#readStream を使用して参照する必要があります。 このチェックは、Spark conf pipelines.incompatibleViewCheck.enabled = false を設定することで無効にすることができます。

INCOMPATIBLE_VIEW_SCHEMA_CHANGE

SQLSTATE: 51024

ビュー <viewName> の SQL クエリに互換性のないスキーマ変更があり、列 <colName> を解決できません。 <expectedNum> という名前の列が <colName> 個予期されていましたが、<actualCols> を受け取りました。

<suggestion>を実行して、ビューを再作成してみてください。

INCOMPLETE_TYPE_DEFINITION

SQLSTATE: 42K01

不完全な複合型:

詳細については、INCOMPLETE_TYPE_DEFINITION を参照してください。

INCONSISTENT_BEHAVIOR_CROSS_VERSION

SQLSTATE: 42K0B

へのアップグレードにより、別の結果が得られる場合があります。

詳細については、INCONSISTENT_BEHAVIOR_CROSS_VERSION を参照してください

INCORRECT_NUMBER_OF_ARGUMENTS

SQLSTATE: 42605

<failure>, <functionName> には、少なくとも <minArgs> 引数と最大 <maxArgs> 引数が必要です。

INCORRECT_RAMP_UP_RATE

SQLSTATE: 22003

<rowsPerSecond> が rowsPerSecond の場合の最大オフセットは <maxSeconds> ですが、'rampUpTimeSeconds' が <rampUpTimeSeconds> です。

INDETERMINATE_COLLATION

SQLSTATE: 42P22

文字列操作に使用する照合順序を特定できませんでした。 照合順序を明示的に設定するには、COLLATE 句を使用します。

INDETERMINATE_COLLATION_IN_EXPRESSION

SQLSTATE: 42P22

<expr> のデータ型の照合順序は不確定です。 照合順序を明示的に設定するには、COLLATE 句を使用します。

INDETERMINATE_COLLATION_IN_SCHEMA

SQLSTATE: 42P22

スキーマには、次の不確定な照合順序が含まれています: [<columnPaths>]。 照合順序を明示的に設定するには、COLLATE 句を使用します。

INDEX_ALREADY_EXISTS

SQLSTATE: 42710

テーブル <indexName> にインデックス <tableName> は既に存在するため、作成できません。

INDEX_NOT_FOUND

SQLSTATE: 42704

テーブル <indexName>でインデックス <tableName> が見つかりません。

INET_FUNCTIONS_NOT_ENABLED

SQLSTATE: 0A000

<functionName> が無効になっているか、サポートされていません。 INET 関数はまだ一般公開されていません。

INFINITE_STREAMING_TRIGGER_NOT_SUPPORTED

SQLSTATE: 0A000

トリガーの種類 <trigger> は、このクラスターの種類ではサポートされていません。

AvailableNow、Once など、別のトリガーの種類を使用します。

INSERT_COLUMN_ARITY_MISMATCH

SQLSTATE: 21S01

<tableName>に書き込めません。理由は次のとおりです。

詳細については、INSERT_COLUMN_ARITY_MISMATCH を参照してください

INSERT_PARTITION_COLUMN_ARITY_MISMATCH

SQLSTATE: 21S01

'<tableName>' に書き込めません。 <reason>

テーブルの列: <tableColumns>

静的な値を使用して列をパーティション分割する: <staticPartCols>

データ列: <dataColumns>.

INSERT_REPLACE_USING_DISALLOW_MISALIGNED_COLUMNS

SQLSTATE: 42000

USING句のすべての列は、ターゲット スキーマとソース スキーマの両方で同じ位置に配置する必要があります。 USING 位置がずれた列を含む句はサポートされていません。

次の列の位置がずれている。 <misalignedReplaceUsingCols>

INSERT_REPLACE_USING_INVALID_SET_OF_COLUMNS

SQLSTATE: 42000

テーブルはパーティション分割する必要があり、指定されたすべての列はテーブルのパーティション列の完全なセットを表す必要があります。

次の列はパーティション列ではありません。 <nonPartitionColumns>

次のパーティション列がありません。 <missingPartitionsColumns>

INSERT_REPLACE_USING_NOT_ENABLED

SQLSTATE: 0A000

INSERT INTO ... REPLACE USING (...) 機能を有効にするには、Databricks の担当者にお問い合わせください。

INSUFFICIENT_PERMISSIONS

SQLSTATE: 42501

不十分な特権:

<report>

INSUFFICIENT_PERMISSIONS_EXT_LOC

SQLSTATE: 42501

ユーザー <user> には、外部の場所の <location>に対する十分な特権がありません。

INSUFFICIENT_PERMISSIONS_NO_OWNER

SQLSTATE: 42501

<securableName>の所有者はいません。 所有者を設定するように管理者に依頼します。

INSUFFICIENT_PERMISSIONS_OWNERSHIP_SECURABLE

SQLSTATE: 42501

ユーザーは <securableName>を所有していません。

INSUFFICIENT_PERMISSIONS_SECURABLE

SQLSTATE: 42501

ユーザーは、<action><securableName> アクセス許可を持っていません。

INSUFFICIENT_PERMISSIONS_SECURABLE_PARENT_OWNER

SQLSTATE: 42501

<securableName> の所有者は、<parentSecurableName>の所有者とは異なります。

INSUFFICIENT_PERMISSIONS_SPARK_CONNECT_CLIENT_SET_CLOUDFETCH_RETENTION_TIMEOUT

SQLSTATE: 42501

クライアントには、CloudFetch 結果のカスタムリテンション期間のタイムアウトを設定するアクセス許可がありません。

INSUFFICIENT_PERMISSIONS_STORAGE_CRED

SQLSTATE: 42501

ストレージ資格情報 <credentialName> には十分な特権がありません。

INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES

SQLSTATE: 42501

基盤のセキュリティ保護可能なリソースに対するアクセス許可のため、ユーザーは <action><securableName> を実行できません。

INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES_VERBOSE

SQLSTATE: 42501

基盤のセキュリティ保護可能なリソースに対するアクセス許可のため、ユーザーは <action><securableName> を実行できません。

<underlyingReport>

INTERVAL_ARITHMETIC_OVERFLOW

SQLSTATE: 22015

間隔を使用した操作中の整数オーバーフロー。

詳細については、INTERVAL_ARITHMETIC_OVERFLOW を参照してください。

INTERVAL_DIVIDED_BY_ZERO

SQLSTATE: 22012

0 で除算します。 除数が 0 であることを許容し、代わりに try_divide を返すには、NULL を使用します。

INVALID_AGGREGATE_FILTER

SQLSTATE: 42903

集計関数内の FILTER<filterExpr> が無効です。

詳細については、INVALID_AGGREGATE_FILTER を参照してください。

INVALID_AGNOSTIC_ENCODER

SQLSTATE: 42001

無効な非依存エンコーダーが見つかりました。 AgnosticEncoder のインスタンスが必要ですが、<encoderType>が渡されました。 詳細については、'<docroot>/api/java/index.html?org/apache/spark/sql/Encoder.html' を参照してください。

INVALID_ARRAY_INDEX

SQLSTATE: 22003

インデックス <indexValue> が範囲外です。 配列には <arraySize> 要素があります。 SQL 関数 get() を使用して、無効なインデックスで要素へのアクセスを許容し、代わりに NULL を返します。

詳細については、INVALID_ARRAY_INDEX を参照してください。

INVALID_ARRAY_INDEX_IN_ELEMENT_AT

SQLSTATE: 22003

インデックス <indexValue> が範囲外です。 配列には <arraySize> 要素があります。 try_element_at を使用して、無効なインデックスで要素へのアクセスを許容し、代わりに NULL を返します。

詳細については、INVALID_ARRAY_INDEX_IN_ELEMENT_AT を参照してください

INVALID_ARTIFACT_PATH

SQLSTATE: 22023

名前 <name> を持つアーティファクトが無効です。 名前は相対パスである必要があり、親/兄弟/甥のディレクトリを参照することはできません。

INVALID_ATTRIBUTE_NAME_SYNTAX

SQLSTATE: 42601

属性名の構文エラー: <name>。 バッククォートがペアで表示されていることを確認します。引用符で囲まれた文字列は完全な名前部分であり、引用符で囲まれた名前部分内でのみバッククォートを使用します。

INVALID_AUTO_TTL_EXPIRE_IN_DAYS

SQLSTATE: 22003

自動 TTL に指定する日数は負以外にする必要があります。

INVALID_AWS_AUTHENTICATION

SQLSTATE: 42000

次のいずれかの認証方法を選択してください。

  • Databricks サービス資格情報 (<serviceCredential>) の名前を入力します (Spark ストリーミング オプションまたはクラスター環境変数として)。

  • AWS キーを使用するには、AWS AccessKey (<awsAccessKey>) と SecretAccessKey (<awsSecretKey>) の両方を指定します。

  • Kinesis 認証に既定の AWS 資格情報プロバイダー チェーンを使用するために、AWS キーも Databricks サービス資格情報も指定しません。

INVALID_AWS_AUTHENTICATION_EXPLICIT_OPTIONS

SQLSTATE: 42000

Databricks サービス資格情報の名前 (<serviceCredential>)、

または、<awsAccessKey><awsSecretKey> の両方

INVALID_BITMAP_POSITION

SQLSTATE: 22003

<bitPosition> の 0 インデックス付きビットマップ位置が範囲外です。 ビットマップには <bitmapNumBits> ビット (<bitmapNumBytes> バイト) があります。

INVALID_BOOLEAN_STATEMENT

SQLSTATE: 22546

この条件ではブール値ステートメントが必要ですが、<invalidStatement> が見つかりました。

INVALID_BOUNDARY

SQLSTATE: 22003

境界 <boundary> が無効です: <invalidValue>

詳細については、INVALID_BOUNDARY を参照してください

INVALID_BUCKET_COLUMN_DATA_TYPE

SQLSTATE: 42601

バケット列に <type> を使用できません。 照合されたデータ型は、バケット化ではサポートされていません。

INVALID_BUCKET_COUNT

SQLSTATE: 22003

バケットの数は 0 より大きく、bucketing.maxBuckets (<bucketingMaxBuckets>) 以下にする必要があります。 <numBuckets>を取得しました。

INVALID_BUCKET_FILE

SQLSTATE: 58030

バケット ファイル <path> が無効です。

INVALID_BYTE_STRING

SQLSTATE: 22P03

想定される形式は ByteString ですが、 <unsupported> (<class>)されました。

INVALID_CIDR_RANGE

SQLSTATE: 22023

関数 <functionName> 無効な CIDR 範囲 ( <value>) を受け取りました。

INVALID_CLONE_SESSION_REQUEST

SQLSTATE: 42K04

セッション複製要求が無効です。

詳細については、INVALID_CLONE_SESSION_REQUESTを参照してください。

INVALID_COLUMN_NAME_AS_PATH

SQLSTATE: 46121

データ ソース <datasource> は、ファイル パスで使用できない文字が名前に含まれているため、列 <columnName> を保存できません。 エイリアスを使用して名前を変更してください。

INVALID_COLUMN_OR_FIELD_DATA_TYPE

SQLSTATE: 42000

列またはフィールド <name><type> 型ですが、 <expectedType>する必要があります。

INVALID_CONF_VALUE

SQLSTATE: 22022

構成 "<confValue>" の値 '<confName>' が無効です。

詳細については、INVALID_CONF_VALUE を参照してください。

制約特性が無効です

SQLSTATE: 42613

制約特性 [<characteristics>] が重複しているか、相互に競合しています。

INVALID_CORRUPT_RECORD_TYPE

SQLSTATE: 42804

破損したレコードの列 <columnName> には、Null 許容の STRING 型が必要ですが、<actualType> を受け取りました。

INVALID_CURRENT_RECIPIENT_USAGE

SQLSTATE: 42887

current_recipient 関数は、CREATE VIEW ステートメントまたは ALTER VIEW ステートメントでのみ使用して、Unity カタログで共有のみのビューを定義できます。

INVALID_CURSOR

SQLSTATE: HY109

カーソルが無効です。

詳細については、INVALID_CURSOR を参照してください。

接続オプション注入に無効なデータソース形式

SQLSTATE: 42000

名前 <connectionName> と型 <connectionType> を使用した接続では、形式 <actualFormat>はサポートされていません。 サポートされている形式: <expectedFormat>.

INVALID_DATASOURCE_OPTION_OVERRIDE_ATTEMPT (無効なデータソースオプション上書き試行)

SQLSTATE: 42000

オプション <optionName> は接続 <connectionName> に既に存在し、オーバーライドすることはできません。

INVALID_DATETIME_PATTERN

SQLSTATE: 22007

認識されない日時パターン: <pattern>.

詳細については、INVALID_DATETIME_PATTERN を参照してください。

INVALID_DBFS_MOUNT

SQLSTATE: 42KDL

DBFS マウントにアクセスできません。

詳細については、INVALID_DBFS_MOUNTを参照してください。

INVALID_DBSQL_CONFIG

SQLSTATE: 42616

<confValue> SQL 構成キーではサポートされていません <confKey>

INVALID_DEFAULT_VALUE

SQLSTATE: 42623

宛先の列または変数 <statement><colName>DEFAULTがあるため、コマンド <defaultValue> を実行できませんでした。

詳細については、INVALID_DEFAULT_VALUE を参照してください。

INVALID_DELIMITER_VALUE

SQLSTATE: 42602

区切り記号の値が無効です。

詳細については、INVALID_DELIMITER_VALUE を参照してください。

INVALID_DEST_CATALOG

SQLSTATE: 42809

SYNC コマンドの宛先カタログは、Unity カタログ内にある必要があります。 <catalog>が見つかりました。

INVALID_DRIVER_MEMORY

SQLSTATE: F0000

システム メモリ <systemMemory> は、少なくとも <minSystemMemory>である必要があります。

Spark 構成で --driver-memory オプションまたは "<config>" を使用してヒープ サイズを増やしてください。

INVALID_DROP_TABLE_OPTIONS(無効なDROP TABLEオプション)

SQLSTATE: 42601

コマンドで PURGE オプションと FORCE オプションの両方 DROP TABLE 指定することはできません。 PURGEまたはFORCEを使用しますが、両方は使用しないでください。

INVALID_DYNAMIC_OPTIONS

SQLSTATE: 42K10

<option_list>渡されたオプションは、外部テーブルの<table_name>では使用されません。

INVALID_EMPTY_LOCATION

SQLSTATE: 42K05

場所名を空の文字列にすることはできませんが、<location> 指定されました。

無効な環境設定の依存関係

SQLSTATE: 42000

環境設定の依存関係パラメーターがないか、文字列の一覧に解析できませんでした。 想定される形式: ["dep1", "dep2"]

INVALID_ENVIRONMENT_SETTINGS_ENVIRONMENT_VERSION

SQLSTATE: 42000

このランタイム バージョンでは、データ ソースの環境バージョンはサポートされていません。 値: <environmentVersion>

INVALID_ERROR_CONDITION_DECLARATION

SQLSTATE: 42K0R

無効な条件宣言です。

詳細については、INVALID_ERROR_CONDITION_DECLARATIONを参照してください。

INVALID_ESC

SQLSTATE: 42604

無効なエスケープ文字列が見つかりました: <invalidEscape>。 エスケープ文字列には、1 文字のみを含む必要があります。

INVALID_ESCAPE_CHAR

SQLSTATE: 42604

EscapeChar は長さ 1 の文字列リテラルである必要がありますが、<sqlExpr> を受け取りました。

INVALID_EXECUTOR_MEMORY

SQLSTATE: F0000

Executor メモリ <executorMemory> は、少なくとも <minSystemMemory>である必要があります。

--executor-memory オプションまたは Spark 構成の "<config>" を使用して、Executor メモリを増やしてください。

INVALID_EXPRESSION_ENCODER

SQLSTATE: 42001

無効な式エンコーダーが見つかりました。 ExpressionEncoder のインスタンスを期待しましたが、<encoderType>が渡されました。 詳細については、'<docroot>/api/java/index.html?org/apache/spark/sql/Encoder.html' を参照してください。

INVALID_EXPR_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE

SQLSTATE: 42K09

式の型は文字列型である必要がありますが、 <exprType>

INVALID_EXTERNAL_TYPE

SQLSTATE: 42K0N

外部型 <externalType> は、式 <type><expr> 型に対して無効です。

INVALID_EXTRACT_BASE_FIELD_TYPE

SQLSTATE: 42000

<base>から値を抽出できません。 複合型 [STRUCT, ARRAY, MAP] が必要ですが、 <other>

INVALID_EXTRACT_FIELD

SQLSTATE: 42601

<field>から <expr> を抽出できません。

INVALID_EXTRACT_FIELD_TYPE

SQLSTATE: 42000

フィールド名は null 以外の文字列リテラルにする必要がありますが、 <extraction>

INVALID_FIELD_NAME

SQLSTATE: 42000

フィールド名 <fieldName> が無効です。<path> は構造体ではありません。

INVALID_FLOW_QUERY_TYPE

SQLSTATE: 42000

フロー <flowIdentifier> は、無効なリレーションシップ型を返します。

詳細については、INVALID_FLOW_QUERY_TYPEを参照してください。

INVALID_FORMAT

SQLSTATE: 42601

形式が無効です: <format>

詳細については、INVALID_FORMAT を参照してください。

INVALID_FRACTION_OF_SECOND

SQLSTATE: 22023

有効な秒数の範囲は [0, 60] (両端を含む) ですが、指定された値は <secAndMicros>です。 このエラーを回避するには、エラー時に try_make_timestamp を返す NULLを使用します。

この関数のセッションの既定のタイムスタンプ バージョンを使用しない場合は、try_make_timestamp_ntz または try_make_timestamp_ltzを使用します。

INVALID_GET_DIAGNOSTICS_USAGE

SQLSTATE: 42612

GET DIAGNOSTICS ステートメントの使用が無効です。

詳細については、INVALID_GET_DIAGNOSTICS_USAGE を参照してください

INVALID_GET_DIAGNOSTICS_USAGE_CONDITION_NUMBER_MUST_BE_ONE

SQLSTATE: 35000

GET DIAGNOSTICS ステートメントの使用が無効です。 GET DIAGNOSTICS ステートメントでサポートされている条件番号の値は 1 のみです。

INVALID_HANDLE

SQLSTATE: HY000

ハンドル <handle> が無効です。

詳細については、INVALID_HANDLE を参照してください

INVALID_HANDLER_DECLARATION

SQLSTATE: 42K0Q

ハンドラー宣言が無効です。

詳細については、INVALID_HANDLER_DECLARATIONを参照してください。

INVALID_HTTP_REQUEST_METHOD

SQLSTATE: 22023

入力パラメータ: メソッド、値: <paramValue> は、http_request に対して無効なパラメータです。なぜなら、それは有効な HTTP メソッドではないからです。

INVALID_HTTP_REQUEST_PATH

SQLSTATE: 22023

path、value: <paramValue> の入力パラメーターは、パス トラバーサルが許可されていないため、http_requestの有効なパラメーターではありません。

INVALID_IDENTIFIER

SQLSTATE: 42602

引用符で囲まれていない識別子 <ident> は無効であり、次のように引用符で囲む必要があります: <ident>

引用符で囲まれていない識別子には、 ASCII 文字 ('a' - 'z'、'A' - 'Z')、数字 ('0' - '9')、および下線('_')のみを含めることができます。

引用符で囲まれていない識別子は、数字で始めてはなりません。

データ ソースとメタ ストアが異なると、有効な識別子に追加の制限が課される場合があります。

INVALID_INDEX_OF_ZERO

SQLSTATE: 22003

インデックス 0 が無効です。 インデックスは、 < 0 or > 0 のいずれかになります (最初の要素にはインデックス 1 があります)。

INVALID_INLINE_TABLE

SQLSTATE: 42000

インライン テーブルが無効です。

詳細については、INVALID_INLINE_TABLE を参照してください。

INVALID_INTERVAL_FORMAT

SQLSTATE: 22006

'<input>' を interval に解析中にエラーが発生しました。 指定された値が、間隔を定義するための有効な形式であることを確認してください。 正しい形式のドキュメントを参照できます。

詳細については、INVALID_INTERVAL_FORMAT を参照してください。

INVALID_INTERVAL_WITH_MICROSECONDS_ADDITION

SQLSTATE: 22006

マイクロ秒の部分が 0 ではないため、日付に間隔を追加できません。 これを解決するには、入力日付をタイムスタンプにキャストします。タイムスタンプでは、マイクロ秒以外の間隔の追加がサポートされます。

INVALID_IP_ADDRESS

SQLSTATE: 22023

関数 <functionName> 無効な IP アドレス ( <value>) を受け取りました。

INVALID_IP_ADDRESS_OR_CIDR_RANGE

SQLSTATE: 22023

関数 <functionName> 無効な IP アドレスまたは CIDR 範囲 ( <value>) を受け取りました。

INVALID_JAVA_IDENTIFIER_AS_FIELD_NAME

SQLSTATE: 46121

<fieldName> は Java の有効な識別子ではなく、フィールド名として使用できません

<walkedTypePath>

INVALID_JDBC_CONNECTION_OPTION

SQLSTATE: 42616

<optionKey>オプションは、この jdbc 接続の有効なパラメーターではありません。

INVALID_JDBC_CONNECTION_OPTION_VALUE

SQLSTATE: 42616

<optionKey>値を持つオプション<optionValue>は、この jdbc 接続の有効なオプションではありません。

INVALID_JOIN_TYPE_FOR_JOINWITH

SQLSTATE: 42613

joinWith: <joinType>の結合の種類が無効です。

INVALID_JSON_DATA_TYPE

SQLSTATE: 2203G

JSON文字列 '<invalidType>' をデータ型に変換できませんでした。 有効なデータ型を入力してください。

INVALID_JSON_DATA_TYPE_FOR_COLLATIONS

SQLSTATE: 2203G

照合順序は文字列型にのみ適用できますが、 JSON データ型は <jsonType>

INVALID_JSON_RECORD_TYPE

SQLSTATE: 22023

モード <failFastMode>で共通スキーマを推論中に、JSON レコードの無効な型が検出されました。 STRUCT 型が必要ですが、<invalidType>が見つかりました。

INVALID_JSON_ROOT_FIELD

SQLSTATE: 22032

ルート フィールド JSON ターゲット Spark の種類に変換できません。

INVALID_JSON_SCHEMA_MAP_TYPE

SQLSTATE: 22032

入力スキーマ <jsonSchema> には、STRINGのキー型として MAP のみを含めることができます。

INVALID_KRYO_SERIALIZER_BUFFER_SIZE

SQLSTATE: F0000

構成 "<bufferSizeConfKey>" の値は 2048 MiB 未満である必要がありますが、<bufferSizeConfValue> MiB でした。

INVALID_KRYO_SERIALIZER_NO_DATA (無効なKryoシリアライザーにデータがありません)

SQLSTATE: 22002

オブジェクト '<obj>' が無効であるか、<serdeOp>を使用して<serdeClass>が正しく形式化されていません。

INVALID_LABEL_USAGE

SQLSTATE: 42K0L

ラベル <labelName> の使用が無効です。

詳細については、INVALID_LABEL_USAGE を参照してください

INVALID_LAMBDA_FUNCTION_CALL

SQLSTATE: 42K0D

ラムダ関数の呼び出しが無効です。

詳細については、INVALID_LAMBDA_FUNCTION_CALL を参照してください

INVALID_LATERAL_JOIN_TYPE

SQLSTATE: 42613

<joinType> サブクエリが結合パートナーに相関付けできないため、JOIN 相関のある LATERALOUTER は許可されません。 LATERAL 関連付けを削除するか、代わりに INNERJOINまたは LEFT OUTERJOIN を使用します。

INVALID_LIMIT_LIKE_EXPRESSION

SQLSTATE: 42K0E

<expr> のような制限は無効です。

詳細については、INVALID_LIMIT_LIKE_EXPRESSION を参照してください

INVALID_LOG_VERSION

SQLSTATE: KD002

UnsupportedLogVersion.

詳細については、INVALID_LOG_VERSIONを参照してください。

INVALID_NAME_IN_USE_COMMAND

SQLSTATE: 42000

<name> コマンドの名前 '<command>' は無効です。 理由: <reason>

INVALID_NON_ABSOLUTE_PATH

SQLSTATE: 22KD1

指定された非絶対パス <path> は修飾できません。 パスを有効な dbfs マウント場所に更新してください。

INVALID_NON_DETERMINISTIC_EXPRESSIONS

SQLSTATE: 42K0E

演算子は決定論的な式を受け取りますが、実際の式は <sqlExprs>

INVALID_NUMERIC_LITERAL_RANGE

SQLSTATE: 22003

数値リテラルの <rawStrippedQualifier> が、最小値が <typeName> で最大値が <minValue><maxValue> の有効範囲外です。 それに応じて値を調整してください。

INVALID_OBSERVED_METRICS

SQLSTATE: 42K0E

観察されたメトリックが無効です。

詳細については、INVALID_OBSERVED_METRICS を参照してください

INVALID_OPTIONS

SQLSTATE: 42K06

無効なオプション:

詳細については、INVALID_OPTIONS を参照してください。

INVALID_PANDAS_UDF_PLACEMENT

SQLSTATE: 0A000

グループ集計 pandas UDF <functionList> は、pandas 以外の他の集計関数と一緒に呼び出すことはできません。

INVALID_PARAMETER_MARKER_VALUE

SQLSTATE: 22023

無効なパラメーター マッピングが指定されました。

詳細については、INVALID_PARAMETER_MARKER_VALUE を参照してください

INVALID_PARAMETER_VALUE

SQLSTATE: 22023

<parameter> 内のパラメーター <functionName> の値が無効です。

詳細については、INVALID_PARAMETER_VALUE を参照してください。

INVALID_PARTITION_COLUMN_DATA_TYPE

SQLSTATE: 0A000

パーティション列に <type> を使用できません。

INVALID_PARTITION_OPERATION

SQLSTATE: 42601

partition コマンドが無効です。

詳細については、INVALID_PARTITION_OPERATION を参照してください

INVALID_PARTITION_VALUE

SQLSTATE: 42846

パーティション列 <value>のデータ型 <dataType> に値 <columnName> をキャストできませんでした。 値がこのパーティション列の予想されるデータ型と一致していることを確認します。

INVALID_PIPELINE_ID

SQLSTATE: 42604

パイプライン ID <pipelineId> が無効です。

パイプライン ID は、'xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx' の形式の UUID である必要があります

INVALID_PRIVILEGE

SQLSTATE: 42852

特権 <privilege> は、<securable>では無効です。

INVALID_PROPERTY_KEY

SQLSTATE: 42602

<key> は無効なプロパティ キーです。引用符 (例: SET <key>=<value>) を使用してください。

INVALID_PROPERTY_VALUE

SQLSTATE: 42602

<value> は無効なプロパティ値です。たとえば、引用符を使用してください。 SET <key>=<value>

INVALID_QUALIFIED_COLUMN_NAME

SQLSTATE: 42000

列名 <columnName> は、テーブル名で修飾されていないか、4 つを超える名前部分で構成されているため、無効です。

INVALID_QUERY_MIXED_QUERY_PARAMETERS

SQLSTATE: 42613

パラメーター化されたクエリでは、位置指定パラメーターまたは名前付きパラメーターを使用する必要がありますが、両方を使用することはできません。

INVALID_RECURSIVE_CTE

SQLSTATE: 42836

無効な再帰定義が見つかりました。 再帰クエリには、2 つの子を持つ UNION または UNION ALL ステートメントが含まれている必要があります。 最初の子は再帰参照を含まないアンカー タームである必要があります。 最上位レベルの内部 CTE には自己参照を含めてはなりません。

INVALID_RECURSIVE_REFERENCE

SQLSTATE: 42836

句内で無効な再帰参照 WITH RECURSIVE 見つかりました。

詳細については、INVALID_RECURSIVE_REFERENCEを参照してください。

INVALID_REGEXP_REPLACE

SQLSTATE: 22023

ソース = "<source>"、パターン = "<pattern>"、置換 = "<replacement>"、位置 = <position>のregexp_replaceを実行できませんでした。

INVALID_RESETTABLE_DEPENDENCY

SQLSTATE: 42000

テーブル <upstreamResettableTables> はリセット可能ですが、ダウンストリームの依存関係 '<downstreamTable>' はリセットできません。 reset は、Spark Streaming が削除されたソース データをサポートしていないため、失敗します。 '<resetAllowedKey>' から <downstreamTable>=false プロパティを削除するか、アップストリームの依存関係に追加することができます。

INVALID_RESET_COMMAND_FORMAT

SQLSTATE: 42000

予期される形式は 'RESET' または 'RESET キー' です。 キーに特殊文字を含める場合は、引用符 (例: RESET key) を使用してください。

INVALID_RESIGNAL_USAGE

SQLSTATE: 0K000

RESIGNAL ハンドラーがアクティブでない場合。 RESIGNAL ステートメントは、例外ハンドラー本体内でのみ使用できます。

INVALID_S3_COPY_CREDENTIALS

SQLSTATE: 42501

COPY INTO 資格情報には、 AWS_ACCESS_KEY, AWS_SECRET_KEYAWS_SESSION_TOKENを含める必要があります。

INVALID_SAVE_MODE

SQLSTATE: 42000

指定した保存モード <mode> が無効です。 有効な保存モードには、"append"、"overwrite"、"ignore"、"error"、"errorifexists"、および "default" が含まれます。

INVALID_SCHEMA

SQLSTATE: 42K07

入力スキーマ <inputSchema> が有効なスキーマ文字列ではありません。

詳細については、INVALID_SCHEMA を参照してください

INVALID_SCHEMA_OR_RELATION_NAME

SQLSTATE: 42602

<name> テーブル/スキーマの有効な名前ではありません。 有効な名前には、アルファベット文字、数字、および _のみが含まれます。

スキーマタイプが無効です_非構造体

SQLSTATE: 42K09

スキーマの種類が無効です。 必要なのは構造体型ですが、<dataType>が渡されました。

INVALID_SCHEME

SQLSTATE: 0AKUC

Unity カタログでは、既定のファイル スキームとして <name> はサポートされていません。

INVALID_SECRET_LOOKUP

SQLSTATE: 22531

シークレット検索が無効です。

詳細については、INVALID_SECRET_LOOKUP を参照してください。

INVALID_SET_SYNTAX

SQLSTATE: 42000

予期される形式は、'SET'、'SET key'、または 'SET key=value' です。 キーに特殊文字を含める場合、または値にセミコロンを含める場合は、バッククォート ( SET key=valueなど) を使用してください。

INVALID_SHARED_ALIAS_NAME

SQLSTATE: 42601

<sharedObjectType>エイリアス名は、"schema.name" の形式である必要があります。

INVALID_SINGLE_VARIANT_COLUMN

SQLSTATE: 42613

<schema> オプションが有効になっている場合、ユーザー指定のスキーマ singleVariantColumnは無効です。 スキーマは、バリアント 型フィールド、またはバリアント 型フィールドと破損した列フィールドのいずれかである必要があります。

INVALID_SOURCE_CATALOG

SQLSTATE: 42809

SYNC コマンドのソース カタログを Unity カタログ内に含めてはなりません。 <catalog>が見つかりました。

INVALID_SOURCE_FOR_FILTERING_SERVICE_MERGE_COMMAND

SQLSTATE: 42KDH

フィルター サービスの MERGE 操作のソースには、プロジェクションとフィルターのみを含めることができます。

MERGEコマンドを調整するか、代わりにステージング テーブルをソースとして使用してください。

<stmt>

INVALID_SPARK_CONFIG

SQLSTATE: 42616

無効な Spark 構成:

詳細については、INVALID_SPARK_CONFIGを参照してください。

INVALID_SQLSTATE

SQLSTATE: 428B3

SQLSTATE値 '<sqlState>' が無効です。 SQLSTATE は、正確に 5 文字で、A から Z と 0 から 9 のみを含む必要があります。 SQLSTATE は、'00'、'01'、または 'XX' で始まる必要がありません。

INVALID_SQL_ARG

SQLSTATE: 42K08

<name> の引数 sql() が無効です。 SQL リテラルまたは map(), array(), struct() などのコレクション コンストラクター関数で置き換えることを検討してください。

INVALID_SQL_FUNCTION_DATA_ACCESS

SQLSTATE: 42K0E

テーブル/ビューにアクセスする SQL CONTAINS 、または SQL データを読み取る SQL 関数を使用して SQL 関数を作成することはできません。 代わりに、 READS SQL DATA を使用してください。

INVALID_SQL_SYNTAX

SQLSTATE: 42000

SQL 構文が無効です。

詳細については、INVALID_SQL_SYNTAX を参照してください。

INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY

SQLSTATE: 42604

ステージング <operation> クエリのステージング パス <path> が無効です

INVALID_STATEMENT_FOR_EXECUTE_INTO

SQLSTATE: 07501

INTOEXECUTE IMMEDIATE 句はクエリに対してのみ有効ですが、指定されたステートメントはクエリではありません: <sqlString>

INVALID_STATEMENT_OR_CLAUSE

SQLSTATE: 42601

ステートメントまたは句: <operation> が無効です。

INVALID_STREAMING_RATE_SOURCE_VERSION

SQLSTATE: 22023

レート ソースのバージョンが無効です: <version>。 バージョンは 1 または 2 である必要があります。

INVALID_STREAMING_REAL_TIME_MODE_TRIGGER_INTERVAL

SQLSTATE: 22023

リアルタイム トリガー間隔は <interval> ミリ秒に設定されます。 これは、spark.databricks.streaming.realTimeMode.minBatchDuration で指定された最小 <minBatchDuration> ミリ秒未満です。

INVALID_STREAMING_REAL_TIME_MODE_TRIGGER_OVERRIDE_INTERVAL

SQLSTATE: 22023

<interval>のリアルタイム トリガーのチェックポイント間隔を解析できませんでした。 正の整数を渡したことを確認してください。

INVALID_SUBQUERY_EXPRESSION

SQLSTATE: 42823

無効なサブクエリ:

詳細については、INVALID_SUBQUERY_EXPRESSION を参照してください。

INVALID_TARGET_FOR_ALTER_COMMAND

SQLSTATE: 42809

ALTER <commandTableType> ... <command><tableName>をサポートしていません。 代わりに ALTER <targetTableType>...<command> を使用してください。

INVALID_TARGET_FOR_SET_TBLPROPERTIES_COMMAND

SQLSTATE: 42809

ALTER <commandTableType> ... SET TBLPROPERTIES<tableName>をサポートしていません。 代わりに ALTER <targetTableType>...SET TBLPROPERTIES を使用してください。

INVALID_TEMP_OBJ_REFERENCE

SQLSTATE: 42K0F

<objName>型の一時オブジェクト <obj> を参照するため、型 <tempObjName> の永続オブジェクト <tempObj> を作成できません。 一時オブジェクト <tempObjName> を永続的にするか、永続オブジェクト <objName> を一時的にしてください。

INVALID_TIMESTAMP_FORMAT

SQLSTATE: 22000

指定されたタイムスタンプ <timestamp> が、予期される構文 <format>と一致しません。

INVALID_TIMEZONE

SQLSTATE: 22009

タイムゾーン: <timeZone> が無効です。 タイムゾーンは、リージョンベースのゾーン ID またはゾーン オフセットである必要があります。 リージョン ID には、"America/Los_Angeles" などの "area/city" という形式が必要です。 ゾーン オフセットは、'(+|-)HH'、'(+|-)HH:mm' または '(+|-)HH:mm:ss' (例: '-08' 、'+01:00' または '-13:33:33') で、-18:00 ~ +18:00 の範囲である必要があります。 'Z' と 'UTC' は'+00:00' のシノニムとして受け入れられます。

INVALID_TIME_TRAVEL_SPEC

SQLSTATE: 42K0E

テーブルのタイムトラベル時にバージョンとタイムスタンプの両方を指定することはできません。

INVALID_TIME_TRAVEL_TIMESTAMP_EXPR

SQLSTATE: 42K0E

タイムトラベルのタイムスタンプ表現 <expr> は無効です。

詳細については、INVALID_TIME_TRAVEL_TIMESTAMP_EXPR を参照してください

INVALID_TYPED_LITERAL

SQLSTATE: 42604

型指定されたリテラル <valueType> の値 <value> が無効です。

INVALID_UDF_IMPLEMENTATION

SQLSTATE: 38000

関数 <funcName> では、ScalarFunction または AggregateFunction は実装されません。

INVALID_UPGRADE_SYNTAX

SQLSTATE: 42809

ソース テーブルが Hive Metastore にあり、ターゲット テーブルが Unity カタログ内にある <command> <supportedOrNot>

INVALID_URL

SQLSTATE: 22P02

URL が無効です: <url>try_parse_url を使用して無効な URL を許容し、代わりに NULL を返します。

INVALID_USAGE_OF_STAR_OR_REGEX

SQLSTATE: 42000

<elem>での <prettyName> の使用が無効です。

INVALID_UTF8_STRING

SQLSTATE: 22029

文字列 :<str>で無効な UTF8 バイト シーケンスが見つかりました。

INVALID_UUID

SQLSTATE: 42604

入力 <uuidInput> が有効な UUID ではありません。

UUID は 'xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx' の形式にする必要があります

UUID の形式を確認してください。

INVALID_VARIABLE_DECLARATION

SQLSTATE: 42K0M

変数宣言が無効です。

詳細については、INVALID_VARIABLE_DECLARATION を参照してください

INVALID_VARIANT_CAST

SQLSTATE: 22023

バリアント値 <value><dataType>にキャストすることはできません。 代わりに try_variant_get を使用してください。

INVALID_VARIANT_FROM_PARQUET

SQLSTATE: 22023

バリアントが無効です。

詳細については、INVALID_VARIANT_FROM_PARQUET を参照してください

INVALID_VARIANT_GET_PATH

SQLSTATE: 22023

<path> パスは、<functionName>の有効なバリアント抽出パスではありません。

有効なパスは、 $ で始まり、その後に 0 個以上のセグメント ( [123], .name, ['name']["name"]など) が続く必要があります。

INVALID_VARIANT_SHREDDING_SCHEMA

SQLSTATE: 22023

スキーマ <schema> は、有効なバリアントのシュレッディング スキーマではありません。

INVALID_WHERE_CONDITION

SQLSTATE: 42903

WHERE 条件 <condition> 無効な式が含まれています: <expressionList>.

WHERE 句のウィンドウ関数、集計関数、およびジェネレーター関数を回避するために、クエリを書き直します。

INVALID_WINDOW_SPEC_FOR_AGGREGATION_FUNC

SQLSTATE: 42601

ORDER BYまたはウィンドウフレームを<aggFunc>に指定できません。

INVALID_WITHIN_GROUP_EXPRESSION

SQLSTATE: 42K0K

<funcName> を使用した無効な関数 WITHIN GROUP

詳細については、INVALID_WITHIN_GROUP_EXPRESSIONを参照してください。

INVALID_WRITER_COMMIT_MESSAGE

SQLSTATE: 42KDE

データ ソース ライターが、無効な数のコミット メッセージを生成しました。 ライター コミット メッセージは各タスクから厳密に 1 つが予期されていますが、<detail> を受け取りました。

INVALID_WRITE_DISTRIBUTION

SQLSTATE: 42000

要求された書き込みディストリビューションが無効です。

詳細については、INVALID_WRITE_DISTRIBUTION を参照してください

IRC_CREDENTIAL_VENDING_ERROR

SQLSTATE: 08006

IRC ホストへの接続中にエラーが発生し、テーブル <tableIdentifier>の資格情報を販売できませんでした。

詳細については、IRC_CREDENTIAL_VENDING_ERRORを参照してください。

ISOLATED_COMMAND_FAILURE

SQLSTATE: 39000

<command>を実行できませんでした。 コマンド出力:

<output>

ISOLATED_COMMAND_UNKNOWN_FAILURE

SQLSTATE: 39000

<command>を実行できませんでした。

ISOLATION_ENVIRONMENT_ERROR

SQLSTATE: 39000

システム エラーのため、 <name> の環境の依存関係をインストールできませんでした。

詳細については、ISOLATION_ENVIRONMENT_ERRORを参照してください。

ISOLATION_ENVIRONMENT_USER_ERROR

SQLSTATE: 39000

<name>の環境の依存関係をインストールできませんでした。

詳細については、ISOLATION_ENVIRONMENT_USER_ERRORを参照してください

JDBC_EXTERNAL_ENGINE_SYNTAX_ERROR

SQLSTATE: 42000

JDBC 外部エンジン構文エラー。 このエラーは、クエリの <jdbcQuery>が原因で発生しました。 <externalEngineError>

詳細については、JDBC_EXTERNAL_ENGINE_SYNTAX_ERRORを参照してください。

JOIN_CONDITION_IS_NOT_BOOLEAN_TYPE

SQLSTATE: 42K0E

結合条件 <joinCondition> 無効な型 <conditionType>があり、"BOOLEAN" が必要です。

KAFKA_DATA_LOSS

SQLSTATE: 22000

一部のデータは Kafka では使用できないため、失われた可能性があります。

Kafka によってデータが期限切れになったか、トピック内のすべてのデータが処理される前に

トピックが処理されました。

このような場合にストリーミング クエリを失敗させたくない場合は、ソース オプション failOnDataLoss を false に設定します。

Reason:

詳細については、KAFKA_DATA_LOSS を参照してください。

KINESIS_COULD_NOT_READ_SHARD_UNTIL_END_OFFSET

SQLSTATE: 22000

シャード <endSeqNum> について目的のシーケンス番号 <shardId> まで読み取ることができませんでした (

コンシューマー モード <stream> の Kinesis ストリーム <consumerMode> 内)。 このクエリは、次の原因で失敗します。

データ損失の可能性があります。 最後の読み取りレコードは、シーケンス番号 <lastSeqNum>

これは、endSeqNum のデータが既に期限切れになっているか、Kinesis ストリームが

同じ名前で削除および再構築されます。 エラーの動作は

spark 構成で spark.databricks.kinesis.failOnDataLoss を false に設定します。

KINESIS_EFO_CONSUMER_NOT_FOUND

SQLSTATE: 51000

kinesis ストリーム <streamId>の場合、ストリームの以前に登録された EFO コンシューマー <consumerId> が削除されました。

新しいコンシューマーが登録されるように、クエリを再起動します。

KINESIS_EFO_SUBSCRIBE_LIMIT_EXCEEDED

SQLSTATE: 51000

シャード <shard>の場合、subscribeToShard API の前回の呼び出しは、次の呼び出しから 5 秒以内でした。

5 秒以上後にクエリを再起動します。

KINESIS_FETCHED_SHARD_LESS_THAN_TRACKED_SHARD

SQLSTATE: 42K04

Kinesis からフェッチされた最小 shardId (<fetchedShardId>) が

追跡された最小 shardId (<trackedShardId>) 未満です。

これは予期せず、Kinesis ストリームが削除され、同じ名前で再作成されたときに発生します。

この Kinesis ストリームを使用するストリーミング クエリは、既存のチェックポイントの場所を使用して再起動されます。

新しいチェックポイントの場所でストリーミング クエリを再起動するか、新しい名前でストリームを作成します。

KINESIS_POLLING_MODE_UNSUPPORTED

SQLSTATE: 0A000

Kinesis ポーリング モードはサポートされていません。

KINESIS_RECORD_SEQ_NUMBER_ORDER_VIOLATION

SQLSTATE: 22000

シャード <shard>の場合、前のフェッチで Kinesis から最後に読み取られたレコードのシーケンス番号が <lastSeqNum>

これは、シーケンス番号 <recordSeqNum> を持つ現在のフェッチで読み取られたレコードよりも大きくなります。

これは予期せず、再試行または次のフェッチの開始位置が正しく初期化されず、ダウンストリームのレコードが重複する可能性がある場合に発生する可能性があります。

KINESIS_SOURCE_MUST_BE_IN_EFO_MODE_TO_CONFIGURE_CONSUMERS

SQLSTATE: 42KDF

コンシューマー構成 (consumerName, consumerNamePrefix、または registeredConsumerId) を使用して Kinesis Streams から読み取る場合は、 consumerModeefoする必要があります。

KINESIS_SOURCE_MUST_SPECIFY_REGISTERED_CONSUMER_ID_AND_TYPE

SQLSTATE: 42KDF

登録されたコンシューマーと共に Kinesis Streams から読み取る場合は、registeredConsumerId オプションと registeredConsumerIdType オプションの両方を指定する必要があります。

KINESIS_SOURCE_MUST_SPECIFY_STREAM_NAMES_OR_ARNS

SQLSTATE: 42KDF

Kinesis Streams から読み取るには、ストリーム名/ARN のコンマ区切りのリストとして、streamName または streamARN オプションのどちらか (両方ではなく) を構成する必要があります。

KINESIS_SOURCE_NO_CONSUMER_OPTIONS_WITH_REGISTERED_CONSUMERS

SQLSTATE: 42KDF

登録されたコンシューマーと共に Kinesis Streams から読み取る場合は、consumerName または consumerNamePrefix オプションは有効にならないので構成しないでください。

KINESIS_SOURCE_REGISTERED_CONSUMER_ID_COUNT_MISMATCH

SQLSTATE: 22023

登録されたコンシューマー ID の数は Kinesis ストリームの数と同じである必要がありますが、<numConsumerIds> のコンシューマー ID と <numStreams> のストリームが取得されました。

KINESIS_SOURCE_REGISTERED_CONSUMER_NOT_FOUND

SQLSTATE: 22023

指定された登録済みコンシューマー <consumerId> が streamARN <streamARN>で見つかりません。 コンシューマーを登録しているか、registeredConsumerId オプションを指定しないことを確認します。

KINESIS_SOURCE_REGISTERED_CONSUMER_TYPE_INVALID

SQLSTATE: 22023

登録されているコンシューマーの種類 <consumerType> が無効です。 name または ARNである必要があります。

KLL_SKETCH_INCOMPATIBLE_MERGE

SQLSTATE: 22000

関数 <functionName>の場合、KLL スケッチをマージできません。 <reason>

KLL_SKETCH_INVALID_INPUT

SQLSTATE: 22000

関数 <functionName>の場合、KLL スケッチ バイナリ データが無効です。 <reason>

KLL_SKETCH_INVALID_QUANTILE_RANGE

SQLSTATE: 22003

関数 <functionName>の場合、分位値は 0.0 ~ 1.0 (両端を含む) である必要がありますが、 <quantile>

KLL_SKETCH_K_MUST_BE_CONSTANT

SQLSTATE: 42K0E

関数 <functionName>の場合、k パラメーターは定数値である必要がありますが、非定数式を取得しました。

KLL_SKETCH_K_OUT_OF_RANGE

SQLSTATE: 22003

関数 <functionName>の場合、k パラメーターは 8 ~ 65535 (両端を含む) である必要がありますが、 <k>

KRYO_BUFFER_OVERFLOW

SQLSTATE: 54006

Kryo シリアル化に失敗しました: <exceptionMsg>。 これを回避するには、"<bufferSizeConfKey>" 値を増やします。

LABELS_MISMATCH

SQLSTATE: 42K0L

開始ラベル <beginLabel> が終了ラベルの <endLabel>と一致しません。

ラベルまたは変数名が既に存在します

SQLSTATE: 42K0L

ラベルまたは FOR 変数 <label> は既に存在します。 別の名前を選択するか、既存の名前を変更します。

変数名またはラベル名として使用することはできません

SQLSTATE: 42K0L

ラベルまたは FOR 変数名 <label> は禁止されています。

LAKEHOUSE_FEDERATION_DATA_SOURCE_REQUIRES_NEWER_DBR_VERSION

SQLSTATE: 0A000

Lakehouse フェデレーション データ ソース '<provider>' には、新しい Databricks ランタイム バージョンが必要です。

詳細については、LAKEHOUSE_FEDERATION_DATA_SOURCE_REQUIRES_NEWER_DBR_VERSION を参照してください

LATERAL_JOIN_WITH_ARROW_UDTF_UNSUPPORTED

SQLSTATE: 0A000

LATERAL JOIN 矢印最適化ユーザー定義テーブル関数 (UDF) はサポートされていません。 Arrow UDTF は、レーテラル結合の右側では使用できません。

代わりに通常の UDTF を使用するか、横結合を回避するためにクエリを再構築してください。

LEGACY_CREATE_TEMP_TABLE_WITHOUT_PROVIDER_NOT_SUPPORTED

SQLSTATE: 0A000

CREATE TEMPORARY TABLE プロバイダーがない場合は許可されません。

LOAD_DATA_PATH_NOT_EXISTS

SQLSTATE: 42K03

LOAD DATA 入力パスが存在しません: <path>

LOCAL_MUST_WITH_SCHEMA_FILE

SQLSTATE: 42601

LOCALfile のスキーマとともに使用する必要がありますが、<actualSchema> を受け取りました。

LOCATION_ALREADY_EXISTS

SQLSTATE: 42710

関連付けられている場所 <identifier> が既に存在するので、マネージド テーブルに <location>として名前を付けることはできません。 別のテーブル名を選択するか、最初に既存の場所を削除してください。

LOST_TOPIC_PARTITIONS_IN_END_OFFSET_WITH_TRIGGER_AVAILABLENOW

SQLSTATE: KD000

Trigger.AvailableNow を使用したクエリの実行中に、Kafka トピックのパーティションの一部が失われました。 エラーは一時的なものになる可能性があります。クエリを再起動し、同じ問題が引き続き発生した場合は報告します。

最新のオフセットのトピック パーティション: <tpsForLatestOffset>、 終了オフセットのトピック パーティション: <tpsForEndOffset>

MALFORMED_AVRO_MESSAGE

SQLSTATE: KD000

不正な Avro メッセージは、メッセージの逆シリアル化で検出されます。 解析モード: <mode>。 形式が正しくない Avro メッセージを null 結果として処理するには、オプション 'mode' を 'PERMISSIVE' に設定してみてください。

MALFORMED_CHARACTER_CODING

SQLSTATE: 22000

<function><charset> で実行するときに無効な値が見つかりました

MALFORMED_CSV_RECORD

SQLSTATE: KD000

形式が正しくない CSV レコード: <badRecord>

MALFORMED_LOG_FILE

SQLSTATE: KD002

ログ ファイルの形式が正しくありません。<text>から正しいログ バージョンを読み取れませんでした。

MALFORMED_PROTOBUF_MESSAGE

SQLSTATE: 42K0G

メッセージの逆シリアル化中に不正な Protobuf メッセージが検出されました。 解析モード: <failFastMode>。 不正な protobuf メッセージを null 結果として処理するには、オプション 'mode' を 'PERMISSIVE' に設定してみてください。

MALFORMED_RECORD_IN_PARSING

SQLSTATE: 22023

レコードの解析中に不正なレコードが検出されました: <badRecord>

解析モード: <failFastMode>。 形式が正しくないレコードを null の結果として処理するには、オプション 'mode' を 'PERMISSIVE' に設定してみてください。

詳細については、MALFORMED_RECORD_IN_PARSING を参照してください

MALFORMED_STATE_IN_RATE_PER_MICRO_BATCH_SOURCE

SQLSTATE: 22000

RatePerMicroBatch ソースの形式が正しくない状態。

詳細については、MALFORMED_STATE_IN_RATE_PER_MICRO_BATCH_SOURCE を参照してください

MALFORMED_VARIANT

SQLSTATE: 22023

バリアント バイナリの形式に誤りがあります。 データ ソースが有効であることを確認してください。

MANAGED_ICEBERG_ATTEMPTED_TO_ENABLE_CLUSTERING_WITHOUT_DISABLING_DVS_OR_ROW_TRACKING

SQLSTATE: 0A000

削除ベクトルと行追跡の両方を無効にせずに、Managed Apache Iceberg テーブルで Liquid クラスタリングを有効にしようとしました。 Managed Apache Iceberg テーブルでは削除ベクトルと行追跡はサポートされていませんが、Liquid テーブルでの行レベルのコンカレンシーには必要です。 コンカレンシー制御が減った Managed Apache Iceberg テーブルで Liquid クラスタリングを有効にするには、このテーブルに対して削除ベクトルと行追跡を無効にする必要があります。

MANAGED_ICEBERG_OPERATION_NOT_SUPPORTED

SQLSTATE: 0A000

マネージド Apache Iceberg テーブルでは、 <operation>はサポートされていません。

MANAGED_TABLE_WITH_CRED

SQLSTATE: 42613

ストレージ資格情報を使用したマネージド テーブルの作成はサポートされていません。

MATERIALIZED_VIEW_MESA_REFRESH_WITHOUT_PIPELINE_ID

SQLSTATE: 55019

具体化されたビューは pipelineId を持つ時点より前のものであるため、<refreshType> を実行できません。 <refreshType> を有効にするには、具体化されたビューを削除して再作成してください。

MATERIALIZED_VIEW_NOT_INCREMENTALIZABLE

SQLSTATE: 42601

増分更新ではサポートされていないため、 <refreshPolicy> 更新ポリシーを使用して具体化されたビューを作成できません。 Reason:

詳細については、MATERIALIZED_VIEW_NOT_INCREMENTALIZABLEを参照してください。

MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED

SQLSTATE: 56038

具体化されたビュー操作 <operation> は許可されていません。

詳細については、MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED を参照してください

MATERIALIZED_VIEW_OUTPUT_WITHOUT_EXPLICIT_ALIAS

SQLSTATE: 0A000

具体化されたビューの出力式 <expression> は、明示的にエイリアス化する必要があります。

MATERIALIZED_VIEW_OVER_STREAMING_QUERY_INVALID

SQLSTATE: 42000

具体化されたビュー <name> をストリーミング クエリで作成できませんでした。 STREAMING TABLE CREATE [OR REFRESH] を使用するか、FROM句の STREAM キーワードを削除して、このリレーションシップをバッチ クエリに変換してください。

MATERIALIZED_VIEW_UNSUPPORTED_OPERATION

SQLSTATE: 0A000

現在、操作 <operation> は具体化されたビューではサポートされていません。

MAX_NUMBER_VARIABLES_IN_SESSION_EXCEEDED

SQLSTATE: 54KD1

セッション内の変数の数が最大許容数 (<variableName>) を超えるため、新しい変数 <maxNumVariables> を作成できません。

MAX_RECORDS_PER_FETCH_INVALID_FOR_KINESIS_SOURCE

SQLSTATE: 22023

maxRecordsPerFetch は、<kinesisRecordLimit> 以下の正の整数である必要があります

MCV_INVALID_INPUT_SKETCH_BUFFER

SQLSTATE: 22546

<function>の呼び出しが無効です。有効な MCV スケッチ バッファーのみが入力としてサポートされます (mcv_collect_internal関数によって生成されたものなど)。

MERGE_CARDINALITY_VIOLATION

SQLSTATE: 23K01

ON ステートメントの MERGE 検索条件が、ターゲット テーブルの 1 つの行とソース テーブルの複数の行と一致しました。

これにより、更新操作または削除操作でターゲット行が複数回操作される可能性があり、許可されません。

MERGE_WITHOUT_WHEN

SQLSTATE: 42601

WHEN ステートメントには、少なくとも 1 つの MERGE 句が必要です。

METRIC_CONSTRAINT_NOT_SUPPORTED

SQLSTATE: 0A000

METRIC CONSTRAINT が有効になっていません。

METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR

SQLSTATE: 22023

指定された値 "<argValue>" は、<argName> テーブル関数の引数 "METRIC_STORE" ではサポートされていません。

詳細については、METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR を参照してください。

METRIC_STORE_UNSUPPORTED_ERROR

SQLSTATE: 56038

メトリック ストア ルーチンの <routineName> は、現在、この環境では無効になっています。

METRIC_VIEW_AMBIGUOUS_JOIN_CRITERIA

SQLSTATE: 42K0E

メトリック ビュー定義には、あいまいな条件 ( <expr>) を含む結合が含まれています。 [ using 結合条件を使用するか、 <sourceAlias> エイリアスで列を明示的に修飾します。

METRIC_VIEW_CACHE_TABLE_NOT_SUPPORTED

SQLSTATE: 42K0E

メトリック ビューでキャッシュ テーブルを使用することはできません。

METRIC_VIEW_FEATURE_DISABLED

SQLSTATE: 42K0E

メトリック ビュー機能が無効になっています。 "spark.databricks.sql.metricView.enabled" が true に設定されていることを確認してください。

METRIC_VIEW_INVALID_MEASURE_FUNCTION_INPUT

SQLSTATE: 42K0E

MEASURE() 関数は属性のみを入力として使用しますが、<expr> を受け取りました

METRIC_VIEW_INVALID_VIEW_DEFINITION

SQLSTATE: 42K0E

メトリック ビューの定義が無効です。 理由: <reason>

METRIC_VIEW_IN_CTE_NOT_SUPPORTED

SQLSTATE: 42K0E

メトリック ビューは、CTE 定義では使用できません。 プラン: <plan>

METRIC_VIEW_JOIN_NOT_SUPPORTED

SQLSTATE: 42K0E

メトリック ビューでは結合を使用できません。 プラン: <plan>

METRIC_VIEW_MATERIALIZATIONS_DISABLED

SQLSTATE: 42K0E

メトリック ビューの具体化は無効です。 "spark.databricks.sql.metricView.materializations.enabled" が true に設定されていることを確認してください。

METRIC_VIEW_MATERIALIZATIONS_UNAGGREGATED_WITH_METRIC_VIEW

SQLSTATE: 42K0E

メトリック ビューが他のメトリック ビューを参照する場合、非集計マテリアライズはサポートされません。

一時的ビューのメトリックビューの実体化はサポートされていません

SQLSTATE: 42K0E

具体化は、一時的なメトリック ビューではサポートされていません。

METRIC_VIEW_MATERIALIZATION_WITH_INVOKER_DEPENDENT_EXPRESSIONS_NOT_SUPPORTED

SQLSTATE: 42K0E

呼び出し元に依存する式を含むメトリック ビューでは、具体化はサポートされていません。 これらの式は、具体化の再利用を防ぎます。

METRIC_VIEW_MEASURE_IN_GROUP_BY

SQLSTATE: 42K0E

<measureColumns> メジャー列は、 GROUP BY 句またはカテゴリ値として使用できません。 期待される動作のために、それらを SUM() などの集計関数でラップすることをお勧めします。

METRIC_VIEW_MISSING_MEASURE_FUNCTION

SQLSTATE: 42K0E

メトリック ビューのメジャー列 <column> を使用するには、結果を生成するために MEASURE() 関数が必要です。

METRIC_VIEW_NOT_MATERIALIZED

SQLSTATE: 42K0E

具体化が定義されていないメトリック ビューで具体化されたビュー コマンドを呼び出しました

詳細については、METRIC_VIEW_NOT_MATERIALIZEDを参照してください。

There are no changes required; the text itself should remain as is to avoid any confusion in a technical context.

SQLSTATE: 42K0E

メトリック ビューは HMS ではサポートされていません。

METRIC_VIEW_RENAME_DIFFERENT_CATALOG_AND_SCHEMA

SQLSTATE: 42602

メトリック ビュー <oldName> は、別のカタログまたはスキーマ ( <newName>) に名前を変更することはできません。

METRIC_VIEW_SNOWFLAKE_JOIN_FEATURE_DISABLED

SQLSTATE: 42K0E

メトリック ビューのスノーフレーク結合機能が無効になっています。 "spark.databricks.sql.metricView.snowflake.join.enable" が true に設定されていることを確認してください。

METRIC_VIEW_UNSUPPORTED_USAGE

SQLSTATE: 42K0E

メトリックビューの利用はサポートされていません。 プラン: <plan>

METRIC_VIEW_WINDOW_FUNCTION_NOT_SUPPORTED

SQLSTATE: 42K0E

メトリック ビューでは、ウィンドウ関数 <expr>を使用できません。

METRIC_VIEW_YAML_V11_DISABLED

SQLSTATE: 42K0E

メトリック ビュー YAML v1.1 が無効になっています。 "spark.databricks.sql.metricView.yaml.v11.enabled" が true に設定されていることを確認してください。

MIGRATION_NOT_SUPPORTED

SQLSTATE: 42601

<table> は UC マネージド テーブルへの移行ではサポートされていません。これは、 <tableKind> テーブルではないためです。

移行するテーブルが UC 外部デルタ テーブルであることを確認します。

パスではなく名前で参照されます。

MIGRATION_ROLLBACK_NOT_SUPPORTED

SQLSTATE: 42809

<table><tableKind> テーブルではないため、管理テーブルから外部テーブルへのロールバックはサポートされていません。

MISMATCHED_TOPIC_PARTITIONS_BETWEEN_END_OFFSET_AND_PREFETCHED

SQLSTATE: KD000

Trigger.AvailableNow の Kafka データ ソースは、各マイクロバッチのプリフェッチ オフセットから終了オフセットに同じトピック パーティションを提供する必要があります。 エラーは一時的なものになる可能性があります。クエリを再起動し、同じ問題が引き続き発生した場合は報告します。

プリフェッチされたオフセットのトピック パーティション: <tpsForPrefetched>、 終了オフセットのトピック パーティション: <tpsForEndOffset>

MISSING_AGGREGATION

SQLSTATE: 42803

非集計式 <expression> は、GROUP BY 句に参加していない列に基づいています。

列または式を GROUP BYに追加し、式を集計するか、グループ内のどの値が返されるかを気にしない場合は <expressionAnyValue> を使用します。

詳細については、MISSING_AGGREGATION を参照してください。

MISSING_CATALOG_ABILITY

SQLSTATE: 0A000

カタログ <plugin> ではサポートされていません

詳細については、MISSING_CATALOG_ABILITYを参照してください。

MISSING_CLAUSES_FOR_OPERATION

SQLSTATE: 42601

操作 <clauses> の句 <operation> がありません。 必要な句を追加してください。

MISSING_CONNECTION_OPTION

SQLSTATE: 42000

型 '<connectionType>' の接続には、次のオプションを含める必要があります: <requiredOptions>

MISSING_DATABASE_FOR_V1_SESSION_CATALOG

SQLSTATE: 3F000

v1 セッション カタログにデータベース名が指定されていません。 v1 カタログを操作するときは、必ず有効なデータベース名を指定してください。

MISSING_GROUP_BY

SQLSTATE: 42803

クエリに GROUP BY 句は含まれません。 GROUP BY を追加するか、それをウィンドウ関数として OVER 句を使って変換します。

MISSING_NAME_FOR_CHECK_CONSTRAINT

SQLSTATE: 42000

CHECK 制約には名前が必要です。

MISSING_PARAMETER_FOR_KAFKA

SQLSTATE: 42KDF

Kafka にはパラメーター <parameterName> が必要ですが、<functionName>では指定されていません。

MISSING_PARAMETER_FOR_ROUTINE

SQLSTATE: 42KDF

パラメーター <parameterName> は必須ですが、<functionName>で指定されていません。

MISSING_SCHEDULE_DEFINITION

SQLSTATE: 42000

スケジュール定義は、次の SCHEDULEで指定する必要があります。

MISSING_TIMEOUT_CONFIGURATION

SQLSTATE: HY000

操作はタイムアウトしましたが、タイムアウト期間は構成されません。 処理時間ベースのタイムアウトを設定するには、'mapGroupsWithState' または 'flatMapGroupsWithState' 操作で 'GroupState.setTimeoutDuration()' を使用します。 イベント時間ベースのタイムアウトの場合は、'GroupState.setTimeoutTimestamp()' を使用し、'Dataset.withWatermark()' を使用して透かしを定義します。

MISSING_WINDOW_SPECIFICATION

SQLSTATE: 42P20

ウィンドウの指定は、WINDOW<windowName> 句で定義されていません。 WINDOW句の詳細については、「<docroot>/sql-ref-syntax-qry-select-window.html」を参照してください。

MODIFY_BUILTIN_CATALOG

SQLSTATE: 42832

組み込みのカタログ <catalogName> の変更はサポートされていません。

マルチパートフロー名はサポートされていません (MULTIPART_FLOW_NAME_NOT_SUPPORTED)

SQLSTATE: 0A000

マルチパート名 '<flowName>' のフローはサポートされていません。

MULTIPLE_EXCEL_DATA_SOURCE

SQLSTATE: 42710

<provider> (<sourceNames>)という名前の複数の Excel データ ソースが検出されました。 完全修飾クラス名を指定するか、クラスパスから <externalSource> を削除してください。

MULTIPLE_LOAD_PATH

SQLSTATE: 42000

Databricks Delta では、load() API の複数の入力パスはサポートされていません。

パス: <pathList>。 同じ Delta テーブルから複数のパスを読み込んで

同じ Delta テーブルからの複数のパスがある場合、ルート パスを読み込んでください。

デルタ テーブルと、対応するパーティション フィルター。 複数のパスが異なる Delta テーブルに由来する

は異なる Delta テーブルからのものです。データセットの union()/unionByName() API を使用してください

個別の load() API 呼び出しによって生成された DataFrames を結合するために使用します。

MULTIPLE_MATCHING_CONSTRAINTS

SQLSTATE: 42891

指定された条件に一致する制約が少なくとも 2 つ見つかりました。

MULTIPLE_QUERY_RESULT_CLAUSES_WITH_PIPE_OPERATORS

SQLSTATE: 42000

<clause1><clause2> は、'|>' を使用して同じ SQL パイプ演算子内に共存することはできません。 複数の結果句を別々のパイプ演算子に分け、クエリをもう一度やり直してください。

MULTIPLE_TIME_TRAVEL_SPEC

SQLSTATE: 42K0E

時間移動句とオプションの両方で時間移動を指定することはできません。

MULTIPLE_XML_DATA_SOURCE

SQLSTATE: 42710

<provider> (<sourceNames>)という名前の複数のデータ ソースが検出されました。 完全修飾クラス名を指定するか、クラスパスから <externalSource> を削除してください。

MULTI_ALIAS_WITHOUT_GENERATOR

SQLSTATE: 42K0E

マルチパート エイリアシング (<names>) は、ジェネレーター関数ではないため、<expr> ではサポートされていません。

MULTI_SOURCES_UNSUPPORTED_FOR_EXPRESSION

SQLSTATE: 42K0E

<expr> は、複数のソースをサポートしていません。

MULTI_SOURCE_METRIC_VIEW_MEASURE_REFERENCING_DIMENSION

SQLSTATE: 42K0E

メトリック ビューのメジャー列 <measureColumn> は、ディメンション列 (<dimensionColumn>) を参照できません。

MULTI_SOURCE_METRIC_VIEW_UNQUALIFIED_MEASURE_REF

SQLSTATE: 42K0E

複数ソースメトリック ビューの非修飾メジャー列参照 <measureColumn> は許可されません。 メジャー列をソース エイリアスで修飾してください。

MULTI_SOURCE_METRIC_VIEW_UNSUPPORTED_EXPRESSION

SQLSTATE: 42K0E

メトリック ビューの複数のソースに対する集計式はサポートされていません: <expr>

MULTI_UDF_INTERFACE_ERROR

SQLSTATE: 0A000

複数の UDF インターフェイスを実装することはできません。UDF クラス <className>

MUTUALLY_EXCLUSIVE_CLAUSES

SQLSTATE: 42613

相互に排他的な条件またはオプション <clauses>。 これらの句のいずれかを削除してください。

MV_ST_ALTER_QUERY_INCORRECT_BACKING_TYPE

SQLSTATE: 42601

入力クエリでは <expectedType>が必要ですが、基になるテーブルは <givenType>です。

NAMED_PARAMETERS_NOT_SUPPORTED

SQLSTATE: 4274K

名前付きパラメーターは、関数 <functionName>ではサポートされていません。代わりに、関数呼び出しに位置引数を指定してクエリを再試行してください。

NAMED_PARAMETERS_NOT_SUPPORTED_FOR_SQL_UDFS

SQLSTATE: 0A000

名前付き引数参照はサポートされていないため、関数 <functionName> を呼び出すことはできません。 この場合、名前付き引数の参照は <argument>でした。

NAMED_PARAMETER_SUPPORT_DISABLED

SQLSTATE: 0A000

ここでは名前付き引数参照が有効になっていないため、関数 <functionName> を呼び出すことができません。

この場合、名前付き引数の参照は <argument>でした。

機能を有効にするには、"spark.sql.allowNamedFunctionArguments" を "true" に設定します。

NAMESPACE_ALREADY_EXISTS

SQLSTATE: 42000

名前空間 <nameSpaceName> は既に存在するため、作成できません。

別の名前を選択するか、既存の名前空間を削除するか、既存の名前空間を許容する IF NOT EXISTS 句を追加します。

NAMESPACE_NOT_EMPTY

SQLSTATE: 42000

オブジェクトが含まれているため、名前空間 <nameSpaceNameName> を削除できません。

DROP NAMESPACE ... CASCADEを使用して、名前空間とそのすべてのオブジェクトを削除します。

NAMESPACE_NOT_FOUND

SQLSTATE: 42000

名前空間 <nameSpaceName> が見つかりません。 名前空間のスペルと正確性を確認します。

名前を修飾しなかった場合は、current_schema() の出力を確認するか、あるいは正しい方法で名前を修飾してください。

ドロップ時のエラーを許容するには、DROP NAMESPACE IF EXISTSを使用します。

NATIVE_IO_ERROR

SQLSTATE: KD00F

ネイティブ要求が失敗しました。 requestId: <requestId>, クラウド: <cloud>, 操作: <operation>

リクエスト: [https: <https>, メソッド = <method>, パス = <path>, パラメータ = <params>, ホスト = <host>, ヘッダー = <headers>, ボディ長 = <bodyLen>]

エラー: <error>

NATIVE_XML_DATA_SOURCE_NOT_ENABLED

SQLSTATE: 56038

このクラスターでは、ネイティブ XML データ ソースが有効になっていません。

NEGATIVE_SCALE_DISALLOWED

SQLSTATE: 0A000

負のスケールは許可されていません: '<scale>'。 構成 <sqlConf> を "true" に設定して許可します。

NEGATIVE_VALUES_IN_FREQUENCY_EXPRESSION

SQLSTATE: 22003

<frequencyExpression>: <negativeValue>で負の値が見つかりましたが、正の整数値が必要です。

NESTED_AGGREGATE_FUNCTION

SQLSTATE: 42607

別の集計関数の引数で集計関数を使用することはできません。 サブクエリで内部集計関数を使用してください。

NESTED_EXECUTE_IMMEDIATE

SQLSTATE: 07501

入れ子になった EXECUTE IMMEDIATE コマンドは使用できません。 指定された SQL クエリ (<sqlString>) に別の EXECUTE IMMEDIATE コマンドが含まれていないことを確認してください。

NESTED_REFERENCES_IN_LATERAL_SUBQUERY_NOT_SUPPORTED

SQLSTATE: 0A000

サポートされていない外側のサブクエリで <expression> 外部スコープ参照が検出されました。 入れ子になった外部スコープの属性を参照するサブクエリが横サブクエリに含まれていないことを確認してください。

サブクエリ内のネストされた参照はサポートされていません (NESTED_REFERENCES_IN_SUBQUERY_NOT_SUPPORTED)

SQLSTATE: 0A000

サポートされていないサブクエリで <expression> 外部スコープ参照が検出されました。

新しいチェック制約違反

SQLSTATE: 23512

新しい check 制約 (<expression>) は、テーブル <tableName>内の既存のデータに違反するため、追加できません。 追加する前に、既存のすべての行が制約を満たしていることを確認してください。

NONEXISTENT_FIELD_NAME_IN_LIST

SQLSTATE: HV091

フィールド <nonExistFields> は存在しません。 使用可能なフィールド: <fieldNames>

非決定論的チェック制約 (NON_DETERMINISTIC_CHECK_CONSTRAINT)

SQLSTATE: 42621

check 制約 <checkCondition> は非決定論的です。 Check 制約には決定論的な式のみを含める必要があります。

NON_FOLDABLE_ARGUMENT

SQLSTATE: 42K08

関数 <funcName> では、パラメーター <paramName><paramType>型の折りたたみ式である必要がありますが、実際の引数は折りたたみ不可能です。

NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION

SQLSTATE: 42613

MATCHED ステートメントに複数の MERGE 句がある場合、最後の MATCHED 句のみが条件を省略できます。

NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION

SQLSTATE: 42613

NOT MATCHED BY SOURCE ステートメントに複数の MERGE 句がある場合、最後の NOT MATCHED BY SOURCE 句のみが条件を省略できます。

NON_LAST_NOT_MATCHED_BY_TARGET_CLAUSE_OMIT_CONDITION

SQLSTATE: 42613

NOT MATCHED [BY TARGET] ステートメントに複数の MERGE 句がある場合、最後の NOT MATCHED [BY TARGET] 句のみが条件を省略できます。

NON_LITERAL_PIVOT_VALUES

SQLSTATE: 42K08

ピボット値に必要なリテラル式が、<expression>で見つかりました。

NON_PARTITION_COLUMN

SQLSTATE: 42000

PARTITION 句にパーティション以外の列 <columnName> を含めることはできません。

NON_TIME_WINDOW_NOT_SUPPORTED_IN_STREAMING

SQLSTATE: 42KDE

ウィンドウ関数は、ストリーミング DataFrame/データセットの <windowFunc> (列 <columnName> として) ではサポートされていません。

構造化ストリーミングでは、WINDOW 関数を使用した時間枠の集計のみがサポートされます。 (ウィンドウ仕様: <windowSpec>)

NOT_ALLOWED_IN_FROM

SQLSTATE: 42601

FROM 句では許可されません。

詳細については、NOT_ALLOWED_IN_FROM を参照してください

NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE

SQLSTATE: 42601

パイプの WHERE 句では許可されません。

詳細については、NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE を参照してください

NOT_A_CONSTANT_STRING

SQLSTATE: 42601

ルーチンまたは句 <expr> に使用される <name> の式は、STRINGである定数 NOT NULL である必要があります。

詳細については、NOT_A_CONSTANT_STRING を参照してください。

NOT_A_PARTITIONED_TABLE

SQLSTATE: 42809

操作 <operation> はパーティション テーブルではないため、<tableIdentWithDB> に対しては許可されません。

NOT_A_SCALAR_FUNCTION

SQLSTATE: 42887

<functionName> スカラー式として表示されますが、関数はテーブル関数として定義されています。 関数呼び出しを FROM 句に移動するようにクエリを更新するか、代わりにスカラー関数として <functionName> を再定義してください。

NOT_A_TABLE_FUNCTION

SQLSTATE: 42887

<functionName> テーブル関数として表示されますが、関数はスカラー関数として定義されています。 FROM 句の外側に関数呼び出しを移動するようにクエリを更新するか、代わりにテーブル関数として <functionName> を再定義してください。

NOT_ENOUGH_ARGS

SQLSTATE: 42605

関数 <functionName> は、少なくとも <minNum> パラメーターを受け取りますが、 <actualNum> (<actualArgs>)を受け取ります。

NOT_NULL_ASSERT_VIOLATION

SQLSTATE: 42000

NULL 値が null 非許容フィールドに表示されました。<walkedTypePath>スキーマが Scala のタプルやケースクラス、または Java Bean から推論される場合は、scala.Option[_] や他の null 許容型を使用することをお試しください(int/scala.Int の代わりに java.lang.Integer など)。

NOT_NULL_CONSTRAINT_VIOLATION

SQLSTATE: 42000

ここでは、NULL を割り当てることはできません。

詳細については、NOT_NULL_CONSTRAINT_VIOLATION を参照してください

NOT_SUPPORTED_CHANGE_COLUMN

SQLSTATE: 0A000

ALTER TABLE ALTER / CHANGE COLUMNは、型が<table><originName>の列<originType>を型<newName><newType>に変更する場合はサポートされていません。

NOT_SUPPORTED_CHANGE_SAME_COLUMN

SQLSTATE: 0A000

ALTER TABLE ALTER / CHANGE COLUMN は、同じコマンドで入れ子になったフィールドを複数回含む <table>の列 <fieldName> を変更する場合はサポートされていません。

NOT_SUPPORTED_COMMAND_FOR_V2_TABLE

SQLSTATE: 0A000

<cmd> は v2 テーブルではサポートされていません。

NOT_SUPPORTED_COMMAND_WITHOUT_HIVE_SUPPORT

SQLSTATE: 0A000

<cmd> はサポートされていません。有効にする場合は、"spark.sql.catalogImplementation" を "hive" に設定してください。

NOT_SUPPORTED_IN_JDBC_CATALOG

SQLSTATE: 0A000

JDBC カタログではサポートされていないコマンド:

詳細については、NOT_SUPPORTED_IN_JDBC_CATALOG を参照してください。

NOT_SUPPORTED_WITH_DB_SQL

SQLSTATE: 0A000

<operation> は、SQL <endpoint>ではサポートされていません。

NOT_SUPPORTED_WITH_SERVERLESS

SQLSTATE: 0A000

<operation> は、サーバーレス コンピューティングではサポートされていません。

NOT_UNRESOLVED_ENCODER

SQLSTATE: 42601

未解決のエンコーダーが予期されましたが、<attr> が見つかりました。

NO_ACTIVE_TRANSACTION

SQLSTATE: 25000

<action>するアクティブなトランザクションはありません。

NO_DEFAULT_COLUMN_VALUE_AVAILABLE

SQLSTATE: 42608

<colName>の既定値は null 許容ではなく、既定値がないため判断できません。

NO_HANDLER_FOR_UDAF

SQLSTATE: 42000

UDAF '<functionName>' のハンドラーがありません。 代わりに sparkSession.udf.register(...) を使用してください。

NO_MERGE_ACTION_SPECIFIED

SQLSTATE: 42K0E

df.mergeInto の後に whenMatched/whenNotMatched/whenNotMatchedBySource の少なくとも 1 つが続く必要があります。

NO_PARENT_EXTERNAL_LOCATION_FOR_PATH

SQLSTATE: 22KD1

パス '<path>' の親外部の場所が見つかりませんでした。 親パスの 1 つに外部の場所を作成してから、クエリまたはコマンドをもう一度やり直してください。

NO_PRIMARY_KEY_CONSTRAINT_EXCEPTION

SQLSTATE: 42704

TABLE <table> には主キー制約がありません。

NO_SQL_TYPE_IN_PROTOBUF_SCHEMA

SQLSTATE: 42S22

Protobuf スキーマで <catalystFieldPath> が見つかりません。

NO_STORAGE_LOCATION_FOR_TABLE

SQLSTATE: 割り当てなし

テーブルの資格情報を生成するときに、テーブル '<tableId>' のストレージの場所が見つかりませんでした。 テーブルの種類とテーブルの場所の URL を確認してから、クエリまたはコマンドをもう一度やり直してください。

NO_SUCH_CATALOG_EXCEPTION

SQLSTATE: 42704

カタログ '<catalog>' が見つかりませんでした。 カタログ名を確認してから、クエリまたはコマンドをもう一度やり直してください。

NO_SUCH_CLEANROOM_EXCEPTION

SQLSTATE: 割り当てなし

クリーン ルーム '<cleanroom>' は存在しません。 クリーン ルーム名のスペルが正しく、有効な既存のクリーン ルームの名前と一致していることを確認してから、クエリまたはコマンドをもう一度やり直してください。

NO_SUCH_CONSTRAINT_EXCEPTION

SQLSTATE: 42704

制約<constraint><identifier>で見つかりません。

NO_SUCH_CREDENTIAL_EXCEPTION

SQLSTATE: KD000

資格情報 '<credential>' が存在しません。 資格情報名のスペルが正しく、有効な既存の資格情報の名前と一致することを確認してから、クエリまたはコマンドをもう一度やり直してください。

NO_SUCH_EXTERNAL_LOCATION_EXCEPTION

SQLSTATE: 割り当てなし

外部の場所 '<externalLocation>' が存在しません。 外部の場所名が正しいことを確認してから、クエリまたはコマンドをもう一度やり直してください。

NO_SUCH_METASTORE_EXCEPTION

SQLSTATE: 割り当てなし

メタストアが見つかりませんでした。 現在のワークスペースにメタストアを割り当ててから、クエリまたはコマンドをもう一度やり直すようにアカウント管理者に依頼してください。

NO_SUCH_PROVIDER_EXCEPTION

SQLSTATE: 割り当てなし

共有プロバイダー '<providerName>' が存在しません。 共有プロバイダー名のスペルが正しく、有効な既存のプロバイダー名と一致することを確認してから、クエリまたはコマンドをもう一度やり直してください。

NO_SUCH_RECIPIENT_EXCEPTION

SQLSTATE: 割り当てなし

受信者 '<recipient>' が存在しません。 受信者名のスペルが正しく、有効な既存の受信者の名前と一致することを確認してから、クエリまたはコマンドをもう一度やり直してください。

NO_SUCH_SHARE_EXCEPTION

SQLSTATE: 割り当てなし

共有 '<share>' が存在しません。 共有名のスペルが正しく、有効な既存の共有の名前と一致することを確認してから、クエリまたはコマンドをもう一度やり直してください。

NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION

SQLSTATE: 割り当てなし

ストレージ資格情報 '<storageCredential>' が存在しません。 ストレージ資格情報名のスペルが正しく、有効な既存のストレージ資格情報の名前と一致することを確認してから、クエリまたはコマンドをもう一度やり直してください。

NO_SUCH_USER_EXCEPTION

SQLSTATE: 割り当てなし

ユーザー '<userName>' が存在しません。 アクセス許可を付与または所有権を変更するユーザーのスペルが正しく、有効な既存のユーザーの名前と一致することを確認してから、クエリまたはコマンドをもう一度やり直してください。

NO_UDF_INTERFACE

SQLSTATE: 38000

UDF クラス <className> では、UDF インターフェイスは実装されません。

NULLABLE_COLUMN_OR_FIELD

SQLSTATE: 42000

列またはフィールド <name> が null 許容になっていますが、null 非許容である必要があります。

NULLABLE_ROW_ID_ATTRIBUTES

SQLSTATE: 42000

行 ID 属性を null 許容にすることはできません: <nullableRowIdAttrs>

NULL_DATA_SOURCE_OPTION

SQLSTATE: 22024

データ ソースの読み取り/書き込みオプション <option> null 値を持つことはできません。

NULL_MAP_KEY

SQLSTATE: 2200E

マップ キーとして null を使用できません。

NULL_QUERY_STRING_EXECUTE_IMMEDIATE

SQLSTATE: 22004

即時実行では、クエリ文字列として null 以外の変数が必要ですが、指定された変数 <varName> は null です。

NULL_VALUE_SIGNAL_STATEMENT

SQLSTATE: 22004

Signal ステートメントの引数には null 以外の値が必要ですが、 <argument> は null 値を受け取りました。

NUMERIC_OUT_OF_SUPPORTED_RANGE

SQLSTATE: 22003

<value>値は 38 桁を超えるので、数値として解釈できません。

NUMERIC_VALUE_OUT_OF_RANGE

SQLSTATE: 22003

詳細については、NUMERIC_VALUE_OUT_OF_RANGE を参照してください。

NUM_COLUMNS_MISMATCH

SQLSTATE: 42826

<operator> は、同じ数の列を持つ入力に対してのみ実行できますが、最初の入力には <firstNumColumns> 列があり、<invalidOrdinalNum> 入力には <invalidNumColumns> 列があります。

NUM_TABLE_VALUE_ALIASES_MISMATCH

SQLSTATE: 42826

指定されたエイリアスの数が出力列の数と一致しません。

関数名: <funcName>;エイリアスの数: <aliasesNum>;出力列の数: <outColsNum>

OAUTH_CUSTOM_IDENTITY_CLAIM_NOT_PROVIDED

SQLSTATE: 22KD2

カスタム ID 要求は提供されませんでした。

ONLY_SECRET_FUNCTION_SUPPORTED_HERE

SQLSTATE: 42K0E

この <functionName>では、関数 <location> の呼び出しはサポートされていません。<supportedFunctions> サポートされています。

ONLY_SUPPORTED_WITH_UC_SQL_CONNECTOR

SQLSTATE: 0A000

SQL 操作 <operation> は、Unity カタログがサポートされている Databricks SQL コネクタでのみサポートされます。

OPERATION_CANCELED

SQLSTATE: HY008

操作が取り消されました。

OPERATION_REQUIRES_UNITY_CATALOG

SQLSTATE: 0AKUD

操作 <operation> では、Unity カタログが有効になっている必要があります。

OP_NOT_SUPPORTED_READ_ONLY

SQLSTATE: 42KD1

<plan> は、読み取り専用セッション モードではサポートされていません。

ORDER_BY_POS_OUT_OF_RANGE

SQLSTATE: 42805

ORDER BY 位置 <index> が選択リストに含まれていません (有効な範囲は [1, <size>])。

PARQUET_CONVERSION_FAILURE

SQLSTATE: 42846

Parquet 型が <dataType> のデータ型 <parquetType> に対して Parquet コンバーターを作成できません。

詳細については、PARQUET_CONVERSION_FAILURE を参照してください。

PARQUET_TYPE_ILLEGAL

SQLSTATE: 42846

Parquet 型 <parquetType> は正しくありません。

PARQUET_TYPE_NOT_RECOGNIZED

SQLSTATE: 42846

Parquet 型 <field> は認識できません。

PARQUET_TYPE_NOT_SUPPORTED

SQLSTATE: 42846

Parquet の種類はまだサポートされていません: <parquetType>

PARSE_EMPTY_STATEMENT

SQLSTATE: 42617

構文エラー、予期しない空のステートメント。

PARSE_MODE_UNSUPPORTED

SQLSTATE: 42601

関数 <funcName> は、 <mode> モードをサポートしていません。 許容されるモードは、PERMISSIVEFAILFASTです。

PARSE_SYNTAX_ERROR

SQLSTATE: 42601

<error> <hint>付近で構文エラーが発生しました。

PARTITIONS_ALREADY_EXIST

SQLSTATE: 428FT

テーブル RENAME 内のパーティション <partitionList> は既に存在するため、追加または <tableName> できません。

別の名前を選択するか、既存のパーティションを削除するか、IF NOT EXISTS 句を追加して既存のパーティションを許容します。

PARTITIONS_NOT_FOUND

SQLSTATE: 428FT

パーティション <partitionList> がテーブル <tableName>に見つかりません。

パーティションの仕様とテーブル名を確認します。

ドロップ時のエラーを許容するには、... ALTER TABLE 使用します。 DROP IF EXISTS PARTITION

PARTITION_COLUMN_NOT_FOUND_IN_SCHEMA

SQLSTATE: 42000

パーティション列 <column> スキーマ <schema>で見つかりません。 パーティション分割用の既存の列を指定してください。

PARTITION_LOCATION_ALREADY_EXISTS

SQLSTATE: 42K04

パーティションの場所 <locationPath> テーブル <tableName>に既に存在します。

PARTITION_LOCATION_IS_NOT_UNDER_TABLE_DIRECTORY

SQLSTATE: 42KD5

ALTER TABLE SET PARTITION LOCATION ステートメントを実行できませんでした。

パーティションの場所 <location> がテーブル ディレクトリの <table>の下にありません。

これを修正するには、パーティションの場所を <table>のサブディレクトリに設定してください。

PARTITION_METADATA

SQLSTATE: 0AKUC

<action> は、パーティション メタデータの格納は Unity カタログではサポートされていないため、テーブル <tableName> では許可されません。

PARTITION_NUMBER_MISMATCH

SQLSTATE: KD009

値の数 (<partitionNumber>) がスキーマ サイズ (<partitionSchemaSize>) と一致しませんでした: 値が <partitionValues>、スキーマが <partitionSchema>、ファイル パスが <urlEncodedPath>

テーブルを再具現化するか、所有者にお問い合わせください。

PARTITION_TRANSFORM_EXPRESSION_NOT_IN_PARTITIONED_BY

SQLSTATE: 42S23

<expression> は 'partitionedBy' 内にある必要があります。

PATH_ALREADY_EXISTS

SQLSTATE: 42K04

パス <outputPath> は既に存在します。 既存のパスを上書きするには、モードを "上書き" に設定します。

PATH_NOT_FOUND

SQLSTATE: 42K03

パスが存在しません: <path>

PATH_RESOLUTION_ERROR

SQLSTATE: KD013

パス <path>を解決できませんでした。 原因: <causedBy>

PHOTON_DESERIALIZED_PROTOBUF_MEMORY_LIMIT_EXCEEDED

SQLSTATE: 54000

Photon protobuf プランを逆シリアル化するには、少なくとも <size> バイトが必要です。これは、

<limit> バイトのリミット。 これは、非常に大きなプランまたは非常に大きなスキーマが存在することが原因である可能性が

ワイドスキーマ クエリの簡略化、不要な列の削除、Photon の無効化を試みます。

PHOTON_SERIALIZED_PROTOBUF_MEMORY_LIMIT_EXCEEDED

SQLSTATE: 54000

シリアル化された Photon protobuf プランのサイズは <size> バイトで、このサイズは制限を超えています。

<limit> バイトの制限を超えています。 プラン内のデータ型のシリアル化されたサイズは、<dataTypeSize> バイトです。

これは、非常に大規模なプランまたは非常に広いスキーマの存在が原因である可能性があります。

不要な操作と列を削除したり、Photon を無効にしたりするために、クエリを書き直してください。

フローのないパイプラインデータセット

SQLSTATE: 0A000

パイプライン データセット <identifier> には、定義されたフローがありません。 データセットの定義を使用してクエリをアタッチするか、データセットに書き込むフローを少なくとも 1 つ明示的に定義してください。

PIPELINE_DOES_NOT_EXIST

SQLSTATE: 42K03

パイプライン '<pipelineId>' が存在しません

詳細については、PIPELINE_DOES_NOT_EXISTを参照してください。

パイプライン重複識別子 (PIPELINE_DUPLICATE_IDENTIFIERS)

SQLSTATE: 42710

パイプラインのデータフロー グラフに登録されている要素の重複する識別子が見つかりました。

詳細については、PIPELINE_DUPLICATE_IDENTIFIERSを参照してください。

PIPELINE_SQL_GRAPH_ELEMENT_REGISTRATION_ERROR

SQLSTATE: 42000

<message>

<offendingQuery>

<codeLocation>

PIPELINE_STORAGE_ROOT_INVALID

SQLSTATE: 42K03

パイプライン ストレージ ルートは、URI スキームを持つ絶対パスである必要があります (たとえば、file://、s3a://、hdfs://)。 取得: <storage_root>

PIPE_OPERATOR_AGGREGATE_EXPRESSION_CONTAINS_NO_AGGREGATE_FUNCTION

SQLSTATE: 0A000

グループ化されていない式 <expr> は、|>AGGREGATE パイプ演算子の引数として提供されますが、集計関数は含まれません。集計関数を含むように更新してから、クエリをもう一度やり直してください。

PIPE_OPERATOR_CONTAINS_AGGREGATE_FUNCTION

SQLSTATE: 0A000

パイプ演算子 |<expr>> 句を使用する場合、集計関数<clause>は使用できません。代わりに、パイプ演算子 |>AGGREGATE 句を使用してください。

PIVOT_VALUE_DATA_TYPE_MISMATCH

SQLSTATE: 42K09

無効なピボット値 '<value>': 値のデータ型 <valueType> ピボット列のデータ型 <pivotType>と一致しません。

POLICY_ALREADY_EXISTS

SQLSTATE: 42000

ポリシー <policyName> は既に存在するため作成できません。

別の名前を選択するか、既存のポリシーを削除して既存の接続を許容します。

POLICY_NOT_FOUND

SQLSTATE: 22023

<commandType> コマンドを実行できません。<policyName> のポリシー <securableFullname> が見つからないためです。

スペルと正確性を確認してください。

POLICY_ON_SECURABLE_TYPE_NOT_SUPPORTED

SQLSTATE: 42000

セキュリティ保護可能な種類の <securableType>に対してポリシーを作成できません。 サポートされているセキュリティ保護可能な種類: <allowedTypes>

PREVIEW_FEATURE_NOT_ENABLED

SQLSTATE: 56038

プレビュー機能 <featureName> が有効になっていません。 プレビュー ポータルでこの機能を有効にするには、ワークスペース管理者に問い合わせてください。

PROCEDURE_ARGUMENT_NUMBER_MISMATCH

SQLSTATE: 42605

プロシージャ <procedureName><expected> 引数が必要ですが、<actual> が指定されました。

PROCEDURE_CREATION_EMPTY_ROUTINE

SQLSTATE: 0A000

空のルーチン定義を持つ CREATE PROCEDURE は許可されません。

PROCEDURE_CREATION_PARAMETER_OUT_INOUT_WITH_DEFAULT

SQLSTATE: 42601

パラメーター <parameterName> は、パラメーター モードの <parameterMode>で定義されます。 ルーチンを呼び出すときは OUT パラメーターと INOUT パラメーターを省略できないため、 DEFAULT 式はサポートされません。 続行するには、DEFAULT 句を削除するか、パラメーター モードを INに変更します。

PROCEDURE_NOT_SUPPORTED

SQLSTATE: 0A000

ストアド プロシージャはサポートされていません

PROCEDURE_NOT_SUPPORTED_WITH_HMS

SQLSTATE: 0A000

Hive メタストアでは、ストアド プロシージャはサポートされていません。 代わりに Unity カタログを使用してください。

PROTOBUF_DEPENDENCY_NOT_FOUND

SQLSTATE: 42K0G

依存関係が見つかりませんでした: <dependencyName>

PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND

SQLSTATE: 42K0G

パスで Protobuf 記述子ファイルを読み取る際にエラーが発生しました: <filePath>

PROTOBUF_FIELD_MISSING

SQLSTATE: 42K0G

<field> の Protobuf スキーマで <protobufSchema> を検索した結果、<matchSize> 件の一致を取得しました。 候補: <matches>

PROTOBUF_FIELD_MISSING_IN_SQL_SCHEMA

SQLSTATE: 42K0G

Protobuf スキーマ <field> が見つかりましたが、SQL スキーマに一致するものがありません。

PROTOBUF_FIELD_TYPE_MISMATCH

SQLSTATE: 42K0G

フィールド <field>に対して型の不一致が発生しました。

PROTOBUF_JAVA_CLASSES_NOT_SUPPORTED

SQLSTATE: 0A000

java クラスは、<protobufFunction>ではサポートされていません。 代替オプションについては、Databricks サポートにお問い合わせください。

PROTOBUF_MESSAGE_NOT_FOUND

SQLSTATE: 42K0G

記述子でメッセージ <messageName> が見つからない。

PROTOBUF_NOT_LOADED_SQL_FUNCTIONS_UNUSABLE

SQLSTATE: 22KD3

Protobuf データ ソースが読み込まれていないため、<functionName> SQL 関数を呼び出すことができません。

コマンド ラインで --packages 引数を使用するなどして、"spark-protobuf" パッケージが読み込まれたジョブまたはセッションを再起動してから、クエリまたはコマンドをもう一度やり直してください。

PROTOBUF_TYPE_NOT_SUPPORT

SQLSTATE: 42K0G

Protobuf 型はまだサポートされていません: <protobufType>

PS_FETCH_RETRY_EXCEPTION

SQLSTATE: 22000

PubSub フェッチ ステージのタスクを再試行できません。 ステージ <partitionInfo> のパーティション <stageInfo>、TID <taskId>

PS_INVALID_EMPTY_OPTION

SQLSTATE: 42000

<key> は空の文字列にすることはできません。

PS_INVALID_KEY_TYPE

SQLSTATE: 22000

PubSub 重複除去のキーの種類 <key> が無効です。

PS_INVALID_OPTION

SQLSTATE: 42000

<key> オプションは PubSub ではサポートされていません。 テストでのみ使用できます。

PS_INVALID_OPTION_TYPE

SQLSTATE: 42000

<key>の型が無効です。 <key> に予期されている型は型 <type> です。

PS_INVALID_READ_LIMIT

SQLSTATE: 42000

PubSub ストリームの読み取り制限が無効です: <limit>

PS_INVALID_UNSAFE_ROW_CONVERSION_FROM_PROTO

SQLSTATE: 22000

PubSubMessageMetadata にデコードする UnsafeRow が無効です。目的の proto スキーマは <protoSchema>です。 UnsafeRow という入力が破損している可能性があります: <unsafeRow>

PS_INVALID_WORKLOAD_IDENTITY_FEDERATION_AUDIENCE_OPTION

SQLSTATE: 42000

spark.readStream.format("pubsub").option("workloadIdentityFederation.audience", <audience>) の読み取りオプションが無効であるため、クエリまたはコマンドが失敗しました。 //iam.googleapis.com/projects/{<audience>}/locations/global/workloadIdentityPools/{PROJECT_NUMBER}/providers/{POOL_ID} の形式に一致するようにPROVIDER_IDを更新し、クエリまたはコマンドをもう一度やり直してください。

PS_MISSING_AUTH_INFO

SQLSTATE: 42000

完全な PubSub 認証情報を見つけることができません。

PS_MISSING_REQUIRED_OPTION

SQLSTATE: 42000

必要なオプションが見つかりませんでした: <key>.

PS_MOVING_CHECKPOINT_FAILURE

SQLSTATE: 22000

未加工のデータ チェックポイント ファイルを <src> から移動先ディレクトリ (<dest>) に移動できません。

PS_MULTIPLE_AUTH_OPTIONS

SQLSTATE: 42000

Databricks サービスの資格情報または GCP サービス アカウントの資格情報を指定してください。

PS_MULTIPLE_FAILED_EPOCHS

SQLSTATE: 22000

PubSub ストリームは、2 つ以上の失敗したフェッチ (<failedEpochs>) があるため開始できません。

PS_OPTION_NOT_IN_BOUNDS

SQLSTATE: 22000

<key> は、両方の境界の次の境界 (<min>, <max>) 内にある必要があります。

PS_PROVIDE_CREDENTIALS_WITH_OPTION

SQLSTATE: 42000

共有クラスターは、インスタンス プロファイルでの認証をサポートしていません。 .option() を使用してストリームに資格情報を直接指定します。

PS_SPARK_SPECULATION_NOT_SUPPORTED

SQLSTATE: 0A000

PubSub ソース コネクタは、spark.speculation が無効になっているクラスターでのみ使用できます。

PS_UNABLE_TO_CREATE_SUBSCRIPTION

SQLSTATE: 42000

トピック <subId>でサブスクリプション <topicId> を作成しようとしたときにエラーが発生しました。 サブスクリプションを作成して再試行するための十分なアクセス許可があることを確認してください。

PS_UNABLE_TO_PARSE_PROTO

SQLSTATE: 22000

シリアル化されたバイトを解析して proto を生成できません。

PS_UNSUPPORTED_GET_OFFSET_CALL

SQLSTATE: 0A000

getOffset は、制限を指定しないとサポートされていません。

PYTHON_DATA_SOURCE_ERROR

SQLSTATE: 38000

<action> に失敗したPythonデータソース <type>: <msg>

PYTHON_STREAMING_DATA_SOURCE_RUNTIME_ERROR

SQLSTATE: 38000

Python ストリーミング データ ソースが <action>を実行するときに失敗しました: <msg>

QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY

SQLSTATE: 428HD

以前に割り当てられた列マスクは現在、テーブル スキーマと互換性がないため、参照先テーブルにアクセスできません。続行するには、テーブルの所有者に連絡してポリシーを更新してください。

詳細については、QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY を参照してください

QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY

SQLSTATE: 428HD

以前に割り当てられた行レベルのセキュリティ ポリシーは現在、テーブル スキーマと互換性がないため、参照先テーブルにアクセスできません。続行するには、テーブルの所有者に連絡してポリシーを更新してください。

詳細については、QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY を参照してください

QUERY_EXECUTION_TIMEOUT_EXCEEDED

SQLSTATE: 57KD0

タイムアウト (<timeoutSec>秒) を超えたため、クエリの実行が取り消されました。 <config>を設定すると、秒単位で制限を引き上げることができます。

QUERY_INCOMPATIBLE_WITH_RLSCM_POLICY

SQLSTATE: 0AKUC

go/rowcolumncontrols-allowlist を参照してください。 LogicalPlan <unknownLogicalPlan> は RLS/CM ポリシーと互換性がありません。

QUERY_REJECTED

SQLSTATE: 08004

クエリの実行が拒否されました。

QUERY_RESULT_WRITE_TO_CLOUD_STORE_PERMISSION_ERROR

SQLSTATE: 42501

ワークスペースの内部ストレージ構成により、Databricks がクラウド ストアにアクセスできなくなります。

QUERY_TAGS_NOT_IMPLEMENTED_ERROR

SQLSTATE: 0A000

SQL では、クエリ タグはまだサポートされていません。

QUERY_TAGS_SYNTAX_INVALID

SQLSTATE: 42000

SET QUERY_TAGS コマンドの形式が無効です。

QUERY_TAG_KEY_INVALID

SQLSTATE: 42000

クエリ タグ キー '<key>' の検証に失敗しました。

QUERY_TAG_KEY_MAY_NOT_BE_EMPTY

SQLSTATE: 2200E

クエリ タグ キーは null または空ではない可能性があります。 先頭と末尾の空白は、キーと値に対してトリミングされます。

QUERY_TAG_MAX_COUNT_EXCEEDED

SQLSTATE: 54KD1

クエリ タグの数がセッションごとのタグの最大数 <tagLimit> 超えました。

QUERY_TAG_VALUE_INVALID

SQLSTATE: 42000

クエリ タグ値 '<value>' の検証に失敗しました。

QUERY_WATCHDOG_CHECK_FAILED

SQLSTATE: 42000

クエリ ウォッチドッグ チェックに失敗しました。

詳細については、QUERY_WATCHDOG_CHECK_FAILEDを参照してください。

READ_CURRENT_FILE_NOT_FOUND

SQLSTATE: 42K03

<message>

基になるファイルが更新されている可能性があります。 SQL で 'REFRESH TABLE tableName' コマンドを実行するか、関係する Dataset/DataFrame を再作成することで、Spark のキャッシュを明示的に無効にすることができます。

READ_FILES_AMBIGUOUS_ROUTINE_PARAMETERS

SQLSTATE: 4274K

関数 <functionName> の呼び出しには、互いのエイリアスである <parameterName><alternativeName> が設定されています。 いずれか 1 つだけを設定してください。

READ_FILES_CREDENTIALS_PARSE_ERROR

SQLSTATE: 42000

read_files() 関数の一時的な資格情報の解析中にエラーが発生しました。

詳細については、READ_FILES_CREDENTIALS_PARSE_ERRORを参照してください。

READ_TVF_UNEXPECTED_REQUIRED_PARAMETER

SQLSTATE: 4274K

関数 <functionName> の必須パラメーター <parameterName> は、名前を付けずに位置 <expectedPos> に割り当てる必要があります。

RECIPIENT_EXPIRATION_NOT_SUPPORTED

SQLSTATE: 0A000

受信者の有効期限のタイムスタンプでは、TIMESTAMP/TIMESTAMP_LTZ/TIMESTAMP_NTZ の種類のみがサポートされます。

RECURSION_LEVEL_LIMIT_EXCEEDED

SQLSTATE: 42836

再帰レベルの制限 <levelLimit> 達しましたが、クエリが使い果たされていません。'WITH RECURSIVE t(col) MAX RECURSION LEVEL 200' のように増やしてみてください。

RECURSION_ROW_LIMIT_EXCEEDED

SQLSTATE: 42836

再帰行の制限に達 <rowLimit> が、クエリが使い果たされていない場合は、CTE リレーションシップに対してクエリを実行するときに、より大きな LIMIT 値を設定してみてください。

RECURSIVE_CTE_IN_LEGACY_MODE

SQLSTATE: 42836

再帰定義は、レガシ CTE 優先順位モード (spark.sql.legacy.ctePrecedencePolicy=LEGACY) では使用できません。

RECURSIVE_CTE_WITH_LEGACY_INLINE_FLAG

SQLSTATE: 42836

レガシ インライン フラグが true (spark.sql.legacy.inlineCTEInCommands=true) に設定されている場合は、再帰定義を使用できません。

RECURSIVE_PROTOBUF_SCHEMA

SQLSTATE: 42K0G

Protobuf スキーマで再帰参照が見つかりました。既定では Spark で処理できません: <fieldDescriptor>。 オプション recursive.fields.max.depth 1 から 10 に設定してみてください。 10 レベルを超える再帰は許可されません。

RECURSIVE_VIEW

SQLSTATE: 42K0H

再帰ビュー <viewIdent> 検出されました (サイクル: <newPath>)。

REF_DEFAULT_VALUE_IS_NOT_ALLOWED_IN_PARTITION

SQLSTATE: 42601

DEFAULT 列の値への参照は、PARTITION 句内では許可されません。

RELATION_LARGER_THAN_8G

SQLSTATE: 54000

8G より大きい <relationName> を構築できません。

REMAINDER_BY_ZERO

SQLSTATE: 22012

0 の剰余。 除数が 0 であることを許容し、代わりに try_mod を返すには、NULL を使用します。 このエラーをバイパスするには、必要に応じて <config> を "false" に設定します。

REMOTE_FUNCTION_HTTP_FAILED_ERROR

SQLSTATE: 57012

リモート HTTP 要求がコード <errorCode>で失敗し、エラー メッセージ <errorMessage>

REMOTE_FUNCTION_HTTP_RESULT_PARSE_ERROR

SQLSTATE: 22032

リモート HTTP 応答からJSONの結果を解析できないため、<functionName> SQL 関数を評価できませんでした。エラー メッセージは<errorMessage>。 API ドキュメントを確認する: <docUrl>。 エラー メッセージに示されている問題を修正し、クエリをもう一度やり直してください。

REMOTE_FUNCTION_HTTP_RESULT_UNEXPECTED_ERROR

SQLSTATE: 57012

予期しないリモート HTTP 応答を処理できないため、<functionName> SQL 関数を評価できませんでした。エラー メッセージが <errorMessage>。 API ドキュメントを確認する: <docUrl>。 エラー メッセージに示されている問題を修正し、クエリをもう一度やり直してください。

REMOTE_FUNCTION_HTTP_RETRY_TIMEOUT

SQLSTATE: 57012

<N> 回再試行した後、リモート要求が失敗しました。最後に失敗した HTTP エラー コードが <errorCode> され、メッセージが <errorMessage> されました

REMOTE_FUNCTION_MISSING_REQUIREMENTS_ERROR

SQLSTATE: 57012

<functionName>のため、<errorMessage> SQL 関数を評価できませんでした。 <docUrl>で要件を確認します。 エラー メッセージに示されている問題を修正し、クエリをもう一度やり直してください。

REMOTE_QUERY_FUNCTION_UNSUPPORTED_CONNECTOR_PARAMETERS

SQLSTATE: 4274K

<parameterNames>パラメーターは、型 '<connectionName>' の接続 '<connectionType>' に対してクエリを実行するremote_query関数ではサポートされていません。

詳細については、REMOTE_QUERY_FUNCTION_UNSUPPORTED_CONNECTOR_PARAMETERSを参照してください。

RENAME_SRC_PATH_NOT_FOUND

SQLSTATE: 42K03

<sourcePath> が見つからなかったので、名前を変更できませんでした。

REPEATED_CLAUSE

SQLSTATE: 42614

<clause> 句は、<operation> 操作ごとに最大 1 回使用できます。

REQUIRED_PARAMETER_ALREADY_PROVIDED_POSITIONALLY

SQLSTATE: 4274K

ルーチン <routineName> の必要なパラメーター <parameterName> は、名前を指定せずに位置 <positionalIndex> に割り当てられた。

関数呼び出しを更新して、このパラメーターの <parameterName> で名前付き引数を削除するか、位置指定引数を削除してください

引数 <positionalIndex> を指定してから、クエリをもう一度試してください。

REQUIRED_PARAMETER_NOT_FOUND

SQLSTATE: 4274K

<routineName> という名前のパラメーターが必要ですが、ルーチン呼び出しで値が指定されていないため、ルーチン <parameterName> を呼び出すことができません。 引数値を指定するルーチン呼び出しを更新して (インデックス <index> 位置または名前で) クエリをもう一度やり直してください。

REQUIRES_EXPLICIT_NAME_IN_WATERMARK_CLAUSE

SQLSTATE: 42000

式が指定されているが、 <sqlExpr>された場合、watermark 句には明示的な名前が必要です。

REQUIRES_SINGLE_PART_NAMESPACE

SQLSTATE: 42K05

<sessionCatalog> には単一部分の名前空間が必要ですが、<namespace> を受け取りました。

RESCUED_DATA_COLUMN_CONFLICT_WITH_SINGLE_VARIANT

SQLSTATE: 4274K

'rescuedDataColumn' DataFrame API リーダー オプションは、'singleVariantColumn' DataFrame API オプションと相互に排他的です。

そのうちの 1 つを削除してから、DataFrame 操作をもう一度やり直してください。

RESERVED_CDC_COLUMNS_ON_WRITE

SQLSTATE: 42939

書き込みには、データ フィードの変更のメタデータとして内部的に使用される予約済みの列 <columnList>

が含まれています。 テーブルに書き込むには、名前の変更/削除を行います

次のようにしてテーブルのデータ フィードの変更を無効にします。

<config> を false に設定します。

RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED

SQLSTATE: 0A000

<option> オプションには、<source> ソースの共有クラスターの値が制限されています。

詳細については、RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED を参照してください

ROUTINE_ALREADY_EXISTS

SQLSTATE: 42723

その名前の <newRoutineType> <routineName> が既に存在するため、<existingRoutineType> を作成できません。

別の名前を選択するか、既存の <existingRoutineType>を削除または置き換えるか、IF NOT EXISTS 句を追加して既存の <newRoutineType>を許容します。

ROUTINE_NOT_FOUND

SQLSTATE: 42883

ルーチン <routineName> が見つかりません。 スキーマとカタログのスペルと正確性を確認します。

スキーマとカタログで名前を修飾しなかった場合は、current_schema() の出力を確認するか、名前を正しいスキーマとカタログで修飾します。

ドロップ時のエラーを許容するには、 DROP...IF EXISTSを使用します。

ROUTINE_PARAMETER_NOT_FOUND

SQLSTATE: 42000

ルーチン <routineName> は、<parameterName>位置で指定されたパラメーター <pos> をサポートしていません。<suggestion>

ROUTINE_USES_SYSTEM_RESERVED_CLASS_NAME

SQLSTATE: 42939

指定したクラス名 '<routineName>' はシステム使用のために予約されているため、関数<className>を作成できません。 クラスの名前を変更して、もう一度やり直してください。

ROW_LEVEL_SECURITY_ABAC_MISMATCH

SQLSTATE: 0A000

ポリシーから継承された行フィルターと明示的に定義された行フィルターの間に不一致があるため、<tableName> で行フィルターを解決できませんでした。 続行するには、属性ベースのアクセス制御 (ABAC) を無効にして、Databricks サポートにお問い合わせください。

ROW_LEVEL_SECURITY_CHECK_CONSTRAINT_UNSUPPORTED

SQLSTATE: 0A000

行レベルのセキュリティ ポリシーを使用したテーブル CHECK に対する <tableName> 制約の作成はサポートされていません。

ROW_LEVEL_SECURITY_COLUMN_MASK_UNRESOLVED_REFERENCE_COLUMN (参照列が解決されていない行レベルセキュリティカラムマスク)

SQLSTATE: 42703

行フィルターまたは列マスク関数パラメーターで参照されている<objectName>という名前の列は解決できません。

これは、基になるテーブル スキーマが変更され、参照される列が存在しなくなった場合に発生する可能性があります。

たとえば、外部システム (フェデレーション テーブルなど) で列が削除された場合や、テーブルに対する REPLACE 操作によって列が削除された場合に発生する可能性があります。

これを解決するために、テーブルに対する管理特権を持つユーザーは、 DESCRIBE TABLE EXTENDEDを使用して現在の行フィルターと列マスクを検査し、存在しない列を参照する列を削除または再作成するには、 ALTER TABLE...SET/DROP ROW FILTER または MASK を使用します。

注: Databricks では、マスクが指定されていない場合でも、新しいスキーマに同じ列が含まれている場合に、 REPLACE 操作中に列マスクを保持するための安全性が向上しました。 これにより、テーブルで意図しないポリシーが失われるのを防ぐことができます。

ROW_LEVEL_SECURITY_DUPLICATE_COLUMN_NAME

SQLSTATE: 42734

<statementType> ステートメントで行レベルのセキュリティ ポリシーをテーブルに割り当てようとしましたが、2 つ以上の参照先列に同じ名前 <columnName>が付けられていますが、これは無効です。

ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED

SQLSTATE: 0A000

<tableName> の行レベルのセキュリティ ポリシーはサポートされていません。

詳細については、ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED を参照してください

ROW_LEVEL_SECURITY_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE: 0A000

行レベルのセキュリティ ポリシーで参照されているため、テーブル <statementType> <columnName>から<tableName>できません。 先に進む前に、テーブル所有者がこのポリシーを削除または変更する必要があります。

ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_SOURCE

SQLSTATE: 0A000

MERGE INTO 操作では、ソース テーブル <tableName>の行レベルのセキュリティ ポリシーはサポートされません。

ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_TARGET

SQLSTATE: 0A000

MERGE INTO 操作では、行レベルのセキュリティ ポリシーを使用したテーブル <tableName> への書き込みはサポートされていません。

ROW_LEVEL_SECURITY_MULTI_PART_COLUMN_NAME

SQLSTATE: 42K05

このステートメントでは、行レベルのセキュリティ ポリシーをテーブルに割り当てようとしましたが、参照される列 <columnName> 複数の名前部分がありますが、これは無効です。

ROW_LEVEL_SECURITY_REQUIRE_UNITY_CATALOG

SQLSTATE: 0A000

行レベルのセキュリティ ポリシーは、Unity カタログでのみサポートされます。

ROW_LEVEL_SECURITY_SECONDARY_INDEX_CREATION_UNSUPPORTED

SQLSTATE: 0A000

テーブルには行レベルのセキュリティ ポリシーが定義されているため、セカンダリ インデックス ON TABLE <tableName> を作成できません。

ROW_LEVEL_SECURITY_SHOW_PARTITIONS_UNSUPPORTED

SQLSTATE: 0A000

SHOW PARTITIONS コマンドは、行レベルのセキュリティ ポリシーを持つ<format> テーブルではサポートされていません。

ROW_LEVEL_SECURITY_TABLE_CLONE_SOURCE_NOT_SUPPORTED

SQLSTATE: 0A000

テーブル <mode> からテーブル <tableName> を行レベルのセキュリティポリシーを使って複製することはサポートされていません。

ROW_LEVEL_SECURITY_TABLE_CLONE_TARGET_NOT_SUPPORTED

SQLSTATE: 0A000

テーブル <mode> への行レベルセキュリティポリシーを設定した状態での <tableName> の複製はサポートされていません。

ROW_LEVEL_SECURITY_UNSUPPORTED_CONSTANT_AS_PARAMETER

SQLSTATE: 0AKD1

行レベルのセキュリティ ポリシーで定数をパラメーターとして使用することはサポートされていません。 SQL コマンドを更新して行フィルター定義から定数を削除してから、もう一度コマンドを再試行してください。

ROW_LEVEL_SECURITY_UNSUPPORTED_DATA_TYPE

SQLSTATE: 0AKDC

行レベルのセキュリティ ポリシーに使用される関数 <functionName> には、サポートされていないデータ型の <dataType>を持つパラメーターがあります。

ROW_LEVEL_SECURITY_UNSUPPORTED_PROVIDER

SQLSTATE: 0A000

テーブル プロバイダー "<statementType>" を使用したターゲット データ ソースでは、行レベルのセキュリティ ポリシーの割り当てがサポートされていないため、<provider> コマンドを実行できませんでした。

ROW_SUBQUERY_TOO_MANY_ROWS

SQLSTATE: 21000

1 行として使用されるサブクエリによって複数の行が返されました。

ROW_VALUE_IS_NULL

SQLSTATE: 22023

インデックス NULLの行に <index> が見つかりました。NULL 以外の値が必要です。

RULE_ID_NOT_FOUND

SQLSTATE: 22023

ルール名 "<ruleName>" の ID が見つかりません。 新しいルールを追加する場合は、RuleIdCollection.scala を変更してください。

空のパイプラインを実行 (RUN_EMPTY_PIPELINE)

SQLSTATE: 42617

パイプラインには少なくとも 1 つの非一時データセット (テーブル、永続化されたビュー) が定義されている必要がありますが、パイプラインに一時的でないデータセットが見つかりませんでした。

想定されるソース ファイルが含まれていること、およびソース コードにテーブル定義が含まれていることを確認してください (たとえば、SQL コードでの CREATE MATERIALIZED VIEW 、python コードでの @dp.table )。

SALESFORCE_DATA_SHARE_API_UNAUTHORIZED

SQLSTATE: 42505

Salesforce Data Share API への承認に失敗しました。 Databricks 接続の詳細が適切な Salesforce データ共有ターゲットに提供されていることを確認します。

SAMPLE_TABLE_PERMISSIONS

SQLSTATE: 42832

サンプル データベース/テーブルでは、アクセス許可はサポートされていません。

SCALAR_FUNCTION_NOT_COMPATIBLE

SQLSTATE: 42K0O

スカラ関数<scalarFunc> はメソッド 'produceResult(InternalRow)' をカスタム実装でオーバーライドしていません。

SCALAR_FUNCTION_NOT_FULLY_IMPLEMENTED

SQLSTATE: 42K0P

ScalarFunction <scalarFunc> メソッド 'produceResult(InternalRow)' を実装またはオーバーライドしません。

SCALAR_SUBQUERY_IS_IN_GROUP_BY_OR_AGGREGATE_FUNCTION

SQLSTATE: 0A000

相関スカラー サブクエリ '<sqlExpr>' は、 GROUP BYにも集計関数にも存在しません。

序数を使用して GROUP BY に追加するか、取得する値が気にならない場合は first() (または first_value) でラップします。

SCALAR_SUBQUERY_TOO_MANY_ROWS

SQLSTATE: 21000

サブクエリを式として使用した結果、複数の行が返されました。

SCDS_COMMIT_LOG_UNAVAILABLE

SQLSTATE: KD006

コミット ログは、チェックポイントの location=<checkpointLocation> と共に存在しません。

SCDS_INVALID_OPTION_VALUE

SQLSTATE: 42616

source option=<optionName> の値が無効です, errorMsg=<message>.

SCDS_OFFSET_LOG_UNAVAILABLE

SQLSTATE: KD006

オフセット ログは、チェックポイントの location=<checkpointLocation> と共に存在しません。

SCDS_REQUIRED_OPTION_UNSPECIFIED

SQLSTATE: 42601

必須の option=<optionName> を指定できませんでした。

SCHEDULE_ALREADY_EXISTS

SQLSTATE: 42710

既に <scheduleType>されているテーブルに <existingScheduleType> を追加できません。 既存のスケジュールを削除するか、 ALTER TABLE...ALTER <scheduleType> 使用してください.を選択して変更します。

SCHEDULE_PERIOD_INVALID

SQLSTATE: 22003

<timeUnit> のスケジュール期間は、1 から <upperBound> までの整数値である必要があります。 <actual> を受け取りました。

SCHEMA_ALREADY_EXISTS

SQLSTATE: 42P06

スキーマ <schemaName> は既に存在するため、作成できません。

別の名前を選択するか、既存のスキーマを削除するか、既存のスキーマを許容する IF NOT EXISTS 句を追加します。

SCHEMA_NOT_EMPTY

SQLSTATE: 2BP01

オブジェクトが含まれているため、スキーマ <schemaName> を削除できません。

スキーマとそのすべてのオブジェクトを削除するには、 DROP SCHEMA...CASCADE を使用します。

SCHEMA_NOT_FOUND

SQLSTATE: 42704

スキーマ <schemaName> が見つかりません。 スキーマとカタログのスペルと正確性を確認します。

カタログで名前を修飾しなかった場合は、current_schema() 出力を確認するか、名前を正しいカタログで修飾します。

ドロップ時のエラーを許容するには、DROP SCHEMA IF EXISTSを使用します。

SCHEMA_REGISTRY_CONFIGURATION_ERROR

SQLSTATE: 42K0G

スキーマ レジストリからのスキーマを初期化できませんでした。 <reason>

SEARCH_INDEX_CATALOG_SCHEMA_MISMATCH

SQLSTATE: 42000

カタログ <indexCatalog>とスキーマ <indexSchema>に検索インデックス <indexName>を作成できません。 インデックスは、ベース テーブル <tableName> (<tableCatalog>.<tableSchema>) と同じカタログとスキーマに作成する必要があります。

SEARCH_INDEX_INVALID_PARAMETERS

SQLSTATE: 42K06

検索インデックスを作成できません。無効なパラメーターが指定されています。

詳細については、SEARCH_INDEX_INVALID_PARAMETERSを参照してください。

SEARCH_INDEX_NAME_CONFLICTS_WITH_TABLE

SQLSTATE: 42P07

インデックス名が <indexName> テーブルは既に存在します。 既存のテーブルと競合しないカスタム インデックス名を指定してください。

SEARCH_INDEX_OUTDATED_SCHEMA

SQLSTATE: KD007

検索インデックス <indexName> に古いスキーマがあります。 次を使用してインデックスを再作成します。

DROP SEARCH INDEX <indexName>;

CREATE SEARCH INDEX <indexName> ON <tableName>(<columnsList>);

SEARCH_REQUIRES_SEARCHABLE_COLUMNS

SQLSTATE: 42809

<context> には、検索可能な型 (STRING COLLATE UTF8_BINARY、 VARIANT、または ARRAY) を持つ列が必要です。

詳細については、SEARCH_REQUIRES_SEARCHABLE_COLUMNSを参照してください

SEARCH_REQUIRES_STRING_LITERALS_ARGUMENTS

SQLSTATE: 42804

SEARCH 引数 <argument> 文字列リテラルである必要がありますが、 <actualExpr> が指定されました。 <possibleOptionsMessage>

SECONDARY_INDEX_REQUIRES_MANAGED_TABLE

SQLSTATE: 42809

<operation> ON TABLE <tableName> を実行できません。 操作は、マネージド テーブルでのみ実行できます。

テーブルをマネージド テーブルに変換するには、 ALTER TABLE <tableName> SET MANAGED コマンドを使用します。

詳細については、https://docs.databricks.com/aws/en/tables/convert-external-managed を参照してください。

SECONDARY_INDEX_UNSUPPORTED_TABLE_FORMAT

SQLSTATE: 42809

できません <operation> ON TABLE <tableName>

操作は、次の形式のテーブルに対してのみ実行できます: <supportedFormats>

DESCRIBE DETAIL <tableName>を使用してテーブル形式を確認します。

現在の形式が Parquet または Apache Iceberg の場合は、 CONVERT TO DELTA <tableName>を使用してインプレースで完全に変換できます。 https://docs.databricks.com/aws/en/sql/language-manual/delta-convert-to-delta

それ以外の場合は、サポートされている形式のいずれかでテーブルを再作成します。

SECOND_FUNCTION_ARGUMENT_NOT_INTEGER

SQLSTATE: 22023

<functionName> 関数の 2 番目の引数は整数である必要があります。

SECRET_FUNCTION_INVALID_LOCATION

SQLSTATE: 42K0E

<commandType> コマンドを、1つ以上の暗号化されていないSECRET関数への参照があるため実行できません。このような各関数呼び出しの結果をAES_ENCRYPTで暗号化し、もう一度コマンドを実行してください。

セキュラブルが存在しません

SQLSTATE: 42P01

<securable> は存在しません。

SEED_EXPRESSION_IS_UNFOLDABLE

SQLSTATE: 42K08

<seedExpr> のシード式 <exprWithSeed> は、折りたたみ可能である必要があります。

SERVER_IS_BUSY

SQLSTATE: 08KD1

サーバーがビジー状態であり、要求を処理できませんでした。 しばらくお待ちください。

SET_QUERY_TAGS_SYNTAX_INVALID

SQLSTATE: 42000

構文が無効であるため、 SET コマンドを実行できませんでした。 このコマンドの構文は、 SET QUERY_TAGS または SET QUERY_TAGS['key'] = 'value' です。 この構文に準拠するようにコマンドを修正してから、もう一度実行してください。

SFTP_DEPRECATED_SSH_RSA_KEY_ALGORITHM

SQLSTATE: 08006

SFTP サーバー <host>:<port> では、キー交換に非推奨の SSH RSA アルゴリズムが使用されています。

ECDSAやED25519など、より安全なアルゴリズムを使用するように SFTP サーバーをアップグレードすることを検討してください。

または、 <escapeHatchConf> を true に設定して、このエラーをバイパスします

SFTP_UNABLE_TO_CONNECT

SQLSTATE: 08006

ユーザー名<host>を使用して、ポート <port>上の SFTP サーバー <user>に接続できませんでした。

<error>

SFTP_不明なホストキー

SQLSTATE: 08006

SFTP サーバー <host> のホスト キーが不明であるか、変更されています。

次のエラー メッセージを確認し、 Key fingerprint フィールドにキーフィンガープリントを入力してください。

たとえば、メッセージに "ECDSA キーフィンガープリントが SHA256:XXX/YYY" と表示されている場合は、キーフィンガープリントとして 'SHA256:XXX/YYY' を送信します。

接続エラー メッセージ:

<error>

SFTP_USER_DOES_NOT_MATCH

SQLSTATE: 08006

資格情報 <credentialUser> から取得したユーザーが、SFTP パス <path>で指定されたユーザーと一致しません。

SHOW_COLUMNS_WITH_CONFLICT_NAMESPACE

SQLSTATE: 42K05

競合する名前空間を持つ SHOW COLUMNS: <namespaceA><namespaceB>と一致しません。

SNOWFLAKE_DATA_SOURCE_OPTIONS_VALIDATION_FAILED

SQLSTATE: 42616

Snowflake データ ソース オプションの検証に失敗しました。

詳細については、SNOWFLAKE_DATA_SOURCE_OPTIONS_VALIDATION_FAILEDを参照してください。

SORT_BY_WITHOUT_BUCKETING

SQLSTATE: 42601

sortBy は bucketBy と共に使用する必要があります。

SPARK_JOB_CANCELLED

SQLSTATE: HY008

ジョブ <jobId> は取り消されました <reason>

SPECIFY_BUCKETING_IS_NOT_ALLOWED

SQLSTATE: 42601

明示的な列リストのない CREATE TABLE では、バケット情報を指定できません。

明示的な列リストを含むフォームを使用し、バケット情報を指定してください。

別の方法として、句を省略して、バケット情報を推論できるようにします。

SPECIFY_CLUSTER_BY_WITH_BUCKETING_IS_NOT_ALLOWED

SQLSTATE: 42908

CLUSTER BYCLUSTERED BY INTO BUCKETSの両方を指定できません。

SPECIFY_CLUSTER_BY_WITH_PARTITIONED_BY_IS_NOT_ALLOWED

SQLSTATE: 42908

CLUSTER BYPARTITIONED BYの両方を指定できません。

SPECIFY_PARTITION_IS_NOT_ALLOWED

SQLSTATE: 42601

明示的な列リストのない CREATE TABLE は、PARTITIONED BYを指定できません。

明示的な列リストを含むフォームを使用し、PARTITIONED BYを指定してください。

または、PARTITION BY 句を省略してパーティション分割を推論することもできます。

SQL_CONF_NOT_FOUND

SQLSTATE: 42K0I

SQL 構成 <sqlConf> が見つかりません。 構成が存在することを確認してください。

SQL_SCRIPT_IN_EXECUTE_IMMEDIATE

SQLSTATE: 07501

EXECUTE IMMEDIATE コマンドの SQL スクリプトは許可されません。 指定された SQL クエリ (<sqlString>) が SQL スクリプトではないことを確認してください。 sql_stringが整形式の SQL ステートメントであり、 BEGIN と END が含まれていないことを確認します。

SQL_SCRIPT_MAX_NUMBER_OF_CHARACTERS_EXCEEDED

SQLSTATE: 54000

SQL スクリプトの最大文字数 (id: <scriptId>) を超えました。 使用できる最大文字数は <maxChars>で、スクリプトには <chars> 文字が含まれています。

SQL_SCRIPT_MAX_NUMBER_OF_LINES_EXCEEDED

SQLSTATE: 54000

SQL スクリプトの最大行数 (id: <scriptId>) を超えました。 許可される行の最大数は <maxLines>であり、スクリプトには <lines> 行がありました。

SQL_SCRIPT_MAX_NUMBER_OF_LOCAL_VARIABLE_DECLARATIONS_EXCEEDED

SQLSTATE: 54KD1

SQL スクリプト内のローカル変数宣言の最大数 (id: <scriptId>) を超えました。 許可される宣言の最大数は <maxDeclarations>され、スクリプトは <declarations>

SQL_STORED_PROCEDURES_NESTED_CALLS_LIMIT_EXCEEDED

SQLSTATE: 54000

入れ子にされたプロシージャ呼び出しの最大数がプロシージャ(名前: <procedureName>、callId: <procedureCallId>)で超過されました。 入れ子になったプロシージャ呼び出しの許可される最大数は <limit>

STAGING_PATH_CURRENTLY_INACCESSIBLE

SQLSTATE: 22000

ターゲットステージングパス <path>アクセス中の一時的なエラー。数分で試してください

STAR_GROUP_BY_POS

SQLSTATE: 0A000

序数位置 GROUP BY を使用する場合、選択リストではスター (*) は使用できません。

STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_HANDLE_STATE

SQLSTATE: 42802

無効なハンドル状態=<operationType> を含むステートフル プロセッサ操作=<handleState> を実行できませんでした。

STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_TIME_MODE

SQLSTATE: 42802

ステートフル プロセッサ操作=<operationType> の実行に失敗しました。無効な timeMode=<timeMode> が原因です。

STATEFUL_PROCESSOR_DUPLICATE_STATE_VARIABLE_DEFINED

SQLSTATE: 42802

名前 <stateVarName> を持つ状態変数は、StatefulProcessor で既に定義されています。

STATEFUL_PROCESSOR_INCORRECT_TIME_MODE_TO_ASSIGN_TTL

SQLSTATE: 42802

timeMode=<stateName>で state=<timeMode> に TTL を使用できません。代わりに TimeMode.ProcessingTime() を使用してください。

STATEFUL_PROCESSOR_TTL_DURATION_MUST_BE_POSITIVE

SQLSTATE: 42802

状態 <operationType> に対する状態ストア操作 <stateName> では、TTL 期間はゼロより大きくする必要があります。

STATEFUL_PROCESSOR_UNKNOWN_TIME_MODE

SQLSTATE: 42802

不明な時間モード <timeMode>。 許容される timeMode モードは 'none'、'processingTime'、'eventTime' です

STATE_REPARTITION_INVALID_CHECKPOINT

SQLSTATE: 55019

指定されたチェックポイントの場所 '<checkpointLocation>' が無効な状態です。

詳細については、STATE_REPARTITION_INVALID_CHECKPOINTを参照してください。

STATE_REPARTITION_INVALID_PARAMETER

SQLSTATE: 42616

repartition パラメーター <parameter> が無効です。

詳細については、STATE_REPARTITION_INVALID_PARAMETERを参照してください。

STATE_STORE_CANNOT_CREATE_COLUMN_FAMILY_WITH_RESERVED_CHARS

SQLSTATE: 42802

サポートされていない開始文字と name=<colFamilyName>を持つ列ファミリを作成できませんでした。

STATE_STORE_CANNOT_USE_COLUMN_FAMILY_WITH_INVALID_NAME

SQLSTATE: 42802

無効な名前 <operationName> を含む列ファミリ操作 <colFamilyName> の実行に失敗しました。 列名を空にしたり、先頭または末尾のスペースを含めたり、予約済みキーワード =default を使用したりすることはできません。

STATE_STORE_CHECKPOINT_IDS_NOT_SUPPORTED

SQLSTATE: KD002

<msg>

STATE_STORE_CHECKPOINT_LOCATION_NOT_EMPTY

SQLSTATE: 42K03

チェックポイントの場所 <checkpointLocation> はバッチ 0 で空にする必要があります

新しいチェックポイントの場所を使用するか、チェックポイントの場所にある既存のデータを削除してください。

STATE_STORE_COLUMN_FAMILY_SCHEMA_INCOMPATIBLE

SQLSTATE: 42802

列ファミリ =<colFamilyName>、oldSchema=<oldSchema>、newSchema=<newSchema>と互換性のないスキーマ変換。

STATE_STORE_DOES_NOT_SUPPORT_REUSABLE_ITERATOR

SQLSTATE: 42K06

StateStore <inputClass> では、再利用可能な反復子はサポートされていません。

STATE_STORE_HANDLE_NOT_INITIALIZED

SQLSTATE: 42802

この StatefulProcessor のハンドルが初期化されていません。

transformWithState 演算子内でのみ StatefulProcessor を使用してください。

STATE_STORE_INCORRECT_NUM_ORDERING_COLS_FOR_RANGE_SCAN

SQLSTATE: 42802

範囲スキャンエンコーダーでの順序付け序数が不正です:<numOrderingCols>。 順序付け序数の数を 0 またはスキーマ列の数より大きくすることはできません。

STATE_STORE_INCORRECT_NUM_PREFIX_COLS_FOR_PREFIX_SCAN

SQLSTATE: 42802

プレフィックススキャンエンコーダーの接頭辞列の数が正しくなく、<numPrefixCols> になっています。 プレフィックス列はゼロであってはならず、スキーマ列の数以上であってもいけません。

STATE_STORE_INVALID_AVRO_SCHEMA

SQLSTATE: 3F000

Avro エンコードの無効なスキーマが検出されました。

詳細については、STATE_STORE_INVALID_AVRO_SCHEMAを参照してください。

STATE_STORE_INVALID_CONFIG_AFTER_RESTART

SQLSTATE: 42K06

再起動の間に <configName><oldConfig> から <newConfig> に変更することはできません。 <configName><oldConfig>に設定するか、新しいチェックポイント ディレクトリで再起動してください。

STATE_STORE_INVALID_PROVIDER

SQLSTATE: 42K06

指定された状態ストア プロバイダー <inputClass> では、org.apache.spark.sql.execution.streaming.state.StateStoreProvider は拡張されません。

STATE_STORE_INVALID_VARIABLE_TYPE_CHANGE

SQLSTATE: 42K06

クエリの再起動の間に <stateVarName><newType> を変更することはできません。 <stateVarName><oldType>に設定するか、新しいチェックポイント ディレクトリで再起動してください。

STATE_STORE_KEY_SCHEMA_NOT_COMPATIBLE (状態ストアキーのスキーマが互換性がありません)

SQLSTATE: 42000

指定されたキー スキーマが、演算子状態の既存のスキーマと一致しません。

既存のスキーマ=<storedKeySchema>; 指定のスキーマ=<newKeySchema>

スキーマ検証なしでクエリを実行するには、spark.sql.streaming.stateStore.stateSchemaCheck を false に設定します。

スキーマ検証なしで実行すると、非決定論的な動作が行われる可能性があることに注意してください。

STATE_STORE_NATIVE_ROCKSDB_TIMEOUT

SQLSTATE: 58030

ステートフル ストリーミング操作のために RocksDB ステート ストアにアクセスする際、timeout=<funcName> ms 待機した後にネイティブ RocksDB 関数 <timeoutMs> の呼び出しがタイムアウトしました。 エラーが解決しない場合は、もう一度やり直してクラスターを再起動してください。

STATE_STORE_NULL_TYPE_ORDERING_COLS_NOT_SUPPORTED

SQLSTATE: 42802

範囲スキャン エンコーダーでは、index=<fieldName> で name=<index> を持つ null 型の順序付け列はサポートされていません。

STATE_STORE_PROVIDER_DOES_NOT_SUPPORT_FINE_GRAINED_STATE_REPLAY

SQLSTATE: 42K06

指定された状態ストア プロバイダー <inputClass> は、org.apache.spark.sql.execution.streaming.state.SupportsFineGrainedReplay を拡張しません。

そのため、状態データ ソースのオプション snapshotStartBatchId または readChangeFeed はサポートされていません。

STATE_STORE_ROCKSDB_ZIP_ALREADY_EXISTS

SQLSTATE: 42K04

RocksDB スナップショット zip ファイル <zipFilePath> は既に存在します。 これは、スナップショットが DFS に既にアップロードされていることを意味します。

(allowVersionOverwrite=<allowVersionOverwrite>, shouldUseCommitService=<shouldUseCommitService>)

STATE_STORE_STATE_SCHEMA_FILES_THRESHOLD_EXCEEDED

SQLSTATE: 42K06

<numStateSchemaFiles> 状態スキーマ ファイルの数がこのクエリの状態スキーマ ファイルの最大数を超えています: <maxStateSchemaFiles>

追加: <addedColumnFamilies>、 削除: <removedColumnFamilies>

'spark.sql.streaming.stateStore.stateSchemaFilesThreshold' を大きい数値に設定するか、状態スキーマの変更を元に戻してください

STATE_STORE_UNSUPPORTED_OPERATION_ON_MISSING_COLUMN_FAMILY

SQLSTATE: 42802

列ファミリ <operationType> が見つからない場合、状態ストア操作 <colFamilyName> はサポートされません。

STATE_STORE_VALUE_SCHEMA_EVOLUTION_THRESHOLD_EXCEEDED

SQLSTATE: 42K06

<numSchemaEvolutions> 状態スキーマの進化の数が、この列ファミリで許可されている状態スキーマの進化 (<maxSchemaEvolutions>) の最大数を超えています。

問題のある列ファミリ: <colFamilyName>

'spark.sql.streaming.stateStore.valueStateSchemaEvolutionThreshold' を大きい数値に設定するか、状態スキーマの変更を元に戻してください

状態ストアの値スキーマが互換性がありません

SQLSTATE: 42000

指定された値スキーマが、演算子状態の既存のスキーマと一致しません。

既存のスキーマ=<storedValueSchema>; 指定のスキーマ=<newValueSchema>

スキーマ検証なしでクエリを実行するには、spark.sql.streaming.stateStore.stateSchemaCheck を false に設定します。

スキーマ検証なしで実行すると、非決定論的な動作が行われる可能性があることに注意してください。

STATE_STORE_VARIABLE_SIZE_ORDERING_COLS_NOT_SUPPORTED

SQLSTATE: 42802

index=<fieldName> で name=<index> を持つ可変サイズ順序列は、範囲スキャン エンコーダーではサポートされていません。

STATIC_PARTITION_COLUMN_IN_INSERT_COLUMN_LIST

SQLSTATE: 42713

静的パーティション列 <staticName> は、列リストにも指定されます。

STDS_COMMITTED_BATCH_UNAVAILABLE

SQLSTATE: KD006

コミットされたバッチが見つかりません。チェックポイントの場所: <checkpointLocation>。 停止する前に、クエリが実行され、マイクロバッチがコミットされていることを確認します。

STDS_CONFLICT_OPTIONS

SQLSTATE: 42613

<options> オプションを一緒に指定することはできません。 いずれかを指定してください。

STDS_FAILED_TO_READ_OPERATOR_METADATA

SQLSTATE: 42K03

checkpointLocation=<checkpointLocation> および batchId=<batchId>の演算子メタデータを読み取れませんでした。

ファイルが存在しないか、ファイルが破損しています。

ストリーミング クエリを再実行して演算子メタデータを作成し、エラーが解決しない場合は対応するコミュニティまたはベンダーに報告します。

STDS_FAILED_TO_READ_STATE_SCHEMA

SQLSTATE: 42K03

状態スキーマを読み取れませんでした。 ファイルが存在しないか、ファイルが破損しています。 オプション: <sourceOptions>.

ストリーミング クエリを再実行して状態スキーマを構築し、エラーが解決しない場合は対応するコミュニティまたはベンダーに報告します。

STDS_INVALID_OPTION_VALUE

SQLSTATE: 42616

ソース オプション '<optionName>' の値が無効です。

詳細については、STDS_INVALID_OPTION_VALUE を参照してください

STDS_MIXED_CHECKPOINT_FORMAT_VERSIONS_NOT_SUPPORTED

SQLSTATE: KD002

異なるチェックポイント形式のバージョン間での読み取り状態はサポートされていません。

startBatchId=<startBatchId>、endBatchId=<endBatchId>

startFormatVersion=<startFormatVersion>、endFormatVersion=<endFormatVersion>

STDS_NO_PARTITION_DISCOVERED_IN_STATE_STORE

SQLSTATE: KD006

状態にパーティションがありません。 クエリが有効な状態を指していることを再確認してください。 オプション: <sourceOptions>

STDS_OFFSET_LOG_UNAVAILABLE

SQLSTATE: KD006

<batchId> のオフセット ログが存在しません。チェックポイントの場所: <checkpointLocation>

クエリに使用できるバッチ ID を指定してください。状態メタデータ データ ソースを使用して、使用可能なバッチ ID を照会できます。

STDS_OFFSET_METADATA_LOG_UNAVAILABLE

SQLSTATE: KD006

<batchId>、チェックポイントの場所: <checkpointLocation>のオフセット ログにはメタデータを使用できません。

チェックポイントは、古い Spark バージョンでのみ実行されているようです。 Spark が状態メタデータを構築できるように、最新の Spark バージョンでストリーミング クエリを実行します。

STDS_REQUIRED_OPTION_UNSPECIFIED

SQLSTATE: 42601

'<optionName>' を指定する必要があります。

STREAMING_AQE_NOT_SUPPORTED_FOR_STATEFUL_OPERATORS

SQLSTATE: 0A000

アダプティブ クエリ実行は、構造化ストリーミングのステートフル演算子ではサポートされていません。

STREAMING_CHECKPOINT_METADATA_ERROR (ストリーミングのチェックポイントメタデータエラー)

SQLSTATE: 42616

ストリーミング チェックポイント メタデータでエラーが発生しました。

詳細については、STREAMING_CHECKPOINT_METADATA_ERRORを参照してください。

STREAMING_CHECKPOINT_PIN_BATCH_ERROR

SQLSTATE: 42000

batchId=<checkpointLocation> でチェックポイントの location=<batchId> を使用したストリーミング クエリのピン操作を実行できませんでした。

詳細については、STREAMING_CHECKPOINT_PIN_BATCH_ERRORを参照してください。

STREAMING_CHECKPOINT_REWIND_ERROR

SQLSTATE: 42000

チェックポイントの location=<checkpointLocation> を使用したストリーミング クエリの巻き戻し操作を実行できませんでした。

詳細については、STREAMING_CHECKPOINT_REWIND_ERRORを参照してください。

STREAMING_CHECKPOINT_REWIND_OPTIONS_ERROR

SQLSTATE: 42616

ストリーミング チェックポイントの巻き戻し操作中にエラーが発生しました。

詳細については、STREAMING_CHECKPOINT_REWIND_OPTIONS_ERRORを参照してください。

STREAMING_FROM_MATERIALIZED_VIEW

SQLSTATE: 0A000

具体化されたビュー <viewName>からストリーミングできません。 具体化されたビューからのストリーミングはサポートされていません。

STREAMING_OUTPUT_MODE

SQLSTATE: 42KDE

ストリーミング出力モードが無効です: <outputMode>

詳細については、STREAMING_OUTPUT_MODE を参照してください。

STREAMING_QUERY_EVOLUTION_ERROR

SQLSTATE: 42000

ストリーミング クエリの進化エラー:

詳細については、STREAMING_QUERY_EVOLUTION_ERRORを参照してください。

STREAMING_RATE_SOURCE_OFFSET_VERSION_MISMATCH

SQLSTATE: KD002

期待されるバージョンは<expectedVersion>ですが、実際にはバージョン<actualVersion>が取得されました。 続行するには、レート ソース オプションでオプション "version" を <expectedVersion> に設定します。 たとえば、spark.readStream.format("rate").option("version", "<expectedVersion>")。

STREAMING_RATE_SOURCE_V2_PARTITION_NUM_CHANGE_UNSUPPORTED

SQLSTATE: 0A000

前のマイクロバッチで使用されたパーティション (<prevNum>) の数は、現在のパーティション数 (<currNum>) とは異なります。 次の 2 つの理由が考えられます。

  1. クエリの再起動中にレート ソースのオプション "numPartitions" が変更されます。

  2. クエリの再起動中にクラスターのサイズが変更される可能性があります。

レート ソースのオプション "numPartitions" を <prevNum> に明示的に設定して、この問題を解決します。

STREAMING_RATE_SOURCE_V2_RAMPUP_TIME_UNSUPPORTED(ストリーミングレートソースV2の立ち上げ時間がサポートされていません)

SQLSTATE: 0A000

"rampUpTime" オプションは、レート バージョン 2 ではサポートされていません。 このオプションを使用するには、オプション "version" を 1 に設定します。 たとえば、spark.readStream.format("rate").option("version", "1")。

STREAMING_REAL_TIME_MODE

SQLSTATE: 0A000

ストリーミング リアルタイム モードには、次の制限があります。

詳細については、STREAMING_REAL_TIME_MODE を参照してください。

ストリーミング リアルタイム ウォーターマーク伝搬

SQLSTATE: 0A000

ストリーミング リアルタイムのウォーターマーク伝播には、次の制限があります。

詳細については、STREAMING_REAL_TIME_WATERMARK_PROPAGATIONを参照してください。

STREAMING_SINK_DELIVERY_MODE

SQLSTATE: 42KDE

ストリーミング シンク配信モードが無効です: <deliveryMode>

詳細については、STREAMING_SINK_DELIVERY_MODEを参照してください。

STREAMING_SKIP_OFFSETS_INVALID_RANGE

SQLSTATE: 42616

スキップ オフセット範囲が無効です。終了オフセット <endOffset> が開始オフセット <startOffset>未満です。 このオフセット範囲を修正して、もう一度やり直してください。

STREAMING_STATEFUL_OPERATOR_MISSING_STATE_DIRECTORY

SQLSTATE: 42K03

ステート ディレクトリが空か不足しているため、ステートフル演算子を使用してストリーミング クエリを再起動できません。

これは通常、状態ファイルが削除された場合、またはストリーミング クエリがステートフル演算子なしで以前に実行されたが、ステートフル演算子で再起動された場合に発生します。

ステートフル演算子を削除するか、新しいチェックポイントの場所を使用するか、不足している状態ファイルを復元してください。

STREAMING_STATEFUL_OPERATOR_NOT_MATCH_IN_STATE_METADATA

SQLSTATE: 42K03

ストリーミングステートフル演算子名が、状態メタデータ内の演算子と一致しません。 これは、ユーザーが既存のストリーミング クエリのステートフル 演算子を追加/削除/変更するときに発生する可能性があります。

メタデータ内のステートフル演算子: [<OpsInMetadataSeq>];現在のバッチのステートフル演算子: [<OpsInCurBatchSeq>]。

STREAMING_TABLE_NEEDS_REFRESH

SQLSTATE: 55019

<tableName>を実行するには、ストリーミング テーブル <operation> を更新する必要があります。

テーブルが DBSQLから作成されている場合は、REFRESH STREAMING TABLE実行してください。

テーブルが Lakeflow Spark 宣言パイプラインのパイプラインによって作成される場合は、パイプラインの更新を実行してください。

STREAMING_TABLE_NOT_SUPPORTED

SQLSTATE: 56038

ストリーミング テーブルは、Lakeflow Spark 宣言パイプラインと Databricks SQL Warehouse でのみ作成および更新できます。

STREAMING_TABLE_OPERATION_NOT_ALLOWED

SQLSTATE: 42601

操作 <operation> は許可されていません。

詳細については、STREAMING_TABLE_OPERATION_NOT_ALLOWED を参照してください

STREAMING_TABLE_QUERY_INVALID

SQLSTATE: 42000

ストリーミング テーブル <tableName> は、ストリーミング クエリからのみ作成できます。 このリレーションシップをストリーミング クエリに変換するには、STREAM キーワードを FROM 句に追加してください。

STREAM_NOT_FOUND_FOR_KINESIS_SOURCE

SQLSTATE: 42K02

<streamName> の Kinesis ストリーム <region> が見つかりません。

正しいストリーム名を指す新しいクエリを開始してください。

STRUCT_ARRAY_LENGTH_MISMATCH

SQLSTATE: 2201E

入力行には、スキーマに必要な値の数が想定されていません。 <expected> フィールドが必要で、<actual> 値が提供されています。

ST_INVALID_ALGORITHM_VALUE

SQLSTATE: 22023

無効またはサポートされていないエッジ補間アルゴリズムの値: '<alg>'。

ST_INVALID_CRS_VALUE

SQLSTATE: 22023

無効またはサポートされていない CRS (座標参照システム) 値: '<crs>'。

ST_INVALID_SRID_VALUE

SQLSTATE: 22023

無効またはサポートされていない SRID (空間参照識別子) 値: <srid>

SUM_OF_LIMIT_AND_OFFSET_EXCEEDS_MAX_INT

SQLSTATE: 22003

LIMIT 句と OFFSET 句の合計は、最大 32 ビット整数値 (2,147,483,647) より大きくすることはできませんが、limit = <limit>、offset = <offset>が見つかりました。

SYNC_METADATA_DELTA_ONLY

SQLSTATE: 0AKDD

テーブル同期メタデータの修復コマンドは、デルタ テーブルでのみサポートされています。

SYNC_SRC_TARGET_TBL_NOT_SAME

SQLSTATE: 42KD2

ソース テーブル名 <srcTable> は、変換先テーブル名 <destTable>と同じである必要があります。

SYNTAX_DISCONTINUED

SQLSTATE: 42601

句またはキーワードのサポート: <clause> は、このコンテキストで廃止されました。

詳細については、SYNTAX_DISCONTINUED を参照してください。

テーブル引数は許可されていません

SQLSTATE: 42601

TABLE パラメーターは、 <routineType>ではサポートされていません。

TABLE_NOT_VALID_SECONDARY_INDEX

SQLSTATE: 42809

テーブル <tableName>が有効な<indexType> インデックスではないため、DESCRIBE SEARCH INDEX コマンドを実行できませんでした。 有効なインデックスを使用するようにコマンドを更新し、もう一度やり直してください。

TABLE_OR_VIEW_ALREADY_EXISTS

SQLSTATE: 42P07

テーブルまたはビュー <relationName> は既に存在するため作成できません。

別の名前を選択し、既存のオブジェクトを削除し、既存のオブジェクトを許容する IF NOT EXISTS 句を追加するか、既存の具体化されたビューを置き換える OR REPLACE 句を追加するか、OR REFRESH 句を追加して既存のストリーミング テーブルを更新します。

TABLE_OR_VIEW_NOT_FOUND

SQLSTATE: 42P01

テーブルまたはビュー <relationName> が見つかりません。 スキーマとカタログのスペルと正確性を確認します。

スキーマで名前を修飾しなかった場合は、current_schema() 出力を確認するか、名前を正しいスキーマとカタログで修飾します。

ドロップ時のエラーを許容するには、DROP VIEW IF EXISTS または DROP TABLE IF EXISTSを使用します。

詳細については、TABLE_OR_VIEW_NOT_FOUND を参照してください

TABLE_TYPE_INCOMPATIBLE_WITH_ABAC_POLICY

SQLSTATE: 0AKUC

<tableName>, <tableType>のテーブルの種類は、ABAC ポリシーをサポートしていません。

ポリシーを削除して再試行してください。

TABLE_VALUED_ARGUMENTS_NOT_YET_IMPLEMENTED_FOR_SQL_FUNCTIONS

SQLSTATE: 0A000

まだ実装されていないため、引数 <action> を持つ SQL ユーザー定義関数 <functionName>TABLE することはできません。

TABLE_VALUED_FUNCTION_FAILED_TO_ANALYZE_IN_PYTHON

SQLSTATE: 38000

Python ユーザー定義テーブル関数の分析に失敗しました: <msg>

TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INCOMPATIBLE_WITH_CALL

SQLSTATE: 22023

テーブルのメタデータが <functionName>されているため、テーブル関数 <requestedMetadata> を評価できませんでしたが、関数呼び出し <invalidFunctionCallProperty>

TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INVALID

SQLSTATE: 22023

テーブルのメタデータが無効であるため、テーブル関数 <functionName> を評価できませんでした。<reason>.

TABLE_VALUED_FUNCTION_TOO_MANY_TABLE_ARGUMENTS

SQLSTATE: 54023

テーブル値関数のテーブル引数が多すぎます。

1 つのテーブル引数を使用できますが、<num> を受け取りました。

許可する場合は、"spark.sql.allowMultipleTableArguments.enabled" を "true" に設定してください

TABLE_WITH_ID_NOT_FOUND

SQLSTATE: 42P01

ID <tableId> を持つテーブルが見つかりません。 UUID の正確性を確認します。

TASK_WRITE_FAILED

SQLSTATE: 58030

<path>への行の書き込み中にタスクが失敗しました。

TEMP_CHECKPOINT_LOCATION_NOT_SUPPORTED

SQLSTATE: 0A000

現在のワークスペースでは、暗黙的な一時ストリーミング チェックポイントの場所はサポートされていません。チェックポイントの場所を明示的に指定してください。

display() の場合は、次を使用してチェックポイントの場所を設定します。

display(df, チェックポイントの場所 = "your_path")

その他のすべてのストリーミング クエリでは、次の値を使用します。

.option("checkpointLocation", "your_path")。

TEMP_TABLE_CREATION_LEGACY_WITH_QUERY

SQLSTATE: 0A000

CREATE TEMPORARY TABLE ... AS ...はサポートされていません。代わりに CREATE TEMPORARY VIEW を使用してください

TEMP_TABLE_CREATION_MUTUAL_EXCLUSIVE_SPECS

SQLSTATE: 0A000

CREATE TEMPORARY TABLE では、 <unsupportedSpec>の指定はサポートされていません。

詳細については、TEMP_TABLE_CREATION_MUTUAL_EXCLUSIVE_SPECSを参照してください。

TEMP_TABLE_CREATION_NAME_RESERVED

SQLSTATE: 42K05

予約名プレフィックス <reservedPrefix>で始まるため、一時テーブル<tableName>を作成できません。 別の名前を選択して再試行してください。

TEMP_TABLE_CREATION_NOT_SUPPORTED_IN_COMPUTE

SQLSTATE: 0A000

CREATE TEMPORARY TABLE [AS ... ]は、現在のコンピューティングの種類ではサポートされていません。 代わりに、Databricks SQL (DBSQL) を使用して、セッション ローカルの一時テーブルを作成してください。

TEMP_TABLE_CREATION_REQUIRES_SINGLE_PART_NAME

SQLSTATE: 42K05

セッションローカルの一時テーブルを作成するには、単一の要素テーブル名が必要ですが、<tableName>が指定されました。 単一部分のテーブル名を使用するようにコマンドを更新し、もう一度やり直してください。

TEMP_TABLE_CREATION_UNSUPPORTED_LEGACY_SYNTAX_WITH_HINTS

SQLSTATE: 0A000

CREATE TEMPORARY TABLE ... USING ... AS ...はサポートされていません。 一時テーブルを作成するには、 USING 句を削除して再試行してください。

TEMP_TABLE_DELETION_MUTUAL_EXCLUSIVE_SPECS

SQLSTATE: 0A000

DROP TEMPORARY TABLE は、 <unsupportedSpec>の指定をサポートしていません。この仕様を削除するか、代わりに DROP TABLE コマンドを使用して永続的なテーブルを削除してください。

TEMP_TABLE_DELETION_REQUIRES_SINGLE_PART_NAME

SQLSTATE: 42K05

セッション ローカルの一時テーブルを削除するには、単一部分のテーブル名が必要ですが、<tableName>が渡されました。 DROP TEMPORARY TABLE コマンドを更新して単一部分のテーブル名を使用して一時テーブルを削除するか、代わりに DROP TABLE コマンドを使用して永続的なテーブルを削除してください。

TEMP_TABLE_NOT_FOUND

SQLSTATE: 42P01

現在のセッションで一時テーブル <tableName> が見つかりません。 テーブル名のスペルと正確性を確認し、クエリまたはコマンドをもう一度やり直してください。

ドロップ時のエラーを許容するには、TEMP DROPTABLE IF EXISTS使用します。

一時テーブルはDatabricksジョブではサポートされていません

SQLSTATE: 0A000

Databricks ジョブでは、一時テーブルはまだサポートされていません。 代わりに Databricks Notebooks で使用し、詳細については Databricks サポートにお問い合わせください。

TEMP_TABLE_NOT_SUPPORTED_WITH_HMS

SQLSTATE: 0A000

Hive メタストアでは、一時テーブル操作 <operation> はサポートされていません。

TEMP_TABLE_OPERATION_NOT_SUPPORTED

SQLSTATE: 0A000

セッションローカルの一時テーブル <tableName> に対する操作はサポートされていません。

詳細については、TEMP_TABLE_OPERATION_NOT_SUPPORTED を参照してください

TEMP_TABLE_OPERATION_NOT_SUPPORTED_IN_V1_COMMAND

SQLSTATE: 0A000

<operation> V1 コマンドでは、一時テーブルではサポートされていません。 'spark.sql.legacy.useV1Command' を false に設定して再試行してください。

TEMP_TABLE_OR_VIEW_ALREADY_EXISTS

SQLSTATE: 42P07

一時テーブルまたはビュー <relationName> は既に存在するため、作成できません。

別の名前を選択し、既存のオブジェクトを削除または置き換えます。

TEMP_TABLE_REPLACE_NOT_SUPPORTED

SQLSTATE: 0A000

[CREATE OR] REPLACE TEMPORARY TABLE はサポートされていません。 既存の一時テーブルを置き換えるには、 DROP TEMPORARY TABLE ... を使用して削除します。[IF EXISTS] CREATE TEMPORARY TABLE ... を使用して再作成します。

TEMP_TABLE_REQUIRES_DATABRICKS_ENV

SQLSTATE: 0AKDD

セッション ローカルの一時テーブルに対する操作には、Databricks 環境が必要です。

TEMP_TABLE_REQUIRES_DELTA

SQLSTATE: 0AKDD

セッション ローカルの一時テーブルに対する操作では、Delta カタログを有効にする必要があります。 Delta カタログを有効にして、再試行してください。

TEMP_TABLE_REQUIRES_UC

SQLSTATE: 0AKUD

セッション ローカルの一時テーブルに対する操作には、Unity カタログが必要です。 実行中の環境で Unity カタログを有効にして、再試行してください。

TEMP_VIEW_NAME_TOO_MANY_NAME_PARTS

SQLSTATE: 428EK

CREATE TEMPORARY VIEW または対応するデータセット API は単一パートのビュー名のみを受け入れますが、<actualName>が入力されました。

THETA_INVALID_INPUT_SKETCH_BUFFER

SQLSTATE: 22546

<function>の呼び出しが無効です。有効な Theta スケッチ バッファーのみが入力としてサポートされます (theta_sketch_agg関数によって生成されたものなど)。

THETA_INVALID_LG_NOM_ENTRIES

SQLSTATE: 22546

<function>の呼び出しが無効です。lgNomEntries の値は、<min><max>の間 (<value>を含む) である必要があります。

THETA_LG_NOM_ENTRIES_MUST_BE_CONSTANT

SQLSTATE: 42K0E

<function>の呼び出しが無効です。lgNomEntries値は定数値である必要がありますが、定数以外の式を取得しました。

TRAILING_COMMA_IN_SELECT

SQLSTATE: 42601

SELECT 句で末尾のコンマが検出されました。 FROM 句の前の末尾のコンマを削除します。

TRANSACTION_CDF_SCHEMA_WITH_RESERVED_COLUMN_NAME

SQLSTATE: 42939

テーブルに予約列名 (<column_name>) が含まれているため、トランザクションで変更データ フィードを有効にすることはできません。

続行するには、予約されていない列名のみがテーブルで使用されていることを確認します。

TRANSACTION_CDF_SETTING_HIGH_WATERMARK_NOT_ALLOWED

SQLSTATE: 25000

CDC アイデンティティのハイウォーターマークを手動で設定することはできません。

TRANSACTION_CONCURRENT_CATALOG_METADATA_CHANGE

SQLSTATE: 40000

オブジェクト <table>で同時メタデータの変更が検出されました。 ROLLBACK実行してから、このトランザクションを再試行してください。 Details:

詳細については、TRANSACTION_CONCURRENT_CATALOG_METADATA_CHANGEを参照してください。

TRANSACTION_CONTEXT_MISMATCH

SQLSTATE: 25000

現在のスレッドと Spark セッションの間でトランザクション コンテキストの不整合が検出されました。 これは通常、Spark セッションが複数のスレッドで共有されている場合に発生します。 各トランザクションに専用のセッションとスレッドを使用し、新しいトランザクションのセッションとスレッドを再利用する前に、そのスレッドでトランザクションをコミット/ロールバックしてください。 Details:

詳細については、TRANSACTION_CONTEXT_MISMATCHを参照してください。

TRANSACTION_MAX_COMMIT_TIMESTAMP_EXCEEDED

SQLSTATE: 25000

最大コミット タイムスタンプを超えた場合、トランザクションはコミットできません。 maxCommitTimestamp:<maxCommitTimestampMs> commitTimestamp:<commitTimestampMs>

TRANSACTION_NOT_SUPPORTED

SQLSTATE: 0A000

ステートメントを実行できませんでした。

詳細については、TRANSACTION_NOT_SUPPORTEDを参照してください。

TRANSACTION_ROLLBACK_REQUIRED_AFTER_ABORT

SQLSTATE: 40000

現在のトランザクションが中止されました。 続行する前に、 ROLLBACK TRANSACTION を実行してください。 中止の理由:

詳細については、TRANSACTION_ROLLBACK_REQUIRED_AFTER_ABORTを参照してください。

TRANSFORM_WITH_STATE_USER_FUNCTION_ERROR

SQLSTATE: 39000

StatefulProcessor のユーザー定義関数 <function> でエラーが発生しました。 理由: <reason>

TRANSPOSE_EXCEED_ROW_LIMIT

SQLSTATE: 54006

行数が、<maxValues>TRANSPOSEの許容制限を超えています。 これが意図されている場合は、 <config> を少なくとも現在の行数に設定します。

TRANSPOSE_INVALID_INDEX_COLUMN

SQLSTATE: 42804

次の理由で、 TRANSPOSE のインデックス列が無効です。 <reason>

TRANSPOSE_NO_LEAST_COMMON_TYPE

SQLSTATE: 42K09

Transposeでは、インデックス以外の列が共通の型を持つ必要がありますが、<dt1><dt2> はそうではありません。

TRIGGER_INTERVAL_INVALID

SQLSTATE: 22003

トリガー間隔は、秒全体に変換できる正の期間である必要があります。 <actual> 秒を受け取りました。

TUPLE_IS_EMPTY

SQLSTATE: 22004

Scala のタプルのサポートが限られているため、空のタプルはサポートされていません。

TUPLE_SIZE_EXCEEDS_LIMIT

SQLSTATE: 54011

Scala のタプルのサポートが限られているため、22 を超える要素を持つタプルはサポートされていません。

UC_BUCKETED_TABLES

SQLSTATE: 0AKUC

バケットテーブルは Unity カタログではサポートされていません。

UC_CATALOG_NAME_NOT_PROVIDED

SQLSTATE: 3D000

Unity カタログの場合は、カタログ名を明示的に指定してください。 例: SHOW GRANT your.address@email.com ON CATALOG main。

UC_COMMAND_NOT_SUPPORTED

SQLSTATE: 0AKUC

コマンド: <commandName> は Unity カタログではサポートされていません。

詳細については、UC_COMMAND_NOT_SUPPORTED を参照してください

UC_COMMAND_NOT_SUPPORTED_IN_SERVERLESS

SQLSTATE: 0AKUC

コマンド: <commandName> は、サーバーレスの Unity カタログ クラスターではサポートされていません。 代わりに、単一ユーザーまたは共有クラスターを使用してください。

UC_COMMAND_NOT_SUPPORTED_IN_SHARED_ACCESS_MODE

SQLSTATE: 0AKUC

コマンド: <commandName> は、共有アクセス モードの Unity カタログ クラスターではサポートされていません。 代わりにシングル ユーザー アクセス モードを使用してください。

UC_CONNECTION_NOT_FOUND_FOR_FILE_SYSTEM_SOURCE_ACCESS

SQLSTATE: 42704

<path>を評価した後、<connectionNames>にアクセスするための有効な UC 接続が見つかりませんでした。

ターゲット パスにアクセスするために、少なくとも 1 つの有効な UC 接続を使用できることを確認します。

評価された接続の詳細なエラー:

<connectionErrors>

UC_CREDENTIAL_PURPOSE_NOT_SUPPORTED

SQLSTATE: 0AKUC

指定された資格情報の種類はサポートされていません。

UC_DATASOURCE_NOT_SUPPORTED

SQLSTATE: 0AKUC

データ ソース形式 <dataSourceFormatName> は、Unity カタログではサポートされていません。

UC_DATASOURCE_OPTIONS_NOT_SUPPORTED

SQLSTATE: 0AKUC

データ ソース オプションは、Unity カタログではサポートされていません。

UC_DEPENDENCY_DOES_NOT_EXIST

SQLSTATE: 42P01

Unity カタログに依存関係が存在しません。

<errorMessage>

UC_EXTERNAL_VOLUME_MISSING_LOCATION

SQLSTATE: 42601

外部ボリュームには LOCATION 句が存在する必要があります。 構文 'CREATE EXTERNAL VOLUME...LOCATION ...' を確認してください。外部ボリュームを作成します。

UC_FAILED_PROVISIONING_STATE

SQLSTATE: 0AKUC

クエリはテーブル <tableName> を参照しようとしましたが、これを行うことができなかったため失敗しました: <failureReason>。 テーブル <tableName> を更新して、アクティブなプロビジョニング状態であることを確認してから、クエリをもう一度やり直してください。

UC_FILE_SCHEME_FOR_TABLE_CREATION_NOT_SUPPORTED

SQLSTATE: 0AKUC

ファイル スキーム <schemeName> を使用した Unity カタログでのテーブルの作成はサポートされていません。

代わりに、同じテーブル プロバイダーの CREATE CONNECTION コマンドを使用してフェデレーション データ ソース接続を作成してから、CREATE FOREIGN CATALOG コマンドを使用して接続に基づいてカタログを作成し、そこにテーブルを参照してください。

UC_HIVE_METASTORE_DISABLED_EXCEPTION

SQLSTATE: 0A000

操作で Hive Metastore<identifier> を使用しようとしました。これは、アカウントまたはワークスペースでレガシ アクセスが無効になっているために無効になっています。 現在のセッションの既定のカタログと既定の名前空間設定を再確認してください。 Hive メタストアにアクセスする必要がある場合は、管理者に Unity カタログを使用して Hive メタストア フェデレーションを設定するよう依頼してください。

UC_HIVE_METASTORE_FEDERATION_CROSS_CATALOG_VIEW_NOT_SUPPORTED

SQLSTATE: 56038

Hive Metastore フェデレーション ビューでは、複数のカタログ間の依存関係はサポートされていません。 Hive Metastore フェデレーション カタログのビュー <view> は、hive_metastoreまたはspark_catalog カタログからの依存関係を使用する必要がありますが、依存関係 <dependency> は別のカタログ <referencedCatalog>にあります。 この制約を満たすように依存関係を更新してから、クエリまたはコマンドをもう一度やり直してください。

UC_HIVE_METASTORE_FEDERATION_NOT_ENABLED

SQLSTATE: 0A000

Hive Metastore フェデレーションは、このクラスターでは有効になっていません。

カタログ <catalogName> へのアクセスは、このクラスターではサポートされていません

UC_INVALID_DEPENDENCIES

SQLSTATE: 56098

<securable> の依存関係は <storedDeps> として記録されていますが、<parsedDeps> として解析されています。 これは、SQL 以外の API を不適切に使用して発生した可能性があります。

詳細については、UC_INVALID_DEPENDENCIESを参照してください。

UC_INVALID_NAMESPACE

SQLSTATE: 0AKUC

入れ子になった名前空間または空の名前空間は、Unity カタログではサポートされていません。

UC_INVALID_REFERENCE

SQLSTATE: 0AKUC

Unity-Catalog 以外のオブジェクト <name> は、Unity Catalog オブジェクトでは参照できません。

UC_LAKEHOUSE_FEDERATION_WRITES_NOT_ALLOWED

SQLSTATE: 56038

Unity Catalog Lakehouse Federation の書き込みサポートは、このクラスターのプロバイダー <provider> では有効になっていません。

UC_LOCATION_FOR_MANAGED_VOLUME_NOT_SUPPORTED

SQLSTATE: 42601

マネージド ボリュームは、LOCATION 句を受け入れません。 マネージド ボリュームを作成するために、構文 'CREATE VOLUME ...' を確認してください。

UC_NOT_ENABLED

SQLSTATE: 56038

Unity カタログは、このクラスターでは有効になっていません。

UC_QUERY_FEDERATION_NOT_ENABLED

SQLSTATE: 56038

Unity カタログ クエリ フェデレーションは、このクラスターでは有効になっていません。

UC_RESOLVED_DBFS_PATH_MISMATCH

SQLSTATE: 0AKUC

クエリは、 <objectType> <name> を参照しようとしましたが、実行できませんでした:解決された DBFS パス <resolvedHmsPath> が Unity カタログの保存場所 <ucStorageLocation>と一致しません。

UC_機密情報_未有効化

SQLSTATE: 56038

Unity カタログ シークレットのサポートが有効になっていません。

UC_SECRETはすでに存在します

SQLSTATE: 42713

シークレット <name> は既に存在するため、作成できません。

別の名前を選択するか、既存のオブジェクトを削除または置き換えるか、既存のオブジェクトを許容する IF NOT EXISTS 句を追加します。

UC_SECRET_NOT_FOUND

SQLSTATE: 42704

シークレット <name> が存在しません。 'SHOW SECRETS' を使用して、使用可能なシークレットを一覧表示します。

UC_SERVICE_CREDENTIALS_NOT_ENABLED

SQLSTATE: 56038

このクラスターでは、サービス資格情報は有効になっていません。

UC_TABLE_METADATA_OUT_OF_SYNC

SQLSTATE: 55019

テーブルメタデータがカタログ内で同期されていないため、テーブルの <tableName> にクエリを実行できません。 最初に 'MSK REPAIR TABLE <tableName> SYNC METADATA' を実行してメタデータを同期することで、テーブルを修復します。

UC_UNCAUGHT_CLIENT_EXCEPTION

SQLSTATE: KCUC4

Databricks Unity カタログ バックエンドとの通信中に予期しない HTTP エラーが発生しました。 エラー コード: <errCode>。 メッセージ: <message>

UC_VOLUMES_NOT_ENABLED

SQLSTATE: 56038

このインスタンスでは、Unity カタログ ボリュームのサポートは有効になっていません。

UC_VOLUMES_NOT_SUPPORTED

SQLSTATE: 0A000

ボリュームは、この操作ではサポートされていません。 指定したパスは '<path>' でした。

UC_VOLUMES_SHARING_NOT_ENABLED

SQLSTATE: 56038

このインスタンスでは、ボリューム共有のサポートは有効になっていません。

UC_VOLUME_NOT_FOUND

SQLSTATE: 42704

ボリューム <name> が存在しません。 使用可能なボリュームを一覧表示するには、'SHOW VOLUMES' を使用してください。

UDF_ENVIRONMENT_ERROR

SQLSTATE: 39000

システム エラーのため、 <udfName> の UDF 依存関係をインストールできませんでした。

詳細については、UDF_ENVIRONMENT_ERROR を参照してください。

UDF_ENVIRONMENT_USER_ERROR

SQLSTATE: 39000

<udfName>の UDF 依存関係をインストールできませんでした。

詳細については、UDF_ENVIRONMENT_USER_ERRORを参照してください。

UDF_ERROR

SQLSTATE: 割り当てなし

関数の実行 <fn> 失敗しました

詳細については、UDF_ERROR を参照してください。

UDF_LIMITS

SQLSTATE: 54KD0

1 つ以上の UDF 制限に違反しました。

詳細については、UDF_LIMITS を参照してください。

UDF_MAX_COUNT_EXCEEDED

SQLSTATE: 54KD0

クエリ全体での UDF 制限 (UDF <maxNumUdfs> 個) を超えました (パブリック プレビュー中は制限されます)。 <numUdfs>が見つかりました。 UDF は <udfNames> です。

UDF_PYSPARK_ERROR

SQLSTATE: 39000

Python worker が予期せず終了しました

詳細については、UDF_PYSPARK_ERROR を参照してください。

UDF_PYSPARK_UNSUPPORTED_TYPE

SQLSTATE: 0A000

PySpark UDF <udf> (<eval-type>) は、共有アクセス モードのクラスターではサポートされていません。

UDF_PYSPARK_USER_CODE_ERROR

SQLSTATE: 39000

実行に失敗しました。

詳細については、UDF_PYSPARK_USER_CODE_ERROR を参照してください。

UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE

SQLSTATE: 0A000

パラメーターの既定値は、ユーザー定義の <functionType> 関数ではサポートされていません。

UDF_USER_CODE_ERROR

SQLSTATE: 39000

関数の実行 <fn> 失敗しました。

詳細については、UDF_USER_CODE_ERROR を参照してください。

UDTF_ALIAS_NUMBER_MISMATCH

SQLSTATE: 42802

AS句で指定されたエイリアスの数が、UDTF によって出力される列の数と一致しません。

<aliasesSize> のエイリアスを期待していましたが、結果は <aliasesNames>でした。

指定されたエイリアスの数が、UDTF によって出力される列の数と一致していることを確認してください。

UDTF_INVALID_ALIAS_IN_REQUESTED_ORDERING_STRING_FROM_ANALYZE_METHOD

SQLSTATE: 42802

'analyze' メソッドが要求された OrderingColumn を返したため、ユーザー定義テーブル関数を評価できませんでした。列名の式に不要なエイリアス <aliasName>が含まれています。このエイリアスを削除してから、もう一度クエリを実行してください。

UDTF_INVALID_REQUESTED_SELECTED_EXPRESSION_FROM_ANALYZE_METHOD_REQUIRES_ALIAS

SQLSTATE: 42802

'analyze' メソッドが、対応するエイリアスを含まない要求された 'select' 式 (<expression>) を返したため、ユーザー定義テーブル関数を評価できませんでした。UDTF を更新してエイリアスを指定してから、もう一度クエリを実行してください。

UNABLE_TO_CONVERT_TO_PROTOBUF_MESSAGE_TYPE

SQLSTATE: 42K0G

SQL 型 <toType> を Protobuf 型 <protobufType>に変換できません。

UNABLE_TO_FETCH_HIVE_TABLES

SQLSTATE: 58030

Hive データベース: <dbName> のテーブルをフェッチできません。 エラー クラス名: <className>

パイプラインテーブルスキーマを推論できません (UNABLE_TO_INFER_PIPELINE_TABLE_SCHEMA)

SQLSTATE: 42KD9

アップストリーム フローからテーブル <tableName> のスキーマを推論できませんでした。

スキーマに互換性を持たせるために、このテーブルに書き込むフローを変更してください。

これまでに推論されたスキーマ:

<inferredDataSchema>

互換性のないスキーマ:

<incompatibleDataSchema>

UNABLE_TO_INFER_SCHEMA

SQLSTATE: 42KD9

<format>のスキーマを推論できません。 手動で指定する必要があります。

未認証

SQLSTATE: 08000

要求に操作の有効な認証資格情報がありません。

UNAUTHORIZED_ACCESS

SQLSTATE: 42501

未承認のアクセス:

<report>

UNBOUND_SQL_PARAMETER

SQLSTATE: 42P02

バインドされていないパラメーターが見つかりました: <name>args修正し、SQL リテラルまたはコレクション コンストラクター関数 (map(), array(), struct() など) へのパラメーターのマッピングを指定してください。

UNCLOSED_BRACKETED_COMMENT

SQLSTATE: 42601

未閉じの括弧で囲まれたコメントが見つかりました。 コメントの末尾に */ を追加してください。

UNEXPECTED_INPUT_TYPE

SQLSTATE: 42K09

関数 <paramIndex> のパラメーター <functionName> には <requiredType> 型が必要ですが、<inputSql> には型 <inputType>があります。

UNEXPECTED_INPUT_TYPE_OF_NAMED_PARAMETER

SQLSTATE: 42K09

関数 <namedParamKey><functionName> パラメーターには <requiredType> 型が必要ですが、<inputSql> には型が <inputType><hint>

UNEXPECTED_OPERATOR_IN_STREAMING_VIEW

SQLSTATE: 42KDD

<op> ステートメント内でストリーミング ソースとして予期しない演算子 CREATE VIEW が見つかりました。

ストリーミング ビュー クエリは、 SELECT, WHERE操作と UNION ALL 操作のみで構成する必要があります。

UNEXPECTED_POSITIONAL_ARGUMENT

SQLSTATE: 4274K

ルーチン <routineName> には、<parameterName>に割り当てられた名前付き引数の後に位置引数が含まれているため、呼び出すことができません。位置引数が最初に来るように再配置してから、クエリをもう一度やり直してください。

UNEXPECTED_SERIALIZER_FOR_CLASS

SQLSTATE: 42846

クラス <className> には、予期しない式シリアライザーがあります。 "STRUCT" または "IF" を予期します。この値は "STRUCT" を返しますが、 <expr>が見つかりました。

UNION_NOT_SUPPORTED_IN_RECURSIVE_CTE

SQLSTATE: 42836

UNION演算子は、再帰的な共通テーブル式 (直接または間接的に参照するWITH句) 内ではまだサポートされていません。 代わりに UNION ALL を使用してください。

ユニーク制約が無効化されました

SQLSTATE: 0A000

一意制約機能が無効になっています。 有効にするには、"spark.databricks.sql.dsv2.unique.enabled" を true に設定します。

UNKNOWN_FIELD_EXCEPTION

SQLSTATE: KD003

解析中に <changeType> が発生しました: <unknownFieldBlob>。自動再試行によって修正できます: <isRetryable>

詳細については、UNKNOWN_FIELD_EXCEPTION を参照してください。

UNKNOWN_POSITIONAL_ARGUMENT

SQLSTATE: 4274K

ルーチン <routineName> の呼び出しには、<sqlExpr>位置に <pos> 不明な位置引数が含まれています。 これは無効です。

UNKNOWN_PRIMITIVE_TYPE_IN_VARIANT

SQLSTATE: 22023

id <id> を持つ不明なプリミティブ型がバリアント値で見つかりました。

UNKNOWN_PROTOBUF_MESSAGE_TYPE

SQLSTATE: 42K0G

<descriptorName> をメッセージとして扱おうとしましたが、それは実際には <containingType>でした。

UNPIVOT_REQUIRES_ATTRIBUTES

SQLSTATE: 42K0A

UNPIVOT は、<given> 式が与えられていない場合、指定されたすべての <empty> 式が列であることを要求します。 これらは列ではありません: [<expressions>]。

UNPIVOT_REQUIRES_VALUE_COLUMNS

SQLSTATE: 42K0A

UNPIVOTに少なくとも 1 つの値列を指定する必要があります。すべての列は ID として指定されます。

UNPIVOT_VALUE_DATA_TYPE_MISMATCH

SQLSTATE: 42K09

ピボット解除値列は極めてまれな型を共有する必要がありますが、一部の型 [<types>] がそれに該当しません。

UNPIVOT_VALUE_SIZE_MISMATCH

SQLSTATE: 428C4

ピボット解除されたすべての値列のサイズは、値の列名 (<names>) と同じである必要があります。

UNRECOGNIZED_PARAMETER_NAME

SQLSTATE: 4274K

ルーチン呼び出しには <routineName>という名前の引数の名前付き引数参照が含まれているため、ルーチン <argumentName> を呼び出すことはできませんが、このルーチンには、この名前の引数を含むシグネチャは含まれません。 次のいずれかの意味でしたか? [<proposal>]。

UNRECOGNIZED_SQL_TYPE

SQLSTATE: 42704

認識できない SQL の種類 - 名前: <typeName>、id: <jdbcType>

UNRECOGNIZED_STATISTIC

SQLSTATE: 42704

統計 <stats> は認識されません。 有効な統計には、 count, count_distinct, approx_count_distinct, mean, stddev, min, maxとパーセンタイル値が含まれます。 パーセンタイルは、0% ~ 100%の範囲内で、数値の後に '%' を指定する必要があります。

UNRESOLVABLE_TABLE_VALUED_FUNCTION

SQLSTATE: 42883

テーブル値関数に <name> を解決できませんでした。

<name> がテーブル値関数として定義されていること、および必要なすべてのパラメーターが正しく指定されていることを確認してください。

<name> が定義されていない場合は、テーブル値関数を使用する前に作成してください。

テーブル値関数の定義の詳細については、Apache Spark のドキュメントを参照してください。

UNRESOLVED_ALL_IN_GROUP_BY

SQLSTATE: 42803

select 句に基づいて GROUP BY ALL のグループ化列を推論することはできません。 グループ化列を明示的に指定してください。

UNRESOLVED_COLUMN

SQLSTATE: 42703

名前が <objectName> 列、変数、または関数パラメーターは解決できません。

詳細については、UNRESOLVED_COLUMN を参照してください。

UNRESOLVED_COLUMN_AMONG_FIELD_NAMES

SQLSTATE: 42703

(<fieldNames>) 間で列名 "<colName>" を解決できません。

UNRESOLVED_FIELD

SQLSTATE: 42703

名前 <fieldName> を持つフィールドは、構造体型の列 <columnPath>で解決できません。

詳細については、UNRESOLVED_FIELD を参照してください。

UNRESOLVED_INSERT_REPLACE_USING_COLUMN

SQLSTATE: 42703

REPLACE USING<colName><relationType>で解決できません。

次のいずれかの列を指していますか? [<suggestion>]。

UNRESOLVED_MAP_KEY

SQLSTATE: 42703

<objectName> をマップ キーとして解決できません。 キーが文字列リテラルの場合は、その周囲に単一引用符 '' を追加します。

詳細については、UNRESOLVED_MAP_KEY を参照してください。

UNRESOLVED_ROUTINE

SQLSTATE: 42883

検索パス <routineName>のルーチン <searchPath> を解決できません。

<routineName>のスペルを確認し、ルーチンが存在することを確認し、カタログとスキーマに対する USE 権限を持っていることを確認し、ルーチンに対する EXECUTE 権限を持っていることを確認してください。

詳細については、UNRESOLVED_ROUTINE を参照してください。

UNRESOLVED_TABLE_PATH

SQLSTATE: 22KD1

テーブル <identifier> のストレージ パスを解決できません。

UNRESOLVED_USING_COLUMN_FOR_JOIN

SQLSTATE: 42703

USING<colName> は、結合の <side> 側では解決できません。 <side> 側の列: [<suggestion>]。

UNRESOLVED_VARIABLE

SQLSTATE: 42883

検索パス <variableName>の変数 <searchPath> を解決できません。

UNSTRUCTURED_DATA_PROCESSING_UNSUPPORTED_FILE_FORMAT

SQLSTATE: 0A000

非構造化ファイル形式 <format> はサポートされていません。 サポートされているファイル形式は <supportedFormats>

format 式からサポートされている形式のいずれかに <expr> を更新してから、もう一度クエリを再試行してください。

UNSTRUCTURED_DATA_PROCESSING_UNSUPPORTED_MODEL_OPTION

SQLSTATE: 0A000

非構造化モデル オプション ('<option>' -> '<value>') はサポートされていません。 サポートされる値は <supportedValues> です。

サポートされている値のいずれかに切り替えてから、もう一度クエリを再試行してください。

UNSTRUCTURED_OCR_COLUMN_NOT_ALLOWED_WITH_METADATA_MODEL_OPTION

SQLSTATE: 42000

'metadataModel' オプションが指定されている場合は、関数パラメーター 'ocrText' を NULL または省略する必要があります。 指定された 'metadataModel' オプションは、指定された 'ocrText' が禁止されているメタデータ抽出をトリガーします。

UNSUPPORTED_ADD_FILE

SQLSTATE: 0A000

ファイルの追加はサポートされません。

詳細については、UNSUPPORTED_ADD_FILE を参照してください

UNSUPPORTED_ALTER_COLUMN_PARAMETER

SQLSTATE: 0A000

<parameter>ALTER <commandTableType> で指定することはサポートされていません。

UNSUPPORTED_ARROWTYPE

SQLSTATE: 0A000

サポートされていない矢印の種類 <typeName>

UNSUPPORTED_BATCH_TABLE_VALUED_FUNCTION

SQLSTATE: 42000

関数 <funcName> はバッチ クエリをサポートしていません。

UNSUPPORTED_CALL

SQLSTATE: 0A000

クラス "<methodName>" のメソッド "<className>" を呼び出すことはできません。

詳細については、UNSUPPORTED_CALL を参照してください。

UNSUPPORTED_CHAR_OR_VARCHAR_AS_STRING

SQLSTATE: 0A000

char/varchar 型はテーブル スキーマでは使用できません。

Spark を Spark 3.0 以前と同じ文字列型として扱う場合は、"spark.sql.legacy.charVarcharAsString" を "true" に設定してください。

UNSUPPORTED_CHAR_OR_VARCHAR_COLLATION

SQLSTATE: 0A000

char/varchar 型 <type> 照合順序を指定できません。

UNSUPPORTED_CLAUSE_FOR_OPERATION

SQLSTATE: 0A000

<clause> は、<operation>ではサポートされていません。

UNSUPPORTED_COLLATION

SQLSTATE: 0A000

照合順序 <collationName> は、次の場合にサポートされていません。

詳細については、UNSUPPORTED_COLLATION を参照してください。

UNSUPPORTED_COMMON_ANCESTOR_LOC_FOR_FILE_STREAM_SOURCE

SQLSTATE: 42616

ソース パスと sourceArchiveDir の共通の先祖を UC に登録する必要があります。

このエラー メッセージが表示された場合は、ソース パスと sourceArchiveDir を別の外部の場所に登録している可能性があります。

1 つの外部の場所に配置してください。

UNSUPPORTED_CONNECT_FEATURE

SQLSTATE: 0A000

Spark Connect では、この機能はサポートされていません。

詳細については、UNSUPPORTED_CONNECT_FEATUREを参照してください。

サポートされていない制約特性

SQLSTATE: 0A000

制約の種類 '<characteristic>' では、制約特性 '<constraintType>' はサポートされていません。

UNSUPPORTED_CONSTRAINT_CLAUSES

SQLSTATE: 0A000

制約句 <clauses> はサポートされていません。

UNSUPPORTED_CONSTRAINT_TYPE

SQLSTATE: 42000

サポートされていない制約の種類。 <supportedConstraintTypes> のみがサポートされています

UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY

SQLSTATE: 0A000

ファイルに対する直接クエリでサポートされていないデータ ソースの種類: <dataSourceType>

UNSUPPORTED_DATATYPE

SQLSTATE: 0A000

サポートされていないデータ型 <typeName>

UNSUPPORTED_DATA_SOURCE_SAVE_MODE

SQLSTATE: 0A000

データ ソース "<source>" を <createMode> モードで書き込むことができません。 代わりに、"追加" または "上書き" モードを使用してください。

UNSUPPORTED_DATA_TYPE_FOR_DATASOURCE

SQLSTATE: 0A000

<format> データソースは、<columnName>型の列<columnType>をサポートしていません。

UNSUPPORTED_DATA_TYPE_FOR_ENCODER

SQLSTATE: 0A000

<dataType>用のエンコーダーを作成できません。 UDF または DataFrame に別の出力データ型を使用してください。

UNSUPPORTED_DEFAULT_VALUE

SQLSTATE: 0A000

DEFAULT 列の値はサポートされていません。

詳細については、UNSUPPORTED_DEFAULT_VALUE を参照してください

UNSUPPORTED_DESERIALIZER

SQLSTATE: 0A000

デシリアライザーはサポートされていません。

詳細については、UNSUPPORTED_DESERIALIZER を参照してください

UNSUPPORTED_EXPRESSION_GENERATED_COLUMN

SQLSTATE: 42621

<fieldName>のため、生成式 <expressionStr> で生成された列 <reason> を作成できません。

UNSUPPORTED_EXPR_FOR_OPERATOR

SQLSTATE: 42K0E

クエリ演算子には、サポートされていない式が 1 つ以上含まれています。

WHERE 句でウィンドウ関数、集計関数、およびジェネレーター関数を回避するために、書き換えを検討してください。

式 [<invalidExprSqls>] が無効です

UNSUPPORTED_EXPR_FOR_PARAMETER

SQLSTATE: 42K0E

クエリ パラメーターにサポートされていない式が含まれています。

パラメーターには、変数またはリテラルを指定できます。

式 [<invalidExprSql>] が無効です

UNSUPPORTED_EXPR_FOR_WINDOW

SQLSTATE: 42P20

<sqlExpr> ウィンドウ関数内ではサポートされていません。

UNSUPPORTED_FEATURE

SQLSTATE: 0A000

この機能はサポートされていません。

詳細については、UNSUPPORTED_FEATURE を参照してください。

UNSUPPORTED_FN_TYPE

SQLSTATE: 0A000

サポートされていないユーザー定義関数の型: <language>

UNSUPPORTED_GENERATOR

SQLSTATE: 42K0E

ジェネレーターはサポートされていません。

詳細については、UNSUPPORTED_GENERATOR を参照してください。

UNSUPPORTED_GROUPING_EXPRESSION

SQLSTATE: 42K0E

grouping()/grouping_id() は GroupingSets/Cube/Rollup でのみ使用できます。

UNSUPPORTED_INITIAL_POSITION_AND_TRIGGER_PAIR_FOR_KINESIS_SOURCE

SQLSTATE: 42616

初期位置 <trigger> を持つ <initialPosition> は、Kinesis ソースではサポートされていません

UNSUPPORTED_INSERT

SQLSTATE: 42809

ターゲットに挿入できません。

詳細については、UNSUPPORTED_INSERT を参照してください

UNSUPPORTED_JOIN_TYPE

SQLSTATE: 0A000

サポートされていない結合の種類 '<typ>'。 サポートされている結合の種類は次のとおりです: <supported>.

UNSUPPORTED_MANAGED_TABLE_CREATION

SQLSTATE: 0AKDD

データソース <tableName> を使用したマネージド テーブル <dataSource> の作成はサポートされていません。 データソース DELTA を使用するか、 CREATE EXTERNAL TABLE <tableName>...USING <dataSource> ... を使用して外部テーブルを作成する必要があります。

UNSUPPORTED_MERGE_CONDITION

SQLSTATE: 42K0E

MERGE 操作にサポートされていない <condName> 条件が含まれています。

詳細については、UNSUPPORTED_MERGE_CONDITION を参照してください

UNSUPPORTED_METADATA_KEY

SQLSTATE: 42K0E

サポートされていないメタデータ キー: <key>。 サポートされているキー: <supportedKeys>

UNSUPPORTED_NESTED_ROW_OR_COLUMN_ACCESS_POLICY

SQLSTATE: 0A000

テーブル <tableName> には、行レベルのセキュリティ ポリシーまたは列マスクがあり、行レベルのセキュリティ ポリシーまたは列マスクを持つ別のテーブルを間接的に参照します。これはサポートされていません。 呼び出しシーケンス: <callSequence>

連続メモリシンクに対する未対応操作

SQLSTATE: 0A000

操作 <operation> は、連続メモリ シンクではサポートされていません。 ストリーミング Real-Time モードのテストを作成する場合は、他のチェックで CheckAnswerWithTimeout を使用することを検討してください。

UNSUPPORTED_OVERWRITE

SQLSTATE: 42902

読み込み中のターゲットは上書きできません。

詳細については、UNSUPPORTED_OVERWRITE を参照してください

UNSUPPORTED_PARTITION_TRANSFORM

SQLSTATE: 0A000

サポートされていないパーティション変換: <transform>。 サポートされている変換は identity, bucketであり、 clusterBy。 変換式で次のいずれかを使用していることを確認します。

UNSUPPORTED_PIPELINE_SPARK_SQL_COMMAND

SQLSTATE: 0A000

'<command>' は、Spark 宣言型パイプラインの spark.sql("...") API ではサポートされていません。

未対応のプロシージャの照合順序

SQLSTATE: 0A000

プロシージャ <procedureName> では、 DEFAULT COLLATION UTF8_BINARYを指定または継承する必要があります。 CREATE PROCEDURE <procedureName> (...) DEFAULT COLLATION UTF_BINARY ... を使用してください。

UNSUPPORTED_SAVE_MODE

SQLSTATE: 0A000

次の場合、保存モード <saveMode> はサポートされていません。

詳細については、UNSUPPORTED_SAVE_MODE を参照してください。

UNSUPPORTED_SHOW_CREATE_TABLE

SQLSTATE: 0A000

SHOW CREATE TABLE コマンドはサポートされていません。

詳細については、UNSUPPORTED_SHOW_CREATE_TABLE を参照してください

UNSUPPORTED_SINGLE_PASS_ANALYZER_FEATURE

SQLSTATE: 0A000

シングルパス アナライザーは、<feature>をまだサポートしていないため、このクエリまたはコマンドを処理できません。

UNSUPPORTED_SQL_UDF_USAGE

SQLSTATE: 0A000

<functionName>での SQL 関数<nodeName>の使用はサポートされていません。

UNSUPPORTED_STREAMING_OPERATOR_WITHOUT_WATERMARK

SQLSTATE: 0A000

<outputMode> 出力モードは、ウォーターマークのないストリーミング DataFrames/DataSets での <statefulOperator> ではサポートされていません。

UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW

SQLSTATE: 0A000

ビューのストリーミングではサポートされていません。 Reason:

詳細については、UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW を参照してください

UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED

SQLSTATE: 0A000

<options>ストリーミング オプションは、共有クラスター上のデータ ソース <source>ではサポートされていません。 オプションが正しく指定され、スペルが正しいことを確認し<prefixHint>制限事項 https://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode 確認してください。

UNSUPPORTED_STREAMING_SINK_PERMISSION_ENFORCED

SQLSTATE: 0A000

データ ソース <sink> は、共有クラスター上のストリーミング シンクとしてサポートされていません。

UNSUPPORTED_STREAMING_SOURCE_PERMISSION_ENFORCED

SQLSTATE: 0A000

データ ソース <source> は、共有クラスター上のストリーミング ソースとしてサポートされていません。

UNSUPPORTED_STREAMING_TABLE_VALUED_FUNCTION

SQLSTATE: 42000

関数 <funcName> はストリーミングをサポートしていません。 STREAM キーワードを削除してください

UNSUPPORTED_STREAM_READ_LIMIT_FOR_KINESIS_SOURCE

SQLSTATE: 0A000

<streamReadLimit> は Kinesis ソースではサポートされていません

UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY

SQLSTATE: 0A000

サポートされていないサブクエリ式:

詳細については、UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY を参照してください

UNSUPPORTED_TABLE_CHANGE_IN_AUTO_SCHEMA_EVOLUTION

SQLSTATE: 42000

テーブル <changes> の変更は、テーブル <tableName>のカタログではサポートされていません。

UNSUPPORTED_TABLE_CHANGE_IN_JDBC_CATALOG

SQLSTATE: 42000

テーブルの変更 <change> は、テーブル <tableName>の JDBC カタログではサポートされていません。 サポートされる変更には、AddColumn、RenameColumn、DeleteColumn、UpdateColumnType、UpdateColumnNullability などがあります。

UNSUPPORTED_TIMESERIES_COLUMNS

SQLSTATE: 56038

時系列列を使用した主キーの作成はサポートされていません

UNSUPPORTED_TIMESERIES_WITH_MORE_THAN_ONE_COLUMN

SQLSTATE: 0A000

複数の時系列列 <colSeq> を持つ主キーの作成はサポートされていません

UNSUPPORTED_TIME_PRECISION

SQLSTATE: 0A001

TIME データ型の秒の有効桁数 <precision> が、サポートされている範囲 [0, 6] から外れている。

UNSUPPORTED_TIME_TYPE

SQLSTATE: 0A000

データ型 TIME はサポートされていません。

UNSUPPORTED_TRIGGER_FOR_KINESIS_SOURCE

SQLSTATE: 0A000

<trigger> は Kinesis ソースではサポートされていません

UNSUPPORTED_TYPED_LITERAL

SQLSTATE: 0A000

<unsupportedType> 型のリテラルはサポートされていません。 サポートされている型は <supportedTypes>です。

UNSUPPORTED_UDF_FEATURE

SQLSTATE: 0A000

この関数 <function> では、新しいバージョンの Databricks ランタイムを必要とする次の機能を使用します。<features>。 詳細については、<docLink> を参照してください。

UNSUPPORTED_UDF_TYPES_IN_SAME_PLACE

SQLSTATE: 0A000

UDF 型を一緒に使用することはできません: <types>

UNTYPED_SCALA_UDF

SQLSTATE: 42K0E

型指定されていない Scala UDF を使用しています。この UDF には入力型情報がありません。

Spark はプリミティブ型の引数を使用して Scala クロージャに盲目的に null を渡すことがあり、クロージャには null 引数の Java 型の既定値が表示されます。たとえば、 udf((x: Int) => x, IntegerType)、null 入力の場合は結果が 0 になります。 このエラーを取り除くには、次の操作を行います。

  1. udf((x: Int) => x)など、型指定された Scala UDF API (戻り値の型パラメーターなし) を使用します。

  2. 入力型がすべてプリミティブでない場合は、java UDF API ( udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType) など) を使用します。

  3. "spark.sql.legacy.allowUntypedScalaUDF" を "true" に設定し、この API を慎重に使用してください。

UPGRADE_NOT_SUPPORTED

SQLSTATE: 0AKUC

テーブルは、Hive メタストアから Unity カタログへのアップグレードの対象ではありません。 Reason:

詳細については、UPGRADE_NOT_SUPPORTED を参照してください

USER_DEFINED_FUNCTIONS

SQLSTATE: 42601

ユーザー定義関数が無効です。

詳細については、USER_DEFINED_FUNCTIONS を参照してください。

USER_RAISED_EXCEPTION

SQLSTATE: P0001

<errorMessage>

USER_RAISED_EXCEPTION_PARAMETER_MISMATCH

SQLSTATE: P0001

raise_error() 関数は、パラメーター <errorClass>を受け取る <expectedParms> のエラークラスを生成するために使用されました。

指定されたパラメーター <providedParms> 想定されるパラメーターと一致しません。

必要なすべてのパラメーターを必ず指定してください。

USER_RAISED_EXCEPTION_UNKNOWN_ERROR_CLASS

SQLSTATE: P0001

raise_error() 関数は、不明なエラー クラス (<errorClass>) を発生させるために使用されました

USER_SPECIFIED_AND_ACTUAL_SCHEMA_MISMATCH

SQLSTATE: 42K03

ユーザー指定のスキーマが実際のスキーマと一致しません。

user-specified: <schema>, actual: <actualSchema>. 使用している場合

DataFrameReader.schema API またはテーブルの作成では、スキーマを指定しないでください。

または、存在するテーブルをスキャンする場合は、削除して再作成します。

ユーザー指定と推定されたスキーマの非互換性

SQLSTATE: 42000

テーブル '<tableName>' には、スキーマと互換性のないユーザー指定のスキーマがあります

クエリから推論されます。

<streamingTableHint>

宣言されたスキーマ:

<specifiedSchema>

推定スキーマ:

<inferredDataSchema>

USE_CATALOG_SCHEMA_IN_DEFINER_STORED_PROCEDURE_NOT_SUPPORTED

SQLSTATE: 0A000

SQL SECURITY DEFINER ストアド プロシージャ内でのカタログまたはスキーマの設定はサポートされていません。

VARIABLE_ALREADY_EXISTS

SQLSTATE: 42723

変数 <variableName> は既に存在するため、作成できません。

別の名前を選択するか、既存の変数を削除または置換します。

VARIABLE_NOT_FOUND

SQLSTATE: 42883

変数 <variableName> が見つかりません。 スキーマとカタログのスペルと正確性を確認します。

スキーマとカタログで名前を修飾しなかった場合は、current_schema() の出力を確認するか、名前を正しいスキーマとカタログで修飾します。

ドロップ時のエラーを許容するには、DROP VARIABLE IF EXISTSを使用します。

VARIANT_CONSTRUCTOR_SIZE_LIMIT

SQLSTATE: 22023

16 MiB を超えるバリアントを構築できません。 バリアント値の最大許容サイズは 16 MiB です。

VARIANT_DUPLICATE_KEY

SQLSTATE: 22023

オブジェクト キーの <key>が重複しているため、バリアントのビルドに失敗しました。

VARIANT_SIZE_LIMIT

SQLSTATE: 22023

<sizeLimit><functionName> より大きいバリアントを構築することはできません。

この式には大きな入力文字列を使用しないでください (たとえば、関数呼び出しを追加して式のサイズを確認し、大きすぎる場合は最初に NULL に変換します)。

VERSIONED_CLONE_UNSUPPORTED_TABLE_FEATURE

SQLSTATE: 56038

ソース テーブル履歴には、この DBR バージョンのバージョン管理された複製でサポートされていないテーブル機能 ( <unsupportedFeatureNames>) が含まれています。

新しい DBR バージョンにアップグレードしてください。

VIEW_ALREADY_EXISTS

SQLSTATE: 42P07

ビュー <relationName> は既に存在するため、作成できません。

別の名前を選択するか、既存のオブジェクトを削除または置き換えるか、既存のオブジェクトを許容する IF NOT EXISTS 句を追加します。

VIEW_EXCEED_MAX_NESTED_DEPTH

SQLSTATE: 54K00

ビューの深度 <viewName> が最大ビュー解像度の深度 (<maxNestedDepth>) を超えています。

エラーを回避するため、分析は中止されます。 この問題を回避する場合は、"spark.sql.view.maxNestedViewDepth" の値を増やしてみてください。

VIEW_NOT_FOUND

SQLSTATE: 42P01

ビュー <relationName> が見つかりません。 スキーマとカタログのスペルと正確性を確認します。

スキーマで名前を修飾しなかった場合は、current_schema() 出力を確認するか、名前を正しいスキーマとカタログで修飾します。

ドロップ時のエラーを許容するには、DROP VIEW IF EXISTSを使用します。

VOLUME_ALREADY_EXISTS

SQLSTATE: 42000

ボリューム <relationName> は既に存在するため作成できません。

別の名前を選択するか、既存のオブジェクトを削除または置き換えるか、既存のオブジェクトを許容する IF NOT EXISTS 句を追加します。

WATERMARK_ADVANCEMENT_STRATEGY

SQLSTATE: 0A000

ストリーミング透かしの進め方には、次の制限があります。

詳細については、WATERMARK_ADVANCEMENT_STRATEGYを参照してください。

WINDOW_FUNCTION_AND_FRAME_MISMATCH

SQLSTATE: 42K0E

<funcName> 関数は、単一のオフセットを持つ順序付けられた行ベースのウィンドウ フレームでのみ評価できます: <windowExpr>

WINDOW_FUNCTION_WITHOUT_OVER_CLAUSE

SQLSTATE: 42601

Window 関数 <funcName> には OVER 句が必要です。

WITH_CREDENTIAL

SQLSTATE: 42601

WITH CREDENTIAL 構文は、<type>ではサポートされていません。

WRITE_STREAM_NOT_ALLOWED

SQLSTATE: 42601

writeStream は、ストリーミング データセット/DataFrame でのみ呼び出すことができます。

WRONG_COLUMN_DEFAULTS_FOR_DELTA_ALTER_TABLE_ADD_COLUMN_NOT_SUPPORTED

SQLSTATE: 0AKDC

新しい値を追加するときに DEFAULT 値がサポートされていないため、コマンドの実行に失敗しました

列を既存の Delta テーブルに移動します。既定を指定せずに列を追加してください

最初に値を入力し、次に 2 番目の ALTER TABLE ALTER COLUMN SET DEFAULT コマンドを実行して適用します

今後挿入される行に対して代わりに適用してください。

WRONG_COLUMN_DEFAULTS_FOR_DELTA_FEATURE_NOT_ENABLED

SQLSTATE: 0AKDE

<commandType> 値が割り当てられたため、コマンド DEFAULT 実行できませんでした。

対応するテーブル機能が有効になっていませんでした。 コマンドをもう一度やり直してください

ALTER TABLE tableName SET

TBLPROPERTIES('delta.feature.allowColumnDefaults' = 'supported')。

WRONG_COMMAND_FOR_OBJECT_TYPE

SQLSTATE: 42809

操作 <operation> には <requiredType>が必要です。 しかし、<objectName><foundType>です. 代わりに <alternative> を使用してください。

WRONG_NUM_ARGS

SQLSTATE: 42605

<functionName> には <expectedNum> パラメーターが必要ですが、実際の数は <actualNum>です。

詳細については、WRONG_NUM_ARGS を参照してください。

XML_ROW_TAG_MISSING

SQLSTATE: 42KDF

<rowTag> オプションは、XML 形式のファイルの読み取り/書き込みに必要です。

XML_UNSUPPORTED_NESTED_TYPES

SQLSTATE: 0N000

XML は、<innerDataType>の内部型として<dataType>をサポートしていません。 <innerDataType>内で使用するときは、<dataType> を StructType フィールド内でラップしてください。

XML_WILDCARD_RESCUED_DATA_CONFLICT_ERROR

SQLSTATE: 22023

復旧されたデータとワイルドカード列を同時に有効にすることはできません。 wildcardColumnName オプションを削除します。

ZORDERBY_COLUMN_DOES_NOT_EXIST

SQLSTATE: 42703

ZOrderBy 列 <columnName> が存在しません。

Delta Lake

DELTA_ACTIVE_SPARK_SESSION_NOT_FOUND

SQLSTATE: 08003

アクティブな SparkSession が見つかりませんでした。

DELTA_ACTIVE_TRANSACTION_ALREADY_SET

SQLSTATE: 0B000

新しい txn が既にアクティブな場合、新しい txn をアクティブとして設定できません。

DELTA_ADDING_COLUMN_WITH_INTERNAL_NAME_FAILED

SQLSTATE: 42000

名前が予約されているため、列 <colName> を追加できませんでした。

DELTA_ADDING_DELETION_VECTORS_DISALLOWED

SQLSTATE: 0A000

現在の操作では、新しい削除ベクトルの作成を許可しないテーブルに削除ベクターを追加しようとしました。 バグ レポートを提出してください。

DELTA_ADDING_DELETION_VECTORS_WITH_TIGHT_BOUNDS_DISALLOWED

SQLSTATE: 42000

削除ベクトルを追加するすべての操作では、統計の tightBounds 列を false に設定する必要があります。 バグ レポートを提出してください。

DELTA_ADD_COLUMN_AT_INDEX_LESS_THAN_ZERO

SQLSTATE: 42KD3

<columnIndex>を追加するインデックス <columnName>が 0 未満です。

DELTA_ADD_COLUMN_PARENT_NOT_STRUCT

SQLSTATE: 42KD3

親が StructType ではないため、<columnName> を追加できません。 <other>が見つかりました。

DELTA_ADD_COLUMN_STRUCT_NOT_FOUND

SQLSTATE: 42KD3

位置 <position>に構造体が見つかりません。

DELTA_ADD_CONSTRAINTS

SQLSTATE: 0A000

ALTER TABLEを使用してCONSTRAINTを加え、CHECKの制約を追加してください。

DELTA_AGGREGATE_IN_CHECK_CONSTRAINT

SQLSTATE: 42621

CHECK制約で<sqlExpr>が見つかりました。 集計式は、 CHECK 制約では使用できません。

DELTA_AGGREGATE_IN_GENERATED_COLUMN

SQLSTATE: 42621

<sqlExpr>が見つかりました。 生成された列では、集計式を使用できません。

DELTA_AGGREGATION_NOT_SUPPORTED

SQLSTATE: 42903

集計関数は、<operation> <predicate>ではサポートされていません。

DELTA_ALTER_COLLATION_NOT_SUPPORTED_BLOOM_FILTER

SQLSTATE: 428FR

ブルーム フィルター インデックスがあるため、列 <column> の照合順序を変更できませんでした。 既存の照合順序を保持するか、ブルーム フィルター インデックスを削除してから、もう一度コマンドを再試行して照合順序を変更してください。

DELTA_ALTER_COLLATION_NOT_SUPPORTED_CLUSTER_BY

SQLSTATE: 428FR

クラスター化列であるため、列 <column> の照合順序を変更できませんでした。 既存の照合順序を保持するか、ALTER TABLE コマンドを使用して列を非クラスタリング列に変更してから、もう一度コマンドを再試行して照合順序を変更してください。

DELTA_ALTER_TABLE_CHANGE_COL_NOT_SUPPORTED

SQLSTATE: 42837

ALTER TABLE CHANGE COLUMN は、列 <currentType><newType>に変更する場合はサポートされていません。

DELTA_ALTER_TABLE_CLUSTER_BY_NOT_ALLOWED

SQLSTATE: 42000

ALTER TABLE CLUSTER BY は、Liquid クラスタリングを使用する Delta テーブルでのみサポートされます。

DELTA_ALTER_TABLE_CLUSTER_BY_ON_PARTITIONED_TABLE_NOT_ALLOWED

SQLSTATE: 42000

パーティション テーブルに ALTER TABLE CLUSTER BY を適用することはできません。

DELTA_ALTER_TABLE_RENAME_NOT_ALLOWED

SQLSTATE: 42000

操作は許可されていません: ALTER TABLE RENAME TO は、S3でマネージされているDeltaテーブルに対して許可されていません。S3による整合性の結果、Deltaトランザクションログが破損する可能性があるからです。 そうすることを主張していて、新しい名前が <newName> された Delta テーブルが存在したことがない場合は、<key> true に設定することでこれを有効にすることができます。

DELTA_ALTER_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED

SQLSTATE: 42000

<tableFeature>を使用 ALTER TABLE SET TBLPROPERTIES テーブル機能を有効にすることはできません。 CREATE OR REPLACE TABLE CLUSTER BY を使用して、クラスタリングを使用して Delta テーブルを作成してください。

DELTA_ALTER_TABLE_SET_MANAGED_COPY_OR_MOVE_REQUIRED

SQLSTATE: 42809

ALTER TABLE ... SET MANAGEDでは、外部テーブル <table>に対してCOPYまたは MOVE を指定する必要があります。

DELTA_ALTER_TABLE_SET_MANAGED_DOES_NOT_SUPPORT_UNIFORM_ICEBERG

SQLSTATE: 0A000

ALTER TABLE ... SET MANAGED は Uniform Apache Iceberg テーブルをサポートしていません。 Uniform を無効にするか、 SET MANAGED TRUNCATE UNIFORM HISTORYを使用します。

DELTA_ALTER_TABLE_SET_MANAGED_FAILED

SQLSTATE: 42809

ALTER TABLE <table> SET MANAGED は失敗しました。

詳細については、DELTA_ALTER_TABLE_SET_MANAGED_FAILEDを参照してください。

DELTA_ALTER_TABLE_SET_MANAGED_NOT_ENABLED

SQLSTATE: 0AKDC

ALTER TABLE ... SET MANAGED コマンドが有効になっていません。 サポートについては、Databricks サポート チームにお問い合わせください。

DELTA_ALTER_TABLE_SET_MANAGED_TABLE_NOT_MIGRATABLE

SQLSTATE: 55019

ALTER TABLE <table> SET MANAGED は、指定されたテーブルを移行できません。

テーブルが有効な状態であることを確認し、コマンドを再試行してください。 問題が解決しない場合は、Databricks サポートにお問い合わせください。

詳細については、DELTA_ALTER_TABLE_SET_MANAGED_TABLE_NOT_MIGRATABLEを参照してください。

DELTA_ALTER_TABLE_SET_MANAGED_UNSUPPORTED_COPY_MOVE_SYNTAX

SQLSTATE: 42809

ALTER TABLE ... SET MANAGED [COPY | MOVE] 構文は、テーブル <table>ではサポートされていません。 代わりに ALTER TABLE ... SET MANAGED を使用してください。

DELTA_ALTER_TABLE_SET_MANAGED_UNSUPPORTED_FOREIGN_TABLE

SQLSTATE: 42809

外部テーブル <table> は、UC マネージド テーブル ( <errorMessage>) への移行ではサポートされていません。

DELTA_ALTER_TABLE_UNSET_MANAGED_DOES_NOT_SUPPORT_COMPATIBILITY_MODE

SQLSTATE: 0AKDC

ALTER TABLE ... UNSET MANAGED は、互換モードが有効になっているテーブルをサポートしていません。

このコマンドを実行する前に、テーブルの互換モードを無効にします。

DELTA_ALTER_TABLE_UNSET_MANAGED_UNIFORMをサポートしていません

SQLSTATE: 0AKDC

ALTER TABLE ... UNSET MANAGED は Uniform をサポートしていません。 Uniform を無効にするか、 UNSET MANAGED TRUNCATE UNIFORM HISTORYを使用します。

DELTA_ALTER_TABLE_UNSET_MANAGED_FAILED

SQLSTATE: 42809

<table> は、マネージド テーブルから外部テーブルにロールバックできません。

詳細については、DELTA_ALTER_TABLE_UNSET_MANAGED_FAILED を参照してください

DELTA_ALTER_TABLE_UNSET_MANAGED_NOT_ENABLED

SQLSTATE: 0AKDC

ALTER TABLE ... UNSET MANAGED コマンドが有効になっていません。 サポートについては、Databricks サポート チームにお問い合わせください。

DELTA_AMBIGUOUS_DATA_TYPE_CHANGE

SQLSTATE: 429BQ

<column> のデータ型を <from> から <to>に変更することはできません。 この変更には列の削除と追加が含まれているため、あいまいです。 ALTER TABLE [ADD | DROP | RENAME] COLUMNを使用して、これらの変更を個別に行ってください。

DELTA_AMBIGUOUS_PARTITION_COLUMN

SQLSTATE: 42702

あいまいなパーティション列 <column><colMatches>になる可能性があります。

DELTA_AMBIGUOUS_PATHS_IN_CREATE_TABLE

SQLSTATE: 42613

CREATE TABLE には、<identifier><location>の 2 つの異なる場所があります。

LOCATION 条項をCREATE TABLE 文から削除するか、または設定することができます

<config> を true に設定して、このチェックをスキップします。

DELTA_ARCHIVED_FILES_IN_LIMIT

SQLSTATE: 42KDC

テーブル <table> には、LIMIT レコードの指定された <limit> を満たすのに十分な数のレコードがアーカイブされていないファイルに含まれていません。

DELTA_ARCHIVED_FILES_IN_SCAN

SQLSTATE: 42KDC

このクエリ <numArchivedFiles> 一部としてスキャンする必要がある、アーカイブされた可能性のあるファイルがテーブル <table> に見つかりました。

アーカイブされたファイルにアクセスできません。 アーカイブが <archivalTime>として構成されるまでの現在の時刻。

アーカイブされたファイルを除外するようにクエリ フィルターを調整してください。

DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION

SQLSTATE: 42KD4

テーブルで変更データ フィード (CDF) が有効になっていて、<opName>またはDROP COLUMNを使用してスキーマの変更が行われる場合、操作 "RENAME COLUMN" は許可されません。

DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS

SQLSTATE: 42703

次の存在しない列のブルーム フィルター インデックスを削除できません: <unknownColumns>

DELTA_BLOOM_FILTER_OOM_ON_WRITE

SQLSTATE: 82100

次の列のブルーム フィルター インデックスの書き込み中に OutOfMemoryError が発生しました: <columnsWithBloomFilterIndices>

"numItems" オプションに小さい値を選択するか、'fpp' オプションの値を大きくするか、インデックスを作成する列を減らすことで、ブルーム フィルター インデックスのメモリ占有領域を減らすことができます。

DELTA_CANNOT_CHANGE_DATA_TYPE

SQLSTATE: 429BQ

データ型を変更できません: <dataType>

DELTA_CANNOT_CHANGE_LOCATION

SQLSTATE: 42601

SET TBLPROPERTIESを使用して Delta テーブルの 'location' を変更することはできません。 代わりに ALTER TABLE SET LOCATION を使用してください。

DELTA_CANNOT_CHANGE_PROVIDER

SQLSTATE: 42939

'provider' は予約済みテーブル プロパティであり、変更することはできません。

DELTA_CANNOT_CREATE_BLOOM_FILTER_NON_EXISTING_COL

SQLSTATE: 42703

次の存在しない列のブルーム フィルター インデックスを作成できません: <unknownCols>

DELTA_CANNOT_CREATE_LOG_PATH

SQLSTATE: 42KD5

<path>を作成できません。

DELTA_CANNOT_DESCRIBE_VIEW_HISTORY

SQLSTATE: 42809

ビューの履歴を記述できません。

DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN

SQLSTATE: 42703

インデックスが作成されていない列のブルーム フィルター インデックスを削除できません: <columnName>

DELTA_CANNOT_DROP_CHECK_CONSTRAINT_FEATURE

SQLSTATE: 0AKDE

CHECK 制約テーブル機能を削除できません。

最初に次の制約を削除する必要があります: <constraints>

DELTA_CANNOT_DROP_COLLATIONS_FEATURE

SQLSTATE: 0AKDE

照合順序テーブル機能を削除できません。

既定以外の照合順序を持つ列は、最初に UTF8_BINARY を使用するように変更する必要があります: <colNames>

DELTA_CANNOT_DROP_DOMAIN_METADATA_FEATURE_FROM_MANAGED_ICEBERG_TABLE

SQLSTATE: 0AKDE

domainMetadata テーブル機能を削除できません。 テーブル <name> は、マネージド Apache Iceberg テーブルです。 DomainMetadata は、マネージド Apache Iceberg テーブルから削除できません。

デルタで地理空間機能を削除することはできません。

SQLSTATE: 0AKDE

地理空間テーブル機能を削除できません。 geometry/geography 型を使用してテーブルまたはドロップ列を再作成します。 <colNames> して、もう一度やり直してください。

DELTA_CANNOT_DROP_VARIANT_FEATURE

SQLSTATE: 55000

DROP FEATURE <feature> が失敗しました。 バリアント テーブル機能を削除できません。 バリアント型の列は、最初に削除する必要があります: <colNames>

DELTA_CANNOT_EVALUATE_EXPRESSION

SQLSTATE: 0AKDC

式を評価できません: <expression>

DELTA_CANNOT_FIND_BUCKET_SPEC

SQLSTATE: 22000

バケットの Delta テーブルが必要でしたが、テーブルの中にバケットの仕様が見つかりません。

DELTA_CANNOT_GENERATE_CODE_FOR_EXPRESSION

SQLSTATE: 0AKDC

式のコードを生成できません: <expression>

DELTA_CANNOT_MODIFY_APPEND_ONLY

SQLSTATE: 42809

このテーブルは、追加のみを許可するように構成されています。 更新または削除を許可する場合は、'ALTER TABLE <table_name> SET TBLPROPERTIES (<config>=false)' を使用します。

DELTA_CANNOT_MODIFY_CATALOG_OWNED_DEPENDENCIES

SQLSTATE: 42616

このテーブルはカタログ所有であるため、コミット内タイムスタンプ テーブルのプロパティをオーバーライドまたは設定解除できません。 TBLPROPERTIES句から "delta.enableInCommitTimestamps"、"delta.inCommitTimestampEnablementVersion"、および "delta.inCommitTimestampEnablementTimestamp" を削除し、コマンドを再試行します。

DELTA_CANNOT_MODIFY_COORDINATED_COMMITS_DEPENDENCIES

SQLSTATE: 42616

<Command> は、このテーブルで連携したコミットが有効になっており、それに依存しているため、コミット中のタイムスタンプテーブルのプロパティをオーバーライドまたは解除することができません。 TBLPROPERTIES句から ("delta.enableInCommitTimestamps"、"delta.inCommitTimestampEnablementVersion"、"delta.inCommitTimestampEnablementTimestamp") を削除してから、もう一度コマンドを再試行してください。

DELTA_CANNOT_MODIFY_TABLE_PROPERTY

SQLSTATE: 42939

Delta テーブル構成 <prop> をユーザーが指定することはできません。

DELTA_CANNOT_OVERRIDE_COORDINATED_COMMITS_CONFS

SQLSTATE: 42616

<Command> は、既存のターゲット テーブルの調整されたコミット構成をオーバーライドできません。 TBLPROPERTIES 句からこれら ("delta.coordinatedCommits.commitCoordinator-preview"、 "delta.coordinatedCommits.commitCoordinatorConf-preview"、"delta.coordinatedCommits.tableConf-preview") を削除してから、コマンドを再試行してください。

DELTA_CANNOT_RECONSTRUCT_PATH_FROM_URI

SQLSTATE: 22KD1

相対パスに変換できない URI (<uri>) がトランザクション ログで見つかりました。

DELTA_CANNOT_RELATIVIZE_PATH

SQLSTATE: 42000

で見つかった現在の入力と相対化できないパス (<path>)

トランザクション ログ。 これを次のように再実行してください。

%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<userPath>", true)

次に、次のコマンドも実行します。

%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<path>")

DELTA_CANNOT_RENAME_PATH

SQLSTATE: 22KD1

<currentPath>の名前を <newPath> に変更することはできません。

DELTA_CANNOT_REPLACE_MISSING_TABLE

SQLSTATE: 42P01

テーブル <tableName> は存在しないため、置き換えることはできません。 CREATE OR REPLACE TABLE を使用してテーブルを作成します。

DELTA_CANNOT_RESOLVE_CLUSTERING_COLUMN

SQLSTATE: 42703

予期しないエラーが発生したため、<columnName>のクラスタリング列<schema>を解決できません。 ... ALTER TABLE...CLUSTER BY 実行します。デルタ クラスタリング メタデータを修復します。

DELTA_CANNOT_RESOLVE_COLUMN

SQLSTATE: 42703

<columnName> で列 <schema> を解決できません

DELTA_CANNOT_RESTORE_TABLE_VERSION

SQLSTATE: 22003

テーブルをバージョン <version>に復元できません。 使用可能なバージョン: [<startVersion>, <endVersion>]。

DELTA_CANNOT_RESTORE_TIMESTAMP_EARLIER

SQLSTATE: 22003

使用可能な最も古いバージョンより前であるため、テーブルをタイムスタンプ (<requestedTimestamp>) に復元できません。 (<earliestTimestamp>) の後にタイムスタンプを使用してください。

DELTA_CANNOT_RESTORE_TIMESTAMP_GREATER

SQLSTATE: 22003

使用可能な最新バージョンより後であるため、テーブルをタイムスタンプ (<requestedTimestamp>) に復元できません。 (<latestTimestamp>) 前にタイムスタンプを使用してください。

DELTA_CANNOT_SET_COORDINATED_COMMITS_DEPENDENCIES

SQLSTATE: 42616

<Command> は、コミット内タイムスタンプ テーブルのプロパティを調整されたコミットと共に設定することはできません。後者は前者に依存し、前者を内部的に設定するためです。 TBLPROPERTIES句から ("delta.enableInCommitTimestamps"、"delta.inCommitTimestampEnablementVersion"、"delta.inCommitTimestampEnablementTimestamp") を削除してから、もう一度コマンドを再試行してください。

DELTA_CANNOT_SET_LOCATION_ON_PATH_IDENTIFIER

SQLSTATE: 42613

パス ベースのテーブルの場所を変更できません。

DELTA_CANNOT_SET_MANAGED_STATS_COLUMNS_PROPERTY

SQLSTATE: 42616

Lakeflow 以外の Spark 宣言パイプライン テーブルに delta.managedDataSkippingStatsColumns を設定できません。

DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_COMMAND

SQLSTATE: 42616

コミット コーディネーターとして 'unity-catalog' を有効にすると、コマンドから構成 "<configuration>" を設定できません。 TBLPROPERTIES 句から削除してから、もう一度コマンドを再試行してください。

DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_SESSION

SQLSTATE: 42616

コミット コーディネーターとして 'unity-catalog' を有効にする場合、SparkSession 構成から構成 "<configuration>" を設定することはできません。 spark.conf.unset("<configuration>") を実行して設定を解除してから、もう一度コマンドを再試行してください。

DELTA_CANNOT_UNSET_COORDINATED_COMMITS_CONFS

SQLSTATE: 42616

ALTER は、調整されたコミット構成の設定を解除できません。 調整されたコミットからテーブルをダウングレードするには、 ALTER TABLE [table-name] DROP FEATURE 'coordinatedCommits-preview'を使用してもう一度やり直してください。

DELTA_CANNOT_UPDATE_ARRAY_FIELD

SQLSTATE: 429BQ

<tableName> フィールド <fieldName> 更新できません。 <fieldName>.elementを更新して要素を更新します。

DELTA_CANNOT_UPDATE_MAP_FIELD

SQLSTATE: 429BQ

<tableName> フィールド <fieldName> 更新できません。 <fieldName>.key または <fieldName>.valueを更新してマップを更新します。

DELTA_CANNOT_UPDATE_OTHER_FIELD

SQLSTATE: 429BQ

<tableName><typeName>フィールドを更新できません。

DELTA_CANNOT_UPDATE_STRUCT_FIELD

SQLSTATE: 429BQ

<tableName>フィールド<fieldName>型を更新できません。フィールドを追加、削除、または更新して構造体を更新してください。

DELTA_CANNOT_USE_ALL_COLUMNS_FOR_PARTITION

SQLSTATE: 428FT

パーティション列にすべての列を使用することはできません。

DELTA_CANNOT_VACUUM_LITE

SQLSTATE: 55000

一部のファイルはデルタ ログによって参照されないため、VACUUM LITE はすべての対象ファイルを削除できません。 VACUUM FULL実行してください。

DELTA_CANNOT_WRITE_INTO_VIEW

SQLSTATE: 0A000

<table> はビューです。 ビューへの書き込みはサポートされていません。

DELTA_CAST_OVERFLOW_IN_TABLE_WRITE

SQLSTATE: 22003

オーバーフローが発生したため、<sourceType> 型の値を <targetType> 型の列 <columnName> に書き込めませんでした。

入力値に try_cast を使用してオーバーフローを許容し、代わりに NULL を返します。

必要に応じて、<storeAssignmentPolicyFlag>を "LEGACY" に設定してこのエラーをバイパスするか、<updateAndMergeCastingFollowsAnsiEnabledFlag>を true に設定して古い動作に戻し、<ansiEnabledFlag>UPDATEMERGEに従います。

DELTA_CATALOG_MANAGED_TABLE_UPGRADE_OR_DOWNGRADE_NOT_SUPPORTED

SQLSTATE: 0A000

カタログ管理テーブルのアップグレードまたはダウングレードはサポートされていません。 代わりに、目的のテーブル機能を使用して新しいテーブルを作成します。

DELTA_CATALOG_MANAGED_TABLE_UPGRADE_WITH_OTHER_PROPERTIES

SQLSTATE: 429BQ

テーブル <tableName> のアップグレードを、他のプロパティの変更とカタログ管理に組み合わせることはできません。

提供されるプロパティ: <properties>

DELTA_CDC_NOT_ALLOWED_IN_THIS_VERSION

SQLSTATE: 0AKDC

構成 delta.enableChangeDataFeed を設定できません。 Deltaからの変更データフィードはまだ利用できません。

DELTA_CDC_READ_NULL_RANGE_BOUNDARY

SQLSTATE: 22004

CDC 読み取り開始/終了パラメーターを null にすることはできません。 有効なバージョンまたはタイムスタンプを指定してください。

DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_DATA_SCHEMA

SQLSTATE: 0AKDC

互換性のないデータ スキーマのため、バージョン <start><end> の間でテーブルの変更を取得できませんでした。

読み取りスキーマはバージョン <readSchema><readVersion> されていますが、バージョン <incompatibleVersion>で互換性のないデータ スキーマが見つかりました。

可能であれば、 <config>endVersion に設定して、エンド バージョンのスキーマを使用してテーブルの変更を取得するか、サポートにお問い合わせください。

DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE: 0AKDC

互換性のないスキーマの変更のため、バージョン <start><end> の間でテーブルの変更を取得できませんでした。

読み取りスキーマはバージョン <readSchema><readVersion> されていますが、バージョン <incompatibleVersion>で互換性のないスキーマの変更が見つかりました。

可能であれば、バージョン <start> から <incompatibleVersion> - 1、およびバージョン <incompatibleVersion> から <end>に対して、テーブルの変更を個別に照会してください。

DELTA_CHANGE_DATA_FILE_NOT_FOUND

SQLSTATE: 42K03

トランザクション ログで参照 <filePath> ファイルが見つかりません。 これは、テーブル DELETE ステートメントを使用するのではなく、ファイル システムからデータが手動で削除された場合に発生する可能性があります。 この要求は変更データ フィードを対象としているように見えます。その場合、このエラーは、変更データ ファイルが保持期間を過ぎると発生し、VACUUM ステートメントによって削除された場合に発生する可能性があります。 詳細については、<faqPath> を参照してください。

DELTA_CHANGE_TABLE_FEED_DISABLED

SQLSTATE: 42807

delta.enableChangeDataFeed が設定されたテーブルに書き込めません。 デルタからのデータフィード変更は利用できません。

DELTA_CHECKPOINT_NON_EXIST_TABLE

SQLSTATE: 42K03

存在しないテーブル <path> に対してチェックポイントを実行することはできません。 _delta_log ディレクトリ内のファイルを手動で削除しましたか?

DELTA_CLONE_AMBIGUOUS_TARGET

SQLSTATE: 42613

CLONE ターゲットとして 2 つのパスが提供されているため、どちらを使用するかはあいまいです。 外部

CLONE に対するもの) が次のパスと同時に <externalLocation> に指定されました:

<targetIdentifier>

DELTA_CLONE_INCOMPATIBLE_SOURCE

SQLSTATE: 0AKDC

複製ソースには有効な形式がありますが、Delta ではサポートされていない機能があります。

詳細については、DELTA_CLONE_INCOMPATIBLE_SOURCEを参照してください。

DELTA_CLONE_INCOMPLETE_FILE_COPY

SQLSTATE: 42000

ファイル (<fileName>) が完全にコピーされていません。 予想されるファイルサイズ:<expectedSize>、見つかったファイルサイズ:<actualSize>。 ファイル サイズチェックを無視して操作を続行するには、<config> false に設定します。

DELTA_CLONE_UNSUPPORTED_SOURCE

SQLSTATE: 0AKDC

サポートされていない <mode> 複製ソース '<name>'。形式は <format> です。

サポートされている形式は、'delta'、'Apache Iceberg'、'parquet' です。

DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_SOURCE

SQLSTATE: 0AKDC

サポートされていないソース テーブル:

詳細については、DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_SOURCE を参照してください

DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_TARGET

SQLSTATE: 0AKDC

サポートされていないターゲット テーブル:

詳細については、DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_TARGET を参照してください

DELTA_CLONE_WITH_ROW_TRACKING_WITHOUT_STATS

SQLSTATE: 22000

統計がなく、行追跡が有効になっているテーブルを浅く複製することはできません。

行の追跡を有効にする場合は、まず次を実行してソース テーブルの統計を収集する必要があります。

ANALYZE TABLE テーブル名 COMPUTE DELTA STATISTICS

DELTA_CLUSTERING_CLONE_TABLE_NOT_SUPPORTED

SQLSTATE: 0A000

CLONE は、DBR バージョン < 14.0 の Liquid クラスタリングを使用するデルタ テーブルではサポートされていません。

DELTA_CLUSTERING_COLUMNS_DATATYPE_NOT_SUPPORTED

SQLSTATE: 0A000

CLUSTER BY は、次の列ではサポートされていません。 <columnsWithDataTypes> はデータスキップをサポートしていません。

DELTA_CLUSTERING_COLUMNS_MISMATCH

SQLSTATE: 42P10

指定されたクラスタリング列が既存のテーブルと一致しません。

  • 指定されたもの: <providedClusteringColumns>

  • 既存のもの: <existingClusteringColumns>

DELTA_CLUSTERING_COLUMN_MISSING_STATS

SQLSTATE: 22000

液体クラスタリングでは、クラスタリング列に統計が必要です。統計スキーマでクラスタリング列 '<columns>' が見つかりませんでした:

<schema>

DELTA_CLUSTERING_CREATE_EXTERNAL_NON_LIQUID_TABLE_FROM_LIQUID_TABLE

SQLSTATE: 22000

リキッド クラスタリングを使用したテーブル ディレクトリからリキッド クラスタリングなしの外部テーブルを作成することはできません。パス: <path>

DELTA_CLUSTERING_NOT_SUPPORTED

SQLSTATE: 42000

'<operation>' はクラスタリングをサポートしていません。

DELTA_CLUSTERING_PHASE_OUT_FAILED

SQLSTATE: 0AKDE

<phaseOutType>テーブル機能を使用してテーブルの<tableFeatureToAdd>を完了できません(理由: <reason>)。 OPTIMIZE コマンドをもう一度試してください。

== エラー ==

<error>

DELTA_CLUSTERING_REPLACE_TABLE_WITH_PARTITIONED_TABLE

SQLSTATE: 42000

リキッド クラスタリングを使用して Delta テーブルからパーティション テーブルに REPLACE を行うことはできません。

DELTA_CLUSTERING_SHOW_CREATE_TABLE_WITHOUT_CLUSTERING_COLUMNS

SQLSTATE: 0A000

SHOW CREATE TABLE は、クラスター化列のない Liquid クラスタリングを使用する Delta テーブルではサポートされていません。

DELTA_CLUSTERING_TO_PARTITIONED_TABLE_WITH_NON_EMPTY_CLUSTERING_COLUMNS

SQLSTATE: 42000

既存のテーブルに空でないクラスタリング列がある場合、Liquid クラスタリングを含む Delta テーブルをパーティション テーブルに切り替える操作 (<operation>) は許可されません。

最初にクラスタリング列を削除するには、ALTER TABLE CLUSTER BY NONE を実行してください。

DELTA_CLUSTERING_WITH_DYNAMIC_PARTITION_OVERWRITE

SQLSTATE: 42000

Liquid クラスタリングを使用する Delta テーブルでは、動的パーティション上書きモードは許可されません。

DELTA_CLUSTERING_WITH_PARTITION_PREDICATE

SQLSTATE: 0A000

OPTIMIZE Liquid クラスタリングを使用する Delta テーブルのコマンドでは、パーティション述語はサポートされていません。 述語 <predicates> を削除してください。

DELTA_CLUSTERING_WITH_ZORDER_BY

SQLSTATE: 42613

Liquid クラスタリングを使用するデルタ テーブルの OPTIMIZE コマンドでは、ZORDER BYを指定できません。 ZORDER BY (<zOrderBy>)を削除してください。

DELTA_CLUSTER_BY_AUTO_MISMATCH

SQLSTATE: 42000

指定された clusterByAuto 値が既存のテーブルの値と一致しません。

DELTA_CLUSTER_BY_INVALID_NUM_COLUMNS

SQLSTATE: 54000

Liquid クラスタリングの CLUSTER BY では、最大 <numColumnsLimit> のクラスタリング列がサポートされますが、テーブルには <actualNumColumns> クラスタリング列があります。 追加のクラスタリング列を削除してください。

DELTA_CLUSTER_BY_SCHEMA_NOT_PROVIDED

SQLSTATE: 42908

スキーマが定義されていない場合、CLUSTER BY を指定することはできません。 テーブル <tableName>のスキーマを定義してください。

DELTA_CLUSTER_BY_WITH_BUCKETING

SQLSTATE: 42613

クラスタリングとバケットの両方を指定することはできません。 クラスタリングを使用して Delta テーブルを作成する場合は、CLUSTERED BY INTO BUCKETS/bucketBy を削除してください。

DELTA_CLUSTER_BY_WITH_PARTITIONED_BY

SQLSTATE: 42613

クラスタリングとパーティション分割の両方を指定することはできません。 クラスタリングを伴うデルタテーブルを作成する場合は、PARTITIONED BY、partitionBy、または partitionedBy を削除してください。

DELTA_COLLATIONS_NOT_SUPPORTED

SQLSTATE: 0AKDC

照合順序は Delta レイクではサポートされません。

DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_PARTITIONED_COLUMN

SQLSTATE: 0AKDC

パーティション列 '<column>' では、データのスキップはサポートされていません。

DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_TYPE

SQLSTATE: 0AKDC

データスキップは、<column>型の列 '<type>' ではサポートされていません。

DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET

SQLSTATE: 42703

列マッピングが有効なテーブルでは、最大列 ID プロパティ (<prop>) が設定されていません。

DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET_CORRECTLY

SQLSTATE: 42703

列マッピングが有効なテーブルの最大列 ID プロパティ (<prop>) が <tableMax>されています。これは、すべてのフィールドの最大列 ID (<fieldMax>) よりも小さくすることはできません。

DELTA_COLUMN_MISSING_DATA_TYPE

SQLSTATE: 42601

<colName> 列のデータ型が指定されませんでした。

DELTA_COLUMN_NOT_FOUND

SQLSTATE: 42703

[<columnName>]に指定された<columnList>列が見つかりません。

DELTA_COLUMN_NOT_FOUND_IN_MERGE

SQLSTATE: 42703

<targetCol>列からターゲット テーブルの列 'INSERT' が見つかりません: <colNames>INSERT 句では、ターゲット テーブルのすべての列の値を指定する必要があります。

DELTA_COLUMN_NOT_FOUND_IN_SCHEMA

SQLSTATE: 42703

次において列 <columnName> が見つかりませんでした:

<tableSchema>

DELTA_COLUMN_PATH_NOT_NESTED

SQLSTATE: 42704

入れ子になったデータ型 <columnPath> 想定されていますが、<other>見つかりました。 次のものを探していました:

入れ子になったフィールド内の <column> のインデックス。

Schema:

<schema>

DELTA_COLUMN_STRUCT_TYPE_MISMATCH

SQLSTATE: 2200G

構造体列 <source> は、<targetType><targetField> フィールド <targetTable> に挿入できません。

DELTA_COMMIT_INTERMEDIATE_REDIRECT_STATE

SQLSTATE: 42P01

リダイレクト テーブル状態 '<state>' 内でテーブルのコミットを処理できません。

DELTA_COMPACTION_VALIDATION_FAILED

SQLSTATE: 22000

パス <compactedPath> から <newPath> への圧縮の検証に失敗しました。バグレポートを提出してください。

DELTA_COMPLEX_TYPE_COLUMN_CONTAINS_NULL_TYPE

SQLSTATE: 22005

<columName> の列 <dataType> に入れ子になった NullType が見つかりました。 Delta では、複合型での NullType の書き込みはサポートされていません。

DELTA_CONCURRENT_APPEND

SQLSTATE: 2D521

ConcurrentAppendException: 同時更新によってファイルが <partition> に追加されました。 <retryMsg> <conflictingCommit>

詳細については、<docLink> を参照してください。

DELTA_CONCURRENT_DELETE_DELETE

SQLSTATE: 2D521

ConcurrentDeleteDeleteException: このトランザクションは、同時更新によって削除された 1 つ以上のファイル (たとえば、<file>) を削除しようとしました。 操作をもう一度お試しください。<conflictingCommit>

詳細については、<docLink> を参照してください。

DELTA_CONCURRENT_DELETE_READ

SQLSTATE: 2D521

ConcurrentDeleteReadException: このトランザクションは、同時更新によって削除された 1 つ以上のファイル (<file>など) を読み取ろうとしました。 操作をもう一度お試しください。<conflictingCommit>

詳細については、<docLink> を参照してください。

DELTA_CONCURRENT_TRANSACTION

SQLSTATE: 2D521

ConcurrentTransactionException: このエラーは、複数のストリーミング クエリで同じチェックポイントを使用してこのテーブルに書き込む場合に発生します。 同じストリーミング クエリの複数のインスタンスを同時に実行しましたか?<conflictingCommit>

詳細については、<docLink> を参照してください。

DELTA_CONCURRENT_WRITE

SQLSTATE: 2D521

ConcurrentWriteException: 同時実行トランザクションは、現在のトランザクションがテーブルを読み取ってから新しいデータを書き込みました。 操作をもう一度お試しください。<conflictingCommit>

詳細については、<docLink> を参照してください。

DELTA_CONFLICT_SET_COLUMN

SQLSTATE: 42701

SET<columnList> との競合があります。

DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_COMMAND

SQLSTATE: 42616

<command>中は、コマンドから構成 "<configuration>" を設定できません。 TBLPROPERTIES 句から削除してから、もう一度コマンドを再試行してください。

DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_SESSION

SQLSTATE: 42616

<command>中に、SparkSession 構成から構成 "<configuration>" を設定することはできません。 spark.conf.unset("<configuration>") を実行して設定を解除してから、もう一度コマンドを再試行してください。

DELTA_CONSTRAINT_ALREADY_EXISTS

SQLSTATE: 42710

制約 '<constraintName>' は既に存在します。 最初に古い制約を削除してください。

古い制約:

<oldConstraint>

DELTA_CONSTRAINT_DATA_TYPE_MISMATCH

SQLSTATE: 42K09

<columnName> にはデータ型 <columnType> があり、この列は次の check 制約によって参照されるため、データ型 <dataType> に変更することはできません。

<constraints>

DELTA_CONSTRAINT_DEPENDENT_COLUMN_CHANGE

SQLSTATE: 42K09

この列は次の check 制約によって参照されるため、列 <columnName> を変更できません。

<constraints>

DELTA_CONSTRAINT_DOES_NOT_EXIST

SQLSTATE: 42704

テーブル <constraintName>から存在しない制約 <tableName> を削除することはできません。 エラーを避けるには、パラメーター IF EXISTS を指定するか、SQL セッション構成 <config><confValue>に設定してください。

DELTA_CONVERSION_MERGE_ON_READ_NOT_SUPPORTED

SQLSTATE: 0AKDC

Merge-On-Read <format> テーブルの変換はサポートされていません。 <path>, <hint>

DELTA_CONVERSION_NO_PARTITION_FOUND

SQLSTATE: 42KD6

テーブル <tableName>のカタログにパーティション情報が見つかりませんでした。 テーブルで "MSCK REPAIR TABLE" を実行してパーティションを検出しましたか?

DELTA_CONVERSION_UNSUPPORTED_COLLATED_PARTITION_COLUMN

SQLSTATE: 0AKDC

照合されたパーティション列 <colName> を持つ Parquet テーブルを Delta に変換できません。

DELTA_CONVERSION_UNSUPPORTED_COLUMN_MAPPING

SQLSTATE: 0AKDC

TO を使用する場合、構成 '' をに設定することはできません。

DELTA_CONVERSION_UNSUPPORTED_SCHEMA_CHANGE

SQLSTATE: 0AKDC

<format> テーブルでサポートされていないスキーマの変更が見つかりました:<path>, <hint>

DELTA_CONVERT_NON_PARQUET_TABLE

SQLSTATE: 0AKDC

CONVERT TO DELTA では parquet テーブルのみがサポートされていますが、<sourceName> のソース <tableId> の変換を試みようとしています。

DELTA_CONVERT_TO_DELTA_ROW_TRACKING_WITHOUT_STATS

SQLSTATE: 22000

統計を収集せずに行の追跡を有効にすることはできません。

行の追跡を有効にする場合は、次の操作を行います。

  1. コマンドを実行して統計収集を有効にする

SET <statisticsCollectionPropertyKey> = 真

  1. NO CONVERT オプションを指定せずに、DELTA TO STATISTICS を実行します。

統計を収集しない場合は、行の追跡を無効にします。

  1. 次のコマンドを実行して、テーブル機能を既定で有効にすることを非アクティブ化します。

RESET <rowTrackingTableFeatureDefaultKey>

  1. 次を実行して、既定で table プロパティを非アクティブ化します。

SET <rowTrackingDefaultPropertyKey> = 偽

DELTA_COPY_INTO_TARGET_FORMAT

SQLSTATE: 0AKDD

ターゲット COPY INTO デルタ テーブルである必要があります。

DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_SCHEMA

SQLSTATE: 42601

外部テーブルを作成しようとしている <tableName>

という外部テーブルを <path> から作成しようとしていますが、

入力パスが空です。

Delta の詳細については、<docLink> を参照してください。

DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_TXN_LOG

SQLSTATE: 42K03

Delta を使用して<tableName>から外部テーブル<path>を作成しようとしていますが、<logPath>にトランザクション ログが存在しません。 アップストリーム ジョブを調べて、format("delta") を使用して書き込み中であり、パスがテーブルのルートであることを確認します。

Delta の詳細については、<docLink> を参照してください。

DELTA_CREATE_TABLE_IDENTIFIER_LOCATION_MISMATCH

SQLSTATE: 0AKDC

別の場所を持つパスベースの Delta テーブルの作成はサポートされていません。 識別子: <identifier>、場所: <location>

DELTA_CREATE_TABLE_MISSING_TABLE_NAME_OR_LOCATION

SQLSTATE: 42601

テーブル名または場所を指定する必要があります。

DELTA_CREATE_TABLE_SCHEME_MISMATCH

SQLSTATE: 42KD7

指定したスキーマが、<path>の既存のスキーマと一致しません。

== 指定 ==

<specifiedSchema>

== 既存 ==

<existingSchema>

== Differences ==

<schemaDifferences>

既存のスキーマを保持することを意図している場合は、次のコードを省略できます。

create table コマンドのスキーマ。 それ以外の場合は、スキーマが一致していることを

スキーマが一致します。

DELTA_CREATE_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED

SQLSTATE: 42000

<tableFeature>を使用 TBLPROPERTIES テーブル機能を有効にすることはできません。 CREATE OR REPLACE TABLE CLUSTER BY を使用して、クラスタリングを使用して Delta テーブルを作成してください。

DELTA_CREATE_TABLE_WITH_DIFFERENT_CLUSTERING

SQLSTATE: 42KD7

指定したクラスタリング列が、<path>の既存のクラスタリング列と一致しません。

== 指定 ==

<specifiedColumns>

== 既存 ==

<existingColumns>

DELTA_CREATE_TABLE_WITH_DIFFERENT_PARTITIONING

SQLSTATE: 42KD7

指定したパーティション分割が、<path>の既存のパーティション分割と一致しません。

== 指定 ==

<specifiedColumns>

== 既存 ==

<existingColumns>

DELTA_CREATE_TABLE_WITH_DIFFERENT_PROPERTY

SQLSTATE: 42KD7

指定したプロパティが、<path>の既存のプロパティと一致しません。

== 指定 ==

<specifiedProperties>

== 既存 ==

<existingProperties>

DELTA_CREATE_TABLE_WITH_NON_EMPTY_LOCATION

SQLSTATE: 42601

テーブル ('<tableId>') を作成できません。 関連付けられている場所 ('<tableLocation>') は空ではなく、Delta テーブルでもない。

DELTA_DATA_CHANGE_FALSE

SQLSTATE: 0AKDE

'dataChange' オプションが false に設定されているため、テーブルメタデータを変更できません。 試行された操作: '<op>'。

DELTA_DELETED_PARQUET_FILE_NOT_FOUND

SQLSTATE: 42K03

トランザクション ログで参照 <filePath> ファイルが見つかりません。 この Parquet ファイルは、Delta のデータ保持ポリシーで削除される可能性があります。

既定の Delta データ保持期間: <logRetentionPeriod>。 Parquet ファイルの変更時刻: <modificationTime>。 Parquet ファイルの削除時刻: <deletionTime>。 デルタバージョンで削除: <deletionVersion>

DELTA_DELETION_VECTOR_MISSING_NUM_RECORDS

SQLSTATE: 2D521

numRecords 統計が欠落している削除ベクトルを持つファイルをコミットすることは無効です。

DELTA_DISABLE_SOURCE_MATERIALIZATION_IN_INSERT_REPLACE_ON_OR_USING_NOT_ALLOWED

SQLSTATE: 0AKDC

'spark.databricks.delta.insertReplaceOnOrUsing.materializeSource' オプションを 'none' に設定することにより、INSERT REPLACE ON/USING でソースの具体化を無効化することはできません。

DELTA_DISABLE_SOURCE_MATERIALIZATION_IN_MERGE_NOT_ALLOWED

SQLSTATE: 0AKDC

'spark.databricks.delta.merge.materializeSource' を 'none' に設定することによって MERGE でソースの具体化を無効にすることはできません。

DELTA_DOMAIN_METADATA_NOT_SUPPORTED

SQLSTATE: 0A000

ドメイン <domainNames>の DomainMetadata アクションが検出されましたが、DomainMetadataTableFeature が有効になっていません。

DELTA_DROP_COLUMN_AT_INDEX_LESS_THAN_ZERO

SQLSTATE: 42KD8

列を削除するインデックス <columnIndex> が 0 未満です。

DELTA_DROP_COLUMN_ON_SINGLE_FIELD_SCHEMA

SQLSTATE: 0AKDC

1 つの列を持つスキーマから列を削除することはできません。 Schema:

<schema>

DELTA_DUPLICATE_ACTIONS_FOUND

SQLSTATE: 2D521

パス <actionType>のファイル操作 '<path>' が複数回指定されました。

<conflictingPath>と競合しています。

同じパスを持つ複数のファイル操作が 1 つのコミットに存在する場合は無効です。

DELTA_DUPLICATE_COLUMNS_FOUND

SQLSTATE: 42711

重複する列が見つかりました <coltype>: <duplicateCols>

DELTA_DUPLICATE_COLUMNS_ON_INSERT

SQLSTATE: 42701

INSERT句の列名が重複しています。

DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE

SQLSTATE: 42701

<message>

テーブルを更新する前に、重複する列を削除してください。

DELTA_DUPLICATE_DATA_SKIPPING_COLUMNS

SQLSTATE: 42701

重複データをスキップする列が見つかりました: <columns>

DELTA_DUPLICATE_DOMAIN_METADATA_INTERNAL_ERROR

SQLSTATE: 42601

内部エラー: 同じトランザクション内の 2 つの DomainMetadata アクションに同じドメイン <domainName>があります。

重複したログエントリが見つかりました

SQLSTATE: 55019

デルタ ログは無効な状態です。 <numDuplicates> パスには、バージョン <version>のエントリが重複しています。 RESTORE 複製を導入したコミットの前のバージョンに移行するか、サポートにお問い合わせください。

DELTA_DV_HISTOGRAM_DESERIALIZATON

SQLSTATE: 22000

テーブルの整合性検証中に、削除されたレコード数ヒストグラムを逆シリアル化できませんでした。

DELTA_DYNAMIC_PARTITION_OVERWRITE_DISABLED

SQLSTATE: 0A000

動的パーティション上書きモードは、セッション構成または書き込みオプションによって指定されますが、spark.databricks.delta.dynamicPartitionOverwrite.enabled=falseによって無効になります。

DELTA_EMPTY_DATA

SQLSTATE: 428GU

Delta テーブルの作成に使用されるデータには列がありません。

DELTA_EMPTY_DIRECTORY

SQLSTATE: 42K03

ディレクトリにファイルが見つかりません: <directory>

DELTA_EXCEED_CHAR_VARCHAR_LIMIT

SQLSTATE: 22001

値 "<value>" が char/varchar 型の長さの制限を超えています。 失敗した検査: <expr>

デルタ_外部_メタデータ_未解決_投影

SQLSTATE: 42703

プロジェクション クエリ '<query>' はスキーマで解決できません。 <schemaTreeString>

DELTA外部メタデータ_非対応ソース

SQLSTATE: 0AKDC

外部メタデータでは、ソースはサポートされていません。

詳細については、DELTA_EXTERNAL_METADATA_UNSUPPORTED_SOURCEを参照してください。

DELTA_FAILED_CAST_PARTITION_VALUE

SQLSTATE: 22018

パーティション値 <value><dataType>にキャストできませんでした。

DELTA_FAILED_FIND_ATTRIBUTE_IN_OUTPUT_COLUMNS

SQLSTATE: 42703

既存のターゲット出力<newAttributeName><targetOutputColumns>が見つかりませんでした。

DELTA_FAILED_INFER_SCHEMA

SQLSTATE: 42KD9

指定されたファイルの一覧からスキーマを推論できませんでした。

DELTA_FAILED_MERGE_SCHEMA_FILE

SQLSTATE: 42KDA

ファイル <file>のスキーマをマージできませんでした:

<schema>

DELTA_FAILED_OPERATION_ON_SHALLOW_CLONE

SQLSTATE: 42893

浅い複製<sourceTable>がまだ存在し、浅いクローンで次のエラーが発生したため、ソース テーブル <targetTable>で操作を実行できませんでした。<message>

SQLSTATE: KD001

ファイルのフッターを読み取れませんでした: <currentFile>

DELTA_FAILED_RECOGNIZE_PREDICATE

SQLSTATE: 42601

述語 '<predicate>' を認識できません。

DELTA_FAILED_SCAN_WITH_HISTORICAL_VERSION

SQLSTATE: KD002

最新バージョンの Delta ソースのフル スキャンが必要ですが、バージョン <historicalVersion>の履歴スキャンが見つかりました。

DELTA_FAILED_TO_MERGE_FIELDS

SQLSTATE: 22005

フィールド '<currentField>' と '<updateField>' をマージできませんでした。

DELTA_FEATURES_PROTOCOL_METADATA_MISMATCH

SQLSTATE: KD004

次のテーブル機能はメタデータで有効になっていますが、プロトコルには記載されていないため、このテーブルを操作できません: <features>

DELTA_FEATURES_REQUIRE_MANUAL_ENABLEMENT

SQLSTATE: 42000

テーブル スキーマでは、次のテーブル機能を手動で有効にする必要があります。<unsupportedFeatures>

これを行うには、上記の各機能に対して次のコマンドを実行します。

ALTER TABLE table_name SET TBLPROPERTIES ('delta.feature.feature_name' = 'supported')

"table_name" と "feature_name" を実際の値に置き換えます。

現在サポートされている機能: <supportedFeatures>

DELTA_FEATURE_CAN_ONLY_DROP_CHECKPOINT_PROTECTION_WITH_HISTORY_TRUNCATION

SQLSTATE: 55000

チェックポイント保護機能を削除できませんでした。

この機能は、履歴を切り捨てることによってのみ削除できます。

TRUNCATE HISTORY オプションを使用して、もう一度やり直してください。

ALTER TABLE テーブル名 DROP FEATURE チェックポイント保護 TRUNCATE HISTORY

DELTA_FEATURE_DROP_CHECKPOINT_FAILED

SQLSTATE: 22KD0

チェックポイントの作成でエラーが発生したため、<featureName> の削除に失敗しました。

後でもう一度やり直してください。 問題が解決しない場合は、Databricks サポートにお問い合わせください。

DELTA_FEATURE_DROP_CHECKPOINT_PROTECTION_WAIT_FOR_RETENTION_PERIOD

SQLSTATE: 22KD0

削除された機能のトレースが残っているため、操作が成功しませんでした

操作が正常に完了しませんでした。 CheckpointProtection は、これらの履歴まで削除できません。

バージョンの有効期限が切れています。

CheckpointProtection を削除するには、履歴バージョンの

有効期限が経過するのを待ってから、このコマンドをもう一度実行してください。 履歴バージョンの保持期間は次の値です。

現在、<truncateHistoryLogRetentionPeriod>するように構成されています。

DELTA_FEATURE_DROP_CONFLICT_REVALIDATION_FAIL

SQLSTATE: 40000

同時実行トランザクションによってテーブルが変更されたため、機能を削除できません。

操作をもう一度お試しください。

<concurrentCommit>

DELTA_FEATURE_DROP_DEPENDENT_FEATURE

SQLSTATE: 55000

このテーブルの他のフィーチャ (<feature>) は <dependentFeatures>によって異なるため、テーブルフィーチャ <feature> を削除できません。

それらを最初に削除してから、この機能を削除することを検討してください。

DELTA_FEATURE_DROP_FEATURE_IS_DELTA_PROPERTY

SQLSTATE: 42000

このテーブルの <property> は、テーブル機能ではなくデルタ テーブル プロパティであるため、削除できません。

DELTA_FEATURE_DROP_FEATURE_NOT_PRESENT

SQLSTATE: 55000

テーブルのプロトコルに現在存在しないため、このテーブルから <feature> を削除できません。

DELTA_FEATURE_DROP_HISTORICAL_VERSIONS_EXIST

SQLSTATE: 22KD0

デルタ ログには、この機能を使用する履歴バージョンが含まれているため、<feature> を削除できません。

履歴の保持期間 (<logRetentionPeriodKey>=<logRetentionPeriod>) までお待ちください

は、この機能が最後にアクティブになった後に渡されました。

または、TRUNCATE HISTORY のリテンション期間 (<truncateHistoryLogRetentionPeriod>) が期限切れになるまで待ってください

そして、次のコマンドを実行します。

ALTER TABLE テーブル名 DROP FEATURE 機能名 TRUNCATE HISTORY

DELTA_FEATURE_DROP_HISTORY_TRUNCATION_NOT_ALLOWED

SQLSTATE: 42000

特定の機能では、履歴の切り捨ては必要ありません。

DELTA_FEATURE_DROP_NONREMOVABLE_FEATURE

SQLSTATE: 0AKDC

この機能の削除はサポートされていないため、<feature> を削除できません。

Databricks サポートにお問い合わせください。

DELTA_FEATURE_DROP_UNSUPPORTED_CLIENT_FEATURE

SQLSTATE: 0AKDC

この Databricks バージョンではサポートされていないため、<feature> を削除できません。

より高いバージョンで Databricks を使用することを検討してください。

DELTA_FEATURE_DROP_WAIT_FOR_RETENTION_PERIOD

SQLSTATE: 22KD0

<feature> の削除が部分的に成功しました。

この機能は、現在のバージョンのテーブルでは使用されなくなりました。 ただし、この機能は

履歴バージョンのテーブルにまだ存在しています。 テーブル機能を削除できない

テーブル プロトコルからテーブル機能を削除できません。

プロトコルからテーブル機能を削除するには、履歴バージョンが処理されるのを待ってください。

有効期限が経過するのを待ってから、このコマンドをもう一度実行してください。 履歴バージョンの保持期間は次の値です。

現在、<logRetentionPeriodKey>=<logRetentionPeriod>として構成されています。

または、TRUNCATE HISTORY のリテンション期間 (<truncateHistoryLogRetentionPeriod>) が期限切れになるまで待ってください

そして、次のコマンドを実行します。

ALTER TABLE テーブル名 DROP FEATURE 機能名 TRUNCATE HISTORY

DELTA_FEATURE_REQUIRES_HIGHER_READER_VERSION

SQLSTATE: 55000

より高いリーダー プロトコル バージョン (現在の <feature>) が必要なため、テーブル機能 <current> を有効にできません。 テーブルのリーダー プロトコルバージョンを <required>にアップグレードするか、リーダー テーブル機能をサポートするバージョンにアップグレードすることを検討してください。 表プロトコルのバージョンの詳細については、<docLink> を参照してください。

DELTA_FEATURE_REQUIRES_HIGHER_WRITER_VERSION

SQLSTATE: 55000

より高いライター プロトコル バージョン (現在の <feature>) が必要なため、テーブル機能 <current> を有効にできません。 テーブルのライター プロトコル バージョンを <required>にアップグレードするか、ライター テーブル機能をサポートするバージョンにアップグレードすることを検討してください。 表プロトコルのバージョンの詳細については、<docLink> を参照してください。

DELTA_FILE_ALREADY_EXISTS

SQLSTATE: 42K04

既存のファイル パス <path>

DELTA_FILE_LIST_AND_PATTERN_STRING_CONFLICT

SQLSTATE: 42613

ファイル リストとパターン文字列の両方を指定できません。

DELTA_FILE_NOT_FOUND

SQLSTATE: 42K03

ファイル パス <path>

DELTA_FILE_NOT_FOUND_DETAILED

SQLSTATE: 42K03

トランザクション ログで参照 <filePath> ファイルが見つかりません。 これは、テーブル DELETE ステートメントを使用するのではなく、ファイル システムからデータが手動で削除された場合に発生します。 詳細については、<faqPath> を参照してください。

DELTA_FILE_OR_DIR_NOT_FOUND

SQLSTATE: 42K03

そのようなファイルまたはディレクトリはありません: <path>

DELTA_FILE_TO_OVERWRITE_NOT_FOUND

SQLSTATE: 42K03

候補ファイルの中に書き換え対象のファイル (<path>) が見つかりません。

<pathList>

DELTA_FOUND_MAP_TYPE_COLUMN

SQLSTATE: KD003

MapType が見つかりました。 MapType のキーまたは値にアクセスするには、1 つを指定します。

of:

<key> または

<value>

その後に列の名前が続きます (その列が構造体型の場合のみ)。

たとえば、mymap.key.mykey

列が基本型の場合は、mymap.keyまたは mymap.value で十分です。

Schema:

<schema>

DELTA_FSCK_CANNOT_REPAIR_DELTA_LOG

SQLSTATE: 55000

FSCK はテーブルを修復できません。 テーブルには、ログの再生を開始するための有効なチェックポイントがなく、最初のバージョンから再生するのに十分なログ履歴がありません。

DELTA_FSCK_CONCURRENT_MODIFICATION

SQLSTATE: 2D521

FSCK の実行中にテーブルへの同時変更が検出されました。 FSCK コマンドを再試行し、修復プロセス中に他の操作がテーブルに書き込まれるのを確認してください。

DELTA_FSCK_DRY_RUN_CANNOT_PROCEED_WITH_INVALID_CHECKPOINTS

SQLSTATE: 55000

無効なチェックポイントが検出されたため、FSCK DRY RUN を続行できません。 チェックポイントを修復するには、最初に 'FSCK REPAIR TABLE テーブル METADATA ONLY' を実行してください。

DELTA_FSCK_DRY_RUN_CANNOT_PROCEED_WITH_MISSING_OR_INVALID_PARTITION_FILES

SQLSTATE: 55000

不足しているファイルまたは無効なパーティション値を持つファイルが検出されたため、FSCK DRY RUN を続行できません。 テーブルを修復するには、最初に 'FSCK REPAIR TABLE テーブル' を実行してください。

DELTA_FSCK_INVALID_BARRIER_CHECKPOINT

SQLSTATE: 55000

FSCK はテーブルを修復できません。 無効なチェックポイントの一部は保護されており、削除できません。 Databricks サポートにお問い合わせください。

DELTA_FSCK_NO_VALID_CHECKPOINT

SQLSTATE: 55000

FSCK はテーブルを修復できません。 このテーブルのすべてのチェックポイントが無効です。 Databricks サポートにお問い合わせください。

DELTA_GENERATED_COLUMNS_DATA_TYPE_MISMATCH

SQLSTATE: 42K09

<columnName> にはデータ型 <columnType> があり、この列は次の生成列によって参照されるため、データ型 <dataType> に変更することはできません。

<generatedColumns>

DELTA_GENERATED_COLUMNS_DEPENDENT_COLUMN_CHANGE

SQLSTATE: 42K09

この列は次の生成された列によって参照されるため、列 <columnName> を変更できません。

<generatedColumns>

DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH

SQLSTATE: 42K09

生成された列 <columnName> の式の型は <expressionType>されていますが、列の型は <columnType>

DELTA_GENERATED_COLUMN_UPDATE_TYPE_MISMATCH

SQLSTATE: 42K09

<currentName> は、生成された列、または生成された列によって使用される列です。 データ型は <currentDataType> であり、データ型 <updateDataType>に変換することはできません。

DELTA_GEOSPATIAL_NOT_SUPPORTED

SQLSTATE: 0AKDC

このバージョンの Delta Lake では、地理空間の種類はサポートされていません。

DELTA_GEOSPATIAL_SRID_NOT_SUPPORTED

SQLSTATE: 0AKDC

地理空間型にはサポートされていないSRID: <srid>があります。 デルタ テーブルでは、負以外のスリッド値のみがサポートされます。

DELTA_ICEBERG_COMPAT_VIOLATION

SQLSTATE: KD00E

IcebergCompatV<version> の検証に失敗しました。

詳細については、DELTA_ICEBERG_COMPAT_VIOLATION を参照してください

DELTA_ICEBERG_WRITER_COMPAT_VIOLATION

SQLSTATE: KD00E

IcebergWriterCompatV<version> の検証に失敗しました。

詳細については、DELTA_ICEBERG_WRITER_COMPAT_VIOLATION を参照してください

DELTA_IDENTITY_COLUMNS_ALTER_COLUMN_NOT_SUPPORTED

SQLSTATE: 429BQ

ALTER TABLE ALTER COLUMN は、IDENTITY 列ではサポートされていません。

DELTA_IDENTITY_COLUMNS_ALTER_NON_DELTA_FORMAT

SQLSTATE: 0AKDD

ALTER TABLE ALTER COLUMN SYNC IDENTITY は Delta でのみサポートされます。

DELTA_IDENTITY_COLUMNS_ALTER_NON_IDENTITY_COLUMN

SQLSTATE: 429BQ

ALTER TABLE ALTER COLUMN SYNC IDENTITY は、IDENTITY 以外の列では呼び出すことができません。

DELTA_IDENTITY_COLUMNS_EXPLICIT_INSERT_NOT_SUPPORTED

SQLSTATE: 42808

<colName>GENERATED ALWAYS AS IDENTITY値の指定はサポートされていません。

DELTA_IDENTITY_COLUMNS_ILLEGAL_STEP

SQLSTATE: 42611

列ステップ IDENTITY 0 にすることはできません。

DELTA_IDENTITY_COLUMNS_NON_DELTA_FORMAT

SQLSTATE: 0AKDD

IDENTITY 列は Delta でのみサポートされます。

DELTA_IDENTITY_COLUMNS_PARTITION_NOT_SUPPORTED

SQLSTATE: 42601

PARTITIONED BY IDENTITY<colName> はサポートされていません。

DELTA_IDENTITY_COLUMNS_REPLACE_COLUMN_NOT_SUPPORTED

SQLSTATE: 429BQ

ALTER TABLE REPLACE COLUMNS は、IDENTITY 列を持つテーブルではサポートされていません。

DELTA_IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE

SQLSTATE: 428H2

dataType <dataType> は、IDENTITY 列ではサポートされていません。

DELTA_IDENTITY_COLUMNS_UPDATE_NOT_SUPPORTED

SQLSTATE: 42808

UPDATEIDENTITY<colName> はサポートされていません。

DELTA_IDENTITY_COLUMNS_WITH_GENERATED_EXPRESSION

SQLSTATE: 42613

IDENTITY 列は、生成された列式では指定できません。

DELTA_ILLEGAL_OPTION

SQLSTATE: 42616

オプション '<input>' の値 '<name>' が無効です。<explain>

DELTA_ILLEGAL_USAGE

SQLSTATE: 42601

Delta テーブルを <option> する場合、<operation> の使用は許可されません。

DELTA_INCONSISTENT_BUCKET_SPEC

SQLSTATE: 42000

Delta バケットテーブルの BucketSpec がメタデータからの BucketSpec と一致しません。 予想: <expected>。 実際: <actual>

DELTA_INCONSISTENT_LOGSTORE_CONFS

SQLSTATE: F0000

(<setKeys>) を異なる値に設定することはできません。 いずれか 1 つだけを設定するか、同じ値に設定してください。

DELTA_INCORRECT_ARRAY_ACCESS

SQLSTATE: KD003

ArrayType に誤ってアクセスしています。 arrayname.element.elementname の位置を使用して、

配列に追加します。

DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME

SQLSTATE: KD003

ArrayType が見つかりました。 ArrayType の要素にアクセスするには、指定します。

<rightName>の代わりに <wrongName> します。

Schema:

<schema>

DELTA_INCORRECT_GET_CONF

SQLSTATE: 42000

getConf()の代わりに conf.getConf() を使用します。

DELTA_INCORRECT_LOG_STORE_IMPLEMENTATION

SQLSTATE: 0AKDC

このエラーは通常、既定の LogStore の実装、つまり HDFSLogStore を使用して

は、HDFSLogStore を使用して、HDFS 以外のストレージ システム上の Delta テーブルに書き込みます。

テーブルの更新に対するトランザクション ACID の保証を取得するには、次の値を使用する必要があります。

お使いのストレージ システムに適した LogStore の正しい実装。

詳細については、<docLink> を参照してください。

DELTA_INDEX_LARGER_OR_EQUAL_THAN_STRUCT

SQLSTATE: 42KD8

削除する列のインデックス <index> が構造体の長さ <length> と等しいか、それ以上です。

DELTA_INDEX_LARGER_THAN_STRUCT

SQLSTATE: 42KD8

<index>を追加するインデックス <columnName>が構造体の長さ (<length>) より大きい。

DELTA_INSERT_COLUMN_ARITY_MISMATCH

SQLSTATE: 42802

'<tableName>'、 <columnName>; に書き込めません。ターゲット テーブルには <numColumns> 列がありますが、挿入されたデータには <insertColumns> 列があります。

DELTA_INSERT_COLUMN_MISMATCH

SQLSTATE: 42802

<columnName> は、 INSERTで指定されていません。

DELTA_INSERT_REPLACE_ON_AMBIGUOUS_COLUMNS_IN_CONDITION

SQLSTATE: 42702

列の <columnNames> は、 INSERT REPLACE ONの条件であいまいです。 これらの列のエイリアスを指定することを検討してください。

挿入置換が有効になっていないデルタ

SQLSTATE: 0A000

INSERT INTO ... REPLACE ONを有効にするには、Databricks の担当者にお問い合わせください。SQL API と DataFrame API。

DELTA_INSERT_REPLACE_ON_UNRESOLVED_COLUMNS_IN_CONDITION

SQLSTATE: 42703

列の <columnNames> は、 INSERT REPLACE ONの条件では解決できません。

DELTA_INVALID_AUTO_COMPACT_TYPE

SQLSTATE: 22023

自動圧縮型 <value> は無効です。 使用できる値は、<allowed>です。

DELTA_INVALID_BUCKET_COUNT

SQLSTATE: 22023

バケット数 <invalidBucketCount> は無効です。 バケット数は、2 の累乗で 8 以上の正の数である必要があります。 代わりに <validBucketCount> を使用できます。

DELTA_INVALID_BUCKET_INDEX

SQLSTATE: 22023

パーティション列にバケット列が見つかりません。

DELTA_INVALID_CALENDAR_INTERVAL_EMPTY

SQLSTATE: 2200P

間隔を null または空白にすることはできません。

DELTA_INVALID_CDC_RANGE

SQLSTATE: 22003

開始 <start> から終了 <end> までの CDC 範囲が無効でした。 終了は開始前に設定できません。

DELTA_INVALID_CHARACTERS_IN_COLUMN_NAME

SQLSTATE: 42K05

属性名 "<columnName>" の中に無効な文字が含まれています。;{}()\n\t="。 エイリアスを使用して名前を変更してください。

DELTA_INVALID_CHARACTERS_IN_COLUMN_NAMES

SQLSTATE: 42K05

' の中に無効な文字が見つかりました。;{}() スキーマの列名に \t=' を\nします。

列名 <invalidColumnNames> は無効です。

他の文字を使用して、もう一度やり直してください。

または、列マッピングを有効にして、これらの文字を使用し続けます。

DELTA_INVALID_CHECK_CONSTRAINT_REFERENCES

SQLSTATE: 42621

CHECK制約で<colName>が見つかりました。 check 制約では、存在しない列を使用できません。

DELTA_INVALID_CLONE_PATH

SQLSTATE: 22KD1

CLONE のターゲットの場所は、絶対パスまたはテーブル名である必要があります。 ツールを使用します。

<path>の代わりに絶対パスを指定します。

DELTA_INVALID_COLUMN_NAMES_WHEN_REMOVING_COLUMN_MAPPING

SQLSTATE: 42K05

' の中に無効な文字が見つかりました。;{}() スキーマの列名に \t=' を\nします。

列名 <invalidColumnNames> は無効です。

列名に無効な文字がある場合、列マッピングを削除できません。

無効な文字を削除するには、列の名前を変更し、このコマンドをもう一度実行してください。

DELTA_INVALID_FORMAT

SQLSTATE: 22000

互換性のない形式が検出されました。

Delta のトランザクション ログが <deltaRootPath>/_delta_logで見つかりました。

しかし、format("<operation> <path>") を使用して <format> を試しています。 次を使用する必要があります

Delta テーブルに対する読み取り時および書き込み時には、'format(“delta”)’ を使用する必要があります。

Delta の詳細については、<docLink> を参照してください。

DELTA_INVALID_GENERATED_COLUMN_REFERENCES

SQLSTATE: 42621

生成された列では、存在しない列または別の生成列を使用できません。

DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS

SQLSTATE: 42616

べき等データフレーム書き込みのオプション <reason> が無効です

DELTA_INVALID_INTERVAL

SQLSTATE: 22006

<interval> は有効な INTERVALではありません。

DELTA_INVALID_INVENTORY_SCHEMA

SQLSTATE: 42000

指定した INVENTORY のスキーマには、すべての必須フィールドが含まれていません。 必須フィールド: <expectedSchema>

DELTA_INVALID_ISOLATION_LEVEL

SQLSTATE: 25000

無効な分離レベル '<isolationLevel>'。

DELTA_INVALID_LOGSTORE_CONF

SQLSTATE: F0000

(<classConfig>) と (<schemeConfig>) を同時に設定することはできません。 それらのグループを 1 つだけ設定してください。

DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA

SQLSTATE: 42000

マネージド テーブル <tableName> を作成しようとしています

Delta を使用していますが、スキーマが指定されていません。

Delta の詳細については、<docLink> を参照してください。

DELTA_INVALID_PARTITION_COLUMN

SQLSTATE: 42996

<columnName> テーブル <tableName>の有効なパーティション列ではありません。

DELTA_INVALID_PARTITION_COLUMN_NAME

SQLSTATE: 42996

" の間で無効な文字を持つパーティション列が見つかりました。;{}()\n\t="。 名前をパーティション列に変更してください。 このチェックをオフにするには、spark.conf.set("spark.databricks.delta.partitionColumnValidity.enabled", false) を設定しますが、Delta の他の機能が正しく機能しない可能性があるため、これは推奨されません。

DELTA_INVALID_PARTITION_COLUMN_TYPE

SQLSTATE: 42996

パーティション列として <name> 型の列 <dataType> を使用することはできません。

DELTA_INVALID_PARTITION_PATH

SQLSTATE: 22KD1

パーティション パス フラグメントは、part1=foo/part2=barのような形式である必要があります。 パーティション パス: <path>

DELTA_INVALID_PROTOCOL_DOWNGRADE

SQLSTATE: KD004

プロトコル バージョンを (<oldProtocol>) から (<newProtocol>) にダウングレードすることはできません。

DELTA_INVALID_PROTOCOL_VERSION

SQLSTATE: KD004

サポートされていないデルタ プロトコル バージョン: テーブル "<tableNameOrPath>" にはリーダー バージョンの <readerRequired> とライター バージョンの <writerRequired>が必要ですが、このバージョンの Databricks では、リーダー バージョンの <supportedReaders> とライターバージョン <supportedWriters>がサポートされています。 新しいリリースにアップグレードしてください。

DELTA_INVALID_TABLE_VALUE_FUNCTION

SQLSTATE: 22000

関数 <function> は、CDC 読み取りでサポートされていないテーブル値関数です。

DELTA_INVALID_TIMESTAMP_FORMAT

SQLSTATE: 22007

指定されたタイムスタンプ <timestamp> が、予期される構文 <format>と一致しません。

DELTA_LOG_ALREADY_EXISTS

SQLSTATE: 42K04

デルタ ログは既に <path>に存在します。

DELTA_LOG_FILE_NOT_FOUND

SQLSTATE: 42K03

チェックポイント バージョン<version>から開始するテーブル バージョン<checkpointVersion>を構築するためのデルタログファイルを<logPath>で取得できません。

DELTA_LOG_FILE_NOT_FOUND_FOR_STREAMING_SOURCE

SQLSTATE: 42K03

削除したことがない場合は、クエリが遅れている可能性があります。 チェックポイントを削除して最初から再起動してください。 この問題を再び防ぐために、Delta テーブルの保持ポリシーを更新します。

DELTA_LOG_JSON_FILE_ACCESS_DENIED

SQLSTATE: 58000

デルタ ログ JSON ファイルの読み取り時にアクセスが拒否されました: <filePath>。 Delta テーブルの場所に対する読み取りアクセス許可があることを確認します。

DELTA_MATERIALIZED_ROW_TRACKING_COLUMN_NAME_MISSING

SQLSTATE: 22000

具体化された <rowTrackingColumn> 列名が <tableName>に見つかりません。

DELTA_MAX_ARRAY_SIZE_EXCEEDED

SQLSTATE: 42000

Int.MaxValue - 8 未満の制限を使用してください。

DELTA_MAX_COMMIT_RETRIES_EXCEEDED

SQLSTATE: 40000

このコミットは <numAttempts> 回試行されましたが、成功しなかったため失敗しました。

これは、Delta テーブルが多数の同時実行によって継続的にコミットされていることが原因で発生する可能性があります。

commits.

バージョン<startVersion>よりコミット開始

バージョン<failVersion>でコミットに失敗しました。

コミットを試みたアクションの数: <numActions>

このコミットの試行に費やされた合計時間: <timeSpent> ミリ秒

DELTA_MAX_LIST_FILE_EXCEEDED

SQLSTATE: 42000

ファイル リストの最大エントリ数は <maxFileListSize> ですが、<numFiles> エントリありました。

DELTA_MERGE_ADD_VOID_COLUMN

SQLSTATE: 42K09

VOID 型の列 <newColumn> を追加できません。 void 以外の型を明示的に指定してください。

DELTA_MERGE_INCOMPATIBLE_DATATYPE

SQLSTATE: 42K09

互換性のないデータ型の <currentDataType><updateDataType>をマージできませんでした。

DELTA_MERGE_INCOMPATIBLE_DECIMAL_TYPE

SQLSTATE: 42806

互換性のない <decimalRanges>を持つ 10 進型をマージできませんでした。

DELTA_MERGE_MATERIALIZE_SOURCE_FAILED_REPEATEDLY

SQLSTATE: 25000

MERGE ステートメントのソースを具体化し続けることは、繰り返し失敗しました。

DELTA_MERGE_MISSING_WHEN

SQLSTATE: 42601

WHEN ステートメントには、少なくとも 1 つの MERGE 句が必要です。

DELTA_MERGE_RESOLVED_ATTRIBUTE_MISSING_FROM_INPUT

SQLSTATE: 42601

演算子 <missingAttributes><input> に解決された属性 <merge> がありません。

DELTA_MERGE_SOURCE_CACHED_DURING_EXECUTION

SQLSTATE: 25000

MERGE操作の実行中にソース プランがキャッシュされたため、MERGE操作が失敗しました。

DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY

SQLSTATE: 22005

予期しない割り当てキー: <unexpectedKeyClass> - <unexpectedKeyObject>

DELTA_MERGE_UNRESOLVED_EXPRESSION

SQLSTATE: 42601

<sqlExpr> の指定された列 <clause><cols> を解決できません。

DELTA_METADATA_CHANGED

SQLSTATE: 2D521

MetadataChangedException: Delta テーブルのメタデータは、同時更新によって変更されました。 操作をもう一度お試しください。<conflictingCommit>

詳細については、<docLink> を参照してください。

DELTA_MISSING_CHANGE_DATA

SQLSTATE: KD002

範囲 [<startVersion> , <endVersion>] の変更データを取得中に、変更データが取得されなかった場合にエラーが発生しました

バージョン [<version>] 用に記録されます。 このテーブルで変更データ フィードを有効にしている場合は、

DESCRIBE HISTORY を使用して、最初に有効にされた日時を確認します。

それ以外の場合は、変更データの記録を開始するには、 ALTER TABLE table_name SET TBLPROPERTIES

(<key>=true).

DELTA_MISSING_COLUMN

SQLSTATE: 42703

テーブル列に <columnName> が見つかりません: <columnList>

DELTA_MISSING_COMMIT_INFO

SQLSTATE: KD004

このテーブルには、すべてのコミットに CommitInfo アクションが存在する必要がある機能 <featureName> が有効になっています。 ただし、コミット バージョン <version>には CommitInfo アクションがありません。

DELTA_MISSING_COMMIT_TIMESTAMP

SQLSTATE: KD004

このテーブルには、CommitInfo アクションに commitTimestamp が存在する必要がある機能 <featureName> が有効になっています。 ただし、このフィールドはコミット バージョン <version>で設定されていません。

DELTA_MISSING_DELTA_TABLE

SQLSTATE: 42P01

<tableName> は Delta テーブルではありません。

DELTA_MISSING_DELTA_TABLE_COPY_INTO

SQLSTATE: 42P01

テーブルが存在しません。 最初に CREATE TABLE <tableName>を使用して空の Delta テーブルを作成します。

DELTA_MISSING_ICEBERG_CLASS

SQLSTATE: 56038

Apache Iceberg クラスが見つかりませんでした。 Delta Apache Iceberg のサポートがインストールされていることを確認してください。

詳細については、<docLink> を参照してください。

DELTA_MISSING_NOT_NULL_COLUMN_VALUE

SQLSTATE: 23502

<columnName> 制約を持つ列 NOT NULLは、テーブルに書き込まれるデータにはありません。

DELTA_MISSING_PARTITION_COLUMN

SQLSTATE: 42KD6

パーティション列 <columnName> スキーマ <columnList>で見つかりません。

DELTA_MISSING_PART_FILES

SQLSTATE: 42KD6

チェックポイント バージョンのすべてのパーツ ファイル ( <version>) が見つかりませんでした。

DELTA_MISSING_PROVIDER_FOR_CONVERT

SQLSTATE: 0AKDC

CONVERT TO DELTA がサポートするのは、Parquet テーブルのみです。 ターゲットを Parquet として書き換えてください。 parquet ディレクトリの場合は <path>

DELTA_MISSING_ROW_TRACKING_FOR_CDC

SQLSTATE: 0AKDE

行の追跡が有効になっていないため、 <tableName> の変更データを取得中にエラーが発生しました。 行の追跡を有効にするには、 ALTER TABLE table_name SET TBLPROPERTIES (<key>=true)を使用します。

DELTA_MISSING_SET_COLUMN

SQLSTATE: 42703

SET<columnName> が指定された列 <columnList> に見つかりません。

DELTA_MISSING_TRANSACTION_LOG

SQLSTATE: 42000

互換性のない形式が検出されました。

Delta を使用して <operation> <path> を行おうとしていますが、

トランザクション ログが存在します。 アップストリーム ジョブを確認して、書き込み中であることを確認します

format("delta") を使用していること、およびテーブル ベース パスに %1$s を試していること。

Delta の詳細については、<docLink> を参照してください。

DELTA_MODE_NOT_SUPPORTED

SQLSTATE: 0AKDC

指定されたモード '<mode>' はサポートされていません。 サポートされているモードは、 <supportedModes>です。

DELTA_MULTIPLE_CDC_BOUNDARY

SQLSTATE: 42614

CDC 読み取り用に複数の <startingOrEnding> 引数が指定されました。 <startingOrEnding>タイムスタンプまたは <startingOrEnding>バージョンのいずれかを指定してください。

DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER

SQLSTATE: 42614

複数のブルーム フィルターのインデックス構成が列 <columnName> のコマンドに渡されました。

DELTA_MULTIPLE_SOURCE_ROW_MATCHING_TARGET_ROW_IN_MERGE

SQLSTATE: 21506

複数のソース行が一致し、同じ行を変更しようとした場合にマージを実行できない

差分テーブル内のターゲット行が競合する可能性があります。 マージの SQL セマンティクスによって、

同じターゲット行で複数のソース行が一致する場合、結果があいまいになる可能性があります

一致するソース行を更新または削除するために使用する必要があるソース行が不明であるため

ターゲット行。 ソース テーブルを前処理して、次の可能性を排除できます。

複数の一致。 を参照してください。

<usageReference>

DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_COMMAND

SQLSTATE: 42616

<command> の間、両方の調整されたコミット構成 ("delta.coordinatedCommits.commitCoordinator-preview"、"delta.coordinatedCommits.commitCoordinatorConf-preview") がコマンド内に設定されるか、あるいはどちらも設定されません。 欠落: "<configuration>"。 TBLPROPERTIES 句でこの構成を指定するか、他の構成を削除してから、もう一度コマンドを再試行してください。

DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_SESSION

SQLSTATE: 42616

<command> の間、両方の調整されたコミット構成 ("delta.coordinatedCommits.commitCoordinator-preview"、"delta.coordinatedCommits.commitCoordinatorConf-preview") が SparkSession 構成内に設定されるか、あるいはどちらも設定されません。 欠落: "<configuration>"。 SparkSession でこの構成を設定するか、他の構成の設定を解除してから、もう一度コマンドを再試行してください。

DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE

SQLSTATE: 42000

次の列名は、Delta バケットテーブルの内部使用専用に予約されています: <names>

DELTA_NESTED_FIELDS_NEED_RENAME

SQLSTATE: 42K05

入力スキーマには、ターゲット テーブルとは異なる大文字の入れ子になったフィールドが含まれています。

Delta への書き込み中にこれらのフィールドのデータが失われるのを防ぐために、名前を変更する必要があります。

Fields:

<fields>

元のスキーマ:

<schema>

DELTA_NESTED_NOT_NULL_CONSTRAINT

SQLSTATE: 0AKDC

フィールド <nestType><parent> 型には、NOT NULL 制約が含まれています。 デルタは、配列またはマップ内に入れ子になった NOT NULL 制約をサポートしていません。 このエラーを抑制し、指定した制約を警告なく無視するには、<configKey> = true に設定します。

解析された <nestType> 型:

<nestedPrettyJson>

DELTA_NESTED_SUBQUERY_NOT_SUPPORTED

SQLSTATE: 0A000

入れ子になったサブクエリは、<operation> 条件ではサポートされていません。

DELTA_NEW_CHECK_CONSTRAINT_VIOLATION

SQLSTATE: 23512

<numRows> <tableName>の行が新しいCHECK制約 (<checkConstraint>) に違反しています。

DELTA_NEW_NOT_NULL_VIOLATION

SQLSTATE: 23512

<numRows> <tableName>内の行は、NOT NULLの新しい<colName>制約に違反します。

DELTA_NON_BOOLEAN_CHECK_CONSTRAINT

SQLSTATE: 42621

CHECK 制約 '<name>' (<expr>) はブール式にする必要があります。

DELTA_NON_DETERMINISTIC_EXPRESSION_IN_CHECK_CONSTRAINT

SQLSTATE: 42621

CHECK制約で<expr>が見つかりました。 CHECK制約では、非決定的な式を使用できません。

DELTA_NON_DETERMINISTIC_EXPRESSION_IN_GENERATED_COLUMN

SQLSTATE: 42621

<expr>が見つかりました。 生成された列では、非決定的な式を使用できません。

DELTA_NON_DETERMINISTIC_FUNCTION_NOT_SUPPORTED

SQLSTATE: 0AKDC

非決定論的関数は、 <operation> <expression>ではサポートされていません。

DELTA_NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION

SQLSTATE: 42601

MATCHED ステートメントに複数の MERGE 句がある場合、最後の MATCHED 句のみが条件を省略できます。

DELTA_NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION

SQLSTATE: 42601

NOT MATCHED BY SOURCE ステートメントに複数の MERGE 句がある場合、最後の NOT MATCHED BY SOURCE 句のみが条件を省略できます。

DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION

SQLSTATE: 42601

NOT MATCHED ステートメントに複数の MERGE 句がある場合、最後の NOT MATCHED 句のみが条件を省略できます。

DELTA_NON_PARSABLE_TAG

SQLSTATE: 42601

タグ <tag>を解析できませんでした。

ファイル タグは次のとおりです: <tagList>

DELTA_NON_PARTITION_COLUMN_ABSENT

SQLSTATE: KD005

Delta に書き込まれるデータには、パーティション分割されていない列が少なくとも 1 つ含まれている必要があります。<details>

DELTA_NON_PARTITION_COLUMN_REFERENCE

SQLSTATE: 42P10

述語はパーティション以外の列 '<columnName>' を参照します。 [<columnList>] というパーティション列のみを参照できます。

DELTA_NON_PARTITION_COLUMN_SPECIFIED

SQLSTATE: 42P10

パーティション分割列以外の <columnList> は、パーティション分割列のみが必要な場合に指定されます:<fragment>

DELTA_NON_SINGLE_PART_NAMESPACE_FOR_CATALOG

SQLSTATE: 42K05

デルタ カタログには単一部分の名前空間が必要ですが、<identifier> はマルチパートです。

DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_COMMAND

SQLSTATE: 42616

UC マネージド テーブルではコミット コーディネーターとして 'unity-catalog' のみを使用できるため、コマンドからコミット コーディネーターを '<nonUcCoordinatorName>' に設定することはサポートされていません。 これを 'unity-catalog' に変更するか、 TBLPROPERTIES 句からすべての Coordinated Commits テーブル プロパティを削除してから、もう一度コマンドを再試行してください。

DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_SESSION

SQLSTATE: 42616

コミット コーディネーターを SparkSession 構成から '<nonUcCoordinatorName>' に設定することはサポートされていません。UC マネージド テーブルではコミット コーディネーターとして 'unity-catalog' のみを使用できるためです。 spark.conf.set("<coordinatorNameDefaultKey>", "unity-catalog")を実行してそれを 'unity-catalog' に変更するか、spark.conf.unset("<coordinatorNameDefaultKey>"), spark.conf.unset("<coordinatorConfDefaultKey>"), spark.conf.unset("<tableConfDefaultKey>")を実行して SparkSession 構成からすべての Coordinated Commits テーブル プロパティを削除してから、もう一度コマンドを再試行してください。

DELTA_NON_UC_MANAGED_TABLE_UPGRADE_OR_DOWNGRADE_NOT_SUPPORTED

SQLSTATE: 0A000

テーブル <tableName> は UC で管理されていません。 カタログ管理テーブルにアップグレードまたはダウングレードできるのは、UC マネージド テーブルのみです。

DELTA_NOT_A_DATABRICKS_DELTA_TABLE

SQLSTATE: 42000

<table> は Delta テーブルではありません。 Databricks Delta を使用して作成する場合は、最初にこのテーブルを削除してください。

DELTA_NOT_A_DELTA_TABLE

SQLSTATE: 0AKDD

<tableName> は Delta テーブルではありません。 Delta Lake で再作成する場合は、最初にこのテーブルを削除してください。

DELTA_NOT_NULL_COLUMN_NOT_FOUND_IN_STRUCT

SQLSTATE: 42K09

null 許容列が構造体 <struct> に見つかりません。

DELTA_NOT_NULL_CONSTRAINT_VIOLATED

SQLSTATE: 23502

NOT NULL 制約が列 <columnName>に対して違反しました。

DELTA_NOT_NULL_NESTED_FIELD

SQLSTATE: 0A000

nullを許容しない入れ子フィールドを、nullを許容する親に追加することはできません。 それに応じて、親列の null 許容値を設定してください。

DELTA_NO_COMMITS_FOUND

SQLSTATE: KD006

<logPath>でコミットが見つかりません。

DELTA_NO_RECREATABLE_HISTORY_FOUND

SQLSTATE: KD006

<logPath>で再作成可能なコミットが見つかりません。

DELTA_NO_REDIRECT_RULES_VIOLATED

SQLSTATE: 42P01

操作は許可されていません:リダイレクト機能を持つテーブルに対して <operation> を実行することはできません。

リダイレクトなしのルールが満たされていない <noRedirectRules>

DELTA_NO_RELATION_TABLE

SQLSTATE: 42P01

テーブル <tableIdent> 見つかりません。

DELTA_NO_START_FOR_CDC_READ

SQLSTATE: 42601

CDC 読み取り用に startingVersion または startingTimestamp が指定されていません。

DELTA_NULL_SCHEMA_IN_STREAMING_WRITE

SQLSTATE: 42P18

Delta は、ストリーミング書き込みのスキーマで NullType を受け入れられません。

DELTA_ONEOF_IN_TIMETRAVEL

SQLSTATE: 42601

タイム トラベルには、'timestampAsOf' または 'versionAsOf' を指定してください。

DELTA_ONLY_OPERATION

SQLSTATE: 0AKDD

<operation> はデルタ テーブルでのみサポートされます。

DELTA_OPERATION_MISSING_PATH

SQLSTATE: 42601

<operation>のパスまたはテーブル識別子を指定してください。

DELTA_OPERATION_NOT_ALLOWED

SQLSTATE: 0AKDC

操作は許可されていません:デルタ テーブルでは <operation> はサポートされていません。

DELTA_OPERATION_NOT_ALLOWED_DETAIL

SQLSTATE: 0AKDC

操作は許可されていません:デルタ テーブルの <operation> はサポートされていません: <tableName>

DELTA_OPERATION_NOT_SUPPORTED_FOR_COLUMN_WITH_COLLATION

SQLSTATE: 0AKDC

既定以外の照合順序 <operation>を持つ列 <colName> では、<collation> はサポートされていません。

DELTA_OPERATION_NOT_SUPPORTED_FOR_DATATYPES

SQLSTATE: 0AKDC

<operation> は、データ型 ( <dataTypeList>) ではサポートされていません。

DELTA_OPERATION_NOT_SUPPORTED_FOR_EXPRESSION_WITH_COLLATION

SQLSTATE: 0AKDC

<operation> は、既定以外の照合順序を使用するため、式 <exprText> ではサポートされていません。

DELTA_OPERATION_ON_TEMP_VIEW_WITH_GENERATED_COLS_NOT_SUPPORTED

SQLSTATE: 0A000

<operation> コマンドは、生成列を含む Delta テーブルを参照する一時ビューではサポートされていません。 Delta テーブルで <operation> コマンドを直接実行してください。

DELTA_OPERATION_ON_VIEW_NOT_ALLOWED

SQLSTATE: 0AKDC

操作を許可しない: ビューに対して <operation> を実行できません。

DELTA_OPTIMIZE_FULL_NOT_SUPPORTED

SQLSTATE: 42601

OPTIMIZE FULL は、空でないクラスタリング列を持つクラスター化テーブルでのみサポートされます。

DELTA_OVERWRITE_MUST_BE_TRUE

SQLSTATE: 42000

copy オプション overwriteSchema は、 OVERWRITE = 'true' に設定しないと指定できません。

DELTA_OVERWRITE_SCHEMA_WITH_DYNAMIC_PARTITION_OVERWRITE

SQLSTATE: 42613

'overwriteSchema' は、動的パーティション上書きモードでは使用できません。

DELTA_PARTITION_COLUMN_CAST_FAILED

SQLSTATE: 22525

パーティション列の<value><dataType>に値<columnName>をキャストできませんでした。

DELTA_PARTITION_COLUMN_NOT_FOUND

SQLSTATE: 42703

パーティション列 <columnName> スキーマ [<schemaMap>] に見つかりません。

DELTA_PARTITION_SCHEMA_IN_ICEBERG_TABLES

SQLSTATE: 42613

Apache Iceberg テーブルを変換するときにパーティション スキーマを指定できません。 自動的に推論されます。

DELTA_PATH_BASED_ACCESS_TO_CATALOG_MANAGED_TABLE_BLOCKED

SQLSTATE: KD00G

Catalog-Managed テーブル ( <path>) では、パスベースのアクセスは許可されません。 名前を使用してテーブルにアクセスし、再試行してください。

DELTA_PATH_BASED_ACCESS_TO_TABLE_BLOCKED

SQLSTATE: 42P01

<path>のテーブルは Unity カタログのマネージド テーブルに移行され、パスでアクセスできなくなります。 名前でテーブルにアクセスするようにクライアントを更新します。

DELTA_PATH_DOES_NOT_EXIST

SQLSTATE: 42K03

<path> が存在しないか、Delta テーブルではありません。

DELTA_PATH_EXISTS

SQLSTATE: 42K04

<path> = 'true' を設定しないと、既に存在するパスOVERWRITEに書き込めません。

DELTA_POST_COMMIT_HOOK_FAILED

SQLSTATE: 2DKD0

Delta テーブル バージョンへのコミット <version> 成功しましたが、コミット後のフック <name> <message> の実行中にエラーが発生しました

DELTA_PROTOCOL_CHANGED

SQLSTATE: 2D521

ProtocolChangedException: Delta テーブルのプロトコル バージョンが同時更新によって変更されました。 <additionalInfo> <conflictingCommit>

詳細については、<docLink> を参照してください。

DELTA_PROTOCOL_PROPERTY_NOT_INT

SQLSTATE: 42K06

Protocol プロパティ <key> は整数である必要があります。 <value>が見つかりました。

DELTA_READ_FEATURE_PROTOCOL_REQUIRES_WRITE

SQLSTATE: KD004

テーブル機能を使用するためにリーダー プロトコル バージョンのみをアップグレードできません。 ライター プロトコル バージョンは続行するために、少なくとも <writerVersion> である必要があります。 表プロトコルのバージョンの詳細については、<docLink> を参照してください。

DELTA_READ_TABLE_WITHOUT_COLUMNS

SQLSTATE: 428GU

列のない Delta テーブル <tableName> を読み取ろうとしています。

テーブルを読み取ることができるように mergeSchema = true オプションを使用して新しいデータを書き込みます。

DELTA_READ_TIME_CDC_NOT_SUPPORTED_FOR_TABLES_WITH_ACCESS_POLICIES

SQLSTATE: 56038

アクセス ポリシーが定義されている <tableName> で Change Data Feed を計算しようとしています。 読み取り時間変更データ フィードは現在プレビュー段階であり、アクセス ポリシーを持つテーブルでの CDF はサポートされていません。 テーブルのテーブル プロパティ '<cdfTableProperty>' を 'true' に設定して、読み取り最適化 CDF を有効にします。

DELTA_REDIRECT_TARGET_ROW_FILTER_COLUMN_MASK_UNSUPPORTED

SQLSTATE: 0AKDC

行フィルターまたは列マスクがあるテーブルへのリダイレクトはサポートされていません。 ターゲット テーブル <tableIdent> を直接参照するようにコードを更新します。

DELTA_REGEX_OPT_SYNTAX_ERROR

SQLSTATE: 2201B

'<regExpOption>' の構文を再確認してください。

DELTA_RELATION_PATH_MISMATCH

SQLSTATE: 2201B

リレーション パス '<relation>' が、 <targetType>のパス '<targetPath>' と一致しません。

DELTA_REORG_MATERIALIZATION_NOT_SUPPORTED_ON_UNPARTITIONED_TABLE

SQLSTATE: 22000

reorg コマンドを使用した Liquid Conversion は、パーティション分割されていないテーブルではサポートされていません。

DELTA_REORG_PARTITION_MATERIALIZATION_CONFLICT

SQLSTATE: 22000

パーティション列を <action> できません。 <instruction> テーブル プロパティ '<tableProperty>' を <value> に設定するか、SQL 構成 '<sqlConfig>' を <value> に設定して、パーティション列の具体化を行います。

DELTA_REORG_UNKNOWN_MODE

SQLSTATE: 0AKDC

不明な REORG TABLE モード: <mode>

DELTA_REPLACE_WHERE_IN_OVERWRITE

SQLSTATE: 42613

replaceWhere をフィルターによる上書きと組み合わせて使用することはできません。

DELTA_REPLACE_WHERE_MISMATCH

SQLSTATE: 44000

書き込まれたデータは、テーブルの部分的な上書き条件または制約 '<replaceWhere>' に準拠していません。

<message>

DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE

SQLSTATE: 42613

'replaceWhere' 式と 'partitionOverwriteMode'='dynamic' の両方を DataFrameWriter オプションで設定することはできません。

DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET

SQLSTATE: 42613

'dataChange' が false に設定されている場合、'replaceWhere' をデータ フィルターと共に使用することはできません。 フィルター: <dataFilters>

DELTA_ROW_ID_ASSIGNMENT_WITHOUT_STATS

SQLSTATE: 22000

行数統計なしで行 ID を割り当てることはできません。

ANALYZE TABLE コマンドを実行して、テーブルの統計を収集します。

ANALYZE TABLE tableName COMPUTE DELTA STATISTICS

DELTA_ROW_TRACKING_BACKFILL_RUNNING_CONCURRENTLY_WITH_UNBACKFILL

SQLSTATE: 22KD0

行追跡の無効化と同時に実行されている行追跡の有効化操作が検出されました。 無効化処理の中止。 有効化操作が完了したら、必要に応じて無効化操作を再試行してください。

DELTA_ROW_TRACKING_ILLEGAL_PROPERTY_COMBINATION

SQLSTATE: 55000

不正なテーブルの状態が検出されました。 テーブルのプロパティ <property1><property2> の両方が true に設定されます。 この問題は、2 つのテーブル プロパティのいずれかを無効にすることで解決できます。

詳細については、Databricks サポートにお問い合わせください。

DELTA_SCHEMA_CHANGED

SQLSTATE: KD007

検出されたスキーマの変更:

ストリーミング ソース スキーマ: <readSchema>

データ ファイル スキーマ: <dataSchema>

クエリを再起動してみてください。 この問題がクエリの再起動間で繰り返され、

進捗している中で、互換性のないスキーマ変更を行ってしまったため、作業をやり直す必要があります。

新しいチェックポイント ディレクトリを使用して最初からクエリを実行します。

DELTA_SCHEMA_CHANGED_WITH_STARTING_OPTIONS

SQLSTATE: KD007

バージョン <version>でスキーマの変更が検出されました:

ストリーミング ソース スキーマ: <readSchema>

データ ファイル スキーマ: <dataSchema>

クエリを再起動してみてください。 この問題がクエリの再起動間で繰り返され、

進捗している中で、互換性のないスキーマ変更を行ってしまったため、作業をやり直す必要があります。

新しいチェックポイント ディレクトリを使用して最初からクエリを実行します。 問題が解決しない場合

新しいチェックポイント ディレクトリに変更する場合は、既存のチェックポイント ディレクトリを変更する必要があります。

より新しいバージョンから開始する 'startingVersion' または 'startingTimestamp' オプション

新しいチェックポイント ディレクトリを使用する、<version> 以降のバージョンから開始する必要がある場合があります。

DELTA_SCHEMA_CHANGED_WITH_VERSION

SQLSTATE: KD007

バージョン <version>でスキーマの変更が検出されました:

ストリーミング ソース スキーマ: <readSchema>

データ ファイル スキーマ: <dataSchema>

クエリを再起動してみてください。 この問題がクエリの再起動間で繰り返され、

進捗している中で、互換性のないスキーマ変更を行ってしまったため、作業をやり直す必要があります。

新しいチェックポイント ディレクトリを使用して最初からクエリを実行します。

DELTA_SCHEMA_CHANGE_SINCE_ANALYSIS

SQLSTATE: KD007

DataFrame 以降、Delta テーブルのスキーマが互換性のない方法で変更されました

または DeltaTable オブジェクトが作成されました。 DataFrame または DeltaTable オブジェクトを再定義してください。

Changes:

<schemaDiff> <legacyFlagMessage>

DELTA_SCHEMA_NOT_PROVIDED

SQLSTATE: 42908

テーブル スキーマは指定されていません。 REPLACEテーブルを使用し、AS SELECT クエリが指定されていない場合は、テーブルのスキーマ (列定義) を指定してください。

DELTA_SCHEMA_NOT_SET

SQLSTATE: KD008

テーブル スキーマが設定されていません。 データを書き込むか、CREATE TABLE を使用してスキーマを設定します。

DELTA_SET_LOCATION_SCHEMA_MISMATCH

SQLSTATE: 42KD7

新しい Delta の場所のスキーマは、現在のテーブル スキーマとは異なります。

元のスキーマ:

<original>

宛先スキーマ:

<destination>

これが意図した変更である場合は、次を実行してこのチェックをオフにすることができます。

%%sql 設定 <config> = true

DELTA_SHALLOW_CLONE_FILE_NOT_FOUND

SQLSTATE: 42K03

トランザクション ログで参照 <filePath> ファイルが見つかりません。 これは、テーブル DELETE ステートメントを使用するのではなく、ファイル システムからデータが手動で削除された場合に発生する可能性があります。 このテーブルは浅い複製のように見えますが、その場合、このエラーは、このテーブルが複製された元のテーブルが、複製でまだ使用しているファイルを削除した場合に発生する可能性があります。 複製を元のテーブルから独立させる場合は、代わりに DEEP クローンを使用します。

DELTA_SHARING_CANNOT_MODIFY_RESERVED_RECIPIENT_PROPERTY

SQLSTATE: 42939

<prefix> で始まる定義済みのプロパティは変更できません。

DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED

SQLSTATE: 42704

データは、セッション内の現在の受信者には適用されない受信者プロパティ <property> によって制限されます。

詳細については、DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED を参照してください

DELTA_SHARING_INVALID_OP_IN_EXTERNAL_SHARED_VIEW

SQLSTATE: 42887

<operation> は、アカウントをまたいで共有された Delta Sharing ビューでは使用できません。

DELTA_SHARING_INVALID_PROVIDER_AUTH

SQLSTATE: 28000

プロバイダー <authenticationType>の認証の種類 <provider> が正しくありません。

DELTA_SHARING_INVALID_RECIPIENT_AUTH

SQLSTATE: 28000

受信者 <authenticationType>の認証の種類 <recipient> が無効です。

DELTA_SHARING_INVALID_SHARED_DATA_OBJECT_NAME

SQLSTATE: 42K05

共有内の <type> を参照する名前が無効です。 [schema].[<type>] の形式に従って共有内で<type>の名前を使用するか、またはテーブルの元の完全な名前である [catalog].[schema].[>type>] の形式を使用することもできます。

使用する名前がわからない場合は、"SHOW ALL IN SHARE [共有]" を実行し、削除する <type> の名前を見つけることができます。列 "name" は共有内の <type>の名前で、列 "shared_object" は <type>の元のフル ネームです。

DELTA_共有_最大値_RECIPIENT_TOKENS_を超えました

SQLSTATE: 54000

受信者の <recipient>には 2 つ以上のトークンがあります。

DELTA_SHARING_RECIPIENT_PROPERTY_NOT_FOUND

SQLSTATE: 42704

受信者プロパティ <property> が存在しません。

DELTA_SHARING_RECIPIENT_TOKENS_見つかりません

SQLSTATE: 42704

受信者の <recipient>に受信者トークンがありません。

DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_COLUMN

SQLSTATE: 42P10

パーティション分割されていない列 <badCols> は、 SHOW PARTITIONSに指定されます。

DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE

SQLSTATE: 42809

SHOW PARTITIONS は、パーティション分割されていないテーブルでは許可されません: <tableName>

DELTA_SHREDDED_WRITES_DISABLED

SQLSTATE: 55000

細断された書き込みが無効になっているため、 REORG APPLY(SHRED) 操作を実行できません。

DELTA_SHREDDING_TABLE_PROPERTY_DISABLED

SQLSTATE: 0A000

シュレッダーバリアントを書き込もうとしましたが、テーブルは細断書き込みをサポートしていません。 table プロパティ enableVariantShredding を true に設定することを検討してください。

DELTA_SOURCE_IGNORE_DELETE

SQLSTATE: 0A000

バージョン <removedFile>でストリーミング ソースから削除されたデータ (<version>など) が検出されました。 これは現在サポートされていません。 削除を無視する場合は、オプション 'ignoreDeletes' を 'true' に設定します。 ソース テーブルはパス <dataPath>にあります。

DELTA_SOURCE_TABLE_IGNORE_CHANGES

SQLSTATE: 0A000

バージョン <file>でソース テーブルのデータ更新 (<version>など) が検出されました。 これは現在サポートされていません。 これが定期的に発生し、変更をスキップしても問題ない場合は、オプション 'skipChangeCommits' を 'true' に設定します。 データの更新を反映させる場合は、新しいチェックポイント ディレクトリでこのクエリを再起動するか、Lakeflow Spark 宣言パイプラインを使用している場合は完全な更新を実行してください。 これらの変更を処理する必要がある場合は、MVs に切り替えてください。 ソース テーブルはパス <dataPath>にあります。

DELTA_STARTING_VERSION_AND_TIMESTAMP_BOTH_SET

SQLSTATE: 42613

"<version>" または "<timestamp>" を指定してください。

DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND

SQLSTATE: 42000

Parquet メタデータ内の列の <statsType> 統計が見つかりません: <columnPath>

DELTA_STATS_NOT_FOUND_IN_FILE

SQLSTATE: 22000

ファイルに統計が見つかりません: <filePath>。 'ANALYZE TABLE [tableName] COMPUTE DELTA STATISTICS' を実行して統計を計算します。

DELTA_STREAMING_CANNOT_CONTINUE_PROCESSING_POST_SCHEMA_EVOLUTION

SQLSTATE: KD002

Delta ストリーミング ソースの Delta バージョン <opType><previousSchemaChangeVersion> の間で、1 つ以上の非加算スキーマ変更 (<currentSchemaChangeVersion>) が検出されました。

Changes:

<columnChangeDetails>

バージョン <currentSchemaChangeVersion>で最終スキーマを使用してストリーム処理を続行する前に、スキーマの変更をシンク テーブルに手動で反映するかどうかを確認してください。

シンク テーブルのスキーマを修正するか、修正する必要がないと判断したら、次の構成を設定して非追加スキーマ変更のブロックを解除し、ストリーム処理を続行できます。

データフレーム リーダー オプションの使用:

この一連のスキーマ変更のためだけに、この特定のストリームのブロックを解除するには:

<unblockChangeOptions>

この特定のストリームのブロックを解除するには:

<unblockStreamOptions>

SQL 構成を使用する:

この一連のスキーマ変更のためだけに、この特定のストリームのブロックを解除するには:

<unblockChangeConfs>

この特定のストリームのブロックを解除するには:

<unblockStreamConfs>

すべてのストリームのブロックを解除するには:

<unblockAllConfs>

DELTA_STREAMING_CHECK_COLUMN_MAPPING_NO_SNAPSHOT

SQLSTATE: KD002

列マッピングスキーマの変更を確認する際に、初期バージョンのデルタログスナップショットを取得できませんでした。 別の開始バージョンを選択するか、'<config>' を 'true' に設定して、ストリーミング読み取りを強制的に有効にしてください。

DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE: 42KD4

読み取り互換性のないスキーマの変更 (名前の変更や削除、データ型の変更など) を含むテーブルでは、ストリーミング読み取りはサポートされていません。

この問題を解決するための詳細と次の手順については、<docLink> のドキュメントを参照してください。

スキーマの読み取り: <readSchema>。 互換性のないデータ スキーマ: <incompatibleSchema>

DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE_USE_SCHEMA_LOG

SQLSTATE: 42KD4

読み取り互換性のないスキーマの変更 (名前の変更や削除、データ型の変更など) を含むテーブルでは、ストリーミング読み取りはサポートされていません。

デルタ ストリーム処理で非加法スキーマの進化を有効にするには、'schemaTrackingLocation' を指定してください。

詳細については、<docLink> を参照してください。

スキーマの読み取り: <readSchema>。 互換性のないデータ スキーマ: <incompatibleSchema>

DELTA_STREAMING_METADATA_EVOLUTION

SQLSTATE: 22000

ストリーミング中に Delta テーブルのスキーマ、テーブル構成、またはプロトコルが変更されました。

スキーマまたはメタデータ追跡ログが更新されました。

更新されたメタデータを使用して処理を続行するには、ストリームを再起動してください。

更新されたスキーマ: <schema>

更新されたテーブル構成: <config>

更新されたテーブル プロトコル: <protocol>

DELTA_ストリーミング_スキーマ_進化_サポートされていない行フィルター_COLUMN_MASKS

SQLSTATE: 22000

スキーマ追跡を使用したソース テーブル <tableId> からのストリーミングでは、行フィルターや列マスクはサポートされません。

行フィルターまたは列マスクを削除するか、スキーマ追跡を無効にしてください。

DELTA_STREAMING_SCHEMA_LOCATION_CONFLICT

SQLSTATE: 22000

'<loc>' にあるテーブルまたはテーブルからのストリーミング中に、競合するスキーマの場所 '<table>' が検出されました。

別のストリームが同じスキーマの場所を再利用している可能性がありますが、これは許可されていません。

この表のいずれかのストリームのリーダー オプションとして、新しい一意の schemaTrackingLocation パスまたは streamingSourceTrackingId を指定してください。

DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT

SQLSTATE: 22000

スキーマの場所 '<schemaTrackingLocation>' は、チェックポイントの場所 '<checkpointLocation>' の下に配置する必要があります。

DELTA_STREAMING_SCHEMA_LOG_DESERIALIZE_FAILED

SQLSTATE: 22000

Delta ストリーミング ソース スキーマ ログ内の '<location>' のログ ファイルが不完全です。

スキーマ ログが破損している可能性があります。 新しいスキーマの場所を選択してください。

DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_DELTA_TABLE_ID

SQLSTATE: 22000

デルタ ストリームを読み取ろうとしたときに、互換性のない Delta テーブル ID が検出されました。

永続化されたテーブル ID: <persistedId>、テーブル ID: <tableId>

スキーマ ログが再利用されている可能性があります。 新しいスキーマの場所を選択してください。

DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_PARTITION_SCHEMA

SQLSTATE: 22000

デルタ ストリームを読み取ろうとしたときに、互換性のないパーティション スキーマが検出されました。

永続化されたスキーマ: <persistedSchema>、Delta パーティション スキーマ: <partitionSchema>

最近テーブルのパーティション スキーマを手動で変更した場合は、スキーマ ログを再初期化する新しいスキーマの場所を選択してください。

DELTA_STREAMING_SCHEMA_LOG_INIT_FAILED_INCOMPATIBLE_METADATA

SQLSTATE: 22000

Delta ストリーミング ソース スキーマ ログを初期化できませんでした。理由:

テーブル バージョン <a> から <b>へのストリーミング バッチの提供中に、互換性のないスキーマまたはプロトコルの変更が検出されました。

DELTA_STREAMING_SCHEMA_LOG_PARSE_SCHEMA_FAILED

SQLSTATE: 22000

Delta ストリーミング ソース スキーマ ログからスキーマを解析できませんでした。

スキーマ ログが破損している可能性があります。 新しいスキーマの場所を選択してください。

DELTA_STREAMING_SINK_TRANSACTION_NOT_FOUND

SQLSTATE: 56000

最後の<versionLimit> バージョンのストリーミング Delta シンクでバッチ <batchId>のトランザクションが見つかりませんでした。

DELTA_STREAMING_SKIP_OFFSETS_INVALID_OFFSET_RANGE

SQLSTATE: 42616

デルタ ソース範囲 =[<startOffset>, <endOffset>) のスキップ オフセット範囲が無効です。 このオフセット範囲を修正して、もう一度やり直してください。

詳細については、DELTA_STREAMING_SKIP_OFFSETS_INVALID_OFFSET_RANGEを参照してください。

DELTA_TABLE_ALREADY_CONTAINS_CDC_COLUMNS

SQLSTATE: 42711

テーブルで Change Data Capture を有効にできません。 テーブルには、テーブルの

変更データ フィードのメタデータとして <columnList>

は、テーブルの変更データ フィードのメタデータとして内部的に使用されます。 有効にするには

テーブルのデータ フィードを変更して、これらの列の名前を変更または削除します。

DELTA_TABLE_ALREADY_EXISTS

SQLSTATE: 42P07

テーブル <tableName> は既に存在します。

DELTA_TABLE_CONTAINS_RESERVED_CDC_COLUMNS

SQLSTATE: 42939

テーブルの変更データ フィードを計算できません。 テーブルには、テーブルの変更データ フィードの出力列として使用される予約列名 <columnList> が含まれています。 テーブルの変更データ フィードを計算するには、これらの列の名前を変更または削除します。

DELTA_TABLE_FOR_PATH_UNSUPPORTED_HADOOP_CONF

SQLSTATE: 0AKDC

現在、DeltaTable.forPath では <allowedPrefixes> で始まる hadoop 構成キーのみがサポートされていますが、<unsupportedOptions> が渡されました。

DELTA_TABLE_ID_MISMATCH

SQLSTATE: KD007

<tableLocation> の Delta テーブルは、このコマンドでテーブルを使用しているときに置き換えられました。

テーブル ID が <oldId> から <newId>に変更されました。

現在のコマンドを再試行して、テーブルの一貫性のあるビューが読み取られるようにしてください。

DELTA_TABLE_INVALID_REDIRECT_STATE_TRANSITION

SQLSTATE: 22023

テーブルリダイレクト状態を更新できません:無効な状態遷移が試行されました。

デルタ テーブル '<table>' を '<oldState>' から '<newState>' に変更することはできません。

DELTA_TABLE_INVALID_SET_UNSET_REDIRECT

SQLSTATE: 22023

SETでプロパティをUNSETまたは<table>リダイレクトできません: 現在のプロパティ '<currentProperty>' は新しいプロパティ '<newProperty>' と一致しません。

DELTA_TABLE_LOCATION_MISMATCH

SQLSTATE: 42613

既存のテーブル <tableName> の場所が <existingTableLocation>。 指定した場所の <tableLocation>と一致しません。

DELTA_TABLE_NOT_FOUND

SQLSTATE: 42P01

デルタ テーブル <tableName> が存在しません。

DELTA_TABLE_NOT_SUPPORTED_IN_OP

SQLSTATE: 42809

テーブルは、<operation>ではサポートされていません。 代わりにパスを使用してください。

DELTA_TABLE_ONLY_OPERATION

SQLSTATE: 0AKDD

<tableName> は Delta テーブルではありません。 <operation> はデルタ テーブルでのみサポートされます。

DELTA_TABLE_UNRECOGNIZED_REDIRECT_SPEC

SQLSTATE: 42704

Delta ログには、認識できないテーブル リダイレクト スペック '<spec>' が含まれています。

DELTA_TARGET_TABLE_FINAL_SCHEMA_EMPTY

SQLSTATE: 428GU

ターゲット テーブルの最終スキーマが空です。

DELTA_TIMESTAMP_EARLIER_THAN_COMMIT_RETENTION

SQLSTATE: 42816

指定されたタイムスタンプ (<userTimestamp>) は、使用可能な最も古いバージョンより前です。

このテーブル (<commitTs>)。 <timestampString>後にタイムスタンプを使用してください。

DELTA_TIMESTAMP_GREATER_THAN_COMMIT

SQLSTATE: 42816

指定されたタイムスタンプ (<providedTimestamp>) は、使用可能な最新バージョンの後にあります。

このテーブル (<tableName>) で使用可能な最新バージョンよりも後です。 <maximumTimestamp>の前または時点でタイムスタンプを使用してください。

DELTA_TIMESTAMP_INVALID

SQLSTATE: 42816

指定されたタイムスタンプ (<expr>) を有効なタイムスタンプに変換できません。

DELTA_TIME_TRAVEL_INVALID_BEGIN_VALUE

SQLSTATE: 42604

<timeTravelKey> は有効な開始値である必要があります。

DELTA_TOO_MUCH_LISTING_MEMORY

SQLSTATE: 53000

メモリ不足のため、Delta テーブル内のファイル (<numFiles>) を一覧表示できませんでした。 必要なメモリ: <estimatedMemory>、使用可能なメモリ: <maxMemory>

DELTA_TRUNCATED_TRANSACTION_LOG

SQLSTATE: 42K03

<path>: トランザクション ログが手動削除またはログ保持ポリシー (<version>) とチェックポイント保持ポリシー (<logRetentionKey>=<logRetention>) によって切り捨てられたため、バージョン <checkpointRetentionKey>=<checkpointRetention>で状態を再構築できません。

DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED

SQLSTATE: 0AKDC

操作を許可しない: デルタ テーブルの TRUNCATE TABLE はパーティション述語をサポートしていません。DELETE を使用して、特定のパーティションまたは行を削除します。

DELTA_UDF_IN_CHECK_CONSTRAINT

SQLSTATE: 42621

CHECK制約で<expr>が見つかりました。 CHECK制約では、ユーザー定義関数を使用できません。

DELTA_UDF_IN_GENERATED_COLUMN

SQLSTATE: 42621

<udfExpr>が見つかりました。 生成された列では、ユーザー定義関数を使用できません。

DELTA_UNEXPECTED_ACTION_EXPRESSION

SQLSTATE: 42601

アクション式 <expression> は予期されていません。

DELTA_UNEXPECTED_NUM_PARTITION_COLUMNS_FROM_FILE_NAME

SQLSTATE: KD009

<expectedColsSize> のパーティション列 <expectedCols> が想定されていますが、ファイル名 <parsedColsSize> の解析からは <parsedCols> のパーティション列 <path> が見つかりました。

DELTA_UNEXPECTED_PARTIAL_SCAN

SQLSTATE: KD00A

Deltaソースのフルスキャンを期待していましたが、部分的なスキャンしか見つかりませんでした。 パス: <path>

DELTA_UNEXPECTED_PARTITION_COLUMN_FROM_FILE_NAME

SQLSTATE: KD009

パーティション列<expectedCol>を期待していましたが、ファイル名の解析からパーティション列<parsedCol>が見つかりました: <path>

DELTA_UNEXPECTED_PARTITION_SCHEMA_FROM_USER

SQLSTATE: KD009

CONVERT から DELTA は、カタログから推論されたパーティション スキーマとは異なるパーティション スキーマを用いて呼び出されました。カタログからパーティション スキーマを選択できるように、スキーマを指定しないでください。

カタログ パーティション スキーマ:

<catalogPartitionSchema>

指定されたパーティション スキーマ:

<userPartitionSchema>

DELTA_UNIFORM_COMPATIBILITY_LOCATION_CANNOT_BE_CHANGED

SQLSTATE: 0AKDC

delta.universalFormat.compatibility.location は変更できません。

DELTA_UNIFORM_COMPATIBILITY_LOCATION_NOT_REGISTERED

SQLSTATE: 42K0I

delta.universalFormat.compatibility.location がカタログに登録されていません。

DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION

SQLSTATE: 42601

統一互換形式の場所が見つからないか無効です。 delta.universalFormat.compatibility.location の空のディレクトリを設定してください。

失敗した理由:

詳細については、DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION を参照してください

DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION

SQLSTATE: KD00E

Delta Uniform 経由で Apache Iceberg のデータ読み込みが失敗しました。

詳細については、DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION を参照してください

DELTA_UNIFORM_INGRESS_AMBIGUOUS_FORMAT

SQLSTATE: KD00E

複数の Delta Uniform イングレス形式 (<formats>) が見つかり、最大 1 つを設定できます。

DELTA_UNIFORM_INGRESS_NOT_SUPPORTED

SQLSTATE: 0A000

Uniform イングレス テーブルの作成または更新はサポートされていません。

DELTA_UNIFORM_INGRESS_NOT_SUPPORTED_FORMAT

SQLSTATE: 0AKDC

<fileFormat> 形式はサポートされていません。 元のファイル形式としての Apache Iceberg と hudi のみがサポートされています。

DELTA_UNIFORM_INGRESS_VIOLATION

SQLSTATE: KD00E

デルタ Uniform の読み取りが失敗する:

詳細については、DELTA_UNIFORM_INGRESS_VIOLATIONを参照してください。

DELTA_UNIFORM_NOT_SUPPORTED

SQLSTATE: 0AKDC

ユニバーサル形式は、Unity カタログ テーブルでのみサポートされます。

DELTA_UNIFORM_REFRESH_INVALID_ARGUMENT

SQLSTATE: 42616

引数が無効な REFRESH TABLE:

詳細については、DELTA_UNIFORM_REFRESH_INVALID_ARGUMENTを参照してください。

DELTA_UNIFORM_REFRESH_NOT_SUPPORTED

SQLSTATE: 0AKDC

REFRESH 識別子 SYNC UNIFORM は、次の理由でサポートされていません。

詳細については、DELTA_UNIFORM_REFRESH_NOT_SUPPORTED を参照してください

DELTA_UNIFORM_REFRESH_NOT_SUPPORTED_FOR_MANAGED_ICEBERG_TABLE_WITH_METADATA_PATH

SQLSTATE: 0AKDC

REFRESH TABLE METADATA_PATHでは、マネージド Apache Iceberg テーブルではサポートされていません。

DELTA_UNIVERSAL_FORMAT_CONVERSION_FAILED

SQLSTATE: KD00E

テーブルバージョンの <version> をユニバーサル形式の <format>に変換できませんでした。 <message>

DELTA_UNIVERSAL_FORMAT_VIOLATION

SQLSTATE: KD00E

ユニバーサル形式 (<format>) の検証に失敗しました: <violation>

DELTA_UNKNOWN_CONFIGURATION

SQLSTATE: F0000

不明な構成が指定されました: <config>

このチェックを無効にするには、Spark セッション構成で <disableCheckConfig>=true を設定します。

DELTA_UNKNOWN_PRIVILEGE

SQLSTATE: 42601

不明な特権: <privilege>

DELTA_UNKNOWN_READ_LIMIT

SQLSTATE: 42601

不明なリードリミット: <limit>

DELTA_UNRECOGNIZED_COLUMN_CHANGE

SQLSTATE: 42601

列の変更 <otherClass> は認識できません。 古い Delta Lake バージョンを実行している可能性があります。

DELTA_UNRECOGNIZED_INVARIANT

SQLSTATE: 56038

認識されないインバリアント。 Spark バージョンをアップグレードしてください。

DELTA_UNRECOGNIZED_LOGFILE

SQLSTATE: KD00B

認識できないログファイル <filename>

DELTA_UNSET_NON_EXISTENT_PROPERTY

SQLSTATE: 42616

テーブル <property>で、存在しないプロパティ '<tableName>' の設定を解除しようとしました。

DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE

SQLSTATE: 0AKDC

<path> では、絶対パスを持つファイルの追加はサポートされていません。

DELTA_UNSUPPORTED_ALTER_TABLE_CHANGE_COL_OP

SQLSTATE: 0AKDC

ALTER TABLE CHANGE COLUMN は、列 <fieldPath><oldField> から <newField> に変更する場合はサポートされていません。

DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP

SQLSTATE: 0AKDC

サポートされていない ALTER TABLE REPLACE COLUMNS 操作。 理由: <details>

次のスキーマの変更に失敗しました:

<oldSchema>

to:

<newSchema>

DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE

SQLSTATE: 0AKDC

REPLACEで既存のテーブル (<tableName>) を CLONE しようとしました。 この操作は次のようになります。

unsupported. CLONE 別のターゲットを試すか、現在のターゲットでテーブルを削除します。

DELTA_UNSUPPORTED_CLUSTERING_COLUMN_PREDICATES

SQLSTATE: 0A000

OPTIMIZE ... FULL WHERE Liquid テーブルのコマンドは、指定された述語をサポートしていません。

詳細については、DELTA_UNSUPPORTED_CLUSTERING_COLUMN_PREDICATESを参照してください。

DELTA_UNSUPPORTED_COLUMN_MAPPING_MODE_CHANGE

SQLSTATE: 0AKDC

列マッピング モードを '<oldMode>' から '<newMode>' に変更することはサポートされていません。

DELTA_UNSUPPORTED_COLUMN_MAPPING_OPERATIONS_ON_COLUMNS_WITH_BLOOM_FILTER_INDEX

SQLSTATE: 0AKDC

列に対して列マッピング操作 <opName> を実行できませんでした <quotedColumnNames>

これらの列にはブルーム フィルター インデックスがあるためです。

列に対して列マッピング操作を実行する場合

ブルーム フィルターのインデックスを持つ列に対して実行する場合は、

最初にブルーム フィルター インデックスを削除してください。

DROP BLOOMFILTER INDEX ON TABLE tableName FOR COLUMNS(<columnNames>)

代わりに、テーブルのすべてのブルーム フィルター インデックスを削除する場合は、次の値を使用します。

DROP BLOOMFILTER INDEX ON TABLE テーブル名

DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL

SQLSTATE: KD004

現在のテーブル プロトコル バージョンでは、列マッピング モードの変更はサポートされていません

<config>を使用します。

列マッピングに必要なデルタ プロトコルのバージョン:

<requiredVersion>

テーブルの現在の Delta プロトコル バージョン:

<currentVersion>

<advice>

DELTA_UNSUPPORTED_COLUMN_MAPPING_SCHEMA_CHANGE

SQLSTATE: 0AKDC

スキーマの変更が検出されました。

古いスキーマ:

<oldTableSchema>

新しいスキーマ:

<newTableSchema>

列マッピング モードの変更中は、スキーマの変更は許可されません。

DELTA_UNSUPPORTED_COLUMN_MAPPING_WRITE

SQLSTATE: 0AKDC

列マッピング モードでのデータの書き込みはサポートされていません。

DELTA_UNSUPPORTED_COLUMN_TYPE_IN_BLOOM_FILTER

SQLSTATE: 0AKDC

<dataType>型の列にブルーム フィルター インデックスを作成することはサポートされていません:<columnName>

DELTA_UNSUPPORTED_COMMENT_MAP_ARRAY

SQLSTATE: 0AKDC

<fieldPath>にコメントを追加できません。 マップ キー/値または配列要素へのコメントの追加はサポートされていません。

DELTA_UNSUPPORTED_DATA_TYPES

SQLSTATE: 0AKDC

サポートされていないデータ型を使用している列が見つかりました: <dataTypeList>。 型チェックを無効にするには、'<config>' を 'false' に設定します。 この種類のチェックを無効にすると、ユーザーはサポートされていない Delta テーブルを作成でき、レガシ テーブルの読み取り/書き込み時にのみ使用する必要があります。

DELTA_UNSUPPORTED_DATA_TYPE_IN_GENERATED_COLUMN

SQLSTATE: 42621

<dataType> は、生成された列の結果にすることはできません。

DELTA_UNSUPPORTED_DEEP_CLONE

SQLSTATE: 0A000

ディープ クローンは、この Delta バージョンではサポートされていません。

DELTA_UNSUPPORTED_DESCRIBE_DETAIL_VIEW

SQLSTATE: 42809

<view> はビューです。 DESCRIBE DETAIL はテーブルでのみサポートされます。

DELTA_UNSUPPORTED_DROP_CLUSTERING_COLUMN

SQLSTATE: 0AKDC

クラスタリング列 (<columnList>) の削除は許可されていません。

DELTA_UNSUPPORTED_DROP_COLUMN

SQLSTATE: 0AKDC

DROP COLUMN は Delta テーブルではサポートされていません。 <advice>

DELTA_UNSUPPORTED_DROP_NESTED_COLUMN_FROM_NON_STRUCT_TYPE

SQLSTATE: 0AKDC

入れ子になった列は StructType からのみ削除できます。 <struct>が見つかりました。

DELTA_UNSUPPORTED_DROP_PARTITION_COLUMN

SQLSTATE: 0AKDC

パーティション列 (<columnList>) の削除は許可されていません。

DELTA_UNSUPPORTED_EXPRESSION

SQLSTATE: 0A000

<expType>では式の型 (<causedBy>) はサポートされていません。 サポートされている型は [<supportedTypes>] です。

DELTA_UNSUPPORTED_EXPRESSION_CHECK_CONSTRAINT

SQLSTATE: 42621

CHECK制約で<expression>が見つかりました。 <expression> は、 CHECK 制約で使用できません。

DELTA_UNSUPPORTED_EXPRESSION_GENERATED_COLUMN

SQLSTATE: 42621

<expression> は、生成された列では使用できません。

DELTA_UNSUPPORTED_FEATURES_FOR_READ

SQLSTATE: 56038

サポートされていない差分読み取り機能: テーブル "<tableNameOrPath>" には、このバージョンの Databricks ではサポートされていないリーダー テーブル機能が必要です: <unsupported>。 Delta Lake 機能の互換性の詳細については、<link> を参照してください。

DELTA_UNSUPPORTED_FEATURES_FOR_WRITE

SQLSTATE: 56038

サポートされていない Delta 書き込み機能: テーブル "<tableNameOrPath>" には、このバージョンの Databricks ではサポートされていないライター テーブル機能 <unsupported> が必要です。 Delta Lake 機能の互換性の詳細については、<link> を参照してください。

DELTA_UNSUPPORTED_FEATURES_IN_CONFIG

SQLSTATE: 56038

次の Spark 構成または Delta テーブル プロパティで構成されたテーブル機能は、このバージョンの Databricks: <configs>では認識されません。

DELTA_UNSUPPORTED_FEATURE_STATUS

SQLSTATE: 0AKDE

テーブル機能<feature>のステータスが「サポート」となるはずが、「<status>」になっています。

DELTA_UNSUPPORTED_FIELD_UPDATE_NON_STRUCT

SQLSTATE: 0AKDC

入れ子のフィールドの更新は StructType でのみサポートされていますが、<columnName>のフィールド(タイプ: <dataType>)を更新しようとしています。

DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS

SQLSTATE: 0A000

'FSCK REPAIR TABLE' コマンドは、削除ベクター ファイルがないテーブル バージョンではサポートされていません。

サポートにお問い合わせください。

DELTA_UNSUPPORTED_GENERATE_WITH_DELETION_VECTORS

SQLSTATE: 0A000

'GENERATE symlink_format_manifest' コマンドは、削除ベクトルを含むテーブル バージョンではサポートされていません。

削除ベクターを使用せずにテーブルのバージョンを生成するには、'REORG TABLE table APPLY (PURGE)' を実行します。 次に、'GENERATE' コマンドを再実行します。

REORGGENERATEの間に、同時実行トランザクションによって削除ベクトルが再度追加されていないことを確認します。

マニフェストを定期的に生成する必要がある場合、または同時実行トランザクションを防止できない場合は、'ALTER TABLE table SET TBLPROPERTIES (delta.enableDeletionVectors = false)' を使用して、このテーブルの削除ベクトルを無効にすることを検討してください。

DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT

SQLSTATE: 0AKDC

StructTypes 以外の入れ子になったフィールドのインバリアントはサポートされていません。

DELTA_UNSUPPORTED_IN_SUBQUERY

SQLSTATE: 0AKDC

<operation>条件では、「In」サブクエリはサポートされていません。

DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX

SQLSTATE: 0A000

listKeywithPrefix は使用できません。

DELTA_UNSUPPORTED_MANIFEST_GENERATION_WITH_COLUMN_MAPPING

SQLSTATE: 0AKDC

外部リーダーはこれらの Delta テーブルを読み取ることができないため、列マッピングを利用するテーブルではマニフェストの生成はサポートされていません。 詳細については、Delta のドキュメントを参照してください。

DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC

SQLSTATE: 0A000

スキーマの進化を伴う MERGE INTO 操作では、現在 CDC 出力の書き込みはサポートされていません。

DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE

SQLSTATE: 0AKDC

複数列の In 述語は、<operation> 条件ではサポートされていません。

DELTA_UNSUPPORTED_NESTED_COLUMN_IN_BLOOM_FILTER

SQLSTATE: 0AKDC

入れ子になった列にブルーム ファイラー インデックスを作成することは現在サポートされていません: <columnName>

DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION

SQLSTATE: 0AKDC

入れ子になったフィールドは、<operation> ではサポートされていません (field = <fieldName>)。

DELTA_UNSUPPORTED_NON_EMPTY_CLONE

SQLSTATE: 0AKDC

複製先テーブルが空でない。 TRUNCATE を実行する前に、テーブルに DELETE FROM または CLONE を実行してください。

DELTA_UNSUPPORTED_OUTPUT_MODE

SQLSTATE: 0AKDC

データ ソース <dataSource> では、 <mode> 出力モードはサポートされていません。

DELTA_UNSUPPORTED_PARTITION_COLUMN_IN_BLOOM_FILTER

SQLSTATE: 0AKDC

パーティション分割列にブルーム フィルター インデックスを作成することはサポートされていません: <columnName>

DELTA_UNSUPPORTED_RENAME_COLUMN

SQLSTATE: 0AKDC

Delta テーブルでは、列名の変更はサポートされていません。 <advice>

DELTA_UNSUPPORTED_SCHEMA_DURING_READ

SQLSTATE: 0AKDC

Delta では、読み取り時のスキーマの指定はサポートされていません。

DELTA_UNSUPPORTED_SORT_ON_BUCKETED_TABLES

SQLSTATE: 0A000

SORTED BY は、Delta バケットテーブルではサポートされていません。

DELTA_UNSUPPORTED_SOURCE

SQLSTATE: 0AKDD

<operation> 宛先はデルタソースのみをサポートします。

<plan>

DELTA_UNSUPPORTED_STATIC_PARTITIONS

SQLSTATE: 0AKDD

パーティション スペックでの静的パーティションの指定は、現在、挿入中にサポートされていません。

DELTA_UNSUPPORTED_STRATEGY_NAME

SQLSTATE: 22023

サポートされていない戦略名: <strategy>

DELTA_UNSUPPORTED_SUBQUERY

SQLSTATE: 0AKDC

サブクエリは、<operation> ではサポートされていません (条件 = <cond>)。

DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES

SQLSTATE: 0AKDC

サブクエリは、パーティション述語ではサポートされていません。

削除されたファイル保存期間を超えたタイムトラベルはサポートされていません

SQLSTATE: 0AKDC

テーブルに設定されている delta.deletedFileRetentionDuration (<deletedFileRetention> HOURS) を超えて移動できません。

DELTA_UNSUPPORTED_TIME_TRAVEL_MULTIPLE_FORMATS

SQLSTATE: 42613

時間移動を複数の形式で指定することはできません。

DELTA_UNSUPPORTED_TIME_TRAVEL_VIEWS

SQLSTATE: 0AKDC

移動ビュー、サブクエリ、ストリーム、データ フィード クエリを変更することはできません。

DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES

SQLSTATE: 0A000

サンプル テーブルの切り捨てはサポートされていません。

DELTA_UNSUPPORTED_TYPE_CHANGE_IN_SCHEMA

SQLSTATE: 0AKDC

サポートされていない型の変更が適用されたため、このテーブルを操作できません。 フィールド <fieldName><fromType> から <toType>に変更されました。

DELTA_UNSUPPORTED_TYPE_CHANGE_ON_COLUMNS_WITH_BLOOM_FILTER_INDEX

SQLSTATE: 0AKDC

列のデータ型を変更できませんでした <quotedColumnNames>

これらの列にはブルーム フィルター インデックスがあるためです。

ブルーム フィルター インデックスを使用して列のデータ型を変更する場合は、

最初にブルーム フィルター インデックスを削除してください。

DROP BLOOMFILTER INDEX ON TABLE tableName FOR COLUMNS(<columnNames>)

代わりに、テーブルのすべてのブルーム フィルター インデックスを削除する場合は、次の値を使用します。

DROP BLOOMFILTER INDEX ON TABLE テーブル名

DELTA_UNSUPPORTED_VACUUM_SPECIFIC_PARTITION

SQLSTATE: 0AKDC

Delta テーブルをバキュームする場合は、ベース パス (<baseDeltaPath>) を指定してください。 特定のパーティションのバキュームは現在サポートされていません。

DELTA_UNSUPPORTED_WRITES_STAGED_TABLE

SQLSTATE: 42807

テーブルの実装では、書き込み ( <tableName>) はサポートされていません。

DELTA_UNSUPPORTED_WRITES_WITHOUT_COORDINATOR

SQLSTATE: 0AKDC

コミット コーディネーター <coordinatorName>に登録されているテーブルに対して書き込みを実行しようとしています。 ただし、このコーディネーターの実装は現在の環境では使用できません。また、コーディネーターを使用しない書き込みは許可されません。

DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES

SQLSTATE: 0A000

サンプル テーブルへの書き込みはサポートされていません。

DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION

SQLSTATE: 42846

<fromCatalog><toCatalog>にキャストできません。 入れ子になった列はすべて一致する必要があります。

DELTA_V2_CHECKPOINTS_REQUIRED_FOR_OPERATION

SQLSTATE: 55019

CHECKPOINT 操作では、テーブルで V2 チェックポイントを有効にする必要があります。

DELTA_VACUUM_COPY_INTO_STATE_FAILED

SQLSTATE: 22000

データ ファイルの VACUUM は成功しましたが、COPY INTO 状態のガベージ コレクションに失敗しました。

DELTA_VERSIONS_NOT_CONTIGUOUS

SQLSTATE: KD00C

バージョン (<versionList>) は連続していません。

バージョン <startVersion>の読み込み中に、<endVersion>バージョンと<versionToLoad>間の差分ログのギャップが検出されました。

詳細については、DELTA_VERSIONS_NOT_CONTIGUOUS を参照してください。

DELTA_VERSION_INVALID

SQLSTATE: 42815

指定されたバージョン (<version>) が有効なバージョンではありません。

DELTA_VERSION_NOT_FOUND

SQLSTATE: 22003

Delta テーブルをバージョン <userVersion>にタイム トラベルできません。 使用可能なバージョン: [<earliest>, <latest>]。

DELTA_VIOLATE_CONSTRAINT_WITH_VALUES

SQLSTATE: 23001

次の値を持つ行が CHECK 制約 <constraintName> <expression> に違反しています:

<values>

DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED

SQLSTATE: 0A000

テーブル <table> のプロパティの検証に違反しています。

詳細については、DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED を参照してください

DELTA_WRITE_INTO_VIEW_NOT_SUPPORTED

SQLSTATE: 0A000

<viewIdentifier> はビューです。 ビューにデータを書き込む場合はありません。

DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST

SQLSTATE: 42703

Z-Ordering 列 <columnName> がデータ スキーマに存在しません。

DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS

SQLSTATE: KD00D

現在、これらの列の統計は収集されないため、 <cols> の Z オーダーは無効になります。 データのスキップと z オーダーの詳細については、 <link> を参照してください。 このチェックを無効にするには、次の設定を行います。

SET <zorderColStatKey> = 偽

DELTA_ZORDERING_ON_PARTITION_COLUMN

SQLSTATE: 42P10

<colName> はパーティション列です。 Z オーダーは、データ列でのみ実行できます。

デルタ・シェアリング

DELTA_SHARING_ACTIVATION_NONCE_DOES_NOT_EXIST

SQLSTATE: 割り当てなし

アクティベーションの nonce が見つかりません。 使用したアクティブ化リンクが無効であるか、有効期限が切れています。 アクティブ化リンクを再生成してから、もう一度やり直してください。

DELTA_SHARING_CROSS_REGION_SHARE_UNSUPPORTED

SQLSTATE: 割り当てなし

<regionHint> リージョンとその外部のリージョン間での共有はサポートされていません。

DELTA_SHARING_GET_RECIPIENT_PROPERTIES_INVALID_DEPENDENT

SQLSTATE: 割り当てなし

current_recipient 関数で定義されたビューは共有専用であり、データ受信者側からのみクエリを実行できます。 ID <securableId> で指定されたセキュリティ保護可能なリソースは、Delta Sharing ビューではありません。

DELTA_SHARING_MUTABLE_SECURABLE_KIND_NOT_SUPPORTED

SQLSTATE: 割り当てなし

提供されているセキュリティ可能な種類の <securableKind> は、Delta Sharing での可変性をサポートしていません。

DELTA_SHARING_ROTATE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE

SQLSTATE: 割り当てなし

提供されているセキュリティ保護可能な種類 <securableKind> では、Marketplace サービスによって開始されるトークンのローテーション アクションはサポートされていません。

DS_AUTH_TYPE_NOT_AVAILABLE

SQLSTATE: 割り当てなし

<dsError>: プロバイダー エンティティ <providerEntity>では認証の種類を使用できません。

DS_CDF_NOT_ENABLED

SQLSTATE: 割り当てなし

<dsError>: <tableName>の変更データ フィードにアクセスできません。 バージョン <version>の元のデルタ テーブルで CDF が有効になっていません。 データ プロバイダーにお問い合わせください。

DS_CDF_NOT_SHARED

SQLSTATE: 割り当てなし

<dsError>: <tableName>の変更データ フィードにアクセスできません。 CDF はテーブルで共有されません。 データ プロバイダーにお問い合わせください。

DS_CDF_RPC_INVALID_PARAMETER

SQLSTATE: 割り当てなし

<dsError>: <message>

DS_CLIENT_AUTH_ERROR_FOR_DB_DS_SERVER

SQLSTATE: 割り当てなし

<dsError>: <message>

DS_CLIENT_ERROR_FOR_DB_DS_SERVER

SQLSTATE: 割り当てなし

<dsError>: <message>

DS_CLIENT_OAUTH_TOKEN_EXCHANGE_FAILURE

SQLSTATE: 割り当てなし

<dsError>: <message>

DS_CLIENT_OAUTH_TOKEN_EXCHANGE_UNAUTHORIZED

SQLSTATE: 割り当てなし

<dsError>: <message>

DS_CLOUD_VENDOR_UNAVAILABLE

SQLSTATE: 割り当てなし

<dsError>: クラウド ベンダーは、<rpcName>のために一時的に使用できません。再試行してください。<traceId>

DS_DATA_MATERIALIZATION_COMMAND_FAILED

SQLSTATE: 割り当てなし

<dsError>: 組織 <runId> からのデータ具体化タスク <orgId> がコマンド <command> において失敗しました。

DS_DATA_MATERIALIZATION_COMMAND_NOT_SUPPORTED

SQLSTATE: 割り当てなし

<dsError>: 組織 <runId> からのデータ具体化タスクの実行 <orgId> は、コマンド <command> をサポートしていません

DS_DATA_MATERIALIZATION_NOT_SUPPORTED_WITHOUT_SERVERLESS

SQLSTATE: 割り当てなし

<dsError>: <featureName> は、プロバイダー ワークスペースでサーバーレスがサポートされていないか有効になっていないため、サポートされていません。 サーバーレスを有効にするには、データ プロバイダーにお問い合わせください。

DS_DATA_MATERIALIZATION_NO_VALID_NAMESPACE

SQLSTATE: 割り当てなし

<dsError>: <tableName>の具体化を作成するための有効な名前空間が見つかりませんでした。 この問題を解決するには、データ プロバイダーにお問い合わせください。

DS_DATA_MATERIALIZATION_RECIPIENT_MISSING_WORKSPACE_ID

SQLSTATE: 割り当てなし

<dsError>: 共有資産を具体化するのに適したワークスペースが見つかりません。 共有資産のカタログへの書き込みアクセスが許可されているワークスペースで受信者を再作成するには、データ プロバイダーに問い合わせてください。

DS_DATA_MATERIALIZATION_RUN_DOES_NOT_EXIST

SQLSTATE: 割り当てなし

<dsError>: 組織 <runId> からのデータ具現化タスク <orgId> が存在しません

DS_DELTA_ILLEGAL_STATE

SQLSTATE: 割り当てなし

<dsError>: <message>

DS_DELTA_MISSING_CHECKPOINT_FILES

SQLSTATE: 割り当てなし

<dsError>: チェックポイントのすべてのパーツファイルをバージョン<version>で見つけることができませんでした。 <suggestion>

DS_DELTA_NULL_POINTER

SQLSTATE: 割り当てなし

<dsError>: <message>

DS_DELTA_RUNTIME_EXCEPTION

SQLSTATE: 割り当てなし

<dsError>: <message>

DS_EXPIRE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE

SQLSTATE: 割り当てなし

<dsError>: 提供されたセキュリティ保護可能な種類の <securableKind> は、Marketplace サービスによって開始された期限切れのトークン アクションをサポートしていません。

DS_FAILED_REQUEST_TO_OPEN_DS_SERVER

SQLSTATE: 割り当てなし

<dsError>: <message>

DS_FAILED_REQUEST_TO_SAP_DS_SERVER

SQLSTATE: 割り当てなし

<dsError>: <message>

DS_FEATURE_ONLY_FOR_DATABRICKS_TO_DATABRICKS

SQLSTATE: 割り当てなし

<dsError>: <feature> は、Databricks と Databricks Delta の共有に対してのみ有効です。

DS_FILE_LISTING_EXCEPTION

SQLSTATE: 割り当てなし

<dsError>: <storage>: <message>

DS_FILE_SIGNING_EXCEPTION

SQLSTATE: 割り当てなし

<dsError>: <message>

DS_FOREIGN_TABLE_METADATA_REFRESH_FAILED

SQLSTATE: 割り当てなし

<dsError>: <message>

DS_GATEKEEPER_DISABLED

SQLSTATE: 割り当てなし

<dsError>: この機能はアカウントで無効になっています。 データ プロバイダーにお問い合わせください。

DS_HADOOP_CONFIG_NOT_SET

SQLSTATE: 割り当てなし

<dsError>: <key> は呼び出し元によって設定されません。

DS_ILLEGAL_STATE

SQLSTATE: 割り当てなし

<dsError>: <message>

DS_INTERNAL_ERROR_FROM_DB_DS_SERVER

SQLSTATE: 割り当てなし

<dsError>: <message>

DS_INVALID_AZURE_PATH

SQLSTATE: 割り当てなし

<dsError>: 無効な Azure パス: <path>

DS_INVALID_DELTA_ACTION_OPERATION

SQLSTATE: 割り当てなし

<dsError>: <message>

DS_INVALID_FIELD

SQLSTATE: 割り当てなし

<dsError>: <message>

DS_INVALID_ITERATOR_OPERATION

SQLSTATE: 割り当てなし

<dsError>: <message>

DS_INVALID_PARAMETER_VALUE

SQLSTATE: 割り当てなし

<dsError>: <rpcName>が原因で<cause>のパラメーターが無効です。

DS_INVALID_PARTITION_SPEC

SQLSTATE: 割り当てなし

<dsError>: <message>

DS_INVALID_RESPONSE_FROM_DS_SERVER

SQLSTATE: 割り当てなし

<dsError>: <message>

DS_MATERIALIZATION_QUERY_FAILED

SQLSTATE: 割り当てなし

<dsError>: <schema>のクエリに失敗しました。 <table> (共有 <share> からのもの) が失敗しました。

DS_MATERIALIZATION_QUERY_TIMEDOUT

SQLSTATE: 割り当てなし

<dsError>: <schema>のクエリがタイムアウトしました。 <table> (共有 <share> からのもの) が <timeoutInSec> 秒後にタイムアウトになりました。

DS_MIGRATED_MANAGEMENT_API_CALLED

SQLSTATE: 割り当てなし

<dsError>: UC RPC <rpcName> が失敗しました。

DS_MISSING_IDEMPOTENCY_KEY

SQLSTATE: 割り当てなし

<dsError>: べき等性キーは、クエリ <schema>を実行する際に必要です。 <table> (共有 <share> からのもの) を非同期に実行するには、べき等キーが必要です。

DS_MISSING_SERVERLESS_BUDGET_POLICY

SQLSTATE: 割り当てなし

<dsError>: この操作では、プロバイダーの Databricks でサーバーレスが使用されますが、共有にサーバーレス予算ポリシーがありません。 共有するサーバーレス予算ポリシーを追加するには、データ プロバイダーにお問い合わせください。

DS_MORE_THAN_ONE_RPC_PARAMETER_SET

SQLSTATE: 割り当てなし

<dsError>: <parameters>のいずれかを指定してください。

DS_NETWORK_CONNECTION_CLOSED

SQLSTATE: 割り当てなし

<dsError>: <rpcName>のため、<errorCause>のネットワーク接続が閉じられました。再試行してください。<traceId>

DS_NETWORK_CONNECTION_TIMEOUT

SQLSTATE: 割り当てなし

<dsError>:<rpcName>による<errorCause>のネットワーク接続タイムアウト。再試行してください。<traceId>

DS_NETWORK_ERROR

SQLSTATE: 割り当てなし

<dsError>: <rpcName>による<errorCause>のネットワーク エラーが発生しました。再試行してください。<traceId>

DS_NO_METASTORE_ASSIGNED

SQLSTATE: 割り当てなし

<dsError>: 現在のワークスペースにメタストアが割り当てされていません (workspaceId: <workspaceId>)。

DS_O2D_OIDC_WORKLOAD_IDENTITY_TOKEN_GENERATION_FAILED

SQLSTATE: 割り当てなし

<dsError>: O2D OIDC プロバイダーのワークロード ID トークンの生成に失敗しました: <message>

DS_PAGINATION_AND_QUERY_ARGS_MISMATCH

SQLSTATE: 割り当てなし

<dsError>: ページネーションまたはクエリ引数が一致しません。

DS_PARTITION_COLUMNS_RENAMED

SQLSTATE: 割り当てなし

<dsError>: パーティション列 [<renamedColumns>] の名前が共有テーブルに変更されました。 この問題を解決するには、データ プロバイダーにお問い合わせください。

DS_QUERY_BEFORE_START_VERSION

SQLSTATE: 割り当てなし

<dsError>: バージョン <startVersion>以降のテーブル データに対してのみクエリを実行できます。

DS_QUERY_END_VERSION_AFTER_LATEST_VERSION

SQLSTATE: 割り当てなし

<dsError>: データを読み取るためのエンド バージョン (<endVersion>) が無効です。 終了バージョンを最新バージョンのテーブル (<latestVersion>) より大きくすることはできません。

DS_QUERY_START_VERSION_AFTER_LATEST_VERSION

SQLSTATE: 割り当てなし

<dsError>: データを読み取るための開始バージョン (<startVersion>) が無効です。 開始バージョンをテーブルの最新バージョン (<latestVersion>) より大きくすることはできません。

DS_QUERY_TIMEOUT_ON_SERVER

SQLSTATE: 割り当てなし

<dsError>: <queryType> 個のイテレーションにわたって <tableName> 個の更新を行った後、<numActions> に対して <numIter> を処理するときにタイムアウトが発生しました。<progressUpdate> <suggestion> <traceId>

DS_RATE_LIMIT_ON_DS_SERVER

SQLSTATE: 割り当てなし

<dsError>: <message>

DS_RECIPIENT_RPC_INVALID_PARAMETER

SQLSTATE: 割り当てなし

<dsError>: <message>

DS_RECON_FAILED_ON_UC_WRITE_RPC

SQLSTATE: 割り当てなし

<dsError>: UC RPC <rpcName> 失敗し、 INTERNAL_ERRORに変換されました。

DS_RESOURCE_ALREADY_EXIST_ON_DS_SERVER

SQLSTATE: 割り当てなし

<dsError>: <message>

DS_RESOURCE_EXHAUSTED

SQLSTATE: 割り当てなし

<dsError>: <resource> 制限を超えました: [<limitSize>]<suggestion><traceId>

DS_RESOURCE_NOT_FOUND_ON_DS_SERVER

SQLSTATE: 割り当てなし

<dsError>: <message>

DS_SAP_UNSUPPORTED_DBR_VERSION

SQLSTATE: 割り当てなし

<dsError>: Delta Sharing SAP コネクタは、DBR <dbrVersion> でサポートされていません。 サポートされている最小バージョンは、 <supportedVersions>です。

DS_SCHEMA_NAME_CONFLICT_FOUND

SQLSTATE: 割り当てなし

<dsError>: カタログ <catalogName> には、共有 <shareName>で見つかったスキーマ名が既に含まれています。 競合するスキーマ名 <description><schemaNamesInCommon>

DS_SERVER_TIMEOUT

SQLSTATE: 割り当てなし

<dsError>: <rpcName>による<errorCause>のサーバー タイムアウト。再試行してください。<traceId>

DS_SERVICE_DENIED

SQLSTATE: 割り当てなし

<dsError>: サービスの負荷が高すぎるため、要求が拒否されました。 しばらくしてからもう一度やり直してください。

DS_SHARE_ALREADY_MOUNTED_TO_CATALOG

SQLSTATE: 割り当てなし

<dsError>: プロバイダー <shareName>からの共有<providerName>は、既にカタログ <catalogName>にマウントされています。

DS_SYSTEM_WORKSPACE_GROUP_PERMISSION_UNSUPPORTED

SQLSTATE: 割り当てなし

システムによって生成されたグループ <securableType><principal> に対する特権を付与できません。

DS_TABLE_METADATA_TEMPORARILY_UNAVAILABLE

SQLSTATE: 割り当てなし

<dsError>: テーブル メタデータは使用できません。 しばらくしてからやり直してください。

DS_TIME_TRAVEL_NOT_PERMITTED

SQLSTATE: 割り当てなし

<dsError>: <tableName>で履歴を共有しない限り、タイム トラベル クエリは許可されません。 データ プロバイダーにお問い合わせください。

DS_UNAUTHORIZED

SQLSTATE: 割り当てなし

<dsError>: 承認されていません。.

DS_UNAUTHORIZED_D2O_OIDC_RECIPIENT

SQLSTATE: 割り当てなし

<dsError>: 承認されていない D2O OIDC 受信者: <message>.

DS_UNKNOWN_EXCEPTION

SQLSTATE: 割り当てなし

<dsError>: <traceId>

DS_UNKNOWN_QUERY_ID

SQLSTATE: 割り当てなし

<dsError>: <queryID>の不明なクエリ ID <schema><table> (共有 <share> からのもの) が失敗しました。

DS_UNKNOWN_QUERY_STATUS

SQLSTATE: 割り当てなし

<dsError>: <queryID> に対するクエリ ID <schema> のクエリ状態が不明です。 <table> (共有 <share> からのもの) が失敗しました。

DS_UNKNOWN_RPC

SQLSTATE: 割り当てなし

<dsError>: RPC <rpcName> が不明です。

DS_UNSUPPORTED_DELTA_READER_VERSION

SQLSTATE: 割り当てなし

<dsError>: デルタプロトコルリーダーのバージョン <tableReaderVersion><supportedReaderVersion> よりも高く、デルタ共有サーバーではサポートできません。

DS_UNSUPPORTED_DELTA_TABLE_FEATURES

SQLSTATE: 割り当てなし

<dsError>: 表の特徴 <tableFeatures> は表<versionStr> <historySharingStatusStr> <optionStr> に見られる

DS_UNSUPPORTED_OPERATION

SQLSTATE: 割り当てなし

<dsError>: <message>

DS_UNSUPPORTED_STORAGE_SCHEME

SQLSTATE: 割り当てなし

<dsError>: サポートされていないストレージ スキーム: <scheme>

DS_UNSUPPORTED_TABLE_TYPE

SQLSTATE: 割り当てなし

<dsError>: <schema>を取得できませんでした。 <table> を共有 <share> から。型 [<tableType>] を持つテーブルは現在、<queryType> クエリではサポートされていないためです。

DS_UNSUPPORTED_TABLE_TYPE_IN_MST

SQLSTATE: 割り当てなし

<dsError>: 複数ステートメント トランザクション (MST) クエリでは、テーブルの種類 [<tableType>] のクエリはサポートされていません。

DS_USER_CONTEXT_ERROR

SQLSTATE: 割り当てなし

<dsError>: <message>

DS_VIEW_SHARING_FUNCTIONS_NOT_ALLOWED

SQLSTATE: 割り当てなし

<dsError>: 次の関数: ビュー共有クエリでは <functions> は許可されません。

DS_WORKSPACE_DOMAIN_NOT_SET

SQLSTATE: 割り当てなし

<dsError>: ワークスペース <workspaceId> ドメインが設定されていません。

DS_WORKSPACE_NOT_FOUND

SQLSTATE: 割り当てなし

<dsError>: ワークスペースの <workspaceId> が見つかりませんでした。

Autoloader

CF_ADD_NEW_NOT_SUPPORTED

SQLSTATE: 0A000

スキーマが指定されている場合、スキーマの進化モード <addNewColumnsMode> はサポートされません。 このモードを使用するには、代わりに cloudFiles.schemaHints を使用してスキーマを指定できます。

CF_AMBIGUOUS_AUTH_OPTIONS_ERROR

SQLSTATE: 42000

(既定) ディレクトリの通知セットアップ認証オプションが見つかりました

リスト モード:

<options>

ファイル通知モードを使用する場合は、明示的に次の設定を行ってください。

.option("cloudFiles.<useNotificationsKey>", "true")

または、オプションの検証をスキップし、これらを無視する場合

認証オプションでは、次の設定を行うことができます。

.option("cloudFiles.ValidateOptionsKey>", "false") // オプションを設定する鍵を検証しません

CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR

SQLSTATE: 42000

増分一覧モード (cloudFiles.<useIncrementalListingKey>) と

ファイル通知 (cloudFiles.<useNotificationsKey>) が

それらは同時に有効になっています。

必ず 1 つだけ選択してください。

CF_AZURE_AUTHENTICATION_MISSING_OPTIONS

SQLSTATE: 42000

Databricks サービス資格情報、または Azure で認証するための clientId と clientSecret の両方を指定してください。

CF_AZURE_AUTHENTICATION_MULTIPLE_OPTIONS

SQLSTATE: 42000

Databricks サービスの資格情報が指定されている場合は、他の資格情報オプション (clientId、clientSecret、connectionString など) を指定しないでください。

CF_AZURE_STORAGE_SUFFIXES_REQUIRED

SQLSTATE: 42000

Azure に adlsBlobSuffix と adlsDfsSuffix が必要

CF_BUCKET_MISMATCH

SQLSTATE: 22000

ファイル イベント <storeType><fileEvent> は、ソースによって想定される <source>とは異なります。

CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY

SQLSTATE: 22000

スキーマ ログが空の場合、スキーマを進化させることはできません。 スキーマ ログの場所: <logPath>

CF_CANNOT_PARSE_QUEUE_MESSAGE

SQLSTATE: 22000

次のキュー メッセージを解析できません: <message>

CF_CANNOT_RESOLVE_CONTAINER_NAME

SQLSTATE: 22000

パス <path> からコンテナー名を解決できません。解決された uri: <uri>

CF_CANNOT_RUN_DIRECTORY_LISTING

SQLSTATE: 22000

非同期バックフィル スレッドが実行されている場合、ディレクトリ一覧を実行できません

CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON

SQLSTATE: 42000

cloudFiles.cleanSource と cloudFiles.allowOverwrites を同時に有効にすることはできません。

CF_CLEAN_SOURCE_CANNOT_MOVE_FILES_INSIDE_SOURCE_PATH

SQLSTATE: 42000

取り込み先のパスの下にあるディレクトリへのファイルの移動はサポートされていません。

CF_CLEAN_SOURCE_NOT_ENABLED

SQLSTATE: 0A000

このワークスペースに対して CleanSource が有効になっていません。 サポートについては、Databricks サポートにお問い合わせください。

CF_CLEAN_SOURCE_NOT_SUPPORTED サポートされていません

SQLSTATE: 0A000

CleanSource は、 <op>ではサポートされていません。

CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION

SQLSTATE: 42501

自動ローダーは、ソース ディレクトリまたは移動先への書き込みアクセス許可がないため、処理されたファイルをアーカイブできません。

詳細については、CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSIONを参照してください。

CF_DUPLICATE_COLUMN_IN_DATA

SQLSTATE: 22000

テーブルのパーティション スキーマを推論しようとしたときにエラーが発生しました。 データパスとパーティションパスに同じ列が重複しています。 パーティション値を無視するには、.option("cloudFiles.<partitionColumnsKey>", "{comma-separated-list}") を使用して、パーティション列を明示的に指定してください。

CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE

SQLSTATE: 42000

入力パス <path> が空の場合、スキーマを推論できません。 入力パスにファイルがある場合はストリームを開始するか、スキーマを指定してください。

CF_EVENT_GRID_AUTH_ERROR

SQLSTATE: 22000

Event Grid サブスクリプションを作成できませんでした。 サービス プリンシパルに

<permissionType> Event Grid サブスクリプションがあることを確認してください。 詳細については、以下を参照してください。

<docLink>

CF_EVENT_GRID_CREATION_FAILED

SQLSTATE: 22000

Event Grid サブスクリプションを作成できませんでした。 Microsoft.EventGrid が確実に動作するようにしてください。

サブスクリプションにおいてリソースプロバイダーとして登録されています。 詳細については、以下を参照してください。

<docLink>

CF_EVENT_GRID_NOT_FOUND_ERROR

SQLSTATE: 22000

Event Grid サブスクリプションを作成できませんでした。 ストレージ アカウント

アカウント (<storageAccount>) はリソース グループ (<resourceGroup>) に属しています。

ストレージ アカウントは "StorageV2 (汎用 v2)" アカウントです。 詳細については、以下を参照してください。

<docLink>

CF_EVENT_NOTIFICATION_NOT_SUPPORTED

SQLSTATE: 0A000

自動ローダー イベント通知モードは、<cloudStore>ではサポートされていません。

CF_EVENT_NOTIFICATION_SETUP_FAILED

SQLSTATE: 22000

自動ローダーのファイル通知リソースを設定できませんでした。

詳細については、CF_EVENT_NOTIFICATION_SETUP_FAILEDを参照してください。

CF_FAILED_TO_CHECK_STREAM_NEW

SQLSTATE: 22000

ストリームが新しいかどうかを確認できませんでした

CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION

SQLSTATE: 22000

サブスクリプションの作成に失敗しました: <subscriptionName>。 同じ名前のサブスクリプションが既に存在し、別のトピック (<otherTopicName>) に関連付けられています。 目的のトピックは <proposedTopicName>です。 既存のサブスクリプションを削除するか、新しいリソース サフィックスを持つサブスクリプションを作成します。

CF_FAILED_TO_CREATED_PUBSUB_TOPIC

SQLSTATE: 22000

トピックの作成に失敗しました: <topicName>. 同じ名前のトピックが既に存在します。 <reason> 既存のトピックを削除するか、別のリソース サフィックスを指定してやり直してください

CF_FAILED_TO_DELETE_GCP_NOTIFICATION

SQLSTATE: 22000

トピック <notificationId>のバケット <bucketName> で id <topicName> を持つ通知を削除できませんでした。 GCP コンソールから通知を再試行するか、手動で削除してください。

CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA

SQLSTATE: 22000

永続化されたスキーマを文字列 '<jsonSchema>' から逆シリアル化できませんでした

CF_FAILED_TO_EVOLVE_SCHEMA

SQLSTATE: 22000

スキーマ ログなしでスキーマを進化させることはできません。

CF_FAILED_TO_FIND_PROVIDER

SQLSTATE: 42000

<fileFormatInput> のプロバイダーを見つけることができません

CF_FAILED_TO_INFER_SCHEMA

SQLSTATE: 22000

入力パス <fileFormatInput>内の既存のファイルから <path> 形式のスキーマを推論できませんでした。

詳細については、CF_FAILED_TO_INFER_SCHEMA を参照してください

CF_FAILED_TO_WRITE_TO_SCHEMA_LOG

SQLSTATE: 22000

場所 <path>スキーマ ログに書き込めませんでした。

CF_FILE_FORMAT_REQUIRED

SQLSTATE: 42000

必要なオプション cloudFiles.format が見つかりませんでした。

CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS

SQLSTATE: 22000

トピック <num>の自動ローダー プレフィックスを持つ複数の (<topicName>) サブスクリプションが見つかりました。

<subscriptionList>

トピックごとにサブスクリプションは 1 つだけ必要です。 トピックに複数のサブスクリプションがないことを手動で確認してください。

CF_GCP_AUTHENTICATION

SQLSTATE: 42000

次のいずれかを指定してください: <clientEmail>, <client>

<privateKey><privateKeyId>、または Databricks サービス資格情報を使用するための <serviceCredential> を指定します。

または、GCP リソースで認証するために既定の GCP 資格情報プロバイダー チェーンを使用するために、いずれも指定しません。

CF_GCP_LABELS_COUNT_EXCEEDED

SQLSTATE: 22000

GCP リソースに対して受け取ったラベルが多すぎます (<num>)。 リソースあたりの最大ラベル数は <maxNum>

CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED

SQLSTATE: 22000

GCP リソースに対してリソースタグ (<num>) を受け取りすぎました。 リソース タグがリソースに GCP ラベルとして格納され、Databricks 固有のタグがこのラベル クォータの一部を使用する場合、リソースあたりの最大リソース タグ数は <maxNum>

CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG

SQLSTATE: 22000

パス <path> のスキーマ ログの不完全なログ ファイル

CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT

SQLSTATE: 22000

オートローダー チェックポイントの不完全なメタデータ ファイル

CF_INCORRECT_BATCH_USAGE

SQLSTATE: 42887

CloudFiles はストリーミング ソースです。 spark.read の代わりに spark.readStream を使用してください。 このチェックを無効にするには、<cloudFilesFormatValidationEnabled> を false に設定します。

CF_INCORRECT_SQL_PARAMS

SQLSTATE: 42000

cloud_files メソッドは、読み込むパスとファイル形式の 2 つの必須文字列パラメーターを受け入れます。 ファイル リーダー オプションは、文字列キーと値のマップで指定する必要があります。 たとえば、cloud_files("path","json", map("option1", "value1")) などです。 <params> を受け取りました

CF_INCORRECT_STREAM_USAGE

SQLSTATE: 42887

ストリーミング ソースとして 'cloudFiles' を使用するには、ファイル形式にオプション 'cloudFiles.format' を指定し、.load() を使用して DataFrame を作成してください。 このチェックを無効にするには、<cloudFilesFormatValidationEnabled> を false に設定します。

CF_INTERNAL_ERROR

SQLSTATE: 42000

自動ローダーで内部エラーが発生しました。 サポートについては、Databricks サポートにお問い合わせください。

詳細については、CF_INTERNAL_ERROR を参照してください。

CF_INVALID_ARN

SQLSTATE: 42000

無効な ARN: <arn>

CF_INVALID_AZURE_CERTIFICATE

SQLSTATE: 42000

オプション cloudFiles.certificate で提供される秘密キーは解析できません。 PEM 形式で有効な公開キーを指定してください。

CF_INVALID_AZURE_CERT_PRIVATE_KEY

SQLSTATE: 42000

オプション cloudFiles.certificatePrivateKey で提供される秘密キーは解析できません。 有効な秘密キーを PEM 形式で指定してください。

CF_INVALID_CHECKPOINT

SQLSTATE: 42000

このチェックポイントは有効な CloudFiles ソースではありません

CF_INVALID_CLEAN_SOURCE_MODE

SQLSTATE: 42000

クリーン ソース オプションの <value>モードが無効です。

CF_INVALID_GCP_RESOURCE_TAG_KEY

SQLSTATE: 42000

GCP リソースのリソース タグ キーが無効です: <key>。 キーは小文字で始まり、1 ~ 63 文字以内で、小文字、数字、アンダースコア (_)、ハイフン (-) のみを含む必要があります。

CF_INVALID_GCP_RESOURCE_TAG_VALUE

SQLSTATE: 42000

GCP リソースのリソース タグ値が無効です: <value>。 値の長さは 0 ~ 63 文字で、小文字、数字、アンダースコア (_)、ハイフン (-) のみを含める必要があります。

CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS

SQLSTATE: 42000

自動ローダーでは、マネージド ファイル イベントと共に使用する場合、次のオプションはサポートされません。

<optionList>

これらのオプションを削除してから、ストリームを再起動することをお勧めします。

CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE

SQLSTATE: 22000

マネージド ファイル イベント サービスからの応答が無効です。 サポートについては、Databricks サポートにお問い合わせください。

詳しくは、CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE を参照してください

CF_INVALID_SCHEMA_EVOLUTION_MODE

SQLSTATE: 42000

cloudFiles. <schemaEvolutionModeKey> { のいずれかである必要があります

<addNewColumnsWithTypeWidening>

<addNewColumns>

<failOnNewColumns>

<rescue>

"<noEvolution>"}

CF_INVALID_SCHEMA_HINTS_OPTION

SQLSTATE: 42000

スキーマ ヒントでは、特定の列を 1 回だけ指定できます。

この場合、列の再定義: <columnName>

schemaHints で複数回:

<schemaHints>

CF_INVALID_SCHEMA_HINT_COLUMN

SQLSTATE: 42000

スキーマ ヒントを使用して、マップと配列の入れ子になった型をオーバーライドすることはできません。

競合する列: <columnName>

CF_LATEST_OFFSET_READ_LIMIT_REQUIRED

SQLSTATE: 22000

latestOffset は、このソースで ReadLimit を使用して呼び出す必要があります。

CF_LOG_FILE_MALFORMED

SQLSTATE: 22000

ログ ファイルの形式が正しくありません。<fileName>から正しいログ バージョンを読み取れませんでした。

CF_MANAGED_FILE_EVENTS_BACKFILL_IN_PROGRESS

SQLSTATE: 22000

includeExistingFiles を false に設定して、外部の場所にある既存のファイルを無視するように自動ローダーに要求しました。 ただし、マネージド ファイル イベント サービスは、外部の場所にある既存のファイルを引き続き検出しています。 マネージド ファイル イベントが外部の場所にあるすべてのファイルの検出を完了したら、もう一度やり直してください。

CF_MANAGED_FILE_EVENTS_ENDPOINT_NOT_FOUND

SQLSTATE: 42000

マネージド ファイル イベントで自動ローダーを使用していますが、入力パス '<path>' の外部の場所でファイル イベントが有効になっていないか、入力パスが無効であるようです。 入力パスの外部の場所でファイル イベントを有効にするように Databricks 管理者に依頼してください。

CF_MANAGED_FILE_EVENTS_ENDPOINT_PERMISSION_DENIED

SQLSTATE: 42000

マネージド ファイル イベントで自動ローダーを使用していますが、入力パス '<path>' の外部の場所またはボリュームにアクセスできないか、入力パスが無効です。 Databricks 管理者に、外部の場所またはボリュームの読み取りアクセス許可を付与するか、既存の外部の場所またはボリューム内に有効な入力パスを指定するように要求してください。

CF_MANAGED_FILE_EVENTS_INVALID_CONTINUATION_TOKEN

SQLSTATE: 42000

ファイル イベント キャッシュ内のストリームの読み取り位置が無効になっています。 これは、ファイル イベントの構成が更新されたことが原因で発生する可能性があります (たとえば、指定されたキューの URL が変更されたか、ファイル イベントが無効になって再び有効にされました)。 サポートについては、Databricks サポートにお問い合わせください。

CF_MANAGED_FILE_EVENTS_IS_PREVIEW

SQLSTATE: 56038

マネージド ファイル イベントを含む自動ローダーはプレビュー機能です。 続行するには、Databricks サポートに問い合わせるか、cloudFiles.useManagedFileEvents オプションをオフにしてください。

CF_MANAGED_FILE_EVENTS_RATE_LIMIT_EXCEEDED

SQLSTATE: 53000

同時実行自動ローダー ストリームが実行されている数が多すぎます。 解決するには、可能であればストリームのコンカレンシーを減らすか、外部の場所にある複数のサブディレクトリから読み込むときにサブディレクトリごとに個別のボリュームを作成します。 問題が解決しない場合は、Databricks の担当者にお問い合わせください。

CF_MAX_MUST_BE_POSITIVE

SQLSTATE: 42000

max は正である必要があります

CF_METADATA_FILE_CONCURRENTLY_USED

SQLSTATE: 22000

複数のストリーミング クエリが同時に <metadataFile> を使用している

CF_MISSING_METADATA_FILE_ERROR

SQLSTATE: 42000

ストリーミング ソース チェックポイント ディレクトリ内のメタデータ ファイルがありません。 このメタデータ

ファイルにはストリームの重要な既定のオプションが含まれているため、ストリームを再起動できません

今すぐ。 サポートについては、Databricks サポートにお問い合わせください。

CF_MISSING_PARTITION_COLUMN_ERROR

SQLSTATE: 42000

パーティション列 <columnName> は、指定されたスキーマに存在しません。

<schema>

CF_MISSING_SCHEMA_IN_PATHLESS_MODE

SQLSTATE: 42000

ファイル通知モードの使用中に CloudFiles ソースにパスが指定されていない場合は、.schema() を使用してスキーマを指定してください。 または、自動ローダーでスキーマを推論するには、.load() にベース パスを指定してください。

CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC

SQLSTATE: 22000

バケット <topicName>でトピック <bucketName> の既存の通知が見つかりました:

notification,id

<notificationList>

意図しないイベントでサブスクライバーが汚染されないようにするには、上記の通知を削除して再試行してください。

CF_NEW_PARTITION_ERROR

SQLSTATE: 22000

ファイルから新しいパーティション列が推論されました: [<filesList>]。 スキーマ内のすべてのパーティション列を指定するか、.option("cloudFiles.partitionColumns", "{comma-separated-list|empty-string}") を使用して値を抽出するパーティション列の一覧を指定してください。

CF_PARTITON_INFERENCE_ERROR

SQLSTATE: 22000

ファイルの現在のバッチのパーティション スキーマを推論しようとしたときにエラーが発生しました。 .option("cloudFiles.<partitionColumnOption>", "{comma-separated-list}") を使用して、パーティション列を明示的に指定してください。

CF_PATH_DOES_NOT_EXIST_FOR_READ_FILES

SQLSTATE: 42000

入力パス <path> が存在しない場合、ファイルを読み取ることができません。 入力パスが存在することを確認し、再試行してください。

CF_PERIODIC_BACKFILL_NOT_SUPPORTED

SQLSTATE: 0A000

非同期バックフィルが無効になっている場合、定期的なバックフィルはサポートされません。 spark.databricks.cloudFiles.asyncDirListing を true に設定することで、非同期のバックフィル/ディレクトリ一覧を有効にすることができます

CF_PREFIX_MISMATCH

SQLSTATE: 22000

一致しないイベントが見つかりました:キー <key> にプレフィックスがありません。 <prefix>

CF_PROTOCOL_MISMATCH

SQLSTATE: 22000

<message>

コードに他の変更を加える必要がない場合は、SQL を設定してください

構成: '<sourceProtocolVersionKey> = <value>'

ストリームを再開してください。 以下を参照してください。

<docLink>

詳細については、以下を参照してください。

CF_REGION_NOT_FOUND_ERROR

SQLSTATE: 42000

既定の AWS リージョンを取得できませんでした。 cloudFiles.region オプションを使用してリージョンを指定してください。

CF_RESOURCE_SUFFIX_EMPTY

SQLSTATE: 42000

通知サービスを作成できませんでした。リソース サフィックスを空にすることはできません。

CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS

SQLSTATE: 42000

通知サービスを作成できませんでした。リソース サフィックスには、英数字、ハイフン (-) とアンダースコア (_) のみを使用できます。

CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE

SQLSTATE: 42000

通知サービスを作成できませんでした。リソース サフィックスには小文字、数字、ダッシュ (-) のみを使用できます。

CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP

SQLSTATE: 42000

通知サービスを作成できませんでした。リソース サフィックスには、英数字、ハイフン (-)、アンダースコア (_)、ピリオド (.)、チルダ (~)、プラス記号 (+)、パーセント記号 (<percentSign>) のみを指定できます。

CF_RESOURCE_SUFFIX_LIMIT

SQLSTATE: 42000

通知サービスを作成できませんでした。リソース サフィックスに <limit> 文字を超えることはできません。

CF_RESOURCE_SUFFIX_LIMIT_GCP

SQLSTATE: 42000

通知サービスを作成できませんでした。リソース サフィックスは、<lowerLimit> 文字と <upperLimit> 文字の間である必要があります。

CF_RESTRICTED_GCP_RESOURCE_TAG_KEY

SQLSTATE: 22000

制限された GCP リソース タグ キー (<key>) が見つかりました。 自動ローダーでは、次の GCP リソース タグ キーが制限されています: [<restrictedKeys>]

CF_RETENTION_GREATER_THAN_MAX_FILE_AGE

SQLSTATE: 42000

cloudFiles.cleanSource.retentionDuration を cloudFiles.maxFileAge より大きくすることはできません。

CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX

SQLSTATE: 22000

トピック: <topic>、プレフィックス: <prefix>に対する通知の作成に失敗しました。 既に、別のプレフィックスが付いた同じ名前のトピックがあります: <oldPrefix>. セットアップに別のリソース サフィックスを使用するか、既存のセットアップを削除してみてください。

CF_SCHEMA_LOG_DEEP_CLONE_FAILED

SQLSTATE: 42000

ソース スキーマ ログからスキーマ ログ エントリを複製および移行できませんでした。

CF_SFTP_MISSING_PASSWORD_OR_KEY_FILE

SQLSTATE: 42000

SFTP にはパスワードまたはキー ファイルを指定する必要があります。

ソース URI または <passwordOption>でパスワードを指定するか、キー ファイルの内容を <keyFileOption>で指定してください。

CF_SFTP_NOT_ENABLED

SQLSTATE: 0A000

SFTP ファイルへのアクセスが有効になっていません。 サポートについては、Databricks サポートにお問い合わせください。

CF_SFTP_REQUIRE_FULL_PATH

SQLSTATE: 0A000

正確な UC 接続の検索を確実に行うために、sftp://$user@$host:$port/$path の形式で SFTP ソースの完全パス コンポーネントを指定します。

CF_SFTP_REQUIRE_UC_CLUSTER

SQLSTATE: 0A000

SFTP ファイルにアクセスするには、UC 対応クラスターが必要です。 サポートについては、Databricks サポートにお問い合わせください。

CF_SFTP_USERNAME_NOT_FOUND

SQLSTATE: 42000

SFTP にはユーザー名を指定する必要があります。

ソース URI または <option>経由でユーザー名を指定してください。

CF_SOURCE_DIRECTORY_PATH_REQUIRED

SQLSTATE: 42000

ソース ディレクトリのパスにオプション path を指定してください

CF_SOURCE_UNSUPPORTED

SQLSTATE: 0A000

クラウド ファイル ソースでは、現在、S3、Azure Blob Storage (wasb/wasbs)、Azure Data Lake Gen1 (adl) と Gen2 (abfs/abfss) のパスのみがサポートされています。 path: '<path>', 解決されたURI: '<uri>'

CF_STATE_INCORRECT_SQL_PARAMS

SQLSTATE: 42000

cloud_files_state関数は、cloudFiles ストリームのチェックポイント ディレクトリまたはストリーミング テーブルを識別するマルチパート tableName を表す文字列パラメーターと、状態を読み込むチェックポイント のバージョンを表すオプションの 2 番目の整数パラメーターを受け取ります。 2 番目のパラメーターは、最新のチェックポイントを読み取るために 'latest' である場合もあります。 <params> を受け取りました

CF_STATE_INVALID_CHECKPOINT_PATH

SQLSTATE: 42000

入力チェックポイント パス <path> が無効です。 パスが存在しないか、cloud_filesソースが見つかりません。

CF_STATE_INVALID_VERSION

SQLSTATE: 42000

指定されたバージョン <version> は存在しないか、または解析中に削除されました。

CF_THREAD_IS_DEAD

SQLSTATE: 22000

<threadName> スレッドが停止しています。

CF_UNABLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION

SQLSTATE: 42000

ソース チェックポイントの場所からストリーム チェックポイントの場所を派生できない: <checkPointLocation>

CF_UNABLE_TO_DETECT_FILE_FORMAT

SQLSTATE: 42000

<fileSize> 個のサンプリングされたファイルからソース ファイル形式を検出できません。<formats> が見つかりました。 形式を指定してください。

CF_UNABLE_TO_EXTRACT_BUCKET_INFO

SQLSTATE: 42000

バケット情報を抽出できません。 パス: '<path>'、解決済みの URI: '<uri>'。

CF_UNABLE_TO_EXTRACT_KEY_INFO

SQLSTATE: 42000

キー情報を抽出できません。 パス: '<path>'、解決済みの URI: '<uri>'。

CF_UNABLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO

SQLSTATE: 42000

ストレージ アカウント情報を抽出できません。パス: '<path>'、解決された uri: '<uri>'

CF_UNABLE_TO_LIST_EFFICIENTLY

SQLSTATE: 22000

パス <path>のディレクトリ名変更イベントを受信しましたが、このディレクトリを効率的に一覧表示できません。 ストリームを続行するには、オプション 'cloudFiles.ignoreDirRenames' を true に設定し、このデータを処理するために cloudFiles.backfillInterval で通常のバックフィルを有効にすることを検討してください。

CF_UNEXPECTED_READ_LIMIT

SQLSTATE: 22000

予期しない読み取り制限: <readLimit>

CF_UNKNOWN_OPTION_KEYS_ERROR

SQLSTATE: 42000

不明なオプション キーが見つかりました:

<optionList>

指定されたすべてのオプション キーが正しいことを確認してください。 オプションの検証をスキップして、

オプションの検証を行い、これらの不明なオプションを無視して、次の設定を行うことができます。

.option("cloudFiles.<validateOptions>", "false")

CF_UNKNOWN_READ_LIMIT

SQLSTATE: 22000

不明なリードリミット: <readLimit>

CF_UNSUPPORTED_CLEAN_SOURCE_MOVE

SQLSTATE: 0A000

cleanSource 'move' モードの構成はサポートされていません。

詳細については、CF_UNSUPPORTED_CLEAN_SOURCE_MOVE を参照してください

CF_UNSUPPORTED_CLOUD_FILES_SQL_FUNCTION

SQLSTATE: 0A000

自動ローダー ストリーミング ソースを作成する SQL 関数 'cloud_files' は、Lakeflow Spark 宣言パイプライン パイプラインでのみサポートされます。 詳細については、以下を参照してください。

<docLink>

CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE

SQLSTATE: 0A000

スキーマ推論は、<format>形式ではサポートされていません。 スキーマを指定してください。

CF_UNSUPPORTED_LOG_VERSION

SQLSTATE: 0A000

UnsupportedLogVersion: サポートされているログの最大バージョンは v<maxVersion> ですが、v<version> が検出されました。 ログ ファイルは新しいバージョンの DBR によって生成され、このバージョンでは読み取ることができません。 アップグレードしてください。

CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE

SQLSTATE: 0A000

スキーマ進化モードの <mode> は、<format>形式ではサポートされていません。 スキーマの進化モードを "none" に設定してください。

CF_USE_DELTA_FORMAT

SQLSTATE: 42000

Delta テーブルからの読み取りは、この構文ではサポートされていません。 Delta からデータを使用する場合は、デルタ テーブル (<deltaDocLink>) を読み取るか、ストリーム ソース (<streamDeltaDocLink>) として Delta テーブルを読み取る方法に関するドキュメントを参照してください。 Delta からのストリーミング ソースは、データの増分消費用に既に最適化されています。

Geospatial

EWKB_PARSE_ERROR

SQLSTATE: 22023

EWKB の解析中に位置 <parseError> でエラー <pos> が発生しました

詳細については、EWKB_PARSE_ERRORを参照してください。

EWKT_PARSE_ERROR

SQLSTATE: 22023

EWKT の解析中にエラーが発生しました: 位置に<parseError><pos>

GEOJSON_PARSE_ERROR

SQLSTATE: 22023

GeoJSON の解析中に位置 <parseError> でエラー <pos> が発生しました

詳細については、GEOJSON_PARSE_ERROR を参照してください。

GEO_ENCODER_SRID_MISMATCH_ERROR

SQLSTATE: 42K09

エンコードする値の SRID <type>が型 SRID: <valueSrid>と一致しないため、<typeSrid>値のエンコードに失敗しました。

H3_INVALID_CELL_ID

SQLSTATE: 22023

<h3Cell> が有効な H3 セル ID ではありません

詳細については、H3_INVALID_CELL_ID を参照してください。

H3_INVALID_GRID_DISTANCE_VALUE

SQLSTATE: 22023

H3 グリッド距離 <k> は非負である必要があります

詳細については、H3_INVALID_GRID_DISTANCE_VALUE を参照してください

H3_INVALID_RESOLUTION_VALUE

SQLSTATE: 22023

H3 の解像度 <r> は、<minR><maxR> の間 (両端を含む) である必要があります

詳細については、H3_INVALID_RESOLUTION_VALUE を参照してください

H3_NOT_ENABLED

SQLSTATE: 0A000

<h3Expression> が無効になっているか、サポートされていません。 H3 式をサポートするレベルへの切り替えを検討する

詳細については、H3_NOT_ENABLED を参照してください。

H3_PENTAGON_ENCOUNTERED_ERROR

SQLSTATE: 22023

<h3Cell>の六角形のリングをグリッド距離<k>で計算している時に五角形が発見されました。

H3_UNDEFINED_GRID_DISTANCE

SQLSTATE: 22023

<h3Cell1><h3Cell2> 間の H3 グリッド距離が未定義です

ST_DIFFERENT_SRID_VALUES

SQLSTATE: 22023

"<sqlFunction>" の引数には、同じ SRID 値が必要です。 SRID 値が見つかりました: <srid1>, <srid2>

ST_INVALID_ARGUMENT(無効な引数)

SQLSTATE: 22023

<sqlFunction>:

詳細については、ST_INVALID_ARGUMENTを参照してください。

ST_INVALID_CRS_TRANSFORMATION_ERROR

SQLSTATE: 22023

<sqlFunction>: SRID <srcSrid> から SRID <trgSrid> への無効またはサポートされていないCRS変換

ST_INVALID_PRECISION_VALUE

SQLSTATE: 22023

精度 <p> は、<minP><maxP> の間 (両端を含む) である必要があります

ST_NOT_ENABLED

SQLSTATE: 0A000

<stExpression> が無効になっているか、サポートされていません。 ST 式をサポートするレベルへの切り替えを検討する

WKB_PARSE_ERROR

SQLSTATE: 22023

WKB の解析中に位置 <parseError> でエラー <pos> が発生しました

詳細については、WKB_PARSE_ERROR を参照してください。

WKT_PARSE_ERROR

SQLSTATE: 22023

WKT の解析中に位置 <parseError> でエラー <pos> が発生しました

詳細については、WKT_PARSE_ERROR を参照してください。

Unity カタログ

CANNOT_DROP_TAGGED_COLUMN

SQLSTATE: 42893

1 つ以上の管理タグが割り当てられているため、列を削除できません。 列を削除する前に、タグを削除してください。 ガイダンスについては、ドキュメントの <docLink>を参照してください。

CHILD_CREATION_FORBIDDEN_FOR_FOREIGN_SECURABLE

SQLSTATE: 22023

種類<childSecurableName>のセキュリティ保護可能な<childSecurableType>は、<parentSecurableName>の親<parentSecurableKind>に作成できません。

列形式が列タイプと互換性がありません

SQLSTATE: 42809

<columnName> には <formatType> 形式があり、列型の <columnType>と互換性がありません。

CONFLICTING_COLUMN_NAMES_ERROR

SQLSTATE: 42711

<columnName> 、同じ名前を持つ別の列と競合しますが、末尾に空白がある場合とない場合 (たとえば、 <columnName> という名前の既存の列)。 別の名前で列の名前を変更してください。

CONNECTION_CREDENTIALS_NOT_SUPPORTED_FOR_ONLINE_TABLE_CONNECTION

SQLSTATE: 0AKUC

<connectionType>の種類の接続に対する接続レベルの資格情報を取得する要求が無効です。 このような資格情報は、マネージド PostgreSQL 接続でのみ使用できます。

CONNECTION_TYPE_NOT_ENABLED

SQLSTATE: 56038

接続の種類 '<connectionType>' が有効になっていません。 接続を有効にして使用してください。

DELTA_SHARING_プロビジョニング_状態_非アクティブ

SQLSTATE: 55019

現在、共有エンティティ '<securableFullName>' は、対応するソース エンティティと完全に同期されていないため、使用できません。 原因: <reason>

DELTA_SHARING_READ_ONLY_RECIPIENT_EXISTS

SQLSTATE: 42710

同じ共有識別子 '<existingRecipientName>' を持つ Recipient オブジェクト '<existingMetastoreId>' が既にあります。

DELTA_SHARING_READ_ONLY_SECURABLE_KIND

SQLSTATE: 42501

Delta Sharing Securable Kind <securableKindName> のデータは読み取り専用であり、作成、変更、削除することはできません。

DISASTER_RECOVERY_READ_ONLY

SQLSTATE: 25006

ディザスター リカバリーによって管理 <catalogName> レプリカ カタログ内のデータは読み取り専用であり、作成、変更、または削除することはできません。

EXTERNAL_ACCESS_DISABLED_ON_METASTORE

SQLSTATE: 0A000

メタストア <metastoreName>の外部データアクセスが無効になっているため、Databricks Compute 環境以外では資格情報提供が拒否されます。 メタストアで "外部データ アクセス" 構成を有効にするには、metastore 管理者に問い合わせてください。

EXTERNAL_ACCESS_NOT_ALLOWED_FOR_TABLE

SQLSTATE: 0AKUC

id <tableId> を持つテーブルは、その種類が <securableKind>されているため、Databricks コンピューティング環境の外部からアクセスできません。 外部からアクセスできるのは、'TABLE_EXTERNAL'、'TABLE_DELTA_EXTERNAL' テーブル、および 'TABLE_DELTA' テーブルの種類だけです。

EXTERNAL_USE_SCHEMA_ASSIGNED_TO_INCORRECT_SECURABLE_TYPE

SQLSTATE: 22023

USE EXTERNALSCHEMA 特権は、このエンティティ <assignedSecurableType> には適用されず、スキーマまたはカタログにのみ割り当てることができます。 <assignedSecurableType> オブジェクトから権限を削除し、代わりにスキーマまたはカタログに割り当ててください。

EXTERNAL_WRITE_NOT_ALLOWED_FOR_TABLE

SQLSTATE: 0AKUC

id <tableId> を持つテーブルは、その種類が <securableKind>されているため、Databricks コンピューティング環境の外部から書き込むことができません。 外部で書き込むことができるのは、'TABLE_EXTERNAL' テーブルと 'TABLE_DELTA_EXTERNAL' テーブルの種類だけです。

FOREIGN_CATALOG_STORAGE_ROOT_MUST_SUPPORT_WRITES

SQLSTATE: 42501

<catalogType> 型の外部カタログの格納場所は、データのアンロードに使用され、読み取り専用にすることはできません。

HMS_SECURABLE_OVERLAP_LIMIT_EXCEEDED

SQLSTATE: 54000

入力パス <resourceType><url> の数が、重複する HMS <overlapLimit> に許可される制限 (<resourceType>) を超えています。

無効なデータソース形式

SQLSTATE: 0AKUC

データ ソース形式 '<datasourceFormat>' はサポートされていません<tableTypeSuffix> <catalogKindSuffix>

INVALID_NAME_FORMAT

SQLSTATE: 42602

<fieldDescription> は有効な名前ではありません。 有効な名前には英数字とアンダースコアのみを含める必要があり、スペース、ピリオド、スラッシュ、または制御文字を含めることはできません。

INVALID_RESOURCE_NAME_DELTA_SHARING

SQLSTATE: 0A000

Delta Sharingリクエストはリソース名を使用してサポートされていません。

INVALID_RESOURCE_NAME_ENTITY_TYPE

SQLSTATE: 42809

指定されたリソース名はエンティティの種類 <provided> を参照していますが、期待されているのは <expected> です。

INVALID_RESOURCE_NAME_METASTORE_ID

SQLSTATE: 42000

指定されたリソース名は、現在の要求のスコープ内にないメタストアを参照します

INVALID_SECURABLE_NAME

SQLSTATE: 42602

<rpcName> 無効な <securableType> 名: '<securableFullName>'

LOCATION_OVERLAP

SQLSTATE: 22023

入力パス URL '<path>' は、'<overlappingLocation>' 呼び出し内の<caller>と重複しています。 <conflictingSummary><permissionErrorSuggestion>

LOCATION_OVERLAP_STORAGE_CONFLICT_WITH_WORKSPACE_STORAGE

SQLSTATE: 22023

ユーザー定義のストレージの場所は、'<caller>' 操作中にワークスペースの既定のストレージ '<path>' と競合します。 これにより、ワークスペース ストレージに依存する機能が動作できなくなります。 競合の概要: <conflictingSummary>。 修復手順については、 https://docs.databricks.com/aws/en/data-governance/unity-catalog/storage-conflicts を参照してください。

管理されたテーブルフォーマット

SQLSTATE: 0AKUC

マネージド テーブルでは Delta のみがサポートされています。 指定されたデータソース形式は <datasourceFormat>

MONGO_DB_SRV_CONNECTION_STRING_DOES_NOT_ALLOW_PORT

SQLSTATE: 42616

MongoDB SRV 接続文字列にはポートが必要ないため、MongoDB 接続の作成または更新は許可されません。

SRV 接続文字列にはポートが必要ないため、ポートを削除してください。

PRINCIPAL_DOES_NOT_EXIST (主体が存在しません)

SQLSTATE: 42704

名前が <principalName>のプリンシパルが見つかりませんでした。

特権サポートは有効化されていません

SQLSTATE: 0AKUC

種類 [<typeString>] で特権のサポートが有効になっていません

PRIVILEGE_NOT_APPLICABLE_TO_ENTITY

SQLSTATE: 22023

特権 <privilege> は、このエンティティ [<classifier>] には適用されません。 予期しない場合は、[<privilegeVersion>] を使用しているメタストアの特権バージョンを確認してください。

読み取り専用カタログ

SQLSTATE: 0AKUC

Delta Sharingカタログ内のデータは読み取り専用であり、作成、変更、削除することはできません。 カタログ '<catalogName>' は差分共有カタログです。

REDSHIFT_FOREIGN_CATALOG_STORAGE_ROOT_MUST_BE_S3

SQLSTATE: 22KD1

Redshift 外部カタログのストレージ ルートは AWS S3 である必要があります。

SCHEMA_NOT_EMPTY

SQLSTATE: 42893

スキーマ '<fullName>' が空ではありません。 <extraInfo>

SECURABLE_KIND_DOES_NOT_SUPPORT_LAKEHOUSE_FEDERATION

SQLSTATE: 0AKUC

種類が <securableKind> のセキュリティ保護可能なリソースは、Lakehouse フェデレーションをサポートしていません。

SECURABLE_KIND_NOT_ENABLED

SQLSTATE: 56038

セキュリティ保護可能な種類 '<securableKind>' が有効になっていません。 プレビュー機能に関連付けられているセキュリティ保護可能な種類の場合は、ワークスペースの設定で有効にしてください。

SECURABLE_TYPE_DOES_NOT_SUPPORT_LAKEHOUSE_FEDERATION

SQLSTATE: 0AKUC

型が <securableType> のセキュリティ保護可能なリソースは、Lakehouse フェデレーションをサポートしていません。

SOURCE_TABLE_COLUMN_COUNT_EXCEEDS_LIMIT

SQLSTATE: 54000

ソース テーブルには、<columnCount> 以上の列があります。 列の数を減らして <columnLimitation> 以下にしてください。

SYSTEM_SERVICE_PRINCIPAL_IS_NOT_REGISTERED

SQLSTATE: 42704

リソース名が <servicePrincipalResource>の登録済みシステム サービス プリンシパルが見つかりませんでした。

TABLE_TYPE_DOES_NOT_SUPPORT_COLUMN_METADATA (テーブルのタイプは列メタデータをサポートしていません)

SQLSTATE: 0AKUC

テーブルの種類 <tableType> は、列メタデータをサポートしていません。

UC_AAD_CLIENT_SECRET_EXPIRED_FOR_SERVICE_PRINCIPAL

SQLSTATE: 42KDI

アプリケーション ID <applicationId> を持つサービス プリンシパルのクライアント シークレット キーの有効期限が切れています。 Azure portal にアクセスして、サービス プリンシパルの新しいキーを作成します。

UC_AAD_CLIENT_SECRET_EXPIRED_FOR_STORAGE_CREDENTIAL

SQLSTATE: 42KDI

ストレージ資格情報 <storageCredentialName> のクライアント シークレット キーの有効期限が切れています。 ストレージ資格情報を更新するには、所有者またはアカウント管理者に問い合わせてください。

UC_AAD_CLIENT_SECRET_INVALID_FOR_SERVICE_PRINCIPAL

SQLSTATE: 42KDI

アプリケーション ID <applicationId> を持つサービス プリンシパルのクライアント シークレット キーが無効です。

UC_AAD_SERVICE_PRINCIPAL_CONFIG_INVALID

SQLSTATE: 42KDI

サービス プリンシパルの構成が無効です。 ディレクトリ ID、アプリケーション ID、クライアント シークレットを確認します。

UC_AAD_TOKEN_EXCHANGE_GENERIC_FAILURE

SQLSTATE: 42KDI

資格情報を取得できませんでした:ストレージ資格情報 <storageCredentialName> が正しく構成されていません。 構成を更新するには、所有者またはアカウント管理者に問い合わせてください。

UC_AAD_TOKEN_LIFETIME_TOO_SHORT

SQLSTATE: 22003

ExchangeD AAD トークンの有効期間が <lifetime> であり、構成が短すぎます。 Azure AD の設定を確認して、一時的なアクセス トークンの有効期間が少なくとも 1 時間であることを確認してください。 https://learn.microsoft.com/azure/active-directory/develop/active-directory-configurable-token-lifetimes

UC_ABAC_AMBIGUOUS_COLUMN_MATCH(あいまいな列の一致)

SQLSTATE: 42KDJ

'<resource>' の ABAC ポリシーの評価中にエラーが発生しました。 ポリシー '<policyName>' がメッセージで失敗しました: エイリアス '<alias>' を使用した結果、<size> つの一致がありましたが、許可されているのは正確に 1 つだけです。

UC_ABAC_DEPENDENCY_COMPLEXITY_LIMIT_EXCEEDED

SQLSTATE: 54000

<resourceType> '<ref>' には、 <resolverType> abac 依存関係が多すぎます。

UC_ABAC_DEPENDENCY_DIFFERING_RF_CM

SQLSTATE: 55000

依存関係 '<dependency>' は複数回参照され、ABAC 行フィルターまたは列マスクが異なります。

UC_ABAC_EVALUATION_USER_ERROR

SQLSTATE: 42000

'<resource>' の ABAC ポリシーの評価中にエラーが発生しました。 ポリシー '<policyName>' が失敗し、次のメッセージが表示されました: <message>

UC_ABAC_INVALID_TAG_POLICY_VALUE

SQLSTATE: 42KDJ

'<resource>' の ABAC ポリシーの評価中にエラーが発生しました。 メッセージ: キー<tagValue> のタグポリシー値<tagKey>が無効で失敗しました。

UC_ABAC_MULTIPLE_ROW_FILTERS

SQLSTATE: 42KDJ

'<resource>' の ABAC ポリシーを評価すると、複数の行フィルターが発生しました。 最大 1 つの行フィルターが許可されます。

UC_ABAC_UNKNOWN_TAG_ポリシー

SQLSTATE: 42KDJ

'<resource>' の ABAC ポリシーの評価中にエラーが発生しました。 "不明なタグ ポリシー: <tagKey>" というメッセージで失敗しました。

UC_ABAC_UNMATCHED_ALIAS_IN_USING_COLUMNS

SQLSTATE: 42KDJ

'<resource>' の ABAC ポリシーの評価中にエラーが発生しました。 メッセージの失敗: <alias> で使用されているエイリアス 'USING COLUMNS' は、どの列とも一致しませんでした。

UC_ABAC_UNMATCHED_ON_COLUMN_ALIAS

SQLSTATE: 42KDJ

'<resource>' の ABAC ポリシーの評価中にエラーが発生しました。 ポリシー '<policyName>' は次のメッセージで失敗しました: <alias> に使用されているエイリアス 'ON COLUMN' は列と一致しませんでした。

UC_ABAC_UNMATCHED_USING_ALIAS

SQLSTATE: 42KDJ

'<resource>' の ABAC ポリシーの評価中にエラーが発生しました。 ポリシー '<policyName>' がメッセージで失敗しました:エイリアス '<alias>' の使用に一致する列がありません。

UC_ABAC_USING_REF_OF_NATIVE_MASKED_COLUMNS

SQLSTATE: 42KDJ

'<resource>' の ABAC ポリシーの評価中にエラーが発生しました。 メッセージで失敗しました: 列 '<usingCol>' はネイティブ RLS/CM ポリシーによってマスクされており、ABAC ポリシー '<policyName>' への入力として使用できません。

UCアクセスにはワークスペースが必要です

SQLSTATE: 42501

ユーザーが関連するワークスペースに割り当てられていないため、ワークスペースに結び付けられたリソースにアクセスできません。

UC_ALTER_DLT_VIEW_OUTSIDE_DEFINING_PIPELINE

SQLSTATE: 0A000

ビューを定義したパイプラインの外部でビュー '<viewFullName>' を変更することは許可されません。 代わりに、それを定義したパイプラインからビュー定義を更新します (パイプライン ID: <owningPipelineId>)。

UC_ATLAS_NOT_ENABLED_FOR_CALLING_SERVICE

SQLSTATE: 0A000

Atlas は、呼び出し元のサービス <serviceName>に対して有効になっていません。

UC_AUTHZ_ACTION_NOT_SUPPORTED

SQLSTATE: 0AKUC

<actionName> の承認はサポートされていません。呼び出された RPC がこのリソースの種類に対して実装されていることを確認してください

UC_AWS_ASSUME_ROLE_FAILED

SQLSTATE: 42KDI

資格情報を取得できませんでした:Unity カタログの資格情報の AWS IAM ロールが正しく構成されていません。 AWS の構成を更新するには、metastore 管理者または資格情報の所有者に問い合わせてください。

UC_AWS_EMPTY_STORAGE_LOCATION

SQLSTATE: 22023

空の保存場所。

UC_AWS_INVALID_S3_POLICY_PREFIX

SQLSTATE: 22KD1

ストレージの場所の s3 パスが無効です。S3 パス <providedPath> は、予期されるプレフィックスで始まらない: <expectedPrefix>

UC_AWS_UNSUPPORTED_S3_SCHEME

SQLSTATE: 22KD1

ストレージの場所の s3 パスが無効です:サポートされていないスキームが見つかりました: <providedScheme>。 サポートされているスキームは、 <supportedS3Schemes>です。

UC_AZURE_BLOB_SERVICE_UNAVAILABLE

SQLSTATE: 57P03

Azure Blob Service は一時的に使用できません。 後でもう一度やり直してください。

UC_AZURE_UDK_UNAUTHORIZED

SQLSTATE: 42501

ユーザー委任キーの要求が承認されていません。 詳細: <details>

UC_BUILTIN_HMS_CONNECTION_CREATION_PERMISSION_DENIED

SQLSTATE: 42501

ユーザー: <userId> がワークスペースの管理者ではないため、組み込みの Hive メタストアの接続を作成できません: <workspaceId>

UC_BUILTIN_HMS_CONNECTION_MODIFY_RESTRICTED_FIELD

SQLSTATE: 22023

組み込みの HMS 接続 '<connectionName>' の制限付きフィールドの変更を試みます。 'warehouse_directory' のみを更新できます。

UC_CANNOT_RENAME_PARTITION_FILTERING_COLUMN

SQLSTATE: 428FR

テーブル列 <originalLogicalColumn> の名前を変更できませんでした。これは、 <sharedTableName>でのパーティション フィルター処理に使用されるためです。 続行するには、共有からテーブルを削除し、列の名前を変更して、目的のパーティション フィルター列ともう一度共有することができます。 ただし、受信者のストリーミング クエリが中断される可能性があります。

UC_CHILD_CREATION_FORBIDDEN_FOR_NON_UC_CLUSTER

SQLSTATE: 0AKUC

UCクラスターからの要求でないため、<securableType> '<securable>' の下に<parentSecurableType> '<parentSecurable>'を作成できません。

UC_CONFLICTING_CONNECTION_ALLOW_LIST_OPTIONS

SQLSTATE: 42616

接続オプションと重複する許可リストを持つ接続を作成できません。 値: <conflictingOptions>

UC_CONFLICTING_CONNECTION_OPTIONS

SQLSTATE: 42616

ユーザー名/パスワードと oauth 認証オプションの両方を使用して接続を作成することはできません。 いずれかを選択してください。

UC_CONNECTION_CREDENTIALS_MAXIMUM_REACHED

SQLSTATE: 53400

接続名 '<connectionName>' の資格情報の最大数に達しました。 新しい資格情報を作成する前に、既存の資格情報を削除してください。

UC_CONNECTION_CREDENTIALS_NOT_EXIST_FOR_USER_WITH_LOGIN

SQLSTATE: 42517

接続 '<userIdentity>' のユーザー ID('<connectionName>') の資格情報が見つかりません。 最初に<connectionPage>を訪問して接続にログインしてください。

UC_CONNECTION_CREDENTIALS_TYPE_NOT_SUPPORTED

SQLSTATE: 42809

セキュリティ保護可能な種類 '<securableType>' の資格情報の作成はサポートされていません。 サポートされているセキュリティ保護可能な種類: <allowedSecurableType>

UC_CONNECTION_EXISTS_FOR_CREDENTIAL

SQLSTATE: 42893

資格情報 '<credentialName>' には、1 つ以上の依存接続があります。 資格情報を引き続き更新または削除するには force オプションを使用できますが、この資格情報を使用する接続が機能しなくなる可能性があります。

UC_CONNECTION_EXPIRED_ACCESS_TOKEN

SQLSTATE: 42KDI

接続に関連付けられているアクセス トークンの有効期限が切れています。 OAuth フローを再起動してトークンを取得するように接続を更新してください。

UC_CONNECTION_EXPIRED_REFRESH_TOKEN

SQLSTATE: 42KDI

接続に関連付けられている更新トークンの有効期限が切れています。 OAuth フローを再起動して新しいトークンを取得するように接続を更新してください。

UC_CONNECTION_IN_FAILED_STATE

SQLSTATE: 55000

接続が FAILED 状態です。 有効な資格情報で接続を更新して、再アクティブ化してください。

UC_CONNECTION_MISSING_OPTION

SQLSTATE: 22023

セキュリティ保護可能な種類 '<securableType>' の接続には、次のオプションを含める必要があります: <requiredOptions>

UC_CONNECTION_MISSING_REFRESH_TOKEN

SQLSTATE: 42KDI

接続に関連付けられている更新トークンはありません。 更新トークンを返すように ID プロバイダーの OAuth クライアント統合を更新し、接続を更新または再作成して OAuth フローを再起動し、必要なトークンを取得してください。

UC_CONNECTION_OAUTH_EXCHANGE_FAILED

SQLSTATE: 42KDI

OAuth トークン交換が HTTP 状態コード <httpStatus>で失敗しました。 返されるサーバーの応答または例外メッセージは次のとおりです: <response>

UC_CONNECTION_OPTION_NOT_SUPPORTED

SQLSTATE: 42616

セキュリティ保護可能な種類 '<securableType>' の接続では、次のオプションはサポートされていません: <optionsNotSupported>。 サポートされているオプション: <allowedOptions>.

UC_COORDINATED_COMMITS_NOT_ENABLED

SQLSTATE: 56038

調整されたコミットのサポートは有効になっていません。 Databricks サポートにお問い合わせください。

UC_CREATE_FORBIDDEN_UNDER_INACTIVE_SECURABLE

SQLSTATE: 55019

'<securableType>' <securableName>作成できません。これは、アクティブでない<parentSecurableType> '<parentSecurableName>' の下にあるためです。 親のセキュリティ保護可能なリソースを削除して、親を再作成してください。

UC_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED

SQLSTATE: 22KD1

指定されたアクセス コネクタ ID (<accessConnectorId>) を解析できませんでした。 書式設定を確認してから、もう一度やり直してください。

UC_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN

SQLSTATE: 58000

アクセス コネクタでクラウドアクセス許可の検証を実行するための AAD トークンを取得できませんでした。 アクションを再試行してください。

UC_CREDENTIAL_INVALID_CLOUD_PERMISSIONS

SQLSTATE: 割り当てなし

資格情報を登録するには、ID <accessConnectorId>を持つ対応するアクセス コネクタに対する投稿者ロールが必要です。 アカウント管理者にお問い合わせください。

UC_CREDENTIAL_INVALID_CREDENTIAL_TYPE_FOR_PURPOSE

SQLSTATE: 22023

資格情報の種類 '<credentialType>' は、目的 '<credentialPurpose>' ではサポートされていません

UC_CREDENTIAL_PERMISSION_DENIED

SQLSTATE: 割り当てなし

<storageCredentialType>の種類で資格情報を作成または更新できるのは、アカウント管理者だけです。

UC_CREDENTIAL_TRUST_POLICY_IS_OPEN

SQLSTATE: 22023

Databricks アカウントがロールを引き受けることができるようにする IAM ロールの信頼ポリシーには、外部 ID が必要です。外部 ID 条件を追加するには、アカウント管理者に問い合わせてください。 この動作は、混乱した副官問題 (https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html) を防ぐためのものです。

UC_CREDENTIAL_WORKSPACE_API_PROHIBITED

SQLSTATE: 0A000

アカウント レベルの API では、アカウント以外の管理者として資格情報を作成または更新することはできません。 代わりにワークスペース レベルの API を使用してください。

UC_DBR_TRUST_VERSION_TOO_OLD

SQLSTATE: 0A000

使用されている Databricks ランタイムでは、この操作はサポートされなくなりました。 最新バージョンを使用してください (クラスターの再起動が必要な場合があります)。

UC_DELTA_ILLEGAL_BACKFILLED_VERSION

SQLSTATE: 22023

コミット (<version>, <commitType>) で予期しない latestBackfilledVersion <latestBackfilledVersion>

UC_DELTA_ILLEGAL_CONCURRENT_MIGRATION

SQLSTATE: 0A000

カタログ管理テーブルに対する同時アップグレードまたはダウングレードはサポートされていません。 移行コマンドを一度に実行するトランザクションは 1 つだけであることを確認します。 重複する <commitType> が検出されました。

UC_DELTA_ILLEGAL_MIGRATION_STATE_CHANGE

SQLSTATE: 22023

古いコミットの種類 <lastCommitType> から新しい <commitType>への無効な状態遷移。

UC_DELTA_MIGRATION_STATE_CHANGE_VERSION_MISMATCH

SQLSTATE: 22023

バージョンは、古い (<lastVersion>, <lastCommitType>) から新規 (<version>, <commitType>) への状態遷移と一致しません。

UC_DELTA_UNIVERSAL_FORMAT_CANNOT_PARSE_ICEBERG_VERSION

SQLSTATE: 22P02

メタデータの場所 <metadataLocation>から Apache Iceberg テーブルバージョンを解析できません。

UC_DELTA_UNIVERSAL_FORMAT_CONCURRENT_WRITE

SQLSTATE: 40001

同じ Apache Iceberg メタデータ バージョンへの同時更新が検出されました。

UC_DELTA_UNIVERSAL_FORMAT_INVALID_METADATA_LOCATION

SQLSTATE: 22KD1

コミットされたメタデータの場所 <metadataLocation> が無効です。 テーブルのルート ディレクトリ <tableRoot>のサブディレクトリではありません。

UC_DELTA_UNIVERSAL_FORMAT_MISSING_FIELD_CONSTRAINT

SQLSTATE: 42601

指定されたデルタ Apache Iceberg 形式の変換情報に必須フィールドがありません。

UC_DELTA_UNIVERSAL_FORMAT_NON_CREATE_CONSTRAINT

SQLSTATE: 0A000

作成時にデルタ Apache Iceberg 形式情報を設定することはサポートされていません。

UC_DELTA_UNIVERSAL_FORMAT_TOO_LARGE_CONSTRAINT

SQLSTATE: 54000

指定された差分 Apache Iceberg 形式の変換情報が大きすぎます。

UC_DELTA_UNIVERSAL_FORMAT_UPDATE_INVALID

SQLSTATE: 0A000

均一メタデータは、Uniform が有効になっている Delta テーブルでのみ更新できます。

UC_DEPENDENCY_DEPTH_LIMIT_EXCEEDED

SQLSTATE: 54000

<resourceType> '<ref>' の深さが制限を超えています (または循環参照を持っています)。

UC_DEPENDENCY_DOES_NOT_EXIST

SQLSTATE: 42704

<resourceType> 基になるリソースのいずれかが存在しないため、'<ref>' は無効です。 <cause>

UC_DEPENDENCY_PERMISSION_DENIED

SQLSTATE: 42501

<resourceType> 基になるリソースの所有者が承認チェックに失敗したため、'<ref>' には実行するための十分な特権がありません。 <cause>

UC_DUPLICATE_CONNECTION

SQLSTATE: 42710

同じ URL を持つ '<connectionName>' という接続が既に存在します。 重複を作成する代わりに、その接続を使用するアクセス許可を所有者に依頼してください。

UC_DUPLICATE_FABRIC_CATALOG_CREATION

SQLSTATE: 42710

許可されていない既存のカタログに一致する URL '<storageLocation>' を持つ Fabric カタログを作成しようとしました。

UC_DUPLICATE_TAG_ASSIGNMENT_CREATION

SQLSTATE: 42710

タグキー <tagKey> でのタグの割り当ては既に存在します。

UC_ENTITY_DOES_NOT_HAVE_CORRESPONDING_ONLINE_CLUSTER

SQLSTATE: 57000

エンティティ <securableType> <entityId> には、対応するオンライン クラスターがありません。

UC_ETAG_MISMATCH

SQLSTATE: 40001

リソースが変更されました。 最新の etag をフェッチして再試行してください。 予想される etag 値: プロトコル バージョンの<expectedTokenVersion>を使用した<expectedTokenValue>、受信した etag 値: プロトコル バージョンでの<providedTokenValue><providedTokenVersion>

UC_EXCEEDS_MAX_FILE_LIMIT

SQLSTATE: 22023

<maxFileResults> 以上のファイルがあります。 [max_results] を指定して、返されるファイルの数を制限してください。

UC_EXTERNAL_HMS_SCHEMA_LOCATION_NOT_FEDERATED

SQLSTATE: 22023

スキーマ <schemaName>DEGRADEDプロビジョニング状態です。これは、eHMS/Glue スキーマの場所がフェデレーションされていないために想定されます。

UC_EXTERNAL_LOCATION_OP_NOT_ALLOWED

SQLSTATE: 22023

<opName> <extLoc> <reason> を実行できません。 <suggestion>

UC_FEATURE_DISABLED

SQLSTATE: 56038

<featureName> は UC で現在無効になっています。

UC_FOREIGN_CATALOG_FOR_CONNECTION_TYPE_NOT_SUPPORTED

SQLSTATE: 42809

接続の種類 '<connectionType>' の外部カタログの作成はサポートされていません。 この接続の種類は、マネージド インジェスト パイプラインの作成にのみ使用できます。 詳細については、Databricks のドキュメントを参照してください。

UC_FOREIGN_CREDENTIAL_CHECK_ONLY_FOR_READ_OPERATIONS

SQLSTATE: 0AKUC

外部テーブルの READ 資格情報のみを取得できます。

UC_FOREIGN_ENTITY_CREATION_FORBIDDEN_DURING_CONVERSION

SQLSTATE: 55019

カタログ FOREIGN <securableType> '<entityName>' をカタログ '<catalogName>' の下に作成することは、カタログが FOREIGN から STANDARDに変換されている間は禁止されています。

UC_FOREIGN_HMS_SHALLOW_CLONE_MISMATCH

SQLSTATE: 22023

基本テーブルとクローン テーブルは、外部 Hive Metastore カタログで作成された浅いクローンの場合、同じカタログに含まれている必要があります。 ベース テーブル '<baseTableName>' はカタログ '<baseCatalogName>' にあり、複製テーブル '<cloneTableName>' はカタログ '<cloneCatalogName>' にあります。

UC_FOREIGN_KEY_CHILD_COLUMN_LENGTH_MISMATCH

SQLSTATE: 42830

外部キー <constraintName> の子列と親列のサイズが異なります。

UC_FOREIGN_KEY_COLUMN_MISMATCH

SQLSTATE: 42830

外部キーの親列が、参照されている主キーの子列と一致しません。 外部キーの親列は (<parentColumns>) で、主キーの子列は (<primaryKeyChildColumns>) です。

UC_FOREIGN_KEY_COLUMN_TYPE_MISMATCH

SQLSTATE: 42830

外部キーの子列の型が親列の型と一致しません。 外部キーの子列 <childColumnName> は型 <childColumnType> であり、親列 <parentColumnName> は型 <parentColumnType>です。

UC_GCP_INVALID_PRIVATE_KEY

SQLSTATE: 42501

アクセスが拒否されました。 原因: サービス アカウントの秘密キーが無効です。

UC_GCP_INVALID_PRIVATE_KEY_JSON_FORMAT

SQLSTATE: 22032

Google Server アカウント OAuth 秘密キーは、必須フィールドを持つ有効な JSON オブジェクトである必要があります。サービス アカウントの詳細ページの 'KEYS' セクションから生成された完全な JSON ファイルを必ず指定してください。

UC_GCP_INVALID_PRIVATE_KEY_JSON_FORMAT_MISSING_FIELDS

SQLSTATE: 22032

Google Server アカウント OAuth 秘密キーは、必須フィールドを持つ有効な JSON オブジェクトである必要があります。サービス アカウントの詳細ページの 'KEYS' セクションから生成された完全な JSON ファイルを必ず指定してください。 欠損している項目は <missingFields>

UC_IAM_ROLE_NON_SELF_ASSUMING

SQLSTATE: 22023

このストレージ資格情報の IAM ロールは、自己引き受けを行わないことが判明しました。 ロールの信頼と IAM ポリシーをチェックして、IAM ロールが Unity Catalog ストレージ認証情報のドキュメントに従ってそれ自体を引き受けることができることを確認してください。

UC_ICEBERG_COMMIT_CONFLICT

SQLSTATE: 40001

<tableName>コミットできません: メタデータの場所 <baseMetadataLocation><catalogMetadataLocation>から変更されました。

UC_ICEBERG_COMMIT_INVALID_TABLE

SQLSTATE: 42809

Managed Apache Iceberg 以外のテーブル ( <tableName>) に対して Managed Apache Iceberg コミットを実行できません。

UC_ICEBERG_COMMIT_MISSING_FIELD_CONSTRAINT

SQLSTATE: 42601

指定された Managed Apache Iceberg コミット情報に必須フィールドがありません。

UC_ID_MISMATCH

SQLSTATE: 40001

<type> <name> には ID <wrongId>がありません。 操作を再試行してください。

UC_INFORMATION_SCHEMA_PER_METASTORE_DB_RATE_LIMIT_EXCEEDED

SQLSTATE: 53300

メタストアに対する情報スキーマ要求が多すぎます。 しばらくお待ちください。 問題が解決しない場合は、クエリの選択性を調整するか、サポートに連絡することを検討してください。

UC_INVALID_ACCESS_BRICKSTORE_ONLINE_TABLE_DEPRECATION

SQLSTATE: 0AKUC

オンライン テーブルは非推奨です。 オンライン テーブル <securableName> へのアクセス権の取得はサポートされなくなりました。

UC_INVALID_ACCESS_BRICKSTORE_PG_CONNECTION

SQLSTATE: 0A000

データベース インスタンスへのアクセスが無効です。 <reason>

UC_INVALID_ACCESS_DBFS_ENTITY

SQLSTATE: 42501

フェデレーション カタログ <securableType> <securableName>内の <catalogName> のアクセスが無効です。 <reason>

UC_INVALID_AZURE_PATH

SQLSTATE: 22KD1

無効な Azure パス: <path>

UC_INVALID_CLOUDFLARE_ACCOUNT_ID

SQLSTATE: 22023

Cloudflare アカウント ID が無効です。

UC_INVALID_CREDENTIAL_CLOUD

SQLSTATE: 42616

資格情報クラウド プロバイダー '<cloud>' が無効です。 許可されたクラウド プロバイダー '<allowedCloud>'。

UC_INVALID_CREDENTIAL_PURPOSE_VALUE

SQLSTATE: 42616

資格情報の 'purpose' の値 '<value>' が無効です。 使用できる値 '<allowedValues>'。

UC_INVALID_CREDENTIAL_TRANSITION

SQLSTATE: 42616

<startingCredentialType> から <endingCredentialType>への接続を更新できません。 唯一有効な移行は、ユーザー名/パスワードベースの接続から OAuth トークン ベースの接続への移行です。

UC_INVALID_CRON_STRING_FABRIC

SQLSTATE: 22P02

cron 文字列が無効です。 見つかりました: '<cronString>' と解析例外 '<message>'

UC_INVALID_DIRECT_ACCESS_MANAGED_TABLE

SQLSTATE: 22023

直接アクセスマネージド テーブル <tableName>が無効です。 & ソーステーブルのパイプライン定義が定義されていないことを確認してください。

UC_INVALID_EMPTY_STORAGE_LOCATION

SQLSTATE: 55000

カタログ '<securableType>' の '<securableName>' 用のストレージ場所 <catalogName> が予期せず空です。 このエラーを修正するには、DESCRIBE SCHEMA <catalogName>を実行してください。 <securableName> をクリックしてこのページを更新します。

UC_INVALID_OPTIONS_UPDATE

SQLSTATE: 42601

更新プログラムのオプションが無効です。 無効なオプション: <invalidOptions>。 使用できるオプション: <allowedOptions>.

UC_INVALID_OPTION_VALUE

SQLSTATE: 42616

'<value>' の値 '<option>' が無効です。 使用できる値 '<allowedValues>'。

UC_INVALID_OPTION_VALUE_EMPTY

SQLSTATE: 42616

'<option>' を空にすることはできません。 空でない値を入力してください。

UC_INVALID_POLICY_CONDITION

SQLSTATE: 42611

ポリシー '<policyName>' の条件が無効です。 "<message>" というメッセージが表示されたコンパイル エラー。

UC_INVALID_R2_ACCESS_KEY_ID

SQLSTATE: 22023

R2 アクセス キー ID が無効です。

UC_INVALID_R2_SECRET_ACCESS_KEY

SQLSTATE: 22023

R2 シークレット アクセス キーが無効です。

UC_INVALID_UPDATE_ON_SYSTEM_WORKSPACE_ADMIN_GROUP_OWNED_SECURABLE

SQLSTATE: 42501

<securableType> '<securableName>' は内部グループによって所有されているため、更新できません。 詳細については、Databricks サポートにお問い合わせください。

UC_INVALID_WASBS_EXTERNAL_LOCATION_STORAGE_CREDENTIAL

SQLSTATE: 22023

ストレージ資格情報 <storageCredentialName> が DBFS ルートに関連付けられていない場合、wasbs 外部ロケーションの作成は禁止されます。

UC_LOCATION_INVALID_SCHEME

SQLSTATE: 22KD1

ストレージの場所に無効な URI スキームがあります: <scheme>

UC_MALFORMED_OAUTH_SERVER_RESPONSE

SQLSTATE: 58000

トークン サーバーからの応答に <missingField>フィールドが見つかりませんでした。 返されるサーバー応答は次のとおりです: <response>

UC_MANAGED_ICEBERG_UNSUPPORTED

SQLSTATE: 0AKUC

現在のエンドポイントでマネージド Apache Iceberg テーブルをサポートすることはできません。

UC_METASTORE_ASSIGNMENT_STATUS_INVALID

SQLSTATE: 22023

'<metastoreAssignmentStatus>' を割り当てることはできません。 MANUALLY_ASSIGNABLEAUTO_ASSIGNMENT_ENABLED のみがサポートされています。

UC_METASTORE_CERTIFICATION_NOT_ENABLED

SQLSTATE: 0A000

メタストア認定が有効になっていません。

UC_METASTORE_HAS_ACTIVE_MANAGED_ONLINE_CATALOGS

SQLSTATE: 割り当てなし

metastore <metastoreId> には、マネージド オンライン カタログ <numberManagedOnlineCatalogs> があります。 明示的に削除してから、メタストアの削除を再試行してください。

UC_METASTORE_QUOTA_EXCEEDED

SQLSTATE: 53400

id <accountId> を持つこのアカウントは、リージョン <region>のメタストアの制限に達しました。

UC_METASTORE_STORAGE_ROOT_CREDENTIAL_UPDATE_INVALID

SQLSTATE: 22023

メタストア ルートの場所を更新するときに、メタストア ルート資格情報を定義できません。 資格情報は、メタストアの親の外部の場所からフェッチされます。

UC_METASTORE_STORAGE_ROOT_DELETION_INVALID

SQLSTATE: 42501

メタストア ストレージのルートの場所の削除に失敗しました。 <reason>

UC_METASTORE_STORAGE_ROOT_READ_ONLY_INVALID

SQLSTATE: 22023

メタストアのルート <securableType> を読み取り専用にすることはできません。

UC_METASTORE_STORAGE_ROOT_UPDATE_INVALID

SQLSTATE: 22023

メタストア ストレージ ルートを設定した後は更新できません。

UC_MODEL_INVALID_STATE

SQLSTATE: 55000

状態 <opName> であるモデル バージョン <modelVersion> に対して一時的な '<modelVersionStatus>' 資格情報を生成できません。 '<opName>' 資格情報は、特定のステータスを持つモデルバージョンに対してのみ作成可能です <validStatus>

UC_NATIVE_USING_REF_OF_ABAC_MASKED_COLUMNS

SQLSTATE: 42KDJ

'<resource>' の ABAC ポリシーの評価中にエラーが発生しました。 失敗しました:列 '<usingCol>' は ABAC ポリシー '<policyName>' によってマスクされており、ネイティブ RLS/CM ポリシーへの入力として使用できません。

UC_NO_ORG_ID_IN_CONTEXT

SQLSTATE: 58000

組織 ID (またはワークスペース ID) にアクセスしようとしましたが、コンテキストに何も含まれていません。

UC_ONELAKE_PATH_BAD_DOMAIN

SQLSTATE: 22KD1

Azure OneLake パス '<path>' には、ドメイン名 '<expectedHost>' が必要です。

UC_ONELAKE_PATH_BAD_FORMAT

SQLSTATE: 22KD1

Azure OneLake パス '<path>' は、'abfss://_WORKSPACE_@<host>/' の形式である必要があります。

UC_ONELAKE_PATH_MISSING_AT

SQLSTATE: 22KD1

Azure OneLake パス '<path>' に '@' が含まれていません。

UC_ONELAKE_PATH_MISSING_WORKSPACE

SQLSTATE: 22KD1

Azure OneLake パス '<path>' にはワークスペース名が含まれている必要があります。

UC_ONLINE_CATALOG_NOT_MUTABLE

SQLSTATE: 割り当てなし

<rpcName> 要求は <fieldName>を更新します。 オンライン カタログのコメント、所有者、isolationMode 以外を変更するには、オンライン ストアのコンピューティング タブを使用します。

UC_ONLINE_CATALOG_QUOTA_EXCEEDED

SQLSTATE: 53400

メタストアには <quota> 以上のオンラインストアを作成できず、既に <currentCount>があります。 既存のオンライン ストアにアクセスできない場合があります。 アクセス権が付与されるように、または詳細な手順については、metastore 管理者に問い合わせてください。

UC_ONLINE_INDEX_CATALOG_INVALID_CRUD

SQLSTATE: 割り当てなし

オンラインインデックスカタログは、/vector-search API を介して <action> で指定する必要があります。

UC_ONLINE_INDEX_CATALOG_NOT_MUTABLE

SQLSTATE: 割り当てなし

<rpcName> 要求は <fieldName>を更新します。 /vector-search API を使用して、オンライン インデックス カタログのコメント、所有者、isolationMode 以外のものを変更します。

UC_ONLINE_INDEX_CATALOG_QUOTA_EXCEEDED

SQLSTATE: 53400

メタストアに <quota> 以上のオンライン インデックス カタログを作成できませんが、既に <currentCount>あります。 既存のオンライン インデックス カタログにアクセスできない場合があります。 アクセス権が付与されるように、または詳細な手順については、metastore 管理者に問い合わせてください。

UC_ONLINE_INDEX_INVALID_CRUD

SQLSTATE: 0A000

オンラインインデックスは、/vector-search API を使用して <action> にする必要があります。

UC_ONLINE_STORE_INVALID_CRUD

SQLSTATE: 割り当てなし

オンラインストアは、オンラインストアの [コンピューティング] タブを使用して <action> を実行する必要があります。

UC_ONLINE_TABLE_COLUMN_NAME_TOO_LONG

SQLSTATE: 54000

ソース テーブルの列名 <columnName> が長すぎます。 最大長は <maxLength> 文字です。

UC_ONLINE_TABLE_PRIMARY_KEY_COLUMN_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT

SQLSTATE: 42P16

<columnName> は、ソース テーブルの既存の PRIMARY KEY 制約の一部ではないため、オンライン テーブルの主キー列として使用できません。 詳細については、<docLink> を参照してください。

UC_ONLINE_TABLE_TIMESERIES_KEY_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT

SQLSTATE: 42P16

<columnName> は、ソース テーブルの既存の PRIMARY KEY 制約の時系列列ではないため、オンライン テーブルの時系列キーとして使用できません。 詳細については、<docLink> を参照してください。

UC_ONLINE_VIEWS_PER_SOURCE_TABLE_QUOTA_EXCEEDED

SQLSTATE: 53400

ソース テーブルごとに <quota> 以上のオンライン テーブルを作成することはできません。

UC_ONLINE_VIEW_ACCESS_DENIED

SQLSTATE: 0AKUC

リソース <resourceName> にアクセスするには、サーバーレス SQL ウェアハウスを使用する必要があります。 クエリの実行または UI でのデータベース カタログの表示に使用されているウェアハウスがサーバーレスであることを確認してください。 詳細については、<docLink> を参照してください。

UC_ONLINE_VIEW_CONTINUOUS_QUOTA_EXCEEDED

SQLSTATE: 53400

オンライン ストアでは <quota> 以上の連続したオンラインビューを作成することはできず、すでに <currentCount>あります。 既存のオンライン ビューにアクセスできない場合があります。 アクセス権が付与されるように、または詳細な手順については、オンライン ストア管理者に問い合わせてください。

UC_ONLINE_VIEW_DOES_NOT_SUPPORT_DMK

SQLSTATE: 割り当てなし

<tableKind> は、Databricks マネージド キーを使用したストレージロケーションで作成することはできません。 Databricks マネージド キーの暗号化を使用せずに、ストレージの場所で別のスキーマ/カタログを選択してください。

UC_ONLINE_VIEW_INVALID_CATALOG

SQLSTATE: 42809

内部で <catalogName> を作成するには、種類 <catalogKind> のカタログ <tableKind> は無効です。 <tableKind> は、<validCatalogKinds>の種類のカタログでのみ作成できます。

UC_ONLINE_VIEW_INVALID_SCHEMA

SQLSTATE: 42809

内部で <schemaName> を作成するには、種類 <schemaKind> のスキーマ <tableKind> は無効です。 <tableKind> は、<validSchemaKinds>の種類のスキーマでのみ作成できます。

UC_ONLINE_VIEW_INVALID_TTL_TIME_COLUMN_TYPE

SQLSTATE: 42809

<columnName> 型の列 <columnType> は、TTL 時間列として使用できません。 使用できる型は <supportedTypes> です。

UC_OPERATION_NOT_SUPPORTED

SQLSTATE: 0AKUC

Unity カタログでは操作がサポートされていません。 <detailedMessage>

UC_OUT_OF_AUTHORIZED_PATHS_SCOPE

SQLSTATE: 22023

認証されたパスのエラー。 <securableType> の場所 <location> は、カタログの許可されたパス (<catalogName>) 内で定義されていません。 カタログで定義されている承認済みパスの一覧にパスを追加するよう、カタログ所有者に依頼してください。

UC_OVERLAPPED_AUTHORIZED_PATHS

SQLSTATE: 22023

"authorized_paths" オプションには、重複するパス ( <overlappingPaths>) が含まれています。 各パスが一意であり、リスト内の他のパスと交差していないことを確認します。

UC_PAGINATION_AND_QUERY_ARGS_MISMATCH

SQLSTATE: 22023

クエリ引数 '<arg>' が '<received>' に設定されています。これは、最初の改ページ位置の呼び出し ('<expected>' で使用される値とは異なります)

UC_PATH_FILTER_ALLOWLIST_VIOLATION

SQLSTATE: 42501

資格情報 '<credentialName>' はワークスペースの既定の資格情報であり、'<allowlist>' のパス内のデータへのアクセスのみが許可されます。 この資格情報を使用してアクセスされるすべてのパスが、次のいずれかのパスの下にあることを確認してください。

UC_PATH_FILTER_DENYLIST_VIOLATION

SQLSTATE: 42501

資格情報 '<credentialName>' はワークスペースの既定の資格情報であり、制限されたパス '<targetPath>' のデータにアクセスできません。

UC_PATH_TOO_LONG

SQLSTATE: 54000

入力パスが長すぎます。 許容される長さ: <maxLength>。 入力の長さ: <inputLength>。 入力: <path>...

UC_PER_METASTORE_DATABASE_CONCURRENCY_LIMIT_EXCEEDED

SQLSTATE: 54000

メタストア <metastoreId>のコンカレンシー制限を超えました。 後でもう一度やり直してください。 問題が解決しない場合は、サポートにお問い合わせください。 エラー コード #UC-<errorCodeArbitraryFiveLettersUpperCase>

UC_POSTGRESQL_ONLINE_VIEWS_PER_SOURCE_TABLE_QUOTA_EXCEEDED

SQLSTATE: 53400

<quota> 同期されたデータベース テーブルは、1つのソース テーブルにつき1つ以上作成することはできません。

UC_PRIMARY_KEY_ON_NULLABLE_COLUMN

SQLSTATE: 42831

子列 <constraintName> が null 許容であるため、主キー <childColumnNames> を作成できません。 列の null 値の許容を変更して再試行してください。

UC_REQUEST_LIMIT_EXCEEDED

SQLSTATE: 53400

組織がレート制限を超えたため、要求は拒否されました。 後で要求をもう一度お試しください。

UC_REQUEST_TIMEOUT

SQLSTATE: 57KD0

この操作に時間がかかりすぎます。

UC_RESOURCE_QUOTA_EXCEEDED

SQLSTATE: 53400

<parentResourceType> <parentResourceId><amount> <resourceType>を作成できません (推定カウント: <currentCount>、制限: <quotaLimit>)。

UC_ROOT_STORAGE_S3_BUCKET_NAME_CONTAINS_DOT

SQLSTATE: 22KD1

ドットを含むルート ストレージ S3 バケット名は、Unity カタログではサポートされていません: <uri>

UC_SCHEMA_EMPTY_STORAGE_LOCATION

SQLSTATE: 22KD1

カタログ '<schemaName>' のスキーマ '<catalogName>' の予期しない空の格納場所。 スキーマで <validPathSchemesListStr>のパス スキームが使用されていることを確認してください。

UC_SERVERLESS_UNTRUSTED_DOMAIN_STORAGE_TOKEN_MINTING

SQLSTATE: 42501

サーバーレス Python と scala ノートブックは、ネットワーク制限付きワークスペース内の Unity カタログから一時的なストレージ資格情報を取得することは禁止されています。

UC_SHALLOW_CLONE_BASE_TABLE_DELETED

SQLSTATE: 42S02

基本テーブル '<tableFullName>' が削除されているため、簡易クローン '<baseTableName>' にアクセスできません。

UC_STORAGE_CREDENTIALS_外部ロケーションの削除拒否

SQLSTATE: 42893

ストレージ資格情報 '<credentialName>' には、直接依存する外部テーブルと<extTablesCount>依存するストレージの場所<extLocationsCount>があります。 強制オプションを使用して削除することもできますが、このストレージ資格情報を使用するマネージド ストレージ データは、Unity カタログによって削除できなくなります。

UC_STORAGE_CREDENTIALS_外部位置情報更新拒否

SQLSTATE: 42893

ストレージ資格情報 '<credentialName>' には <extTablesCount> 直接依存する外部テーブルと、<extLocationsCount> 依存するストレージの場所があります。更新するには、強制オプションを使用してください。

UC_STORAGE_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED

SQLSTATE: 22KD1

指定されたアクセス コネクタ ID (<accessConnectorId>) を解析できませんでした。 書式設定を確認してから、もう一度やり直してください。

UC_STORAGE_CREDENTIAL_DBFS_ROOT_CREATION_PERMISSION_DENIED

SQLSTATE: 42501

ユーザー: <userId> はワークスペースの管理者ではないため、DBFS ルートのストレージ資格情報を作成できません: <workspaceId>

UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_DBFS_ENABLED

SQLSTATE: 0AKUC

ファイアウォールが有効な DBFS を使用するワークスペースでは、DBFS ルート ストレージ資格情報はまだサポートされていません

UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_NOT_SUPPORTED

SQLSTATE: 0A000

現在のワークスペースの DBFS ルート ストレージ資格情報はまだサポートされていません

UC_STORAGE_CREDENTIAL_DBFS_ROOT_WORKSPACE_DISABLED

SQLSTATE: 0A000

ワークスペース <workspaceId> に対して DBFS ルートが有効になっていません

UC_STORAGE_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN

SQLSTATE: 58000

アクセス コネクタでクラウドアクセス許可の検証を実行するための AAD トークンを取得できませんでした。 アクションを再試行してください。

UC_STORAGE_CREDENTIAL_INVALID_CLOUD_PERMISSIONS

SQLSTATE: 42501

ストレージ資格情報を登録するには、ID <accessConnectorId>を持つ対応するアクセス コネクタに対する共同作成者ロールが必要です。 アカウント管理者にお問い合わせください。

UC_STORAGE_CREDENTIAL_METASTORE_ROOT_削除拒否

SQLSTATE: 55000

ストレージ資格情報 '<credentialName>' は、このメタストアのルート資格情報として構成されているため、削除できません。 削除を試みる前に、メタストアのルート資格情報を更新してください。

UC_STORAGE_CREDENTIAL_PERMISSION_DENIED

SQLSTATE: 42501

<storageCredentialType>の種類でストレージ資格情報を作成または更新できるのは、アカウント管理者だけです。

UC_STORAGE_CREDENTIAL_SERVICE_PRINCIPAL_MISSING_VALIDATION_TOKEN

SQLSTATE: 42KDI

サービス プリンシパルの検証トークンがありません。 'X-Databricks-Azure-SP-Management-Token' 要求ヘッダーに有効な ARM スコープの Entra ID トークンを指定して、再試行してください。 詳細については、https://docs.databricks.com/api/workspace/storagecredentials を参照してください

UC_STORAGE_CREDENTIAL_TRUST_POLICY_IS_OPEN

SQLSTATE: 22023

Databricks アカウントがロールを引き受けることができるようにする IAM ロールの信頼ポリシーには、外部 ID が必要です。外部 ID 条件を追加するには、アカウント管理者に問い合わせてください。 この動作は、混乱した副官問題 (https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html) を防ぐためのものです。

UC_STORAGE_CREDENTIAL_WASBS_NOT_DBFS_ROOT

SQLSTATE: 22KD1

場所 <location> が DBFS ルート内にないため、ストレージ資格情報を作成できません <storageCredentialName>

UC_STORAGE_CREDENTIAL_WORKSPACE_API_PROHIBITED

SQLSTATE: 0AKD1

アカウントレベルの API では、アカウント以外の管理者としてストレージ資格情報を作成または更新することはできません。 代わりにワークスペース レベルの API を使用してください。

UC_STORAGE_CREDENTIAL_WS_BUCKET_INVALID_LOCATION

SQLSTATE: 22KD1

場所 <requestedLocation> が許可されたコンテキスト内にない <allowedLocation>

UC_STORAGE_CREDENTIAL_WS_INTERNAL_CATALOG_NOT_SUPPORTED

SQLSTATE: 56038

現在のワークスペースのワークスペース内部カタログ ストレージ資格情報はまだサポートされていません

UC_SYSTEM_SCHEMA_NOT_AVAILABLE_FOR_ENABLEMENT (システムスキーマが有効化に利用できません)

SQLSTATE: 57P03

現在、システム スキーマ <systemSchema> は有効化できません。 後でもう一度やり直してください。

UC_SYSTEM_WORKSPACE_GROUP_PERMISSION_UNSUPPORTED

SQLSTATE: 22023

システムによって生成されたグループ <securableType><principal> に対する特権を付与できません。

UC_TABLE_IS_LOCKED_FOR_CATALOG_MANAGED_TABLE_MIGRATION

SQLSTATE: 55000

テーブル '<tableId>' は、カタログ管理テーブルの移行に対して一時的にロックされます。 このテーブルのトランザクションは、移行が完了するまでブロックされます。 すぐにトランザクションを再試行してください。

UC_TABLE_IS_NOT_CATALOG_OWNED

SQLSTATE: 0A000

テーブル '<tableId>' に対して commit/getCommits を実行する要求には、テーブルで Catalog 所有機能を有効にする必要があります。

UC_TAG_ASSIGNMENT_WITH_KEY_DOES_NOT_EXIST

SQLSTATE: 42704

タグ キー <tagKey> を持つタグの割り当てが存在しません

UC_TEMPORARY_CREDENTIAL_OPERATION_NOT_SUPPORTED

SQLSTATE: 0A000

一時的な資格情報操作はサポートされていません。

UC_UNDROP_RESOURCE_ID_ALREADY_EXISTS

SQLSTATE: 42710

ID '<resourceType>' の '<resourceType>' が既に存在するため、'<resourceId>' のドロップを解除できません。

UC_UNDROP_RESOURCE_NAME_ALREADY_EXISTS

SQLSTATE: 42710

名前 '<resourceType>' の '<resourceType>' が既に存在するため、'<resourceName>' のドロップを解除できません。

UC_UNDROP_RESOURCE_NOT_READY

SQLSTATE: 55000

ID '<resourceType>' の '<resourceType>' を復元する準備ができていないため、'<resourceId>' のドロップを解除できません。後で再試行してください。

UC_UNDROP_RESOURCE_PAST_CUSTOM_RETENTION_PERIOD

SQLSTATE: 55019

ID '<resourceType>' の '<resourceType>' がカスタム復元期間を超えるため、'<resourceId>' をドロップ解除できません。

UC_UNDROP_RESOURCE_PAST_RECOVERABLE_WINDOW

SQLSTATE: 55019

ID '<resourceType>' の '<resourceType>' が、サポートされている復元期間 '<resourceId>' 日を超えているため、'<maxRestorationPeriodDay>' をアンドロップできません。

UC_UNIQUE_CONSTRAINT_CHILD_COLUMNS_ALREADY_EXIST(ユニーク制約の子カラムが既に存在します)

SQLSTATE: 42891

UNIQUE制約<newConstraintName>を作成できませんでした:テーブル <tableName>には、同じ子列のセットを持つUNIQUEという<existingConstraintName>制約が既に存在します。

UC_UNIQUE_CONSTRAINT_NOT_SUPPORTED (UC_ユニーク制約がサポートされていません)

SQLSTATE: 56038

UNIQUE制約 <constraintName>で操作できませんでした: UNIQUE制約が有効になっていません。

UC_UNSUPPORTED_HTTP_CONNECTION_BASE_PATH

SQLSTATE: 22KD1

無効なベース パスが指定されています。ベース パスは /api/resources/v1 のようになります。 サポートされていないパス: <path>

UC_UNSUPPORTED_HTTP_CONNECTION_HOST

SQLSTATE: 22KD1

無効なホスト名が指定されました。ホスト名は、パス サフィックスのない https://www.databricks.com のようになります。 サポートされていないホスト: <host>

UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH

SQLSTATE: 22KD1

外部の場所/ボリューム/テーブル パスでは、基本ラテン文字/ラテン-1 の ASCII 文字のみがサポートされます。 サポートされていないパス: <path>

UC_UPDATE_FORBIDDEN_FOR_PROVISIONING_SECURABLE

SQLSTATE: 55019

'<securableType>' <securableName>がプロビジョニングされているため、更新できません。

UC_USING_REF_OF_MASKED_COLUMNS

SQLSTATE: 42KDJ

'<resource>' の ABAC ポリシーの評価中にエラーが発生しました。 失敗しました。列 '<usingCol>' は ABAC ポリシー '<existingMaskingPolicy>' によってマスクされており、ポリシー '<policyName>' では使用できません。

UC_WRITE_CONFLICT

SQLSTATE: 40001

<type> <name> が別の要求によって変更されました。 操作を再試行してください。

UNDROP_TABLE_NOT_FOUND

SQLSTATE: 42704

名前を持つテーブル <tableFullName> ドロップ解除の資格がないため、テーブルのドロップを解除できません。 このテーブルは、既にドロップされていないか、最大復元期間を超えて削除されているか、存在していなかった可能性があります。

UNITY_CATALOG_EXTERNAL_COORDINATED_COMMITS_REQUEST_DENIED

SQLSTATE: 42517

Databricks Unity カタログ対応コンピューティング環境の外部からテーブル '<tableId>' のコミット/getCommits を実行する要求は、セキュリティのために拒否されます。 Unity カタログとの統合については、Databricks サポートにお問い合わせください。

UNITY_CATALOG_EXTERNAL_CREATE_STAGING_TABLE_REQUEST_DENIED

SQLSTATE: 42517

Databricks Unity カタログ対応コンピューティング環境の外部からステージング テーブル '<tableFullName>' を作成する要求は、セキュリティのために拒否されます。 Unity カタログとの統合については、Databricks サポートにお問い合わせください。

UNITY_CATALOG_EXTERNAL_CREATE_TABLE_FAILED_VALIDATION_COLUMN_MASKS_DEFINED

SQLSTATE: 42517

Databricks Unity カタログ対応コンピューティング環境の外部からテーブル '<tableFullName>' を作成する要求が拒否されました。 外部でテーブルを作成する場合、列マスクはサポートされません。

UNITY_CATALOG_EXTERNAL_CREATE_TABLE_FAILED_VALIDATION_DATA_SOURCE_FORMAT_NOT_DELTA

SQLSTATE: 42517

Databricks Unity カタログ対応コンピューティング環境の外部からテーブル '<tableFullName>' を作成する要求が拒否されました。 テーブルを外部で作成するには、データ ソース形式を DELTA する必要があります。代わりに '<dataSourceFormat>' です。

UNITY_CATALOG 外部テーブル作成の検証失敗 - テーブルタイプが外部ではありません

SQLSTATE: 42517

Databricks Unity カタログ対応コンピューティング環境の外部からテーブル '<tableFullName>' を作成する要求が拒否されました。 テーブルを外部で作成するには、テーブル型を EXTERNAL する必要があります。代わりに '<tableType>' です。

UNITY_CATALOG_EXTERNAL_CREATE_TABLE_INFOに無効なフィールドが含まれています

SQLSTATE: 22023

外部テーブルの作成では、[名前、catalog_name、schema_name、table_type、data_source_format、列、storage_location、およびプロパティ] フィールドのみを使用できます。

UNITY_CATALOG_EXTERNAL_CREATE_TABLE_REQUEST_FOR_NON_EXTERNAL_TABLE_DENIED

SQLSTATE: 42517

Databricks Unity カタログ対応コンピューティング環境の外部から外部以外のテーブル '<tableFullName>' を作成する要求は、セキュリティのために拒否されます。 Unity カタログとの統合については、Databricks サポートにお問い合わせください。

UNITY_CATALOG_EXTERNAL_DELETE_TABLE_REQUEST_FOR_NON_EXTERNAL_TABLE_DENIED

SQLSTATE: 42517

Databricks Unity カタログ対応コンピューティング環境の外部から外部以外のテーブル '<tableFullName>' を削除する要求はサポートされていません。

UNITY_CATALOG_EXTERNAL_GENERATE_PATH_CREDENTIALS_DENIED

SQLSTATE: 42517

Databricks Unity カタログ対応コンピューティング環境の外部からパス '<path>' のアクセス資格情報を生成する要求は、セキュリティのために拒否されます。 Unity カタログとの統合については、Databricks サポートにお問い合わせください。

UNITY_CATALOG_EXTERNAL_GENERATE_TABLE_CREDENTIALS_DENIED

SQLSTATE: 42517

Databricks Unity カタログ対応コンピューティング環境の外部からテーブル '<tableId>' のアクセス資格情報を生成する要求は、セキュリティのために拒否されます。 Unity カタログとの統合については、Databricks サポートにお問い合わせください。

UNITY_CATALOG_EXTERNAL_GENERATE_TEMP_PATH_CRED_FAILED_VALIDATION_CREDENTIAL_ID_DEFINED

SQLSTATE: 42517

Databricks Unity カタログが有効なコンピューティング環境の外部から一時的なパス資格情報を生成する要求が拒否されました。 一時パスの資格情報を外部で生成する場合は、資格情報 ID を定義しないでください。

UNITY_CATALOG_EXTERNAL_GENERATE_TEMP_PATH_CRED_FAILED_VALIDATION_MAKE_PATH_ONLY_PARENT_DEFINED

SQLSTATE: 42517

Databricks Unity カタログが有効なコンピューティング環境の外部から一時的なパス資格情報を生成する要求が拒否されました。 一時パス資格情報を外部で生成するときに、make_path_only_parentを定義しないでください。

UNITY_CATALOG_EXTERNAL_GENERATE_VOLUME_CREDENTIALS_DENIED

SQLSTATE: 42517

Databricks Unity カタログ対応コンピューティング環境の外部からボリューム '<volumeId>' のアクセス資格情報を生成する要求は、セキュリティのために拒否されます。 Unity カタログとの統合については、Databricks サポートにお問い合わせください。

UNITY_CATALOG_EXTERNAL_GENERATE_VOLUME_CREDENTIALS_FOR_SECURABLE_KIND_NOT_SUPPORTED

SQLSTATE: 0AKUC

Databricks Unity カタログ対応コンピューティング環境の外部から "<volumeSecurableKind>" のアクセス資格情報を生成する要求は、セキュリティのために拒否されます。 Unity カタログとの統合については、Databricks サポートにお問い合わせください。

UNITY_CATALOG_EXTERNAL_GET_FOREIGN_CREDENTIALS_DENIED

SQLSTATE: 42517

Databricks Unity Catalog 対応コンピューティング環境の外部からセキュリティ保護可能なリソースの外部資格情報を取得する要求は、セキュリティのために拒否されます。

UNITY_CATALOG_EXTERNAL_UPDATA_METADATA_SNAPSHOT_DENIED

SQLSTATE: 42517

Databricks Unity カタログ対応コンピューティング環境の外部からメタデータ スナップショットを更新する要求は、セキュリティのために拒否されます。

UNSUPPORTED_LOCATION_SCHEME (未対応のロケーションスキーム)

SQLSTATE: 22KD1

<fieldName> には無効な URI スキーム <scheme>があります。 有効な URI スキームには、 <validSchemes>が含まれます。 無効なパス: <path>

UPDATE_SYSTEM_TABLE

SQLSTATE: 42501

システム所有テーブルは変更できません。 テーブル '<tableName>' はシステム所有のテーブルです。

WRITE_CREDENTIALS_NOT_SUPPORTED_FOR_LEGACY_MANAGED_ONLINE_TABLE

SQLSTATE: 0AKUC

オンライン カタログ内のマネージド オンライン テーブルの書き込み資格情報を取得する要求が無効です。

Files API

FILES_API_API_IS_NOT_ENABLED

SQLSTATE: 割り当てなし

<api_name> API が有効になっていない

FILES_API_API_IS_NOT_ENABLED_FOR_CLOUD_PATHS

SQLSTATE: 割り当てなし

Files API の要求されたメソッドは、クラウド パスではサポートされていません

FILES_API_AWS_ACCESS_DENIED

SQLSTATE: 割り当てなし

ストレージ バケットへのアクセスは AWS によって拒否されます。

FILES_API_AWS_ALL_ACCESS_DISABLED

SQLSTATE: 割り当てなし

AWS では、ストレージ バケットへのすべてのアクセスが無効になっています。

FILES_API_AWS_BUCKET_DOES_NOT_EXIST

SQLSTATE: 割り当てなし

ストレージ バケットは AWS に存在しません。

FILES_API_AWS_FORBIDDEN

SQLSTATE: 割り当てなし

ストレージ バケットへのアクセスは AWS によって禁止されています。

FILES_API_AWS_INVALID_AUTHORIZATION_HEADER

SQLSTATE: 割り当てなし

ワークスペースが正しく構成されていません。AWS ワークスペースのルート ストレージ バケットと同じリージョンにある必要があります。

FILES_API_AWS_INVALID_BUCKET_NAME

SQLSTATE: 割り当てなし

ストレージ バケット名が無効です。

FILES_API_AWS_KMS_KEY_DISABLED

SQLSTATE: 割り当てなし

ストレージ バケットにアクセスするために構成された KMS キーは、AWS で無効になります。

FILES_API_AWS_UNAUTHORIZED

SQLSTATE: 割り当てなし

AWS リソースへのアクセスが承認されていません。

FILES_API_AZURE_ACCOUNT_IS_DISABLED

SQLSTATE: 割り当てなし

ストレージ アカウントは Azure で無効になっています。

FILES_API_AZURE_AUTHORIZATION_PERMISSION_MISMATCH

SQLSTATE: 割り当てなし

オーソリゼーションと権限の不一致。

FILES_API_AZURE_CMK_NOT_FOUND

SQLSTATE: 割り当てなし

マネージド暗号化キーが見つかりません。

FILES_API_AZURE_CMK_SOFT_DELETED

SQLSTATE: 割り当てなし

マネージド暗号化キーが論理的に削除されました。

FILES_API_AZURE_CONTAINER_DOES_NOT_EXIST

SQLSTATE: 割り当てなし

Azure コンテナーが存在しません。

FILES_API_AZURE_CREDENTIAL_NOT_FOUND

SQLSTATE: 割り当てなし

Azure 資格情報が見つかりません。 Azure 資格情報が見つからないか、アクセスできない可能性があります。

FILES_API_AZURE_FORBIDDEN

SQLSTATE: 割り当てなし

ストレージ コンテナーへのアクセスは、Azure によって禁止されています。

FILES_API_AZURE_HAS_A_LEASE

SQLSTATE: 割り当てなし

Azure は、現在リソースにリースがあることを返しました。 後でもう一度やり直してください。

FILES_API_AZURE_INSUFFICIENT_ACCOUNT_PERMISSION

SQLSTATE: 割り当てなし

アクセスされるアカウントには、この操作を実行するための十分なアクセス許可がありません。

FILES_API_AZURE_INVALID_STORAGE_ACCOUNT_CONFIGURATION

SQLSTATE: 割り当てなし

アクセスするアカウントの構成はサポートされていません。

FILES_API_AZURE_INVALID_STORAGE_ACCOUNT_NAME

SQLSTATE: 割り当てなし

Azure のストレージ アカウントにアクセスできません: ストレージ アカウント名が無効です。

FILES_API_AZURE_KEY_BASED_AUTHENTICATION_NOT_PERMITTED

SQLSTATE: 割り当てなし

Key Vault コンテナーが Azure に見つかりません。 カスタマー マネージド キーの設定を確認します。

FILES_API_AZURE_KEY_VAULT_KEY_NOT_FOUND

SQLSTATE: 割り当てなし

Azure Key Vault キーが Azure に見つかりません。 カスタマー マネージド キーの設定を確認します。

FILES_API_AZURE_KEY_VAULT_VAULT_NOT_FOUND

SQLSTATE: 割り当てなし

Key Vault コンテナーが Azure に見つかりません。 カスタマー マネージド キーの設定を確認します。

FILES_API_AZURE_MI_ACCESS_CONNECTOR_NOT_FOUND

SQLSTATE: 割り当てなし

Access Connector を使用した Azure マネージド ID 資格情報が見つかりません。 これは、IP アクセス制御によって要求が拒否された可能性があります。

FILES_API_AZURE_OPERATION_TIMEOUT

SQLSTATE: 割り当てなし

許可された時間内に操作を完了できませんでした。

FILES_API_AZURE_PATH_INVALID

SQLSTATE: 割り当てなし

要求されたパスが Azure に対して有効ではありません。

FILES_API_AZURE_PATH_IS_IMMUTABLE

SQLSTATE: 割り当てなし

要求されたパスは変更できません。

FILES_API_AZURE_UNSUPPORTED_HEADER

SQLSTATE: 割り当てなし

操作で指定されたヘッダーの 1 つがサポートされていません。

FILES_API_CANNOT_PARSE_URL_PARAMETER

SQLSTATE: 割り当てなし

URL パラメーターを解析できません。

FILES_API_CATALOG_NOT_FOUND

SQLSTATE: 割り当てなし

<unity_catalog_error_message>

FILES_API_CLOUD_RESOURCE_EXHAUSTED

SQLSTATE: 割り当てなし

<message>

FILES_API_CLOUD_STORAGE_PROVIDER_CONNECTION_ISSUE

SQLSTATE: 割り当てなし

<cloud_storage_provider>への接続に問題があります。 後でもう一度やり直してください。

FILES_API_COLON_IS_NOT_SUPPORTED_IN_PATH

SQLSTATE: 割り当てなし

':' 文字はパスではサポートされていません

FILES_API_CONSUMER_NETWORK_ZONE_NOT_ALLOWED

SQLSTATE: 割り当てなし

コンシューマー ネットワーク ゾーン "<consumer_network_zone>" は、要求元ネットワーク ゾーン "<requester_network_zone>" から許可されていません。

FILES_API_CONTROL_PLANE_NETWORK_ZONE_NOT_ALLOWED

SQLSTATE: 割り当てなし

Databricks のコントロールプレーンのネットワーク ゾーンは使用できません。

FILES_API_資格情報_が見つかりません

SQLSTATE: 割り当てなし

資格情報が見つかりませんでした。

FILES_API_DIRECTORIES_CANNOT_HAVE_BODIES

SQLSTATE: 割り当てなし

本文が指定されましたが、ディレクトリにファイル本文を含めることはできません

FILES_API_DIRECTORY_IS_NOT_EMPTY

SQLSTATE: 割り当てなし

ディレクトリが空ではありません。 この操作は、空でないディレクトリではサポートされていません。

FILES_API_DIRECTORY_IS_NOT_FOUND

SQLSTATE: 割り当てなし

アクセスするディレクトリが見つかりません。

ファイル API ディレクトリ ZIP ダウンロード ファイル 制限 超過

SQLSTATE: 割り当てなし

ディレクトリに ZIP ダウンロード用のファイルが多すぎます。 許可される最大 <max_file_count> ファイル数。

FILES_API_DMK_ENCRYPTION_ROOT_KEY_DISABLED

SQLSTATE: 割り当てなし

カスタマー マネージド暗号化のルート キーが無効になっています。

FILES_API_DUPLICATED_HEADER

SQLSTATE: 割り当てなし

要求には、1 回だけ許可されるヘッダーの複数のコピーが含まれていました。

FILES_API_DUPLICATE_QUERY_PARAMETER

SQLSTATE: 割り当てなし

クエリ パラメーター '<parameter_name>' は 1 回だけ存在する必要がありますが、複数回指定されました。

FILES_API_EMPTY_BUCKET_NAME

SQLSTATE: 割り当てなし

DBFS バケット名が空です。

FILES_API_ENCRYPTION_KEY_PERMISSION_DENIED

SQLSTATE: 割り当てなし

ユーザーは暗号化キーにアクセスできません。

FILES_API_ENCRYPTION_KEY_RETRIEVAL_OPERATION_TIMEOUT

SQLSTATE: 割り当てなし

暗号化キーを取得する操作は、許可された時間内に完了できませんでした。

FILES_API_ENTITY_TOO_LARGE

SQLSTATE: 割り当てなし

オブジェクトが許容される最大オブジェクト サイズを超えています。

FILES_API_ERROR_EXPIRED_TTL

SQLSTATE: 割り当てなし

TTL の有効期限が切れています。

FILES_API_ERROR_INVALID_TTL

SQLSTATE: 割り当てなし

TTL が無効です。

FILES_API_ERROR_KEY_FOR_WORKSPACE_IS_NOT_FOUND

SQLSTATE: 割り当てなし

ワークスペースのキーが見つかりません。

FILES_API_ERROR_MISSING_REQUIRED_PARAM

SQLSTATE: 割り当てなし

URL に必要なパラメーターがありません。

FILES_API_ERROR_TTL_IN_THE_FUTURE

SQLSTATE: 割り当てなし

TTL は将来に設定されます。

FILES_API_ERROR_URL_INVALID_ISSUER_SHARD_NAME

SQLSTATE: 割り当てなし

発行者のシャード名が無効です。

FILES_API_EXPIRATION_TIME_MUST_BE_PRESENT

SQLSTATE: 割り当てなし

有効期限が存在する必要があります

FILES_API_EXPIRED_TOKEN

SQLSTATE: 割り当てなし

指定されたトークンの有効期限が切れています。

FILES_API_EXPIRE_TIME_MUST_BE_IN_THE_FUTURE

SQLSTATE: 割り当てなし

ExpireTime は未来の時刻に設定されている必要があります

FILES_API_EXPIRE_TIME_TOO_FAR_IN_FUTURE

SQLSTATE: 割り当てなし

要求された TTL がサポートより長い (1 時間)

FILES_API_EXTERNAL_LOCATION_PATH_OVERLAP_OTHER_UC_STORAGE_ENTITY

SQLSTATE: 割り当てなし

<unity_catalog_error_message>

FILES_API_FILE_ALREADY_EXISTS

SQLSTATE: 割り当てなし

作成中のファイルは既に存在します。

FILES_API_FILE_NOT_FOUND

SQLSTATE: 割り当てなし

アクセス中のファイルが見つかりません。

FILES_API_FILE_OR_DIRECTORY_ENDS_IN_DOT

SQLSTATE: 割り当てなし

'.' 文字で終わるファイルまたはディレクトリはサポートされていません。

FILES_API_FILE_SIZE_EXCEEDED

SQLSTATE: 割り当てなし

ファイル サイズは <max_download_size_in_bytes> バイトを超えないようにする必要がありますが、 <size_in_bytes> バイトが見つかりました。

FILES_API_GCP_ACCOUNT_IS_DISABLED

SQLSTATE: 割り当てなし

ストレージ バケットへのアクセスが GCP で無効になりました。

FILES_API_GCP_BUCKET_DOES_NOT_EXIST

SQLSTATE: 割り当てなし

ストレージ バケットは GCP に存在しません。

FILES_API_GCP_FORBIDDEN

SQLSTATE: 割り当てなし

バケットへのアクセスは GCP によって禁止されています。

FILES_API_GCP_IAM_AUTHENTICATION_FAILURE

SQLSTATE: 割り当てなし

GCP IAM 操作の認証に失敗しました。

FILES_API_GCP_IAM_CREDENTIALS_NOT_FOUND

SQLSTATE: 割り当てなし

指定された GCP 資格情報が存在しないか、アクセスできません。

FILES_API_GCP_IAM_PERMISSION_DENIED

SQLSTATE: 割り当てなし

GCP IAM 操作のアクセス許可が拒否されました。

FILES_API_GCP_KEY_DELETED

SQLSTATE: 割り当てなし

暗号化キーが削除されたか、アクセスできなくなりました。

FILES_API_GCP_KEY_DISABLED_OR_DESTROYED

SQLSTATE: 割り当てなし

その場所に対して構成されたカスタマー マネージド暗号化キーは、無効または破棄されます。

FILES_API_GCP_REQUEST_IS_PROHIBITED_BY_POLICY

SQLSTATE: 割り当てなし

バケットに対する GCP 要求はポリシーによって禁止されています。VPC サービスコントロールを確認してください。

FILES_API_GCP_USER_PROJECT_ACCOUNT_PROBLEM

SQLSTATE: 割り当てなし

要求で使用される GCP プロジェクトに問題があり、操作が正常に完了できません。

FILES_API_HOST_TEMPORARILY_NOT_AVAILABLE

SQLSTATE: 割り当てなし

クラウド プロバイダー ホストは一時的に使用できません。後でもう一度お試しください。

FILES_API_INVALID_CONTENT_LENGTH (無効なコンテンツ長)

SQLSTATE: 割り当てなし

content-length ヘッダーの値は、0 以上の整数である必要があります。

FILES_API_INVALID_CONTINUATION_TOKEN

SQLSTATE: 割り当てなし

指定されたページ トークンが無効です。

FILES_API_INVALID_HEADER_VALUE

SQLSTATE: 割り当てなし

ヘッダー '<header_name>' の値が無効です。

FILES_API_INVALID_HOSTNAME

SQLSTATE: 割り当てなし

ホスト名が無効です。

FILES_API_INVALID_HTTP_METHOD

SQLSTATE: 割り当てなし

http メソッドが無効です。 '<expected>' が予期されましたが、'<actual>' になっています。

FILES_API_INVALID_METASTORE_ID_HEADER

SQLSTATE: 割り当てなし

メタストア ID ヘッダーが無効です。

FILES_API_INVALID_PAGE_TOKEN

SQLSTATE: 割り当てなし

無効なページ トークン

FILES_API_INVALID_PATH

SQLSTATE: 割り当てなし

無効なパス: <validation_error>

FILES_API_INVALID_RANGE

SQLSTATE: 割り当てなし

範囲ヘッダーが無効です。

FILES_API_INVALID_RESOURCE_FULL_NAME

SQLSTATE: 割り当てなし

<unity_catalog_error_message>

FILES_API_INVALID_SESSION_TOKEN

SQLSTATE: 割り当てなし

セッション トークンが無効です

FILES_API_INVALID_SESSION_TOKEN_TYPE

SQLSTATE: 割り当てなし

セッション トークンの種類が無効です。 '<expected>' が予期されましたが、'<actual>' になっています。

FILES_API_INVALID_TIMESTAMP

SQLSTATE: 割り当てなし

タイムスタンプが無効です。

FILES_API_INVALID_UPLOAD_TYPE

SQLSTATE: 割り当てなし

アップロードの種類が無効です。 '<expected>' が予期されましたが、'<actual>' になっています。

FILES_API_INVALID_URL

SQLSTATE: 割り当てなし

無効な URL

FILES_API_INVALID_URL_PARAMETER

SQLSTATE: 割り当てなし

パラメーターとして渡された URL が無効です

FILES_API_INVALID_VALUE_FOR_OVERWRITE_QUERY_PARAMETER

SQLSTATE: 割り当てなし

クエリ パラメーター 'overwrite' は、true、false のいずれかである必要がありますが、次のようになります。 <got_values>

FILES_API_INVALID_VALUE_FOR_QUERY_PARAMETER

SQLSTATE: 割り当てなし

クエリ パラメーター '<parameter_name>' は次のいずれかである必要があります: <expected> しかし、実際には次のものでした: <actual>

FILES_API_MALFORMED_REQUEST_BODY

SQLSTATE: 割り当てなし

要求本文の形式が正しくありません

FILES_API_MANAGED_CATALOG_FEATURE_DISABLED

SQLSTATE: 割り当てなし

<unity_catalog_error_message>

FILES_API_METASTORE_NOT_FOUND

SQLSTATE: 割り当てなし

<unity_catalog_error_message>

FILES_API_METHOD_IS_NOT_ENABLED_FOR_JOBS_BACKGROUND_COMPUTE_ARTIFACT_STORAGE

SQLSTATE: 割り当てなし

Jobs Background Compute Artifact Storage では、Files API の要求されたメソッドはサポートされていません。

FILES_API_MISSING_CONTENT_LENGTH

SQLSTATE: 割り当てなし

要求には Content-Length ヘッダーが必要です。

FILES_API_MISSING_QUERY_PARAMETER

SQLSTATE: 割り当てなし

クエリ パラメーター '<parameter_name>' は必須ですが、要求にありません。

FILES_API_MISSING_REQUIRED_PARAMETER_IN_REQUEST

SQLSTATE: 割り当てなし

要求に必要なパラメーターがありません。

FILES_API_MLFLOW_PERMISSION_DENIED

SQLSTATE: 割り当てなし

<mlflow_error_message>

FILES_API_MLFLOW_RESOURCE_EXHAUSTED (リソースが枯渇しました)

SQLSTATE: 割り当てなし

mlflow サービスとの通信でリクエスト制限を超過しました。

FILES_API_MODEL_VERSION_IS_NOT_READY

SQLSTATE: 割り当てなし

モデルバージョンはまだ準備ができていません

FILES_API_MULTIPART_UPLOAD_ABORT_PRESIGNED_URL_NOT_SUPPORTED

SQLSTATE: 割り当てなし

マルチパート アップロードを中止するための事前署名付き URL は、 <cloud_storage_provider>に格納されているファイルではサポートされていません。

FILES_API_MULTIPART_UPLOAD_ABORT_UPLOAD_NOT_SUPPORTED

SQLSTATE: 割り当てなし

<cloud_storage_provider>に保存されているファイルでは、マルチパートアップロードの中止はサポートされていません。

FILES_API_MULTIPART_UPLOAD_EMPTY_PART_LIST

SQLSTATE: 割り当てなし

パーツの一覧には少なくとも 1 つの要素が必要ですが、空でした。

FILES_API_MULTIPART_UPLOAD_INVALID_PART

SQLSTATE: 割り当てなし

指定されたパーツの 1 つ以上が見つかりませんでした。 パーツがアップロードされていないか、指定されたエンティティ タグがパーツのエンティティ タグと一致しない可能性があります。

FILES_API_MULTIPART_UPLOAD_INVALID_PART_NUMBER

SQLSTATE: 割り当てなし

部品番号は、 <min> 以上で、 <max>以下である必要があります。

FILES_API_MULTIPART_UPLOAD_MISSING_ETAG

SQLSTATE: 割り当てなし

<cloud_storage_provider>に格納されているファイルに ETag を指定する必要があります。 少なくとも 1 つの ETag が指定されていないか、空でした。

FILES_API_MULTIPART_UPLOAD_MODIFIED_STORAGE_ENTITY_STATE

SQLSTATE: 割り当てなし

たとえば、ファイル パスが同じ基になるクラウド ストレージの場所を指していないため、アップロードが開始されてからストレージ エンティティの内部状態が変更されています。 新しいアップロード セッションを開始して続行します。

FILES_API_MULTIPART_UPLOAD_NON_TRAILING_PARTS_WITH_DIFFERENT_SIZES

SQLSTATE: 割り当てなし

マルチパート アップロード セッションの一部としてアップロードされるパーツは、 <cloud_storage_provider>に格納されているファイルのサイズと同じにする必要があります。ただし、小さくできる最後の部分を除きます。

FILES_API_MULTIPART_UPLOAD_PART_SIZE_OUT_OF_RANGE

SQLSTATE: 割り当てなし

マルチパート アップロード セッションの一部としてアップロードされるパーツのサイズは、 <min> 以上で、 <max>以下である必要があります。

FILES_API_MULTIPART_UPLOAD_SESSION_NOT_FOUND

SQLSTATE: 割り当てなし

アップロード セッションが見つかりません。 中止または完了している可能性があります。

FILES_API_MULTIPART_UPLOAD_UNORDERED_PART_LIST

SQLSTATE: 割り当てなし

パーツのリストは、部品番号で並べ替える必要がありますが、順序付けされていませんでした。

FILES_API_NON_ZERO_CONTENT_LENGTH

SQLSTATE: 割り当てなし

この要求では、content-length ヘッダーは 0 である必要があります。

FILES_API_NOT_ENABLED_FOR_PLACE

SQLSTATE: 割り当てなし

<place> の Files API がこのワークスペース/アカウントに対して有効になっていません

FILES_API_NOT_SUPPORTED_FOR_INTERNAL_WORKSPACE_STORAGE

SQLSTATE: 割り当てなし

Files API の要求されたメソッドは、内部ワークスペース ストレージではサポートされていません

FILES_API_OPERATION_MUST_BE_PRESENT

SQLSTATE: 割り当てなし

操作が存在する必要があります

FILES_API_OPERATION_TIMEOUT

SQLSTATE: 割り当てなし

操作がタイムアウトしたとき。

FILES_API_PAGE_SIZE_MUST_BE_GREATER_OR_EQUAL_TO_ZERO

SQLSTATE: 割り当てなし

page_sizeは 0 以上である必要があります

ファイルAPIパスに基づくフィルター付きのテーブルへのアクセスは許可されていません

SQLSTATE: 割り当てなし

<unity_catalog_error_message>

FILES_API_PATH_END_WITH_A_SLASH

SQLSTATE: 割り当てなし

'/' 文字で終わるパスはディレクトリを表します。 この API は、ディレクトリに対する操作をサポートしていません。

FILES_API_PATH_IS_A_DIRECTORY

SQLSTATE: 割り当てなし

指定されたパスは、既存のディレクトリを指します。 この API は、ディレクトリに対する操作をサポートしていません。

FILES_API_PATH_IS_A_FILE

SQLSTATE: 割り当てなし

指定されたパスは、既存のファイルを指します。 この API は、ファイルに対する操作をサポートしていません。

FILES_API_PATH_IS_NOT_A_VALID_UTF8_ENCODED_URL

SQLSTATE: 割り当てなし

指定されたパスが有効な UTF-8 エンコード URL ではなかった

FILES_API_PATH_IS_NOT_ENABLED_FOR_DATAPLANE_PROXY

SQLSTATE: 割り当てなし

指定されたパスがデータ プレーン プロキシに対して有効になっていない

FILES_API_PATH_MUST_BE_PRESENT

SQLSTATE: 割り当てなし

パスが存在する必要があります

FILES_API_PATH_NOT_SUPPORTED

SQLSTATE: 割り当てなし

<rejection_message>

FILES_API_PATH_TOO_LONG

SQLSTATE: 割り当てなし

指定されたファイル パスが長すぎます。

FILES_API_PRECONDITION_FAILED

SQLSTATE: 割り当てなし

前提条件が原因で要求が失敗しました。

FILES_API_PRESIGNED_URLS_FOR_MODELS_NOT_SUPPORTED

SQLSTATE: 割り当てなし

現時点では、モデルの署名付き URL のファイル API はサポートされていません

FILES_API_R2_CREDENTIALS_DISABLED

SQLSTATE: 割り当てなし

現時点では、R2 はサポートされていません。

FILES_API_RANGE_NOT_SATISFIABLE

SQLSTATE: 割り当てなし

要求された範囲が満たされていません。

FILES_API_RECURSIVE_LIST_IS_NOT_SUPPORTED

SQLSTATE: 割り当てなし

ファイルの再帰的な一覧表示はサポートされていません。

FILES_API_REQUESTER_NETWORK_ZONE_UNKNOWN

SQLSTATE: 割り当てなし

リクエスター ネットワーク ゾーンを推論できません。

FILES_API_REQUEST_GOT_ROUTED_INCORRECTLY

SQLSTATE: 割り当てなし

要求が正しくルーティングされませんでした

FILES_API_REQUEST_MUST_INCLUDE_ACCOUNT_INFORMATION

SQLSTATE: 割り当てなし

要求にはアカウント情報を含める必要があります

FILES_API_REQUEST_MUST_INCLUDE_RECIPIENT_INFORMATION

SQLSTATE: 割り当てなし

要求には受信者情報を含める必要があります。

FILES_API_REQUEST_MUST_INCLUDE_USER_INFORMATION

SQLSTATE: 割り当てなし

要求にはユーザー情報を含める必要があります

FILES_API_REQUEST_MUST_INCLUDE_WORKSPACE_INFORMATION

SQLSTATE: 割り当てなし

要求にはワークスペース情報を含める必要があります

FILES_API_RESOURCE_IS_READONLY

SQLSTATE: 割り当てなし

リソースは読み取り専用です。

FILES_API_RESOURCE_NOT_FOUND

SQLSTATE: 割り当てなし

<unity_catalog_error_message>

FILES_API_SCHEMA_NOT_FOUND

SQLSTATE: 割り当てなし

<unity_catalog_error_message>

FILES_API_SECURE_URL_CANT_BE_ACCESSED

SQLSTATE: 割り当てなし

URL にアクセスできません。

FILES_API_SIGNATURE_VERIFICATION_FAILED

SQLSTATE: 割り当てなし

署名の検証に失敗しました。

FILES_API_STORAGE_ACCESS_CONTEXT_INVALID

SQLSTATE: 割り当てなし

ストレージ アクセス コンテキストが無効です。

FILES_API_STORAGE_CONTEXT_IS_NOT_SET

SQLSTATE: 割り当てなし

このワークスペースのストレージ構成にはアクセスできません。

FILES_API_STORAGE_CREDENTIAL_NOT_FOUND

SQLSTATE: 割り当てなし

<unity_catalog_error_message>

FILES_API_TABLE_TYPE_NOT_SUPPORTED

SQLSTATE: 割り当てなし

Files API は <table_type> に対して利用できません。

FILES_API_UC_AUTHENTICATION_FAILURE

SQLSTATE: 割り当てなし

<unity_catalog_error_message>

FILES_API_UC_IAM_ROLE_NON_SELF_ASSUMING

SQLSTATE: 割り当てなし

<unity_catalog_error_message>

FILES_API_UC_MODEL_INVALID_STATE

SQLSTATE: 割り当てなし

<unity_catalog_error_message>

FILES_API_UC_PERMISSION_DENIED

SQLSTATE: 割り当てなし

<unity_catalog_error_message>

FILES_API_UC_RESOURCE_EXHAUSTED

SQLSTATE: 割り当てなし

<message>

FILES_API_UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH

SQLSTATE: 割り当てなし

<unity_catalog_error_message>

FILES_API_UC_VOLUME_NAME_CHANGED

SQLSTATE: 割り当てなし

<unity_catalog_error_message>

FILES_API_AZURE_マネージドIDの更新ができない

SQLSTATE: 割り当てなし

Azure マネージド ID を更新できません。

FILES_API_UNEXPECTED_ERROR_WHILE_PARSING_URI

SQLSTATE: 割り当てなし

URI の解析時に予期しないエラーが発生する

FILES_API_UNEXPECTED_QUERY_PARAMETERS

SQLSTATE: 割り当てなし

予期しないクエリ パラメーター: <unexpected_query_parameters>

FILES_API_UNKNOWN_METHOD

SQLSTATE: 割り当てなし

不明なメソッド <method>

FILES_API_UNKNOWN_SERVER_ERROR

SQLSTATE: 割り当てなし

不明なサーバー エラー。

FILES_API_UNKNOWN_URL_HOST

SQLSTATE: 割り当てなし

URL ホストが不明です。

FILES_API_UNSUPPORTED_AUTHENTICATION_METHOD

SQLSTATE: 割り当てなし

要求が正しく認証されませんでした。

FILES_API_UNSUPPORTED_HTTP_METHOD

SQLSTATE: 割り当てなし

httpMethod はサポートされていません。

FILES_API_UNSUPPORTED_PARAMETERS_COMBINATION

SQLSTATE: 割り当てなし

パラメーターの組み合わせはサポートされていません。

FILES_API_UNSUPPORTED_PATH

SQLSTATE: 割り当てなし

指定されたパスは、Files API ではサポートされていません。 指定されたパスに '../' または './' のシーケンスが含まれていないことを確認します。 指定されたパスで複数の連続するスラッシュ (例: '///') が使用されていないことを確認します。

FILES_API_UPLOAD_PART_URLS_COUNT_MUST_BE_GREATER_THAN_ZERO

SQLSTATE: 割り当てなし

入力パラメーター 'count' は 0 より大きくする必要があります。

FILES_API_URL_GENERATION_DISABLED

SQLSTATE: 割り当てなし

事前割り当て URL 生成は、<cloud>に対して有効になっていません。

FILES_API_VOLUME_TYPE_NOT_SUPPORTED

SQLSTATE: 割り当てなし

files API は、 <volume_type>ではサポートされていません。

FILES_API_WORKSPACE_IS_CANCELED

SQLSTATE: 割り当てなし

ワークスペースが取り消されました。

FILES_API_WORKSPACE_IS_NOT_FOUND

SQLSTATE: 割り当てなし

このワークスペースのストレージ構成にはアクセスできません。

Lakeflow Spark 宣言型パイプライン

ABAC(属性ベースアクセス制御)のポリシーはサポートされていません。

SQLSTATE: 0A000

ABAC ポリシーは、パイプライン内で定義されているテーブルではサポートされていません。

ポリシーを削除するか、Databricks サポートにお問い合わせください。

ABNORMAL_DRIVER_TERMINATION

SQLSTATE: 57P02

クラスター上のドライバー<clusterId><terminationCause>が原因で異常終了しました。 詳細については、ドライバー ログを確認してください。

ACTIVE_UPDATE_EXISTS_FOR_LINKED_PIPELINE

SQLSTATE: 42000

リンクされたパイプライン '<updateId>' のアクティブな更新 '<linkedPipelineId>' が既に存在します。

ACTIVE_UPDATE_EXISTS_FOR_PIPELINE

SQLSTATE: 42000

パイプライン '<updateId>' のアクティブな更新 '<pipelineId>' が既に存在します。

ALTER_NOT_ALLOWED_FOR_PIPELINE_TABLE

SQLSTATE: 0A000

ALTER が管理するテーブルでは使用できません。

詳細については、ALTER_NOT_ALLOWED_FOR_PIPELINE_TABLE を参照してください

ALTER_SCHEDULE_SCHEDULE_DOES_NOT_EXIST

SQLSTATE: 42704

既存のスケジュールまたはトリガーがないテーブルの <type> を変更することはできません。 変更を試みる前に、スケジュールまたはトリガーをテーブルに追加してください。

API_QUOTA_EXCEEDED

SQLSTATE: KD000

データ ソース <sourceName>の API クォータを超えました。

詳細については、API_QUOTA_EXCEEDED を参照してください

APPLY_CHANGES_ERROR

SQLSTATE: 42000

AUTO CDC操作中にエラーが発生しました。

詳細については、APPLY_CHANGES_ERRORを参照してください。

APPLY_CHANGES_FROM_SNAPSHOT_ERROR

SQLSTATE: 22000

AUTO CDC FROM SNAPSHOT操作中にエラーが発生しました。

詳細については、APPLY_CHANGES_FROM_SNAPSHOT_ERROR を参照してください

APPLY_CHANGES_FROM_SNAPSHOT_EXPECTATIONS_NOT_SUPPORTED

SQLSTATE: 0A000

データセット <datasetName> には期待値が定義されていますが、現在、 AUTO CDC FROM SNAPSHOTを使用するデータセットに対する期待はサポートされていません。

このエラーを解決するための期待値を削除します。 別の方法として、次の構造を使用して、 AUTO CDCAUTO CDC FROM SNAPSHOTを組み合わせて期待値を適用することを検討してください。

  1. SCD タイプ 1 を使用したスナップショットからの変更を、期待せずに中間テーブルに適用します。

  2. spark.readStream.option("readChangeFeed", "true").tableを使用して中間テーブルから変更を読み取ります。

  3. dlt.apply_changesで現在使用されているパラメーターに加えて、次のパラメーターを持つdlt.apply_changes_from_snapshotを使用して、中間テーブルから最終的なターゲット テーブルに変更を適用します。

  • 変更を処理するには: apply_as_deletes = "_change_type == 'delete'"

  • CDF によって追加された列を削除するには: except_column_list = ["_change_type", "_commit_version", "_commit_timestamp"]

  1. dlt.apply_changesに使用される最終的なターゲット テーブルに現在の期待値のセットを含めます。

APPLY_CHANGES_PARTIAL_UPDATES_NOT_ENABLED

SQLSTATE: 0A000

機能 COLUMNS TO UPDATE はプレビュー段階であり、ワークスペースでは有効になっていません。 この機能の詳細については、Databricks の担当者にお問い合わせください。プライベート プレビューにアクセスしてください。

APPLY_ENVIRONMENT_CLUSTER_NOT_AVAILABLE

SQLSTATE: 57000

<pipelineId>のパイプライン コンピューティングは使用できません。 パイプライン コンピューティングが停止しているか、まだ起動している可能性があります。

コンピューティングが完全に利用可能になったら、後でもう一度お試しください。 問題が解決しない場合は、Databricks サポートにお問い合わせください。

環境クラスターが見つかりませんでした

SQLSTATE: 57000

<pipelineId>のパイプライン コンピューティングが見つかりません。 このパイプライン コンピューティングは、まだ開始されていないか、既に停止している可能性があります。 パイプラインを開始してください

環境を適用する前に

環境適用はサポートされていません

SQLSTATE: 0A000

ApplyEnvironment エンドポイントはサポートされていません。

ARCHITECTURE_MIGRATION_FAILURE

SQLSTATE: 55000

詳細については、ARCHITECTURE_MIGRATION_FAILURE を参照してください

ARCLIGHT_REQUIRES_SERVERLESS

SQLSTATE: 42000

既定のストレージを使用するカタログを対象とするパイプラインでは、サーバーレス コンピューティングを使用する必要があります。 サーバーレス コンピューティングにアクセスできない場合は、Databricks に問い合わせてワークスペースに対してこの機能を有効にしてください。

AUTO_FULL_REFRESH_DISABLED

SQLSTATE: 42000

テーブル <tableName>の自動更新は無効になっています。

AUTO_FULL_REFRESH_NOT_ALLOWED

SQLSTATE: 42000

<reason>のため、テーブル <tableName>の自動更新に失敗しました。

AUTO_FULL_REFRESH_THROTTLED

SQLSTATE: 42000

自動更新に失敗しました。 次の自動更新の前に、<timestamp>および最小間隔で完全に自動更新されたテーブル <tableName>は、<minInterval> 分です。

AZURE_ACTIVE_DIRECTORY_AUTHENTICATION_FAILED

SQLSTATE: 28000

Azure Active Directory 認証に失敗しました (AADSTS5000224)。

トレース ID: <traceId>、関連付け ID: <correlationId>

Azure Active Directory が正しく構成され、アクセス可能であることを確認します。 問題が解決しない場合は、Microsoft サポートにお問い合わせください。

AZURE_MANAGED_IDENTITY_CREDENTIAL_NOT_FOUND

SQLSTATE: 28000

アカウント <accountId>に対して、Access Connector ID <accessConnectorId>を持つ Azure マネージド ID 資格情報が見つかりませんでした。

資格情報が存在し、正しく構成されていることを確認します。

AZURE_STORAGE_HOSTNAME_RESOLUTION_FAILED

SQLSTATE: 08001

Azure Storage ホスト名の解決に失敗しました: <hostname>

DNS が正しく構成されており、ストレージ アカウントにネットワークからアクセス可能であることを確認します。

AZURE_STORAGE_REQUEST_NOT_AUTHORIZED

SQLSTATE: 42501

Azure Storage への要求は、ネットワーク セキュリティ境界によって承認されませんでした。

ストレージが正しく構成され、アクセス可能であることを確認します。

BIGQUERYデータコネクタソースカタログが見つかりません

SQLSTATE: KD000

BigQuery データ コネクタでエラーが発生しました。

インジェスト仕様に "ソース カタログ" (GCP プロジェクト ID) がありません。

この問題を解決するには、インジェスト仕様でソース カタログ (プロジェクト ID) を指定してください。

CANNOT_ADD_COLUMN_TO_INCLUDE_COLUMNS

SQLSTATE: 42000

テーブル <columnNames>のパイプライン定義のinclude_columns フィールドに新しい列 (<qualifiedTableName>) が追加されます。 潜在的なデータ損失を避けるためにテーブルを完全に更新するか、include_columnsからこれらの列を削除してください。

CANNOT_ADD_STORAGE_LOCATION

SQLSTATE: 42000

ストレージの場所を設定して新しいパイプラインを作成する場合は、カタログが定義された既存のパイプラインにストレージの場所を追加できません。

既存のカタログ: '<catalog>'。

要求されたストレージの場所: <storageLocation>

CANNOT_COMPOSE_DECORATOR

SQLSTATE: 割り当てなし

@<decoratorName>デコレーターは、<otherDecorators>で構成できません。

CANNOT_EXCLUDE_NON_EXISTENT_COLUMN

SQLSTATE: 42703

パイプライン定義は、ソース <columnNames>のテーブル <qualifiedTableName> に存在しない列 (<sourceType>) を除外します。 exclude_columns フィールドからこれらの列を削除してください。

CANNOT_FILTER_OUT_REQUIRED_COLUMN

SQLSTATE: 42000

パイプライン定義には、インジェストに必要な列 (<columnNames>) がソース <qualifiedTableName><sourceType> テーブルに含まれていません。 include_columnsに追加するか、exclude_columnsから削除してください。

CANNOT_INCLUDE_NON_EXISTENT_COLUMN

SQLSTATE: 42703

パイプライン定義には、ソース <sourceType>のテーブル <qualifiedTableName>に存在しない列またはアクセスできない列 (<columnNames>) が含まれます。 include_columns フィールドからこれらの列を削除してください。

CANNOT_INGEST_TABLE_WITHOUT_PRIMARY_KEY

SQLSTATE: 42000

<qualifiedTableName> ソース内のテーブル<sourceType>には主キーがありません。

テーブルが存在する場合は、テーブルを取り込むための主キーをコネクタ構成で指定してください。

CANNOT_MODIFY_PIPELINE_OWNER_FOR_UC_PIPELINES

SQLSTATE: 42000

UC 以外のパイプラインの所有者の変更はまだサポートされていません。

CANNOT_MODIFY_PIPELINE_OWNER_PERMISSION_DENIED

SQLSTATE: 42000

パイプラインの所有者を変更できるのは、ワークスペース管理者だけです。

CANNOT_MODIFY_PIPELINE_OWNER_WHEN_MISSING

SQLSTATE: 42000

新しい所有者が存在しません。

CANNOT_MODIFY_PIPELINE_TYPE

SQLSTATE: 42000

pipeline_typeは更新できません。

現在のpipeline_type: <currentPipelineType>

pipeline_type の更新: <requestedPipelineType>

CANNOT_MODIFY_STORAGE_LOCATION

SQLSTATE: 42000

既存のパイプラインのストレージの場所を変更できません。

既存のストレージの場所: '<existingStorageLocation>'。

要求されたストレージの場所: <requestedStorageLocation>

CANNOT_REMOVE_COLUMN_FROM_EXCLUDE_COLUMNS

SQLSTATE: 42000

テーブル <columnNames>のパイプライン定義exclude_columnsフィールドから列 (<qualifiedTableName>) が削除されます。 データ損失の可能性を回避するには、テーブルを完全に更新するか、これらの列をexclude_columnsに追加し直してください。

CANNOT_SET_CATALOG_FOR_HMS_PIPELINE

SQLSTATE: 42613

UC を使用して新しいパイプラインを作成し、カタログを設定する場合は、ストレージの場所が定義された既存のパイプラインにカタログを追加できません。

既存のストレージの場所: '<storageLocation>'

要求されたカタログ: '<catalog>'

CANNOT_SET_LINKED_PIPELINE_ID

SQLSTATE: 42000

パイプライン ID は同じです。リンクされたパイプライン ID を設定するとデッドロックが発生します。

CANNOT_SET_SCHEMA_FOR_EXISTING_PIPELINE

SQLSTATE: 0AKD0

パイプライン '<pipelineName>' のパイプライン設定で指定された 'schema' フィールドが無効です。 Reason:

詳細については、CANNOT_SET_SCHEMA_FOR_EXISTING_PIPELINE を参照してください

一緒に設定できません

SQLSTATE: 割り当てなし

<argList> は相互に排他的であり、一緒に設定することはできません。

CANNOT_SPECIFY_BOTH_INCLUDE_EXCLUDE_COLUMNS

SQLSTATE: 42000

パイプライン定義では、<identifier>のinclude_columnsとexclude_columnsの両方を指定します。 そのうちの 1 つを削除してください。

CANNOT_UPDATE_CLUSTERING_COLUMNS

SQLSTATE: 42000

パーティション列を使用しているため、テーブル <tableName> のクラスタリング列を更新できません。 テーブルではパーティション列またはクラスタリング列を使用できますが、両方を使用することはできません。

液体クラスタリングとパーティション分割を切り替えるには、このテーブルの完全な更新をトリガーします。

CANNOT_UPDATE_PARTITION_COLUMNS

SQLSTATE: 42000

ストリーミング テーブル <tableName>のパーティション列を更新できません。

現在: <existingPartitionColumns>

要求: <requestedPartitionColumns>

このパーティション変更を適用するには、このテーブルと、更新されたパーティション列を持つ他のすべてのストリーミング テーブルの完全な更新をトリガーします。

または、この変更を元に戻して、既存のパーティション列を引き続き使用します。

CANNOT_UPDATE_TABLE_SCHEMA

SQLSTATE: 42KD9

テーブル <tableName>の現在のスキーマと新しいスキーマをマージできませんでした。

このスキーマの変更を続行するには、このテーブルの完全な更新をトリガーします。

ユース ケースとスキーマの変更によっては、スキーマの変更を無効にできる場合があります。出力スキーマが既存のスキーマと互換性を持つようクエリを更新できます (たとえば、列を正しいデータ型に明示的にキャストするなど)。

CANNOT_WRITE_TO_INACTIVE_COLUMNS

SQLSTATE: 55000

<details>

ただし、コピー先テーブルには、この名前の非アクティブな列が既に存在します。以前にソース テーブルから削除されているため、列は非アクティブです。

更新を続行するには、テーブルに対して FULL REFRESH を実行します。

CANNOT_WRITE_TO_INACTIVE_TABLES

SQLSTATE: 55000

変換先の次のテーブルは非アクティブであり、現在のソース テーブルと競合しています: <tables>

これらのテーブルは、以前にソースから削除されたか、コネクタから選択されていないため、非アクティブなままです。

更新を続行するには、移行先のテーブル名を変更するか、これらのテーブルに対して FULL REFRESH を実行するか、カタログ エクスプローラーまたは DROP TABLE コマンドを使用して、これらの非アクティブなテーブルを削除してから、更新を再試行してください。

CANNOT_WRITE_TO_TABLES_PENDING_RESET

SQLSTATE: 55000

移行先の次の表は、前回の完全更新では正しくリセットされません:<tables>

復旧させるには、それらを完全に最新の情報に更新してください。

CATALOG_MAPPING_NOT_AVAILABLE_IN_UC

SQLSTATE: 3D000

UC カタログには、カタログ '<sourceCatalog>' のマッピングがありません。

カタログが UC カタログに登録されているかどうかを確認してください。

CATALOG_SCHEMA_MISMATCH_WITH_DESTINATION_PIPELINE

SQLSTATE: 55000

ID '<destPipelineCatalog>' の宛先パイプラインのカタログ <destPipelineSchema>とスキーマ <destPipelineId>が、テーブル <tableName>のカタログとスキーマと一致しません。 ターゲット パイプラインには、テーブルと同じカタログとスキーマが必要です。または、ターゲット パイプラインで直接発行モードを使用している必要があります。

CATALOG_SPEC_UNSUPPORTED

SQLSTATE: 0A000

CatalogSpecs は現在、データベース コネクタではサポートされていません。 カタログ スペックを削除してください。

CDC_APPLIER_AUTO_FULL_REFRESH_POLICY_MUST_BE_SAME_FOR_ALL_DESTINATION_TABLES

SQLSTATE: 42000

同じソース テーブルに接続されているすべての宛先テーブルの自動更新ポリシーは、同じである必要があります。

ソース <sourceTable>に接続<destinationTables>次の宛先テーブルのポリシーを変更します。

CDC_APPLIER_COLUMN_UOID_NOT_SUPPORTED

SQLSTATE: 0A000

テーブル <columnNames>の UOID <tableName>を含む列は、CDC マネージド インジェスト パイプラインではサポートされていません。

インジェスト パイプラインで列 UOID がサポートされているかどうかを確認するか、テーブルの完全な更新を要求してください。

CDC_APPLIER_FATAL_FAILURE_FROM_GATEWAY

SQLSTATE: 42000

ゲートウェイ パイプラインで致命的なエラーが発生しました。

<errorMessage>

パイプラインの更新エラーについては、 <link>を参照してください。

CDC_APPLIER_INGESTION_GATEWAY_REMOVED

SQLSTATE: 42000

マネージド インジェスト パイプラインにリンク <pipelineId> インジェスト ゲートウェイ パイプラインが削除されました。

マネージド インジェスト パイプラインを削除し、インジェスト ゲートウェイとマネージド インジェスト パイプラインの両方を作成してください。

CDC_APPLIER_REPLICATED_TABLE_METADATA_NOT_READY

SQLSTATE: 42KD4

テーブル <tableName> のレプリケートされたテーブル メタデータの準備ができていません。

既存のジョブ要求のタイムスタンプは <existingRequestTs>ですが、<expectedRequestTs> 以降を期待しています。

CDC_APPLIER_REQUIRES_ALL_DESTINATION_TABLES_FULL_REFRESH

SQLSTATE: 42000

1 つの宛先テーブルの完全更新と、同じソースからの別の宛先テーブルの通常の更新はサポートされていません。

可能であれば、両方のテーブルを完全に更新して続行してください。

完全にテーブルを更新: <fullRefreshTables>

ソース <sourceTable>の宛先テーブル: <destinationTables>

CDC_APPLIER_SCHEMA_CHANGED_DURING_STREAMING

SQLSTATE: 42KD4

スキーマバージョン <dataSchemaVersion> は、読み取りスキーマバージョン <readSchemaVersion>とは異なります。

Lakeflow Spark 宣言パイプラインは更新を再試行します。

CDC_APPLIER_SEQUENCE_BY_COLUMN_NOT_FOUND

SQLSTATE: 42704

sequenceBy で指定<columnName>テーブルの列<tableName><columns>に存在しません。

CDC_APPLIER_SEQUENCE_BY_INVALID_TYPE

SQLSTATE: 0A000

sequenceByで指定されたテーブル<columnName>の列<tableName>は、サポートされていない型<typeName>です。

sequenceBy 列でサポートされている型は <allowedTypes>

CDC_APPLIER_SEQUENCE_BY_MULTIPLE_COLUMNS_NOT_SUPPORTED

SQLSTATE: 0A000

CDC マネージド インジェスト パイプラインの sequenceBy では、最大 1 つの列を指定できます。

指定された列: テーブル <columns><tableName>

CDC_INCOMPATIBLE_SCHEMA_CHANGES

SQLSTATE: 42KD4

スキーマ のバージョン <cause> から <previousSchemaVersion>に互換性のないスキーマ変更 (<currentSchemaVersion>) が発生しました。

したがって、<tableName>の変更の適用に進むことはできません。 テーブルの完全な更新を要求してください。

前のスキーマ: <previousSchema>

現在のスキーマ: <currentSchema>

CDC_MULTIPLE_SOURCE_TABLES_MAPPED_TO_SAME_DESTINATION_TABLE

SQLSTATE: 42000

複数のソース テーブルが見つかりました。 <source_tables> 同じ変換先テーブル <destination_table>にマップされています。

それらを別の宛先テーブル名または別の宛先スキーマにマップしてください。

CDC_POTENTIAL_DATA_GAPS

SQLSTATE: 55000

次の表 [<needFullRefreshTableList>] は、正常な更新が <retention> 日間行われていません。

これらのテーブルまたはパイプライン全体に対して完全な更新を行ってください。

CDC_SAME_TABLE_FROM_MULTIPLE_SOURCES

SQLSTATE: 42000

複数のソース (<table>) から同じテーブル名 <sources> が見つかりました。

競合を回避するために、それらを異なるパイプラインに分割してください。

CDC_SOURCE_VALIDATION_FAILURE

SQLSTATE: 42000

ソース データベースの検証 <errorCount> エラーが検出されました。 詳細な結果と修復手順については、イベント ログ レポートを参照してください。

CDC_TABLE_NOT_FOUND_IN_ALL_TABLES

SQLSTATE: 42P01

テーブル <table> は、ソース データベースのすべてのテーブル スナップショットに見つかりません。

テーブルの仕様詳細:

<tableSpec>

CHANGES_HMS_PIPELINE_TO_UC_NOT_ALLOWED

SQLSTATE: 0AKD0

HMS パイプラインを UC パイプラインに変更することはできません。

CHANGES_UC_PIPELINE_TO_HMS_NOT_ALLOWED

SQLSTATE: 0AKD0

UC パイプラインを HMS パイプラインに変更することはできません。

CHANGING_CATALOG_NOT_ALLOWED

SQLSTATE: 0AKD0

既存のパイプラインのカタログを変更できません。 既存のカタログ: '<existingCatalog>'。 要求されたカタログ: '<requestedCatalog>'。

CHANGING_TARGET_SCHEMA_NOT_ALLOWED

SQLSTATE: 0AKD0

ターゲット スキーマの変更は許可されていません。 理由: <reason>

CLUSTER_CREATION_BUDGET_POLICY_LIMIT_EXCEEDED

SQLSTATE: 57000

パイプラインの予算ポリシーが制限を超えたため、クラスターを作成できませんでした。 別のポリシーを使用するか、課金管理者に連絡してください。

CLUSTER_CREATION_CLIENT_ERROR

SQLSTATE: KDL01

パイプライン クラスターを作成できませんでした: <errorMessage>

このエラーは、パイプラインの構成ミスが原因である可能性があります。

パイプライン クラスターの構成と関連するクラスター ポリシーを確認します。

CLUSTER_CREATION_CLUSTER_POLICY_LIMIT_EXCEEDED

SQLSTATE: 57000

ポリシー "<clusterPolicy>" のユーザーごとに実行されているクラスターの数が <clusterLimit>の制限を超えたため、クラスターを作成できませんでした。 別のポリシーを使用するか、管理者に連絡してください。

CLUSTER_CREATION_CREDITS_EXHAUSTED

SQLSTATE: 57000

使用可能なクレジットを使い果たしたため、クラスターを作成できませんでした。 お支払い方法を追加してアカウントをアップグレードしてください。

CLUSTER_CREATION_RESOURCE_EXHAUSTED

SQLSTATE: 57000

リソースの制限を超えたため、クラスターを作成できませんでした。 <errorMessage>

CLUSTER_CREATION_SECRETS_FETCH_FAILED

SQLSTATE: 42501

Spark 構成で参照されているシークレットをフェッチできません。

シークレットが存在し、クラスターの所有者が読み取りアクセス許可を持っていることを確認してください。

CLUSTER_LAUNCH_CLIENT_ERROR

SQLSTATE: KDL01

パイプライン クラスターの <clusterId>を起動できませんでした: <clusterStateMessage>

このエラーは、パイプラインの構成ミスが原因である可能性があります。

パイプライン クラスターの構成と関連するクラスター ポリシーを確認します。

CLUSTER_LAUNCH_CLOUD_FAILURE

SQLSTATE: 58000

パイプライン クラスターの <clusterId>を起動できませんでした: <clusterStateMessage>

このエラーは一時的なものになる可能性があります。パイプラインを再起動し、同じ問題が引き続き発生する場合は報告します。

CLUSTER_LAUNCH_RESOURCE_EXHAUSTED

SQLSTATE: 57000

リソース制限 (<clusterStateMessage>) が不足しているため、パイプライン クラスターの<clusterId>を起動できませんでした。

クラスター開始リソース不足

SQLSTATE: KDL01

パイプライン クラスターの <clusterId>を起動できませんでした: <clusterStateMessage>

要求されたインスタンスの種類をクラウド プロバイダーから提供できませんでした。

クラウド プロバイダーのサブスクリプションを確認するか、別のインスタンスの種類でやり直してください。

CLUSTER_SETUP_CLIENT_ERROR

SQLSTATE: KDL01

パイプライン更新の実行のためにクラスター <clusterId> を正常にセットアップできません。 Reason:

詳細については、CLUSTER_SETUP_CLIENT_ERROR を参照してください。

CLUSTER_UNREACHABLE

SQLSTATE: 08000

ドライバーとの通信が失われました。 クラスター <clusterId><timeoutSeconds> 秒間到達できませんでした。

COLUMN_MASK_WITH_NO_COLUMN

SQLSTATE: 42000

MV/ST スキーマに存在しない列 '<columnName>' の列マスクが見つかりました。 ベース テーブルのスキーマの変更が原因である場合は、次の操作を行います。

ALTER TABLE [テーブル名] ALTER COLUMN [マスクが適用されている列] DROP MASK で古いマスクをドロップするか、列を復元してください。

COLUMN_TO_UPDATE_NOT_FOUND

SQLSTATE: 42703

<column> TO COLUMNS で指定された列 UPDATE、ソース データフレームに見つかりません。

CONCURRENT_UPGRADE_FAILED_TO_STOP_PREVIOUS_UPDATE

SQLSTATE: 2D521

アップグレードの更新 '<upgradedUpdateId>' を開始しましたが、以前の更新プログラム '<oldUpdateId>' を停止できませんでした。

このエラーは一時的なものである可能性があります。 パイプラインが自動的に再試行され、問題自体が解決されます。

引き続き同じ問題が発生する場合は、このエラーを Databricks に報告してください。

バッチクエリから一度だけ追加のフローを作成することは許可されていません

SQLSTATE: 42000

バッチ クエリからフローを 1 回追加するストリーミング テーブルを作成できません。

これにより、ソースからの増分インジェストが防止され、誤った動作が発生する可能性があります。

問題のあるテーブル: '<table>'。

これを解決するには、 STREAM() または readStream 演算子を使用して、ソースをストリーミング入力として宣言します。

例: SELECT...FROM STREAM(<source table name>) または spark.readStream.table('<source table name>')

DATASET_DECORATOR_APPLIED_TWICE

SQLSTATE: 割り当てなし

データセット <datasetName> は既に存在します。 クエリ関数がビューまたはテーブルとして 1 回だけマークされていることを確認します。

DATASET_NOT_DEFINED

SQLSTATE: 42P01

データセット '<datasetName>' を読み取れませんでした。 このデータセットはパイプラインで定義されていません。

このテーブルが別のパイプラインによって管理されている場合は、dlt.read / dlt.readStream を使用してテーブルを読み取ったり、名前の先頭に LIVE キーワードを付けたりしないでください。

DATASET_NOT_FOUND_FOR_EXPECTATIONS

SQLSTATE: 42P01

存在しないデータセット '<datasetName>' に対する期待値を定義しようとしました

DATASET_NOT_REGISTERED_FOR_FLOW

SQLSTATE: 42000

データセット '<datasetName>' のフローを登録しようとしましたが、データセットは登録されていません。

DBFS_NOT_ENABLED

SQLSTATE: 42000

このワークスペースでは DBFS が有効になっていません。Unity カタログに発行するか、パイプラインの別のストレージの場所を指定してください。

DBSQL_INCONSISTENT_SCHEDULE_IN_PIPELINE

SQLSTATE: 42000

パイプライン <pipelineId> には、スケジュール設定が異なる複数の実稼働テーブル ([<tableScheduleInfo>]) があります。 すべての実稼働テーブルのスケジュールは同じである必要があります。

DBSQL_INVALID_CHANNEL_VALUE

SQLSTATE: 42616

プロパティ <channel> で指定されたチャネルpipelines.channel無効です。 有効な値は、 <validChannels>です。

DBSQL_INVALID_SCHEDULE_TYPE

SQLSTATE: 42616

schedule プロパティで指定されたスケジュールの種類が無効です: <scheduleValue>

DBSQL_MISSING_SCHEDULE_PROPERTY

SQLSTATE: 42000

テーブルプロパティに必要な schedule プロパティがありません。

DBSQL_PIPELINE_IS_MISSING

SQLSTATE: 42000

DBSQL パイプラインがありません。 具体化されたビューまたはストリーミング テーブルを更新して、 DBSQL パイプラインを作成してください。

DBSQL_PIPELINE_SHOULD_NOT_HAVE_MULTIPLE_TABLES

SQLSTATE: 42000

DBSQL パイプラインには具体化されたビューまたはストリーミングテーブルが1つだけ必要ですが、見つかったのは<tablesSize>個のテーブルでした。<tables>

パイプライン削除が無効になっています

SQLSTATE: 58000

現時点ではパイプラインを削除できません。

パイプライン '<pipelineId>' の削除については、Databricks サポートにお問い合わせください。

DESTINATION_PIPELINE_NOT_FOUND

SQLSTATE: 42K03

ID '<pipelineId>' の宛先パイプラインが見つかりません。 パイプラインと同じワークスペースにいることを確認し、自分がパイプラインの所有者であり、パイプラインが少なくとも 1 回実行されていることを確認します。

DESTINATION_PIPELINE_NOT_IN_DIRECT_PUBLISHING_MODE

SQLSTATE: 0AKLT

ID '<pipelineId>' の宛先パイプラインで直接発行モードが使用されていません。

DESTINATION_PIPELINE_PERMISSION_DENIED

SQLSTATE: 42501

この操作は実行できません。ID '<pipelineId>' を持つ宛先パイプラインの所有者ではありません。 テーブルのパイプラインを変更できるのは所有者だけです。

DESTINATION_PIPELINE_TYPE_NOT_WORKSPACE_PIPELINE_TYPE

SQLSTATE: 0AKLT

ID '<pipelineId>' の宛先パイプラインは ETL パイプラインではありません。

DIRECTORY_PATH_REQUIRES_GLOB

SQLSTATE: 42000

<path>パスはディレクトリです。 ディレクトリ内のすべてのファイルを含めるには、パイプライン構成で 、サフィックス '**' のサフィックス '<path>/**' を持つ glob パターンを使用します。

パイプラインの復元が許可されていないリクエスト

SQLSTATE: 42000

<request>状態のパイプライン '<pipelineId>' に対する要求RESTORINGは許可されません。

DO_CREATE_OR_EDIT_INVALID_USER_ACTION

SQLSTATE: 42000

'<action>' 要求の処理中にエラーが発生しました。

DROP_SCHEDULE_SCHEDULE_DOES_NOT_EXIST

SQLSTATE: 42000

既存のスケジュールまたはトリガーがないテーブルに対して SCHEDULE を削除することはできません。

DUPLICATED_FROM_JSON_SCHEMA_LOCATION

SQLSTATE: 42616

from_json スキーマの重複ロケーションキー: <schemaLocationKey>

パイプライン内の各from_jsonクエリの一意のスキーマの場所キーを選択してください

DUPLICATED_INGESTION_CONFIG_TABLE_SPECS

SQLSTATE: 42710

インジェスト パイプラインの構成には、重複するテーブルが含まれています。 各テーブルが一意であることを確認してください。

EMPTY_INGESTION_CONFIG_OBJECTS

SQLSTATE: 42000

インジェスト構成オブジェクトが空です。

ENHANCED_AUTOSCALING_REQUIRES_ADVANCED_EDITION

SQLSTATE: 42000

拡張自動スケールの "spare_capacity_fraction" 設定は、Lakeflow Spark 宣言パイプラインの Advanced 製品エディションでのみサポートされます。

"spare_capacity_fraction" を使用するには、パイプラインの設定を編集して "edition": "advanced" を設定してください。

ENVIRONMENT_PIP_INSTALL_ERROR

SQLSTATE: 42000

環境の依存関係 '<pipDependency>' をインストールできませんでした。 詳細については、クラスター上のドライバーの stdout ログを確認してください。

EVENT_LOG_PICKER_FEATURE_NOT_SUPPORTED

SQLSTATE: 0A000

Unity カタログへのイベント ログの発行は、レガシ発行モードではサポートされていません。 この機能を有効にするには、移行ガイドの https://docs.databricks.com/aws/en/dlt/migrate-to-dpmの手順に従って、パイプラインを既定の発行モードに移行します。 従来の発行モードを引き続き使用する場合は、パイプラインの仕様から "event_log" 構成を削除します。

EXPECTATION_VIOLATION

SQLSTATE: 22000

フロー '<flowName>' が期待を満たすことができませんでした。

詳細については、EXPECTATION_VIOLATIONを参照してください。

EXPLORE_ONLY_CANNOT_BE_SET_WITH_VALIDATE_ONLY

SQLSTATE: 42000

explore_onlyとvalidate_onlyの両方を true に設定することはできません。

EXPLORE_ONLY_IS_NOT_ENABLED

SQLSTATE: 0A000

explore_only更新が有効になっていません。 Databricks サポートにお問い合わせください。

FAILED_TO_CREATE_EVENT_LOG

SQLSTATE: 58030

識別子が <pipelineId>されたパイプライン (id=<eventLogIdentifier>) イベント ログを作成できませんでした。 詳細については、以下の例外を参照してください。

FAILED_TO_PUBLISH_VIEW_TO_METASTORE

SQLSTATE: 42000

<viewName>のため、ビュー <reason>をメタストアに発行できませんでした。

FAILED_TO_UPDATE_EVENT_LOG

SQLSTATE: 58030

パイプライン (id=<pipelineId>) イベント ログ識別子を <newEventLogIdentifier>に更新できませんでした。 詳細については、以下の例外を参照してください。

FLOW_SCHEMA_CHANGED

SQLSTATE: KD007

フロー <flowName> は、実行中にスキーマの変更が発生して終了しました。

スキーマの変更は既存のターゲット スキーマと互換性があり、フローの次の実行は新しいスキーマで再開できます。

FOREACH_BATCH_SINK_ONLY_SUPPORTED_IN_PREVIEW_CHANNEL

SQLSTATE: 0A000

Lakeflow Spark 宣言パイプライン ForeachBatch シンクは現在サポートされていません。

Lakeflow Spark 宣言型パイプライン ForeachBatch シンクのプライベート プレビューには、 PREVIEW チャネルが必要です。

Lakeflow Spark 宣言パイプライン シンク: <sinkNames>

GATEWAY_PIPELINE_INIT_SCRIPTS_NOT_ALLOWED

SQLSTATE: 0A000

ゲートウェイ パイプラインでは、クラスターの初期化スクリプトは許可されません。 <from>から削除してください.

GATEWAY_PIPELINE_SPARK_CONF_NOT_ALLOWED

SQLSTATE: 0A000

ゲートウェイ パイプラインでは、Spark 構成 [<configs>] は許可されません。 <from>からそれらを削除してください.

GET_ORG_UPDATE_CAPACITY_LIMIT_EXCEEDED

SQLSTATE: 54000

要求された組織 ID の数が、許可される最大数を超えています <limit>

GOOGLE_ANALYTICS_RAW_DATA_CONNECTOR_SOURCE_CATALOG_MISSING

SQLSTATE: KD000

Google Analytics 生データ コネクタでエラーが発生しました。

インジェスト仕様に "ソース カタログ" (GCP プロジェクト ID) がありません。

この問題を解決するには、インジェスト仕様でソース カタログ (プロジェクト ID) を指定してください。

HMS_NOT_ENABLED

SQLSTATE: 42000

Hive メタストアは、このワークスペースでは有効になっていません。Unity カタログに発行してください。

ILLEGAL_COLUMN_TO_UPDATE_DATA_TYPE

SQLSTATE: 42000

COLUMNS から UPDATE で指定された列のデータ型は文字列配列である必要がありますが、<illegalDataType>が見つかりました。

ILLEGAL_ID_PARAM_IN_PIPELINE_SETTINGS

SQLSTATE: 42000

設定に '<fieldName>' を含めてはなりません。

ILLEGAL_SCHEMA_FIELD_IN_PIPELINE_SPEC

SQLSTATE: 42000

パイプライン設定で指定された 'schema' フィールドが無効です。 理由: <reason>

INCORRECT_ROOT_PATH_TYPE

SQLSTATE: 42000

ルート パス '<rootPath>' はディレクトリである必要がありますが、 <objectType>見つかりました。

INCREMENTAL_REFRESH_UNAVAILABLE_WITH_STRICT_REFRESH_POLICY

SQLSTATE: 42000

具体化されたビューには、 INCREMENTAL_STRICT の更新ポリシーがありますが、増分化することはできません。

インフラストラクチャー保守

SQLSTATE: 57P01

クラスター上のドライバー <clusterId> インフラストラクチャのメンテナンスにより終了します。

INGESTION_CONFIG_DUPLICATED_SCHEMA

SQLSTATE: 42710

インジェスト パイプラインの構成には、重複するスキーマが含まれています。 各スキーマが一意であることを確認してください。

INGESTION_GATEWAY_AUTHENTICATION_FAILURE

SQLSTATE: 42501

認証エラー

詳細については、INGESTION_GATEWAY_AUTHENTICATION_FAILURE を参照してください

INGESTION_GATEWAY_BREAKING_SCHEMA_CHANGE_FAILURE

SQLSTATE: 42KD4

ソース テーブルとターゲット テーブルの間でスキーマの不一致が検出されました。 この問題を解決するには、インジェスト パイプラインでテーブル '<entityName>' を完全に更新する必要があります。

INGESTION_GATEWAY_CAPTURE_INSTANCE_UNAVAILABLE

SQLSTATE: 42000

<entityName>のキャプチャ インスタンスはソースで使用できなくなりました。

テーブルで CDC または CT を有効にした後、完全な更新をトリガーしてください。

INGESTION_GATEWAY_CDC_LOG_TRUNCATED

SQLSTATE: 42000

CDC ログがテーブル '<entityName>' に切り捨てられました。理由: <errorMessage>

これは、CDC ログ保持ポリシーが変更追跡ログを処理する前に切り捨てることが原因で発生する可能性があります。

テーブルは処理からスキップされます。 処理を再度有効にするには、テーブルを完全に更新してください。

INGESTION_GATEWAY_CDC_NOT_ENABLED

SQLSTATE: 42000

<entityType> にて CDC が有効になっていません '<entityName>'. CDC を有効にし、インジェスト パイプラインでテーブルを完全に更新します。 エラー メッセージ: '<errorMessage>'。

INGESTION_GATEWAY_DB_VERSION_NOT_SUPPORTED

SQLSTATE: 42000

データベースのバージョンはサポートされていません。

詳細については、INGESTION_GATEWAY_DB_VERSION_NOT_SUPPORTEDを参照してください。

INGESTION_GATEWAY_DDL_OBJECTS_MISSING

SQLSTATE: 42000

<entityType><entityName>のDDLオブジェクトがありません。 DDL オブジェクト スクリプトを実行し、インジェスト パイプラインでテーブルを完全に更新します。 エラー メッセージ: '<errorMessage>'。

INGESTION_GATEWAY_HEALTH_CHECKER_VALIDATION_CYCLE_FAILED

SQLSTATE: 42000

内部正常性チェッカーの検証サイクルに失敗しました。 次のサイクルで再試行します。問題が解決しない場合は、チケットを提出してください。

エラー メッセージ: <errorMessage>

INGESTION_GATEWAY_MISSING_CONNECTION_REFERENCE

SQLSTATE: 42000

インジェスト ゲートウェイの構成に接続がありません。

資格情報を含む Unity カタログ接続への参照を追加してください。

インジェスト ゲートウェイ パイプライン定義の詳細:

<definition>

INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_CATALOG

SQLSTATE: 42000

インジェスト ゲートウェイの構成に、内部ストレージの場所カタログがありません。

内部ストレージの場所カタログを追加してください。

インジェスト ゲートウェイ パイプライン定義の詳細:

<definition>

INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_NAME

SQLSTATE: 42000

インジェスト ゲートウェイの構成に、内部ストレージの場所名がありません。

内部ストレージの場所名を追加してください。

インジェスト ゲートウェイ パイプライン定義の詳細:

<definition>

INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_SCHEMA

SQLSTATE: 42000

インジェスト ゲートウェイの構成に、内部ストレージの場所スキーマがありません。

内部ストレージの場所スキーマを追加してください。

インジェスト ゲートウェイ パイプライン定義の詳細:

<definition>

INGESTION_GATEWAY_MISSING_TABLE_IN_SOURCE

SQLSTATE: 42P01

テーブル '<entityName>' がソース データベースに存在しないか、削除されています。 問題を解決し、マネージド インジェスト パイプラインでテーブルを完全に更新します。 エラー メッセージ: '<errorMessage>'。

INGESTION_GATEWAY_MYSQL_BINLOG_FILE_DELETED

SQLSTATE: 42000

ソース データベースで必要な MySQL binlog ファイルが削除されました。 これは通常、ビンログの保持期間が低すぎる場合、または保持期間が経過した後にインジェストが再開された場合に発生します。 軽減するには、すべてのテーブルに対して完全な更新を実行し、ソースでのビンログの保持期間を増やします。

エラー メッセージ: <errorMessage>

INGESTION_GATEWAY_MYSQL_MISSED_BINLOG_FILES_DETECTED

SQLSTATE: 42000

MySQL Binlog ファイルを検出できなかった。 <entityName>で完全な更新を実行してください。

エラー メッセージ: <errorMessage>

INGESTION_GATEWAY_ORACLE_ARCHIVE_LOG_FILES_UNAVAILABLE

SQLSTATE: 42000

CDC レプリケーションに必要な Oracle アーカイブ ログ ファイルは、ソース データベースでは使用できなくなりました。 これは、アーカイブ ログが保持期間を超えた場合、または手動で削除された場合に発生する可能性があります。 カタログ '<catalogName>' にマップされているすべての変換先テーブルに対して、完全な更新を実行してください。 この問題が解決しない場合は、ソース データベースのアーカイブ ログ保有期間を長くして、処理中にログを使用できるようにすることを検討してください。

エラー メッセージ: <errorMessage>

INGESTION_GATEWAY_ORACLE_MISSING_CONFIGURATION

SQLSTATE: 42000

Oracle 接続の構成が不完全です。

詳細については、INGESTION_GATEWAY_ORACLE_MISSING_CONFIGURATIONを参照してください。

INGESTION_GATEWAY_PG_PUBLICATION_ALTER_FAILED

SQLSTATE: 42000

<entityType> '<entityName>' のレプリケーション パブリケーションを変更できませんでした

エラー メッセージ: <errorMessage>

詳細については、INGESTION_GATEWAY_PG_PUBLICATION_ALTER_FAILED を参照してください

INGESTION_GATEWAY_PG_PUBLICATION_CREATION_FAILED

SQLSTATE: 42000

<entityType> '<entityName>' のレプリケーション パブリケーションを作成できませんでした

エラー メッセージ: <errorMessage>

詳細については、INGESTION_GATEWAY_PG_PUBLICATION_CREATION_FAILED を参照してください

INGESTION_GATEWAY_PG_PUBLICATION_DROP_FAILED

SQLSTATE: 42000

<entityType> '<entityName>' のレプリケーション パブリケーションを削除できませんでした

エラー メッセージ: <errorMessage>

詳細については、INGESTION_GATEWAY_PG_PUBLICATION_DROP_FAILEDを参照してください。

INGESTION_GATEWAY_PG_SLOT_CONFIG_IS_INVALIDATED

SQLSTATE: 55000

<entityType> <entityName>のレプリケーション スロット構成が正常な状態ではありません。 この問題を解決するには、カタログ <catalogName>にマップされているすべての変換先テーブルに対して完全な更新をトリガーします。

エラー メッセージ: <errorMessage>

INGESTION_GATEWAY_PG_SLOT_CONSUMED_BY_OTHER_PROCESS

SQLSTATE: 42000

レプリケーション スロットが別の PID によって使用されているため、 <entityType> '<entityName>' のレプリケーション スロットを作成できませんでした。

エラー メッセージ: <errorMessage>

INGESTION_GATEWAY_PG_SLOT_CREATION_FAILED

SQLSTATE: 42000

<entityType> '<entityName>' のレプリケーション スロットを作成できませんでした

エラー メッセージ: <errorMessage>

詳細については、INGESTION_GATEWAY_PG_SLOT_CREATION_FAILED を参照してください

INGESTION_GATEWAY_PG_SLOT_DROP_FAILED

SQLSTATE: 42000

<entityType> '<entityName>' のレプリケーション スロットを削除できませんでした

エラー メッセージ: <errorMessage>

詳細については、INGESTION_GATEWAY_PG_SLOT_DROP_FAILEDを参照してください。

INGESTION_GATEWAY_PG_SLOT_HAS_BEEN_DELETED

SQLSTATE: 42704

<entityType> '<entityName>' のレプリケーション スロットが削除されました。 カタログ '<catalogName>' にマップされているすべての変換先テーブルに対して、完全な更新をトリガーしてください。

エラー メッセージ: <errorMessage>

INGESTION_GATEWAY_PG_SLOT_IS_INVALIDATED

SQLSTATE: 55000

<entityType> '<entityName>' のレプリケーション スロットが正常な状態ではありません。 スロットを削除し、カタログ '<catalogName>' にマップされているすべての宛先テーブルに対して完全な更新をトリガーしてください。

エラー メッセージ: <errorMessage>

INGESTION_GATEWAY_SOURCE_INSUFFICIENT_PERMISSION_FAILURE

SQLSTATE: 42501

ユーザーには、このオブジェクトにアクセスしたり、ストアド プロシージャを実行したりするために必要なアクセス許可がありません。 必要なすべての特権が付与されていることを確認してください。 次のドキュメントを参照してください: https://docs.databricks.com/aws/en/ingestion/lakeflow-connect/sql-server/database-user-requirements

INGESTION_GATEWAY_SOURCE_SCHEMA_MISSING_ENTITY

SQLSTATE: 42000

ソースからのレプリケーションに使用できるテーブルはありません。

テーブルが正しく選択され、インジェスト パイプラインで定義されていることを確認する

ユーザーは必要なカタログとスキーマへのアクセス権を持ちます。

INGESTION_GATEWAY_SQL_SERVER_CT_DISABLED

SQLSTATE: 42000

テーブル <entityName> の変更履歴がソースで無効になりました。

テーブルで CDC または CT を有効にした後、完全な更新をトリガーしてください。

取り込みゲートウェイテーブルが削除されました

SQLSTATE: 42000

ソース テーブル '<entityName>' がソースで削除されました。 エラー メッセージ: <errorMessage>

INGESTION_GATEWAY_TABLE_RENAMED

SQLSTATE: 42000

ソース テーブル '<entityName>' の名前がソースで変更されました。 エラー メッセージ: <errorMessage>

INGESTION_GATEWAY_TABLE_SKIPPED_DUE_TO_UNSUPPORTED_COLUMN_DATA_TYPE(サポートされていない列データ型のため、テーブルの取り込みがスキップされました)

SQLSTATE: 42P01

サポートされていないデータ型の列のため、テーブル '<entityName>' はスキップされました。 問題を解決し、マネージド インジェスト パイプラインでテーブルを完全に更新します。 エラー メッセージ: '<errorMessage>'。

INGESTION_GATEWAY_UNEXPECTED_COLUMN_UOID

SQLSTATE: 0AXX1

予期しない UOID が列に割り当てられているため、テーブル '<entityName>' はスキップされました。 この問題を解決するには、テーブルに対して完全な更新を実行してください。 エラー: <errorMessage>

INGESTION_GATEWAY_UNEXPECTED_TABLE_UOID

SQLSTATE: 0AXX2

予期しない UOID がテーブルに割り当てられているため、テーブル '<entityName>' はスキップされました。 この問題を解決するには、テーブルに対して完全な更新を実行してください。 エラー: <errorMessage>

INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE

SQLSTATE: 08000

ソース データベースのホスト名 <host> やポート <port> が正しくないため、接続に失敗しました。

詳細については、INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE を参照してください

INGESTION_GATEWAY_UNSUPPORTED_CHARS_IN_OBJECT_NAME

SQLSTATE: 42XXX

テーブル <entityName>のオブジェクトでサポートされていない文字が見つかりました。理由: <errorMessage>。 テーブルはスキップされます。 特殊文字の取り込みを有効にするには、サポートにお問い合わせください。

INGESTION_GATEWAY_UNSUPPORTED_OBJECT_TYPE

SQLSTATE: 42P01

オブジェクト '<entityName>' はサポートされておらず、スキップされています。 解決するには、インジェスト パイプラインからこのオブジェクトを削除します。 エラー メッセージ: '<errorMessage>'。

インジェスションゲートウェイ_追跡不能_テーブル変更

SQLSTATE: 42000

テーブル <entityName>に対してトレース不可能なテーブル変更が検出されました。理由: <errorMessage>

これは、テーブルの切り捨て、cdc ログのロールオーバー、またはその他の追跡不可能な操作が原因で発生する可能性があります。

テーブルは処理からスキップされます。 処理を再度有効にするには、テーブルを完全に更新してください。

INGESTION_GATEWAY_XA_TRANSACTION_NOT_SUPPORTED (受付ゲートウェイでXAトランザクションはサポートされていません)

SQLSTATE: 42000

XA トランザクションの一部であるため、'<entityType>' <entityName>レプリケートできませんでした。

エラー メッセージ: <errorMessage>

INVALID_APPLY_CHANGES_COMMAND

SQLSTATE: 42000

AUTO CDC コマンドが無効です。 <reason>

INVALID_ARGUMENT_TYPE

SQLSTATE: 割り当てなし

パラメーター '<paramName>' に渡された無効な型の値。 <expectedType> が予期されていました。 <additionalMsg>

INVALID_COMPATIBILITY_OPTIONS

SQLSTATE: 42616

テーブル <table> に指定されたテーブル オプションは、次の理由で無効です

詳細については、INVALID_COMPATIBILITY_OPTIONS を参照してください

INVALID_CONFIG_FOR_UC_PIPELINE

SQLSTATE: 42616

UC パイプラインでは、'<configKey>' を '<configValue>' に設定することはできません。 パイプライン設定からこの構成を削除してください。

INVALID_DECORATOR_USAGE

SQLSTATE: 割り当てなし

@<decoratorName> に渡される最初の位置引数は呼び出し可能である必要があります。 関数にパラメーターのない @<decoratorName>を追加するか、キーワード引数 (<decoratorName> など) を使用して @<exampleUsage> にオプションを渡します。

INVALID_DESTINATION_PIPELINE_ID

SQLSTATE: 42K03

宛先パイプライン ID '<pipelineId>' が無効です。 パイプライン ID は有効な UUID である必要があります。

パイプライン名ではなく、正しいパイプライン ID を使用していることを確認します。

INVALID_EVENT_LOG_CONFIGURATION

SQLSTATE: F0000

パイプライン スペックで無効なイベント ログ構成が見つかりました。 <message>

INVALID_NAME_IN_USE_COMMAND

SQLSTATE: 42000

<name> コマンドの名前 '<command>' は無効です。 理由: <reason>

INVALID_PARAM_FOR_DBSQL_PIPELINE

SQLSTATE: 42000

DBSQL パイプラインの 'dry_run' を呼び出すときにのみ、'pipeline_id' と 'pipeline_type' を指定できます。

INVALID_REFRESH_SELECTION

SQLSTATE: 42000

詳細については、INVALID_REFRESH_SELECTION を参照してください

INVALID_REFRESH_SELECTION_REQUEST_FOR_CONTINUOUS_PIPELINE

SQLSTATE: 42000

更新の選択は、連続モードではサポートされていません。

INVALID_REFRESH_SELECTION_REQUEST_WITH_FULL_REFRESH

SQLSTATE: 42000

更新選択要求に対して、full_refresh を true に設定しないでください。

INVALID_REWIND_SPECIFICATION

SQLSTATE: 0A000

巻き戻しの指定が無効です

詳細については、INVALID_REWIND_SPECIFICATIONを参照してください。

INVALID_ROOT_PATH

SQLSTATE: 42000

無効なroot_path '<rootPath>': 現在、絶対ディレクトリ パスのみがサポートされています。 ディレクトリ パスは '/' で始まり、'/' で終わる必要はありません。

INVALID_SCHEMA_NAME

SQLSTATE: 3F000

パイプライン設定で指定されたスキーマ '<schemaName>' が無効です。 理由: <reason>

INVALID_SNAPSHOT_AND_VERSION_TYPE

SQLSTATE: 割り当てなし

ターゲット '<target>' を持つフローのsnapshot_and_versionがサポートされていない型を返しました。 <additionalMsg>

INVALID_TRIGGER_INTERVAL_FORMAT

SQLSTATE: 42000

<configurationType> で指定されたトリガー間隔の構成が無効です

JIRA_アクセス禁止

SQLSTATE: KD000

接続しているユーザーにアクセス権がありません。 ユーザーのアクセス許可を再確認し、もう一度やり直してください。

JIRA_管理者_権限_不足

SQLSTATE: KD000

Jira API の呼び出し中にエラーが発生しました。 必ず以下を行ってください。

接続しているユーザーに対する Jira インスタンスの Jira 管理者アクセス許可。

JIRA_AUTHORIZATION_FAILED (JIRA認証に失敗しました)

SQLSTATE: KD000

Jira API の呼び出し中に承認に失敗しました。 親切に再認証する

UC 接続が作成され、もう一度やり直してください。

JIRA_CONNECTOR_ENTITY_MAPPING_PARSING_FAILED

SQLSTATE: KD000

Jira コネクタでエラーが発生しました。

エンティティ型 ( <entityType>) のエンティティ マッピングの解析中に問題が発生しました。 エンティティがサポートされている型の一部であるかどうかを確認します。

エラーが解決しない場合は、チケットを提出します。

JIRA_MISSING_REQUIRED_FIELD

SQLSTATE: KD000

Jira API 応答に必須フィールド '<fieldName>' がありません。

JSON ノード: <jsonNode>

JIRA_SITE_MISSING

SQLSTATE: KD000

指定された Jira ドメイン <domain>に対応する cloudId が見つかりませんでした。

接続しているユーザーがこのサイトにアクセスできることを確認してください。

JOB_DETAILS_DO_NOT_MATCH

SQLSTATE: 42000

'update_cause_details.job_details' と 'job_task' の両方が指定されている場合は、一致する必要がありますが、それらは <details><jobTask> です。

JOB_TASK_DETAILS_MISSING

SQLSTATE: 42000

'cause' が JOB_TASK 場合は、'job_task' または 'update_cause_details.job_details' を指定する必要があります。

LEGACY_PIPELINE_CREATION_DISABLED

SQLSTATE: 0A000

既定では、レガシ発行モードでのパイプラインの作成は、ワークスペースで無効になっています。 例外が必要な場合は、Databricks サポートにお問い合わせください。

LIBRARY_FILE_FETCH_PERMISSION_DENIED

SQLSTATE: 42501

'<path>' にあるライブラリ ファイルにアクセスできません。 ユーザーがこのファイルを読み取るために必要なアクセス許可を持っていることを確認します。

理由: <reason>

LIBRARY_FILE_NOT_FOUND

SQLSTATE: 42000

ファイル '<path>' が見つからないか、run_as ユーザーにアクセスするアクセス許可がありません。

LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_CLASSIC

SQLSTATE: 42000

データセット クエリ定義の外部 LIVE 仮想スキーマ (つまり、注釈 @dlt.table) を使用したデータセットの参照はサポートされていません。

LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_DPM

SQLSTATE: 42000

LIVE 仮想スキーマ <identifier> を使用したデータセットの参照は、データセット クエリ定義の外部 (つまり、@dlt.table 注釈) ではサポートされていません。

LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_SPARK_SQL

SQLSTATE: 0A000

spark.sql(...) で LIVE 仮想スキーマを使用してデータセットを参照するAPI は、データセット クエリ定義 (つまり、注釈 @dlt.table ) の外部で呼び出してはなりません。 これは、データセット クエリ定義内でのみ呼び出すことができます。

MANAGED_INGESTION_PIPELINE_SPEC_VALIDATION_ERROR

SQLSTATE: 42000

詳細については、MANAGED_INGESTION_PIPELINE_SPEC_VALIDATION_ERRORを参照してください。

MATERIALIZED_VIEW_RETURNED_STREAMING_DATAFRAME

SQLSTATE: 割り当てなし

具体化されたビュー '<datasetName>' のクエリ関数は、ストリーミング DataFrame を返しました。

ストリーミング以外の DataFrame を返す必要があります。

MAX_RETRY_REACHED_BEFORE_ENZYME_RECOMPUTE

SQLSTATE: 42000

最大再試行回数に達しました。 再試行回数: <flowRetryCount>。 maxFlowFailureRetryCountThreshold:<maxFlowRetryAttempts><message>

MESA_PIPELINE_INVALID_DEFINITION_TYPE

SQLSTATE: 42000

UC 定義から <definitionType> パイプラインを開始することはできません。

MESA_PIPELINE_MISMATCH_PIPELINE_TYPES

SQLSTATE: 42000

格納された定義と更新された定義は同じパイプラインの種類である必要がありますが、実際には <stored><updated> が得られました。

MESA_PIPELINE_MISSING_DEFINITION

SQLSTATE: 42000

パイプラインには UC の有効な定義はありませんが、更新が要求されます。

MESA_PIPELINE_MISSING_DEFINITION_UNEXPECTED

SQLSTATE: 42000

UC に予期せずパイプライン定義がありません。

METASTORE_OPERATION_TIMED_OUT

SQLSTATE: 58000

<tableName> のメタストア情報の更新に関連する操作には、<timeout>よりも時間がかかりました。

この問題は一時的なものであるか、構成されているメタストア クライアントのバグを示している可能性があります。 パイプラインを再起動して、この問題が解決しない場合は報告してください。

META_ADS_PARAMETERS_CHANGED

SQLSTATE: KD000

Meta マーケティング コネクタでエラーが発生しました。 ad_insights テーブルへの入力パラメーターが変更されました。

影響を受けたテーブルに対して完全な更新を実行してください。

META_ADS_SOURCE_API_ERROR

SQLSTATE: KD000

メタ マーケティング API 呼び出しでエラーが発生しました。 Meta サポートでトレースする Facebook トレース ID: <trace_id>

エラーが解決しない場合は、チケットを提出します。

META_MARKETING_INSIGHTS_LEVEL_INVALID

SQLSTATE: KD000

ad_insights テーブルの分析情報を取得しようとしたときに、Meta マーケティング コネクタでエラーが発生しました。

指定されたレベル パラメーター <level> が無効です。 いずれかの (広告、広告セット、キャンペーン、アカウント) を渡してください。

META_MARKETING_INSIGHTS_PARAM_BREAKDOWNS_INVALID

SQLSTATE: KD000

ad_insights テーブルの分析情報を取得しようとしたときに、Meta マーケティング コネクタでエラーが発生しました。

指定された内訳パラメーター <breakdowns> が無効です。 内訳の有効な一覧については、メタ API のドキュメントを参照してください。

エラーが解決しない場合は、チケットを提出します。

META_MARKETING_INSIGHTS_PARAM_TIME_INCREMENT_INVALID

SQLSTATE: KD000

ad_insights テーブルの分析情報を取得しようとしたときに、Meta マーケティング コネクタでエラーが発生しました。

指定された時間増分パラメーター <timeInc> を解析できませんでした。 有効な整数を入力してください。

META_MARKETING_INSIGHTS_START_DATE_INVALID

SQLSTATE: KD000

ad_insights テーブルの分析情報を取得しようとしたときに、Meta マーケティング コネクタでエラーが発生しました。

指定された開始日パラメーター <startDate> 解析できませんでした。 正しい YYYY-MM-DD 形式で確認して変更してください。

META_MARKETING_INSIGHTS_START_DATE_TOO_OLD

SQLSTATE: KD000

ad_insights テーブルの分析情報を取得しようとしたときに、Meta マーケティング コネクタでエラーが発生しました。

指定された開始日は、同期の現在の日付から 37 か月を超えすることはできません。指定されたパラメーターで確認して変更してください。

エラーが解決しない場合は、チケットを提出します。

META_MARKETING_RATE_LIMIT_EXCEEDED

SQLSTATE: KD000

この広告アカウントの Meta API レート制限が使い果たされました。 しばらくしてからパイプラインの更新を再試行してください。 制限に再び達しないように、並列で取り込むテーブルの数を減らすことをお勧めします。

レート制限エラーが頻繁に発生する場合は、メタドキュメントに従って、まだ完了していない場合は、高度なアクセスへのアップグレードを検討してください。 https://developers.facebook.com/docs/marketing-api/get-started/authorization

META_MARKETING_REQUESTED_DATA_LIMIT_EXCEEDED

SQLSTATE: KD000

要求されたデータの量が Meta サーバーが処理できる制限を超えたため、Meta API は失敗しました。

列選択ロジックを使用して、このテーブルに取り込むフィールドの数を減らしてみてください。 エラーが解決しない場合は、チケットを提出します。

MIGRATION_TO_UNITY_CATALOG

SQLSTATE: 55000

詳細については、MIGRATION_TO_UNITY_CATALOGを参照してください。

カタログまたはスキーマの権限が不足しています

SQLSTATE: 42501

ユーザー '<userName>' に '<schemaName>' に対するアクセス許可がありません。 詳細: <reason>

MISSING_CREATE_SCHEMA_PRIVILEGE

SQLSTATE: 42501

ユーザー '<userName>' にカタログ内にスキーマを作成する権限がありません <catalogName>

MISSING_CREATE_TABLE_PRIVILEGE

SQLSTATE: 42501

ユーザー '<userName>' にスキーマでテーブルを作成する権限がありません <schemaName>

MISSING_RUN_AS_USER

SQLSTATE: 28000

更新に対して、実行ユーザーの指定がありませんでした。

複数クエリスナップショット対象がサポートされていません

SQLSTATE: 0A000

'<tableName>' には、 AUTO CDC FROM SNAPSHOT クエリ '<flowName>' が既に含まれています。 現時点では、この API は宛先ごとに 1 つのフローのみをサポートしています。

MUTUALLY_EXCLUSIVE_OPTIONS

SQLSTATE: 42000

オプション <options> は相互に排他的です。 これらのオプションのいずれかを削除してください。

NEGATIVE_VALUE

SQLSTATE: 割り当てなし

<arg_name>の値は0以上である必要がありますが、'<arg_value>'と表示されました。

NON_UC_TABLE_ALREADY_MANAGED_BY_OTHER_PIPELINE

SQLSTATE: 42P07

テーブル '<tableName>' は既にパイプライン <otherPipelineId>によって管理されています。

テーブル '<tableName>' をこのパイプラインで管理する場合 -

  1. パイプライン '<otherPipelineId>' からテーブルを削除します。

  2. このパイプラインの完全更新更新を開始します。

複数のパイプラインからテーブルを引き続き管理する場合は、パイプライン設定で構成 pipelines.tableManagedByMultiplePipelinesCheck.enabledfalse に設定して、このチェックを無効にします。

テーブルに対する同時操作が互いに競合し、予期しない結果が発生する可能性があるため、これはお勧めしません。

NOTEBOOK_NAME_LIMIT_REACHED

SQLSTATE: 42000

無効なノートブック パス: '<nameStart>...<nameEnd>'。 <maxNotebookPathLength>文字より長いです。

NOTEBOOK_NOT_FOUND

SQLSTATE: 42000

ノートブック '<notebookPath>' にアクセスできません。 存在しないか、このパイプラインの実行に使用される ID ( <identity>) に必要なアクセス許可がありません。

NOTEBOOK_PIP_INSTALL_ERROR

SQLSTATE: 42000

ノートブックから '<pipInstallCommand>' を実行できませんでした: <notebookPath>。 詳細については、クラスター上のドライバーの stdout ログを確認してください。

NOTEBOOK_TOO_LARGE

SQLSTATE: 54000

'<notebookPath>' で解決されたノートブックのコンテンツが大きすぎます。ノートブックのサイズを小さくしてください。

NOTIFICATIONS_DUPLICATE_ALERTS

SQLSTATE: 42000

[<alertsDuplicates>] で指定された重複アラート '<alerts>'

NOTIFICATIONS_DUPLICATE_EMAIL_ADDRESSES

SQLSTATE: 42000

[<emailRecipientsDuplicates>] で指定された電子メール アドレス '<emailRecipients>' が重複しています

NOTIFICATIONS_INVALID_ALERTS

SQLSTATE: 42000

通知を受け取るために指定されたアラートが無効です。 <invalidAlerts>

NOTIFICATIONS_INVALID_EMAIL_ADDRESS

SQLSTATE: 42000

通知を受信するために指定された電子メール アドレスが無効です。 <invalidEmailAddresses>

NOTIFICATIONS_MISSING_PARAMS

SQLSTATE: 42000

で少なくとも 1 人の受信者と 1 つのアラートを指定してください <setting>

NO_SOURCE_OR_SNAPSHOT_AND_VERSION_ARGUMENT_PROVIDED

SQLSTATE: 割り当てなし

ターゲット '<target>' を持つapply_changes_from_snapshotに対して、sourceまたはsnapshot_versionを設定する必要があります。

NO_TABLES_IN_PIPELINE

SQLSTATE: 42617

パイプラインには少なくとも 1 つのテーブルが定義されている必要がありますが、パイプラインにテーブルが見つかりませんでした。

実行が構成されている場合、想定されるソース ファイルやディレクトリが含まれていること、および共有されていること、およびソース コードにテーブル定義 (たとえば、SQL コードで CREATE MATERIALIZED VIEW 、python コードで @dlt.table ) が含まれていることを確認してください。

このチェックではテーブルのみがカウントされることに注意してください。 パイプラインにビューまたはフローのみを含める場合にも、このエラーが発生する可能性があります。

OUTPUT_MODE_NOT_SUPPORTED_FOR_TABLE_FLOW

SQLSTATE: 42000

出力モード '<outputMode>' は、テーブル '<target>' をターゲットとするテーブル フロー '<flowName>' ではサポートされていません。 テーブル フローでは、'append' モードのみがサポートされています。

OWNER_IS_MISSING

SQLSTATE: 42000

所有者が存在しません。

PAGINATION_REQUEST_HAS_NAME_AND_PAGINATION

SQLSTATE: 42000

<name> を指定するか、改ページ位置の自動修正をすることはできますが、両方を行うことはできません。

PATCH_PIPELINE_DEFINITION_UNSUPPORTED_FIELD

SQLSTATE: 42000

PatchPipelineDefinition では schedule フィールドのみがサポートされていますが、指定された定義には他のフィールド '<updatedDefinition>' が設定されていました。

PERSISTED_VIEW_READS_FROM_STREAMING_SOURCE

SQLSTATE: 42000

永続化されたビューでは、ストリーミング ソースからの読み取りはサポートされていません。

PERSISTED_VIEW_READS_FROM_TEMPORARY_VIEW

SQLSTATE: 42K0F

永続化されたビュー <persistedViewName> は、パイプライン スコープ外では使用できない一時ビュー <temporaryViewName> を参照できません。 永続化されたビューを一時的にするか、一時ビューを保持します。

PIPELINE_CLONING_ALREADY_IN_PROGRESS

SQLSTATE: 42000

パイプラインは既に ID '<pipelineId>' のパイプラインに複製されています。

PIPELINE_CLONING_BOTH_TARGET_AND_SCHEMA_SPECIFIED

SQLSTATE: 42000

パイプラインを複製するときに、'target' と 'schema' の両方を指定できません。 1 つだけ指定してください。

PIPELINE_CLONING_CANNOT_CHANGE_SCHEMA_TO_TARGET

SQLSTATE: 42000

'schema' を持つパイプラインを 'target' を持つパイプラインに複製することはできません。 複製されたパイプラインでは、元の値を継承するために'schema' も使用するか、両方を省略する必要があります。

PIPELINE_CLONING_INVALID_DURING_ACTIVE_UPDATE

SQLSTATE: 42000

ID '<pipelineId>' のパイプラインは、アクティブな更新中に複製できません。

PIPELINE_CLONING_INVALID_FIELDS

SQLSTATE: 42000

複製の要求に、無効なフィールドを含むパイプライン仕様が含まれました。 許可されるフィールドには、名前、カタログ、ターゲット、構成が含まれます。

PIPELINE_CLONING_INVALID_FOR_MISSING_TARGET

SQLSTATE: 42000

ID '<pipelineId>' のパイプラインは、ターゲット スキーマに発行されません。 ソース パイプラインは、複製するターゲット スキーマに発行する必要があります。 パイプライン スペックで 'target' フィールドを指定し、ターゲット スキーマに発行するための新しい更新を実行した後、再試行してください。

PIPELINE_CLONING_INVALID_FOR_UC_PIPELINE

SQLSTATE: 42000

ID '<pipelineId>' のパイプラインは既に UC パイプラインです。 UC パイプラインを複製することはできません。

PIPELINE_CLONING_NO_CATALOG_SPECIFIED

SQLSTATE: 42000

複製用に指定されたカタログがありません。

PIPELINE_CLONING_NO_MODE_SPECIFIED

SQLSTATE: 42000

指定された複製モードはありません。

PIPELINE_CLONING_NO_TARGET_SPECIFIED

SQLSTATE: 42000

複製するターゲット カタログが指定されません。

PIPELINE_CREATION_NOT_ENABLED_FOR_WORKSPACE

SQLSTATE: 42000

パイプラインの作成は、このワークスペースでは有効になっていません。

PIPELINE_DOES_NOT_EXIST

SQLSTATE: 42000

ID '<pipelineId>' のパイプラインが存在しません。

詳細については、PIPELINE_DOES_NOT_EXISTを参照してください。

PIPELINE_ENVIRONMENT_NOT_ENABLED

SQLSTATE: 0A000

Lakeflow Spark 宣言パイプラインでの環境の使用は有効になっていません。

PIPELINE_ENVIRONMENT_VERSION_NOT_ALLOWED

SQLSTATE: 54000

現在、パイプラインの環境では環境バージョンはサポートされていません。

PIPELINE_FAILED_TO_UPDATE_UC_TABLE_DUE_TO_CONCURRENT_UPDATE

SQLSTATE: 55000

パイプラインは、<tableName> 回の試行後に同時変更が発生したため、UC テーブル (<attempts>) を更新できませんでした。

テーブルを変更する外部プロセスがないことを確認し、更新を再試行し、この問題が解決しない場合は Databricks サポートにお問い合わせください。

PIPELINE_FAILED_TO_UPDATE_UC_TABLE_DUE_TO_EXTERNAL_DELETE

SQLSTATE: 55000

<tableName>テーブルは、パイプラインの更新中に外部操作によって削除されました。

外部プロセスによってテーブルが変更されていないことを確認してから、更新を再試行してください。

問題が解決しない場合は、Databricks サポートにお問い合わせください。

PIPELINE_FOR_TABLE_NEEDS_REFRESH

SQLSTATE: 55000

テーブル <tableName> が必須の状態ではなく、テーブルが最近更新されていません。 ID '<pipelineId>' のパイプラインをもう一度実行してから、操作を再試行する必要があります。

PIPELINE_FOR_TABLE_NOT_FOUND

SQLSTATE: 42K03

テーブル <pipelineId>を管理する ID '<tableName>' のパイプラインが見つかりません。 パイプラインと同じワークスペースにいることを確認し、自分がパイプラインの所有者であり、パイプラインが少なくとも 1 回実行されていることを確認します。

PIPELINE_GLOB_INCLUDES_CONFLICTS

SQLSTATE: F0000

パイプライン設定内のライブラリで、globフィールドまたはnotebook/fileフィールドのいずれかを設定する必要があります。 パイプラインの設定を変更してください。

PIPELINE_GLOB_INCLUDES_NOT_SUPPORTED

SQLSTATE: 0A000

glob フィールドを使用してソース ファイルを含めるのはプレビュー機能であり、無効になっています。

パイプラインに含める各ソース ファイルを再選択して、このエラーを修正します。

Databricks のサポートに連絡して、この機能の詳細を確認し、プレビューに登録します。

PIPELINE_GLOB_UNSUPPORTED_SPECIAL_CHARACTER

SQLSTATE: 42000

<specialChar>特殊文字は予約されており、パイプライン設定に含まれるパス '<path>' では使用しないでください。 これらの文字を削除してエラーを修正する

PIPELINE_NAME_LIMIT_REACHED

SQLSTATE: 42000

名前を <maxPipelineNameLength> 文字より長くすることはできません。

PIPELINE_NON_RETRYABLE_ANALYSIS_CLIENT_ERROR

SQLSTATE: 42000

部分的な実行後に再試行できないエラーが発生したため、パイプラインでソース テーブル (<tables>) を分析できませんでした。

新しいパイプラインのアップデートは作成されません。

<flowErrors>

イベント ログを確認し、それに応じて問題を修正します。

PIPELINE_NOT_ELIGIBLE_FOR_RESTORATION(復元対象外のパイプライン)

SQLSTATE: 42000

パイプライン '<pipelineId>' は復元ウィンドウを過ぎました。

PIPELINE_NOT_IN_DIRECT_PUBLISHING_MODE

SQLSTATE: 0AKLT

テーブル <pipelineId>を管理する ID '<tableName>' のパイプラインは、直接発行モードを使用していません。

PIPELINE_NOT_READY_FOR_SCHEDULED_UPDATE

SQLSTATE: 55000

テーブルはまだ更新の準備ができていません

詳細については、PIPELINE_NOT_READY_FOR_SCHEDULED_UPDATE を参照してください

PIPELINE_PERMISSION_DENIED_NOT_OWNER

SQLSTATE: 42501

この操作は実行できません。 あなたは、テーブル <pipelineId> を管理している、ID '<tableName>' のパイプラインの所有者ではありません。

PIPELINE_RETRYABLE_ANALYSIS

SQLSTATE: 42000

部分的な実行後に再試行可能なエラーが発生したため、パイプラインでソース テーブル (<tables>) を分析できませんでした。

処理を再試行するために、新しいパイプライン更新が作成されます。 エラーが解決しない場合は、イベント ログを確認し、それに応じて問題に対処してください。

PIPELINE_SETTINGS_FIELD_CANNOT_BE_EDITED

SQLSTATE: 42000

ユーザーが '<uneditableFieldName>' を変更することはできません。 ユーザーが <settingName>を追加または変更する場合は、代わりに '<editableFieldName>' フィールドを使用してください。

PIPELINE_SETTINGS_MODIFIED_CONCURRENTLY

SQLSTATE: 42000

パイプライン設定が同時に変更されました。

PIPELINE_SETTINGS_UNSUPPORTED_CONFIGURATIONS

SQLSTATE: 42000

<configurations>構成は、Lakeflow Spark 宣言パイプラインではサポートされていません。 これらの構成を削除してください。

PIPELINE_SETTING_SHOULD_NOT_SPECIFY_DEVELOPMENT

SQLSTATE: 42000

'development' 設定を使用した更新の開始はサポートされていません。

PIPELINE_SHOULD_NOT_HAVE_MULTIPLE_TABLES

SQLSTATE: 42000

パイプラインにはテーブルが 1 つだけ必要ですが、<tablesSize> 個のテーブル <tables> が見つかりました。

PIPELINE_SOURCE_FILE_NUMBER_EXCEEDED

SQLSTATE: 54000

フォルダーで宣言されたファイルを含むソース ファイルの数が、 <limit>の制限を超えています。

過剰なファイルを削除またはマージし、必要に応じて対応するパイプライン 仕様を変更します。

または Databricks サポートに連絡して制限の引き上げを要求してください。

PIPELINE_SOURCE_FOLDER_DEPTH_EXCEEDED

SQLSTATE: 54000

フォルダー '<folder_path>' が、許可されている最大ディレクトリ入れ子レベルの <limit>を超えています。 フォルダーの入れ子レベルを下げるか、Databricks サポートに連絡して制限の引き上げを要求してください。

PIPELINE_SPEC_PARAM_CANNOT_BE_CHANGED

SQLSTATE: 42000

パイプライン設定で次のパラメーター <param> を変更することはできません

PIPELINE_TYPE_NOT_SUPPORTED

SQLSTATE: 42000

パイプラインの種類 '<pipelineType>' はサポートされていません。

PIPELINE_TYPE_NOT_WORKSPACE_PIPELINE_TYPE

SQLSTATE: 0AKLT

ID '<pipelineId>' を持つパイプラインは、テーブル <tableName>を管理しますが、ETL パイプラインではありません。

PIPELINE_TYPE_QUOTA_EXCEEDED

SQLSTATE: 54000

種類 '<updateId>' のアクティブなパイプラインの制限に達したため、更新 '<pipelineType>' を開始できません。

PIPELINE_UPDATE_FOR_TABLE_IS_RUNNING

SQLSTATE: 55000

ID '<pipelineId>' を持つパイプラインが実行され、テーブル <tableName>を管理しています。 操作を実行する前に、パイプラインを停止してください。

PIPELINE_WORKSPACE_LIMIT_REACHED

SQLSTATE: 42000

ワークスペース '<pipelineType>' に既に '<orgId>' パイプラインがあるため、型 '<countLimit>' のパイプラインの作成がブロックされました。 未使用のパイプラインを削除してください。

PIP_INSTALL_NOT_AT_TOP_OF_NOTEBOOK

SQLSTATE: 42000

'<notebookPath>' のノートブックの上部にない、%pip インストールを含むセルが見つかりました

すべての %pip インストール セルをノートブックの先頭に移動します。

PY4J_BLOCKED_API

SQLSTATE: 割り当てなし

現在の環境ではサポートされていない Python API を使用しています。

代替手段については、Databricks のドキュメントを参照してください。

<additionalInfo>

QUERY_BASED_CONNECTOR_SOURCE_API_ERROR

SQLSTATE: KD000

<sourceName> API 呼び出しでエラーが発生しました。 ソース API の種類: <qbcSourceApiType>

変換先テーブルを更新してみてください。 問題が解決しない場合は、チケットを提出してください。

QUERY_BASED_INGESTION_CONNECTOR_ERROR

SQLSTATE: 0A000

<sourceName>のクエリ ベースのインジェスト コネクタでエラーが発生しました。

詳細については、QUERY_BASED_INGESTION_CONNECTOR_ERRORを参照してください。

REFERENCE_DLT_DATASET_OUTSIDE_QUERY_DEFINITION

SQLSTATE: 0A000

データセット クエリ定義の外部 <identifier> Lakeflow Spark 宣言パイプライン データセット (つまり、 @dlt.table 注釈) の参照はサポートされていません。 代わりに、データセット クエリ定義内で読んでください。

REFRESH_INITIATED_FROM_INVALID_WORKSPACE

SQLSTATE: 42000

更新は、リソースが作成されたワークスペース <homeWorkspaceId>で開始する必要があります。

ワークスペース <userWorkspaceId>で更新が試行されました。

REFRESH_MODE_ALREADY_EXISTS

SQLSTATE: 42710

既に <type>されているテーブルに <existingType> を追加できません。 既存のスケジュールを削除するか、 ALTER TABLE...ALTER <type> 使用してください.を選択して変更します。

REQUIRED_PARAM_NOT_FOUND

SQLSTATE: 42000

必須パラメーター <param> が見つかりません。

RESERVED_KEYWORD_IN_USE_CATALOG

SQLSTATE: 42000

USE CATALOG '<reservedKeyword>' は無効です。'<reservedKeyword>' は Lakeflow Spark 宣言型パイプラインの予約済みキーワードであるためです。

RESERVED_KEYWORD_IN_USE_SCHEMA

SQLSTATE: 42000

USE SCHEMA '<reservedKeyword>' は無効です。'<reservedKeyword>' は Lakeflow Spark 宣言型パイプラインの予約済みキーワードであるためです。

リソースがプロビジョニングされています

SQLSTATE: 42000

パイプライン リソースは、パイプライン '<pipelineId>' 用にプロビジョニングされています。

RESOURCE_READ_ONLY_IN_WORKSPACE

SQLSTATE: 42501

<resourceType> '<resourceName>' は、現在のワークスペースで読み取り専用として指定されています。

削除されていないパイプラインを復元する

SQLSTATE: 42000

パイプライン '<pipelineId>' は削除されません。 復元は、削除されたパイプラインにのみ適用されます。

復元パイプラインが無効化されています

SQLSTATE: 42000

パイプラインの種類に対して RestorePipeline が有効になっていません <pipelineType>

パイプライン '<pipelineId>' の復元については、Databricks サポートにお問い合わせください。

ROOT_PATH_NOT_FOUND

SQLSTATE: 42000

ルート パス '<rootPath>' にアクセスできません。 必要なアクセス権限があることを確認してください。

RUN_AS_USER_NOT_FOUND

SQLSTATE: 28000

更新プログラムのユーザー '<runAsUserId>' として指定された実行がワークスペースに存在しません。

SAAS_CONNECTION_ERROR

SQLSTATE: KD000

<sourceName> ソースへの接続に失敗しました。 エラー コード: <saasConnectionErrorCode>

詳細については、SAAS_CONNECTION_ERROR を参照してください。

SAAS_CONNECTOR_DUPLICATE_DATA

SQLSTATE: 42000

テーブル <tableName>に重複するデータが見つかりました。 ソースの種類: <sourceName>

詳細については、SAAS_CONNECTOR_DUPLICATE_DATAを参照してください。

SAAS_CONNECTOR_INVALID_INCLUDE_COLUMNS

SQLSTATE: 42000

テーブル <qualifiedTableName>に無効なinclude_columnsが指定されています。 理由: <reason>

SAAS_CONNECTOR_INVALID_PRIMARY_KEY_CONFIGURATION

SQLSTATE: 42000

テーブル <qualifiedTableName>の主キー構成が無効です。 理由: <reason>

SAAS_CONNECTOR_MUTUAL_AUTHENTICATION_FAILED

SQLSTATE: KD000

このセッションは、 <sourceName>で使用するために相互に認証できませんでした。 ソース API の種類: <saasSourceApiType>。 エラー コード: <saasSourceApiErrorCode>

クライアント証明書と秘密キーが有効なペアであり、 <sourceName>によって信頼されていることを確認してください。

SAAS_CONNECTOR_REFRESH_TOKEN_EXPIRED

SQLSTATE: KD000

接続 <connectionName> の更新トークンの有効期限が切れています。 接続を編集し、再認証し、パイプラインを再実行します。

SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR

SQLSTATE: 42KD4

<tableName> ソースのテーブル <sourceName> でスキーマの変更が発生しました。

詳細については、SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR を参照してください

SAAS_CONNECTOR_SOURCE_API_ERROR

SQLSTATE: KD000

<sourceName> API 呼び出しでエラーが発生しました。 ソース API の種類: <saasSourceApiType>。 エラー コード: <saasSourceApiErrorCode>

変換先テーブルを更新してみてください。 問題が解決しない場合は、チケットを提出してください。

SAAS_CONNECTOR_UC_CONNECTION_OAUTH_EXCHANGE_FAILED

SQLSTATE: KD000

UC 接続の OAuth トークン交換に失敗しました: <connectionName>

これは、UC 資格情報に関する問題が原因で発生する可能性があります。 エラー トレースを確認し、UC 接続を編集し、再認証して、パイプラインをもう一度実行します。 エラーが解決しない場合は、チケットを提出します。

SAAS_CONNECTOR_UNSUPPORTED_ERROR

SQLSTATE: 0A000

データ ソース <sourceName>でサポートされていないエラーが発生しました。

詳細については、SAAS_CONNECTOR_UNSUPPORTED_ERROR を参照してください

SAAS_INCOMPATIBLE_SCHEMA_CHANGES_DURING_INIT

SQLSTATE: 42KD4

パイプラインを初期化するときに、互換性のないスキーマの変更が検出されました。

<details>

影響を受けたテーブルに対して完全な更新を実行してください。

SAAS_PARTIAL_ANALYSIS_INPUT_CREATION_ERROR

SQLSTATE: 42KD4

部分分析用の入力の作成時にエラーが発生しました。 新しいパイプラインのアップデートは作成されません。

イベント ログを確認し、それに応じて問題を修正してください。

SAAS_SCHEMA_DIVERGED_DURING_ANALYSIS

SQLSTATE: 42KD4

ソース テーブル (<table>) の分析されたスキーマは、想定されるスキーマとは異なっています。

パイプラインの更新を再試行し、問題が解決されたかどうかを確認してください。

この問題が解決しない場合は、上記の表に対して完全な更新を実行してください

必要なスキーマ:

<expectedSchema>

実際のスキーマ:

<actualSchema>

SAAS_UC_CONNECTION_INACCESSIBLE

SQLSTATE: 08000

指定された接続 <connectionName> にアクセスできません。 接続を確認して、もう一度やり直してください。

詳細については、SAAS_UC_CONNECTION_INACCESSIBLE を参照してください

SCHEMA_SPEC_EMPTY_CATALOG

SQLSTATE: 3D000

SchemaSpec には、カタログ フィールドに空の文字列があります。

空の文字列を削除するか、カタログ名を追加してください。 (このスキーマがソース内のカタログに属していない場合は、フィールドを設定しないでください)。

スキーマ スペックの詳細:

<schemaSpec>

SCHEMA_SPEC_EMPTY_SCHEMA

SQLSTATE: 3F000

SchemaSpec には、スキーマ フィールドに空の文字列があります。

空の文字列を削除するか、スキーマ名を追加してください。 (このテーブルがソース内のスキーマに属していない場合は、フィールドを設定しないでください)。

スキーマ スペックの詳細:

<schemaSpec>

SCHEMA_SPEC_REQUIRE_ONE_OF_CATALOG_SCHEMA

SQLSTATE: 42000

少なくとも 1 つのソース カタログとソース スキーマが存在する必要があります。 しかし、どちらも空です。

スキーマ スペックの詳細:

<schemaSpec>

列によるシーケンスが見つかりません

SQLSTATE: 42703

パイプライン定義には、ソース <columnNames>のテーブル <qualifiedTableName>に存在しない sequence_by という列 (<sourceType>) を含んでいます。 sequence_by フィールドからこれらの列を削除してください。

サーバーレス予算ポリシーと使用ポリシーの両方が設定されています

SQLSTATE: 42000

budget_policy_idusage_policy_idの両方を設定できません。 budget_policy_idを削除してください。

SERVERLESS_BUDGET_POLICY_BAD_REQUEST

SQLSTATE: 42000

ID '<budgetPolicyId>' を持つ指定された予算ポリシーは、ポリシー ワークスペースのバインド制約のため、このワークスペースでは使用できません。

SERVERLESS_BUDGET_POLICY_IS_INVALID

SQLSTATE: 42000

ID '<budgetPolicyId>' のサーバーレス予算ポリシーが無効です。

SERVERLESS_BUDGET_POLICY_MISSING

SQLSTATE: 42000

ID '<budgetPolicyId>' のサーバーレス予算ポリシーが存在しません。

SERVERLESS_BUDGET_POLICY_NOT_ENABLED

SQLSTATE: 0A000

サーバーレス予算ポリシーが有効になっていません。Databricks サポートにお問い合わせください。

SERVERLESS_BUDGET_POLICY_NOT_ENABLED_FOR_ACCOUNT

SQLSTATE: 0A000

このアカウントでは、サーバーレス予算ポリシーが有効になっていません。 ユーザーは、このパイプラインの予算ポリシーを指定できません。 アカウント管理者は、機能プレビュー ポータルを使用して登録を試みる必要があります。 問題が解決しない場合は、Databricks サポートにお問い合わせください。

SERVERLESS_BUDGET_POLICY_NOT_SUPPORTED_FOR_NON_SERVERLESS_PIPELINE

SQLSTATE: 42000

サーバーレス予算ポリシーをサーバーレス以外のパイプラインに割り当てることはできません。

SERVERLESS_BUDGET_POLICY_NOT_SUPPORTED_FOR_PIPELINE_TYPE

SQLSTATE: 42000

サーバーレス予算ポリシーは、パイプラインの種類の <pipelineType>ではサポートされていません。

SERVERLESS_BUDGET_POLICY_PERMISSION_DENIED

SQLSTATE: 42000

ユーザーには、ID '<budgetPolicyId>' のサーバーレス予算ポリシーを使用するアクセス許可がありません。

SERVERLESS_NOT_AVAILABLE

SQLSTATE: 0A000

サーバーレス コンピューティングは使用できません。 詳細については、Databricks にお問い合わせください。

SERVERLESS_NOT_ENABLED

SQLSTATE: 0A000

Lakeflow Spark 宣言パイプラインでは、サーバーレス コンピューティングを使用できません。 ワークスペースでこの機能を有効にするには、Databricks にお問い合わせください。

SERVERLESS_NOT_ENABLED_FOR_USER

SQLSTATE: 0A000

サーバーレス コンピューティングが呼び出し元に対して有効になっていません。 この機能を有効にするには、ワークスペース管理者に問い合わせてください。

SERVERLESS_NOT_ENABLED_FOR_WORKSPACE

SQLSTATE: 0A000

サーバーレス コンピューティングは、このワークスペースやリージョンでは使用できません。 詳細については、Databricks にお問い合わせください。

SERVERLESS_REQUIRED

SQLSTATE: 42000

このワークスペースでは、サーバーレス コンピューティングを使用する必要があります。

SERVICENOW_CONNECTION_ERROR

SQLSTATE: KD000

ServiceNow でエラーが発生しました。 ソース API の種類: <saasSourceApiType>

詳細については、SERVICENOW_CONNECTION_ERRORを参照してください。

SERVICENOW_CONNECTOR_EMPTY_CURSOR_KEY_ERROR

SQLSTATE: KD000

ServiceNow でエラーが発生しました。 ソース API の種類: <saasSourceApiType>

現時点では、行のカーソル キーに空のフィールドが含まれているため、インジェスト パイプラインはテーブル '<tableName>' を取り込めません。

パイプラインの実行を続けるには、このテーブルを削除します。 エラーが解決しない場合は、チケットを提出します。

SERVICENOW_CONNECTOR_INSTANCE_HIBERNATION_ERROR

SQLSTATE: KD000

ServiceNow でエラーが発生しました。 ソース API の種類: <saasSourceApiType>

ServiceNow インスタンスに接続できませんでした。 インスタンスが休止状態または非アクティブになっているように見えます。

ServiceNow 管理ポータルにログインし、インスタンスが完全に起動するまでしばらく待ちます。

エラーが解決しない場合は、チケットを提出します。

SERVICENOW_CONNECTOR_INSTANCE_OFFLINE_ERROR

SQLSTATE: KD000

ServiceNow でエラーが発生しました。 ソース API の種類: <saasSourceApiType>

ServiceNow インスタンスに接続できませんでした。 インスタンスはオフラインです。

ServiceNow 管理ポータルにログインし、インスタンスが復元されるまでしばらく待ちます。

エラーが解決しない場合は、チケットを提出します。

SERVICENOW_CONNECTOR_INVALID_TABLE_ERROR

SQLSTATE: KD000

ServiceNow でエラーが発生しました。 ソース API の種類: <saasSourceApiType>

テーブル '<tableName>' のスキーマのクエリを実行できませんでした。 このユーザーの ServiceNow アカウントにテーブルが存在しません。

入力ミスのテーブル名を確認し、ユーザーがテーブルにアクセスするために必要なアクセス許可を持っていることを確認します。

エラーが解決しない場合は、チケットを提出します。

SERVICENOW_CONNECTOR_IP_ADDRESS_RESTRICTED_ERROR

SQLSTATE: KD000

ServiceNow でエラーが発生しました。 ソース API の種類: <saasSourceApiType>

ServiceNow インスタンスに接続できませんでした。 インスタンスには、IP アドレスのアクセス制御の制限があります。

これを解決するには、ServiceNow >> All >> System Security >> IP アドレス アクセス制御に移動して IP アドレス制限を無効にするか、サーバーレスの安定した IP を使用します

エラーが解決しない場合は、チケットを提出します。

SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR

SQLSTATE: KD000

ServiceNow でエラーが発生しました。 ソース API の種類: <saasSourceApiType>

無効な ServiceNow API エンドポイント URL が検出されました。 URL 構造が、想定される ServiceNow 形式と一致しません。

UC 接続資格情報で ServiceNow インスタンスの構成を確認します。

詳細については、SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR を参照してください

SERVICENOW_CONNECTOR_MAX_FAILED_ATTEMPTS_REACHED

SQLSTATE: KD000

ServiceNow でエラーが発生しました。 ソース API の種類: <saasSourceApiType>

これは多くの場合、テーブルのデータ フェッチに時間がかかりすぎる場合に発生します。 最初の手順として、ServiceNow 管理者と協力して、カーソル列のインデックス作成を有効にします。

カーソル列は、可用性と優先順に、sys_updated_on (第 1 選択)、sys_created_on (第 2 選択)、sys_archived (第 3 選択) の順に選択されます。

ServiceNow でインデックス作成を有効にする手順については、 https://docs.databricks.com/ingestion/lakeflow-connect/servicenow-overview#why-is-my-servicenow-ingestion-performance-slowを参照してください。

また、レコードのフェッチ時間を長くするために、REST API クエリのタイムアウトを 60 秒以上に増やすことをお勧めします。

次に、インジェスト パイプラインを再試行します。 問題が引き続き発生する場合は、サポート チケットを提出してください。

SERVICENOW_CONNECTOR_SCHEMA_FIELD_TYPE_INACCESSIBLE

SQLSTATE: KD000

ServiceNow でエラーが発生しました。 ソース API の種類: <saasSourceApiType>

管理者以外の特権でテーブル スキーマをフェッチする場合、スキーマ列のinternal_typeにはアクセスできません。

これを解決するには、テーブル 'sys_glide_object' に対する読み取りアクセス許可を現在のユーザーに付与します。

エラーが解決しない場合は、チケットを提出します。

SERVICENOW_CONNECTOR_SCHEMA_FIELD_TYPE_MISMATCH

SQLSTATE: KD000

テーブル スキーマのフェッチ中に ServiceNow でエラーが発生しました。

フィールド '<fieldName>' に対して競合する 2 つのデータ型 ('<firstDataType>' と '<secondDataType>' が見つかりました。

パイプラインの実行を続けるには、このテーブルを削除します。 エラーが解決しない場合は、チケットを提出します。

SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR

SQLSTATE: KD000

ServiceNow でエラーが発生しました。 ソース API の種類: <saasSourceApiType>

詳細については、SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR を参照してください。

SET_TBLPROPERTIES_NOT_ALLOWED_FOR_PIPELINE_TABLE

SQLSTATE: 0AKLT

ALTER <commandTableType> ... SET TBLPROPERTIES はサポートされていません。 テーブルのプロパティを変更するには、元の定義を変更して更新を実行してください。

SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE

SQLSTATE: KD000

Salesforce API クエリ ジョブに時間がかかりすぎたり、失敗したり、手動で取り消されたりしたため、オブジェクト <objName> の取り込みは不完全です。

詳細については、SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE を参照してください

SFDC_CONNECTOR_BULK_QUERY_NOT_FOUND

SQLSTATE: KD000

Salesforce 一括 API クエリ ジョブが見つからなかったため、オブジェクト <objName> のインジェストが失敗しました。

これは、ジョブが Salesforce UI で削除されたか、最後のパイプラインの更新から 7 日を超えてから削除され、その後、Salesforce によってジョブが自動的に削除されたことが原因である可能性があります。

新しい一括ジョブをトリガーするには、特定の宛先テーブルに対して FULL REFRESH を実行してください。

SFDC_CONNECTOR_CREATE_BULK_QUERY_API_LIMIT_EXCEEDED

SQLSTATE: KD000

Salesforce API 呼び出しでエラーが発生しました: API の制限を超えました

API の制限がリセットされるまで待ってください。 次に、変換先テーブルを更新してみてください。

エラーが解決しない場合は、チケットを提出します。

SFDC_CONNECTOR_CREATE_BULK_QUERY_JOB_FAILED

SQLSTATE: KD000

Salesforce 一括 API クエリ ジョブの作成に失敗したため、オブジェクト <objName> の取り込みは不完全です。 エラー コード: <saasSourceApiErrorCode>

<actionText>

SFDC_CONNECTOR_不正形式のレコード

SQLSTATE: KD000

Salesforce オブジェクト '<objName>' の取り込みに失敗しました。Salesforce <saasSourceApiType> 、形式が正しくないレコードが返されました。

詳細については、stacktrace を確認してください。

Salesforce のデータを確認し、パイプラインを再実行します。

SINKS_NOT_SUPPORTED_IN_SEG

SQLSTATE: 0A000

パイプライン内の Lakeflow Spark 宣言型パイプライン シンクは、サーバーレス エグレス制御が有効なワークスペースではサポートされていません。 サポートされている Lakeflow Spark 宣言パイプライン シンクは、Kafka と Delta です。

次のサポートされていないシンクが見つかりました。 <sinkNames>、対応する形式は <sinkFormats> です。

SOURCE_TABLE_NOT_MATERIALIZED

SQLSTATE: 42704

依存データセット '<sourceTableName>' が具体化されていないため、読み取れませんでした。 パイプライン全体を実行して、すべての依存データセットを具体化します。

SPARK_CONNECT_DEFINITION_PATH_NOT_FOUND

SQLSTATE: 42000

グラフ要素 '<graphElementName>' の定義パスが見つかりません。 Databricks サポートにお問い合わせください。

SPARK_CONNECT_DEFINITION_PATH_NOT_FOUND_SPARK_SQL

SQLSTATE: 42000

現在の Spark SQL 実行コンテキストでは、パイプライン定義パスを使用できません。 Databricks サポートにお問い合わせください。

SPARK_CONNECT_UNSUPPORTED_FLOW_DEFINITION_ERROR

SQLSTATE: 42000

フロー定義はサポートされていません。 Databricks サポートにお問い合わせください。 コマンド: <defineFlowCommand>

SPARK_CONNECT_UNSUPPORTED_OUTPUT_TYPE

SQLSTATE: 42000

出力の種類 '<outputType>' は、Spark Connect ではサポートされていません。 Databricks サポートにお問い合わせください。

STANDALONE_PRIVATE_MVST_NOT_SUPPORTED

SQLSTATE: 0A000

スタンドアロン PRIVATE MV/ST の作成はサポートされていません。 PRIVATE修飾子を削除してください

Python REPLの開始がタイムアウトしました

SQLSTATE: 53000

Python REPL が開始されるのを待っている間にタイムアウトします。 <timeoutSeconds>秒より長い時間がかかりました。

STREAMING_TARGET_NOT_DEFINED

SQLSTATE: 42P01

<target> コマンドのターゲット テーブルの<command>が見つかりません。 ターゲット テーブル <target> はパイプラインで定義されていません。

SYNCED_TABLE_USER_ERROR

SQLSTATE: 42000

同期されたテーブル パイプラインのユーザー エラー。

詳細については、SYNCED_TABLE_USER_ERRORを参照してください。

TABLE_CHANGED_DURING_OPERATION

SQLSTATE: 55019

テーブル <tableName> がこのトランザクションの外部で変更され、このトランザクションがロールバックされました。 操作を再試行してください。

TABLE_MATERIALIZATION_CYCLIC_FOREIGN_KEY_DEPENDENCY

SQLSTATE: 42887

パイプライン <pipelineId> のパイプライン更新で、外部キー制約の循環チェーン <tables> が検出されました。

TABLE_SPEC_BOTH_CATALOG_SCHEMA_REQUIRED

SQLSTATE: 42000

TableSpec にソース カタログまたはソース スキーマの 1 つがありません。

テーブルの仕様詳細:

<tableSpec>

TABLE_SPEC_EMPTY_CATALOG

SQLSTATE: 3D000

TableSpec には、カタログ フィールドに空の文字列があります。

空の文字列を削除するか、カタログ名を追加してください。 (このテーブルがソース内のカタログに属していない場合は、フィールドを設定しないでください)。

テーブルの仕様詳細:

<tableSpec>

TABLE_SPEC_EMPTY_SCHEMA

SQLSTATE: 3F000

TableSpec には、スキーマ フィールドに空の文字列があります。

空の文字列を削除するか、スキーマ名を追加してください。 (このテーブルがソース内のスキーマに属していない場合は、フィールドを設定しないでください)。

テーブルの仕様詳細:

<tableSpec>

TABLE_SPEC_EMPTY_TABLE

SQLSTATE: 42601

テーブル名が空です。 テーブル名を指定してください。

テーブルの仕様詳細:

<tableSpec>

TABLE_TOKEN_NOT_EXIST_FOR_SCHEMA_EVOLUTION_LEGACY_TABLE

SQLSTATE: 42KD4

メタデータがないため、スキーマの進化を有効にできません。 完全な更新をトリガーしてください。

理由: スキーマの進化が有効になっている場合は、スナップショット テーブル トークンを定義する必要があります。

ワークスペースで破棄されたパイプライン

SQLSTATE: 42000

パイプラインが削除されたか、ごみ箱に移動されているため、開始できません。

TRIGGER_INTERVAL_VALUE_INVALID

SQLSTATE: 22003

トリガー間隔は正の期間である必要があります。許容される最大値は 2,147,483,647 秒です。 <actual> 秒を受け取りました。

トリガーが有効化されていません

SQLSTATE: 0A000

このワークスペースではトリガーが有効になっていません。 [プレビュー] ページでテーブル トリガーを有効にしてください。

TRIGGER_ON_VIEW_READ_FROM_FILE_NOT_SUPPORTED

SQLSTATE: 0A000

ソース <source> は、現在トリガーでサポートされていないファイルの場所から読み取るビューです。

TRIGGER_REQUEST_シリアライズエラー

SQLSTATE: 54000

要求の処理中に問題が発生しました。 Databricks サポートにお問い合わせください。

TRIGGER_SECURABLE_KIND_サポートされていません

SQLSTATE: 0A000

トリガーのセットアップに失敗しました: サポートされていないテーブルの種類。 サポートされている型については、ドキュメントを参照してください。

TRIGGER_SOURCE_TYPE_NOT_SUPPORTED

SQLSTATE: 0A000

<source> のソース <type> は、現在、トリガーではサポートされていません。

TRIGGER_STATE_SERIALIZATION_ERROR

SQLSTATE: 54000

要求の処理中に問題が発生しました。 Databricks サポートにお問い合わせください。

トリガーテーブル上限超過

SQLSTATE: 54000

トリガーのセットアップに失敗しました。トリガーには、許可された制限を超えるテーブルが含まれています。 テーブルの制限とこの問題を解決する方法の詳細については、ドキュメントを参照してください。

TRIGGER_TABLE_TYPE_NOT_SUPPORTED(トリガーテーブルタイプはサポートされていません)

SQLSTATE: 0A000

トリガーのセットアップに失敗しました: サポートされていないテーブルの種類。 サポートされている型については、ドキュメントを参照してください。

UC_CLEARING_TARGET_SCHEMA_NOT_ALLOWED

SQLSTATE: 0AKD0

UC パイプラインでターゲット スキーマ フィールドをクリアすることはできません。 理由: <reason>

UC_IAM_ROLE_NON_SELF_ASSUMING

SQLSTATE: 22023

ストレージ資格情報の IAM ロールは、自己想定外であることが判明しました。

ロールの信頼と IAM ポリシーをチェックして、IAM ロールが Unity Catalog ストレージ認証情報のドキュメントに従ってそれ自体を引き受けることができることを確認してください。

UC_NOT_ENABLED

SQLSTATE: 0A000

Lakeflow Spark 宣言パイプラインでの UC カタログの使用は有効になっていません。

UC_PIPELINE_CANNOT_PUBLISH_TO_HMS

SQLSTATE: 42000

UC 対応パイプラインは Hive メタストアに発行できません。 別のターゲット カタログを選択してください。

UC_TARGET_SCHEMA_REQUIRED

SQLSTATE: 0AKD0

ターゲット スキーマ フィールドは、UC パイプラインに必要です。 理由: <reason>

UNABLE_TO_INFER_TABLE_SCHEMA

SQLSTATE: 42KD9

アップストリーム フローからテーブル <tableName> のスキーマを推論できませんでした。

スキーマに互換性を持たせるために、このテーブルに書き込むフローを変更してください。

これまでに推論されたスキーマ:

<inferredDataSchema>

互換性のないスキーマ:

<incompatibleDataSchema>

UNEXPECTED_PIPELINE_SCHEMA_PERMISSION_ERROR

SQLSTATE: 42501

パイプライン <pipelineId>のスキーマのアクセス許可を確認中に予期しないエラーが発生しました。 Databricks サポートにお問い合わせください。

_ROW_FILTERS_または_COLUMN_MASKS_で設定できないユニフォーム互換性

SQLSTATE: 42000

行フィルターまたは列マスクが適用されている具体化されたビューまたはストリーミング テーブルでは、統一互換性を設定できません。

UNITY_CATALOG_INITIALIZATION_FAILED

SQLSTATE: 56000

クラスター <clusterId>でパイプラインを設定中に Unity カタログでエラーが発生しました。

Unity カタログの構成が正しいこと、および必要なリソース (カタログ、スキーマなど) が存在し、アクセス可能であることを確認します。

また、クラスターに Unity カタログにアクセスするための適切なアクセス許可があることを確認します。

詳細: <ucErrorMessage>

UNRESOLVED_SINK_PATH

SQLSTATE: 22KD1

シンク <identifier> のストレージ パスを解決できません。 Databricks サポートにお問い合わせください。

UNRESOLVED_TABLES_FOR_MAINTENANCE

SQLSTATE: 55000

次の表はパイプライン定義で見つかりましたが、メンテナンス中に解決できませんでした。 最新のパイプライン定義でパイプライン更新の実行を実行して、パイプライン定義内のすべてのテーブルを具体化してメンテナンスのブロックを解除するか、問題が解決しない場合は Databricks サポートにお問い合わせください。

<unresolvedTableIdentifiersSet>

UNRESOLVED_TABLE_PATH

SQLSTATE: 22KD1

テーブル <identifier> のストレージ パスを解決できません。 Databricks サポートにお問い合わせください。

UNSUPPORTED_ALTER_COMMAND

SQLSTATE: 0A000

ALTER <commandTableType> ... <command> はサポートされていません。

UNSUPPORTED_CHANNEL_FOR_DPM

SQLSTATE: 0A000

直接発行モードでサポートされていないチャネル。 "CURRENT" または "PREVIEW" チャネルが予期されましたが、"PREVIOUS" が得られました

UNSUPPORTED_COMMAND_IN_NON_DPM_PIPELINE

SQLSTATE: 0A000

<command> 直接発行モードでのみサポートされる Spark 宣言パイプライン

UNSUPPORTED_COMMAND_IN_QUERY_DEFINITION

SQLSTATE: 0A000

'<command>' はクエリ定義ではサポートされていません。 クエリ定義の外部にコマンドを移動してください。 Python の Spark 宣言型パイプラインの場合は、デコレーターの外部に '<command>' @dlt.table()/@dlt.view() 移動します。 Scala の Spark 宣言パイプラインの場合は、'query' メソッドの外側に '<command>' を移動します。

UNSUPPORTED_CUSTOM_DBR_VERSION

SQLSTATE: 42000

カスタム DBR バージョン '<v>' は、 SHIELD ワークスペースと HIPAA ワークスペースではサポートされていません。 [<supportedDbrVersions>] のいずれかが必要です

UNSUPPORTED_CUSTOM_SCHEMA_PREVIEW(サポートされていないカスタムスキーマのプレビュー)

SQLSTATE: 0A000

カスタム スキーマプライベートプレビューは無効になっています。

"schema" フィールドを使用して、既定の発行モードで新しいパイプラインを作成してください

を選択し、データセットをこのパイプラインから新しいパイプラインに移動します。

未サポートのカスタムスキーマプレビュー有効化

SQLSTATE: 0A000

カスタム スキーマプライベートプレビューは無効になっており、パイプラインにプレビューを追加することはできません。

パイプライン構成から <sparkConfKeys> を削除してください。

UNSUPPORTED_DBR_VERSION

SQLSTATE: 42000

DBR バージョン '<v>' はサポートされていません。 [<supportedDbrVersions>] のいずれかが必要です

UNSUPPORTED_FEATURE_FOR_WORKSPACE

SQLSTATE: 0A000

<featureName> はワークスペースではサポートされていません。 ワークスペースでこの機能を有効にするには、Databricks サポートにお問い合わせください。

UNSUPPORTED_LANGUAGE

SQLSTATE: 0A000

<language> のノートブック '<notebookPath>' を読み込めませんでした。 現在、<supportedLanguages> ノートブックのみがサポートされています。

UNSUPPORTED_LIBRARY_FILE_TYPE

SQLSTATE: 0A000

<path>のファイルには、.pyまたは.sqlサフィックスがありません。 パイプラインでは、Python ファイルと SQL ファイルのみがサポートされます。

UNSUPPORTED_LIBRARY_NOTEBOOK_LANGUAGE

SQLSTATE: 0A000

ノートブック <language>でサポートされていない言語<path>。 パイプラインでは Python と SQL のみがサポートされています

UNSUPPORTED_LIBRARY_OBJECT_TYPE

SQLSTATE: 0A000

パス <path> に含まれる型は、サポートされていない <objectType> です。 現時点では、ライブラリとして使用できるのはノートブックとファイルだけです。 この問題を解決するには、サポートされていないオブジェクトを削除するか、このパイプライン用に構成されたライブラリを更新して、サポートされているオブジェクトの種類のみが含まれるようにします。

UNSUPPORTED_MANAGED_INGESTION_SOURCE_TYPE

SQLSTATE: 0A000

マネージド インジェスト パイプライン定義が無効です。サポートされていないソースの種類: <sourceType>

UNSUPPORTED_MULTIPLE_UPDATE_TYPE

SQLSTATE: 0A000

更新プログラムの検証のみ、探索のみ、および巻き戻しは相互に排他的です。 最大 1 つを設定する必要があります。

UNSUPPORTED_REWIND

SQLSTATE: 0A000

このワークスペースでは、巻き戻し操作はまだ有効になっていません。

UNSUPPORTED_SAAS_INGESTION_TYPE

SQLSTATE: 0A000

指定されたインジェストの種類 <ingestionType> はサポートされていません。

この問題が解決しない場合は、Databricks サポートにお問い合わせください。

UNSUPPORTED_SPARK_SQL_COMMAND

SQLSTATE: 0A000

'<command>' は、Lakeflow Spark 宣言パイプライン Python の spark.sql("...") API ではサポートされていません。 サポートされているコマンド: <supportedCommands>.

UNSUPPORTED_SQL_STATEMENT

SQLSTATE: 0A000

<datasetType> '<datasetName>' のサポートされていない SQL ステートメント: <operation>はサポートされていません。

UPDATED_DEFINITION_SET_FOR_NON_DBSQL_PIPELINE

SQLSTATE: 42000

DBSQL パイプラインだけが updated_definition を含むことができます。

USE_CATALOG_IN_HMS

SQLSTATE: 0A000

USE CATALOG UC 対応 Spark 宣言パイプラインでのみサポートされます

VIEW_TEXT_NOT_SAVED_IN_UC

SQLSTATE: 42000

Unity カタログにクエリが保存されていないため、テーブル <tableName> を更新できません。 Databricks サポートにお問い合わせください。

WORKDAY_HCM_CONNECTOR_FETCH_BATCH_FAILED

SQLSTATE: KD000

Workday HCM でエラーが発生しました。 ソース API の種類: <saasSourceApiType>

オフセット '<offset>' でバッチをフェッチできませんでした。

変換先テーブルを更新してみてください。 問題が解決しない場合は、チケットを提出してください。

WORKDAY_REPORTS_CONNECTOR_INSUFFICIENT_OAUTH_SCOPE_ERROR

SQLSTATE: KD000

Workday レポートでエラーが発生しました。 ソース API の種類: <saasSourceApiType>

レポート '<reportUrl>' のデータを取得できませんでした。 OAuth クライアントには、レポートを取得するための十分なスコープ アクセス権がありません。

これを解決するには、OAuth クライアントに Workday で必要なスコープが構成されていることを確認します。

エラーが解決しない場合は、チケットを提出します。

WORKDAY_REPORTS_CONNECTOR_MISSING_REQUIRED_PARAMS_ERROR - 必須パラメータが不足しているエラーです。

SQLSTATE: KD000

Workday レポートでエラーが発生しました。 ソース API の種類: <saasSourceApiType>

Workday レポート '<reportUrl>' には、パラメーター '<missingParam>' が必要です。

レポートのすべてのパラメーターが URL に含まれていることを確認します。Workday レポートの構成を確認して、必須のパラメーターを特定できます。

問題が引き続き発生する場合は、サポート チケットを提出してください。

WORKDAY_REPORTS_CONNECTOR_REPORT_NOT_FOUND_ERROR

SQLSTATE: KD000

Workday レポートでエラーが発生しました。 ソース API の種類: <saasSourceApiType>

レポート URL '<reportUrl>' が正しくありません。 問題を解決するには、ベース URL またはレポート名に入力ミスがないか確認してください。

問題が引き続き発生する場合は、サポート チケットを提出してください。

ワークデイレポートコネクタレポートサイズ超過エラー

SQLSTATE: KD000

Workday レポートでエラーが発生しました。 ソース API の種類: <saasSourceApiType>

URL '<reportUrl>' のレポートのサイズが 2 GB を超えています。 レポートのサイズがこの制限を超えていないことを確認してください。

問題が引き続き発生する場合は、サポート チケットを提出してください。

WORKDAY_REPORTS_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR

SQLSTATE: KD000

Workday レポートでエラーが発生しました。 ソース API の種類: <saasSourceApiType>

詳細については、WORKDAY_REPORTS_CONNECTOR_UNAUTHORIZED_ACCESS_ERRORを参照してください。

WORKDAY_REPORT_URL_EMPTY

SQLSTATE: 42000

Workday レポートの URL が空です。 少なくとも 1 つのレポートを指定する必要があります。

WORKSPACE_QUOTA_EXCEEDED

SQLSTATE: 54000

このワークスペースで既に '<updateId>' アクティブなパイプラインが実行されているため、'<maxActiveUpdates>' の更新を開始できません。

Installation

ERROR_BASE_ENVIRONMENT_FILE_NOT_FOUND

SQLSTATE: 割り当てなし

基本環境の YAML ファイルがありません。 指定したパスにファイルが存在することを確認してください。

説明: 必要な基本環境の YAML ファイルが予期された場所に見つからない場合に発生します。

推奨されるアクション: 基本環境の YAML ファイルが指定されたパスに存在することを確認し、インストールを再試行します。

ERROR_BASE_ENVIRONMENT_FILE_READ

SQLSTATE: 割り当てなし

YAML ファイルの構文または形式が正しくないため、基本環境ファイルを読み取れませんでした。 ファイルの内容を確認してください。

説明: 基本環境の YAML ファイルに構文または形式エラーが含まれている場合に発生します。

推奨されるアクション: 環境ファイルの YAML 構文を検証して修正してから、インストールを再試行してください。

ERROR_CONNECTION_REFUSED

SQLSTATE: 割り当てなし

パッケージ リポジトリに接続できません。 ネットワーク接続、ファイアウォール設定、またはリポジトリの可用性を確認します。

説明: ネットワークの問題、ファイアウォールの制限、またはリポジトリのダウンタイムが原因で、pip がリモート パッケージ リポジトリへの接続を確立できない場合に発生します。

推奨されるアクション: ネットワーク接続を確認し、ファイアウォールまたはプロキシ設定を確認し、リポジトリ URL にアクセスできるかどうかを確認し、リポジトリが一時的に使用できない可能性がある場合は、後でもう一度やり直してください。

コアパッケージのバージョン変更エラー

SQLSTATE: 割り当てなし

インストールされているパッケージは、Databricks コア パッケージと互換性がありません。 パッケージのバージョンをプレインストールされているライブラリ のバージョンに合わせて、インストールを再試行してください。

説明: Databricks のコア依存関係 (pyspark など) のバージョンが変更されたときに発生します。

推奨されるアクション: インストールされているパッケージのバージョンをプレインストール済みライブラリに合わせて、インストールを再試行します。

ERROR_CRAN_PACKAGE_NOT_AVAILABLE

SQLSTATE: 割り当てなし

CRAN パッケージは、このコンピューティングにプレインストールされている R バージョンでは使用できません。

説明: コンピューティングにインストールされている R バージョンの R パッケージが発行されていない場合に発生します。

推奨されるアクション: 互換性のある R バージョンのコンピューティングに切り替えるか、別のパッケージ バージョンを選択します。

エラー_DBFS_無効

SQLSTATE: 割り当てなし

パブリック DBFS ルート アクセスが無効になっています。 代替ストレージを使用してください。

説明: DBFS からライブラリをインストールしようとしても、パブリック DBFS ルートがワークスペースで無効になっている場合に発生します。

推奨されるアクション: UC ボリューム、ワークスペース ファイル、リモート ストレージなどの代替ストレージの場所を使用します。

ERROR_DIRECTORY_NOT_INSTALLABLE (ディレクトリはインストールできません)

SQLSTATE: 割り当てなし

Python パッケージ構造が無効なため、ディレクトリはインストールできません。 ディレクトリが正しく設定されていることを確認してください。

説明: 有効な Python パッケージ構造を持たないディレクトリに対して pip インストールが実行されるときに発生します。

推奨されるアクション: ディレクトリに setup.py または pyproject.toml が含まれていることを確認し、再試行するか、ホイールとしてパッケージ化します。

重複インストールエラー

SQLSTATE: 割り当てなし

重複するパッケージのインストールが検出されました。 パッケージの重複するパッケージ エントリを削除して、クラスターを再起動してください。

説明: クラスターに同じパッケージが既にインストールされていて、重複したインストールが試行された場合に発生します。

推奨されるアクション: 重複するパッケージ エントリを削除し、クラスターを再起動します。

ERROR_FEATURE_DISABLED

SQLSTATE: 割り当てなし

Unity カタログ ボリュームはワークスペースで無効になっています。 この機能を有効にするには、ワークスペース管理者に問い合わせてください。

説明: ワークスペースで Unity カタログ ボリュームが無効になっているときに発生し、UC ボリュームからのインストールが妨げられます。

推奨されるアクション: ワークスペース管理者に連絡して Unity カタログ ボリュームを有効にするか、代替ストレージを使用してください。

ERROR_HASH_MISMATCH

SQLSTATE: 割り当てなし

パッケージ ハッシュの不一致が検出されました。 ダウンロードしたパッケージのハッシュが、想定されるハッシュと一致しません。

説明: ダウンロードしたパッケージのハッシュが予想されるハッシュと一致しない場合に発生します。

推奨されるアクション: インストールを再試行するか、クラスターを再起動するか、大規模なパッケージ インストールをワークスペース ファイル、UC ボリューム、またはプライベート PyPI リポジトリに移動します。

ERROR_INVALID_FILE (無効なファイル)

SQLSTATE: 割り当てなし

ファイルの種類が正しくないため、指定したファイルをインストールできません。 有効でサポートされているファイルの種類を使用していることを確認してください。

説明: ファイルの種類または形式が正しくないため、指定したライブラリ ファイルをインストールできない場合に発生します。

推奨されるアクション: サポートされているライブラリ ファイルの種類 (wheel、jar など) を使用し、パスの有効性を確認します。

要求が無効です

SQLSTATE: 割り当てなし

要件ファイルまたはパッケージの依存関係の構文が正しくないか、形式が正しくありません。 要件ファイルとパッケージの依存関係の内容を確認して修正します。

説明: 要件ファイルまたはパッケージの依存関係の仕様で、無効または形式が正しくない要件形式が検出されました。

推奨されるアクション: 要件ファイルで正しい形式 (例: 'library-name==version') を使用し、パッケージの依存関係の形式が有効であることを確認し、入力ミスまたはサポートされていないバージョン指定子を確認します。

ERROR_INVALID_SCRIPT_ENTRY_POINT

SQLSTATE: 割り当てなし

スクリプト エントリ ポイントが無効です。 パッケージエントリポイントまたは setup.py ファイルを確認してください。

説明: 指定されたコンソール スクリプト エントリ ポイントがパッケージ メタデータに存在しない場合に発生します。

推奨されるアクション: setup.py または pyproject.toml のエントリ ポイント名を確認するか、パッケージ保守担当者に問い合わせてください。

ERROR_INVALID_STORAGE_CONFIGURATION(無効なストレージ構成)

SQLSTATE: 割り当てなし

クラウド ストレージ アカウントに対して無効なストレージ構成値が検出されました。 ストレージの構成、アカウントの設定、資格情報を確認してください。

説明: クラウド ストレージ アカウントの設定が不正確または誤っている場合に発生します。

推奨されるアクション: アカウントのストレージ構成を修正し、インストールを再試行します。

ERROR_INVALID_USER_INPUT

SQLSTATE: 割り当てなし

指定されたパッケージ構文または引数が無効です。 ライブラリのインストールの入力とオプションが有効であることを確認してください。

説明: pip が無効なオプションまたは引数で呼び出されたときに発生します。

推奨されるアクション: pip オプションとコマンド構文を確認し、入力を修正して、インストールを再試行します。

ERROR_INVALID_WHEEL: ホイールが無効です

SQLSTATE: 割り当てなし

破損している、形式が正しくない、または無効なホイール ファイルが検出されました。 ホイール ファイルを確認するか、インストールを再試行してください。

説明: pip がインストール中に、破損した、不完全、または形式が正しくないホイール ファイルを検出したときに発生します。

推奨されるアクション: pip キャッシュをクリアし、ホイール、resintall を再ダウンロードまたはリビルドし、再試行する前にその整合性を確認します。

ERROR_JAR_EVICTED

SQLSTATE: 割り当てなし

バージョンの競合により、JAR パッケージがリゾルバーによって削除されました。 依存関係のバージョンの競合を解決してください。

説明: バージョンが他の依存関係と競合するため、Maven の依存関係解決によって jar が削除されたときに発生します。

推奨されるアクション: 依存関係の構成での競合を解決するか、明示的なバージョンのオーバーライドを使用します。

ERROR_MAVEN_LIBRARY_RESOLUTION

SQLSTATE: 割り当てなし

Maven ライブラリ座標を解決できません。 ライブラリの詳細、リポジトリへのアクセス、または Maven リポジトリの可用性を確認します。

説明: 座標、ネットワークの問題、またはリポジトリのダウンタイムが正しくないため、Maven で指定されたライブラリが見つからないか解決できない場合に発生します。

推奨されるアクション: groupId:artifactId:version 形式の確認、リポジトリの URL と資格情報の確認、別のリポジトリの試用、またはリポジトリが一時的に使用できない可能性がある場合は、後でもう一度やり直してください。

ERROR_NO_MATCHING_DISTRIBUTION

SQLSTATE: 割り当てなし

通常、構成の誤り、依存関係の不足、接続の問題が原因で、指定されたクラウド ストレージ資産をダウンロードまたはアクセスできません。 クラウド ストレージのセットアップを確認してください。

説明: クラスターがクラウド ストレージからライブラリ ファイルをダウンロードまたはインストールできない場合に発生します。通常、構成の誤り、依存関係の不足、またはネットワークの問題が原因です。

推奨されるアクション: クラウド ストレージ URI が正しいこと、資格情報が有効であること、必要なネットワーク プロキシまたはライブラリが適切に構成されていることを確認してから、インストールを再試行します。

ファイルまたはディレクトリが存在しません

SQLSTATE: 割り当てなし

ライブラリ ファイルが存在しないか、ユーザーにライブラリ ファイルを読み取る権限がありません。 ライブラリ ファイルが存在し、ユーザーがファイルにアクセスするための適切なアクセス許可を持っているかどうかを確認してください。

説明: ライブラリのインストール中に、指定したファイルが見つからないか、指定されたパスにアクセスできない場合に発生します。

推奨されるアクション: 指定したパスにファイルが存在することを確認し、パスを修正するか、不足しているファイルをアップロードして、適切なアクセス許可を確認します。

操作がサポートされていません (ERROR_OPERATION_NOT_SUPPORTED)

SQLSTATE: 割り当てなし

ライブラリのインストールは、要求されたファイルシステムからこの種類のファイルに対してサポートされていません。 ライブラリの種類を確認し、現在のコンピューティングでサポートされているライブラリに関するユーザー ガイドを参照してください。

説明: ターゲット ファイル システム、ファイルの種類、またはコンピューティングの種類が、インストール中に要求された操作をサポートしていない場合に発生します。

推奨されるアクション: サポートされているファイル システム、ファイルの種類、またはコンピューティングの種類を使用するか、サポートされている場所にインストール ターゲットを調整します。

エラー_PERMISSION_DENIED

SQLSTATE: 割り当てなし

ユーザーには、パッケージをインストールするための十分なアクセス許可がありません。 ユーザーのファイルとディレクトリのアクセス権を確認してください。

説明: インストール中に、インストールしているユーザーにファイルまたはディレクトリの読み取りまたは書き込みのアクセス許可がない場合に発生します。

推奨されるアクション: ターゲット ディレクトリに対する適切なアクセス許可を確認して付与するか、システム管理者に問い合わせてください。

ERROR_PIP_CONFIG

SQLSTATE: 割り当てなし

ユーザーが Python ライブラリをインストールしようとしましたが、クラスターまたはワークスペース レベルの pip 構成ファイルに構文エラーがあるか、形式が正しくありません。 pip 構成ファイルを確認して修正してください。

説明: pip の構成ファイルに構文エラーがあるか、形式が正しくない場合に発生します。

推奨されるアクション: pip 構成ファイルの構文エラーを修正し、既定の設定を使用するように構成ファイルを削除し、クラスターを再起動して、インストールを再試行します。

ERROR_PYTHON_REPL_RESTORE_FAILURE

SQLSTATE: 割り当てなし

パッケージのインストール後、Python REPL の復元に失敗しました。

説明: 通常、コア Python パッケージが、復元中にランタイム環境を中断する方法で更新されるときに発生します。

推奨されるアクション: 最近インストールされたパッケージを確認し、numpy、pandas、pyspark、その他の標準ライブラリなどの Databricks Environment の既定値と互換性のあるパッケージをインストールします。 バージョンが Databricks Runtime のバージョンと互換性があることを確認します。 それでも失敗する場合は、Databricks サポートにお問い合わせください。

ERROR_REQUIREMENTS_FILE_INSTALLATION

SQLSTATE: 割り当てなし

Unity カタログ ボリュームまたはワークスペース ファイル参照を含む requirements.txt ファイルは、UC 対応以外のクラスターではサポートされていません。 UC 対応クラスターを使用して、UC ボリュームまたはワークスペース ファイルを参照する requirements.txt をインストールしてください。

説明: requirements.txt が UC 非対応クラスター上の UC ボリュームまたはワークスペース ファイル参照を含む場合に発生します。

推奨されるアクション: ワークスペースまたは UC ファイルを参照する requirements.txt に UC 対応クラスターを使用するか、それらの参照を削除します。

ERROR_REQUIRE_HASHES

SQLSTATE: 割り当てなし

pip が --require-hashes モードで実行される際に、ある要件にハッシュが指定されていない場合、ハッシュが欠けています。 ハッシュ要件に対処するか、ハッシュ チェックを無効にしてください。

説明: pip が --require-hashes モードで実行され、要件にハッシュがない場合に発生します。

推奨されるアクション: requirements.txt 内のすべてのパッケージのハッシュを追加するか、--require-hashes フラグを削除します。

ERROR_RESTART_PYTHON

SQLSTATE: 割り当てなし

Python プロセスを再起動できませんでした。 これは、プレインストールされているランタイム ライブラリと競合するパッケージのバージョンの更新が原因である可能性があります。 パッケージの依存関係とそのバージョンを確認して調整してください。

説明: 多くの場合、インストールされているパッケージとプレインストールされている Databricks ランタイム ライブラリの間の競合が原因で、ライブラリのインストール後に Python 環境を再起動できない場合に発生します。

推奨されるアクション: 競合や Python の再起動エラーを回避するために、インストールされているパッケージバージョンをプレインストールされている Databricks ランタイム ライブラリに合わせます。

エラー_再起動_SCALA (ERROR_RESTART_SCALA)

SQLSTATE: 割り当てなし

Scala プロセスを再起動できませんでした。 これは、Scala JAR の Scala バージョンの不一致が原因である可能性があります (たとえば、2.13 カーネルで 2.12 jar を実行しています)。 Scala のバージョンを確認して配置してください。

説明: Scala JAR での Scala バージョンの不一致の競合が原因で、Scala 環境を再起動できない場合に発生します。

推奨されるアクション: 競合や Scala の再起動エラーを回避するために、JAR Scala のバージョンをカーネル scala バージョンに合わせます。

ERROR_S3_FORBIDDEN

SQLSTATE: 割り当てなし

S3 リソースへのアクセスが拒否されました。 IAM のアクセス許可とバケットポリシーを確認します。

説明: クラスターの AWS 資格情報には、指定された S3 リソースにアクセスするための十分なアクセス許可がありません。

推奨されるアクション: S3 バケット ポリシーまたは IAM ロールを確認して更新し、必要な読み取りアクセス権をクラスターに付与します。

ERROR_SCALA_INSTALLATION

SQLSTATE: 割り当てなし

アクセス許可の問題またはファイルが見つからないため、Java の依存関係をインストールできませんでした。

説明: 無効なパス、URL、またはファイルのアクセス許可が不十分なため、Java の依存関係をインストールできない場合に発生します。

推奨されるアクション: ファイルのパスと URL を確認し、適切なアクセス許可を確認して、インストールを再試行します。

ERROR_SETUP_PY_FAILURE

SQLSTATE: 割り当てなし

互換性の問題、依存関係の不足、または構成エラーのため、Python パッケージの setup.py が正常に実行されませんでした。 依存関係のセットアップ ファイルを確認してください。

説明: パッケージの setup.py スクリプトが互換性の問題、依存関係の不足、または構成エラーによって失敗した場合に発生します。

推奨されるアクション: パッケージのバージョンの更新、不足している依存関係のインストール、非推奨のパッケージの置き換え、setup.py スクリプトの確認。

ERROR_SSL_VIOLATION

SQLSTATE: 割り当てなし

Pip で SSL ハンドシェイクまたは証明書検証の問題が発生しました。 コンピューティングまたはワークスペースの SSL 構成と証明書を確認してください。

説明: pip がパッケージ リポジトリに接続するときに SSL ハンドシェイクまたは証明書検証の問題が発生したときに発生します。

推奨されるアクション: SSL 証明書が有効であることを確認するか、pip で信頼されたホストを構成するか、ネットワーク SSL 設定を確認します。

ERROR_UC_ASSET_NOT_FOUND (アセットが見つかりません)

SQLSTATE: 割り当てなし

Unity Catalog オブジェクトが見つかりません。 カタログ、スキーマ、ボリュームが存在するかどうかを確認します。

説明: 指定された Unity カタログ ボリューム、カタログ、またはスキーマが存在しないか、アクセスできない場合に発生します。

推奨されるアクション: Unity カタログ のオブジェクト パスが正しく、オブジェクトがアカウントに存在するかどうかを確認します。

ERROR_UNSUPPORTED_LIBRARY_TYPE(サポートされていないライブラリタイプエラー)

SQLSTATE: 割り当てなし

ライブラリの種類は、このコンピューティングではサポートされていません。 コンピューティングの種類について、サポートされているライブラリを確認してください。

説明: 選択したコンピューティングと互換性のないライブラリの種類をインストールしようとしたときに発生します。

推奨されるアクション: このコンピューティングでサポートされているライブラリの種類を使用するか、この libraryType をサポートするコンピューティングに切り替えます。

ERROR_UNSUPPORTED_PYTHON_VERSION (サポートされていないPythonバージョンエラー)

SQLSTATE: 割り当てなし

Python ライブラリは、このコンピューティングの Python バージョンと互換性がありません。 互換性のある Python バージョンのコンピューティングを使用してください。

説明: パッケージの python_requires 制約が、コンピューティングで実行されている Python バージョンと一致しない場合に発生します。

推奨されるアクション: 現在の Python バージョンをサポートするパッケージ バージョンをインストールするか、コンピューティング バージョンを変更します。

ERROR_UNSUPPORTED_SSL_ENABLED(サポートされていないSSLが有効になっています)

SQLSTATE: 割り当てなし

spark.ssl.enabled 構成が有効になっている場合、インストールは失敗します。これはライブラリのインストールではサポートされていません。 SSL 構成を無効にし、クラスターを再起動します。

説明: spark.ssl.enabled 構成が有効になっているときに発生します。これは、ライブラリのインストールではサポートされていません。

推奨されるアクション: SSL 構成を無効にして (たとえば、spark.ssl.enabled=false を設定するか、spark.databricks.libraries.ignoreSSL=true を設定します)、クラスターを再起動します。

エラー_ワークスペースにユーザーが見つかりません

SQLSTATE: 割り当てなし

ユーザーがワークスペースに見つからなかったため、ライブラリのインストールに失敗しました。 これは通常、ユーザーがワークスペースから削除されたが、トークンがまだ使用されている場合に発生します。

説明: ユーザーのアクセス トークンが使用されているが、指定したワークスペースにユーザーが存在しなくなった場合に発生します。

推奨されるアクション: ユーザーがワークスペースにアクセスできることを確認するか、有効なユーザーの資格情報を使用するようにクラスター構成を更新します。

ボリュームの権限が拒否されました (ERROR_VOLUME_PERMISSION_DENIED)

SQLSTATE: 割り当てなし

Unity カタログ ボリュームに対するアクセス許可が不十分です。 UC ボリューム のアクセス権を確認するか、UC ボリューム所有者へのアクセスを要求してください。

説明: 指定された UC ボリュームに対するアクセス許可がユーザーに不足している場合に発生します。

推奨されるアクション: ボリューム所有者または管理者から Unity カタログ ボリュームに対する READ アクセス許可を要求します。

ERROR_WHEEL_BUILD

SQLSTATE: 割り当てなし

ビルドの依存関係またはエラーがないため、Pip がホイールを正常にビルドできませんでした。 ホイール パッケージの内容と依存関係を確認してください。

説明: ビルドの依存関係またはエラーが見つからないために pip がパッケージのホイールのビルドに失敗した場合に発生します。

推奨されるアクション: ビルド ツールとヘッダーがインストールされていることを確認するか、バイナリなしの事前構築済みホイールをインストールします。

ERROR_WHEEL_INSTALLATION

SQLSTATE: 割り当てなし

プラットフォーム タグの不一致または無効なホイール ファイルが原因で、ホイールが現在のコンピューティングと互換性がありません。 ホイール パッケージの内容、依存関係、およびコンピューティングとの互換性を確認してください。

説明: ホイール ファイルが無効であるか、プラットフォーム タグが一致しない場合に発生します。

推奨されるアクション: 現在のプラットフォーム用に構築されたホイールを使用するか、適切なタグでホイールをリビルドします。

FAULT_CLOUD_STORAGE_INSTALLATION

SQLSTATE: 割り当てなし

通常、構成の誤りや接続の問題が原因で、指定されたクラウド ストレージ資産をダウンロードまたはアクセスできません。 クラウド ストレージのセットアップを確認してください。

説明: コンピューティングがクラウド ストレージからライブラリ ファイルをダウンロードまたはインストールできない場合に発生します。通常、構成ミスやネットワークの問題が原因です。

推奨されるアクション: クラウド ストレージ URI が正しいこと、資格情報が有効であること、必要なネットワーク プロキシまたはライブラリが適切に構成されていることを確認してから、インストールを再試行します。

FAULT_DBR_VERSION_EOS

SQLSTATE: 割り当てなし

コンピューティング上の Databricks Runtime バージョンはサポート終了に達し、サポートされなくなりました。 サポートされている Databricks ランタイム バージョンを使用してください。

説明: 更新プログラムまたはサポートを受け取らなくなった Databricks Runtime バージョンにライブラリがインストールされるときに発生します。

推奨されるアクション: クラスターをサポートされている Databricks Runtime バージョンにアップグレードし、インストールを再試行します。

FAULT_POLLER_ALLOWLIST_VALIDATION

SQLSTATE: 割り当てなし

許可リストが見つからないため、ライブラリのインストールがブロックされます。 これは、ライブラリがクラスターに追加された後に許可リストから削除された場合に発生する可能性があります。 ライブラリの許可リストを確認し、管理者に対して、許可リストにライブラリを追加するか、クラスターから承認されていないパッケージを削除するように要求します。

説明: 1 つ以上の要求されたライブラリがメタストア許可リストで承認されず、インストールがブロックされている場合に発生します。 これは、ライブラリが以前に許可されていたが、後で許可リストから削除された場合にも発生する可能性があります。

推奨されるアクション: メタストアの許可リストを確認し、不足しているライブラリを許可リストに追加するよう管理者に依頼するか、未承認のライブラリをクラスターから削除します。

FAULT_POLLER_DBR_UNSUPPORTED

SQLSTATE: 割り当てなし

クラスター上の Databricks Runtime バージョンはサポート終了に達しており、サポートされなくなりました。 サポートされている Databricks ランタイム バージョンを使用してください。

説明: 更新プログラムまたはサポートを受け取らなくなった Databricks Runtime バージョンにライブラリがインストールされるときに発生します。

推奨されるアクション: サポートされている Databricks Runtime バージョンを使用するようにクラスターを変更し、インストールを再試行します。

FAULT_POLLER_LIBRARY_STORAGE_FORMAT_UNSUPPORTED

SQLSTATE: 割り当てなし

選択した Databricks Runtime バージョンでは、gs:// パスや abfss:// パスなど、特定のライブラリ ストレージ形式がサポートされていない場合があります。 Databricks Runtime をアップグレードするか、別の Databricks Runtime バージョンの機能に関するユーザー ガイドを参照してください。

説明: Databricks ランタイム バージョンが、指定されたライブラリ ストレージ形式またはプロトコルをサポートしていない場合に発生します。

推奨されるアクション: サポートされているストレージ スキームを使用するか、目的のストレージ形式をサポートする Databricks Runtime バージョンにアップグレードします。

FAULT_POLLER_UNITY_CATALOG_NOT_AVAILABLE_ERROR

SQLSTATE: 割り当てなし

ライブラリのインストールには Unity カタログが必要ですが、Unity カタログはクラスターまたはワークスペースでは使用できません。 この機能を有効にするには、ワークスペース管理者に問い合わせてください。

説明: ライブラリのインストールに Unity カタログが必要だが、ワークスペースで Unity カタログが使用できない場合に発生します。

推奨されるアクション: ワークスペースで Unity カタログを有効にするか、Unity カタログをサポートするクラスターを使用するように管理を要求します。

ストレージアクセス障害_FAILURE

SQLSTATE: 割り当てなし

資格情報、ネットワーク、またはアクセス許可の問題により、クラウド ストレージ リソースにアクセスできません。 クラウド ストレージ アクセスの構成を確認してください。

説明: 資格情報、ネットワーク、またはアクセス許可の問題が原因で、コンピューティングがクラウド ストレージ リソースにアクセスできない場合に発生します。

推奨されるアクション: ストレージ資格情報、ネットワーク接続、アクセス許可を確認してから、インストールを再試行します。

Miscellaneous

ABAC_POLICIES_NOT_SUPPORTED_FOR_RUNTIME_VERSION

SQLSTATE: 割り当てなし

DBR バージョン<abacDBRMajorVersion> <abacDBRMinorVersion>以上が必要となります。これは、ABACポリシーで保護されているため、テーブル<tableFullName>を照会するためです。

AZURE_ENTRA_CREDENTIALS_MISSING

SQLSTATE: 割り当てなし

Azure Entra (別名 Azure Active Directory) の資格情報がありません。

Entra アカウントでログインしていることを確認します

または、Git 統合 > ユーザー設定で Azure DevOps 個人用アクセス トークン (PAT) を設定します。

PAT を使用せず、Repos API で Azure DevOps を使用している場合は、

Azure Entra アクセス トークンを使用する必要があります。

Azure Entra アクセス トークンを取得する手順については、 https://docs.microsoft.com/azure/databricks/dev-tools/api/latest/aad/app-aad-token を参照してください。

<pickOrCreateNewCredential>

AZURE_ENTRA_CREDENTIALS_PARSE_FAILURE

SQLSTATE: 割り当てなし

Azure Entra (Azure Active Directory) 資格情報でエラーが発生しました。 ログアウトしてみてください

Entra (https://portal.azure.com)。それから、ログインし直してください。

または、Git 統合 > ユーザー設定にアクセスして設定することもできます。

Azure DevOps 個人用アクセス トークンを作成します。

<pickOrCreateNewCredential>

AZURE_ENTRA_LOGIN_ERROR

SQLSTATE: 割り当てなし

Azure Active Directory 資格情報でエラーが発生しました。 ログアウトしてみてください

Azure Active Directory (https://portal.azure.com) に再ログインします。

<pickOrCreateNewCredential>

AZURE_ENTRA_WORKLOAD_IDENTITY_ERROR

SQLSTATE: 割り当てなし

Azure Workload Identity で Azure 例外によりエラーが発生しました。 <azureWorkloadIdentityExceptionMessage>

CLEAN_ROOM_DELTA_SHARING_ENTITY_NOT_AUTHORIZED

SQLSTATE: 割り当てなし

クリーンルームの Delta Sharing のセキュリティ保護可能なリソースに対する資格情報の生成は要求できません。

CLEAN_ROOM_HIDDEN_SECURABLE_PERMISSION_DENIED

SQLSTATE: 割り当てなし

セキュリティ保護可能な <securableName> の種類が <securableType> で、種類 <securableKind> はクリーン ルーム システムで管理されており、ユーザーはアクセスできません。

CONSTRAINT_ALREADY_EXISTS

SQLSTATE: 割り当てなし

名前 <constraintName> の制約はすでに存在していますので、別の名前を選んでください。

CONSTRAINT_DOES_NOT_EXIST

SQLSTATE: 割り当てなし

制約 <constraintName> が存在しません。

COULD_NOT_READ_REMOTE_REPOSITORY

SQLSTATE: 割り当てなし

リモート リポジトリ (<repoUrl>) を読み取れませんでした。

資格情報 <credentialName> (<credentialId>) が使用されました<because>

この Git 資格情報のプロバイダーは <gitCredentialProvider> され、電子メール/ユーザー名は <gitCredentialUsername>

リモート Git プロバイダーに移動して、次のことを確認してください。

  1. リモート Git リポジトリの URL が有効です。

  2. 個人用アクセス トークンまたはアプリ パスワードに正しいリポジトリ アクセス権があります。

<pickOrCreateNewCredential>

COULD_NOT_RESOLVE_REPOSITORY_HOST

SQLSTATE: 割り当てなし

<repoUrl>のホストを解決できませんでした。

資格情報 <credentialName> (<credentialId>) が使用されました<because>

この Git 資格情報のプロバイダーは <gitCredentialProvider> され、電子メール/ユーザー名は <gitCredentialUsername>

CSMS_BEGINNING_OF_TIME_NOT_SUPPORTED

SQLSTATE: 割り当てなし

パラメーター beginning_of_time を true にすることはできません。

CSMS_CONTINUATION_TOKEN_EXPIRED

SQLSTATE: 割り当てなし

継続トークンの有効期限が切れています。 原因: <msg>

CSMS_CREDENTIAL_NAME_MISSING

SQLSTATE: 割り当てなし

要求に資格情報名がありません

CSMS_FILE_EVENTS_VALIDATION_USER_ERROR

SQLSTATE: 割り当てなし

操作 <operation>のファイル イベントの検証に失敗しました。 <message>

CSMS_INVALID_CONTINUATION_TOKEN

SQLSTATE: 割り当てなし

継続トークンが無効です。 原因: <msg>

CSMS_INVALID_FILE_EVENTS_QUEUE

SQLSTATE: 割り当てなし

<missingField> 要求の <queueType> に不足しています

CSMS_INVALID_MAX_OBJECTS

SQLSTATE: 割り当てなし

パラメーター max_objectsの値 <value> が無効です。[<minValue>, <maxValue>] で予期される値

CSMS_INVALID_SUBSCRIPTION_ID

SQLSTATE: 割り当てなし

サブスクリプション ID が無効です。 原因: <msg>

CSMS_INVALID_URI_FORMAT

SQLSTATE: 割り当てなし

URI 形式が無効です。 ボリューム ("/Volumes/catalog/schema/volume" など) またはクラウド ストレージ パス (例: "s3://some-uri") が必要です。

CSMS_KAFKA_TOPIC_MISSING

SQLSTATE: 割り当てなし

Kafka トピックを指定する必要があります

CSMS_LOCATION_ERROR

SQLSTATE: 割り当てなし

オブジェクトを一覧表示できませんでした。 解決する必要がある場所に問題があります。 詳細: <msg>

CSMS_LOCATION_NOT_KNOWN

SQLSTATE: 割り当てなし

uri <path> の場所が見つかりません

CSMS_METASTORE_ID_MISSING

SQLSTATE: 割り当てなし

metastore uuid を指定する必要があります

CSMS_METASTORE_RESOLUTION_FAILED

SQLSTATE: 割り当てなし

要求のメタストアを特定できません。

CSMS_RESOLVE_CREDENTIAL_ID_FAILED

SQLSTATE: 割り当てなし

資格情報の資格情報 ID を解決できませんでした: <credentialName>

CSMS_RESOLVE_LOCAL_SHARD_NAME_FAILED

SQLSTATE: 割り当てなし

CSMS がローカル シャード名を解決できませんでした

CSMS_SERVICE_DISABLED

SQLSTATE: 割り当てなし

サービスが無効になっている

CSMS_SHARD_NAME_MISSING_IN_REQUEST

SQLSTATE: 割り当てなし

CSMS への RPC 要求にシャード名がありません

CSMS_STORAGE_CREDENTIAL_DOES_NOT_EXIST

SQLSTATE: 割り当てなし

ストレージ資格情報が存在しません。

CSMS_SUBSCRIPTION_ID_MISSING_IN_REQUEST

SQLSTATE: 割り当てなし

サブスクリプション ID が要求に含まれていない。

CSMS_SUBSCRIPTION_NOT_FOUND

SQLSTATE: 割り当てなし

ID を持つサブスクリプション <id> 見つかりません。

CSMS_UNITY_CATALOG_DISABLED (無効化された)

SQLSTATE: 割り当てなし

このワークスペースで Unity カタログが無効になっている

CSMS_UNITY_CATALOG_ENTITY_NOT_FOUND

SQLSTATE: 割り当てなし

Unity カタログ エンティティが見つかりません。 カタログ、スキーマ、ボリューム、または外部の場所が存在することを確認します。

CSMS_UNITY_CATALOG_EXTERNAL_LOCATION_DOES_NOT_EXIST

SQLSTATE: 割り当てなし

Unity カタログの外部の場所が存在しません。

CSMS_UNITY_CATALOG_EXTERNAL_STORAGE_OVERLAP

SQLSTATE: 割り当てなし

URI が他のボリュームと重複している

CSMS_UNITY_CATALOG_METASTORE_DOES_NOT_EXIST

SQLSTATE: 割り当てなし

要求のメタストアを特定できません。 メタストアが存在しない

CSMS_UNITY_CATALOG_PATHによるテーブルへのフィルター付きアクセスは許可されていません

SQLSTATE: 割り当てなし

URI は、行レベルのフィルターまたは列マスクを持つテーブルを指します。 このテーブルへのパスベースのアクセスは許可されません。

CSMS_UNITY_CATALOG_PERMISSION_DENIED

SQLSTATE: 割り当てなし

アクセス許可が拒否されました

CSMS_UNITY_CATALOG_RATE_LIMITED

SQLSTATE: 割り当てなし

要求レート制限を超えました。 しばらくしてから再試行してください。

CSMS_UNITY_CATALOG_TABLE_DOES_NOT_EXIST

SQLSTATE: 割り当てなし

Unity カタログ テーブルが存在しません。

CSMS_UNITY_CATALOG_VOLUME_DOES_NOT_EXIST

SQLSTATE: 割り当てなし

Unity カタログ ボリュームが存在しません。

CSMS_UNSUPPORTED_FILE_EVENTS_QUEUE

SQLSTATE: 割り当てなし

要求内の不明なファイル イベント キュー

CSMS_UNSUPPORTED_MANAGED_RESOURCE_TYPE

SQLSTATE: 割り当てなし

マネージド リソースの種類 <resourceType> はサポートされていません

CSMS_UNSUPPORTED_SECURABLE

SQLSTATE: 割り当てなし

サポートされていない保護対象

CSMS_URI_MISSING

SQLSTATE: 割り当てなし

URI を指定する必要があります

CSMS_URI_TOO_LONG

SQLSTATE: 割り当てなし

指定された URI が長すぎます。 最大許容長は <maxLength>です。

CSMS_USER_CONTEXT_MISSING_IN_REQUEST

SQLSTATE: 割り当てなし

CSMS への rpc 要求にユーザー コンテキストがありません

DMK_CATALOGS_DISALLOWED_ON_CLASSIC_COMPUTE

SQLSTATE: 割り当てなし

クラシック コンピューティングを使用して Databricks Default Storage にアクセスすることはできません。 サーバーレス コンピューティングを使用して、既定のストレージ内のデータにアクセスしてください

GITHUB_APP_COULD_NOT_REFRESH_CREDENTIALS

SQLSTATE: 割り当てなし

リンクされた GitHub アプリの資格情報を更新できなかったため、操作に失敗しました。

もう一度試すか、Git 統合 > ユーザー設定に移動して、Git プロバイダー アカウントの再リンクを試してください。

問題が解決しない場合は、サポート チケットを提出してください。

<pickOrCreateNewCredential>

GITHUB_APP_CREDENTIALS_NO_ACCESS

SQLSTATE: 割り当てなし

GitHub アカウントへのリンクにはアクセスできません。 このエラーを修正するには:

  1. リポジトリの管理者は、 https://github.com/apps/databricks/installations/new に移動し、Databricks GitHub アプリをリポジトリにインストールする必要があります。

または、GitHub アカウント所有者がアカウントにアプリをインストールして、アカウントのリポジトリへのアクセス権を付与することもできます。

  1. アプリが既にインストールされている場合は、管理者に対して、[リポジトリの選択のみ] オプションでスコープアクセスを使用している場合は、それを選択してこのリポジトリへのアクセス権が含まれていることを確認します。

詳細については、 https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app を参照してください。

<pickOrCreateNewCredential>

GITHUB_APP_EXPIRED_CREDENTIALS

SQLSTATE: 割り当てなし

リンクされた GitHub アプリの資格情報は、非アクティブ状態が 6 か月後に期限切れになりました。

Git 統合 > ユーザー設定に移動し、資格情報の再リンクを試みます。

問題が解決しない場合は、サポート チケットを提出してください。

<pickOrCreateNewCredential>

GITHUB_APP_INSTALL_ON_DIFFERENT_USER_ACCOUNT

SQLSTATE: 割り当てなし

GitHub アカウントへのリンクにはアクセスできません。 このエラーを修正するには:

  1. GitHub ユーザー <gitCredentialUsername> は、 https://github.com/apps/databricks/installations/new に移動し、アクセスを許可するためにアカウント <gitCredentialUsername> にアプリをインストールする必要があります。

  2. ユーザー <gitCredentialUsername> 既にアプリをインストールしていて、[リポジトリの選択のみ] オプションでスコープアクセスを使用している場合は、選択してこのリポジトリへのアクセス権が含まれていることを確認する必要があります。

詳細については、 https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app を参照してください。

<pickOrCreateNewCredential>

GITHUB_APP_INSTALL_ON_ORGANIZATION

SQLSTATE: 割り当てなし

GitHub アカウントへのリンクにはアクセスできません。 このエラーを修正するには:

  1. GitHub 組織の所有者 <organizationName> は、 https://github.com/apps/databricks/installations/new に移動し、アクセスを許可するために組織の <organizationName> にアプリをインストールする必要があります。

  2. GitHub 組織 <organizationName>にアプリが既にインストールされている場合、その組織の所有者は、「リポジトリの選択のみ」オプションでスコープ付きアクセスを使用している場合に、このリポジトリへのアクセスを含めるように選択したことを確認してください。

詳細については、 https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app を参照してください。

<pickOrCreateNewCredential>

GITHUB_APP_INSTALL_ON_YOUR_ACCOUNT

SQLSTATE: 割り当てなし

GitHub アカウントへのリンクにはアクセスできません。 このエラーを修正するには:

  1. https://github.com/apps/databricks/installations/newに移動し、アカウント <gitCredentialUsername>にアプリをインストールしてアクセスを許可します。

  2. アプリが既にインストールされていて、[リポジトリの選択のみ] オプションでスコープアクセスを使用している場合は、それを選択してこのリポジトリへのアクセスを含めていることを確認します。

詳細については、 https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app を参照してください。

<pickOrCreateNewCredential>

GIT_CLUSTER_NOT_READY

SQLSTATE: 割り当てなし

Git クラスターの準備ができていません。

GIT_CREDENTIAL_GENERIC_INVALID

SQLSTATE: 割り当てなし

リポジトリ URL <repoUrl>の Git プロバイダー資格情報が無効です。

資格情報 <credentialName> (<credentialId>) が使用されました<because>

この Git 資格情報のプロバイダーは <gitCredentialProvider> され、電子メール/ユーザー名は <gitCredentialUsername>

リモート Git プロバイダーに移動して、次のことを確認してください。

  1. Git プロバイダーの資格情報を使用して、正しい Git ユーザーの電子メールまたはユーザー名を入力しました。

  2. トークンに正しいリポジトリ アクセス権があります。

  3. トークンの有効期限が切れていない。

  4. Git プロバイダーで SSO が有効になっている場合は、必ずトークンを承認してください。

<pickOrCreateNewCredential>

GIT_CREDENTIAL_INVALID_PAT

SQLSTATE: 割り当てなし

リポジトリ URL <repoUrl>の Git プロバイダーの個人用アクセス トークン資格情報が無効です。

資格情報 <credentialName> (<credentialId>) が使用されました<because>

この Git 資格情報のプロバイダーは <gitCredentialProvider> され、電子メール/ユーザー名は <gitCredentialUsername>

リモート Git プロバイダーに移動して、次のことを確認してください。

  1. Git プロバイダーの資格情報を使用して、正しい Git ユーザーの電子メールまたはユーザー名を入力しました。

  2. トークンに正しいリポジトリ アクセス権があります。

  3. トークンの有効期限が切れていない。

  4. Git プロバイダーで SSO が有効になっている場合は、必ずトークンを承認してください。

<pickOrCreateNewCredential>

.

GIT_CREDENTIAL_MISSING

SQLSTATE: 割り当てなし

Git 資格情報は構成されませんが、このリポジトリ (<repoUrl>) には資格情報が必要です。

Git 統合 > ユーザー設定に移動して、Git 資格情報を設定します。

GIT_CREDENTIAL_NO_WRITE_PERMISSION

SQLSTATE: 割り当てなし

<gitCredentialProvider> リポジトリ (<repoUrl>) への書き込みアクセス権が付与されていません。

資格情報 <credentialName> (<credentialId>) が使用されました<because>

この Git 資格情報のプロバイダーは <gitCredentialProvider> され、電子メール/ユーザー名は <gitCredentialUsername>

(<gitCredentialUsername>) がこのリモート リポジトリへの書き込みアクセス権を持っていることを確認します。

GIT_CREDENTIAL_PROVIDER_MISMATCHED

SQLSTATE: 割り当てなし

リポジトリの Git 資格情報プロバイダーが正しくありません。

リポジトリの Git プロバイダー <repoUrl>の Git プロバイダーと一致する Git プロバイダー (<repositoryGitProvider>) を持つ Git 資格情報がありません。

Git 統合 > ユーザー設定に移動して、Git プロバイダー <repositoryGitProvider>の新しい資格情報を作成します。

GIT_FILE_NAME_TOO_LONG

SQLSTATE: 割り当てなし

パス内のファイル名またはフォルダー名 <path> コンポーネントあたりの最大 <maxComponentBytes>バイトを超えています。

Unix ベースのシステムでは、ファイル名またはフォルダー名ごとに最大 <maxComponentBytes> バイトのみがサポートされます。

違反: <violations>

続行するには、問題のあるコンポーネントを短縮してください。

GIT_PROVIDER_INFO_MISSING

SQLSTATE: 割り当てなし

Git プロバイダーの情報が見つからないか空です。

Git 資格情報を追加して、もう一度やり直してください。

問題が解決しない場合は、サポート チケットを提出してください。

GIT_PROXY_CLUSTER_NOT_READY

SQLSTATE: 割り当てなし

Git プロキシ クラスターの準備ができていません。

GIT_PROXY_CONNECTION_FAILED

SQLSTATE: 割り当てなし

Git プロキシに接続できませんでした。Git プロキシが稼働しているかどうかを確認してください。

エラー: <error>

GIT_SECRET_IN_CODE

SQLSTATE: 割り当てなし

コミットでシークレットが見つかりました。 詳細: <secretDetail>。 このエラーを修正するには:

シークレットを削除し、もう一度コミットしてみてください。

問題が解決しない場合は、サポート チケットを提出してください。

GIT_STALE_REMOTE_REFS

SQLSTATE: 割り当てなし

Git フェッチは完了しましたが、ファイルシステム パスの競合 (削除されたブランチや 'feature' と 'feature/sub' など) が原因で古いリモート参照を更新できませんでした。

Git エラー: <gitErrorMessage>

HIERARCHICAL_NAMESPACE_NOT_ENABLED

SQLSTATE: 割り当てなし

Azure ストレージ アカウントでは、階層型名前空間が有効になっていません。

INVALID_FIELD_LENGTH

SQLSTATE: 54000

<rpcName> <fieldName> が長すぎます。 最大長は <maxLength> 文字です。

INVALID_PARAMETER_VALUE

SQLSTATE: 22023

<msg>

詳細については、INVALID_PARAMETER_VALUE を参照してください。

JOBS_TASK_FRAMEWORK_TASK_RUN_OUTPUT_NOT_FOUND

SQLSTATE: 割り当てなし

タスク フレームワーク: runId <runId> と orgId <orgId> を持つタスクのタスク実行出力が見つかりませんでした。

JOBS_TASK_FRAMEWORK_TASK_RUN_STATE_NOT_FOUND

SQLSTATE: 割り当てなし

タスク フレームワーク: runId <runId> と orgId <orgId> を持つタスクのタスク実行状態が見つかりませんでした。

JOBS_TASK_REGISTRY_TASK_CLIENT_CONFIG_DOES_NOT_EXIST

SQLSTATE: 割り当てなし

ID <taskId> を持つタスクの RPC ClientConfig が存在しません。

JOBS_TASK_REGISTRY_TASK_DOES_NOT_EXIST

SQLSTATE: 割り当てなし

ID <taskId> を持つタスクが存在しません。

JOBS_TASK_REGISTRY_UNSUPPORTED_JOB_TASK

SQLSTATE: 割り当てなし

タスク レジストリ: クラス <taskClassName>でサポートされていないか不明な JobTask。

PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_EXTERNAL_SHALLOW_CLONE

SQLSTATE: 割り当てなし

外部の浅い複製テーブル <tableFullName> へのパスベースのアクセスはサポートされていません。 代わりに、テーブル名を使用して浅いクローンにアクセスしてください。

PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_FABRIC

SQLSTATE: 割り当てなし

URL '<url>' にあるファブリック テーブルが見つかりません。 REFRESH FOREIGN CATALOG コマンドを使用して、Fabric テーブルを設定してください。

PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_TABLES_WITH_ROW_COLUMN_ACCESS_POLICIES

SQLSTATE: 割り当てなし

行フィルターまたは列マスクがサポートされていないテーブル <tableFullName> へのパスベースのアクセス。

PERMISSION_DENIED

SQLSTATE: 割り当てなし

<principalName>には<msg><resourceType> '<resourceName>' にありません。

REDASH_DELETE_ASSET_HANDLER_INVALID_INPUT

SQLSTATE: 割り当てなし

オブジェクトの削除要求を解析できません: <invalidInputMsg>

REDASH_DELETE_OBJECT_NOT_IN_TRASH

SQLSTATE: 割り当てなし

ごみ箱にないオブジェクト <resourceName> を削除できない

REDASH_PERMISSION_DENIED

SQLSTATE: 割り当てなし

リソース <resourceId> に対するアクセス許可が見つからないか、または持っていないためアクセスできませんでした。

REDASH_QUERY_NOT_FOUND

SQLSTATE: 割り当てなし

クエリ ID <queryId> からリソースが見つかりません

REDASH_QUERY_SNIPPET_CREATION_FAILED

SQLSTATE: 割り当てなし

新しいクエリ スニペットを作成できない

REDASH_QUERY_SNIPPET_QUOTA_EXCEEDED

SQLSTATE: 割り当てなし

クエリスニペット数の上限に達しました。 現在のクォータは <quota> です。

REDASH_QUERY_SNIPPET_TRIGGER_ALREADY_IN_USE

SQLSTATE: 割り当てなし

指定したトリガー <trigger> は、このワークスペース内の別のクエリ スニペットによって既に使用されています。

REDASH_RESOURCE_NOT_FOUND

SQLSTATE: 割り当てなし

要求されたリソース <resourceName> が存在しません

REDASH_RESTORE_ASSET_HANDLER_INVALID_INPUT

SQLSTATE: 割り当てなし

オブジェクトの削除要求を解析できません: <invalidInputMsg>

REDASH_RESTORE_OBJECT_NOT_IN_TRASH

SQLSTATE: 割り当てなし

ごみ箱にないオブジェクト <resourceName> を復元できない

REDASH_TRASH_OBJECT_ALREADY_IN_TRASH

SQLSTATE: 割り当てなし

既にごみ箱に入っているオブジェクト <resourceName> をごみ箱に入れることはできません

REDASH_UNABLE_TO_GENERATE_RESOURCE_NAME

SQLSTATE: 割り当てなし

ID <id> からリソース名を生成できませんでした

REDASH_VISUALIZATION_CREATION_FAILED

SQLSTATE: 割り当てなし

新しい視覚化を作成できない

REDASH_VISUALIZATION_NOT_FOUND

SQLSTATE: 割り当てなし

視覚化 <visualizationId> が見つかりませんでした

REDASH_VISUALIZATION_QUOTA_EXCEEDED

SQLSTATE: 割り当てなし

クエリ <query_id> の視覚化の数のクォータに達しました。 現在のクォータは <quota> です。

REPOSITORY_URL_NOT_FOUND

SQLSTATE: 割り当てなし

リモート リポジトリ (<repoUrl>) が見つかりません。

資格情報 <credentialName> (<credentialId>) が使用されました<because>

この Git 資格情報のプロバイダーは <gitCredentialProvider> され、電子メール/ユーザー名は <gitCredentialUsername>

リモート Git プロバイダーに移動して、次のことを確認してください。

  1. リモート Git リポジトリの URL が有効です。

  2. 個人用アクセス トークンまたはアプリ パスワードに正しいリポジトリ アクセス権があります。

<pickOrCreateNewCredential>

RESOURCE_ALREADY_EXISTS

SQLSTATE: 42710

<resourceType> '<resourceIdentifier>' は既に存在します

RESOURCE_DOES_NOT_EXIST

SQLSTATE: 42704

<resourceType> '<resourceIdentifier>' が存在しません。

ROW_COLUMN_ACCESS_POLICIES_NOT_SUPPORTED_ON_ASSIGNED_CLUSTERS

SQLSTATE: 割り当てなし

割り当てられたクラスターでは、行フィルターまたは列マスクがサポートされていないテーブル <tableFullName> に対するクエリ。

ROW_COLUMN_SECURITY_NOT_SUPPORTED_WITH_TABLE_IN_DELTA_SHARING

SQLSTATE: 割り当てなし

テーブル <tableFullName> はデルタシェアリングと共有されているため、行および列のセキュリティを使用できません。

SERVICE_TEMPORARILY_UNAVAILABLE

SQLSTATE: 割り当てなし

<serviceName> サービスは一時的にメンテナンス中です。 後でもう一度やり直してください。

TABLE_WITH_ROW_COLUMN_SECURITY_NOT_SUPPORTED_IN_ONLINE_MODE

SQLSTATE: 割り当てなし

テーブル <tableFullName> には、行/列セキュリティビューとオンラインマテリアライズド ビューの両方を使用することはできません。

TOO_MANY_ROWS_TO_UPDATE

SQLSTATE: 割り当てなし

更新が必要な行が多すぎるため、更新が中止されます。

UC_ABAC_UNSUPPORTED_TABLE_TYPE

SQLSTATE: 割り当てなし

ABAC ポリシーは、テーブルの種類の <tableType>ではサポートされていません。