適用対象:
Databricks SQL
Databricks Runtime 12.2 以上
エラー条件は、説明するエラーに固有のわかりやすい、人間が判読できる文字列です。
エラー状態を使用すると、エラー メッセージを解析しなくても、アプリケーション内のエラーをプログラムで処理できます。
これは、Azure Databricks によって返される一般的な名前付きエラー条件の一覧です。
Databricks Runtime と Databricks SQL
ADD_DEFAULT_UNSUPPORTED
テーブル プロバイダー "<statementType>" を使用して既存のターゲット データ ソースに新しい列を追加する場合、DEFAULT値がサポートされていないため、<dataSource> コマンドを実行できませんでした。
ネストされた参照での集約関数はサポートされていません
外部スコープ参照で検出された集計関数 <expression> サポートされていません。
AGGREGATE_FUNCTION_WITH_NONDETERMINISTIC_EXPRESSION
非決定論的な式 <sqlExpr> は、集計関数の引数には含めないようにする必要があります。
AI_FUNCTION_HTTP_PARSE_CAST_ERROR
指定した returnType :"<dataType>"、応答 JSON が "<responseString>" である場合、モデルの出力を解析できませんでした。 応答 JSON で表される型の内容と一致するように returnType を更新してから、もう一度クエリを再試行してください。 例外: <errorMessage>
AI_FUNCTION_HTTP_PARSE_COLUMNS_ERROR
実際のモデル出力には、複数の列 "<responseString>" があります。 ただし、指定された戻り値の型 ["<dataType>"] には 1 つの列しかありません。 returnType を更新して、モデルの出力と同じ数の列を含めてから、クエリをもう一度やり直してください。
AI_FUNCTION_HTTP_REQUEST_ERROR
関数 <funcName>の HTTP 要求の実行中にエラーが発生しました: <errorMessage>
AI_FUNCTION_INVALID_HTTP_RESPONSE
関数 <funcName>の HTTP 応答が無効です: <errorMessage>
AI_FUNCTION_INVALID_MAX_WORDS
単語の最大数は負以外の整数である必要がありますが、<maxWords>が入力されました。
AI_FUNCTION_INVALID_MODEL_PARAMETERS
指定されたモデル パラメーター (<modelParameters>) は、エンドポイント "AI_QUERY" を提供するための<endpointName>関数では無効です。
詳細については、AI_FUNCTION_INVALID_MODEL_PARAMETERS を参照してください
AI_FUNCTION_INVALID_RESPONSE_FORMAT_TYPE
AI 関数: "<functionName>" には、<format> パラメーターに有効なresponseFormat文字列が必要ですが、"<invalidResponseFormat>" という応答形式が見つかりました。 例外: <errorMessage>
AI_FUNCTION_JSON_PARSE_ERROR
関数<funcName>のJSON応答の解析中にエラーが発生しました。<errorMessage>
AI_FUNCTION_MODEL_SCHEMA_PARSE_ERROR
サービス エンドポイント "<endpointName>" のスキーマを解析できませんでした: <errorMessage>、応答 JSON は "<responseJson>" でした。
スキーマ解決をオーバーライドするには、returnType 関数で AI_QUERY パラメーターを手動で設定します。
AI_FUNCTION_REGISTRY_LOOKUP_FAILURE
AI 関数レジストリから関数 "<functionName>" を動的に解決できませんでした。
AI_FUNCTION_UNSUPPORTED_ERROR
関数 <funcName> は、現在の環境ではサポートされていません。 Databricks SQL Pro とサーバーレスでのみ使用できます。
AI_FUNCTION_UNSUPPORTED_REQUEST
<functionName>の指定された引数に "<invalidValue>" があるため、SQL 関数 "<invalidDataType>" を評価できませんでしたが、サポートされるのは次の型のみです:<supportedDataTypes>。 文字列型の引数を指定するように関数呼び出しを更新し、クエリをもう一度やり直してください。
AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT
サポートされていない応答形式が見つかりました。
詳細については、AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT を参照してください
AI_FUNCTION_UNSUPPORTED_RETURN_TYPE
AI 関数: "<functionName>" は、戻り値の型として "<typeName>" をサポートしていません。 戻り値の型は、Catalyst によって認識され、AI 関数によってサポートされる有効な SQL 型である必要があります。 現在サポートされている型は次のとおりです:<supportedValues>
AI_INVALID_ARGUMENT_VALUE_ERROR
指定された値 "<argValue>" は、引数 "<argName>" ではサポートされていません。 サポートされている値は次のとおりです:<supportedValues>
AI_QUERY_ENDPOINT_NOT_SUPPORT_STRUCTURED_OUTPUT
サービングエンドポイントタスクのタイプが構造化された出力サポートのために「チャット」であると期待されましたが、エンドポイント「<taskType>」に「<endpointName>」が見つかりました。
AI_QUERY_RETURN_TYPE_COLUMN_TYPE_MISMATCH
指定された "<sqlExpr>" は、引数 returnType ではサポートされていません。
AI_SEARCH_CONFLICTING_QUERY_PARAM_SUPPLY_ERROR
vector_search SQL 関数の競合するパラメーターが検出されました: <conflictParamNames>。<hint>
AI_SEARCH_EMBEDDING_COLUMN_TYPE_UNSUPPORTED_ERROR
列 vector_search 型を埋め込む SQL 関数 <embeddingColumnType> はサポートされていません。
AI_SEARCH_EMPTY_QUERY_PARAM_ERROR
SQL 関数 vector_search クエリ入力パラメーターがありません。<parameterNames>から少なくとも 1 つを指定してください。
AI_SEARCH_HYBRID_QUERY_PARAM_DEPRECATION_ERROR
SQL 関数のパラメーター query から vector_search は、hybrid ベクター検索ではサポートされていません。 代わりに query_text を使用してください。
AI_SEARCH_HYBRID_TEXT_NOT_FOUND_ERROR
vector_search ベクター検索の hybrid SQL 関数にクエリ テキストが見つかりません。
query_textを入力してください。
AI_SEARCH_INDEX_TYPE_UNSUPPORTED_ERROR
vector_search インデックスの種類が <indexType> SQL 関数はサポートされていません。
AI_SEARCH_MISSING_EMBEDDING_INPUT_ERROR
インデックス query_vector は、埋め込みモデル エンドポイントに関連付けられていないため、<indexName> のために指定する必要があります。
AI_SEARCH_QUERY_TYPE_CONVERT_ENCODE_ERROR
リクエストのエンコード中に spark 型 vector_search から scala ネイティブ オブジェクトへの SQL 関数クエリ <dataType> 具現化に失敗しました。エラー: <errorMessage>。
AI_SEARCH_QUERY_TYPE_UNSUPPORTED_ERROR
vector_search の SQL 関数はクエリの種類 <unexpectedQueryType> に対してサポートされていません。
<supportedQueryTypes>から 1 つを指定してください。
AI_SEARCH_UNSUPPORTED_NUM_RESULTS_ERROR
vector_search の num_results が <maxLimit> より大きい SQL 関数はサポートされていません。 指定された制限は <requestedLimit>です。 num_resultsでもう一度お試しください <= <maxLimit>
AI_TOP_DRIVERS_PARAM_OUT_OF_RANGE
ai_top_drivers パラメーター<param>は、<lo>と<hi>の間にある必要があります。
AI_TOP_DRIVERS_UNSUPPORTED_AGGREGATION_TYPE
ai_top_drivers では <aggName> 集計がサポートされていません。 サポートされている集計のいずれかを選択します: <allowed>。
AI_TOP_DRIVERS_UNSUPPORTED_DIMENSION_TYPE
ai_top_drivers では、数値、マップ、または構造体ディメンション列はサポートされていません。 列<colName>の型は<dataType>です。 このディメンションを削除するか、サポートされている型にキャストします。
AI_TOP_DRIVERS_UNSUPPORTED_LABEL_TYPE
ai_top_drivers では、ラベル列の型がブール値である必要があります。 列<colName>の型は<dataType>です。 ラベル列を変更するか、サポートされている型にキャストします。
AI_TOP_DRIVERS_UNSUPPORTED_METRIC_TYPE
ai_top_drivers では、メトリック列の種類が数値である必要があります。 列<colName>の型は<dataType>です。 メトリック列を変更するか、サポートされている型にキャストします。
ALL_PARAMETERS_MUST_BE_NAMED
名前パラメーター化クエリを使用するには、すべてのパラメーターに名前を付ける必要があります。 パラメーターに名前がありません: <exprs>。
ALL_PARTITION_COLUMNS_NOT_ALLOWED
パーティション列にすべての列を使用することはできません。
ALTER_SCHEDULE_DOES_NOT_EXIST
既存のスケジュールまたはトリガーがないテーブルの <scheduleType> を変更することはできません。 変更を試みる前に、スケジュールまたはトリガーをテーブルに追加してください。
ALTER_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
ALTER TABLE <type> column <columnName> は記述子 "<optionName>" を複数回指定しますが、これは無効です。
AMBIGUOUS_ALIAS_IN_NESTED_CTE
名前 <name> は、入れ子になった CTE ではあいまいです。
内部 CTE で定義されている名前が優先されるように、 <config> を "CORRECTED" に設定してください。 "LEGACY" に設定すると、外部 CTE 定義が優先されます。
「https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine」を参照してください。
AMBIGUOUS_COLUMN_OR_FIELD
列またはフィールド <name> があいまいで、<n> 件の一致があります。
AMBIGUOUS_COLUMN_REFERENCE
列 <name> があいまいです。 これは、複数の DataFrame を結合し、これらの DataFrame の一部が同じであるためです。
この列はいずれかの DataFrame を指しますが、Spark はどれを見つけることができません。
参加する前に、DataFrame.alias を使用して異なる名前の DataFrame にエイリアスを付けてください。
修飾名を使用して列を指定します (例: df.alias("a").join(df.alias("b"), col("a.id") > col("b.id")))。
AMBIGUOUS_CONSTRAINT
制約 <constraint>へのあいまいな参照。
AMBIGUOUS_LATERAL_COLUMN_ALIAS
横列の別名 <name> があいまいで、<n> 件の一致があります。
AMBIGUOUS_REFERENCE
参照 <name> はあいまいで、<referenceNames>のことかもしれません。
AMBIGUOUS_REFERENCE_TO_FIELDS
フィールド <field>へのあいまいな参照。 スキーマに <count> 回現れます。
ANALYZE_CONSTRAINTS_NOT_SUPPORTED
ANALYZE CONSTRAINTS はサポートされていません。
ANALYZE_TABLE_COMPUTE_STORAGE_METRICS_NOT_SUPPORTED
ANALYZE TABLE COMPUTE STORAGE METRICS はサポートされていません。 このワークスペースを登録するには、Databricks サポート チームにお問い合わせください。
ANSI_CONFIG_CANNOT_BE_DISABLED
ANSI SQL 構成 <config> は、この製品では無効にできません。
APPEND_ONCE_FROM_BATCH_QUERY
stream() 演算子を使用してください。
バッチ クエリからストリーミング テーブルを作成すると、ソースから新しいデータを増分読み込みできなくなります。 問題のあるテーブル: '<table>'。
使用例:
CREATE STREAMING TABLE <target table name>
...
AS SELECT
...
FROM stream(<source table name>) ...
APPROX_TOP_K_INVALID_NUM_OF_ARGUMENTS
approx_top_k は 1 から 3 個の引数を受け取りますが、 <argNum>。
APPROX_TOP_K_MAX_ITEMS_TRACKED_EXCEEDS_LIMIT
追跡されるapprox_top_kのmaxItemsTracked(<maxItemsTracked>)の最大項目は、<limit>以下である必要があります。
APPROX_TOP_K_MAX_ITEMS_TRACKED_LESS_THAN_K
approx_top_kのmaxItemsTracked(<maxItemsTracked>)追跡される最大項目数は、k(<k>) 以上である必要があります。
APPROX_TOP_K_NON_POSITIVE_ARG
approx_top_kの<argName>の値は正の整数である必要がありますが、<argValue>。
APPROX_TOP_K_NULL_ARG
approx_top_kの<argName>の値をNULLすることはできません。
APPROX_TOP_K_SKETCH_SIZE_NOT_MATCH
異なるサイズのapprox_top_kスケッチを組み合わせることはできません。 サイズ <size1> と <size2>のスケッチが見つかりました。
APPROX_TOP_K_SKETCH_TYPE_NOT_MATCH
異なる種類のスケッチapprox_top_k組み合わせることはできません。
<type1>型と<type2>型のスケッチが見つかりました。
AQE_THREAD_INTERRUPTED
ユーザーによるクエリの取り消しが原因で、AQE スレッドが中断される可能性があります。
ARGUMENT_NOT_CONSTANT
関数 <functionName> には、位置 <parameterName> に定数引数を必要とするパラメーター <pos> が含まれています。 引数 <sqlExpr> を個別に計算し、結果を定数として渡してください。
ARITHMETIC_OVERFLOW
<message>。
<alternative> このエラーをバイパスするには、必要に応じて <config> を "false" に設定します。
詳細については、ARITHMETIC_OVERFLOW を参照してください。
ARROW_TYPE_MISMATCH
<operation>のスキーマが無効です。予期されたのは<outputTypes>ですが、実際には<actualDataTypes>がありました。
ARTIFACT_ALREADY_EXISTS
成果物 <normalizedRemoteRelativePath> は既に存在します。 新しい成果物は上書きできないため、別の名前を選択してください。
ASSIGNMENT_ARITY_MISMATCH
代入またはエイリアス化された列または変数の数: <numTarget> は、ソース式の数 (<numExpr>) と一致しません。
AS_OF_JOIN
as-of 結合が無効です。
詳細については、AS_OF_JOIN を参照してください
ATTEMPT_ANALYSIS_IN_PIPELINE_QUERY_FUNCTION
パイプライン クエリ関数では、DataFrame の分析または実行をトリガーする操作は許可されません。 パイプライン クエリ関数の外部にコードを移動します。
AUTOCOMMIT_BEGIN_TRANSACTION_DURING_AUTOCOMMIT_TRANSACTION
SET AUTOCOMMIT=FALSEによって開始された暗黙的なトランザクションがアクティブな間は、新しいトランザクションを開始できません。
COMMIT または、新しいトランザクションを開始する前に、現在のトランザクションを最初に ROLLBACK し、 SET AUTOCOMMIT =TRUE を指定します。
AUTOCOMMIT_NOT_SUPPORTED
AUTOCOMMIT モード機能は現在開発中であり、Databricks ではまだサポートされていません。
AUTOCOMMIT_OLD_SQL_EDITOR_NOT_SUPPORTED
AUTOCOMMIT は、従来の SQL エディターではアクセスまたは変更できません。 新しい SQL エディター (<docLink>) に切り替えるか、Databricks SQL ウェアハウスに接続されているノートブックを使用します。
AUTOCOMMIT_ONLY_SUPPORTED_IN_DBSQL
AUTOCOMMIT は、Databricks SQL ウェアハウスでのみアクセスまたは変更できます。
AUTOCOMMIT_SET_DURING_ACTIVE_TRANSACTION
SET AUTOCOMMIT は、アクティブなトランザクション中は許可されません。 最初にコミットまたはロールバックします。
AUTOCOMMIT_SET_FALSE_ALREADY_DISABLED
SET AUTOCOMMIT=FALSE は、 AUTOCOMMIT が既に無効になっている場合は許可されません。 この制限により、混乱を防ぎ、トランザクションの境界を明確に保ちます。
AUTOCOMMIT_SET_TRUE_DURING_AUTOCOMMIT_TRANSACTION
SET AUTOCOMMIT=TRUE は、 SET AUTOCOMMIT=FALSEによって開始された暗黙的なトランザクションでステートメントが実行された後は使用できません。 これは、 SET AUTOCOMMIT=FALSE の直後 (ステートメントの前)、または COMMIT または ROLLBACK後にのみ許可されます。
AUTO_TTL_COLUMN_NOT_FOUND
自動 TTL のテーブル スキーマが無効です。 自動 TTL 列 <column> が見つかりません。
AUTO_TTL_COLUMN_TYPE_NOT_SUPPORTED
自動 TTL 列 <column> 型 <type> が無効です。 列の種類は、 TIMESTAMP, TIMESTAMP_NTZまたは DATEのいずれかである必要があります。
AUTO_TTL_FEATURE_NOT_ENABLED
自動 TTL 機能を有効にするには、Databricks の担当者にお問い合わせください。
AUTO_TTL_INCOMPLETE_SETTING
テーブルに自動 TTL を設定するには、テーブルプロパティ autottl.timestampColumn と autottl.expireInDays の両方が必要ですが、 <missing> がありません。
AUTO_TTL_INVALID_COLUMN_CHANGE
列 <column> は自動 TTL の定義で使用されるため、 <operation> できません。
AUTO_TTL_NOT_SUPPORT_SHALLOW_CLONES
簡易複製テーブルでは、自動 TTL はサポートされていません。
AUTO_TTL_NOT_SUPPORT_TABLES_HAVING_SHALLOW_CLONES
簡易クローンを持つテーブルでは、自動 TTL はサポートされていません。
AUTO_TTL_REQUIRES_PREDICTIVE_OPTIMIZATION
自動 TTL では、予測最適化を有効にする必要があります。
AUTO_TTL_REQUIRES_UC_MANAGED_TABLE
自動 TTL は、UC マネージド テーブルでのみサポートされます。
AVRO_CANNOT_WRITE_NULL_FIELD
null 以外の Avro データ型<name>として定義<dataType>フィールドに null 値を書き込めません。
このフィールドに null 値を許可するには、 avroSchema オプションを使用して、その avro スキーマを共用体の型として "null" と指定します。
AVRO_DEFAULT_VALUES_UNSUPPORTED
rescuedDataColumn が有効になっている場合、既定値の使用はサポートされません。
spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue を false に設定すると、このチェックを削除できる場合がありますが、既定値は適用されず、null 値は引き続き使用されます。
AVRO_INCOMPATIBLE_READ_TYPE
元のエンコードされたデータ型が<avroPath>されているため、Avro <sqlPath>を SQL <avroType>に変換できませんが、フィールドを<sqlType>として読み取ろうとしているため、正しくない回答が発生します。
このフィールドの読み取りを許可するには、SQL 構成 "spark.sql.legacy.avro.allowIncompatibleSchema" を有効にします。
AVRO_NOT_LOADED_SQL_FUNCTIONS_UNUSABLE
Avro データ ソースが読み込まれていないため、 <functionName> SQL 関数を呼び出すことができません。
コマンド ラインで --packages 引数を使用するなどして、"spark-avro" パッケージが読み込まれたジョブまたはセッションを再起動してから、クエリまたはコマンドをもう一度やり直してください。
AVRO_POSITIONAL_FIELD_MATCHING_UNSUPPORTED
rescuedDataColumn または failOnUnknownFields が有効になっている場合、位置指定フィールドマッチングの使用はサポートされません。 続行するには、これらのオプションを削除します。
AZURE_INVALID_CREDENTIALS_CONFIGURATION
Azure キー プロバイダーまたは資格情報が正しく構成されていません。 理由: <causedBy>。
BATCH_METADATA_NOT_FOUND
バッチ <batchMetadataFile>が見つかりません。
BIGQUERY_DATA_SOURCE_OPTIONS_VALIDATION_FAILED
BigQuery データ ソース オプションの検証に失敗しました。
詳細については、BIGQUERY_DATA_SOURCE_OPTIONS_VALIDATION_FAILEDを参照してください。
BIGQUERY_OPTIONS_ARE_MUTUALLY_EXCLUSIVE
BigQuery 接続資格情報は、'GoogleServiceAccountKeyJson' パラメーターまたは 'projectId'、'OAuthServiceAcctEmail'、'OAuthPvtKey' のすべてで指定する必要があります。
BINARY_ARITHMETIC_OVERFLOW
<value1> <symbol> <value2> オーバーフローが発生しました。 オーバーフローの問題を無視して <functionName>を返すには、NULL を使用します。
BUILT_IN_CATALOG
<operation> では、組み込みカタログのサポートがありません。
CALL_ON_STREAMING_DATASET_UNSUPPORTED
ストリーミング Dataset/DataFrame では、<methodName> メソッドを呼び出できません。
CANNOT_ALTER_COLLATION_BUCKET_COLUMN
ALTER TABLE (ALTER|CHANGE) COLUMN バケット列の型/サブタイプの照合順序を変更することはできませんが、テーブル <columnName>にバケット列 <tableName> が見つかりました。
CANNOT_ALTER_PARTITION_COLUMN
ALTER TABLE (ALTER|CHANGE) COLUMN はパーティション列ではサポートされていませんが、テーブル <columnName>にパーティション列 <tableName> が見つかりました。
CANNOT_ASSIGN_EVENT_TIME_COLUMN_WITHOUT_WATERMARK
イベント時間列を再割り当てするには、まず透かしを定義する必要があります。 ストリーミング クエリで透かし定義を見つけることができませんでした。
CANNOT_CAST_DATATYPE
<sourceType> を <targetType>にキャストできません。
CANNOT_CONVERT_PROTOBUF_FIELD_TYPE_TO_SQL_TYPE
スキーマに互換性がないため、Protobuf <protobufColumn> を SQL <sqlColumn> に変換できません (protobufType = <protobufType>、sqlType = <sqlType>)。
CANNOT_CONVERT_PROTOBUF_MESSAGE_TYPE_TO_SQL_TYPE
Protobuf の <protobufType> を SQL 型の <toType>に変換できません。
CANNOT_CONVERT_SQL_TYPE_TO_PROTOBUF_FIELD_TYPE
スキーマに互換性がないため、SQL <sqlColumn> を Protobuf <protobufColumn> に変換できません (protobufType = <protobufType>、sqlType = <sqlType>)。
CANNOT_CONVERT_SQL_VALUE_TO_PROTOBUF_ENUM_TYPE
sql <sqlColumn> を Protobuf <protobufColumn> に変換できません。<data> は列挙型の定義された値に含まれていません: <enumString>。
CANNOT_COPY_STATE
現在のデータベースや一時ビューなどのカタログの状態を Unity カタログからレガシ カタログにコピーすることはできません。
CANNOT_CREATE_DATA_SOURCE_TABLE
<tableName>データ ソース テーブルを作成できませんでした:
詳細については、CANNOT_CREATE_DATA_SOURCE_TABLE を参照してください
CANNOT_DECODE_URL
指定された URL をデコードできません: <url>。 URL が正しく書式設定されていることを確認してから、もう一度やり直してください。
CANNOT_DELETE_SYSTEM_OWNED
システム所有の <resourceType> は削除できません。
CANNOT_DROP_AMBIGUOUS_CONSTRAINT
名前 <constraintName> の制約 (CHECK 制約
と PRIMARY KEY または FOREIGN KEY 制約で共有されている) を削除できません。
PRIMARY KEY を削除するか、
FOREIGN KEY 制約は次のクエリで削除できます。
ALTER TABLE ..
DROP PRIMARY KEY または
ALTER TABLE ..
DROP FOREIGN KEY ..
SHALLOW_CLONE に参照されているため、基盤テーブルを削除できません
テーブル <baseTable> は、1 つ以上の浅い複製 ( <cloneList>) によって参照されているため、削除できません。
DROP ベーステーブルを削除する前に、すべての浅いクローンを解除します。 これが不可能な場合は、'DROP TABLE...FORCE' を使用してテーブルを強制的に削除することを検討してください。
WARNING: これにより、既存のすべての浅いクローン参照が直ちに中断され、使用できなくなります。
CANNOT_ESTABLISH_CONNECTION
リモート <jdbcDialectName> データベースへの接続を確立できません。 ホスト、ポート、ユーザー、パスワード、データベースのオプションなど、接続情報と資格情報を確認してください。 ** 情報が正しいと思われる場合は、ワークスペースのネットワークセットアップを確認し、ホストへの送信制限がないことを確認してください。 また、ワークスペースの Spark クラスターがデプロイされているネットワークからの受信接続がホストによってブロックされていないことも確認してください。 ** 詳細なエラー メッセージ: <causeErrorMessage>.
CANNOT_ESTABLISH_CONNECTION_SERVERLESS
リモート <jdbcDialectName> データベースへの接続を確立できません。 ホスト、ポート、ユーザー、パスワード、データベースのオプションなど、接続情報と資格情報を確認してください。 ** 情報が正しいと思われる場合は、サーバーレス コンピューティングを使用するため、インターネットからホストへの受信トラフィックを許可してください。 ネットワーク ポリシーで受信インターネット トラフィックが許可されていない場合は、サーバーレス コンピューティング以外を使用するか、Databricks の担当者に連絡してサーバーレス プライベート ネットワークについて学習してください。 ** 詳細なエラー メッセージ: <causeErrorMessage>.
CANNOT_ESTABLISH_CONNECTION_TO_HOST
<host>への<protocol>接続を確立できません。 ワークスペースのネットワークセットアップを確認し、ホストへの送信制限がないことを確認してください。 また、ワークスペースのクラスターがデプロイされているネットワークからの受信接続がホストによってブロックされていないことも確認してください。
CANNOT_INVOKE_IN_TRANSFORMATIONS
データセット変換とアクションは、他のデータセット変換の内部ではなく、ドライバーによってのみ呼び出すことができます。たとえば、dataset1.map(x => dataset2.values.count() * x) は無効です。値変換とカウント アクションは dataset1.map 変換内で実行できないためです。 詳細については、SPARK-28702 を参照してください。
CANNOT_LOAD_CHECKPOINT_FILE_MANAGER
path=<path> のストリーミング チェックポイント ファイル マネージャーの読み込み中にエラーが発生しました。
詳細については、CANNOT_LOAD_CHECKPOINT_FILE_MANAGERを参照してください。
CANNOT_LOAD_FUNCTION_CLASS
関数 <className>を登録するときにクラス <functionName> を読み込めません。クラスパス上にあることを確認してください。
CANNOT_LOAD_PROTOBUF_CLASS
名前が <protobufClassName>の Protobuf クラスを読み込めませんでした。
<explanation>。
CANNOT_LOAD_STATE_STORE
状態の読み込み中にエラーが発生しました。
詳細については、CANNOT_LOAD_STATE_STORE を参照してください。
CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE
互換性のないデータ型の <left> と <right>をマージできませんでした。 マージされる列のデータ型を確認し、互換性があることを確認してください。 必要に応じて、マージを試みる前に、互換性のあるデータ型に列をキャストすることを検討してください。
CANNOT_MERGE_SCHEMAS
スキーマのマージに失敗しました:
初期スキーマ:
<left>
初期スキーマとマージできないスキーマ:
<right>。
CANNOT_MODIFY_CONFIG
Spark 構成の値を変更できません: <key>。
「https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements」も参照してください。
CANNOT_MODIFY_STATIC_CONFIG
静的な Spark 構成の値を変更できません: <key>。
CANNOT_PARSE_DECIMAL
10 進数を解析できません。 入力が、省略可能な小数点またはコンマ区切り記号を持つ有効な数値であることを確認してください。
CANNOT_PARSE_INTERVAL
<intervalString>を解析できません。 指定された値が、間隔を定義するための有効な形式であることを確認してください。 正しい形式のドキュメントを参照できます。 問題が解決しない場合は、入力値が null または空ではないことを再確認してから、やり直してください。
CANNOT_PARSE_JSON_FIELD
フィールド名<fieldName>を解析できず、JSON トークン型の値<fieldValue><jsonType>、Spark データ型<dataType>を対象とします。
CANNOT_PARSE_PROTOBUF_DESCRIPTOR
記述子バイトを Protobuf FileDescriptorSet に解析中にエラーが発生しました。
CANNOT_PARSE_TIME
入力文字列 <input> は、datetime 形式の <format>と一致しないため、TIME 値に解析できません。
CANNOT_PARSE_TIMESTAMP
<message>。 無効な入力文字列を許容し、代わりに <func> を返すには、NULL を使用します。
CANNOT_QUERY_TABLE_DURING_INITIALIZATION
初期化中に MV/ST にクエリを実行できません。
詳細については、CANNOT_QUERY_TABLE_DURING_INITIALIZATION を参照してください
CANNOT_READ_ARCHIVED_FILE
ファイルがアーカイブされているため、パス <path> でファイルを読み取ることができません。 アーカイブされたファイルを除外するようにクエリ フィルターを調整してください。
CANNOT_READ_FILE
指定されたパス <format>で <path> ファイルが読み取れません。
詳細については、CANNOT_READ_FILE を参照してください。
CANNOT_READ_SENSITIVE_KEY_FROM_SECURE_PROVIDER
セキュリティで保護されたプロバイダーから機密キー '<key>' を読み取ることができません。
CANNOT_RECOGNIZE_HIVE_TYPE
Hive 型の文字列 <fieldType>、列 <fieldName> を認識できません。 Spark SQL では、フィールドに指定されたデータ型を認識できません。 指定したフィールドのデータ型を確認し、有効な Spark SQL データ型であることを確認してください。 有効なデータ型とその形式の一覧については、Spark SQL のドキュメントを参照してください。 データ型が正しい場合は、サポートされているバージョンの Spark SQL を使用していることを確認してください。
CANNOT_REFERENCE_UC_IN_HMS
Hive メタストア オブジェクト内の Unity カタログ <objType> を参照できません。
CANNOT_REMOVE_RESERVED_PROPERTY
予約済みプロパティを削除できません: <property>。
CANNOT_RENAME_ACROSS_CATALOG
カタログ間で <type> の名前を変更することはできません。
CANNOT_RENAME_ACROSS_SCHEMA
スキーマ間で <type> の名前を変更することはできません。
CANNOT_RESOLVE_DATAFRAME_COLUMN
データフレーム列の <name>を解決できません。
df1.select(df2.col("a"))のような不正な参照が原因である可能性があります。
CANNOT_RESOLVE_STAR_EXPAND
指定された入力列 <targetString> で <columns>.* を解決できませんでした。 指定したテーブルまたは構造体が存在し、入力列でアクセス可能であることを確認してください。
CANNOT_RESTORE_PERMISSIONS_FOR_PATH
作成されたパス <path> のアクセス許可を <permission>に戻すことができませんでした。
CANNOT_SHALLOW_CLONE_ACROSS_UC_AND_HMS
Unity カタログと Hive メタストア間でテーブルを浅く複製することはできません。
CANNOT_SHALLOW_CLONE_AUTO_TTL
自動 TTL が有効になっているテーブル <table> を浅く複製することはできません。
CANNOT_SHALLOW_CLONE_NESTED
既に浅い複製であるテーブル <table> を浅く複製することはできません。
CANNOT_SHALLOW_CLONE_NON_UC_MANAGED_TABLE_AS_SOURCE_OR_TARGET
簡易クローンは、MANAGED テーブルの種類でのみサポートされます。 テーブル <table> はテーブル MANAGED ではありません。
CANNOT_UPDATE_FIELD
<table> の <fieldName> 型フィールドを更新できません。
詳細については、CANNOT_UPDATE_FIELD を参照してください。
CANNOT_UPDATE_PARTITION_COLUMNS
宣言されたパーティション分割 <requestedPartitionColumns> は、既存のテーブル パーティション分割 <existingPartitionColumns>と競合します。
テーブルを削除するか、宣言されたパーティションをそのパーティションと一致するように変更してください。
CANNOT_UP_CAST_DATATYPE
キャスト <expression> を <sourceType> から <targetType>にアップできません。
<details>
CANNOT_USE_KRYO
Kryo シリアル化コーデックを読み込めません。 Kryo シリアル化は、Spark Connect クライアントでは使用できません。 Java シリアル化を使用するか、カスタム コーデックを指定するか、代わりに Spark クラシックを使用します。
CANNOT_USE_MULTI_ALIASES_IN_WATERMARK_CLAUSE
ウォーターマーク句では、複数のエイリアスはサポートされていません。
予約されたストリーミングプロバイダー名を使用できません
予約済みストリーミング プロバイダー名を使用できません: <providerName>。
CANNOT_VALIDATE_CONNECTION
<jdbcDialectName> 接続の検証はサポートされていません。 接続オブジェクトを作成する前に接続テストをスキップするには、Databricks の代替ソリューションのサポートに問い合わせるか、"spark.databricks.testConnectionBeforeCreation" を "false" に設定してください。
CANNOT_WRITE_STATE_STORE
プロバイダー <providerClass>の状態ストア ファイルの書き込み中にエラーが発生しました。
詳細については、CANNOT_WRITE_STATE_STORE を参照してください
CAST_INVALID_INPUT
型 <expression> の値 <sourceType> は、形式が正しくないため、<targetType> にキャストできません。 構文に従って値を修正するか、ターゲットの種類を変更します。
try_cast を使用して、形式が正しくない入力を許容し、代わりに NULL を返します。
詳細については、CAST_INVALID_INPUT を参照してください。
CAST_OVERFLOW
オーバーフローのため、型 <value> の <sourceType> 値を <targetType> にキャストできません。
try_cast を使用してオーバーフローを許容し、代わりに NULL を返します。
CAST_OVERFLOW_IN_TABLE_INSERT
オーバーフローが原因で <sourceType> 型の列または変数 <targetType> に <columnName> 型の値を割り当てませんでした。 入力値に try_cast を使用してオーバーフローを許容し、代わりに NULL を返します。
CATALOG_CONVERSION_FOREIGN_ENTITY_PRESENT
カタログに外部エンティティが含まれているため、UC Foreign から UC Standard へのカタログ変換に失敗しました (最大 10 個がここに示されています): <entityNames>。 このカタログ内の外部エンティティの完全な一覧を表示するには、'ALTER CATALOG DROP CONNECTION' コマンド ドキュメントのスクリプトを参照してください。
CATALOG_CONVERSION_UNSUPPORTED_CATALOG_TYPE
カタログを UC Foreign から UC Standard に変換することはできません。 UC Standard に変換できるのは、 <convertableCatalogTypes> 外部 UC カタログのみです。
CATALOG_NOT_FOUND
カタログ <catalogName> 見つかりません。 SQL 構成 <config> をカタログ プラグインに設定することを検討してください。
CATALOG_OWNED_TABLE_CREATION_NOT_ALLOWED
<feature> テーブル機能を使用して Dalta テーブルを作成することは許可されていません。 Databricks サポートにお問い合わせください。
CHECKPOINT_DIR_NOT_SET
チェックポイント ディレクトリが SparkContext に設定されていません。
SparkContext.setCheckpointDir()で設定してください。
CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND
チェックポイント ブロック <rddBlockId> 見つかりません。
このパーティションを最初にチェックポイント処理した Executor が有効でなくなったか、元の RDD が維持されていません。
この問題が解決しない場合は、代わりに rdd.checkpoint() を使用することを検討してください。これはローカルチェックポイント処理よりも低速ですが、耐障害性があります。
チェック制約違反
次の値を持つ行が CHECK 制約 <constraintName> <expression> に違反しています:
<values>
CIRCULAR_CLASS_REFERENCE
クラス内で循環参照を持つことはできませんが、クラス <t>の循環参照を取得しました。
CLASS_NOT_OVERRIDE_EXPECTED_METHOD
<className> は、<method1> または <method2>をオーバーライドする必要があります。
CLASS_UNSUPPORTED_BY_MAP_OBJECTS
MapObjects は、結果のコレクションとして <cls> クラスをサポートしていません。
CLEANROOM_COMMANDS_NOT_SUPPORTED
クリーン ルーム コマンドはサポートされていません
CLEANROOM_INVALID_SHARED_DATA_OBJECT_NAME
クリーン ルーム内の <type> を参照する名前が無効です。 [catalog]の形式に従って、クリーン ルーム内で <type>の名前を使用します。[schema]。[<type>]。
使用する名前がわからない場合は、"SHOW ALL IN CLEANROOM [clean_room]" を実行し、"name" 列の値を使用できます。
CLONING_WITH_HISTORY_INVALID_OPTION
履歴を使用した複製は、無効なオプション ( <invalidOption>) で指定されています。
有効な構文: CREATE (OR REPLACE) TABLE ...ディープ CLONE...WITH HISTORY。
CLONING_WITH_HISTORY_UNSUPPORTED
履歴を使用した複製はサポートされていません。
CLOUD_FILE_ALREADY_EXISTS
クラウド ファイルは既に存在します。 理由: <causedBy>。
CLOUD_FILE_NOT_FOUND
クラウド ファイルが見つかりません。 理由: <causedBy>。
CLOUD_FILE_SOURCE_FILE_NOT_FOUND
ファイル <filePath> に関する通知が受信されましたが、そのファイルはもう存在しません。 処理する前に、ファイルが削除されていないことを確認してください。 ストリームを続行するには、Spark SQL 構成 <config> を true に設定します。
CLOUD_PROVIDER_ERROR
クラウド プロバイダー エラー: <message>
CLUSTERING_COLUMNS_MISMATCH
指定されたクラスタリングが、既存のテーブルの <tableName>と一致しません。
指定されたクラスタリング列: [<specifiedClusteringString>]。
既存のクラスタリング列: [<existingClusteringString>]。
CLUSTERING_NOT_SUPPORTED
'<operation>' はクラスタリングをサポートしていません。
CLUSTER_BY_AUTO_FEATURE_NOT_ENABLED
自動クラスター機能を有効にするには、Databricks の担当者にお問い合わせください。
CLUSTER_BY_AUTO_REQUIRES_CLUSTERING_FEATURE_ENABLED
CLUSTER BY AUTO を使用するには、clusteringTable.enableClusteringTableFeature を有効にしてください。
CLUSTER_BY_AUTO_REQUIRES_PREDICTIVE_OPTIMIZATION
CLUSTER BY AUTO では、予測最適化を有効にする必要があります。
CLUSTER_BY_AUTO_UNSUPPORTED_TABLE_TYPE_ERROR
CLUSTER BY AUTO は UC マネージド テーブルでのみサポートされます。
CODEC_NOT_AVAILABLE
コーデック <codecName> は使用できません。
詳細については、CODEC_NOT_AVAILABLE を参照してください。
CODEC_SHORT_NAME_NOT_FOUND
コーデック <codecName>の短い名前が見つかりません。
COLLATION_INVALID_NAME
<collationName> 値が正しい照合順序名を表していません。 有効な照合順序名の候補: [<proposals>]。
COLLATION_INVALID_PROVIDER
<provider> の値は正しい照合プロバイダーを表していません。 サポートされているプロバイダーは次のとおりです: [<supportedProviders>]。
COLLATION_MISMATCH
文字列関数と演算子に使用する照合順序を特定できませんでした。
詳細については、COLLATION_MISMATCH を参照してください。
COLLECTION_SIZE_LIMIT_EXCEEDED
配列サイズの上限 <numberOfElements> を超える要素 <maxRoundedArrayLength> を含む配列は作成できません。
詳細については、COLLECTION_SIZE_LIMIT_EXCEEDED を参照してください
COLUMN_ALIASES_NOT_ALLOWED
<op>では列のエイリアスは使用できません。
COLUMN_ALREADY_EXISTS
列 <columnName> は既に存在します。 別の名前を選択するか、既存の列の名前を変更します。
COLUMN_ARRAY_ELEMENT_TYPE_MISMATCH
フィールド <pos> の一部の値は、列配列型と互換性がありません。 予期される型は <type> です。
COLUMN_MASKS_ABAC_MISMATCH
ポリシーから継承された列マスクと明示的に定義された列マスクの間に不一致があるため、<tableName> で列マスクを解決できませんでした。 続行するには、属性ベースのアクセス制御 (ABAC) を無効にして、Databricks サポートにお問い合わせください。
COLUMN_MASKS_チェック制約_非対応
列マスク ポリシーを使用したテーブル CHECK に対する <tableName> 制約の作成はサポートされていません。
COLUMN_MASKS_列名を使用した重複
<statementType> ステートメントが、同じ名前の USING COLUMNSを持つ <columnName> リストに他の 2 つ以上の参照列を含む列に列マスク ポリシーを割り当てようとしました。これは無効です。
COLUMN_MASKS_機能はサポートされていません
<tableName> の列マスク ポリシーはサポートされていません。
詳細については、COLUMN_MASKS_FEATURE_NOT_SUPPORTED を参照してください
COLUMN_MASKS_INCOMPATIBLE_SCHEMA_CHANGE
列<statementType> <columnName>の列マスク ポリシーで参照されているため、テーブル <tableName>から<maskedColumn>できません。 先に進む前に、テーブル所有者がこのポリシーを削除または変更する必要があります。
COLUMN_MASKS_マージがサポートされていないソース
MERGE INTO 操作では、ソース テーブル <tableName>の列マスク ポリシーはサポートされていません。
COLUMN_MASKS_マージ_サポートされていないターゲット
MERGE INTO 操作では、列マスク ポリシーを使用したテーブル <tableName> への書き込みはサポートされていません。
COLUMN_MASKS_マルチパート_ターゲット_カラム名
このステートメントは、複数の名前部分を持つ列 <columnName> に列マスク ポリシーを割り当てようとしました。これは無効です。
COLUMN_MASKS_MULTI_PART_USING_COLUMN_NAME
このステートメントでは、列マスク ポリシーを列に割り当てようとしました。USING COLUMNS リストには、複数の名前部分を含む名前 <columnName> が含まれていましたが、これは無効です。
COLUMN_MASKS_無効
列マスクの定義のサポートが有効になっていません
COLUMN_MASKS_REQUIRE_UNITY_CATALOG
列マスク ポリシーは、Unity カタログでのみサポートされます。
COLUMN_MASKS_SECONDARY_INDEX_CREATION_UNSUPPORTED
テーブルに列マスク ポリシーが定義されているため、セカンダリ インデックス ON TABLE <tableName> を作成できません。
COLUMN_MASKS_パーティションの表示がサポートされていません
SHOW PARTITIONS コマンドは、列マスクを持つ<format> テーブルではサポートされていません。
COLUMN_MASKS_テーブルのクローン元がサポートされていません
カラム マスク ポリシーが適用されたテーブル <mode> からの <tableName> のクローンはサポートされていません。
COLUMN_MASKS_TABLE_CLONE_TARGET_NOT_SUPPORTED (テーブルクローンのターゲットがサポートされていません)
列マスク ポリシーを持つテーブル <mode> への <tableName> 複製はサポートされていません。
COLUMN_MASKS_サポートされていない定数としてのパラメータ
列マスク ポリシーで定数をパラメーターとして使用することはサポートされていません。 SQL コマンドを更新して、列マスク定義から定数を削除してから、もう一度コマンドを再試行してください。
COLUMN_MASKS_UNSUPPORTED_DATA_TYPE (サポートされていないデータ型)
列マスク ポリシーとして使用 <functionName> 関数には、サポートされていないデータ型 <dataType>を持つパラメーターが含まれています。
COLUMN_MASKS_サポートされていないプロバイダー
テーブル プロバイダー "<statementType>" を使用したターゲット データ ソースでは列マスク ポリシーの割り当てがサポートされていないため、<provider> コマンドを実行できませんでした。
COLUMN_MASKS_ターゲット列と同じ列名を使用中
列 <columnName> ターゲット列と同じ名前を持っていましたが、これは無効です。USING COLUMNS リストから列を削除し、コマンドを再試行してください。
COLUMN_NOT_DEFINED_IN_TABLE
<colType> 列 <colName> はテーブル <tableName>で定義されていません。定義済みのテーブル列は次のとおりです:<tableCols>。
COLUMN_NOT_FOUND
列 <colName> が見つかりません。 SQL 構成 <caseSensitiveConfig>に従って、列名のスペルと正確性を確認します。
COLUMN_NOT_FOUND_IN_TABLE
列 <columnName> テーブル <tableFullName>に見つかりません。
COLUMN_ORDINAL_OUT_OF_BOUNDS
列序数が範囲外です。 テーブル内の列の数は <attributesLength>ですが、列序数は <ordinal>です。
属性は次のとおりです: <attributes>.
コマンドが有効ではありません
<command> コマンドが有効になっていません。
COMMA_PRECEDING_CONSTRAINT_ERROR
制約定義の前に予期しない ',' が発生しました。 列 (および期待値) が定義されていない場合は、制約句がコンマで始まらないことを確認します。
COMMENT_ON_CONNECTION_NOT_IMPLEMENTED_YET
COMMENT ON CONNECTION コマンドはまだ実装されていません
COMPARATOR_RETURNS_NULL
比較器は、NULL と <firstValue>の比較のための <secondValue> を返しました。
"より大きい" の場合は正の整数、"等しい" の場合は 0、"より小さい" の場合は負の整数を返す必要があります。
NULLが 0 (等しい) として扱われる非推奨の動作に戻すには、"spark.sql.legacy.allowNullComparisonResultInArraySort" を "true" に設定する必要があります。
COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
式の入力データ型を処理できません: <expression>。
詳細については、COMPLEX_EXPRESSION_UNSUPPORTED_INPUT を参照してください
CONCURRENT_QUERY
このクエリの別のインスタンス [id: <queryId>] は、同時実行セッション [既存の runId: <existingQueryRunId> 新しい runId: <newQueryRunId>] によって開始されました。
CONCURRENT_SCHEDULER_INSUFFICIENT_SLOT
クラスターで必要な空きスロットの最小数は <numTasks>ですが、クラスターには空きスロット <numSlots> しかありません。 クエリが停止するか、失敗します。 クラスター サイズを増やして続行します。
CONCURRENT_STREAM_LOG_UPDATE
ログの同時更新。
<batchId>に対して複数のストリーミング ジョブが検出されました。
特定のチェックポイントの場所で一度に実行されるストリーミング ジョブは 1 つだけであることを確認してください。
CONFIG_NOT_AVAILABLE
構成 <config> は使用できません。
CONFLICTING_CLUSTER_CONFIGURATION
次の構成が spark.databricks.streaming.realTimeMode.enabled と競合しています: <confNames>。 クラスター構成からこれらの構成を削除し、Spark クラスターを再起動します。
CONFLICTING_DIRECTORY_STRUCTURES
競合するディレクトリ構造が検出されました。
疑わしいパス:
<discoveredBasePaths>
指定されたパスがパーティション ディレクトリの場合は、データ ソースのオプションで "basePath" を設定して、テーブルのルート ディレクトリを指定してください。
複数のルート ディレクトリがある場合は、それらを個別に読み込んでから、それらを結合してください。
CONFLICTING_PARTITION_COLUMN_NAMES
パーティション列名の競合が検出されました:
<distinctPartColLists>
パーティション テーブル ディレクトリの場合、データ ファイルはリーフ ディレクトリにのみ格納する必要があります。
また、同じレベルのディレクトリには、同じパーティション列名が必要です。
次のディレクトリで、予期しないファイルや一貫性のないパーティション列名がないか確認してください。
<suspiciousPaths>
CONFLICTING_PARTITION_COLUMN_NAME_WITH_RESERVED
パーティション列名 '<partitionColumnName>' は予約列名と競合します。
<tableName>のスキーマは Hive と互換性がありません。Spark は、テーブルを特定の方法で格納するために予約列 '<partitionColumnName>' を自動的に生成します。
パーティション列には別の名前を使用してください。
CONFLICTING_PROVIDER
指定されたプロバイダー <provider> が、既存のカタログ プロバイダー <expectedProvider>と矛盾しています。 'USING <expectedProvider>' を使用して、コマンドを再試行してください。
CONFLICTING_SQL_CONFIGURATION
次の構成が spark.databricks.streaming.realTimeMode.enabled と競合しています: <confNames>。 SparkSession 構成からこれらの構成を削除します。
CONNECT
一般的な Spark Connect エラー。
詳細については、CONNECT を参照してください。
CONNECTION_ALREADY_EXISTS
接続 <connectionName> は既に存在するため作成できません。
別の名前を選択するか、既存の接続を削除または置き換えるか、既存の接続を許容する IF NOT EXISTS 句を追加します。
CONNECTION_NAME_CANNOT_BE_EMPTY
接続名が空でない必要があるため、このコマンドを実行できません。
CONNECTION_NOT_FOUND
接続名 <connectionName> が見つからなかったため、このコマンドを実行できません。
CONNECTION_OPTION_NOT_SUPPORTED
型 '<connectionType>' の接続では、次のオプションはサポートされていません: <optionsNotSupported>。 サポートされているオプション: <allowedOptions>.
CONNECTION_TYPE_NOT_SUPPORTED
型 '<connectionType>' の接続を作成できません。 サポートされている接続の種類: <allowedTypes>。
オプション注入に対応していない接続タイプ
名前 <connectionName> と種類 <connectionType> を持つ接続は、データフレーム オプションではサポートされていません。
リモートクエリ機能に対応していない接続タイプ
型 '<connectionName>' の名前 '<connectionType>' を持つ接続は、リモート クエリ関数の実行ではサポートされていません。
CONNECT_INVALID_PLAN
Spark Connect プランが無効です。
詳細については、CONNECT_INVALID_PLANを参照してください。
CONNECT_SESSION_MIGRATION
汎用セッション移行エラー (userId: <userId>、sessionId: <sessionId>、serverSessionId: <serverSessionId>)。
詳細については、CONNECT_SESSION_MIGRATION を参照してください
CONSTRAINTS_REQUIRE_UNITY_CATALOG
テーブル制約は Unity カタログでのみサポートされます。
CONSTRAINT_ALREADY_EXISTS
制約 '<constraintName>' は既に存在します。 最初に既存の制約を削除してください。
既存の制約:
<oldConstraint>
CONSTRAINT_ALREADY_EXISTS_IN_SCHEMA
制約 <constraintName> は、データベース <schemaName>に既に存在します。
CONSTRAINT_ALREADY_EXISTS_WITH_SERVER_MESSAGE
<serverMessage>
CONSTRAINT_DOES_NOT_EXIST
テーブル <constraintName>から存在しない制約 <tableName> を削除することはできません。
CONVERSION_INVALID_INPUT
値 <str> (<fmt>) 形式が正しくないため、 <targetType> に変換できません。 構文に従って値を修正するか、その形式を変更します。
<suggestion> を使用して、形式が正しくない入力を許容し、代わりに NULL を返します。
COPY_INTO_COLUMN_ARITY_MISMATCH
<tableName>に書き込めません。理由は次のとおりです。
詳細については、COPY_INTO_COLUMN_ARITY_MISMATCH を参照してください
COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON
スキーム <scheme>が無効です。
COPY INTO ソース資格情報は現在、s3/s3n/s3a/wasbs/abfss のみをサポートしています。
COPY_INTO_CREDENTIALS_REQUIRED
COPY INTO ソース資格情報に<keyList>を指定する必要があります。
COPY_INTO_DUPLICATED_FILES_COPY_NOT_ALLOWED
重複したファイルは、同時 COPY INTO 操作でコミットされました。 後でもう一度やり直してください。
COPY_INTO_ENCRYPTION_NOT_ALLOWED_ON
スキーム <scheme>が無効です。
COPY INTO ソース暗号化では現在、s3/s3n/s3a/abfss のみがサポートされています。
COPY_INTO_ENCRYPTION_NOT_SUPPORTED_FOR_AZURE
COPY INTO 暗号化では、ADLS Gen2 または abfss:// ファイル スキームのみがサポートされます
COPY_INTO_ENCRYPTION_REQUIRED
COPY INTO ソース暗号化で '<key>' を指定する必要があります。
COPY_INTO_ENCRYPTION_REQUIRED_WITH_EXPECTED
暗号化オプション <requiredKey>が無効です。
COPY INTO ソース暗号化では、'<requiredKey>' = '<keyValue>' を指定する必要があります。
COPY_INTO_FEATURE_INCOMPATIBLE_SETTING
COPY INTO機能 '<feature>' は '<incompatibleSetting>' と互換性がありません。
COPY_INTO_NON_BLIND_APPEND_NOT_ALLOWED
データの追加以外の COPY INTO は、他のトランザクションと同時に実行することはできません。 後でもう一度やり直してください。
COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED
COPY INTO 状態の読み込みに失敗し、最大再試行回数を超えました。
COPY_INTO_SCHEMA_MISMATCH_WITH_TARGET_TABLE
Delta テーブルへのコピー中にスキーマの不一致が検出されました (テーブル: <table>)。
これは、受信データに問題があることを示している場合があります。または、次のように設定することで、受信データに従って Delta テーブル スキーマを自動的に進化させることができます。
COPY_OPTIONS ('mergeSchema' = 'true')
スキーマの違い:
<schemaDiff>
COPY_INTO_SOURCE_FILE_FORMAT_NOT_SUPPORTED
ソース ファイルの形式は、CSV、 JSON、AVRO、ORC、 PARQUET、TEXT、または BINARYFILEのいずれかである必要があります。
COPY INTO 操作後に重複データが取り込まれる可能性があるため、ソースとしてデルタ テーブルで OPTIMIZE を使用することはサポートされていません。 このチェックは、SQL コマンド set spark.databricks.delta.copyInto.formatCheck.enabled = falseを実行することで無効にすることができます。
COPY_INTO_SOURCE_SCHEMA_INFERENCE_FAILED
ソース ディレクトリに、<format>型の解析可能なファイルが含まれていませんでした。 「<source>」の内容をご確認ください。
エラーは、'<config>' を 'false' に設定することで消音できます。
COPY_INTO_STATE_INTERNAL_ERROR
COPY INTO 状態の処理中に内部エラーが発生しました。
詳細については、COPY_INTO_STATE_INTERNAL_ERROR を参照してください
COPY_INTO_SYNTAX_ERROR
COPY INTO コマンドを解析できませんでした。
詳細については、COPY_INTO_SYNTAX_ERROR を参照してください
COPY_INTO_UNSUPPORTED_FEATURE
COPY INTO機能 '<feature>' はサポートされていません。
COPY_UNLOAD_FORMAT_TYPE_NOT_SUPPORTED
'<formatType>' 形式のデータをアンロードできません。
<connectionType> でサポートされている形式は、<allowedFormats>です。
CORRUPTED_CATALOG_FUNCTION
カタログ内の関数情報が破損しているため、カタログ関数 '<identifier>' を SQL 関数に変換できません。 関数が SQL 関数でない場合は、クラス名 '<className>' が読み込み可能であることを確認してください。
CREATE_FOREIGN_SCHEMA_NOT_IMPLEMENTED_YET
CREATE FOREIGN SCHEMA コマンドはまだ実装されていません
CREATE_FOREIGN_TABLE_NOT_IMPLEMENTED_YET
CREATE FOREIGN TABLE コマンドはまだ実装されていません
CREATE_OR_REFRESH_MV_NOT_SUPPORTED
CREATE OR REFRESH MATERIALIZED VIEW はサポートされていません。 代わりに CREATE OR REPLACE MATERIALIZED VIEW を使用してください。
CREATE_OR_REFRESH_MV_ST_ASYNC
CREATE を指定した場合、REFRESH または ASYNC の具体化されたビューやストリーミングテーブルを利用することはできません。
ASYNC OR CREATE ステートメントから REFRESH を削除するか、REFRESH ASYNC を使用して既存の具体化されたビューまたはストリーミング テーブルを非同期的に更新してください。
CREATE_PERMANENT_VIEW_WITHOUT_ALIAS
式 <name>のエイリアスを明示的に割り当てずに、永続的なビュー <attr> を作成することはできません。
CREATE_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
CREATE TABLE column <columnName> は記述子 "<optionName>" を複数回指定しますが、これは無効です。
CREATE_VIEW_COLUMN_ARITY_MISMATCH
ビュー <viewName>を作成できません。理由は次のとおりです。
詳細については、CREATE_VIEW_COLUMN_ARITY_MISMATCH を参照してください
CREDENTIAL_MISSING
外部の場所を作成または更新するときは、資格情報を入力してください。
CREDENTIAL_PURPOSE_MISMATCH
資格情報 <credentialName> には目的 <actualPurpose> がありますが、コマンドで指定された目的は <expectedPurpose>。
CSV_ENFORCE_SCHEMA_NOT_SUPPORTED
列は序数ではなく名前で読み取られるので、enforceSchema または rescuedDataColumnを使用する場合は、CSV オプション failOnUnknownFields を設定できません。
CYCLIC_FUNCTION_REFERENCE
循環関数参照が検出されました: <path>。
DATABRICKS_DELTA_NOT_ENABLED
お使いのアカウントで Databricks Delta が有効になっていません。<hints>
DATAFLOW_GRAPH_NOT_FOUND
ID <graphId> を持つデータフロー グラフが見つかりませんでした
データ型の整列ができません
型 <dataType> は順序付けされた操作をサポートしていません。
DATATYPE_MISMATCH
データ型の不一致のため、<sqlExpr> を解決できません。
詳細については、DATATYPE_MISMATCH を参照してください。
DATATYPE_MISSING_SIZE
DataType <type> には、<type>(10) などの長さのパラメーターが必要です。 長さを指定してください。
DATA_LINEAGE_SECURE_VIEW_LEAF_NODE_HAS_NO_RELATION
系列の書き込みに失敗しました。CLM/RLS に対するポリシーを持つ、対応する関係がありません。
DATA_SOURCE_ALREADY_EXISTS
データ ソース '<provider>' は既に存在します。 新しいデータ ソースに別の名前を選択してください。
DATA_SOURCE_CONNECTION_MISSING_ALLOW_LIST
接続 <connectionName> は、外部オプション許可リストが構成されていないため、このコンテキストではサポートされていません。 有効な <optionName>を含むように接続を更新してください。
DATA_SOURCE_EXTERNAL_ERROR
外部データ ソースに保存するときにエラーが発生しました。
DATA_SOURCE_NOT_EXIST
データ ソース '<provider>' が見つかりません。 データ ソースが登録されていることを確認してください。
DATA_SOURCE_NOT_FOUND
データ ソース <provider>を見つけることができません。 プロバイダー名が正しく、パッケージが正しく登録され、Spark バージョンと互換性があることを確認します。
DATA_SOURCE_OPTIONS_VALIDATION_FAILED (データ ソース オプションの検証に失敗しました)
<dataSource> データ ソース オプションの検証に失敗しました。
詳細については、DATA_SOURCE_OPTIONS_VALIDATION_FAILEDを参照してください。
DATA_SOURCE_OPTION_CONTAINS_INVALID_CHARACTERS
オプション <option> は空にすることはできません。また、無効な文字、クエリ文字列、またはパラメーターを含めてはなりません。
DATA_SOURCE_OPTION_IS_REQUIRED
オプション <option> が必要です。
DATA_SOURCE_OPTION_NOT_ALLOWED_BY_CONNECTION
オプション <optionName> は、接続 <connectionName> では許可されず、外部で指定することはできません。
DATA_SOURCE_OPTION_VALUE_NOT_VALID
指定されたデータ ソース オプション '<option>' に無効な値 ('<value>') が含まれています。
詳細については、DATA_SOURCE_OPTION_VALUE_NOT_VALIDを参照してください。
DATA_SOURCE_SYNTAX_ERROR_DURING_QUERY_EXECUTION
外部データ ソース エンジン <dataSourceEngine> クエリ '<query>' の実行中に構文エラーがスローされました。
<externalEngineError>。
DATA_SOURCE_TABLE_SCHEMA_MISMATCH
データ ソース テーブルのスキーマが、想定されるスキーマと一致しません。 DataFrameReader.schema API を使用している場合、またはテーブルを作成する場合は、スキーマを指定しないでください。
データ ソース スキーマ: <dsSchema>
必要なスキーマ: <expectedSchema>
DATA_SOURCE_URL_NOT_ALLOWED
データ ソース オプションでは JDBC URL は使用できません。代わりに、'host'、'port'、および 'database' オプションを指定してください。
DATETIME_FIELD_OUT_OF_BOUNDS
<rangeMessage>。
詳細については、DATETIME_FIELD_OUT_OF_BOUNDSを参照してください。
DATETIME_OVERFLOW
Datetime 操作のオーバーフロー: <operation>。
DC_API_QUOTA_EXCEEDED
データ ソース <sourceName>の API クォータを超えました。
詳細については、DC_API_QUOTA_EXCEEDED を参照してください
DC_CONNECTION_ERROR
<sourceName> ソースへの接続に失敗しました。 エラー コード: <errorCode>。
詳細については、DC_CONNECTION_ERROR を参照してください。
DC_DYNAMICS_API_ERROR
Dynamics API 呼び出しでエラーが発生しました。errorCode: <errorCode>。
詳細については、DC_DYNAMICS_API_ERROR を参照してください。
DC_NETSUITE_ERROR
Netsuite JDBC 呼び出し、errorCode: <errorCode>でエラーが発生しました。
詳細については、DC_NETSUITE_ERROR を参照してください。
DC_SCHEMA_CHANGE_ERROR
SQLSTATE: 割り当てなし
<tableName> ソースのテーブル <sourceName> でスキーマの変更が発生しました。
詳細については、DC_SCHEMA_CHANGE_ERROR を参照してください。
DC_SERVICENOW_API_ERROR
ServiceNow API 呼び出し、errorCode: <errorCode>でエラーが発生しました。
詳細については、DC_SERVICENOW_API_ERROR を参照してください。
DC_SFDC_BULK_QUERY_JOB_INCOMPLETE
Salesforce API クエリ ジョブに時間がかかりすぎたり、失敗したり、手動で取り消されたりしたため、オブジェクト <objName> の取り込みは不完全です。
もう一度試すには、パイプライン全体を再実行するか、この特定の宛先テーブルを更新します。 エラーが解決しない場合は、チケットを提出します。 ジョブ ID: <jobId>。 ジョブの状態: <jobStatus>。
DC_SHAREPOINT_API_ERROR
SharePoint API 呼び出し、errorCode: <errorCode>でエラーが発生しました。
詳細については、DC_SHAREPOINT_API_ERROR を参照してください。
DC_SOURCE_API_ERROR
<sourceName> API 呼び出しでエラーが発生しました。 ソース API の種類: <apiType>。 エラー コード: <errorCode>。
これは、 <sourceName> API の制限に達したときに発生することがあります。 API の制限を超えていない場合は、コネクタを再実行してみてください。 問題が解決しない場合は、チケットを提出してください。
DC_UNSUPPORTED_ERROR
データ ソース <sourceName>でサポートされていないエラーが発生しました。
詳細については、DC_UNSUPPORTED_ERROR を参照してください。
DC_WORKDAY_RAAS_API_ERROR
Workday RAAS API 呼び出しでエラーが発生しました。errorCode: <errorCode>。
詳細については、DC_WORKDAY_RAAS_API_ERROR を参照してください。
DECIMAL_PRECISION_EXCEEDS_MAX_PRECISION
10 進精度 <precision> が最大精度 <maxPrecision>を超えています。
DEFAULT_DATABASE_NOT_EXISTS
既定のデータベース <defaultDatabase> が存在しません。最初に作成するか、既定のデータベースを <defaultDatabase>に変更してください。
DEFAULT_FILE_NOT_FOUND
基になるファイルが更新されている可能性があります。 SQL で 'REFRESH TABLE tableName' コマンドを実行するか、関係する Dataset/DataFrame を再作成することで、Spark のキャッシュを明示的に無効にすることができます。 ディスク キャッシュが古い場合、または基になるファイルが削除されている場合は、クラスターを再起動することで、ディスク キャッシュを手動で無効にすることができます。
DEFAULT_PLACEMENT_INVALID
MERGE, INSERT, UPDATEまたは SET VARIABLE コマンドのDEFAULT キーワードは、式の一部であるため、ターゲット列に直接割り当てませんでした。
たとえば、 UPDATE SET c1 = DEFAULT は許可されますが、 UPDATE T SET c1 = DEFAULT + 1 は許可されません。
DEFAULT_UNSUPPORTED
テーブル プロバイダーが "<statementType>" のターゲット データ ソースではDEFAULT値がサポートされていないため、<dataSource>コマンドを実行できませんでした。
DEFINE_FLOW_ONCE_OPTION_NOT_SUPPORTED
"1 回限り" オプションを使用した 1 回限りのフロー <flowName> の定義はサポートされていません。
DESCRIBE_JSON_NOT_EXTENDED
DESCRIBE TABLE
...
AS JSON [EXTENDED|FORMATTED] が指定されている場合にのみサポートされます。
たとえば、 DESCRIBE EXTENDED <tableName> AS JSON はサポートされていますが、 DESCRIBE <tableName> AS JSON はサポートされていません。
DIFFERENT_DELTA_TABLE_READ_BY_STREAMING_SOURCE
ストリーミング クエリは、予期しない Delta テーブル (id = '<newTableId>') から読み取っていました。
チェックポイントに従って別の Delta テーブル (id = '<oldTableId>') から読み取るために使用されます。
これは、新しいテーブルから読み取るコードを変更した場合、またはテーブルを削除した場合に発生することがあります。
テーブルを再作成しました。 変更を元に戻すか、ストリーミング クエリ チェックポイントを削除してください
削除してください。
DISTINCT_WINDOW_FUNCTION_UNSUPPORTED
個別のウィンドウ関数はサポートされていません:<windowExpr>。
DIVIDE_BY_ZERO
0 で除算します。 除数が 0 であることを許容し、代わりに try_divide を返すには、NULL を使用します。 このエラーをバイパスするには、必要に応じて <config> を "false" に設定します。
詳細については、DIVIDE_BY_ZERO を参照してください。
DLT_EXPECTATIONS_NOT_SUPPORTED
期待値は、Lakeflow Spark 宣言パイプライン パイプライン内でのみサポートされます。
DLT_VIEW_CLUSTER_BY_NOT_SUPPORTED
MATERIALIZED
CLUSTER BY句を持つ VIEW は、Lakeflow Spark 宣言パイプライン パイプラインでのみサポートされます。
DLT_VIEW_LOCATION_NOT_SUPPORTED
MATERIALIZED VIEW 場所は、Lakeflow Spark 宣言パイプライン パイプラインでのみサポートされます。
DLT_VIEW_SCHEMA_WITH_TYPE_NOT_SUPPORTED
MATERIALIZED VIEW 指定した型のスキーマは、Lakeflow Spark 宣言パイプライン パイプラインでのみサポートされます。
DLT_VIEW_TABLE_CONSTRAINTS_NOT_SUPPORTED
CONSTRAINT ビューの句は、Lakeflow Spark 宣言パイプライン パイプラインでのみサポートされます。
DML_OPERATIONS_NOT_SUPPORTED_FOR_REMOTE_QUERY_FUNCTION
リモート クエリ関数は DML クエリをサポートしていません。
DROP_COMMAND_TYPE_MISMATCH
DROP <commandType>を含む<metadataType>を削除できません。
代わりに DROP <metadataTypeUpper> を使用してください。
DROP_SCHEDULE_DOES_NOT_EXIST
既存のスケジュールまたはトリガーがないテーブルに対して SCHEDULE を削除することはできません。
DUPLICATED_CTE_NAMES
CTE 定義に重複する名前 ( <duplicateNames>) を付けることはできません。
DUPLICATED_FIELD_NAME_IN_ARROW_STRUCT
アロー構造体内に重複するフィールド名は許可されません。<fieldNames> を取得しました。
DUPLICATED_MAP_KEY
マップ キーの重複 <key> が見つかりました。入力データを確認してください。
重複したキーを削除する場合は、最後に挿入されたキーが優先されるように、 <mapKeyDedupPolicy> を "LAST_WIN" に設定できます。
DUPLICATED_METRICS_NAME
メトリック名は一意ではありません: <metricName>。 結果が異なるメトリックに同じ名前を使用することはできません。
ただし、同じ結果と名前を持つメトリックの複数のインスタンス (自己結合など) は許可されます。
DUPLICATE_ASSIGNMENTS
列または変数 <nameList> 割り当てターゲットとして複数回表示されます。
DUPLICATE_CLAUSES
重複する句が見つかりました: <clauseName>。 そのうちの 1 つを削除してください。
DUPLICATE_CONDITION_IN_SCOPE
スコープ内で重複する条件 <condition> が見つかりました。 そのうちの 1 つを削除してください。
DUPLICATE_EXCEPTION_HANDLER
重複するハンドラーが見つかりました。 そのうちの 1 つを削除してください。
詳細については、DUPLICATE_EXCEPTION_HANDLERを参照してください。
DUPLICATE_FLOW_SQL_CONF
データセット '<datasetName>' に重複する SQL conf が見つかりました: '<key>' は '<flowName1>' と '<flowName2>' の両方で定義されています
DUPLICATE_KEY
<keyColumn>重複するキーが見つかりました。
DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
ルーチン <routineName> の呼び出しは無効です。同じパラメーター名 <parameterName>に対する複数の引数の割り当てが含まれているためです。
詳細については、DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT を参照してください
DUPLICATE_ROUTINE_PARAMETER_NAMES
ユーザー定義ルーチン <routineName>のパラメーター リストに重複する名前が見つかりました: <names>。
DUPLICATE_ROUTINE_RETURNS_COLUMNS
ユーザー定義ルーチン RETURNSの <routineName> 句列リストに重複する列が見つかりました: <columns>。
DECLARE内の変数名の重複
宣言変数リストに重複する変数 <variableName> が見つかりました。 そのうちの 1 つを削除してください。
EMITTING_ROWS_OLDER_THAN_WATERMARK_NOT_ALLOWED
前のノードで、eventTime=<emittedRowEventTime> が current_watermark_value=<currentWatermark> より古い行が出力されました
これにより、実行パイプラインのダウンストリームのステートフル演算子で正確性の問題が発生する可能性があります。
現在のグローバル基準値の後に行を出力する演算子ロジックを修正してください。
EMPTY_JSON_FIELD_VALUE
データ型 <dataType>の空の文字列を解析できませんでした。
EMPTY_LOCAL_FILE_IN_STAGING_ACCESS_QUERY
ステージングのクエリ <operation> にある空のローカルファイル
EMPTY_SCHEMA_NOT_SUPPORTED_FOR_DATASOURCE
<format> データソースは、空または入れ子になった空のスキーマの書き込みをサポートしていません。 データ スキーマに少なくとも 1 つ以上の列があることを確認してください。
ENCODER_NOT_FOUND
Spark SQL 内部表現に <typeName> 型のエンコーダーが見つかりません。
入力の種類を、'<docroot>/sql-ref-datatypes.html' でサポートされている型のいずれかに変更することを検討してください。
END_LABEL_WITHOUT_BEGIN_LABEL
終了ラベル <endLabel> は、開始ラベルなしでは存在できません。
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_LATEST_WITH_TRIGGER_AVAILABLENOW
Kafka トピックの一部のパーティションでは、Trigger.AvailableNow を使用したクエリの実行中に終了オフセットより小さい使用可能なオフセットが報告されます。 エラーは一時的なものになる可能性があります。クエリを再起動し、同じ問題が引き続き発生した場合は報告します。
最新のオフセット: <latestOffset>, 終了オフセット: <endOffset>
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_PREFETCHED
Trigger.AvailableNow を使用する Kafka データ ソースの場合、終了オフセットは、プリフェッチされたオフセットよりも各トピック パーティションあたりのオフセットが小さいか等しい必要があります。 エラーは一時的なものになる可能性があります。クエリを再起動し、同じ問題が引き続き発生した場合は報告します。
プリフェッチされたオフセット: <prefetchedOffset>、終了オフセット: <endOffset>。
ERROR_READING_AVRO_UNKNOWN_FINGERPRINT
avro データの読み取り中に不明なフィンガープリントが発生しました: <fingerprint>、使用するスキーマがわからない。
これは、Spark コンテキストの開始後に追加のスキーマを登録した場合に発生する可能性があります。
EVENT_LOG_EMPTY
<tableOrPipeline>のイベント ログにはスキーマがなく、イベントも含まれていません。 イベントが生成された後でもう一度やり直してください
EVENT_LOG_REQUIRES_SHARED_COMPUTE
割り当て済みまたは分離なし共有クラスターからイベント ログを照会できません。代わりに、共有クラスターまたは Databricks SQL ウェアハウスを使用してください。
EVENT_LOG_TVF_UNSUPPORTED_FOR_PIPELINE
EVENT_LOG Table-Valued関数は、"schema" フィールドを使用するパイプライン、または既定のストレージに発行するパイプラインに対してはサポートされていません。
イベント ログのクエリを実行するには、パイプライン設定で event_log フィールドを指定してメタストアに発行します。
詳細については、Monitor Lakeflow Spark 宣言型パイプラインのドキュメントを参照してください。 https://docs.databricks.com/aws/en/delta-live-tables/observability
EVENT_LOG_UNAVAILABLE
<tableOrPipeline>で使用できるイベント ログはありません。 イベントが生成された後にもう一度やり直してください
EVENT_LOG_UNSUPPORTED_TABLE_TYPE
<tableIdentifier> のテーブルの種類は <tableType>です。
イベント ログのクエリでは、具体化されたビュー、ストリーミング テーブル、または Lakeflow Spark 宣言パイプラインパイプラインのみがサポートされます
EVENT_TIME_IS_NOT_ON_TIMESTAMP_TYPE
イベント時間 <eventName> は無効な型 <eventType> ですが、"TIMESTAMP" が必要です。
EXCEED_LIMIT_LENGTH
char/varchar 型の長さの制限を超えています: <limit>。
EXCELのデータソースが有効になっていません
このクラスターでは、Excel データ ソースが有効になっていません。
EXCEL_FILE_ERROR
Excel ファイル '<filePath>' の処理中にエラーが発生しました。
詳細については、EXCEL_FILE_ERRORを参照してください。
EXCEL_INVALID_READ_OPTION_VALUE(エクセル無効な読み取りオプション値)
Excel データ ソースの読み取りオプションの値が無効です。
詳細については、EXCEL_INVALID_READ_OPTION_VALUEを参照してください。
EXCEL_INVALID_WRITE_OPTION_VALUE(Excel 書き込みオプションの値が無効です)
Excel データ ソースでは、書き込みオプション '<value>' の値 '<option>' はサポートされていません。
詳細については、EXCEL_INVALID_WRITE_OPTION_VALUEを参照してください。
EXCEL_無効な書き込みスキーマ
Excel データ ソースでは、書き込みのスキーマ '<schema>' はサポートされていません。
<hint>
EXCEL_PARSING_ERROR
Excel データの解析中にエラーが発生しました。
詳細については、EXCEL_PARSING_ERRORを参照してください。
EXCEL_サポートされていない書き込みオプション
Excel データ ソースでは、書き込みオプション '<option>' はサポートされていません。
<hint>
EXCEPT_NESTED_COLUMN_INVALID_TYPE
EXCEPT 列 <columnName> が解決され、StructType であることが予期されましたが、型 <dataType>が見つかりました。
EXCEPT_OVERLAPPING_COLUMNS
EXCEPT リスト内の列は、それぞれ異なっていて、重複していない必要がありますが、(<columns>) を受け取りました。
EXCEPT_RESOLVED_COLUMNS_WITHOUT_MATCH
EXCEPT 列 [<exceptColumns>] は解決されましたが、スター型展開のどの列 [<expandedColumns>] とも一致しません。
EXCEPT_UNRESOLVED_COLUMN_IN_STRUCT_EXPANSION
<objectName> 句にある列/フィールド名 EXCEPT を解決できません。 次のいずれかの意味でしたか: [<objectList>]?
注: EXCEPT 句の入れ子になった列には、構造体の展開中に修飾子 (テーブル名、親構造体列名など) を含めないことがあります。入れ子になった列で修飾子を使用する場合は、修飾子を削除してみてください。
EXECUTOR_DISK_OUT_OF_SPACE
Executor ディスクの空き領域が不足しています。 使用可能な場合は、ディスク容量を増やしてください。 サーバーレスを使用している場合は、サポート チームにお問い合わせください。
EXEC_IMMEDIATE_DUPLICATE_ARGUMENT_ALIASES
この USING コマンドの EXECUTE IMMEDIATE 句には、同じエイリアス (<aliases>) を持つ複数の引数が含まれていました。これは無効です。コマンドを更新して一意のエイリアスを指定してから、もう一度やり直してください。
EXPECT_PERMANENT_TABLE_NOT_TEMP
'<operation>' には永続的なテーブルが必要ですが、 <tableName> は一時テーブルです。 代わりに永続的なテーブルを指定してください。
EXPECT_PERMANENT_VIEW_NOT_TEMP
'<operation>' は永続的なビューを必要としますが、 <viewName> は一時ビューです。
EXPECT_TABLE_NOT_VIEW
'<operation>' にはテーブルが必要ですが、 <viewName> はビューです。
詳細については、EXPECT_TABLE_NOT_VIEW を参照してください。
EXPECT_VIEW_NOT_TABLE
テーブル <tableName> は <operation>をサポートしていません。
詳細については、EXPECT_VIEW_NOT_TABLE を参照してください
EXPRESSION_DECODING_FAILED
行を式の値 (<expressions>) にデコードできませんでした。
EXPRESSION_ENCODING_FAILED
式の値 <expressions> を行にエンコードできませんでした。
EXPRESSION_TRANSLATION_TO_V2_IS_NOT_SUPPORTED
式 <expr> v2 式に変換できません。
EXPRESSION_TYPE_IS_NOT_ORDERABLE
列式 <expr> の型 <exprType> は順序付けできないため、並べ替えできません。
EXTERNAL_METASTORE_CLIENT_ERROR
クライアント操作が失敗しました:
詳細については、EXTERNAL_METASTORE_CLIENT_ERRORを参照してください。
EXTERNAL_SHALLOW_CLONE_STILL_EXISTS
浅い複製<sourceTable>がまだ存在し、その状態が無効であるため、ソース テーブル<targetTable>に対して操作を実行できませんでした。 この操作を実際に続行する場合は、DROP コマンドを明示的に実行して浅いクローンをクリーンアップしてください。
EXTERNAL_TABLE_INVALID_SCHEME
外部テーブルは、 <scheme> スキームをサポートしていません。
FABRIC_REFRESH_INVALID_SCOPE
'REFRESH FOREIGN <scope> <name>' の実行中にエラーが発生しました。 Fabric <scope> を直接更新することはできません。代わりに、"REFRESH FOREIGN CATALOG <catalogName>" を使用してファブリック カタログを更新してください。
FAILED_EXECUTE_UDF
ユーザー定義関数 (<functionName>: (<signature>) => <result>) は、 <reason>が原因で失敗しました。
FAILED_FUNCTION_CALL
呼び出しのために関数 <funcName> の準備に失敗しました。 関数の引数を再確認してください。
FAILED_JDBC
操作で JDBC <url> が失敗しました。
詳細については、FAILED_JDBC を参照してください。
FAILED_PARSE_STRUCT_TYPE
失敗した解析構造体: <raw>。
FAILED_READ_FILE
ファイル <path>の読み取り中にエラーが発生しました。
詳細については、FAILED_READ_FILE を参照してください。
FAILED_REGISTER_CLASS_WITH_KRYO
Kryo にクラスを登録できませんでした。
FAILED_RENAME_PATH
宛先が既に存在するため、<sourcePath> の名前を <targetPath> に変更できませんでした。
FAILED_RENAME_TEMP_FILE
FileSystem.rename が false に返されたので、一時ファイル <srcPath> の名前を <dstPath> に変更できませんでした。
FAILED_ROW_TO_JSON
<class>クラスの行値<value>を、JSON形式のターゲット SQL 型<sqlType>に変換できませんでした。
FAILED_TO_CREATE_PLAN_FOR_DIRECT_QUERY
ファイルに対する直接クエリのプランを作成できませんでした: <dataSourceType>
FAILED_TO_LOAD_ROUTINE
ルーチン <routineName>を読み込めませんでした。
FAILED_TO_PARSE_TOO_COMPLEX
潜在的な SQL 関数や参照されるビューを含むステートメントは、解析が複雑すぎます。
このエラーを軽減するために、ステートメントを複数のより複雑でないチャンクに分割します。
FEATURE_NOT_ENABLED
機能 <featureName> が有効になっていません。 この機能を有効にするには、構成 <configKey> を <configValue> に設定することを検討してください。
FEATURE_NOT_ON_CLASSIC_WAREHOUSE
<feature> は、クラシック SQL ウェアハウスではサポートされていません。 この機能を使用するには、Pro またはサーバーレス SQL ウェアハウスを使用します。
FEATURE_REQUIRES_UC
<feature> は Unity カタログなしではサポートされていません。 この機能を使用するには、Unity カタログを有効にします。
FEATURE_UNAVAILABLE
<feature> は、環境内ではサポートされていません。 この機能を使用するには、Databricks サポートにお問い合わせください。
FETCH_FAILED
シャッフル データまたはメタデータのフェッチ中にタスクが失敗しました: <errorString>。
FGAC_ON_DEDICATED_COMPUTE_FAILED
次の例外により、専用コンピューティングでのきめ細かいアクセス制御 (FGAC) に失敗しました。 <message>
FIELD_ALREADY_EXISTS
<op> が既に <fieldNames>に存在するため、<struct> 列を作成できません。
FIELD_NOT_FOUND
<fieldName>にこのような構造体フィールド <fields> はありません。
FILE_IN_STAGING_PATH_ALREADY_EXISTS
ステージング パス内のファイル <path> 既に存在しますが、OVERWRITE が設定されていません
FLATMAPGROUPSWITHSTATE_USER_FUNCTION_ERROR
flatMapGroupsWithState のユーザー指定関数でエラーが発生しました。 理由: <reason>
FORBIDDEN_DATASOURCE_IN_SERVERLESS
サーバーレス コンピューティングでデータ ソース <source> のクエリを実行することはできません。 サーバーレス コンピューティングでは、<allowlist> データ ソースのみがサポートされます。
FORBIDDEN_KEYWORD_IN_JDBC_QUERY
クエリ オプション <queryOption> 禁止キーワードを含めることはできません。 クエリから次のキーワードを削除してください。 <keywords>
FORBIDDEN_OPERATION
<statement>: <objectType>では、操作 <objectName> は許可されていません。
FOREACH_BATCH_USER_FUNCTION_ERROR
foreach バッチ シンクのユーザー指定関数でエラーが発生しました。 理由: <reason>
FOREACH_USER_FUNCTION_ERROR
foreach シンクのユーザー指定関数でエラーが発生しました。 理由: <reason>
FOREIGN_KEY_MISMATCH
外部キーの親列 <parentColumns> が主キーの子列 <childColumns>と一致しません。
FOREIGN_OBJECT_NAME_CANNOT_BE_EMPTY
外部 <objectType> 名は空でない必要があるため、このコマンドを実行できません。
FOREIGN_TABLE_CONVERSION_UNSUPPORTED
テーブルは UC Foreign から UC External へのアップグレードの対象ではありません。 Reason:
詳細については、FOREIGN_TABLE_CONVERSION_UNSUPPORTEDを参照してください。
FOREIGN_VIEW_CONVERSION_UNSUPPORTED
オブジェクト <objectName> は、UC マネージド ビューへの変換の対象ではありません。 Reason:
詳細については、FOREIGN_VIEW_CONVERSION_UNSUPPORTEDを参照してください。
FROM_JSON_CONFLICTING_SCHEMA_UPDATES
from_json推論で競合するスキーマの更新が発生しました: <location>
FROM_JSON_CORRUPT_RECORD_COLUMN_IN_SCHEMA
from_jsonはcolumnNameOfCorruptRecord(<columnNameOfCorruptRecord>)が存在することを見つけました。
を JSON オブジェクトに格納し、続行できなくなります。 別の値を設定してください。
オプション 'columnNameOfCorruptRecord'。
FROM_JSON_CORRUPT_SCHEMA
from_jsonの推論は、格納されているスキーマを<location>で読み取れませんでした。
FROM_JSON_INFERENCE_FAILED
from_jsonはスキーマを推論できませんでした。 代わりに 1 つ指定してください。
FROM_JSON_INFERENCE_NOT_SUPPORTED
from_json推論は、ストリーミング テーブルを定義する場合にのみサポートされます
FROM_JSON_INVALID_CONFIGURATION
from_json構成が無効です。
詳細については、FROM_JSON_INVALID_CONFIGURATION を参照してください
FROM_JSON_SCHEMA_EVOLUTION_FAILED
from_jsonは <old> から <new> に進化できませんでした
FUNCTION_PARAMETERS_MUST_BE_NAMED
関数 <function> には名前付きパラメーターが必要です。 パラメーターに名前がありません: <exprs>。 関数呼び出しを更新して、すべてのパラメーターの名前を追加してください (例: <function>(param_name => ...)。
GENERATED_COLUMN_WITH_DEFAULT_VALUE
列には既定値と世代式の両方を指定できませんが、列 <colName> には既定値 (<defaultValue>) と生成式: (<genExpr>) があります。
GET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION
Hive 2.2 以前のバージョンでは、getTablesByType はサポートされていません。 Hive 2.3 以降のバージョンを使用してください。
GET_WARMUP_TRACING_FAILED
ウォームアップを追跡できませんでした。 原因: <cause>。
GET_WARMUP_TRACING_FUNCTION_NOT_ALLOWED
関数 get_warmup_tracing() は使用できません。
GRAPHITE_SINK_INVALID_PROTOCOL
無効なグラファイトプロトコル: <protocol>.
GRAPHITE_SINK_PROPERTY_MISSING
Graphite シンクには '<property>' プロパティが必要です。
GROUPING_COLUMN_MISMATCH
グループ化の列 (<grouping>) は、グループ化列 <groupingColumns>で見つかりません。
GROUPING_ID_COLUMN_MISMATCH
grouping_id (<groupingIdColumn>) の列がグループ化列 (<groupByColumns>) と一致しません。
GROUPING_SIZE_LIMIT_EXCEEDED
グループ化セットのサイズを <maxSize>より大きくすることはできません。
GROUP_BY_AGGREGATE
集計関数は、GROUP BYでは使用できませんが、<sqlExpr>見つかりました。
詳細については、GROUP_BY_AGGREGATE を参照してください。
GROUP_BY_POS_AGGREGATE
GROUP BY <index> は、集計関数を含む式 <aggExpr> を参照します。
GROUP BYでは集計関数を使用できません。
GROUP_BY_POS_OUT_OF_RANGE
GROUP BY 位置 <index> が選択リストに含まれていません (有効な範囲は [1, <size>])。
GROUP_EXPRESSION_TYPE_IS_NOT_ORDERABLE
式 <sqlExpr> データ型 <dataType> は順序付け可能なデータ型ではないため、グループ化式として使用できません。
HDFS_HTTP_ERROR
HDFS から読み取ろうとすると、HTTP 要求が失敗しました。
詳細については、HDFS_HTTP_ERROR を参照してください。
HINT_UNSUPPORTED_FOR_JDBC_DIALECT
オプション hint は、JDBC データ ソースの <jdbcDialect> ではサポートされていません。 サポートされている方言は、 MySQLDialect, OracleDialect と DatabricksDialectです。
HIVE_METASTORE_INVALID_PLACEHOLDER_PATH
'spark.databricks.hive.metastore.tablePlaceholderPath' 構成で無効な Hive メタストア テーブル プレースホルダー パスが提供されたため、クエリまたはコマンドの実行に失敗しました。 有効なパスを指定するには、この構成を新しい値で更新してから、クエリまたはコマンドをもう一度実行してください。
HIVE_METASTORE_TABLE_PLACEHOLDER_PATH_NOT_SET
Hive Metastore テーブルのプレースホルダー パスが設定されていないため、クエリまたはコマンドが失敗しました。これは、スキーマの場所が DBFS 上にあり、テーブルの場所がオブジェクト/ファイルである場合に必要です。 アクセスできるパスに spark.databricks.hive.metastore.tablePlaceholderPath を設定してから、クエリまたはコマンドを再実行してください。
HLL_INVALID_INPUT_SKETCH_BUFFER
<function>の呼び出しが無効です。有効な HLL スケッチ バッファーのみが入力としてサポートされます (hll_sketch_agg 関数によって生成されるバッファーなど)。
HLL_INVALID_LG_K
<function>の呼び出しが無効です。lgConfigK の値は、<min> と <max>の間 (<value>を含む) である必要があります。
HLL_K_MUST_BE_CONSTANT
<function>の呼び出しが無効です。K値は定数値である必要がありますが、定数以外の式を取得しました。
HLL_UNION_DIFFERENT_LG_K
スケッチには、lgConfigK と <left>の <right> 値が異なります。
allowDifferentLgConfigK パラメーターを true に設定して、異なる <function> 値で lgConfigK を呼び出します。
HMS_FEDERATION_SHALLOW_CLONE_NOT_FOUND_IN_UC
浅いクローン パス '<path>' を Unity カタログのテーブルに解決できませんでした。 テーブルが存在し、Unity カタログにフェデレーションされていることを確認してください。
HYBRID_ANALYZER_EXCEPTION
従来の固定小数点アナライザーとシングルパス リゾルバーの両方を使用してクエリまたはコマンドを解決しようとすると、エラーが発生しました。
詳細については、HYBRID_ANALYZER_EXCEPTION を参照してください
IDENTIFIER_TOO_MANY_NAME_PARTS
<identifier> は有効な識別子ではありません。名前の部分 <limit> 超えています。
IDENTITY_COLUMNS_DUPLICATED_SEQUENCE_GENERATOR_OPTION
IDENTITY 列のシーケンス生成オプション <sequenceGeneratorOption> が重複しています。
IDENTITY_COLUMNS_ILLEGAL_STEP
列ステップ IDENTITY 0 にすることはできません。
IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE
dataType <dataType> は、IDENTITY 列ではサポートされていません。
ILLEGAL_DAY_OF_WEEK
曜日の入力が不正です: <string>。
ILLEGAL_STATE_STORE_VALUE
状態ストアに指定された無効な値
詳細については、ILLEGAL_STATE_STORE_VALUE を参照してください
INAPPROPRIATE_URI_SCHEME_OF_CONNECTION_OPTION
接続オプション '<uri>' に対して URI <option>の不適切なスキームが指定されているため、接続を作成できません。
許可されるスキーム: <allowedSchemes>。
URI に存在しない場合はスキームを追加するか、許可される値からスキームを指定してください。
INCOMPARABLE_PIVOT_COLUMN
ピボット列の <columnName>が無効です。 ピボット列は比較可能である必要があります。
INCOMPATIBLE_BATCH_VIEW_READ
ビュー <datasetIdentifier> はバッチ ビューであり、SparkSession#read を使用して参照する必要があります。 このチェックは、Spark conf pipelines.incompatibleViewCheck.enabled = false を設定することで無効にすることができます。
INCOMPATIBLE_COLUMN_TYPE
<operator> は、互換性のある列型を持つテーブルでのみ実行できます。
<columnOrdinalNumber> テーブルの <tableOrdinalNumber> 列は <dataType1> 型であり、最初のテーブルの同じ列にある <dataType2> と互換性がありません。<hint>.
INCOMPATIBLE_DATASOURCE_REGISTER
互換性のない DataSourceRegister が検出されました。 互換性のないライブラリをクラスパスから削除するか、アップグレードしてください。 エラー: <message>
INCOMPATIBLE_DATA_FOR_TABLE
テーブル <tableName>の互換性のないデータを書き込めません:
詳細については、INCOMPATIBLE_DATA_FOR_TABLE を参照してください
INCOMPATIBLE_JOIN_TYPES
結合の種類 <joinType1> と <joinType2> には互換性がありません。
INCOMPATIBLE_STREAMING_VIEW_READ
ビュー <datasetIdentifier> はストリーミング ビューであり、SparkSession#readStream を使用して参照する必要があります。 このチェックは、Spark conf pipelines.incompatibleViewCheck.enabled = false を設定することで無効にすることができます。
INCOMPATIBLE_VIEW_SCHEMA_CHANGE
ビュー <viewName> の SQL クエリに互換性のないスキーマ変更があり、列 <colName> を解決できません。
<expectedNum> という名前の列が <colName> 個予期されていましたが、<actualCols> を受け取りました。
<suggestion>を実行して、ビューを再作成してみてください。
INCOMPLETE_TYPE_DEFINITION
不完全な複合型:
詳細については、INCOMPLETE_TYPE_DEFINITION を参照してください。
INCONSISTENT_BEHAVIOR_CROSS_VERSION
へのアップグレードにより、別の結果が得られる場合があります。
詳細については、INCONSISTENT_BEHAVIOR_CROSS_VERSION を参照してください
INCORRECT_NUMBER_OF_ARGUMENTS
<failure>, <functionName> には、少なくとも <minArgs> 引数と最大 <maxArgs> 引数が必要です。
INCORRECT_RAMP_UP_RATE
<rowsPerSecond> が rowsPerSecond の場合の最大オフセットは <maxSeconds> ですが、'rampUpTimeSeconds' が <rampUpTimeSeconds> です。
INDETERMINATE_COLLATION
文字列操作に使用する照合順序を特定できませんでした。 照合順序を明示的に設定するには、COLLATE 句を使用します。
INDETERMINATE_COLLATION_IN_EXPRESSION
<expr> のデータ型の照合順序は不確定です。 照合順序を明示的に設定するには、COLLATE 句を使用します。
INDETERMINATE_COLLATION_IN_SCHEMA
スキーマには、次の不確定な照合順序が含まれています: [<columnPaths>]。 照合順序を明示的に設定するには、COLLATE 句を使用します。
INDEX_ALREADY_EXISTS
テーブル <indexName> にインデックス <tableName> は既に存在するため、作成できません。
INDEX_NOT_FOUND
テーブル <indexName>でインデックス <tableName> が見つかりません。
INET_FUNCTIONS_NOT_ENABLED
<functionName> が無効になっているか、サポートされていません。 INET 関数はまだ一般公開されていません。
INFINITE_STREAMING_TRIGGER_NOT_SUPPORTED
トリガーの種類 <trigger> は、このクラスターの種類ではサポートされていません。
AvailableNow、Once など、別のトリガーの種類を使用します。
INSERT_COLUMN_ARITY_MISMATCH
<tableName>に書き込めません。理由は次のとおりです。
詳細については、INSERT_COLUMN_ARITY_MISMATCH を参照してください
INSERT_PARTITION_COLUMN_ARITY_MISMATCH
'<tableName>' に書き込めません。 <reason>。
テーブルの列: <tableColumns>。
静的な値を使用して列をパーティション分割する: <staticPartCols>。
データ列: <dataColumns>.
INSERT_REPLACE_USING_DISALLOW_MISALIGNED_COLUMNS
USING句のすべての列は、ターゲット スキーマとソース スキーマの両方で同じ位置に配置する必要があります。
USING 位置がずれた列を含む句はサポートされていません。
次の列の位置がずれている。 <misalignedReplaceUsingCols>
INSERT_REPLACE_USING_INVALID_SET_OF_COLUMNS
テーブルはパーティション分割する必要があり、指定されたすべての列はテーブルのパーティション列の完全なセットを表す必要があります。
次の列はパーティション列ではありません。 <nonPartitionColumns>
次のパーティション列がありません。 <missingPartitionsColumns>
INSERT_REPLACE_USING_NOT_ENABLED
INSERT INTO
...
REPLACE USING (...) 機能を有効にするには、Databricks の担当者にお問い合わせください。
INSUFFICIENT_PERMISSIONS
不十分な特権:
<report>
INSUFFICIENT_PERMISSIONS_EXT_LOC
ユーザー <user> には、外部の場所の <location>に対する十分な特権がありません。
INSUFFICIENT_PERMISSIONS_NO_OWNER
<securableName>の所有者はいません。 所有者を設定するように管理者に依頼します。
INSUFFICIENT_PERMISSIONS_OWNERSHIP_SECURABLE
ユーザーは <securableName>を所有していません。
INSUFFICIENT_PERMISSIONS_SECURABLE
ユーザーは、<action>に <securableName> アクセス許可を持っていません。
INSUFFICIENT_PERMISSIONS_SECURABLE_PARENT_OWNER
<securableName> の所有者は、<parentSecurableName>の所有者とは異なります。
INSUFFICIENT_PERMISSIONS_SPARK_CONNECT_CLIENT_SET_CLOUDFETCH_RETENTION_TIMEOUT
クライアントには、CloudFetch 結果のカスタムリテンション期間のタイムアウトを設定するアクセス許可がありません。
INSUFFICIENT_PERMISSIONS_STORAGE_CRED
ストレージ資格情報 <credentialName> には十分な特権がありません。
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES
基盤のセキュリティ保護可能なリソースに対するアクセス許可のため、ユーザーは <action> で <securableName> を実行できません。
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES_VERBOSE
基盤のセキュリティ保護可能なリソースに対するアクセス許可のため、ユーザーは <action> で <securableName> を実行できません。
<underlyingReport>
INTERVAL_ARITHMETIC_OVERFLOW
間隔を使用した操作中の整数オーバーフロー。
詳細については、INTERVAL_ARITHMETIC_OVERFLOW を参照してください。
INTERVAL_DIVIDED_BY_ZERO
0 で除算します。 除数が 0 であることを許容し、代わりに try_divide を返すには、NULL を使用します。
INVALID_AGGREGATE_FILTER
集計関数内の FILTER 式 <filterExpr> が無効です。
詳細については、INVALID_AGGREGATE_FILTER を参照してください。
INVALID_AGNOSTIC_ENCODER
無効な非依存エンコーダーが見つかりました。 AgnosticEncoder のインスタンスが必要ですが、<encoderType>が渡されました。 詳細については、'<docroot>/api/java/index.html?org/apache/spark/sql/Encoder.html' を参照してください。
INVALID_ARRAY_INDEX
インデックス <indexValue> が範囲外です。 配列には <arraySize> 要素があります。 SQL 関数 get() を使用して、無効なインデックスで要素へのアクセスを許容し、代わりに NULL を返します。
詳細については、INVALID_ARRAY_INDEX を参照してください。
INVALID_ARRAY_INDEX_IN_ELEMENT_AT
インデックス <indexValue> が範囲外です。 配列には <arraySize> 要素があります。
try_element_at を使用して、無効なインデックスで要素へのアクセスを許容し、代わりに NULL を返します。
詳細については、INVALID_ARRAY_INDEX_IN_ELEMENT_AT を参照してください
INVALID_ARTIFACT_PATH
名前 <name> を持つアーティファクトが無効です。 名前は相対パスである必要があり、親/兄弟/甥のディレクトリを参照することはできません。
INVALID_ATTRIBUTE_NAME_SYNTAX
属性名の構文エラー: <name>。 バッククォートがペアで表示されていることを確認します。引用符で囲まれた文字列は完全な名前部分であり、引用符で囲まれた名前部分内でのみバッククォートを使用します。
INVALID_AUTO_TTL_EXPIRE_IN_DAYS
自動 TTL に指定する日数は負以外にする必要があります。
INVALID_AWS_AUTHENTICATION
次のいずれかの認証方法を選択してください。
Databricks サービス資格情報 (
<serviceCredential>) の名前を入力します (Spark ストリーミング オプションまたはクラスター環境変数として)。AWS キーを使用するには、AWS AccessKey (
<awsAccessKey>) と SecretAccessKey (<awsSecretKey>) の両方を指定します。Kinesis 認証に既定の AWS 資格情報プロバイダー チェーンを使用するために、AWS キーも Databricks サービス資格情報も指定しません。
INVALID_AWS_AUTHENTICATION_EXPLICIT_OPTIONS
Databricks サービス資格情報の名前 (<serviceCredential>)、
または、<awsAccessKey> と <awsSecretKey> の両方
INVALID_BITMAP_POSITION
<bitPosition> の 0 インデックス付きビットマップ位置が範囲外です。 ビットマップには <bitmapNumBits> ビット (<bitmapNumBytes> バイト) があります。
INVALID_BOOLEAN_STATEMENT
この条件ではブール値ステートメントが必要ですが、<invalidStatement> が見つかりました。
INVALID_BOUNDARY
境界 <boundary> が無効です: <invalidValue>。
詳細については、INVALID_BOUNDARY を参照してください
INVALID_BUCKET_COLUMN_DATA_TYPE
バケット列に <type> を使用できません。 照合されたデータ型は、バケット化ではサポートされていません。
INVALID_BUCKET_COUNT
バケットの数は 0 より大きく、bucketing.maxBuckets (<bucketingMaxBuckets>) 以下にする必要があります。
<numBuckets>を取得しました。
INVALID_BUCKET_FILE
バケット ファイル <path> が無効です。
INVALID_BYTE_STRING
想定される形式は ByteString ですが、 <unsupported> (<class>)されました。
INVALID_CIDR_RANGE
関数 <functionName> 無効な CIDR 範囲 ( <value>) を受け取りました。
INVALID_CLONE_SESSION_REQUEST
セッション複製要求が無効です。
詳細については、INVALID_CLONE_SESSION_REQUESTを参照してください。
INVALID_COLUMN_NAME_AS_PATH
データ ソース <datasource> は、ファイル パスで使用できない文字が名前に含まれているため、列 <columnName> を保存できません。 エイリアスを使用して名前を変更してください。
INVALID_COLUMN_OR_FIELD_DATA_TYPE
列またはフィールド <name> は <type> 型ですが、 <expectedType>する必要があります。
INVALID_CONF_VALUE
構成 "<confValue>" の値 '<confName>' が無効です。
詳細については、INVALID_CONF_VALUE を参照してください。
制約特性が無効です
制約特性 [<characteristics>] が重複しているか、相互に競合しています。
INVALID_CORRUPT_RECORD_TYPE
破損したレコードの列 <columnName> には、Null 許容の STRING 型が必要ですが、<actualType> を受け取りました。
INVALID_CURRENT_RECIPIENT_USAGE
current_recipient 関数は、CREATE VIEW ステートメントまたは ALTER VIEW ステートメントでのみ使用して、Unity カタログで共有のみのビューを定義できます。
INVALID_CURSOR
カーソルが無効です。
詳細については、INVALID_CURSOR を参照してください。
接続オプション注入に無効なデータソース形式
名前 <connectionName> と型 <connectionType> を使用した接続では、形式 <actualFormat>はサポートされていません。 サポートされている形式: <expectedFormat>.
INVALID_DATASOURCE_OPTION_OVERRIDE_ATTEMPT (無効なデータソースオプション上書き試行)
オプション <optionName> は接続 <connectionName> に既に存在し、オーバーライドすることはできません。
INVALID_DATETIME_PATTERN
認識されない日時パターン: <pattern>.
詳細については、INVALID_DATETIME_PATTERN を参照してください。
INVALID_DBFS_MOUNT
DBFS マウントにアクセスできません。
詳細については、INVALID_DBFS_MOUNTを参照してください。
INVALID_DBSQL_CONFIG
<confValue> SQL 構成キーではサポートされていません <confKey>
INVALID_DEFAULT_VALUE
宛先の列または変数 <statement> に <colName> 値 DEFAULTがあるため、コマンド <defaultValue> を実行できませんでした。
詳細については、INVALID_DEFAULT_VALUE を参照してください。
INVALID_DELIMITER_VALUE
区切り記号の値が無効です。
詳細については、INVALID_DELIMITER_VALUE を参照してください。
INVALID_DEST_CATALOG
SYNC コマンドの宛先カタログは、Unity カタログ内にある必要があります。
<catalog>が見つかりました。
INVALID_DRIVER_MEMORY
システム メモリ <systemMemory> は、少なくとも <minSystemMemory>である必要があります。
Spark 構成で --driver-memory オプションまたは "<config>" を使用してヒープ サイズを増やしてください。
INVALID_DROP_TABLE_OPTIONS(無効なDROP TABLEオプション)
コマンドで PURGE オプションと FORCE オプションの両方 DROP TABLE 指定することはできません。
PURGEまたはFORCEを使用しますが、両方は使用しないでください。
INVALID_DYNAMIC_OPTIONS
<option_list>渡されたオプションは、外部テーブルの<table_name>では使用されません。
INVALID_EMPTY_LOCATION
場所名を空の文字列にすることはできませんが、<location> 指定されました。
無効な環境設定の依存関係
環境設定の依存関係パラメーターがないか、文字列の一覧に解析できませんでした。 想定される形式: ["dep1", "dep2"]
INVALID_ENVIRONMENT_SETTINGS_ENVIRONMENT_VERSION
このランタイム バージョンでは、データ ソースの環境バージョンはサポートされていません。 値: <environmentVersion>。
INVALID_ERROR_CONDITION_DECLARATION
無効な条件宣言です。
詳細については、INVALID_ERROR_CONDITION_DECLARATIONを参照してください。
INVALID_ESC
無効なエスケープ文字列が見つかりました: <invalidEscape>。 エスケープ文字列には、1 文字のみを含む必要があります。
INVALID_ESCAPE_CHAR
EscapeChar は長さ 1 の文字列リテラルである必要がありますが、<sqlExpr> を受け取りました。
INVALID_EXECUTOR_MEMORY
Executor メモリ <executorMemory> は、少なくとも <minSystemMemory>である必要があります。
--executor-memory オプションまたは Spark 構成の "<config>" を使用して、Executor メモリを増やしてください。
INVALID_EXPRESSION_ENCODER
無効な式エンコーダーが見つかりました。 ExpressionEncoder のインスタンスを期待しましたが、<encoderType>が渡されました。 詳細については、'<docroot>/api/java/index.html?org/apache/spark/sql/Encoder.html' を参照してください。
INVALID_EXPR_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE
式の型は文字列型である必要がありますが、 <exprType>。
INVALID_EXTERNAL_TYPE
外部型 <externalType> は、式 <type>で <expr> 型に対して無効です。
INVALID_EXTRACT_BASE_FIELD_TYPE
<base>から値を抽出できません。 複合型 [STRUCT, ARRAY, MAP] が必要ですが、 <other>。
INVALID_EXTRACT_FIELD
<field>から <expr> を抽出できません。
INVALID_EXTRACT_FIELD_TYPE
フィールド名は null 以外の文字列リテラルにする必要がありますが、 <extraction>。
INVALID_FIELD_NAME
フィールド名 <fieldName> が無効です。<path> は構造体ではありません。
INVALID_FLOW_QUERY_TYPE
フロー <flowIdentifier> は、無効なリレーションシップ型を返します。
詳細については、INVALID_FLOW_QUERY_TYPEを参照してください。
INVALID_FORMAT
形式が無効です: <format>。
詳細については、INVALID_FORMAT を参照してください。
INVALID_FRACTION_OF_SECOND
有効な秒数の範囲は [0, 60] (両端を含む) ですが、指定された値は <secAndMicros>です。 このエラーを回避するには、エラー時に try_make_timestamp を返す NULLを使用します。
この関数のセッションの既定のタイムスタンプ バージョンを使用しない場合は、try_make_timestamp_ntz または try_make_timestamp_ltzを使用します。
INVALID_GET_DIAGNOSTICS_USAGE
GET
DIAGNOSTICS ステートメントの使用が無効です。
詳細については、INVALID_GET_DIAGNOSTICS_USAGE を参照してください
INVALID_GET_DIAGNOSTICS_USAGE_CONDITION_NUMBER_MUST_BE_ONE
GET
DIAGNOSTICS ステートメントの使用が無効です。
GET
DIAGNOSTICS ステートメントでサポートされている条件番号の値は 1 のみです。
INVALID_HANDLE
ハンドル <handle> が無効です。
詳細については、INVALID_HANDLE を参照してください
INVALID_HANDLER_DECLARATION
ハンドラー宣言が無効です。
詳細については、INVALID_HANDLER_DECLARATIONを参照してください。
INVALID_HTTP_REQUEST_METHOD
入力パラメータ: メソッド、値: <paramValue> は、http_request に対して無効なパラメータです。なぜなら、それは有効な HTTP メソッドではないからです。
INVALID_HTTP_REQUEST_PATH
path、value: <paramValue> の入力パラメーターは、パス トラバーサルが許可されていないため、http_requestの有効なパラメーターではありません。
INVALID_IDENTIFIER
引用符で囲まれていない識別子 <ident> は無効であり、次のように引用符で囲む必要があります: <ident>。
引用符で囲まれていない識別子には、 ASCII 文字 ('a' - 'z'、'A' - 'Z')、数字 ('0' - '9')、および下線('_')のみを含めることができます。
引用符で囲まれていない識別子は、数字で始めてはなりません。
データ ソースとメタ ストアが異なると、有効な識別子に追加の制限が課される場合があります。
INVALID_INDEX_OF_ZERO
インデックス 0 が無効です。 インデックスは、 < 0 or > 0 のいずれかになります (最初の要素にはインデックス 1 があります)。
INVALID_INLINE_TABLE
インライン テーブルが無効です。
詳細については、INVALID_INLINE_TABLE を参照してください。
INVALID_INTERVAL_FORMAT
'<input>' を interval に解析中にエラーが発生しました。 指定された値が、間隔を定義するための有効な形式であることを確認してください。 正しい形式のドキュメントを参照できます。
詳細については、INVALID_INTERVAL_FORMAT を参照してください。
INVALID_INTERVAL_WITH_MICROSECONDS_ADDITION
マイクロ秒の部分が 0 ではないため、日付に間隔を追加できません。 これを解決するには、入力日付をタイムスタンプにキャストします。タイムスタンプでは、マイクロ秒以外の間隔の追加がサポートされます。
INVALID_IP_ADDRESS
関数 <functionName> 無効な IP アドレス ( <value>) を受け取りました。
INVALID_IP_ADDRESS_OR_CIDR_RANGE
関数 <functionName> 無効な IP アドレスまたは CIDR 範囲 ( <value>) を受け取りました。
INVALID_JAVA_IDENTIFIER_AS_FIELD_NAME
<fieldName> は Java の有効な識別子ではなく、フィールド名として使用できません
<walkedTypePath>。
INVALID_JDBC_CONNECTION_OPTION
<optionKey>オプションは、この jdbc 接続の有効なパラメーターではありません。
INVALID_JDBC_CONNECTION_OPTION_VALUE
<optionKey>値を持つオプション<optionValue>は、この jdbc 接続の有効なオプションではありません。
INVALID_JOIN_TYPE_FOR_JOINWITH
joinWith: <joinType>の結合の種類が無効です。
INVALID_JSON_DATA_TYPE
JSON文字列 '<invalidType>' をデータ型に変換できませんでした。 有効なデータ型を入力してください。
INVALID_JSON_DATA_TYPE_FOR_COLLATIONS
照合順序は文字列型にのみ適用できますが、 JSON データ型は <jsonType>。
INVALID_JSON_RECORD_TYPE
モード <failFastMode>で共通スキーマを推論中に、JSON レコードの無効な型が検出されました。
STRUCT 型が必要ですが、<invalidType>が見つかりました。
INVALID_JSON_ROOT_FIELD
ルート フィールド JSON ターゲット Spark の種類に変換できません。
INVALID_JSON_SCHEMA_MAP_TYPE
入力スキーマ <jsonSchema> には、STRINGのキー型として MAP のみを含めることができます。
INVALID_KRYO_SERIALIZER_BUFFER_SIZE
構成 "<bufferSizeConfKey>" の値は 2048 MiB 未満である必要がありますが、<bufferSizeConfValue> MiB でした。
INVALID_KRYO_SERIALIZER_NO_DATA (無効なKryoシリアライザーにデータがありません)
オブジェクト '<obj>' が無効であるか、<serdeOp>を使用して<serdeClass>が正しく形式化されていません。
INVALID_LABEL_USAGE
ラベル <labelName> の使用が無効です。
詳細については、INVALID_LABEL_USAGE を参照してください
INVALID_LAMBDA_FUNCTION_CALL
ラムダ関数の呼び出しが無効です。
詳細については、INVALID_LAMBDA_FUNCTION_CALL を参照してください
INVALID_LATERAL_JOIN_TYPE
<joinType> サブクエリが結合パートナーに相関付けできないため、JOIN 相関のある LATERALOUTER は許可されません。
LATERAL 関連付けを削除するか、代わりに INNERJOINまたは LEFT OUTERJOIN を使用します。
INVALID_LIMIT_LIKE_EXPRESSION
式 <expr> のような制限は無効です。
詳細については、INVALID_LIMIT_LIKE_EXPRESSION を参照してください
INVALID_LOG_VERSION
UnsupportedLogVersion.
詳細については、INVALID_LOG_VERSIONを参照してください。
INVALID_NAME_IN_USE_COMMAND
<name> コマンドの名前 '<command>' は無効です。 理由: <reason>
INVALID_NON_ABSOLUTE_PATH
指定された非絶対パス <path> は修飾できません。 パスを有効な dbfs マウント場所に更新してください。
INVALID_NON_DETERMINISTIC_EXPRESSIONS
演算子は決定論的な式を受け取りますが、実際の式は <sqlExprs>。
INVALID_NUMERIC_LITERAL_RANGE
数値リテラルの <rawStrippedQualifier> が、最小値が <typeName> で最大値が <minValue>の <maxValue> の有効範囲外です。 それに応じて値を調整してください。
INVALID_OBSERVED_METRICS
観察されたメトリックが無効です。
詳細については、INVALID_OBSERVED_METRICS を参照してください
INVALID_OPTIONS
無効なオプション:
詳細については、INVALID_OPTIONS を参照してください。
INVALID_PANDAS_UDF_PLACEMENT
グループ集計 pandas UDF <functionList> は、pandas 以外の他の集計関数と一緒に呼び出すことはできません。
INVALID_PARAMETER_MARKER_VALUE
無効なパラメーター マッピングが指定されました。
詳細については、INVALID_PARAMETER_MARKER_VALUE を参照してください
INVALID_PARAMETER_VALUE
<parameter> 内のパラメーター <functionName> の値が無効です。
詳細については、INVALID_PARAMETER_VALUE を参照してください。
INVALID_PARTITION_COLUMN_DATA_TYPE
パーティション列に <type> を使用できません。
INVALID_PARTITION_OPERATION
partition コマンドが無効です。
詳細については、INVALID_PARTITION_OPERATION を参照してください
INVALID_PARTITION_VALUE
パーティション列 <value>のデータ型 <dataType> に値 <columnName> をキャストできませんでした。 値がこのパーティション列の予想されるデータ型と一致していることを確認します。
INVALID_PIPELINE_ID
パイプライン ID <pipelineId> が無効です。
パイプライン ID は、'xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx' の形式の UUID である必要があります
INVALID_PRIVILEGE
特権 <privilege> は、<securable>では無効です。
INVALID_PROPERTY_KEY
<key> は無効なプロパティ キーです。引用符 (例: SET <key>=<value>) を使用してください。
INVALID_PROPERTY_VALUE
<value> は無効なプロパティ値です。たとえば、引用符を使用してください。 SET <key>=<value>
INVALID_QUALIFIED_COLUMN_NAME
列名 <columnName> は、テーブル名で修飾されていないか、4 つを超える名前部分で構成されているため、無効です。
INVALID_QUERY_MIXED_QUERY_PARAMETERS
パラメーター化されたクエリでは、位置指定パラメーターまたは名前付きパラメーターを使用する必要がありますが、両方を使用することはできません。
INVALID_RECURSIVE_CTE
無効な再帰定義が見つかりました。 再帰クエリには、2 つの子を持つ UNION または UNION ALL ステートメントが含まれている必要があります。 最初の子は再帰参照を含まないアンカー タームである必要があります。 最上位レベルの内部 CTE には自己参照を含めてはなりません。
INVALID_RECURSIVE_REFERENCE
句内で無効な再帰参照 WITH RECURSIVE 見つかりました。
詳細については、INVALID_RECURSIVE_REFERENCEを参照してください。
INVALID_REGEXP_REPLACE
ソース = "<source>"、パターン = "<pattern>"、置換 = "<replacement>"、位置 = <position>のregexp_replaceを実行できませんでした。
INVALID_RESETTABLE_DEPENDENCY
テーブル <upstreamResettableTables> はリセット可能ですが、ダウンストリームの依存関係 '<downstreamTable>' はリセットできません。
reset は、Spark Streaming が削除されたソース データをサポートしていないため、失敗します。 '<resetAllowedKey>' から <downstreamTable>=false プロパティを削除するか、アップストリームの依存関係に追加することができます。
INVALID_RESET_COMMAND_FORMAT
予期される形式は 'RESET' または 'RESET キー' です。 キーに特殊文字を含める場合は、引用符 (例: RESET key) を使用してください。
INVALID_RESIGNAL_USAGE
RESIGNAL ハンドラーがアクティブでない場合。
RESIGNAL ステートメントは、例外ハンドラー本体内でのみ使用できます。
INVALID_S3_COPY_CREDENTIALS
COPY INTO 資格情報には、 AWS_ACCESS_KEY, AWS_SECRET_KEYと AWS_SESSION_TOKENを含める必要があります。
INVALID_SAVE_MODE
指定した保存モード <mode> が無効です。 有効な保存モードには、"append"、"overwrite"、"ignore"、"error"、"errorifexists"、および "default" が含まれます。
INVALID_SCHEMA
入力スキーマ <inputSchema> が有効なスキーマ文字列ではありません。
詳細については、INVALID_SCHEMA を参照してください
INVALID_SCHEMA_OR_RELATION_NAME
<name> テーブル/スキーマの有効な名前ではありません。 有効な名前には、アルファベット文字、数字、および _のみが含まれます。
スキーマタイプが無効です_非構造体
スキーマの種類が無効です。 必要なのは構造体型ですが、<dataType>が渡されました。
INVALID_SCHEME
Unity カタログでは、既定のファイル スキームとして <name> はサポートされていません。
INVALID_SECRET_LOOKUP
シークレット検索が無効です。
詳細については、INVALID_SECRET_LOOKUP を参照してください。
INVALID_SET_SYNTAX
予期される形式は、'SET'、'SET key'、または 'SET key=value' です。 キーに特殊文字を含める場合、または値にセミコロンを含める場合は、バッククォート ( SET key=valueなど) を使用してください。
INVALID_SHARED_ALIAS_NAME
<sharedObjectType>エイリアス名は、"schema.name" の形式である必要があります。
INVALID_SINGLE_VARIANT_COLUMN
<schema> オプションが有効になっている場合、ユーザー指定のスキーマ singleVariantColumnは無効です。 スキーマは、バリアント 型フィールド、またはバリアント 型フィールドと破損した列フィールドのいずれかである必要があります。
INVALID_SOURCE_CATALOG
SYNC コマンドのソース カタログを Unity カタログ内に含めてはなりません。
<catalog>が見つかりました。
INVALID_SOURCE_FOR_FILTERING_SERVICE_MERGE_COMMAND
フィルター サービスの MERGE 操作のソースには、プロジェクションとフィルターのみを含めることができます。
MERGEコマンドを調整するか、代わりにステージング テーブルをソースとして使用してください。
<stmt>
INVALID_SPARK_CONFIG
無効な Spark 構成:
詳細については、INVALID_SPARK_CONFIGを参照してください。
INVALID_SQLSTATE
SQLSTATE値 '<sqlState>' が無効です。
SQLSTATE は、正確に 5 文字で、A から Z と 0 から 9 のみを含む必要があります。
SQLSTATE は、'00'、'01'、または 'XX' で始まる必要がありません。
INVALID_SQL_ARG
<name> の引数 sql() が無効です。 SQL リテラルまたは map(), array(), struct() などのコレクション コンストラクター関数で置き換えることを検討してください。
INVALID_SQL_FUNCTION_DATA_ACCESS
テーブル/ビューにアクセスする SQL CONTAINS 、または SQL データを読み取る SQL 関数を使用して SQL 関数を作成することはできません。 代わりに、 READS SQL DATA を使用してください。
INVALID_SQL_SYNTAX
SQL 構文が無効です。
詳細については、INVALID_SQL_SYNTAX を参照してください。
INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY
ステージング <operation> クエリのステージング パス <path> が無効です
INVALID_STATEMENT_FOR_EXECUTE_INTO
INTO の EXECUTE IMMEDIATE 句はクエリに対してのみ有効ですが、指定されたステートメントはクエリではありません: <sqlString>。
INVALID_STATEMENT_OR_CLAUSE
ステートメントまたは句: <operation> が無効です。
INVALID_STREAMING_RATE_SOURCE_VERSION
レート ソースのバージョンが無効です: <version>。 バージョンは 1 または 2 である必要があります。
INVALID_STREAMING_REAL_TIME_MODE_TRIGGER_INTERVAL
リアルタイム トリガー間隔は <interval> ミリ秒に設定されます。 これは、spark.databricks.streaming.realTimeMode.minBatchDuration で指定された最小 <minBatchDuration> ミリ秒未満です。
INVALID_STREAMING_REAL_TIME_MODE_TRIGGER_OVERRIDE_INTERVAL
<interval>のリアルタイム トリガーのチェックポイント間隔を解析できませんでした。 正の整数を渡したことを確認してください。
INVALID_SUBQUERY_EXPRESSION
無効なサブクエリ:
詳細については、INVALID_SUBQUERY_EXPRESSION を参照してください。
INVALID_TARGET_FOR_ALTER_COMMAND
ALTER <commandTableType>
...
<command> は <tableName>をサポートしていません。 代わりに ALTER <targetTableType>...<command> を使用してください。
INVALID_TARGET_FOR_SET_TBLPROPERTIES_COMMAND
ALTER <commandTableType>
...
SET TBLPROPERTIES は <tableName>をサポートしていません。 代わりに ALTER <targetTableType>...SET TBLPROPERTIES を使用してください。
INVALID_TEMP_OBJ_REFERENCE
<objName>型の一時オブジェクト <obj> を参照するため、型 <tempObjName> の永続オブジェクト <tempObj> を作成できません。 一時オブジェクト <tempObjName> を永続的にするか、永続オブジェクト <objName> を一時的にしてください。
INVALID_TIMESTAMP_FORMAT
指定されたタイムスタンプ <timestamp> が、予期される構文 <format>と一致しません。
INVALID_TIMEZONE
タイムゾーン: <timeZone> が無効です。 タイムゾーンは、リージョンベースのゾーン ID またはゾーン オフセットである必要があります。 リージョン ID には、"America/Los_Angeles" などの "area/city" という形式が必要です。 ゾーン オフセットは、'(+|-)HH'、'(+|-)HH:mm' または '(+|-)HH:mm:ss' (例: '-08' 、'+01:00' または '-13:33:33') で、-18:00 ~ +18:00 の範囲である必要があります。 'Z' と 'UTC' は'+00:00' のシノニムとして受け入れられます。
INVALID_TIME_TRAVEL_SPEC
テーブルのタイムトラベル時にバージョンとタイムスタンプの両方を指定することはできません。
INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
タイムトラベルのタイムスタンプ表現 <expr> は無効です。
詳細については、INVALID_TIME_TRAVEL_TIMESTAMP_EXPR を参照してください
INVALID_TYPED_LITERAL
型指定されたリテラル <valueType> の値 <value> が無効です。
INVALID_UDF_IMPLEMENTATION
関数 <funcName> では、ScalarFunction または AggregateFunction は実装されません。
INVALID_UPGRADE_SYNTAX
ソース テーブルが Hive Metastore にあり、ターゲット テーブルが Unity カタログ内にある <command> <supportedOrNot>。
INVALID_URL
URL が無効です: <url>。
try_parse_url を使用して無効な URL を許容し、代わりに NULL を返します。
INVALID_USAGE_OF_STAR_OR_REGEX
<elem>での <prettyName> の使用が無効です。
INVALID_UTF8_STRING
文字列 :<str>で無効な UTF8 バイト シーケンスが見つかりました。
INVALID_UUID
入力 <uuidInput> が有効な UUID ではありません。
UUID は 'xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx' の形式にする必要があります
UUID の形式を確認してください。
INVALID_VARIABLE_DECLARATION
変数宣言が無効です。
詳細については、INVALID_VARIABLE_DECLARATION を参照してください
INVALID_VARIANT_CAST
バリアント値 <value> を <dataType>にキャストすることはできません。 代わりに try_variant_get を使用してください。
INVALID_VARIANT_FROM_PARQUET
バリアントが無効です。
詳細については、INVALID_VARIANT_FROM_PARQUET を参照してください
INVALID_VARIANT_GET_PATH
<path> パスは、<functionName>の有効なバリアント抽出パスではありません。
有効なパスは、 $ で始まり、その後に 0 個以上のセグメント ( [123], .name, ['name']、 ["name"]など) が続く必要があります。
INVALID_VARIANT_SHREDDING_SCHEMA
スキーマ <schema> は、有効なバリアントのシュレッディング スキーマではありません。
INVALID_WHERE_CONDITION
WHERE 条件 <condition> 無効な式が含まれています: <expressionList>.
WHERE 句のウィンドウ関数、集計関数、およびジェネレーター関数を回避するために、クエリを書き直します。
INVALID_WINDOW_SPEC_FOR_AGGREGATION_FUNC
ORDER BYまたはウィンドウフレームを<aggFunc>に指定できません。
INVALID_WITHIN_GROUP_EXPRESSION
<funcName> を使用した無効な関数 WITHIN GROUP。
詳細については、INVALID_WITHIN_GROUP_EXPRESSIONを参照してください。
INVALID_WRITER_COMMIT_MESSAGE
データ ソース ライターが、無効な数のコミット メッセージを生成しました。 ライター コミット メッセージは各タスクから厳密に 1 つが予期されていますが、<detail> を受け取りました。
INVALID_WRITE_DISTRIBUTION
要求された書き込みディストリビューションが無効です。
詳細については、INVALID_WRITE_DISTRIBUTION を参照してください
IRC_CREDENTIAL_VENDING_ERROR
IRC ホストへの接続中にエラーが発生し、テーブル <tableIdentifier>の資格情報を販売できませんでした。
詳細については、IRC_CREDENTIAL_VENDING_ERRORを参照してください。
ISOLATED_COMMAND_FAILURE
<command>を実行できませんでした。 コマンド出力:
<output>
ISOLATED_COMMAND_UNKNOWN_FAILURE
<command>を実行できませんでした。
ISOLATION_ENVIRONMENT_ERROR
システム エラーのため、 <name> の環境の依存関係をインストールできませんでした。
詳細については、ISOLATION_ENVIRONMENT_ERRORを参照してください。
ISOLATION_ENVIRONMENT_USER_ERROR
<name>の環境の依存関係をインストールできませんでした。
詳細については、ISOLATION_ENVIRONMENT_USER_ERRORを参照してください 。
JDBC_EXTERNAL_ENGINE_SYNTAX_ERROR
JDBC 外部エンジン構文エラー。 このエラーは、クエリの <jdbcQuery>が原因で発生しました。
<externalEngineError>。
詳細については、JDBC_EXTERNAL_ENGINE_SYNTAX_ERRORを参照してください。
JOIN_CONDITION_IS_NOT_BOOLEAN_TYPE
結合条件 <joinCondition> 無効な型 <conditionType>があり、"BOOLEAN" が必要です。
KAFKA_DATA_LOSS
一部のデータは Kafka では使用できないため、失われた可能性があります。
Kafka によってデータが期限切れになったか、トピック内のすべてのデータが処理される前に
トピックが処理されました。
このような場合にストリーミング クエリを失敗させたくない場合は、ソース オプション failOnDataLoss を false に設定します。
Reason:
詳細については、KAFKA_DATA_LOSS を参照してください。
KINESIS_COULD_NOT_READ_SHARD_UNTIL_END_OFFSET
シャード <endSeqNum> について目的のシーケンス番号 <shardId> まで読み取ることができませんでした (
コンシューマー モード <stream> の Kinesis ストリーム <consumerMode> 内)。 このクエリは、次の原因で失敗します。
データ損失の可能性があります。 最後の読み取りレコードは、シーケンス番号 <lastSeqNum>。
これは、endSeqNum のデータが既に期限切れになっているか、Kinesis ストリームが
同じ名前で削除および再構築されます。 エラーの動作は
spark 構成で spark.databricks.kinesis.failOnDataLoss を false に設定します。
KINESIS_EFO_CONSUMER_NOT_FOUND
kinesis ストリーム <streamId>の場合、ストリームの以前に登録された EFO コンシューマー <consumerId> が削除されました。
新しいコンシューマーが登録されるように、クエリを再起動します。
KINESIS_EFO_SUBSCRIBE_LIMIT_EXCEEDED
シャード <shard>の場合、subscribeToShard API の前回の呼び出しは、次の呼び出しから 5 秒以内でした。
5 秒以上後にクエリを再起動します。
KINESIS_FETCHED_SHARD_LESS_THAN_TRACKED_SHARD
Kinesis からフェッチされた最小 shardId (<fetchedShardId>) が
追跡された最小 shardId (<trackedShardId>) 未満です。
これは予期せず、Kinesis ストリームが削除され、同じ名前で再作成されたときに発生します。
この Kinesis ストリームを使用するストリーミング クエリは、既存のチェックポイントの場所を使用して再起動されます。
新しいチェックポイントの場所でストリーミング クエリを再起動するか、新しい名前でストリームを作成します。
KINESIS_POLLING_MODE_UNSUPPORTED
Kinesis ポーリング モードはサポートされていません。
KINESIS_RECORD_SEQ_NUMBER_ORDER_VIOLATION
シャード <shard>の場合、前のフェッチで Kinesis から最後に読み取られたレコードのシーケンス番号が <lastSeqNum>。
これは、シーケンス番号 <recordSeqNum> を持つ現在のフェッチで読み取られたレコードよりも大きくなります。
これは予期せず、再試行または次のフェッチの開始位置が正しく初期化されず、ダウンストリームのレコードが重複する可能性がある場合に発生する可能性があります。
KINESIS_SOURCE_MUST_BE_IN_EFO_MODE_TO_CONFIGURE_CONSUMERS
コンシューマー構成 (consumerName, consumerNamePrefix、または registeredConsumerId) を使用して Kinesis Streams から読み取る場合は、 consumerMode を efoする必要があります。
KINESIS_SOURCE_MUST_SPECIFY_REGISTERED_CONSUMER_ID_AND_TYPE
登録されたコンシューマーと共に Kinesis Streams から読み取る場合は、registeredConsumerId オプションと registeredConsumerIdType オプションの両方を指定する必要があります。
KINESIS_SOURCE_MUST_SPECIFY_STREAM_NAMES_OR_ARNS
Kinesis Streams から読み取るには、ストリーム名/ARN のコンマ区切りのリストとして、streamName または streamARN オプションのどちらか (両方ではなく) を構成する必要があります。
KINESIS_SOURCE_NO_CONSUMER_OPTIONS_WITH_REGISTERED_CONSUMERS
登録されたコンシューマーと共に Kinesis Streams から読み取る場合は、consumerName または consumerNamePrefix オプションは有効にならないので構成しないでください。
KINESIS_SOURCE_REGISTERED_CONSUMER_ID_COUNT_MISMATCH
登録されたコンシューマー ID の数は Kinesis ストリームの数と同じである必要がありますが、<numConsumerIds> のコンシューマー ID と <numStreams> のストリームが取得されました。
KINESIS_SOURCE_REGISTERED_CONSUMER_NOT_FOUND
指定された登録済みコンシューマー <consumerId> が streamARN <streamARN>で見つかりません。 コンシューマーを登録しているか、registeredConsumerId オプションを指定しないことを確認します。
KINESIS_SOURCE_REGISTERED_CONSUMER_TYPE_INVALID
登録されているコンシューマーの種類 <consumerType> が無効です。
name または ARNである必要があります。
KLL_SKETCH_INCOMPATIBLE_MERGE
関数 <functionName>の場合、KLL スケッチをマージできません。 <reason>
KLL_SKETCH_INVALID_INPUT
関数 <functionName>の場合、KLL スケッチ バイナリ データが無効です。 <reason>
KLL_SKETCH_INVALID_QUANTILE_RANGE
関数 <functionName>の場合、分位値は 0.0 ~ 1.0 (両端を含む) である必要がありますが、 <quantile>。
KLL_SKETCH_K_MUST_BE_CONSTANT
関数 <functionName>の場合、k パラメーターは定数値である必要がありますが、非定数式を取得しました。
KLL_SKETCH_K_OUT_OF_RANGE
関数 <functionName>の場合、k パラメーターは 8 ~ 65535 (両端を含む) である必要がありますが、 <k>。
KRYO_BUFFER_OVERFLOW
Kryo シリアル化に失敗しました: <exceptionMsg>。 これを回避するには、"<bufferSizeConfKey>" 値を増やします。
LABELS_MISMATCH
開始ラベル <beginLabel> が終了ラベルの <endLabel>と一致しません。
ラベルまたは変数名が既に存在します
ラベルまたは FOR 変数 <label> は既に存在します。 別の名前を選択するか、既存の名前を変更します。
変数名またはラベル名として使用することはできません
ラベルまたは FOR 変数名 <label> は禁止されています。
LAKEHOUSE_FEDERATION_DATA_SOURCE_REQUIRES_NEWER_DBR_VERSION
Lakehouse フェデレーション データ ソース '<provider>' には、新しい Databricks ランタイム バージョンが必要です。
詳細については、LAKEHOUSE_FEDERATION_DATA_SOURCE_REQUIRES_NEWER_DBR_VERSION を参照してください
LATERAL_JOIN_WITH_ARROW_UDTF_UNSUPPORTED
LATERAL
JOIN 矢印最適化ユーザー定義テーブル関数 (UDF) はサポートされていません。 Arrow UDTF は、レーテラル結合の右側では使用できません。
代わりに通常の UDTF を使用するか、横結合を回避するためにクエリを再構築してください。
LEGACY_CREATE_TEMP_TABLE_WITHOUT_PROVIDER_NOT_SUPPORTED
CREATE TEMPORARY TABLE プロバイダーがない場合は許可されません。
LOAD_DATA_PATH_NOT_EXISTS
LOAD DATA 入力パスが存在しません: <path>。
LOCAL_MUST_WITH_SCHEMA_FILE
LOCAL は file のスキーマとともに使用する必要がありますが、<actualSchema> を受け取りました。
LOCATION_ALREADY_EXISTS
関連付けられている場所 <identifier> が既に存在するので、マネージド テーブルに <location>として名前を付けることはできません。 別のテーブル名を選択するか、最初に既存の場所を削除してください。
LOST_TOPIC_PARTITIONS_IN_END_OFFSET_WITH_TRIGGER_AVAILABLENOW
Trigger.AvailableNow を使用したクエリの実行中に、Kafka トピックのパーティションの一部が失われました。 エラーは一時的なものになる可能性があります。クエリを再起動し、同じ問題が引き続き発生した場合は報告します。
最新のオフセットのトピック パーティション: <tpsForLatestOffset>、 終了オフセットのトピック パーティション: <tpsForEndOffset>
MALFORMED_AVRO_MESSAGE
不正な Avro メッセージは、メッセージの逆シリアル化で検出されます。 解析モード: <mode>。 形式が正しくない Avro メッセージを null 結果として処理するには、オプション 'mode' を 'PERMISSIVE' に設定してみてください。
MALFORMED_CHARACTER_CODING
<function> を <charset> で実行するときに無効な値が見つかりました
MALFORMED_CSV_RECORD
形式が正しくない CSV レコード: <badRecord>
MALFORMED_LOG_FILE
ログ ファイルの形式が正しくありません。<text>から正しいログ バージョンを読み取れませんでした。
MALFORMED_PROTOBUF_MESSAGE
メッセージの逆シリアル化中に不正な Protobuf メッセージが検出されました。 解析モード: <failFastMode>。 不正な protobuf メッセージを null 結果として処理するには、オプション 'mode' を 'PERMISSIVE' に設定してみてください。
MALFORMED_RECORD_IN_PARSING
レコードの解析中に不正なレコードが検出されました: <badRecord>。
解析モード: <failFastMode>。 形式が正しくないレコードを null の結果として処理するには、オプション 'mode' を 'PERMISSIVE' に設定してみてください。
詳細については、MALFORMED_RECORD_IN_PARSING を参照してください
MALFORMED_STATE_IN_RATE_PER_MICRO_BATCH_SOURCE
RatePerMicroBatch ソースの形式が正しくない状態。
詳細については、MALFORMED_STATE_IN_RATE_PER_MICRO_BATCH_SOURCE を参照してください
MALFORMED_VARIANT
バリアント バイナリの形式に誤りがあります。 データ ソースが有効であることを確認してください。
MANAGED_ICEBERG_ATTEMPTED_TO_ENABLE_CLUSTERING_WITHOUT_DISABLING_DVS_OR_ROW_TRACKING
削除ベクトルと行追跡の両方を無効にせずに、Managed Apache Iceberg テーブルで Liquid クラスタリングを有効にしようとしました。 Managed Apache Iceberg テーブルでは削除ベクトルと行追跡はサポートされていませんが、Liquid テーブルでの行レベルのコンカレンシーには必要です。 コンカレンシー制御が減った Managed Apache Iceberg テーブルで Liquid クラスタリングを有効にするには、このテーブルに対して削除ベクトルと行追跡を無効にする必要があります。
MANAGED_ICEBERG_OPERATION_NOT_SUPPORTED
マネージド Apache Iceberg テーブルでは、 <operation>はサポートされていません。
MANAGED_TABLE_WITH_CRED
ストレージ資格情報を使用したマネージド テーブルの作成はサポートされていません。
MATERIALIZED_VIEW_MESA_REFRESH_WITHOUT_PIPELINE_ID
具体化されたビューは pipelineId を持つ時点より前のものであるため、<refreshType> を実行できません。
<refreshType> を有効にするには、具体化されたビューを削除して再作成してください。
MATERIALIZED_VIEW_NOT_INCREMENTALIZABLE
増分更新ではサポートされていないため、 <refreshPolicy> 更新ポリシーを使用して具体化されたビューを作成できません。 Reason:
詳細については、MATERIALIZED_VIEW_NOT_INCREMENTALIZABLEを参照してください。
MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
具体化されたビュー操作 <operation> は許可されていません。
詳細については、MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED を参照してください
MATERIALIZED_VIEW_OUTPUT_WITHOUT_EXPLICIT_ALIAS
具体化されたビューの出力式 <expression> は、明示的にエイリアス化する必要があります。
MATERIALIZED_VIEW_OVER_STREAMING_QUERY_INVALID
具体化されたビュー <name> をストリーミング クエリで作成できませんでした。
STREAMING TABLE
CREATE [OR REFRESH] を使用するか、FROM句の STREAM キーワードを削除して、このリレーションシップをバッチ クエリに変換してください。
MATERIALIZED_VIEW_UNSUPPORTED_OPERATION
現在、操作 <operation> は具体化されたビューではサポートされていません。
MAX_NUMBER_VARIABLES_IN_SESSION_EXCEEDED
セッション内の変数の数が最大許容数 (<variableName>) を超えるため、新しい変数 <maxNumVariables> を作成できません。
MAX_RECORDS_PER_FETCH_INVALID_FOR_KINESIS_SOURCE
maxRecordsPerFetch は、<kinesisRecordLimit> 以下の正の整数である必要があります
MCV_INVALID_INPUT_SKETCH_BUFFER
<function>の呼び出しが無効です。有効な MCV スケッチ バッファーのみが入力としてサポートされます (mcv_collect_internal関数によって生成されたものなど)。
MERGE_CARDINALITY_VIOLATION
ON ステートメントの MERGE 検索条件が、ターゲット テーブルの 1 つの行とソース テーブルの複数の行と一致しました。
これにより、更新操作または削除操作でターゲット行が複数回操作される可能性があり、許可されません。
MERGE_WITHOUT_WHEN
WHEN ステートメントには、少なくとも 1 つの MERGE 句が必要です。
METRIC_CONSTRAINT_NOT_SUPPORTED
METRIC CONSTRAINT が有効になっていません。
METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
指定された値 "<argValue>" は、<argName> テーブル関数の引数 "METRIC_STORE" ではサポートされていません。
詳細については、METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR を参照してください。
METRIC_STORE_UNSUPPORTED_ERROR
メトリック ストア ルーチンの <routineName> は、現在、この環境では無効になっています。
METRIC_VIEW_AMBIGUOUS_JOIN_CRITERIA
メトリック ビュー定義には、あいまいな条件 ( <expr>) を含む結合が含まれています。 [ using 結合条件を使用するか、 <sourceAlias> エイリアスで列を明示的に修飾します。
METRIC_VIEW_CACHE_TABLE_NOT_SUPPORTED
メトリック ビューでキャッシュ テーブルを使用することはできません。
METRIC_VIEW_FEATURE_DISABLED
メトリック ビュー機能が無効になっています。 "spark.databricks.sql.metricView.enabled" が true に設定されていることを確認してください。
METRIC_VIEW_INVALID_MEASURE_FUNCTION_INPUT
MEASURE() 関数は属性のみを入力として使用しますが、<expr> を受け取りました
METRIC_VIEW_INVALID_VIEW_DEFINITION
メトリック ビューの定義が無効です。 理由: <reason>。
METRIC_VIEW_IN_CTE_NOT_SUPPORTED
メトリック ビューは、CTE 定義では使用できません。 プラン: <plan>
METRIC_VIEW_JOIN_NOT_SUPPORTED
メトリック ビューでは結合を使用できません。 プラン: <plan>
METRIC_VIEW_MATERIALIZATIONS_DISABLED
メトリック ビューの具体化は無効です。 "spark.databricks.sql.metricView.materializations.enabled" が true に設定されていることを確認してください。
METRIC_VIEW_MATERIALIZATIONS_UNAGGREGATED_WITH_METRIC_VIEW
メトリック ビューが他のメトリック ビューを参照する場合、非集計マテリアライズはサポートされません。
一時的ビューのメトリックビューの実体化はサポートされていません
具体化は、一時的なメトリック ビューではサポートされていません。
METRIC_VIEW_MATERIALIZATION_WITH_INVOKER_DEPENDENT_EXPRESSIONS_NOT_SUPPORTED
呼び出し元に依存する式を含むメトリック ビューでは、具体化はサポートされていません。 これらの式は、具体化の再利用を防ぎます。
METRIC_VIEW_MEASURE_IN_GROUP_BY
<measureColumns> メジャー列は、 GROUP BY 句またはカテゴリ値として使用できません。 期待される動作のために、それらを SUM() などの集計関数でラップすることをお勧めします。
METRIC_VIEW_MISSING_MEASURE_FUNCTION
メトリック ビューのメジャー列 <column> を使用するには、結果を生成するために MEASURE() 関数が必要です。
METRIC_VIEW_NOT_MATERIALIZED
具体化が定義されていないメトリック ビューで具体化されたビュー コマンドを呼び出しました
詳細については、METRIC_VIEW_NOT_MATERIALIZEDを参照してください。
There are no changes required; the text itself should remain as is to avoid any confusion in a technical context.
メトリック ビューは HMS ではサポートされていません。
METRIC_VIEW_RENAME_DIFFERENT_CATALOG_AND_SCHEMA
メトリック ビュー <oldName> は、別のカタログまたはスキーマ ( <newName>) に名前を変更することはできません。
METRIC_VIEW_SNOWFLAKE_JOIN_FEATURE_DISABLED
メトリック ビューのスノーフレーク結合機能が無効になっています。 "spark.databricks.sql.metricView.snowflake.join.enable" が true に設定されていることを確認してください。
METRIC_VIEW_UNSUPPORTED_USAGE
メトリックビューの利用はサポートされていません。 プラン: <plan>
METRIC_VIEW_WINDOW_FUNCTION_NOT_SUPPORTED
メトリック ビューでは、ウィンドウ関数 <expr>を使用できません。
METRIC_VIEW_YAML_V11_DISABLED
メトリック ビュー YAML v1.1 が無効になっています。 "spark.databricks.sql.metricView.yaml.v11.enabled" が true に設定されていることを確認してください。
MIGRATION_NOT_SUPPORTED
<table> は UC マネージド テーブルへの移行ではサポートされていません。これは、 <tableKind> テーブルではないためです。
移行するテーブルが UC 外部デルタ テーブルであることを確認します。
パスではなく名前で参照されます。
MIGRATION_ROLLBACK_NOT_SUPPORTED
<table> は <tableKind> テーブルではないため、管理テーブルから外部テーブルへのロールバックはサポートされていません。
MISMATCHED_TOPIC_PARTITIONS_BETWEEN_END_OFFSET_AND_PREFETCHED
Trigger.AvailableNow の Kafka データ ソースは、各マイクロバッチのプリフェッチ オフセットから終了オフセットに同じトピック パーティションを提供する必要があります。 エラーは一時的なものになる可能性があります。クエリを再起動し、同じ問題が引き続き発生した場合は報告します。
プリフェッチされたオフセットのトピック パーティション: <tpsForPrefetched>、 終了オフセットのトピック パーティション: <tpsForEndOffset>。
MISSING_AGGREGATION
非集計式 <expression> は、GROUP BY 句に参加していない列に基づいています。
列または式を GROUP BYに追加し、式を集計するか、グループ内のどの値が返されるかを気にしない場合は <expressionAnyValue> を使用します。
詳細については、MISSING_AGGREGATION を参照してください。
MISSING_CATALOG_ABILITY
カタログ <plugin> ではサポートされていません
詳細については、MISSING_CATALOG_ABILITYを参照してください。
MISSING_CLAUSES_FOR_OPERATION
操作 <clauses> の句 <operation> がありません。 必要な句を追加してください。
MISSING_CONNECTION_OPTION
型 '<connectionType>' の接続には、次のオプションを含める必要があります: <requiredOptions>。
MISSING_DATABASE_FOR_V1_SESSION_CATALOG
v1 セッション カタログにデータベース名が指定されていません。 v1 カタログを操作するときは、必ず有効なデータベース名を指定してください。
MISSING_GROUP_BY
クエリに GROUP BY 句は含まれません。
GROUP BY を追加するか、それをウィンドウ関数として OVER 句を使って変換します。
MISSING_NAME_FOR_CHECK_CONSTRAINT
CHECK 制約には名前が必要です。
MISSING_PARAMETER_FOR_KAFKA
Kafka にはパラメーター <parameterName> が必要ですが、<functionName>では指定されていません。
MISSING_PARAMETER_FOR_ROUTINE
パラメーター <parameterName> は必須ですが、<functionName>で指定されていません。
MISSING_SCHEDULE_DEFINITION
スケジュール定義は、次の SCHEDULEで指定する必要があります。
MISSING_TIMEOUT_CONFIGURATION
操作はタイムアウトしましたが、タイムアウト期間は構成されません。 処理時間ベースのタイムアウトを設定するには、'mapGroupsWithState' または 'flatMapGroupsWithState' 操作で 'GroupState.setTimeoutDuration()' を使用します。 イベント時間ベースのタイムアウトの場合は、'GroupState.setTimeoutTimestamp()' を使用し、'Dataset.withWatermark()' を使用して透かしを定義します。
MISSING_WINDOW_SPECIFICATION
ウィンドウの指定は、WINDOWの <windowName> 句で定義されていません。
WINDOW句の詳細については、「<docroot>/sql-ref-syntax-qry-select-window.html」を参照してください。
MODIFY_BUILTIN_CATALOG
組み込みのカタログ <catalogName> の変更はサポートされていません。
マルチパートフロー名はサポートされていません (MULTIPART_FLOW_NAME_NOT_SUPPORTED)
マルチパート名 '<flowName>' のフローはサポートされていません。
MULTIPLE_EXCEL_DATA_SOURCE
<provider> (<sourceNames>)という名前の複数の Excel データ ソースが検出されました。 完全修飾クラス名を指定するか、クラスパスから <externalSource> を削除してください。
MULTIPLE_LOAD_PATH
Databricks Delta では、load() API の複数の入力パスはサポートされていません。
パス: <pathList>。 同じ Delta テーブルから複数のパスを読み込んで
同じ Delta テーブルからの複数のパスがある場合、ルート パスを読み込んでください。
デルタ テーブルと、対応するパーティション フィルター。 複数のパスが異なる Delta テーブルに由来する
は異なる Delta テーブルからのものです。データセットの union()/unionByName() API を使用してください
個別の load() API 呼び出しによって生成された DataFrames を結合するために使用します。
MULTIPLE_MATCHING_CONSTRAINTS
指定された条件に一致する制約が少なくとも 2 つ見つかりました。
MULTIPLE_QUERY_RESULT_CLAUSES_WITH_PIPE_OPERATORS
<clause1> と <clause2> は、'|>' を使用して同じ SQL パイプ演算子内に共存することはできません。 複数の結果句を別々のパイプ演算子に分け、クエリをもう一度やり直してください。
MULTIPLE_TIME_TRAVEL_SPEC
時間移動句とオプションの両方で時間移動を指定することはできません。
MULTIPLE_XML_DATA_SOURCE
<provider> (<sourceNames>)という名前の複数のデータ ソースが検出されました。 完全修飾クラス名を指定するか、クラスパスから <externalSource> を削除してください。
MULTI_ALIAS_WITHOUT_GENERATOR
マルチパート エイリアシング (<names>) は、ジェネレーター関数ではないため、<expr> ではサポートされていません。
MULTI_SOURCES_UNSUPPORTED_FOR_EXPRESSION
式 <expr> は、複数のソースをサポートしていません。
MULTI_SOURCE_METRIC_VIEW_MEASURE_REFERENCING_DIMENSION
メトリック ビューのメジャー列 <measureColumn> は、ディメンション列 (<dimensionColumn>) を参照できません。
MULTI_SOURCE_METRIC_VIEW_UNQUALIFIED_MEASURE_REF
複数ソースメトリック ビューの非修飾メジャー列参照 <measureColumn> は許可されません。 メジャー列をソース エイリアスで修飾してください。
MULTI_SOURCE_METRIC_VIEW_UNSUPPORTED_EXPRESSION
メトリック ビューの複数のソースに対する集計式はサポートされていません: <expr>。
MULTI_UDF_INTERFACE_ERROR
複数の UDF インターフェイスを実装することはできません。UDF クラス <className>。
MUTUALLY_EXCLUSIVE_CLAUSES
相互に排他的な条件またはオプション <clauses>。 これらの句のいずれかを削除してください。
MV_ST_ALTER_QUERY_INCORRECT_BACKING_TYPE
入力クエリでは <expectedType>が必要ですが、基になるテーブルは <givenType>です。
NAMED_PARAMETERS_NOT_SUPPORTED
名前付きパラメーターは、関数 <functionName>ではサポートされていません。代わりに、関数呼び出しに位置引数を指定してクエリを再試行してください。
NAMED_PARAMETERS_NOT_SUPPORTED_FOR_SQL_UDFS
名前付き引数参照はサポートされていないため、関数 <functionName> を呼び出すことはできません。 この場合、名前付き引数の参照は <argument>でした。
NAMED_PARAMETER_SUPPORT_DISABLED
ここでは名前付き引数参照が有効になっていないため、関数 <functionName> を呼び出すことができません。
この場合、名前付き引数の参照は <argument>でした。
機能を有効にするには、"spark.sql.allowNamedFunctionArguments" を "true" に設定します。
NAMESPACE_ALREADY_EXISTS
名前空間 <nameSpaceName> は既に存在するため、作成できません。
別の名前を選択するか、既存の名前空間を削除するか、既存の名前空間を許容する IF NOT EXISTS 句を追加します。
NAMESPACE_NOT_EMPTY
オブジェクトが含まれているため、名前空間 <nameSpaceNameName> を削除できません。
DROP NAMESPACE
...
CASCADEを使用して、名前空間とそのすべてのオブジェクトを削除します。
NAMESPACE_NOT_FOUND
名前空間 <nameSpaceName> が見つかりません。 名前空間のスペルと正確性を確認します。
名前を修飾しなかった場合は、current_schema() の出力を確認するか、あるいは正しい方法で名前を修飾してください。
ドロップ時のエラーを許容するには、DROP NAMESPACE IF EXISTSを使用します。
NATIVE_IO_ERROR
ネイティブ要求が失敗しました。 requestId: <requestId>, クラウド: <cloud>, 操作: <operation>
リクエスト: [https: <https>, メソッド = <method>, パス = <path>, パラメータ = <params>, ホスト = <host>, ヘッダー = <headers>, ボディ長 = <bodyLen>]
エラー: <error>
NATIVE_XML_DATA_SOURCE_NOT_ENABLED
このクラスターでは、ネイティブ XML データ ソースが有効になっていません。
NEGATIVE_SCALE_DISALLOWED
負のスケールは許可されていません: '<scale>'。 構成 <sqlConf> を "true" に設定して許可します。
NEGATIVE_VALUES_IN_FREQUENCY_EXPRESSION
<frequencyExpression>: <negativeValue>で負の値が見つかりましたが、正の整数値が必要です。
NESTED_AGGREGATE_FUNCTION
別の集計関数の引数で集計関数を使用することはできません。 サブクエリで内部集計関数を使用してください。
NESTED_EXECUTE_IMMEDIATE
入れ子になった EXECUTE IMMEDIATE コマンドは使用できません。 指定された SQL クエリ (<sqlString>) に別の EXECUTE IMMEDIATE コマンドが含まれていないことを確認してください。
NESTED_REFERENCES_IN_LATERAL_SUBQUERY_NOT_SUPPORTED
サポートされていない外側のサブクエリで <expression> 外部スコープ参照が検出されました。 入れ子になった外部スコープの属性を参照するサブクエリが横サブクエリに含まれていないことを確認してください。
サブクエリ内のネストされた参照はサポートされていません (NESTED_REFERENCES_IN_SUBQUERY_NOT_SUPPORTED)
サポートされていないサブクエリで <expression> 外部スコープ参照が検出されました。
新しいチェック制約違反
新しい check 制約 (<expression>) は、テーブル <tableName>内の既存のデータに違反するため、追加できません。 追加する前に、既存のすべての行が制約を満たしていることを確認してください。
NONEXISTENT_FIELD_NAME_IN_LIST
フィールド <nonExistFields> は存在しません。 使用可能なフィールド: <fieldNames>
非決定論的チェック制約 (NON_DETERMINISTIC_CHECK_CONSTRAINT)
check 制約 <checkCondition> は非決定論的です。 Check 制約には決定論的な式のみを含める必要があります。
NON_FOLDABLE_ARGUMENT
関数 <funcName> では、パラメーター <paramName><paramType>型の折りたたみ式である必要がありますが、実際の引数は折りたたみ不可能です。
NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
MATCHED ステートメントに複数の MERGE 句がある場合、最後の MATCHED 句のみが条件を省略できます。
NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
NOT MATCHED BY SOURCE ステートメントに複数の MERGE 句がある場合、最後の NOT MATCHED BY SOURCE 句のみが条件を省略できます。
NON_LAST_NOT_MATCHED_BY_TARGET_CLAUSE_OMIT_CONDITION
NOT MATCHED [BY TARGET] ステートメントに複数の MERGE 句がある場合、最後の NOT MATCHED [BY TARGET] 句のみが条件を省略できます。
NON_LITERAL_PIVOT_VALUES
ピボット値に必要なリテラル式が、<expression>で見つかりました。
NON_PARTITION_COLUMN
PARTITION 句にパーティション以外の列 <columnName> を含めることはできません。
NON_TIME_WINDOW_NOT_SUPPORTED_IN_STREAMING
ウィンドウ関数は、ストリーミング DataFrame/データセットの <windowFunc> (列 <columnName> として) ではサポートされていません。
構造化ストリーミングでは、WINDOW 関数を使用した時間枠の集計のみがサポートされます。 (ウィンドウ仕様: <windowSpec>)
NOT_ALLOWED_IN_FROM
FROM 句では許可されません。
詳細については、NOT_ALLOWED_IN_FROM を参照してください
NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE
パイプの WHERE 句では許可されません。
詳細については、NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE を参照してください
NOT_A_CONSTANT_STRING
ルーチンまたは句 <expr> に使用される <name> の式は、STRINGである定数 NOT NULL である必要があります。
詳細については、NOT_A_CONSTANT_STRING を参照してください。
NOT_A_PARTITIONED_TABLE
操作 <operation> はパーティション テーブルではないため、<tableIdentWithDB> に対しては許可されません。
NOT_A_SCALAR_FUNCTION
<functionName> スカラー式として表示されますが、関数はテーブル関数として定義されています。 関数呼び出しを FROM 句に移動するようにクエリを更新するか、代わりにスカラー関数として <functionName> を再定義してください。
NOT_A_TABLE_FUNCTION
<functionName> テーブル関数として表示されますが、関数はスカラー関数として定義されています。
FROM 句の外側に関数呼び出しを移動するようにクエリを更新するか、代わりにテーブル関数として <functionName> を再定義してください。
NOT_ENOUGH_ARGS
関数 <functionName> は、少なくとも <minNum> パラメーターを受け取りますが、 <actualNum> (<actualArgs>)を受け取ります。
NOT_NULL_ASSERT_VIOLATION
NULL 値が null 非許容フィールドに表示されました。<walkedTypePath>スキーマが Scala のタプルやケースクラス、または Java Bean から推論される場合は、scala.Option[_] や他の null 許容型を使用することをお試しください(int/scala.Int の代わりに java.lang.Integer など)。
NOT_NULL_CONSTRAINT_VIOLATION
ここでは、NULL を割り当てることはできません。
詳細については、NOT_NULL_CONSTRAINT_VIOLATION を参照してください
NOT_SUPPORTED_CHANGE_COLUMN
ALTER TABLE ALTER
/
CHANGE COLUMNは、型が<table><originName>の列<originType>を型<newName>の<newType>に変更する場合はサポートされていません。
NOT_SUPPORTED_CHANGE_SAME_COLUMN
ALTER TABLE ALTER
/
CHANGE COLUMN は、同じコマンドで入れ子になったフィールドを複数回含む <table>の列 <fieldName> を変更する場合はサポートされていません。
NOT_SUPPORTED_COMMAND_FOR_V2_TABLE
<cmd> は v2 テーブルではサポートされていません。
NOT_SUPPORTED_COMMAND_WITHOUT_HIVE_SUPPORT
<cmd> はサポートされていません。有効にする場合は、"spark.sql.catalogImplementation" を "hive" に設定してください。
NOT_SUPPORTED_IN_JDBC_CATALOG
JDBC カタログではサポートされていないコマンド:
詳細については、NOT_SUPPORTED_IN_JDBC_CATALOG を参照してください。
NOT_SUPPORTED_WITH_DB_SQL
<operation> は、SQL <endpoint>ではサポートされていません。
NOT_SUPPORTED_WITH_SERVERLESS
<operation> は、サーバーレス コンピューティングではサポートされていません。
NOT_UNRESOLVED_ENCODER
未解決のエンコーダーが予期されましたが、<attr> が見つかりました。
NO_ACTIVE_TRANSACTION
<action>するアクティブなトランザクションはありません。
NO_DEFAULT_COLUMN_VALUE_AVAILABLE
<colName>の既定値は null 許容ではなく、既定値がないため判断できません。
NO_HANDLER_FOR_UDAF
UDAF '<functionName>' のハンドラーがありません。 代わりに sparkSession.udf.register(...) を使用してください。
NO_MERGE_ACTION_SPECIFIED
df.mergeInto の後に whenMatched/whenNotMatched/whenNotMatchedBySource の少なくとも 1 つが続く必要があります。
NO_PARENT_EXTERNAL_LOCATION_FOR_PATH
パス '<path>' の親外部の場所が見つかりませんでした。 親パスの 1 つに外部の場所を作成してから、クエリまたはコマンドをもう一度やり直してください。
NO_PRIMARY_KEY_CONSTRAINT_EXCEPTION
TABLE <table> には主キー制約がありません。
NO_SQL_TYPE_IN_PROTOBUF_SCHEMA
Protobuf スキーマで <catalystFieldPath> が見つかりません。
NO_STORAGE_LOCATION_FOR_TABLE
SQLSTATE: 割り当てなし
テーブルの資格情報を生成するときに、テーブル '<tableId>' のストレージの場所が見つかりませんでした。 テーブルの種類とテーブルの場所の URL を確認してから、クエリまたはコマンドをもう一度やり直してください。
NO_SUCH_CATALOG_EXCEPTION
カタログ '<catalog>' が見つかりませんでした。 カタログ名を確認してから、クエリまたはコマンドをもう一度やり直してください。
NO_SUCH_CLEANROOM_EXCEPTION
SQLSTATE: 割り当てなし
クリーン ルーム '<cleanroom>' は存在しません。 クリーン ルーム名のスペルが正しく、有効な既存のクリーン ルームの名前と一致していることを確認してから、クエリまたはコマンドをもう一度やり直してください。
NO_SUCH_CONSTRAINT_EXCEPTION
制約<constraint><identifier>で見つかりません。
NO_SUCH_CREDENTIAL_EXCEPTION
資格情報 '<credential>' が存在しません。 資格情報名のスペルが正しく、有効な既存の資格情報の名前と一致することを確認してから、クエリまたはコマンドをもう一度やり直してください。
NO_SUCH_EXTERNAL_LOCATION_EXCEPTION
SQLSTATE: 割り当てなし
外部の場所 '<externalLocation>' が存在しません。 外部の場所名が正しいことを確認してから、クエリまたはコマンドをもう一度やり直してください。
NO_SUCH_METASTORE_EXCEPTION
SQLSTATE: 割り当てなし
メタストアが見つかりませんでした。 現在のワークスペースにメタストアを割り当ててから、クエリまたはコマンドをもう一度やり直すようにアカウント管理者に依頼してください。
NO_SUCH_PROVIDER_EXCEPTION
SQLSTATE: 割り当てなし
共有プロバイダー '<providerName>' が存在しません。 共有プロバイダー名のスペルが正しく、有効な既存のプロバイダー名と一致することを確認してから、クエリまたはコマンドをもう一度やり直してください。
NO_SUCH_RECIPIENT_EXCEPTION
SQLSTATE: 割り当てなし
受信者 '<recipient>' が存在しません。 受信者名のスペルが正しく、有効な既存の受信者の名前と一致することを確認してから、クエリまたはコマンドをもう一度やり直してください。
NO_SUCH_SHARE_EXCEPTION
SQLSTATE: 割り当てなし
共有 '<share>' が存在しません。 共有名のスペルが正しく、有効な既存の共有の名前と一致することを確認してから、クエリまたはコマンドをもう一度やり直してください。
NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION
SQLSTATE: 割り当てなし
ストレージ資格情報 '<storageCredential>' が存在しません。 ストレージ資格情報名のスペルが正しく、有効な既存のストレージ資格情報の名前と一致することを確認してから、クエリまたはコマンドをもう一度やり直してください。
NO_SUCH_USER_EXCEPTION
SQLSTATE: 割り当てなし
ユーザー '<userName>' が存在しません。 アクセス許可を付与または所有権を変更するユーザーのスペルが正しく、有効な既存のユーザーの名前と一致することを確認してから、クエリまたはコマンドをもう一度やり直してください。
NO_UDF_INTERFACE
UDF クラス <className> では、UDF インターフェイスは実装されません。
NULLABLE_COLUMN_OR_FIELD
列またはフィールド <name> が null 許容になっていますが、null 非許容である必要があります。
NULLABLE_ROW_ID_ATTRIBUTES
行 ID 属性を null 許容にすることはできません: <nullableRowIdAttrs>。
NULL_DATA_SOURCE_OPTION
データ ソースの読み取り/書き込みオプション <option> null 値を持つことはできません。
NULL_MAP_KEY
マップ キーとして null を使用できません。
NULL_QUERY_STRING_EXECUTE_IMMEDIATE
即時実行では、クエリ文字列として null 以外の変数が必要ですが、指定された変数 <varName> は null です。
NULL_VALUE_SIGNAL_STATEMENT
Signal ステートメントの引数には null 以外の値が必要ですが、 <argument> は null 値を受け取りました。
NUMERIC_OUT_OF_SUPPORTED_RANGE
<value>値は 38 桁を超えるので、数値として解釈できません。
NUMERIC_VALUE_OUT_OF_RANGE
詳細については、NUMERIC_VALUE_OUT_OF_RANGE を参照してください。
NUM_COLUMNS_MISMATCH
<operator> は、同じ数の列を持つ入力に対してのみ実行できますが、最初の入力には <firstNumColumns> 列があり、<invalidOrdinalNum> 入力には <invalidNumColumns> 列があります。
NUM_TABLE_VALUE_ALIASES_MISMATCH
指定されたエイリアスの数が出力列の数と一致しません。
関数名: <funcName>;エイリアスの数: <aliasesNum>;出力列の数: <outColsNum>。
OAUTH_CUSTOM_IDENTITY_CLAIM_NOT_PROVIDED
カスタム ID 要求は提供されませんでした。
ONLY_SECRET_FUNCTION_SUPPORTED_HERE
この <functionName>では、関数 <location> の呼び出しはサポートされていません。<supportedFunctions> サポートされています。
ONLY_SUPPORTED_WITH_UC_SQL_CONNECTOR
SQL 操作 <operation> は、Unity カタログがサポートされている Databricks SQL コネクタでのみサポートされます。
OPERATION_CANCELED
操作が取り消されました。
OPERATION_REQUIRES_UNITY_CATALOG
操作 <operation> では、Unity カタログが有効になっている必要があります。
OP_NOT_SUPPORTED_READ_ONLY
<plan> は、読み取り専用セッション モードではサポートされていません。
ORDER_BY_POS_OUT_OF_RANGE
ORDER BY 位置 <index> が選択リストに含まれていません (有効な範囲は [1, <size>])。
PARQUET_CONVERSION_FAILURE
Parquet 型が <dataType> のデータ型 <parquetType> に対して Parquet コンバーターを作成できません。
詳細については、PARQUET_CONVERSION_FAILURE を参照してください。
PARQUET_TYPE_ILLEGAL
Parquet 型 <parquetType> は正しくありません。
PARQUET_TYPE_NOT_RECOGNIZED
Parquet 型 <field> は認識できません。
PARQUET_TYPE_NOT_SUPPORTED
Parquet の種類はまだサポートされていません: <parquetType>。
PARSE_EMPTY_STATEMENT
構文エラー、予期しない空のステートメント。
PARSE_MODE_UNSUPPORTED
関数 <funcName> は、 <mode> モードをサポートしていません。 許容されるモードは、PERMISSIVE と FAILFASTです。
PARSE_SYNTAX_ERROR
<error> <hint>付近で構文エラーが発生しました。
PARTITIONS_ALREADY_EXIST
テーブル RENAME 内のパーティション <partitionList> は既に存在するため、追加または <tableName> できません。
別の名前を選択するか、既存のパーティションを削除するか、IF NOT EXISTS 句を追加して既存のパーティションを許容します。
PARTITIONS_NOT_FOUND
パーティション <partitionList> がテーブル <tableName>に見つかりません。
パーティションの仕様とテーブル名を確認します。
ドロップ時のエラーを許容するには、... ALTER TABLE 使用します。
DROP IF EXISTS PARTITION。
PARTITION_COLUMN_NOT_FOUND_IN_SCHEMA
パーティション列 <column> スキーマ <schema>で見つかりません。 パーティション分割用の既存の列を指定してください。
PARTITION_LOCATION_ALREADY_EXISTS
パーティションの場所 <locationPath> テーブル <tableName>に既に存在します。
PARTITION_LOCATION_IS_NOT_UNDER_TABLE_DIRECTORY
ALTER TABLE SET PARTITION LOCATION ステートメントを実行できませんでした。
パーティションの場所 <location> がテーブル ディレクトリの <table>の下にありません。
これを修正するには、パーティションの場所を <table>のサブディレクトリに設定してください。
PARTITION_METADATA
<action> は、パーティション メタデータの格納は Unity カタログではサポートされていないため、テーブル <tableName> では許可されません。
PARTITION_NUMBER_MISMATCH
値の数 (<partitionNumber>) がスキーマ サイズ (<partitionSchemaSize>) と一致しませんでした: 値が <partitionValues>、スキーマが <partitionSchema>、ファイル パスが <urlEncodedPath>。
テーブルを再具現化するか、所有者にお問い合わせください。
PARTITION_TRANSFORM_EXPRESSION_NOT_IN_PARTITIONED_BY
式 <expression> は 'partitionedBy' 内にある必要があります。
PATH_ALREADY_EXISTS
パス <outputPath> は既に存在します。 既存のパスを上書きするには、モードを "上書き" に設定します。
PATH_NOT_FOUND
パスが存在しません: <path>。
PATH_RESOLUTION_ERROR
パス <path>を解決できませんでした。 原因: <causedBy>
PHOTON_DESERIALIZED_PROTOBUF_MEMORY_LIMIT_EXCEEDED
Photon protobuf プランを逆シリアル化するには、少なくとも <size> バイトが必要です。これは、
<limit> バイトのリミット。 これは、非常に大きなプランまたは非常に大きなスキーマが存在することが原因である可能性が
ワイドスキーマ クエリの簡略化、不要な列の削除、Photon の無効化を試みます。
PHOTON_SERIALIZED_PROTOBUF_MEMORY_LIMIT_EXCEEDED
シリアル化された Photon protobuf プランのサイズは <size> バイトで、このサイズは制限を超えています。
<limit> バイトの制限を超えています。 プラン内のデータ型のシリアル化されたサイズは、<dataTypeSize> バイトです。
これは、非常に大規模なプランまたは非常に広いスキーマの存在が原因である可能性があります。
不要な操作と列を削除したり、Photon を無効にしたりするために、クエリを書き直してください。
フローのないパイプラインデータセット
パイプライン データセット <identifier> には、定義されたフローがありません。 データセットの定義を使用してクエリをアタッチするか、データセットに書き込むフローを少なくとも 1 つ明示的に定義してください。
PIPELINE_DOES_NOT_EXIST
パイプライン '<pipelineId>' が存在しません
詳細については、PIPELINE_DOES_NOT_EXISTを参照してください。
パイプライン重複識別子 (PIPELINE_DUPLICATE_IDENTIFIERS)
パイプラインのデータフロー グラフに登録されている要素の重複する識別子が見つかりました。
詳細については、PIPELINE_DUPLICATE_IDENTIFIERSを参照してください。
PIPELINE_SQL_GRAPH_ELEMENT_REGISTRATION_ERROR
<message>
<offendingQuery>
<codeLocation>
PIPELINE_STORAGE_ROOT_INVALID
パイプライン ストレージ ルートは、URI スキームを持つ絶対パスである必要があります (たとえば、file://、s3a://、hdfs://)。 取得: <storage_root>。
PIPE_OPERATOR_AGGREGATE_EXPRESSION_CONTAINS_NO_AGGREGATE_FUNCTION
グループ化されていない式 <expr> は、|>AGGREGATE パイプ演算子の引数として提供されますが、集計関数は含まれません。集計関数を含むように更新してから、クエリをもう一度やり直してください。
PIPE_OPERATOR_CONTAINS_AGGREGATE_FUNCTION
パイプ演算子 |<expr>> 句を使用する場合、集計関数<clause>は使用できません。代わりに、パイプ演算子 |>AGGREGATE 句を使用してください。
PIVOT_VALUE_DATA_TYPE_MISMATCH
無効なピボット値 '<value>': 値のデータ型 <valueType> ピボット列のデータ型 <pivotType>と一致しません。
POLICY_ALREADY_EXISTS
ポリシー <policyName> は既に存在するため作成できません。
別の名前を選択するか、既存のポリシーを削除して既存の接続を許容します。
POLICY_NOT_FOUND
<commandType> コマンドを実行できません。<policyName> のポリシー <securableFullname> が見つからないためです。
スペルと正確性を確認してください。
POLICY_ON_SECURABLE_TYPE_NOT_SUPPORTED
セキュリティ保護可能な種類の <securableType>に対してポリシーを作成できません。 サポートされているセキュリティ保護可能な種類: <allowedTypes>。
PREVIEW_FEATURE_NOT_ENABLED
プレビュー機能 <featureName> が有効になっていません。 プレビュー ポータルでこの機能を有効にするには、ワークスペース管理者に問い合わせてください。
PROCEDURE_ARGUMENT_NUMBER_MISMATCH
プロシージャ <procedureName><expected> 引数が必要ですが、<actual> が指定されました。
PROCEDURE_CREATION_EMPTY_ROUTINE
空のルーチン定義を持つ CREATE PROCEDURE は許可されません。
PROCEDURE_CREATION_PARAMETER_OUT_INOUT_WITH_DEFAULT
パラメーター <parameterName> は、パラメーター モードの <parameterMode>で定義されます。 ルーチンを呼び出すときは OUT パラメーターと INOUT パラメーターを省略できないため、 DEFAULT 式はサポートされません。 続行するには、DEFAULT 句を削除するか、パラメーター モードを INに変更します。
PROCEDURE_NOT_SUPPORTED
ストアド プロシージャはサポートされていません
PROCEDURE_NOT_SUPPORTED_WITH_HMS
Hive メタストアでは、ストアド プロシージャはサポートされていません。 代わりに Unity カタログを使用してください。
PROTOBUF_DEPENDENCY_NOT_FOUND
依存関係が見つかりませんでした: <dependencyName>。
PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND
パスで Protobuf 記述子ファイルを読み取る際にエラーが発生しました: <filePath>。
PROTOBUF_FIELD_MISSING
<field> の Protobuf スキーマで <protobufSchema> を検索した結果、<matchSize> 件の一致を取得しました。 候補: <matches>。
PROTOBUF_FIELD_MISSING_IN_SQL_SCHEMA
Protobuf スキーマ <field> が見つかりましたが、SQL スキーマに一致するものがありません。
PROTOBUF_FIELD_TYPE_MISMATCH
フィールド <field>に対して型の不一致が発生しました。
PROTOBUF_JAVA_CLASSES_NOT_SUPPORTED
java クラスは、<protobufFunction>ではサポートされていません。 代替オプションについては、Databricks サポートにお問い合わせください。
PROTOBUF_MESSAGE_NOT_FOUND
記述子でメッセージ <messageName> が見つからない。
PROTOBUF_NOT_LOADED_SQL_FUNCTIONS_UNUSABLE
Protobuf データ ソースが読み込まれていないため、<functionName> SQL 関数を呼び出すことができません。
コマンド ラインで --packages 引数を使用するなどして、"spark-protobuf" パッケージが読み込まれたジョブまたはセッションを再起動してから、クエリまたはコマンドをもう一度やり直してください。
PROTOBUF_TYPE_NOT_SUPPORT
Protobuf 型はまだサポートされていません: <protobufType>。
PS_FETCH_RETRY_EXCEPTION
PubSub フェッチ ステージのタスクを再試行できません。 ステージ <partitionInfo> のパーティション <stageInfo>、TID <taskId>。
PS_INVALID_EMPTY_OPTION
<key> は空の文字列にすることはできません。
PS_INVALID_KEY_TYPE
PubSub 重複除去のキーの種類 <key> が無効です。
PS_INVALID_OPTION
<key> オプションは PubSub ではサポートされていません。 テストでのみ使用できます。
PS_INVALID_OPTION_TYPE
<key>の型が無効です。
<key> に予期されている型は型 <type> です。
PS_INVALID_READ_LIMIT
PubSub ストリームの読み取り制限が無効です: <limit>。
PS_INVALID_UNSAFE_ROW_CONVERSION_FROM_PROTO
PubSubMessageMetadata にデコードする UnsafeRow が無効です。目的の proto スキーマは <protoSchema>です。 UnsafeRow という入力が破損している可能性があります: <unsafeRow>。
PS_INVALID_WORKLOAD_IDENTITY_FEDERATION_AUDIENCE_OPTION
spark.readStream.format("pubsub").option("workloadIdentityFederation.audience", <audience>) の読み取りオプションが無効であるため、クエリまたはコマンドが失敗しました。 //iam.googleapis.com/projects/{<audience>}/locations/global/workloadIdentityPools/{PROJECT_NUMBER}/providers/{POOL_ID} の形式に一致するようにPROVIDER_IDを更新し、クエリまたはコマンドをもう一度やり直してください。
PS_MISSING_AUTH_INFO
完全な PubSub 認証情報を見つけることができません。
PS_MISSING_REQUIRED_OPTION
必要なオプションが見つかりませんでした: <key>.
PS_MOVING_CHECKPOINT_FAILURE
未加工のデータ チェックポイント ファイルを <src> から移動先ディレクトリ (<dest>) に移動できません。
PS_MULTIPLE_AUTH_OPTIONS
Databricks サービスの資格情報または GCP サービス アカウントの資格情報を指定してください。
PS_MULTIPLE_FAILED_EPOCHS
PubSub ストリームは、2 つ以上の失敗したフェッチ (<failedEpochs>) があるため開始できません。
PS_OPTION_NOT_IN_BOUNDS
<key> は、両方の境界の次の境界 (<min>, <max>) 内にある必要があります。
PS_PROVIDE_CREDENTIALS_WITH_OPTION
共有クラスターは、インスタンス プロファイルでの認証をサポートしていません。 .option() を使用してストリームに資格情報を直接指定します。
PS_SPARK_SPECULATION_NOT_SUPPORTED
PubSub ソース コネクタは、spark.speculation が無効になっているクラスターでのみ使用できます。
PS_UNABLE_TO_CREATE_SUBSCRIPTION
トピック <subId>でサブスクリプション <topicId> を作成しようとしたときにエラーが発生しました。 サブスクリプションを作成して再試行するための十分なアクセス許可があることを確認してください。
PS_UNABLE_TO_PARSE_PROTO
シリアル化されたバイトを解析して proto を生成できません。
PS_UNSUPPORTED_GET_OFFSET_CALL
getOffset は、制限を指定しないとサポートされていません。
PYTHON_DATA_SOURCE_ERROR
<action> に失敗したPythonデータソース <type>: <msg>
PYTHON_STREAMING_DATA_SOURCE_RUNTIME_ERROR
Python ストリーミング データ ソースが <action>を実行するときに失敗しました: <msg>
QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
以前に割り当てられた列マスクは現在、テーブル スキーマと互換性がないため、参照先テーブルにアクセスできません。続行するには、テーブルの所有者に連絡してポリシーを更新してください。
詳細については、QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY を参照してください
QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
以前に割り当てられた行レベルのセキュリティ ポリシーは現在、テーブル スキーマと互換性がないため、参照先テーブルにアクセスできません。続行するには、テーブルの所有者に連絡してポリシーを更新してください。
詳細については、QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY を参照してください
QUERY_EXECUTION_TIMEOUT_EXCEEDED
タイムアウト (<timeoutSec>秒) を超えたため、クエリの実行が取り消されました。
<config>を設定すると、秒単位で制限を引き上げることができます。
QUERY_INCOMPATIBLE_WITH_RLSCM_POLICY
go/rowcolumncontrols-allowlist を参照してください。 LogicalPlan <unknownLogicalPlan> は RLS/CM ポリシーと互換性がありません。
QUERY_REJECTED
クエリの実行が拒否されました。
QUERY_RESULT_WRITE_TO_CLOUD_STORE_PERMISSION_ERROR
ワークスペースの内部ストレージ構成により、Databricks がクラウド ストアにアクセスできなくなります。
QUERY_TAGS_NOT_IMPLEMENTED_ERROR
SQL では、クエリ タグはまだサポートされていません。
QUERY_TAGS_SYNTAX_INVALID
SET QUERY_TAGS コマンドの形式が無効です。
QUERY_TAG_KEY_INVALID
クエリ タグ キー '<key>' の検証に失敗しました。
QUERY_TAG_KEY_MAY_NOT_BE_EMPTY
クエリ タグ キーは null または空ではない可能性があります。 先頭と末尾の空白は、キーと値に対してトリミングされます。
QUERY_TAG_MAX_COUNT_EXCEEDED
クエリ タグの数がセッションごとのタグの最大数 <tagLimit> 超えました。
QUERY_TAG_VALUE_INVALID
クエリ タグ値 '<value>' の検証に失敗しました。
QUERY_WATCHDOG_CHECK_FAILED
クエリ ウォッチドッグ チェックに失敗しました。
詳細については、QUERY_WATCHDOG_CHECK_FAILEDを参照してください。
READ_CURRENT_FILE_NOT_FOUND
<message>
基になるファイルが更新されている可能性があります。 SQL で 'REFRESH TABLE tableName' コマンドを実行するか、関係する Dataset/DataFrame を再作成することで、Spark のキャッシュを明示的に無効にすることができます。
READ_FILES_AMBIGUOUS_ROUTINE_PARAMETERS
関数 <functionName> の呼び出しには、互いのエイリアスである <parameterName> と <alternativeName> が設定されています。 いずれか 1 つだけを設定してください。
READ_FILES_CREDENTIALS_PARSE_ERROR
read_files() 関数の一時的な資格情報の解析中にエラーが発生しました。
詳細については、READ_FILES_CREDENTIALS_PARSE_ERRORを参照してください。
READ_TVF_UNEXPECTED_REQUIRED_PARAMETER
関数 <functionName> の必須パラメーター <parameterName> は、名前を付けずに位置 <expectedPos> に割り当てる必要があります。
RECIPIENT_EXPIRATION_NOT_SUPPORTED
受信者の有効期限のタイムスタンプでは、TIMESTAMP/TIMESTAMP_LTZ/TIMESTAMP_NTZ の種類のみがサポートされます。
RECURSION_LEVEL_LIMIT_EXCEEDED
再帰レベルの制限 <levelLimit> 達しましたが、クエリが使い果たされていません。'WITH RECURSIVE t(col) MAX RECURSION LEVEL 200' のように増やしてみてください。
RECURSION_ROW_LIMIT_EXCEEDED
再帰行の制限に達 <rowLimit> が、クエリが使い果たされていない場合は、CTE リレーションシップに対してクエリを実行するときに、より大きな LIMIT 値を設定してみてください。
RECURSIVE_CTE_IN_LEGACY_MODE
再帰定義は、レガシ CTE 優先順位モード (spark.sql.legacy.ctePrecedencePolicy=LEGACY) では使用できません。
RECURSIVE_CTE_WITH_LEGACY_INLINE_FLAG
レガシ インライン フラグが true (spark.sql.legacy.inlineCTEInCommands=true) に設定されている場合は、再帰定義を使用できません。
RECURSIVE_PROTOBUF_SCHEMA
Protobuf スキーマで再帰参照が見つかりました。既定では Spark で処理できません: <fieldDescriptor>。 オプション recursive.fields.max.depth 1 から 10 に設定してみてください。 10 レベルを超える再帰は許可されません。
RECURSIVE_VIEW
再帰ビュー <viewIdent> 検出されました (サイクル: <newPath>)。
REF_DEFAULT_VALUE_IS_NOT_ALLOWED_IN_PARTITION
DEFAULT 列の値への参照は、PARTITION 句内では許可されません。
RELATION_LARGER_THAN_8G
8G より大きい <relationName> を構築できません。
REMAINDER_BY_ZERO
0 の剰余。 除数が 0 であることを許容し、代わりに try_mod を返すには、NULL を使用します。 このエラーをバイパスするには、必要に応じて <config> を "false" に設定します。
REMOTE_FUNCTION_HTTP_FAILED_ERROR
リモート HTTP 要求がコード <errorCode>で失敗し、エラー メッセージ <errorMessage>
REMOTE_FUNCTION_HTTP_RESULT_PARSE_ERROR
リモート HTTP 応答からJSONの結果を解析できないため、<functionName> SQL 関数を評価できませんでした。エラー メッセージは<errorMessage>。 API ドキュメントを確認する: <docUrl>。 エラー メッセージに示されている問題を修正し、クエリをもう一度やり直してください。
REMOTE_FUNCTION_HTTP_RESULT_UNEXPECTED_ERROR
予期しないリモート HTTP 応答を処理できないため、<functionName> SQL 関数を評価できませんでした。エラー メッセージが <errorMessage>。 API ドキュメントを確認する: <docUrl>。 エラー メッセージに示されている問題を修正し、クエリをもう一度やり直してください。
REMOTE_FUNCTION_HTTP_RETRY_TIMEOUT
<N> 回再試行した後、リモート要求が失敗しました。最後に失敗した HTTP エラー コードが <errorCode> され、メッセージが <errorMessage> されました
REMOTE_FUNCTION_MISSING_REQUIREMENTS_ERROR
<functionName>のため、<errorMessage> SQL 関数を評価できませんでした。
<docUrl>で要件を確認します。 エラー メッセージに示されている問題を修正し、クエリをもう一度やり直してください。
REMOTE_QUERY_FUNCTION_UNSUPPORTED_CONNECTOR_PARAMETERS
<parameterNames>パラメーターは、型 '<connectionName>' の接続 '<connectionType>' に対してクエリを実行するremote_query関数ではサポートされていません。
詳細については、REMOTE_QUERY_FUNCTION_UNSUPPORTED_CONNECTOR_PARAMETERSを参照してください。
RENAME_SRC_PATH_NOT_FOUND
<sourcePath> が見つからなかったので、名前を変更できませんでした。
REPEATED_CLAUSE
<clause> 句は、<operation> 操作ごとに最大 1 回使用できます。
REQUIRED_PARAMETER_ALREADY_PROVIDED_POSITIONALLY
ルーチン <routineName> の必要なパラメーター <parameterName> は、名前を指定せずに位置 <positionalIndex> に割り当てられた。
関数呼び出しを更新して、このパラメーターの <parameterName> で名前付き引数を削除するか、位置指定引数を削除してください
引数 <positionalIndex> を指定してから、クエリをもう一度試してください。
REQUIRED_PARAMETER_NOT_FOUND
<routineName> という名前のパラメーターが必要ですが、ルーチン呼び出しで値が指定されていないため、ルーチン <parameterName> を呼び出すことができません。 引数値を指定するルーチン呼び出しを更新して (インデックス <index> 位置または名前で) クエリをもう一度やり直してください。
REQUIRES_EXPLICIT_NAME_IN_WATERMARK_CLAUSE
式が指定されているが、 <sqlExpr>された場合、watermark 句には明示的な名前が必要です。
REQUIRES_SINGLE_PART_NAMESPACE
<sessionCatalog> には単一部分の名前空間が必要ですが、<namespace> を受け取りました。
RESCUED_DATA_COLUMN_CONFLICT_WITH_SINGLE_VARIANT
'rescuedDataColumn' DataFrame API リーダー オプションは、'singleVariantColumn' DataFrame API オプションと相互に排他的です。
そのうちの 1 つを削除してから、DataFrame 操作をもう一度やり直してください。
RESERVED_CDC_COLUMNS_ON_WRITE
書き込みには、データ フィードの変更のメタデータとして内部的に使用される予約済みの列 <columnList>
が含まれています。 テーブルに書き込むには、名前の変更/削除を行います
次のようにしてテーブルのデータ フィードの変更を無効にします。
<config> を false に設定します。
RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
<option> オプションには、<source> ソースの共有クラスターの値が制限されています。
詳細については、RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED を参照してください
ROUTINE_ALREADY_EXISTS
その名前の <newRoutineType> <routineName> が既に存在するため、<existingRoutineType> を作成できません。
別の名前を選択するか、既存の <existingRoutineType>を削除または置き換えるか、IF NOT EXISTS 句を追加して既存の <newRoutineType>を許容します。
ROUTINE_NOT_FOUND
ルーチン <routineName> が見つかりません。 スキーマとカタログのスペルと正確性を確認します。
スキーマとカタログで名前を修飾しなかった場合は、current_schema() の出力を確認するか、名前を正しいスキーマとカタログで修飾します。
ドロップ時のエラーを許容するには、 DROP...IF EXISTSを使用します。
ROUTINE_PARAMETER_NOT_FOUND
ルーチン <routineName> は、<parameterName>位置で指定されたパラメーター <pos> をサポートしていません。<suggestion>
ROUTINE_USES_SYSTEM_RESERVED_CLASS_NAME
指定したクラス名 '<routineName>' はシステム使用のために予約されているため、関数<className>を作成できません。 クラスの名前を変更して、もう一度やり直してください。
ROW_LEVEL_SECURITY_ABAC_MISMATCH
ポリシーから継承された行フィルターと明示的に定義された行フィルターの間に不一致があるため、<tableName> で行フィルターを解決できませんでした。 続行するには、属性ベースのアクセス制御 (ABAC) を無効にして、Databricks サポートにお問い合わせください。
ROW_LEVEL_SECURITY_CHECK_CONSTRAINT_UNSUPPORTED
行レベルのセキュリティ ポリシーを使用したテーブル CHECK に対する <tableName> 制約の作成はサポートされていません。
ROW_LEVEL_SECURITY_COLUMN_MASK_UNRESOLVED_REFERENCE_COLUMN (参照列が解決されていない行レベルセキュリティカラムマスク)
行フィルターまたは列マスク関数パラメーターで参照されている<objectName>という名前の列は解決できません。
これは、基になるテーブル スキーマが変更され、参照される列が存在しなくなった場合に発生する可能性があります。
たとえば、外部システム (フェデレーション テーブルなど) で列が削除された場合や、テーブルに対する REPLACE 操作によって列が削除された場合に発生する可能性があります。
これを解決するために、テーブルに対する管理特権を持つユーザーは、 DESCRIBE TABLE EXTENDEDを使用して現在の行フィルターと列マスクを検査し、存在しない列を参照する列を削除または再作成するには、 ALTER TABLE...SET/DROP ROW FILTER または MASK を使用します。
注: Databricks では、マスクが指定されていない場合でも、新しいスキーマに同じ列が含まれている場合に、 REPLACE 操作中に列マスクを保持するための安全性が向上しました。 これにより、テーブルで意図しないポリシーが失われるのを防ぐことができます。
ROW_LEVEL_SECURITY_DUPLICATE_COLUMN_NAME
<statementType> ステートメントで行レベルのセキュリティ ポリシーをテーブルに割り当てようとしましたが、2 つ以上の参照先列に同じ名前 <columnName>が付けられていますが、これは無効です。
ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
<tableName> の行レベルのセキュリティ ポリシーはサポートされていません。
詳細については、ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED を参照してください
ROW_LEVEL_SECURITY_INCOMPATIBLE_SCHEMA_CHANGE
行レベルのセキュリティ ポリシーで参照されているため、テーブル <statementType> <columnName>から<tableName>できません。 先に進む前に、テーブル所有者がこのポリシーを削除または変更する必要があります。
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_SOURCE
MERGE INTO 操作では、ソース テーブル <tableName>の行レベルのセキュリティ ポリシーはサポートされません。
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_TARGET
MERGE INTO 操作では、行レベルのセキュリティ ポリシーを使用したテーブル <tableName> への書き込みはサポートされていません。
ROW_LEVEL_SECURITY_MULTI_PART_COLUMN_NAME
このステートメントでは、行レベルのセキュリティ ポリシーをテーブルに割り当てようとしましたが、参照される列 <columnName> 複数の名前部分がありますが、これは無効です。
ROW_LEVEL_SECURITY_REQUIRE_UNITY_CATALOG
行レベルのセキュリティ ポリシーは、Unity カタログでのみサポートされます。
ROW_LEVEL_SECURITY_SECONDARY_INDEX_CREATION_UNSUPPORTED
テーブルには行レベルのセキュリティ ポリシーが定義されているため、セカンダリ インデックス ON TABLE <tableName> を作成できません。
ROW_LEVEL_SECURITY_SHOW_PARTITIONS_UNSUPPORTED
SHOW PARTITIONS コマンドは、行レベルのセキュリティ ポリシーを持つ<format> テーブルではサポートされていません。
ROW_LEVEL_SECURITY_TABLE_CLONE_SOURCE_NOT_SUPPORTED
テーブル <mode> からテーブル <tableName> を行レベルのセキュリティポリシーを使って複製することはサポートされていません。
ROW_LEVEL_SECURITY_TABLE_CLONE_TARGET_NOT_SUPPORTED
テーブル <mode> への行レベルセキュリティポリシーを設定した状態での <tableName> の複製はサポートされていません。
ROW_LEVEL_SECURITY_UNSUPPORTED_CONSTANT_AS_PARAMETER
行レベルのセキュリティ ポリシーで定数をパラメーターとして使用することはサポートされていません。 SQL コマンドを更新して行フィルター定義から定数を削除してから、もう一度コマンドを再試行してください。
ROW_LEVEL_SECURITY_UNSUPPORTED_DATA_TYPE
行レベルのセキュリティ ポリシーに使用される関数 <functionName> には、サポートされていないデータ型の <dataType>を持つパラメーターがあります。
ROW_LEVEL_SECURITY_UNSUPPORTED_PROVIDER
テーブル プロバイダー "<statementType>" を使用したターゲット データ ソースでは、行レベルのセキュリティ ポリシーの割り当てがサポートされていないため、<provider> コマンドを実行できませんでした。
ROW_SUBQUERY_TOO_MANY_ROWS
1 行として使用されるサブクエリによって複数の行が返されました。
ROW_VALUE_IS_NULL
インデックス NULLの行に <index> が見つかりました。NULL 以外の値が必要です。
RULE_ID_NOT_FOUND
ルール名 "<ruleName>" の ID が見つかりません。 新しいルールを追加する場合は、RuleIdCollection.scala を変更してください。
空のパイプラインを実行 (RUN_EMPTY_PIPELINE)
パイプラインには少なくとも 1 つの非一時データセット (テーブル、永続化されたビュー) が定義されている必要がありますが、パイプラインに一時的でないデータセットが見つかりませんでした。
想定されるソース ファイルが含まれていること、およびソース コードにテーブル定義が含まれていることを確認してください (たとえば、SQL コードでの CREATE MATERIALIZED VIEW 、python コードでの @dp.table )。
SALESFORCE_DATA_SHARE_API_UNAUTHORIZED
Salesforce Data Share API への承認に失敗しました。 Databricks 接続の詳細が適切な Salesforce データ共有ターゲットに提供されていることを確認します。
SAMPLE_TABLE_PERMISSIONS
サンプル データベース/テーブルでは、アクセス許可はサポートされていません。
SCALAR_FUNCTION_NOT_COMPATIBLE
スカラ関数<scalarFunc> はメソッド 'produceResult(InternalRow)' をカスタム実装でオーバーライドしていません。
SCALAR_FUNCTION_NOT_FULLY_IMPLEMENTED
ScalarFunction <scalarFunc> メソッド 'produceResult(InternalRow)' を実装またはオーバーライドしません。
SCALAR_SUBQUERY_IS_IN_GROUP_BY_OR_AGGREGATE_FUNCTION
相関スカラー サブクエリ '<sqlExpr>' は、 GROUP BYにも集計関数にも存在しません。
序数を使用して GROUP BY に追加するか、取得する値が気にならない場合は first() (または first_value) でラップします。
SCALAR_SUBQUERY_TOO_MANY_ROWS
サブクエリを式として使用した結果、複数の行が返されました。
SCDS_COMMIT_LOG_UNAVAILABLE
コミット ログは、チェックポイントの location=<checkpointLocation> と共に存在しません。
SCDS_INVALID_OPTION_VALUE
source option=<optionName> の値が無効です, errorMsg=<message>.
SCDS_OFFSET_LOG_UNAVAILABLE
オフセット ログは、チェックポイントの location=<checkpointLocation> と共に存在しません。
SCDS_REQUIRED_OPTION_UNSPECIFIED
必須の option=<optionName> を指定できませんでした。
SCHEDULE_ALREADY_EXISTS
既に <scheduleType>されているテーブルに <existingScheduleType> を追加できません。 既存のスケジュールを削除するか、 ALTER TABLE...ALTER <scheduleType> 使用してください.を選択して変更します。
SCHEDULE_PERIOD_INVALID
<timeUnit> のスケジュール期間は、1 から <upperBound> までの整数値である必要があります。
<actual> を受け取りました。
SCHEMA_ALREADY_EXISTS
スキーマ <schemaName> は既に存在するため、作成できません。
別の名前を選択するか、既存のスキーマを削除するか、既存のスキーマを許容する IF NOT EXISTS 句を追加します。
SCHEMA_NOT_EMPTY
オブジェクトが含まれているため、スキーマ <schemaName> を削除できません。
スキーマとそのすべてのオブジェクトを削除するには、 DROP SCHEMA...CASCADE を使用します。
SCHEMA_NOT_FOUND
スキーマ <schemaName> が見つかりません。 スキーマとカタログのスペルと正確性を確認します。
カタログで名前を修飾しなかった場合は、current_schema() 出力を確認するか、名前を正しいカタログで修飾します。
ドロップ時のエラーを許容するには、DROP SCHEMA IF EXISTSを使用します。
SCHEMA_REGISTRY_CONFIGURATION_ERROR
スキーマ レジストリからのスキーマを初期化できませんでした。
<reason>。
SEARCH_INDEX_CATALOG_SCHEMA_MISMATCH
カタログ <indexCatalog>とスキーマ <indexSchema>に検索インデックス <indexName>を作成できません。 インデックスは、ベース テーブル <tableName> (<tableCatalog>.<tableSchema>) と同じカタログとスキーマに作成する必要があります。
SEARCH_INDEX_INVALID_PARAMETERS
検索インデックスを作成できません。無効なパラメーターが指定されています。
詳細については、SEARCH_INDEX_INVALID_PARAMETERSを参照してください。
SEARCH_INDEX_NAME_CONFLICTS_WITH_TABLE
インデックス名が <indexName> テーブルは既に存在します。 既存のテーブルと競合しないカスタム インデックス名を指定してください。
SEARCH_INDEX_OUTDATED_SCHEMA
検索インデックス <indexName> に古いスキーマがあります。 次を使用してインデックスを再作成します。
DROP SEARCH INDEX <indexName>;
CREATE SEARCH INDEX <indexName> ON <tableName>(<columnsList>);
SEARCH_REQUIRES_SEARCHABLE_COLUMNS
<context> には、検索可能な型 (STRING COLLATE UTF8_BINARY、 VARIANT、または ARRAY) を持つ列が必要です。
詳細については、SEARCH_REQUIRES_SEARCHABLE_COLUMNSを参照してください 。
SEARCH_REQUIRES_STRING_LITERALS_ARGUMENTS
SEARCH 引数 <argument> 文字列リテラルである必要がありますが、 <actualExpr> が指定されました。 <possibleOptionsMessage>
SECONDARY_INDEX_REQUIRES_MANAGED_TABLE
<operation> ON TABLE <tableName> を実行できません。 操作は、マネージド テーブルでのみ実行できます。
テーブルをマネージド テーブルに変換するには、 ALTER TABLE <tableName> SET MANAGED コマンドを使用します。
詳細については、https://docs.databricks.com/aws/en/tables/convert-external-managed を参照してください。
SECONDARY_INDEX_UNSUPPORTED_TABLE_FORMAT
できません <operation> ON TABLE <tableName>
操作は、次の形式のテーブルに対してのみ実行できます: <supportedFormats>。
DESCRIBE DETAIL <tableName>を使用してテーブル形式を確認します。
現在の形式が Parquet または Apache Iceberg の場合は、 CONVERT TO DELTA <tableName>を使用してインプレースで完全に変換できます。 https://docs.databricks.com/aws/en/sql/language-manual/delta-convert-to-delta
それ以外の場合は、サポートされている形式のいずれかでテーブルを再作成します。
SECOND_FUNCTION_ARGUMENT_NOT_INTEGER
<functionName> 関数の 2 番目の引数は整数である必要があります。
SECRET_FUNCTION_INVALID_LOCATION
<commandType> コマンドを、1つ以上の暗号化されていないSECRET関数への参照があるため実行できません。このような各関数呼び出しの結果をAES_ENCRYPTで暗号化し、もう一度コマンドを実行してください。
セキュラブルが存在しません
<securable> は存在しません。
SEED_EXPRESSION_IS_UNFOLDABLE
式 <seedExpr> のシード式 <exprWithSeed> は、折りたたみ可能である必要があります。
SERVER_IS_BUSY
サーバーがビジー状態であり、要求を処理できませんでした。 しばらくお待ちください。
SET_QUERY_TAGS_SYNTAX_INVALID
構文が無効であるため、 SET コマンドを実行できませんでした。 このコマンドの構文は、 SET QUERY_TAGS または SET QUERY_TAGS['key'] = 'value' です。 この構文に準拠するようにコマンドを修正してから、もう一度実行してください。
SFTP_DEPRECATED_SSH_RSA_KEY_ALGORITHM
SFTP サーバー <host>:<port> では、キー交換に非推奨の SSH RSA アルゴリズムが使用されています。
ECDSAやED25519など、より安全なアルゴリズムを使用するように SFTP サーバーをアップグレードすることを検討してください。
または、 <escapeHatchConf> を true に設定して、このエラーをバイパスします
SFTP_UNABLE_TO_CONNECT
ユーザー名<host>を使用して、ポート <port>上の SFTP サーバー <user>に接続できませんでした。
<error>
SFTP_不明なホストキー
SFTP サーバー <host> のホスト キーが不明であるか、変更されています。
次のエラー メッセージを確認し、 Key fingerprint フィールドにキーフィンガープリントを入力してください。
たとえば、メッセージに "ECDSA キーフィンガープリントが SHA256:XXX/YYY" と表示されている場合は、キーフィンガープリントとして 'SHA256:XXX/YYY' を送信します。
接続エラー メッセージ:
<error>
SFTP_USER_DOES_NOT_MATCH
資格情報 <credentialUser> から取得したユーザーが、SFTP パス <path>で指定されたユーザーと一致しません。
SHOW_COLUMNS_WITH_CONFLICT_NAMESPACE
競合する名前空間を持つ SHOW COLUMNS: <namespaceA> は <namespaceB>と一致しません。
SNOWFLAKE_DATA_SOURCE_OPTIONS_VALIDATION_FAILED
Snowflake データ ソース オプションの検証に失敗しました。
詳細については、SNOWFLAKE_DATA_SOURCE_OPTIONS_VALIDATION_FAILEDを参照してください。
SORT_BY_WITHOUT_BUCKETING
sortBy は bucketBy と共に使用する必要があります。
SPARK_JOB_CANCELLED
ジョブ <jobId> は取り消されました <reason>
SPECIFY_BUCKETING_IS_NOT_ALLOWED
明示的な列リストのない CREATE TABLE では、バケット情報を指定できません。
明示的な列リストを含むフォームを使用し、バケット情報を指定してください。
別の方法として、句を省略して、バケット情報を推論できるようにします。
SPECIFY_CLUSTER_BY_WITH_BUCKETING_IS_NOT_ALLOWED
CLUSTER BY と CLUSTERED BY INTO BUCKETSの両方を指定できません。
SPECIFY_CLUSTER_BY_WITH_PARTITIONED_BY_IS_NOT_ALLOWED
CLUSTER BY と PARTITIONED BYの両方を指定できません。
SPECIFY_PARTITION_IS_NOT_ALLOWED
明示的な列リストのない CREATE TABLE は、PARTITIONED BYを指定できません。
明示的な列リストを含むフォームを使用し、PARTITIONED BYを指定してください。
または、PARTITION BY 句を省略してパーティション分割を推論することもできます。
SQL_CONF_NOT_FOUND
SQL 構成 <sqlConf> が見つかりません。 構成が存在することを確認してください。
SQL_SCRIPT_IN_EXECUTE_IMMEDIATE
EXECUTE IMMEDIATE コマンドの SQL スクリプトは許可されません。 指定された SQL クエリ (<sqlString>) が SQL スクリプトではないことを確認してください。 sql_stringが整形式の SQL ステートメントであり、 BEGIN と END が含まれていないことを確認します。
SQL_SCRIPT_MAX_NUMBER_OF_CHARACTERS_EXCEEDED
SQL スクリプトの最大文字数 (id: <scriptId>) を超えました。 使用できる最大文字数は <maxChars>で、スクリプトには <chars> 文字が含まれています。
SQL_SCRIPT_MAX_NUMBER_OF_LINES_EXCEEDED
SQL スクリプトの最大行数 (id: <scriptId>) を超えました。 許可される行の最大数は <maxLines>であり、スクリプトには <lines> 行がありました。
SQL_SCRIPT_MAX_NUMBER_OF_LOCAL_VARIABLE_DECLARATIONS_EXCEEDED
SQL スクリプト内のローカル変数宣言の最大数 (id: <scriptId>) を超えました。 許可される宣言の最大数は <maxDeclarations>され、スクリプトは <declarations>。
SQL_STORED_PROCEDURES_NESTED_CALLS_LIMIT_EXCEEDED
入れ子にされたプロシージャ呼び出しの最大数がプロシージャ(名前: <procedureName>、callId: <procedureCallId>)で超過されました。 入れ子になったプロシージャ呼び出しの許可される最大数は <limit>。
STAGING_PATH_CURRENTLY_INACCESSIBLE
ターゲットステージングパス <path>アクセス中の一時的なエラー。数分で試してください
STAR_GROUP_BY_POS
序数位置 GROUP BY を使用する場合、選択リストではスター (*) は使用できません。
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_HANDLE_STATE
無効なハンドル状態=<operationType> を含むステートフル プロセッサ操作=<handleState> を実行できませんでした。
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_TIME_MODE
ステートフル プロセッサ操作=<operationType> の実行に失敗しました。無効な timeMode=<timeMode> が原因です。
STATEFUL_PROCESSOR_DUPLICATE_STATE_VARIABLE_DEFINED
名前 <stateVarName> を持つ状態変数は、StatefulProcessor で既に定義されています。
STATEFUL_PROCESSOR_INCORRECT_TIME_MODE_TO_ASSIGN_TTL
timeMode=<stateName>で state=<timeMode> に TTL を使用できません。代わりに TimeMode.ProcessingTime() を使用してください。
STATEFUL_PROCESSOR_TTL_DURATION_MUST_BE_POSITIVE
状態 <operationType> に対する状態ストア操作 <stateName> では、TTL 期間はゼロより大きくする必要があります。
STATEFUL_PROCESSOR_UNKNOWN_TIME_MODE
不明な時間モード <timeMode>。 許容される timeMode モードは 'none'、'processingTime'、'eventTime' です
STATE_REPARTITION_INVALID_CHECKPOINT
指定されたチェックポイントの場所 '<checkpointLocation>' が無効な状態です。
詳細については、STATE_REPARTITION_INVALID_CHECKPOINTを参照してください。
STATE_REPARTITION_INVALID_PARAMETER
repartition パラメーター <parameter> が無効です。
詳細については、STATE_REPARTITION_INVALID_PARAMETERを参照してください。
STATE_STORE_CANNOT_CREATE_COLUMN_FAMILY_WITH_RESERVED_CHARS
サポートされていない開始文字と name=<colFamilyName>を持つ列ファミリを作成できませんでした。
STATE_STORE_CANNOT_USE_COLUMN_FAMILY_WITH_INVALID_NAME
無効な名前 <operationName> を含む列ファミリ操作 <colFamilyName> の実行に失敗しました。 列名を空にしたり、先頭または末尾のスペースを含めたり、予約済みキーワード =default を使用したりすることはできません。
STATE_STORE_CHECKPOINT_IDS_NOT_SUPPORTED
<msg>
STATE_STORE_CHECKPOINT_LOCATION_NOT_EMPTY
チェックポイントの場所 <checkpointLocation> はバッチ 0 で空にする必要があります
新しいチェックポイントの場所を使用するか、チェックポイントの場所にある既存のデータを削除してください。
STATE_STORE_COLUMN_FAMILY_SCHEMA_INCOMPATIBLE
列ファミリ =<colFamilyName>、oldSchema=<oldSchema>、newSchema=<newSchema>と互換性のないスキーマ変換。
STATE_STORE_DOES_NOT_SUPPORT_REUSABLE_ITERATOR
StateStore <inputClass> では、再利用可能な反復子はサポートされていません。
STATE_STORE_HANDLE_NOT_INITIALIZED
この StatefulProcessor のハンドルが初期化されていません。
transformWithState 演算子内でのみ StatefulProcessor を使用してください。
STATE_STORE_INCORRECT_NUM_ORDERING_COLS_FOR_RANGE_SCAN
範囲スキャンエンコーダーでの順序付け序数が不正です:<numOrderingCols>。 順序付け序数の数を 0 またはスキーマ列の数より大きくすることはできません。
STATE_STORE_INCORRECT_NUM_PREFIX_COLS_FOR_PREFIX_SCAN
プレフィックススキャンエンコーダーの接頭辞列の数が正しくなく、<numPrefixCols> になっています。 プレフィックス列はゼロであってはならず、スキーマ列の数以上であってもいけません。
STATE_STORE_INVALID_AVRO_SCHEMA
Avro エンコードの無効なスキーマが検出されました。
詳細については、STATE_STORE_INVALID_AVRO_SCHEMAを参照してください。
STATE_STORE_INVALID_CONFIG_AFTER_RESTART
再起動の間に <configName> を <oldConfig> から <newConfig> に変更することはできません。
<configName> を <oldConfig>に設定するか、新しいチェックポイント ディレクトリで再起動してください。
STATE_STORE_INVALID_PROVIDER
指定された状態ストア プロバイダー <inputClass> では、org.apache.spark.sql.execution.streaming.state.StateStoreProvider は拡張されません。
STATE_STORE_INVALID_VARIABLE_TYPE_CHANGE
クエリの再起動の間に <stateVarName> に <newType> を変更することはできません。
<stateVarName> を <oldType>に設定するか、新しいチェックポイント ディレクトリで再起動してください。
STATE_STORE_KEY_SCHEMA_NOT_COMPATIBLE (状態ストアキーのスキーマが互換性がありません)
指定されたキー スキーマが、演算子状態の既存のスキーマと一致しません。
既存のスキーマ=<storedKeySchema>; 指定のスキーマ=<newKeySchema>。
スキーマ検証なしでクエリを実行するには、spark.sql.streaming.stateStore.stateSchemaCheck を false に設定します。
スキーマ検証なしで実行すると、非決定論的な動作が行われる可能性があることに注意してください。
STATE_STORE_NATIVE_ROCKSDB_TIMEOUT
ステートフル ストリーミング操作のために RocksDB ステート ストアにアクセスする際、timeout=<funcName> ms 待機した後にネイティブ RocksDB 関数 <timeoutMs> の呼び出しがタイムアウトしました。 エラーが解決しない場合は、もう一度やり直してクラスターを再起動してください。
STATE_STORE_NULL_TYPE_ORDERING_COLS_NOT_SUPPORTED
範囲スキャン エンコーダーでは、index=<fieldName> で name=<index> を持つ null 型の順序付け列はサポートされていません。
STATE_STORE_PROVIDER_DOES_NOT_SUPPORT_FINE_GRAINED_STATE_REPLAY
指定された状態ストア プロバイダー <inputClass> は、org.apache.spark.sql.execution.streaming.state.SupportsFineGrainedReplay を拡張しません。
そのため、状態データ ソースのオプション snapshotStartBatchId または readChangeFeed はサポートされていません。
STATE_STORE_ROCKSDB_ZIP_ALREADY_EXISTS
RocksDB スナップショット zip ファイル <zipFilePath> は既に存在します。 これは、スナップショットが DFS に既にアップロードされていることを意味します。
(allowVersionOverwrite=<allowVersionOverwrite>, shouldUseCommitService=<shouldUseCommitService>)
STATE_STORE_STATE_SCHEMA_FILES_THRESHOLD_EXCEEDED
<numStateSchemaFiles> 状態スキーマ ファイルの数がこのクエリの状態スキーマ ファイルの最大数を超えています: <maxStateSchemaFiles>。
追加: <addedColumnFamilies>、 削除: <removedColumnFamilies>
'spark.sql.streaming.stateStore.stateSchemaFilesThreshold' を大きい数値に設定するか、状態スキーマの変更を元に戻してください
STATE_STORE_UNSUPPORTED_OPERATION_ON_MISSING_COLUMN_FAMILY
列ファミリ <operationType> が見つからない場合、状態ストア操作 <colFamilyName> はサポートされません。
STATE_STORE_VALUE_SCHEMA_EVOLUTION_THRESHOLD_EXCEEDED
<numSchemaEvolutions> 状態スキーマの進化の数が、この列ファミリで許可されている状態スキーマの進化 (<maxSchemaEvolutions>) の最大数を超えています。
問題のある列ファミリ: <colFamilyName>
'spark.sql.streaming.stateStore.valueStateSchemaEvolutionThreshold' を大きい数値に設定するか、状態スキーマの変更を元に戻してください
状態ストアの値スキーマが互換性がありません
指定された値スキーマが、演算子状態の既存のスキーマと一致しません。
既存のスキーマ=<storedValueSchema>; 指定のスキーマ=<newValueSchema>。
スキーマ検証なしでクエリを実行するには、spark.sql.streaming.stateStore.stateSchemaCheck を false に設定します。
スキーマ検証なしで実行すると、非決定論的な動作が行われる可能性があることに注意してください。
STATE_STORE_VARIABLE_SIZE_ORDERING_COLS_NOT_SUPPORTED
index=<fieldName> で name=<index> を持つ可変サイズ順序列は、範囲スキャン エンコーダーではサポートされていません。
STATIC_PARTITION_COLUMN_IN_INSERT_COLUMN_LIST
静的パーティション列 <staticName> は、列リストにも指定されます。
STDS_COMMITTED_BATCH_UNAVAILABLE
コミットされたバッチが見つかりません。チェックポイントの場所: <checkpointLocation>。 停止する前に、クエリが実行され、マイクロバッチがコミットされていることを確認します。
STDS_CONFLICT_OPTIONS
<options> オプションを一緒に指定することはできません。 いずれかを指定してください。
STDS_FAILED_TO_READ_OPERATOR_METADATA
checkpointLocation=<checkpointLocation> および batchId=<batchId>の演算子メタデータを読み取れませんでした。
ファイルが存在しないか、ファイルが破損しています。
ストリーミング クエリを再実行して演算子メタデータを作成し、エラーが解決しない場合は対応するコミュニティまたはベンダーに報告します。
STDS_FAILED_TO_READ_STATE_SCHEMA
状態スキーマを読み取れませんでした。 ファイルが存在しないか、ファイルが破損しています。 オプション: <sourceOptions>.
ストリーミング クエリを再実行して状態スキーマを構築し、エラーが解決しない場合は対応するコミュニティまたはベンダーに報告します。
STDS_INVALID_OPTION_VALUE
ソース オプション '<optionName>' の値が無効です。
詳細については、STDS_INVALID_OPTION_VALUE を参照してください
STDS_MIXED_CHECKPOINT_FORMAT_VERSIONS_NOT_SUPPORTED
異なるチェックポイント形式のバージョン間での読み取り状態はサポートされていません。
startBatchId=<startBatchId>、endBatchId=<endBatchId>。
startFormatVersion=<startFormatVersion>、endFormatVersion=<endFormatVersion>。
STDS_NO_PARTITION_DISCOVERED_IN_STATE_STORE
状態にパーティションがありません。 クエリが有効な状態を指していることを再確認してください。 オプション: <sourceOptions>
STDS_OFFSET_LOG_UNAVAILABLE
<batchId> のオフセット ログが存在しません。チェックポイントの場所: <checkpointLocation>。
クエリに使用できるバッチ ID を指定してください。状態メタデータ データ ソースを使用して、使用可能なバッチ ID を照会できます。
STDS_OFFSET_METADATA_LOG_UNAVAILABLE
<batchId>、チェックポイントの場所: <checkpointLocation>のオフセット ログにはメタデータを使用できません。
チェックポイントは、古い Spark バージョンでのみ実行されているようです。 Spark が状態メタデータを構築できるように、最新の Spark バージョンでストリーミング クエリを実行します。
STDS_REQUIRED_OPTION_UNSPECIFIED
'<optionName>' を指定する必要があります。
STREAMING_AQE_NOT_SUPPORTED_FOR_STATEFUL_OPERATORS
アダプティブ クエリ実行は、構造化ストリーミングのステートフル演算子ではサポートされていません。
STREAMING_CHECKPOINT_METADATA_ERROR (ストリーミングのチェックポイントメタデータエラー)
ストリーミング チェックポイント メタデータでエラーが発生しました。
詳細については、STREAMING_CHECKPOINT_METADATA_ERRORを参照してください。
STREAMING_CHECKPOINT_PIN_BATCH_ERROR
batchId=<checkpointLocation> でチェックポイントの location=<batchId> を使用したストリーミング クエリのピン操作を実行できませんでした。
詳細については、STREAMING_CHECKPOINT_PIN_BATCH_ERRORを参照してください。
STREAMING_CHECKPOINT_REWIND_ERROR
チェックポイントの location=<checkpointLocation> を使用したストリーミング クエリの巻き戻し操作を実行できませんでした。
詳細については、STREAMING_CHECKPOINT_REWIND_ERRORを参照してください。
STREAMING_CHECKPOINT_REWIND_OPTIONS_ERROR
ストリーミング チェックポイントの巻き戻し操作中にエラーが発生しました。
詳細については、STREAMING_CHECKPOINT_REWIND_OPTIONS_ERRORを参照してください。
STREAMING_FROM_MATERIALIZED_VIEW
具体化されたビュー <viewName>からストリーミングできません。 具体化されたビューからのストリーミングはサポートされていません。
STREAMING_OUTPUT_MODE
ストリーミング出力モードが無効です: <outputMode>。
詳細については、STREAMING_OUTPUT_MODE を参照してください。
STREAMING_QUERY_EVOLUTION_ERROR
ストリーミング クエリの進化エラー:
詳細については、STREAMING_QUERY_EVOLUTION_ERRORを参照してください。
STREAMING_RATE_SOURCE_OFFSET_VERSION_MISMATCH
期待されるバージョンは<expectedVersion>ですが、実際にはバージョン<actualVersion>が取得されました。 続行するには、レート ソース オプションでオプション "version" を <expectedVersion> に設定します。 たとえば、spark.readStream.format("rate").option("version", "<expectedVersion>")。
STREAMING_RATE_SOURCE_V2_PARTITION_NUM_CHANGE_UNSUPPORTED
前のマイクロバッチで使用されたパーティション (<prevNum>) の数は、現在のパーティション数 (<currNum>) とは異なります。 次の 2 つの理由が考えられます。
クエリの再起動中にレート ソースのオプション "numPartitions" が変更されます。
クエリの再起動中にクラスターのサイズが変更される可能性があります。
レート ソースのオプション "numPartitions" を <prevNum> に明示的に設定して、この問題を解決します。
STREAMING_RATE_SOURCE_V2_RAMPUP_TIME_UNSUPPORTED(ストリーミングレートソースV2の立ち上げ時間がサポートされていません)
"rampUpTime" オプションは、レート バージョン 2 ではサポートされていません。 このオプションを使用するには、オプション "version" を 1 に設定します。 たとえば、spark.readStream.format("rate").option("version", "1")。
STREAMING_REAL_TIME_MODE
ストリーミング リアルタイム モードには、次の制限があります。
詳細については、STREAMING_REAL_TIME_MODE を参照してください。
ストリーミング リアルタイム ウォーターマーク伝搬
ストリーミング リアルタイムのウォーターマーク伝播には、次の制限があります。
詳細については、STREAMING_REAL_TIME_WATERMARK_PROPAGATIONを参照してください。
STREAMING_SINK_DELIVERY_MODE
ストリーミング シンク配信モードが無効です: <deliveryMode>。
詳細については、STREAMING_SINK_DELIVERY_MODEを参照してください。
STREAMING_SKIP_OFFSETS_INVALID_RANGE
スキップ オフセット範囲が無効です。終了オフセット <endOffset> が開始オフセット <startOffset>未満です。 このオフセット範囲を修正して、もう一度やり直してください。
STREAMING_STATEFUL_OPERATOR_MISSING_STATE_DIRECTORY
ステート ディレクトリが空か不足しているため、ステートフル演算子を使用してストリーミング クエリを再起動できません。
これは通常、状態ファイルが削除された場合、またはストリーミング クエリがステートフル演算子なしで以前に実行されたが、ステートフル演算子で再起動された場合に発生します。
ステートフル演算子を削除するか、新しいチェックポイントの場所を使用するか、不足している状態ファイルを復元してください。
STREAMING_STATEFUL_OPERATOR_NOT_MATCH_IN_STATE_METADATA
ストリーミングステートフル演算子名が、状態メタデータ内の演算子と一致しません。 これは、ユーザーが既存のストリーミング クエリのステートフル 演算子を追加/削除/変更するときに発生する可能性があります。
メタデータ内のステートフル演算子: [<OpsInMetadataSeq>];現在のバッチのステートフル演算子: [<OpsInCurBatchSeq>]。
STREAMING_TABLE_NEEDS_REFRESH
<tableName>を実行するには、ストリーミング テーブル <operation> を更新する必要があります。
テーブルが DBSQLから作成されている場合は、REFRESH STREAMING TABLE実行してください。
テーブルが Lakeflow Spark 宣言パイプラインのパイプラインによって作成される場合は、パイプラインの更新を実行してください。
STREAMING_TABLE_NOT_SUPPORTED
ストリーミング テーブルは、Lakeflow Spark 宣言パイプラインと Databricks SQL Warehouse でのみ作成および更新できます。
STREAMING_TABLE_OPERATION_NOT_ALLOWED
操作 <operation> は許可されていません。
詳細については、STREAMING_TABLE_OPERATION_NOT_ALLOWED を参照してください
STREAMING_TABLE_QUERY_INVALID
ストリーミング テーブル <tableName> は、ストリーミング クエリからのみ作成できます。 このリレーションシップをストリーミング クエリに変換するには、STREAM キーワードを FROM 句に追加してください。
STREAM_NOT_FOUND_FOR_KINESIS_SOURCE
<streamName> の Kinesis ストリーム <region> が見つかりません。
正しいストリーム名を指す新しいクエリを開始してください。
STRUCT_ARRAY_LENGTH_MISMATCH
入力行には、スキーマに必要な値の数が想定されていません。
<expected> フィールドが必要で、<actual> 値が提供されています。
ST_INVALID_ALGORITHM_VALUE
無効またはサポートされていないエッジ補間アルゴリズムの値: '<alg>'。
ST_INVALID_CRS_VALUE
無効またはサポートされていない CRS (座標参照システム) 値: '<crs>'。
ST_INVALID_SRID_VALUE
無効またはサポートされていない SRID (空間参照識別子) 値: <srid>。
SUM_OF_LIMIT_AND_OFFSET_EXCEEDS_MAX_INT
LIMIT 句と OFFSET 句の合計は、最大 32 ビット整数値 (2,147,483,647) より大きくすることはできませんが、limit = <limit>、offset = <offset>が見つかりました。
SYNC_METADATA_DELTA_ONLY
テーブル同期メタデータの修復コマンドは、デルタ テーブルでのみサポートされています。
SYNC_SRC_TARGET_TBL_NOT_SAME
ソース テーブル名 <srcTable> は、変換先テーブル名 <destTable>と同じである必要があります。
SYNTAX_DISCONTINUED
句またはキーワードのサポート: <clause> は、このコンテキストで廃止されました。
詳細については、SYNTAX_DISCONTINUED を参照してください。
テーブル引数は許可されていません
TABLE パラメーターは、 <routineType>ではサポートされていません。
TABLE_NOT_VALID_SECONDARY_INDEX
テーブル <tableName>が有効な<indexType> インデックスではないため、DESCRIBE SEARCH INDEX コマンドを実行できませんでした。 有効なインデックスを使用するようにコマンドを更新し、もう一度やり直してください。
TABLE_OR_VIEW_ALREADY_EXISTS
テーブルまたはビュー <relationName> は既に存在するため作成できません。
別の名前を選択し、既存のオブジェクトを削除し、既存のオブジェクトを許容する IF NOT EXISTS 句を追加するか、既存の具体化されたビューを置き換える OR REPLACE 句を追加するか、OR REFRESH 句を追加して既存のストリーミング テーブルを更新します。
TABLE_OR_VIEW_NOT_FOUND
テーブルまたはビュー <relationName> が見つかりません。 スキーマとカタログのスペルと正確性を確認します。
スキーマで名前を修飾しなかった場合は、current_schema() 出力を確認するか、名前を正しいスキーマとカタログで修飾します。
ドロップ時のエラーを許容するには、DROP VIEW IF EXISTS または DROP TABLE IF EXISTSを使用します。
詳細については、TABLE_OR_VIEW_NOT_FOUND を参照してください
TABLE_TYPE_INCOMPATIBLE_WITH_ABAC_POLICY
<tableName>, <tableType>のテーブルの種類は、ABAC ポリシーをサポートしていません。
ポリシーを削除して再試行してください。
TABLE_VALUED_ARGUMENTS_NOT_YET_IMPLEMENTED_FOR_SQL_FUNCTIONS
まだ実装されていないため、引数 <action> を持つ SQL ユーザー定義関数 <functionName> を TABLE することはできません。
TABLE_VALUED_FUNCTION_FAILED_TO_ANALYZE_IN_PYTHON
Python ユーザー定義テーブル関数の分析に失敗しました: <msg>
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INCOMPATIBLE_WITH_CALL
テーブルのメタデータが <functionName>されているため、テーブル関数 <requestedMetadata> を評価できませんでしたが、関数呼び出し <invalidFunctionCallProperty>。
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INVALID
テーブルのメタデータが無効であるため、テーブル関数 <functionName> を評価できませんでした。<reason>.
TABLE_VALUED_FUNCTION_TOO_MANY_TABLE_ARGUMENTS
テーブル値関数のテーブル引数が多すぎます。
1 つのテーブル引数を使用できますが、<num> を受け取りました。
許可する場合は、"spark.sql.allowMultipleTableArguments.enabled" を "true" に設定してください
TABLE_WITH_ID_NOT_FOUND
ID <tableId> を持つテーブルが見つかりません。 UUID の正確性を確認します。
TASK_WRITE_FAILED
<path>への行の書き込み中にタスクが失敗しました。
TEMP_CHECKPOINT_LOCATION_NOT_SUPPORTED
現在のワークスペースでは、暗黙的な一時ストリーミング チェックポイントの場所はサポートされていません。チェックポイントの場所を明示的に指定してください。
display() の場合は、次を使用してチェックポイントの場所を設定します。
display(df, チェックポイントの場所 = "your_path")
その他のすべてのストリーミング クエリでは、次の値を使用します。
.option("checkpointLocation", "your_path")。
TEMP_TABLE_CREATION_LEGACY_WITH_QUERY
CREATE TEMPORARY TABLE
...
AS ...はサポートされていません。代わりに CREATE TEMPORARY VIEW を使用してください
TEMP_TABLE_CREATION_MUTUAL_EXCLUSIVE_SPECS
CREATE TEMPORARY TABLE では、 <unsupportedSpec>の指定はサポートされていません。
詳細については、TEMP_TABLE_CREATION_MUTUAL_EXCLUSIVE_SPECSを参照してください。
TEMP_TABLE_CREATION_NAME_RESERVED
予約名プレフィックス <reservedPrefix>で始まるため、一時テーブル<tableName>を作成できません。 別の名前を選択して再試行してください。
TEMP_TABLE_CREATION_NOT_SUPPORTED_IN_COMPUTE
CREATE TEMPORARY TABLE [AS ... ]は、現在のコンピューティングの種類ではサポートされていません。 代わりに、Databricks SQL (DBSQL) を使用して、セッション ローカルの一時テーブルを作成してください。
TEMP_TABLE_CREATION_REQUIRES_SINGLE_PART_NAME
セッションローカルの一時テーブルを作成するには、単一の要素テーブル名が必要ですが、<tableName>が指定されました。 単一部分のテーブル名を使用するようにコマンドを更新し、もう一度やり直してください。
TEMP_TABLE_CREATION_UNSUPPORTED_LEGACY_SYNTAX_WITH_HINTS
CREATE TEMPORARY TABLE
...
USING
...
AS ...はサポートされていません。 一時テーブルを作成するには、 USING 句を削除して再試行してください。
TEMP_TABLE_DELETION_MUTUAL_EXCLUSIVE_SPECS
DROP TEMPORARY TABLE は、 <unsupportedSpec>の指定をサポートしていません。この仕様を削除するか、代わりに DROP TABLE コマンドを使用して永続的なテーブルを削除してください。
TEMP_TABLE_DELETION_REQUIRES_SINGLE_PART_NAME
セッション ローカルの一時テーブルを削除するには、単一部分のテーブル名が必要ですが、<tableName>が渡されました。
DROP TEMPORARY TABLE コマンドを更新して単一部分のテーブル名を使用して一時テーブルを削除するか、代わりに DROP TABLE コマンドを使用して永続的なテーブルを削除してください。
TEMP_TABLE_NOT_FOUND
現在のセッションで一時テーブル <tableName> が見つかりません。 テーブル名のスペルと正確性を確認し、クエリまたはコマンドをもう一度やり直してください。
ドロップ時のエラーを許容するには、TEMP DROPTABLE IF EXISTS使用します。
一時テーブルはDatabricksジョブではサポートされていません
Databricks ジョブでは、一時テーブルはまだサポートされていません。 代わりに Databricks Notebooks で使用し、詳細については Databricks サポートにお問い合わせください。
TEMP_TABLE_NOT_SUPPORTED_WITH_HMS
Hive メタストアでは、一時テーブル操作 <operation> はサポートされていません。
TEMP_TABLE_OPERATION_NOT_SUPPORTED
セッションローカルの一時テーブル <tableName> に対する操作はサポートされていません。
詳細については、TEMP_TABLE_OPERATION_NOT_SUPPORTED を参照してください
TEMP_TABLE_OPERATION_NOT_SUPPORTED_IN_V1_COMMAND
<operation> V1 コマンドでは、一時テーブルではサポートされていません。 'spark.sql.legacy.useV1Command' を false に設定して再試行してください。
TEMP_TABLE_OR_VIEW_ALREADY_EXISTS
一時テーブルまたはビュー <relationName> は既に存在するため、作成できません。
別の名前を選択し、既存のオブジェクトを削除または置き換えます。
TEMP_TABLE_REPLACE_NOT_SUPPORTED
[CREATE OR] REPLACE TEMPORARY TABLE はサポートされていません。 既存の一時テーブルを置き換えるには、 DROP TEMPORARY TABLE ... を使用して削除します。[IF EXISTS] CREATE TEMPORARY TABLE ... を使用して再作成します。
TEMP_TABLE_REQUIRES_DATABRICKS_ENV
セッション ローカルの一時テーブルに対する操作には、Databricks 環境が必要です。
TEMP_TABLE_REQUIRES_DELTA
セッション ローカルの一時テーブルに対する操作では、Delta カタログを有効にする必要があります。 Delta カタログを有効にして、再試行してください。
TEMP_TABLE_REQUIRES_UC
セッション ローカルの一時テーブルに対する操作には、Unity カタログが必要です。 実行中の環境で Unity カタログを有効にして、再試行してください。
TEMP_VIEW_NAME_TOO_MANY_NAME_PARTS
CREATE TEMPORARY VIEW または対応するデータセット API は単一パートのビュー名のみを受け入れますが、<actualName>が入力されました。
THETA_INVALID_INPUT_SKETCH_BUFFER
<function>の呼び出しが無効です。有効な Theta スケッチ バッファーのみが入力としてサポートされます (theta_sketch_agg関数によって生成されたものなど)。
THETA_INVALID_LG_NOM_ENTRIES
<function>の呼び出しが無効です。lgNomEntries の値は、<min> と <max>の間 (<value>を含む) である必要があります。
THETA_LG_NOM_ENTRIES_MUST_BE_CONSTANT
<function>の呼び出しが無効です。lgNomEntries値は定数値である必要がありますが、定数以外の式を取得しました。
TRAILING_COMMA_IN_SELECT
SELECT 句で末尾のコンマが検出されました。
FROM 句の前の末尾のコンマを削除します。
TRANSACTION_CDF_SCHEMA_WITH_RESERVED_COLUMN_NAME
テーブルに予約列名 (<column_name>) が含まれているため、トランザクションで変更データ フィードを有効にすることはできません。
続行するには、予約されていない列名のみがテーブルで使用されていることを確認します。
TRANSACTION_CDF_SETTING_HIGH_WATERMARK_NOT_ALLOWED
CDC アイデンティティのハイウォーターマークを手動で設定することはできません。
TRANSACTION_CONCURRENT_CATALOG_METADATA_CHANGE
オブジェクト <table>で同時メタデータの変更が検出されました。
ROLLBACK実行してから、このトランザクションを再試行してください。 Details:
詳細については、TRANSACTION_CONCURRENT_CATALOG_METADATA_CHANGEを参照してください。
TRANSACTION_CONTEXT_MISMATCH
現在のスレッドと Spark セッションの間でトランザクション コンテキストの不整合が検出されました。 これは通常、Spark セッションが複数のスレッドで共有されている場合に発生します。 各トランザクションに専用のセッションとスレッドを使用し、新しいトランザクションのセッションとスレッドを再利用する前に、そのスレッドでトランザクションをコミット/ロールバックしてください。 Details:
詳細については、TRANSACTION_CONTEXT_MISMATCHを参照してください。
TRANSACTION_MAX_COMMIT_TIMESTAMP_EXCEEDED
最大コミット タイムスタンプを超えた場合、トランザクションはコミットできません。 maxCommitTimestamp:<maxCommitTimestampMs> commitTimestamp:<commitTimestampMs>
TRANSACTION_NOT_SUPPORTED
ステートメントを実行できませんでした。
詳細については、TRANSACTION_NOT_SUPPORTEDを参照してください。
TRANSACTION_ROLLBACK_REQUIRED_AFTER_ABORT
現在のトランザクションが中止されました。 続行する前に、 ROLLBACK TRANSACTION を実行してください。 中止の理由:
詳細については、TRANSACTION_ROLLBACK_REQUIRED_AFTER_ABORTを参照してください。
TRANSFORM_WITH_STATE_USER_FUNCTION_ERROR
StatefulProcessor のユーザー定義関数 <function> でエラーが発生しました。 理由: <reason>。
TRANSPOSE_EXCEED_ROW_LIMIT
行数が、<maxValues>のTRANSPOSEの許容制限を超えています。 これが意図されている場合は、 <config> を少なくとも現在の行数に設定します。
TRANSPOSE_INVALID_INDEX_COLUMN
次の理由で、 TRANSPOSE のインデックス列が無効です。 <reason>
TRANSPOSE_NO_LEAST_COMMON_TYPE
Transposeでは、インデックス以外の列が共通の型を持つ必要がありますが、<dt1> と <dt2> はそうではありません。
TRIGGER_INTERVAL_INVALID
トリガー間隔は、秒全体に変換できる正の期間である必要があります。
<actual> 秒を受け取りました。
TUPLE_IS_EMPTY
Scala のタプルのサポートが限られているため、空のタプルはサポートされていません。
TUPLE_SIZE_EXCEEDS_LIMIT
Scala のタプルのサポートが限られているため、22 を超える要素を持つタプルはサポートされていません。
UC_BUCKETED_TABLES
バケットテーブルは Unity カタログではサポートされていません。
UC_CATALOG_NAME_NOT_PROVIDED
Unity カタログの場合は、カタログ名を明示的に指定してください。 例: SHOW GRANT your.address@email.com ON CATALOG main。
UC_COMMAND_NOT_SUPPORTED
コマンド: <commandName> は Unity カタログではサポートされていません。
詳細については、UC_COMMAND_NOT_SUPPORTED を参照してください
UC_COMMAND_NOT_SUPPORTED_IN_SERVERLESS
コマンド: <commandName> は、サーバーレスの Unity カタログ クラスターではサポートされていません。 代わりに、単一ユーザーまたは共有クラスターを使用してください。
UC_COMMAND_NOT_SUPPORTED_IN_SHARED_ACCESS_MODE
コマンド: <commandName> は、共有アクセス モードの Unity カタログ クラスターではサポートされていません。 代わりにシングル ユーザー アクセス モードを使用してください。
UC_CONNECTION_NOT_FOUND_FOR_FILE_SYSTEM_SOURCE_ACCESS
<path>を評価した後、<connectionNames>にアクセスするための有効な UC 接続が見つかりませんでした。
ターゲット パスにアクセスするために、少なくとも 1 つの有効な UC 接続を使用できることを確認します。
評価された接続の詳細なエラー:
<connectionErrors>
UC_CREDENTIAL_PURPOSE_NOT_SUPPORTED
指定された資格情報の種類はサポートされていません。
UC_DATASOURCE_NOT_SUPPORTED
データ ソース形式 <dataSourceFormatName> は、Unity カタログではサポートされていません。
UC_DATASOURCE_OPTIONS_NOT_SUPPORTED
データ ソース オプションは、Unity カタログではサポートされていません。
UC_DEPENDENCY_DOES_NOT_EXIST
Unity カタログに依存関係が存在しません。
<errorMessage>
UC_EXTERNAL_VOLUME_MISSING_LOCATION
外部ボリュームには LOCATION 句が存在する必要があります。 構文 'CREATE EXTERNAL VOLUME...LOCATION ...' を確認してください。外部ボリュームを作成します。
UC_FAILED_PROVISIONING_STATE
クエリはテーブル <tableName> を参照しようとしましたが、これを行うことができなかったため失敗しました: <failureReason>。 テーブル <tableName> を更新して、アクティブなプロビジョニング状態であることを確認してから、クエリをもう一度やり直してください。
UC_FILE_SCHEME_FOR_TABLE_CREATION_NOT_SUPPORTED
ファイル スキーム <schemeName> を使用した Unity カタログでのテーブルの作成はサポートされていません。
代わりに、同じテーブル プロバイダーの CREATE CONNECTION コマンドを使用してフェデレーション データ ソース接続を作成してから、CREATE FOREIGN CATALOG コマンドを使用して接続に基づいてカタログを作成し、そこにテーブルを参照してください。
UC_HIVE_METASTORE_DISABLED_EXCEPTION
操作で Hive Metastore<identifier> を使用しようとしました。これは、アカウントまたはワークスペースでレガシ アクセスが無効になっているために無効になっています。 現在のセッションの既定のカタログと既定の名前空間設定を再確認してください。 Hive メタストアにアクセスする必要がある場合は、管理者に Unity カタログを使用して Hive メタストア フェデレーションを設定するよう依頼してください。
UC_HIVE_METASTORE_FEDERATION_CROSS_CATALOG_VIEW_NOT_SUPPORTED
Hive Metastore フェデレーション ビューでは、複数のカタログ間の依存関係はサポートされていません。 Hive Metastore フェデレーション カタログのビュー <view> は、hive_metastoreまたはspark_catalog カタログからの依存関係を使用する必要がありますが、依存関係 <dependency> は別のカタログ <referencedCatalog>にあります。 この制約を満たすように依存関係を更新してから、クエリまたはコマンドをもう一度やり直してください。
UC_HIVE_METASTORE_FEDERATION_NOT_ENABLED
Hive Metastore フェデレーションは、このクラスターでは有効になっていません。
カタログ <catalogName> へのアクセスは、このクラスターではサポートされていません
UC_INVALID_DEPENDENCIES
<securable> の依存関係は <storedDeps> として記録されていますが、<parsedDeps> として解析されています。 これは、SQL 以外の API を不適切に使用して発生した可能性があります。
詳細については、UC_INVALID_DEPENDENCIESを参照してください。
UC_INVALID_NAMESPACE
入れ子になった名前空間または空の名前空間は、Unity カタログではサポートされていません。
UC_INVALID_REFERENCE
Unity-Catalog 以外のオブジェクト <name> は、Unity Catalog オブジェクトでは参照できません。
UC_LAKEHOUSE_FEDERATION_WRITES_NOT_ALLOWED
Unity Catalog Lakehouse Federation の書き込みサポートは、このクラスターのプロバイダー <provider> では有効になっていません。
UC_LOCATION_FOR_MANAGED_VOLUME_NOT_SUPPORTED
マネージド ボリュームは、LOCATION 句を受け入れません。 マネージド ボリュームを作成するために、構文 'CREATE VOLUME ...' を確認してください。
UC_NOT_ENABLED
Unity カタログは、このクラスターでは有効になっていません。
UC_QUERY_FEDERATION_NOT_ENABLED
Unity カタログ クエリ フェデレーションは、このクラスターでは有効になっていません。
UC_RESOLVED_DBFS_PATH_MISMATCH
クエリは、 <objectType> <name> を参照しようとしましたが、実行できませんでした:解決された DBFS パス <resolvedHmsPath> が Unity カタログの保存場所 <ucStorageLocation>と一致しません。
UC_機密情報_未有効化
Unity カタログ シークレットのサポートが有効になっていません。
UC_SECRETはすでに存在します
シークレット <name> は既に存在するため、作成できません。
別の名前を選択するか、既存のオブジェクトを削除または置き換えるか、既存のオブジェクトを許容する IF NOT EXISTS 句を追加します。
UC_SECRET_NOT_FOUND
シークレット <name> が存在しません。 'SHOW SECRETS' を使用して、使用可能なシークレットを一覧表示します。
UC_SERVICE_CREDENTIALS_NOT_ENABLED
このクラスターでは、サービス資格情報は有効になっていません。
UC_TABLE_METADATA_OUT_OF_SYNC
テーブルメタデータがカタログ内で同期されていないため、テーブルの <tableName> にクエリを実行できません。 最初に 'MSK REPAIR TABLE <tableName> SYNC METADATA' を実行してメタデータを同期することで、テーブルを修復します。
UC_UNCAUGHT_CLIENT_EXCEPTION
Databricks Unity カタログ バックエンドとの通信中に予期しない HTTP エラーが発生しました。 エラー コード: <errCode>。 メッセージ: <message>
UC_VOLUMES_NOT_ENABLED
このインスタンスでは、Unity カタログ ボリュームのサポートは有効になっていません。
UC_VOLUMES_NOT_SUPPORTED
ボリュームは、この操作ではサポートされていません。 指定したパスは '<path>' でした。
UC_VOLUMES_SHARING_NOT_ENABLED
このインスタンスでは、ボリューム共有のサポートは有効になっていません。
UC_VOLUME_NOT_FOUND
ボリューム <name> が存在しません。 使用可能なボリュームを一覧表示するには、'SHOW VOLUMES' を使用してください。
UDF_ENVIRONMENT_ERROR
システム エラーのため、 <udfName> の UDF 依存関係をインストールできませんでした。
詳細については、UDF_ENVIRONMENT_ERROR を参照してください。
UDF_ENVIRONMENT_USER_ERROR
<udfName>の UDF 依存関係をインストールできませんでした。
詳細については、UDF_ENVIRONMENT_USER_ERRORを参照してください。
UDF_ERROR
SQLSTATE: 割り当てなし
関数の実行 <fn> 失敗しました
詳細については、UDF_ERROR を参照してください。
UDF_LIMITS
1 つ以上の UDF 制限に違反しました。
詳細については、UDF_LIMITS を参照してください。
UDF_MAX_COUNT_EXCEEDED
クエリ全体での UDF 制限 (UDF <maxNumUdfs> 個) を超えました (パブリック プレビュー中は制限されます)。
<numUdfs>が見つかりました。 UDF は <udfNames> です。
UDF_PYSPARK_ERROR
Python worker が予期せず終了しました
詳細については、UDF_PYSPARK_ERROR を参照してください。
UDF_PYSPARK_UNSUPPORTED_TYPE
PySpark UDF <udf> (<eval-type>) は、共有アクセス モードのクラスターではサポートされていません。
UDF_PYSPARK_USER_CODE_ERROR
実行に失敗しました。
詳細については、UDF_PYSPARK_USER_CODE_ERROR を参照してください。
UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE
パラメーターの既定値は、ユーザー定義の <functionType> 関数ではサポートされていません。
UDF_USER_CODE_ERROR
関数の実行 <fn> 失敗しました。
詳細については、UDF_USER_CODE_ERROR を参照してください。
UDTF_ALIAS_NUMBER_MISMATCH
AS句で指定されたエイリアスの数が、UDTF によって出力される列の数と一致しません。
<aliasesSize> のエイリアスを期待していましたが、結果は <aliasesNames>でした。
指定されたエイリアスの数が、UDTF によって出力される列の数と一致していることを確認してください。
UDTF_INVALID_ALIAS_IN_REQUESTED_ORDERING_STRING_FROM_ANALYZE_METHOD
'analyze' メソッドが要求された OrderingColumn を返したため、ユーザー定義テーブル関数を評価できませんでした。列名の式に不要なエイリアス <aliasName>が含まれています。このエイリアスを削除してから、もう一度クエリを実行してください。
UDTF_INVALID_REQUESTED_SELECTED_EXPRESSION_FROM_ANALYZE_METHOD_REQUIRES_ALIAS
'analyze' メソッドが、対応するエイリアスを含まない要求された 'select' 式 (<expression>) を返したため、ユーザー定義テーブル関数を評価できませんでした。UDTF を更新してエイリアスを指定してから、もう一度クエリを実行してください。
UNABLE_TO_CONVERT_TO_PROTOBUF_MESSAGE_TYPE
SQL 型 <toType> を Protobuf 型 <protobufType>に変換できません。
UNABLE_TO_FETCH_HIVE_TABLES
Hive データベース: <dbName> のテーブルをフェッチできません。 エラー クラス名: <className>。
パイプラインテーブルスキーマを推論できません (UNABLE_TO_INFER_PIPELINE_TABLE_SCHEMA)
アップストリーム フローからテーブル <tableName> のスキーマを推論できませんでした。
スキーマに互換性を持たせるために、このテーブルに書き込むフローを変更してください。
これまでに推論されたスキーマ:
<inferredDataSchema>
互換性のないスキーマ:
<incompatibleDataSchema>
UNABLE_TO_INFER_SCHEMA
<format>のスキーマを推論できません。 手動で指定する必要があります。
未認証
要求に操作の有効な認証資格情報がありません。
UNAUTHORIZED_ACCESS
未承認のアクセス:
<report>
UNBOUND_SQL_PARAMETER
バインドされていないパラメーターが見つかりました: <name>。
args修正し、SQL リテラルまたはコレクション コンストラクター関数 (map(), array(), struct() など) へのパラメーターのマッピングを指定してください。
UNCLOSED_BRACKETED_COMMENT
未閉じの括弧で囲まれたコメントが見つかりました。 コメントの末尾に */ を追加してください。
UNEXPECTED_INPUT_TYPE
関数 <paramIndex> のパラメーター <functionName> には <requiredType> 型が必要ですが、<inputSql> には型 <inputType>があります。
UNEXPECTED_INPUT_TYPE_OF_NAMED_PARAMETER
関数 <namedParamKey> の <functionName> パラメーターには <requiredType> 型が必要ですが、<inputSql> には型が <inputType>。<hint>
UNEXPECTED_OPERATOR_IN_STREAMING_VIEW
<op> ステートメント内でストリーミング ソースとして予期しない演算子 CREATE VIEW が見つかりました。
ストリーミング ビュー クエリは、 SELECT, WHERE操作と UNION ALL 操作のみで構成する必要があります。
UNEXPECTED_POSITIONAL_ARGUMENT
ルーチン <routineName> には、<parameterName>に割り当てられた名前付き引数の後に位置引数が含まれているため、呼び出すことができません。位置引数が最初に来るように再配置してから、クエリをもう一度やり直してください。
UNEXPECTED_SERIALIZER_FOR_CLASS
クラス <className> には、予期しない式シリアライザーがあります。 "STRUCT" または "IF" を予期します。この値は "STRUCT" を返しますが、 <expr>が見つかりました。
UNION_NOT_SUPPORTED_IN_RECURSIVE_CTE
UNION演算子は、再帰的な共通テーブル式 (直接または間接的に参照するWITH句) 内ではまだサポートされていません。 代わりに UNION ALL を使用してください。
ユニーク制約が無効化されました
一意制約機能が無効になっています。 有効にするには、"spark.databricks.sql.dsv2.unique.enabled" を true に設定します。
UNKNOWN_FIELD_EXCEPTION
解析中に <changeType> が発生しました: <unknownFieldBlob>。自動再試行によって修正できます: <isRetryable>
詳細については、UNKNOWN_FIELD_EXCEPTION を参照してください。
UNKNOWN_POSITIONAL_ARGUMENT
ルーチン <routineName> の呼び出しには、<sqlExpr>位置に <pos> 不明な位置引数が含まれています。 これは無効です。
UNKNOWN_PRIMITIVE_TYPE_IN_VARIANT
id <id> を持つ不明なプリミティブ型がバリアント値で見つかりました。
UNKNOWN_PROTOBUF_MESSAGE_TYPE
<descriptorName> をメッセージとして扱おうとしましたが、それは実際には <containingType>でした。
UNPIVOT_REQUIRES_ATTRIBUTES
UNPIVOT は、<given> 式が与えられていない場合、指定されたすべての <empty> 式が列であることを要求します。 これらは列ではありません: [<expressions>]。
UNPIVOT_REQUIRES_VALUE_COLUMNS
UNPIVOTに少なくとも 1 つの値列を指定する必要があります。すべての列は ID として指定されます。
UNPIVOT_VALUE_DATA_TYPE_MISMATCH
ピボット解除値列は極めてまれな型を共有する必要がありますが、一部の型 [<types>] がそれに該当しません。
UNPIVOT_VALUE_SIZE_MISMATCH
ピボット解除されたすべての値列のサイズは、値の列名 (<names>) と同じである必要があります。
UNRECOGNIZED_PARAMETER_NAME
ルーチン呼び出しには <routineName>という名前の引数の名前付き引数参照が含まれているため、ルーチン <argumentName> を呼び出すことはできませんが、このルーチンには、この名前の引数を含むシグネチャは含まれません。 次のいずれかの意味でしたか? [<proposal>]。
UNRECOGNIZED_SQL_TYPE
認識できない SQL の種類 - 名前: <typeName>、id: <jdbcType>。
UNRECOGNIZED_STATISTIC
統計 <stats> は認識されません。 有効な統計には、 count, count_distinct, approx_count_distinct, mean, stddev, min, maxとパーセンタイル値が含まれます。 パーセンタイルは、0% ~ 100%の範囲内で、数値の後に '%' を指定する必要があります。
UNRESOLVABLE_TABLE_VALUED_FUNCTION
テーブル値関数に <name> を解決できませんでした。
<name> がテーブル値関数として定義されていること、および必要なすべてのパラメーターが正しく指定されていることを確認してください。
<name> が定義されていない場合は、テーブル値関数を使用する前に作成してください。
テーブル値関数の定義の詳細については、Apache Spark のドキュメントを参照してください。
UNRESOLVED_ALL_IN_GROUP_BY
select 句に基づいて GROUP BY ALL のグループ化列を推論することはできません。 グループ化列を明示的に指定してください。
UNRESOLVED_COLUMN
名前が <objectName> 列、変数、または関数パラメーターは解決できません。
詳細については、UNRESOLVED_COLUMN を参照してください。
UNRESOLVED_COLUMN_AMONG_FIELD_NAMES
(<fieldNames>) 間で列名 "<colName>" を解決できません。
UNRESOLVED_FIELD
名前 <fieldName> を持つフィールドは、構造体型の列 <columnPath>で解決できません。
詳細については、UNRESOLVED_FIELD を参照してください。
UNRESOLVED_INSERT_REPLACE_USING_COLUMN
REPLACE USING 列 <colName> を <relationType>で解決できません。
次のいずれかの列を指していますか? [<suggestion>]。
UNRESOLVED_MAP_KEY
列 <objectName> をマップ キーとして解決できません。 キーが文字列リテラルの場合は、その周囲に単一引用符 '' を追加します。
詳細については、UNRESOLVED_MAP_KEY を参照してください。
UNRESOLVED_ROUTINE
検索パス <routineName>のルーチン <searchPath> を解決できません。
<routineName>のスペルを確認し、ルーチンが存在することを確認し、カタログとスキーマに対する USE 権限を持っていることを確認し、ルーチンに対する EXECUTE 権限を持っていることを確認してください。
詳細については、UNRESOLVED_ROUTINE を参照してください。
UNRESOLVED_TABLE_PATH
テーブル <identifier> のストレージ パスを解決できません。
UNRESOLVED_USING_COLUMN_FOR_JOIN
USING 列 <colName> は、結合の <side> 側では解決できません。
<side> 側の列: [<suggestion>]。
UNRESOLVED_VARIABLE
検索パス <variableName>の変数 <searchPath> を解決できません。
UNSTRUCTURED_DATA_PROCESSING_UNSUPPORTED_FILE_FORMAT
非構造化ファイル形式 <format> はサポートされていません。 サポートされているファイル形式は <supportedFormats>。
format 式からサポートされている形式のいずれかに <expr> を更新してから、もう一度クエリを再試行してください。
UNSTRUCTURED_DATA_PROCESSING_UNSUPPORTED_MODEL_OPTION
非構造化モデル オプション ('<option>' -> '<value>') はサポートされていません。 サポートされる値は <supportedValues> です。
サポートされている値のいずれかに切り替えてから、もう一度クエリを再試行してください。
UNSTRUCTURED_OCR_COLUMN_NOT_ALLOWED_WITH_METADATA_MODEL_OPTION
'metadataModel' オプションが指定されている場合は、関数パラメーター 'ocrText' を NULL または省略する必要があります。 指定された 'metadataModel' オプションは、指定された 'ocrText' が禁止されているメタデータ抽出をトリガーします。
UNSUPPORTED_ADD_FILE
ファイルの追加はサポートされません。
詳細については、UNSUPPORTED_ADD_FILE を参照してください
UNSUPPORTED_ALTER_COLUMN_PARAMETER
<parameter> を ALTER <commandTableType> で指定することはサポートされていません。
UNSUPPORTED_ARROWTYPE
サポートされていない矢印の種類 <typeName>。
UNSUPPORTED_BATCH_TABLE_VALUED_FUNCTION
関数 <funcName> はバッチ クエリをサポートしていません。
UNSUPPORTED_CALL
クラス "<methodName>" のメソッド "<className>" を呼び出すことはできません。
詳細については、UNSUPPORTED_CALL を参照してください。
UNSUPPORTED_CHAR_OR_VARCHAR_AS_STRING
char/varchar 型はテーブル スキーマでは使用できません。
Spark を Spark 3.0 以前と同じ文字列型として扱う場合は、"spark.sql.legacy.charVarcharAsString" を "true" に設定してください。
UNSUPPORTED_CHAR_OR_VARCHAR_COLLATION
char/varchar 型 <type> 照合順序を指定できません。
UNSUPPORTED_CLAUSE_FOR_OPERATION
<clause> は、<operation>ではサポートされていません。
UNSUPPORTED_COLLATION
照合順序 <collationName> は、次の場合にサポートされていません。
詳細については、UNSUPPORTED_COLLATION を参照してください。
UNSUPPORTED_COMMON_ANCESTOR_LOC_FOR_FILE_STREAM_SOURCE
ソース パスと sourceArchiveDir の共通の先祖を UC に登録する必要があります。
このエラー メッセージが表示された場合は、ソース パスと sourceArchiveDir を別の外部の場所に登録している可能性があります。
1 つの外部の場所に配置してください。
UNSUPPORTED_CONNECT_FEATURE
Spark Connect では、この機能はサポートされていません。
詳細については、UNSUPPORTED_CONNECT_FEATUREを参照してください。
サポートされていない制約特性
制約の種類 '<characteristic>' では、制約特性 '<constraintType>' はサポートされていません。
UNSUPPORTED_CONSTRAINT_CLAUSES
制約句 <clauses> はサポートされていません。
UNSUPPORTED_CONSTRAINT_TYPE
サポートされていない制約の種類。
<supportedConstraintTypes> のみがサポートされています
UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY
ファイルに対する直接クエリでサポートされていないデータ ソースの種類: <dataSourceType>
UNSUPPORTED_DATATYPE
サポートされていないデータ型 <typeName>。
UNSUPPORTED_DATA_SOURCE_SAVE_MODE
データ ソース "<source>" を <createMode> モードで書き込むことができません。 代わりに、"追加" または "上書き" モードを使用してください。
UNSUPPORTED_DATA_TYPE_FOR_DATASOURCE
<format> データソースは、<columnName>型の列<columnType>をサポートしていません。
UNSUPPORTED_DATA_TYPE_FOR_ENCODER
<dataType>用のエンコーダーを作成できません。 UDF または DataFrame に別の出力データ型を使用してください。
UNSUPPORTED_DEFAULT_VALUE
DEFAULT 列の値はサポートされていません。
詳細については、UNSUPPORTED_DEFAULT_VALUE を参照してください
UNSUPPORTED_DESERIALIZER
デシリアライザーはサポートされていません。
詳細については、UNSUPPORTED_DESERIALIZER を参照してください
UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
<fieldName>のため、生成式 <expressionStr> で生成された列 <reason> を作成できません。
UNSUPPORTED_EXPR_FOR_OPERATOR
クエリ演算子には、サポートされていない式が 1 つ以上含まれています。
WHERE 句でウィンドウ関数、集計関数、およびジェネレーター関数を回避するために、書き換えを検討してください。
式 [<invalidExprSqls>] が無効です
UNSUPPORTED_EXPR_FOR_PARAMETER
クエリ パラメーターにサポートされていない式が含まれています。
パラメーターには、変数またはリテラルを指定できます。
式 [<invalidExprSql>] が無効です
UNSUPPORTED_EXPR_FOR_WINDOW
式 <sqlExpr> ウィンドウ関数内ではサポートされていません。
UNSUPPORTED_FEATURE
この機能はサポートされていません。
詳細については、UNSUPPORTED_FEATURE を参照してください。
UNSUPPORTED_FN_TYPE
サポートされていないユーザー定義関数の型: <language>
UNSUPPORTED_GENERATOR
ジェネレーターはサポートされていません。
詳細については、UNSUPPORTED_GENERATOR を参照してください。
UNSUPPORTED_GROUPING_EXPRESSION
grouping()/grouping_id() は GroupingSets/Cube/Rollup でのみ使用できます。
UNSUPPORTED_INITIAL_POSITION_AND_TRIGGER_PAIR_FOR_KINESIS_SOURCE
初期位置 <trigger> を持つ <initialPosition> は、Kinesis ソースではサポートされていません
UNSUPPORTED_INSERT
ターゲットに挿入できません。
詳細については、UNSUPPORTED_INSERT を参照してください
UNSUPPORTED_JOIN_TYPE
サポートされていない結合の種類 '<typ>'。 サポートされている結合の種類は次のとおりです: <supported>.
UNSUPPORTED_MANAGED_TABLE_CREATION
データソース <tableName> を使用したマネージド テーブル <dataSource> の作成はサポートされていません。 データソース DELTA を使用するか、 CREATE EXTERNAL TABLE <tableName>...USING <dataSource> ... を使用して外部テーブルを作成する必要があります。
UNSUPPORTED_MERGE_CONDITION
MERGE 操作にサポートされていない <condName> 条件が含まれています。
詳細については、UNSUPPORTED_MERGE_CONDITION を参照してください
UNSUPPORTED_METADATA_KEY
サポートされていないメタデータ キー: <key>。 サポートされているキー: <supportedKeys>。
UNSUPPORTED_NESTED_ROW_OR_COLUMN_ACCESS_POLICY
テーブル <tableName> には、行レベルのセキュリティ ポリシーまたは列マスクがあり、行レベルのセキュリティ ポリシーまたは列マスクを持つ別のテーブルを間接的に参照します。これはサポートされていません。 呼び出しシーケンス: <callSequence>
連続メモリシンクに対する未対応操作
操作 <operation> は、連続メモリ シンクではサポートされていません。 ストリーミング Real-Time モードのテストを作成する場合は、他のチェックで CheckAnswerWithTimeout を使用することを検討してください。
UNSUPPORTED_OVERWRITE
読み込み中のターゲットは上書きできません。
詳細については、UNSUPPORTED_OVERWRITE を参照してください
UNSUPPORTED_PARTITION_TRANSFORM
サポートされていないパーティション変換: <transform>。 サポートされている変換は identity, bucketであり、 clusterBy。 変換式で次のいずれかを使用していることを確認します。
UNSUPPORTED_PIPELINE_SPARK_SQL_COMMAND
'<command>' は、Spark 宣言型パイプラインの spark.sql("...") API ではサポートされていません。
未対応のプロシージャの照合順序
プロシージャ <procedureName> では、 DEFAULT COLLATION UTF8_BINARYを指定または継承する必要があります。
CREATE PROCEDURE <procedureName> (...) DEFAULT COLLATION UTF_BINARY ... を使用してください。
UNSUPPORTED_SAVE_MODE
次の場合、保存モード <saveMode> はサポートされていません。
詳細については、UNSUPPORTED_SAVE_MODE を参照してください。
UNSUPPORTED_SHOW_CREATE_TABLE
SHOW CREATE TABLE コマンドはサポートされていません。
詳細については、UNSUPPORTED_SHOW_CREATE_TABLE を参照してください
UNSUPPORTED_SINGLE_PASS_ANALYZER_FEATURE
シングルパス アナライザーは、<feature>をまだサポートしていないため、このクエリまたはコマンドを処理できません。
UNSUPPORTED_SQL_UDF_USAGE
<functionName>での SQL 関数<nodeName>の使用はサポートされていません。
UNSUPPORTED_STREAMING_OPERATOR_WITHOUT_WATERMARK
<outputMode> 出力モードは、ウォーターマークのないストリーミング DataFrames/DataSets での <statefulOperator> ではサポートされていません。
UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
ビューのストリーミングではサポートされていません。 Reason:
詳細については、UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW を参照してください
UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED
<options>ストリーミング オプションは、共有クラスター上のデータ ソース <source>ではサポートされていません。 オプションが正しく指定され、スペルが正しいことを確認し<prefixHint>制限事項 https://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode 確認してください。
UNSUPPORTED_STREAMING_SINK_PERMISSION_ENFORCED
データ ソース <sink> は、共有クラスター上のストリーミング シンクとしてサポートされていません。
UNSUPPORTED_STREAMING_SOURCE_PERMISSION_ENFORCED
データ ソース <source> は、共有クラスター上のストリーミング ソースとしてサポートされていません。
UNSUPPORTED_STREAMING_TABLE_VALUED_FUNCTION
関数 <funcName> はストリーミングをサポートしていません。
STREAM キーワードを削除してください
UNSUPPORTED_STREAM_READ_LIMIT_FOR_KINESIS_SOURCE
<streamReadLimit> は Kinesis ソースではサポートされていません
UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
サポートされていないサブクエリ式:
詳細については、UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY を参照してください
UNSUPPORTED_TABLE_CHANGE_IN_AUTO_SCHEMA_EVOLUTION
テーブル <changes> の変更は、テーブル <tableName>のカタログではサポートされていません。
UNSUPPORTED_TABLE_CHANGE_IN_JDBC_CATALOG
テーブルの変更 <change> は、テーブル <tableName>の JDBC カタログではサポートされていません。 サポートされる変更には、AddColumn、RenameColumn、DeleteColumn、UpdateColumnType、UpdateColumnNullability などがあります。
UNSUPPORTED_TIMESERIES_COLUMNS
時系列列を使用した主キーの作成はサポートされていません
UNSUPPORTED_TIMESERIES_WITH_MORE_THAN_ONE_COLUMN
複数の時系列列 <colSeq> を持つ主キーの作成はサポートされていません
UNSUPPORTED_TIME_PRECISION
TIME データ型の秒の有効桁数 <precision> が、サポートされている範囲 [0, 6] から外れている。
UNSUPPORTED_TIME_TYPE
データ型 TIME はサポートされていません。
UNSUPPORTED_TRIGGER_FOR_KINESIS_SOURCE
<trigger> は Kinesis ソースではサポートされていません
UNSUPPORTED_TYPED_LITERAL
<unsupportedType> 型のリテラルはサポートされていません。 サポートされている型は <supportedTypes>です。
UNSUPPORTED_UDF_FEATURE
この関数 <function> では、新しいバージョンの Databricks ランタイムを必要とする次の機能を使用します。<features>。 詳細については、<docLink> を参照してください。
UNSUPPORTED_UDF_TYPES_IN_SAME_PLACE
UDF 型を一緒に使用することはできません: <types>
UNTYPED_SCALA_UDF
型指定されていない Scala UDF を使用しています。この UDF には入力型情報がありません。
Spark はプリミティブ型の引数を使用して Scala クロージャに盲目的に null を渡すことがあり、クロージャには null 引数の Java 型の既定値が表示されます。たとえば、 udf((x: Int) => x, IntegerType)、null 入力の場合は結果が 0 になります。 このエラーを取り除くには、次の操作を行います。
udf((x: Int) => x)など、型指定された Scala UDF API (戻り値の型パラメーターなし) を使用します。入力型がすべてプリミティブでない場合は、java UDF API (
udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType)など) を使用します。"spark.sql.legacy.allowUntypedScalaUDF" を "true" に設定し、この API を慎重に使用してください。
UPGRADE_NOT_SUPPORTED
テーブルは、Hive メタストアから Unity カタログへのアップグレードの対象ではありません。 Reason:
詳細については、UPGRADE_NOT_SUPPORTED を参照してください
USER_DEFINED_FUNCTIONS
ユーザー定義関数が無効です。
詳細については、USER_DEFINED_FUNCTIONS を参照してください。
USER_RAISED_EXCEPTION
<errorMessage>
USER_RAISED_EXCEPTION_PARAMETER_MISMATCH
raise_error() 関数は、パラメーター <errorClass>を受け取る <expectedParms> のエラークラスを生成するために使用されました。
指定されたパラメーター <providedParms> 想定されるパラメーターと一致しません。
必要なすべてのパラメーターを必ず指定してください。
USER_RAISED_EXCEPTION_UNKNOWN_ERROR_CLASS
raise_error() 関数は、不明なエラー クラス (<errorClass>) を発生させるために使用されました
USER_SPECIFIED_AND_ACTUAL_SCHEMA_MISMATCH
ユーザー指定のスキーマが実際のスキーマと一致しません。
user-specified: <schema>, actual: <actualSchema>. 使用している場合
DataFrameReader.schema API またはテーブルの作成では、スキーマを指定しないでください。
または、存在するテーブルをスキャンする場合は、削除して再作成します。
ユーザー指定と推定されたスキーマの非互換性
テーブル '<tableName>' には、スキーマと互換性のないユーザー指定のスキーマがあります
クエリから推論されます。
<streamingTableHint>
宣言されたスキーマ:
<specifiedSchema>
推定スキーマ:
<inferredDataSchema>
USE_CATALOG_SCHEMA_IN_DEFINER_STORED_PROCEDURE_NOT_SUPPORTED
SQL SECURITY DEFINER ストアド プロシージャ内でのカタログまたはスキーマの設定はサポートされていません。
VARIABLE_ALREADY_EXISTS
変数 <variableName> は既に存在するため、作成できません。
別の名前を選択するか、既存の変数を削除または置換します。
VARIABLE_NOT_FOUND
変数 <variableName> が見つかりません。 スキーマとカタログのスペルと正確性を確認します。
スキーマとカタログで名前を修飾しなかった場合は、current_schema() の出力を確認するか、名前を正しいスキーマとカタログで修飾します。
ドロップ時のエラーを許容するには、DROP VARIABLE IF EXISTSを使用します。
VARIANT_CONSTRUCTOR_SIZE_LIMIT
16 MiB を超えるバリアントを構築できません。 バリアント値の最大許容サイズは 16 MiB です。
VARIANT_DUPLICATE_KEY
オブジェクト キーの <key>が重複しているため、バリアントのビルドに失敗しました。
VARIANT_SIZE_LIMIT
<sizeLimit>で <functionName> より大きいバリアントを構築することはできません。
この式には大きな入力文字列を使用しないでください (たとえば、関数呼び出しを追加して式のサイズを確認し、大きすぎる場合は最初に NULL に変換します)。
VERSIONED_CLONE_UNSUPPORTED_TABLE_FEATURE
ソース テーブル履歴には、この DBR バージョンのバージョン管理された複製でサポートされていないテーブル機能 ( <unsupportedFeatureNames>) が含まれています。
新しい DBR バージョンにアップグレードしてください。
VIEW_ALREADY_EXISTS
ビュー <relationName> は既に存在するため、作成できません。
別の名前を選択するか、既存のオブジェクトを削除または置き換えるか、既存のオブジェクトを許容する IF NOT EXISTS 句を追加します。
VIEW_EXCEED_MAX_NESTED_DEPTH
ビューの深度 <viewName> が最大ビュー解像度の深度 (<maxNestedDepth>) を超えています。
エラーを回避するため、分析は中止されます。 この問題を回避する場合は、"spark.sql.view.maxNestedViewDepth" の値を増やしてみてください。
VIEW_NOT_FOUND
ビュー <relationName> が見つかりません。 スキーマとカタログのスペルと正確性を確認します。
スキーマで名前を修飾しなかった場合は、current_schema() 出力を確認するか、名前を正しいスキーマとカタログで修飾します。
ドロップ時のエラーを許容するには、DROP VIEW IF EXISTSを使用します。
VOLUME_ALREADY_EXISTS
ボリューム <relationName> は既に存在するため作成できません。
別の名前を選択するか、既存のオブジェクトを削除または置き換えるか、既存のオブジェクトを許容する IF NOT EXISTS 句を追加します。
WATERMARK_ADVANCEMENT_STRATEGY
ストリーミング透かしの進め方には、次の制限があります。
詳細については、WATERMARK_ADVANCEMENT_STRATEGYを参照してください。
WINDOW_FUNCTION_AND_FRAME_MISMATCH
<funcName> 関数は、単一のオフセットを持つ順序付けられた行ベースのウィンドウ フレームでのみ評価できます: <windowExpr>。
WINDOW_FUNCTION_WITHOUT_OVER_CLAUSE
Window 関数 <funcName> には OVER 句が必要です。
WITH_CREDENTIAL
WITH CREDENTIAL 構文は、<type>ではサポートされていません。
WRITE_STREAM_NOT_ALLOWED
writeStream は、ストリーミング データセット/DataFrame でのみ呼び出すことができます。
WRONG_COLUMN_DEFAULTS_FOR_DELTA_ALTER_TABLE_ADD_COLUMN_NOT_SUPPORTED
新しい値を追加するときに DEFAULT 値がサポートされていないため、コマンドの実行に失敗しました
列を既存の Delta テーブルに移動します。既定を指定せずに列を追加してください
最初に値を入力し、次に 2 番目の ALTER TABLE ALTER COLUMN SET DEFAULT コマンドを実行して適用します
今後挿入される行に対して代わりに適用してください。
WRONG_COLUMN_DEFAULTS_FOR_DELTA_FEATURE_NOT_ENABLED
列 <commandType> 値が割り当てられたため、コマンド DEFAULT 実行できませんでした。
対応するテーブル機能が有効になっていませんでした。 コマンドをもう一度やり直してください
ALTER TABLE tableName SET
TBLPROPERTIES('delta.feature.allowColumnDefaults' = 'supported')。
WRONG_COMMAND_FOR_OBJECT_TYPE
操作 <operation> には <requiredType>が必要です。 しかし、<objectName> は <foundType>です. 代わりに <alternative> を使用してください。
WRONG_NUM_ARGS
<functionName> には <expectedNum> パラメーターが必要ですが、実際の数は <actualNum>です。
詳細については、WRONG_NUM_ARGS を参照してください。
XML_ROW_TAG_MISSING
<rowTag> オプションは、XML 形式のファイルの読み取り/書き込みに必要です。
XML_UNSUPPORTED_NESTED_TYPES
XML は、<innerDataType>の内部型として<dataType>をサポートしていません。
<innerDataType>内で使用するときは、<dataType> を StructType フィールド内でラップしてください。
XML_WILDCARD_RESCUED_DATA_CONFLICT_ERROR
復旧されたデータとワイルドカード列を同時に有効にすることはできません。 wildcardColumnName オプションを削除します。
ZORDERBY_COLUMN_DOES_NOT_EXIST
ZOrderBy 列 <columnName> が存在しません。
Delta Lake
DELTA_ACTIVE_SPARK_SESSION_NOT_FOUND
アクティブな SparkSession が見つかりませんでした。
DELTA_ACTIVE_TRANSACTION_ALREADY_SET
新しい txn が既にアクティブな場合、新しい txn をアクティブとして設定できません。
DELTA_ADDING_COLUMN_WITH_INTERNAL_NAME_FAILED
名前が予約されているため、列 <colName> を追加できませんでした。
DELTA_ADDING_DELETION_VECTORS_DISALLOWED
現在の操作では、新しい削除ベクトルの作成を許可しないテーブルに削除ベクターを追加しようとしました。 バグ レポートを提出してください。
DELTA_ADDING_DELETION_VECTORS_WITH_TIGHT_BOUNDS_DISALLOWED
削除ベクトルを追加するすべての操作では、統計の tightBounds 列を false に設定する必要があります。 バグ レポートを提出してください。
DELTA_ADD_COLUMN_AT_INDEX_LESS_THAN_ZERO
列<columnIndex>を追加するインデックス <columnName>が 0 未満です。
DELTA_ADD_COLUMN_PARENT_NOT_STRUCT
親が StructType ではないため、<columnName> を追加できません。
<other>が見つかりました。
DELTA_ADD_COLUMN_STRUCT_NOT_FOUND
位置 <position>に構造体が見つかりません。
DELTA_ADD_CONSTRAINTS
ALTER TABLEを使用してCONSTRAINTを加え、CHECKの制約を追加してください。
DELTA_AGGREGATE_IN_CHECK_CONSTRAINT
CHECK制約で<sqlExpr>が見つかりました。 集計式は、 CHECK 制約では使用できません。
DELTA_AGGREGATE_IN_GENERATED_COLUMN
<sqlExpr>が見つかりました。 生成された列では、集計式を使用できません。
DELTA_AGGREGATION_NOT_SUPPORTED
集計関数は、<operation> <predicate>ではサポートされていません。
DELTA_ALTER_COLLATION_NOT_SUPPORTED_BLOOM_FILTER
ブルーム フィルター インデックスがあるため、列 <column> の照合順序を変更できませんでした。 既存の照合順序を保持するか、ブルーム フィルター インデックスを削除してから、もう一度コマンドを再試行して照合順序を変更してください。
DELTA_ALTER_COLLATION_NOT_SUPPORTED_CLUSTER_BY
クラスター化列であるため、列 <column> の照合順序を変更できませんでした。 既存の照合順序を保持するか、ALTER TABLE コマンドを使用して列を非クラスタリング列に変更してから、もう一度コマンドを再試行して照合順序を変更してください。
DELTA_ALTER_TABLE_CHANGE_COL_NOT_SUPPORTED
ALTER TABLE CHANGE COLUMN は、列 <currentType> を <newType>に変更する場合はサポートされていません。
DELTA_ALTER_TABLE_CLUSTER_BY_NOT_ALLOWED
ALTER TABLE CLUSTER BY は、Liquid クラスタリングを使用する Delta テーブルでのみサポートされます。
DELTA_ALTER_TABLE_CLUSTER_BY_ON_PARTITIONED_TABLE_NOT_ALLOWED
パーティション テーブルに ALTER TABLE CLUSTER BY を適用することはできません。
DELTA_ALTER_TABLE_RENAME_NOT_ALLOWED
操作は許可されていません: ALTER TABLE RENAME TO は、S3でマネージされているDeltaテーブルに対して許可されていません。S3による整合性の結果、Deltaトランザクションログが破損する可能性があるからです。 そうすることを主張していて、新しい名前が <newName> された Delta テーブルが存在したことがない場合は、<key> true に設定することでこれを有効にすることができます。
DELTA_ALTER_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
<tableFeature>を使用 ALTER TABLE SET TBLPROPERTIES テーブル機能を有効にすることはできません。
CREATE OR REPLACE TABLE CLUSTER BY を使用して、クラスタリングを使用して Delta テーブルを作成してください。
DELTA_ALTER_TABLE_SET_MANAGED_COPY_OR_MOVE_REQUIRED
ALTER TABLE ... SET MANAGEDでは、外部テーブル <table>に対してCOPYまたは MOVE を指定する必要があります。
DELTA_ALTER_TABLE_SET_MANAGED_DOES_NOT_SUPPORT_UNIFORM_ICEBERG
ALTER TABLE ... SET MANAGED は Uniform Apache Iceberg テーブルをサポートしていません。 Uniform を無効にするか、 SET MANAGED TRUNCATE UNIFORM HISTORYを使用します。
DELTA_ALTER_TABLE_SET_MANAGED_FAILED
ALTER TABLE <table> SET MANAGED は失敗しました。
詳細については、DELTA_ALTER_TABLE_SET_MANAGED_FAILEDを参照してください。
DELTA_ALTER_TABLE_SET_MANAGED_NOT_ENABLED
ALTER TABLE
...
SET MANAGED コマンドが有効になっていません。 サポートについては、Databricks サポート チームにお問い合わせください。
DELTA_ALTER_TABLE_SET_MANAGED_TABLE_NOT_MIGRATABLE
ALTER TABLE <table> SET MANAGED は、指定されたテーブルを移行できません。
テーブルが有効な状態であることを確認し、コマンドを再試行してください。 問題が解決しない場合は、Databricks サポートにお問い合わせください。
詳細については、DELTA_ALTER_TABLE_SET_MANAGED_TABLE_NOT_MIGRATABLEを参照してください。
DELTA_ALTER_TABLE_SET_MANAGED_UNSUPPORTED_COPY_MOVE_SYNTAX
ALTER TABLE ... SET MANAGED [COPY | MOVE] 構文は、テーブル <table>ではサポートされていません。 代わりに ALTER TABLE ... SET MANAGED を使用してください。
DELTA_ALTER_TABLE_SET_MANAGED_UNSUPPORTED_FOREIGN_TABLE
外部テーブル <table> は、UC マネージド テーブル ( <errorMessage>) への移行ではサポートされていません。
DELTA_ALTER_TABLE_UNSET_MANAGED_DOES_NOT_SUPPORT_COMPATIBILITY_MODE
ALTER TABLE ... UNSET MANAGED は、互換モードが有効になっているテーブルをサポートしていません。
このコマンドを実行する前に、テーブルの互換モードを無効にします。
DELTA_ALTER_TABLE_UNSET_MANAGED_UNIFORMをサポートしていません
ALTER TABLE ... UNSET MANAGED は Uniform をサポートしていません。 Uniform を無効にするか、 UNSET MANAGED TRUNCATE UNIFORM HISTORYを使用します。
DELTA_ALTER_TABLE_UNSET_MANAGED_FAILED
<table> は、マネージド テーブルから外部テーブルにロールバックできません。
詳細については、DELTA_ALTER_TABLE_UNSET_MANAGED_FAILED を参照してください
DELTA_ALTER_TABLE_UNSET_MANAGED_NOT_ENABLED
ALTER TABLE
...
UNSET MANAGED コマンドが有効になっていません。 サポートについては、Databricks サポート チームにお問い合わせください。
DELTA_AMBIGUOUS_DATA_TYPE_CHANGE
<column> のデータ型を <from> から <to>に変更することはできません。 この変更には列の削除と追加が含まれているため、あいまいです。
ALTER TABLE [ADD | DROP | RENAME] COLUMNを使用して、これらの変更を個別に行ってください。
DELTA_AMBIGUOUS_PARTITION_COLUMN
あいまいなパーティション列 <column> は <colMatches>になる可能性があります。
DELTA_AMBIGUOUS_PATHS_IN_CREATE_TABLE
CREATE TABLE には、<identifier> と <location>の 2 つの異なる場所があります。
LOCATION 条項をCREATE TABLE 文から削除するか、または設定することができます
<config> を true に設定して、このチェックをスキップします。
DELTA_ARCHIVED_FILES_IN_LIMIT
テーブル <table> には、LIMIT レコードの指定された <limit> を満たすのに十分な数のレコードがアーカイブされていないファイルに含まれていません。
DELTA_ARCHIVED_FILES_IN_SCAN
このクエリ <numArchivedFiles> 一部としてスキャンする必要がある、アーカイブされた可能性のあるファイルがテーブル <table> に見つかりました。
アーカイブされたファイルにアクセスできません。 アーカイブが <archivalTime>として構成されるまでの現在の時刻。
アーカイブされたファイルを除外するようにクエリ フィルターを調整してください。
DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION
テーブルで変更データ フィード (CDF) が有効になっていて、<opName>またはDROP COLUMNを使用してスキーマの変更が行われる場合、操作 "RENAME COLUMN" は許可されません。
DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS
次の存在しない列のブルーム フィルター インデックスを削除できません: <unknownColumns>。
DELTA_BLOOM_FILTER_OOM_ON_WRITE
次の列のブルーム フィルター インデックスの書き込み中に OutOfMemoryError が発生しました: <columnsWithBloomFilterIndices>。
"numItems" オプションに小さい値を選択するか、'fpp' オプションの値を大きくするか、インデックスを作成する列を減らすことで、ブルーム フィルター インデックスのメモリ占有領域を減らすことができます。
DELTA_CANNOT_CHANGE_DATA_TYPE
データ型を変更できません: <dataType>。
DELTA_CANNOT_CHANGE_LOCATION
SET TBLPROPERTIESを使用して Delta テーブルの 'location' を変更することはできません。 代わりに ALTER TABLE SET LOCATION を使用してください。
DELTA_CANNOT_CHANGE_PROVIDER
'provider' は予約済みテーブル プロパティであり、変更することはできません。
DELTA_CANNOT_CREATE_BLOOM_FILTER_NON_EXISTING_COL
次の存在しない列のブルーム フィルター インデックスを作成できません: <unknownCols>。
DELTA_CANNOT_CREATE_LOG_PATH
<path>を作成できません。
DELTA_CANNOT_DESCRIBE_VIEW_HISTORY
ビューの履歴を記述できません。
DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN
インデックスが作成されていない列のブルーム フィルター インデックスを削除できません: <columnName>。
DELTA_CANNOT_DROP_CHECK_CONSTRAINT_FEATURE
CHECK 制約テーブル機能を削除できません。
最初に次の制約を削除する必要があります: <constraints>。
DELTA_CANNOT_DROP_COLLATIONS_FEATURE
照合順序テーブル機能を削除できません。
既定以外の照合順序を持つ列は、最初に UTF8_BINARY を使用するように変更する必要があります: <colNames>。
DELTA_CANNOT_DROP_DOMAIN_METADATA_FEATURE_FROM_MANAGED_ICEBERG_TABLE
domainMetadata テーブル機能を削除できません。 テーブル <name> は、マネージド Apache Iceberg テーブルです。 DomainMetadata は、マネージド Apache Iceberg テーブルから削除できません。
デルタで地理空間機能を削除することはできません。
地理空間テーブル機能を削除できません。 geometry/geography 型を使用してテーブルまたはドロップ列を再作成します。 <colNames> して、もう一度やり直してください。
DELTA_CANNOT_DROP_VARIANT_FEATURE
DROP FEATURE <feature> が失敗しました。 バリアント テーブル機能を削除できません。 バリアント型の列は、最初に削除する必要があります: <colNames>。
DELTA_CANNOT_EVALUATE_EXPRESSION
式を評価できません: <expression>。
DELTA_CANNOT_FIND_BUCKET_SPEC
バケットの Delta テーブルが必要でしたが、テーブルの中にバケットの仕様が見つかりません。
DELTA_CANNOT_GENERATE_CODE_FOR_EXPRESSION
式のコードを生成できません: <expression>。
DELTA_CANNOT_MODIFY_APPEND_ONLY
このテーブルは、追加のみを許可するように構成されています。 更新または削除を許可する場合は、'ALTER TABLE <table_name> SET TBLPROPERTIES (<config>=false)' を使用します。
DELTA_CANNOT_MODIFY_CATALOG_OWNED_DEPENDENCIES
このテーブルはカタログ所有であるため、コミット内タイムスタンプ テーブルのプロパティをオーバーライドまたは設定解除できません。
TBLPROPERTIES句から "delta.enableInCommitTimestamps"、"delta.inCommitTimestampEnablementVersion"、および "delta.inCommitTimestampEnablementTimestamp" を削除し、コマンドを再試行します。
DELTA_CANNOT_MODIFY_COORDINATED_COMMITS_DEPENDENCIES
<Command> は、このテーブルで連携したコミットが有効になっており、それに依存しているため、コミット中のタイムスタンプテーブルのプロパティをオーバーライドまたは解除することができません。
TBLPROPERTIES句から ("delta.enableInCommitTimestamps"、"delta.inCommitTimestampEnablementVersion"、"delta.inCommitTimestampEnablementTimestamp") を削除してから、もう一度コマンドを再試行してください。
DELTA_CANNOT_MODIFY_TABLE_PROPERTY
Delta テーブル構成 <prop> をユーザーが指定することはできません。
DELTA_CANNOT_OVERRIDE_COORDINATED_COMMITS_CONFS
<Command> は、既存のターゲット テーブルの調整されたコミット構成をオーバーライドできません。
TBLPROPERTIES 句からこれら ("delta.coordinatedCommits.commitCoordinator-preview"、 "delta.coordinatedCommits.commitCoordinatorConf-preview"、"delta.coordinatedCommits.tableConf-preview") を削除してから、コマンドを再試行してください。
DELTA_CANNOT_RECONSTRUCT_PATH_FROM_URI
相対パスに変換できない URI (<uri>) がトランザクション ログで見つかりました。
DELTA_CANNOT_RELATIVIZE_PATH
で見つかった現在の入力と相対化できないパス (<path>)
トランザクション ログ。 これを次のように再実行してください。
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<userPath>", true)
次に、次のコマンドも実行します。
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<path>")
DELTA_CANNOT_RENAME_PATH
<currentPath>の名前を <newPath> に変更することはできません。
DELTA_CANNOT_REPLACE_MISSING_TABLE
テーブル <tableName> は存在しないため、置き換えることはできません。
CREATE OR REPLACE TABLE を使用してテーブルを作成します。
DELTA_CANNOT_RESOLVE_CLUSTERING_COLUMN
予期しないエラーが発生したため、<columnName>のクラスタリング列<schema>を解決できません。 ... ALTER TABLE...CLUSTER BY 実行します。デルタ クラスタリング メタデータを修復します。
DELTA_CANNOT_RESOLVE_COLUMN
<columnName> で列 <schema> を解決できません
DELTA_CANNOT_RESTORE_TABLE_VERSION
テーブルをバージョン <version>に復元できません。 使用可能なバージョン: [<startVersion>, <endVersion>]。
DELTA_CANNOT_RESTORE_TIMESTAMP_EARLIER
使用可能な最も古いバージョンより前であるため、テーブルをタイムスタンプ (<requestedTimestamp>) に復元できません。 (<earliestTimestamp>) の後にタイムスタンプを使用してください。
DELTA_CANNOT_RESTORE_TIMESTAMP_GREATER
使用可能な最新バージョンより後であるため、テーブルをタイムスタンプ (<requestedTimestamp>) に復元できません。 (<latestTimestamp>) 前にタイムスタンプを使用してください。
DELTA_CANNOT_SET_COORDINATED_COMMITS_DEPENDENCIES
<Command> は、コミット内タイムスタンプ テーブルのプロパティを調整されたコミットと共に設定することはできません。後者は前者に依存し、前者を内部的に設定するためです。
TBLPROPERTIES句から ("delta.enableInCommitTimestamps"、"delta.inCommitTimestampEnablementVersion"、"delta.inCommitTimestampEnablementTimestamp") を削除してから、もう一度コマンドを再試行してください。
DELTA_CANNOT_SET_LOCATION_ON_PATH_IDENTIFIER
パス ベースのテーブルの場所を変更できません。
DELTA_CANNOT_SET_MANAGED_STATS_COLUMNS_PROPERTY
Lakeflow 以外の Spark 宣言パイプライン テーブルに delta.managedDataSkippingStatsColumns を設定できません。
DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_COMMAND
コミット コーディネーターとして 'unity-catalog' を有効にすると、コマンドから構成 "<configuration>" を設定できません。
TBLPROPERTIES 句から削除してから、もう一度コマンドを再試行してください。
DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_SESSION
コミット コーディネーターとして 'unity-catalog' を有効にする場合、SparkSession 構成から構成 "<configuration>" を設定することはできません。
spark.conf.unset("<configuration>") を実行して設定を解除してから、もう一度コマンドを再試行してください。
DELTA_CANNOT_UNSET_COORDINATED_COMMITS_CONFS
ALTER は、調整されたコミット構成の設定を解除できません。 調整されたコミットからテーブルをダウングレードするには、 ALTER TABLE [table-name] DROP FEATURE 'coordinatedCommits-preview'を使用してもう一度やり直してください。
DELTA_CANNOT_UPDATE_ARRAY_FIELD
型 <tableName> フィールド <fieldName> 更新できません。 <fieldName>.elementを更新して要素を更新します。
DELTA_CANNOT_UPDATE_MAP_FIELD
型 <tableName> フィールド <fieldName> 更新できません。 <fieldName>.key または <fieldName>.valueを更新してマップを更新します。
DELTA_CANNOT_UPDATE_OTHER_FIELD
<tableName>型<typeName>フィールドを更新できません。
DELTA_CANNOT_UPDATE_STRUCT_FIELD
<tableName>フィールド<fieldName>型を更新できません。フィールドを追加、削除、または更新して構造体を更新してください。
DELTA_CANNOT_USE_ALL_COLUMNS_FOR_PARTITION
パーティション列にすべての列を使用することはできません。
DELTA_CANNOT_VACUUM_LITE
一部のファイルはデルタ ログによって参照されないため、VACUUM LITE はすべての対象ファイルを削除できません。
VACUUM FULL実行してください。
DELTA_CANNOT_WRITE_INTO_VIEW
<table> はビューです。 ビューへの書き込みはサポートされていません。
DELTA_CAST_OVERFLOW_IN_TABLE_WRITE
オーバーフローが発生したため、<sourceType> 型の値を <targetType> 型の列 <columnName> に書き込めませんでした。
入力値に try_cast を使用してオーバーフローを許容し、代わりに NULL を返します。
必要に応じて、<storeAssignmentPolicyFlag>を "LEGACY" に設定してこのエラーをバイパスするか、<updateAndMergeCastingFollowsAnsiEnabledFlag>を true に設定して古い動作に戻し、<ansiEnabledFlag>とUPDATEのMERGEに従います。
DELTA_CATALOG_MANAGED_TABLE_UPGRADE_OR_DOWNGRADE_NOT_SUPPORTED
カタログ管理テーブルのアップグレードまたはダウングレードはサポートされていません。 代わりに、目的のテーブル機能を使用して新しいテーブルを作成します。
DELTA_CATALOG_MANAGED_TABLE_UPGRADE_WITH_OTHER_PROPERTIES
テーブル <tableName> のアップグレードを、他のプロパティの変更とカタログ管理に組み合わせることはできません。
提供されるプロパティ: <properties>。
DELTA_CDC_NOT_ALLOWED_IN_THIS_VERSION
構成 delta.enableChangeDataFeed を設定できません。 Deltaからの変更データフィードはまだ利用できません。
DELTA_CDC_READ_NULL_RANGE_BOUNDARY
CDC 読み取り開始/終了パラメーターを null にすることはできません。 有効なバージョンまたはタイムスタンプを指定してください。
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_DATA_SCHEMA
互換性のないデータ スキーマのため、バージョン <start> と <end> の間でテーブルの変更を取得できませんでした。
読み取りスキーマはバージョン <readSchema>で <readVersion> されていますが、バージョン <incompatibleVersion>で互換性のないデータ スキーマが見つかりました。
可能であれば、 <config> を endVersion に設定して、エンド バージョンのスキーマを使用してテーブルの変更を取得するか、サポートにお問い合わせください。
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE
互換性のないスキーマの変更のため、バージョン <start> と <end> の間でテーブルの変更を取得できませんでした。
読み取りスキーマはバージョン <readSchema>で <readVersion> されていますが、バージョン <incompatibleVersion>で互換性のないスキーマの変更が見つかりました。
可能であれば、バージョン <start> から <incompatibleVersion> - 1、およびバージョン <incompatibleVersion> から <end>に対して、テーブルの変更を個別に照会してください。
DELTA_CHANGE_DATA_FILE_NOT_FOUND
トランザクション ログで参照 <filePath> ファイルが見つかりません。 これは、テーブル DELETE ステートメントを使用するのではなく、ファイル システムからデータが手動で削除された場合に発生する可能性があります。 この要求は変更データ フィードを対象としているように見えます。その場合、このエラーは、変更データ ファイルが保持期間を過ぎると発生し、VACUUM ステートメントによって削除された場合に発生する可能性があります。 詳細については、<faqPath> を参照してください。
DELTA_CHANGE_TABLE_FEED_DISABLED
delta.enableChangeDataFeed が設定されたテーブルに書き込めません。 デルタからのデータフィード変更は利用できません。
DELTA_CHECKPOINT_NON_EXIST_TABLE
存在しないテーブル <path> に対してチェックポイントを実行することはできません。 _delta_log ディレクトリ内のファイルを手動で削除しましたか?
DELTA_CLONE_AMBIGUOUS_TARGET
CLONE ターゲットとして 2 つのパスが提供されているため、どちらを使用するかはあいまいです。 外部
CLONE に対するもの) が次のパスと同時に <externalLocation> に指定されました:
<targetIdentifier>。
DELTA_CLONE_INCOMPATIBLE_SOURCE
複製ソースには有効な形式がありますが、Delta ではサポートされていない機能があります。
詳細については、DELTA_CLONE_INCOMPATIBLE_SOURCEを参照してください。
DELTA_CLONE_INCOMPLETE_FILE_COPY
ファイル (<fileName>) が完全にコピーされていません。 予想されるファイルサイズ:<expectedSize>、見つかったファイルサイズ:<actualSize>。 ファイル サイズチェックを無視して操作を続行するには、<config> false に設定します。
DELTA_CLONE_UNSUPPORTED_SOURCE
サポートされていない <mode> 複製ソース '<name>'。形式は <format> です。
サポートされている形式は、'delta'、'Apache Iceberg'、'parquet' です。
DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_SOURCE
サポートされていないソース テーブル:
詳細については、DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_SOURCE を参照してください
DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_TARGET
サポートされていないターゲット テーブル:
詳細については、DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_TARGET を参照してください
DELTA_CLONE_WITH_ROW_TRACKING_WITHOUT_STATS
統計がなく、行追跡が有効になっているテーブルを浅く複製することはできません。
行の追跡を有効にする場合は、まず次を実行してソース テーブルの統計を収集する必要があります。
ANALYZE TABLE テーブル名 COMPUTE DELTA STATISTICS
DELTA_CLUSTERING_CLONE_TABLE_NOT_SUPPORTED
CLONE は、DBR バージョン < 14.0 の Liquid クラスタリングを使用するデルタ テーブルではサポートされていません。
DELTA_CLUSTERING_COLUMNS_DATATYPE_NOT_SUPPORTED
CLUSTER BY は、次の列ではサポートされていません。 <columnsWithDataTypes> はデータスキップをサポートしていません。
DELTA_CLUSTERING_COLUMNS_MISMATCH
指定されたクラスタリング列が既存のテーブルと一致しません。
指定されたもの:
<providedClusteringColumns>既存のもの:
<existingClusteringColumns>
DELTA_CLUSTERING_COLUMN_MISSING_STATS
液体クラスタリングでは、クラスタリング列に統計が必要です。統計スキーマでクラスタリング列 '<columns>' が見つかりませんでした:
<schema>
DELTA_CLUSTERING_CREATE_EXTERNAL_NON_LIQUID_TABLE_FROM_LIQUID_TABLE
リキッド クラスタリングを使用したテーブル ディレクトリからリキッド クラスタリングなしの外部テーブルを作成することはできません。パス: <path>。
DELTA_CLUSTERING_NOT_SUPPORTED
'<operation>' はクラスタリングをサポートしていません。
DELTA_CLUSTERING_PHASE_OUT_FAILED
<phaseOutType>テーブル機能を使用してテーブルの<tableFeatureToAdd>を完了できません(理由: <reason>)。
OPTIMIZE コマンドをもう一度試してください。
== エラー ==
<error>
DELTA_CLUSTERING_REPLACE_TABLE_WITH_PARTITIONED_TABLE
リキッド クラスタリングを使用して Delta テーブルからパーティション テーブルに REPLACE を行うことはできません。
DELTA_CLUSTERING_SHOW_CREATE_TABLE_WITHOUT_CLUSTERING_COLUMNS
SHOW CREATE TABLE は、クラスター化列のない Liquid クラスタリングを使用する Delta テーブルではサポートされていません。
DELTA_CLUSTERING_TO_PARTITIONED_TABLE_WITH_NON_EMPTY_CLUSTERING_COLUMNS
既存のテーブルに空でないクラスタリング列がある場合、Liquid クラスタリングを含む Delta テーブルをパーティション テーブルに切り替える操作 (<operation>) は許可されません。
最初にクラスタリング列を削除するには、ALTER TABLE CLUSTER BY NONE を実行してください。
DELTA_CLUSTERING_WITH_DYNAMIC_PARTITION_OVERWRITE
Liquid クラスタリングを使用する Delta テーブルでは、動的パーティション上書きモードは許可されません。
DELTA_CLUSTERING_WITH_PARTITION_PREDICATE
OPTIMIZE Liquid クラスタリングを使用する Delta テーブルのコマンドでは、パーティション述語はサポートされていません。 述語 <predicates> を削除してください。
DELTA_CLUSTERING_WITH_ZORDER_BY
Liquid クラスタリングを使用するデルタ テーブルの OPTIMIZE コマンドでは、ZORDER BYを指定できません。
ZORDER BY (<zOrderBy>)を削除してください。
DELTA_CLUSTER_BY_AUTO_MISMATCH
指定された clusterByAuto 値が既存のテーブルの値と一致しません。
DELTA_CLUSTER_BY_INVALID_NUM_COLUMNS
Liquid クラスタリングの CLUSTER BY では、最大 <numColumnsLimit> のクラスタリング列がサポートされますが、テーブルには <actualNumColumns> クラスタリング列があります。 追加のクラスタリング列を削除してください。
DELTA_CLUSTER_BY_SCHEMA_NOT_PROVIDED
スキーマが定義されていない場合、CLUSTER BY を指定することはできません。 テーブル <tableName>のスキーマを定義してください。
DELTA_CLUSTER_BY_WITH_BUCKETING
クラスタリングとバケットの両方を指定することはできません。 クラスタリングを使用して Delta テーブルを作成する場合は、CLUSTERED BY INTO BUCKETS/bucketBy を削除してください。
DELTA_CLUSTER_BY_WITH_PARTITIONED_BY
クラスタリングとパーティション分割の両方を指定することはできません。 クラスタリングを伴うデルタテーブルを作成する場合は、PARTITIONED BY、partitionBy、または partitionedBy を削除してください。
DELTA_COLLATIONS_NOT_SUPPORTED
照合順序は Delta レイクではサポートされません。
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_PARTITIONED_COLUMN
パーティション列 '<column>' では、データのスキップはサポートされていません。
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_TYPE
データスキップは、<column>型の列 '<type>' ではサポートされていません。
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET
列マッピングが有効なテーブルでは、最大列 ID プロパティ (<prop>) が設定されていません。
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET_CORRECTLY
列マッピングが有効なテーブルの最大列 ID プロパティ (<prop>) が <tableMax>されています。これは、すべてのフィールドの最大列 ID (<fieldMax>) よりも小さくすることはできません。
DELTA_COLUMN_MISSING_DATA_TYPE
<colName> 列のデータ型が指定されませんでした。
DELTA_COLUMN_NOT_FOUND
[<columnName>]に指定された<columnList>列が見つかりません。
DELTA_COLUMN_NOT_FOUND_IN_MERGE
<targetCol>列からターゲット テーブルの列 'INSERT' が見つかりません: <colNames>。
INSERT 句では、ターゲット テーブルのすべての列の値を指定する必要があります。
DELTA_COLUMN_NOT_FOUND_IN_SCHEMA
次において列 <columnName> が見つかりませんでした:
<tableSchema>
DELTA_COLUMN_PATH_NOT_NESTED
入れ子になったデータ型 <columnPath> 想定されていますが、<other>見つかりました。 次のものを探していました:
入れ子になったフィールド内の <column> のインデックス。
Schema:
<schema>
DELTA_COLUMN_STRUCT_TYPE_MISMATCH
構造体列 <source> は、<targetType>の <targetField> フィールド <targetTable> に挿入できません。
DELTA_COMMIT_INTERMEDIATE_REDIRECT_STATE
リダイレクト テーブル状態 '<state>' 内でテーブルのコミットを処理できません。
DELTA_COMPACTION_VALIDATION_FAILED
パス <compactedPath> から <newPath> への圧縮の検証に失敗しました。バグレポートを提出してください。
DELTA_COMPLEX_TYPE_COLUMN_CONTAINS_NULL_TYPE
<columName> の列 <dataType> に入れ子になった NullType が見つかりました。 Delta では、複合型での NullType の書き込みはサポートされていません。
DELTA_CONCURRENT_APPEND
ConcurrentAppendException: 同時更新によってファイルが <partition> に追加されました。 <retryMsg> <conflictingCommit>
詳細については、<docLink> を参照してください。
DELTA_CONCURRENT_DELETE_DELETE
ConcurrentDeleteDeleteException: このトランザクションは、同時更新によって削除された 1 つ以上のファイル (たとえば、<file>) を削除しようとしました。 操作をもう一度お試しください。<conflictingCommit>
詳細については、<docLink> を参照してください。
DELTA_CONCURRENT_DELETE_READ
ConcurrentDeleteReadException: このトランザクションは、同時更新によって削除された 1 つ以上のファイル (<file>など) を読み取ろうとしました。 操作をもう一度お試しください。<conflictingCommit>
詳細については、<docLink> を参照してください。
DELTA_CONCURRENT_TRANSACTION
ConcurrentTransactionException: このエラーは、複数のストリーミング クエリで同じチェックポイントを使用してこのテーブルに書き込む場合に発生します。 同じストリーミング クエリの複数のインスタンスを同時に実行しましたか?<conflictingCommit>
詳細については、<docLink> を参照してください。
DELTA_CONCURRENT_WRITE
ConcurrentWriteException: 同時実行トランザクションは、現在のトランザクションがテーブルを読み取ってから新しいデータを書き込みました。 操作をもう一度お試しください。<conflictingCommit>
詳細については、<docLink> を参照してください。
DELTA_CONFLICT_SET_COLUMN
SET 列 <columnList> との競合があります。
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_COMMAND
<command>中は、コマンドから構成 "<configuration>" を設定できません。
TBLPROPERTIES 句から削除してから、もう一度コマンドを再試行してください。
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_SESSION
<command>中に、SparkSession 構成から構成 "<configuration>" を設定することはできません。
spark.conf.unset("<configuration>") を実行して設定を解除してから、もう一度コマンドを再試行してください。
DELTA_CONSTRAINT_ALREADY_EXISTS
制約 '<constraintName>' は既に存在します。 最初に古い制約を削除してください。
古い制約:
<oldConstraint>
DELTA_CONSTRAINT_DATA_TYPE_MISMATCH
列 <columnName> にはデータ型 <columnType> があり、この列は次の check 制約によって参照されるため、データ型 <dataType> に変更することはできません。
<constraints>
DELTA_CONSTRAINT_DEPENDENT_COLUMN_CHANGE
この列は次の check 制約によって参照されるため、列 <columnName> を変更できません。
<constraints>
DELTA_CONSTRAINT_DOES_NOT_EXIST
テーブル <constraintName>から存在しない制約 <tableName> を削除することはできません。 エラーを避けるには、パラメーター IF EXISTS を指定するか、SQL セッション構成 <config> を <confValue>に設定してください。
DELTA_CONVERSION_MERGE_ON_READ_NOT_SUPPORTED
Merge-On-Read <format> テーブルの変換はサポートされていません。 <path>, <hint>
DELTA_CONVERSION_NO_PARTITION_FOUND
テーブル <tableName>のカタログにパーティション情報が見つかりませんでした。 テーブルで "MSCK REPAIR TABLE" を実行してパーティションを検出しましたか?
DELTA_CONVERSION_UNSUPPORTED_COLLATED_PARTITION_COLUMN
照合されたパーティション列 <colName> を持つ Parquet テーブルを Delta に変換できません。
DELTA_CONVERSION_UNSUPPORTED_COLUMN_MAPPING
TO を使用する場合、構成 '' をに設定することはできません。
DELTA_CONVERSION_UNSUPPORTED_SCHEMA_CHANGE
<format> テーブルでサポートされていないスキーマの変更が見つかりました:<path>, <hint>
DELTA_CONVERT_NON_PARQUET_TABLE
CONVERT TO DELTA では parquet テーブルのみがサポートされていますが、<sourceName> のソース <tableId> の変換を試みようとしています。
DELTA_CONVERT_TO_DELTA_ROW_TRACKING_WITHOUT_STATS
統計を収集せずに行の追跡を有効にすることはできません。
行の追跡を有効にする場合は、次の操作を行います。
- コマンドを実行して統計収集を有効にする
SET <statisticsCollectionPropertyKey> = 真
- NO
CONVERTオプションを指定せずに、DELTATOSTATISTICSを実行します。
統計を収集しない場合は、行の追跡を無効にします。
- 次のコマンドを実行して、テーブル機能を既定で有効にすることを非アクティブ化します。
RESET <rowTrackingTableFeatureDefaultKey>
- 次を実行して、既定で table プロパティを非アクティブ化します。
SET <rowTrackingDefaultPropertyKey> = 偽
DELTA_COPY_INTO_TARGET_FORMAT
ターゲット COPY INTO デルタ テーブルである必要があります。
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_SCHEMA
外部テーブルを作成しようとしている <tableName>
という外部テーブルを <path> から作成しようとしていますが、
入力パスが空です。
Delta の詳細については、<docLink> を参照してください。
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_TXN_LOG
Delta を使用して<tableName>から外部テーブル<path>を作成しようとしていますが、<logPath>にトランザクション ログが存在しません。 アップストリーム ジョブを調べて、format("delta") を使用して書き込み中であり、パスがテーブルのルートであることを確認します。
Delta の詳細については、<docLink> を参照してください。
DELTA_CREATE_TABLE_IDENTIFIER_LOCATION_MISMATCH
別の場所を持つパスベースの Delta テーブルの作成はサポートされていません。 識別子: <identifier>、場所: <location>。
DELTA_CREATE_TABLE_MISSING_TABLE_NAME_OR_LOCATION
テーブル名または場所を指定する必要があります。
DELTA_CREATE_TABLE_SCHEME_MISMATCH
指定したスキーマが、<path>の既存のスキーマと一致しません。
== 指定 ==
<specifiedSchema>
== 既存 ==
<existingSchema>
== Differences ==
<schemaDifferences>
既存のスキーマを保持することを意図している場合は、次のコードを省略できます。
create table コマンドのスキーマ。 それ以外の場合は、スキーマが一致していることを
スキーマが一致します。
DELTA_CREATE_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
<tableFeature>を使用 TBLPROPERTIES テーブル機能を有効にすることはできません。
CREATE OR REPLACE TABLE CLUSTER BY を使用して、クラスタリングを使用して Delta テーブルを作成してください。
DELTA_CREATE_TABLE_WITH_DIFFERENT_CLUSTERING
指定したクラスタリング列が、<path>の既存のクラスタリング列と一致しません。
== 指定 ==
<specifiedColumns>
== 既存 ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PARTITIONING
指定したパーティション分割が、<path>の既存のパーティション分割と一致しません。
== 指定 ==
<specifiedColumns>
== 既存 ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PROPERTY
指定したプロパティが、<path>の既存のプロパティと一致しません。
== 指定 ==
<specifiedProperties>
== 既存 ==
<existingProperties>
DELTA_CREATE_TABLE_WITH_NON_EMPTY_LOCATION
テーブル ('<tableId>') を作成できません。 関連付けられている場所 ('<tableLocation>') は空ではなく、Delta テーブルでもない。
DELTA_DATA_CHANGE_FALSE
'dataChange' オプションが false に設定されているため、テーブルメタデータを変更できません。 試行された操作: '<op>'。
DELTA_DELETED_PARQUET_FILE_NOT_FOUND
トランザクション ログで参照 <filePath> ファイルが見つかりません。 この Parquet ファイルは、Delta のデータ保持ポリシーで削除される可能性があります。
既定の Delta データ保持期間: <logRetentionPeriod>。 Parquet ファイルの変更時刻: <modificationTime>。 Parquet ファイルの削除時刻: <deletionTime>。 デルタバージョンで削除: <deletionVersion>。
DELTA_DELETION_VECTOR_MISSING_NUM_RECORDS
numRecords 統計が欠落している削除ベクトルを持つファイルをコミットすることは無効です。
DELTA_DISABLE_SOURCE_MATERIALIZATION_IN_INSERT_REPLACE_ON_OR_USING_NOT_ALLOWED
'spark.databricks.delta.insertReplaceOnOrUsing.materializeSource' オプションを 'none' に設定することにより、INSERT REPLACE ON/USING でソースの具体化を無効化することはできません。
DELTA_DISABLE_SOURCE_MATERIALIZATION_IN_MERGE_NOT_ALLOWED
'spark.databricks.delta.merge.materializeSource' を 'none' に設定することによって MERGE でソースの具体化を無効にすることはできません。
DELTA_DOMAIN_METADATA_NOT_SUPPORTED
ドメイン <domainNames>の DomainMetadata アクションが検出されましたが、DomainMetadataTableFeature が有効になっていません。
DELTA_DROP_COLUMN_AT_INDEX_LESS_THAN_ZERO
列を削除するインデックス <columnIndex> が 0 未満です。
DELTA_DROP_COLUMN_ON_SINGLE_FIELD_SCHEMA
1 つの列を持つスキーマから列を削除することはできません。 Schema:
<schema>
DELTA_DUPLICATE_ACTIONS_FOUND
パス <actionType>のファイル操作 '<path>' が複数回指定されました。
<conflictingPath>と競合しています。
同じパスを持つ複数のファイル操作が 1 つのコミットに存在する場合は無効です。
DELTA_DUPLICATE_COLUMNS_FOUND
重複する列が見つかりました <coltype>: <duplicateCols>。
DELTA_DUPLICATE_COLUMNS_ON_INSERT
INSERT句の列名が重複しています。
DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE
<message>
テーブルを更新する前に、重複する列を削除してください。
DELTA_DUPLICATE_DATA_SKIPPING_COLUMNS
重複データをスキップする列が見つかりました: <columns>。
DELTA_DUPLICATE_DOMAIN_METADATA_INTERNAL_ERROR
内部エラー: 同じトランザクション内の 2 つの DomainMetadata アクションに同じドメイン <domainName>があります。
重複したログエントリが見つかりました
デルタ ログは無効な状態です。 <numDuplicates> パスには、バージョン <version>のエントリが重複しています。
RESTORE 複製を導入したコミットの前のバージョンに移行するか、サポートにお問い合わせください。
DELTA_DV_HISTOGRAM_DESERIALIZATON
テーブルの整合性検証中に、削除されたレコード数ヒストグラムを逆シリアル化できませんでした。
DELTA_DYNAMIC_PARTITION_OVERWRITE_DISABLED
動的パーティション上書きモードは、セッション構成または書き込みオプションによって指定されますが、spark.databricks.delta.dynamicPartitionOverwrite.enabled=falseによって無効になります。
DELTA_EMPTY_DATA
Delta テーブルの作成に使用されるデータには列がありません。
DELTA_EMPTY_DIRECTORY
ディレクトリにファイルが見つかりません: <directory>。
DELTA_EXCEED_CHAR_VARCHAR_LIMIT
値 "<value>" が char/varchar 型の長さの制限を超えています。 失敗した検査: <expr>。
デルタ_外部_メタデータ_未解決_投影
プロジェクション クエリ '<query>' はスキーマで解決できません。 <schemaTreeString>
DELTA外部メタデータ_非対応ソース
外部メタデータでは、ソースはサポートされていません。
詳細については、DELTA_EXTERNAL_METADATA_UNSUPPORTED_SOURCEを参照してください。
DELTA_FAILED_CAST_PARTITION_VALUE
パーティション値 <value> を <dataType>にキャストできませんでした。
DELTA_FAILED_FIND_ATTRIBUTE_IN_OUTPUT_COLUMNS
既存のターゲット出力<newAttributeName>の<targetOutputColumns>が見つかりませんでした。
DELTA_FAILED_INFER_SCHEMA
指定されたファイルの一覧からスキーマを推論できませんでした。
DELTA_FAILED_MERGE_SCHEMA_FILE
ファイル <file>のスキーマをマージできませんでした:
<schema>
DELTA_FAILED_OPERATION_ON_SHALLOW_CLONE
浅い複製<sourceTable>がまだ存在し、浅いクローンで次のエラーが発生したため、ソース テーブル <targetTable>で操作を実行できませんでした。<message>
DELTA_FAILED_READ_FILE_FOOTER
ファイルのフッターを読み取れませんでした: <currentFile>。
DELTA_FAILED_RECOGNIZE_PREDICATE
述語 '<predicate>' を認識できません。
DELTA_FAILED_SCAN_WITH_HISTORICAL_VERSION
最新バージョンの Delta ソースのフル スキャンが必要ですが、バージョン <historicalVersion>の履歴スキャンが見つかりました。
DELTA_FAILED_TO_MERGE_FIELDS
フィールド '<currentField>' と '<updateField>' をマージできませんでした。
DELTA_FEATURES_PROTOCOL_METADATA_MISMATCH
次のテーブル機能はメタデータで有効になっていますが、プロトコルには記載されていないため、このテーブルを操作できません: <features>。
DELTA_FEATURES_REQUIRE_MANUAL_ENABLEMENT
テーブル スキーマでは、次のテーブル機能を手動で有効にする必要があります。<unsupportedFeatures>。
これを行うには、上記の各機能に対して次のコマンドを実行します。
ALTER TABLE table_name SET TBLPROPERTIES ('delta.feature.feature_name' = 'supported')
"table_name" と "feature_name" を実際の値に置き換えます。
現在サポートされている機能: <supportedFeatures>。
DELTA_FEATURE_CAN_ONLY_DROP_CHECKPOINT_PROTECTION_WITH_HISTORY_TRUNCATION
チェックポイント保護機能を削除できませんでした。
この機能は、履歴を切り捨てることによってのみ削除できます。
TRUNCATE HISTORY オプションを使用して、もう一度やり直してください。
ALTER TABLE テーブル名 DROP FEATURE チェックポイント保護 TRUNCATE HISTORY
DELTA_FEATURE_DROP_CHECKPOINT_FAILED
チェックポイントの作成でエラーが発生したため、<featureName> の削除に失敗しました。
後でもう一度やり直してください。 問題が解決しない場合は、Databricks サポートにお問い合わせください。
DELTA_FEATURE_DROP_CHECKPOINT_PROTECTION_WAIT_FOR_RETENTION_PERIOD
削除された機能のトレースが残っているため、操作が成功しませんでした
操作が正常に完了しませんでした。 CheckpointProtection は、これらの履歴まで削除できません。
バージョンの有効期限が切れています。
CheckpointProtection を削除するには、履歴バージョンの
有効期限が経過するのを待ってから、このコマンドをもう一度実行してください。 履歴バージョンの保持期間は次の値です。
現在、<truncateHistoryLogRetentionPeriod>するように構成されています。
DELTA_FEATURE_DROP_CONFLICT_REVALIDATION_FAIL
同時実行トランザクションによってテーブルが変更されたため、機能を削除できません。
操作をもう一度お試しください。
<concurrentCommit>
DELTA_FEATURE_DROP_DEPENDENT_FEATURE
このテーブルの他のフィーチャ (<feature>) は <dependentFeatures>によって異なるため、テーブルフィーチャ <feature> を削除できません。
それらを最初に削除してから、この機能を削除することを検討してください。
DELTA_FEATURE_DROP_FEATURE_IS_DELTA_PROPERTY
このテーブルの <property> は、テーブル機能ではなくデルタ テーブル プロパティであるため、削除できません。
DELTA_FEATURE_DROP_FEATURE_NOT_PRESENT
テーブルのプロトコルに現在存在しないため、このテーブルから <feature> を削除できません。
DELTA_FEATURE_DROP_HISTORICAL_VERSIONS_EXIST
デルタ ログには、この機能を使用する履歴バージョンが含まれているため、<feature> を削除できません。
履歴の保持期間 (<logRetentionPeriodKey>=<logRetentionPeriod>) までお待ちください
は、この機能が最後にアクティブになった後に渡されました。
または、TRUNCATE HISTORY のリテンション期間 (<truncateHistoryLogRetentionPeriod>) が期限切れになるまで待ってください
そして、次のコマンドを実行します。
ALTER TABLE テーブル名 DROP FEATURE 機能名 TRUNCATE HISTORY
DELTA_FEATURE_DROP_HISTORY_TRUNCATION_NOT_ALLOWED
特定の機能では、履歴の切り捨ては必要ありません。
DELTA_FEATURE_DROP_NONREMOVABLE_FEATURE
この機能の削除はサポートされていないため、<feature> を削除できません。
Databricks サポートにお問い合わせください。
DELTA_FEATURE_DROP_UNSUPPORTED_CLIENT_FEATURE
この Databricks バージョンではサポートされていないため、<feature> を削除できません。
より高いバージョンで Databricks を使用することを検討してください。
DELTA_FEATURE_DROP_WAIT_FOR_RETENTION_PERIOD
<feature> の削除が部分的に成功しました。
この機能は、現在のバージョンのテーブルでは使用されなくなりました。 ただし、この機能は
履歴バージョンのテーブルにまだ存在しています。 テーブル機能を削除できない
テーブル プロトコルからテーブル機能を削除できません。
プロトコルからテーブル機能を削除するには、履歴バージョンが処理されるのを待ってください。
有効期限が経過するのを待ってから、このコマンドをもう一度実行してください。 履歴バージョンの保持期間は次の値です。
現在、<logRetentionPeriodKey>=<logRetentionPeriod>として構成されています。
または、TRUNCATE HISTORY のリテンション期間 (<truncateHistoryLogRetentionPeriod>) が期限切れになるまで待ってください
そして、次のコマンドを実行します。
ALTER TABLE テーブル名 DROP FEATURE 機能名 TRUNCATE HISTORY
DELTA_FEATURE_REQUIRES_HIGHER_READER_VERSION
より高いリーダー プロトコル バージョン (現在の <feature>) が必要なため、テーブル機能 <current> を有効にできません。 テーブルのリーダー プロトコルバージョンを <required>にアップグレードするか、リーダー テーブル機能をサポートするバージョンにアップグレードすることを検討してください。 表プロトコルのバージョンの詳細については、<docLink> を参照してください。
DELTA_FEATURE_REQUIRES_HIGHER_WRITER_VERSION
より高いライター プロトコル バージョン (現在の <feature>) が必要なため、テーブル機能 <current> を有効にできません。 テーブルのライター プロトコル バージョンを <required>にアップグレードするか、ライター テーブル機能をサポートするバージョンにアップグレードすることを検討してください。 表プロトコルのバージョンの詳細については、<docLink> を参照してください。
DELTA_FILE_ALREADY_EXISTS
既存のファイル パス <path>。
DELTA_FILE_LIST_AND_PATTERN_STRING_CONFLICT
ファイル リストとパターン文字列の両方を指定できません。
DELTA_FILE_NOT_FOUND
ファイル パス <path>。
DELTA_FILE_NOT_FOUND_DETAILED
トランザクション ログで参照 <filePath> ファイルが見つかりません。 これは、テーブル DELETE ステートメントを使用するのではなく、ファイル システムからデータが手動で削除された場合に発生します。 詳細については、<faqPath> を参照してください。
DELTA_FILE_OR_DIR_NOT_FOUND
そのようなファイルまたはディレクトリはありません: <path>。
DELTA_FILE_TO_OVERWRITE_NOT_FOUND
候補ファイルの中に書き換え対象のファイル (<path>) が見つかりません。
<pathList>
DELTA_FOUND_MAP_TYPE_COLUMN
MapType が見つかりました。 MapType のキーまたは値にアクセスするには、1 つを指定します。
of:
<key> または
<value>
その後に列の名前が続きます (その列が構造体型の場合のみ)。
たとえば、mymap.key.mykey
列が基本型の場合は、mymap.keyまたは mymap.value で十分です。
Schema:
<schema>
DELTA_FSCK_CANNOT_REPAIR_DELTA_LOG
FSCK はテーブルを修復できません。 テーブルには、ログの再生を開始するための有効なチェックポイントがなく、最初のバージョンから再生するのに十分なログ履歴がありません。
DELTA_FSCK_CONCURRENT_MODIFICATION
FSCK の実行中にテーブルへの同時変更が検出されました。 FSCK コマンドを再試行し、修復プロセス中に他の操作がテーブルに書き込まれるのを確認してください。
DELTA_FSCK_DRY_RUN_CANNOT_PROCEED_WITH_INVALID_CHECKPOINTS
無効なチェックポイントが検出されたため、FSCK DRY RUN を続行できません。 チェックポイントを修復するには、最初に 'FSCK REPAIR TABLE テーブル METADATA ONLY' を実行してください。
DELTA_FSCK_DRY_RUN_CANNOT_PROCEED_WITH_MISSING_OR_INVALID_PARTITION_FILES
不足しているファイルまたは無効なパーティション値を持つファイルが検出されたため、FSCK DRY RUN を続行できません。 テーブルを修復するには、最初に 'FSCK REPAIR TABLE テーブル' を実行してください。
DELTA_FSCK_INVALID_BARRIER_CHECKPOINT
FSCK はテーブルを修復できません。 無効なチェックポイントの一部は保護されており、削除できません。 Databricks サポートにお問い合わせください。
DELTA_FSCK_NO_VALID_CHECKPOINT
FSCK はテーブルを修復できません。 このテーブルのすべてのチェックポイントが無効です。 Databricks サポートにお問い合わせください。
DELTA_GENERATED_COLUMNS_DATA_TYPE_MISMATCH
列 <columnName> にはデータ型 <columnType> があり、この列は次の生成列によって参照されるため、データ型 <dataType> に変更することはできません。
<generatedColumns>。
DELTA_GENERATED_COLUMNS_DEPENDENT_COLUMN_CHANGE
この列は次の生成された列によって参照されるため、列 <columnName> を変更できません。
<generatedColumns>。
DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH
生成された列 <columnName> の式の型は <expressionType>されていますが、列の型は <columnType>。
DELTA_GENERATED_COLUMN_UPDATE_TYPE_MISMATCH
列 <currentName> は、生成された列、または生成された列によって使用される列です。 データ型は <currentDataType> であり、データ型 <updateDataType>に変換することはできません。
DELTA_GEOSPATIAL_NOT_SUPPORTED
このバージョンの Delta Lake では、地理空間の種類はサポートされていません。
DELTA_GEOSPATIAL_SRID_NOT_SUPPORTED
地理空間型にはサポートされていないSRID: <srid>があります。 デルタ テーブルでは、負以外のスリッド値のみがサポートされます。
DELTA_ICEBERG_COMPAT_VIOLATION
IcebergCompatV<version> の検証に失敗しました。
詳細については、DELTA_ICEBERG_COMPAT_VIOLATION を参照してください
DELTA_ICEBERG_WRITER_COMPAT_VIOLATION
IcebergWriterCompatV<version> の検証に失敗しました。
詳細については、DELTA_ICEBERG_WRITER_COMPAT_VIOLATION を参照してください
DELTA_IDENTITY_COLUMNS_ALTER_COLUMN_NOT_SUPPORTED
ALTER TABLE ALTER COLUMN は、IDENTITY 列ではサポートされていません。
DELTA_IDENTITY_COLUMNS_ALTER_NON_DELTA_FORMAT
ALTER TABLE ALTER COLUMN SYNC IDENTITY は Delta でのみサポートされます。
DELTA_IDENTITY_COLUMNS_ALTER_NON_IDENTITY_COLUMN
ALTER TABLE ALTER COLUMN SYNC IDENTITY は、IDENTITY 以外の列では呼び出すことができません。
DELTA_IDENTITY_COLUMNS_EXPLICIT_INSERT_NOT_SUPPORTED
列<colName>GENERATED ALWAYS AS IDENTITY値の指定はサポートされていません。
DELTA_IDENTITY_COLUMNS_ILLEGAL_STEP
列ステップ IDENTITY 0 にすることはできません。
DELTA_IDENTITY_COLUMNS_NON_DELTA_FORMAT
IDENTITY 列は Delta でのみサポートされます。
DELTA_IDENTITY_COLUMNS_PARTITION_NOT_SUPPORTED
列 PARTITIONED BY IDENTITY<colName> はサポートされていません。
DELTA_IDENTITY_COLUMNS_REPLACE_COLUMN_NOT_SUPPORTED
ALTER TABLE REPLACE COLUMNS は、IDENTITY 列を持つテーブルではサポートされていません。
DELTA_IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE
dataType <dataType> は、IDENTITY 列ではサポートされていません。
DELTA_IDENTITY_COLUMNS_UPDATE_NOT_SUPPORTED
UPDATE 列 IDENTITY の <colName> はサポートされていません。
DELTA_IDENTITY_COLUMNS_WITH_GENERATED_EXPRESSION
IDENTITY 列は、生成された列式では指定できません。
DELTA_ILLEGAL_OPTION
オプション '<input>' の値 '<name>' が無効です。<explain>
DELTA_ILLEGAL_USAGE
Delta テーブルを <option> する場合、<operation> の使用は許可されません。
DELTA_INCONSISTENT_BUCKET_SPEC
Delta バケットテーブルの BucketSpec がメタデータからの BucketSpec と一致しません。 予想: <expected>。 実際: <actual>。
DELTA_INCONSISTENT_LOGSTORE_CONFS
(<setKeys>) を異なる値に設定することはできません。 いずれか 1 つだけを設定するか、同じ値に設定してください。
DELTA_INCORRECT_ARRAY_ACCESS
ArrayType に誤ってアクセスしています。 arrayname.element.elementname の位置を使用して、
配列に追加します。
DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME
ArrayType が見つかりました。 ArrayType の要素にアクセスするには、指定します。
<rightName>の代わりに <wrongName> します。
Schema:
<schema>
DELTA_INCORRECT_GET_CONF
getConf()の代わりに conf.getConf() を使用します。
DELTA_INCORRECT_LOG_STORE_IMPLEMENTATION
このエラーは通常、既定の LogStore の実装、つまり HDFSLogStore を使用して
は、HDFSLogStore を使用して、HDFS 以外のストレージ システム上の Delta テーブルに書き込みます。
テーブルの更新に対するトランザクション ACID の保証を取得するには、次の値を使用する必要があります。
お使いのストレージ システムに適した LogStore の正しい実装。
詳細については、<docLink> を参照してください。
DELTA_INDEX_LARGER_OR_EQUAL_THAN_STRUCT
削除する列のインデックス <index> が構造体の長さ <length> と等しいか、それ以上です。
DELTA_INDEX_LARGER_THAN_STRUCT
列<index>を追加するインデックス <columnName>が構造体の長さ (<length>) より大きい。
DELTA_INSERT_COLUMN_ARITY_MISMATCH
'<tableName>'、 <columnName>; に書き込めません。ターゲット テーブルには <numColumns> 列がありますが、挿入されたデータには <insertColumns> 列があります。
DELTA_INSERT_COLUMN_MISMATCH
列 <columnName> は、 INSERTで指定されていません。
DELTA_INSERT_REPLACE_ON_AMBIGUOUS_COLUMNS_IN_CONDITION
列の <columnNames> は、 INSERT REPLACE ONの条件であいまいです。 これらの列のエイリアスを指定することを検討してください。
挿入置換が有効になっていないデルタ
INSERT INTO
...
REPLACE ONを有効にするには、Databricks の担当者にお問い合わせください。SQL API と DataFrame API。
DELTA_INSERT_REPLACE_ON_UNRESOLVED_COLUMNS_IN_CONDITION
列の <columnNames> は、 INSERT REPLACE ONの条件では解決できません。
DELTA_INVALID_AUTO_COMPACT_TYPE
自動圧縮型 <value> は無効です。 使用できる値は、<allowed>です。
DELTA_INVALID_BUCKET_COUNT
バケット数 <invalidBucketCount> は無効です。 バケット数は、2 の累乗で 8 以上の正の数である必要があります。 代わりに <validBucketCount> を使用できます。
DELTA_INVALID_BUCKET_INDEX
パーティション列にバケット列が見つかりません。
DELTA_INVALID_CALENDAR_INTERVAL_EMPTY
間隔を null または空白にすることはできません。
DELTA_INVALID_CDC_RANGE
開始 <start> から終了 <end> までの CDC 範囲が無効でした。 終了は開始前に設定できません。
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAME
属性名 "<columnName>" の中に無効な文字が含まれています。;{}()\n\t="。 エイリアスを使用して名前を変更してください。
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAMES
' の中に無効な文字が見つかりました。;{}() スキーマの列名に \t=' を\nします。
列名 <invalidColumnNames> は無効です。
他の文字を使用して、もう一度やり直してください。
または、列マッピングを有効にして、これらの文字を使用し続けます。
DELTA_INVALID_CHECK_CONSTRAINT_REFERENCES
CHECK制約で<colName>が見つかりました。 check 制約では、存在しない列を使用できません。
DELTA_INVALID_CLONE_PATH
CLONE のターゲットの場所は、絶対パスまたはテーブル名である必要があります。 ツールを使用します。
<path>の代わりに絶対パスを指定します。
DELTA_INVALID_COLUMN_NAMES_WHEN_REMOVING_COLUMN_MAPPING
' の中に無効な文字が見つかりました。;{}() スキーマの列名に \t=' を\nします。
列名 <invalidColumnNames> は無効です。
列名に無効な文字がある場合、列マッピングを削除できません。
無効な文字を削除するには、列の名前を変更し、このコマンドをもう一度実行してください。
DELTA_INVALID_FORMAT
互換性のない形式が検出されました。
Delta のトランザクション ログが <deltaRootPath>/_delta_logで見つかりました。
しかし、format("<operation> <path>") を使用して <format> を試しています。 次を使用する必要があります
Delta テーブルに対する読み取り時および書き込み時には、'format(“delta”)’ を使用する必要があります。
Delta の詳細については、<docLink> を参照してください。
DELTA_INVALID_GENERATED_COLUMN_REFERENCES
生成された列では、存在しない列または別の生成列を使用できません。
DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS
べき等データフレーム書き込みのオプション <reason> が無効です
DELTA_INVALID_INTERVAL
<interval> は有効な INTERVALではありません。
DELTA_INVALID_INVENTORY_SCHEMA
指定した INVENTORY のスキーマには、すべての必須フィールドが含まれていません。 必須フィールド: <expectedSchema>
DELTA_INVALID_ISOLATION_LEVEL
無効な分離レベル '<isolationLevel>'。
DELTA_INVALID_LOGSTORE_CONF
(<classConfig>) と (<schemeConfig>) を同時に設定することはできません。 それらのグループを 1 つだけ設定してください。
DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA
マネージド テーブル <tableName> を作成しようとしています
Delta を使用していますが、スキーマが指定されていません。
Delta の詳細については、<docLink> を参照してください。
DELTA_INVALID_PARTITION_COLUMN
<columnName> テーブル <tableName>の有効なパーティション列ではありません。
DELTA_INVALID_PARTITION_COLUMN_NAME
" の間で無効な文字を持つパーティション列が見つかりました。;{}()\n\t="。 名前をパーティション列に変更してください。 このチェックをオフにするには、spark.conf.set("spark.databricks.delta.partitionColumnValidity.enabled", false) を設定しますが、Delta の他の機能が正しく機能しない可能性があるため、これは推奨されません。
DELTA_INVALID_PARTITION_COLUMN_TYPE
パーティション列として <name> 型の列 <dataType> を使用することはできません。
DELTA_INVALID_PARTITION_PATH
パーティション パス フラグメントは、part1=foo/part2=barのような形式である必要があります。 パーティション パス: <path>。
DELTA_INVALID_PROTOCOL_DOWNGRADE
プロトコル バージョンを (<oldProtocol>) から (<newProtocol>) にダウングレードすることはできません。
DELTA_INVALID_PROTOCOL_VERSION
サポートされていないデルタ プロトコル バージョン: テーブル "<tableNameOrPath>" にはリーダー バージョンの <readerRequired> とライター バージョンの <writerRequired>が必要ですが、このバージョンの Databricks では、リーダー バージョンの <supportedReaders> とライターバージョン <supportedWriters>がサポートされています。 新しいリリースにアップグレードしてください。
DELTA_INVALID_TABLE_VALUE_FUNCTION
関数 <function> は、CDC 読み取りでサポートされていないテーブル値関数です。
DELTA_INVALID_TIMESTAMP_FORMAT
指定されたタイムスタンプ <timestamp> が、予期される構文 <format>と一致しません。
DELTA_LOG_ALREADY_EXISTS
デルタ ログは既に <path>に存在します。
DELTA_LOG_FILE_NOT_FOUND
チェックポイント バージョン<version>から開始するテーブル バージョン<checkpointVersion>を構築するためのデルタログファイルを<logPath>で取得できません。
DELTA_LOG_FILE_NOT_FOUND_FOR_STREAMING_SOURCE
削除したことがない場合は、クエリが遅れている可能性があります。 チェックポイントを削除して最初から再起動してください。 この問題を再び防ぐために、Delta テーブルの保持ポリシーを更新します。
DELTA_LOG_JSON_FILE_ACCESS_DENIED
デルタ ログ JSON ファイルの読み取り時にアクセスが拒否されました: <filePath>。 Delta テーブルの場所に対する読み取りアクセス許可があることを確認します。
DELTA_MATERIALIZED_ROW_TRACKING_COLUMN_NAME_MISSING
具体化された <rowTrackingColumn> 列名が <tableName>に見つかりません。
DELTA_MAX_ARRAY_SIZE_EXCEEDED
Int.MaxValue - 8 未満の制限を使用してください。
DELTA_MAX_COMMIT_RETRIES_EXCEEDED
このコミットは <numAttempts> 回試行されましたが、成功しなかったため失敗しました。
これは、Delta テーブルが多数の同時実行によって継続的にコミットされていることが原因で発生する可能性があります。
commits.
バージョン<startVersion>よりコミット開始
バージョン<failVersion>でコミットに失敗しました。
コミットを試みたアクションの数: <numActions>
このコミットの試行に費やされた合計時間: <timeSpent> ミリ秒
DELTA_MAX_LIST_FILE_EXCEEDED
ファイル リストの最大エントリ数は <maxFileListSize> ですが、<numFiles> エントリありました。
DELTA_MERGE_ADD_VOID_COLUMN
VOID 型の列 <newColumn> を追加できません。 void 以外の型を明示的に指定してください。
DELTA_MERGE_INCOMPATIBLE_DATATYPE
互換性のないデータ型の <currentDataType> と <updateDataType>をマージできませんでした。
DELTA_MERGE_INCOMPATIBLE_DECIMAL_TYPE
互換性のない <decimalRanges>を持つ 10 進型をマージできませんでした。
DELTA_MERGE_MATERIALIZE_SOURCE_FAILED_REPEATEDLY
MERGE ステートメントのソースを具体化し続けることは、繰り返し失敗しました。
DELTA_MERGE_MISSING_WHEN
WHEN ステートメントには、少なくとも 1 つの MERGE 句が必要です。
DELTA_MERGE_RESOLVED_ATTRIBUTE_MISSING_FROM_INPUT
演算子 <missingAttributes> で <input> に解決された属性 <merge> がありません。
DELTA_MERGE_SOURCE_CACHED_DURING_EXECUTION
MERGE操作の実行中にソース プランがキャッシュされたため、MERGE操作が失敗しました。
DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY
予期しない割り当てキー: <unexpectedKeyClass> - <unexpectedKeyObject>。
DELTA_MERGE_UNRESOLVED_EXPRESSION
<sqlExpr> の指定された列 <clause> で <cols> を解決できません。
DELTA_METADATA_CHANGED
MetadataChangedException: Delta テーブルのメタデータは、同時更新によって変更されました。 操作をもう一度お試しください。<conflictingCommit>
詳細については、<docLink> を参照してください。
DELTA_MISSING_CHANGE_DATA
範囲 [<startVersion> , <endVersion>] の変更データを取得中に、変更データが取得されなかった場合にエラーが発生しました
バージョン [<version>] 用に記録されます。 このテーブルで変更データ フィードを有効にしている場合は、
DESCRIBE HISTORY を使用して、最初に有効にされた日時を確認します。
それ以外の場合は、変更データの記録を開始するには、 ALTER TABLE table_name SET TBLPROPERTIES
(<key>=true).
DELTA_MISSING_COLUMN
テーブル列に <columnName> が見つかりません: <columnList>。
DELTA_MISSING_COMMIT_INFO
このテーブルには、すべてのコミットに CommitInfo アクションが存在する必要がある機能 <featureName> が有効になっています。 ただし、コミット バージョン <version>には CommitInfo アクションがありません。
DELTA_MISSING_COMMIT_TIMESTAMP
このテーブルには、CommitInfo アクションに commitTimestamp が存在する必要がある機能 <featureName> が有効になっています。 ただし、このフィールドはコミット バージョン <version>で設定されていません。
DELTA_MISSING_DELTA_TABLE
<tableName> は Delta テーブルではありません。
DELTA_MISSING_DELTA_TABLE_COPY_INTO
テーブルが存在しません。 最初に CREATE TABLE <tableName>を使用して空の Delta テーブルを作成します。
DELTA_MISSING_ICEBERG_CLASS
Apache Iceberg クラスが見つかりませんでした。 Delta Apache Iceberg のサポートがインストールされていることを確認してください。
詳細については、<docLink> を参照してください。
DELTA_MISSING_NOT_NULL_COLUMN_VALUE
<columnName> 制約を持つ列 NOT NULLは、テーブルに書き込まれるデータにはありません。
DELTA_MISSING_PARTITION_COLUMN
パーティション列 <columnName> スキーマ <columnList>で見つかりません。
DELTA_MISSING_PART_FILES
チェックポイント バージョンのすべてのパーツ ファイル ( <version>) が見つかりませんでした。
DELTA_MISSING_PROVIDER_FOR_CONVERT
CONVERT TO DELTA がサポートするのは、Parquet テーブルのみです。 ターゲットを Parquet として書き換えてください。 parquet ディレクトリの場合は <path>。
DELTA_MISSING_ROW_TRACKING_FOR_CDC
行の追跡が有効になっていないため、 <tableName> の変更データを取得中にエラーが発生しました。 行の追跡を有効にするには、 ALTER TABLE table_name SET TBLPROPERTIES (<key>=true)を使用します。
DELTA_MISSING_SET_COLUMN
SET 列 <columnName> が指定された列 <columnList> に見つかりません。
DELTA_MISSING_TRANSACTION_LOG
互換性のない形式が検出されました。
Delta を使用して <operation> <path> を行おうとしていますが、
トランザクション ログが存在します。 アップストリーム ジョブを確認して、書き込み中であることを確認します
format("delta") を使用していること、およびテーブル ベース パスに %1$s を試していること。
Delta の詳細については、<docLink> を参照してください。
DELTA_MODE_NOT_SUPPORTED
指定されたモード '<mode>' はサポートされていません。 サポートされているモードは、 <supportedModes>です。
DELTA_MULTIPLE_CDC_BOUNDARY
CDC 読み取り用に複数の <startingOrEnding> 引数が指定されました。
<startingOrEnding>タイムスタンプまたは <startingOrEnding>バージョンのいずれかを指定してください。
DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER
複数のブルーム フィルターのインデックス構成が列 <columnName> のコマンドに渡されました。
DELTA_MULTIPLE_SOURCE_ROW_MATCHING_TARGET_ROW_IN_MERGE
複数のソース行が一致し、同じ行を変更しようとした場合にマージを実行できない
差分テーブル内のターゲット行が競合する可能性があります。 マージの SQL セマンティクスによって、
同じターゲット行で複数のソース行が一致する場合、結果があいまいになる可能性があります
一致するソース行を更新または削除するために使用する必要があるソース行が不明であるため
ターゲット行。 ソース テーブルを前処理して、次の可能性を排除できます。
複数の一致。 を参照してください。
<usageReference>
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_COMMAND
<command> の間、両方の調整されたコミット構成 ("delta.coordinatedCommits.commitCoordinator-preview"、"delta.coordinatedCommits.commitCoordinatorConf-preview") がコマンド内に設定されるか、あるいはどちらも設定されません。 欠落: "<configuration>"。
TBLPROPERTIES 句でこの構成を指定するか、他の構成を削除してから、もう一度コマンドを再試行してください。
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_SESSION
<command> の間、両方の調整されたコミット構成 ("delta.coordinatedCommits.commitCoordinator-preview"、"delta.coordinatedCommits.commitCoordinatorConf-preview") が SparkSession 構成内に設定されるか、あるいはどちらも設定されません。 欠落: "<configuration>"。 SparkSession でこの構成を設定するか、他の構成の設定を解除してから、もう一度コマンドを再試行してください。
DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE
次の列名は、Delta バケットテーブルの内部使用専用に予約されています: <names>。
DELTA_NESTED_FIELDS_NEED_RENAME
入力スキーマには、ターゲット テーブルとは異なる大文字の入れ子になったフィールドが含まれています。
Delta への書き込み中にこれらのフィールドのデータが失われるのを防ぐために、名前を変更する必要があります。
Fields:
<fields>。
元のスキーマ:
<schema>
DELTA_NESTED_NOT_NULL_CONSTRAINT
フィールド <nestType> の <parent> 型には、NOT NULL 制約が含まれています。 デルタは、配列またはマップ内に入れ子になった NOT NULL 制約をサポートしていません。 このエラーを抑制し、指定した制約を警告なく無視するには、<configKey> = true に設定します。
解析された <nestType> 型:
<nestedPrettyJson>
DELTA_NESTED_SUBQUERY_NOT_SUPPORTED
入れ子になったサブクエリは、<operation> 条件ではサポートされていません。
DELTA_NEW_CHECK_CONSTRAINT_VIOLATION
<numRows>
<tableName>の行が新しいCHECK制約 (<checkConstraint>) に違反しています。
DELTA_NEW_NOT_NULL_VIOLATION
<numRows>
<tableName>内の行は、NOT NULLの新しい<colName>制約に違反します。
DELTA_NON_BOOLEAN_CHECK_CONSTRAINT
CHECK 制約 '<name>' (<expr>) はブール式にする必要があります。
DELTA_NON_DETERMINISTIC_EXPRESSION_IN_CHECK_CONSTRAINT
CHECK制約で<expr>が見つかりました。
CHECK制約では、非決定的な式を使用できません。
DELTA_NON_DETERMINISTIC_EXPRESSION_IN_GENERATED_COLUMN
<expr>が見つかりました。 生成された列では、非決定的な式を使用できません。
DELTA_NON_DETERMINISTIC_FUNCTION_NOT_SUPPORTED
非決定論的関数は、 <operation> <expression>ではサポートされていません。
DELTA_NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
MATCHED ステートメントに複数の MERGE 句がある場合、最後の MATCHED 句のみが条件を省略できます。
DELTA_NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
NOT MATCHED BY SOURCE ステートメントに複数の MERGE 句がある場合、最後の NOT MATCHED BY SOURCE 句のみが条件を省略できます。
DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION
NOT MATCHED ステートメントに複数の MERGE 句がある場合、最後の NOT MATCHED 句のみが条件を省略できます。
DELTA_NON_PARSABLE_TAG
タグ <tag>を解析できませんでした。
ファイル タグは次のとおりです: <tagList>。
DELTA_NON_PARTITION_COLUMN_ABSENT
Delta に書き込まれるデータには、パーティション分割されていない列が少なくとも 1 つ含まれている必要があります。<details>
DELTA_NON_PARTITION_COLUMN_REFERENCE
述語はパーティション以外の列 '<columnName>' を参照します。 [<columnList>] というパーティション列のみを参照できます。
DELTA_NON_PARTITION_COLUMN_SPECIFIED
パーティション分割列以外の <columnList> は、パーティション分割列のみが必要な場合に指定されます:<fragment>。
DELTA_NON_SINGLE_PART_NAMESPACE_FOR_CATALOG
デルタ カタログには単一部分の名前空間が必要ですが、<identifier> はマルチパートです。
DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_COMMAND
UC マネージド テーブルではコミット コーディネーターとして 'unity-catalog' のみを使用できるため、コマンドからコミット コーディネーターを '<nonUcCoordinatorName>' に設定することはサポートされていません。 これを 'unity-catalog' に変更するか、 TBLPROPERTIES 句からすべての Coordinated Commits テーブル プロパティを削除してから、もう一度コマンドを再試行してください。
DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_SESSION
コミット コーディネーターを SparkSession 構成から '<nonUcCoordinatorName>' に設定することはサポートされていません。UC マネージド テーブルではコミット コーディネーターとして 'unity-catalog' のみを使用できるためです。
spark.conf.set("<coordinatorNameDefaultKey>", "unity-catalog")を実行してそれを 'unity-catalog' に変更するか、spark.conf.unset("<coordinatorNameDefaultKey>"), spark.conf.unset("<coordinatorConfDefaultKey>"), spark.conf.unset("<tableConfDefaultKey>")を実行して SparkSession 構成からすべての Coordinated Commits テーブル プロパティを削除してから、もう一度コマンドを再試行してください。
DELTA_NON_UC_MANAGED_TABLE_UPGRADE_OR_DOWNGRADE_NOT_SUPPORTED
テーブル <tableName> は UC で管理されていません。 カタログ管理テーブルにアップグレードまたはダウングレードできるのは、UC マネージド テーブルのみです。
DELTA_NOT_A_DATABRICKS_DELTA_TABLE
<table> は Delta テーブルではありません。 Databricks Delta を使用して作成する場合は、最初にこのテーブルを削除してください。
DELTA_NOT_A_DELTA_TABLE
<tableName> は Delta テーブルではありません。 Delta Lake で再作成する場合は、最初にこのテーブルを削除してください。
DELTA_NOT_NULL_COLUMN_NOT_FOUND_IN_STRUCT
null 許容列が構造体 <struct> に見つかりません。
DELTA_NOT_NULL_CONSTRAINT_VIOLATED
NOT NULL 制約が列 <columnName>に対して違反しました。
DELTA_NOT_NULL_NESTED_FIELD
nullを許容しない入れ子フィールドを、nullを許容する親に追加することはできません。 それに応じて、親列の null 許容値を設定してください。
DELTA_NO_COMMITS_FOUND
<logPath>でコミットが見つかりません。
DELTA_NO_RECREATABLE_HISTORY_FOUND
<logPath>で再作成可能なコミットが見つかりません。
DELTA_NO_REDIRECT_RULES_VIOLATED
操作は許可されていません:リダイレクト機能を持つテーブルに対して <operation> を実行することはできません。
リダイレクトなしのルールが満たされていない <noRedirectRules>。
DELTA_NO_RELATION_TABLE
テーブル <tableIdent> 見つかりません。
DELTA_NO_START_FOR_CDC_READ
CDC 読み取り用に startingVersion または startingTimestamp が指定されていません。
DELTA_NULL_SCHEMA_IN_STREAMING_WRITE
Delta は、ストリーミング書き込みのスキーマで NullType を受け入れられません。
DELTA_ONEOF_IN_TIMETRAVEL
タイム トラベルには、'timestampAsOf' または 'versionAsOf' を指定してください。
DELTA_ONLY_OPERATION
<operation> はデルタ テーブルでのみサポートされます。
DELTA_OPERATION_MISSING_PATH
<operation>のパスまたはテーブル識別子を指定してください。
DELTA_OPERATION_NOT_ALLOWED
操作は許可されていません:デルタ テーブルでは <operation> はサポートされていません。
DELTA_OPERATION_NOT_ALLOWED_DETAIL
操作は許可されていません:デルタ テーブルの <operation> はサポートされていません: <tableName>。
DELTA_OPERATION_NOT_SUPPORTED_FOR_COLUMN_WITH_COLLATION
既定以外の照合順序 <operation>を持つ列 <colName> では、<collation> はサポートされていません。
DELTA_OPERATION_NOT_SUPPORTED_FOR_DATATYPES
<operation> は、データ型 ( <dataTypeList>) ではサポートされていません。
DELTA_OPERATION_NOT_SUPPORTED_FOR_EXPRESSION_WITH_COLLATION
<operation> は、既定以外の照合順序を使用するため、式 <exprText> ではサポートされていません。
DELTA_OPERATION_ON_TEMP_VIEW_WITH_GENERATED_COLS_NOT_SUPPORTED
<operation> コマンドは、生成列を含む Delta テーブルを参照する一時ビューではサポートされていません。 Delta テーブルで <operation> コマンドを直接実行してください。
DELTA_OPERATION_ON_VIEW_NOT_ALLOWED
操作を許可しない: ビューに対して <operation> を実行できません。
DELTA_OPTIMIZE_FULL_NOT_SUPPORTED
OPTIMIZE FULL は、空でないクラスタリング列を持つクラスター化テーブルでのみサポートされます。
DELTA_OVERWRITE_MUST_BE_TRUE
copy オプション overwriteSchema は、 OVERWRITE = 'true' に設定しないと指定できません。
DELTA_OVERWRITE_SCHEMA_WITH_DYNAMIC_PARTITION_OVERWRITE
'overwriteSchema' は、動的パーティション上書きモードでは使用できません。
DELTA_PARTITION_COLUMN_CAST_FAILED
パーティション列の<value>の<dataType>に値<columnName>をキャストできませんでした。
DELTA_PARTITION_COLUMN_NOT_FOUND
パーティション列 <columnName> スキーマ [<schemaMap>] に見つかりません。
DELTA_PARTITION_SCHEMA_IN_ICEBERG_TABLES
Apache Iceberg テーブルを変換するときにパーティション スキーマを指定できません。 自動的に推論されます。
DELTA_PATH_BASED_ACCESS_TO_CATALOG_MANAGED_TABLE_BLOCKED
Catalog-Managed テーブル ( <path>) では、パスベースのアクセスは許可されません。 名前を使用してテーブルにアクセスし、再試行してください。
DELTA_PATH_BASED_ACCESS_TO_TABLE_BLOCKED
<path>のテーブルは Unity カタログのマネージド テーブルに移行され、パスでアクセスできなくなります。 名前でテーブルにアクセスするようにクライアントを更新します。
DELTA_PATH_DOES_NOT_EXIST
<path> が存在しないか、Delta テーブルではありません。
DELTA_PATH_EXISTS
<path> = 'true' を設定しないと、既に存在するパスOVERWRITEに書き込めません。
DELTA_POST_COMMIT_HOOK_FAILED
Delta テーブル バージョンへのコミット <version> 成功しましたが、コミット後のフック <name> <message> の実行中にエラーが発生しました
DELTA_PROTOCOL_CHANGED
ProtocolChangedException: Delta テーブルのプロトコル バージョンが同時更新によって変更されました。 <additionalInfo> <conflictingCommit>
詳細については、<docLink> を参照してください。
DELTA_PROTOCOL_PROPERTY_NOT_INT
Protocol プロパティ <key> は整数である必要があります。
<value>が見つかりました。
DELTA_READ_FEATURE_PROTOCOL_REQUIRES_WRITE
テーブル機能を使用するためにリーダー プロトコル バージョンのみをアップグレードできません。 ライター プロトコル バージョンは続行するために、少なくとも <writerVersion> である必要があります。 表プロトコルのバージョンの詳細については、<docLink> を参照してください。
DELTA_READ_TABLE_WITHOUT_COLUMNS
列のない Delta テーブル <tableName> を読み取ろうとしています。
テーブルを読み取ることができるように mergeSchema = true オプションを使用して新しいデータを書き込みます。
DELTA_READ_TIME_CDC_NOT_SUPPORTED_FOR_TABLES_WITH_ACCESS_POLICIES
アクセス ポリシーが定義されている <tableName> で Change Data Feed を計算しようとしています。 読み取り時間変更データ フィードは現在プレビュー段階であり、アクセス ポリシーを持つテーブルでの CDF はサポートされていません。 テーブルのテーブル プロパティ '<cdfTableProperty>' を 'true' に設定して、読み取り最適化 CDF を有効にします。
DELTA_REDIRECT_TARGET_ROW_FILTER_COLUMN_MASK_UNSUPPORTED
行フィルターまたは列マスクがあるテーブルへのリダイレクトはサポートされていません。 ターゲット テーブル <tableIdent> を直接参照するようにコードを更新します。
DELTA_REGEX_OPT_SYNTAX_ERROR
'<regExpOption>' の構文を再確認してください。
DELTA_RELATION_PATH_MISMATCH
リレーション パス '<relation>' が、 <targetType>のパス '<targetPath>' と一致しません。
DELTA_REORG_MATERIALIZATION_NOT_SUPPORTED_ON_UNPARTITIONED_TABLE
reorg コマンドを使用した Liquid Conversion は、パーティション分割されていないテーブルではサポートされていません。
DELTA_REORG_PARTITION_MATERIALIZATION_CONFLICT
パーティション列を <action> できません。
<instruction> テーブル プロパティ '<tableProperty>' を <value> に設定するか、SQL 構成 '<sqlConfig>' を <value> に設定して、パーティション列の具体化を行います。
DELTA_REORG_UNKNOWN_MODE
不明な REORG TABLE モード: <mode>。
DELTA_REPLACE_WHERE_IN_OVERWRITE
replaceWhere をフィルターによる上書きと組み合わせて使用することはできません。
DELTA_REPLACE_WHERE_MISMATCH
書き込まれたデータは、テーブルの部分的な上書き条件または制約 '<replaceWhere>' に準拠していません。
<message>
DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE
'replaceWhere' 式と 'partitionOverwriteMode'='dynamic' の両方を DataFrameWriter オプションで設定することはできません。
DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET
'dataChange' が false に設定されている場合、'replaceWhere' をデータ フィルターと共に使用することはできません。 フィルター: <dataFilters>。
DELTA_ROW_ID_ASSIGNMENT_WITHOUT_STATS
行数統計なしで行 ID を割り当てることはできません。
ANALYZE TABLE コマンドを実行して、テーブルの統計を収集します。
ANALYZE TABLE tableName COMPUTE DELTA STATISTICS
DELTA_ROW_TRACKING_BACKFILL_RUNNING_CONCURRENTLY_WITH_UNBACKFILL
行追跡の無効化と同時に実行されている行追跡の有効化操作が検出されました。 無効化処理の中止。 有効化操作が完了したら、必要に応じて無効化操作を再試行してください。
DELTA_ROW_TRACKING_ILLEGAL_PROPERTY_COMBINATION
不正なテーブルの状態が検出されました。 テーブルのプロパティ <property1> と <property2> の両方が true に設定されます。 この問題は、2 つのテーブル プロパティのいずれかを無効にすることで解決できます。
詳細については、Databricks サポートにお問い合わせください。
DELTA_SCHEMA_CHANGED
検出されたスキーマの変更:
ストリーミング ソース スキーマ: <readSchema>
データ ファイル スキーマ: <dataSchema>
クエリを再起動してみてください。 この問題がクエリの再起動間で繰り返され、
進捗している中で、互換性のないスキーマ変更を行ってしまったため、作業をやり直す必要があります。
新しいチェックポイント ディレクトリを使用して最初からクエリを実行します。
DELTA_SCHEMA_CHANGED_WITH_STARTING_OPTIONS
バージョン <version>でスキーマの変更が検出されました:
ストリーミング ソース スキーマ: <readSchema>
データ ファイル スキーマ: <dataSchema>
クエリを再起動してみてください。 この問題がクエリの再起動間で繰り返され、
進捗している中で、互換性のないスキーマ変更を行ってしまったため、作業をやり直す必要があります。
新しいチェックポイント ディレクトリを使用して最初からクエリを実行します。 問題が解決しない場合
新しいチェックポイント ディレクトリに変更する場合は、既存のチェックポイント ディレクトリを変更する必要があります。
より新しいバージョンから開始する 'startingVersion' または 'startingTimestamp' オプション
新しいチェックポイント ディレクトリを使用する、<version> 以降のバージョンから開始する必要がある場合があります。
DELTA_SCHEMA_CHANGED_WITH_VERSION
バージョン <version>でスキーマの変更が検出されました:
ストリーミング ソース スキーマ: <readSchema>
データ ファイル スキーマ: <dataSchema>
クエリを再起動してみてください。 この問題がクエリの再起動間で繰り返され、
進捗している中で、互換性のないスキーマ変更を行ってしまったため、作業をやり直す必要があります。
新しいチェックポイント ディレクトリを使用して最初からクエリを実行します。
DELTA_SCHEMA_CHANGE_SINCE_ANALYSIS
DataFrame 以降、Delta テーブルのスキーマが互換性のない方法で変更されました
または DeltaTable オブジェクトが作成されました。 DataFrame または DeltaTable オブジェクトを再定義してください。
Changes:
<schemaDiff> <legacyFlagMessage>
DELTA_SCHEMA_NOT_PROVIDED
テーブル スキーマは指定されていません。
REPLACEテーブルを使用し、AS SELECT クエリが指定されていない場合は、テーブルのスキーマ (列定義) を指定してください。
DELTA_SCHEMA_NOT_SET
テーブル スキーマが設定されていません。 データを書き込むか、CREATE TABLE を使用してスキーマを設定します。
DELTA_SET_LOCATION_SCHEMA_MISMATCH
新しい Delta の場所のスキーマは、現在のテーブル スキーマとは異なります。
元のスキーマ:
<original>
宛先スキーマ:
<destination>
これが意図した変更である場合は、次を実行してこのチェックをオフにすることができます。
%%sql 設定 <config> = true
DELTA_SHALLOW_CLONE_FILE_NOT_FOUND
トランザクション ログで参照 <filePath> ファイルが見つかりません。 これは、テーブル DELETE ステートメントを使用するのではなく、ファイル システムからデータが手動で削除された場合に発生する可能性があります。 このテーブルは浅い複製のように見えますが、その場合、このエラーは、このテーブルが複製された元のテーブルが、複製でまだ使用しているファイルを削除した場合に発生する可能性があります。 複製を元のテーブルから独立させる場合は、代わりに DEEP クローンを使用します。
DELTA_SHARING_CANNOT_MODIFY_RESERVED_RECIPIENT_PROPERTY
<prefix> で始まる定義済みのプロパティは変更できません。
DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
データは、セッション内の現在の受信者には適用されない受信者プロパティ <property> によって制限されます。
詳細については、DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED を参照してください
DELTA_SHARING_INVALID_OP_IN_EXTERNAL_SHARED_VIEW
<operation> は、アカウントをまたいで共有された Delta Sharing ビューでは使用できません。
DELTA_SHARING_INVALID_PROVIDER_AUTH
プロバイダー <authenticationType>の認証の種類 <provider> が正しくありません。
DELTA_SHARING_INVALID_RECIPIENT_AUTH
受信者 <authenticationType>の認証の種類 <recipient> が無効です。
DELTA_SHARING_INVALID_SHARED_DATA_OBJECT_NAME
共有内の <type> を参照する名前が無効です。 [schema].[<type>] の形式に従って共有内で<type>の名前を使用するか、またはテーブルの元の完全な名前である [catalog].[schema].[>type>] の形式を使用することもできます。
使用する名前がわからない場合は、"SHOW ALL IN SHARE [共有]" を実行し、削除する <type> の名前を見つけることができます。列 "name" は共有内の <type>の名前で、列 "shared_object" は <type>の元のフル ネームです。
DELTA_共有_最大値_RECIPIENT_TOKENS_を超えました
受信者の <recipient>には 2 つ以上のトークンがあります。
DELTA_SHARING_RECIPIENT_PROPERTY_NOT_FOUND
受信者プロパティ <property> が存在しません。
DELTA_SHARING_RECIPIENT_TOKENS_見つかりません
受信者の <recipient>に受信者トークンがありません。
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_COLUMN
パーティション分割されていない列 <badCols> は、 SHOW PARTITIONSに指定されます。
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE
SHOW PARTITIONS は、パーティション分割されていないテーブルでは許可されません: <tableName>。
DELTA_SHREDDED_WRITES_DISABLED
細断された書き込みが無効になっているため、 REORG APPLY(SHRED) 操作を実行できません。
DELTA_SHREDDING_TABLE_PROPERTY_DISABLED
シュレッダーバリアントを書き込もうとしましたが、テーブルは細断書き込みをサポートしていません。 table プロパティ enableVariantShredding を true に設定することを検討してください。
DELTA_SOURCE_IGNORE_DELETE
バージョン <removedFile>でストリーミング ソースから削除されたデータ (<version>など) が検出されました。 これは現在サポートされていません。 削除を無視する場合は、オプション 'ignoreDeletes' を 'true' に設定します。 ソース テーブルはパス <dataPath>にあります。
DELTA_SOURCE_TABLE_IGNORE_CHANGES
バージョン <file>でソース テーブルのデータ更新 (<version>など) が検出されました。 これは現在サポートされていません。 これが定期的に発生し、変更をスキップしても問題ない場合は、オプション 'skipChangeCommits' を 'true' に設定します。 データの更新を反映させる場合は、新しいチェックポイント ディレクトリでこのクエリを再起動するか、Lakeflow Spark 宣言パイプラインを使用している場合は完全な更新を実行してください。 これらの変更を処理する必要がある場合は、MVs に切り替えてください。 ソース テーブルはパス <dataPath>にあります。
DELTA_STARTING_VERSION_AND_TIMESTAMP_BOTH_SET
"<version>" または "<timestamp>" を指定してください。
DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND
Parquet メタデータ内の列の <statsType> 統計が見つかりません: <columnPath>。
DELTA_STATS_NOT_FOUND_IN_FILE
ファイルに統計が見つかりません: <filePath>。 'ANALYZE TABLE [tableName] COMPUTE DELTA STATISTICS' を実行して統計を計算します。
DELTA_STREAMING_CANNOT_CONTINUE_PROCESSING_POST_SCHEMA_EVOLUTION
Delta ストリーミング ソースの Delta バージョン <opType> と <previousSchemaChangeVersion> の間で、1 つ以上の非加算スキーマ変更 (<currentSchemaChangeVersion>) が検出されました。
Changes:
<columnChangeDetails>
バージョン <currentSchemaChangeVersion>で最終スキーマを使用してストリーム処理を続行する前に、スキーマの変更をシンク テーブルに手動で反映するかどうかを確認してください。
シンク テーブルのスキーマを修正するか、修正する必要がないと判断したら、次の構成を設定して非追加スキーマ変更のブロックを解除し、ストリーム処理を続行できます。
データフレーム リーダー オプションの使用:
この一連のスキーマ変更のためだけに、この特定のストリームのブロックを解除するには:
<unblockChangeOptions>
この特定のストリームのブロックを解除するには:
<unblockStreamOptions>
SQL 構成を使用する:
この一連のスキーマ変更のためだけに、この特定のストリームのブロックを解除するには:
<unblockChangeConfs>
この特定のストリームのブロックを解除するには:
<unblockStreamConfs>
すべてのストリームのブロックを解除するには:
<unblockAllConfs>
DELTA_STREAMING_CHECK_COLUMN_MAPPING_NO_SNAPSHOT
列マッピングスキーマの変更を確認する際に、初期バージョンのデルタログスナップショットを取得できませんでした。 別の開始バージョンを選択するか、'<config>' を 'true' に設定して、ストリーミング読み取りを強制的に有効にしてください。
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE
読み取り互換性のないスキーマの変更 (名前の変更や削除、データ型の変更など) を含むテーブルでは、ストリーミング読み取りはサポートされていません。
この問題を解決するための詳細と次の手順については、<docLink> のドキュメントを参照してください。
スキーマの読み取り: <readSchema>。 互換性のないデータ スキーマ: <incompatibleSchema>。
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE_USE_SCHEMA_LOG
読み取り互換性のないスキーマの変更 (名前の変更や削除、データ型の変更など) を含むテーブルでは、ストリーミング読み取りはサポートされていません。
デルタ ストリーム処理で非加法スキーマの進化を有効にするには、'schemaTrackingLocation' を指定してください。
詳細については、<docLink> を参照してください。
スキーマの読み取り: <readSchema>。 互換性のないデータ スキーマ: <incompatibleSchema>。
DELTA_STREAMING_METADATA_EVOLUTION
ストリーミング中に Delta テーブルのスキーマ、テーブル構成、またはプロトコルが変更されました。
スキーマまたはメタデータ追跡ログが更新されました。
更新されたメタデータを使用して処理を続行するには、ストリームを再起動してください。
更新されたスキーマ: <schema>。
更新されたテーブル構成: <config>。
更新されたテーブル プロトコル: <protocol>
DELTA_ストリーミング_スキーマ_進化_サポートされていない行フィルター_COLUMN_MASKS
スキーマ追跡を使用したソース テーブル <tableId> からのストリーミングでは、行フィルターや列マスクはサポートされません。
行フィルターまたは列マスクを削除するか、スキーマ追跡を無効にしてください。
DELTA_STREAMING_SCHEMA_LOCATION_CONFLICT
'<loc>' にあるテーブルまたはテーブルからのストリーミング中に、競合するスキーマの場所 '<table>' が検出されました。
別のストリームが同じスキーマの場所を再利用している可能性がありますが、これは許可されていません。
この表のいずれかのストリームのリーダー オプションとして、新しい一意の schemaTrackingLocation パスまたは streamingSourceTrackingId を指定してください。
DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT
スキーマの場所 '<schemaTrackingLocation>' は、チェックポイントの場所 '<checkpointLocation>' の下に配置する必要があります。
DELTA_STREAMING_SCHEMA_LOG_DESERIALIZE_FAILED
Delta ストリーミング ソース スキーマ ログ内の '<location>' のログ ファイルが不完全です。
スキーマ ログが破損している可能性があります。 新しいスキーマの場所を選択してください。
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_DELTA_TABLE_ID
デルタ ストリームを読み取ろうとしたときに、互換性のない Delta テーブル ID が検出されました。
永続化されたテーブル ID: <persistedId>、テーブル ID: <tableId>
スキーマ ログが再利用されている可能性があります。 新しいスキーマの場所を選択してください。
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_PARTITION_SCHEMA
デルタ ストリームを読み取ろうとしたときに、互換性のないパーティション スキーマが検出されました。
永続化されたスキーマ: <persistedSchema>、Delta パーティション スキーマ: <partitionSchema>
最近テーブルのパーティション スキーマを手動で変更した場合は、スキーマ ログを再初期化する新しいスキーマの場所を選択してください。
DELTA_STREAMING_SCHEMA_LOG_INIT_FAILED_INCOMPATIBLE_METADATA
Delta ストリーミング ソース スキーマ ログを初期化できませんでした。理由:
テーブル バージョン <a> から <b>へのストリーミング バッチの提供中に、互換性のないスキーマまたはプロトコルの変更が検出されました。
DELTA_STREAMING_SCHEMA_LOG_PARSE_SCHEMA_FAILED
Delta ストリーミング ソース スキーマ ログからスキーマを解析できませんでした。
スキーマ ログが破損している可能性があります。 新しいスキーマの場所を選択してください。
DELTA_STREAMING_SINK_TRANSACTION_NOT_FOUND
最後の<versionLimit> バージョンのストリーミング Delta シンクでバッチ <batchId>のトランザクションが見つかりませんでした。
DELTA_STREAMING_SKIP_OFFSETS_INVALID_OFFSET_RANGE
デルタ ソース範囲 =[<startOffset>, <endOffset>) のスキップ オフセット範囲が無効です。 このオフセット範囲を修正して、もう一度やり直してください。
詳細については、DELTA_STREAMING_SKIP_OFFSETS_INVALID_OFFSET_RANGEを参照してください。
DELTA_TABLE_ALREADY_CONTAINS_CDC_COLUMNS
テーブルで Change Data Capture を有効にできません。 テーブルには、テーブルの
変更データ フィードのメタデータとして <columnList>
は、テーブルの変更データ フィードのメタデータとして内部的に使用されます。 有効にするには
テーブルのデータ フィードを変更して、これらの列の名前を変更または削除します。
DELTA_TABLE_ALREADY_EXISTS
テーブル <tableName> は既に存在します。
DELTA_TABLE_CONTAINS_RESERVED_CDC_COLUMNS
テーブルの変更データ フィードを計算できません。 テーブルには、テーブルの変更データ フィードの出力列として使用される予約列名 <columnList> が含まれています。 テーブルの変更データ フィードを計算するには、これらの列の名前を変更または削除します。
DELTA_TABLE_FOR_PATH_UNSUPPORTED_HADOOP_CONF
現在、DeltaTable.forPath では <allowedPrefixes> で始まる hadoop 構成キーのみがサポートされていますが、<unsupportedOptions> が渡されました。
DELTA_TABLE_ID_MISMATCH
<tableLocation> の Delta テーブルは、このコマンドでテーブルを使用しているときに置き換えられました。
テーブル ID が <oldId> から <newId>に変更されました。
現在のコマンドを再試行して、テーブルの一貫性のあるビューが読み取られるようにしてください。
DELTA_TABLE_INVALID_REDIRECT_STATE_TRANSITION
テーブルリダイレクト状態を更新できません:無効な状態遷移が試行されました。
デルタ テーブル '<table>' を '<oldState>' から '<newState>' に変更することはできません。
DELTA_TABLE_INVALID_SET_UNSET_REDIRECT
SETでプロパティをUNSETまたは<table>リダイレクトできません: 現在のプロパティ '<currentProperty>' は新しいプロパティ '<newProperty>' と一致しません。
DELTA_TABLE_LOCATION_MISMATCH
既存のテーブル <tableName> の場所が <existingTableLocation>。 指定した場所の <tableLocation>と一致しません。
DELTA_TABLE_NOT_FOUND
デルタ テーブル <tableName> が存在しません。
DELTA_TABLE_NOT_SUPPORTED_IN_OP
テーブルは、<operation>ではサポートされていません。 代わりにパスを使用してください。
DELTA_TABLE_ONLY_OPERATION
<tableName> は Delta テーブルではありません。
<operation> はデルタ テーブルでのみサポートされます。
DELTA_TABLE_UNRECOGNIZED_REDIRECT_SPEC
Delta ログには、認識できないテーブル リダイレクト スペック '<spec>' が含まれています。
DELTA_TARGET_TABLE_FINAL_SCHEMA_EMPTY
ターゲット テーブルの最終スキーマが空です。
DELTA_TIMESTAMP_EARLIER_THAN_COMMIT_RETENTION
指定されたタイムスタンプ (<userTimestamp>) は、使用可能な最も古いバージョンより前です。
このテーブル (<commitTs>)。
<timestampString>後にタイムスタンプを使用してください。
DELTA_TIMESTAMP_GREATER_THAN_COMMIT
指定されたタイムスタンプ (<providedTimestamp>) は、使用可能な最新バージョンの後にあります。
このテーブル (<tableName>) で使用可能な最新バージョンよりも後です。
<maximumTimestamp>の前または時点でタイムスタンプを使用してください。
DELTA_TIMESTAMP_INVALID
指定されたタイムスタンプ (<expr>) を有効なタイムスタンプに変換できません。
DELTA_TIME_TRAVEL_INVALID_BEGIN_VALUE
<timeTravelKey> は有効な開始値である必要があります。
DELTA_TOO_MUCH_LISTING_MEMORY
メモリ不足のため、Delta テーブル内のファイル (<numFiles>) を一覧表示できませんでした。 必要なメモリ: <estimatedMemory>、使用可能なメモリ: <maxMemory>。
DELTA_TRUNCATED_TRANSACTION_LOG
<path>: トランザクション ログが手動削除またはログ保持ポリシー (<version>) とチェックポイント保持ポリシー (<logRetentionKey>=<logRetention>) によって切り捨てられたため、バージョン <checkpointRetentionKey>=<checkpointRetention>で状態を再構築できません。
DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED
操作を許可しない: デルタ テーブルの TRUNCATE TABLE はパーティション述語をサポートしていません。DELETE を使用して、特定のパーティションまたは行を削除します。
DELTA_UDF_IN_CHECK_CONSTRAINT
CHECK制約で<expr>が見つかりました。
CHECK制約では、ユーザー定義関数を使用できません。
DELTA_UDF_IN_GENERATED_COLUMN
<udfExpr>が見つかりました。 生成された列では、ユーザー定義関数を使用できません。
DELTA_UNEXPECTED_ACTION_EXPRESSION
アクション式 <expression> は予期されていません。
DELTA_UNEXPECTED_NUM_PARTITION_COLUMNS_FROM_FILE_NAME
<expectedColsSize> のパーティション列 <expectedCols> が想定されていますが、ファイル名 <parsedColsSize> の解析からは <parsedCols> のパーティション列 <path> が見つかりました。
DELTA_UNEXPECTED_PARTIAL_SCAN
Deltaソースのフルスキャンを期待していましたが、部分的なスキャンしか見つかりませんでした。 パス: <path>。
DELTA_UNEXPECTED_PARTITION_COLUMN_FROM_FILE_NAME
パーティション列<expectedCol>を期待していましたが、ファイル名の解析からパーティション列<parsedCol>が見つかりました: <path>。
DELTA_UNEXPECTED_PARTITION_SCHEMA_FROM_USER
CONVERT から DELTA は、カタログから推論されたパーティション スキーマとは異なるパーティション スキーマを用いて呼び出されました。カタログからパーティション スキーマを選択できるように、スキーマを指定しないでください。
カタログ パーティション スキーマ:
<catalogPartitionSchema>
指定されたパーティション スキーマ:
<userPartitionSchema>
DELTA_UNIFORM_COMPATIBILITY_LOCATION_CANNOT_BE_CHANGED
delta.universalFormat.compatibility.location は変更できません。
DELTA_UNIFORM_COMPATIBILITY_LOCATION_NOT_REGISTERED
delta.universalFormat.compatibility.location がカタログに登録されていません。
DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION
統一互換形式の場所が見つからないか無効です。 delta.universalFormat.compatibility.location の空のディレクトリを設定してください。
失敗した理由:
詳細については、DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION を参照してください
DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
Delta Uniform 経由で Apache Iceberg のデータ読み込みが失敗しました。
詳細については、DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION を参照してください
DELTA_UNIFORM_INGRESS_AMBIGUOUS_FORMAT
複数の Delta Uniform イングレス形式 (<formats>) が見つかり、最大 1 つを設定できます。
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED
Uniform イングレス テーブルの作成または更新はサポートされていません。
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED_FORMAT
<fileFormat> 形式はサポートされていません。 元のファイル形式としての Apache Iceberg と hudi のみがサポートされています。
DELTA_UNIFORM_INGRESS_VIOLATION
デルタ Uniform の読み取りが失敗する:
詳細については、DELTA_UNIFORM_INGRESS_VIOLATIONを参照してください。
DELTA_UNIFORM_NOT_SUPPORTED
ユニバーサル形式は、Unity カタログ テーブルでのみサポートされます。
DELTA_UNIFORM_REFRESH_INVALID_ARGUMENT
引数が無効な REFRESH TABLE:
詳細については、DELTA_UNIFORM_REFRESH_INVALID_ARGUMENTを参照してください。
DELTA_UNIFORM_REFRESH_NOT_SUPPORTED
REFRESH 識別子 SYNC UNIFORM は、次の理由でサポートされていません。
詳細については、DELTA_UNIFORM_REFRESH_NOT_SUPPORTED を参照してください
DELTA_UNIFORM_REFRESH_NOT_SUPPORTED_FOR_MANAGED_ICEBERG_TABLE_WITH_METADATA_PATH
REFRESH TABLE
METADATA_PATHでは、マネージド Apache Iceberg テーブルではサポートされていません。
DELTA_UNIVERSAL_FORMAT_CONVERSION_FAILED
テーブルバージョンの <version> をユニバーサル形式の <format>に変換できませんでした。 <message>
DELTA_UNIVERSAL_FORMAT_VIOLATION
ユニバーサル形式 (<format>) の検証に失敗しました: <violation>。
DELTA_UNKNOWN_CONFIGURATION
不明な構成が指定されました: <config>。
このチェックを無効にするには、Spark セッション構成で <disableCheckConfig>=true を設定します。
DELTA_UNKNOWN_PRIVILEGE
不明な特権: <privilege>。
DELTA_UNKNOWN_READ_LIMIT
不明なリードリミット: <limit>。
DELTA_UNRECOGNIZED_COLUMN_CHANGE
列の変更 <otherClass> は認識できません。 古い Delta Lake バージョンを実行している可能性があります。
DELTA_UNRECOGNIZED_INVARIANT
認識されないインバリアント。 Spark バージョンをアップグレードしてください。
DELTA_UNRECOGNIZED_LOGFILE
認識できないログファイル <filename>。
DELTA_UNSET_NON_EXISTENT_PROPERTY
テーブル <property>で、存在しないプロパティ '<tableName>' の設定を解除しようとしました。
DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE
<path> では、絶対パスを持つファイルの追加はサポートされていません。
DELTA_UNSUPPORTED_ALTER_TABLE_CHANGE_COL_OP
ALTER TABLE CHANGE COLUMN は、列 <fieldPath> を <oldField> から <newField> に変更する場合はサポートされていません。
DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP
サポートされていない ALTER TABLE REPLACE COLUMNS 操作。 理由: <details>
次のスキーマの変更に失敗しました:
<oldSchema>
to:
<newSchema>
DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE
REPLACEで既存のテーブル (<tableName>) を CLONE しようとしました。 この操作は次のようになります。
unsupported.
CLONE 別のターゲットを試すか、現在のターゲットでテーブルを削除します。
DELTA_UNSUPPORTED_CLUSTERING_COLUMN_PREDICATES
OPTIMIZE
...
FULL WHERE Liquid テーブルのコマンドは、指定された述語をサポートしていません。
詳細については、DELTA_UNSUPPORTED_CLUSTERING_COLUMN_PREDICATESを参照してください。
DELTA_UNSUPPORTED_COLUMN_MAPPING_MODE_CHANGE
列マッピング モードを '<oldMode>' から '<newMode>' に変更することはサポートされていません。
DELTA_UNSUPPORTED_COLUMN_MAPPING_OPERATIONS_ON_COLUMNS_WITH_BLOOM_FILTER_INDEX
列に対して列マッピング操作 <opName> を実行できませんでした <quotedColumnNames>
これらの列にはブルーム フィルター インデックスがあるためです。
列に対して列マッピング操作を実行する場合
ブルーム フィルターのインデックスを持つ列に対して実行する場合は、
最初にブルーム フィルター インデックスを削除してください。
DROP BLOOMFILTER INDEX ON TABLE tableName FOR COLUMNS(<columnNames>)
代わりに、テーブルのすべてのブルーム フィルター インデックスを削除する場合は、次の値を使用します。
DROP BLOOMFILTER INDEX ON TABLE テーブル名
DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL
現在のテーブル プロトコル バージョンでは、列マッピング モードの変更はサポートされていません
<config>を使用します。
列マッピングに必要なデルタ プロトコルのバージョン:
<requiredVersion>
テーブルの現在の Delta プロトコル バージョン:
<currentVersion>
<advice>
DELTA_UNSUPPORTED_COLUMN_MAPPING_SCHEMA_CHANGE
スキーマの変更が検出されました。
古いスキーマ:
<oldTableSchema>
新しいスキーマ:
<newTableSchema>
列マッピング モードの変更中は、スキーマの変更は許可されません。
DELTA_UNSUPPORTED_COLUMN_MAPPING_WRITE
列マッピング モードでのデータの書き込みはサポートされていません。
DELTA_UNSUPPORTED_COLUMN_TYPE_IN_BLOOM_FILTER
<dataType>型の列にブルーム フィルター インデックスを作成することはサポートされていません:<columnName>。
DELTA_UNSUPPORTED_COMMENT_MAP_ARRAY
<fieldPath>にコメントを追加できません。 マップ キー/値または配列要素へのコメントの追加はサポートされていません。
DELTA_UNSUPPORTED_DATA_TYPES
サポートされていないデータ型を使用している列が見つかりました: <dataTypeList>。 型チェックを無効にするには、'<config>' を 'false' に設定します。 この種類のチェックを無効にすると、ユーザーはサポートされていない Delta テーブルを作成でき、レガシ テーブルの読み取り/書き込み時にのみ使用する必要があります。
DELTA_UNSUPPORTED_DATA_TYPE_IN_GENERATED_COLUMN
<dataType> は、生成された列の結果にすることはできません。
DELTA_UNSUPPORTED_DEEP_CLONE
ディープ クローンは、この Delta バージョンではサポートされていません。
DELTA_UNSUPPORTED_DESCRIBE_DETAIL_VIEW
<view> はビューです。
DESCRIBE DETAIL はテーブルでのみサポートされます。
DELTA_UNSUPPORTED_DROP_CLUSTERING_COLUMN
クラスタリング列 (<columnList>) の削除は許可されていません。
DELTA_UNSUPPORTED_DROP_COLUMN
DROP COLUMN は Delta テーブルではサポートされていません。 <advice>
DELTA_UNSUPPORTED_DROP_NESTED_COLUMN_FROM_NON_STRUCT_TYPE
入れ子になった列は StructType からのみ削除できます。
<struct>が見つかりました。
DELTA_UNSUPPORTED_DROP_PARTITION_COLUMN
パーティション列 (<columnList>) の削除は許可されていません。
DELTA_UNSUPPORTED_EXPRESSION
<expType>では式の型 (<causedBy>) はサポートされていません。 サポートされている型は [<supportedTypes>] です。
DELTA_UNSUPPORTED_EXPRESSION_CHECK_CONSTRAINT
CHECK制約で<expression>が見つかりました。
<expression> は、 CHECK 制約で使用できません。
DELTA_UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
<expression> は、生成された列では使用できません。
DELTA_UNSUPPORTED_FEATURES_FOR_READ
サポートされていない差分読み取り機能: テーブル "<tableNameOrPath>" には、このバージョンの Databricks ではサポートされていないリーダー テーブル機能が必要です: <unsupported>。 Delta Lake 機能の互換性の詳細については、<link> を参照してください。
DELTA_UNSUPPORTED_FEATURES_FOR_WRITE
サポートされていない Delta 書き込み機能: テーブル "<tableNameOrPath>" には、このバージョンの Databricks ではサポートされていないライター テーブル機能 <unsupported> が必要です。 Delta Lake 機能の互換性の詳細については、<link> を参照してください。
DELTA_UNSUPPORTED_FEATURES_IN_CONFIG
次の Spark 構成または Delta テーブル プロパティで構成されたテーブル機能は、このバージョンの Databricks: <configs>では認識されません。
DELTA_UNSUPPORTED_FEATURE_STATUS
テーブル機能<feature>のステータスが「サポート」となるはずが、「<status>」になっています。
DELTA_UNSUPPORTED_FIELD_UPDATE_NON_STRUCT
入れ子のフィールドの更新は StructType でのみサポートされていますが、<columnName>のフィールド(タイプ: <dataType>)を更新しようとしています。
DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS
'FSCK REPAIR TABLE' コマンドは、削除ベクター ファイルがないテーブル バージョンではサポートされていません。
サポートにお問い合わせください。
DELTA_UNSUPPORTED_GENERATE_WITH_DELETION_VECTORS
'GENERATE symlink_format_manifest' コマンドは、削除ベクトルを含むテーブル バージョンではサポートされていません。
削除ベクターを使用せずにテーブルのバージョンを生成するには、'REORG TABLE table APPLY (PURGE)' を実行します。 次に、'GENERATE' コマンドを再実行します。
REORG と GENERATEの間に、同時実行トランザクションによって削除ベクトルが再度追加されていないことを確認します。
マニフェストを定期的に生成する必要がある場合、または同時実行トランザクションを防止できない場合は、'ALTER TABLE table SET TBLPROPERTIES (delta.enableDeletionVectors = false)' を使用して、このテーブルの削除ベクトルを無効にすることを検討してください。
DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT
StructTypes 以外の入れ子になったフィールドのインバリアントはサポートされていません。
DELTA_UNSUPPORTED_IN_SUBQUERY
<operation>条件では、「In」サブクエリはサポートされていません。
DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX
listKeywithPrefix は使用できません。
DELTA_UNSUPPORTED_MANIFEST_GENERATION_WITH_COLUMN_MAPPING
外部リーダーはこれらの Delta テーブルを読み取ることができないため、列マッピングを利用するテーブルではマニフェストの生成はサポートされていません。 詳細については、Delta のドキュメントを参照してください。
DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC
スキーマの進化を伴う MERGE INTO 操作では、現在 CDC 出力の書き込みはサポートされていません。
DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE
複数列の In 述語は、<operation> 条件ではサポートされていません。
DELTA_UNSUPPORTED_NESTED_COLUMN_IN_BLOOM_FILTER
入れ子になった列にブルーム ファイラー インデックスを作成することは現在サポートされていません: <columnName>。
DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION
入れ子になったフィールドは、<operation> ではサポートされていません (field = <fieldName>)。
DELTA_UNSUPPORTED_NON_EMPTY_CLONE
複製先テーブルが空でない。
TRUNCATE を実行する前に、テーブルに DELETE FROM または CLONE を実行してください。
DELTA_UNSUPPORTED_OUTPUT_MODE
データ ソース <dataSource> では、 <mode> 出力モードはサポートされていません。
DELTA_UNSUPPORTED_PARTITION_COLUMN_IN_BLOOM_FILTER
パーティション分割列にブルーム フィルター インデックスを作成することはサポートされていません: <columnName>。
DELTA_UNSUPPORTED_RENAME_COLUMN
Delta テーブルでは、列名の変更はサポートされていません。 <advice>
DELTA_UNSUPPORTED_SCHEMA_DURING_READ
Delta では、読み取り時のスキーマの指定はサポートされていません。
DELTA_UNSUPPORTED_SORT_ON_BUCKETED_TABLES
SORTED BY は、Delta バケットテーブルではサポートされていません。
DELTA_UNSUPPORTED_SOURCE
<operation> 宛先はデルタソースのみをサポートします。
<plan>
DELTA_UNSUPPORTED_STATIC_PARTITIONS
パーティション スペックでの静的パーティションの指定は、現在、挿入中にサポートされていません。
DELTA_UNSUPPORTED_STRATEGY_NAME
サポートされていない戦略名: <strategy>。
DELTA_UNSUPPORTED_SUBQUERY
サブクエリは、<operation> ではサポートされていません (条件 = <cond>)。
DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES
サブクエリは、パーティション述語ではサポートされていません。
削除されたファイル保存期間を超えたタイムトラベルはサポートされていません
テーブルに設定されている delta.deletedFileRetentionDuration (<deletedFileRetention> HOURS) を超えて移動できません。
DELTA_UNSUPPORTED_TIME_TRAVEL_MULTIPLE_FORMATS
時間移動を複数の形式で指定することはできません。
DELTA_UNSUPPORTED_TIME_TRAVEL_VIEWS
移動ビュー、サブクエリ、ストリーム、データ フィード クエリを変更することはできません。
DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES
サンプル テーブルの切り捨てはサポートされていません。
DELTA_UNSUPPORTED_TYPE_CHANGE_IN_SCHEMA
サポートされていない型の変更が適用されたため、このテーブルを操作できません。 フィールド <fieldName> が <fromType> から <toType>に変更されました。
DELTA_UNSUPPORTED_TYPE_CHANGE_ON_COLUMNS_WITH_BLOOM_FILTER_INDEX
列のデータ型を変更できませんでした <quotedColumnNames>
これらの列にはブルーム フィルター インデックスがあるためです。
ブルーム フィルター インデックスを使用して列のデータ型を変更する場合は、
最初にブルーム フィルター インデックスを削除してください。
DROP BLOOMFILTER INDEX ON TABLE tableName FOR COLUMNS(<columnNames>)
代わりに、テーブルのすべてのブルーム フィルター インデックスを削除する場合は、次の値を使用します。
DROP BLOOMFILTER INDEX ON TABLE テーブル名
DELTA_UNSUPPORTED_VACUUM_SPECIFIC_PARTITION
Delta テーブルをバキュームする場合は、ベース パス (<baseDeltaPath>) を指定してください。 特定のパーティションのバキュームは現在サポートされていません。
DELTA_UNSUPPORTED_WRITES_STAGED_TABLE
テーブルの実装では、書き込み ( <tableName>) はサポートされていません。
DELTA_UNSUPPORTED_WRITES_WITHOUT_COORDINATOR
コミット コーディネーター <coordinatorName>に登録されているテーブルに対して書き込みを実行しようとしています。 ただし、このコーディネーターの実装は現在の環境では使用できません。また、コーディネーターを使用しない書き込みは許可されません。
DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES
サンプル テーブルへの書き込みはサポートされていません。
DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION
<fromCatalog> を <toCatalog>にキャストできません。 入れ子になった列はすべて一致する必要があります。
DELTA_V2_CHECKPOINTS_REQUIRED_FOR_OPERATION
CHECKPOINT 操作では、テーブルで V2 チェックポイントを有効にする必要があります。
DELTA_VACUUM_COPY_INTO_STATE_FAILED
データ ファイルの VACUUM は成功しましたが、COPY INTO 状態のガベージ コレクションに失敗しました。
DELTA_VERSIONS_NOT_CONTIGUOUS
バージョン (<versionList>) は連続していません。
バージョン <startVersion>の読み込み中に、<endVersion>バージョンと<versionToLoad>間の差分ログのギャップが検出されました。
詳細については、DELTA_VERSIONS_NOT_CONTIGUOUS を参照してください。
DELTA_VERSION_INVALID
指定されたバージョン (<version>) が有効なバージョンではありません。
DELTA_VERSION_NOT_FOUND
Delta テーブルをバージョン <userVersion>にタイム トラベルできません。 使用可能なバージョン: [<earliest>, <latest>]。
DELTA_VIOLATE_CONSTRAINT_WITH_VALUES
次の値を持つ行が CHECK 制約 <constraintName> <expression> に違反しています:
<values>。
DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
テーブル <table> のプロパティの検証に違反しています。
詳細については、DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED を参照してください
DELTA_WRITE_INTO_VIEW_NOT_SUPPORTED
<viewIdentifier> はビューです。 ビューにデータを書き込む場合はありません。
DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST
Z-Ordering 列 <columnName> がデータ スキーマに存在しません。
DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS
現在、これらの列の統計は収集されないため、 <cols> の Z オーダーは無効になります。 データのスキップと z オーダーの詳細については、 <link> を参照してください。 このチェックを無効にするには、次の設定を行います。
SET <zorderColStatKey> = 偽
DELTA_ZORDERING_ON_PARTITION_COLUMN
<colName> はパーティション列です。 Z オーダーは、データ列でのみ実行できます。
デルタ・シェアリング
DELTA_SHARING_ACTIVATION_NONCE_DOES_NOT_EXIST
SQLSTATE: 割り当てなし
アクティベーションの nonce が見つかりません。 使用したアクティブ化リンクが無効であるか、有効期限が切れています。 アクティブ化リンクを再生成してから、もう一度やり直してください。
DELTA_SHARING_CROSS_REGION_SHARE_UNSUPPORTED
SQLSTATE: 割り当てなし
<regionHint> リージョンとその外部のリージョン間での共有はサポートされていません。
DELTA_SHARING_GET_RECIPIENT_PROPERTIES_INVALID_DEPENDENT
SQLSTATE: 割り当てなし
current_recipient 関数で定義されたビューは共有専用であり、データ受信者側からのみクエリを実行できます。 ID <securableId> で指定されたセキュリティ保護可能なリソースは、Delta Sharing ビューではありません。
DELTA_SHARING_MUTABLE_SECURABLE_KIND_NOT_SUPPORTED
SQLSTATE: 割り当てなし
提供されているセキュリティ可能な種類の <securableKind> は、Delta Sharing での可変性をサポートしていません。
DELTA_SHARING_ROTATE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE
SQLSTATE: 割り当てなし
提供されているセキュリティ保護可能な種類 <securableKind> では、Marketplace サービスによって開始されるトークンのローテーション アクションはサポートされていません。
DS_AUTH_TYPE_NOT_AVAILABLE
SQLSTATE: 割り当てなし
<dsError>: プロバイダー エンティティ <providerEntity>では認証の種類を使用できません。
DS_CDF_NOT_ENABLED
SQLSTATE: 割り当てなし
<dsError>: <tableName>の変更データ フィードにアクセスできません。 バージョン <version>の元のデルタ テーブルで CDF が有効になっていません。 データ プロバイダーにお問い合わせください。
DS_CDF_NOT_SHARED
SQLSTATE: 割り当てなし
<dsError>: <tableName>の変更データ フィードにアクセスできません。 CDF はテーブルで共有されません。 データ プロバイダーにお問い合わせください。
DS_CDF_RPC_INVALID_PARAMETER
SQLSTATE: 割り当てなし
<dsError>: <message>
DS_CLIENT_AUTH_ERROR_FOR_DB_DS_SERVER
SQLSTATE: 割り当てなし
<dsError>: <message>
DS_CLIENT_ERROR_FOR_DB_DS_SERVER
SQLSTATE: 割り当てなし
<dsError>: <message>
DS_CLIENT_OAUTH_TOKEN_EXCHANGE_FAILURE
SQLSTATE: 割り当てなし
<dsError>: <message>
DS_CLIENT_OAUTH_TOKEN_EXCHANGE_UNAUTHORIZED
SQLSTATE: 割り当てなし
<dsError>: <message>
DS_CLOUD_VENDOR_UNAVAILABLE
SQLSTATE: 割り当てなし
<dsError>: クラウド ベンダーは、<rpcName>のために一時的に使用できません。再試行してください。<traceId>
DS_DATA_MATERIALIZATION_COMMAND_FAILED
SQLSTATE: 割り当てなし
<dsError>: 組織 <runId> からのデータ具体化タスク <orgId> がコマンド <command> において失敗しました。
DS_DATA_MATERIALIZATION_COMMAND_NOT_SUPPORTED
SQLSTATE: 割り当てなし
<dsError>: 組織 <runId> からのデータ具体化タスクの実行 <orgId> は、コマンド <command> をサポートしていません
DS_DATA_MATERIALIZATION_NOT_SUPPORTED_WITHOUT_SERVERLESS
SQLSTATE: 割り当てなし
<dsError>: <featureName> は、プロバイダー ワークスペースでサーバーレスがサポートされていないか有効になっていないため、サポートされていません。 サーバーレスを有効にするには、データ プロバイダーにお問い合わせください。
DS_DATA_MATERIALIZATION_NO_VALID_NAMESPACE
SQLSTATE: 割り当てなし
<dsError>: <tableName>の具体化を作成するための有効な名前空間が見つかりませんでした。 この問題を解決するには、データ プロバイダーにお問い合わせください。
DS_DATA_MATERIALIZATION_RECIPIENT_MISSING_WORKSPACE_ID
SQLSTATE: 割り当てなし
<dsError>: 共有資産を具体化するのに適したワークスペースが見つかりません。 共有資産のカタログへの書き込みアクセスが許可されているワークスペースで受信者を再作成するには、データ プロバイダーに問い合わせてください。
DS_DATA_MATERIALIZATION_RUN_DOES_NOT_EXIST
SQLSTATE: 割り当てなし
<dsError>: 組織 <runId> からのデータ具現化タスク <orgId> が存在しません
DS_DELTA_ILLEGAL_STATE
SQLSTATE: 割り当てなし
<dsError>: <message>
DS_DELTA_MISSING_CHECKPOINT_FILES
SQLSTATE: 割り当てなし
<dsError>: チェックポイントのすべてのパーツファイルをバージョン<version>で見つけることができませんでした。 <suggestion>
DS_DELTA_NULL_POINTER
SQLSTATE: 割り当てなし
<dsError>: <message>
DS_DELTA_RUNTIME_EXCEPTION
SQLSTATE: 割り当てなし
<dsError>: <message>
DS_EXPIRE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE
SQLSTATE: 割り当てなし
<dsError>: 提供されたセキュリティ保護可能な種類の <securableKind> は、Marketplace サービスによって開始された期限切れのトークン アクションをサポートしていません。
DS_FAILED_REQUEST_TO_OPEN_DS_SERVER
SQLSTATE: 割り当てなし
<dsError>: <message>
DS_FAILED_REQUEST_TO_SAP_DS_SERVER
SQLSTATE: 割り当てなし
<dsError>: <message>
DS_FEATURE_ONLY_FOR_DATABRICKS_TO_DATABRICKS
SQLSTATE: 割り当てなし
<dsError>: <feature> は、Databricks と Databricks Delta の共有に対してのみ有効です。
DS_FILE_LISTING_EXCEPTION
SQLSTATE: 割り当てなし
<dsError>: <storage>: <message>
DS_FILE_SIGNING_EXCEPTION
SQLSTATE: 割り当てなし
<dsError>: <message>
DS_FOREIGN_TABLE_METADATA_REFRESH_FAILED
SQLSTATE: 割り当てなし
<dsError>: <message>
DS_GATEKEEPER_DISABLED
SQLSTATE: 割り当てなし
<dsError>: この機能はアカウントで無効になっています。 データ プロバイダーにお問い合わせください。
DS_HADOOP_CONFIG_NOT_SET
SQLSTATE: 割り当てなし
<dsError>: <key> は呼び出し元によって設定されません。
DS_ILLEGAL_STATE
SQLSTATE: 割り当てなし
<dsError>: <message>
DS_INTERNAL_ERROR_FROM_DB_DS_SERVER
SQLSTATE: 割り当てなし
<dsError>: <message>
DS_INVALID_AZURE_PATH
SQLSTATE: 割り当てなし
<dsError>: 無効な Azure パス: <path>。
DS_INVALID_DELTA_ACTION_OPERATION
SQLSTATE: 割り当てなし
<dsError>: <message>
DS_INVALID_FIELD
SQLSTATE: 割り当てなし
<dsError>: <message>
DS_INVALID_ITERATOR_OPERATION
SQLSTATE: 割り当てなし
<dsError>: <message>
DS_INVALID_PARAMETER_VALUE
SQLSTATE: 割り当てなし
<dsError>: <rpcName>が原因で<cause>のパラメーターが無効です。
DS_INVALID_PARTITION_SPEC
SQLSTATE: 割り当てなし
<dsError>: <message>
DS_INVALID_RESPONSE_FROM_DS_SERVER
SQLSTATE: 割り当てなし
<dsError>: <message>
DS_MATERIALIZATION_QUERY_FAILED
SQLSTATE: 割り当てなし
<dsError>: <schema>のクエリに失敗しました。
<table> (共有 <share> からのもの) が失敗しました。
DS_MATERIALIZATION_QUERY_TIMEDOUT
SQLSTATE: 割り当てなし
<dsError>: <schema>のクエリがタイムアウトしました。
<table> (共有 <share> からのもの) が <timeoutInSec> 秒後にタイムアウトになりました。
DS_MIGRATED_MANAGEMENT_API_CALLED
SQLSTATE: 割り当てなし
<dsError>: UC RPC <rpcName> が失敗しました。
DS_MISSING_IDEMPOTENCY_KEY
SQLSTATE: 割り当てなし
<dsError>: べき等性キーは、クエリ <schema>を実行する際に必要です。
<table> (共有 <share> からのもの) を非同期に実行するには、べき等キーが必要です。
DS_MISSING_SERVERLESS_BUDGET_POLICY
SQLSTATE: 割り当てなし
<dsError>: この操作では、プロバイダーの Databricks でサーバーレスが使用されますが、共有にサーバーレス予算ポリシーがありません。 共有するサーバーレス予算ポリシーを追加するには、データ プロバイダーにお問い合わせください。
DS_MORE_THAN_ONE_RPC_PARAMETER_SET
SQLSTATE: 割り当てなし
<dsError>: <parameters>のいずれかを指定してください。
DS_NETWORK_CONNECTION_CLOSED
SQLSTATE: 割り当てなし
<dsError>: <rpcName>のため、<errorCause>のネットワーク接続が閉じられました。再試行してください。<traceId>
DS_NETWORK_CONNECTION_TIMEOUT
SQLSTATE: 割り当てなし
<dsError>:<rpcName>による<errorCause>のネットワーク接続タイムアウト。再試行してください。<traceId>
DS_NETWORK_ERROR
SQLSTATE: 割り当てなし
<dsError>: <rpcName>による<errorCause>のネットワーク エラーが発生しました。再試行してください。<traceId>
DS_NO_METASTORE_ASSIGNED
SQLSTATE: 割り当てなし
<dsError>: 現在のワークスペースにメタストアが割り当てされていません (workspaceId: <workspaceId>)。
DS_O2D_OIDC_WORKLOAD_IDENTITY_TOKEN_GENERATION_FAILED
SQLSTATE: 割り当てなし
<dsError>: O2D OIDC プロバイダーのワークロード ID トークンの生成に失敗しました: <message>。
DS_PAGINATION_AND_QUERY_ARGS_MISMATCH
SQLSTATE: 割り当てなし
<dsError>: ページネーションまたはクエリ引数が一致しません。
DS_PARTITION_COLUMNS_RENAMED
SQLSTATE: 割り当てなし
<dsError>: パーティション列 [<renamedColumns>] の名前が共有テーブルに変更されました。 この問題を解決するには、データ プロバイダーにお問い合わせください。
DS_QUERY_BEFORE_START_VERSION
SQLSTATE: 割り当てなし
<dsError>: バージョン <startVersion>以降のテーブル データに対してのみクエリを実行できます。
DS_QUERY_END_VERSION_AFTER_LATEST_VERSION
SQLSTATE: 割り当てなし
<dsError>: データを読み取るためのエンド バージョン (<endVersion>) が無効です。 終了バージョンを最新バージョンのテーブル (<latestVersion>) より大きくすることはできません。
DS_QUERY_START_VERSION_AFTER_LATEST_VERSION
SQLSTATE: 割り当てなし
<dsError>: データを読み取るための開始バージョン (<startVersion>) が無効です。 開始バージョンをテーブルの最新バージョン (<latestVersion>) より大きくすることはできません。
DS_QUERY_TIMEOUT_ON_SERVER
SQLSTATE: 割り当てなし
<dsError>: <queryType> 個のイテレーションにわたって <tableName> 個の更新を行った後、<numActions> に対して <numIter> を処理するときにタイムアウトが発生しました。<progressUpdate> <suggestion> <traceId>
DS_RATE_LIMIT_ON_DS_SERVER
SQLSTATE: 割り当てなし
<dsError>: <message>
DS_RECIPIENT_RPC_INVALID_PARAMETER
SQLSTATE: 割り当てなし
<dsError>: <message>
DS_RECON_FAILED_ON_UC_WRITE_RPC
SQLSTATE: 割り当てなし
<dsError>: UC RPC <rpcName> 失敗し、 INTERNAL_ERRORに変換されました。
DS_RESOURCE_ALREADY_EXIST_ON_DS_SERVER
SQLSTATE: 割り当てなし
<dsError>: <message>
DS_RESOURCE_EXHAUSTED
SQLSTATE: 割り当てなし
<dsError>: <resource> 制限を超えました: [<limitSize>]<suggestion>。<traceId>
DS_RESOURCE_NOT_FOUND_ON_DS_SERVER
SQLSTATE: 割り当てなし
<dsError>: <message>
DS_SAP_UNSUPPORTED_DBR_VERSION
SQLSTATE: 割り当てなし
<dsError>: Delta Sharing SAP コネクタは、DBR <dbrVersion> でサポートされていません。 サポートされている最小バージョンは、 <supportedVersions>です。
DS_SCHEMA_NAME_CONFLICT_FOUND
SQLSTATE: 割り当てなし
<dsError>: カタログ <catalogName> には、共有 <shareName>で見つかったスキーマ名が既に含まれています。 競合するスキーマ名 <description> の <schemaNamesInCommon>。
DS_SERVER_TIMEOUT
SQLSTATE: 割り当てなし
<dsError>: <rpcName>による<errorCause>のサーバー タイムアウト。再試行してください。<traceId>
DS_SERVICE_DENIED
SQLSTATE: 割り当てなし
<dsError>: サービスの負荷が高すぎるため、要求が拒否されました。 しばらくしてからもう一度やり直してください。
DS_SHARE_ALREADY_MOUNTED_TO_CATALOG
SQLSTATE: 割り当てなし
<dsError>: プロバイダー <shareName>からの共有<providerName>は、既にカタログ <catalogName>にマウントされています。
DS_SYSTEM_WORKSPACE_GROUP_PERMISSION_UNSUPPORTED
SQLSTATE: 割り当てなし
システムによって生成されたグループ <securableType>に <principal> に対する特権を付与できません。
DS_TABLE_METADATA_TEMPORARILY_UNAVAILABLE
SQLSTATE: 割り当てなし
<dsError>: テーブル メタデータは使用できません。 しばらくしてからやり直してください。
DS_TIME_TRAVEL_NOT_PERMITTED
SQLSTATE: 割り当てなし
<dsError>: <tableName>で履歴を共有しない限り、タイム トラベル クエリは許可されません。 データ プロバイダーにお問い合わせください。
DS_UNAUTHORIZED
SQLSTATE: 割り当てなし
<dsError>: 承認されていません。.
DS_UNAUTHORIZED_D2O_OIDC_RECIPIENT
SQLSTATE: 割り当てなし
<dsError>: 承認されていない D2O OIDC 受信者: <message>.
DS_UNKNOWN_EXCEPTION
SQLSTATE: 割り当てなし
<dsError>: <traceId>
DS_UNKNOWN_QUERY_ID
SQLSTATE: 割り当てなし
<dsError>: <queryID>の不明なクエリ ID <schema>。
<table> (共有 <share> からのもの) が失敗しました。
DS_UNKNOWN_QUERY_STATUS
SQLSTATE: 割り当てなし
<dsError>: <queryID> に対するクエリ ID <schema> のクエリ状態が不明です。
<table> (共有 <share> からのもの) が失敗しました。
DS_UNKNOWN_RPC
SQLSTATE: 割り当てなし
<dsError>: RPC <rpcName> が不明です。
DS_UNSUPPORTED_DELTA_READER_VERSION
SQLSTATE: 割り当てなし
<dsError>: デルタプロトコルリーダーのバージョン <tableReaderVersion> は <supportedReaderVersion> よりも高く、デルタ共有サーバーではサポートできません。
DS_UNSUPPORTED_DELTA_TABLE_FEATURES
SQLSTATE: 割り当てなし
<dsError>: 表の特徴 <tableFeatures> は表<versionStr> <historySharingStatusStr> <optionStr> に見られる
DS_UNSUPPORTED_OPERATION
SQLSTATE: 割り当てなし
<dsError>: <message>
DS_UNSUPPORTED_STORAGE_SCHEME
SQLSTATE: 割り当てなし
<dsError>: サポートされていないストレージ スキーム: <scheme>。
DS_UNSUPPORTED_TABLE_TYPE
SQLSTATE: 割り当てなし
<dsError>: <schema>を取得できませんでした。
<table> を共有 <share> から。型 [<tableType>] を持つテーブルは現在、<queryType> クエリではサポートされていないためです。
DS_UNSUPPORTED_TABLE_TYPE_IN_MST
SQLSTATE: 割り当てなし
<dsError>: 複数ステートメント トランザクション (MST) クエリでは、テーブルの種類 [<tableType>] のクエリはサポートされていません。
DS_USER_CONTEXT_ERROR
SQLSTATE: 割り当てなし
<dsError>: <message>
DS_VIEW_SHARING_FUNCTIONS_NOT_ALLOWED
SQLSTATE: 割り当てなし
<dsError>: 次の関数: ビュー共有クエリでは <functions> は許可されません。
DS_WORKSPACE_DOMAIN_NOT_SET
SQLSTATE: 割り当てなし
<dsError>: ワークスペース <workspaceId> ドメインが設定されていません。
DS_WORKSPACE_NOT_FOUND
SQLSTATE: 割り当てなし
<dsError>: ワークスペースの <workspaceId> が見つかりませんでした。
Autoloader
CF_ADD_NEW_NOT_SUPPORTED
スキーマが指定されている場合、スキーマの進化モード <addNewColumnsMode> はサポートされません。 このモードを使用するには、代わりに cloudFiles.schemaHints を使用してスキーマを指定できます。
CF_AMBIGUOUS_AUTH_OPTIONS_ERROR
(既定) ディレクトリの通知セットアップ認証オプションが見つかりました
リスト モード:
<options>
ファイル通知モードを使用する場合は、明示的に次の設定を行ってください。
.option("cloudFiles.<useNotificationsKey>", "true")
または、オプションの検証をスキップし、これらを無視する場合
認証オプションでは、次の設定を行うことができます。
.option("cloudFiles.ValidateOptionsKey>", "false") // オプションを設定する鍵を検証しません
CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR
増分一覧モード (cloudFiles.<useIncrementalListingKey>) と
ファイル通知 (cloudFiles.<useNotificationsKey>) が
それらは同時に有効になっています。
必ず 1 つだけ選択してください。
CF_AZURE_AUTHENTICATION_MISSING_OPTIONS
Databricks サービス資格情報、または Azure で認証するための clientId と clientSecret の両方を指定してください。
CF_AZURE_AUTHENTICATION_MULTIPLE_OPTIONS
Databricks サービスの資格情報が指定されている場合は、他の資格情報オプション (clientId、clientSecret、connectionString など) を指定しないでください。
CF_AZURE_STORAGE_SUFFIXES_REQUIRED
Azure に adlsBlobSuffix と adlsDfsSuffix が必要
CF_BUCKET_MISMATCH
ファイル イベント <storeType> の <fileEvent> は、ソースによって想定される <source>とは異なります。
CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY
スキーマ ログが空の場合、スキーマを進化させることはできません。 スキーマ ログの場所: <logPath>
CF_CANNOT_PARSE_QUEUE_MESSAGE
次のキュー メッセージを解析できません: <message>
CF_CANNOT_RESOLVE_CONTAINER_NAME
パス <path> からコンテナー名を解決できません。解決された uri: <uri>
CF_CANNOT_RUN_DIRECTORY_LISTING
非同期バックフィル スレッドが実行されている場合、ディレクトリ一覧を実行できません
CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON
cloudFiles.cleanSource と cloudFiles.allowOverwrites を同時に有効にすることはできません。
CF_CLEAN_SOURCE_CANNOT_MOVE_FILES_INSIDE_SOURCE_PATH
取り込み先のパスの下にあるディレクトリへのファイルの移動はサポートされていません。
CF_CLEAN_SOURCE_NOT_ENABLED
このワークスペースに対して CleanSource が有効になっていません。 サポートについては、Databricks サポートにお問い合わせください。
CF_CLEAN_SOURCE_NOT_SUPPORTED サポートされていません
CleanSource は、 <op>ではサポートされていません。
CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION
自動ローダーは、ソース ディレクトリまたは移動先への書き込みアクセス許可がないため、処理されたファイルをアーカイブできません。
詳細については、CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSIONを参照してください。
CF_DUPLICATE_COLUMN_IN_DATA
テーブルのパーティション スキーマを推論しようとしたときにエラーが発生しました。 データパスとパーティションパスに同じ列が重複しています。 パーティション値を無視するには、.option("cloudFiles.<partitionColumnsKey>", "{comma-separated-list}") を使用して、パーティション列を明示的に指定してください。
CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE
入力パス <path> が空の場合、スキーマを推論できません。 入力パスにファイルがある場合はストリームを開始するか、スキーマを指定してください。
CF_EVENT_GRID_AUTH_ERROR
Event Grid サブスクリプションを作成できませんでした。 サービス プリンシパルに
<permissionType> Event Grid サブスクリプションがあることを確認してください。 詳細については、以下を参照してください。
<docLink>
CF_EVENT_GRID_CREATION_FAILED
Event Grid サブスクリプションを作成できませんでした。 Microsoft.EventGrid が確実に動作するようにしてください。
サブスクリプションにおいてリソースプロバイダーとして登録されています。 詳細については、以下を参照してください。
<docLink>
CF_EVENT_GRID_NOT_FOUND_ERROR
Event Grid サブスクリプションを作成できませんでした。 ストレージ アカウント
アカウント (<storageAccount>) はリソース グループ (<resourceGroup>) に属しています。
ストレージ アカウントは "StorageV2 (汎用 v2)" アカウントです。 詳細については、以下を参照してください。
<docLink>
CF_EVENT_NOTIFICATION_NOT_SUPPORTED
自動ローダー イベント通知モードは、<cloudStore>ではサポートされていません。
CF_EVENT_NOTIFICATION_SETUP_FAILED
自動ローダーのファイル通知リソースを設定できませんでした。
詳細については、CF_EVENT_NOTIFICATION_SETUP_FAILEDを参照してください。
CF_FAILED_TO_CHECK_STREAM_NEW
ストリームが新しいかどうかを確認できませんでした
CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION
サブスクリプションの作成に失敗しました: <subscriptionName>。 同じ名前のサブスクリプションが既に存在し、別のトピック (<otherTopicName>) に関連付けられています。 目的のトピックは <proposedTopicName>です。 既存のサブスクリプションを削除するか、新しいリソース サフィックスを持つサブスクリプションを作成します。
CF_FAILED_TO_CREATED_PUBSUB_TOPIC
トピックの作成に失敗しました: <topicName>. 同じ名前のトピックが既に存在します。
<reason> 既存のトピックを削除するか、別のリソース サフィックスを指定してやり直してください
CF_FAILED_TO_DELETE_GCP_NOTIFICATION
トピック <notificationId>のバケット <bucketName> で id <topicName> を持つ通知を削除できませんでした。 GCP コンソールから通知を再試行するか、手動で削除してください。
CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA
永続化されたスキーマを文字列 '<jsonSchema>' から逆シリアル化できませんでした
CF_FAILED_TO_EVOLVE_SCHEMA
スキーマ ログなしでスキーマを進化させることはできません。
CF_FAILED_TO_FIND_PROVIDER
<fileFormatInput> のプロバイダーを見つけることができません
CF_FAILED_TO_INFER_SCHEMA
入力パス <fileFormatInput>内の既存のファイルから <path> 形式のスキーマを推論できませんでした。
詳細については、CF_FAILED_TO_INFER_SCHEMA を参照してください
CF_FAILED_TO_WRITE_TO_SCHEMA_LOG
場所 <path>スキーマ ログに書き込めませんでした。
CF_FILE_FORMAT_REQUIRED
必要なオプション cloudFiles.format が見つかりませんでした。
CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS
トピック <num>の自動ローダー プレフィックスを持つ複数の (<topicName>) サブスクリプションが見つかりました。
<subscriptionList>
トピックごとにサブスクリプションは 1 つだけ必要です。 トピックに複数のサブスクリプションがないことを手動で確認してください。
CF_GCP_AUTHENTICATION
次のいずれかを指定してください: <clientEmail>, <client>、
<privateKey>、<privateKeyId>、または Databricks サービス資格情報を使用するための <serviceCredential> を指定します。
または、GCP リソースで認証するために既定の GCP 資格情報プロバイダー チェーンを使用するために、いずれも指定しません。
CF_GCP_LABELS_COUNT_EXCEEDED
GCP リソースに対して受け取ったラベルが多すぎます (<num>)。 リソースあたりの最大ラベル数は <maxNum>。
CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED
GCP リソースに対してリソースタグ (<num>) を受け取りすぎました。 リソース タグがリソースに GCP ラベルとして格納され、Databricks 固有のタグがこのラベル クォータの一部を使用する場合、リソースあたりの最大リソース タグ数は <maxNum>。
CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG
パス <path> のスキーマ ログの不完全なログ ファイル
CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT
オートローダー チェックポイントの不完全なメタデータ ファイル
CF_INCORRECT_BATCH_USAGE
CloudFiles はストリーミング ソースです。 spark.read の代わりに spark.readStream を使用してください。 このチェックを無効にするには、<cloudFilesFormatValidationEnabled> を false に設定します。
CF_INCORRECT_SQL_PARAMS
cloud_files メソッドは、読み込むパスとファイル形式の 2 つの必須文字列パラメーターを受け入れます。 ファイル リーダー オプションは、文字列キーと値のマップで指定する必要があります。 たとえば、cloud_files("path","json", map("option1", "value1")) などです。
<params> を受け取りました
CF_INCORRECT_STREAM_USAGE
ストリーミング ソースとして 'cloudFiles' を使用するには、ファイル形式にオプション 'cloudFiles.format' を指定し、.load() を使用して DataFrame を作成してください。 このチェックを無効にするには、<cloudFilesFormatValidationEnabled> を false に設定します。
CF_INTERNAL_ERROR
自動ローダーで内部エラーが発生しました。 サポートについては、Databricks サポートにお問い合わせください。
詳細については、CF_INTERNAL_ERROR を参照してください。
CF_INVALID_ARN
無効な ARN: <arn>
CF_INVALID_AZURE_CERTIFICATE
オプション cloudFiles.certificate で提供される秘密キーは解析できません。 PEM 形式で有効な公開キーを指定してください。
CF_INVALID_AZURE_CERT_PRIVATE_KEY
オプション cloudFiles.certificatePrivateKey で提供される秘密キーは解析できません。 有効な秘密キーを PEM 形式で指定してください。
CF_INVALID_CHECKPOINT
このチェックポイントは有効な CloudFiles ソースではありません
CF_INVALID_CLEAN_SOURCE_MODE
クリーン ソース オプションの <value>モードが無効です。
CF_INVALID_GCP_RESOURCE_TAG_KEY
GCP リソースのリソース タグ キーが無効です: <key>。 キーは小文字で始まり、1 ~ 63 文字以内で、小文字、数字、アンダースコア (_)、ハイフン (-) のみを含む必要があります。
CF_INVALID_GCP_RESOURCE_TAG_VALUE
GCP リソースのリソース タグ値が無効です: <value>。 値の長さは 0 ~ 63 文字で、小文字、数字、アンダースコア (_)、ハイフン (-) のみを含める必要があります。
CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS
自動ローダーでは、マネージド ファイル イベントと共に使用する場合、次のオプションはサポートされません。
<optionList>
これらのオプションを削除してから、ストリームを再起動することをお勧めします。
CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
マネージド ファイル イベント サービスからの応答が無効です。 サポートについては、Databricks サポートにお問い合わせください。
詳しくは、CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE を参照してください
CF_INVALID_SCHEMA_EVOLUTION_MODE
cloudFiles.
<schemaEvolutionModeKey> { のいずれかである必要があります
<addNewColumnsWithTypeWidening>
<addNewColumns>
<failOnNewColumns>
<rescue>
"<noEvolution>"}
CF_INVALID_SCHEMA_HINTS_OPTION
スキーマ ヒントでは、特定の列を 1 回だけ指定できます。
この場合、列の再定義: <columnName>
schemaHints で複数回:
<schemaHints>
CF_INVALID_SCHEMA_HINT_COLUMN
スキーマ ヒントを使用して、マップと配列の入れ子になった型をオーバーライドすることはできません。
競合する列: <columnName>
CF_LATEST_OFFSET_READ_LIMIT_REQUIRED
latestOffset は、このソースで ReadLimit を使用して呼び出す必要があります。
CF_LOG_FILE_MALFORMED
ログ ファイルの形式が正しくありません。<fileName>から正しいログ バージョンを読み取れませんでした。
CF_MANAGED_FILE_EVENTS_BACKFILL_IN_PROGRESS
includeExistingFiles を false に設定して、外部の場所にある既存のファイルを無視するように自動ローダーに要求しました。 ただし、マネージド ファイル イベント サービスは、外部の場所にある既存のファイルを引き続き検出しています。 マネージド ファイル イベントが外部の場所にあるすべてのファイルの検出を完了したら、もう一度やり直してください。
CF_MANAGED_FILE_EVENTS_ENDPOINT_NOT_FOUND
マネージド ファイル イベントで自動ローダーを使用していますが、入力パス '<path>' の外部の場所でファイル イベントが有効になっていないか、入力パスが無効であるようです。 入力パスの外部の場所でファイル イベントを有効にするように Databricks 管理者に依頼してください。
CF_MANAGED_FILE_EVENTS_ENDPOINT_PERMISSION_DENIED
マネージド ファイル イベントで自動ローダーを使用していますが、入力パス '<path>' の外部の場所またはボリュームにアクセスできないか、入力パスが無効です。 Databricks 管理者に、外部の場所またはボリュームの読み取りアクセス許可を付与するか、既存の外部の場所またはボリューム内に有効な入力パスを指定するように要求してください。
CF_MANAGED_FILE_EVENTS_INVALID_CONTINUATION_TOKEN
ファイル イベント キャッシュ内のストリームの読み取り位置が無効になっています。 これは、ファイル イベントの構成が更新されたことが原因で発生する可能性があります (たとえば、指定されたキューの URL が変更されたか、ファイル イベントが無効になって再び有効にされました)。 サポートについては、Databricks サポートにお問い合わせください。
CF_MANAGED_FILE_EVENTS_IS_PREVIEW
マネージド ファイル イベントを含む自動ローダーはプレビュー機能です。 続行するには、Databricks サポートに問い合わせるか、cloudFiles.useManagedFileEvents オプションをオフにしてください。
CF_MANAGED_FILE_EVENTS_RATE_LIMIT_EXCEEDED
同時実行自動ローダー ストリームが実行されている数が多すぎます。 解決するには、可能であればストリームのコンカレンシーを減らすか、外部の場所にある複数のサブディレクトリから読み込むときにサブディレクトリごとに個別のボリュームを作成します。 問題が解決しない場合は、Databricks の担当者にお問い合わせください。
CF_MAX_MUST_BE_POSITIVE
max は正である必要があります
CF_METADATA_FILE_CONCURRENTLY_USED
複数のストリーミング クエリが同時に <metadataFile> を使用している
CF_MISSING_METADATA_FILE_ERROR
ストリーミング ソース チェックポイント ディレクトリ内のメタデータ ファイルがありません。 このメタデータ
ファイルにはストリームの重要な既定のオプションが含まれているため、ストリームを再起動できません
今すぐ。 サポートについては、Databricks サポートにお問い合わせください。
CF_MISSING_PARTITION_COLUMN_ERROR
パーティション列 <columnName> は、指定されたスキーマに存在しません。
<schema>
CF_MISSING_SCHEMA_IN_PATHLESS_MODE
ファイル通知モードの使用中に CloudFiles ソースにパスが指定されていない場合は、.schema() を使用してスキーマを指定してください。 または、自動ローダーでスキーマを推論するには、.load() にベース パスを指定してください。
CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC
バケット <topicName>でトピック <bucketName> の既存の通知が見つかりました:
notification,id
<notificationList>
意図しないイベントでサブスクライバーが汚染されないようにするには、上記の通知を削除して再試行してください。
CF_NEW_PARTITION_ERROR
ファイルから新しいパーティション列が推論されました: [<filesList>]。 スキーマ内のすべてのパーティション列を指定するか、.option("cloudFiles.partitionColumns", "{comma-separated-list|empty-string}") を使用して値を抽出するパーティション列の一覧を指定してください。
CF_PARTITON_INFERENCE_ERROR
ファイルの現在のバッチのパーティション スキーマを推論しようとしたときにエラーが発生しました。 .option("cloudFiles.<partitionColumnOption>", "{comma-separated-list}") を使用して、パーティション列を明示的に指定してください。
CF_PATH_DOES_NOT_EXIST_FOR_READ_FILES
入力パス <path> が存在しない場合、ファイルを読み取ることができません。 入力パスが存在することを確認し、再試行してください。
CF_PERIODIC_BACKFILL_NOT_SUPPORTED
非同期バックフィルが無効になっている場合、定期的なバックフィルはサポートされません。
spark.databricks.cloudFiles.asyncDirListing を true に設定することで、非同期のバックフィル/ディレクトリ一覧を有効にすることができます
CF_PREFIX_MISMATCH
一致しないイベントが見つかりました:キー <key> にプレフィックスがありません。 <prefix>
CF_PROTOCOL_MISMATCH
<message>
コードに他の変更を加える必要がない場合は、SQL を設定してください
構成: '<sourceProtocolVersionKey> = <value>'
ストリームを再開してください。 以下を参照してください。
<docLink>
詳細については、以下を参照してください。
CF_REGION_NOT_FOUND_ERROR
既定の AWS リージョンを取得できませんでした。 cloudFiles.region オプションを使用してリージョンを指定してください。
CF_RESOURCE_SUFFIX_EMPTY
通知サービスを作成できませんでした。リソース サフィックスを空にすることはできません。
CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS
通知サービスを作成できませんでした。リソース サフィックスには、英数字、ハイフン (-) とアンダースコア (_) のみを使用できます。
CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE
通知サービスを作成できませんでした。リソース サフィックスには小文字、数字、ダッシュ (-) のみを使用できます。
CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP
通知サービスを作成できませんでした。リソース サフィックスには、英数字、ハイフン (-)、アンダースコア (_)、ピリオド (.)、チルダ (~)、プラス記号 (+)、パーセント記号 (<percentSign>) のみを指定できます。
CF_RESOURCE_SUFFIX_LIMIT
通知サービスを作成できませんでした。リソース サフィックスに <limit> 文字を超えることはできません。
CF_RESOURCE_SUFFIX_LIMIT_GCP
通知サービスを作成できませんでした。リソース サフィックスは、<lowerLimit> 文字と <upperLimit> 文字の間である必要があります。
CF_RESTRICTED_GCP_RESOURCE_TAG_KEY
制限された GCP リソース タグ キー (<key>) が見つかりました。 自動ローダーでは、次の GCP リソース タグ キーが制限されています: [<restrictedKeys>]
CF_RETENTION_GREATER_THAN_MAX_FILE_AGE
cloudFiles.cleanSource.retentionDuration を cloudFiles.maxFileAge より大きくすることはできません。
CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX
トピック: <topic>、プレフィックス: <prefix>に対する通知の作成に失敗しました。 既に、別のプレフィックスが付いた同じ名前のトピックがあります: <oldPrefix>. セットアップに別のリソース サフィックスを使用するか、既存のセットアップを削除してみてください。
CF_SCHEMA_LOG_DEEP_CLONE_FAILED
ソース スキーマ ログからスキーマ ログ エントリを複製および移行できませんでした。
CF_SFTP_MISSING_PASSWORD_OR_KEY_FILE
SFTP にはパスワードまたはキー ファイルを指定する必要があります。
ソース URI または <passwordOption>でパスワードを指定するか、キー ファイルの内容を <keyFileOption>で指定してください。
CF_SFTP_NOT_ENABLED
SFTP ファイルへのアクセスが有効になっていません。 サポートについては、Databricks サポートにお問い合わせください。
CF_SFTP_REQUIRE_FULL_PATH
正確な UC 接続の検索を確実に行うために、sftp://$user@$host:$port/$path の形式で SFTP ソースの完全パス コンポーネントを指定します。
CF_SFTP_REQUIRE_UC_CLUSTER
SFTP ファイルにアクセスするには、UC 対応クラスターが必要です。 サポートについては、Databricks サポートにお問い合わせください。
CF_SFTP_USERNAME_NOT_FOUND
SFTP にはユーザー名を指定する必要があります。
ソース URI または <option>経由でユーザー名を指定してください。
CF_SOURCE_DIRECTORY_PATH_REQUIRED
ソース ディレクトリのパスにオプション path を指定してください
CF_SOURCE_UNSUPPORTED
クラウド ファイル ソースでは、現在、S3、Azure Blob Storage (wasb/wasbs)、Azure Data Lake Gen1 (adl) と Gen2 (abfs/abfss) のパスのみがサポートされています。 path: '<path>', 解決されたURI: '<uri>'
CF_STATE_INCORRECT_SQL_PARAMS
cloud_files_state関数は、cloudFiles ストリームのチェックポイント ディレクトリまたはストリーミング テーブルを識別するマルチパート tableName を表す文字列パラメーターと、状態を読み込むチェックポイント のバージョンを表すオプションの 2 番目の整数パラメーターを受け取ります。 2 番目のパラメーターは、最新のチェックポイントを読み取るために 'latest' である場合もあります。
<params> を受け取りました
CF_STATE_INVALID_CHECKPOINT_PATH
入力チェックポイント パス <path> が無効です。 パスが存在しないか、cloud_filesソースが見つかりません。
CF_STATE_INVALID_VERSION
指定されたバージョン <version> は存在しないか、または解析中に削除されました。
CF_THREAD_IS_DEAD
<threadName> スレッドが停止しています。
CF_UNABLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION
ソース チェックポイントの場所からストリーム チェックポイントの場所を派生できない: <checkPointLocation>
CF_UNABLE_TO_DETECT_FILE_FORMAT
<fileSize> 個のサンプリングされたファイルからソース ファイル形式を検出できません。<formats> が見つかりました。 形式を指定してください。
CF_UNABLE_TO_EXTRACT_BUCKET_INFO
バケット情報を抽出できません。 パス: '<path>'、解決済みの URI: '<uri>'。
CF_UNABLE_TO_EXTRACT_KEY_INFO
キー情報を抽出できません。 パス: '<path>'、解決済みの URI: '<uri>'。
CF_UNABLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO
ストレージ アカウント情報を抽出できません。パス: '<path>'、解決された uri: '<uri>'
CF_UNABLE_TO_LIST_EFFICIENTLY
パス <path>のディレクトリ名変更イベントを受信しましたが、このディレクトリを効率的に一覧表示できません。 ストリームを続行するには、オプション 'cloudFiles.ignoreDirRenames' を true に設定し、このデータを処理するために cloudFiles.backfillInterval で通常のバックフィルを有効にすることを検討してください。
CF_UNEXPECTED_READ_LIMIT
予期しない読み取り制限: <readLimit>
CF_UNKNOWN_OPTION_KEYS_ERROR
不明なオプション キーが見つかりました:
<optionList>
指定されたすべてのオプション キーが正しいことを確認してください。 オプションの検証をスキップして、
オプションの検証を行い、これらの不明なオプションを無視して、次の設定を行うことができます。
.option("cloudFiles.<validateOptions>", "false")
CF_UNKNOWN_READ_LIMIT
不明なリードリミット: <readLimit>
CF_UNSUPPORTED_CLEAN_SOURCE_MOVE
cleanSource 'move' モードの構成はサポートされていません。
詳細については、CF_UNSUPPORTED_CLEAN_SOURCE_MOVE を参照してください
CF_UNSUPPORTED_CLOUD_FILES_SQL_FUNCTION
自動ローダー ストリーミング ソースを作成する SQL 関数 'cloud_files' は、Lakeflow Spark 宣言パイプライン パイプラインでのみサポートされます。 詳細については、以下を参照してください。
<docLink>
CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE
スキーマ推論は、<format>形式ではサポートされていません。 スキーマを指定してください。
CF_UNSUPPORTED_LOG_VERSION
UnsupportedLogVersion: サポートされているログの最大バージョンは v<maxVersion> ですが、v<version> が検出されました。 ログ ファイルは新しいバージョンの DBR によって生成され、このバージョンでは読み取ることができません。 アップグレードしてください。
CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE
スキーマ進化モードの <mode> は、<format>形式ではサポートされていません。 スキーマの進化モードを "none" に設定してください。
CF_USE_DELTA_FORMAT
Delta テーブルからの読み取りは、この構文ではサポートされていません。 Delta からデータを使用する場合は、デルタ テーブル (<deltaDocLink>) を読み取るか、ストリーム ソース (<streamDeltaDocLink>) として Delta テーブルを読み取る方法に関するドキュメントを参照してください。 Delta からのストリーミング ソースは、データの増分消費用に既に最適化されています。
Geospatial
EWKB_PARSE_ERROR
EWKB の解析中に位置 <parseError> でエラー <pos> が発生しました
詳細については、EWKB_PARSE_ERRORを参照してください。
EWKT_PARSE_ERROR
EWKT の解析中にエラーが発生しました: 位置に<parseError><pos>
GEOJSON_PARSE_ERROR
GeoJSON の解析中に位置 <parseError> でエラー <pos> が発生しました
詳細については、GEOJSON_PARSE_ERROR を参照してください。
GEO_ENCODER_SRID_MISMATCH_ERROR
エンコードする値の SRID <type>が型 SRID: <valueSrid>と一致しないため、<typeSrid>値のエンコードに失敗しました。
H3_INVALID_CELL_ID
<h3Cell> が有効な H3 セル ID ではありません
詳細については、H3_INVALID_CELL_ID を参照してください。
H3_INVALID_GRID_DISTANCE_VALUE
H3 グリッド距離 <k> は非負である必要があります
詳細については、H3_INVALID_GRID_DISTANCE_VALUE を参照してください
H3_INVALID_RESOLUTION_VALUE
H3 の解像度 <r> は、<minR> と <maxR> の間 (両端を含む) である必要があります
詳細については、H3_INVALID_RESOLUTION_VALUE を参照してください
H3_NOT_ENABLED
<h3Expression> が無効になっているか、サポートされていません。 H3 式をサポートするレベルへの切り替えを検討する
詳細については、H3_NOT_ENABLED を参照してください。
H3_PENTAGON_ENCOUNTERED_ERROR
<h3Cell>の六角形のリングをグリッド距離<k>で計算している時に五角形が発見されました。
H3_UNDEFINED_GRID_DISTANCE
<h3Cell1> と <h3Cell2> 間の H3 グリッド距離が未定義です
ST_DIFFERENT_SRID_VALUES
"<sqlFunction>" の引数には、同じ SRID 値が必要です。 SRID 値が見つかりました: <srid1>, <srid2>
ST_INVALID_ARGUMENT(無効な引数)
<sqlFunction>:
詳細については、ST_INVALID_ARGUMENTを参照してください。
ST_INVALID_CRS_TRANSFORMATION_ERROR
<sqlFunction>: SRID <srcSrid> から SRID <trgSrid> への無効またはサポートされていないCRS変換
ST_INVALID_PRECISION_VALUE
精度 <p> は、<minP> と <maxP> の間 (両端を含む) である必要があります
ST_NOT_ENABLED
<stExpression> が無効になっているか、サポートされていません。 ST 式をサポートするレベルへの切り替えを検討する
WKB_PARSE_ERROR
WKB の解析中に位置 <parseError> でエラー <pos> が発生しました
詳細については、WKB_PARSE_ERROR を参照してください。
WKT_PARSE_ERROR
WKT の解析中に位置 <parseError> でエラー <pos> が発生しました
詳細については、WKT_PARSE_ERROR を参照してください。
Unity カタログ
CANNOT_DROP_TAGGED_COLUMN
1 つ以上の管理タグが割り当てられているため、列を削除できません。 列を削除する前に、タグを削除してください。 ガイダンスについては、ドキュメントの <docLink>を参照してください。
CHILD_CREATION_FORBIDDEN_FOR_FOREIGN_SECURABLE
種類<childSecurableName>のセキュリティ保護可能な<childSecurableType>は、<parentSecurableName>の親<parentSecurableKind>に作成できません。
列形式が列タイプと互換性がありません
列 <columnName> には <formatType> 形式があり、列型の <columnType>と互換性がありません。
CONFLICTING_COLUMN_NAMES_ERROR
列 <columnName> 、同じ名前を持つ別の列と競合しますが、末尾に空白がある場合とない場合 (たとえば、 <columnName> という名前の既存の列)。 別の名前で列の名前を変更してください。
CONNECTION_CREDENTIALS_NOT_SUPPORTED_FOR_ONLINE_TABLE_CONNECTION
<connectionType>の種類の接続に対する接続レベルの資格情報を取得する要求が無効です。 このような資格情報は、マネージド PostgreSQL 接続でのみ使用できます。
CONNECTION_TYPE_NOT_ENABLED
接続の種類 '<connectionType>' が有効になっていません。 接続を有効にして使用してください。
DELTA_SHARING_プロビジョニング_状態_非アクティブ
現在、共有エンティティ '<securableFullName>' は、対応するソース エンティティと完全に同期されていないため、使用できません。 原因: <reason>。
DELTA_SHARING_READ_ONLY_RECIPIENT_EXISTS
同じ共有識別子 '<existingRecipientName>' を持つ Recipient オブジェクト '<existingMetastoreId>' が既にあります。
DELTA_SHARING_READ_ONLY_SECURABLE_KIND
Delta Sharing Securable Kind <securableKindName> のデータは読み取り専用であり、作成、変更、削除することはできません。
DISASTER_RECOVERY_READ_ONLY
ディザスター リカバリーによって管理 <catalogName> レプリカ カタログ内のデータは読み取り専用であり、作成、変更、または削除することはできません。
EXTERNAL_ACCESS_DISABLED_ON_METASTORE
メタストア <metastoreName>の外部データアクセスが無効になっているため、Databricks Compute 環境以外では資格情報提供が拒否されます。 メタストアで "外部データ アクセス" 構成を有効にするには、metastore 管理者に問い合わせてください。
EXTERNAL_ACCESS_NOT_ALLOWED_FOR_TABLE
id <tableId> を持つテーブルは、その種類が <securableKind>されているため、Databricks コンピューティング環境の外部からアクセスできません。 外部からアクセスできるのは、'TABLE_EXTERNAL'、'TABLE_DELTA_EXTERNAL' テーブル、および 'TABLE_DELTA' テーブルの種類だけです。
EXTERNAL_USE_SCHEMA_ASSIGNED_TO_INCORRECT_SECURABLE_TYPE
USE EXTERNALSCHEMA 特権は、このエンティティ <assignedSecurableType> には適用されず、スキーマまたはカタログにのみ割り当てることができます。
<assignedSecurableType> オブジェクトから権限を削除し、代わりにスキーマまたはカタログに割り当ててください。
EXTERNAL_WRITE_NOT_ALLOWED_FOR_TABLE
id <tableId> を持つテーブルは、その種類が <securableKind>されているため、Databricks コンピューティング環境の外部から書き込むことができません。 外部で書き込むことができるのは、'TABLE_EXTERNAL' テーブルと 'TABLE_DELTA_EXTERNAL' テーブルの種類だけです。
FOREIGN_CATALOG_STORAGE_ROOT_MUST_SUPPORT_WRITES
<catalogType> 型の外部カタログの格納場所は、データのアンロードに使用され、読み取り専用にすることはできません。
HMS_SECURABLE_OVERLAP_LIMIT_EXCEEDED
入力パス <resourceType> の <url> の数が、重複する HMS <overlapLimit> に許可される制限 (<resourceType>) を超えています。
無効なデータソース形式
データ ソース形式 '<datasourceFormat>' はサポートされていません<tableTypeSuffix> <catalogKindSuffix>。
INVALID_NAME_FORMAT
<fieldDescription> は有効な名前ではありません。 有効な名前には英数字とアンダースコアのみを含める必要があり、スペース、ピリオド、スラッシュ、または制御文字を含めることはできません。
INVALID_RESOURCE_NAME_DELTA_SHARING
Delta Sharingリクエストはリソース名を使用してサポートされていません。
INVALID_RESOURCE_NAME_ENTITY_TYPE
指定されたリソース名はエンティティの種類 <provided> を参照していますが、期待されているのは <expected> です。
INVALID_RESOURCE_NAME_METASTORE_ID
指定されたリソース名は、現在の要求のスコープ内にないメタストアを参照します
INVALID_SECURABLE_NAME
<rpcName> 無効な <securableType> 名: '<securableFullName>'
LOCATION_OVERLAP
入力パス URL '<path>' は、'<overlappingLocation>' 呼び出し内の<caller>と重複しています。
<conflictingSummary>。 <permissionErrorSuggestion>
LOCATION_OVERLAP_STORAGE_CONFLICT_WITH_WORKSPACE_STORAGE
ユーザー定義のストレージの場所は、'<caller>' 操作中にワークスペースの既定のストレージ '<path>' と競合します。 これにより、ワークスペース ストレージに依存する機能が動作できなくなります。 競合の概要: <conflictingSummary>。 修復手順については、 https://docs.databricks.com/aws/en/data-governance/unity-catalog/storage-conflicts を参照してください。
管理されたテーブルフォーマット
マネージド テーブルでは Delta のみがサポートされています。 指定されたデータソース形式は <datasourceFormat>。
MONGO_DB_SRV_CONNECTION_STRING_DOES_NOT_ALLOW_PORT
MongoDB SRV 接続文字列にはポートが必要ないため、MongoDB 接続の作成または更新は許可されません。
SRV 接続文字列にはポートが必要ないため、ポートを削除してください。
PRINCIPAL_DOES_NOT_EXIST (主体が存在しません)
名前が <principalName>のプリンシパルが見つかりませんでした。
特権サポートは有効化されていません
種類 [<typeString>] で特権のサポートが有効になっていません
PRIVILEGE_NOT_APPLICABLE_TO_ENTITY
特権 <privilege> は、このエンティティ [<classifier>] には適用されません。 予期しない場合は、[<privilegeVersion>] を使用しているメタストアの特権バージョンを確認してください。
読み取り専用カタログ
Delta Sharingカタログ内のデータは読み取り専用であり、作成、変更、削除することはできません。 カタログ '<catalogName>' は差分共有カタログです。
REDSHIFT_FOREIGN_CATALOG_STORAGE_ROOT_MUST_BE_S3
Redshift 外部カタログのストレージ ルートは AWS S3 である必要があります。
SCHEMA_NOT_EMPTY
スキーマ '<fullName>' が空ではありません。 <extraInfo>
SECURABLE_KIND_DOES_NOT_SUPPORT_LAKEHOUSE_FEDERATION
種類が <securableKind> のセキュリティ保護可能なリソースは、Lakehouse フェデレーションをサポートしていません。
SECURABLE_KIND_NOT_ENABLED
セキュリティ保護可能な種類 '<securableKind>' が有効になっていません。 プレビュー機能に関連付けられているセキュリティ保護可能な種類の場合は、ワークスペースの設定で有効にしてください。
SECURABLE_TYPE_DOES_NOT_SUPPORT_LAKEHOUSE_FEDERATION
型が <securableType> のセキュリティ保護可能なリソースは、Lakehouse フェデレーションをサポートしていません。
SOURCE_TABLE_COLUMN_COUNT_EXCEEDS_LIMIT
ソース テーブルには、<columnCount> 以上の列があります。 列の数を減らして <columnLimitation> 以下にしてください。
SYSTEM_SERVICE_PRINCIPAL_IS_NOT_REGISTERED
リソース名が <servicePrincipalResource>の登録済みシステム サービス プリンシパルが見つかりませんでした。
TABLE_TYPE_DOES_NOT_SUPPORT_COLUMN_METADATA (テーブルのタイプは列メタデータをサポートしていません)
テーブルの種類 <tableType> は、列メタデータをサポートしていません。
UC_AAD_CLIENT_SECRET_EXPIRED_FOR_SERVICE_PRINCIPAL
アプリケーション ID <applicationId> を持つサービス プリンシパルのクライアント シークレット キーの有効期限が切れています。 Azure portal にアクセスして、サービス プリンシパルの新しいキーを作成します。
UC_AAD_CLIENT_SECRET_EXPIRED_FOR_STORAGE_CREDENTIAL
ストレージ資格情報 <storageCredentialName> のクライアント シークレット キーの有効期限が切れています。 ストレージ資格情報を更新するには、所有者またはアカウント管理者に問い合わせてください。
UC_AAD_CLIENT_SECRET_INVALID_FOR_SERVICE_PRINCIPAL
アプリケーション ID <applicationId> を持つサービス プリンシパルのクライアント シークレット キーが無効です。
UC_AAD_SERVICE_PRINCIPAL_CONFIG_INVALID
サービス プリンシパルの構成が無効です。 ディレクトリ ID、アプリケーション ID、クライアント シークレットを確認します。
UC_AAD_TOKEN_EXCHANGE_GENERIC_FAILURE
資格情報を取得できませんでした:ストレージ資格情報 <storageCredentialName> が正しく構成されていません。 構成を更新するには、所有者またはアカウント管理者に問い合わせてください。
UC_AAD_TOKEN_LIFETIME_TOO_SHORT
ExchangeD AAD トークンの有効期間が <lifetime> であり、構成が短すぎます。 Azure AD の設定を確認して、一時的なアクセス トークンの有効期間が少なくとも 1 時間であることを確認してください。 https://learn.microsoft.com/azure/active-directory/develop/active-directory-configurable-token-lifetimes
UC_ABAC_AMBIGUOUS_COLUMN_MATCH(あいまいな列の一致)
'<resource>' の ABAC ポリシーの評価中にエラーが発生しました。 ポリシー '<policyName>' がメッセージで失敗しました: エイリアス '<alias>' を使用した結果、<size> つの一致がありましたが、許可されているのは正確に 1 つだけです。
UC_ABAC_DEPENDENCY_COMPLEXITY_LIMIT_EXCEEDED
<resourceType> '<ref>' には、 <resolverType> abac 依存関係が多すぎます。
UC_ABAC_DEPENDENCY_DIFFERING_RF_CM
依存関係 '<dependency>' は複数回参照され、ABAC 行フィルターまたは列マスクが異なります。
UC_ABAC_EVALUATION_USER_ERROR
'<resource>' の ABAC ポリシーの評価中にエラーが発生しました。 ポリシー '<policyName>' が失敗し、次のメッセージが表示されました: <message>。
UC_ABAC_INVALID_TAG_POLICY_VALUE
'<resource>' の ABAC ポリシーの評価中にエラーが発生しました。 メッセージ: キー<tagValue> のタグポリシー値<tagKey>が無効で失敗しました。
UC_ABAC_MULTIPLE_ROW_FILTERS
'<resource>' の ABAC ポリシーを評価すると、複数の行フィルターが発生しました。 最大 1 つの行フィルターが許可されます。
UC_ABAC_UNKNOWN_TAG_ポリシー
'<resource>' の ABAC ポリシーの評価中にエラーが発生しました。 "不明なタグ ポリシー: <tagKey>" というメッセージで失敗しました。
UC_ABAC_UNMATCHED_ALIAS_IN_USING_COLUMNS
'<resource>' の ABAC ポリシーの評価中にエラーが発生しました。 メッセージの失敗: <alias> で使用されているエイリアス 'USING COLUMNS' は、どの列とも一致しませんでした。
UC_ABAC_UNMATCHED_ON_COLUMN_ALIAS
'<resource>' の ABAC ポリシーの評価中にエラーが発生しました。 ポリシー '<policyName>' は次のメッセージで失敗しました: <alias> に使用されているエイリアス 'ON COLUMN' は列と一致しませんでした。
UC_ABAC_UNMATCHED_USING_ALIAS
'<resource>' の ABAC ポリシーの評価中にエラーが発生しました。 ポリシー '<policyName>' がメッセージで失敗しました:エイリアス '<alias>' の使用に一致する列がありません。
UC_ABAC_USING_REF_OF_NATIVE_MASKED_COLUMNS
'<resource>' の ABAC ポリシーの評価中にエラーが発生しました。 メッセージで失敗しました: 列 '<usingCol>' はネイティブ RLS/CM ポリシーによってマスクされており、ABAC ポリシー '<policyName>' への入力として使用できません。
UCアクセスにはワークスペースが必要です
ユーザーが関連するワークスペースに割り当てられていないため、ワークスペースに結び付けられたリソースにアクセスできません。
UC_ALTER_DLT_VIEW_OUTSIDE_DEFINING_PIPELINE
ビューを定義したパイプラインの外部でビュー '<viewFullName>' を変更することは許可されません。 代わりに、それを定義したパイプラインからビュー定義を更新します (パイプライン ID: <owningPipelineId>)。
UC_ATLAS_NOT_ENABLED_FOR_CALLING_SERVICE
Atlas は、呼び出し元のサービス <serviceName>に対して有効になっていません。
UC_AUTHZ_ACTION_NOT_SUPPORTED
<actionName> の承認はサポートされていません。呼び出された RPC がこのリソースの種類に対して実装されていることを確認してください
UC_AWS_ASSUME_ROLE_FAILED
資格情報を取得できませんでした:Unity カタログの資格情報の AWS IAM ロールが正しく構成されていません。 AWS の構成を更新するには、metastore 管理者または資格情報の所有者に問い合わせてください。
UC_AWS_EMPTY_STORAGE_LOCATION
空の保存場所。
UC_AWS_INVALID_S3_POLICY_PREFIX
ストレージの場所の s3 パスが無効です。S3 パス <providedPath> は、予期されるプレフィックスで始まらない: <expectedPrefix>。
UC_AWS_UNSUPPORTED_S3_SCHEME
ストレージの場所の s3 パスが無効です:サポートされていないスキームが見つかりました: <providedScheme>。 サポートされているスキームは、 <supportedS3Schemes>です。
UC_AZURE_BLOB_SERVICE_UNAVAILABLE
Azure Blob Service は一時的に使用できません。 後でもう一度やり直してください。
UC_AZURE_UDK_UNAUTHORIZED
ユーザー委任キーの要求が承認されていません。 詳細: <details>
UC_BUILTIN_HMS_CONNECTION_CREATION_PERMISSION_DENIED
ユーザー: <userId> がワークスペースの管理者ではないため、組み込みの Hive メタストアの接続を作成できません: <workspaceId>
UC_BUILTIN_HMS_CONNECTION_MODIFY_RESTRICTED_FIELD
組み込みの HMS 接続 '<connectionName>' の制限付きフィールドの変更を試みます。 'warehouse_directory' のみを更新できます。
UC_CANNOT_RENAME_PARTITION_FILTERING_COLUMN
テーブル列 <originalLogicalColumn> の名前を変更できませんでした。これは、 <sharedTableName>でのパーティション フィルター処理に使用されるためです。 続行するには、共有からテーブルを削除し、列の名前を変更して、目的のパーティション フィルター列ともう一度共有することができます。 ただし、受信者のストリーミング クエリが中断される可能性があります。
UC_CHILD_CREATION_FORBIDDEN_FOR_NON_UC_CLUSTER
UCクラスターからの要求でないため、<securableType> '<securable>' の下に<parentSecurableType> '<parentSecurable>'を作成できません。
UC_CONFLICTING_CONNECTION_ALLOW_LIST_OPTIONS
接続オプションと重複する許可リストを持つ接続を作成できません。 値: <conflictingOptions>
UC_CONFLICTING_CONNECTION_OPTIONS
ユーザー名/パスワードと oauth 認証オプションの両方を使用して接続を作成することはできません。 いずれかを選択してください。
UC_CONNECTION_CREDENTIALS_MAXIMUM_REACHED
接続名 '<connectionName>' の資格情報の最大数に達しました。 新しい資格情報を作成する前に、既存の資格情報を削除してください。
UC_CONNECTION_CREDENTIALS_NOT_EXIST_FOR_USER_WITH_LOGIN
接続 '<userIdentity>' のユーザー ID('<connectionName>') の資格情報が見つかりません。 最初に<connectionPage>を訪問して接続にログインしてください。
UC_CONNECTION_CREDENTIALS_TYPE_NOT_SUPPORTED
セキュリティ保護可能な種類 '<securableType>' の資格情報の作成はサポートされていません。 サポートされているセキュリティ保護可能な種類: <allowedSecurableType>。
UC_CONNECTION_EXISTS_FOR_CREDENTIAL
資格情報 '<credentialName>' には、1 つ以上の依存接続があります。 資格情報を引き続き更新または削除するには force オプションを使用できますが、この資格情報を使用する接続が機能しなくなる可能性があります。
UC_CONNECTION_EXPIRED_ACCESS_TOKEN
接続に関連付けられているアクセス トークンの有効期限が切れています。 OAuth フローを再起動してトークンを取得するように接続を更新してください。
UC_CONNECTION_EXPIRED_REFRESH_TOKEN
接続に関連付けられている更新トークンの有効期限が切れています。 OAuth フローを再起動して新しいトークンを取得するように接続を更新してください。
UC_CONNECTION_IN_FAILED_STATE
接続が FAILED 状態です。 有効な資格情報で接続を更新して、再アクティブ化してください。
UC_CONNECTION_MISSING_OPTION
セキュリティ保護可能な種類 '<securableType>' の接続には、次のオプションを含める必要があります: <requiredOptions>。
UC_CONNECTION_MISSING_REFRESH_TOKEN
接続に関連付けられている更新トークンはありません。 更新トークンを返すように ID プロバイダーの OAuth クライアント統合を更新し、接続を更新または再作成して OAuth フローを再起動し、必要なトークンを取得してください。
UC_CONNECTION_OAUTH_EXCHANGE_FAILED
OAuth トークン交換が HTTP 状態コード <httpStatus>で失敗しました。 返されるサーバーの応答または例外メッセージは次のとおりです: <response>
UC_CONNECTION_OPTION_NOT_SUPPORTED
セキュリティ保護可能な種類 '<securableType>' の接続では、次のオプションはサポートされていません: <optionsNotSupported>。 サポートされているオプション: <allowedOptions>.
UC_COORDINATED_COMMITS_NOT_ENABLED
調整されたコミットのサポートは有効になっていません。 Databricks サポートにお問い合わせください。
UC_CREATE_FORBIDDEN_UNDER_INACTIVE_SECURABLE
'<securableType>' <securableName>作成できません。これは、アクティブでない<parentSecurableType> '<parentSecurableName>' の下にあるためです。 親のセキュリティ保護可能なリソースを削除して、親を再作成してください。
UC_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED
指定されたアクセス コネクタ ID (<accessConnectorId>) を解析できませんでした。 書式設定を確認してから、もう一度やり直してください。
UC_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN
アクセス コネクタでクラウドアクセス許可の検証を実行するための AAD トークンを取得できませんでした。 アクションを再試行してください。
UC_CREDENTIAL_INVALID_CLOUD_PERMISSIONS
SQLSTATE: 割り当てなし
資格情報を登録するには、ID <accessConnectorId>を持つ対応するアクセス コネクタに対する投稿者ロールが必要です。 アカウント管理者にお問い合わせください。
UC_CREDENTIAL_INVALID_CREDENTIAL_TYPE_FOR_PURPOSE
資格情報の種類 '<credentialType>' は、目的 '<credentialPurpose>' ではサポートされていません
UC_CREDENTIAL_PERMISSION_DENIED
SQLSTATE: 割り当てなし
<storageCredentialType>の種類で資格情報を作成または更新できるのは、アカウント管理者だけです。
UC_CREDENTIAL_TRUST_POLICY_IS_OPEN
Databricks アカウントがロールを引き受けることができるようにする IAM ロールの信頼ポリシーには、外部 ID が必要です。外部 ID 条件を追加するには、アカウント管理者に問い合わせてください。 この動作は、混乱した副官問題 (https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html) を防ぐためのものです。
UC_CREDENTIAL_WORKSPACE_API_PROHIBITED
アカウント レベルの API では、アカウント以外の管理者として資格情報を作成または更新することはできません。 代わりにワークスペース レベルの API を使用してください。
UC_DBR_TRUST_VERSION_TOO_OLD
使用されている Databricks ランタイムでは、この操作はサポートされなくなりました。 最新バージョンを使用してください (クラスターの再起動が必要な場合があります)。
UC_DELTA_ILLEGAL_BACKFILLED_VERSION
コミット (<version>, <commitType>) で予期しない latestBackfilledVersion <latestBackfilledVersion>。
UC_DELTA_ILLEGAL_CONCURRENT_MIGRATION
カタログ管理テーブルに対する同時アップグレードまたはダウングレードはサポートされていません。 移行コマンドを一度に実行するトランザクションは 1 つだけであることを確認します。 重複する <commitType> が検出されました。
UC_DELTA_ILLEGAL_MIGRATION_STATE_CHANGE
古いコミットの種類 <lastCommitType> から新しい <commitType>への無効な状態遷移。
UC_DELTA_MIGRATION_STATE_CHANGE_VERSION_MISMATCH
バージョンは、古い (<lastVersion>, <lastCommitType>) から新規 (<version>, <commitType>) への状態遷移と一致しません。
UC_DELTA_UNIVERSAL_FORMAT_CANNOT_PARSE_ICEBERG_VERSION
メタデータの場所 <metadataLocation>から Apache Iceberg テーブルバージョンを解析できません。
UC_DELTA_UNIVERSAL_FORMAT_CONCURRENT_WRITE
同じ Apache Iceberg メタデータ バージョンへの同時更新が検出されました。
UC_DELTA_UNIVERSAL_FORMAT_INVALID_METADATA_LOCATION
コミットされたメタデータの場所 <metadataLocation> が無効です。 テーブルのルート ディレクトリ <tableRoot>のサブディレクトリではありません。
UC_DELTA_UNIVERSAL_FORMAT_MISSING_FIELD_CONSTRAINT
指定されたデルタ Apache Iceberg 形式の変換情報に必須フィールドがありません。
UC_DELTA_UNIVERSAL_FORMAT_NON_CREATE_CONSTRAINT
作成時にデルタ Apache Iceberg 形式情報を設定することはサポートされていません。
UC_DELTA_UNIVERSAL_FORMAT_TOO_LARGE_CONSTRAINT
指定された差分 Apache Iceberg 形式の変換情報が大きすぎます。
UC_DELTA_UNIVERSAL_FORMAT_UPDATE_INVALID
均一メタデータは、Uniform が有効になっている Delta テーブルでのみ更新できます。
UC_DEPENDENCY_DEPTH_LIMIT_EXCEEDED
<resourceType> '<ref>' の深さが制限を超えています (または循環参照を持っています)。
UC_DEPENDENCY_DOES_NOT_EXIST
<resourceType> 基になるリソースのいずれかが存在しないため、'<ref>' は無効です。 <cause>
UC_DEPENDENCY_PERMISSION_DENIED
<resourceType> 基になるリソースの所有者が承認チェックに失敗したため、'<ref>' には実行するための十分な特権がありません。 <cause>
UC_DUPLICATE_CONNECTION
同じ URL を持つ '<connectionName>' という接続が既に存在します。 重複を作成する代わりに、その接続を使用するアクセス許可を所有者に依頼してください。
UC_DUPLICATE_FABRIC_CATALOG_CREATION
許可されていない既存のカタログに一致する URL '<storageLocation>' を持つ Fabric カタログを作成しようとしました。
UC_DUPLICATE_TAG_ASSIGNMENT_CREATION
タグキー <tagKey> でのタグの割り当ては既に存在します。
UC_ENTITY_DOES_NOT_HAVE_CORRESPONDING_ONLINE_CLUSTER
エンティティ <securableType> <entityId> には、対応するオンライン クラスターがありません。
UC_ETAG_MISMATCH
リソースが変更されました。 最新の etag をフェッチして再試行してください。 予想される etag 値: プロトコル バージョンの<expectedTokenVersion>を使用した<expectedTokenValue>、受信した etag 値: プロトコル バージョンでの<providedTokenValue><providedTokenVersion>
UC_EXCEEDS_MAX_FILE_LIMIT
<maxFileResults> 以上のファイルがあります。 [max_results] を指定して、返されるファイルの数を制限してください。
UC_EXTERNAL_HMS_SCHEMA_LOCATION_NOT_FEDERATED
スキーマ <schemaName>DEGRADEDプロビジョニング状態です。これは、eHMS/Glue スキーマの場所がフェデレーションされていないために想定されます。
UC_EXTERNAL_LOCATION_OP_NOT_ALLOWED
<opName> <extLoc> <reason> を実行できません。
<suggestion>。
UC_FEATURE_DISABLED
<featureName> は UC で現在無効になっています。
UC_FOREIGN_CATALOG_FOR_CONNECTION_TYPE_NOT_SUPPORTED
接続の種類 '<connectionType>' の外部カタログの作成はサポートされていません。 この接続の種類は、マネージド インジェスト パイプラインの作成にのみ使用できます。 詳細については、Databricks のドキュメントを参照してください。
UC_FOREIGN_CREDENTIAL_CHECK_ONLY_FOR_READ_OPERATIONS
外部テーブルの READ 資格情報のみを取得できます。
UC_FOREIGN_ENTITY_CREATION_FORBIDDEN_DURING_CONVERSION
カタログ FOREIGN <securableType> '<entityName>' をカタログ '<catalogName>' の下に作成することは、カタログが FOREIGN から STANDARDに変換されている間は禁止されています。
UC_FOREIGN_HMS_SHALLOW_CLONE_MISMATCH
基本テーブルとクローン テーブルは、外部 Hive Metastore カタログで作成された浅いクローンの場合、同じカタログに含まれている必要があります。 ベース テーブル '<baseTableName>' はカタログ '<baseCatalogName>' にあり、複製テーブル '<cloneTableName>' はカタログ '<cloneCatalogName>' にあります。
UC_FOREIGN_KEY_CHILD_COLUMN_LENGTH_MISMATCH
外部キー <constraintName> の子列と親列のサイズが異なります。
UC_FOREIGN_KEY_COLUMN_MISMATCH
外部キーの親列が、参照されている主キーの子列と一致しません。 外部キーの親列は (<parentColumns>) で、主キーの子列は (<primaryKeyChildColumns>) です。
UC_FOREIGN_KEY_COLUMN_TYPE_MISMATCH
外部キーの子列の型が親列の型と一致しません。 外部キーの子列 <childColumnName> は型 <childColumnType> であり、親列 <parentColumnName> は型 <parentColumnType>です。
UC_GCP_INVALID_PRIVATE_KEY
アクセスが拒否されました。 原因: サービス アカウントの秘密キーが無効です。
UC_GCP_INVALID_PRIVATE_KEY_JSON_FORMAT
Google Server アカウント OAuth 秘密キーは、必須フィールドを持つ有効な JSON オブジェクトである必要があります。サービス アカウントの詳細ページの 'KEYS' セクションから生成された完全な JSON ファイルを必ず指定してください。
UC_GCP_INVALID_PRIVATE_KEY_JSON_FORMAT_MISSING_FIELDS
Google Server アカウント OAuth 秘密キーは、必須フィールドを持つ有効な JSON オブジェクトである必要があります。サービス アカウントの詳細ページの 'KEYS' セクションから生成された完全な JSON ファイルを必ず指定してください。 欠損している項目は <missingFields>
UC_IAM_ROLE_NON_SELF_ASSUMING
このストレージ資格情報の IAM ロールは、自己引き受けを行わないことが判明しました。 ロールの信頼と IAM ポリシーをチェックして、IAM ロールが Unity Catalog ストレージ認証情報のドキュメントに従ってそれ自体を引き受けることができることを確認してください。
UC_ICEBERG_COMMIT_CONFLICT
<tableName>コミットできません: メタデータの場所 <baseMetadataLocation> が <catalogMetadataLocation>から変更されました。
UC_ICEBERG_COMMIT_INVALID_TABLE
Managed Apache Iceberg 以外のテーブル ( <tableName>) に対して Managed Apache Iceberg コミットを実行できません。
UC_ICEBERG_COMMIT_MISSING_FIELD_CONSTRAINT
指定された Managed Apache Iceberg コミット情報に必須フィールドがありません。
UC_ID_MISMATCH
<type> <name> には ID <wrongId>がありません。 操作を再試行してください。
UC_INFORMATION_SCHEMA_PER_METASTORE_DB_RATE_LIMIT_EXCEEDED
メタストアに対する情報スキーマ要求が多すぎます。 しばらくお待ちください。 問題が解決しない場合は、クエリの選択性を調整するか、サポートに連絡することを検討してください。
UC_INVALID_ACCESS_BRICKSTORE_ONLINE_TABLE_DEPRECATION
オンライン テーブルは非推奨です。 オンライン テーブル <securableName> へのアクセス権の取得はサポートされなくなりました。
UC_INVALID_ACCESS_BRICKSTORE_PG_CONNECTION
データベース インスタンスへのアクセスが無効です。 <reason>
UC_INVALID_ACCESS_DBFS_ENTITY
フェデレーション カタログ <securableType> <securableName>内の <catalogName> のアクセスが無効です。 <reason>
UC_INVALID_AZURE_PATH
無効な Azure パス: <path>
UC_INVALID_CLOUDFLARE_ACCOUNT_ID
Cloudflare アカウント ID が無効です。
UC_INVALID_CREDENTIAL_CLOUD
資格情報クラウド プロバイダー '<cloud>' が無効です。 許可されたクラウド プロバイダー '<allowedCloud>'。
UC_INVALID_CREDENTIAL_PURPOSE_VALUE
資格情報の 'purpose' の値 '<value>' が無効です。 使用できる値 '<allowedValues>'。
UC_INVALID_CREDENTIAL_TRANSITION
<startingCredentialType> から <endingCredentialType>への接続を更新できません。 唯一有効な移行は、ユーザー名/パスワードベースの接続から OAuth トークン ベースの接続への移行です。
UC_INVALID_CRON_STRING_FABRIC
cron 文字列が無効です。 見つかりました: '<cronString>' と解析例外 '<message>'
UC_INVALID_DIRECT_ACCESS_MANAGED_TABLE
直接アクセスマネージド テーブル <tableName>が無効です。 & ソーステーブルのパイプライン定義が定義されていないことを確認してください。
UC_INVALID_EMPTY_STORAGE_LOCATION
カタログ '<securableType>' の '<securableName>' 用のストレージ場所 <catalogName> が予期せず空です。 このエラーを修正するには、DESCRIBE SCHEMA <catalogName>を実行してください。
<securableName> をクリックしてこのページを更新します。
UC_INVALID_OPTIONS_UPDATE
更新プログラムのオプションが無効です。 無効なオプション: <invalidOptions>。 使用できるオプション: <allowedOptions>.
UC_INVALID_OPTION_VALUE
'<value>' の値 '<option>' が無効です。 使用できる値 '<allowedValues>'。
UC_INVALID_OPTION_VALUE_EMPTY
'<option>' を空にすることはできません。 空でない値を入力してください。
UC_INVALID_POLICY_CONDITION
ポリシー '<policyName>' の条件が無効です。 "<message>" というメッセージが表示されたコンパイル エラー。
UC_INVALID_R2_ACCESS_KEY_ID
R2 アクセス キー ID が無効です。
UC_INVALID_R2_SECRET_ACCESS_KEY
R2 シークレット アクセス キーが無効です。
UC_INVALID_UPDATE_ON_SYSTEM_WORKSPACE_ADMIN_GROUP_OWNED_SECURABLE
<securableType> '<securableName>' は内部グループによって所有されているため、更新できません。 詳細については、Databricks サポートにお問い合わせください。
UC_INVALID_WASBS_EXTERNAL_LOCATION_STORAGE_CREDENTIAL
ストレージ資格情報 <storageCredentialName> が DBFS ルートに関連付けられていない場合、wasbs 外部ロケーションの作成は禁止されます。
UC_LOCATION_INVALID_SCHEME
ストレージの場所に無効な URI スキームがあります: <scheme>。
UC_MALFORMED_OAUTH_SERVER_RESPONSE
トークン サーバーからの応答に <missingField>フィールドが見つかりませんでした。 返されるサーバー応答は次のとおりです: <response>
UC_MANAGED_ICEBERG_UNSUPPORTED
現在のエンドポイントでマネージド Apache Iceberg テーブルをサポートすることはできません。
UC_METASTORE_ASSIGNMENT_STATUS_INVALID
'<metastoreAssignmentStatus>' を割り当てることはできません。
MANUALLY_ASSIGNABLE と AUTO_ASSIGNMENT_ENABLED のみがサポートされています。
UC_METASTORE_CERTIFICATION_NOT_ENABLED
メタストア認定が有効になっていません。
UC_METASTORE_HAS_ACTIVE_MANAGED_ONLINE_CATALOGS
SQLSTATE: 割り当てなし
metastore <metastoreId> には、マネージド オンライン カタログ <numberManagedOnlineCatalogs> があります。 明示的に削除してから、メタストアの削除を再試行してください。
UC_METASTORE_QUOTA_EXCEEDED
id <accountId> を持つこのアカウントは、リージョン <region>のメタストアの制限に達しました。
UC_METASTORE_STORAGE_ROOT_CREDENTIAL_UPDATE_INVALID
メタストア ルートの場所を更新するときに、メタストア ルート資格情報を定義できません。 資格情報は、メタストアの親の外部の場所からフェッチされます。
UC_METASTORE_STORAGE_ROOT_DELETION_INVALID
メタストア ストレージのルートの場所の削除に失敗しました。 <reason>
UC_METASTORE_STORAGE_ROOT_READ_ONLY_INVALID
メタストアのルート <securableType> を読み取り専用にすることはできません。
UC_METASTORE_STORAGE_ROOT_UPDATE_INVALID
メタストア ストレージ ルートを設定した後は更新できません。
UC_MODEL_INVALID_STATE
状態 <opName> であるモデル バージョン <modelVersion> に対して一時的な '<modelVersionStatus>' 資格情報を生成できません。 '<opName>' 資格情報は、特定のステータスを持つモデルバージョンに対してのみ作成可能です <validStatus>
UC_NATIVE_USING_REF_OF_ABAC_MASKED_COLUMNS
'<resource>' の ABAC ポリシーの評価中にエラーが発生しました。 失敗しました:列 '<usingCol>' は ABAC ポリシー '<policyName>' によってマスクされており、ネイティブ RLS/CM ポリシーへの入力として使用できません。
UC_NO_ORG_ID_IN_CONTEXT
組織 ID (またはワークスペース ID) にアクセスしようとしましたが、コンテキストに何も含まれていません。
UC_ONELAKE_PATH_BAD_DOMAIN
Azure OneLake パス '<path>' には、ドメイン名 '<expectedHost>' が必要です。
UC_ONELAKE_PATH_BAD_FORMAT
Azure OneLake パス '<path>' は、'abfss://_WORKSPACE_@<host>/' の形式である必要があります。
UC_ONELAKE_PATH_MISSING_AT
Azure OneLake パス '<path>' に '@' が含まれていません。
UC_ONELAKE_PATH_MISSING_WORKSPACE
Azure OneLake パス '<path>' にはワークスペース名が含まれている必要があります。
UC_ONLINE_CATALOG_NOT_MUTABLE
SQLSTATE: 割り当てなし
<rpcName> 要求は <fieldName>を更新します。 オンライン カタログのコメント、所有者、isolationMode 以外を変更するには、オンライン ストアのコンピューティング タブを使用します。
UC_ONLINE_CATALOG_QUOTA_EXCEEDED
メタストアには <quota> 以上のオンラインストアを作成できず、既に <currentCount>があります。 既存のオンライン ストアにアクセスできない場合があります。 アクセス権が付与されるように、または詳細な手順については、metastore 管理者に問い合わせてください。
UC_ONLINE_INDEX_CATALOG_INVALID_CRUD
SQLSTATE: 割り当てなし
オンラインインデックスカタログは、/vector-search API を介して <action> で指定する必要があります。
UC_ONLINE_INDEX_CATALOG_NOT_MUTABLE
SQLSTATE: 割り当てなし
<rpcName> 要求は <fieldName>を更新します。 /vector-search API を使用して、オンライン インデックス カタログのコメント、所有者、isolationMode 以外のものを変更します。
UC_ONLINE_INDEX_CATALOG_QUOTA_EXCEEDED
メタストアに <quota> 以上のオンライン インデックス カタログを作成できませんが、既に <currentCount>あります。 既存のオンライン インデックス カタログにアクセスできない場合があります。 アクセス権が付与されるように、または詳細な手順については、metastore 管理者に問い合わせてください。
UC_ONLINE_INDEX_INVALID_CRUD
オンラインインデックスは、/vector-search API を使用して <action> にする必要があります。
UC_ONLINE_STORE_INVALID_CRUD
SQLSTATE: 割り当てなし
オンラインストアは、オンラインストアの [コンピューティング] タブを使用して <action> を実行する必要があります。
UC_ONLINE_TABLE_COLUMN_NAME_TOO_LONG
ソース テーブルの列名 <columnName> が長すぎます。 最大長は <maxLength> 文字です。
UC_ONLINE_TABLE_PRIMARY_KEY_COLUMN_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT
列 <columnName> は、ソース テーブルの既存の PRIMARY KEY 制約の一部ではないため、オンライン テーブルの主キー列として使用できません。 詳細については、<docLink> を参照してください。
UC_ONLINE_TABLE_TIMESERIES_KEY_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT
列 <columnName> は、ソース テーブルの既存の PRIMARY KEY 制約の時系列列ではないため、オンライン テーブルの時系列キーとして使用できません。 詳細については、<docLink> を参照してください。
UC_ONLINE_VIEWS_PER_SOURCE_TABLE_QUOTA_EXCEEDED
ソース テーブルごとに <quota> 以上のオンライン テーブルを作成することはできません。
UC_ONLINE_VIEW_ACCESS_DENIED
リソース <resourceName> にアクセスするには、サーバーレス SQL ウェアハウスを使用する必要があります。 クエリの実行または UI でのデータベース カタログの表示に使用されているウェアハウスがサーバーレスであることを確認してください。 詳細については、<docLink> を参照してください。
UC_ONLINE_VIEW_CONTINUOUS_QUOTA_EXCEEDED
オンライン ストアでは <quota> 以上の連続したオンラインビューを作成することはできず、すでに <currentCount>あります。 既存のオンライン ビューにアクセスできない場合があります。 アクセス権が付与されるように、または詳細な手順については、オンライン ストア管理者に問い合わせてください。
UC_ONLINE_VIEW_DOES_NOT_SUPPORT_DMK
SQLSTATE: 割り当てなし
<tableKind> は、Databricks マネージド キーを使用したストレージロケーションで作成することはできません。 Databricks マネージド キーの暗号化を使用せずに、ストレージの場所で別のスキーマ/カタログを選択してください。
UC_ONLINE_VIEW_INVALID_CATALOG
内部で <catalogName> を作成するには、種類 <catalogKind> のカタログ <tableKind> は無効です。
<tableKind> は、<validCatalogKinds>の種類のカタログでのみ作成できます。
UC_ONLINE_VIEW_INVALID_SCHEMA
内部で <schemaName> を作成するには、種類 <schemaKind> のスキーマ <tableKind> は無効です。
<tableKind> は、<validSchemaKinds>の種類のスキーマでのみ作成できます。
UC_ONLINE_VIEW_INVALID_TTL_TIME_COLUMN_TYPE
<columnName> 型の列 <columnType> は、TTL 時間列として使用できません。 使用できる型は <supportedTypes> です。
UC_OPERATION_NOT_SUPPORTED
Unity カタログでは操作がサポートされていません。 <detailedMessage>
UC_OUT_OF_AUTHORIZED_PATHS_SCOPE
認証されたパスのエラー。
<securableType> の場所 <location> は、カタログの許可されたパス (<catalogName>) 内で定義されていません。 カタログで定義されている承認済みパスの一覧にパスを追加するよう、カタログ所有者に依頼してください。
UC_OVERLAPPED_AUTHORIZED_PATHS
"authorized_paths" オプションには、重複するパス ( <overlappingPaths>) が含まれています。 各パスが一意であり、リスト内の他のパスと交差していないことを確認します。
UC_PAGINATION_AND_QUERY_ARGS_MISMATCH
クエリ引数 '<arg>' が '<received>' に設定されています。これは、最初の改ページ位置の呼び出し ('<expected>' で使用される値とは異なります)
UC_PATH_FILTER_ALLOWLIST_VIOLATION
資格情報 '<credentialName>' はワークスペースの既定の資格情報であり、'<allowlist>' のパス内のデータへのアクセスのみが許可されます。 この資格情報を使用してアクセスされるすべてのパスが、次のいずれかのパスの下にあることを確認してください。
UC_PATH_FILTER_DENYLIST_VIOLATION
資格情報 '<credentialName>' はワークスペースの既定の資格情報であり、制限されたパス '<targetPath>' のデータにアクセスできません。
UC_PATH_TOO_LONG
入力パスが長すぎます。 許容される長さ: <maxLength>。 入力の長さ: <inputLength>。 入力: <path>...
UC_PER_METASTORE_DATABASE_CONCURRENCY_LIMIT_EXCEEDED
メタストア <metastoreId>のコンカレンシー制限を超えました。 後でもう一度やり直してください。 問題が解決しない場合は、サポートにお問い合わせください。 エラー コード #UC-<errorCodeArbitraryFiveLettersUpperCase>
UC_POSTGRESQL_ONLINE_VIEWS_PER_SOURCE_TABLE_QUOTA_EXCEEDED
<quota> 同期されたデータベース テーブルは、1つのソース テーブルにつき1つ以上作成することはできません。
UC_PRIMARY_KEY_ON_NULLABLE_COLUMN
子列 <constraintName> が null 許容であるため、主キー <childColumnNames> を作成できません。 列の null 値の許容を変更して再試行してください。
UC_REQUEST_LIMIT_EXCEEDED
組織がレート制限を超えたため、要求は拒否されました。 後で要求をもう一度お試しください。
UC_REQUEST_TIMEOUT
この操作に時間がかかりすぎます。
UC_RESOURCE_QUOTA_EXCEEDED
<parentResourceType> <parentResourceId>に<amount> <resourceType>を作成できません (推定カウント: <currentCount>、制限: <quotaLimit>)。
UC_ROOT_STORAGE_S3_BUCKET_NAME_CONTAINS_DOT
ドットを含むルート ストレージ S3 バケット名は、Unity カタログではサポートされていません: <uri>
UC_SCHEMA_EMPTY_STORAGE_LOCATION
カタログ '<schemaName>' のスキーマ '<catalogName>' の予期しない空の格納場所。 スキーマで <validPathSchemesListStr>のパス スキームが使用されていることを確認してください。
UC_SERVERLESS_UNTRUSTED_DOMAIN_STORAGE_TOKEN_MINTING
サーバーレス Python と scala ノートブックは、ネットワーク制限付きワークスペース内の Unity カタログから一時的なストレージ資格情報を取得することは禁止されています。
UC_SHALLOW_CLONE_BASE_TABLE_DELETED
基本テーブル '<tableFullName>' が削除されているため、簡易クローン '<baseTableName>' にアクセスできません。
UC_STORAGE_CREDENTIALS_外部ロケーションの削除拒否
ストレージ資格情報 '<credentialName>' には、直接依存する外部テーブルと<extTablesCount>依存するストレージの場所<extLocationsCount>があります。 強制オプションを使用して削除することもできますが、このストレージ資格情報を使用するマネージド ストレージ データは、Unity カタログによって削除できなくなります。
UC_STORAGE_CREDENTIALS_外部位置情報更新拒否
ストレージ資格情報 '<credentialName>' には <extTablesCount> 直接依存する外部テーブルと、<extLocationsCount> 依存するストレージの場所があります。更新するには、強制オプションを使用してください。
UC_STORAGE_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED
指定されたアクセス コネクタ ID (<accessConnectorId>) を解析できませんでした。 書式設定を確認してから、もう一度やり直してください。
UC_STORAGE_CREDENTIAL_DBFS_ROOT_CREATION_PERMISSION_DENIED
ユーザー: <userId> はワークスペースの管理者ではないため、DBFS ルートのストレージ資格情報を作成できません: <workspaceId>
UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_DBFS_ENABLED
ファイアウォールが有効な DBFS を使用するワークスペースでは、DBFS ルート ストレージ資格情報はまだサポートされていません
UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_NOT_SUPPORTED
現在のワークスペースの DBFS ルート ストレージ資格情報はまだサポートされていません
UC_STORAGE_CREDENTIAL_DBFS_ROOT_WORKSPACE_DISABLED
ワークスペース <workspaceId> に対して DBFS ルートが有効になっていません
UC_STORAGE_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN
アクセス コネクタでクラウドアクセス許可の検証を実行するための AAD トークンを取得できませんでした。 アクションを再試行してください。
UC_STORAGE_CREDENTIAL_INVALID_CLOUD_PERMISSIONS
ストレージ資格情報を登録するには、ID <accessConnectorId>を持つ対応するアクセス コネクタに対する共同作成者ロールが必要です。 アカウント管理者にお問い合わせください。
UC_STORAGE_CREDENTIAL_METASTORE_ROOT_削除拒否
ストレージ資格情報 '<credentialName>' は、このメタストアのルート資格情報として構成されているため、削除できません。 削除を試みる前に、メタストアのルート資格情報を更新してください。
UC_STORAGE_CREDENTIAL_PERMISSION_DENIED
<storageCredentialType>の種類でストレージ資格情報を作成または更新できるのは、アカウント管理者だけです。
UC_STORAGE_CREDENTIAL_SERVICE_PRINCIPAL_MISSING_VALIDATION_TOKEN
サービス プリンシパルの検証トークンがありません。 'X-Databricks-Azure-SP-Management-Token' 要求ヘッダーに有効な ARM スコープの Entra ID トークンを指定して、再試行してください。 詳細については、https://docs.databricks.com/api/workspace/storagecredentials を参照してください
UC_STORAGE_CREDENTIAL_TRUST_POLICY_IS_OPEN
Databricks アカウントがロールを引き受けることができるようにする IAM ロールの信頼ポリシーには、外部 ID が必要です。外部 ID 条件を追加するには、アカウント管理者に問い合わせてください。 この動作は、混乱した副官問題 (https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html) を防ぐためのものです。
UC_STORAGE_CREDENTIAL_WASBS_NOT_DBFS_ROOT
場所 <location> が DBFS ルート内にないため、ストレージ資格情報を作成できません <storageCredentialName>
UC_STORAGE_CREDENTIAL_WORKSPACE_API_PROHIBITED
アカウントレベルの API では、アカウント以外の管理者としてストレージ資格情報を作成または更新することはできません。 代わりにワークスペース レベルの API を使用してください。
UC_STORAGE_CREDENTIAL_WS_BUCKET_INVALID_LOCATION
場所 <requestedLocation> が許可されたコンテキスト内にない <allowedLocation>
UC_STORAGE_CREDENTIAL_WS_INTERNAL_CATALOG_NOT_SUPPORTED
現在のワークスペースのワークスペース内部カタログ ストレージ資格情報はまだサポートされていません
UC_SYSTEM_SCHEMA_NOT_AVAILABLE_FOR_ENABLEMENT (システムスキーマが有効化に利用できません)
現在、システム スキーマ <systemSchema> は有効化できません。 後でもう一度やり直してください。
UC_SYSTEM_WORKSPACE_GROUP_PERMISSION_UNSUPPORTED
システムによって生成されたグループ <securableType>に <principal> に対する特権を付与できません。
UC_TABLE_IS_LOCKED_FOR_CATALOG_MANAGED_TABLE_MIGRATION
テーブル '<tableId>' は、カタログ管理テーブルの移行に対して一時的にロックされます。 このテーブルのトランザクションは、移行が完了するまでブロックされます。 すぐにトランザクションを再試行してください。
UC_TABLE_IS_NOT_CATALOG_OWNED
テーブル '<tableId>' に対して commit/getCommits を実行する要求には、テーブルで Catalog 所有機能を有効にする必要があります。
UC_TAG_ASSIGNMENT_WITH_KEY_DOES_NOT_EXIST
タグ キー <tagKey> を持つタグの割り当てが存在しません
UC_TEMPORARY_CREDENTIAL_OPERATION_NOT_SUPPORTED
一時的な資格情報操作はサポートされていません。
UC_UNDROP_RESOURCE_ID_ALREADY_EXISTS
ID '<resourceType>' の '<resourceType>' が既に存在するため、'<resourceId>' のドロップを解除できません。
UC_UNDROP_RESOURCE_NAME_ALREADY_EXISTS
名前 '<resourceType>' の '<resourceType>' が既に存在するため、'<resourceName>' のドロップを解除できません。
UC_UNDROP_RESOURCE_NOT_READY
ID '<resourceType>' の '<resourceType>' を復元する準備ができていないため、'<resourceId>' のドロップを解除できません。後で再試行してください。
UC_UNDROP_RESOURCE_PAST_CUSTOM_RETENTION_PERIOD
ID '<resourceType>' の '<resourceType>' がカスタム復元期間を超えるため、'<resourceId>' をドロップ解除できません。
UC_UNDROP_RESOURCE_PAST_RECOVERABLE_WINDOW
ID '<resourceType>' の '<resourceType>' が、サポートされている復元期間 '<resourceId>' 日を超えているため、'<maxRestorationPeriodDay>' をアンドロップできません。
UC_UNIQUE_CONSTRAINT_CHILD_COLUMNS_ALREADY_EXIST(ユニーク制約の子カラムが既に存在します)
UNIQUE制約<newConstraintName>を作成できませんでした:テーブル <tableName>には、同じ子列のセットを持つUNIQUEという<existingConstraintName>制約が既に存在します。
UC_UNIQUE_CONSTRAINT_NOT_SUPPORTED (UC_ユニーク制約がサポートされていません)
UNIQUE制約 <constraintName>で操作できませんでした: UNIQUE制約が有効になっていません。
UC_UNSUPPORTED_HTTP_CONNECTION_BASE_PATH
無効なベース パスが指定されています。ベース パスは /api/resources/v1 のようになります。 サポートされていないパス: <path>
UC_UNSUPPORTED_HTTP_CONNECTION_HOST
無効なホスト名が指定されました。ホスト名は、パス サフィックスのない https://www.databricks.com のようになります。 サポートされていないホスト: <host>
UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH
外部の場所/ボリューム/テーブル パスでは、基本ラテン文字/ラテン-1 の ASCII 文字のみがサポートされます。 サポートされていないパス: <path>
UC_UPDATE_FORBIDDEN_FOR_PROVISIONING_SECURABLE
'<securableType>' <securableName>がプロビジョニングされているため、更新できません。
UC_USING_REF_OF_MASKED_COLUMNS
'<resource>' の ABAC ポリシーの評価中にエラーが発生しました。 失敗しました。列 '<usingCol>' は ABAC ポリシー '<existingMaskingPolicy>' によってマスクされており、ポリシー '<policyName>' では使用できません。
UC_WRITE_CONFLICT
<type> <name> が別の要求によって変更されました。 操作を再試行してください。
UNDROP_TABLE_NOT_FOUND
名前を持つテーブル <tableFullName> ドロップ解除の資格がないため、テーブルのドロップを解除できません。 このテーブルは、既にドロップされていないか、最大復元期間を超えて削除されているか、存在していなかった可能性があります。
UNITY_CATALOG_EXTERNAL_COORDINATED_COMMITS_REQUEST_DENIED
Databricks Unity カタログ対応コンピューティング環境の外部からテーブル '<tableId>' のコミット/getCommits を実行する要求は、セキュリティのために拒否されます。 Unity カタログとの統合については、Databricks サポートにお問い合わせください。
UNITY_CATALOG_EXTERNAL_CREATE_STAGING_TABLE_REQUEST_DENIED
Databricks Unity カタログ対応コンピューティング環境の外部からステージング テーブル '<tableFullName>' を作成する要求は、セキュリティのために拒否されます。 Unity カタログとの統合については、Databricks サポートにお問い合わせください。
UNITY_CATALOG_EXTERNAL_CREATE_TABLE_FAILED_VALIDATION_COLUMN_MASKS_DEFINED
Databricks Unity カタログ対応コンピューティング環境の外部からテーブル '<tableFullName>' を作成する要求が拒否されました。 外部でテーブルを作成する場合、列マスクはサポートされません。
UNITY_CATALOG_EXTERNAL_CREATE_TABLE_FAILED_VALIDATION_DATA_SOURCE_FORMAT_NOT_DELTA
Databricks Unity カタログ対応コンピューティング環境の外部からテーブル '<tableFullName>' を作成する要求が拒否されました。 テーブルを外部で作成するには、データ ソース形式を DELTA する必要があります。代わりに '<dataSourceFormat>' です。
UNITY_CATALOG 外部テーブル作成の検証失敗 - テーブルタイプが外部ではありません
Databricks Unity カタログ対応コンピューティング環境の外部からテーブル '<tableFullName>' を作成する要求が拒否されました。 テーブルを外部で作成するには、テーブル型を EXTERNAL する必要があります。代わりに '<tableType>' です。
UNITY_CATALOG_EXTERNAL_CREATE_TABLE_INFOに無効なフィールドが含まれています
外部テーブルの作成では、[名前、catalog_name、schema_name、table_type、data_source_format、列、storage_location、およびプロパティ] フィールドのみを使用できます。
UNITY_CATALOG_EXTERNAL_CREATE_TABLE_REQUEST_FOR_NON_EXTERNAL_TABLE_DENIED
Databricks Unity カタログ対応コンピューティング環境の外部から外部以外のテーブル '<tableFullName>' を作成する要求は、セキュリティのために拒否されます。 Unity カタログとの統合については、Databricks サポートにお問い合わせください。
UNITY_CATALOG_EXTERNAL_DELETE_TABLE_REQUEST_FOR_NON_EXTERNAL_TABLE_DENIED
Databricks Unity カタログ対応コンピューティング環境の外部から外部以外のテーブル '<tableFullName>' を削除する要求はサポートされていません。
UNITY_CATALOG_EXTERNAL_GENERATE_PATH_CREDENTIALS_DENIED
Databricks Unity カタログ対応コンピューティング環境の外部からパス '<path>' のアクセス資格情報を生成する要求は、セキュリティのために拒否されます。 Unity カタログとの統合については、Databricks サポートにお問い合わせください。
UNITY_CATALOG_EXTERNAL_GENERATE_TABLE_CREDENTIALS_DENIED
Databricks Unity カタログ対応コンピューティング環境の外部からテーブル '<tableId>' のアクセス資格情報を生成する要求は、セキュリティのために拒否されます。 Unity カタログとの統合については、Databricks サポートにお問い合わせください。
UNITY_CATALOG_EXTERNAL_GENERATE_TEMP_PATH_CRED_FAILED_VALIDATION_CREDENTIAL_ID_DEFINED
Databricks Unity カタログが有効なコンピューティング環境の外部から一時的なパス資格情報を生成する要求が拒否されました。 一時パスの資格情報を外部で生成する場合は、資格情報 ID を定義しないでください。
UNITY_CATALOG_EXTERNAL_GENERATE_TEMP_PATH_CRED_FAILED_VALIDATION_MAKE_PATH_ONLY_PARENT_DEFINED
Databricks Unity カタログが有効なコンピューティング環境の外部から一時的なパス資格情報を生成する要求が拒否されました。 一時パス資格情報を外部で生成するときに、make_path_only_parentを定義しないでください。
UNITY_CATALOG_EXTERNAL_GENERATE_VOLUME_CREDENTIALS_DENIED
Databricks Unity カタログ対応コンピューティング環境の外部からボリューム '<volumeId>' のアクセス資格情報を生成する要求は、セキュリティのために拒否されます。 Unity カタログとの統合については、Databricks サポートにお問い合わせください。
UNITY_CATALOG_EXTERNAL_GENERATE_VOLUME_CREDENTIALS_FOR_SECURABLE_KIND_NOT_SUPPORTED
Databricks Unity カタログ対応コンピューティング環境の外部から "<volumeSecurableKind>" のアクセス資格情報を生成する要求は、セキュリティのために拒否されます。 Unity カタログとの統合については、Databricks サポートにお問い合わせください。
UNITY_CATALOG_EXTERNAL_GET_FOREIGN_CREDENTIALS_DENIED
Databricks Unity Catalog 対応コンピューティング環境の外部からセキュリティ保護可能なリソースの外部資格情報を取得する要求は、セキュリティのために拒否されます。
UNITY_CATALOG_EXTERNAL_UPDATA_METADATA_SNAPSHOT_DENIED
Databricks Unity カタログ対応コンピューティング環境の外部からメタデータ スナップショットを更新する要求は、セキュリティのために拒否されます。
UNSUPPORTED_LOCATION_SCHEME (未対応のロケーションスキーム)
<fieldName> には無効な URI スキーム <scheme>があります。 有効な URI スキームには、 <validSchemes>が含まれます。 無効なパス: <path>。
UPDATE_SYSTEM_TABLE
システム所有テーブルは変更できません。 テーブル '<tableName>' はシステム所有のテーブルです。
WRITE_CREDENTIALS_NOT_SUPPORTED_FOR_LEGACY_MANAGED_ONLINE_TABLE
オンライン カタログ内のマネージド オンライン テーブルの書き込み資格情報を取得する要求が無効です。
Files API
FILES_API_API_IS_NOT_ENABLED
SQLSTATE: 割り当てなし
<api_name> API が有効になっていない
FILES_API_API_IS_NOT_ENABLED_FOR_CLOUD_PATHS
SQLSTATE: 割り当てなし
Files API の要求されたメソッドは、クラウド パスではサポートされていません
FILES_API_AWS_ACCESS_DENIED
SQLSTATE: 割り当てなし
ストレージ バケットへのアクセスは AWS によって拒否されます。
FILES_API_AWS_ALL_ACCESS_DISABLED
SQLSTATE: 割り当てなし
AWS では、ストレージ バケットへのすべてのアクセスが無効になっています。
FILES_API_AWS_BUCKET_DOES_NOT_EXIST
SQLSTATE: 割り当てなし
ストレージ バケットは AWS に存在しません。
FILES_API_AWS_FORBIDDEN
SQLSTATE: 割り当てなし
ストレージ バケットへのアクセスは AWS によって禁止されています。
FILES_API_AWS_INVALID_AUTHORIZATION_HEADER
SQLSTATE: 割り当てなし
ワークスペースが正しく構成されていません。AWS ワークスペースのルート ストレージ バケットと同じリージョンにある必要があります。
FILES_API_AWS_INVALID_BUCKET_NAME
SQLSTATE: 割り当てなし
ストレージ バケット名が無効です。
FILES_API_AWS_KMS_KEY_DISABLED
SQLSTATE: 割り当てなし
ストレージ バケットにアクセスするために構成された KMS キーは、AWS で無効になります。
FILES_API_AWS_UNAUTHORIZED
SQLSTATE: 割り当てなし
AWS リソースへのアクセスが承認されていません。
FILES_API_AZURE_ACCOUNT_IS_DISABLED
SQLSTATE: 割り当てなし
ストレージ アカウントは Azure で無効になっています。
FILES_API_AZURE_AUTHORIZATION_PERMISSION_MISMATCH
SQLSTATE: 割り当てなし
オーソリゼーションと権限の不一致。
FILES_API_AZURE_CMK_NOT_FOUND
SQLSTATE: 割り当てなし
マネージド暗号化キーが見つかりません。
FILES_API_AZURE_CMK_SOFT_DELETED
SQLSTATE: 割り当てなし
マネージド暗号化キーが論理的に削除されました。
FILES_API_AZURE_CONTAINER_DOES_NOT_EXIST
SQLSTATE: 割り当てなし
Azure コンテナーが存在しません。
FILES_API_AZURE_CREDENTIAL_NOT_FOUND
SQLSTATE: 割り当てなし
Azure 資格情報が見つかりません。 Azure 資格情報が見つからないか、アクセスできない可能性があります。
FILES_API_AZURE_FORBIDDEN
SQLSTATE: 割り当てなし
ストレージ コンテナーへのアクセスは、Azure によって禁止されています。
FILES_API_AZURE_HAS_A_LEASE
SQLSTATE: 割り当てなし
Azure は、現在リソースにリースがあることを返しました。 後でもう一度やり直してください。
FILES_API_AZURE_INSUFFICIENT_ACCOUNT_PERMISSION
SQLSTATE: 割り当てなし
アクセスされるアカウントには、この操作を実行するための十分なアクセス許可がありません。
FILES_API_AZURE_INVALID_STORAGE_ACCOUNT_CONFIGURATION
SQLSTATE: 割り当てなし
アクセスするアカウントの構成はサポートされていません。
FILES_API_AZURE_INVALID_STORAGE_ACCOUNT_NAME
SQLSTATE: 割り当てなし
Azure のストレージ アカウントにアクセスできません: ストレージ アカウント名が無効です。
FILES_API_AZURE_KEY_BASED_AUTHENTICATION_NOT_PERMITTED
SQLSTATE: 割り当てなし
Key Vault コンテナーが Azure に見つかりません。 カスタマー マネージド キーの設定を確認します。
FILES_API_AZURE_KEY_VAULT_KEY_NOT_FOUND
SQLSTATE: 割り当てなし
Azure Key Vault キーが Azure に見つかりません。 カスタマー マネージド キーの設定を確認します。
FILES_API_AZURE_KEY_VAULT_VAULT_NOT_FOUND
SQLSTATE: 割り当てなし
Key Vault コンテナーが Azure に見つかりません。 カスタマー マネージド キーの設定を確認します。
FILES_API_AZURE_MI_ACCESS_CONNECTOR_NOT_FOUND
SQLSTATE: 割り当てなし
Access Connector を使用した Azure マネージド ID 資格情報が見つかりません。 これは、IP アクセス制御によって要求が拒否された可能性があります。
FILES_API_AZURE_OPERATION_TIMEOUT
SQLSTATE: 割り当てなし
許可された時間内に操作を完了できませんでした。
FILES_API_AZURE_PATH_INVALID
SQLSTATE: 割り当てなし
要求されたパスが Azure に対して有効ではありません。
FILES_API_AZURE_PATH_IS_IMMUTABLE
SQLSTATE: 割り当てなし
要求されたパスは変更できません。
FILES_API_AZURE_UNSUPPORTED_HEADER
SQLSTATE: 割り当てなし
操作で指定されたヘッダーの 1 つがサポートされていません。
FILES_API_CANNOT_PARSE_URL_PARAMETER
SQLSTATE: 割り当てなし
URL パラメーターを解析できません。
FILES_API_CATALOG_NOT_FOUND
SQLSTATE: 割り当てなし
<unity_catalog_error_message>
FILES_API_CLOUD_RESOURCE_EXHAUSTED
SQLSTATE: 割り当てなし
<message>
FILES_API_CLOUD_STORAGE_PROVIDER_CONNECTION_ISSUE
SQLSTATE: 割り当てなし
<cloud_storage_provider>への接続に問題があります。 後でもう一度やり直してください。
FILES_API_COLON_IS_NOT_SUPPORTED_IN_PATH
SQLSTATE: 割り当てなし
':' 文字はパスではサポートされていません
FILES_API_CONSUMER_NETWORK_ZONE_NOT_ALLOWED
SQLSTATE: 割り当てなし
コンシューマー ネットワーク ゾーン "<consumer_network_zone>" は、要求元ネットワーク ゾーン "<requester_network_zone>" から許可されていません。
FILES_API_CONTROL_PLANE_NETWORK_ZONE_NOT_ALLOWED
SQLSTATE: 割り当てなし
Databricks のコントロールプレーンのネットワーク ゾーンは使用できません。
FILES_API_資格情報_が見つかりません
SQLSTATE: 割り当てなし
資格情報が見つかりませんでした。
FILES_API_DIRECTORIES_CANNOT_HAVE_BODIES
SQLSTATE: 割り当てなし
本文が指定されましたが、ディレクトリにファイル本文を含めることはできません
FILES_API_DIRECTORY_IS_NOT_EMPTY
SQLSTATE: 割り当てなし
ディレクトリが空ではありません。 この操作は、空でないディレクトリではサポートされていません。
FILES_API_DIRECTORY_IS_NOT_FOUND
SQLSTATE: 割り当てなし
アクセスするディレクトリが見つかりません。
ファイル API ディレクトリ ZIP ダウンロード ファイル 制限 超過
SQLSTATE: 割り当てなし
ディレクトリに ZIP ダウンロード用のファイルが多すぎます。 許可される最大 <max_file_count> ファイル数。
FILES_API_DMK_ENCRYPTION_ROOT_KEY_DISABLED
SQLSTATE: 割り当てなし
カスタマー マネージド暗号化のルート キーが無効になっています。
FILES_API_DUPLICATED_HEADER
SQLSTATE: 割り当てなし
要求には、1 回だけ許可されるヘッダーの複数のコピーが含まれていました。
FILES_API_DUPLICATE_QUERY_PARAMETER
SQLSTATE: 割り当てなし
クエリ パラメーター '<parameter_name>' は 1 回だけ存在する必要がありますが、複数回指定されました。
FILES_API_EMPTY_BUCKET_NAME
SQLSTATE: 割り当てなし
DBFS バケット名が空です。
FILES_API_ENCRYPTION_KEY_PERMISSION_DENIED
SQLSTATE: 割り当てなし
ユーザーは暗号化キーにアクセスできません。
FILES_API_ENCRYPTION_KEY_RETRIEVAL_OPERATION_TIMEOUT
SQLSTATE: 割り当てなし
暗号化キーを取得する操作は、許可された時間内に完了できませんでした。
FILES_API_ENTITY_TOO_LARGE
SQLSTATE: 割り当てなし
オブジェクトが許容される最大オブジェクト サイズを超えています。
FILES_API_ERROR_EXPIRED_TTL
SQLSTATE: 割り当てなし
TTL の有効期限が切れています。
FILES_API_ERROR_INVALID_TTL
SQLSTATE: 割り当てなし
TTL が無効です。
FILES_API_ERROR_KEY_FOR_WORKSPACE_IS_NOT_FOUND
SQLSTATE: 割り当てなし
ワークスペースのキーが見つかりません。
FILES_API_ERROR_MISSING_REQUIRED_PARAM
SQLSTATE: 割り当てなし
URL に必要なパラメーターがありません。
FILES_API_ERROR_TTL_IN_THE_FUTURE
SQLSTATE: 割り当てなし
TTL は将来に設定されます。
FILES_API_ERROR_URL_INVALID_ISSUER_SHARD_NAME
SQLSTATE: 割り当てなし
発行者のシャード名が無効です。
FILES_API_EXPIRATION_TIME_MUST_BE_PRESENT
SQLSTATE: 割り当てなし
有効期限が存在する必要があります
FILES_API_EXPIRED_TOKEN
SQLSTATE: 割り当てなし
指定されたトークンの有効期限が切れています。
FILES_API_EXPIRE_TIME_MUST_BE_IN_THE_FUTURE
SQLSTATE: 割り当てなし
ExpireTime は未来の時刻に設定されている必要があります
FILES_API_EXPIRE_TIME_TOO_FAR_IN_FUTURE
SQLSTATE: 割り当てなし
要求された TTL がサポートより長い (1 時間)
FILES_API_EXTERNAL_LOCATION_PATH_OVERLAP_OTHER_UC_STORAGE_ENTITY
SQLSTATE: 割り当てなし
<unity_catalog_error_message>
FILES_API_FILE_ALREADY_EXISTS
SQLSTATE: 割り当てなし
作成中のファイルは既に存在します。
FILES_API_FILE_NOT_FOUND
SQLSTATE: 割り当てなし
アクセス中のファイルが見つかりません。
FILES_API_FILE_OR_DIRECTORY_ENDS_IN_DOT
SQLSTATE: 割り当てなし
'.' 文字で終わるファイルまたはディレクトリはサポートされていません。
FILES_API_FILE_SIZE_EXCEEDED
SQLSTATE: 割り当てなし
ファイル サイズは <max_download_size_in_bytes> バイトを超えないようにする必要がありますが、 <size_in_bytes> バイトが見つかりました。
FILES_API_GCP_ACCOUNT_IS_DISABLED
SQLSTATE: 割り当てなし
ストレージ バケットへのアクセスが GCP で無効になりました。
FILES_API_GCP_BUCKET_DOES_NOT_EXIST
SQLSTATE: 割り当てなし
ストレージ バケットは GCP に存在しません。
FILES_API_GCP_FORBIDDEN
SQLSTATE: 割り当てなし
バケットへのアクセスは GCP によって禁止されています。
FILES_API_GCP_IAM_AUTHENTICATION_FAILURE
SQLSTATE: 割り当てなし
GCP IAM 操作の認証に失敗しました。
FILES_API_GCP_IAM_CREDENTIALS_NOT_FOUND
SQLSTATE: 割り当てなし
指定された GCP 資格情報が存在しないか、アクセスできません。
FILES_API_GCP_IAM_PERMISSION_DENIED
SQLSTATE: 割り当てなし
GCP IAM 操作のアクセス許可が拒否されました。
FILES_API_GCP_KEY_DELETED
SQLSTATE: 割り当てなし
暗号化キーが削除されたか、アクセスできなくなりました。
FILES_API_GCP_KEY_DISABLED_OR_DESTROYED
SQLSTATE: 割り当てなし
その場所に対して構成されたカスタマー マネージド暗号化キーは、無効または破棄されます。
FILES_API_GCP_REQUEST_IS_PROHIBITED_BY_POLICY
SQLSTATE: 割り当てなし
バケットに対する GCP 要求はポリシーによって禁止されています。VPC サービスコントロールを確認してください。
FILES_API_GCP_USER_PROJECT_ACCOUNT_PROBLEM
SQLSTATE: 割り当てなし
要求で使用される GCP プロジェクトに問題があり、操作が正常に完了できません。
FILES_API_HOST_TEMPORARILY_NOT_AVAILABLE
SQLSTATE: 割り当てなし
クラウド プロバイダー ホストは一時的に使用できません。後でもう一度お試しください。
FILES_API_INVALID_CONTENT_LENGTH (無効なコンテンツ長)
SQLSTATE: 割り当てなし
content-length ヘッダーの値は、0 以上の整数である必要があります。
FILES_API_INVALID_CONTINUATION_TOKEN
SQLSTATE: 割り当てなし
指定されたページ トークンが無効です。
FILES_API_INVALID_HEADER_VALUE
SQLSTATE: 割り当てなし
ヘッダー '<header_name>' の値が無効です。
FILES_API_INVALID_HOSTNAME
SQLSTATE: 割り当てなし
ホスト名が無効です。
FILES_API_INVALID_HTTP_METHOD
SQLSTATE: 割り当てなし
http メソッドが無効です。 '<expected>' が予期されましたが、'<actual>' になっています。
FILES_API_INVALID_METASTORE_ID_HEADER
SQLSTATE: 割り当てなし
メタストア ID ヘッダーが無効です。
FILES_API_INVALID_PAGE_TOKEN
SQLSTATE: 割り当てなし
無効なページ トークン
FILES_API_INVALID_PATH
SQLSTATE: 割り当てなし
無効なパス: <validation_error>
FILES_API_INVALID_RANGE
SQLSTATE: 割り当てなし
範囲ヘッダーが無効です。
FILES_API_INVALID_RESOURCE_FULL_NAME
SQLSTATE: 割り当てなし
<unity_catalog_error_message>
FILES_API_INVALID_SESSION_TOKEN
SQLSTATE: 割り当てなし
セッション トークンが無効です
FILES_API_INVALID_SESSION_TOKEN_TYPE
SQLSTATE: 割り当てなし
セッション トークンの種類が無効です。 '<expected>' が予期されましたが、'<actual>' になっています。
FILES_API_INVALID_TIMESTAMP
SQLSTATE: 割り当てなし
タイムスタンプが無効です。
FILES_API_INVALID_UPLOAD_TYPE
SQLSTATE: 割り当てなし
アップロードの種類が無効です。 '<expected>' が予期されましたが、'<actual>' になっています。
FILES_API_INVALID_URL
SQLSTATE: 割り当てなし
無効な URL
FILES_API_INVALID_URL_PARAMETER
SQLSTATE: 割り当てなし
パラメーターとして渡された URL が無効です
FILES_API_INVALID_VALUE_FOR_OVERWRITE_QUERY_PARAMETER
SQLSTATE: 割り当てなし
クエリ パラメーター 'overwrite' は、true、false のいずれかである必要がありますが、次のようになります。 <got_values>
FILES_API_INVALID_VALUE_FOR_QUERY_PARAMETER
SQLSTATE: 割り当てなし
クエリ パラメーター '<parameter_name>' は次のいずれかである必要があります: <expected> しかし、実際には次のものでした: <actual>
FILES_API_MALFORMED_REQUEST_BODY
SQLSTATE: 割り当てなし
要求本文の形式が正しくありません
FILES_API_MANAGED_CATALOG_FEATURE_DISABLED
SQLSTATE: 割り当てなし
<unity_catalog_error_message>
FILES_API_METASTORE_NOT_FOUND
SQLSTATE: 割り当てなし
<unity_catalog_error_message>
FILES_API_METHOD_IS_NOT_ENABLED_FOR_JOBS_BACKGROUND_COMPUTE_ARTIFACT_STORAGE
SQLSTATE: 割り当てなし
Jobs Background Compute Artifact Storage では、Files API の要求されたメソッドはサポートされていません。
FILES_API_MISSING_CONTENT_LENGTH
SQLSTATE: 割り当てなし
要求には Content-Length ヘッダーが必要です。
FILES_API_MISSING_QUERY_PARAMETER
SQLSTATE: 割り当てなし
クエリ パラメーター '<parameter_name>' は必須ですが、要求にありません。
FILES_API_MISSING_REQUIRED_PARAMETER_IN_REQUEST
SQLSTATE: 割り当てなし
要求に必要なパラメーターがありません。
FILES_API_MLFLOW_PERMISSION_DENIED
SQLSTATE: 割り当てなし
<mlflow_error_message>
FILES_API_MLFLOW_RESOURCE_EXHAUSTED (リソースが枯渇しました)
SQLSTATE: 割り当てなし
mlflow サービスとの通信でリクエスト制限を超過しました。
FILES_API_MODEL_VERSION_IS_NOT_READY
SQLSTATE: 割り当てなし
モデルバージョンはまだ準備ができていません
FILES_API_MULTIPART_UPLOAD_ABORT_PRESIGNED_URL_NOT_SUPPORTED
SQLSTATE: 割り当てなし
マルチパート アップロードを中止するための事前署名付き URL は、 <cloud_storage_provider>に格納されているファイルではサポートされていません。
FILES_API_MULTIPART_UPLOAD_ABORT_UPLOAD_NOT_SUPPORTED
SQLSTATE: 割り当てなし
<cloud_storage_provider>に保存されているファイルでは、マルチパートアップロードの中止はサポートされていません。
FILES_API_MULTIPART_UPLOAD_EMPTY_PART_LIST
SQLSTATE: 割り当てなし
パーツの一覧には少なくとも 1 つの要素が必要ですが、空でした。
FILES_API_MULTIPART_UPLOAD_INVALID_PART
SQLSTATE: 割り当てなし
指定されたパーツの 1 つ以上が見つかりませんでした。 パーツがアップロードされていないか、指定されたエンティティ タグがパーツのエンティティ タグと一致しない可能性があります。
FILES_API_MULTIPART_UPLOAD_INVALID_PART_NUMBER
SQLSTATE: 割り当てなし
部品番号は、 <min> 以上で、 <max>以下である必要があります。
FILES_API_MULTIPART_UPLOAD_MISSING_ETAG
SQLSTATE: 割り当てなし
<cloud_storage_provider>に格納されているファイルに ETag を指定する必要があります。 少なくとも 1 つの ETag が指定されていないか、空でした。
FILES_API_MULTIPART_UPLOAD_MODIFIED_STORAGE_ENTITY_STATE
SQLSTATE: 割り当てなし
たとえば、ファイル パスが同じ基になるクラウド ストレージの場所を指していないため、アップロードが開始されてからストレージ エンティティの内部状態が変更されています。 新しいアップロード セッションを開始して続行します。
FILES_API_MULTIPART_UPLOAD_NON_TRAILING_PARTS_WITH_DIFFERENT_SIZES
SQLSTATE: 割り当てなし
マルチパート アップロード セッションの一部としてアップロードされるパーツは、 <cloud_storage_provider>に格納されているファイルのサイズと同じにする必要があります。ただし、小さくできる最後の部分を除きます。
FILES_API_MULTIPART_UPLOAD_PART_SIZE_OUT_OF_RANGE
SQLSTATE: 割り当てなし
マルチパート アップロード セッションの一部としてアップロードされるパーツのサイズは、 <min> 以上で、 <max>以下である必要があります。
FILES_API_MULTIPART_UPLOAD_SESSION_NOT_FOUND
SQLSTATE: 割り当てなし
アップロード セッションが見つかりません。 中止または完了している可能性があります。
FILES_API_MULTIPART_UPLOAD_UNORDERED_PART_LIST
SQLSTATE: 割り当てなし
パーツのリストは、部品番号で並べ替える必要がありますが、順序付けされていませんでした。
FILES_API_NON_ZERO_CONTENT_LENGTH
SQLSTATE: 割り当てなし
この要求では、content-length ヘッダーは 0 である必要があります。
FILES_API_NOT_ENABLED_FOR_PLACE
SQLSTATE: 割り当てなし
<place> の Files API がこのワークスペース/アカウントに対して有効になっていません
FILES_API_NOT_SUPPORTED_FOR_INTERNAL_WORKSPACE_STORAGE
SQLSTATE: 割り当てなし
Files API の要求されたメソッドは、内部ワークスペース ストレージではサポートされていません
FILES_API_OPERATION_MUST_BE_PRESENT
SQLSTATE: 割り当てなし
操作が存在する必要があります
FILES_API_OPERATION_TIMEOUT
SQLSTATE: 割り当てなし
操作がタイムアウトしたとき。
FILES_API_PAGE_SIZE_MUST_BE_GREATER_OR_EQUAL_TO_ZERO
SQLSTATE: 割り当てなし
page_sizeは 0 以上である必要があります
ファイルAPIパスに基づくフィルター付きのテーブルへのアクセスは許可されていません
SQLSTATE: 割り当てなし
<unity_catalog_error_message>
FILES_API_PATH_END_WITH_A_SLASH
SQLSTATE: 割り当てなし
'/' 文字で終わるパスはディレクトリを表します。 この API は、ディレクトリに対する操作をサポートしていません。
FILES_API_PATH_IS_A_DIRECTORY
SQLSTATE: 割り当てなし
指定されたパスは、既存のディレクトリを指します。 この API は、ディレクトリに対する操作をサポートしていません。
FILES_API_PATH_IS_A_FILE
SQLSTATE: 割り当てなし
指定されたパスは、既存のファイルを指します。 この API は、ファイルに対する操作をサポートしていません。
FILES_API_PATH_IS_NOT_A_VALID_UTF8_ENCODED_URL
SQLSTATE: 割り当てなし
指定されたパスが有効な UTF-8 エンコード URL ではなかった
FILES_API_PATH_IS_NOT_ENABLED_FOR_DATAPLANE_PROXY
SQLSTATE: 割り当てなし
指定されたパスがデータ プレーン プロキシに対して有効になっていない
FILES_API_PATH_MUST_BE_PRESENT
SQLSTATE: 割り当てなし
パスが存在する必要があります
FILES_API_PATH_NOT_SUPPORTED
SQLSTATE: 割り当てなし
<rejection_message>
FILES_API_PATH_TOO_LONG
SQLSTATE: 割り当てなし
指定されたファイル パスが長すぎます。
FILES_API_PRECONDITION_FAILED
SQLSTATE: 割り当てなし
前提条件が原因で要求が失敗しました。
FILES_API_PRESIGNED_URLS_FOR_MODELS_NOT_SUPPORTED
SQLSTATE: 割り当てなし
現時点では、モデルの署名付き URL のファイル API はサポートされていません
FILES_API_R2_CREDENTIALS_DISABLED
SQLSTATE: 割り当てなし
現時点では、R2 はサポートされていません。
FILES_API_RANGE_NOT_SATISFIABLE
SQLSTATE: 割り当てなし
要求された範囲が満たされていません。
FILES_API_RECURSIVE_LIST_IS_NOT_SUPPORTED
SQLSTATE: 割り当てなし
ファイルの再帰的な一覧表示はサポートされていません。
FILES_API_REQUESTER_NETWORK_ZONE_UNKNOWN
SQLSTATE: 割り当てなし
リクエスター ネットワーク ゾーンを推論できません。
FILES_API_REQUEST_GOT_ROUTED_INCORRECTLY
SQLSTATE: 割り当てなし
要求が正しくルーティングされませんでした
FILES_API_REQUEST_MUST_INCLUDE_ACCOUNT_INFORMATION
SQLSTATE: 割り当てなし
要求にはアカウント情報を含める必要があります
FILES_API_REQUEST_MUST_INCLUDE_RECIPIENT_INFORMATION
SQLSTATE: 割り当てなし
要求には受信者情報を含める必要があります。
FILES_API_REQUEST_MUST_INCLUDE_USER_INFORMATION
SQLSTATE: 割り当てなし
要求にはユーザー情報を含める必要があります
FILES_API_REQUEST_MUST_INCLUDE_WORKSPACE_INFORMATION
SQLSTATE: 割り当てなし
要求にはワークスペース情報を含める必要があります
FILES_API_RESOURCE_IS_READONLY
SQLSTATE: 割り当てなし
リソースは読み取り専用です。
FILES_API_RESOURCE_NOT_FOUND
SQLSTATE: 割り当てなし
<unity_catalog_error_message>
FILES_API_SCHEMA_NOT_FOUND
SQLSTATE: 割り当てなし
<unity_catalog_error_message>
FILES_API_SECURE_URL_CANT_BE_ACCESSED
SQLSTATE: 割り当てなし
URL にアクセスできません。
FILES_API_SIGNATURE_VERIFICATION_FAILED
SQLSTATE: 割り当てなし
署名の検証に失敗しました。
FILES_API_STORAGE_ACCESS_CONTEXT_INVALID
SQLSTATE: 割り当てなし
ストレージ アクセス コンテキストが無効です。
FILES_API_STORAGE_CONTEXT_IS_NOT_SET
SQLSTATE: 割り当てなし
このワークスペースのストレージ構成にはアクセスできません。
FILES_API_STORAGE_CREDENTIAL_NOT_FOUND
SQLSTATE: 割り当てなし
<unity_catalog_error_message>
FILES_API_TABLE_TYPE_NOT_SUPPORTED
SQLSTATE: 割り当てなし
Files API は <table_type> に対して利用できません。
FILES_API_UC_AUTHENTICATION_FAILURE
SQLSTATE: 割り当てなし
<unity_catalog_error_message>
FILES_API_UC_IAM_ROLE_NON_SELF_ASSUMING
SQLSTATE: 割り当てなし
<unity_catalog_error_message>
FILES_API_UC_MODEL_INVALID_STATE
SQLSTATE: 割り当てなし
<unity_catalog_error_message>
FILES_API_UC_PERMISSION_DENIED
SQLSTATE: 割り当てなし
<unity_catalog_error_message>
FILES_API_UC_RESOURCE_EXHAUSTED
SQLSTATE: 割り当てなし
<message>
FILES_API_UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH
SQLSTATE: 割り当てなし
<unity_catalog_error_message>
FILES_API_UC_VOLUME_NAME_CHANGED
SQLSTATE: 割り当てなし
<unity_catalog_error_message>
FILES_API_AZURE_マネージドIDの更新ができない
SQLSTATE: 割り当てなし
Azure マネージド ID を更新できません。
FILES_API_UNEXPECTED_ERROR_WHILE_PARSING_URI
SQLSTATE: 割り当てなし
URI の解析時に予期しないエラーが発生する
FILES_API_UNEXPECTED_QUERY_PARAMETERS
SQLSTATE: 割り当てなし
予期しないクエリ パラメーター: <unexpected_query_parameters>
FILES_API_UNKNOWN_METHOD
SQLSTATE: 割り当てなし
不明なメソッド <method>
FILES_API_UNKNOWN_SERVER_ERROR
SQLSTATE: 割り当てなし
不明なサーバー エラー。
FILES_API_UNKNOWN_URL_HOST
SQLSTATE: 割り当てなし
URL ホストが不明です。
FILES_API_UNSUPPORTED_AUTHENTICATION_METHOD
SQLSTATE: 割り当てなし
要求が正しく認証されませんでした。
FILES_API_UNSUPPORTED_HTTP_METHOD
SQLSTATE: 割り当てなし
httpMethod はサポートされていません。
FILES_API_UNSUPPORTED_PARAMETERS_COMBINATION
SQLSTATE: 割り当てなし
パラメーターの組み合わせはサポートされていません。
FILES_API_UNSUPPORTED_PATH
SQLSTATE: 割り当てなし
指定されたパスは、Files API ではサポートされていません。 指定されたパスに '../' または './' のシーケンスが含まれていないことを確認します。 指定されたパスで複数の連続するスラッシュ (例: '///') が使用されていないことを確認します。
FILES_API_UPLOAD_PART_URLS_COUNT_MUST_BE_GREATER_THAN_ZERO
SQLSTATE: 割り当てなし
入力パラメーター 'count' は 0 より大きくする必要があります。
FILES_API_URL_GENERATION_DISABLED
SQLSTATE: 割り当てなし
事前割り当て URL 生成は、<cloud>に対して有効になっていません。
FILES_API_VOLUME_TYPE_NOT_SUPPORTED
SQLSTATE: 割り当てなし
files API は、 <volume_type>ではサポートされていません。
FILES_API_WORKSPACE_IS_CANCELED
SQLSTATE: 割り当てなし
ワークスペースが取り消されました。
FILES_API_WORKSPACE_IS_NOT_FOUND
SQLSTATE: 割り当てなし
このワークスペースのストレージ構成にはアクセスできません。
Lakeflow Spark 宣言型パイプライン
ABAC(属性ベースアクセス制御)のポリシーはサポートされていません。
ABAC ポリシーは、パイプライン内で定義されているテーブルではサポートされていません。
ポリシーを削除するか、Databricks サポートにお問い合わせください。
ABNORMAL_DRIVER_TERMINATION
クラスター上のドライバー<clusterId><terminationCause>が原因で異常終了しました。 詳細については、ドライバー ログを確認してください。
ACTIVE_UPDATE_EXISTS_FOR_LINKED_PIPELINE
リンクされたパイプライン '<updateId>' のアクティブな更新 '<linkedPipelineId>' が既に存在します。
ACTIVE_UPDATE_EXISTS_FOR_PIPELINE
パイプライン '<updateId>' のアクティブな更新 '<pipelineId>' が既に存在します。
ALTER_NOT_ALLOWED_FOR_PIPELINE_TABLE
ALTER が管理するテーブルでは使用できません。
詳細については、ALTER_NOT_ALLOWED_FOR_PIPELINE_TABLE を参照してください
ALTER_SCHEDULE_SCHEDULE_DOES_NOT_EXIST
既存のスケジュールまたはトリガーがないテーブルの <type> を変更することはできません。 変更を試みる前に、スケジュールまたはトリガーをテーブルに追加してください。
API_QUOTA_EXCEEDED
データ ソース <sourceName>の API クォータを超えました。
詳細については、API_QUOTA_EXCEEDED を参照してください
APPLY_CHANGES_ERROR
AUTO CDC操作中にエラーが発生しました。
詳細については、APPLY_CHANGES_ERRORを参照してください。
APPLY_CHANGES_FROM_SNAPSHOT_ERROR
AUTO CDC FROM SNAPSHOT操作中にエラーが発生しました。
詳細については、APPLY_CHANGES_FROM_SNAPSHOT_ERROR を参照してください
APPLY_CHANGES_FROM_SNAPSHOT_EXPECTATIONS_NOT_SUPPORTED
データセット <datasetName> には期待値が定義されていますが、現在、 AUTO CDC FROM SNAPSHOTを使用するデータセットに対する期待はサポートされていません。
このエラーを解決するための期待値を削除します。 別の方法として、次の構造を使用して、 AUTO CDC と AUTO CDC FROM SNAPSHOTを組み合わせて期待値を適用することを検討してください。
SCD タイプ 1 を使用したスナップショットからの変更を、期待せずに中間テーブルに適用します。
spark.readStream.option("readChangeFeed", "true").tableを使用して中間テーブルから変更を読み取ります。dlt.apply_changesで現在使用されているパラメーターに加えて、次のパラメーターを持つdlt.apply_changes_from_snapshotを使用して、中間テーブルから最終的なターゲット テーブルに変更を適用します。
変更を処理するには:
apply_as_deletes = "_change_type == 'delete'"CDF によって追加された列を削除するには:
except_column_list = ["_change_type", "_commit_version", "_commit_timestamp"]
-
dlt.apply_changesに使用される最終的なターゲット テーブルに現在の期待値のセットを含めます。
APPLY_CHANGES_PARTIAL_UPDATES_NOT_ENABLED
機能 COLUMNS TO UPDATE はプレビュー段階であり、ワークスペースでは有効になっていません。 この機能の詳細については、Databricks の担当者にお問い合わせください。プライベート プレビューにアクセスしてください。
APPLY_ENVIRONMENT_CLUSTER_NOT_AVAILABLE
<pipelineId>のパイプライン コンピューティングは使用できません。 パイプライン コンピューティングが停止しているか、まだ起動している可能性があります。
コンピューティングが完全に利用可能になったら、後でもう一度お試しください。 問題が解決しない場合は、Databricks サポートにお問い合わせください。
環境クラスターが見つかりませんでした
<pipelineId>のパイプライン コンピューティングが見つかりません。 このパイプライン コンピューティングは、まだ開始されていないか、既に停止している可能性があります。 パイプラインを開始してください
環境を適用する前に
環境適用はサポートされていません
ApplyEnvironment エンドポイントはサポートされていません。
ARCHITECTURE_MIGRATION_FAILURE
詳細については、ARCHITECTURE_MIGRATION_FAILURE を参照してください
ARCLIGHT_REQUIRES_SERVERLESS
既定のストレージを使用するカタログを対象とするパイプラインでは、サーバーレス コンピューティングを使用する必要があります。 サーバーレス コンピューティングにアクセスできない場合は、Databricks に問い合わせてワークスペースに対してこの機能を有効にしてください。
AUTO_FULL_REFRESH_DISABLED
テーブル <tableName>の自動更新は無効になっています。
AUTO_FULL_REFRESH_NOT_ALLOWED
<reason>のため、テーブル <tableName>の自動更新に失敗しました。
AUTO_FULL_REFRESH_THROTTLED
自動更新に失敗しました。 次の自動更新の前に、<timestamp>および最小間隔で完全に自動更新されたテーブル <tableName>は、<minInterval> 分です。
AZURE_ACTIVE_DIRECTORY_AUTHENTICATION_FAILED
Azure Active Directory 認証に失敗しました (AADSTS5000224)。
トレース ID: <traceId>、関連付け ID: <correlationId>。
Azure Active Directory が正しく構成され、アクセス可能であることを確認します。 問題が解決しない場合は、Microsoft サポートにお問い合わせください。
AZURE_MANAGED_IDENTITY_CREDENTIAL_NOT_FOUND
アカウント <accountId>に対して、Access Connector ID <accessConnectorId>を持つ Azure マネージド ID 資格情報が見つかりませんでした。
資格情報が存在し、正しく構成されていることを確認します。
AZURE_STORAGE_HOSTNAME_RESOLUTION_FAILED
Azure Storage ホスト名の解決に失敗しました: <hostname>。
DNS が正しく構成されており、ストレージ アカウントにネットワークからアクセス可能であることを確認します。
AZURE_STORAGE_REQUEST_NOT_AUTHORIZED
Azure Storage への要求は、ネットワーク セキュリティ境界によって承認されませんでした。
ストレージが正しく構成され、アクセス可能であることを確認します。
BIGQUERYデータコネクタソースカタログが見つかりません
BigQuery データ コネクタでエラーが発生しました。
インジェスト仕様に "ソース カタログ" (GCP プロジェクト ID) がありません。
この問題を解決するには、インジェスト仕様でソース カタログ (プロジェクト ID) を指定してください。
CANNOT_ADD_COLUMN_TO_INCLUDE_COLUMNS
テーブル <columnNames>のパイプライン定義のinclude_columns フィールドに新しい列 (<qualifiedTableName>) が追加されます。 潜在的なデータ損失を避けるためにテーブルを完全に更新するか、include_columnsからこれらの列を削除してください。
CANNOT_ADD_STORAGE_LOCATION
ストレージの場所を設定して新しいパイプラインを作成する場合は、カタログが定義された既存のパイプラインにストレージの場所を追加できません。
既存のカタログ: '<catalog>'。
要求されたストレージの場所: <storageLocation>。
CANNOT_COMPOSE_DECORATOR
SQLSTATE: 割り当てなし
@<decoratorName>デコレーターは、<otherDecorators>で構成できません。
CANNOT_EXCLUDE_NON_EXISTENT_COLUMN
パイプライン定義は、ソース <columnNames>のテーブル <qualifiedTableName> に存在しない列 (<sourceType>) を除外します。 exclude_columns フィールドからこれらの列を削除してください。
CANNOT_FILTER_OUT_REQUIRED_COLUMN
パイプライン定義には、インジェストに必要な列 (<columnNames>) がソース <qualifiedTableName> の <sourceType> テーブルに含まれていません。 include_columnsに追加するか、exclude_columnsから削除してください。
CANNOT_INCLUDE_NON_EXISTENT_COLUMN
パイプライン定義には、ソース <sourceType>のテーブル <qualifiedTableName>に存在しない列またはアクセスできない列 (<columnNames>) が含まれます。 include_columns フィールドからこれらの列を削除してください。
CANNOT_INGEST_TABLE_WITHOUT_PRIMARY_KEY
<qualifiedTableName> ソース内のテーブル<sourceType>には主キーがありません。
テーブルが存在する場合は、テーブルを取り込むための主キーをコネクタ構成で指定してください。
CANNOT_MODIFY_PIPELINE_OWNER_FOR_UC_PIPELINES
UC 以外のパイプラインの所有者の変更はまだサポートされていません。
CANNOT_MODIFY_PIPELINE_OWNER_PERMISSION_DENIED
パイプラインの所有者を変更できるのは、ワークスペース管理者だけです。
CANNOT_MODIFY_PIPELINE_OWNER_WHEN_MISSING
新しい所有者が存在しません。
CANNOT_MODIFY_PIPELINE_TYPE
pipeline_typeは更新できません。
現在のpipeline_type: <currentPipelineType>。
pipeline_type の更新: <requestedPipelineType>。
CANNOT_MODIFY_STORAGE_LOCATION
既存のパイプラインのストレージの場所を変更できません。
既存のストレージの場所: '<existingStorageLocation>'。
要求されたストレージの場所: <requestedStorageLocation>。
CANNOT_REMOVE_COLUMN_FROM_EXCLUDE_COLUMNS
テーブル <columnNames>のパイプライン定義exclude_columnsフィールドから列 (<qualifiedTableName>) が削除されます。 データ損失の可能性を回避するには、テーブルを完全に更新するか、これらの列をexclude_columnsに追加し直してください。
CANNOT_SET_CATALOG_FOR_HMS_PIPELINE
UC を使用して新しいパイプラインを作成し、カタログを設定する場合は、ストレージの場所が定義された既存のパイプラインにカタログを追加できません。
既存のストレージの場所: '<storageLocation>'
要求されたカタログ: '<catalog>'
CANNOT_SET_LINKED_PIPELINE_ID
パイプライン ID は同じです。リンクされたパイプライン ID を設定するとデッドロックが発生します。
CANNOT_SET_SCHEMA_FOR_EXISTING_PIPELINE
パイプライン '<pipelineName>' のパイプライン設定で指定された 'schema' フィールドが無効です。 Reason:
詳細については、CANNOT_SET_SCHEMA_FOR_EXISTING_PIPELINE を参照してください
一緒に設定できません
SQLSTATE: 割り当てなし
<argList> は相互に排他的であり、一緒に設定することはできません。
CANNOT_SPECIFY_BOTH_INCLUDE_EXCLUDE_COLUMNS
パイプライン定義では、<identifier>のinclude_columnsとexclude_columnsの両方を指定します。 そのうちの 1 つを削除してください。
CANNOT_UPDATE_CLUSTERING_COLUMNS
パーティション列を使用しているため、テーブル <tableName> のクラスタリング列を更新できません。 テーブルではパーティション列またはクラスタリング列を使用できますが、両方を使用することはできません。
液体クラスタリングとパーティション分割を切り替えるには、このテーブルの完全な更新をトリガーします。
CANNOT_UPDATE_PARTITION_COLUMNS
ストリーミング テーブル <tableName>のパーティション列を更新できません。
現在: <existingPartitionColumns>
要求: <requestedPartitionColumns>
このパーティション変更を適用するには、このテーブルと、更新されたパーティション列を持つ他のすべてのストリーミング テーブルの完全な更新をトリガーします。
または、この変更を元に戻して、既存のパーティション列を引き続き使用します。
CANNOT_UPDATE_TABLE_SCHEMA
テーブル <tableName>の現在のスキーマと新しいスキーマをマージできませんでした。
このスキーマの変更を続行するには、このテーブルの完全な更新をトリガーします。
ユース ケースとスキーマの変更によっては、スキーマの変更を無効にできる場合があります。出力スキーマが既存のスキーマと互換性を持つようクエリを更新できます (たとえば、列を正しいデータ型に明示的にキャストするなど)。
CANNOT_WRITE_TO_INACTIVE_COLUMNS
<details>
ただし、コピー先テーブルには、この名前の非アクティブな列が既に存在します。以前にソース テーブルから削除されているため、列は非アクティブです。
更新を続行するには、テーブルに対して FULL REFRESH を実行します。
CANNOT_WRITE_TO_INACTIVE_TABLES
変換先の次のテーブルは非アクティブであり、現在のソース テーブルと競合しています: <tables>。
これらのテーブルは、以前にソースから削除されたか、コネクタから選択されていないため、非アクティブなままです。
更新を続行するには、移行先のテーブル名を変更するか、これらのテーブルに対して FULL REFRESH を実行するか、カタログ エクスプローラーまたは DROP TABLE コマンドを使用して、これらの非アクティブなテーブルを削除してから、更新を再試行してください。
CANNOT_WRITE_TO_TABLES_PENDING_RESET
移行先の次の表は、前回の完全更新では正しくリセットされません:<tables>。
復旧させるには、それらを完全に最新の情報に更新してください。
CATALOG_MAPPING_NOT_AVAILABLE_IN_UC
UC カタログには、カタログ '<sourceCatalog>' のマッピングがありません。
カタログが UC カタログに登録されているかどうかを確認してください。
CATALOG_SCHEMA_MISMATCH_WITH_DESTINATION_PIPELINE
ID '<destPipelineCatalog>' の宛先パイプラインのカタログ <destPipelineSchema>とスキーマ <destPipelineId>が、テーブル <tableName>のカタログとスキーマと一致しません。 ターゲット パイプラインには、テーブルと同じカタログとスキーマが必要です。または、ターゲット パイプラインで直接発行モードを使用している必要があります。
CATALOG_SPEC_UNSUPPORTED
CatalogSpecs は現在、データベース コネクタではサポートされていません。 カタログ スペックを削除してください。
CDC_APPLIER_AUTO_FULL_REFRESH_POLICY_MUST_BE_SAME_FOR_ALL_DESTINATION_TABLES
同じソース テーブルに接続されているすべての宛先テーブルの自動更新ポリシーは、同じである必要があります。
ソース <sourceTable>に接続<destinationTables>次の宛先テーブルのポリシーを変更します。
CDC_APPLIER_COLUMN_UOID_NOT_SUPPORTED
テーブル <columnNames>の UOID <tableName>を含む列は、CDC マネージド インジェスト パイプラインではサポートされていません。
インジェスト パイプラインで列 UOID がサポートされているかどうかを確認するか、テーブルの完全な更新を要求してください。
CDC_APPLIER_FATAL_FAILURE_FROM_GATEWAY
ゲートウェイ パイプラインで致命的なエラーが発生しました。
<errorMessage>
パイプラインの更新エラーについては、 <link>を参照してください。
CDC_APPLIER_INGESTION_GATEWAY_REMOVED
マネージド インジェスト パイプラインにリンク <pipelineId> インジェスト ゲートウェイ パイプラインが削除されました。
マネージド インジェスト パイプラインを削除し、インジェスト ゲートウェイとマネージド インジェスト パイプラインの両方を作成してください。
CDC_APPLIER_REPLICATED_TABLE_METADATA_NOT_READY
テーブル <tableName> のレプリケートされたテーブル メタデータの準備ができていません。
既存のジョブ要求のタイムスタンプは <existingRequestTs>ですが、<expectedRequestTs> 以降を期待しています。
CDC_APPLIER_REQUIRES_ALL_DESTINATION_TABLES_FULL_REFRESH
1 つの宛先テーブルの完全更新と、同じソースからの別の宛先テーブルの通常の更新はサポートされていません。
可能であれば、両方のテーブルを完全に更新して続行してください。
完全にテーブルを更新: <fullRefreshTables>
ソース <sourceTable>の宛先テーブル: <destinationTables>
CDC_APPLIER_SCHEMA_CHANGED_DURING_STREAMING
スキーマバージョン <dataSchemaVersion> は、読み取りスキーマバージョン <readSchemaVersion>とは異なります。
Lakeflow Spark 宣言パイプラインは更新を再試行します。
CDC_APPLIER_SEQUENCE_BY_COLUMN_NOT_FOUND
sequenceBy で指定<columnName>テーブルの列<tableName>が<columns>に存在しません。
CDC_APPLIER_SEQUENCE_BY_INVALID_TYPE
sequenceByで指定されたテーブル<columnName>の列<tableName>は、サポートされていない型<typeName>です。
sequenceBy 列でサポートされている型は <allowedTypes>。
CDC_APPLIER_SEQUENCE_BY_MULTIPLE_COLUMNS_NOT_SUPPORTED
CDC マネージド インジェスト パイプラインの sequenceBy では、最大 1 つの列を指定できます。
指定された列: テーブル <columns> の <tableName>。
CDC_INCOMPATIBLE_SCHEMA_CHANGES
スキーマ のバージョン <cause> から <previousSchemaVersion>に互換性のないスキーマ変更 (<currentSchemaVersion>) が発生しました。
したがって、<tableName>の変更の適用に進むことはできません。 テーブルの完全な更新を要求してください。
前のスキーマ: <previousSchema>
現在のスキーマ: <currentSchema>
CDC_MULTIPLE_SOURCE_TABLES_MAPPED_TO_SAME_DESTINATION_TABLE
複数のソース テーブルが見つかりました。 <source_tables> 同じ変換先テーブル <destination_table>にマップされています。
それらを別の宛先テーブル名または別の宛先スキーマにマップしてください。
CDC_POTENTIAL_DATA_GAPS
次の表 [<needFullRefreshTableList>] は、正常な更新が <retention> 日間行われていません。
これらのテーブルまたはパイプライン全体に対して完全な更新を行ってください。
CDC_SAME_TABLE_FROM_MULTIPLE_SOURCES
複数のソース (<table>) から同じテーブル名 <sources> が見つかりました。
競合を回避するために、それらを異なるパイプラインに分割してください。
CDC_SOURCE_VALIDATION_FAILURE
ソース データベースの検証 <errorCount> エラーが検出されました。 詳細な結果と修復手順については、イベント ログ レポートを参照してください。
CDC_TABLE_NOT_FOUND_IN_ALL_TABLES
テーブル <table> は、ソース データベースのすべてのテーブル スナップショットに見つかりません。
テーブルの仕様詳細:
<tableSpec>
CHANGES_HMS_PIPELINE_TO_UC_NOT_ALLOWED
HMS パイプラインを UC パイプラインに変更することはできません。
CHANGES_UC_PIPELINE_TO_HMS_NOT_ALLOWED
UC パイプラインを HMS パイプラインに変更することはできません。
CHANGING_CATALOG_NOT_ALLOWED
既存のパイプラインのカタログを変更できません。 既存のカタログ: '<existingCatalog>'。 要求されたカタログ: '<requestedCatalog>'。
CHANGING_TARGET_SCHEMA_NOT_ALLOWED
ターゲット スキーマの変更は許可されていません。 理由: <reason>。
CLUSTER_CREATION_BUDGET_POLICY_LIMIT_EXCEEDED
パイプラインの予算ポリシーが制限を超えたため、クラスターを作成できませんでした。 別のポリシーを使用するか、課金管理者に連絡してください。
CLUSTER_CREATION_CLIENT_ERROR
パイプライン クラスターを作成できませんでした: <errorMessage>
このエラーは、パイプラインの構成ミスが原因である可能性があります。
パイプライン クラスターの構成と関連するクラスター ポリシーを確認します。
CLUSTER_CREATION_CLUSTER_POLICY_LIMIT_EXCEEDED
ポリシー "<clusterPolicy>" のユーザーごとに実行されているクラスターの数が <clusterLimit>の制限を超えたため、クラスターを作成できませんでした。 別のポリシーを使用するか、管理者に連絡してください。
CLUSTER_CREATION_CREDITS_EXHAUSTED
使用可能なクレジットを使い果たしたため、クラスターを作成できませんでした。 お支払い方法を追加してアカウントをアップグレードしてください。
CLUSTER_CREATION_RESOURCE_EXHAUSTED
リソースの制限を超えたため、クラスターを作成できませんでした。 <errorMessage>
CLUSTER_CREATION_SECRETS_FETCH_FAILED
Spark 構成で参照されているシークレットをフェッチできません。
シークレットが存在し、クラスターの所有者が読み取りアクセス許可を持っていることを確認してください。
CLUSTER_LAUNCH_CLIENT_ERROR
パイプライン クラスターの <clusterId>を起動できませんでした: <clusterStateMessage>
このエラーは、パイプラインの構成ミスが原因である可能性があります。
パイプライン クラスターの構成と関連するクラスター ポリシーを確認します。
CLUSTER_LAUNCH_CLOUD_FAILURE
パイプライン クラスターの <clusterId>を起動できませんでした: <clusterStateMessage>
このエラーは一時的なものになる可能性があります。パイプラインを再起動し、同じ問題が引き続き発生する場合は報告します。
CLUSTER_LAUNCH_RESOURCE_EXHAUSTED
リソース制限 (<clusterStateMessage>) が不足しているため、パイプライン クラスターの<clusterId>を起動できませんでした。
クラスター開始リソース不足
パイプライン クラスターの <clusterId>を起動できませんでした: <clusterStateMessage>
要求されたインスタンスの種類をクラウド プロバイダーから提供できませんでした。
クラウド プロバイダーのサブスクリプションを確認するか、別のインスタンスの種類でやり直してください。
CLUSTER_SETUP_CLIENT_ERROR
パイプライン更新の実行のためにクラスター <clusterId> を正常にセットアップできません。 Reason:
詳細については、CLUSTER_SETUP_CLIENT_ERROR を参照してください。
CLUSTER_UNREACHABLE
ドライバーとの通信が失われました。 クラスター <clusterId> に <timeoutSeconds> 秒間到達できませんでした。
COLUMN_MASK_WITH_NO_COLUMN
MV/ST スキーマに存在しない列 '<columnName>' の列マスクが見つかりました。 ベース テーブルのスキーマの変更が原因である場合は、次の操作を行います。
ALTER TABLE [テーブル名] ALTER COLUMN [マスクが適用されている列] DROP MASK で古いマスクをドロップするか、列を復元してください。
COLUMN_TO_UPDATE_NOT_FOUND
<column> TO COLUMNS で指定された列 UPDATE、ソース データフレームに見つかりません。
CONCURRENT_UPGRADE_FAILED_TO_STOP_PREVIOUS_UPDATE
アップグレードの更新 '<upgradedUpdateId>' を開始しましたが、以前の更新プログラム '<oldUpdateId>' を停止できませんでした。
このエラーは一時的なものである可能性があります。 パイプラインが自動的に再試行され、問題自体が解決されます。
引き続き同じ問題が発生する場合は、このエラーを Databricks に報告してください。
バッチクエリから一度だけ追加のフローを作成することは許可されていません
バッチ クエリからフローを 1 回追加するストリーミング テーブルを作成できません。
これにより、ソースからの増分インジェストが防止され、誤った動作が発生する可能性があります。
問題のあるテーブル: '<table>'。
これを解決するには、 STREAM() または readStream 演算子を使用して、ソースをストリーミング入力として宣言します。
例: SELECT...FROM STREAM(<source table name>) または spark.readStream.table('<source table name>')
DATASET_DECORATOR_APPLIED_TWICE
SQLSTATE: 割り当てなし
データセット <datasetName> は既に存在します。 クエリ関数がビューまたはテーブルとして 1 回だけマークされていることを確認します。
DATASET_NOT_DEFINED
データセット '<datasetName>' を読み取れませんでした。 このデータセットはパイプラインで定義されていません。
このテーブルが別のパイプラインによって管理されている場合は、dlt.read / dlt.readStream を使用してテーブルを読み取ったり、名前の先頭に LIVE キーワードを付けたりしないでください。
DATASET_NOT_FOUND_FOR_EXPECTATIONS
存在しないデータセット '<datasetName>' に対する期待値を定義しようとしました
DATASET_NOT_REGISTERED_FOR_FLOW
データセット '<datasetName>' のフローを登録しようとしましたが、データセットは登録されていません。
DBFS_NOT_ENABLED
このワークスペースでは DBFS が有効になっていません。Unity カタログに発行するか、パイプラインの別のストレージの場所を指定してください。
DBSQL_INCONSISTENT_SCHEDULE_IN_PIPELINE
パイプライン <pipelineId> には、スケジュール設定が異なる複数の実稼働テーブル ([<tableScheduleInfo>]) があります。 すべての実稼働テーブルのスケジュールは同じである必要があります。
DBSQL_INVALID_CHANNEL_VALUE
プロパティ <channel> で指定されたチャネルpipelines.channel無効です。 有効な値は、 <validChannels>です。
DBSQL_INVALID_SCHEDULE_TYPE
schedule プロパティで指定されたスケジュールの種類が無効です: <scheduleValue>。
DBSQL_MISSING_SCHEDULE_PROPERTY
テーブルプロパティに必要な schedule プロパティがありません。
DBSQL_PIPELINE_IS_MISSING
DBSQL パイプラインがありません。 具体化されたビューまたはストリーミング テーブルを更新して、 DBSQL パイプラインを作成してください。
DBSQL_PIPELINE_SHOULD_NOT_HAVE_MULTIPLE_TABLES
DBSQL パイプラインには具体化されたビューまたはストリーミングテーブルが1つだけ必要ですが、見つかったのは<tablesSize>個のテーブルでした。<tables>
パイプライン削除が無効になっています
現時点ではパイプラインを削除できません。
パイプライン '<pipelineId>' の削除については、Databricks サポートにお問い合わせください。
DESTINATION_PIPELINE_NOT_FOUND
ID '<pipelineId>' の宛先パイプラインが見つかりません。 パイプラインと同じワークスペースにいることを確認し、自分がパイプラインの所有者であり、パイプラインが少なくとも 1 回実行されていることを確認します。
DESTINATION_PIPELINE_NOT_IN_DIRECT_PUBLISHING_MODE
ID '<pipelineId>' の宛先パイプラインで直接発行モードが使用されていません。
DESTINATION_PIPELINE_PERMISSION_DENIED
この操作は実行できません。ID '<pipelineId>' を持つ宛先パイプラインの所有者ではありません。 テーブルのパイプラインを変更できるのは所有者だけです。
DESTINATION_PIPELINE_TYPE_NOT_WORKSPACE_PIPELINE_TYPE
ID '<pipelineId>' の宛先パイプラインは ETL パイプラインではありません。
DIRECTORY_PATH_REQUIRES_GLOB
<path>パスはディレクトリです。 ディレクトリ内のすべてのファイルを含めるには、パイプライン構成で 、サフィックス '**' のサフィックス '<path>/**' を持つ glob パターンを使用します。
パイプラインの復元が許可されていないリクエスト
<request>状態のパイプライン '<pipelineId>' に対する要求RESTORINGは許可されません。
DO_CREATE_OR_EDIT_INVALID_USER_ACTION
'<action>' 要求の処理中にエラーが発生しました。
DROP_SCHEDULE_SCHEDULE_DOES_NOT_EXIST
既存のスケジュールまたはトリガーがないテーブルに対して SCHEDULE を削除することはできません。
DUPLICATED_FROM_JSON_SCHEMA_LOCATION
from_json スキーマの重複ロケーションキー: <schemaLocationKey>。
パイプライン内の各from_jsonクエリの一意のスキーマの場所キーを選択してください
DUPLICATED_INGESTION_CONFIG_TABLE_SPECS
インジェスト パイプラインの構成には、重複するテーブルが含まれています。 各テーブルが一意であることを確認してください。
EMPTY_INGESTION_CONFIG_OBJECTS
インジェスト構成オブジェクトが空です。
ENHANCED_AUTOSCALING_REQUIRES_ADVANCED_EDITION
拡張自動スケールの "spare_capacity_fraction" 設定は、Lakeflow Spark 宣言パイプラインの Advanced 製品エディションでのみサポートされます。
"spare_capacity_fraction" を使用するには、パイプラインの設定を編集して "edition": "advanced" を設定してください。
ENVIRONMENT_PIP_INSTALL_ERROR
環境の依存関係 '<pipDependency>' をインストールできませんでした。 詳細については、クラスター上のドライバーの stdout ログを確認してください。
EVENT_LOG_PICKER_FEATURE_NOT_SUPPORTED
Unity カタログへのイベント ログの発行は、レガシ発行モードではサポートされていません。 この機能を有効にするには、移行ガイドの https://docs.databricks.com/aws/en/dlt/migrate-to-dpmの手順に従って、パイプラインを既定の発行モードに移行します。 従来の発行モードを引き続き使用する場合は、パイプラインの仕様から "event_log" 構成を削除します。
EXPECTATION_VIOLATION
フロー '<flowName>' が期待を満たすことができませんでした。
詳細については、EXPECTATION_VIOLATIONを参照してください。
EXPLORE_ONLY_CANNOT_BE_SET_WITH_VALIDATE_ONLY
explore_onlyとvalidate_onlyの両方を true に設定することはできません。
EXPLORE_ONLY_IS_NOT_ENABLED
explore_only更新が有効になっていません。 Databricks サポートにお問い合わせください。
FAILED_TO_CREATE_EVENT_LOG
識別子が <pipelineId>されたパイプライン (id=<eventLogIdentifier>) イベント ログを作成できませんでした。 詳細については、以下の例外を参照してください。
FAILED_TO_PUBLISH_VIEW_TO_METASTORE
<viewName>のため、ビュー <reason>をメタストアに発行できませんでした。
FAILED_TO_UPDATE_EVENT_LOG
パイプライン (id=<pipelineId>) イベント ログ識別子を <newEventLogIdentifier>に更新できませんでした。 詳細については、以下の例外を参照してください。
FLOW_SCHEMA_CHANGED
フロー <flowName> は、実行中にスキーマの変更が発生して終了しました。
スキーマの変更は既存のターゲット スキーマと互換性があり、フローの次の実行は新しいスキーマで再開できます。
FOREACH_BATCH_SINK_ONLY_SUPPORTED_IN_PREVIEW_CHANNEL
Lakeflow Spark 宣言パイプライン ForeachBatch シンクは現在サポートされていません。
Lakeflow Spark 宣言型パイプライン ForeachBatch シンクのプライベート プレビューには、 PREVIEW チャネルが必要です。
Lakeflow Spark 宣言パイプライン シンク: <sinkNames>
GATEWAY_PIPELINE_INIT_SCRIPTS_NOT_ALLOWED
ゲートウェイ パイプラインでは、クラスターの初期化スクリプトは許可されません。
<from>から削除してください.
GATEWAY_PIPELINE_SPARK_CONF_NOT_ALLOWED
ゲートウェイ パイプラインでは、Spark 構成 [<configs>] は許可されません。
<from>からそれらを削除してください.
GET_ORG_UPDATE_CAPACITY_LIMIT_EXCEEDED
要求された組織 ID の数が、許可される最大数を超えています <limit>
GOOGLE_ANALYTICS_RAW_DATA_CONNECTOR_SOURCE_CATALOG_MISSING
Google Analytics 生データ コネクタでエラーが発生しました。
インジェスト仕様に "ソース カタログ" (GCP プロジェクト ID) がありません。
この問題を解決するには、インジェスト仕様でソース カタログ (プロジェクト ID) を指定してください。
HMS_NOT_ENABLED
Hive メタストアは、このワークスペースでは有効になっていません。Unity カタログに発行してください。
ILLEGAL_COLUMN_TO_UPDATE_DATA_TYPE
COLUMNS から UPDATE で指定された列のデータ型は文字列配列である必要がありますが、<illegalDataType>が見つかりました。
ILLEGAL_ID_PARAM_IN_PIPELINE_SETTINGS
設定に '<fieldName>' を含めてはなりません。
ILLEGAL_SCHEMA_FIELD_IN_PIPELINE_SPEC
パイプライン設定で指定された 'schema' フィールドが無効です。 理由: <reason>。
INCORRECT_ROOT_PATH_TYPE
ルート パス '<rootPath>' はディレクトリである必要がありますが、 <objectType>見つかりました。
INCREMENTAL_REFRESH_UNAVAILABLE_WITH_STRICT_REFRESH_POLICY
具体化されたビューには、 INCREMENTAL_STRICT の更新ポリシーがありますが、増分化することはできません。
インフラストラクチャー保守
クラスター上のドライバー <clusterId> インフラストラクチャのメンテナンスにより終了します。
INGESTION_CONFIG_DUPLICATED_SCHEMA
インジェスト パイプラインの構成には、重複するスキーマが含まれています。 各スキーマが一意であることを確認してください。
INGESTION_GATEWAY_AUTHENTICATION_FAILURE
認証エラー
詳細については、INGESTION_GATEWAY_AUTHENTICATION_FAILURE を参照してください
INGESTION_GATEWAY_BREAKING_SCHEMA_CHANGE_FAILURE
ソース テーブルとターゲット テーブルの間でスキーマの不一致が検出されました。 この問題を解決するには、インジェスト パイプラインでテーブル '<entityName>' を完全に更新する必要があります。
INGESTION_GATEWAY_CAPTURE_INSTANCE_UNAVAILABLE
<entityName>のキャプチャ インスタンスはソースで使用できなくなりました。
テーブルで CDC または CT を有効にした後、完全な更新をトリガーしてください。
INGESTION_GATEWAY_CDC_LOG_TRUNCATED
CDC ログがテーブル '<entityName>' に切り捨てられました。理由: <errorMessage>。
これは、CDC ログ保持ポリシーが変更追跡ログを処理する前に切り捨てることが原因で発生する可能性があります。
テーブルは処理からスキップされます。 処理を再度有効にするには、テーブルを完全に更新してください。
INGESTION_GATEWAY_CDC_NOT_ENABLED
<entityType> にて CDC が有効になっていません '<entityName>'. CDC を有効にし、インジェスト パイプラインでテーブルを完全に更新します。 エラー メッセージ: '<errorMessage>'。
INGESTION_GATEWAY_DB_VERSION_NOT_SUPPORTED
データベースのバージョンはサポートされていません。
詳細については、INGESTION_GATEWAY_DB_VERSION_NOT_SUPPORTEDを参照してください。
INGESTION_GATEWAY_DDL_OBJECTS_MISSING
<entityType>に<entityName>のDDLオブジェクトがありません。 DDL オブジェクト スクリプトを実行し、インジェスト パイプラインでテーブルを完全に更新します。 エラー メッセージ: '<errorMessage>'。
INGESTION_GATEWAY_HEALTH_CHECKER_VALIDATION_CYCLE_FAILED
内部正常性チェッカーの検証サイクルに失敗しました。 次のサイクルで再試行します。問題が解決しない場合は、チケットを提出してください。
エラー メッセージ: <errorMessage>
INGESTION_GATEWAY_MISSING_CONNECTION_REFERENCE
インジェスト ゲートウェイの構成に接続がありません。
資格情報を含む Unity カタログ接続への参照を追加してください。
インジェスト ゲートウェイ パイプライン定義の詳細:
<definition>
INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_CATALOG
インジェスト ゲートウェイの構成に、内部ストレージの場所カタログがありません。
内部ストレージの場所カタログを追加してください。
インジェスト ゲートウェイ パイプライン定義の詳細:
<definition>
INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_NAME
インジェスト ゲートウェイの構成に、内部ストレージの場所名がありません。
内部ストレージの場所名を追加してください。
インジェスト ゲートウェイ パイプライン定義の詳細:
<definition>
INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_SCHEMA
インジェスト ゲートウェイの構成に、内部ストレージの場所スキーマがありません。
内部ストレージの場所スキーマを追加してください。
インジェスト ゲートウェイ パイプライン定義の詳細:
<definition>
INGESTION_GATEWAY_MISSING_TABLE_IN_SOURCE
テーブル '<entityName>' がソース データベースに存在しないか、削除されています。 問題を解決し、マネージド インジェスト パイプラインでテーブルを完全に更新します。 エラー メッセージ: '<errorMessage>'。
INGESTION_GATEWAY_MYSQL_BINLOG_FILE_DELETED
ソース データベースで必要な MySQL binlog ファイルが削除されました。 これは通常、ビンログの保持期間が低すぎる場合、または保持期間が経過した後にインジェストが再開された場合に発生します。 軽減するには、すべてのテーブルに対して完全な更新を実行し、ソースでのビンログの保持期間を増やします。
エラー メッセージ: <errorMessage>
INGESTION_GATEWAY_MYSQL_MISSED_BINLOG_FILES_DETECTED
MySQL Binlog ファイルを検出できなかった。
<entityName>で完全な更新を実行してください。
エラー メッセージ: <errorMessage>
INGESTION_GATEWAY_ORACLE_ARCHIVE_LOG_FILES_UNAVAILABLE
CDC レプリケーションに必要な Oracle アーカイブ ログ ファイルは、ソース データベースでは使用できなくなりました。 これは、アーカイブ ログが保持期間を超えた場合、または手動で削除された場合に発生する可能性があります。 カタログ '<catalogName>' にマップされているすべての変換先テーブルに対して、完全な更新を実行してください。 この問題が解決しない場合は、ソース データベースのアーカイブ ログ保有期間を長くして、処理中にログを使用できるようにすることを検討してください。
エラー メッセージ: <errorMessage>
INGESTION_GATEWAY_ORACLE_MISSING_CONFIGURATION
Oracle 接続の構成が不完全です。
詳細については、INGESTION_GATEWAY_ORACLE_MISSING_CONFIGURATIONを参照してください。
INGESTION_GATEWAY_PG_PUBLICATION_ALTER_FAILED
<entityType> '<entityName>' のレプリケーション パブリケーションを変更できませんでした
エラー メッセージ: <errorMessage>
詳細については、INGESTION_GATEWAY_PG_PUBLICATION_ALTER_FAILED を参照してください
INGESTION_GATEWAY_PG_PUBLICATION_CREATION_FAILED
<entityType> '<entityName>' のレプリケーション パブリケーションを作成できませんでした
エラー メッセージ: <errorMessage>
詳細については、INGESTION_GATEWAY_PG_PUBLICATION_CREATION_FAILED を参照してください
INGESTION_GATEWAY_PG_PUBLICATION_DROP_FAILED
<entityType> '<entityName>' のレプリケーション パブリケーションを削除できませんでした
エラー メッセージ: <errorMessage>
詳細については、INGESTION_GATEWAY_PG_PUBLICATION_DROP_FAILEDを参照してください。
INGESTION_GATEWAY_PG_SLOT_CONFIG_IS_INVALIDATED
<entityType> <entityName>のレプリケーション スロット構成が正常な状態ではありません。 この問題を解決するには、カタログ <catalogName>にマップされているすべての変換先テーブルに対して完全な更新をトリガーします。
エラー メッセージ: <errorMessage>
INGESTION_GATEWAY_PG_SLOT_CONSUMED_BY_OTHER_PROCESS
レプリケーション スロットが別の PID によって使用されているため、 <entityType> '<entityName>' のレプリケーション スロットを作成できませんでした。
エラー メッセージ: <errorMessage>
INGESTION_GATEWAY_PG_SLOT_CREATION_FAILED
<entityType> '<entityName>' のレプリケーション スロットを作成できませんでした
エラー メッセージ: <errorMessage>
詳細については、INGESTION_GATEWAY_PG_SLOT_CREATION_FAILED を参照してください
INGESTION_GATEWAY_PG_SLOT_DROP_FAILED
<entityType> '<entityName>' のレプリケーション スロットを削除できませんでした
エラー メッセージ: <errorMessage>
詳細については、INGESTION_GATEWAY_PG_SLOT_DROP_FAILEDを参照してください。
INGESTION_GATEWAY_PG_SLOT_HAS_BEEN_DELETED
<entityType> '<entityName>' のレプリケーション スロットが削除されました。 カタログ '<catalogName>' にマップされているすべての変換先テーブルに対して、完全な更新をトリガーしてください。
エラー メッセージ: <errorMessage>
INGESTION_GATEWAY_PG_SLOT_IS_INVALIDATED
<entityType> '<entityName>' のレプリケーション スロットが正常な状態ではありません。 スロットを削除し、カタログ '<catalogName>' にマップされているすべての宛先テーブルに対して完全な更新をトリガーしてください。
エラー メッセージ: <errorMessage>
INGESTION_GATEWAY_SOURCE_INSUFFICIENT_PERMISSION_FAILURE
ユーザーには、このオブジェクトにアクセスしたり、ストアド プロシージャを実行したりするために必要なアクセス許可がありません。 必要なすべての特権が付与されていることを確認してください。 次のドキュメントを参照してください: https://docs.databricks.com/aws/en/ingestion/lakeflow-connect/sql-server/database-user-requirements。
INGESTION_GATEWAY_SOURCE_SCHEMA_MISSING_ENTITY
ソースからのレプリケーションに使用できるテーブルはありません。
テーブルが正しく選択され、インジェスト パイプラインで定義されていることを確認する
ユーザーは必要なカタログとスキーマへのアクセス権を持ちます。
INGESTION_GATEWAY_SQL_SERVER_CT_DISABLED
テーブル <entityName> の変更履歴がソースで無効になりました。
テーブルで CDC または CT を有効にした後、完全な更新をトリガーしてください。
取り込みゲートウェイテーブルが削除されました
ソース テーブル '<entityName>' がソースで削除されました。 エラー メッセージ: <errorMessage>
INGESTION_GATEWAY_TABLE_RENAMED
ソース テーブル '<entityName>' の名前がソースで変更されました。 エラー メッセージ: <errorMessage>
INGESTION_GATEWAY_TABLE_SKIPPED_DUE_TO_UNSUPPORTED_COLUMN_DATA_TYPE(サポートされていない列データ型のため、テーブルの取り込みがスキップされました)
サポートされていないデータ型の列のため、テーブル '<entityName>' はスキップされました。 問題を解決し、マネージド インジェスト パイプラインでテーブルを完全に更新します。 エラー メッセージ: '<errorMessage>'。
INGESTION_GATEWAY_UNEXPECTED_COLUMN_UOID
予期しない UOID が列に割り当てられているため、テーブル '<entityName>' はスキップされました。 この問題を解決するには、テーブルに対して完全な更新を実行してください。 エラー: <errorMessage>。
INGESTION_GATEWAY_UNEXPECTED_TABLE_UOID
予期しない UOID がテーブルに割り当てられているため、テーブル '<entityName>' はスキップされました。 この問題を解決するには、テーブルに対して完全な更新を実行してください。 エラー: <errorMessage>。
INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE
ソース データベースのホスト名 <host> やポート <port> が正しくないため、接続に失敗しました。
詳細については、INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE を参照してください
INGESTION_GATEWAY_UNSUPPORTED_CHARS_IN_OBJECT_NAME
テーブル <entityName>のオブジェクトでサポートされていない文字が見つかりました。理由: <errorMessage>。 テーブルはスキップされます。 特殊文字の取り込みを有効にするには、サポートにお問い合わせください。
INGESTION_GATEWAY_UNSUPPORTED_OBJECT_TYPE
オブジェクト '<entityName>' はサポートされておらず、スキップされています。 解決するには、インジェスト パイプラインからこのオブジェクトを削除します。 エラー メッセージ: '<errorMessage>'。
インジェスションゲートウェイ_追跡不能_テーブル変更
テーブル <entityName>に対してトレース不可能なテーブル変更が検出されました。理由: <errorMessage>。
これは、テーブルの切り捨て、cdc ログのロールオーバー、またはその他の追跡不可能な操作が原因で発生する可能性があります。
テーブルは処理からスキップされます。 処理を再度有効にするには、テーブルを完全に更新してください。
INGESTION_GATEWAY_XA_TRANSACTION_NOT_SUPPORTED (受付ゲートウェイでXAトランザクションはサポートされていません)
XA トランザクションの一部であるため、'<entityType>' <entityName>レプリケートできませんでした。
エラー メッセージ: <errorMessage>
INVALID_APPLY_CHANGES_COMMAND
AUTO CDC コマンドが無効です。
<reason>。
INVALID_ARGUMENT_TYPE
SQLSTATE: 割り当てなし
パラメーター '<paramName>' に渡された無効な型の値。
<expectedType> が予期されていました。
<additionalMsg>。
INVALID_COMPATIBILITY_OPTIONS
テーブル <table> に指定されたテーブル オプションは、次の理由で無効です
詳細については、INVALID_COMPATIBILITY_OPTIONS を参照してください
INVALID_CONFIG_FOR_UC_PIPELINE
UC パイプラインでは、'<configKey>' を '<configValue>' に設定することはできません。 パイプライン設定からこの構成を削除してください。
INVALID_DECORATOR_USAGE
SQLSTATE: 割り当てなし
@<decoratorName> に渡される最初の位置引数は呼び出し可能である必要があります。 関数にパラメーターのない @<decoratorName>を追加するか、キーワード引数 (<decoratorName> など) を使用して @<exampleUsage> にオプションを渡します。
INVALID_DESTINATION_PIPELINE_ID
宛先パイプライン ID '<pipelineId>' が無効です。 パイプライン ID は有効な UUID である必要があります。
パイプライン名ではなく、正しいパイプライン ID を使用していることを確認します。
INVALID_EVENT_LOG_CONFIGURATION
パイプライン スペックで無効なイベント ログ構成が見つかりました。 <message>
INVALID_NAME_IN_USE_COMMAND
<name> コマンドの名前 '<command>' は無効です。 理由: <reason>
INVALID_PARAM_FOR_DBSQL_PIPELINE
DBSQL パイプラインの 'dry_run' を呼び出すときにのみ、'pipeline_id' と 'pipeline_type' を指定できます。
INVALID_REFRESH_SELECTION
詳細については、INVALID_REFRESH_SELECTION を参照してください
INVALID_REFRESH_SELECTION_REQUEST_FOR_CONTINUOUS_PIPELINE
更新の選択は、連続モードではサポートされていません。
INVALID_REFRESH_SELECTION_REQUEST_WITH_FULL_REFRESH
更新選択要求に対して、full_refresh を true に設定しないでください。
INVALID_REWIND_SPECIFICATION
巻き戻しの指定が無効です
詳細については、INVALID_REWIND_SPECIFICATIONを参照してください。
INVALID_ROOT_PATH
無効なroot_path '<rootPath>': 現在、絶対ディレクトリ パスのみがサポートされています。 ディレクトリ パスは '/' で始まり、'/' で終わる必要はありません。
INVALID_SCHEMA_NAME
パイプライン設定で指定されたスキーマ '<schemaName>' が無効です。 理由: <reason>。
INVALID_SNAPSHOT_AND_VERSION_TYPE
SQLSTATE: 割り当てなし
ターゲット '<target>' を持つフローのsnapshot_and_versionがサポートされていない型を返しました。
<additionalMsg>。
INVALID_TRIGGER_INTERVAL_FORMAT
<configurationType> で指定されたトリガー間隔の構成が無効です
JIRA_アクセス禁止
接続しているユーザーにアクセス権がありません。 ユーザーのアクセス許可を再確認し、もう一度やり直してください。
JIRA_管理者_権限_不足
Jira API の呼び出し中にエラーが発生しました。 必ず以下を行ってください。
接続しているユーザーに対する Jira インスタンスの Jira 管理者アクセス許可。
JIRA_AUTHORIZATION_FAILED (JIRA認証に失敗しました)
Jira API の呼び出し中に承認に失敗しました。 親切に再認証する
UC 接続が作成され、もう一度やり直してください。
JIRA_CONNECTOR_ENTITY_MAPPING_PARSING_FAILED
Jira コネクタでエラーが発生しました。
エンティティ型 ( <entityType>) のエンティティ マッピングの解析中に問題が発生しました。 エンティティがサポートされている型の一部であるかどうかを確認します。
エラーが解決しない場合は、チケットを提出します。
JIRA_MISSING_REQUIRED_FIELD
Jira API 応答に必須フィールド '<fieldName>' がありません。
JSON ノード: <jsonNode>
JIRA_SITE_MISSING
指定された Jira ドメイン <domain>に対応する cloudId が見つかりませんでした。
接続しているユーザーがこのサイトにアクセスできることを確認してください。
JOB_DETAILS_DO_NOT_MATCH
'update_cause_details.job_details' と 'job_task' の両方が指定されている場合は、一致する必要がありますが、それらは <details> と <jobTask> です。
JOB_TASK_DETAILS_MISSING
'cause' が JOB_TASK 場合は、'job_task' または 'update_cause_details.job_details' を指定する必要があります。
LEGACY_PIPELINE_CREATION_DISABLED
既定では、レガシ発行モードでのパイプラインの作成は、ワークスペースで無効になっています。 例外が必要な場合は、Databricks サポートにお問い合わせください。
LIBRARY_FILE_FETCH_PERMISSION_DENIED
'<path>' にあるライブラリ ファイルにアクセスできません。 ユーザーがこのファイルを読み取るために必要なアクセス許可を持っていることを確認します。
理由: <reason>
LIBRARY_FILE_NOT_FOUND
ファイル '<path>' が見つからないか、run_as ユーザーにアクセスするアクセス許可がありません。
LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_CLASSIC
データセット クエリ定義の外部 LIVE 仮想スキーマ (つまり、注釈 @dlt.table) を使用したデータセットの参照はサポートされていません。
LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_DPM
LIVE 仮想スキーマ <identifier> を使用したデータセットの参照は、データセット クエリ定義の外部 (つまり、@dlt.table 注釈) ではサポートされていません。
LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_SPARK_SQL
spark.sql(...) で LIVE 仮想スキーマを使用してデータセットを参照するAPI は、データセット クエリ定義 (つまり、注釈 @dlt.table ) の外部で呼び出してはなりません。 これは、データセット クエリ定義内でのみ呼び出すことができます。
MANAGED_INGESTION_PIPELINE_SPEC_VALIDATION_ERROR
詳細については、MANAGED_INGESTION_PIPELINE_SPEC_VALIDATION_ERRORを参照してください。
MATERIALIZED_VIEW_RETURNED_STREAMING_DATAFRAME
SQLSTATE: 割り当てなし
具体化されたビュー '<datasetName>' のクエリ関数は、ストリーミング DataFrame を返しました。
ストリーミング以外の DataFrame を返す必要があります。
MAX_RETRY_REACHED_BEFORE_ENZYME_RECOMPUTE
最大再試行回数に達しました。 再試行回数: <flowRetryCount>。 maxFlowFailureRetryCountThreshold:<maxFlowRetryAttempts>。 <message>
MESA_PIPELINE_INVALID_DEFINITION_TYPE
UC 定義から <definitionType> パイプラインを開始することはできません。
MESA_PIPELINE_MISMATCH_PIPELINE_TYPES
格納された定義と更新された定義は同じパイプラインの種類である必要がありますが、実際には <stored> と <updated> が得られました。
MESA_PIPELINE_MISSING_DEFINITION
パイプラインには UC の有効な定義はありませんが、更新が要求されます。
MESA_PIPELINE_MISSING_DEFINITION_UNEXPECTED
UC に予期せずパイプライン定義がありません。
METASTORE_OPERATION_TIMED_OUT
<tableName> のメタストア情報の更新に関連する操作には、<timeout>よりも時間がかかりました。
この問題は一時的なものであるか、構成されているメタストア クライアントのバグを示している可能性があります。 パイプラインを再起動して、この問題が解決しない場合は報告してください。
META_ADS_PARAMETERS_CHANGED
Meta マーケティング コネクタでエラーが発生しました。 ad_insights テーブルへの入力パラメーターが変更されました。
影響を受けたテーブルに対して完全な更新を実行してください。
META_ADS_SOURCE_API_ERROR
メタ マーケティング API 呼び出しでエラーが発生しました。 Meta サポートでトレースする Facebook トレース ID: <trace_id>。
エラーが解決しない場合は、チケットを提出します。
META_MARKETING_INSIGHTS_LEVEL_INVALID
ad_insights テーブルの分析情報を取得しようとしたときに、Meta マーケティング コネクタでエラーが発生しました。
指定されたレベル パラメーター <level> が無効です。 いずれかの (広告、広告セット、キャンペーン、アカウント) を渡してください。
META_MARKETING_INSIGHTS_PARAM_BREAKDOWNS_INVALID
ad_insights テーブルの分析情報を取得しようとしたときに、Meta マーケティング コネクタでエラーが発生しました。
指定された内訳パラメーター <breakdowns> が無効です。 内訳の有効な一覧については、メタ API のドキュメントを参照してください。
エラーが解決しない場合は、チケットを提出します。
META_MARKETING_INSIGHTS_PARAM_TIME_INCREMENT_INVALID
ad_insights テーブルの分析情報を取得しようとしたときに、Meta マーケティング コネクタでエラーが発生しました。
指定された時間増分パラメーター <timeInc> を解析できませんでした。 有効な整数を入力してください。
META_MARKETING_INSIGHTS_START_DATE_INVALID
ad_insights テーブルの分析情報を取得しようとしたときに、Meta マーケティング コネクタでエラーが発生しました。
指定された開始日パラメーター <startDate> 解析できませんでした。 正しい YYYY-MM-DD 形式で確認して変更してください。
META_MARKETING_INSIGHTS_START_DATE_TOO_OLD
ad_insights テーブルの分析情報を取得しようとしたときに、Meta マーケティング コネクタでエラーが発生しました。
指定された開始日は、同期の現在の日付から 37 か月を超えすることはできません。指定されたパラメーターで確認して変更してください。
エラーが解決しない場合は、チケットを提出します。
META_MARKETING_RATE_LIMIT_EXCEEDED
この広告アカウントの Meta API レート制限が使い果たされました。 しばらくしてからパイプラインの更新を再試行してください。 制限に再び達しないように、並列で取り込むテーブルの数を減らすことをお勧めします。
レート制限エラーが頻繁に発生する場合は、メタドキュメントに従って、まだ完了していない場合は、高度なアクセスへのアップグレードを検討してください。 https://developers.facebook.com/docs/marketing-api/get-started/authorization
META_MARKETING_REQUESTED_DATA_LIMIT_EXCEEDED
要求されたデータの量が Meta サーバーが処理できる制限を超えたため、Meta API は失敗しました。
列選択ロジックを使用して、このテーブルに取り込むフィールドの数を減らしてみてください。 エラーが解決しない場合は、チケットを提出します。
MIGRATION_TO_UNITY_CATALOG
詳細については、MIGRATION_TO_UNITY_CATALOGを参照してください。
カタログまたはスキーマの権限が不足しています
ユーザー '<userName>' に '<schemaName>' に対するアクセス許可がありません。 詳細: <reason>
MISSING_CREATE_SCHEMA_PRIVILEGE
ユーザー '<userName>' にカタログ内にスキーマを作成する権限がありません <catalogName>
MISSING_CREATE_TABLE_PRIVILEGE
ユーザー '<userName>' にスキーマでテーブルを作成する権限がありません <schemaName>
MISSING_RUN_AS_USER
更新に対して、実行ユーザーの指定がありませんでした。
複数クエリスナップショット対象がサポートされていません
'<tableName>' には、 AUTO CDC FROM SNAPSHOT クエリ '<flowName>' が既に含まれています。 現時点では、この API は宛先ごとに 1 つのフローのみをサポートしています。
MUTUALLY_EXCLUSIVE_OPTIONS
オプション <options> は相互に排他的です。 これらのオプションのいずれかを削除してください。
NEGATIVE_VALUE
SQLSTATE: 割り当てなし
<arg_name>の値は0以上である必要がありますが、'<arg_value>'と表示されました。
NON_UC_TABLE_ALREADY_MANAGED_BY_OTHER_PIPELINE
テーブル '<tableName>' は既にパイプライン <otherPipelineId>によって管理されています。
テーブル '<tableName>' をこのパイプラインで管理する場合 -
パイプライン '
<otherPipelineId>' からテーブルを削除します。このパイプラインの完全更新更新を開始します。
複数のパイプラインからテーブルを引き続き管理する場合は、パイプライン設定で構成 pipelines.tableManagedByMultiplePipelinesCheck.enabled を false に設定して、このチェックを無効にします。
テーブルに対する同時操作が互いに競合し、予期しない結果が発生する可能性があるため、これはお勧めしません。
NOTEBOOK_NAME_LIMIT_REACHED
無効なノートブック パス: '<nameStart>...<nameEnd>'。
<maxNotebookPathLength>文字より長いです。
NOTEBOOK_NOT_FOUND
ノートブック '<notebookPath>' にアクセスできません。 存在しないか、このパイプラインの実行に使用される ID ( <identity>) に必要なアクセス許可がありません。
NOTEBOOK_PIP_INSTALL_ERROR
ノートブックから '<pipInstallCommand>' を実行できませんでした: <notebookPath>。 詳細については、クラスター上のドライバーの stdout ログを確認してください。
NOTEBOOK_TOO_LARGE
'<notebookPath>' で解決されたノートブックのコンテンツが大きすぎます。ノートブックのサイズを小さくしてください。
NOTIFICATIONS_DUPLICATE_ALERTS
[<alertsDuplicates>] で指定された重複アラート '<alerts>'
NOTIFICATIONS_DUPLICATE_EMAIL_ADDRESSES
[<emailRecipientsDuplicates>] で指定された電子メール アドレス '<emailRecipients>' が重複しています
NOTIFICATIONS_INVALID_ALERTS
通知を受け取るために指定されたアラートが無効です。 <invalidAlerts>
NOTIFICATIONS_INVALID_EMAIL_ADDRESS
通知を受信するために指定された電子メール アドレスが無効です。 <invalidEmailAddresses>
NOTIFICATIONS_MISSING_PARAMS
で少なくとも 1 人の受信者と 1 つのアラートを指定してください <setting>
NO_SOURCE_OR_SNAPSHOT_AND_VERSION_ARGUMENT_PROVIDED
SQLSTATE: 割り当てなし
ターゲット '<target>' を持つapply_changes_from_snapshotに対して、sourceまたはsnapshot_versionを設定する必要があります。
NO_TABLES_IN_PIPELINE
パイプラインには少なくとも 1 つのテーブルが定義されている必要がありますが、パイプラインにテーブルが見つかりませんでした。
実行が構成されている場合、想定されるソース ファイルやディレクトリが含まれていること、および共有されていること、およびソース コードにテーブル定義 (たとえば、SQL コードで CREATE MATERIALIZED VIEW 、python コードで @dlt.table ) が含まれていることを確認してください。
このチェックではテーブルのみがカウントされることに注意してください。 パイプラインにビューまたはフローのみを含める場合にも、このエラーが発生する可能性があります。
OUTPUT_MODE_NOT_SUPPORTED_FOR_TABLE_FLOW
出力モード '<outputMode>' は、テーブル '<target>' をターゲットとするテーブル フロー '<flowName>' ではサポートされていません。 テーブル フローでは、'append' モードのみがサポートされています。
OWNER_IS_MISSING
所有者が存在しません。
PAGINATION_REQUEST_HAS_NAME_AND_PAGINATION
<name> を指定するか、改ページ位置の自動修正をすることはできますが、両方を行うことはできません。
PATCH_PIPELINE_DEFINITION_UNSUPPORTED_FIELD
PatchPipelineDefinition では schedule フィールドのみがサポートされていますが、指定された定義には他のフィールド '<updatedDefinition>' が設定されていました。
PERSISTED_VIEW_READS_FROM_STREAMING_SOURCE
永続化されたビューでは、ストリーミング ソースからの読み取りはサポートされていません。
PERSISTED_VIEW_READS_FROM_TEMPORARY_VIEW
永続化されたビュー <persistedViewName> は、パイプライン スコープ外では使用できない一時ビュー <temporaryViewName> を参照できません。 永続化されたビューを一時的にするか、一時ビューを保持します。
PIPELINE_CLONING_ALREADY_IN_PROGRESS
パイプラインは既に ID '<pipelineId>' のパイプラインに複製されています。
PIPELINE_CLONING_BOTH_TARGET_AND_SCHEMA_SPECIFIED
パイプラインを複製するときに、'target' と 'schema' の両方を指定できません。 1 つだけ指定してください。
PIPELINE_CLONING_CANNOT_CHANGE_SCHEMA_TO_TARGET
'schema' を持つパイプラインを 'target' を持つパイプラインに複製することはできません。 複製されたパイプラインでは、元の値を継承するために'schema' も使用するか、両方を省略する必要があります。
PIPELINE_CLONING_INVALID_DURING_ACTIVE_UPDATE
ID '<pipelineId>' のパイプラインは、アクティブな更新中に複製できません。
PIPELINE_CLONING_INVALID_FIELDS
複製の要求に、無効なフィールドを含むパイプライン仕様が含まれました。 許可されるフィールドには、名前、カタログ、ターゲット、構成が含まれます。
PIPELINE_CLONING_INVALID_FOR_MISSING_TARGET
ID '<pipelineId>' のパイプラインは、ターゲット スキーマに発行されません。 ソース パイプラインは、複製するターゲット スキーマに発行する必要があります。 パイプライン スペックで 'target' フィールドを指定し、ターゲット スキーマに発行するための新しい更新を実行した後、再試行してください。
PIPELINE_CLONING_INVALID_FOR_UC_PIPELINE
ID '<pipelineId>' のパイプラインは既に UC パイプラインです。 UC パイプラインを複製することはできません。
PIPELINE_CLONING_NO_CATALOG_SPECIFIED
複製用に指定されたカタログがありません。
PIPELINE_CLONING_NO_MODE_SPECIFIED
指定された複製モードはありません。
PIPELINE_CLONING_NO_TARGET_SPECIFIED
複製するターゲット カタログが指定されません。
PIPELINE_CREATION_NOT_ENABLED_FOR_WORKSPACE
パイプラインの作成は、このワークスペースでは有効になっていません。
PIPELINE_DOES_NOT_EXIST
ID '<pipelineId>' のパイプラインが存在しません。
詳細については、PIPELINE_DOES_NOT_EXISTを参照してください。
PIPELINE_ENVIRONMENT_NOT_ENABLED
Lakeflow Spark 宣言パイプラインでの環境の使用は有効になっていません。
PIPELINE_ENVIRONMENT_VERSION_NOT_ALLOWED
現在、パイプラインの環境では環境バージョンはサポートされていません。
PIPELINE_FAILED_TO_UPDATE_UC_TABLE_DUE_TO_CONCURRENT_UPDATE
パイプラインは、<tableName> 回の試行後に同時変更が発生したため、UC テーブル (<attempts>) を更新できませんでした。
テーブルを変更する外部プロセスがないことを確認し、更新を再試行し、この問題が解決しない場合は Databricks サポートにお問い合わせください。
PIPELINE_FAILED_TO_UPDATE_UC_TABLE_DUE_TO_EXTERNAL_DELETE
<tableName>テーブルは、パイプラインの更新中に外部操作によって削除されました。
外部プロセスによってテーブルが変更されていないことを確認してから、更新を再試行してください。
問題が解決しない場合は、Databricks サポートにお問い合わせください。
PIPELINE_FOR_TABLE_NEEDS_REFRESH
テーブル <tableName> が必須の状態ではなく、テーブルが最近更新されていません。 ID '<pipelineId>' のパイプラインをもう一度実行してから、操作を再試行する必要があります。
PIPELINE_FOR_TABLE_NOT_FOUND
テーブル <pipelineId>を管理する ID '<tableName>' のパイプラインが見つかりません。 パイプラインと同じワークスペースにいることを確認し、自分がパイプラインの所有者であり、パイプラインが少なくとも 1 回実行されていることを確認します。
PIPELINE_GLOB_INCLUDES_CONFLICTS
パイプライン設定内のライブラリで、globフィールドまたはnotebook/fileフィールドのいずれかを設定する必要があります。 パイプラインの設定を変更してください。
PIPELINE_GLOB_INCLUDES_NOT_SUPPORTED
glob フィールドを使用してソース ファイルを含めるのはプレビュー機能であり、無効になっています。
パイプラインに含める各ソース ファイルを再選択して、このエラーを修正します。
Databricks のサポートに連絡して、この機能の詳細を確認し、プレビューに登録します。
PIPELINE_GLOB_UNSUPPORTED_SPECIAL_CHARACTER
<specialChar>特殊文字は予約されており、パイプライン設定に含まれるパス '<path>' では使用しないでください。 これらの文字を削除してエラーを修正する
PIPELINE_NAME_LIMIT_REACHED
名前を <maxPipelineNameLength> 文字より長くすることはできません。
PIPELINE_NON_RETRYABLE_ANALYSIS_CLIENT_ERROR
部分的な実行後に再試行できないエラーが発生したため、パイプラインでソース テーブル (<tables>) を分析できませんでした。
新しいパイプラインのアップデートは作成されません。
<flowErrors>
イベント ログを確認し、それに応じて問題を修正します。
PIPELINE_NOT_ELIGIBLE_FOR_RESTORATION(復元対象外のパイプライン)
パイプライン '<pipelineId>' は復元ウィンドウを過ぎました。
PIPELINE_NOT_IN_DIRECT_PUBLISHING_MODE
テーブル <pipelineId>を管理する ID '<tableName>' のパイプラインは、直接発行モードを使用していません。
PIPELINE_NOT_READY_FOR_SCHEDULED_UPDATE
テーブルはまだ更新の準備ができていません
詳細については、PIPELINE_NOT_READY_FOR_SCHEDULED_UPDATE を参照してください
PIPELINE_PERMISSION_DENIED_NOT_OWNER
この操作は実行できません。 あなたは、テーブル <pipelineId> を管理している、ID '<tableName>' のパイプラインの所有者ではありません。
PIPELINE_RETRYABLE_ANALYSIS
部分的な実行後に再試行可能なエラーが発生したため、パイプラインでソース テーブル (<tables>) を分析できませんでした。
処理を再試行するために、新しいパイプライン更新が作成されます。 エラーが解決しない場合は、イベント ログを確認し、それに応じて問題に対処してください。
PIPELINE_SETTINGS_FIELD_CANNOT_BE_EDITED
ユーザーが '<uneditableFieldName>' を変更することはできません。 ユーザーが <settingName>を追加または変更する場合は、代わりに '<editableFieldName>' フィールドを使用してください。
PIPELINE_SETTINGS_MODIFIED_CONCURRENTLY
パイプライン設定が同時に変更されました。
PIPELINE_SETTINGS_UNSUPPORTED_CONFIGURATIONS
<configurations>構成は、Lakeflow Spark 宣言パイプラインではサポートされていません。 これらの構成を削除してください。
PIPELINE_SETTING_SHOULD_NOT_SPECIFY_DEVELOPMENT
'development' 設定を使用した更新の開始はサポートされていません。
PIPELINE_SHOULD_NOT_HAVE_MULTIPLE_TABLES
パイプラインにはテーブルが 1 つだけ必要ですが、<tablesSize> 個のテーブル <tables> が見つかりました。
PIPELINE_SOURCE_FILE_NUMBER_EXCEEDED
フォルダーで宣言されたファイルを含むソース ファイルの数が、 <limit>の制限を超えています。
過剰なファイルを削除またはマージし、必要に応じて対応するパイプライン 仕様を変更します。
または Databricks サポートに連絡して制限の引き上げを要求してください。
PIPELINE_SOURCE_FOLDER_DEPTH_EXCEEDED
フォルダー '<folder_path>' が、許可されている最大ディレクトリ入れ子レベルの <limit>を超えています。 フォルダーの入れ子レベルを下げるか、Databricks サポートに連絡して制限の引き上げを要求してください。
PIPELINE_SPEC_PARAM_CANNOT_BE_CHANGED
パイプライン設定で次のパラメーター <param> を変更することはできません
PIPELINE_TYPE_NOT_SUPPORTED
パイプラインの種類 '<pipelineType>' はサポートされていません。
PIPELINE_TYPE_NOT_WORKSPACE_PIPELINE_TYPE
ID '<pipelineId>' を持つパイプラインは、テーブル <tableName>を管理しますが、ETL パイプラインではありません。
PIPELINE_TYPE_QUOTA_EXCEEDED
種類 '<updateId>' のアクティブなパイプラインの制限に達したため、更新 '<pipelineType>' を開始できません。
PIPELINE_UPDATE_FOR_TABLE_IS_RUNNING
ID '<pipelineId>' を持つパイプラインが実行され、テーブル <tableName>を管理しています。 操作を実行する前に、パイプラインを停止してください。
PIPELINE_WORKSPACE_LIMIT_REACHED
ワークスペース '<pipelineType>' に既に '<orgId>' パイプラインがあるため、型 '<countLimit>' のパイプラインの作成がブロックされました。 未使用のパイプラインを削除してください。
PIP_INSTALL_NOT_AT_TOP_OF_NOTEBOOK
'<notebookPath>' のノートブックの上部にない、%pip インストールを含むセルが見つかりました
すべての %pip インストール セルをノートブックの先頭に移動します。
PY4J_BLOCKED_API
SQLSTATE: 割り当てなし
現在の環境ではサポートされていない Python API を使用しています。
代替手段については、Databricks のドキュメントを参照してください。
<additionalInfo>
QUERY_BASED_CONNECTOR_SOURCE_API_ERROR
<sourceName> API 呼び出しでエラーが発生しました。 ソース API の種類: <qbcSourceApiType>。
変換先テーブルを更新してみてください。 問題が解決しない場合は、チケットを提出してください。
QUERY_BASED_INGESTION_CONNECTOR_ERROR
<sourceName>のクエリ ベースのインジェスト コネクタでエラーが発生しました。
詳細については、QUERY_BASED_INGESTION_CONNECTOR_ERRORを参照してください。
REFERENCE_DLT_DATASET_OUTSIDE_QUERY_DEFINITION
データセット クエリ定義の外部 <identifier> Lakeflow Spark 宣言パイプライン データセット (つまり、 @dlt.table 注釈) の参照はサポートされていません。 代わりに、データセット クエリ定義内で読んでください。
REFRESH_INITIATED_FROM_INVALID_WORKSPACE
更新は、リソースが作成されたワークスペース <homeWorkspaceId>で開始する必要があります。
ワークスペース <userWorkspaceId>で更新が試行されました。
REFRESH_MODE_ALREADY_EXISTS
既に <type>されているテーブルに <existingType> を追加できません。 既存のスケジュールを削除するか、 ALTER TABLE...ALTER <type> 使用してください.を選択して変更します。
REQUIRED_PARAM_NOT_FOUND
必須パラメーター <param> が見つかりません。
RESERVED_KEYWORD_IN_USE_CATALOG
USE CATALOG '<reservedKeyword>' は無効です。'<reservedKeyword>' は Lakeflow Spark 宣言型パイプラインの予約済みキーワードであるためです。
RESERVED_KEYWORD_IN_USE_SCHEMA
USE SCHEMA '<reservedKeyword>' は無効です。'<reservedKeyword>' は Lakeflow Spark 宣言型パイプラインの予約済みキーワードであるためです。
リソースがプロビジョニングされています
パイプライン リソースは、パイプライン '<pipelineId>' 用にプロビジョニングされています。
RESOURCE_READ_ONLY_IN_WORKSPACE
<resourceType> '<resourceName>' は、現在のワークスペースで読み取り専用として指定されています。
削除されていないパイプラインを復元する
パイプライン '<pipelineId>' は削除されません。 復元は、削除されたパイプラインにのみ適用されます。
復元パイプラインが無効化されています
パイプラインの種類に対して RestorePipeline が有効になっていません <pipelineType>
パイプライン '<pipelineId>' の復元については、Databricks サポートにお問い合わせください。
ROOT_PATH_NOT_FOUND
ルート パス '<rootPath>' にアクセスできません。 必要なアクセス権限があることを確認してください。
RUN_AS_USER_NOT_FOUND
更新プログラムのユーザー '<runAsUserId>' として指定された実行がワークスペースに存在しません。
SAAS_CONNECTION_ERROR
<sourceName> ソースへの接続に失敗しました。 エラー コード: <saasConnectionErrorCode>。
詳細については、SAAS_CONNECTION_ERROR を参照してください。
SAAS_CONNECTOR_DUPLICATE_DATA
テーブル <tableName>に重複するデータが見つかりました。 ソースの種類: <sourceName>。
詳細については、SAAS_CONNECTOR_DUPLICATE_DATAを参照してください。
SAAS_CONNECTOR_INVALID_INCLUDE_COLUMNS
テーブル <qualifiedTableName>に無効なinclude_columnsが指定されています。 理由: <reason>
SAAS_CONNECTOR_INVALID_PRIMARY_KEY_CONFIGURATION
テーブル <qualifiedTableName>の主キー構成が無効です。 理由: <reason>
SAAS_CONNECTOR_MUTUAL_AUTHENTICATION_FAILED
このセッションは、 <sourceName>で使用するために相互に認証できませんでした。 ソース API の種類: <saasSourceApiType>。 エラー コード: <saasSourceApiErrorCode>。
クライアント証明書と秘密キーが有効なペアであり、 <sourceName>によって信頼されていることを確認してください。
SAAS_CONNECTOR_REFRESH_TOKEN_EXPIRED
接続 <connectionName> の更新トークンの有効期限が切れています。 接続を編集し、再認証し、パイプラインを再実行します。
SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR
<tableName> ソースのテーブル <sourceName> でスキーマの変更が発生しました。
詳細については、SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR を参照してください
SAAS_CONNECTOR_SOURCE_API_ERROR
<sourceName> API 呼び出しでエラーが発生しました。 ソース API の種類: <saasSourceApiType>。 エラー コード: <saasSourceApiErrorCode>。
変換先テーブルを更新してみてください。 問題が解決しない場合は、チケットを提出してください。
SAAS_CONNECTOR_UC_CONNECTION_OAUTH_EXCHANGE_FAILED
UC 接続の OAuth トークン交換に失敗しました: <connectionName>。
これは、UC 資格情報に関する問題が原因で発生する可能性があります。 エラー トレースを確認し、UC 接続を編集し、再認証して、パイプラインをもう一度実行します。 エラーが解決しない場合は、チケットを提出します。
SAAS_CONNECTOR_UNSUPPORTED_ERROR
データ ソース <sourceName>でサポートされていないエラーが発生しました。
詳細については、SAAS_CONNECTOR_UNSUPPORTED_ERROR を参照してください
SAAS_INCOMPATIBLE_SCHEMA_CHANGES_DURING_INIT
パイプラインを初期化するときに、互換性のないスキーマの変更が検出されました。
<details>
影響を受けたテーブルに対して完全な更新を実行してください。
SAAS_PARTIAL_ANALYSIS_INPUT_CREATION_ERROR
部分分析用の入力の作成時にエラーが発生しました。 新しいパイプラインのアップデートは作成されません。
イベント ログを確認し、それに応じて問題を修正してください。
SAAS_SCHEMA_DIVERGED_DURING_ANALYSIS
ソース テーブル (<table>) の分析されたスキーマは、想定されるスキーマとは異なっています。
パイプラインの更新を再試行し、問題が解決されたかどうかを確認してください。
この問題が解決しない場合は、上記の表に対して完全な更新を実行してください
必要なスキーマ:
<expectedSchema>
実際のスキーマ:
<actualSchema>
SAAS_UC_CONNECTION_INACCESSIBLE
指定された接続 <connectionName> にアクセスできません。 接続を確認して、もう一度やり直してください。
詳細については、SAAS_UC_CONNECTION_INACCESSIBLE を参照してください
SCHEMA_SPEC_EMPTY_CATALOG
SchemaSpec には、カタログ フィールドに空の文字列があります。
空の文字列を削除するか、カタログ名を追加してください。 (このスキーマがソース内のカタログに属していない場合は、フィールドを設定しないでください)。
スキーマ スペックの詳細:
<schemaSpec>
SCHEMA_SPEC_EMPTY_SCHEMA
SchemaSpec には、スキーマ フィールドに空の文字列があります。
空の文字列を削除するか、スキーマ名を追加してください。 (このテーブルがソース内のスキーマに属していない場合は、フィールドを設定しないでください)。
スキーマ スペックの詳細:
<schemaSpec>
SCHEMA_SPEC_REQUIRE_ONE_OF_CATALOG_SCHEMA
少なくとも 1 つのソース カタログとソース スキーマが存在する必要があります。 しかし、どちらも空です。
スキーマ スペックの詳細:
<schemaSpec>
列によるシーケンスが見つかりません
パイプライン定義には、ソース <columnNames>のテーブル <qualifiedTableName>に存在しない sequence_by という列 (<sourceType>) を含んでいます。 sequence_by フィールドからこれらの列を削除してください。
サーバーレス予算ポリシーと使用ポリシーの両方が設定されています
budget_policy_idとusage_policy_idの両方を設定できません。
budget_policy_idを削除してください。
SERVERLESS_BUDGET_POLICY_BAD_REQUEST
ID '<budgetPolicyId>' を持つ指定された予算ポリシーは、ポリシー ワークスペースのバインド制約のため、このワークスペースでは使用できません。
SERVERLESS_BUDGET_POLICY_IS_INVALID
ID '<budgetPolicyId>' のサーバーレス予算ポリシーが無効です。
SERVERLESS_BUDGET_POLICY_MISSING
ID '<budgetPolicyId>' のサーバーレス予算ポリシーが存在しません。
SERVERLESS_BUDGET_POLICY_NOT_ENABLED
サーバーレス予算ポリシーが有効になっていません。Databricks サポートにお問い合わせください。
SERVERLESS_BUDGET_POLICY_NOT_ENABLED_FOR_ACCOUNT
このアカウントでは、サーバーレス予算ポリシーが有効になっていません。 ユーザーは、このパイプラインの予算ポリシーを指定できません。 アカウント管理者は、機能プレビュー ポータルを使用して登録を試みる必要があります。 問題が解決しない場合は、Databricks サポートにお問い合わせください。
SERVERLESS_BUDGET_POLICY_NOT_SUPPORTED_FOR_NON_SERVERLESS_PIPELINE
サーバーレス予算ポリシーをサーバーレス以外のパイプラインに割り当てることはできません。
SERVERLESS_BUDGET_POLICY_NOT_SUPPORTED_FOR_PIPELINE_TYPE
サーバーレス予算ポリシーは、パイプラインの種類の <pipelineType>ではサポートされていません。
SERVERLESS_BUDGET_POLICY_PERMISSION_DENIED
ユーザーには、ID '<budgetPolicyId>' のサーバーレス予算ポリシーを使用するアクセス許可がありません。
SERVERLESS_NOT_AVAILABLE
サーバーレス コンピューティングは使用できません。 詳細については、Databricks にお問い合わせください。
SERVERLESS_NOT_ENABLED
Lakeflow Spark 宣言パイプラインでは、サーバーレス コンピューティングを使用できません。 ワークスペースでこの機能を有効にするには、Databricks にお問い合わせください。
SERVERLESS_NOT_ENABLED_FOR_USER
サーバーレス コンピューティングが呼び出し元に対して有効になっていません。 この機能を有効にするには、ワークスペース管理者に問い合わせてください。
SERVERLESS_NOT_ENABLED_FOR_WORKSPACE
サーバーレス コンピューティングは、このワークスペースやリージョンでは使用できません。 詳細については、Databricks にお問い合わせください。
SERVERLESS_REQUIRED
このワークスペースでは、サーバーレス コンピューティングを使用する必要があります。
SERVICENOW_CONNECTION_ERROR
ServiceNow でエラーが発生しました。 ソース API の種類: <saasSourceApiType>。
詳細については、SERVICENOW_CONNECTION_ERRORを参照してください。
SERVICENOW_CONNECTOR_EMPTY_CURSOR_KEY_ERROR
ServiceNow でエラーが発生しました。 ソース API の種類: <saasSourceApiType>。
現時点では、行のカーソル キーに空のフィールドが含まれているため、インジェスト パイプラインはテーブル '<tableName>' を取り込めません。
パイプラインの実行を続けるには、このテーブルを削除します。 エラーが解決しない場合は、チケットを提出します。
SERVICENOW_CONNECTOR_INSTANCE_HIBERNATION_ERROR
ServiceNow でエラーが発生しました。 ソース API の種類: <saasSourceApiType>。
ServiceNow インスタンスに接続できませんでした。 インスタンスが休止状態または非アクティブになっているように見えます。
ServiceNow 管理ポータルにログインし、インスタンスが完全に起動するまでしばらく待ちます。
エラーが解決しない場合は、チケットを提出します。
SERVICENOW_CONNECTOR_INSTANCE_OFFLINE_ERROR
ServiceNow でエラーが発生しました。 ソース API の種類: <saasSourceApiType>。
ServiceNow インスタンスに接続できませんでした。 インスタンスはオフラインです。
ServiceNow 管理ポータルにログインし、インスタンスが復元されるまでしばらく待ちます。
エラーが解決しない場合は、チケットを提出します。
SERVICENOW_CONNECTOR_INVALID_TABLE_ERROR
ServiceNow でエラーが発生しました。 ソース API の種類: <saasSourceApiType>。
テーブル '<tableName>' のスキーマのクエリを実行できませんでした。 このユーザーの ServiceNow アカウントにテーブルが存在しません。
入力ミスのテーブル名を確認し、ユーザーがテーブルにアクセスするために必要なアクセス許可を持っていることを確認します。
エラーが解決しない場合は、チケットを提出します。
SERVICENOW_CONNECTOR_IP_ADDRESS_RESTRICTED_ERROR
ServiceNow でエラーが発生しました。 ソース API の種類: <saasSourceApiType>。
ServiceNow インスタンスに接続できませんでした。 インスタンスには、IP アドレスのアクセス制御の制限があります。
これを解決するには、ServiceNow >> All >> System Security >> IP アドレス アクセス制御に移動して IP アドレス制限を無効にするか、サーバーレスの安定した IP を使用します
エラーが解決しない場合は、チケットを提出します。
SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR
ServiceNow でエラーが発生しました。 ソース API の種類: <saasSourceApiType>。
無効な ServiceNow API エンドポイント URL が検出されました。 URL 構造が、想定される ServiceNow 形式と一致しません。
UC 接続資格情報で ServiceNow インスタンスの構成を確認します。
詳細については、SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR を参照してください
SERVICENOW_CONNECTOR_MAX_FAILED_ATTEMPTS_REACHED
ServiceNow でエラーが発生しました。 ソース API の種類: <saasSourceApiType>。
これは多くの場合、テーブルのデータ フェッチに時間がかかりすぎる場合に発生します。 最初の手順として、ServiceNow 管理者と協力して、カーソル列のインデックス作成を有効にします。
カーソル列は、可用性と優先順に、sys_updated_on (第 1 選択)、sys_created_on (第 2 選択)、sys_archived (第 3 選択) の順に選択されます。
ServiceNow でインデックス作成を有効にする手順については、 https://docs.databricks.com/ingestion/lakeflow-connect/servicenow-overview#why-is-my-servicenow-ingestion-performance-slowを参照してください。
また、レコードのフェッチ時間を長くするために、REST API クエリのタイムアウトを 60 秒以上に増やすことをお勧めします。
次に、インジェスト パイプラインを再試行します。 問題が引き続き発生する場合は、サポート チケットを提出してください。
SERVICENOW_CONNECTOR_SCHEMA_FIELD_TYPE_INACCESSIBLE
ServiceNow でエラーが発生しました。 ソース API の種類: <saasSourceApiType>。
管理者以外の特権でテーブル スキーマをフェッチする場合、スキーマ列のinternal_typeにはアクセスできません。
これを解決するには、テーブル 'sys_glide_object' に対する読み取りアクセス許可を現在のユーザーに付与します。
エラーが解決しない場合は、チケットを提出します。
SERVICENOW_CONNECTOR_SCHEMA_FIELD_TYPE_MISMATCH
テーブル スキーマのフェッチ中に ServiceNow でエラーが発生しました。
フィールド '<fieldName>' に対して競合する 2 つのデータ型 ('<firstDataType>' と '<secondDataType>' が見つかりました。
パイプラインの実行を続けるには、このテーブルを削除します。 エラーが解決しない場合は、チケットを提出します。
SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
ServiceNow でエラーが発生しました。 ソース API の種類: <saasSourceApiType>。
詳細については、SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR を参照してください。
SET_TBLPROPERTIES_NOT_ALLOWED_FOR_PIPELINE_TABLE
ALTER <commandTableType>
...
SET TBLPROPERTIES はサポートされていません。 テーブルのプロパティを変更するには、元の定義を変更して更新を実行してください。
SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE
Salesforce API クエリ ジョブに時間がかかりすぎたり、失敗したり、手動で取り消されたりしたため、オブジェクト <objName> の取り込みは不完全です。
詳細については、SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE を参照してください
SFDC_CONNECTOR_BULK_QUERY_NOT_FOUND
Salesforce 一括 API クエリ ジョブが見つからなかったため、オブジェクト <objName> のインジェストが失敗しました。
これは、ジョブが Salesforce UI で削除されたか、最後のパイプラインの更新から 7 日を超えてから削除され、その後、Salesforce によってジョブが自動的に削除されたことが原因である可能性があります。
新しい一括ジョブをトリガーするには、特定の宛先テーブルに対して FULL REFRESH を実行してください。
SFDC_CONNECTOR_CREATE_BULK_QUERY_API_LIMIT_EXCEEDED
Salesforce API 呼び出しでエラーが発生しました: API の制限を超えました
API の制限がリセットされるまで待ってください。 次に、変換先テーブルを更新してみてください。
エラーが解決しない場合は、チケットを提出します。
SFDC_CONNECTOR_CREATE_BULK_QUERY_JOB_FAILED
Salesforce 一括 API クエリ ジョブの作成に失敗したため、オブジェクト <objName> の取り込みは不完全です。 エラー コード: <saasSourceApiErrorCode>。
<actionText>。
SFDC_CONNECTOR_不正形式のレコード
Salesforce オブジェクト '<objName>' の取り込みに失敗しました。Salesforce <saasSourceApiType> 、形式が正しくないレコードが返されました。
詳細については、stacktrace を確認してください。
Salesforce のデータを確認し、パイプラインを再実行します。
SINKS_NOT_SUPPORTED_IN_SEG
パイプライン内の Lakeflow Spark 宣言型パイプライン シンクは、サーバーレス エグレス制御が有効なワークスペースではサポートされていません。 サポートされている Lakeflow Spark 宣言パイプライン シンクは、Kafka と Delta です。
次のサポートされていないシンクが見つかりました。 <sinkNames>、対応する形式は <sinkFormats> です。
SOURCE_TABLE_NOT_MATERIALIZED
依存データセット '<sourceTableName>' が具体化されていないため、読み取れませんでした。 パイプライン全体を実行して、すべての依存データセットを具体化します。
SPARK_CONNECT_DEFINITION_PATH_NOT_FOUND
グラフ要素 '<graphElementName>' の定義パスが見つかりません。 Databricks サポートにお問い合わせください。
SPARK_CONNECT_DEFINITION_PATH_NOT_FOUND_SPARK_SQL
現在の Spark SQL 実行コンテキストでは、パイプライン定義パスを使用できません。 Databricks サポートにお問い合わせください。
SPARK_CONNECT_UNSUPPORTED_FLOW_DEFINITION_ERROR
フロー定義はサポートされていません。 Databricks サポートにお問い合わせください。 コマンド: <defineFlowCommand>
SPARK_CONNECT_UNSUPPORTED_OUTPUT_TYPE
出力の種類 '<outputType>' は、Spark Connect ではサポートされていません。 Databricks サポートにお問い合わせください。
STANDALONE_PRIVATE_MVST_NOT_SUPPORTED
スタンドアロン PRIVATE MV/ST の作成はサポートされていません。
PRIVATE修飾子を削除してください
Python REPLの開始がタイムアウトしました
Python REPL が開始されるのを待っている間にタイムアウトします。
<timeoutSeconds>秒より長い時間がかかりました。
STREAMING_TARGET_NOT_DEFINED
<target> コマンドのターゲット テーブルの<command>が見つかりません。 ターゲット テーブル <target> はパイプラインで定義されていません。
SYNCED_TABLE_USER_ERROR
同期されたテーブル パイプラインのユーザー エラー。
詳細については、SYNCED_TABLE_USER_ERRORを参照してください。
TABLE_CHANGED_DURING_OPERATION
テーブル <tableName> がこのトランザクションの外部で変更され、このトランザクションがロールバックされました。 操作を再試行してください。
TABLE_MATERIALIZATION_CYCLIC_FOREIGN_KEY_DEPENDENCY
パイプライン <pipelineId> のパイプライン更新で、外部キー制約の循環チェーン <tables> が検出されました。
TABLE_SPEC_BOTH_CATALOG_SCHEMA_REQUIRED
TableSpec にソース カタログまたはソース スキーマの 1 つがありません。
テーブルの仕様詳細:
<tableSpec>
TABLE_SPEC_EMPTY_CATALOG
TableSpec には、カタログ フィールドに空の文字列があります。
空の文字列を削除するか、カタログ名を追加してください。 (このテーブルがソース内のカタログに属していない場合は、フィールドを設定しないでください)。
テーブルの仕様詳細:
<tableSpec>
TABLE_SPEC_EMPTY_SCHEMA
TableSpec には、スキーマ フィールドに空の文字列があります。
空の文字列を削除するか、スキーマ名を追加してください。 (このテーブルがソース内のスキーマに属していない場合は、フィールドを設定しないでください)。
テーブルの仕様詳細:
<tableSpec>
TABLE_SPEC_EMPTY_TABLE
テーブル名が空です。 テーブル名を指定してください。
テーブルの仕様詳細:
<tableSpec>
TABLE_TOKEN_NOT_EXIST_FOR_SCHEMA_EVOLUTION_LEGACY_TABLE
メタデータがないため、スキーマの進化を有効にできません。 完全な更新をトリガーしてください。
理由: スキーマの進化が有効になっている場合は、スナップショット テーブル トークンを定義する必要があります。
ワークスペースで破棄されたパイプライン
パイプラインが削除されたか、ごみ箱に移動されているため、開始できません。
TRIGGER_INTERVAL_VALUE_INVALID
トリガー間隔は正の期間である必要があります。許容される最大値は 2,147,483,647 秒です。
<actual> 秒を受け取りました。
トリガーが有効化されていません
このワークスペースではトリガーが有効になっていません。 [プレビュー] ページでテーブル トリガーを有効にしてください。
TRIGGER_ON_VIEW_READ_FROM_FILE_NOT_SUPPORTED
ソース <source> は、現在トリガーでサポートされていないファイルの場所から読み取るビューです。
TRIGGER_REQUEST_シリアライズエラー
要求の処理中に問題が発生しました。 Databricks サポートにお問い合わせください。
TRIGGER_SECURABLE_KIND_サポートされていません
トリガーのセットアップに失敗しました: サポートされていないテーブルの種類。 サポートされている型については、ドキュメントを参照してください。
TRIGGER_SOURCE_TYPE_NOT_SUPPORTED
型 <source> のソース <type> は、現在、トリガーではサポートされていません。
TRIGGER_STATE_SERIALIZATION_ERROR
要求の処理中に問題が発生しました。 Databricks サポートにお問い合わせください。
トリガーテーブル上限超過
トリガーのセットアップに失敗しました。トリガーには、許可された制限を超えるテーブルが含まれています。 テーブルの制限とこの問題を解決する方法の詳細については、ドキュメントを参照してください。
TRIGGER_TABLE_TYPE_NOT_SUPPORTED(トリガーテーブルタイプはサポートされていません)
トリガーのセットアップに失敗しました: サポートされていないテーブルの種類。 サポートされている型については、ドキュメントを参照してください。
UC_CLEARING_TARGET_SCHEMA_NOT_ALLOWED
UC パイプラインでターゲット スキーマ フィールドをクリアすることはできません。 理由: <reason>。
UC_IAM_ROLE_NON_SELF_ASSUMING
ストレージ資格情報の IAM ロールは、自己想定外であることが判明しました。
ロールの信頼と IAM ポリシーをチェックして、IAM ロールが Unity Catalog ストレージ認証情報のドキュメントに従ってそれ自体を引き受けることができることを確認してください。
UC_NOT_ENABLED
Lakeflow Spark 宣言パイプラインでの UC カタログの使用は有効になっていません。
UC_PIPELINE_CANNOT_PUBLISH_TO_HMS
UC 対応パイプラインは Hive メタストアに発行できません。 別のターゲット カタログを選択してください。
UC_TARGET_SCHEMA_REQUIRED
ターゲット スキーマ フィールドは、UC パイプラインに必要です。 理由: <reason>。
UNABLE_TO_INFER_TABLE_SCHEMA
アップストリーム フローからテーブル <tableName> のスキーマを推論できませんでした。
スキーマに互換性を持たせるために、このテーブルに書き込むフローを変更してください。
これまでに推論されたスキーマ:
<inferredDataSchema>
互換性のないスキーマ:
<incompatibleDataSchema>
UNEXPECTED_PIPELINE_SCHEMA_PERMISSION_ERROR
パイプライン <pipelineId>のスキーマのアクセス許可を確認中に予期しないエラーが発生しました。 Databricks サポートにお問い合わせください。
_ROW_FILTERS_または_COLUMN_MASKS_で設定できないユニフォーム互換性
行フィルターまたは列マスクが適用されている具体化されたビューまたはストリーミング テーブルでは、統一互換性を設定できません。
UNITY_CATALOG_INITIALIZATION_FAILED
クラスター <clusterId>でパイプラインを設定中に Unity カタログでエラーが発生しました。
Unity カタログの構成が正しいこと、および必要なリソース (カタログ、スキーマなど) が存在し、アクセス可能であることを確認します。
また、クラスターに Unity カタログにアクセスするための適切なアクセス許可があることを確認します。
詳細: <ucErrorMessage>
UNRESOLVED_SINK_PATH
シンク <identifier> のストレージ パスを解決できません。 Databricks サポートにお問い合わせください。
UNRESOLVED_TABLES_FOR_MAINTENANCE
次の表はパイプライン定義で見つかりましたが、メンテナンス中に解決できませんでした。 最新のパイプライン定義でパイプライン更新の実行を実行して、パイプライン定義内のすべてのテーブルを具体化してメンテナンスのブロックを解除するか、問題が解決しない場合は Databricks サポートにお問い合わせください。
<unresolvedTableIdentifiersSet>
UNRESOLVED_TABLE_PATH
テーブル <identifier> のストレージ パスを解決できません。 Databricks サポートにお問い合わせください。
UNSUPPORTED_ALTER_COMMAND
ALTER <commandTableType>
...
<command> はサポートされていません。
UNSUPPORTED_CHANNEL_FOR_DPM
直接発行モードでサポートされていないチャネル。 "CURRENT" または "PREVIEW" チャネルが予期されましたが、"PREVIOUS" が得られました
UNSUPPORTED_COMMAND_IN_NON_DPM_PIPELINE
<command> 直接発行モードでのみサポートされる Spark 宣言パイプライン
UNSUPPORTED_COMMAND_IN_QUERY_DEFINITION
'<command>' はクエリ定義ではサポートされていません。 クエリ定義の外部にコマンドを移動してください。 Python の Spark 宣言型パイプラインの場合は、デコレーターの外部に '<command>' @dlt.table()/@dlt.view() 移動します。 Scala の Spark 宣言パイプラインの場合は、'query' メソッドの外側に '<command>' を移動します。
UNSUPPORTED_CUSTOM_DBR_VERSION
カスタム DBR バージョン '<v>' は、 SHIELD ワークスペースと HIPAA ワークスペースではサポートされていません。 [<supportedDbrVersions>] のいずれかが必要です
UNSUPPORTED_CUSTOM_SCHEMA_PREVIEW(サポートされていないカスタムスキーマのプレビュー)
カスタム スキーマプライベートプレビューは無効になっています。
"schema" フィールドを使用して、既定の発行モードで新しいパイプラインを作成してください
を選択し、データセットをこのパイプラインから新しいパイプラインに移動します。
未サポートのカスタムスキーマプレビュー有効化
カスタム スキーマプライベートプレビューは無効になっており、パイプラインにプレビューを追加することはできません。
パイプライン構成から <sparkConfKeys> を削除してください。
UNSUPPORTED_DBR_VERSION
DBR バージョン '<v>' はサポートされていません。 [<supportedDbrVersions>] のいずれかが必要です
UNSUPPORTED_FEATURE_FOR_WORKSPACE
<featureName> はワークスペースではサポートされていません。 ワークスペースでこの機能を有効にするには、Databricks サポートにお問い合わせください。
UNSUPPORTED_LANGUAGE
<language> のノートブック '<notebookPath>' を読み込めませんでした。 現在、<supportedLanguages> ノートブックのみがサポートされています。
UNSUPPORTED_LIBRARY_FILE_TYPE
<path>のファイルには、.pyまたは.sqlサフィックスがありません。 パイプラインでは、Python ファイルと SQL ファイルのみがサポートされます。
UNSUPPORTED_LIBRARY_NOTEBOOK_LANGUAGE
ノートブック <language>でサポートされていない言語<path>。 パイプラインでは Python と SQL のみがサポートされています
UNSUPPORTED_LIBRARY_OBJECT_TYPE
パス <path> に含まれる型は、サポートされていない <objectType> です。 現時点では、ライブラリとして使用できるのはノートブックとファイルだけです。 この問題を解決するには、サポートされていないオブジェクトを削除するか、このパイプライン用に構成されたライブラリを更新して、サポートされているオブジェクトの種類のみが含まれるようにします。
UNSUPPORTED_MANAGED_INGESTION_SOURCE_TYPE
マネージド インジェスト パイプライン定義が無効です。サポートされていないソースの種類: <sourceType>。
UNSUPPORTED_MULTIPLE_UPDATE_TYPE
更新プログラムの検証のみ、探索のみ、および巻き戻しは相互に排他的です。 最大 1 つを設定する必要があります。
UNSUPPORTED_REWIND
このワークスペースでは、巻き戻し操作はまだ有効になっていません。
UNSUPPORTED_SAAS_INGESTION_TYPE
指定されたインジェストの種類 <ingestionType> はサポートされていません。
この問題が解決しない場合は、Databricks サポートにお問い合わせください。
UNSUPPORTED_SPARK_SQL_COMMAND
'<command>' は、Lakeflow Spark 宣言パイプライン Python の spark.sql("...") API ではサポートされていません。 サポートされているコマンド: <supportedCommands>.
UNSUPPORTED_SQL_STATEMENT
<datasetType> '<datasetName>' のサポートされていない SQL ステートメント: <operation>はサポートされていません。
UPDATED_DEFINITION_SET_FOR_NON_DBSQL_PIPELINE
DBSQL パイプラインだけが updated_definition を含むことができます。
USE_CATALOG_IN_HMS
USE CATALOG UC 対応 Spark 宣言パイプラインでのみサポートされます
VIEW_TEXT_NOT_SAVED_IN_UC
Unity カタログにクエリが保存されていないため、テーブル <tableName> を更新できません。 Databricks サポートにお問い合わせください。
WORKDAY_HCM_CONNECTOR_FETCH_BATCH_FAILED
Workday HCM でエラーが発生しました。 ソース API の種類: <saasSourceApiType>。
オフセット '<offset>' でバッチをフェッチできませんでした。
変換先テーブルを更新してみてください。 問題が解決しない場合は、チケットを提出してください。
WORKDAY_REPORTS_CONNECTOR_INSUFFICIENT_OAUTH_SCOPE_ERROR
Workday レポートでエラーが発生しました。 ソース API の種類: <saasSourceApiType>。
レポート '<reportUrl>' のデータを取得できませんでした。 OAuth クライアントには、レポートを取得するための十分なスコープ アクセス権がありません。
これを解決するには、OAuth クライアントに Workday で必要なスコープが構成されていることを確認します。
エラーが解決しない場合は、チケットを提出します。
WORKDAY_REPORTS_CONNECTOR_MISSING_REQUIRED_PARAMS_ERROR - 必須パラメータが不足しているエラーです。
Workday レポートでエラーが発生しました。 ソース API の種類: <saasSourceApiType>。
Workday レポート '<reportUrl>' には、パラメーター '<missingParam>' が必要です。
レポートのすべてのパラメーターが URL に含まれていることを確認します。Workday レポートの構成を確認して、必須のパラメーターを特定できます。
問題が引き続き発生する場合は、サポート チケットを提出してください。
WORKDAY_REPORTS_CONNECTOR_REPORT_NOT_FOUND_ERROR
Workday レポートでエラーが発生しました。 ソース API の種類: <saasSourceApiType>。
レポート URL '<reportUrl>' が正しくありません。 問題を解決するには、ベース URL またはレポート名に入力ミスがないか確認してください。
問題が引き続き発生する場合は、サポート チケットを提出してください。
ワークデイレポートコネクタレポートサイズ超過エラー
Workday レポートでエラーが発生しました。 ソース API の種類: <saasSourceApiType>。
URL '<reportUrl>' のレポートのサイズが 2 GB を超えています。 レポートのサイズがこの制限を超えていないことを確認してください。
問題が引き続き発生する場合は、サポート チケットを提出してください。
WORKDAY_REPORTS_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
Workday レポートでエラーが発生しました。 ソース API の種類: <saasSourceApiType>。
詳細については、WORKDAY_REPORTS_CONNECTOR_UNAUTHORIZED_ACCESS_ERRORを参照してください。
WORKDAY_REPORT_URL_EMPTY
Workday レポートの URL が空です。 少なくとも 1 つのレポートを指定する必要があります。
WORKSPACE_QUOTA_EXCEEDED
このワークスペースで既に '<updateId>' アクティブなパイプラインが実行されているため、'<maxActiveUpdates>' の更新を開始できません。
Installation
ERROR_BASE_ENVIRONMENT_FILE_NOT_FOUND
SQLSTATE: 割り当てなし
基本環境の YAML ファイルがありません。 指定したパスにファイルが存在することを確認してください。
説明: 必要な基本環境の YAML ファイルが予期された場所に見つからない場合に発生します。
推奨されるアクション: 基本環境の YAML ファイルが指定されたパスに存在することを確認し、インストールを再試行します。
ERROR_BASE_ENVIRONMENT_FILE_READ
SQLSTATE: 割り当てなし
YAML ファイルの構文または形式が正しくないため、基本環境ファイルを読み取れませんでした。 ファイルの内容を確認してください。
説明: 基本環境の YAML ファイルに構文または形式エラーが含まれている場合に発生します。
推奨されるアクション: 環境ファイルの YAML 構文を検証して修正してから、インストールを再試行してください。
ERROR_CONNECTION_REFUSED
SQLSTATE: 割り当てなし
パッケージ リポジトリに接続できません。 ネットワーク接続、ファイアウォール設定、またはリポジトリの可用性を確認します。
説明: ネットワークの問題、ファイアウォールの制限、またはリポジトリのダウンタイムが原因で、pip がリモート パッケージ リポジトリへの接続を確立できない場合に発生します。
推奨されるアクション: ネットワーク接続を確認し、ファイアウォールまたはプロキシ設定を確認し、リポジトリ URL にアクセスできるかどうかを確認し、リポジトリが一時的に使用できない可能性がある場合は、後でもう一度やり直してください。
コアパッケージのバージョン変更エラー
SQLSTATE: 割り当てなし
インストールされているパッケージは、Databricks コア パッケージと互換性がありません。 パッケージのバージョンをプレインストールされているライブラリ のバージョンに合わせて、インストールを再試行してください。
説明: Databricks のコア依存関係 (pyspark など) のバージョンが変更されたときに発生します。
推奨されるアクション: インストールされているパッケージのバージョンをプレインストール済みライブラリに合わせて、インストールを再試行します。
ERROR_CRAN_PACKAGE_NOT_AVAILABLE
SQLSTATE: 割り当てなし
CRAN パッケージは、このコンピューティングにプレインストールされている R バージョンでは使用できません。
説明: コンピューティングにインストールされている R バージョンの R パッケージが発行されていない場合に発生します。
推奨されるアクション: 互換性のある R バージョンのコンピューティングに切り替えるか、別のパッケージ バージョンを選択します。
エラー_DBFS_無効
SQLSTATE: 割り当てなし
パブリック DBFS ルート アクセスが無効になっています。 代替ストレージを使用してください。
説明: DBFS からライブラリをインストールしようとしても、パブリック DBFS ルートがワークスペースで無効になっている場合に発生します。
推奨されるアクション: UC ボリューム、ワークスペース ファイル、リモート ストレージなどの代替ストレージの場所を使用します。
ERROR_DIRECTORY_NOT_INSTALLABLE (ディレクトリはインストールできません)
SQLSTATE: 割り当てなし
Python パッケージ構造が無効なため、ディレクトリはインストールできません。 ディレクトリが正しく設定されていることを確認してください。
説明: 有効な Python パッケージ構造を持たないディレクトリに対して pip インストールが実行されるときに発生します。
推奨されるアクション: ディレクトリに setup.py または pyproject.toml が含まれていることを確認し、再試行するか、ホイールとしてパッケージ化します。
重複インストールエラー
SQLSTATE: 割り当てなし
重複するパッケージのインストールが検出されました。 パッケージの重複するパッケージ エントリを削除して、クラスターを再起動してください。
説明: クラスターに同じパッケージが既にインストールされていて、重複したインストールが試行された場合に発生します。
推奨されるアクション: 重複するパッケージ エントリを削除し、クラスターを再起動します。
ERROR_FEATURE_DISABLED
SQLSTATE: 割り当てなし
Unity カタログ ボリュームはワークスペースで無効になっています。 この機能を有効にするには、ワークスペース管理者に問い合わせてください。
説明: ワークスペースで Unity カタログ ボリュームが無効になっているときに発生し、UC ボリュームからのインストールが妨げられます。
推奨されるアクション: ワークスペース管理者に連絡して Unity カタログ ボリュームを有効にするか、代替ストレージを使用してください。
ERROR_HASH_MISMATCH
SQLSTATE: 割り当てなし
パッケージ ハッシュの不一致が検出されました。 ダウンロードしたパッケージのハッシュが、想定されるハッシュと一致しません。
説明: ダウンロードしたパッケージのハッシュが予想されるハッシュと一致しない場合に発生します。
推奨されるアクション: インストールを再試行するか、クラスターを再起動するか、大規模なパッケージ インストールをワークスペース ファイル、UC ボリューム、またはプライベート PyPI リポジトリに移動します。
ERROR_INVALID_FILE (無効なファイル)
SQLSTATE: 割り当てなし
ファイルの種類が正しくないため、指定したファイルをインストールできません。 有効でサポートされているファイルの種類を使用していることを確認してください。
説明: ファイルの種類または形式が正しくないため、指定したライブラリ ファイルをインストールできない場合に発生します。
推奨されるアクション: サポートされているライブラリ ファイルの種類 (wheel、jar など) を使用し、パスの有効性を確認します。
要求が無効です
SQLSTATE: 割り当てなし
要件ファイルまたはパッケージの依存関係の構文が正しくないか、形式が正しくありません。 要件ファイルとパッケージの依存関係の内容を確認して修正します。
説明: 要件ファイルまたはパッケージの依存関係の仕様で、無効または形式が正しくない要件形式が検出されました。
推奨されるアクション: 要件ファイルで正しい形式 (例: 'library-name==version') を使用し、パッケージの依存関係の形式が有効であることを確認し、入力ミスまたはサポートされていないバージョン指定子を確認します。
ERROR_INVALID_SCRIPT_ENTRY_POINT
SQLSTATE: 割り当てなし
スクリプト エントリ ポイントが無効です。 パッケージエントリポイントまたは setup.py ファイルを確認してください。
説明: 指定されたコンソール スクリプト エントリ ポイントがパッケージ メタデータに存在しない場合に発生します。
推奨されるアクション: setup.py または pyproject.toml のエントリ ポイント名を確認するか、パッケージ保守担当者に問い合わせてください。
ERROR_INVALID_STORAGE_CONFIGURATION(無効なストレージ構成)
SQLSTATE: 割り当てなし
クラウド ストレージ アカウントに対して無効なストレージ構成値が検出されました。 ストレージの構成、アカウントの設定、資格情報を確認してください。
説明: クラウド ストレージ アカウントの設定が不正確または誤っている場合に発生します。
推奨されるアクション: アカウントのストレージ構成を修正し、インストールを再試行します。
ERROR_INVALID_USER_INPUT
SQLSTATE: 割り当てなし
指定されたパッケージ構文または引数が無効です。 ライブラリのインストールの入力とオプションが有効であることを確認してください。
説明: pip が無効なオプションまたは引数で呼び出されたときに発生します。
推奨されるアクション: pip オプションとコマンド構文を確認し、入力を修正して、インストールを再試行します。
ERROR_INVALID_WHEEL: ホイールが無効です
SQLSTATE: 割り当てなし
破損している、形式が正しくない、または無効なホイール ファイルが検出されました。 ホイール ファイルを確認するか、インストールを再試行してください。
説明: pip がインストール中に、破損した、不完全、または形式が正しくないホイール ファイルを検出したときに発生します。
推奨されるアクション: pip キャッシュをクリアし、ホイール、resintall を再ダウンロードまたはリビルドし、再試行する前にその整合性を確認します。
ERROR_JAR_EVICTED
SQLSTATE: 割り当てなし
バージョンの競合により、JAR パッケージがリゾルバーによって削除されました。 依存関係のバージョンの競合を解決してください。
説明: バージョンが他の依存関係と競合するため、Maven の依存関係解決によって jar が削除されたときに発生します。
推奨されるアクション: 依存関係の構成での競合を解決するか、明示的なバージョンのオーバーライドを使用します。
ERROR_MAVEN_LIBRARY_RESOLUTION
SQLSTATE: 割り当てなし
Maven ライブラリ座標を解決できません。 ライブラリの詳細、リポジトリへのアクセス、または Maven リポジトリの可用性を確認します。
説明: 座標、ネットワークの問題、またはリポジトリのダウンタイムが正しくないため、Maven で指定されたライブラリが見つからないか解決できない場合に発生します。
推奨されるアクション: groupId:artifactId:version 形式の確認、リポジトリの URL と資格情報の確認、別のリポジトリの試用、またはリポジトリが一時的に使用できない可能性がある場合は、後でもう一度やり直してください。
ERROR_NO_MATCHING_DISTRIBUTION
SQLSTATE: 割り当てなし
通常、構成の誤り、依存関係の不足、接続の問題が原因で、指定されたクラウド ストレージ資産をダウンロードまたはアクセスできません。 クラウド ストレージのセットアップを確認してください。
説明: クラスターがクラウド ストレージからライブラリ ファイルをダウンロードまたはインストールできない場合に発生します。通常、構成の誤り、依存関係の不足、またはネットワークの問題が原因です。
推奨されるアクション: クラウド ストレージ URI が正しいこと、資格情報が有効であること、必要なネットワーク プロキシまたはライブラリが適切に構成されていることを確認してから、インストールを再試行します。
ファイルまたはディレクトリが存在しません
SQLSTATE: 割り当てなし
ライブラリ ファイルが存在しないか、ユーザーにライブラリ ファイルを読み取る権限がありません。 ライブラリ ファイルが存在し、ユーザーがファイルにアクセスするための適切なアクセス許可を持っているかどうかを確認してください。
説明: ライブラリのインストール中に、指定したファイルが見つからないか、指定されたパスにアクセスできない場合に発生します。
推奨されるアクション: 指定したパスにファイルが存在することを確認し、パスを修正するか、不足しているファイルをアップロードして、適切なアクセス許可を確認します。
操作がサポートされていません (ERROR_OPERATION_NOT_SUPPORTED)
SQLSTATE: 割り当てなし
ライブラリのインストールは、要求されたファイルシステムからこの種類のファイルに対してサポートされていません。 ライブラリの種類を確認し、現在のコンピューティングでサポートされているライブラリに関するユーザー ガイドを参照してください。
説明: ターゲット ファイル システム、ファイルの種類、またはコンピューティングの種類が、インストール中に要求された操作をサポートしていない場合に発生します。
推奨されるアクション: サポートされているファイル システム、ファイルの種類、またはコンピューティングの種類を使用するか、サポートされている場所にインストール ターゲットを調整します。
エラー_PERMISSION_DENIED
SQLSTATE: 割り当てなし
ユーザーには、パッケージをインストールするための十分なアクセス許可がありません。 ユーザーのファイルとディレクトリのアクセス権を確認してください。
説明: インストール中に、インストールしているユーザーにファイルまたはディレクトリの読み取りまたは書き込みのアクセス許可がない場合に発生します。
推奨されるアクション: ターゲット ディレクトリに対する適切なアクセス許可を確認して付与するか、システム管理者に問い合わせてください。
ERROR_PIP_CONFIG
SQLSTATE: 割り当てなし
ユーザーが Python ライブラリをインストールしようとしましたが、クラスターまたはワークスペース レベルの pip 構成ファイルに構文エラーがあるか、形式が正しくありません。 pip 構成ファイルを確認して修正してください。
説明: pip の構成ファイルに構文エラーがあるか、形式が正しくない場合に発生します。
推奨されるアクション: pip 構成ファイルの構文エラーを修正し、既定の設定を使用するように構成ファイルを削除し、クラスターを再起動して、インストールを再試行します。
ERROR_PYTHON_REPL_RESTORE_FAILURE
SQLSTATE: 割り当てなし
パッケージのインストール後、Python REPL の復元に失敗しました。
説明: 通常、コア Python パッケージが、復元中にランタイム環境を中断する方法で更新されるときに発生します。
推奨されるアクション: 最近インストールされたパッケージを確認し、numpy、pandas、pyspark、その他の標準ライブラリなどの Databricks Environment の既定値と互換性のあるパッケージをインストールします。 バージョンが Databricks Runtime のバージョンと互換性があることを確認します。 それでも失敗する場合は、Databricks サポートにお問い合わせください。
ERROR_REQUIREMENTS_FILE_INSTALLATION
SQLSTATE: 割り当てなし
Unity カタログ ボリュームまたはワークスペース ファイル参照を含む requirements.txt ファイルは、UC 対応以外のクラスターではサポートされていません。 UC 対応クラスターを使用して、UC ボリュームまたはワークスペース ファイルを参照する requirements.txt をインストールしてください。
説明: requirements.txt が UC 非対応クラスター上の UC ボリュームまたはワークスペース ファイル参照を含む場合に発生します。
推奨されるアクション: ワークスペースまたは UC ファイルを参照する requirements.txt に UC 対応クラスターを使用するか、それらの参照を削除します。
ERROR_REQUIRE_HASHES
SQLSTATE: 割り当てなし
pip が --require-hashes モードで実行される際に、ある要件にハッシュが指定されていない場合、ハッシュが欠けています。 ハッシュ要件に対処するか、ハッシュ チェックを無効にしてください。
説明: pip が --require-hashes モードで実行され、要件にハッシュがない場合に発生します。
推奨されるアクション: requirements.txt 内のすべてのパッケージのハッシュを追加するか、--require-hashes フラグを削除します。
ERROR_RESTART_PYTHON
SQLSTATE: 割り当てなし
Python プロセスを再起動できませんでした。 これは、プレインストールされているランタイム ライブラリと競合するパッケージのバージョンの更新が原因である可能性があります。 パッケージの依存関係とそのバージョンを確認して調整してください。
説明: 多くの場合、インストールされているパッケージとプレインストールされている Databricks ランタイム ライブラリの間の競合が原因で、ライブラリのインストール後に Python 環境を再起動できない場合に発生します。
推奨されるアクション: 競合や Python の再起動エラーを回避するために、インストールされているパッケージバージョンをプレインストールされている Databricks ランタイム ライブラリに合わせます。
エラー_再起動_SCALA (ERROR_RESTART_SCALA)
SQLSTATE: 割り当てなし
Scala プロセスを再起動できませんでした。 これは、Scala JAR の Scala バージョンの不一致が原因である可能性があります (たとえば、2.13 カーネルで 2.12 jar を実行しています)。 Scala のバージョンを確認して配置してください。
説明: Scala JAR での Scala バージョンの不一致の競合が原因で、Scala 環境を再起動できない場合に発生します。
推奨されるアクション: 競合や Scala の再起動エラーを回避するために、JAR Scala のバージョンをカーネル scala バージョンに合わせます。
ERROR_S3_FORBIDDEN
SQLSTATE: 割り当てなし
S3 リソースへのアクセスが拒否されました。 IAM のアクセス許可とバケットポリシーを確認します。
説明: クラスターの AWS 資格情報には、指定された S3 リソースにアクセスするための十分なアクセス許可がありません。
推奨されるアクション: S3 バケット ポリシーまたは IAM ロールを確認して更新し、必要な読み取りアクセス権をクラスターに付与します。
ERROR_SCALA_INSTALLATION
SQLSTATE: 割り当てなし
アクセス許可の問題またはファイルが見つからないため、Java の依存関係をインストールできませんでした。
説明: 無効なパス、URL、またはファイルのアクセス許可が不十分なため、Java の依存関係をインストールできない場合に発生します。
推奨されるアクション: ファイルのパスと URL を確認し、適切なアクセス許可を確認して、インストールを再試行します。
ERROR_SETUP_PY_FAILURE
SQLSTATE: 割り当てなし
互換性の問題、依存関係の不足、または構成エラーのため、Python パッケージの setup.py が正常に実行されませんでした。 依存関係のセットアップ ファイルを確認してください。
説明: パッケージの setup.py スクリプトが互換性の問題、依存関係の不足、または構成エラーによって失敗した場合に発生します。
推奨されるアクション: パッケージのバージョンの更新、不足している依存関係のインストール、非推奨のパッケージの置き換え、setup.py スクリプトの確認。
ERROR_SSL_VIOLATION
SQLSTATE: 割り当てなし
Pip で SSL ハンドシェイクまたは証明書検証の問題が発生しました。 コンピューティングまたはワークスペースの SSL 構成と証明書を確認してください。
説明: pip がパッケージ リポジトリに接続するときに SSL ハンドシェイクまたは証明書検証の問題が発生したときに発生します。
推奨されるアクション: SSL 証明書が有効であることを確認するか、pip で信頼されたホストを構成するか、ネットワーク SSL 設定を確認します。
ERROR_UC_ASSET_NOT_FOUND (アセットが見つかりません)
SQLSTATE: 割り当てなし
Unity Catalog オブジェクトが見つかりません。 カタログ、スキーマ、ボリュームが存在するかどうかを確認します。
説明: 指定された Unity カタログ ボリューム、カタログ、またはスキーマが存在しないか、アクセスできない場合に発生します。
推奨されるアクション: Unity カタログ のオブジェクト パスが正しく、オブジェクトがアカウントに存在するかどうかを確認します。
ERROR_UNSUPPORTED_LIBRARY_TYPE(サポートされていないライブラリタイプエラー)
SQLSTATE: 割り当てなし
ライブラリの種類は、このコンピューティングではサポートされていません。 コンピューティングの種類について、サポートされているライブラリを確認してください。
説明: 選択したコンピューティングと互換性のないライブラリの種類をインストールしようとしたときに発生します。
推奨されるアクション: このコンピューティングでサポートされているライブラリの種類を使用するか、この libraryType をサポートするコンピューティングに切り替えます。
ERROR_UNSUPPORTED_PYTHON_VERSION (サポートされていないPythonバージョンエラー)
SQLSTATE: 割り当てなし
Python ライブラリは、このコンピューティングの Python バージョンと互換性がありません。 互換性のある Python バージョンのコンピューティングを使用してください。
説明: パッケージの python_requires 制約が、コンピューティングで実行されている Python バージョンと一致しない場合に発生します。
推奨されるアクション: 現在の Python バージョンをサポートするパッケージ バージョンをインストールするか、コンピューティング バージョンを変更します。
ERROR_UNSUPPORTED_SSL_ENABLED(サポートされていないSSLが有効になっています)
SQLSTATE: 割り当てなし
spark.ssl.enabled 構成が有効になっている場合、インストールは失敗します。これはライブラリのインストールではサポートされていません。 SSL 構成を無効にし、クラスターを再起動します。
説明: spark.ssl.enabled 構成が有効になっているときに発生します。これは、ライブラリのインストールではサポートされていません。
推奨されるアクション: SSL 構成を無効にして (たとえば、spark.ssl.enabled=false を設定するか、spark.databricks.libraries.ignoreSSL=true を設定します)、クラスターを再起動します。
エラー_ワークスペースにユーザーが見つかりません
SQLSTATE: 割り当てなし
ユーザーがワークスペースに見つからなかったため、ライブラリのインストールに失敗しました。 これは通常、ユーザーがワークスペースから削除されたが、トークンがまだ使用されている場合に発生します。
説明: ユーザーのアクセス トークンが使用されているが、指定したワークスペースにユーザーが存在しなくなった場合に発生します。
推奨されるアクション: ユーザーがワークスペースにアクセスできることを確認するか、有効なユーザーの資格情報を使用するようにクラスター構成を更新します。
ボリュームの権限が拒否されました (ERROR_VOLUME_PERMISSION_DENIED)
SQLSTATE: 割り当てなし
Unity カタログ ボリュームに対するアクセス許可が不十分です。 UC ボリューム のアクセス権を確認するか、UC ボリューム所有者へのアクセスを要求してください。
説明: 指定された UC ボリュームに対するアクセス許可がユーザーに不足している場合に発生します。
推奨されるアクション: ボリューム所有者または管理者から Unity カタログ ボリュームに対する READ アクセス許可を要求します。
ERROR_WHEEL_BUILD
SQLSTATE: 割り当てなし
ビルドの依存関係またはエラーがないため、Pip がホイールを正常にビルドできませんでした。 ホイール パッケージの内容と依存関係を確認してください。
説明: ビルドの依存関係またはエラーが見つからないために pip がパッケージのホイールのビルドに失敗した場合に発生します。
推奨されるアクション: ビルド ツールとヘッダーがインストールされていることを確認するか、バイナリなしの事前構築済みホイールをインストールします。
ERROR_WHEEL_INSTALLATION
SQLSTATE: 割り当てなし
プラットフォーム タグの不一致または無効なホイール ファイルが原因で、ホイールが現在のコンピューティングと互換性がありません。 ホイール パッケージの内容、依存関係、およびコンピューティングとの互換性を確認してください。
説明: ホイール ファイルが無効であるか、プラットフォーム タグが一致しない場合に発生します。
推奨されるアクション: 現在のプラットフォーム用に構築されたホイールを使用するか、適切なタグでホイールをリビルドします。
FAULT_CLOUD_STORAGE_INSTALLATION
SQLSTATE: 割り当てなし
通常、構成の誤りや接続の問題が原因で、指定されたクラウド ストレージ資産をダウンロードまたはアクセスできません。 クラウド ストレージのセットアップを確認してください。
説明: コンピューティングがクラウド ストレージからライブラリ ファイルをダウンロードまたはインストールできない場合に発生します。通常、構成ミスやネットワークの問題が原因です。
推奨されるアクション: クラウド ストレージ URI が正しいこと、資格情報が有効であること、必要なネットワーク プロキシまたはライブラリが適切に構成されていることを確認してから、インストールを再試行します。
FAULT_DBR_VERSION_EOS
SQLSTATE: 割り当てなし
コンピューティング上の Databricks Runtime バージョンはサポート終了に達し、サポートされなくなりました。 サポートされている Databricks ランタイム バージョンを使用してください。
説明: 更新プログラムまたはサポートを受け取らなくなった Databricks Runtime バージョンにライブラリがインストールされるときに発生します。
推奨されるアクション: クラスターをサポートされている Databricks Runtime バージョンにアップグレードし、インストールを再試行します。
FAULT_POLLER_ALLOWLIST_VALIDATION
SQLSTATE: 割り当てなし
許可リストが見つからないため、ライブラリのインストールがブロックされます。 これは、ライブラリがクラスターに追加された後に許可リストから削除された場合に発生する可能性があります。 ライブラリの許可リストを確認し、管理者に対して、許可リストにライブラリを追加するか、クラスターから承認されていないパッケージを削除するように要求します。
説明: 1 つ以上の要求されたライブラリがメタストア許可リストで承認されず、インストールがブロックされている場合に発生します。 これは、ライブラリが以前に許可されていたが、後で許可リストから削除された場合にも発生する可能性があります。
推奨されるアクション: メタストアの許可リストを確認し、不足しているライブラリを許可リストに追加するよう管理者に依頼するか、未承認のライブラリをクラスターから削除します。
FAULT_POLLER_DBR_UNSUPPORTED
SQLSTATE: 割り当てなし
クラスター上の Databricks Runtime バージョンはサポート終了に達しており、サポートされなくなりました。 サポートされている Databricks ランタイム バージョンを使用してください。
説明: 更新プログラムまたはサポートを受け取らなくなった Databricks Runtime バージョンにライブラリがインストールされるときに発生します。
推奨されるアクション: サポートされている Databricks Runtime バージョンを使用するようにクラスターを変更し、インストールを再試行します。
FAULT_POLLER_LIBRARY_STORAGE_FORMAT_UNSUPPORTED
SQLSTATE: 割り当てなし
選択した Databricks Runtime バージョンでは、gs:// パスや abfss:// パスなど、特定のライブラリ ストレージ形式がサポートされていない場合があります。 Databricks Runtime をアップグレードするか、別の Databricks Runtime バージョンの機能に関するユーザー ガイドを参照してください。
説明: Databricks ランタイム バージョンが、指定されたライブラリ ストレージ形式またはプロトコルをサポートしていない場合に発生します。
推奨されるアクション: サポートされているストレージ スキームを使用するか、目的のストレージ形式をサポートする Databricks Runtime バージョンにアップグレードします。
FAULT_POLLER_UNITY_CATALOG_NOT_AVAILABLE_ERROR
SQLSTATE: 割り当てなし
ライブラリのインストールには Unity カタログが必要ですが、Unity カタログはクラスターまたはワークスペースでは使用できません。 この機能を有効にするには、ワークスペース管理者に問い合わせてください。
説明: ライブラリのインストールに Unity カタログが必要だが、ワークスペースで Unity カタログが使用できない場合に発生します。
推奨されるアクション: ワークスペースで Unity カタログを有効にするか、Unity カタログをサポートするクラスターを使用するように管理を要求します。
ストレージアクセス障害_FAILURE
SQLSTATE: 割り当てなし
資格情報、ネットワーク、またはアクセス許可の問題により、クラウド ストレージ リソースにアクセスできません。 クラウド ストレージ アクセスの構成を確認してください。
説明: 資格情報、ネットワーク、またはアクセス許可の問題が原因で、コンピューティングがクラウド ストレージ リソースにアクセスできない場合に発生します。
推奨されるアクション: ストレージ資格情報、ネットワーク接続、アクセス許可を確認してから、インストールを再試行します。
Miscellaneous
ABAC_POLICIES_NOT_SUPPORTED_FOR_RUNTIME_VERSION
SQLSTATE: 割り当てなし
DBR バージョン<abacDBRMajorVersion>
<abacDBRMinorVersion>以上が必要となります。これは、ABACポリシーで保護されているため、テーブル<tableFullName>を照会するためです。
AZURE_ENTRA_CREDENTIALS_MISSING
SQLSTATE: 割り当てなし
Azure Entra (別名 Azure Active Directory) の資格情報がありません。
Entra アカウントでログインしていることを確認します
または、Git 統合 > ユーザー設定で Azure DevOps 個人用アクセス トークン (PAT) を設定します。
PAT を使用せず、Repos API で Azure DevOps を使用している場合は、
Azure Entra アクセス トークンを使用する必要があります。
Azure Entra アクセス トークンを取得する手順については、 https://docs.microsoft.com/azure/databricks/dev-tools/api/latest/aad/app-aad-token を参照してください。
<pickOrCreateNewCredential>
AZURE_ENTRA_CREDENTIALS_PARSE_FAILURE
SQLSTATE: 割り当てなし
Azure Entra (Azure Active Directory) 資格情報でエラーが発生しました。 ログアウトしてみてください
Entra (https://portal.azure.com)。それから、ログインし直してください。
または、Git 統合 > ユーザー設定にアクセスして設定することもできます。
Azure DevOps 個人用アクセス トークンを作成します。
<pickOrCreateNewCredential>
AZURE_ENTRA_LOGIN_ERROR
SQLSTATE: 割り当てなし
Azure Active Directory 資格情報でエラーが発生しました。 ログアウトしてみてください
Azure Active Directory (https://portal.azure.com) に再ログインします。
<pickOrCreateNewCredential>
AZURE_ENTRA_WORKLOAD_IDENTITY_ERROR
SQLSTATE: 割り当てなし
Azure Workload Identity で Azure 例外によりエラーが発生しました。 <azureWorkloadIdentityExceptionMessage>
CLEAN_ROOM_DELTA_SHARING_ENTITY_NOT_AUTHORIZED
SQLSTATE: 割り当てなし
クリーンルームの Delta Sharing のセキュリティ保護可能なリソースに対する資格情報の生成は要求できません。
CLEAN_ROOM_HIDDEN_SECURABLE_PERMISSION_DENIED
SQLSTATE: 割り当てなし
セキュリティ保護可能な <securableName> の種類が <securableType> で、種類 <securableKind> はクリーン ルーム システムで管理されており、ユーザーはアクセスできません。
CONSTRAINT_ALREADY_EXISTS
SQLSTATE: 割り当てなし
名前 <constraintName> の制約はすでに存在していますので、別の名前を選んでください。
CONSTRAINT_DOES_NOT_EXIST
SQLSTATE: 割り当てなし
制約 <constraintName> が存在しません。
COULD_NOT_READ_REMOTE_REPOSITORY
SQLSTATE: 割り当てなし
リモート リポジトリ (<repoUrl>) を読み取れませんでした。
資格情報 <credentialName> (<credentialId>) が使用されました<because>。
この Git 資格情報のプロバイダーは <gitCredentialProvider> され、電子メール/ユーザー名は <gitCredentialUsername>。
リモート Git プロバイダーに移動して、次のことを確認してください。
リモート Git リポジトリの URL が有効です。
個人用アクセス トークンまたはアプリ パスワードに正しいリポジトリ アクセス権があります。
<pickOrCreateNewCredential>
COULD_NOT_RESOLVE_REPOSITORY_HOST
SQLSTATE: 割り当てなし
<repoUrl>のホストを解決できませんでした。
資格情報 <credentialName> (<credentialId>) が使用されました<because>。
この Git 資格情報のプロバイダーは <gitCredentialProvider> され、電子メール/ユーザー名は <gitCredentialUsername>。
CSMS_BEGINNING_OF_TIME_NOT_SUPPORTED
SQLSTATE: 割り当てなし
パラメーター beginning_of_time を true にすることはできません。
CSMS_CONTINUATION_TOKEN_EXPIRED
SQLSTATE: 割り当てなし
継続トークンの有効期限が切れています。 原因: <msg>
CSMS_CREDENTIAL_NAME_MISSING
SQLSTATE: 割り当てなし
要求に資格情報名がありません
CSMS_FILE_EVENTS_VALIDATION_USER_ERROR
SQLSTATE: 割り当てなし
操作 <operation>のファイル イベントの検証に失敗しました。 <message>
CSMS_INVALID_CONTINUATION_TOKEN
SQLSTATE: 割り当てなし
継続トークンが無効です。 原因: <msg>
CSMS_INVALID_FILE_EVENTS_QUEUE
SQLSTATE: 割り当てなし
<missingField> 要求の <queueType> に不足しています
CSMS_INVALID_MAX_OBJECTS
SQLSTATE: 割り当てなし
パラメーター max_objectsの値 <value> が無効です。[<minValue>, <maxValue>] で予期される値
CSMS_INVALID_SUBSCRIPTION_ID
SQLSTATE: 割り当てなし
サブスクリプション ID が無効です。 原因: <msg>
CSMS_INVALID_URI_FORMAT
SQLSTATE: 割り当てなし
URI 形式が無効です。 ボリューム ("/Volumes/catalog/schema/volume" など) またはクラウド ストレージ パス (例: "s3://some-uri") が必要です。
CSMS_KAFKA_TOPIC_MISSING
SQLSTATE: 割り当てなし
Kafka トピックを指定する必要があります
CSMS_LOCATION_ERROR
SQLSTATE: 割り当てなし
オブジェクトを一覧表示できませんでした。 解決する必要がある場所に問題があります。 詳細: <msg>
CSMS_LOCATION_NOT_KNOWN
SQLSTATE: 割り当てなし
uri <path> の場所が見つかりません
CSMS_METASTORE_ID_MISSING
SQLSTATE: 割り当てなし
metastore uuid を指定する必要があります
CSMS_METASTORE_RESOLUTION_FAILED
SQLSTATE: 割り当てなし
要求のメタストアを特定できません。
CSMS_RESOLVE_CREDENTIAL_ID_FAILED
SQLSTATE: 割り当てなし
資格情報の資格情報 ID を解決できませんでした: <credentialName>
CSMS_RESOLVE_LOCAL_SHARD_NAME_FAILED
SQLSTATE: 割り当てなし
CSMS がローカル シャード名を解決できませんでした
CSMS_SERVICE_DISABLED
SQLSTATE: 割り当てなし
サービスが無効になっている
CSMS_SHARD_NAME_MISSING_IN_REQUEST
SQLSTATE: 割り当てなし
CSMS への RPC 要求にシャード名がありません
CSMS_STORAGE_CREDENTIAL_DOES_NOT_EXIST
SQLSTATE: 割り当てなし
ストレージ資格情報が存在しません。
CSMS_SUBSCRIPTION_ID_MISSING_IN_REQUEST
SQLSTATE: 割り当てなし
サブスクリプション ID が要求に含まれていない。
CSMS_SUBSCRIPTION_NOT_FOUND
SQLSTATE: 割り当てなし
ID を持つサブスクリプション <id> 見つかりません。
CSMS_UNITY_CATALOG_DISABLED (無効化された)
SQLSTATE: 割り当てなし
このワークスペースで Unity カタログが無効になっている
CSMS_UNITY_CATALOG_ENTITY_NOT_FOUND
SQLSTATE: 割り当てなし
Unity カタログ エンティティが見つかりません。 カタログ、スキーマ、ボリューム、または外部の場所が存在することを確認します。
CSMS_UNITY_CATALOG_EXTERNAL_LOCATION_DOES_NOT_EXIST
SQLSTATE: 割り当てなし
Unity カタログの外部の場所が存在しません。
CSMS_UNITY_CATALOG_EXTERNAL_STORAGE_OVERLAP
SQLSTATE: 割り当てなし
URI が他のボリュームと重複している
CSMS_UNITY_CATALOG_METASTORE_DOES_NOT_EXIST
SQLSTATE: 割り当てなし
要求のメタストアを特定できません。 メタストアが存在しない
CSMS_UNITY_CATALOG_PATHによるテーブルへのフィルター付きアクセスは許可されていません
SQLSTATE: 割り当てなし
URI は、行レベルのフィルターまたは列マスクを持つテーブルを指します。 このテーブルへのパスベースのアクセスは許可されません。
CSMS_UNITY_CATALOG_PERMISSION_DENIED
SQLSTATE: 割り当てなし
アクセス許可が拒否されました
CSMS_UNITY_CATALOG_RATE_LIMITED
SQLSTATE: 割り当てなし
要求レート制限を超えました。 しばらくしてから再試行してください。
CSMS_UNITY_CATALOG_TABLE_DOES_NOT_EXIST
SQLSTATE: 割り当てなし
Unity カタログ テーブルが存在しません。
CSMS_UNITY_CATALOG_VOLUME_DOES_NOT_EXIST
SQLSTATE: 割り当てなし
Unity カタログ ボリュームが存在しません。
CSMS_UNSUPPORTED_FILE_EVENTS_QUEUE
SQLSTATE: 割り当てなし
要求内の不明なファイル イベント キュー
CSMS_UNSUPPORTED_MANAGED_RESOURCE_TYPE
SQLSTATE: 割り当てなし
マネージド リソースの種類 <resourceType> はサポートされていません
CSMS_UNSUPPORTED_SECURABLE
SQLSTATE: 割り当てなし
サポートされていない保護対象
CSMS_URI_MISSING
SQLSTATE: 割り当てなし
URI を指定する必要があります
CSMS_URI_TOO_LONG
SQLSTATE: 割り当てなし
指定された URI が長すぎます。 最大許容長は <maxLength>です。
CSMS_USER_CONTEXT_MISSING_IN_REQUEST
SQLSTATE: 割り当てなし
CSMS への rpc 要求にユーザー コンテキストがありません
DMK_CATALOGS_DISALLOWED_ON_CLASSIC_COMPUTE
SQLSTATE: 割り当てなし
クラシック コンピューティングを使用して Databricks Default Storage にアクセスすることはできません。 サーバーレス コンピューティングを使用して、既定のストレージ内のデータにアクセスしてください
GITHUB_APP_COULD_NOT_REFRESH_CREDENTIALS
SQLSTATE: 割り当てなし
リンクされた GitHub アプリの資格情報を更新できなかったため、操作に失敗しました。
もう一度試すか、Git 統合 > ユーザー設定に移動して、Git プロバイダー アカウントの再リンクを試してください。
問題が解決しない場合は、サポート チケットを提出してください。
<pickOrCreateNewCredential>
GITHUB_APP_CREDENTIALS_NO_ACCESS
SQLSTATE: 割り当てなし
GitHub アカウントへのリンクにはアクセスできません。 このエラーを修正するには:
- リポジトリの管理者は、 https://github.com/apps/databricks/installations/new に移動し、Databricks GitHub アプリをリポジトリにインストールする必要があります。
または、GitHub アカウント所有者がアカウントにアプリをインストールして、アカウントのリポジトリへのアクセス権を付与することもできます。
- アプリが既にインストールされている場合は、管理者に対して、[リポジトリの選択のみ] オプションでスコープアクセスを使用している場合は、それを選択してこのリポジトリへのアクセス権が含まれていることを確認します。
詳細については、 https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app を参照してください。
<pickOrCreateNewCredential>
GITHUB_APP_EXPIRED_CREDENTIALS
SQLSTATE: 割り当てなし
リンクされた GitHub アプリの資格情報は、非アクティブ状態が 6 か月後に期限切れになりました。
Git 統合 > ユーザー設定に移動し、資格情報の再リンクを試みます。
問題が解決しない場合は、サポート チケットを提出してください。
<pickOrCreateNewCredential>
GITHUB_APP_INSTALL_ON_DIFFERENT_USER_ACCOUNT
SQLSTATE: 割り当てなし
GitHub アカウントへのリンクにはアクセスできません。 このエラーを修正するには:
GitHub ユーザー
<gitCredentialUsername>は、 https://github.com/apps/databricks/installations/new に移動し、アクセスを許可するためにアカウント<gitCredentialUsername>にアプリをインストールする必要があります。ユーザー
<gitCredentialUsername>既にアプリをインストールしていて、[リポジトリの選択のみ] オプションでスコープアクセスを使用している場合は、選択してこのリポジトリへのアクセス権が含まれていることを確認する必要があります。
詳細については、 https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app を参照してください。
<pickOrCreateNewCredential>
GITHUB_APP_INSTALL_ON_ORGANIZATION
SQLSTATE: 割り当てなし
GitHub アカウントへのリンクにはアクセスできません。 このエラーを修正するには:
GitHub 組織の所有者
<organizationName>は、 https://github.com/apps/databricks/installations/new に移動し、アクセスを許可するために組織の<organizationName>にアプリをインストールする必要があります。GitHub 組織
<organizationName>にアプリが既にインストールされている場合、その組織の所有者は、「リポジトリの選択のみ」オプションでスコープ付きアクセスを使用している場合に、このリポジトリへのアクセスを含めるように選択したことを確認してください。
詳細については、 https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app を参照してください。
<pickOrCreateNewCredential>
GITHUB_APP_INSTALL_ON_YOUR_ACCOUNT
SQLSTATE: 割り当てなし
GitHub アカウントへのリンクにはアクセスできません。 このエラーを修正するには:
https://github.com/apps/databricks/installations/newに移動し、アカウント
<gitCredentialUsername>にアプリをインストールしてアクセスを許可します。アプリが既にインストールされていて、[リポジトリの選択のみ] オプションでスコープアクセスを使用している場合は、それを選択してこのリポジトリへのアクセスを含めていることを確認します。
詳細については、 https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app を参照してください。
<pickOrCreateNewCredential>
GIT_CLUSTER_NOT_READY
SQLSTATE: 割り当てなし
Git クラスターの準備ができていません。
GIT_CREDENTIAL_GENERIC_INVALID
SQLSTATE: 割り当てなし
リポジトリ URL <repoUrl>の Git プロバイダー資格情報が無効です。
資格情報 <credentialName> (<credentialId>) が使用されました<because>。
この Git 資格情報のプロバイダーは <gitCredentialProvider> され、電子メール/ユーザー名は <gitCredentialUsername>。
リモート Git プロバイダーに移動して、次のことを確認してください。
Git プロバイダーの資格情報を使用して、正しい Git ユーザーの電子メールまたはユーザー名を入力しました。
トークンに正しいリポジトリ アクセス権があります。
トークンの有効期限が切れていない。
Git プロバイダーで SSO が有効になっている場合は、必ずトークンを承認してください。
<pickOrCreateNewCredential>
GIT_CREDENTIAL_INVALID_PAT
SQLSTATE: 割り当てなし
リポジトリ URL <repoUrl>の Git プロバイダーの個人用アクセス トークン資格情報が無効です。
資格情報 <credentialName> (<credentialId>) が使用されました<because>。
この Git 資格情報のプロバイダーは <gitCredentialProvider> され、電子メール/ユーザー名は <gitCredentialUsername>。
リモート Git プロバイダーに移動して、次のことを確認してください。
Git プロバイダーの資格情報を使用して、正しい Git ユーザーの電子メールまたはユーザー名を入力しました。
トークンに正しいリポジトリ アクセス権があります。
トークンの有効期限が切れていない。
Git プロバイダーで SSO が有効になっている場合は、必ずトークンを承認してください。
<pickOrCreateNewCredential>
.
GIT_CREDENTIAL_MISSING
SQLSTATE: 割り当てなし
Git 資格情報は構成されませんが、このリポジトリ (<repoUrl>) には資格情報が必要です。
Git 統合 > ユーザー設定に移動して、Git 資格情報を設定します。
GIT_CREDENTIAL_NO_WRITE_PERMISSION
SQLSTATE: 割り当てなし
<gitCredentialProvider> リポジトリ (<repoUrl>) への書き込みアクセス権が付与されていません。
資格情報 <credentialName> (<credentialId>) が使用されました<because>。
この Git 資格情報のプロバイダーは <gitCredentialProvider> され、電子メール/ユーザー名は <gitCredentialUsername>。
(<gitCredentialUsername>) がこのリモート リポジトリへの書き込みアクセス権を持っていることを確認します。
GIT_CREDENTIAL_PROVIDER_MISMATCHED
SQLSTATE: 割り当てなし
リポジトリの Git 資格情報プロバイダーが正しくありません。
リポジトリの Git プロバイダー <repoUrl>の Git プロバイダーと一致する Git プロバイダー (<repositoryGitProvider>) を持つ Git 資格情報がありません。
Git 統合 > ユーザー設定に移動して、Git プロバイダー <repositoryGitProvider>の新しい資格情報を作成します。
GIT_FILE_NAME_TOO_LONG
SQLSTATE: 割り当てなし
パス内のファイル名またはフォルダー名 <path> コンポーネントあたりの最大 <maxComponentBytes>バイトを超えています。
Unix ベースのシステムでは、ファイル名またはフォルダー名ごとに最大 <maxComponentBytes> バイトのみがサポートされます。
違反: <violations>
続行するには、問題のあるコンポーネントを短縮してください。
GIT_PROVIDER_INFO_MISSING
SQLSTATE: 割り当てなし
Git プロバイダーの情報が見つからないか空です。
Git 資格情報を追加して、もう一度やり直してください。
問題が解決しない場合は、サポート チケットを提出してください。
GIT_PROXY_CLUSTER_NOT_READY
SQLSTATE: 割り当てなし
Git プロキシ クラスターの準備ができていません。
GIT_PROXY_CONNECTION_FAILED
SQLSTATE: 割り当てなし
Git プロキシに接続できませんでした。Git プロキシが稼働しているかどうかを確認してください。
エラー: <error>
GIT_SECRET_IN_CODE
SQLSTATE: 割り当てなし
コミットでシークレットが見つかりました。 詳細: <secretDetail>。 このエラーを修正するには:
シークレットを削除し、もう一度コミットしてみてください。
問題が解決しない場合は、サポート チケットを提出してください。
GIT_STALE_REMOTE_REFS
SQLSTATE: 割り当てなし
Git フェッチは完了しましたが、ファイルシステム パスの競合 (削除されたブランチや 'feature' と 'feature/sub' など) が原因で古いリモート参照を更新できませんでした。
Git エラー: <gitErrorMessage>
HIERARCHICAL_NAMESPACE_NOT_ENABLED
SQLSTATE: 割り当てなし
Azure ストレージ アカウントでは、階層型名前空間が有効になっていません。
INVALID_FIELD_LENGTH
<rpcName> <fieldName> が長すぎます。 最大長は <maxLength> 文字です。
INVALID_PARAMETER_VALUE
<msg>
詳細については、INVALID_PARAMETER_VALUE を参照してください。
JOBS_TASK_FRAMEWORK_TASK_RUN_OUTPUT_NOT_FOUND
SQLSTATE: 割り当てなし
タスク フレームワーク: runId <runId> と orgId <orgId> を持つタスクのタスク実行出力が見つかりませんでした。
JOBS_TASK_FRAMEWORK_TASK_RUN_STATE_NOT_FOUND
SQLSTATE: 割り当てなし
タスク フレームワーク: runId <runId> と orgId <orgId> を持つタスクのタスク実行状態が見つかりませんでした。
JOBS_TASK_REGISTRY_TASK_CLIENT_CONFIG_DOES_NOT_EXIST
SQLSTATE: 割り当てなし
ID <taskId> を持つタスクの RPC ClientConfig が存在しません。
JOBS_TASK_REGISTRY_TASK_DOES_NOT_EXIST
SQLSTATE: 割り当てなし
ID <taskId> を持つタスクが存在しません。
JOBS_TASK_REGISTRY_UNSUPPORTED_JOB_TASK
SQLSTATE: 割り当てなし
タスク レジストリ: クラス <taskClassName>でサポートされていないか不明な JobTask。
PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_EXTERNAL_SHALLOW_CLONE
SQLSTATE: 割り当てなし
外部の浅い複製テーブル <tableFullName> へのパスベースのアクセスはサポートされていません。 代わりに、テーブル名を使用して浅いクローンにアクセスしてください。
PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_FABRIC
SQLSTATE: 割り当てなし
URL '<url>' にあるファブリック テーブルが見つかりません。
REFRESH FOREIGN CATALOG コマンドを使用して、Fabric テーブルを設定してください。
PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_TABLES_WITH_ROW_COLUMN_ACCESS_POLICIES
SQLSTATE: 割り当てなし
行フィルターまたは列マスクがサポートされていないテーブル <tableFullName> へのパスベースのアクセス。
PERMISSION_DENIED
SQLSTATE: 割り当てなし
<principalName>には<msg>が<resourceType> '<resourceName>' にありません。
REDASH_DELETE_ASSET_HANDLER_INVALID_INPUT
SQLSTATE: 割り当てなし
オブジェクトの削除要求を解析できません: <invalidInputMsg>
REDASH_DELETE_OBJECT_NOT_IN_TRASH
SQLSTATE: 割り当てなし
ごみ箱にないオブジェクト <resourceName> を削除できない
REDASH_PERMISSION_DENIED
SQLSTATE: 割り当てなし
リソース <resourceId> に対するアクセス許可が見つからないか、または持っていないためアクセスできませんでした。
REDASH_QUERY_NOT_FOUND
SQLSTATE: 割り当てなし
クエリ ID <queryId> からリソースが見つかりません
REDASH_QUERY_SNIPPET_CREATION_FAILED
SQLSTATE: 割り当てなし
新しいクエリ スニペットを作成できない
REDASH_QUERY_SNIPPET_QUOTA_EXCEEDED
SQLSTATE: 割り当てなし
クエリスニペット数の上限に達しました。 現在のクォータは <quota> です。
REDASH_QUERY_SNIPPET_TRIGGER_ALREADY_IN_USE
SQLSTATE: 割り当てなし
指定したトリガー <trigger> は、このワークスペース内の別のクエリ スニペットによって既に使用されています。
REDASH_RESOURCE_NOT_FOUND
SQLSTATE: 割り当てなし
要求されたリソース <resourceName> が存在しません
REDASH_RESTORE_ASSET_HANDLER_INVALID_INPUT
SQLSTATE: 割り当てなし
オブジェクトの削除要求を解析できません: <invalidInputMsg>
REDASH_RESTORE_OBJECT_NOT_IN_TRASH
SQLSTATE: 割り当てなし
ごみ箱にないオブジェクト <resourceName> を復元できない
REDASH_TRASH_OBJECT_ALREADY_IN_TRASH
SQLSTATE: 割り当てなし
既にごみ箱に入っているオブジェクト <resourceName> をごみ箱に入れることはできません
REDASH_UNABLE_TO_GENERATE_RESOURCE_NAME
SQLSTATE: 割り当てなし
ID <id> からリソース名を生成できませんでした
REDASH_VISUALIZATION_CREATION_FAILED
SQLSTATE: 割り当てなし
新しい視覚化を作成できない
REDASH_VISUALIZATION_NOT_FOUND
SQLSTATE: 割り当てなし
視覚化 <visualizationId> が見つかりませんでした
REDASH_VISUALIZATION_QUOTA_EXCEEDED
SQLSTATE: 割り当てなし
クエリ <query_id> の視覚化の数のクォータに達しました。 現在のクォータは <quota> です。
REPOSITORY_URL_NOT_FOUND
SQLSTATE: 割り当てなし
リモート リポジトリ (<repoUrl>) が見つかりません。
資格情報 <credentialName> (<credentialId>) が使用されました<because>。
この Git 資格情報のプロバイダーは <gitCredentialProvider> され、電子メール/ユーザー名は <gitCredentialUsername>。
リモート Git プロバイダーに移動して、次のことを確認してください。
リモート Git リポジトリの URL が有効です。
個人用アクセス トークンまたはアプリ パスワードに正しいリポジトリ アクセス権があります。
<pickOrCreateNewCredential>
RESOURCE_ALREADY_EXISTS
<resourceType> '<resourceIdentifier>' は既に存在します
RESOURCE_DOES_NOT_EXIST
<resourceType> '<resourceIdentifier>' が存在しません。
ROW_COLUMN_ACCESS_POLICIES_NOT_SUPPORTED_ON_ASSIGNED_CLUSTERS
SQLSTATE: 割り当てなし
割り当てられたクラスターでは、行フィルターまたは列マスクがサポートされていないテーブル <tableFullName> に対するクエリ。
ROW_COLUMN_SECURITY_NOT_SUPPORTED_WITH_TABLE_IN_DELTA_SHARING
SQLSTATE: 割り当てなし
テーブル <tableFullName> はデルタシェアリングと共有されているため、行および列のセキュリティを使用できません。
SERVICE_TEMPORARILY_UNAVAILABLE
SQLSTATE: 割り当てなし
<serviceName> サービスは一時的にメンテナンス中です。 後でもう一度やり直してください。
TABLE_WITH_ROW_COLUMN_SECURITY_NOT_SUPPORTED_IN_ONLINE_MODE
SQLSTATE: 割り当てなし
テーブル <tableFullName> には、行/列セキュリティビューとオンラインマテリアライズド ビューの両方を使用することはできません。
TOO_MANY_ROWS_TO_UPDATE
SQLSTATE: 割り当てなし
更新が必要な行が多すぎるため、更新が中止されます。
UC_ABAC_UNSUPPORTED_TABLE_TYPE
SQLSTATE: 割り当てなし
ABAC ポリシーは、テーブルの種類の <tableType>ではサポートされていません。