Catatan
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba masuk atau mengubah direktori.
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba mengubah direktori.
Berlaku untuk:
Databricks SQL
Databricks Runtime versi 12.2 ke atas
Kondisi kesalahan adalah string deskriptif yang dapat dibaca oleh manusia dan unik untuk masing-masing kesalahan yang dijelaskan.
Anda dapat menggunakan kondisi kesalahan untuk menangani kesalahan secara terprogram di aplikasi Anda tanpa perlu mengurai pesan kesalahan.
Ini adalah daftar kondisi kesalahan yang umum terjadi dan memiliki nama dari Azure Databricks.
Databricks Runtime dan Databricks SQL
ADD_DEFAULT_UNSUPPORTED
Gagal menjalankan <statementType> perintah karena DEFAULT nilai tidak didukung saat menambahkan kolom baru ke sumber data target yang sudah ada sebelumnya dengan penyedia tabel: "<dataSource>".
FUNGSI_AGREGAT_DALAM_REFERENSI_BERSEKAT_TIDAK_DIDUKUNG
Terdeteksi fungsi agregat dalam referensi cakupan luar <expression> yang tidak didukung.
AGGREGATE_FUNCTION_WITH_NONDETERMINISTIC_EXPRESSION
Ekspresi non-deterministik <sqlExpr> tidak boleh muncul dalam argumen fungsi agregat.
AI_FUNCTION_HTTP_PARSE_CAST_ERROR
Gagal mengurai output model saat mentransmisikan ke returnType yang ditentukan: "<dataType>", responsnya JSON adalah: "<responseString>". Harap perbarui returnType agar sesuai dengan konten tipe yang diwakili oleh respons JSON lalu coba lagi kueri tersebut. Pengecualian: <errorMessage>
AI_FUNCTION_HTTP_PARSE_COLUMNS_ERROR
Output model yang sebenarnya memiliki lebih dari satu kolom "<responseString>". Namun, jenis pengembalian yang ditentukan["<dataType>"] hanya memiliki satu kolom. Harap perbarui returnType untuk berisi jumlah kolom yang sama dengan output model lalu coba lagi kueri.
AI_FUNCTION_HTTP_REQUEST_ERROR
Terjadi kesalahan saat membuat permintaan HTTP untuk fungsi <funcName>: <errorMessage>
AI_FUNCTION_INVALID_HTTP_RESPONSE
Respons HTTP tidak valid untuk fungsi <funcName>: <errorMessage>
AI_FUNCTION_INVALID_MAX_WORDS
Jumlah kata maksimum harus bilangan bulat non-negatif, namun yang diperoleh <maxWords>.
AI_FUNCTION_INVALID_MODEL_PARAMETERS
Parameter model yang disediakan (<modelParameters>) tidak valid dalam AI_QUERY fungsi untuk melayani titik akhir "<endpointName>".
Untuk detail selengkapnya, lihat AI_FUNCTION_INVALID_MODEL_PARAMETERS
AI_FUNCTION_INVALID_RESPONSE_FORMAT_TYPE
Fungsi AI: "<functionName>" memerlukan string yang valid <format> untuk responseFormat parameter, tetapi menemukan format respons berikut: "<invalidResponseFormat>". Pengecualian: <errorMessage>
AI_FUNCTION_JSON_PARSE_ERROR
Terjadi kesalahan saat mengurai JSON respons untuk fungsi <funcName>: <errorMessage>
AI_FUNCTION_MODEL_SCHEMA_PARSE_ERROR
Gagal mengurai skema untuk titik akhir penyajian "<endpointName>": <errorMessage>, respons JSON adalah: "<responseJson>".
Atur parameter returnType secara manual dalam fungsi AI_QUERY untuk mengambil alih resolusi skema.
AI_FUNCTION_REGISTRY_LOOKUP_FAILURE
Gagal menyelesaikan fungsi "<functionName>" secara dinamis dari AI Function Registry.
AI_FUNCTION_UNSUPPORTED_ERROR
Fungsi <funcName> tidak didukung di lingkungan saat ini. Ini hanya tersedia di Databricks SQL Pro dan Tanpa Server.
AI_FUNCTION_UNSUPPORTED_REQUEST
Gagal mengevaluasi fungsi SQL "<functionName>" karena argumen <invalidValue> yang disediakan memiliki "<invalidDataType>", tetapi hanya jenis berikut yang didukung: <supportedDataTypes>. Harap perbarui panggilan fungsi untuk memberikan argumen jenis string dan coba lagi kueri.
AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT
Ditemukan format respons yang tidak didukung.
Untuk informasi lebih lanjut, lihat AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT
AI_FUNCTION_UNSUPPORTED_RETURN_TYPE
Fungsi AI: "<functionName>" tidak mendukung jenis berikut sebagai jenis pengembalian: "<typeName>". Jenis pengembalian harus merupakan jenis SQL yang valid yang dipahami oleh Katalis dan didukung oleh fungsi AI. Jenis yang didukung saat ini meliputi: <supportedValues>
AI_INVALID_ARGUMENT_VALUE_ERROR
Nilai yang disediakan "<argValue>" tidak didukung oleh argumen "<argName>". Nilai yang didukung adalah: <supportedValues>
AI_QUERY_ENDPOINT_NOT_SUPPORT_STRUCTURED_OUTPUT
Diharapkan jenis tugas titik akhir penyajian menjadi "Obrolan" untuk dukungan output terstruktur, tetapi ditemukan "<taskType>" untuk titik akhir "<endpointName>".
AI_QUERY_RETURN_TYPE_COLUMN_TYPE_MISMATCH
Disediakan "<sqlExpr>" tidak didukung oleh argumen returnType.
AI_SEARCH_CONFLICTING_QUERY_PARAM_SUPPLY_ERROR
Parameter yang bertentangan terdeteksi untuk fungsi SQL vector_search: <conflictParamNames>.<hint>
AI_SEARCH_EMBEDDING_COLUMN_TYPE_UNSUPPORTED_ERROR
vector_search fungsi SQL dengan jenis kolom penyematan <embeddingColumnType> tidak didukung.
AI_SEARCH_EMPTY_QUERY_PARAM_ERROR
vector_search fungsi SQL tidak memiliki parameter input kueri, harap tentukan minimal satu dari: <parameterNames>.
AI_SEARCH_HYBRID_QUERY_PARAM_DEPRECATION_ERROR
Parameter query dari fungsi SQL vector_search tidak didukung untuk pencarian vektor hybrid. Silakan gunakan query_text sebagai gantinya.
AI_SEARCH_HYBRID_TEXT_NOT_FOUND_ERROR
Teks kueri tidak ditemukan dalam fungsi SQL vector_search untuk pencarian vektor hybrid. Harap sediakan query_text.
AI_SEARCH_INDEX_TYPE_UNSUPPORTED_ERROR
vector_search fungsi SQL dengan jenis indeks <indexType> tidak didukung.
AI_SEARCH_MISSING_EMBEDDING_INPUT_ERROR
query_vector harus ditentukan untuk indeks <indexName> karena tidak terkait dengan endpoint model penyematan.
AI_SEARCH_QUERY_TYPE_CONVERT_ENCODE_ERROR
Kegagalan menyusun kueri fungsi SQL vector_search dari tipe spark <dataType> ke objek scala-native ketika mengode permintaan karena kesalahan: <errorMessage>.
AI_SEARCH_QUERY_TYPE_UNSUPPORTED_ERROR
vector_search fungsi SQL dengan jenis kueri <unexpectedQueryType> tidak didukung. Tentukan satu dari: <supportedQueryTypes>.
AI_SEARCH_UNSUPPORTED_NUM_RESULTS_ERROR
vector_search fungsi SQL dengan num_results lebih besar dari <maxLimit> tidak didukung. Batas yang ditentukan adalah <requestedLimit>. Silakan coba lagi dengan num_results <= <maxLimit>
AI_TOP_DRIVERS_PARAM_OUT_OF_RANGE
Parameter ai_top_drivers<param> harus antara <lo> dan <hi>.
AI_TOP_DRIVERS_UNSUPPORTED_AGGREGATION_TYPE
ai_top_drivers tidak mendukung <aggName> agregat. Pilih salah satu agregat yang didukung berikut ini: <allowed>.
AI_TOP_DRIVERS_UNSUPPORTED_DIMENSION_TYPE
ai_top_drivers tidak mendukung kolom dimensi numerik, peta, atau struktur. Kolom <colName> memiliki jenis <dataType>. Hapus dimensi ini atau ubah ke jenis yang didukung.
AI_TOP_DRIVERS_UNSUPPORTED_LABEL_TYPE
ai_top_drivers memerlukan jenis kolom label menjadi boolean. Kolom <colName> memiliki jenis <dataType>. Ubah kolom label atau konversikan ke jenis yang didukung.
AI_TOP_DRIVERS_UNSUPPORTED_METRIC_TYPE
ai_top_drivers memerlukan jenis kolom metrik menjadi numerik. Kolom <colName> memiliki jenis <dataType>. Ubah kolom metrik atau konversi ke tipe yang didukung.
ALL_PARAMETERS_MUST_BE_NAMED
Menggunakan kueri berparameter nama mengharuskan semua parameter diberi nama. Nama parameter yang hilang: <exprs>.
ALL_PARTITION_COLUMNS_NOT_ALLOWED
Tidak dapat menggunakan semua kolom untuk kolom partisi.
ALTER_SCHEDULE_DOES_NOT_EXIST
Tidak dapat memodifikasi <scheduleType> pada tabel tanpa jadwal atau pemicu yang ada. Tambahkan jadwal atau pemicu ke tabel sebelum mencoba mengubahnya.
ALTER_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
ALTER TABLE <type> kolom <columnName> menentukan deskriptor "<optionName>" lebih dari sekali, yang tidak valid.
AMBIGUOUS_ALIAS_IN_NESTED_CTE
Nama <name> ambigu dalam CTE berlapis.
Silakan atur <config> ke "CORRECTED" sehingga nama yang ditentukan dalam CTE dalam lebih diutamakan. Jika diatur ke "LEGACY", definisi CTE luar akan diutamakan.
Lihat 'https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine'.
AMBIGUOUS_COLUMN_OR_FIELD
Kolom atau bidang <name> bersifat ambigu dan memiliki <n> kecocokan.
AMBIGUOUS_COLUMN_REFERENCE
Kolom <name> ambigu. Ini karena Anda menggabungkan beberapa DataFrame bersama-sama, dan beberapa DataFrame ini sama.
Kolom ini menunjuk ke salah satu DataFrames tetapi Spark tidak dapat mencari tahu yang mana.
Silakan membuat alias untuk DataFrames dengan nama yang berbeda dengan menggunakan DataFrame.alias sebelum menggabungkannya.
dan tentukan kolom menggunakan nama yang memenuhi syarat, misalnya, df.alias("a").join(df.alias("b"), col("a.id") > col("b.id")).
AMBIGUOUS_CONSTRAINT
Referensi ambigu ke batasan <constraint>.
AMBIGUOUS_LATERAL_COLUMN_ALIAS
Alias kolom lateral <name> tidak jelas dan memiliki sejumlah kecocokan <n>.
AMBIGUOUS_REFERENCE
Referensi <name> ambigu, bisa jadi: <referenceNames>.
AMBIGUOUS_REFERENCE_TO_FIELDS
Referensi ambigu ke bidang <field>. Muncul <count> kali dalam skema.
ANALYZE_CONSTRAINTS_NOT_SUPPORTED
ANALYZE CONSTRAINTS tidak didukung.
ANALYZE_TABLE_COMPUTE_STORAGE_METRICS_NOT_SUPPORTED
ANALYZE TABLE COMPUTE STORAGE METRICS tidak didukung. Hubungi tim dukungan Databricks Anda untuk mendaftarkan ruang kerja ini.
ANSI_CONFIG_CANNOT_BE_DISABLED
Konfigurasi ANSI SQL <config> tidak dapat dinonaktifkan dalam produk ini.
APPEND_ONCE_FROM_BATCH_QUERY
Silakan gunakan operator stream().
Membuat tabel streaming dari kueri batch mencegah pemuatan tambahan data baru dari sumber. Tabel bermasalah: '<table>'.
Contoh penggunaan:
CREATE STREAMING TABLE <target table name>
...
AS SELECT
...
FROM stream(<source table name>) ...
APPROX_TOP_K_INVALID_NUM_OF_ARGUMENTS
approx_top_k mengharapkan argumen 1 hingga 3, tetapi mendapatkan <argNum>.
APPROX_TOP_K_MAX_ITEMS_TRACKED_EXCEEDS_LIMIT
Item maks yang dilacak maxItemsTracked(<maxItemsTracked>) approx_top_k harus kurang dari atau sama dengan <limit>.
APPROX_TOP_K_MAX_ITEMS_TRACKED_LESS_THAN_K
Item maks yang dilacak maxItemsTracked(<maxItemsTracked>) approx_top_k harus lebih besar dari atau sama dengan k(<k>).
APPROX_TOP_K_NON_POSITIVE_ARG
Nilai dalam <argName> harus bilangan approx_top_k bulat positif, tetapi mendapat <argValue>.
APPROX_TOP_K_NULL_ARG
Nilai <argName> dalam approx_top_k tidak boleh NULL.
APPROX_TOP_K_SKETCH_SIZE_NOT_MATCH
Menggabungkan sketsa approx_top_k dengan ukuran yang berbeda tidak diperbolehkan. Ditemukan sketsa ukuran <size1> dan <size2>.
APPROX_TOP_K_SKETCH_TYPE_NOT_MATCH
Menggabungkan sketsa approx_top_k dari berbagai jenis tidak diperbolehkan. Ditemukan sketsa jenis <type1> dan <type2>.
AQE_THREAD_INTERRUPTED
Proses AQE terganggu, mungkin karena kueri dibatalkan oleh pengguna.
ARGUMENT_NOT_CONSTANT
Fungsi <functionName> menyertakan parameter <parameterName> pada posisi <pos> yang memerlukan argumen konstanta. Silakan komputasi argumen <sqlExpr> secara terpisah dan berikan hasilnya sebagai konstanta.
ARITHMETIC_OVERFLOW
<message>.
<alternative> Atur <config> ke "false" jika perlu untuk melewati kesalahan ini.
Untuk detail selengkapnya, lihat ARITHMETIC_OVERFLOW
ARROW_TYPE_MISMATCH
Skema tidak valid dari <operation>: yang diharapkan <outputTypes>, diperoleh <actualDataTypes>.
ARTIFACT_ALREADY_EXISTS
Artefak <normalizedRemoteRelativePath> sudah ada. Silakan pilih nama yang berbeda untuk artefak baru karena tidak dapat ditimpa.
ASSIGNMENT_ARITY_MISMATCH
Jumlah kolom atau variabel yang ditetapkan atau alias: <numTarget> tidak cocok dengan jumlah ekspresi sumber: <numExpr>.
AS_OF_JOIN
Gabungan as-of tidak valid.
Untuk informasi lebih lanjut, lihat AS_OF_JOIN
ATTEMPT_ANALYSIS_IN_PIPELINE_QUERY_FUNCTION
Operasi yang memicu analisis atau eksekusi DataFrame tidak diizinkan dalam fungsi kueri alur. Pindahkan kode di luar fungsi kueri alur.
AUTOCOMMIT_BEGIN_TRANSACTION_DURING_AUTOCOMMIT_TRANSACTION
Tidak dapat memulai transaksi baru saat transaksi implisit yang dimulai oleh SET AUTOCOMMIT=FALSE aktif.
COMMIT atau ROLLBACK transaksi saat ini terlebih dahulu dan SET AUTOCOMMIT=TRUE sebelum memulai transaksi baru.
AUTOCOMMIT_NOT_SUPPORTED
Fitur AUTOCOMMIT mode saat ini sedang dalam pengembangan dan belum didukung pada Databricks.
AUTOCOMMIT_OLD_SQL_EDITOR_NOT_SUPPORTED
AUTOCOMMIT tidak dapat diakses atau dimodifikasi di Editor SQL warisan. Beralih ke Editor SQL baru (<docLink>) atau gunakan buku catatan yang terhubung dengan gudang Databricks SQL.
AUTOCOMMIT_ONLY_SUPPORTED_IN_DBSQL
AUTOCOMMIT hanya dapat diakses atau dimodifikasi di gudang Databricks SQL.
AUTOCOMMIT_SET_DURING_ACTIVE_TRANSACTION
SET AUTOCOMMIT tidak diperbolehkan selama transaksi aktif. Terapkan atau putar kembali terlebih dahulu.
AUTOCOMMIT_SET_FALSE_ALREADY_DISABLED
SET AUTOCOMMIT=FALSE tidak diperbolehkan ketika AUTOCOMMIT sudah dinonaktifkan. Pembatasan ini mencegah kebingungan dan menjaga batas transaksi tetap jelas.
AUTOCOMMIT_SET_TRUE_DURING_AUTOCOMMIT_TRANSACTION
SET AUTOCOMMIT=TRUE tidak diperbolehkan setelah pernyataan dijalankan dalam transaksi implisit yang dimulai oleh SET AUTOCOMMIT=FALSE. Ini hanya diizinkan segera setelah SET AUTOCOMMIT=FALSE (sebelum pernyataan apa pun), atau setelah COMMIT atau ROLLBACK.
AUTO_TTL_COLUMN_NOT_FOUND
Skema tabel tidak valid untuk Auto-TTL. Kolom TTL <column> otomatis tidak dapat ditemukan.
AUTO_TTL_COLUMN_TYPE_NOT_SUPPORTED
Kolom <column> TTL otomatis memiliki tipe <type> yang tidak valid. Jenis kolom harus salah satu dari TIMESTAMP, TIMESTAMP_NTZ, atau DATE.
AUTO_TTL_FEATURE_NOT_ENABLED
Silakan hubungi perwakilan Databricks Anda untuk mengaktifkan fitur Auto-TTL.
AUTO_TTL_INCOMPLETE_SETTING
Untuk mengatur TTL Otomatis pada tabel, properti autottl.timestampColumn tabel dan autottl.expireInDays diperlukan, tetapi <missing> hilang.
AUTO_TTL_INVALID_COLUMN_CHANGE
Kolom <column> tidak boleh <operation> karena digunakan dalam definisi Auto-TTL.
AUTO_TTL_NOT_SUPPORT_SHALLOW_CLONES
Auto-TTL tidak didukung pada tabel kloning dangkal.
AUTO_TTL_NOT_SUPPORT_TABLES_HAVING_SHALLOW_CLONES
TTL otomatis tidak didukung pada tabel yang memiliki kloning dangkal.
AUTO_TTL_REQUIRES_PREDICTIVE_OPTIMIZATION
Auto-TTL mengharuskan Pengoptimalan Prediktif diaktifkan.
AUTO_TTL_REQUIRES_UC_MANAGED_TABLE
Auto-TTL hanya didukung pada tabel Terkelola UC.
AVRO_CANNOT_WRITE_NULL_FIELD
Tidak dapat menulis nilai null untuk bidang <name> yang didefinisikan sebagai tipe data Avro <dataType> non-null.
Untuk memperbolehkan nilai null untuk bidang ini, tentukan skema avro-nya sebagai jenis union dengan "null" menggunakan opsi avroSchema.
AVRO_DEFAULT_VALUES_UNSUPPORTED
Penggunaan nilai default tidak didukung saatrescuedDataColumn diaktifkan. Anda mungkin dapat menghapus pemeriksaan ini dengan mengatur spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue ke false, tetapi nilai default tidak akan berlaku dan nilai null masih akan digunakan.
AVRO_INCOMPATIBLE_READ_TYPE
Tidak dapat mengonversi Avro <avroPath> ke SQL <sqlPath> karena jenis data yang dikodekan asli adalah <avroType>, namun Anda mencoba membaca bidang sebagai <sqlType>, yang akan menyebabkan jawaban yang salah.
Untuk mengizinkan membaca bidang ini, aktifkan konfigurasi SQL: "spark.sql.legacy.avro.allowIncompatibleSchema".
AVRO_NOT_LOADED_SQL_FUNCTIONS_UNUSABLE
Tidak dapat memanggil <functionName> fungsi SQL karena sumber data Avro tidak dimuat.
Mulai ulang pekerjaan atau sesi Anda dengan paket 'spark-avro' yang dimuat, seperti dengan menggunakan argumen --packages pada baris perintah, lalu coba lagi kueri atau perintah Anda.
AVRO_POSITIONAL_FIELD_MATCHING_UNSUPPORTED
Penggunaan pencocokan bidang posisi tidak didukung saat rescuedDataColumn atau failOnUnknownFields diaktifkan. Hapus opsi ini untuk melanjutkan.
AZURE_INVALID_CREDENTIALS_CONFIGURATION
Penyedia kunci Azure atau kredensial dikonfigurasi dengan salah. Alasan: <causedBy>.
BATCH_METADATA_NOT_FOUND
Tidak dapat menemukan batch <batchMetadataFile>.
BIGQUERY_DATA_SOURCE_OPTIONS_VALIDATION_FAILED
Validasi opsi sumber data BigQuery gagal.
Untuk detail lebih lanjut, lihat BIGQUERY_DATA_SOURCE_OPTIONS_VALIDATION_FAILED
BIGQUERY_OPTIONS_ARE_MUTUALLY_EXCLUSIVE
Kredensial koneksi BigQuery harus ditentukan dengan parameter 'GoogleServiceAccountKeyJson' atau semua 'projectId', 'OAuthServiceAcctEmail', 'OAuthPvtKey'
BINARY_ARITHMETIC_OVERFLOW
<value1> <symbol> <value2> menyebabkan luapan. Gunakan <functionName> untuk mengabaikan masalah luapan dan mengembalikan NULL.
BUILT_IN_CATALOG
<operation> tidak mendukung katalog bawaan.
CALL_ON_STREAMING_DATASET_UNSUPPORTED
Metode <methodName> tidak dapat dipanggil pada streaming Himpunan Data/DataFrame.
CANNOT_ALTER_COLLATION_BUCKET_COLUMN
ALTER TABLE (ALTER|CHANGE) COLUMN tidak dapat mengubah pengaturan urutan tipe/subtipe kolom penampung, tetapi kolom penampung <columnName> ditemukan dalam tabel <tableName>.
CANNOT_ALTER_PARTITION_COLUMN
ALTER TABLE (ALTER|CHANGE) COLUMN tidak didukung untuk kolom partisi, tetapi menemukan kolom partisi <columnName> dalam tabel <tableName>.
CANNOT_ASSIGN_EVENT_TIME_COLUMN_WITHOUT_WATERMARK
Penanda waktu perlu didefinisikan untuk menetapkan ulang kolom waktu kejadian. Gagal menemukan definisi watermark dalam kueri streaming.
CANNOT_CAST_DATATYPE
Tidak dapat melemparkan <sourceType> ke <targetType>.
CANNOT_CONVERT_PROTOBUF_FIELD_TYPE_TO_SQL_TYPE
Tidak dapat mengonversi Protobuf <protobufColumn> ke SQL <sqlColumn> karena skema tidak kompatibel (protobufType = <protobufType>, sqlType = <sqlType>).
CANNOT_CONVERT_PROTOBUF_MESSAGE_TYPE_TO_SQL_TYPE
Tidak dapat mengonversi <protobufType> Protobuf ke jenis SQL <toType>.
CANNOT_CONVERT_SQL_TYPE_TO_PROTOBUF_FIELD_TYPE
Tidak dapat mengonversi <sqlColumn> SQL ke Protobuf <protobufColumn> karena skema tidak kompatibel (protobufType = <protobufType>, sqlType = <sqlType>).
CANNOT_CONVERT_SQL_VALUE_TO_PROTOBUF_ENUM_TYPE
Tidak dapat mengonversi <sqlColumn> SQL ke protobuf <protobufColumn> karena <data> tidak dalam nilai yang ditentukan untuk enum: <enumString>.
CANNOT_COPY_STATE
Tidak dapat menyalin status katalog seperti database saat ini dan tampilan sementara dari Katalog Unity ke katalog warisan.
CANNOT_CREATE_DATA_SOURCE_TABLE
Gagal membuat tabel sumber data <tableName>:
Untuk informasi lebih lanjut, lihat CANNOT_CREATE_DATA_SOURCE_TABLE
CANNOT_DECODE_URL
URL yang disediakan tidak dapat didekodekan: <url>. Pastikan URL diformat dengan benar dan coba lagi.
CANNOT_DELETE_SYSTEM_OWNED
Sistem yang memiliki <resourceType> tidak dapat dihapus.
CANNOT_DROP_AMBIGUOUS_CONSTRAINT
Tidak dapat menghapus batasan dengan nama <constraintName> yang berbagi dengan batasan CHECK
dan batasan PRIMARY KEY atau FOREIGN KEY. Anda dapat menghilangkan PRIMARY KEY atau
FOREIGN KEY batasan berdasarkan kueri:
ALTER TABLE ..
DROP PRIMARY KEY atau
ALTER TABLE ..
DROP FOREIGN KEY ..
TIDAK_DAPAT_MENGHAPUS_TABEL_INDUK_YANG_DIREFERENSI_OLAHSALINAN_SEMENTARA
Tidak dapat menghilangkan tabel <baseTable> karena dirujuk oleh satu atau beberapa kloning dangkal: <cloneList>.
DROP semua kloning dangkal sebelum menghapus tabel dasar. Jika ini tidak memungkinkan, pertimbangkan untuk menggunakan 'DROP TABLE...FORCE' untuk menghilangkan tabel dengan paksa.
WARNING: Ini akan segera memutus semua referensi kloning dangkal yang ada dan membuatnya tidak dapat digunakan.
CANNOT_ESTABLISH_CONNECTION
Tidak dapat membuat koneksi ke database <jdbcDialectName> jarak jauh. Silakan periksa informasi koneksi dan kredensial misalnya, host, port, pengguna, kata sandi, dan opsi database. Jika Anda yakin informasi tersebut benar, silakan periksa pengaturan jaringan ruang kerja Anda dan pastikan tidak ada batasan keluar yang mencegah akses ke host. Harap juga periksa bahwa host tidak memblokir koneksi masuk dari jaringan tempat kluster Spark di ruang kerja dikerahkan. ** Pesan kesalahan terperinci: <causeErrorMessage>.
CANNOT_ESTABLISH_CONNECTION_SERVERLESS
Tidak dapat membuat koneksi ke database <jdbcDialectName> jarak jauh. Silakan periksa informasi koneksi dan kredensial misalnya, host, port, pengguna, kata sandi, dan opsi database. ** Jika Anda yakin informasi tersebut benar, izinkan lalu lintas masuk dari Internet ke host Anda, karena Anda menggunakan Komputasi Tanpa Server. Jika kebijakan jaringan Anda tidak mengizinkan lalu lintas Internet masuk, silakan gunakan Komputasi Tanpa Server, atau Anda dapat menghubungi perwakilan Databricks Anda untuk mempelajari tentang Jaringan Privat Tanpa Server. ** Pesan kesalahan terperinci: <causeErrorMessage>.
CANNOT_ESTABLISH_CONNECTION_TO_HOST
Tidak dapat membuat <protocol> koneksi ke <host>. Silakan periksa penyiapan jaringan ruang kerja Anda dan pastikan tidak memiliki batasan keluar ke host. Harap periksa juga bahwa host tidak memblokir koneksi masuk dari jaringan tempat kluster ruang kerja disebarkan.
CANNOT_INVOKE_IN_TRANSFORMATIONS
Transformasi dan tindakan himpunan data hanya dapat dipanggil oleh driver, bukan di dalam transformasi Himpunan Data lainnya; misalnya, dataset1.map(x => dataset2.values.count() * x) tidak valid karena transformasi nilai dan tindakan hitungan tidak dapat dilakukan di dalam transformasi dataset1.map. Untuk informasi selengkapnya, lihat SPARK-28702.
CANNOT_LOAD_CHECKPOINT_FILE_MANAGER
Kesalahan saat memuat pengelola berkas titik kontrol streaming untuk path=<path>.
Untuk detail selengkapnya, lihat CANNOT_LOAD_CHECKPOINT_FILE_MANAGER
CANNOT_LOAD_FUNCTION_CLASS
Tidak dapat memuat kelas <className> pada saat mendaftarkan fungsi <functionName>, pastikan ada di classpath.
CANNOT_LOAD_PROTOBUF_CLASS
Tidak dapat memuat kelas Protobuf dengan nama <protobufClassName>.
<explanation>.
CANNOT_LOAD_STATE_STORE
Terjadi kesalahan selama status pemuatan.
Untuk informasi lebih lanjut, lihat CANNOT_LOAD_STATE_STORE
CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE
Gagal menggabungkan jenis data yang tidak kompatibel <left> dan <right>. Silakan periksa jenis data kolom yang digabungkan dan pastikan bahwa kolom tersebut kompatibel. Jika perlu, pertimbangkan untuk mengonversi kolom ke jenis data yang kompatibel sebelum mencoba penggabungan.
CANNOT_MERGE_SCHEMAS
Gagal menggabungkan skema:
Skema awal:
<left>
Skema yang tidak dapat digabungkan dengan skema awal:
<right>.
CANNOT_MODIFY_CONFIG
Tidak dapat mengubah nilai konfigurasi Spark: <key>.
Lihat juga 'https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements'.
CANNOT_MODIFY_STATIC_CONFIG
Tidak dapat mengubah nilai konfigurasi Spark statis: <key>.
CANNOT_PARSE_DECIMAL
Tidak dapat memproses desimal. Pastikan bahwa input adalah angka yang valid dengan titik desimal opsional atau pemisah koma.
CANNOT_PARSE_INTERVAL
Tidak dapat mengurai <intervalString>. Pastikan bahwa nilai yang disediakan dalam format yang valid untuk menentukan interval. Anda dapat merujuk pada dokumentasi untuk format yang benar. Jika masalah berlanjut, silakan periksa kembali apakah nilai input tidak null atau kosong dan coba lagi.
CANNOT_PARSE_JSON_FIELD
Tidak dapat mengurai nama <fieldName> bidang dan nilai <fieldValue> jenis JSON<jsonType> token untuk menargetkan jenis <dataType>data Spark .
CANNOT_PARSE_PROTOBUF_DESCRIPTOR
Kesalahan dalam memparsing byte deskriptor ke dalam FileDescriptorSet Protobuf.
CANNOT_PARSE_TIME
Input <input> tidak dapat diurai menjadi nilai WAKTU karena tidak cocok dengan format <format> tanggalwaktu.
CANNOT_PARSE_TIMESTAMP
<message>. Gunakan <func> untuk mentolerir string input yang tidak valid dan mengembalikan NULL sebagai gantinya.
CANNOT_QUERY_TABLE_DURING_INITIALIZATION
Tidak dapat meminta MV/ST selama inisialisasi.
Untuk detail selengkapnya, lihat CANNOT_QUERY_TABLE_DURING_INITIALIZATION
CANNOT_READ_ARCHIVED_FILE
Tidak dapat membaca file di jalur <path> karena telah diarsipkan. Sesuaikan filter kueri Anda untuk mengecualikan file yang diarsipkan.
CANNOT_READ_FILE
Tidak dapat membaca file <format> di jalur: <path>.
Untuk detail selengkapnya, lihat CANNOT_READ_FILE
CANNOT_READ_SENSITIVE_KEY_FROM_SECURE_PROVIDER
Tidak dapat membaca kunci sensitif '<key>' dari penyedia aman.
CANNOT_RECOGNIZE_HIVE_TYPE
Tidak dapat mengenali string jenis hive: <fieldType>, kolom: <fieldName>. Jenis data yang ditentukan untuk bidang tidak dapat dikenali oleh Spark SQL. Silakan periksa jenis data bidang yang ditentukan dan pastikan bahwa itu adalah jenis data Spark SQL yang valid. Lihat dokumentasi Spark SQL untuk daftar jenis data yang valid dan formatnya. Jika jenis data sudah benar, pastikan Anda menggunakan versi Spark SQL yang didukung.
CANNOT_REFERENCE_UC_IN_HMS
Tidak dapat merujuk pada Katalog Unity <objType> dalam objek Apache Hive Metastore.
CANNOT_REMOVE_RESERVED_PROPERTY
Tidak dapat menghapus properti yang telah dipesan: <property>.
CANNOT_RENAME_ACROSS_CATALOG
Mengganti nama <type> di seluruh katalog tidak diperbolehkan.
CANNOT_RENAME_ACROSS_SCHEMA
Mengganti nama <type> di seluruh skema tidak diperbolehkan.
CANNOT_RESOLVE_DATAFRAME_COLUMN
Tidak dapat menyelesaikan kolom dataframe <name>. Ini mungkin karena referensi ilegal seperti df1.select(df2.col("a")).
CANNOT_RESOLVE_STAR_EXPAND
Tidak dapat menyelesaikan <targetString>.* untuk kolom input yang diberikan <columns>. Silakan periksa apakah tabel atau struktur yang ditentukan ada dan dapat diakses di kolom input.
CANNOT_RESTORE_PERMISSIONS_FOR_PATH
Gagal mengatur izin pada jalur yang sudah dibuat <path> kembali ke <permission>.
CANNOT_SHALLOW_CLONE_ACROSS_UC_AND_HMS
Tidak dapat melakukan penggandaan tabel secara dangkal antara Unity Catalog dan Apache Hive Metastore.
CANNOT_SHALLOW_CLONE_AUTO_TTL
Tidak dapat mengkloning tabel <table> dangkal yang mengaktifkan Auto-TTL.
CANNOT_SHALLOW_CLONE_NESTED
Tidak dapat membuat klon dangkal dari tabel <table> yang sudah merupakan klon dangkal.
CANNOT_SHALLOW_CLONE_NON_UC_MANAGED_TABLE_AS_SOURCE_OR_TARGET
Klon dangkal hanya didukung untuk tipe tabel MANAGED. Tabel <table> bukan tabel MANAGED.
CANNOT_UPDATE_FIELD
Tidak dapat memperbarui bidang <table> tipe <fieldName>:
Untuk detail selengkapnya, lihat CANNOT_UPDATE_FIELD
CANNOT_UPDATE_PARTITION_COLUMNS
Partisi <requestedPartitionColumns> yang dinyatakan bertentangan dengan partisi tabel <existingPartitionColumns> yang ada.
Hapus tabel atau ubah partisi yang dinyatakan agar sesuai dengan partisinya.
CANNOT_UP_CAST_DATATYPE
Tidak dapat mengonversi <expression> dari <sourceType> ke <targetType>.
<details>
CANNOT_USE_KRYO
Tidak dapat memuat codec serialisasi Kryo. Serialisasi Kryo tidak dapat digunakan di klien Spark Connect. Gunakan serialisasi Java, berikan Codec kustom, atau gunakan Spark Classic sebagai gantinya.
CANNOT_USE_MULTI_ALIASES_IN_WATERMARK_CLAUSE
Beberapa alias tidak didukung dalam klausa marka air.
TIDAK_BISA_MENGGUNAKAN_NAMA_PENYEDIA_STREAMING_CADANGAN
Tidak dapat menggunakan nama penyedia streaming yang dipesan: <providerName>.
CANNOT_VALIDATE_CONNECTION
Validasi koneksi <jdbcDialectName> tidak didukung. Silakan hubungi dukungan Databricks untuk solusi alternatif, atau atur "spark.databricks.testConnectionBeforeCreation" ke "false" untuk melewati pengujian koneksi sebelum membuat objek koneksi.
CANNOT_WRITE_STATE_STORE
Kesalahan saat menulis file penyimpanan status untuk penyedia <providerClass>.
Untuk detail selengkapnya, lihat CANNOT_WRITE_STATE_STORE
CAST_INVALID_INPUT
Nilai <expression> dari tipe <sourceType> tidak dapat diubah menjadi <targetType> karena salah format. Koreksi nilai sesuai sintaks, atau ubah jenis targetnya. Gunakan try_cast untuk mentolerir input yang salah bentuk dan mengembalikan NULL sebagai gantinya.
Untuk informasi lebih lanjut, lihat CAST_INVALID_INPUT
CAST_OVERFLOW
Nilai <value> jenis <sourceType> tidak dapat dikonversi ke <targetType> karena overflow. Gunakan try_cast untuk mentolerir luapan dan mengembalikan NULL sebagai gantinya.
CAST_OVERFLOW_IN_TABLE_INSERT
Gagal menetapkan nilai jenis <sourceType> ke sebuah kolom jenis <targetType> atau variabel <columnName> karena kelebihan. Gunakan try_cast pada nilai input untuk mentolerir luapan dan mengembalikan NULL sebagai gantinya.
CATALOG_CONVERSION_FOREIGN_ENTITY_PRESENT
Konversi katalog dari UC Asing ke Standar UC gagal karena katalog berisi entitas asing (hingga 10 ditampilkan di sini): <entityNames>. Untuk melihat daftar lengkap entitas asing dalam katalog ini, silakan lihat skrip dalam dokumentasi perintah 'ALTER CATALOG DROP CONNECTION'.
CATALOG_CONVERSION_UNSUPPORTED_CATALOG_TYPE
Katalog tidak dapat dikonversi dari UC Asing ke Standar UC. Hanya <convertableCatalogTypes> katalog UC Asing yang dapat dikonversi ke Standar UC.
CATALOG_NOT_FOUND
Katalog <catalogName> tidak ditemukan. Pertimbangkan untuk mengatur konfigurasi SQL <config> ke plugin katalog.
CATALOG_OWNED_TABLE_CREATION_NOT_ALLOWED
Membuat tabel Delta dengan tabel fitur <feature> tidak diperbolehkan. Silakan hubungi dukungan Databricks.
CHECKPOINT_DIR_NOT_SET
Direktori titik pemeriksaan belum diatur di SparkContext.
Silakan atur dengan SparkContext.setCheckpointDir().
CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND
Blok titik pemeriksaan <rddBlockId> tidak ditemukan!
Baik eksekutor yang awalnya melakukan checkpoint pada partisi ini sudah tidak aktif, atau RDD asli telah dihapus dari cache.
Jika masalah ini berlanjut, Anda dapat mempertimbangkan untuk menggunakan rdd.checkpoint() sebagai gantinya, yang lebih lambat daripada titik pemeriksaan lokal tetapi lebih toleran terhadap kesalahan.
Pelanggaran Batasan Pemeriksaan
CHECK batasan <constraintName> <expression> dilanggar oleh baris dengan nilai:
<values>
CIRCULAR_CLASS_REFERENCE
Tidak boleh ada referensi melingkar dalam kelas, namun ditemukan referensi melingkar milik kelas <t>.
CLASS_NOT_OVERRIDE_EXPECTED_METHOD
<className> harus mengambil alih <method1> atau <method2>.
CLASS_UNSUPPORTED_BY_MAP_OBJECTS
MapObjects tidak mendukung kelas <cls> sebagai koleksi hasil.
CLEANROOM_COMMANDS_NOT_SUPPORTED
Perintah Clean Room tidak didukung
CLEANROOM_INVALID_SHARED_DATA_OBJECT_NAME
Nama tidak valid untuk mereferensikan <type> di dalam Ruang Bersih. Gunakan nama <type> di dalam ruang bersih dengan format [katalog].[skema].[<type>].
Jika Anda tidak yakin tentang nama apa yang akan digunakan, Anda dapat menjalankan "SHOW ALL IN CLEANROOM [clean_room]" dan menggunakan nilai di kolom "nama".
CLONING_WITH_HISTORY_INVALID_OPTION
Kloning dengan riwayat ditentukan dengan opsi yang tidak valid: <invalidOption>.
Sintaks yang valid: CREATE (ATAU REPLACE) TABLE ... DALAM CLONE...WITH HISTORY.
CLONING_WITH_HISTORY_UNSUPPORTED
Kloning dengan riwayat tidak didukung.
CLOUD_FILE_ALREADY_EXISTS
File cloud sudah ada. Alasan: <causedBy>.
CLOUD_FILE_NOT_FOUND
File cloud tidak ditemukan. Alasan: <causedBy>.
CLOUD_FILE_SOURCE_FILE_NOT_FOUND
Pemberitahuan file diterima untuk file: <filePath> tetapi tidak lagi ada. Pastikan file tidak dihapus sebelum diproses. Untuk melanjutkan streaming, Anda dapat mengatur konfigurasi Spark SQL <config> ke true.
CLOUD_PROVIDER_ERROR
Kesalahan penyedia cloud: <message>
CLUSTERING_COLUMNS_MISMATCH
Pengklusteran yang ditentukan tidak cocok dengan tabel yang ada <tableName>.
Kolom pengklusteran yang ditentukan: [<specifiedClusteringString>].
Kolom pengklusteran yang ada: [<existingClusteringString>].
CLUSTERING_NOT_SUPPORTED
'<operation>' tidak mendukung pengklusteran.
CLUSTER_BY_AUTO_FEATURE_NOT_ENABLED
Silakan hubungi perwakilan Databricks Anda untuk mengaktifkan fitur cluster-by-auto.
CLUSTER_BY_AUTO_REQUIRES_CLUSTERING_FEATURE_ENABLED
Harap aktifkan pengklusteran Table.enableClusteringTableFeature untuk menggunakan CLUSTER BY AUTO.
CLUSTER_BY_AUTO_REQUIRES_PREDICTIVE_OPTIMIZATION
CLUSTER BY AUTO mengharuskan Pengoptimalan Prediktif diaktifkan.
CLUSTER_BY_AUTO_UNSUPPORTED_TABLE_TYPE_ERROR
CLUSTER BY AUTO hanya didukung pada tabel Terkelola UC.
CODEC_NOT_AVAILABLE
<codecName> codec tidak tersedia.
Untuk detail lebih lanjut, lihat CODEC_NOT_AVAILABLE
CODEC_SHORT_NAME_NOT_FOUND
Tidak dapat menemukan nama pendek untuk codec <codecName>.
COLLATION_INVALID_NAME
Nilai <collationName> tidak mewakili nama pengurutan yang benar. Nama pengurutan valid yang disarankan: [<proposals>].
COLLATION_INVALID_PROVIDER
Nilai <provider> tidak mewakili penyedia pengurutan yang benar. Penyedia yang didukung adalah: [<supportedProviders>].
COLLATION_MISMATCH
Tidak dapat menentukan kolatasi mana yang akan digunakan untuk fungsi dan operator string.
Untuk detail selengkapnya, lihat COLLATION_MISMATCH
COLLECTION_SIZE_LIMIT_EXCEEDED
Tidak dapat membuat array dengan <numberOfElements> elemen yang melebihi batas <maxRoundedArrayLength>ukuran array ,
Untuk informasi lebih lanjut, lihat COLLECTION_SIZE_LIMIT_EXCEEDED
COLUMN_ALIASES_NOT_ALLOWED
Alias kolom tidak diperbolehkan dalam <op>.
COLUMN_ALREADY_EXISTS
Kolom <columnName> sudah ada. Pilih nama lain atau ganti nama kolom yang sudah ada.
COLUMN_ARRAY_ELEMENT_TYPE_MISMATCH
Beberapa nilai di bidang <pos> tidak kompatibel dengan jenis array kolom. Tipe yang diharapkan <type>.
COLUMN_MASKS_ABAC_MISMATCH
Masker kolom tidak dapat diselesaikan pada <tableName> karena ada ketidakcocokan antara masker kolom yang diwarisi dari kebijakan dan masker kolom yang ditentukan secara eksplisit. Untuk melanjutkan, nonaktifkan Kontrol Akses Berbasis Atribut (ABAC) dan hubungi dukungan Databricks.
COLUMN_MASKS_CEK_KONSTRAINT_TIDAK_DIDUKUNG
Pembuatan batasan CHECK pada tabel <tableName> dengan kebijakan kolom masker tidak didukung.
COLUMN_MASKS_DUPLIKASI_MENGGUNAKAN_NAMA_KOLOM
Pernyataan <statementType> mencoba menetapkan kebijakan masker kolom ke kolom yang menyertakan dua atau beberapa kolom referensi lainnya dalam daftar USING COLUMNS dengan nama yang sama <columnName>, yang tidak valid.
COLUMN_MASKS_FEATURE_NOT_SUPPORTED
Kebijakan masker kolom untuk <tableName> tidak didukung:
Untuk informasi selengkapnya, lihat COLUMN_MASKS_FEATURE_NOT_SUPPORTED
COLUMN_MASKS_PERUBAHAN_SKEMA_TIDAK_COCOK
Tidak dapat <statementType> <columnName> dari tabel <tableName> karena kolom tersebut dirujuk dalam kebijakan masker kolom untuk kolom <maskedColumn>. Pemilik tabel harus menghapus atau mengubah kebijakan ini sebelum melanjutkan.
COLUMN_MASKS_PENGGABUNGAN_SUMBER_TIDAK_DIDUKUNG
operasi MERGE INTO tidak mendukung kebijakan masker kolom dalam tabel sumber <tableName>.
COLUMN_MASKS_MERGE_TARGET_TIDAK_DIDUKUNG
operasi MERGE INTO tidak dapat mendukung penulisan ke dalam tabel <tableName> dengan kebijakan penyamaran kolom.
COLUMN_MASKS_NAMA_KOLOM_TUJUAN_MULTI_BAGIAN
Pernyataan ini mencoba menetapkan kebijakan masker kolom ke kolom <columnName> yang memiliki beberapa komponen nama, yang tidak valid.
COLUMN_MASKS_BAGIAN_BANYAK_MENGGUNAKAN_NAMA_KOLOM
Pernyataan ini mencoba menetapkan kebijakan masker kolom ke kolom dan daftar USING COLUMNS menyertakan nama <columnName> dengan beberapa bagian nama, yang tidak valid.
COLUMN_MASKS_TIDAK_DIAKTIFKAN
Dukungan untuk menentukan masker kolom tidak diaktifkan
COLUMN_MASKS_REQUIRE_UNITY_CATALOG
Kebijakan masker kolom hanya didukung di Katalog Unity.
COLUMN_MASKS_PEMBUATAN_INDEKS_SEKUNDER_TIDAK_DIDUKUNG
Tidak dapat membuat indeks ON TABLE <tableName> sekunder karena tabel memiliki kebijakan masker kolom yang ditentukan.
COLUMN_MASKS_SHOW_PARTITIONS_TIDAK DIDUKUNG
perintah SHOW PARTITIONS tidak didukung untuk tabel<format> dengan masker kolom.
COLUMN_MASKS_TABEL_SUMBER_KLON_TIDAK_DIDUKUNG
<mode> mengkloning tabel <tableName> dengan kebijakan pemadaman kolom tidak didukung.
COLUMN_MASKS_TARGET_REPLIKA_TABEL_TIDAK_DIDUKUNG
<mode> mengkloning tabel ke <tableName> dengan kebijakan masker kolom tidak didukung.
COLUMN_MASKS_KONSTANTA_TIDAK_DIDUKUNG_SEBAGAI_PARAMETER
Menggunakan konstanta sebagai parameter dalam kebijakan masker kolom tidak didukung. Perbarui perintah SQL Anda untuk menghapus konstanta dari definisi masker kolom lalu coba lagi perintah tersebut.
COLUMN_MASKS_UNSUPPORTED_DATA_TYPE (Tipe Data Tidak Didukung)
Fungsi <functionName> yang digunakan sebagai kebijakan masker kolom berisi parameter dengan jenis <dataType>data yang tidak didukung .
COLUMN_MASKS_PENYEDIA_TIDAK_DIDUKUNG
Gagal menjalankan <statementType> perintah karena menetapkan kebijakan masker kolom tidak didukung untuk sumber data target dengan penyedia tabel: "<provider>".
COLUMN_MASKS_MENGGUNAKAN_NAMA_KOLOM_SAMA_DENGAN_KOLOM_TUJUAN
Kolom <columnName> memiliki nama yang sama dengan kolom target, yang tidak valid; silakan hapus kolom dari daftar USING COLUMNS dan coba lagi perintah .
COLUMN_NOT_DEFINED_IN_TABLE
<colType> kolom <colName> tidak ditentukan dalam tabel <tableName>, kolom tabel yang ditentukan adalah: <tableCols>.
COLUMN_NOT_FOUND
Kolom <colName> tidak dapat ditemukan. Verifikasi ejaan dan kebenaran nama kolom sesuai dengan konfigurasi SQL <caseSensitiveConfig>.
COLUMN_NOT_FOUND_IN_TABLE
Kolom <columnName> tidak ditemukan dalam tabel <tableFullName>.
COLUMN_ORDINAL_OUT_OF_BOUNDS
Urutan kolom di luar batas. Jumlah kolom dalam tabel <attributesLength>, tetapi ordinal kolom <ordinal>.
Atributnya adalah sebagai berikut: <attributes>.
PERINTAH_TIDAK_DIAKTIFKAN
<command> perintah tidak diaktifkan.
COMMA_PRECEDING_CONSTRAINT_ERROR
Tanda ',' tak terduga sebelum definisi batasan. Pastikan bahwa klausa batasan tidak dimulai dengan koma saat kolom (dan ekspektasi) tidak ditentukan.
COMMENT_ON_CONNECTION_NOT_IMPLEMENTED_YET
Perintah COMMENT ON CONNECTION belum diimplementasikan
COMPARATOR_RETURNS_NULL
Komparator telah mengembalikan NULL untuk perbandingan antara <firstValue> dan <secondValue>.
Ini harus mengembalikan bilangan bulat positif untuk "lebih besar dari", 0 untuk "sama" dan bilangan bulat negatif untuk "kurang dari".
Untuk kembali ke perilaku yang tidak digunakan lagi di mana NULL diperlakukan sebagai 0 (sama dengan), Anda harus mengatur "spark.sql.legacy.allowNullComparisonResultInArraySort" ke "true".
COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
Tidak dapat memproses jenis data input untuk ekspresi: <expression>.
Untuk informasi lebih lanjut, lihat COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
CONCURRENT_QUERY
Satu instance lain dari kueri ini [id: <queryId>] baru saja dijalankan oleh sesi yang bersamaan [runId yang ada: <existingQueryRunId> runId baru: <newQueryRunId>].
CONCURRENT_SCHEDULER_INSUFFICIENT_SLOT
Jumlah minimum slot gratis yang diperlukan dalam kluster adalah <numTasks>, namun, kluster hanya memiliki slot <numSlots> gratis. Kueri akan terhenti atau gagal. Tingkatkan ukuran kluster untuk melanjutkan.
CONCURRENT_STREAM_LOG_UPDATE
Pembaruan yang terjadi secara bersamaan pada log. Beberapa tugas streaming terdeteksi untuk <batchId>.
Pastikan hanya satu pekerjaan streaming yang berjalan pada lokasi titik pemeriksaan tertentu pada satu waktu.
CONFIG_NOT_AVAILABLE
Konfigurasi <config> tidak tersedia.
CONFLICTING_CLUSTER_CONFIGURATION
Konfigurasi berikut bertentangan dengan spark.databricks.streaming.realTimeMode.enabled: <confNames>. Hapus konfigurasi ini dari konfigurasi kluster Anda dan mulai ulang kluster Spark Anda.
CONFLICTING_DIRECTORY_STRUCTURES
Struktur direktori yang bertentangan terdeteksi.
Jalur mencurigakan:
<discoveredBasePaths>
Jika jalur yang disediakan adalah direktori partisi, atur "basePath" dalam opsi sumber data untuk menentukan direktori akar tabel.
Jika ada beberapa direktori akar, muat secara terpisah lalu satukan.
CONFLICTING_PARTITION_COLUMN_NAMES
Nama kolom partisi yang berkonflik terdeteksi:
<distinctPartColLists>
Untuk direktori tabel yang dipartisi, file data hanya boleh hidup di direktori daun.
Dan direktori pada tingkat yang sama harus memiliki nama kolom partisi yang sama.
Silakan periksa direktori berikut untuk file tak terduga atau nama kolom partisi yang tidak konsisten:
<suspiciousPaths>
CONFLICTING_PARTITION_COLUMN_NAME_WITH_RESERVED
Nama kolom partisi '<partitionColumnName>' berkonflik dengan nama kolom yang dipesan.
Skema <tableName> tidak kompatibel dengan Hive, Spark secara otomatis menghasilkan kolom khusus '<partitionColumnName>' untuk menyimpan tabel dengan cara tertentu.
Silakan gunakan nama yang berbeda untuk kolom partisi.
CONFLICTING_PROVIDER
Penyedia yang ditentukan <provider> tidak konsisten dengan penyedia katalog yang ada <expectedProvider>. Silakan gunakan 'USING <expectedProvider>' dan coba lagi perintah .
CONFLICTING_SQL_CONFIGURATION
Konfigurasi berikut bertentangan dengan spark.databricks.streaming.realTimeMode.enabled: <confNames>. Hapus konfigurasi ini dari konfigurasi SparkSession Anda.
CONNECT
Kesalahan Umum Spark Connect.
Untuk detail selengkapnya, lihat CONNECT
CONNECTION_ALREADY_EXISTS
Tidak dapat membuat koneksi <connectionName> karena sudah ada.
Pilih nama lain, lepaskan atau ganti koneksi yang ada, atau tambahkan klausa IF NOT EXISTS untuk mentolerir koneksi yang sudah ada sebelumnya.
CONNECTION_NAME_CANNOT_BE_EMPTY
Tidak dapat menjalankan perintah ini karena nama koneksi harus tidak kosong.
CONNECTION_NOT_FOUND
Tidak dapat menjalankan perintah ini karena nama koneksi <connectionName> tidak ditemukan.
CONNECTION_OPTION_NOT_SUPPORTED
Koneksi jenis '<connectionType>' tidak mendukung opsi berikut: <optionsNotSupported>. Opsi yang didukung: <allowedOptions>.
CONNECTION_TYPE_NOT_SUPPORTED
Tidak dapat membuat koneksi tipe '<connectionType>'. Jenis koneksi yang didukung: <allowedTypes>.
JENIS_KONEKSI_TIDAK_DIDUKUNG_UNTUK_INJEKSI_OPSI
Koneksi dengan nama <connectionName> dan jenis <connectionType> tidak didukung dalam opsi dataframe.
TIPE_KONEKSI_TIDAK_DIDUKUNG_UNTUK_FUNGSI_KUERI_JAUH
Koneksi dengan nama '<connectionName>' tipe '<connectionType>' tidak didukung untuk eksekusi fungsi kueri jarak jauh.
CONNECT_INVALID_PLAN
Paket Spark Connect tidak valid.
Untuk detail selengkapnya, lihat CONNECT_INVALID_PLAN
CONNECT_SESSION_MIGRATION
Kesalahan Migrasi Sesi Generik (userId: <userId>, sessionId: <sessionId>, serverSessionId: <serverSessionId>).
Untuk detail selengkapnya, lihat CONNECT_SESSION_MIGRATION
CONSTRAINTS_REQUIRE_UNITY_CATALOG
Batasan tabel hanya didukung di Katalog Unity.
CONSTRAINT_ALREADY_EXISTS
Batasan '<constraintName>' sudah ada. Hapus batasan yang ada terlebih dahulu.
Batasan yang ada:
<oldConstraint>
CONSTRAINT_ALREADY_EXISTS_IN_SCHEMA
Batasan <constraintName> sudah ada dalam database <schemaName>.
CONSTRAINT_ALREADY_EXISTS_WITH_SERVER_MESSAGE
<serverMessage>
CONSTRAINT_DOES_NOT_EXIST
Tidak dapat menghilangkan batasan yang tidak ada <constraintName> dari tabel <tableName>.
CONVERSION_INVALID_INPUT
Nilai <str> (<fmt>) tidak dapat dikonversi ke <targetType> karena salah bentuk. Koreksi nilai sesuai sintaks, atau ubah formatnya. Gunakan <suggestion> untuk mentolerir input yang salah bentuk dan mengembalikan NULL sebagai gantinya.
COPY_INTO_COLUMN_ARITY_MISMATCH
Tidak dapat menulis ke <tableName>, alasannya adalah
Untuk informasi lebih lanjut, lihat COPY_INTO_COLUMN_ARITY_MISMATCH
COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON
Skema tidak valid <scheme>.
COPY INTO kredensial sumber saat ini cuma mendukung s3/s3n/s3a/wasbs/abfss.
COPY_INTO_CREDENTIALS_REQUIRED
COPY INTO kredensial sumber harus menentukan <keyList>.
COPY_INTO_DUPLICATED_FILES_COPY_NOT_ALLOWED
File duplikat dimasukkan dalam operasi bersamaan COPY INTO. Silakan coba lagi nanti.
COPY_INTO_ENCRYPTION_NOT_ALLOWED_ON
Skema tidak valid <scheme>.
COPY INTO enkripsi sumber saat ini hanya mendukung s3/s3n/s3a/abfss.
COPY_INTO_ENCRYPTION_NOT_SUPPORTED_FOR_AZURE
enkripsi COPY INTO hanya mendukung Skema file ADLS Gen2, atau abfss://
COPY_INTO_ENCRYPTION_REQUIRED
COPY INTO enkripsi sumber harus menentukan '<key>'.
COPY_INTO_ENCRYPTION_REQUIRED_WITH_EXPECTED
Opsi enkripsi tidak valid <requiredKey>.
COPY INTO enkripsi sumber harus menentukan '<requiredKey>' = '<keyValue>'.
COPY_INTO_FEATURE_INCOMPATIBLE_SETTING
Fitur COPY INTO '<feature>' tidak kompatibel dengan '<incompatibleSetting>'.
COPY_INTO_NON_BLIND_APPEND_NOT_ALLOWED
COPY INTO selain menambahkan data tidak diizinkan untuk berjalan bersamaan dengan transaksi lain. Silakan coba lagi nanti.
COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED
COPY INTO gagal memuat kondisinya, batas maksimum percobaan ulang terlampaui.
COPY_INTO_SCHEMA_MISMATCH_WITH_TARGET_TABLE
Ketidakcocokan skema terdeteksi saat menyalin ke tabel Delta (Tabel: <table>).
Ini mungkin menunjukkan masalah dengan data masuk, atau skema tabel Delta dapat berevolusi secara otomatis sesuai dengan data masuk dengan mengatur:
COPY_OPTIONS ('mergeSchema' = 'benar')
Perbedaan skema:
<schemaDiff>
COPY_INTO_SOURCE_FILE_FORMAT_NOT_SUPPORTED
Format file sumber harus salah satu CSV, JSON, AVRO, ORC, PARQUET, TEXT, atau BINARYFILE. Menggunakan COPY INTO pada tabel Delta karena sumber tidak didukung karena data duplikat dapat diserap setelah operasi OPTIMIZE. Pemeriksaan ini dapat dinonaktifkan dengan menjalankan perintah SQL set spark.databricks.delta.copyInto.formatCheck.enabled = false.
COPY_INTO_SOURCE_SCHEMA_INFERENCE_FAILED
Direktori sumber tidak berisi file jenis yang dapat diurai <format>. Silakan periksa isi '<source>'.
Kesalahan dapat didiamkan dengan mengatur '<config>' ke 'false'.
COPY_INTO_STATE_INTERNAL_ERROR
Terjadi kesalahan internal saat memproses status COPY INTO.
Untuk informasi lebih lanjut, lihat COPY_INTO_STATE_INTERNAL_ERROR
COPY_INTO_SYNTAX_ERROR
Gagal mengurai perintah COPY INTO.
Untuk informasi lebih lanjut, lihat COPY_INTO_SYNTAX_ERROR
COPY_INTO_UNSUPPORTED_FEATURE
Fitur COPY INTO '<feature>' tidak didukung.
COPY_UNLOAD_FORMAT_TYPE_NOT_SUPPORTED
Tidak dapat memuat keluar data dalam format '<formatType>'. Format yang didukung untuk <connectionType> adalah: <allowedFormats>.
CORRUPTED_CATALOG_FUNCTION
Tidak dapat mengonversi fungsi katalog '<identifier>' menjadi fungsi SQL karena informasi fungsi yang rusak dalam katalog. Jika fungsi ini bukan fungsi SQL, pastikan nama kelas '<className>' dapat dimuat.
CREATE_FOREIGN_SCHEMA_NOT_IMPLEMENTED_YET
Perintah CREATE FOREIGN SCHEMA belum diimplementasikan
CREATE_FOREIGN_TABLE_NOT_IMPLEMENTED_YET
Perintah CREATE FOREIGN TABLE belum diimplementasikan
CREATE_OR_REFRESH_MV_NOT_SUPPORTED
CREATE OR REFRESH MATERIALIZED VIEW tidak didukung. Gunakan CREATE OR REPLACE MATERIALIZED VIEW sebagai gantinya.
CREATE_OR_REFRESH_MV_ST_ASYNC
Tidak dapat CREATE ATAU REFRESH tampilan terwujud atau tabel streaming dengan ASYNC yang ditentukan. Hapus ASYNC dari pernyataan CREATE ATAU REFRESH atau gunakan REFRESH ASYNC untuk me-refresh tampilan materialisasi atau tabel streaming yang ada secara asinkron.
CREATE_PERMANENT_VIEW_WITHOUT_ALIAS
Tidak diizinkan untuk membuat tampilan permanen <name> tanpa secara eksplisit menetapkan alias untuk ekspresi <attr>.
CREATE_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
CREATE TABLE kolom <columnName> menentukan deskriptor "<optionName>" lebih dari sekali, yang tidak valid.
CREATE_VIEW_COLUMN_ARITY_MISMATCH
Tidak dapat membuat tampilan <viewName>, alasannya adalah
Untuk informasi lebih lanjut, lihat CREATE_VIEW_COLUMN_ARITY_MISMATCH
CREDENTIAL_MISSING
Harap berikan kredensial saat membuat atau memperbarui lokasi eksternal.
CREDENTIAL_PURPOSE_MISMATCH
Kredensial <credentialName> memiliki tujuan <actualPurpose> tetapi tujuan yang diberikan dalam perintah adalah <expectedPurpose>.
CSV_ENFORCE_SCHEMA_NOT_SUPPORTED
Opsi CSV enforceSchema tidak dapat diatur saat menggunakan rescuedDataColumn atau failOnUnknownFields, karena kolom dibaca berdasarkan nama, bukan ordinal.
CYCLIC_FUNCTION_REFERENCE
Referensi fungsi siklus terdeteksi: <path>.
DATABRICKS_DELTA_NOT_ENABLED
Databricks Delta tidak diaktifkan di akun Anda.<hints>
DATAFLOW_GRAPH_TIDAK_DITEMUKAN
Grafik aliran data dengan id <graphId> tidak dapat ditemukan
TIPE_DATA_TIDAK_DAPAT_DIPESAN
Jenis <dataType> tidak mendukung operasi yang diurutkan.
DATATYPE_MISMATCH
Tidak dapat mengatasi <sqlExpr> karena ketidakcocokan tipe data:
Untuk detail selengkapnya, lihat DATATYPE_MISMATCH
DATATYPE_MISSING_SIZE
DataType <type> memerlukan parameter panjang, misalnya <type>(10). Tentukan panjangnya.
DATA_LINEAGE_SECURE_VIEW_LEAF_NODE_HAS_NO_RELATION
Penulisan silsilah gagal: tidak ditemukan hubungan yang sesuai dengan kebijakan untuk CLM/RLS.
DATA_SOURCE_ALREADY_EXISTS
Sumber data '<provider>' sudah ada. Pilih nama yang berbeda untuk sumber data baru.
DATA_SOURCE_CONNECTION_MISSING_ALLOW_LIST
Koneksi <connectionName> tidak didukung dalam konteks ini karena tidak memiliki daftar perbolehkan opsi eksternal yang dikonfigurasi. Harap perbarui koneksi untuk menyertakan <optionName>.
DATA_SOURCE_EXTERNAL_ERROR
Terjadi kesalahan saat menyimpan ke sumber data eksternal.
DATA_SOURCE_NOT_EXIST
Sumber data '<provider>' tidak ditemukan. Pastikan sumber data terdaftar.
DATA_SOURCE_NOT_FOUND
Gagal menemukan sumber data: <provider>. Pastikan nama penyedia sudah benar dan paket terdaftar dengan benar dan kompatibel dengan versi Spark Anda.
Opsi Sumber Data Tidak Lolos Validasi
Validasi opsi sumber data <dataSource> gagal.
Untuk informasi lebih lanjut, lihat DATA_SOURCE_OPTIONS_VALIDATION_FAILED
DATA_SOURCE_OPTION_CONTAINS_INVALID_CHARACTERS
Opsi <option> tidak boleh kosong dan tidak boleh berisi karakter, string kueri, atau parameter yang tidak valid.
DATA_SOURCE_OPTION_IS_REQUIRED
Opsi <option> diperlukan.
DATA_SOURCE_OPTION_NOT_ALLOWED_BY_CONNECTION
Opsi <optionName> tidak diperbolehkan oleh koneksi <connectionName> dan tidak dapat disediakan secara eksternal.
Data_Sumber_Opsi_Nilai_Tidak_Sah
Opsi sumber data yang disediakan '<option>' berisi nilai yang tidak valid ('<value>').
Untuk detail selengkapnya, lihat DATA_SOURCE_OPTION_VALUE_NOT_VALID
DATA_SOURCE_SYNTAX_ERROR_DURING_QUERY_EXECUTION
Mesin <dataSourceEngine> sumber data eksternal melemparkan kesalahan sintaksis selama eksekusi kueri '<query>'.
<externalEngineError>.
DATA_SOURCE_TABLE_SCHEMA_MISMATCH
Skema tabel sumber data tidak cocok dengan skema yang diharapkan. Jika Anda menggunakan API DataFrameReader.schema atau membuat tabel, hindari menentukan skema.
Skema Sumber Data: <dsSchema>
Skema yang diharapkan: <expectedSchema>
DATA_SOURCE_URL_NOT_ALLOWED
URL JDBC tidak diizinkan dalam opsi sumber data, tentukan opsi 'host', 'port', dan 'database'.
DATETIME_FIELD_OUT_OF_BOUNDS
<rangeMessage>.
Untuk detail selengkapnya, lihat DATETIME_FIELD_OUT_OF_BOUNDS
DATETIME_OVERFLOW
Luapan operasi tanggalwaktu: <operation>.
DC_API_QUOTA_EXCEEDED
Anda telah melebihi kuota API untuk sumber data <sourceName>.
Untuk detail selengkapnya, silakan lihat DC_API_QUOTA_EXCEEDED
DC_CONNECTION_ERROR
Gagal membuat koneksi ke sumber <sourceName>. Kode kesalahan: <errorCode>.
Untuk detail selengkapnya, lihat DC_CONNECTION_ERROR
DC_DYNAMICS_API_ERROR
Kesalahan terjadi dalam panggilan Dynamics API, errorCode: <errorCode>.
Untuk detail selengkapnya, lihat DC_DYNAMICS_API_ERROR
DC_NETSUITE_ERROR
Kesalahan terjadi dalam panggilan Netsuite JDBC, errorCode: <errorCode>.
Untuk detail selengkapnya, lihat DC_NETSUITE_ERROR
DC_SCHEMA_CHANGE_ERROR
SQLSTATE: tidak ada yang ditetapkan
Perubahan skema telah terjadi dalam tabel <tableName> sumber <sourceName>.
Untuk informasi lebih lanjut, lihat DC_SCHEMA_CHANGE_ERROR
DC_SERVICENOW_API_ERROR
Kesalahan terjadi dalam panggilan SERVICENow API, errorCode: <errorCode>.
Untuk detail selengkapnya, lihat DC_SERVICENOW_API_ERROR
DC_SFDC_BULK_QUERY_JOB_INCOMPLETE
Penyerapan untuk objek <objName> tidak lengkap karena pekerjaan kueri Salesforce API memakan waktu terlalu lama, gagal, atau dibatalkan secara manual.
Untuk mencoba lagi, Anda dapat menjalankan kembali seluruh alur atau menyegarkan tabel tujuan tertentu ini. Jika kesalahan berlanjut, ajukan tiket. ID Pekerjaan: <jobId>. Status pekerjaan: <jobStatus>.
DC_SHAREPOINT_API_ERROR
Kesalahan terjadi dalam panggilan API Sharepoint, errorCode: <errorCode>.
Untuk detail selengkapnya, lihat DC_SHAREPOINT_API_ERROR
DC_SOURCE_API_ERROR
Terjadi kesalahan dalam panggilan API <sourceName>. Jenis API sumber: <apiType>. Kode kesalahan: <errorCode>.
Ini kadang-kadang dapat terjadi ketika Anda telah mencapai <sourceName> batas API. Jika Anda belum melebihi batas API, coba jalankan kembali konektor. Jika masalah berlanjut, silakan ajukan tiket.
DC_UNSUPPORTED_ERROR
Kesalahan yang tidak didukung terjadi di sumber data <sourceName>.
Untuk detail selengkapnya, lihat DC_UNSUPPORTED_ERROR
DC_WORKDAY_RAAS_API_ERROR
Kesalahan terjadi dalam panggilan API RAAS Workday, errorCode: <errorCode>.
Untuk lebih jelasnya, lihat DC_WORKDAY_RAAS_API_ERROR
DECIMAL_PRECISION_EXCEEDS_MAX_PRECISION
Presisi desimal <precision> melebihi presisi maksimum <maxPrecision>.
DEFAULT_DATABASE_NOT_EXISTS
Database default <defaultDatabase> tidak ada, silakan buat terlebih dahulu atau ubah database default ke <defaultDatabase>.
DEFAULT_FILE_NOT_FOUND
Ada kemungkinan file yang mendasar telah diperbarui. Anda dapat secara eksplisit membatalkan cache di Spark dengan menjalankan perintah 'REFRESH TABLE tableName' di SQL atau dengan membuat ulang Himpunan Data/DataFrame yang terlibat. Jika cache disk basi atau file yang mendasar telah dihapus, Anda dapat membatalkan cache disk secara manual dengan memulai ulang kluster.
DEFAULT_PLACEMENT_INVALID
Kata DEFAULT kunci dalam MERGE, INSERT, UPDATEperintah , atau SET VARIABLE tidak dapat langsung ditetapkan ke kolom target karena merupakan bagian dari ekspresi.
Misalnya: UPDATE SET c1 = DEFAULT diizinkan, tetapi UPDATE T SET c1 = DEFAULT + 1 tidak diizinkan.
DEFAULT_UNSUPPORTED
Gagal menjalankan <statementType> perintah karena DEFAULT nilai tidak didukung untuk sumber data target dengan penyedia tabel: "<dataSource>".
DEFINE_FLOW_ONCE_OPTION_NOT_SUPPORTED
Menentukan alur <flowName> satu kali dengan opsi 'sekali' tidak didukung.
DESCRIBE_JSON_NOT_EXTENDED
DESCRIBE TABLE
...
AS JSON hanya didukung ketika [EXTENDED|FORMATTED] ditentukan.
Misalnya: DESCRIBE EXTENDED <tableName> AS JSON didukung tetapi DESCRIBE <tableName> AS JSON tidak.
DIFFERENT_DELTA_TABLE_READ_BY_STREAMING_SOURCE
Kueri streaming dibaca dari tabel Delta yang tidak terduga (id = '<newTableId>').
Dulu digunakan untuk membaca dari tabel Delta lain (id = '<oldTableId>') menurut titik pemeriksaan.
Ini mungkin terjadi ketika Anda mengubah kode untuk membaca dari tabel baru atau Anda menghapus dan
membuat ulang tabel. Harap kembalikan perubahan Anda atau hapus titik pemeriksaan kueri streaming Anda
untuk memulai ulang dari awal.
DISTINCT_WINDOW_FUNCTION_UNSUPPORTED
Fungsi jendela yang berbeda tidak didukung: <windowExpr>.
DIVIDE_BY_ZERO
Pembagian dengan nol. Gunakan try_divide untuk mentolerir pembagi yang bernilai 0 dan mengembalikan NULL. Jika perlu, atur <config> ke "false" untuk melewati kesalahan ini.
Untuk detail selengkapnya, lihat DIVIDE_BY_ZERO
DLT_EXPECTATIONS_NOT_SUPPORTED
Ekspektasi hanya didukung dalam alur Lakeflow Spark Declarative Pipeliness.
DLT_VIEW_CLUSTER_BY_NOT_SUPPORTED
MATERIALIZED VIEW dengan CLUSTER BY klausul hanya didukung dalam alur Lakeflow Spark Declarative Pipeliness.
DLT_VIEW_LOCATION_NOT_SUPPORTED
MATERIALIZED VIEW lokasi hanya didukung di alur Lakeflow Spark Declarative Pipeliness.
DLT_VIEW_SCHEMA_WITH_TYPE_NOT_SUPPORTED
MATERIALIZED VIEW skema dengan jenis tertentu hanya didukung dalam alur Lakeflow Spark Declarative Pipeliness.
TABLE_CONSTRAINTSDLT_VIEW__NOT_SUPPORTED
CONSTRAINT klausa dalam tampilan hanya didukung dalam alur Lakeflow Spark Declarative Pipeliness.
DML_OPERATIONS_NOT_SUPPORTED_FOR_REMOTE_QUERY_FUNCTION
Fungsi kueri jarak jauh tidak mendukung kueri DML.
DROP_COMMAND_TYPE_MISMATCH
Tidak dapat menjatuhkan <metadataType> dengan DROP <commandType>.
Gunakan DROP <metadataTypeUpper> sebagai gantinya.
DROP_SCHEDULE_DOES_NOT_EXIST
Tidak dapat menghapus SCHEDULE pada tabel tanpa jadwal atau pemicu yang telah ada.
DUPLICATED_CTE_NAMES
Definisi CTE tidak dapat memiliki nama duplikat: <duplicateNames>.
DUPLICATED_FIELD_NAME_IN_ARROW_STRUCT
Nama bidang yang duplikat dalam Arrow Struct tidak diizinkan, terdeteksi <fieldNames>.
DUPLICATED_MAP_KEY
Kunci duplikat pada peta <key> ditemukan, mohon periksa data masukan.
Jika Anda ingin menghapus kunci duplikat, Anda dapat mengatur <mapKeyDedupPolicy> ke "LAST_WIN" sehingga kunci yang dimasukkan pada akhirnya lebih diutamakan.
DUPLICATED_METRICS_NAME
Nama metrik tidak unik: <metricName>. Nama yang sama tidak dapat digunakan untuk metrik dengan hasil yang berbeda.
Namun, beberapa instance metrik dengan hasil dan nama yang sama diizinkan (misalnya, gabungan mandiri).
DUPLICATE_ASSIGNMENTS
Kolom atau variabel <nameList> muncul lebih dari sekali sebagai target penugasan.
DUPLICATE_CLAUSES
Ditemukan klausa duplikat: <clauseName>. Tolong, hapus salah satunya.
DUPLICATE_CONDITION_IN_SCOPE
Ditemukan kondisi <condition> duplikat dalam ruang lingkup. Tolong, hapus salah satunya.
DUPLICATE_EXCEPTION_HANDLER
Ditemukan pengendali ganda. Tolong, hapus salah satunya.
Untuk detail selengkapnya, lihat DUPLICATE_EXCEPTION_HANDLER
DUPLICATE_FLOW_SQL_CONF
Ditemukan duplikat SQL conf untuk himpunan data '<datasetName>': '<key>' didefinisikan oleh '<flowName1>' dan '<flowName2>'
DUPLICATE_KEY
Ditemukan kunci duplikat <keyColumn>.
DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
Panggilan ke rutin <routineName> tidak valid karena menyertakan beberapa penetapan argumen ke nama parameter yang sama <parameterName>.
Untuk informasi lebih lanjut, lihat DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
DUPLICATE_ROUTINE_PARAMETER_NAMES
Ditemukan nama duplikat dalam daftar parameter rutinitas yang ditentukan pengguna <routineName>: <names>.
DUPLICATE_ROUTINE_RETURNS_COLUMNS
Ditemukan kolom duplikat dalam daftar kolom klausa RETURNS dari rutin yang ditentukan pengguna <routineName>: <columns>.
NAMA_VARIABEL_DUPLIKAT_DI_DALAM_DECLARE
Ditemukan variabel <variableName> duplikat dalam daftar variabel deklarasikan. Tolong, hapus salah satunya.
EMITTING_ROWS_OLDER_THAN_WATERMARK_NOT_ALLOWED
Simpul sebelumnya mengeluarkan baris dengan eventTime=<emittedRowEventTime> yang lebih lama dari current_watermark_value=<currentWatermark>
Ini dapat menyebabkan masalah akurasi pada operator stateful di bagian hilir dalam pipeline eksekusi.
Silakan koreksi logika pengoperasian untuk mengeluarkan baris setelah nilai penanda batas air global saat ini.
EMPTY_JSON_FIELD_VALUE
Gagal mengurai string kosong untuk jenis data <dataType>.
EMPTY_LOCAL_FILE_IN_STAGING_ACCESS_QUERY
Mengosongkan file lokal dalam pemanggungan kueri <operation>
EMPTY_SCHEMA_NOT_SUPPORTED_FOR_DATASOURCE
Sumber data <format> tidak mendukung penulisan skema kosong atau berlapis kosong. Pastikan skema data memiliki setidaknya satu atau beberapa kolom.
ENCODER_NOT_FOUND
Tidak ditemukan encoder jenis <typeName> ke representasi internal Spark SQL.
Pertimbangkan untuk mengubah jenis input menjadi salah satu jenis yang didukung di '<docroot>/sql-ref-datatypes.html'.
END_LABEL_WITHOUT_BEGIN_LABEL
Label akhir <endLabel> tidak dapat ada tanpa label mulai.
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_LATEST_WITH_TRIGGER_AVAILABLENOW
Beberapa partisi dalam topik Kafka melaporkan offset yang tersedia kurang dari end offset selama menjalankan kueri dengan Trigger.AvailableNow. Kesalahan bisa bersifat sementara - mulai ulang kueri Anda, dan laporkan jika Anda masih melihat masalah yang sama.
offset terbaru: <latestOffset>, offset akhir: <endOffset>
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_PREFETCHED
Untuk sumber data Kafka dengan Trigger.AvailableNow, offset akhir harus memiliki offset yang lebih rendah atau sama untuk setiap topik partisi daripada offset yang diambil terlebih dahulu. Kesalahan bisa bersifat sementara - mulai ulang kueri Anda, dan laporkan jika Anda masih melihat masalah yang sama.
offset yang diambil sebelumnya: <prefetchedOffset>, offset akhir: <endOffset>.
ERROR_READING_AVRO_UNKNOWN_FINGERPRINT
Kesalahan saat membaca data avro -- mengalami sidik jari yang tidak diketahui: <fingerprint>, tidak yakin skema apa yang akan digunakan.
Ini bisa terjadi jika Anda mendaftarkan skema tambahan setelah memulai konteks spark Anda.
EVENT_LOG_EMPTY
Log peristiwa untuk <tableOrPipeline> tidak memiliki skema dan tidak berisi peristiwa. Coba lagi nanti setelah acara dihasilkan
EVENT_LOG_REQUIRES_SHARED_COMPUTE
Tidak dapat mendapatkan log peristiwa dari kluster Bersama yang Ditetapkan atau Tanpa Isolasi, silakan gunakan kluster Bersama atau gudang Databricks SQL sebagai gantinya.
EVENT_LOG_TVF_UNSUPPORTED_FOR_PIPELINE
Fungsi EVENT_LOG Table-Valued tidak didukung untuk alur kerja yang menggunakan bidang 'skema' atau alur kerja yang dipublikasikan ke penyimpanan default.
Untuk mengkueri log peristiwa, terbitkan ke metastore dengan menentukan bidang event_log di pengaturan alur.
Untuk informasi selengkapnya, lihat dokumentasi alur Monitor Lakeflow Spark Declarative Pipeliness: https://docs.databricks.com/aws/en/delta-live-tables/observability
EVENT_LOG_UNAVAILABLE
Tidak ada log peristiwa yang tersedia untuk <tableOrPipeline>. Silakan coba lagi nanti setelah event selesai dibuat
EVENT_LOG_UNSUPPORTED_TABLE_TYPE
Jenis tabel <tableIdentifier> adalah <tableType>.
Mengkueri log peristiwa hanya mendukung tampilan materialisasi, tabel streaming, atau alur Lakeflow Spark Declarative Pipeliness
EVENT_TIME_IS_NOT_ON_TIMESTAMP_TYPE
Waktu <eventName> peristiwa memiliki jenis <eventType> yang tidak valid, tetapi diharapkan "TIMESTAMP".
EXCEED_LIMIT_LENGTH
Melebihi batasan panjang jenis char/varchar: <limit>.
SUMBER_DATA_EXCEL_TIDAK_DIAKTIFKAN
Sumber data Excel tidak diaktifkan dalam kluster ini.
EXCEL_FILE_ERROR
Kesalahan saat memproses file Excel '<filePath>'.
Untuk detail selengkapnya, lihat EXCEL_FILE_ERROR
EXCEL_INVALID_READ_OPTION_VALUE
Nilai opsi baca tidak valid untuk sumber data Excel.
Untuk detail selengkapnya, lihat EXCEL_INVALID_READ_OPTION_VALUE
EXCEL_INVALID_WRITE_OPTION_VALUE
Sumber data Excel tidak mendukung nilai '<value>' untuk opsi tulis '<option>'.
Untuk detail selengkapnya, lihat EXCEL_INVALID_WRITE_OPTION_VALUE
SKEMA_TULIS_TIDAK_VALID_EXCEL
Sumber data Excel tidak mendukung skema '<schema>' untuk penulisan.
<hint>
EXCEL_PARSING_ERROR
Kesalahan saat mengurai data Excel.
Untuk detail selengkapnya, lihat EXCEL_PARSING_ERROR
EXCEL_UNSUPPORTED_WRITE_OPTION (Opsi penulisan tidak didukung di Excel)
Sumber data Excel tidak mendukung opsi tulis '<option>'.
<hint>
EXCEPT_NESTED_COLUMN_INVALID_TYPE
EXCEPT kolom <columnName> telah diidentifikasi dan seharusnya adalah StructType, tetapi ditemukan <dataType>.
EXCEPT_OVERLAPPING_COLUMNS
Kolom dalam daftar EXCEPT harus berbeda dan tidak tumpang tindih, tetapi mendapatkan (<columns>).
EXCEPT_RESOLVED_COLUMNS_WITHOUT_MATCH
EXCEPT kolom [<exceptColumns>] diselesaikan, tetapi tidak cocok dengan salah satu kolom [<expandedColumns>] dari ekspansi bintang.
EXCEPT_UNRESOLVED_COLUMN_IN_STRUCT_EXPANSION
Nama kolom/bidang <objectName> dalam klausa EXCEPT tidak dapat diselesaikan. Apakah Anda maksud salah satu dari yang berikut ini: [<objectList>]?
Catatan: kolom bersarang dalam klausul EXCEPT tidak boleh menyertakan penentu (nama tabel, nama kolom struct induk, dll.) selama ekspansi struct; coba hapus penentu jika digunakan dengan kolom bersarang.
EXECUTOR_DISK_OUT_OF_SPACE
Disk pelaksana kehabisan ruang. Tingkatkan kapasitas disk jika tersedia. Jika Anda menggunakan Tanpa Server, silakan hubungi tim dukungan kami.
EXEC_IMMEDIATE_DUPLICATE_ARGUMENT_ALIASES
Klausa USING perintah EXECUTE IMMEDIATE ini berisi beberapa argumen dengan alias yang sama (<aliases>), yang tidak valid; harap perbarui perintah untuk menentukan alias unik lalu coba lagi.
EXPECT_PERMANENT_TABLE_NOT_TEMP
'<operation>' mengharapkan tabel permanen tetapi <tableName> merupakan tabel sementara. Tentukan tabel permanen sebagai gantinya.
EXPECT_PERMANENT_VIEW_NOT_TEMP
'<operation>' mengharapkan tampilan permanen tetapi <viewName> merupakan tampilan sementara.
EXPECT_TABLE_NOT_VIEW
'<operation>' mengharapkan tabel tetapi <viewName> merupakan tampilan.
Untuk detail selengkapnya, lihat EXPECT_TABLE_NOT_VIEW
EXPECT_VIEW_NOT_TABLE
Tabel <tableName> tidak mendukung <operation>.
Untuk informasi lebih lanjut, lihat EXPECT_VIEW_NOT_TABLE
EXPRESSION_DECODING_FAILED
Gagal mendekode baris ke nilai ekspresi: <expressions>.
EXPRESSION_ENCODING_FAILED
Gagal mengodekan nilai ekspresi: <expressions> ke baris.
EXPRESSION_TRANSLATION_TO_V2_IS_NOT_SUPPORTED
Ekspresi <expr> tidak dapat diterjemahkan ke ekspresi v2.
EXPRESSION_TYPE_IS_NOT_ORDERABLE
Ekspresi kolom <expr> tidak dapat diurutkan karena jenisnya <exprType> tidak dapat diurutkan.
EXTERNAL_METASTORE_CLIENT_ERROR
Operasi klien gagal:
Untuk detail selengkapnya, lihat EXTERNAL_METASTORE_CLIENT_ERROR
EXTERNAL_SHALLOW_CLONE_STILL_EXISTS
Gagal menjalankan operasi pada tabel <sourceTable> sumber karena kloning <targetTable> dangkal masih ada dan statusnya tidak valid. Jika Anda memang ingin melanjutkan operasi ini, silakan bersihkan kloning dangkal dengan menjalankan perintah DROP secara eksplisit.
EXTERNAL_TABLE_INVALID_SCHEME
Tabel eksternal tidak mendukung <scheme> skema.
FABRIC_REFRESH_INVALID_SCOPE
Kesalahan menjalankan 'REFRESH FOREIGN <scope> <name>'. Tidak dapat memperbarui Fabric <scope> secara langsung, silakan gunakan 'REFRESH FOREIGN CATALOG <catalogName>' untuk memperbarui Katalog Fabric sebagai penggantinya.
FAILED_EXECUTE_UDF
Fungsi yang ditentukan pengguna (<functionName>: (<signature>) => <result>) gagal karena: <reason>.
FAILED_FUNCTION_CALL
Gagal menyiapkan fungsi <funcName> untuk panggilan. Silakan, periksa kembali argumen fungsi.
FAILED_JDBC
Operasi JDBC <url> gagal.
Untuk detail selengkapnya, lihat FAILED_JDBC
FAILED_PARSE_STRUCT_TYPE
Gagal menguraikan struktur: <raw>.
FAILED_READ_FILE
Kesalahan saat membaca file <path>.
Untuk detail selengkapnya, lihat FAILED_READ_FILE
FAILED_REGISTER_CLASS_WITH_KRYO
Gagal mendaftar kelas dengan Kryo.
FAILED_RENAME_PATH
Gagal mengganti nama <sourcePath> menjadi <targetPath> karena tujuan sudah ada.
FAILED_RENAME_TEMP_FILE
Gagal mengganti nama file sementara <srcPath> menjadi <dstPath> karena FileSystem.rename mengembalikan nilai salah.
FAILED_ROW_TO_JSON
Gagal mengonversi nilai <value> baris kelas <class> ke jenis <sqlType> SQL target dalam JSON format .
FAILED_TO_CREATE_PLAN_FOR_DIRECT_QUERY
Gagal membuat rencana untuk kueri langsung pada file: <dataSourceType>
FAILED_TO_LOAD_ROUTINE
Gagal memuat rutin <routineName>.
FAILED_TO_PARSE_TOO_COMPLEX
Pernyataan, termasuk fungsi SQL potensial dan tampilan yang dirujuk, terlalu kompleks untuk diurai.
Untuk mengurangi kesalahan ini, bagi pernyataan menjadi beberapa gugus yang kurang kompleks.
FEATURE_NOT_ENABLED
Fitur <featureName> tidak diaktifkan. Pertimbangkan untuk mengatur konfigurasi <configKey> ke <configValue> untuk mengaktifkan kemampuan ini.
FEATURE_NOT_ON_CLASSIC_WAREHOUSE
<feature> tidak didukung di gudang SQL Klasik. Untuk menggunakan fitur ini, gunakan gudang SQL Pro atau Tanpa Server.
FEATURE_REQUIRES_UC
<feature> tidak didukung tanpa Katalog Unity. Untuk menggunakan fitur ini, aktifkan Katalog Unity.
FEATURE_UNAVAILABLE
<feature> tidak didukung di lingkungan Anda. Untuk menggunakan fitur ini, silakan hubungi Dukungan Databricks.
FETCH_FAILED
Tugas gagal saat mengambil data atau metadata acak: <errorString>.
(Note: Placeholder for improved translation based on expanded context or guidelines, if context suggests this string is visible and requires explanation. If unchanged, see below.) FGAC_ON_DEDICATED_COMPUTE_FAILED
Kontrol akses terperinci (FGAC) pada komputasi khusus gagal karena pengecualian berikut: <message>
FIELD_ALREADY_EXISTS
Tidak dapat membuat kolom <op>, karena <fieldNames> sudah ada di dalam <struct>.
FIELD_NOT_FOUND
Tidak ada bidang struktur seperti <fieldName> di <fields>.
FILE_IN_STAGING_PATH_ALREADY_EXISTS
File di jalur sementara <path> sudah ada tetapi OVERWRITE belum disetel
FLATMAPGROUPSWITHSTATE_USER_FUNCTION_ERROR
Kesalahan terjadi pada fungsi yang disediakan pengguna di flatMapGroupsWithState. Alasan: <reason>
FORBIDDEN_DATASOURCE_IN_SERVERLESS
Mengkueri sumber data <source> dalam komputasi tanpa server tidak diperbolehkan. Hanya sumber data tipe <allowlist> yang didukung dalam komputasi serverless.
KATA_KUNCI_TERLARANG_DALAM_KUERIS_JDBC
Opsi <queryOption> kueri tidak boleh berisi kata kunci terlarang. Hapus kata kunci berikut dari kueri: <keywords>
FORBIDDEN_OPERATION
Operasi <statement> tidak diizinkan pada <objectType>: <objectName>.
FOREACH_BATCH_USER_FUNCTION_ERROR
Terjadi kesalahan pada fungsi yang disediakan oleh pengguna dalam foreach batch sink. Alasan: <reason>
FOREACH_USER_FUNCTION_ERROR
Terjadi kesalahan pada fungsi yang disediakan pengguna di sink foreach. Alasan: <reason>
FOREIGN_KEY_MISMATCH
Kolom induk kunci asing <parentColumns> tidak cocok dengan kolom anak kunci utama <childColumns>.
FOREIGN_OBJECT_NAME_CANNOT_BE_EMPTY
Tidak dapat menjalankan perintah ini karena nama <objectType> asing tidak boleh kosong.
FOREIGN_TABLE_CONVERSION_UNSUPPORTED
Tabel tidak memenuhi syarat untuk peningkatan dari UC Asing ke UC Eksternal. Reason:
Untuk informasi lebih lanjut, lihat FOREIGN_TABLE_CONVERSION_UNSUPPORTED
FOREIGN_VIEW_CONVERSION_UNSUPPORTED
Objek <objectName> tidak memenuhi syarat untuk konversi ke tampilan Terkelola UC. Reason:
Untuk detail selengkapnya, lihat FOREIGN_VIEW_CONVERSION_UNSUPPORTED
FROM_JSON_CONFLICTING_SCHEMA_UPDATES
inferensi from_json mengalami pembaruan skema yang bertentangan di: <location>
FROM_JSON_CORRUPT_RECORD_COLUMN_IN_SCHEMA
from_json menemukan columnNameOfCorruptRecord (<columnNameOfCorruptRecord>) sudah ada
dalam objek JSON dan tidak dapat lagi melanjutkan. Harap konfigurasikan nilai yang berbeda untuk
opsi 'columnNameOfCorruptRecord'.
FROM_JSON_CORRUPT_SCHEMA
inferensi from_json tidak dapat membaca skema yang disimpan di: <location>
FROM_JSON_INFERENCE_FAILED
from_json tidak dapat menyimpulkan skema. Tolong berikan satu sebagai gantinya.
FROM_JSON_INFERENCE_NOT_SUPPORTED
inferensi from_json hanya didukung saat menentukan tabel streaming
FROM_JSON_INVALID_CONFIGURATION
Konfigurasi from_json tidak valid.
Untuk informasi lebih lanjut, lihat FROM_JSON_INVALID_CONFIGURATION
FROM_JSON_SCHEMA_EVOLUTION_FAILED
from_json tidak dapat berkembang dari <old> ke <new>
FUNCTION_PARAMETERS_MUST_BE_NAMED
Fungsi <function> memerlukan parameter bernama. Nama parameter yang hilang: <exprs>. Harap perbarui panggilan fungsi untuk menambahkan nama untuk semua parameter, misalnya, <function>(param_name => ...).
GENERATED_COLUMN_WITH_DEFAULT_VALUE
Kolom tidak dapat memiliki nilai default dan ekspresi pembuatan tetapi kolom <colName> memiliki nilai default: (<defaultValue>) dan ekspresi pembuatan: (<genExpr>).
GET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION
Apache Hive 2.2 dan versi yang lebih rendah tidak mendukung getTablesByType. Silakan gunakan Apache Hive 2.3 atau versi yang lebih tinggi.
GET_WARMUP_TRACING_FAILED
Gagal mendapatkan jejak pemanasan. Penyebab: <cause>.
GET_WARMUP_TRACING_FUNCTION_NOT_ALLOWED
Fungsi get_warmup_tracing() tidak diizinkan.
GRAPHITE_SINK_INVALID_PROTOCOL
Protokol Graphite tidak valid: <protocol>.
GRAPHITE_SINK_PROPERTY_MISSING
Wastafel grafit membutuhkan properti '<property>'.
GROUPING_COLUMN_MISMATCH
Kolom pengelompokan (<grouping>) tidak dapat ditemukan di kolom pengelompokan <groupingColumns>.
GROUPING_ID_COLUMN_MISMATCH
Kolom grouping_id (<groupingIdColumn>) tidak cocok dengan kolom pengelompokan (<groupByColumns>).
GROUPING_SIZE_LIMIT_EXCEEDED
Ukuran pengelompokan set tidak boleh lebih besar dari <maxSize>.
GROUP_BY_AGGREGATE
Fungsi agregat tidak diizinkan dalam GROUP BY, tetapi ditemukan <sqlExpr>.
Untuk detail selengkapnya, lihat GROUP_BY_AGGREGATE
GROUP_BY_POS_AGGREGATE
GROUP BY <index> mengacu pada ekspresi <aggExpr> yang berisi fungsi agregat. Fungsi agregat tidak diperbolehkan dalam GROUP BY.
GROUP_BY_POS_OUT_OF_RANGE
GROUP BY posisi <index> tidak ada dalam daftar pilih (rentang yang valid adalah [1, <size>]).
GROUP_EXPRESSION_TYPE_IS_NOT_ORDERABLE
Ekspresi <sqlExpr> tidak dapat digunakan sebagai ekspresi pengelompokan karena jenis datanya <dataType> bukan tipe data yang dapat diurutkan.
HDFS_HTTP_ERROR
Saat mencoba membaca dari HDFS, permintaan HTTP gagal.
Untuk detail selengkapnya, lihat HDFS_HTTP_ERROR
HINT_UNSUPPORTED_FOR_JDBC_DIALECT
Opsi hint ini tidak didukung untuk <jdbcDialect> di sumber data JDBC. Dialek yang didukung adalah MySQLDialect, OracleDialect dan DatabricksDialect.
HIVE_METASTORE_INVALID_PLACEHOLDER_PATH
Kueri atau perintah gagal dijalankan karena konfigurasi 'spark.databricks.hive.metastore.tablePlaceholderPath' menyediakan jalur tempat penampung tabel Apache Hive Metastore yang tidak valid. Harap perbarui konfigurasi ini dengan nilai baru untuk menyediakan jalur yang valid lalu jalankan kembali kueri atau perintah lagi.
HIVE_METASTORE_TABLE_PLACEHOLDER_PATH_NOT_SET
Kueri atau perintah gagal karena jalur tempat penampung tabel Apache Hive Metastore tidak diatur, yang diperlukan saat lokasi skema berada di DBFS, dan lokasi tabel adalah objek/file. Atur spark.databricks.hive.metastore.tablePlaceholderPath ke jalur yang dapat Anda akses lalu jalankan kembali kueri atau perintah lagi.
HLL_INVALID_INPUT_SKETCH_BUFFER
Panggilan ke <function>tidak valid; hanya buffer sketsa HLL yang valid yang didukung sebagai input (seperti yang dihasilkan oleh fungsi hll_sketch_agg).
HLL_INVALID_LG_K
Panggilan ke <function>tidak valid; nilai lgConfigK harus antara <min> dan <max>, inklusif: <value>.
HLL_K_MUST_BE_CONSTANT
Panggilan tidak valid ke <function>; K nilai harus berupa nilai konstanta, tetapi mendapat ekspresi non-konstanta.
HLL_UNION_DIFFERENT_LG_K
Sketsa memiliki nilai lgConfigK yang berbeda: <left> dan <right>. Atur parameter allowDifferentLgConfigK ke true untuk memanggil <function> dengan nilai lgConfigK yang berbeda.
HMS_FEDERATION_SHALLOW_CLONE_NOT_FOUND_IN_UC
Jalur kloning dangkal '<path>' tidak dapat dipecahkan menjadi tabel di Katalog Unity. Pastikan tabel ada dan digabungkan ke Katalog Unity.
HYBRID_ANALYZER_EXCEPTION
Kesalahan terjadi saat mencoba menyelesaikan kueri atau perintah dengan penganalisis titik tetap tradisional serta pemecah satu langkah.
Untuk informasi lebih lanjut, lihat HYBRID_ANALYZER_EXCEPTION
IDENTIFIER_TOO_MANY_NAME_PARTS
<identifier> bukan pengidentifikasi yang valid karena memiliki lebih dari <limit> bagian nama.
IDENTITY_COLUMNS_DUPLICATED_SEQUENCE_GENERATOR_OPTION
Opsi generator urutan kolom duplikat IDENTITY: <sequenceGeneratorOption>.
IDENTITY_COLUMNS_ILLEGAL_STEP
IDENTITY langkah kolom tidak boleh bernilai 0.
IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE
DataType <dataType> tidak didukung untuk kolom IDENTITY.
ILLEGAL_DAY_OF_WEEK
Input tidak sah untuk hari dalam seminggu: <string>.
ILLEGAL_STATE_STORE_VALUE
Nilai ilegal yang diberikan ke Toko Status
Untuk informasi lebih lanjut, lihat ILLEGAL_STATE_STORE_VALUE
INAPPROPRIATE_URI_SCHEME_OF_CONNECTION_OPTION
Koneksi tidak dapat dibuat karena skema URI <uri> yang tidak pantas yang disediakan untuk opsi koneksi '<option>'.
Skema yang diizinkan: <allowedSchemes>.
Tambahkan skema jika tidak ada di URI, atau tentukan skema dari nilai yang diizinkan.
INCOMPARABLE_PIVOT_COLUMN
Kolom pivot tidak valid <columnName>. Kolom pivot harus dapat diperbandingkan.
BACA_TAMPILAN_BATCH_TIDAK_KOMPATIBEL
Tampilan <datasetIdentifier> adalah tampilan batch dan harus direferensikan menggunakan SparkSession#read. Pemeriksaan ini dapat dinonaktifkan dengan mengatur Spark conf pipelines.incompatibleViewCheck.enabled = false.
INCOMPATIBLE_COLUMN_TYPE
<operator> hanya dapat dilakukan pada tabel dengan jenis kolom yang kompatibel. Kolom <columnOrdinalNumber> dari tabel <tableOrdinalNumber> adalah tipe <dataType1> yang tidak kompatibel dengan <dataType2> pada kolom yang sama dari tabel pertama.<hint>.
INCOMPATIBLE_DATASOURCE_REGISTER
Mendeteksi DataSourceRegister yang tidak kompatibel. Silakan hapus pustaka yang tidak kompatibel dari classpath atau tingkatkan pustaka tersebut. Kesalahan: <message>
INCOMPATIBLE_DATA_FOR_TABLE
Tidak dapat menulis data yang tidak kompatibel untuk tabel <tableName>:
Untuk informasi lebih lanjut, lihat INCOMPATIBLE_DATA_FOR_TABLE
INCOMPATIBLE_JOIN_TYPES
Jenis gabungan <joinType1> dan <joinType2> tidak kompatibel.
Pembacaan Tampilan Streaming Tidak Kompatibel
Tampilan <datasetIdentifier> adalah tampilan streaming dan harus direferensikan menggunakan SparkSession#readStream. Pemeriksaan ini dapat dinonaktifkan dengan mengatur Spark conf pipelines.incompatibleViewCheck.enabled = false.
INCOMPATIBLE_VIEW_SCHEMA_CHANGE
Kueri tampilan SQL <viewName> mengalami perubahan skema yang tidak kompatibel dan kolom <colName> tidak dapat diselesaikan. Kolom <expectedNum> yang diharapkan memiliki nama <colName> tetapi mendapatkan <actualCols>.
Silakan coba buat ulang tampilan dengan menjalankan: <suggestion>.
INCOMPLETE_TYPE_DEFINITION
Jenis kompleks yang tidak lengkap:
Untuk detail selengkapnya, lihat INCOMPLETE_TYPE_DEFINITION
INCONSISTENT_BEHAVIOR_CROSS_VERSION
Anda mungkin mendapatkan hasil yang berbeda karena pembaruan ke
Untuk informasi lebih lanjut, lihat INCONSISTENT_BEHAVIOR_CROSS_VERSION
INCORRECT_NUMBER_OF_ARGUMENTS
<failure>, <functionName> membutuhkan setidaknya <minArgs> argumen dan paling banyak <maxArgs> argumen.
INCORRECT_RAMP_UP_RATE
Offset maksimum dengan <rowsPerSecond> rowsPerSecond adalah <maxSeconds>, namun 'rampUpTimeSeconds' adalah <rampUpTimeSeconds>.
INDETERMINATE_COLLATION
Tidak dapat menentukan kolatasi mana yang akan digunakan untuk operasi string. Gunakan klausa COLLATE untuk mengatur kolase secara eksplisit.
INDETERMINATE_COLLATION_IN_EXPRESSION
Jenis data <expr> memiliki kolaterasi yang tidak ditentukan. Gunakan klausa COLLATE untuk mengatur kolase secara eksplisit.
INDETERMINATE_COLLATION_IN_SCHEMA
Skema mengandung pengurutan yang tidak ditentukan di: [<columnPaths>]. Gunakan klausa COLLATE untuk mengatur kolase secara eksplisit.
INDEX_ALREADY_EXISTS
Tidak dapat membuat indeks <indexName> pada tabel <tableName> karena sudah ada.
INDEX_NOT_FOUND
Tidak dapat menemukan indeks <indexName> pada tabel <tableName>.
INET_FUNCTIONS_NOT_ENABLED
<functionName> dinonaktifkan atau tidak didukung. Fungsi INET belum tersedia untuk umum.
INFINITE_STREAMING_TRIGGER_NOT_SUPPORTED
Jenis pemicu <trigger> tidak didukung untuk jenis kluster ini.
Gunakan jenis pemicu yang berbeda misalnya, AvailableNow, Once.
INSERT_COLUMN_ARITY_MISMATCH
Tidak dapat menulis ke <tableName>, alasannya adalah
Untuk informasi lebih lanjut, lihat INSERT_COLUMN_ARITY_MISMATCH
INSERT_PARTITION_COLUMN_ARITY_MISMATCH
Tidak dapat menulis ke '<tableName>', <reason>:
Kolom tabel: <tableColumns>.
Kolom partisi dengan nilai statis: <staticPartCols>.
Kolom data: <dataColumns>.
INSERT_REPLACE_USING_DISALLOW_MISALIGNED_COLUMNS
Semua kolom dalam USING klausa harus muncul dalam posisi yang sama dalam skema target dan sumber.
USING klausa yang berisi kolom yang tidak sejajar tidak didukung.
Kolom berikut tidak sejajar: <misalignedReplaceUsingCols>
INSERT_REPLACE_USING_INVALID_SET_OF_COLUMNS
Tabel harus dipartisi dan semua kolom yang ditentukan harus mewakili kumpulan lengkap kolom partisi tabel.
Kolom berikut bukan kolom partisi: <nonPartitionColumns>
Kolom partisi berikut hilang: <missingPartitionsColumns>
INSERT_REPLACE_USING_NOT_ENABLED
Silakan hubungi perwakilan Databricks Anda untuk mengaktifkan INSERT INTO...REPLACE USING fitur (...).
INSUFFICIENT_PERMISSIONS
Hak istimewa tidak memadai:
<report>
INSUFFICIENT_PERMISSIONS_EXT_LOC
Pengguna <user> memiliki hak istimewa yang tidak memadai untuk lokasi eksternal <location>.
INSUFFICIENT_PERMISSIONS_NO_OWNER
Tidak ada pemilik untuk <securableName>. Minta administrator Anda untuk menetapkan pemilik.
INSUFFICIENT_PERMISSIONS_OWNERSHIP_SECURABLE
Pengguna tidak memiliki <securableName>.
INSUFFICIENT_PERMISSIONS_SECURABLE
Pengguna tidak memiliki izin <action> pada <securableName>.
INSUFFICIENT_PERMISSIONS_SECURABLE_PARENT_OWNER
Pemilik <securableName> berbeda dari pemilik <parentSecurableName>.
INSUFFICIENT_PERMISSIONS_SPARK_CONNECT_CLIENT_SET_CLOUDFETCH_RETENTION_TIMEOUT
Klien tidak memiliki izin untuk mengatur batas waktu retensi kustom untuk hasil CloudFetch.
INSUFFICIENT_PERMISSIONS_STORAGE_CRED
Kredensial penyimpanan <credentialName> memiliki hak istimewa yang tidak memadai.
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES
Pengguna tidak dapat <action> pada <securableName> karena izin pada objek keamanan.
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES_VERBOSE
Pengguna tidak dapat <action> pada <securableName> karena izin pada elemen keamanan yang mendasar:
<underlyingReport>
INTERVAL_ARITHMETIC_OVERFLOW
Kelebihan kapasitas bilangan bulat saat beroperasi dengan interval.
Untuk detail lebih lanjut, lihat INTERVAL_ARITHMETIC_OVERFLOW
INTERVAL_DIVIDED_BY_ZERO
Pembagian dengan nol. Gunakan try_divide untuk mentolerir pembagi yang bernilai 0 dan mengembalikan NULL.
INVALID_AGGREGATE_FILTER
Ekspresi FILTER<filterExpr> dalam fungsi agregat tidak valid.
Untuk informasi lebih lanjut, lihat INVALID_AGGREGATE_FILTER
INVALID_AGNOSTIC_ENCODER
Menemukan encoder agnostik yang tidak valid. Mengharapkan instans AgnosticEncoder tetapi mendapatkan <encoderType>. Untuk informasi selengkapnya, lihat '<docroot>/api/java/index.html?org/apache/spark/sql/Encoder.html'.
INVALID_ARRAY_INDEX
Indeks <indexValue> berada di luar batas. Array memiliki elemen <arraySize>. Gunakan fungsi SQL get() untuk mentolerir akses elemen pada indeks yang tidak valid dan mengembalikan NULL sebagai gantinya.
Untuk detail selengkapnya, lihat INVALID_ARRAY_INDEX
INVALID_ARRAY_INDEX_IN_ELEMENT_AT
Indeks <indexValue> berada di luar batas. Array memiliki elemen <arraySize>. Gunakan try_element_at untuk mentolerir akses elemen pada indeks yang tidak valid dan mengembalikan NULL sebagai gantinya.
Untuk detail selengkapnya, lihat INVALID_ARRAY_INDEX_IN_ELEMENT_AT
INVALID_ARTIFACT_PATH
Artefak dengan nama <name> tidak valid. Nama harus merupakan jalur relatif dan tidak dapat mereferensikan direktori induk/saudara/keponakan.
INVALID_ATTRIBUTE_NAME_SYNTAX
Kesalahan sintaks dalam nama atribut: <name>. Pastikan bahwa backtick muncul berpasangan, string yang dikutip harus merupakan bagian nama yang lengkap, dan gunakan backtick hanya di dalam bagian nama yang dikutip.
INVALID_AUTO_TTL_EXPIRE_IN_DAYS
Jumlah hari yang ditentukan untuk Auto-TTL harus non-negatif.
INVALID_AWS_AUTHENTICATION
Silakan pilih salah satu metode autentikasi berikut:
Berikan nama kredensial layanan Databricks Anda (
<serviceCredential>) (sebagai opsi aliran spark atau sebagai variabel lingkungan kluster).Berikan AWS AccessKey (
<awsAccessKey>) dan SecretAccessKey (<awsSecretKey>) untuk menggunakan kunci AWS.Jangan berikan kunci AWS maupun kredensial layanan Databricks untuk menggunakan rantai penyedia kredensial AWS default untuk autentikasi Kinesis.
INVALID_AWS_AUTHENTICATION_EXPLICIT_OPTIONS
Harap berikan nama kredensial layanan Databricks Anda (<serviceCredential>)
ATAU baik <awsAccessKey> maupun <awsSecretKey>
INVALID_BITMAP_POSITION
Posisi bitmap dengan indeks 0 di <bitPosition> berada di luar batas. Bitmap mengandung <bitmapNumBits> bit (<bitmapNumBytes> byte).
INVALID_BOOLEAN_STATEMENT
Pernyataan Boolean diharapkan dalam kondisi tersebut, tetapi <invalidStatement> ditemukan.
INVALID_BOUNDARY
<boundary> batas tidak valid: <invalidValue>.
Untuk informasi lebih lanjut, lihat INVALID_BOUNDARY
INVALID_BUCKET_COLUMN_DATA_TYPE
Tidak dapat menggunakan <type> untuk kolom bucket. Jenis data yang disusun tidak didukung untuk pengelompokan.
INVALID_BUCKET_COUNT
Jumlah bucket harus lebih besar dari 0 tetapi kurang dari atau sama dengan bucketing.maxBuckets (<bucketingMaxBuckets>). Memperoleh <numBuckets>.
INVALID_BUCKET_FILE
Berkas wadah tidak valid: <path>.
INVALID_BYTE_STRING
Format yang diharapkan adalah ByteString, tetapi adalah <unsupported> (<class>).
INVALID_CIDR_RANGE
Fungsi <functionName> menerima rentang CIDR yang tidak valid: <value>.
INVALID_CLONE_SESSION_REQUEST
Permintaan kloning sesi tidak valid.
Untuk detail selengkapnya, lihat INVALID_CLONE_SESSION_REQUEST
INVALID_COLUMN_NAME_AS_PATH
Sumber data <datasource> tidak dapat menyimpan kolom <columnName> karena namanya berisi beberapa karakter yang tidak diizinkan dalam jalur file. Silakan, gunakan alias untuk mengganti namanya.
INVALID_COLUMN_OR_FIELD_DATA_TYPE
Kolom atau bidang <name> bertipe <type> ketika harus <expectedType>.
INVALID_CONF_VALUE
Nilai '<confValue>' dalam konfigurasi "<confName>" tidak valid.
Untuk detail selengkapnya, lihat INVALID_CONF_VALUE
Karakteristik Pembatas Tidak Valid
Karakteristik batasan [<characteristics>] diduplikasi atau bertentangan satu sama lain.
INVALID_CORRUPT_RECORD_TYPE
Kolom <columnName> untuk rekaman yang rusak harus memiliki jenis STRING yang boleh bernilai null, tetapi didapatkan <actualType>.
INVALID_CURRENT_RECIPIENT_USAGE
current_recipient fungsi hanya dapat digunakan dalam pernyataan CREATE VIEW atau pernyataan ALTER VIEW untuk menentukan tampilan berbagi saja di Katalog Unity.
INVALID_CURSOR
Kursor tidak valid.
Untuk detail lebih lanjut, lihat INVALID_CURSOR
FORMAT_DATASUMBER_TIDAK_VALID_UNTUK_INJEKSI_OPSI_KONEKSI
Koneksi dengan nama <connectionName> dan jenis <connectionType> tidak mendukung format <actualFormat>. Format yang didukung: <expectedFormat>.
PERCUBAAN PENIADAAN OPSI SUMBER DATA TIDAK SAH
Opsi <optionName> sudah ada pada koneksi <connectionName> dan tidak bisa ditimpa.
INVALID_DATETIME_PATTERN
Pola waktu/tanggal yang tidak dikenal: <pattern>.
Untuk selengkapnya, lihat INVALID_DATETIME_PATTERN
INVALID_DBFS_MOUNT
Pemasangan DBFS tidak dapat diakses.
Untuk detail selengkapnya, lihat INVALID_DBFS_MOUNT
INVALID_DBSQL_CONFIG
<confValue> tidak didukung untuk kunci konfigurasi SQL <confKey>
INVALID_DEFAULT_VALUE
Gagal menjalankan perintah <statement> karena kolom tujuan atau variabel <colName> memiliki nilai DEFAULT<defaultValue>,
Untuk keterangan lebih lanjut, lihat INVALID_DEFAULT_VALUE
INVALID_DELIMITER_VALUE
Nilai tidak valid untuk pemisah.
Untuk informasi lebih lanjut, lihat INVALID_DELIMITER_VALUE
INVALID_DEST_CATALOG
Katalog tujuan perintah SYNC harus berada dalam Katalog Unity. Ditemukan <catalog>.
INVALID_DRIVER_MEMORY
Memori sistem <systemMemory> harus setidaknya <minSystemMemory>.
Harap tingkatkan ukuran timbunan menggunakan opsi --driver-memory atau "<config>" dalam konfigurasi Spark.
INVALID_DROP_TABLE_OPTIONS
Tidak dapat menentukan opsi PURGE dan FORCE dalam DROP TABLE perintah. Gunakan PURGE atau FORCE, tetapi tidak keduanya.
INVALID_DYNAMIC_OPTIONS
Opsi yang diteruskan <option_list> dilarang untuk tabel asing <table_name>.
INVALID_EMPTY_LOCATION
Nama lokasi tidak boleh berupa string kosong, tetapi <location> diberikan.
DEPENDENSI_PENGATURAN_LINGKUNGAN_TIDAK_VALID
Parameter dependensi pengaturan lingkungan hilang atau tidak dapat diurai ke daftar string. Format yang diharapkan: ["dep1", "dep2"]
INVALID_ENVIRONMENT_SETTINGS_ENVIRONMENT_VERSION
Versi runtime ini tidak mendukung versi lingkungan untuk sumber data. Nilai: <environmentVersion>.
INVALID_ERROR_CONDITION_DECLARATION
Deklarasi kondisi tidak valid.
Untuk detail selengkapnya, lihat INVALID_ERROR_CONDITION_DECLARATION
INVALID_ESC
Menemukan string escape yang tidak valid: <invalidEscape>. String escape hanya boleh berisi satu karakter.
INVALID_ESCAPE_CHAR
EscapeChar harus berupa string literal dengan panjang satu, tetapi mendapat <sqlExpr>.
INVALID_EXECUTOR_MEMORY
Memori pelaksana <executorMemory> harus berukuran setidaknya <minSystemMemory>.
Tingkatkan memori eksekutor menggunakan opsi --executor-memory atau "<config>" dalam konfigurasi Spark.
INVALID_EXPRESSION_ENCODER
Telah ditemukan encoder ekspresi yang tidak valid. Mengharapkan instans ExpressionEncoder tetapi mendapatkan <encoderType>. Untuk informasi selengkapnya, lihat '<docroot>/api/java/index.html?org/apache/spark/sql/Encoder.html'.
INVALID_EXPR_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE
Jenis ekspresi harus jenis string tetapi mendapat <exprType>.
INVALID_EXTERNAL_TYPE
Jenis eksternal <externalType> tidak valid untuk jenis <type> pada ekspresi <expr>.
INVALID_EXTRACT_BASE_FIELD_TYPE
Tidak dapat mengekstrak nilai dari <base>. Perlu jenis kompleks [STRUCT, ARRAY, MAP] tetapi mendapat <other>.
INVALID_EXTRACT_FIELD
Tidak dapat mengekstrak <field> dari <expr>.
INVALID_EXTRACT_FIELD_TYPE
Nama bidang harus berupa string non-null literal, tetapi ini adalah <extraction>.
INVALID_FIELD_NAME
Nama bidang <fieldName> tidak valid: <path> bukan struktur.
INVALID_FLOW_QUERY_TYPE
Alur <flowIdentifier> mengembalikan jenis relasi yang tidak valid.
Untuk detail selengkapnya, lihat INVALID_FLOW_QUERY_TYPE
INVALID_FORMAT
Format tidak valid: <format>.
Untuk detail selengkapnya, lihat INVALID_FORMAT
INVALID_FRACTION_OF_SECOND
Rentang valid untuk detik adalah [0, 60] (inklusif), tetapi nilai yang disediakan adalah "<secAndMicros>". Untuk menghindari kesalahan ini, gunakan try_make_timestamp, yang menghasilkan NULL ketika terjadi kesalahan.
Jika Anda tidak ingin menggunakan versi tanda waktu default sesi dari fungsi ini, gunakan try_make_timestamp_ntz atau try_make_timestamp_ltz.
INVALID_GET_DIAGNOSTICS_USAGE
Penggunaan pernyataan GETDIAGNOSTICS tidak valid.
Untuk informasi lebih lanjut, lihat INVALID_GET_DIAGNOSTICS_USAGE
INVALID_GET_DIAGNOSTICS_USAGE_CONDITION_NUMBER_MUST_BE_ONE
Penggunaan pernyataan GETDIAGNOSTICS tidak valid. Satu-satunya nilai yang didukung untuk nomor kondisi dalam GETDIAGNOSTICS pernyataan adalah 1.
INVALID_HANDLE
Pegangan <handle> tidak valid.
Untuk detail selengkapnya, lihat INVALID_HANDLE
INVALID_HANDLER_DECLARATION
Deklarasi handler tidak valid.
Untuk detail selengkapnya, lihat INVALID_HANDLER_DECLARATION
INVALID_HTTP_REQUEST_METHOD
Parameter input: metode, nilai: <paramValue> bukan parameter yang valid untuk http_request karena bukan metode HTTP yang valid.
INVALID_HTTP_REQUEST_PATH
Parameter input: jalur, nilai: <paramValue> bukan parameter yang valid untuk http_request karena pergerakan jalur tidak diperbolehkan.
INVALID_IDENTIFIER
Pengidentifikasi yang tidak dikutip <ident> tidak valid dan harus kembali dikutip sebagai: <ident>.
Pengidentifikasi yang tidak dikutip hanya dapat berisi ASCII huruf ('a' - 'z', 'A' - 'Z'), angka ('0' - '9'), dan garis bawah ('_').
Pengidentifikasi yang tidak dikutip juga tidak boleh dimulai dengan angka.
Sumber data dan penyimpanan meta yang berbeda dapat memberlakukan pembatasan tambahan pada pengidentifikasi yang valid.
INVALID_INDEX_OF_ZERO
Indeks 0 tidak valid. Indeks harus berupa < 0 or > 0 (elemen pertama memiliki indeks 1).
INVALID_INLINE_TABLE
Tabel inline tidak valid.
Untuk informasi lebih lanjut, lihat INVALID_INLINE_TABLE
INVALID_INTERVAL_FORMAT
Kesalahan mengurai '<input>' ke interval. Pastikan bahwa nilai yang disediakan dalam format yang valid untuk menentukan interval. Anda dapat merujuk pada dokumentasi untuk format yang benar.
Untuk informasi lebih lanjut, lihat INVALID_INTERVAL_FORMAT
INVALID_INTERVAL_WITH_MICROSECONDS_ADDITION
Tidak dapat menambahkan interval ke tanggal karena bagian microseconds-nya bukan 0. Untuk mengatasinya, ubah tanggal input ke timestamp, yang mendukung penambahan interval dengan mikrosekon non-nol.
INVALID_IP_ADDRESS
Fungsi <functionName> menerima alamat IP yang tidak valid: <value>.
INVALID_IP_ADDRESS_OR_CIDR_RANGE
Fungsi <functionName> menerima alamat IP atau rentang CIDR yang tidak valid: <value>.
INVALID_JAVA_IDENTIFIER_AS_FIELD_NAME
<fieldName> bukan pengidentifikasi Java yang valid dan tidak dapat digunakan sebagai nama bidang
<walkedTypePath>.
INVALID_JDBC_CONNECTION_OPTION
Opsi <optionKey> ini bukan parameter yang valid untuk koneksi jdbc ini.
INVALID_JDBC_CONNECTION_OPTION_VALUE
Opsi <optionKey> dengan nilai <optionValue> bukan opsi yang valid untuk koneksi jdbc ini.
INVALID_JOIN_TYPE_FOR_JOINWITH
Jenis penyambungan yang tidak valid pada joinWith: <joinType>.
INVALID_JSON_DATA_TYPE
Gagal mengonversi JSON string '<invalidType>' ke jenis data. Masukkan tipe data yang valid.
INVALID_JSON_DATA_TYPE_FOR_COLLATIONS
Kolase hanya dapat diterapkan ke jenis string, tetapi JSON jenis datanya adalah <jsonType>.
INVALID_JSON_RECORD_TYPE
Mendeteksi jenis rekaman yang JSON tidak valid saat menyimpulkan skema umum dalam mode <failFastMode>. Diharapkan jenis STRUCT, tetapi ditemukan <invalidType>.
INVALID_JSON_ROOT_FIELD
Tidak dapat mengonversi JSON bidang akar ke jenis Spark target.
INVALID_JSON_SCHEMA_MAP_TYPE
Skema input <jsonSchema> hanya dapat berisi jenis kunci STRING untuk MAP.
INVALID_KRYO_SERIALIZER_BUFFER_SIZE
Nilai konfigurasi "<bufferSizeConfKey>" harus kurang dari 2048 MiB, tetapi mendapatkan <bufferSizeConfValue> MiB.
INVALID_KRYO_SERIALIZER_NO_DATA
Objek '<obj>' tidak valid atau diformat salah ketika digunakan pada <serdeOp> dengan <serdeClass>.
INVALID_LABEL_USAGE
Penggunaan label <labelName> tidak valid.
Untuk informasi lebih lanjut, lihat INVALID_LABEL_USAGE
INVALID_LAMBDA_FUNCTION_CALL
Panggilan fungsi lambda tidak valid.
Untuk detail selengkapnya, lihat INVALID_LAMBDA_FUNCTION_CALL
INVALID_LATERAL_JOIN_TYPE
<joinType>
JOIN dengan korelasi LATERAL tidak diizinkan karena subkueri OUTER tidak dapat berkorelasi dengan mitra gabungannya. Hapus korelasi LATERAL atau gunakan INNERJOIN, atau LEFT OUTERJOIN sebagai gantinya.
INVALID_LIMIT_LIKE_EXPRESSION
Batas seperti ekspresi <expr> tidak valid.
Untuk detail selengkapnya, lihat INVALID_LIMIT_LIKE_EXPRESSION
INVALID_LOG_VERSION
UnsupportedLogVersion.
Untuk detail selengkapnya, lihat INVALID_LOG_VERSION
INVALID_NAME_IN_USE_COMMAND
Nama '<name>' tidak valid dalam perintah <command>. Alasan: <reason>
INVALID_NON_ABSOLUTE_PATH
Jalur non absolut yang disediakan <path> tidak dapat memenuhi syarat. Harap perbarui jalur menjadi lokasi pemasangan dbfs yang valid.
INVALID_NON_DETERMINISTIC_EXPRESSIONS
Operator, mengharapkan ekspresi deterministik, tetapi ekspresi yang sebenarnya adalah <sqlExprs>.
INVALID_NUMERIC_LITERAL_RANGE
Literal numerik <rawStrippedQualifier> berada di luar rentang yang valid untuk <typeName> dengan nilai minimum <minValue> dan nilai maksimum <maxValue>. Harap sesuaikan nilainya sewajarnya.
INVALID_OBSERVED_METRICS
Metrik yang diamati tidak valid.
Untuk informasi lebih lanjut, lihat INVALID_OBSERVED_METRICS
INVALID_OPTIONS
Opsi tidak valid:
Untuk informasi lebih lanjut, lihat INVALID_OPTIONS
INVALID_PANDAS_UDF_PLACEMENT
Fungsi agregat grup pandas UDF <functionList> tidak dapat dipanggil bersama dengan fungsi agregat non-pandas lainnya.
INVALID_PARAMETER_MARKER_VALUE
Pemetaan parameter yang tidak valid diberikan.
Untuk detail lebih lanjut, lihat INVALID_PARAMETER_MARKER_VALUE
INVALID_PARAMETER_VALUE
Nilai parameter <parameter> dalam <functionName> tidak valid:
Untuk detail selengkapnya, lihat INVALID_PARAMETER_VALUE
INVALID_PARTITION_COLUMN_DATA_TYPE
Tidak dapat menggunakan <type> untuk kolom partisi.
INVALID_PARTITION_OPERATION
Perintah partisi tidak valid.
Untuk detail selengkapnya, lihat INVALID_PARTITION_OPERATION
INVALID_PARTITION_VALUE
Gagal mentransmisikan nilai <value> ke jenis data <dataType> untuk kolom partisi <columnName>. Pastikan nilai cocok dengan jenis data yang diharapkan untuk kolom partisi ini.
INVALID_PIPELINE_ID
Id alur <pipelineId> tidak valid.
Id alur harus menjadi UUID dalam format 'xxxxxxxxx-xxxx-xxxx-xxxx-xxxx-xxxx'
INVALID_PRIVILEGE
Hak istimewa <privilege> tidak valid untuk <securable>.
INVALID_PROPERTY_KEY
<key> adalah kunci properti yang tidak valid, silakan gunakan tanda kutip, misalnya, SET <key>=<value>.
INVALID_PROPERTY_VALUE
<value> adalah nilai properti yang tidak valid, silakan gunakan tanda kutip, misalnya, SET <key>=<value>
INVALID_QUALIFIED_COLUMN_NAME
Nama kolom <columnName> tidak valid karena tidak memenuhi syarat dengan nama tabel atau terdiri dari lebih dari 4 bagian nama.
INVALID_QUERY_MIXED_QUERY_PARAMETERS
Kueri berparameter harus menggunakan parameter posisi, atau bernama, tetapi tidak keduanya.
INVALID_RECURSIVE_CTE
Ditemukan definisi rekursif yang tidak valid. Kueri rekursif harus berisi UNION atau UNION ALL pernyataan dengan 2 anak. Anak pertama harus menjadi istilah jangkar tanpa rujukan yang berulang. CTE dalam tingkat atas apa pun tidak boleh berisi referensi mandiri.
INVALID_RECURSIVE_REFERENCE
Referensi rekursif tidak valid ditemukan di dalam WITH RECURSIVE klausa.
Untuk detail selengkapnya, lihat INVALID_RECURSIVE_REFERENCE
INVALID_REGEXP_REPLACE
Tidak dapat melakukan regexp_replace untuk sumber = "<source>", pola = "<pattern>", penggantian = "<replacement>" dan posisi = <position>.
KETERGANTUNGAN_DAPAT_DISET_ULANG_TIDAK_VALID
<upstreamResettableTables> Tabel dapat diatur ulang tetapi memiliki dependensi hilir yang tidak dapat diatur ulang '<downstreamTable>'.
reset akan gagal karena Spark Streaming tidak mendukung data sumber yang dihapus. Anda dapat menghapus properti <resetAllowedKey>=false dari '<downstreamTable>' atau menambahkannya ke dependensi hulu.
INVALID_RESET_COMMAND_FORMAT
Format yang diharapkan adalah 'RESET' atau 'RESET kunci'. Jika Anda ingin menyertakan karakter khusus dalam kunci, silakan gunakan tanda kutip, misalnya, RESET key.
INVALID_RESIGNAL_USAGE
RESIGNAL ketika handler tidak aktif.
RESIGNAL pernyataan hanya dapat digunakan di dalam isi Handler Pengecualian.
INVALID_S3_COPY_CREDENTIALS
COPY INTO kredensial harus mencakup AWS_ACCESS_KEY, AWS_SECRET_KEY, dan AWS_SESSION_TOKEN.
INVALID_SAVE_MODE
Mode penyimpanan yang ditentukan <mode> tidak valid. Mode penyimpanan valid termasuk "tambahkan", "timpa", "abaikan", "kesalahan", "kesalahan jika ada", dan "default".
INVALID_SCHEMA
Skema input <inputSchema> bukan string skema yang valid.
Untuk informasi lebih lanjut, lihat INVALID_SCHEMA
INVALID_SCHEMA_OR_RELATION_NAME
<name> bukan nama yang valid untuk tabel/skema. Nama yang valid hanya berisi karakter alfabet, angka, dan _.
Tipe Skema Tidak Valid: Non-Struktur
Jenis skema tidak valid. Mengharapkan adanya tipe struct, tetapi mendapat <dataType>.
INVALID_SCHEME
Katalog Unity tidak mendukung <name> sebagai skema file default.
INVALID_SECRET_LOOKUP
Pencarian informasi rahasia tidak sah
Untuk detail selengkapnya, lihat INVALID_SECRET_LOOKUP
INVALID_SET_SYNTAX
Format yang diharapkan adalah 'SET', 'SET key', atau 'SET key=value'. Jika Anda ingin menyertakan karakter khusus dalam kunci, atau menyertakan titik koma dalam nilai, silakan gunakan backquotes, misalnya, SET key=value.
INVALID_SHARED_ALIAS_NAME
Nama <sharedObjectType> alias harus dalam bentuk "schema.name".
INVALID_SINGLE_VARIANT_COLUMN
Skema <schema> yang ditentukan pengguna tidak valid ketika singleVariantColumn opsi diaktifkan. Skema harus berupa bidang varian, atau bidang varian ditambah bidang kolom yang rusak.
INVALID_SOURCE_CATALOG
Katalog sumber tidak boleh berada dalam Katalog Unity untuk perintah SYNC. Ditemukan <catalog>.
INVALID_SOURCE_FOR_FILTERING_SERVICE_MERGE_COMMAND
Sumber operasi layanan MERGE pemfilteran hanya dapat berisi proyeksi dan filter.
Silakan sesuaikan perintah MERGE atau gunakan tabel penahapan sebagai sumber.
<stmt>
INVALID_SPARK_CONFIG
Konfigurasi Spark tidak valid:
Untuk detail selengkapnya, lihat INVALID_SPARK_CONFIG
INVALID_SQLSTATE
Nilai tidak valid SQLSTATE : '<sqlState>'.
SQLSTATE panjangnya harus persis 5 karakter dan hanya berisi A-Z dan 0-9.
SQLSTATE tidak boleh dimulai dengan '00', '01', atau 'XX'.
INVALID_SQL_ARG
Argumen <name>sql() tidak valid. Pertimbangkan untuk menggantinya baik dengan fungsi konstruktor SQL literal atau dengan koleksi seperti map(), array(), struct().
INVALID_SQL_FUNCTION_DATA_ACCESS
Tidak dapat membuat fungsi SQL dengan CONTAINS SQL yang mengakses tabel/tampilan atau fungsi SQL yang membaca data SQL. Silakan gunakan READS DATA SQL sebagai gantinya.
INVALID_SQL_SYNTAX
Sintaks SQL tidak valid:
Untuk detail selengkapnya, lihat INVALID_SQL_SYNTAX
INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY
Jalur penahapan tidak valid dalam kueri <operation>: <path>
INVALID_STATEMENT_FOR_EXECUTE_INTO
Klausa INTO pada EXECUTE IMMEDIATE hanya valid untuk kueri namun pernyataan yang diberikan bukan kueri: <sqlString>.
INVALID_STATEMENT_OR_CLAUSE
Pernyataan atau klausul: <operation> tidak valid.
TIDAK VALID_SUMBER KECEPATAN STREAMING_VERSI
Versi tidak valid untuk sumber laju: <version>. Versi harus 1 atau 2.
INVALID_STREAMING_REAL_TIME_MODE_TRIGGER_INTERVAL
Interval pemicu real-time diatur ke <interval> ms. Ini kurang dari <minBatchDuration> ms minimum yang ditentukan oleh spark.databricks.streaming.realTimeMode.minBatchDuration.
INVALID_STREAMING_REAL_TIME_MODE_TRIGGER_OVERRIDE_INTERVAL
Interval pemeriksaan pemicu waktu nyata <interval> tidak dapat diproses. Pastikan Anda telah memasukkan bilangan bulat positif.
INVALID_SUBQUERY_EXPRESSION
Subkueri tidak valid:
Untuk detail selengkapnya, lihat INVALID_SUBQUERY_EXPRESSION
INVALID_TARGET_FOR_ALTER_COMMAND
ALTER <commandTableType>
...
<command> tidak mendukung <tableName>. Silakan gunakan ALTER <targetTableType>...<command> sebagai gantinya.
INVALID_TARGET_FOR_SET_TBLPROPERTIES_COMMAND
ALTER <commandTableType>
...
SET TBLPROPERTIES tidak mendukung <tableName>. Silakan gunakan ALTER <targetTableType>...SET TBLPROPERTIES sebagai gantinya.
INVALID_TEMP_OBJ_REFERENCE
Tidak dapat membuat objek persisten <objName> tipe <obj> karena mereferensikan ke objek sementara <tempObjName> jenis <tempObj>. Harap buat objek sementara <tempObjName> persisten, atau buat objek persisten <objName> sementara.
INVALID_TIMESTAMP_FORMAT
Tanda waktu <timestamp> yang disediakan tidak cocok dengan sintaks yang <format>diharapkan .
INVALID_TIMEZONE
Zona waktu: <timeZone> tidak valid. Zona waktu harus berupa ID zona berbasis wilayah atau offset zona. ID wilayah harus memiliki formulir 'area/kota', seperti 'Amerika/Los_Angeles'. Offset zona harus dalam format '(+|-)HH', '(+|-)HH:mm' atau '(+|-)HH:mm:ss', misalnya '-08' , '+01:00' atau '-13:33:33', dan harus dalam rentang dari -18:00 hingga +18:00. 'Z' dan 'UTC' diterima sebagai sinonim untuk '+00:00'.
INVALID_TIME_TRAVEL_SPEC
Tidak dapat menentukan versi dan cap waktu saat melakukan operasi penelusuran waktu pada tabel.
INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
Ekspresi tanda waktu perjalanan waktu <expr> tidak valid.
Untuk informasi lebih rinci, silakan lihat INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
INVALID_TYPED_LITERAL
Nilai literal yang diketik <valueType> tidak valid: <value>.
INVALID_UDF_IMPLEMENTATION
Fungsi <funcName> tidak menerapkan ScalarFunction atau AggregateFunction.
INVALID_UPGRADE_SYNTAX
<command> <supportedOrNot> tabel sumber berada di Apache Hive Metastore dan tabel tujuan berada di Katalog Unity.
INVALID_URL
Url tidak valid: <url>. Gunakan try_parse_url untuk mentolerir URL yang tidak valid dan mengembalikan NULL sebagai gantinya.
INVALID_USAGE_OF_STAR_OR_REGEX
Penggunaan <elem> tidak valid di <prettyName>.
INVALID_UTF8_STRING
Urutan byte UTF8 tidak valid yang ditemukan dalam string: <str>.
INVALID_UUID
Input <uuidInput> bukan UUID yang valid.
UUID harus dalam format 'xxxxxxxxx-xxxx-xxxx-xxxx-xxxx-xxxxxxx'
Silakan periksa format UUID.
INVALID_VARIABLE_DECLARATION
Deklarasi variabel tidak valid.
Untuk detail selengkapnya, lihat INVALID_VARIABLE_DECLARATION
INVALID_VARIANT_CAST
Nilai varian <value> tidak dapat ditransmisikan ke <dataType>. Silakan gunakan try_variant_get sebagai gantinya.
INVALID_VARIANT_FROM_PARQUET
Varian tidak valid.
Untuk detail selengkapnya, lihat INVALID_VARIANT_FROM_PARQUET
INVALID_VARIANT_GET_PATH
Jalur <path> bukan jalur ekstraksi varian yang valid di <functionName>.
Jalur yang valid harus dimulai dengan $ dan diikuti oleh nol atau lebih segmen seperti [123], .name, ['name'], atau ["name"].
INVALID_VARIANT_SHREDDING_SCHEMA
Skema <schema> bukan skema penghancur varian yang valid.
INVALID_WHERE_CONDITION
Kondisi WHERE<condition> berisi ekspresi yang tidak valid: <expressionList>.
Tulis ulang kueri untuk menghindari fungsi jendela, fungsi agregat, dan fungsi generator dalam klausa WHERE.
INVALID_WINDOW_SPEC_FOR_AGGREGATION_FUNC
Tidak dapat menentukan ORDER BY atau bingkai jendela untuk <aggFunc>.
INVALID_WITHIN_GROUP_EXPRESSION
Fungsi <funcName> tidak valid dengan WITHIN GROUP.
Untuk detail selengkapnya, lihat INVALID_WITHIN_GROUP_EXPRESSION
INVALID_WRITER_COMMIT_MESSAGE
Penulis sumber data telah menghasilkan jumlah pesan commit yang tidak valid. Diharapkan tepat satu penulis menerapkan pesan dari setiap tugas, tetapi menerima <detail>.
INVALID_WRITE_DISTRIBUTION
Distribusi tulis yang diminta tidak valid.
Untuk detail selengkapnya, lihat INVALID_WRITE_DISTRIBUTION
IRC_CREDENTIAL_VENDING_ERROR
Ada kesalahan saat menyambungkan ke host IRC, tidak dapat membatalkan kredensial untuk tabel <tableIdentifier>.
Untuk detail selengkapnya, lihat IRC_CREDENTIAL_VENDING_ERROR
ISOLATED_COMMAND_FAILURE
Gagal menjalankan <command>. Output perintah:
<output>
ISOLATED_COMMAND_UNKNOWN_FAILURE
Gagal menjalankan <command>.
ISOLATION_ENVIRONMENT_ERROR
Gagal menginstal dependensi <name> lingkungan karena kesalahan sistem.
Untuk detail selengkapnya, lihat ISOLATION_ENVIRONMENT_ERROR
ISOLATION_ENVIRONMENT_USER_ERROR
Gagal menginstal dependensi lingkungan untuk <name>.
Untuk detail selengkapnya, lihat ISOLATION_ENVIRONMENT_USER_ERROR
JDBC_EXTERNAL_ENGINE_SYNTAX_ERROR
Kesalahan sintaks mesin eksternal JDBC. Kesalahan disebabkan oleh kueri <jdbcQuery>.
<externalEngineError>.
Untuk detail selengkapnya, lihat JDBC_EXTERNAL_ENGINE_SYNTAX_ERROR
JOIN_CONDITION_IS_NOT_BOOLEAN_TYPE
Kondisi gabungan <joinCondition> memiliki jenis <conditionType> yang tidak valid, diharapkan jenis "BOOLEAN".
KAFKA_DATA_LOSS
Beberapa data mungkin hilang karena tidak tersedia di Kafka lagi;
data mungkin telah dihapus oleh Kafka karena sudah kadaluarsa, atau mungkin topik telah dihapus sebelum semua data telah diproses.
Topik telah diproses.
Jika Anda tidak ingin kueri streaming gagal pada kasus seperti itu, atur pengaturan opsi sumber failOnDataLoss ke false.
Reason:
Untuk detail selengkapnya, lihat KAFKA_DATA_LOSS
KINESIS_COULD_NOT_READ_SHARD_UNTIL_END_OFFSET
Tidak dapat membaca sampai nomor urutan yang diinginkan <endSeqNum> untuk pecahan <shardId> di
Aliran kinesis <stream> dengan mode konsumen <consumerMode>. Kueri akan gagal karena
potensi kehilangan data. Rekaman baca terakhir berada pada nomor urut <lastSeqNum>.
Ini dapat terjadi jika data dengan endSeqNum telah kadaluarsa, atau aliran Kinesis telah berhenti.
dihapus dan direkonstruksi dengan nama yang sama. Perilaku kegagalan dapat diubah
dengan mengatur spark.databricks.kinesis.failOnDataLoss menjadi false dalam konfigurasi spark.
KINESIS_EFO_CONSUMER_NOT_FOUND
Untuk aliran kinesis <streamId>, konsumen EFO dari aliran yang sebelumnya terdaftar <consumerId> telah dihapus.
Mulai ulang kueri sehingga konsumen baru dapat didaftarkan.
KINESIS_EFO_SUBSCRIBE_LIMIT_EXCEEDED
Untuk shard <shard>, panggilan sebelumnya dari subscribeToShard API berada dalam waktu 5 detik dari panggilan berikutnya.
Mulai ulang kueri setelah 5 detik atau lebih.
KINESIS_FETCHED_SHARD_LESS_THAN_TRACKED_SHARD
ShardId minimum yang diambil dari Kinesis (<fetchedShardId>)
kurang dari minimum shardId yang dilacak (<trackedShardId>).
Ini tidak terduga dan terjadi ketika aliran Kinesis dihapus dan dibuat ulang dengan nama yang sama,
kueri streaming pada aliran Kinesis ini dimulai ulang dengan menggunakan lokasi titik pemeriksaan yang sudah ada.
Mulai ulang kueri streaming dengan lokasi titik pemeriksaan baru, atau buat aliran dengan nama baru.
KINESIS_POLLING_MODE_UNSUPPORTED
Mode Kinesis polling tidak didukung.
KINESIS_RECORD_SEQ_NUMBER_ORDER_VIOLATION
Untuk shard <shard>, rekaman terakhir yang dibaca dari Kinesis dalam pengambilan sebelumnya memiliki nomor urut <lastSeqNum>,
yang lebih besar dari rekaman yang dibaca dalam pengambilan data saat ini dengan nomor urutan <recordSeqNum>.
Ini tidak terduga dan dapat terjadi ketika posisi awal untuk pengulangan atau pengambilan berikutnya salah diinisialisasi, dan hal ini dapat mengakibatkan duplikasi rekaman dalam pemrosesan berikutnya.
KINESIS_SOURCE_MUST_BE_IN_EFO_MODE_TO_CONFIGURE_CONSUMERS
Untuk membaca dari Kinesis Streams dengan konfigurasi konsumen (consumerName, consumerNamePrefix, atau registeredConsumerId), consumerMode harus efo.
KINESIS_SOURCE_MUST_SPECIFY_REGISTERED_CONSUMER_ID_AND_TYPE
Untuk membaca dari Kinesis Streams dengan pemakai terdaftar, Anda harus menentukan opsi registeredConsumerId dan registeredConsumerIdType.
KINESIS_SOURCE_MUST_SPECIFY_STREAM_NAMES_OR_ARNS
Untuk membaca dari Kinesis Streams, Anda harus mengonfigurasi salah satu dari opsi streamName atau streamARN, tetapi bukan keduanya, sebagai daftar nama aliran atau ARN yang dipisahkan koma.
KINESIS_SOURCE_NO_CONSUMER_OPTIONS_WITH_REGISTERED_CONSUMERS
Untuk membaca dari Kinesis Streams dengan konsumen terdaftar, jangan konfigurasikan opsi consumerName atau consumerNamePrefix karena tidak akan berfungsi.
KINESIS_SOURCE_REGISTERED_CONSUMER_ID_COUNT_MISMATCH
Jumlah id konsumen terdaftar harus sama dengan jumlah aliran Kinesis namun didapatkan id konsumen <numConsumerIds> dan aliran <numStreams>.
KINESIS_SOURCE_REGISTERED_CONSUMER_NOT_FOUND
Konsumen terdaftar <consumerId> yang disediakan tidak dapat ditemukan untuk streamARN <streamARN>. Verifikasi bahwa Anda telah mendaftarkan konsumen atau tidak menyediakan opsi registeredConsumerId.
KINESIS_SOURCE_REGISTERED_CONSUMER_TYPE_INVALID
Jenis konsumen terdaftar <consumerType> tidak valid. Ini harus name atau ARN.
KLL_SKETCH_INCOMPATIBLE_MERGE
Untuk fungsi <functionName>, tidak dapat menggabungkan sketsa KLL: <reason>
KLL_SKETCH_INVALID_INPUT
Untuk fungsi <functionName>, data biner sketsa KLL tidak valid: <reason>
KLL_SKETCH_INVALID_QUANTILE_RANGE
Untuk fungsi <functionName>, nilai kuantil harus antara 0,0 dan 1,0 (inklusif), tetapi mendapatkan <quantile>.
KLL_SKETCH_K_MUST_BE_CONSTANT
Untuk fungsi <functionName>, parameter k harus berupa nilai konstanta, tetapi mendapat ekspresi non-konstanta.
KLL_SKETCH_K_OUT_OF_RANGE
Untuk fungsi <functionName>, parameter k harus antara 8 dan 65535 (inklusif), tetapi mendapat <k>.
KRYO_BUFFER_OVERFLOW
Serialisasi Kryo gagal: <exceptionMsg>. Untuk menghindari hal ini, tingkatkan nilai "<bufferSizeConfKey>".
LABELS_MISMATCH
Label mulai <beginLabel> tidak cocok dengan label akhir <endLabel>.
LABEL_OR_VARIABLE_UNTUK_SUDAH_ADA
Label atau FOR variabel <label> sudah ada. Pilih nama lain atau ganti nama yang sudah ada.
LABEL_OR_FOR_NAMA_VARIABLE_DILARANG
Nama label atau variabel FOR<label> dilarang.
LAKEHOUSE_FEDERATION_DATA_SOURCE_REQUIRES_NEWER_DBR_VERSION
Sumber data federasi Lakehouse '<provider>' memerlukan versi Databricks Runtime yang lebih baru.
Untuk informasi lebih lanjut, lihat LAKEHOUSE_FEDERATION_DATA_SOURCE_REQUIRES_NEWER_DBR_VERSION
Gabungan Lateral dengan ARROW UDTF Tidak Didukung
LATERAL
JOIN Penggunaan Fungsi Tabel yang Ditentukan Pengguna (UDTF) yang Dioptimalkan dengan Arrow tidak didukung. UDTF Arrow tidak dapat digunakan di sisi kanan dari gabungan lateral.
Gunakan UDTF reguler sebagai alternatif, atau restrukturisasi kueri Anda untuk menghindari join lateral.
LEGACY_CREATE_TEMP_TABLE_WITHOUT_PROVIDER_NOT_SUPPORTED
CREATE TEMPORARY TABLE tanpa penyedia tidak diperbolehkan.
LOAD_DATA_PATH_NOT_EXISTS
jalur input LOAD DATA tidak ada: <path>.
LOCAL_MUST_WITH_SCHEMA_FILE
LOCAL harus digunakan bersama dengan skema file, namun mendapatkan: <actualSchema>.
LOCATION_ALREADY_EXISTS
Tidak dapat menamai tabel terkelola sebagai <identifier>, karena lokasi terkait <location> sudah ada. Pilih nama tabel lain, atau hapus lokasi yang ada terlebih dahulu.
LOST_TOPIC_PARTITIONS_IN_END_OFFSET_WITH_TRIGGER_AVAILABLENOW
Beberapa partisi dalam topik Kafka telah hilang selama menjalankan kueri dengan Trigger.AvailableNow. Kesalahan bisa bersifat sementara - mulai ulang kueri Anda, dan laporkan jika Anda masih melihat masalah yang sama.
partisi topik untuk offset terkini: <tpsForLatestOffset>, dan partisi topik untuk offset akhir: <tpsForEndOffset>
MALFORMED_AVRO_MESSAGE
Pesan Avro yang salah bentuk terdeteksi dalam deserialisasi pesan. Mode Penguraian: <mode>. Untuk memproses pesan Avro yang salah bentuk sebagai hasil null, coba atur opsi 'mode' menjadi 'PERMISSIVE'.
MALFORMED_CHARACTER_CODING
Nilai tidak valid ditemukan saat melakukan <function> dengan <charset>
MALFORMED_CSV_RECORD
Catatan CSV cacat: <badRecord>
MALFORMED_LOG_FILE
File log salah bentuk: gagal membaca versi log yang benar dari <text>.
MALFORMED_PROTOBUF_MESSAGE
Pesan Protobuf yang salah bentuk terdeteksi dalam deserialisasi pesan. Mode Penguraian: <failFastMode>. Untuk memproses pesan protobuf yang salah bentuk sebagai hasil null, coba atur opsi 'mode' sebagai 'PERMISSIVE'.
MALFORMED_RECORD_IN_PARSING
Rekaman rusak terdeteksi dalam pemrosesan rekaman: <badRecord>.
Mode Penguraian: <failFastMode>. Untuk memproses rekaman cacat sebagai hasil null, coba atur opsi 'mode' sebagai 'PERMISSIVE'.
Untuk detail selengkapnya, lihat MALFORMED_RECORD_IN_PARSING
MALFORMED_STATE_IN_RATE_PER_MICRO_BATCH_SOURCE
Status tidak valid di sumber "RatePerMicroBatch".
Untuk detail selengkapnya, lihat MALFORMED_STATE_IN_RATE_PER_MICRO_BATCH_SOURCE
MALFORMED_VARIANT
Varian biner tidak sesuai format. Silakan periksa sumber data valid.
MANAGED_ICEBERG_ATTEMPTED_TO_ENABLE_CLUSTERING_WITHOUT_DISABLING_DVS_OR_ROW_TRACKING
Mencoba mengaktifkan pengklusteran Liquid pada tabel Apache Iceberg Terkelola tanpa menonaktifkan vektor penghapusan dan pelacakan baris. Vektor penghapusan dan pelacakan baris tidak didukung untuk tabel Apache Iceberg Terkelola, tetapi diperlukan untuk konkurensi tingkat baris dengan tabel Liquid. Untuk mengaktifkan pengklusteran Liquid pada tabel Apache Iceberg Terkelola dengan pengurangan kontrol konkurensi, vektor penghapusan dan pelacakan baris harus dinonaktifkan untuk tabel ini.
MANAGED_ICEBERG_OPERATION_NOT_SUPPORTED
Tabel Apache Iceberg terkelola tidak mendukung <operation>.
MANAGED_TABLE_WITH_CRED
Pembuatan tabel terkelola menggunakan kredensial penyimpanan tidak didukung.
MATERIALIZED_VIEW_MESA_REFRESH_WITHOUT_PIPELINE_ID
Tidak dapat <refreshType> tampilan materialisasi karena ada sebelum memiliki pipeline Id. Untuk mengaktifkan <refreshType>, hapus dan buat ulang tampilan materialisasi.
MATERIALIZED_VIEW_NOT_INCREMENTALIZABLE
Tidak dapat membuat tampilan materialisasi dengan <refreshPolicy> kebijakan refresh karena tidak didukung untuk refresh inkremental. Reason:
Untuk detail selengkapnya, lihat MATERIALIZED_VIEW_NOT_INCREMENTALIZABLE
MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
Operasi tampilan materialisasi <operation> tidak diperbolehkan:
Untuk informasi lebih lanjut, lihat MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
MATERIALIZED_VIEW_OUTPUT_WITHOUT_EXPLICIT_ALIAS
Ekspresi output <expression> dalam view yang dimaterialisasi harus diberikan alias secara eksplisit.
MATERIALIZED_VIEW_OVER_STREAMING_QUERY_INVALID
Tampilan materialisasi <name> tidak dapat dibuat menggunakan kueri streaming. Silakan gunakan CREATE [ATAU REFRESH] STREAMING TABLE atau hapus STREAM kata kunci ke klausa Anda FROM untuk mengubah hubungan ini menjadi kueri batch sebagai gantinya.
MATERIALIZED_VIEW_UNSUPPORTED_OPERATION
Operasi <operation> saat ini tidak didukung pada tampilan termaterialisasi.
MAX_NUMBER_VARIABLES_IN_SESSION_EXCEEDED
Tidak dapat membuat variabel baru <variableName> karena jumlah variabel dalam sesi melebihi angka maksimum yang diizinkan (<maxNumVariables>).
MAX_RECORDS_PER_FETCH_INVALID_FOR_KINESIS_SOURCE
maxRecordsPerFetch harus berupa bilangan bulat positif kurang dari atau sama dengan <kinesisRecordLimit>
MCV_INVALID_INPUT_SKETCH_BUFFER
Panggilan tidak valid ke <function>; hanya buffer sketsa MCV yang valid yang didukung sebagai input (seperti yang diproduksi oleh mcv_collect_internal fungsi).
MERGE_CARDINALITY_VIOLATION
Kondisi pencarian ON pada pernyataan MERGE cocok dengan satu baris dari tabel target dan beberapa baris dari tabel sumber.
Ini dapat mengakibatkan baris target dikenai lebih dari sekali dengan operasi pembaruan atau penghapusan dan tidak diizinkan.
MERGE_WITHOUT_WHEN
Harus ada setidaknya satu klausa WHEN dalam pernyataan MERGE.
METRIC_CONSTRAINT_NOT_SUPPORTED
METRIC CONSTRAINT tidak diaktifkan.
METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
Nilai yang disediakan "<argValue>" tidak didukung oleh argumen "<argName>" untuk METRIC_STORE fungsi tabel.
Untuk informasi lebih lanjut, lihat METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
METRIC_STORE_UNSUPPORTED_ERROR
Rutin Penyimpanan Metrik <routineName> saat ini dinonaktifkan di lingkungan ini.
METRIC_VIEW_AMBIGUOUS_JOIN_CRITERIA
Definisi tampilan metrik berisi gabungan dengan kriteria ambigu: <expr>. [Gunakan using kriteria gabungan atau secara eksplisit memenuhi syarat kolom dengan <sourceAlias> alias.]
METRIC_VIEW_CACHE_TABLE_NOT_SUPPORTED
Tampilan metrik tidak diizinkan untuk menggunakan tabel cache.
METRIC_VIEW_FEATURE_DISABLED
Fitur tampilan metrik dinonaktifkan. Pastikan "spark.databricks.sql.metricView.enabled" diatur ke true.
METRIC_VIEW_INVALID_MEASURE_FUNCTION_INPUT
Fungsi MEASURE() hanya mengambil atribut sebagai input, tetapi mendapat <expr>
METRIC_VIEW_INVALID_VIEW_DEFINITION
Definisi tampilan metrik tidak valid. Alasan: <reason>.
METRIC_VIEW_IN_CTE_NOT_SUPPORTED
Tampilan metrik tidak diizinkan dalam definisi CTE. rencana: <plan>
METRIC_VIEW_JOIN_NOT_SUPPORTED
Tampilan metrik tidak diizinkan untuk menggunakan gabungan. rencana: <plan>
METRIC_VIEW_MATERIALIZATIONS_DISABLED
Materialisasi tampilan metrik dinonaktifkan. Pastikan "spark.databricks.sql.metricView.materializations.enabled" diatur ke benar.
Materialisasi_Variabel_Metrik_Tanpa_Agregasi_Dengan_Variabel_Metrik
Materialisasi tidak teragregasi tidak didukung saat tampilan metrik mereferensikan tampilan metrik lainnya.
MATERIALISASI_PANDANGAN_METRIK_PADA_PANDANGAN_SEMENTARA_TIDAK_DIDUKUNG
Materialisasi tidak didukung pada tampilan metrik sementara.
METRIC_VIEW_MATERIALIZATION_WITH_INVOKER_DEPENDENT_EXPRESSIONS_NOT_SUPPORTED
Materialisasi tidak didukung untuk tampilan metrik yang berisi ekspresi yang bergantung pada pemanggil. Ekspresi ini mencegah penggunaan kembali materialisasi.
METRIC_VIEW_MEASURE_IN_GROUP_BY
<measureColumns> mengukur kolom tidak dapat digunakan dalam GROUP BY klausul atau sebagai nilai kategoris. Sebaiknya bungkus dengan fungsi agregat seperti SUM() untuk perilaku yang diharapkan.
METRIC_VIEW_MISSING_MEASURE_FUNCTION
Penggunaan kolom pengukuran <column> tampilan metrik memerlukan fungsi MEASURE() untuk menghasilkan hasil.
METRIC_VIEW_NOT_MATERIALIZED
Disebut perintah tampilan materialisasi pada tampilan metrik tanpa materialisasi yang ditentukan
Untuk detail selengkapnya, lihat METRIC_VIEW_NOT_MATERIALIZED
TAMPILAN_METRIK_TIDAK_DIDUKUNG_DI_HMS
Tampilan metrik tidak didukung di HMS.
METRIC_VIEW_RENAME_DIFFERENT_CATALOG_AND_SCHEMA
Tampilan <oldName> metrik tidak diizinkan untuk mengganti nama ke katalog atau skema yang berbeda: <newName>.
METRIC_VIEW_SNOWFLAKE_JOIN_FEATURE_DISABLED
Fitur gabungan snowflake tampilan metrik dinonaktifkan. Pastikan "spark.databricks.sql.metricView.snowflake.join.enable" diatur ke benar.
METRIC_VIEW_UNSUPPORTED_USAGE
Penggunaan tampilan metrik tidak didukung. rencana: <plan>
METRIC_VIEW_WINDOW_FUNCTION_NOT_SUPPORTED
Tampilan metrik tidak diizinkan untuk menggunakan fungsi jendela <expr>.
METRIC_VIEW_YAML_V11_DISABLED
Tampilan metrik YAML v1.1 dinonaktifkan. Pastikan "spark.databricks.sql.metricView.yaml.v11.enabled" diatur ke true.
MIGRATION_NOT_SUPPORTED
<table> tidak didukung untuk bermigrasi ke tabel yang dikelola UC karena bukan tabel <tableKind>.
Pastikan bahwa tabel yang sedang dimigrasikan adalah tabel delta eksternal UC dan
ini dirujuk oleh namanya alih-alih jalur.
MIGRATION_ROLLBACK_NOT_SUPPORTED
<table> tidak didukung untuk mengembalikan dari tabel yang dikelola ke tabel eksternal karena bukan tabel <tableKind>.
MISMATCHED_TOPIC_PARTITIONS_BETWEEN_END_OFFSET_AND_PREFETCHED
Sumber data Kafka di Trigger.AvailableNow harus menyediakan partisi topik yang sama dalam offset yang telah diambil sebelumnya hingga offset akhir untuk setiap mikro-batch. Kesalahan bisa bersifat sementara - mulai ulang kueri Anda, dan laporkan jika Anda masih melihat masalah yang sama.
partisi topik untuk offset yang diambil sebelumnya: <tpsForPrefetched>, partisi topik untuk offset akhir: <tpsForEndOffset>.
MISSING_AGGREGATION
Ekspresi non-agregat <expression> didasarkan pada kolom yang tidak berpartisipasi dalam klausa GROUP BY.
Tambahkan kolom atau ekspresi ke GROUP BY, agregat ekspresi, atau gunakan <expressionAnyValue> jika Anda tidak peduli nilai mana dalam grup yang dikembalikan.
Untuk informasi lebih lanjut, lihat MISSING_AGGREGATION
MISSING_CATALOG_ABILITY
Katalog <plugin> tidak mendukung
Untuk detail selengkapnya, lihat MISSING_CATALOG_ABILITY
MISSING_CLAUSES_FOR_OPERATION
Klausa yang hilang <clauses> untuk operasi <operation>. Harap tambahkan klausa yang diperlukan.
MISSING_CONNECTION_OPTION
Koneksi jenis '<connectionType>' harus menyertakan opsi berikut: <requiredOptions>.
MISSING_DATABASE_FOR_V1_SESSION_CATALOG
Nama basis data tidak ditentukan dalam katalog sesi v1. Pastikan untuk memberikan nama database yang valid saat berinteraksi dengan katalog v1.
MISSING_GROUP_BY
Kueri tidak menyertakan klausa GROUP BY. Tambahkan GROUP BY atau ubah menjadi fungsi jendela menggunakan klausa OVER.
MISSING_NAME_FOR_CHECK_CONSTRAINT
batasan CHECK harus memiliki nama.
MISSING_PARAMETER_FOR_KAFKA
Parameter <parameterName> diperlukan untuk Kafka, tetapi tidak ditentukan dalam <functionName>.
MISSING_PARAMETER_FOR_ROUTINE
Parameter <parameterName> diperlukan, tetapi tidak ditentukan dalam <functionName>.
MISSING_SCHEDULE_DEFINITION
Definisi jadwal harus disediakan setelah SCHEDULE.
MISSING_TIMEOUT_CONFIGURATION
Operasi telah kehabisan waktu, tetapi tidak ada durasi batas waktu yang dikonfigurasi. Untuk mengatur batas waktu berbasis waktu pemrosesan, gunakan operasi 'GroupState.setTimeoutDuration()' di 'mapGroupsWithState' atau 'flatMapGroupsWithState'. Untuk batas waktu berdasarkan waktu kejadian, gunakan fungsi 'GroupState.setTimeoutTimestamp()' dan tentukan marka air menggunakan 'Dataset.withWatermark()'.
MISSING_WINDOW_SPECIFICATION
Spesifikasi jendela tidak ditentukan dalam klausa WINDOW untuk <windowName>. Untuk informasi selengkapnya tentang WINDOW klausul, silakan merujuk ke '<docroot>/sql-ref-syntax-qry-select-window.html'.
MODIFY_BUILTIN_CATALOG
Mengubah katalog bawaan <catalogName> tidak didukung.
MULTIPART_FLOW_NAME_NOT_SUPPORTED
Alur dengan nama multipihak '<flowName>' tidak didukung.
MULTIPLE_EXCEL_DATA_SOURCE
Mendeteksi beberapa sumber data Excel dengan nama <provider> (<sourceNames>). Tentukan nama kelas yang sepenuhnya memenuhi syarat atau hapus <externalSource> dari classpath.
MULTIPLE_LOAD_PATH
Databricks Delta tidak mendukung beberapa jalur input di API load().
jalur: <pathList>. Untuk membangun satu DataFrame dengan memuat
beberapa jalur dari tabel Delta yang sama, silakan muat jalur akar dari
tabel Delta dengan filter partisi yang sesuai. Jika ada beberapa jalur
berasal dari tabel Delta yang berbeda, silakan gunakan API union()/unionByName() dari Dataset
untuk menggabungkan DataFrames yang dihasilkan dari panggilan API load() yang terpisah.
MULTIPLE_MATCHING_CONSTRAINTS
Ditemukan setidaknya dua batasan yang cocok dengan kondisi yang diberikan.
MULTIPLE_QUERY_RESULT_CLAUSES_WITH_PIPE_OPERATORS
<clause1> dan <clause2> tidak dapat hidup berdampingan di operator pipa SQL yang sama menggunakan '|>'. Pisahkan beberapa klausa hasil pencarian menjadi operator pemisah terpisah lalu coba jalankan ulang kueri tersebut.
MULTIPLE_TIME_TRAVEL_SPEC
Tidak dapat menentukan perjalanan waktu dalam klausa perjalanan waktu dan opsi.
MULTIPLE_XML_DATA_SOURCE
Mendeteksi beberapa sumber data dengan nama <provider> (<sourceNames>). Tentukan nama kelas yang sepenuhnya memenuhi syarat atau hapus <externalSource> dari classpath.
MULTI_ALIAS_WITHOUT_GENERATOR
Alias multi bagian (<names>) tidak didukung dengan <expr> karena bukan fungsi generator.
MULTI_SOURCES_UNSUPPORTED_FOR_EXPRESSION
Ekspresi <expr> tidak mendukung lebih dari satu sumber.
MULTI_SOURCE_METRIC_VIEW_MEASURE_REFERENCING_DIMENSION
Mengukur kolom <measureColumn> dalam tampilan metrik tidak dapat mereferensikan kolom dimensi (<dimensionColumn>).
MULTI_SOURCE_METRIC_VIEW_UNQUALIFIED_MEASURE_REF
Referensi <measureColumn> kolom pengukuran yang tidak memenuhi syarat dalam tampilan metrik multi-sumber tidak diperbolehkan. Harap memenuhi syarat kolom pengukuran dengan alias sumber.
MULTI_SOURCE_METRIC_VIEW_UNSUPPORTED_EXPRESSION
Ekspresi agregasi di atas beberapa sumber dalam tampilan metrik tidak didukung: <expr>.
MULTI_UDF_INTERFACE_ERROR
Tidak diizinkan untuk menerapkan beberapa antarmuka UDF, kelas UDF <className>.
MUTUALLY_EXCLUSIVE_CLAUSES
Klausa atau opsi yang saling eksklusif <clauses>. Hapus salah satu klausa ini.
MV_ST_ALTER_QUERY_INCORRECT_BACKING_TYPE
Kueri input mengharapkan nomor <expectedType>, tetapi tabel yang mendasar adalah nomor <givenType>.
NAMED_PARAMETERS_NOT_SUPPORTED
Parameter bernama tidak didukung untuk fungsi <functionName>; silakan coba ulang kueri dengan argumen posisi untuk panggilan fungsi sebagai alternatif.
NAMED_PARAMETERS_NOT_SUPPORTED_FOR_SQL_UDFS
Tidak dapat memanggil fungsi <functionName> karena referensi argumen bernama tidak didukung. Dalam hal ini, referensi argumen bernama <argument>.
NAMED_PARAMETER_SUPPORT_DISABLED
Tidak dapat memanggil fungsi <functionName> karena referensi argumen bernama tidak diaktifkan di sini.
Dalam hal ini, referensi argumen bernama <argument>.
Atur "spark.sql.allowNamedFunctionArguments" ke "true" untuk mengaktifkan fitur.
NAMESPACE_ALREADY_EXISTS
Tidak dapat membuat namespace <nameSpaceName> karena sudah ada.
Pilih nama yang berbeda, hapus namespace yang ada, atau tambahkan klausa IF NOT EXISTS untuk mentolerir namespace yang sudah ada sebelumnya.
NAMESPACE_NOT_EMPTY
Tidak dapat menjatuhkan namespace <nameSpaceNameName> karena berisi objek.
Gunakan DROP NAMESPACE...CASCADE untuk menghilangkan namespace layanan dan semua objeknya.
NAMESPACE_NOT_FOUND
Namespace <nameSpaceName> tidak dapat ditemukan. Verifikasi ejaan dan kebenaran namespace.
Jika Anda tidak memenuhi syarat nama dengan benar, verifikasi output current_schema() atau pastikan Anda memenuhi syarat nama dengan tepat.
Untuk mentolerir kesalahan saat drop, gunakan DROP NAMESPACE IF EXISTS.
NATIVE_IO_ERROR
Permintaan bawaan gagal. requestId: <requestId>, cloud: <cloud>, operasi: <operation>
request: [https: <https>, method = <method>, path = <path>, params = <params>, host = <host>, header = <headers>, bodyLen = <bodyLen>],
kesalahan: <error>
NATIVE_XML_DATA_SOURCE_NOT_ENABLED
Sumber Data XML asli tidak diaktifkan dalam kluster ini.
NEGATIVE_SCALE_DISALLOWED
Skala negatif tidak diperbolehkan: '<scale>'. Atur konfigurasi <sqlConf> ke "true" untuk mengizinkannya.
NEGATIVE_VALUES_IN_FREQUENCY_EXPRESSION
Menemukan nilai negatif dalam <frequencyExpression>: <negativeValue>, tetapi mengharapkan nilai integral positif.
NESTED_AGGREGATE_FUNCTION
Tidak diperbolehkan menggunakan fungsi agregat dalam argumen fungsi agregat lain. Silakan gunakan fungsi agregat dalam dalam sub-kueri.
NESTED_EXECUTE_IMMEDIATE
Perintah EXECUTE IMMEDIATE bertumpuk tidak diizinkan. Pastikan bahwa kueri SQL yang disediakan (<sqlString>) tidak berisi perintah EXECUTE IMMEDIATE lain.
NESTED_REFERENCES_IN_LATERAL_SUBQUERY_NOT_SUPPORTED
Referensi <expression> cakupan luar yang terdeteksi dalam subkueri lateral yang tidak didukung. Pastikan subkueri lateral tidak berisi subkueri yang mereferensikan atribut dari cakupan luar berlapis.
NESTED_REFERENCES_IN_SUBQUERY_NOT_SUPPORTED
Referensi cakupan luar yang terdeteksi dalam subkueri tidak didukung.
PELANGGARAN_KONSTRRAIN_PEMERIKSAAN_BARU
Batasan pemeriksaan baru (<expression>) tidak dapat ditambahkan karena akan dilanggar oleh data yang ada dalam tabel <tableName>. Pastikan semua baris yang ada memenuhi batasan sebelum menambahkannya.
NONEXISTENT_FIELD_NAME_IN_LIST
Kolom <nonExistFields> tidak ada. Bidang yang tersedia: <fieldNames>
KETERBATASAN_PEMERIKSAAN_NON_DETERMINISTIK
Batasan <checkCondition> pemeriksaan tidak deterministik. Batasan pemeriksaan hanya boleh berisi ekspresi deterministik.
NON_FOLDABLE_ARGUMENT
Fungsi <funcName> mengharuskan parameter <paramName> menjadi ekspresi jenis yang dapat dilipat <paramType>, tetapi argumen aktual tidak dapat dilipat.
NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
Ketika ada lebih dari satu klausa MATCHED dalam pernyataan MERGE, hanya klausa MATCHED terakhir yang dapat menghilangkan kondisi.
NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
Ketika ada lebih dari satu klausa NOT MATCHED BY SOURCE dalam pernyataan MERGE, hanya klausa NOT MATCHED BY SOURCE terakhir yang dapat menghilangkan kondisi.
NON_LAST_NOT_MATCHED_BY_TARGET_CLAUSE_OMIT_CONDITION
Ketika ada lebih dari satu klausa NOT MATCHED [BY TARGET] dalam pernyataan MERGE, hanya klausa NOT MATCHED [BY TARGET] terakhir yang dapat menghilangkan kondisi.
NON_LITERAL_PIVOT_VALUES
Ekspresi literal yang diperlukan untuk nilai pivot, ditemukan pada <expression>.
NON_PARTITION_COLUMN
klausa PARTITION tidak boleh berisi kolom non-partisi: <columnName>.
NON_TIME_WINDOW_NOT_SUPPORTED_IN_STREAMING
Fungsi jendela tidak didukung di <windowFunc> (sebagai kolom <columnName>) pada streaming DataFrames/Himpunan Data.
Streaming Terstruktur hanya mendukung agregasi jendela waktu menggunakan fungsi WINDOW. (spesifikasi jendela: <windowSpec>)
NOT_ALLOWED_IN_FROM
Tidak diizinkan dalam klausa FROM:
Untuk informasi lebih lanjut, lihat NOT_ALLOWED_IN_FROM
NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE
Pada klausa pipa WHERE, tidak diizinkan:
Untuk detail selengkapnya, lihat NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE
NOT_A_CONSTANT_STRING
Ekspresi <expr> yang digunakan untuk rutin atau klausa <name> harus berupa konstanta STRING yang adalah NOT NULL.
Untuk informasi lebih lanjut, lihat NOT_A_CONSTANT_STRING
NOT_A_PARTITIONED_TABLE
Operasi <operation> tidak diperbolehkan untuk <tableIdentWithDB> karena bukan tabel yang dipartisi.
NOT_A_SCALAR_FUNCTION
<functionName> muncul sebagai ekspresi skalar di sini, tetapi fungsi didefinisikan sebagai fungsi tabel. Perbarui kueri untuk memindahkan panggilan fungsi ke klausa FROM, atau tentukan ulang <functionName> sebagai fungsi skalar sebagai gantinya.
NOT_A_TABLE_FUNCTION
<functionName> muncul sebagai fungsi tabel di sini, tetapi fungsi didefinisikan sebagai fungsi skalar. Harap perbarui kueri untuk memindahkan panggilan fungsi di luar klausa FROM, atau tentukan ulang <functionName> sebagai fungsi tabel sebagai gantinya.
NOT_ENOUGH_ARGS
Fungsi <functionName> mengharapkan setidaknya <minNum> parameter, tetapi diterima <actualNum> (<actualArgs>).
NOT_NULL_ASSERT_VIOLATION
nilai NULL muncul di bidang yang tidak dapat bernilai null: <walkedTypePath>Jika skema disimpulkan dari kelas tuple/case Scala, atau kelas case Java, silakan coba gunakan scala.Option[_] atau jenis nullable lainnya, seperti java.lang.Integer daripada int/scala.Int.
NOT_NULL_CONSTRAINT_VIOLATION
Menetapkan NULL tidak diperbolehkan di sini.
Untuk informasi lebih lanjut, lihat NOT_NULL_CONSTRAINT_VIOLATION
NOT_SUPPORTED_CHANGE_COLUMN
ALTER TABLE ALTER
/
CHANGE COLUMN tidak didukung untuk mengubah <table>kolom <originName> dengan tipe <originType> ke <newName> dengan tipe <newType>.
NOT_SUPPORTED_CHANGE_SAME_COLUMN
ALTER TABLE ALTER
/
CHANGE COLUMN tidak didukung untuk mengubah <table>kolom <fieldName> termasuk bidang berlapisnya beberapa kali dalam perintah yang sama.
NOT_SUPPORTED_COMMAND_FOR_V2_TABLE
<cmd> tidak didukung untuk tabel v2.
NOT_SUPPORTED_COMMAND_WITHOUT_HIVE_SUPPORT
<cmd> tidak didukung, jika Anda ingin mengaktifkannya, atur "spark.sql.catalogImplementation" ke "hive".
NOT_SUPPORTED_IN_JDBC_CATALOG
Perintah yang tidak didukung dalam katalog JDBC:
Untuk detail selengkapnya, lihat NOT_SUPPORTED_IN_JDBC_CATALOG
NOT_SUPPORTED_WITH_DB_SQL
<operation> tidak didukung pada <endpoint>SQL .
NOT_SUPPORTED_WITH_SERVERLESS
<operation> tidak didukung pada komputasi tanpa server.
NOT_UNRESOLVED_ENCODER
Pengkode yang belum diresolusi diharapkan, tetapi <attr> ditemukan.
NO_ACTIVE_TRANSACTION
Tidak ada transaksi aktif ke <action>.
NO_DEFAULT_COLUMN_VALUE_AVAILABLE
Tidak dapat menentukan nilai default karena <colName> tidak dapat diubah ke null dan tidak memiliki nilai default.
NO_HANDLER_FOR_UDAF
Tidak ada handler untuk UDAF '<functionName>'. Gunakan sparkSession.udf.register(...) sebagai gantinya.
NO_MERGE_ACTION_SPECIFIED
df.mergeInto perlu diikuti oleh setidaknya salah satu dari *whenMatched/whenNotMatched/whenNotMatchedBySource*.
NO_PARENT_EXTERNAL_LOCATION_FOR_PATH
Tidak ada lokasi eksternal induk yang ditemukan untuk jalur '<path>'. Buat lokasi eksternal di salah satu jalur induk lalu coba lagi kueri atau perintah lagi.
NO_PRIMARY_KEY_CONSTRAINT_EXCEPTION
TABLE <table> tidak memiliki batasan kunci primer.
NO_SQL_TYPE_IN_PROTOBUF_SCHEMA
Tidak dapat menemukan <catalystFieldPath> dalam skema Protobuf.
NO_STORAGE_LOCATION_FOR_TABLE
SQLSTATE: tidak ada yang ditetapkan
Tidak ada lokasi penyimpanan yang ditemukan untuk tabel '<tableId>' saat membuat kredensial tabel. Harap verifikasi jenis tabel dan URL lokasi tabel lalu coba lagi kueri atau perintah lagi.
NO_SUCH_CATALOG_EXCEPTION
Katalog '<catalog>' tidak ditemukan. Harap verifikasi nama katalog lalu coba lagi kueri atau perintah lagi.
NO_SUCH_CLEANROOM_EXCEPTION
SQLSTATE: tidak ada yang ditetapkan
Kamar bersih '<cleanroom>' tidak ada. Pastikan bahwa nama ruang bersih dieja dengan benar dan cocok dengan nama ruang bersih yang ada yang valid lalu coba lagi kueri atau perintah.
NO_SUCH_CONSTRAINT_EXCEPTION
Batasan <constraint> tidak ditemukan di <identifier>.
NO_SUCH_CREDENTIAL_EXCEPTION
Kredensial '<credential>' tidak ada. Pastikan bahwa nama kredensial dieja dengan benar dan cocok dengan nama kredensial yang ada yang valid lalu coba lagi kueri atau perintah lagi.
NO_SUCH_EXTERNAL_LOCATION_EXCEPTION
SQLSTATE: tidak ada yang ditetapkan
Lokasi eksternal '<externalLocation>' tidak ada. Harap verifikasi bahwa nama lokasi eksternal sudah benar, lalu coba lagi kueri atau perintah.
NO_SUCH_METASTORE_EXCEPTION
SQLSTATE: tidak ada yang ditetapkan
Metastore tidak ditemukan. Silakan minta administrator akun Anda untuk menetapkan metastore ke ruang kerja saat ini lalu coba lagi kueri atau perintah lagi.
NO_SUCH_PROVIDER_EXCEPTION
SQLSTATE: tidak ada yang ditetapkan
Penyedia berbagi '<providerName>' tidak ada. Pastikan nama penyedia berbagi dieja dengan benar dan cocok dengan nama nama penyedia yang sudah ada yang valid, lalu coba lagi kueri atau perintah tersebut.
NO_SUCH_RECIPIENT_EXCEPTION
SQLSTATE: tidak ada yang ditetapkan
Penerima '<recipient>' tidak ada. Pastikan bahwa nama penerima dieja dengan benar dan cocok dengan nama penerima yang sudah ada yang valid lalu coba lagi kueri atau perintah lagi.
NO_SUCH_SHARE_EXCEPTION
SQLSTATE: tidak ada yang ditetapkan
Bagian yang dibagikan '<share>' tidak ada. Pastikan bahwa nama share dieja dengan benar dan cocok dengan nama share yang sudah ada yang valid, lalu coba lagi kueri atau perintah tersebut.
NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION
SQLSTATE: tidak ada yang ditetapkan
Kredensial penyimpanan '<storageCredential>' tidak ada. Pastikan bahwa nama kredensial penyimpanan dieja dengan benar dan cocok dengan nama kredensial penyimpanan yang sudah ada yang valid lalu coba lagi kueri atau perintah lagi.
NO_SUCH_USER_EXCEPTION
SQLSTATE: tidak ada yang ditetapkan
Pengguna '<userName>' tidak ada. Harap verifikasi bahwa pengguna yang Anda berikan izin atau ubah kepemilikan dieja dengan benar dan cocok dengan nama pengguna yang sudah ada yang valid lalu coba lagi kueri atau perintah tersebut.
NO_UDF_INTERFACE
Kelas UDF <className> tidak mengimplementasikan antarmuka UDF apa pun.
NULLABLE_COLUMN_OR_FIELD
Kolom atau bidang <name> bisa bernilai null sementara wajib tidak bisa bernilai null.
NULLABLE_ROW_ID_ATTRIBUTES
Atribut ID baris tidak dapat diubah ke null: <nullableRowIdAttrs>.
NULL_DATA_SOURCE_OPTION
Opsi baca/tulis sumber data <option> tidak boleh memiliki nilai null.
NULL_MAP_KEY
Tidak dapat menggunakan null sebagai kunci peta.
NULL_QUERY_STRING_EXECUTE_IMMEDIATE
Eksekusi segera memerlukan variabel non-null sebagai string kueri, tetapi variabel yang disediakan <varName> adalah null.
NULL_VALUE_SIGNAL_STATEMENT
Argumen pernyataan sinyal memerlukan nilai non-null, tetapi <argument> menerima nilai null.
NUMERIC_OUT_OF_SUPPORTED_RANGE
Nilai <value> tidak dapat ditafsirkan sebagai numerik karena memiliki lebih dari 38 digit.
NUMERIC_VALUE_OUT_OF_RANGE
Untuk detail lebih lanjut, lihat NUMERIC_VALUE_OUT_OF_RANGE
NUM_COLUMNS_MISMATCH
<operator> hanya dapat dilakukan pada input dengan jumlah kolom yang sama, tetapi input pertama memiliki kolom <firstNumColumns> dan input <invalidOrdinalNum> memiliki kolom <invalidNumColumns>.
NUM_TABLE_VALUE_ALIASES_MISMATCH
Jumlah alias yang diberikan tidak cocok dengan jumlah kolom output.
Nama fungsi: <funcName>; jumlah alias: <aliasesNum>; jumlah kolom output: <outColsNum>.
OAUTH_CUSTOM_IDENTITY_CLAIM_NOT_PROVIDED
Tidak ada klaim identitas kustom yang disediakan.
ONLY_SECRET_FUNCTION_SUPPORTED_HERE
Fungsi panggilan <functionName> tidak didukung dalam <location>ini; <supportedFunctions> didukung di sini.
ONLY_SUPPORTED_WITH_UC_SQL_CONNECTOR
Operasi SQL <operation> hanya didukung pada konektor Databricks SQL dengan dukungan Unity Catalog.
OPERATION_CANCELED
Operasi telah dibatalkan.
OPERATION_REQUIRES_UNITY_CATALOG
Operasi <operation> mengharuskan Katalog Unity diaktifkan.
OP_NOT_SUPPORTED_READ_ONLY
<plan> tidak didukung dalam mode sesi baca-saja.
ORDER_BY_POS_OUT_OF_RANGE
ORDER BY posisi <index> tidak ada dalam daftar pilih (rentang yang valid adalah [1, <size>]).
PARQUET_CONVERSION_FAILURE
Tidak dapat membuat konverter Parquet untuk jenis data <dataType> yang jenis Parquet-nya adalah <parquetType>.
Untuk detail selengkapnya, lihat PARQUET_CONVERSION_FAILURE
PARQUET_TYPE_ILLEGAL
Jenis Parquet tidak sah: <parquetType>.
PARQUET_TYPE_NOT_RECOGNIZED
Jenis Parquet yang tidak dikenal: <field>.
PARQUET_TYPE_NOT_SUPPORTED
Jenis parquet belum didukung: <parquetType>.
PARSE_EMPTY_STATEMENT
Kesalahan sintaksis, pernyataan kosong yang tidak terduga.
PARSE_MODE_UNSUPPORTED
Fungsi <funcName> ini tidak mendukung <mode> mode . Mode yang dapat diterima PERMISSIVE dan FAILFAST.
PARSE_SYNTAX_ERROR
Kesalahan sintaks pada atau dekat <error> <hint>.
PARTITIONS_ALREADY_EXIST
Tidak dapat menambahkan RENAME ke partisi-partisi <partitionList> dalam tabel <tableName> karena partisi-partisi tersebut sudah ada.
Pilih nama yang berbeda, hapus partisi yang ada, atau tambahkan klausa IF NOT EXISTS untuk mentolerir partisi yang sudah ada sebelumnya.
PARTITIONS_NOT_FOUND
Partisi <partitionList> tidak dapat ditemukan dalam tabel <tableName>.
Verifikasi spesifikasi partisi dan nama tabel.
Untuk mengabaikan kesalahan saat menjalankan drop, gunakan ALTER TABLE ...
DROP IF EXISTS PARTITION.
PARTITION_COLUMN_NOT_FOUND_IN_SCHEMA
Kolom partisi <column> tidak ditemukan dalam skema <schema>. Harap sediakan kolom yang ada untuk pemartisian.
PARTITION_LOCATION_ALREADY_EXISTS
Lokasi partisi <locationPath> sudah ada dalam tabel <tableName>.
PARTITION_LOCATION_IS_NOT_UNDER_TABLE_DIRECTORY
Gagal menjalankan pernyataan ALTER TABLE SET PARTITION LOCATION, karena
lokasi partisi <location> tidak berada di bawah direktori tabel <table>.
Untuk memperbaikinya, silakan atur lokasi partisi ke subdirektori <table>.
PARTITION_METADATA
<action> tidak diizinkan pada tabel <tableName> karena menyimpan metadata partisi tidak didukung di Katalog Unity.
PARTITION_NUMBER_MISMATCH
Jumlah nilai (<partitionNumber>) tidak cocok dengan ukuran skema (<partitionSchemaSize>): nilai <partitionValues>, skema <partitionSchema>, jalur file <urlEncodedPath>.
Harap materialisasi ulang tabel atau hubungi pemilik.
PARTITION_TRANSFORM_EXPRESSION_NOT_IN_PARTITIONED_BY
Ekspresi <expression> harus berada di dalam 'partitionedBy'.
PATH_ALREADY_EXISTS
Jalur <outputPath> sudah ada. Atur [mode] pengaturan sebagai "timpa" untuk mengganti jalur yang ada.
PATH_NOT_FOUND
Jalur tidak ditemukan: <path>.
PATH_RESOLUTION_ERROR
Tidak dapat mengatasi jalur <path>. Disebabkan oleh: <causedBy>
PHOTON_DESERIALIZED_PROTOBUF_MEMORY_LIMIT_EXCEEDED
Proses deserialisasi rencana Photon protobuf membutuhkan minimal <size> byte, yang melebihi
batas maksimum <limit> byte. Ini bisa disebabkan oleh rencana yang sangat besar atau adanya suatu hal yang sangat besar.
skema lebar. Cobalah untuk menyederhanakan kueri, menghapus kolom yang tidak perlu, atau menonaktifkan Photon.
PHOTON_SERIALIZED_PROTOBUF_MEMORY_LIMIT_EXCEEDED
Paket protobuf Photon yang diserialisasikan memiliki ukuran <size> byte, yang melebihi batas
<limit> byte. Ukuran jenis data yang diserialisasikan dalam rencana adalah <dataTypeSize> byte.
Ini bisa disebabkan oleh rencana yang sangat besar atau adanya skema yang sangat luas.
Pertimbangkan untuk menulis ulang kueri untuk menghapus operasi dan kolom yang tidak diinginkan atau menonaktifkan Photon.
DATASET_PIPA_TANPA_ALIRAN
Himpunan <identifier> data alur tidak memiliki alur yang ditentukan. Lampirkan kueri dengan definisi himpunan data, atau tentukan secara eksplisit setidaknya satu alur yang menulis ke himpunan data.
PIPELINE_DOES_NOT_EXIST
Alur '<pipelineId>' tidak ada
Untuk detail selengkapnya, lihat PIPELINE_DOES_NOT_EXIST
PIPELINE_DUPLICATE_IDENTIFIERS
Pengidentifikasi duplikat ditemukan untuk elemen yang terdaftar dalam graf aliran data pipeline.
Untuk detail selengkapnya, lihat PIPELINE_DUPLICATE_IDENTIFIERS
PIPELINE_SQL_GRAPH_ELEMENT_REGISTRATION_ERROR
<message>
<offendingQuery>
<codeLocation>
PIPELINE_STORAGE_ROOT_INVALID
Akar penyimpanan alur harus merupakan jalur absolut dengan skema URI (misalnya, file://, s3a://, hdfs://). Dapatkan: <storage_root>.
PIPE_OPERATOR_AGGREGATE_EXPRESSION_CONTAINS_NO_AGGREGATE_FUNCTION
Ekspresi <expr> non-pengelompokan disediakan sebagai argumen untuk operator pipa |>AGGREGATE tetapi tidak berisi fungsi agregat apa pun; harap perbarui untuk menyertakan fungsi agregat lalu coba lagi kueri.
PIPE_OPERATOR_CONTAINS_AGGREGATE_FUNCTION
Fungsi agregat <expr> tidak diizinkan saat menggunakan operator pipa |><clause> klausul; silakan gunakan operator pipa |>AGGREGATE klausa sebagai gantinya.
PIVOT_VALUE_DATA_TYPE_MISMATCH
Nilai pivot '<value>': tipe nilai data <valueType> tidak cocok dengan tipe data kolom pivot <pivotType>.
POLICY_ALREADY_EXISTS
Tidak dapat membuat kebijakan <policyName> karena sudah ada.
Pilih nama yang berbeda atau hilangkan kebijakan yang ada untuk mentolerir koneksi yang sudah ada sebelumnya.
POLICY_NOT_FOUND
Tidak dapat menjalankan <commandType> perintah karena kebijakan <policyName> pada <securableFullname> tidak dapat ditemukan.
Harap verifikasi ejaan dan kebenarannya.
POLICY_ON_SECURABLE_TYPE_NOT_SUPPORTED
Tidak dapat membuat kebijakan pada jenis <securableType> yang dapat diamankan. Tipe yang dapat diamankan yang didukung: <allowedTypes>.
PREVIEW_FEATURE_NOT_ENABLED
Fitur <featureName> pratinjau tidak diaktifkan. Silakan hubungi administrator ruang kerja Anda untuk mengaktifkan fitur ini melalui portal pratinjau.
PROCEDURE_ARGUMENT_NUMBER_MISMATCH
Prosedur <procedureName> mengharapkan argumen <expected>, tetapi <actual> disediakan.
PROCEDURE_CREATION_EMPTY_ROUTINE
CREATE PROCEDURE dengan definisi rutin kosong tidak diperbolehkan.
PROCEDURE_CREATION_PARAMETER_OUT_INOUT_WITH_DEFAULT
Parameter <parameterName> didefinisikan dengan mode parameter <parameterMode>. OUT dan INOUT parameter tidak dapat dihilangkan saat memanggil rutinitas dan karenanya tidak mendukung DEFAULT ekspresi. Untuk melanjutkan, hapus klausa DEFAULT atau ubah mode parameter menjadi IN.
PROCEDURE_NOT_SUPPORTED
Prosedur tersimpan tidak didukung
PROCEDURE_NOT_SUPPORTED_WITH_HMS
Prosedur tersimpan tidak didukung dengan Hive Metastore. Silakan gunakan Katalog Unity sebagai gantinya.
PROTOBUF_DEPENDENCY_NOT_FOUND
Tidak dapat menemukan dependensi: <dependencyName>.
PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND
Kesalahan saat membaca file deskriptor Protobuf di jalur: <filePath>.
PROTOBUF_FIELD_MISSING
Mencari <field> dalam skema Protobuf di <protobufSchema> memberikan kecocokan <matchSize>. Kandidat: <matches>.
PROTOBUF_FIELD_MISSING_IN_SQL_SCHEMA
Ditemukan <field> dalam skema Protobuf tetapi tidak ada kecocokan dalam skema SQL.
PROTOBUF_FIELD_TYPE_MISMATCH
Ketidakcocokan tipe ditemukan untuk bidang: <field>.
PROTOBUF_JAVA_CLASSES_NOT_SUPPORTED
Kelas Java tidak didukung untuk <protobufFunction>. Hubungi Dukungan Databricks tentang opsi alternatif.
PROTOBUF_MESSAGE_NOT_FOUND
Tidak dapat menemukan Pesan <messageName> di deskriptor.
PROTOBUF_NOT_LOADED_SQL_FUNCTIONS_UNUSABLE
Tidak dapat memanggil fungsi SQL <functionName> karena sumber data Protobuf tidak dimuat.
Mulai ulang pekerjaan atau sesi Anda dengan paket 'spark-protobuf' yang dimuat, seperti dengan menggunakan argumen --packages pada baris perintah, lalu coba lagi kueri atau perintah Anda.
PROTOBUF_TYPE_NOT_SUPPORT
Jenis Protobuf belum didukung: <protobufType>.
PS_FETCH_RETRY_EXCEPTION
Tugas dalam tahap pengambilan data pubsub tidak dapat diulang. Partisi <partitionInfo> dalam tahap <stageInfo>, TID <taskId>.
PS_INVALID_EMPTY_OPTION
<key> tidak boleh berupa string kosong.
PS_INVALID_KEY_TYPE
Jenis kunci tidak valid untuk PubSub dedup: <key>.
PS_INVALID_OPTION
Opsi <key> tidak didukung oleh PubSub. Ini hanya dapat digunakan dalam pengujian.
PS_INVALID_OPTION_TYPE
Jenis tidak sah untuk <key>. Jenis yang diharapkan dari <key> adalah jenis <type>.
PS_INVALID_READ_LIMIT
Batas baca tidak valid pada aliran PubSub: <limit>.
PS_INVALID_UNSAFE_ROW_CONVERSION_FROM_PROTO
UnsafeRow tidak valid untuk mendekode ke PubSubMessageMetadata, skema proto yang diinginkan adalah: <protoSchema>. Input UnsafeRow mungkin rusak: <unsafeRow>.
PS_INVALID_WORKLOAD_IDENTITY_FEDERATION_AUDIENCE_OPTION
Kueri atau perintah gagal karena opsi baca yang tidak valid: dalam spark.readStream.format("pubsub").option("workloadIdentityFederation.audience", <audience>). Perbarui <audience> agar sesuai dengan format berikut: //iam.googleapis.com/projects/{PROJECT_NUMBER}/locations/global/workloadIdentityPools/{POOL_ID}/providers/{PROVIDER_ID} lalu coba lagi kueri atau perintah.
PS_MISSING_AUTH_INFO
Gagal menemukan informasi autentikasi PubSub lengkap.
PS_MISSING_REQUIRED_OPTION
Tidak dapat menemukan opsi yang diperlukan: <key>.
PS_MOVING_CHECKPOINT_FAILURE
Gagal memindahkan file titik pemeriksaan data mentah dari <src> ke direktori tujuan: <dest>.
PS_MULTIPLE_AUTH_OPTIONS
Harap berikan kredensial layanan Databricks atau kredensial akun layanan GCP Anda.
PS_MULTIPLE_FAILED_EPOCHS
Aliran PubSub tidak dapat dimulai karena ada lebih dari satu pengambilan data yang gagal: <failedEpochs>.
PS_OPTION_NOT_IN_BOUNDS
<key> harus berada dalam batas berikut (<min>, <max>) eksklusif dari kedua batas.
PS_PROVIDE_CREDENTIALS_WITH_OPTION
Kluster bersama tidak mendukung autentikasi dengan profil instans. Berikan kredensial ke aliran secara langsung menggunakan .option().
PS_SPARK_SPECULATION_NOT_SUPPORTED
Konektor sumber PubSub hanya tersedia dalam kluster dengan spark.speculation dinonaktifkan.
PS_UNABLE_TO_CREATE_SUBSCRIPTION
Terjadi kesalahan saat mencoba membuat langganan <subId> pada topik <topicId>. Silakan periksa apakah ada cukup izin untuk membuat langganan dan coba lagi.
PS_UNABLE_TO_PARSE_PROTO
Tidak dapat mengurai byte berseri untuk menghasilkan proto.
PS_UNSUPPORTED_GET_OFFSET_CALL
Fungsi getOffset tidak didukung jika tidak menyertakan batas.
PYTHON_DATA_SOURCE_ERROR
Sumber data Python gagal <action><type>: <msg>
PYTHON_STREAMING_DATA_SOURCE_RUNTIME_ERROR
Gagal saat sumber data streaming Python melakukan <action>: <msg>
QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
Tidak dapat mengakses tabel yang direferensikan karena masker kolom yang ditetapkan sebelumnya saat ini tidak kompatibel dengan skema tabel; untuk melanjutkan, silakan hubungi pemilik tabel untuk memperbarui kebijakan:
Untuk informasi lebih lanjut, lihat QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
Tidak dapat mengakses tabel yang direferensikan karena kebijakan keamanan tingkat baris yang ditetapkan sebelumnya saat ini tidak kompatibel dengan skema tabel; untuk melanjutkan, silakan hubungi pemilik tabel untuk memperbarui kebijakan:
Untuk rincian lebih lanjut, lihat QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
QUERY_EXECUTION_TIMEOUT_EXCEEDED
Eksekusi kueri dibatalkan karena melebihi batas waktu (<timeoutSec>). Anda dapat meningkatkan batas dalam detik dengan mengatur <config>.
QUERY_INCOMPATIBLE_WITH_RLSCM_POLICY
Lihat daftar masuk/rowcolumncontrols-allowlist. LogicalPlan <unknownLogicalPlan> tidak kompatibel dengan kebijakan RLS/CM.
QUERY_REJECTED
Eksekusi kueri ditolak.
QUERY_RESULT_WRITE_TO_CLOUD_STORE_PERMISSION_ERROR
Konfigurasi penyimpanan internal ruang kerja mencegah Databricks mengakses penyimpanan cloud.
QUERY_TAGS_NOT_IMPLEMENTED_ERROR
Tag kueri belum didukung di SQL.
QUERY_TAGS_SYNTAX_INVALID
Format untuk SET QUERY_TAGS perintah tidak valid.
QUERY_TAG_KEY_INVALID
Validasi gagal kunci tag kueri '<key>'.
QUERY_TAG_KEY_MAY_NOT_BE_EMPTY
Kunci tag kueri mungkin tidak null atau kosong. Spasi kosong di depan dan di belakang dipangkas pada kunci dan nilai.
QUERY_TAG_MAX_COUNT_EXCEEDED
Jumlah tag kueri melebihi batas <tagLimit> maksimum tag per sesi.
QUERY_TAG_VALUE_INVALID
Nilai tag kueri '<value>' validasi gagal.
QUERY_WATCHDOG_CHECK_FAILED
Pemeriksaan pengawas kueri gagal.
Untuk detail selengkapnya, lihat QUERY_WATCHDOG_CHECK_FAILED
READ_CURRENT_FILE_NOT_FOUND
<message>
Ada kemungkinan file yang mendasar telah diperbarui. Anda dapat secara eksplisit membatalkan cache di Spark dengan menjalankan perintah 'REFRESH TABLE tableName' di SQL atau dengan membuat ulang Himpunan Data/DataFrame yang terlibat.
READ_FILES_AMBIGUOUS_ROUTINE_PARAMETERS
Pemanggilan fungsi <functionName> memiliki <parameterName> dan <alternativeName> yang disetel, yang merupakan alias satu sama lain. Silakan atur hanya satu dari mereka.
READ_FILES_CREDENTIALS_PARSE_ERROR
Terjadi kesalahan saat mengurai kredensial sementara fungsi read_files().
Untuk detail selengkapnya, lihat READ_FILES_CREDENTIALS_PARSE_ERROR
READ_TVF_UNEXPECTED_REQUIRED_PARAMETER
Parameter <functionName> yang diperlukan untuk fungsi <parameterName> harus ditetapkan pada posisi <expectedPos> tanpa nama.
RECIPIENT_EXPIRATION_NOT_SUPPORTED
Hanya jenis TIMESTAMP/TIMESTAMP_LTZ/TIMESTAMP_NTZ yang didukung untuk tanda waktu kedaluwarsa penerima.
RECURSION_LEVEL_LIMIT_EXCEEDED
Batas <levelLimit> tingkat rekursi tercapai tetapi kueri belum habis, coba tingkatkan seperti 'WITH RECURSIVE t(col) MAX RECURSION LEVEL 200'.
RECURSION_ROW_LIMIT_EXCEEDED
Batas baris rekursi <rowLimit> tercapai tetapi kueri belum selesai, coba tetapkan nilai yang lebih besar dalam mengkueri LIMIT hubungan CTE.
RECURSIVE_CTE_IN_LEGACY_MODE
Definisi rekursif tidak dapat digunakan dalam mode prioritas CTE warisan (spark.sql.legacy.ctePrecedencePolicy=LEGACY).
RECURSIVE_CTE_WITH_LEGACY_INLINE_FLAG
Definisi rekursif tidak dapat digunakan ketika indikator inline warisan diatur ke true (spark.sql.legacy.inlineCTEInCommands=true).
RECURSIVE_PROTOBUF_SCHEMA
Ditemukan referensi rekursif dalam skema Protobuf, yang tidak dapat diproses oleh Spark secara default: <fieldDescriptor>. coba atur opsi recursive.fields.max.depth 1 ke 10. Melampaui 10 tingkat rekursi tidak diperbolehkan.
RECURSIVE_VIEW
Tampilan rekursif <viewIdent> terdeteksi (siklus: <newPath>).
REF_DEFAULT_VALUE_IS_NOT_ALLOWED_IN_PARTITION
Referensi ke nilai kolom DEFAULT tidak diizinkan dalam klausa PARTITION.
RELATION_LARGER_THAN_8G
Tidak bisa membangun <relationName> yang lebih besar dari 8 GB.
REMAINDER_BY_ZERO
Sisanya sebesar nol. Gunakan try_mod untuk mentolerir pembagi yang bernilai 0 dan mengembalikan NULL. Jika perlu, atur <config> ke "false" untuk melewati kesalahan ini.
REMOTE_FUNCTION_HTTP_FAILED_ERROR
Permintaan HTTP jarak jauh gagal dengan kode <errorCode>, dan pesan kesalahan <errorMessage>
REMOTE_FUNCTION_HTTP_RESULT_PARSE_ERROR
Gagal mengevaluasi <functionName> fungsi SQL karena ketidakmampuan untuk mengurai JSON hasil dari respons HTTP jarak jauh; pesan kesalahannya adalah <errorMessage>. Periksa dokumentasi API: <docUrl>. Silakan perbaiki masalah yang ditunjukkan dalam pesan kesalahan dan coba lagi kueri.
REMOTE_FUNCTION_HTTP_RESULT_UNEXPECTED_ERROR
Gagal mengevaluasi fungsi SQL <functionName> karena ketidakmampuan untuk memproses respons HTTP jarak jauh yang tidak terduga; pesan kesalahan <errorMessage>. Periksa dokumentasi API: <docUrl>. Silakan perbaiki masalah yang ditunjukkan dalam pesan kesalahan dan coba lagi kueri.
REMOTE_FUNCTION_HTTP_RETRY_TIMEOUT
Permintaan jarak jauh gagal setelah mencoba kembali <N> kali; kode kesalahan HTTP terakhir yang gagal <errorCode> dan pesannya <errorMessage>
REMOTE_FUNCTION_MISSING_REQUIREMENTS_ERROR
Gagal mengevaluasi fungsi SQL <functionName> karena <errorMessage>. Periksa persyaratan di <docUrl>. Silakan perbaiki masalah yang ditunjukkan dalam pesan kesalahan dan coba lagi kueri.
REMOTE_QUERY_FUNCTION_UNSUPPORTED_CONNECTOR_PARAMETERS
<parameterNames> Parameter tidak didukung untuk fungsi remote_query, yang meminta koneksi '<connectionName>' jenis '<connectionType>'.
Untuk informasi lebih lanjut, lihat REMOTE_QUERY_FUNCTION_UNSUPPORTED_CONNECTOR_PARAMETERS
RENAME_SRC_PATH_NOT_FOUND
Gagal mengganti nama karena <sourcePath> tidak ditemukan.
REPEATED_CLAUSE
Klausa <clause> dapat digunakan paling banyak sekali per operasi <operation>.
REQUIRED_PARAMETER_ALREADY_PROVIDED_POSITIONALLY
Parameter yang diperlukan oleh rutin <routineName>, yaitu <parameterName>, telah ditetapkan pada posisi <positionalIndex> tanpa nama.
Harap perbarui panggilan fungsi dengan menghapus argumen yang diberi nama dengan <parameterName> untuk parameter ini atau menghapus argumen posisi.
argumen di <positionalIndex> lalu coba kueri lagi.
REQUIRED_PARAMETER_NOT_FOUND
Tidak dapat memanggil <routineName> rutin karena parameter bernama <parameterName> diperlukan, tetapi panggilan rutin tidak menyediakan nilai. Harap perbarui panggilan rutin untuk menyediakan nilai argumen (baik secara posisional pada indeks <index> atau berdasarkan nama) dan coba lagi kueri.
REQUIRES_EXPLICIT_NAME_IN_WATERMARK_CLAUSE
Klausa marka air memerlukan nama eksplisit jika ekspresi ditentukan, tetapi mendapatkan <sqlExpr>.
REQUIRES_SINGLE_PART_NAMESPACE
<sessionCatalog> memerlukan namespace satu bagian, tetapi mendapat <namespace>.
RESCUED_DATA_COLUMN_CONFLICT_WITH_SINGLE_VARIANT
Opsi pembaca API DataFrame 'rescuedDataColumn' tidak dapat digunakan bersamaan dengan opsi API DataFrame 'singleVariantColumn'.
Silakan hapus salah satunya lalu coba lagi operasi DataFrame lagi.
RESERVED_CDC_COLUMNS_ON_WRITE
Tulisan berisi kolom yang dicadangkan <columnList> yang digunakan
secara internal sebagai metadata untuk Umpan Data Perubahan. Untuk menulis ke tabel, ubah nama atau hapus
kolom ini atau nonaktifkan Ubah Umpan Data pada tabel dengan menyetel
<config> ke false.
RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
Opsi <option> memiliki nilai terbatas pada kluster Bersama untuk sumber <source>.
Untuk rincian lebih lanjut, lihat RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
ROUTINE_ALREADY_EXISTS
Tidak dapat membuat <newRoutineType> <routineName> karena sudah ada <existingRoutineType> nama tersebut.
Pilih nama yang berbeda, jatuhkan atau ganti <existingRoutineType>yang ada, atau tambahkan klausa IF NOT EXISTS untuk mentolerir <newRoutineType>yang sudah ada sebelumnya.
ROUTINE_NOT_FOUND
Rutin <routineName> tidak dapat ditemukan. Verifikasi ejaan dan kebenaran skema dan katalog.
Jika Anda tidak menentukan nama dengan skema dan katalog, verifikasi output current_schema(), atau tentukan nama dengan skema dan katalog yang benar.
Untuk mentolerir kesalahan pada penggunaan DROP...IF EXISTSdrop .
ROUTINE_PARAMETER_NOT_FOUND
<routineName> fungsi rutin tidak mendukung parameter <parameterName> yang ditentukan pada posisi <pos>.<suggestion>
ROUTINE_USES_SYSTEM_RESERVED_CLASS_NAME
Fungsi <routineName> tidak dapat dibuat karena nama kelas '<className>' yang ditentukan telah disediakan untuk penggunaan sistem. Ganti nama kelas dan coba lagi.
ROW_LEVEL_SECURITY_ABAC_MISMATCH
Filter baris tidak dapat diselesaikan pada <tableName> karena ada ketidakcocokan antara filter baris yang diwarisi dari kebijakan dan filter baris yang ditentukan secara eksplisit. Untuk melanjutkan, nonaktifkan Kontrol Akses Berbasis Atribut (ABAC) dan hubungi dukungan Databricks.
ROW_LEVEL_SECURITY_CHECK_CONSTRAINT_UNSUPPORTED
Pembuatan pembatasan CHECK pada tabel <tableName> dengan kebijakan keamanan tingkat baris tidak didukung.
ROW_LEVEL_SECURITY_COLUMN_MASK_UNRESOLVED_REFERENCE_COLUMN
Kolom dengan nama <objectName> yang dirujuk dalam filter baris atau parameter fungsi masker kolom tidak dapat diselesaikan.
Ini dapat terjadi jika skema tabel yang mendasar telah berubah dan kolom yang dirujuk tidak ada lagi.
Misalnya, ini dapat terjadi jika kolom dihapus dalam sistem eksternal (misalnya, tabel federasi), atau jika REPLACE operasi pada tabel menghilangkan kolom.
Untuk mengatasi hal ini, pengguna dengan hak istimewa manajemen pada tabel dapat memeriksa filter baris dan masker kolom saat ini menggunakan DESCRIBE TABLE EXTENDED, dan menghilangkan atau membuat ulang kolom yang tidak ada referensi menggunakanALTER TABLE...SET/DROP ROW FILTER atau MASK.
Catatan: Databricks memperkenalkan peningkatan keamanan untuk mempertahankan masker kolom pada operasi REPLACE ketika skema baru menyertakan kolom yang sama, walaupun masker tidak disebutkan. Ini mencegah kehilangan kebijakan yang tidak disengaja pada tabel.
ROW_LEVEL_SECURITY_DUPLICATE_COLUMN_NAME
Pernyataan <statementType> mencoba menetapkan kebijakan keamanan tingkat baris ke tabel, tetapi dua atau beberapa kolom yang direferensikan memiliki nama yang sama <columnName>, yang tidak valid.
ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
Kebijakan keamanan tingkat baris untuk <tableName> tidak didukung:
Untuk informasi lebih lanjut, lihat ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
ROW_LEVEL_SECURITY_INCOMPATIBLE_SCHEMA_CHANGE
Tidak dapat <statementType> <columnName> dari tabel <tableName> karena dirujuk dalam kebijakan keamanan tingkat baris. Pemilik tabel harus menghapus atau mengubah kebijakan ini sebelum melanjutkan.
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_SOURCE
Operasi MERGE INTO tidak mengakomodasi kebijakan keamanan tingkat baris di tabel sumber <tableName>.
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_TARGET
Operasi MERGE INTO tidak mendukung penulisan ke dalam tabel <tableName> dengan kebijakan keamanan pada tingkat baris.
ROW_LEVEL_SECURITY_MULTI_PART_COLUMN_NAME
Pernyataan ini mencoba menetapkan kebijakan keamanan tingkat baris ke tabel, tetapi kolom yang direferensikan <columnName> memiliki beberapa bagian nama, yang tidak valid.
ROW_LEVEL_SECURITY_REQUIRE_UNITY_CATALOG
Kebijakan keamanan tingkat baris hanya didukung di Katalog Unity.
ROW_LEVEL_SECURITY_SECONDARY_INDEX_CREATION_UNSUPPORTED
Tidak dapat membuat indeks ON TABLE <tableName> sekunder karena tabel memiliki kebijakan keamanan tingkat baris yang ditentukan.
ROW_LEVEL_SECURITY_SHOW_PARTITIONS_UNSUPPORTED
perintah SHOW PARTITIONS tidak didukung untuk tabel<format> dengan kebijakan keamanan tingkat baris.
ROW_LEVEL_SECURITY_TABLE_CLONE_SOURCE_NOT_SUPPORTED
<mode> mengkloning tabel <tableName> dengan kebijakan keamanan tingkat baris tidak didukung.
ROW_LEVEL_SECURITY_TABLE_CLONE_TARGET_NOT_SUPPORTED
<mode> mengkloning tabel ke <tableName> dengan kebijakan keamanan pada tingkat baris tidak didukung.
ROW_LEVEL_SECURITY_UNSUPPORTED_CONSTANT_AS_PARAMETER
Menggunakan konstanta sebagai parameter dalam kebijakan keamanan tingkat baris tidak didukung. Perbarui perintah SQL Anda untuk menghapus konstanta dari definisi filter baris lalu coba lagi perintah tersebut.
ROW_LEVEL_SECURITY_UNSUPPORTED_DATA_TYPE
Fungsi <functionName> yang digunakan untuk kebijakan keamanan tingkat baris memiliki parameter dengan jenis data <dataType> yang tidak didukung.
ROW_LEVEL_SECURITY_UNSUPPORTED_PROVIDER
Gagal menjalankan <statementType> perintah karena menetapkan kebijakan keamanan tingkat baris tidak didukung untuk sumber data target dengan penyedia tabel: "<provider>".
ROW_SUBQUERY_TOO_MANY_ROWS
Lebih dari satu baris dikembalikan oleh subkueri yang digunakan untuk satu baris.
ROW_VALUE_IS_NULL
Ditemukan NULL pada baris di indeks <index>, mengharapkan nilai bukanNULL.
RULE_ID_NOT_FOUND
Tidak menemukan id untuk nama aturan "<ruleName>". Silakan ubah RuleIdCollection.scala jika Anda menambahkan aturan baru.
Jalankan_Pipeline_Kosong
Alur diharapkan memiliki setidaknya satu himpunan data non-sementara yang ditentukan (tabel, tampilan yang dipertahankan) tetapi tidak ada himpunan data non-sementara yang ditemukan di alur Anda.
Harap verifikasi bahwa Anda telah menyertakan file sumber yang diharapkan, dan bahwa kode sumber Anda menyertakan definisi tabel (misalnya, CREATE MATERIALIZED VIEW dalam kode SQL, @dp.table dalam kode python).
SALESFORCE_DATA_SHARE_API_UNAUTHORIZED
Otorisasi ke SALESFORCE Data Share API gagal. Verifikasi bahwa detail koneksi Databricks disediakan untuk target berbagi data Salesforce yang sesuai.
SAMPLE_TABLE_PERMISSIONS
Izin tidak didukung pada database/tabel sampel.
SCALAR_FUNCTION_NOT_COMPATIBLE
ScalarFunction <scalarFunc> tidak mengambil alih metode 'produceResult(InternalRow)' dengan implementasi kustom.
SCALAR_FUNCTION_NOT_FULLY_IMPLEMENTED
ScalarFunction <scalarFunc> tidak menerapkan atau mengambil alih metode 'produceResult(InternalRow)'.
SCALAR_SUBQUERY_IS_IN_GROUP_BY_OR_AGGREGATE_FUNCTION
Subkueri skalar berkorelasi '<sqlExpr>' tidak ada dalam GROUP BY, atau dalam fungsi agregat.
Tambahkan itu ke GROUP BY menggunakan posisi ordinal atau bungkus dalam first() (atau first_value) jika Anda tidak peduli nilai mana yang Anda dapatkan.
SCALAR_SUBQUERY_TOO_MANY_ROWS
Lebih dari satu baris hasil yang dikembalikan oleh subkueri yang digunakan sebagai ekspresi.
SCDS_COMMIT_LOG_UNAVAILABLE
Log penerapan tidak ada dengan lokasi titik pemeriksaan=<checkpointLocation>.
SCDS_INVALID_OPTION_VALUE
Nilai tidak valid untuk opsi sumber=<optionName> dengan errorMsg=<message>.
SCDS_OFFSET_LOG_UNAVAILABLE
Log offset tidak ada dengan lokasi titik pemeriksaan=<checkpointLocation>.
SCDS_REQUIRED_OPTION_UNSPECIFIED
Gagal menentukan opsi yang diperlukan=<optionName>.
SCHEDULE_ALREADY_EXISTS
Tidak dapat menambahkan <scheduleType> ke tabel yang sudah memiliki <existingScheduleType>. Silakan hilangkan jadwal yang ada atau gunakan ALTER TABLE...ALTER <scheduleType> ... untuk mengubahnya.
SCHEDULE_PERIOD_INVALID
Periode jadwal untuk <timeUnit> harus berupa nilai bilangan bulat antara 1 dan <upperBound> (inklusif). Diterima: <actual>.
SCHEMA_ALREADY_EXISTS
Tidak dapat membuat <schemaName> skema karena sudah ada.
Pilih nama yang berbeda, hapus skema yang ada, atau tambahkan klausa IF NOT EXISTS untuk memperbolehkan skema yang sudah ada sebelumnya.
SCHEMA_NOT_EMPTY
Tidak dapat menghapus skema <schemaName> karena berisi objek.
Gunakan DROP SCHEMA...CASCADE untuk menghilangkan skema dan semua objeknya.
SCHEMA_NOT_FOUND
Skema <schemaName> tidak dapat ditemukan. Verifikasi ejaan dan kebenaran skema dan katalog.
Jika Anda tidak menetapkan kualifikasi nama dengan katalog, periksa output dari current_schema(), atau tetapkan kualifikasi nama dengan katalog yang benar.
Untuk mentolerir kesalahan saat drop, gunakan DROP SCHEMA IF EXISTS.
SCHEMA_REGISTRY_CONFIGURATION_ERROR
Skema di dalam registri tidak dapat diinisialisasi.
<reason>.
SEARCH_INDEX_CATALOG_SCHEMA_MISMATCH
Tidak dapat membuat indeks <indexName> pencarian dalam katalog <indexCatalog> dan skema <indexSchema>. Indeks harus dibuat dalam katalog dan skema yang sama dengan tabel <tableName> (<tableCatalog>dasar .<tableSchema>).
SEARCH_INDEX_INVALID_PARAMETERS
Tidak dapat membuat indeks pencarian, parameter yang tidak valid diberikan:
Untuk detail selengkapnya, lihat SEARCH_INDEX_INVALID_PARAMETERS
SEARCH_INDEX_NAME_CONFLICTS_WITH_TABLE
Tabel dengan nama <indexName> indeks sudah ada. Harap berikan nama indeks kustom yang tidak bertentangan dengan tabel yang ada.
SEARCH_INDEX_OUTDATED_SCHEMA
Indeks <indexName> pencarian memiliki skema yang kedaluarsa. Buat ulang indeks menggunakan:
DROP SEARCH INDEX <indexName>;
CREATE SEARCH INDEX <indexName> ON <tableName>(<columnsList>);
SEARCH_REQUIRES_SEARCHABLE_COLUMNS
<context> memerlukan kolom dengan jenis yang dapat dicari (STRING COLLATE UTF8_BINARY, VARIANT, atau ARRAY).
Untuk detail selengkapnya, lihat SEARCH_REQUIRES_SEARCHABLE_COLUMNS
SEARCH_REQUIRES_STRING_LITERALS_ARGUMENTS
SEARCH
<argument> memerlukan argumen untuk menjadi literal string, tetapi <actualExpr> diberikan. <possibleOptionsMessage>
SECONDARY_INDEX_REQUIRES_MANAGED_TABLE
Tidak dapat <operation> ON TABLE <tableName>. Operasi hanya dapat dilakukan pada tabel terkelola.
Untuk mengonversi tabel ke tabel terkelola, gunakan ALTER TABLE <tableName> SET MANAGED perintah .
Untuk informasi selengkapnya, lihat https://docs.databricks.com/aws/en/tables/convert-external-managed
SECONDARY_INDEX_UNSUPPORTED_TABLE_FORMAT
Tidak <operation> ON TABLE <tableName>
Operasi hanya dapat dilakukan pada tabel dengan format berikut: <supportedFormats>.
Verifikasi format tabel dengan DESCRIBE DETAIL <tableName>.
Jika format saat ini adalah Parquet atau Apache Iceberg, Anda dapat mengonversinya secara permanen dengan CONVERT TO DELTA <tableName>; lihat https://docs.databricks.com/aws/en/sql/language-manual/delta-convert-to-delta
Jika tidak, buat ulang tabel dalam salah satu format yang didukung.
SECOND_FUNCTION_ARGUMENT_NOT_INTEGER
Argumen kedua dari fungsi <functionName> harus berupa bilangan bulat.
SECRET_FUNCTION_INVALID_LOCATION
Tidak dapat menjalankan perintah <commandType> dengan satu atau beberapa referensi yang tidak dienkripsi ke fungsi SECRET; harap enkripsi hasil dari setiap panggilan fungsi tersebut dengan AES_ENCRYPT dan coba perintah lagi
SECURABLE_DOES_NOT_EXIST
<securable> tidak ada.
SEED_EXPRESSION_IS_UNFOLDABLE
Ekspresi dasar <seedExpr> dari ekspresi <exprWithSeed> harus dapat dilipat.
SERVER_IS_BUSY
Server sibuk dan tidak dapat menangani permintaan. Silakan tunggu sebentar dan coba lagi.
SET_QUERY_TAGS_SYNTAX_INVALID
Gagal menjalankan SET perintah karena sintaks tidak valid. Sintaks yang diharapkan untuk perintah ini adalah SET QUERY_TAGS atau SET QUERY_TAGS['key'] = 'value'. Perbaiki perintah agar sesuai dengan sintaks ini lalu jalankan kembali.
SFTP_DEPRECATED_SSH_RSA_KEY_ALGORITHM (Algoritma kunci RSA SSH yang sudah usang)
Server SFTP <host>:<port> menggunakan algoritma RSA SSH yang tidak digunakan lagi untuk pertukaran kunci.
Pertimbangkan untuk meningkatkan server SFTP untuk menggunakan algoritma yang lebih aman seperti ECDSA atau ED25519.
Atau, lewati kesalahan ini dengan mengatur <escapeHatchConf> ke true
SFTP_UNABLE_TO_CONNECT
Gagal menyambungkan ke server SFTP <host> pada port <port> dengan nama pengguna <user>.
<error>
SFTP_UNKNOWN_HOST_KEY
Kunci host server <host> SFTP tidak diketahui atau telah berubah.
Harap verifikasi pesan kesalahan di bawah ini, lalu berikan sidik jari kunci di Key fingerprint bidang .
Misalnya, jika pesan menyatakan 'ECDSA sidik jari kunci adalah SHA256:XXX/YYY', kirimkan 'SHA256:XXX/YYY' sebagai sidik jari kunci.
Pesan kesalahan koneksi:
<error>
SFTP_USER_DOES_NOT_MATCH
Pengguna yang diambil dari kredensial <credentialUser> tidak cocok dengan pengguna yang ditentukan dalam jalur SFTP <path>.
SHOW_COLUMNS_WITH_CONFLICT_NAMESPACE
SHOW COLUMNS dengan namespace yang bertentangan: <namespaceA> != <namespaceB>.
SNOWFLAKE_DATA_SOURCE_OPTIONS_VALIDATION_FAILED
Validasi opsi sumber data Snowflake gagal.
Untuk detail selengkapnya, lihat SNOWFLAKE_DATA_SOURCE_OPTIONS_VALIDATION_FAILED
SORT_BY_WITHOUT_BUCKETING
sortBy harus digunakan bersama dengan bucketBy.
SPARK_JOB_CANCELLED
Pekerjaan <jobId> dibatalkan <reason>
SPECIFY_BUCKETING_IS_NOT_ALLOWED
CREATE TABLE tanpa daftar kolom eksplisit tidak dapat menentukan informasi pengelompokan.
Silakan gunakan form dengan daftar kolom eksplisit dan tentukan informasi pengelompokan.
Atau, biarkan informasi bucketing disimpulkan dengan cara menghilangkan klausul.
SPECIFY_CLUSTER_BY_WITH_BUCKETING_IS_NOT_ALLOWED
Tidak dapat menentukan CLUSTER BY dan CLUSTERED BY INTO BUCKETS.
SPECIFY_CLUSTER_BY_WITH_PARTITIONED_BY_IS_NOT_ALLOWED
Tidak dapat menentukan CLUSTER BY dan PARTITIONED BY.
SPECIFY_PARTITION_IS_NOT_ALLOWED
CREATE TABLE tanpa daftar kolom eksplisit tidak dapat menentukan PARTITIONED BY.
Silakan gunakan formulir dengan daftar kolom eksplisit dan tentukan PARTITIONED BY.
Atau, izinkan partisi disimpulkan dengan menghilangkan klausa PARTITION BY.
SQL_CONF_NOT_FOUND
Konfigurasi SQL <sqlConf> tidak dapat ditemukan. Harap verifikasi bahwa konfigurasi ada.
SQL_SCRIPT_IN_EXECUTE_IMMEDIATE
Skrip SQL dalam EXECUTE IMMEDIATE perintah tidak diizinkan. Pastikan bahwa kueri SQL yang disediakan (<sqlString>) bukan Skrip SQL. Pastikan sql_string adalah pernyataan SQL yang terbentuk dengan baik dan tidak berisi BEGIN dan END.
SQL_SCRIPT_MAX_NUMBER_OF_CHARACTERS_EXCEEDED
Jumlah maksimum karakter dalam Skrip SQL (id: <scriptId>) telah terlampaui. Jumlah maksimum karakter yang diizinkan adalah <maxChars>, dan skrip memiliki <chars> karakter.
SQL_SCRIPT_MAX_NUMBER_OF_LINES_EXCEEDED
Jumlah baris maksimum dalam Skrip SQL (id: <scriptId>) telah terlampaui. Jumlah maksimum baris yang diizinkan adalah <maxLines>, dan skrip memiliki <lines> baris.
SQL_SCRIPT_MAX_NUMBER_OF_LOCAL_VARIABLE_DECLARATIONS_EXCEEDED
Jumlah maksimum deklarasi variabel lokal dalam Skrip SQL (id: <scriptId>) telah terlampaui. Jumlah maksimum deklarasi yang diizinkan adalah <maxDeclarations>, dan skrip memiliki <declarations>.
SQL_STORED_PROCEDURES_NESTED_CALLS_LIMIT_EXCEEDED
Jumlah maksimum panggilan prosedur berlapis telah terlampaui dengan prosedur (nama: <procedureName>, callId: <procedureCallId>). Jumlah maksimum panggilan prosedur berlapis yang diizinkan adalah <limit>.
STAGING_PATH_CURRENTLY_INACCESSIBLE
Kesalahan sementara saat mengakses jalur staging target <path>, silakan coba lagi dalam beberapa menit
STAR_GROUP_BY_POS
Bintang (*) tidak diperbolehkan dalam daftar pilih saat GROUP BY urutan ordinal digunakan.
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_HANDLE_STATE
Operasi prosesor stateful=<operationType> gagal dilakukan karena status handle tidak valid=<handleState>.
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_TIME_MODE
Gagal melakukan operasi prosesor stateful=<operationType> dengan timeMode yang tidak valid=<timeMode>
STATEFUL_PROCESSOR_DUPLICATE_STATE_VARIABLE_DEFINED
Variabel status dengan nama <stateVarName> telah ditentukan dalam StatefulProcessor.
STATEFUL_PROCESSOR_INCORRECT_TIME_MODE_TO_ASSIGN_TTL
Tidak dapat menggunakan TTL untuk state=<stateName> di timeMode=<timeMode>, gunakan TimeMode.ProcessingTime() sebagai gantinya.
STATEFUL_PROCESSOR_TTL_DURATION_MUST_BE_POSITIVE
Durasi TTL harus lebih besar dari nol untuk operasi penyimpanan status=<operationType> pada status=<stateName>.
STATEFUL_PROCESSOR_UNKNOWN_TIME_MODE
Mode waktu yang tidak diketahui <timeMode>. Mode-mode timeMode yang diterima adalah: 'none', 'processingTime', 'eventTime'
STATE_REPARTITION_INVALID_CHECKPOINT
Lokasi titik pemeriksaan yang disediakan '<checkpointLocation>' berada dalam status tidak valid.
Untuk detail selengkapnya, lihat STATE_REPARTITION_INVALID_CHECKPOINT
STATE_REPARTITION_INVALID_PARAMETER
Parameter partisi <parameter> ulang tidak valid:
Untuk detail selengkapnya, lihat STATE_REPARTITION_INVALID_PARAMETER
STATE_STORE_CANNOT_CREATE_COLUMN_FAMILY_WITH_RESERVED_CHARS
Gagal membuat keluarga kolom dengan karakter awal yang tidak didukung dan nama=<colFamilyName>.
STATE_STORE_CANNOT_USE_COLUMN_FAMILY_WITH_INVALID_NAME
Gagal melakukan operasi keluarga kolom=<operationName> dengan nama yang tidak valid=<colFamilyName>. Nama kumpulan kolom tidak boleh kosong, tidak boleh menyertakan spasi di awal/akhir, dan tidak boleh menggunakan kata kunci yang dicadangkan, yaitu default.
STATE_STORE_CHECKPOINT_IDS_NOT_SUPPORTED
<msg>
STATE_STORE_CHECKPOINT_LOCATION_NOT_EMPTY
Lokasi <checkpointLocation> titik pemeriksaan harus kosong pada batch 0
Silakan gunakan lokasi titik pemeriksaan baru, atau hapus data yang ada di lokasi titik pemeriksaan.
STATE_STORE_COLUMN_FAMILY_SCHEMA_INCOMPATIBLE
Transformasi skema yang tidak kompatibel dengan keluarga kolom=<colFamilyName>, oldSchema=<oldSchema>, newSchema=<newSchema>.
STATE_STORE_DOES_NOT_SUPPORT_REUSABLE_ITERATOR
StateStore <inputClass> tidak mendukung iterator yang dapat digunakan kembali.
STATE_STORE_HANDLE_NOT_INITIALIZED
Pegangan belum diinisialisasi untuk StatefulProcessor.
Harap hanya gunakan StatefulProcessor dalam operator transformWithState.
STATE_STORE_INCORRECT_NUM_ORDERING_COLS_FOR_RANGE_SCAN
Jumlah ordinal urutan yang salah yakni<numOrderingCols> untuk encoder pemindaian rentang. Jumlah ordinal pengurutan tidak boleh nol atau lebih besar dari jumlah kolom skema.
STATE_STORE_INCORRECT_NUM_PREFIX_COLS_FOR_PREFIX_SCAN
Jumlah kolom prefiks yang salah=<numPrefixCols> untuk encoder pemindaian prefiks. Kolom awalan tidak boleh nol atau lebih besar dari atau sama dengan num kolom skema.
STATE_STORE_INVALID_AVRO_SCHEMA
Sebuah skema yang tidak valid terdeteksi untuk pengodean Avro.
Untuk informasi lebih lanjut, lihat STATE_STORE_INVALID_AVRO_SCHEMA
STATE_STORE_INVALID_CONFIG_AFTER_RESTART
Tidak dapat mengubah <configName> dari <oldConfig> ke <newConfig> di antara mulai ulang. Atur <configName> ke <oldConfig>, atau mulai ulang dengan direktori titik pemeriksaan baru.
STATE_STORE_INVALID_PROVIDER
Penyedia Penyimpanan Status yang diberikan <inputClass> tidak mengimplementasikan org.apache.spark.sql.execution.streaming.state.StateStoreProvider.
STATE_STORE_INVALID_VARIABLE_TYPE_CHANGE
Tidak dapat mengubah <stateVarName> menjadi <newType> di antara mulai ulang kueri. Atur <stateVarName> ke <oldType>, atau mulai ulang dengan direktori titik pemeriksaan baru.
SKEMA_KUNCI_PENYIMPANAN_STATUS_TIDAK_KOMPATIBEL
Skema kunci yang disediakan tidak cocok dengan skema yang ada dalam status operator.
Skema yang ada=<storedKeySchema>; skema yang disediakan=<newKeySchema>.
Untuk menjalankan kueri tanpa validasi skema, atur spark.sql.streaming.stateStore.stateSchemaCheck ke false.
Perhatikan bahwa berjalan tanpa validasi skema dapat memiliki perilaku non-deterministik.
STATE_STORE_NATIVE_ROCKSDB_TIMEOUT
Saat mengakses penyimpanan status RocksDB untuk operasi streaming stateful, memanggil fungsi <funcName> RocksDB asli kehabisan waktu setelah waktu tunggu habis=<timeoutMs> ms. Silakan coba lagi dan mulai ulang kluster jika kesalahan berlanjut.
STATE_STORE_NULL_TYPE_ORDERING_COLS_NOT_SUPPORTED
Kolom pengurutan tipe null dengan nama=<fieldName> pada indeks=<index> tidak didukung untuk pengkodean pemindaian rentang.
STATE_STORE_PROVIDER_DOES_NOT_SUPPORT_FINE_GRAINED_STATE_REPLAY
Penyedia Penyimpanan Status yang diberikan <inputClass> tidak mendukung org.apache.spark.sql.execution.streaming.state.SupportsFineGrainedReplay.
Oleh karena itu, ini tidak mendukung opsi snapshotStartBatchId atau readChangeFeed di sumber data status.
STATE_STORE_ROCKSDB_ZIP_ALREADY_EXISTS
File <zipFilePath> zip rekam jepret RocksDB sudah ada. Ini berarti rekam jepret telah diunggah ke DFS.
(izinkanPenimpaVersi=<allowVersionOverwrite>, haruskahMenggunakanLayananCommit=<shouldUseCommitService>)
STATE_STORE_STATE_SCHEMA_FILES_THRESHOLD_EXCEEDED
Jumlah file skema status <numStateSchemaFiles> melebihi jumlah maksimum file skema status untuk kueri ini: <maxStateSchemaFiles>.
Ditambahkan: <addedColumnFamilies>, Dihapus: <removedColumnFamilies>
Atur 'spark.sql.streaming.stateStore.stateSchemaFilesThreshold' ke nilai yang lebih tinggi, atau kembalikan modifikasi skema status.
STATE_STORE_UNSUPPORTED_OPERATION_ON_MISSING_COLUMN_FAMILY
Operasi penyimpanan status=<operationType> tidak didukung pada keluarga kolom yang hilang=<colFamilyName>.
STATE_STORE_VALUE_SCHEMA_EVOLUTION_THRESHOLD_EXCEEDED
Jumlah evolusi skema status <numSchemaEvolutions> melebihi jumlah maksimum evolusi skema status, <maxSchemaEvolutions>, yang diizinkan untuk keluarga kolom ini.
Keluarga kolom yang bermasalah: <colFamilyName>
Atur 'spark.sql.streaming.stateStore.valueStateSchemaEvolutionThreshold' ke angka yang lebih tinggi, atau kembalikan modifikasi skema status
STATE_STORE_VALUE_SCHEMA_TIDAK_KOMPATIBEL (Skema nilai penyimpanan negara tidak kompatibel)
Skema nilai yang disediakan tidak cocok dengan skema yang ada dalam status operator.
Skema yang ada=<storedValueSchema>; skema yang disediakan=<newValueSchema>.
Untuk menjalankan kueri tanpa validasi skema, atur spark.sql.streaming.stateStore.stateSchemaCheck ke false.
Perhatikan bahwa berjalan tanpa validasi skema dapat memiliki perilaku non-deterministik.
STATE_STORE_VARIABLE_SIZE_ORDERING_COLS_NOT_SUPPORTED
Kolom pengurutan ukuran variabel dengan nama=<fieldName> pada indeks=<index> tidak didukung untuk encoder pemindaian rentang.
STATIC_PARTITION_COLUMN_IN_INSERT_COLUMN_LIST
Kolom partisi statis <staticName> juga ditentukan dalam daftar kolom.
STDS_COMMITTED_BATCH_UNAVAILABLE
Tidak ada batch yang dikomitmenkan yang ditemukan, lokasi titik pemeriksaan: <checkpointLocation>. Pastikan bahwa kueri telah dijalankan dan setiap mikrobatch telah dikomit sebelum berhenti.
STDS_CONFLICT_OPTIONS
Opsi <options> tidak dapat ditentukan bersama-sama. Tentukan yang satu.
STDS_FAILED_TO_READ_OPERATOR_METADATA
Gagal membaca metadata operator untuk checkpointLocation=<checkpointLocation> dan batchId=<batchId>.
File tidak ada, atau file rusak.
Jalankan ulang kueri streaming untuk membuat metadata operator, dan laporkan ke komunitas atau vendor terkait jika kesalahan berlanjut.
STDS_FAILED_TO_READ_STATE_SCHEMA
Gagal membaca skema status. File tidak ada, atau file rusak. opsi: <sourceOptions>.
Jalankan ulang kueri streaming untuk membuat skema status, dan laporkan ke komunitas atau vendor yang sesuai jika kesalahan berlanjut.
STDS_INVALID_OPTION_VALUE
Nilai tidak valid untuk opsi sumber '<optionName>':
Untuk informasi lebih lanjut, lihat STDS_INVALID_OPTION_VALUE
STDS_MIXED_CHECKPOINT_FORMAT_VERSIONS_NOT_SUPPORTED
Status membaca di berbagai versi format titik pemeriksaan tidak didukung.
startBatchId=<startBatchId>, endBatchId=<endBatchId>.
startFormatVersion=<startFormatVersion>, endFormatVersion=<endFormatVersion>.
STDS_NO_PARTITION_DISCOVERED_IN_STATE_STORE
Status tidak memiliki partisi apa pun. Silakan periksa kembali apakah kueri menunjuk ke status yang valid. opsi: <sourceOptions>
STDS_OFFSET_LOG_UNAVAILABLE
Log offset untuk <batchId> tidak ada, lokasi cek poin: <checkpointLocation>.
Tentukan ID batch yang tersedia untuk kueri - Anda dapat mengkueri ID batch yang tersedia melalui menggunakan sumber data metadata status.
STDS_OFFSET_METADATA_LOG_UNAVAILABLE
Metadata tidak tersedia untuk log offset untuk <batchId>, lokasi titik pemeriksaan: <checkpointLocation>.
Titik pemeriksaan tampaknya hanya dapat dijalankan dengan versi Spark yang lebih lama. Jalankan kueri streaming dengan versi Spark terbaru, sehingga Spark membuat metadata status.
STDS_REQUIRED_OPTION_UNSPECIFIED
'<optionName>' harus ditentukan.
STREAMING_AQE_NOT_SUPPORTED_FOR_STATEFUL_OPERATORS
Eksekusi Kueri Adaptif tidak didukung untuk operator stateful dalam Streaming Terstruktur.
STREAMING_CHECKPOINT_METADATA_ERROR (Kesalahan Metadata Checkpoint Streaming)
Kesalahan dengan metadata titik pemeriksaan streaming.
Untuk detail selengkapnya, lihat STREAMING_CHECKPOINT_METADATA_ERROR
STREAMING_CHECKPOINT_PIN_BATCH_ERROR
Gagal melakukan operasi pin untuk kueri streaming dengan lokasi titik pemeriksaan=<checkpointLocation> di batchId=<batchId>.
Untuk detail selengkapnya, lihat STREAMING_CHECKPOINT_PIN_BATCH_ERROR
STREAMING_CHECKPOINT_REWIND_ERROR
Gagal melakukan operasi putar balik untuk kueri streaming dengan lokasi titik pemeriksaan=<checkpointLocation>.
Untuk detail selengkapnya, lihat STREAMING_CHECKPOINT_REWIND_ERROR
STREAMING_CHECKPOINT_REWIND_OPTIONS_ERROR
Kesalahan selama operasi putar balik titik pemeriksaan streaming.
Untuk detail selengkapnya, lihat STREAMING_CHECKPOINT_REWIND_OPTIONS_ERROR
STREAMING_FROM_MATERIALIZED_VIEW
Tidak dapat melakukan streaming dari tampilan terwujud <viewName>. Streaming dari tampilan yang dimaterialisasi tidak didukung.
STREAMING_OUTPUT_MODE
Mode output streaming tidak valid: <outputMode>.
Untuk informasi lebih lanjut, lihat STREAMING_OUTPUT_MODE
STREAMING_QUERY_EVOLUTION_ERROR
Kesalahan evolusi kueri streaming:
Untuk detail selengkapnya, lihat STREAMING_QUERY_EVOLUTION_ERROR
STREAMING_RATE_SOURCE_OFFSET_VERSION_MISMATCH
Mengharapkan offset sumber laju versi <expectedVersion>, tetapi mendapatkan versi <actualVersion>. Untuk melanjutkan, tetapkan opsi "versi" ke <expectedVersion> dalam opsi sumber tarif. Misalnya, spark.readStream.format("rate").option("version", "<expectedVersion>").
Perubahan Jumlah Partisi STREAMING_RATE_SOURCE_V2 Tidak Didukung
Jumlah partisi (<prevNum>) yang digunakan dalam mikrobatch sebelumnya berbeda dari jumlah partisi saat ini (<currNum>). Mungkin ada dua kemungkinan alasan:
Opsi "numPartitions" dari sumber laju diubah selama kueri dimulai ulang.
Ukuran kluster mungkin berubah selama mulai ulang kueri.
Secara eksplisit atur opsi "numPartitions" dari sumber laju menjadi <prevNum> untuk memperbaiki masalah ini.
Sumber_Kecepatan_Streaming_V2_Waktu_Peningkatan_Tidak_Didukung
Opsi "rampUpTime" tidak didukung oleh tarif versi 2. Untuk menggunakan opsi ini, atur opsi "versi" ke 1. Misalnya, spark.readStream.format("rate").option("version", "1").
STREAMING_REAL_TIME_MODE
Mode streaming real-time memiliki batasan berikut:
Untuk mengetahui detail lebih lanjut, lihat STREAMING_REAL_TIME_MODE
PROPAGASI_PENANDA_AIR_WAKTU_NYATA_STREAMING
Batasan penyebaran watermark secara streaming waktu nyata adalah sebagai berikut:
Untuk detail selengkapnya, lihat STREAMING_REAL_TIME_WATERMARK_PROPAGATION
STREAMING_SINK_DELIVERY_MODE
Mode pengiriman sink streaming tidak valid: <deliveryMode>.
Untuk detail selengkapnya, lihat STREAMING_SINK_DELIVERY_MODE
STREAMING_SKIP_OFFSETS_INVALID_RANGE
Rentang offset lewati tidak valid: offset <endOffset> akhir kurang dari mulai offset <startOffset>. Perbaiki rentang offset ini, lalu coba lagi.
STREAMING_STATEFUL_OPERATOR_MISSING_STATE_DIRECTORY
Tidak dapat memulai ulang kueri streaming dengan operator stateful karena direktori status kosong atau hilang.
Ini biasanya terjadi ketika file status telah dihapus atau kueri streaming sebelumnya dijalankan tanpa operator stateful tetapi dimulai ulang dengan operator stateful.
Silakan hapus operator stateful, gunakan lokasi titik pemeriksaan baru, atau pulihkan file status yang hilang.
STREAMING_STATEFUL_OPERATOR_NOT_MATCH_IN_STATE_METADATA
Nama operator streaming stateful tidak cocok dengan operator dalam metadata status. Ini kemungkinan terjadi ketika pengguna menambahkan/menghapus/mengubah operator stateful dari kueri streaming yang ada.
Operator stateful pada metadata: [<OpsInMetadataSeq>]; Operator stateful pada batch saat ini: [<OpsInCurBatchSeq>].
STREAMING_TABLE_NEEDS_REFRESH
tabel streaming <tableName> perlu di-refresh untuk menjalankan <operation>.
Jika tabel dibuat dari DBSQL, jalankan REFRESH STREAMING TABLE.
Jika tabel dibuat oleh alur di Lakeflow Spark Declarative Pipeliness, jalankan pembaruan alur.
STREAMING_TABLE_NOT_SUPPORTED
tabel streaming hanya dapat dibuat dan disegarkan di Lakeflow Spark Declarative Pipeliness dan Databricks SQL Warehouses.
STREAMING_TABLE_OPERATION_NOT_ALLOWED
Operasi <operation> tidak diperbolehkan:
Untuk detail lebih lanjut, lihat STREAMING_TABLE_OPERATION_NOT_ALLOWED
STREAMING_TABLE_QUERY_INVALID
Tabel streaming <tableName> hanya bisa dibuat dari sebuah kueri streaming. Tambahkan kata kunci STREAM ke klausa FROM Anda untuk mengubah hubungan ini menjadi kueri streaming.
STREAM_NOT_FOUND_FOR_KINESIS_SOURCE
Aliran Kinesis <streamName> di <region> tidak ditemukan.
Silakan mulai kueri baru yang mengarah ke nama stream yang benar.
STRUCT_ARRAY_LENGTH_MISMATCH
Baris input tidak memiliki jumlah nilai yang diharapkan yang diperlukan oleh skema. bidang <expected> diperlukan jika nilai <actual> disediakan.
ST_INVALID_ALGORITHM_VALUE
Nilai algoritma interpolasi tepi tidak valid atau tidak didukung: '<alg>'.
ST_INVALID_CRS_VALUE
Nilai CRS (sistem referensi koordinat) yang tidak valid atau tidak didukung: '<crs>'.
ST_INVALID_SRID_VALUE
Nilai SRID (pengidentifikasi referensi spasial) yang tidak valid atau tidak didukung: <srid>.
SUM_OF_LIMIT_AND_OFFSET_EXCEEDS_MAX_INT
Jumlah klausa LIMIT dan klausul OFFSET tidak boleh lebih besar dari nilai bilangan bulat maksimum 32-bit (2.147.483.647) tetapi batas yang ditemukan = <limit>, offset = <offset>.
SYNC_METADATA_DELTA_ONLY
Perintah sinkronisasi metadata tabel hanya didukung untuk tabel delta.
SYNC_SRC_TARGET_TBL_NOT_SAME
Nama tabel sumber <srcTable> harus sama dengan nama tabel tujuan <destTable>.
SYNTAX_DISCONTINUED
Dukungan klausa atau kata kunci: <clause> telah dihentikan dalam konteks ini.
Untuk informasi lebih lanjut, lihat SYNTAX_DISCONTINUED
ARGUMEN_TABEL_TIDAK_DIPERBOLEHKAN
TABLE parameter tidak didukung di <routineType>.
TABLE_NOT_VALID_SECONDARY_INDEX
Gagal menjalankan DESCRIBE SEARCH INDEX perintah karena tabel <tableName> bukan indeks yang valid <indexType> . Perbarui perintah untuk menggunakan indeks yang valid dan coba lagi.
TABLE_OR_VIEW_ALREADY_EXISTS
Tidak dapat membuat tabel atau menampilkan <relationName> karena sudah ada.
Pilih nama yang berbeda, hapus objek yang ada, tambahkan klausa IF NOT EXISTS untuk mentolerir objek yang sudah ada sebelumnya, tambahkan klausa OR REPLACE untuk mengganti tampilan materialisasi yang ada, atau tambahkan klausa OR REFRESH untuk memperbarui tabel streaming yang ada.
TABLE_OR_VIEW_NOT_FOUND
Tabel atau tampilan <relationName> tidak dapat ditemukan. Verifikasi ejaan dan kebenaran skema dan katalog.
Jika Anda tidak menentukan nama dengan skema, periksa output dari current_schema(), atau tentukan nama dengan skema dan katalog yang benar.
Untuk mentolerir kesalahan saat drop, gunakan DROP VIEW IF EXISTS atau DROP TABLE IF EXISTS.
Untuk informasi lebih lanjut, lihat TABLE_OR_VIEW_NOT_FOUND
TABLE_TYPE_INCOMPATIBLE_WITH_ABAC_POLICY
Jenis <tableName>, <tableType>tabel , tidak mendukung kebijakan ABAC.
Hapus kebijakan dan coba lagi.
TABLE_VALUED_ARGUMENTS_NOT_YET_IMPLEMENTED_FOR_SQL_FUNCTIONS
Tidak dapat <action> fungsi buatan pengguna SQL <functionName> dengan argumen TABLE karena fungsionalitas ini belum diimplementasikan.
TABLE_VALUED_FUNCTION_FAILED_TO_ANALYZE_IN_PYTHON
Gagal menganalisis fungsi tabel yang ditentukan pengguna Python: <msg>
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INCOMPATIBLE_WITH_CALL
Gagal mengevaluasi fungsi tabel <functionName> karena metadata tabelnya <requestedMetadata>, tetapi panggilan fungsi <invalidFunctionCallProperty>.
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INVALID
Gagal mengevaluasi fungsi tabel <functionName> karena metadata tabelnya tidak valid; <reason>.
TABLE_VALUED_FUNCTION_TOO_MANY_TABLE_ARGUMENTS
Ada terlalu banyak argumen terkait tabel untuk fungsi yang bernilai tabel.
Fungsi ini memungkinkan satu argumen tabel, tetapi menerima: <num>.
Jika Anda ingin mengizinkannya, atur "spark.sql.allowMultipleTableArguments.enabled" ke "true"
TABLE_WITH_ID_NOT_FOUND
Tabel dengan ID <tableId> tidak dapat ditemukan. Verifikasi kebenaran UUID.
TASK_WRITE_FAILED
Tugas gagal saat menulis baris data ke <path>.
TEMP_CHECKPOINT_LOCATION_NOT_SUPPORTED
Lokasi titik pemeriksaan streaming sementara implisit tidak didukung di ruang kerja saat ini, tentukan lokasi titik pemeriksaan secara eksplisit.
Untuk display(), atur lokasi titik pemeriksaan menggunakan:
display(df, checkpointLocation = "your_path")
Untuk semua kueri streaming lainnya, gunakan:
.option("checkpointLocation", "your_path").
TEMP_TABLE_CREATION_LEGACY_WITH_QUERY
CREATE TEMPORARY TABLE
...
AS ... tidak didukung di sini, silakan gunakan CREATE TEMPORARY VIEW sebagai gantinya
TEMP_TABLE_CREATION_MUTUAL_EXCLUSIVE_SPECS
CREATE TEMPORARY TABLE tidak mendukung menentukan <unsupportedSpec>.
Untuk detail selengkapnya, lihat TEMP_TABLE_CREATION_MUTUAL_EXCLUSIVE_SPECS
TEMP_TABLE_CREATION_NAME_RESERVED
Tidak dapat membuat tabel <tableName> sementara karena dimulai dengan awalan <reservedPrefix>nama yang dipesan. Silakan pilih nama yang berbeda dan coba lagi.
TEMP_TABLE_CREATION_NOT_SUPPORTED_IN_COMPUTE
CREATE TEMPORARY TABLE [AS ... ] tidak didukung dengan jenis Komputasi saat ini. Silakan gunakan Databricks SQL (DBSQL) untuk membuat tabel sementara sesi-lokal sebagai gantinya.
TEMP_TABLE_CREATION_REQUIRES_SINGLE_PART_NAME
Membuat tabel sementara lokal sesi memerlukan satu nama tabel bagian, namun menerima <tableName>. Perbarui perintah untuk menggunakan nama tabel bagian tunggal dan coba lagi.
TEMP_TABLE_CREATION_UNSUPPORTED_LEGACY_SYNTAX_WITH_HINTS
CREATE TEMPORARY TABLE
...
USING
...
AS ... tidak didukung. Untuk membuat tabel sementara, hapus USING klausa dan coba lagi.
TEMP_TABLE_DELETION_MUTUAL_EXCLUSIVE_SPECS
DROP TEMPORARY TABLE tidak mendukung penentuan <unsupportedSpec>, hapus spesifikasi ini, atau letakkan tabel permanen sebagai gantinya menggunakan DROP TABLE perintah.
TEMP_TABLE_DELETION_REQUIRES_SINGLE_PART_NAME
Menghapus tabel sementara sesi-lokal memerlukan nama tabel dengan satu bagian, tetapi mendapatkan <tableName>. Harap perbarui DROP TEMPORARY TABLE perintah untuk menggunakan nama tabel bagian tunggal untuk menghilangkan tabel sementara, atau gunakan DROP TABLE perintah sebagai gantinya untuk menghilangkan tabel permanen.
TEMP_TABLE_NOT_FOUND
Tabel <tableName> sementara tidak dapat ditemukan dalam sesi saat ini. Verifikasi ejaan dan kebenaran nama tabel, dan coba lagi kueri atau perintah.
Untuk mentolerir kesalahan saat dihilangkan, gunakan DROP TEMP TABLE IF EXISTS.
TABEL_TEMPORER_TIDAK_DIDUKUNG_DALAM_DATABRICKS_JOBS
Tabel sementara belum didukung dalam Job Databricks. Silakan gunakan di Notebook Databricks sebagai gantinya dan hubungi Dukungan Databricks untuk informasi lebih lanjut.
TEMP_TABLE_NOT_SUPPORTED_WITH_HMS
Operasi tabel sementara <operation> tidak didukung di Hive Metastore.
TEMP_TABLE_OPERATION_NOT_SUPPORTED
Operasi pada tabel sementara lokal-sesi <tableName> tidak didukung.
Untuk informasi lebih lanjut, lihat TEMP_TABLE_OPERATION_NOT_SUPPORTED
TEMP_TABLE_OPERATION_NOT_SUPPORTED_IN_V1_COMMAND
<operation> pada tabel sementara tidak didukung dengan perintah V1. Atur 'spark.sql.legacy.useV1Command' ke false dan coba lagi.
TEMP_TABLE_OR_VIEW_ALREADY_EXISTS
Tidak dapat membuat tabel atau tampilan <relationName> sementara karena sudah ada.
Pilih nama yang berbeda, jatuhkan atau ganti objek yang ada.
TEMP_TABLE_REPLACE_NOT_SUPPORTED
[CREATE OR] REPLACE TEMPORARY TABLE tidak didukung. Untuk mengganti tabel sementara yang ada, letakkan menggunakan DROP TEMPORARY TABLE ... [IF EXISTS] dan buat ulang menggunakan CREATE TEMPORARY TABLE ... .
TEMP_TABLE_REQUIRES_DATABRICKS_ENV
Operasi pada tabel sementara sesi-lokal memerlukan lingkungan Databricks.
TEMP_TABLE_REQUIRES_DELTA
Operasi pada tabel sementara sesi-lokal mengharuskan katalog Delta diaktifkan. Silakan aktifkan katalog Delta dan coba lagi.
TEMP_TABLE_REQUIRES_UC
Operasi pada tabel sementara lokal-sesi memerlukan Katalog Unity. Aktifkan Katalog Unity di lingkungan anda yang sedang berjalan dan coba lagi.
TEMP_VIEW_NAME_TOO_MANY_NAME_PARTS
CREATE TEMPORARY VIEW atau API Dataset yang sesuai hanya menerima nama tampilan satu bagian, tetapi menerima: <actualName>.
THETA_INVALID_INPUT_SKETCH_BUFFER
Panggilan tidak valid ke <function>; hanya buffer sketsa Theta yang valid yang didukung sebagai input (seperti yang dihasilkan oleh theta_sketch_agg fungsi).
THETA_INVALID_LG_NOM_ENTRIES
Panggilan ke <function>tidak valid; nilai lgNomEntries harus antara <min> dan <max>, inklusif: <value>.
THETA_LG_NOM_ENTRIES_MUST_BE_CONSTANT
Panggilan tidak valid ke <function>; lgNomEntries nilai harus berupa nilai konstanta, tetapi mendapat ekspresi non-konstanta.
TRAILING_COMMA_IN_SELECT
Koma berikutnya terdeteksi dalam klausa SELECT. Hapus koma berikutnya sebelum klausa FROM.
TRANSACTION_CDF_SCHEMA_WITH_RESERVED_COLUMN_NAME
Umpan Data Perubahan tidak dapat diaktifkan dalam transaksi karena tabel berisi nama kolom yang dipesan (<column_name>).
Untuk melanjutkan, pastikan tabel hanya menggunakan nama kolom yang bukan nama kolom yang sudah dicadangkan.
TRANSACTION_CDF_SETTING_HIGH_WATERMARK_NOT_ALLOWED
Mengatur batas tinggi identitas CDC secara manual tidak diperbolehkan.
TRANSACTION_CONCURRENT_CATALOG_METADATA_CHANGE
Perubahan metadata bersamaan telah terdeteksi pada objek <table>. Silakan jalankan ROLLBACK lalu coba kembali transaksi ini. Details:
Untuk detail selengkapnya, lihat TRANSACTION_CONCURRENT_CATALOG_METADATA_CHANGE
TRANSACTION_CONTEXT_MISMATCH
Inkonsistensi konteks transaksi terdeteksi antara utas saat ini dan sesi Spark. Ini biasanya terjadi ketika sesi Spark dibagikan di beberapa utas. Silakan gunakan sesi dan utas khusus untuk setiap transaksi, dan lakukan/putar kembali transaksi di utasnya sebelum menggunakan kembali sesi dan utas untuk transaksi baru. Details:
Untuk detail selengkapnya, lihat TRANSACTION_CONTEXT_MISMATCH
TRANSACTION_MAX_COMMIT_TIMESTAMP_EXCEEDED
Transaksi tidak dapat diterapkan karena tanda waktu penerapan maks terlampaui. maxCommitTimestamp:<maxCommitTimestampMs> commitTimestamp:<commitTimestampMs>
TRANSACTION_NOT_SUPPORTED
Gagal menjalankan pernyataan.
Untuk detail selengkapnya, lihat TRANSACTION_NOT_SUPPORTED
TRANSACTION_ROLLBACK_REQUIRED_AFTER_ABORT
Transaksi saat ini telah dibatalkan. Silakan jalankan ROLLBACK TRANSACTION sebelum melanjutkan. Alasan pembatalan:
Untuk detail selengkapnya, lihat TRANSACTION_ROLLBACK_REQUIRED_AFTER_ABORT
TRANSFORM_WITH_STATE_USER_FUNCTION_ERROR
Terjadi kesalahan dalam fungsi <function> StatefulProcessor yang didefinisikan pengguna. Alasan: <reason>.
TRANSPOSE_EXCEED_ROW_LIMIT
Jumlah baris melebihi batas <maxValues> yang diizinkan untuk TRANSPOSE. Jika ini dimaksudkan, atur <config> ke setidaknya jumlah baris saat ini.
TRANSPOSE_INVALID_INDEX_COLUMN
Kolom indeks tidak valid untuk TRANSPOSE karena: <reason>
TRANSPOSE_NO_LEAST_COMMON_TYPE
Transpose memerlukan kolom non-indeks untuk berbagi jenis yang paling tidak umum, tetapi <dt1> dan <dt2> tidak.
TRIGGER_INTERVAL_INVALID
Interval pemicu harus berupa durasi positif yang dapat dikonversi menjadi seluruh detik. Diterima: <actual> detik.
TUPLE_IS_EMPTY
Karena dukungan tupel Scala yang terbatas, tuple kosong tidak didukung.
TUPLE_SIZE_EXCEEDS_LIMIT
Karena dukungan tupel Scala yang terbatas, tuple dengan lebih dari 22 elemen tidak didukung.
UC_BUCKETED_TABLES
Tabel yang dikelompokkan dalam bucket tidak didukung di Unity Catalog.
UC_CATALOG_NAME_NOT_PROVIDED
Untuk Katalog Unity, tentukan nama katalog secara eksplisit. Misalnya SHOW GRANT your.address@email.com ON CATALOG utama.
UC_COMMAND_NOT_SUPPORTED
Perintah: <commandName> tidak didukung di Katalog Unity.
Untuk detail selengkapnya, lihat UC_COMMAND_NOT_SUPPORTED
UC_COMMAND_NOT_SUPPORTED_IN_SERVERLESS
Perintah <commandName> tidak didukung untuk kluster Katalog Unity dalam lingkungan tanpa server. Gunakan satu pengguna atau kluster bersama sebagai gantinya.
UC_COMMAND_NOT_SUPPORTED_IN_SHARED_ACCESS_MODE
Perintah-perintah: <commandName> tidak didukung untuk klaster Katalog Unity dalam mode akses bersama. Gunakan mode akses pengguna tunggal sebagai gantinya.
UC_CONNECTION_NOT_FOUND_FOR_FILE_SYSTEM_SOURCE_ACCESS
Tidak dapat menemukan koneksi UC yang valid untuk diakses <path> setelah mengevaluasi <connectionNames>.
Pastikan bahwa setidaknya satu koneksi UC yang valid tersedia untuk mengakses jalur target.
Kesalahan terperinci untuk koneksi yang dievaluasi:
<connectionErrors>
UC_CREDENTIAL_PURPOSE_NOT_SUPPORTED
Jenis kredensial yang ditentukan tidak didukung.
UC_DATASOURCE_NOT_SUPPORTED
Format sumber data <dataSourceFormatName> tidak didukung di Unity Catalog.
UC_DATASOURCE_OPTIONS_NOT_SUPPORTED
Opsi sumber data tidak didukung di Katalog Unity.
UC_DEPENDENCY_DOES_NOT_EXIST
Dependensi tidak ada di Katalog Unity:
<errorMessage>
UC_EXTERNAL_VOLUME_MISSING_LOCATION
klausa LOCATION harus ada untuk volume eksternal. Silakan periksa sintaks 'CREATE EXTERNAL VOLUME...LOCATION ...' untuk membuat volume eksternal.
UC_FAILED_PROVISIONING_STATE
Kueri gagal karena mencoba merujuk ke tabel <tableName> tetapi tidak dapat melakukannya: <failureReason>. Perbarui tabel <tableName> untuk memastikan tabel berada dalam status Provisi aktif lalu coba lagi kueri tersebut.
UC_FILE_SCHEME_FOR_TABLE_CREATION_NOT_SUPPORTED
Membuat tabel di Unity Catalog dengan skema file <schemeName> tidak didukung.
Sebagai gantinya, buat koneksi sumber data federasi menggunakan perintah CREATE CONNECTION untuk penyedia tabel yang sama, lalu buat katalog berdasarkan koneksi dengan perintah CREATE FOREIGN CATALOG untuk mereferensikan tabel di dalamnya.
UC_HIVE_METASTORE_DISABLED_EXCEPTION
Operasi ini mencoba menggunakan Apache Hive Metastore<identifier>, yang dinonaktifkan karena akses warisan dinonaktifkan di akun atau ruang kerja Anda. Silakan periksa kembali katalog default dalam sesi saat ini dan pengaturan namespace default. Jika Anda perlu mengakses Metastore Apache Hive, silakan minta admin Anda untuk menyiapkan federasi Apache Hive Metastore melalui Katalog Unity.
UC_HIVE_METASTORE_FEDERATION_CROSS_CATALOG_VIEW_NOT_SUPPORTED
Tampilan Federasi Metastore Apache Hive tidak mendukung dependensi antar beberapa katalog. Tampilan <view> di katalog Federasi Metastore Hive harus menggunakan dependensi dari katalog hive_metastore atau spark_catalog, tetapi dependensinya <dependency> berada di katalog lain <referencedCatalog>. Perbarui dependensi untuk memenuhi batasan ini lalu coba lagi kueri atau perintah Anda.
UC_HIVE_METASTORE_FEDERATION_NOT_ENABLED
Federasi Apache Hive Metastore tidak diaktifkan pada kluster ini.
Mengakses katalog <catalogName> tidak didukung pada kluster ini
UC_INVALID_DEPENDENCIES
Dependensi <securable> dicatat sebagai <storedDeps> saat diuraikan sebagai <parsedDeps>. Ini kemungkinan terjadi melalui penggunaan API non-SQL yang tidak tepat.
Untuk detail selengkapnya, lihat UC_INVALID_DEPENDENCIES
UC_INVALID_NAMESPACE
Namespace berlapis atau kosong tidak didukung di Katalog Unity.
UC_INVALID_REFERENCE
Objek <name> non-Unity-Catalog tidak dapat dirujuk dalam objek Katalog Unity.
UC_LAKEHOUSE_FEDERATION_WRITES_NOT_ALLOWED
Dukungan tulis Unity Catalog Lakehouse Federation tidak diaktifkan untuk penyedia <provider> pada kluster ini.
UC_LOCATION_FOR_MANAGED_VOLUME_NOT_SUPPORTED
Volume yang dikelola tidak menerima klausa LOCATION. Silakan periksa sintaks 'CREATE VOLUME ...' untuk membuat volume terkelola.
UC_NOT_ENABLED
Katalog Unity tidak diaktifkan pada kluster ini.
UC_QUERY_FEDERATION_NOT_ENABLED
Federasi Kueri Katalog Unity tidak diaktifkan pada kluster ini.
UC_RESOLVED_DBFS_PATH_MISMATCH
Kueri gagal karena mencoba merujuk pada <objectType> <name> namun tidak dapat melakukannya: Jalur DBFS <resolvedHmsPath> yang telah diselesaikan tidak cocok dengan penyimpanan lokasi Katalog Unity <ucStorageLocation>.
UC_RAHASIA_TIDAK_DIAKTIFKAN
Dukungan untuk Rahasia Katalog Unity tidak diaktifkan.
RAHASIA_UC_SUDAH_ADA
Tidak dapat membuat rahasia <name> karena sudah ada.
Pilih nama yang berbeda, hapus atau ganti objek yang ada, atau tambahkan klausa IF NOT EXISTS untuk mentolerir objek yang sudah ada.
UC_SECRET_TIDAK_DITEMUKAN
Rahasia <name> tidak ada. Gunakan 'SHOW SECRETS' untuk mencantumkan rahasia yang tersedia.
UC_SERVICE_CREDENTIALS_NOT_ENABLED
Kredensial layanan tidak diaktifkan pada kluster ini.
UC_TABLE_METADATA_OUT_OF_SYNC
Tidak dapat mengkueri tabel <tableName> karena metadata tabel tidak sinkron dalam katalog. Perbaiki tabel dengan menjalankan 'MSK REPAIR TABLE <tableName> SYNC METADATA' untuk menyinkronkan metadata terlebih dahulu.
UC_UNCAUGHT_CLIENT_EXCEPTION
Mengalami kesalahan HTTP yang tidak terduga saat berkomunikasi dengan backend Databricks Unity Catalog. Kode Kesalahan: <errCode>. Pesan: <message>
UC_VOLUMES_NOT_ENABLED
Dukungan untuk Unity Catalog Volumes tidak diaktifkan pada instance ini.
UC_VOLUMES_NOT_SUPPORTED
Volume tidak didukung untuk operasi ini. Jalur yang ditentukan adalah '<path>'.
UC_VOLUMES_SHARING_NOT_ENABLED
Dukungan untuk Berbagi Volume tidak diaktifkan pada instans ini.
UC_VOLUME_NOT_FOUND
Volume <name> tidak ada. Silakan gunakan 'SHOW VOLUMES' untuk mencantumkan volume yang tersedia.
UDF_ENVIRONMENT_ERROR
Gagal menginstal dependensi UDF untuk <udfName> karena kesalahan sistem.
Untuk detail selengkapnya, lihat UDF_ENVIRONMENT_ERROR
UDF_ENVIRONMENT_USER_ERROR
Gagal menginstal dependensi UDF untuk <udfName>.
Untuk detail selengkapnya, lihat UDF_ENVIRONMENT_USER_ERROR
UDF_ERROR
SQLSTATE: tidak ada yang ditetapkan
Eksekusi fungsi <fn> gagal
Untuk detail selengkapnya, lihat UDF_ERROR
UDF_LIMITS
Satu atau beberapa batas UDF dilanggar.
Untuk detail selengkapnya, lihat UDF_LIMITS
UDF_MAX_COUNT_EXCEEDED
Melebihi batas UDF sekueri dengan batas <maxNumUdfs> UDF (diberlakukan selama pratinjau publik). Ditemukan <numUdfs>. UDF tersebut adalah: <udfNames>.
UDF_PYSPARK_ERROR
Pekerja Python keluar secara tak terduga
Untuk detail selengkapnya, lihat UDF_PYSPARK_ERROR
UDF_PYSPARK_UNSUPPORTED_TYPE
PySpark UDF <udf> (<eval-type>) tidak didukung pada kluster dalam mode Akses bersama.
UDF_PYSPARK_USER_CODE_ERROR
Eksekusi gagal.
Untuk detail selengkapnya, lihat UDF_PYSPARK_USER_CODE_ERROR
UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE
Nilai default parameter tidak didukung untuk fungsi <functionType> yang ditentukan pengguna.
UDF_USER_CODE_ERROR
Eksekusi fungsi <fn> gagal.
Untuk detail selengkapnya, lihat UDF_USER_CODE_ERROR
UDTF_ALIAS_NUMBER_MISMATCH
Jumlah alias yang disediakan dalam AS klausul tidak cocok dengan jumlah output kolom oleh UDTF.
Alias <aliasesSize> yang diharapkan, tetapi yang didapat adalah <aliasesNames>.
Pastikan bahwa jumlah alias yang disediakan cocok dengan jumlah output kolom oleh UDTF.
UDTF_INVALID_ALIAS_IN_REQUESTED_ORDERING_STRING_FROM_ANALYZE_METHOD
Gagal mengevaluasi fungsi tabel yang ditentukan pengguna karena metode 'analisis' mengembalikan OrderingColumn yang diminta yang ekspresi nama kolomnya menyertakan alias <aliasName>yang tidak perlu ; hapus alias ini lalu coba kueri lagi.
UDTF_INVALID_REQUESTED_SELECTED_EXPRESSION_FROM_ANALYZE_METHOD_REQUIRES_ALIAS
Gagal mengevaluasi fungsi tabel yang ditentukan pengguna karena metode 'analisis' mengembalikan ekspresi 'pilih' yang diminta (<expression>) yang tidak menyertakan alias yang sesuai; perbarui UDTF untuk menentukan alias di sana lalu coba kueri lagi.
UNABLE_TO_CONVERT_TO_PROTOBUF_MESSAGE_TYPE
Tidak dapat mengonversi jenis SQL <toType> ke tipe Protobuf <protobufType>.
UNABLE_TO_FETCH_HIVE_TABLES
Tidak dapat mengambil tabel basis data Hive: <dbName>. Nama Kelas Kesalahan: <className>.
TIDAK_DAPAT_MENYIMPULKAN_SKEMA_TABEL_PIPELINE
Gagal menentukan skema untuk tabel <tableName> dari alur upstream-nya.
Ubah alur yang menulis ke tabel ini agar skemanya kompatibel.
Skema yang disimpulkan sejauh ini:
<inferredDataSchema>
Skema yang tidak kompatibel:
<incompatibleDataSchema>
UNABLE_TO_INFER_SCHEMA
Tidak dapat menyimpulkan skema untuk <format>. Ini harus ditentukan secara manual.
TIDAK TEROTENTIKASI
Permintaan tidak memiliki kredensial autentikasi yang valid untuk operasi.
UNAUTHORIZED_ACCESS
Akses tidak sah:
<report>
UNBOUND_SQL_PARAMETER
Menemukan parameter tidak terikat: <name>. Harap, perbaiki args dan berikan pemetaan parameter ke fungsi konstruktor literal atau koleksi SQL seperti map(), array(), struct().
UNCLOSED_BRACKETED_COMMENT
Menemukan komentar berkurung yang tidak tertutup. Harap tambahkan */ di akhir komentar.
UNEXPECTED_INPUT_TYPE
Parameter <paramIndex> fungsi <functionName> memerlukan jenis <requiredType>, namun <inputSql> memiliki jenis <inputType>.
UNEXPECTED_INPUT_TYPE_OF_NAMED_PARAMETER
Parameter <namedParamKey> fungsi <functionName> memerlukan jenis <requiredType>, namun <inputSql> memiliki jenis <inputType>.<hint>
UNEXPECTED_OPERATOR_IN_STREAMING_VIEW
Operator yang tidak terduga <op> dalam pernyataan CREATE VIEW sebagai sumber streaming.
Kueri tampilan streaming hanya boleh terdiri dari SELECT, WHEREoperasi , dan UNION ALL .
UNEXPECTED_POSITIONAL_ARGUMENT
Tidak dapat memanggil rutin <routineName> karena berisi argumen posisi setelah argumen bernama yang ditetapkan ke <parameterName>; harap susun ulang agar argumen posisi menjadi yang pertama, kemudian coba lagi mengeksekusi kuerinya.
UNEXPECTED_SERIALIZER_FOR_CLASS
Kelas <className> memiliki serializer ekspresi yang tidak terduga. Mengharapkan "STRUCT" atau "IF" yang mengembalikan "STRUCT", tetapi malah menemukan <expr>.
UNION_NOT_SUPPORTED_IN_RECURSIVE_CTE
Operator UNION belum didukung dalam ekspresi tabel umum rekursif (WITH klausa yang merujuk pada diri mereka sendiri, secara langsung atau tidak langsung). Silakan gunakan UNION ALL sebagai gantinya.
BATASAN_UNIK_NONAKTIF
Fitur batasan unik dinonaktifkan. Untuk mengaktifkannya, atur "spark.databricks.sql.dsv2.unique.enabled" sebagai true.
UNKNOWN_FIELD_EXCEPTION
Mengalami <changeType> selama penguraian: <unknownFieldBlob>, yang dapat diperbaiki dengan melakukan percobaan otomatis lagi: <isRetryable>
Untuk informasi lebih lanjut, silakan lihat UNKNOWN_FIELD_EXCEPTION
UNKNOWN_POSITIONAL_ARGUMENT
Pemanggilan rutin <routineName> berisi argumen posisional tidak dikenal <sqlExpr> pada posisi <pos>. Ini tidak valid.
UNKNOWN_PRIMITIVE_TYPE_IN_VARIANT
Ditemukan jenis primitif tidak dikenal dengan id <id> dalam nilai varian.
UNKNOWN_PROTOBUF_MESSAGE_TYPE
Mencoba memperlakukan <descriptorName> sebagai Pesan, namun ternyata <containingType>.
UNPIVOT_REQUIRES_ATTRIBUTES
UNPIVOT mengharuskan semua ekspresi <given> yang diberikan menjadi kolom ketika tidak ada ekspresi <empty> yang diberikan. Ini bukan kolom: [<expressions>].
UNPIVOT_REQUIRES_VALUE_COLUMNS
Setidaknya satu kolom nilai perlu ditentukan untuk UNPIVOT, semua kolom yang ditentukan sebagai id.
UNPIVOT_VALUE_DATA_TYPE_MISMATCH
Kolom nilai unpivot harus berbagi tipe paling umum, beberapa jenis tidak berbagi tipe tersebut: [<types>].
UNPIVOT_VALUE_SIZE_MISMATCH
Semua kolom nilai unpivot harus memiliki ukuran yang sama dengan nama kolom nilai (<names>).
UNRECOGNIZED_PARAMETER_NAME
Tidak dapat memanggil rutin <routineName> karena panggilan rutin menggunakan referensi argumen bernama untuk argumen bernama <argumentName>, tetapi rutinitas ini tidak menyertakan parameter apa pun yang berisi argumen dengan nama ini. Maksudmu salah satu dari berikut ini? [<proposal>].
UNRECOGNIZED_SQL_TYPE
Jenis SQL yang tidak dikenal - nama: <typeName>, id: <jdbcType>.
UNRECOGNIZED_STATISTIC
Statistik <stats> tidak dikenali. Statistik yang valid mencakup count, count_distinct, approx_count_distinct, mean, stddev, min, maxnilai , dan persentil. Persentil harus berupa nilai numerik diikuti oleh '%', dalam rentang 0% hingga 100%.
UNRESOLVABLE_TABLE_VALUED_FUNCTION
Tidak dapat menyelesaikan <name> sebagai fungsi yang bernilai tabel.
Pastikan bahwa <name> didefinisikan sebagai fungsi bernilai tabel dan semua parameter yang diperlukan disediakan dengan benar.
Jika <name> tidak ditentukan, buat fungsi bernilai tabel sebelum menggunakannya.
Untuk informasi selengkapnya tentang menentukan fungsi bernilai tabel, lihat dokumentasi Apache Spark.
UNRESOLVED_ALL_IN_GROUP_BY
Tidak dapat menyimpulkan kolom pengelompokan untuk GROUP BY ALL berdasarkan klausa SELECT. Tentukan kolom pengelompokan secara eksplisit.
UNRESOLVED_COLUMN
Parameter kolom, variabel, atau fungsi dengan nama <objectName> tidak dapat diselesaikan.
Untuk detail selengkapnya, lihat UNRESOLVED_COLUMN
UNRESOLVED_COLUMN_AMONG_FIELD_NAMES
Tidak dapat mengatasi nama kolom "<colName>" di antara (<fieldNames>).
UNRESOLVED_FIELD
Bidang dengan nama <fieldName> tidak dapat diselesaikan dengan kolom jenis struct <columnPath>.
Untuk detail selengkapnya, lihat UNRESOLVED_FIELD
UNRESOLVED_INSERT_REPLACE_USING_COLUMN
REPLACE USING kolom <colName> tidak dapat diselesaikan di <relationType>.
Apakah Anda memaksudkan salah satu kolom berikut? [<suggestion>].
UNRESOLVED_MAP_KEY
Tidak dapat memecahkan kolom <objectName> sebagai kunci pemetaan. Jika kuncinya adalah string literal, tambahkan tanda kutip tunggal '' di sekitarnya.
Untuk informasi lebih lanjut, lihat UNRESOLVED_MAP_KEY
UNRESOLVED_ROUTINE
Tidak dapat menyelesaikan rutinitas <routineName> pada jalur pencarian <searchPath>.
Verifikasi ejaan <routineName>, periksa apakah rutinitas tersebut ada, dan pastikan Anda memiliki hak istimewa USE pada katalog dan skema, serta hak istimewa EXECUTE pada rutinitas tersebut.
Untuk detail selengkapnya, lihat UNRESOLVED_ROUTINE
UNRESOLVED_TABLE_PATH
Jalur penyimpanan untuk tabel <identifier> tidak dapat diselesaikan.
UNRESOLVED_USING_COLUMN_FOR_JOIN
Kolom USING<colName> tidak dapat diselesaikan di sisi gabungan <side>. Kolom sisi <side>: [<suggestion>].
UNRESOLVED_VARIABLE
Tidak dapat mengatasi variabel <variableName> pada jalur pencarian <searchPath>.
UNSTRUCTURED_DATA_PROCESSING_UNSUPPORTED_FILE_FORMAT
Format file yang tidak terstruktur <format> tidak didukung. Format berkas yang didukung: <supportedFormats>.
Perbarui format dari ekspresi <expr> Anda ke salah satu format yang didukung lalu coba lagi kueri tersebut.
UNSTRUCTURED_DATA_PROCESSING_UNSUPPORTED_MODEL_OPTION
Opsi model yang tidak terstruktur ('<option>' -> '<value>') tidak didukung. Nilai yang didukung adalah: <supportedValues>.
Beralih ke salah satu nilai yang didukung lalu coba lagi kueri.
UNSTRUCTURED_OCR_COLUMN_NOT_ALLOWED_WITH_METADATA_MODEL_OPTION
Parameter fungsi 'ocrText' harus berupa NULL atau dihilangkan ketika opsi 'metadataModel' ditentukan. Opsi 'metadataModel' tertentu memicu ekstraksi metadata, di mana 'ocrText' yang disediakan dilarang.
UNSUPPORTED_ADD_FILE
Tidak mendukung penambahan file.
Untuk informasi lebih lanjut, lihat UNSUPPORTED_ADD_FILE
UNSUPPORTED_ALTER_COLUMN_PARAMETER
Menentukan <parameter> dengan ALTER <commandTableType> tidak didukung.
UNSUPPORTED_ARROWTYPE
Tipe panah yang tidak didukung <typeName>.
UNSUPPORTED_BATCH_TABLE_VALUED_FUNCTION
Fungsi <funcName> tidak mendukung kueri batch.
UNSUPPORTED_CALL
Tidak dapat memanggil metode "<methodName>" kelas "<className>".
Untuk informasi lebih lanjut, lihat UNSUPPORTED_CALL
UNSUPPORTED_CHAR_OR_VARCHAR_AS_STRING
Jenis char/varchar tidak dapat digunakan dalam skema tabel.
Jika Anda ingin Spark memperlakukannya sebagai jenis string sama dengan Spark 3.0 dan yang lebih lama, atur "spark.sql.legacy.charVarcharAsString" ke "true".
KOLEKSI_CHAR_ATAU_VARCHAR_TIDAK_DIDUKUNG
Jenis char/varchar <type> tidak dapat memiliki pengurutan yang ditetapkan.
UNSUPPORTED_CLAUSE_FOR_OPERATION
<clause> tidak didukung untuk <operation>.
UNSUPPORTED_COLLATION
Collation <collationName> tidak didukung untuk:
Untuk informasi lebih lanjut, lihat UNSUPPORTED_COLLATION
UNSUPPORTED_COMMON_ANCESTOR_LOC_FOR_FILE_STREAM_SOURCE
Nenek moyang umum jalur sumber dan sourceArchiveDir harus terdaftar di UC.
Jika Anda melihat pesan kesalahan ini, kemungkinan Anda mendaftarkan jalur sumber dan sourceArchiveDir di lokasi eksternal yang berbeda.
Silakan masukkan mereka ke dalam satu lokasi eksternal.
UNSUPPORTED_CONNECT_FEATURE
Fitur tidak didukung di Spark Connect:
Untuk detail selengkapnya, lihat UNSUPPORTED_CONNECT_FEATURE
KARAKTERISTIK_KONSTRAINT_YANG_TIDAK_DIDUKUNG
Karakteristik batasan '<characteristic>' tidak didukung untuk jenis batasan '<constraintType>'.
UNSUPPORTED_CONSTRAINT_CLAUSES
Klausa batasan <clauses> tidak didukung.
UNSUPPORTED_CONSTRAINT_TYPE
Jenis batasan yang tidak didukung. Hanya <supportedConstraintTypes> yang didukung
UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY
Jenis sumber data yang tidak didukung untuk kueri langsung pada file: <dataSourceType>
UNSUPPORTED_DATATYPE
Jenis data yang tidak didukung <typeName>.
UNSUPPORTED_DATA_SOURCE_SAVE_MODE
Sumber data "<source>" tidak dapat ditulis dalam <createMode> mode . Silakan gunakan mode "Tambahkan" atau "Timpa" sebagai ganti.
UNSUPPORTED_DATA_TYPE_FOR_DATASOURCE
Sumber <format> data tidak mendukung kolom <columnName> jenis <columnType>.
UNSUPPORTED_DATA_TYPE_FOR_ENCODER
Tidak dapat membuat encoder untuk <dataType>. Gunakan jenis data output yang berbeda untuk UDF atau DataFrame Anda.
UNSUPPORTED_DEFAULT_VALUE
Nilai kolom DEFAULT tidak didukung.
Untuk detail selengkapnya, lihat UNSUPPORTED_DEFAULT_VALUE
UNSUPPORTED_DESERIALIZER
Deserializer tersebut tidak didukung
Untuk detail selengkapnya, lihat UNSUPPORTED_DESERIALIZER
UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
Tidak dapat membuat kolom dihasilkan <fieldName> dengan ekspresi pembuatan <expressionStr> karena <reason>.
UNSUPPORTED_EXPR_FOR_OPERATOR
Operator kueri berisi satu atau beberapa ekspresi yang tidak didukung.
Pertimbangkan untuk menulis ulang untuk menghindari fungsi jendela, fungsi agregat, dan fungsi generator dalam klausa WHERE.
Ekspresi tidak valid: [<invalidExprSqls>]
UNSUPPORTED_EXPR_FOR_PARAMETER
Parameter kueri berisi ekspresi yang tidak didukung.
Parameter dapat berupa variabel atau harfiah.
Ekspresi tidak valid: [<invalidExprSql>]
UNSUPPORTED_EXPR_FOR_WINDOW
Ekspresi <sqlExpr> tidak didukung dalam fungsi jendela.
UNSUPPORTED_FEATURE
Fitur ini tidak didukung:
Untuk informasi lebih lanjut, lihat UNSUPPORTED_FEATURE
UNSUPPORTED_FN_TYPE
Jenis fungsi yang ditentukan pengguna yang tidak didukung: <language>
UNSUPPORTED_GENERATOR
Generator tidak didukung:
Untuk lebih jelasnya, lihat UNSUPPORTED_GENERATOR
UNSUPPORTED_GROUPING_EXPRESSION
grouping()/grouping_id() hanya dapat digunakan dengan GroupingSets/Cube/Rollup.
UNSUPPORTED_INITIAL_POSITION_AND_TRIGGER_PAIR_FOR_KINESIS_SOURCE
<trigger> dengan posisi awal <initialPosition> tidak didukung oleh sumber Kinesis
UNSUPPORTED_INSERT
Tidak dapat menyisipkan ke target.
Untuk informasi lebih lanjut, lihat UNSUPPORTED_INSERT
UNSUPPORTED_JOIN_TYPE
Tipe gabungan yang tidak didukung '<typ>'. Jenis gabungan yang didukung meliputi: <supported>.
UNSUPPORTED_MANAGED_TABLE_CREATION
Membuat tabel terkelola <tableName> menggunakan sumber data <dataSource> tidak didukung. Anda perlu menggunakan sumber DELTA data atau membuat tabel eksternal menggunakanCREATE EXTERNAL TABLE <tableName>...USING <dataSource> ...
UNSUPPORTED_MERGE_CONDITION
operasi MERGE berisi kondisi <condName> yang tidak didukung.
Untuk melihat detail lebih lanjut, lihat UNSUPPORTED_MERGE_CONDITION
UNSUPPORTED_METADATA_KEY
Kunci metadata yang tidak didukung: <key>. Kunci yang didukung: <supportedKeys>.
UNSUPPORTED_NESTED_ROW_OR_COLUMN_ACCESS_POLICY
Tabel <tableName> memiliki kebijakan keamanan tingkat baris atau masker kolom yang secara tidak langsung mengacu pada tabel lain dengan kebijakan keamanan tingkat baris atau masker kolom; ini tidak didukung. Urutan panggilan: <callSequence>
OPERASI_TIDAK_DIDUKUNG_UNTUK_MEMORI_KONTINU_SINKRON
Operasi <operation> tidak didukung untuk sink memori kontinyu. Jika Anda menulis pengujian untuk Mode Streaming Real-Time, pertimbangkan untuk menggunakan CheckAnswerWithTimeout daripada pemeriksaan lain.
UNSUPPORTED_OVERWRITE
Tidak dapat menimpa target yang sedang menjadi sumber bacaan.
Untuk detail selengkapnya, lihat UNSUPPORTED_OVERWRITE
UNSUPPORTED_PARTITION_TRANSFORM
Transformasi partisi yang tidak didukung: <transform>. Transformasi yang didukung adalah identity, bucket, dan clusterBy. Pastikan ekspresi transformasi Anda menggunakan salah satunya.
UNSUPPORTED_PIPELINE_SPARK_SQL_COMMAND
'<command>' tidak didukung di API spark.sql("...") dalam Alur Deklaratif Spark.
PROSEDUR_KOLASI_TIDAK_DIDUKUNG
Prosedur <procedureName> harus menentukan atau mewarisi DEFAULT COLLATION UTF8_BINARY. Gunakan CREATE PROCEDURE <procedureName> (...) DEFAULT COLLATION UTF_BINARY ....
UNSUPPORTED_SAVE_MODE
Mode penyimpanan <saveMode> tidak didukung untuk:
Untuk detail selengkapnya, lihat UNSUPPORTED_SAVE_MODE
UNSUPPORTED_SHOW_CREATE_TABLE
Tidak didukung perintah SHOW CREATE TABLE.
Untuk informasi lebih lanjut, lihat UNSUPPORTED_SHOW_CREATE_TABLE
UNSUPPORTED_SINGLE_PASS_ANALYZER_FEATURE
Penganalisis sekali-lintas tidak dapat memproses kueri atau perintah ini karena belum mendukung <feature>.
UNSUPPORTED_SQL_UDF_USAGE
Penggunaan fungsi SQL <functionName> di <nodeName> tidak didukung.
UNSUPPORTED_STREAMING_OPERATOR_WITHOUT_WATERMARK
<outputMode> mode keluaran tidak didukung untuk <statefulOperator> pada streaming DataFrames/DataSets tanpa tanda air.
UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
Tidak didukung untuk menyiarkan tampilan. Reason:
Untuk detail selengkapnya, lihat UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED
Opsi streaming <options> tidak didukung untuk sumber data <source> pada kluster bersama. Harap konfirmasikan bahwa opsi ditentukan dan dieja dengan benar<prefixHint>, dan periksa https://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode batasan.
UNSUPPORTED_STREAMING_SINK_PERMISSION_ENFORCED
Sumber data <sink> tidak didukung sebagai sink streaming pada kluster bersama.
UNSUPPORTED_STREAMING_SOURCE_PERMISSION_ENFORCED
Sumber data <source> tidak didukung sebagai sumber streaming pada kluster bersama.
UNSUPPORTED_STREAMING_TABLE_VALUED_FUNCTION
Fungsi <funcName> tidak mendukung streaming. Hapus kata kunci STREAM
UNSUPPORTED_STREAM_READ_LIMIT_FOR_KINESIS_SOURCE
<streamReadLimit> tidak didukung oleh sumber Kinesis
UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
Ekspresi subkueri yang tidak didukung:
Untuk detail selengkapnya, lihat UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
UNSUPPORTED_TABLE_CHANGE_IN_AUTO_SCHEMA_EVOLUTION
Perubahan <changes> tabel tidak didukung oleh katalog pada tabel <tableName>.
UNSUPPORTED_TABLE_CHANGE_IN_JDBC_CATALOG
Perubahan pada tabel <change> tidak didukung untuk katalog JDBC pada tabel <tableName>. Perubahan yang didukung meliputi: AddColumn, RenameColumn, DeleteColumn, UpdateColumnType, UpdateColumnNullability.
UNSUPPORTED_TIMESERIES_COLUMNS
Pembuatan kunci utama dengan kolom deret waktu tidak didukung
UNSUPPORTED_TIMESERIES_WITH_MORE_THAN_ONE_COLUMN
Membuat kunci primer dengan lebih dari satu kolom timeseries <colSeq> tidak didukung
UNSUPPORTED_TIME_PRECISION
Presisi <precision> detik dari jenis data TIME berada di luar rentang yang didukung [0, 6].
UNSUPPORTED_TIME_TYPE
Jenis data TIME tidak didukung.
UNSUPPORTED_TRIGGER_FOR_KINESIS_SOURCE
<trigger> tidak didukung oleh sumber Kinesis
UNSUPPORTED_TYPED_LITERAL
Literal jenis <unsupportedType> tidak didukung. Jenis yang tersedia adalah <supportedTypes>.
UNSUPPORTED_UDF_FEATURE
Fungsi <function> menggunakan fitur berikut yang memerlukan versi runtime Databricks yang lebih baru: <features>. Silakan konsultasikan <docLink> untuk detailnya.
UNSUPPORTED_UDF_TYPES_IN_SAME_PLACE
Jenis UDF tidak dapat digunakan bersama-sama: <types>
UNTYPED_SCALA_UDF
Anda menggunakan Scala UDF yang tak bertipe, yang tidak memiliki informasi tipe masukan.
Spark dapat meneruskan null secara tanpa pertimbangan ke closure Scala dengan argumen bertipe primitif, dan closure tersebut akan melihat nilai default tipe Java untuk argumen null, misalnya, udf((x: Int) => x, IntegerType), hasilnya adalah 0 untuk input null. Untuk menghilangkan kesalahan ini, Anda dapat:
gunakan API UDF Scala yang ditik (tanpa parameter jenis pengembalian), misalnya,
udf((x: Int) => x).gunakan API UDF Java, misalnya,
udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType), jika jenis input semuanya tidak primitif.atur "spark.sql.legacy.allowUntypedScalaUDF" ke "true" dan gunakan API ini dengan hati-hati.
UPGRADE_NOT_SUPPORTED
Tabel tidak memenuhi syarat untuk diupgrade dari Apache Hive Metastore ke Katalog Unity. Reason:
Untuk informasi lebih lanjut, lihat UPGRADE_NOT_SUPPORTED
USER_DEFINED_FUNCTIONS
Fungsi yang ditentukan pengguna tidak valid:
Untuk informasi lebih lanjut, lihat USER_DEFINED_FUNCTIONS
USER_RAISED_EXCEPTION
<errorMessage>
USER_RAISED_EXCEPTION_PARAMETER_MISMATCH
Fungsi raise_error() digunakan untuk meningkatkan kelas kesalahan: <errorClass> yang mengharapkan parameter: <expectedParms>.
Parameter yang disediakan <providedParms> tidak cocok dengan parameter yang diharapkan.
Pastikan untuk menyediakan semua parameter yang diharapkan.
USER_RAISED_EXCEPTION_UNKNOWN_ERROR_CLASS
Fungsi raise_error() digunakan untuk menaikkan kelas kesalahan yang tidak diketahui: <errorClass>
USER_SPECIFIED_AND_ACTUAL_SCHEMA_MISMATCH
Skema yang ditentukan pengguna tidak cocok dengan skema aktual:
ditentukan pengguna: <schema>, aktual: <actualSchema>. Jika Anda menggunakan
DATAFrameReader.schema API atau membuat tabel, jangan tentukan skema.
Atau, jika Anda memindai tabel yang ada, letakkan dan buat ulang.
SKEMA_DITENTUKAN_PENGGUNA_DAN_DITERKA_TIDAK_SESUAI
Tabel '<tableName>' memiliki skema yang ditentukan pengguna yang tidak kompatibel dengan skema
disimpulkan dari kuerinya.
<streamingTableHint>
Skema yang dinyatakan:
<specifiedSchema>
Skema yang disimpulkan:
<inferredDataSchema>
USE_CATALOG_SCHEMA_IN_DEFINER_STORED_PROCEDURE_NOT_SUPPORTED
Mengatur katalog atau skema dalam prosedur tersimpan SQL SECURITY DEFINER tidak didukung.
VARIABLE_ALREADY_EXISTS
Tidak dapat membuat variabel <variableName> karena sudah ada.
Pilih nama yang berbeda, atau letakkan atau ganti variabel yang ada.
VARIABLE_NOT_FOUND
Variabel <variableName> tidak dapat ditemukan. Verifikasi ejaan dan kebenaran skema dan katalog.
Jika Anda tidak menentukan nama dengan skema dan katalog, verifikasi output current_schema(), atau tentukan nama dengan skema dan katalog yang benar.
Untuk mentolerir kesalahan saat drop, gunakan DROP VARIABLE IF EXISTS.
VARIANT_CONSTRUCTOR_SIZE_LIMIT
Tidak dapat membuat Varian yang lebih besar dari 16 MiB. Ukuran maksimum yang diizinkan dari nilai Varian adalah 16 MiB.
VARIANT_DUPLICATE_KEY
Gagal membangun varian karena kunci objek duplikat <key>.
VARIANT_SIZE_LIMIT
Tidak dapat membangun varian yang lebih besar dari <sizeLimit> di <functionName>.
Harap hindari string input besar ke ekspresi ini (misalnya, tambahkan panggilan fungsi untuk memeriksa ukuran ekspresi dan mengonversinya ke NULL terlebih dahulu jika terlalu besar).
VERSIONED_CLONE_UNSUPPORTED_TABLE_FEATURE
Riwayat tabel sumber mengandung fitur tabel yang tidak didukung oleh klon berversi pada versi DBR ini: <unsupportedFeatureNames>.
Silakan tingkatkan ke versi DBR yang lebih baru.
VIEW_ALREADY_EXISTS
Tidak dapat membuat tampilan <relationName> karena sudah ada.
Pilih nama yang berbeda, hapus atau ganti objek yang ada, atau tambahkan klausa IF NOT EXISTS untuk mentolerir objek yang sudah ada.
VIEW_EXCEED_MAX_NESTED_DEPTH
Kedalaman tampilan <viewName> melebihi kedalaman resolusi tampilan maksimum (<maxNestedDepth>).
Analisis dibatalkan untuk menghindari kesalahan. Jika Anda ingin mengatasi hal ini, silakan coba tingkatkan nilai "spark.sql.view.maxNestedViewDepth".
VIEW_NOT_FOUND
Tampilan <relationName> tidak dapat ditemukan. Verifikasi ejaan dan kebenaran skema dan katalog.
Jika Anda tidak menentukan nama dengan skema, periksa output dari current_schema(), atau tentukan nama dengan skema dan katalog yang benar.
Untuk mentolerir kesalahan saat drop, gunakan DROP VIEW IF EXISTS.
VOLUME_ALREADY_EXISTS
Tidak dapat membuat volume <relationName> karena sudah ada.
Pilih nama yang berbeda, hapus atau ganti objek yang ada, atau tambahkan klausa IF NOT EXISTS untuk mentolerir objek yang sudah ada.
Strategi Peningkatan Tanda Air
Strategi pengembangan watermark streaming memiliki batasan berikut:
Untuk detail selengkapnya, lihat WATERMARK_ADVANCEMENT_STRATEGY
WINDOW_FUNCTION_AND_FRAME_MISMATCH
<funcName> fungsi hanya dapat dievaluasi dalam jendela baris yang diurutkan dengan satu offset: <windowExpr>.
WINDOW_FUNCTION_WITHOUT_OVER_CLAUSE
Fungsi jendela <funcName> memerlukan klausa OVER.
WITH_CREDENTIAL
sintaks WITH CREDENTIAL tidak didukung untuk <type>.
WRITE_STREAM_NOT_ALLOWED
writeStream hanya dapat dipanggil pada streaming Dataset/DataFrame.
WRONG_COLUMN_DEFAULTS_FOR_DELTA_ALTER_TABLE_ADD_COLUMN_NOT_SUPPORTED
Gagal menjalankan perintah karena nilai DEFAULT tidak didukung saat menambahkan baru
kolom ke tabel Delta yang sudah ada sebelumnya; harap tambahkan kolom tanpa default
nilai terlebih dahulu, lalu jalankan perintah ALTER TABLE ALTER COLUMN SET DEFAULT kedua untuk menerapkan
untuk baris yang akan disisipkan di masa mendatang.
WRONG_COLUMN_DEFAULTS_FOR_DELTA_FEATURE_NOT_ENABLED
Gagal menjalankan perintah <commandType> karena menetapkan nilai kolom DEFAULT.
tetapi fitur tabel yang sesuai tidak diaktifkan. Silakan coba lagi perintah
setelah menjalankan ALTER TABLE tableName SET
TBLPROPERTIES('delta.feature.allowColumnDefaults' = 'didukung').
WRONG_COMMAND_FOR_OBJECT_TYPE
Operasi <operation> memerlukan <requiredType>. Tapi <objectName> adalah <foundType>. Gunakan <alternative> sebagai gantinya.
WRONG_NUM_ARGS
<functionName> memerlukan parameter <expectedNum> tetapi angka aktualnya <actualNum>.
Untuk informasi lebih lanjut, lihat WRONG_NUM_ARGS
XML_ROW_TAG_MISSING
<rowTag> opsi diperlukan untuk membaca/menulis file dalam format XML.
XML_UNSUPPORTED_NESTED_TYPES
XML tidak mendukung <innerDataType> sebagai jenis dalam <dataType>. Harap bungkus <innerDataType> dalam elemen StructType saat menggunakannya di dalam <dataType>.
XML_WILDCARD_RESCUED_DATA_CONFLICT_ERROR
Data yang diselamatkan dan kolom bebas tidak dapat diaktifkan secara bersamaan. Hapus opsi wildcardColumnName.
ZORDERBY_COLUMN_DOES_NOT_EXIST
Kolom <columnName> ZOrderBy tidak ada.
Danau Delta
DELTA_ACTIVE_SPARK_SESSION_NOT_FOUND
Tidak dapat menemukan SparkSession aktif.
DELTA_ACTIVE_TRANSACTION_ALREADY_SET
Tidak dapat menyetel transaksi baru sebagai aktif ketika transaksi sudah aktif.
DELTA_ADDING_COLUMN_WITH_INTERNAL_NAME_FAILED
Gagal menambahkan kolom <colName> karena nama dicadangkan.
DELTA_ADDING_DELETION_VECTORS_DISALLOWED
Operasi saat ini mencoba menambahkan vektor penghapusan ke tabel yang tidak mengizinkan pembuatan vektor penghapusan baru. Silakan ajukan laporan bug.
DELTA_ADDING_DELETION_VECTORS_WITH_TIGHT_BOUNDS_DISALLOWED
Semua operasi yang menambahkan vektor penghapusan harus mengatur kolom tightBounds dalam statistik ke false. Silakan ajukan laporan bug.
DELTA_ADD_COLUMN_AT_INDEX_LESS_THAN_ZERO
Indeks <columnIndex> untuk menambahkan kolom <columnName> lebih rendah dari 0.
DELTA_ADD_COLUMN_PARENT_NOT_STRUCT
Tidak dapat menambahkan <columnName> karena induknya bukan StructType. Ditemukan <other>.
DELTA_ADD_COLUMN_STRUCT_NOT_FOUND
Struktur tidak ditemukan pada posisi <position>.
DELTA_ADD_CONSTRAINTS
Silakan gunakan ALTER TABLE tambahkan CONSTRAINT untuk menambahkan batasan CHECK.
DELTA_AGGREGATE_IN_CHECK_CONSTRAINT
Ditemukan <sqlExpr> dalam batasan CHECK . Ekspresi agregat tidak diperbolehkan dalam CHECK batasan.
DELTA_AGGREGATE_IN_GENERATED_COLUMN
Ditemukan <sqlExpr>. Kolom yang dihasilkan tidak dapat menggunakan ekspresi agregat.
DELTA_AGGREGATION_NOT_SUPPORTED
Fungsi agregat tidak didukung di <operation> <predicate>.
DELTA_ALTER_COLLATION_NOT_SUPPORTED_BLOOM_FILTER
Gagal mengubah kolasi kolom <column> karena memiliki indeks bloom filter. Harap pertahankan pengurutan yang ada atau hapus indeks filter "bloom", kemudian coba perintah lagi untuk mengubah pengurutan.
DELTA_ALTER_COLLATION_NOT_SUPPORTED_CLUSTER_BY
Gagal mengubah kolase kolom <column> karena merupakan kolom pengklusteran. Harap pertahankan kolasi yang ada atau ubah kolom menjadi kolom non-kluster dengan perintah ALTER TABLE lalu ulangi perintah tersebut untuk mengubah kolasi.
DELTA_ALTER_TABLE_CHANGE_COL_NOT_SUPPORTED
ALTER TABLE CHANGE COLUMN tidak didukung untuk mengubah kolom <currentType> menjadi <newType>.
DELTA_ALTER_TABLE_CLUSTER_BY_NOT_ALLOWED
ALTER TABLE CLUSTER BY hanya didukung untuk tabel Delta dengan pengklusteran Liquid.
DELTA_ALTER_TABLE_CLUSTER_BY_ON_PARTITIONED_TABLE_NOT_ALLOWED
ALTER TABLE CLUSTER BY tidak dapat diterapkan ke tabel yang dipartisi.
DELTA_ALTER_TABLE_RENAME_NOT_ALLOWED
Operasi tidak diizinkan: ALTER TABLE RENAME TO tidak diizinkan untuk tabel Delta terkelola pada S3, karena konsistensi akhir pada S3 dapat merusak log transaksi Delta. Jika Anda bersikeras melakukannya dan yakin bahwa belum pernah ada tabel Delta dengan nama baru <newName> sebelumnya, Anda dapat mengaktifkan ini dengan mengatur <key> menjadi benar.
DELTA_ALTER_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
Fitur tabel <tableFeature> tidak dapat diaktifkan menggunakan ALTER TABLE SET TBLPROPERTIES. Gunakan CREATE ATAU REPLACE TABLE CLUSTER BY untuk membuat tabel Delta dengan pengklusteran.
DELTA_ALTER_TABLE_SET_MANAGED_COPY_OR_MOVE_REQUIRED
ALTER TABLE ... SET MANAGED
COPY memerlukan atau MOVE untuk ditentukan untuk tabel <table>asing .
DELTA_ALTER_TABLE_SET_MANAGED_DOES_NOT_SUPPORT_UNIFORM_ICEBERG
ALTER TABLE ... SET MANAGED tidak mendukung tabel Uniform Apache Iceberg. Nonaktifkan Seragam atau gunakan SET MANAGED TRUNCATE UNIFORM HISTORY.
DELTA_ALTER_TABLE_SET_MANAGED_FAILED
ALTER TABLE <table> SET MANAGED Gagal.
Untuk detail selengkapnya, lihat DELTA_ALTER_TABLE_SET_MANAGED_FAILED
DELTA_ALTER_TABLE_SET_MANAGED_NOT_ENABLED
ALTER TABLE
...
SET MANAGED perintah tidak diaktifkan. Hubungi tim dukungan Databricks Anda untuk mendapatkan bantuan.
DELTA_ALTER_TABLE_SET_MANAGED_TABLE_NOT_MIGRATABLE
ALTER TABLE <table> SET MANAGED tidak dapat memigrasikan tabel yang diberikan.
Pastikan tabel dalam status valid dan coba lagi perintah . Jika masalah berlanjut, hubungi dukungan Databricks.
Untuk detail selengkapnya, lihat DELTA_ALTER_TABLE_SET_MANAGED_TABLE_NOT_MIGRATABLE
DELTA_ALTER_TABLE_SET_MANAGED_UNSUPPORTED_COPY_MOVE_SYNTAX
ALTER TABLE ... SET MANAGED [COPY | MOVE] sintaks tidak didukung untuk tabel <table>. Gunakan ALTER TABLE ... SET MANAGED sebagai gantinya.
DELTA_ALTER_TABLE_SET_MANAGED_UNSUPPORTED_FOREIGN_TABLE
Tabel <table> asing tidak didukung untuk migrasi ke tabel terkelola UC: <errorMessage>.
DELTA_ALTER_TABLE_UNSET_MANAGED_DOES_NOT_SUPPORT_COMPATIBILITY_MODE
ALTER TABLE ... UNSET MANAGED tidak mendukung tabel dengan mode kompatibilitas diaktifkan.
Nonaktifkan mode kompatibilitas pada tabel sebelum menjalankan perintah ini.
DELTA_ALTER_TABLE_UNSET_MANAGED_TIDAK_MENDUKUNG_SERAGAM
ALTER TABLE ... UNSET MANAGED tidak mendukung Uniform. Nonaktifkan Seragam atau gunakan UNSET MANAGED TRUNCATE UNIFORM HISTORY.
DELTA_ALTER_TABLE_UNSET_MANAGED_FAILED
<table> tidak dapat digulung balik dari tabel terkelola ke eksternal.
Untuk informasi lebih lanjut, lihat DELTA_ALTER_TABLE_UNSET_MANAGED_FAILED
DELTA_ALTER_TABLE_UNSET_MANAGED_NOT_ENABLED
ALTER TABLE
...
UNSET MANAGED perintah tidak diaktifkan. Hubungi tim dukungan Databricks Anda untuk mendapatkan bantuan.
DELTA_AMBIGUOUS_DATA_TYPE_CHANGE
Tidak dapat mengubah tipe data <column> dari <from> ke <to>. Perubahan ini berisi penghapusan kolom dan penambahan, oleh karena itu bersifat ambigu. Harap buat perubahan ini secara individual menggunakan ALTER TABLE [ADD | DROP | RENAME] COLUMN.
DELTA_AMBIGUOUS_PARTITION_COLUMN
Kolom partisi ambigu <column> bisa menjadi <colMatches>.
DELTA_AMBIGUOUS_PATHS_IN_CREATE_TABLE
CREATE TABLE berisi dua lokasi berbeda: <identifier> dan <location>.
Anda dapat menghapus klausa LOCATION dari pernyataan CREATE TABLE, atau mengatur
<config> setel ke true untuk melewati pemeriksaan ini.
DELTA_ARCHIVED_FILES_IN_LIMIT
Tabel <table> tidak berisi rekaman yang cukup dalam file yang tidak diarsipkan agar dapat memenuhi jumlah yang ditentukan sebanyak LIMIT dari <limit> rekaman.
DELTA_ARCHIVED_FILES_IN_SCAN
Ditemukan <numArchivedFiles> file yang berpotensi diarsipkan dalam tabel <table> yang perlu dipindai sebagai bagian dari kueri ini.
File yang diarsipkan tidak dapat diakses. Waktu yang tersisa hingga arsip dikonfigurasi sebagai <archivalTime>.
Sesuaikan filter kueri Anda untuk mengecualikan file yang diarsipkan.
DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION
Operasi "<opName>" tidak diperbolehkan ketika tabel telah mengaktifkan umpan data perubahan (CDF) dan telah mengalami perubahan skema menggunakan DROP COLUMN atau RENAME COLUMN.
DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS
Tidak dapat menghapus indeks filter Bloom untuk kolom yang tidak ada berikut ini: <unknownColumns>.
DELTA_BLOOM_FILTER_OOM_ON_WRITE
OutOfMemoryError terjadi saat menulis indeks Bloom Filter untuk kolom berikut: <columnsWithBloomFilterIndices>.
Anda dapat mengurangi penggunaan memori indeks bloom filter dengan memilih nilai yang lebih kecil untuk opsi 'numItems', nilai yang lebih besar untuk opsi 'fpp', atau dengan mengindeks lebih sedikit kolom.
DELTA_CANNOT_CHANGE_DATA_TYPE
Tidak dapat mengubah tipe data: <dataType>.
DELTA_CANNOT_CHANGE_LOCATION
Tidak dapat mengubah 'lokasi' tabel Delta menggunakan SET TBLPROPERTIES. Silakan gunakan ALTER TABLE SET LOCATION sebagai gantinya.
DELTA_CANNOT_CHANGE_PROVIDER
'provider' adalah properti tabel cadangan, dan tidak dapat diubah.
DELTA_CANNOT_CREATE_BLOOM_FILTER_NON_EXISTING_COL
Tidak dapat membuat indeks filter mekar untuk kolom yang tidak ada berikut ini: <unknownCols>.
DELTA_CANNOT_CREATE_LOG_PATH
Tidak dapat membuat <path>.
DELTA_CANNOT_DESCRIBE_VIEW_HISTORY
Tidak dapat menjelaskan riwayat tampilan.
DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN
Tidak dapat menghapus indeks bloom filter pada kolom yang tidak diindeks: <columnName>.
DELTA_CANNOT_DROP_CHECK_CONSTRAINT_FEATURE
Tidak dapat menghilangkan fitur tabel batasan CHECK.
Batasan berikut harus dihilangkan terlebih dahulu: <constraints>.
DELTA_CANNOT_DROP_COLLATIONS_FEATURE
Tidak dapat menghilangkan fitur tabel kolaterasi.
Kolom dengan kolase non-default harus diubah untuk menggunakan UTF8_BINARY terlebih dahulu: <colNames>.
DELTA_TIDAK_BISA_MENGHAPUS_FITUR_METADATA_DOMAIN_DARI_TABEL_ICEBERG_YANG_DIKELOLA
Tidak dapat menghilangkan fitur tabel domainMetadata. Tabel <name> adalah tabel Apache Iceberg terkelola. DomainMetadata tidak dapat dihilangkan dari tabel Apache Iceberg terkelola.
DELTA_TIDAK_DAPAT_MENGHAPUS_FITUR_GEOSPATIAL
Tidak dapat menghilangkan fitur tabel geospasial. Buat ulang tabel atau letakkan kolom dengan jenis geometri/geografi: <colNames> dan coba lagi.
DELTA_CANNOT_DROP_VARIANT_FEATURE
DROP FEATURE <feature> tidak berhasil. Tidak dapat menghilangkan fitur tabel varian. Kolom varian harus dihilangkan terlebih dahulu: <colNames>.
DELTA_CANNOT_EVALUATE_EXPRESSION
Tidak dapat mengevaluasi ekspresi: <expression>.
DELTA_CANNOT_FIND_BUCKET_SPEC
Mengharapkan tabel Delta berkeranjang tetapi tidak dapat menemukan spesifikasi keranjang dalam tabel.
DELTA_CANNOT_GENERATE_CODE_FOR_EXPRESSION
Tidak dapat menghasilkan kode untuk ekspresi: <expression>.
DELTA_CANNOT_MODIFY_APPEND_ONLY
Tabel ini dikonfigurasi untuk hanya mengizinkan penambahan. Jika Anda ingin mengizinkan pembaruan atau penghapusan, gunakan 'ALTER TABLE <table_name> SET TBLPROPERTIES (<config>=false)'.
DELTA_CANNOT_MODIFY_CATALOG_OWNED_DEPENDENCIES
Tidak dapat menggantikan atau membatalkan pengaturan properti tabel penanda waktu saat komit karena tabel ini dimiliki oleh katalog. Hapus "delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", dan "delta.inCommitTimestampEnablementTimestamp" dari TBLPROPERTIES klausul lalu coba lagi perintah .
DELTA_CANNOT_MODIFY_COORDINATED_COMMITS_DEPENDENCIES
<Command> tidak dapat mengubah atau menghapus properti tabel tanda waktu saat komit karena komit terkoordinasi diaktifkan dalam tabel ini dan bergantung padanya. Silakan hapus ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") dari TBLPROPERTIES klausul lalu coba lagi perintah tersebut.
DELTA_CANNOT_MODIFY_TABLE_PROPERTY
Konfigurasi <prop> tabel Delta tidak dapat ditentukan oleh pengguna.
DELTA_CANNOT_OVERRIDE_COORDINATED_COMMITS_CONFS
<Command> tidak dapat mengubah konfigurasi komitmen terkoordinasi untuk tabel target yang sudah ada. Silakan hapus ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview", "delta.coordinatedCommits.tableConf-preview") dari TBLPROPERTIES klausul lalu coba lagi perintah tersebut.
DELTA_CANNOT_RECONSTRUCT_PATH_FROM_URI
Uri (<uri>) yang tidak dapat diubah menjadi jalur relatif ditemukan di log transaksi.
DELTA_CANNOT_RELATIVIZE_PATH
Jalur (<path>) yang tidak dapat direlativasi dengan input saat ini yang ada di
log transaksi. Silakan jalankan kembali ini dengan cara:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog(""<userPath>, true)
lalu jalankan juga:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<path>")
DELTA_CANNOT_RENAME_PATH
Tidak dapat mengganti nama <currentPath> menjadi <newPath>.
DELTA_CANNOT_REPLACE_MISSING_TABLE
Tabel <tableName> tidak dapat diganti karena tidak ada. Gunakan CREATE ATAU REPLACE TABLE untuk membuat tabel.
DELTA_CANNOT_RESOLVE_CLUSTERING_COLUMN
Tidak dapat mengatasi kolom pengklusteran <columnName> dalam <schema> karena kesalahan yang tidak terduga. Jalankan ALTER TABLE...CLUSTER BY ... untuk memperbaiki metadata pengklusteran Delta.
DELTA_CANNOT_RESOLVE_COLUMN
Tidak dapat mengatasi kolom <columnName> di <schema>
DELTA_CANNOT_RESTORE_TABLE_VERSION
Tidak dapat memulihkan tabel ke versi <version>. Versi yang tersedia: [<startVersion>, <endVersion>].
DELTA_CANNOT_RESTORE_TIMESTAMP_EARLIER
Tidak dapat memulihkan tabel ke tanda waktu (<requestedTimestamp>) seperti sebelum versi paling awal tersedia. Silakan gunakan tanda waktu setelah (<earliestTimestamp>).
DELTA_CANNOT_RESTORE_TIMESTAMP_GREATER
Tidak dapat mengembalikan tanda waktu tabel (<requestedTimestamp>) karena itu melebihi versi terbaru yang tersedia. Gunakan tanda waktu sebelum (<latestTimestamp>).
DELTA_CANNOT_SET_COORDINATED_COMMITS_DEPENDENCIES
<Command> tidak dapat mengatur properti tabel tanda waktu dalam penerapan bersama dengan penerapan terkoordinasi, karena yang terakhir tergantung pada yang pertama dan mengatur yang sebelumnya secara internal. Silakan hapus ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") dari TBLPROPERTIES klausul lalu coba lagi perintah tersebut.
DELTA_CANNOT_SET_LOCATION_ON_PATH_IDENTIFIER
Tidak dapat mengubah lokasi tabel berbasis jalur.
DELTA_CANNOT_SET_MANAGED_STATS_COLUMNS_PROPERTY
Tidak dapat mengatur delta.managedDataSkippingStatsColumns pada tabel Alur Deklaratif Spark non-Lakeflow.
DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_COMMAND
Saat mengaktifkan 'unity-catalog' sebagai koordinator penerapan, konfigurasi "<configuration>" tidak dapat diatur dari perintah. Silakan hapus dari klausa TBLPROPERTIES lalu coba lagi perintah tersebut.
DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_SESSION
Saat mengaktifkan 'unity-catalog' sebagai koordinator penerapan, konfigurasi "<configuration>" tidak dapat diatur dari konfigurasi SparkSession. Silakan batalkan pengaturan dengan menjalankan spark.conf.unset("<configuration>") lalu coba lagi perintah tersebut.
DELTA_CANNOT_UNSET_COORDINATED_COMMITS_CONFS
ALTER tidak dapat menghapus konfigurasi komit terkoordinasi. Untuk menurunkan tingkat tabel dari penerapan terkoordinasi, silakan coba lagi menggunakan ALTER TABLE [table-name] DROP FEATURE 'coordinatedCommits-preview'.
DELTA_CANNOT_UPDATE_ARRAY_FIELD
Tidak dapat memperbarui <tableName> jenis bidang <fieldName> : perbarui elemen dengan memperbarui <fieldName>.element.
DELTA_CANNOT_UPDATE_MAP_FIELD
Tidak dapat memperbarui <tableName> tipe bidang <fieldName> : memperbarui peta dengan memperbarui <fieldName>.key atau <fieldName>.value.
DELTA_CANNOT_UPDATE_OTHER_FIELD
Tidak dapat memperbarui <tableName> bidang tipe <typeName>.
DELTA_CANNOT_UPDATE_STRUCT_FIELD
Tidak dapat memperbarui bidang <tableName> tipe <fieldName>: perbarui struct dengan cara menambahkan, menghapus, atau memperbarui bidang-bidangnya.
DELTA_CANNOT_USE_ALL_COLUMNS_FOR_PARTITION
Tidak dapat menggunakan semua kolom untuk kolom partisi.
DELTA_CANNOT_VACUUM_LITE
VACUUM LITE tidak dapat menghapus semua file yang memenuhi syarat karena beberapa file tidak dirujuk oleh log Delta. Silakan jalankan VACUUM FULL.
DELTA_CANNOT_WRITE_INTO_VIEW
<table> merupakan tampilan. Menulis ke tampilan tidak didukung.
DELTA_CAST_OVERFLOW_IN_TABLE_WRITE
Gagal menulis nilai jenis <sourceType> ke dalam kolom jenis <targetType><columnName> karena kelebihan kapasitas.
Gunakan try_cast pada nilai input untuk mentolerir luapan dan mengembalikan NULL sebagai gantinya.
Jika perlu, atur <storeAssignmentPolicyFlag> ke "LEGACY" untuk melewati kesalahan ini atau diatur <updateAndMergeCastingFollowsAnsiEnabledFlag> ke true untuk kembali ke perilaku lama dan ikuti <ansiEnabledFlag> dan UPDATEMERGE.
DELTA_CATALOG_MANAGED_TABLE_UPGRADE_OR_DOWNGRADE_NOT_SUPPORTED
Meningkatkan atau menurunkan tabel yang dikelola katalog tidak didukung. Buat tabel baru dengan fitur tabel yang diinginkan sebagai gantinya.
DELTA_CATALOG_MANAGED_TABLE_UPGRADE_WITH_OTHER_PROPERTIES
Tidak dapat menggabungkan peningkatan tabel <tableName> ke dikelola katalog dengan perubahan properti lainnya.
Properti yang disediakan: <properties>.
DELTA_CDC_NOT_ALLOWED_IN_THIS_VERSION
Konfigurasi delta.enableChangeDataFeed tidak dapat diatur. Umpan data perubahan dari Delta belum tersedia.
DELTA_CDC_READ_NULL_RANGE_BOUNDARY
Parameter mulai/akhir untuk membaca CDC tidak boleh kosong. Harap sediakan versi atau tanda waktu yang valid.
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_DATA_SCHEMA
Pengambilan perubahan tabel antara versi <start> dan <end> gagal karena skema data yang tidak kompatibel.
Skema baca Anda <readSchema> pada versi <readVersion>, tetapi kami menemukan skema data yang tidak kompatibel pada versi <incompatibleVersion>.
Jika memungkinkan, silakan ambil perubahan tabel menggunakan skema versi akhir dengan mengatur <config> ke endVersion, atau hubungi dukungan.
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE
Gagal mengambil perubahan tabel antara versi <start> dan <end> karena perubahan skema yang tidak cocok.
Skema baca Anda <readSchema> pada versi <readVersion>, tetapi kami menemukan perubahan skema yang tidak kompatibel pada versi <incompatibleVersion>.
Jika memungkinkan, silakan kueri perubahan tabel secara terpisah dari versi <start> ke <incompatibleVersion> - 1, dan dari versi <incompatibleVersion> ke <end>.
DELTA_CHANGE_DATA_FILE_NOT_FOUND
File <filePath> yang dirujuk dalam log transaksi tidak dapat ditemukan. Ini dapat terjadi ketika data telah dihapus secara manual dari sistem file daripada menggunakan tabel DELETE pernyataan. Permintaan ini tampaknya menargetkan Umpan Data Perubahan, jika benar demikian, kesalahan ini dapat terjadi ketika file data perubahan melewati periode retensi dan telah dihapus oleh pernyataan VACUUM. Untuk informasi selengkapnya, lihat <faqPath>
DELTA_CHANGE_TABLE_FEED_DISABLED
Tidak dapat menulis ke tabel dengan set delta.enableChangeDataFeed. Perubahan umpan data dari Delta tidak tersedia.
DELTA_CHECKPOINT_NON_EXIST_TABLE
Tidak dapat memeriksa tabel yang tidak ada <path>. Apakah Anda menghapus file secara manual di direktori _delta_log?
DELTA_CLONE_AMBIGUOUS_TARGET
Dua jalur disediakan sebagai target CLONE, sehingga menjadi ambigu jalur mana yang harus digunakan. Eksternal
lokasi untuk CLONE diberikan pada <externalLocation> bersamaan dengan rute
<targetIdentifier>.
DELTA_CLONE_INCOMPATIBLE_SOURCE
Sumber kloning memiliki format yang valid, tetapi memiliki fitur yang tidak didukung dengan Delta.
Untuk informasi lebih lanjut, lihat DELTA_CLONE_INCOMPATIBLE_SOURCE
DELTA_CLONE_INCOMPLETE_FILE_COPY
File (<fileName>) tidak disalin sepenuhnya. Ukuran file yang diharapkan: <expectedSize>, ditemukan: <actualSize>. Untuk melanjutkan operasi dengan mengabaikan pemeriksaan ukuran file, setel <config> menjadi false.
DELTA_CLONE_UNSUPPORTED_SOURCE
Sumber kloning <mode> yang tidak didukung '<name>', yang formatnya adalah <format>.
Format yang didukung adalah 'delta', 'Apache Iceberg' dan 'parquet'.
DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_SOURCE
Tabel sumber yang tidak didukung:
Untuk detail lebih lanjut, lihat DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_SOURCE
DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_TARGET
Tabel target yang tidak didukung:
Untuk informasi lebih lanjut, lihat DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_TARGET
Delta_Klon_dengan_pelacakan_baris_tanpa_statistik
Tidak dapat mengkloning tabel yang tidak memiliki statistik dan yang pelacakan barisnya diaktifkan.
Jika Anda ingin mengaktifkan pelacakan baris, Anda harus terlebih dahulu mengumpulkan statistik pada tabel sumber dengan menjalankan:
ANALYZE TABLE nama_tabel COMPUTE DELTA STATISTICS
DELTA_CLUSTERING_CLONE_TABLE_NOT_SUPPORTED
CLONE tidak didukung untuk tabel Delta dengan pengklusteran Liquid untuk DBR versi < 14.0.
DELTA_CLUSTERING_COLUMNS_DATATYPE_NOT_SUPPORTED
CLUSTER BY tidak didukung karena kolom berikut ini: <columnsWithDataTypes> tidak mendukung fitur pengabaian data.
DELTA_CLUSTERING_COLUMNS_MISMATCH
Kolom pengklusteran yang disediakan tidak cocok dengan tabel yang ada.
disediakan:
<providedClusteringColumns>tersedia:
<existingClusteringColumns>
DELTA_CLUSTERING_COLUMN_MISSING_STATS
Pengklusteran cairan mengharuskan kolom pengklusteran memiliki statistik. Tidak dapat menemukan kolom pengklusteran '<columns>' dalam skema statistik:
<schema>
DELTA_CLUSTERING_CREATE_EXTERNAL_NON_LIQUID_TABLE_FROM_LIQUID_TABLE
Membuat tabel eksternal tanpa pengklusteran cair dari direktori tabel dengan pengklusteran cairan tidak diperbolehkan; jalur: <path>.
DELTA_CLUSTERING_NOT_SUPPORTED
'<operation>' tidak mendukung pengklusteran.
DELTA_CLUSTERING_PHASE_OUT_FAILED
Tidak dapat melengkapi <phaseOutType> dari tabel dengan fitur tabel <tableFeatureToAdd> (alasan: <reason>). Silakan coba perintah OPTIMIZE lagi.
== Kesalahan ==
<error>
DELTA_CLUSTERING_REPLACE_TABLE_WITH_PARTITIONED_TABLE
REPLACE tabel Delta dengan pengelompokan Liquid pada tabel yang dipartisi tidak diizinkan.
DELTA_CLUSTERING_SHOW_CREATE_TABLE_WITHOUT_CLUSTERING_COLUMNS
SHOW CREATE TABLE tidak didukung untuk tabel Delta dengan pengklusteran Liquid tanpa kolom pengklusteran apa pun.
DELTA_CLUSTERING_TO_PARTITIONED_TABLE_WITH_NON_EMPTY_CLUSTERING_COLUMNS
Transisi tabel Delta dengan pengklusteran Liquid ke tabel yang dipartisi tidak diizinkan untuk operasi: <operation>, ketika tabel yang ada memiliki kolom pengklusteran yang tidak kosong.
Jalankan ALTER TABLE CLUSTER BY NONE untuk menghapus kolom pengklusteran terlebih dahulu.
DELTA_CLUSTERING_WITH_DYNAMIC_PARTITION_OVERWRITE
Mode timpa partisi dinamis tidak diizinkan untuk tabel Delta dengan pengklusteran Liquid.
DELTA_CLUSTERING_WITH_PARTITION_PREDICATE
OPTIMIZE perintah untuk tabel Delta dengan Liquid clustering tidak mendukung predikat partisi. Silakan hapus predikat: <predicates>.
DELTA_CLUSTERING_WITH_ZORDER_BY
perintah OPTIMIZE untuk tabel Delta dengan pengklusteran Liquid tidak dapat menentukan ZORDER BY. Silakan hapus ZORDER BY (<zOrderBy>).
DELTA_CLUSTER_BY_AUTO_MISMATCH
Nilai clusterByAuto yang disediakan tidak cocok dengan tabel yang ada.
DELTA_CLUSTER_BY_INVALID_NUM_COLUMNS
CLUSTER BY untuk pengklusteran Liquid mendukung hingga <numColumnsLimit> kolom pengklusteran, tetapi tabel memiliki kolom pengklusteran <actualNumColumns>. Hapus kolom pengklusteran tambahan.
DELTA_CLUSTER_BY_SCHEMA_NOT_PROVIDED
Tidak diperbolehkan menentukan CLUSTER BY ketika skema tidak ditentukan. Tentukan skema untuk tabel <tableName>.
DELTA_CLUSTER_BY_WITH_BUCKETING
Pengklusteran dan pengelompokan tidak bisa dilakukan sekaligus. Hapus CLUSTERED BY INTO BUCKETS / bucketBy jika Anda ingin membuat tabel Delta dengan pengklusteran.
DELTA_CLUSTER_BY_WITH_PARTITIONED_BY
Pengklusteran dan pemartisian tidak dapat ditentukan keduanya. Hapus PARTITIONED BY / partitionBy / partitionedBy jika Anda ingin membuat tabel Delta dengan pengklusteran.
DELTA_COLLATIONS_NOT_SUPPORTED
Kolatasi tidak didukung di Delta Lake.
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_PARTITIONED_COLUMN
Pengabaian data tidak didukung untuk kolom partisi '<column>'.
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_TYPE
Pengabaian data tidak didukung untuk kolom '<column>' dengan jenis <type>.
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET
Properti id kolom maksimum (<prop>) tidak diatur pada tabel yang diaktifkan pemetaan kolom.
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET_CORRECTLY
Properti id kolom maksimum (<prop>) pada tabel dengan pemetaan kolom diaktifkan, yaitu <tableMax>, yang tidak dapat lebih kecil dari id kolom maksimum untuk semua kolom (<fieldMax>).
DELTA_COLUMN_MISSING_DATA_TYPE
Tipe data kolom <colName> tidak disediakan.
DELTA_COLUMN_NOT_FOUND
Tidak dapat menemukan kolom <columnName> yang diberikan [<columnList>].
DELTA_COLUMN_NOT_FOUND_IN_MERGE
Tidak dapat menemukan kolom '<targetCol>' dari tabel target di antara kolom INSERT: <colNames>. klausa INSERT harus menentukan nilai untuk semua kolom tabel target.
DELTA_COLUMN_NOT_FOUND_IN_SCHEMA
Tidak dapat menemukan kolom <columnName> di:
<tableSchema>
DELTA_COLUMN_PATH_NOT_NESTED
Diharapkan <columnPath> menjadi jenis data berlapis, tetapi ditemukan <other>. Sedang mencari
indeks <column> di bidang bertingkat.
Schema:
<schema>
DELTA_COLUMN_STRUCT_TYPE_MISMATCH
Kolom struktur <source> tidak dapat disisipkan ke dalam bidang <targetType><targetField> di <targetTable>.
DELTA_COMMIT_INTERMEDIATE_REDIRECT_STATE
Tidak dapat menangani komit tabel dalam status tabel pengalihan '<state>'.
DELTA_COMPACTION_VALIDATION_FAILED
Validasi pemadatan jalur <compactedPath> ke <newPath> gagal: Silakan ajukan laporan bug.
DELTA_COMPLEX_TYPE_COLUMN_CONTAINS_NULL_TYPE
Ditemukan NullType yang bersarang di kolom <columName> yang merupakan <dataType>. Delta tidak mendukung penulisan NullType dalam jenis kompleks.
DELTA_CONCURRENT_APPEND
ConcurrentAppendException: File-file telah ditambahkan ke <partition> oleh pembaruan yang dilakukan secara bersamaan. <retryMsg> <conflictingCommit>
Lihat <docLink> untuk detail selengkapnya.
DELTA_CONCURRENT_DELETE_DELETE
ConcurrentDeleteDeleteException: Transaksi ini mencoba menghapus satu atau beberapa file yang dihapus (misalnya <file>) dengan pembaruan bersamaan. Silakan coba operasi ini lagi.<conflictingCommit>
Lihat <docLink> untuk detail selengkapnya.
DELTA_CONCURRENT_DELETE_READ
ConcurrentDeleteReadException: Transaksi ini mencoba membaca satu atau beberapa file yang dihapus (misalnya <file>) dengan pembaruan bersamaan. Silakan coba operasi ini lagi.<conflictingCommit>
Lihat <docLink> untuk detail selengkapnya.
DELTA_CONCURRENT_TRANSACTION
ConcurrentTransactionException: Kesalahan ini terjadi ketika beberapa kueri streaming menggunakan titik pemeriksaan yang sama untuk menulis ke dalam tabel ini. Apakah Anda menjalankan instance kueri streaming yang sama secara paralel?<conflictingCommit>
Lihat <docLink> untuk detail selengkapnya.
DELTA_CONCURRENT_WRITE
ConcurrentWriteException: Transaksi bersamaan telah menulis data baru sejak transaksi saat ini membaca tabel. Silakan coba operasi ini lagi.<conflictingCommit>
Lihat <docLink> untuk detail selengkapnya.
DELTA_CONFLICT_SET_COLUMN
Ada konflik pada kolom SET berikut: <columnList>.
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_COMMAND
Selama <command>, konfigurasi "<configuration>" tidak dapat diatur dari perintah. Silakan hapus dari klausa TBLPROPERTIES lalu coba lagi perintah tersebut.
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_SESSION
Selama <command>, konfigurasi "<configuration>" tidak dapat diatur dari konfigurasi SparkSession. Silakan batalkan pengaturan dengan menjalankan spark.conf.unset("<configuration>") lalu coba lagi perintah tersebut.
DELTA_CONSTRAINT_ALREADY_EXISTS
Batasan '<constraintName>' sudah ada. Hapus batasan lama terlebih dahulu.
Batasan lama:
<oldConstraint>
DELTA_CONSTRAINT_DATA_TYPE_MISMATCH
<columnName> kolom memiliki tipe data <columnType> dan tidak dapat diubah menjadi tipe data <dataType> karena kolom ini direferensikan oleh batasan pemeriksaan berikut:
<constraints>
DELTA_CONSTRAINT_DEPENDENT_COLUMN_CHANGE
Tidak dapat mengubah <columnName> kolom karena kolom ini dirujuk oleh batasan pemeriksaan berikut:
<constraints>
DELTA_CONSTRAINT_DOES_NOT_EXIST
Tidak dapat menghilangkan batasan yang tidak ada <constraintName> dari tabel <tableName>. Untuk menghindari kesalahan, berikan parameter IF EXISTS atau atur konfigurasi sesi SQL <config> ke <confValue>.
DELTA_CONVERSION_MERGE_ON_READ_NOT_SUPPORTED
Konversi tabel Merge-On-Read <format> tidak didukung: <path>, <hint>
DELTA_CONVERSION_NO_PARTITION_FOUND
Tidak menemukan informasi partisi dalam katalog untuk tabel <tableName>. Apakah Anda menjalankan "MSCK REPAIR TABLE" di tabel Anda untuk menemukan partisi?
DELTA_CONVERSION_UNSUPPORTED_COLLATED_PARTITION_COLUMN
Tidak bisa mengonversi tabel Parquet dengan kolom partisi tersusun <colName> ke Delta.
DELTA_CONVERSION_UNSUPPORTED_COLUMN_MAPPING
Konfigurasi '<config>' tidak dapat diatur ke <mode> saat menggunakan CONVERT TO DELTA.
DELTA_CONVERSION_UNSUPPORTED_SCHEMA_CHANGE
Perubahan skema yang tidak didukung ditemukan untuk <format> tabel: <path>, <hint>
DELTA_CONVERT_NON_PARQUET_TABLE
CONVERT KE DELTA hanya cocok untuk tabel parquet, tetapi Anda mencoba untuk mengonversi sumber <sourceName>: <tableId>.
DELTA_CONVERT_TO_DELTA_ROW_TRACKING_WITHOUT_STATS
Tidak dapat mengaktifkan pelacakan baris tanpa mengumpulkan statistik.
Jika Anda ingin mengaktifkan pelacakan baris, lakukan hal berikut:
- Aktifkan pengumpulan statistik dengan menjalankan perintah
SET <statisticsCollectionPropertyKey> = benar
- Jalankan
CONVERThinggaDELTAtanpa opsi TIDAKSTATISTICS.
Jika Anda tidak ingin mengumpulkan statistik, nonaktifkan pelacakan baris:
- Nonaktifkan pengaktifan fitur tabel secara default dengan menjalankan perintah:
RESET <rowTrackingTableFeatureDefaultKey>
- Nonaktifkan properti tabel secara default dengan menjalankan:
SET <rowTrackingDefaultPropertyKey> = salah
DELTA_COPY_INTO_TARGET_FORMAT
target COPY INTO harus berupa tabel Delta.
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_SCHEMA
Anda mencoba membuat tabel eksternal <tableName>
dari <path> menggunakan Delta, tetapi skema tidak ditentukan ketika
jalur input kosong.
Untuk mempelajari selengkapnya tentang Delta, lihat <docLink>
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_TXN_LOG
Anda mencoba membuat tabel <tableName> eksternal dari <path> menggunakan Delta, tetapi tidak ada log transaksi yang ada di <logPath>. Periksa tugas upstream untuk memastikan bahwa tugas tersebut menggunakan format("delta") dan bahwa jalurnya adalah akar tabel.
Untuk mempelajari selengkapnya tentang Delta, lihat <docLink>
DELTA_CREATE_TABLE_IDENTIFIER_LOCATION_MISMATCH
Membuat tabel Delta berbasis jalur dengan lokasi lain tidak didukung. Pengidentifikasi: <identifier>, Lokasi: <location>.
DELTA_CREATE_TABLE_MISSING_TABLE_NAME_OR_LOCATION
Nama tabel atau lokasi harus ditentukan.
DELTA_CREATE_TABLE_SCHEME_MISMATCH
Skema yang ditentukan tidak cocok dengan skema yang ada pada <path>.
== Ditentukan ==
<specifiedSchema>
== Yang Ada ==
<existingSchema>
== Perbedaan ==
<schemaDifferences>
Jika tujuan Anda adalah untuk menyimpan skema yang ada, Anda dapat menghilangkan
skema dari perintah buat tabel. Jika tidak, pastikan bahwa
Skema tersebut sesuai.
DELTA_CREATE_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
Fitur tabel <tableFeature> tidak dapat diaktifkan menggunakan TBLPROPERTIES. Gunakan CREATE ATAU REPLACE TABLE CLUSTER BY untuk membuat tabel Delta dengan pengklusteran.
DELTA_CREATE_TABLE_WITH_DIFFERENT_CLUSTERING
Kolom pengklusteran yang ditentukan tidak cocok dengan kolom pengklusteran yang ada di <path>.
== Ditentukan ==
<specifiedColumns>
== Yang Ada ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PARTITIONING
Partisi yang ditentukan tidak cocok dengan partisi yang ada di <path>.
== Ditentukan ==
<specifiedColumns>
== Yang Ada ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PROPERTY
Properti yang ditentukan tidak sesuai dengan properti yang ada di <path>.
== Ditentukan ==
<specifiedProperties>
== Yang Ada ==
<existingProperties>
DELTA_CREATE_TABLE_WITH_NON_EMPTY_LOCATION
Tidak dapat membuat tabel ('<tableId>'). Lokasi terkait ('<tableLocation>') tidak kosong dan juga bukan tabel Delta.
DELTA_DATA_CHANGE_FALSE
Tidak dapat mengubah metadata tabel karena opsi 'dataChange' diatur ke false. Operasi yang dicoba: '<op>'.
DELTA_DELETED_PARQUET_FILE_NOT_FOUND
File <filePath> yang dirujuk dalam log transaksi tidak dapat ditemukan. File parquet ini dapat dihapus sesuai kebijakan retensi data Delta.
Durasi retensi data bawaan Delta: <logRetentionPeriod>. Waktu modifikasi file parquet: <modificationTime>. Waktu penghapusan file parquet: <deletionTime>. Dihapus pada versi Delta: <deletionVersion>.
DELTA_DELETION_VECTOR_MISSING_NUM_RECORDS
Tidak valid untuk mengikat file dengan vektor penghapusan yang tidak memiliki statistik numRecords.
DELTA_NONAKTIFKAN_MATERIALISASI_SUMBER_DALAM_INSERT_REPLACE_ON_OR_USING_TIDAK_DIPERBOLEHKAN
Menonaktifkan materialisasi sumber di INSERT REPLACE ON/USING dengan mengatur 'spark.databricks.delta.insertReplaceOnOrUsing.materializeSource' ke 'none' tidak diizinkan.
DELTA_DISABLE_SOURCE_MATERIALIZATION_IN_MERGE_NOT_ALLOWED
Menonaktifkan materialisasi sumber dalam MERGE dengan mengatur 'spark.databricks.delta.merge.materializeSource' menjadi 'none' tidak diizinkan.
DELTA_DOMAIN_METADATA_NOT_SUPPORTED
Tindakan DomainMetadata yang terdeteksi untuk domain <domainNames>, tetapi DomainMetadataTableFeature tidak diaktifkan.
DELTA_DROP_COLUMN_AT_INDEX_LESS_THAN_ZERO
Indeks <columnIndex> untuk menghilangkan kolom lebih rendah dari 0.
DELTA_DROP_COLUMN_ON_SINGLE_FIELD_SCHEMA
Tidak dapat menghapus kolom dari skema dengan satu kolom. Schema:
<schema>
DELTA_DUPLICATE_ACTIONS_FOUND
Operasi file '<actionType>' untuk jalur <path> ditentukan beberapa kali.
Ini bertentang dengan <conflictingPath>.
Tidak valid untuk memiliki beberapa operasi file dengan jalur yang sama dalam satu commit.
DELTA_DUPLICATE_COLUMNS_FOUND
Ditemukan kolom <coltype>duplikat : <duplicateCols>.
DELTA_DUPLICATE_COLUMNS_ON_INSERT
Menduplikasi nama kolom dalam INSERT klausa.
DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE
<message>
Hapus kolom duplikat sebelum Anda memperbarui tabel Anda.
DELTA_DUPLICATE_DATA_SKIPPING_COLUMNS
Kolom lompati data duplikat ditemukan: <columns>.
DELTA_DUPLICATE_DOMAIN_METADATA_INTERNAL_ERROR
Kesalahan internal: dua tindakan DomainMetadata dalam transaksi yang sama memiliki domain <domainName>yang sama .
ENTRI_LOG_DUPLIKAT_DELTA_DITEMUKAN
Log Delta dalam status ilegal: <numDuplicates> jalur memiliki entri duplikat dalam versi <version>.
RESTORE ke versi sebelum penerapan yang memperkenalkan duplikasi atau menghubungi dukungan untuk mendapatkan bantuan.
DELTA_DV_HISTOGRAM_DESERIALIZATON
Tidak dapat mendeserialisasi histogram jumlah rekaman yang dihapus selama verifikasi integritas tabel.
DELTA_DYNAMIC_PARTITION_OVERWRITE_DISABLED
Modus timpa partisi dinamis ditentukan oleh konfigurasi sesi atau opsi penulisan, tetapi dinonaktifkan oleh spark.databricks.delta.dynamicPartitionOverwrite.enabled=false.
DELTA_EMPTY_DATA
Data yang digunakan dalam membuat tabel Delta tidak memiliki kolom apa pun.
DELTA_EMPTY_DIRECTORY
Tidak ada file yang ditemukan di direktori: <directory>.
DELTA_EXCEED_CHAR_VARCHAR_LIMIT
Nilai "<value>" melebihi batasan panjang jenis karakter/varchar. Pemeriksaan gagal: <expr>.
DELTA_EXTERNAL_METADATA_UNRESOLVED_PROJECTION
Kueri proyeksi '<query>' tidak dapat diselesaikan pada skema: <schemaTreeString>
DELTA_EXTERNAL_METADATA_UNSUPPORTED_SOURCE (SUMBER METADATA EKSTERNAL DELTA TIDAK DIDUKUNG)
Metadata Eksternal tidak mendukung sumber:
Untuk informasi lebih lanjut, lihat DELTA_EXTERNAL_METADATA_UNSUPPORTED_SOURCE
DELTA_FAILED_CAST_PARTITION_VALUE
Gagal mengonversi nilai <value> partisi menjadi <dataType>.
DELTA_FAILED_FIND_ATTRIBUTE_IN_OUTPUT_COLUMNS
Tidak dapat menemukan <newAttributeName> di antara output <targetOutputColumns>target yang ada.
DELTA_FAILED_INFER_SCHEMA
Gagal menyimpulkan skema dari daftar file yang diberikan.
DELTA_FAILED_MERGE_SCHEMA_FILE
Gagal menggabungkan skema file <file>:
<schema>
DELTA_FAILED_OPERATION_ON_SHALLOW_CLONE
Gagal menjalankan operasi pada tabel <sourceTable> sumber karena kloning <targetTable> dangkal masih ada dan kesalahan berikut terjadi di kloning dangkal: <message>
DELTA_FAILED_READ_FILE_FOOTER
Tidak dapat membaca footer untuk file: <currentFile>.
DELTA_FAILED_RECOGNIZE_PREDICATE
Tidak dapat mengenali predikat '<predicate>'.
DELTA_FAILED_SCAN_WITH_HISTORICAL_VERSION
Diharapkan pemindaian penuh dari versi terbaru sumber Delta, tetapi justru menemukan pemindaian historis versi <historicalVersion>.
DELTA_FAILED_TO_MERGE_FIELDS
Gagal menggabungkan bidang '<currentField>' dan '<updateField>'.
DELTA_FEATURES_PROTOCOL_METADATA_MISMATCH
Tidak dapat beroperasi pada tabel ini karena fitur tabel berikut diaktifkan dalam metadata tetapi tidak tercantum dalam protokol: <features>.
DELTA_FEATURES_REQUIRE_MANUAL_ENABLEMENT
Skema tabel Anda memerlukan pengaktifan fitur tabel berikut secara manual: <unsupportedFeatures>.
Untuk melakukan ini, jalankan perintah berikut untuk setiap fitur yang tercantum di atas:
ALTER TABLE
SET TBLPROPERTIES table_name ('delta.feature.feature_name' = 'didukung')
Ganti "table_name" dan "feature_name" dengan nilai nyata.
Fitur yang didukung saat ini: <supportedFeatures>.
DELTA_FEATURE_CAN_ONLY_DROP_CHECKPOINT_PROTECTION_WITH_HISTORY_TRUNCATION
Tidak dapat menghilangkan fitur Perlindungan Titik Pemeriksaan.
Fitur ini hanya dapat dihilangkan dengan memotong riwayat.
Silakan coba lagi dengan opsi TRUNCATE HISTORY:
ALTER TABLE nama_tabel DROP FEATURE perlindunganCheckpoint TRUNCATE HISTORY
DELTA_FEATURE_DROP_CHECKPOINT_FAILED
Penurunan <featureName> gagal karena kegagalan dalam pembuatan titik pemeriksaan.
Silakan coba lagi nanti. Masalah berlanjut, hubungi dukungan Databricks.
DELTA_FEATURE_DROP_CHECKPOINT_PROTECTION_WAIT_FOR_RETENTION_PERIOD
Operasi tidak berhasil karena masih ada jejak fitur yang dihilangkan
dalam riwayat tabel. CheckpointProtection tidak dapat dihapus hingga histori ini
versi telah kedaluwarsa.
Untuk menghilangkan CheckpointProtection, harap tunggu versi historisnya
Tunggu sampai kedaluwarsa, lalu ulangi perintah ini. Periode retensi untuk versi historis adalah
saat ini dikonfigurasi untuk <truncateHistoryLogRetentionPeriod>.
DELTA_FEATURE_DROP_CONFLICT_REVALIDATION_FAIL
Tidak dapat menghilangkan fitur karena transaksi bersamaan mengubah tabel.
Silakan coba operasi ini lagi.
<concurrentCommit>
DELTA_FEATURE_DROP_DEPENDENT_FEATURE
Tidak dapat menghilangkan fitur tabel <feature> karena beberapa fitur lain (<dependentFeatures>) dalam tabel ini bergantung pada <feature>.
Pertimbangkan untuk menghilangkannya terlebih dahulu sebelum menghilangkan fitur ini.
No improvements needed as it represents a technical term that remains consistent across languages.
Tidak dapat menjatuhkan <property> dari tabel ini karena ini adalah properti tabel delta dan bukan fitur tabel.
DELTA_FEATURE_DROP_FEATURE_NOT_PRESENT
Tidak dapat menjatuhkan <feature> dari tabel ini karena saat ini tidak ada dalam protokol tabel.
DELTA_FEATURE_DROP_HISTORICAL_VERSIONS_EXIST
Tidak dapat menghilangkan <feature> karena log Delta berisi versi historis yang menggunakan fitur tersebut.
Harap tunggu hingga periode retensi riwayat (<logRetentionPeriodKey>=<logRetentionPeriod>)
telah lulus sejak fitur terakhir aktif.
Atau, tunggu hingga periode retensi TRUNCATE HISTORY kedaluwarsa (<truncateHistoryLogRetentionPeriod>)
lalu jalankan:
ALTER TABLE nama_tabel DROP FEATURE nama_fitur TRUNCATE HISTORY
DELTA_FEATURE_DROP_HISTORY_TRUNCATION_NOT_ALLOWED
Fitur tertentu tidak memerlukan pemangkasan riwayat.
DELTA_FEATURE_DROP_NONREMOVABLE_FEATURE
Tidak dapat menghapus <feature> karena penghapusan fitur ini tidak didukung.
Silakan hubungi dukungan Databricks.
DELTA_FEATURE_DROP_UNSUPPORTED_CLIENT_FEATURE
Tidak dapat menghilangkan <feature> karena tidak didukung oleh versi Databricks ini.
Pertimbangkan untuk menggunakan Databricks dengan versi yang lebih tinggi.
DELTA_FEATURE_DROP_WAIT_FOR_RETENTION_PERIOD
Menghilangkan <feature> sebagian berhasil.
Fitur ini sekarang tidak lagi digunakan dalam versi tabel saat ini. Namun, fitur
masih ada dalam versi-versi historis dari tabel. Fitur tabel tidak dapat dihilangkan
dari protokol yang tercantum dalam tabel sampai versi-versi bersejarah ini berakhir masa berlakunya.
Untuk menghilangkan fitur tabel dari protokol, harap tunggu hingga versi historis tersedia.
Tunggu sampai kedaluwarsa, lalu ulangi perintah ini. Periode retensi untuk versi historis adalah
saat ini dikonfigurasi sebagai <logRetentionPeriodKey>=<logRetentionPeriod>.
Atau, tunggu hingga periode retensi TRUNCATE HISTORY kedaluwarsa (<truncateHistoryLogRetentionPeriod>)
lalu jalankan:
ALTER TABLE nama_tabel DROP FEATURE nama_fitur TRUNCATE HISTORY
DELTA_FEATURE_REQUIRES_HIGHER_READER_VERSION
Tidak dapat mengaktifkan fitur tabel <feature> karena memerlukan versi protokol pembaca yang lebih tinggi (saat ini <current>). Pertimbangkan untuk meningkatkan versi protokol pembaca tabel ke <required>, atau ke versi yang mendukung fitur tabel pembaca. Lihat <docLink> untuk informasi selengkapnya tentang versi protokol tabel.
DELTA_FEATURE_REQUIRES_HIGHER_WRITER_VERSION
Tidak dapat mengaktifkan fitur tabel <feature> karena memerlukan versi protokol penulis yang lebih tinggi (saat ini <current>). Pertimbangkan untuk meningkatkan versi protokol penulis tabel ke <required>, atau ke versi yang mendukung fitur tabel penulis. Lihat <docLink> untuk informasi selengkapnya tentang versi protokol tabel.
DELTA_FILE_ALREADY_EXISTS
Jalur file <path> yang ada.
DELTA_FILE_LIST_AND_PATTERN_STRING_CONFLICT
Tidak dapat menentukan daftar file dan string pola.
DELTA_FILE_NOT_FOUND
Jalur file <path>.
DELTA_FILE_NOT_FOUND_DETAILED
File <filePath> yang dirujuk dalam log transaksi tidak dapat ditemukan. Ini terjadi ketika data telah dihapus secara manual dari sistem file daripada menggunakan tabel DELETE pernyataan. Untuk informasi selengkapnya, lihat <faqPath>
DELTA_FILE_OR_DIR_NOT_FOUND
Tidak ada file atau direktori seperti itu: <path>.
DELTA_FILE_TO_OVERWRITE_NOT_FOUND
File (<path>) yang akan ditulis ulang tidak ditemukan di antara file kandidat:
<pathList>
DELTA_FOUND_MAP_TYPE_COLUMN
Sebuah MapType ditemukan. Untuk mengakses kunci atau nilai MapType, tentukan satu
of:
<key> atau
<value>
diikuti dengan nama kolom (hanya jika kolom tersebut adalah jenis struct).
misalnya, mymap.key.mykey
Jika kolom adalah jenis dasar, mymap.key atau mymap.value sudah cukup.
Schema:
<schema>
DELTA_FSCK_CANNOT_REPAIR_DELTA_LOG
FSCK tidak dapat memperbaiki tabel. Tabel tidak memiliki titik pemeriksaan yang valid untuk memulai pemutaran ulang log, dan tidak ada riwayat log yang memadai untuk diputar ulang dari versi pertama.
DELTA_FSCK_CONCURRENT_MODIFICATION
Modifikasi bersamaan ke tabel terdeteksi saat menjalankan FSCK. Silakan coba lagi perintah FSCK dan pastikan tidak ada operasi lain yang menulis ke tabel selama proses perbaikan.
DELTA_FSCK_DRY_RUN_CANNOT_PROCEED_WITH_INVALID_CHECKPOINTS
FSCK DRY RUN tidak dapat dilanjutkan karena titik pemeriksaan yang tidak valid terdeteksi. Silakan jalankan 'HANYA tabel REPAIR TABLE FSCKMETADATA' terlebih dahulu untuk memperbaiki titik pemeriksaan.
DELTA_FSCK_DRY_RUN_CANNOT_PROCEED_WITH_MISSING_OR_INVALID_PARTITION_FILES
FSCK DRY RUN tidak dapat dilanjutkan karena file atau file yang hilang dengan nilai partisi yang tidak valid terdeteksi. Silakan jalankan 'tabel FSCK REPAIR TABLE ' terlebih dahulu untuk memperbaiki tabel.
DELTA_FSCK_INVALID_BARRIER_CHECKPOINT
FSCK tidak dapat memperbaiki tabel. Beberapa titik pemeriksaan yang tidak valid dilindungi dan tidak dapat dihapus. Silakan hubungi dukungan Databricks.
DELTA_FSCK_NO_VALID_CHECKPOINT
FSCK tidak dapat memperbaiki tabel. Semua titik pemeriksaan tabel ini tidak valid. Silakan hubungi dukungan Databricks.
DELTA_GENERATED_COLUMNS_DATA_TYPE_MISMATCH
<columnName> kolom memiliki tipe data <columnType> dan tidak dapat diubah menjadi tipe data <dataType> karena kolom ini direferensikan oleh kolom yang dihasilkan berikut:
<generatedColumns>.
DELTA_GENERATED_COLUMNS_DEPENDENT_COLUMN_CHANGE
Tidak dapat mengubah kolom <columnName> karena kolom ini dirujuk oleh kolom yang dihasilkan berikut ini:
<generatedColumns>.
DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH
Jenis ekspresi kolom <columnName> yang dihasilkan adalah <expressionType>, tetapi jenis kolomnya adalah <columnType>.
DELTA_GENERATED_COLUMN_UPDATE_TYPE_MISMATCH
Kolom <currentName> adalah kolom yang dihasilkan atau kolom yang digunakan oleh kolom yang dihasilkan. Jenis data adalah <currentDataType> dan tidak dapat dikonversi ke jenis <updateDataType>data .
DELTA_GEOSPATIAL_NOT_SUPPORTED
Jenis geospasial tidak didukung dalam versi Delta Lake ini.
DELTA_GEOSPATIAL_SRID_NOT_SUPPORTED
Tipe geospasial memiliki srid yang tidak didukung: <srid>. Tabel Delta hanya mendukung nilai srid non-negatif.
DELTA_ICEBERG_COMPAT_VIOLATION
Validasi IcebergCompatV<version> telah gagal.
Untuk informasi lebih lanjut, lihat DELTA_ICEBERG_COMPAT_VIOLATION
DELTA_ICEBERG_WRITER_COMPAT_VIOLATION
Validasi IcebergWriterCompatV<version> telah gagal.
Untuk informasi lebih lanjut, lihat DELTA_ICEBERG_WRITER_COMPAT_VIOLATION
DELTA_IDENTITY_COLUMNS_ALTER_COLUMN_NOT_SUPPORTED
ALTER TABLE ALTER COLUMN tidak didukung untuk kolom IDENTITY.
DELTA_IDENTITY_COLUMNS_ALTER_NON_DELTA_FORMAT
ALTER TABLE ALTER COLUMN SYNC IDENTITY hanya didukung oleh Delta.
DELTA_IDENTITY_COLUMNS_ALTER_NON_IDENTITY_COLUMN
ALTER TABLE ALTER COLUMN SYNC IDENTITY tidak dapat dipanggil pada kolom non IDENTITY.
DELTA_IDENTITY_COLUMNS_EXPLICIT_INSERT_NOT_SUPPORTED
Menyediakan nilai untuk GENERATED ALWAYS AS IDENTITY kolom <colName> tidak didukung.
DELTA_IDENTITY_COLUMNS_ILLEGAL_STEP
IDENTITY langkah kolom tidak boleh bernilai 0.
DELTA_IDENTITY_COLUMNS_NON_DELTA_FORMAT
IDENTITY kolom hanya didukung oleh Delta.
DELTA_IDENTITY_COLUMNS_PARTITION_NOT_SUPPORTED
PARTITIONED BY IDENTITY kolom <colName> tidak didukung.
DELTA_IDENTITY_COLUMNS_REPLACE_COLUMN_NOT_SUPPORTED
ALTER TABLE REPLACE COLUMNS tidak didukung untuk tabel dengan kolom IDENTITY.
DELTA_IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE
DataType <dataType> tidak didukung untuk kolom IDENTITY.
DELTA_IDENTITY_COLUMNS_UPDATE_NOT_SUPPORTED
UPDATE pada kolom IDENTITY<colName> tidak didukung.
DELTA_IDENTITY_COLUMNS_WITH_GENERATED_EXPRESSION
IDENTITY kolom tidak dapat ditentukan dengan ekspresi kolom yang dihasilkan.
DELTA_ILLEGAL_OPTION
Nilai tidak valid '<input>' untuk opsi '<name>', <explain>
DELTA_ILLEGAL_USAGE
Penggunaan <option> tidak diizinkan saat <operation> tabel Delta.
DELTA_INCONSISTENT_BUCKET_SPEC
BucketSpec pada tabel yang di-bucket Delta tidak cocok dengan BucketSpec dari metadata. Diharapkan: <expected>. Aktual: <actual>.
DELTA_INCONSISTENT_LOGSTORE_CONFS
(<setKeys>) tidak dapat diatur ke nilai yang berbeda. Harap hanya atur salah satunya, atau atur ke nilai yang sama.
DELTA_INCORRECT_ARRAY_ACCESS
Salah mengakses sebuah "ArrayType". Gunakan posisi dari arrayname.element.elementname untuk
tambahkan ke array.
DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME
ArrayType ditemukan. Untuk mengakses elemen ArrayType, tentukan
<rightName> bukan <wrongName>.
Schema:
<schema>
DELTA_INCORRECT_GET_CONF
Gunakan getConf() alih-alih conf.getConf().
DELTA_INCORRECT_LOG_STORE_IMPLEMENTATION
Kesalahan ini biasanya terjadi ketika implementasi default LogStore, yang
adalah, HDFSLogStore, digunakan untuk menulis ke dalam tabel Delta pada sistem penyimpanan non-HDFS.
Untuk mendapatkan jaminan ACID transaksional pada pembaruan tabel, Anda harus menggunakan
implementasi LogStore yang benar yang sesuai untuk sistem penyimpanan Anda.
Lihat <docLink> untuk detailnya.
DELTA_INDEX_LARGER_OR_EQUAL_THAN_STRUCT
Indeks <index> untuk menghilangkan kolom sama dengan atau lebih besar dari panjang struktur: <length>.
DELTA_INDEX_LARGER_THAN_STRUCT
Indeks <index> untuk menambahkan kolom <columnName> lebih besar dari panjang struktur: <length>.
DELTA_INSERT_COLUMN_ARITY_MISMATCH
Tidak dapat menulis ke '<tableName>', <columnName>; tabel target memiliki <numColumns> kolom, tetapi data yang dimasukkan memiliki <insertColumns> kolom.
DELTA_INSERT_COLUMN_MISMATCH
Kolom <columnName> tidak ditentukan dalam INSERT.
Penyisipan Delta Diganti pada Kolom Ambigu dalam Kondisi
Kolom <columnNames> bersifat ambigu dalam kondisi INSERT REPLACE ON. Pertimbangkan untuk menentukan alias untuk kolom ini.
DELTA_INSERT_REPLACE_ON_TIDAK_DIAKTIFKAN
Silakan hubungi perwakilan Databricks Anda untuk mengaktifkan INSERT INTO...REPLACE ON ... API SQL dan DataFrame.
DELTA_INSERT_REPLACE_PADA_KOLOM_TAK_TERPECAHKAN_DALAM_KONDISI
Kolom <columnNames> tidak dapat diselesaikan dalam kondisi INSERT REPLACE ON.
DELTA_INVALID_AUTO_COMPACT_TYPE
Jenis ringkas otomatis tidak valid: <value>. Nilai yang diizinkan adalah: <allowed>.
DELTA_INVALID_BUCKET_COUNT
Jumlah wadah tidak valid: <invalidBucketCount>. Jumlah bucket harus berupa angka positif yang merupakan pangkat dua dan setidaknya 8. Anda dapat menggunakan <validBucketCount> sebagai gantinya.
DELTA_INVALID_BUCKET_INDEX
Tidak dapat menemukan kolom wadah di kolom partisi.
DELTA_INVALID_CALENDAR_INTERVAL_EMPTY
Interval tidak boleh null atau kosong.
DELTA_INVALID_CDC_RANGE
Rentang CDC dari awal <start> hingga akhir <end> tidak valid. Akhiri tidak boleh sebelum memulai.
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAME
Nama atribut "<columnName>" berisi karakter yang tidak valid di antara " ,;{}()\n\t=". Silakan gunakan alias untuk mengganti namanya.
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAMES
Ditemukan karakter yang tidak valid di antara ' ,;{}()\n\t=' dalam nama kolom skema Anda.
Nama kolom tidak valid: <invalidColumnNames>.
Silakan gunakan karakter lain dan coba lagi.
Atau, aktifkan Pemetaan Kolom untuk tetap menggunakan karakter ini.
DELTA_INVALID_CHECK_CONSTRAINT_REFERENCES
Ditemukan <colName> dalam CHECK batasan. Batasan pemeriksaan tidak dapat menggunakan kolom yang tidak ada.
DELTA_INVALID_CLONE_PATH
Lokasi target untuk CLONE harus merupakan jalur absolut atau nama tabel. Menggunakan
gunakan jalur absolut daripada <path>.
DELTA_INVALID_COLUMN_NAMES_WHEN_REMOVING_COLUMN_MAPPING
Ditemukan karakter yang tidak valid di antara ' ,;{}()\n\t=' dalam nama kolom skema Anda.
Nama kolom tidak valid: <invalidColumnNames>.
Pemetaan kolom tidak dapat dihapus ketika ada karakter yang tidak valid dalam nama kolom.
Ganti nama kolom untuk menghapus karakter yang tidak valid dan jalankan perintah ini lagi.
DELTA_INVALID_FORMAT
Format yang tidak kompatibel terdeteksi.
Log transaksi untuk Delta ditemukan di <deltaRootPath>/_delta_log,
tetapi Anda mencoba <operation> <path> menggunakan format("<format>"). Anda harus menggunakan
'format("delta")' saat membaca dan menulis ke tabel delta.
Untuk mempelajari selengkapnya tentang Delta, lihat <docLink>
DELTA_INVALID_GENERATED_COLUMN_REFERENCES
Kolom yang dihasilkan tidak dapat menggunakan kolom yang tidak ada atau kolom lain yang dihasilkan.
DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS
Opsi yang tidak valid untuk penulisan Dataframe idempoten: <reason>
DELTA_INVALID_INTERVAL
<interval> bukan INTERVALyang valid.
DELTA_INVALID_INVENTORY_SCHEMA
Skema untuk INVENTORY yang ditentukan tidak berisi semua bidang yang diperlukan. Bidang yang diperlukan adalah: <expectedSchema>
DELTA_INVALID_ISOLATION_LEVEL
tingkat isolasi tidak valid '<isolationLevel>'.
DELTA_INVALID_LOGSTORE_CONF
(<classConfig>) dan (<schemeConfig>) tidak dapat diatur secara bersamaan. Harap atur hanya satu grup dari mereka.
DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA
Anda mencoba membuat tabel terkelola <tableName>
menggunakan Delta, tetapi skema tidak ditentukan.
Untuk mempelajari selengkapnya tentang Delta, lihat <docLink>
DELTA_INVALID_PARTITION_COLUMN
<columnName> bukan kolom partisi yang valid dalam tabel <tableName>.
DELTA_INVALID_PARTITION_COLUMN_NAME
Ditemukan kolom partisi yang memiliki karakter yang tidak valid di antara " ,;{}()\n\t=". Silakan ubah nama menjadi kolom partisi Anda. Pemeriksaan ini dapat dinonaktifkan dengan mengatur spark.conf.set("spark.databricks.delta.partitionColumnValidity.enabled", false) namun ini tidak disarankan karena fitur Delta lainnya mungkin tidak berfungsi dengan baik.
DELTA_INVALID_PARTITION_COLUMN_TYPE
Menggunakan kolom <name> dari jenis <dataType> sebagai kolom partisi tidak didukung.
DELTA_INVALID_PARTITION_PATH
Fragmen jalur partisi harus berupa formulir seperti part1=foo/part2=bar. Jalur partisi: <path>.
DELTA_INVALID_PROTOCOL_DOWNGRADE
Versi protokol tidak dapat diturunkan dari (<oldProtocol>) ke (<newProtocol>).
DELTA_INVALID_PROTOCOL_VERSION
Versi protokol Delta yang tidak didukung: tabel "<tableNameOrPath>" memerlukan versi pembaca <readerRequired> dan versi penulis <writerRequired>, tetapi versi Databricks ini mendukung versi pembaca <supportedReaders> dan versi penulis <supportedWriters>. Silakan tingkatkan ke rilis yang lebih baru.
DELTA_INVALID_TABLE_VALUE_FUNCTION
Fungsi <function> adalah fungsi bernilai tabel yang tidak didukung untuk pembacaan data CDC.
DELTA_INVALID_TIMESTAMP_FORMAT
Tanda waktu yang disediakan <timestamp> tidak cocok dengan sintaks yang diharapkan <format>.
DELTA_LOG_ALREADY_EXISTS
Log Delta sudah ada di <path>.
File Log Delta Tidak Ditemukan
Tidak dapat mengambil file log delta untuk menyusun versi tabel <version> mulai dari versi titik pemeriksaan <checkpointVersion> di <logPath>.
DELTA_LOG_FILE_NOT_FOUND_FOR_STREAMING_SOURCE
Jika Anda tidak pernah menghapusnya, kemungkinan kueri Anda mengalami keterlambatan. Hapus cek poinnya untuk memulai dari awal. Untuk menghindari hal ini terjadi lagi, Anda dapat memperbarui kebijakan retensi tabel Delta Anda.
DELTA_LOG_JSON_FILE_ACCESS_DENIED
Akses ditolak saat membaca file log JSON Delta: <filePath>. Periksa apakah Anda memiliki izin baca untuk lokasi tabel Delta.
DELTA_MATERIALIZED_ROW_TRACKING_COLUMN_NAME_MISSING
Nama kolom <rowTrackingColumn> termaterialisasi hilang untuk <tableName>.
DELTA_MAX_ARRAY_SIZE_EXCEEDED
Gunakan batas kurang dari Int.MaxValue - 8.
DELTA_MAX_COMMIT_RETRIES_EXCEEDED
Commit ini gagal karena sudah dicoba <numAttempts> kali namun tidak berhasil.
Ini dapat disebabkan oleh tabel Delta yang diperbarui terus menerus oleh banyak proses bersamaan
commits.
Penerapan dimulai pada versi: <startVersion>
Komit gagal pada versi: <failVersion>
Jumlah tindakan yang dicoba untuk dilakukan: <numActions>
Total waktu yang dihabiskan untuk mencoba penerapan ini: <timeSpent> ms
DELTA_MAX_LIST_FILE_EXCEEDED
Daftar file harus memiliki paling banyak entri <maxFileListSize>, memiliki <numFiles>.
DELTA_MERGE_ADD_VOID_COLUMN
Tidak dapat menambahkan kolom <newColumn> dengan tipe VOID. Tentukan tipe non-void secara eksplisit.
DELTA_MERGE_INCOMPATIBLE_DATATYPE
Gagal menggabungkan jenis data yang tidak kompatibel <currentDataType> dan <updateDataType>.
DELTA_MERGE_INCOMPATIBLE_DECIMAL_TYPE
Gagal menggabungkan jenis desimal yang tidak kompatibel dengan <decimalRanges>.
DELTA_MERGE_MATERIALIZE_SOURCE_FAILED_REPEATEDLY
Mempertahankan sumber pernyataan MERGE dalam bentuk yang ada telah gagal berulang kali.
DELTA_MERGE_MISSING_WHEN
Harus ada setidaknya satu klausa WHEN dalam pernyataan MERGE.
DELTA_MERGE_RESOLVED_ATTRIBUTE_MISSING_FROM_INPUT
Atribut <missingAttributes> yang teratasi hilang dari <input> pada operator <merge>.
SUMBER_DELTA_DICACHE_SELAMA_EKSEKUSI
Operasi MERGE gagal karena (bagian dari) rencana sumber di-cache saat MERGE operasi sedang berjalan.
DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY
Kunci penetapan tak terduga: <unexpectedKeyClass> - <unexpectedKeyObject>.
DELTA_MERGE_UNRESOLVED_EXPRESSION
Tidak dapat mengatasi <sqlExpr> dalam <clause> kolom yang <cols>diberikan.
DELTA_METADATA_CHANGED
MetadataChangedException: Metadata tabel Delta telah diubah oleh pembaruan yang berlangsung secara bersamaan. Silakan coba operasi ini lagi.<conflictingCommit>
Lihat <docLink> untuk detail selengkapnya.
DELTA_MISSING_CHANGE_DATA
Kesalahan saat mendapatkan data perubahan untuk rentang [<startVersion> , <endVersion>] karena data perubahan tidak
direkam untuk versi [<version>]. Jika Anda telah mengaktifkan umpan data perubahan pada tabel ini,
gunakan DESCRIBE HISTORY untuk melihat kapan pertama kali diaktifkan.
Jika tidak, untuk mulai merekam data perubahan, gunakan ALTER TABLE table_name SET TBLPROPERTIES
(<key>=benar).
DELTA_MISSING_COLUMN
Tidak dapat menemukan <columnName> dalam kolom tabel: <columnList>.
DELTA_MISSING_COMMIT_INFO
Tabel ini memiliki fitur <featureName> diaktifkan yang membutuhkan keberadaan aksi CommitInfo di setiap commit. Namun, tindakan CommitInfo hilang dari versi komit <version>.
DELTA_MISSING_COMMIT_TIMESTAMP
Tabel ini memiliki fitur <featureName> diaktifkan yang memerlukan kehadiran commitTimestamp dalam tindakan CommitInfo. Namun, bidang ini belum ditetapkan dalam versi commit <version>.
DELTA_MISSING_DELTA_TABLE
<tableName> bukan tabel Delta.
DELTA_MISSING_DELTA_TABLE_COPY_INTO
Tabel tidak ditemukan. Buat tabel Delta kosong terlebih dahulu menggunakan CREATE TABLE <tableName>.
DELTA_MISSING_ICEBERG_CLASS
Kelas Apache Iceberg tidak ditemukan. Pastikan dukungan Delta Apache Iceberg diinstal.
Silakan merujuk ke <docLink> untuk detail selengkapnya.
DELTA_MISSING_NOT_NULL_COLUMN_VALUE
Kolom <columnName>, yang memiliki batasan NOT NULL, hilang dari data yang ditulis ke dalam tabel.
DELTA_MISSING_PARTITION_COLUMN
Kolom partisi <columnName> tidak ditemukan dalam skema <columnList>.
DELTA_MISSING_PART_FILES
Tidak dapat menemukan semua berkas komponen dari versi checkpoint: <version>.
DELTA_MISSING_PROVIDER_FOR_CONVERT
CONVERT TO DELTA hanya mendukung tabel parquet. Silakan tulis ulang target Anda sebagai parkket.
<path> jika itu adalah direktori parquet.
DELTA_MISSING_ROW_TRACKING_FOR_CDC
Kesalahan saat mendapatkan data perubahan karena <tableName> pelacakan baris tidak diaktifkan. Untuk mengaktifkan pelacakan baris, gunakan ALTER TABLE table_name SET TBLPROPERTIES (<key>=true).
DELTA_MISSING_SET_COLUMN
SET kolom <columnName> tidak ditemukan. Kolom yang tersedia: <columnList>.
DELTA_MISSING_TRANSACTION_LOG
Format yang tidak kompatibel terdeteksi.
Anda mencoba <operation> <path> menggunakan Delta, tetapi tidak ada yang tersedia
ada log transaksi. Periksa pekerjaan hulu untuk memastikan bahwa tugas tersebut sedang menulis
menggunakan format("delta") dan Anda mencoba %1$s jalur dasar tabel.
Untuk mempelajari selengkapnya tentang Delta, lihat <docLink>
DELTA_MODE_NOT_SUPPORTED
Mode yang ditentukan '<mode>' tidak didukung. Mode yang didukung adalah: <supportedModes>.
DELTA_MULTIPLE_CDC_BOUNDARY
Beberapa argumen <startingOrEnding> telah disediakan untuk pembacaan CDC. Harap sediakan salah satu dari Tanda Waktu <startingOrEnding>atau Versi <startingOrEnding>.
DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER
Beberapa konfigurasi indeks bloom filter diteruskan ke perintah untuk kolom: <columnName>.
DELTA_MULTIPLE_SOURCE_ROW_MATCHING_TARGET_ROW_IN_MERGE
Tidak dapat melakukan Penggabungan karena beberapa baris sumber cocok dan mencoba mengubah yang sama
baris target dalam tabel Delta dengan cara yang mungkin bertentangan. Dengan semantik SQL dari Merge,
ketika beberapa baris sumber cocok pada baris target yang sama, hasilnya mungkin ambigu
karena tidak jelas baris sumber mana yang harus digunakan untuk memperbarui atau menghapus pencocokan
baris target. Anda dapat melakukan pra-pemrosesan tabel sumber untuk menghilangkan kemungkinan
beberapa kecocokan. Silakan merujuk ke
<usageReference>
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_COMMAND
Selama <command>, kedua konfigurasi commit terkoordinasi ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview") harus diatur dalam perintah secara bersamaan atau tidak sama sekali. Hilang: "<configuration>". Tentukan konfigurasi ini dalam klausa TBLPROPERTIES atau hapus konfigurasi lain, lalu coba lagi perintah tersebut.
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_SESSION
Selama <command>, baik kedua konfigurasi komit terkoordinasi ("coordinatedCommits.commitCoordinator-preview", "coordinatedCommits.commitCoordinatorConf-preview") diatur dalam konfigurasi SparkSession atau tidak satu pun dari keduanya. Hilang: "<configuration>". Atur konfigurasi ini di SparkSession atau batalkan pengaturan konfigurasi lainnya, lalu coba lagi perintah tersebut.
DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE
Nama kolom berikut ini dicadangkan hanya untuk keperluan internal tabel bucket Delta: <names>.
DELTA_NESTED_FIELDS_NEED_RENAME
Skema input berisi bidang bersarang yang di-kapitalisasi secara berbeda dari tabel target.
Nama mereka perlu diubah untuk menghindari hilangnya data di bidang ini saat menulis ke Delta.
Fields:
<fields>.
Skema asli:
<schema>
DELTA_NESTED_NOT_NULL_CONSTRAINT
Jenis bidang <nestType> pada <parent> memiliki batasan NOT NULL. Delta tidak mendukung batasan NOT NULL yang ditumpuk dalam array atau peta. Untuk menekan kesalahan ini dan secara diam-diam mengabaikan batasan yang ditentukan, atur <configKey> = true.
Jenis <nestType> yang diuraikan:
<nestedPrettyJson>
DELTA_NESTED_SUBQUERY_NOT_SUPPORTED
Subkueri berlapis tidak didukung dalam kondisi <operation>.
DELTA_NEW_CHECK_CONSTRAINT_VIOLATION
<numRows> baris di <tableName> melanggar batasan baru CHECK (<checkConstraint>).
DELTA_NEW_NOT_NULL_VIOLATION
<numRows> baris dalam <tableName> melanggar batasan NOT NULL baru pada <colName>.
DELTA_NON_BOOLEAN_CHECK_CONSTRAINT
CHECK batasan '<name>' (<expr>) harus berupa ekspresi boolean.
DELTA_NON_DETERMINISTIC_EXPRESSION_IN_CHECK_CONSTRAINT
Ditemukan <expr> dalam batasan CHECK . Batasan CHECK tidak dapat menggunakan ekspresi nondeterministik.
DELTA_NON_DETERMINISTIC_EXPRESSION_IN_GENERATED_COLUMN
Ditemukan <expr>. Kolom yang dihasilkan tidak dapat menggunakan ekspresi non deterministik.
DELTA_NON_DETERMINISTIC_FUNCTION_NOT_SUPPORTED
Fungsi non-deterministik tidak didukung di <operation> <expression>.
DELTA_NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
Ketika ada lebih dari satu klausa MATCHED dalam pernyataan MERGE, hanya klausa MATCHED terakhir yang dapat menghilangkan kondisi.
DELTA_NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
Ketika ada lebih dari satu klausa NOT MATCHED BY SOURCE dalam pernyataan MERGE, hanya klausa NOT MATCHED BY SOURCE terakhir yang dapat menghilangkan kondisi.
DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION
Ketika ada lebih dari satu klausa NOT MATCHED dalam pernyataan MERGE, hanya klausa NOT MATCHED terakhir yang dapat menghilangkan kondisi.
DELTA_NON_PARSABLE_TAG
Tidak dapat mengurai tag <tag>.
Tag file adalah: <tagList>.
DELTA_NON_PARTITION_COLUMN_ABSENT
Data yang ditulis ke Dalam Delta perlu berisi setidaknya satu kolom yang tidak dipartisi.<details>
DELTA_NON_PARTITION_COLUMN_REFERENCE
Predikat mengacu pada kolom non-partisi '<columnName>'. Hanya kolom partisi yang dapat dirujuk: [<columnList>].
DELTA_NON_PARTITION_COLUMN_SPECIFIED
Kolom non-partisi <columnList> ditentukan di mana hanya kolom partisi yang diharapkan: <fragment>.
DELTA_NON_SINGLE_PART_NAMESPACE_FOR_CATALOG
Katalog Delta memerlukan namespace bagian tunggal, tetapi <identifier> adalah multi-bagian.
DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_COMMAND
Mengatur koordinator penerapan ke '<nonUcCoordinatorName>' dari perintah tidak didukung, karena tabel yang dikelola UC hanya dapat memiliki 'unity-catalog' sebagai koordinator penerapan. Ubah menjadi 'unity-catalog' atau hapus semua properti tabel Komit Terkoordinasi dari TBLPROPERTIES klausa, lalu coba lagi perintah tersebut.
DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_SESSION
Mengatur koordinator penerapan ke '<nonUcCoordinatorName>' dari konfigurasi SparkSession tidak didukung, karena tabel yang dikelola UC hanya dapat memiliki 'unity-catalog' sebagai koordinator penerapan. Ubah menjadi 'unity-catalog' dengan menjalankan spark.conf.set("<coordinatorNameDefaultKey>", "unity-catalog"), atau hapus semua properti tabel Komit Terkoordinasi dari konfigurasi SparkSession dengan menjalankan spark.conf.unset("<coordinatorNameDefaultKey>"), spark.conf.unset("<coordinatorConfDefaultKey>"), spark.conf.unset("<tableConfDefaultKey>"), lalu coba lagi perintah tersebut.
DELTA_NON_UC_MANAGED_TABLE_UPGRADE_OR_DOWNGRADE_NOT_SUPPORTED
Tabel <tableName> tidak dikelola oleh sistem UC. Hanya tabel yang dikelola UC yang dapat ditingkatkan atau diturunkan ke tabel yang dikelola katalog.
DELTA_NOT_A_DATABRICKS_DELTA_TABLE
<table> bukan tabel Delta. Silakan letakkan tabel ini terlebih dahulu jika Anda ingin membuatnya dengan Databricks Delta.
DELTA_NOT_A_DELTA_TABLE
<tableName> bukan tabel Delta. Silakan hapus tabel ini dahulu jika Anda ingin membuatnya kembali dengan Delta Lake.
DELTA_NOT_NULL_COLUMN_NOT_FOUND_IN_STRUCT
Kolom yang tidak boleh bernilai null tidak ditemukan dalam struktur: <struct>.
DELTA_NOT_NULL_CONSTRAINT_VIOLATED
batasan NOT NULL dilanggar untuk kolom: <columnName>.
DELTA_NOT_NULL_NESTED_FIELD
Bidang berlapis yang tidak bernilai null tidak dapat ditambahkan ke induk yang dapat bernilai null. Atur nullability kolom induk sesuai kondisi yang diperlukan.
DELTA_NO_COMMITS_FOUND
Tidak ada commit yang ditemukan di <logPath>.
DELTA_NO_RECREATABLE_HISTORY_FOUND
Tidak ada komit yang dapat direproduksi yang ditemukan di <logPath>.
DELTA_NO_REDIRECT_RULES_VIOLATED
Operasi tidak diizinkan: <operation> tidak dapat dilakukan pada tabel dengan fitur pengalihan.
Aturan tanpa pengalihan tidak terpenuhi <noRedirectRules>.
DELTA_NO_RELATION_TABLE
Tabel <tableIdent> tidak ditemukan.
DELTA_NO_START_FOR_CDC_READ
Tidak ada startingVersion atau startingTimestamp yang disediakan untuk pembacaan data CDC.
DELTA_NULL_SCHEMA_IN_STREAMING_WRITE
Delta tidak menerima NullTypes dalam skema untuk penulisan streaming.
DELTA_ONEOF_IN_TIMETRAVEL
Harap sediakan 'timestampAsOf' atau 'versionAsOf' untuk perjalanan waktu.
DELTA_ONLY_OPERATION
<operation> hanya didukung untuk tabel Delta.
DELTA_OPERATION_MISSING_PATH
Harap berikan pengidentifikasi jalur atau tabel untuk <operation>.
DELTA_OPERATION_NOT_ALLOWED
Operasi tidak diizinkan: <operation> tidak didukung untuk tabel Delta.
DELTA_OPERATION_NOT_ALLOWED_DETAIL
Operasi tidak diizinkan: <operation> tidak didukung untuk tabel Delta: <tableName>.
DELTA_OPERATION_NOT_SUPPORTED_FOR_COLUMN_WITH_COLLATION
<operation> tidak didukung untuk kolom <colName> dengan kolasi <collation>yang bukan default.
DELTA_OPERATION_NOT_SUPPORTED_FOR_DATATYPES
<operation> tidak didukung untuk jenis data: <dataTypeList>.
DELTA_OPERATION_NOT_SUPPORTED_FOR_EXPRESSION_WITH_COLLATION
<operation> tidak didukung untuk ekspresi <exprText> karena menggunakan kolatasi non-default.
DELTA_OPERATION_ON_TEMP_VIEW_WITH_GENERATED_COLS_NOT_SUPPORTED
<operation> perintah pada tampilan sementara yang mengacu pada tabel Delta yang berisi kolom yang dihasilkan tidak didukung. Jalankan <operation> perintah pada tabel Delta secara langsung.
DELTA_OPERATION_ON_VIEW_NOT_ALLOWED
Operasi tidak diizinkan: <operation> tidak dapat dilakukan pada tampilan.
DELTA_OPTIMIZE_FULL_NOT_SUPPORTED
OPTIMIZE FULL hanya didukung untuk tabel berkluster dengan kolom pengklusteran yang tidak kosong.
DELTA_OVERWRITE_MUST_BE_TRUE
Opsi salin overwriteSchema tidak dapat ditentukan tanpa pengaturan OVERWRITE = 'true'.
DELTA_OVERWRITE_SCHEMA_WITH_DYNAMIC_PARTITION_OVERWRITE
'overwriteSchema' tidak dapat digunakan dalam mode penulisan ulang partisi dinamis.
DELTA_PARTITION_COLUMN_CAST_FAILED
Gagal mengonversi nilai <value> ke <dataType> untuk kolom partisi <columnName>.
DELTA_PARTITION_COLUMN_NOT_FOUND
Kolom <columnName> partisi tidak ditemukan dalam skema [<schemaMap>].
DELTA_PARTITION_SCHEMA_IN_ICEBERG_TABLES
Skema partisi tidak dapat ditentukan saat mengonversi tabel Apache Iceberg. Ini secara otomatis disimpulkan.
DELTA_PATH_BASED_ACCESS_TO_CATALOG_MANAGED_TABLE_BLOCKED
Akses berbasis jalur tidak diizinkan untuk tabel Catalog-Managed: <path>. Silakan akses tabel melalui namanya dan coba lagi.
Akses ke tabel menggunakan jalur diblokir
Tabel yang ada di <path> telah dimigrasikan ke tabel terkelola Unity Catalog dan tidak dapat lagi diakses melalui jalur. Perbarui klien untuk mengakses tabel berdasarkan nama.
DELTA_PATH_DOES_NOT_EXIST
<path> tidak ada, atau bukan tabel Delta.
DELTA_PATH_EXISTS
Tidak dapat menulis ke jalur <path> yang sudah ada tanpa menyetel OVERWRITE sebagai 'true'.
DELTA_POST_COMMIT_HOOK_FAILED
Komitmen ke versi tabel Delta <version> berhasil, tetapi terjadi kesalahan saat menjalankan hook setelah komitmen <name> <message>
DELTA_PROTOCOL_CHANGED
ProtocolChangedException: Versi protokol dari tabel Delta telah diubah oleh pembaruan yang bersamaan. <additionalInfo> <conflictingCommit>
Lihat <docLink> untuk detail selengkapnya.
DELTA_PROTOCOL_PROPERTY_NOT_INT
Properti protokol <key> harus berupa bilangan bulat. Ditemukan <value>.
DELTA_READ_FEATURE_PROTOCOL_REQUIRES_WRITE
Tidak dapat memutakhirkan versi protokol pembaca saja untuk menggunakan fitur tabel. Versi protokol pengarang setidaknya harus <writerVersion> untuk melanjutkan. Lihat <docLink> untuk informasi selengkapnya tentang versi protokol tabel.
DELTA_READ_TABLE_WITHOUT_COLUMNS
Anda mencoba membaca tabel Delta <tableName> yang tidak memiliki kolom apa pun.
Tulis beberapa data baru dengan opsi mergeSchema = true untuk dapat membaca tabel.
DELTA_READ_TIME_CDC_NOT_SUPPORTED_FOR_TABLES_WITH_ACCESS_POLICIES
Anda mencoba menghitung Ubah Umpan Data pada <tableName> yang memiliki kebijakan akses yang ditentukan. Baca Umpan Data Perubahan Waktu saat ini dalam pratinjau dan tidak mendukung CDF pada tabel dengan kebijakan akses. Aktifkan CDF yang dioptimalkan untuk baca dengan mengatur properti tabel '<cdfTableProperty>' ke 'true' pada tabel Anda.
DELTA_REDIRECT_TARGET_ROW_FILTER_COLUMN_MASK_UNSUPPORTED
Pengalihan ke tabel dengan filter baris atau masker kolom tidak didukung. Perbarui kode Anda untuk mereferensikan tabel <tableIdent> target secara langsung.
DELTA_REGEX_OPT_SYNTAX_ERROR
Silakan periksa kembali sintaks Anda untuk '<regExpOption>'.
DELTA_RELATION_PATH_MISMATCH
Ketidakcocokan jalur relasi '<relation>' dengan jalur '<targetType>' dari <targetPath>.
DELTA_REORG_MATERIALIZATION_NOT_SUPPORTED_ON_UNPARTITIONED_TABLE
Konversi Liquid menggunakan perintah reorg tidak didukung pada tabel yang tidak dipartisi.
DELTA_REORG_PARTITION_MATERIALIZATION_CONFLICT
Tidak dapat <action> mempartisi kolom.
<instruction> materialisasi kolom partisi dengan mengatur properti tabel '<tableProperty>' ke <value> atau konfigurasi SQL '<sqlConfig>' ke <value>.
DELTA_REORG_UNKNOWN_MODE
Mode tidak diketahui REORG TABLE : <mode>.
DELTA_REPLACE_WHERE_IN_OVERWRITE
Anda tidak dapat menggunakan replaceWhere bersama dengan "overwrite by filter".
DELTA_REPLACE_WHERE_MISMATCH
Data tertulis tidak sesuai dengan kondisi timpa tabel parsial atau batasan '<replaceWhere>'.
<message>
DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE
Ekspresi 'replaceWhere' dan 'partitionOverwriteMode'='dynamic' tidak dapat diatur dalam opsi DataFrameWriter.
DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET
'replaceWhere' tidak dapat digunakan dengan filter data saat 'dataChange' diatur ke false. Filter: <dataFilters>.
DELTA_ROW_ID_ASSIGNMENT_WITHOUT_STATS
Tidak dapat menetapkan ID baris tanpa statistik jumlah baris.
Kumpulkan statistik untuk tabel dengan menjalankan ANALYZE TABLE perintah:
ANALYZE TABLE namaTabel COMPUTE DELTA STATISTICS
Pelacakan Baris Delta Backfill Berjalan Bersamaan dengan Unbackfill
Operasi pengaktifan Pelacakan Baris terdeteksi sedang berlangsung bersamaan dengan operasi penonaktifan Pelacakan Baris. Membatalkan operasi penonaktifan. Silakan coba lagi operasi penonaktifan jika perlu ketika operasi pengaktifan selesai.
KOMBINASI_PROPERTI_TIDAK_SAH_DELTA_ROW_TRACKING
Keadaan tabel ilegal terdeteksi. Properti tabel <property1> dan <property2> keduanya diatur ke nilai true. Masalah ini dapat diatasi dengan menonaktifkan salah satu dari dua properti tabel.
Silakan hubungi dukungan Databricks untuk bantuan lebih lanjut.
DELTA_SCHEMA_CHANGED
Perubahan skema yang terdeteksi:
skema sumber streaming: <readSchema>
skema data file: <dataSchema>
Silakan coba mulai ulang pertanyaannya. Jika masalah ini berulang di seluruh kueri dimulai ulang tanpa
dalam membuat kemajuan, Anda telah melakukan perubahan skema yang tidak kompatibel dan perlu memulai kembali
lakukan kueri dari awal menggunakan direktori checkpoint baru.
DELTA_SCHEMA_CHANGED_WITH_STARTING_OPTIONS
Perubahan skema yang terdeteksi dalam versi <version>:
skema sumber streaming: <readSchema>
skema data file: <dataSchema>
Silakan coba mulai ulang pertanyaannya. Jika masalah ini berulang di seluruh kueri dimulai ulang tanpa
dalam membuat kemajuan, Anda telah melakukan perubahan skema yang tidak kompatibel dan perlu memulai kembali
lakukan kueri dari awal menggunakan direktori checkpoint baru. Jika masalah berlanjut setelah
mengubah ke direktori titik pemeriksaan baru, Anda mungkin perlu mengubah yang sudah ada
Opsi 'startingVersion' atau 'startingTimestamp' untuk memulai dari versi yang lebih baru dari
<version> dengan direktori titik pemeriksaan baru.
DELTA_SCHEMA_CHANGED_WITH_VERSION
Perubahan skema yang terdeteksi dalam versi <version>:
skema sumber streaming: <readSchema>
skema data file: <dataSchema>
Silakan coba mulai ulang pertanyaannya. Jika masalah ini berulang di seluruh kueri dimulai ulang tanpa
dalam membuat kemajuan, Anda telah melakukan perubahan skema yang tidak kompatibel dan perlu memulai kembali
lakukan kueri dari awal menggunakan direktori checkpoint baru.
DELTA_SCHEMA_CHANGE_SINCE_ANALYSIS
Skema tabel Delta Anda telah berubah dengan cara yang tidak kompatibel sejak DataFrame Anda
atau Objek DeltaTable telah dibuat. Tentukan ulang objek DataFrame atau DeltaTable Anda.
Changes:
<schemaDiff> <legacyFlagMessage>
DELTA_SCHEMA_NOT_PROVIDED
Skema tabel tidak disediakan. Harap sediakan skema (definisi kolom) tabel saat menggunakan REPLACE tabel dan AS SELECT kueri tidak disediakan.
DELTA_SCHEMA_NOT_SET
Skema tabel belum ditetapkan. Tulis data ke dalamnya atau gunakan CREATE TABLE untuk mengatur skema.
DELTA_SET_LOCATION_SCHEMA_MISMATCH
Skema lokasi Delta baru berbeda dari skema tabel saat ini.
skema asli:
<original>
skema tujuan:
<destination>
Jika ini adalah perubahan yang dimaksudkan, Anda dapat menonaktifkan pemeriksaan ini dengan menjalankan:
%%sql atur <config> = benar
DELTA_SHALLOW_CLONE_FILE_NOT_FOUND
File <filePath> yang dirujuk dalam log transaksi tidak dapat ditemukan. Ini dapat terjadi ketika data telah dihapus secara manual dari sistem file daripada menggunakan tabel DELETE pernyataan. Tabel ini tampaknya merupakan kloning dangkal, jika demikian, kesalahan ini dapat terjadi ketika tabel asli tempat tabel ini dikloning telah menghapus file yang masih digunakan kloning. Jika Anda ingin ada kloning yang independen dari tabel asli, gunakan klon DEEP sebagai gantinya.
DELTA_SHARING_CANNOT_MODIFY_RESERVED_RECIPIENT_PROPERTY
Properti yang telah didefinisikan sebelumnya yang dimulai dengan <prefix> tidak dapat dimodifikasi.
DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
Data dibatasi oleh properti penerima <property> yang tidak berlaku untuk penerima saat ini dalam sesi.
Untuk informasi lebih lanjut, lihat DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
DELTA_SHARING_INVALID_OP_IN_EXTERNAL_SHARED_VIEW
<operation> tidak dapat digunakan dalam tampilan Delta Sharing yang dibagikan lintas akun.
DELTA_SHARING_INVALID_PROVIDER_AUTH
Jenis autentikasi ilegal <authenticationType> untuk penyedia <provider>.
DELTA_SHARING_INVALID_RECIPIENT_AUTH
Jenis autentikasi ilegal <authenticationType> untuk penerima <recipient>.
DELTA_SHARING_INVALID_SHARED_DATA_OBJECT_NAME
Nama tidak valid untuk mereferensikan <type> di dalam fitur berbagi. Anda dapat menggunakan nama <type> di dalam berbagi dengan mengikuti format [skema].[<type>], atau Anda juga dapat menggunakan nama lengkap asli tabel dengan mengikuti format [katalog].[skema].[>type>].
Jika Anda tidak yakin tentang nama apa yang akan digunakan, Anda dapat menjalankan "SHOW ALL IN SHARE [bagikan]" dan menemukan nama <type> yang ingin dihapus: kolom "nama" adalah nama <type> di dalam bagikan dan kolom "shared_object" adalah nama lengkap asli <type>.
DELTA_SHARING_MAKSIMUM_RECIPIENT_TOKENS_TERLEBIHI
Ada lebih dari dua token untuk penerima <recipient>.
DELTA_SHARING_RECIPIENT_PROPERTY_NOT_FOUND
Properti penerima <property> tidak ada.
DELTA_SHARINGRECIPIENT_TOKENS_NOT_FOUND
Token penerima hilang untuk penerima <recipient>.
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_COLUMN
"<badCols> kolom yang tidak dibagi ditentukan untuk SHOW PARTITIONS."
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE
SHOW PARTITIONS tidak diizinkan pada tabel yang tidak dipartisi: <tableName>.
DELTA_SHREDDED_WRITES_DISABLED
Tidak dapat menjalankan REORG APPLY(SHRED) operasi karena penulisan yang di-shredded dinonaktifkan.
DELTA_SHREDDING_TABLE_PROPERTY_DISABLED
Mencoba menulis Varian yang dihancurkan tetapi tabel tidak mendukung penulisan yang dihancurkan. Pertimbangkan untuk mengatur properti tabel enableVariantShredding ke true.
DELTA_SOURCE_IGNORE_DELETE
Data yang dihapus ditemukan (misalnya <removedFile>) dari sumber streaming pada versi ke-<version>. Ini saat ini tidak didukung. Jika Anda ingin mengabaikan penghapusan, atur opsi 'ignoreDeletes' ke 'true'. Tabel sumber dapat ditemukan di jalur <dataPath>.
DELTA_SOURCE_TABLE_IGNORE_CHANGES
Mendeteksi pembaruan data (misalnya <file>) dalam tabel sumber pada versi <version>. Ini saat ini tidak didukung. Jika ini akan terjadi secara teratur dan Anda merasa nyaman untuk melewati pergantian, setel opsi 'skipChangeCommits' menjadi 'true'. Jika Anda ingin pembaruan data tercermin, mulai ulang kueri ini dengan direktori titik pemeriksaan baru atau lakukan refresh penuh jika Anda menggunakan Lakeflow Spark Declarative Pipelines. Jika Anda perlu menangani perubahan ini, silakan beralih ke MV. Tabel sumber dapat ditemukan di jalur <dataPath>.
DELTA_STARTING_VERSION_AND_TIMESTAMP_BOTH_SET
Harap sediakan '<version>' atau '<timestamp>'.
DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND
Dalam metadata Parquet, statistik <statsType> tidak ditemukan untuk kolom: <columnPath>.
DELTA_STATS_NOT_FOUND_IN_FILE
Statistik tidak ditemukan dalam file: <filePath>. Jalankan 'ANALYZE TABLE [tableName] COMPUTE DELTA STATISTICS' untuk menghitung statistik.
DELTA_STREAMING_CANNOT_CONTINUE_PROCESSING_POST_SCHEMA_EVOLUTION
Kami telah mendeteksi satu atau beberapa perubahan skema non-aditif (<opType>) antara versi <previousSchemaChangeVersion> Delta dan <currentSchemaChangeVersion> di sumber streaming Delta.
Changes:
<columnChangeDetails>
Silakan periksa apakah Anda ingin menyebarkan perubahan skema secara manual ke tabel sink sebelum kami melanjutkan pemrosesan aliran menggunakan skema yang diselesaikan pada versi <currentSchemaChangeVersion>.
Setelah Anda memperbaiki skema tabel sink atau memutuskan tidak perlu diperbaiki, Anda dapat mengatur konfigurasi berikut untuk membuka blokir perubahan skema non-aditif dan melanjutkan pemrosesan aliran.
Menggunakan opsi pembaca dataframe:
Untuk membuka blokir aliran ini hanya untuk perubahan-perubahan skema tertentu ini:
<unblockChangeOptions>
Untuk membuka blokir untuk aliran khusus ini:
<unblockStreamOptions>
Menggunakan konfigurasi SQL:
Untuk membuka blokir aliran ini hanya untuk perubahan-perubahan skema tertentu ini:
<unblockChangeConfs>
Untuk membuka blokir untuk aliran khusus ini:
<unblockStreamConfs>
Untuk membuka blokir semua streaming:
<unblockAllConfs>
DELTA_STREAMING_CHECK_COLUMN_MAPPING_NO_SNAPSHOT
Gagal mendapatkan rekam jepret log Delta untuk versi mulai saat memeriksa perubahan skema pemetaan kolom. Pilih versi mulai yang berbeda, atau paksa aktifkan baca streaming dengan risiko Anda sendiri dengan mengatur '<config>' ke 'true'.
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE
Pembacaan streaming tidak didukung pada tabel dengan perubahan skema yang tidak kompatibel dengan proses pembacaan (misalnya, mengganti nama, menghapus, atau perubahan jenis data).
Untuk informasi lebih lanjut dan kemungkinan langkah berikutnya untuk mengatasi masalah ini, silakan tinjau dokumentasi di <docLink>
Baca skema: <readSchema>. Skema data yang tidak kompatibel: <incompatibleSchema>.
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE_USE_SCHEMA_LOG
Pembacaan streaming tidak didukung pada tabel dengan perubahan skema yang tidak kompatibel dengan proses pembacaan (misalnya, mengganti nama, menghapus, atau perubahan jenis data).
Harap sediakan 'schemaTrackingLocation' untuk mengaktifkan evolusi skema non-aditif untuk pemrosesan aliran Delta.
Lihat <docLink> untuk detail selengkapnya.
Baca skema: <readSchema>. Skema data yang tidak kompatibel: <incompatibleSchema>.
DELTA_STREAMING_METADATA_EVOLUTION
Skema, konfigurasi tabel, atau protokol tabel Delta Anda telah berubah selama streaming.
Log pelacakan skema atau metadata telah diperbarui.
Mulai ulang aliran untuk melanjutkan pemrosesan menggunakan metadata yang diperbarui.
Skema yang diperbarui: <schema>.
Konfigurasi tabel yang diperbarui: <config>.
Protokol tabel yang diperbarui: <protocol>
EVOLUSI_SKEMA_DELTA_STREAMING_PENYARING_BARIS_TIDAK_DIDUKUNG_COLUMN_MASKS
Streaming dari tabel sumber <tableId> dengan pelacakan skema tidak mendukung filter baris atau masker kolom.
Hapus filter baris atau masker kolom, atau nonaktifkan pelacakan skema.
DELTA_STREAMING_SCHEMA_LOCATION_CONFLICT
Lokasi skema '<loc>' yang terdeteksi bertentangan saat streaming dari tabel atau tabel yang terletak di '<table>'.
Aliran lain mungkin menggunakan kembali lokasi skema yang sama, yang tidak diizinkan.
Harap berikan jalur schemaTrackingLocation unik baru atau streamingSourceTrackingId sebagai opsi pembaca untuk salah satu aliran dari tabel ini.
DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT
Lokasi skema '<schemaTrackingLocation>' harus ditempatkan di bawah lokasi titik pemeriksaan '<checkpointLocation>'.
DELTA_STREAMING_SCHEMA_LOG_DESERIALIZE_FAILED
File log yang tidak lengkap di log skema sumber streaming Delta di '<location>'.
Log skema mungkin rusak. Silakan pilih lokasi skema baru.
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_DELTA_TABLE_ID
Id tabel Delta yang terdeteksi tidak kompatibel saat mencoba membaca aliran Delta.
ID tabel yang dipertahankan: <persistedId>, ID tabel: <tableId>
Catatan skema mungkin telah digunakan kembali. Silakan pilih lokasi skema baru.
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_PARTITION_SCHEMA
Terdeteksi skema partisi yang tidak kompatibel saat mencoba membaca aliran Delta.
Skema yang bertahan: <persistedSchema>, skema partisi Delta: <partitionSchema>
Pilih lokasi skema baru untuk menginisialisasi ulang log skema jika Anda telah mengubah skema partisi tabel secara manual baru-baru ini.
DELTA_STREAMING_SCHEMA_LOG_INIT_FAILED_INCOMPATIBLE_METADATA
Kami tidak dapat menginisialisasi log skema sumber streaming Delta karena
kami mendeteksi perubahan skema atau protokol yang tidak kompatibel saat melayani batch streaming dari versi tabel <a> ke <b>.
DELTA_STREAMING_SCHEMA_LOG_PARSE_SCHEMA_FAILED
Gagal memproses skema dari log skema sumber streaming Delta.
Log skema mungkin rusak. Silakan pilih lokasi skema baru.
DELTA_STREAMING_SINK_TRANSACTION_NOT_FOUND
Tidak ada transaksi yang ditemukan untuk batch <batchId> di sink Delta streaming di versi terakhir <versionLimit> .
DELTA_STREAMING_SKIP_OFFSETS_INVALID_OFFSET_RANGE
Rentang offset lewati tidak valid untuk rentang sumber Delta=[<startOffset>, <endOffset>). Perbaiki rentang offset ini, lalu coba lagi.
Untuk detail selengkapnya, lihat DELTA_STREAMING_SKIP_OFFSETS_INVALID_OFFSET_RANGE
DELTA_TABLE_ALREADY_CONTAINS_CDC_COLUMNS
Tidak dapat mengaktifkan Ubah Pengambilan Data pada tabel. Tabel sudah berisi
kolom cadangan <columnList> yang akan
digunakan secara internal sebagai metadata untuk Umpan Data Perubahan pada tabel. Untuk mengaktifkan
Lakukan Perubahan Umpan Data pada tabel untuk mengganti nama/hapus kolom-kolom ini.
DELTA_TABLE_ALREADY_EXISTS
Tabel <tableName> sudah ada.
DELTA_TABLE_CONTAINS_RESERVED_CDC_COLUMNS
Tidak dapat menghitung Ubah Umpan Data pada tabel. Tabel berisi nama kolom yang dipesan <columnList> yang digunakan sebagai kolom output untuk Umpan Data Perubahan tabel. Untuk menghitung Ubah Umpan Data pada tabel ganti nama/letakkan kolom ini.
DELTA_TABLE_FOR_PATH_UNSUPPORTED_HADOOP_CONF
Saat ini DeltaTable.forPath hanya mendukung kunci konfigurasi hadoop yang dimulai dengan <allowedPrefixes> tetapi mendapatkan <unsupportedOptions>.
DELTA_TABLE_ID_MISMATCH
Tabel Delta di <tableLocation> telah diganti saat perintah ini menggunakan tabel.
Id tabel <oldId> tetapi sekarang <newId>.
Silakan coba lagi perintah saat ini untuk memastikannya membaca tampilan tabel yang konsisten.
DELTA_TABLE_INVALID_REDIRECT_STATE_TRANSITION
Tidak dapat memperbarui status pengalihan tabel: Dicoba transisi status yang tidak valid.
Tabel Delta '<table>' tidak dapat berubah dari '<oldState>' menjadi '<newState>'.
DELTA_TABLE_INVALID_SET_UNSET_REDIRECT
Tidak dapat SET atau UNSET mengalihkan properti pada <table>: properti saat ini '<currentProperty>' tidak cocok dengan properti baru '<newProperty>'.
DELTA_TABLE_LOCATION_MISMATCH
Lokasi tabel <tableName> yang ada adalah <existingTableLocation>. Ini tidak cocok dengan lokasi <tableLocation>yang ditentukan .
DELTA_TABLE_NOT_FOUND
Tabel <tableName> Delta tidak ada.
DELTA_TABLE_NOT_SUPPORTED_IN_OP
Tabel tidak didukung oleh <operation>. Silakan gunakan jalur sebagai gantinya.
DELTA_TABLE_ONLY_OPERATION
<tableName> bukan tabel Delta.
<operation> hanya didukung untuk tabel Delta.
DELTA_TABLE_UNRECOGNIZED_REDIRECT_SPEC
Log Delta berisi spesifikasi pengalihan tabel yang tidak dikenal '<spec>'.
DELTA_TARGET_TABLE_FINAL_SCHEMA_EMPTY
Skema akhir dari tabel target tidak memiliki isi.
DELTA_TIMESTAMP_EARLIER_THAN_COMMIT_RETENTION
Tanda waktu yang disediakan (<userTimestamp>) adalah sebelum versi paling awal tersedia untuk
tabel ini (<commitTs>). Silakan gunakan tanda waktu setelah <timestampString>.
DELTA_TIMESTAMP_GREATER_THAN_COMMIT
Tanda waktu yang disediakan (<providedTimestamp>) adalah setelah versi terbaru tersedia untuk ini
tabel (<tableName>). Silakan gunakan tanda waktu sebelum atau pada <maximumTimestamp>.
DELTA_TIMESTAMP_INVALID
Tanda waktu yang disediakan (<expr>) tidak dapat dikonversi ke tanda waktu yang valid.
DELTA_TIME_TRAVEL_INVALID_BEGIN_VALUE
<timeTravelKey> harus menjadi nilai awal yang valid.
DELTA_TOO_MUCH_LISTING_MEMORY
Gagal mencantumkan file (<numFiles>) dalam tabel Delta karena memori tidak mencukup. Memori yang diperlukan: <estimatedMemory>, memori yang tersedia: <maxMemory>.
DELTA_TRUNCATED_TRANSACTION_LOG
<path>: Tidak dapat merekonstruksi status pada versi <version> karena log transaksi telah dipotong karena penghapusan manual atau kebijakan penyimpanan log (<logRetentionKey>=<logRetention>) dan kebijakan penyimpanan titik pemeriksaan (<checkpointRetentionKey>=<checkpointRetention>).
DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED
Operasi tidak diizinkan: TRUNCATE TABLE pada tabel Delta tidak mendukung predikat partisi; gunakan DELETE untuk menghapus partisi atau baris tertentu.
DELTA_UDF_IN_CHECK_CONSTRAINT
Ditemukan <expr> dalam batasan CHECK . Batasan CHECK tidak dapat menggunakan fungsi yang ditentukan pengguna.
DELTA_UDF_IN_GENERATED_COLUMN
Ditemukan <udfExpr>. Kolom yang dihasilkan tidak dapat menggunakan fungsi yang ditentukan pengguna.
DELTA_UNEXPECTED_ACTION_EXPRESSION
Ekspresi tindakan tak terduga <expression>.
DELTA_UNEXPECTED_NUM_PARTITION_COLUMNS_FROM_FILE_NAME
Diharapkan <expectedColsSize> kolom partisi: <expectedCols>, tetapi ditemukan <parsedColsSize> kolom partisi: <parsedCols> dari mem-parse nama file: <path>.
DELTA_UNEXPECTED_PARTIAL_SCAN
Diantisipasi pemindaian penuh sumber Delta, tetapi ditemukan pemindaian parsial. Jalur: <path>.
DELTA_UNEXPECTED_PARTITION_COLUMN_FROM_FILE_NAME
Mengharapkan kolom partisi <expectedCol>, tetapi menemukan kolom partisi <parsedCol> saat mengurai nama file: <path>.
DELTA_UNEXPECTED_PARTITION_SCHEMA_FROM_USER
CONVERT TO DELTA dipanggil dengan skema partisi yang berbeda dari skema partisi yang disimpulkan dari katalog, harap hindari menyediakan skema sehingga skema partisi dapat dipilih dari katalog.
skema partisi katalog:
<catalogPartitionSchema>
skema partisi yang disediakan:
<userPartitionSchema>
DELTA_UNIFORM_COMPATIBILITY_LOCATION_CANNOT_BE_CHANGED
delta.universalFormat.compatibility.location tidak dapat diubah.
DELTA_UNIFORM_COMPATIBILITY_LOCATION_NOT_REGISTERED
delta.universalFormat.compatibility.location tidak terdaftar dalam katalog.
DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION
Lokasi hilang atau tidak valid untuk format kompatibilitas seragam. Silakan atur direktori kosong untuk delta.universalFormat.compatibility.location.
Alasan kegagalan:
Untuk detail selengkapnya, lihat DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION
DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
Proses membaca Apache Iceberg dengan Delta Uniform mengalami kegagalan.
Untuk detail selengkapnya, lihat DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
DELTA_UNIFORM_INGRESS_AMBIGUOUS_FORMAT
Beberapa format ingress Delta Uniform (<formats>) ditemukan, paling banyak satu dapat disetel.
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED
Membuat atau memperbarui tabel ingress seragam tidak didukung.
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED_FORMAT
Format <fileFormat> tidak didukung. Hanya Apache Iceberg dan hudi sebagai format file asli yang didukung.
DELTA_UNIFORM_INGRESS_VIOLATION
Pembacaan Delta Uniform gagal:
Untuk detail lebih lanjut, lihat DELTA_UNIFORM_INGRESS_VIOLATION
DELTA_UNIFORM_NOT_SUPPORTED
Format Universal hanya didukung pada tabel Katalog Unity.
DELTA_UNIFORM_REFRESH_INVALID_ARGUMENT
REFRESH TABLE dengan argumen yang tidak valid:
Untuk detail selengkapnya, lihat DELTA_UNIFORM_REFRESH_INVALID_ARGUMENT
DELTA_UNIFORM_REFRESH_NOT_SUPPORTED
REFRESH pengidentifikasi SYNC UNIFORM tidak didukung karena alasan:
Untuk informasi lebih lanjut, lihat DELTA_UNIFORM_REFRESH_NOT_SUPPORTED
DELTA_UNIFORM_REFRESH_NOT_SUPPORTED_FOR_MANAGED_ICEBERG_TABLE_WITH_METADATA_PATH
REFRESH TABLE dengan METADATA_PATH tidak didukung untuk tabel Apache Iceberg terkelola.
DELTA_UNIVERSAL_FORMAT_CONVERSION_FAILED
Gagal mengonversi versi tabel <version> ke format universal <format>. <message>
DELTA_UNIVERSAL_FORMAT_VIOLATION
Validasi Format Universal (<format>) gagal: <violation>.
DELTA_UNKNOWN_CONFIGURATION
Konfigurasi tidak dikenal telah ditentukan: <config>.
Untuk menonaktifkan pemeriksaan ini, atur <disableCheckConfig>=true dalam konfigurasi sesi Spark.
DELTA_UNKNOWN_PRIVILEGE
Hak istimewa yang tidak diketahui: <privilege>.
DELTA_UNKNOWN_READ_LIMIT
ReadLimit Tidak Diketahui: <limit>.
DELTA_UNRECOGNIZED_COLUMN_CHANGE
Perubahan kolom yang tidak dikenal <otherClass>. Anda mungkin menjalankan versi Delta Lake yang sudah kedaluarsa.
DELTA_UNRECOGNIZED_INVARIANT
Invarian tidak dikenali. Silakan tingkatkan versi Spark Anda.
DELTA_UNRECOGNIZED_LOGFILE
File log <filename> yang tidak dikenal.
DELTA_UNSET_NON_EXISTENT_PROPERTY
Mencoba untuk membatalkan pengaturan properti '<property>' yang tidak ada dalam tabel <tableName>.
DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE
<path> tidak mendukung penambahan file dengan jalur absolut.
DELTA_UNSUPPORTED_ALTER_TABLE_CHANGE_COL_OP
ALTER TABLE CHANGE COLUMN tidak didukung untuk mengubah kolom <fieldPath> dari <oldField> ke <newField>.
DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP
Operasi ALTER TABLE REPLACE COLUMNS tidak didukung. Alasan: <details>
Gagal mengubah skema dari:
<oldSchema>
to:
<newSchema>
DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE
Anda mencoba REPLACE tabel yang ada (<tableName>) dengan CLONE. Operasi ini adalah
unsupported. Coba target lain untuk CLONE atau hapus tabel pada target saat ini.
DELTA_UNSUPPORTED_CLUSTERING_COLUMN_PREDICATES
OPTIMIZE
...
FULL WHERE perintah untuk tabel Liquid tidak mendukung predikat yang disediakan:
Untuk detail selengkapnya, lihat DELTA_UNSUPPORTED_CLUSTERING_COLUMN_PREDICATES
DELTA_UNSUPPORTED_COLUMN_MAPPING_MODE_CHANGE
Mengubah mode pemetaan kolom dari '<oldMode>' ke '<newMode>' tidak didukung.
DELTA_UNSUPPORTED_COLUMN_MAPPING_OPERATIONS_ON_COLUMNS_WITH_BLOOM_FILTER_INDEX
Gagal melakukan operasi Pemetaan Kolom <opName> pada kolom <quotedColumnNames>
karena kolom ini memiliki Indeks Filter Bloom.
Jika Anda ingin melakukan operasi Pemetaan Kolom pada kolom
dengan Bloom Filter Index(es),
silakan hapus Indeks Filter Bloom terlebih dahulu:
DROP BLOOMFILTER INDEX ON TABLE namaTabel FOR COLUMNS(<columnNames>)
Jika Anda ingin menghapus semua Indeks Filter Bloom pada tabel, gunakan:
DROP BLOOMFILTER INDEX ON TABLE namaTabel
DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL
Versi protokol tabel Anda saat ini tidak mendukung perubahan mode pemetaan kolom
menggunakan <config>.
Versi protokol Delta yang diperlukan untuk pemetaan kolom:
<requiredVersion>
Versi protokol Delta tabel Anda saat ini:
<currentVersion>
<advice>
DELTA_UNSUPPORTED_COLUMN_MAPPING_SCHEMA_CHANGE
Perubahan skema terdeteksi:
skema lama:
<oldTableSchema>
skema baru:
<newTableSchema>
Perubahan skema tidak diperbolehkan selama perubahan mode pemetaan kolom.
DELTA_UNSUPPORTED_COLUMN_MAPPING_WRITE
Menulis data dengan mode pemetaan kolom tidak didukung.
DELTA_UNSUPPORTED_COLUMN_TYPE_IN_BLOOM_FILTER
Membuat indeks filter mekar pada kolom dengan jenis <dataType> tidak didukung: <columnName>.
DELTA_UNSUPPORTED_COMMENT_MAP_ARRAY
Tidak dapat menambahkan komentar ke <fieldPath>. Menambahkan komentar ke kunci/nilai pemetaan atau elemen array tidak didukung.
DELTA_UNSUPPORTED_DATA_TYPES
Kolom yang ditemukan menggunakan jenis data yang tidak didukung: <dataTypeList>. Anda dapat mengatur '<config>' ke 'false' untuk menonaktifkan pemeriksaan jenis. Menonaktifkan pemeriksaan jenis ini dapat memungkinkan pengguna membuat tabel Delta yang tidak didukung dan hanya boleh digunakan saat mencoba membaca/menulis tabel warisan.
DELTA_UNSUPPORTED_DATA_TYPE_IN_GENERATED_COLUMN
<dataType> tidak dapat berupa hasil kolom yang dihasilkan.
DELTA_UNSUPPORTED_DEEP_CLONE
Mengkloning mendalam tidak didukung oleh versi Delta ini.
DELTA_UNSUPPORTED_DESCRIBE_DETAIL_VIEW
<view> merupakan tampilan.
DESCRIBE DETAIL hanya didukung untuk tabel.
DELTA_UNSUPPORTED_DROP_CLUSTERING_COLUMN
Menghilangkan kolom pengklusteran (<columnList>) tidak diperbolehkan.
DELTA_UNSUPPORTED_DROP_COLUMN
DROP COLUMN tidak didukung untuk tabel Delta Anda. <advice>
DELTA_UNSUPPORTED_DROP_NESTED_COLUMN_FROM_NON_STRUCT_TYPE
Hanya dapat menghilangkan kolom berlapis dari StructType. Ditemukan <struct>.
DELTA_UNSUPPORTED_DROP_PARTITION_COLUMN
Menghilangkan kolom partisi (<columnList>) tidak diperbolehkan.
DELTA_UNSUPPORTED_EXPRESSION
Jenis ekspresi yang tidak didukung(<expType>) untuk <causedBy>. Jenis yang didukung adalah [<supportedTypes>].
DELTA_UNSUPPORTED_EXPRESSION_CHECK_CONSTRAINT
Ditemukan <expression> dalam batasan CHECK .
<expression> tidak dapat digunakan dalam batasan CHECK .
DELTA_UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
<expression> tidak dapat digunakan dalam kolom yang dihasilkan.
DELTA_UNSUPPORTED_FEATURES_FOR_READ
Fitur baca Delta yang tidak didukung: tabel "<tableNameOrPath>" memerlukan fitur tabel pembaca yang tidak didukung oleh versi Databricks ini: <unsupported>. Silakan merujuk ke <link> untuk informasi selengkapnya tentang kompatibilitas fitur Delta Lake.
DELTA_UNSUPPORTED_FEATURES_FOR_WRITE
Fitur tulis Delta yang tidak didukung: tabel "<tableNameOrPath>" memerlukan fitur tabel penulis yang tidak didukung oleh versi Databricks ini: <unsupported>. Silakan merujuk ke <link> untuk informasi selengkapnya tentang kompatibilitas fitur Delta Lake.
DELTA_UNSUPPORTED_FEATURES_IN_CONFIG
Fitur tabel yang dikonfigurasi dalam konfigurasi Spark atau properti tabel Delta berikut ini tidak dikenali oleh versi Databricks ini: <configs>.
DELTA_UNSUPPORTED_FEATURE_STATUS
Diharapkan status untuk fitur tabel <feature> adalah "didukung", tetapi mendapat "<status>".
DELTA_UNSUPPORTED_FIELD_UPDATE_NON_STRUCT
Pembaruan field berjenjang hanya didukung untuk StructType, tetapi Anda mencoba memperbarui field <columnName>, yang bertipe: <dataType>.
DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS
Perintah 'FSCK REPAIR TABLE' tidak didukung pada versi tabel dengan file vektor penghapusan yang hilang.
Silakan hubungi dukungan.
DELTA_UNSUPPORTED_GENERATE_WITH_DELETION_VECTORS
Perintah 'GENERATE symlink_format_manifest' tidak didukung pada versi tabel dengan vektor penghapusan.
Untuk menghasilkan versi tabel tanpa vektor penghapusan, jalankan 'REORG TABLE tabel APPLY (PURGE)'. Kemudian jalankan kembali perintah ''GENERATE.
Pastikan bahwa tidak ada transaksi bersamaan yang menambahkan vektor penghapusan lagi antara REORG dan GENERATE.
Jika Anda perlu membuat manifes secara teratur, atau Anda tidak dapat mencegah transaksi bersamaan, pertimbangkan untuk menonaktifkan vektor penghapusan pada tabel ini menggunakan 'ALTER TABLE table SET TBLPROPERTIES (delta.enableDeletionVectors = false)'.
DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT
Invarian pada bidang berlapis selain StructTypes tidak didukung.
DELTA_UNSUPPORTED_IN_SUBQUERY
Subkueri tidak didukung dalam kondisi <operation>.
DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX
listKeywithPrefix tidak tersedia.
DELTA_UNSUPPORTED_MANIFEST_GENERATION_WITH_COLUMN_MAPPING
Pembuatan manifes tidak didukung untuk tabel yang memanfaatkan pemetaan kolom, karena pembaca eksternal tidak dapat membaca tabel Delta ini. Lihat Dokumentasi Delta untuk detail selengkapnya.
DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC
MERGE INTO operasi dengan evolusi skema saat ini tidak mendukung penulisan output CDC.
DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE
Predikat 'In' multi-kolom tidak didukung dalam kondisi <operation>.
DELTA_UNSUPPORTED_NESTED_COLUMN_IN_BLOOM_FILTER
Membuat indeks filer bloom pada kolom berlapis saat ini tidak didukung: <columnName>.
DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION
Bidang berlapis tidak didukung di <operation> (bidang = <fieldName>).
DELTA_UNSUPPORTED_NON_EMPTY_CLONE
Tabel tujuan kloning tidak kosong. Silakan TRUNCATE atau DELETE FROM tabel sebelum menjalankan CLONE.
DELTA_UNSUPPORTED_OUTPUT_MODE
Sumber data <dataSource> tidak mendukung <mode> mode output.
DELTA_UNSUPPORTED_PARTITION_COLUMN_IN_BLOOM_FILTER
Membuat indeks filter mekar pada kolom partisi tidak didukung: <columnName>.
DELTA_UNSUPPORTED_RENAME_COLUMN
Penggantian nama kolom tidak didukung untuk tabel Delta Anda. <advice>
DELTA_UNSUPPORTED_SCHEMA_DURING_READ
Delta tidak mendukung penentukan skema pada waktu baca.
DELTA_UNSUPPORTED_SORT_ON_BUCKETED_TABLES
SORTED BY tidak didukung untuk tabel yang diatur dalam bucket Delta.
DELTA_UNSUPPORTED_SOURCE
<operation> hanya mendukung sumber Delta sebagai destinasi.
<plan>
DELTA_UNSUPPORTED_STATIC_PARTITIONS
Menentukan partisi statis dalam spesifikasi partisi saat ini tidak didukung selama penyisipan.
DELTA_UNSUPPORTED_STRATEGY_NAME
Nama strategi yang tidak didukung: <strategy>.
DELTA_UNSUPPORTED_SUBQUERY
Subkueri tidak didukung pada <operation> (kondisi = <cond>).
DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES
Subkueri tidak didukung pada predikat partisi.
DELTA_TIDAK_MENDUKUNG_PENJELAJAHAN_WAKTU_MELEBIHI_DURASI_RETENSI_FILE_YANG_DIHAPUS
Tidak dapat melakukan perjalanan waktu melampaui delta.deletedFileRetentionDuration (<deletedFileRetention> HOURS) yang telah ditetapkan di tabel.
DELTA_UNSUPPORTED_TIME_TRAVEL_MULTIPLE_FORMATS
Tidak dapat mengatur perjalanan waktu dalam beberapa format.
DELTA_UNSUPPORTED_TIME_TRAVEL_VIEWS
Tidak dapat menggunakan fitur perjalanan waktu, subkueri, streaming, atau mengubah kueri umpan data.
DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES
Memotong tabel sampel tidak didukung.
DELTA_UNSUPPORTED_TYPE_CHANGE_IN_SCHEMA
Tidak dapat beroperasi pada tabel ini karena perubahan tipe yang tidak didukung diterapkan. Bidang <fieldName> diubah dari <fromType> menjadi <toType>.
DELTA_UNSUPPORTED_TYPE_CHANGE_ON_COLUMNS_WITH_BLOOM_FILTER_INDEX
Gagal mengubah tipe data kolom <quotedColumnNames>
karena kolom ini memiliki Indeks Filter Bloom.
Jika Anda ingin mengubah tipe data kolom dengan Bloom Filter Index(es),
silakan hapus Indeks Filter Bloom terlebih dahulu:
DROP BLOOMFILTER INDEX ON TABLE namaTabel FOR COLUMNS(<columnNames>)
Jika Anda ingin menghapus semua Indeks Filter Bloom pada tabel, gunakan:
DROP BLOOMFILTER INDEX ON TABLE namaTabel
DELTA_UNSUPPORTED_VACUUM_SPECIFIC_PARTITION
Harap sediakan jalur dasar (<baseDeltaPath>) saat membersihkan tabel delta. Menyedot debu pada partisi tertentu belum bisa dilakukan.
DELTA_UNSUPPORTED_WRITES_STAGED_TABLE
Implementasi tabel tidak mendukung penulisan: <tableName>.
DELTA_UNSUPPORTED_WRITES_WITHOUT_COORDINATOR
Anda mencoba menulis pada tabel yang telah terdaftar di koordinator komit <coordinatorName>. Namun, tidak ada implementasi koordinator ini yang tersedia di lingkungan saat ini dan menulis tanpa koordinator tidak diizinkan.
DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES
Menulis ke tabel sampel tidak didukung.
DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION
Tidak dapat melemparkan <fromCatalog> ke <toCatalog>. Semua kolom berlapis harus sesuai.
DELTA_V2_CHECKPOINTS_REQUIRED_FOR_OPERATION
CHECKPOINT operasi mengharuskan Titik Pemeriksaan V2 diaktifkan pada tabel.
DELTA_VACUUM_COPY_INTO_STATE_FAILED
VACUUM pada file data berhasil, tetapi pengumpulan sampah untuk status COPY INTO gagal.
DELTA_VERSIONS_NOT_CONTIGUOUS
Versi (<versionList>) tidak berurutan.
Celah dalam log delta antara versi <startVersion> dan <endVersion> terdeteksi saat mencoba memuat versi <versionToLoad>.
Untuk informasi lebih lanjut, lihat DELTA_VERSIONS_NOT_CONTIGUOUS
DELTA_VERSION_INVALID
Versi yang disediakan (<version>) bukan versi yang valid.
DELTA_VERSION_NOT_FOUND
Tidak dapat melakukan perjalanan waktu tabel Delta ke versi <userVersion>. Versi yang tersedia: [<earliest>, <latest>].
DELTA_VIOLATE_CONSTRAINT_WITH_VALUES
CHECK batasan <constraintName> <expression> dilanggar oleh baris dengan nilai:
<values>.
DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
Validasi properti tabel <table> telah dilanggar:
Untuk informasi lebih lanjut, lihat DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
DELTA_WRITE_INTO_VIEW_NOT_SUPPORTED
<viewIdentifier> merupakan tampilan. Anda tidak boleh menulis data ke dalam tampilan.
DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST
Kolom Z-Ordering <columnName> tidak ada dalam skema data.
DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS
Z-Ordering pada <cols> tidak akan efektif, karena saat ini kami tidak mengumpulkan statistik untuk kolom ini. Silakan merujuk ke <link> untuk informasi lebih lanjut tentang lompati data dan z-ordering. Anda dapat menonaktifkan pemeriksaan ini dengan mengatur
SET <zorderColStatKey> = salah
DELTA_ZORDERING_ON_PARTITION_COLUMN
<colName> adalah kolom partisi. Urutan Z hanya dapat dilakukan pada kolom data.
Berbagi Delta
DELTA_SHARING_ACTIVATION_NONCE_DOES_NOT_EXIST
SQLSTATE: tidak ada yang ditetapkan
Nonce aktivasi tidak ditemukan. Tautan aktivasi yang Anda gunakan tidak valid atau telah kedaluwarsa. Regenerasi tautan aktivasi dan coba lagi.
DELTA_SHARING_CROSS_REGION_SHARE_UNSUPPORTED
SQLSTATE: tidak ada yang ditetapkan
Berbagi antar wilayah <regionHint> dengan wilayah di luarnya tidak didukung.
DELTA_SHARING_GET_RECIPIENT_PROPERTIES_INVALID_DEPENDENT
SQLSTATE: tidak ada yang ditetapkan
Tampilan yang ditentukan dengan fungsi current_recipient hanya untuk berbagi dan hanya dapat dikueri dari sisi penerima data. Securable dengan id <securableId> yang disediakan bukan merupakan Tampilan Berbagi Delta.
DELTA_SHARING_MUTABLE_SECURABLE_KIND_NOT_SUPPORTED
SQLSTATE: tidak ada yang ditetapkan
Jenis securable <securableKind> yang diberikan tidak mendukung perubahan dalam Delta Sharing.
DELTA_SHARING_ROTATE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE
SQLSTATE: tidak ada yang ditetapkan
Jenis dapat diamankan <securableKind> tidak mendukung aksi rotasi token yang diprakarsai oleh layanan Marketplace.
DS_AUTH_TYPE_NOT_AVAILABLE
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Jenis autentikasi tidak tersedia di entitas penyedia <providerEntity>.
DS_CDF_NOT_ENABLED
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Tidak dapat mengakses umpan data perubahan untuk <tableName>. CDF tidak diaktifkan pada tabel delta asli untuk versi <version>. Silakan hubungi penyedia data Anda.
DS_CDF_NOT_SHARED
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Tidak dapat mengakses umpan data perubahan untuk <tableName>. CDF tidak dibagikan pada tabel. Silakan hubungi penyedia data Anda.
DS_CDF_RPC_INVALID_PARAMETER
SQLSTATE: tidak ada yang ditetapkan
<dsError>: <message>
DS_CLIENT_AUTH_ERROR_FOR_DB_DS_SERVER
SQLSTATE: tidak ada yang ditetapkan
<dsError>: <message>
DS_CLIENT_ERROR_FOR_DB_DS_SERVER
SQLSTATE: tidak ada yang ditetapkan
<dsError>: <message>
DS_CLIENT_OAUTH_TOKEN_EXCHANGE_FAILURE
SQLSTATE: tidak ada yang ditetapkan
<dsError>: <message>
DS_CLIENT_OAUTH_TOKEN_EXCHANGE_UNAUTHORIZED
SQLSTATE: tidak ada yang ditetapkan
<dsError>: <message>
DS_CLOUD_VENDOR_UNAVAILABLE
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Vendor cloud untuk sementara waktu tidak tersedia untuk <rpcName>, silakan coba lagi.<traceId>
DS_DATA_MATERIALIZATION_COMMAND_FAILED
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Tugas materialisasi data yang dijalankan <runId> dari org <orgId> gagal di perintah <command>
DS_DATA_MATERIALIZATION_COMMAND_NOT_SUPPORTED
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Tugas materialisasi data berjalan <runId> dari org <orgId> tidak mendukung perintah <command>
DS_DATA_MATERIALIZATION_NOT_SUPPORTED_WITHOUT_SERVERLESS
SQLSTATE: tidak ada yang ditetapkan
<dsError>: <featureName> tidak didukung karena serverless tidak didukung atau diaktifkan di ruang kerja penyedia. Silakan hubungi penyedia data Anda untuk mengaktifkan tanpa server.
DS_DATA_MATERIALIZATION_NO_VALID_NAMESPACE
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Tidak dapat menemukan namespace yang valid untuk membuat materialisasi untuk <tableName>. Silakan hubungi penyedia data Anda untuk memperbaikinya.
DS_DATA_MATERIALIZATION_RECIPIENT_MISSING_WORKSPACE_ID
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Tidak ada ruang kerja yang cocok yang ditemukan untuk mewujudkan aset bersama. Silakan hubungi penyedia data Anda untuk membuat ulang penerima di ruang kerja tempat akses tulis ke katalog aset bersama diizinkan.
DS_DATA_MATERIALIZATION_RUN_DOES_NOT_EXIST
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Tugas materialisasi data yang dijalankan <runId> dari org <orgId> tidak ditemukan
DS_DELTA_ILLEGAL_STATE
SQLSTATE: tidak ada yang ditetapkan
<dsError>: <message>
DS_DELTA_MISSING_CHECKPOINT_FILES
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Tidak dapat menemukan semua berkas bagian dari pos pemeriksaan pada versi: <version>. <suggestion>
DS_DELTA_NULL_POINTER
SQLSTATE: tidak ada yang ditetapkan
<dsError>: <message>
DS_DELTA_RUNTIME_EXCEPTION
SQLSTATE: tidak ada yang ditetapkan
<dsError>: <message>
DS_EXPIRE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Jenis yang dapat diamankan <securableKind> yang disediakan tidak mendukung tindakan kedaluwarsa token yang dimulai oleh layanan Marketplace.
DS_FAILED_REQUEST_TO_OPEN_DS_SERVER
SQLSTATE: tidak ada yang ditetapkan
<dsError>: <message>
DS_FAILED_REQUEST_TO_SAP_DS_SERVER
SQLSTATE: tidak ada yang ditetapkan
<dsError>: <message>
DS_FEATURE_ONLY_FOR_DATABRICKS_TO_DATABRICKS
SQLSTATE: tidak ada yang ditetapkan
<dsError>: <feature> hanya diaktifkan untuk berbagi Databricks ke Databricks Delta.
DS_FILE_LISTING_EXCEPTION
SQLSTATE: tidak ada yang ditetapkan
<dsError>: : <storage><message>
DS_FILE_SIGNING_EXCEPTION
SQLSTATE: tidak ada yang ditetapkan
<dsError>: <message>
DS_FOREIGN_TABLE_METADATA_REFRESH_FAILED
SQLSTATE: tidak ada yang ditetapkan
<dsError>: <message>
DS_GATEKEEPER_DISABLED
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Fitur ini dinonaktifkan untuk akun. Silakan hubungi penyedia data Anda.
DS_HADOOP_CONFIG_NOT_SET
SQLSTATE: tidak ada yang ditetapkan
<dsError>: <key> tidak diatur oleh pemanggil.
DS_ILLEGAL_STATE
SQLSTATE: tidak ada yang ditetapkan
<dsError>: <message>
DS_INTERNAL_ERROR_FROM_DB_DS_SERVER
SQLSTATE: tidak ada yang ditetapkan
<dsError>: <message>
DS_INVALID_AZURE_PATH
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Jalur Azure tidak valid: <path>.
DS_INVALID_DELTA_ACTION_OPERATION
SQLSTATE: tidak ada yang ditetapkan
<dsError>: <message>
DS_INVALID_FIELD
SQLSTATE: tidak ada yang ditetapkan
<dsError>: <message>
DS_INVALID_ITERATOR_OPERATION
SQLSTATE: tidak ada yang ditetapkan
<dsError>: <message>
DS_INVALID_PARAMETER_VALUE
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Parameter tidak valid karena <rpcName><cause>.
DS_INVALID_PARTITION_SPEC
SQLSTATE: tidak ada yang ditetapkan
<dsError>: <message>
DS_INVALID_RESPONSE_FROM_DS_SERVER
SQLSTATE: tidak ada yang ditetapkan
<dsError>: <message>
DS_MATERIALIZATION_QUERY_FAILED
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Kueri untuk <schema>gagal.
<table> dari Share <share>.
DS_MATERIALIZATION_QUERY_TIMEDOUT
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Waktu kueri habis untuk <schema>.
<table> dari Bagikan <share> setelah <timeoutInSec> detik.
DS_MIGRATED_MANAGEMENT_API_CALLED
SQLSTATE: tidak ada yang ditetapkan
<dsError>: UC RPC <rpcName> gagal.
DS_MISSING_IDEMPOTENCY_KEY
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Kunci idempoten diperlukan saat query <schema>.
<table> dari Share <share> secara asinkron.
DS_MISSING_SERVERLESS_KEBIJAKAN_ANGGARAN
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Operasi menggunakan serverless pada Databricks milik penyedia, tetapi pembagian tersebut tidak memiliki kebijakan anggaran serverless. Silakan hubungi penyedia data untuk menambahkan kebijakan anggaran tanpa server untuk dibagikan.
DS_MORE_THAN_ONE_RPC_PARAMETER_SET
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Harap hanya sediakan salah satu dari: <parameters>.
DS_NETWORK_CONNECTION_CLOSED
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Koneksi jaringan ditutup karena <rpcName><errorCause>, silakan coba lagi.<traceId>
DS_NETWORK_CONNECTION_TIMEOUT
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Batas waktu koneksi jaringan karena <rpcName><errorCause>, silakan coba lagi.<traceId>
DS_NETWORK_ERROR
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Kesalahan jaringan karena <rpcName><errorCause>, silakan coba lagi.<traceId>
DS_NO_METASTORE_ASSIGNED
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Tidak ada metastore yang ditetapkan untuk ruang kerja saat ini (workspaceId: <workspaceId>).
DS_O2D_OIDC_WORKLOAD_IDENTITY_TOKEN_GENERATION_FAILED
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Pembuatan token identitas beban kerja untuk penyedia OIDC O2D gagal: <message>.
DS_PAGINATION_AND_QUERY_ARGS_MISMATCH
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Ketidakcocokan argumen paginasi atau kueri.
DS_PARTITION_COLUMNS_RENAMED
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Kolom partisi [<renamedColumns>] diganti namanya pada tabel bersama. Silakan hubungi penyedia data Anda untuk memperbaikinya.
DS_QUERY_BEFORE_START_VERSION
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Anda hanya bisa mengkueri data tabel sejak versi <startVersion>.
DS_QUERY_END_VERSION_AFTER_LATEST_VERSION
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Versi akhir yang disediakan(<endVersion>) untuk membaca data tidak valid. Versi akhir tidak boleh lebih besar dari versi terbaru tabel(<latestVersion>).
DS_QUERY_START_VERSION_AFTER_LATEST_VERSION
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Versi mulai yang disediakan(<startVersion>) untuk membaca data tidak valid. Versi awal tidak boleh lebih besar dari versi terbaru tabel(<latestVersion>).
DS_QUERY_TIMEOUT_ON_SERVER
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Terjadi batas waktu saat memproses <queryType> pada <tableName> setelah <numActions> pembaruan selama <numIter> iterasi.<progressUpdate> <suggestion> <traceId>
DS_RATE_LIMIT_ON_DS_SERVER
SQLSTATE: tidak ada yang ditetapkan
<dsError>: <message>
DS_RECIPIENT_RPC_INVALID_PARAMETER
SQLSTATE: tidak ada yang ditetapkan
<dsError>: <message>
DS_RECON_FAILED_ON_UC_WRITE_RPC
SQLSTATE: tidak ada yang ditetapkan
<dsError>: UC RPC <rpcName> gagal, mengonversi ke INTERNAL_ERROR.
DS_RESOURCE_ALREADY_EXIST_ON_DS_SERVER
SQLSTATE: tidak ada yang ditetapkan
<dsError>: <message>
DS_RESOURCE_EXHAUSTED
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Batas <resource> telah terlampaui: [<limitSize>]<suggestion>.<traceId>
DS_RESOURCE_NOT_FOUND_ON_DS_SERVER
SQLSTATE: tidak ada yang ditetapkan
<dsError>: <message>
DS_SAP_VERSI_DBR_TIDAK_DIDUKUNG
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Konektor Delta Sharing SAP tidak didukung di DBR <dbrVersion>. Versi minimum yang didukung adalah: <supportedVersions>.
DS_SCHEMA_NAME_CONFLICT_FOUND
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Katalog <catalogName> sudah berisi nama skema yang ditemukan di berbagi <shareName>.
<description> nama skema yang bertentangan: <schemaNamesInCommon>.
DS_SERVER_TIMEOUT
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Server mengalami timeout untuk <rpcName> karena <errorCause>, silakan coba lagi.<traceId>
DS_SERVICE_DENIED (Layanan Ditolak)
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Permintaan ditolak karena layanan berada di bawah terlalu banyak beban. Silakan coba lagi nanti setelah beberapa saat.
DS_SHARE_ALREADY_MOUNTED_TO_CATALOG
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Share <shareName> dari penyedia <providerName> sudah terhubung ke katalog <catalogName>.
DS_SYSTEM_WORKSPACE_GROUP_PERMISSION_UNSUPPORTED
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat memberikan hak istimewa pada <securableType> untuk grup yang dihasilkan oleh sistem <principal>.
DS_TABLE_METADATA_TEMPORARILY_UNAVAILABLE
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Metadata tabel tidak tersedia. Silakan coba lagi dalam beberapa saat.
DS_TIME_TRAVEL_NOT_PERMITTED
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Permintaan perjalanan waktu tidak diizinkan kecuali jika riwayat dibagikan di <tableName>. Silakan hubungi penyedia data Anda.
DS_UNAUTHORIZED
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Tidak sah.
DS_UNAUTHORIZED_D2O_OIDC_RECIPIENT
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Penerima OIDC D2O yang tidak sah: <message>.
DS_UNKNOWN_EXCEPTION
SQLSTATE: tidak ada yang ditetapkan
<dsError>: <traceId>
DS_UNKNOWN_QUERY_ID
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Id kueri <queryID> yang tidak diketahui untuk <schema>.
<table> dari Share <share>.
DS_UNKNOWN_QUERY_STATUS
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Status kueri yang tidak diketahui untuk id kueri <queryID> untuk <schema>.
<table> dari Share <share>.
DS_UNKNOWN_RPC
SQLSTATE: tidak ada yang ditetapkan
<dsError>: RPC <rpcName>tidak diketahui .
DS_UNSUPPORTED_DELTA_READER_VERSION
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Versi pembaca protokol Delta <tableReaderVersion> lebih tinggi dari <supportedReaderVersion> dan tidak dapat didukung di server berbagi delta.
DS_UNSUPPORTED_DELTA_TABLE_FEATURES
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Fitur tabel <tableFeatures> ditemukan dalam<versionStr> <historySharingStatusStr> <optionStr> tabel
DS_UNSUPPORTED_OPERATION
SQLSTATE: tidak ada yang ditetapkan
<dsError>: <message>
DS_UNSUPPORTED_STORAGE_SCHEME
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Skema penyimpanan yang tidak didukung: <scheme>.
DS_UNSUPPORTED_TABLE_TYPE
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Tidak dapat mengambil <schema>.
<table> dari Bagikan <share> karena tabel dengan tipe [<tableType>] saat ini tidak didukung dalam <queryType> kueri.
DS_UNSUPPORTED_TABLE_TYPE_IN_MST
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Mengkueri jenis tabel [<tableType>] tidak didukung dalam kueri transaksi multi-pernyataan (MST).
DS_USER_CONTEXT_ERROR
SQLSTATE: tidak ada yang ditetapkan
<dsError>: <message>
DS_VIEW_SHARING_FUNCTIONS_NOT_ALLOWED
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Fungsi berikut: <functions> tidak diizinkan dalam kueri berbagi tampilan.
DS_WORKSPACE_DOMAIN_NOT_SET
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Domain ruang kerja <workspaceId> belum diatur.
DS_WORKSPACE_NOT_FOUND
SQLSTATE: tidak ada yang ditetapkan
<dsError>: Ruang Kerja <workspaceId> tidak ditemukan.
Autoloader
CF_ADD_NEW_NOT_SUPPORTED
Mode evolusi skema <addNewColumnsMode> tidak didukung saat skema sudah ditentukan. Untuk menggunakan mode ini, Anda dapat memberikan skema melalui cloudFiles.schemaHints sebagai gantinya.
CF_AMBIGUOUS_AUTH_OPTIONS_ERROR
Menemukan opsi autentikasi untuk penyiapan notifikasi pada direktori (default)
mode daftar:
<options>
Jika Anda ingin menggunakan mode pemberitahuan file, silakan atur secara eksplisit:
.option("cloudFiles.<useNotificationsKey>", "true")
Atau, jika Anda ingin melewati validasi opsi Anda dan mengabaikan ini
opsi autentikasi, Anda dapat mengatur:
.option("cloudFiles.ValidateOptionsKey>", "false")
CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR
Mode daftar bertahap (cloudFiles.<useIncrementalListingKey>)
dan notifikasi file (cloudFiles.<useNotificationsKey>)
telah diaktifkan pada saat yang sama.
Pastikan Anda hanya memilih satu.
CF_AZURE_AUTHENTICATION_MISSING_OPTIONS
Harap berikan kredensial layanan Databricks atau clientId dan clientSecret untuk mengautentikasi dengan Azure.
CF_AZURE_AUTHENTICATION_MULTIPLE_OPTIONS
Ketika kredensial layanan Databricks disediakan, tidak ada opsi kredensial lain (misalnya, clientId, clientSecret, atau connectionString) yang harus disediakan.
CF_AZURE_STORAGE_SUFFIXES_REQUIRED
Memerlukan adlsBlobSuffix dan adlsDfsSuffix untuk Azure
CF_BUCKET_MISMATCH
<storeType> dalam peristiwa file <fileEvent> berbeda dari yang diharapkan oleh sumber: <source>.
CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY
Tidak dapat mengembangkan skema ketika log skema kosong. Lokasi log skema: <logPath>
CF_CANNOT_PARSE_QUEUE_MESSAGE
Tidak dapat mengurai pesan antrean berikut: <message>
CF_CANNOT_RESOLVE_CONTAINER_NAME
Tidak dapat menyelesaikan nama kontainer dari jalur: <path>, uri yang telah diuraikan: <uri>
CF_CANNOT_RUN_DIRECTORY_LISTING
Tidak dapat melakukan penelusuran direktori ketika ada utas pengisian ulang asinkron yang berjalan
CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON
Tidak dapat mengaktifkan cloudFiles.cleanSource dan cloudFiles.allowOverwrites secara bersamaan.
CF_CLEAN_SOURCE_CANNOT_MOVE_FILES_INSIDE_SOURCE_PATH
Memindahkan file ke direktori di bawah jalur yang sedang diserap tidak didukung.
CF_CLEAN_SOURCE_NOT_ENABLED
CleanSource belum diaktifkan untuk ruang kerja ini. Silakan hubungi dukungan Databricks untuk bantuan.
Sumber CF_CLEAN_TIDAK_DIDUKUNG
CleanSource tidak didukung untuk <op>.
CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION
Auto Loader tidak dapat mengarsipkan file yang diproses karena tidak memiliki izin tulis ke direktori sumber atau tujuan pemindahan.
Untuk detail selengkapnya, lihat CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION
CF_DUPLICATE_COLUMN_IN_DATA
Terjadi kesalahan saat mencoba menyimpulkan skema partisi tabel Anda. Anda memiliki kolom yang sama yang diduplikasi di jalur data dan partisi Anda. Untuk mengabaikan nilai partisi, berikan kolom partisi Anda secara eksplisit dengan menggunakan: .option("cloudFiles.<partitionColumnsKey>", "{comma-separated-list}")
CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE
Tidak dapat menyimpulkan skema ketika jalur input <path> kosong. Silakan coba untuk memulai aliran ketika ada file di jalur input, atau tentukan skema.
CF_EVENT_GRID_AUTH_ERROR
Gagal membuat langganan Event Grid. Silakan pastikan bahwa layanan Anda
Prinsipal memiliki Langganan <permissionType> Event Grid. Lihat detail selengkapnya di:
<docLink>
CF_EVENT_GRID_CREATION_FAILED
Gagal membuat langganan event grid. Pastikan bahwa Microsoft.EventGrid
terdaftar sebagai penyedia sumber daya dalam langganan Anda. Lihat detail selengkapnya di:
<docLink>
CF_EVENT_GRID_NOT_FOUND_ERROR
Gagal membuat langganan Event Grid. Pastikan bahwa penyimpanan Anda...
akun (<storageAccount>) berada di bawah grup sumber daya Anda (<resourceGroup>) dan bahwa
akun penyimpanan adalah akun "StorageV2 (tujuan umum v2)". Lihat detail selengkapnya di:
<docLink>
CF_EVENT_NOTIFICATION_NOT_SUPPORTED
Mode notifikasi acara Auto Loader tidak didukung untuk <cloudStore>.
CF_EVENT_NOTIFICATION_SETUP_FAILED
Gagal menyiapkan sumber daya pemberitahuan file untuk Auto Loader.
Untuk detail selengkapnya, lihat CF_EVENT_NOTIFICATION_SETUP_FAILED
CF_FAILED_TO_CHECK_STREAM_NEW
Gagal memeriksa apakah aliran adalah baru
CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION
Gagal membuat langganan: <subscriptionName>. Langganan dengan nama yang sama sudah ada dan dikaitkan dengan topik lain: <otherTopicName>. Topik yang diinginkan adalah <proposedTopicName>. Hapus langganan yang sudah ada atau buat langganan dengan akhiran sumber daya baru.
CF_FAILED_TO_CREATED_PUBSUB_TOPIC
Gagal membuat topik: <topicName>. Topik dengan nama yang sama sudah ada.
<reason> Hapus topik yang ada atau coba lagi dengan akhiran sumber daya lain
CF_FAILED_TO_DELETE_GCP_NOTIFICATION
Gagal menghapus pemberitahuan dengan id <notificationId> pada bucket <bucketName> untuk topik <topicName>. Silakan coba lagi atau hapus pemberitahuan secara manual melalui konsol GCP.
CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA
Gagal mendeserialisasi skema persisten dari string: '<jsonSchema>'
CF_FAILED_TO_EVOLVE_SCHEMA
Tidak dapat mengembangkan skema tanpa log skema.
CF_FAILED_TO_FIND_PROVIDER
Gagal menemukan penyedia untuk <fileFormatInput>
CF_FAILED_TO_INFER_SCHEMA
Gagal menyimpulkan skema untuk format <fileFormatInput> dari file yang ada di jalur input <path>.
Untuk informasi lebih lanjut, lihat CF_FAILED_TO_INFER_SCHEMA
CF_FAILED_TO_WRITE_TO_SCHEMA_LOG
Gagal menulis ke log skema di lokasi <path>.
CF_FILE_FORMAT_REQUIRED
Tidak dapat menemukan opsi yang diperlukan: cloudFiles.format.
CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS
Ditemukan beberapa langganan (<num>) dengan awalan Auto Loader untuk topik <topicName>:
<subscriptionList>
Seharusnya hanya ada satu langganan per topik. Silakan pastikan secara manual bahwa topik Anda tidak memiliki beberapa langganan.
CF_GCP_AUTHENTICATION
Harap berikan semua hal berikut: <clientEmail>, <client>,
<privateKey>, dan <privateKeyId> atau berikan <serviceCredential> untuk menggunakan kredensial layanan Databricks Anda.
Atau, jangan berikan satupun dari mereka untuk menggunakan rantai penyedia kredensial bawaan GCP guna mengautentikasi sumber daya GCP.
CF_GCP_LABELS_COUNT_EXCEEDED
Telah menerima terlalu banyak label (<num>) untuk sumber daya GCP. Jumlah label maksimum per sumber daya adalah <maxNum>.
CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED
Menerima terlalu banyak tag sumber daya (<num>) untuk sumber daya GCP. Jumlah maksimum tag sumber daya per sumber daya adalah <maxNum>, karena tag sumber daya disimpan sebagai label GCP pada sumber daya, dan tag spesifik Databricks menggunakan sebagian dari kuota label ini.
CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG
File log yang belum lengkap pada log skema di jalur <path>
CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT
File metadata yang tidak lengkap di titik pemeriksaan Auto Loader
CF_INCORRECT_BATCH_USAGE
CloudFiles adalah sumber streaming. Silakan gunakan spark.readStream alih-alih spark.read. Untuk menonaktifkan pemeriksaan ini, atur <cloudFilesFormatValidationEnabled> ke false.
CF_INCORRECT_SQL_PARAMS
Metode cloud_files menerima dua parameter string yang diperlukan: jalur untuk dimuat, dan format file. Opsi pembaca file harus disediakan dalam peta nilai kunci string. misalnya, cloud_files("path", "json", map("option1", "value1")). Diterima: <params>
CF_INCORRECT_STREAM_USAGE
Untuk menggunakan 'cloudFiles' sebagai sumber streaming, berikan format file dengan opsi 'cloudFiles.format', dan gunakan .load() untuk membuat DataFrame Anda. Untuk menonaktifkan pemeriksaan ini, atur <cloudFilesFormatValidationEnabled> ke false.
CF_INTERNAL_ERROR
Auto Loader mengalami kesalahan internal. Silakan hubungi dukungan Databricks untuk bantuan.
Untuk detail selengkapnya, lihat CF_INTERNAL_ERROR
CF_INVALID_ARN
ARN tidak valid: <arn>
CF_INVALID_AZURE_CERTIFICATE
Kunci privat yang disediakan dengan opsi cloudFiles.certificate tidak dapat diurai. Harap sediakan kunci umum yang valid dalam format PEM.
CF_INVALID_AZURE_CERT_PRIVATE_KEY
Kunci privat yang disediakan dengan opsi cloudFiles.certificatePrivateKey tidak dapat diurai. Harap sediakan kunci privat yang valid dalam format PEM.
CF_INVALID_CHECKPOINT
Titik pemeriksaan ini bukan sumber CloudFiles yang valid
CF_INVALID_CLEAN_SOURCE_MODE
Mode tidak valid untuk opsi sumber bersih <value>.
CF_INVALID_GCP_RESOURCE_TAG_KEY
Kunci tag sumber daya tidak valid untuk sumber daya GCP: <key>. Kunci harus dimulai dengan huruf kecil, panjangnya 1 hingga 63 karakter, dan hanya berisi huruf kecil, angka, garis bawah (_), dan tanda hubung (-).
CF_INVALID_GCP_RESOURCE_TAG_VALUE
Nilai tag sumber daya tidak valid untuk sumber daya GCP: <value>. Panjang nilai harus dalam 0 hingga 63 karakter dan hanya boleh berisi huruf kecil, angka, garis bawah (_), dan tanda hubung (-).
CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS
Auto Loader tidak mendukung opsi berikut saat digunakan dengan peristiwa berkas yang dikelola.
<optionList>
Kami menyarankan agar Anda menghapus opsi ini lalu menghidupkan ulang aliran.
CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
Respons tidak valid dari layanan manajemen peristiwa file. Silakan hubungi dukungan Databricks untuk bantuan.
Untuk informasi lebih lanjut, lihat CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
CF_INVALID_SCHEMA_EVOLUTION_MODE
cloudFiles.
<schemaEvolutionModeKey> harus salah satu dari {
<addNewColumnsWithTypeWidening>
<addNewColumns>
<failOnNewColumns>
<rescue>
"<noEvolution>"}
CF_INVALID_SCHEMA_HINTS_OPTION
Petunjuk skema hanya dapat menentukan kolom tertentu sekali.
Dalam hal ini, mendefinisikan ulang kolom: <columnName>
beberapa kali dalam schemaHints:
<schemaHints>
CF_INVALID_SCHEMA_HINT_COLUMN
Petunjuk skema tidak dapat digunakan untuk menggantikan jenis bersarang dari peta dan array.
Kolom yang berkonflik: <columnName>
CF_LATEST_OFFSET_READ_LIMIT_REQUIRED
latestOffset harus dipanggil dengan ReadLimit untuk sumber ini.
CF_LOG_FILE_MALFORMED
File log salah bentuk: gagal membaca versi log yang benar dari <fileName>.
CF_MANAGED_FILE_EVENTS_BACKFILL_IN_PROGRESS
Anda telah meminta Auto Loader untuk mengabaikan file yang ada di lokasi eksternal Anda dengan mengatur includeExistingFiles ke false. Namun, layanan peristiwa berkas yang dikelola masih menemukan berkas yang ada di lokasi eksternal Anda. Silakan coba lagi setelah pengelolaan file selesai mengidentifikasi semua file di lokasi eksternal Anda.
CF_MANAGED_FILE_EVENTS_ENDPOINT_NOT_FOUND
Anda menggunakan Auto Loader dengan peristiwa berkas yang terkelola, namun tampaknya lokasi eksternal untuk path input Anda '<path>' tidak memiliki fitur peristiwa berkas yang diaktifkan atau path input tersebut tidak valid. Silakan minta Administrator Databricks Anda untuk mengaktifkan event file di lokasi eksternal untuk jalur masukan Anda.
CF_MANAGED_FILE_EVENTS_ENDPOINT_PERMISSION_DENIED
Anda menggunakan Auto Loader dengan event pengelolaan file, tetapi Anda tidak memiliki izin akses ke lokasi penyimpanan atau volume eksternal untuk jalur input '<path>' atau jalur input tidak valid. Harap minta Administrator Databricks Anda untuk memberikan izin baca untuk lokasi atau volume eksternal atau berikan jalur input yang valid dalam lokasi atau volume eksternal yang ada.
CF_MANAGED_FILE_EVENTS_INVALID_CONTINUATION_TOKEN
Posisi baca aliran Anda dalam cache peristiwa file telah dibatalkan. Ini bisa terjadi karena konfigurasi peristiwa file diperbarui (misalnya, url antrean yang disediakan diubah, atau peristiwa file dinonaktifkan dan diaktifkan kembali). Silakan hubungi dukungan Databricks untuk bantuan.
CF_MANAGED_FILE_EVENTS_IS_PREVIEW
Auto Loader dengan pengelolaan peristiwa file adalah fungsi pratinjau. Untuk melanjutkan, silakan hubungi Dukungan Databricks atau nonaktifkan opsi cloudFiles.useManagedFileEvents.
CF_MANAGED_FILE_EVENTS_RATE_LIMIT_EXCEEDED
Terlalu banyak aliran Auto Loader bersamaan yang berjalan. Untuk mengatasinya, kurangi konkurensi aliran jika memungkinkan, atau buat volume terpisah untuk setiap subdirektori saat memuat dari beberapa subdirektori di lokasi eksternal. Hubungi perwakilan Databricks Anda jika masalah berlanjut.
CF_MAX_MUST_BE_POSITIVE
maks harus positif
CF_METADATA_FILE_CONCURRENTLY_USED
Secara bersamaan, beberapa kueri streaming menggunakan <metadataFile>
CF_MISSING_METADATA_FILE_ERROR
File metadata di direktori titik pemeriksaan sumber streaming hilang. Metadata ini
file berisi opsi default penting untuk aliran, sehingga aliran tidak dapat dimulai ulang
Sekarang. Silakan hubungi dukungan Databricks untuk bantuan.
CF_MISSING_PARTITION_COLUMN_ERROR
Kolom partisi <columnName> tidak ada dalam skema yang disediakan:
<schema>
CF_MISSING_SCHEMA_IN_PATHLESS_MODE
Tentukan skema menggunakan .schema() jika jalur tidak disediakan ke sumber CloudFiles saat menggunakan mode pemberitahuan file. Atau, agar Auto Loader menyimpulkan skema, harap sediakan jalur dasar di .load().
CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC
Menemukan pemberitahuan yang ada untuk topik <topicName> pada wadah <bucketName>:
notification,id
<notificationList>
Untuk menghindari pencemaran pelanggan dengan peristiwa yang tidak diinginkan, silakan hapus pemberitahuan di atas dan coba lagi.
CF_NEW_PARTITION_ERROR
Kolom partisi baru disimpulkan dari file Anda: [<filesList>]. Harap sediakan semua kolom partisi dalam skema Anda atau berikan daftar kolom partisi yang ingin Anda ekstrak nilainya dengan menggunakan: .option("cloudFiles.partitionColumns", "{comma-separated-list|empty-string}")
CF_PARTITON_INFERENCE_ERROR
Terjadi kesalahan ketika mencoba menyimpulkan skema partisi dari batch file saat ini. Harap sediakan kolom partisi Anda secara eksplisit dengan menggunakan: .option("cloudFiles.<partitionColumnOption>", "{comma-separated-list}")
CF_PATH_DOES_NOT_EXIST_FOR_READ_FILES
Tidak dapat membaca file ketika jalur input <path> tidak ada. Pastikan jalur input ada dan coba kembali.
CF_PERIODIC_BACKFILL_NOT_SUPPORTED
Isi ulang berkala tidak didukung jika isi ulang asinkron dinonaktifkan. Anda dapat mengaktifkan daftar isi ulang/direktori asinkron dengan mengatur spark.databricks.cloudFiles.asyncDirListing ke true
CF_PREFIX_MISMATCH
Ditemukan peristiwa yang tidak cocok: kunci <key> tidak memiliki awalan: <prefix>
CF_PROTOCOL_MISMATCH
<message>
Jika Anda tidak perlu membuat perubahan lain pada kode Anda, silakan atur SQL
konfigurasi: '<sourceProtocolVersionKey> = <value>'
untuk melanjutkan streaming Anda. Silakan merujuk ke:
<docLink>
untuk informasi lebih lanjut.
CF_REGION_NOT_FOUND_ERROR
Tidak bisa mendapatkan Wilayah AWS default. Tentukan wilayah menggunakan opsi cloudFiles.region.
CF_RESOURCE_SUFFIX_EMPTY
Gagal membuat layanan pemberitahuan: akhiran sumber daya tidak boleh kosong.
CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS
Gagal membuat layanan pemberitahuan: akhiran sumber daya hanya dapat memiliki karakter alfanumerik, tanda hubung (-) dan garis bawah (_).
CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE
Gagal membuat layanan pemberitahuan: akhiran sumber daya hanya dapat memiliki huruf kecil, angka, dan tanda hubung (-).
CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP
Gagal membuat layanan pemberitahuan: akhiran sumber daya hanya dapat memiliki karakter alfanumerik, tanda hubung (-), garis bawah (_), titik (.), tanda tilde (~) plus (+), dan tanda persen (<percentSign>).
CF_RESOURCE_SUFFIX_LIMIT
Gagal membuat layanan pemberitahuan: akhiran sumber daya tidak boleh memiliki lebih dari <limit> karakter.
CF_RESOURCE_SUFFIX_LIMIT_GCP
Gagal membuat layanan pemberitahuan: akhiran sumber daya harus antara karakter <lowerLimit> dan <upperLimit>.
CF_RESTRICTED_GCP_RESOURCE_TAG_KEY
Ditemukan tag kunci sumber daya GCP yang terbatas (<key>). Kunci tag sumber daya GCP berikut dibatasi untuk Auto Loader: [<restrictedKeys>]
CF_RETENTION_GREATER_THAN_MAX_FILE_AGE
cloudFiles.cleanSource.retentionDuration tidak boleh lebih besar dari cloudFiles.maxFileAge.
CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX
Gagal membuat pemberitahuan untuk topik: <topic> dengan awalan: <prefix>. Sudah ada topik dengan nama yang sama dengan awalan lain: <oldPrefix>. Coba gunakan akhiran sumber daya yang berbeda untuk pengaturan atau hapus pengaturan yang ada.
CF_SCHEMA_LOG_DEEP_CLONE_FAILED
Gagal mengkloning dan memigrasikan entri log skema apa pun dari log skema sumber.
CF_SFTP_MISSING_PASSWORD_OR_KEY_FILE
Kata sandi atau file kunci harus ditentukan untuk SFTP.
Tentukan kata sandi di uri sumber atau melalui <passwordOption>, atau tentukan konten file kunci melalui <keyFileOption>.
CF_SFTP_NOT_ENABLED
Mengakses file SFTP tidak diaktifkan. Silakan hubungi dukungan Databricks untuk bantuan.
CF_SFTP_REQUIRE_FULL_PATH
Tentukan komponen jalur lengkap untuk sumber SFTP dalam bentuk sftp://$user@$host:$port/$path untuk memastikan pencarian koneksi UC yang akurat.
CF_SFTP_REQUIRE_UC_CLUSTER
Kluster berkemampuan UC diperlukan untuk mengakses file SFTP. Silakan hubungi dukungan Databricks untuk bantuan.
CF_SFTP_USERNAME_NOT_FOUND
Nama pengguna harus ditentukan untuk SFTP.
Harap berikan nama pengguna di uri sumber atau melalui <option>.
CF_SOURCE_DIRECTORY_PATH_REQUIRED
Harap sediakan jalur direktori sumber dengan opsi path
CF_SOURCE_UNSUPPORTED
Sumber file cloud saat ini hanya mendukung jalur S3, Azure Blob Storage (wasb/wasbs), dan Azure Data Lake Gen1 (adl) serta Gen2 (abfs/abfss). jalur: '<path>', uri yang diselesaikan: '<uri>'
CF_STATE_INCORRECT_SQL_PARAMS
Fungsi cloud_files_state menerima parameter string yang mewakili direktori titik pemeriksaan dari aliran cloudFiles atau nama tabel multi-bagian yang mengidentifikasi tabel streaming, serta parameter kedua yang opsional berupa bilangan bulat yang mewakili versi titik pemeriksaan untuk memuat status. Parameter kedua mungkin juga 'terbaru' untuk membaca titik pemeriksaan terbaru. Diterima: <params>
CF_STATE_INVALID_CHECKPOINT_PATH
Jalur titik pemeriksaan input <path> tidak valid. Jalur tidak ada atau tidak ada sumber cloud_files yang ditemukan.
CF_STATE_INVALID_VERSION
Versi yang ditentukan <version> tidak ada, atau dihapus selama analisis.
CF_THREAD_IS_DEAD
<threadName> thread sudah mati.
CF_UNABLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION
Tidak dapat memperoleh lokasi titik pemeriksaan aliran dari lokasi titik pemeriksaan sumber: <checkPointLocation>
CF_UNABLE_TO_DETECT_FILE_FORMAT
Tidak dapat mendeteksi format file sumber dari file sampel <fileSize>, ditemukan <formats>. Tentukan formatnya.
CF_UNABLE_TO_EXTRACT_BUCKET_INFO
Tidak dapat mengekstrak informasi wadah. Jalur: '<path>', uri terpecahkan: '<uri>'.
CF_UNABLE_TO_EXTRACT_KEY_INFO
Tidak dapat mengekstrak informasi kunci. Jalur: '<path>', uri terpecahkan: '<uri>'.
CF_UNABLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO
Tidak dapat mengekstrak informasi akun penyimpanan; jalur: '<path>', URI yang sudah diurai: '<uri>'
CF_UNABLE_TO_LIST_EFFICIENTLY
Menerima event penggantian nama direktori untuk jalur <path>, tetapi kami tidak dapat mencantumkan direktori ini dengan efisien. Agar aliran berlanjut, atur opsi 'cloudFiles.ignoreDirRenames' ke true, dan pertimbangkan untuk mengaktifkan backfill reguler dengan cloudFiles.backfillInterval agar data ini diproses.
CF_UNEXPECTED_READ_LIMIT
Batas Baca Tak Terduga: <readLimit>
CF_UNKNOWN_OPTION_KEYS_ERROR
Ditemukan kunci opsi yang tidak diketahui:
<optionList>
Pastikan bahwa semua kunci opsi yang disediakan sudah benar. Jika Anda ingin mengabaikan
validasi opsi Anda dan abaikan opsi yang tidak diketahui ini, Anda dapat mengatur seperti berikut:
.option("cloudFiles.<validateOptions>", "false")
CF_UNKNOWN_READ_LIMIT
BatasBaca Tidak Diketahui: <readLimit>
CF_UNSUPPORTED_CLEAN_SOURCE_MOVE
konfigurasi mode cleanSource 'move' tidak didukung.
Untuk informasi lebih lanjut, lihat CF_UNSUPPORTED_CLEAN_SOURCE_MOVE
CF_UNSUPPORTED_CLOUD_FILES_SQL_FUNCTION
Fungsi SQL 'cloud_files' untuk membuat sumber streaming Auto Loader hanya didukung dalam alur Lakeflow Spark Declarative Pipeliness. Lihat detail selengkapnya di:
<docLink>
CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE
Inferensi skema tidak didukung untuk format: <format>. Tentukan skema.
CF_UNSUPPORTED_LOG_VERSION
UnsupportedLogVersion: versi log maksimum yang didukung adalah v<maxVersion>, tetapi ditemukan v<version>. File log dihasilkan oleh versi DBR yang lebih baru dan tidak dapat dibaca oleh versi ini. Silakan lakukan pembaruan.
CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE
Mode evolusi skema <mode> tidak didukung untuk format: <format>. Atur mode evolusi skema ke 'tidak ada'.
CF_USE_DELTA_FORMAT
Membaca dari tabel Delta tidak didukung dengan sintaks ini. Jika Anda ingin menggunakan data dari Delta, silakan lihat dokumen: baca tabel Delta (<deltaDocLink>), atau baca tabel Delta sebagai sumber aliran (<streamDeltaDocLink>). Sumber streaming dari Delta sudah dioptimalkan untuk konsumsi data inkremental.
Geospatial
EWKB_PARSE_ERROR
Kesalahan saat mengurai EWKB: <parseError> pada posisi <pos>
Untuk detail selengkapnya, lihat EWKB_PARSE_ERROR
EWKT_PARSE_ERROR
Kesalahan mengurai EWKT: <parseError> pada posisi <pos>
Untuk detail selengkapnya, lihat EWKT_PARSE_ERROR
GEOJSON_PARSE_ERROR
Kesalahan penguraian GeoJSON: <parseError> pada posisi <pos>
Untuk detail selengkapnya, lihat GEOJSON_PARSE_ERROR
GEO_ENCODER_SRID_MISMATCH_ERROR
Gagal mengodekan <type> nilai karena SRID <valueSrid> yang disediakan dari nilai yang akan dikodekan tidak cocok dengan jenis SRID: <typeSrid>.
H3_INVALID_CELL_ID
<h3Cell> bukan ID sel H3 yang valid
Untuk detail lebih lanjut, lihat H3_INVALID_CELL_ID
H3_INVALID_GRID_DISTANCE_VALUE
Jarak kisi H3 <k> harus tidak negatif
Untuk informasi lebih lanjut, lihat H3_INVALID_GRID_DISTANCE_VALUE
H3_INVALID_RESOLUTION_VALUE
Resolusi H3 <r> harus antara <minR> dan <maxR>, inklusif
Untuk informasi lebih lanjut, lihat H3_INVALID_RESOLUTION_VALUE
H3_NOT_ENABLED
<h3Expression> dinonaktifkan atau tidak didukung. Pertimbangkan untuk beralih ke tingkat yang mendukung ekspresi H3
Untuk detail selengkapnya, lihat H3_NOT_ENABLED
H3_PENTAGON_ENCOUNTERED_ERROR
Bentuk segi lima ditemukan ketika menghitung cincin heksagonal <h3Cell> dengan jarak kisi <k>
H3_UNDEFINED_GRID_DISTANCE
Jarak kisi H3 antara <h3Cell1> dan <h3Cell2> tidak ditentukan
ST_DIFFERENT_SRID_VALUES
Argumen ke "<sqlFunction>" harus memiliki nilai SRID yang sama. Nilai SRID ditemukan: <srid1>, <srid2>
ST_INVALID_ARGUMENT
"<sqlFunction>":
Untuk detail selengkapnya, lihat ST_INVALID_ARGUMENT
ST_INVALID_CRS_TRANSFORMATION_ERROR
<sqlFunction>: Transformasi CRS yang tidak valid atau tidak didukung dari <srcSrid> SRID ke <trgSrid> SRID
ST_INVALID_PRECISION_VALUE
Presisi <p> harus antara <minP> dan <maxP>, termasuk
ST_NOT_ENABLED
<stExpression> dinonaktifkan atau tidak didukung. Pertimbangkan untuk beralih ke level yang mendukung ekspresi ST
WKB_PARSE_ERROR
Kesalahan memparsing WKB: <parseError> pada posisi <pos>
Untuk detail selengkapnya, lihat WKB_PARSE_ERROR
WKT_PARSE_ERROR
Kesalahan memproses WKT: <parseError> pada posisi <pos>
Untuk detail selengkapnya, lihat WKT_PARSE_ERROR
Katalog Unity
kolom_berlabel_tidak_dapat_dihapus
Kolom tidak dapat dihilangkan karena memiliki satu atau beberapa tag yang diatur yang ditetapkan. Hapus tag sebelum menghapus kolom. Untuk panduan, silakan lihat dokumentasi <docLink>.
Pembentukan Anak Dilarang untuk Securable Asing
Tipe securable <childSecurableName><childSecurableType> tidak dapat dibuat dalam induk <parentSecurableName> dari jenis <parentSecurableKind>.
FORMAT_KOLOM_TIDAK_SESUAI_DENGAN_JENIS_KOLOM
Kolom <columnName> memiliki format <formatType> yang tidak kompatibel dengan tipe kolom <columnType>.
CONFLICTING_COLUMN_NAMES_ERROR
Kolom <columnName> berkonflik dengan kolom lain dengan nama yang sama tetapi dengan/tanpa spasi kosong berikutnya (misalnya, kolom yang sudah ada bernama <columnName> ). Ganti nama kolom dengan nama yang berbeda.
CONNECTION_CREDENTIALS_NOT_SUPPORTED_FOR_ONLINE_TABLE_CONNECTION
Permintaan tidak valid untuk mendapatkan kredensial tingkat koneksi untuk koneksi jenis <connectionType>. Kredensial tersebut hanya tersedia untuk koneksi PostgreSQL terkelola.
CONNECTION_TYPE_NOT_ENABLED
Tipe koneksi '<connectionType>' tidak diaktifkan. Harap aktifkan koneksi untuk menggunakannya.
STATUS_PENYEDIAAN_DELTA_SHARING_TIDAK_AKTIF
Entitas bersama '<securableFullName>' saat ini tidak dapat digunakan, karena belum sepenuhnya disinkronkan dengan entitas sumber yang sesuai. Disebabkan oleh: <reason>.
DELTA_SHARING_READ_ONLY_RECIPIENT_EXISTS
Sudah ada objek Penerima '<existingRecipientName>' dengan pengidentifikasi berbagi yang sama '<existingMetastoreId>'.
DELTA_SHARING_READ_ONLY_SECURABLE_KIND
Data Jenis Dapat Diamankan Delta Sharing <securableKindName> hanya dapat dibaca dan tidak dapat dibuat, dimodifikasi, atau dihapus.
DISASTER_RECOVERY_READ_ONLY
Data di dalam katalog <catalogName> replika yang dikelola oleh Pemulihan Bencana bersifat baca-saja dan tidak dapat dibuat, dimodifikasi, atau dihapus.
EXTERNAL_ACCESS_DISABLED_ON_METASTORE
Penjualan kredensial ditolak untuk lingkungan komputasi non Databricks karena Akses Data Eksternal dinonaktifkan untuk metastore <metastoreName>. Silakan hubungi admin metastore Anda untuk mengaktifkan konfigurasi 'Akses Data Eksternal' di metastore.
EXTERNAL_ACCESS_NOT_ALLOWED_FOR_TABLE
Tabel dengan id <tableId> tidak dapat diakses dari luar Lingkungan Komputasi Databricks karena jenisnya <securableKind>. Hanya jenis tabel 'TABLE_EXTERNAL', 'TABLE_DELTA_EXTERNAL' dan 'TABLE_DELTA' yang dapat diakses secara eksternal.
EXTERNAL_USE_SCHEMA_ASSIGNED_TO_INCORRECT_SECURABLE_TYPE
Hak istimewa EXTERNAL USE SCHEMA tidak berlaku untuk entitas ini <assignedSecurableType> dan hanya dapat ditetapkan ke skema atau katalog. Hapus hak istimewa dari objek <assignedSecurableType> dan tetapkan ke skema atau katalog sebagai gantinya.
EXTERNAL_WRITE_NOT_ALLOWED_FOR_TABLE
Tabel dengan id <tableId> tidak dapat ditulis dari luar Lingkungan Komputasi Databricks karena jenisnya <securableKind>. Hanya jenis tabel 'TABLE_EXTERNAL' dan 'TABLE_DELTA_EXTERNAL' yang dapat ditulis secara eksternal.
FOREIGN_CATALOG_STORAGE_ROOT_MUST_SUPPORT_WRITES
Lokasi penyimpanan untuk katalog asing jenis <catalogType> akan digunakan untuk mengeluarkan data dan tidak dapat bersifat baca-saja.
HMS_SECURABLE_OVERLAP_LIMIT_EXCEEDED
Jumlah <resourceType>untuk jalur input <url> melebihi batas yang diizinkan (<overlapLimit>) untuk HMS yang saling tumpang tindih <resourceType>.
INVALID_DATASOURCE_FORMAT
Format sumber data '<datasourceFormat>' tidak didukung<tableTypeSuffix> <catalogKindSuffix>.
INVALID_NAME_FORMAT
<fieldDescription> bukan nama yang valid. Nama yang valid hanya boleh berisi karakter alfanumerik dan garis bawah, dan tidak boleh berisi spasi, titik, garis miring, atau karakter kontrol.
INVALID_RESOURCE_NAME_DELTA_SHARING
Permintaan Delta Sharing tidak didukung menggunakan nama sumber daya
INVALID_RESOURCE_NAME_ENTITY_TYPE
Nama sumber daya yang disediakan mereferensikan jenis entitas <provided> tetapi diharapkan <expected>
INVALID_RESOURCE_NAME_METASTORE_ID
Nama sumber daya yang disediakan mereferensikan metastore yang tidak berada dalam cakupan untuk permintaan saat ini
INVALID_SECURABLE_NAME
<rpcName> nama tidak valid <securableType> : '<securableFullName>'
LOCATION_OVERLAP
URL jalur input '<path>' tumpang tindih dengan <overlappingLocation> dalam pemanggilan '<caller>'.
<conflictingSummary>. <permissionErrorSuggestion>
LOCATION_OVERLAP_STORAGE_CONFLICT_WITH_WORKSPACE_STORAGE
Lokasi penyimpanan yang ditentukan pelanggan berkonflik dengan penyimpanan default ruang kerja '<path>' selama operasi ''<caller>. Ini mencegah fitur yang mengandalkan penyimpanan ruang kerja agar tidak beroperasi. Ringkasan konflik: <conflictingSummary>. Lihat https://docs.databricks.com/aws/en/data-governance/unity-catalog/storage-conflicts untuk langkah-langkah remediasi.
MANAGED_TABLE_FORMAT
Hanya Delta yang didukung untuk tabel terkelola. Format sumber data yang disediakan adalah <datasourceFormat>.
MONGO_DB_SRV_CONNECTION_STRING_DOES_NOT_ALLOW_PORT
Membuat atau memperbarui koneksi MongoDB tidak diizinkan karena string koneksi MongoDB SRV tidak memerlukan port.
Mohon hapus port, sebab string koneksi SRV tidak memerlukan port.
PRINSIPAL_TIDAK_ADA
Tidak dapat menemukan prinsipal dengan nama <principalName>.
Dukungan Hak Istimewa Tidak Diaktifkan
Dukungan hak istimewa tidak diaktifkan untuk jenis [<typeString>]
PRIVILEGE_NOT_APPLICABLE_TO_ENTITY
Hak istimewa <privilege> tidak berlaku untuk entitas ini [<classifier>]. Jika ini tampaknya tidak terduga, silakan periksa versi hak istimewa metastore yang digunakan [<privilegeVersion>].
KATALOG_HANYA_BACA
Data di dalam Katalog Berbagi Delta bersifat baca-saja dan tidak dapat dibuat, dimodifikasi, atau dihapus. Katalog '<catalogName>' adalah Katalog Berbagi Data Delta.
REDSHIFT_FOREIGN_CATALOG_STORAGE_ROOT_MUST_BE_S3
Akar penyimpanan untuk katalog eksternal Redshift harus di AWS S3.
SCHEMA_NOT_EMPTY
Skema '<fullName>' tidak kosong. <extraInfo>
SECURABLE_KIND_DOES_NOT_SUPPORT_LAKEHOUSE_FEDERATION
Jenis <securableKind> tidak dapat diamankan dan tidak mendukung Federasi Lakehouse.
SECURABLE_KIND_NOT_ENABLED
Tipe securable '<securableKind>' tidak diaktifkan. Jika ini adalah jenis yang dapat diamankan yang terkait dengan fitur pratinjau, mohon aktifkan pada pengaturan ruang kerja.
SECURABLE_TYPE_DOES_NOT_SUPPORT_LAKEHOUSE_FEDERATION
Tipe <securableType> yang dapat diamankan tidak mendukung Federasi Lakehouse.
SOURCE_TABLE_COLUMN_COUNT_EXCEEDS_LIMIT
Tabel sumber memiliki lebih dari <columnCount> kolom. Kurangi jumlah kolom menjadi <columnLimitation> atau kurang.
PRINSIPAL_LAYANAN_SISTEM_TIDAK_TEREGISTRASI
Tidak dapat menemukan perwakilan layanan sistem terdaftar dengan nama sumber daya <servicePrincipalResource>.
Jenis Tabel Tidak Mendukung Metadata Kolom
Tipe tabel <tableType> tidak mendukung metadata kolom.
UC_AAD_CLIENT_SECRET_EXPIRED_FOR_SERVICE_PRINCIPAL
Kunci rahasia klien untuk perwakilan layanan dengan id <applicationId> aplikasi kedaluwarsa. Kunjungi portal Microsoft Azure untuk membuat kunci baru untuk perwakilan layanan Anda.
UC_AAD_CLIENT_SECRET_EXPIRED_FOR_STORAGE_CREDENTIAL
Kunci rahasia klien untuk kredensial <storageCredentialName> penyimpanan kedaluwarsa. Hubungi pemilik atau admin akun Anda untuk memperbarui kredensial penyimpanan.
UC_AAD_CLIENT_SECRET_INVALID_FOR_SERVICE_PRINCIPAL
Kunci rahasia klien untuk perwakilan layanan dengan id <applicationId> aplikasi tidak valid.
UC_AAD_SERVICE_PRINCIPAL_CONFIG_INVALID
Konfigurasi perwakilan layanan tidak valid. Verifikasi ID Direktori, ID Aplikasi, dan Rahasia Klien.
UC_AAD_TOKEN_EXCHANGE_GENERIC_FAILURE
Gagal mendapatkan kredensial: Kredensial <storageCredentialName> Penyimpanan tidak dikonfigurasi dengan benar. Hubungi pemilik atau admin akun Anda untuk memperbarui konfigurasi.
UC_AAD_TOKEN_LIFETIME_TOO_SHORT
Masa berlaku token AAD yang ditukar <lifetime> telah dikonfigurasi terlalu pendek. Silakan periksa pengaturan Microsoft Azure ACTIVE Directory Anda untuk memastikan token akses sementara memiliki setidaknya satu jam masa pakai. https://learn.microsoft.com/azure/active-directory/develop/active-directory-configurable-token-lifetimes
UC_ABAC_AMBIGUOUS_COLUMN_MATCH
Kesalahan mengevaluasi kebijakan ABAC pada '<resource>'. Kebijakan '<policyName>' gagal dengan pesan: Penggunaan alias '<alias>' ditemukan <size> kecocokan, hanya 1 kecocokan yang diizinkan.
UC_ABAC_DEPENDENCY_COMPLEXITY_LIMIT_EXCEEDED
<resourceType> '<ref>' memiliki terlalu banyak <resolverType> dependensi abac.
UC_ABAC_DEPENDENCY_DIFFERING_RF_CM
Dependensi '<dependency>' direferensikan beberapa kali dan menghasilkan filter baris ABAC atau masker kolom yang berbeda.
UC_ABAC_EVALUATION_USER_ERROR
Kesalahan mengevaluasi kebijakan ABAC pada '<resource>'. Kebijakan '<policyName>' gagal dengan pesan: <message>.
UC_ABAC_INVALID_TAG_POLICY_VALUE
Kesalahan mengevaluasi kebijakan ABAC pada '<resource>'. Gagal dengan pesan: Nilai <tagValue> kebijakan tag tidak valid untuk kunci <tagKey>.
UC_ABAC_MULTIPLE_ROW_FILTERS
Evaluasi kebijakan ABAC pada '<resource>' menghasilkan beberapa filter baris. Paling banyak satu filter baris diizinkan.
UC_ABAC_UNKNOWN_TAG_POLICY
Kesalahan mengevaluasi kebijakan ABAC pada '<resource>'. Gagal dengan pesan: Kebijakan tag tidak diketahui: <tagKey>.
UC_ABAC_ALIAS_TIDAK_COCOK_DALAM_MENGGUNAKAN_KOLOM
Kesalahan mengevaluasi kebijakan ABAC pada '<resource>'. Gagal dengan pesan: Alias '<alias>' yang digunakan di USING COLUMNS tidak cocok dengan kolom apa pun.
UC_ABAC_UNMATCHED_ON_COLUMN_ALIAS
Kesalahan mengevaluasi kebijakan ABAC pada '<resource>'. Kebijakan '<policyName>' gagal dengan pesan: Alias '<alias>' yang digunakan di ON COLUMN tidak cocok dengan kolom apa pun.
UC_ABAC_UNMATCHED_USING_ALIAS
Kesalahan mengevaluasi kebijakan ABAC pada '<resource>'. Kebijakan '<policyName>' gagal dengan pesan: Menggunakan alias '<alias>' tidak memiliki kolom yang cocok.
UC_ABAC_USING_REF_OF_NATIVE_MASKED_COLUMNS
Kesalahan mengevaluasi kebijakan ABAC pada '<resource>'. Gagal dengan pesan: Kolom '<usingCol>' telah ditutupi oleh kebijakan RLS/CM asli dan tidak dapat digunakan sebagai input ke kebijakan ABAC '<policyName>'.
AKSES_UC_MEMBUTUHKAN_WORKSPACE
Tidak dapat mengakses objek yang dapat diamankan yang terikat pada ruang kerja karena pengguna tidak diberi peran ke ruang kerja yang bersangkutan.
UC_ALTER_DLT_VIEW_OUTSIDE_DEFINING_PIPELINE
Mengubah tampilan '<viewFullName>' di luar alur yang mendefinisikannya tidak diperbolehkan. Sebagai gantinya, perbarui definisi tampilan dari alur yang menentukannya (ID Alur: <owningPipelineId>).
UC_ATLAS_TIDAK_DIAKTIFKAN_UNTUK_LAYANAN_PANGGILAN
Atlas tidak diaktifkan untuk layanan panggilan <serviceName>.
UC_AUTHZ_ACTION_NOT_SUPPORTED
Otorisasi <actionName> tidak didukung; harap periksa apakah RPC yang dipanggil diimplementasikan untuk jenis sumber daya ini
UC_AWS_ASSUME_ROLE_FAILED
Gagal mendapatkan kredensial: peran AWS IAM dalam kredensial Katalog Unity tidak dikonfigurasi dengan benar. Silakan hubungi admin metastore Anda atau pemilik kredensial untuk memperbarui konfigurasi di AWS.
UC_AWS_EMPTY_STORAGE_LOCATION
Lokasi penyimpanan kosong.
UC_AWS_INVALID_S3_POLICY_PREFIX
Jalur s3 tidak valid untuk lokasi penyimpanan: Jalur <providedPath> S3 tidak dimulai dengan awalan yang diharapkan: <expectedPrefix>.
UC_AWS_UNSUPPORTED_S3_SCHEME
Jalur s3 tidak valid untuk lokasi penyimpanan: Skema yang tidak didukung ditemukan: <providedScheme>. Skema yang didukung adalah: <supportedS3Schemes>.
UC_AZURE_BLOB_SERVICE_UNAVAILABLE
Layanan Azure Blob untuk sementara tidak tersedia. Coba lagi nanti.
UC_AZURE_UDK_UNAUTHORIZED
Permintaan kunci delegasi pengguna tidak diotorisasi. Detail: <details>
UC_BUILTIN_HMS_CONNECTION_CREATION_PERMISSION_DENIED
Tidak dapat membuat koneksi untuk metastore Apache Hive bawaan karena pengguna: <userId> bukan admin dari ruang kerja: <workspaceId>
UC_BUILTIN_HMS_CONNECTION_MODIFY_RESTRICTED_FIELD
Coba ubah bidang terbatas dalam koneksi HMS bawaan '<connectionName>'. Hanya 'warehouse_directory' yang dapat diperbarui.
UC_CANNOT_RENAME_PARTITION_FILTERING_COLUMN
Gagal mengganti nama kolom <originalLogicalColumn> tabel karena digunakan untuk pemfilteran partisi di <sharedTableName>. Untuk melanjutkan, Anda dapat menghapus tabel dari berbagi, mengganti nama kolom, dan membagikannya dengan kolom pemfilteran partisi yang diinginkan lagi. Namun, ini dapat merusak kueri streaming untuk penerima Anda.
UC_CHILD_CREATION_FORBIDDEN_FOR_NON_UC_CLUSTER
Tidak dapat membuat <securableType> '<securable>' di bawah <parentSecurableType> '<parentSecurable>' karena permintaan bukan dari kluster UC.
UC_CONFLICTING_CONNECTION_ALLOW_LIST_OPTIONS
Tidak dapat membuat koneksi dengan daftar perkenankan yang tumpang tindih dengan opsi koneksi. Nilai: <conflictingOptions>
UC_CONFLICTING_CONNECTION_OPTIONS
Tidak dapat membuat koneksi dengan opsi autentikasi nama pengguna/kata sandi dan oauth. Silakan pilih satu.
UC_CONNECTION_CREDENTIALS_MAXIMUM_REACHED
Jumlah maksimum kredensial untuk nama koneksi '<connectionName>' telah tercapai. Hapus kredensial yang ada sebelum membuat mandat baru.
UC_CONNECTION_CREDENTIALS_NOT_EXIST_FOR_USER_WITH_LOGIN
Kredensial untuk identitas pengguna('<userIdentity>') tidak ditemukan untuk koneksi '<connectionName>'. Silakan masuk terlebih dahulu ke koneksi dengan mengunjungi <connectionPage>
UC_CONNECTION_CREDENTIALS_TYPE_NOT_SUPPORTED
Membuat kredensial untuk jenis '<securableType>' yang dapat diamankan tidak didukung. Tipe yang dapat diamankan yang didukung: <allowedSecurableType>.
UC_CONNECTION_EXISTS_FOR_CREDENTIAL
Kredensial '<credentialName>' memiliki satu atau beberapa koneksi dependen. Anda dapat menggunakan opsi paksa untuk terus memperbarui atau menghapus kredensial, tetapi koneksi yang menggunakan kredensial ini mungkin tidak berfungsi lagi.
UC_CONNECTION_EXPIRED_ACCESS_TOKEN
Token akses yang terkait dengan koneksi kedaluwarsa. Harap perbarui koneksi untuk memulai ulang alur OAuth untuk mengambil token.
UC_CONNECTION_EXPIRED_REFRESH_TOKEN
Token refresh yang terkait dengan koneksi kedaluwarsa. Perbarui koneksi untuk memulai ulang alur OAuth untuk mengambil token baru.
UC_CONNECTION_IN_FAILED_STATE
Koneksi dalam status FAILED. Perbarui koneksi dengan kredensial yang valid untuk mengaktifkannya kembali.
UC_CONNECTION_MISSING_OPTION
Koneksi jenis '<securableType>' yang dapat diamankan harus menyertakan opsi berikut: <requiredOptions>.
UC_CONNECTION_MISSING_REFRESH_TOKEN
Tidak ada token refresh yang terkait dengan koneksi. Harap perbarui integrasi klien OAuth di penyedia identitas Anda agar dapat menghasilkan token refresh, dan perbarui atau buat ulang koneksi untuk memulai ulang alur OAuth serta mengambil token yang diperlukan.
UC_CONNECTION_OAUTH_EXCHANGE_FAILED
Pertukaran token OAuth gagal dengan kode status HTTP <httpStatus>. Respons server atau pesan pengecualian yang dikembalikan adalah: <response>
UC_CONNECTION_OPTION_NOT_SUPPORTED
Koneksi jenis '<securableType>' yang dapat diamankan tidak mendukung opsi berikut: <optionsNotSupported>. Opsi yang didukung: <allowedOptions>.
UC_COORDINATED_COMMITS_NOT_ENABLED
Dukungan untuk penerapan terkoordinasi tidak diaktifkan. Silakan hubungi dukungan Databricks.
UC_CREATE_FORBIDDEN_UNDER_INACTIVE_SECURABLE
Tidak dapat membuat <securableType> '<securableName>' karena berada di bawah <parentSecurableType> '<parentSecurableName>' yang tidak aktif. Silakan hapus entitas induk yang dapat diamankan dan buat ulang induknya.
UC_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED
Gagal mengurai ID konektor akses yang disediakan: <accessConnectorId>. Harap verifikasi pemformatannya, lalu coba lagi.
UC_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN
Gagal mendapatkan token AAD untuk melakukan validasi izin cloud pada konektor akses. Silakan coba lagi tindakan tersebut.
UC_CREDENTIAL_INVALID_CLOUD_PERMISSIONS
SQLSTATE: tidak ada yang ditetapkan
Mendaftarkan kredensial memerlukan peran kontributor melalui konektor akses yang sesuai dengan ID <accessConnectorId>. Silakan hubungi admin akun Anda.
UC_CREDENTIAL_INVALID_CREDENTIAL_TYPE_FOR_PURPOSE
Jenis kredensial '<credentialType>' tidak didukung untuk tujuan '<credentialPurpose>'
UC_CREDENTIAL_PERMISSION_DENIED
SQLSTATE: tidak ada yang ditetapkan
Hanya admin akun yang dapat membuat atau memperbarui kredensial dengan jenis <storageCredentialType>.
UC_CREDENTIAL_TRUST_POLICY_IS_OPEN
Kebijakan kepercayaan peran IAM agar Akun Databricks dapat mengambil alih peran harus menyertakan ID eksternal. Silakan hubungi admin akun Anda untuk menambahkan kondisi ID eksternal. Perilaku ini dimaksudkan untuk melindungi dari masalah Deputi Bingung (https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html).
UC_CREDENTIAL_WORKSPACE_API_PROHIBITED
Membuat atau memperbarui kredensial sebagai admin non-akun tidak didukung di API tingkat akun. Silakan gunakan API tingkat ruang kerja sebagai gantinya.
UC_DBR_TRUST_VERSION_TOO_OLD
Databricks Runtime yang digunakan tidak lagi mendukung operasi ini. Silakan gunakan versi terbaru (Anda mungkin hanya perlu menghidupkan ulang kluster Anda).
UC_DELTA_ILLEGAL_BACKFILLED_VERSION
LatestBackfilledVersion <latestBackfilledVersion> yang tidak terduga pada penerapan (<version>, <commitType>).
UC_DELTA_ILLEGAL_CONCURRENT_MIGRATION
Peningkatan atau penurunan secara bersamaan ke/dari tabel yang dikelola katalog tidak didukung. Pastikan bahwa hanya satu transaksi yang menjalankan perintah migrasi pada satu waktu. Duplikat <commitType> terdeteksi.
UC_DELTA_ILLEGAL_MIGRATION_STATE_CHANGE
Transisi status ilegal dari jenis penerapan lama ke baru <lastCommitType><commitType>.
UC_DELTA_MIGRATION_STATE_CHANGE_VERSION_MISMATCH
Versi tidak cocok untuk transisi status dari lama (<lastVersion>, <lastCommitType>) ke baru (<version>, <commitType>).
UC_DELTA_UNIVERSAL_FORMAT_CANNOT_PARSE_ICEBERG_VERSION
Tidak dapat mengurai versi tabel Apache Iceberg dari lokasi metadata <metadataLocation>.
UC_DELTA_UNIVERSAL_FORMAT_CONCURRENT_WRITE
Pembaruan bersamaan ke versi metadata Apache Iceberg yang sama terdeteksi.
UC_DELTA_UNIVERSAL_FORMAT_INVALID_METADATA_LOCATION
Lokasi metadata yang diterapkan <metadataLocation> tidak valid. Ini bukan subdirektori dari direktori <tableRoot>akar tabel .
UC_DELTA_UNIVERSAL_FORMAT_MISSING_FIELD_CONSTRAINT
Informasi konversi format delta Apache Iceberg yang disediakan tidak memiliki bidang yang diperlukan.
UC_DELTA_UNIVERSAL_FORMAT_NON_CREATE_CONSTRAINT
Mengatur informasi format delta Apache Iceberg saat membuat tidak didukung.
UC_DELTA_UNIVERSAL_FORMAT_TOO_LARGE_CONSTRAINT
Informasi konversi format delta Apache Iceberg yang disediakan terlalu besar.
UC_DELTA_UNIVERSAL_FORMAT_UPDATE_INVALID
Metadata seragam hanya dapat diperbarui pada tabel Delta dengan uniform yang diaktifkan.
UC_DEPENDENCY_DEPTH_LIMIT_EXCEEDED
<resourceType> Kedalaman '<ref>' melebihi batas (atau memiliki referensi melingkar).
UC_DEPENDENCY_DOES_NOT_EXIST
<resourceType> '<ref>' tidak valid karena salah satu sumber daya yang mendasar tidak ada. <cause>
UC_DEPENDENCY_PERMISSION_DENIED
<resourceType> '<ref>' tidak memiliki hak istimewa yang memadai untuk dijalankan karena pemilik salah satu sumber daya yang mendasar gagal melakukan pemeriksaan otorisasi. <cause>
UC_DUPLICATE_CONNECTION
Koneksi yang disebut '<connectionName>' dengan URL yang sama sudah ada. Silakan minta izin kepada pemilik untuk menggunakan koneksi tersebut alih-alih membuat duplikat.
UC_DUPLIKAT_PEMBUATAN_KATALOG_ONELAKE
Mencoba membuat katalog OneLake dengan url '<storageLocation>' yang cocok dengan katalog yang ada, yang tidak diizinkan.
UC_DUPLICATE_TAG_ASSIGNMENT_CREATION
Penetapan tag dengan kunci tag <tagKey> sudah ada
UC_ENTITY_DOES_NOT_HAVE_CORRESPONDING_ONLINE_CLUSTER
Entitas <securableType> <entityId> tidak memiliki kluster online yang sesuai.
UC_ETAG_MISMATCH
Sumber daya telah dimodifikasi. Silakan ambil etag terbaru dan coba lagi. Nilai etag yang diharapkan: <expectedTokenValue> dengan versi <expectedTokenVersion>protokol , nilai etag yang diterima: <providedTokenValue> dengan versi protokol <providedTokenVersion>
UC_EXCEEDS_MAX_FILE_LIMIT
Ada lebih dari <maxFileResults> file. Tentukan [max_results] untuk membatasi jumlah file yang dikembalikan.
UC_EXTERNAL_HMS_SCHEMA_LOCATION_NOT_FEDERATED
Skema dalam <schemaName> keadaan provisi DEGRADED yang diharapkan karena lokasi skema eHMS / Lem tidak digabungkan.
UC_EXTERNAL_LOCATION_OP_NOT_ALLOWED
Tidak dapat <opName> <extLoc> <reason>.
<suggestion>.
UC_FEATURE_DISABLED
<featureName> saat ini dinonaktifkan di UC.
UC_FOREIGN_CATALOG_FOR_CONNECTION_TYPE_NOT_SUPPORTED
Pembuatan katalog asing untuk jenis koneksi '<connectionType>' tidak didukung. Tipe koneksi ini hanya dapat digunakan untuk membuat alur penyerapan terkelola. Silakan referensi dokumentasi Databricks untuk informasi lebih lanjut.
UC_FOREIGN_CREDENTIAL_CHECK_ONLY_FOR_READ_OPERATIONS
Hanya kredensial READ yang dapat diambil untuk tabel asing.
UC_FOREIGN_ENTITY_CREATION_FORBIDDEN_DURING_CONVERSION
Membuat FOREIGN <securableType> '<entityName>' di bawah katalog '<catalogName>' dilarang saat katalog sedang dikonversi dari FOREIGN ke STANDARD.
UC_FOREIGN_HMS_SHALLOW_CLONE_MISMATCH
Tabel dasar dan tabel kloning harus berada dalam katalog yang sama untuk kloning dangkal yang dibuat dalam katalog Hive Metastore asing. Tabel dasar '<baseTableName>' ada di katalog '<baseCatalogName>' dan tabel kloning '<cloneTableName>' ada di katalog '<cloneCatalogName>'.
UC_FOREIGN_KEY_CHILD_COLUMN_LENGTH_MISMATCH
Kunci asing <constraintName> memiliki kolom anak dan kolom induk yang ukurannya berbeda.
UC_FOREIGN_KEY_COLUMN_MISMATCH
Kolom induk kunci asing tidak cocok dengan kolom anak kunci utama yang dirujuk. Kolom induk kunci asing adalah (<parentColumns>) dan kolom anak kunci utama adalah (<primaryKeyChildColumns>).
UC_FOREIGN_KEY_COLUMN_TYPE_MISMATCH
Tipe kolom anak kunci asing tidak cocok dengan tipe kolom induk. Kolom anak kunci asing <childColumnName> memiliki tipe <childColumnType> dan kolom induk <parentColumnName> memiliki jenis <parentColumnType>.
UC_GCP_INVALID_PRIVATE_KEY
Akses ditolak. Penyebab: kunci privat akun layanan tidak valid.
UC_GCP_INVALID_PRIVATE_KEY_JSON_FORMAT
Kunci Privat OAuth Akun Google Server harus menjadi objek yang valid JSON dengan bidang yang diperlukan, pastikan untuk memberikan file lengkap JSON yang dihasilkan dari bagian 'KEYS' dari halaman detail akun layanan.
UC_GCP_INVALID_PRIVATE_KEY_JSON_FORMAT_MISSING_FIELDS
Kunci Privat OAuth Akun Google Server harus menjadi objek yang valid JSON dengan bidang yang diperlukan, pastikan untuk memberikan file lengkap JSON yang dihasilkan dari bagian 'KEYS' dari halaman detail akun layanan. Bidang yang hilang adalah <missingFields>
UC_IAM_ROLE_NON_SELF_ASSUMING
Pada kredensial penyimpanan ini, peran IAM ditemukan tidak dapat berfungsi secara mandiri. Silakan periksa kepercayaan dan kebijakan IAM dari peran Anda untuk memastikan bahwa peran IAM Anda dapat mengambil alih dirinya sendiri sesuai dengan dokumentasi kredensial penyimpanan Unity Catalog.
UC_ICEBERG_COMMIT_CONFLICT
Tidak dapat menerapkan <tableName>: lokasi metadata <baseMetadataLocation> telah berubah dari <catalogMetadataLocation>.
UC_ICEBERG_COMMIT_INVALID_TABLE
Tidak dapat melakukan commit Apache Iceberg yang Dikelola ke tabel Apache Iceberg yang tidak Dikelola: <tableName>.
UC_ICEBERG_COMMIT_MISSING_FIELD_CONSTRAINT
Informasi komit Apache Iceberg terkelola yang disediakan tidak memiliki bidang yang diperlukan.
UC_ID_MISMATCH
<type> <name> tidak memiliki ID <wrongId>. Silakan coba lagi operasi ini.
UC_INFORMATION_SCHEMA_PER_METASTORE_DB_RATE_LIMIT_EXCEEDED
Terlalu banyak permintaan skema informasi untuk metastore. Silakan tunggu sebentar dan coba lagi. Jika masalah berlanjut, silakan pertimbangkan untuk menyesuaikan selektivitas kueri Anda atau menghubungi dukungan untuk bantuan.
UC_AKSES_TIDAK_VALID_BRICKSTORE_ONLINE_TABLE_DEPRECATION
Tabel online tidak digunakan lagi. Memperoleh akses ke tabel <securableName> online tidak lagi didukung.
UC_INVALID_ACCESS_BRICKSTORE_PG_CONNECTION
Akses ke instans database tidak valid. <reason>
UC_INVALID_ACCESS_DBFS_ENTITY
Akses <securableType> <securableName> tidak valid di katalog terfederasi <catalogName>. <reason>
UC_INVALID_AZURE_PATH
Jalur Azure tidak valid: <path>
UC_INVALID_CLOUDFLARE_ACCOUNT_ID
ID akun Cloudflare tidak valid.
UC_INVALID_CREDENTIAL_CLOUD
Penyedia kredensial cloud tidak valid '<cloud>'. Penyedia cloud yang diizinkan '<allowedCloud>'.
UC_INVALID_CREDENTIAL_PURPOSE_VALUE
Nilai '<value>' tidak valid untuk 'tujuan' kredensial. Nilai yang diizinkan '<allowedValues>'.
UC_INVALID_CREDENTIAL_TRANSITION
Tidak dapat memperbarui koneksi dari <startingCredentialType> ke <endingCredentialType>. Satu-satunya transisi yang valid adalah dari koneksi berbasis nama pengguna/kata sandi ke koneksi berbasis token OAuth.
UC_INVALID_CRON_STRING_FABRIC
String cron tidak valid. Ditemukan: '<cronString>' dengan pengecualian parsing: '<message>'
UC_INVALID_DIRECT_ACCESS_MANAGED_TABLE
Tabel yang diakses langsung dan terkelola tidak valid <tableName>. Pastikan definisi alur tabel sumber & tidak didefinisikan.
UC_INVALID_EMPTY_STORAGE_LOCATION
Lokasi penyimpanan kosong yang tidak terduga untuk <securableType> '<securableName>' di katalog '<catalogName>'. Untuk memperbaiki kesalahan ini, jalankan DESCRIBE SCHEMA <catalogName>.
<securableName> dan segarkan halaman ini.
UC_INVALID_OPTIONS_UPDATE
Opsi yang disediakan tidak valid untuk pembaruan. Opsi tidak valid: <invalidOptions>. Opsi yang diizinkan: <allowedOptions>.
UC_INVALID_OPTION_VALUE
Nilai '<value>' tidak valid untuk '<option>'. Nilai yang diizinkan '<allowedValues>'.
UC_INVALID_OPTION_VALUE_EMPTY
'<option>' tidak boleh kosong. Masukkan nilai yang tidak kosong.
UC_INVALID_POLICY_CONDITION
Kondisi tidak valid dalam kebijakan '<policyName>'. Kesalahan kompilasi dengan pesan '<message>'.
UC_INVALID_R2_ACCESS_KEY_ID
ID kunci akses R2 tidak valid.
UC_INVALID_R2_SECRET_ACCESS_KEY
Kunci akses rahasia R2 tidak valid.
UC_INVALID_UPDATE_ON_SYSTEM_WORKSPACE_ADMIN_GROUP_OWNED_SECURABLE
Tidak dapat memperbarui <securableType> '<securableName>' karena dimiliki oleh grup internal. Silakan hubungi dukungan Databricks untuk detail tambahan.
UC_INVALID_WASBS_EXTERNAL_LOCATION_STORAGE_CREDENTIAL
<storageCredentialName> Kredensial Penyimpanan yang disediakan tidak terkait dengan Root DBFS, sehingga pembuatan wasbs Lokasi Eksternal dilarang.
UC_LOCATION_INVALID_SCHEME
Lokasi penyimpanan memiliki skema URI yang tidak valid: <scheme>.
UC_MALFORMED_OAUTH_SERVER_RESPONSE
Tanggapan dari server token tidak menyertakan bidang <missingField>. Respons server yang dikembalikan adalah: <response>
UC_MANAGED_ICEBERG_UNSUPPORTED
Tidak dapat mendukung tabel Apache Iceberg terkelola pada titik akhir saat ini.
UC_METASTORE_ASSIGNMENT_STATUS_INVALID
'<metastoreAssignmentStatus>' tidak dapat ditetapkan. Hanya MANUALLY_ASSIGNABLE dan AUTO_ASSIGNMENT_ENABLED yang didukung.
UC_METASTORE_CERTIFICATION_NOT_ENABLED
Sertifikasi metastore tidak diaktifkan.
UC_METASTORE_HAS_ACTIVE_MANAGED_ONLINE_CATALOGS
SQLSTATE: tidak ada yang ditetapkan
Metastore <metastoreId> memiliki <numberManagedOnlineCatalogs> katalog terkelola secara online. Silakan hapus mereka secara eksplisit, lalu coba lagi menghapus metastore.
UC_METASTORE_QUOTA_EXCEEDED
Akun dengan id <accountId> ini telah mencapai batas untuk metastore di wilayah <region>.
UC_METASTORE_STORAGE_ROOT_CREDENTIAL_UPDATE_INVALID
Kredensial akar metastore tidak boleh ditentukan saat memperbarui lokasi akar metastore. Kredensial akan diambil dari lokasi eksternal induk metastore.
UC_METASTORE_STORAGE_ROOT_DELETION_INVALID
Penghapusan lokasi akar penyimpanan metastore gagal. <reason>
UC_METASTORE_STORAGE_ROOT_READ_ONLY_INVALID
Akar <securableType> untuk metastore tidak dapat bersifat baca-saja.
UC_METASTORE_STORAGE_ROOT_UPDATE_INVALID
Akar penyimpanan metastore tidak dapat diperbarui setelah diatur.
UC_MODEL_INVALID_STATE
Tidak dapat menghasilkan kredensial '<opName>' sementara untuk versi <modelVersion> model dengan status <modelVersionStatus>. Kredensial '<opName>' hanya dapat dibuat untuk versi model dengan status <validStatus>
UC_NATIVE_USING_REF_OF_ABAC_MASKED_COLUMNS
Kesalahan mengevaluasi kebijakan ABAC pada '<resource>'. Gagal dengan pesan: Kolom '<usingCol>' telah ditutupi oleh kebijakan ABAC '<policyName>' dan tidak dapat digunakan sebagai input ke kebijakan RLS/CM asli.
UC_NO_ORG_ID_IN_CONTEXT
Mencoba mengakses ID org (atau ID ruang kerja), tetapi konteks tidak memilikinya.
UC_ONELAKE_PATH_BAD_DOMAIN
Jalur Azure OneLake '<path>' harus memiliki nama domain '<expectedHost>'.
UC_ONELAKE_PATH_BAD_FORMAT
Jalur Azure OneLake '<path>' harus dalam format 'abfss://_WORKSPACE_@<host>/'.
UC_ONELAKE_PATH_MISSING_AT
Jalur Azure OneLake '<path>' tidak berisi '@'.
UC_ONELAKE_PATH_MISSING_WORKSPACE
Jalur Azure OneLake '<path>' harus berisi nama ruang kerja.
UC_VOLUME_ONELAKE_MEMBUTUHKAN_ITEM_LAKEHOUSE
Tidak dapat membuat volume dalam katalog OneLake karena item OneLake yang ditentukan bukan Lakehouse.
UC_ONLINE_CATALOG_NOT_MUTABLE
SQLSTATE: tidak ada yang ditetapkan
Permintaan <rpcName> memperbarui <fieldName>. Gunakan tab 'compute' di toko online untuk memodifikasi apa pun selain komentar, pemilik, dan Mode Isolasi dari katalog online.
UC_ONLINE_CATALOG_QUOTA_EXCEEDED
Tidak dapat membuat lebih dari <quota> toko online di metastore dan saat ini sudah ada <currentCount>. Anda mungkin tidak memiliki akses ke toko online yang ada. Hubungi admin metastore Anda untuk diberikan akses atau untuk instruksi lebih lanjut.
UC_ONLINE_INDEX_CATALOG_INVALID_CRUD
SQLSTATE: tidak ada yang ditetapkan
katalog indeks online harus di-<action>-kan melalui API /vector-search.
UC_ONLINE_INDEX_CATALOG_NOT_MUTABLE
SQLSTATE: tidak ada yang ditetapkan
Permintaan <rpcName> memperbarui <fieldName>. Gunakan API /vector-search untuk memodifikasi semua hal kecuali komentar, pemilik, dan modus isolasi dari katalog indeks daring.
UC_ONLINE_INDEX_CATALOG_QUOTA_EXCEEDED
Jumlah katalog indeks online di metastore tidak boleh lebih dari <quota>, dan saat ini sudah ada <currentCount>. Anda mungkin tidak memiliki akses ke katalog indeks online yang ada. Hubungi admin metastore Anda untuk diberikan akses atau untuk instruksi lebih lanjut.
UC_ONLINE_INDEX_INVALID_CRUD
indeks daring harus <action> melalui API /vector-search.
UC_ONLINE_STORE_INVALID_CRUD
SQLSTATE: tidak ada yang ditetapkan
toko online harus <action> dari tab perhitungan toko online.
UC_ONLINE_TABLE_COLUMN_NAME_TOO_LONG
Nama kolom tabel sumber <columnName> terlalu panjang. Panjang maksimum adalah <maxLength> karakter.
UC_ONLINE_TABLE_PRIMARY_KEY_COLUMN_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT
Kolom <columnName> tidak dapat digunakan sebagai kolom kunci utama tabel online karena bukan bagian dari batasan PRIMARY KEY tabel sumber yang ada. Untuk detailnya, silakan lihat <docLink>
UC_ONLINE_TABLE_TIMESERIES_KEY_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT
Kolom <columnName> tidak dapat digunakan sebagai kunci waktu tabel online karena bukan kolom timeseries dari batasan PRIMARY KEY tabel sumber yang ada. Untuk detailnya, silakan lihat <docLink>
UC_ONLINE_VIEWS_PER_SOURCE_TABLE_QUOTA_EXCEEDED
Tidak dapat membuat lebih dari <quota> tabel online per tabel sumber.
UC_ONLINE_VIEW_ACCESS_DENIED
Mengakses sumber daya <resourceName> memerlukan penggunaan gudang SQL Tanpa Server. Pastikan gudang yang digunakan untuk menjalankan kueri atau melihat katalog database di UI tanpa server. Untuk detailnya, silakan lihat <docLink>
UC_ONLINE_VIEW_CONTINUOUS_QUOTA_EXCEEDED
Tidak dapat membuat lebih dari <quota> tampilan online secara terus menerus di toko online, serta sudah ada <currentCount>. Anda mungkin tidak memiliki akses ke tampilan online yang sudah ada. Hubungi admin toko online Anda untuk diberikan akses atau untuk instruksi lebih lanjut.
UC_ONLINE_VIEW_DOES_NOT_SUPPORT_DMK
SQLSTATE: tidak ada yang ditetapkan
<tableKind> tidak dapat dibuat pada lokasi penyimpanan dengan Kunci Terkelola Databricks. Pilih skema/katalog yang berbeda di lokasi penyimpanan tanpa enkripsi Kunci Terkelola Databricks.
UC_ONLINE_VIEW_INVALID_CATALOG
Katalog <catalogName> tidak valid dengan jenis <catalogKind> untuk membuat <tableKind> di dalam.
<tableKind> hanya dapat dibuat di bawah katalog jenis: <validCatalogKinds>.
UC_ONLINE_VIEW_INVALID_SCHEMA
Skema <schemaName> tidak valid dengan jenis <schemaKind> untuk membuat <tableKind> di dalam.
<tableKind> hanya dapat dibuat di bawah skema jenis: <validSchemaKinds>.
UC_ONLINE_VIEW_INVALID_TTL_TIME_COLUMN_TYPE
Kolom <columnName> tipe <columnType> tidak dapat digunakan sebagai kolom waktu TTL. Jenis yang diperbolehkan adalah <supportedTypes>.
UC_OPERATION_NOT_SUPPORTED
Operasi tidak didukung oleh Katalog Unity. <detailedMessage>
UC_OUT_OF_AUTHORIZED_PATHS_SCOPE
Kesalahan Jalur Diotorisasi. Lokasi <securableType><location> tidak ditetapkan dalam jalur yang diizinkan untuk katalog: <catalogName>. Silakan minta pemilik katalog untuk menambahkan jalur ke daftar jalur resmi yang ditentukan pada katalog.
UC_OVERLAPPED_AUTHORIZED_PATHS
Opsi 'authorized_paths' berisi jalur yang tumpang tindih: <overlappingPaths>. Pastikan setiap jalur unik dan tidak bersinggungan dengan orang lain dalam daftar.
UC_PAGINATION_AND_QUERY_ARGS_MISMATCH
Argumen kueri '<arg>' diatur ke '<received>' yang berbeda dengan nilai yang digunakan dalam panggilan penomoran halaman pertama ('<expected>')
UC_PATH_FILTER_ALLOWLIST_VIOLATION
Kredensial '<credentialName>' adalah kredensial default ruang kerja yang hanya diizinkan untuk mengakses data di jalur berikut: '<allowlist>'. Pastikan bahwa jalur apa pun yang diakses menggunakan kredensial ini berada di bawah salah satu jalur ini.
Pelanggaran Daftar Tolak dalam Filter Jalur UC
Kredensial '<credentialName>' adalah kredensial default ruang kerja yang tidak dapat mengakses data di jalur terbatas berikut: '<targetPath>'.
UC_PATH_TOO_LONG
Jalur input terlalu panjang. Panjang yang diizinkan: <maxLength>. Panjang input: <inputLength>. Masukan: <path>...
UC_PER_METASTORE_DATABASE_CONCURRENCY_LIMIT_EXCEEDED
Batas kesamaan waktu terlampaui untuk metastore <metastoreId>. Silakan coba lagi nanti. Jika masalah berlanjut, silakan hubungi dukungan. Kode kesalahan #UC-<errorCodeArbitraryFiveLettersUpperCase>
UC_POSTGRESQL_ONLINE_VIEWS_PER_SOURCE_TABLE_QUOTA_EXCEEDED
Tidak dapat membuat tabel database yang disinkronkan lebih dari <quota> per tabel sumber.
UC_PRIMARY_KEY_ON_NULLABLE_COLUMN
Tidak dapat membuat kunci primer <constraintName> karena kolom turunannya <childColumnNames> dapat diubah ke null. Silakan ubah opsi null kolom dan coba ulang.
UC_REQUEST_LIMIT_EXCEEDED
Permintaan Anda ditolak karena organisasi Anda telah melebihi batas tarif. Silakan coba lagi permintaan Anda nanti.
UC_REQUEST_TIMEOUT
Operasi ini membutuhkan waktu terlalu lama.
UC_RESOURCE_QUOTA_EXCEEDED
Tidak dapat membuat <amount> <resourceType>(s) dalam <parentResourceType> <parentResourceId> (perkiraan jumlah: <currentCount>, batas: <quotaLimit>).
UC_ROOT_STORAGE_S3_BUCKET_NAME_CONTAINS_DOT
Katalog Unity tidak mendukung nama bucket S3 penyimpanan utama yang mengandung titik: <uri>
UC_SCHEMA_EMPTY_STORAGE_LOCATION
Lokasi penyimpanan kosong yang tidak terduga untuk skema '<schemaName>' di katalog '<catalogName>'. Pastikan skema menggunakan skema jalur <validPathSchemesListStr>.
UC_SERVERLESS_UNTRUSTED_DOMAIN_STORAGE_TOKEN_MINTING
Notebook Python dan Scala tanpa server tidak diizinkan untuk mengambil kredensial penyimpanan sementara dari Unity Catalog dalam ruang kerja dengan pembatasan jaringan.
UC_SHALLOW_CLONE_BASE_TABLE_DELETED
Tidak dapat mengakses kloning dangkal '<tableFullName>' karena tabel dasarnya '<baseTableName>' telah dihapus.
STORAGE_CREDENTIALSUC_STORAGE_CREDENTIALS_DENGAN_PENGHAPUSAN_LOKASI_EKSTERNAL_DITOLAK
Kredensial penyimpanan '<credentialName>' memiliki <extTablesCount> tabel eksternal yang bergantung langsung dan <extLocationsCount> lokasi penyimpanan dependen. Anda dapat menggunakan opsi paksa untuk menghapusnya tetapi data penyimpanan terkelola yang menggunakan kredensial penyimpanan ini tidak dapat dihapus menyeluruh oleh Katalog Unity lagi.
STORAGE_CREDENTIALSUC__DENGAN_PEMBARUAN_LOKASI_EKSTERNAL_DITOLAK
Kredensial penyimpanan '<credentialName>' memiliki <extTablesCount> tabel eksternal yang bergantung langsung dan <extLocationsCount> lokasi penyimpanan yang bergantung; gunakan opsi paksa untuk tetap memperbarui.
UC_STORAGE_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED
Gagal mengurai ID konektor akses yang disediakan: <accessConnectorId>. Harap verifikasi pemformatannya, lalu coba lagi.
UC_STORAGE_CREDENTIAL_DBFS_ROOT_CREATION_PERMISSION_DENIED
Tidak dapat membuat kredensial penyimpanan untuk akar DBFS karena pengguna: <userId> bukan admin ruang kerja: <workspaceId>
UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_DBFS_ENABLED
Kredensial penyimpanan akar DBFS belum didukung untuk ruang kerja dengan DBFS berkemampuan Firewall
UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_NOT_SUPPORTED
Kredensial penyimpanan akar DBFS untuk ruang kerja saat ini belum didukung
UC_STORAGE_CREDENTIAL_DBFS_ROOT_WORKSPACE_DISABLED
Akar DBFS tidak diaktifkan untuk ruang kerja <workspaceId>
UC_STORAGE_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN
Gagal mendapatkan token AAD untuk melakukan validasi izin cloud pada konektor akses. Silakan coba lagi tindakan tersebut.
UC_STORAGE_CREDENTIAL_INVALID_CLOUD_PERMISSIONS
Untuk mendaftarkan kredensial penyimpanan, diperlukan peran kontributor pada konektor akses yang sesuai dengan ID <accessConnectorId>. Silakan hubungi admin akun Anda.
UC_STORAGE_CREDENTIAL_METASTORE_ROOT_DELETION_DENIED (if untranslated is confirmed as necessary) Or Penolakan Penghapusan Root Kredensial Penyimpanan Metastore (if translation is confirmed as necessary)
Kredensial penyimpanan '<credentialName>' tidak dapat dihapus karena dikonfigurasi sebagai kredensial akar metastore ini. Harap perbarui kredensial akar metastore sebelum mencoba penghapusan.
UC_STORAGE_CREDENTIAL_PERMISSION_DENIED
Hanya admin akun yang dapat membuat atau memperbarui kredensial penyimpanan dengan jenis <storageCredentialType>.
UC_STORAGE_CREDENTIAL_SERVICE_PRINCIPAL_MISSING_VALIDATION_TOKEN
Token validasi yang hilang untuk prinsipal layanan. Silakan berikan token Entra ID yang valid dengan cakupan ARM di header permintaan 'X-Databricks-Azure-SP-Management-Token' dan coba kembali. Untuk detailnya, periksa https://docs.databricks.com/api/workspace/storagecredentials
UC_STORAGE_CREDENTIAL_TRUST_POLICY_IS_OPEN
Kebijakan kepercayaan peran IAM agar Akun Databricks dapat mengambil alih peran harus menyertakan ID eksternal. Silakan hubungi admin akun Anda untuk menambahkan kondisi ID eksternal. Perilaku ini dimaksudkan untuk melindungi dari masalah Deputi Bingung (https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html).
UC_STORAGE_CREDENTIAL_WASBS_NOT_DBFS_ROOT
Lokasi <location> tidak berada di dalam akar DBFS, karena itu kami tidak dapat membuat kredensial penyimpanan <storageCredentialName>
UC_STORAGE_CREDENTIAL_WORKSPACE_API_PROHIBITED
Membuat atau memperbarui kredensial penyimpanan sebagai admin non-akun tidak didukung di API tingkat akun. Silakan gunakan API tingkat ruang kerja sebagai gantinya.
UC_STORAGE_CREDENTIAL_WS_BUCKET_INVALID_LOCATION
Lokasi <requestedLocation> tidak berada di dalam konteks yang diizinkan <allowedLocation>
UC_STORAGE_CREDENTIAL_WS_INTERNAL_CATALOG_NOT_SUPPORTED
Kredensial penyimpanan katalog internal untuk ruang kerja saat ini belum didukung
UC_SYSTEM_SCHEMA_NOT_AVAILABLE_FOR_ENABLEMENT (Skema sistem tidak tersedia untuk diaktifkan)
Skema sistem <systemSchema> saat ini tidak tersedia untuk pengaktifan. Silakan coba lagi nanti.
UC_SYSTEM_WORKSPACE_GROUP_PERMISSION_UNSUPPORTED
Tidak dapat memberikan hak istimewa pada <securableType> untuk grup yang dihasilkan oleh sistem <principal>.
UC_TABLE_IS_LOCKED_FOR_CATALOG_MANAGED_TABLE_MIGRATION
Tabel '<tableId>' untuk sementara dikunci untuk migrasi tabel yang dikelola katalog. Transaksi pada tabel ini diblokir hingga migrasi selesai. Coba lagi transaksi Anda segera.
UC_TABLE_IS_NOT_CATALOG_OWNED
Permintaan untuk melakukan commit/getCommits untuk tabel '<tableId>' memerlukan pengaktifan fitur yang dimiliki Katalog pada tabel.
UC_TAG_ASSIGNMENT_WITH_KEY_DOES_NOT_EXIST
Penetapan tag dengan kunci tag <tagKey> tidak ada
UC_TEMPORARY_CREDENTIAL_OPERATION_NOT_SUPPORTED
Operasi kredensial sementara tidak didukung.
UC_UNDROP_RESOURCE_ID_ALREADY_EXISTS
Tidak dapat mengurungkan '<resourceType>' karena '<resourceType>' dengan id '<resourceId>' sudah ada.
UC_UNDROP_RESOURCE_NAME_ALREADY_EXISTS
Tidak dapat mengurungkan '<resourceType>' karena '<resourceType>' dengan nama '<resourceName>' sudah ada.
UC_UNDROP_RESOURCE_NOT_READY
Tidak dapat memulihkan '<resourceType>' karena '<resourceType>' dengan id '<resourceId>' belum siap untuk dipulihkan kembali, mohon coba lagi nanti.
UC_PEMULIHAN_SUMBER_DAYA_MELEWATI_PERIODE_PENYIMPANAN_KUSTOM
Tidak dapat mengembalikan '<resourceType>' karena '<resourceType>' dengan id '<resourceId>' berada di luar periode pemulihan kustomnya.
UC_UNDROP_RESOURCE_PAST_RECOVERABLE_WINDOW
Tidak dapat mengembalikan '<resourceType>' karena '<resourceType>' dengan id '<resourceId>' melebihi periode pemulihan '<maxRestorationPeriodDay>' hari yang didukung.
Kolom Anak dengan Batasan Unik Sudah Ada
Gagal membuat UNIQUE batasan <newConstraintName>: tabel <tableName> sudah memiliki UNIQUE batasan: <existingConstraintName>, yang memiliki kumpulan kolom anak yang sama.
UC_KONSTRUK_UNIK_TIDAK_DIDUKUNG
Gagal beroperasi dengan UNIQUE batasan <constraintName>: UNIQUE batasan tidak diaktifkan.
UC_UNSUPPORTED_HTTP_CONNECTION_BASE_PATH
Jalur dasar yang disediakan tidak valid, jalur dasar harus seperti /api/resources/v1. Jalur yang tidak didukung: <path>
UC_UNSUPPORTED_HTTP_CONNECTION_HOST
Nama host yang disediakan tidak valid, nama host harus seperti https://www.databricks.com tanpa akhiran rute. Host yang tidak didukung: <host>
UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH
Hanya karakter Latin/Latin-1 dasar ASCII yang didukung dalam jalur lokasi/volume/tabel eksternal. Jalur yang tidak didukung: <path>
UC_UPDATE_FORBIDDEN_FOR_PROVISIONING_SECURABLE
Tidak dapat memperbarui <securableType> '<securableName>' karena sedang dalam penyediaan.
UC_MENGGUNAKAN_REFERENSI_KOLOM_YANG_DIMASKING
Kesalahan mengevaluasi kebijakan ABAC pada '<resource>'. Gagal dengan pesan: Kolom '<usingCol>' telah ditutupi oleh kebijakan ABAC '<existingMaskingPolicy>' dan tidak dapat digunakan dalam kebijakan '<policyName>'.
UC_WRITE_CONFLICT
<type> <name> telah dimodifikasi oleh permintaan lain. Silakan coba lagi operasi ini.
UNDROP_TABLE_NOT_FOUND
Tidak dapat membatalkan kluster karena tidak ada tabel dengan nama <tableFullName> yang memenuhi syarat untuk undrop. Tabel ini mungkin sudah di-undropped, dihapus di luar periode pemulihan maksimum, atau belum pernah ada.
UNITY_CATALOG_EXTERNAL_COORDINATED_COMMITS_REQUEST_DENIED
Permintaan untuk melakukan commit/getCommits untuk tabel '<tableId>' dari luar lingkungan komputasi yang diaktifkan Databricks Unity Catalog ditolak untuk keamanan. Silakan hubungi dukungan Databricks untuk integrasi dengan Unity Catalog.
UNITY_CATALOG_EXTERNAL_CREATE_STAGING_TABLE_REQUEST_DENIED
Permintaan untuk membuat tabel penahapan '<tableFullName>' dari luar lingkungan komputasi yang diaktifkan Databricks Unity Catalog ditolak untuk keamanan. Silakan hubungi dukungan Databricks untuk integrasi dengan Unity Catalog.
COLUMN_MASKSUNITY_CATALOG_EXTERNAL_CREATE_TABLE_FAILED_VALIDATION__DEFINED
Permintaan untuk membuat tabel '<tableFullName>' dari luar lingkungan komputasi yang diaktifkan Databricks Unity Catalog ditolak. Masker kolom tidak didukung saat membuat tabel secara eksternal.
GAGAL_MEMBUAT_TABEL_UNITY_CATALOG_EKSTERNAL_VALIDASI_FORMAT_SUMBER_DATA_TIDAK_DELTA
Permintaan untuk membuat tabel '<tableFullName>' dari luar lingkungan komputasi yang diaktifkan Databricks Unity Catalog ditolak. Format sumber data harus DELTA untuk membuat tabel secara eksternal, sebaliknya '<dataSourceFormat>'.
UNITY_CATALOG_EXTERNAL_CREATE_TABLE_FAILED_VALIDATION_TABLE_TYPE_NOT_EXTERNAL
Permintaan untuk membuat tabel '<tableFullName>' dari luar lingkungan komputasi yang diaktifkan Databricks Unity Catalog ditolak. Jenis tabel harus EXTERNAL untuk membuat tabel secara eksternal, sebagai gantinya adalah '<tableType>'.
UNITY_CATALOG_EXTERNAL_CREATE_TABLE_INFO_MENGANDUNG_BIDANG_INVALID
Pembuatan tabel eksternal hanya mengizinkan bidang ini: [nama, catalog_name, schema_name, table_type, data_source_format, kolom, storage_location, dan properti].
UNITY_CATALOG_EXTERNAL_CREATE_TABLE_REQUEST_FOR_NON_EXTERNAL_TABLE_DENIED
Permintaan untuk membuat tabel non-eksternal '<tableFullName>' dari luar lingkungan komputasi yang diaktifkan Databricks Unity Catalog ditolak untuk keamanan. Silakan hubungi dukungan Databricks untuk integrasi dengan Unity Catalog.
UNITY_CATALOG_EXTERNAL_DELETE_TABLE_REQUEST_FOR_NON_EXTERNAL_TABLE_DENIED
Permintaan untuk menghapus tabel non-eksternal '<tableFullName>' dari luar lingkungan komputasi yang diaktifkan Databricks Unity Catalog tidak didukung.
UNITY_CATALOG_EXTERNAL_GENERATE_PATH_CREDENTIALS_DENIED
Permintaan untuk menghasilkan kredensial akses untuk jalur '<path>' dari luar lingkungan komputasi yang diaktifkan Databricks Unity Catalog ditolak untuk keamanan. Silakan hubungi dukungan Databricks untuk integrasi dengan Unity Catalog.
UNITY_CATALOG_EXTERNAL_GENERATE_TABLE_CREDENTIALS_DENIED
Permintaan untuk menghasilkan kredensial akses untuk tabel '<tableId>' dari luar lingkungan komputasi yang diaktifkan Databricks Unity Catalog ditolak untuk keamanan. Silakan hubungi dukungan Databricks untuk integrasi dengan Unity Catalog.
UNITY_CATALOG_EXTERNAL_GENERATE_TEMP_PATH_CRED_GAGAL_VALIDASI_CREDENTIAL_ID_DITENTUKAN
Permintaan untuk menghasilkan kredensial jalur sementara dari luar lingkungan komputasi yang diaktifkan Databricks Unity Catalog ditolak. ID kredensial tidak boleh ditentukan saat membuat kredensial jalur sementara secara eksternal.
Kredensial TEMP_PATH_GENERATE_CATALOG_EKSTERNAL_UNITY_GAGAL_VALIDASI, PASTIKAN HANYA PATH_INDUK YANG DITENTUKAN
Permintaan untuk menghasilkan kredensial jalur sementara dari luar lingkungan komputasi yang diaktifkan Databricks Unity Catalog ditolak. make_path_only_parent tidak boleh ditentukan saat membuat kredensial jalur sementara secara eksternal.
UNITY_CATALOG_EXTERNAL_GENERATE_VOLUME_CREDENTIALS_DENIED
Permintaan untuk menghasilkan kredensial akses untuk volume '<volumeId>' dari luar lingkungan komputasi yang diaktifkan Databricks Unity Catalog ditolak untuk keamanan. Silakan hubungi dukungan Databricks untuk integrasi dengan Unity Catalog.
UNITY_CATALOG_EXTERNAL_GENERATE_VOLUME_CREDENTIALS_FOR_SECURABLE_KIND_NOT_SUPPORTED
Permintaan untuk menghasilkan kredensial akses untuk '<volumeSecurableKind>' dari luar lingkungan komputasi yang diaktifkan Databricks Unity Catalog ditolak untuk keamanan. Silakan hubungi dukungan Databricks untuk integrasi dengan Unity Catalog.
UNITY_CATALOG_EXTERNAL_GET_FOREIGN_CREDENTIALS_DENIED
Permintaan untuk mendapatkan kredensial asing untuk elemen keamanan dari luar lingkungan komputasi yang diaktifkan Databricks Unity Catalog ditolak demi alasan keamanan.
UNITY_CATALOG_EXTERNAL_UPDATA_METADATA_SNAPSHOT_DENIED
Permintaan untuk memperbarui rekam jepret metadata dari luar lingkungan komputasi yang diaktifkan Databricks Unity Catalog ditolak untuk keamanan.
SKEMA_LOKASI_TIDAK_DIDUKUNG
<fieldName> memiliki skema <scheme>URI yang tidak valid . Skema URI yang valid meliputi <validSchemes>. Jalur tidak valid: <path>.
UPDATE_SYSTEM_TABLE
Tabel yang dimiliki sistem tidak dapat dimodifikasi. Tabel '<tableName>' adalah tabel yang dimiliki sistem.
WRITE_CREDENTIALS_NOT_SUPPORTED_FOR_LEGACY_MANAGED_ONLINE_TABLE
Permintaan tidak valid untuk mendapatkan kredensial menulis untuk tabel yang dikelola secara online dalam katalog online.
API Files
FILES_API_API_IS_NOT_ENABLED
SQLSTATE: tidak ada yang ditetapkan
<api_name> API tidak diaktifkan
FILES_API_API_IS_NOT_ENABLED_FOR_CLOUD_PATHS
SQLSTATE: tidak ada yang ditetapkan
Metode API File yang diminta tidak didukung untuk jalur cloud
FILES_API_AWS_ACCESS_DENIED
SQLSTATE: tidak ada yang ditetapkan
Akses ke wadah penyimpanan ditolak oleh AWS.
FILES_API_AWS_ALL_ACCESS_DISABLED
SQLSTATE: tidak ada yang ditetapkan
Semua akses ke wadah penyimpanan telah dinonaktifkan di AWS.
FILES_API_AWS_BUCKET_DOES_NOT_EXIST
SQLSTATE: tidak ada yang ditetapkan
Wadah penyimpanan tidak ada di AWS.
FILES_API_AWS_FORBIDDEN
SQLSTATE: tidak ada yang ditetapkan
Akses ke wadah penyimpanan dilarang oleh AWS.
FILES_API_AWS_INVALID_AUTHORIZATION_HEADER
SQLSTATE: tidak ada yang ditetapkan
Ruang kerja salah dikonfigurasi: ruang kerja harus berada di wilayah yang sama dengan wadah penyimpanan akar ruang kerja AWS.
FILES_API_AWS_INVALID_BUCKET_NAME
SQLSTATE: tidak ada yang ditetapkan
Nama wadah penyimpanan tidak valid.
FILES_API_AWS_KMS_KEY_DISABLED
SQLSTATE: tidak ada yang ditetapkan
Kunci KMS yang dikonfigurasi untuk mengakses wadah penyimpanan dinonaktifkan di AWS.
FILES_API_AWS_UNAUTHORIZED
SQLSTATE: tidak ada yang ditetapkan
Akses ke sumber daya AWS tidak sah.
FILES_API_AZURE_ACCOUNT_IS_DISABLED
SQLSTATE: tidak ada yang ditetapkan
Akun penyimpanan dinonaktifkan di Azure.
FILES_API_AZURE_AUTHORIZATION_PERMISSION_MISMATCH
SQLSTATE: tidak ada yang ditetapkan
Ketidakcocokan izin otorisasi.
FILES_API_AZURE_CMK_NOT_FOUND
SQLSTATE: tidak ada yang ditetapkan
Kunci enkripsi terkelola tidak dapat ditemukan.
FILES_API_AZURE_CMK_SOFT_DELETED
SQLSTATE: tidak ada yang ditetapkan
Kunci enkripsi terkelola telah dihapus sementara.
FILES_API_AZURE_CONTAINER_DOES_NOT_EXIST
SQLSTATE: tidak ada yang ditetapkan
Kontainer Azure tidak ada.
FILES_API_AZURE_CREDENTIAL_NOT_FOUND
SQLSTATE: tidak ada yang ditetapkan
Kredensial Azure tidak ditemukan. Kredensial Azure mungkin hilang atau tidak dapat diakses.
FILES_API_AZURE_FORBIDDEN
SQLSTATE: tidak ada yang ditetapkan
Akses ke kontainer penyimpanan dilarang oleh Azure.
FILES_API_AZURE_HAS_A_LEASE
SQLSTATE: tidak ada yang ditetapkan
Azure merespons bahwa saat ini ada sewa pada sumber daya. Coba lagi nanti.
FILES_API_AZURE_INSUFFICIENT_ACCOUNT_PERMISSION
SQLSTATE: tidak ada yang ditetapkan
Akun yang diakses tidak memiliki izin yang memadai untuk menjalankan operasi ini.
FILES_API_AZURE_INVALID_STORAGE_ACCOUNT_CONFIGURATION
SQLSTATE: tidak ada yang ditetapkan
Konfigurasi akun yang diakses tidak didukung.
FILES_API_AZURE_INVALID_STORAGE_ACCOUNT_NAME
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat mengakses akun penyimpanan di Azure: nama akun penyimpanan yang tidak valid.
FILES_API_AZURE_KEY_BASED_AUTHENTICATION_NOT_PERMITTED
SQLSTATE: tidak ada yang ditetapkan
Key Vault tidak ditemukan di Azure. Periksa pengaturan kunci yang Anda kelola sendiri.
FILES_API_AZURE_KEY_VAULT_KEY_NOT_FOUND
SQLSTATE: tidak ada yang ditetapkan
Kunci di Brankas Kunci Azure tidak ditemukan di Azure. Periksa pengaturan kunci yang Anda kelola sendiri.
FILES_API_AZURE_KEY_VAULT_VAULT_NOT_FOUND
SQLSTATE: tidak ada yang ditetapkan
Key Vault tidak ditemukan di Azure. Periksa pengaturan kunci yang Anda kelola sendiri.
FILES_API_AZURE_MI_ACCESS_CONNECTOR_NOT_FOUND
SQLSTATE: tidak ada yang ditetapkan
Kredensial Identitas Terkelola Azure dengan Konektor Akses tidak ditemukan. Ini bisa karena kontrol akses IP menolak permintaan Anda.
FILES_API_AZURE_OPERATION_TIMEOUT
SQLSTATE: tidak ada yang ditetapkan
Operasi tidak dapat diselesaikan dalam waktu yang diizinkan.
FILES_API_AZURE_PATH_INVALID
SQLSTATE: tidak ada yang ditetapkan
Jalur yang diminta tidak valid untuk Azure.
FILES_API_AZURE_PATH_IS_IMMUTABLE
SQLSTATE: tidak ada yang ditetapkan
Jalur yang diminta tidak dapat diubah.
FILES_API_AZURE_UNSUPPORTED_HEADER
SQLSTATE: tidak ada yang ditetapkan
Salah satu header yang ditentukan dalam operasi tidak didukung.
FILES_API_CANNOT_PARSE_URL_PARAMETER
SQLSTATE: tidak ada yang ditetapkan
Parameter URL tidak dapat diurai.
FILES_API_CATALOG_NOT_FOUND
SQLSTATE: tidak ada yang ditetapkan
<unity_catalog_error_message>
FILES_API_CLOUD_RESOURCE_EXHAUSTED
SQLSTATE: tidak ada yang ditetapkan
<message>
FILES_API_CLOUD_STORAGE_PROVIDER_CONNECTION_ISSUE
SQLSTATE: tidak ada yang ditetapkan
Ada masalah koneksi untuk mencapai <cloud_storage_provider>. Silakan coba lagi nanti.
FILES_API_COLON_IS_NOT_SUPPORTED_IN_PATH
SQLSTATE: tidak ada yang ditetapkan
karakter ':' tidak didukung di path
FILES_API_CONSUMER_NETWORK_ZONE_NOT_ALLOWED
SQLSTATE: tidak ada yang ditetapkan
Zona jaringan konsumen "<consumer_network_zone>" tidak diizinkan dari zona jaringan pemohon "<requester_network_zone>".
FILES_API_CONTROL_PLANE_NETWORK_ZONE_NOT_ALLOWED
SQLSTATE: tidak ada yang ditetapkan
Zona jaringan pesawat kendali Databricks tidak diizinkan.
BERKAS_API_KREDENSIAL_TIDAK_DITEMUKAN
SQLSTATE: tidak ada yang ditetapkan
Kredensial tidak ditemukan.
FILES_API_DIRECTORIES_CANNOT_HAVE_BODIES
SQLSTATE: tidak ada yang ditetapkan
Sebuah isi telah disediakan tetapi direktori tidak dapat memiliki isi berkas
FILES_API_DIRECTORY_IS_NOT_EMPTY
SQLSTATE: tidak ada yang ditetapkan
Direktori tidak kosong. Operasi ini tidak didukung pada direktori yang tidak kosong.
FILES_API_DIRECTORY_IS_NOT_FOUND
SQLSTATE: tidak ada yang ditetapkan
Direktori yang sedang diakses tidak ditemukan.
BATAS UKURAN FILE ZIP UNDuhan DIREKTORI FILES_API DILAMPAUI
SQLSTATE: tidak ada yang ditetapkan
Direktori berisi terlalu banyak file untuk unduhan ZIP. File maksimum <max_file_count> yang diizinkan.
FILES_API_DMK_ENCRYPTION_ROOT_KEY_DISABLED
SQLSTATE: tidak ada yang ditetapkan
Kunci akar untuk enkripsi yang dikelola pelanggan dinonaktifkan.
FILES_API_DUPLICATED_HEADER
SQLSTATE: tidak ada yang ditetapkan
Permintaan berisi beberapa salinan header yang hanya diizinkan sekali.
FILES_API_DUPLICATE_QUERY_PARAMETER
SQLSTATE: tidak ada yang ditetapkan
Parameter kueri '<parameter_name>' harus ada tepat sekali tetapi disediakan beberapa kali.
FILES_API_EMPTY_BUCKET_NAME
SQLSTATE: tidak ada yang ditetapkan
Nama bucket DBFS kosong.
FILES_API_ENCRYPTION_KEY_PERMISSION_DENIED
SQLSTATE: tidak ada yang ditetapkan
Pengguna tidak memiliki akses ke kunci enkripsi.
FILES_API_ENCRYPTION_KEY_RETRIEVAL_OPERATION_TIMEOUT
SQLSTATE: tidak ada yang ditetapkan
Operasi untuk mengambil kunci enkripsi tidak dapat diselesaikan dalam waktu yang diizinkan.
FILES_API_ENTITY_TOO_LARGE
SQLSTATE: tidak ada yang ditetapkan
Objek Anda melebihi ukuran objek maksimum yang diizinkan.
FILES_API_ERROR_EXPIRED_TTL
SQLSTATE: tidak ada yang ditetapkan
TTL telah kedaluwarsa.
FILES_API_ERROR_INVALID_TTL
SQLSTATE: tidak ada yang ditetapkan
TTL tidak valid.
FILES_API_ERROR_KEY_FOR_WORKSPACE_IS_NOT_FOUND
SQLSTATE: tidak ada yang ditetapkan
Kunci untuk ruang kerja tidak ditemukan.
FILES_API_ERROR_MISSING_REQUIRED_PARAM
SQLSTATE: tidak ada yang ditetapkan
URL tidak memiliki parameter yang diperlukan.
FILES_API_ERROR_TTL_IN_THE_FUTURE
SQLSTATE: tidak ada yang ditetapkan
TTL adalah untuk masa depan.
FILES_API_ERROR_URL_INVALID_ISSUER_SHARD_NAME
SQLSTATE: tidak ada yang ditetapkan
Nama shard penerbit tidak valid.
FILES_API_EXPIRATION_TIME_MUST_BE_PRESENT
SQLSTATE: tidak ada yang ditetapkan
waktu kedaluwarsa harus ada
FILES_API_EXPIRED_TOKEN
SQLSTATE: tidak ada yang ditetapkan
Token yang disediakan telah kedaluwarsa.
FILES_API_EXPIRE_TIME_MUST_BE_IN_THE_FUTURE
SQLSTATE: tidak ada yang ditetapkan
Waktu kedaluwarsa harus di masa depan
FILES_API_EXPIRE_TIME_TOO_FAR_IN_FUTURE
SQLSTATE: tidak ada yang ditetapkan
TTL yang diminta lebih lama dari yang didukung (1 jam)
FILES_API_EXTERNAL_LOCATION_PATH_OVERLAP_OTHER_UC_STORAGE_ENTITY
SQLSTATE: tidak ada yang ditetapkan
<unity_catalog_error_message>
FILES_API_FILE_ALREADY_EXISTS
SQLSTATE: tidak ada yang ditetapkan
File yang sedang dibuat sudah ada.
FILES_API_FILE_NOT_FOUND
SQLSTATE: tidak ada yang ditetapkan
File yang sedang diakses tidak ditemukan.
FILES_API_FILE_OR_DIRECTORY_ENDS_IN_DOT
SQLSTATE: tidak ada yang ditetapkan
File atau direktori yang berakhiran karakter '.' tidak didukung.
FILES_API_FILE_SIZE_EXCEEDED
SQLSTATE: tidak ada yang ditetapkan
Ukuran file tidak boleh melebihi <max_download_size_in_bytes> byte, tetapi <size_in_bytes> byte ditemukan.
FILES_API_GCP_ACCOUNT_IS_DISABLED
SQLSTATE: tidak ada yang ditetapkan
Akses ke wadah penyimpanan telah dinonaktifkan di GCP.
FILES_API_GCP_BUCKET_DOES_NOT_EXIST
SQLSTATE: tidak ada yang ditetapkan
Wadah penyimpanan tidak ada di GCP.
FILES_API_GCP_FORBIDDEN
SQLSTATE: tidak ada yang ditetapkan
Akses ke wadah dilarang oleh GCP.
FILES_API_GCP_IAM_AUTHENTICATION_FAILURE
SQLSTATE: tidak ada yang ditetapkan
Autentikasi gagal untuk operasi IAM GCP.
FILES_API_GCP_IAM_CREDENTIALS_NOT_FOUND
SQLSTATE: tidak ada yang ditetapkan
Kredensial GCP yang ditentukan tidak ada atau tidak dapat diakses.
FILES_API_GCP_IAM_PERMISSION_DENIED
SQLSTATE: tidak ada yang ditetapkan
Izin ditolak untuk operasi IAM GCP.
FILES_API_GCP_KEY_DELETED
SQLSTATE: tidak ada yang ditetapkan
Kunci enkripsi telah dihapus atau tidak lagi dapat diakses.
FILES_API_GCP_KEY_DISABLED_OR_DESTROYED
SQLSTATE: tidak ada yang ditetapkan
Kunci enkripsi yang dikelola pelanggan yang dikonfigurasi untuk lokasi tersebut dinonaktifkan atau dihancurkan.
FILES_API_GCP_REQUEST_IS_PROHIBITED_BY_POLICY
SQLSTATE: tidak ada yang ditetapkan
Permintaan GCP ke bucket diblokir oleh kebijakan, periksa pengaturan layanan VPC.
MASALAH_AKUN_PROYEK_PENGGUNA_FILES_API_GCP
SQLSTATE: tidak ada yang ditetapkan
Ada masalah dengan proyek GCP yang digunakan dalam permintaan yang mencegah operasi berhasil diselesaikan.
FILES_API_HOST_TEMPORARILY_NOT_AVAILABLE
SQLSTATE: tidak ada yang ditetapkan
Host penyedia cloud untuk sementara tidak tersedia; silakan coba lagi nanti.
FILES_API_PANJANG_KONTEN_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
Nilai header panjang konten harus berupa bilangan bulat yang lebih besar dari atau sama dengan 0.
FILES_API_INVALID_CONTINUATION_TOKEN
SQLSTATE: tidak ada yang ditetapkan
Token halaman yang disediakan tidak valid.
FILES_API_INVALID_HEADER_VALUE
SQLSTATE: tidak ada yang ditetapkan
Nilai header '<header_name>' tidak valid.
FILES_API_INVALID_HOSTNAME
SQLSTATE: tidak ada yang ditetapkan
Nama host tidak valid.
FILES_API_INVALID_HTTP_METHOD
SQLSTATE: tidak ada yang ditetapkan
Metode http tidak valid. Diharapkan '<expected>' tetapi mendapatkan '<actual>'.
FILES_API_INVALID_METASTORE_ID_HEADER
SQLSTATE: tidak ada yang ditetapkan
ID header metastore tidak valid.
FILES_API_INVALID_PAGE_TOKEN
SQLSTATE: tidak ada yang ditetapkan
token halaman tidak valid
FILES_API_INVALID_PATH
SQLSTATE: tidak ada yang ditetapkan
Jalur tidak valid: <validation_error>
FILES_API_INVALID_RANGE
SQLSTATE: tidak ada yang ditetapkan
Header range tidak valid.
FILES_API_INVALID_RESOURCE_FULL_NAME
SQLSTATE: tidak ada yang ditetapkan
<unity_catalog_error_message>
FILES_API_INVALID_SESSION_TOKEN
SQLSTATE: tidak ada yang ditetapkan
Token sesi tidak valid
FILES_API_INVALID_SESSION_TOKEN_TYPE
SQLSTATE: tidak ada yang ditetapkan
Jenis token sesi tidak valid. Diharapkan '<expected>' tetapi mendapatkan '<actual>'.
FILES_API_INVALID_TIMESTAMP
SQLSTATE: tidak ada yang ditetapkan
Tanda waktu tidak valid.
FILES_API_INVALID_UPLOAD_TYPE
SQLSTATE: tidak ada yang ditetapkan
Jenis unggahan tidak valid. Diharapkan '<expected>' tetapi mendapatkan '<actual>'.
FILES_API_INVALID_URL (URL TIDAK VALID)
SQLSTATE: tidak ada yang ditetapkan
URL tidak valid
FILES_API_INVALID_URL_PARAMETER
SQLSTATE: tidak ada yang ditetapkan
URL yang diteruskan sebagai parameter tidak valid
FILES_API_INVALID_VALUE_FOR_OVERWRITE_QUERY_PARAMETER
SQLSTATE: tidak ada yang ditetapkan
Parameter kueri 'overwrite' harus salah satu dari: true,false namun ternyata: <got_values>
FILES_API_INVALID_VALUE_FOR_QUERY_PARAMETER
SQLSTATE: tidak ada yang ditetapkan
Parameter kueri '<parameter_name>' harus salah satu dari: <expected> tetapi adalah: <actual>
FILES_API_MALFORMED_REQUEST_BODY
SQLSTATE: tidak ada yang ditetapkan
Isi permintaan cacat
FILES_API_MANAGED_CATALOG_FEATURE_DISABLED
SQLSTATE: tidak ada yang ditetapkan
<unity_catalog_error_message>
FILES_API_METASTORE_NOT_FOUND
SQLSTATE: tidak ada yang ditetapkan
<unity_catalog_error_message>
FILES_API_METHOD_IS_NOT_ENABLED_FOR_JOBS_BACKGROUND_COMPUTE_ARTIFACT_STORAGE
SQLSTATE: tidak ada yang ditetapkan
Metode API File yang diminta tidak didukung untuk Penyimpanan Artefak Komputasi Latar Belakang Pekerjaan.
FILES_API_MISSING_CONTENT_LENGTH
SQLSTATE: tidak ada yang ditetapkan
Header panjang konten diperlukan dalam permintaan.
FILES_API_MISSING_QUERY_PARAMETER
SQLSTATE: tidak ada yang ditetapkan
Parameter kueri '<parameter_name>' diperlukan tetapi hilang dari permintaan.
FILES_API_MISSING_REQUIRED_PARAMETER_IN_REQUEST
SQLSTATE: tidak ada yang ditetapkan
Permintaan tidak memiliki parameter yang diperlukan.
FILES_API_MLFLOW_PERMISSION_DENIED
SQLSTATE: tidak ada yang ditetapkan
<mlflow_error_message>
FILES_API_MLFLOW_RESOURCE_EXHAUSTED
SQLSTATE: tidak ada yang ditetapkan
Batas permintaan terlampaui saat berkomunikasi dengan layanan mlflow.
FILES_API_MODEL_VERSION_IS_NOT_READY
SQLSTATE: tidak ada yang ditetapkan
Versi model belum siap
FILES_API_MULTIPART_UPLOAD_ABORT_PRESIGNED_URL_NOT_SUPPORTED
SQLSTATE: tidak ada yang ditetapkan
URL yang telah ditetapkan sebelumnya untuk membatalkan unggahan multibagian tidak didukung untuk file yang disimpan di <cloud_storage_provider>.
FILES_API_MULTIPART_UPLOAD_ABORT_UPLOAD_NOT_SUPPORTED
SQLSTATE: tidak ada yang ditetapkan
Membatalkan unggahan multipihak tidak didukung untuk file yang disimpan di <cloud_storage_provider>.
FILES_API_MULTIPART_UPLOAD_EMPTY_PART_LIST
SQLSTATE: tidak ada yang ditetapkan
Daftar bagian harus memiliki setidaknya satu elemen tetapi kosong.
FILES_API_MULTIPART_UPLOAD_INVALID_PART
SQLSTATE: tidak ada yang ditetapkan
Satu atau beberapa bagian yang ditentukan tidak dapat ditemukan. Bagian mungkin belum diunggah, atau tag entitas yang ditentukan mungkin tidak cocok dengan tag entitas bagian.
FILES_API_MULTIPART_UPLOAD_INVALID_PART_NUMBER
SQLSTATE: tidak ada yang ditetapkan
Angka bagian harus lebih besar dari atau sama dengan <min> dan lebih kecil dari atau sama dengan <max>.
FILES_API_MULTIPART_UPLOAD_MISSING_ETAG
SQLSTATE: tidak ada yang ditetapkan
ETag harus disediakan untuk file yang disimpan di <cloud_storage_provider>. Setidaknya satu ETag tidak disediakan atau kosong.
FILES_API_MULTIPART_UPLOAD_MODIFIED_STORAGE_ENTITY_STATE
SQLSTATE: tidak ada yang ditetapkan
Status internal entitas penyimpanan telah dimodifikasi sejak unggahan dimulai, misalnya, karena jalur file tidak menunjuk ke lokasi penyimpanan cloud yang mendasar yang sama. Lanjutkan dengan memulai sesi pengunggahan baru.
FILES_API_MULTIPART_UPLOAD_NON_TRAILING_PARTS_WITH_DIFFERENT_SIZES
SQLSTATE: tidak ada yang ditetapkan
Bagian yang diunggah sebagai bagian dari sesi pengunggahan multibagian harus berukuran sama untuk file yang disimpan di <cloud_storage_provider>, kecuali untuk bagian terakhir yang bisa lebih kecil.
FILES_API_MULTIPART_UPLOAD_PART_SIZE_OUT_OF_RANGE
SQLSTATE: tidak ada yang ditetapkan
Ukuran bagian yang diunggah sebagai bagian dari sesi pengunggahan multibagian harus lebih besar dari atau sama dengan <min> dan lebih kecil dari atau sama dengan <max>.
FILES_API_MULTIPART_UPLOAD_SESSION_NOT_FOUND
SQLSTATE: tidak ada yang ditetapkan
Sesi unggahan tidak ditemukan. Ini mungkin telah dibatalkan atau diselesaikan.
FILES_API_MULTIPART_UPLOAD_UNORDERED_PART_LIST
SQLSTATE: tidak ada yang ditetapkan
Daftar bagian harus diurutkan berdasarkan nomor bagian tetapi tidak diurutkan.
FILE_API_PANJANG_KONTEN_TIDAK_NOL
SQLSTATE: tidak ada yang ditetapkan
Header panjang konten harus nol untuk permintaan ini.
FILES_API_NOT_ENABLED_FOR_PLACE
SQLSTATE: tidak ada yang ditetapkan
FILES API untuk <place> tidak diaktifkan untuk ruang kerja/akun ini
FILES_API_NOT_SUPPORTED_FOR_INTERNAL_WORKSPACE_STORAGE
SQLSTATE: tidak ada yang ditetapkan
Metode FILES API yang diminta tidak didukung untuk Penyimpanan Ruang Kerja Internal
FILES_API_OPERATION_MUST_BE_PRESENT
SQLSTATE: tidak ada yang ditetapkan
operasi harus ada
FILES_API_OPERATION_TIMEOUT
SQLSTATE: tidak ada yang ditetapkan
Waktu operasi habis.
FILES_API_PAGE_SIZE_MUST_BE_GREATER_OR_EQUAL_TO_ZERO
SQLSTATE: tidak ada yang ditetapkan
page_size harus lebih besar dari atau sama dengan 0
AKSES_BERBASIS_JALUR_DARI_FILES_API_KE_TABEL_DENGAN_FILTER_TIDAK_DIIJINKAN
SQLSTATE: tidak ada yang ditetapkan
<unity_catalog_error_message>
FILES_API_PATH_END_WITH_A_SLASH
SQLSTATE: tidak ada yang ditetapkan
Jalur yang berakhiran karakter '/' mewakili direktori. API ini tidak mendukung operasi pada direktori.
FILES_API_PATH_IS_A_DIRECTORY
SQLSTATE: tidak ada yang ditetapkan
Jalur yang diberikan menunjuk ke direktori yang ada. API ini tidak mendukung operasi pada direktori.
FILES_API_PATH_IS_A_FILE
SQLSTATE: tidak ada yang ditetapkan
Jalur yang diberikan menunjuk ke file yang ada. API ini tidak mendukung operasi pada file.
FILES_API_PATH_IS_NOT_A_VALID_UTF8_ENCODED_URL
SQLSTATE: tidak ada yang ditetapkan
jalur yang diberikan bukan URL yang dikodekan UTF-8 yang valid
FILES_API_PATH_IS_NOT_ENABLED_FOR_DATAPLANE_PROXY
SQLSTATE: tidak ada yang ditetapkan
Jalur yang diberikan tidak diizinkan untuk proksi bidang data
FILES_API_PATH_MUST_BE_PRESENT
SQLSTATE: tidak ada yang ditetapkan
jalur harus tersedia
FILES_API_PATH_NOT_SUPPORTED
SQLSTATE: tidak ada yang ditetapkan
<rejection_message>
FILES_API_PATH_TOO_LONG
SQLSTATE: tidak ada yang ditetapkan
Jalur file yang disediakan terlalu panjang.
FILES_API_PRECONDITION_FAILED
SQLSTATE: tidak ada yang ditetapkan
Permintaan gagal karena prasyarat.
FILES_API_PRESIGNED_URLS_FOR_MODELS_NOT_SUPPORTED
SQLSTATE: tidak ada yang ditetapkan
FILE API untuk URL yang telah ditandatangani untuk model tidak didukung saat ini
FILES_API_R2_CREDENTIALS_DISABLED
SQLSTATE: tidak ada yang ditetapkan
R2 tidak didukung saat ini.
FILES_API_RANGE_NOT_SATISFIABLE
SQLSTATE: tidak ada yang ditetapkan
Rentang yang diminta tidak terpenuhi.
FILES_API_RECURSIVE_LIST_IS_NOT_SUPPORTED
SQLSTATE: tidak ada yang ditetapkan
Mencantumkan file secara rekursif tidak dapat dilakukan.
FILES_API_REQUESTER_NETWORK_ZONE_UNKNOWN
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat menyimpulkan zona jaringan pemohon.
FILES_API_REQUEST_GOT_ROUTED_INCORRECTLY
SQLSTATE: tidak ada yang ditetapkan
Permintaan dirutekan dengan tidak benar
FILES_API_REQUEST_MUST_INCLUDE_ACCOUNT_INFORMATION
SQLSTATE: tidak ada yang ditetapkan
Permintaan harus menyertakan informasi akun
PERMINTAAN FILES_API HARUS MENYERTAKAN INFORMASI PENERIMA
SQLSTATE: tidak ada yang ditetapkan
Permintaan harus menyertakan informasi penerima.
FILES_API_REQUEST_MUST_INCLUDE_USER_INFORMATION
SQLSTATE: tidak ada yang ditetapkan
Permintaan harus menyertakan informasi pengguna
FILES_API_REQUEST_MUST_INCLUDE_WORKSPACE_INFORMATION
SQLSTATE: tidak ada yang ditetapkan
Permintaan harus menyertakan informasi ruang kerja
FILES_API_RESOURCE_IS_READONLY
SQLSTATE: tidak ada yang ditetapkan
Sumber daya ini hanya dapat dibaca.
FILES_API_RESOURCE_NOT_FOUND
SQLSTATE: tidak ada yang ditetapkan
<unity_catalog_error_message>
FILES_API_SCHEMA_NOT_FOUND
SQLSTATE: tidak ada yang ditetapkan
<unity_catalog_error_message>
FILES_API_SECURE_URL_CANT_BE_ACCESSED
SQLSTATE: tidak ada yang ditetapkan
URL tidak dapat diakses.
FILES_API_SIGNATURE_VERIFICATION_FAILED
SQLSTATE: tidak ada yang ditetapkan
Verifikasi tanda tangan gagal.
KONTEKS_AKSES_PENYIMPANAN_API_BERKAS_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
Konteks akses penyimpanan tidak valid.
FILES_API_STORAGE_CONTEXT_IS_NOT_SET
SQLSTATE: tidak ada yang ditetapkan
Konfigurasi penyimpanan untuk ruang kerja ini tidak dapat diakses.
FILES_API_STORAGE_CREDENTIAL_NOT_FOUND
SQLSTATE: tidak ada yang ditetapkan
<unity_catalog_error_message>
FILES_API_TABLE_TYPE_NOT_SUPPORTED
SQLSTATE: tidak ada yang ditetapkan
FILES API tidak didukung untuk <table_type>
FILES_API_UC_AUTHENTICATION_FAILURE
SQLSTATE: tidak ada yang ditetapkan
<unity_catalog_error_message>
FILES_API_UC_IAM_ROLE_NON_SELF_ASSUMING
SQLSTATE: tidak ada yang ditetapkan
<unity_catalog_error_message>
FILES_API_UC_MODEL_INVALID_STATE
SQLSTATE: tidak ada yang ditetapkan
<unity_catalog_error_message>
FILES_API_UC_PERMISSION_DENIED
SQLSTATE: tidak ada yang ditetapkan
<unity_catalog_error_message>
FILES_API_UC_RESOURCE_EXHAUSTED
SQLSTATE: tidak ada yang ditetapkan
<message>
FILES_API_UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH
SQLSTATE: tidak ada yang ditetapkan
<unity_catalog_error_message>
FILES_API_UC_VOLUME_NAME_CHANGED
SQLSTATE: tidak ada yang ditetapkan
<unity_catalog_error_message>
FILES_API_TIDAK_DAPAT_MEMPERBARUI_IDENTITAS_TERKELOLA_AZURE
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat memperbarui identitas terkelola Azure.
FILES_API_UNEXPECTED_ERROR_WHILE_PARSING_URI
SQLSTATE: tidak ada yang ditetapkan
Kesalahan tak terduga saat mengurai URI
FILES_API_UNEXPECTED_QUERY_PARAMETERS
SQLSTATE: tidak ada yang ditetapkan
Parameter kueri tak terduga: <unexpected_query_parameters>
FILES_API_UNKNOWN_METHOD
SQLSTATE: tidak ada yang ditetapkan
Metode yang tidak diketahui <method>
FILES_API_UNKNOWN_SERVER_ERROR
SQLSTATE: tidak ada yang ditetapkan
Kesalahan server tidak diketahui.
FILES_API_UNKNOWN_URL_HOST
SQLSTATE: tidak ada yang ditetapkan
Host URL tidak diketahui.
FILES_API_UNSUPPORTED_AUTHENTICATION_METHOD
SQLSTATE: tidak ada yang ditetapkan
Permintaan tidak diautentikasi dengan benar.
FILES_API_UNSUPPORTED_HTTP_METHOD
SQLSTATE: tidak ada yang ditetapkan
HttpMethod tidak didukung.
FILES_API_UNSUPPORTED_PARAMETERS_COMBINATION
SQLSTATE: tidak ada yang ditetapkan
Kombinasi parameter tidak didukung.
FILES_API_UNSUPPORTED_PATH
SQLSTATE: tidak ada yang ditetapkan
Jalur yang disediakan tidak didukung oleh FILES API. Pastikan jalur yang disediakan tidak berisi instans '.. /' atau urutan './'. Pastikan jalur yang disediakan tidak menggunakan beberapa garis miring berturut-turut (misalnya, '///').
FILES_API_UPLOAD_PART_URLS_COUNT_MUST_BE_GREATER_THAN_ZERO
SQLSTATE: tidak ada yang ditetapkan
Parameter input 'count' harus lebih besar dari 0.
FILES_API_URL_GENERATION_DISABLED
SQLSTATE: tidak ada yang ditetapkan
Pembuatan URL yang telah ditetapkan sebelumnya tidak diaktifkan untuk <cloud>.
FILES_API_VOLUME_TYPE_NOT_SUPPORTED
SQLSTATE: tidak ada yang ditetapkan
FILES API tidak didukung untuk <volume_type>.
FILES_API_WORKSPACE_IS_CANCELED
SQLSTATE: tidak ada yang ditetapkan
Ruang kerja telah dibatalkan.
FILES_API_WORKSPACE_IS_NOT_FOUND
SQLSTATE: tidak ada yang ditetapkan
Konfigurasi penyimpanan untuk ruang kerja ini tidak dapat diakses.
Alur Deklaratif Lakeflow Spark
KEBIJAKAN_ABAC_TIDAK_DIDUKUNG
Kebijakan ABAC tidak didukung pada tabel yang ditentukan dalam pipelin.
Hapus kebijakan atau hubungi dukungan Databricks.
Penghentian Pengemudi yang Tidak Normal
Driver pada kluster <clusterId> dihentikan secara abnormal karena <terminationCause>. Silakan periksa log driver untuk detail lebih lanjut.
ACTIVE_UPDATE_EXISTS_FOR_LINKED_PIPELINE
Pembaruan aktif '<updateId>' sudah ada untuk alur tertaut '<linkedPipelineId>'.
ACTIVE_UPDATE_EXISTS_FOR_PIPELINE
Pembaruan aktif '<updateId>' sudah ada untuk alur '<pipelineId>'.
ALTER_NOT_ALLOWED_FOR_PIPELINE_TABLE
ALTER tidak diperbolehkan pada tabel yang dikelola oleh
Untuk detail selengkapnya, lihat ALTER_NOT_ALLOWED_FOR_PIPELINE_TABLE
ALTER_SCHEDULE_SCHEDULE_DOES_NOT_EXIST
Tidak dapat memodifikasi <type> pada tabel tanpa jadwal atau pemicu yang ada. Tambahkan jadwal atau pemicu ke tabel sebelum mencoba mengubahnya.
API_QUOTA_EXCEEDED
Anda telah melebihi kuota API untuk sumber data <sourceName>.
Untuk informasi selengkapnya, lihat API_QUOTA_EXCEEDED
APPLY_CHANGES_ERROR
Terjadi kesalahan selama operasi AUTO CDC.
Untuk detail selengkapnya, lihat APPLY_CHANGES_ERROR
APPLY_CHANGES_FROM_SNAPSHOT_ERROR
Terjadi kesalahan selama operasi AUTO CDC FROM SNAPSHOT.
Untuk detail selengkapnya, lihat APPLY_CHANGES_FROM_SNAPSHOT_ERROR
APPLY_CHANGES_FROM_SNAPSHOT_EXPECTATIONS_NOT_SUPPORTED
Himpunan data <datasetName> memiliki ekspektasi yang ditentukan, tetapi ekspektasi saat ini tidak didukung untuk himpunan data menggunakan AUTO CDC FROM SNAPSHOT.
Hapus harapan untuk mengatasi kesalahan ini. Sebagai alternatif, pertimbangkan untuk menggunakan struktur berikut untuk menerapkan ekspektasi dengan menggabungkan AUTO CDC dan AUTO CDC FROM SNAPSHOT:
Terapkan perubahan dari rekam jepret menggunakan SCD jenis 1 ke tabel perantara tanpa ekspektasi.
Baca perubahan dari tabel perantara menggunakan
spark.readStream.option("readChangeFeed", "true").table.Terapkan perubahan dari tabel perantara ke tabel target akhir menggunakan
dlt.apply_changesdengan parameter berikut selain yang saat ini digunakan dengandlt.apply_changes_from_snapshot:
Untuk menangani perubahan:
apply_as_deletes = "_change_type == 'delete'"Untuk menghapus kolom yang ditambahkan oleh CDF:
except_column_list = ["_change_type", "_commit_version", "_commit_timestamp"]
- Sertakan serangkaian ekspektasi saat ini pada tabel target akhir yang digunakan untuk
dlt.apply_changes.
APPLY_CHANGES_PARTIAL_UPDATES_NOT_ENABLED
Fitur COLUMNS hingga UPDATE dalam pratinjau dan tidak diaktifkan untuk ruang kerja Anda. Silakan hubungi perwakilan Databricks Anda untuk mempelajari lebih lanjut tentang fitur ini dan mengakses pratinjau privat.
TERAPKAN_KLUSTER_LINGKUNGAN_TIDAK_TERSEDIA
Komputasi alur untuk <pipelineId> tidak tersedia. Komputasi alur mungkin telah berhenti atau mungkin masih dimulai.
Silakan coba lagi nanti ketika komputasi sepenuhnya tersedia. Jika masalah berlanjut, silakan hubungi dukungan Databricks.
Terapkan_Lingkungan_Kluster_Tidak_Ditemukan
Komputasi alur untuk <pipelineId> tidak ditemukan. Komputasi alur ini mungkin belum pernah dimulai atau telah berhenti. Silakan mulai alur
sebelum menerapkan lingkungan.
LINGKUNGAN_APLIKASI_TIDAK_DIDUKUNG
Titik akhir ApplyEnvironment tidak didukung.
ARCHITECTURE_MIGRATION_FAILURE
Untuk informasi lebih lengkap, lihat ARCHITECTURE_MIGRATION_FAILURE
ARCLIGHT_REQUIRES_SERVERLESS
Alur yang menargetkan katalog menggunakan Penyimpanan Default harus menggunakan komputasi tanpa server. Jika Anda tidak memiliki akses ke komputasi tanpa server, silakan hubungi Databricks untuk mengaktifkan fitur ini untuk ruang kerja Anda.
AUTO_FULL_REFRESH_DISABLED
Refresh Penuh Otomatis dinonaktifkan untuk tabel <tableName>.
AUTO_FULL_REFRESH_NOT_ALLOWED
Refresh Penuh Otomatis gagal untuk tabel <tableName> karena <reason>.
AUTO_FULL_REFRESH_THROTTLED
Refresh Penuh Otomatis gagal. Tabel <tableName> disegarkan secara otomatis penuh pada <timestamp> interval minimum sebelum refresh penuh otomatis berikutnya adalah: <minInterval> menit.
AZURE_ACTIVE_DIRECTORY_AUTHENTICATION_FAILED
Autentikasi Azure Active Directory gagal (AADSTS5000224).
ID Jejak: <traceId>, ID Korelasi: <correlationId>.
Verifikasi bahwa Azure Active Directory dikonfigurasi dan dapat diakses dengan benar. Hubungi dukungan Microsoft jika masalah berlanjut.
AZURE_MANAGED_IDENTITY_CREDENTIAL_NOT_FOUND
Kredensial Identitas Terkelola Azure dengan Id <accessConnectorId> Konektor Akses tidak ditemukan untuk akun <accountId>.
Verifikasi bahwa kredensial ada dan dikonfigurasi dengan benar.
AZURE_STORAGE_HOSTNAME_RESOLUTION_FAILED
Gagal mengatasi nama host penyimpanan Azure: <hostname>.
Periksa apakah DNS dikonfigurasi dengan benar dan akun penyimpanan dapat diakses dari jaringan Anda.
AZURE_STORAGE_REQUEST_NOT_AUTHORIZED
Permintaan ke penyimpanan Azure tidak diotorisasi oleh perimeter keamanan jaringan.
Verifikasi bahwa penyimpanan dikonfigurasi dan dapat diakses dengan benar.
KATALOG SUMBER PENYAMBUNG DATA BIGQUERY HILANG
Terjadi kesalahan di konektor data BigQuery.
'katalog sumber data' (ID Proyek GCP) hilang dalam spesifikasi pengumpulan data Anda.
Tentukan katalog sumber (ID proyek) dalam spesifikasi penyerapan Anda untuk mengatasi masalah ini.
CANNOT_ADD_COLUMN_TO_INCLUDE_COLUMNS
Kolom baru (<columnNames>) ditambahkan ke bidang include_columns dalam definisi alur untuk tabel <qualifiedTableName>. Silakan refresh penuh tabel untuk menghindari potensi kehilangan data atau menghapus kolom ini dari include_columns.
CANNOT_ADD_STORAGE_LOCATION
Tidak dapat menambahkan lokasi penyimpanan ke alur yang sudah ada dengan katalog yang ditentukan, jika Anda ingin mengatur lokasi penyimpanan buat alur baru.
Katalog yang ada: '<catalog>'.
Lokasi penyimpanan yang diminta: <storageLocation>.
CANNOT_COMPOSE_DECORATOR
SQLSTATE: tidak ada yang ditetapkan
Dekorator @<decoratorName> tidak dapat disusun dengan <otherDecorators>.
CANNOT_EXCLUDE_NON_EXISTENT_COLUMN
Definisi alur mengecualikan kolom (<columnNames>) yang tidak ada dalam tabel <qualifiedTableName> sumber <sourceType>. Hapus kolom ini dari bidang exclude_columns.
CANNOT_FILTER_OUT_REQUIRED_COLUMN
Definisi alur tidak menyertakan kolom yang diperlukan (<columnNames>) dalam tabel <qualifiedTableName><sourceType> sumber untuk penyerapan. Silakan tambahkan mereka ke include_columns atau hapus dari exclude_columns.
CANNOT_INCLUDE_NON_EXISTENT_COLUMN
Definisi alur mencakup kolom (<columnNames>) yang tidak ada atau tidak dapat diakses dalam tabel <qualifiedTableName> sumber <sourceType>. Hapus kolom ini dari bidang include_columns.
CANNOT_INGEST_TABLE_WITHOUT_PRIMARY_KEY
Tabel <qualifiedTableName> di <sourceType> sumber tidak memiliki kunci utama.
Tentukan kunci primer dalam konfigurasi konektor untuk memasukkan tabel jika kunci itu ada.
CANNOT_MODIFY_PIPELINE_OWNER_FOR_UC_PIPELINES
Mengubah pemilik untuk alur non-UC belum didukung.
CANNOT_MODIFY_PIPELINE_OWNER_PERMISSION_DENIED
Hanya admin ruang kerja yang dapat mengubah pemilik pipeline.
CANNOT_MODIFY_PIPELINE_OWNER_WHEN_MISSING
Tidak ada pemilik baru
CANNOT_MODIFY_PIPELINE_TYPE
pipeline_type tidak dapat diperbarui.
Tipe jalur saat ini: <currentPipelineType>.
Pipeline_type yang diperbarui: <requestedPipelineType>.
CANNOT_MODIFY_STORAGE_LOCATION
Tidak dapat mengubah lokasi penyimpanan pipeline yang sudah ada.
Lokasi penyimpanan yang ada: '<existingStorageLocation>'.
Lokasi penyimpanan yang diminta: <requestedStorageLocation>.
CANNOT_REMOVE_COLUMN_FROM_EXCLUDE_COLUMNS
Kolom (<columnNames>) dihapus dari bidang exclude_columns dalam definisi alur untuk tabel <qualifiedTableName>. Silakan refresh penuh tabel untuk menghindari potensi kehilangan data atau menambahkan kolom ini kembali ke exclude_columns.
CANNOT_SET_CATALOG_FOR_HMS_PIPELINE
Tidak dapat menambahkan katalog ke alur yang sudah ada dengan lokasi penyimpanan yang ditentukan, jika Anda ingin menggunakan UC buat alur baru dan atur katalog.
Lokasi penyimpanan yang ada: '<storageLocation>'
Katalog yang diminta: '<catalog>'
CANNOT_SET_LINKED_PIPELINE_ID
ID pipeline sama, menyetel ID pipeline yang ditautkan akan menyebabkan kebuntuan.
CANNOT_SET_SCHEMA_FOR_EXISTING_PIPELINE
Bidang 'skema' yang ditentukan dalam pengaturan alur untuk alur '<pipelineName>' ilegal. Reason:
Untuk detail selengkapnya, lihat CANNOT_SET_SCHEMA_FOR_EXISTING_PIPELINE
TIDAK_BISA_DIATUR_BERSAMA-SAMA
SQLSTATE: tidak ada yang ditetapkan
<argList> saling eksklusif dan tidak dapat diatur bersama-sama.
CANNOT_SPECIFY_BOTH_INCLUDE_EXCLUDE_COLUMNS
Definisi pipeline menentukan kolom_include dan kolom_exclude untuk <identifier>. Silakan hapus salah satunya.
CANNOT_UPDATE_CLUSTERING_COLUMNS
Tidak dapat memperbarui kolom pengklusteran untuk tabel <tableName> karena menggunakan kolom partisi. Tabel dapat menggunakan kolom partisi atau kolom pengklusteran, tetapi tidak keduanya.
Untuk beralih antara pengelompokan cair dan partisi, lakukan refresh penuh tabel ini.
CANNOT_UPDATE_PARTITION_COLUMNS
Tidak dapat memperbarui kolom partisi untuk tabel streaming <tableName>.
Saat ini: <existingPartitionColumns>,
Diminta: <requestedPartitionColumns>
Untuk menerapkan perubahan partisi ini, jalankan pembaharuan penuh dari tabel ini dan tabel streaming lainnya yang memiliki kolom partisi yang diperbarui.
Atau kembalikan perubahan ini untuk terus menggunakan kolom partisi yang ada.
CANNOT_UPDATE_TABLE_SCHEMA
Gagal menggabungkan skema saat ini dan baru untuk tabel <tableName>.
Untuk melanjutkan perubahan skema ini, Anda dapat memicu refresh penuh tabel ini.
Bergantung pada kasus penggunaan dan perubahan skema, Anda mungkin dapat mengaburkan perubahan skema -- Anda dapat memperbarui kueri sehingga skema output kompatibel dengan skema yang ada (misalnya, dengan secara eksplisit mentransmisikan kolom ke jenis data yang benar).
CANNOT_WRITE_TO_INACTIVE_COLUMNS
<details>
Namun, tabel tujuan sudah memiliki kolom tidak aktif dengan nama ini; kolom tidak aktif karena sebelumnya dihapus dari tabel sumber.
Untuk melanjutkan pembaruan, jalankan FULL REFRESH pada tabel.
CANNOT_WRITE_TO_INACTIVE_TABLES
Tabel berikut di tujuan tidak aktif dan bertentangan dengan tabel sumber saat ini: <tables>.
Tabel ini tetap tidak aktif karena sebelumnya dihapus dari sumber atau tidak dipilih dari konektor.
Untuk melanjutkan pembaruan, silakan ubah nama tabel tujuan atau lakukan FULL REFRESH pada tabel ini atau letakkan tabel tidak aktif ini dari tujuan di Catalog Explorer atau melalui DROP TABLE perintah, dan coba lagi pembaruan.
CANNOT_WRITE_TO_TABLES_PENDING_RESET
Tabel berikut di tujuan tidak direset dengan benar dalam refresh penuh sebelumnya: <tables>.
Harap picu refresh penuh untuk memulihkannya.
CATALOG_MAPPING_NOT_AVAILABLE_IN_UC
Katalog UC tidak memiliki pemetaan untuk katalog '<sourceCatalog>'.
Silakan periksa apakah katalog terdaftar di katalog UC.
CATALOG_SCHEMA_MISMATCH_WITH_DESTINATION_PIPELINE
Katalog <destPipelineCatalog> dan skema <destPipelineSchema> alur tujuan dengan ID '<destPipelineId>' tidak cocok dengan katalog dan skema tabel <tableName>. Alur tujuan harus memiliki katalog dan skema yang sama dengan tabel atau alur tujuan harus menggunakan Mode Penerbitan Langsung.
CATALOG_SPEC_UNSUPPORTED
CatalogSpecs saat ini tidak didukung oleh konektor database. Silakan hapus spesifikasi katalog.
CDC_APPLIER_AUTO_FULL_REFRESH_POLICY_MUST_BE_SAME_FOR_ALL_DESTINATION_TABLES
Kebijakan Refresh Penuh Otomatis dari semua tabel tujuan yang tersambung ke tabel sumber yang sama harus sama.
Ubah kebijakan untuk tabel tujuan berikut yang <destinationTables> tersambung ke sumber <sourceTable>.
CDC_APPLIER_COLUMN_UOID_NOT_SUPPORTED
Kolom dengan UOID <columnNames> untuk tabel <tableName> tidak didukung dalam alur penyerapan terkelola CDC.
Silakan periksa apakah alur penyerapan mendukung UOID kolom, atau minta refresh penuh pada tabel.
CDC_APPLIER_FATAL_FAILURE_FROM_GATEWAY
Alur Gateway mengalami kesalahan fatal:
<errorMessage>
Tinjau kegagalan pembaruan alur di sini: <link>.
CDC_APPLIER_INGESTION_GATEWAY_REMOVED
Alur <pipelineId> gateway penyerapan yang ditautkan ke Alur Penyerapan Terkelola telah dihapus.
Silakan hapus alur Penyerapan Terkelola, dan buat alur Penyerapan Gateway dan Penyerapan Terkelola.
CDC_APPLIER_REPLICATED_TABLE_METADATA_NOT_READY
Metadata tabel yang direplikasi untuk tabel <tableName> belum siap.
Tanda waktu permintaan pekerjaan yang ada adalah <existingRequestTs>, tetapi kami harapkan <expectedRequestTs> atau yang lebih baru.
CDC_APPLIER_REQUIRES_ALL_DESTINATION_TABLES_FULL_REFRESH
Refresh penuh pada satu tabel tujuan dan pembaruan reguler pada tabel tujuan lain dari sumber yang sama tidak didukung.
Silakan refresh penuh kedua tabel untuk melanjutkan jika memungkinkan.
Tabel yang diperbarui sepenuhnya: <fullRefreshTables>
Tabel tujuan untuk sumber <sourceTable>: <destinationTables>
CDC_APPLIER_SCHEMA_CHANGED_DURING_STREAMING
Versi skema <dataSchemaVersion> berbeda dengan versi skema baca <readSchemaVersion>.
Alur Deklaratif Lakeflow Spark akan mencoba kembali pembaruan.
CDC_APPLIER_SEQUENCE_BY_COLUMN_NOT_FOUND
Kolom <columnName> untuk tabel <tableName> yang ditentukan dalam sequenceBy tidak ada di <columns>.
CDC_APPLIER_SEQUENCE_BY_INVALID_TYPE
Kolom <columnName> untuk tabel <tableName> yang ditentukan dalam sequenceBy memiliki tipe <typeName> yang tidak didukung.
Jenis yang didukung untuk kolom sequenceBy adalah <allowedTypes>.
CDC_APPLIER_SEQUENCE_BY_MULTIPLE_COLUMNS_NOT_SUPPORTED
Paling banyak satu kolom dapat ditentukan dalam alur penyerapan terkelola CDC sequenceBy.
Kolom yang ditentukan: <columns> untuk tabel <tableName>.
CDC_INCOMPATIBLE_SCHEMA_CHANGES
Kami mengalami perubahan skema yang tidak kompatibel (<cause>) dari versi skema <previousSchemaVersion> ke <currentSchemaVersion>.
Oleh karena itu, kami tidak dapat melanjutkan penerapan perubahan untuk <tableName>. Silakan minta refresh penuh tabel.
Skema sebelumnya: <previousSchema>
Skema saat ini: <currentSchema>
CDC_MULTIPLE_SOURCE_TABLES_MAPPED_TO_SAME_DESTINATION_TABLE
Ditemukan beberapa tabel sumber: <source_tables> dipetakan ke tabel tujuan <destination_table> yang sama.
Silakan petakan ke nama tabel tujuan yang berbeda atau ke skema tujuan yang berbeda.
CDC_POTENTIAL_DATA_GAPS
Tabel berikut [<needFullRefreshTableList>] tidak memiliki pembaruan yang berhasil selama <retention> hari.
Silakan lakukan refresh penuh pada tabel ini atau seluruh alur.
CDC_SAME_TABLE_FROM_MULTIPLE_SOURCES
Menemukan nama tabel yang sama <table> dari beberapa sumber: <sources>.
Pisahkan mereka menjadi jalur yang berbeda untuk menghindari konflik.
CDC_SOURCE_VALIDATION_FAILURE
Validasi database sumber mendeteksi <errorCount> kesalahan. Lihat laporan log peristiwa untuk hasil terperinci dan langkah-langkah remediasi.
CDC_TABLE_NOT_FOUND_IN_ALL_TABLES
Tabel <table> tidak ditemukan di rekam jepret semua tabel database sumber.
Detail spesifikasi tabel:
<tableSpec>
CHANGES_HMS_PIPELINE_TO_UC_NOT_ALLOWED
Mengubah alur HMS ke alur UC tidak diperbolehkan.
CHANGES_UC_PIPELINE_TO_HMS_NOT_ALLOWED
Mengubah alur UC ke alur HMS tidak diperbolehkan.
CHANGING_CATALOG_NOT_ALLOWED
Tidak dapat mengubah katalog alur yang ada. Katalog yang ada: '<existingCatalog>'. Katalog yang diminta: '<requestedCatalog>'.
CHANGING_TARGET_SCHEMA_NOT_ALLOWED
Mengubah skema target tidak diperbolehkan. Alasan: <reason>.
CLUSTER_CREATION_BUDGET_POLICY_LIMIT_EXCEEDED
Gagal membuat kluster karena kebijakan anggaran alur kerja telah melebihi batas. Silakan gunakan kebijakan yang berbeda atau hubungi admin penagihan Anda.
CLUSTER_CREATION_CLIENT_ERROR
Gagal membuat kluster alur: <errorMessage>
Kesalahan ini kemungkinan karena kesalahan konfigurasi dalam alur.
Periksa konfigurasi kluster alur dan kebijakan kluster terkait.
Batas Kebijakan Kluster untuk Pembuatan Kluster Terlampaui
Gagal membuat kluster karena jumlah kluster yang berjalan per pengguna untuk kebijakan "<clusterPolicy>" telah melebihi batas <clusterLimit>. Silakan gunakan kebijakan yang berbeda atau hubungi admin Anda.
CLUSTER_CREATION_CREDITS_EXHAUSTED
Gagal membuat cluster karena Anda telah menghabiskan kredit yang tersedia. Tambahkan metode pembayaran untuk meningkatkan akun Anda.
CLUSTER_CREATION_RESOURCE_EXHAUSTED
Gagal membuat kluster karena Anda telah melebihi batas sumber daya: <errorMessage>
CLUSTER_CREATION_SECRETS_FETCH_FAILED
Tidak dapat mengambil rahasia yang dirujuk dalam konfigurasi Spark.
Harap periksa apakah rahasia ada dan pemilik kluster memiliki izin baca.
CLUSTER_LAUNCH_CLIENT_ERROR
Gagal meluncurkan kluster alur kerja <clusterId>: <clusterStateMessage>
Kesalahan ini kemungkinan karena kesalahan konfigurasi dalam alur.
Periksa konfigurasi kluster alur dan kebijakan kluster terkait.
CLUSTER_LAUNCH_CLOUD_FAILURE
Gagal meluncurkan kluster alur kerja <clusterId>: <clusterStateMessage>
Kesalahan ini bisa bersifat sementara - mulai ulang alur Anda dan laporkan jika Anda masih melihat masalah yang sama.
CLUSTER_LAUNCH_RESOURCE_EXHAUSTED
Gagal meluncurkan kluster <clusterId> alur karena batas sumber daya yang melelahkan: <clusterStateMessage>.
Kehabisan Sumber Daya Peluncuran Cluster
Gagal meluncurkan kluster alur kerja <clusterId>: <clusterStateMessage>
Jenis instans yang diminta tidak dapat disediakan oleh penyedia cloud.
Silakan periksa langganan penyedia cloud Anda atau coba lagi dengan jenis instans yang berbeda.
CLUSTER_SETUP_CLIENT_ERROR
Tidak berhasil menyiapkan kluster <clusterId> untuk eksekusi pembaruan alur. Reason:
Untuk informasi lebih lanjut, lihat CLUSTER_SETUP_CLIENT_ERROR
CLUSTER_UNREACHABLE
Komunikasi hilang dengan pengemudi.
<clusterId> kluster tidak dapat dijangkau selama <timeoutSeconds> detik.
COLUMN_MASK_WITH_NO_COLUMN
Masker kolom ditemukan untuk kolom '<columnName>' yang tidak ada dalam skema MV/ST. Jika ini karena perubahan pada skema tabel dasar,
silakan hapus masker lama dengan ALTER TABLE [table_name] ALTER COLUMN [kolom tempat masker diterapkan] DROP MASK; atau pulihkan kolom.
COLUMN_TO_UPDATE_NOT_FOUND
Kolom <column> yang ditentukan antara COLUMNS sampai UPDATE tidak ditemukan di Dataframe sumber.
CONCURRENT_UPGRADE_FAILED_TO_STOP_PREVIOUS_UPDATE
Memulai pembaruan '<upgradedUpdateId>' untuk peningkatan tetapi gagal menghentikan pembaruan sebelumnya '<oldUpdateId>'.
Kesalahan ini kemungkinan bersifat sementara. Alur akan dicoba kembali secara otomatis dan masalahnya harus diselesaikan dengan sendirinya.
Laporkan kesalahan ini ke Databricks jika Anda masih melihat masalah yang sama.
PEMBUATAN_ARUS_APPEND_SEKALI_DARI_BATCH_QUERY_TIDAK_DIIJINKAN
Tidak dapat membuat aliran penambahan satu kali pada tabel streaming dari kueri batch.
Ini mencegah penyerapan inkremental dari sumber dan dapat mengakibatkan perilaku yang salah.
Tabel bermasalah: '<table>'.
Untuk memperbaikinya, gunakan STREAMoperator () atau readStream untuk mendeklarasikan sumber sebagai input streaming.
Contoh: SELECT...FROM STREAM(<source table name>) atau spark.readStream.table('<source table name>')
DATASET_DECORATOR_APPLIED_TWICE
SQLSTATE: tidak ada yang ditetapkan
Himpunan data <datasetName> sudah ada. Pastikan bahwa fungsi kueri hanya ditandai sebagai tampilan atau tabel sekali.
DATASET_NOT_DEFINED
Gagal membaca himpunan data '<datasetName>'. Himpunan data ini tidak ditentukan dalam alur.
Jika tabel ini dikelola oleh alur lain, maka jangan gunakan dlt.read / dlt.readStream untuk membaca tabel atau menambahkan nama dengan kata kunci LIVE.
DATASET_NOT_FOUND_FOR_EXPECTATIONS
Mencoba menentukan ekspektasi untuk himpunan data '<datasetName>' yang tidak ada
DATASET_NOT_REGISTERED_FOR_FLOW
Mencoba mendaftarkan alur untuk himpunan data '<datasetName>', tetapi himpunan data tidak terdaftar.
DBFS_NOT_ENABLED
DBFS tidak diaktifkan untuk ruang kerja ini; harap terbitkan ke Katalog Unity atau tentukan lokasi penyimpanan yang berbeda untuk alur.
DBSQL_INCONSISTENT_SCHEDULE_IN_PIPELINE
Alur <pipelineId> memiliki beberapa tabel produksi dengan pengaturan jadwal yang berbeda: [<tableScheduleInfo>]. Semua tabel produksi harus memiliki jadwal yang sama.
DBSQL_INVALID_CHANNEL_VALUE
Saluran tidak valid yang ditentukan dengan pipelines.channel properti: <channel>. Nilai yang valid adalah: <validChannels>.
DBSQL_INVALID_SCHEDULE_TYPE
Jenis jadwal tidak valid yang ditentukan dengan properti jadwal: <scheduleValue>.
DBSQL_MISSING_SCHEDULE_PROPERTY
Properti jadwal yang diperlukan tidak ada di properti tabel.
DBSQL_PIPELINE_IS_MISSING
Alur DBSQL hilang. Silakan refresh tampilan terwujud atau tabel streaming Anda untuk membuat alur DBSQL.
DBSQL_PIPELINE_SHOULD_NOT_HAVE_MULTIPLE_TABLES
DBSQL Alur harus memiliki satu tampilan materialisasi atau tabel streaming, tetapi tabel yang ditemukan<tablesSize>:<tables>
HAPUS_PIPA_DINONAKTIFKAN
Alur tidak dapat dihapus saat ini.
Silakan hubungi dukungan Databricks untuk bantuan dalam menghapus alur '<pipelineId>' .
DESTINATION_PIPELINE_NOT_FOUND
Alur tujuan dengan ID '<pipelineId>' tidak dapat ditemukan. Pastikan Anda berada di ruang kerja yang sama dengan pipeline, Anda adalah pemilik pipeline, dan pipeline tersebut telah berjalan setidaknya satu kali.
DESTINATION_PIPELINE_NOT_IN_DIRECT_PUBLISHING_MODE
Alur tujuan dengan ID '<pipelineId>' tidak menggunakan Mode Penerbitan Langsung.
DESTINATION_PIPELINE_PERMISSION_DENIED
Anda tidak diizinkan untuk melakukan operasi ini, Anda bukan pemilik alur tujuan dengan ID '<pipelineId>'. Hanya pemilik yang dapat mengubah alur kerja tabel.
DESTINATION_PIPELINE_TYPE_NOT_WORKSPACE_PIPELINE_TYPE
Alur tujuan dengan ID '<pipelineId>' bukan alur ETL.
DIRECTORY_PATH_REQUIRES_GLOB
Jalurnya <path> adalah direktori. Untuk menyertakan semua file dalam direktori, gunakan pola glob dengan akhiran '**' , '<path>/**', dalam konfigurasi alur Anda.
Permintaan_Tidak_Diizinkan_untuk_Memulihkan_Pipeline
Permintaan <request> tidak diperbolehkan untuk alur '<pipelineId>' pada status RESTORING.
DO_CREATE_OR_EDIT_INVALID_USER_ACTION
Kesalahan saat menangani permintaan ''<action>.
DROP_SCHEDULE_SCHEDULE_DOES_NOT_EXIST
Tidak dapat menghapus SCHEDULE pada tabel tanpa jadwal atau pemicu yang telah ada.
DUPLICATED_FROM_JSON_SCHEMA_LOCATION
Kunci lokasi skema from_json duplikat: <schemaLocationKey>.
Pilih kunci lokasi skema unik untuk setiap kueri from_json dalam alur
DUPLICATED_INGESTION_CONFIG_TABLE_SPECS
Konfigurasi alur penyerapan berisi tabel duplikat. Pastikan bahwa setiap tabel unik.
EMPTY_INGESTION_CONFIG_OBJECTS
Objek konfigurasi ingesti kosong.
ENHANCED_AUTOSCALING_REQUIRES_ADVANCED_EDITION
Pengaturan 'spare_capacity_fraction' Penskalaan Otomatis yang Ditingkatkan hanya didukung dalam edisi produk tingkat lanjut dari Lakeflow Spark Declarative Pipeliness.
Silakan edit pengaturan alur Anda untuk mengatur "edition" menjadi "advanced" agar dapat menggunakan 'spare_capacity_fraction'.
ENVIRONMENT_PIP_INSTALL_ERROR
Gagal menginstal dependensi lingkungan: '<pipDependency>'. Silakan periksa log stdout driver pada kluster untuk informasi lebih lanjut.
EVENT_LOG_PICKER_FEATURE_NOT_SUPPORTED
Menerbitkan log peristiwa ke Katalog Unity tidak didukung dalam mode penerbitan warisan. Untuk mengaktifkan fitur ini, migrasikan alur Anda ke mode penerbitan default dengan mengikuti langkah-langkah dalam panduan https://docs.databricks.com/aws/en/dlt/migrate-to-dpmmigrasi . Jika Anda lebih suka terus menggunakan mode penerbitan warisan, hapus konfigurasi 'event_log' dari spesifikasi alur Anda.
EXPECTATION_VIOLATION
Alur '<flowName>' gagal memenuhi harapan.
Untuk informasi lebih lanjut, lihat EXPECTATION_VIOLATION
EXPLORE_ONLY_CANNOT_BE_SET_WITH_VALIDATE_ONLY
explore_only dan validate_only tidak dapat diatur ke true.
EXPLORE_ONLY_IS_NOT_ENABLED
pembaruan tipe "explore_only" tidak diaktifkan. Silakan hubungi dukungan Databricks.
FAILED_TO_CREATE_EVENT_LOG
Gagal membuat log peristiwa pipeline (id=<pipelineId>) dengan ID <eventLogIdentifier>. Lihat pengecualian di bawah ini untuk detail selengkapnya.
FAILED_TO_PUBLISH_VIEW_TO_METASTORE
Gagal menerbitkan tampilan <viewName> ke metastore karena <reason>.
FAILED_TO_UPDATE_EVENT_LOG
Gagal memperbarui pengidentifikasi log peristiwa alur (id=<pipelineId>) ke <newEventLogIdentifier>. Lihat pengecualian di bawah ini untuk detail selengkapnya.
FLOW_SCHEMA_CHANGED
Alur <flowName> telah dihentikan karena mengalami perubahan skema selama eksekusi.
Perubahan skema kompatibel dengan skema target yang ada dan eksekusi alur berikutnya dapat dilanjutkan dengan skema baru.
FOREACH_BATCH_SINK_ONLY_SUPPORTED_IN_PREVIEW_CHANNEL
Alur Deklaratif Lakeflow Spark ForeachBatch Sink saat ini tidak didukung.
Pratinjau privat untuk sink ForeachBatch Alur Deklaratif Lakeflow Spark memerlukan PREVIEW saluran.
Sink Alur Deklaratif Lakeflow Spark: <sinkNames>
GATEWAY_PIPELINE_INIT_SCRIPTS_NOT_ALLOWED
Saluran Gateway tidak mengizinkan skrip inisialisasi kluster. Silakan hapuskan itu dari <from>.
GATEWAY_PIPELINE_SPARK_CONF_NOT_ALLOWED
Alur Gateway tidak mengizinkan konfigurasi spark [<configs>]. Silakan hapus mereka dari <from>.
GET_ORG_UPDATE_CAPACITY_LIMIT_EXCEEDED
Jumlah ID organisasi yang diminta melebihi batas maksimum yang diizinkan <limit>
GOOGLE_ANALYTICS_RAW_DATA_CONNECTOR_SOURCE_CATALOG_MISSING
Kesalahan terjadi di konektor data mentah Google Analytics.
'katalog sumber data' (ID Proyek GCP) hilang dalam spesifikasi pengumpulan data Anda.
Tentukan katalog sumber (ID proyek) dalam spesifikasi penyerapan Anda untuk mengatasi masalah ini.
HMS_NOT_ENABLED
Hive Metastore tidak diaktifkan untuk ruang kerja ini, harap terbitkan ke Unity Catalog.
ILLEGAL_COLUMN_TO_UPDATE_DATA_TYPE
Jenis data kolom yang ditentukan dalam COLUMNS TO UPDATE harus berupa array string tetapi ditemukan <illegalDataType>.
ILLEGAL_ID_PARAM_IN_PIPELINE_SETTINGS
Pengaturan tidak boleh berisi '<fieldName>'.
ILLEGAL_SCHEMA_FIELD_IN_PIPELINE_SPEC
Bidang 'skema' yang ditentukan dalam pengaturan pipeline tidak sah. Alasan: <reason>.
INCORRECT_ROOT_PATH_TYPE
Jalur root '<rootPath>' harus berbentuk direktori, tetapi yang ditemukan adalah <objectType>.
INCREMENTAL_REFRESH_UNAVAILABLE_WITH_STRICT_REFRESH_POLICY
tampilan materialisasi memiliki kebijakan INCREMENTAL_STRICT refresh, tetapi tidak dapat diinkrementalisasikan.
Pemeliharaan Infrastruktur
Driver pada kluster <clusterId> dihentikan karena pemeliharaan infrastruktur.
INGESTION_CONFIG_DUPLICATED_SCHEMA
Konfigurasi alur penyerapan berisi skema duplikat. Pastikan bahwa setiap skema unik.
INGESTION_GATEWAY_AUTHENTICATION_FAILURE
Kegagalan autentikasi
Untuk detail selengkapnya, lihat INGESTION_GATEWAY_AUTHENTICATION_FAILURE
INGESTION_GATEWAY_BREAKING_SCHEMA_CHANGE_FAILURE
Ketidakcocokan skema telah terdeteksi antara tabel sumber dan target. Untuk mengatasi masalah ini, refresh penuh tabel '<entityName>' diperlukan pada Alur Penyerapan.
INGESTION_GATEWAY_CAPTURE_INSTANCE_UNAVAILABLE
Instans pengambilan untuk <entityName> tidak lagi tersedia di sumbernya.
Harap picu refresh penuh setelah mengaktifkan CDC atau CT pada tabel.
INGESTION_GATEWAY_CDC_LOG_TRUNCATED
Log CDC telah dipotong untuk tabel '<entityName>', alasan: <errorMessage>.
Ini dapat disebabkan oleh kebijakan penyimpanan log CDC yang memotong log pelacakan perubahan sebelum dapat diproses.
Tabel akan diabaikan dari pemrosesan. Untuk mengaktifkan kembali pemrosesan, silakan refresh penuh tabel.
INGESTION_GATEWAY_CDC_NOT_ENABLED
CDC tidak diaktifkan pada <entityType> '<entityName>'. Aktifkan CDC dan refresh penuh tabel pada Alur Penyerapan. Pesan kesalahan: '<errorMessage>'.
Versi basis data Ingestion Gateway tidak didukung
Versi database tidak didukung.
Untuk detail selengkapnya, lihat INGESTION_GATEWAY_DB_VERSION_NOT_SUPPORTED
INGESTION_GATEWAY_DDL_OBJECTS_MISSING
Objek DDL hilang pada <entityType> '<entityName>'. Jalankan skrip objek DDL dan refresh penuh tabel pada Alur Penyerapan. Pesan kesalahan: '<errorMessage>'.
INGESTION_GATEWAY_HEALTH_CHECKER_VALIDATION_CYCLE_FAILED
Siklus validasi Pemeriksa Kesehatan Internal gagal. Akan mencoba kembali di siklus berikutnya, jika masalah berlanjut, silakan ajukan tiket.
Pesan kesalahan: <errorMessage>
INGESTION_GATEWAY_MISSING_CONNECTION_REFERENCE
Konfigurasi gateway penerimaan kehilangan koneksi.
Tambahkan referensi ke koneksi Katalog Unity yang berisi kredensial Anda.
Detail definisi alur gateway penyerapan:
<definition>
INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_CATALOG
Konfigurasi gerbang pemasukan tidak memiliki katalog lokasi penyimpanan internal.
Harap tambahkan katalog lokasi penyimpanan internal.
Detail definisi alur gateway penyerapan:
<definition>
INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_NAME
Konfigurasi gateway penerimaan tidak memiliki nama lokasi penyimpanan internal.
Harap tambahkan nama lokasi penyimpanan internal.
Detail definisi alur gateway penyerapan:
<definition>
INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_SCHEMA
Skema lokasi penyimpanan internal tidak ada dalam konfigurasi gateway penerimaan.
Harap tambahkan skema lokasi penyimpanan internal.
Detail definisi alur gateway penyerapan:
<definition>
INGESTION_GATEWAY_MISSING_TABLE_IN_SOURCE
Tabel '<entityName>' tidak ada di database sumber atau telah dihilangkan. Atasi masalah dan muat ulang sepenuhnya tabel pada jalur Penyerapan Terkelola. Pesan kesalahan: '<errorMessage>'.
INGESTION_GATEWAY_MYSQL_BINLOG_FILE_DELETED
File binlog MySQL yang diperlukan telah dihapus pada database sumber. Ini biasanya terjadi ketika periode retensi binlog terlalu rendah atau ketika penyerapan dimulai ulang setelah jendela retensi berlalu. Untuk mengurangi, jalankan refresh penuh pada semua tabel dan tingkatkan retensi binlog pada sumber.
Pesan kesalahan: <errorMessage>
INGESTION_GATEWAY_MYSQL_MISSED_BINLOG_FILES_DETECTED
Terlewat mendeteksi file Binlog MySQL. Silakan lakukan refresh penuh pada <entityName>.
Pesan kesalahan: <errorMessage>
INGESTION_GATEWAY_ORACLE_ARCHIVE_LOG_FILES_UNAVAILABLE
File log arsip Oracle yang diperlukan untuk replikasi CDC tidak lagi tersedia di database sumber. Ini dapat terjadi ketika log arsip melebihi periode retensi atau dihapus secara manual. Silakan lakukan refresh penuh pada semua tabel tujuan yang dipetakan ke katalog '<catalogName>'. Jika masalah ini berlanjut, pertimbangkan untuk meningkatkan periode retensi log arsip pada database sumber untuk memastikan log tetap tersedia saat sedang diproses.
Pesan kesalahan: <errorMessage>
INGESTION_GATEWAY_ORACLE_MISSING_CONFIGURATION
Konfigurasi koneksi Oracle tidak lengkap.
Untuk detail selengkapnya, lihat INGESTION_GATEWAY_ORACLE_MISSING_CONFIGURATION
INGESTION_GATEWAY_PG_PUBLICATION_ALTER_FAILED
Gagal mengubah publikasi replikasi untuk <entityType> '<entityName>'
Pesan kesalahan: <errorMessage>
Untuk detail selengkapnya, lihat INGESTION_GATEWAY_PG_PUBLICATION_ALTER_FAILED
INGESTION_GATEWAY_PG_PUBLICATION_CREATION_FAILED
Gagal membuat publikasi replikasi untuk <entityType> '<entityName>'
Pesan kesalahan: <errorMessage>
Untuk informasi lebih lanjut, lihat INGESTION_GATEWAY_PG_PUBLICATION_CREATION_FAILED
INGESTION_GATEWAY_PG_PUBLICATION_DROP_FAILED
Gagal menghapus publikasi replikasi untuk <entityType> '<entityName>'
Pesan kesalahan: <errorMessage>
Untuk detail selengkapnya, lihat INGESTION_GATEWAY_PG_PUBLICATION_DROP_FAILED
INGESTION_GATEWAY_PG_SLOT_CONFIG_IS_INVALIDATED
Konfigurasi slot replikasi untuk <entityType> <entityName> tidak dalam keadaan sehat. Untuk mengatasi masalah ini, picu refresh penuh pada semua tabel tujuan yang dipetakan ke katalog <catalogName>.
Pesan kesalahan: <errorMessage>
INGESTION_GATEWAY_PG_SLOT_CONSUMED_BY_OTHER_PROCESS
Gagal membuat slot replikasi untuk <entityType> '<entityName>' karena slot replikasi sedang digunakan oleh PID lain.
Pesan kesalahan: <errorMessage>
INGESTION_GATEWAY_PG_SLOT_CREATION_FAILED
Gagal membuat slot replikasi untuk <entityType> '<entityName>'
Pesan kesalahan: <errorMessage>
Untuk detail selengkapnya, lihat INGESTION_GATEWAY_PG_SLOT_CREATION_FAILED
INGESTION_GATEWAY_PG_SLOT_DROP_FAILED
Gagal menghilangkan slot replikasi untuk <entityType> '<entityName>'
Pesan kesalahan: <errorMessage>
Untuk detail selengkapnya, lihat INGESTION_GATEWAY_PG_SLOT_DROP_FAILED
INGESTION_GATEWAY_PG_SLOT_HAS_BEEN_DELETED
Slot replikasi untuk <entityType> '<entityName>' telah dihapus. Harap picu refresh penuh pada semua tabel tujuan yang dipetakan ke katalog '<catalogName>'.
Pesan kesalahan: <errorMessage>
INGESTION_GATEWAY_PG_SLOT_IS_INVALIDATED
Slot replikasi untuk <entityType> '<entityName>' tidak dalam keadaan sehat. Silakan letakkan slot dan picu refresh penuh pada semua tabel tujuan yang dipetakan ke katalog '<catalogName>'.
Pesan kesalahan: <errorMessage>
INGESTION_GATEWAY_SOURCE_INSUFFICIENT_PERMISSION_FAILURE
Pengguna tidak memiliki izin yang diperlukan untuk mengakses objek ini atau menjalankan prosedur tersimpan. Pastikan bahwa semua hak istimewa yang diperlukan diberikan. Lihat dokumentasi berikut: https://docs.databricks.com/aws/en/ingestion/lakeflow-connect/sql-server/database-user-requirements.
GERBANG_PENGAMBILAN_SKEMA_SUMBER_ENTITAS_HILANG
Tidak ada tabel yang tersedia untuk replikasi dari sumber.
Verifikasi bahwa tabel dipilih dengan benar dan ditentukan dalam alur penyerapan
dan pengguna memiliki katalog dan akses skema yang diperlukan.
INGESTION_GATEWAY_SQL_SERVER_CT_DISABLED
Pelacakan Perubahan untuk tabel <entityName> telah dinonaktifkan pada sumbernya.
Harap picu refresh penuh setelah mengaktifkan CDC atau CT pada tabel.
TABEL_PENELAN_GATEWAY_DIHAPUS
Tabel sumber '<entityName>' telah dihilangkan pada sumber. Pesan kesalahan: <errorMessage>
TABEL_PINTU_MASUK_DIGANTI_NAMA
Tabel sumber '<entityName>' telah diganti namanya pada sumber. Pesan kesalahan: <errorMessage>
TABEL_GATEWAY_PEMASUKAN_DILEWATI_KARENA_TIPE_DATA_KOLOM_TIDAK_DIDUKUNG
Tabel '<entityName>' dilewatkan karena kolom tipe data yang tidak didukung. Atasi masalah dan muat ulang sepenuhnya tabel pada jalur Penyerapan Terkelola. Pesan kesalahan: '<errorMessage>'.
INGESTION_GATEWAY_UNEXPECTED_COLUMN_UOID
Tabel '<entityName>' telah dilewati karena adanya UOID tak terduga yang dianggap ditetapkan ke kolom. Silakan lakukan refresh penuh pada tabel untuk mengatasi masalah ini. Kesalahan: <errorMessage>.
INGESTION_GATEWAY_UNEXPECTED_TABLE_UOID
Tabel '<entityName>' telah dilewati karena penetapan UOID tak terduga ke tabel. Silakan lakukan refresh penuh pada tabel untuk mengatasi masalah ini. Kesalahan: <errorMessage>.
INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE
Koneksi gagal karena nama <host> host dan/atau port <port> database sumber yang salah.
Untuk informasi lebih lanjut, lihat INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE
INGESTION_GATEWAY_UNSUPPORTED_CHARS_IN_OBJECT_NAME
Karakter yang tidak didukung ditemukan dalam objek untuk tabel <entityName>, alasan: <errorMessage>. Tabel akan dilewati. Hubungi dukungan untuk mengaktifkan penyerapan karakter khusus.
INGESTION_GATEWAY_UNSUPPORTED_OBJECT_TYPE
Objek '<entityName>' tidak didukung dan telah dilewati. Untuk mengatasinya, hapus objek ini dari alur penyerapan. Pesan kesalahan: '<errorMessage>'.
INGESTION_GATEWAY_UNTRACEABLE_TABLE_MODIFICATION
Modifikasi tabel yang tidak dapat dilacak terdeteksi untuk tabel <entityName>, alasan: <errorMessage>.
Ini dapat disebabkan oleh pemotongan tabel, rollover log cdc, atau operasi lain yang tidak dapat dilacak.
Tabel akan diabaikan dari pemrosesan. Untuk mengaktifkan kembali pemrosesan, silakan refresh penuh tabel.
GERBANG_INGESTI_TRANSAKSI_XA_TIDAK_DIDUKUNG
Gagal mereplikasi <entityType> '<entityName>' karena merupakan bagian dari transaksi XA.
Pesan kesalahan: <errorMessage>
INVALID_APPLY_CHANGES_COMMAND
perintah AUTO CDC tidak valid.
<reason>.
INVALID_ARGUMENT_TYPE
SQLSTATE: tidak ada yang ditetapkan
Nilai jenis yang tidak valid diteruskan ke parameter '<paramName>'. Yang diharapkan <expectedType>.
<additionalMsg>.
INVALID_COMPATIBILITY_OPTIONS
Opsi tabel yang ditentukan untuk tabel <table> tidak valid karena
Untuk detail selengkapnya, lihat INVALID_COMPATIBILITY_OPTIONS
INVALID_CONFIG_FOR_UC_PIPELINE
Alur UC tidak mendukung pengaturan '<configKey>' ke '<configValue>'. Hapus konfigurasi ini dari setelan alur Anda.
INVALID_DECORATOR_USAGE
SQLSTATE: tidak ada yang ditetapkan
Argumen posisi pertama yang diteruskan ke @<decoratorName> harus dapat dipanggil. Tambahkan @<decoratorName> tanpa parameter ke fungsi Anda, atau teruskan opsi ke @<decoratorName> menggunakan argumen kata kunci (misalnya, <exampleUsage>).
INVALID_DESTINATION_PIPELINE_ID
ID alur tujuan tidak valid: '<pipelineId>'. ID jalur harus merupakan UUID yang valid.
Verifikasi bahwa Anda menggunakan ID alur yang benar, bukan nama alur.
INVALID_EVENT_LOG_CONFIGURATION
Konfigurasi log peristiwa tidak valid yang ditemukan dalam spesifikasi alur: <message>
INVALID_NAME_IN_USE_COMMAND
Nama '<name>' tidak valid dalam perintah <command>. Alasan: <reason>
INVALID_PARAM_FOR_DBSQL_PIPELINE
Anda hanya dapat menentukan 'pipeline_id' dan 'pipeline_type' saat memanggil 'dry_run' untuk DBSQL alur.
INVALID_REFRESH_SELECTION
Untuk detail selengkapnya, lihat INVALID_REFRESH_SELECTION
INVALID_REFRESH_SELECTION_REQUEST_FOR_CONTINUOUS_PIPELINE
Pilihan refresh tidak didukung untuk mode berkelanjutan.
INVALID_REFRESH_SELECTION_REQUEST_WITH_FULL_REFRESH
full_refresh tidak boleh diatur menjadi benar untuk permintaan pemilihan penyegaran.
INVALID_REWIND_SPECIFICATION
Spesifikasi putar balik tidak valid
Untuk detail selengkapnya, lihat INVALID_REWIND_SPECIFICATION
INVALID_ROOT_PATH
Tidak valid root_path '<rootPath>': hanya jalur direktori absolut yang saat ini didukung. Jalur direktori harus dimulai dengan '/' dan tidak diakhiri dengan '/'.
INVALID_SCHEMA_NAME
Skema '<schemaName>' tidak valid yang ditentukan dalam pengaturan alur. Alasan: <reason>.
INVALID_SNAPSHOT_AND_VERSION_TYPE
SQLSTATE: tidak ada yang ditetapkan
"snapshot_and_version" untuk aliran dengan target "<target>" mengembalikan jenis yang tidak didukung.
<additionalMsg>.
INVALID_TRIGGER_INTERVAL_FORMAT
Konfigurasi interval pemicu yang ditentukan dalam <configurationType> tidak valid
AKSES_JIRA_DILARANG
Pengguna yang menyambung tidak memiliki akses. Silakan periksa kembali izin pengguna dan coba lagi.
IZIN_ADMIN_JIRA_HILANG
Terjadi kesalahan saat memanggil API Jira. Pastikan untuk memberikan
pengguna yang menghubungkan izin admin Jira untuk instans Jira Anda.
JIRA_AUTHORIZATION_FAILED (Otorisasi JIRA Gagal)
Otorisasi gagal saat memanggil API Jira. Silakan autentikasi ulang
koneksi UC dibuat dan coba lagi.
JIRA_CONNECTOR_ENTITY_MAPPING_PARSING_FAILED
Terjadi kesalahan pada konektor Jira.
Masalah terjadi saat mencoba mengurai pemetaan entitas untuk jenis entitas: <entityType>. Periksa apakah entitas Anda adalah bagian dari jenis yang didukung.
Jika kesalahan berlanjut, ajukan tiket.
JIRA_MISSING_REQUIRED_FIELD
Bidang yang diperlukan '<fieldName>' hilang dalam respons Jira API.
JSON Node: <jsonNode>
JIRA_SITE_MISSING (Situs JIRA Hilang)
Tidak dapat menemukan cloudId yang sesuai dengan domain <domain>Jira yang disediakan.
Pastikan bahwa pengguna yang menyambungkan dapat mengakses situs ini.
JOB_DETAILS_DO_NOT_MATCH
Jika kedua 'update_cause_details.job_details' dan 'job_task' diberikan, maka keduanya harus sesuai, tetapi mereka adalah <details> dan <jobTask>
JOB_TASK_DETAILS_MISSING
Jika 'penyebab' adalah JOB_TASK, maka 'job_task' atau 'update_cause_details.job_details' harus diberikan.
PENCIPTAAN_LEGACY_PIPELINE_DINONAKTIFKAN
Membuat pipeline dalam mode penerbitan lama dinonaktifkan secara default di ruang kerja. Silakan hubungi dukungan Databricks jika pengecualian diperlukan.
LIBRARY_FILE_FETCH_PERMISSION_DENIED
Tidak dapat mengakses file pustaka di '<path>'. Pastikan bahwa pengguna memiliki izin yang diperlukan untuk membaca file ini.
Alasan: <reason>
LIBRARY_FILE_NOT_FOUND
File '<path>' tidak ditemukan atau pengguna run_as tidak memiliki izin untuk mengaksesnya.
LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_CLASSIC
Mereferensikan himpunan data menggunakan skema virtual LIVE di luar definisi kueri himpunan data (yaitu, anotasi @dlt.table) tidak didukung.
LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_DPM
Mereferensikan himpunan data menggunakan skema virtual LIVE<identifier> di luar definisi kueri himpunan data (yaitu, anotasi @dlt.table) tidak didukung.
LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_SPARK_SQL
Mereferensikan himpunan data menggunakan LIVE skema virtual di spark.sql(...) API tidak boleh dipanggil di luar definisi kueri himpunan data (yaitu, @dlt.table anotasi). Ini hanya dapat dipanggil dalam definisi kueri himpunan data.
MANAGED_INGESTION_PIPELINE_SPEC_VALIDATION_ERROR
Untuk detail selengkapnya, lihat MANAGED_INGESTION_PIPELINE_SPEC_VALIDATION_ERROR
MATERIALIZED_VIEW_MENGEMBALIKAN_STREAMING_DATAFRAME
SQLSTATE: tidak ada yang ditetapkan
Fungsi kueri untuk tampilan materialisasi '<datasetName>' mengembalikan DataFrame streaming.
Ini harus mengembalikan DataFrame non-streaming.
MAX_RETRY_REACHED_BEFORE_ENZYME_RECOMPUTE
Jumlah pengulangan maksimal tercapai. Jumlah pengulangan:<flowRetryCount>. maxFlowFailureRetryCountThreshold:<maxFlowRetryAttempts>. <message>
MESA_PIPELINE_INVALID_DEFINITION_TYPE
<definitionType> Memulai alur dari definisi UC tidak diperbolehkan.
MESA_PIPELINE_MISMATCH_PIPELINE_TYPES
Definisi yang disimpan dan diperbarui harus jenis alur yang sama, namun menerima <stored> dan <updated>.
MESA_PIPELINE_MISSING_DEFINITION
Saluran tidak memiliki definisi yang valid dalam UC, tetapi pembaruan dibutuhkan.
MESA_PIPELINE_MISSING_DEFINITION_UNEXPECTED
Definisi alur yang hilang secara tak terduga dari UC.
METASTORE_OPERATION_TIMED_OUT
Operasi yang terlibat dalam memperbarui informasi metastore untuk <tableName> membutuhkan waktu lebih lama dari <timeout>.
Masalah ini mungkin bersifat sementara atau dapat menunjukkan bug di klien metastore yang dikonfigurasi. Cobalah untuk memulai ulang pipeline Anda dan laporkan masalah ini jika tetap ada.
META_ADS_PARAMETERS_CHANGED
Terjadi kesalahan di konektor pemasaran Meta. Parameter input ke tabel ad_insights telah dimodifikasi.
Lakukan refresh penuh pada tabel yang terkena dampak.
META_ADS_SOURCE_API_ERROR
Terjadi kesalahan dalam panggilan API pemasaran Meta. Id jejak Facebook untuk dilacak dengan dukungan Meta: <trace_id>.
Jika kesalahan berlanjut, ajukan tiket.
META_MARKETING_INSIGHTS_LEVEL_INVALID
Kesalahan terjadi di konektor pemasaran Meta saat mencoba mengambil wawasan untuk tabel ad_insights.
Parameter <level> tingkat yang disediakan tidak valid. Silakan berikan salah satu dari (iklan, adset, kampanye, akun).
META_MARKETING_INSIGHTS_PARAM_BREAKDOWNS_INVALID
Kesalahan terjadi di konektor pemasaran Meta saat mencoba mengambil wawasan untuk tabel ad_insights.
Param <breakdowns> perincian yang disediakan tidak valid. Silakan periksa dokumentasi API meta untuk daftar perincian yang valid.
Jika kesalahan berlanjut, ajukan tiket.
META_MARKETING_INSIGHTS_PARAM_TIME_INCREMENT_INVALID
Kesalahan terjadi di konektor pemasaran Meta saat mencoba mengambil wawasan untuk tabel ad_insights.
Parameter <timeInc> kenaikan waktu yang disediakan tidak dapat diurai. Masukkan nomor bilangan bulat yang valid.
META_MARKETING_INSIGHTS_START_DATE_INVALID
Kesalahan terjadi di konektor pemasaran Meta saat mencoba mengambil wawasan untuk tabel ad_insights.
Parameter <startDate> tanggal mulai yang disediakan tidak dapat diurai. Silakan periksa dan ubah dalam format YYYY-MM-DD yang benar.
META_MARKETING_INSIGHTS_START_DATE_TOO_OLD
Kesalahan terjadi di konektor pemasaran Meta saat mencoba mengambil wawasan untuk tabel ad_insights.
Tanggal mulai yang disediakan tidak boleh melebihi 37 bulan dari tanggal sinkronisasi saat ini. Silakan periksa dan ubah dalam param yang disediakan.
Jika kesalahan berlanjut, ajukan tiket.
META_MARKETING_RATE_LIMIT_EXCEEDED
Batas tarif META API untuk akun iklan ini telah habis. Silakan coba lagi pembaruan alur setelah beberapa waktu. Disarankan untuk menyerap lebih sedikit jumlah tabel secara paralel untuk menghindari mencapai batas lagi.
Jika Anda sering mengalami kesalahan batas tarif, pertimbangkan untuk meningkatkan ke akses Tingkat Lanjut jika belum dilakukan, sesuai dokumentasi Meta: https://developers.facebook.com/docs/marketing-api/get-started/authorization
META_MARKETING_REQUESTED_DATA_LIMIT_EXCEEDED
API Meta gagal karena jumlah data yang diminta melebihi batas yang dapat diproses oleh server Meta.
Coba kurangi jumlah bidang yang akan diserap dalam tabel ini dengan menggunakan logika pemilihan kolom. Jika kesalahan berlanjut, ajukan tiket.
MIGRATION_TO_UNITY_CATALOG
Untuk detail selengkapnya, lihat MIGRATION_TO_UNITY_CATALOG
IZIN_KATALOG_ATAU_SKEMA_HILANG
Pengguna '<userName>' tidak memiliki izin pada '<schemaName>'. Detail: <reason>
MISSING_CREATE_SCHEMA_PRIVILEGE
Pengguna '<userName>' tidak memiliki izin untuk membuat skema dalam katalog <catalogName>
MISSING_CREATE_TABLE_PRIVILEGE
Pengguna '<userName>' tidak memiliki izin untuk membuat tabel dalam skema <schemaName>
MISSING_RUN_AS_USER
Tidak ada eksekusi karena pengguna ditentukan untuk pembaruan.
TARGET PENGAMBILAN CUCIAN BANYAK YANG TIDAK DIDUKUNG
'<tableName>' sudah berisi AUTO CDC FROM SNAPSHOT kueri '<flowName>'. Saat ini, API ini hanya mendukung satu alur per tujuan.
MUTUALLY_EXCLUSIVE_OPTIONS
Opsi yang saling eksklusif <options>. Hapus salah satu opsi ini.
NEGATIVE_VALUE
SQLSTATE: tidak ada yang ditetapkan
Nilai untuk <arg_name> harus lebih besar dari atau sama dengan 0, mendapat '<arg_value>'.
NON_UC_TABLE_ALREADY_MANAGED_BY_OTHER_PIPELINE
Tabel '<tableName>' sudah dikelola oleh alur <otherPipelineId>.
Jika Anda ingin tabel '<tableName>' dikelola oleh alur ini -
Hapus tabel dari alur '
<otherPipelineId>'.Mulai pembaruan refresh penuh untuk pipa ini.
Jika Anda ingin terus mengelola tabel dari beberapa alur, nonaktifkan pemeriksaan ini dengan mengatur konfigurasi pipelines.tableManagedByMultiplePipelinesCheck.enabled ke false di pengaturan alur Anda.
Ini tidak disarankan karena operasi bersamaan pada tabel dapat bertentangan satu sama lain dan menyebabkan hasil yang tidak terduga.
NOTEBOOK_NAME_LIMIT_REACHED
Jalur buku catatan tidak valid: '<nameStart>...<nameEnd>'. Ini lebih panjang daripada <maxNotebookPathLength> karakter.
NOTEBOOK_NOT_FOUND
Tidak dapat mengakses buku catatan '<notebookPath>'. Ini tidak ada, atau identitas yang digunakan untuk menjalankan alur ini, <identity>, tidak memiliki izin yang diperlukan.
KESALAHAN_PIP_INSTALL_DI_BUKU_CATATAN
Gagal menjalankan '<pipInstallCommand>' dari buku catatan: <notebookPath>. Silakan periksa log stdout driver pada kluster untuk informasi lebih lanjut.
NOTEBOOK_TOO_LARGE
Konten buku catatan yang diselesaikan di '<notebookPath>' terlalu besar, harap kurangi ukuran buku catatan.
NOTIFICATIONS_DUPLICATE_ALERTS
Pemberitahuan duplikat '<alertsDuplicates>' tercantum dalam [<alerts>]
NOTIFICATIONS_DUPLICATE_EMAIL_ADDRESSES
Alamat email duplikat '<emailRecipientsDuplicates>' tertentu dalam [<emailRecipients>]
NOTIFICATIONS_INVALID_ALERTS
Pemberitahuan tidak valid telah ditentukan untuk menerima notifikasi terkait: <invalidAlerts>
NOTIFICATIONS_INVALID_EMAIL_ADDRESS
Alamat email yang ditentukan tidak valid untuk menerima pemberitahuan: <invalidEmailAddresses>
NOTIFICATIONS_MISSING_PARAMS
Harap tentukan setidaknya satu penerima dan satu pemberitahuan di <setting>
NO_SOURCE_OR_SNAPSHOT_AND_VERSION_ARGUMENT_PROVIDED
SQLSTATE: tidak ada yang ditetapkan
Baik source atau snapshot_version harus diatur untuk apply_changes_from_snapshot dengan target '<target>'.
NO_TABLES_IN_PIPELINE
Pipelin diharapkan memiliki setidaknya satu tabel yang ditentukan tetapi tidak ada tabel yang ditemukan di pipelin Anda.
Harap verifikasi bahwa Anda telah menyertakan, dan berbagi jika Jalankan Sebagai dikonfigurasi, file sumber dan/atau direktori yang diharapkan, dan bahwa kode sumber Anda menyertakan definisi tabel (misalnya, CREATE MATERIALIZED VIEW dalam kode SQL, @dlt.table dalam kode python).
Perhatikan bahwa hanya tabel yang dihitung dalam pemeriksaan ini. Anda mungkin juga mengalami kesalahan ini jika Anda hanya menyertakan pandangan atau alur dalam pipeline.
OUTPUT_MODE_NOT_SUPPORTED_FOR_TABLE_FLOW
Mode output '<outputMode>' tidak didukung untuk alur tabel '<flowName>' tabel penargetan '<target>'. Hanya mode 'tambahkan' yang didukung untuk alur tabel.
OWNER_IS_MISSING
Pemilik tidak ada.
PAGINATION_REQUEST_HAS_NAME_AND_PAGINATION
Anda dapat menyediakan <name> atau penomoran halaman, tetapi tidak keduanya.
PATCH_PIPELINE_DEFINITION_UNSUPPORTED_FIELD
PatchPipelineDefinition hanya mendukung schedule bidang , tetapi definisi yang disediakan memiliki bidang terisi lainnya: '<updatedDefinition>'.
PERSISTED_VIEW_READS_FROM_STREAMING_SOURCE
Tampilan yang dipertahankan tidak mendukung pembacaan dari sumber streaming.
PERSISTED_VIEW_READS_FROM_TEMPORARY_VIEW
Tampilan <persistedViewName> persisten tidak dapat mengacu pada tampilan <temporaryViewName> sementara yang tidak akan tersedia di luar lingkup alur. Buat tampilan tetap bersifat sementara atau pertahankan tampilan sementara.
PIPELINE_CLONING_ALREADY_IN_PROGRESS
Alur sudah dikloning ke alur dengan id '<pipelineId>'.
PIPELINE_CLONING_BOTH_TARGET_AND_SCHEMA_SPECIFIED
Tidak dapat menentukan 'target' dan 'skema' saat mengkloning alur. Tentukan hanya satu.
PIPELINE_CLONING_CANNOT_CHANGE_SCHEMA_TO_TARGET
Tidak dapat mengkloning alur dengan 'skema' ke alur dengan 'target'. Alur kloning juga harus menggunakan 'skema' atau menghilangkan keduanya untuk mewarisi nilai asli.
PIPELINE_CLONING_INVALID_DURING_ACTIVE_UPDATE
Alur dengan ID '<pipelineId>' tidak dapat dikloning selama pembaruan aktif.
PIPELINE_CLONING_INVALID_FIELDS
Permintaan menyertakan spesifikasi alur dengan bidang yang tidak valid untuk kloning. Bidang yang diizinkan meliputi: nama, katalog, target, konfigurasi.
PIPELINE_CLONING_INVALID_FOR_MISSING_TARGET
Alur dengan ID '<pipelineId>' tidak diterbitkan ke skema target. Alur sumber perlu diterbitkan ke skema target yang akan dikloning. Silakan coba lagi setelah menentukan bidang 'target' dalam spesifikasi alur, dan jalankan pembaruan baru untuk diterbitkan ke skema target.
PIPELINE_CLONING_INVALID_FOR_UC_PIPELINE
Alur dengan ID '<pipelineId>' sudah menjadi alur UC. Alur UC tidak dapat dikloning.
PIPELINE_CLONING_NO_CATALOG_SPECIFIED
Tidak ada katalog yang ditentukan untuk kloning.
PIPELINE_CLONING_NO_MODE_SPECIFIED
Tidak ada mode kloning yang ditentukan.
PIPELINE_CLONING_NO_TARGET_SPECIFIED
Tidak ada katalog target yang ditentukan untuk kloning.
PIPELINE_CREATION_NOT_ENABLED_FOR_WORKSPACE
Pembuatan pipeline tidak diaktifkan untuk ruang kerja ini.
PIPELINE_DOES_NOT_EXIST
Alur dengan ID '<pipelineId>' tidak ada.
Untuk detail selengkapnya, lihat PIPELINE_DOES_NOT_EXIST
PIPELINE_ENVIRONMENT_NOT_ENABLED
Menggunakan lingkungan di Lakeflow Spark Declarative Pipelines tidak diaktifkan.
PIPELINE_ENVIRONMENT_VERSION_NOT_ALLOWED
Lingkungan pipeline saat ini tidak mendukung versi lingkungan.
PIPELINE_FAILED_TO_UPDATE_UC_TABLE_DUE_TO_CONCURRENT_UPDATE
Pipeline gagal memperbarui tabel UC (<tableName>) karena alterasi bersamaan setelah <attempts> percobaan.
Pastikan tidak ada proses eksternal yang mengubah tabel, mencoba kembali pembaruan, dan hubungi dukungan Databricks jika masalah ini berlanjut.
PIPELINE_FAILED_TO_UPDATE_UC_TABLE_DUE_TO_EXTERNAL_DELETE
Tabel <tableName> dihapus oleh operasi eksternal saat alur memperbaruinya.
Pastikan tidak ada proses eksternal yang memodifikasi tabel, lalu coba lagi pembaruan.
Jika masalah berlanjut, hubungi Dukungan Databricks.
PIPELINE_FOR_TABLE_NEEDS_REFRESH
Tabel <tableName> tidak dalam status yang diperlukan, tabel belum diperbarui baru-baru ini. Alur dengan ID '<pipelineId>' harus dijalankan sekali lagi dan kemudian mencoba kembali operasi.
PIPELINE_FOR_TABLE_NOT_FOUND
Alur dengan ID '<pipelineId>', mengelola tabel <tableName>, tidak dapat ditemukan. Pastikan Anda berada di ruang kerja yang sama dengan pipeline, Anda adalah pemilik pipeline, dan pipeline tersebut telah berjalan setidaknya satu kali.
PIPELINE_GLOB_INCLUDES_CONFLICTS
Bidang glob atau notebook/file di bawah pustaka dalam pengaturan pipeline harus diatur salah satu. Silakan ubah pengaturan pipelinnya.
PIPELINE_GLOB_INCLUDES_NOT_SUPPORTED
Menggunakan bidang glob untuk menyertakan file sumber adalah fitur pratinjau dan dinonaktifkan.
Pilih kembali setiap file sumber yang akan disertakan untuk alur guna memperbaiki kesalahan ini.
Hubungi dukungan Databricks untuk mempelajari selengkapnya tentang fitur ini dan mendaftar di pratinjau.
PIPELINE_GLOB_UNSUPPORTED_SPECIAL_CHARACTER
Karakter khusus <specialChar> dicadangkan dan tidak boleh digunakan dalam jalur yang disertakan '<path>' di pengaturan pipeline. Hapus karakter ini untuk memperbaiki kesalahan
PIPELINE_NAME_LIMIT_REACHED
Nama tidak boleh lebih panjang dari <maxPipelineNameLength> karakter.
PIPELINE_NON_RETRYABLE_ANALYSIS_CLIENT_ERROR
Pipeline gagal menganalisis tabel sumber (<tables>) karena kesalahan fatal setelah eksekusi parsial.
Pembaruan jalur pipa baru tidak akan dibuat.
<flowErrors>
Periksa log peristiwa dan perbaiki masalah yang sesuai.
PIPA_TIDAK_LAYAK_UNTUK_RESTORASI
Pipeline '<pipelineId>' telah melewati jendela pemulihan.
PIPELINE_NOT_IN_DIRECT_PUBLISHING_MODE
Alur dengan ID '<pipelineId>', mengelola tabel <tableName>, tidak menggunakan Mode Penerbitan Langsung.
PIPELINE_NOT_READY_FOR_SCHEDULED_UPDATE
Tabel belum siap untuk di-refresh
Untuk detail selengkapnya, lihat PIPELINE_NOT_READY_FOR_SCHEDULED_UPDATE
PIPELINE_PERMISSION_DENIED_NOT_OWNER
Anda tidak diizinkan untuk melakukan operasi ini. Anda bukan pemilik alur dengan ID '<pipelineId>', mengelola tabel <tableName>.
ANALISIS_PIPELINE_YANG_DAPAT_DIULANG
Pipeline gagal menganalisis tabel sumber (<tables>) karena kesalahan yang dapat dicoba ulang setelah eksekusi parsial.
Pembaruan alur baru akan dibuat untuk mencoba kembali pemrosesan. Jika kesalahan berlanjut, silakan periksa log peristiwa dan atasi masalah yang sesuai.
PIPELINE_SETTINGS_FIELD_CANNOT_BE_EDITED
'<uneditableFieldName>' tidak dapat dimodifikasi oleh pengguna. Jika pengguna ingin menambahkan atau mengubah <settingName>, silakan gunakan bidang '<editableFieldName>' sebagai gantinya.
PIPELINE_SETTINGS_MODIFIED_CONCURRENTLY
Pengaturan pipeline dimodifikasi pada saat yang sama.
PIPELINE_SETTINGS_UNSUPPORTED_CONFIGURATIONS
Konfigurasi <configurations> tidak didukung oleh Lakeflow Spark Declarative Pipeliness. Hapus konfigurasi ini.
PIPELINE_SETTING_SHOULD_NOT_SPECIFY_DEVELOPMENT
Memulai pembaruan dengan pengaturan 'pengembangan' tidak didukung.
PIPELINE_SHOULD_NOT_HAVE_MULTIPLE_TABLES
Alur harus memiliki tepat satu tabel, tetapi ditemukan <tablesSize> tabel: <tables>
PIPELINE_SOURCE_FILE_NUMBER_EXCEEDED
Jumlah file sumber, termasuk file yang dideklarasikan dalam folder, melebihi batas <limit>.
Hapus atau gabungkan file yang berlebihan dan ubah spesifikasi alur yang sesuai jika diperlukan,
atau hubungi dukungan Databricks untuk meminta peningkatan batas.
PIPELINE_SOURCE_FOLDER_DEPTH_EXCEEDED
Folder '<folder_path>' melebihi level kedalaman direktori maksimum yang diizinkan dari <limit>. Kurangi tingkat berlapis folder atau hubungi tim dukungan Databricks untuk meminta peningkatan batasan.
PIPELINE_SPEC_PARAM_CANNOT_BE_CHANGED
Mengubah parameter <param> berikut dalam pengaturan alur tidak diperbolehkan
PIPELINE_TYPE_NOT_SUPPORTED
Jenis alur '<pipelineType>' tidak didukung.
PIPELINE_TYPE_NOT_WORKSPACE_PIPELINE_TYPE
Alur dengan ID '<pipelineId>', mengelola tabel <tableName>, bukan alur ETL.
PIPELINE_TYPE_QUOTA_EXCEEDED
Tidak dapat memulai pembaruan '<updateId>' karena batas untuk alur aktif berjenis '<pipelineType>' telah tercapai.
PIPELINE_UPDATE_FOR_TABLE_IS_RUNNING
Alur dengan ID '<pipelineId>', mengelola tabel <tableName>, sedang berjalan. Silakan hentikan pipeline sebelum menjalankan operasi.
PIPELINE_WORKSPACE_LIMIT_REACHED
Pembuatan alur jenis '<pipelineType>' diblokir karena ruang kerja '<orgId>' sudah memiliki alur '<countLimit>'. Hapus alur yang tidak digunakan.
PIP_INSTALL_NOT_AT_TOP_OF_NOTEBOOK
Ditemukan sel yang berisi instalasi %pip yang tidak berada di bagian atas buku catatan untuk '<notebookPath>'
Pindahkan semua sel %pip instalasi ke awal buku catatan.
PY4J_BLOCKED_API
SQLSTATE: tidak ada yang ditetapkan
Anda menggunakan Python API yang tidak didukung di lingkungan saat ini.
Silakan periksa dokumentasi Databricks untuk alternatif.
<additionalInfo>
QUERY_BASED_CONNECTOR_SOURCE_API_ERROR
Terjadi kesalahan dalam panggilan API <sourceName>. Jenis API sumber: <qbcSourceApiType>.
Coba refresh tabel tujuan. Jika masalah berlanjut, silakan ajukan tiket.
QUERY_BASED_INGESTION_CONNECTOR_ERROR
Kesalahan terjadi di konektor penyerapan berbasis kueri untuk <sourceName>.
Untuk detail lebih lanjut, lihat QUERY_BASED_INGESTION_CONNECTOR_ERROR
REFERENCE_DLT_DATASET_OUTSIDE_QUERY_DEFINITION
Mereferensikan himpunan <identifier> data Alur Deklaratif Lakeflow Spark di luar definisi kueri himpunan data (yaitu, @dlt.table anotasi) tidak didukung. Silakan baca sebagai gantinya di dalam definisi kueri himpunan data.
REFRESH_INITIATED_FROM_INVALID_WORKSPACE
Refresh harus dimulai di ruang <homeWorkspaceId>kerja , tempat sumber daya dibuat.
Refresh diupayakan di ruang kerja <userWorkspaceId>.
REFRESH_MODE_ALREADY_EXISTS
Tidak dapat menambahkan <type> ke tabel yang sudah memiliki <existingType>. Silakan hilangkan jadwal yang ada atau gunakan ALTER TABLE...ALTER <type> ... untuk mengubahnya.
REQUIRED_PARAM_NOT_FOUND
Parameter <param> yang diperlukan tidak ditemukan.
RESERVED_KEYWORD_IN_USE_CATALOG
USE CATALOG '<reservedKeyword>' ilegal karena '<reservedKeyword>' adalah kata kunci yang dipesan di Lakeflow Spark Declarative Pipelines.
RESERVED_KEYWORD_IN_USE_SCHEMA
USE SCHEMA '<reservedKeyword>' ilegal karena '<reservedKeyword>' adalah kata kunci yang dipesan di Lakeflow Spark Declarative Pipelines.
Sumber daya sedang disediakan
Sumber daya alur sedang disediakan untuk pipeline '<pipelineId>'.
RESOURCE_READ_ONLY_IN_WORKSPACE
<resourceType> '<resourceName>' telah ditetapkan sebagai baca-saja di ruang kerja saat ini.
PULIHKAN_JALUR_YANG_TIDAK_DIHAPUS
Alur '<pipelineId>' tidak dihapus. Pemulihan hanya berlaku untuk alur yang dihapus.
RESTORE_PIPELINE_DISABLED
RestorePipeline tidak diaktifkan untuk jenis alur <pipelineType>
Silakan hubungi dukungan Databricks untuk bantuan dalam memulihkan alur '<pipelineId>'.
ROOT_PATH_NOT_FOUND
Tidak dapat mengakses jalur akar '<rootPath>'. Pastikan Anda memiliki hak akses yang diperlukan.
RUN_AS_USER_NOT_FOUND
Pengguna '<runAsUserId>' yang ditentukan untuk pembaruan tidak ada di ruang kerja.
SAAS_CONNECTION_ERROR
Gagal membuat koneksi ke sumber <sourceName>. Kode kesalahan: <saasConnectionErrorCode>.
Untuk detail selengkapnya, lihat SAAS_CONNECTION_ERROR
SAAS_CONNECTOR_DUPLICATE_DATA
Ditemukan data duplikat dalam tabel <tableName>. Jenis sumber: <sourceName>.
Untuk detail selengkapnya, lihat SAAS_CONNECTOR_DUPLICATE_DATA
SAAS_CONNECTOR_INVALID_INCLUDE_COLUMNS
Include_columns tidak valid yang ditentukan untuk tabel <qualifiedTableName>. Alasan: <reason>
SAAS_CONNECTOR_INVALID_PRIMARY_KEY_CONFIGURATION
Konfigurasi kunci primer tidak valid untuk tabel <qualifiedTableName>. Alasan: <reason>
SAAS_CONNECTOR_MUTUAL_AUTHENTICATION_FAILED
Sesi ini tidak dapat diautentikasi bersama untuk digunakan dengan <sourceName>. Jenis API sumber: <saasSourceApiType>. Kode kesalahan: <saasSourceApiErrorCode>.
Harap verifikasi bahwa sertifikat klien dan kunci privat adalah pasangan yang valid dan dipercaya oleh <sourceName>.
SAAS_CONNECTOR_REFRESH_TOKEN_EXPIRED
Token refresh untuk koneksi <connectionName> telah kedaluwarsa. Edit koneksi, autentikasi ulang, dan jalankan kembali alur Anda.
SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR
Perubahan skema telah terjadi dalam tabel <tableName> sumber <sourceName>.
Untuk informasi lebih lanjut, lihat SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR
SAAS_CONNECTOR_SOURCE_API_ERROR
Terjadi kesalahan dalam panggilan API <sourceName>. Jenis API sumber: <saasSourceApiType>. Kode kesalahan: <saasSourceApiErrorCode>.
Coba refresh tabel tujuan. Jika masalah berlanjut, silakan ajukan tiket.
SAAS_CONNECTOR_UC_CONNECTION_OAUTH_EXCHANGE_FAILED
Pertukaran token OAuth gagal untuk koneksi UC: <connectionName>.
Ini dapat disebabkan oleh masalah dengan kredensial UC Anda. Periksa jejak kesalahan, edit koneksi UC, autentikasi ulang, dan jalankan alur lagi. Jika kesalahan berlanjut, ajukan tiket.
SAAS_CONNECTOR_UNSUPPORTED_ERROR
Kesalahan yang tidak didukung terjadi di sumber data <sourceName>.
Untuk detail selengkapnya, lihat SAAS_CONNECTOR_UNSUPPORTED_ERROR
SAAS_INCOMPATIBLE_SCHEMA_CHANGES_DURING_INIT
Kami telah mendeteksi perubahan skema yang tidak kompatibel saat menginisialisasi alur:
<details>
Lakukan refresh penuh pada tabel yang terkena dampak.
SAAS_PARTIAL_ANALYSIS_INPUT_CREATION_ERROR
Terjadi kesalahan saat membuat input untuk analisis parsial. Pembaruan jalur pipa baru tidak akan dibuat.
Silakan periksa log peristiwa dan perbaiki masalah yang sesuai.
SAAS_SCHEMA_DIVERGED_DURING_ANALYSIS
Skema yang dianalisis tabel sumber (<table>) telah berbeda dari skema yang diharapkan.
Silakan coba lagi pembaruan alur dan lihat apakah masalah telah diatasi.
Jika masalah ini berlanjut, silakan lakukan refresh penuh pada tabel yang disebutkan di atas
Skema yang diharapkan:
<expectedSchema>
Skema aktual:
<actualSchema>
SAAS_UC_CONNECTION_INACCESSIBLE
<connectionName> Koneksi yang disediakan tidak dapat diakses. Silakan periksa koneksi dan coba lagi.
Untuk informasi lebih lanjut, lihat SAAS_UC_CONNECTION_INACCESSIBLE
SCHEMA_SPEC_EMPTY_CATALOG
SchemaSpec memiliki string kosong di bidang katalog.
Hapus string kosong atau tambahkan nama katalog. (Jika skema ini bukan bagian dari katalog di sumber, jangan setel bidang tersebut.)
Detail spesifikasi skema:
<schemaSpec>
SCHEMA_SPEC_EMPTY_SCHEMA
SchemaSpec memiliki string kosong di bidang skema.
Hapus string kosong atau tambahkan nama skema. (Jika tabel ini bukan milik skema di sumber, jangan atur bidang.)
Detail spesifikasi skema:
<schemaSpec>
SCHEMA_SPEC_REQUIRE_ONE_OF_CATALOG_SCHEMA
Setidaknya salah satu katalog sumber dan skema sumber harus ada. Tapi keduanya kosong.
Detail spesifikasi skema:
<schemaSpec>
URUTAN_OLEH_KOLOM_TIDAK_DITEMUKAN
Definisi alur mencakup kolom sequence_by (<columnNames>) yang tidak ada dalam tabel <qualifiedTableName> sumber <sourceType>. Hapus kolom ini dari bidang sequence_by.
KEBIJAKAN_ANGGARAN_SERVERLESS_DAN_KEBIJAKAN_PEMAKAIAN_KEDUANYA_DITETAPKAN
Tidak dapat mengatur budget_policy_id dan usage_policy_id sekaligus. Silakan hapus budget_policy_id.
SERVERLESS_BUDGET_POLICY_BAD_REQUEST
Kebijakan anggaran yang disediakan dengan id '<budgetPolicyId>' tidak dapat digunakan di ruang kerja ini karena kendala pengikatan ruang kerja kebijakan.
SERVERLESS_BUDGET_POLICY_IS_INVALID
Kebijakan anggaran tanpa server dengan id '<budgetPolicyId>' tidak valid.
SERVERLESS_BUDGET_POLICY_MISSING
Kebijakan anggaran tanpa server dengan id '<budgetPolicyId>' tidak ada.
SERVERLESS_BUDGET_POLICY_NOT_ENABLED
Kebijakan anggaran tanpa server tidak diaktifkan, silakan hubungi dukungan Databricks.
SERVERLESS_BUDGET_POLICY_NOT_ENABLED_FOR_ACCOUNT
Kebijakan anggaran tanpa server tidak diaktifkan untuk akun ini. Pengguna tidak dapat menentukan kebijakan anggaran untuk alur ini. Admin akun harus mencoba mendaftar melalui portal pratinjau fitur. Jika masalah berlanjut, silakan hubungi dukungan Databricks.
SERVERLESS_BUDGET_POLICY_NOT_SUPPORTED_FOR_NON_SERVERLESS_PIPELINE
Kebijakan anggaran tanpa server tidak dapat ditetapkan ke alur tanpa server.
SERVERLESS_BUDGET_POLICY_NOT_SUPPORTED_FOR_PIPELINE_TYPE
Kebijakan anggaran serverless tidak didukung untuk <pipelineType>jenis pipeline.
SERVERLESS_BUDGET_POLICY_PERMISSION_DENIED
Pengguna tidak memiliki izin untuk menggunakan kebijakan anggaran tanpa server dengan id '<budgetPolicyId>'.
SERVERLESS_NOT_AVAILABLE
Komputasi tanpa server tidak tersedia. Silakan hubungi Databricks untuk informasi lebih lanjut.
SERVERLESS_NOT_ENABLED
Anda tidak dapat menggunakan komputasi tanpa server dengan Lakeflow Spark Declarative Pipeliness. Silakan hubungi Databricks untuk mengaktifkan fitur ini untuk ruang kerja Anda.
SERVERLESS_NOT_ENABLED_FOR_USER
Komputasi tanpa server tidak diaktifkan untuk penelepon. Silakan hubungi admin ruang kerja Anda untuk mengaktifkan fitur ini.
SERVERLESS_NOT_ENABLED_FOR_WORKSPACE
Komputasi tanpa server tidak tersedia untuk ruang kerja dan/atau wilayah ini. Silakan hubungi Databricks untuk informasi lebih lanjut.
SERVERLESS_REQUIRED
Anda harus menggunakan komputasi tanpa server di ruang kerja ini.
SERVICENOW_CONNECTION_ERROR
Terjadi kesalahan di ServiceNow. Jenis API sumber: <saasSourceApiType>.
Untuk detail selengkapnya, lihat SERVICENOW_CONNECTION_ERROR
SERVICENOW_CONNECTOR_EMPTY_CURSOR_KEY_ERROR
Terjadi kesalahan di ServiceNow. Jenis API sumber: <saasSourceApiType>.
Saat ini, alur penyerapan tidak dapat menyerap tabel '<tableName>' karena kunci kursor dalam baris berisi bidang kosong.
Untuk terus menjalankan pipeline Anda, hapus tabel ini. Jika kesalahan berlanjut, ajukan tiket.
SERVICENOW_CONNECTOR_INSTANCE_HIBERNATION_ERROR
Terjadi kesalahan di ServiceNow. Jenis API sumber: <saasSourceApiType>.
Gagal menyambungkan ke instans ServiceNow. Instans tampaknya berhibernasi atau tidak aktif.
Masuk ke portal admin ServiceNow Anda dan tunggu beberapa saat hingga instans sepenuhnya bangun.
Jika kesalahan berlanjut, ajukan tiket.
SERVICENOW_CONNECTOR_INSTANCE_OFFLINE_ERROR
Terjadi kesalahan di ServiceNow. Jenis API sumber: <saasSourceApiType>.
Gagal menyambungkan ke instans ServiceNow. Instans sedang offline.
Masuk ke portal admin ServiceNow Anda dan tunggu beberapa saat hingga instans dipulihkan.
Jika kesalahan berlanjut, ajukan tiket.
SERVICENOW_CONNECTOR_INVALID_TABLE_ERROR
Terjadi kesalahan di ServiceNow. Jenis API sumber: <saasSourceApiType>.
Gagal mengkueri skema tabel '<tableName>'. Tabel tidak ada di akun ServiceNow untuk pengguna ini.
Verifikasi nama tabel untuk kesalahan ketik apa pun dan pastikan bahwa pengguna memiliki izin yang diperlukan untuk mengakses tabel.
Jika kesalahan berlanjut, ajukan tiket.
SERVICENOW_CONNECTOR_IP_ADDRESS_RESTRICTED_ERROR
Terjadi kesalahan di ServiceNow. Jenis API sumber: <saasSourceApiType>.
Gagal menyambungkan ke instans ServiceNow. Instans memiliki pembatasan kontrol akses alamat IP.
Untuk mengatasi hal ini, nonaktifkan pembatasan alamat IP dengan menavigasi ke ServiceNow >> Semua >> Kontrol Akses Alamat IP Keamanan >> Sistem atau gunakan IP stabil tanpa server
Jika kesalahan berlanjut, ajukan tiket.
SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR
Terjadi kesalahan di ServiceNow. Jenis API sumber: <saasSourceApiType>.
URL titik akhir API ServiceNow tidak valid terdeteksi. Struktur URL tidak cocok dengan format ServiceNow yang diharapkan.
Memeriksa konfigurasi instans ServiceNow di dalam kredensial koneksi UC.
Untuk informasi lebih lanjut, lihat SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR
SERVICENOW_CONNECTOR_MAX_FAILED_ATTEMPTS_REACHED
Terjadi kesalahan di ServiceNow. Jenis API sumber: <saasSourceApiType>.
Ini sering terjadi ketika pengambilan data untuk tabel membutuhkan waktu terlalu lama. Sebagai langkah pertama, bekerja samalah dengan administrator ServiceNow Anda untuk mengaktifkan pengindeksan pada kolom kursor.
Kolom kursor dipilih dari daftar berikut, dalam urutan ketersediaan dan preferensi: sys_updated_on (pilihan pertama), sys_created_on (pilihan kedua), sys_archived (pilihan ketiga)
Untuk petunjuk tentang mengaktifkan pengindeksan di ServiceNow, lihat di sini: https://docs.databricks.com/ingestion/lakeflow-connect/servicenow-overview#why-is-my-servicenow-ingestion-performance-slow.
Sebaiknya tingkatkan batas waktu kueri REST API menjadi lebih dari 60 detik untuk memungkinkan lebih banyak waktu untuk mengambil rekaman.
Kemudian, coba lagi alur penyerapan Anda. Jika masalah berlanjut, ajukan tiket.
SERVICENOW_CONNECTOR_SCHEMA_FIELD_TYPE_INACCESSIBLE
Terjadi kesalahan di ServiceNow. Jenis API sumber: <saasSourceApiType>.
Saat mengambil skema tabel tanpa hak akses admin, "internal_type" kolom skema tidak dapat diakses.
Untuk mengatasinya, berikan izin baca pada tabel 'sys_glide_object' kepada pengguna saat ini.
Jika kesalahan berlanjut, ajukan tiket.
SERVICENOW_CONNECTOR_SCHEMA_FIELD_TYPE_MISMATCH
Terjadi kesalahan di ServiceNow saat mengambil skema tabel.
Ditemukan dua jenis data yang bertentangan untuk bidang '<fieldName>': '<firstDataType>' dan '<secondDataType>'.
Untuk terus menjalankan pipeline Anda, hapus tabel ini. Jika kesalahan berlanjut, ajukan tiket.
SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
Terjadi kesalahan di ServiceNow. Jenis API sumber: <saasSourceApiType>.
Untuk detail selengkapnya, lihat SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
SET_TBLPROPERTIES_NOT_ALLOWED_FOR_PIPELINE_TABLE
ALTER <commandTableType>
...
SET TBLPROPERTIES tidak didukung. Untuk mengubah properti tabel, ubah definisi asli dan jalankan pembaruan.
SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE
Penyerapan untuk objek <objName> tidak lengkap karena pekerjaan kueri Salesforce API memakan waktu terlalu lama, gagal, atau dibatalkan secara manual.
Untuk detail selengkapnya, lihat SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE
SFDC_CONNECTOR_BULK_QUERY_NOT_FOUND
Penyerapan untuk objek <objName> gagal karena pekerjaan kueri API massal Salesforce tidak dapat ditemukan.
Ini kemungkinan karena pekerjaan dihapus di antarmuka pengguna Salesforce atau karena sudah lebih dari 7 hari sejak pembaruan alur terakhir, setelah itu Salesforce secara otomatis menghapus pekerjaan
Untuk memulai pekerjaan massal baru, lakukan FULL REFRESH pada tabel tujuan tertentu.
SFDC_CONNECTOR_CREATE_BULK_QUERY_API_LIMIT_EXCEEDED
Kesalahan terjadi dalam panggilan SALESFORCE API: Batas API terlampaui
Harap tunggu hingga batas API Anda direset. Kemudian coba refresh tabel tujuan.
Jika kesalahan berlanjut, ajukan tiket.
SFDC_CONNECTOR_CREATE_BULK_QUERY_JOB_FAILED
Pemrosesan data untuk objek <objName> tidak lengkap karena pembuatan pekerjaan kueri API massal Salesforce ini gagal. Kode kesalahan: <saasSourceApiErrorCode>.
<actionText>.
KONEKTOR_SFDC_REKAMAN_RUSAK
Penyerapan untuk objek Salesforce '<objName>' gagal karena Salesforce <saasSourceApiType> mengembalikan rekaman cacat.
Silakan periksa stacktrace untuk detail lebih lanjut.
Verifikasi data di Salesforce dan jalankan kembali alur.
SINKS_NOT_SUPPORTED_IN_SEG
Alur Deklaratif Lakeflow Spark sink dalam alur tidak didukung di ruang kerja yang diaktifkan kontrol keluar tanpa server. Sink Alur Deklaratif Lakeflow Spark yang didukung adalah Kafka dan Delta.
Sink yang tidak didukung berikut ditemukan: <sinkNames>, format yang sesuai adalah: <sinkFormats>.
SOURCE_TABLE_NOT_MATERIALIZED
Gagal membaca himpunan data dependen '<sourceTableName>' karena tidak termaterialisasi. Jalankan seluruh alur untuk mewujudkan semua himpunan data dependen.
SPARK_CONNECT_DEFINITION_PATH_NOT_FOUND
Jalur definisi untuk elemen grafik '<graphElementName>' tidak ditemukan. Silakan hubungi dukungan Databricks.
SPARK_CONNECT_DEFINITION_PATH_NOT_FOUND_SPARK_SQL
Tidak ada jalur definisi alur yang tersedia dalam konteks eksekusi Spark SQL saat ini. Silakan hubungi dukungan Databricks.
SPARK_CONNECT_UNSUPPORTED_FLOW_DEFINITION_ERROR
Definisi alur tidak didukung. Silakan hubungi dukungan Databricks. Perintah: <defineFlowCommand>
SPARK_CONNECT_UNSUPPORTED_OUTPUT_TYPE
Jenis output '<outputType>' tidak didukung di Spark Connect. Silakan hubungi dukungan Databricks.
STANDALONE_PRIVATE_MVST_NOT_SUPPORTED
Membuat MV/ST mandiri PRIVATE tidak didukung. Silakan hapus pengubah PRIVATE
MULAI_PYTHON_REPL_WAKTU_HABIS
Waktu tunggu habis saat menunggu Python REPL dimulai. Membutuhkan waktu lebih dari <timeoutSeconds> detik.
STREAMING_TARGET_NOT_DEFINED
Tidak dapat menemukan tabel target <target> untuk perintah <command>. Tabel target <target> tidak ditentukan dalam pipeline.
SYNCED_TABLE_USER_ERROR
Kesalahan pengguna alur tabel yang disinkronkan.
Untuk detail selengkapnya, lihat SYNCED_TABLE_USER_ERROR
TABLE_CHANGED_DURING_OPERATION
Tabel <tableName> dimodifikasi di luar transaksi ini, dan transaksi ini telah digulung balik. Coba lagi operasi.
TABLE_MATERIALIZATION_CYCLIC_FOREIGN_KEY_DEPENDENCY
Pembaruan untuk alur kerja: <pipelineId> mendeteksi adanya rantai siklik batasan kunci asing: <tables>.
TABLE_SPEC_BOTH_CATALOG_SCHEMA_REQUIRED
TableSpec kehilangan salah satu katalog sumber dan/atau skema sumber.
Detail spesifikasi tabel:
<tableSpec>
TABLE_SPEC_EMPTY_CATALOG
TableSpec memiliki string kosong di bidang katalog.
Hapus string kosong atau tambahkan nama katalog. (Jika tabel ini bukan milik katalog di sumbernya, jangan tetapkan bidang.)
Detail spesifikasi tabel:
<tableSpec>
TABLE_SPEC_EMPTY_SCHEMA
TableSpec memiliki string kosong di bidang skema.
Hapus string kosong atau tambahkan nama skema. (Jika tabel ini bukan milik skema di sumber, jangan atur bidang.)
Detail spesifikasi tabel:
<tableSpec>
TABLE_SPEC_EMPTY_TABLE
Nama tabel kosong. Harap berikan nama tabel.
Detail spesifikasi tabel:
<tableSpec>
TABLE_TOKEN_NOT_EXIST_FOR_SCHEMA_EVOLUTION_LEGACY_TABLE
Evolusi skema tidak dapat diaktifkan karena metadata yang hilang. Silakan picu refresh penuh.
Alasan: Token tabel rekam jepret harus ditentukan saat evolusi skema diaktifkan.
PIPELINE_YANG_DIHAPUS_DI_RUANG_KERJA
Tidak dapat memulai alur karena alur dibuang atau dihapus.
TRIGGER_INTERVAL_VALUE_INVALID
Interval pemicu harus berupa durasi positif, nilai maksimum yang dapat diterima adalah 2.147.483.647 detik. Diterima: <actual> detik.
PEMICU_TIDAK_DIAKTIFKAN
Pemicu tidak diaktifkan untuk ruang kerja ini. Harap aktifkan Pemicu Tabel di halaman Pratinjau.
TRIGGER_ON_VIEW_READ_FROM_FILE_NOT_SUPPORTED
Sumber <source> adalah tampilan yang membaca dari lokasi file, yang tidak didukung saat ini oleh pemicu.
Kesalahan Serialisasi Permintaan Pemicu
Ada masalah saat memproses permintaan Anda. Silakan hubungi dukungan Databricks.
JENIS_PEMICU_YANG_DAPAT_DILINDUNGI_TIDAK_DIDUKUNG
Penyiapan pemicu gagal: jenis tabel yang tidak didukung. Lihat dokumentasi untuk jenis yang didukung.
TRIGGER_SOURCE_TYPE_NOT_SUPPORTED
Sumber <source> dengan jenis <type> saat ini tidak didukung oleh pemicu.
TRIGGER_STATE_SERIALIZATION_ERROR
Ada masalah saat memproses permintaan Anda. Silakan hubungi dukungan Databricks.
BATAS_TABEL_PEMICU_TERLAMPAUI
Penyiapan pemicu gagal: pemicu menyertakan lebih banyak tabel daripada batas yang diizinkan. Silakan lihat dokumentasi untuk detail tentang batas tabel dan cara mengatasi masalah ini.
TIPE_TABEL_PICU_TIDAK_DIDUKUNG
Penyiapan pemicu gagal: jenis tabel yang tidak didukung. Lihat dokumentasi untuk jenis yang didukung.
UC_CLEARING_TARGET_SCHEMA_NOT_ALLOWED
Menghapus bidang skema target tidak diizinkan untuk pipeline UC. Alasan: <reason>.
UC_IAM_ROLE_NON_SELF_ASSUMING
Peran IAM untuk kredensial penyimpanan ditemukan bukan asumsi mandiri.
Silakan periksa kepercayaan dan kebijakan IAM dari peran Anda untuk memastikan bahwa peran IAM Anda dapat mengambil alih dirinya sendiri sesuai dengan dokumentasi kredensial penyimpanan Unity Catalog.
UC_NOT_ENABLED
Menggunakan katalog UC di Lakeflow Spark Declarative Pipelines tidak diaktifkan.
UC_PIPELINE_CANNOT_PUBLISH_TO_HMS
Pipeline yang diaktifkan UC tidak dapat dipublikasikan ke Hive Metastore. Silakan pilih katalog target yang berbeda.
UC_TARGET_SCHEMA_REQUIRED
Bidang skema target diperlukan untuk alur kerja UC. Alasan: <reason>.
UNABLE_TO_INFER_TABLE_SCHEMA
Gagal menentukan skema untuk tabel <tableName> dari alur upstream-nya.
Ubah alur yang menulis ke tabel ini agar skemanya kompatibel.
Skema yang disimpulkan sejauh ini:
<inferredDataSchema>
Skema yang tidak kompatibel:
<incompatibleDataSchema>
UNEXPECTED_PIPELINE_SCHEMA_PERMISSION_ERROR
Kesalahan tak terduga saat memeriksa izin skema untuk alur <pipelineId>. Silakan hubungi dukungan Databricks.
UNIFORM_KOMPATIBILITAS_TIDAK_BISA_DIATUR_DENGAN_ROW_FILTERS_ATAU_COLUMN_MASKS
Kompatibilitas seragam tidak dapat diatur pada tampilan materialisasi atau tabel streaming yang memiliki filter baris atau masker kolom yang diterapkan.
UNITY_CATALOG_INITIALIZATION_FAILED
Mengalami kesalahan dengan Katalog Unity saat menyiapkan alur pada kluster <clusterId>.
Pastikan konfigurasi Katalog Unity Anda sudah benar, dan sumber daya yang diperlukan (misalnya, katalog, skema) ada dan dapat diakses.
Verifikasi juga bahwa kluster memiliki izin yang sesuai untuk mengakses Katalog Unity.
Detail: <ucErrorMessage>
UNRESOLVED_SINK_PATH
Jalur penyimpanan untuk sink <identifier> tidak dapat ditemukan. Silakan hubungi dukungan Databricks.
UNRESOLVED_TABLES_FOR_MAINTENANCE
Tabel berikut ditemukan dalam definisi alur tetapi tidak dapat diselesaikan selama pemeliharaan. Jalankan eksekusi pembaruan alur dengan definisi alur terbaru untuk mewujudkan semua tabel dalam definisi alur dan membuka blokir pemeliharaan, atau hubungi dukungan Databricks jika masalah berlanjut.
<unresolvedTableIdentifiersSet>
UNRESOLVED_TABLE_PATH
Jalur penyimpanan untuk tabel <identifier> tidak dapat diselesaikan. Silakan hubungi dukungan Databricks.
UNSUPPORTED_ALTER_COMMAND
ALTER <commandTableType>
...
<command> tidak didukung.
UNSUPPORTED_CHANNEL_FOR_DPM
Saluran yang tidak didukung untuk Mode Penerbitan Langsung. Mengharapkan saluran 'CURRENT' atau 'PREVIEW', tetapi mendapat 'PREVIOUS'
UNSUPPORTED_COMMAND_IN_NON_DPM_PIPELINE
<command> hanya didukung dalam mode penerbitan langsung yang diaktifkan Spark Declarative Pipeline
UNSUPPORTED_COMMAND_IN_QUERY_DEFINITION
'<command>' tidak didukung dalam definisi kueri. Silakan pindahkan perintah di luar definisi kueri. Jika itu adalah Spark Declarative Pipeline di Python, pindahkan '<command>' ke luar @dlt.table()/@dlt.view() dekorator. Jika ini adalah Alur Deklaratif Spark di Scala, pindahkan '<command>' di luar metode 'kueri'.
UNSUPPORTED_CUSTOM_DBR_VERSION
Versi DBR kustom '<v>' tidak didukung dalam ruang kerja SHIELD dan HIPAA. Diharapkan salah satu dari [<supportedDbrVersions>]
Skema Kustom Tidak Didukung dalam Pratinjau
Pratinjau pribadi skema kustom dinonaktifkan.
Buat alur baru dengan mode penerbitan default, menggunakan bidang 'skema'
dalam spesifikasi alur, dan pindahkan himpunan data dari alur ini ke alur baru.
AKTIVASI PRATINJAU SKEMA KUSTOM TIDAK DIDUKUNG
Pratinjau privat skema kustom dinonaktifkan dan Anda tidak dapat menambahkan pratinjau ke alur.
<sparkConfKeys> Hapus dari konfigurasi alur.
UNSUPPORTED_DBR_VERSION
Versi DBR '<v>' tidak didukung. Diharapkan salah satu dari [<supportedDbrVersions>]
UNSUPPORTED_FEATURE_FOR_WORKSPACE
<featureName> tidak didukung di ruang kerja Anda. Silakan hubungi dukungan Databricks untuk mengaktifkan fitur ini untuk ruang kerja Anda.
UNSUPPORTED_LANGUAGE
Gagal memuat <language> buku catatan '<notebookPath>'. Hanya buku catatan <supportedLanguages> yang didukung saat ini.
UNSUPPORTED_LIBRARY_FILE_TYPE
File di <path> tidak memiliki akhiran .py atau .sql. Hanya file Python dan SQL yang didukung dalam pipeline.
UNSUPPORTED_LIBRARY_NOTEBOOK_LANGUAGE
Bahasa <language> tidak didukung untuk buku catatan <path>. Hanya Python dan SQL yang didukung dalam alur
UNSUPPORTED_LIBRARY_OBJECT_TYPE
Jalur yang disertakan pada <path> memiliki tipe <objectType> yang tidak didukung. Saat ini, hanya buku catatan dan file yang dapat digunakan sebagai pustaka. Untuk mengatasi masalah ini, hapus objek yang tidak didukung atau perbarui pustaka yang dikonfigurasi untuk alur ini sehingga hanya jenis objek yang didukung yang disertakan.
UNSUPPORTED_MANAGED_INGESTION_SOURCE_TYPE
Definisi alur penyerapan terkelola tidak valid, jenis sumber yang tidak didukung: <sourceType>.
UNSUPPORTED_MULTIPLE_UPDATE_TYPE
Validasi hanya, jelajahi saja, dan gulung balik pembaruan saling eksklusif. Paling banyak satu harus diatur.
UNSUPPORTED_REWIND
Operasi putar balik belum diaktifkan untuk ruang kerja ini.
UNSUPPORTED_SAAS_INGESTION_TYPE
Jenis penyerapan yang disediakan <ingestionType> tidak didukung.
Silakan hubungi dukungan Databricks jika masalah ini berlanjut.
UNSUPPORTED_SPARK_SQL_COMMAND
'<command>' tidak didukung dalam API spark.sql("...") di Python Alur Deklaratif Lakeflow Spark. Perintah yang didukung: <supportedCommands>.
UNSUPPORTED_SQL_STATEMENT
Pernyataan SQL yang tidak didukung untuk <datasetType> '<datasetName>': <operation> tidak didukung.
UPDATED_DEFINITION_SET_FOR_NON_DBSQL_PIPELINE
Hanya DBSQL pipeline yang dapat memiliki updated_definition.
USE_CATALOG_IN_HMS
USE CATALOG hanya didukung dalam Alur Deklaratif Spark dengan dukungan UC
VIEW_TEXT_NOT_SAVED_IN_UC
Penyegaran tabel <tableName> tidak dapat dilakukan karena tidak memiliki kueri yang disimpan di Katalog Unity. Silakan hubungi dukungan Databricks.
WORKDAY_HCM_CONNECTOR_FETCH_BATCH_FAILED
Terjadi kesalahan di Workday HCM. Jenis API sumber: <saasSourceApiType>.
Gagal mengambil batch saat offset '<offset>'.
Coba refresh tabel tujuan. Jika masalah berlanjut, silakan ajukan tiket.
WORKDAY_REPORTS_CONNECTOR_KESALAHAN_RENTAH_OAUTH_YANG_TIDAK_MEMADAI
Terjadi kesalahan dalam Laporan Workday. Jenis API sumber: <saasSourceApiType>.
Gagal mengambil data untuk laporan '<reportUrl>'. Klien OAuth tidak memiliki akses cakupan yang memadai untuk mengambil laporan.
Untuk mengatasinya, pastikan klien OAuth memiliki cakupan yang diperlukan yang dikonfigurasi di Workday.
Jika kesalahan berlanjut, ajukan tiket.
WORKDAY_REPORTS_CONNECTOR_ERROR_PARAM_DIBUTUHKAN_HILANG
Terjadi kesalahan dalam Laporan Workday. Jenis API sumber: <saasSourceApiType>.
Laporan Workday '<reportUrl>' mengharapkan parameter '<missingParam>'.
Pastikan semua parameter laporan disertakan dalam URL; Anda dapat memeriksa konfigurasi laporan Workday untuk mengidentifikasi parameter mana yang wajib.
Jika masalah berlanjut, ajukan tiket.
WORKDAY_REPORTS_CONNECTOR_REPORT_NOT_FOUND_ERROR
Terjadi kesalahan dalam Laporan Workday. Jenis API sumber: <saasSourceApiType>.
URL laporan '<reportUrl>' salah. Silakan periksa kesalahan ketik di URL dasar atau nama laporan untuk mengatasi masalah tersebut.
Jika masalah berlanjut, ajukan tiket.
KESALAHAN_UKURAN_LAPORAN_CONNECTOR_LAPORAN_WORKDAY_TERLEBIH
Terjadi kesalahan dalam Laporan Workday. Jenis API sumber: <saasSourceApiType>.
Ukuran laporan dengan URL '<reportUrl>' lebih besar dari 2GB. Pastikan ukuran laporan tidak melebihi batas ini.
Jika masalah berlanjut, ajukan tiket.
WORKDAY_REPORTS_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
Terjadi kesalahan dalam Laporan Workday. Jenis API sumber: <saasSourceApiType>.
Untuk keterangan lebih lanjut, lihat WORKDAY_REPORTS_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
WORKDAY_REPORT_URL_EMPTY
URL laporan Workday kosong. Setidaknya satu laporan harus disediakan.
WORKSPACE_QUOTA_EXCEEDED
Tidak dapat memulai pembaruan '<updateId>' karena sudah ada alur aktif '<maxActiveUpdates>' yang berjalan di ruang kerja ini.
Installation
ERROR_BERKAS_LINGKUNGAN_TIDAK_DITEMUKAN
SQLSTATE: tidak ada yang ditetapkan
File YAML lingkungan dasar hilang. Pastikan file ada di jalur yang ditentukan.
Deskripsi: Terjadi ketika file YAML lingkungan dasar yang diperlukan tidak dapat ditemukan di lokasi yang diharapkan.
Tindakan yang Disarankan: Pastikan file YAML lingkungan dasar ada di jalur yang ditentukan dan coba lagi penginstalan.
KESALAHAN_MEMBACA_BERKAS_LINGKUNGAN_DASAR
SQLSTATE: tidak ada yang ditetapkan
Gagal membaca file lingkungan dasar karena sintaksis atau format file YAML yang salah. Silakan tinjau isi file.
Deskripsi: Terjadi saat file YAML lingkungan dasar berisi sintaks atau kesalahan format.
Tindakan yang Disarankan: Validasi dan perbaiki sintaks YAML dalam file lingkungan, lalu coba lagi penginstalan.
ERROR_KONEKSI_DITOLAK
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat tersambung ke repositori paket. Periksa konektivitas jaringan, pengaturan firewall, atau ketersediaan repositori.
Deskripsi: Terjadi ketika pip tidak dapat membuat koneksi ke repositori paket jarak jauh karena masalah jaringan, pembatasan firewall, atau waktu henti repositori.
Tindakan yang Disarankan: Verifikasi konektivitas jaringan, periksa firewall atau pengaturan proksi, konfirmasikan URL repositori dapat diakses, dan coba lagi nanti jika repositori mungkin sementara tidak tersedia.
KESALAHAN_PERUBAHAN_VERSI_PAKET_INTI
SQLSTATE: tidak ada yang ditetapkan
Paket yang diinstal tidak kompatibel dengan paket inti Databricks. Sejajarkan versi paket dengan versi pustaka yang telah diinstal sebelumnya, dan coba lagi penginstalannya.
Deskripsi: Terjadi ketika versi dependensi inti Databricks (misalnya, pyspark) diubah.
Tindakan yang Disarankan: Sejajarkan versi paket yang diinstal dengan pustaka yang telah diinstal sebelumnya dan coba lagi penginstalan.
ERROR_CRAN_PACKAGE_NOT_AVAILABLE
SQLSTATE: tidak ada yang ditetapkan
Paket CRAN tidak tersedia untuk versi R yang telah diinstal sebelumnya pada komputasi ini.
Deskripsi: Terjadi ketika paket R tidak diterbitkan untuk versi R yang diinstal pada komputasi.
Tindakan yang Disarankan: Beralih ke komputasi dengan versi R yang kompatibel, atau pilih versi paket yang berbeda.
ERROR_DBFS_DISABLED (Kesalahan: DBFS Dinonaktifkan)
SQLSTATE: tidak ada yang ditetapkan
Akses root DBFS publik dinonaktifkan. Silakan gunakan penyimpanan alternatif.
Deskripsi: Terjadi saat mencoba menginstal pustaka dari DBFS, tetapi akar DBFS publik dinonaktifkan di ruang kerja.
Tindakan yang Disarankan: Gunakan lokasi penyimpanan alternatif seperti volume UC, file ruang kerja, atau penyimpanan jarak jauh.
ERROR_DIRECTORY_NOT_INSTALLABLE
SQLSTATE: tidak ada yang ditetapkan
Direktori tidak dapat dipasang karena struktur paket Python yang tidak valid. Silakan periksa apakah direktori telah disiapkan dengan benar.
Deskripsi: Terjadi saat perintah pip install dijalankan terhadap direktori yang tidak memiliki struktur paket Python yang valid.
Tindakan yang Disarankan: Pastikan direktori berisi setup.py atau pyproject.toml dan coba lagi, atau kemas sebagai roda.
KESALAHAN_DUPLIKAT_PENGINSTALAN
SQLSTATE: tidak ada yang ditetapkan
Penginstalan paket duplikat terdeteksi. Coba hapus entri paket duplikat untuk paket dan mulai ulang kluster.
Deskripsi: Terjadi ketika paket yang sama sudah diinstal pada kluster dan penginstalan duplikat dicoba.
Tindakan yang Disarankan: Hapus entri paket duplikat dan mulai ulang kluster.
FITUR_ERROR_DINONAKTIFKAN
SQLSTATE: tidak ada yang ditetapkan
Volume-volume pada Katalog Unity dinonaktifkan di ruang kerja. Silakan hubungi admin ruang kerja untuk mengaktifkan fitur ini.
Deskripsi: Terjadi ketika volume Unity Catalog dinonaktifkan di ruang kerja, mencegah penginstalan dari volume UC.
Tindakan yang Disarankan: Hubungi administrator ruang kerja Anda untuk mengaktifkan volume Katalog Unity, atau gunakan penyimpanan alternatif.
ERROR_HASH_MISMATCH (Kesalahan Ketidaksesuaian Hash)
SQLSTATE: tidak ada yang ditetapkan
Ketidakcocokan hash paket terdeteksi. Hash paket yang diunduh tidak cocok dengan hash yang diharapkan.
Deskripsi: Terjadi ketika hash paket yang diunduh tidak cocok dengan hash yang diharapkan.
Tindakan yang Disarankan: Coba lagi penginstalan, mulai ulang kluster, dan/atau pindahkan penginstalan paket besar ke File Ruang Kerja, Volume UC, atau repositori PyPI privat.
ERROR_INVALID_FILE (File Tidak Valid)
SQLSTATE: tidak ada yang ditetapkan
File yang ditentukan tidak dapat diinstal karena tipe file yang salah. Pastikan Anda menggunakan tipe file yang valid dan didukung.
Deskripsi: Terjadi ketika file pustaka yang ditentukan tidak dapat diinstal karena jenis atau format file yang salah.
Tindakan yang Disarankan: Gunakan jenis file pustaka yang didukung (misalnya, roda, jar) dan verifikasi validitas jalur.
ERROR_KETIDAKVALIDAN_SYARAT
SQLSTATE: tidak ada yang ditetapkan
Sintaksis yang salah atau entri salah format dalam file persyaratan atau dependensi paket. Periksa dan koreksi file persyaratan dan konten dependensi paket.
Deskripsi: Format persyaratan yang tidak valid atau salah bentuk terdeteksi dalam file persyaratan Anda atau dalam spesifikasi dependensi paket.
Tindakan yang Disarankan: Gunakan format yang benar (misalnya, 'library-name==version') dalam file persyaratan, verifikasi format dependensi paket valid, dan periksa kesalahan ketik atau penentu versi yang tidak didukung.
ERROR_INVALID_SCRIPT_ENTRY_POINT
SQLSTATE: tidak ada yang ditetapkan
Titik entri skrip tidak valid. Silakan periksa titik masuk paket atau file setup.py.
Deskripsi: Terjadi ketika titik entri skrip konsol yang ditentukan tidak ada dalam metadata paket.
Tindakan yang Disarankan: Verifikasi nama titik masuk di setup.py atau pyproject.toml, atau hubungi pengelola paket.
KESALAHAN_KONFIGURASI_PENYIMPANAN_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
Nilai konfigurasi penyimpanan yang tidak valid terdeteksi untuk akun penyimpanan cloud. Silakan periksa konfigurasi penyimpanan, pengaturan akun, dan kredensial.
Deskripsi: Terjadi saat konfigurasi akun penyimpanan cloud tidak valid atau tidak benar.
Tindakan yang Disarankan: Koreksi konfigurasi penyimpanan untuk akun dan coba lagi penginstalan.
ERROR_INVALID_USER_INPUT
SQLSTATE: tidak ada yang ditetapkan
Sintaks paket atau argumen yang disediakan tidak valid. Pastikan bahwa input dan opsi untuk penginstalan pustaka valid.
Deskripsi: Terjadi saat pip dipanggil dengan opsi atau argumen yang tidak valid.
Tindakan yang Disarankan: Memverifikasi opsi pip dan sintaks perintah, memperbaiki input, dan mencoba kembali penginstalan.
KOMPUTER_KESALAHAN_RODA_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
File roda yang rusak, cacat, atau tidak valid terdeteksi. Silakan periksa file roda atau coba lagi penginstalan.
Deskripsi: Terjadi ketika pip mengalami file roda yang rusak, tidak lengkap, atau cacat selama penginstalan.
Tindakan yang Disarankan: Hapus cache pip, unduh ulang, atau bangun kembali roda, instal ulang, dan verifikasi integritasnya sebelum mencoba kembali.
ERROR_JAR_EVICTED
SQLSTATE: tidak ada yang ditetapkan
Paket JAR dikeluarkan oleh resolver karena konflik versi. Silakan atasi konflik versi dependensi.
Deskripsi: Terjadi ketika resolusi dependensi Maven menyingkirkan jar karena konflik versi dengan dependensi lain.
Tindakan yang Disarankan: Atasi konflik dalam konfigurasi dependensi Anda, atau gunakan penggantian versi secara eksplisit.
ERROR_MAVEN_LIBRARY_RESOLUTION (Kesalahan resolusi perpustakaan Maven)
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat menemukan koordinat perpustakaan Maven. Verifikasi detail pustaka, akses repositori, atau ketersediaan repositori Maven.
Deskripsi: Terjadi ketika Maven tidak dapat menemukan atau mengatasi pustaka yang ditentukan karena koordinat, masalah jaringan, atau waktu henti repositori yang salah.
Tindakan yang Disarankan: Verifikasi format groupId:artifactId:version, periksa URL dan kredensial repositori, coba repositori alternatif, atau coba lagi nanti jika repositori mungkin sementara tidak tersedia.
ERROR_TIDAK_ADA_DISTRIBUSI_YANG_COCOK
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat mengunduh atau mengakses aset penyimpanan cloud yang ditentukan, biasanya karena kesalahan konfigurasi, dependensi atau masalah konektivitas yang hilang. Harap tinjau penyiapan penyimpanan cloud.
Deskripsi: Terjadi ketika kluster tidak dapat mengunduh atau menginstal file pustaka dari penyimpanan cloud, biasanya karena kesalahan konfigurasi, dependensi yang hilang, atau masalah jaringan.
Tindakan yang Disarankan: Pastikan URI penyimpanan cloud benar, kredensial valid, dan proksi atau pustaka jaringan yang diperlukan dikonfigurasi dengan benar, lalu coba lagi penginstalan.
ERROR_TIDAK_ADA_FILE_ATAU_DIREKTORI
SQLSTATE: tidak ada yang ditetapkan
File pustaka tidak ada atau pengguna tidak memiliki izin untuk membaca file pustaka. Silakan periksa apakah file pustaka ada dan pengguna memiliki izin yang tepat untuk mengakses file.
Deskripsi: Terjadi ketika file yang ditentukan hilang atau tidak dapat diakses di jalur yang diberikan selama penginstalan pustaka.
Tindakan yang Disarankan: Verifikasi bahwa file ada di jalur yang ditentukan, perbaik jalur atau unggah file yang hilang, dan pastikan izin yang tepat.
KESALAHAN_OPERASI_TIDAK_DIDUKUNG
SQLSTATE: tidak ada yang ditetapkan
Penginstalan pustaka tidak didukung untuk tipe file ini dari sistem file yang diminta. Silakan periksa jenis pustaka dan lihat panduan pengguna tentang pustaka yang didukung pada komputasi saat ini.
Deskripsi: Terjadi ketika sistem file target, jenis file, atau jenis komputasi tidak mendukung operasi yang diminta selama penginstalan.
Tindakan yang Disarankan: Gunakan sistem file, jenis file, atau jenis komputasi yang didukung, atau sesuaikan target penginstalan ke lokasi yang didukung.
ERROR_IZIN_DITOLAK
SQLSTATE: tidak ada yang ditetapkan
Pengguna tidak memiliki izin yang memadai untuk menginstal paket. Silakan periksa hak akses file dan direktori untuk pengguna.
Deskripsi: Terjadi ketika pengguna yang menginstal tidak memiliki izin untuk membaca atau menulis file atau direktori selama penginstalan.
Tindakan yang Disarankan: Verifikasi dan berikan izin yang tepat pada direktori target, atau hubungi administrator sistem Anda.
ERROR_PIP_CONFIG
SQLSTATE: tidak ada yang ditetapkan
Pengguna mencoba menginstal pustaka Python, tetapi file konfigurasi pip pada tingkat kluster, atau tingkat ruang kerja, memiliki kesalahan sintaksis atau salah bentuk. Silakan periksa dan perbaiki file konfigurasi pip.
Deskripsi: Terjadi ketika file konfigurasi pip memiliki kesalahan sintaksis atau salah bentuk.
Tindakan yang Disarankan: Perbaiki kesalahan sintaks dalam file konfigurasi pip, hapus file konfigurasi untuk menggunakan pengaturan default, mulai ulang kluster, dan coba lagi penginstalan.
ERROR_PYTHON_REPL_RESTORE_FAILURE
SQLSTATE: tidak ada yang ditetapkan
Pemulihan Python REPL gagal setelah penginstalan paket.
Deskripsi: Biasanya terjadi ketika paket Python inti diperbarui dengan cara yang merusak lingkungan runtime selama pemulihan.
Tindakan yang Disarankan: Tinjau paket yang baru diinstal dan instal paket yang kompatibel dengan default Lingkungan Databricks seperti numpy, panda, pyspark, dan pustaka standar lainnya. Pastikan versi kompatibel dengan versi Databricks Runtime Anda. Jika masih gagal, silakan hubungi Dukungan Databricks.
KESALAHAN_PERSYARATAN_FILE_INSTALASI
SQLSTATE: tidak ada yang ditetapkan
requirements.txt file yang berisi volume Katalog Unity atau referensi file ruang kerja tidak didukung pada kluster yang diaktifkan non-UC. Silakan gunakan kluster yang diaktifkan UC untuk menginstal requirements.txt yang mengacu pada volume UC atau file ruang kerja.
Deskripsi: Terjadi ketika requirements.txt menyertakan volume UC atau referensi file ruang kerja pada kluster yang tidak diaktifkan UC.
Tindakan yang Disarankan: Gunakan kluster berkemampuan UC untuk requirements.txt yang mereferensikan ruang kerja atau file UC, atau menghapus referensi tersebut.
KESALAHAN_PERLU_HASHES
SQLSTATE: tidak ada yang ditetapkan
Hash yang hilang ketika pip dijalankan dalam mode --require-hashes dan sebuah persyaratan tidak menyertakan hash. Harap atasi persyaratan hash atau nonaktifkan pemeriksaan hash.
Deskripsi: Terjadi ketika pip dijalankan dalam mode --require-hassh dan persyaratan tidak memiliki hash.
Tindakan yang Disarankan: Tambahkan hash untuk semua paket dalam requirements.txt atau hapus bendera --require-hash.
KESALAHAN_RESTART_PYTHON
SQLSTATE: tidak ada yang ditetapkan
Gagal memulai ulang proses Python. Ini mungkin karena memperbarui versi paket yang bertentangan dengan pustaka runtime yang telah diinstal sebelumnya. Silakan periksa dan selaraskan dependensi paket dan versinya.
Deskripsi: Terjadi ketika lingkungan Python tidak dapat dimulai ulang setelah penginstalan pustaka, sering kali karena konflik antara paket yang diinstal dan pustaka Databricks Runtime yang telah diinstal sebelumnya.
Tindakan yang Disarankan: Selaraskan versi paket yang diinstal dengan pustaka Databricks Runtime yang telah diinstal sebelumnya untuk menghindari konflik dan kesalahan hidupkan ulang Python.
ERROR_RESTART_SCALA
SQLSTATE: tidak ada yang ditetapkan
Gagal memulai ulang proses Scala. Ini mungkin karena ketidakcocokan versi Scala dalam scala JAR (misalnya, menjalankan 2.12 jar pada kernel 2.13). Silakan periksa dan sejajarkan versi Scala.
Deskripsi: Terjadi ketika lingkungan Scala tidak dapat dimulai ulang, sering kali karena konflik ketidakcocokan versi Scala dalam scala JAR.
Tindakan yang Disarankan: Samakan versi scala JAR dengan versi scala kernel untuk menghindari konflik dan kesalahan restart Scala.
ERROR_S3_FORBIDDEN (Akses Ditolak)
SQLSTATE: tidak ada yang ditetapkan
Akses ditolak ke sumber daya S3. Periksa izin IAM dan kebijakan wadah.
Deskripsi: Kredensial AWS kluster tidak memiliki izin yang memadai untuk mengakses sumber daya S3 yang ditentukan.
Tindakan yang Disarankan: Periksa dan perbaharui kebijakan bucket S3 atau peran IAM untuk memberikan akses baca yang diperlukan ke kluster.
ERROR_SCALA_INSTALLATION
SQLSTATE: tidak ada yang ditetapkan
Gagal menginstal dependensi Java karena masalah izin atau file yang hilang.
Deskripsi: Terjadi ketika dependensi Java tidak dapat diinstal, seringkali karena jalur, URL, atau izin file yang tidak mencukupi.
Tindakan yang Disarankan: Verifikasi jalur file dan URL, pastikan izin yang tepat, dan coba lagi penginstalan.
ERROR_SETUP_PY_FAILURE
SQLSTATE: tidak ada yang ditetapkan
Setup.py paket Python tidak berhasil berjalan karena masalah kompatibilitas, dependensi yang hilang, atau kesalahan konfigurasi. Harap periksa file pengaturan dependensi Anda.
Deskripsi: Terjadi ketika skrip setup.py paket gagal karena masalah kompatibilitas, dependensi yang hilang, atau kesalahan konfigurasi.
Tindakan yang Disarankan: Perbarui versi paket, instal dependensi yang hilang, ganti paket yang tidak digunakan lagi, dan verifikasi skrip setup.py.
KESALAHAN_PELANGGARAN_SSL
SQLSTATE: tidak ada yang ditetapkan
Pip mengalami masalah jabat tangan SSL atau verifikasi sertifikat. Harap tinjau konfigurasi dan sertifikat SSL di komputasi atau ruang kerja Anda.
Deskripsi: Terjadi ketika pip mengalami masalah jabat tangan SSL atau verifikasi sertifikat saat menyambungkan ke repositori paket.
Tindakan yang Disarankan: Verifikasi sertifikat SSL valid, konfigurasikan host tepercaya di pip, atau periksa pengaturan SSL jaringan.
ERROR_UC_ASET_TIDAK_DITEMUKAN
SQLSTATE: tidak ada yang ditetapkan
Objek Katalog Unity tidak ditemukan. Verifikasi bahwa katalog, skema, dan volume ada.
Deskripsi: Terjadi ketika volume, katalog, atau skema Katalog Unity yang ditentukan tidak ada atau tidak dapat diakses
Tindakan yang Disarankan: Verifikasi jalur objek Katalog Unity sudah benar dan objek ada di akun Anda.
ERROR_JENIS_PUSTAKA_TIDAK_DIDUKUNG
SQLSTATE: tidak ada yang ditetapkan
Tipe pustaka tidak didukung pada komputasi ini. Silakan periksa pustaka yang didukung untuk jenis komputasi.
Deskripsi: Terjadi saat mencoba menginstal jenis pustaka yang tidak kompatibel dengan komputasi yang dipilih.
Tindakan yang Disarankan: Gunakan jenis pustaka yang didukung untuk komputasi ini atau beralih ke komputasi yang mendukung libraryType ini.
ERROR_UNSUPPORTED_PYTHON_VERSION
SQLSTATE: tidak ada yang ditetapkan
Pustaka Python tidak kompatibel dengan versi Python pada komputasi ini. Gunakan komputasi dengan versi Python yang kompatibel.
Deskripsi: Terjadi ketika batasan paket python_requires tidak cocok dengan versi Python yang berjalan pada komputasi.
Tindakan yang Disarankan: Instal versi paket yang mendukung versi Python saat ini, atau ubah versi komputasi.
ERROR_UNSUPPORTED_SSL_ENABLED
SQLSTATE: tidak ada yang ditetapkan
Penginstalan gagal ketika konfigurasi spark.ssl.enabled diaktifkan, karena fitur ini tidak mendukung penginstalan pustaka. Nonaktifkan konfigurasi SSL dan mulai ulang kluster.
Deskripsi: Terjadi ketika konfigurasi spark.ssl.enabled diaktifkan, yang tidak didukung untuk penginstalan pustaka.
Tindakan yang Disarankan: Nonaktifkan konfigurasi SSL (misalnya, atur spark.ssl.enabled=false atau atur spark.databricks.libraries.ignoreSSL=true) dan mulai ulang kluster.
ERROR_PENGGUNA_TIDAK_DITEMUKAN_DI_RUANG_KERJA
SQLSTATE: tidak ada yang ditetapkan
Penginstalan pustaka gagal karena pengguna tidak ditemukan di ruang kerja. Ini biasanya terjadi ketika pengguna telah dihapus dari ruang kerja tetapi token mereka masih digunakan.
Deskripsi: Terjadi saat token akses pengguna sedang digunakan tetapi pengguna tidak lagi ada di ruang kerja yang ditentukan.
Tindakan yang Disarankan: Pastikan pengguna memiliki akses ke ruang kerja, atau perbarui konfigurasi kluster untuk menggunakan kredensial pengguna yang valid.
ERROR_DITOLAK_PERIZINAN_VOLUME
SQLSTATE: tidak ada yang ditetapkan
Izin tidak mencukupi pada volume Katalog Unity. Silakan periksa hak akses volume UC atau minta akses pemilik Volume UC.
Deskripsi: Terjadi ketika pengguna tidak memiliki izin pada volume UC yang ditentukan.
Saran Tindakan: Minta izin BACA pada volume Katalog Unity dari pemilik volume atau administrator.
KESALAHAN_PEMBANGUNAN_WHEEL
SQLSTATE: tidak ada yang ditetapkan
Pip tidak berhasil membangun roda karena dependensi atau kesalahan build yang hilang. Silakan periksa isi dan dependensi paket roda.
Deskripsi: Terjadi ketika pip gagal membangun roda untuk paket karena dependensi atau kesalahan build yang hilang.
Tindakan yang Disarankan: Pastikan alat build dan header diinstal, atau instal paket wheel yang sudah dibangun sebelumnya dengan menggunakan --no-binary.
KESALAHAN_PEMASANGAN_RODA
SQLSTATE: tidak ada yang ditetapkan
Roda tidak kompatibel dengan komputasi saat ini karena ketidakcocokan tag platform atau file roda yang tidak valid. Silakan periksa isi paket roda, dependensi, dan kompatibilitasnya dengan komputasi.
Deskripsi: Terjadi ketika file wheel tidak valid atau tag platform tidak cocok.
Tindakan yang Disarankan: Gunakan roda yang dibuat untuk platform saat ini atau bangun kembali roda dengan tag yang sesuai.
KESALAHAN_INSTALASI_PENYIMPANAN_AWAN
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat mengunduh atau mengakses aset penyimpanan cloud yang ditentukan, biasanya karena kesalahan konfigurasi atau masalah konektivitas. Harap tinjau penyiapan penyimpanan cloud.
Deskripsi: Terjadi ketika komputasi tidak dapat mengunduh atau menginstal file pustaka dari penyimpanan cloud, biasanya karena kesalahan konfigurasi atau masalah jaringan.
Tindakan yang Disarankan: Pastikan URI penyimpanan cloud benar, kredensial valid, dan proksi atau pustaka jaringan yang diperlukan dikonfigurasi dengan benar, lalu coba lagi penginstalan.
FAULT_DBR_VERSION_EOS
SQLSTATE: tidak ada yang ditetapkan
Versi Databricks Runtime pada komputasi telah mencapai akhir dukungannya dan tidak lagi didukung. Gunakan versi runtime Databricks yang didukung.
Deskripsi: Terjadi saat pustaka diinstal pada versi Databricks Runtime yang tidak lagi menerima pembaruan atau dukungan.
Tindakan yang Disarankan: Tingkatkan kluster ke versi Runtime Databricks yang didukung dan coba lagi penginstalan.
FAULT_POLLER_ALLOWLIST_VALIDATION
SQLSTATE: tidak ada yang ditetapkan
Penginstalan pustaka diblokir karena hilang dari daftar yang diizinkan. Ini dapat terjadi jika pustaka dihapus dari daftar yang diizinkan setelah ditambahkan ke kluster. Periksa daftar izin pustaka, minta administrator untuk menambahkan pustaka ke daftar yang diizinkan atau menghapus paket yang tidak sah dari kluster.
Deskripsi: Terjadi ketika satu atau beberapa pustaka yang diminta tidak disetujui dalam daftar izin metastore dan diblokir dari penginstalan. Ini juga dapat terjadi jika pustaka sebelumnya diizinkan tetapi kemudian dihapus dari daftar yang diizinkan.
Tindakan yang Disarankan: Periksa daftar izin metastore, minta administrator Anda untuk menambahkan pustaka yang hilang ke daftar yang diizinkan, atau hapus pustaka yang tidak sah dari kluster.
Kegagalan polling, DBR tidak didukung
SQLSTATE: tidak ada yang ditetapkan
Versi Databricks Runtime pada kluster telah mencapai akhir dukungannya dan tidak lagi didukung. Gunakan versi runtime Databricks yang didukung.
Deskripsi: Terjadi saat pustaka diinstal pada versi Databricks Runtime yang tidak lagi menerima pembaruan atau dukungan.
Tindakan yang Disarankan: Ubah kluster untuk menggunakan versi Databricks Runtime yang didukung dan coba lagi penginstalan.
FAULT_POLLER_LIBRARY_STORAGE_FORMAT_UNSUPPORTED
SQLSTATE: tidak ada yang ditetapkan
Versi Databricks Runtime yang dipilih mungkin tidak mendukung format penyimpanan pustaka tertentu, seperti jalur gs:// atau abfss://. Harap tingkatkan Databricks Runtime atau lihat panduan pengguna mengenai kemampuan untuk versi Databricks Runtime yang berbeda.
Deskripsi: Terjadi ketika versi Databricks Runtime tidak mendukung format atau protokol penyimpanan pustaka yang ditentukan.
Tindakan yang Disarankan: Gunakan skema penyimpanan yang didukung atau tingkatkan ke versi Databricks Runtime yang mendukung format penyimpanan yang diinginkan.
FAULT_POLLER_UNITY_CATALOG_NOT_AVAILABLE_ERROR
SQLSTATE: tidak ada yang ditetapkan
Penginstalan pustaka memerlukan Katalog Unity tetapi Katalog Unity tidak tersedia di kluster atau ruang kerja. Silakan hubungi admin ruang kerja untuk mengaktifkan fitur ini.
Deskripsi: Terjadi ketika penginstalan pustaka memerlukan Katalog Unity tetapi Katalog Unity tidak tersedia di ruang kerja.
Tindakan yang Disarankan: Minta administrasi untuk mengaktifkan Katalog Unity di ruang kerja Anda atau gunakan kluster yang mendukung Katalog Unity.
KEGAGALAN_AKSES_PENYIMPANAN
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat mengakses sumber daya penyimpanan cloud karena masalah kredensial, jaringan, atau izin. Silakan periksa konfigurasi akses penyimpanan cloud.
Deskripsi: Terjadi ketika komputasi tidak dapat mengakses sumber daya penyimpanan cloud karena masalah kredensial, jaringan, atau izin.
Tindakan yang Disarankan: Verifikasi kredensial penyimpanan, konektivitas jaringan, dan izin akses, lalu coba lagi penginstalan.
Miscellaneous
ABAC_POLICIES_NOT_SUPPORTED_FOR_RUNTIME_VERSION
SQLSTATE: tidak ada yang ditetapkan
Versi DBR <abacDBRMajorVersion>.
<abacDBRMinorVersion> atau lebih tinggi diperlukan untuk mengkueri tabel <tableFullName>, karena dilindungi oleh kebijakan ABAC.
AZURE_ENTRA_CREDENTIALS_MISSING
SQLSTATE: tidak ada yang ditetapkan
Kredensial Azure Entra (alias Azure Active Directory) hilang.
Pastikan Anda masuk dengan akun Entra Anda
atau telah menyiapkan token akses pribadi (PAT) Azure DevOps di Pengaturan Pengguna untuk Integrasi Git >.
Jika Anda tidak menggunakan PAT dan menggunakan Azure DevOps dengan REPOS API,
Anda harus menggunakan token akses Azure Entra.
Lihat https://docs.microsoft.com/azure/databricks/dev-tools/api/latest/aad/app-aad-token langkah-langkah untuk memperoleh token akses Azure Entra.
<pickOrCreateNewCredential>
AZURE_ENTRA_CREDENTIALS_PARSE_FAILURE
SQLSTATE: tidak ada yang ditetapkan
Mengalami kesalahan dengan kredensial Azure Entra (Azure Active Directory) Anda. Silakan coba keluar dari akun Anda
Entra (https://portal.azure.com) dan masuk kembali.
Atau, Anda juga dapat mengunjungi Pengaturan Pengguna > Integrasi Git untuk melakukan pengaturan
menyiapkan token akses pribadi Azure DevOps.
<pickOrCreateNewCredential>
AZURE_ENTRA_LOGIN_ERROR
SQLSTATE: tidak ada yang ditetapkan
Mengalami kesalahan dengan kredensial Azure Active Directory Anda. Silakan coba keluar dari akun Anda
Azure Active Directory (https://portal.azure.com) dan masuk kembali.
<pickOrCreateNewCredential>
AZURE_ENTRA_WORKLOAD_IDENTITY_ERROR
SQLSTATE: tidak ada yang ditetapkan
Mengalami kesalahan pada Identitas Beban Kerja Azure dengan pengecualian Azure: <azureWorkloadIdentityExceptionMessage>
CLEAN_ROOM_DELTA_SHARING_ENTITY_NOT_AUTHORIZED
SQLSTATE: tidak ada yang ditetapkan
Pembuatan kredensial untuk ruang bersih berbagi delta yang aman tidak dapat diminta.
CLEAN_ROOM_HIDDEN_SECURABLE_PERMISSION_DENIED
SQLSTATE: tidak ada yang ditetapkan
<securableName> yang dapat diamankan dengan jenis <securableType> dan jenis <securableKind> dikelola sistem kamar bersih, pengguna tidak memiliki akses.
CONSTRAINT_ALREADY_EXISTS
SQLSTATE: tidak ada yang ditetapkan
Batasan dengan nama <constraintName> sudah ada, pilih nama yang berbeda.
CONSTRAINT_DOES_NOT_EXIST
SQLSTATE: tidak ada yang ditetapkan
Batasan <constraintName> tidak ada.
COULD_NOT_READ_REMOTE_REPOSITORY
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat membaca repositori jarak jauh (<repoUrl>).
Kredensial <credentialName> (<credentialId>) digunakan<because>.
Penyedia kredensial Git ini adalah <gitCredentialProvider> dan email / nama pengguna adalah <gitCredentialUsername>.
Silakan buka penyedia Git jarak jauh Anda untuk memastikan bahwa:
URL repositori Git jarak jauh Anda valid.
Token akses pribadi atau kata sandi aplikasi Anda memiliki akses repositori yang benar.
<pickOrCreateNewCredential>
COULD_NOT_RESOLVE_REPOSITORY_HOST
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat menyelesaikan host untuk <repoUrl>.
Kredensial <credentialName> (<credentialId>) digunakan<because>.
Penyedia kredensial Git ini adalah <gitCredentialProvider> dan email / nama pengguna adalah <gitCredentialUsername>.
CSMS_BEGINNING_OF_TIME_NOT_SUPPORTED
SQLSTATE: tidak ada yang ditetapkan
Parameter beginning_of_time tidak boleh benar.
CSMS_CONTINUATION_TOKEN_EXPIRED
SQLSTATE: tidak ada yang ditetapkan
Token kelanjutan kedaluwarsa. Penyebab: <msg>
CSMS_CREDENTIAL_NAME_MISSING
SQLSTATE: tidak ada yang ditetapkan
Nama kredensial hilang dalam permintaan
CSMS_FILE_EVENTS_VALIDATION_USER_ERROR
SQLSTATE: tidak ada yang ditetapkan
Validasi peristiwa file gagal untuk operasi <operation>: <message>
CSMS_INVALID_CONTINUATION_TOKEN
SQLSTATE: tidak ada yang ditetapkan
Token kelanjutan tidak valid. Penyebab: <msg>
CSMS_INVALID_FILE_EVENTS_QUEUE
SQLSTATE: tidak ada yang ditetapkan
<missingField> hilang dari <queueType> permintaan
CSMS_INVALID_MAX_OBJECTS
SQLSTATE: tidak ada yang ditetapkan
Nilai <value> tidak valid untuk parameter max_objects, nilai yang diharapkan dalam [<minValue>, <maxValue>]
CSMS_INVALID_SUBSCRIPTION_ID
SQLSTATE: tidak ada yang ditetapkan
ID langganan tidak valid. Penyebab: <msg>
CSMS_INVALID_URI_FORMAT
SQLSTATE: tidak ada yang ditetapkan
Format URI tidak valid. Mengharapkan volume (misalnya, "/Volumes/catalog/schema/volume") atau jalur penyimpanan cloud (misalnya, "s3://some-uri")
CSMS_KAFKA_TOPIC_MISSING
SQLSTATE: tidak ada yang ditetapkan
Harus menyediakan topik Kafka
CSMS_LOCATION_ERROR
SQLSTATE: tidak ada yang ditetapkan
Gagal mencantumkan objek. Ada masalah pada lokasi yang perlu diselesaikan. Detail: <msg>
CSMS_LOCATION_NOT_KNOWN
SQLSTATE: tidak ada yang ditetapkan
Tidak ada lokasi yang ditemukan untuk uri <path>
CSMS_METASTORE_ID_MISSING
SQLSTATE: tidak ada yang ditetapkan
Harus menyediakan UUID metastore
CSMS_METASTORE_RESOLUTION_FAILED
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat menentukan metastore untuk permintaan tersebut.
CSMS_RESOLVE_CREDENTIAL_ID_FAILED
SQLSTATE: tidak ada yang ditetapkan
Gagal mengatasi ID kredensial untuk kredensial: <credentialName>
CSMS_RESOLVE_LOCAL_SHARD_NAME_FAILED
SQLSTATE: tidak ada yang ditetapkan
CSMS gagal menyelesaikan nama pecahan lokal
CSMS_SERVICE_DISABLED
SQLSTATE: tidak ada yang ditetapkan
Layanan dinonaktifkan
CSMS_SHARD_NAME_MISSING_IN_REQUEST
SQLSTATE: tidak ada yang ditetapkan
Nama shard hilang dari permintaan RPC ke CSMS
CSMS_STORAGE_CREDENTIAL_DOES_NOT_EXIST
SQLSTATE: tidak ada yang ditetapkan
Kredensial penyimpanan tidak ada.
ID_LANGGANAN_CSMS_TIDAK_TERDAPAT_DALAM_PERMINTAAN
SQLSTATE: tidak ada yang ditetapkan
ID langganan tidak ada dalam permintaan.
LANGGANAN_CSMS_TIDAK_DITEMUKAN
SQLSTATE: tidak ada yang ditetapkan
Langganan dengan id <id> tidak ditemukan.
CSMS_UNITY_CATALOG_DISABLED (Katalog Kesatuan CSMS Dinonaktifkan)
SQLSTATE: tidak ada yang ditetapkan
Katalog Unity dinonaktifkan untuk ruang kerja ini
CSMS_UNITY_CATALOG_ENTITY_NOT_FOUND
SQLSTATE: tidak ada yang ditetapkan
Entitas Katalog Unity tidak ditemukan. Pastikan katalog, skema, volume, dan/atau lokasi eksternal ada.
CSMS_UNITY_CATALOG_EXTERNAL_LOCATION_DOES_NOT_EXIST
SQLSTATE: tidak ada yang ditetapkan
Lokasi eksternal Katalog Unity tidak ditemukan.
CSMS_UNITY_CATALOG_EXTERNAL_STORAGE_OVERLAP
SQLSTATE: tidak ada yang ditetapkan
URI tumpang tindih dengan volume lain
CSMS_UNITY_CATALOG_METASTORE_DOES_NOT_EXIST
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat menentukan metastore untuk permintaan tersebut. Metastore tidak ada
CSMS_UNITY_CATALOG_Akses_Berdasarkan_Jalur_Ke_Tabel_Dengan_Filter_Tidak_Diperbolehkan
SQLSTATE: tidak ada yang ditetapkan
URI menunjuk ke tabel dengan filter tingkat baris atau masker kolom. Akses berbasis jalur ke tabel ini tidak diperbolehkan.
CSMS_UNITY_CATALOG_PERMISSION_DENIED
SQLSTATE: tidak ada yang ditetapkan
Izin ditolak
CSMS_UNITY_CATALOG_RATE_LIMITED
SQLSTATE: tidak ada yang ditetapkan
Batas tingkat permintaan terlampaui. Silakan coba lagi setelah beberapa waktu.
CSMS_UNITY_CATALOG_TABLE_DOES_NOT_EXIST
SQLSTATE: tidak ada yang ditetapkan
Tabel Katalog Unity tidak ada.
CSMS_UNITY_CATALOG_VOLUME_DOES_NOT_EXIST
SQLSTATE: tidak ada yang ditetapkan
Volume pada Katalog Unity tidak ditemukan.
CSMS_UNSUPPORTED_FILE_EVENTS_QUEUE
SQLSTATE: tidak ada yang ditetapkan
Antrean peristiwa file yang tidak diketahui dalam permintaan
CSMS_UNSUPPORTED_MANAGED_RESOURCE_TYPE
SQLSTATE: tidak ada yang ditetapkan
Jenis <resourceType> sumber daya terkelola tidak didukung
CSMS_UNSUPPORTED_SECURABLE
SQLSTATE: tidak ada yang ditetapkan
Objek yang tidak didukung untuk diamankan
CSMS_URI_MISSING
SQLSTATE: tidak ada yang ditetapkan
Harus mengisi URI
CSMS_URI_TOO_LONG
SQLSTATE: tidak ada yang ditetapkan
URI yang diberikan terlalu panjang. Panjang maksimum yang diizinkan adalah <maxLength>.
CSMS_USER_CONTEXT_MISSING_IN_REQUEST
SQLSTATE: tidak ada yang ditetapkan
Konteks pengguna hilang dari permintaan rpc ke CSMS
DMK_CATALOGS_DISALLOWED_ON_CLASSIC_COMPUTE
SQLSTATE: tidak ada yang ditetapkan
Penyimpanan Databricks Default tidak dapat diakses dengan menggunakan Komputasi Klasik. Silakan gunakan komputasi Tanpa Server untuk mengakses data di Penyimpanan Default
GITHUB_APP_COULD_NOT_REFRESH_CREDENTIALS
SQLSTATE: tidak ada yang ditetapkan
Operasi gagal karena kredensial aplikasi GitHub yang ditautkan tidak dapat disegarkan.
Silakan coba lagi atau buka Pengaturan Pengguna > Integrasi Git dan coba menautkan ulang akun penyedia Git Anda.
Jika masalah berlanjut, silakan ajukan tiket dukungan.
<pickOrCreateNewCredential>
GITHUB_APP_CREDENTIALS_NO_ACCESS
SQLSTATE: tidak ada yang ditetapkan
Tautan ke akun GitHub Anda tidak memiliki akses. Untuk memperbaiki kesalahan ini:
- Admin repositori harus membuka https://github.com/apps/databricks/installations/new dan menginstal aplikasi Databricks GitHub di repositori.
Atau, pemilik akun GitHub dapat menginstal aplikasi di akun untuk memberikan akses ke repositori akun.
- Jika aplikasi sudah diinstal, minta admin memastikan bahwa jika mereka menggunakan akses tercakup dengan opsi 'Hanya pilih repositori', mereka telah menyertakan akses ke repositori ini dengan memilihnya.
Untuk informasi selengkapnya, lihat https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app.
<pickOrCreateNewCredential>
GITHUB_APP_EXPIRED_CREDENTIALS
SQLSTATE: tidak ada yang ditetapkan
Kredensial aplikasi GitHub tertaut kedaluwarsa setelah 6 bulan tidak aktif karena tidak ada aktivitas.
Buka Pengaturan Pengguna > Integrasi Git dan coba menautkan ulang kredensial Anda.
Jika masalah berlanjut, silakan ajukan tiket dukungan.
<pickOrCreateNewCredential>
GITHUB_APP_INSTALL_ON_DIFFERENT_USER_ACCOUNT
SQLSTATE: tidak ada yang ditetapkan
Tautan ke akun GitHub Anda tidak memiliki akses. Untuk memperbaiki kesalahan ini:
Pengguna
<gitCredentialUsername>GitHub harus membuka https://github.com/apps/databricks/installations/new dan menginstal aplikasi di akun<gitCredentialUsername>untuk mengizinkan akses.Jika pengguna
<gitCredentialUsername>sudah menginstal aplikasi dan mereka menggunakan akses tercakup dengan opsi 'Hanya pilih repositori', mereka harus memastikan mereka telah menyertakan akses ke repositori ini dengan memilihnya.
Untuk informasi selengkapnya, lihat https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app.
<pickOrCreateNewCredential>
GITHUB_APP_INSTALL_ON_ORGANIZATION
SQLSTATE: tidak ada yang ditetapkan
Tautan ke akun GitHub Anda tidak memiliki akses. Untuk memperbaiki kesalahan ini:
Pemilik organisasi
<organizationName>GitHub harus membuka https://github.com/apps/databricks/installations/new dan menginstal aplikasi di organisasi<organizationName>untuk mengizinkan akses.Jika aplikasi sudah diinstal di organisasi
<organizationName>GitHub , minta pemilik organisasi ini memastikan bahwa jika menggunakan akses tercakup dengan opsi 'Hanya pilih repositori', mereka telah menyertakan akses ke repositori ini dengan memilihnya.
Untuk informasi selengkapnya, lihat https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app.
<pickOrCreateNewCredential>
GITHUB_APP_INSTALL_ON_YOUR_ACCOUNT
SQLSTATE: tidak ada yang ditetapkan
Tautan ke akun GitHub Anda tidak memiliki akses. Untuk memperbaiki kesalahan ini:
https://github.com/apps/databricks/installations/new Buka dan instal aplikasi di akun
<gitCredentialUsername>Anda untuk mengizinkan akses.Jika aplikasi sudah diinstal, dan Anda menggunakan akses tercakup dengan opsi 'Hanya pilih repositori', pastikan Anda telah menyertakan akses ke repositori ini dengan memilihnya.
Untuk informasi selengkapnya, lihat https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app.
<pickOrCreateNewCredential>
GIT_CLUSTER_NOT_READY
SQLSTATE: tidak ada yang ditetapkan
Kluster Git belum siap.
GIT_CREDENTIAL_GENERIC_INVALID
SQLSTATE: tidak ada yang ditetapkan
Kredensial penyedia Git tidak valid untuk URL repositori <repoUrl>.
Kredensial <credentialName> (<credentialId>) digunakan<because>.
Penyedia kredensial Git ini adalah <gitCredentialProvider> dan email / nama pengguna adalah <gitCredentialUsername>.
Silakan buka penyedia Git jarak jauh Anda untuk memastikan bahwa:
Anda telah memasukkan email pengguna Git atau nama pengguna yang benar dengan kredensial penyedia Git Anda.
Token Anda memiliki akses repositori yang benar.
Token Anda belum kedaluwarsa.
Jika Anda mengaktifkan SSO dengan penyedia Git Anda, pastikan untuk mengotorisasi token Anda.
<pickOrCreateNewCredential>
GIT_CREDENTIAL_INVALID_PAT
SQLSTATE: tidak ada yang ditetapkan
Kredensial Token Akses Pribadi penyedia Git tidak valid untuk URL repositori <repoUrl>.
Kredensial <credentialName> (<credentialId>) digunakan<because>.
Penyedia kredensial Git ini adalah <gitCredentialProvider> dan email / nama pengguna adalah <gitCredentialUsername>.
Silakan buka penyedia Git jarak jauh Anda untuk memastikan bahwa:
Anda telah memasukkan email pengguna Git atau nama pengguna yang benar dengan kredensial penyedia Git Anda.
Token Anda memiliki akses repositori yang benar.
Token Anda belum kedaluwarsa.
Jika Anda mengaktifkan SSO dengan penyedia Git Anda, pastikan untuk mengotorisasi token Anda.
<pickOrCreateNewCredential>
.
GIT_CREDENTIAL_MISSING
SQLSTATE: tidak ada yang ditetapkan
Tidak ada kredensial Git yang dikonfigurasi, tetapi kredensial diperlukan untuk repositori ini (<repoUrl>).
Buka Pengaturan Pengguna > Integrasi Git untuk menyiapkan kredensial Git Anda.
GIT_CREDENTIAL_NO_WRITE_PERMISSION
SQLSTATE: tidak ada yang ditetapkan
Akses untuk menulis ke repositori <gitCredentialProvider> (<repoUrl>) tidak diberikan.
Kredensial <credentialName> (<credentialId>) digunakan<because>.
Penyedia kredensial Git ini adalah <gitCredentialProvider> dan email / nama pengguna adalah <gitCredentialUsername>.
Pastikan Anda (<gitCredentialUsername>) memiliki akses tulis ke repositori jarak jauh ini.
GIT_CREDENTIAL_PROVIDER_MISMATCHED
SQLSTATE: tidak ada yang ditetapkan
Penyedia kredensial Git yang salah untuk repositori.
Anda tidak memiliki kredensial Git dengan penyedia Git (<repositoryGitProvider>) yang cocok dengan penyedia <repoUrl>Git repositori .
Buka Pengaturan > Pengguna Integrasi Git untuk membuat kredensial baru untuk penyedia <repositoryGitProvider>Git .
GIT_FILE_NAME_TOO_LONG
SQLSTATE: tidak ada yang ditetapkan
Nama file atau folder di jalur <path> melebihi batas maksimum <maxComponentBytes> byte per komponen.
Sistem berbasis Unix hanya mendukung hingga <maxComponentBytes> byte per nama file atau folder.
Pelanggaran: <violations>
Harap persingkat komponen yang menyinggung untuk melanjutkan.
GIT_PROVIDER_INFO_MISSING
SQLSTATE: tidak ada yang ditetapkan
Informasi penyedia Git hilang atau kosong.
Tambahkan informasi kredensial git, lalu coba lagi.
Jika masalah berlanjut, silakan ajukan tiket dukungan.
GIT_PROXY_CLUSTER_NOT_READY
SQLSTATE: tidak ada yang ditetapkan
Kluster proksi Git belum siap.
GIT_PROXY_CONNECTION_FAILED
SQLSTATE: tidak ada yang ditetapkan
Gagal tersambung ke Proksi Git, silakan periksa apakah Proksi Git aktif dan berjalan.
Kesalahan: <error>
GIT_SECRET_IN_CODE
SQLSTATE: tidak ada yang ditetapkan
Rahasia ditemukan dalam commit. Detail: <secretDetail>. Untuk memperbaiki kesalahan ini:
Hapus rahasia dan coba terapkan lagi.
Jika masalah berlanjut, silakan ajukan tiket dukungan.
GIT_STALE_REMOTE_REFS
SQLSTATE: tidak ada yang ditetapkan
Pengambilan Git selesai tetapi tidak dapat memperbarui referensi jarak jauh kedaluarsa karena konflik jalur sistem file (misalnya, cabang yang dihapus atau 'fitur' vs 'fitur/sub').
Kesalahan Git: <gitErrorMessage>
HIERARCHICAL_NAMESPACE_NOT_ENABLED
SQLSTATE: tidak ada yang ditetapkan
Akun penyimpanan Azure tidak mengaktifkan namespace hierarkis.
INVALID_FIELD_LENGTH
<rpcName> <fieldName> terlalu lama. Panjang maksimum <maxLength> karakter.
INVALID_PARAMETER_VALUE
<msg>
Untuk detail selengkapnya, lihat INVALID_PARAMETER_VALUE
JOBS_TASK_FRAMEWORK_TASK_RUN_OUTPUT_NOT_FOUND
SQLSTATE: tidak ada yang ditetapkan
Kerangka Kerja Tugas: Hasil Eksekusi untuk tugas dengan runId <runId> dan orgId <orgId> tidak dapat ditemukan.
JOBS_TASK_FRAMEWORK_TASK_RUN_STATE_NOT_FOUND
SQLSTATE: tidak ada yang ditetapkan
Kerangka Kerja Tugas: Status Pelaksanaan Tugas dengan runId <runId> dan orgId <orgId> tidak dapat ditemukan.
JOBS_TASK_REGISTRY_TASK_CLIENT_CONFIG_DOES_NOT_EXIST
SQLSTATE: tidak ada yang ditetapkan
RPC ClientConfig untuk Tugas dengan ID <taskId> tidak ditemukan.
JOBS_TASK_REGISTRY_TASK_DOES_NOT_EXIST
SQLSTATE: tidak ada yang ditetapkan
Tugas dengan ID <taskId> tidak ada.
JOBS_TASK_REGISTRY_UNSUPPORTED_JOB_TASK
SQLSTATE: tidak ada yang ditetapkan
Registri Tugas: JobTask yang tidak didukung atau tidak diketahui dengan kelas <taskClassName>.
PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_EXTERNAL_SHALLOW_CLONE
SQLSTATE: tidak ada yang ditetapkan
Akses berbasis jalur ke tabel kloning dangkal eksternal <tableFullName> tidak didukung. Silakan gunakan nama tabel untuk mengakses kloning dangkal sebagai alternatif.
PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_FABRIC
SQLSTATE: tidak ada yang ditetapkan
Tabel fabric yang berada di URL '<url>' tidak ditemukan. Gunakan perintah REFRESH FOREIGN CATALOG untuk mengisi tabel Fabric.
PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_TABLES_WITH_ROW_COLUMN_ACCESS_POLICIES
SQLSTATE: tidak ada yang ditetapkan
Akses berbasis jalur ke tabel <tableFullName> dengan filter baris atau masker kolom tidak didukung.
PERMISSION_DENIED
SQLSTATE: tidak ada yang ditetapkan
<principalName> tidak memiliki <msg> pada <resourceType> '<resourceName>'.
REDASH_DELETE_ASSET_HANDLER_INVALID_INPUT
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat mengurai permintaan hapus objek: <invalidInputMsg>
REDASH_DELETE_OBJECT_NOT_IN_TRASH
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat menghapus objek <resourceName> yang tidak ada di tempat sampah
REDASH_PERMISSION_DENIED
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat menemukan atau memiliki izin untuk mengakses sumber daya <resourceId>
REDASH_QUERY_NOT_FOUND
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat menemukan sumber daya dari id kueri <queryId>
REDASH_QUERY_SNIPPET_CREATION_FAILED
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat membuat cuplikan kueri baru
REDASH_QUERY_SNIPPET_QUOTA_EXCEEDED
SQLSTATE: tidak ada yang ditetapkan
Kuota untuk jumlah cuplikan kueri telah tercapai. Kuota saat ini adalah <quota>.
REDASH_QUERY_SNIPPET_TRIGGER_ALREADY_IN_USE
SQLSTATE: tidak ada yang ditetapkan
Pemicu yang ditentukan <trigger> sudah digunakan oleh cuplikan kueri lain di ruang kerja ini.
REDASH_RESOURCE_NOT_FOUND
SQLSTATE: tidak ada yang ditetapkan
Sumber daya yang diminta <resourceName> tidak ada
REDASH_RESTORE_ASSET_HANDLER_INVALID_INPUT
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat mengurai permintaan hapus objek: <invalidInputMsg>
REDASH_RESTORE_OBJECT_NOT_IN_TRASH
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat memulihkan objek <resourceName> yang tidak ada di tempat sampah
REDASH_TRASH_OBJECT_ALREADY_IN_TRASH
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat membuang objek yang sudah dibuang ke tempat sampah <resourceName>
REDASH_UNABLE_TO_GENERATE_RESOURCE_NAME
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat menghasilkan nama sumber daya dari id <id>
REDASH_VISUALIZATION_CREATION_FAILED
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat membuat visualisasi baru
REDASH_VISUALIZATION_NOT_FOUND
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat menemukan visualisasi <visualizationId>
REDASH_VISUALIZATION_QUOTA_EXCEEDED
SQLSTATE: tidak ada yang ditetapkan
Kuota untuk jumlah visualisasi pada kueri <query_id> telah tercapai. Kuota saat ini adalah <quota>.
REPOSITORY_URL_NOT_FOUND
SQLSTATE: tidak ada yang ditetapkan
Repositori jarak jauh (<repoUrl>) tidak ditemukan.
Kredensial <credentialName> (<credentialId>) digunakan<because>.
Penyedia kredensial Git ini adalah <gitCredentialProvider> dan email / nama pengguna adalah <gitCredentialUsername>.
Silakan buka penyedia Git jarak jauh Anda untuk memastikan bahwa:
URL repositori Git jarak jauh Anda valid.
Token akses pribadi atau kata sandi aplikasi Anda memiliki akses repositori yang benar.
<pickOrCreateNewCredential>
RESOURCE_ALREADY_EXISTS
<resourceType> '<resourceIdentifier>' sudah ada
RESOURCE_DOES_NOT_EXIST
<resourceType> '<resourceIdentifier>' tidak ada.
ROW_COLUMN_ACCESS_POLICIES_NOT_SUPPORTED_ON_ASSIGNED_CLUSTERS
SQLSTATE: tidak ada yang ditetapkan
Kueri pada tabel <tableFullName> dengan penyaring baris atau penutup kolom tidak didukung pada kluster yang sudah ditetapkan.
ROW_COLUMN_SECURITY_NOT_SUPPORTED_WITH_TABLE_IN_DELTA_SHARING
SQLSTATE: tidak ada yang ditetapkan
Tabel <tableFullName> sedang dibagi menggunakan Delta Sharing dan tidak dapat menggunakan keamanan baris/kolom.
SERVICE_TEMPORARILY_UNAVAILABLE
SQLSTATE: tidak ada yang ditetapkan
Layanan <serviceName> sementara dalam pemeliharaan. Silakan coba lagi nanti.
TABLE_WITH_ROW_COLUMN_SECURITY_NOT_SUPPORTED_IN_ONLINE_MODE
SQLSTATE: tidak ada yang ditetapkan
Tabel <tableFullName> tidak dapat memiliki keamanan baris/kolom dan tampilan materialisasi online secara bersamaan.
TOO_MANY_ROWS_TO_UPDATE
SQLSTATE: tidak ada yang ditetapkan
Pembaruan dibatalkan karena terlalu banyak baris yang perlu diperbarui.
UC_ABAC_UNSUPPORTED_TABLE_TYPE
SQLSTATE: tidak ada yang ditetapkan
Kebijakan ABAC tidak didukung untuk jenis <tableType>tabel .