Catatan
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba masuk atau mengubah direktori.
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba mengubah direktori.
Berlaku untuk: Databricks SQL
Databricks Runtime versi 12.2 ke atas
Kondisi kesalahan adalah string deskriptif yang dapat dibaca oleh manusia dan unik untuk masing-masing kesalahan yang dijelaskan.
Anda dapat menggunakan kondisi kesalahan untuk menangani kesalahan secara terprogram di aplikasi Anda tanpa perlu mengurai pesan kesalahan.
Ini adalah daftar kondisi kesalahan yang umum terjadi dan memiliki nama dari Azure Databricks.
Databricks Runtime dan Databricks SQL
TAMBAH_DEFAULT_TIDAK_DIDUKUNG
Gagal menjalankan <statementType>
perintah karena DEFAULT
nilai tidak didukung saat menambahkan kolom baru ke sumber data target yang sudah ada sebelumnya dengan penyedia tabel: "<dataSource>
".
FUNGSI_AGREGAT_DENGAN_EKSPRESI_TIDAK_DETERMINISTIK
Ekspresi non-deterministik <sqlExpr>
tidak boleh muncul dalam argumen fungsi agregat.
AGREGAT_KEHABISAN_MEMORI
Tidak ada cukup memori untuk agregasi
Kesalahan parsing tipe data pada fungsi HTTP AI
Gagal mengurai output model saat mentransmisikan ke returnType yang ditentukan: "<dataType>
", respons JSON adalah: "<responseString>
". Harap perbarui returnType agar sesuai dengan konten jenis yang diwakili oleh JSON respons lalu coba lagi kuerinya.
Kesalahan Parsing Kolom HTTP Pada Fungsi AI
Output model yang sebenarnya memiliki lebih dari satu kolom "<responseString>
". Namun, jenis pengembalian yang ditentukan["<dataType>
"] hanya memiliki satu kolom. Harap perbarui returnType untuk berisi jumlah kolom yang sama dengan output model lalu coba lagi kueri.
Kesalahan Permintaan HTTP AI_FUNCTION
Terjadi kesalahan saat membuat permintaan HTTP untuk fungsi <funcName>
: <errorMessage>
Fungsi AI_Tanggapan HTTP Tidak Valid
Respons HTTP tidak valid untuk fungsi <funcName>
: <errorMessage>
FUNGSI_AI_INVALID_MAX_KATA
Jumlah kata maksimum harus bilangan bulat non-negatif, namun yang diperoleh <maxWords>
.
FUNGSI_AI_PARAMETER_MODEL_TIDAK_VALID
Parameter model yang disediakan (<modelParameters>
) tidak valid dalam AI_QUERY
fungsi untuk melayani titik akhir "<endpointName>
".
Untuk detail selengkapnya, lihat AI_FUNCTION_INVALID_MODEL_PARAMETERS
FUNGSI_AI_FORMAT_RESPON_TIDAK_VALID
Fungsi AI: "<functionName>
" memerlukan string yang valid <format>
untuk responseFormat
parameter, tetapi menemukan format respons berikut: "<invalidResponseFormat>
". Pengecualian: <errorMessage>
AI_FUNCTION_JSON_PARSE_ERROR
Terjadi kesalahan saat mengurai respons JSON untuk fungsi <funcName>
: <errorMessage>
Kesalahan Memahami Skema Model Fungsi AI
Gagal mengurai skema untuk titik akhir penyajian "<endpointName>
": <errorMessage>
, respons JSON adalah: "<responseJson>
".
Atur parameter returnType
secara manual dalam fungsi AI_QUERY
untuk mengambil alih resolusi skema.
KESALAHAN_FUNGSI_AI_TIDAK_DIDUKUNG
Fungsi <funcName>
tidak didukung di lingkungan saat ini. Ini hanya tersedia di Databricks SQL Pro dan Tanpa Server.
Fungsi AI: Permintaan Tidak Didukung
Gagal mengevaluasi fungsi SQL "<functionName>
" karena argumen <invalidValue>
yang disediakan memiliki "<invalidDataType>
", tetapi hanya jenis berikut yang didukung: <supportedDataTypes>
. Harap perbarui panggilan fungsi untuk memberikan argumen jenis string dan coba lagi kueri.
Format Respon Tidak Didukung untuk Fungsi AI
Ditemukan format respons yang tidak didukung.
Untuk informasi lebih lanjut, lihat AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT
TIPE_PENGEMBALIAN_FUNGSI_AI_TIDAK_DIDUKUNG
Fungsi AI: "<functionName>
" tidak mendukung jenis berikut sebagai jenis pengembalian: "<typeName>
". Jenis pengembalian harus merupakan jenis SQL yang valid yang dipahami oleh Katalis dan didukung oleh fungsi AI. Jenis yang didukung saat ini meliputi: <supportedValues>
Kesalahan_Nilai_Argumen_Tidak_Sah_AI
Nilai yang disediakan "<argValue>
" tidak didukung oleh argumen "<argName>
". Nilai yang didukung adalah: <supportedValues>
AI_QUERY_ENDPOINT_TIDAK_MENDUKUNG_OUTPUT_TERSTRUKTUR
Diharapkan jenis tugas titik akhir penyajian menjadi "Obrolan" untuk dukungan output terstruktur, tetapi ditemukan "<taskType>
" untuk titik akhir "<endpointName>
".
MISMATCH TIPE KOLOM PADA TIPE PENGEMBALIAN KUERI AI
Disediakan "<sqlExpr>
" tidak didukung oleh argumen returnType.
KESALAHAN_PASOKAN_PARAMETRI_KONFLIK_PENCARIAN_AI
Parameter yang bertentangan terdeteksi untuk fungsi SQL vector_search
: <conflictParamNames>
.<hint>
Kesalahan_Tipe_Kolom_Pencarian_AI_Tidak_Didukung
vector_search
fungsi SQL dengan jenis kolom penyematan <embeddingColumnType>
tidak didukung.
AI_SEARCH_EMPTY_QUERY_PARAM_ERROR
vector_search
fungsi SQL tidak memiliki parameter input kueri, harap tentukan minimal satu dari: <parameterNames>
.
KESALAHAN_DEPREKASI_PARAMETR_KUERAI_HIBRIDA_AI_PENCARIAN
Parameter query
dari fungsi SQL vector_search
tidak didukung untuk pencarian vektor hybrid
. Silakan gunakan query_text
sebagai gantinya.
KESALAHAN_TIDAK_DITEMUKAN_TEKS_HIBRIDA_AI_PENCARIAN
Teks kueri tidak ditemukan dalam fungsi SQL vector_search
untuk pencarian vektor hybrid
. Harap sediakan query_text
.
Jenis Indeks Penelusuran AI Tidak Didukung
vector_search
fungsi SQL dengan jenis indeks <indexType>
tidak didukung.
ERROR_INPUT_PENYEMATAN_AI_YANG_HILANG
query_vector
harus ditentukan untuk indeks <indexName>
karena tidak terkait dengan endpoint model penyematan.
Kesalahan_Konversi_Tipe_Pencarian_AI_Encode
Kegagalan menyusun kueri fungsi SQL vector_search
dari tipe spark <dataType>
ke objek scala-native ketika mengode permintaan karena kesalahan: <errorMessage>
.
KESALAHAN_TIPE_PERTANYAAN_PENCARIAN_TIDAK_DIDUKUNG
vector_search
fungsi SQL dengan jenis kueri <unexpectedQueryType>
tidak didukung. Tentukan satu dari: <supportedQueryTypes>
.
Kesalahan_Jumlah_Hasil_Tidak_Didukung_AI_PENCARIAN
vector_search
fungsi SQL dengan num_results lebih besar dari <maxLimit>
tidak didukung. Batas yang ditentukan adalah <requestedLimit>
. Silakan coba lagi dengan num_results <= <maxLimit>
Parameter AI_TOP_DRIVERS di luar jangkauan
Parameter ai_top_drivers
<param>
harus antara <lo>
dan <hi>
.
Jenis Agregasi Tidak Didukung oleh Penggerak AI Teratas
ai_top_drivers
tidak mendukung <aggName>
agregat. Pilih salah satu agregat yang didukung berikut ini: <allowed>
.
TIPE_DIMENSI_YANG_TIDAK_DIDUKUNG_AI_PENGGERAK_TERATAS
ai_top_drivers
tidak mendukung kolom dimensi numerik, peta, atau struktur. Kolom <colName>
memiliki jenis <dataType>
. Hapus dimensi ini atau ubah ke jenis yang didukung.
Jenis Label Tidak Didukung oleh Pengemudi Teratas AI
ai_top_drivers
memerlukan jenis kolom label menjadi boolean. Kolom <colName>
memiliki jenis <dataType>
. Ubah kolom label atau konversikan ke jenis yang didukung.
Tipe Metrik Tidak Didukung Penggerak AI Teratas
ai_top_drivers
memerlukan jenis kolom metrik menjadi numerik. Kolom <colName>
memiliki jenis <dataType>
. Ubah kolom metrik atau konversi ke tipe yang didukung.
SEMUA_PARAMETER_HARUS_DIBERI_NAMA
Menggunakan kueri berparameter nama mengharuskan semua parameter diberi nama. Nama parameter yang hilang: <exprs>
.
SEMUA_KOLOM_PARTISI_TIDAK_DIPERBOLEHKAN
Tidak dapat menggunakan semua kolom untuk kolom partisi.
JADWAL_ALTER_TIDAK_ADA
Tidak dapat memodifikasi <scheduleType>
pada tabel tanpa jadwal atau pemicu yang ada. Tambahkan jadwal atau pemicu ke tabel sebelum mencoba mengubahnya.
PENGUBAHAN_DUPLIKAT_KOLOM_DESKRIPTOR_TABEL
ALTER TABLE <type>
kolom <columnName>
menentukan deskriptor "<optionName>
" lebih dari sekali, yang tidak valid.
Alias_Tidak_Jelas_Dalam_CTE_Tertanam
Nama <name>
ambigu dalam CTE berlapis.
Silakan atur <config>
ke "CORRECTED
" sehingga nama yang ditentukan dalam CTE dalam lebih diutamakan. Jika diatur ke "LEGACY
", definisi CTE luar akan diutamakan.
Lihat 'https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine'.
KOLOM_OR_BIDANG_TIDAK_JELAS
Kolom atau bidang <name>
bersifat ambigu dan memiliki <n>
kecocokan.
REFERENSI_KOLOM_AMBIGU
Kolom <name>
ambigu. Ini karena Anda menggabungkan beberapa DataFrame bersama-sama, dan beberapa DataFrame ini sama.
Kolom ini menunjuk ke salah satu DataFrames tetapi Spark tidak dapat mencari tahu yang mana.
Silakan membuat alias untuk DataFrames dengan nama yang berbeda dengan menggunakan DataFrame.alias
sebelum menggabungkannya.
dan tentukan kolom menggunakan nama yang memenuhi syarat, misalnya df.alias("a").join(df.alias("b"), col("a.id") > col("b.id"))
.
KETIDAKJELASAN_PERSYARATAN
Referensi ambigu ke batasan <constraint>
.
ALIAS_KOLOM_LATERAL_AMBIGU
Alias kolom lateral <name>
tidak jelas dan memiliki sejumlah kecocokan <n>
.
REFERENSI_TIDAK_JELAS
Referensi <name>
ambigu, bisa jadi: <referenceNames>
.
REFERENSI_YANG_TIDAK_JELAS_PADA_FIELD
Referensi ambigu ke bidang <field>
. Muncul <count>
kali dalam skema.
ANALISIS_KETERBATASAN_TIDAK_DIDUKUNG
ANALYZE CONSTRAINTS
tidak didukung.
Konfigurasi ANSI tidak dapat dinonaktifkan
Konfigurasi ANSI SQL <config>
tidak dapat dinonaktifkan dalam produk ini.
AQE_THREAD_TERGANGGU
Proses AQE terganggu, mungkin karena kueri dibatalkan oleh pengguna.
ARGUMEN_TIDAK_KONSTAN
Fungsi <functionName>
menyertakan parameter <parameterName>
pada posisi <pos>
yang memerlukan argumen konstanta. Silakan komputasi argumen <sqlExpr>
secara terpisah dan berikan hasilnya sebagai konstanta.
ARITHMETIC_OVERFLOW
<message>
.
<alternative>
Atur <config>
ke "false" jika perlu untuk melewati kesalahan ini.
Untuk detail selengkapnya, lihat ARITHMETIC_OVERFLOW
ARROW_TYPE_MISMATCH (Ketidakcocokan Jenis Panah)
Skema tidak valid dari <operation>
: yang diharapkan <outputTypes>
, diperoleh <actualDataTypes>
.
ARTEFAK_SUDAH_ADA
Artefak <normalizedRemoteRelativePath>
sudah ada. Silakan pilih nama yang berbeda untuk artefak baru karena tidak dapat ditimpa.
KETIDAKCOCOKAN_ARITAS_PENUGASAN
Jumlah kolom atau variabel yang ditetapkan atau alias: <numTarget>
tidak cocok dengan jumlah ekspresi sumber: <numExpr>
.
AS_OF_JOIN
Gabungan as-of tidak valid.
Untuk informasi lebih lanjut, lihat AS_OF_JOIN
AVRO_CANNOT_WRITE_NULL_FIELD (Tidak dapat menulis field bernilai null)
Tidak dapat menulis nilai null untuk bidang <name>
yang didefinisikan sebagai tipe data Avro <dataType>
non-null.
Untuk memperbolehkan nilai null untuk bidang ini, tentukan skema avro-nya sebagai jenis union dengan "null" menggunakan opsi avroSchema
.
Nilai Default AVRO Tidak Didukung
Penggunaan nilai default tidak didukung saatrescuedDataColumn
diaktifkan. Anda mungkin dapat menghapus pemeriksaan ini dengan mengatur spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue
ke false, tetapi nilai default tidak akan berlaku dan nilai null masih akan digunakan.
Reading Type yang Tidak Kompatibel di AVRO
Tidak dapat mengonversi Avro <avroPath>
ke SQL <sqlPath>
karena jenis data yang dikodekan asli adalah <avroType>
, namun Anda mencoba membaca bidang sebagai <sqlType>
, yang akan menyebabkan jawaban yang salah.
Untuk mengizinkan membaca bidang ini, aktifkan konfigurasi SQL: "spark.sql.legacy.avro.allowIncompatibleSchema".
AVRO_TIDAK_DIMUAT_FUNGSI_SQL_TIDAK_DAPAT_DIGUNAKAN
Tidak dapat memanggil <functionName>
fungsi SQL karena sumber data Avro tidak dimuat.
Mulai ulang pekerjaan atau sesi Anda dengan paket 'spark-avro' yang dimuat, seperti dengan menggunakan argumen --packages pada baris perintah, lalu coba lagi kueri atau perintah Anda.
AVRO_POSISIONAL_PENCOCOKAN_BIDANG_TIDAK_DIDUKUNG
Penggunaan pencocokan bidang posisi tidak didukung saat rescuedDataColumn
atau failOnUnknownFields
diaktifkan. Hapus opsi ini untuk melanjutkan.
METADATA_BATCH_TIDAK_DITEMUKAN
Tidak dapat menemukan batch <batchMetadataFile>
.
Opsi BIGQUERY adalah saling eksklusif
Kredensial koneksi BigQuery harus ditentukan dengan parameter 'GoogleServiceAccountKeyJson' atau semua 'projectId', 'OAuthServiceAcctEmail', 'OAuthPvtKey'
Luapan Aritmatika Biner
<value1> <symbol> <value2>
menyebabkan luapan. Gunakan <functionName>
untuk mengabaikan masalah luapan dan mengembalikan NULL
.
KATALOG_BUILT_IN
<operation>
tidak mendukung katalog bawaan.
PANGGIL_PADA_SET_DATA_STREAMING_TIDAK_DIDUKUNG
Metode <methodName>
tidak dapat dipanggil pada streaming Himpunan Data/DataFrame.
TIDAK_DAPAT_MENGUBAH_KOLOM_BUCKET_KOLASI
ALTER TABLE (ALTER|CHANGE) COLUMN
tidak dapat mengubah pengaturan urutan tipe/subtipe kolom penampung, tetapi kolom penampung <columnName>
ditemukan dalam tabel <tableName>
.
TIDAK_DAPAT_MENGUBAH_KOLOM_PARTISI
ALTER TABLE (ALTER|CHANGE) COLUMN
tidak didukung untuk kolom partisi, tetapi menemukan kolom partisi <columnName>
dalam tabel <tableName>
.
TIDAK_BISA_MENGATUR_KOLOM_WAKTU_ACARA_TANPA_TANDA_AIR
Penanda waktu perlu didefinisikan untuk menetapkan ulang kolom waktu kejadian. Gagal menemukan definisi watermark dalam kueri streaming.
TIDAK DAPAT MENGUBAH JENIS DATA
Tidak dapat melemparkan <sourceType>
ke <targetType>
.
TIDAK_BISA_MENGONVERSI_TIPE_LAPANGAN_PROTOBUF_KE_TIPE_SQL
Tidak dapat mengonversi Protobuf <protobufColumn>
ke SQL <sqlColumn>
karena skema tidak kompatibel (protobufType = <protobufType>
, sqlType = <sqlType>
).
TIDAK_DAPAT_MENGONVERSI_JENIS_PESAN_PROTOBUF_KE_JENIS_SQL
Tidak dapat mengonversi <protobufType>
Protobuf ke jenis SQL <toType>
.
Tidak dapat mengonversi tipe SQL ke tipe bidang Protobuf
Tidak dapat mengonversi <sqlColumn>
SQL ke Protobuf <protobufColumn>
karena skema tidak kompatibel (protobufType = <protobufType>
, sqlType = <sqlType>
).
Tidak dapat mengonversi nilai SQL ke jenis enum Protobuf (CANNOT_CONVERT_SQL_VALUE_TO_PROTOBUF_ENUM_TYPE)
Tidak dapat mengonversi <sqlColumn>
SQL ke protobuf <protobufColumn>
karena <data>
tidak dalam nilai yang ditentukan untuk enum: <enumString>
.
TIDAK_BISA_MENYALIN_STATUS
Tidak dapat menyalin status katalog seperti database saat ini dan tampilan sementara dari Katalog Unity ke katalog warisan.
TIDAK_BISA_MEMBUAT_TABEL_SUMBER_DATA
Gagal membuat tabel sumber data <tableName>
:
Untuk informasi lebih lanjut, lihat CANNOT_CREATE_DATA_SOURCE_TABLE
TIDAK_BISA_MENDEKODE_URL
URL yang disediakan tidak dapat didekodekan: <url>
. Pastikan URL diformat dengan benar dan coba lagi.
TIDAK DAPAT MENGHAPUS MILIK SISTEM
Sistem yang memiliki <resourceType>
tidak dapat dihapus.
Tidak Dapat Menghapus Kendala yang Ambigu
Tidak dapat menghapus batasan dengan nama <constraintName>
yang berbagi dengan batasan CHECK
dan batasan PRIMARY KEY
atau FOREIGN KEY
. Anda dapat menghilangkan PRIMARY KEY
atau
FOREIGN KEY
batasan berdasarkan kueri:
ALTER TABLE
..
DROP PRIMARY KEY
atau
ALTER TABLE
..
DROP FOREIGN KEY
..
TIDAK_BISA_MENGHUBUNGKAN
Tidak dapat membuat koneksi ke database <jdbcDialectName>
jarak jauh. Silakan periksa informasi koneksi dan kredensial misalnya opsi host, port, pengguna, kata sandi, dan database. Jika Anda yakin informasi tersebut benar, silakan periksa pengaturan jaringan ruang kerja Anda dan pastikan tidak ada batasan keluar yang mencegah akses ke host. Harap juga periksa bahwa host tidak memblokir koneksi masuk dari jaringan tempat kluster Spark di ruang kerja dikerahkan. ** Pesan kesalahan terperinci: <causeErrorMessage>
.
TIDAK_BISA_MENGHUBUNGKAN_SERVERLESS
Tidak dapat membuat koneksi ke database <jdbcDialectName>
jarak jauh. Silakan periksa informasi koneksi dan kredensial misalnya opsi host, port, pengguna, kata sandi, dan database. ** Jika Anda yakin informasi tersebut benar, izinkan lalu lintas masuk dari Internet ke host Anda, karena Anda menggunakan Komputasi Tanpa Server. Jika kebijakan jaringan Anda tidak mengizinkan lalu lintas Internet masuk, silakan gunakan Komputasi Tanpa Server, atau Anda dapat menghubungi perwakilan Databricks Anda untuk mempelajari tentang Jaringan Privat Tanpa Server. ** Pesan kesalahan terperinci: <causeErrorMessage>
.
TIDAK_BISA_MENJALANKAN_DALAM_TRANSFORMASI
Transformasi dan tindakan himpunan data hanya dapat dipanggil oleh driver, bukan di dalam transformasi Himpunan Data lainnya; misalnya, dataset1.map(x => dataset2.values.count() * x)
tidak valid karena transformasi nilai dan tindakan hitungan tidak dapat dilakukan di dalam transformasi dataset1.map. Untuk informasi selengkapnya, lihat SPARK
-28702.
TIDAK DAPAT MEMUAT KELAS FUNGSI
Tidak dapat memuat kelas <className>
pada saat mendaftarkan fungsi <functionName>
, pastikan ada di classpath.
TIDAK_DAPAT_MEMUAT_KELAS_PROTOBUF
Tidak dapat memuat kelas Protobuf dengan nama <protobufClassName>
.
<explanation>
.
TIDAK_DAPAT_MEMUAT_PENYIMPANAN_STATUS
Terjadi kesalahan selama status pemuatan.
Untuk informasi lebih lanjut, lihat CANNOT_LOAD_STATE_STORE
TIDAK_BISA_MENGGABUNGKAN_TIPE_DATA_YANG_TIDAK_KOMPATIBEL
Gagal menggabungkan jenis data yang tidak kompatibel <left>
dan <right>
. Silakan periksa jenis data kolom yang digabungkan dan pastikan bahwa kolom tersebut kompatibel. Jika perlu, pertimbangkan untuk mengonversi kolom ke jenis data yang kompatibel sebelum mencoba penggabungan.
TIDAK_BISA_MENGGABUNGKAN_SKEMA
Gagal menggabungkan skema:
Skema awal:
<left>
Skema yang tidak dapat digabungkan dengan skema awal:
<right>
.
TIDAK DAPAT MENGUBAH KONFIGURASI
Tidak dapat mengubah nilai konfigurasi Spark: <key>
.
Lihat juga 'https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements'.
TIDAK_DAPAT_MENGURAI_DESIMAL
Tidak dapat memproses desimal. Pastikan bahwa input adalah angka yang valid dengan titik desimal opsional atau pemisah koma.
Tidak Dapat Memproses Interval
Tidak dapat mengurai <intervalString>
. Pastikan bahwa nilai yang disediakan dalam format yang valid untuk menentukan interval. Anda dapat merujuk pada dokumentasi untuk format yang benar. Jika masalah berlanjut, silakan periksa kembali apakah nilai input tidak null atau kosong dan coba lagi.
TIDAK_DAPAT_MEMPARSE_BIDANG_JSON
Tidak dapat mengurai nama bidang <fieldName>
dan nilai <fieldValue>
dari jenis token JSON <jsonType>
ke jenis data Spark <dataType>
.
Tidak dapat memparsing PROTOBUF_DESCRIPTOR
Kesalahan dalam memparsing byte deskriptor ke dalam FileDescriptorSet Protobuf.
TIDAK_BISA_MEMAHAMI_WAKTU
Input <input>
tidak dapat diurai menjadi nilai WAKTU karena tidak cocok dengan format <format>
tanggalwaktu.
TIDAK_DAPAT_MEMAHAMI_WAKTU
<message>
. Gunakan <func>
untuk mentolerir string input yang tidak valid dan mengembalikan NULL
sebagai gantinya.
TIDAK_BISA_MENANYAKAN_TABEL_SAAT_INISIALISASI
Tidak dapat meminta MV/ST selama inisialisasi.
Untuk detail selengkapnya, lihat CANNOT_QUERY_TABLE_DURING_INITIALIZATION
TIDAK_DAPAT_MEMBACA_BERKAS_YANG_DIARSIPKAN
Tidak dapat membaca file di jalur <path>
karena telah diarsipkan. Sesuaikan filter kueri Anda untuk mengecualikan file yang diarsipkan.
TIDAK_DAPAT_MEMBACA_BERKAS
Tidak dapat membaca file <format>
di jalur: <path>
.
Untuk detail selengkapnya, lihat CANNOT_READ_FILE
TIDAK DAPAT MEMBACA KUNCI SENSITIF DARI PENYEDIA AMAN
Tidak dapat membaca kunci sensitif '<key>
' dari penyedia aman.
TIDAK_DAPAT_MENGENALI_JENIS_SARANG
Tidak dapat mengenali string jenis hive: <fieldType>
, kolom: <fieldName>
. Jenis data yang ditentukan untuk bidang tidak dapat dikenali oleh Spark SQL. Silakan periksa jenis data bidang yang ditentukan dan pastikan bahwa itu adalah jenis data Spark SQL yang valid. Lihat dokumentasi Spark SQL untuk daftar jenis data yang valid dan formatnya. Jika jenis data sudah benar, pastikan Anda menggunakan versi Spark SQL yang didukung.
TIDAK_BISA_MEREFERENSIKAN_UC_DI_HMS
Tidak dapat merujuk pada Katalog Unity <objType>
dalam objek Apache Hive Metastore.
TIDAK_BISA_MENGHAPUS_PROPERTI_CADANGAN
Tidak dapat menghapus properti yang telah dipesan: <property>
.
TIDAK_DAPAT_MENGGANTI_NAMA_DI_SELURUH_KATALOG
Mengganti nama <type>
di seluruh katalog tidak diperbolehkan.
TIDAK_DAPAT_MENGGANTI_NAMA_DI_SELURUH_SKEMA
Mengganti nama <type>
di seluruh skema tidak diperbolehkan.
TIDAK_DAPAT_MENYELESAIKAN_KOLOM_DATAFRAME
Tidak dapat menyelesaikan kolom dataframe <name>
. Ini mungkin karena referensi ilegal seperti df1.select(df2.col("a"))
.
TIDAK_BISA_MENYELESAIKAN_PENGEMBANGAN_BINTANG
Tidak dapat menyelesaikan <targetString>
.* untuk kolom input yang diberikan <columns>
. Silakan periksa apakah tabel atau struktur yang ditentukan ada dan dapat diakses di kolom input.
TIDAK DAPAT MEMULIHKAN PERMISSIONS UNTUK PATH
Gagal mengatur izin pada jalur yang sudah dibuat <path>
kembali ke <permission>
.
TIDAK DAPAT MELAKUKAN PENYALINAN RINGAN ANTARA UC DAN HMS
Tidak dapat melakukan penggandaan tabel secara dangkal antara Unity Catalog dan Apache Hive Metastore.
TIDAK_BISA_MENGGANDALAHKAN_SEDANG_NESTED
Tidak dapat membuat klon dangkal dari tabel <table>
yang sudah merupakan klon dangkal.
TIDAK_BISA_MENCADANGI_TABEL_TIDAK_KELOLA_UC_SEBAGAI_SUMBER_ATAU_TARGET
Klon dangkal hanya didukung untuk tipe tabel MANAGED
. Tabel <table>
bukan tabel MANAGED
.
TIDAK_BISA_MENGUBAH_BIDANG
Tidak dapat memperbarui bidang <table>
tipe <fieldName>
:
Untuk detail selengkapnya, lihat CANNOT_UPDATE_FIELD
Tidak Dapat Mengubah Tipe Data ke Tingkatan Lebih Tinggi
Tidak dapat mengonversi <expression>
dari <sourceType>
ke <targetType>
.
<details>
TIDAK_BISA_MENGGUNAKAN_KRYO
Tidak dapat memuat codec serialisasi Kryo. Serialisasi Kryo tidak dapat digunakan di klien Spark Connect. Gunakan serialisasi Java, berikan Codec kustom, atau gunakan Spark Classic sebagai gantinya.
TIDAK DAPAT MEMVALIDASI KONEKSI
Validasi koneksi <jdbcDialectName>
tidak didukung. Silakan hubungi dukungan Databricks untuk solusi alternatif, atau atur "spark.databricks.testConnectionBeforeCreation" ke "false" untuk melewati pengujian koneksi sebelum membuat objek koneksi.
TIDAK_BISA_MENULIS_STATE_STORE
Kesalahan saat menulis file penyimpanan status untuk penyedia <providerClass>
.
Untuk detail selengkapnya, lihat CANNOT_WRITE_STATE_STORE
MASUKAN_TIDAK_VALID
Nilai <expression>
dari tipe <sourceType>
tidak dapat diubah menjadi <targetType>
karena salah format. Koreksi nilai sesuai sintaks, atau ubah jenis targetnya. Gunakan try_cast
untuk mentolerir input yang salah bentuk dan mengembalikan NULL
sebagai gantinya.
Untuk informasi lebih lanjut, lihat CAST_INVALID_INPUT
kelebihan_pemanggilan
Nilai <value>
jenis <sourceType>
tidak dapat dikonversi ke <targetType>
karena overflow. Gunakan try_cast
untuk mentolerir luapan dan mengembalikan NULL
sebagai gantinya.
KELEBIHAN_PENUANGAN_PADA_INSERT_TABEL
Gagal menetapkan nilai jenis <sourceType>
ke sebuah kolom jenis <targetType>
atau variabel <columnName>
karena kelebihan. Gunakan try_cast
pada nilai input untuk mentolerir luapan dan mengembalikan NULL
sebagai gantinya.
KATALOG_TIDAK_DITEMUKAN
Katalog <catalogName>
tidak ditemukan. Pertimbangkan untuk mengatur konfigurasi SQL <config>
ke plugin katalog.
Pembuatan tabel yang dimiliki oleh katalog tidak diperbolehkan
Membuat tabel Delta dengan tabel fitur <feature>
tidak diperbolehkan. Silakan hubungi dukungan Databricks.
CHECKPOINT_RDD_BLOCK_ID_TIDAK_DITEMUKAN
Blok titik pemeriksaan <rddBlockId>
tidak ditemukan!
Baik eksekutor yang awalnya melakukan checkpoint pada partisi ini sudah tidak aktif, atau RDD asli telah dihapus dari cache.
Jika masalah ini berlanjut, Anda dapat mempertimbangkan untuk menggunakan rdd.checkpoint()
sebagai gantinya, yang lebih lambat daripada titik pemeriksaan lokal tetapi lebih toleran terhadap kesalahan.
Referensi Kelas Melingkar
Tidak boleh ada referensi melingkar dalam kelas, namun ditemukan referensi melingkar milik kelas <t>
.
KELAS_TIDAK_MENGGANTI_METODE_YANG_DIHARAPKAN
<className>
harus mengambil alih <method1>
atau <method2>
.
kelas tidak didukung oleh objek peta
MapObjects
tidak mendukung kelas <cls>
sebagai koleksi hasil.
PERINTAH_CLEANROOM_TIDAK_DIDUKUNG
Perintah Clean Room tidak didukung
CLEANROOM_NAMA_OBJEK_DATA_BERSAMA_TIDAK_VALID
Nama tidak valid untuk mereferensikan <type>
di dalam Ruang Bersih. Gunakan nama <type>
di dalam ruang bersih dengan format [katalog].[skema].[<type>
].
Jika Anda tidak yakin tentang nama apa yang akan digunakan, Anda dapat menjalankan "SHOW ALL IN CLEANROOM
[clean_room]" dan menggunakan nilai di kolom "nama".
KLONING_DENGAN_SEJARAH_OPSI_TIDAK_VALID
Kloning dengan riwayat ditentukan dengan opsi yang tidak valid: <invalidOption>
.
Sintaks yang valid: CREATE
(ATAU REPLACE) TABLE
... MENDALAM CLONE
... WITH HISTORY
.
PENGGANDAAN_DENGAN_RIWAYAT_TIDAK_DIDUKUNG
Kloning dengan riwayat tidak didukung.
FILE_SUMBER_AWAN_TIDAK_DITEMUKAN
Pemberitahuan file diterima untuk file: <filePath>
tetapi tidak lagi ada. Pastikan file tidak dihapus sebelum diproses. Untuk melanjutkan streaming, Anda dapat mengatur konfigurasi Spark SQL <config>
ke true.
KESALAHAN_PENYEDIA_AWAN
Kesalahan penyedia cloud: <message>
KETIDAKCOCOKAN_KOLOM_CLUSTERING
Pengklusteran yang ditentukan tidak cocok dengan tabel yang ada <tableName>
.
Kolom pengklusteran yang ditentukan: [<specifiedClusteringString>
].
Kolom pengklusteran yang ada: [<existingClusteringString>
].
Pengelompokan tidak didukung (CLUSTERING_NOT_SUPPORTED)
'<operation>
' tidak mendukung pengklusteran.
FITUR_CLUSTER_OTOMATIS_TIDAK_DIAKTIFKAN
Silakan hubungi perwakilan Databricks Anda untuk mengaktifkan fitur cluster-by-auto.
Klasterisasi otomatis memerlukan fitur klasterisasi diaktifkan
Harap aktifkan pengklusteran Table.enableClusteringTableFeature untuk menggunakan CLUSTER BY
AUTO.
KLASTER_OTOMATIS_MEMBUTUHKAN_OPTIMISASI_PREDIKTIF
CLUSTER BY
AUTO mengharuskan Pengoptimalan Prediktif diaktifkan.
CLUSTER_BY_AUTO_TIPE_TABEL_TIDAK_DIDUKUNG_OTOMATIS_ERROR
CLUSTER BY
AUTO hanya didukung pada tabel Terkelola UC.
Codec Tidak Tersedia
<codecName>
codec tidak tersedia.
Untuk detail lebih lanjut, lihat CODEC_NOT_AVAILABLE
NAMA_PENDEK_CODEC_TIDAK_DITEMUKAN
Tidak dapat menemukan nama pendek untuk codec <codecName>
.
Nama Pengurutan Tidak Valid
Nilai <collationName>
tidak mewakili nama pengurutan yang benar. Nama pengurutan valid yang disarankan: [<proposals>
].
KOLOKASI_PENYEDIA_TIDAK_VALID
Nilai <provider>
tidak mewakili penyedia pengurutan yang benar. Penyedia yang didukung adalah: [<supportedProviders>
].
KETIDAKSESUAIAN_PENYUSUNAN
Tidak dapat menentukan kolatasi mana yang akan digunakan untuk fungsi dan operator string.
Untuk detail selengkapnya, lihat COLLATION_MISMATCH
BATAS UKURAN KOLEKSI TERLEBIH
Tidak dapat membuat array dengan <numberOfElements>
elemen yang melebihi batas <maxRoundedArrayLength>
ukuran array ,
Untuk informasi lebih lanjut, lihat COLLECTION_SIZE_LIMIT_EXCEEDED
ALIAS_KOLOM_TIDAK_DIPERBOLEHKAN
Alias kolom tidak diperbolehkan dalam <op>
.
KOLOM_SUDAH_ADA
Kolom <columnName>
sudah ada. Pilih nama lain atau ganti nama kolom yang sudah ada.
KETIDAKCOCOKAN_TIPE_ELEMEN_ARRAY_KOLOM
Beberapa nilai di bidang <pos>
tidak kompatibel dengan jenis array kolom. Tipe yang diharapkan <type>
.
COLUMN_MASKS_ABAC_MISMATCH
Masker kolom tidak dapat diselesaikan pada <tableName>
karena ada ketidakcocokan antara masker kolom yang diwarisi dari kebijakan dan masker kolom yang ditentukan secara eksplisit. Untuk melanjutkan, nonaktifkan Kontrol Akses Berbasis Atribut (ABAC) dan hubungi dukungan Databricks.
COLUMN_MASKS_KONSTRUKSI_CEK_TIDAK_DIDUKUNG
Pembuatan batasan CHECK
pada tabel <tableName>
dengan kebijakan kolom masker tidak didukung.
COLUMN_MASKS_DUPLIKAT_MENGGUNAKAN_NAMA_KOLOM
Pernyataan <statementType>
mencoba menetapkan kebijakan masker kolom ke kolom yang menyertakan dua atau beberapa kolom referensi lainnya dalam daftar USING COLUMNS
dengan nama yang sama <columnName>
, yang tidak valid.
COLUMN_MASKS_FITUR_TIDAK_DIDUKUNG
Kebijakan masker kolom untuk <tableName>
tidak didukung:
Untuk informasi selengkapnya, lihat COLUMN_MASKS_FEATURE_NOT_SUPPORTED
COLUMN_MASKS_PERUBAHAN_SKEMA_TIDAK_KOMPATIBEL
Tidak dapat <statementType> <columnName>
dari tabel <tableName>
karena kolom tersebut dirujuk dalam kebijakan masker kolom untuk kolom <maskedColumn>
. Pemilik tabel harus menghapus atau mengubah kebijakan ini sebelum melanjutkan.
COLUMN_MASKS_GABUNGAN_SUMBER_TIDAK_DIDUKUNG
operasi MERGE INTO
tidak mendukung kebijakan masker kolom dalam tabel sumber <tableName>
.
COLUMN_MASKS_GABUNGAN_TARGET_TIDAK_DIDUKUNG
operasi MERGE INTO
tidak dapat mendukung penulisan ke dalam tabel <tableName>
dengan kebijakan penyamaran kolom.
COLUMN_MASKS_MULTI_PART_TARGET_COLUMN_NAME
Pernyataan ini mencoba menetapkan kebijakan masker kolom ke kolom <columnName>
yang memiliki beberapa komponen nama, yang tidak valid.
COLUMN_MASKS_BAGIAN_HUBUNGAN_MENGGUNAKAN_NAMA_KOLOM
Pernyataan ini mencoba menetapkan kebijakan masker kolom ke kolom dan daftar USING COLUMNS
menyertakan nama <columnName>
dengan beberapa bagian nama, yang tidak valid.
COLUMN_MASKS_TIDAK_DIAKTIFKAN
Dukungan untuk menentukan masker kolom tidak diaktifkan
COLUMN_MASKS_REQUIRE_UNITY_CATALOG
Kebijakan masker kolom hanya didukung di Katalog Unity.
COLUMN_MASKS_TAMPILKAN_PARTISI_TIDAK_DIDUKUNG
perintah SHOW PARTITIONS
tidak didukung untuk tabel<format>
dengan masker kolom.
COLUMN_MASKS_SUMBER_DUPLIKAT_TABEL_TIDAK_DIDUKUNG
<mode>
mengkloning tabel <tableName>
dengan kebijakan pemadaman kolom tidak didukung.
COLUMN_MASKS_TABLE_CLONE_TARGET_NOT_SUPPORTED (Target Kloning Tabel Tidak Didukung)
<mode>
mengkloning tabel ke <tableName>
dengan kebijakan masker kolom tidak didukung.
COLUMN_MASKS_KONSTANTA_YANG_TIDAK_DIDUKUNG_SEBAGAI_PARAMETER
Menggunakan konstanta sebagai parameter dalam kebijakan masker kolom tidak didukung. Perbarui perintah SQL Anda untuk menghapus konstanta dari definisi masker kolom lalu coba lagi perintah tersebut.
COLUMN_MASKS_TIPE_DATA_TIDAK_DIDUKUNG
Fungsi <functionName>
yang digunakan sebagai kebijakan masker kolom berisi parameter dengan jenis <dataType>
data yang tidak didukung .
COLUMN_MASKS_PENYEDIA_TIDAK_DIDUKUNG
Gagal menjalankan <statementType>
perintah karena menetapkan kebijakan masker kolom tidak didukung untuk sumber data target dengan penyedia tabel: "<provider>
".
COLUMN_MASKS_SUBQUERY_TIDAK_DIDUKUNG
Tidak dapat melakukan <operation>
untuk tabel <tableName>
karena berisi satu atau lebih kebijakan masker kolom dengan ekspresi subkueri, yang belum didukung. Silakan hubungi pemilik tabel untuk memperbarui kebijakan pembatasan kolom agar dapat melanjutkan.
COLUMN_MASKS_MENGGUNAKAN_NAMA_KOLOM_SAMA_DENGAN_KOLOM_TARGET
Kolom <columnName>
memiliki nama yang sama dengan kolom target, yang tidak valid; silakan hapus kolom dari daftar USING COLUMNS
dan coba lagi perintah .
KOLOM_TIDAK_DIDEFINISIKAN_DI_TABEL
<colType>
kolom <colName>
tidak ditentukan dalam tabel <tableName>
, kolom tabel yang ditentukan adalah: <tableCols>
.
KOLOM_TIDAK_DITEMUKAN
Kolom <colName>
tidak dapat ditemukan. Verifikasi ejaan dan kebenaran nama kolom sesuai dengan konfigurasi SQL <caseSensitiveConfig>
.
KOLOM_ORDINAL_DI_LUAR_BATAS
Urutan kolom di luar batas. Jumlah kolom dalam tabel <attributesLength>
, tetapi ordinal kolom <ordinal>
.
Atributnya adalah sebagai berikut: <attributes>
.
KESALAHAN_KONSTRAIN_SEBELUM_KOMA
Tanda ',' tak terduga sebelum definisi batasan. Pastikan bahwa klausa batasan tidak dimulai dengan koma saat kolom (dan ekspektasi) tidak ditentukan.
KOMENTAR_PADA_KONEKSI_BELUM_DILAKSANAKAN
Perintah COMMENT ON CONNECTION
belum diimplementasikan
KOMPARATOR_MENGEMBALIKAN_NILAI_NULL
Komparator telah mengembalikan NULL
untuk perbandingan antara <firstValue>
dan <secondValue>
.
Ini harus mengembalikan bilangan bulat positif untuk "lebih besar dari", 0 untuk "sama" dan bilangan bulat negatif untuk "kurang dari".
Untuk kembali ke perilaku yang tidak digunakan lagi di mana NULL
diperlakukan sebagai 0 (sama dengan), Anda harus mengatur "spark.sql.legacy.allowNullComparisonResultInArraySort" ke "true".
EKSPRESI_KOMPLEKS_INPUT_TIDAK_DIDUKUNG
Tidak dapat memproses jenis data input untuk ekspresi: <expression>
.
Untuk informasi lebih lanjut, lihat COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
KUERI_SERENTAK
Satu instance lain dari kueri ini [id: <queryId>
] baru saja dijalankan oleh sesi yang bersamaan [runId yang ada: <existingQueryRunId>
runId baru: <newQueryRunId>
].
PENJADWAL_BERSAMAAN_SLOT_TIDAK_CUKUP
Jumlah minimum slot gratis yang diperlukan dalam kluster adalah <numTasks>
, namun, kluster hanya memiliki slot <numSlots>
gratis. Kueri akan terhenti atau gagal. Tingkatkan ukuran kluster untuk melanjutkan.
Konsistenkan_Log_Arus_Pembaruan
Pembaruan yang terjadi secara bersamaan pada log. Beberapa tugas streaming terdeteksi untuk <batchId>
.
Pastikan hanya satu pekerjaan streaming yang berjalan pada lokasi titik pemeriksaan tertentu pada satu waktu.
KONFIGURASI_TIDAK_TERSEDIA
Konfigurasi <config>
tidak tersedia.
KONFIGURASI_CLUSTER_BERTENTANGAN
Konfigurasi berikut bertentangan dengan spark.databricks.streaming.realTimeMode.enabled: <confNames>
. Hapus konfigurasi ini dari konfigurasi kluster Anda dan mulai ulang kluster Spark Anda.
STRUKTUR DIREKTORI YANG BERTENTANGAN
Struktur direktori yang bertentangan terdeteksi.
Jalur mencurigakan:
<discoveredBasePaths>
Jika jalur yang disediakan adalah direktori partisi, atur "basePath" dalam opsi sumber data untuk menentukan direktori akar tabel.
Jika ada beberapa direktori akar, muat secara terpisah lalu satukan.
Nama Kolom Partisi yang Bertentangan
Nama kolom partisi yang berkonflik terdeteksi:
<distinctPartColLists>
Untuk direktori tabel yang dipartisi, file data hanya boleh hidup di direktori daun.
Dan direktori pada tingkat yang sama harus memiliki nama kolom partisi yang sama.
Silakan periksa direktori berikut untuk file tak terduga atau nama kolom partisi yang tidak konsisten:
<suspiciousPaths>
NAMA_KOLOM_PARTISI_YANG_BERTENTANGAN_DENGAN_TERPELIHARA
Nama kolom partisi '<partitionColumnName>
' berkonflik dengan nama kolom yang dipesan.
Skema <tableName>
tidak kompatibel dengan Hive, Spark secara otomatis menghasilkan kolom khusus '<partitionColumnName>
' untuk menyimpan tabel dengan cara tertentu.
Silakan gunakan nama yang berbeda untuk kolom partisi.
Penyedia Bertentangan
Penyedia yang ditentukan <provider>
tidak konsisten dengan penyedia katalog yang ada <expectedProvider>
. Silakan gunakan 'USING <expectedProvider>
' dan coba lagi perintah .
KONFIGURASI_SQL_BERTENTANGAN
Konfigurasi berikut bertentangan dengan spark.databricks.streaming.realTimeMode.enabled: <confNames>
. Hapus konfigurasi ini dari konfigurasi SparkSession Anda.
SAMBUNG
Kesalahan Umum Spark Connect.
Untuk detail selengkapnya, lihat CONNECT
KONEKSI_SUDAH_ADA
Tidak dapat membuat koneksi <connectionName>
karena sudah ada.
Pilih nama lain, lepaskan atau ganti koneksi yang ada, atau tambahkan klausa IF NOT EXISTS
untuk mentolerir koneksi yang sudah ada sebelumnya.
NAMA_KONEKSI_TIDAK_BOLEH_KOSONG
Tidak dapat menjalankan perintah ini karena nama koneksi harus tidak kosong.
SAMBUNGAN_TIDAK_DITEMUKAN
Tidak dapat menjalankan perintah ini karena nama koneksi <connectionName>
tidak ditemukan.
Pilihan Koneksi Tidak Didukung
Koneksi jenis '<connectionType>
' tidak mendukung opsi berikut: <optionsNotSupported>
. Opsi yang didukung: <allowedOptions>
.
JENIS_KONEKSI_TIDAK_DIDUKUNG
Tidak dapat membuat koneksi tipe '<connectionType>
. Jenis koneksi yang didukung: <allowedTypes>
.
Migrasi_Sesi_Terkoneksi
Kesalahan Migrasi Sesi Generik (userId: <userId>
, sessionId: <sessionId>
, serverSessionId: <serverSessionId>
).
Untuk detail selengkapnya, lihat CONNECT_SESSION_MIGRATION
KENDALA_MEMBUTUHKAN_KATALOG_UNITY
Batasan tabel hanya didukung di Katalog Unity.
KONVERSI_MASUKAN_TIDAK_VALID
Nilai <str> (<fmt>
) tidak dapat dikonversi ke <targetType>
karena salah bentuk. Koreksi nilai sesuai sintaks, atau ubah formatnya. Gunakan <suggestion>
untuk mentolerir input yang salah bentuk dan mengembalikan NULL
sebagai gantinya.
SALIN_KE_KETIDAKCOCOKAN_ARITI_KOLOM
Tidak dapat menulis ke <tableName>
, alasannya adalah
Untuk informasi lebih lanjut, lihat COPY_INTO_COLUMN_ARITY_MISMATCH
SALIN_KE_TERAKREDITASI_TIDAK_DIIZINKAN
Skema tidak valid <scheme>
.
COPY INTO
kredensial sumber saat ini cuma mendukung s3/s3n/s3a/wasbs/abfss.
DUPLIKASI_MEMBUTUHKAN_KREDENSIAL
COPY INTO
kredensial sumber harus menentukan <keyList>
.
Penyalinan ke Berkas Tergandakan Tidak Diizinkan
File duplikat dimasukkan dalam operasi bersamaan COPY INTO
. Silakan coba lagi nanti.
PENYALINAN_KE_DALAM_PENGENKRIPSIAN_TIDAK_DIPERBOLEHKAN_ADA
Skema tidak valid <scheme>
.
COPY INTO
enkripsi sumber saat ini hanya mendukung s3/s3n/s3a/abfss.
PENYALINAN_KE_ENKRIPSI_TIDAK_DIDUKUNG_UNTUK_AZURE
enkripsi COPY INTO
hanya mendukung Skema file ADLS Gen2, atau abfss://
SALIN_KE_ENKRIPSI_DIBUTUHKAN
COPY INTO
enkripsi sumber harus menentukan '<key>
'.
Penyalinan ke enkripsi diperlukan dengan harapan
Opsi enkripsi tidak valid <requiredKey>
.
COPY INTO
enkripsi sumber harus menentukan '<requiredKey>
' = '<keyValue>
'.
FITUR_SALIN_TIDAK_KOMPATIBEL_DENGAN_PENGATURAN
Fitur COPY INTO
'<feature>
' tidak kompatibel dengan '<incompatibleSetting>
'.
Salin ke Sisipan Non-Buta Tidak Diizinkan
COPY INTO
selain menambahkan data tidak diizinkan untuk berjalan bersamaan dengan transaksi lain. Silakan coba lagi nanti.
KOPI_KE_ROCKSDB_BATAS_ULANGI_MAKSIMUM_TERLEWATI
COPY INTO
gagal memuat kondisinya, batas maksimum percobaan ulang terlampaui.
SALIN_KE_SKEMA_TIDAK_SESUAI_DENGAN_TABEL_TARGET
Ketidakcocokan skema terdeteksi saat menyalin ke tabel Delta (Tabel: <table>
).
Ini mungkin menunjukkan masalah dengan data masuk, atau skema tabel Delta dapat berevolusi secara otomatis sesuai dengan data masuk dengan mengatur:
COPY_OPTIONS
('mergeSchema' = 'benar')
Perbedaan skema:
<schemaDiff>
FORMAT_BERKAS_SUMBER_TIDAK_DIDUKUNG_UNTUK_SALINAN
Format file sumber harus salah satu CSV, JSON, AVRO, ORC, PARQUET
, TEXT, atau BINARYFILE
. Menggunakan COPY INTO
pada tabel Delta karena sumber tidak didukung karena data duplikat dapat diserap setelah operasi OPTIMIZE
. Pemeriksaan ini dapat dinonaktifkan dengan menjalankan perintah SQL set spark.databricks.delta.copyInto.formatCheck.enabled = false
.
PENYALINAN_KE_SKEMA_SUMBER_INFERENSI_GAGAL
Direktori sumber tidak berisi file jenis yang dapat diurai <format>
. Silakan periksa isi '<source>
'.
Kesalahan dapat didiamkan dengan mengatur '<config>
' ke 'false'.
KESALAHAN_INTERNAL_COPY_KE_STATUS
Terjadi kesalahan internal saat memproses status COPY INTO
.
Untuk informasi lebih lanjut, lihat COPY_INTO_STATE_INTERNAL_ERROR
Kesalahan Sintaks Salin Ke
Gagal mengurai perintah COPY INTO
.
Untuk informasi lebih lanjut, lihat COPY_INTO_SYNTAX_ERROR
SALIN_KE_FITUR_TIDAK_DIDUKUNG
Fitur COPY INTO
'<feature>
' tidak didukung.
Format Tipe Copy Unload Tidak Didukung
Tidak dapat memuat keluar data dalam format '<formatType>
'. Format yang didukung untuk <connectionType>
adalah: <allowedFormats>
.
FUNGSI_KATALOG_RUSAK
Tidak dapat mengonversi fungsi katalog '<identifier>
' menjadi fungsi SQL karena informasi fungsi yang rusak dalam katalog. Jika fungsi ini bukan fungsi SQL, pastikan nama kelas '<className>
' dapat dimuat.
SKEMA_ASING_BUATAN_BELUM_DIIMPLEMENTASIKAN_PATI
Perintah CREATE FOREIGN SCHEMA
belum diimplementasikan
BUAT_TABEL_ASING_BELUM_DIPERLUKAN
Perintah CREATE FOREIGN TABLE
belum diimplementasikan
PEMBUATAN_ATAU_PERBAHARUI_MV_TIDAK_DIDUKUNG
CREATE OR REFRESH MATERIALIZED VIEW
tidak didukung. Gunakan CREATE OR REPLACE MATERIALIZED VIEW
sebagai gantinya.
BUAT_DAN_SEGARKAN_MV_ST_ASINKRON
Tidak dapat CREATE
ATAU REFRESH
tampilan terwujud atau tabel streaming dengan ASYNC
yang ditentukan. Hapus ASYNC
dari pernyataan CREATE
ATAU REFRESH
atau gunakan REFRESH ASYNC
untuk me-refresh tampilan materialisasi atau tabel streaming yang ada secara asinkron.
BUAT_VUE_PERMANEN_TANPA_ALIAS
Tidak diizinkan untuk membuat tampilan permanen <name>
tanpa secara eksplisit menetapkan alias untuk ekspresi <attr>
.
DUKUNGAN_DUPLIKAT_KOLOM_TABEL_BUATAN
CREATE TABLE
kolom <columnName>
menentukan deskriptor "<optionName>
" lebih dari sekali, yang tidak valid.
BUAT_KETIDAKCOCOKAN_ARITAS_KOLOM_TAMPILAN
Tidak dapat membuat tampilan <viewName>
, alasannya adalah
Untuk informasi lebih lanjut, lihat CREATE_VIEW_COLUMN_ARITY_MISMATCH
KREDENSIAL_HILANG
Harap berikan kredensial saat membuat atau memperbarui lokasi eksternal.
Ketidakcocokan_Tujuan_Kredensial
Kredensial <credentialName>
memiliki tujuan <actualPurpose>
tetapi tujuan yang diberikan dalam perintah adalah <expectedPurpose>
.
PENGATURAN_SKEMA_CSV_TIDAK_DIDUKUNG
Opsi CSV enforceSchema
tidak dapat diatur saat menggunakan rescuedDataColumn
atau failOnUnknownFields
, karena kolom dibaca berdasarkan nama, bukan ordinal.
REFERENSI_FUNGSI_SIKLIS
Referensi fungsi siklus terdeteksi: <path>
.
DATABRICKS_DELTA_TIDAK_DIAKTIFKAN
Databricks Delta tidak diaktifkan di akun Anda.<hints>
Ketidakcocokan Tipe Data
Tidak dapat mengatasi <sqlExpr>
karena ketidakcocokan tipe data:
Untuk detail selengkapnya, lihat DATATYPE_MISMATCH
UKURAN_DATATIPE_HILANG
DataType <type>
memerlukan parameter panjang, misalnya <type>
(10). Tentukan panjangnya.
Data_Lineage_Secure_View_Daun_Nod_Tidak_Memiliki_Hubungan
Penulisan silsilah gagal: tidak ditemukan hubungan yang sesuai dengan kebijakan untuk CLM/RLS.
SUMBER_DATA_SUDAH_ADA
Sumber data '<provider>
' sudah ada. Pilih nama yang berbeda untuk sumber data baru.
KESALAHAN_SUMBER_DATA_EKSTERNAL
Terjadi kesalahan saat menyimpan ke sumber data eksternal.
SUMBER_DATA_TIDAK_ADA
Sumber data '<provider>
' tidak ditemukan. Pastikan sumber data terdaftar.
Sumber Data Tidak Ditemukan
Gagal menemukan sumber data: <provider>
. Pastikan nama penyedia sudah benar dan paket terdaftar dengan benar dan kompatibel dengan versi Spark Anda.
PILIHAN_SUMBER_DATA_MENGANDUNG_KARAKTER_TIDAK_VALID
Opsi <option>
tidak boleh kosong dan tidak boleh berisi karakter, string kueri, atau parameter yang tidak valid.
Opsi Sumber Data Diperlukan
Opsi <option>
diperlukan.
DATA_SOURCE_TABLE_SCHEMA_MISMATCH
Skema tabel sumber data tidak cocok dengan skema yang diharapkan. Jika Anda menggunakan API DataFrameReader.schema atau membuat tabel, hindari menentukan skema.
Skema Sumber Data: <dsSchema>
Skema yang diharapkan: <expectedSchema>
URL SUMBER DATA TIDAK DIIZINKAN
URL JDBC tidak diizinkan dalam opsi sumber data, tentukan opsi 'host', 'port', dan 'database'.
BIDANG_TANGGAL_JAM_DI_LUAR_BATAS
<rangeMessage>
.
Untuk detail selengkapnya, lihat DATETIME_FIELD_OUT_OF_BOUNDS
Kelebihan Waktu/Tanggal
Luapan operasi tanggalwaktu: <operation>
.
Kuota API DC Terlampaui
Anda telah melebihi kuota API untuk sumber data <sourceName>
.
Untuk detail selengkapnya, silakan lihat DC_API_QUOTA_EXCEEDED
Kesalahan Koneksi (DC_CONNECTION_ERROR)
Gagal membuat koneksi ke sumber <sourceName>
. Kode kesalahan: <errorCode>
.
Untuk detail selengkapnya, lihat DC_CONNECTION_ERROR
DC_DYNAMICS_API_ERROR
Kesalahan terjadi dalam panggilan Dynamics API, errorCode: <errorCode>
.
Untuk detail selengkapnya, lihat DC_DYNAMICS_API_ERROR
DC_NETSUITE_ERROR
Kesalahan terjadi dalam panggilan Netsuite JDBC, errorCode: <errorCode>
.
Untuk detail selengkapnya, lihat DC_NETSUITE_ERROR
`Error: DC_SCHEMA_CHANGE_ERROR`
SQLSTATE: tidak ada yang ditetapkan
Perubahan skema telah terjadi dalam tabel <tableName>
sumber <sourceName>
.
Untuk informasi lebih lanjut, lihat DC_SCHEMA_CHANGE_ERROR
DC_SERVICENOW_API_ERROR
Kesalahan terjadi dalam panggilan SERVICENow API, errorCode: <errorCode>
.
Untuk detail selengkapnya, lihat DC_SERVICENOW_API_ERROR
Pekerjaan Kuery Massal SFDC di DC Belum Selesai
Penyerapan untuk objek <objName>
tidak lengkap karena pekerjaan kueri Salesforce API memakan waktu terlalu lama, gagal, atau dibatalkan secara manual.
Untuk mencoba lagi, Anda dapat menjalankan kembali seluruh alur atau menyegarkan tabel tujuan tertentu ini. Jika kesalahan berlanjut, ajukan tiket. ID Pekerjaan: <jobId>
. Status pekerjaan: <jobStatus>
.
DC_SHAREPOINT_API_ERROR
Kesalahan terjadi dalam panggilan API Sharepoint, errorCode: <errorCode>
.
Untuk detail selengkapnya, lihat DC_SHAREPOINT_API_ERROR
Kesalahan Sumber DC_API (DC_SOURCE_API_ERROR)
Terjadi kesalahan dalam panggilan API <sourceName>
. Jenis API sumber: <apiType>
. Kode kesalahan: <errorCode>
.
Ini kadang-kadang dapat terjadi ketika Anda telah mencapai <sourceName>
batas API. Jika Anda belum melebihi batas API, coba jalankan kembali konektor. Jika masalah berlanjut, silakan ajukan tiket.
KESALAHAN_TIDAK_DIDUKUNG_DC
Kesalahan yang tidak didukung terjadi di sumber data <sourceName>
.
Untuk detail selengkapnya, lihat DC_UNSUPPORTED_ERROR
DC_WORKDAY_RAAS_API_ERROR
Kesalahan terjadi dalam panggilan API RAAS Workday, errorCode: <errorCode>
.
Untuk lebih jelasnya, lihat DC_WORKDAY_RAAS_API_ERROR
PRESISI_DESIMAL_MELEBIHI_PRESISI_MAKSIMUM
Presisi desimal <precision>
melebihi presisi maksimum <maxPrecision>
.
PANGKALAN_DATA_DEFAULT_TIDAK_ADA
Database default <defaultDatabase>
tidak ada, silakan buat terlebih dahulu atau ubah database default ke <defaultDatabase>
.
FILE_DEFAULT_TIDAK_DITEMUKAN
Ada kemungkinan file yang mendasar telah diperbarui. Anda dapat secara eksplisit membatalkan cache di Spark dengan menjalankan perintah 'REFRESH TABLE
tableName' di SQL atau dengan membuat ulang Himpunan Data/DataFrame yang terlibat. Jika cache disk basi atau file yang mendasar telah dihapus, Anda dapat membatalkan cache disk secara manual dengan memulai ulang kluster.
Penempatan Default Tidak Valid
Kata kunci DEFAULT
dalam perintah MERGE
, INSERT
, UPDATE
, atau SET VARIABLE
tidak dapat langsung ditetapkan ke kolom target karena merupakan bagian dari ekspresi.
Misalnya: UPDATE SET c1 = DEFAULT
diizinkan, tetapi UPDATE T SET c1 = DEFAULT + 1
tidak diizinkan.
DEFAULT_TIDAK_DIDUKUNG
Gagal menjalankan <statementType>
perintah karena DEFAULT
nilai tidak didukung untuk sumber data target dengan penyedia tabel: "<dataSource>
".
Jelaskan_JSON_Tidak_Diperpanjang
DESCRIBE TABLE
... AS JSON hanya didukung ketika [EXTENDED|FORMATTED
] ditentukan.
Misalnya: DESCRIBE EXTENDED <tableName>
AS JSON didukung tetapi DESCRIBE <tableName>
AS JSON tidak.
TABEL_DELTA_BERBEDA_YANG_DIBACA_OLEH_SUMBER_STREAMING
Kueri streaming dibaca dari tabel Delta yang tidak terduga (id = '<newTableId>
').
Dulu digunakan untuk membaca dari tabel Delta lain (id = '<oldTableId>
') menurut titik pemeriksaan.
Ini mungkin terjadi ketika Anda mengubah kode untuk membaca dari tabel baru atau Anda menghapus dan
membuat ulang tabel. Harap kembalikan perubahan Anda atau hapus titik pemeriksaan kueri streaming Anda
untuk memulai ulang dari awal.
DISTINCT_FUNGSI_JENDELA_TIDAK_DIDUKUNG
Fungsi jendela yang berbeda tidak didukung: <windowExpr>
.
BAGI_DENGAN_NOL
Pembagian dengan nol. Gunakan try_divide
untuk mentolerir pembagi yang bernilai 0 dan mengembalikan NULL
. Jika perlu, atur <config>
ke "false" untuk melewati kesalahan ini.
Untuk detail selengkapnya, lihat DIVIDE_BY_ZERO
EKSPETASI_DLT_TIDAK_DIDUKUNG
Ekspektasi hanya didukung dalam Alur Deklaratif Lakeflow.
DLT_LIHAT_CLUSTER_DENGAN_TIDAK_DIDUKUNG
MATERIALIZED
VIEWs dengan klausul CLUSTER BY
hanya didukung dalam Alur Deklaratif Lakeflow.
LOKASI_TAMPILAN_DLT_TIDAK_DIDUKUNG
lokasi tampilan materialisasi hanya didukung di Alur Deklaratif Lakeflow.
Skema Tampilan DLT dengan Tipe Tidak Didukung
skema tampilan materialisasi dengan jenis tertentu hanya didukung di Alur Deklaratif Lakeflow.
DLT_VIEW_TABLE_CONSTRAINTS_TIDAK_DIDUKUNG
CONSTRAINT
klausa dalam tampilan antarmuka hanya didukung di jalur pemrosesan data deklaratif Lakeflow.
JADWAL_PENGHAPUSAN_TIDAK_ADA
Tidak dapat menghapus SCHEDULE
pada tabel tanpa jadwal atau pemicu yang telah ada.
NAMA_CTE_DUPLIKAT
Definisi CTE tidak dapat memiliki nama duplikat: <duplicateNames>
.
DUPLIKASI_NAMA_BIDANG_DALAM_STRUKTUR_ARROW
Nama bidang yang duplikat dalam Arrow Struct tidak diizinkan, terdeteksi <fieldNames>
.
KUNCI_PETA_DIGANDAKAN
Kunci duplikat pada peta <key>
ditemukan, mohon periksa data masukan.
Jika Anda ingin menghapus kunci duplikat, Anda dapat mengatur <mapKeyDedupPolicy>
ke "LAST_WIN
" sehingga kunci yang dimasukkan pada akhirnya lebih diutamakan.
Nama Metrik Duplikat
Nama metrik tidak unik: <metricName>
. Nama yang sama tidak dapat digunakan untuk metrik dengan hasil yang berbeda.
Namun, beberapa instans metrik dengan hasil dan nama yang sama diperbolehkan (misalnya, penggabungan mandiri).
PENUGASAN_DUPLIKAT
Kolom atau variabel <nameList>
muncul lebih dari sekali sebagai target penugasan.
KLAUSUL_DUPLIKAT
Ditemukan klausa duplikat: <clauseName>
. Tolong, hapus salah satunya.
Kondisi Duplikat dalam Lingkup
Ditemukan kondisi <condition>
duplikat dalam ruang lingkup. Tolong, hapus salah satunya.
DUPLICATE_EXCEPTION_HANDLER
Ditemukan pengendali ganda. Tolong, hapus salah satunya.
Untuk detail selengkapnya, lihat DUPLICATE_EXCEPTION_HANDLER
KUNCI_DUPLIKAT
Ditemukan kunci duplikat <keyColumn>
.
DUPLIKASI_PENUGASAN_PARAMETER_RUTIN
Panggilan ke rutin <routineName>
tidak valid karena menyertakan beberapa penetapan argumen ke nama parameter yang sama <parameterName>
.
Untuk informasi lebih lanjut, lihat DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
NAMA_PARAMETER_RUTIN_DUPLIKAT
Ditemukan nama duplikat dalam daftar parameter rutinitas yang ditentukan pengguna <routineName>
: <names>
.
DUPLIKASI_RUTIN_MENGEMBALIKAN_KOLOM
Ditemukan kolom duplikat dalam daftar kolom klausa RETURNS
dari rutin yang ditentukan pengguna <routineName>
: <columns>
.
MENGELUARKAN_BARIS_YANG_LEBIH_LAMA_DARI_TANDA_AIR_TIDAK_DIPERBOLEHKAN
Simpul sebelumnya mengeluarkan baris dengan eventTime=<emittedRowEventTime>
yang lebih lama dari current_watermark_value=<currentWatermark>
Ini dapat menyebabkan masalah akurasi pada operator stateful di bagian hilir dalam pipeline eksekusi.
Silakan koreksi logika pengoperasian untuk mengeluarkan baris setelah nilai penanda batas air global saat ini.
NILAI_KOSONG_PADAILAP_JSON
Gagal mengurai string kosong untuk jenis data <dataType>
.
FILE_LOKAL_KOSONG_DALAM_ AKSES_PENCARIAN_PENTAS
Mengosongkan file lokal dalam pemanggungan kueri <operation>
SKEMA_KOSONG_TIDAK_DIDUKUNG_UNTUK_SUMBER_DATA
Sumber data <format>
tidak mendukung penulisan skema kosong atau berlapis kosong. Pastikan skema data memiliki setidaknya satu atau beberapa kolom.
ENCODER_TIDAK_DITEMUKAN
Tidak ditemukan encoder jenis <typeName>
ke representasi internal Spark SQL.
Pertimbangkan untuk mengubah jenis input menjadi salah satu jenis yang didukung di '<docroot>
/sql-ref-datatypes.html'.
AKHIR_LABEL_TANPA_AWAL_LABEL
Label akhir <endLabel>
tidak dapat ada tanpa label mulai.
END_OFFSET_MEMILIKI_OFFSET_LEBIH_BESAR_UNTUK_PARTISI_TOPIK_DARIPADA_TERBARU_DENGAN_TRIGGER_AVAILABLENOW
Beberapa partisi dalam topik Kafka melaporkan offset yang tersedia kurang dari end offset selama menjalankan kueri dengan Trigger.AvailableNow. Kesalahan bisa bersifat sementara - mulai ulang kueri Anda, dan laporkan jika Anda masih melihat masalah yang sama.
offset terbaru: <latestOffset>
, offset akhir: <endOffset>
OFFSET_AKHIR_MEMILIKI_OFFSET_YANG_LEBIH_BESAR_UNTUK_PARTISI_TOPIK_DARI_PADA_YANG_DIPRAKIRAKAN
Untuk sumber data Kafka dengan Trigger.AvailableNow, offset akhir harus memiliki offset yang lebih rendah atau sama untuk setiap topik partisi daripada offset yang diambil terlebih dahulu. Kesalahan bisa bersifat sementara - mulai ulang kueri Anda, dan laporkan jika Anda masih melihat masalah yang sama.
offset yang diambil sebelumnya: <prefetchedOffset>
, offset akhir: <endOffset>
.
KESALAHAN_MEMBACA_AVRO_SIDIK_JARI_TIDAK_DIKENAL
Kesalahan saat membaca data avro -- mengalami sidik jari yang tidak diketahui: <fingerprint>
, tidak yakin skema apa yang akan digunakan.
Ini bisa terjadi jika Anda mendaftarkan skema tambahan setelah memulai konteks spark Anda.
CATATAN_ACARA_KOSONG
Log peristiwa untuk <tableOrPipeline>
tidak memiliki skema dan tidak berisi peristiwa. Coba lagi nanti setelah acara dihasilkan
CATATAN_ACARA_MEMERLUKAN_KOMPUTASI_BERSAMA
Tidak dapat mendapatkan log peristiwa dari kluster Bersama yang Ditetapkan atau Tanpa Isolasi, silakan gunakan kluster Bersama atau gudang Databricks SQL sebagai gantinya.
LOG_ACARA_TVF_TIDAK_DIDUKUNG_UNTUK_PIPELINE
Fungsi EVENT_LOG
Table-Valued tidak didukung untuk alur kerja yang menggunakan bidang 'skema' atau alur kerja yang dipublikasikan ke penyimpanan default.
Untuk mengkueri log peristiwa, terbitkan ke metastore dengan menentukan bidang event_log di pengaturan alur.
Untuk informasi selengkapnya, lihat dokumentasi Alur Deklaratif Monitor Lakeflow: https://docs.databricks.com/aws/en/delta-live-tables/observability.
LOG_ACARA_TIDAK_TERSEDIA
Tidak ada log peristiwa yang tersedia untuk <tableOrPipeline>
. Silakan coba lagi nanti setelah event selesai dibuat
CATATAN_ACARA_JENIS_TABEL_TIDAK_DIDUKUNG
Jenis tabel <tableIdentifier>
adalah <tableType>
.
Mengkueri log peristiwa hanya mendukung tampilan materialisasi, tabel streaming, atau Alur Deklaratif Lakeflow.
WAKTU_ACARA_TIDAK_PADA_JENIS_TIMESTAMP
Waktu <eventName>
peristiwa memiliki jenis <eventType>
yang tidak valid, tetapi diharapkan "TIMESTAMP
".
BATAS_PANJANG_MELEBIHI
Melebihi batasan panjang jenis char/varchar: <limit>
.
KESALAHAN_KOLOM_SARANG_TIPE_TIDAK_VALID
EXCEPT
kolom <columnName>
telah diidentifikasi dan seharusnya adalah StructType, tetapi ditemukan <dataType>
.
KECUALI_KOLOM_BERIMPIT
Kolom dalam daftar EXCEPT
harus berbeda dan tidak tumpang tindih, tetapi mendapatkan (<columns>
).
KECUALI_KOLOM_TERPECAHKAN_TANPA_KECOCOKAN
EXCEPT
kolom [<exceptColumns>
] diselesaikan, tetapi tidak cocok dengan salah satu kolom [<expandedColumns>
] dari ekspansi bintang.
KECUALI_KOLOM_TIDAK_TERSELESAIKAN_DALAM_PERLUASAN_STRUKTUR
Nama kolom/bidang <objectName>
dalam klausa EXCEPT
tidak dapat diselesaikan. Apakah Anda maksud salah satu dari yang berikut ini: [<objectList>
]?
Catatan: kolom bersarang dalam klausul EXCEPT
tidak boleh menyertakan penentu (nama tabel, nama kolom struct induk, dll.) selama ekspansi struct; coba hapus penentu jika digunakan dengan kolom bersarang.
Pelaksana_Siarkan_Gabung_OOM
Tidak ada cukup memori untuk membangun relasi broadcast <relationClassName>
. Ukuran Relasi = <relationSize>
. Total memori yang digunakan oleh tugas ini = <taskMemoryUsage>
. Metrik Pengelola Memori Eksekutor: onHeapExecutionMemoryUsed = <onHeapExecutionMemoryUsed>
, offHeapExecutionMemoryUsed = <offHeapExecutionMemoryUsed>
, onHeapStorageMemoryUsed = <onHeapStorageMemoryUsed>
, offHeapStorageMemoryUsed = <offHeapStorageMemoryUsed>
. [sparkPlanId: <sparkPlanId>
] Nonaktifkan siaran untuk kueri ini menggunakan 'set spark.sql.autoBroadcastJoinThreshold=-1' atau gunakan petunjuk gabungan untuk memaksa gabungan acak.
PENYIMPANAN_JOIN_SIARAN_EKSEKUTOR_MELEBIHI_MEMORI
Tidak ada cukup memori untuk menyimpan relasi siaran <relationClassName>
. Ukuran Relasi = <relationSize>
. TingkatPenyimpanan = <storageLevel>
. [sparkPlanId: <sparkPlanId>
] Nonaktifkan siaran untuk kueri ini menggunakan 'set spark.sql.autoBroadcastJoinThreshold=-1' atau gunakan petunjuk gabungan untuk memaksa gabungan acak.
EKSEKUSI_LANGSUNG_DUPLIKAT_ALIAS_ARGUMEN
Klausa USING
perintah EXECUTE IMMEDIATE
ini berisi beberapa argumen dengan alias yang sama (<aliases>
), yang tidak valid; harap perbarui perintah untuk menentukan alias unik lalu coba lagi.
Harapkan_Tabel_Permanen_Bukan_Temp
'<operation>
' mengharapkan tabel permanen tetapi <tableName>
merupakan tabel sementara. Tentukan tabel permanen sebagai gantinya.
HARAP_TAMPILAN_PERMANEN_BUKAN_SEMENTARA
'<operation>
' mengharapkan tampilan permanen tetapi <viewName>
merupakan tampilan sementara.
HARAP_TIDAK_SEBAGAI_TAMPILAN
'<operation>
' mengharapkan tabel tetapi <viewName>
merupakan tampilan.
Untuk detail selengkapnya, lihat EXPECT_TABLE_NOT_VIEW
HARAPKAN_TAMPILAN_BUKAN_TABEL
Tabel <tableName>
tidak mendukung <operation>
.
Untuk informasi lebih lanjut, lihat EXPECT_VIEW_NOT_TABLE
PEMBERIAN ARTI EKSPRESI GAGAL
Gagal mendekode baris ke nilai ekspresi: <expressions>
.
Ekspresi_Pengkodingan_Gagal
Gagal mengodekan nilai ekspresi: <expressions>
ke baris.
JENIS_EKSPRESI_TIDAK_DAPAT_DIURUTKAN
Ekspresi kolom <expr>
tidak dapat diurutkan karena jenisnya <exprType>
tidak dapat diurutkan.
KLONING_SEMENTARA_EKSTERNAL_MASIH_ADA
Gagal menjalankan operasi pada tabel <sourceTable>
sumber karena kloning <targetTable>
dangkal masih ada dan statusnya tidak valid. Jika Anda memang ingin melanjutkan operasi ini, silakan bersihkan kloning dangkal dengan menjalankan perintah DROP
secara eksplisit.
SKEMA_TABEL_EKSTERNAL_TIDAK_VALID
Tabel eksternal tidak mendukung <scheme>
skema.
FABRIC_REFRESH_CAKUPAN_TIDAK_VALID
Kesalahan menjalankan 'REFRESH FOREIGN <scope> <name>
'. Tidak dapat memperbarui Fabric <scope>
secara langsung, silakan gunakan 'REFRESH FOREIGN CATALOG <catalogName>
' untuk memperbarui Katalog Fabric sebagai penggantinya.
GAGAL_MENJALANKAN_UDF
Fungsi yang ditentukan pengguna (<functionName>
: (<signature>
) =>
<result>
) gagal karena: <reason>
.
PANGGILAN_FUNGSI_GAGAL
Gagal menyiapkan fungsi <funcName>
untuk panggilan. Silakan, periksa kembali argumen fungsi.
FAILED_JDBC
Operasi JDBC <url>
gagal.
Untuk detail selengkapnya, lihat FAILED_JDBC
GAGAL_PARSE_TIPE_STRUKTUR
Gagal menguraikan struktur: <raw>
.
GAGAL_MEMBACA_FILE
Kesalahan saat membaca file <path>
.
Untuk detail selengkapnya, lihat FAILED_READ_FILE
GAGAL_MENDAFTARKAN_KELAS_DENGAN_KRYO
Gagal mendaftar kelas dengan Kryo.
GAGAL_MENGUBAH_NAMA_JALUR
Gagal mengganti nama <sourcePath>
menjadi <targetPath>
karena tujuan sudah ada.
GAGAL_MENGUBAH_NAMA_FILE_SEMENTARA
Gagal mengganti nama file sementara <srcPath>
menjadi <dstPath>
karena FileSystem.rename mengembalikan nilai salah.
BARIS_GAGAL_KE_JSON
Gagal mengonversi nilai baris <value>
kelas <class>
ke jenis SQL target <sqlType>
dalam format JSON.
GAGAL_MEMUAT_RUTIN
Gagal memuat rutin <routineName>
.
GAGAL_MENGURAI_TERLALU_KOMPLEKS
Pernyataan, termasuk fungsi SQL potensial dan tampilan yang dirujuk, terlalu kompleks untuk diurai.
Untuk mengurangi kesalahan ini, bagi pernyataan menjadi beberapa gugus yang kurang kompleks.
FITUR_TIDAK_DIAKTIFKAN
Fitur <featureName>
tidak diaktifkan. Pertimbangkan untuk mengatur konfigurasi <configKey>
ke <configValue>
untuk mengaktifkan kemampuan ini.
FITUR_TIDAK_ADA_DI_GUDANG_KLASIK
<feature>
tidak didukung di gudang SQL Klasik. Untuk menggunakan fitur ini, gunakan gudang SQL Pro atau Tanpa Server.
FITUR_MEMBUTUHKAN_UC
<feature>
tidak didukung tanpa Katalog Unity. Untuk menggunakan fitur ini, aktifkan Katalog Unity.
FITUR_TIDAK TERSEDIA
<feature>
tidak didukung di lingkungan Anda. Untuk menggunakan fitur ini, silakan hubungi Dukungan Databricks.
Bidang_sudah_ada
Tidak dapat membuat kolom <op>
, karena <fieldNames>
sudah ada di dalam <struct>
.
FIELD_TIDAK_DITEMUKAN
Tidak ada bidang struktur seperti <fieldName>
di <fields>
.
FILE DI JALUR STAGING SUDAH ADA
File di jalur sementara <path>
sudah ada tetapi OVERWRITE
belum disetel
Kesalahan Fungsi Pengguna FLATMAPGROUPSWITHSTATE
Kesalahan terjadi pada fungsi yang disediakan pengguna di flatMapGroupsWithState. Alasan: <reason>
DATASOURCE_TERLARANG_DALAM_SERVERLESS
Mengkueri sumber data <source>
dalam komputasi tanpa server tidak diperbolehkan. Hanya sumber data tipe <allowlist>
yang didukung dalam komputasi serverless.
OPERASI_DILARANG
Operasi <statement>
tidak diizinkan pada <objectType>
: <objectName>
.
KESALAHAN_FUNGSI_PENGGUNA_BATCH_FOREACH
Terjadi kesalahan pada fungsi yang disediakan oleh pengguna dalam foreach batch sink. Alasan: <reason>
KESALAHAN_FUNGSI_PENGGUNA_FOREACH
Terjadi kesalahan pada fungsi yang disediakan pengguna di sink foreach. Alasan: <reason>
KETIDAKCOCOKAN_KUNCI_ASING
Kolom induk kunci asing <parentColumns>
tidak cocok dengan kolom anak kunci utama <childColumns>
.
NAMA_OBJEK_ASING_TIDAK_BOLEH_KOSONG
Tidak dapat menjalankan perintah ini karena nama <objectType>
asing tidak boleh kosong.
FOREIGN_TABLE_CONVERSION_UNSUPPORTED (Konversi Tabel Asing Tidak Didukung)
Tabel tidak memenuhi syarat untuk peningkatan dari UC Asing ke UC Eksternal. Alasan:
Untuk informasi lebih lanjut, lihat FOREIGN_TABLE_CONVERSION_UNSUPPORTED
DITEMUKAN_BEBERAPA_SUMBER_DATA
Mendeteksi beberapa sumber data dengan nama '<provider>
'. Silakan periksa bahwa sumber data tidak terdaftar dan tidak terletak secara bersamaan di classpath.
DARI_JSON_PEMBARUAN_SKEMA_BERTENTANGAN
inferensi from_json mengalami pembaruan skema yang bertentangan di: <location>
DARI_JSON_KOLOM_CATATAN_RUSAK_DALAM_SKEMA
from_json menemukan columnNameOfCorruptRecord (<columnNameOfCorruptRecord>
) sudah ada
dalam objek JSON dan tidak dapat lagi melanjutkan. Harap konfigurasikan nilai yang berbeda untuk
opsi 'columnNameOfCorruptRecord'.
FROM_JSON_CORRUPT_SCHEMA
inferensi from_json tidak dapat membaca skema yang disimpan di: <location>
KESALAHAN_INFERENSI_DARI_JSON
from_json tidak dapat menyimpulkan skema. Tolong berikan satu sebagai gantinya.
INFERENSI_DARI_JSON_TIDAK_DIDUKUNG
inferensi from_json hanya didukung saat menentukan tabel streaming
DARI_JSON_KONFIGURASI_TIDAK_VALID
Konfigurasi from_json tidak valid.
Untuk informasi lebih lanjut, lihat FROM_JSON_INVALID_CONFIGURATION
DARI_JSON_SKEMA_EVOLUSI_GAGAL
from_json tidak dapat berkembang dari <old>
ke <new>
PARAMETER_FUNGSI_HARUS_DIPERIKSA_NAMA
Fungsi <function>
memerlukan parameter bernama. Nama parameter yang hilang: <exprs>
. Harap perbarui panggilan fungsi untuk menambahkan nama untuk semua parameter, misalnya, <function>
(param_name => ...).
KOLOM_TERGENERASI_DENGAN_NILAI_DEFAULT
Kolom tidak dapat memiliki nilai default dan ekspresi pembuatan tetapi kolom <colName>
memiliki nilai default: (<defaultValue>
) dan ekspresi pembuatan: (<genExpr>
).
TIDAK_DIDUKUNG_VERSI_HIVE_GET_TABEL_MENURUT_TIPE
Apache Hive 2.2 dan versi yang lebih rendah tidak mendukung getTablesByType. Silakan gunakan Apache Hive 2.3 atau versi yang lebih tinggi.
GAGAL_MENDAPATKAN_PELACAKAN_PEMANASAN
Gagal mendapatkan jejak pemanasan. Penyebab: <cause>
.
FUNGSI_PEMANASAN_TRACING_TIDAK_DIPERBOLEHKAN
Fungsi get_warmup_tracing() tidak diizinkan.
GRAPHITE_SINK_PROTOCOL_TIDAK_VALID
Protokol Graphite tidak valid: <protocol>
.
PROPERTI_GRAFIT_SINK_HILANG
Wastafel grafit membutuhkan properti '<property>
'.
KETIDAKCOCOKAN_KOLOM_PENGELOMPOKAN
Kolom pengelompokan (<grouping>
) tidak dapat ditemukan di kolom pengelompokan <groupingColumns>
.
Ketidakcocokan_Kolom_ID_Pengelompokan
Kolom grouping_id (<groupingIdColumn>
) tidak cocok dengan kolom pengelompokan (<groupByColumns>
).
BATAS_UKURAN_KELOMPOK_TERLEWATI
Ukuran pengelompokan set tidak boleh lebih besar dari <maxSize>
.
GROUP_BY_AGGREGATE
Fungsi agregat tidak diizinkan dalam GROUP BY
, tetapi ditemukan <sqlExpr>
.
Untuk detail selengkapnya, lihat GROUP_BY_AGGREGATE
Kelompokkan_Berdasarkan_Pos_Aggregat
GROUP BY <index>
mengacu pada ekspresi <aggExpr>
yang berisi fungsi agregat. Fungsi agregat tidak diperbolehkan dalam GROUP BY
.
KELOMPOK_BERDASARKAN_POS_DILUAR_RENTANG
GROUP BY
posisi <index>
tidak ada dalam daftar pilih (rentang yang valid adalah [1, <size>
]).
JENIS_EKSPRESI_GRUP_TIDAK_DAPAT_DIPESAN
Ekspresi <sqlExpr>
tidak dapat digunakan sebagai ekspresi pengelompokan karena jenis datanya <dataType>
bukan tipe data yang dapat diurutkan.
HDFS_HTTP_ERROR
Saat mencoba membaca dari HDFS, permintaan HTTP gagal.
Untuk detail selengkapnya, lihat HDFS_HTTP_ERROR
HINT_TIDAK_DIDUKUNG_UNTUK_DIALECT_JDBC
Opsi hint
ini tidak didukung untuk <jdbcDialect>
di sumber data JDBC. Dialek yang didukung adalah MySQLDialect
, OracleDialect
dan DatabricksDialect
.
HIVE_METASTORE_JALUR_PLACEHOLDER_TIDAK_VALID
Kueri atau perintah gagal dijalankan karena konfigurasi 'spark.databricks.hive.metastore.tablePlaceholderPath' menyediakan jalur tempat penampung tabel Apache Hive Metastore yang tidak valid. Harap perbarui konfigurasi ini dengan nilai baru untuk menyediakan jalur yang valid lalu jalankan kembali kueri atau perintah lagi.
HIVE_METASTORE_TABLE_PLACEHOLDER_PATH_NOT_SET (Jalur placeholder tabel metastore hive belum diatur)
Kueri atau perintah gagal karena jalur tempat penampung tabel Apache Hive Metastore tidak diatur, yang diperlukan saat lokasi skema berada di DBFS, dan lokasi tabel adalah objek/file. Atur spark.databricks.hive.metastore.tablePlaceholderPath ke jalur yang dapat Anda akses lalu jalankan kembali kueri atau perintah lagi.
HLL_INPUT_SKETSA_TIDAK_VALID
Panggilan ke <function>
tidak valid; hanya buffer sketsa HLL yang valid yang didukung sebagai input (seperti yang dihasilkan oleh fungsi hll_sketch_agg
).
HLL_INVALID_LG_K
Panggilan ke <function>
tidak valid; nilai lgConfigK
harus antara <min>
dan <max>
, inklusif: <value>
.
HLL_UNION_DIFFERENT_LG_K
Sketsa memiliki nilai lgConfigK
yang berbeda: <left>
dan <right>
. Atur parameter allowDifferentLgConfigK
ke true untuk memanggil <function>
dengan nilai lgConfigK
yang berbeda.
Klon Dangkal HMS_FEDERATION Tidak Ditemukan di UC
Jalur kloning dangkal '<path>
' tidak dapat dipecahkan menjadi tabel di Katalog Unity. Pastikan tabel ada dan digabungkan ke Katalog Unity.
PENGECUALIAN_ANALIS_GABUNGAN
Kesalahan terjadi saat mencoba menyelesaikan kueri atau perintah dengan penganalisis titik tetap tradisional serta pemecah satu langkah.
Untuk informasi lebih lanjut, lihat HYBRID_ANALYZER_EXCEPTION
IDENTIFIER_TERLALU_BANYAK_BAGIAN_NAMA
<identifier>
bukan pengidentifikasi yang valid karena memiliki lebih dari 2 bagian nama.
KOLOM_IDENTITAS_TERDUPLIKASI_PENGHASIL_SEKUENSI_OPSI
Opsi generator urutan kolom duplikat IDENTITY
: <sequenceGeneratorOption>
.
LANGKAH_TIDAK_SAH_KOLOM_IDENTITAS
IDENTITY
langkah kolom tidak boleh bernilai 0.
KOLOM_IDENTITAS_TIPE_DATA_TIDAK_DIDUKUNG
DataType <dataType>
tidak didukung untuk kolom IDENTITY
.
HARI_TIDAK_SAH
Input tidak sah untuk hari dalam seminggu: <string>
.
NILAI_PENYIMPANAN_KEADAAN_TIDAK_SAHAH
Nilai ilegal yang diberikan ke Toko Status
Untuk informasi lebih lanjut, lihat ILLEGAL_STATE_STORE_VALUE
Skema URI Tidak Sesuai dari Opsi Koneksi
Koneksi tidak dapat dibuat karena skema URI <uri>
yang tidak pantas yang disediakan untuk opsi koneksi '<option>
'.
Skema yang diizinkan: <allowedSchemes>
.
Tambahkan skema jika tidak ada di URI, atau tentukan skema dari nilai yang diizinkan.
KOLOM_POROS_TIDAK_TERBANDINGKAN
Kolom pivot tidak valid <columnName>
. Kolom pivot harus dapat diperbandingkan.
Jenis Kolom Tidak Sesuai
<operator>
hanya dapat dilakukan pada tabel dengan jenis kolom yang kompatibel. Kolom <columnOrdinalNumber>
dari tabel <tableOrdinalNumber>
adalah tipe <dataType1>
yang tidak kompatibel dengan <dataType2>
pada kolom yang sama dari tabel pertama.<hint>
.
REGISTER SUMBER DATA YANG TIDAK KOMPATIBEL
Mendeteksi DataSourceRegister yang tidak kompatibel. Silakan hapus pustaka yang tidak kompatibel dari classpath atau tingkatkan pustaka tersebut. Kesalahan: <message>
DATA_TIDAK_KOMPATIBEL_UNTUK_TABEL
Tidak dapat menulis data yang tidak kompatibel untuk tabel <tableName>
:
Untuk informasi lebih lanjut, lihat INCOMPATIBLE_DATA_FOR_TABLE
TIPE_JOIN_TIDAK_KOMPATIBEL
Jenis gabungan <joinType1>
dan <joinType2>
tidak kompatibel.
PERUBAHAN_SKEMA_TAMPILAN_TIDAK_KOMPATIBEL
Kueri tampilan SQL <viewName>
mengalami perubahan skema yang tidak kompatibel dan kolom <colName>
tidak dapat diselesaikan. Kolom <expectedNum>
yang diharapkan memiliki nama <colName>
tetapi mendapatkan <actualCols>
.
Silakan coba buat ulang tampilan dengan menjalankan: <suggestion>
.
Definisi Tipe Tidak Lengkap
Jenis kompleks yang tidak lengkap:
Untuk detail selengkapnya, lihat INCOMPLETE_TYPE_DEFINITION
PERILAKU_TIDAK_KONSISTEN_VERSI_SILANG
Anda mungkin mendapatkan hasil yang berbeda karena pembaruan ke
Untuk informasi lebih lanjut, lihat INCONSISTENT_BEHAVIOR_CROSS_VERSION
JUMLAH_ARGUMEN_TIDAK_BENAR
<failure>
, <functionName>
memerlukan setidaknya argumen <minArgs>
dan paling banyak argumen <maxArgs>
.
Tingkat Peningkatan yang Salah
Offset maksimum dengan <rowsPerSecond>
rowsPerSecond adalah <maxSeconds>
, namun 'rampUpTimeSeconds' adalah <rampUpTimeSeconds>
.
KOLOASI TAK TERDEFINISI
Tidak dapat menentukan kolatasi mana yang akan digunakan untuk operasi string. Gunakan klausa COLLATE
untuk mengatur kolase secara eksplisit.
KOLEKSI_TIDAK_TENTU_DALAM_EKSPRESI
Jenis data <expr>
memiliki kolaterasi yang tidak ditentukan. Gunakan klausa COLLATE
untuk mengatur kolase secara eksplisit.
KOLEKSI_INDETERMINASI_DALAM_SKEMA
Skema mengandung pengurutan yang tidak ditentukan di: [<columnPaths>
]. Gunakan klausa COLLATE
untuk mengatur kolase secara eksplisit.
INDEKS_SUDAH_ADA
Tidak dapat membuat indeks <indexName>
pada tabel <tableName>
karena sudah ada.
INDEX_NOT_FOUND (Indeks Tidak Ditemukan)
Tidak dapat menemukan indeks <indexName>
pada tabel <tableName>
.
Pemicu Penyiaran Tak Berujung Tidak Didukung
Jenis pemicu <trigger>
tidak didukung untuk jenis kluster ini.
Gunakan jenis pemicu yang berbeda misalnya AvailableNow, Once.
INSERT_COLUMN_ARITY_MISMATCH
Tidak dapat menulis ke <tableName>
, alasannya adalah
Untuk informasi lebih lanjut, lihat INSERT_COLUMN_ARITY_MISMATCH
No changes are needed if this is a direct system-generated code that must be presented as is for functionality or compatibility reasons. If it was not a strict technical term and needed comprehensibility, possible translation might include: "KESALAHAN_KEBERAGAMAN_KOLOM_PARTISI" (if it's flexible to add translations for user clarity).
Tidak dapat menulis ke '<tableName>
', <reason>
:
Kolom tabel: <tableColumns>
.
Kolom partisi dengan nilai statis: <staticPartCols>
.
Kolom data: <dataColumns>
.
MENYISIPKAN_MENGGANTI_MENGGUNAKAN_SET_KOLOM_TIDAK_VALID
Tabel harus dipartisi dan semua kolom yang ditentukan harus mewakili kumpulan lengkap kolom partisi tabel.
Kolom berikut bukan kolom partisi: <nonPartitionColumns>
Kolom partisi berikut hilang: <missingPartitionsColumns>
Penyisipan/Penggantian Menggunakan Tidak Diaktifkan
Silakan hubungi perwakilan Databricks Anda untuk mengaktifkan INSERT INTO
fitur ... REPLACE USING
(...).
IZIN_TIDAK_MEMADAI
Hak istimewa tidak memadai:
<report>
Izin_Tidak_Memadai_EXT_LOC
Pengguna <user>
memiliki hak istimewa yang tidak memadai untuk lokasi eksternal <location>
.
PERIZINAN_TIDAK_MEMADAI_TIDAK_ADA_PEMILIK
Tidak ada pemilik untuk <securableName>
. Minta administrator Anda untuk menetapkan pemilik.
TIDAK_CUKUP_IZIN_KEPEMILIKAN_TERJAMIN
Pengguna tidak memiliki <securableName>
.
IZIN_TIDAK_MEMADAI_BISA_DIAMANKAN
Pengguna tidak memiliki izin <action>
pada <securableName>
.
IZIN_TIDAK_MEMADAI_PEMILIK_INDUK_DAPAT_DIAMANKAN
Pemilik <securableName>
berbeda dari pemilik <parentSecurableName>
.
Izin Tidak Cukup_Spark_Connect_Client_Set_Cloudfetch_Retention_Timeout
Klien tidak memiliki izin untuk mengatur batas waktu retensi kustom untuk hasil CloudFetch.
Izin Penyimpanan Tidak Memadai
Kredensial penyimpanan <credentialName>
memiliki hak istimewa yang tidak memadai.
PERIZINAN_TIDAK_MEMADAI_UNDERLYING_SECURABLES
Pengguna tidak dapat <action>
pada <securableName>
karena izin pada objek keamanan.
Izin_Tidak_Memadai_Pada_Keamanan_Dasar_Verbose
Pengguna tidak dapat <action>
pada <securableName>
karena izin pada elemen keamanan yang mendasar:
<underlyingReport>
KESALAHAN_ARITMATIKA_INTERVAL
Kelebihan kapasitas bilangan bulat saat beroperasi dengan interval.
Untuk detail lebih lanjut, lihat INTERVAL_ARITHMETIC_OVERFLOW
INTERVAL_DIVIDED_BY_ZERO
Pembagian dengan nol. Gunakan try_divide
untuk mentolerir pembagi yang bernilai 0 dan mengembalikan NULL
.
INVALID_AGGREGATE_FILTER
Ekspresi FILTER
<filterExpr>
dalam fungsi agregat tidak valid.
Untuk informasi lebih lanjut, lihat INVALID_AGGREGATE_FILTER
PENDEKODER_AGNOSTIK_TIDAK_VALID
Menemukan encoder agnostik yang tidak valid. Mengharapkan instans AgnosticEncoder tetapi mendapatkan <encoderType>
. Untuk informasi selengkapnya, lihat '<docroot>
/api/java/index.html?org/apache/spark/sql/Encoder.html'.
NILAI_ALGORITMA_TIDAK_VALID
Nilai <alg>
algoritma interpolasi tepi tidak valid atau tidak didukung .
INDEKS_ARRAY_TIDAK_VALID
Indeks <indexValue>
berada di luar batas. Array memiliki elemen <arraySize>
. Gunakan fungsi SQL get()
untuk mentolerir akses elemen pada indeks yang tidak valid dan mengembalikan NULL
sebagai gantinya.
Untuk detail selengkapnya, lihat INVALID_ARRAY_INDEX
INDEKS_ARRAY_TIDAK_VALID_DALAM_ELEMEN_DI
Indeks <indexValue>
berada di luar batas. Array memiliki elemen <arraySize>
. Gunakan try_element_at
untuk mentolerir akses elemen pada indeks yang tidak valid dan mengembalikan NULL
sebagai gantinya.
Untuk detail selengkapnya, lihat INVALID_ARRAY_INDEX_IN_ELEMENT_AT
Kata_Atribut_Tidak_Sah_Sintaks
Kesalahan sintaks dalam nama atribut: <name>
. Pastikan bahwa backtick muncul berpasangan, string yang dikutip harus merupakan bagian nama yang lengkap, dan gunakan backtick hanya di dalam bagian nama yang dikutip.
INVALID_AWS_AUTHENTICATION
Silakan pilih salah satu metode autentikasi berikut:
Berikan nama kredensial layanan Databricks Anda (
<serviceCredential>
) (sebagai opsi aliran spark atau sebagai variabel lingkungan kluster).Berikan AWS AccessKey (
<awsAccessKey>
) dan SecretAccessKey (<awsSecretKey>
) untuk menggunakan kunci AWS.Jangan berikan kunci AWS maupun kredensial layanan Databricks untuk menggunakan rantai penyedia kredensial AWS default untuk autentikasi Kinesis.
Pilihan eksplisit autentikasi AWS tidak valid
Harap berikan nama kredensial layanan Databricks Anda (<serviceCredential>
)
ATAU baik <awsAccessKey>
maupun <awsSecretKey>
POSISI_BITMAP_TIDAK_VALID
Posisi bitmap dengan indeks 0 di <bitPosition>
berada di luar batas. Bitmap mengandung <bitmapNumBits>
bit (<bitmapNumBytes>
byte).
PERNYATAAN_BOOLEAN_TIDAK_VALID
Pernyataan Boolean diharapkan dalam kondisi tersebut, tetapi <invalidStatement>
ditemukan.
INVALID_BOUNDARY
<boundary>
batas tidak valid: <invalidValue>
.
Untuk informasi lebih lanjut, lihat INVALID_BOUNDARY
TIPE_DATA_KOLOM_BUCKET_TIDAK_VALID
Tidak dapat menggunakan <type>
untuk kolom bucket. Jenis data yang disusun tidak didukung untuk pengelompokan.
BUKU_BERKAS_TIDAK_VALID
Berkas wadah tidak valid: <path>
.
String Byte Tidak Valid
Format yang diharapkan adalah ByteString, tetapi ternyata <unsupported> (<class>
.
Nama Kolom Invalid Sebagai Jalur
Sumber data <datasource>
tidak dapat menyimpan kolom <columnName>
karena namanya berisi beberapa karakter yang tidak diizinkan dalam jalur file. Silakan, gunakan alias untuk mengganti namanya.
TIPE_DATA_KOLOM_ATAU_BIDANG_TIDAK_VALID
Kolom atau bidang <name>
bertipe <type>
ketika harus <expectedType>
.
INVALID_CONF_VALUE (Nilai konfigurasi tidak valid)
Nilai '<confValue>
' dalam konfigurasi "<confName>
" tidak valid.
Untuk detail selengkapnya, lihat INVALID_CONF_VALUE
INVALID_CORRUPT_RECORD_TYPE (Jenis Catatan Rusak Tidak Valid)
Kolom <columnName>
untuk rekaman yang rusak harus memiliki jenis STRING
yang boleh bernilai null, tetapi didapatkan <actualType>
.
Nilai CRS Tidak Valid
Nilai <crs>
CRS (sistem referensi koordinat) yang tidak valid atau tidak didukung .
Penggunaan Penerima Saat Ini Tidak Valid
current_recipient
fungsi hanya dapat digunakan dalam pernyataan CREATE VIEW
atau pernyataan ALTER VIEW
untuk menentukan tampilan berbagi saja di Katalog Unity.
INVALID_CURSOR
Kursor tidak valid.
Untuk detail lebih lanjut, lihat INVALID_CURSOR
POLA_TANGGAL_WAKTU_TIDAK_VALID
Pola waktu/tanggal yang tidak dikenal: <pattern>
.
Untuk selengkapnya, lihat INVALID_DATETIME_PATTERN
NILAI_DEFAULT_TIDAK_VALID
Gagal menjalankan perintah <statement>
karena kolom tujuan atau variabel <colName>
memiliki nilai DEFAULT
<defaultValue>
,
Untuk keterangan lebih lanjut, lihat INVALID_DEFAULT_VALUE
NILAI_PEMBATAS_TIDAK_VALID
Nilai tidak valid untuk pemisah.
Untuk informasi lebih lanjut, lihat INVALID_DELIMITER_VALUE
Katalog Tujuan Tidak Valid
Katalog tujuan perintah SYNC
harus berada dalam Katalog Unity. Ditemukan <catalog>
.
Memori Pengandar Tidak Valid
Memori sistem <systemMemory>
harus setidaknya <minSystemMemory>
.
Harap tingkatkan ukuran timbunan menggunakan opsi --driver-memory atau "<config>
" dalam konfigurasi Spark.
OPSIP_DINAMIS_TIDAK_VALID
Opsi yang diteruskan <option_list>
dilarang untuk tabel asing <table_name>
.
LOKASI_KOSONG_TIDAK_VALID
Nama lokasi tidak boleh berupa string kosong, tetapi <location>
diberikan.
INVALID_ERROR_CONDITION_DECLARATION (Deklarasi Kondisi Kesalahan Tidak Valid)
Deklarasi kondisi tidak valid.
Untuk detail selengkapnya, lihat INVALID_ERROR_CONDITION_DECLARATION
ESC tidak valid
Menemukan string escape yang tidak valid: <invalidEscape>
. String escape hanya boleh berisi satu karakter.
Karakter Pelarian Tidak Valid
EscapeChar
harus berupa string literal dengan panjang satu, tetapi mendapat <sqlExpr>
.
MEMORI_PELAKSANA_TIDAK_SAH
Memori pelaksana <executorMemory>
harus berukuran setidaknya <minSystemMemory>
.
Tingkatkan memori eksekutor menggunakan opsi --executor-memory atau "<config>
" dalam konfigurasi Spark.
PENGKODE EKSPRESI TIDAK VALID
Telah ditemukan encoder ekspresi yang tidak valid. Mengharapkan instans ExpressionEncoder tetapi mendapatkan <encoderType>
. Untuk informasi selengkapnya, lihat '<docroot>
/api/java/index.html?org/apache/spark/sql/Encoder.html'.
INVALID_EXTERNAL_TYPE
Jenis eksternal <externalType>
tidak valid untuk jenis <type>
pada ekspresi <expr>
.
TIPE_LAPANGAN_DASAR_EKSTRAK_TIDAK_VALID
Tidak dapat mengekstrak nilai dari <base>
. Perlu jenis kompleks [STRUCT
, ARRAY
, MAP
] tetapi mendapat <other>
.
BIDANG_EKSTRAK_TIDAK_VALID
Tidak dapat mengekstrak <field>
dari <expr>
.
TIPE_BIDANG_EKSTRAK_TIDAK_VALID
Nama bidang harus berupa string non-null literal, tetapi ini adalah <extraction>
.
NAMA_LAPANGAN_TIDAK_VALID
Nama bidang <fieldName>
tidak valid: <path>
bukan struktur.
INVALID_FORMAT
Format tidak valid: <format>
.
Untuk detail selengkapnya, lihat INVALID_FORMAT
FRAKSI_DETIK_TIDAK_VALID
Rentang valid untuk detik adalah [0, 60] (inklusif), tetapi nilai yang disediakan adalah "<secAndMicros>
". Untuk menghindari kesalahan ini, gunakan try_make_timestamp
, yang menghasilkan NULL
ketika terjadi kesalahan.
Jika Anda tidak ingin menggunakan versi tanda waktu default sesi dari fungsi ini, gunakan try_make_timestamp_ntz
atau try_make_timestamp_ltz
.
INVALID_GET_DIAGNOSTICS_USAGE
Penggunaan pernyataan GETDIAGNOSTICS
tidak valid.
Untuk informasi lebih lanjut, lihat INVALID_GET_DIAGNOSTICS_USAGE
KONDISI_PENGGUNAAN_GET_DIAGNOSTICS_TIDAK_VALID_NOMOR_HARUS_SATU
Penggunaan pernyataan GETDIAGNOSTICS
tidak valid. Satu-satunya nilai yang didukung untuk nomor kondisi dalam GETDIAGNOSTICS
pernyataan adalah 1.
HANDLE_TIDAK_VALID
Pegangan <handle>
tidak valid.
Untuk detail selengkapnya, lihat INVALID_HANDLE
INVALID_HANDLER_DECLARATION
Deklarasi handler tidak valid.
Untuk detail selengkapnya, lihat INVALID_HANDLER_DECLARATION
Metode Permintaan HTTP Tidak Sah
Parameter input: metode, nilai: <paramValue>
bukan parameter yang valid untuk http_request karena bukan metode HTTP yang valid.
Jalur Permintaan HTTP Tidak Valid
Parameter input: jalur, nilai: <paramValue>
bukan parameter yang valid untuk http_request karena pergerakan jalur tidak diperbolehkan.
PENGIDENTIFIKASI_TIDAK_VALID
Pengidentifikasi yang tidak dikutip <ident>
tidak valid dan harus kembali dikutip sebagai: <ident>
.
Pengidentifikasi yang tidak dikutip hanya dapat berisi ASCII
huruf ('a' - 'z', 'A' - 'Z'), angka ('0' - '9'), dan garis bawah ('_').
Pengidentifikasi yang tidak dikutip juga tidak boleh dimulai dengan angka.
Sumber data dan penyimpanan meta yang berbeda dapat memberlakukan pembatasan tambahan pada pengidentifikasi yang valid.
INDEKS_TIDAK_VALID_DARI_NOL
Indeks 0 tidak valid. Indeks harus berupa < 0
atau > 0
(elemen pertama memiliki indeks 1).
INVALID_INLINE_TABLE
Tabel inline tidak valid.
Untuk informasi lebih lanjut, lihat INVALID_INLINE_TABLE
INVALID_INTERVAL_FORMAT
Kesalahan mengurai '<input>
' ke interval. Pastikan bahwa nilai yang disediakan dalam format yang valid untuk menentukan interval. Anda dapat merujuk pada dokumentasi untuk format yang benar.
Untuk informasi lebih lanjut, lihat INVALID_INTERVAL_FORMAT
INTERVAL_TIDAK_VALID_DENGAN_PENAMBAHAN_MIKRODETIK
Tidak dapat menambahkan interval ke tanggal karena bagian microseconds-nya bukan 0. Untuk mengatasinya, ubah tanggal input ke timestamp, yang mendukung penambahan interval dengan mikrosekon non-nol.
PENGIDENTIFIKASI_JAVA_TIDAK_VALID_SEBAGAI_NAMA_BIDANG
<fieldName>
bukan pengidentifikasi Java yang valid dan tidak dapat digunakan sebagai nama bidang
<walkedTypePath>
.
INVALID_JDBC_CONNECTION_OPTION (Opsi Koneksi JDBC Tidak Valid)
Opsi <optionKey>
ini bukan parameter yang valid untuk koneksi jdbc ini.
NILAI_OPSI_KONEKSI_JDBC_TIDAK_VALID
Opsi <optionKey>
dengan nilai <optionValue>
bukan opsi yang valid untuk koneksi jdbc ini.
TIPE_JOIN_TIDAK_VALID_UNTUK_JOINWITH
Jenis penyambungan yang tidak valid pada joinWith: <joinType>
.
Jenis Data JSON Tidak Valid
Gagal mengonversi string JSON '<invalidType>
' ke jenis data. Masukkan tipe data yang valid.
TIPE DATA JSON TIDAK VALID UNTUK URUTAN
Pengurutan hanya dapat diterapkan pada tipe string, tetapi tipe data JSON adalah <jsonType>
.
INVALID_JSON_RECORD_TYPE
Mendeteksi jenis rekaman JSON yang tidak valid saat menyimpulkan skema umum dalam mode <failFastMode>
. Diharapkan jenis STRUCT
, tetapi ditemukan <invalidType>
.
Pesan Kesalahan: INVALID_JSON_ROOT_FIELD (Bidang Utama JSON Tidak Valid)
Tidak dapat mengonversi bidang akar JSON ke jenis Spark target.
INVALID_JSON_SCHEMA_MAP_TYPE
Skema input <jsonSchema>
hanya dapat berisi jenis kunci STRING
untuk MAP
.
INVALID_KRYO_SERIALIZER_BUFFER_SIZE
Nilai konfigurasi "<bufferSizeConfKey>
" harus kurang dari 2048 MiB, tetapi mendapatkan <bufferSizeConfValue>
MiB.
PENGGUNAAN_LABEL_TIDAK_VALID
Penggunaan label <labelName>
tidak valid.
Untuk informasi lebih lanjut, lihat INVALID_LABEL_USAGE
INVALID_LAMBDA_FUNCTION_CALL
Panggilan fungsi lambda tidak valid.
Untuk detail selengkapnya, lihat INVALID_LAMBDA_FUNCTION_CALL
TYPE_GABUNGAN_LATERAL_TIDAK_VALID
<joinType>
JOIN dengan korelasi LATERAL
tidak diizinkan karena subkueri OUTER
tidak dapat berkorelasi dengan mitra gabungannya. Hapus korelasi LATERAL
atau gunakan INNER
JOIN, atau LEFT OUTER
JOIN sebagai gantinya.
EKSPRESI_LIMIT_TIDAK_VALID_SEPERTI
Batas seperti ekspresi <expr>
tidak valid.
Untuk detail selengkapnya, lihat INVALID_LIMIT_LIKE_EXPRESSION
INVALID_LOG_VERSION
VersiLogTidakDidukung.
Untuk detail selengkapnya, lihat INVALID_LOG_VERSION
JALUR_TIDAK_ABSOLUT_TIDAK_VALID
Jalur non absolut yang disediakan <path>
tidak dapat memenuhi syarat. Harap perbarui jalur menjadi lokasi pemasangan dbfs yang valid.
EKSPRESI_NON_DETERMINISTIK_TIDAK_VALID
Operator, mengharapkan ekspresi deterministik, tetapi ekspresi yang sebenarnya adalah <sqlExprs>
.
RENTANG_LITERAL_NUMERIK_TIDAK_VALID
Literal numerik <rawStrippedQualifier>
berada di luar rentang yang valid untuk <typeName>
dengan nilai minimum <minValue>
dan nilai maksimum <maxValue>
. Harap sesuaikan nilainya sewajarnya.
METRIK_YANG_DIAMATI_TIDAK_VALID
Metrik yang diamati tidak valid.
Untuk informasi lebih lanjut, lihat INVALID_OBSERVED_METRICS
INVALID_OPTIONS
Opsi tidak valid:
Untuk informasi lebih lanjut, lihat INVALID_OPTIONS
PENEMPATAN_PANDAS_UDF_TIDAK_VALID
Fungsi agregat grup pandas UDF <functionList>
tidak dapat dipanggil bersama dengan fungsi agregat non-pandas lainnya.
INVALID_PARAMETER_MARKER_VALUE
Pemetaan parameter yang tidak valid diberikan.
Untuk detail lebih lanjut, lihat INVALID_PARAMETER_MARKER_VALUE
NILAI_PARAMETER_TIDAK_VALID
Nilai parameter <parameter>
dalam <functionName>
tidak valid:
Untuk detail selengkapnya, lihat INVALID_PARAMETER_VALUE
TIPE_DATA_KOLOM_PARTISI_TIDAK_VALID
Tidak dapat menggunakan <type>
untuk kolom partisi.
INVALID_PARTITION_OPERATION [Operasi Partisi Tidak Valid]
Perintah partisi tidak valid.
Untuk detail selengkapnya, lihat INVALID_PARTITION_OPERATION
NILAI_PARTISI_TIDAK_VALID
Gagal mentransmisikan nilai <value>
ke jenis data <dataType>
untuk kolom partisi <columnName>
. Pastikan nilai cocok dengan jenis data yang diharapkan untuk kolom partisi ini.
INVALID_PIPELINE_ID (ID jalur tidak valid)
Id alur <pipelineId>
tidak valid.
Id alur harus menjadi UUID dalam format 'xxxxxxxxx-xxxx-xxxx-xxxx-xxxx-xxxx'
Hak istimewa tidak valid
Hak istimewa <privilege>
tidak valid untuk <securable>
.
INVALID_PROPERTY_KEY
<key>
adalah kunci properti yang tidak valid, silakan gunakan tanda kutip, misalnya SET <key>=<value>
.
NILAI_PROPERTI_TIDAK_VALID
<value>
adalah nilai properti yang tidak valid, silakan gunakan tanda kutip, misalnya SET <key>=<value>
INVALID_QUALIFIED_COLUMN_NAME (Nama Kolom Memenuhi Syarat Tidak Valid)
Nama kolom <columnName>
tidak valid karena tidak memenuhi syarat dengan nama tabel atau terdiri dari lebih dari 4 bagian nama.
INVALID_QUERY_MIXED_QUERY_PARAMETERS
Kueri berparameter harus menggunakan parameter posisi, atau bernama, tetapi tidak keduanya.
INVALID_RECURSIVE_CTE (Kesalahan rekursif CTE tidak valid)
Ditemukan definisi rekursif yang tidak valid. Kueri rekursif harus berisi UNION
atau UNION ALL
pernyataan dengan 2 anak. Anak pertama harus menjadi istilah jangkar tanpa rujukan yang berulang.
REFERENSI_REKURSIF_TIDAK_VALID
Referensi rekursif tidak valid ditemukan di dalam WITH RECURSIVE
klausa.
Untuk detail selengkapnya, lihat INVALID_RECURSIVE_REFERENCE
PENGGANTIAN_REGEXP_TIDAK_VALID
Tidak dapat melakukan regexp_replace untuk sumber = "<source>
", pola = "<pattern>
", penggantian = "<replacement>
" dan posisi = <position>
.
Format perintah pengaturan ulang tidak valid
Format yang diharapkan adalah 'RESET
' atau 'RESET
kunci'. Jika Anda ingin menyertakan karakter khusus dalam kunci, silakan gunakan tanda kutip, misalnya, RESET key
.
Penggunaan Resignal Tidak Valid
RESIGNAL
ketika handler tidak aktif.
RESIGNAL
pernyataan hanya dapat digunakan di dalam isi Handler Pengecualian.
Kredensial_Salinan_S3_TIDAK_VALID
kredensial COPY INTO
harus menyertakan AWS_ACCESS_KEY
, AWS_SECRET_KEY
, dan AWS_SESSION_TOKEN
.
INVALID_SAVE_MODE
Mode penyimpanan yang ditentukan <mode>
tidak valid. Mode penyimpanan valid termasuk "tambahkan", "timpa", "abaikan", "kesalahan", "kesalahan jika ada", dan "default".
INVALID_SCHEMA (Skema Tidak Valid)
Skema input <inputSchema>
bukan string skema yang valid.
Untuk informasi lebih lanjut, lihat INVALID_SCHEMA
SKEMA_ATAU_NAMA_RELASI_TIDAK_VALID
<name>
bukan nama yang valid untuk tabel/skema. Nama yang valid hanya berisi karakter alfabet, angka, dan _.
Skema_Tidak_Sah
Katalog Unity tidak mendukung <name>
sebagai skema file default.
PEMBUKAAN_RAHASIA_TIDAK_VALID
Pencarian informasi rahasia tidak sah
Untuk detail selengkapnya, lihat INVALID_SECRET_LOOKUP
Sintaks Set Tidak Valid
Format yang diharapkan adalah 'SET
', 'SET
key', atau 'SET
key=value'. Jika Anda ingin menyertakan karakter khusus dalam kunci, atau menyertakan titik koma dalam nilai, silakan gunakan backquotes, misalnya, SET key
=value
.
Nama Alias Bersama Tidak Valid
Nama <sharedObjectType>
alias harus dalam bentuk "schema.name".
KOLOM_VARIAN_TUNGGAL_TIDAK_VALID
Skema <schema>
yang ditentukan pengguna tidak valid ketika singleVariantColumn
opsi diaktifkan. Skema harus berupa bidang varian, atau bidang varian ditambah bidang kolom yang rusak.
KATALOG_SUMBER_TIDAK_VALID
Katalog sumber tidak boleh berada dalam Katalog Unity untuk perintah SYNC
. Ditemukan <catalog>
.
SUMBER_TIDAK_VALID_UNTUK_PERINTAH_PENGGABUNGAN_LAYANAN_PENYARINGAN (INVALID_SOURCE_FOR_FILTERING_SERVICE_MERGE_COMMAND)
Sumber operasi layanan MERGE
pemfilteran hanya dapat berisi proyeksi dan filter.
Silakan sesuaikan perintah MERGE
atau gunakan tabel penahapan sebagai sumber.
<stmt>
INVALID_SPARK_CONFIG
Konfigurasi Spark tidak valid:
Untuk detail selengkapnya, lihat INVALID_SPARK_CONFIG
INVALID_SQLSTATE (status SQL tidak valid)
Nilai tidak valid SQLSTATE
: '<sqlState>
'.
SQLSTATE
panjangnya harus persis 5 karakter dan hanya berisi A-Z dan 0-9.
SQLSTATE
tidak boleh dimulai dengan '00', '01', atau 'XX'.
INVALID_SQL_ARG (Argumen SQL Tidak Valid)
Argumen <name>
sql()
tidak valid. Pertimbangkan untuk menggantinya dengan literal SQL atau dengan fungsi konstruktor koleksi seperti map()
, array()
, struct()
.
INVALID_SQL_SYNTAX (Kesalahan Sintaks SQL)
Sintaks SQL tidak valid:
Untuk detail selengkapnya, lihat INVALID_SQL_SYNTAX
Jalur pemanggungan tidak valid dalam kueri akses pemanggungan (INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY).
Jalur penahapan tidak valid dalam kueri <operation>
: <path>
PERNYATAAN_TIDAK_VALID_UNTUK_EKSEKUSI_KE_DALAM
Klausa INTO
pada EXECUTE IMMEDIATE
hanya valid untuk kueri namun pernyataan yang diberikan bukan kueri: <sqlString>
.
PERNYATAAN_ATAU_KLAUSA_TIDAK_VALID
Pernyataan atau klausul: <operation>
tidak valid.
Mode Waktu Nyata Streaming Tidak Sah Memicu Interval
Interval pemicu real-time diatur ke <interval>
ms. Ini kurang dari <minBatchDuration>
ms minimum yang ditentukan oleh spark.databricks.streaming.realTimeMode.minBatchDuration.
OVERRIDE_INTERVAL_PEMICU_MODE_REAL_TIME_STREAMING_TIDAK_VALID
Interval pemeriksaan pemicu waktu nyata <interval>
tidak dapat diproses. Pastikan Anda telah memasukkan bilangan bulat positif.
INVALID_SUBQUERY_EXPRESSION
Subkueri tidak valid:
Untuk detail selengkapnya, lihat INVALID_SUBQUERY_EXPRESSION
SASARAN_TIDAK_VALID_UNTUK_PERINTAH_ALTER
ALTER <commandTableType>
... <command>
tidak mendukung <tableName>
. Silakan gunakan ALTER <targetTableType>
... <command>
sebagai gantinya.
TARGET_TIDAK_VALID_UNTUK_PERINTAH_SET_TBLPROPERTIES
ALTER <commandTableType>
... SET TBLPROPERTIES
tidak mendukung <tableName>
. Silakan gunakan ALTER <targetTableType>
... SET TBLPROPERTIES
sebagai gantinya.
INVALID_TEMP_OBJ_REFERENCE (Rujukan_Objek_Temp_Tidak Valid)
Tidak dapat membuat objek persisten <objName>
tipe <obj>
karena mereferensikan ke objek sementara <tempObjName>
jenis <tempObj>
. Harap buat objek sementara <tempObjName>
persisten, atau buat objek persisten <objName>
sementara.
Format_Timestamp_Tidak_Sah
Tanda waktu <timestamp>
yang disediakan tidak cocok dengan sintaks yang <format>
diharapkan .
ZONA_WAKTU_TIDAK_VALID
Zona waktu: <timeZone>
tidak valid. Zona waktu harus berupa ID zona berbasis wilayah atau offset zona. ID wilayah harus memiliki formulir 'area/kota', seperti 'Amerika/Los_Angeles'. Offset zona harus dalam format '(+|-)HH', '(+|-)HH:mm' atau '(+|-)HH:mm:ss', misalnya '-08' , '+01:00' atau '-13:33:33', dan harus dalam rentang dari -18:00 hingga +18:00. 'Z' dan 'UTC' diterima sebagai sinonim untuk '+00:00'.
SPESIFIKASI_PENJELAJAHAN_WAKTU_TIDAK_VALID
Tidak dapat menentukan versi dan cap waktu saat melakukan operasi penelusuran waktu pada tabel.
STAMPEL_WAKTU_PERJALANAN_WAKTU_TIDAK_VALID
Ekspresi tanda waktu perjalanan waktu <expr>
tidak valid.
Untuk informasi lebih rinci, silakan lihat INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
LITERAL_BERJENIS_TIDAK_VALID
Nilai literal yang diketik <valueType>
tidak valid: <value>
.
IMPLEMENTASI_UDF_TIDAK_VALID
Fungsi <funcName>
tidak menerapkan ScalarFunction atau AggregateFunction.
Sintaks Pembaruan Tidak Valid
<command> <supportedOrNot>
tabel sumber berada di Apache Hive Metastore dan tabel tujuan berada di Katalog Unity.
INVALID_URL
Url tidak valid: <url>
. Gunakan try_parse_url
untuk mentolerir URL yang tidak valid dan mengembalikan NULL
sebagai gantinya.
PENGGUNAAN_TIDAK_VALID_DARI_BINTANG_ATAU_REGEX
Penggunaan <elem>
tidak valid di <prettyName>
.
INVALID_UTF8_STRING (String UTF-8 Tidak Valid)
Urutan byte UTF8 tidak valid yang ditemukan dalam string: <str>
.
INVALID_UUID
Input <uuidInput>
bukan UUID yang valid.
UUID harus dalam format 'xxxxxxxxx-xxxx-xxxx-xxxx-xxxx-xxxxxxx'
Silakan periksa format UUID.
DEKLARASI_VARIABEL_TIDAK_VALID
Deklarasi variabel tidak valid.
Untuk detail selengkapnya, lihat INVALID_VARIABLE_DECLARATION
Jenis Variabel Tidak Valid untuk Eksekusi Kuery Segera
Jenis variabel harus berupa tipe string, namun yang diterima adalah <varType>
.
PEMBERIAN_TIPEGANDA_TIDAK_VALID
Nilai varian <value>
tidak dapat ditransmisikan ke <dataType>
. Silakan gunakan try_variant_get
sebagai gantinya.
VARIAN_TIDAK_VALID_DARI_PARQUET
Varian tidak valid.
Untuk detail selengkapnya, lihat INVALID_VARIANT_FROM_PARQUET
VARIAN_TIDAK_VALID_GET_PATH
Jalur <path>
bukan jalur ekstraksi varian yang valid di <functionName>
.
Jalur yang valid harus dimulai dengan $
dan diikuti oleh nol atau lebih segmen seperti [123]
, .name
, ['name']
, atau ["name"]
.
SKEMA PENGHANCURAN VARIAN TIDAK VALID
Skema <schema>
bukan skema penghancur varian yang valid.
KONDISI_WHERE_TIDAK_VALID
Kondisi WHERE
<condition>
berisi ekspresi yang tidak valid: <expressionList>
.
Tulis ulang kueri untuk menghindari fungsi jendela, fungsi agregat, dan fungsi generator dalam klausa WHERE
.
SPESIFIKASI_JENDELA_TIDAK_VALID_UNTUK_FUNGSI_AGREGASI
Tidak dapat menentukan ORDER BY
atau bingkai jendela untuk <aggFunc>
.
EKSPRESI_TIDAK_VALID_DI_DALAM_KELOMPOK
Fungsi <funcName>
tidak valid dengan WITHIN GROUP
.
Untuk detail selengkapnya, lihat INVALID_WITHIN_GROUP_EXPRESSION
PESAN KOMIT PENULIS TIDAK VALID
Penulis sumber data telah menghasilkan jumlah pesan commit yang tidak valid. Diharapkan tepat satu penulis menerapkan pesan dari setiap tugas, tetapi menerima <detail>
.
Distribusi Penulisan Tidak Valid
Distribusi tulis yang diminta tidak valid.
Untuk detail selengkapnya, lihat INVALID_WRITE_DISTRIBUTION
KESALAHAN_PERINTAH_TERISOLASI
Gagal menjalankan <command>
. Hasil keluaran perintah:
<output>
PERINTAH_TERISOLASI_KEGAGALAN_TIDAK_DI KETAHUI
Gagal menjalankan <command>
.
KONDISI_JOIN_BUKAN_TIPE_BOOLEAN
Kondisi gabungan <joinCondition>
memiliki jenis <conditionType>
yang tidak valid, diharapkan jenis "BOOLEAN
".
KAFKA_KEHILANGAN_DATA
Beberapa data mungkin hilang karena tidak tersedia di Kafka lagi;
data mungkin telah dihapus oleh Kafka karena sudah kadaluarsa, atau mungkin topik telah dihapus sebelum semua data telah diproses.
Topik telah diproses.
Jika Anda tidak ingin kueri streaming gagal pada kasus seperti itu, atur pengaturan opsi sumber failOnDataLoss ke false.
Alasan:
Untuk detail selengkapnya, lihat KAFKA_DATA_LOSS
KINESIS_TIDAK_BISA_MEMBACA_SHARD_HINGGA_OFFSET_AKHIR
Tidak dapat membaca sampai nomor urutan yang diinginkan <endSeqNum>
untuk pecahan <shardId>
di
Aliran kinesis <stream>
dengan mode konsumen <consumerMode>
. Kueri akan gagal karena
potensi kehilangan data. Rekaman baca terakhir berada pada nomor urut <lastSeqNum>
.
Ini dapat terjadi jika data dengan endSeqNum telah kadaluarsa, atau aliran Kinesis telah berhenti.
dihapus dan direkonstruksi dengan nama yang sama. Perilaku kegagalan dapat diubah
dengan mengatur spark.databricks.kinesis.failOnDataLoss menjadi false dalam konfigurasi spark.
KONSUMEN KINESIS_EFO TIDAK DITEMUKAN
Untuk aliran kinesis <streamId>
, konsumen EFO dari aliran yang sebelumnya terdaftar <consumerId>
telah dihapus.
Mulai ulang kueri sehingga konsumen baru dapat didaftarkan.
BATAS LANGGANAN KINESIS_EFO TERLAMPAUI
Untuk shard <shard>
, panggilan sebelumnya dari subscribeToShard API berada dalam waktu 5 detik dari panggilan berikutnya.
Mulai ulang kueri setelah 5 detik atau lebih.
KINESIS_FRAGMENT_TERAMBIL_KURANG_DARI_TERPANTAU_FRAGMEN
ShardId minimum yang diambil dari Kinesis (<fetchedShardId>
)
kurang dari minimum shardId yang dilacak (<trackedShardId>
).
Ini tidak terduga dan terjadi ketika aliran Kinesis dihapus dan dibuat ulang dengan nama yang sama,
kueri streaming pada aliran Kinesis ini dimulai ulang dengan menggunakan lokasi titik pemeriksaan yang sudah ada.
Mulai ulang kueri streaming dengan lokasi titik pemeriksaan baru, atau buat aliran dengan nama baru.
Mode polling Kinesis tidak didukung
Mode Kinesis polling tidak didukung.
Pelanggaran Urutan Nomor Rekam KINESIS
Untuk shard <shard>
, rekaman terakhir yang dibaca dari Kinesis dalam pengambilan sebelumnya memiliki nomor urut <lastSeqNum>
,
yang lebih besar dari rekaman yang dibaca dalam pengambilan data saat ini dengan nomor urutan <recordSeqNum>
.
Ini tidak terduga dan dapat terjadi ketika posisi awal untuk pengulangan atau pengambilan berikutnya salah diinisialisasi, dan hal ini dapat mengakibatkan duplikasi rekaman dalam pemrosesan berikutnya.
Sumber KINESIS harus dalam mode EFO untuk mengkonfigurasi konsumen.
Untuk membaca dari Kinesis Streams dengan konfigurasi konsumen (consumerName
, consumerNamePrefix
, atau registeredConsumerId
), consumerMode
harus efo
.
KINESIS_SOURCE (Sumber Kinesis) HARUS MENENTUKAN REGISTERED_CONSUMER_ID (ID Konsumen Terdaftar) DAN TIPE
Untuk membaca dari Kinesis Streams dengan pemakai terdaftar, Anda harus menentukan opsi registeredConsumerId
dan registeredConsumerIdType
.
Sumber KINESIS harus menentukan nama aliran atau ARNs
Untuk membaca dari Kinesis Streams, Anda harus mengonfigurasi salah satu dari opsi streamName
atau streamARN
, tetapi bukan keduanya, sebagai daftar nama aliran atau ARN yang dipisahkan koma.
KINESIS_SUMBERRATA_TIDAK_ADA_PILIHANKONSUMEN_DENGAN_KONSUMEN_TERDAFTAR
Untuk membaca dari Kinesis Streams dengan konsumen terdaftar, jangan konfigurasikan opsi consumerName
atau consumerNamePrefix
karena tidak akan berfungsi.
MISMATCH_HITUNGAN_ID_KONSUMEN_TERDAFTAR_SUMBER_KINESIS
Jumlah id konsumen terdaftar harus sama dengan jumlah aliran Kinesis namun didapatkan id konsumen <numConsumerIds>
dan aliran <numStreams>
.
KINESIS_SOURCE_REGISTERED_CONSUMER_NOT_FOUND (Konsumen terdaftar sumber Kinesis tidak ditemukan)
Konsumen terdaftar <consumerId>
yang disediakan tidak dapat ditemukan untuk streamARN <streamARN>
. Verifikasi bahwa Anda telah mendaftarkan konsumen atau tidak menyediakan opsi registeredConsumerId
.
Tipe Konsumen Terdaftar 'KINESIS_SOURCE' Tidak Valid
Jenis konsumen terdaftar <consumerType>
tidak valid. Ini harus name
atau ARN
.
KRYO_BUFFER_OVERFLOW
Serialisasi Kryo gagal: <exceptionMsg>
. Untuk menghindari hal ini, tingkatkan nilai "<bufferSizeConfKey>
".
LABELS_TIDAK_SESUAI
Label mulai <beginLabel>
tidak cocok dengan label akhir <endLabel>
.
LABEL_SUDAH_ADA
Label <label>
sudah ada. Pilih nama lain atau ganti nama label yang ada.
NAMA_LABEL_TERLARANG
Nama label <label>
tidak diperbolehkan.
Sumber Data Federasi Lakehouse Memerlukan Versi DBR yang Lebih Baru
Sumber data federasi Lakehouse '<provider>
' memerlukan versi Databricks Runtime yang lebih baru.
Untuk informasi lebih lanjut, lihat LAKEHOUSE_FEDERATION_DATA_SOURCE_REQUIRES_NEWER_DBR_VERSION
JALUR_DATA_TIDAK_ADA
jalur input LOAD DATA tidak ada: <path>
.
LOKAL_HARUS_DENGAN_BERKAS_SKEMA
LOCAL
harus digunakan bersama dengan skema file
, namun mendapatkan: <actualSchema>
.
LOKASI_SUDAH_ADA
Tidak dapat menamai tabel terkelola sebagai <identifier>
, karena lokasi terkait <location>
sudah ada. Pilih nama tabel lain, atau hapus lokasi yang ada terlebih dahulu.
PARTISI_TOPIK_HILANG_DALAM_OFFSET_AKHIR_DENGAN_PEMICU_TERSEDIASEKARANG
Beberapa partisi dalam topik Kafka telah hilang selama menjalankan kueri dengan Trigger.AvailableNow. Kesalahan bisa bersifat sementara - mulai ulang kueri Anda, dan laporkan jika Anda masih melihat masalah yang sama.
partisi topik untuk offset terkini: <tpsForLatestOffset>
, dan partisi topik untuk offset akhir: <tpsForEndOffset>
Pesan AVRO yang Salah Bentuk (MALFORMED_AVRO_MESSAGE)
Pesan Avro yang salah bentuk terdeteksi dalam deserialisasi pesan. Mode Penguraian: <mode>
. Untuk memproses pesan Avro yang salah bentuk sebagai hasil null, coba atur opsi 'mode' menjadi 'PERMISSIVE
'.
PENGODEAN_KARAKTER_MALFORMASI
Nilai tidak valid ditemukan saat melakukan <function>
dengan <charset>
REKAMAN_CSV_MALFORMASI
Catatan CSV cacat: <badRecord>
MALFORMED_LOG_FILE
File log salah bentuk: gagal membaca versi log yang benar dari <text>
.
PESAN_PROTOBUF_TIDAK_TERBENTUK_KEDEKATAN
Pesan Protobuf yang salah bentuk terdeteksi dalam deserialisasi pesan. Mode Penguraian: <failFastMode>
. Untuk memproses pesan protobuf yang salah bentuk sebagai hasil null, coba atur opsi 'mode' sebagai 'PERMISSIVE
'.
RECORD_MALFORMASI_DALAM_PARSING
Rekaman rusak terdeteksi dalam pemrosesan rekaman: <badRecord>
.
Mode Penguraian: <failFastMode>
. Untuk memproses rekaman cacat sebagai hasil null, coba atur opsi 'mode' sebagai 'PERMISSIVE
'.
Untuk detail selengkapnya, lihat MALFORMED_RECORD_IN_PARSING
STATUS_TIDAK_BERBENTUK_DALAM_RATE_PER_MICRO_BATCH_SOURCE
Status tidak valid di sumber "RatePerMicroBatch".
Untuk detail selengkapnya, lihat MALFORMED_STATE_IN_RATE_PER_MICRO_BATCH_SOURCE
Varian Tidak Sesuai
Varian biner tidak sesuai format. Silakan periksa sumber data valid.
DIKELOLA_ESBERG_MENCOBA_MENGAKTIFKAN_PENGGUGUSAN_TANPA_MEMATIKAN_DVS_ATAU_PELACAKAN_BARIS
Mencoba mengaktifkan klasterisasi Liquid pada tabel terkelola Apache Iceberg tanpa menonaktifkan vektor penghapusan dan pelacakan baris. Vektor penghapusan dan pelacakan baris tidak didukung untuk tabel Iceberg terkelola, tetapi diperlukan untuk konkurensi tingkat baris dengan tabel Liquid. Untuk mengaktifkan pengklusteran Liquid pada tabel Iceberg terkelola dengan kontrol konkurensi yang dikurangi, vektor penghapusan dan pelacakan baris harus dinonaktifkan pada tabel ini.
OPERASI_DIKELOLA_ESBERG_TIDAK_DIDUKUNG
Tabel Iceberg terkelola tidak mendukung <operation>
.
TABEL_DIKELOLA_DENGAN_KREDENSIAL
Pembuatan tabel terkelola menggunakan kredensial penyimpanan tidak didukung.
MATERIALIZED_VIEW_MESA_PEMBARUAN_TANPA_PIPELINE_ID
Tidak dapat <refreshType>
tampilan materialisasi karena ada sebelum memiliki pipeline Id. Untuk mengaktifkan <refreshType>
, hapus dan buat ulang tampilan materialisasi.
OPERASI_MATERIALIZED_VIEW_TIDAK_DIIJINKAN
Operasi tampilan materialisasi <operation>
tidak diperbolehkan:
Untuk informasi lebih lanjut, lihat MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
KELUARAN_MATERIALIZED_VIEW_TANPA_ALIAS_EKSPLISIT
Ekspresi output <expression>
dalam view yang dimaterialisasi harus diberikan alias secara eksplisit.
MATERIALIZED_VIEW_ATAS_QUERY_STREAMING_TIDAK_VALID
Tampilan materialisasi <name>
tidak dapat dibuat menggunakan kueri streaming. Silakan gunakan CREATE [OR REFRESH] STREAMING TABLE
atau hapus kata kunci STREAM
dari klausa FROM
Anda untuk mengubah relasi ini menjadi kueri batch.
"OPERASI_TIDAK_DIDUKUNG_PADA_PANDANGAN_TERWUJUD"
Operasi <operation>
saat ini tidak didukung pada tampilan termaterialisasi.
Jumlah maks variabel dalam sesi terlampaui
Tidak dapat membuat variabel baru <variableName>
karena jumlah variabel dalam sesi melebihi angka maksimum yang diizinkan (<maxNumVariables>
).
MAKSIMUM_REKAMAN_PER_PENGAMBILAN_TIDAK_VALID_UNTUK_SUMBER_KINESIS
maxRecordsPerFetch harus berupa bilangan bulat positif kurang dari atau sama dengan <kinesisRecordLimit>
PELANGGARAN_KARDINALITAS_PENGGABUNGAN
Kondisi pencarian ON
pada pernyataan MERGE
cocok dengan satu baris dari tabel target dan beberapa baris dari tabel sumber.
Ini dapat mengakibatkan baris target dikenai lebih dari sekali dengan operasi pembaruan atau penghapusan dan tidak diizinkan.
GABUNG_TANPA_KETIKA
Harus ada setidaknya satu klausa WHEN
dalam pernyataan MERGE
.
BATASAN_METRIK_TIDAK_DIDUKUNG
METRIC CONSTRAINT
tidak diaktifkan.
KESALAHAN_NILAI_ARGUMEN_TIDAK_VALID_PADA_PENYIMPAN_METRIK
Nilai yang disediakan "<argValue>
" tidak didukung oleh argumen "<argName>
" untuk METRIC_STORE
fungsi tabel.
Untuk informasi lebih lanjut, lihat METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
KESALAHAN_TOKO_METRIK_TIDAK_DIDUKUNG
Rutin Penyimpanan Metrik <routineName>
saat ini dinonaktifkan di lingkungan ini.
KRITERIA_PENYAMBUNGAN_TIDAK_JELAS_TAMPILAN_METRIK
Definisi tampilan metrik berisi gabungan dengan kriteria ambigu: <expr>
. [Gunakan using
kriteria gabungan atau secara eksplisit memenuhi syarat kolom dengan <sourceAlias>
alias.]
METRIC_VIEW_CACHE_TABLE_TIDAK_DIDUKUNG
Tampilan metrik tidak diizinkan untuk menggunakan tabel cache.
FUNGSI PENAMPILAN METRIK DINONAKTIFKAN
Fitur tampilan metrik dinonaktifkan. Pastikan "spark.databricks.sql.metricView.enabled" diatur ke true.
FUNGSI_UKURAN_TIDAK_VALID_PADAMETRIC_VIEW
Fungsi MEASURE
() hanya mengambil atribut sebagai input, tetapi mendapat <expr>
DEFINISI_TAMPILAN_METRIK_TIDAK_VALID
Definisi tampilan metrik tidak valid. Alasan: <reason>
.
METRIC_VIEW_DALAM_CTE_TIDAK_DIDUKUNG
Tampilan metrik tidak diizinkan dalam definisi CTE. rencana: <plan>
Bergabung pada Tampilan Metrik Tidak Didukung
Tampilan metrik tidak diizinkan untuk menggunakan gabungan. rencana: <plan>
Materialisasi Tampilan Metrik Dinonaktifkan
Materialisasi tampilan metrik dinonaktifkan. Pastikan "spark.databricks.sql.metricView.materializations.enabled" diatur ke benar.
TAMPILAN_METRIK_FUNGSI_UKURAN_HILANG
Penggunaan kolom pengukuran <column>
tampilan metrik memerlukan fungsi MEASURE
() untuk menghasilkan hasil.
UBAH_NAMA_METRIC_VIEW_KATALOG_DAN_SKEMA_BERBEDA
Tampilan <oldName>
metrik tidak diizinkan untuk mengganti nama ke katalog atau skema yang berbeda: <newName>
.
Penggunaan Tampilan Metrik Tidak Didukung
Penggunaan tampilan metrik tidak didukung. rencana: <plan>
FUNGSI JENDELA UNTUK PANDANGAN METRIK TIDAK DIDUKUNG
Tampilan metrik tidak diizinkan untuk menggunakan fungsi jendela <expr>
.
Migrasi Tidak Didukung
<table>
tidak didukung untuk bermigrasi ke tabel yang dikelola UC karena bukan tabel <tableKind>
.
Pastikan bahwa tabel yang sedang dimigrasikan adalah tabel delta eksternal UC dan
ini dirujuk oleh namanya alih-alih jalur.
PEMBATALAN MIGRASI TIDAK DIDUKUNG
<table>
tidak didukung untuk mengembalikan dari tabel yang dikelola ke tabel eksternal karena bukan tabel <tableKind>
.
PARTISI_TOPIK_YANG_TIDAK_SESUAI_ANTARA_END_OFFSET_DAN_PREFETCHED
Sumber data Kafka di Trigger.AvailableNow harus menyediakan partisi topik yang sama dalam offset yang telah diambil sebelumnya hingga offset akhir untuk setiap mikro-batch. Kesalahan bisa bersifat sementara - mulai ulang kueri Anda, dan laporkan jika Anda masih melihat masalah yang sama.
partisi topik untuk offset yang diambil sebelumnya: <tpsForPrefetched>
, partisi topik untuk offset akhir: <tpsForEndOffset>
.
AGREGASI_HILANG
Ekspresi non-agregat <expression>
didasarkan pada kolom yang tidak berpartisipasi dalam klausa GROUP BY
.
Tambahkan kolom atau ekspresi ke GROUP BY
, agregat ekspresi, atau gunakan <expressionAnyValue>
jika Anda tidak peduli nilai mana dalam grup yang dikembalikan.
Untuk informasi lebih lanjut, lihat MISSING_AGGREGATION
Klausul yang Hilang untuk Operasi
Klausa yang hilang <clauses>
untuk operasi <operation>
. Harap tambahkan klausa yang diperlukan.
PILIHAN_KONEKSI_HILANG
Koneksi jenis '<connectionType>
' harus menyertakan opsi berikut: <requiredOptions>
.
DATABASE_HILANG_UNTUK_V1_KATALOG_SESI
Nama basis data tidak ditentukan dalam katalog sesi v1. Pastikan untuk memberikan nama database yang valid saat berinteraksi dengan katalog v1.
GRUP_TIDAK_ADA
Kueri tidak menyertakan klausa GROUP BY
. Tambahkan GROUP BY
atau ubah menjadi fungsi jendela menggunakan klausa OVER.
NAMA_HILANG_UNTUK_BATASAN_PEMERIKSAAN
batasan CHECK
harus memiliki nama.
PARAMETER_HILANG_UNTUK_KAFKA
Parameter <parameterName>
diperlukan untuk Kafka, tetapi tidak ditentukan dalam <functionName>
.
PARAMETER_HILANG_UNTUK_RUTIN
Parameter <parameterName>
diperlukan, tetapi tidak ditentukan dalam <functionName>
.
DEFINISI_JADWAL_HILANG
Definisi jadwal harus disediakan setelah SCHEDULE
.
PENGATURAN_TIMEOUT_HILANG
Operasi telah kehabisan waktu, tetapi tidak ada durasi batas waktu yang dikonfigurasi. Untuk mengatur batas waktu berbasis waktu pemrosesan, gunakan operasi 'GroupState.setTimeoutDuration()' di 'mapGroupsWithState' atau 'flatMapGroupsWithState'. Untuk batas waktu berdasarkan waktu kejadian, gunakan fungsi 'GroupState.setTimeoutTimestamp()' dan tentukan marka air menggunakan 'Dataset.withWatermark()'.
SPESIFIKASI_JENDELA_HILANG
Spesifikasi jendela tidak ditentukan dalam klausa WINDOW
untuk <windowName>
. Untuk informasi selengkapnya tentang WINDOW
klausul, silakan merujuk ke '<docroot>
/sql-ref-syntax-qry-select-window.html'.
MODIFIKASI_KATALOG_BUILTIN
Mengubah katalog bawaan <catalogName>
tidak didukung.
JALUR_PEMUATAN_GANDA
Databricks Delta tidak mendukung beberapa jalur input di API load().
jalur: <pathList>
. Untuk membangun satu DataFrame dengan memuat
beberapa jalur dari tabel Delta yang sama, silakan muat jalur akar dari
tabel Delta dengan filter partisi yang sesuai. Jika ada beberapa jalur
berasal dari tabel Delta yang berbeda, silakan gunakan API union()/unionByName() dari Dataset
untuk menggabungkan DataFrames yang dihasilkan dari panggilan API load() yang terpisah.
Batasan yang Sesuai Ganda
Ditemukan setidaknya dua batasan yang cocok dengan kondisi yang diberikan.
Klausa Hasil Query Multipel dengan Operator Pipa
<clause1>
dan <clause2>
tidak dapat hidup berdampingan di operator pipa SQL yang sama menggunakan '|>'. Pisahkan beberapa klausa hasil pencarian menjadi operator pemisah terpisah lalu coba jalankan ulang kueri tersebut.
SPESIFIKASI_PERJALANAN_WAKTU_MULTIPLE
Tidak dapat menentukan perjalanan waktu dalam klausa perjalanan waktu dan opsi.
Sumber Data XML Beragam
Mendeteksi beberapa sumber data dengan nama <provider> (<sourceNames>
). Tentukan nama kelas yang sepenuhnya memenuhi syarat atau hapus <externalSource>
dari classpath.
MULTI_ALIAS_WITHOUT_GENERATOR
Alias multi bagian (<names>
) tidak didukung dengan <expr>
karena bukan fungsi generator.
Sumber Banyak Tidak Didukung Untuk Ekspresi
Ekspresi <expr>
tidak mendukung lebih dari satu sumber.
SKEMA_CDF_TRANSAKSI_MULTI_PERNYATAAN_DENGAN_NAMA_KOLOM_CADANGAN
Umpan Data Perubahan tidak dapat diaktifkan dalam Transaksi Pernyataan Berganda karena tabel berisi nama kolom yang telah disediakan (<column_name>
).
Untuk melanjutkan, pastikan tabel hanya menggunakan nama kolom yang bukan nama kolom yang sudah dicadangkan.
Transaksi Multi-Pernyataan CDF Pengaturan Titik Tertinggi Tidak Diizinkan
Mengatur batas tinggi identitas CDC secara manual tidak diperbolehkan.
PERUBAHAN METADATA KATALOG MULTI_PERNYATAAN_TRANSAKSI YANG BERLANGSUNG SEKALEA
Perubahan metadata bersamaan telah terdeteksi pada tabel/tampilan <table>
. Silakan jalankan ROLLBACK
lalu coba kembali transaksi ini. Detail:
Untuk detail selengkapnya, lihat MULTI_STATEMENT_TRANSACTION_CONCURRENT_CATALOG_METADATA_CHANGE
KETIDAKSESUAIAN_KONTEKS_TRANSAKSI_MULTI_PERNYATAAN
Inkonsistensi konteks transaksi terdeteksi antara utas saat ini dan sesi Spark. Ini biasanya terjadi ketika sesi Spark dibagikan di beberapa utas. Silakan gunakan sesi dan utas khusus untuk setiap transaksi, dan lakukan/putar kembali transaksi di utasnya sebelum menggunakan kembali sesi dan utas untuk transaksi baru. Detail:
Untuk detail selengkapnya, lihat MULTI_STATEMENT_TRANSACTION_CONTEXT_MISMATCH
TRANSAKSI_MULTI_PERNYATAAN_TIDAK_DIPERLUKAN
Gagal menjalankan pernyataan.
Untuk detail selengkapnya, lihat MULTI_STATEMENT_TRANSACTION_NOT_SUPPORTED
TRANSAKSI_BANYAK_PERNYATAAN_TIDAK_ADA_TRANSAKSI_AKTIF
Tidak ada transaksi aktif ke <action>
.
TRANSAKSI_MULTI_PERNYATAAN_MEMBUTUHKAN_ROLLBACK_SETELAH_ABORT
Transaksi saat ini telah dibatalkan. Silakan jalankan ROLLBACK TRANSACTION
sebelum melanjutkan. Alasan pembatalan
Untuk informasi lebih lanjut, lihat MULTI_STATEMENT_TRANSACTION_ROLLBACK_REQUIRED_AFTER_ABORT
Error Antarmuka Multi UDF
Tidak diizinkan untuk menerapkan beberapa antarmuka UDF, kelas UDF <className>
.
KLAUSA_YANG_SALING_EKSKLUSIF
Klausa atau opsi yang saling eksklusif <clauses>
. Hapus salah satu klausa ini.
Kesalahan Jenis Pendukung pada Alter Query (MV_ST_ALTER_QUERY_INCORRECT_BACKING_TYPE)
Kueri input mengharapkan nomor <expectedType>
, tetapi tabel yang mendasar adalah nomor <givenType>
.
PARAMETER_BERNAMA_TIDAK_DIDUKUNG
Parameter bernama tidak didukung untuk fungsi <functionName>
; silakan coba ulang kueri dengan argumen posisi untuk panggilan fungsi sebagai alternatif.
Parameter Bernama Tidak Didukung untuk SQL UDF
Tidak dapat memanggil fungsi <functionName>
karena referensi argumen bernama tidak didukung. Dalam hal ini, referensi argumen bernama <argument>
.
DUKUNGAN_PARAMETER_YANG_DIBERI_NAMA_NONAKTIF
Tidak dapat memanggil fungsi <functionName>
karena referensi argumen bernama tidak diaktifkan di sini.
Dalam hal ini, referensi argumen bernama <argument>
.
Atur "spark.sql.allowNamedFunctionArguments" ke "true" untuk mengaktifkan fitur.
RUANG NAMA_SUDAH ADA
Tidak dapat membuat namespace <nameSpaceName>
karena sudah ada.
Pilih nama yang berbeda, hapus namespace yang ada, atau tambahkan klausa IF NOT EXISTS
untuk mentolerir namespace yang sudah ada sebelumnya.
RUANG NAMA_TIDAK_KOSONG
Tidak dapat menjatuhkan namespace <nameSpaceNameName>
karena berisi objek.
Gunakan DROP NAMESPACE
... CASCADE
untuk menghapus namespace dan semua objeknya.
RUANG_NAMA_TIDAK_DITEMUKAN
Namespace <nameSpaceName>
tidak dapat ditemukan. Verifikasi ejaan dan kebenaran namespace.
Jika Anda tidak memenuhi syarat nama dengan benar, verifikasi output current_schema() atau pastikan Anda memenuhi syarat nama dengan tepat.
Untuk mentolerir kesalahan saat drop, gunakan DROP NAMESPACE IF EXISTS
.
NATIVE_IO_ERROR
Permintaan bawaan gagal. requestId: <requestId>
, cloud: <cloud>
, operasi: <operation>
request: [https: <https>
, method = <method>
, path = <path>
, params = <params>
, host = <host>
, header = <headers>
, bodyLen = <bodyLen>
],
kesalahan: <error>
SUMBER_DATA_XML_ASLI_TIDAK_DIAKTIFKAN
Sumber Data XML asli tidak diaktifkan dalam kluster ini.
SKALA_NEGATIF_TIDAK_DIPERBOLEHKAN
Skala negatif tidak diperbolehkan: '<scale>
'. Atur konfigurasi <sqlConf>
ke "true" untuk mengizinkannya.
NILAI_NEGATIF_DALAM_EKSPRESI_FREKUENSI
Menemukan nilai negatif dalam <frequencyExpression>
: <negativeValue>
, tetapi mengharapkan nilai integral positif.
FUNGSI_AGREGAT_BERSARANG
Tidak diperbolehkan menggunakan fungsi agregat dalam argumen fungsi agregat lain. Silakan gunakan fungsi agregat dalam dalam sub-kueri.
Eksekusi Segera Berjenjang
Perintah EXECUTE IMMEDIATE
bertumpuk tidak diizinkan. Pastikan bahwa kueri SQL yang disediakan (<sqlString>
) tidak berisi perintah EXECUTE IMMEDIATE
lain.
NONEXISTENT_FIELD_NAME_IN_LIST (Nama Bidang Tidak Ada dalam Daftar)
Kolom <nonExistFields>
tidak ada. Bidang yang tersedia: <fieldNames>
ARGUMEN_TIDAK_BISA_DILIPAT
Fungsi <funcName>
mengharuskan parameter <paramName>
menjadi ekspresi jenis yang dapat dilipat <paramType>
, tetapi argumen aktual tidak dapat dilipat.
KONDISI_PENGABAIAN_KLAUSA_YANG_TIDAK_TERAKHIR
Ketika ada lebih dari satu klausa MATCHED
dalam pernyataan MERGE
, hanya klausa MATCHED
terakhir yang dapat menghilangkan kondisi.
TIDAK_TERAKHIR_TIDAK_COCOK_DENGAN_KONDISI_PENGHAPUSAN_KLAUSA_SUMBER
Ketika ada lebih dari satu klausa NOT MATCHED BY SOURCE
dalam pernyataan MERGE
, hanya klausa NOT MATCHED BY SOURCE
terakhir yang dapat menghilangkan kondisi.
Kondisi_Penghilangan_Tidak_Cocok_Oleh_Klausa_Target_TIDAK_TERAKHIR
Ketika ada lebih dari satu klausa NOT MATCHED [BY TARGET
] dalam pernyataan MERGE
, hanya klausa NOT MATCHED [BY TARGET
] terakhir yang dapat menghilangkan kondisi.
NILAI_POROS_NON_LITERAL
Ekspresi literal yang diperlukan untuk nilai pivot, ditemukan pada <expression>
.
KOLOM_NON_PARTISI
klausa PARTITION
tidak boleh berisi kolom non-partisi: <columnName>
.
JENDELA_WAKTU_TIDAK_DIDUKUNG_DALAM_STREAMING
Fungsi jendela tidak didukung di <windowFunc>
(sebagai kolom <columnName>
) pada streaming DataFrames/Himpunan Data.
Streaming Terstruktur hanya mendukung agregasi jendela waktu menggunakan fungsi WINDOW
. (spesifikasi jendela: <windowSpec>
)
TIDAK_DIPERBOLEHKAN_DI_SALAH
Tidak diizinkan dalam klausa FROM
:
Untuk informasi lebih lanjut, lihat NOT_ALLOWED_IN_FROM
TIDAK_DIPERBOLEHKAN_DALAM_OPERATOR_PIPA_DIMANA
Pada klausa pipa WHERE
, tidak diizinkan:
Untuk detail selengkapnya, lihat NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE
NOT_A_CONSTANT_STRING
Ekspresi <expr>
yang digunakan untuk rutin atau klausa <name>
harus berupa konstanta STRING
yang adalah NOT NULL
.
Untuk informasi lebih lanjut, lihat NOT_A_CONSTANT_STRING
BUKAN_SEBUAH_TABEL_TERPISAH
Operasi <operation>
tidak diperbolehkan untuk <tableIdentWithDB>
karena bukan tabel yang dipartisi.
BUKAN_FUNGSI_SKALAR
<functionName>
muncul sebagai ekspresi skalar di sini, tetapi fungsi didefinisikan sebagai fungsi tabel. Perbarui kueri untuk memindahkan panggilan fungsi ke klausa FROM
, atau tentukan ulang <functionName>
sebagai fungsi skalar sebagai gantinya.
BUKAN_FUNGSI_TABEL
<functionName>
muncul sebagai fungsi tabel di sini, tetapi fungsi didefinisikan sebagai fungsi skalar. Harap perbarui kueri untuk memindahkan panggilan fungsi di luar klausa FROM
, atau tentukan ulang <functionName>
sebagai fungsi tabel sebagai gantinya.
PELANGGARAN_NOT_NULL_ASSERT
nilai NULL
muncul di bidang yang tidak dapat bernilai null: <walkedTypePath>
Jika skema disimpulkan dari kelas tuple/case Scala, atau kelas case Java, silakan coba gunakan scala.Option[_] atau jenis nullable lainnya, seperti java.lang.Integer daripada int/scala.Int.
PELANGGARAN_KENDALA_TIDAK_NULL
Menetapkan NULL
tidak diperbolehkan di sini.
Untuk informasi lebih lanjut, lihat NOT_NULL_CONSTRAINT_VIOLATION
PERUBAHAN_KOLOM_TIDAK_DIDUKUNG
ALTER TABLE ALTER
/
CHANGE COLUMN
tidak didukung untuk mengubah <table>
kolom <originName>
dengan tipe <originType>
ke <newName>
dengan tipe <newType>
.
PERUBAHAN_TIDAK_DIDUKUNG_KOLOM_SAMA
ALTER TABLE ALTER
/
CHANGE COLUMN
tidak didukung untuk mengubah <table>
kolom <fieldName>
termasuk bidang berlapisnya beberapa kali dalam perintah yang sama.
PERINTAH_TIDAK_DIDUKUNG_UNTUK_TABEL_V2
<cmd>
tidak didukung untuk tabel v2.
Perintah tidak didukung tanpa dukungan hive.
<cmd>
tidak didukung, jika Anda ingin mengaktifkannya, atur "spark.sql.catalogImplementation" ke "hive".
TIDAK_DIDUKUNG_DALAM_JDBC_CATALOG
Perintah yang tidak didukung dalam katalog JDBC:
Untuk detail selengkapnya, lihat NOT_SUPPORTED_IN_JDBC_CATALOG
TIDAK_DIDUKUNG_DENGAN_DB_SQL
<operation>
tidak didukung pada <endpoint>
SQL .
TIDAK DIDUKUNG DENGAN SERVERLESS
<operation>
tidak didukung pada komputasi tanpa server.
PENGENKODE_TIDAK_TERSELESAIKAN
Pengkode yang belum diresolusi diharapkan, tetapi <attr>
ditemukan.
NILAI_KOLOM_DEFAULT_TIDAK_TERSEDIA
Tidak dapat menentukan nilai default karena <colName>
tidak dapat diubah ke null dan tidak memiliki nilai default.
TIDAK_ADA_PENGELOLA_UNTUK_UDAF
Tidak ada handler untuk UDAF '<functionName>
'. Gunakan sparkSession.udf.register(...) sebagai gantinya.
TIDAK_ADA_AKSI_MERGE_YANG_DITENTUKAN
df.mergeInto perlu diikuti oleh setidaknya salah satu dari *whenMatched/whenNotMatched/whenNotMatchedBySource*.
TIDAK ADA LOKASI EKSTERNAL INDUK UNTUK PATH
SQLSTATE: tidak ada yang ditetapkan
Tidak ada lokasi eksternal induk yang ditemukan untuk jalur '<path>
'. Buat lokasi eksternal di salah satu jalur induk lalu coba lagi kueri atau perintah lagi.
"Tidak Ada Jenis SQL dalam Skema Protobuf"
Tidak dapat menemukan <catalystFieldPath>
dalam skema Protobuf.
TIDAK_ADA_LOKASI_PENYIMPANAN_UNTUK_TABEL
SQLSTATE: tidak ada yang ditetapkan
Tidak ada lokasi penyimpanan yang ditemukan untuk tabel '<tableId>
' saat membuat kredensial tabel. Harap verifikasi jenis tabel dan URL lokasi tabel lalu coba lagi kueri atau perintah lagi.
PENGECUALIAN_TIDAK_ADA_KATALOG
Katalog '<catalog>
' tidak ditemukan. Harap verifikasi nama katalog lalu coba lagi kueri atau perintah lagi.
Tidak Ada Pengecualian Ruang Bersih Tersebut
SQLSTATE: tidak ada yang ditetapkan
Kamar bersih '<cleanroom>
' tidak ada. Pastikan bahwa nama ruang bersih dieja dengan benar dan cocok dengan nama ruang bersih yang ada yang valid lalu coba lagi kueri atau perintah.
PENGECUALIAN_KREDENSIAL_TIDAK_ADA
Kredensial '<credential>
' tidak ada. Pastikan bahwa nama kredensial dieja dengan benar dan cocok dengan nama kredensial yang ada yang valid lalu coba lagi kueri atau perintah lagi.
PENGECUALIAN_LOKASI_EKSTERNAL_TIDAK_TERSEDIA
SQLSTATE: tidak ada yang ditetapkan
Lokasi eksternal '<externalLocation>
' tidak ada. Harap verifikasi bahwa nama lokasi eksternal sudah benar, lalu coba lagi kueri atau perintah.
Kesalahan_NO_SUCH_METASTORE
SQLSTATE: tidak ada yang ditetapkan
Metastore tidak ditemukan. Silakan minta administrator akun Anda untuk menetapkan metastore ke ruang kerja saat ini lalu coba lagi kueri atau perintah lagi.
NO_SUCH_PROVIDER_EXCEPTION (Pengecualian dengan penyedia tidak dikenal)
SQLSTATE: tidak ada yang ditetapkan
Penyedia berbagi '<providerName>
' tidak ada. Pastikan nama penyedia berbagi dieja dengan benar dan cocok dengan nama nama penyedia yang sudah ada yang valid, lalu coba lagi kueri atau perintah tersebut.
NO_SUCH_RECIPIENT_EXCEPTION (Pengecualian Tidak Ada Penerima)
SQLSTATE: tidak ada yang ditetapkan
Penerima '<recipient>
' tidak ada. Pastikan bahwa nama penerima dieja dengan benar dan cocok dengan nama penerima yang sudah ada yang valid lalu coba lagi kueri atau perintah lagi.
TIDAK_ADA_SHARE_EXCEPTION
SQLSTATE: tidak ada yang ditetapkan
Bagian yang dibagikan '<share>
' tidak ada. Pastikan bahwa nama share dieja dengan benar dan cocok dengan nama share yang sudah ada yang valid, lalu coba lagi kueri atau perintah tersebut.
NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION (Kesalahan: Tidak Ada Kredensial Penyimpanan yang Ada)
SQLSTATE: tidak ada yang ditetapkan
Kredensial penyimpanan '<storageCredential>
' tidak ada. Pastikan bahwa nama kredensial penyimpanan dieja dengan benar dan cocok dengan nama kredensial penyimpanan yang sudah ada yang valid lalu coba lagi kueri atau perintah lagi.
PENGECUALIAN_PENGGUNA_TIDAK_ADA
SQLSTATE: tidak ada yang ditetapkan
Pengguna '<userName>
' tidak ada. Harap verifikasi bahwa pengguna yang Anda berikan izin atau ubah kepemilikan dieja dengan benar dan cocok dengan nama pengguna yang sudah ada yang valid lalu coba lagi kueri atau perintah tersebut.
ANTARMUKA_UDF_TIDAK_ADA
Kelas UDF <className>
tidak mengimplementasikan antarmuka UDF apa pun.
KOLOM_DAPAT_NOL_ATAU_LAPANGAN_DAPAT_NOL
Kolom atau bidang <name>
bisa bernilai null sementara wajib tidak bisa bernilai null.
Atribut ID Baris yang Dapat Bernilai Null
Atribut ID baris tidak dapat diubah ke null: <nullableRowIdAttrs>
.
Opsi Sumber Data Kosong
Opsi baca/tulis sumber data <option>
tidak boleh memiliki nilai null.
KUNCI_PETA_KOSONG
Tidak dapat menggunakan null sebagai kunci peta.
NULL_QUERY_STRING_EXECUTE_IMMEDIATE
Eksekusi segera memerlukan variabel non-null sebagai string kueri, tetapi variabel yang disediakan <varName>
adalah null.
Pernyataan Sinyal Nilai Null
Argumen pernyataan sinyal memerlukan nilai non-null, tetapi <argument>
menerima nilai null.
NUMERIK_DI_LUAR_JANGKAUAN_YANG_DIDUKUNG
<value>
Nilai tidak dapat ditafsirkan sebagai numerik karena memiliki lebih dari 38 digit.
NILAI_NUMERIK_DI_LUAR_BATAS
Untuk detail lebih lanjut, lihat NUMERIC_VALUE_OUT_OF_RANGE
Ketidakcocokan Jumlah Kolom
<operator>
hanya dapat dilakukan pada input dengan jumlah kolom yang sama, tetapi input pertama memiliki kolom <firstNumColumns>
dan input <invalidOrdinalNum>
memiliki kolom <invalidNumColumns>
.
Ketidakcocokan Alias Nilai Tabel Num
Jumlah alias yang diberikan tidak cocok dengan jumlah kolom output.
Nama fungsi: <funcName>
; jumlah alias: <aliasesNum>
; jumlah kolom output: <outColsNum>
.
KLAIM_IDENTITAS_KUSTOM_OAUTH_TIDAK_DIBERIKAN
Tidak ada klaim identitas kustom yang disediakan.
HANYA_FUNGSI_RAHASIA_YANG_DIDUKUNG_DI_SINI
Fungsi panggilan <functionName>
tidak didukung dalam <location>
ini; <supportedFunctions>
didukung di sini.
Hanya didukung dengan UC_SQL_CONNECTOR
Operasi SQL <operation>
hanya didukung pada konektor Databricks SQL dengan dukungan Unity Catalog.
OPERASI_DIBATALKAN
Operasi telah dibatalkan.
OPERASI_MEMBUTUHKAN_UNITY_KATALOG
Operasi <operation>
mengharuskan Katalog Unity diaktifkan.
Operasi Tidak Didukung - Hanya Baca
<plan>
tidak didukung dalam mode sesi baca-saja.
URUTKAN_DENGAN_POS_DI_LUAR_JANGKAUAN
ORDER BY
posisi <index>
tidak ada dalam daftar pilih (rentang yang valid adalah [1, <size>
]).
PARQUET_CONVERSION_FAILURE
Tidak dapat membuat konverter Parquet untuk jenis data <dataType>
yang jenis Parquet-nya adalah <parquetType>
.
Untuk detail selengkapnya, lihat PARQUET_CONVERSION_FAILURE
PARQUET_TIPE_ILEGAL
Jenis Parquet tidak sah: <parquetType>
.
JENIS_PARQUET_TIDAK_DIKENALI
Jenis Parquet yang tidak dikenal: <field>
.
JENIS_PARQUET_TIDAK_DIDUKUNG
Jenis parquet belum didukung: <parquetType>
.
PARSING_PERNYATAAN_KOSONG
Kesalahan sintaksis, pernyataan kosong yang tidak terduga.
MODE_PEMROSESAN_TIDAK_DIDUKUNG
Fungsi <funcName>
ini tidak mendukung <mode>
mode . Mode yang dapat diterima PERMISSIVE
dan FAILFAST
.
KESALAHAN_PARSE_SINTAKS
Kesalahan sintaks pada atau dekat <error> <hint>
.
PARTISI_SUDAH_ADA
Tidak dapat menambahkan RENAME
ke partisi-partisi <partitionList>
dalam tabel <tableName>
karena partisi-partisi tersebut sudah ada.
Pilih nama yang berbeda, hapus partisi yang ada, atau tambahkan klausa IF NOT EXISTS
untuk mentolerir partisi yang sudah ada sebelumnya.
PARTISI_TIDAK_DITEMUKAN
Partisi <partitionList>
tidak dapat ditemukan dalam tabel <tableName>
.
Verifikasi spesifikasi partisi dan nama tabel.
Untuk mengabaikan kesalahan saat menjalankan drop, gunakan ALTER TABLE
...
DROP IF EXISTS PARTITION
.
KOLOM_PARTISI_TIDAK_DITEMUKAN_DALAM_SKEMA
Kolom partisi <column>
tidak ditemukan dalam skema <schema>
. Harap sediakan kolom yang ada untuk pemartisian.
LOKASI_PARTISI_SUDAH_ADA
Lokasi partisi <locationPath>
sudah ada dalam tabel <tableName>
.
LOKASI_PARTISI_TIDAK_BERADA_DI_BAWAH_DIREKTORI_TABEL
Gagal menjalankan pernyataan ALTER TABLE SET PARTITION LOCATION
, karena
lokasi partisi <location>
tidak berada di bawah direktori tabel <table>
.
Untuk memperbaikinya, silakan atur lokasi partisi ke subdirektori <table>
.
PARTITION_METADATA
<action>
tidak diizinkan pada tabel <tableName>
karena menyimpan metadata partisi tidak didukung di Katalog Unity.
KETIDAKCOCOKAN_NOMOR_PARTISI
Jumlah nilai (<partitionNumber>
) tidak cocok dengan ukuran skema (<partitionSchemaSize>
): nilai <partitionValues>
, skema <partitionSchema>
, jalur file <urlEncodedPath>
.
Harap materialisasi ulang tabel atau hubungi pemilik.
EKSPRESI_TRANSFORMASI_PARTISI_TIDAK_DALAM_PARTISI_OLEH
Ekspresi <expression>
harus berada di dalam 'partitionedBy'.
Jalur_sudah_ada
Jalur <outputPath>
sudah ada. Atur [mode] pengaturan sebagai "timpa" untuk mengganti jalur yang ada.
JALUR_TIDAK_DITEMUKAN
Jalur tidak ditemukan: <path>
.
Batas Memori PHOTON_DESERIALIZED_PROTOBUF Terlampaui
Proses deserialisasi rencana Photon protobuf membutuhkan minimal <size>
byte, yang melebihi
batas maksimum <limit>
byte. Ini bisa disebabkan oleh rencana yang sangat besar atau adanya suatu hal yang sangat besar.
skema lebar. Cobalah untuk menyederhanakan kueri, menghapus kolom yang tidak perlu, atau menonaktifkan Photon.
BATAS_MEMORI_PROTOBUF_YANG_SERIAL_TELAH_TERLEBIHI_PHOTON
Paket protobuf Photon yang diserialisasikan memiliki ukuran <size>
byte, yang melebihi batas
<limit>
byte. Ukuran jenis data yang diserialisasikan dalam rencana adalah <dataTypeSize>
byte.
Ini bisa disebabkan oleh rencana yang sangat besar atau adanya skema yang sangat luas.
Pertimbangkan untuk menulis ulang kueri untuk menghapus operasi dan kolom yang tidak diinginkan atau menonaktifkan Photon.
PIPELINE_DOES_NOT_EXIST
Alur '<pipelineId>
' tidak ada
Untuk detail selengkapnya, lihat PIPELINE_DOES_NOT_EXIST
EKSPRESI_OPERATOR_PIPA_TIDAK_MENGANDUNG_FUNGSI_AGREGAT
Ekspresi <expr>
non-pengelompokan disediakan sebagai argumen ke operator pipa |> AGGREGATE
tetapi tidak berisi fungsi agregat apa pun; harap perbarui untuk menyertakan fungsi agregat lalu coba lagi kueri.
OPERATOR_PIPA_MENGANDUNG_FUNGSI_AGREGAT
Fungsi agregat <expr>
tidak diizinkan saat menggunakan klausul operator |> <clause>
pipa; gunakan klausul operator |> AGGREGATE
pipa sebagai gantinya.
KETIDAKCOCOKAN_TIPE_DATA_NILAI_POROS
Nilai pivot '<value>
': tipe nilai data <valueType>
tidak cocok dengan tipe data kolom pivot <pivotType>
.
ARRAY_POINTER_KEHABISAN_MEMORI
Memori tidak cukup untuk memperbesar array pointer
KEBIJAKAN_SUDAH_ADA
Tidak dapat membuat kebijakan <policyName>
karena sudah ada.
Pilih nama yang berbeda atau hilangkan kebijakan yang ada untuk mentolerir koneksi yang sudah ada sebelumnya.
Kebijakan Tidak Ditemukan
Tidak dapat menjalankan <commandType>
perintah karena kebijakan <policyName>
pada <securableFullname>
tidak dapat ditemukan.
Harap verifikasi ejaan dan kebenarannya.
KEBIJAKAN_TIPE_YANG_DAPAT_DISECURE_TIDAK_DIDUKUNG
Tidak dapat membuat kebijakan pada jenis <securableType>
yang dapat diamankan. Tipe yang dapat diamankan yang didukung: <allowedTypes>
.
KETIDAKCOCOKAN_JUMLAH_ARGUMEN_PROSEDUR
Prosedur <procedureName>
mengharapkan argumen <expected>
, tetapi <actual>
disediakan.
PENCIPTAAN_PROSEDUR_RUTIN_KOSONG
CREATE PROCEDURE
dengan definisi rutin kosong tidak diperbolehkan.
PENCIPTAAN_PROSEDUR_PARAMETER_KELUAR_MASUK_KELUAR_DENGAN_DEFAULT
Parameter <parameterName>
didefinisikan dengan mode parameter <parameterMode>
.
OUT
parameter dan INOUT
tidak dapat dihilangkan saat memanggil rutinitas dan karenanya tidak mendukung DEFAULT
ekspresi. Untuk melanjutkan, hapus klausa DEFAULT
atau ubah mode parameter menjadi IN
.
PROSEDUR_TIDAK_DIDUKUNG
Prosedur tersimpan tidak didukung
PROSEDUR_TIDAK_DIDUKUNG_DENGAN_HMS
Prosedur tersimpan tidak didukung dengan Hive Metastore. Silakan gunakan Katalog Unity sebagai gantinya.
KETERGANTUNGAN_PROTOBUF_TIDAK_DITEMUKAN
Tidak dapat menemukan dependensi: <dependencyName>
.
PROTOBUF_DESCRIPTOR_FILE_TIDAK_DITEMUKAN
Kesalahan saat membaca file deskriptor Protobuf di jalur: <filePath>
.
FIELD_PROTOBUF_HILANG
Mencari <field>
dalam skema Protobuf di <protobufSchema>
memberikan kecocokan <matchSize>
. Kandidat: <matches>
.
FIELD_PROBUF_HILANG_DALAM_SKEMA_SQL
Ditemukan <field>
dalam skema Protobuf tetapi tidak ada kecocokan dalam skema SQL.
PROTOBUF_FIELD_TYPE_MISMATCH (Ketidakcocokan Jenis Field Protobuf)
Ketidakcocokan tipe ditemukan untuk bidang: <field>
.
KELAS_PROTOBUF_JAVA_TIDAK_DIDUKUNG
Kelas Java tidak didukung untuk <protobufFunction>
. Hubungi Dukungan Databricks tentang opsi alternatif.
Pesan_PROTOBUF_Tidak_Ditemukan
Tidak dapat menemukan Pesan <messageName>
di deskriptor.
PROTOBUF_TIDAK_DIMUAT_FUNGSI_SQL_TIDAK_DAPAT_DIGUNAKAN
Tidak dapat memanggil fungsi SQL <functionName>
karena sumber data Protobuf tidak dimuat.
Mulai ulang pekerjaan atau sesi Anda dengan paket 'spark-protobuf' yang dimuat, seperti dengan menggunakan argumen --packages pada baris perintah, lalu coba lagi kueri atau perintah Anda.
TIPE_PROTOBUF_TIDAK_DIDUKUNG
Jenis Protobuf belum didukung: <protobufType>
.
PS_FETCH_RETRY_EXCEPTION (Pengecualian Pengambilan Ulang)
Tugas dalam tahap pengambilan data pubsub tidak dapat diulang. Partisi <partitionInfo>
dalam tahap <stageInfo>
, TID <taskId>
.
Kesalahan: Opsi kosong tidak valid
<key>
tidak boleh berupa string kosong.
PS_TIPE_KUNCI_TIDAK_VALID
Jenis kunci tidak valid untuk PubSub dedup: <key>
.
PS_PILIHAN_TIDAK_VALID
Opsi <key>
tidak didukung oleh PubSub. Ini hanya dapat digunakan dalam pengujian.
Jenis Opsi Tidak Valid (PS_INVALID_OPTION_TYPE)
Jenis tidak sah untuk <key>
. Jenis yang diharapkan dari <key>
adalah jenis <type>
.
PS_BATAS_BACA_TIDAK_VALID
Batas baca tidak valid pada aliran PubSub: <limit>
.
Kesalahan Konversi Baris Tidak Aman dari Proto
UnsafeRow tidak valid untuk mendekode ke PubSubMessageMetadata, skema proto yang diinginkan adalah: <protoSchema>
. Input UnsafeRow mungkin rusak: <unsafeRow>
.
PS_OPSI_AUDIENS_FEDERASI_IDENTITAS_BEBAN_KERJA_TIDAK_VALID
Kueri atau perintah gagal karena opsi baca yang tidak valid: dalam spark.readStream.format("pubsub").option("workloadIdentityFederation.audience", <audience>
). Perbarui <audience>
agar sesuai dengan format berikut: //iam.googleapis.com/projects/{PROJECT_NUMBER}/locations/global/workloadIdentityPools/{POOL_ID}/providers/{PROVIDER_ID}
lalu coba lagi kueri atau perintah.
PS_INFO_OTENTIKASI_HILANG
Gagal menemukan informasi autentikasi PubSub lengkap.
PS_KEHILANGAN_OPSI_WAJIB
Tidak dapat menemukan opsi yang diperlukan: <key>
.
KESALAHAN_PENGGESERAN_TITIK_BALIK_PS
Gagal memindahkan file titik pemeriksaan data mentah dari <src>
ke direktori tujuan: <dest>
.
Opsi Autentikasi Ganda
Harap berikan kredensial layanan Databricks atau kredensial akun layanan GCP Anda.
PS_BERBAGAI_EPOCH_GAGAL
Aliran PubSub tidak dapat dimulai karena ada lebih dari satu pengambilan data yang gagal: <failedEpochs>
.
PILIHAN_PS_TIDAK_DALAM_BATAS
<key>
harus berada di antara batas berikut (<min>
, <max>
), tidak termasuk kedua batas tersebut.
Berikan Kredensial dengan Opsi
Kluster bersama tidak mendukung autentikasi dengan profil instans. Berikan kredensial ke aliran secara langsung menggunakan .option().
SPEKULASI_PS_SPARK_TIDAK_DIDUKUNG
Konektor sumber PubSub hanya tersedia dalam kluster dengan spark.speculation
dinonaktifkan.
PS_TIDAK_DAPAT_MEMBUAT_LANGGANAN
Terjadi kesalahan saat mencoba membuat langganan <subId>
pada topik <topicId>
. Silakan periksa apakah ada cukup izin untuk membuat langganan dan coba lagi.
Tidak dapat mem-parsing protokol
Tidak dapat mengurai byte berseri untuk menghasilkan proto.
PANGGILAN_GET_OFFSET_TIDAK_DIDUKUNG
Fungsi getOffset tidak didukung jika tidak menyertakan batas.
Kesalahan_Sumber_Data_PYTHON
Sumber data Python gagal <action>
<type>
: <msg>
SUMBER_DATA_STREAMING_PYTHON_KESALAHAN_WAKTU_JALAN
Gagal saat sumber data streaming Python melakukan <action>
: <msg>
TABEL_DIPERIKSA_TIDAK_KOMPATIBEL_DENGAN_KEBIJAKAN_MASKER_KOLOM
Tidak dapat mengakses tabel yang direferensikan karena masker kolom yang ditetapkan sebelumnya saat ini tidak kompatibel dengan skema tabel; untuk melanjutkan, silakan hubungi pemilik tabel untuk memperbarui kebijakan:
Untuk informasi lebih lanjut, lihat QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
QUERIED_TABLE_TIDAK_SESUAI_DENGAN_KEBIJAKAN_KEAMANAN_TINGKAT_BARIS
Tidak dapat mengakses tabel yang direferensikan karena kebijakan keamanan tingkat baris yang ditetapkan sebelumnya saat ini tidak kompatibel dengan skema tabel; untuk melanjutkan, silakan hubungi pemilik tabel untuk memperbarui kebijakan:
Untuk rincian lebih lanjut, lihat QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
WAKTU_EKSEKUSI_KUERIT_MELEBIHI_BATAS
Eksekusi kueri dibatalkan karena melebihi batas waktu (<timeoutSec>
). Anda dapat meningkatkan batas dalam detik dengan mengatur <config>
.
KUERI_DITOLAK
Eksekusi kueri ditolak.
QUERY_RESULT_WRITE_TO_CLOUD_STORE_PERMISSION_ERROR could be translated as "KESALAHAN_IZIN_MENULIS_HASIL_QUERY_KE_TOKO_AWAN" to maintain technical terminology while making it readable in Indonesian language.
Konfigurasi penyimpanan internal ruang kerja mencegah Databricks mengakses penyimpanan cloud.
BACA_FILE_SAAT_INI_TIDAK_DITEMUKAN
<message>
Ada kemungkinan file yang mendasar telah diperbarui. Anda dapat secara eksplisit membatalkan cache di Spark dengan menjalankan perintah 'REFRESH TABLE
tableName' di SQL atau dengan membuat ulang Himpunan Data/DataFrame yang terlibat.
Pembacaan_File_Parameter_Rutinitas_Ambigu
Pemanggilan fungsi <functionName>
memiliki <parameterName>
dan <alternativeName>
yang disetel, yang merupakan alias satu sama lain. Silakan atur hanya satu dari mereka.
READ_FILES_CREDENTIALS_PARSE_ERROR
Terjadi kesalahan saat mengurai kredensial sementara fungsi read_files().
Untuk detail selengkapnya, lihat READ_FILES_CREDENTIALS_PARSE_ERROR
BACA_TVF_PARAMETER_DIBUTUHKAN_TIDAK_TERDUGA
Parameter <functionName>
yang diperlukan untuk fungsi <parameterName>
harus ditetapkan pada posisi <expectedPos>
tanpa nama.
Kedaluwarsa untuk Penerima Tidak Didukung
Hanya jenis TIMESTAMP
/TIMESTAMP_LTZ
/TIMESTAMP_NTZ
yang didukung untuk tanda waktu kedaluwarsa penerima.
BATAS_TINGKAT_REKURSI_DILAMPAUI
Batas <levelLimit>
tingkat rekursi tercapai tetapi kueri belum habis, coba tingkatkan seperti 'WITH RECURSIVE
t(col) MAX RECURSION LEVEL
200'.
Batas Baris Rekursi Terlampaui
Batas baris rekursi <rowLimit>
tercapai tetapi kueri belum selesai, coba tetapkan nilai yang lebih besar dalam mengkueri LIMIT
hubungan CTE.
RECURSIVE_CTE_IN_LEGACY_MODE
Definisi rekursif tidak dapat digunakan dalam mode prioritas CTE warisan (spark.sql.legacy.ctePrecedencePolicy=LEGACY
).
RECURSIVE_CTE_DENGAN_LEGACY_INLINE_FLAG (CTE_REKURSIF_DENGAN_BENDERA_INLINE_LEGASI)
Definisi rekursif tidak dapat digunakan ketika indikator inline warisan diatur ke true (spark.sql.legacy.inlineCTEInCommands=true).
Skema_Protobuf_Resursif
Ditemukan referensi rekursif dalam skema Protobuf, yang tidak dapat diproses oleh Spark secara default: <fieldDescriptor>
. coba atur opsi recursive.fields.max.depth
1 ke 10. Melampaui 10 tingkat rekursi tidak diperbolehkan.
Tampilan Rekursif
Tampilan rekursif <viewIdent>
terdeteksi (siklus: <newPath>
).
Nilai default tidak diperbolehkan di dalam partisi
Referensi ke nilai kolom DEFAULT
tidak diizinkan dalam klausa PARTITION
.
RELASI_LEBIH_BESAR_DARI_8G
Tidak bisa membangun <relationName>
yang lebih besar dari 8 GB.
KESALAHAN_FUNGSI_JARAK_JAUH_HTTP_GAGAL
Permintaan HTTP jarak jauh gagal dengan kode <errorCode>
, dan pesan kesalahan <errorMessage>
KESALAHAN_PARSING_HASIL_HTTP_FUNGSI_JARAK_JAUH
Gagal mengevaluasi fungsi SQL <functionName>
karena ketidakmampuan untuk mengurai hasil JSON dari respons HTTP jarak jauh; pesan kesalahan <errorMessage>
. Periksa dokumentasi API: <docUrl>
. Silakan perbaiki masalah yang ditunjukkan dalam pesan kesalahan dan coba lagi kueri.
HASIL_FUNGSI_JARAK_JAUH_HTTP_KESALAHAN_TIDAK_TERDUGA
Gagal mengevaluasi fungsi SQL <functionName>
karena ketidakmampuan untuk memproses respons HTTP jarak jauh yang tidak terduga; pesan kesalahan <errorMessage>
. Periksa dokumentasi API: <docUrl>
. Silakan perbaiki masalah yang ditunjukkan dalam pesan kesalahan dan coba lagi kueri.
Batas Waktu Coba Ulang HTTP Fungsi Jarak Jauh
Permintaan jarak jauh gagal setelah mencoba kembali <N>
kali; kode kesalahan HTTP terakhir yang gagal <errorCode>
dan pesannya <errorMessage>
ERROR: Fungsi remote tidak memenuhi persyaratan
Gagal mengevaluasi fungsi SQL <functionName>
karena <errorMessage>
. Periksa persyaratan di <docUrl>
. Silakan perbaiki masalah yang ditunjukkan dalam pesan kesalahan dan coba lagi kueri.
GANTI_NAMA_SOURC_PATH_TIDAK_DITEMUKAN
Gagal mengganti nama karena <sourcePath>
tidak ditemukan.
KLAUSA_YANG_DIULANG
Klausa <clause>
dapat digunakan paling banyak sekali per operasi <operation>
.
PARAMETER_YANG_DIPERLUKAN_SUDAH_DISIAPKAN_POSISIONAL
Parameter yang diperlukan oleh rutin <routineName>
, yaitu <parameterName>
, telah ditetapkan pada posisi <positionalIndex>
tanpa nama.
Harap perbarui panggilan fungsi dengan menghapus argumen yang diberi nama dengan <parameterName>
untuk parameter ini atau menghapus argumen posisi.
argumen di <positionalIndex>
lalu coba kueri lagi.
Parameter yang Diperlukan Tidak Ditemukan
Tidak dapat memanggil <routineName>
rutin karena parameter bernama <parameterName>
diperlukan, tetapi panggilan rutin tidak menyediakan nilai. Harap perbarui panggilan rutin untuk menyediakan nilai argumen (baik secara posisional pada indeks <index>
atau berdasarkan nama) dan coba lagi kueri.
MEMBUTUHKAN_NAMESPACE_BAGIAN_TUNGGAL
<sessionCatalog>
memerlukan namespace satu bagian, tetapi mendapat <namespace>
.
KONFLIK_KOLOM_DATA_TERSIMPAN_DENGAN_VARIAN_TUNGGAL
Opsi pembaca API DataFrame 'rescuedDataColumn' tidak dapat digunakan bersamaan dengan opsi API DataFrame 'singleVariantColumn'.
Silakan hapus salah satunya lalu coba lagi operasi DataFrame lagi.
KOLOM_CDC_DISEDIKAN_SAAT_MENULIS
Tulisan berisi kolom yang dicadangkan <columnList>
yang digunakan
secara internal sebagai metadata untuk Umpan Data Perubahan. Untuk menulis ke tabel, ubah nama atau hapus
kolom ini atau nonaktifkan Ubah Umpan Data pada tabel dengan menyetel
<config>
ke false.
PERMISSIONS_OPSI_STREAMING_TERBATAS_DITEGAKAN
Opsi <option>
memiliki nilai terbatas pada kluster Bersama untuk sumber <source>
.
Untuk rincian lebih lanjut, lihat RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
RUTIN_SUDAH_ADA
Tidak dapat membuat <newRoutineType> <routineName>
karena sudah ada <existingRoutineType>
nama tersebut.
Pilih nama yang berbeda, jatuhkan atau ganti <existingRoutineType>
yang ada, atau tambahkan klausa IF NOT EXISTS
untuk mentolerir <newRoutineType>
yang sudah ada sebelumnya.
RUTIN_TIDAK_DITEMUKAN
Rutin <routineName>
tidak dapat ditemukan. Verifikasi ejaan dan kebenaran skema dan katalog.
Jika Anda tidak menentukan nama dengan skema dan katalog, verifikasi output current_schema(), atau tentukan nama dengan skema dan katalog yang benar.
Untuk mentolerir kesalahan saat drop, gunakan DROP
... IF EXISTS
.
ROUTINE_PARAMETER_TIDAK_DITEMUKAN (ROUTINE_PARAMETER_NOT_FOUND)
<routineName>
fungsi rutin tidak mendukung parameter <parameterName>
yang ditentukan pada posisi <pos>
.<suggestion>
PENGGUNAAN_RUTIN_NAMA_KELAS_CADANGAN_SISTEM
Fungsi <routineName>
tidak dapat dibuat karena nama kelas '<className>
' yang ditentukan telah disediakan untuk penggunaan sistem. Ganti nama kelas dan coba lagi.
KETIDAKCOCOKAN_KEAMANAN_TINGKAT_BARIS_ABAC
Filter baris tidak dapat diselesaikan pada <tableName>
karena ada ketidakcocokan antara filter baris yang diwarisi dari kebijakan dan filter baris yang ditentukan secara eksplisit. Untuk melanjutkan, nonaktifkan Kontrol Akses Berbasis Atribut (ABAC) dan hubungi dukungan Databricks.
PEMBATASAN_CEK_KEAMANAN_TINGKAT_BARIS_TIDAK_DIDUKUNG
Pembuatan pembatasan CHECK
pada tabel <tableName>
dengan kebijakan keamanan tingkat baris tidak didukung.
NAMA_KOLOM_DUPLIKAT_KEAMANAN_TINGKAT_BARIS
Pernyataan <statementType>
mencoba menetapkan kebijakan keamanan tingkat baris ke tabel, tetapi dua atau beberapa kolom yang direferensikan memiliki nama yang sama <columnName>
, yang tidak valid.
FITUR_KEAMANAN_TINGKAT_BARIS_TIDAK_DIDUKUNG
Kebijakan keamanan tingkat baris untuk <tableName>
tidak didukung:
Untuk informasi lebih lanjut, lihat ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
PERUBAHAN_SKEMA_TIDAK_KOMPATIBEL_KEAMANAN_LEVEL_BARIS
Tidak dapat <statementType> <columnName>
dari tabel <tableName>
karena dirujuk dalam kebijakan keamanan tingkat baris. Pemilik tabel harus menghapus atau mengubah kebijakan ini sebelum melanjutkan.
PENGGABUNGAN_KEAMANAN_TINGKAT_BARIS_SAAT_INI_TIDAK_DIDUKUNG_SENI
Operasi MERGE INTO
tidak mengakomodasi kebijakan keamanan tingkat baris di tabel sumber <tableName>
.
Penggabungan Target Tidak Didukung oleh Keamanan Tingkat Baris
Operasi MERGE INTO
tidak mendukung penulisan ke dalam tabel <tableName>
dengan kebijakan keamanan pada tingkat baris.
NAMA KOLOM MULTI-BAGIAN KEAMANAN TINGKAT BARIS
Pernyataan ini mencoba menetapkan kebijakan keamanan tingkat baris ke tabel, tetapi kolom yang direferensikan <columnName>
memiliki beberapa bagian nama, yang tidak valid.
Keamanan Tingkat Baris Membutuhkan Katalog Kesatuan
Kebijakan keamanan tingkat baris hanya didukung di Katalog Unity.
KEAMANAN_TINGKAT_BARIS_TAMPILKAN_PARTISI_TIDAK_DIDUKUNG
perintah SHOW PARTITIONS
tidak didukung untuk tabel<format>
dengan kebijakan keamanan tingkat baris.
Sumber Kloning Tabel Keamanan Tingkat Baris Tidak Didukung
<mode>
mengkloning tabel <tableName>
dengan kebijakan keamanan tingkat baris tidak didukung.
Keamanan_tingkat_baris_tabel_kloning_target_tidak_didukung
<mode>
mengkloning tabel ke <tableName>
dengan kebijakan keamanan pada tingkat baris tidak didukung.
KEAMANAN_TINGKAT_BARIS_KONSTANTA_TIDAK_DIDUKUNG_SEBAGAI_PARAMETER
Menggunakan konstanta sebagai parameter dalam kebijakan keamanan tingkat baris tidak didukung. Perbarui perintah SQL Anda untuk menghapus konstanta dari definisi filter baris lalu coba lagi perintah tersebut.
TIPE_DATA_TIDAK_DIDUKUNG_KEAMANAN_TINGKAT_BARIS
Fungsi <functionName>
yang digunakan untuk kebijakan keamanan tingkat baris memiliki parameter dengan jenis data <dataType>
yang tidak didukung.
KEAMANAN_TINGKAT_BARIS_PENYEDIA_TIDAK_DIDUKUNG
Gagal menjalankan <statementType>
perintah karena menetapkan kebijakan keamanan tingkat baris tidak didukung untuk sumber data target dengan penyedia tabel: "<provider>
".
Kueri Baris Sub: Terlalu Banyak Baris
Lebih dari satu baris dikembalikan oleh subkueri yang digunakan untuk satu baris.
NILAI_BARIS_ADALAH_NULL
Ditemukan NULL
pada baris di indeks <index>
, mengharapkan nilai bukanNULL
.
ID_aturan_tidak_ditemukan
Tidak menemukan id untuk nama aturan "<ruleName>
". Silakan ubah RuleIdCollection.scala jika Anda menambahkan aturan baru.
SALESFORCE_DATA_SHARE_API_TIDAK_BERWENANG
Otorisasi ke SALESFORCE Data Share API gagal. Verifikasi bahwa detail koneksi Databricks disediakan untuk target berbagi data Salesforce yang sesuai.
PERIZINAN_TABEL_CONTOH
Izin tidak didukung pada database/tabel sampel.
FUNGSI_SKALAR_TIDAK_KOMPATIBEL
ScalarFunction <scalarFunc>
tidak mengambil alih metode 'produceResult(InternalRow)' dengan implementasi kustom.
FUNGSI_SKALAR_TIDAK_SEPENUHNYA_DIREALISASIKAN
ScalarFunction <scalarFunc>
tidak menerapkan atau mengambil alih metode 'produceResult(InternalRow)'.
SUBQUERY_SKALAR_ADA_DI_GROUP_BY_ATAU_FUNGSI_AGREGAT
Subkueri skalar berkorelasi '<sqlExpr>
' tidak ada dalam GROUP BY
, atau dalam fungsi agregat.
Tambahkan itu ke GROUP BY
menggunakan posisi ordinal atau bungkus dalam first()
(atau first_value
) jika Anda tidak peduli nilai mana yang Anda dapatkan.
SCALAR_SUBQUERY_TOO_MANY_ROWS
Lebih dari satu baris hasil yang dikembalikan oleh subkueri yang digunakan sebagai ekspresi.
JADWAL_SUDAH_ADA
Tidak dapat menambahkan <scheduleType>
ke tabel yang sudah memiliki <existingScheduleType>
. Silakan hilangkan jadwal yang ada atau gunakan ALTER TABLE
... ... ALTER <scheduleType>
untuk mengubahnya.
PERIODE PENJADWALAN TIDAK VALID
Periode jadwal untuk <timeUnit>
harus berupa nilai bilangan bulat antara 1 dan <upperBound>
(inklusif). Diterima: <actual>
.
Skema sudah ada
Tidak dapat membuat <schemaName>
skema karena sudah ada.
Pilih nama yang berbeda, hapus skema yang ada, atau tambahkan klausa IF NOT EXISTS
untuk memperbolehkan skema yang sudah ada sebelumnya.
Skema_Tidak_Kosong
Tidak dapat menghapus skema <schemaName>
karena berisi objek.
Gunakan DROP SCHEMA
... CASCADE
untuk menghilangkan skema dan semua objeknya.
SKEMA_TIDAK_DITEMUKAN
Skema <schemaName>
tidak dapat ditemukan. Verifikasi ejaan dan kebenaran skema dan katalog.
Jika Anda tidak menetapkan kualifikasi nama dengan katalog, periksa output dari current_schema(), atau tetapkan kualifikasi nama dengan katalog yang benar.
Untuk mentolerir kesalahan saat drop, gunakan DROP SCHEMA IF EXISTS
.
KESALAHAN_KONFIGURASI_SKEMA_REGISTRI
Skema di dalam registri tidak dapat diinisialisasi.
<reason>
.
ARGUMEN_FUNGSI_KEDUA_TIDAK_BILANGAN_BULAT
Argumen kedua dari fungsi <functionName>
harus berupa bilangan bulat.
FUNGSI_RAHASIA_LOKASI_TIDAK_VALID
Tidak dapat menjalankan perintah <commandType>
dengan satu atau beberapa referensi yang tidak dienkripsi ke fungsi SECRET
; harap enkripsi hasil dari setiap panggilan fungsi tersebut dengan AES_ENCRYPT
dan coba perintah lagi
SEED_EKSPRESI_TIDAK_DAPAT_DIPERLUAS
Ekspresi dasar <seedExpr>
dari ekspresi <exprWithSeed>
harus dapat dilipat.
SERVER_SEDANG_SIBUK
Server sibuk dan tidak dapat menangani permintaan. Silakan tunggu sebentar dan coba lagi.
SFTP_UNABLE_TO_CONNECT
Gagal menyambungkan ke server SFTP <host>
pada port <port>
dengan nama pengguna <user>
.
PENGGUNA_SFTP_TIDAK_SESUAI
Pengguna yang diambil dari kredensial <credentialUser>
tidak cocok dengan pengguna yang ditentukan dalam jalur SFTP <path>
.
TAMPILKAN_KOLOM_DENGAN_NAMESPACE_KONFLIK
SHOW COLUMNS
dengan namespace yang bertentangan: <namespaceA>
!= <namespaceB>
.
Urutkan_Tanpa_Pembagian
sortBy harus digunakan bersama dengan bucketBy.
PEKERJAAN_SPARK_DIBATALKAN
Pekerjaan <jobId>
dibatalkan <reason>
Menentukan pembagian tidak diizinkan
CREATE TABLE
tanpa daftar kolom eksplisit tidak dapat menentukan informasi pengelompokan.
Silakan gunakan form dengan daftar kolom eksplisit dan tentukan informasi pengelompokan.
Atau, biarkan informasi bucketing disimpulkan dengan cara menghilangkan klausul.
Menentukan "cluster by" dengan "bucketing" tidak diperbolehkan.
Tidak dapat menentukan CLUSTER BY
dan CLUSTERED BY INTO BUCKETS
.
Penentuan CLUSTER BY bersama PARTITIONED BY tidak diizinkan.
Tidak dapat menentukan CLUSTER BY
dan PARTITIONED BY
.
SPESIFIKASI_PARTISI_TIDAK_DIPERBOLEHKAN
CREATE TABLE
tanpa daftar kolom eksplisit tidak dapat menentukan PARTITIONED BY
.
Silakan gunakan formulir dengan daftar kolom eksplisit dan tentukan PARTITIONED BY
.
Atau, izinkan partisi disimpulkan dengan menghilangkan klausa PARTITION BY
.
KELUAR_DARI_MEMORI
Kesalahan saat memanggil spill() pada <consumerToSpill>
: <message>
SQL_CONF_NOT_FOUND (Konfigurasi SQL Tidak Ditemukan)
Konfigurasi SQL <sqlConf>
tidak dapat ditemukan. Harap verifikasi bahwa konfigurasi ada.
SQL_SCRIPT_IN_EXECUTE_IMMEDIATE
Skrip SQL dalam EXECUTE IMMEDIATE
perintah tidak diizinkan. Pastikan bahwa kueri SQL yang disediakan (<sqlString>
) bukan Skrip SQL. Pastikan sql_string adalah pernyataan SQL yang terbentuk dengan baik dan tidak berisi BEGIN
dan END.
Jumlah Karakter Maksimum SQL Script Terlampaui
Jumlah maksimum karakter dalam Skrip SQL (id: <scriptId>
) telah terlampaui. Jumlah maksimum karakter yang diizinkan adalah <maxChars>
, dan skrip memiliki <chars>
karakter.
Jumlah Baris Maksimum untuk Skrip SQL Terlampaui
Jumlah baris maksimum dalam Skrip SQL (id: <scriptId>
) telah terlampaui. Jumlah maksimum baris yang diizinkan adalah <maxLines>
, dan skrip memiliki <lines>
baris.
BATAS_MAKSIMUM_DEKLARASI_VARIABEL_LOKAL_SQL_SCRIPT_MELEBIHI
Jumlah maksimum deklarasi variabel lokal dalam Skrip SQL (id: <scriptId>
) telah terlampaui. Jumlah maksimum deklarasi yang diizinkan adalah <maxDeclarations>
, dan skrip memiliki <declarations>
.
Batas Panggilan Bersarang untuk Prosedur Tersimpan SQL Terlampaui
Jumlah maksimum panggilan prosedur berlapis telah terlampaui dengan prosedur (nama: <procedureName>
, callId: <procedureCallId>
). Jumlah maksimum panggilan prosedur berlapis yang diizinkan adalah <limit>
.
JALUR_PENTAS_SAAT_INI_TIDAK_TERSEDIA
Kesalahan sementara saat mengakses jalur staging target <path>
, silakan coba lagi dalam beberapa menit
KELOMPOK_BINTANG_BERDASARKAN_POSISI
Bintang (*) tidak diperbolehkan dalam daftar pilih saat GROUP BY
urutan ordinal digunakan.
PROSESOR_KEADAAN_TIDAK_DAPAT_MELAKUKAN_OPERASI_DENGAN_KEADAAN_HANDLE_TIDAK_VALID
Operasi prosesor stateful=<operationType>
gagal dilakukan karena status handle tidak valid=<handleState>
.
PROSESOR_BERSTATUS_TIDAK_DAPAT_MELAKUKAN_OPERASI_DENGAN_MODE_WAKTU_TIDAK_VALID
Gagal melakukan operasi prosesor stateful=<operationType>
dengan timeMode yang tidak valid=<timeMode>
PROSESOR_BERSTATUS_DUPLIKASI_VARIABEL_STATUS_DITENTUKAN
Variabel status dengan nama <stateVarName>
telah ditentukan dalam StatefulProcessor.
PROSESOR_STATEFUL_MODUS_WAKTU_SALAH_UNTUK_MENETAPKAN_TTL
Tidak dapat menggunakan TTL untuk state=<stateName>
di timeMode=<timeMode>
, gunakan TimeMode.ProcessingTime() sebagai gantinya.
DURASI_TTL_PROSESOR_BERSTATUS_HARUS_POSITIF
Durasi TTL harus lebih besar dari nol untuk operasi penyimpanan status=<operationType>
pada status=<stateName>
.
PROSESOR_BERSTATUS_MODE_WAKTU_TIDAK_DIKENAL
Mode waktu yang tidak diketahui <timeMode>
. Mode-mode timeMode yang diterima adalah: 'none', 'processingTime', 'eventTime'
STATE_STORE_TIDAK_BISA_MEMBUAT_KELUARGA_KOLOM_DENGAN_KARAKTER_YANG_DICADANGKAN
Gagal membuat keluarga kolom dengan karakter awal yang tidak didukung dan nama=<colFamilyName>
.
TIDAK DAPAT MENGGUNAKAN KELUARGA KOLOM DENGAN NAMA TIDAK VALID DI TAHANAN NEGARA
Gagal melakukan operasi keluarga kolom=<operationName>
dengan nama yang tidak valid=<colFamilyName>
. Nama kumpulan kolom tidak boleh kosong, tidak boleh menyertakan spasi di awal/akhir, dan tidak boleh menggunakan kata kunci yang dicadangkan, yaitu default.
STATE_STORE_COLUMN_FAMILY_SKEMA_TIDAK_SESUAI
Transformasi skema yang tidak kompatibel dengan keluarga kolom=<colFamilyName>
, oldSchema=<oldSchema>
, newSchema=<newSchema>
.
TOKO_STATUS_TIDAK_MENDUKUNG_ITERATOR_DAPAT_DIPAKAI_ULANG
StateStore <inputClass>
tidak mendukung iterator yang dapat digunakan kembali.
PENANGANAN_TOKO_STATUS_BELUM_DINISIALISASI
Pegangan belum diinisialisasi untuk StatefulProcessor.
Harap hanya gunakan StatefulProcessor dalam operator transformWithState.
JUMLAH_KOLOM_URUTAN_TIDAK_TEPAT_DI_STATE_STORE_UNTUK_PEMINDAIAN_RENTANG
Jumlah ordinal urutan yang salah yakni<numOrderingCols>
untuk encoder pemindaian rentang. Jumlah ordinal pengurutan tidak boleh nol atau lebih besar dari jumlah kolom skema.
Jumlah kolom awalan yang salah untuk pemindaian awalan di penyimpanan status
Jumlah kolom prefiks yang salah=<numPrefixCols>
untuk encoder pemindaian prefiks. Kolom awalan tidak boleh nol atau lebih besar dari atau sama dengan num kolom skema.
KONFIGURASI_TOKO_STATUS_TIDAK_VALID_SETELAH_DIMULAI_ULANG
Tidak dapat mengubah <configName>
dari <oldConfig>
ke <newConfig>
di antara mulai ulang. Atur <configName>
ke <oldConfig>
, atau mulai ulang dengan direktori titik pemeriksaan baru.
PENYEDIA_TIDAK_VALID_TOKO_STATUS
Penyedia Penyimpanan Status yang diberikan <inputClass>
tidak mengimplementasikan org.apache.spark.sql.execution.streaming.state.StateStoreProvider.
PERUBAHAN_JENIS_VARIBA_TIDAK_VALID_PADA_PENYIMPANAN_STATUS
Tidak dapat mengubah <stateVarName>
menjadi <newType>
di antara mulai ulang kueri. Atur <stateVarName>
ke <oldType>
, atau mulai ulang dengan direktori titik pemeriksaan baru.
PENYIMPANAN_STATUS_ROCKSDB_NATIVE_TIMEOUT
Saat mengakses penyimpanan status RocksDB untuk operasi streaming stateful, memanggil fungsi <funcName>
RocksDB asli kehabisan waktu setelah waktu tunggu habis=<timeoutMs>
ms. Silakan coba lagi dan mulai ulang kluster jika kesalahan berlanjut.
PENYIMPANAN_STATUS_KOLOM_PENGURUTAN_JENIS_NULL_TIDAK_DIDUKUNG
Kolom pengurutan tipe null dengan nama=<fieldName>
pada indeks=<index>
tidak didukung untuk pengkodean pemindaian rentang.
Penyedia Penyimpanan Negara Tidak Mendukung Pemutaran Kembali Status Secara Detail
Penyedia Penyimpanan Status yang diberikan <inputClass>
tidak mendukung org.apache.spark.sql.execution.streaming.state.SupportsFineGrainedReplay.
Oleh karena itu, ini tidak mendukung opsi snapshotStartBatchId atau readChangeFeed di sumber data status.
AMBANG_BATAS_BERKAS_SKEMA_STATUS_PENYIMPANAN_STATUS_TERLAMPAUI
Jumlah file skema status <numStateSchemaFiles>
melebihi jumlah maksimum file skema status untuk kueri ini: <maxStateSchemaFiles>
.
Ditambahkan: <addedColumnFamilies>
, Dihapus: <removedColumnFamilies>
Atur 'spark.sql.streaming.stateStore.stateSchemaFilesThreshold' ke nilai yang lebih tinggi, atau kembalikan modifikasi skema status.
OPERASI_TIDAK_DIDUKUNG_PADA_KOLOM_KELUARGA_YANG_HILANG_DI_PENYIMPANAN_STATUS
Operasi penyimpanan status=<operationType>
tidak didukung pada keluarga kolom yang hilang=<colFamilyName>
.
Batas Evolusi Skema Nilai di Toko Status Terlampaui
Jumlah evolusi skema status <numSchemaEvolutions>
melebihi jumlah maksimum evolusi skema status, <maxSchemaEvolutions>
, yang diizinkan untuk keluarga kolom ini.
Keluarga kolom yang bermasalah: <colFamilyName>
Atur 'spark.sql.streaming.stateStore.valueStateSchemaEvolutionThreshold' ke angka yang lebih tinggi, atau kembalikan modifikasi skema status
KOLOM_PENYIMPAN_STATUS_BERVARIABEL_TIDAK_MENDUKUNG_PENGURUTAN
Kolom pengurutan ukuran variabel dengan nama=<fieldName>
pada indeks=<index>
tidak didukung untuk encoder pemindaian rentang.
Kolom Partisi Statis dalam Daftar Kolom Insert
Kolom partisi statis <staticName>
juga ditentukan dalam daftar kolom.
STDS_KUMPULAN_TERKOMITMEN_TIDAK_TERSEDIA
Tidak ada batch yang dikomitmenkan yang ditemukan, lokasi titik pemeriksaan: <checkpointLocation>
. Pastikan bahwa kueri telah dijalankan dan setiap mikrobatch telah dikomit sebelum berhenti.
OPSI_KONFLIK_STDS
Opsi <options>
tidak dapat ditentukan bersama-sama. Tentukan yang satu.
GAGAL_MEMBACA_METADATA_OPERATOR
Gagal membaca metadata operator untuk checkpointLocation=<checkpointLocation>
dan batchId=<batchId>
.
File tidak ada, atau file rusak.
Jalankan ulang kueri streaming untuk membuat metadata operator, dan laporkan ke komunitas atau vendor terkait jika kesalahan berlanjut.
STDS_GAGAL_MEMBACA_SKEMA_STATUS
Gagal membaca skema status. File tidak ada, atau file rusak. opsi: <sourceOptions>
.
Jalankan ulang kueri streaming untuk membuat skema status, dan laporkan ke komunitas atau vendor yang sesuai jika kesalahan berlanjut.
STDS_NILAI_OPSI_TIDAK_VALID
Nilai tidak valid untuk opsi sumber '<optionName>
':
Untuk informasi lebih lanjut, lihat STDS_INVALID_OPTION_VALUE
Tidak Ada Partisi yang Ditemukan di State Store
Status tidak memiliki partisi apa pun. Silakan periksa kembali apakah kueri menunjuk ke status yang valid. opsi: <sourceOptions>
STDS_OFFSET_LOG_TIDAK_TERSEDIA
Log offset untuk <batchId>
tidak ada, lokasi cek poin: <checkpointLocation>
.
Tentukan ID batch yang tersedia untuk kueri - Anda dapat mengkueri ID batch yang tersedia melalui menggunakan sumber data metadata status.
Log Metadata Offset STDS Tidak Tersedia
Metadata tidak tersedia untuk log offset untuk <batchId>
, lokasi titik pemeriksaan: <checkpointLocation>
.
Titik pemeriksaan tampaknya hanya dapat dijalankan dengan versi Spark yang lebih lama. Jalankan kueri streaming dengan versi Spark terbaru, sehingga Spark membuat metadata status.
STDS_OPSI_DIBUTUHKAN_TIDAK_DITENTUKAN
'<optionName>
' harus ditentukan.
STREAMING_AQE_TIDAK_DIDUKUNG_UNTUK_OPERATOR_STATEFUL
Eksekusi Kueri Adaptif tidak didukung untuk operator stateful dalam Streaming Terstruktur.
STREAMING_DARI_TAMPILAN_MATERIALISASI
Tidak dapat melakukan streaming dari tampilan terwujud <viewName>
. Streaming dari tampilan yang dimaterialisasi tidak didukung.
STREAMING_OUTPUT_MODE
Mode output streaming tidak valid: <outputMode>
.
Untuk informasi lebih lanjut, lihat STREAMING_OUTPUT_MODE
MODE_STREAMING_WAKTU_NYATA
Mode streaming real-time memiliki batasan berikut:
Untuk mengetahui detail lebih lanjut, lihat STREAMING_REAL_TIME_MODE
STATUS_STREAMING_OPERATOR_YANG_MENYIMPAN_DATA_TIDAK_SESUAI_DALAM_METADATA_STATUS
Nama operator streaming stateful tidak cocok dengan operator dalam metadata status. Ini kemungkinan terjadi ketika pengguna menambahkan/menghapus/mengubah operator stateful dari kueri streaming yang ada.
Operator stateful pada metadata: [<OpsInMetadataSeq>
]; Operator stateful pada batch saat ini: [<OpsInCurBatchSeq>
].
TABEL_STREAMING_MEMBUTUHKAN_PEMBARUAN
tabel streaming <tableName>
perlu di-refresh untuk menjalankan <operation>
.
Jika tabel dibuat dari DBSQL
, jalankan REFRESH STREAMING TABLE
.
Jika tabel dibuat oleh Lakeflow Declarative Pipelines, jalankan pembaruan alur.
TABEL_STREAMING_TIDAK_DIDUKUNG
tabel streaming hanya dapat dibuat dan disegarkan di Alur Deklaratif Lakeflow dan Gudang SQL Databricks.
OPERASI_TABEL_STREAMING_TIDAK_DIIJINKAN
Operasi <operation>
tidak diperbolehkan:
Untuk detail lebih lanjut, lihat STREAMING_TABLE_OPERATION_NOT_ALLOWED
Query_Tabel_Stream_Tidak_Sah
Tabel streaming <tableName>
hanya bisa dibuat dari sebuah kueri streaming. Tambahkan kata kunci STREAM
ke klausa FROM
Anda untuk mengubah hubungan ini menjadi kueri streaming.
ALIRAN_TIDAK_DITEMUKAN_UNTUK_SUMBER_KINESIS
Aliran Kinesis <streamName>
di <region>
tidak ditemukan.
Silakan mulai kueri baru yang mengarah ke nama stream yang benar.
Ketidakcocokan Panjang Array Struktur
Baris input tidak memiliki jumlah nilai yang diharapkan yang diperlukan oleh skema. bidang <expected>
diperlukan jika nilai <actual>
disediakan.
JUMLAH_BATAS_DAN_OFFSET_MELEBIHI_INT_MAKS
Jumlah klausa LIMIT
dan klausul OFFSET
tidak boleh lebih besar dari nilai bilangan bulat maksimum 32-bit (2.147.483.647) tetapi batas yang ditemukan = <limit>
, offset = <offset>
.
Hanya Sinkronisasi Metadata Delta
Perintah sinkronisasi metadata tabel hanya didukung untuk tabel delta.
Sinkronisasi_Sumber_Target_Tabel_Tidak_Sama
Nama tabel sumber <srcTable>
harus sama dengan nama tabel tujuan <destTable>
.
SINTAKSIS_DIHENTIKAN
Dukungan klausa atau kata kunci: <clause>
telah dihentikan dalam konteks ini.
Untuk informasi lebih lanjut, lihat SYNTAX_DISCONTINUED
TABEL_OR_VIEW_SUDAH_ADA
Tidak dapat membuat tabel atau menampilkan <relationName>
karena sudah ada.
Pilih nama yang berbeda, hapus objek yang ada, tambahkan klausa IF NOT EXISTS
untuk mentolerir objek yang sudah ada sebelumnya, tambahkan klausa OR REPLACE
untuk mengganti tampilan materialisasi yang ada, atau tambahkan klausa OR REFRESH
untuk memperbarui tabel streaming yang ada.
TABEL_ATAU_TAMPILAN_TIDAK_DITEMUKAN
Tabel atau tampilan <relationName>
tidak dapat ditemukan. Verifikasi ejaan dan kebenaran skema dan katalog.
Jika Anda tidak menentukan nama dengan skema, periksa output dari current_schema(), atau tentukan nama dengan skema dan katalog yang benar.
Untuk mentolerir kesalahan saat drop, gunakan DROP VIEW IF EXISTS
atau DROP TABLE IF EXISTS
.
Untuk informasi lebih lanjut, lihat TABLE_OR_VIEW_NOT_FOUND
ARGUMEN_BERBENTUK_TABEL_BELUM_DIIMPLEMENTASIKAN_UNTUK_FUNGSI_SQL
Tidak dapat <action>
fungsi buatan pengguna SQL <functionName>
dengan argumen TABLE
karena fungsionalitas ini belum diimplementasikan.
FUNGSI_BERNILAI_TABEL_GAGAL_DIPERIKSA_DI_PYTHON
Gagal menganalisis fungsi tabel yang ditentukan pengguna Python: <msg>
FUNGSI_BERNILAI_TABEL_METADATA_YANG_DIPERLUKAN_TIDAK_KOMPATIBEL_DENGAN_PANGGILAN
Gagal mengevaluasi fungsi tabel <functionName>
karena metadata tabelnya <requestedMetadata>
, tetapi panggilan fungsi <invalidFunctionCallProperty>
.
FUNGSI_DENGAN_TABEL_METADATA_DIBUTUHKAN_TIDAK_VALID
Gagal mengevaluasi fungsi tabel <functionName>
karena metadata tabelnya tidak valid; <reason>
.
FUNGSI_BERBASIS_TABEL_TERLALU_BANYAK_ARGUMEN_TABEL
Ada terlalu banyak argumen terkait tabel untuk fungsi yang bernilai tabel.
Fungsi ini memungkinkan satu argumen tabel, tetapi menerima: <num>
.
Jika Anda ingin mengizinkannya, atur "spark.sql.allowMultipleTableArguments.enabled" ke "true"
TABEL_DENGAN_ID_TIDAK_DITEMUKAN
Tabel dengan ID <tableId>
tidak dapat ditemukan. Verifikasi kebenaran UUID.
Tugas Penulisan Gagal
Tugas gagal saat menulis baris data ke <path>
.
LOKASI_TEMP_CHECKPOINT_TIDAK_DIDUKUNG
Lokasi titik pemeriksaan streaming sementara implisit tidak didukung di ruang kerja saat ini, tentukan lokasi titik pemeriksaan secara eksplisit.
Untuk display(), atur lokasi titik pemeriksaan menggunakan:
display(df, checkpointLocation = "your_path")
Untuk semua kueri streaming lainnya, gunakan:
.option("checkpointLocation", "your_path").
PEMBUATAN_TABEL_SEMENTARA_LEGACY_DENGAN_QUERY
CREATE TEMPORARY TABLE
... sebagai ... tidak didukung di sini, silakan gunakan CREATE TEMPORARY VIEW
saja.
SPESIFIKASI_EKSKLUSIF_RENCANA_PEMBUATAN_MEJA_SEMENTARA
CREATE TEMPORARY TABLE
tidak mendukung penentuan <unsupportedSpec>
, silakan buat tabel permanen sebagai gantinya.
PEMBUATAN_TABEL_SEMENTARA_MEMBUTUHKAN_NAMA_BAGIAN_TUNGGAL
Membuat tabel sementara lokal sesi memerlukan satu nama tabel bagian, namun menerima <tableName>
. Perbarui perintah untuk menggunakan nama tabel bagian tunggal dan coba lagi.
Penghapusan_Tabel_Sementara_Spesifikasi_Eksklusif_Mutual
DROP TEMPORARY TABLE
tidak mendukung penentuan <unsupportedSpec>
, hapus spesifikasi ini, atau letakkan tabel permanen sebagai gantinya menggunakan DROP TABLE
perintah.
Penghapusan tabel sementara memerlukan nama bagian tunggal
Menghapus tabel sementara sesi-lokal memerlukan nama tabel dengan satu bagian, tetapi mendapatkan <tableName>
. Harap perbarui DROP TEMPORARY TABLE
perintah untuk menggunakan nama tabel bagian tunggal untuk menghilangkan tabel sementara, atau gunakan DROP TABLE
perintah sebagai gantinya untuk menghilangkan tabel permanen.
PENGHAPUSAN_TABEL_SEMENTARA_MEMBUTUHKAN_PERINTAH_V2
DROP TEMPORARY TABLE
memerlukan mengaktifkan perintah V2. Atur konfigurasi "spark.sql.legacy.useV1Command" ke false dan coba lagi.
TABEL_SEMENTARA_TIDAK_DITEMUKAN
Tabel <tableName>
sementara tidak dapat ditemukan dalam sesi saat ini. Verifikasi ejaan dan kebenaran nama tabel, dan coba lagi kueri atau perintah.
Untuk mentolerir kesalahan saat dihilangkan, gunakan DROP
TEMP TABLE IF EXISTS
.
TABEL_SEMENTARA_TIDAK_DIDUKUNG_DENGAN_HMS
Operasi tabel sementara <operation>
tidak didukung di Hive Metastore.
OPERASI_TABEL_SEMENTARA_TIDAK_DIDUKUNG
Operasi pada tabel sementara lokal-sesi <tableName>
tidak didukung.
Untuk informasi lebih lanjut, lihat TEMP_TABLE_OPERATION_NOT_SUPPORTED
TABEL_SEMENTARA_ATAU_TAMPILAN_SUDAH_ADA
Tidak dapat membuat tabel atau tampilan <relationName>
sementara karena sudah ada.
Pilih nama yang berbeda, hapus objek yang ada, atau tambahkan IF NOT EXISTS
klausa untuk mentolerir objek yang sudah ada.
TABEL_SEMENTARA_MEMBUTUHKAN_DELTA
Operasi pada tabel sementara lokal sesi mengharuskan katalog Delta diaktifkan. Silakan aktifkan katalog Delta dan coba lagi.
TABEL_SEMENTARA_MEMBUTUHKAN_UC
Operasi pada tabel sementara lokal-sesi memerlukan Katalog Unity. Aktifkan Katalog Unity di lingkungan anda yang sedang berjalan dan coba lagi.
NAMA_TEMP_VIEW_TERLALU_BANYAK_BAGIAN_NAMA
CREATE TEMPORARY VIEW
atau API Dataset yang sesuai hanya menerima nama tampilan satu bagian, tetapi menerima: <actualName>
.
KOMA_TERAKHIR_DALAM_SELECT
Koma berikutnya terdeteksi dalam klausa SELECT
. Hapus koma berikutnya sebelum klausa FROM
.
TRANSAKSI_BATAS_MAKSIMAL_TANGGAL_KOMIT_DILEWATI
Transaksi tidak dapat diterapkan karena tanda waktu penerapan maks terlampaui. maxCommitTimestamp:<maxCommitTimestampMs>
commitTimestamp:<commitTimestampMs>
Kesalahan Fungsi Pengguna dengan Transformasi dan Status
Terjadi kesalahan dalam fungsi <function>
StatefulProcessor yang didefinisikan pengguna. Alasan: <reason>
.
TRANSPOSE_MELEBIHI_BATAS_BARIS
Jumlah baris melebihi batas <maxValues>
yang diizinkan untuk TRANSPOSE
. Jika ini dimaksudkan, atur <config>
ke setidaknya jumlah baris saat ini.
TRANSPOSE_INDEKS_KOLOM_TIDAK_VALID
Kolom indeks tidak valid untuk TRANSPOSE
karena: <reason>
TRANSPOSE_TIDAK_ADA_JENIS_UMUM_TERMURAH
Transpose memerlukan kolom non-indeks untuk berbagi jenis yang paling tidak umum, tetapi <dt1>
dan <dt2>
tidak.
INTERVAL PEMICU TIDAK VALID
Interval pemicu harus berupa durasi positif yang dapat dikonversi menjadi seluruh detik. Diterima: <actual>
detik.
TUPLE_KOSONG
Karena dukungan tupel Scala yang terbatas, tuple kosong tidak didukung.
UKURAN_TUPLE_MELEBIHI_BATAS
Karena dukungan tupel Scala yang terbatas, tuple dengan lebih dari 22 elemen tidak didukung.
UC_BUCKETED_TABELS
Tabel yang dikelompokkan dalam bucket tidak didukung di Unity Catalog.
Nama_katalog_UC_tidak_disediakan
Untuk Katalog Unity, tentukan nama katalog secara eksplisit. Misalnya SHOW GRANT your.address@email.com ON CATALOG
utama.
PERINTAH_TIDAK_DIDUKUNG
Perintah: <commandName>
tidak didukung di Katalog Unity.
Untuk detail selengkapnya, lihat UC_COMMAND_NOT_SUPPORTED
UC_PERINTAH_TIDAK_DIDUKUNG_DALAM_SERVERLESS
Perintah <commandName>
tidak didukung untuk kluster Katalog Unity dalam lingkungan tanpa server. Gunakan satu pengguna atau kluster bersama sebagai gantinya.
UC_COMMAND_NOT_SUPPORTED_IN_SHARED_ACCESS_MODE (Perintah UC tidak didukung dalam mode akses bersama)
Perintah-perintah: <commandName>
tidak didukung untuk klaster Katalog Unity dalam mode akses bersama. Gunakan mode akses pengguna tunggal sebagai gantinya.
Koneksi tidak ditemukan untuk akses sumber sistem file
Tidak dapat menemukan koneksi UC yang valid untuk diakses <path>
setelah mengevaluasi <connectionNames>
.
Pastikan bahwa setidaknya satu koneksi UC yang valid tersedia untuk mengakses jalur target.
Kesalahan terperinci untuk koneksi yang dievaluasi:
<connectionErrors>
Tujuan Kredensial UC Tidak Didukung
Jenis kredensial yang ditentukan tidak didukung.
SUMBER_DATA_UC_TIDAK_DIDUKUNG
Format sumber data <dataSourceFormatName>
tidak didukung di Unity Catalog.
UC_DATASOURCE_OPTIONS_TIDAK_DIDUKUNG
Opsi sumber data tidak didukung di Katalog Unity.
UC_DEPENDENCY_DOES_NOT_EXIST (ketergantungan UC tidak ada)
Dependensi tidak ada di Katalog Unity:
<errorMessage>
Volume Eksternal Tidak Ditemukan Lokasinya
klausa LOCATION
harus ada untuk volume eksternal. Silakan periksa sintaks 'CREATE EXTERNAL VOLUME
... ... LOCATION
' untuk membuat volume eksternal.
UC_GAGAL_STATUS_PENYEDIAAN
Kueri gagal karena mencoba merujuk ke tabel <tableName>
tetapi tidak dapat melakukannya: <failureReason>
. Perbarui tabel <tableName>
untuk memastikan tabel berada dalam status Provisi aktif lalu coba lagi kueri tersebut.
Skema_BERKAS_UC_UNTUK_PEMBUATAN_TABEL_TIDAK_DIDUKUNG
Membuat tabel di Unity Catalog dengan skema file <schemeName>
tidak didukung.
Sebagai gantinya, buat koneksi sumber data federasi menggunakan perintah CREATE CONNECTION
untuk penyedia tabel yang sama, lalu buat katalog berdasarkan koneksi dengan perintah CREATE FOREIGN CATALOG
untuk mereferensikan tabel di dalamnya.
UC_HIVE_METASTORE_FEDERATION_CROSS_CATALOG_VIEW_TIDAK_DIDUKUNG
Tampilan Federasi Metastore Apache Hive tidak mendukung dependensi antar beberapa katalog. Tampilan <view>
di katalog Federasi Metastore Hive harus menggunakan dependensi dari katalog hive_metastore atau spark_catalog, tetapi dependensinya <dependency>
berada di katalog lain <referencedCatalog>
. Perbarui dependensi untuk memenuhi batasan ini lalu coba lagi kueri atau perintah Anda.
Federation Metastore Hive Tidak Diaktifkan
Federasi Apache Hive Metastore tidak diaktifkan pada kluster ini.
Mengakses katalog <catalogName>
tidak didukung pada kluster ini
UC_KETIDAKVALIDAN_DEPENDENSI
Dependensi <viewName>
dicatat sebagai <storedDeps>
saat diuraikan sebagai <parsedDeps>
. Ini kemungkinan terjadi melalui penggunaan API non-SQL yang tidak tepat. Anda dapat memperbaiki dependensi di Databricks Runtime dengan menjalankan ALTER VIEW <viewName>
AS <viewText>
.
UC_NAMESPACE_TIDAK_SAH
Namespace berlapis atau kosong tidak didukung di Katalog Unity.
UC_REFERENSI_TIDAK_VALID
Objek <name>
non-Unity-Catalog tidak dapat dirujuk dalam objek Katalog Unity.
Penulisan di Federasi Lakehouse Tidak Diizinkan
Dukungan tulis Unity Catalog Lakehouse Federation tidak diaktifkan untuk penyedia <provider>
pada kluster ini.
LOKASI_UC_UNTUK_VOLUME_TERKELOLA_TIDAK_DIDUKUNG
Volume yang dikelola tidak menerima klausa LOCATION
. Silakan periksa sintaks 'CREATE VOLUME
...' untuk membuat volume terkelola.
UC_NOT_ENABLED (UC_TIDAK_DIAKTIFKAN)
Katalog Unity tidak diaktifkan pada kluster ini.
Federasi Kuery UC Tidak Diaktifkan
Federasi Kueri Katalog Unity tidak diaktifkan pada kluster ini.
UC_RESOLVED_DBFS_PATH_MISMATCH
Kueri gagal karena mencoba merujuk pada <objectType> <name>
namun tidak dapat melakukannya: Jalur DBFS <resolvedHmsPath>
yang telah diselesaikan tidak cocok dengan penyimpanan lokasi Katalog Unity <ucStorageLocation>
.
Kredensial layanan UC tidak aktif
Kredensial layanan tidak diaktifkan pada kluster ini.
UC_VOLUMES_TIDAK_DIAKTIFKAN
Dukungan untuk Unity Catalog Volumes tidak diaktifkan pada instance ini.
BERBAGI_VOLUME_TIDAK_DIAKTIFKAN
Dukungan untuk Berbagi Volume tidak diaktifkan pada instans ini.
UC_VOLUME_TIDAK_DITEMUKAN
Volume <name>
tidak ada. Silakan gunakan 'SHOW VOLUMES
' untuk mencantumkan volume yang tersedia.
KESALAHAN_LINGKUNGAN_UDF
Gagal menginstal dependensi UDF untuk <udfName>
karena kesalahan sistem.
Untuk detail selengkapnya, lihat UDF_ENVIRONMENT_ERROR
UDF_ENVIRONMENT_USER_ERROR (Kesalahan Pengguna Lingkungan UDF)
Gagal menginstal dependensi UDF untuk <udfName>
.
Untuk detail selengkapnya, lihat UDF_ENVIRONMENT_USER_ERROR
UDF_ERROR
SQLSTATE: tidak ada yang ditetapkan
Eksekusi fungsi <fn>
gagal
Untuk detail selengkapnya, lihat UDF_ERROR
UDF_LIMITS
Satu atau beberapa batas UDF dilanggar.
Untuk detail selengkapnya, lihat UDF_LIMITS
UDF_MAX_COUNT_EXCEEDED (Jumlah Maksimum UDF Terlampaui)
Melebihi batas UDF sekueri dengan batas <maxNumUdfs>
UDF (diberlakukan selama pratinjau publik). Ditemukan <numUdfs>
. UDF tersebut adalah: <udfNames>
.
UDF_PYSPARK_ERROR
Pekerja Python keluar secara tak terduga
Untuk detail selengkapnya, lihat UDF_PYSPARK_ERROR
UDF_PYSPARK_JENIS_YANG_TIDAK_DIDUKUNG
PySpark UDF <udf> (<eval-type>
) tidak didukung pada kluster dalam mode Akses bersama.
UDF_PYSPARK_USER_CODE_ERROR
Eksekusi gagal.
Untuk detail selengkapnya, lihat UDF_PYSPARK_USER_CODE_ERROR
UDF_NILAI_DEFAULT_PARAMETER_TIDAK_DIDUKUNG
Nilai default parameter tidak didukung untuk fungsi <functionType>
yang ditentukan pengguna.
UDF_USER_CODE_ERROR
Eksekusi fungsi <fn>
gagal.
Untuk detail selengkapnya, lihat UDF_USER_CODE_ERROR
KETIDAKCOCOKAN_NOMOR_ALIAS_UDTF
Jumlah alias yang disediakan dalam klausul AS tidak sesuai dengan jumlah kolom yang dihasilkan oleh UDTF.
Alias <aliasesSize>
yang diharapkan, tetapi yang didapat adalah <aliasesNames>
.
Pastikan bahwa jumlah alias yang disediakan cocok dengan jumlah output kolom oleh UDTF.
UDTF_TIDAK_VALID_ALIAS_DALAM_DIMINTA_STRING_PENYUSUNAN_DARI_METODE_ANALISA
Gagal mengevaluasi fungsi tabel yang ditentukan pengguna karena metode 'analisis' mengembalikan OrderingColumn yang diminta yang ekspresi nama kolomnya menyertakan alias <aliasName>
yang tidak perlu ; hapus alias ini lalu coba kueri lagi.
UDTF_EKSPRESI_YANG_DIPILIH_TIDAK_VALID_DARI_METODE_ANALISIS_MEMERLUKAN_ALIAS
Gagal mengevaluasi fungsi tabel yang ditentukan pengguna karena metode 'analisis' mengembalikan ekspresi 'pilih' yang diminta (<expression>
) yang tidak menyertakan alias yang sesuai; perbarui UDTF untuk menentukan alias di sana lalu coba kueri lagi.
TIDAK DAPAT MEMPEROLEH MEMORI
Tidak dapat memperoleh <requestedBytes>
byte memori, hanya mendapatkan <receivedBytes>
.
Tidak dapat mengonversi ke tipe pesan Protobuf
Tidak dapat mengonversi jenis SQL <toType>
ke tipe Protobuf <protobufType>
.
TIDAK_BISA_MENDAPATKAN_TABEL_HIVE
Tidak dapat mengambil tabel basis data Hive: <dbName>
. Nama Kelas Kesalahan: <className>
.
TIDAK DAPAT MENDUGA SKEMA
Tidak dapat menyimpulkan skema untuk <format>
. Ini harus ditentukan secara manual.
Akses Tanpa Izin
Akses tidak sah:
<report>
PARAMETER_SQL_TIDAK_TERIKAT
Menemukan parameter tidak terikat: <name>
. Silakan, perbaiki args
dan berikan pemetaan parameter ke fungsi konstruktor literal atau koleksi SQL seperti map()
, array()
, struct()
.
KOMENTAR_BERCURUNG_TERBUKA
Menemukan komentar berkurung yang tidak tertutup. Harap tambahkan */ di akhir komentar.
TIPE_INPUT_TIDAK_TERDUGA
Parameter <paramIndex>
fungsi <functionName>
memerlukan jenis <requiredType>
, namun <inputSql>
memiliki jenis <inputType>
.
TIPE_INPUT_TIDAK_TERDUGA_DARI_PARAMETER_BERNAMA
Parameter <namedParamKey>
fungsi <functionName>
memerlukan jenis <requiredType>
, namun <inputSql>
memiliki jenis <inputType>
.<hint>
OPERATOR_TAK_TERDUGA_DALAM_TAMPILAN_STREAMING
Operator yang tidak terduga <op>
dalam pernyataan CREATE VIEW
sebagai sumber streaming.
Kueri tampilan streaming hanya boleh terdiri dari operasi SELECT
, WHERE
, dan UNION ALL
.
Argumen_posisi_tidak_diharapkan
Tidak dapat memanggil rutin <routineName>
karena berisi argumen posisi setelah argumen bernama yang ditetapkan ke <parameterName>
; harap susun ulang agar argumen posisi menjadi yang pertama, kemudian coba lagi mengeksekusi kuerinya.
PENYERIAL TAK TERDUGA UNTUK KELAS
Kelas <className>
memiliki serializer ekspresi yang tidak terduga. Mengharapkan "STRUCT
" atau "IF
" yang mengembalikan "STRUCT
", tetapi malah menemukan <expr>
.
"UNION_TIDAK_DIDUKUNG_DALAM_CTE_REKURSIF"
Operator UNION
belum didukung dalam ekspresi tabel umum rekursif (WITH
klausa yang merujuk pada diri mereka sendiri, secara langsung atau tidak langsung). Silakan gunakan UNION ALL
sebagai gantinya.
Pengecualian_Bidang_Tidak_Dikenal
Mengalami <changeType>
selama penguraian: <unknownFieldBlob>
, yang dapat diperbaiki dengan melakukan percobaan otomatis lagi: <isRetryable>
Untuk informasi lebih lanjut, silakan lihat UNKNOWN_FIELD_EXCEPTION
ARGUMEN_POSISIONAL_TIDAK_DIKENAL
Pemanggilan rutin <routineName>
berisi argumen posisional tidak dikenal <sqlExpr>
pada posisi <pos>
. Ini tidak valid.
JENIS_PRIMITIF_TIDAK_DIKENAL_DALAM_VARIAN
Ditemukan jenis primitif tidak dikenal dengan id <id>
dalam nilai varian.
TIPE PESAN PROTOBUF TIDAK DIKENAL
Mencoba memperlakukan <descriptorName>
sebagai Pesan, namun ternyata <containingType>
.
UNPIVOT_MEMBUTUHKAN_ATRIBUT
UNPIVOT
mengharuskan semua ekspresi <given>
yang diberikan menjadi kolom ketika tidak ada ekspresi <empty>
yang diberikan. Ini bukan kolom: [<expressions>
].
UNPIVOT_MEMBUTUHKAN_KOLOM_NILAI
Setidaknya satu kolom nilai perlu ditentukan untuk UNPIVOT
, semua kolom yang ditentukan sebagai id.
Ketidakcocokan_tipe_data_unpivot_value
Kolom nilai unpivot harus berbagi tipe paling umum, beberapa jenis tidak berbagi tipe tersebut: [<types>
].
Ketidaksesuaian_Ukuran_Nilai_Unpivot
Semua kolom nilai unpivot harus memiliki ukuran yang sama dengan nama kolom nilai (<names>
).
NAMA_PARAMETER_TIDAK_DIKENAL
Tidak dapat memanggil rutin <routineName>
karena panggilan rutin menggunakan referensi argumen bernama untuk argumen bernama <argumentName>
, tetapi rutinitas ini tidak menyertakan parameter apa pun yang berisi argumen dengan nama ini. Maksudmu salah satu dari berikut ini? [<proposal>
].
Tipe_SQL_Tidak_Terkenal
Jenis SQL yang tidak dikenal - nama: <typeName>
, id: <jdbcType>
.
STATISTIK_TIDAK_DIKENALI
Statistik <stats>
tidak dikenali. Statistik yang valid termasuk nilai count
, count_distinct
, approx_count_distinct
, mean
, stddev
, min
, max
, dan persentil. Persentil harus berupa nilai numerik diikuti oleh '%', dalam rentang 0% hingga 100%.
FUNGSI_BERNILAI_TABEL_YANG_TIDAK_DAPAT_DIPECAHKAN
Tidak dapat menyelesaikan <name>
sebagai fungsi yang bernilai tabel.
Pastikan bahwa <name>
didefinisikan sebagai fungsi bernilai tabel dan semua parameter yang diperlukan disediakan dengan benar.
Jika <name>
tidak ditentukan, buat fungsi bernilai tabel sebelum menggunakannya.
Untuk informasi selengkapnya tentang menentukan fungsi bernilai tabel, lihat dokumentasi Apache Spark.
Tidak Terpecahkan Semuanya Dalam Grup Berdasarkan
Tidak dapat menyimpulkan kolom pengelompokan untuk GROUP BY ALL
berdasarkan klausa SELECT. Tentukan kolom pengelompokan secara eksplisit.
KOLOM_TIDAK_TERSELESAIKAN
Parameter kolom, variabel, atau fungsi dengan nama <objectName>
tidak dapat diselesaikan.
Untuk detail selengkapnya, lihat UNRESOLVED_COLUMN
BIDANG_BELUM_SELESAI
Bidang dengan nama <fieldName>
tidak dapat diselesaikan dengan kolom jenis struct <columnPath>
.
Untuk detail selengkapnya, lihat UNRESOLVED_FIELD
SISIPAN_GANTI_MENGGUNAKAN_KOLOM_TIDAK_TERSELESAIKAN
REPLACE USING
kolom <colName>
tidak dapat diselesaikan di <relationType>
.
Apakah Anda memaksudkan salah satu kolom berikut? [<suggestion>
].
KUNCI_PETA_TIDAK_TERSELESAIKAN
Tidak dapat memecahkan kolom <objectName>
sebagai kunci pemetaan. Jika kuncinya adalah string literal, tambahkan tanda kutip tunggal '' di sekitarnya.
Untuk informasi lebih lanjut, lihat UNRESOLVED_MAP_KEY
RUTINITAS_BELUM_TERATASI
Tidak dapat menyelesaikan rutinitas <routineName>
pada jalur pencarian <searchPath>
.
Verifikasi ejaan <routineName>
, periksa apakah rutinitas tersebut ada, dan pastikan Anda memiliki hak istimewa USE
pada katalog dan skema, serta hak istimewa EXECUTE
pada rutinitas tersebut.
Untuk detail selengkapnya, lihat UNRESOLVED_ROUTINE
KOLOM_MENGGUNAKAN_YANG_TIDAK_TERSELESAIKAN_UNTUK_GABUNGAN
Kolom USING
<colName>
tidak dapat diselesaikan di sisi gabungan <side>
. Kolom sisi <side>
: [<suggestion>
].
VARIABEL_TIDAK_TERSELESAIKAN
Tidak dapat mengatasi variabel <variableName>
pada jalur pencarian <searchPath>
.
Pemrosesan_Data_Tidak_Terstruktur_Format_Berkas_Tidak_Didukung
Format file yang tidak terstruktur <format>
tidak didukung. Format berkas yang didukung: <supportedFormats>
.
Perbarui format
dari ekspresi <expr>
Anda ke salah satu format yang didukung lalu coba lagi kueri tersebut.
Pemrosesan_Data_Tidak_Terstruktur_Opsi_Model_Tidak_Didukung
Opsi model yang tidak terstruktur ('<option>
' ->
'<value>
') tidak didukung. Nilai yang didukung adalah: <supportedValues>
.
Beralih ke salah satu nilai yang didukung lalu coba lagi kueri.
KOLOM_OCR_TIDAK_TERSTRUKTUR_TIDAK_DIIJINKAN_DENGAN_OPSI_MODEL_METADATA
Parameter fungsi 'ocrText' harus berupa NULL
atau dihilangkan ketika opsi 'metadataModel' ditentukan. Opsi 'metadataModel' tertentu memicu ekstraksi metadata, di mana 'ocrText' yang disediakan dilarang.
TIDAK MENDUKUNG_PENAMBAHAN_BERKAS
Tidak mendukung penambahan file.
Untuk informasi lebih lanjut, lihat UNSUPPORTED_ADD_FILE
PARAMETER_ALTER_KOLOM_TIDAK_DIDUKUNG
Menentukan <parameter>
dengan ALTER <commandTableType>
tidak didukung.
TIPE PANAH TIDAK DIDUKUNG
Tipe panah yang tidak didukung <typeName>
.
Fungsi Berbasis Tabel dalam Batch Tidak Didukung
Fungsi <funcName>
tidak mendukung kueri batch.
PANGGILAN_TIDAK_DIDUKUNG
Tidak dapat memanggil metode "<methodName>
" kelas "<className>
".
Untuk informasi lebih lanjut, lihat UNSUPPORTED_CALL
KARAKTER_TIDAK_DIDUKUNG_ATAU_VARCHAR_SEBAGAI_STRING
Jenis char/varchar tidak dapat digunakan dalam skema tabel.
Jika Anda ingin Spark memperlakukannya sebagai jenis string sama dengan Spark 3.0 dan yang lebih lama, atur "spark.sql.legacy.charVarcharAsString" ke "true".
KLAUSA_TIDAK_DIDUKUNG_UNTUK_OPERASI
<clause>
tidak didukung untuk <operation>
.
KOLOKASI_TIDAK_DIDUKUNG
Collation <collationName>
tidak didukung untuk:
Untuk informasi lebih lanjut, lihat UNSUPPORTED_COLLATION
Lokasi Nenek Moyang Umum Tidak Didukung untuk Sumber Aliran Berkas
Nenek moyang umum jalur sumber dan sourceArchiveDir harus terdaftar di UC.
Jika Anda melihat pesan kesalahan ini, kemungkinan Anda mendaftarkan jalur sumber dan sourceArchiveDir di lokasi eksternal yang berbeda.
Silakan masukkan mereka ke dalam satu lokasi eksternal.
Fitur Koneksi Tidak Didukung
Fitur tidak didukung di Spark Connect:
Untuk detail selengkapnya, lihat UNSUPPORTED_CONNECT_FEATURE
KLAUSA_KENDALA_TIDAK_DIDUKUNG
Klausa batasan <clauses>
tidak didukung.
UNSUPPORTED_CONSTRAINT_TYPE (Jenis batasan tidak didukung)
Jenis batasan yang tidak didukung. Hanya <supportedConstraintTypes>
yang didukung
SUMBER_DATA_TIDAK_DIDUKUNG_UNTUK_KUERl_LANGSUNG
Jenis sumber data yang tidak didukung untuk kueri langsung pada file: <dataSourceType>
TIPE DATA TIDAK DIDUKUNG
Jenis data yang tidak didukung <typeName>
.
MODE_SIMPAN_SUMBER_DATA_TIDAK_MENDUKUNG
Sumber data "<source>
" tidak dapat ditulis dalam <createMode>
mode . Silakan gunakan mode "Tambahkan" atau "Timpa" sebagai ganti.
TIPE_DATA_TIDAK_DIPERLUKAN_UNTUK_SUMBER_DATA
Sumber <format>
data tidak mendukung kolom <columnName>
jenis <columnType>
.
JENIS_DATA_TIDAK_DIDUKUNG_UNTUK_ENCODER
Tidak dapat membuat encoder untuk <dataType>
. Gunakan jenis data output yang berbeda untuk UDF atau DataFrame Anda.
NILAI DEFAULT TIDAK DIDUKUNG
Nilai kolom DEFAULT
tidak didukung.
Untuk detail selengkapnya, lihat UNSUPPORTED_DEFAULT_VALUE
UNSUPPORTED_DESERIALIZER
Deserializer tersebut tidak didukung
Untuk detail selengkapnya, lihat UNSUPPORTED_DESERIALIZER
EKSPRESI_TIDAK_DIDUKUNG_KOLOM_DIHASILKAN
Tidak dapat membuat kolom dihasilkan <fieldName>
dengan ekspresi pembuatan <expressionStr>
karena <reason>
.
Ekspresi Tidak Didukung untuk Operator
Operator kueri berisi satu atau beberapa ekspresi yang tidak didukung.
Pertimbangkan untuk menulis ulang untuk menghindari fungsi jendela, fungsi agregat, dan fungsi generator dalam klausa WHERE
.
Ekspresi tidak valid: [<invalidExprSqls>
]
Ekspresi yang tidak didukung untuk parameter (UNSUPPORTED_EXPR_FOR_PARAMETER)
Parameter kueri berisi ekspresi yang tidak didukung.
Parameter dapat berupa variabel atau harfiah.
Ekspresi tidak valid: [<invalidExprSql>
]
EKSPRESI_TIDAK_DIDUKUNG_UNTUK_JENDELA
Ekspresi <sqlExpr>
tidak didukung dalam fungsi jendela.
FITUR_TIDAK_DIDUKUNG
Fitur ini tidak didukung:
Untuk informasi lebih lanjut, lihat UNSUPPORTED_FEATURE
TIPE_FN_TIDAK_DIDUKUNG
Jenis fungsi yang ditentukan pengguna yang tidak didukung: <language>
GENERATOR_TIDAK_DIDUKUNG
Generator tidak didukung:
Untuk lebih jelasnya, lihat UNSUPPORTED_GENERATOR
Ekspresi Pengelompokan Tidak Didukung
grouping()/grouping_id() hanya dapat digunakan dengan GroupingSets/Cube/Rollup.
Posisi Awal dan Pasangan Pemicu Tidak Didukung untuk Sumber Kinesis
<trigger>
dengan posisi awal <initialPosition>
tidak didukung oleh sumber Kinesis
UNSUPPORTED_INSERT
Tidak dapat menyisipkan ke target.
Untuk informasi lebih lanjut, lihat UNSUPPORTED_INSERT
TIPE_PENGGABUNGAN_TIDAK_DIDUKUNG
Tipe gabungan yang tidak didukung '<typ>
'. Jenis gabungan yang didukung meliputi: <supported>
.
PEMBUATAN_TABEL_TERKELOLA_TIDAK_DIDUKUNG
Membuat tabel terkelola <tableName>
menggunakan sumber data <dataSource>
tidak didukung. Anda perlu menggunakan sumber data DELTA
atau membuat tabel eksternal menggunakan CREATE EXTERNAL TABLE <tableName>
... ... USING <dataSource>
KONDISI_PENGGABUNGAN_TIDAK_DIDUKUNG
operasi MERGE
berisi kondisi <condName>
yang tidak didukung.
Untuk melihat detail lebih lanjut, lihat UNSUPPORTED_MERGE_CONDITION
KEBIJAKAN_AKSES_BARIS_ATAU_KOLOM_BERTINGKAT_YANG_TIDAK_DIDUKUNG
Tabel <tableName>
memiliki kebijakan keamanan tingkat baris atau masker kolom yang secara tidak langsung mengacu pada tabel lain dengan kebijakan keamanan tingkat baris atau masker kolom; ini tidak didukung. Urutan panggilan: <callSequence>
PENULISAN_ULANG_TIDAK_DIDUKUNG
Tidak dapat menimpa target yang sedang menjadi sumber bacaan.
Untuk detail selengkapnya, lihat UNSUPPORTED_OVERWRITE
Partisi Transformasi Tidak Didukung
Transformasi partisi yang tidak didukung: <transform>
. Transformasi yang didukung adalah identity
, bucket
, dan clusterBy
. Pastikan ekspresi transformasi Anda menggunakan salah satunya.
MODE_PENYIMPANAN_TIDAK_DIDUKUNG
Mode penyimpanan <saveMode>
tidak didukung untuk:
Untuk detail selengkapnya, lihat UNSUPPORTED_SAVE_MODE
TIDAK DIDUKUNG_TAMPILKAN_BUAT_TABEL
Tidak didukung perintah SHOW CREATE TABLE
.
Untuk informasi lebih lanjut, lihat UNSUPPORTED_SHOW_CREATE_TABLE
FITUR_ANALISATOR_SATU_LINTASAN_TIDAK_DIDUKUNG
Penganalisis sekali-lintas tidak dapat memproses kueri atau perintah ini karena belum mendukung <feature>
.
Penggunaan_UDF_SQL_Tidak_Didukung
Penggunaan fungsi SQL <functionName>
di <nodeName>
tidak didukung.
OPERATOR_STREAMING_TIDAK_DIDUKUNG_TANPA_TANDA_AIR
<outputMode>
mode keluaran tidak didukung untuk <statefulOperator>
pada streaming DataFrames/DataSets tanpa tanda air.
PILIHAN_STREAMING_TIDAK_DIDUKUNG_UNTUK_TAMPILAN
Tidak didukung untuk menyiarkan tampilan. Alasan:
Untuk detail selengkapnya, lihat UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
Pilihan Streaming Tidak Didukung, Izin Diterapkan
Opsi streaming <options>
tidak didukung untuk sumber data <source>
pada kluster bersama. Harap konfirmasikan bahwa opsi ditentukan dan dieja dengan benar, dan periksa batasannya di https://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode.
Izin Streaming yang Tidak Didukung Diberlakukan
Sumber data <sink>
tidak didukung sebagai sink streaming pada kluster bersama.
Sumber Streaming Tidak Didukung - Izin Diperketat
Sumber data <source>
tidak didukung sebagai sumber streaming pada kluster bersama.
FUNGSI_BERNILAI_TABEL_STREAMING_TIDAK_DIDUKUNG
Fungsi <funcName>
tidak mendukung streaming. Hapus kata kunci STREAM
BATAS_PEMBACAAN_ALIRAN_YANG_TIDAK_DIDUKUNG_UNTUK_SUMBER_KINESIS
<streamReadLimit>
tidak didukung oleh sumber Kinesis
UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
Ekspresi subkueri yang tidak didukung:
Untuk detail selengkapnya, lihat UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
Perubahan tabel yang tidak didukung di katalog JDBC (UNSUPPORTED_TABLE_CHANGE_IN_JDBC_CATALOG)
Perubahan pada tabel <change>
tidak didukung untuk katalog JDBC pada tabel <tableName>
. Perubahan yang didukung meliputi: AddColumn, RenameColumn, DeleteColumn, UpdateColumnType, UpdateColumnNullability.
KOLOM_TIMESERIES_TIDAK_DIDUKUNG
Pembuatan kunci utama dengan kolom deret waktu tidak didukung
DERET_WAKTU_TIDAK_DIDUKUNG_DENGAN_LEBIH_DARI_SATU_KOLOM
Membuat kunci primer dengan lebih dari satu kolom timeseries <colSeq>
tidak didukung
PRESISI_WAKTU_TIDAK_DIDUKUNG
Presisi <precision>
detik dari jenis data TIME berada di luar rentang yang didukung [0, 6].
TIPE_WAKTU_TIDAK_DIDUKUNG
Jenis data TIME tidak didukung.
Pemicu Tidak Didukung untuk Sumber Kinesis
<trigger>
tidak didukung oleh sumber Kinesis
LITERAL_BERTIPE_TIDAK_DIDUKUNG
Literal jenis <unsupportedType>
tidak didukung. Jenis yang tersedia adalah <supportedTypes>
.
FITUR_UDF_TIDAK_DIDUKUNG
Fungsi <function>
menggunakan fitur berikut yang memerlukan versi runtime Databricks yang lebih baru: <features>
. Silakan konsultasikan <docLink>
untuk detailnya.
JENIS_JENIS_UDF_YANG_TIDAK_DIDUKUNG_DI_TEMPAT_YANG_SAMA
Jenis UDF tidak dapat digunakan bersama-sama: <types>
UNTYPED_SCALA_UDF
Anda menggunakan Scala UDF yang tak bertipe, yang tidak memiliki informasi tipe masukan.
Spark dapat secara tidak sadar meneruskan null ke fungsi penutupan Scala dengan argumen tipe primitif, dan fungsi penutupan akan melihat nilai default dari tipe Java untuk argumen null, misalnya udf((x: Int) => x, IntegerType)
, hasilnya adalah 0 untuk input null. Untuk menghilangkan kesalahan ini, Anda dapat:
gunakan API UDF Scala yang ditik (tanpa parameter jenis pengembalian), misalnya
udf((x: Int) => x)
.gunakan API UDF Java, misalnya
udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType)
, jika jenis input semuanya tidak primitif.atur "spark.sql.legacy.allowUntypedScalaUDF" ke "true" dan gunakan API ini dengan hati-hati.
PEMBARUAN_TIDAK_DIDUKUNG
Tabel tidak memenuhi syarat untuk diupgrade dari Apache Hive Metastore ke Katalog Unity. Alasan:
Untuk informasi lebih lanjut, lihat UPGRADE_NOT_SUPPORTED
FUNGSI_YANG_DIDEFINISIKAN_PENGGUNA
Fungsi yang ditentukan pengguna tidak valid:
Untuk informasi lebih lanjut, lihat USER_DEFINED_FUNCTIONS
PENGECUALIAN_DIPICU_PENGGUNA
<errorMessage>
KESALAHAN_YANG_DIPICU_PENGGUNA_KETIDAKCOCOKAN_PARAMETER
Fungsi raise_error()
digunakan untuk meningkatkan kelas kesalahan: <errorClass>
yang mengharapkan parameter: <expectedParms>
.
Parameter yang disediakan <providedParms>
tidak cocok dengan parameter yang diharapkan.
Pastikan untuk menyediakan semua parameter yang diharapkan.
Kesalahan Tidak Dikenal Kelas Pengecualian yang Ditingkatkan oleh Pengguna
Fungsi raise_error()
digunakan untuk menaikkan kelas kesalahan yang tidak diketahui: <errorClass>
VARIABEL_SUDAH_ADA
Tidak dapat membuat variabel <variableName>
karena sudah ada.
Pilih nama yang berbeda, atau letakkan atau ganti variabel yang ada.
VARIABEL_TIDAK_DITEMUKAN
Variabel <variableName>
tidak dapat ditemukan. Verifikasi ejaan dan kebenaran skema dan katalog.
Jika Anda tidak menentukan nama dengan skema dan katalog, verifikasi output current_schema(), atau tentukan nama dengan skema dan katalog yang benar.
Untuk mentolerir kesalahan saat drop, gunakan DROP VARIABLE IF EXISTS
.
BATAS_UKURAN_KONSTRUKTOR_VARIANT
Tidak dapat membuat Varian yang lebih besar dari 16 MiB. Ukuran maksimum yang diizinkan dari nilai Varian adalah 16 MiB.
VARIAN_DUPLIKAT_KUNCI
Gagal membangun varian karena kunci objek duplikat <key>
.
BATAS_UKURAN_VARIAN
Tidak dapat membangun varian yang lebih besar dari <sizeLimit>
di <functionName>
.
Harap hindari string input besar ke ekspresi ini (misalnya, tambahkan panggilan fungsi untuk memeriksa ukuran ekspresi dan mengonversinya ke NULL
terlebih dahulu jika terlalu besar).
FITUR_TABEL_TIDAK_DIDUKUNG_PADA_KLON_VERSI
Riwayat tabel sumber mengandung fitur tabel yang tidak didukung oleh klon berversi pada versi DBR ini: <unsupportedFeatureNames>
.
Silakan tingkatkan ke versi DBR yang lebih baru.
TAMPILAN_SUDAH_ADA
Tidak dapat membuat tampilan <relationName>
karena sudah ada.
Pilih nama yang berbeda, hapus atau ganti objek yang ada, atau tambahkan klausa IF NOT EXISTS
untuk mentolerir objek yang sudah ada.
Melampaui Kedalaman Sarang Maksimum
Kedalaman tampilan <viewName>
melebihi kedalaman resolusi tampilan maksimum (<maxNestedDepth>
).
Analisis dibatalkan untuk menghindari kesalahan. Jika Anda ingin mengatasi hal ini, silakan coba tingkatkan nilai "spark.sql.view.maxNestedViewDepth".
TAMPILAN_TIDAK_DITEMUKAN
Tampilan <relationName>
tidak dapat ditemukan. Verifikasi ejaan dan kebenaran skema dan katalog.
Jika Anda tidak menentukan nama dengan skema, periksa output dari current_schema(), atau tentukan nama dengan skema dan katalog yang benar.
Untuk mentolerir kesalahan saat drop, gunakan DROP VIEW IF EXISTS
.
VOLUME_SUDAH_ADA
Tidak dapat membuat volume <relationName>
karena sudah ada.
Pilih nama yang berbeda, hapus atau ganti objek yang ada, atau tambahkan klausa IF NOT EXISTS
untuk mentolerir objek yang sudah ada.
FUNGSI_JENDELA_DAN_RANGKA_TIDAK_SESUAI
<funcName>
fungsi hanya dapat dievaluasi dalam jendela baris yang diurutkan dengan satu offset: <windowExpr>
.
Fungsi Window Tanpa Klausa Over
Fungsi jendela <funcName>
memerlukan klausa OVER.
DENGAN_KREDENSIAL
sintaks WITH CREDENTIAL
tidak didukung untuk <type>
.
TULIS_STREAM_TIDAK_DIPERBOLEHKAN
writeStream
hanya dapat dipanggil pada streaming Dataset/DataFrame.
KOLOM_DEFAULT_YANG_SALAH_PADA_DELTA_ALTER_TABLE_ADD_COLUMN_TIDAK_DIDUKUNG
Gagal menjalankan perintah karena nilai DEFAULT
tidak didukung saat menambahkan baru
kolom ke tabel Delta yang sudah ada sebelumnya; harap tambahkan kolom tanpa default
nilai terlebih dahulu, lalu jalankan perintah ALTER TABLE ALTER COLUMN SET DEFAULT
kedua untuk menerapkan
untuk baris yang akan disisipkan di masa mendatang.
DEFAULT_KOLOM_SALAH_ UNTUK_FITUR_DELTA_BELUM_DIAKTIFKAN
Gagal menjalankan perintah <commandType>
karena menetapkan nilai kolom DEFAULT
.
tetapi fitur tabel yang sesuai tidak diaktifkan. Silakan coba lagi perintah
setelah menjalankan ALTER TABLE
tableName SET
TBLPROPERTIES
('delta.feature.allowColumnDefaults' = 'didukung').
PERINTAH_SALAH_UNTUK_JENIS_OBJEK
Operasi <operation>
memerlukan <requiredType>
. Tapi <objectName>
adalah <foundType>
. Gunakan <alternative>
sebagai gantinya.
WRONG_NUM_ARGS
<functionName>
memerlukan parameter <expectedNum>
tetapi angka aktualnya <actualNum>
.
Untuk informasi lebih lanjut, lihat WRONG_NUM_ARGS
Tag Baris XML Hilang
<rowTag>
opsi diperlukan untuk membaca/menulis file dalam format XML.
Jenis Tertanam yang Tidak Didukung XML
XML tidak mendukung <innerDataType>
sebagai jenis dalam <dataType>
. Harap bungkus <innerDataType>
dalam elemen StructType saat menggunakannya di dalam <dataType>
.
KESALAHAN_KONFLIK_DATA_DISELAMATKAN_XML_WILDCARD
Data yang diselamatkan dan kolom bebas tidak dapat diaktifkan secara bersamaan. Hapus opsi wildcardColumnName.
Kolom ZORDERBY_COLUMN tidak ada
Kolom <columnName>
ZOrderBy tidak ada.
Danau Delta
DELTA_ACTIVE_SPARK_SESSION_TIDAK_DITEMUKAN
Tidak dapat menemukan SparkSession aktif.
TRANSAKSI_AKTIF_DELTA_SUDAH_DITETAPKAN
Tidak dapat menyetel transaksi baru sebagai aktif ketika transaksi sudah aktif.
DELTA_GAGAL_MENAMBAHKAN_KOLOM_DENGAN_NAMA_INTERNAL
Gagal menambahkan kolom <colName>
karena nama dicadangkan.
Penambahan Vektor Penghapusan Tidak Diizinkan
Operasi saat ini mencoba menambahkan vektor penghapusan ke tabel yang tidak mengizinkan pembuatan vektor penghapusan baru. Silakan ajukan laporan bug.
PENAMBAHAN VEKTOR PENGHAPUSAN DENGAN BATAS KETAT TIDAK DIIZINKAN
Semua operasi yang menambahkan vektor penghapusan harus mengatur kolom tightBounds dalam statistik ke false. Silakan ajukan laporan bug.
DELTA_TAMBAH_KOLOM_PADA_INDEKS_KURANG_DARI_NOL
Indeks <columnIndex>
untuk menambahkan kolom <columnName>
lebih rendah dari 0.
DELTA_TAMBAH_KOLOM_INDUK_TIDAK_STRUKTURAL
Tidak dapat menambahkan <columnName>
karena induknya bukan StructType. Ditemukan <other>
.
STRUKTUR_PENAMBAHAN_KOLOM_DELTA_TIDAK_DITEMUKAN
Struktur tidak ditemukan pada posisi <position>
.
DELTA_TAMBAHKAN_KONSTRAN
Silakan gunakan ALTER TABLE
tambahkan CONSTRAINT
untuk menambahkan batasan CHECK
.
DELTA_AGREGAT_DALAM_KOLOM_TERBENTUK
Ditemukan <sqlExpr>
. Kolom yang dihasilkan tidak dapat menggunakan ekspresi agregat.
AGREGASI_DELTA_TIDAK_DIDUKUNG
Fungsi agregat tidak didukung di <operation> <predicate>
.
Delta_Alter_Collation_Tidak_Didukung_Filter_Bloom
Gagal mengubah kolasi kolom <column>
karena memiliki indeks bloom filter. Harap pertahankan pengurutan yang ada atau hapus indeks filter "bloom", kemudian coba perintah lagi untuk mengubah pengurutan.
DELTA_MENGUBAH_KOLEKSI_TIDAK_DIDUKUNG_CLUSTER_BY
Gagal mengubah kolase kolom <column>
karena merupakan kolom pengklusteran. Harap pertahankan kolasi yang ada atau ubah kolom menjadi kolom non-kluster dengan perintah ALTER TABLE
lalu ulangi perintah tersebut untuk mengubah kolasi.
DELTA_ALTER_TABLE_CHANGE_COL_TIDAK_DIDUKUNG
ALTER TABLE CHANGE COLUMN
tidak didukung untuk mengubah kolom <currentType>
menjadi <newType>
.
DELTA_ALTER_TABLE_CLUSTER_BY_TIDAK_DIIJINKAN
ALTER TABLE CLUSTER BY
hanya didukung untuk tabel Delta dengan pengklusteran Liquid.
DELTA_ALTER_TABLE_CLUSTER_BY_PADA_TABEL_BERPARTISI_TIDAK_DIIZINKAN
ALTER TABLE CLUSTER BY
tidak dapat diterapkan ke tabel yang dipartisi.
Perubahan nama tabel DELTA tidak diizinkan
Operasi tidak diizinkan: ALTER TABLE RENAME
TO tidak diizinkan untuk tabel Delta terkelola pada S3, karena konsistensi akhir pada S3 dapat merusak log transaksi Delta. Jika Anda bersikeras melakukannya dan yakin bahwa belum pernah ada tabel Delta dengan nama baru <newName>
sebelumnya, Anda dapat mengaktifkan ini dengan mengatur <key>
menjadi benar.
DELTA_ALTER_TABLE_SET_CLUSTERING_TABEL_FITUR_TIDAK_DIPERBOLEHKAN
Fitur tabel <tableFeature>
tidak dapat diaktifkan menggunakan ALTER TABLE SET TBLPROPERTIES
. Gunakan CREATE
ATAU REPLACE TABLE CLUSTER BY
untuk membuat tabel Delta dengan pengklusteran.
DELTA_ALTER_TABLE_SET_MANAGED_TIDAK_MENDUKUNG_UNIFORM_ICEBERG
ALTER
TABLE
...
SET
MANAGED
tidak mendukung tabel Uniform Iceberg. Nonaktifkan Seragam dan coba lagi.
DELTA_ALTER_TABLE_SET_MANAGED_FAILED
ALTER TABLE <table> SET MANAGED
Gagal.
Untuk detail selengkapnya, lihat DELTA_ALTER_TABLE_SET_MANAGED_FAILED
ALTER_TABEL_DELTA_SET_MANAGED_TIDAK_DIAKTIFKAN
ALTER TABLE
... SET MANAGED
perintah tidak diaktifkan. Hubungi tim dukungan Databricks Anda untuk mendapatkan bantuan.
DELTA_ALTER_TABEL_GAGAL_MELEPAS_STATUS_TERKELOLA
<table>
tidak dapat digulung balik dari tabel terkelola ke eksternal.
Untuk informasi lebih lanjut, lihat DELTA_ALTER_TABLE_UNSET_MANAGED_FAILED
DELTA_ALTER_TABEL_TIDAK_DITETAPKAN_TERKELOLA_TIDAK_DIIZINKAN
ALTER TABLE
... UNSET MANAGED
perintah tidak diaktifkan. Hubungi tim dukungan Databricks Anda untuk mendapatkan bantuan.
PERUBAHAN TIPE DATA DELTA YANG AMBIGU
Tidak dapat mengubah tipe data <column>
dari <from>
ke <to>
. Perubahan ini berisi penghapusan kolom dan penambahan, oleh karena itu bersifat ambigu. Harap buat perubahan ini secara individual menggunakan ALTER TABLE
[ADD | DROP | RENAME
] COLUMN
.
DELTA_KOLOM_PARTISI_AMBIGU
Kolom partisi ambigu <column>
bisa menjadi <colMatches>
.
DELTA_JALUR_AMBIGU_PADA_CREATE_TABLE
CREATE TABLE
berisi dua lokasi berbeda: <identifier>
dan <location>
.
Anda dapat menghapus klausa LOCATION
dari pernyataan CREATE TABLE
, atau mengatur
<config>
setel ke true untuk melewati pemeriksaan ini.
ARSIP_BERKAS_YANG_TERARSIP_DALAM_BATAS
Tabel <table>
tidak berisi rekaman yang cukup dalam file yang tidak diarsipkan agar dapat memenuhi jumlah yang ditentukan sebanyak LIMIT
dari <limit>
rekaman.
FILE_TERARSIP_DELTA_DALAM_PEMINDAIAN
Ditemukan <numArchivedFiles>
file yang berpotensi diarsipkan dalam tabel <table>
yang perlu dipindai sebagai bagian dari kueri ini.
File yang diarsipkan tidak dapat diakses. Waktu yang tersisa hingga arsip dikonfigurasi sebagai <archivalTime>
.
Sesuaikan filter kueri Anda untuk mengecualikan file yang diarsipkan.
DELTA_BLOK_KOLOM_PEMETAAN_DAN_OPERASI_CDC
Operasi "<opName>
" tidak diperbolehkan ketika tabel telah mengaktifkan umpan data perubahan (CDF) dan telah mengalami perubahan skema menggunakan DROP COLUMN
atau RENAME COLUMN
.
DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS
Tidak dapat menghapus indeks filter Bloom untuk kolom yang tidak ada berikut ini: <unknownColumns>
.
DELTA_BLOOM_FILTER_OOM_ON_WRITE
OutOfMemoryError terjadi saat menulis indeks Bloom Filter untuk kolom berikut: <columnsWithBloomFilterIndices>
.
Anda dapat mengurangi penggunaan memori indeks bloom filter dengan memilih nilai yang lebih kecil untuk opsi 'numItems', nilai yang lebih besar untuk opsi 'fpp', atau dengan mengindeks lebih sedikit kolom.
DELTA_CANNOT_CHANGE_DATA_TYPE (Kesalahan: Tidak dapat mengubah jenis data)
Tidak dapat mengubah tipe data: <dataType>
.
DELTA_TIDAK_BISA_MENGUBAH_LOKASI
Tidak dapat mengubah 'lokasi' tabel Delta menggunakan SET TBLPROPERTIES
. Silakan gunakan ALTER TABLE SET LOCATION
sebagai gantinya.
DELTA_TIDAK_BISA_MENGUBAH_PENYEDIA
'provider' adalah properti tabel cadangan, dan tidak dapat diubah.
DELTA_TIDAK_BISA_MEMBUAT_BLOOM_FILTER_KOLOM_TIDAK_ADA
Tidak dapat membuat indeks filter mekar untuk kolom yang tidak ada berikut ini: <unknownCols>
.
DELTA_TIDAK_DAPAT_MEMBUAT_JALUR_LOG
Tidak dapat membuat <path>
.
DELTA_TIDAK_BISA_MENDESKRIPSIKAN_RIWAYAT_TAMPILAN
Tidak dapat menjelaskan riwayat tampilan.
TIDAK BISA MENGHAPUS FILTER BLOOM PADA KOLOM TANPA INDEKS DI DELTA
Tidak dapat menghapus indeks bloom filter pada kolom yang tidak diindeks: <columnName>
.
DELTA_TIDAK_BISA_MENGHAPUS_FITUR_BATASAN_CEK
Tidak dapat menghilangkan fitur tabel batasan CHECK
.
Batasan berikut harus dihilangkan terlebih dahulu: <constraints>
.
DELTA_TIDAK_BISA_MENGHAPUS_FITUR_COLLATIONS
Tidak dapat menghilangkan fitur tabel kolaterasi.
Kolom dengan kolase non-default harus diubah untuk menggunakan UTF8_BINARY terlebih dahulu: <colNames>
.
DELTA_TIDAK_DAPAT_MENILAI_EKSPRESI
Tidak dapat mengevaluasi ekspresi: <expression>
.
DELTA_TIDAK_DAPAT_MENEMUKAN_BUCKET_SPEC
Mengharapkan tabel Delta berkeranjang tetapi tidak dapat menemukan spesifikasi keranjang dalam tabel.
TIDAK_BISA_MENGHASILKAN_KODE_UNTUK_EKSPRESI
Tidak dapat menghasilkan kode untuk ekspresi: <expression>
.
DELTA_TIDAK_BISA_MEMODIFIKASI_HANYA_TAMBAH
Tabel ini dikonfigurasi untuk hanya mengizinkan penambahan. Jika Anda ingin mengizinkan pembaruan atau penghapusan, gunakan 'ALTER TABLE <table_name> SET TBLPROPERTIES (<config> =false)
'.
DELTA_TIDAK_BISA_MENGUBAH_DEPENDENSI_MILIK_KATALOG
Tidak dapat menggantikan atau membatalkan pengaturan properti tabel penanda waktu saat komit karena tabel ini dimiliki oleh katalog. Hapus "delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", dan "delta.inCommitTimestampEnablementTimestamp" dari TBLPROPERTIES
klausul lalu coba lagi perintah .
DELTA_TIDAK_BISA_MENGUBAH_KETERGANTUNGAN_KOMIT_TERKOORDINASI
<Command>
tidak dapat mengubah atau menghapus properti tabel tanda waktu saat komit karena komit terkoordinasi diaktifkan dalam tabel ini dan bergantung padanya. Silakan hapus ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") dari TBLPROPERTIES
klausul lalu coba lagi perintah tersebut.
DELTA_TIDAK_BISA_MENGUBAH_PROPERTI_TABEL
Konfigurasi <prop>
tabel Delta tidak dapat ditentukan oleh pengguna.
DELTA_TIDAK_BISA_MENGABAIKAN_KOMIT_TERKOORDINASI_KONFS
<Command>
tidak dapat mengubah konfigurasi komitmen terkoordinasi untuk tabel target yang sudah ada. Silakan hapus ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview", "delta.coordinatedCommits.tableConf-preview") dari TBLPROPERTIES
klausul lalu coba lagi perintah tersebut.
DELTA_TIDAK_DAPAT_MEREKONSTRUKSI_JALUR_DARI_URI
Uri (<uri>
) yang tidak dapat diubah menjadi jalur relatif ditemukan di log transaksi.
DELTA_TIDAK_BISA_MEMBERI_PATH_RELATIF
Jalur (<path>
) yang tidak dapat direlativasi dengan input saat ini yang ada di
log transaksi. Silakan jalankan kembali ini dengan cara:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog(""<userPath>
, true)
lalu jalankan juga:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<path>
")
DELTA_TIDAK_BISA_MENGGANTI_NAMA_PATH
Tidak dapat mengganti nama <currentPath>
menjadi <newPath>
.
DELTA_TIDAK_BISA_MENGGANTI_TABEL_YANG_HILANG
Tabel <tableName>
tidak dapat diganti karena tidak ada. Gunakan CREATE
ATAU REPLACE TABLE
untuk membuat tabel.
DELTA_TIDAK_BISA_MENYELESAIKAN_KOLOM_PENGELOMPOKAN
Tidak dapat mengatasi kolom pengklusteran <columnName>
dalam <schema>
karena kesalahan yang tidak terduga. Jalankan ALTER TABLE
... ... CLUSTER BY
untuk memperbaiki metadata pengklusteran Delta.
DELTA_TIDAK_DAPAT_MENYELESAIKAN_KOLOM
Tidak dapat mengatasi kolom <columnName>
di <schema>
DELTA_TIDAK_DAPAT_MEMULIHKAN_VERSI_TABEL
Tidak dapat memulihkan tabel ke versi <version>
. Versi yang tersedia: [<startVersion>
, <endVersion>
].
DELTA_TIDAK_BISA_MENGEMBALIKAN_STEMPELWAKTU_SEBELUMNYA
Tidak dapat memulihkan tabel ke tanda waktu (<requestedTimestamp>
) seperti sebelum versi paling awal tersedia. Silakan gunakan tanda waktu setelah (<earliestTimestamp>
).
DELTA_TIDAK_BISA_MENGEMBALIKAN_TIMESTAMP_YANG_LEBIH_BESAR
Tidak dapat mengembalikan tanda waktu tabel (<requestedTimestamp>
) karena itu melebihi versi terbaru yang tersedia. Gunakan tanda waktu sebelum (<latestTimestamp>
).
DELTA_TIDAK_BISA_MENGATUR_KETERGANTUNGAN_KOMIT_YANG_TERKOORDINASI
<Command>
tidak dapat mengatur properti tabel tanda waktu dalam penerapan bersama dengan penerapan terkoordinasi, karena yang terakhir tergantung pada yang pertama dan mengatur yang sebelumnya secara internal. Silakan hapus ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") dari TBLPROPERTIES
klausul lalu coba lagi perintah tersebut.
DELTA_TIDAK_DAPAT_MENGATUR_LOKASI_PADA_PENGIDENTIFIKASI_JALUR
Tidak dapat mengubah lokasi tabel berbasis jalur.
DELTA_TIDAK_BISA_MENGATUR_PROPERTI_KOLOM_STATISTIK_YANG_DIKENGELOLA
Tidak dapat mengatur delta.managedDataSkippingStatsColumns pada tabel non-DLT.
DELTA_TIDAK_BISA_MENGATUR_KONF_UC_COMMIT_KOORDINATOR_DALAM_PERINTAH
Saat mengaktifkan 'unity-catalog' sebagai koordinator penerapan, konfigurasi "<configuration>
" tidak dapat diatur dari perintah. Silakan hapus dari klausa TBLPROPERTIES
lalu coba lagi perintah tersebut.
DELTA_TIDAK_BISA_MENGATUR_KONF_URAIAN_UC_DI_SESI
Saat mengaktifkan 'unity-catalog' sebagai koordinator penerapan, konfigurasi "<configuration>
" tidak dapat diatur dari konfigurasi SparkSession. Silakan batalkan pengaturan dengan menjalankan spark.conf.unset("<configuration>")
lalu coba lagi perintah tersebut.
DELTA_TIDAK_BISA_MENGUBAH_PENGATURAN_KOMIT_TERKOORDINASI
ALTER
tidak dapat menghapus konfigurasi komit terkoordinasi. Untuk menurunkan status tabel dari komit terkoordinasi, silakan coba lagi menggunakan ALTER
TABLE[table-name]
DROP FEATURE 'coordinatedCommits-preview'
.
DELTA_TIDAK_DAPAT_MEMPERBARUI_BIDANG_ARRAY
Tidak dapat memperbarui <tableName>
bidang jenis <fieldName>
: perbarui elemen tersebut dengan memperbarui <fieldName>
.element`.
TIDAK_BISA_MEMPERBARUI_BIDANG_PETA_DELTA
Tidak dapat memperbarui tipe <tableName>
dari bidang <fieldName>
: perbarui peta dengan memperbarui <fieldName>.key
atau <fieldName>.value
.
DELTA_TIDAK_BISA_MEMPERBARUI_FIELD_LAIN
Tidak dapat memperbarui <tableName>
bidang tipe <typeName>
.
DELTA_TIDAK_BISA_MEMPERBARUI_LAPANGAN_STRUKTUR
Tidak dapat memperbarui bidang <tableName>
tipe <fieldName>
: perbarui struct dengan cara menambahkan, menghapus, atau memperbarui bidang-bidangnya.
TIDAK DAPAT MENGGUNAKAN SEMUA KOLOM UNTUK PARTISI
Tidak dapat menggunakan semua kolom untuk kolom partisi.
DELTA_CANNOT_VACUUM_LITE
VACUUM
LITE tidak dapat menghapus semua file yang memenuhi syarat karena beberapa file tidak dirujuk oleh log Delta. Silakan jalankan VACUUM FULL
.
DELTA_TIDAK_BISA_MENULIS_KE_TAMPILAN
<table>
merupakan tampilan. Menulis ke tampilan tidak didukung.
DELTA_CAST_OVERFLOW_IN_TABLE_WRITE (Penggelembungan Fungsi Delta dalam Penulisan Tabel)
Gagal menulis nilai jenis <sourceType>
ke dalam kolom jenis <targetType>
<columnName>
karena kelebihan kapasitas.
Gunakan try_cast
pada nilai input untuk mentolerir luapan dan mengembalikan NULL
sebagai gantinya.
Jika perlu, atur <storeAssignmentPolicyFlag>
ke "LEGACY
" untuk melewati kesalahan ini atau diatur <updateAndMergeCastingFollowsAnsiEnabledFlag>
ke true untuk kembali ke perilaku lama dan ikuti <ansiEnabledFlag>
dan UPDATE
MERGE
.
DELTA_CDC_TIDAK_DIPERBOLEHKAN_DALAM_VERSI_INI
Konfigurasi delta.enableChangeDataFeed tidak dapat diatur. Umpan data perubahan dari Delta belum tersedia.
DELTA_CDC_READ_NULL_RANGE_BOUNDARY (Batas rentang null bacaan CDC Delta)
Parameter mulai/akhir untuk membaca CDC tidak boleh kosong. Harap sediakan versi atau tanda waktu yang valid.
DELTA_PERUBAHAN_DATA_UMPAN_SKEMA_DATA_TIDAK_KOMPATIBEL
Pengambilan perubahan tabel antara versi <start>
dan <end>
gagal karena skema data yang tidak kompatibel.
Skema baca Anda <readSchema>
pada versi <readVersion>
, tetapi kami menemukan skema data yang tidak kompatibel pada versi <incompatibleVersion>
.
Jika memungkinkan, silakan ambil perubahan tabel menggunakan skema versi akhir dengan mengatur <config>
ke endVersion
, atau hubungi dukungan.
DELTA_PERUBAHAN_DATA_FEED_PERUBAHAN_SKEMA_TIDAK_KOMPATIBEL
Gagal mengambil perubahan tabel antara versi <start>
dan <end>
karena perubahan skema yang tidak cocok.
Skema baca Anda <readSchema>
pada versi <readVersion>
, tetapi kami menemukan perubahan skema yang tidak kompatibel pada versi <incompatibleVersion>
.
Jika memungkinkan, silakan kueri perubahan tabel secara terpisah dari versi <start>
ke <incompatibleVersion>
- 1, dan dari versi <incompatibleVersion>
ke <end>
.
FILE DATA PERUBAHAN DELTA TIDAK DITEMUKAN
File <filePath>
yang dirujuk dalam log transaksi tidak dapat ditemukan. Ini dapat terjadi ketika data telah dihapus secara manual dari sistem file daripada menggunakan tabel DELETE
pernyataan. Permintaan ini tampaknya menargetkan Umpan Data Perubahan, jika benar demikian, kesalahan ini dapat terjadi ketika file data perubahan melewati periode retensi dan telah dihapus oleh pernyataan VACUUM
. Untuk informasi selengkapnya, lihat <faqPath>
UMPAN_TABEL_PERUBAHAN_DELTA_NONAKTIF
Tidak dapat menulis ke tabel dengan set delta.enableChangeDataFeed. Perubahan umpan data dari Delta tidak tersedia.
TABEL_TIDAK_ADA_DELTA_CHECKPOINT
Tidak dapat memeriksa tabel yang tidak ada <path>
. Apakah Anda menghapus file secara manual di direktori _delta_log?
DELTA TIRUAN TARGET TIDAK JELAS
Dua jalur disediakan sebagai target CLONE
, sehingga menjadi ambigu jalur mana yang harus digunakan. Suatu eksternal
lokasi untuk CLONE
diberikan pada <externalLocation>
bersamaan dengan rute
<targetIdentifier>
.
DELTA_CLONE_INCOMPATIBLE_SOURCE
Sumber kloning memiliki format yang valid, tetapi memiliki fitur yang tidak didukung dengan Delta.
Untuk informasi lebih lanjut, lihat DELTA_CLONE_INCOMPATIBLE_SOURCE
SALINAN_DELTA_FILE_TIDAK_SEMPURNA
File (<fileName>
) tidak disalin sepenuhnya. Ukuran file yang diharapkan: <expectedSize>
, ditemukan: <actualSize>
. Untuk melanjutkan operasi dengan mengabaikan pemeriksaan ukuran file, setel <config>
menjadi false.
Sumber DELTA_CLONE tidak didukung
Sumber kloning <mode>
yang tidak didukung '<name>
', yang formatnya adalah <format>
.
Format yang didukung adalah 'delta', 'gunung es' dan 'parquet'.
SUMBER_YANG_TIDAK_DIDUKUNG_DELTA_CLONE_DENGAN_RIWAYAT
Tabel sumber yang tidak didukung:
Untuk detail lebih lanjut, lihat DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_SOURCE
TARGET_TIDAK_DIDUKUNG_DELTA_SALINAN_DENGAN_SEJARAH
Tabel target yang tidak didukung:
Untuk informasi lebih lanjut, lihat DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_TARGET
DELTA_CLUSTERING_CLONE_TABLE_NOT_SUPPORTED (Fitur ini tidak didukung)
CLONE
tidak didukung untuk tabel Delta dengan klasterisasi Liquid untuk versi DBR < 14.0
.
TIPE_DATA_KOLOM_CLUSTER_DELTA_TIDAK_DIDUKUNG
CLUSTER BY
tidak didukung karena kolom berikut ini: <columnsWithDataTypes>
tidak mendukung fitur pengabaian data.
KETIDAKCOCOKAN_KOLOM_CLUSTER_DELTA
Kolom pengklusteran yang disediakan tidak cocok dengan tabel yang ada.
disediakan:
<providedClusteringColumns>
tersedia:
<existingClusteringColumns>
DELTA_CLUSTERING_KOLOM_TANPA_STATISTIK
Pengklusteran cairan mengharuskan kolom pengklusteran memiliki statistik. Tidak dapat menemukan kolom pengklusteran '<columns>
' dalam skema statistik:
<schema>
PEMBUATAN_CLUSTER_DELTA_BUAT_TABEL_EKSTERNAL_NON_CAIR_DARI_TABEL_CAIR
Membuat tabel eksternal tanpa pengklusteran cair dari direktori tabel dengan pengklusteran cairan tidak diperbolehkan; jalur: <path>
.
"KLASTERISASI_DELTA_TIDAK_DIDUKUNG (DELTA_CLUSTERING_NOT_SUPPORTED)"
'<operation>
' tidak mendukung pengklusteran.
Penghentian Fase Delta Clustering Gagal
Tidak dapat melengkapi <phaseOutType>
dari tabel dengan fitur tabel <tableFeatureToAdd>
(alasan: <reason>
). Silakan coba perintah OPTIMIZE
lagi.
== Kesalahan ==
<error>
PENGGANTIAN_CLUSTER_DELTA_MENGGANTI_TABEL_DENGAN_TABEL_TERPARTISI
REPLACE
tabel Delta dengan pengelompokan Liquid pada tabel yang dipartisi tidak diizinkan.
TABEL_TANPA_KOLOM_CLUSTERING_TAMPILKAN_PEMBUATAN_DELTA_CLUSTERING
SHOW CREATE TABLE
tidak didukung untuk tabel Delta dengan pengklusteran Liquid tanpa kolom pengklusteran apa pun.
DELTA_CLUSTERING_KE_TABEL_TERPARTISI_DENGAN_KOLOM_CLUSTERING_TIDAK_KOSONG
Transisi tabel Delta dengan pengklusteran Liquid ke tabel yang dipartisi tidak diizinkan untuk operasi: <operation>
, ketika tabel yang ada memiliki kolom pengklusteran yang tidak kosong.
Jalankan ALTER TABLE CLUSTER BY
NONE untuk menghapus kolom pengklusteran terlebih dahulu.
KLASTERING_DELTA_DENGAN_PEMBARUAN_PARTISI_DINAMIS
Mode timpa partisi dinamis tidak diizinkan untuk tabel Delta dengan pengklusteran Liquid.
DELTA_PENGELOMPOKAN_DENGAN_PARTISI_PREDIKAT
OPTIMIZE
perintah untuk tabel Delta dengan Liquid clustering tidak mendukung predikat partisi. Silakan hapus predikat: <predicates>
.
Delta_Clustering_With_ZOrder_By
perintah OPTIMIZE
untuk tabel Delta dengan pengklusteran Liquid tidak dapat menentukan ZORDER BY
. Silakan hapus ZORDER BY (<zOrderBy>
).
DELTA_CLUSTER_DENGAN_OTOMATIS_KETIDAKCOCOKAN
Nilai clusterByAuto yang disediakan tidak cocok dengan tabel yang ada.
Kluster Delta oleh Jumlah Kolom yang Tidak Valid
CLUSTER BY
untuk pengklusteran Liquid mendukung hingga <numColumnsLimit>
kolom pengklusteran, tetapi tabel memiliki kolom pengklusteran <actualNumColumns>
. Hapus kolom pengklusteran tambahan.
KLUSTER_DELTA_MENURUT_SKEMA_TIDAK_DISEDIKAN
Tidak diperbolehkan menentukan CLUSTER BY
ketika skema tidak ditentukan. Tentukan skema untuk tabel <tableName>
.
DELTA_KLOMPKBERSAMA_DENGAN_PENGELOMPOKAN
Pengklusteran dan pengelompokan tidak bisa dilakukan sekaligus. Hapus CLUSTERED BY INTO BUCKETS
/ bucketBy jika Anda ingin membuat tabel Delta dengan pengklusteran.
DELTA_CLUSTER_DENGAN_PARTISI_DENGAN
Pengklusteran dan pemartisian tidak dapat ditentukan keduanya. Hapus PARTITIONED BY
/ partitionBy / partitionedBy jika Anda ingin membuat tabel Delta dengan pengklusteran.
KOLOKASI_DELTA_TIDAK_DIDUKUNG
Kolatasi tidak didukung di Delta Lake.
DELTA_KOLOM_PELEWATAN_DATA_TIDAK_DIDUKUNG_KOLOM_TERPARTISI
Pengabaian data tidak didukung untuk kolom partisi '<column>
'.
DELTA_COLUMN_TIPE_LEWATI_DATA_TIDAK_DIDUKUNG
Pengabaian data tidak didukung untuk kolom '<column>
' dengan jenis <type>
.
PEMETAAN_KOLOM_DELTA_ID_KOLOM_MAKS_BELUM_DISET
Properti id kolom maksimum (<prop>
) tidak diatur pada tabel yang diaktifkan pemetaan kolom.
PEMETAAN_KOLOM_DELTA_MAX_COLUMN_ID_TIDAK_DITETAPKAN_DENGAN_BENAR
Properti id kolom maksimum (<prop>
) pada tabel dengan pemetaan kolom diaktifkan, yaitu <tableMax>
, yang tidak dapat lebih kecil dari id kolom maksimum untuk semua kolom (<fieldMax>
).
KOLOM_DELTA_TIPE_DATA_HILANG
Tipe data kolom <colName>
tidak disediakan.
KOLOM_DELTA_TIDAK_DITEMUKAN
Tidak dapat menemukan kolom <columnName>
yang diberikan [<columnList>
].
Kolom_DELTA_Tidak_Ditemukan_dalam_Penggabungan
Tidak dapat menemukan kolom '<targetCol>
' dari tabel target di antara kolom INSERT
: <colNames>
. klausa INSERT
harus menentukan nilai untuk semua kolom tabel target.
KOLOM_DELTA_TIDAK_DITEMUKAN_DALAM_SKEMA
Tidak dapat menemukan kolom <columnName>
di:
<tableSchema>
JALUR_KOLOM_DELTA_TIDAK_BERLAPIS
Diharapkan <columnPath>
menjadi jenis data berlapis, tetapi ditemukan <other>
. Sedang mencari
indeks <column>
di bidang bertingkat.
Skema:
<schema>
DELTA_KOLOM_TIPE_STRUKTUR_TIDAK_SESUAI
Kolom struktur <source>
tidak dapat disisipkan ke dalam bidang <targetType>
<targetField>
di <targetTable>
.
KONDISI_PENGALIHAN_SEMENTARA_KOMIT_DELTA
Tidak dapat menangani komit tabel dalam status tabel pengalihan '<state>
'.
Validasi Pemadatan Delta Gagal
Validasi pemadatan jalur <compactedPath>
ke <newPath>
gagal: Silakan ajukan laporan bug.
Tipe kompleks kolom DELTA mengandung tipe NULL
Ditemukan NullType yang bersarang di kolom <columName>
yang merupakan <dataType>
. Delta tidak mendukung penulisan NullType dalam jenis kompleks.
DELTA_PENAMBAHAN_SEKALIGUS
ConcurrentAppendException: File-file telah ditambahkan ke <partition>
oleh pembaruan yang dilakukan secara bersamaan. <retryMsg> <conflictingCommit>
Lihat <docLink>
untuk detail selengkapnya.
DELTA_CONCURRENT_DELETE_DELETE
ConcurrentDeleteDeleteException: Transaksi ini mencoba menghapus satu atau beberapa file yang dihapus (misalnya <file>
) dengan pembaruan bersamaan. Silakan coba operasi ini lagi.<conflictingCommit>
Lihat <docLink>
untuk detail selengkapnya.
PENGHAPUSAN_BACA_DELTA_SEKALIGUS
ConcurrentDeleteReadException: Transaksi ini mencoba membaca satu atau beberapa file yang dihapus (misalnya <file>
) dengan pembaruan bersamaan. Silakan coba operasi ini lagi.<conflictingCommit>
Lihat <docLink>
untuk detail selengkapnya.
TRANSAKSI_SERENTAK_DELTA
ConcurrentTransactionException: Kesalahan ini terjadi ketika beberapa kueri streaming menggunakan titik pemeriksaan yang sama untuk menulis ke dalam tabel ini. Apakah Anda menjalankan instance kueri streaming yang sama secara paralel?<conflictingCommit>
Lihat <docLink>
untuk detail selengkapnya.
TULISAN_KONKUREN_DELTA
ConcurrentWriteException: Transaksi bersamaan telah menulis data baru karena transaksi saat ini telah membaca tabel. Silakan coba operasi ini lagi.<conflictingCommit>
Lihat <docLink>
untuk detail selengkapnya.
KOLOM_SET_KONFLIK_DELTA
Ada konflik pada kolom SET
berikut: <columnList>
.
PENGLIMPAHAN_KONFIGURASI_DELTA_TIDAK_DIDUKUNG_DALAM_PERINTAH
Selama <command>
, konfigurasi "<configuration>
" tidak dapat diatur dari perintah. Silakan hapus dari klausa TBLPROPERTIES
lalu coba lagi perintah tersebut.
Pembaruan Delta Tidak Didukung Dalam Sesi
Selama <command>
, konfigurasi "<configuration>
" tidak dapat diatur dari konfigurasi SparkSession. Silakan batalkan pengaturan dengan menjalankan spark.conf.unset("<configuration>")
lalu coba lagi perintah tersebut.
KONSTRAIN_DELTA_SUDAH_ADA
Batasan '<constraintName>
' sudah ada. Hapus batasan lama terlebih dahulu.
Batasan lama:
<oldConstraint>
Ketidakcocokan Tipe Data Aturan Delta
<columnName>
kolom memiliki tipe data <columnType>
dan tidak dapat diubah menjadi tipe data <dataType>
karena kolom ini direferensikan oleh batasan pemeriksaan berikut:
<constraints>
PERUBAHAN_KOLOM_TERGANTUNG_KONSTRAN_DELTA
Tidak dapat mengubah <columnName>
kolom karena kolom ini dirujuk oleh batasan pemeriksaan berikut:
<constraints>
KONSTRUKSI_DELTA_TIDAK_ADA
Tidak dapat menghilangkan batasan yang tidak ada <constraintName>
dari tabel <tableName>
. Untuk menghindari kesalahan, berikan parameter IF EXISTS
atau atur konfigurasi sesi SQL <config>
ke <confValue>
.
Konversi Delta-Merge-on-Read Tidak Didukung
Perubahan tabel Merge-On-Read <format>
tidak didukung: <path>
, <hint>
DELTA_KONVERSI_TIDAK_ADA_PARTISI_YANG_DITEMUKAN
Tidak menemukan informasi partisi dalam katalog untuk tabel <tableName>
. Apakah Anda menjalankan "MSCK REPAIR TABLE
" di tabel Anda untuk menemukan partisi?
DELTA_KONVERSI_TIDAK_DIDUKUNG_KOLOM_PARTISI_TERKOLEKSI
Tidak bisa mengonversi tabel Parquet dengan kolom partisi tersusun <colName>
ke Delta.
KONVERSI_DELTA_PEMETAAN_KOLOM_TIDAK_DIDUKUNG
Konfigurasi '<config>
' tidak dapat diatur ke <mode>
saat menggunakan CONVERT
TO DELTA
.
KONVERSI_DELTA_PERUBAHAN_SKEMA_TIDAK_DIDUKUNG
Perubahan skema yang tidak didukung ditemukan untuk tabel <format>
: <path>
, <hint>
DELTA_CONVERT_NON_PARQUET_TABLE
CONVERT
KE DELTA
hanya cocok untuk tabel parquet, tetapi Anda mencoba untuk mengonversi sumber <sourceName>
: <tableId>
.
Konversi Delta ke Pelacakan Baris Delta Tanpa Statistik
Tidak dapat mengaktifkan pelacakan baris tanpa mengumpulkan statistik.
Jika Anda ingin mengaktifkan pelacakan baris, lakukan hal berikut:
- Aktifkan pengumpulan statistik dengan menjalankan perintah
SET <statisticsCollectionPropertyKey>
= benar
- Jalankan
CONVERT
hinggaDELTA
tanpa opsi TIDAKSTATISTICS
.
Jika Anda tidak ingin mengumpulkan statistik, nonaktifkan pelacakan baris:
- Nonaktifkan pengaktifan fitur tabel secara default dengan menjalankan perintah:
RESET <rowTrackingTableFeatureDefaultKey>
- Nonaktifkan properti tabel secara default dengan menjalankan:
SET <rowTrackingDefaultPropertyKey>
= salah
Salin Delta ke Format Target
target COPY INTO
harus berupa tabel Delta.
DELTA_BUAT_TABEL_EKSTERNAL_TANPA_SKEMA
Anda mencoba membuat tabel eksternal <tableName>
dari <path>
menggunakan Delta, tetapi skema tidak ditentukan ketika
jalur input kosong.
Untuk mempelajari selengkapnya tentang Delta, lihat <docLink>
Buat Tabel Eksternal Delta Tanpa Log Transaksi
Anda mencoba membuat tabel <tableName>
eksternal dari <path>
menggunakan Delta, tetapi tidak ada log transaksi yang ada di <logPath>
. Periksa tugas upstream untuk memastikan bahwa tugas tersebut menggunakan format("delta") dan bahwa jalurnya adalah akar tabel.
Untuk mempelajari selengkapnya tentang Delta, lihat <docLink>
DELTA_KETIDAKCOCOKAN_LOKASI_IDENTIFIER_PADA_PERINTAH_BUAT_TABEL
Membuat tabel Delta berbasis jalur dengan lokasi lain tidak didukung. Pengidentifikasi: <identifier>
, Lokasi: <location>
.
DELTAMEMBUAT_TABEL_NAMA_TABEL_ATAU_LOKASI_HILANG
Nama tabel atau lokasi harus ditentukan.
PERBEDAAN_SKEMA_PENCIPTAAN_TABEL_DELTA
Skema yang ditentukan tidak cocok dengan skema yang ada pada <path>
.
== Ditentukan ==
<specifiedSchema>
== Yang Ada ==
<existingSchema>
== Perbedaan ==
<schemaDifferences>
Jika tujuan Anda adalah untuk menyimpan skema yang ada, Anda dapat menghilangkan
skema dari perintah buat tabel. Jika tidak, pastikan bahwa
Skema tersebut sesuai.
FITUR_PENGELOMPOKAN_TABEL_SET_CREATE_DELTA_TIDAK_DIPERBOLEHKAN
Fitur tabel <tableFeature>
tidak dapat diaktifkan menggunakan TBLPROPERTIES
. Gunakan CREATE
ATAU REPLACE TABLE CLUSTER BY
untuk membuat tabel Delta dengan pengklusteran.
PENCIPTAAN_TABEL_DELTA_DENGAN_PENGELOMPOKAN_BERBEDA
Kolom pengklusteran yang ditentukan tidak cocok dengan kolom pengklusteran yang ada di <path>
.
== Ditentukan ==
<specifiedColumns>
== Yang Ada ==
<existingColumns>
DELTA_BUAT_TABEL_DENGAN_PARTISI_BERBEDA
Partisi yang ditentukan tidak cocok dengan partisi yang ada di <path>
.
== Ditentukan ==
<specifiedColumns>
== Yang Ada ==
<existingColumns>
Buat_Tabel_DELTA_Dengan_Properti_Berbeda
Properti yang ditentukan tidak sesuai dengan properti yang ada di <path>
.
== Ditentukan ==
<specifiedProperties>
== Yang Ada ==
<existingProperties>
"Tabel Delta Dibuat dengan Lokasi yang Tidak Kosong"
Tidak dapat membuat tabel ('<tableId>
'). Lokasi terkait ('<tableLocation>
') tidak kosong dan juga bukan tabel Delta.
PERUBAHAN_DATA_DELTA_SALAH
Tidak dapat mengubah metadata tabel karena opsi 'dataChange' diatur ke false. Operasi yang dicoba: '<op>
'.
FILE_PARQUET_DELTA_DIHAPUS_TIDAK_DITEMUKAN
File <filePath>
yang dirujuk dalam log transaksi tidak dapat ditemukan. File parquet ini dapat dihapus sesuai kebijakan retensi data Delta.
Durasi retensi data bawaan Delta: <logRetentionPeriod>
. Waktu modifikasi file parquet: <modificationTime>
. Waktu penghapusan file parquet: <deletionTime>
. Dihapus pada versi Delta: <deletionVersion>
.
VEKTOR_PENGHAPUSAN_DELTA_KEHILANGAN_JML_REKAMAN
Tidak valid untuk mengikat file dengan vektor penghapusan yang tidak memiliki statistik numRecords.
DELTA_DISABLE_SOURCE_MATERIALIZATION_DALAM_MERGE_TIDAK_DIPERBOLEHKAN
Menonaktifkan materialisasi sumber dalam MERGE
dengan mengatur 'spark.databricks.delta.merge.materializeSource' menjadi 'none' tidak diizinkan.
METADATA_DOMAIN_DELTA_TIDAK_DIDUKUNG
Tindakan DomainMetadata yang terdeteksi untuk domain <domainNames>
, tetapi DomainMetadataTableFeature tidak diaktifkan.
DELTA_DROP_KOLOM_PADA_INDEKS_KURANG_DARI_NOL
Indeks <columnIndex>
untuk menghilangkan kolom lebih rendah dari 0.
DELTA_DROP_COLUMN_ON_SINGLE_FIELD_SCHEMA (DELTA_HAPUS_KOLOM_PADA_SKEMA_SATU_FIELD)
Tidak dapat menghapus kolom dari skema dengan satu kolom. Skema:
<schema>
DELTADUPLIKATAKSIDITEMUKAN
Operasi file '<actionType>
' untuk jalur <path>
ditentukan beberapa kali.
Ini bertentang dengan <conflictingPath>
.
Tidak valid untuk memiliki beberapa operasi file dengan jalur yang sama dalam satu commit.
Ditemukan Kolom Duplikat Delta
Ditemukan kolom <coltype>
duplikat : <duplicateCols>
.
Kolom Duplikat Delta Saat Penyisipan
Menduplikasi nama kolom dalam INSERT
klausa.
KOLOM_DUPLIKAT_PADA_TABEL_PEMBARUAN_DELTA
<message>
Hapus kolom duplikat sebelum Anda memperbarui tabel Anda.
DELTA_DUPLIKASI_DATA_MELOMPATI_KOLOM
Kolom lompati data duplikat ditemukan: <columns>
.
KESALAHAN_INTERNAL_DUPLIKAT_DELTA_METADATA_DOMAIN
Kesalahan internal: dua tindakan DomainMetadata dalam transaksi yang sama memiliki domain <domainName>
yang sama .
Deserialisasi Histogram Delta DV
Tidak dapat mendeserialisasi histogram jumlah rekaman yang dihapus selama verifikasi integritas tabel.
Pembaruan Partisi Dinamis Delta Nonaktif
Modus timpa partisi dinamis ditentukan oleh konfigurasi sesi atau opsi penulisan, tetapi dinonaktifkan oleh spark.databricks.delta.dynamicPartitionOverwrite.enabled=false
.
DELTA_EMPTY_DATA
Data yang digunakan dalam membuat tabel Delta tidak memiliki kolom apa pun.
DELTA_EMPTY_DIRECTORY
Tidak ada file yang ditemukan di direktori: <directory>
.
DELTA_MELEBIHI_BATAS_VARCHAR_KARAKTER
Nilai "<value>
" melebihi batasan panjang jenis karakter/varchar. Pemeriksaan gagal: <expr>
.
DELTA_GAGAL_CAST_NILAI_PARTISI
Gagal mengonversi nilai <value>
partisi menjadi <dataType>
.
GAGAL_DELTA_MENEMUKAN_ATRIBUT_DI_KOLOM_OUTPUT
Tidak dapat menemukan <newAttributeName>
di antara output <targetOutputColumns>
target yang ada.
DELTA_GAGAL_MENDETEKSI_SKEMA
Gagal menyimpulkan skema dari daftar file yang diberikan.
GAGAL_MENGGABUNGKAN_BERKAS_SKEMA
Gagal menggabungkan skema file <file>
:
<schema>
Operasi gagal pada duplikat permukaan DELTA
Gagal menjalankan operasi pada tabel <sourceTable>
sumber karena kloning <targetTable>
dangkal masih ada dan kesalahan berikut terjadi di kloning dangkal: <message>
DELTA_GAGAL_MEMBACA_PENGAKHIR_BERKAS
Tidak dapat membaca footer untuk file: <currentFile>
.
DELTA_GAGAL_MENGENALI_PREDIKAT
Tidak dapat mengenali predikat '<predicate>
'.
DELTA_GAGAL_PEMINDAIAN_DENGAN_VERSI_SEJARAH
Diharapkan pemindaian penuh dari versi terbaru sumber Delta, tetapi justru menemukan pemindaian historis versi <historicalVersion>
.
DELTA_GAGAL_MENGGABUNGKAN_BIDANG-BIDANG
Gagal menggabungkan bidang '<currentField>
' dan '<updateField>
'.
Delta_Fitur_Protokol_Meta_Data_Tidak_Sesuai
Tidak dapat beroperasi pada tabel ini karena fitur tabel berikut diaktifkan dalam metadata tetapi tidak tercantum dalam protokol: <features>
.
Fitur Delta Memerlukan Pengaktifan Manual
Skema tabel Anda memerlukan pengaktifan fitur tabel berikut secara manual: <unsupportedFeatures>
.
Untuk melakukan ini, jalankan perintah berikut untuk setiap fitur yang tercantum di atas:
ALTER TABLE
SET TBLPROPERTIES
table_name ('delta.feature.feature_name' = 'didukung')
Ganti "table_name" dan "feature_name" dengan nilai nyata.
Fitur yang didukung saat ini: <supportedFeatures>
.
FITUR_DELTA_HANYA_DAPAT_MENGHILANGKAN_PERLINDUNGAN_CHECKPOINT_DENGAN_PEMOTONGAN_SEJARAH
Tidak dapat menghilangkan fitur Perlindungan Titik Pemeriksaan.
Fitur ini hanya dapat dihilangkan dengan memotong riwayat.
Silakan coba lagi dengan opsi TRUNCATE HISTORY
:
ALTER TABLE
nama_tabel DROP FEATURE
perlindunganCheckpoint TRUNCATE HISTORY
DELTA_FITUR_GAGAL_MENGHAPUS_TITIK_PERIKSA
Penurunan <featureName>
gagal karena kegagalan dalam pembuatan titik pemeriksaan.
Silakan coba lagi nanti. Masalah berlanjut, hubungi dukungan Databricks.
PERUBAHAN_FITUR_HAPUS_TITIK_KONTROL_PERLINDUNGAN_MENUNGGU_MASA_RETENSI
Operasi tidak berhasil karena masih ada jejak fitur yang dihilangkan
dalam riwayat tabel. CheckpointProtection tidak dapat dihapus hingga histori ini
versi telah kedaluwarsa.
Untuk menghilangkan CheckpointProtection, harap tunggu versi historisnya
Tunggu sampai kedaluwarsa, lalu ulangi perintah ini. Periode retensi untuk versi historis adalah
saat ini dikonfigurasi untuk <truncateHistoryLogRetentionPeriod>
.
GAGAL_VALIDASI_ULANG_KONFLIK_FITUR_DELTA_HAPUS
Tidak dapat menghilangkan fitur karena transaksi bersamaan mengubah tabel.
Silakan coba operasi ini lagi.
<concurrentCommit>
PENGHAPUSAN_FITUR_DELTA_FITUR_BERGANTUNG
Tidak dapat menghilangkan fitur tabel <feature>
karena beberapa fitur lain (<dependentFeatures>
) dalam tabel ini bergantung pada <feature>
.
Pertimbangkan untuk menghilangkannya terlebih dahulu sebelum menghilangkan fitur ini.
FITUR_DELTA_DROP_FITUR_TIDAK_ADA
Tidak dapat menjatuhkan <feature>
dari tabel ini karena saat ini tidak ada dalam protokol tabel.
FITUR_DELTA_DROPT_VERSI_HISTORIS_ADA
Tidak dapat menghilangkan <feature>
karena log Delta berisi versi historis yang menggunakan fitur tersebut.
Harap tunggu hingga periode retensi riwayat (<logRetentionPeriodKey>=<logRetentionPeriod>
)
waktunya telah berlalu karena fitur ini terakhir kali aktif.
Atau, tunggu hingga periode retensi TRUNCATE HISTORY
kedaluwarsa (<truncateHistoryLogRetentionPeriod>
)
lalu jalankan:
ALTER TABLE
nama_tabel DROP FEATURE
nama_fitur TRUNCATE HISTORY
TRUNCASI RIWAYAT DROP_FITUR DELTA TIDAK DIIZINKAN
Fitur tertentu tidak memerlukan pemangkasan riwayat.
Penurunan Fitur Delta yang Tidak Dapat Dihapus
Tidak dapat menghapus <feature>
karena penghapusan fitur ini tidak didukung.
Silakan hubungi dukungan Databricks.
FITUR_DELTA_GUGUR_FITUR_KLIEN_TIDAK_DIDUKUNG
Tidak dapat menghilangkan <feature>
karena tidak didukung oleh versi Databricks ini.
Pertimbangkan untuk menggunakan Databricks dengan versi yang lebih tinggi.
Fitur_Hapus_Delta_Tunggu_Periode_Retensi
Menghilangkan <feature>
sebagian berhasil.
Fitur ini sekarang tidak lagi digunakan dalam versi tabel saat ini. Namun, fitur
masih ada dalam versi-versi historis dari tabel. Fitur tabel tidak dapat dihilangkan
dari protokol yang tercantum dalam tabel sampai versi-versi bersejarah ini berakhir masa berlakunya.
Untuk menghilangkan fitur tabel dari protokol, harap tunggu hingga versi historis tersedia.
Tunggu sampai kedaluwarsa, lalu ulangi perintah ini. Periode retensi untuk versi historis adalah
saat ini dikonfigurasi sebagai <logRetentionPeriodKey>=<logRetentionPeriod>
.
Atau, tunggu hingga periode retensi TRUNCATE HISTORY
kedaluwarsa (<truncateHistoryLogRetentionPeriod>
)
lalu jalankan:
ALTER TABLE
nama_tabel DROP FEATURE
nama_fitur TRUNCATE HISTORY
Fitur Delta Memerlukan Versi Pembaca yang Lebih Tinggi
Tidak dapat mengaktifkan fitur tabel <feature>
karena memerlukan versi protokol pembaca yang lebih tinggi (saat ini <current>
). Pertimbangkan untuk meningkatkan versi protokol pembaca tabel ke <required>
, atau ke versi yang mendukung fitur tabel pembaca. Lihat <docLink>
untuk informasi selengkapnya tentang versi protokol tabel.
FITUR_DELTA_MEMBUTUHKAN_VERSI_PENULIS_YANG_LEBIH_TINGGI
Tidak dapat mengaktifkan fitur tabel <feature>
karena memerlukan versi protokol penulis yang lebih tinggi (saat ini <current>
). Pertimbangkan untuk meningkatkan versi protokol penulis tabel ke <required>
, atau ke versi yang mendukung fitur tabel penulis. Lihat <docLink>
untuk informasi selengkapnya tentang versi protokol tabel.
FILE_DELTA_SUDAH_ADA
Jalur file <path>
yang ada.
Daftar_berkas_delta_dan_konflik_pola_string
Tidak dapat menentukan daftar file dan string pola.
BERKAS_DELTA_TIDAK_DITEMUKAN
Jalur file <path>
.
BERKAS_DELTA_TIDAK_DITEMUKAN_DETAIL
File <filePath>
yang dirujuk dalam log transaksi tidak dapat ditemukan. Ini terjadi ketika data telah dihapus secara manual dari sistem file daripada menggunakan tabel DELETE
pernyataan. Untuk informasi selengkapnya, lihat <faqPath>
BERKAS_OR_DIR_DELTA_TIDAK_DITEMUKAN
Tidak ada file atau direktori seperti itu: <path>
.
FILE_DELTA_YANG_AKAN_DITIMPA_TIDAK_DITEMUKAN
File (<path>
) yang akan ditulis ulang tidak ditemukan di antara file kandidat:
<pathList>
TIPE_KOLOM_PETA_DELT_DITEMUKAN
Sebuah MapType ditemukan. Untuk mengakses kunci atau nilai MapType, tentukan satu
dari:
<key>
atau
<value>
diikuti dengan nama kolom (hanya jika kolom tersebut adalah jenis struct).
contoh mymap.key.mykey
Jika kolom adalah jenis dasar, mymap.key atau mymap.value sudah cukup.
Skema:
<schema>
KETIDAKSESUAIAN_TIPEG_DATA_KOLOM_TERGENERASI_DELTA
<columnName>
kolom memiliki tipe data <columnType>
dan tidak dapat diubah menjadi tipe data <dataType>
karena kolom ini direferensikan oleh kolom yang dihasilkan berikut:
<generatedColumns>
.
DELTA_PERUBAHAN_KOLOM_TERGENERASI_KOLOM_DEPENDEN
Tidak dapat mengubah kolom <columnName>
karena kolom ini dirujuk oleh kolom yang dihasilkan berikut ini:
<generatedColumns>
.
Jenis ekspresi kolom yang dihasilkan delta tidak cocok
Jenis ekspresi kolom <columnName>
yang dihasilkan adalah <expressionType>
, tetapi jenis kolomnya adalah <columnType>
.
KETIDAKCOCOKAN_JENIS_PEMBARUAN_KOLOM_TERGENERASI_DELTA
Kolom <currentName>
adalah kolom yang dihasilkan atau kolom yang digunakan oleh kolom yang dihasilkan. Jenis data adalah <currentDataType>
dan tidak dapat dikonversi ke jenis <updateDataType>
data .
DELTA_GEOSPATIAL_TIDAK_DIDUKUNG
Jenis geospasial tidak didukung dalam versi Delta Lake ini.
DELTA_GEOSPATIAL_SRID_TIDAK_DIDUKUNG
Tipe geospasial memiliki srid yang tidak didukung: <srid>
. Tabel Delta hanya mendukung nilai srid non-negatif.
DELTA_ICEBERG_COMPAT_VIOLATION
Validasi IcebergCompatV<version>
telah gagal.
Untuk informasi lebih lanjut, lihat DELTA_ICEBERG_COMPAT_VIOLATION
DELTA_ICEBERG_WRITER_COMPAT_VIOLATION
Validasi IcebergWriterCompatV<version>
telah gagal.
Untuk informasi lebih lanjut, lihat DELTA_ICEBERG_WRITER_COMPAT_VIOLATION
KOLOM_IDENTITAS_DELTA_MENGUBAH_KOLOM_TIDAK_DIDUKUNG
ALTER TABLE ALTER COLUMN
tidak didukung untuk kolom IDENTITY
.
KOLOM_IDENTITAS_DELTA_ALTER_FORMAT_NON_DELTA
ALTER TABLE ALTER COLUMN SYNC IDENTITY
hanya didukung oleh Delta.
Kolom_Identitas_Delta_Alter_Kolom_Non_Identitas
ALTER TABLE ALTER COLUMN SYNC IDENTITY
tidak dapat dipanggil pada kolom non IDENTITY
.
SISIPAN EKSPILISIT KOLOM IDENTITAS DELTA TIDAK DIDUKUNG
Menyediakan nilai untuk kolom GENERATED ALWAYS
sebagai IDENTITY
<colName>
tidak didukung.
KOLOM_IDENTITAS_DELTA_LANGKAH_TIDAK_SAH
IDENTITY
langkah kolom tidak boleh bernilai 0.
DELTA_IDENTITAS_KOLOM_FORMAT_NON_DELTA
IDENTITY
kolom hanya didukung oleh Delta.
Kolom identitas Delta partisi tidak didukung
PARTITIONED BY IDENTITY
kolom <colName>
tidak didukung.
Penggantian kolom identitas DELTA tidak didukung
ALTER TABLE REPLACE COLUMNS
tidak didukung untuk tabel dengan kolom IDENTITY
.
DATA_TYPE_TIDAK_DIDUKUNG_KOLOM_IDENTITAS_DELTA
DataType <dataType>
tidak didukung untuk kolom IDENTITY
.
Kolom identitas Delta tidak didukung untuk diperbarui - DELTA_IDENTITY_COLUMNS_UPDATE_NOT_SUPPORTED
UPDATE
pada kolom IDENTITY
<colName>
tidak didukung.
KOLOM_IDENTITAS_DELTA_DENGAN_EKSPRESI_TERGENERASI
IDENTITY
kolom tidak dapat ditentukan dengan ekspresi kolom yang dihasilkan.
Pilihan Tidak Sah_delta
Nilai tidak valid '<input>
' untuk opsi '<name>
', <explain>
PENGGUNAAN_DELTA_TIDAK_SAH
Penggunaan <option>
tidak diizinkan saat <operation>
tabel Delta.
DELTA_SPESIFIKASI_BARET_TIDAK_KONSISTEN
BucketSpec pada tabel yang di-bucket Delta tidak cocok dengan BucketSpec dari metadata. Diharapkan: <expected>
. Aktual: <actual>
.
DELTA_KONFIGURASI_LOGSTORE_TIDAK_KONSISTEN
(<setKeys>
) tidak dapat diatur ke nilai yang berbeda. Harap hanya atur salah satunya, atau atur ke nilai yang sama.
DELTA_INCORRECT_ARRAY_ACCESS
Salah mengakses sebuah "ArrayType". Gunakan posisi dari arrayname.element.elementname untuk
tambahkan ke array.
DELTA_AKSES_ARRAY_TIDAK_BENAR_DENGAN_NAMA
ArrayType ditemukan. Untuk mengakses elemen ArrayType, tentukan
<rightName>
bukan <wrongName>
.
Skema:
<schema>
DELTA_TIDAK_BENAR_DAPAT_KONF
Gunakan getConf()
alih-alih conf.getConf()
.
DELTA_PENERAPAN_PENYIMPANAN_LOG_TIDAK_BENAR
Kesalahan ini biasanya terjadi ketika implementasi default LogStore, yang
adalah, HDFSLogStore, digunakan untuk menulis ke dalam tabel Delta pada sistem penyimpanan non-HDFS.
Untuk mendapatkan jaminan ACID transaksional pada pembaruan tabel, Anda harus menggunakan
implementasi LogStore yang benar yang sesuai untuk sistem penyimpanan Anda.
Lihat <docLink>
untuk detailnya.
INDEKS_DELTA_LEBIH_BESAR_ATAU_SAMA_DENGAN_STRUKTUR
Indeks <index>
untuk menghilangkan kolom sama dengan atau lebih besar dari panjang struktur: <length>
.
INDEKS_DELTA_LEBIH_BESAR_DARI_STRUKTUR
Indeks <index>
untuk menambahkan kolom <columnName>
lebih besar dari panjang struktur: <length>
.
Ketidaksesuaian Arity Kolom DELTA_INSERT
Tidak dapat menulis ke '<tableName>
', <columnName>
; tabel target memiliki <numColumns>
kolom, tetapi data yang dimasukkan memiliki <insertColumns>
kolom.
DELTA_PENYISIPAN_KOLOM_TIDAK_SESUAI
Kolom <columnName>
tidak ditentukan dalam INSERT
.
TIPE_OTOMATIS_KOMPAK_TIDAK_VALID_DELTA
Jenis ringkas otomatis tidak valid: <value>
. Nilai yang diizinkan adalah: <allowed>
.
JUMLAH_BUCKET_TIDAK_VALID
Jumlah wadah tidak valid: <invalidBucketCount>
. Jumlah bucket harus berupa angka positif yang merupakan pangkat dua dan setidaknya 8. Anda dapat menggunakan <validBucketCount>
sebagai gantinya.
DELTA_INVALID_BUCKET_INDEX (Indeks Ember Tidak Valid)
Tidak dapat menemukan kolom wadah di kolom partisi.
DELTA_INTERVAL_KALENDER_TIDAK_VALID_KOSONG
Interval tidak boleh null atau kosong.
DELTA_RENTANG_CDC_TIDAK_VALID
Rentang CDC dari awal <start>
hingga akhir <end>
tidak valid. Akhiri tidak boleh sebelum memulai.
DELTA_KARAKTER_TIDAK_VALID_DALAM_NAMA_KOLOM
Nama atribut "<columnName>
" berisi karakter yang tidak valid di antara " ,;{}()\\n\\t="
. Silakan gunakan alias untuk mengganti namanya.
DELTA_KARAKTER_TIDAK_VALID_DALAM_NAMA_KOLOM
Ditemukan karakter yang tidak valid di antara ' ,;{}()\n\t='
dalam nama kolom skema Anda.
Nama kolom tidak valid: <invalidColumnNames>
.
Silakan gunakan karakter lain dan coba lagi.
Atau, aktifkan Pemetaan Kolom untuk tetap menggunakan karakter ini.
DELTA_INVALID_CLONE_PATH (Jalur Kloning Tidak Valid)
Lokasi target untuk CLONE
harus merupakan jalur absolut atau nama tabel. Gunakan sebuah
gunakan jalur absolut daripada <path>
.
DELTA_NAMA_KOLOM_TIDAK_VALID_SAAT_MENGHAPUS_PEMETAAN_KOLOM
Ditemukan karakter yang tidak valid di antara ' ,;{}()\n\t='
dalam nama kolom skema Anda.
Nama kolom tidak valid: <invalidColumnNames>
.
Pemetaan kolom tidak dapat dihapus ketika ada karakter yang tidak valid dalam nama kolom.
Ganti nama kolom untuk menghapus karakter yang tidak valid dan jalankan perintah ini lagi.
Format tidak valid
Format yang tidak kompatibel terdeteksi.
Log transaksi untuk Delta ditemukan di <deltaRootPath>/_delta_log
,
tetapi Anda mencoba <operation> <path>
menggunakan format("<format>
"). Anda harus menggunakan
'format("delta")' saat membaca dan menulis ke tabel delta.
Untuk mempelajari selengkapnya tentang Delta, lihat <docLink>
DELTA_REFERENSI_KOLOM_TERGENERASI_TIDAK_VALID
Kolom yang dihasilkan tidak dapat menggunakan kolom yang tidak ada atau kolom lain yang dihasilkan.
OPSI_PENULISAN_IDEMPOTEN_TIDAK_VALID_DELTA
Opsi yang tidak valid untuk penulisan Dataframe idempoten: <reason>
DELTA_INVALID_INTERVAL
<interval>
bukan INTERVAL
yang valid.
DELTA_SKEMA_INVENTARIS_TIDAK_VALID
Skema untuk INVENTORY
yang ditentukan tidak berisi semua bidang yang diperlukan. Bidang yang diperlukan adalah: <expectedSchema>
LEVEL_ISOLASI_DELTA_TIDAK_VALID
tingkat isolasi tidak valid '<isolationLevel>
'.
DELTA_INVALID_LOGSTORE_CONF (Konfigurasi Logstore Delta Tidak Valid)
(<classConfig>
) dan (<schemeConfig>
) tidak dapat diatur secara bersamaan. Harap atur hanya satu grup dari mereka.
Sintaks Tabel Terkelola Tidak Valid Tanpa Skema
Anda mencoba membuat tabel terkelola <tableName>
menggunakan Delta, tetapi skema tidak ditentukan.
Untuk mempelajari selengkapnya tentang Delta, lihat <docLink>
DELTA_KOLOM_PARTISI_TIDAK_VALID
<columnName>
bukan kolom partisi yang valid dalam tabel <tableName>
.
NAMA_KOLOM_PARTISI_DELTA_TIDAK_VALID
Ditemukan kolom partisi yang memiliki karakter yang tidak valid di antara " ,;{}()\n\t="
. Silakan ubah nama menjadi kolom partisi Anda. Pemeriksaan ini dapat dinonaktifkan dengan mengatur spark.conf.set("spark.databricks.delta.partitionColumnValidity.enabled", false) namun ini tidak disarankan karena fitur Delta lainnya mungkin tidak berfungsi dengan baik.
KESALAHAN_DELTA_TIPE_KOLOM_PARTISI_TIDAK_VALID
Menggunakan kolom <name>
dari jenis <dataType>
sebagai kolom partisi tidak didukung.
DELTA_JALUR_PARTISI_TIDAK_VALID
Fragmen jalur partisi harus berupa formulir seperti part1=foo/part2=bar
. Jalur partisi: <path>
.
DELTA_TURUNAN_PROTOKOL_TIDAK_VALID
Versi protokol tidak dapat diturunkan dari (<oldProtocol>
) ke (<newProtocol>
).
DELTA_VERSI_PROTOKOL_TIDAK_VALID
Versi protokol Delta yang tidak didukung: tabel "<tableNameOrPath>
" memerlukan versi pembaca <readerRequired>
dan versi penulis <writerRequired>
, tetapi versi Databricks ini mendukung versi pembaca <supportedReaders>
dan versi penulis <supportedWriters>
. Silakan tingkatkan ke rilis yang lebih baru.
FUNGSI_NILAI_TABEL_TIDAK_VALID_DELTA
Fungsi <function>
adalah fungsi bernilai tabel yang tidak didukung untuk pembacaan data CDC.
DELTA_INVALID_TIMESTAMP_FORMAT (FORMAT CAP WAKTU TIDAK VALID)
Tanda waktu yang disediakan <timestamp>
tidak cocok dengan sintaks yang diharapkan <format>
.
LOG DELTA SUDAH ADA
Log Delta sudah ada di <path>
.
FILE_LOG_DELTA_TIDAK_DITEMUKAN_UNTUK_SUMBER_STREAMING
Jika Anda tidak pernah menghapusnya, kemungkinan kueri Anda mengalami keterlambatan. Hapus cek poinnya untuk memulai dari awal. Untuk menghindari hal ini terjadi lagi, Anda dapat memperbarui kebijakan retensi tabel Delta Anda.
NAMA_KOLOM_PELACAKAN_BARIS_TERWUJUD_DELTA_HILANG
Nama kolom <rowTrackingColumn>
termaterialisasi hilang untuk <tableName>
.
UKURAN_ARRAY_DELTA_MAKSIMUM_TERLEBIHI
Gunakan batas kurang dari Int.MaxValue - 8.
Upaya komit maksimum DELTA terlampaui
Commit ini gagal karena sudah dicoba <numAttempts>
kali namun tidak berhasil.
Ini dapat disebabkan oleh tabel Delta yang diperbarui terus menerus oleh banyak proses bersamaan
Komitmen
Penerapan dimulai pada versi: <startVersion>
Komit gagal pada versi: <failVersion>
Jumlah tindakan yang dicoba untuk dilakukan: <numActions>
Total waktu yang dihabiskan untuk mencoba penerapan ini: <timeSpent>
ms
DAFTAR_FILE_MAKSIMUM_DELTA_DILAMPAUI
Daftar file harus memiliki paling banyak entri <maxFileListSize>
, memiliki <numFiles>
.
DELTA_GABUNG_TAMBAH_KOLOM_KOSONG
Tidak dapat menambahkan kolom <newColumn>
dengan tipe VOID. Tentukan tipe non-void secara eksplisit.
DELTA_MERGE_TIPE_DATA_TIDAK_KOMPATIBEL
Gagal menggabungkan jenis data yang tidak kompatibel <currentDataType>
dan <updateDataType>
.
DELTA_MERGE_TIPE_DESIMAL_TIDAK_KOMPATIBEL
Gagal menggabungkan jenis desimal yang tidak kompatibel dengan <decimalRanges>
.
DELTA_GABUNGAN_MATERIALISASI_SUMBER_GAGAL_BERULANG
Mempertahankan sumber pernyataan MERGE
dalam bentuk yang ada telah gagal berulang kali.
PENGGABUNGAN_DELTA_HILANG_KAPAN
Harus ada setidaknya satu klausa WHEN
dalam pernyataan MERGE
.
ATTRIBUT_DELTA_GABUNGAN_TERSURUH_HILANG_DARI_INPUT
Atribut <missingAttributes>
yang teratasi hilang dari <input>
pada operator <merge>
.
KESALAHAN_PENUGASAN_TIDAK_TERDUGA_DELTA_MERGE
Kunci penetapan tak terduga: <unexpectedKeyClass>
- <unexpectedKeyObject>
.
DELTA_GABUNGAN_EKSPRESI_TIDAK_TERSELESAIKAN
Tidak dapat mengatasi <sqlExpr>
dalam <clause>
kolom yang <cols>
diberikan.
DELTA_METADATA_BERUBAH
MetadataChangedException: Metadata tabel Delta telah diubah oleh pembaruan yang berlangsung secara bersamaan. Silakan coba operasi ini lagi.<conflictingCommit>
Lihat <docLink>
untuk detail selengkapnya.
DATA_PERUBAHAN_HILANG_DELTA
Kesalahan saat mendapatkan data perubahan untuk rentang [<startVersion>
, <endVersion>
] karena data perubahan tidak tersedia.
direkam untuk versi [<version>
]. Jika Anda telah mengaktifkan umpan data perubahan pada tabel ini,
gunakan DESCRIBE HISTORY
untuk melihat kapan pertama kali diaktifkan.
Jika tidak, untuk mulai merekam data perubahan, gunakan ALTER TABLE table_name SET TBLPROPERTIES
(<key>
=true)'.
DELTA_KOLOM_HILANG
Tidak dapat menemukan <columnName>
dalam kolom tabel: <columnList>
.
Delta, informasi komit hilang
Tabel ini memiliki fitur <featureName>
diaktifkan yang membutuhkan keberadaan aksi CommitInfo di setiap commit. Namun, tindakan CommitInfo hilang dari versi komit <version>
.
DELTA_MISSING_COMMIT_TIMESTAMP (stempel waktu komit hilang)
Tabel ini memiliki fitur <featureName>
diaktifkan yang memerlukan kehadiran commitTimestamp dalam tindakan CommitInfo. Namun, bidang ini belum ditetapkan dalam versi commit <version>
.
TABEL_DELTA_HILANG_DELTA
<tableName>
bukan tabel Delta.
TABEL_DELTA_HILANG_SALIN_KE_DELTA
Tabel tidak ditemukan. Buat tabel Delta kosong terlebih dahulu menggunakan CREATE TABLE <tableName>
.
DELTA_KEHILANGAN_KELAS_GUNUNG_ES
Kelas 'Iceberg' tidak ditemukan. Pastikan dukungan Delta Iceberg diinstal.
Silakan merujuk ke <docLink>
untuk detail selengkapnya.
DELTA_NILAI_KOLOM_TIDAK_BOLEH_NULL_HILANG
Kolom <columnName>
, yang memiliki batasan NOT NULL
, hilang dari data yang ditulis ke dalam tabel.
DELTA_PARTISI_KOLOM_HILANG
Kolom partisi <columnName>
tidak ditemukan dalam skema <columnList>
.
BAGIAN_FILE_DELTA_HILANG
Tidak dapat menemukan semua berkas komponen dari versi checkpoint: <version>
.
DELTA_TIDAK_ADA_PROVIDER_UNTUK_MENGONVERSI
CONVERT
TO DELTA
hanya mendukung tabel parquet. Silakan tulis ulang target Anda sebagai parkket.
<path>
jika itu adalah direktori parquet.
Kolom DELTA_MISSING_SET hilang
SET
kolom <columnName>
tidak ditemukan. Kolom yang tersedia: <columnList>
.
Catatan_Transaksi_Hilang_DELTA
Format yang tidak kompatibel terdeteksi.
Anda mencoba <operation> <path>
menggunakan Delta, tetapi tidak ada yang tersedia
ada log transaksi. Periksa pekerjaan hulu untuk memastikan bahwa tugas tersebut sedang menulis
menggunakan format("delta") dan Anda mencoba %1$s jalur dasar tabel.
Untuk mempelajari selengkapnya tentang Delta, lihat <docLink>
MODE_DELTA_TIDAK_DIDUKUNG
Mode yang ditentukan '<mode>
' tidak didukung. Mode yang didukung adalah: <supportedModes>
.
DELTA_BATAS_KELOMPOK_CDC_MULTIPLE
Beberapa argumen <startingOrEnding>
telah disediakan untuk pembacaan CDC. Harap sediakan salah satu dari Tanda Waktu <startingOrEnding>
atau Versi <startingOrEnding>
.
DELTA_KONFIGURASI_GANDA_UNTUK_KOLOM_TUNGGAL_DALAM_BLOOM_FILTER
Beberapa konfigurasi indeks bloom filter diteruskan ke perintah untuk kolom: <columnName>
.
DELTA_BARIS_SUMBER_BERGANDA_COCOK_DENGAN_BARIS_TARGET_DALAM_MERGE
Tidak dapat melakukan penggabungan karena beberapa baris sumber cocok dan berusaha mengubah baris target yang sama di dalam tabel Delta dengan cara yang mungkin bertentangan. Menurut semantik SQL Penggabungan, ketika beberapa baris sumber cocok pada baris target yang sama, hasilnya mungkin ambigu karena tidak jelas baris sumber mana yang harus digunakan untuk memperbarui atau menghapus baris target yang cocok. Anda dapat memproses tabel sumber terlebih dahulu untuk menghilangkan kemungkinan beberapa kecocokan. Silakan merujuk ke
<usageReference>
DELTA_HARUS_MENGATUR_SEMUA_KOMIT_KOORDINASI_KONF_DI_PERINTAH
Selama <command>
, kedua konfigurasi commit terkoordinasi ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview") harus diatur dalam perintah secara bersamaan atau tidak sama sekali. Hilang: "<configuration>
". Tentukan konfigurasi ini dalam klausa TBLPROPERTIES
atau hapus konfigurasi lain, lalu coba lagi perintah tersebut.
DELTA_HARUS_MENETAPKAN_SEMUA_KOMITMEN_TERKOORDINASI_KONFS_DALAM_SESI
Selama <command>
, baik kedua konfigurasi komit terkoordinasi ("coordinatedCommits.commitCoordinator-preview", "coordinatedCommits.commitCoordinatorConf-preview") diatur dalam konfigurasi SparkSession atau tidak satu pun dari keduanya. Hilang: "<configuration>
". Atur konfigurasi ini di SparkSession atau batalkan pengaturan konfigurasi lainnya, lalu coba lagi perintah tersebut.
Konflik Nama Delta dalam Tabel Berkeranjang
Nama kolom berikut ini dicadangkan hanya untuk keperluan internal tabel bucket Delta: <names>
.
DELTA_BIDANG_TERSARANG_PERLU_MENAMAI_ULANG
Skema input berisi bidang bersarang yang di-kapitalisasi secara berbeda dari tabel target.
Nama mereka perlu diubah untuk menghindari hilangnya data di bidang ini saat menulis ke Delta.
Bidang:
<fields>
.
Skema asli:
<schema>
KONSTRUKSI_DELTA_BERSARANG_TIDAK_NULL
Jenis bidang <nestType>
pada <parent>
memiliki batasan NOT NULL
. Delta tidak mendukung batasan NOT NULL
yang ditumpuk dalam array atau peta. Untuk menekan kesalahan ini dan secara diam-diam mengabaikan batasan yang ditentukan, atur <configKey>
= true.
Jenis <nestType>
yang diuraikan:
<nestedPrettyJson>
DELTA_PERTANYAAN_TERKAIT_BERSARANG_TIDAK_DIDUKUNG
Subkueri berlapis tidak didukung dalam kondisi <operation>
.
DELTA_BARU_PEMERIKSAAN_BATASAN_PELANGGARAN
<numRows>
baris di <tableName>
melanggar batasan baru CHECK
(<checkConstraint>
).
DELTA_BARU_PELANGGARAN_TIDAK_NULL
<numRows>
baris dalam <tableName>
melanggar batasan NOT NULL
baru pada <colName>
.
** DELTA_BATAS_PERIKSA_NON_BOOLEAN
CHECK
batasan '<name>
' (<expr>
) harus berupa ekspresi boolean.
DELTA_EKSPRESI_NON_DETERMINISTIK_DALAM_KOLOM_GENERASI
Ditemukan <expr>
. Kolom yang dihasilkan tidak dapat menggunakan ekspresi non deterministik.
FUNGSI_NON_DETERMINISTIK_DELTA_TIDAK_DIDUKUNG
Fungsi non-deterministik tidak didukung di <operation> <expression>
.
DELTA_KLAUSA_TERAKHIR_TIDAK_COCOK_HILANG_KONDISI
Ketika ada lebih dari satu klausa MATCHED
dalam pernyataan MERGE
, hanya klausa MATCHED
terakhir yang dapat menghilangkan kondisi.
DELTA_BUKAN_TERPADA_YANG_TIDAK_COCOK_DENGAN_KLAUSA_SUMBER_BIARKAN_KONDISI
Ketika ada lebih dari satu klausa NOT MATCHED BY SOURCE
dalam pernyataan MERGE
, hanya klausa NOT MATCHED BY SOURCE
terakhir yang dapat menghilangkan kondisi.
DELTA_TIDAK_SESUAI_TERAKHIR_PASAL_ABAIKAN_KONDISI
Ketika ada lebih dari satu klausa NOT MATCHED
dalam pernyataan MERGE
, hanya klausa NOT MATCHED
terakhir yang dapat menghilangkan kondisi.
DELTA_NON_PARSABLE_TAG
Tidak dapat mengurai tag <tag>
.
Tag file adalah: <tagList>
.
DELTA_KOLOM_BUKAN_PARTISI_TIDAK_ADA
Data yang ditulis ke Dalam Delta perlu berisi setidaknya satu kolom yang tidak dipartisi.<details>
Referensi Kolom Non-Partisi Delta
Predikat mengacu pada kolom non-partisi '<columnName>
'. Hanya kolom partisi yang dapat dirujuk: [<columnList>
].
DELTA_KOLOM_TIDAK_TERPARTISI_DITENTUKAN
Kolom non-partisi <columnList>
ditentukan di mana hanya kolom partisi yang diharapkan: <fragment>
.
KETERANGAN_NON_SATU_BAGIAN_NAMESPACE_UNTUK_KATALOG
Katalog Delta memerlukan namespace bagian tunggal, tetapi <identifier>
adalah multi-bagian.
Koordinator Komitmen Tanpa UC Delta Tidak Didukung dalam Perintah
Mengatur koordinator penerapan ke '<nonUcCoordinatorName>
' dari perintah tidak didukung, karena tabel yang dikelola UC hanya dapat memiliki 'unity-catalog' sebagai koordinator penerapan. Ubah menjadi 'unity-catalog' atau hapus semua properti tabel Komit Terkoordinasi dari TBLPROPERTIES
klausa, lalu coba lagi perintah tersebut.
Koordinator Komit Delta Non-UC Tidak Didukung dalam Sesi
Mengatur koordinator penerapan ke '<nonUcCoordinatorName>
' dari konfigurasi SparkSession tidak didukung, karena tabel yang dikelola UC hanya dapat memiliki 'unity-catalog' sebagai koordinator penerapan. Ubah menjadi 'unity-catalog' dengan menjalankan spark.conf.set("<coordinatorNameDefaultKey>", "unity-catalog")
, atau hapus semua properti tabel Komit Terkoordinasi dari konfigurasi SparkSession dengan menjalankan spark.conf.unset("<coordinatorNameDefaultKey>")
, spark.conf.unset("<coordinatorConfDefaultKey>")
, spark.conf.unset("<tableConfDefaultKey>")
, lalu coba lagi perintah tersebut.
DELTA_BUKAN_TABEL_DELTA_DATABRICKS
<table>
bukan tabel Delta. Silakan letakkan tabel ini terlebih dahulu jika Anda ingin membuatnya dengan Databricks Delta.
DELTA_BUKAN_TABEL_DELTA
<tableName>
bukan tabel Delta. Silakan hapus tabel ini dahulu jika Anda ingin membuatnya kembali dengan Delta Lake.
KOLOM_DELTA_TIDAK_NULL_TIDAK_DITEMUKAN_DALAM_STRUCT
Kolom yang tidak boleh bernilai null tidak ditemukan dalam struktur: <struct>
.
PELANGGARAN_PERATURAN_DELTA_TIDAK_BOLEH_NULL
batasan NOT NULL
dilanggar untuk kolom: <columnName>
.
DELTA_TIDAK_NULL_BIDANG_BERTINGKAT
Bidang berlapis yang tidak bernilai null tidak dapat ditambahkan ke induk yang dapat bernilai null. Atur nullability kolom induk sesuai kondisi yang diperlukan.
DELTA_TIDAK_ADA_KOMIT_YANG_DITEMUKAN
Tidak ada commit yang ditemukan di <logPath>
.
DELTA_TIDAK_ADA_RIWAYAT_YANG_BISA_DIBUAT_ULANG_DITEMUKAN
Tidak ada komit yang dapat direproduksi yang ditemukan di <logPath>
.
TIDAK ADA PELANGGARAN ATURAN PENGALIHAN
Operasi tidak diizinkan: <operation>
tidak dapat dilakukan pada tabel dengan fitur pengalihan.
Aturan tanpa pengalihan tidak terpenuhi <noRedirectRules>
.
TABEL_TIDAK_ADA_RELASI_DELTA
Tabel <tableIdent>
tidak ditemukan.
DELTA_TIDAK_MULAI_UNTUK_MEMBACA_CDC
Tidak ada startingVersion atau startingTimestamp yang disediakan untuk pembacaan data CDC.
SKEMA_NULL_DELTA_DALAM_PENULISAN_STREAMING
Delta tidak menerima NullTypes dalam skema untuk penulisan streaming.
DELTA_ONEOF_IN_TIMETRAVEL
Harap sediakan 'timestampAsOf' atau 'versionAsOf' untuk perjalanan waktu.
Operasi Hanya Delta
<operation>
hanya didukung untuk tabel Delta.
OPERASI_DELTA_JALUR_HILANG
Harap berikan pengidentifikasi jalur atau tabel untuk <operation>
.
OPERASI_DELTA_TIDAK_DIPERBOLEHKAN
Operasi tidak diizinkan: <operation>
tidak didukung untuk tabel Delta.
Operasi Delta Tidak Diizinkan (Detail)
Operasi tidak diizinkan: <operation>
tidak didukung untuk tabel Delta: <tableName>
.
OPERASI_DELTA_TIDAK_DIDUKUNG_UNTUK_KOLOM_DENGAN_KOLEKSI
<operation>
tidak didukung untuk kolom <colName>
dengan kolasi <collation>
yang bukan default.
OPERASI DELTA TIDAK DIDUKUNG UNTUK TIPE DATA
<operation>
tidak didukung untuk jenis data: <dataTypeList>
.
OPERASI_DELTA_TIDAK_DIDUKUNG_UNTUK_EKSPRESI_DENGAN_KOLASI
<operation>
tidak didukung untuk ekspresi <exprText>
karena menggunakan kolatasi non-default.
OPERASI_DELTA_PADA_VIEW_SEMENTARA_DENGAN_KOLOM_GENERASI_TIDAK_DIDUKUNG
<operation>
perintah pada tampilan sementara yang mengacu pada tabel Delta yang berisi kolom yang dihasilkan tidak didukung. Jalankan <operation>
perintah pada tabel Delta secara langsung.
Operasi Delta pada Tampilan Tidak Diizinkan
Operasi tidak diizinkan: <operation>
tidak dapat dilakukan pada tampilan.
DELTA_OPTIMASI_PENUH_TIDAK_DIDUKUNG
OPTIMIZE FULL
hanya didukung untuk tabel berkluster dengan kolom pengklusteran yang tidak kosong.
DELTA_OVERWRITE_HARUS_BER_NILAI_BENAR
Opsi salin overwriteSchema tidak dapat ditentukan tanpa pengaturan OVERWRITE
= 'true'.
SKEMA_TIMPALAN_DELTA_DENGAN_PENGGANTIAN_PARTISI_DINAMIS
'overwriteSchema' tidak dapat digunakan dalam mode penulisan ulang partisi dinamis.
PENGECORAN_KOLOM_PARTISI_DELTA_GAGAL
Gagal mengonversi nilai <value>
ke <dataType>
untuk kolom partisi <columnName>
.
KOLOM_PARTISI_DELTA_TIDAK_DITEMUKAN
Kolom <columnName>
partisi tidak ditemukan dalam skema [<schemaMap>
].
Skema Partisi Delta dalam Tabel Iceberg
Skema partisi tidak dapat ditentukan saat mengonversi tabel Iceberg. Ini secara otomatis disimpulkan.
JALUR_DELTA_TIDAK_ADA
<path>
tidak ada, atau bukan tabel Delta.
DELTA_PATH_EXISTS
Tidak dapat menulis ke jalur <path>
yang sudah ada tanpa menyetel OVERWRITE
sebagai 'true'.
Pengait Setelah Komit Gagal
Komitmen ke versi tabel Delta <version>
berhasil, tetapi terjadi kesalahan saat menjalankan hook setelah komitmen <name> <message>
PROTOKOL_DELTA_BERUBAH
ProtocolChangedException: Versi protokol dari tabel Delta telah diubah oleh pembaruan yang bersamaan. <additionalInfo> <conflictingCommit>
Lihat <docLink>
untuk detail selengkapnya.
Properti Delta Protokol Tidak Integer (DELTA_PROTOCOL_PROPERTY_NOT_INT)
Properti protokol <key>
harus berupa bilangan bulat. Ditemukan <value>
.
Protokol DELTA_READ_FEATURE membutuhkan akses menulis
Tidak dapat memutakhirkan versi protokol pembaca saja untuk menggunakan fitur tabel. Versi protokol pengarang setidaknya harus <writerVersion>
untuk melanjutkan. Lihat <docLink>
untuk informasi selengkapnya tentang versi protokol tabel.
BACA_TABEL_DELTA_TANPA_KOLOM
Anda mencoba membaca tabel Delta <tableName>
yang tidak memiliki kolom apa pun.
Tulis beberapa data baru dengan opsi mergeSchema = true
untuk dapat membaca tabel.
Kesalahan Sintaks Opsi Regex Delta
Silakan periksa kembali sintaks Anda untuk '<regExpOption>
'.
KETIDAKCOCOKAN_JALUR_HUBUNGAN_DELTA
Ketidakcocokan jalur relasi '<relation>
' dengan jalur '<targetType>
' dari <targetPath>
.
DELTA_GANTI_DIMANA_DALAM_TIMPA
Anda tidak dapat menggunakan replaceWhere bersama dengan "overwrite by filter".
GANTI_DELTA_SAAT_TIDAK_SESUAI
Data tertulis tidak sesuai dengan kondisi timpa tabel parsial atau batasan '<replaceWhere>
'.
<message>
GANTI_DELTA_DI_MANA_DENGAN_PARTISI_DINAMIS_OVERWRITE
Ekspresi 'replaceWhere' dan 'partitionOverwriteMode'='dynamic' tidak dapat diatur dalam opsi DataFrameWriter.
DELTA_GANTI_DIMANA_DENGAN_FILTER_PERUBAHAN_DATA_TIDAK_TERATUR
'replaceWhere' tidak dapat digunakan dengan filter data saat 'dataChange' diatur ke false. Filter: <dataFilters>
.
PENUGASAN_DELTA_ROW_ID_TANPA_STATISTIK
Tidak dapat menetapkan ID baris tanpa statistik jumlah baris.
Collect statistics for the table by running the following code in a Scala notebook and retry:
import com.databricks.sql.transaction.tahoe.DeltaLog
import com.databricks.sql.transaction.tahoe.stats.StatisticsCollection
import org.apache.spark.sql.catalyst.TableIdentifier
val log = DeltaLog.forTable(spark, TableIdentifier(table_name))
StatisticsCollection.recompute(spark, log)
SKEMA_DELTA_BERUBAH
Perubahan skema yang terdeteksi:
skema sumber streaming: <readSchema>
skema data file: <dataSchema>
Silakan coba mulai ulang pertanyaannya. Jika masalah ini berulang di seluruh kueri dimulai ulang tanpa
dalam membuat kemajuan, Anda telah melakukan perubahan skema yang tidak kompatibel dan perlu memulai kembali
lakukan kueri dari awal menggunakan direktori checkpoint baru.
SKEMA_DELTA_BERUBAH_DENGAN_OPSI_AWAL
Perubahan skema yang terdeteksi dalam versi <version>
:
skema sumber streaming: <readSchema>
skema data file: <dataSchema>
Silakan coba mulai ulang pertanyaannya. Jika masalah ini berulang di seluruh kueri dimulai ulang tanpa
dalam membuat kemajuan, Anda telah melakukan perubahan skema yang tidak kompatibel dan perlu memulai kembali
lakukan kueri dari awal menggunakan direktori checkpoint baru. Jika masalah berlanjut setelah
mengubah ke direktori titik pemeriksaan baru, Anda mungkin perlu mengubah yang sudah ada
Opsi 'startingVersion' atau 'startingTimestamp' untuk memulai dari versi yang lebih baru dari
<version>
dengan direktori titik pemeriksaan baru.
PERUBAHAN_SKEMA_DELTA_DENGAN_VERSI
Perubahan skema yang terdeteksi dalam versi <version>
:
skema sumber streaming: <readSchema>
skema data file: <dataSchema>
Silakan coba mulai ulang pertanyaannya. Jika masalah ini berulang di seluruh kueri dimulai ulang tanpa
dalam membuat kemajuan, Anda telah melakukan perubahan skema yang tidak kompatibel dan perlu memulai kembali
lakukan kueri dari awal menggunakan direktori checkpoint baru.
PERUBAHAN_SKEMA_DELTA_SEJAK_ANALISIS
Skema tabel Delta Anda telah berubah dengan cara yang tidak kompatibel karena DataFrame Anda
atau Objek DeltaTable telah dibuat. Tentukan ulang objek DataFrame atau DeltaTable Anda.
Perubahan:
<schemaDiff> <legacyFlagMessage>
SKEMA_DELTA_TIDAK_DIBERIKAN
Skema tabel tidak disediakan. Harap berikan skema (definisi kolom) tabel ketika tabel REPLACE
digunakan dan kueri AS SELECT
tidak disediakan.
SKEMA_DELTA_BELUM_DITETAPKAN
Skema tabel belum ditetapkan. Tulis data ke dalamnya atau gunakan CREATE TABLE
untuk mengatur skema.
KETIDAKCOCOKAN_SKEMA_LOKASI_DELTA_SET
Skema lokasi Delta baru berbeda dari skema tabel saat ini.
skema asli:
<original>
skema tujuan:
<destination>
Jika ini adalah perubahan yang dimaksudkan, Anda dapat menonaktifkan pemeriksaan ini dengan menjalankan:
%%sql atur <config>
= benar
DELTA_BERKAS_KLONING_SEMENTARA_TIDAK_DITEMUKAN
File <filePath>
yang dirujuk dalam log transaksi tidak dapat ditemukan. Ini dapat terjadi ketika data telah dihapus secara manual dari sistem file daripada menggunakan tabel DELETE
pernyataan. Tabel ini tampaknya merupakan kloning dangkal, jika demikian, kesalahan ini dapat terjadi ketika tabel asli tempat tabel ini dikloning telah menghapus file yang masih digunakan kloning. Jika Anda ingin ada kloning yang independen dari tabel asli, gunakan klon DEEP sebagai gantinya.
DELTA_SHARING_TIDAK_DAPAT_MENGUBAH_PROPERTI_PENERIMA_YANG_DIPESAN
Properti yang telah didefinisikan sebelumnya yang dimulai dengan <prefix>
tidak dapat dimodifikasi.
DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED (Properti Penerima Saat Ini Belum Ditetapkan)
Data dibatasi oleh properti penerima <property>
yang tidak berlaku untuk penerima saat ini dalam sesi.
Untuk informasi lebih lanjut, lihat DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
TINDAKAN_TIDAK_VALID_PADA_TAMPILAN_BERSAMA_EKSTERNAL
<operation>
tidak dapat digunakan dalam tampilan Delta Sharing yang dibagikan lintas akun.
DELTA_SHARING_OTENTIKASI_PENYEDIA_TIDAK_VALID
Jenis autentikasi ilegal <authenticationType>
untuk penyedia <provider>
.
PENERIMA_OTENTIKASI_TIDAK_VALID_DELTA_BAGIKAN
Jenis autentikasi ilegal <authenticationType>
untuk penerima <recipient>
.
DELTA_SHARING_NAMA_OBJEK_DATA_BERSAMA_TIDAK_VALID
Nama tidak valid untuk mereferensikan <type>
di dalam fitur berbagi. Anda dapat menggunakan nama <type>
di dalam berbagi dengan mengikuti format [skema].[<type>
], atau Anda juga dapat menggunakan nama lengkap asli tabel dengan mengikuti format [katalog].[skema].[>type>].
Jika Anda tidak yakin tentang nama apa yang akan digunakan, Anda dapat menjalankan "SHOW ALL IN SHARE
[bagikan]" dan menemukan nama <type>
yang ingin dihapus: kolom "nama" adalah nama <type>
di dalam bagikan dan kolom "shared_object" adalah nama lengkap asli <type>
.
DELTA_PEMBAGIAN_MAKSIMUM_RECIPIENT_TOKENS_TERLALU
Ada lebih dari dua token untuk penerima <recipient>
.
Properti Penerima Delta Sharing Tidak Ditemukan
Properti penerima <property>
tidak ada.
DELTA_SHARING_RECIPIENT_TOKENS_TIDAK_DITEMUKAN
Token penerima hilang untuk penerima <recipient>
.
DELTA_TAMPILKAN_PARTISI_DI_KOLOM_BERPARTISI
"<badCols>
kolom yang tidak dibagi ditentukan untuk SHOW PARTITIONS
."
Tampilkan Partisi di Tabel Tanpa Partisi Delta
SHOW PARTITIONS
tidak diizinkan pada tabel yang tidak dipartisi: <tableName>
.
DELTA_SUMBER_ABAIKAN_HAPUS
Data yang dihapus ditemukan (misalnya <removedFile>
) dari sumber streaming pada versi ke-<version>
. Ini saat ini tidak didukung. Jika Anda ingin mengabaikan penghapusan, atur opsi 'ignoreDeletes' ke 'true'. Tabel sumber dapat ditemukan di jalur <dataPath>
.
DELTA_SOURCES_TABEL_ABAIKAN_PERUBAHAN
Mendeteksi pembaruan data (misalnya <file>
) dalam tabel sumber pada versi <version>
. Ini saat ini tidak didukung. Jika ini akan terjadi secara teratur dan Anda merasa nyaman untuk melewati pergantian, setel opsi 'skipChangeCommits' menjadi 'true'. Jika Anda ingin pembaruan data tercermin, mulai ulang kueri ini dengan direktori titik pemeriksaan baru atau lakukan refresh penuh jika Anda menggunakan DLT. Jika Anda perlu menangani perubahan ini, silakan beralih ke MV. Tabel sumber dapat ditemukan di jalur <dataPath>
.
DELTA_VERSI_AWAL_DAN_CAP_WAKTU_KEDUA_DISETEL
Harap sediakan '<version>
' atau '<timestamp>
'.
KOLOM_PENGUMPULAN_STAT_DELTA_TIDAK_DITEMUKAN
Dalam metadata Parquet, statistik <statsType>
tidak ditemukan untuk kolom: <columnPath>
.
DELTA_STREAMING_TIDAK_DAPAT_MELANJUTKAN_PEMROSESAN_SETELAH_EVOLUSI_SKEMA
Kami telah mendeteksi satu atau beberapa perubahan skema non-aditif (<opType>
) antara versi <previousSchemaChangeVersion>
Delta dan <currentSchemaChangeVersion>
di sumber streaming Delta.
Perubahan:
<columnChangeDetails>
Silakan periksa apakah Anda ingin menyebarkan perubahan skema secara manual ke tabel sink sebelum kami melanjutkan pemrosesan aliran menggunakan skema yang diselesaikan pada versi <currentSchemaChangeVersion>
.
Setelah Anda memperbaiki skema tabel sink atau memutuskan tidak perlu diperbaiki, Anda dapat mengatur konfigurasi berikut untuk membuka blokir perubahan skema non-aditif dan melanjutkan pemrosesan aliran.
Menggunakan opsi pembaca dataframe:
Untuk membuka blokir aliran ini hanya untuk perubahan-perubahan skema tertentu ini:
<unblockChangeOptions>
Untuk membuka blokir untuk aliran khusus ini:
<unblockStreamOptions>
Menggunakan konfigurasi SQL:
Untuk membuka blokir aliran ini hanya untuk perubahan-perubahan skema tertentu ini:
<unblockChangeConfs>
Untuk membuka blokir untuk aliran khusus ini:
<unblockStreamConfs>
Untuk membuka blokir semua streaming:
<unblockAllConfs>
PEMERIKSAAN_DELTA_STREAMING_PEMETAAN_KOLOM_TANPA_CUPLIKAN
Gagal mendapatkan rekam jepret log Delta untuk versi mulai saat memeriksa perubahan skema pemetaan kolom. Pilih versi mulai yang berbeda, atau paksa aktifkan baca streaming dengan risiko Anda sendiri dengan mengatur '<config>
' ke 'true'.
PERUBAHAN_SKEMA_TIDAK_KOMPATIBEL_DELTA_STREAMING
Pembacaan streaming tidak didukung pada tabel dengan perubahan skema yang tidak kompatibel dengan pembacaan, seperti mengganti nama, menghapus, atau mengubah jenis data.
Untuk informasi lebih lanjut dan kemungkinan langkah berikutnya untuk mengatasi masalah ini, silakan tinjau dokumentasi di <docLink>
Baca skema: <readSchema>
. Skema data yang tidak kompatibel: <incompatibleSchema>
.
PERUBAHAN_SKEMA_TIDAK_KOMPATIBEL_STREAMING_DELTA_GUNAKAN_LOG_SKEMA
Pembacaan streaming tidak didukung pada tabel dengan perubahan skema yang tidak kompatibel dengan pembacaan, seperti mengganti nama, menghapus, atau mengubah jenis data.
Harap sediakan 'schemaTrackingLocation' untuk mengaktifkan evolusi skema non-aditif untuk pemrosesan aliran Delta.
Lihat <docLink>
untuk detail selengkapnya.
Baca skema: <readSchema>
. Skema data yang tidak kompatibel: <incompatibleSchema>
.
EVOLUSI_METADATA_DELTA_STREAMING
Skema, konfigurasi tabel, atau protokol tabel Delta Anda telah berubah selama streaming.
Log pelacakan skema atau metadata telah diperbarui.
Mulai ulang aliran untuk melanjutkan pemrosesan menggunakan metadata yang diperbarui.
Skema yang diperbarui: <schema>
.
Konfigurasi tabel yang diperbarui: <config>
.
Protokol tabel yang diperbarui: <protocol>
** DELTA_STREAMING_SKEMA_EVOLUSI_TIDAK_DIDUKUNG_FILTRASI_BARIS_COLUMN_MASKS
Streaming dari tabel sumber <tableId>
dengan pelacakan skema tidak mendukung filter baris atau masker kolom.
Hapus filter baris atau masker kolom, atau nonaktifkan pelacakan skema.
Konflik Lokasi Skema Streaming Delta
Lokasi skema '<loc>
' yang terdeteksi bertentangan saat streaming dari tabel atau tabel yang terletak di '<table>
'.
Aliran lain mungkin menggunakan kembali lokasi skema yang sama, yang tidak diizinkan.
Harap berikan jalur schemaTrackingLocation
unik baru atau streamingSourceTrackingId
sebagai opsi pembaca untuk salah satu aliran dari tabel ini.
Lokasi Skema Streaming Delta Tidak di Bawah Checkpoint
Lokasi skema '<schemaTrackingLocation>
' harus ditempatkan di bawah lokasi titik pemeriksaan '<checkpointLocation>
'.
GAGAL_DESERIALISASI_LOG_SKEMA_STREAMING_DELTA
File log yang tidak lengkap di log skema sumber streaming Delta di '<location>
'.
Log skema mungkin rusak. Silakan pilih lokasi skema baru.
SKEMA_STREAMING_DELTA_TIDAK_KOMPATIBEL_ID_TABEL_DELTA
Id tabel Delta yang terdeteksi tidak kompatibel saat mencoba membaca aliran Delta.
ID tabel yang dipertahankan: <persistedId>
, ID tabel: <tableId>
Catatan skema mungkin telah digunakan kembali. Silakan pilih lokasi skema baru.
DELTA_STREAMING_SCHEMA_LOG_SKEMA_PARTISI_TIDAK_KOMPATIBEL
Terdeteksi skema partisi yang tidak kompatibel saat mencoba membaca aliran Delta.
Skema yang bertahan: <persistedSchema>
, skema partisi Delta: <partitionSchema>
Pilih lokasi skema baru untuk menginisialisasi ulang log skema jika Anda telah mengubah skema partisi tabel secara manual baru-baru ini.
INISIALISASI_LOG_SKEMA_DELTA_STREAMING_GAGAL_META_DATA_TIDAK_KOMPATIBEL
Kami tidak dapat menginisialisasi log skema sumber streaming Delta karena
kami mendeteksi perubahan skema atau protokol yang tidak kompatibel saat melayani batch streaming dari versi tabel <a>
ke <b>
.
DELTA_STREAMING_SKEMA_LOG_GAGAL_MENGENALI_SKEMA
Gagal memproses skema dari log skema sumber streaming Delta.
Log skema mungkin rusak. Silakan pilih lokasi skema baru.
TABEL_DELTA_SUDAH_MEMILIKI_KOLOM_CDC
Tidak dapat mengaktifkan Ubah Pengambilan Data pada tabel. Tabel sudah berisi
kolom cadangan <columnList>
yang akan
digunakan secara internal sebagai metadata untuk Umpan Data Perubahan pada tabel. Untuk mengaktifkan
Lakukan Perubahan Umpan Data pada tabel untuk mengganti nama/hapus kolom-kolom ini.
TABEL_DELTA_SUDAH_ADA
Tabel <tableName>
sudah ada.
TABEL_DELTA_UNTUK_JALUR_CONF_HADOOP_TIDAK_DIDUKUNG
Saat ini DeltaTable.forPath hanya mendukung kunci konfigurasi hadoop yang dimulai dengan <allowedPrefixes>
tetapi mendapatkan <unsupportedOptions>
.
Ketidaksesuaian_ID_TABEL_DELTA (DELTA_TABLE_ID_MISMATCH)
Tabel Delta di <tableLocation>
telah diganti saat perintah ini menggunakan tabel.
Id tabel <oldId>
tetapi sekarang <newId>
.
Silakan coba lagi perintah saat ini untuk memastikannya membaca tampilan tabel yang konsisten.
TRANSISI KEADAAN PENGALIHAN TABEL DELTA TIDAK VALID
Tidak dapat memperbarui status pengalihan tabel: Dicoba transisi status yang tidak valid.
Tabel Delta '<table>
' tidak dapat berubah dari '<oldState>
' menjadi '<newState>
'.
TABEL_DELTA_TIDAK_VALID_ATUR_TIDAK_ATUR_PENGALIHRAN
Tidak dapat SET
atau UNSET
mengalihkan properti pada <table>
: properti saat ini '<currentProperty>
' tidak cocok dengan properti baru '<newProperty>
'.
KETIDAKCOCOKAN_LOKASI_TABEL_DELTA
Lokasi tabel <tableName>
yang ada adalah <existingTableLocation>
. Ini tidak cocok dengan lokasi <tableLocation>
yang ditentukan .
TABEL_DELTA_TIDAK_DITEMUKAN
Tabel <tableName>
Delta tidak ada.
TABEL_DELTA_TIDAK_DIDUKUNG_DALAM_OP
Tabel tidak didukung oleh <operation>
. Silakan gunakan jalur sebagai gantinya.
OPERASI_HANYA_TABEL_DELTA
<tableName>
bukan tabel Delta.
<operation>
hanya didukung untuk tabel Delta.
SPESIFIKASI PENGARAHAN ULANG TAK TERKENAL DELTA_TABLE
Log Delta berisi spesifikasi pengalihan tabel yang tidak dikenal '<spec>
'.
STRUKTUR_AKHIR_TABEL_TARGET_DELTA_KOSONG
Skema akhir dari tabel target tidak memiliki isi.
DELTA_TIMESTAMP_LEBIH_BESAR_DARI_COMMIT
Tanda waktu yang disediakan (<providedTimestamp>
) adalah setelah versi terbaru tersedia untuk ini
tabel (<tableName>
). Silakan gunakan tanda waktu sebelum atau pada <maximumTimestamp>
.
Cap Waktu Delta Tidak Sah
Tanda waktu yang disediakan (<expr>
) tidak dapat dikonversi ke tanda waktu yang valid.
DELTA_WAKTU_PENGEMBALIAN_TIDAK_VALID_NILAI_MULAI
<timeTravelKey>
harus menjadi nilai awal yang valid.
DELTA_TERLALU_BANYAK_PENCATATAN_MEMORI
Gagal mencantumkan file (<numFiles>
) dalam tabel Delta karena memori tidak mencukup. Memori yang diperlukan: <estimatedMemory>
, memori yang tersedia: <maxMemory>
.
DELTA_CATATAN_TRANSAKSI_YANG_DIPOTONG
<path>
: Tidak dapat merekonstruksi status pada versi <version>
karena log transaksi telah dipotong karena penghapusan manual atau kebijakan penyimpanan log (<logRetentionKey>=<logRetention>
) dan kebijakan penyimpanan titik pemeriksaan (<checkpointRetentionKey>=<checkpointRetention>
).
DELTA_PENGHAPUSAN_PARTISI_TABEL_TIDAK_DIDUKUNG
Operasi tidak diizinkan: TRUNCATE TABLE
pada tabel Delta tidak mendukung predikat partisi; gunakan DELETE
untuk menghapus partisi atau baris tertentu.
DELTA_UDF_DI_KOLOM_TERGENERASI
Ditemukan <udfExpr>
. Kolom yang dihasilkan tidak dapat menggunakan fungsi yang ditentukan pengguna.
DELTA_UNEXPECTED_ACTION_EXPRESSION (Ekspresi_Aksi_Tidak_Terduga_DELTA)
Ekspresi tindakan tak terduga <expression>
.
DELTA_JUMLAH_TAK_TERDUGA_KOLOM_PARTISI_DARI_NAMA_FILE
Diharapkan <expectedColsSize>
kolom partisi: <expectedCols>
, tetapi ditemukan <parsedColsSize>
kolom partisi: <parsedCols>
dari mem-parse nama file: <path>
.
PEMINDAIAN_SEBAGIAN_TIDAK_TERDUGA_DELTA
Diantisipasi pemindaian penuh sumber Delta, tetapi ditemukan pemindaian parsial. Jalur: <path>
.
DELTA_KOLOM_PARTISI_TIDAK_TERDUGA_DARI_NAMA_FILE
Mengharapkan kolom partisi <expectedCol>
, tetapi menemukan kolom partisi <parsedCol>
saat mengurai nama file: <path>
.
DELTA_SKEMA_PARTISI_TIDAK_TERDUGA_DARI_PENGGUNA
CONVERT
TO DELTA
dipanggil dengan skema partisi yang berbeda dari skema partisi yang disimpulkan dari katalog, harap hindari menyediakan skema sehingga skema partisi dapat dipilih dari katalog.
skema partisi katalog:
<catalogPartitionSchema>
skema partisi yang disediakan:
<userPartitionSchema>
Lokasi Kompatibilitas Seragam Delta Tidak Dapat Diubah
delta.universalFormat.compatibility.location tidak dapat diubah.
LOKASI_KESESUAIAN_UNIFORM_DELTA_TIDAK_TERDAFTAR
delta.universalFormat.compatibility.location tidak terdaftar dalam katalog.
DELTA_UNIFORM_KOMPATIBILITAS_LOKASI_TIDAK_ADA_ATAU_TIDAK_VALID
Lokasi hilang atau tidak valid untuk format kompatibilitas seragam. Silakan atur direktori kosong untuk delta.universalFormat.compatibility.location.
Alasan kegagalan:
Untuk detail selengkapnya, lihat DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION
DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
Pembacaan Iceberg menggunakan Delta Uniform telah gagal.
Untuk detail selengkapnya, lihat DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
DELTA_UNIFORM_INGRESS_FORMAT_AMBIGUO
Beberapa format ingress Delta Uniform (<formats>
) ditemukan, paling banyak satu dapat disetel.
MASUK_DELTA_UNIFORM_TIDAK_DIDUKUNG
Membuat atau memperbarui tabel ingress seragam tidak didukung.
FORMAT PENERIMAAN DELTA UNIFORM TIDAK DIDUKUNG
Format <fileFormat>
tidak didukung. Hanya Iceberg dan Hudi sebagai format file asli yang didukung.
DELTA_UNIFORM_INGRESS_VIOLATION
Pembacaan Delta Uniform gagal:
Untuk detail lebih lanjut, lihat DELTA_UNIFORM_INGRESS_VIOLATION
DELTA_UNIFORM_TIDAK_DIDUKUNG
Format Universal hanya didukung pada tabel Katalog Unity.
DELTA_UNIFORM_REFRESH_INVALID_ARGUMENT
REFRESH TABLE
dengan argumen yang tidak valid:
Untuk detail selengkapnya, lihat DELTA_UNIFORM_REFRESH_INVALID_ARGUMENT
PEMBAHARUAN_UNIFORM_DELTA_TIDAK_DIDUKUNG
REFRESH
pengidentifikasi SYNC UNIFORM
tidak didukung karena alasan:
Untuk informasi lebih lanjut, lihat DELTA_UNIFORM_REFRESH_NOT_SUPPORTED
DELTA_PEMBARUAN_SERAGAM_TIDAK_DIDUKUNG_UNTUK_TABEL_ICEBERG_TERKELOLA_DENGAN_PATH_METADATA
REFRESH TABLE
dengan METADATA_PATH
tidak didukung untuk tabel Iceberg yang dikelola.
KONVERSI_FORMAT_UNIVERSAL_DELTA_GAGAL
Gagal mengonversi versi tabel <version>
ke format universal <format>
. <message>
Pelanggaran Format Universal Delta
Validasi Format Universal (<format>
) gagal: <violation>
.
DELTA_KONFIGURASI_TIDAK_DIKENAL
Konfigurasi tidak dikenal telah ditentukan: <config>
.
Untuk menonaktifkan pemeriksaan ini, atur <disableCheckConfig>
=true dalam konfigurasi sesi Spark.
DELTA_HAK ISTIMEWA TIDAK DIKENAL
Hak istimewa yang tidak diketahui: <privilege>
.
BATAS_BACA_TIDAK_DIKETAHUI_DELTA
ReadLimit Tidak Diketahui: <limit>
.
DELTA_PERUBAHAN_KOLOM_TIDAK_TERKENAL
Perubahan kolom yang tidak dikenal <otherClass>
. Anda mungkin menjalankan versi Delta Lake yang sudah kedaluarsa.
DELTA_TIDAK_DIKENALI_INVARIAN
Tidak dikenali invariabel. Silakan tingkatkan versi Spark Anda.
DELTA_UNRECOGNIZED_LOGFILE
File log <filename>
yang tidak dikenal.
HAPUS_DELTA_PROPERTI_TIDAK_ADA
Mencoba untuk membatalkan pengaturan properti '<property>
' yang tidak ada dalam tabel <tableName>
.
DELTA_TIDAK_DIDUKUNG_JALUR_ABS_TAMBAH_BERKAS
<path>
tidak mendukung penambahan file dengan jalur absolut.
DELTA_OPERASI_UBAH_TABEL_YANG_TIDAK_DIDUKUNG_ALTER_COLOM
ALTER TABLE CHANGE COLUMN
tidak didukung untuk mengubah kolom <fieldPath>
dari <oldField>
ke <newField>
.
DELTA_TIDAK_DIDUKUNG_MENGUBAH_TABEL_GANTI_KOLOM_OP
Operasi ALTER TABLE REPLACE COLUMNS
tidak didukung. Alasan: <details>
Gagal mengubah skema dari:
<oldSchema>
Kepada:
<newSchema>
DELTA_TIDAK_MENDUKUNG_KLON_GANTI_TABEL_SAMA
Anda mencoba REPLACE
tabel yang ada (<tableName>
) dengan CLONE
. Operasi ini adalah
tidak didukung. Coba target lain untuk CLONE
atau hapus tabel pada target saat ini.
DELTA_PERUBAHAN_MODE_PEMETAAN_KOLOM_TIDAK_DIDUKUNG
Mengubah mode pemetaan kolom dari '<oldMode>
' ke '<newMode>
' tidak didukung.
OPERASI_PEMETAAN_KOLOM_YANG_TIDAK_DIDUKUNG_PADA_KOLOM_DENGAN_INDEKS_BLOOM_FILTER
Gagal melakukan operasi Pemetaan Kolom <opName>
pada kolom <quotedColumnNames>
karena kolom ini memiliki Indeks Filter Bloom.
Jika Anda ingin melakukan operasi Pemetaan Kolom pada kolom
dengan Bloom Filter Index(es),
silakan hapus Indeks Filter Bloom terlebih dahulu:
DROP BLOOMFILTER INDEX ON TABLE
FOR COLUMNS(<columnNames>
namaTabel )
Jika Anda ingin menghapus semua Indeks Filter Bloom pada tabel, gunakan:
DROP BLOOMFILTER INDEX ON TABLE
namaTabel
PROTOKOL_PEMETAAN_KOLOM_TIDAK_DIDUKUNG_DELTA
Versi protokol tabel Anda saat ini tidak mendukung perubahan mode pemetaan kolom
menggunakan <config>
.
Versi protokol Delta yang diperlukan untuk pemetaan kolom:
<requiredVersion>
Versi protokol Delta tabel Anda saat ini:
<currentVersion>
<advice>
PERUBAHAN_SKEMA_PEMETAAN_KOLOM_TIDAK_DIDUKUNG_DELTA
Perubahan skema terdeteksi:
skema lama:
<oldTableSchema>
skema baru:
<newTableSchema>
Perubahan skema tidak diperbolehkan selama perubahan mode pemetaan kolom.
PENULISAN_PEMETAAN_KOLOM_TIDAK_DIDUKUNG_DELTA
Menulis data dengan mode pemetaan kolom tidak didukung.
DELTA_TIPE_KOLOM_TIDAK_DIDUKUNG_DALAM_BLOOM_FILTER
Membuat indeks filter mekar pada kolom dengan jenis <dataType>
tidak didukung: <columnName>
.
DELTA_TIDAK_DIDUKUNG_PETA_KOMENTAR_ARRAY
Tidak dapat menambahkan komentar ke <fieldPath>
. Menambahkan komentar ke kunci/nilai pemetaan atau elemen array tidak didukung.
DELTA_TIPE_DATA_TIDAK_DIDUKUNG
Kolom yang ditemukan menggunakan jenis data yang tidak didukung: <dataTypeList>
. Anda dapat mengatur '<config>
' ke 'false' untuk menonaktifkan pemeriksaan jenis. Menonaktifkan pemeriksaan jenis ini dapat memungkinkan pengguna membuat tabel Delta yang tidak didukung dan hanya boleh digunakan saat mencoba membaca/menulis tabel warisan.
Jenis data yang tidak didukung di kolom yang dihasilkan.
<dataType>
tidak dapat berupa hasil kolom yang dihasilkan.
PENGKLONAN_MENYELURUH_TIDAK_DIDUKUNG_DELTA
Mengkloning mendalam tidak didukung oleh versi Delta ini.
DESKRIPSI_DETAIL_VIEW_TIDAK_DIDUKUNG_DELTA
<view>
merupakan tampilan.
DESCRIBE DETAIL
hanya didukung untuk tabel.
DELTA_TIDAK_DIDUKUNG_HAPUS_KOLOM_PENGGROUAN
Menghilangkan kolom pengklusteran (<columnList>
) tidak diperbolehkan.
DELTA_TIDAK_MENDUKUNG_HAPUS_KOLOM
DROP COLUMN
tidak didukung untuk tabel Delta Anda. <advice>
DELTA_TIDAK_DIDUKUNG_MENGHAPUS_KOLOM_BERSARANG_DARI_TIPE_NON_STRUKTUR
Hanya dapat menghilangkan kolom berlapis dari StructType. Ditemukan <struct>
.
DELTA_TIDAK_MENDUKUNG_MENGHAPUS_KOLOM_PARTISI
Menghilangkan kolom partisi (<columnList>
) tidak diperbolehkan.
Ekspresi_Tidak_Didukung_DELTA
Jenis ekspresi yang tidak didukung(<expType>
) untuk <causedBy>
. Jenis yang didukung adalah [<supportedTypes>
].
DELTA_EKSPRESI_TIDAK_DIDUKUNG_KOLOM_TERGENERASI
<expression>
tidak dapat digunakan dalam kolom yang dihasilkan.
FITUR_YANG_TIDAK_DIDUKUNG_UNTUK_MEMBACA
Fitur baca Delta yang tidak didukung: tabel "<tableNameOrPath>
" memerlukan fitur tabel pembaca yang tidak didukung oleh versi Databricks ini: <unsupported>
. Silakan merujuk ke <link>
untuk informasi selengkapnya tentang kompatibilitas fitur Delta Lake.
FITUR_YANG_TIDAK_DIDUKUNG_DELTA_UNTUK_PENULISAN
Fitur tulis Delta yang tidak didukung: tabel "<tableNameOrPath>
" memerlukan fitur tabel penulis yang tidak didukung oleh versi Databricks ini: <unsupported>
. Silakan merujuk ke <link>
untuk informasi selengkapnya tentang kompatibilitas fitur Delta Lake.
DELTA_FITUR_YANG_TIDAK_DIDUKUNG_DALAM_KONFIGURASI
Fitur tabel yang dikonfigurasi dalam konfigurasi Spark atau properti tabel Delta berikut ini tidak dikenali oleh versi Databricks ini: <configs>
.
STATUS_FITUR_TIDAK_DIDUKUNG_DELTA
Diharapkan status untuk fitur tabel <feature>
adalah "didukung", tetapi mendapat "<status>
".
DELTA_Pembaruan_Bidang_Tidak_Didukung_Non-Struktural
Pembaruan field berjenjang hanya didukung untuk StructType, tetapi Anda mencoba memperbarui field <columnName>
, yang bertipe: <dataType>
.
DELTA_TIDAK_DIDUKUNG_FSCK_DENGAN_VEKTOR_PENGHAPUSAN
Perintah 'FSCK REPAIR TABLE
' tidak didukung pada versi tabel dengan file vektor penghapusan yang hilang.
Silakan hubungi dukungan.
DELTA_TIDAK_DIDUKUNG_GENERATE_DENGAN_VEKTOR_DELETION
Perintah 'GENERATE
symlink_format_manifest' tidak didukung pada versi tabel dengan vektor penghapusan.
Untuk menghasilkan versi tabel tanpa vektor penghapusan, jalankan 'REORG TABLE
tabel APPLY (PURGE
)'. Kemudian jalankan kembali perintah ''GENERATE
.
Pastikan bahwa tidak ada transaksi bersamaan yang menambahkan vektor penghapusan lagi antara REORG
dan GENERATE
.
Jika Anda perlu membuat manifes secara teratur, atau Anda tidak dapat mencegah transaksi bersamaan, pertimbangkan untuk menonaktifkan vektor penghapusan pada tabel ini menggunakan 'ALTER TABLE
table SET TBLPROPERTIES
(delta.enableDeletionVectors = false)'.
DELTA_TIDAK_DIDUKUNG_INVARIAN_TANPA_STRUKTUR
Invarian pada bidang berlapis selain StructTypes tidak didukung.
DELTA_TIDAK_DIDUKUNG_DALAM_SUBQUERY
Subkueri tidak didukung dalam kondisi <operation>
.
DELTA_DAFTAR_KUNCI_TIDAK_DIDUKUNG_DENGAN_PREFIX
listKeywithPrefix tidak tersedia.
GENERASI_MANIFEST_YANG_TIDAK_DIDUKUNG_DENGAN_PEMETAAN_KOLOM_DELTA
Pembuatan manifes tidak didukung untuk tabel yang memanfaatkan pemetaan kolom, karena pembaca eksternal tidak dapat membaca tabel Delta ini. Lihat Dokumentasi Delta untuk detail selengkapnya.
DELTA_TIDAK_MENDUKUNG_EVOLUSI_SKEMA_MERGE_DENGAN_CDC
MERGE INTO
operasi dengan evolusi skema saat ini tidak mendukung penulisan output CDC.
DELTA_TIDAK_DIDUKUNG_MULTI_KOLOM_DALAM_PREDIKAT
Predikat 'In' multi-kolom tidak didukung dalam kondisi <operation>
.
KOLUM_YANG_TERDAMPAR_TIDAK_DIDUKUNG_DI_BLOOM_FILTER
Membuat indeks filer bloom pada kolom berlapis saat ini tidak didukung: <columnName>
.
DELTA_BIDANG_TERSELIP_TIDAK_DIDUKUNG_DALAM_OPERASI
Bidang berlapis tidak didukung di <operation>
(bidang = <fieldName>
).
DELTA_TIDAK_DIDUKUNG_KLON_TIDAK_KOSONG
Tabel tujuan kloning tidak kosong. Silakan TRUNCATE
atau DELETE FROM
tabel sebelum menjalankan CLONE
.
DELTA_MODE_KELUARAN_TIDAK_DIDUKUNG
Sumber data <dataSource>
tidak mendukung <mode>
mode output.
KOLOM PARTISI TIDAK DIDUKUNG DALAM FILTER BLOOM
Membuat indeks filter mekar pada kolom partisi tidak didukung: <columnName>
.
DELTA_TIDAK_MENDUKUNG_UBAH_NAMA_KOLOM
Penggantian nama kolom tidak didukung untuk tabel Delta Anda. <advice>
DELTA_SKEMA_TIDAK_DIDUKUNG_SELANJUTNYA_SELAMA_BACA
Delta tidak mendukung penentukan skema pada waktu baca.
DELTA_TIDAK_DIDUKUNG_URUTKAN_DI_TABEL_BERKERANJANG
SORTED BY
tidak didukung untuk tabel yang diatur dalam bucket Delta.
SUMBER YANG TIDAK DIDUKUNG DELTA
<operation>
hanya mendukung sumber Delta sebagai destinasi.
<plan>
DELTA_PARTISI_STATIS_TIDAK_DIDUKUNG
Menentukan partisi statis dalam spesifikasi partisi saat ini tidak didukung selama penyisipan.
DELTA_NAMA_STRATEGI_TIDAK_DIDUKUNG
Nama strategi yang tidak didukung: <strategy>
.
DELTA_UNSUPPORTED_SUBQUERY (Subkueri Tidak Didukung pada Delta)
Subkueri tidak didukung pada <operation>
(kondisi = <cond>
).
DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES (Subquery tidak didukung dalam predikat partisi)
Subkueri tidak didukung pada predikat partisi.
DELTA_TIDAK_MENDUKUNG_PENGEMBALIAN_WAKTU_DENGAN_FORMAT_BERBEDA
Tidak dapat mengatur perjalanan waktu dalam beberapa format.
DELTA_TAMPILAN_JELAJAH_WAKTU_TIDAK_DIDUKUNG
Tidak dapat menggunakan fitur perjalanan waktu, subkueri, streaming, atau mengubah kueri umpan data.
DELTA_TIDAK_DIDUKUNG_MEMOTONG_TABEL_SAMPLE
Memotong tabel sampel tidak didukung.
PERUBAHAN_JENIS_YANG_TIDAK_DIDUKUNG_DALAM_SKEMA
Tidak dapat beroperasi pada tabel ini karena perubahan tipe yang tidak didukung diterapkan. Bidang <fieldName>
diubah dari <fromType>
menjadi <toType>
.
PERUBAHAN JENIS TIDAK DIDUKUNG PADA KOLOM DENGAN INDEKS BLOOM FILTER
Gagal mengubah tipe data kolom <quotedColumnNames>
karena kolom ini memiliki Indeks Filter Bloom.
Jika Anda ingin mengubah tipe data kolom dengan Bloom Filter Index(es),
silakan hapus Indeks Filter Bloom terlebih dahulu:
DROP BLOOMFILTER INDEX ON TABLE
FOR COLUMNS(<columnNames>
namaTabel )
Jika Anda ingin menghapus semua Indeks Filter Bloom pada tabel, gunakan:
DROP BLOOMFILTER INDEX ON TABLE
namaTabel
Fungsi vakum pada partisi tertentu tidak didukung di DELTA
Harap sediakan jalur dasar (<baseDeltaPath>
) saat membersihkan tabel delta. Menyedot debu pada partisi tertentu belum bisa dilakukan.
DELTA_TULISAN_TIDAK_DIDUKUNG_TABEL_DITAHAPKAN
Implementasi tabel tidak mendukung penulisan: <tableName>
.
DELTA_TULISAN_TIDAK_DIDUKUNG_TANPA_KOORDINATOR
Anda mencoba menulis pada tabel yang telah terdaftar di koordinator komit <coordinatorName>
. Namun, tidak ada implementasi koordinator ini yang tersedia di lingkungan saat ini dan menulis tanpa koordinator tidak diizinkan.
TABEL_SAMPEL_TULISAN_TIDAK_DIDUKUNG_DELTA
Menulis ke tabel sampel tidak didukung.
EKSPRESI_KETIDAKCOCOKAN_SKEMA_PEMBARUAN_DELTA
Tidak dapat melemparkan <fromCatalog>
ke <toCatalog>
. Semua kolom berlapis harus sesuai.
DELTA_V2_TITIK_PENGECEKAN_DIPERLUKAN_UNTUK_OPERASI
CHECKPOINT
operasi mengharuskan Titik Pemeriksaan V2 diaktifkan pada tabel.
KESALAHAN_DELTA_VAKUM_SALIN_KE_STATUS_GAGAL
VACUUM
pada file data berhasil, tetapi pengumpulan sampah untuk status COPY INTO
gagal.
DELTA_VERSIONS_NOT_CONTIGUOUS
Versi (<versionList>
) tidak berurutan.
Celah dalam log delta antara versi <startVersion>
dan <endVersion>
terdeteksi saat mencoba memuat versi <versionToLoad>
.
Untuk informasi lebih lanjut, lihat DELTA_VERSIONS_NOT_CONTIGUOUS
Versi Delta Tidak Valid
Versi yang disediakan (<version>
) bukan versi yang valid.
DELTA_MELANGGAR_KENDALA_DENGAN_NILAI
CHECK
batasan <constraintName> <expression>
dilanggar oleh baris dengan nilai:
<values>
.
Pelanggaran Properti Tabel DELTA: Validasi Gagal
Validasi properti tabel <table>
telah dilanggar:
Untuk informasi lebih lanjut, lihat DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
PENULISAN_DELTA_KE_TAMPILAN_TIDAK_DIDUKUNG
<viewIdentifier>
merupakan tampilan. Anda tidak boleh menulis data ke dalam tampilan.
KOLOM_DELTA_ZORDERING_TIDAK_ADA
Kolom Z-Ordering <columnName>
tidak ada dalam skema data.
Urutan Delta pada Kolom Tanpa Statistik
Z-Ordering pada <cols>
tidak akan efektif, karena saat ini kami tidak mengumpulkan statistik untuk kolom ini. Silakan merujuk ke <link>
untuk informasi lebih lanjut tentang lompati data dan z-ordering. Anda dapat menonaktifkan pemeriksaan ini dengan mengatur
SET <zorderColStatKey>
= salah
PENGURUTAN_DELTA_PADA_KOLOM_PARTISI
<colName>
adalah kolom partisi. Urutan Z hanya dapat dilakukan pada kolom data
Berbagi Delta
DELTA_SHARING_AKTIVASI_NONCE_TIDAK_ADA
SQLSTATE: tidak ada yang ditetapkan
Nonce aktivasi tidak ditemukan. Tautan aktivasi yang Anda gunakan tidak valid atau telah kedaluwarsa. Regenerasi tautan aktivasi dan coba lagi.
BAGIKAN_DELTA_ANTAR_WILAYAH_TIDAK_DIDUKUNG
SQLSTATE: tidak ada yang ditetapkan
Berbagi antar wilayah <regionHint>
dengan wilayah di luarnya tidak didukung.
DELTA_BAGIKAN_GET_PROPERTI_PENERIMA_TIDAK_VALID_TERGANTUNG
SQLSTATE: tidak ada yang ditetapkan
Tampilan yang ditentukan dengan fungsi current_recipient
hanya untuk berbagi dan hanya dapat dikueri dari sisi penerima data. Securable dengan id <securableId>
yang disediakan bukan merupakan Tampilan Berbagi Delta.
Tipe yang dapat diamankan pada DELTA_SHARING yang dapat berubah tidak didukung
SQLSTATE: tidak ada yang ditetapkan
Jenis securable <securableKind>
yang diberikan tidak mendukung perubahan dalam Delta Sharing.
DELTA_BAGIKAN_ROTASI_TOKEN_TIDAK_DIAUTORISASI_UNTUK_PASARAN
SQLSTATE: tidak ada yang ditetapkan
Jenis dapat diamankan <securableKind>
tidak mendukung aksi rotasi token yang diprakarsai oleh layanan Marketplace.
DS_AUTH_TYPE_NOT_AVAILABLE (Tipe otentikasi DS tidak tersedia)
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Jenis autentikasi tidak tersedia di entitas penyedia <providerEntity>
.
DS_CDF_TIDAK_DIAKTIFKAN
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Tidak dapat mengakses umpan data perubahan untuk <tableName>
. CDF tidak diaktifkan pada tabel delta asli untuk versi <version>
. Silakan hubungi penyedia data Anda.
DS_CDF_TIDAK_DIBAGIKAN
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Tidak dapat mengakses umpan data perubahan untuk <tableName>
. CDF tidak dibagikan pada tabel. Silakan hubungi penyedia data Anda.
DS_CDF_RPC_INVALID_PARAMETER (Parameter Tidak Valid)
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <message>
Kesalahan Autentikasi Klien DS untuk Basis Data Server DS
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <message>
Kesalahan Klien untuk Pangkalan Data Server DS
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <message>
KEGAGALAN PERTUKARAN TOKEN OAUTH KLIEN_DS
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <message>
Pertukaran Token OAuth DS_CLIENT tidak diizinkan
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <message>
Vendor Cloud Tidak Tersedia
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Vendor cloud untuk sementara waktu tidak tersedia untuk <rpcName>
, silakan coba lagi.<traceId>
PERINTAH_MATERIALISASI_DATA_GAGAL
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Tugas materialisasi data yang dijalankan <runId>
dari org <orgId>
gagal di perintah <command>
Perintah Materialisasi Data Tidak Didukung
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Tugas materialisasi data berjalan <runId>
dari org <orgId>
tidak mendukung perintah <command>
Materialisasi data tidak didukung tanpa teknologi serverless.
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <featureName>
tidak didukung karena serverless tidak didukung atau diaktifkan di ruang kerja penyedia. Silakan hubungi penyedia data Anda untuk mengaktifkan tanpa server.
DS_DATA_MATERIALIZATION_TIDAK_ADA_NAMESPACE_VALID
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Tidak dapat menemukan namespace yang valid untuk membuat materialisasi untuk <tableName>
. Silakan hubungi penyedia data Anda untuk memperbaikinya.
DS_DATA_MATERIALIZATION_RUN_TIDAK_ADA
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Tugas materialisasi data yang dijalankan <runId>
dari org <orgId>
tidak ditemukan
DS_DELTA_ILLEGAL_STATE
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <message>
Berkas Pengecekan Delta Hilang
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Tidak dapat menemukan semua berkas bagian dari pos pemeriksaan pada versi: <version>
. <suggestion>
DS_DELTA_NULL_POINTER (penunjuk null)
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <message>
Pengecualian Saat Runtime DS_DELTA
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <message>
Token Kedaluwarsa: Tidak Diotorisasi untuk Marketplace
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Jenis yang dapat diamankan <securableKind>
yang disediakan tidak mendukung tindakan kedaluwarsa token yang dimulai oleh layanan Marketplace.
Permintaan Gagal untuk Membuka Server DS
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <message>
Permintaan ke server SAP DS gagal
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <message>
FITUR_DS_HANYA_UNTUK_DATABRICKS_KE_DATABRICKS
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <feature>
hanya diaktifkan untuk berbagi Databricks ke Databricks Delta.
DS_FILE_LISTING_EXCEPTION (Pengecualian daftar file DS)
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: : <storage>
<message>
Pengecualian Penandatanganan File DS
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <message>
DS_FOREIGN_TABLE_METADATA_REFRESH_FAILED (Pembaruan metadata tabel asing gagal)
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <message>
Konfigurasi DS_HADOOP belum diatur (DS_HADOOP_CONFIG_NOT_SET)
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <key>
tidak diatur oleh pemanggil.
DS_KEADAAN_TIDAK_SAH
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <message>
Kesalahan Internal DS Dari Server DS DB
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <message>
Jalur Azure Tidak Valid
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Jalur Azure tidak valid: <path>
.
Operasi Tindakan Delta Tidak Valid
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <message>
Bidang Tidak Valid
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <message>
Operasi Iterator Tidak Valid pada DS
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <message>
Nilai Parameter Tidak Valid
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Parameter tidak valid karena <rpcName>
<cause>
.
DS_SPESIFIKASI_PARTISI_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <message>
Respons tidak valid dari server DS
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <message>
KUERI_MATERIALISASI_DS_GAGAL
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Kueri untuk <schema>
gagal.
<table>
dari Share <share>
.
KUERI_MATERIALISASI_DS_HABIS_WAKTU
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Waktu kueri habis untuk <schema>
.
<table>
dari Bagikan <share>
setelah <timeoutInSec>
detik.
KUNCI_IDEMPOTENSI_DS_HILANG
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Kunci idempoten diperlukan saat query <schema>
.
<table>
dari Share <share>
secara asinkron.
DS_LEBIH_DARI_SATU_SET_PARAMETER_RPC
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Harap hanya sediakan salah satu dari: <parameters>
.
KONEKSI JARINGAN TERPUTUS
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Koneksi jaringan ditutup karena <rpcName>
<errorCause>
, silakan coba lagi.<traceId>
DS_KONEKSI_JARINGAN_TIMEOUT
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Batas waktu koneksi jaringan karena <rpcName>
<errorCause>
, silakan coba lagi.<traceId>
KESALAHAN_JARINGAN_DS
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Kesalahan jaringan karena <rpcName>
<errorCause>
, silakan coba lagi.<traceId>
DS_TIDAK_ADA_METASTORE_DITUGASKAN
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Tidak ada metastore yang ditetapkan untuk ruang kerja saat ini (workspaceId: <workspaceId>
).
DS_O2D_OIDC_GAGAL_GENERASI_TOKEN_IDENTITAS_BEBAN_KERJA
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Pembuatan token identitas beban kerja untuk penyedia OIDC O2D gagal: <message>
.
DS_KETIDAKCOCOKAN_PAGINASI_DAN_ARGUMEN_QUERY
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Ketidakcocokan argumen paginasi atau kueri.
KOLOM_PARTISI_DS_DIUBAH_NAMA
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Kolom partisi [<renamedColumns>
] diganti namanya pada tabel bersama. Silakan hubungi penyedia data Anda untuk memperbaikinya.
KUERI_DS_SEBELUM_VERSI_MULAI
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Anda hanya bisa mengkueri data tabel sejak versi <startVersion>
.
AKHIR_VERSI_DS_QUERY_SETELAH_VERSI_TERBARU
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Versi akhir yang disediakan(<endVersion>
) untuk membaca data tidak valid. Versi akhir tidak boleh lebih besar dari versi terbaru tabel(<latestVersion>
).
DS_QUERY_MULAI_VERSI_SETELAH_VERSI_TERBARU
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Versi mulai yang disediakan(<startVersion>
) untuk membaca data tidak valid. Versi awal tidak boleh lebih besar dari versi terbaru tabel(<latestVersion>
).
WAKTU_HABIS_PERTANYAAN_DS_DI_SERVER
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Terjadi batas waktu saat memproses <queryType>
pada <tableName>
setelah <numActions>
pembaruan selama <numIter>
iterasi.<progressUpdate> <suggestion> <traceId>
Pembatasan Laju pada Server DS
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <message>
DS_RECIPIENT_RPC_PARAMETER_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <message>
DS_RECON_GAGAL_SAAT_UC_WRITE_RPC
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: UC RPC <rpcName>
gagal, mengonversi ke INTERNAL_ERROR
.
Sumber daya sudah ada di server DS.
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <message>
DS_RESOURCE_HABIS
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Batas <resource>
telah terlampaui: [<limitSize>
]<suggestion>
.<traceId>
SUMBER_DAYA_TIDAK_DITEMUKAN_DI_SERVER_DS
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <message>
Konflik Nama Skema DS Ditemukan
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Katalog <catalogName>
sudah berisi nama skema yang ditemukan di berbagi <shareName>
.
<description>
nama skema yang bertentangan: <schemaNamesInCommon>
.
Batas Waktu Server DS
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Server mengalami timeout untuk <rpcName>
karena <errorCause>
, silakan coba lagi.<traceId>
Berkas Bersama Sudah Terpasang ke Katalog
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Share <shareName>
dari penyedia <providerName>
sudah terhubung ke katalog <catalogName>
.
DS_SISTEM_IZIN_KELOMPOK_RUANG_KERJA_TIDAK_DIDUKUNG
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat memberikan hak istimewa pada <securableType>
untuk grup yang dihasilkan oleh sistem <principal>
.
PERJALANAN_WAKTU_TIDAK_DIIJINKAN
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Permintaan perjalanan waktu tidak diizinkan kecuali jika riwayat dibagikan di <tableName>
. Silakan hubungi penyedia data Anda.
DS_TIDAK_DIAUTORIZASI
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Tidak sah.
DS_TIDAK_DIBENARKAN_D2O_OIDC_PENERIMA
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Penerima OIDC D2O yang tidak sah: <message>
.
DS_KESALAHAN_TIDAK_DIKETAHUI
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <traceId>
DS_ID_PERTANYAAN_TIDAK_DIKETAHUI
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Id kueri <queryID>
yang tidak diketahui untuk <schema>
.
<table>
dari Share <share>
.
DS_STATUS_PERTANYAAN_TIDAK_DI_KETAHUI
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Status kueri yang tidak diketahui untuk id kueri <queryID>
untuk <schema>
.
<table>
dari Share <share>
.
DS_UNKNOWN_RPC
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: RPC <rpcName>
tidak diketahui .
Versi Pembaca Delta Tidak Didukung
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Versi pembaca protokol Delta <tableReaderVersion>
lebih tinggi dari <supportedReaderVersion>
dan tidak dapat didukung di server berbagi delta.
Fitur Tabel Delta Tidak Didukung
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Fitur tabel <tableFeatures>
ditemukan dalam<versionStr> <historySharingStatusStr> <optionStr>
tabel
Operasi Tidak Didukung
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <message>
Skema Penyimpanan Tidak Didukung (DS)
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Skema penyimpanan yang tidak didukung: <scheme>
.
TIPE_TABEL_TIDAK_DIDUKUNG
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Tidak dapat mengambil <schema>
.
<table>
dari Bagikan <share>
karena tabel dengan tipe [<tableType>
] saat ini tidak didukung dalam <queryType>
kueri.
DS_USER_CONTEXT_ERROR (Kesalahan Konteks Pengguna)
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <message>
Fungsi Berbagi Tampilan DS Tidak Diizinkan
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Fungsi berikut: <functions>
tidak diizinkan dalam kueri berbagi tampilan.
DS_WORKSPACE_DOMAIN_TIDAK_DITETAPKAN
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Domain ruang kerja <workspaceId>
belum diatur.
DS_RUANG_KERJA_TIDAK_DITEMUKAN
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Ruang Kerja <workspaceId>
tidak ditemukan.
Pemuat Otomatis (Autoloader)
CF_TAMBAH_BARU_TIDAK_DIDUKUNG
Mode evolusi skema <addNewColumnsMode>
tidak didukung saat skema sudah ditentukan. Untuk menggunakan mode ini, Anda dapat memberikan skema melalui cloudFiles.schemaHints
sebagai gantinya.
Kesalahan Opsi Otentikasi Membingungkan (CF_AMBIGUOUS_AUTH_OPTIONS_ERROR)
Menemukan opsi autentikasi untuk penyiapan notifikasi pada direktori (default)
mode daftar:
<options>
Jika Anda ingin menggunakan mode pemberitahuan file, silakan atur secara eksplisit:
.option("cloudFiles.<useNotificationsKey>
", "true")
Atau, jika Anda ingin melewati validasi opsi Anda dan mengabaikan ini
opsi autentikasi, Anda dapat mengatur:
.option("cloudFiles.ValidateOptionsKey>", "false")
Kesalahan Mode Pencatatan Tambahan yang Tidak Jelas.
Mode daftar bertahap (cloudFiles.<useIncrementalListingKey>
)
dan notifikasi file (cloudFiles.<useNotificationsKey>
)
telah diaktifkan pada saat yang sama.
Pastikan Anda hanya memilih satu.
CF_AZURE_OTENTIKASI_PILIHAN_HILANG
Harap berikan kredensial layanan Databricks atau clientId dan clientSecret untuk mengautentikasi dengan Azure.
Opsi Autentikasi Azure yang Beragam
Ketika kredensial layanan Databricks disediakan, tidak ada opsi kredensial lain (misalnya clientId, clientSecret, atau connectionString) yang harus disediakan.
CF_AZURE_STORAGE_SUFFIXES_DIBUTUHKAN
Memerlukan adlsBlobSuffix dan adlsDfsSuffix untuk Azure
CF_BUCKET_MISMATCH (Kesalahan Ketidakcocokan Ember)
<storeType>
dalam peristiwa file <fileEvent>
berbeda dari yang diharapkan oleh sumber: <source>
.
Tidak dapat mengembangkan skema karena catatan log kosong.
Tidak dapat mengembangkan skema ketika log skema kosong. Lokasi log skema: <logPath>
TIDAK DAPAT MENGURAI PESAN ANTRIAN
Tidak dapat mengurai pesan antrean berikut: <message>
CF_TIDAK_BISA_MENYELESAIKAN_NAMA_KONTAINER
Tidak dapat menyelesaikan nama kontainer dari jalur: <path>
, uri yang telah diuraikan: <uri>
CF_TIDAK_DAPAT_MENJALANKAN_PENCATATAN_DIREKTORI
Tidak dapat melakukan penelusuran direktori ketika ada utas pengisian ulang asinkron yang berjalan
Sumber_CF_CLEAN_PERMIT_OVERWRITE_KEDUANYA_DIHIDUPKAN
Tidak dapat mengaktifkan cloudFiles.cleanSource dan cloudFiles.allowOverwrites secara bersamaan.
CF_SUMBER_BERSIH_TIDAK_BISA_MEMINDAHKAN_BERKAS_DI_DALAM_JALUR_SUMBER
Memindahkan file ke direktori di bawah jalur yang sedang diserap tidak didukung.
Sumber_Bersih_CF_Tidak_Diaplikasikan
CleanSource belum diaktifkan untuk ruang kerja ini. Silakan hubungi dukungan Databricks untuk bantuan.
IZIN_MENULIS_TIDAK_DIAUTORISASI_CF_CLEAN_SOURCE
Auto Loader tidak dapat mengarsipkan file yang diproses karena tidak memiliki izin tulis ke direktori sumber atau tujuan pemindahan.
<reason>
Untuk memperbaikinya, Anda dapat:
Memberikan izin tulis ke direktori sumber dan memindahkan tujuan ATAU
Atur cleanSource ke 'OFF'
Anda juga dapat membuka blokir aliran Anda dengan mengatur SQLConf spark.databricks.cloudFiles.cleanSource.disabledDueToAuthorizationErrors ke 'true'.
CF_KOLOM_DUPLIKAT_DALAM_DATA
Terjadi kesalahan saat mencoba menyimpulkan skema partisi tabel Anda. Anda memiliki kolom yang sama yang diduplikasi di jalur data dan partisi Anda. Untuk mengabaikan nilai partisi, berikan kolom partisi Anda secara eksplisit dengan menggunakan: .option("cloudFiles.<partitionColumnsKey>", "{comma-separated-list}")
Direktori kosong untuk inferensi skema (CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE)
Tidak dapat menyimpulkan skema ketika jalur input <path>
kosong. Silakan coba untuk memulai aliran ketika ada file di jalur input, atau tentukan skema.
KESALAHAN_OTENTIKASI_GRID_ACARA_CF
Gagal membuat langganan Event Grid. Silakan pastikan bahwa layanan Anda
Prinsipal memiliki Langganan <permissionType>
Event Grid. Lihat detail selengkapnya di:
<docLink>
CF_GAGAL_MEMBUAT_GRID_ACARA
Gagal membuat langganan event grid. Pastikan bahwa Microsoft.EventGrid
terdaftar sebagai penyedia sumber daya dalam langganan Anda. Lihat detail selengkapnya di:
<docLink>
KESALAHAN_GRID_EVENT_TIDAK_DITEMUKAN
Gagal membuat langganan Event Grid. Pastikan bahwa penyimpanan Anda...
akun (<storageAccount>
) berada di bawah grup sumber daya Anda (<resourceGroup>
) dan bahwa
akun penyimpanan adalah akun "StorageV2 (tujuan umum v2)". Lihat detail selengkapnya di:
<docLink>
Pemberitahuan Peristiwa CF Tidak Didukung
Mode notifikasi acara Auto Loader tidak didukung untuk <cloudStore>
.
CF_GAGAL_MEMERIKSA_ALIRAN_BARU
Gagal memeriksa apakah aliran adalah baru
CF_GAGAL_MEMBUAT_LANGGANAN_PUBSUB
Gagal membuat langganan: <subscriptionName>
. Langganan dengan nama yang sama sudah ada dan dikaitkan dengan topik lain: <otherTopicName>
. Topik yang diinginkan adalah <proposedTopicName>
. Hapus langganan yang sudah ada atau buat langganan dengan akhiran sumber daya baru.
CF_GAGAL_MEMBUAT_TOPIK_PUBSUB
Gagal membuat topik: <topicName>
. Topik dengan nama yang sama sudah ada.
<reason>
Hapus topik yang ada atau coba lagi dengan akhiran sumber daya lain
GAGAL_MENGHAPUS_NOTIFIKASI_GCP
Gagal menghapus pemberitahuan dengan id <notificationId>
pada bucket <bucketName>
untuk topik <topicName>
. Silakan coba lagi atau hapus pemberitahuan secara manual melalui konsol GCP.
CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA (Gagal mendeserialisasi skema yang disimpan)
Gagal mendeserialisasi skema persisten dari string: '<jsonSchema>
'
GAGAL_MENGEMBANGKAN_SKEMA
Tidak dapat mengembangkan skema tanpa log skema.
CF_GAGAL_MENEMUKAN_PROVIDER
Gagal menemukan penyedia untuk <fileFormatInput>
CF_GAGAL_MENGINFERENSI_SKEMA
Gagal menyimpulkan skema untuk format <fileFormatInput>
dari file yang ada di jalur input <path>
.
Untuk informasi lebih lanjut, lihat CF_FAILED_TO_INFER_SCHEMA
GAGAL MENULIS KE LOG SKEMA
Gagal menulis ke log skema di lokasi <path>
.
Format file diperlukan
Tidak dapat menemukan opsi yang diperlukan: cloudFiles.format.
DITEMUKAN BANYAK LANGGANAN PUBSUB AUTOLOADER
Ditemukan beberapa langganan (<num>
) dengan awalan Auto Loader untuk topik <topicName>
:
<subscriptionList>
Seharusnya hanya ada satu langganan per topik. Silakan pastikan secara manual bahwa topik Anda tidak memiliki beberapa langganan.
CF_GCP_AUTENTIKASI
Harap berikan semua item berikut: <clientEmail>
, <client>
.
<privateKey>
, dan <privateKeyId>
atau berikan <serviceCredential>
untuk menggunakan kredensial layanan Databricks Anda.
Atau, jangan berikan satupun dari mereka untuk menggunakan rantai penyedia kredensial bawaan GCP guna mengautentikasi sumber daya GCP.
CF_GCP_LABELS_JUMLAH_MELEBIHI_BATAS
Telah menerima terlalu banyak label (<num>
) untuk sumber daya GCP. Jumlah label maksimum per sumber daya adalah <maxNum>
.
CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED (Jumlah Tag Sumber Daya pada GCP Melebihi Batas)
Menerima terlalu banyak tag sumber daya (<num>
) untuk sumber daya GCP. Jumlah maksimum tag sumber daya per sumber daya adalah <maxNum>
, karena tag sumber daya disimpan sebagai label GCP pada sumber daya, dan tag spesifik Databricks menggunakan sebagian dari kuota label ini.
Catatan_Log_Di_Schema_Tidak_Lengkap
File log yang belum lengkap pada log skema di jalur <path>
CF_METADATA_FILE_TIDAK_LENGKAP_DALAM_CHECKPOINT
File metadata yang tidak lengkap di titik pemeriksaan Auto Loader
Penggunaan Batch Tidak Valid (CF_INCORRECT_BATCH_USAGE)
CloudFiles adalah sumber streaming. Silakan gunakan spark.readStream alih-alih spark.read. Untuk menonaktifkan pemeriksaan ini, atur <cloudFilesFormatValidationEnabled>
ke false.
CF_INCORRECT_SQL_PARAMS (Parameter SQL tidak tepat)
Metode cloud_files menerima dua parameter string yang diperlukan: jalur untuk dimuat, dan format file. Opsi pembaca file harus disediakan dalam peta nilai kunci string. misalnya cloud_files("path", "json", map("option1", "value1")). Diterima: <params>
Penggunaan Aliran yang Salah di CF
Untuk menggunakan 'cloudFiles' sebagai sumber streaming, berikan format file dengan opsi 'cloudFiles.format', dan gunakan .load() untuk membuat DataFrame Anda. Untuk menonaktifkan pemeriksaan ini, atur <cloudFilesFormatValidationEnabled>
ke false.
CF_INTERNAL_ERROR
Kesalahan internal.
Untuk detail selengkapnya, lihat CF_INTERNAL_ERROR
CF_INVALID_ARN (ARN tidak valid)
ARN tidak valid: <arn>
Sertifikat Azure tidak valid (CF_INVALID_AZURE_CERTIFICATE)
Kunci privat yang disediakan dengan opsi cloudFiles.certificate tidak dapat diurai. Harap sediakan kunci umum yang valid dalam format PEM.
KUNCI_PRIBADI_SERTIFIKAT_AZURE_TIDAK_VALID
Kunci privat yang disediakan dengan opsi cloudFiles.certificatePrivateKey tidak dapat diurai. Harap sediakan kunci privat yang valid dalam format PEM.
CF_POS pemeriksaan tidak valid
Titik pemeriksaan ini bukan sumber CloudFiles yang valid
Mode Sumber Bersih Tidak Valid CF
Mode tidak valid untuk opsi sumber bersih <value>
.
CF_GCP_TAG_SUMBER_DAYA_TIDAK_VALID
Kunci tag sumber daya tidak valid untuk sumber daya GCP: <key>
. Kunci harus dimulai dengan huruf kecil, panjangnya 1 hingga 63 karakter, dan hanya berisi huruf kecil, angka, garis bawah (_), dan tanda hubung (-).
CF_INVALID_TAG_NILAI_TANDA_RESOURCE_GCP
Nilai tag sumber daya tidak valid untuk sumber daya GCP: <value>
. Panjang nilai harus dalam 0 hingga 63 karakter dan hanya boleh berisi huruf kecil, angka, garis bawah (_), dan tanda hubung (-).
KUNCI_OPSI_PERISTIWA_BERKAS_KELOLA_TIDAK_VALID_CF
Auto Loader tidak mendukung opsi berikut saat digunakan dengan peristiwa berkas yang dikelola.
<optionList>
Kami menyarankan agar Anda menghapus opsi ini lalu menghidupkan ulang aliran.
CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
Respons tidak valid dari layanan manajemen peristiwa file. Silakan hubungi dukungan Databricks untuk bantuan.
Untuk informasi lebih lanjut, lihat CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
CF_SKEMA_EVOLUSI_MODE_TIDAK_VALID
cloudFiles.
<schemaEvolutionModeKey>
harus salah satu dari
-
<addNewColumns>
-
<failOnNewColumns>
-
<rescue>
-
<noEvolution>
Opsi Petunjuk Skema Tidak Valid CF
Petunjuk skema hanya dapat menentukan kolom tertentu sekali.
Dalam hal ini, mendefinisikan ulang kolom: <columnName>
beberapa kali dalam schemaHints:
<schemaHints>
Petunjuk_Skema_Tidak_Sah_Kolom
Petunjuk skema tidak dapat digunakan untuk menggantikan jenis bersarang dari peta dan array.
Kolom yang berkonflik: <columnName>
CF_BATAS_TERBARU_BUKA_OFFSET_DIBUTUHKAN
latestOffset harus dipanggil dengan ReadLimit untuk sumber ini.
CF_LOG_FILE_RUSAK
File log salah bentuk: gagal membaca versi log yang benar dari <fileName>
.
Acara File Dikelola CF Sedang Dipulihkan
Anda telah meminta Auto Loader untuk mengabaikan file yang ada di lokasi eksternal Anda dengan mengatur includeExistingFiles ke false. Namun, layanan peristiwa berkas yang dikelola masih menemukan berkas yang ada di lokasi eksternal Anda. Silakan coba lagi setelah pengelolaan file selesai mengidentifikasi semua file di lokasi eksternal Anda.
CF_MANAGED_FILE_EVENTS_ENDPOINT_TIDAK_DITEMUKAN
Anda menggunakan Auto Loader dengan peristiwa berkas yang terkelola, namun tampaknya lokasi eksternal untuk path input Anda '<path>
' tidak memiliki fitur peristiwa berkas yang diaktifkan atau path input tersebut tidak valid. Silakan minta Administrator Databricks Anda untuk mengaktifkan event file di lokasi eksternal untuk jalur masukan Anda.
Izin Endpoint CF_MANAGED_FILE_EVENTS Ditolak
Anda menggunakan Auto Loader dengan event pengelolaan file, tetapi Anda tidak memiliki izin akses ke lokasi penyimpanan atau volume eksternal untuk jalur input '<path>
' atau jalur input tidak valid. Harap minta Administrator Databricks Anda untuk memberikan izin baca untuk lokasi atau volume eksternal atau berikan jalur input yang valid dalam lokasi atau volume eksternal yang ada.
CF_PERISTIWA_BERKAS_DIKELOLA_ADALAH_PRATINJAU
Auto Loader dengan pengelolaan peristiwa file adalah fungsi pratinjau. Untuk melanjutkan, silakan hubungi Dukungan Databricks atau nonaktifkan opsi cloudFiles.useManagedFileEvents.
CF_MAX_HARUS_POSITIF
maks harus positif
CF_METADATA_FILE_Sedang_Digunakan_Secara_Berkelanjutan
Secara bersamaan, beberapa kueri streaming menggunakan <metadataFile>
CF_KESALAHAN_FILE_METADATA_HILANG
File metadata di direktori titik pemeriksaan sumber streaming hilang. Metadata ini
file berisi opsi default penting untuk aliran, sehingga aliran tidak dapat dimulai ulang
Sekarang. Silakan hubungi dukungan Databricks untuk bantuan.
CF_MISSING_PARTITION_COLUMN_ERROR (Kesalahan: Kolom partisi yang hilang)
Kolom partisi <columnName>
tidak ada dalam skema yang disediakan:
<schema>
Mode Tidak Berjalan: Skema Hilang (CF_MISSING_SCHEMA_IN_PATHLESS_MODE)
Tentukan skema menggunakan .schema() jika jalur tidak disediakan ke sumber CloudFiles saat menggunakan mode pemberitahuan file. Atau, agar Auto Loader menyimpulkan skema, harap sediakan jalur dasar di .load().
PEMBERITAHUAN_PUBSUB_BERGANDA_UNTUK_TOPIK
Menemukan pemberitahuan yang ada untuk topik <topicName>
pada wadah <bucketName>
:
notifikasi,ID
<notificationList>
Untuk menghindari pencemaran pelanggan dengan peristiwa yang tidak diinginkan, silakan hapus pemberitahuan di atas dan coba lagi.
Kesalahan Partisi Baru_CF
Kolom partisi baru disimpulkan dari file Anda: [<filesList>
]. Harap sediakan semua kolom partisi dalam skema Anda atau berikan daftar kolom partisi yang ingin Anda ekstrak nilainya dengan menggunakan: .option("cloudFiles.partitionColumns", "{comma-separated-list|empty-string}")
Kesalahan Inferensi Partisi CF (CF_PARTITION_INFERENCE_ERROR)
Terjadi kesalahan ketika mencoba menyimpulkan skema partisi dari batch file saat ini. Harap berikan kolom partisi Anda secara eksplisit dengan menggunakan: .option("cloudFiles.<partitionColumnOption>", "{comma-separated-list}"
)
CF_PATH_TIDAK_ADA_UNTUK_MEMBACA_FILE
Tidak dapat membaca file ketika jalur input <path>
tidak ada. Pastikan jalur input ada dan coba kembali.
CF_PERIODIC_BACKFILL_TIDAK_DIDUKUNG
Isi ulang berkala tidak didukung jika isi ulang asinkron dinonaktifkan. Anda dapat mengaktifkan daftar isi ulang/direktori asinkron dengan mengatur spark.databricks.cloudFiles.asyncDirListing
ke true
CF_PREFIX_MISMATCH (Ketidaksesuaian Awalan_CF)
Ditemukan peristiwa yang tidak cocok: kunci <key>
tidak memiliki awalan: <prefix>
Kesalahan Protokol Tidak Cocok
<message>
Jika Anda tidak perlu membuat perubahan lain pada kode Anda, silakan atur SQL
konfigurasi: '<sourceProtocolVersionKey> = <value>
'
untuk melanjutkan streaming Anda. Silakan merujuk ke:
<docLink>
untuk informasi lebih lanjut.
Kesalahan Wilayah Tidak Ditemukan (CF_REGION_NOT_FOUND_ERROR)
Tidak bisa mendapatkan Wilayah AWS default. Tentukan wilayah menggunakan opsi cloudFiles.region.
Akhiran_Sumber_Kosong_CF
Gagal membuat layanan pemberitahuan: akhiran sumber daya tidak boleh kosong.
Akhiran Sumber _Karakter Tidak Valid_ AWS
Gagal membuat layanan pemberitahuan: akhiran sumber daya hanya dapat memiliki karakter alfanumerik, tanda hubung (-) dan garis bawah (_).
"CF_RESOURCE_SUFFIX_KARAKTER_TIDAK_VALID_AZURE"
Gagal membuat layanan pemberitahuan: akhiran sumber daya hanya dapat memiliki huruf kecil, angka, dan tanda hubung (-).
Sufiks_Sumber_Tidak_Sah_Char_GCP
Gagal membuat layanan pemberitahuan: akhiran sumber daya hanya dapat memiliki karakter alfanumerik, tanda hubung (-), garis bawah (_), titik (.), tanda tilde (~) plus (+), dan tanda persen (<percentSign>
).
CF_RESOURCE_SUFFIX_LIMIT
Gagal membuat layanan pemberitahuan: akhiran sumber daya tidak boleh memiliki lebih dari <limit>
karakter.
Batas Sufiks Sumber Daya CF di GCP
Gagal membuat layanan pemberitahuan: akhiran sumber daya harus antara karakter <lowerLimit>
dan <upperLimit>
.
KUNCI_LABEL_SUMBER_DAYA_GCP_CF_DIBATASI (CF_RESTRICTED_GCP_RESOURCE_TAG_KEY)
Ditemukan tag kunci sumber daya GCP yang terbatas (<key>
). Kunci tag sumber daya GCP berikut dibatasi untuk Auto Loader: [<restrictedKeys>
]
RETENSI_CF_LEBIH_BESAR_DARI_USIA_FILE_MAKSIMUM
cloudFiles.cleanSource.retentionDuration tidak boleh lebih besar dari cloudFiles.maxFileAge.
PREFIKS_KUNCI_BARU_TOPIK_PUB_SUB_SAMA_CF
Gagal membuat pemberitahuan untuk topik: <topic>
dengan awalan: <prefix>
. Sudah ada topik dengan nama yang sama dengan awalan lain: <oldPrefix>
. Coba gunakan akhiran sumber daya yang berbeda untuk pengaturan atau hapus pengaturan yang ada.
GAGAL_PENIRUAN_MENYELURUH_SKEMA_CF_TERKLOKALISASI
Gagal mengkloning dan memigrasikan entri log skema apa pun dari log skema sumber.
CF_SFTP_TIDAK_ADA_PASSWORD_ATAU_FILE_KUNCI
Kata sandi atau file kunci harus ditentukan untuk SFTP.
Tentukan kata sandi di uri sumber atau melalui <passwordOption>
, atau tentukan konten file kunci melalui <keyFileOption>
.
CF_SFTP_TIDAK_DIAKTIFKAN
Mengakses file SFTP tidak diaktifkan. Silakan hubungi dukungan Databricks untuk bantuan.
CF_SFTP_REQUIRE_UC_CLUSTER
Kluster berkemampuan UC diperlukan untuk mengakses file SFTP. Silakan hubungi dukungan Databricks untuk bantuan.
Nama Pengguna SFTP Tidak Ditemukan
Nama pengguna harus ditentukan untuk SFTP.
Harap berikan nama pengguna di uri sumber atau melalui <option>
.
Jalur Direktori Sumber Diperlukan
Harap sediakan jalur direktori sumber dengan opsi path
Sumber Tidak Didukung
Sumber file cloud saat ini hanya mendukung jalur S3, Azure Blob Storage (wasb/wasbs), dan Azure Data Lake Gen1 (adl) serta Gen2 (abfs/abfss). jalur: '<path>
', uri yang diselesaikan: '<uri>
'
CF_STATE_PARAM_SQL_TIDAK_BENAR
Fungsi cloud_files_state menerima parameter string yang mewakili direktori titik pemeriksaan dari aliran cloudFiles atau nama tabel multi-bagian yang mengidentifikasi tabel streaming, serta parameter kedua yang opsional berupa bilangan bulat yang mewakili versi titik pemeriksaan untuk memuat status. Parameter kedua mungkin juga 'terbaru' untuk membaca titik pemeriksaan terbaru. Diterima: <params>
Jalur Titik Pemeriksaan Tidak Valid_CF_STATE
Jalur titik pemeriksaan input <path>
tidak valid. Jalur tidak ada atau tidak ada sumber cloud_files yang ditemukan.
CF_STATE_INVALID_VERSION (versi tidak valid)
Versi yang ditentukan <version>
tidak ada, atau dihapus selama analisis.
CF_BERKAS_MATI
<threadName>
thread sudah mati.
Gagal Menentukan Lokasi Stream Checkpoint
Tidak dapat memperoleh lokasi titik pemeriksaan aliran dari lokasi titik pemeriksaan sumber: <checkPointLocation>
CF_tidak_dapat_mendeteksi_format_berkas
Tidak dapat mendeteksi format file sumber dari file sampel <fileSize>
, ditemukan <formats>
. Tentukan formatnya.
CF_TIDAK_DAPAT_MENEKSTRAK_INFORMASI_BUCKET
Tidak dapat mengekstrak informasi wadah. Jalur: '<path>
', uri terpecahkan: '<uri>
'.
CF_TIDAK_DAPAT_MENGELOLA_INFO_KUNCI
Tidak dapat mengekstrak informasi kunci. Jalur: '<path>
', uri terpecahkan: '<uri>
'.
CF_TIDAK_BISA_MENGEKSTRAK_INFO_AKUN_PENYIMPANAN
Tidak dapat mengekstrak informasi akun penyimpanan; jalur: '<path>
', URI yang sudah diurai: '<uri>
'
TIDAK_DAPAT_MENCANTUMKAN_DENGAN_EFEKTIF
Menerima event penggantian nama direktori untuk jalur <path>
, tetapi kami tidak dapat mencantumkan direktori ini dengan efisien. Agar aliran berlanjut, atur opsi 'cloudFiles.ignoreDirRenames' ke true, dan pertimbangkan untuk mengaktifkan backfill reguler dengan cloudFiles.backfillInterval agar data ini diproses.
CF_BATAS_BACA_TIDAK_TERDUGA
Batas Baca Tak Terduga: <readLimit>
Kesalahan Kunci Opsi Tak Dikenal
Ditemukan kunci opsi yang tidak diketahui:
<optionList>
Pastikan bahwa semua kunci opsi yang disediakan sudah benar. Jika Anda ingin mengabaikan
validasi opsi Anda dan abaikan opsi yang tidak diketahui ini, Anda dapat mengatur seperti berikut:
.option("cloudFiles.<validateOptions>
", "false")
Batas Baca Tidak Diketahui CF
BatasBaca Tidak Diketahui: <readLimit>
Sumber Pindahkan Bersih Tidak Didukung
konfigurasi mode cleanSource 'move' tidak didukung.
Untuk informasi lebih lanjut, lihat CF_UNSUPPORTED_CLEAN_SOURCE_MOVE
Fungsi SQL Berkas Cloud Tidak Didukung_CF
Fungsi SQL 'cloud_files' untuk membuat sumber streaming Auto Loader hanya didukung di Alur Deklaratif Lakeflow. Lihat detail selengkapnya di:
<docLink>
Format tidak didukung untuk penarikan skema (CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE)
Inferensi skema tidak didukung untuk format: <format>
. Tentukan skema.
CF_VERSI_LOG_TIDAK_DIDUKUNG
UnsupportedLogVersion: versi log maksimum yang didukung adalah v<maxVersion>
, tetapi ditemukan v<version>
. File log dihasilkan oleh versi DBR yang lebih baru dan tidak dapat dibaca oleh versi ini. Silakan perbarui.
Mode Evolusi Skema Tidak Didukung CF
Mode evolusi skema <mode>
tidak didukung untuk format: <format>
. Atur mode evolusi skema ke 'tidak ada'.
CF_USE_DELTA_FORMAT
Membaca dari tabel Delta tidak didukung dengan sintaks ini. Jika Anda ingin menggunakan data dari Delta, silakan lihat dokumen: baca tabel Delta (<deltaDocLink>
), atau baca tabel Delta sebagai sumber aliran (<streamDeltaDocLink>
). Sumber streaming dari Delta sudah dioptimalkan untuk konsumsi data inkremental.
Geospasial
Kesalahan parsing EWKB
Kesalahan saat mengurai EWKB: <parseError>
pada posisi <pos>
GEOJSON_PARSE_ERROR
Kesalahan penguraian GeoJSON: <parseError>
pada posisi <pos>
Untuk detail selengkapnya, lihat GEOJSON_PARSE_ERROR
ERROR_KETIDAKCOCOKAN_SRID_PENGKODE_GEOGRAFIS
Gagal mengodekan <type>
nilai karena SRID <valueSrid>
yang disediakan dari nilai yang akan dikodekan tidak cocok dengan jenis SRID: <typeSrid>
.
ID_SELAWANGYAN_H3_TIDAKVALID
<h3Cell>
bukan ID sel H3 yang valid
Untuk detail lebih lanjut, lihat H3_INVALID_CELL_ID
H3_NILAI_JARAK_GRID_TIDAK_VALID
Jarak kisi H3 <k>
harus tidak negatif
Untuk informasi lebih lanjut, lihat H3_INVALID_GRID_DISTANCE_VALUE
NILAI_RESOLUSI_TIDAK_VALID
Resolusi H3 <r>
harus antara <minR>
dan <maxR>
, inklusif
Untuk informasi lebih lanjut, lihat H3_INVALID_RESOLUTION_VALUE
H3_NOT_ENABLED
<h3Expression>
dinonaktifkan atau tidak didukung. Pertimbangkan untuk beralih ke tingkat yang mendukung ekspresi H3
Untuk detail selengkapnya, lihat H3_NOT_ENABLED
H3_PENTAGON_MENGALAMI_KESALAHAN
Bentuk segi lima ditemukan ketika menghitung cincin heksagonal <h3Cell>
dengan jarak kisi <k>
H3_JARAK_GRID_TIDAK_TERDEFINISI
Jarak kisi H3 antara <h3Cell1>
dan <h3Cell2>
tidak ditentukan
NILAI_SRID_BERBEDA
Argumen ke "<sqlFunction>
" harus memiliki nilai SRID yang sama. Nilai SRID ditemukan: <srid1>
, <srid2>
ST_INVALID_ARGUMENT (Argumen Tidak Valid)
"<sqlFunction>
": <reason>
Jenis_Argumen_Tidak_Sesuai
Argumen ke "<sqlFunction>
" harus berjenis <validTypes>
Kesalahan Transformasi CRS Tidak Valid (ST_INVALID_CRS_TRANSFORMATION_ERROR)
<sqlFunction>
: Transformasi CRS yang tidak valid atau tidak didukung dari <srcSrid>
SRID ke <trgSrid>
SRID
ST_NILAI_ENDIANNESS_TIDAK_VALID
Endianness '<e>
' harus berupa 'NDR' (little-endian, format penyimpanan data di mana byte kurang signifikan disimpan terlebih dahulu) atau 'XDR' (big-endian, format penyimpanan data di mana byte lebih signifikan disimpan terlebih dahulu)
NILAI_GEOHASH_TIDAK_VALID
<sqlFunction>
: Nilai geohash tidak valid: '<geohash>
'. Nilai geohash harus berupa string base32 huruf kecil yang valid seperti yang dijelaskan dalam https://en.wikipedia.org/wiki/Geohash#Textual_representation
Nilai Indeks Tidak Valid
<sqlFunction>
: Indeks tidak valid <index>
untuk nilai geospasial yang disediakan.
Nilai Presisi Tidak Valid
Presisi <p>
harus antara <minP>
dan <maxP>
, termasuk
Nilai SRID tidak valid
<srid>
SRID yang tidak valid atau tidak didukung
ST_TIDAK_DIAKTIFKAN
<stExpression>
dinonaktifkan atau tidak didukung. Pertimbangkan untuk beralih ke level yang mendukung ekspresi ST
TIPE_PENGEMBALIAN_TIDAK_DIDUKUNG
Jenis data GEOGRAPHY
dan GEOMETRY
tidak dapat dikembalikan dalam kueri. Gunakan salah satu ekspresi SQL berikut untuk mengonversinya ke format pertukaran standar: <projectionExprs>
.
WKB_PARSE_ERROR
Kesalahan memparsing WKB: <parseError>
pada posisi <pos>
Untuk detail selengkapnya, lihat WKB_PARSE_ERROR
WKT_PARSE_ERROR
Kesalahan memproses WKT: <parseError>
pada posisi <pos>
Untuk detail selengkapnya, lihat WKT_PARSE_ERROR
Katalog Unity
KESALAHAN_NAMA_KOLOM_BERTENTANGAN
Kolom <columnName>
berkonflik dengan kolom lain dengan nama yang sama tetapi dengan/tanpa spasi kosong berikutnya (misalnya, kolom yang sudah ada bernama <columnName>
). Ganti nama kolom dengan nama yang berbeda.
KREDENSIAL_KONEKSI_TIDAK_DIDUKUNG_UNTUK_KONEKSI_TABEL_ONLINE
SQLSTATE: tidak ada yang ditetapkan
Permintaan tidak valid untuk mendapatkan kredensial tingkat koneksi untuk koneksi jenis <connectionType>
. Kredensial tersebut hanya tersedia untuk koneksi PostgreSQL terkelola.
JENIS_KONEKSI_TIDAK_DIAKTIFKAN
SQLSTATE: tidak ada yang ditetapkan
Tipe koneksi '<connectionType>
' tidak diaktifkan. Harap aktifkan koneksi untuk menggunakannya.
PENERIMA_DELTA_SHARING_HANYA_BACA_SUDAH_ADA
SQLSTATE: tidak ada yang ditetapkan
Sudah ada objek Penerima '<existingRecipientName>
' dengan pengidentifikasi berbagi yang sama '<existingMetastoreId>
'.
DELTA_SHARING_JENIS_AMAN_YANG_HANYA_DAPAT_DIBACA
SQLSTATE: tidak ada yang ditetapkan
Data Jenis Dapat Diamankan Delta Sharing <securableKindName>
hanya dapat dibaca dan tidak dapat dibuat, dimodifikasi, atau dihapus.
AKSES_EKSTERNAL_DINONAKTIFKAN_PADA_METASTORE
SQLSTATE: tidak ada yang ditetapkan
Penjualan kredensial ditolak untuk lingkungan komputasi non Databricks karena Akses Data Eksternal dinonaktifkan untuk metastore <metastoreName>
. Silakan hubungi admin metastore Anda untuk mengaktifkan konfigurasi 'Akses Data Eksternal' di metastore.
AKSES_EKSTERNAL_TIDAK_DIPERBOLEHKAN_UNTUK_TABEL
SQLSTATE: tidak ada yang ditetapkan
Tabel dengan id <tableId>
tidak dapat diakses dari luar Lingkungan Komputasi Databricks karena jenisnya <securableKind>
. Hanya jenis tabel 'TABLE_EXTERNAL
', 'TABLE_DELTA_EXTERNAL
' dan 'TABLE_DELTA
' yang dapat diakses secara eksternal.
SKEMA_PENGGUNAAN_EKSTERNAL_DITETAPKAN_KE_JENIS_SECURABLE_YANG_TIDAK_TEPAT
SQLSTATE: tidak ada yang ditetapkan
Hak istimewa EXTERNAL
USE SCHEMA
tidak berlaku untuk entitas ini <assignedSecurableType>
dan hanya dapat ditetapkan ke skema atau katalog. Hapus hak istimewa dari objek <assignedSecurableType>
dan tetapkan ke skema atau katalog sebagai gantinya.
Penulisan Eksternal Tidak Diizinkan Untuk Tabel
SQLSTATE: tidak ada yang ditetapkan
Tabel dengan id <tableId>
tidak dapat ditulis dari luar Lingkungan Komputasi Databricks karena jenisnya <securableKind>
. Hanya jenis tabel 'TABLE_EXTERNAL
' dan 'TABLE_DELTA_EXTERNAL
' yang dapat ditulis secara eksternal.
AKAR_PENYIMPANAN_KATALOG_ASING_HARUS_MENDUKUNG_PENULISAN
SQLSTATE: tidak ada yang ditetapkan
Lokasi penyimpanan untuk katalog asing jenis <catalogType>
akan digunakan untuk mengeluarkan data dan tidak dapat bersifat baca-saja.
BATAS TUMPUKAN TERJAMIN DALAM BIDANG MELEBIHI
SQLSTATE: tidak ada yang ditetapkan
Jumlah <resourceType>
untuk jalur input <url>
melebihi batas yang diizinkan (<overlapLimit>
) untuk HMS yang saling tumpang tindih <resourceType>
.
Nama Sumber Tidak Valid (INVALID_RESOURCE_NAME_DELTA_SHARING)
SQLSTATE: tidak ada yang ditetapkan
Permintaan Delta Sharing tidak didukung menggunakan nama sumber daya
TIPE_ENTITAS_NAMA_SUMBER_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
Nama sumber daya yang disediakan mereferensikan jenis entitas <provided>
tetapi diharapkan <expected>
INVALID_RESOURCE_NAME_METASTORE_ID (Nama sumber tidak valid: METASTORE_ID)
SQLSTATE: tidak ada yang ditetapkan
Nama sumber daya yang disediakan mereferensikan metastore yang tidak berada dalam cakupan untuk permintaan saat ini
TUMBUKAN_LOKASI
SQLSTATE: tidak ada yang ditetapkan
URL jalur input '<path>
' tumpang tindih dengan <overlappingLocation>
dalam pemanggilan '<caller>
'.
<conflictingSummary>
. <permissionErrorSuggestion>
STRING_KONEKSI_MONGO_DB_SRV_TIDAK_MEMPERBOLEHKAN_PORT
SQLSTATE: tidak ada yang ditetapkan
Membuat atau memperbarui koneksi MongoDB tidak diizinkan karena string koneksi MongoDB SRV tidak memerlukan port.
Mohon untuk menghapus port, karena string koneksi SRV tidak memerlukan port.
Akar Penyimpanan Katalog Asing REDSHIFT Harus di S3
SQLSTATE: tidak ada yang ditetapkan
Akar penyimpanan untuk katalog eksternal Redshift harus di AWS S3.
JENIS_SECURABLE_TIDAK_MENDUKUNG_FEDERASI_LAKEHOUSE
SQLSTATE: tidak ada yang ditetapkan
Jenis <securableKind>
tidak dapat diamankan dan tidak mendukung Federasi Lakehouse.
JENIS_AMAN_TIDAK_DIAKTIFKAN
SQLSTATE: tidak ada yang ditetapkan
Tipe securable '<securableKind>
' tidak diaktifkan. Jika ini adalah jenis yang dapat diamankan yang terkait dengan fitur pratinjau, mohon aktifkan pada pengaturan ruang kerja.
JENIS_YANG_DAPAT_DIPERTAHANKAN_TIDAK_MENDUKUNG_FEDERASI_LAKEHOUSE
SQLSTATE: tidak ada yang ditetapkan
Tipe <securableType>
yang dapat diamankan tidak mendukung Federasi Lakehouse.
JUMLAH_KOLOM_TABEL_SUMBER_MELEBIHI_BATAS
SQLSTATE: tidak ada yang ditetapkan
Tabel sumber memiliki lebih dari <columnCount>
kolom. Kurangi jumlah kolom menjadi <columnLimitation>
atau kurang.
"UC_AAD_MASA_HIDUP_TOKEN_TERLALU_PENDEK"
SQLSTATE: tidak ada yang ditetapkan
Masa berlaku token AAD yang ditukar <lifetime>
telah dikonfigurasi terlalu pendek. Silakan periksa pengaturan Microsoft Azure ACTIVE Directory Anda untuk memastikan token akses sementara memiliki setidaknya satu jam masa pakai. https://learn.microsoft.com/azure/active-directory/develop/active-directory-configurable-token-lifetimes
UC_ABAC_DEPENDENCY_DIFFERING_RF_CM
SQLSTATE: tidak ada yang ditetapkan
Dependensi '<dependency>
' direferensikan beberapa kali dan menghasilkan filter baris ABAC atau masker kolom yang berbeda.
Kesalahan Evaluasi UC_ABAC
SQLSTATE: tidak ada yang ditetapkan
Kesalahan saat mengevaluasi kebijakan ABAC pada <resource>
.
Kesalahan Penilaian Pengguna UC_ABAC
SQLSTATE: tidak ada yang ditetapkan
Kesalahan mengevaluasi kebijakan ABAC pada '<resource>
'. Kebijakan '<policyName>
' gagal dengan pesan: <message>
.
UC_UBAH_DLT_TAMPILAN_DI_LUAR_PIPELINE_DEFINISI
SQLSTATE: tidak ada yang ditetapkan
Mengubah tampilan '<viewFullName>
' di luar alur yang mendefinisikannya tidak diperbolehkan. Sebagai gantinya, perbarui definisi tampilan dari alur yang menentukannya (ID Alur: <owningPipelineId>
).
AKSI_UC_AUTHZ_TIDAK_DIDUKUNG
SQLSTATE: tidak ada yang ditetapkan
Otorisasi <actionName>
tidak didukung; harap periksa apakah RPC yang dipanggil diimplementasikan untuk jenis sumber daya ini
Izin Pembuatan Koneksi HMS Ditolak
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat membuat koneksi untuk metastore Apache Hive bawaan karena pengguna: <userId>
bukan admin dari ruang kerja: <workspaceId>
Hubungan HMS Bawaan dengan Memodifikasi Bidang Terbatas
SQLSTATE: tidak ada yang ditetapkan
Coba ubah bidang terbatas dalam koneksi HMS bawaan '<connectionName>
'. Hanya 'warehouse_directory' yang dapat diperbarui.
UC_TIDAK_BISA_MENGGANTI_NAMA_KOLOM_PENYARINGAN_PARTISI
SQLSTATE: tidak ada yang ditetapkan
Gagal mengganti nama kolom <originalLogicalColumn>
tabel karena digunakan untuk pemfilteran partisi di <sharedTableName>
. Untuk melanjutkan, Anda dapat menghapus tabel dari berbagi, mengganti nama kolom, dan membagikannya dengan kolom pemfilteran partisi yang diinginkan lagi. Namun, ini dapat merusak kueri streaming untuk penerima Anda.
Pembentukan anak UC dilarang untuk kluster non-UC
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat membuat <securableType>
'<securable>
' di bawah <parentSecurableType>
'<parentSecurable>
' karena permintaan bukan dari kluster UC.
Kegagalan Akses Penyimpanan Cloud
SQLSTATE: tidak ada yang ditetapkan
Gagal mengakses penyimpanan cloud: <errMsg>
exceptionTraceId=<exceptionTraceId>
Opsi Koneksi yang Bertentangan
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat membuat koneksi dengan opsi autentikasi nama pengguna/kata sandi dan oauth. Silakan pilih satu.
Kredensial Koneksi UC Mencapai Batas Maksimum
SQLSTATE: tidak ada yang ditetapkan
Jumlah maksimum kredensial untuk nama koneksi '<connectionName>
' telah tercapai. Hapus kredensial yang ada sebelum membuat mandat baru.
Kredensial Koneksi UC Tidak Ada untuk Pengguna dengan Login
SQLSTATE: tidak ada yang ditetapkan
Kredensial untuk identitas pengguna('<userIdentity>
') tidak ditemukan untuk koneksi '<connectionName>
'. Silakan masuk terlebih dahulu ke koneksi dengan mengunjungi <connectionPage>
Jenis Kredensial Koneksi UC Tidak Didukung
SQLSTATE: tidak ada yang ditetapkan
Membuat kredensial untuk jenis '<securableType>
' yang dapat diamankan tidak didukung. Tipe yang dapat diamankan yang didukung: <allowedSecurableType>
.
UC_KONEKSI_ADA_UNTUK_KREDENSIAL
SQLSTATE: tidak ada yang ditetapkan
Kredensial '<credentialName>
' memiliki satu atau beberapa koneksi dependen. Anda dapat menggunakan opsi paksa untuk terus memperbarui atau menghapus kredensial, tetapi koneksi yang menggunakan kredensial ini mungkin tidak berfungsi lagi.
Koneksi UC Kadaluarsa: Akses Token
SQLSTATE: tidak ada yang ditetapkan
Token akses yang terkait dengan koneksi kedaluwarsa. Harap perbarui koneksi untuk memulai ulang alur OAuth untuk mengambil token.
Sesi_Koneksi_Kedaluwarsa_Segarkan_Token
SQLSTATE: tidak ada yang ditetapkan
Token refresh yang terkait dengan koneksi kedaluwarsa. Perbarui koneksi untuk memulai ulang alur OAuth untuk mengambil token baru.
KONEKSI_UC_DALAM_KEADAAN_GAGAL
SQLSTATE: tidak ada yang ditetapkan
Koneksi dalam status FAILED
. Perbarui koneksi dengan kredensial yang valid untuk mengaktifkannya kembali.
Pilihan Koneksi UC Tidak Ada
SQLSTATE: tidak ada yang ditetapkan
Koneksi jenis '<securableType>
' yang dapat diamankan harus menyertakan opsi berikut: <requiredOptions>
.
Token Penyegar Hilang untuk Koneksi UC
SQLSTATE: tidak ada yang ditetapkan
Tidak ada token refresh yang terkait dengan koneksi. Harap perbarui integrasi klien OAuth di penyedia identitas Anda agar dapat menghasilkan token refresh, dan perbarui atau buat ulang koneksi untuk memulai ulang alur OAuth serta mengambil token yang diperlukan.
Pertukaran OAuth pada UC_CONNECTION gagal
SQLSTATE: tidak ada yang ditetapkan
Pertukaran token OAuth gagal dengan kode status HTTP <httpStatus>
. Respons server atau pesan pengecualian yang dikembalikan adalah: <response>
Opsi koneksi UC tidak didukung (UC_CONNECTION_OPTION_NOT_SUPPORTED)
SQLSTATE: tidak ada yang ditetapkan
Koneksi jenis '<securableType>
' yang dapat diamankan tidak mendukung opsi berikut: <optionsNotSupported>
. Opsi yang didukung: <allowedOptions>
.
UC_KOMIT_KOORDINASI_TIDAK_DIAKTIFKAN
SQLSTATE: tidak ada yang ditetapkan
Dukungan untuk penerapan terkoordinasi tidak diaktifkan. Silakan hubungi dukungan Databricks.
UC_PEMBUATAN_DILARANG_UNTUK_KEAMANAN_NONAKTIF
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat membuat <securableType>
'<securableName>
' karena berada di bawah <parentSecurableType>
'<parentSecurableName>
' yang tidak aktif. Silakan hapus entitas induk yang dapat diamankan dan buat ulang induknya.
Akses Kredensial Konektor Parsing Gagal
SQLSTATE: tidak ada yang ditetapkan
Gagal mengurai ID konektor akses yang disediakan: <accessConnectorId>
. Harap verifikasi pemformatannya, lalu coba lagi.
Kredensial UC gagal mendapatkan token validasi
SQLSTATE: tidak ada yang ditetapkan
Gagal mendapatkan token AAD untuk melakukan validasi izin cloud pada konektor akses. Silakan coba lagi tindakan tersebut.
KREDENSIAL_UC_HAK_AKSES_CLOUD_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
Mendaftarkan kredensial memerlukan peran kontributor melalui konektor akses yang sesuai dengan ID <accessConnectorId>
. Silakan hubungi admin akun Anda.
Tipe Kredensial Tidak Valid untuk Tujuan
SQLSTATE: tidak ada yang ditetapkan
Jenis kredensial '<credentialType>
' tidak didukung untuk tujuan '<credentialPurpose>
'
Izin Kredensial UC Ditolak
SQLSTATE: tidak ada yang ditetapkan
Hanya admin akun yang dapat membuat atau memperbarui kredensial dengan jenis <storageCredentialType>
.
KEBIJAKAN_KEPERCAYAAN_KREDENSIAL_UC_TERBUKA
SQLSTATE: tidak ada yang ditetapkan
Kebijakan kepercayaan peran IAM agar Akun Databricks dapat mengambil alih peran harus menyertakan ID eksternal. Silakan hubungi admin akun Anda untuk menambahkan kondisi ID eksternal. Perilaku ini dimaksudkan untuk melindungi dari masalah Deputi Bingung (https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html).
KREDENSIAL_UC_PRINSIPAL_LAYANAN_TANPA_PRI_VILEGE_TIDAK_DIDUKUNG
SQLSTATE: tidak ada yang ditetapkan
Perwakilan layanan tidak dapat menggunakan hak istimewa CREATE STORAGE CREDENTIAL
untuk mendaftarkan identitas terkelola. Untuk mendaftarkan identitas terkelola, berikan peran admin akun pada prinsipal layanan.
KP_AKSES_WORKSPACE_API_DILARANG
SQLSTATE: tidak ada yang ditetapkan
Membuat atau memperbarui kredensial sebagai admin non-akun tidak didukung di API tingkat akun. Silakan gunakan API tingkat ruang kerja sebagai gantinya.
UC_DBR_TRUST_VERSI_TERLALU_LAMA
SQLSTATE: tidak ada yang ditetapkan
Databricks Runtime yang digunakan tidak lagi mendukung operasi ini. Silakan gunakan versi terbaru (Anda mungkin hanya perlu menghidupkan ulang kluster Anda).
Format_Universal_UC_DELTA_TIDAK_BISA_MENGURAI_VERSI_ICEBERG
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat mengurai versi tabel Iceberg dari lokasi metadata <metadataLocation>
.
UC_DELTA_FORMAT_UNIVERSAL_PENULISAN_SEJARAHTERKAIT
SQLSTATE: tidak ada yang ditetapkan
Terdeteksi adanya pembaruan ke versi metadata gunung es yang sama secara bersamaan.
UC_DELTA_UNIVERSAL_FORMAT_LOKASI_METADATA_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
Lokasi metadata yang diterapkan <metadataLocation>
tidak valid. Ini bukan subdirektori dari direktori <tableRoot>
akar tabel .
UC_DELTA_KONSTRINKSI_BIDANG_HILANG_PADA_FORMAT_UNIVERSAL
SQLSTATE: tidak ada yang ditetapkan
Informasi konversi format gunung es delta yang disediakan tidak memiliki bidang yang diperlukan.
UC_DELTA_FORMAT_UNIVERSAL_KETERBATASAN_BUKAN_CIPTA
SQLSTATE: tidak ada yang ditetapkan
Mengatur informasi format bergaya delta gunung es pada saat pembuatan tidak didukung.
UC_DELTA_FORMAT_UNIVERSAL_TERLALU_BESAR_KETERBATASAN
SQLSTATE: tidak ada yang ditetapkan
Informasi konversi format gunung es delta yang disediakan terlalu besar.
UC_DELTA_UNIVERSAL_FORMAT_PEMBARUAN_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
Metadata seragam hanya dapat diperbarui pada tabel Delta dengan uniform yang diaktifkan.
Pembatasan_Kedalaman_Ketergantungan_Tercapai
SQLSTATE: tidak ada yang ditetapkan
<resourceType>
Kedalaman '<ref>
' melebihi batas (atau memiliki referensi melingkar).
UC_DEPENDENCY_DOES_NOT_EXIST (ketergantungan UC tidak ada)
SQLSTATE: tidak ada yang ditetapkan
<resourceType>
'<ref>
' tidak valid karena salah satu sumber daya yang mendasar tidak ada. <cause>
IZIN_KETERGANTUNGAN_DITOLAK
SQLSTATE: tidak ada yang ditetapkan
<resourceType>
'<ref>
' tidak memiliki hak istimewa yang memadai untuk dijalankan karena pemilik salah satu sumber daya yang mendasar gagal melakukan pemeriksaan otorisasi. <cause>
UC_KONEKSI_GANDA
SQLSTATE: tidak ada yang ditetapkan
Koneksi yang disebut '<connectionName>
' dengan URL yang sama sudah ada. Silakan minta izin kepada pemilik untuk menggunakan koneksi tersebut alih-alih membuat duplikat.
UC_DUPLICATE_PEMBUATAN_KATALOG_KAIN
SQLSTATE: tidak ada yang ditetapkan
Mencoba membuat katalog Fabric dengan url '<storageLocation>
' yang cocok dengan katalog yang ada, yang tidak diizinkan.
Pembuatan_Penugasan_Tanda_Duplikat_UC
SQLSTATE: tidak ada yang ditetapkan
Penetapan tag dengan kunci tag <tagKey>
sudah ada
ENTITAS_UC_TIDAK_MEMILIKI_KLUSTER_ONLINE_YANG_SESUAI
SQLSTATE: tidak ada yang ditetapkan
Entitas <securableType> <entityId>
tidak memiliki kluster online yang sesuai.
UC_ERROR_CODE_XWYEY
SQLSTATE: tidak ada yang ditetapkan
Jika masalah ini berlanjut, silakan hubungi dukungan Databricks dengan kode kesalahan #UC-XWYEY
.
Jumlah berkas melebihi batas maksimum
SQLSTATE: tidak ada yang ditetapkan
Ada lebih dari <maxFileResults>
file. Tentukan [max_results] untuk membatasi jumlah file yang dikembalikan.
Operasi Lokasi Eksternal UC Tidak Diizinkan
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat <opName> <extLoc> <reason>
.
<suggestion>
.
UC_FITUR_DINONAKTIFKAN
SQLSTATE: tidak ada yang ditetapkan
<featureName>
saat ini dinonaktifkan di UC.
Katalog Asing untuk Jenis Koneksi Tidak Didukung
SQLSTATE: tidak ada yang ditetapkan
Pembuatan katalog asing untuk jenis koneksi '<connectionType>
' tidak didukung. Tipe koneksi ini hanya dapat digunakan untuk membuat alur penyerapan terkelola. Silakan referensi dokumentasi Databricks untuk informasi lebih lanjut.
PENGECEKAN_KREDENSIAL_ASING_HANYA_UNTUK_OPERASI_MEMBACA
SQLSTATE: tidak ada yang ditetapkan
Hanya kredensial READ yang dapat diambil untuk tabel asing.
KESALAHAN_PERBANDINIGAN_PERMUKAAN_HMS_ASING_TERJEPIT
SQLSTATE: tidak ada yang ditetapkan
Tabel dasar dan tabel kloning harus berada dalam katalog yang sama untuk kloning dangkal yang dibuat dalam katalog Hive Metastore asing. Tabel dasar '<baseTableName>
' ada di katalog '<baseCatalogName>
' dan tabel kloning '<cloneTableName>
' ada di katalog '<cloneCatalogName>
'.
Ketidakcocokan Panjang Kolom Anak pada Kunci Asing
SQLSTATE: tidak ada yang ditetapkan
Kunci asing <constraintName>
memiliki kolom anak dan kolom induk yang ukurannya berbeda.
UC_KETIDAKSESUAIAN_KOLOM_KUNCI_ASING
SQLSTATE: tidak ada yang ditetapkan
Kolom induk kunci asing tidak cocok dengan kolom anak kunci utama yang dirujuk. Kolom induk kunci asing adalah (<parentColumns>
) dan kolom anak kunci utama adalah (<primaryKeyChildColumns>
).
Ketidakcocokan Jenis Kolom Kunci Asing
SQLSTATE: tidak ada yang ditetapkan
Tipe kolom anak kunci asing tidak cocok dengan tipe kolom induk. Kolom anak kunci asing <childColumnName>
memiliki tipe <childColumnType>
dan kolom induk <parentColumnName>
memiliki jenis <parentColumnType>
.
Kunci pribadi tidak valid (UC_GCP_INVALID_PRIVATE_KEY)
SQLSTATE: tidak ada yang ditetapkan
Akses ditolak. Penyebab: kunci privat akun layanan tidak valid.
UC_GCP_INVALID_PRIVATE_KEY_JSON_FORMAT (Format JSON Kunci Pribadi Tidak Valid)
SQLSTATE: tidak ada yang ditetapkan
Kunci Privat OAuth Akun Google Server harus menjadi objek JSON yang valid dengan bidang yang diperlukan, pastikan untuk memberikan file JSON lengkap yang dihasilkan dari bagian 'KEYS' dari halaman detail akun layanan.
UC_GCP_KUNCI_PRIBADI_TIDAK_VALID_FORMAT_JSON_BIDANG_HILANG
SQLSTATE: tidak ada yang ditetapkan
Kunci Privat OAuth Akun Google Server harus menjadi objek JSON yang valid dengan bidang yang diperlukan, pastikan untuk memberikan file JSON lengkap yang dihasilkan dari bagian 'KEYS' dari halaman detail akun layanan. Bidang yang hilang adalah <missingFields>
Peran_IAM_Tidak_Mengasumsikan_Sendiri
SQLSTATE: tidak ada yang ditetapkan
Pada kredensial penyimpanan ini, peran IAM ditemukan tidak dapat berfungsi secara mandiri. Silakan periksa kepercayaan dan kebijakan IAM dari peran Anda untuk memastikan bahwa peran IAM Anda dapat mengambil alih dirinya sendiri sesuai dengan dokumentasi kredensial penyimpanan Unity Catalog.
KONFLIK KOMIT ICEBERG UC
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat menerapkan <tableName>
: lokasi metadata <baseMetadataLocation>
telah berubah dari <catalogMetadataLocation>
.
UC_ICEBERG_KOMIT_TABEL_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat melakukan penerapan Managed Iceberg ke tabel Iceberg yang tidak Dikelola: <tableName>
.
UC_ICEBERG_KOMITMEN_KESALAHAN_FIELD_CONSTRAINT_HILANG
SQLSTATE: tidak ada yang ditetapkan
Informasi komit Managed Iceberg yang disediakan tidak memiliki bidang yang diperlukan.
Ketidakcocokan_ID_UC
SQLSTATE: tidak ada yang ditetapkan
<type> <name>
tidak memiliki ID <wrongId>
. Silakan coba lagi operasi ini.
UC_INVALID_ACCESS_BRICKSTORE_PG_CONNECTION - Koneksi PG ke Brickstore tidak sah
SQLSTATE: tidak ada yang ditetapkan
Akses ke instans database tidak valid. <reason>
Akses Tidak Valid ke Entitas DBFS
SQLSTATE: tidak ada yang ditetapkan
Akses <securableType> <securableName>
tidak valid di katalog terfederasi <catalogName>
. <reason>
UC_INVALID_CLOUDFLARE_ACCOUNT_ID
SQLSTATE: tidak ada yang ditetapkan
ID akun Cloudflare tidak valid.
UC_INVALID_CREDENTIAL_CLOUD (Kredensial tidak valid untuk cloud)
SQLSTATE: tidak ada yang ditetapkan
Penyedia kredensial cloud tidak valid '<cloud>
'. Penyedia cloud yang diizinkan '<allowedCloud>
'.
UC_NILAI_TUJUAN_KREDENSIAL_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
Nilai '<value>
' tidak valid untuk 'tujuan' kredensial. Nilai yang diizinkan '<allowedValues>
'.
UC_TRANSISI_KREDENSIAL_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat memperbarui koneksi dari <startingCredentialType>
ke <endingCredentialType>
. Satu-satunya transisi yang valid adalah dari koneksi berbasis nama pengguna/kata sandi ke koneksi berbasis token OAuth.
UC_INVALID_CRON_STRING_FABRIC
SQLSTATE: tidak ada yang ditetapkan
String cron tidak valid. Ditemukan: '<cronString>
' dengan pengecualian parsing: '<message>
'
UC_AKSES_LANGSUNG_TIDAK_VALID_TABEL_DIKELOLA
SQLSTATE: tidak ada yang ditetapkan
Tabel yang diakses langsung dan terkelola tidak valid <tableName>
. Pastikan definisi alur tabel sumber & tidak didefinisikan.
UC_TIDAK_VALID_LOKASI_PENYIMPANAN_KOSONG
SQLSTATE: tidak ada yang ditetapkan
Lokasi penyimpanan kosong yang tidak terduga untuk <securableType>
'<securableName>
' di katalog '<catalogName>
'. Untuk memperbaiki kesalahan ini, jalankan DESCRIBE SCHEMA <catalogName>
.
<securableName>
dan segarkan halaman ini.
Pembaruan Opsi Tidak Valid UC
SQLSTATE: tidak ada yang ditetapkan
Opsi yang disediakan tidak valid untuk pembaruan. Opsi tidak valid: <invalidOptions>
. Opsi yang diizinkan: <allowedOptions>
.
UC_NILAI_OPSI_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
Nilai '<value>
' tidak valid untuk '<option>
'. Nilai yang diizinkan '<allowedValues>
'.
UC_NILAI_OPSI_TIDAK_VALID_KOSONG
SQLSTATE: tidak ada yang ditetapkan
'<option>
' tidak boleh kosong. Masukkan nilai yang tidak kosong.
UC_SITUASI_KEBIJAKAN_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
Kondisi tidak valid dalam kebijakan '<policyName>
'. Kesalahan kompilasi dengan pesan '<message>
'.
UC_INVALID_R2_ACCESS_KEY_ID: ID Kunci Akses R2 Tidak Sah
SQLSTATE: tidak ada yang ditetapkan
ID kunci akses R2 tidak valid.
UC_INVALID_R2_SECRET_ACCESS_KEY (Kunci akses rahasia R2 tidak valid)
SQLSTATE: tidak ada yang ditetapkan
Kunci akses rahasia R2 tidak valid.
UC_PEMBARUAN_TIDAK_VALID_PADA_KELOMPOK_ADMIN_WORKSPACE_SISTEM_YANG_DIMILIKI_KEAMANAN
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat memperbarui <securableType>
'<securableName>
' karena dimiliki oleh grup internal. Silakan hubungi dukungan Databricks untuk detail tambahan.
UC_INVALID_WASBS_EXTERNAL_LOCATION_STORAGE_CREDENTIAL - Kredensial Penyimpanan Lokasi Eksternal WASBS Tidak Valid
SQLSTATE: tidak ada yang ditetapkan
<storageCredentialName>
Kredensial Penyimpanan yang disediakan tidak terkait dengan Root DBFS, sehingga pembuatan wasbs Lokasi Eksternal dilarang.
Skema UC_LOCATION tidak valid
SQLSTATE: tidak ada yang ditetapkan
Lokasi penyimpanan memiliki skema URI yang tidak valid: <scheme>
.
Respons Server OAuth yang Salah Bentuk
SQLSTATE: tidak ada yang ditetapkan
Tanggapan dari server token tidak menyertakan bidang <missingField>
. Respons server yang dikembalikan adalah: <response>
STATUS_PENUGASAN_METASTORE_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
'<metastoreAssignmentStatus>
' tidak dapat ditetapkan. Hanya MANUALLY_ASSIGNABLE
dan AUTO_ASSIGNMENT_ENABLED
yang didukung.
Sertifikasi Metastore UC Tidak Diaktifkan
SQLSTATE: tidak ada yang ditetapkan
Sertifikasi metastore tidak diaktifkan.
Pemetaan UC_METASTORE_DB_SHARD tidak ditemukan
SQLSTATE: tidak ada yang ditetapkan
Gagal mendapatkan pemetaan metastore ke shard database untuk ID Metastore <metastoreId>
karena kesalahan internal. Silakan hubungi dukungan Databricks.
UC_METASTORE_MEMILIKI_KATALOG_ONLINE_TERKELOLA_AKTIF
SQLSTATE: tidak ada yang ditetapkan
Metastore <metastoreId>
memiliki <numberManagedOnlineCatalogs>
katalog terkelola secara online. Silakan hapus mereka secara eksplisit, lalu coba lagi menghapus metastore.
Ketidakvalidan Pembaruan Kredensial Akar Penyimpanan Metastore UC
SQLSTATE: tidak ada yang ditetapkan
Kredensial akar metastore tidak boleh ditentukan saat memperbarui lokasi akar metastore. Kredensial akan diambil dari lokasi eksternal induk metastore.
Penghapusan UC_METASTORE_STORAGE_ROOT tidak valid
SQLSTATE: tidak ada yang ditetapkan
Penghapusan lokasi akar penyimpanan metastore gagal. <reason>
UC_METASTORE_STORAGE_ROOT_BACA-SAJA_TIDAK_SAH
SQLSTATE: tidak ada yang ditetapkan
Akar <securableType>
untuk metastore tidak dapat bersifat baca-saja.
UC_METASTORE_AKAR_PENYIMPANAN_PEMBARUAN_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
Akar penyimpanan metastore tidak dapat diperbarui setelah diatur.
MODEL_UC_STATUS_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat menghasilkan kredensial '<opName>
' sementara untuk versi <modelVersion>
model dengan status <modelVersionStatus>
. Kredensial '<opName>
' hanya dapat dibuat untuk versi model dengan status <validStatus>
UC_TIDAK_ADA_ID_ORGANISASI_DALAM_KONTEKS
SQLSTATE: tidak ada yang ditetapkan
Mencoba mengakses ID org (atau ID ruang kerja), tetapi konteks tidak memilikinya.
KATALOG_ONLINE_TIDAK_DAPAT_DIUBAH
SQLSTATE: tidak ada yang ditetapkan
Permintaan <rpcName>
memperbarui <fieldName>
. Gunakan tab 'compute' di toko online untuk memodifikasi apa pun selain komentar, pemilik, dan Mode Isolasi dari katalog online.
KUOTA_KATALOG_ONLINE_TERLEBIHI
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat membuat lebih dari <quota>
toko online di metastore dan saat ini sudah ada <currentCount>
. Anda mungkin tidak memiliki akses ke toko online yang ada. Hubungi admin metastore Anda untuk diberikan akses atau untuk instruksi lebih lanjut.
UC_INDEKS_ONLINE_KATALOG_TIDAK_SAH_CRUD
SQLSTATE: tidak ada yang ditetapkan
katalog indeks online harus di-<action>
-kan melalui API /vector-search.
INDEKS_ONLINE_KATALOG_TIDAK_BISA_DIUBAH
SQLSTATE: tidak ada yang ditetapkan
Permintaan <rpcName>
memperbarui <fieldName>
. Gunakan API /vector-search untuk memodifikasi semua hal kecuali komentar, pemilik, dan modus isolasi dari katalog indeks daring.
KUOTA_INDEKS_KATALOG_DARING_TERLEBIHI
SQLSTATE: tidak ada yang ditetapkan
Jumlah katalog indeks online di metastore tidak boleh lebih dari <quota>
, dan saat ini sudah ada <currentCount>
. Anda mungkin tidak memiliki akses ke katalog indeks online yang ada. Hubungi admin metastore Anda untuk diberikan akses atau untuk instruksi lebih lanjut.
UC_ONLINE_INDEX_TIDAK_VALID_CRUD
SQLSTATE: tidak ada yang ditetapkan
indeks daring harus <action>
melalui API /vector-search.
UC_ONLINE_STORE_INVALID_CRUD (Operasi invalid: Buat, Baca, Ubah, Hapus)
SQLSTATE: tidak ada yang ditetapkan
toko online harus <action>
dari tab perhitungan toko online.
Nama Kolom Tabel Daring Terlalu Panjang
SQLSTATE: tidak ada yang ditetapkan
Nama kolom tabel sumber <columnName>
terlalu panjang. Panjang maksimum adalah <maxLength>
karakter.
UC_TABEL_ONLINE_KOLOM_KUNCI_PRIMER_TIDAK_DALAM_TABEL_SUMBER_KONSTRAIN_KUNCI_PRIMER
SQLSTATE: tidak ada yang ditetapkan
Kolom <columnName>
tidak dapat digunakan sebagai kolom kunci utama tabel online karena bukan bagian dari batasan PRIMARY KEY
tabel sumber yang ada. Untuk detailnya, silakan lihat <docLink>
KUNCI_RANGKAIAN_WAKTU_TABEL_ONLINE_TIDAK_TERDAPAT_DALAM_KENDALA_KUNCI_UTAMA_TABEL_SUMBER
SQLSTATE: tidak ada yang ditetapkan
Kolom <columnName>
tidak dapat digunakan sebagai kunci waktu tabel online karena bukan kolom timeseries dari batasan PRIMARY KEY
tabel sumber yang ada. Untuk detailnya, silakan lihat <docLink>
Kuota Tabel Sumber UC_ONLINE_VIEWS_Terlampaui
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat membuat lebih dari <quota>
tabel online per tabel sumber.
Akses Tampilan Online Ditolak
SQLSTATE: tidak ada yang ditetapkan
Mengakses sumber daya <resourceName>
memerlukan penggunaan gudang SQL Tanpa Server. Pastikan gudang yang digunakan untuk menjalankan kueri atau melihat katalog database di UI tanpa server. Untuk detailnya, silakan lihat <docLink>
Kuota Lihat Berkelanjutan Online Terlampaui
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat membuat lebih dari <quota>
tampilan online secara terus menerus di toko online, serta sudah ada <currentCount>
. Anda mungkin tidak memiliki akses ke tampilan online yang sudah ada. Hubungi admin toko online Anda untuk diberikan akses atau untuk instruksi lebih lanjut.
Tampilan Online UC Tidak Mendukung DMK
SQLSTATE: tidak ada yang ditetapkan
<tableKind>
tidak dapat dibuat pada lokasi penyimpanan dengan Kunci Terkelola Databricks. Pilih skema/katalog yang berbeda di lokasi penyimpanan tanpa enkripsi Kunci Terkelola Databricks.
Tampilan daring UC_katalog tidak valid
SQLSTATE: tidak ada yang ditetapkan
Katalog <catalogName>
tidak valid dengan jenis <catalogKind>
untuk membuat <tableKind>
di dalam.
<tableKind>
hanya dapat dibuat di bawah katalog jenis: <validCatalogKinds>
.
UC_ONLINE_VIEW_SKEMA_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
Skema <schemaName>
tidak valid dengan jenis <schemaKind>
untuk membuat <tableKind>
di dalam.
<tableKind>
hanya dapat dibuat di bawah skema jenis: <validSchemaKinds>
.
TAMPILAN_ONLINE_UC_JENIS_KOLOM_WAKTU_TTL_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
Kolom <columnName>
tipe <columnType>
tidak dapat digunakan sebagai kolom waktu TTL. Jenis yang diperbolehkan adalah <supportedTypes>
.
OPERASI_UC_TIDAK_DIDUKUNG
SQLSTATE: tidak ada yang ditetapkan
Operasi tidak didukung oleh Katalog Unity. <detailedMessage>
UC_DI_LUAR_LINGKUP_JALUR_YANG_DIBERI_OTORITAS
SQLSTATE: tidak ada yang ditetapkan
Kesalahan Jalur Diotorisasi. Lokasi <securableType>
<location>
tidak ditetapkan dalam jalur yang diizinkan untuk katalog: <catalogName>
. Silakan minta pemilik katalog untuk menambahkan jalur ke daftar jalur resmi yang ditentukan pada katalog.
UC_JALUR_TEROTORISASI_BERSILANG
SQLSTATE: tidak ada yang ditetapkan
Opsi 'authorized_paths' berisi jalur yang tumpang tindih: <overlappingPaths>
. Pastikan setiap jalur unik dan tidak bersinggungan dengan orang lain dalam daftar.
UC_PAGINATION_AND_QUERY_ARGS_MISMATCH (Ketidakcocokan antara paginasi dan argumen kueri)
SQLSTATE: tidak ada yang ditetapkan
Argumen kueri '<arg>
' diatur ke '<received>
' yang berbeda dengan nilai yang digunakan dalam panggilan penomoran halaman pertama ('<expected>
')
UC_PATH_FILTER_DAFTAR_PUTIH_PELANGGARAN
SQLSTATE: tidak ada yang ditetapkan
Jalur '<targetPath>
' dengan kredensial '<credentialName>
' tidak diperbolehkan. Pastikan bahwa jalur tersebut adalah jalur turunan dari elemen dalam daftar berikut: '<allowlist>
'.
JALUR_UC_TERLALU_PANJANG
SQLSTATE: tidak ada yang ditetapkan
Jalur input terlalu panjang. Panjang yang diizinkan: <maxLength>
. Panjang input: <inputLength>
. Masukan: <path>
...
Batas Keterbatasan Keserentakan Database Metastore Terlampaui
SQLSTATE: tidak ada yang ditetapkan
Batas kesamaan waktu terlampaui untuk metastore <metastoreId>
. Silakan coba lagi nanti. Jika masalah berlanjut, silakan hubungi dukungan. Kode kesalahan #UC-<errorCodeArbitraryFiveLettersUpperCase>
Kuota Tampilan Daring PostgreSQL Per Tabel Sumber Terlampaui
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat membuat tabel database yang disinkronkan lebih dari <quota>
per tabel sumber.
UC_KUNCI_PRIMER_PADA_KOLOM_NULLABLE
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat membuat kunci primer <constraintName>
karena kolom turunannya <childColumnNames>
dapat diubah ke null. Silakan ubah opsi null kolom dan coba ulang.
Batas Waktu Permintaan UC
SQLSTATE: tidak ada yang ditetapkan
Operasi ini membutuhkan waktu terlalu lama.
UC_ROOT_STORAGE_S3_NAMA_BUCKET_MENGANDUNG_TITIK
SQLSTATE: tidak ada yang ditetapkan
Katalog Unity tidak mendukung nama bucket S3 penyimpanan utama yang mengandung titik: <uri>
LOKASI PENYIMPANAN KOSONG UC_SCHEMA
SQLSTATE: tidak ada yang ditetapkan
Lokasi penyimpanan kosong yang tidak terduga untuk skema '<schemaName>
' di katalog '<catalogName>
'. Pastikan skema menggunakan skema jalur <validPathSchemesListStr>
.
Penetapan Token Penyimpanan Domain Tidak Tepercaya Tanpa Server
SQLSTATE: tidak ada yang ditetapkan
Notebook tanpa server tidak dapat mengambil kredensial penyimpanan sementara dari Katalog Unity.
UC_STORAGE_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED (Gagal parsing konektor akses kredensial penyimpanan)
SQLSTATE: tidak ada yang ditetapkan
Gagal mengurai ID konektor akses yang disediakan: <accessConnectorId>
. Harap verifikasi pemformatannya, lalu coba lagi.
Izin Pembuatan Akar Kredensial Penyimpanan DBFS Ditolak
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat membuat kredensial penyimpanan untuk akar DBFS karena pengguna: <userId>
bukan admin ruang kerja: <workspaceId>
UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_DBFS_ENABLED (Kredensial Penyimpanan untuk DBFS Root Pribadi Diaktifkan)
SQLSTATE: tidak ada yang ditetapkan
Kredensial penyimpanan akar DBFS belum didukung untuk ruang kerja dengan DBFS berkemampuan Firewall
Kredensial penyimpanan root privat DBFS tidak didukung
SQLSTATE: tidak ada yang ditetapkan
Kredensial penyimpanan akar DBFS untuk ruang kerja saat ini belum didukung
UC_KREDENSIAL_PENYIMPANAN_DBFS_AKAR_WORKSPACE_NONAKTIF
SQLSTATE: tidak ada yang ditetapkan
Akar DBFS tidak diaktifkan untuk ruang kerja <workspaceId>
UC_STORAGE_CREDENTIAL_GAGAL_MENDAPATKAN_TOKEN_VALIDASI
SQLSTATE: tidak ada yang ditetapkan
Gagal mendapatkan token AAD untuk melakukan validasi izin cloud pada konektor akses. Silakan coba lagi tindakan tersebut.
Kredensial Penyimpanan Tidak Valid - Izin Awan Tidak Benar
SQLSTATE: tidak ada yang ditetapkan
Untuk mendaftarkan kredensial penyimpanan, diperlukan peran kontributor pada konektor akses yang sesuai dengan ID <accessConnectorId>
. Silakan hubungi admin akun Anda.
Izin Kredensial Penyimpanan Ditolak
SQLSTATE: tidak ada yang ditetapkan
Hanya admin akun yang dapat membuat atau memperbarui kredensial penyimpanan dengan jenis <storageCredentialType>
.
"Kredensial Penyimpanan UC: Token Validasi Tidak Ada untuk Service Principal"
SQLSTATE: tidak ada yang ditetapkan
Token validasi yang hilang untuk prinsipal layanan. Silakan berikan token Entra ID yang valid dengan cakupan ARM di header permintaan 'X-Databricks-Azure-SP-Management-Token' dan coba kembali. Untuk detailnya, periksa https://docs.databricks.com/api/workspace/storagecredentials
KEBIJAKAN KEPERCAYAAN KREDENSIAL PENYIMPANAN UC TERBUKA
SQLSTATE: tidak ada yang ditetapkan
Kebijakan kepercayaan peran IAM agar Akun Databricks dapat mengambil alih peran harus menyertakan ID eksternal. Silakan hubungi admin akun Anda untuk menambahkan kondisi ID eksternal. Perilaku ini dimaksudkan untuk melindungi dari masalah Deputi Bingung (https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html).
Kredensial Penyimpanan UC untuk Prinsipal Layanan Tanpa Hak Istimewa Tidak Didukung
SQLSTATE: tidak ada yang ditetapkan
Perwakilan layanan tidak dapat menggunakan hak istimewa CREATE STORAGE CREDENTIAL
untuk mendaftarkan identitas terkelola. Untuk mendaftarkan identitas terkelola, berikan peran admin akun pada prinsipal layanan.
UC_STORAGE_CREDENTIAL_WASBS_NOT_DBFS_ROOT
SQLSTATE: tidak ada yang ditetapkan
Lokasi <location>
tidak berada di dalam akar DBFS, karena itu kami tidak dapat membuat kredensial penyimpanan <storageCredentialName>
Penyimpanan UC Kredensial Workspace API Dilarang
SQLSTATE: tidak ada yang ditetapkan
Membuat atau memperbarui kredensial penyimpanan sebagai admin non-akun tidak didukung di API tingkat akun. Silakan gunakan API tingkat ruang kerja sebagai gantinya.
KREDENSIAL_PENYIMPANAN_UC_EMBER_TIDAK_VALID_LOKASI
SQLSTATE: tidak ada yang ditetapkan
Lokasi <requestedLocation>
tidak berada di dalam konteks yang diizinkan <allowedLocation>
UC_STORAGE_CREDENTIAL_WS_INTERNAL_CATALOG_TIDAK_DIDUKUNG
SQLSTATE: tidak ada yang ditetapkan
Kredensial penyimpanan katalog internal untuk ruang kerja saat ini belum didukung
UC_SISTEM_RUANG_KERJA_IZIN_KELOMPOK_TIDAK_DIDUKUNG
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat memberikan hak istimewa pada <securableType>
untuk grup yang dihasilkan oleh sistem <principal>
.
UC_TABEL_TIDAK_DIMILIKI_KATALOG
SQLSTATE: tidak ada yang ditetapkan
Permintaan untuk melakukan commit/getCommits untuk tabel '<tableId>
' memerlukan pengaktifan fitur yang dimiliki Katalog pada tabel.
Penetapan Tag UC Dengan Kunci Tidak Ada
SQLSTATE: tidak ada yang ditetapkan
Penetapan tag dengan kunci tag <tagKey>
tidak ada
Operasi Kredensial Sementara Tidak Didukung
SQLSTATE: tidak ada yang ditetapkan
Operasi kredensial sementara tidak didukung.
UC_RESOURCE_ID_YANG_DIBATALKAN_TELAH_ADA
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat mengurungkan '<resourceType>
' karena '<resourceType>
' dengan id '<resourceId>
' sudah ada.
Nama sumber UC_UNDROP_RESOURCE sudah ada
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat mengurungkan '<resourceType>
' karena '<resourceType>
' dengan nama '<resourceName>
' sudah ada.
UC sumber belum siap untuk dikembalikan
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat memulihkan '<resourceType>
' karena '<resourceType>
' dengan id '<resourceId>
' belum siap untuk dipulihkan kembali, mohon coba lagi nanti.
UC_UNDROP_RESOURCE_PAST_RECOVERABLE_WINDOW (mengembalikan sumber yang telah melewati batas waktu pemulihan)
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat mengembalikan '<resourceType>
' karena '<resourceType>
' dengan id '<resourceId>
' melebihi periode pemulihan '<maxRestorationPeriodDay>
' hari yang didukung.
UC_JALUR_DASAR_KONEKSI_HTTP_TIDAK_DIDUKUNG
SQLSTATE: tidak ada yang ditetapkan
Jalur dasar yang disediakan tidak valid, jalur dasar harus seperti /api/resources/v1. Jalur yang tidak didukung: <path>
Sambungan HTTP tidak didukung oleh host
SQLSTATE: tidak ada yang ditetapkan
Nama host yang disediakan tidak valid, nama host harus seperti https://www.databricks.com tanpa akhiran rute. Host yang tidak didukung: <host>
KARAKTER_LATIN_TIDAK_DIDUKUNG_DALAM_JALUR
SQLSTATE: tidak ada yang ditetapkan
Hanya karakter Latin/Latin-1 dasar ASCII
yang didukung dalam jalur lokasi/volume/tabel eksternal. Jalur yang tidak didukung: <path>
PEMBARUAN UC DILARANG UNTUK PENYEDIAAN YANG DAPAT DIAMANKAN
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat memperbarui <securableType>
'<securableName>
' karena sedang dalam penyediaan.
KONFLIK_PENULISAN_UC
SQLSTATE: tidak ada yang ditetapkan
<type> <name>
telah dimodifikasi oleh permintaan lain. Silakan coba lagi operasi ini.
Permintaan Commits Terkoordinasi Eksternal pada Katalog Unity Ditolak
SQLSTATE: tidak ada yang ditetapkan
Permintaan untuk melakukan commit/getCommits untuk tabel '<tableId>
' dari luar lingkungan komputasi yang diaktifkan Databricks Unity Catalog ditolak untuk keamanan. Silakan hubungi dukungan Databricks untuk integrasi dengan Unity Catalog.
Permintaan Pembuatan Tabel Staging Eksternal Unity Catalog Ditolak
SQLSTATE: tidak ada yang ditetapkan
Permintaan untuk membuat tabel penahapan '<tableFullName>
' dari luar lingkungan komputasi yang diaktifkan Databricks Unity Catalog ditolak untuk keamanan. Silakan hubungi dukungan Databricks untuk integrasi dengan Unity Catalog.
Permintaan Pembuatan Tabel Eksternal di UNITY_CATALOG Ditolak untuk Tabel Non-Eksternal
SQLSTATE: tidak ada yang ditetapkan
Permintaan untuk membuat tabel non-eksternal '<tableFullName>
' dari luar lingkungan komputasi yang diaktifkan Databricks Unity Catalog ditolak untuk keamanan. Silakan hubungi dukungan Databricks untuk integrasi dengan Unity Catalog.
Permintaan Penghapusan Tabel Eksternal UNITY_CATALOG untuk Tabel Non-Eksternal Ditolak
SQLSTATE: tidak ada yang ditetapkan
Permintaan untuk menghapus tabel non-eksternal '<tableFullName>
' dari luar lingkungan komputasi yang diaktifkan Databricks Unity Catalog tidak didukung.
Penolakan Penghasilan Kredensial Jalur Eksternal UNITY_CATALOG
SQLSTATE: tidak ada yang ditetapkan
Permintaan untuk menghasilkan kredensial akses untuk jalur '<path>
' dari luar lingkungan komputasi yang diaktifkan Databricks Unity Catalog ditolak untuk keamanan. Silakan hubungi dukungan Databricks untuk integrasi dengan Unity Catalog.
PENOLAKAN_GENERATE_KREDENSIAL_TABEL_EKSTERNAL_UNITY_CATALOG
SQLSTATE: tidak ada yang ditetapkan
Permintaan untuk menghasilkan kredensial akses untuk tabel '<tableId>
' dari luar lingkungan komputasi yang diaktifkan Databricks Unity Catalog ditolak untuk keamanan. Silakan hubungi dukungan Databricks untuk integrasi dengan Unity Catalog.
KATALOG_KESATUAN_EKSTERNAL_AMBIL_KREDENSIAL_ASING_DITOLAK
SQLSTATE: tidak ada yang ditetapkan
Permintaan untuk mendapatkan kredensial asing untuk elemen keamanan dari luar lingkungan komputasi yang diaktifkan Databricks Unity Catalog ditolak demi alasan keamanan.
PENOLAKAN PEMUTAKHIRAN METADATA SNAPSHOT EKSTERNAL UNITY_CATALOG
SQLSTATE: tidak ada yang ditetapkan
Permintaan untuk memperbarui rekam jepret metadata dari luar lingkungan komputasi yang diaktifkan Databricks Unity Catalog ditolak untuk keamanan.
CREDENTIALS_TULIS_TIDAK_DIDUKUNG_UNTUK_TABEL_ONLINE_MANAJEMEN_LEGACY
SQLSTATE: tidak ada yang ditetapkan
Permintaan tidak valid untuk mendapatkan kredensial menulis untuk tabel yang dikelola secara online dalam katalog online.
API Berkas
FILES_API_API_TIDAK_DIMUNGKINAN
SQLSTATE: tidak ada yang ditetapkan
<api_name>
API tidak diaktifkan
FILES_API_API_TIDAK_DIAKTIFKAN_UNTUK_JALUR_CLOUD
SQLSTATE: tidak ada yang ditetapkan
Metode API File yang diminta tidak didukung untuk jalur cloud
AKSES FILES_API_AWS DITOLAK
SQLSTATE: tidak ada yang ditetapkan
Akses ke wadah penyimpanan ditolak oleh AWS.
API_FILE_AWS_AKSES_SEMUA_DINONAKTIFKAN
SQLSTATE: tidak ada yang ditetapkan
Semua akses ke wadah penyimpanan telah dinonaktifkan di AWS.
FILES_API_AWS_BUCKET_TIDAK_ADA
SQLSTATE: tidak ada yang ditetapkan
Wadah penyimpanan tidak ada di AWS.
FILES_API_AWS_TERLARANG
SQLSTATE: tidak ada yang ditetapkan
Akses ke wadah penyimpanan dilarang oleh AWS.
FILES_API_AWS_HEADER_OTORISASI_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
Ruang kerja salah dikonfigurasi: ruang kerja harus berada di wilayah yang sama dengan wadah penyimpanan akar ruang kerja AWS.
FILES_API_AWS_NAMA_BUCKET_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
Nama wadah penyimpanan tidak valid.
FILES_API_AWS_KMS_KEY_DISABLED (Kunci AWS KMS Dinonaktifkan)
SQLSTATE: tidak ada yang ditetapkan
Kunci KMS yang dikonfigurasi untuk mengakses wadah penyimpanan dinonaktifkan di AWS.
FILES_API_AWS_TIDAK_DIAUTORISASI
SQLSTATE: tidak ada yang ditetapkan
Akses ke sumber daya AWS tidak sah.
AKUN_AZURE_FILES_API_DINONAKTIFKAN
SQLSTATE: tidak ada yang ditetapkan
Akun penyimpanan dinonaktifkan di Azure.
JED_FILES_API_PERSETUJUAN_AZURE_TIDAK_SESUAI_DENGAN_IZIN
SQLSTATE: tidak ada yang ditetapkan
Ketidakcocokan izin otorisasi.
FILES_API_CONTAINER_AZURE_TIDAK_ADA
SQLSTATE: tidak ada yang ditetapkan
Kontainer Azure tidak ada.
Akses FILES_API_AZURE Dilarang
SQLSTATE: tidak ada yang ditetapkan
Akses ke kontainer penyimpanan dilarang oleh Azure.
FILES_API_AZURE_PUNYA_SEWA
SQLSTATE: tidak ada yang ditetapkan
Azure merespons bahwa saat ini ada sewa pada sumber daya. Coba lagi nanti.
IZIN_AKUN_TIDAK_MEMADAI_FILES_API_AZURE
SQLSTATE: tidak ada yang ditetapkan
Akun yang diakses tidak memiliki izin yang memadai untuk menjalankan operasi ini.
KONFIGURASI_AKUN_PENYIMPANAN_TIDAK_VALID_FILES_API_AZURE
SQLSTATE: tidak ada yang ditetapkan
Konfigurasi akun yang diakses tidak didukung.
FILES_API_AZURE_NAMA_AKUN_PENYIMPANAN_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat mengakses akun penyimpanan di Azure: nama akun penyimpanan yang tidak valid.
OTENTIKASI_BERBASIS_KUNCI_API_FILE_AZURE_TIDAK_DIPERBOLEHKAN
SQLSTATE: tidak ada yang ditetapkan
Key Vault tidak ditemukan di Azure. Periksa pengaturan kunci yang Anda kelola sendiri.
FILES_API_KUNCI_AZURE_KEY_VAULT_TIDAK_DITEMUKAN
SQLSTATE: tidak ada yang ditetapkan
Kunci di Brankas Kunci Azure tidak ditemukan di Azure. Periksa pengaturan kunci yang Anda kelola sendiri.
BERKAS_API_AZURE_KEY_VAULT_TIDAK_DITEMUKAN
SQLSTATE: tidak ada yang ditetapkan
Key Vault tidak ditemukan di Azure. Periksa pengaturan kunci yang Anda kelola sendiri.
KONEKTOR_AKSES_MI_FILES_API_AZURE_TIDAK_DITEMUKAN
SQLSTATE: tidak ada yang ditetapkan
Kredensial Identitas Terkelola Azure dengan Konektor Akses tidak ditemukan. Ini bisa karena kontrol akses IP menolak permintaan Anda.
WAKTU_HABIS_OPERASI_AZURE_API_FILE
SQLSTATE: tidak ada yang ditetapkan
Operasi tidak dapat diselesaikan dalam waktu yang diizinkan.
JALUR_AZURE_FILES_API_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
Jalur yang diminta tidak valid untuk Azure.
FILES_API_AZURE_PATH_ADALAH_TAK_BERUBAH
SQLSTATE: tidak ada yang ditetapkan
Jalur yang diminta tidak dapat diubah.
FILE_API_AZURE_HEADER_TIDAK_DIDUKUNG
SQLSTATE: tidak ada yang ditetapkan
Salah satu header yang ditentukan dalam operasi tidak didukung.
FILES_API_TIDAK_BISA_MENGURAI_PARAMETER_URL
SQLSTATE: tidak ada yang ditetapkan
Parameter URL tidak dapat diurai.
KATALOG_FILES_API_TIDAK_DITEMUKAN
SQLSTATE: tidak ada yang ditetapkan
<unity_catalog_error_message>
SUMBER_DAYA_AWAN_FILES_API_HABIS
SQLSTATE: tidak ada yang ditetapkan
<message>
Masalah Koneksi Penyedia Penyimpanan Cloud FILES_API
SQLSTATE: tidak ada yang ditetapkan
Ada masalah koneksi untuk mencapai <cloud_storage_provider>
. Silakan coba lagi nanti.
FILES_API_TITIK DUA_TIDAK DIDUKUNG_DI_JALUR
SQLSTATE: tidak ada yang ditetapkan
karakter ':' tidak didukung di path
Zona Jaringan Konsumen API FILES Tidak Diizinkan
SQLSTATE: tidak ada yang ditetapkan
Zona jaringan konsumen "<consumer_network_zone>
" tidak diizinkan dari zona jaringan pemohon "<requester_network_zone>
".
FILES_API_KENDALI_PESAWAT_JARINGAN_ZONE_TIDAK_DIIJINKAN
SQLSTATE: tidak ada yang ditetapkan
Zona jaringan pesawat kendali Databricks tidak diizinkan.
DIREKTORI_FILES_API_TIDAK_DAPAT_MEMILIKI_ISI
SQLSTATE: tidak ada yang ditetapkan
Sebuah isi telah disediakan tetapi direktori tidak dapat memiliki isi berkas
KONFIGURASI_API_DIREKTORI_TIDAK_KOSONG
SQLSTATE: tidak ada yang ditetapkan
Direktori tidak kosong. Operasi ini tidak didukung pada direktori yang tidak kosong.
DIREKTORI_FILES_API_TIDAK_DITEMUKAN
SQLSTATE: tidak ada yang ditetapkan
Direktori yang sedang diakses tidak ditemukan.
FILES_API_KUNCI_INDUK_ENKRIPSI_DINONAKTIFKAN
SQLSTATE: tidak ada yang ditetapkan
Kunci akar untuk enkripsi yang dikelola pelanggan dinonaktifkan.
FILE_API_DUPLIKAT_HEADER
SQLSTATE: tidak ada yang ditetapkan
Permintaan berisi beberapa salinan header yang hanya diizinkan sekali.
FILES_API_DUPLICATE_QUERY_PARAMETER
SQLSTATE: tidak ada yang ditetapkan
Parameter kueri '<parameter_name>
' harus ada tepat sekali tetapi disediakan beberapa kali.
FILES_API_EMPTY_BUCKET_NAME
SQLSTATE: tidak ada yang ditetapkan
Nama bucket DBFS kosong.
FILES_API_KUNCI_ENKRIPSI_IZIN_DITOLAK
SQLSTATE: tidak ada yang ditetapkan
Pengguna tidak memiliki akses ke kunci enkripsi.
KUNCI_ENKRIPSI_FILES_API_OPERASI_PENGAMBILAN_TIMEOUT
SQLSTATE: tidak ada yang ditetapkan
Operasi untuk mengambil kunci enkripsi tidak dapat diselesaikan dalam waktu yang diizinkan.
Berkas_API_Entity_Terlalu_Besar
SQLSTATE: tidak ada yang ditetapkan
Objek Anda melebihi ukuran objek maksimum yang diizinkan.
FILES_API_KESALAHAN_KADALUARSA_TTL
SQLSTATE: tidak ada yang ditetapkan
TTL telah kedaluwarsa.
BERKAS_API_KESALAHAN_TTL_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
TTL tidak valid.
KUNCI_FILES_API_UTK_WORKSPACE_TIDAK_DITEMUKAN
SQLSTATE: tidak ada yang ditetapkan
Kunci untuk ruang kerja tidak ditemukan.
FILES_API_ERROR_PARAM_WAJIB_HILANG
SQLSTATE: tidak ada yang ditetapkan
URL tidak memiliki parameter yang diperlukan.
KESALAHAN_API_FILE_TTL_DI_MASA_DEPAN
SQLSTATE: tidak ada yang ditetapkan
TTL adalah untuk masa depan.
KESALAHAN_API_BERKAS_URL_PENERBIT_TIDAK_VALID_NAMA_SHARD
SQLSTATE: tidak ada yang ditetapkan
Nama shard penerbit tidak valid.
WAKTU_KEDALUWARSA_FILES_API_HARUS_ADA
SQLSTATE: tidak ada yang ditetapkan
waktu kedaluwarsa harus ada
TOKEN_KADALUARSA_FILES_API
SQLSTATE: tidak ada yang ditetapkan
Token yang disediakan telah kedaluwarsa.
WAKTU_KADALUWARSA_API_BERKAS_HARUS_DI_MASA_DEPAN
SQLSTATE: tidak ada yang ditetapkan
Waktu kedaluwarsa harus di masa depan
WAKTU_KEDALUWARSA_FILES_API_TERLALU_JAUH_DI_MASA_DEPAN
SQLSTATE: tidak ada yang ditetapkan
TTL yang diminta lebih lama dari yang didukung (1 jam)
LOKASI_EKSTERNAL_PATH_OVERLAP_ENTITAS_PENYIMPANAN_UC_LAIN
SQLSTATE: tidak ada yang ditetapkan
<unity_catalog_error_message>
BERKAS_API_BERKAS_SUDAH_ADA
SQLSTATE: tidak ada yang ditetapkan
File yang sedang dibuat sudah ada.
FILES_API_FILE_TIDAK_DITEMUKAN
SQLSTATE: tidak ada yang ditetapkan
File yang sedang diakses tidak ditemukan.
BERKAS_API_BERKAS_ATAU_DIREKTORI_BERAKHIR_DENGAN_TITIK
SQLSTATE: tidak ada yang ditetapkan
File atau direktori yang berakhiran karakter '.' tidak didukung.
UKURAN_FILE_API_TERLALU_BESAR
SQLSTATE: tidak ada yang ditetapkan
Ukuran file tidak boleh melebihi <max_download_size_in_bytes>
byte, tetapi <size_in_bytes>
byte ditemukan.
FILES_API_AKUN_GCP_DINONAKTIFKAN
SQLSTATE: tidak ada yang ditetapkan
Akses ke wadah penyimpanan telah dinonaktifkan di GCP.
Bucket GCP tidak ada
SQLSTATE: tidak ada yang ditetapkan
Wadah penyimpanan tidak ada di GCP.
FILES_API_GCP_DILARANG
SQLSTATE: tidak ada yang ditetapkan
Akses ke wadah dilarang oleh GCP.
FILES_API_KUNCI_GCP_DIMATIKAN_ATAU_DIHANCURKAN
SQLSTATE: tidak ada yang ditetapkan
Kunci enkripsi yang dikelola pelanggan yang dikonfigurasi untuk lokasi tersebut dinonaktifkan atau dihancurkan.
Permintaan FILES_API_GCP dilarang oleh kebijakan
SQLSTATE: tidak ada yang ditetapkan
Permintaan GCP ke bucket diblokir oleh kebijakan, periksa pengaturan layanan VPC.
HOST_FILES_API_SEMENTARA_TIDAK_TERSEDIA
SQLSTATE: tidak ada yang ditetapkan
Host penyedia cloud untuk sementara tidak tersedia; silakan coba lagi nanti.
TOKEN_LANJUTAN_TIDAK_VALID_FILES_API
SQLSTATE: tidak ada yang ditetapkan
Token halaman yang disediakan tidak valid.
FILES_API_NAMA_HOST_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
Nama host tidak valid.
Metode HTTP Tidak Valid di API Berkas
SQLSTATE: tidak ada yang ditetapkan
Metode http tidak valid. Diharapkan '<expected>
' tetapi mendapatkan '<actual>
'.
FILES_API_INVALID_METASTORE_ID_HEADER
SQLSTATE: tidak ada yang ditetapkan
ID header metastore tidak valid.
Toket Halaman Tidak Valid pada FILES_API
SQLSTATE: tidak ada yang ditetapkan
token halaman tidak valid
FILES_API_INVALID_PATH (Jalur tidak valid pada API berkas)
SQLSTATE: tidak ada yang ditetapkan
Jalur tidak valid: <validation_error>
FILES_API_RENTANG_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
Header range tidak valid.
BERKAS_API_NAMA_SUMBER_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
<unity_catalog_error_message>
KESALAHAN_API_TIDAK_VALID_TOKEN_SESI
SQLSTATE: tidak ada yang ditetapkan
Token sesi tidak valid
FILES_API_INVALID_SESSION_TOKEN_TYPE - Jenis token sesi tidak valid.
SQLSTATE: tidak ada yang ditetapkan
Jenis token sesi tidak valid. Diharapkan '<expected>
' tetapi mendapatkan '<actual>
'.
STSBERKAS_API_STEMPELWAKTUTIDAKVALID
SQLSTATE: tidak ada yang ditetapkan
Tanda waktu tidak valid.
TIPE_PENGUNGGAHAN_TIDAK_VALID_FILES_API
SQLSTATE: tidak ada yang ditetapkan
Jenis unggahan tidak valid. Diharapkan '<expected>
' tetapi mendapatkan '<actual>
'.
BERKAS_API_PARAMETER_URL_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
URL yang diteruskan sebagai parameter tidak valid
NILAI_INVALID_UNTUK_PARAMETER_QUERY_OVERWRITE_PADA_API_BERKAS
SQLSTATE: tidak ada yang ditetapkan
Parameter kueri 'overwrite' harus salah satu dari: true,false namun ternyata: <got_values>
Nilai tidak valid untuk parameter kueri di FILES_API
SQLSTATE: tidak ada yang ditetapkan
Parameter kueri '<parameter_name>
' harus salah satu dari: <expected>
tetapi adalah: <actual>
BADAN PERMINTAAN FILES_API TIDAK VALID
SQLSTATE: tidak ada yang ditetapkan
Isi permintaan cacat
FITUR KATALOG TERKELOLA FILES_API DIMATIKAN
SQLSTATE: tidak ada yang ditetapkan
<unity_catalog_error_message>
METASTORE_FILE_API_TIDAK_DITEMUKAN
SQLSTATE: tidak ada yang ditetapkan
<unity_catalog_error_message>
METODE_API_FILE_TIDAK_DIIZINKAN_UNTUK_PENYIMPANAN_ARTEFAK_PERHITUNGAN_LATAR_BELAKANG_JOBS
SQLSTATE: tidak ada yang ditetapkan
Metode API File yang diminta tidak didukung untuk Penyimpanan Artefak Komputasi Latar Belakang Pekerjaan.
FILES_API_HILANGI_PANJANG_KONTEN
SQLSTATE: tidak ada yang ditetapkan
Header panjang konten diperlukan dalam permintaan.
FILES_API_PARAMETER_KUERI_HILANG
SQLSTATE: tidak ada yang ditetapkan
Parameter kueri '<parameter_name>
' diperlukan tetapi hilang dari permintaan.
FILES_API_PARAMETER_YANG_DIPERLUKAN_HILANG_DALAM_PERMINTAAN
SQLSTATE: tidak ada yang ditetapkan
Permintaan tidak memiliki parameter yang diperlukan.
Izin FILES_API_MLFLOW Ditolak
SQLSTATE: tidak ada yang ditetapkan
<mlflow_error_message>
VERSI_MODEL_FILES_API_BELUM_SIAP
SQLSTATE: tidak ada yang ditetapkan
Versi model belum siap
API_FILES_UPLOAD_MULTIPART_ABORT_URL_PRESIGNED_TIDAK_DIPERBARUI
SQLSTATE: tidak ada yang ditetapkan
URL yang telah ditetapkan sebelumnya untuk membatalkan unggahan multibagian tidak didukung untuk file yang disimpan di <cloud_storage_provider>
.
UNGGAH_MULTIPART_FILE_BERKAS_DENGAN_LIST_BAGIAN_KOSONG
SQLSTATE: tidak ada yang ditetapkan
Daftar bagian harus memiliki setidaknya satu elemen tetapi kosong.
FILE_API_UPLOAD_BAGIAN_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
Satu atau beberapa bagian yang ditentukan tidak dapat ditemukan. Bagian mungkin belum diunggah, atau tag entitas yang ditentukan mungkin tidak cocok dengan tag entitas bagian.
Nomor bagian yang tidak valid dalam unggahan multipart FILES_API
SQLSTATE: tidak ada yang ditetapkan
Angka bagian harus lebih besar dari atau sama dengan <min>
dan lebih kecil dari atau sama dengan <max>
.
FILES_API_UPLOAD_MULTIPART_ETAG_HILANG
SQLSTATE: tidak ada yang ditetapkan
ETag harus disediakan untuk file yang disimpan di <cloud_storage_provider>
. Setidaknya satu ETag tidak disediakan atau kosong.
STATUS_ENTITAS_PENYIMPANAN_YANG_DIUBAH_DARI_UPLOAD_MULTIPART_API_BERKAS
SQLSTATE: tidak ada yang ditetapkan
Status internal entitas penyimpanan telah dimodifikasi sejak unggahan dimulai, misalnya karena jalur file tidak menunjuk ke lokasi penyimpanan cloud yang mendasar yang sama. Lanjutkan dengan memulai sesi pengunggahan baru.
FILES_API_UNGGAHAN_MULTIBAGIAN_BAGIAN_TANPA_AKHIR_DENGAN_UKURAN_BERBEDA
SQLSTATE: tidak ada yang ditetapkan
Bagian yang diunggah sebagai bagian dari sesi pengunggahan multibagian harus berukuran sama untuk file yang disimpan di <cloud_storage_provider>
, kecuali untuk bagian terakhir yang bisa lebih kecil.
FILES_API_UPLOAD_BERPOTONG_PADA_UKURAN_BAGIAN_DI_LUAR_BATAS
SQLSTATE: tidak ada yang ditetapkan
Ukuran bagian yang diunggah sebagai bagian dari sesi pengunggahan multibagian harus lebih besar dari atau sama dengan <min>
dan lebih kecil dari atau sama dengan <max>
.
SESI_UPLOAD_MULTIPART_API_BERKAS_TIDAK_DITEMUKAN
SQLSTATE: tidak ada yang ditetapkan
Sesi unggahan tidak ditemukan. Ini mungkin telah dibatalkan atau diselesaikan.
BERKAS_API_MULTIPART_UNGGAH_DAFTAR_BAGIAN_TIDAK_TERURUT
SQLSTATE: tidak ada yang ditetapkan
Daftar bagian harus diurutkan berdasarkan nomor bagian tetapi tidak diurutkan.
FILES_API_TIDAK_DIIJINKAN_UNTUK_TEMPAT
SQLSTATE: tidak ada yang ditetapkan
FILES API untuk <place>
tidak diaktifkan untuk ruang kerja/akun ini
API_FILE_TIDAK_DIDUKUNG_PADA_PENYIMPANAN_RUANG_KERJA_INTERNAL
SQLSTATE: tidak ada yang ditetapkan
Metode FILES API yang diminta tidak didukung untuk Penyimpanan Ruang Kerja Internal
Operasi_API_BERKAS_HARUS_ADA
SQLSTATE: tidak ada yang ditetapkan
operasi harus ada
FILES_API_OPERATION_TIMEOUT (Waktu operasi API berkas habis)
SQLSTATE: tidak ada yang ditetapkan
Waktu operasi habis.
UKURAN_HALEMAN_FILES_API_HARUS_LEBIH_BESAR_ATAU_SAMA_DENGAN_NOL
SQLSTATE: tidak ada yang ditetapkan
page_size harus lebih besar dari atau sama dengan 0
PATH_API_FILE_DIHARUSKAN_BERAKHIR_DENGAN_SLASH
SQLSTATE: tidak ada yang ditetapkan
Jalur yang berakhiran karakter '/' mewakili direktori. API ini tidak mendukung operasi pada direktori.
Jalur FILES_API adalah Direktori
SQLSTATE: tidak ada yang ditetapkan
Jalur yang diberikan menunjuk ke direktori yang ada. API ini tidak mendukung operasi pada direktori.
FILES_API_PATH_ADALAH_FILE
SQLSTATE: tidak ada yang ditetapkan
Jalur yang diberikan menunjuk ke file yang ada. API ini tidak mendukung operasi pada file.
JALUR_API_FILE_TIDAK_VALID_SEBAGAI_URL_BERKODE_UTF8
SQLSTATE: tidak ada yang ditetapkan
jalur yang diberikan bukan URL yang dikodekan UTF-8 yang valid
Jalur FILES_API tidak diaktifkan untuk Proxy Dataplane
SQLSTATE: tidak ada yang ditetapkan
Jalur yang diberikan tidak diizinkan untuk proksi bidang data
FILES_API_PATH_HARUS_ADA
SQLSTATE: tidak ada yang ditetapkan
jalur harus tersedia
JALUR_API_FILE_TIDAK_DIDUKUNG
SQLSTATE: tidak ada yang ditetapkan
<rejection_message>
JALUR_API_FILE_TERLALU_PANJANG
SQLSTATE: tidak ada yang ditetapkan
Jalur file yang disediakan terlalu panjang.
FILES_API_PRAKONDISI_GAGAL
SQLSTATE: tidak ada yang ditetapkan
Permintaan gagal karena prasyarat.
URL Pra-penandatanganan untuk Model Tidak Didukung di API FILES
SQLSTATE: tidak ada yang ditetapkan
FILE API untuk URL yang telah ditandatangani untuk model tidak didukung saat ini
Kredensial FILES_API_R2 dinonaktifkan
SQLSTATE: tidak ada yang ditetapkan
R2 tidak didukung saat ini.
FILES_API_RANGE_NOT_SATISFIABLE (Rentang berkas tidak dapat dipenuhi)
SQLSTATE: tidak ada yang ditetapkan
Rentang yang diminta tidak terpenuhi.
API_FILES_DAFTAR_REKURSIF_TIDAK_DIDUKUNG
SQLSTATE: tidak ada yang ditetapkan
Mencantumkan file secara rekursif tidak dapat dilakukan.
BERKAS_API_PEMINTA_ZONA_JARINGAN_TIDAK_DI KENAL
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat menyimpulkan zona jaringan pemohon.
PERMINTAAN_API_FILE_DIALIHKAN_SECARA_TIDAK_TEPAT
SQLSTATE: tidak ada yang ditetapkan
Permintaan dirutekan dengan tidak benar
Permintaan FILES_API harus menyertakan informasi akun.
SQLSTATE: tidak ada yang ditetapkan
Permintaan harus menyertakan informasi akun
Permintaan FILES_API harus menyertakan informasi pengguna
SQLSTATE: tidak ada yang ditetapkan
Permintaan harus menyertakan informasi pengguna
PERMINTAAN API BERKAS HARUS MENYERTAKAN INFORMASI RUANG KERJA
SQLSTATE: tidak ada yang ditetapkan
Permintaan harus menyertakan informasi ruang kerja
Sumber API BERKAS adalah Read-only
SQLSTATE: tidak ada yang ditetapkan
Sumber daya ini hanya dapat dibaca.
FILES_API_SUMBER_DAYA_TIDAK_DITEMUKAN
SQLSTATE: tidak ada yang ditetapkan
<unity_catalog_error_message>
SKEMA_API_BERKAS_TIDAK_DITEMUKAN
SQLSTATE: tidak ada yang ditetapkan
<unity_catalog_error_message>
FILES_API_URL_AMAN_TIDAK_BISA_DIAKSES
SQLSTATE: tidak ada yang ditetapkan
URL tidak dapat diakses.
Pemeriksaan Tanda Tangan API Berkas Gagal
SQLSTATE: tidak ada yang ditetapkan
Verifikasi tanda tangan gagal.
KONTEKS_PENYIMPANAN_API_BERKAS_BELUM_DISETEL
SQLSTATE: tidak ada yang ditetapkan
Konfigurasi penyimpanan untuk ruang kerja ini tidak dapat diakses.
Kredensial Penyimpanan API Berkas Tidak Ditemukan
SQLSTATE: tidak ada yang ditetapkan
<unity_catalog_error_message>
JENIS_TABEL_FILES_API_TIDAK_DIDUKUNG
SQLSTATE: tidak ada yang ditetapkan
FILES API tidak didukung untuk <table_type>
FILES_API_UC_KEGAGALAN_OTENTIKASI
SQLSTATE: tidak ada yang ditetapkan
<unity_catalog_error_message>
Peran_Identitas_API_IAM_TIDAK_BISA_MENGGUNAKAN_DIRI_SENDIRI
SQLSTATE: tidak ada yang ditetapkan
<unity_catalog_error_message>
FILES_API_UC_MODEL_KEADAAN_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
<unity_catalog_error_message>
FILES_API_UC_PERMISSION_DITOLAK
SQLSTATE: tidak ada yang ditetapkan
<unity_catalog_error_message>
FILES_API_UC_SUMBER_DAYA_HABIS
SQLSTATE: tidak ada yang ditetapkan
<message>
FILES_API_UC_KARAKTER_LATIN_TIDAK_DIDUKUNG_DALAM_PATH
SQLSTATE: tidak ada yang ditetapkan
<unity_catalog_error_message>
FILES_API_UC_NAMA_VOLUME_BERUBAH
SQLSTATE: tidak ada yang ditetapkan
<unity_catalog_error_message>
Terjadi kesalahan tak terduga pada FILES_API saat memproses URI
SQLSTATE: tidak ada yang ditetapkan
Kesalahan tak terduga saat mengurai URI
FILES_API_PARAMETER_QUERY_TIDAK_TERDUGA
SQLSTATE: tidak ada yang ditetapkan
Parameter kueri tak terduga: <unexpected_query_parameters>
METODE_TIDAK_DI KETAHUI_FILES_API
SQLSTATE: tidak ada yang ditetapkan
Metode yang tidak diketahui <method>
KESALAHAN_SERVER_TIDAK_DI KENAL_FILES_API
SQLSTATE: tidak ada yang ditetapkan
Kesalahan server tidak diketahui.
FILES_API_TUAN_RUMAH_URL_TIDAK_DI KETAHUI
SQLSTATE: tidak ada yang ditetapkan
Host URL tidak diketahui.
METODE_AUTENTIKASI_YANG_TIDAK_DIDUKUNG_OLEH_FILES_API
SQLSTATE: tidak ada yang ditetapkan
Permintaan tidak diautentikasi dengan benar.
METODE_HTTP_TIDAK_DIDUKUNG_API_BERKAS
SQLSTATE: tidak ada yang ditetapkan
HttpMethod tidak didukung.
Kombinasi Parameter yang Tidak Didukung API FILES
SQLSTATE: tidak ada yang ditetapkan
Kombinasi parameter tidak didukung.
FILES_API_JALUR_TIDAK_DIDUKUNG
SQLSTATE: tidak ada yang ditetapkan
Jalur yang disediakan tidak didukung oleh FILES API. Pastikan jalur yang disediakan tidak berisi instans '.. /' atau urutan './'. Pastikan jalur yang disediakan tidak menggunakan beberapa garis miring berturut-turut (misalnya '///').
FILES_API_UPLOAD_PART_URLS_COUNT_HARUS_LEBIH_BESAR_DARI_NOL
SQLSTATE: tidak ada yang ditetapkan
Parameter input 'count' harus lebih besar dari 0.
PEMBANGKITAN_URL_API_FILE_NONAKTIF
SQLSTATE: tidak ada yang ditetapkan
Pembuatan URL yang telah ditetapkan sebelumnya tidak diaktifkan untuk <cloud>
.
JENIS_VOLUME_API_FILES_TIDAK_DIDUKUNG
SQLSTATE: tidak ada yang ditetapkan
FILES API tidak didukung untuk <volume_type>
.
WORKSPACE_API_FILE_DIBATALKAN
SQLSTATE: tidak ada yang ditetapkan
Ruang kerja telah dibatalkan.
Workspace FILES_API Tidak Ditemukan
SQLSTATE: tidak ada yang ditetapkan
Konfigurasi penyimpanan untuk ruang kerja ini tidak dapat diakses.
Teknologi Ledger Terdistribusi (DLT)
PEMBARUAN_AKTIF_ADA_UNTUK_PIPA_TERTAUT
Pembaruan aktif '<updateId>
' sudah ada untuk alur tertaut '<linkedPipelineId>
'.
Pembaruan Aktif Tersedia untuk Jalur Perpipaan
Pembaruan aktif '<updateId>
' sudah ada untuk alur '<pipelineId>
'.
Mengubah Tidak Diizinkan Untuk Tabel Pipeline
ALTER
tidak diperbolehkan pada tabel yang dikelola oleh
Untuk detail selengkapnya, lihat ALTER_NOT_ALLOWED_FOR_PIPELINE_TABLE
UBAH_JADWAL_JADWAL_TIDAK_ADA
Tidak dapat memodifikasi <type>
pada tabel tanpa jadwal atau pemicu yang ada. Tambahkan jadwal atau pemicu ke tabel sebelum mencoba mengubahnya.
Kuota API Terlampaui
Anda telah melebihi kuota API untuk sumber data <sourceName>
.
Untuk informasi selengkapnya, lihat API_QUOTA_EXCEEDED
KESALAHAN_PENERAPAN_PERUBAHAN
Terjadi kesalahan selama operasi CDC OTOMATIS.
Untuk detail selengkapnya, lihat APPLY_CHANGES_ERROR
KESALAHAN_MENERAPKAN_PERUBAHAN_DARI_SNAPSHOT
Terjadi kesalahan selama operasi AUTO CDC FROM SNAPSHOT
.
Untuk detail selengkapnya, lihat APPLY_CHANGES_FROM_SNAPSHOT_ERROR
MENERAPKAN PERUBAHAN DARI EKSPEKTASI CUITAN TIDAK DIDUKUNG
Himpunan data <datasetName>
memiliki ekspektasi yang ditentukan, tetapi ekspektasi saat ini tidak didukung untuk himpunan data menggunakan AUTO CDC FROM SNAPSHOT
.
Hapus harapan untuk mengatasi kesalahan ini. Sebagai alternatif, pertimbangkan untuk menggunakan struktur berikut untuk menerapkan ekspektasi dengan menggabungkan AUTO CDC
dan AUTO CDC FROM SNAPSHOT
:
Terapkan perubahan dari rekam jepret menggunakan SCD jenis 1 ke tabel perantara tanpa ekspektasi.
Baca perubahan dari tabel perantara menggunakan
spark.readStream.option("readChangeFeed", "true").table
.Terapkan perubahan dari tabel perantara ke tabel target akhir menggunakan
dlt.create_auto_cdc_flow
dengan parameter berikut selain yang saat ini digunakan dengandlt.acreate_auto_cdc_flow_from_snapshot
:
Untuk menangani perubahan:
apply_as_deletes = "_change_type == 'delete'"
Untuk menghapus kolom yang ditambahkan oleh CDF:
except_column_list = ["_change_type", "_commit_version", "_commit_timestamp"]
- Sertakan serangkaian ekspektasi saat ini pada tabel target akhir yang digunakan untuk
dlt.create_auto_cdc_flow
.
TERAPKAN_PERUBAHAN_PEMBARUAN_PARUH_TIDAK_DIAKTIFKAN
Fitur COLUMNS
hingga UPDATE
dalam pratinjau dan tidak diaktifkan untuk ruang kerja Anda. Silakan hubungi perwakilan Databricks Anda untuk mempelajari lebih lanjut tentang fitur ini dan mengakses pratinjau privat.
KEGAGALAN_MIGRASI_ARSITEKTUR
Untuk informasi lebih lengkap, lihat ARCHITECTURE_MIGRATION_FAILURE
ARCLIGHT_MEMERLUKAN_SERVERLESS
Alur yang menargetkan katalog menggunakan Penyimpanan Default harus menggunakan komputasi tanpa server. Jika Anda tidak memiliki akses ke komputasi tanpa server, silakan hubungi Databricks untuk mengaktifkan fitur ini untuk ruang kerja Anda.
TIDAK_BISA_MENAMBAHKAN_KOLOM_KE_TERMASUK_KOLOM
Kolom baru (<columnNames>
) ditambahkan ke bidang include_columns dalam definisi alur untuk tabel <qualifiedTableName>
. Silakan refresh penuh tabel untuk menghindari potensi kehilangan data atau menghapus kolom ini dari include_columns.
TIDAK DAPAT MENAMBAHKAN LOKASI PENYIMPANAN
Tidak dapat menambahkan lokasi penyimpanan ke alur yang sudah ada dengan katalog yang ditentukan, jika Anda ingin mengatur lokasi penyimpanan buat alur baru.
Katalog yang ada: '<catalog>
'.
Lokasi penyimpanan yang diminta: <storageLocation>
.
TIDAK_DAPAT_MENYUSUN_DEKORATOR
SQLSTATE: tidak ada yang ditetapkan
Dekorator @<decoratorName>
tidak bisa digabungkan dengan<otherDecorators>
.
TIDAK_DAPAT_MENGECUALIKAN_KOLOM_YANG_TIDAK_ADA
Definisi alur mengecualikan kolom (<columnNames>
) yang tidak ada dalam tabel <qualifiedTableName>
sumber <sourceType>
. Hapus kolom ini dari bidang exclude_columns.
TIDAK_BISA_MENGHAPUS_KOLOM_YANG_DIBUTUHKAN
Definisi alur tidak menyertakan kolom yang diperlukan (<columnNames>
) dalam tabel <qualifiedTableName>
<sourceType>
sumber untuk penyerapan. Silakan tambahkan mereka ke include_columns atau hapus dari exclude_columns.
TIDAK DAPAT MENYERTAKAN KOLOM YANG TIDAK ADA
Definisi alur mencakup kolom (<columnNames>
) yang tidak ada dalam tabel <qualifiedTableName>
sumber <sourceType>
. Hapus kolom ini dari bidang include_columns.
TIDAK_BISA_MEMASUKKAN_TABEL_TANPA_KUNCI_UTAMA
Tabel <qualifiedTableName>
di <sourceType>
sumber tidak memiliki kunci utama.
Tentukan kunci primer dalam konfigurasi konektor untuk memasukkan tabel jika kunci itu ada.
TIDAK DAPAT MENGUBAH PEMILIK PIPELINE UNTUK PIPELINE UC
Mengubah pemilik untuk alur non-UC belum didukung.
TIDAK BISA MENGUBAH PEMILIK PIPELINE IZIN DITOLAK
Hanya admin ruang kerja yang dapat mengubah pemilik pipeline.
TIDAK_DAPAT_MEMODIFIKASI_PEMILIK_PIPA_SAAT_TIDAK_ADA
Tidak ada pemilik baru
TIDAK_DAPAT_MENGUBAH_JENIS_PIPA
pipeline_type tidak dapat diperbarui.
Tipe jalur saat ini: <currentPipelineType>
.
Pipeline_type yang diperbarui: <requestedPipelineType>
.
TIDAK_DAPAT_MENGUBAH_LOKASI_PENYIMPANAN
Tidak dapat mengubah lokasi penyimpanan pipeline yang sudah ada.
Lokasi penyimpanan yang ada: '<existingStorageLocation>
'.
Lokasi penyimpanan yang diminta: <requestedStorageLocation>
.
TIDAK DAPAT MENGHAPUS KOLOM DARI KOLOM YANG DIKECUALIKAN
Kolom (<columnNames>
) dihapus dari bidang exclude_columns dalam definisi alur untuk tabel <qualifiedTableName>
. Silakan refresh penuh tabel untuk menghindari potensi kehilangan data atau menambahkan kolom ini kembali ke exclude_columns.
TIDAK_BISA_MENGATUR_KATALOG_UNTUK_HMS_PIPELINE
Tidak dapat menambahkan katalog ke alur yang sudah ada dengan lokasi penyimpanan yang ditentukan, jika Anda ingin menggunakan UC buat alur baru dan atur katalog.
Lokasi penyimpanan yang ada: '<storageLocation>
'
Katalog yang diminta: '<catalog>
'
TIDAK_BISA_MENGATUR_ID_PIPA_TERKAIT
ID pipeline sama, menyetel ID pipeline yang ditautkan akan menyebabkan kebuntuan.
TIDAK DAPAT MENGATUR SKEMA UNTUK PIPELINE YANG SUDAH ADA
Bidang 'skema' yang ditentukan dalam pengaturan alur untuk alur '<pipelineName>
' ilegal. Alasan:
Untuk detail selengkapnya, lihat CANNOT_SET_SCHEMA_FOR_EXISTING_PIPELINE
TIDAK_BISA_MENCANTUMKAN_KEDUA_KOLOM_TERMASUK_TERKECUALI
Definisi pipeline menentukan kolom_include dan kolom_exclude untuk <identifier>
. Silakan hapus salah satunya.
TIDAK_BISA_MEMPERBARUI_KOLOM_PENGELOMPOKAN
Tidak dapat memperbarui kolom pengklusteran untuk tabel <tableName>
karena menggunakan kolom partisi. Tabel dapat menggunakan kolom partisi atau kolom pengklusteran, tetapi tidak keduanya.
Untuk beralih antara pengelompokan cair dan partisi, lakukan refresh penuh tabel ini.
TIDAK_DAPAT_MEMPERBARUI_KOLOM_PARTISI
Tidak dapat memperbarui kolom partisi untuk tabel streaming <tableName>
.
Saat ini: <existingPartitionColumns>
,
Diminta: <requestedPartitionColumns>
Untuk menerapkan perubahan partisi ini, jalankan pembaharuan penuh dari tabel ini dan tabel streaming lainnya yang memiliki kolom partisi yang diperbarui.
Atau kembalikan perubahan ini untuk terus menggunakan kolom partisi yang ada.
Tidak Dapat Memperbarui Skema Tabel
Gagal menggabungkan skema saat ini dan baru untuk tabel <tableName>
.
Untuk melanjutkan perubahan skema ini, Anda dapat memicu refresh penuh tabel ini.
Bergantung pada kasus penggunaan dan perubahan skema, Anda mungkin dapat mengaburkan perubahan skema -- Anda dapat memperbarui kueri sehingga skema output kompatibel dengan skema yang ada (misalnya, dengan secara eksplisit mentransmisikan kolom ke jenis data yang benar).
TIDAK DAPAT MENULIS KE KOLOM YANG TIDAK AKTIF
<details>
Namun, tabel tujuan sudah memiliki kolom tidak aktif dengan nama ini; kolom tidak aktif karena sebelumnya dihapus dari tabel sumber.
Untuk melanjutkan pembaruan, jalankan FULL REFRESH
pada tabel atau hapus kolom yang tidak aktif ini menggunakan perintah ALTER TABLE DROP COLUMN
.
TIDAK DAPAT MENULIS KE TABEL NONAKTIF
Tabel berikut di tujuan tidak aktif dan bertentangan dengan tabel sumber saat ini: <tables>
.
Tabel ini tetap tidak aktif karena sebelumnya dihapus dari sumber atau tidak dipilih dari konektor.
Untuk melanjutkan pembaruan, lakukan FULL REFRESH
pada tabel atau atau letakkan tabel tidak aktif ini dari tujuan di Catalog Explorer atau melalui perintah DROP TABLE
, dan coba lagi pembaruan.
TIDAK_DIPERBOLEHKAN_MENULIS_KE_TABEL_SEMENTARA_MENUNGGU_RESET
Tabel berikut di tujuan tidak direset dengan benar dalam refresh penuh sebelumnya: <tables>
.
Harap picu refresh penuh untuk memulihkannya.
PEMETAAN_KATALOG_TIDAK_TERSEDIA_DI_UC
Katalog UC tidak memiliki pemetaan untuk katalog '<sourceCatalog>
'.
Silakan periksa apakah katalog terdaftar di katalog UC.
KETIDAKCOCOKAN SKEMA KATALOG DENGAN PIPA TUJUAN
Katalog <destPipelineCatalog>
dan skema <destPipelineSchema>
alur tujuan dengan ID '<destPipelineId>
' tidak cocok dengan katalog dan skema tabel <tableName>
. Alur tujuan harus memiliki katalog dan skema yang sama dengan tabel atau alur tujuan harus menggunakan Mode Penerbitan Langsung.
SPESIFIKASI_KATALOG_TIDAK_DIPERLUKAN
CatalogSpecs saat ini tidak didukung oleh konektor database. Silakan hapus spesifikasi katalog.
CDC_APPLIER_COLUMN_UOID_TIDAK_DIDUKUNG
Kolom dengan UOID <columnNames>
untuk tabel <tableName>
tidak didukung dalam alur penyerapan terkelola CDC.
Silakan periksa apakah alur penyerapan mendukung kolom UOID, atau minta pembaruan penuh.
KESALAHAN FATAL APLIKATOR CDC DARI GERBANG
Alur Gateway mengalami kesalahan fatal:
<errorMessage>
Tinjau kegagalan pembaruan alur di sini: <link>
.
PENGGUNA_CDC_METADATA_TABEL_REPLIKASI_BELUM_SIAP
Metadata tabel yang direplikasi untuk tabel <tableName>
belum siap.
Tanda waktu permintaan pekerjaan yang ada adalah <existingRequestTs>
, tetapi kami harapkan <expectedRequestTs>
atau yang lebih baru.
AAPLIKASI_CDC_MEMBUTUHKAN_SEMUA_TABEL_TUJUAN_PENYEGARAN_PENUH
Refresh penuh pada satu tabel tujuan dan pembaruan reguler pada tabel tujuan lain dari sumber yang sama tidak didukung.
Silakan refresh penuh kedua tabel untuk melanjutkan jika memungkinkan.
Tabel yang diperbarui sepenuhnya: <fullRefreshTables>
Tabel tujuan untuk sumber <sourceTable>
: <destinationTables>
Skema CDC_applier berubah saat streaming
Versi skema <dataSchemaVersion>
berbeda dengan versi skema baca <readSchemaVersion>
.
DLT akan mencoba kembali pembaruan.
URUTAN_PENGGUNA_CDC_BY_COLUMN_TIDAK_DITEMUKAN
Kolom <columnName>
untuk tabel <tableName>
yang ditentukan dalam sequenceBy tidak ada di <columns>
.
Urutan_Penerap_CDC_oleh_Tipe_Tidak_Valid
Kolom <columnName>
untuk tabel <tableName>
yang ditentukan dalam sequenceBy memiliki tipe <typeName>
yang tidak didukung.
Jenis yang didukung untuk kolom sequenceBy adalah <allowedTypes>
.
Urutan oleh beberapa kolom tidak didukung oleh CDC applier
Paling banyak satu kolom dapat ditentukan dalam alur penyerapan terkelola CDC sequenceBy.
Kolom yang ditentukan: <columns>
untuk tabel <tableName>
.
Perubahan Skema Tidak Kompatibel CDC
Kami mengalami perubahan skema yang tidak kompatibel (<cause>
) dari versi skema <previousSchemaVersion>
ke <currentSchemaVersion>
.
Oleh karena itu, kami tidak dapat melanjutkan penerapan perubahan untuk <tableName>
. Silakan minta refresh penuh tabel.
Skema sebelumnya: <previousSchema>
Skema saat ini: <currentSchema>
KESENJANGAN_DATA_YANG_POTENSIAL_CDC
Tabel berikut [<needFullRefreshTableList>
] tidak memiliki pembaruan yang berhasil selama <retention>
hari.
Silakan lakukan refresh penuh pada tabel ini atau seluruh alur.
CDC_SAMA_TABEL_DARI_BEBERAPA_SUMBER
Menemukan nama tabel yang sama <table>
dari beberapa sumber: <sources>
.
Pisahkan mereka menjadi jalur yang berbeda untuk menghindari konflik.
Beberapa tabel sumber CDC dipetakan ke tabel tujuan yang sama
Ditemukan beberapa tabel sumber: <source_tables>
dipetakan ke tabel tujuan <destination_table>
yang sama.
Silakan petakan ke nama tabel tujuan yang berbeda atau ke skema tujuan yang berbeda.
CDC_TABEL_TIDAK_DITEMUKAN_DALAM_SEMUA_TABEL
Tabel <table>
tidak ditemukan di rekam jepret semua tabel database sumber.
Detail spesifikasi tabel:
<tableSpec>
PERUBAHAN_PIPA_HMS_KE_UC_TIDAK_DIPERBOLEHKAN
Mengubah alur HMS ke alur UC tidak diperbolehkan.
PERUBAHAN_UC_PIPELINE_KE_HMS_TIDAK_DIPERBOLEHKAN
Mengubah alur UC ke alur HMS tidak diperbolehkan.
MENGUBAH_ID_PIPA_DARI_TABEL_TIDAK_DIDUKUNG
Mengubah alur <commandTableType>
tidak didukung.
Mengubah katalog tidak diizinkan
Tidak dapat mengubah katalog alur yang ada. Katalog yang ada: '<existingCatalog>
'. Katalog yang diminta: '<requestedCatalog>
'.
Perubahan skema target tidak diizinkan
Mengubah skema target tidak diperbolehkan. Alasan: <reason>
.
BATAS KEBIJAKAN ANGGARAN PEMBUATAN KLUSTER TERLEWATI
Gagal membuat kluster karena kebijakan anggaran alur kerja telah melebihi batas. Silakan gunakan kebijakan yang berbeda atau hubungi admin penagihan Anda.
ERROR_KLIEN_PEMBUATAN_CLUSTER
Gagal membuat kluster alur: <errorMessage>
Kesalahan ini kemungkinan karena kesalahan konfigurasi dalam alur.
Periksa konfigurasi kluster alur dan kebijakan kluster terkait.
KREDIT_PEMBUATAN_KLUSTER_HABIS
Gagal membuat cluster karena Anda telah menghabiskan kredit yang tersedia. Tambahkan metode pembayaran untuk meningkatkan akun Anda.
SUMBER PEMBUATAN KLASTER HABIS TERPAKAI
Gagal membuat kluster karena Anda telah melebihi batas sumber daya: <errorMessage>
KESALAHAN_KLIEN_PELUNCURAN_GRUP
Gagal meluncurkan kluster alur kerja <clusterId>
: <clusterStateMessage>
Kesalahan ini kemungkinan karena kesalahan konfigurasi dalam alur.
Periksa konfigurasi kluster alur dan kebijakan kluster terkait.
GAGAL_CLUSTER_MELUNCUR_AWAN
Gagal meluncurkan kluster alur kerja <clusterId>
: <clusterStateMessage>
Kesalahan ini bisa bersifat sementara - mulai ulang alur Anda dan laporkan jika Anda masih melihat masalah yang sama.
CLUSTER_SETUP_CLIENT_ERROR
Untuk informasi lebih lanjut, lihat CLUSTER_SETUP_CLIENT_ERROR
KLASTER_TIDAK_TERJANGKAU
Komunikasi hilang dengan pengemudi.
<clusterId>
kluster tidak dapat dijangkau selama <timeoutSeconds>
detik.
COLUMN_MASK_WITH_NO_COLUMN
Masker kolom ditemukan untuk kolom '<columnName>
' yang tidak ada dalam skema MV/ST. Jika ini karena perubahan pada skema tabel dasar,
silakan hapus masker lama dengan ALTER TABLE
[table_name] ALTER COLUMN
[kolom tempat masker diterapkan] DROP
MASK; atau pulihkan kolom.
Kolom_untuk_diperbarui_tidak_ditemukan
Kolom <column>
yang ditentukan antara COLUMNS
sampai UPDATE
tidak ditemukan di Dataframe sumber.
PEMBARUAN_BERSAMA_GAGAL_MENGHENTIKAN_PEMBARUAN_SEBELUMNYA
Memulai pembaruan '<upgradedUpdateId>
' untuk peningkatan tetapi gagal menghentikan pembaruan sebelumnya '<oldUpdateId>
'.
Kesalahan ini kemungkinan bersifat sementara. Alur akan dicoba kembali secara otomatis dan masalahnya harus diselesaikan dengan sendirinya.
Laporkan kesalahan ini ke Databricks jika Anda masih melihat masalah yang sama.
Dekorator Dataset Diterapkan Dua Kali
SQLSTATE: tidak ada yang ditetapkan
Himpunan data <datasetName>
sudah ada. Pastikan bahwa fungsi kueri hanya ditandai sebagai tampilan atau tabel sekali.
DATASET_TIDAK_DIDEFINISIKAN (DATASET_NOT_DEFINED)
Gagal membaca himpunan data '<datasetName>
'. Himpunan data ini tidak ditentukan dalam alur.
Jika tabel ini dikelola oleh alur lain, maka jangan gunakan dlt.read
/ dlt.readStream
untuk membaca tabel atau menambahkan nama dengan kata kunci LIVE.
DBFS tidak diaktifkan
DBFS tidak diaktifkan untuk ruang kerja ini; harap terbitkan ke Katalog Unity atau tentukan lokasi penyimpanan yang berbeda untuk alur.
Pipeline DBSQL seharusnya tidak memiliki beberapa tabel
DBSQL
Alur harus memiliki satu tampilan materialisasi atau tabel streaming, tetapi tabel yang ditemukan<tablesSize>
:<tables>
Jalur Tujuan Tidak Ditemukan
Alur tujuan dengan ID '<pipelineId>
' tidak dapat ditemukan. Pastikan Anda berada di ruang kerja yang sama dengan pipeline, Anda adalah pemilik pipeline, dan pipeline tersebut telah berjalan setidaknya satu kali.
TUJUAN_PIPELINE_TIDAK_DALAM_MODE_PENERBITAN_LANGSUNG
Alur tujuan dengan ID '<pipelineId>
' tidak menggunakan Mode Penerbitan Langsung.
Izin Pipeline Tujuan Ditolak
Anda tidak diizinkan untuk melakukan operasi ini, Anda bukan pemilik alur tujuan dengan ID '<pipelineId>
'. Hanya pemilik yang dapat mengubah alur kerja tabel.
TIPE_PIPA_SASARAN_BUKAN_TIPE_PIPA_RUANG_KERJA
Alur tujuan dengan ID '<pipelineId>
' bukan alur ETL.
LAKUKAN_PEMBUATAN_ATAU_PENYUNTINGAN_TINDAKAN_PENGGUNA_TIDAK_VALID
Kesalahan saat menangani permintaan ''<action>
.
JADWAL_DROP_JADWAL_TIDAK_ADA
Tidak dapat menghapus SCHEDULE
pada tabel tanpa jadwal atau pemicu yang telah ada.
DUPLIKASI_DARI_LOKASI_SKEMA_JSON
Kunci lokasi skema from_json duplikat: <schemaLocationKey>
.
Pilih kunci lokasi skema unik untuk setiap kueri from_json dalam alur
SPESIFIKASI_TABEL_KONFIGURASI_PENCERNAAN_DUPLIKAT
Konfigurasi alur penyerapan berisi tabel duplikat. Pastikan bahwa setiap tabel unik.
OBJEK_KONFIGURASI_PEMASUKAN_KOSONG
Objek konfigurasi ingesti kosong.
PENSKALA OTOMATIS YANG DITINGKATKAN MEMBUTUHKAN EDISI LANJUTAN
Pengaturan Penskalaan Otomatis yang Disempurnakan 'spare_capacity_fraction' hanya didukung dalam Edisi Produk Tingkat Lanjut dari Alur Deklaratif Lakeflow.
Silakan edit pengaturan alur Anda untuk mengatur "edition" menjadi "advanced" agar dapat menggunakan 'spare_capacity_fraction'.
Fitur Pemilih Log Acara Tidak Didukung
Menerbitkan log peristiwa ke Unity Catalog tidak didukung untuk alur ini. Jika ini tidak terduga, silakan hubungi dukungan Databricks.
PELANGGARAN_EKSPETASI
Alur '<flowName>
' gagal memenuhi harapan.
Untuk informasi lebih lanjut, lihat EXPECTATION_VIOLATION
HANYA_EKSPLORASI_TIDAK_DAPAT_DIATUR_DENGAN_HANYA_VALIDASI
explore_only dan validate_only tidak dapat diatur ke true.
"Hanya Eksplorasi Tidak Diaktifkan"
pembaruan tipe "explore_only" tidak diaktifkan.
JELAJAHI_HANYA_PADA_PIPELINE_NON_INGESTION
explore_only hanya dapat diatur ke true untuk alur penyerapan.
GAGAL MEMBUAT LOG ACARA
Gagal membuat log peristiwa pipeline (id=<pipelineId>
) dengan ID <eventLogIdentifier>
. Lihat pengecualian di bawah ini untuk detail selengkapnya.
GAGAL_MENERBITKAN_TAMPILAN_KE_METASTORE
Gagal menerbitkan tampilan <viewName>
ke metastore karena <reason>
.
GAGAL_MEMPERBARUI_LOG_ACARA
Gagal memperbarui pengidentifikasi log peristiwa alur (id=<pipelineId>
) ke <newEventLogIdentifier>
. Lihat pengecualian di bawah ini untuk detail selengkapnya.
SKEMA_ALIRAN_BERUBAH
Alur <flowName>
telah dihentikan karena mengalami perubahan skema selama eksekusi.
Perubahan skema kompatibel dengan skema target yang ada dan eksekusi alur berikutnya dapat dilanjutkan dengan skema baru.
SOKET_BATCH_FOREACH_HANYA_DIDUKUNG_DI_SALURAN_PRATINJAU
DLT ForeachBatch Sink saat ini tidak didukung.
Pratinjau privat untuk sink DLT ForeachBatch memerlukan saluran PREVIEW
.
Sink DLT: <sinkNames>
GATEWAY_PIPELINE_INIT_SCRIPTS_TIDAK_DIIJINKAN
Saluran Gateway tidak mengizinkan skrip inisialisasi kluster. Silakan hapuskan itu dari <from>
.
KONFIGURASI_SPARK_GATEWAY_PIPELINE_TIDAK_DIPERBOLEHKAN
Alur Gateway tidak mengizinkan konfigurasi spark [<configs>
]. Silakan hapus mereka dari <from>
.
KAPASITAS_PEMBARUAN_ORGANISASI_TERLAMPAUI
Jumlah ID organisasi yang diminta melebihi batas maksimum yang diizinkan <limit>
Google_Analytics_Katalog_Sumber_Penghubung_Data_Mentah_Tidak_Ada
Kesalahan terjadi di konektor data mentah Google Analytics.
Katalog sumber untuk proyek GCP tidak ada dalam spesifikasi pengambilan data. Katalog sumber di sini adalah ID proyek GCP dari mana Anda ingin mengambil data.
Pastikan bahwa katalog sumber ada dalam spesifikasi penyerapan untuk mengatasi masalah ini.
HMS_TIDAK_DIAKTIFKAN
Hive Metastore tidak diaktifkan untuk ruang kerja ini, harap terbitkan ke Unity Catalog.
KOLOM_TIDAK_SAH_UNTUK_MEMPERBARUI_TIPE_DATA
Jenis data kolom yang ditentukan dalam COLUMNS
TO UPDATE
harus berupa array string tetapi ditemukan <illegalDataType>
.
PARAM_ID_TIDAK_SAH_DALAM_PENGATURAN_PIPELINE
Pengaturan tidak boleh berisi '<fieldName>
'.
ILLEGAL_SCHEMA_FIELD_DALAM_SPESIFIKASI_PIPELINE
Bidang 'skema' yang ditentukan dalam pengaturan pipeline tidak sah. Alasan: <reason>
.
TIPE_PATH_AKAR_SALAH
Jalur root '<rootPath>
' harus berbentuk direktori, tetapi yang ditemukan adalah <objectType>
.
KONFIGURASI_PENGAMBILAN_SKEMA_TERDUPLIKASI
Konfigurasi alur penyerapan berisi skema duplikat. Pastikan bahwa setiap skema unik.
KEGAGALAN_OTENTIKASI_PINTU_MASUK
Kegagalan autentikasi
Untuk detail selengkapnya, lihat INGESTION_GATEWAY_AUTHENTICATION_FAILURE
Kegagalan Perubahan Skema yang Mengganggu Gateway Ingesti
Ketidakcocokan skema telah terdeteksi antara tabel sumber dan target. Untuk mengatasi masalah ini, refresh penuh tabel '<entityName>
' diperlukan pada Alur Penyerapan.
GATEWAY_INGESTION_CDC_TIDAK_DIAKTIFKAN
CDC tidak diaktifkan pada <entityType>
'<entityName>
'. Aktifkan CDC dan lakukan refresh tabel penuh pada Alur Penyerapan. Pesan kesalahan: '<errorMessage>
'.
Objek DDL Ingestion Gateway Hilang
Objek DDL hilang pada <entityType>
'<entityName>
'. Jalankan skrip objek DDL dan refresh penuh tabel pada Alur Penyerapan. Pesan kesalahan: '<errorMessage>
'.
INGESTION_GATEWAY_TIDAK_ADA_REFERENSI_KONEKSI
Konfigurasi gateway penerimaan kehilangan koneksi.
Tambahkan referensi ke koneksi Katalog Unity yang berisi kredensial Anda.
Detail definisi alur gateway penyerapan:
<definition>
GATEWAY_PENCERNAAN_HILANG_KATALOG_PENYIMPANAN_INTERNAL
Konfigurasi gerbang pemasukan tidak memiliki katalog lokasi penyimpanan internal.
Harap tambahkan katalog lokasi penyimpanan internal.
Detail definisi alur gateway penyerapan:
<definition>
NAME_PENYIMPANAN_INTERNAL_HILANG_PADA_INGESTION_GATEWAY
Konfigurasi gateway penerimaan tidak memiliki nama lokasi penyimpanan internal.
Harap tambahkan nama lokasi penyimpanan internal.
Detail definisi alur gateway penyerapan:
<definition>
GERBANG_INGESTI_SAKLAR_SKEMA_STORAGE_INTERNAL_HILANG
Skema lokasi penyimpanan internal tidak ada dalam konfigurasi gateway penerimaan.
Harap tambahkan skema lokasi penyimpanan internal.
Detail definisi alur gateway penyerapan:
<definition>
GERBANG_INGESTI_TABEL_HILANG_DI_SUMBER
Tabel '<entityName>
' tidak ada di database sumber atau telah dihilangkan. Atasi masalah dan muat ulang sepenuhnya tabel pada jalur Penyerapan Terkelola. Pesan kesalahan: '<errorMessage>
'.
PENGUBAHAN_PENERBITAN_PG_GERBANG_INGESTI_GAGAL
Gagal mengubah publikasi replikasi untuk <entityType>
'<entityName>
'
Pesan kesalahan: <errorMessage>
Untuk detail selengkapnya, lihat INGESTION_GATEWAY_PG_PUBLICATION_ALTER_FAILED
INGESTION_GATEWAY_PG_PUBLICATION_CREATION_FAILED
Gagal membuat publikasi replikasi untuk <entityType>
'<entityName>
'
Pesan kesalahan: <errorMessage>
Untuk informasi lebih lanjut, lihat INGESTION_GATEWAY_PG_PUBLICATION_CREATION_FAILED
GATEWAY_INGESTION_PG_DROPPEN_PUBLIKASI_GAGAL
Gagal menghapus publikasi replikasi untuk <entityType>
'<entityName>
'
Pesan kesalahan: <errorMessage>
Untuk detail selengkapnya, lihat INGESTION_GATEWAY_PG_PUBLICATION_DROP_FAILED
SLOT_PG_GATEWAY_INGESTI_TERKONSUMSI_OLAHPROSES_LAIN
Gagal membuat slot replikasi untuk <entityType>
'<entityName>
' karena slot replikasi sedang digunakan oleh PID lain.
Pesan kesalahan: <errorMessage>
PENAMBAHAN_GATEWAY_PG_SLOT_PEMBUATAN_GAGAL
Gagal membuat slot replikasi untuk <entityType>
'<entityName>
'
Pesan kesalahan: <errorMessage>
Untuk detail selengkapnya, lihat INGESTION_GATEWAY_PG_SLOT_CREATION_FAILED
SUMBER_GATEWAY_PENGAMBILAN_KEGAGALAN_IZIN_TIDAK_MEMADAI
Pengguna tidak memiliki izin yang diperlukan untuk mengakses objek ini atau menjalankan prosedur tersimpan. Pastikan bahwa semua hak istimewa yang diperlukan diberikan. Lihat dokumentasi berikut: https://docs.databricks.com/aws/en/ingestion/lakeflow-connect/sql-server/database-user-requirements.
INGESTION_GATEWAY_HOST_TIDAK_TERJANGKAU_KEGAGALAN_HOST_ATAU_PORT
Koneksi gagal karena nama <host>
host dan/atau port <port>
database sumber yang salah.
Untuk informasi lebih lanjut, lihat INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE
PERINTAH_TIDAK_VALID_MENERAPKAN_PERUBAHAN
perintah AUTO CDC
tidak valid.
<reason>
.
Jenis Argumen Tidak Valid
SQLSTATE: tidak ada yang ditetapkan
Nilai jenis yang tidak valid diteruskan ke parameter '<paramName>
'. Yang diharapkan <expectedType>
.
<additionalMsg>
.
OPSILAH_KOMPATIBILITAS_TIDAK_VALID
Opsi tabel yang ditentukan untuk tabel <table>
tidak valid karena
Untuk detail selengkapnya, lihat INVALID_COMPATIBILITY_OPTIONS
KESALAHAN_PENGGUNAAN_DEKORATOR
SQLSTATE: tidak ada yang ditetapkan
Argumen posisi pertama yang diteruskan ke @<decoratorName>
harus dapat dipanggil. Tambahkan @<decoratorName>
tanpa parameter ke fungsi Anda, atau teruskan opsi ke @<decoratorName>
menggunakan argumen kata kunci (misalnya <exampleUsage>
).
KONFIGURASI_LOG_ACARA_TIDAK_VALID
Konfigurasi log peristiwa tidak valid yang ditemukan dalam spesifikasi alur: <message>
NAMA_TIDAK_VALID_SEDANG_DIGUNAKAN_PERINTAH
Nama '<name>
' tidak valid dalam perintah <command>
. Alasan: <reason>
INVALID_PARAM_FOR_DBSQL_PIPELINE
Anda hanya dapat menentukan 'pipeline_id' dan 'pipeline_type' saat memanggil 'dry_run' untuk DBSQL
alur.
PEMILIHAN_PEMBARUAN_TIDAK_VALID
Parameter pemilihan refresh yang ditentukan untuk pembaruan ini tidak valid karena
Untuk detail selengkapnya, lihat INVALID_REFRESH_SELECTION
Permintaan Pemilihan Penyegaran Tidak Valid untuk Pipeline Kontinu
Pilihan refresh tidak didukung untuk mode berkelanjutan.
PERMINTAAN SELEKSI PEMBARUAN TIDAK SAH DENGAN PEMBARUAN LENGKAP
full_refresh tidak boleh diatur menjadi benar untuk permintaan pemilihan penyegaran.
Akar_Jalur_Tidak_Sah
Tidak valid root_path '<rootPath>
': hanya jalur direktori absolut yang saat ini didukung. Jalur direktori harus dimulai dengan '/' dan tidak diakhiri dengan '/'.
INVALID_SCHEMA_NAME [Nama Skema Tidak Sah]
Skema '<schemaName>
' tidak valid yang ditentukan dalam pengaturan alur. Alasan: <reason>
.
JENIS_JEPRETAN_TIDAK_VALID_DAN_VERSI
SQLSTATE: tidak ada yang ditetapkan
"snapshot_and_version" untuk aliran dengan target "<target>
" mengembalikan jenis yang tidak didukung.
<additionalMsg>
.
Format Interval Pemicu Tidak Valid
Konfigurasi interval pemicu yang ditentukan dalam <configurationType>
tidak valid
RINCIAN_PEKERJAAN_TIDAK_SESUAI
Jika kedua 'update_cause_details.job_details' dan 'job_task' diberikan, maka keduanya harus sesuai, tetapi mereka adalah <details>
dan <jobTask>
If the context indicates translation is required, it might translate to "DETAILS_TUGAS_PEKERJAAN_HILANG".
Jika 'penyebab' adalah JOB_TASK
, maka 'job_task' atau 'update_cause_details.job_details' harus diberikan.
REFERENSI_LANGSUNG_DI_LUAR_DEFINISI_QUERY_KLASIK
Mereferensikan himpunan data menggunakan skema virtual LIVE
di luar definisi kueri himpunan data (yaitu, anotasi @dlt.table) tidak didukung.
REFERENSI_LANGSUNG_DI_LUAR_DEFINISI_QUERY_DPM
Mereferensikan himpunan data menggunakan skema virtual LIVE
<identifier>
di luar definisi kueri himpunan data (yaitu, anotasi @dlt.table) tidak didukung.
REFERENSI_LANGSUNG_DI_LUAR_DEFINISI_KUER_I_SPARK_SQL
Mereferensikan himpunan data menggunakan LIVE
skema virtual di spark.sql(...) API tidak boleh dipanggil di luar definisi kueri himpunan data (yaitu, @dlt.table anotasi). Ini hanya dapat dipanggil dalam definisi kueri himpunan data.
Batas maksimum percobaan tercapai sebelum penghitungan ulang enzim
Jumlah pengulangan maksimal tercapai. Jumlah pengulangan:<flowRetryCount>
. maxFlowFailureRetryCountThreshold:<maxFlowRetryAttempts>
. <message>
MESA_PIPELINE_INVALID_DEFINITION_TYPE (Jenis definisi tidak valid di pipeline Mesa)
<definitionType>
Memulai alur dari definisi UC tidak diperbolehkan.
KETIDAKSESUAIAN_TIPE_PIPA_MESA
Definisi yang disimpan dan diperbarui harus jenis alur yang sama, namun menerima <stored>
dan <updated>
.
MESA_PIPELINE_MISSING_DEFINITION (Definisi Hilang untuk Jalur MESA)
Saluran tidak memiliki definisi yang valid dalam UC, tetapi pembaruan dibutuhkan.
MESA_PIPELINE_DEFINISI_HILANG_TIDAK_TERDUGA
Definisi alur yang hilang secara tak terduga dari UC.
Operasi Metastore Melebihi Batas Waktu
Operasi yang terlibat dalam memperbarui informasi metastore untuk <tableName>
membutuhkan waktu lebih lama dari <timeout>
.
Masalah ini mungkin bersifat sementara atau dapat menunjukkan bug di klien metastore yang dikonfigurasi. Cobalah untuk memulai ulang pipeline Anda dan laporkan masalah ini jika tetap ada.
KEHILANGAN_HAK_PREVILAGE_MEMBUAT_SKEMA
Pengguna '<userName>
' tidak memiliki izin untuk membuat skema dalam katalog <catalogName>
Hak istimewa untuk membuat tabel hilang
Pengguna '<userName>
' tidak memiliki izin untuk membuat tabel dalam skema <schemaName>
KESALAHAN_JALANKAN_SEBAGAI_PENGGUNA
Tidak ada eksekusi karena pengguna ditentukan untuk pembaruan.
Pilihan Saling Eksklusif
Opsi yang saling eksklusif <options>
. Hapus salah satu opsi ini.
NILAI_NEGATIF
SQLSTATE: tidak ada yang ditetapkan
Nilai untuk <arg_name>
harus lebih besar dari atau sama dengan 0, mendapat '<arg_value>
'.
TABEL NON_UC SUDAH DIKELOLA OLEH PIPELINE LAIN
Tabel '<tableName>
' sudah dikelola oleh alur <otherPipelineId>
.
Jika Anda ingin tabel '<tableName>
' dikelola oleh alur ini -
Hapus tabel dari alur '
<otherPipelineId>
'.Mulai pembaruan refresh penuh untuk pipa ini.
Jika Anda ingin terus mengelola tabel dari beberapa alur, nonaktifkan pemeriksaan ini dengan mengatur konfigurasi pipelines.tableManagedByMultiplePipelinesCheck.enabled
ke false
di pengaturan alur Anda.
Ini tidak disarankan karena operasi bersamaan pada tabel dapat bertentangan satu sama lain dan menyebabkan hasil yang tidak terduga.
BATAS_NAMA_NOTEBOOK_TERCAPAI
Jalur buku catatan tidak valid: '<nameStart>
...<nameEnd>
'. Ini lebih panjang daripada <maxNotebookPathLength>
karakter.
Buku catatan tidak ditemukan
Tidak dapat memuat buku catatan '<notebookPath>
'.
PEMBERITAHUAN_DUPLIKASI_PERINGATAN
Pemberitahuan duplikat '<alertsDuplicates>
' tercantum dalam [<alerts>
]
PEMBERITAHUAN_DUPLIKASI_ALAMAT_EMAIL
Alamat email duplikat '<emailRecipientsDuplicates>
' tertentu dalam [<emailRecipients>
]
PEMBERITAHUAN_PERINGATAN_TIDAK_VALID
Pemberitahuan tidak valid telah ditentukan untuk menerima notifikasi terkait: <invalidAlerts>
NOTIFIKASI_ALAMAT_EMAIL_TIDAK_VALID
Alamat email yang ditentukan tidak valid untuk menerima pemberitahuan: <invalidEmailAddresses>
PARAMETER_NOTIFIKASI_HILANG
Harap tentukan setidaknya satu penerima dan satu pemberitahuan di <setting>
Tidak ada argumen sumber, snapshot, dan versi yang diberikan
SQLSTATE: tidak ada yang ditetapkan
Salah satu source
atau snapshot_version
harus ditentukan untuk create_auto_cdc_flow_from_snapshot
dengan target '<target>
'.
TIDAK_ADA_TABEL_DALAM_ALUR
Pipelin diharapkan memiliki setidaknya satu tabel yang ditentukan tetapi tidak ada tabel yang ditemukan di pipelin Anda.
Harap verifikasi bahwa Anda telah menyertakan file sumber yang diharapkan, dan bahwa kode sumber Anda menyertakan definisi tabel (misalnya, CREATE MATERIALIZED VIEW
dalam kode SQL, @dlt.table dalam kode python).
Perhatikan bahwa hanya tabel yang dihitung dalam pemeriksaan ini. Anda mungkin juga mengalami kesalahan ini jika Anda hanya menyertakan pandangan atau alur dalam pipeline.
PEMILIK_TIDAK_ADA
Pemilik tidak ada.
PERMINTAAN_PAGINASI_MEMILIKI_NAMA_DAN_PAGINASI
Anda dapat menyediakan <name>
atau penomoran halaman, tetapi tidak keduanya.
PATCH_PIPELINE_DEFINITION_BIDANG_TIDAK_DIDUKUNG
PatchPipelineDefinition hanya mendukung schedule
bidang , tetapi definisi yang disediakan memiliki bidang terisi lainnya: '<updatedDefinition>
'.
PERSISTED_VIEW_READS_FROM_STREAMING_SOURCE (Pembacaan Tampilan Tersimpan Dari Sumber Streaming)
Tampilan yang dipertahankan tidak mendukung pembacaan dari sumber streaming.
MEMBACA_TAMPILAN_YANG_DISIMPAN_DARI_TAMPILAN_SEMENTARA
Tampilan <persistedViewName>
persisten tidak dapat mengacu pada tampilan <temporaryViewName>
sementara yang tidak akan tersedia di luar lingkup alur. Buat tampilan tetap bersifat sementara atau pertahankan tampilan sementara.
PENGGANDAAN_PIPELINE_SUDAH_BERLANGSUNG
Alur sudah dikloning ke alur dengan id '<pipelineId>
'.
Penggandaan Pipeline Tidak Valid Selama Pembaruan Aktif
Alur dengan ID '<pipelineId>
' tidak dapat dikloning selama pembaruan aktif.
SALURAN_KLONING_BIDANG_TIDAK_VALID
Permintaan menyertakan spesifikasi alur dengan bidang yang tidak valid untuk kloning. Bidang yang diizinkan meliputi: nama, katalog, target, konfigurasi.
Penggandaan Pipeline Tidak Valid karena Target Hilang
Alur dengan ID '<pipelineId>
' tidak diterbitkan ke skema target. Alur sumber perlu diterbitkan ke skema target yang akan dikloning. Silakan coba lagi setelah menentukan bidang 'target' dalam spesifikasi alur, dan jalankan pembaruan baru untuk diterbitkan ke skema target.
Pencakokan Jalur Tidak Valid untuk Jalur UC
Alur dengan ID '<pipelineId>
' sudah menjadi alur UC. Alur UC tidak dapat dikloning.
PENGGANDAAN_PIPELINE_TIDAK_ADA_MODE_YANG_DITENTUKAN
Tidak ada mode kloning yang ditentukan.
PENYALINAN_PIPELINE_TIDAK_ADA_TARGET_YANG_DISEBUTKAN
Tidak ada katalog target yang ditentukan untuk kloning.
Pembuatan Jalur Tidak Diaktifkan untuk Ruang Kerja
Pembuatan pipeline tidak diaktifkan untuk ruang kerja ini.
PIPELINE_DOES_NOT_EXIST
Alur dengan ID '<pipelineId>
' tidak ada.
Untuk detail selengkapnya, lihat PIPELINE_DOES_NOT_EXIST
PENGATURAN_LINGKUNGAN_PIPELINE_TIDAK_DIAKTIFKAN
Penggunaan lingkungan di DLT tidak diaktifkan.
VERSI_LINGKUNGAN_PIPELINE_TIDAK_DIPERBOLEHKAN
Lingkungan pipeline saat ini tidak mendukung versi lingkungan.
PIPELINE_GAGAL_MEMPERBARUI_TABEL_UC_KARENA_PEMBARUAN_BERSAMA
Pipeline gagal memperbarui tabel UC (<tableName>
) karena alterasi bersamaan setelah <attempts>
percobaan.
Pastikan tidak ada proses eksternal yang mengubah tabel, mencoba kembali pembaruan, dan hubungi dukungan Databricks jika masalah ini berlanjut.
PIPA UNTUK TABEL PERLU DISEGARKAN
Tabel <tableName>
tidak dalam status yang diperlukan, tabel belum diperbarui baru-baru ini. Alur dengan ID '<pipelineId>
' harus dijalankan sekali lagi dan kemudian mencoba kembali operasi.
PIPELINE_UNTUK_TABEL_TIDAK_DITEMUKAN
Alur dengan ID '<pipelineId>
', mengelola tabel <tableName>
, tidak dapat ditemukan. Pastikan Anda berada di ruang kerja yang sama dengan pipeline, Anda adalah pemilik pipeline, dan pipeline tersebut telah berjalan setidaknya satu kali.
Konflik Termasuk Global di Pipeline
Bidang glob atau notebook/file di bawah pustaka dalam pengaturan pipeline harus diatur salah satu. Silakan ubah pengaturan pipelinnya.
PENYERTAAN_GLOB_PADA_PIPELINE_TIDAK_DIDUKUNG
Menggunakan bidang glob untuk menyertakan file sumber adalah fitur pratinjau dan dinonaktifkan.
Pilih kembali setiap file sumber yang akan disertakan untuk alur guna memperbaiki kesalahan ini.
Hubungi dukungan Databricks untuk mempelajari selengkapnya tentang fitur ini dan mendaftar di pratinjau.
PENYALURAN_GLOB_KARAKTER_KHUSUS_TIDAK_DIDUKUNG
Karakter khusus <specialChar>
dicadangkan dan tidak boleh digunakan dalam jalur yang disertakan '<path>
' di pengaturan pipeline. Hapus karakter ini untuk memperbaiki kesalahan
Batas Nama Pipeline Tercapai
Nama tidak boleh lebih panjang dari <maxPipelineNameLength>
karakter.
Analisis Pipeline Non-Retryable
Pipeline gagal menganalisis tabel sumber (<tables>
) karena kesalahan fatal setelah eksekusi parsial.
Pembaruan jalur pipa baru tidak akan dibuat. Silakan periksa log peristiwa dan perbaiki masalah yang sesuai.
PIPA_TIDAK_DALAM_MODE_PENERBITAN_LANGSUNG
Alur dengan ID '<pipelineId>
', mengelola tabel <tableName>
, tidak menggunakan Mode Penerbitan Langsung.
PIPELINE_TIDAK_SIAP_UNTUK_PEMBARUAN_TERJADWAL
Tabel belum siap untuk di-refresh
Untuk detail selengkapnya, lihat PIPELINE_NOT_READY_FOR_SCHEDULED_UPDATE
Izin Pipeline Ditolak, Bukan Pemilik
Anda tidak diizinkan untuk melakukan operasi ini. Anda bukan pemilik alur dengan ID '<pipelineId>
', mengelola tabel <tableName>
.
Bidang Pengaturan Pipeline Tidak Dapat Diedit
'<uneditableFieldName>
' tidak dapat dimodifikasi oleh pengguna. Jika pengguna ingin menambahkan atau mengubah <settingName>
, silakan gunakan bidang '<editableFieldName>
' sebagai gantinya.
Pengaturan Pipeline Diubah Secara Bersamaan
Pengaturan pipeline dimodifikasi pada saat yang sama.
KONFIGURASI_TIDAK_DIDUKUNG_PENGATURAN_PIPA
Konfigurasi <configurations>
tidak didukung oleh Alur Deklaratif Lakeflow. Hapus konfigurasi ini.
PIPELINE_SETTING_TIDAK_SEHARUSNYA_MENENTUKAN_PENGEMBANGAN
Memulai pembaruan dengan pengaturan 'pengembangan' tidak didukung.
PIPELINE_TIDAK_BOLEH_MEMILIKI_BANYAK_TABEL
Alur harus memiliki tepat satu tabel, tetapi ditemukan <tablesSize>
tabel: <tables>
JUMLAH_BERKAS_SUMBER_PIPELINE_MELEBIHI_BATAS
Jumlah file sumber, termasuk file yang dideklarasikan dalam folder, melebihi batas <limit>
.
Hapus atau gabungkan file yang berlebihan dan ubah spesifikasi alur yang sesuai jika diperlukan,
atau hubungi dukungan Databricks untuk meminta peningkatan batas.
KEDALAMAN_FOLDER_SUMBER_PIPELINE_TERLAMPAUI
Folder '<folder_path>
' melebihi level kedalaman direktori maksimum yang diizinkan dari <limit>
. Kurangi tingkat berlapis folder atau hubungi tim dukungan Databricks untuk meminta peningkatan batasan.
PARAMETER_SPESIFIKASI_PIPELINE_TIDAK_BISA_DIUBAH
Mengubah parameter <param>
berikut dalam pengaturan alur tidak diperbolehkan
TIPE_PIPELINE_TIDAK_DIDUKUNG
Jenis alur '<pipelineType>
' tidak didukung.
JENIS_PIPELINE_BUKAN_JENIS_PIPELINE_WORKSPACE
Alur dengan ID '<pipelineId>
', mengelola tabel <tableName>
, bukan alur ETL.
JENIS_PIPA_KUOTA_DILEWATI
Tidak dapat memulai pembaruan '<updateId>
' karena batas untuk alur aktif berjenis '<pipelineType>
' telah tercapai.
PEMBAHARUAN_PIPELINE_UNTUK_TABEL_SEDANG_BERJALAN
Alur dengan ID '<pipelineId>
', mengelola tabel <tableName>
, sedang berjalan. Silakan hentikan pipeline sebelum menjalankan operasi.
BATAS RUANG KERJA DALAM PIPELINE TERCAPAI
Pembuatan alur jenis '<pipelineType>
' diblokir karena ruang kerja '<orgId>
' sudah memiliki alur '<countLimit>
'. Silakan hubungi dukungan Databricks untuk menyesuaikan batas ini.
KESALAHAN_INSTALASI_PIP
Terjadi kesalahan saat memanggil penginstalan %pip.
Instalasi PIP tidak berada di atas buku catatan
Ditemukan sel yang berisi instalasi %pip yang tidak berada di bagian atas buku catatan untuk '<notebookPath>
'
Pindahkan semua sel %pip instalasi ke awal buku catatan.
PY4J_BLOCKED_API
SQLSTATE: tidak ada yang ditetapkan
Anda menggunakan Python API yang tidak didukung di lingkungan saat ini.
Silakan periksa dokumentasi Databricks untuk alternatif.
<additionalInfo>
REFERENSI_DLT_DATASET_DI_LUAR_DEFINISI_QUERY
Mereferensikan himpunan data DLT <identifier>
di luar definisi kueri himpunan data (yaitu, anotasi @dlt.table) tidak didukung. Silakan baca sebagai gantinya di dalam definisi kueri himpunan data.
PEMROSESAN_ULANG_DIMULAI_DARI_RUANG_KERJA_TIDAK_VALID
Refresh harus dimulai di ruang <homeWorkspaceId>
kerja , tempat sumber daya dibuat.
Refresh diupayakan di ruang kerja <userWorkspaceId>
.
MODE_PEMBARUAN_SUDAH_ADA
Tidak dapat menambahkan <type>
ke tabel yang sudah memiliki <existingType>
. Silakan hilangkan jadwal yang ada atau gunakan ALTER TABLE
... ... ALTER <type>
untuk mengubahnya.
PARAMETER_WAJIB_TIDAK_DITEMUKAN
Parameter <param>
yang diperlukan tidak ditemukan.
KATA_KUNCI_CADANGAN_TERPAKAI_KATALOG
Penggunaan CATALOG
'<reservedKeyword>
' adalah ilegal karena '<reservedKeyword>
' merupakan kata kunci yang terpelihara dalam DLT.
SKEMA_PENGGUNAAN_KATA_KUNCI_CADANGAN
Penggunaan SCHEMA
'<reservedKeyword>
' adalah ilegal karena '<reservedKeyword>
' merupakan kata kunci yang terpelihara dalam DLT.
Jalur Akar Tidak Ditemukan
Tidak dapat mengakses jalur akar '<rootPath>
'. Pastikan Anda memiliki hak akses yang diperlukan.
PENGGUNA_YANG_DIGUNAKAN_TIDAK_DITEMUKAN
Pengguna '<runAsUserId>
' yang ditentukan untuk pembaruan tidak ada di ruang kerja.
KESALAHAN_KONEKSI_SAAS
Gagal membuat koneksi ke sumber <sourceName>
. Kode kesalahan: <saasConnectionErrorCode>
.
Untuk detail selengkapnya, lihat SAAS_CONNECTION_ERROR
Token penyegaran konektor SaaS telah kedaluwarsa
Token refresh untuk koneksi <connectionName>
telah kedaluwarsa. Edit koneksi, autentikasi ulang, dan jalankan kembali alur Anda.
Kesalahan Perubahan Skema SAAS_KONEKTOR
Perubahan skema telah terjadi dalam tabel <tableName>
sumber <sourceName>
.
Untuk informasi lebih lanjut, lihat SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR
Kesalahan API Sumber Penghubung SAAS
Terjadi kesalahan dalam panggilan API <sourceName>
. Jenis API sumber: <saasSourceApiType>
. Kode kesalahan: <saasSourceApiErrorCode>
.
Coba refresh tabel tujuan. Jika masalah berlanjut, silakan ajukan tiket.
KESALAHAN_SAAS_PENGHUBUNG_TIDAK_DIDUKUNG
Kesalahan yang tidak didukung terjadi di sumber data <sourceName>
.
Untuk detail selengkapnya, lihat SAAS_CONNECTOR_UNSUPPORTED_ERROR
PERUBAHAN_SKEMA_TIDAK_KOMPATIBEL_SAAT_INITИАЛИЗАЦИЯ
Kami telah mendeteksi perubahan skema yang tidak kompatibel saat menginisialisasi alur:
<details>
Lakukan refresh penuh pada tabel yang terkena dampak.
Kesalahan_Pembuatan_Input_Analisis_Partial_SAAS
Terjadi kesalahan saat membuat input untuk analisis parsial. Pembaruan jalur pipa baru tidak akan dibuat.
Silakan periksa log peristiwa dan perbaiki masalah yang sesuai.
SKEMA_SAAS_BERBEDA_SAAT_ANALISIS
Skema yang dianalisis tabel sumber (<table>
) telah berbeda dari skema yang diharapkan.
Silakan coba lagi pembaruan alur dan lihat apakah masalah telah diatasi.
Jika masalah ini berlanjut, silakan lakukan refresh penuh pada tabel yang disebutkan di atas
Skema yang diharapkan:
<expectedSchema>
Skema aktual:
<actualSchema>
KONEKSI_SAAS_UC_TIDAK_DAPAT_DIAKSES
<connectionName>
Koneksi yang disediakan tidak dapat diakses. Silakan periksa koneksi dan coba lagi.
Untuk informasi lebih lanjut, lihat SAAS_UC_CONNECTION_INACCESSIBLE
SCHEMA_SPEC_EMPTY_CATALOG
SchemaSpec memiliki string kosong di bidang katalog.
Hapus string kosong atau tambahkan nama katalog. (Jika skema ini bukan bagian dari katalog di sumber, jangan setel bidang tersebut.)
Detail spesifikasi skema:
<schemaSpec>
SKEMA_SPESIFIKASI_SKEMA_KOSONG
SchemaSpec memiliki string kosong di bidang skema.
Hapus string kosong atau tambahkan nama skema. (Jika tabel ini bukan milik skema di sumber, jangan atur bidang.)
Detail spesifikasi skema:
<schemaSpec>
SKEMA_SPESIFIKASI_HARUS_SATU_DARI_SKEMA_KATALOG
Setidaknya salah satu katalog sumber dan skema sumber harus ada. Tapi keduanya kosong.
Detail spesifikasi skema:
<schemaSpec>
Permintaan Buruk Kebijakan Anggaran Tanpa Server
Kebijakan anggaran yang disediakan dengan id '<budgetPolicyId>
' tidak dapat digunakan di ruang kerja ini karena kendala pengikatan ruang kerja kebijakan.
KEBIJAKAN_ANGGARAN_SERVERLESS_TIDAK_VALID
Kebijakan anggaran tanpa server dengan id '<budgetPolicyId>
' tidak valid.
KEBIJAKAN_ANGGARAN_SERVERLESS_TIDAK_ADA
Kebijakan anggaran tanpa server dengan id '<budgetPolicyId>
' tidak ada.
KEBIJAKAN_ANGGARAN_SERVERLESS_TIDAK_DIAKTIFKAN
Kebijakan anggaran tanpa server tidak diaktifkan, silakan hubungi dukungan Databricks.
KEBIJAKAN_ANGGARAN_SERVERLESS_TIDAK_DIAKTIFKAN_UNTUK_AKUN
Kebijakan anggaran tanpa server tidak diaktifkan untuk akun ini. Pengguna tidak dapat menentukan kebijakan anggaran untuk alur ini. Admin akun harus mencoba mendaftar melalui portal pratinjau fitur. Jika masalah berlanjut, silakan hubungi dukungan Databricks.
Kebijakan Anggaran Tanpa Server Tidak Didukung untuk Jalur Non-Serverless
Kebijakan anggaran tanpa server tidak dapat ditetapkan ke alur tanpa server.
Kebijakan Anggaran Serverless Tidak Didukung untuk Jenis Pipeline
Kebijakan anggaran serverless tidak didukung untuk <pipelineType>
jenis pipeline.
Izin Kebijakan Anggaran Serverless Ditolak
Pengguna tidak memiliki izin untuk menggunakan kebijakan anggaran tanpa server dengan id '<budgetPolicyId>
'.
SERVERLESS_TIDAK_TERSEDIA
Komputasi tanpa server tidak tersedia. Silakan hubungi Databricks untuk informasi lebih lanjut.
SERVERLESS_TIDAK_DIAKTIFKAN
Anda tidak dapat menggunakan komputasi tanpa server dengan Alur Deklaratif Lakeflow. Silakan hubungi Databricks untuk mengaktifkan fitur ini untuk ruang kerja Anda.
SERVERLESS_TIDAK_DIAKTIFKAN_UNTUK_PENGGUNA
Komputasi tanpa server tidak diaktifkan untuk penelepon. Silakan hubungi admin ruang kerja Anda untuk mengaktifkan fitur ini.
Fungsi Tanpa Server Tidak Diaktifkan untuk Ruang Kerja
Komputasi tanpa server tidak tersedia untuk ruang kerja dan/atau wilayah ini. Silakan hubungi Databricks untuk informasi lebih lanjut.
DIBUTUHKAN_SERVERLESS
Anda harus menggunakan komputasi tanpa server di ruang kerja ini.
SERVICENOW_CONNECTION_ERROR
Terjadi kesalahan di ServiceNow. Jenis API sumber: <saasSourceApiType>
.
Untuk detail selengkapnya, lihat SERVICENOW_CONNECTION_ERROR
SERVICENOW_CONNECTOR_KESALAHAN_KUNCI_CURSOR_KOSONG
Terjadi kesalahan di ServiceNow. Jenis API sumber: <saasSourceApiType>
.
Saat ini, alur penyerapan tidak dapat menyerap tabel '<tableName>
' karena kunci kursor dalam baris berisi bidang kosong.
Untuk terus menjalankan pipeline Anda, hapus tabel ini. Jika kesalahan berlanjut, ajukan tiket.
SERVICENOW_CONNECTOR_INSTANCE_KESALAHAN_HIBERNASI
Terjadi kesalahan di ServiceNow. Jenis API sumber: <saasSourceApiType>
.
Gagal menyambungkan ke instans ServiceNow. Instans tampaknya berhibernasi atau tidak aktif.
Masuk ke portal admin ServiceNow Anda dan tunggu beberapa saat hingga instans sepenuhnya bangun.
Jika kesalahan berlanjut, ajukan tiket.
Kesalahan Instance Konektor ServiceNow Offline
Terjadi kesalahan di ServiceNow. Jenis API sumber: <saasSourceApiType>
.
Gagal menyambungkan ke instans ServiceNow. Instans sedang offline.
Masuk ke portal admin ServiceNow Anda dan tunggu beberapa saat hingga instans dipulihkan.
Jika kesalahan berlanjut, ajukan tiket.
KESALAHAN_TABEL_TIDAK_VALID_SERVICENOW_CONNECTOR
Terjadi kesalahan di ServiceNow. Jenis API sumber: <saasSourceApiType>
.
Gagal mengkueri skema tabel '<tableName>
'. Tabel tidak ada di akun ServiceNow untuk pengguna ini.
Verifikasi nama tabel untuk kesalahan ketik apa pun dan pastikan bahwa pengguna memiliki izin yang diperlukan untuk mengakses tabel.
Jika kesalahan berlanjut, ajukan tiket.
Kesalahan IP Address Terbatas Pada ServiceNow Connector
Terjadi kesalahan di ServiceNow. Jenis API sumber: <saasSourceApiType>
.
Gagal menyambungkan ke instans ServiceNow. Instans memiliki pembatasan kontrol akses alamat IP.
Untuk mengatasi hal ini, nonaktifkan pembatasan alamat IP dengan menavigasi ke ServiceNow >> Semua >> Kontrol Akses Alamat IP Keamanan >> Sistem atau gunakan IP stabil tanpa server
Jika kesalahan berlanjut, ajukan tiket.
Kesalahan URL Endpoint SERVICENOW_CONNECTOR yang salah bentuk
Terjadi kesalahan di ServiceNow. Jenis API sumber: <saasSourceApiType>
.
URL titik akhir API ServiceNow tidak valid terdeteksi. Struktur URL tidak cocok dengan format ServiceNow yang diharapkan.
Memeriksa konfigurasi instans ServiceNow di dalam kredensial koneksi UC.
Untuk informasi lebih lanjut, lihat SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR
Upaya Gagal Maksimum di Konektor ServiceNow Tercapai
Terjadi kesalahan di ServiceNow. Jenis API sumber: <saasSourceApiType>
.
Ini sering terjadi ketika pengambilan data untuk tabel membutuhkan waktu terlalu lama. Sebagai langkah pertama, bekerja samalah dengan administrator ServiceNow Anda untuk mengaktifkan pengindeksan pada kolom kursor.
Kolom kursor dipilih dari daftar berikut, dalam urutan ketersediaan dan preferensi: sys_updated_on (pilihan pertama), sys_created_on (pilihan kedua), sys_archived (pilihan ketiga)
Untuk petunjuk tentang mengaktifkan pengindeksan di ServiceNow, lihat di sini: https://docs.databricks.com/ingestion/lakeflow-connect/servicenow-overview#why-is-my-servicenow-ingestion-performance-slow.
Sebaiknya tingkatkan batas waktu kueri REST API menjadi lebih dari 60 detik untuk memungkinkan lebih banyak waktu untuk mengambil rekaman.
Kemudian, coba lagi alur penyerapan Anda. Jika masalah berlanjut, ajukan tiket.
KETIDAKCOCOKAN_JENIS_BIDANG_SKEMA_SERVICENOW_CONNECTOR
Terjadi kesalahan di ServiceNow saat mengambil skema tabel.
Ditemukan dua jenis data yang bertentangan untuk bidang '<fieldName>
': '<firstDataType>
' dan '<secondDataType>
'.
Untuk terus menjalankan pipeline Anda, hapus tabel ini. Jika kesalahan berlanjut, ajukan tiket.
SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR - Kesalahan akses tidak sah pada konektor ServiceNow
Terjadi kesalahan di ServiceNow. Jenis API sumber: <saasSourceApiType>
.
Untuk detail selengkapnya, lihat SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
SET_TBLPROPERTIES_TIDAK_DIIJINKAN_PADA_TABEL_PIPELINE
ALTER <commandTableType>
... SET TBLPROPERTIES
tidak didukung. Untuk mengubah properti tabel, ubah definisi asli dan jalankan pembaruan.
SFDC_CONNECTOR_BULK_QUERY_JOB_TIDAK_SELESAI
Penyerapan untuk objek <objName>
tidak lengkap karena pekerjaan kueri Salesforce API memakan waktu terlalu lama, gagal, atau dibatalkan secara manual.
Untuk detail selengkapnya, lihat SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE
KONEKTOR_SFDC_KUERISI_BULK_TIDAK_DITEMUKAN
Penyerapan untuk objek <objName>
gagal karena pekerjaan kueri API massal Salesforce tidak ditemukan.
Silakan lakukan operasi FULL REFRESH
pada tabel tujuan tertentu.
Batas API Kuota Massal untuk Membuat Koneksi SFDC Terlampaui
Kesalahan terjadi dalam panggilan SALESFORCE API: Batas API terlampaui
Harap tunggu hingga batas API Anda direset. Kemudian coba refresh tabel tujuan.
Jika kesalahan berlanjut, ajukan tiket.
SFDC_KONEKTOR_GAGAL_MEMBUAT_PEKERJAAN_PERTANYAAN_BULK
Pemrosesan data untuk objek <objName>
tidak lengkap karena pembuatan pekerjaan kueri API massal Salesforce ini gagal. Kode kesalahan: <saasSourceApiErrorCode>
.
<actionText>
.
PENGHUBUNG_TIDAK_DIDUKUNG_DI_SEG
Sink DLT dalam alur tidak didukung di ruang kerja yang diaktifkan kontrol keluar tanpa server. Sink DLT yang didukung adalah Kafka dan Delta.
Sink yang tidak didukung berikut ditemukan: <sinkNames>
, format yang sesuai adalah: <sinkFormats>
.
TABEL_SUMBER_TIDAK_DIMATERIASIKAN
Gagal membaca himpunan data dependen '<sourceTableName>
' karena tidak termaterialisasi. Jalankan seluruh alur untuk mewujudkan semua himpunan data dependen.
STANDALONE_PRIVATE_MVST_TIDAK_DIDUKUNG
Membuat MV/ST mandiri PRIVATE
tidak didukung. Silakan hapus pengubah PRIVATE
TARGET_STREAMING_TIDAK_DIDEFINISIKAN
Tidak dapat menemukan tabel target <target>
untuk perintah <command>
. Tabel target <target>
tidak ditentukan dalam pipeline.
SYNCED_TABLE_USER_ERROR
Kesalahan pengguna alur tabel yang disinkronkan.
Untuk detail selengkapnya, lihat SYNCED_TABLE_USER_ERROR
TABEL_DIUBAH_SELAMA_OPERASI
Tabel <tableName>
dimodifikasi di luar transaksi ini, dan transaksi ini telah digulung balik. Coba lagi operasi.
MATERIALISASI_TABEL_DEPENDENSI_KUNCI_ASING_SIKLIS
Pembaruan untuk alur kerja: <pipelineId>
mendeteksi adanya rantai siklik batasan kunci asing: <tables>
.
SPESIFIKASI_TABEL_MEMERLUKAN_KEDUA_KATALOG_SKEMA
TableSpec kehilangan salah satu katalog sumber dan/atau skema sumber.
Detail spesifikasi tabel:
<tableSpec>
SPESIFIKASI_TABEL_KATALOG_KOSONG
TableSpec memiliki string kosong di bidang katalog.
Hapus string kosong atau tambahkan nama katalog. (Jika tabel ini bukan milik katalog di sumbernya, jangan tetapkan bidang.)
Detail spesifikasi tabel:
<tableSpec>
SKEMA_KOSONG_SPESIFIKASI_TABEL
TableSpec memiliki string kosong di bidang skema.
Hapus string kosong atau tambahkan nama skema. (Jika tabel ini bukan milik skema di sumber, jangan atur bidang.)
Detail spesifikasi tabel:
<tableSpec>
Tabel_Spesifikasi_Tabel_Kosong
Nama tabel kosong. Harap berikan nama tabel.
Detail spesifikasi tabel:
<tableSpec>
Token tabel tidak ada untuk evolusi skema pada tabel legacy
Evolusi skema tidak dapat diaktifkan karena metadata yang hilang. Silakan picu refresh penuh.
Alasan: Token tabel rekam jepret harus ditentukan saat evolusi skema diaktifkan.
Nilai Interval Pemicu Tidak Valid
Interval pemicu harus berupa durasi positif, nilai maksimum yang dapat diterima adalah 2.147.483.647 detik. Diterima: <actual>
detik.
PEMICU_PADA_TAMPILAN_BACA_DARI_BERKAS_TIDAK_DIDUKUNG
Sumber <source>
adalah tampilan yang membaca dari lokasi file, yang tidak didukung saat ini oleh pemicu.
JENIS_SUMBER_PEMICU_TIDAK_DIDUKUNG
Sumber <source>
dengan jenis <type>
saat ini tidak didukung oleh pemicu.
SKEMA_TARGET_PEMBERSIHAN_TIDAK_DIPERBOLEHKAN
Menghapus bidang skema target tidak diizinkan untuk pipeline UC. Alasan: <reason>
.
UC_NOT_ENABLED (UC_TIDAK_DIAKTIFKAN)
Penggunaan katalog UC di DLT belum diaktifkan.
UC_PIPELINE_TIDAK_DAPAT_MENERBITKAN_KE_HMS
Pipeline yang diaktifkan UC tidak dapat dipublikasikan ke Hive Metastore. Silakan pilih katalog target yang berbeda.
Skema Target UC Diperlukan
Bidang skema target diperlukan untuk alur kerja UC. Alasan: <reason>
.
Tidak dapat menyimpulkan skema tabel
Gagal menentukan skema untuk tabel <tableName>
dari alur upstream-nya.
Ubah alur yang menulis ke tabel ini agar skemanya kompatibel.
Skema yang disimpulkan sejauh ini:
<inferredDataSchema>
Skema yang tidak kompatibel:
<incompatibleDataSchema>
KESALAHAN_PERIZINAN_SKEMA_PIPELINE_TAK_TERDUGA
Kesalahan tak terduga saat memeriksa izin skema untuk alur <pipelineId>
. Silakan hubungi dukungan Databricks.
UNIFORM_KOMPATIBILITAS_TIDAK_BISA_DIATUR_DENGAN_ROW_FILTERS_ATAU_COLUMN_MASKS
Kompatibilitas seragam tidak dapat diatur pada tampilan materialisasi atau tabel streaming yang memiliki filter baris atau masker kolom yang diterapkan.
Inisialisasi Katalog Unity Gagal
Mengalami kesalahan dengan Katalog Unity saat menyiapkan alur pada kluster <clusterId>
.
Pastikan konfigurasi Katalog Unity Anda sudah benar, dan sumber daya yang diperlukan (misalnya, katalog, skema) ada dan dapat diakses.
Verifikasi juga bahwa kluster memiliki izin yang sesuai untuk mengakses Katalog Unity.
Detail: <ucErrorMessage>
JALUR_TUJUAN_TIDAK_TERSELESAIKAN
Jalur penyimpanan untuk sink <identifier>
tidak dapat ditemukan. Silakan hubungi dukungan Databricks.
TABEL_TIDAK_TERSELESAIKAN_UNTUK_PERAWATAN
Tabel berikut ditemukan dalam definisi alur tetapi tidak dapat diselesaikan selama pemeliharaan. Jalankan eksekusi pembaruan alur dengan definisi alur terbaru untuk mewujudkan semua tabel dalam definisi alur dan membuka blokir pemeliharaan, atau hubungi dukungan Databricks jika masalah berlanjut.
<unresolvedTableIdentifiersSet>
JALUR_TABEL_TIDAK_TERSELESAIKAN
Jalur penyimpanan untuk tabel <identifier>
tidak dapat diselesaikan. Silakan hubungi dukungan Databricks.
PERINTAH_ALTER_TIDAK_DIDUKUNG
ALTER <commandTableType>
... <command>
tidak didukung.
SALURAN_TIDAK_DIDUKUNG_UNTUK_DPM
Saluran yang tidak didukung untuk Mode Penerbitan Langsung. Mengharapkan saluran 'CURRENT
' atau 'PREVIEW
', tetapi mendapat 'PREVIOUS
'
PERINTAH_TIDAK_DIDUKUNG_DI_PIPA_NON_DPM
<command>
hanya didukung dalam mode penerbitan langsung yang diaktifkan pada Alur Deklaratif Lakeflow
PERINTAH_TIDAK_DIDUKUNG_DALAM_DEFINISI_KUER
'<command>
' tidak didukung dalam definisi kueri. Silakan pindahkan perintah di luar definisi kueri. Jika itu adalah pipeline di Python, pindahkan '<command>
' ke luar dekorator @dlt.table()/@dlt.view(). Jika itu adalah pipeline di Scala, pindahkan '<command>
' ke luar metode 'query'.
VERSI_DBR_CUSTOM_TIDAK_DIPERLUKAN
Versi DBR kustom '<v>
' tidak didukung dalam ruang kerja SHIELD
dan HIPAA
. Diharapkan salah satu dari [<supportedDbrVersions>
]
VERSI_DBR_TIDAK_DIDUKUNG
Versi DBR '<v>
' tidak didukung. Diharapkan salah satu dari [<supportedDbrVersions>
]
FITUR_TIDAK_DIDUKUNG_UNTUK_RUANG_KERJA
<featureName>
tidak didukung di ruang kerja Anda. Silakan hubungi dukungan Databricks untuk mengaktifkan fitur ini untuk ruang kerja Anda.
BAHASA_TIDAK_DIDUKUNG
Gagal memuat <language>
buku catatan '<notebookPath>
'. Hanya buku catatan <supportedLanguages>
yang didukung saat ini.
Jenis File Perpustakaan Tidak Didukung
File di <path>
tidak memiliki akhiran .py atau .sql. Hanya file Python dan SQL yang didukung dalam pipeline.
Bahasa Notepad Perpustakaan Tidak Didukung
Bahasa <language>
tidak didukung untuk buku catatan <path>
. Hanya Python dan SQL yang didukung dalam alur
JENIS_OBJEK_PERPUSTAKAAN_TIDAK_DIDUKUNG
Jalur yang disertakan pada <path>
memiliki tipe <objectType>
yang tidak didukung. Saat ini, hanya buku catatan dan file yang dapat digunakan sebagai pustaka. Untuk mengatasi masalah ini, hapus objek yang tidak didukung atau perbarui pustaka yang dikonfigurasi untuk alur ini sehingga hanya jenis objek yang didukung yang disertakan.
JENIS_SUMBER_PENYERAPAN_YANG_DIKELOLA_TIDAK_DIDUKUNG
Definisi alur penyerapan terkelola tidak valid, jenis sumber yang tidak didukung: <sourceType>
.
TIPE_PENYERAPAN_SAAS_TIDAK_DIDUKUNG
Jenis penyerapan yang disediakan <ingestionType>
tidak didukung.
Silakan hubungi dukungan Databricks jika masalah ini berlanjut.
PERINTAH_SPARK_SQL_TIDAK_DIDUKUNG
'<command>
' tidak didukung di API spark.sql("...") di DLT Python. Perintah yang didukung: <supportedCommands>
.
SET_DEFINISI_DIPERBARUI_UNTUK_NON_DBSQL_PIPELINE
Hanya DBSQL
pipeline yang dapat memiliki updated_definition.
GUNAKAN_KATALOG_DI_HMS
USE CATALOG
hanya didukung dalam Alur Deklaratif Lakeflow dengan dukungan UC
LIHAT_TULISAN_TIDAK_TERSIMPAN_DI_UC
Penyegaran tabel <tableName>
tidak dapat dilakukan karena tidak memiliki kueri yang disimpan di Katalog Unity. Silakan hubungi dukungan Databricks.
KESALAHAN_LAPORAN_KONEKTOR_WORKDAY_TIDAK_DITEMUKAN
Terjadi kesalahan dalam Laporan Workday. Jenis API sumber: <saasSourceApiType>
.
URL laporan '<reportUrl>
' salah. Silakan periksa kesalahan ketik di URL dasar atau nama laporan untuk mengatasi masalah tersebut.
Jika masalah berlanjut, ajukan tiket.
CONNECTOR_LAPORAN_WORKDAY_KESALAHAN_AKSES_TIDAK_SAH
Terjadi kesalahan dalam Laporan Workday. Jenis API sumber: <saasSourceApiType>
.
Untuk keterangan lebih lanjut, lihat WORKDAY_REPORTS_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
WORKDAY_REPORT_URL_EMPTY
URL laporan Workday kosong. Setidaknya satu laporan harus disediakan.
Kuota Workspace Terlampaui
Tidak dapat memulai pembaruan '<updateId>
' karena sudah ada alur aktif '<maxActiveUpdates>
' yang berjalan di ruang kerja ini.
Lain-lain
KEBIJAKAN_ABAC_TIDAK_DIDUKUNG_UNTUK_VERSI_RUNTIME
SQLSTATE: tidak ada yang ditetapkan
Kueri pada tabel <tableFullName>
dengan kebijakan ABAC tidak didukung pada kluster yang telah ditetapkan karena <dbrVersionMessage>
. Versi <minimumSupportedVersion>
atau yang lebih tinggi diperlukan.
AZURE_ENTRA_KREDENSIAL_HILANG
SQLSTATE: tidak ada yang ditetapkan
Kredensial Azure Entra (alias Azure Active Directory) hilang.
Pastikan Anda masuk dengan akun Entra Anda
atau telah menyiapkan token akses pribadi (PAT) Azure DevOps di Pengaturan Pengguna untuk Integrasi Git >.
Jika Anda tidak menggunakan PAT dan menggunakan Azure DevOps dengan REPOS API,
Anda harus menggunakan token akses Azure Entra.
Lihat https://docs.microsoft.com/azure/databricks/dev-tools/api/latest/aad/app-aad-token langkah-langkah untuk memperoleh token akses Azure Entra.
AZURE_ENTRA_CREDENTIALS_PARSE_FAILURE
SQLSTATE: tidak ada yang ditetapkan
Mengalami kesalahan dengan kredensial Azure Entra (Azure Active Directory) Anda. Silakan coba keluar dari akun Anda
Entra (https://portal.azure.com) dan masuk kembali.
Atau, Anda juga dapat mengunjungi Pengaturan Pengguna > Integrasi Git untuk melakukan pengaturan
menyiapkan token akses pribadi Azure DevOps.
Kesalahan Login Azure Entra
SQLSTATE: tidak ada yang ditetapkan
Mengalami kesalahan dengan kredensial Azure Active Directory Anda. Silakan coba keluar dari akun Anda
Azure Active Directory (https://portal.azure.com) dan masuk kembali.
AZURE_ENTRA_WORKLOAD_IDENTITY_ERROR (Kesalahan Identitas Beban Kerja Azure Entra)
SQLSTATE: tidak ada yang ditetapkan
Mengalami kesalahan pada Identitas Beban Kerja Azure dengan pengecualian Azure: <azureWorkloadIdentityExceptionMessage>
ENTITAS_BERSIH_RUANG_DELTA_BAGI_TIDAK_DIAUTORISASI
SQLSTATE: tidak ada yang ditetapkan
Pembuatan kredensial untuk ruang bersih berbagi delta yang aman tidak dapat diminta.
RUANG_BERSIH_TERSEMBUNYI_DAPAT_DIAMANKAN_IZIN_DITOLAK
SQLSTATE: tidak ada yang ditetapkan
<securableName>
yang dapat diamankan dengan jenis <securableType>
dan jenis <securableKind>
dikelola sistem kamar bersih, pengguna tidak memiliki akses.
Kendala sudah ada
SQLSTATE: tidak ada yang ditetapkan
Batasan dengan nama <constraintName>
sudah ada, pilih nama yang berbeda.
KONSTRINSI_TIDAK_ADA
SQLSTATE: tidak ada yang ditetapkan
Batasan <constraintName>
tidak ada.
TIDAK_DAPAT_MEMBACA_REPOSITORI_JARAK_JAUH
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat membaca repositori jarak jauh (<repoUrl>
).
Silakan buka penyedia Git jarak jauh Anda untuk memastikan bahwa:
URL repositori Git jarak jauh Anda valid.
Token akses pribadi atau kata sandi aplikasi Anda memiliki akses repositori yang benar.
TIDAK_DAPAT_MENYELESAIKAN_HOST_REPOSITORI
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat menyelesaikan host untuk <repoUrl>
.
CSMS_AWAL_MASA_TIDAK_DIDUKUNG
SQLSTATE: tidak ada yang ditetapkan
Parameter beginning_of_time
tidak boleh benar.
TOKEN_LANJUTAN_CSMS_KADALUARSA
SQLSTATE: tidak ada yang ditetapkan
Objek yang diminta tidak dapat ditemukan untuk token kelanjutan.
CSMS_TOKEN_KELANJUTAN_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
Token kelanjutan tidak valid. Penyebab: <msg>
CSMS_OBJEK_MAKSIMAL_TIDAK_SAH
SQLSTATE: tidak ada yang ditetapkan
Nilai <value>
tidak valid untuk parameter max_objects, nilai yang diharapkan dalam [<minValue>
, <maxValue>
]
CSMS_ID_LANGGANAN_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
ID langganan tidak valid. Penyebab: <msg>
Format_URI_Tidak_Sesuai_CSMS
SQLSTATE: tidak ada yang ditetapkan
Format URI tidak valid. Diantisipasi bahwa terdapat volume (misalnya "/Volumes/catalog/schema/volume") atau jalur penyimpanan cloud (misalnya "s3://some-uri")
CSMS_TOPIC_KAFKA_HILANG
SQLSTATE: tidak ada yang ditetapkan
Harus menyediakan topik Kafka
Kesalahan Lokasi CSMS
SQLSTATE: tidak ada yang ditetapkan
Gagal mencantumkan objek. Ada masalah pada lokasi yang perlu diselesaikan. Detail: <msg>
LOKASI_CSMS_TIDAK_DIKETAHUI
SQLSTATE: tidak ada yang ditetapkan
Tidak ada lokasi yang ditemukan untuk uri <path>
CSMS_METASTORE_ID_HILANG
SQLSTATE: tidak ada yang ditetapkan
Harus menyediakan UUID metastore
Penyelesaian Metastore CSMS Gagal
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat menentukan metastore untuk permintaan tersebut.
GAGAL_MENYELESAIKAN_NAMA_POTONGAN_LOKAL_CSMS
SQLSTATE: tidak ada yang ditetapkan
CSMS gagal menyelesaikan nama pecahan lokal
Layanan CSMS Dinonaktifkan
SQLSTATE: tidak ada yang ditetapkan
Layanan dinonaktifkan
Nama CSMS Shard Hilang Dalam Permintaan
SQLSTATE: tidak ada yang ditetapkan
Nama shard hilang dari permintaan RPC ke CSMS
Entitas tidak ditemukan dalam Katalog Unity CSMS
SQLSTATE: tidak ada yang ditetapkan
Entitas Katalog Unity tidak ditemukan. Pastikan katalog, skema, volume, dan/atau lokasi eksternal ada.
LOKASI_EKSTERNAL_CSMS_UNITY_CATALOG_TIDAK_ADA
SQLSTATE: tidak ada yang ditetapkan
Lokasi eksternal Katalog Unity tidak ditemukan.
TUMPANG TINDIH PENYIMPANAN EKSTERNAL KATALOG UNITY
SQLSTATE: tidak ada yang ditetapkan
URI tumpang tindih dengan volume lain
CSMS_UNITY_KATALOG_METASTORE_TIDAK_ADA
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat menentukan metastore untuk permintaan tersebut. Metastore tidak ada
Izin CSMS_UNITY_CATALOG Ditolak
SQLSTATE: tidak ada yang ditetapkan
Izin ditolak
CSMS_UNITY_CATALOG_TABEL_TIDAK_ADA
SQLSTATE: tidak ada yang ditetapkan
Tabel Katalog Unity tidak ada.
Volume katalog CSMS_Unity tidak ada
SQLSTATE: tidak ada yang ditetapkan
Volume pada Katalog Unity tidak ditemukan.
CSMS_OBYEK_AMAN_TIDAK_DIDUKUNG
SQLSTATE: tidak ada yang ditetapkan
Tidak didukung yang dapat diamankan
CSMS_URI_TIDAK_DITEMUKAN
SQLSTATE: tidak ada yang ditetapkan
Harus mengisi URI
Panjang URI pada CSMS terlalu panjang
SQLSTATE: tidak ada yang ditetapkan
URI yang diberikan terlalu panjang. Panjang maksimum yang diizinkan adalah <maxLength>
.
KATALOG_DMK_TIDAK_DIIZINKAN_PADA_KOMPUTER_KLASIK
SQLSTATE: tidak ada yang ditetapkan
Penyimpanan Databricks Default tidak dapat diakses dengan menggunakan Komputasi Klasik. Silakan gunakan komputasi Tanpa Server untuk mengakses data di Penyimpanan Default
GITHUB_APP_TIDAK_BISA_MEMPERBARUI_KREDENSIAL
SQLSTATE: tidak ada yang ditetapkan
Operasi gagal karena kredensial aplikasi GitHub yang ditautkan tidak dapat disegarkan.
Silakan coba lagi atau buka Pengaturan Pengguna > Integrasi Git dan coba menautkan ulang akun penyedia Git Anda.
Jika masalah berlanjut, silakan ajukan tiket dukungan.
AKSES_TIDAK_DIBERIKAN_CREDENTIALS_GITHUB_APP
SQLSTATE: tidak ada yang ditetapkan
Tautan ke akun GitHub Anda tidak memiliki akses. Untuk memperbaiki kesalahan ini:
- Admin repositori harus membuka https://github.com/apps/databricks/installations/new dan menginstal aplikasi Databricks GitHub di repositori.
Atau, pemilik akun GitHub dapat menginstal aplikasi di akun untuk memberikan akses ke repositori akun.
- Jika aplikasi sudah diinstal, minta admin memastikan bahwa jika mereka menggunakan akses tercakup dengan opsi 'Hanya pilih repositori', mereka telah menyertakan akses ke repositori ini dengan memilihnya.
Untuk informasi selengkapnya, lihat https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app.
Jika masalah berlanjut, silakan ajukan tiket dukungan.
Kredensial_GITHUB_APP_Kadaluarsa
SQLSTATE: tidak ada yang ditetapkan
Kredensial aplikasi GitHub tertaut kedaluwarsa setelah 6 bulan tidak aktif karena tidak ada aktivitas.
Buka Pengaturan Pengguna > Integrasi Git dan coba menautkan ulang kredensial Anda.
Jika masalah berlanjut, silakan ajukan tiket dukungan.
Instalasi Aplikasi GitHub pada Akun Pengguna Lain
SQLSTATE: tidak ada yang ditetapkan
Tautan ke akun GitHub Anda tidak memiliki akses. Untuk memperbaiki kesalahan ini:
Pengguna
<gitCredentialUsername>
GitHub harus membuka https://github.com/apps/databricks/installations/new dan menginstal aplikasi di akun<gitCredentialUsername>
untuk mengizinkan akses.Jika pengguna
<gitCredentialUsername>
sudah menginstal aplikasi dan mereka menggunakan akses tercakup dengan opsi 'Hanya pilih repositori', mereka harus memastikan mereka telah menyertakan akses ke repositori ini dengan memilihnya.
Untuk informasi selengkapnya, lihat https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app.
Jika masalah berlanjut, silakan ajukan tiket dukungan.
Instal Aplikasi GitHub pada Organisasi
SQLSTATE: tidak ada yang ditetapkan
Tautan ke akun GitHub Anda tidak memiliki akses. Untuk memperbaiki kesalahan ini:
Pemilik organisasi
<organizationName>
GitHub harus membuka https://github.com/apps/databricks/installations/new dan menginstal aplikasi di organisasi<organizationName>
untuk mengizinkan akses.Jika aplikasi sudah diinstal di organisasi
<organizationName>
GitHub , minta pemilik organisasi ini memastikan bahwa jika menggunakan akses tercakup dengan opsi 'Hanya pilih repositori', mereka telah menyertakan akses ke repositori ini dengan memilihnya.
Untuk informasi selengkapnya, lihat https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app.
Jika masalah berlanjut, silakan ajukan tiket dukungan.
PEMASANGAN APLIKASI GITHUB PADA AKUN ANDA
SQLSTATE: tidak ada yang ditetapkan
Tautan ke akun GitHub Anda tidak memiliki akses. Untuk memperbaiki kesalahan ini:
https://github.com/apps/databricks/installations/new Buka dan instal aplikasi di akun
<gitCredentialUsername>
Anda untuk mengizinkan akses.Jika aplikasi sudah diinstal, dan Anda menggunakan akses tercakup dengan opsi 'Hanya pilih repositori', pastikan Anda telah menyertakan akses ke repositori ini dengan memilihnya.
Untuk informasi selengkapnya, lihat https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app.
Jika masalah berlanjut, silakan ajukan tiket dukungan.
GIT_CLUSTER_NOT_READY (Gugus GIT belum siap)
SQLSTATE: tidak ada yang ditetapkan
Kluster Git belum siap.
Kredensial GIT Umum Tidak Valid
SQLSTATE: tidak ada yang ditetapkan
Kredensial penyedia Git tidak valid untuk URL repositori <repoUrl>
.
Penyedia kredensial Git Anda saat ini <gitCredentialProvider>
dan nama pengguna <gitCredentialUsername>
.
Buka Pengaturan Pengguna > Integrasi Git untuk melihat kredensial Anda.
Silakan buka penyedia Git jarak jauh Anda untuk memastikan bahwa:
Anda telah memasukkan email pengguna Git atau nama pengguna yang benar dengan kredensial penyedia Git Anda.
Token atau kata sandi aplikasi Anda memiliki akses repositori yang benar.
Token Anda belum kedaluwarsa.
Jika Anda mengaktifkan SSO dengan penyedia Git Anda, pastikan untuk mengotorisasi token Anda.
GIT_CREDENTIAL_INVALID_PAT (Referensi kredensial Git tidak valid)
SQLSTATE: tidak ada yang ditetapkan
Kredensial Token Akses Pribadi penyedia Git tidak valid untuk URL repositori <repoUrl>
.
Penyedia kredensial Git Anda saat ini <gitCredentialProvider>
dan nama pengguna <gitCredentialUsername>
.
Buka Pengaturan Pengguna > Integrasi Git untuk melihat kredensial Anda.
Silakan buka penyedia Git jarak jauh Anda untuk memastikan bahwa:
Anda telah memasukkan email pengguna Git atau nama pengguna yang benar dengan kredensial penyedia Git Anda.
Token atau kata sandi aplikasi Anda memiliki akses repositori yang benar.
Token Anda belum kedaluwarsa.
Jika Anda mengaktifkan SSO dengan penyedia Git Anda, pastikan untuk mengotorisasi token Anda.
KREDENSIAL_GIT_HILANG
SQLSTATE: tidak ada yang ditetapkan
Tidak ada kredensial Git yang dikonfigurasi, tetapi kredensial diperlukan untuk repositori ini (<repoUrl>
).
Buka Pengaturan Pengguna > Integrasi Git untuk menyiapkan kredensial Git Anda.
GIT_CREDENTIAL_TIDAK_ADA_IZIN_MENULIS
SQLSTATE: tidak ada yang ditetapkan
Akses untuk menulis ke repositori <gitCredentialProvider>
(<repoUrl>
) tidak diberikan.
Pastikan Anda (<gitCredentialUsername>
) memiliki akses tulis ke repositori jarak jauh ini.
PENYEDIA KREDENSIAL GIT TIDAK COCOK
SQLSTATE: tidak ada yang ditetapkan
Penyedia kredensial Git yang salah untuk repositori.
Penyedia kredensial Git Anda saat ini (<gitCredentialProvider>
) tidak cocok dengan penyedia Git dari repositori <repoUrl>
.
Coba repositori lain atau buka Pengaturan Pengguna > Integrasi Git untuk memperbarui kredensial Git Anda.
GIT_PROXY_CLUSTER_NOT_READY (Cluster Proxy GIT Belum Siap)
SQLSTATE: tidak ada yang ditetapkan
Kluster proksi Git belum siap.
GIT_RAHASIA_DALAM_KODE
SQLSTATE: tidak ada yang ditetapkan
Rahasia ditemukan dalam commit. Detail: <secretDetail>
. Untuk memperbaiki kesalahan ini:
Hapus rahasia dan coba terapkan lagi.
Jika masalah berlanjut, silakan ajukan tiket dukungan.
Namespace Hirarkis Tidak Diaktifkan
SQLSTATE: tidak ada yang ditetapkan
Akun penyimpanan Azure tidak mengaktifkan namespace hierarkis.
Panjang_field_tidak_valid
SQLSTATE: tidak ada yang ditetapkan
<rpcName> <fieldName>
terlalu lama. Panjang maksimum <maxLength>
karakter.
NILAI_PARAMETER_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
<msg>
Untuk detail selengkapnya, lihat INVALID_PARAMETER_VALUE
Output Penjalankan Tugas Kerangka Kerja Tugas Tidak Ditemukan
SQLSTATE: tidak ada yang ditetapkan
Kerangka Kerja Tugas: Hasil Eksekusi untuk tugas dengan runId <runId>
dan orgId <orgId>
tidak dapat ditemukan.
STATUS_PELAKSANAAN_TUGAS_KERANGKA_KERJA_TUGAS_TIDAK_DITEMUKAN
SQLSTATE: tidak ada yang ditetapkan
Kerangka Kerja Tugas: Status Pelaksanaan Tugas dengan runId <runId>
dan orgId <orgId>
tidak dapat ditemukan.
PENGATURAN_CLIENT_TUGAS_DI_REGISTRASI_TUGAS_TIDAK_ADA
SQLSTATE: tidak ada yang ditetapkan
RPC ClientConfig untuk Tugas dengan ID <taskId>
tidak ditemukan.
TUGAS_PENDAFTARAN_PEKERJAAN_TUGAS_TIDAK_ADA
SQLSTATE: tidak ada yang ditetapkan
Tugas dengan ID <taskId>
tidak ada.
TUGAS_PEKERJAAN_REGISTRI_TIDAK_DIDUKUNG
SQLSTATE: tidak ada yang ditetapkan
Registri Tugas: JobTask yang tidak didukung atau tidak diketahui dengan kelas <taskClassName>
.
AKSES_BERDASARKAN_JALUR_TIDAK_DIDUKUNG_UNTUK_KLON_CETEH_EKSTERNAL
SQLSTATE: tidak ada yang ditetapkan
Akses berbasis jalur ke tabel kloning dangkal eksternal <tableFullName>
tidak didukung. Silakan gunakan nama tabel untuk mengakses kloning dangkal sebagai alternatif.
AKSES_BERBASIS_JALUR_TIDAK_DIDUKUNG_UNTUK_FABRIK
SQLSTATE: tidak ada yang ditetapkan
Tabel fabric yang berada di URL '<url>
' tidak ditemukan. Gunakan perintah REFRESH FOREIGN CATALOG
untuk mengisi tabel Fabric.
AKSES_BERBASIS_JALUR_TIDAK_DIDUKUNG_UNTUK_TABEL_DENGAN_KEBIJAKAN_AKSES_KOLOM_BARIS
SQLSTATE: tidak ada yang ditetapkan
Akses berbasis jalur ke tabel <tableFullName>
dengan filter baris atau masker kolom tidak didukung.
Izin Ditolak
SQLSTATE: tidak ada yang ditetapkan
Pengguna tidak memiliki <msg>
di <resourceType>
'<resourceName>
'.
Penanganan Penghapusan Aset Redash - Masukan Tidak Valid
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat mengurai permintaan hapus objek: <invalidInputMsg>
REDASH_HAPUS_OBJEK_TIDAK_ADA_DI_TEMPAT_SAMPAH
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat menghapus objek <resourceName>
yang tidak ada di tempat sampah
Izin Redash Ditolak
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat menemukan atau memiliki izin untuk mengakses sumber daya <resourceId>
KUERI_REDASH_TIDAK_DITEMUKAN
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat menemukan sumber daya dari id kueri <queryId>
Pembuatan Cuplikan Query Redash Gagal
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat membuat cuplikan kueri baru
Kuota Cuplikan Query Redash Terlampaui
SQLSTATE: tidak ada yang ditetapkan
Kuota untuk jumlah cuplikan kueri telah tercapai. Kuota saat ini adalah <quota>
.
Pemicu Cuplikan Kueri REDASH Sudah Digunakan
SQLSTATE: tidak ada yang ditetapkan
Pemicu yang ditentukan <trigger>
sudah digunakan oleh cuplikan kueri lain di ruang kerja ini.
SUMBER_REDAH_TIDAK_DITEMUKAN
SQLSTATE: tidak ada yang ditetapkan
Sumber daya yang diminta <resourceName>
tidak ada
Penangan Aset Pemulihan Redash: Input Tidak Valid
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat mengurai permintaan hapus objek: <invalidInputMsg>
REDASH_PULIHKAN_OBJEK_TIDAK_DI_TEMPAT_SAMPAH
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat memulihkan objek <resourceName>
yang tidak ada di tempat sampah
OBJEK_REDAH_SAMPAH_SUDAH_DI_SAMPAH
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat membuang objek yang sudah dibuang ke tempat sampah <resourceName>
REDASH_TIDAK_BISA_MENGHASILKAN_NAMA_SUMBER_DAYA
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat menghasilkan nama sumber daya dari id <id>
GAGAL_MEMBUAT_VISUALISASI_REDASH
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat membuat visualisasi baru
Visualisasi tidak ditemukan
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat menemukan visualisasi <visualizationId>
Kuota Visualisasi Redash Terlampaui
SQLSTATE: tidak ada yang ditetapkan
Kuota untuk jumlah visualisasi pada kueri <query_id>
telah tercapai. Kuota saat ini adalah <quota>
.
URL_REPOSITORI_TIDAK_DITEMUKAN
SQLSTATE: tidak ada yang ditetapkan
Repositori jarak jauh (<repoUrl>
) tidak ditemukan.
Penyedia kredensial Git Anda saat ini <gitCredentialProvider>
dan nama pengguna <gitCredentialUsername>
.
Silakan buka penyedia Git jarak jauh Anda untuk memastikan bahwa:
URL repositori Git jarak jauh Anda valid.
Token akses pribadi atau kata sandi aplikasi Anda memiliki akses repositori yang benar.
SUMBER_DAYA_SUDAH_ADA
SQLSTATE: tidak ada yang ditetapkan
<resourceType>
'<resourceIdentifier>
' sudah ada
SUMBER_TIDAK_ADA
SQLSTATE: tidak ada yang ditetapkan
<resourceType>
'<resourceIdentifier>
' tidak ada.
KEBIJAKAN_AKSES_BARIS_KOLOM_TIDAK_DIDUKUNG_PADA_KLASTER_YANG_DITUGASKAN
SQLSTATE: tidak ada yang ditetapkan
Kueri pada tabel <tableFullName>
dengan penyaring baris atau penutup kolom tidak didukung pada kluster yang sudah ditetapkan.
Keamanan Baris Kolom Tidak Didukung dengan Tabel dalam Delta Sharing
SQLSTATE: tidak ada yang ditetapkan
Tabel <tableFullName>
sedang dibagi menggunakan Delta Sharing dan tidak dapat menggunakan keamanan baris/kolom.
Layanan Sementara Tidak Tersedia
SQLSTATE: tidak ada yang ditetapkan
Layanan <serviceName>
sementara dalam pemeliharaan. Silakan coba lagi nanti.
TABEL_DENGAN_KEAMANAN_BARIS_KOLOM_TIDAK_DIDUKUNG_DALAM_MODE_DARING
SQLSTATE: tidak ada yang ditetapkan
Tabel <tableFullName>
tidak dapat memiliki keamanan baris/kolom dan tampilan materialisasi online secara bersamaan.
Terlalu Banyak Baris untuk Diperbarui
SQLSTATE: tidak ada yang ditetapkan
Pembaruan dibatalkan karena terlalu banyak baris yang perlu diperbarui.