Not
Bu sayfaya erişim yetkilendirme gerektiriyor. Oturum açmayı veya dizinleri değiştirmeyi deneyebilirsiniz.
Bu sayfaya erişim yetkilendirme gerektiriyor. Dizinleri değiştirmeyi deneyebilirsiniz.
Şunlar için geçerlidir:
Databricks SQL
ve Databricks Runtime 12.2 ve üzeri
Hata koşulları, açıkladıkları hataya özgü açıklayıcı, okunabilir dizelerdir.
Hata iletisini ayrıştırmaya gerek kalmadan uygulamanızdaki hataları program aracılığıyla işlemek için hata koşullarını kullanabilirsiniz.
Bu, Azure Databricks tarafından döndürülen yaygın, adlandırılmış hata koşullarının listesidir.
Databricks Runtime ve Databricks SQL
ADD_DEFAULT_UNSUPPORTED
<statementType> komutu yürütülemedi çünkü DEFAULT değerleri, "<dataSource>" tablo sağlayıcısıyla birlikte daha önce var olan bir hedef veri kaynağına yeni sütunlar eklerken desteklenmez.
İç içe referanslarda toplama fonksiyonu desteklenmiyor
Dış kapsam başvurularında <expression> desteklenmeyen toplama işlevleri algılandı.
AGGREGATE_FUNCTION_WITH_NONDETERMINISTIC_EXPRESSION
<sqlExpr> deterministik olmayan ifade, bir toplama işlevinin argümanları arasında görünmemelidir.
AI_FUNCTION_HTTP_PARSE_CAST_ERROR
Belirtilen returnType: "", yanıt<dataType>: "JSON<responseString>" olarak değiştirilirken model çıktısı ayrıştırılamadı. Lütfen returnType değerini yanıtla JSON temsil edilen türün içeriğiyle eşleşecek şekilde güncelleştirin ve sorguyu yeniden deneyin. İstisna: <errorMessage>
AI_FUNCTION_HTTP_PARSE_COLUMNS_ERROR
Gerçek model çıkışında birden fazla "<responseString>" sütunu vardır. Ancak, belirtilen dönüş türü[""<dataType>] yalnızca bir sütuna sahip. Lütfen returnType değerini model çıkışıyla aynı sayıda sütun içerecek şekilde güncelleştirin ve sorguyu yeniden deneyin.
AI_FUNCTION_HTTP_REQUEST_ERROR
İşlev <funcName>için HTTP isteği yapılırken hata oluştu: <errorMessage>
AI_FUNCTION_INVALID_HTTP_RESPONSE
İşlev <funcName>için geçersiz HTTP yanıtı: <errorMessage>
AI_FUNCTION_INVALID_MAX_WORDS
En fazla sözcük sayısı negatif olmayan bir tamsayı olmalıdır, ancak <maxWords> değeri alındı.
AI_FUNCTION_INVALID_MODEL_PARAMETERS
Sağlanan model parametreleri (<modelParameters>), "AI_QUERY" uç noktasını sunma <endpointName> işlevinde geçersiz.
Daha fazla ayrıntı için lütfen bkz.: AI_FUNCTION_INVALID_MODEL_PARAMETERS
AI_FUNCTION_INVALID_RESPONSE_FORMAT_TYPE
AI işlevi: "<functionName>" için <format> geçerli bir dize gerekmektedir, ancak responseFormat parametresi için şu yanıt biçimi bulundu: "<invalidResponseFormat>". İstisna: <errorMessage>
AI_FUNCTION_JSON_PARSE_ERROR
işlevi JSONiçin yanıt ayrıştırılırken <funcName> hata oluştu:<errorMessage>
AI_FUNCTION_MODEL_SCHEMA_PARSE_ERROR
"": <endpointName>, yanıt<errorMessage>: "JSON<responseJson>" sunum uç noktası için şema ayrıştırılamadı.
Şema çözümlemesini geçersiz kılmak için returnType işlevinde AI_QUERY parametresini el ile ayarlayın.
AI_FUNCTION_REGISTRY_LOOKUP_FAILURE
AI İşlevi Kayıt Defteri'nden "<functionName>" işlevi dinamik olarak çözümlenemedi.
AI_FUNCTION_UNSUPPORTED_ERROR
İşlev <funcName> geçerli ortamda desteklenmiyor. Yalnızca Databricks SQL Pro ve Sunucusuz'da kullanılabilir.
AI_FUNCTION_UNSUPPORTED_REQUEST
<functionName> bağımsız değişkeninde "<invalidValue>" olduğundan "<invalidDataType>" SQL işlevi değerlendirilemedi, ancak yalnızca aşağıdaki türler desteklenir: <supportedDataTypes>. Dize türünde bir bağımsız değişken sağlamak için işlev çağrısını güncelleştirin ve sorguyu yeniden deneyin.
AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT
Desteklenmeyen yanıt biçimi bulundu.
Daha fazla ayrıntı için bkz. AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT
AI_FUNCTION_UNSUPPORTED_RETURN_TYPE
AI işlevi: "<functionName>", dönüş türü olarak şu türü desteklemez: "<typeName>". Dönüş türü, Catalyst tarafından anlaşılan ve AI işlevi tarafından desteklenen geçerli bir SQL türü olmalıdır. Geçerli desteklenen türler şunları içerir: <supportedValues>
AI_INVALID_ARGUMENT_VALUE_ERROR
Sağlanan "<argValue>" değeri "<argName>" bağımsız değişkeni tarafından desteklenmiyor. Desteklenen değerler şunlardır: <supportedValues>
AI_QUERY_ENDPOINT_NOT_SUPPORT_STRUCTURED_OUTPUT
Hizmet veren uç nokta görev türünün yapılandırılmış çıkış desteği için "Sohbet" olması bekleniyordu, ancak "<taskType>" uç noktasında "<endpointName>" bulundu.
AI_QUERY_RETURN_TYPE_COLUMN_TYPE_MISMATCH
Sağlanan "<sqlExpr>" returnType bağımsız değişkeni tarafından desteklenmiyor.
AI_SEARCH_CONFLICTING_QUERY_PARAM_SUPPLY_ERROR
vector_search SQL işlevi için çakışan parametreler algılandı: <conflictParamNames>.<hint>
AI_SEARCH_EMBEDDING_COLUMN_TYPE_UNSUPPORTED_ERROR
sütun türü vector_search ekleme özelliğine sahip <embeddingColumnType> SQL işlevi desteklenmez.
AI_SEARCH_EMPTY_QUERY_PARAM_ERROR
SQL işlevinde sorgu giriş parametresi eksik vector_search, lütfen en az bir tane belirtin: <parameterNames>.
AI_SEARCH_HYBRID_QUERY_PARAM_DEPRECATION_ERROR
query'tan vector_search'e SQL işlevi, hybrid vektör araması için desteklenmez. Lütfen bunun yerine query_text kullanın.
AI_SEARCH_HYBRID_TEXT_NOT_FOUND_ERROR
vector_search vektör araması için hybrid SQL işlevinde sorgu metni bulunamadı. Lütfen query_text sağlayın.
AI_SEARCH_INDEX_TYPE_UNSUPPORTED_ERROR
vector_search SQL işlevi, dizin türü <indexType> ile desteklenmiyor.
AI_SEARCH_MISSING_EMBEDDING_INPUT_ERROR
Bir ekleme modeli uç noktasıyla ilişkilendirilmediğinden dizin query_vector için <indexName> belirtilmelidir.
AI_SEARCH_QUERY_TYPE_CONVERT_ENCODE_ERROR
İstek kodlaması sırasında spark türü vector_search'dan scala-native nesnelerine <dataType> SQL işlev sorgusunun oluşturulamaması hatası: <errorMessage>.
AI_SEARCH_QUERY_TYPE_UNSUPPORTED_ERROR
vector_search sorgu türüne sahip <unexpectedQueryType> SQL işlevi desteklenmemektedir. Lütfen şu kaynaktan birini belirtin: <supportedQueryTypes>.
AI_SEARCH_UNSUPPORTED_NUM_RESULTS_ERROR
vector_search SQL işlevi, sonuç sayısı <maxLimit>'den büyük olduğunda desteklenmez. Belirtilen sınır <requestedLimit>. Lütfen num_results ile yeniden deneyin <= <maxLimit>
AI_TOP_DRIVERS_PARAM_OUT_OF_RANGE
ai_top_drivers parametresi <param> ile <lo> arasında olmalıdır.
AI_TOP_DRIVERS_UNSUPPORTED_AGGREGATION_TYPE
ai_top_drivers
<aggName> aggregate'ı desteklemez. Aşağıdaki desteklenen toplamalardan birini seçin: <allowed>.
AI_TOP_DRIVERS_UNSUPPORTED_DIMENSION_TYPE
ai_top_drivers sayısal, eşleme veya yapı boyutu sütunlarını desteklemez. Sütun <colName> türüne <dataType> sahiptir. Bu boyutu kaldırın veya desteklenen bir türe dönüştürün.
AI_TOP_DRIVERS_UNSUPPORTED_LABEL_TYPE
ai_top_drivers , etiket sütun türünün boole olmasını gerektirir. Sütun <colName> türüne <dataType> sahiptir. Etiket sütununu değiştirin veya desteklenen bir türe dönüştürün.
AI_TOP_DRIVERS_UNSUPPORTED_METRIC_TYPE
ai_top_drivers ölçüm sütun türünün sayısal olmasını gerektirir. Sütun <colName> türüne <dataType> sahiptir. Ölçüm sütununu değiştirin veya desteklenen bir türe yayınlayın.
ALL_PARAMETERS_MUST_BE_NAMED
Ad parametreli sorguların kullanılması için tüm parametrelerin adlandırılması gerekir. Adları eksik olan parametreler: <exprs>.
ALL_PARTITION_COLUMNS_NOT_ALLOWED
Bölme sütunları için tüm sütunlar kullanılamaz.
ALTER_SCHEDULE_DOES_NOT_EXIST
Mevcut bir zamanlama veya tetikleyici olmadan bir tablodaki <scheduleType> değiştirilemez. Lütfen tabloyu değiştirmeye çalışmadan önce tabloya bir zamanlama veya tetikleyici ekleyin.
ALTER_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
ALTER TABLE <type> column <columnName> , "<optionName>" tanımlayıcıyı birden çok kez belirtir ve bu geçersizdir.
AMBIGUOUS_ALIAS_IN_NESTED_CTE
Ad <name> iç içe geçmiş CTE'de belirsizdir.
İç CTE'de tanımlanan adın öncelikli olması için lütfen "<config>" olarak ayarlayınCORRECTED. "LEGACY" olarak ayarlanırsa, dış CTE tanımları öncelikli olur.
Bkz. 'https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine'.
AMBIGUOUS_COLUMN_OR_FIELD
<name> sütunu veya alanı, <n> eşleşmesi olduğu için belirsiz.
AMBIGUOUS_COLUMN_REFERENCE
Sütun <name> belirsiz. Bunun nedeni birkaç DataFrame'i birlikte birleştirmeniz ve bu DataFrame'lerden bazılarının aynı olmasıdır.
Bu sütun DataFrame'lerden birini işaret eder, ancak Spark hangisinin olduğunu bulamıyor.
Birleştirmeden önce DataFrame.alias aracılığıyla DataFrame'leri farklı adlarla adlandırın,
ve nitelenmiş ad kullanarak sütunu belirtin( örneğin, df.alias("a").join(df.alias("b"), col("a.id") > col("b.id"))).
AMBIGUOUS_CONSTRAINT
Kısıtlama <constraint>'ye belirsiz bir referans.
AMBIGUOUS_LATERAL_COLUMN_ALIAS
Yanal sütun adı <name> belirsizdir ve <n> ile eşleşiyor.
AMBIGUOUS_REFERENCE
Referans <name> belirsiz, şu olabilir: <referenceNames>.
AMBIGUOUS_REFERENCE_TO_FIELDS
Alan <field>’e belirsiz bir atıfta bulunuluyor.
<count> kez şemada görünür.
ANALYZE_CONSTRAINTS_NOT_SUPPORTED
ANALYZE CONSTRAINTS desteklenmez.
ANALYZE_TABLE_COMPUTE_STORAGE_METRICS_NOT_SUPPORTED
ANALYZE TABLE COMPUTE STORAGE METRICS desteklenmez. Bu çalışma alanını kaydetmek için Databricks destek ekibinize ulaşın.
ANSI_CONFIG_CANNOT_BE_DISABLED
ANSI SQL yapılandırma <config> bu üründe devre dışı bırakılamaz.
APPEND_ONCE_FROM_BATCH_QUERY
Lütfen stream() işlecini kullanın.
Toplu sorgudan akış tablosu oluşturmak, yeni verilerin kaynaktan artımlı olarak yüklenmesini engeller. Sorunlu tablo: '<table>'.
Örnek kullanım:
CREATE STREAMING TABLE <target table name>
...
AS SELECT
...
FROM stream(<source table name>) ...
APPROX_TOP_K_INVALID_NUM_OF_ARGUMENTS
approx_top_k 1 ile 3 arasında bağımsız değişken bekler, ancak alır <argNum>.
APPROX_TOP_K_MAX_ITEMS_TRACKED_EXCEEDS_LIMIT
İzlenen maxItemsTrackeden fazla öğe (<maxItemsTracked>) değerinden approx_top_k küçük veya buna <limit>eşit olmalıdır.
APPROX_TOP_K_MAX_ITEMS_TRACKED_LESS_THAN_K
İzlenen maxItemsTracked(<maxItemsTracked>) en fazla öğe ( değerinden approx_top_k büyük veya buna eşit k<k>olmalıdır).
APPROX_TOP_K_NON_POSITIVE_ARG
içindeki <argName> değerinin approx_top_k pozitif bir tamsayı olması gerekir, ancak değerini alır<argValue>.
APPROX_TOP_K_NULL_ARG
içindeki <argName> değeri approx_top_k olamazNULL.
APPROX_TOP_K_SKETCH_SIZE_NOT_MATCH
Farklı boyutlardaki approx_top_k taslakların birleştirilmesine izin verilmez. Boyut <size1> ve <size2>çizimleri bulundu.
APPROX_TOP_K_SKETCH_TYPE_NOT_MATCH
Farklı türlerdeki approx_top_k taslakların birleştirilmesine izin verilmez. ve <type1>türünde <type2> taslaklar bulundu.
AQE_THREAD_INTERRUPTED
AQE iş parçacığı, büyük olasılıkla kullanıcı tarafından sorgu iptali nedeniyle kesintiye uğrar.
ARGUMENT_NOT_CONSTANT
İşlev <functionName>, <parameterName> konumunda sabit bir bağımsız değişken gerektiren bir parametre <pos> içerir.
<sqlExpr> bağımsız değişkenini ayrı hesaplayın ve sonucu sabit bir değer olarak iletin.
ARITHMETIC_OVERFLOW
<message>.
<alternative> Gerekirse bu hatayı atlamak için "false" olarak ayarlayın <config> .
Daha fazla ayrıntı için bkz. ARITHMETIC_OVERFLOW
ARROW_TYPE_MISMATCH
<operation>'den geçersiz şema: <outputTypes> bekleniyordu, <actualDataTypes> alındı.
ARTIFACT_ALREADY_EXISTS
Yapıt <normalizedRemoteRelativePath> zaten var. Yeni yapıtın üzerine yazılamadığından lütfen farklı bir ad seçin.
ASSIGNMENT_ARITY_MISMATCH
Atanan veya diğer ad verilen sütun veya değişken sayısı: <numTarget> kaynak ifade sayısıyla eşleşmiyor: <numExpr>.
AS_OF_JOIN
Geçersiz 'as-of' birleşimi.
Daha fazla ayrıntı için bkz. AS_OF_JOIN
ATTEMPT_ANALYSIS_IN_PIPELINE_QUERY_FUNCTION
İşlem hattı sorgu işlevlerinde DataFrame analizini veya yürütmeyi tetikleyen işlemlere izin verilmez. Kodu işlem hattı sorgu işlevinin dışına taşıyın.
AUTOCOMMIT_BEGIN_TRANSACTION_DURING_AUTOCOMMIT_TRANSACTION
tarafından SET AUTOCOMMIT=FALSE başlatılan örtük bir işlem etkinken yeni bir işlem başlatılamaz.
COMMIT veya ROLLBACK yeni bir işlem başlatmadan önce önce geçerli işlem ve SET AUTOCOMMIT=DOĞRU.
AUTOCOMMIT_NOT_SUPPORTED
Mod AUTOCOMMIT özelliği şu anda geliştirme aşamasındadır ve Databricks'te henüz desteklenmemektedir.
AUTOCOMMIT_OLD_SQL_EDITOR_NOT_SUPPORTED
AUTOCOMMIT eski SQL Düzenleyicisi'nde erişilemez veya değiştirilemez. Yeni SQL Düzenleyicisi'ne (<docLink>) geçin veya Databricks SQL ambarıyla bağlantılı bir not defteri kullanın.
AUTOCOMMIT_ONLY_SUPPORTED_IN_DBSQL
AUTOCOMMIT yalnızca Databricks SQL ambarlarında erişilebilir veya değiştirilebilir.
AUTOCOMMIT_SET_DURING_ACTIVE_TRANSACTION
SET AUTOCOMMIT etkin bir işlem sırasında izin verilmez. önce işleme veya geri alma.
AUTOCOMMIT_SET_FALSE_ALREADY_DISABLED
SET AUTOCOMMIT=FALSE devre dışı bırakıldığında AUTOCOMMIT izin verilmez. Bu kısıtlama karışıklığı önler ve işlem sınırlarının açık kalmasını sağlar.
AUTOCOMMIT_SET_TRUE_DURING_AUTOCOMMIT_TRANSACTION
SET AUTOCOMMITtarafından başlatılan SET AUTOCOMMIT=FALSEörtük bir işlemde deyimler yürütüldükten sonra =DOĞRU'ya izin verilmez. Yalnızca hemen sonra SET AUTOCOMMIT=FALSE (herhangi bir deyimden önce) veya veya COMMITsonrasında ROLLBACK izin verilir.
AUTO_TTL_COLUMN_NOT_FOUND
Otomatik TTL için geçersiz tablo şeması. Otomatik TTL sütunu <column> bulunamıyor.
AUTO_TTL_COLUMN_TYPE_NOT_SUPPORTED
Auto-TTL sütun türü <column><type> geçersiz. Sütun türünün veya TIMESTAMP, TIMESTAMP_NTZtüründen DATEbiri olması gerekir.
AUTO_TTL_FEATURE_NOT_ENABLED
Otomatik TTL özelliğini etkinleştirmek için lütfen Databricks temsilcinize başvurun.
AUTO_TTL_INCOMPLETE_SETTING
Tabloda Otomatik TTL'yi ayarlamak için hem tablo özellikleri autottl.timestampColumnautottl.expireInDays hem de gereklidir, ancak <missing> eksiktir.
AUTO_TTL_INVALID_COLUMN_CHANGE
Otomatik TTL tanımında kullanıldığından sütun <column> olamaz <operation> .
AUTO_TTL_NOT_SUPPORT_SHALLOW_CLONES
Auto-TTL, sığ kopya tablolarda desteklenmez.
AUTO_TTL_NOT_SUPPORT_TABLES_HAVING_SHALLOW_CLONES
Auto-TTL, basit kopyaları olan tablolarda desteklenmez.
AUTO_TTL_REQUIRES_PREDICTIVE_OPTIMIZATION
Otomatik TTL, Tahmine Dayalı İyileştirme'nin etkinleştirilmesini gerektirir.
AUTO_TTL_REQUIRES_UC_MANAGED_TABLE
Auto-TTL yalnızca UC Yönetilen tablolarında desteklenir.
AVRO_CANNOT_WRITE_NULL_FIELD
Null olmayan Avro veri türü <name>olarak tanımlanan alan <dataType> için null değer yazılamaz.
Bu alan için null değere izin vermek istiyorsanız, avro şemasını avroSchema seçeneğini kullanarak "null" ile bir birleşim türü olarak belirtin.
AVRO_DEFAULT_VALUES_UNSUPPORTED
rescuedDataColumn etkinleştirildiğinde varsayılan değerlerin kullanılması desteklenmez.
spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue false olarak ayarlayarak bu denetimi kaldırabilirsiniz, ancak varsayılan değerler uygulanmaz ve null değerler kullanılmaya devam eder.
AVRO_INCOMPATIBLE_READ_TYPE
SQL <avroPath>'ye <sqlPath>Avro dönüştürülemiyor çünkü özgün kodlanmış veri türü <avroType> iken, alanı <sqlType> olarak okumaya çalışıyorsunuz ve bu da yanlış bir yanıta yol açabilir.
Bu alanın okunmasına izin vermek için SQL yapılandırmasını etkinleştirin: "spark.sql.legacy.avro.allowIncompatibleSchema".
AVRO_NOT_LOADED_SQL_FUNCTIONS_UNUSABLE
Avro veri kaynağı yüklenmediğinden SQL işlevi çağrılamıyor <functionName> .
Lütfen iş veya oturumunuzu 'spark-avro' paketi yüklü olarak, örneğin komut satırında --packages bağımsız değişkenini kullanarak, yeniden başlatın ve ardından sorgunuzu veya komutunuzu tekrar deneyin.
AVRO_POSITIONAL_FIELD_MATCHING_UNSUPPORTED
rescuedDataColumn veya failOnUnknownFields etkinleştirildiğinde konumsal alan eşleştirmenin kullanılması desteklenmez. Devam etmek için bu seçenekleri kaldırın.
AZURE_INVALID_CREDENTIALS_CONFIGURATION
Azure anahtar sağlayıcısı veya kimlik bilgileri yanlış yapılandırıldı. Neden: <causedBy>.
BATCH_METADATA_NOT_FOUND
Parti <batchMetadataFile> bulunamıyor.
BigQuery Veri Kaynağı Seçenekleri Doğrulama Hatası (BIGQUERY_DATA_SOURCE_OPTIONS_VALIDATION_FAILED)
BigQuery veri kaynağı seçenekleri doğrulanamadı.
Daha fazla ayrıntı için bkz. BIGQUERY_DATA_SOURCE_OPTIONS_VALIDATION_FAILED
BIGQUERY_OPTIONS_ARE_MUTUALLY_EXCLUSIVE
BigQuery bağlantı kimlik bilgileri 'GoogleServiceAccountKeyJson' parametresiyle veya tüm 'projectId', 'OAuthServiceAcctEmail', 'OAuthPvtKey' ile belirtilmelidir
BINARY_ARITHMETIC_OVERFLOW
<value1> <symbol> <value2> taşmasına neden oldu. Taşma sorununu yoksaymak ve <functionName>'i döndürmek için NULL'ı kullanın.
BUILT_IN_CATALOG
<operation> yerleşik katalogları desteklemez.
CALL_ON_STREAMING_DATASET_UNSUPPORTED
<methodName> yöntemi akış Veri Kümesi/DataFrame'de çağrılamaz.
CANNOT_ALTER_COLLATION_BUCKET_COLUMN
ALTER TABLE (ALTER|CHANGE) COLUMN kova sütunlarının türünün/alt türlerinin sıralamasını değiştiremez, ancak tablodaki <columnName> kova sütunu <tableName> olarak bulunmuştur.
CANNOT_ALTER_PARTITION_COLUMN
ALTER TABLE (ALTER|CHANGE) COLUMN bölüm sütunları için desteklenmez, ancak <columnName>tablosunda bölüm sütunu <tableName> bulundu.
CANNOT_ASSIGN_EVENT_TIME_COLUMN_WITHOUT_WATERMARK
Etkinlik zamanı sütununu yeniden atamak için filigran tanımlanmalıdır. Akış sorgusunda filigran tanımı bulunamadı.
CANNOT_CAST_DATATYPE
<sourceType>
<targetType>'e dönüştürülemez.
CANNOT_CONVERT_PROTOBUF_FIELD_TYPE_TO_SQL_TYPE
Şema uyumsuz olduğundan Protobuf <protobufColumn> SQL <sqlColumn> dönüştürülemiyor (protobufType = <protobufType>, sqlType = <sqlType>).
CANNOT_CONVERT_PROTOBUF_MESSAGE_TYPE_TO_SQL_TYPE
Protobuf <protobufType>, SQL türü <toType>'e dönüştürülemiyor.
CANNOT_CONVERT_SQL_TYPE_TO_PROTOBUF_FIELD_TYPE
Şema uyumsuz olduğundan SQL <sqlColumn> Protobuf <protobufColumn> dönüştürülemiyor (protobufType = <protobufType>, sqlType = <sqlType>).
CANNOT_CONVERT_SQL_VALUE_TO_PROTOBUF_ENUM_TYPE
SQL <sqlColumn>, Protobuf <protobufColumn>'e dönüştürülemiyor çünkü <data>, enum <enumString>için tanımlı değerler arasında değil.
CANNOT_COPY_STATE
Geçerli veritabanı ve geçici görünümler gibi katalog durumu Unity Kataloğu'ndan eski bir kataloğa kopyalanamaz.
CANNOT_CREATE_DATA_SOURCE_TABLE
<tableName>veri kaynağı tablosu oluşturulamadı:
Daha fazla ayrıntı için bkz. CANNOT_CREATE_DATA_SOURCE_TABLE
CANNOT_DECODE_URL
Sağlanan URL'nin kodu çözülemiyor: <url>. LÜTFEN URL'nin düzgün biçimlendirildiğinden emin olun ve yeniden deneyin.
CANNOT_DELETE_SYSTEM_OWNED
<resourceType>, sistem tarafından yönetildiği için silinemez.
CANNOT_DROP_AMBIGUOUS_CONSTRAINT
<constraintName> adlı ve bir CHECK kısıtlaması tarafından paylaşılan kısıtlama bırakılamıyor.
ve PRIMARY KEY veya FOREIGN KEY kısıtlaması.
PRIMARY KEY'ı bırakabilirsiniz ya da
Sorgulara göre FOREIGN KEY kısıtlaması:
ALTER TABLE..
DROP PRIMARY KEY veya
ALTER TABLE..
DROP FOREIGN KEY..
TEMEL TABLO, YÜZEYSEL KLON TARAFINDAN REFERANS ALINDIĞI İÇİN SİLİNEMEZ
Bir veya daha fazla sığ kopya tarafından başvuruldığından tablo <baseTable> bırakılamıyor: <cloneList>.
DROP temel tabloyu silmeden önce tüm sığ klonlar. Bu mümkün değilse tabloyu zorla bırakmak için 'DROP TABLE...FORCE' kullanmayı göz önünde bulundurun.
WARNING: Bu, tüm mevcut sığ kopya başvurularını anında geçersiz kılar ve kullanılamaz hale getirir.
CANNOT_ESTABLISH_CONNECTION
Uzak <jdbcDialectName> veritabanına bağlantı kurulamıyor. Lütfen bağlantı bilgilerini ve ana bilgisayar, bağlantı noktası, kullanıcı, parola ve veritabanı seçenekleri gibi kimlik bilgilerini denetleyin. ** Bilgilerin doğru olduğuna inanıyorsanız lütfen çalışma alanınızın ağ kurulumunu denetleyin ve konağa giden kısıtlamaları olmadığından emin olun. Ayrıca, sunucunun çalışma alanının Spark kümelerinin dağıtıldığı ağdan gelen bağlantıları engellemediğinden de emin olun. ** Ayrıntılı hata iletisi: <causeErrorMessage>.
CANNOT_ESTABLISH_CONNECTION_SERVERLESS
Uzak <jdbcDialectName> veritabanına bağlantı kurulamıyor. Lütfen bağlantı bilgilerini ve ana bilgisayar, bağlantı noktası, kullanıcı, parola ve veritabanı seçenekleri gibi kimlik bilgilerini denetleyin. ** Bilgilerin doğru olduğuna inanıyorsanız, Sunucusuz İşlem kullanırken İnternet'ten konağınıza gelen trafiğe izin verin. Ağ ilkeleriniz gelen İnternet trafiğine izin vermiyorsa, sunucusuz İşlem'i kullanın veya Sunucusuz Özel Ağ hakkında bilgi edinmek için Databricks temsilcinize ulaşabilirsiniz. ** Ayrıntılı hata iletisi: <causeErrorMessage>.
CANNOT_ESTABLISH_CONNECTION_TO_HOST
ile bağlantı <protocol>kurulamıyor<host>. Lütfen çalışma alanınızın ağ kurulumunu denetleyin ve konağa giden kısıtlamaları olmadığından emin olun. Ayrıca, konağın çalışma alanının kümelerinin dağıtıldığı ağdan gelen bağlantıları engellemediğinden de emin olun.
CANNOT_INVOKE_IN_TRANSFORMATIONS
Veri kümesi dönüştürmeleri ve eylemleri yalnızca sürücü tarafından çağrılabilir, diğer Veri Kümesi dönüştürmelerinin içinde çağrılabilir; örneğin, dataset1.map(x => dataset2.values.count() * x) değeri dönüştürme ve sayı eylemi dataset1.map dönüşümü içinde gerçekleştirilemediğinden geçersizdir. Daha fazla bilgi için bkz. SPARK-28702.
CANNOT_LOAD_CHECKPOINT_FILE_MANAGER
path=<path> için akış denetim noktası dosya yöneticisi yüklenirken hata oluştu.
Daha fazla ayrıntı için bkz. CANNOT_LOAD_CHECKPOINT_FILE_MANAGER
CANNOT_LOAD_FUNCTION_CLASS
<className>işlevi kaydederken sınıf <functionName> yüklenemiyor, lütfen sınıf yolu üzerinde olduğundan emin olun.
CANNOT_LOAD_PROTOBUF_CLASS
<protobufClassName>adlı Protobuf sınıfı yüklenemedi.
<explanation>.
CANNOT_LOAD_STATE_STORE
Yükleme durumu sırasında bir hata oluştu.
Daha fazla ayrıntı için bkz. CANNOT_LOAD_STATE_STORE
CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE
Uyumsuz veri türleri <left> ve <right>birleştirilemedi. Lütfen birleştirilmekte olan sütunların veri türlerini denetleyin ve uyumlu olduklarından emin olun. Gerekirse, birleştirmeyi denemeden önce sütunları uyumlu veri türlerine dönüştürmeyi göz önünde bulundurun.
CANNOT_MERGE_SCHEMAS
Şemalar birleştirilemedi:
İlk şema:
<left>
İlk şemayla birleştirilemeyen şema:
<right>.
CANNOT_MODIFY_CONFIG
Spark yapılandırmasının değeri değiştirilemez: <key>.
Ayrıca bkz. 'https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements'.
CANNOT_MODIFY_STATIC_CONFIG
Statik Spark yapılandırmasının değeri değiştirilemez: <key>.
CANNOT_PARSE_DECIMAL
Ondalık sayı okunamıyor. Girişin isteğe bağlı ondalık ayırıcı veya virgül ayırıcıları olan geçerli bir sayı olduğundan emin olun.
CANNOT_PARSE_INTERVAL
<intervalString> çözümlenemiyor. Sağlanan değerin bir aralık tanımlamak için geçerli bir biçimde olduğundan emin olun. Doğru biçim için belgelere başvurabilirsiniz. Sorun devam ederse, lütfen giriş değerinin null veya boş olmadığını bir kez daha denetleyin ve yeniden deneyin.
CANNOT_PARSE_JSON_FIELD
Spark veri <fieldName>türünü hedeflemek için alan adı <fieldValue> ve belirteç türünün JSON değeri <jsonType><dataType> ayrıştırılamıyor.
CANNOT_PARSE_PROTOBUF_DESCRIPTOR
Tanımlayıcı baytları Protobuf FileDescriptorSet içine ayrıştırma hatası.
CANNOT_PARSE_TIME
Giriş dizesi <input> bir TIME değerine ayrıştırılamaz çünkü datetime biçimiyle <format>eşleşmez.
CANNOT_PARSE_TIMESTAMP
<message>. Geçersiz giriş dizesini tolere etmek ve bunun yerine <func> döndürmek için NULL kullanın.
CANNOT_QUERY_TABLE_DURING_INITIALIZATION
Başlatma sırasında MV/ST sorgulanamaz.
Daha fazla ayrıntı için bkz. CANNOT_QUERY_TABLE_DURING_INITIALIZATION
CANNOT_READ_ARCHIVED_FILE
Dosya arşivlendiği için <path> yolundaki dosya okunamıyor. Lütfen sorgu filtrelerinizi arşivlenmiş dosyaları dışlayacak şekilde ayarlayın.
CANNOT_READ_FILE
<format> dosyası şu yolda okunamıyor: <path>.
Daha fazla ayrıntı için bkz. CANNOT_READ_FILE
CANNOT_READ_SENSITIVE_KEY_FROM_SECURE_PROVIDER
Güvenli sağlayıcıdan '<key>' hassas anahtarı okunamıyor.
CANNOT_RECOGNIZE_HIVE_TYPE
Hive türü dizesi tanımlanamıyor: <fieldType>, sütun: <fieldName>. Alan için belirtilen veri türü Spark SQL tarafından tanınamıyor. Lütfen belirtilen alanın veri türünü denetleyin ve geçerli bir Spark SQL veri türü olduğundan emin olun. Geçerli veri türlerinin ve biçimlerinin listesi için Spark SQL belgelerine bakın. Veri türü doğruysa spark SQL'in desteklenen bir sürümünü kullandığınızdan emin olun.
CANNOT_REFERENCE_UC_IN_HMS
Hive Meta Veri Deposu nesnelerinde Unity Kataloğu <objType> referans olarak kullanılamaz.
CANNOT_REMOVE_RESERVED_PROPERTY
Rezerve edilmiş özellik kaldırılamıyor: <property>.
CANNOT_RENAME_ACROSS_CATALOG
Kataloglar arasında bir <type> yeniden adlandırmaya izin verilmez.
CANNOT_RENAME_ACROSS_SCHEMA
Şemalar arasında bir <type> yeniden adlandırmaya izin verilmez.
CANNOT_RESOLVE_DATAFRAME_COLUMN
<name>veri çerçevesi sütunu çözümlenemiyor. Bunun nedeni büyük olasılıkla gibi df1.select(df2.col("a"))yasa dışı başvurulardır.
CANNOT_RESOLVE_STAR_EXPAND
<targetString>.* verilen giriş sütunları <columns>çözümlenemiyor. Lütfen belirtilen tablo veya yapının mevcut olup olmadığını ve giriş sütunlarında erişilebilir olup olmadığını denetleyin.
CANNOT_RESTORE_PERMISSIONS_FOR_PATH
Oluşturulan <path> yolunda izinleri <permission>'e geri ayarlamada başarısız oldu.
CANNOT_SHALLOW_CLONE_ACROSS_UC_AND_HMS
Unity Catalog ve Hive Meta Veri Deposu arasında tabloların yüzeysel kopyaları yapılamaz.
CANNOT_SHALLOW_CLONE_AUTO_TTL
Otomatik TTL'nin etkinleştirildiği bir tablo <table> sığ kopyalanamaz.
CANNOT_SHALLOW_CLONE_NESTED
Halihazırda sığ bir kopya olan tablo <table>, tekrar sığ kopyalanamaz.
CANNOT_SHALLOW_CLONE_NON_UC_MANAGED_TABLE_AS_SOURCE_OR_TARGET
Sığ kopya yalnızca MANAGED tablo türü için desteklenir. Tablo <table>MANAGED tablo değildir.
CANNOT_UPDATE_FIELD
<table> alanındaki <fieldName> türü güncellenemiyor:
Daha fazla ayrıntı için bkz. CANNOT_UPDATE_FIELD
CANNOT_UPDATE_PARTITION_COLUMNS
Bildirilen parçalanma <requestedPartitionColumns> , mevcut tablo parçalanması ile çakışıyor <existingPartitionColumns>.
Lütfen tabloyu silin veya bildirilen bölümlendirmeyi, bölümleriyle eşleşecek şekilde değiştirin.
CANNOT_UP_CAST_DATATYPE
<expression> türü <sourceType> türünden <targetType> türüne üst dönüşümü yapılamıyor.
<details>
CANNOT_USE_KRYO
Kryo serileştirme codec'i yüklenemiyor. Kryo serileştirme Spark Connect istemcisinde kullanılamaz. Java serileştirmesini kullanın, özel bir Codec sağlayın veya bunun yerine Spark Klasik'i kullanın.
CANNOT_USE_MULTI_ALIASES_IN_WATERMARK_CLAUSE
Filigran yan tümcesinde birden çok diğer ad desteklenmez.
Rezerve Edilmiş Akış Sağlayıcı Adı Kullanılamaz
Rezervli akış sağlayıcısı adı kullanılamaz: <providerName>.
CANNOT_VALIDATE_CONNECTION
<jdbcDialectName> bağlantısının doğrulanması desteklenmez. Alternatif çözümler için lütfen Databricks desteğine başvurun veya bağlantı nesnesi oluşturmadan önce bağlantı testini atlamak için "spark.databricks.testConnectionBeforeCreation" değerini "false" olarak ayarlayın.
CANNOT_WRITE_STATE_STORE
sağlayıcı <providerClass>için durum deposu dosyaları yazılırken hata oluştu.
Daha fazla ayrıntı için bkz. CANNOT_WRITE_STATE_STORE
CAST_INVALID_INPUT
<expression> türündeki değer <sourceType>, yanlış biçimlendirilmiş olduğundan <targetType>'a dönüştürülemez. Söz dizimine göre değeri düzeltin veya hedef türünü değiştirin. Hatalı biçimlendirilmiş girişi tolere etmek ve bunun yerine try_cast döndürmek için NULL kullanın.
Daha fazla ayrıntı için bkz. CAST_INVALID_INPUT
CAST_OVERFLOW
<value> türündeki değer <sourceType>, taşma nedeniyle <targetType>'a geçirilemez. Taşmayı tolere etmek ve bunun yerine try_cast döndürmek için NULL kullanın.
CAST_OVERFLOW_IN_TABLE_INSERT
Taşma nedeniyle <sourceType> türünde bir değer, <targetType> türü sütununa veya değişken <columnName>'ye atanamaz. Giriş değerinde taşmayı tolere etmek ve bunun yerine try_cast döndürmek için NULL kullanın.
CATALOG_CONVERSION_FOREIGN_ENTITY_PRESENT
Katalog yabancı varlıklar içerdiğinden UC Yabancı'dan UC Standard'a katalog dönüştürme başarısız oldu (en fazla 10 burada gösterilmiştir): <entityNames>. Bu katalogdaki yabancı varlıkların tam listesini görmek için lütfen 'ALTER CATALOG DROP CONNECTION' komut belgelerindeki betiklere bakın.
CATALOG_CONVERSION_UNSUPPORTED_CATALOG_TYPE
Katalog, UC Yabancı'dan UC Standard'a dönüştürülemez. Yalnızca <convertableCatalogTypes> Yabancı UC katalogları UC Standard'a dönüştürülebilir.
CATALOG_NOT_FOUND
Katalog <catalogName> bulunamadı. SQL yapılandırma <config>'ı bir katalog eklentisine ayarlamayı göz önünde bulundurun.
CATALOG_OWNED_TABLE_CREATION_NOT_ALLOWED
Tablo özelliğiyle <feature> Delta tabloları oluşturmaya izin verilmez. Lütfen Databricks desteğine başvurun.
CHECKPOINT_DIR_NOT_SET
Denetim noktası dizini SparkContext içinde ayarlanmadı.
Lütfen ile SparkContext.setCheckpointDir()ayarlayın.
CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND
Denetim noktası bloğu <rddBlockId> bulunamadı!
Bu bölümü başlangıçta kontrol eden yürütücü artık çalışır durumda değil veya orijinal RDD bellekte saklanmıyor.
Bu sorun devam ederse, bunun yerine yerel denetim noktasından daha yavaş ancak hataya daha dayanıklı olan rdd.checkpoint() kullanmayı düşünebilirsiniz.
CHECK_KISIT_IHLALI
CHECK kısıtlaması <constraintName> <expression> değerleri içeren satır tarafından ihlal edildi:
<values>
CIRCULAR_CLASS_REFERENCE
Sınıfta döngüsel başvurular olamaz, ancak <t> sınıfının döngüsel başvurusuyla karşılaşıldı.
CLASS_NOT_OVERRIDE_EXPECTED_METHOD
<className>
<method1> veya <method2>geçersiz kılmalıdır.
CLASS_UNSUPPORTED_BY_MAP_OBJECTS
MapObjects, sonuç olarak elde edilen koleksiyon türü olarak sınıf <cls>'i desteklemez.
CLEANROOM_COMMANDS_NOT_SUPPORTED
Odayı Temizle komutları desteklenmiyor
CLEANROOM_INVALID_SHARED_DATA_OBJECT_NAME
Temiz Oda içindeki bir <type> referansı için geçersiz isim. Temiz odanın içinde [catalog].[schema].[<type>] biçimini takip ederek bir <type>'nin adını kullanın.
Hangi adı kullanacağınızdan emin değilseniz, "SHOW ALL IN CLEANROOM [clean_room]" komutunu çalıştırabilir ve "ad" sütunundaki değeri kullanabilirsiniz.
CLONING_WITH_HISTORY_INVALID_OPTION
Geçmişle birlikte kopyalama, geçersiz bir seçenekle belirtilmiştir: <invalidOption>.
Geçerli söz dizimi: CREATE (OR REPLACE) TABLE ... DERIN CLONE...WITH HISTORY.
CLONING_WITH_HISTORY_UNSUPPORTED
Geçmiş içeren klonlama desteklenmez.
CLOUD_FILE_ALREADY_EXISTS
Bulut dosyası zaten var. Neden: <causedBy>.
CLOUD_FILE_NOT_FOUND
Bulut dosyası bulunamadı. Neden: <causedBy>.
CLOUD_FILE_SOURCE_FILE_NOT_FOUND
Dosya için bir bildirim alındı: <filePath> ama artık mevcut değil. Lütfen dosyaların işlenmeden önce silinmediğinden emin olun. Akışınıza devam etmek için Spark SQL yapılandırma <config>'ı true değerine ayarlayabilirsiniz.
CLOUD_PROVIDER_ERROR
Bulut sağlayıcısı hatası: <message>
CLUSTERING_COLUMNS_MISMATCH
Belirtilen kümeleme, <tableName>varolan tabloyla eşleşmiyor.
Belirtilen kümeleme sütunları: [<specifiedClusteringString>].
Mevcut kümeleme sütunları: [<existingClusteringString>].
CLUSTERING_NOT_SUPPORTED
'<operation>' kümelemesi desteklemez.
CLUSTER_BY_AUTO_FEATURE_NOT_ENABLED
Otomatik küme özelliğini etkinleştirmek için lütfen Databricks temsilcinize başvurun.
CLUSTER_BY_AUTO_REQUIRES_CLUSTERING_FEATURE_ENABLED
CLUSTER BY AUTO kullanmak için clusteringTable.enableClusteringTableFeature'ı etkinleştirin.
CLUSTER_BY_AUTO_REQUIRES_PREDICTIVE_OPTIMIZATION
CLUSTER BY AUTO, Tahmine Dayalı İyileştirme'nin etkinleştirilmesini gerektirir.
CLUSTER_BY_AUTO_UNSUPPORTED_TABLE_TYPE_ERROR
CLUSTER BY AUTO yalnızca UC Yönetilen tablolarında desteklenir.
CODEC_NOT_AVAILABLE
Codec <codecName> kullanılamaz.
Daha fazla ayrıntı için bkz. CODEC_NOT_AVAILABLE
CODEC_SHORT_NAME_NOT_FOUND
codec <codecName>için kısa bir ad bulunamıyor.
COLLATION_INVALID_NAME
<collationName> değeri doğru harmanlama adını temsil etmez. Önerilen geçerli harmanlama adları: [<proposals>].
COLLATION_INVALID_PROVIDER
<provider> değeri doğru harmanlama sağlayıcısını temsil etmez. Desteklenen sağlayıcılar şunlardır: [<supportedProviders>].
COLLATION_MISMATCH
Dize işlevleri ve işleçleri için kullanılacak harmanlama belirlenemedi.
Daha fazla ayrıntı için bkz. COLLATION_MISMATCH
COLLECTION_SIZE_LIMIT_EXCEEDED
dizi boyutu sınırını <numberOfElements>aşan öğelerle <maxRoundedArrayLength> dizi oluşturulamıyor.
Daha fazla bilgi için bkz. COLLECTION_SIZE_LIMIT_EXCEEDED
COLUMN_ALIASES_NOT_ALLOWED
<op>içinde sütun takma adlarına izin verilmez.
COLUMN_ALREADY_EXISTS
Sütun <columnName> zaten var. Başka bir ad seçin veya mevcut sütunu yeniden adlandırın.
COLUMN_ARRAY_ELEMENT_TYPE_MISMATCH
Alan <pos> bazı değerler sütun dizisi türüyle uyumsuzdur. beklenen tür <type>.
COLUMN_MASKS_ABAC_HATALI_EŞLEŞME
İlkelerden devralınan sütun maskeleri ile açıkça tanımlanmış sütun maskeleri arasında uyuşmazlık olduğundan <tableName>'daki sütun maskeleri çözümlenemedi. Devam etmek için lütfen Öznitelik Tabanlı Erişim Denetimi'ni (ABAC) devre dışı bırakın ve Databricks desteğine başvurun.
COLUMN_MASKS_KONTROL_KISITI_DESTEKLENMIYOR
Sütun maskeleme ilkeleri içeren tablo CHECK'e <tableName> kısıtlaması oluşturulması desteklenmemektedir.
COLUMN_MASKS_KOLON_ADINI_KULLANARAK_KOPYALA
<statementType> deyimi, USING COLUMNS listesinde aynı <columnName>ada sahip iki veya daha fazla başvurulan sütunun bulunduğu bir sütuna sütun maskesi ilkesi atamaya çalıştı. Bu ilke geçersiz.
COLUMN_MASKS_ÖZELLİK_DESTEKLENMİYOR
<tableName> için sütun maskesi ilkeleri desteklenmez:
Daha fazla ayrıntı için bkz. COLUMN_MASKS_FEATURE_NOT_SUPPORTED
COLUMN_MASKS_UYUMLU_OLMAYAN_SŞEMA_DEĞİŞİKLİĞİ
<statementType> <columnName> tablosundan <tableName> kaldırılamıyor çünkü <maskedColumn> sütunu için bir sütun maskesi ilkesinde başvurulduğu için. Devam etmeden önce tablo sahibinin bu ilkeyi kaldırması veya değiştirmesi gerekir.
COLUMN_MASKS_MERCED_METİNDESTEKLENMİYOR_KAYNAK
MERGE INTO işlemleri, kaynak tablo <tableName>sütun maskesi ilkelerini desteklemez.
COLUMN_MASKS_BİRLEŞTİRME_DESTEKLENMİYOR_HEDEF
MERGE INTO işlemleri, sütun maskesi ilkeleriyle tablo <tableName> yazmayı desteklemez.
COLUMN_MASKS_ÇOKLU_PARÇA_HEDEF_SÜTUN_ADI
Bu ifade, birden çok ad parçasına sahip olan <columnName> sütununa sütun maske politikası atamaya çalıştı, ve bu geçersiz.
COLUMN_MASKS_ÇOK_PARÇALI_SÜTUN_ADINI_KULLANARAK
Bu deyim bir sütuna sütun maske ilkesi atamaya çalıştı ve USING COLUMNS listesi, birden çok ad parçasına sahip <columnName> adını içeriyor ve bu geçersiz.
COLUMN_MASKS_ETKİN_DEĞİL
Sütun maskeleri tanımlama desteği etkinleştirilmedi
COLUMN_MASKS_BİRLEŞİK_KATALOĞU_GEREKİYOR
Sütun maskesi ilkeleri yalnızca Unity Kataloğu'nda desteklenir.
COLUMN_MASKS_İKİNCİL_INDEKS_OLUŞTURMA_DESTEKLENMİYOR
Tabloda sütun maskesi ilkeleri tanımlandığından ikincil dizin ON TABLE <tableName> oluşturulamıyor.
COLUMN_MASKS_BÖLÜMLERİ_GÖSTERME_MEVCUT_DEĞIL
SHOW PARTITIONS komutu, sütun maskeleri olan<format> tablolarda desteklenmez.
COLUMN_MASKS_TABLO_KLON_KAYNAĞI_DESTEKLENMİYOR
Sütun maskesi ilkelerine sahip tablo <mode>'dan <tableName> kopyalama desteklenmemektedir.
COLUMN_MASKS_TABLO_KLONLAMA_HEDEFİ_DESTEKLENMİYOR
Tabloya <mode> sütun maskesi ilkeleriyle <tableName> kopyalama desteklenmemektedir.
COLUMN_MASKS_DESTEKLENMEYEN_SABIT_OLARAK_PARAMETRE
Sütun maskesi ilkesinde parametre olarak sabit kullanılması desteklenmez. Sütun maskesi tanımından sabiti kaldırmak için SQL komutunu güncelleştirin ve komutu yeniden deneyin.
COLUMN_MASKS_DESTEKLENMEYEN_VERİ_TÜRÜ
Sütun maskesi ilkesi olarak kullanılan işlev <functionName> , desteklenmeyen veri türüne <dataType>sahip bir parametre içerir.
COLUMN_MASKS_DESTEKLENMEYEN_SAĞLAYICI
<statementType> komutu yürütülemedi çünkü "<provider>" tablo sağlayıcısına sahip hedef veri kaynağı için sütun maskesi ilkeleri atanması desteklenmiyor.
COLUMN_MASKS_AYNI_HEDEF_SÜTUN_ADI_KULLANILIYOR
sütun <columnName>, hedef sütunla aynı ada sahipti; bu geçersizdir; lütfen sütunu USING COLUMNS listesinden kaldırın ve komutu yeniden deneyin.
COLUMN_NOT_DEFINED_IN_TABLE
<colType> sütunu <colName>, tablo <tableName>'de tanımlanmamıştır, tanımlı tablo sütunları şunlardır: <tableCols>.
COLUMN_NOT_FOUND
Sütun <colName> bulunamıyor. sql yapılandırmasına göre sütun adının yazımını ve doğruluğunu doğrulayın <caseSensitiveConfig>.
COLUMN_NOT_FOUND_IN_TABLE
tablosunda <columnName>sütun <tableFullName> bulunamadı.
COLUMN_ORDINAL_OUT_OF_BOUNDS
Sütun dizini sınırın dışında. Tablodaki sütun sayısı <attributesLength>, ancak sütun sırası <ordinal>.
Öznitelikler şunlardır: <attributes>.
KOMUT_ETKIN_DEĞİL
<command> komutu etkin değil.
COMMA_PRECEDING_CONSTRAINT_ERROR
Kısıtlamalar tanımı öncesinde beklenmeyen bir virgül (',') var. Sütunlar (ve beklentiler) tanımlanmadığında kısıtlama yan tümcesinin virgülle başlamadığından emin olun.
COMMENT_ON_CONNECTION_NOT_IMPLEMENTED_YET
COMMENT ON CONNECTION komutu henüz uygulanmadı
COMPARATOR_RETURNS_NULL
Karşılaştırıcı, NULL ile <firstValue>karşılaştırması için bir <secondValue> döndürdü.
"büyüktür" için pozitif bir tamsayı, "eşittir" için 0 ve "küçüktür" için negatif bir tamsayı döndürmelidir.
0 (eşittir) olarak kabul edilen kullanım dışı davranışa NULL geri dönmek için "spark.sql.legacy.allowNullComparisonResultInArraySort" değerini "true" olarak ayarlamanız gerekir.
COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
İfade için giriş veri türleri işlenemiyor: <expression>.
Daha fazla ayrıntı için bkz. COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
CONCURRENT_QUERY
Sorgunun [id: <queryId>] başka bir örneği, eşzamanlı bir oturum tarafından [mevcut çalıştırma kimliği: <existingQueryRunId> yeni çalıştırma kimliği: <newQueryRunId>] başlatıldı.
CONCURRENT_SCHEDULER_INSUFFICIENT_SLOT
Kümede gereken en az boş yuva sayısı <numTasks>, ancak kümede yalnızca boş <numSlots> yuva vardır. Sorgu durdurulacak veya başarısız olacaktır. Devam etmek için küme boyutunu artırın.
CONCURRENT_STREAM_LOG_UPDATE
Günlükte eşzamanlı güncelleştirme.
<batchId> için birden çok veri akışı işi algılandı.
Aynı anda belirli bir denetim noktası konumunda yalnızca bir akış işleminin çalıştığından emin olun.
CONFIG_NOT_AVAILABLE
Yapılandırma <config> mevcut değil.
CONFLICTING_CLUSTER_CONFIGURATION
Aşağıdaki yapılandırmalar spark.databricks.streaming.realTimeMode.enabled ile çakışıyor: <confNames>. Bu yapılandırmaları küme yapılandırmanızdan kaldırın ve Spark kümenizi yeniden başlatın.
CONFLICTING_DIRECTORY_STRUCTURES
Çakışan dizin yapıları algılandı.
Şüpheli yollar:
<discoveredBasePaths>
Sağlanan yollar bölüm dizinleriyse, lütfen tablonun kök dizinini belirtmek için veri kaynağının seçeneklerinde "basePath" değerini ayarlayın.
Birden çok kök dizin varsa, lütfen bunları ayrı olarak yükleyin ve sonra birleşim yapın.
CONFLICTING_PARTITION_COLUMN_NAMES
Çakışan bölüm sütun adları tespit edildi:
<distinctPartColLists>
Bölümlenmiş tablo dizinleri için veri dosyaları yalnızca yaprak dizinlerde yaşamalıdır.
Aynı düzeydeki dizinler de aynı bölüm sütun adına sahip olmalıdır.
Beklenmeyen dosyalar veya tutarsız bölüm sütun adları için lütfen aşağıdaki dizinleri denetleyin:
<suspiciousPaths>
CONFLICTING_PARTITION_COLUMN_NAME_WITH_RESERVED
Bölüm sütun adı '<partitionColumnName>' ayrılmış sütun adıyla çakişer.
Şeması <tableName> Hive uyumlu değil, Spark tabloyu belirli bir şekilde depolamak için otomatik olarak ayrılmış bir '<partitionColumnName>' sütunu oluşturur.
Bölüm sütunu için farklı bir ad kullanın.
CONFLICTING_PROVIDER
Belirtilen sağlayıcı <provider>, <expectedProvider>mevcut katalog sağlayıcısıyla tutarsız. Lütfen 'USING <expectedProvider>' kullanın ve komutunu yeniden deneyin.
CONFLICTING_SQL_CONFIGURATION
Aşağıdaki yapılandırmalar spark.databricks.streaming.realTimeMode.enabled ile çakışıyor: <confNames>. Bu yapılandırmaları SparkSession yapılandırmanızdan kaldırın.
CONNECT
Genel Spark Connect hatası.
Daha fazla ayrıntı için bkz. CONNECT
CONNECTION_ALREADY_EXISTS
Zaten var olduğundan bağlantı <connectionName> oluşturulamıyor.
Farklı bir ad seçin, mevcut bağlantıyı bırakın veya değiştirin ya da önceden var olan bağlantıları tolere etmek için IF NOT EXISTS yan tümcesini ekleyin.
CONNECTION_NAME_CANNOT_BE_EMPTY
Bağlantı adı boş olmadığından bu komut yürütülemiyor.
CONNECTION_NOT_FOUND
Bağlantı adı <connectionName> bulunamadığından bu komut yürütülemiyor.
CONNECTION_OPTION_NOT_SUPPORTED
'<connectionType>' türündeki bağlantılar aşağıdaki seçenekleri desteklemez: <optionsNotSupported>. Desteklenen seçenekler: <allowedOptions>.
CONNECTION_TYPE_NOT_SUPPORTED
'<connectionType>' türünde bağlantı oluşturulamıyor. Desteklenen bağlantı türleri: <allowedTypes>.
SEÇENEK ENJEKSİYONU İÇİN DESTEKLENMEYEN BAĞLANTI TİPİ
Ad <connectionName> ve tür <connectionType> ile bağlantı, veri çerçevesi seçeneklerinde desteklenmez.
Bağlantı Türü Uzaktan Sorgu İşlevi için Desteklenmiyor - CONNECTION_TYPE_NOT_SUPPORTED_FOR_REMOTE_QUERY_FUNCTION
Uzak sorgu işlevi yürütmesi için '<connectionName>' türünde '<connectionType>' adlı bağlantı desteklenmiyor.
CONNECT_INVALID_PLAN
Spark Connect planı geçersiz.
Daha fazla ayrıntı için bkz. CONNECT_INVALID_PLAN
CONNECT_SESSION_MIGRATION
Genel Oturum Geçişi hatası (userId: <userId>, sessionId: <sessionId>, serverSessionId: <serverSessionId>).
Daha fazla ayrıntı için bkz. CONNECT_SESSION_MIGRATION
CONSTRAINTS_REQUIRE_UNITY_CATALOG
Tablo kısıtlamaları yalnızca Unity Kataloğu'nda desteklenir.
CONSTRAINT_ALREADY_EXISTS
'<constraintName>' kısıtlaması zaten var. Lütfen önce mevcut kısıtlamayı silin.
Mevcut kısıtlama:
<oldConstraint>
CONSTRAINT_ALREADY_EXISTS_IN_SCHEMA
Kısıtlama <constraintName> veritabanında <schemaName>zaten var.
CONSTRAINT_ALREADY_EXISTS_WITH_SERVER_MESSAGE
<serverMessage>
CONSTRAINT_DOES_NOT_EXIST
Tablo <constraintName>'den mevcut olmayan kısıtlama <tableName> kaldırılamıyor.
CONVERSION_INVALID_INPUT
Değer <str> (<fmt>) yanlış biçimlendirilmiş olduğundan değerine dönüştürülemiyor <targetType> . Söz dizimine göre değeri düzeltin veya biçimini değiştirin. Hatalı biçimlendirilmiş girişi tolere etmek ve bunun yerine <suggestion> döndürmek için NULL kullanın.
COPY_INTO_COLUMN_ARITY_MISMATCH
<tableName>'a yazılamıyor, çünkü sebep şu
Daha fazla ayrıntı için bakınız COPY_INTO_COLUMN_ARITY_MISMATCH
COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON
Geçersiz şema <scheme>.
COPY INTO kaynak kimlik bilgileri şu anda yalnızca s3/s3n/s3a/wasbs/abfss'i destekler.
COPY_INTO_CREDENTIALS_REQUIRED
COPY INTO kaynak kimlik bilgileri <keyList>olarak belirtilmelidir.
COPY_INTO_DUPLICATED_FILES_COPY_NOT_ALLOWED
Yinelenen dosyalar eşzamanlı COPY INTO operasyonunda işlendi. Lütfen daha sonra yeniden deneyin.
COPY_INTO_ENCRYPTION_NOT_ALLOWED_ON
Geçersiz şema <scheme>.
COPY INTO kaynak şifrelemesi şu anda yalnızca s3/s3n/s3a/abfss'i destekler.
COPY_INTO_ENCRYPTION_NOT_SUPPORTED_FOR_AZURE
COPY INTO şifrelemesi yalnızca ADLS 2. Nesil'i veya abfss:// dosya düzenini destekler
COPY_INTO_ENCRYPTION_REQUIRED
COPY INTO kaynak şifreleme ''<key> belirtmelidir.
COPY_INTO_ENCRYPTION_REQUIRED_WITH_EXPECTED
geçersiz şifreleme seçeneği <requiredKey>.
COPY INTO kaynak şifreleme '<requiredKey>' = '<keyValue>' olarak belirtilmelidir.
COPY_INTO_FEATURE_INCOMPATIBLE_SETTING
COPY INTO'<feature>' özelliği '<incompatibleSetting>' ile uyumlu değil.
COPY_INTO_NON_BLIND_APPEND_NOT_ALLOWED
Veri ekleme dışındaki COPY INTO diğer işlemlerle eşzamanlı olarak çalışmasına izin verilmez. Lütfen daha sonra yeniden deneyin.
COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED
Azami yeniden deneme sayısı aşıldı; COPY INTO durumunu yükleyemedi.
COPY_INTO_SCHEMA_MISMATCH_WITH_TARGET_TABLE
Delta tablosuna kopyalanırken şema uyuşmazlığı algılandı (Tablo: <table>).
Bu, gelen verilerle ilgili bir sorun olduğunu gösterebilir veya Delta tablosu şeması şu ayarla gelen verilere göre otomatik olarak geliştirilebilir:
COPY_OPTIONS ('mergeSchema' parametresi 'true' olarak ayarlanmıştır)
Şema farkı:
<schemaDiff>
COPY_INTO_SOURCE_FILE_FORMAT_NOT_SUPPORTED
Kaynak dosyaların biçimi CSV, , AVRO, JSONORC, PARQUET, METNEÇEVİr veya BINARYFILEbiçiminde olmalıdır. Delta tablolarında kaynak olarak COPY INTO kullanılması, yinelenen verilerin OPTIMIZE işlemlerinden sonra alınabileceği için desteklenmemektedir. Bu denetim, set spark.databricks.delta.copyInto.formatCheck.enabled = falseSQL komutu çalıştırılarak kapatılabilir.
COPY_INTO_SOURCE_SCHEMA_INFERENCE_FAILED
Kaynak dizin <format>türünde ayrıştırılabilir dosya içermiyor. Lütfen '<source>' içeriğini denetleyin.
'' değeri '<config>false' olarak ayarlanarak hata susturulabilir.
COPY_INTO_STATE_INTERNAL_ERROR
COPY INTO durumu işlenirken bir iç hata oluştu.
Daha fazla ayrıntı için bkz. COPY_INTO_STATE_INTERNAL_ERROR
COPY_INTO_SYNTAX_ERROR
COPY INTO komutu çözümlenemedi.
Daha fazla ayrıntı için bkz "COPY_INTO_SYNTAX_ERROR".
COPY_INTO_UNSUPPORTED_FEATURE
'COPY INTO<feature>' özelliği desteklenmiyor.
COPY_UNLOAD_FORMAT_TYPE_NOT_SUPPORTED
'<formatType>' biçimindeki veriler kaldırılamıyor.
<connectionType> için desteklenen biçimler şunlardır: <allowedFormats>.
CORRUPTED_CATALOG_FUNCTION
Katalogdaki işlev bilgileri bozuk olduğundan '<identifier>' katalog işlevi SQL işlevine dönüştürülemiyor. İşlev bir SQL işlevi değilse lütfen '<className>' sınıf adının yüklenebilir olduğundan emin olun.
CREATE_FOREIGN_SCHEMA_NOT_IMPLEMENTED_YET
CREATE FOREIGN SCHEMA komutu henüz uygulanmadı
CREATE_FOREIGN_TABLE_NOT_IMPLEMENTED_YET
CREATE FOREIGN TABLE komutu henüz uygulanmadı
CREATE_OR_REFRESH_MV_NOT_SUPPORTED
CREATE VEYA REFRESH MATERIALIZED VIEW desteklenmez. Bunun yerine VEYA CREATE kullanınREPLACE MATERIALIZED VIEW.
CREATE_OR_REFRESH_MV_ST_ASYNC
CREATE belirtilen gerçekleştirilmiş görünümler veya akış tabloları REFRESH ya da ASYNC oluşturulamaz. lütfen ASYNC VEYA CREATE deyiminden REFRESH kaldırın veya mevcut gerçekleştirilmiş görünümleri veya akış tablolarını zaman uyumsuz olarak yenilemek için REFRESH ASYNC kullanın.
CREATE_PERMANENT_VIEW_WITHOUT_ALIAS
İfade <name>için açıkça bir takma ad atanmadıkça, kalıcı görünüm <attr> oluşturulmasına izin yok.
CREATE_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
CREATE TABLE column <columnName> , "<optionName>" tanımlayıcıyı birden çok kez belirtir ve bu geçersizdir.
CREATE_VIEW_COLUMN_ARITY_MISMATCH
<viewName>görünüm oluşturulamıyor, bunun nedeni
Daha fazla ayrıntı için bkz. CREATE_VIEW_COLUMN_ARITY_MISMATCH
CREDENTIAL_MISSING
Dış konumları oluştururken veya güncelleştirirken lütfen kimlik bilgilerini sağlayın.
CREDENTIAL_PURPOSE_MISMATCH
Kimliğin <credentialName> amacı <actualPurpose> olarak belirlenmiştir, ancak komuttaki amaç <expectedPurpose> olarak verilmiştir.
CSV_ENFORCE_SCHEMA_NOT_SUPPORTED
enforceSchema veya rescuedDataColumnkullanılırken, sütunlar sıralı yerine ada göre okunduğundan CSV seçeneği failOnUnknownFields ayarlanamaz.
CYCLIC_FUNCTION_REFERENCE
Döngüsel işlev başvurusu algılandı: <path>.
DATABRICKS_DELTA_NOT_ENABLED
Hesabınızda Databricks Delta etkin değil.<hints>
DATAFLOW_GRAPH_NOT_FOUND
Kimliği <graphId> olan veri akışı grafiği bulunamadı
VERİ_TİPİ_SIRALANAMAZ
Tür <dataType> , sıralı işlemleri desteklemez.
DATATYPE_MISMATCH
Veri türü uyuşmazlığı nedeniyle <sqlExpr> çözülemiyor:
Daha fazla ayrıntı için bkz. DATATYPE_MISMATCH
DATATYPE_MISSING_SIZE
DataType <type> bir uzunluk parametresi gerektirir, örneğin <type>(10). Lütfen uzunluğu belirtin.
DATA_LINEAGE_SECURE_VIEW_LEAF_NODE_HAS_NO_RELATION
Veri Kökeni yazma başarısız: CLM/RLS politikalarıyla ilgili karşılık gelen ilişki eksik.
DATA_SOURCE_ALREADY_EXISTS
'<provider>' veri kaynağı zaten var. Lütfen yeni veri kaynağı için farklı bir ad seçin.
DATA_SOURCE_CONNECTION_MISSING_ALLOW_LIST
Yapılandırılmış <connectionName> bir dış seçeneklere izin verme listesi olmadığından bağlantı bu bağlamda desteklenmez. Lütfen bağlantıyı geçerli <optionName>bir içerecek şekilde güncelleştirin.
DATA_SOURCE_EXTERNAL_ERROR
Dış veri kaynağına kaydedilirken hatayla karşılaşıldı.
DATA_SOURCE_NOT_EXIST
'<provider>' veri kaynağı bulunamadı. Lütfen veri kaynağının kayıtlı olduğundan emin olun.
DATA_SOURCE_NOT_FOUND
Veri kaynağı bulunamadı: <provider>. Sağlayıcı adının doğru olduğundan ve paketin düzgün şekilde kaydedildiğinden ve Spark sürümünüzle uyumlu olduğundan emin olun.
DATA_SOURCE_OPTIONS_VALIDATION_FAILED
<dataSource> Veri kaynağı seçenekleri doğrulanamadı.
Daha fazla ayrıntı için bkz. DATA_SOURCE_OPTIONS_VALIDATION_FAILED
DATA_SOURCE_OPTION_CONTAINS_INVALID_CHARACTERS
Seçenek <option> boş olmamalıdır ve geçersiz karakterler, sorgu dizeleri veya parametreler içermemelidir.
DATA_SOURCE_OPTION_IS_REQUIRED
Seçenek <option> gereklidir.
DATA_SOURCE_OPTION_NOT_ALLOWED_BY_CONNECTION
Bağlantıya <optionName> izin verilmez <connectionName> ve dışarıdan sağlanamaz.
VERİ_KAYNAĞI_SEÇENEK_DEĞERİ_GEÇERSİZ
Sağlanan '' veri kaynağı seçeneği<option> geçersiz değer (''<value>) içeriyor.
Daha fazla ayrıntı için bkz. DATA_SOURCE_OPTION_VALUE_NOT_VALID
DATA_SOURCE_SYNTAX_ERROR_DURING_QUERY_EXECUTION
Dış veri kaynağı altyapısı <dataSourceEngine> , '<query>' sorgusunun yürütülmesi sırasında söz dizimi hatası verdi.
<externalEngineError>.
DATA_SOURCE_TABLE_SCHEMA_MISMATCH
Veri kaynağı tablosunun şeması beklenen şemayla eşleşmiyor. DataFrameReader.schema API'sini kullanıyorsanız veya tablo oluşturuyorsanız şemayı belirtmekten kaçının.
Veri Kaynağı şeması: <dsSchema>
Beklenen şema: <expectedSchema>
DATA_SOURCE_URL_NOT_ALLOWED
Veri kaynağı seçeneklerinde JDBC URL'lerine izin verilmiyor, lütfen bunun yerine 'konak', 'bağlantı noktası' ve 'veritabanı' seçeneklerini belirtin.
DATETIME_FIELD_OUT_OF_BOUNDS
<rangeMessage>.
Daha fazla ayrıntı için bkz. DATETIME_FIELD_OUT_OF_BOUNDS
DATETIME_OVERFLOW
Tarih ve saat işlemi taşması hatası: <operation>.
DC_API_QUOTA_EXCEEDED
<sourceName>veri kaynağı için API kotasını aştınız.
Daha fazla ayrıntı için bkz. DC_API_QUOTA_EXCEEDED
DC_CONNECTION_ERROR
<sourceName> kaynağıyla bağlantı oluşturulamadı. Hata kodu: <errorCode>.
Daha fazla ayrıntı için bkz. DC_CONNECTION_ERROR
DC_DYNAMICS_API_ERROR
Dynamics API çağrılarında hata oluştu, errorCode: <errorCode>.
Daha fazla ayrıntı için bkz. DC_DYNAMICS_API_ERROR
DC_NETSUITE_ERROR
Netsuite JDBC çağrılarında hata oluştu, errorCode: <errorCode>.
Daha fazla ayrıntı için bkz. DC_NETSUITE_ERROR
DC_SCHEMA_CHANGE_ERROR
SQLSTATE: hiçbiri atanmadı
<tableName> kaynağının <sourceName> numaralı tablosunda bir şema değişikliği meydana geldi.
Daha fazla ayrıntı için bkz. DC_SCHEMA_CHANGE_ERROR
DC_SERVICENOW_API_ERROR
ServiceNow API çağrılarında hata oluştu, errorCode: <errorCode>.
Daha fazla ayrıntı için bkz. DC_SERVICENOW_API_ERROR
DC_SFDC_BULK_QUERY_JOB_INCOMPLETE
Salesforce API sorgu işi çok uzun sürdüğü, başarısız olduğu veya manuel olarak iptal edildiği için <objName> nesnesinin alımı tamamlanmadı.
Yeniden denemek için işlem hattının tamamını yeniden çalıştırabilir veya bu hedef tabloyu yenileyebilirsiniz. Hata devam ederse bir bilet oluşturun. İş Kimliği: <jobId>. İş durumu: <jobStatus>.
DC_SHAREPOINT_API_ERROR
Sharepoint API çağrılarında hata oluştu, errorCode: <errorCode>.
Daha fazla ayrıntı için bkz. DC_SHAREPOINT_API_ERROR
DC_SOURCE_API_ERROR
<sourceName> API çağrısında bir hata oluştu. Kaynak API türü: <apiType>. Hata kodu: <errorCode>.
Bu durum bazen BIR <sourceName> API sınırına ulaştığınızda gerçekleşebilir. API sınırınızı aşmadıysanız bağlayıcıyı yeniden çalıştırmayı deneyin. Sorun devam ederse lütfen bir talep oluşturun.
DC_UNSUPPORTED_ERROR
<sourceName>veri kaynağında desteklenmeyen hata oluştu.
Daha fazla ayrıntı için bkz. DC_UNSUPPORTED_ERROR
DC_WORKDAY_RAAS_API_ERROR
Workday RAAS API çağrılarında hata oluştu, errorCode: <errorCode>.
Daha fazla ayrıntı için bkz. DC_WORKDAY_RAAS_API_ERROR
DECIMAL_PRECISION_EXCEEDS_MAX_PRECISION
Ondalık hassasiyet <precision>, maksimum hassasiyet <maxPrecision>değerini aşıyor.
DEFAULT_DATABASE_NOT_EXISTS
Varsayılan veritabanı <defaultDatabase> yok, lütfen önce veritabanını oluşturun veya varsayılan veritabanını <defaultDatabase>olarak değiştirin.
DEFAULT_FILE_NOT_FOUND
Temel dosyalar güncellenmiş olabilir. SQL'de 'REFRESH TABLE tableName' komutunu çalıştırarak veya ilgili Veri Kümesini/DataFrame'i yeniden oluşturarak Spark'taki önbelleği açıkça geçersiz kılabilirsiniz. Disk önbelleği eskiyse veya temel alınan dosyalar kaldırılmışsa, kümeyi yeniden başlatarak disk önbelleğini el ile geçersiz kılabilirsiniz.
DEFAULT_PLACEMENT_INVALID
veya DEFAULT komutundaki bir MERGE, INSERT, UPDATESET VARIABLE anahtar sözcük, bir ifadenin parçası olduğundan hedef sütuna doğrudan atanamadı.
Örneğin: UPDATE SET c1 = DEFAULT izin verilir, ancak UPDATE T SET c1 = DEFAULT + 1 izin verilmez.
DEFAULT_UNSUPPORTED
<statementType> komutu, "DEFAULT" tablo sağlayıcısına sahip hedef veri kaynağı için <dataSource> değerleri desteklenmediğinden yürütülemedi.
DEFINE_FLOW_ONCE_OPTION_NOT_SUPPORTED
'Bir kez' seçeneğiyle tek seferlik akış <flowName> tanımlama desteklenmez.
DESCRIBE_JSON_NOT_EXTENDED
DESCRIBE TABLE
...
AS JSON yalnızca [EXTENDED|FORMATTED] belirtildiğinde desteklenir.
Örneğin: DESCRIBE EXTENDED <tableName> AS JSON desteklenir ancak DESCRIBE <tableName> AS JSON desteklenmez.
DIFFERENT_DELTA_TABLE_READ_BY_STREAMING_SOURCE
Akış sorgusu beklenmeyen bir Delta tablosundan (id = '<newTableId>') okuyordu.
Denetim noktasına göre başka bir Delta tablosundan (id = '<oldTableId>') okurdu.
Bu durum, kodu yeni bir tablodan okuyacak şekilde değiştirdiğinizde veya sildiğinizde meydana gelebilir.
bir tabloyu yeniden oluşturdu. Lütfen değişikliğinizi geri alın veya akış sorgusu denetim noktanızı silin
sıfırdan yeniden başlatmak için.
DISTINCT_WINDOW_FUNCTION_UNSUPPORTED
Ayrı pencere işlevleri desteklenmez: <windowExpr>.
DIVIDE_BY_ZERO
Sıfıra bölme. Bölenin 0 olması durumunda bunu tolere etmek ve bunun yerine try_divide döndürmek için NULL kullanın. Gerekirse bu hatayı atlamak için "false" olarak ayarlayın <config> .
Daha fazla ayrıntı için bkz. DIVIDE_BY_ZERO
DLT_EXPECTATIONS_NOT_SUPPORTED
Beklentiler yalnızca Lakeflow Spark Bildirimli İşlem Hatları işlem hattında desteklenir.
DLT_VIEW_CLUSTER_BY_NOT_SUPPORTED
MATERIALIZED Yan tümcesi olan CLUSTER BY VIEW'ler yalnızca Lakeflow Spark Bildirimli İşlem Hatları işlem hattında desteklenir.
DLT_VIEW_LOCATION_NOT_SUPPORTED
MATERIALIZED VIEW konumlar yalnızca Lakeflow Spark Bildirimli İşlem Hatları işlem hattında desteklenir.
DLT_VIEW_SCHEMA_WITH_TYPE_NOT_SUPPORTED
MATERIALIZED VIEW belirtilen türdeki şemalar yalnızca Lakeflow Spark Bildirimli İşlem Hatları işlem hattında desteklenir.
TABLE_CONSTRAINTSDLT_VIEW_DESTEKLENMIYOR
CONSTRAINT görünümdeki yan tümceler yalnızca Lakeflow Spark Bildirimli İşlem Hatları işlem hattında desteklenir.
DML_OPERATIONS_NOT_SUPPORTED_FOR_REMOTE_QUERY_FUNCTION
Uzak sorgu işlevi DML sorgularını desteklemez.
DROP_COMMAND_TYPE_MISMATCH
ile <metadataType>bırakılamazDROP <commandType>.
Bunun yerine DROP <metadataTypeUpper> kullanın.
DROP_SCHEDULE_DOES_NOT_EXIST
Mevcut bir zamanlama veya tetikleyici olmadan SCHEDULE tabloya bırakılamaz.
DUPLICATED_CTE_NAMES
CTE tanımı yinelenen adlara sahip olamaz: <duplicateNames>.
DUPLICATED_FIELD_NAME_IN_ARROW_STRUCT
Arrow Yapısı'nda yinelenen alan adlarına izin verilmiyor, <fieldNames> ile karşılaşıldı.
DUPLICATED_MAP_KEY
Yinelenen eşleme anahtarı <key> bulundu, lütfen giriş verilerini denetleyin.
Yinelenen anahtarları kaldırmak istiyorsanız, sonunda eklenen anahtarın öncelikli olması için "<mapKeyDedupPolicy>" olarak ayarlayabilirsinizLAST_WIN.
DUPLICATED_METRICS_NAME
Ölçüm adı benzersiz değil: <metricName>. Farklı sonuçlara sahip ölçümler için aynı ad kullanılamaz.
Ancak aynı sonuç ve isme sahip birden çok metrik örneğine izin verilir (örneğin, kendi kendine birleşimler).
DUPLICATE_ASSIGNMENTS
Sütunlar veya değişkenler <nameList>, atama hedefi olarak birden çok kez görünüyor.
DUPLICATE_CLAUSES
Yinelenen cümleler bulundu: <clauseName>. Lütfen bunlardan birini kaldırın.
DUPLICATE_CONDITION_IN_SCOPE
Kapsamda yinelenen koşul <condition> bulundu. Lütfen bunlardan birini kaldırın.
DUPLICATE_EXCEPTION_HANDLER
Yinelenen işleyiciler bulundu. Lütfen bunlardan birini kaldırın.
Daha fazla ayrıntı için bkz. DUPLICATE_EXCEPTION_HANDLER
Akış Çoğaltma SQL Yapılandırması
Veri kümesi '<datasetName>' için yinelenen SQL yapılandırması bulundu: '<key>' hem '<flowName1>' hem de '<flowName2>' tarafından tanımlanmıştır.
DUPLICATE_KEY
Yinelenen anahtarlar <keyColumn> bulundu.
DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
<routineName>aynı parametre adına birden çok bağımsız değişken ataması içerdiğinden rutin <parameterName> çağrısı geçersiz.
Daha fazla ayrıntı için bkz. DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
DUPLICATE_ROUTINE_PARAMETER_NAMES
Kullanıcı tanımlı yordamın parametre listesinde yinelenen adlar bulundu <routineName>: <names>.
DUPLICATE_ROUTINE_RETURNS_COLUMNS
Kullanıcı tanımlı yordam RETURNS'in <routineName> yan tümcesindeki sütun listesinde yinelenen sütunlar bulundu: <columns>.
DECLARE İÇİNDEKİ DEĞİŞKEN ADI ÇİFTLENMİŞ
Değişken bildirme listesinde yinelenen <variableName> değişken bulundu. Lütfen bunlardan birini kaldırın.
EMITTING_ROWS_OLDER_THAN_WATERMARK_NOT_ALLOWED
Önceki düğüm, eventTime=<emittedRowEventTime> olan ve current_watermark_value=<currentWatermark>'den daha eski bir satır yayınladı.
Bu, durum bilgisi kullanan operatörlerde yürütme hattının ilerleyen aşamalarında doğruluk sorunlarına yol açabilir.
Lütfen geçerli genel filigran değerinden sonraki satırları çıkarmak için işleç mantığını düzeltin.
EMPTY_JSON_FIELD_VALUE
<dataType> veri türü için boş bir dize ayrıştırılamadı.
EMPTY_LOCAL_FILE_IN_STAGING_ACCESS_QUERY
Hazırlık ortamındaki <operation> sorgusunda yerel dosya boş
EMPTY_SCHEMA_NOT_SUPPORTED_FOR_DATASOURCE
<format> veri kaynağı boş veya iç içe yerleştirilmiş boş şemalar yazmayı desteklemez. Lütfen veri şemasında en az bir veya daha fazla sütun olduğundan emin olun.
ENCODER_NOT_FOUND
Spark SQL iç gösterimine <typeName> türünde bir kodlayıcı bulunamadı.
Giriş türünü '/sql-ref-datatypes.html'<docroot> adresinde desteklenenlerden biriyle değiştirmeyi düşünün.
END_LABEL_WITHOUT_BEGIN_LABEL
Bitiş etiketi <endLabel> başlangıç etiketi olmadan mevcut olmaz.
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_LATEST_WITH_TRIGGER_AVAILABLENOW
Kafka konu başlıklarındaki bölümlerin bazıları, Trigger.AvailableNow ile çalıştırılan sorgu sırasında bitiş uzaklığından daha az olan kullanılabilir uzaklığı rapor eder. Hata geçici olabilir. Sorgunuzu yeniden başlatın ve aynı sorunu görmeye devam ediyorsanız rapor edin.
en son öteleme: <latestOffset>, bitiş öteleme: <endOffset>
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_PREFETCHED
Trigger.AvailableNow içeren Kafka veri kaynağı için, uç uzaklığı her konu bölümü için önceden getirilen uzaklıktan daha düşük veya eşit uzaklık içermelidir. Hata geçici olabilir. Sorgunuzu yeniden başlatın ve aynı sorunu görmeye devam ediyorsanız rapor edin.
önceden getirilen uzaklık: <prefetchedOffset>, bitiş uzaklığı: <endOffset>.
ERROR_READING_AVRO_UNKNOWN_FINGERPRINT
Avro verileri okunurken hata oluştu-- bilinmeyen bir parmak iziyle karşılaşıldı: <fingerprint>, hangi şemanın kullanılacağına emin değil.
Spark bağlamınızı başlattıktan sonra ek şemalar kaydettiyseniz bu durum oluşabilir.
EVENT_LOG_EMPTY
<tableOrPipeline> için olay günlüğünde şema yok ve olay içermiyor. Olaylar oluşturulduktan sonra daha sonra yeniden deneyin
EVENT_LOG_REQUIRES_SHARED_COMPUTE
Atanan veya Yalıtımsız Paylaşılan kümesinden olay günlükleri sorgulanamıyor, lütfen yerine Paylaşılan küme veya Databricks SQL ambarı kullanın.
EVENT_LOG_TVF_UNSUPPORTED_FOR_PIPELINE
EVENT_LOG Table-Valued İşlevi, 'şema' alanı kullanan veya varsayılan depolamaya yayımlayan işlem hatları için desteklenmez.
Olay günlüğünü sorgulamak için işlem hattı ayarlarında event_log alanını belirterek meta veri deposunda yayımlayın.
Daha fazla bilgi için Bkz. Monitor Lakeflow Spark Bildirimli İşlem Hatları işlem hatları belgeleri: https://docs.databricks.com/aws/en/delta-live-tables/observability
EVENT_LOG_UNAVAILABLE
<tableOrPipeline>için kullanılabilir olay günlüğü yok. Lütfen daha sonra olaylar oluşturulduktan sonra yeniden deneyin
EVENT_LOG_UNSUPPORTED_TABLE_TYPE
<tableIdentifier> tablo türü <tableType>olmaktadır.
Olay günlüklerini sorgulama yalnızca gerçekleştirilmiş görünümleri, akış tablolarını veya Lakeflow Spark Bildirimli İşlem Hatları işlem hatlarını destekler
EVENT_TIME_IS_NOT_ON_TIMESTAMP_TYPE
Olay süresi <eventName>, geçersiz bir türe <eventType> sahip, ancak beklenen tür "TIMESTAMP" idi.
EXCEED_LIMIT_LENGTH
Karakter/varchar tipi uzunluk sınırlamasını aşıyor: <limit>.
EXCEL_VERİ_KAYNAĞI_ETKİN_DEĞİL
Excel veri kaynağı bu kümede etkin değil.
EXCEL_FILE_ERROR
'<filePath>' Excel dosyası işlenirken hata oluştu.
Daha fazla ayrıntı için bkz. EXCEL_FILE_ERROR
EXCEL_GEÇERSİZ_OKUMA_SEÇENEĞİ_DEĞERİ
Excel veri kaynağı için geçersiz okuma seçeneği değeri.
Daha fazla ayrıntı için bkz. EXCEL_INVALID_READ_OPTION_VALUE
EXCEL_INVALID_WRITE_OPTION_VALUE (EXCEL_GEÇERSİZ_YAZMA_SEÇENEĞİ_DEĞERİ)
Excel veri kaynağı, '' yazma seçeneği için '<value><option>' değerini desteklemiyor.
Daha fazla bilgi için bkz. EXCEL_INVALID_WRITE_OPTION_VALUE
EXCEL_GEÇERSİZ_YAZMA ŞEMASI
Excel veri kaynağı yazma işlemleri için '<schema>' şemasını desteklemez.
<hint>
EXCEL_PARSING_ERROR
Excel verilerini ayrıştırma hatası.
Daha fazla ayrıntı için bkz. EXCEL_PARSING_ERROR
EXCEL_DESTEKLENMEYEN_YAZMA_SEÇENEĞİ
Excel veri kaynağı '<option>' yazma seçeneğini desteklemiyor.
<hint>
EXCEPT_NESTED_COLUMN_INVALID_TYPE
EXCEPT sütun <columnName> çözümlendi ve StructType olması bekleniyordu, ancak türü <dataType>bulundu.
EXCEPT_OVERLAPPING_COLUMNS
EXCEPT listesindeki sütunlar farklı ve çakışmayan olmalıdır, ancak (<columns>) alındı.
EXCEPT_RESOLVED_COLUMNS_WITHOUT_MATCH
EXCEPT sütunları [<exceptColumns>] çözümlendi, ancak yıldız genişletmesiyle [<expandedColumns>] sütunlarının herhangi biriyle eşleşmiyor.
EXCEPT_UNRESOLVED_COLUMN_IN_STRUCT_EXPANSION
<objectName> yan tümcesindeki EXCEPT sütun/alan adı çözümlenemiyor. Aşağıdakilerden birini mi demek istiyorsunuz: [<objectList>]?
Not: EXCEPT yan tümcesindeki iç içe yerleştirilmiş sütunlar, yapı genişletmesi sırasında niteleyiciler (tablo adı, üst yapı sütun adı vb.) içermeyebilir; iç içe sütunlarla kullanılıyorsa niteleyicileri kaldırmayı deneyin.
EXECUTOR_DISK_OUT_OF_SPACE
Yürütücü diskinin alanı doldu. Varsa lütfen disk kapasitesini artırın. Sunucusuz kullanıyorsanız lütfen destek ekibimize başvurun.
EXEC_IMMEDIATE_DUPLICATE_ARGUMENT_ALIASES
Bu USING komutunun EXECUTE IMMEDIATE yan tümcesi, geçersiz olan aynı diğer adla (<aliases>) birden çok bağımsız değişken içeriyordu; lütfen komutu benzersiz diğer adlar belirtecek şekilde güncelleştirin ve yeniden deneyin.
EXPECT_PERMANENT_TABLE_NOT_TEMP
'<operation>' kalıcı bir tablo bekler ancak <tableName> geçici bir tablodur. Lütfen bunun yerine kalıcı bir tablo belirtin.
EXPECT_PERMANENT_VIEW_NOT_TEMP
'<operation>' kalıcı bir görünüm bekler ancak <viewName> geçici bir görünümdür.
EXPECT_TABLE_NOT_VIEW
'<operation>' bir tablo bekler ancak <viewName> bir görünümdür.
Daha fazla ayrıntı için bkz. EXPECT_TABLE_NOT_VIEW
EXPECT_VIEW_NOT_TABLE
tablo <tableName><operation>desteklemez.
Daha fazla ayrıntı için bkz. EXPECT_VIEW_NOT_TABLE
EXPRESSION_DECODING_FAILED
İfadelerin bir değerine dönüştürülmeye çalışılan bir satırın kodu çözülemedi: <expressions>.
EXPRESSION_ENCODING_FAILED
İfadelerdeki bir değeri <expressions> bir satıra şifrelemek başarısız oldu.
EXPRESSION_TRANSLATION_TO_V2_IS_NOT_SUPPORTED
İfade <expr> v2 ifadesine çevrilemez.
EXPRESSION_TYPE_IS_NOT_ORDERABLE
Sütun ifadesi <expr>, türü <exprType> sıralanabilir bir tür olmadığından sıralanamamaktadır.
EXTERNAL_METASTORE_CLIENT_ERROR
İstemci işlemi başarısız oldu:
Daha fazla ayrıntı için bkz. EXTERNAL_METASTORE_CLIENT_ERROR
EXTERNAL_SHALLOW_CLONE_STILL_EXISTS
Kaynak tabloda <sourceTable> işlem çalıştırılamadı çünkü sığ kopya <targetTable> hala mevcut ve durumu geçersiz. Bu işleme gerçekten devam etmek istiyorsanız, lütfen DROP komutunu açıkça çalıştırarak sığ kopyayı temizleyin.
EXTERNAL_TABLE_INVALID_SCHEME
Dış tablolar <scheme> şemasını desteklemez.
FABRIC_REFRESH_INVALID_SCOPE
'REFRESH FOREIGN <scope> <name>' çalıştırılırken hata oluştu. Doku <scope> doğrudan yenilenemiyor, lütfen bunun yerine Doku Kataloğu'nu yenilemek için 'REFRESH FOREIGN CATALOG <catalogName>' kullanın.
FAILED_EXECUTE_UDF
Kullanıcı tanımlı işlev (<functionName>: (<signature>) => <result>) şu nedenlerle başarısız oldu: <reason>.
FAILED_FUNCTION_CALL
İşlev <funcName>'ın çağrı için hazırlanması başarısız oldu. Lütfen işlevin bağımsız değişkenlerini bir kez daha denetleyin.
FAILED_JDBC
İşlemde JDBC <url> başarısız oldu:
Daha fazla ayrıntı için bkz. FAILED_JDBC
FAILED_PARSE_STRUCT_TYPE
Ayrıştırma yapısı başarısız oldu: <raw>.
FAILED_READ_FILE
dosya <path>okunurken hata oluştu.
Daha fazla ayrıntı için bkz. FAILED_READ_FILE
FAILED_REGISTER_CLASS_WITH_KRYO
Sınıflar Kryo ile kaydedilemedi.
FAILED_RENAME_PATH
"<sourcePath>'i <targetPath> olarak yeniden adlandırılamadı çünkü hedef zaten var."
FAILED_RENAME_TEMP_FILE
FileSystem.rename'in false döndürmesi nedeniyle geçici dosya <srcPath>, <dstPath> olarak yeniden adlandırılamadı.
FAILED_ROW_TO_JSON
Sınıfının <value> satır değeri <class> biçimindeki hedef SQL türüne <sqlType>JSON dönüştürülemedi.
FAILED_TO_CREATE_PLAN_FOR_DIRECT_QUERY
Dosyalar üzerinde doğrudan sorgu için plan oluşturulamadı: <dataSourceType>
FAILED_TO_LOAD_ROUTINE
Rutin <routineName>yüklenemedi.
FAILED_TO_PARSE_TOO_COMPLEX
Olası SQL işlevleri ve başvuruda bulunılan görünümler de dahil olmak üzere deyimi ayrıştırmak için çok karmaşıktı.
Bu hatayı azaltmak için deyimini birden çok, daha az karmaşık öbeklere bölün.
FEATURE_NOT_ENABLED
özellik <featureName> etkinleştirilmedi. Bu özelliği etkinleştirmek için yapılandırma <configKey><configValue> olarak ayarlamayı göz önünde bulundurun.
FEATURE_NOT_ON_CLASSIC_WAREHOUSE
<feature>, Klasik SQL ambarlarında desteklenmez. Bu özelliği kullanmak için Pro veya Sunucusuz SQL ambarı kullanın.
FEATURE_REQUIRES_UC
<feature> Unity Kataloğu olmadan desteklenmez. Bu özelliği kullanmak için Unity Kataloğu'nu etkinleştirin.
FEATURE_UNAVAILABLE
<feature> ortamınızda desteklenmez. Bu özelliği kullanmak için lütfen Databricks Desteği'ne başvurun.
FETCH_FAILED
Karıştırma verileri veya meta verileri getirilirken görev başarısız oldu: <errorString>.
FGAC_ON_DEDICATED_COMPUTE_FAILED
Özel hesaplamada ayrıntılı erişim denetimi (FGAC) aşağıdaki özel durum nedeniyle başarısız oldu: <message>
FIELD_ALREADY_EXISTS
<op> sütunu oluşturulamaz, çünkü <fieldNames> zaten <struct>içinde mevcut.
FIELD_NOT_FOUND
<fieldName>'de böyle bir yapı alanı <fields> yok.
FILE_IN_STAGING_PATH_ALREADY_EXISTS
Hazırlık yolundaki dosya <path> zaten var fakat OVERWRITE ayarlanmadı
FLATMAPGROUPSWITHSTATE_USER_FUNCTION_ERROR
flatMapGroupsWithState içinde kullanıcı tarafından sağlanan işlevde bir hata oluştu. Neden: <reason>
FORBIDDEN_DATASOURCE_IN_SERVERLESS
Sunucusuz işlemde veri kaynağı <source> sorgulamaya izin verilmez. Sunucusuz işlemde yalnızca <allowlist> veri kaynakları desteklenir.
YASAK_KELIME_JDBC_SORGUSU
Sorgu seçeneği <queryOption> yasak anahtar sözcükler içeremez. Lütfen sorgudan aşağıdaki anahtar sözcükleri kaldırın: <keywords>
FORBIDDEN_OPERATION
<statement>üzerinde <objectType> işleme izin verilmez: <objectName>.
FOREACH_BATCH_USER_FUNCTION_ERROR
foreach batch sink'teki kullanıcı tarafından sağlanan işlevde bir hata oluştu. Neden: <reason>
FOREACH_USER_FUNCTION_ERROR
Foreach havuzundaki kullanıcı tarafından sağlanan işlevde bir hata oluştu. Neden: <reason>
FOREIGN_KEY_MISMATCH
Yabancı anahtar ana sütunları <parentColumns>, birincil anahtar alt sütunları <childColumns> ile eşleşmiyor.
FOREIGN_OBJECT_NAME_CANNOT_BE_EMPTY
Yabancı <objectType> adı boş olmamalı, bu yüzden bu komut yürütülemiyor.
FOREIGN_TABLE_CONVERSION_UNSUPPORTED
Tablo, UC Foreign'den UC External'a yükseltme için uygun değil. Reason:
Daha fazla ayrıntı için bkz. FOREIGN_TABLE_CONVERSION_UNSUPPORTED
FOREIGN_VIEW_CONVERSION_UNSUPPORTED
Nesne <objectName> , UC Yönetilen görünümüne dönüştürülmeye uygun değil. Reason:
Daha fazla ayrıntı için bkz. FOREIGN_VIEW_CONVERSION_UNSUPPORTED
FROM_JSON_CONFLICTING_SCHEMA_UPDATES
from_json çıkarımı şu konumda çakışan şema güncelleştirmeleri ile karşılaştı: <location>
FROM_JSON_CORRUPT_RECORD_COLUMN_IN_SCHEMA
from_json columnNameOfCorruptRecord (<columnNameOfCorruptRecord>) mevcut bulundu
JSON ve artık devam edilemez. Lütfen farklı bir değer ayarlayın.
'columnNameOfCorruptRecord' seçeneği.
FROM_JSON_CORRUPT_SCHEMA
from_json çıkarımı şu konumda depolanan şemayı okuyamadı: <location>
FROM_JSON_INFERENCE_FAILED
from_json şemayı çıkaramadı. Lütfen bunun yerine bir tane sağlayın.
FROM_JSON_INFERENCE_NOT_SUPPORTED
from_json çıkarımı yalnızca akış tablolarını tanımlarken desteklenir
FROM_JSON_INVALID_CONFIGURATION
from_json yapılandırması geçersiz:
Daha fazla ayrıntı için bkz. FROM_JSON_INVALID_CONFIGURATION
FROM_JSON_SCHEMA_EVOLUTION_FAILED
from_json <old>'den <new>'ye dönüşemedi
FUNCTION_PARAMETERS_MUST_BE_NAMED
İşlev <function> adlandırılmış parametreler gerektirir. Adları eksik olan parametreler: <exprs>. Tüm parametrelerin adlarını eklemek için işlev çağrısını güncelleştirin( örneğin, <function>(param_name => ...).
GENERATED_COLUMN_WITH_DEFAULT_VALUE
Bir sütun hem varsayılan bir değere hem de bir oluşturma ifadesine sahip olamaz, fakat sütun <colName> hem varsayılan değere sahiptir: (<defaultValue>) hem de oluşturma ifadesine: (<genExpr>).
GET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION
Hive 2.2 ve daha düşük sürümler getTablesByType'ı desteklemez. Lütfen Hive 2.3 veya sonraki bir sürümü kullanın.
GET_WARMUP_TRACING_FAILED
Isınma takibi alınamadı. Neden: <cause>.
GET_WARMUP_TRACING_FUNCTION_NOT_ALLOWED
İşlev get_warmup_tracing() işlevine izin verilmiyor.
GRAPHITE_SINK_INVALID_PROTOCOL
Geçersiz Graphite protokolü: <protocol>.
GRAPHITE_SINK_PROPERTY_MISSING
Grafit havuzu '<property>' özelliği gerektirir.
GROUPING_COLUMN_MISMATCH
Gruplandırma sütunu (<grouping>) gruplandırma sütunlarında <groupingColumns>bulunamıyor.
GROUPING_ID_COLUMN_MISMATCH
grouping_id (<groupingIdColumn>) sütunları gruplandırma sütunlarıyla (<groupByColumns>) eşleşmiyor.
GROUPING_SIZE_LIMIT_EXCEEDED
Gruplandırma kümeleri boyutu <maxSize>'den büyük olamaz.
GROUP_BY_AGGREGATE
GROUP BYiçinde toplama işlevlerine izin verilmez, ancak <sqlExpr>bulunur.
Daha fazla ayrıntı için bkz. GROUP_BY_AGGREGATE
GROUP_BY_POS_AGGREGATE
GROUP BY <index>, toplama işlevi içeren bir ifade <aggExpr>'e gönderme yapar.
GROUP BYiçinde toplam işlevlere izin verilmez.
GROUP_BY_POS_OUT_OF_RANGE
GROUP BY konum <index> seçme listesinde değil (geçerli aralık [1, <size>]).
GROUP_EXPRESSION_TYPE_IS_NOT_ORDERABLE
veri türü <sqlExpr> sıralanabilir bir veri türü olmadığından <dataType> ifadesi gruplandırma ifadesi olarak kullanılamaz.
HDFS_HTTP_ERROR
HDFS'den okumaya çalışırken HTTP isteği başarısız oldu.
Daha fazla ayrıntı için bkz. HDFS_HTTP_ERROR
HINT_UNSUPPORTED_FOR_JDBC_DIALECT
hint seçeneği, JDBC veri kaynağında <jdbcDialect> için desteklenmez. Desteklenen diyalektler ve'dir MySQLDialect, OracleDialectDatabricksDialect.
HIVE_METASTORE_INVALID_PLACEHOLDER_PATH
'spark.databricks.hive.metastore.tablePlaceholderPath' yapılandırması geçersiz bir Hive Metastore tablosu yer tutucu yolu sağladığından sorgu veya komut yürütülemedi. Lütfen geçerli bir yol sağlamak için bu yapılandırmayı yeni bir değerle güncelleştirin ve sorguyu veya komutu yeniden çalıştırın.
HIVE_METASTORE_TABLE_PLACEHOLDER_PATH_NOT_SET
Hive Meta Veri Deposu tablo yer tutucu yolu ayarlanmadığından sorgu veya komut başarısız oldu. Bu, şema konumu DBFS'deyken ve tablo konumu bir nesne/dosya olduğunda gereklidir. Lütfen spark.databricks.hive.metastore.tablePlaceholderPath dosyasını erişiminiz olan bir yola ayarlayın ve sorguyu veya komutu yeniden çalıştırın.
HLL_INVALID_INPUT_SKETCH_BUFFER
<function>'ye geçersiz bir çağrı yapıldı; giriş olarak yalnızca, hll_sketch_agg işlevi tarafından üretilenler gibi, geçerli HLL taslak arabellekleri desteklenir.
HLL_INVALID_LG_K
<function>için geçersiz çağrı; lgConfigK değeri, <min> ile <max>arasında (dahil olmak üzere) olmalıdır: <value>.
HLL_K_MUST_BE_CONSTANT
için geçersiz çağrı <function>; değerin K sabit bir değer olması gerekir, ancak sabit olmayan bir ifade alır.
HLL_UNION_DIFFERENT_LG_K
Taslakların farklı lgConfigK değerleri vardır: <left> ve <right>. farklı allowDifferentLgConfigK değerlerine sahip <function> çağırmak için lgConfigK parametresini true olarak ayarlayın.
HMS_FEDERATION_SHALLOW_CLONE_NOT_FOUND_IN_UC
'<path>' sığ kopya yolu Unity Kataloğu'ndaki bir tabloya çözümlenemedi. Lütfen tablonun mevcut olduğundan ve Unity Kataloğu'na birleştirildiğinden emin olun.
HYBRID_ANALYZER_EXCEPTION
Hem eski sabit nokta çözümleyicisi hem de tek geçişli çözümleyici ile bir sorgu veya komut çözümlendiğinde bir hata oluştu.
Daha fazla ayrıntı için bakınız HYBRID_ANALYZER_EXCEPTION
IDENTIFIER_TOO_MANY_NAME_PARTS
<identifier> , ad parçalarından <limit> daha fazla olduğundan geçerli bir tanımlayıcı değildir.
IDENTITY_COLUMNS_DUPLICATED_SEQUENCE_GENERATOR_OPTION
Yinelenen IDENTITY sütun sıralama oluşturucu seçeneği: <sequenceGeneratorOption>.
IDENTITY_COLUMNS_ILLEGAL_STEP
IDENTITY sütun adımı 0 olamaz.
IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE
DataType <dataType>IDENTITY sütunlarda desteklenmez.
ILLEGAL_DAY_OF_WEEK
Haftanın günü için geçersiz giriş: <string>.
ILLEGAL_STATE_STORE_VALUE
State Store'a geçersiz bir değer verildi
Daha fazla ayrıntı için bkz. ILLEGAL_STATE_STORE_VALUE
INAPPROPRIATE_URI_SCHEME_OF_CONNECTION_OPTION
'' bağlantı seçeneği<uri> için sağlanan uygunsuz URI <option> düzeni nedeniyle bağlantı oluşturulamıyor.
İzin verilen şema(lar): <allowedSchemes>.
URI'de yoksa lütfen bir düzen ekleyin veya izin verilen değerlerden bir düzen belirtin.
INCOMPARABLE_PIVOT_COLUMN
Geçersiz pivot sütunu <columnName>. Pivot sütunları karşılaştırılabilir olmalıdır.
İNCOMPATİBLE_BATCH_VIEW_READ
Görünüm <datasetIdentifier> bir toplu görünüm olup, SparkSession#read kullanılarak referans alınmalıdır. Spark conf pipelines.incompatibleViewCheck.enabled = false ayarlanarak bu denetim devre dışı bırakılabilir.
INCOMPATIBLE_COLUMN_TYPE
<operator> yalnızca uyumlu sütun türlerine sahip tablolarda gerçekleştirilebilir.
<columnOrdinalNumber> tablosunun <tableOrdinalNumber> sütunu, ilk tablonun aynı sütunundaki <dataType1> ile uyumsuz olan türü <dataType2>'dir.<hint>.
INCOMPATIBLE_DATASOURCE_REGISTER
Uyumsuz bir DataSourceRegister algılandı. Uyumsuz kitaplığı sınıf yolundan kaldırın veya güncelleyin. Hata: <message>
INCOMPATIBLE_DATA_FOR_TABLE
<tableName>tablo için uyumsuz veriler yazılamıyor:
Daha fazla bilgi için INCOMPATIBLE_DATA_FOR_TABLE'yi inceleyiniz.
INCOMPATIBLE_JOIN_TYPES
birleştirme türleri <joinType1> ve <joinType2> uyumsuz.
Uyumsuz Akış İzleme Okuma
Görünüm <datasetIdentifier> bir akış görünümüdür ve SparkSession#readStream kullanılarak başvurulmalıdır. Spark conf pipelines.incompatibleViewCheck.enabled = false ayarlanarak bu denetim devre dışı bırakılabilir.
INCOMPATIBLE_VIEW_SCHEMA_CHANGE
Görünüm <viewName> SQL sorgusu uyumsuz bir şema değişikliğine sahip ve sütun <colName> çözümlenemiyor. Beklenen <expectedNum> sütununun <colName> olarak adlandırılmasıydı, ancak <actualCols>olarak alındı.
Lütfen şunu çalıştırarak görünümü yeniden oluşturmayı deneyin: <suggestion>.
INCOMPLETE_TYPE_DEFINITION
Eksik karmaşık tür:
Daha fazla ayrıntı için bkz. INCOMPLETE_TYPE_DEFINITION
INCONSISTENT_BEHAVIOR_CROSS_VERSION
Yükseltmeden dolayı farklı bir sonuç alabilirsiniz
Daha fazla bilgi için bkz. INCONSISTENT_BEHAVIOR_CROSS_VERSION
INCORRECT_NUMBER_OF_ARGUMENTS
<failure>, <functionName> en az <minArgs> bağımsız değişken ve en çok <maxArgs> bağımsız değişken gerektirir.
INCORRECT_RAMP_UP_RATE
<rowsPerSecond> ile satır/saniye en fazla <maxSeconds> olarak ayarlanabilir, ancak 'rampUpTimeSeconds' <rampUpTimeSeconds> olarak belirtilmiştir.
INDETERMINATE_COLLATION
Dize işlemi için hangi harmanlamanın kullanılacağı belirlenemedi. Sıralamayı açıkça ayarlamak için COLLATE yan tümcesini kullanın.
INDETERMINATE_COLLATION_IN_EXPRESSION
<expr> veri türü belirsiz harmanlamalara sahiptir. Sıralamayı açıkça ayarlamak için COLLATE yan tümcesini kullanın.
INDETERMINATE_COLLATION_IN_SCHEMA
Şema şu konumda belirsiz harmanlama içeriyor: [<columnPaths>]. Sıralamayı açıkça ayarlamak için COLLATE yan tümcesini kullanın.
INDEX_ALREADY_EXISTS
Tablo <indexName> üzerinde dizin <tableName> oluşturulamıyor çünkü zaten var.
INDEX_NOT_FOUND
<indexName>tablosunda dizin <tableName> bulunamıyor.
INET_FUNCTIONS_NOT_ENABLED
<functionName> devre dışı bırakıldı veya desteklenmiyor. INET işlevleri henüz genel kullanıma açık değildir.
INFINITE_STREAMING_TRIGGER_NOT_SUPPORTED
Tetikleyici türü <trigger> bu küme türü için desteklenmez.
Farklı bir tetikleyici türü kullanın; örneğin, AvailableNow, Once.
INSERT_COLUMN_ARITY_MISMATCH
<tableName>'a yazılamıyor, çünkü sebep şu
Daha fazla ayrıntı için bkz. INSERT_COLUMN_ARITY_MISMATCH
INSERT_PARTITION_COLUMN_ARITY_MISMATCH
'<tableName>' öğesine yazılamıyor, <reason>:
Tablo sütunları: <tableColumns>.
Statik değerlerle sütunları bölümleme: <staticPartCols>.
Veri sütunları: <dataColumns>.
INSERT_REPLACE_USING_DISALLOW_MISALIGNED_COLUMNS
Yan tümcesindeki USING tüm sütunlar hem hedef hem de kaynak şemalarda aynı konumda görünmelidir.
USING yanlış hizalanmış sütunlar içeren yan tümce desteklenmez.
Aşağıdaki sütunlar yanlış hizalanmış: <misalignedReplaceUsingCols>
INSERT_REPLACE_USING_INVALID_SET_OF_COLUMNS
Tablo bölümlenmelidir ve belirtilen tüm sütunlar tablonun bölüm sütunlarının tam kümesini temsil etmelidir.
Aşağıdaki sütunlar bölüm sütunları değildir: <nonPartitionColumns>
Aşağıdaki bölümleme sütunları eksik: <missingPartitionsColumns>
INSERT_REPLACE_USING_NOT_ENABLED
(...) özelliğini etkinleştirmek INSERT INTO...REPLACE USING için lütfen Databricks temsilcinize başvurun.
INSUFFICIENT_PERMISSIONS
Yetersiz ayrıcalıklar:
<report>
INSUFFICIENT_PERMISSIONS_EXT_LOC
Kullanıcı <user>, dış konum <location>için yeterli ayrıcalıklara sahip değil.
INSUFFICIENT_PERMISSIONS_NO_OWNER
<securableName>sahibi yoktur. Yöneticinizden bir sahip ayarlamasını isteyin.
INSUFFICIENT_PERMISSIONS_OWNERSHIP_SECURABLE
Kullanıcının <securableName>üzerinde mülkiyeti yoktur.
INSUFFICIENT_PERMISSIONS_SECURABLE
Kullanıcının <action> üzerinde <securableName> yetkisi yok.
INSUFFICIENT_PERMISSIONS_SECURABLE_PARENT_OWNER
<securableName> sahibi, <parentSecurableName>sahibinden farklıdır.
INSUFFICIENT_PERMISSIONS_SPARK_CONNECT_CLIENT_SET_CLOUDFETCH_RETENTION_TIMEOUT
İstemcinin CloudFetch sonuçları için özel bir bekletme zaman aşımı ayarlama izni yok.
INSUFFICIENT_PERMISSIONS_STORAGE_CRED
Depolama kimlik bilgisi <credentialName> yeterli ayrıcalıklara sahip değil.
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES
Kullanıcı, temel güvenli öğeler üzerindeki izinler nedeniyle <action> üzerinde <securableName> yapamaz.
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES_VERBOSE
Kullanıcı, temel güvenlik unsurları üzerindeki izinler nedeniyle <action><securableName> gerçekleştiremiyor.
<underlyingReport>
INTERVAL_ARITHMETIC_OVERFLOW
Aralıklarla çalışırken bir tamsayı taşması oluştu.
Daha fazla ayrıntı için bkz. INTERVAL_ARITHMETIC_OVERFLOW
INTERVAL_DIVIDED_BY_ZERO
Sıfıra bölme. Bölenin 0 olması durumunda bunu tolere etmek ve bunun yerine try_divide döndürmek için NULL kullanın.
INVALID_AGGREGATE_FILTER
Toplama işlevinde FILTER<filterExpr> ifadesi geçersiz.
Daha fazla ayrıntı için bkz. INVALID_AGGREGATE_FILTER
INVALID_AGNOSTIC_ENCODER
Geçersiz bir belirsiz kodlayıcı bulundu. AgnosticEncoder örneğini bekler ancak alır <encoderType>. Daha fazla bilgi için '<docroot>/api/java/index.html?org/apache/spark/sql/Encoder.html' bölümüne bakın.
INVALID_ARRAY_INDEX
Dizin <indexValue> sınırların dışına çıktı. Dizinin <arraySize> öğeleri vardır. Geçersiz dizindeki öğeye erişimi tolere etmek ve bunun yerine get() döndürmek için SQL işlevi NULL kullanın.
Daha fazla ayrıntı için bkz. INVALID_ARRAY_INDEX
INVALID_ARRAY_INDEX_IN_ELEMENT_AT
Dizin <indexValue> sınırların dışına çıktı. Dizinin <arraySize> öğeleri vardır. Geçersiz dizindeki öğeye erişimi tolere etmek için try_element_at kullanın ve bunun yerine NULL döndürün.
Daha fazla ayrıntı için bkz. INVALID_ARRAY_INDEX_IN_ELEMENT_AT
INVALID_ARTIFACT_PATH
Adı <name> olan yapıt geçersiz. Ad göreli bir yol olmalıdır ve üst/eşdüzey/yeğen dizinlerine başvuramaz.
INVALID_ATTRIBUTE_NAME_SYNTAX
Öznitelik adında sözdizimi hatası: <name>. Backtick'lerin çiftler halinde göründüğünü, tırnak içinde verilen dizenin tam bir ad bölümü olduğunu ve backtick'in yalnızca tırnak içindeki ad bölümleri içinde kullanıldığını kontrol edin.
INVALID_AUTO_TTL_EXPIRE_IN_DAYS
Otomatik TTL için belirtilen gün sayısı negatif olmamalıdır.
INVALID_AWS_AUTHENTICATION
Lütfen aşağıdaki kimlik doğrulama yöntemlerinden tam olarak birini seçin:
Databricks hizmeti kimlik bilgilerinizin adını (
<serviceCredential>) (spark akışı seçeneği olarak veya küme ortam değişkeni olarak) belirtin.AWS anahtarlarını kullanmak için hem AWS AccessKey (
<awsAccessKey>) hem de SecretAccessKey (<awsSecretKey>) sağlayın.Kinesis kimlik doğrulaması için varsayılan AWS kimlik bilgileri sağlayıcısı zincirini kullanmak amacıyla AWS anahtarlarını veya Databricks hizmeti kimlik bilgilerini sağlamayın.
INVALID_AWS_AUTHENTICATION_EXPLICIT_OPTIONS
Lütfen ya Databricks hizmeti kimlik bilgilerinizin adını belirtin (<serviceCredential>)
VEYA hem <awsAccessKey> hem de <awsSecretKey>
INVALID_BITMAP_POSITION
0 indeksli bit haritası konumu <bitPosition> sınırların ötesinde. Bit eşlem <bitmapNumBits> bit (<bitmapNumBytes> bayt) içeriyor.
INVALID_BOOLEAN_STATEMENT
Koşulda Boole deyimi bekleniyor, ancak <invalidStatement> bulundu.
INVALID_BOUNDARY
Sınır <boundary> geçersiz: <invalidValue>.
Daha fazla ayrıntı için bkz. INVALID_BOUNDARY
INVALID_BUCKET_COLUMN_DATA_TYPE
Kova sütunu için <type> kullanılamaz. Sıralanmış veri türleri kümeleme için desteklenmez.
GEÇERSİZ KOVA SAYISI
Demet sayısı 0'dan büyük olmalı, ancak bucketing.maxBuckets(<bucketingMaxBuckets>) değerinden küçük veya buna eşit olmalıdır. Aldım <numBuckets>.
INVALID_BUCKET_FILE
Geçersiz kova dosyası: <path>.
INVALID_BYTE_STRING
Beklenen biçim ByteString'dir, ancak biçimindedir <unsupported> (<class>).
INVALID_CIDR_RANGE
İşlev <functionName> geçersiz bir CIDR aralığı aldı: <value>.
INVALID_CLONE_SESSION_REQUEST
Geçersiz oturum kopyalama isteği.
Daha fazla ayrıntı için bkz. INVALID_CLONE_SESSION_REQUEST
INVALID_COLUMN_NAME_AS_PATH
Veri kaynağı <datasource> adı dosya yollarında izin verilmeyen bazı karakterler içerdiğinden sütun <columnName> kaydedemiyor. Lütfen yeniden adlandırmak için bir takma ad kullanın.
INVALID_COLUMN_OR_FIELD_DATA_TYPE
Sütun veya alan <name> türündedir, fakat <type> olması gerekmektedir.
INVALID_CONF_VALUE
"<confValue>" yapılandırmasındaki '<confName>' değeri geçersiz.
Daha fazla ayrıntı için bkz. INVALID_CONF_VALUE
INVALID_CONSTRAINT_CHARACTERISTICS (Geçersiz Kısıtlama Özellikleri)
Kısıtlama özellikleri [<characteristics>] çoğaltılıyor veya birbiriyle çakışmaktadır.
INVALID_CORRUPT_RECORD_TYPE
Bozuk kayıtlar için sütun <columnName>, nullable STRING türüne sahip olmalıdır, ancak <actualType> olarak elde edildi.
INVALID_CURRENT_RECIPIENT_USAGE
current_recipient işlevi yalnızca CREATE VIEW deyiminde veya ALTER VIEW deyiminde yalnızca Unity Kataloğu'nda bir paylaşım görünümü tanımlamak için kullanılabilir.
INVALID_CURSOR
İmleç geçersiz.
Daha fazla ayrıntı için bkz. INVALID_CURSOR
GEÇERSİZ_BAĞLANTI_SEÇENEKLERİ_ENJEKSİYONU_İÇİN_VERİ_KAYNAĞI_FORMATI
Adı <connectionName> ve türü <connectionType> olan bağlantı, <actualFormat> biçimini desteklemiyor. Desteklenen biçim: <expectedFormat>.
GEÇERSİZ_VERİKAYNAĞI_SEÇENEĞİ_AŞMA_GİRİŞİMİ
Bağlantı <optionName> üzerindeki <connectionName> seçeneği zaten mevcut ve üzerine yazılamaz.
INVALID_DATETIME_PATTERN
Tanınmayan tarih saat formatı: <pattern>.
Daha fazla ayrıntı için bkz. INVALID_DATETIME_PATTERN
INVALID_DBFS_MOUNT
DBFS Bağlamasına erişilemiyor.
Daha fazla ayrıntı için bkz. INVALID_DBFS_MOUNT
INVALID_DBSQL_CONFIG
<confValue> SQL yapılandırma anahtarı için desteklenmiyor <confKey>
INVALID_DEFAULT_VALUE
<statement> komutu, hedef sütun veya değişken <colName>'in DEFAULT<defaultValue> değeri olması nedeniyle yürütülemedi.
Daha fazla ayrıntı için bkz. INVALID_DEFAULT_VALUE
INVALID_DELIMITER_VALUE
Sınırlayıcı için geçersiz değer.
Daha fazla ayrıntı için bkz. INVALID_DELIMITER_VALUE
INVALID_DEST_CATALOG
SYNC komutunun hedef kataloğu Unity Kataloğu içinde olmalıdır.
<catalog> bulundu.
INVALID_DRIVER_MEMORY
Sistem belleği <systemMemory> en az <minSystemMemory>olmalıdır.
Lütfen Spark yapılandırmasında --driver-memory veya "<config>" seçeneğini kullanarak yığın boyutunu artırın.
GEÇERSİZ_TABLO_SİLME_SEÇENEKLERİ
PURGE komutunda hem FORCE hem de DROP TABLE seçenekleri belirtilemez. ya da PURGEFORCEkullanın, ancak ikisini birden kullanmayın.
INVALID_DYNAMIC_OPTIONS
Geçirilen <option_list> seçenekler yabancı tablo <table_name>için yasaktır.
INVALID_EMPTY_LOCATION
Konum adı boş dize olamaz, ancak <location> verilmiştir.
Geçersiz ortam ayarları bağımlılıkları [INVALID_ENVIRONMENT_SETTINGS_DEPENDENCIES]
Ortam ayarları bağımlılıkları parametresi eksik veya bir dize listesine ayrıştırılamıyor. Beklenen biçim: ["dep1", "dep2"]
INVALID_ENVIRONMENT_SETTINGS_ENVIRONMENT_VERSION
Bu çalışma zamanı sürümü, veri kaynakları için ortam sürümünü desteklemez. Değer: <environmentVersion>.
INVALID_ERROR_CONDITION_DECLARATION
Geçersiz koşul bildirimi.
Daha fazla bilgi için bkz. INVALID_ERROR_CONDITION_DECLARATION
INVALID_ESC
Geçersiz bir kaçış dizesi bulundu: <invalidEscape>. Kaçış dizesi yalnızca bir karakter içermelidir.
INVALID_ESCAPE_CHAR
EscapeChar, yalnızca bir karakter uzunluğunda bir dize olmalıdır, ancak <sqlExpr> elde edildi.
INVALID_EXECUTOR_MEMORY
Yürütücü belleği <executorMemory> en az <minSystemMemory>olmalıdır.
Spark yapılandırmasında --executor-memory seçeneğini veya "<config>" kullanarak yürütücü belleğini artırın.
INVALID_EXPRESSION_ENCODER
Geçersiz bir ifade kodlayıcısı bulundu. ExpressionEncoder örneğini bekler ama <encoderType> alır. Daha fazla bilgi için '<docroot>/api/java/index.html?org/apache/spark/sql/Encoder.html' bölümüne bakın.
INVALID_EXPR_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE
İfade türü dize türünde olmalı, ancak alınmalıdır <exprType>.
INVALID_EXTERNAL_TYPE
Dış tür <externalType>, <type>ifadesinde <expr> türü için geçerli değildir.
INVALID_EXTRACT_BASE_FIELD_TYPE
<base> öğesinden bir değer ayıklanamıyor. Karmaşık bir tür [STRUCT, ARRAY, MAP] gerekiyor ama var <other>.
INVALID_EXTRACT_FIELD
<field>, <expr>'den çıkarılamaz.
INVALID_EXTRACT_FIELD_TYPE
Alan adı null olmayan bir sabit string olmalıdır, ancak şu şekildedir <extraction>.
INVALID_FIELD_NAME
Alan adı <fieldName> geçersiz: <path> bir yapı değil.
INVALID_FLOW_QUERY_TYPE
Akış <flowIdentifier> geçersiz bir ilişki türü döndürür.
Daha fazla ayrıntı için bkz. INVALID_FLOW_QUERY_TYPE
INVALID_FORMAT
Biçim geçersiz: <format>.
Daha fazla ayrıntı için bkz. INVALID_FORMAT
INVALID_FRACTION_OF_SECOND
Saniyeler için geçerli değer aralığı [0, 60] (dahil), ancak sağlanan değer <secAndMicros>. Bu hatayı önlemek için, hata durumunda try_make_timestamp döndüren NULL'ı kullanın.
Bu işlevin oturum varsayılan zaman damgası sürümünü kullanmak istemiyorsanız try_make_timestamp_ntz veya try_make_timestamp_ltzkullanın.
INVALID_GET_DIAGNOSTICS_USAGE
GET
DIAGNOSTICS ifadesinin geçersiz kullanımı.
Daha fazla ayrıntı için bkz. INVALID_GET_DIAGNOSTICS_USAGE
INVALID_GET_DIAGNOSTICS_USAGE_CONDITION_NUMBER_MUST_BE_ONE
GET
DIAGNOSTICS ifadesinin geçersiz kullanımı. Deyimindeki bir koşul numarası için desteklenen tek değer 1'dir GETDIAGNOSTICS .
INVALID_HANDLE
tanıtıcı <handle> geçersiz.
Daha fazla ayrıntı için bkz. INVALID_HANDLE
INVALID_HANDLER_DECLARATION
Geçersiz işleyici bildirimi.
Daha fazla ayrıntı için bkz. INVALID_HANDLER_DECLARATION
INVALID_HTTP_REQUEST_METHOD
Giriş parametresi: method, value: <paramValue> geçerli bir HTTP yöntemi olmadığından http_request için geçerli bir parametre değildir.
INVALID_HTTP_REQUEST_PATH
Yol geçişi izin verilmediğinden giriş parametresi: path, value: <paramValue> http_request için geçerli bir parametre değil.
INVALID_IDENTIFIER
<ident> okunmamış tanımlayıcı geçersiz ve <ident>olarak tırnak içine alınması gerekir.
Tırnak içinde olmayan tanımlayıcılar yalnızca ASCII harf ('a' - 'z', 'A' - 'Z'), rakamlar ('0' - '9') ve alt çizgi ('_') içerebilir.
Tırnak ile belirtilmemiş tanımlayıcılar da bir basamakla başlamamalıdır.
Farklı veri kaynakları ve meta depoları geçerli tanımlayıcılara ek kısıtlamalar uygulayabilir.
INVALID_INDEX_OF_ZERO
Dizin 0 geçersiz. Bir dizin 0 olmalıdır < 0 or > (ilk öğede dizin 1 vardır).
INVALID_INLINE_TABLE
Geçersiz satır içi tablo.
Daha fazla ayrıntı için bkz. INVALID_INLINE_TABLE
INVALID_INTERVAL_FORMAT
'<input>' öğesini interval olarak ayrıştırma hatası. Sağlanan değerin bir aralık tanımlamak için geçerli bir biçimde olduğundan emin olun. Doğru biçim için belgelere başvurabilirsiniz.
Daha fazla ayrıntı için INVALID_INTERVAL_FORMAT'u inceleyin.
INVALID_INTERVAL_WITH_MICROSECONDS_ADDITION
Mikrosaniye bölümü 0 olmadığından tarihe aralık eklenemiyor. Bu sorunu çözmek için giriş tarihini, sıfır mikrosaniye olmayan aralıkların eklenmesini destekleyen bir zaman damgasına dönüştürebilirsiniz.
INVALID_IP_ADDRESS
İşlev <functionName> geçersiz bir IP adresi aldı: <value>.
INVALID_IP_ADDRESS_OR_CIDR_RANGE
İşlev <functionName> geçersiz bir IP adresi veya CIDR aralığı aldı: <value>.
INVALID_JAVA_IDENTIFIER_AS_FIELD_NAME
<fieldName> Geçerli bir Java tanımlayıcısı değildir ve alan adı olarak kullanılamaz
<walkedTypePath>.
INVALID_JDBC_CONNECTION_OPTION
Bu seçenek <optionKey> bu jdbc bağlantısı için geçerli bir parametre değil.
INVALID_JDBC_CONNECTION_OPTION_VALUE
Değer <optionKey> içeren seçenek <optionValue> bu jdbc bağlantısı için geçerli bir seçenek değil.
INVALID_JOIN_TYPE_FOR_JOINWITH
joinWith'te geçersiz birleştirme türü: <joinType>.
INVALID_JSON_DATA_TYPE
'JSON' dizesi bir veri türüne dönüştürülemedi<invalidType>. Lütfen geçerli bir veri türü girin.
INVALID_JSON_DATA_TYPE_FOR_COLLATIONS
Harmanlamalar yalnızca dize türlerine uygulanabilir, ancak JSON veri türü şeklindedir <jsonType>.
INVALID_JSON_RECORD_TYPE
modunda JSONortak bir <failFastMode> şema çıkararken geçersiz bir kayıt türü algılandı. Bir STRUCT türü bekleniyor, ancak <invalidType> bulundu.
INVALID_JSON_ROOT_FIELD
Kök alan hedef Spark türüne dönüştürülemiyor JSON .
INVALID_JSON_SCHEMA_MAP_TYPE
Giriş şeması <jsonSchema> yalnızca STRINGiçin anahtar türü olarak MAP içerebilir.
INVALID_KRYO_SERIALIZER_BUFFER_SIZE
"<bufferSizeConfKey>" yapılandırmasının değeri 2048 MiB'den küçük olmalıdır, ancak değeri <bufferSizeConfValue> MiB olarak geldi.
INVALID_KRYO_SERIALIZER_NO_DATA - Geçersiz Kryo Seri Kodlayıcı: Veri Yok
'<obj>' nesnesi <serdeOp> kullanılarak <serdeClass> için geçersiz veya hatalı biçimlendirilmiş.
INVALID_LABEL_USAGE
Etiket <labelName> kullanımı geçersiz.
Daha fazla ayrıntı için bkz. INVALID_LABEL_USAGE
INVALID_LAMBDA_FUNCTION_CALL
Geçersiz lambda işlev çağrısı.
Daha fazla ayrıntı için bkz. INVALID_LAMBDA_FUNCTION_CALL
INVALID_LATERAL_JOIN_TYPE
<joinType> ile bağıntı kurulan JOINLATERAL'e izin verilmemektedir çünkü bir OUTER alt sorgusu birleştirme ortağıyla ilişkilendirilemez. bunun yerine LATERAL bağıntısını kaldırın veya INNERJOINveya LEFT OUTERJOIN kullanın.
INVALID_LIMIT_LIKE_EXPRESSION
İfade <expr> gibi sınır geçersiz.
Daha fazla ayrıntı için bkz. INVALID_LIMIT_LIKE_EXPRESSION
INVALID_LOG_VERSION
UnsupportedLogVersion.
Daha fazla ayrıntı için bkz. INVALID_LOG_VERSION
INVALID_NAME_IN_USE_COMMAND
<name> komutunda geçersiz '<command>' adı. Neden: <reason>
INVALID_NON_ABSOLUTE_PATH
Sağlanan mutlak olmayan yol <path> nitelendirilemiyor. Lütfen yolu geçerli bir dbfs bağlama konumu olacak şekilde güncelleştirin.
INVALID_NON_DETERMINISTIC_EXPRESSIONS
Operatör belirleyici bir ifade bekliyor, ancak gerçek ifade <sqlExprs>.
INVALID_NUMERIC_LITERAL_RANGE
Sayısal değişmez <rawStrippedQualifier>, minimum değeri <typeName> ve maksimum değeri <minValue>olan <maxValue> için geçerli aralığın dışındadır. Lütfen değeri buna göre ayarlayın.
INVALID_OBSERVED_METRICS
Geçersiz gözlemlenen ölçümler.
Daha fazla ayrıntı için bkz. INVALID_OBSERVED_METRICS
INVALID_OPTIONS
Geçersiz seçenekler:
Daha fazla ayrıntı için bakınız INVALID_OPTIONS
INVALID_PANDAS_UDF_PLACEMENT
Pandas grup toplama UDF'si <functionList>, pandas dışındaki diğer toplama fonksiyonlarıyla birlikte kullanılamaz.
INVALID_PARAMETER_MARKER_VALUE
Geçersiz parametre eşlemesi sağlandı:
Daha fazla ayrıntı için bkz. INVALID_PARAMETER_MARKER_VALUE
INVALID_PARAMETER_VALUE
<parameter>'daki parametrelerin <functionName> değeri geçersiz:
Daha fazla ayrıntı için bkz. INVALID_PARAMETER_VALUE
INVALID_PARTITION_COLUMN_DATA_TYPE
Bölüm sütunu için <type> kullanılamaz.
INVALID_PARTITION_OPERATION
Bölme komutu geçersiz.
Daha fazla ayrıntı için bkz. INVALID_PARTITION_OPERATION
INVALID_PARTITION_VALUE
Değer <value>, bölüm sütunu <dataType>için veri türü <columnName>'ye dönüştürülemedi. Değerin bu bölüm sütunu için beklenen veri türüyle eşleştiğinden emin olun.
INVALID_PIPELINE_ID
İşlem hattı kimliği <pipelineId> geçerli değil.
İşlem hattı kimliği, 'xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx' formatında bir UUID olmalıdır.
INVALID_PRIVILEGE
Ayrıcalık <privilege><securable>için geçerli değil.
INVALID_PROPERTY_KEY
<key> geçersiz bir özellik anahtarıdır, lütfen tırnak işareti kullanın; örneğin, SET <key>=<value>.
INVALID_PROPERTY_VALUE
<value> geçersiz bir özellik değeridir, lütfen tırnak işaretleri kullanın, örneğin, SET <key>=<value>
INVALID_QUALIFIED_COLUMN_NAME
<columnName> sütun adı, bir tablo adıyla nitelenmediğinden veya 4'ten fazla ad parçasından oluştuğundan geçersiz.
INVALID_QUERY_MIXED_QUERY_PARAMETERS
Parametreli sorgu konumsal veya adlandırılmış parametreler kullanmalıdır, ancak ikisini birden kullanmamalıdır.
INVALID_RECURSIVE_CTE
Geçersiz özyinelemeli tanım bulundu. Özyinelemeli sorgular, 2 alt öğeli bir UNION veya bir UNION ALL ifadesi içermelidir. İlk çocuk, özyinelemeli başvurular olmadan anakara terimi olmalıdır. Herhangi bir üst düzey iç CTE'ler kendine referans içermemelidir.
INVALID_RECURSIVE_REFERENCE
İç WITH RECURSIVE yan tümcesinde geçersiz özyinelemeli başvuru bulundu.
Daha fazla ayrıntı için bkz. INVALID_RECURSIVE_REFERENCE
INVALID_REGEXP_REPLACE
Kaynak = "<source>", desen = "<pattern>", değiştirme = "<replacement>" ve konum = <position> için regexp_replace gerçekleştirilemedi.
INVALID_RESETTABLE_DEPENDENCY
Tablolar <upstreamResettableTables> sıfırlanabilir, ancak <downstreamTable> bağımlılığı sıfırlanamaz.
reset Spark Streaming silinen kaynak verileri desteklemediğinden başarısız olur. =false özelliğini '<resetAllowedKey>' öğesinden kaldırabilir <downstreamTable>veya yukarı akış bağımlılıklarına ekleyebilirsiniz.
INVALID_RESET_COMMAND_FORMAT
Beklenen biçim : 'RESET' veya 'RESET key'. Anahtara özel karakterler eklemek istiyorsanız, lütfen tırnak işareti kullanın; örneğin, RESET key.
INVALID_RESIGNAL_USAGE
RESIGNAL işleyici etkin olmadığında.
RESIGNAL deyimi yalnızca Özel Durum İşleyicisi gövdesi içinde kullanılabilir.
INVALID_S3_COPY_CREDENTIALS
COPY INTOkimlik bilgileri , ve AWS_ACCESS_KEY, AWS_SECRET_KEYiçermelidirAWS_SESSION_TOKEN.
INVALID_SAVE_MODE
Belirtilen kaydetme modu <mode> geçersiz. Geçerli kaydetme modları "append", "overwrite", "ignore", "error", "errorifexists" ve "default" değerlerini içerir.
INVALID_SCHEMA
Giriş şeması <inputSchema> geçerli bir şema dizesi değil.
Daha fazla ayrıntı için bkz. INVALID_SCHEMA
INVALID_SCHEMA_OR_RELATION_NAME
<name> tablolar/şemalar için geçerli bir ad değildir. Geçerli adlar yalnızca alfabe karakterlerini, sayıları ve _ karakterlerini içerir.
INVALID_SCHEMA_TYPE_NON_STRUCT
Geçersiz şema türü. Bir yapı türü bekleniyordu, ancak <dataType> alındı.
INVALID_SCHEME
Unity kataloğu, varsayılan dosya düzeni olarak <name> desteklemez.
INVALID_SECRET_LOOKUP
Geçersiz gizli arama
Daha fazla ayrıntı için bkz. INVALID_SECRET_LOOKUP
INVALID_SET_SYNTAX
Beklenen biçim : 'SET', 'SET key', veya 'SET key=value'. Anahtara özel karakterler eklemek veya değere noktalı virgül eklemek istiyorsanız, lütfen ters tırnaklar kullanın; örneğin, SET key=value.
INVALID_SHARED_ALIAS_NAME
Takma ad <sharedObjectType> ismi "schema.name" biçiminde olmalıdır.
INVALID_SINGLE_VARIANT_COLUMN
Seçenek etkinleştirildiğinde kullanıcı tarafından <schema> belirtilen şema singleVariantColumn geçersiz. Şema bir değişken alanı veya değişken alanı artı bozuk bir sütun alanı olmalıdır.
INVALID_SOURCE_CATALOG
SYNC komutu için kaynak kataloğun Unity Kataloğu içinde olmaması gerekir.
<catalog> bulundu.
INVALID_SOURCE_FOR_FILTERING_SERVICE_MERGE_COMMAND
Filtreleme hizmeti MERGE işleminin kaynağı yalnızca projeksiyonlar ve filtreler içerebilir.
Lütfen MERGE komutunu ayarlayın veya bunun yerine kaynak olarak bir hazırlama tablosu kullanın.
<stmt>
INVALID_SPARK_CONFIG
Geçersiz Spark yapılandırması:
Daha fazla ayrıntı için bkz. INVALID_SPARK_CONFIG
INVALID_SQLSTATE
Geçersiz SQLSTATE değer: '<sqlState>'.
SQLSTATE tam olarak 5 karakter uzunluğunda olmalı ve yalnızca A-Z ve 0-9 içermelidir.
SQLSTATE '00', '01' veya 'XX' ile başlamamalıdır.
INVALID_SQL_ARG
<name> bağımsız değişkeni sql() için geçersiz. Bunu bir SQL değişmez değeriyle veya gibi map(), array(), struct()koleksiyon oluşturucu işlevleriyle değiştirmeyi göz önünde bulundurun.
INVALID_SQL_FUNCTION_DATA_ACCESS
Tablo/görünüme veya SQL verilerini okuyan bir SQL işlevine erişen SQL ile CONTAINS SQL işlevi oluşturulamaz. Lütfen bunun yerine SQL DATA kullanın READS .
INVALID_SQL_SYNTAX
Geçersiz SQL söz dizimi:
Daha fazla ayrıntı için bkz. INVALID_SQL_SYNTAX
INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY
Hazırlama <operation> sorgusunda geçersiz hazırlık yolu: <path>
INVALID_STATEMENT_FOR_EXECUTE_INTO
INTO'in EXECUTE IMMEDIATE hükmü yalnızca sorgular için geçerlidir, ancak verilen ifade bir sorgu değildir: <sqlString>.
INVALID_STATEMENT_OR_CLAUSE
İfade veya yan tümce: <operation> geçerli değil.
GEÇERSİZ_AKIS_ORANI_KAYNAK_SÜRÜMÜ
Oran kaynağı için geçersiz sürüm: <version>. Sürüm 1 veya 2 olmalıdır.
INVALID_STREAMING_REAL_TIME_MODE_TRIGGER_INTERVAL
Gerçek zamanlı tetikleyici aralığı ms olarak <interval> ayarlanır. Bu, spark.databricks.streaming.realTimeMode.minBatchDuration tarafından belirtilen ms minimum değerinden <minBatchDuration> küçüktür.
INVALID_STREAMING_REAL_TIME_MODE_TRIGGER_OVERRIDE_INTERVAL
Gerçek zamanlı tetikleyicinin denetim noktası aralığı <interval> ayrıştırılamadı. Lütfen pozitif bir tamsayı geçtiğinizi doğrulayın.
INVALID_SUBQUERY_EXPRESSION
Geçersiz alt sorgu:
Daha fazla ayrıntı için bkz. INVALID_SUBQUERY_EXPRESSION
INVALID_TARGET_FOR_ALTER_COMMAND
ALTER <commandTableType>
...
<command> ,'i desteklemez <tableName>. Bunun yerine lütfen kullanın ALTER <targetTableType>...<command> .
INVALID_TARGET_FOR_SET_TBLPROPERTIES_COMMAND
ALTER <commandTableType>
...
SET TBLPROPERTIES ,'i desteklemez <tableName>. Bunun yerine lütfen kullanın ALTER <targetTableType>...SET TBLPROPERTIES .
INVALID_TEMP_OBJ_REFERENCE
<objName>türündeki geçici nesne <obj>'ye başvurduğu için, <tempObjName> türündeki kalıcı nesne <tempObj> oluşturulamıyor. Geçici nesne <tempObjName>'ı kalıcı hale getirin ya da kalıcı nesne <objName>'i geçici hale getirin.
INVALID_TIMESTAMP_FORMAT
Sağlanan zaman damgası <timestamp> beklenen söz dizimi <format>ile eşleşmiyor.
INVALID_TIMEZONE
Saat dilimi: <timeZone> geçersiz. Saat dilimi, bölge tabanlı bir bölge kimliği veya zaman dilimi farkı olmalıdır. Bölge kimlikleri 'Amerika/Los_Angeles' gibi 'alan/şehir' biçiminde olmalıdır. Bölge uzaklıkları '(+|-)SS', '(+|-)SS:mm' veya '(+|-)SS:mm:ss' biçiminde olmalı, örneğin '-08' , '+01:00' veya '-13:33:33' biçiminde olmalı ve -18:00 ile +18:00 arasında olmalıdır. 'Z' ve 'UTC', '+00:00' eş anlamlıları olarak kabul edilir.
INVALID_TIME_TRAVEL_SPEC
Tabloya zaman yolculuğu yaparken hem sürüm hem de zaman damgası belirtilemez.
INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
Zaman yolculuğu zaman damgası ifadesi <expr> geçersiz.
Daha fazla ayrıntı için bkz. INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
INVALID_TYPED_LITERAL
Girilen değişmez değer <valueType> geçersiz: <value>.
INVALID_UDF_IMPLEMENTATION
İşlev <funcName> ScalarFunction veya AggregateFunction uygulamaz.
INVALID_UPGRADE_SYNTAX
<command> <supportedOrNot> kaynak tablo Hive Meta Veri Deposu'nda ve hedef tablo Unity Kataloğu'ndadır.
INVALID_URL
URL geçersiz: <url>. Geçersiz URL'yi tolere etmek ve bunun yerine try_parse_url döndürmek için NULL kullanın.
INVALID_USAGE_OF_STAR_OR_REGEX
<elem>'un <prettyName>'de geçersiz kullanımı.
INVALID_UTF8_STRING
Dizede geçersiz UTF8 bayt dizisi bulundu: <str>.
INVALID_UUID
Giriş <uuidInput> geçerli bir UUID değil.
UUID değeri 'xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx' biçiminde olmalıdır.
Lütfen UUID'nin biçimini denetleyin.
INVALID_VARIABLE_DECLARATION
Geçersiz değişken bildirimi.
Daha fazla ayrıntı için bkz. INVALID_VARIABLE_DECLARATION
INVALID_VARIANT_CAST
<value> değişken değeri <dataType>içine aktarılamaz. Lütfen bunun yerine try_variant_get kullanın.
INVALID_VARIANT_FROM_PARQUET
Geçersiz değişken.
Daha fazla ayrıntı için bkz. INVALID_VARIANT_FROM_PARQUET
INVALID_VARIANT_GET_PATH
<path> yolu, <functionName>geçerli bir değişken ayıklama yolu değildir.
Geçerli bir yol ile $ başlamalıdır ve ardından , veya gibi [123], .name, ['name']["name"]sıfır veya daha fazla kesim vardır.
INVALID_VARIANT_SHREDDING_SCHEMA
Şema <schema> geçerli bir değişken parçalama şeması değildir.
INVALID_WHERE_CONDITION
WHERE koşulu <condition> geçersiz ifadeler içeriyor: <expressionList>.
WHERE yan tümcesinde pencere işlevlerini, toplama işlevlerini ve oluşturucu işlevlerini önlemek için sorguyu yeniden yazın.
INVALID_WINDOW_SPEC_FOR_AGGREGATION_FUNC
ORDER BY veya <aggFunc> için bir pencere çerçevesi belirtilemez.
INVALID_WITHIN_GROUP_EXPRESSION
Geçersiz işlev <funcName> ile WITHIN GROUP.
Daha fazla ayrıntı için bkz. INVALID_WITHIN_GROUP_EXPRESSION
INVALID_WRITER_COMMIT_MESSAGE
Veri kaynağı yazıcısı geçersiz sayıda işleme iletisi oluşturdu. Her görevden bir yazar taahhüt mesajı bekleniyor, ama <detail> alındı.
INVALID_WRITE_DISTRIBUTION
İstenen yazma dağıtımı geçersiz.
Daha fazla ayrıntı için bkz. INVALID_WRITE_DISTRIBUTION
IRC_CREDENTIAL_VENDING_ERROR
IRC konağına bağlanırken bir hata oluştu, tablo <tableIdentifier>için kimlik bilgileri vend edilemedi.
Daha fazla ayrıntı için bkz. IRC_CREDENTIAL_VENDING_ERROR
ISOLATED_COMMAND_FAILURE
<command>yürütülemedi. Komut çıktısı:
<output>
ISOLATED_COMMAND_UNKNOWN_FAILURE
<command>yürütülemedi.
ISOLATION_ENVIRONMENT_ERROR
Bir sistem hatası nedeniyle için <name> ortam bağımlılıkları yüklenemedi.
Daha fazla ayrıntı için bkz. ISOLATION_ENVIRONMENT_ERROR
ISOLATION_ENVIRONMENT_USER_ERROR
için ortam bağımlılıkları yüklenemedi <name>.
Daha fazla ayrıntı için bkz. ISOLATION_ENVIRONMENT_USER_ERROR
JDBC_EXTERNAL_ENGINE_SYNTAX_ERROR
JDBC dış altyapı söz dizimi hatası. Hata <jdbcQuery> sorgusundan kaynaklandı.
<externalEngineError>.
Daha fazla ayrıntı için bkz. JDBC_EXTERNAL_ENGINE_SYNTAX_ERROR
JOIN_CONDITION_IS_NOT_BOOLEAN_TYPE
Birleştirme koşulu <joinCondition>, geçersiz türe <conditionType> sahip, olması bekleniyor "BOOLEAN".
KAFKA_DATA_LOSS
Bazı veriler artık Kafka'da kullanılamadığından kaybolmuş olabilir;
Veriler Kafka tarafından zaman aşımına uğramış veya konu, tüm veriler içinde olmadan önce silinmiş olabilir.
konu işlendi.
Akış sorgunuzun bu tür durumlarda başarısız olmasını istemiyorsanız failOnDataLoss kaynak seçeneğini false olarak ayarlayın.
Reason:
Daha fazla ayrıntı için bkz. KAFKA_DATA_LOSS
KINESIS_COULD_NOT_READ_SHARD_UNTIL_END_OFFSET
parça <endSeqNum> için istenen sıra numarası <shardId> kadar okunamadı
tüketici modu <stream>ile kinesis akışı <consumerMode>. Sorgunun başarısız olması
olası veri kaybı. Son okuma kaydı <lastSeqNum>sıra numarasındaydı.
endSeqNum içeren veriler zaten eskidiyse veya Kinesis akışı eskidiyse bu durum oluşabilir
silindi ve aynı adla yeniden yapılandırıldı. Hata davranışı geçersiz kılınabilir
Spark yapılandırmasında spark.databricks.kinesis.failOnDataLoss değerini false olarak ayarlayarak.
KINESIS_EFO_CONSUMER_NOT_FOUND
Kinesis akışı <streamId> için, önceden kaydedilmiş olan akışın EFO tüketicisi <consumerId> silinmiştir.
Yeni bir tüketicinin kaydedilmesi için sorguyu yeniden başlatın.
KINESIS_EFO_SUBSCRIBE_LIMIT_EXCEEDED
Parça <shard>için subscribeToShard API'sinin önceki çağrısı, sonraki çağrının 5 saniye içinde yapıldı.
5 saniye veya daha fazla süre sonra sorguyu yeniden başlatın.
KINESIS_FETCHED_SHARD_LESS_THAN_TRACKED_SHARD
Kinesis'ten alınan en düşük parçacık kimliği (<fetchedShardId>)
en düşük izlenen parça kimliğinden (<trackedShardId>) daha küçüktür.
Bu beklenmeyen bir durumdur ve bir Kinesis akışı silindiğinde ve aynı adla yeniden oluşturulduğunda oluşur.
ve bu Kinesis akışını kullanan bir akış sorgusu mevcut bir denetim noktası konumu kullanılarak yeniden başlatılır.
Akış sorgusunu yeni bir denetim noktası konumuyla yeniden başlatın veya yeni bir adla bir akış oluşturun.
KINESIS_POLLING_MODE_UNSUPPORTED
Kinesis yoklama modu desteklenmiyor.
KINESIS_RECORD_SEQ_NUMBER_ORDER_VIOLATION
Parça <shard>için, önceki çağırmalarda Kinesis'ten okunan son kaydın sıra numarası <lastSeqNum>'dir.
bu, <recordSeqNum>sıra numarasıyla şu anki getirmede okunan kayıttan büyüktür.
Bu beklenmeyen bir durumdur ve yeniden denemenin veya bir sonraki getirmenin başlangıç konumu yanlış tanımlandığında ortaya çıkabilir ve bu, daha sonraki aşamalarda yinelenen kayıtlara yol açabilir.
KINESIS_SOURCE_MUST_BE_IN_EFO_MODE_TO_CONFIGURE_CONSUMERS
Tüketici yapılandırmalarına (consumerName, consumerNamePrefixveya registeredConsumerId) consumerMode sahip Kinesis Akışlarından okumak için olmalıdır efo.
KINESIS_SOURCE_MUST_SPECIFY_REGISTERED_CONSUMER_ID_AND_TYPE
Kayıtlı tüketicileri bulunan Kinesis Akışlarından okumak için hem registeredConsumerId hem de registeredConsumerIdType seçeneklerini belirtmelisiniz.
KINESIS_SOURCE_MUST_SPECIFY_STREAM_NAMES_OR_ARNS
Kinesis Akışlarından okumak için, streamName veya streamARN seçeneklerinden birini (her ikisini birden değil) akış adlarının/ARN'lerin virgülle ayrılmış bir listesi olarak yapılandırmanız gerekir.
KINESIS_SOURCE_NO_CONSUMER_OPTIONS_WITH_REGISTERED_CONSUMERS
Kayıtlı tüketicileri olan Kinesis Akışlarından okumak için, consumerName veya consumerNamePrefix seçeneklerini etkin olmayacakları için yapılandırmayın.
KINESIS_SOURCE_REGISTERED_CONSUMER_ID_COUNT_MISMATCH
Kayıtlı tüketici kimliklerinin sayısı Kinesis akışlarının sayısına eşit olmalıdır, ancak <numConsumerIds> tüketici kimliği ve <numStreams> akışı bulundu.
KINESIS_SOURCE_REGISTERED_CONSUMER_NOT_FOUND
Verilen kayıtlı tüketici <consumerId>, streamARN <streamARN>için bulunamıyor. Tüketiciyi kaydettiğinizi veya registeredConsumerId seçeneğini sağlamadığınızdan emin olun.
KINESIS_SOURCE_REGISTERED_CONSUMER_TYPE_INVALID
Kayıtlı tüketici türü <consumerType> geçersiz.
name veya ARNolmalıdır.
KLL_SKETCH_INCOMPATIBLE_MERGE
işlevi <functionName>için KLL taslaklarını birleştiremez: <reason>
KLL_SKETCH_INVALID_INPUT
işlevi <functionName>için geçersiz KLL taslağı ikili verileri: <reason>
KLL_SKETCH_INVALID_QUANTILE_RANGE
işlevi <functionName>için, nicel değeri 0,0 ile 1,0 (dahil) arasında olmalıdır, ancak alınmalıdır <quantile>.
KLL_SKETCH_K_MUST_BE_CONSTANT
işlevi <functionName>için, k parametresi sabit bir değer olmalıdır, ancak sabit olmayan bir ifade alır.
KLL_SKETCH_K_OUT_OF_RANGE
işlevi <functionName>için, k parametresi 8 ile 65535 (dahil) arasında olmalıdır, ancak alınmalıdır <k>.
KRYO_BUFFER_OVERFLOW
Kryo serileştirme başarısız oldu: <exceptionMsg>. Bunu önlemek için "<bufferSizeConfKey>" değerini artırın.
LABELS_MISMATCH
Başlangıç etiketi <beginLabel><endLabel>bitiş etiketiyle eşleşmiyor.
Etiket veya değişken zaten mevcut.
Etiket veya FOR değişken <label> zaten var. Başka bir ad seçin veya mevcut adı yeniden adlandırın.
LABEL_OR_FOR_VARIABLE_NAME_FORBIDDEN
Etiket veya FOR değişken adı <label> yasaktır.
LAKEHOUSE_FEDERATION_DATA_SOURCE_REQUIRES_NEWER_DBR_VERSION
Lakehouse federasyon veri kaynağı '<provider>' için daha yeni Databricks Runtime sürümü gerekir.
Daha fazla ayrıntı için, bkz LAKEHOUSE_FEDERATION_DATA_SOURCE_REQUIRES_NEWER_DBR_VERSION
LATERAL_BİRLEŞTİRME_WITH_ARROW_UDTF_DESTEKLENMİYOR
LATERAL
JOIN ok ile iyileştirilmiş kullanıcı tanımlı tablo işlevleri (UDTF) desteklenmez. Arrow UDTF'ler bir yanal join'in sağ tarafında kullanılamaz.
Lütfen bunun yerine normal bir UDTF kullanın veya yanal birleştirmeyi önlemek için sorgunuzu yeniden yapılandırın.
LEGACY_CREATE_TEMP_TABLE_WITHOUT_PROVIDER_NOT_SUPPORTED
CREATE TEMPORARY TABLE sağlayıcı olmadan kullanılamaz.
LOAD_DATA_PATH_NOT_EXISTS
LOAD DATA giriş yolu yok: <path>.
LOCAL_MUST_WITH_SCHEMA_FILE
LOCAL, file şeması ile birlikte kullanılmalıdır, ancak şu karşılaşıldı: <actualSchema>.
LOCATION_ALREADY_EXISTS
yönetilen tablo, ilişkili konumu <identifier> zaten mevcut olduğundan <location>olarak adlandırılamaz. Lütfen farklı bir tablo adı seçin veya önce mevcut konumu kaldırın.
LOST_TOPIC_PARTITIONS_IN_END_OFFSET_WITH_TRIGGER_AVAILABLENOW
Kafka konu başlıklarındaki bazı bölümler Trigger.AvailableNow ile sorgu çalıştırılırken kayboldu. Hata geçici olabilir. Sorgunuzu yeniden başlatın ve aynı sorunu görmeye devam ediyorsanız rapor edin.
en yeni ofset için konu bölümleri: <tpsForLatestOffset>, bitiş ofseti için konu bölümleri: <tpsForEndOffset>
MALFORMED_AVRO_MESSAGE
Mesaj serileştirmesinde hatalı biçimlendirilmiş Avro mesajları algılanır. Ayrıştırma Modu: <mode>. Hatalı biçimlendirilmiş Avro iletisini null sonuç olarak işlemek için 'mode' seçeneğini 'PERMISSIVE' olarak ayarlamayı deneyin.
MALFORMED_CHARACTER_CODING
<function>
<charset> ile gerçekleştirirken geçersiz bir değer bulundu
MALFORMED_CSV_RECORD
Hatalı biçimlendirilmiş CSV kaydı: <badRecord>
MALFORMED_LOG_FILE
Günlük dosyası hatalı biçimlendirilmiş: <text>, doğru günlük sürümünü okumakta başarısız oldu.
MALFORMED_PROTOBUF_MESSAGE
Hatalı biçimlendirilmiş Protobuf iletileri, ileti seriden çıkarmada algılanır. Ayrıştırma Modu: <failFastMode>. Hatalı biçimlendirilmiş protobuf iletisini null sonuç olarak işlemek için 'mode' seçeneğini 'PERMISSIVE' olarak ayarlamayı deneyin.
MALFORMED_RECORD_IN_PARSING
Kayıt ayrıştırmada hatalı biçimlendirilmiş kayıtlar algılandı: <badRecord>.
Ayrıştırma Modu: <failFastMode>. Hatalı biçimlendirilmiş kayıtları null sonuç olarak işlemek için 'mode' seçeneğini 'PERMISSIVE' olarak ayarlamayı deneyin.
Daha fazla ayrıntı için bkz. MALFORMED_RECORD_IN_PARSING
MALFORMED_STATE_IN_RATE_PER_MICRO_BATCH_SOURCE
RatePerMicroBatch kaynağında hatalı biçimlendirilmiş durum.
Daha fazla ayrıntı için bkz. MALFORMED_STATE_IN_RATE_PER_MICRO_BATCH_SOURCE
MALFORMED_VARIANT
Varyant ikili biçimi hatalı. Lütfen veri kaynağının geçerli olup olmadığını denetleyin.
MANAGED_ICEBERG_ATTEMPTED_TO_ENABLE_CLUSTERING_WITHOUT_DISABLING_DVS_OR_ROW_TRACKING
Yönetilen Apache Iceberg tablosunda hem silme vektörlerini hem de satır izlemeyi devre dışı bırakmadan Liquid kümelemeyi etkinleştirmeye çalışıldı. Silme vektörleri ve satır izleme, Yönetilen Apache Iceberg tablolarında desteklenmez, ancak Liquid tablolarla satır düzeyinde eşzamanlılık için gereklidir. Eşzamanlılık denetimi azaltılmış yönetilen bir Apache Iceberg tablosunda Liquid kümelemesini etkinleştirmek için silme vektörleri ve satır izleme bu tablo için devre dışı bırakılmalıdır.
MANAGED_ICEBERG_OPERATION_NOT_SUPPORTED
Apache Iceberg yönetilen tablolar <operation>'ü desteklemez.
MANAGED_TABLE_WITH_CRED
Depolama kimlik bilgileriyle yönetilen tablo oluşturma desteklenmez.
MATERIALIZED_VIEW_MESA_REFRESH_WITHOUT_PIPELINE_ID
Materialize edilmiş görünüm <refreshType>, bir pipelineId'ye sahip olmadan önce oluşturulduğu için kullanılamıyor.
<refreshType> etkinleştirmek için lütfen materyalize edilmiş görünümü düşürün ve yeniden oluşturun.
MATERIALIZED_VIEW_NOT_INCREMENTALIZABLE
Artımlı yenileme için desteklenmediğinden yenileme ilkesiyle <refreshPolicy> gerçekleştirilmiş görünüm oluşturulamıyor. Reason:
Daha fazla ayrıntı için bkz. MATERIALIZED_VIEW_NOT_INCREMENTALIZABLE
MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
Gerçekleştirilmiş görünüm işlemine <operation> izin verilmez:
Daha fazla ayrıntı için bkz. MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
MATERIALIZED_VIEW_OUTPUT_WITHOUT_EXPLICIT_ALIAS
Gerçekleştirilmiş bir görünümde <expression> çıkış ifadesi mutlaka açıkça etiketlenmelidir.
MATERIALIZED_VIEW_OVER_STREAMING_QUERY_INVALID
materyalize edilmiş görünüm <name> akış sorgusuyla oluşturulamadı. Bu ilişkiyi CREATE toplu iş sorgusuna dönüştürmek için lütfen [OR REFRESH] STREAMING TABLE kullanın STREAM veya yan tümcenizin FROM anahtar sözcüğünü kaldırın.
MATERIALIZED_VIEW_UNSUPPORTED_OPERATION
İşlem <operation> şu anda malzemeleşmiş görünümlerde desteklenmemektedir.
MAX_NUMBER_VARIABLES_IN_SESSION_EXCEEDED
Oturumdaki değişken sayısı izin verilen en fazla sayıyı (<variableName>) aştığından yeni değişken <maxNumVariables> oluşturulamıyor.
MAX_RECORDS_PER_FETCH_INVALID_FOR_KINESIS_SOURCE
maxRecordsPerFetch, <kinesisRecordLimit> küçük veya buna eşit pozitif bir tamsayı olmalıdır
MCV_INVALID_INPUT_SKETCH_BUFFER
Geçersiz çağrısı <function>; giriş olarak yalnızca geçerli MCV taslak arabellekleri desteklenir (işlev tarafından mcv_collect_internal üretilenler gibi).
MERGE_CARDINALITY_VIOLATION
ON ifadesinin MERGE arama koşulu, hedef tablodaki tek bir satırı kaynak tablodaki birden çok satırla eşleştirdi.
Bu, hedef satırın bir güncelleştirme veya silme işlemiyle birden çok kez çalıştırılmasına neden olabilir ve buna izin verilmez.
MERGE_WITHOUT_WHEN
WHEN ifadesinde en az bir MERGE madde olmalıdır.
METRIC_CONSTRAINT_NOT_SUPPORTED
METRIC CONSTRAINT etkinleştirilmedi.
METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
Bağımsız değişken "<argValue>", <argName> tablo işlevi için sağlanan "METRIC_STORE" değerini desteklemiyor.
Daha fazla ayrıntı için bkz. METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
METRIC_STORE_UNSUPPORTED_ERROR
Ölçüm Deposu yordamı <routineName> şu anda bu ortamda devre dışıdır.
METRIC_VIEW_AMBIGUOUS_JOIN_CRITERIA
Ölçüm görünümü tanımı belirsiz ölçütlere sahip bir birleşim içerir: <expr>. [using birleştirme ölçütlerini kullanın ya da sütunları <sourceAlias> takma adıyla açıkça belirtin.]
METRIC_VIEW_CACHE_TABLE_NOT_SUPPORTED
Ölçüm görünümünün önbellek tablolarını kullanmasına izin verilmez.
METRIC_VIEW_FEATURE_DISABLED
Metrik görünüm özelliği devre dışı bırakıldı. Lütfen "spark.databricks.sql.metricView.enabled" değerinin true olarak ayarlandığından emin olun.
METRIC_VIEW_INVALID_MEASURE_FUNCTION_INPUT
MEASURE() işlevi yalnızca giriş olarak bir öznitelik alır, ancak <expr> verildi.
METRIC_VIEW_INVALID_VIEW_DEFINITION
Metrik görünümü tanımı geçersiz. Neden: <reason>.
METRIC_VIEW_IN_CTE_NOT_SUPPORTED
CTE tanımlarında ölçüm görünümüne izin verilmez. planlama: <plan>
METRIC_VIEW_JOIN_NOT_SUPPORTED
Ölçüm görünümünde birleştirmelerin kullanılması yasaktır. planlama: <plan>
METRIC_VIEW_MATERIALIZATIONS_DISABLED
Metrik görünüm oluşturulması devre dışı bırakıldı. Lütfen "spark.databricks.sql.metricView.materializations.enabled" değerinin true olarak ayarlandığından emin olun.
METRIC_VIEW_MATERIALIZATIONS_UNAGGREGATED_WITH_METRIC_VIEW
Ölçüm görünümü diğer ölçüm görünümlerine başvurduğunda, toplanmamış materyalizasyon desteklenmez.
GEÇİCİ GÖRÜNÜMDE METRİK GÖRÜNÜM MALZEMELEŞTİRMESİ DESTEKLENMİYOR
Geçici ölçüm görünümlerinde gerçekleştirme desteklenmez.
METRIC_VIEW_MATERIALIZATION_WITH_INVOKER_DEPENDENT_EXPRESSIONS_NOT_SUPPORTED
Çağırıcıya bağımlı ifadeler içeren ölçüm görünümleri için gerçekleştirme desteklenmez. Bu ifadeler, yeniden gerçekleştirilmesini engeller.
METRIC_VIEW_MEASURE_IN_GROUP_BY
<measureColumns> ölçü sütunları yan tümce içinde GROUP BY veya kategorik değerler olarak kullanılamaz. Beklenen davranış için bunları SUM() gibi bir toplama işleviyle sarmalamanızı öneririz.
METRIC_VIEW_MISSING_MEASURE_FUNCTION
Ölçüm görünümünün ölçü sütunu <column> kullanımı, sonuç üretmek için bir MEASURE() işlevi gerektirir.
METRIC_VIEW_NOT_MATERIALIZED
Hiçbir gerçekleştirme tanımlanmamış ölçüm görünümünde gerçekleştirilmiş görünüm komutu çağrıldı
Daha fazla ayrıntı için bkz. METRIC_VIEW_NOT_MATERIALIZED
METRİK_GÖRÜNÜM_HMS'DE_DESTEKLENMİYOR
Ölçüm görünümleri HMS'de desteklenmez.
METRIC_VIEW_RENAME_DIFFERENT_CATALOG_AND_SCHEMA
Ölçüm görünümünün <oldName> farklı bir katalog veya şema olarak yeniden adlandırmasına izin verilmez: <newName>.
METRIC_VIEW_SNOWFLAKE_JOIN_FEATURE_DISABLED
Ölçüm görünümü kar tanesi birleştirme özelliği devre dışı bırakıldı. Lütfen "spark.databricks.sql.metricView.snowflake.join.enable" değerinin true olarak ayarlandığından emin olun.
METRIC_VIEW_UNSUPPORTED_USAGE
Metresel görünüm desteği yoktur. planlama: <plan>
METRIC_VIEW_WINDOW_FUNCTION_NOT_SUPPORTED
Ölçüm görünümünün <expr>pencere işlevini kullanmasına izin verilmez.
If the text needs no translation due to its nature as an identifier, we keep it as is: METRIC_VIEW_YAML_V11_DISABLED
YAML v1.1 ölçüm görünümü devre dışı bırakıldı. Lütfen "spark.databricks.sql.metricView.yaml.v11.enabled" değerinin true olarak ayarlandığından emin olun.
MIGRATION_NOT_SUPPORTED
UC yönetilen tabloya geçiş için desteklenmez, çünkü <table> bir <tableKind> tablosu değildir.
Geçirilmekte olan tablonun bir UC dış delta tablosu olduğundan emin olun ve
yol yerine adıyla başvurulur.
MIGRATION_ROLLBACK_NOT_SUPPORTED
<table> , bir <tableKind> tablosu olmadığından, yönetilen tablodan dış tabloya geri alma işlemi için desteklenmez.
MISMATCHED_TOPIC_PARTITIONS_BETWEEN_END_OFFSET_AND_PREFETCHED
Trigger.AvailableNow içindeki Kafka veri kaynağı, her mikrobatch için önceden alınmış başlangıç ofsetinden bitiş ofsetine kadar aynı bölüm başlıklarını sağlamalıdır. Hata geçici olabilir. Sorgunuzu yeniden başlatın ve aynı sorunu görmeye devam ediyorsanız rapor edin.
Önceden alınmış ofset için konu-bölümleri: <tpsForPrefetched>, bitiş ofseti için konu-bölümleri: <tpsForEndOffset>.
MISSING_AGGREGATION
Toplama olmayan ifade <expression>, GROUP BY yan tümcesine katılmayan sütunları temel alır.
sütunları veya ifadeyi GROUP BY'ye ekleyin, ifadeyi birleştirin ya da bir grup içindeki hangi değerin döndürüleceği umurunuzda değilse <expressionAnyValue>'i kullanın.
Daha fazla ayrıntı için bkz. MISSING_AGGREGATION
MISSING_CATALOG_ABILITY
Katalog <plugin> desteklemiyor
Daha fazla ayrıntı için bkz. MISSING_CATALOG_ABILITY
MISSING_CLAUSES_FOR_OPERATION
<clauses> işlemi için eksik cümlecik <operation>. Lütfen gerekli maddeleri ekleyin.
MISSING_CONNECTION_OPTION
'<connectionType>' türündeki bağlantılar aşağıdaki seçenekleri içermelidir: <requiredOptions>.
MISSING_DATABASE_FOR_V1_SESSION_CATALOG
V1 oturum kataloğunda veritabanı adı belirtilmemiş. v1 kataloğuyla etkileşim kurarken lütfen geçerli bir veritabanı adı sağladığından emin olun.
MISSING_GROUP_BY
Sorgu bir GROUP BY koşulu barındırmıyor.
GROUP BY ekleyin veya OVER yan tümcelerini kullanarak bunu pencere işlevlerine dönüştürün.
MISSING_NAME_FOR_CHECK_CONSTRAINT
CHECK kısıtlamasının bir adı olmalıdır.
MISSING_PARAMETER_FOR_KAFKA
Kafka için parametre <parameterName> gereklidir, ancak <functionName>içinde belirtilmez.
MISSING_PARAMETER_FOR_ROUTINE
Parametre <parameterName> gereklidir, ancak <functionName>içinde belirtilmez.
MISSING_SCHEDULE_DEFINITION
SCHEDULEsonra bir zamanlama tanımı sağlanmalıdır.
MISSING_TIMEOUT_CONFIGURATION
İşlem zaman aşımına uğradı, ancak zaman aşımı süresi yapılandırılmadı. İşlemeye dayalı bir zaman aşımı ayarlamak için 'mapGroupsWithState' veya 'flatMapGroupsWithState' işleminizde 'GroupState.setTimeoutDuration()' kullanın. Olay zamanı tabanlı zaman aşımı için 'GroupState.setTimeoutTimestamp()' kullanın ve 'Dataset.withWatermark()' kullanarak bir filigran tanımlayın.
MISSING_WINDOW_SPECIFICATION
WINDOWiçin pencere belirtimi, <windowName> yan tümcesinde tanımlanmamıştır. Daha fazla bilgi için WINDOW yan tümceler hakkında lütfen '<docroot>/sql-ref-syntax-qry-select-window.html' bölümüne bakın.
MODIFY_BUILTIN_CATALOG
Yerleşik katalog <catalogName> değiştirilmesi desteklenmez.
Çoklu Parça Akış Adı Desteklenmiyor
'<flowName>' çok parçalı adı olan akış desteklenmez.
MULTIPLE_EXCEL_DATA_SOURCE
adlı <provider> (<sourceNames>)birden çok Excel veri kaynağı algılandı. Lütfen tam sınıf adını belirtin veya sınıf yolu'ndan <externalSource> kaldırın.
MULTIPLE_LOAD_PATH
Databricks Delta, load() API'sinde birden çok giriş yolunu desteklemez.
yollar: <pathList>. Verileri yükleyerek tek bir DataFrame oluşturmak için
aynı Delta tablosundan birden çok yol varsa, lütfen kök yolu yükleyin.
ilgili bölüm filtrelerini içeren Delta tablosu. Birden çok yol varsa
farklı Delta tablolarından geliyorsa, lütfen Veri kümesinin union()/unionByName() API'lerini kullanın
ayrı load() API çağrıları tarafından oluşturulan DataFrame'leri birleştirmek için.
MULTIPLE_MATCHING_CONSTRAINTS
Belirtilen koşulla en az iki eşleşen kısıtlama bulundu.
MULTIPLE_QUERY_RESULT_CLAUSES_WITH_PIPE_OPERATORS
<clause1> ve <clause2> '|>' kullanarak aynı SQL kanalı işlecinde bir arada bulunamaz. Lütfen birden çok sonuç yan tümcesini ayrı kanal işleçlerine ayırın ve sorguyu yeniden gönderin.
MULTIPLE_TIME_TRAVEL_SPEC
Hem zaman yolculuğu yan tümcesinde hem de seçeneklerde belirtemezsiniz.
MULTIPLE_XML_DATA_SOURCE
adlı <provider> (<sourceNames>)birden çok veri kaynağı algılandı. Lütfen tam sınıf adını belirtin veya sınıf yolu'ndan <externalSource> kaldırın.
MULTI_ALIAS_WITHOUT_GENERATOR
Çok parçalı takma ad (<names>), bir üreteç fonksiyonu olmadığı için <expr> ile desteklenmez.
MULTI_SOURCES_UNSUPPORTED_FOR_EXPRESSION
<expr> ifadesi birden fazla kaynağı desteklemez.
MULTI_SOURCE_METRIC_VIEW_MEASURE_REFERENCING_DIMENSION
Ölçüm görünümündeki ölçü sütunu <measureColumn> boyut sütunlarına (<dimensionColumn> ) başvuramaz.
MULTI_SOURCE_METRIC_VIEW_UNQUALIFIED_MEASURE_REF
Çok kaynaklı ölçüm görünümünde nitelenmemiş ölçü sütunu başvurusuna <measureColumn> izin verilmez. Lütfen ölçü sütununu kaynak diğer adla niteler.
MULTI_SOURCE_METRIC_VIEW_UNSUPPORTED_EXPRESSION
Ölçüm görünümünde birden çok kaynağın üzerinde toplama ifadesi desteklenmez: <expr>.
MULTI_UDF_INTERFACE_ERROR
Birden çok UDF arabiriminin uygulanmasına izin verilmez, UDF sınıfı <className>.
MUTUALLY_EXCLUSIVE_CLAUSES
Birbirini dışlayan yan tümceler veya seçenekler <clauses>. Lütfen bu yan tümcelerden birini kaldırın.
MV_ST_ALTER_QUERY_INCORRECT_BACKING_TYPE
Giriş sorgusu bir <expectedType>bekler, ancak alttaki tablo bir <givenType>.
NAMED_PARAMETERS_NOT_SUPPORTED
Adlandırılmış parametreler işlev <functionName>için desteklenmez; lütfen sorguyu işlev çağrısının konumsal bağımsız değişkenleriyle yeniden deneyin.
NAMED_PARAMETERS_NOT_SUPPORTED_FOR_SQL_UDFS
Adlandırılmış bağımsız değişken başvuruları desteklenmediğinden işlev <functionName> çağrılamıyor. Bu durumda adlandırılmış bağımsız değişken referansı <argument>.
NAMED_PARAMETER_SUPPORT_DISABLED
Burada adlandırılmış bağımsız değişken referansları etkinleştirilmediğinden işlev <functionName> çağrılamıyor.
Bu durumda adlandırılmış bağımsız değişken referansı <argument>.
Özelliği açmak için "spark.sql.allowNamedFunctionArguments" değerini "true" olarak ayarlayın.
NAMESPACE_ALREADY_EXISTS
Ad alanı <nameSpaceName> zaten var olduğundan oluşturulamıyor.
Farklı bir ad seçin, var olan ad alanını bırakın veya önceden var olan ad alanını tolere etmek için IF NOT EXISTS yan tümcesini ekleyin.
NAMESPACE_NOT_EMPTY
Nesneler içerdiği için ad alanı <nameSpaceNameName> silinemiyor.
Ad alanını ve tüm nesnelerini bırakmak için kullanın DROP NAMESPACE...CASCADE .
NAMESPACE_NOT_FOUND
Ad alanı <nameSpaceName> bulunamıyor. Ad alanının yazımını ve doğruluğunu doğrulayın.
Adı bir tanımlayıcı ile nitelemediyseniz, current_schema() çıktısını doğrulayın veya adı doğru şekilde niteleyin.
Düşme hatasını tolere etmek için DROP NAMESPACE IF EXISTSkullanın.
NATIVE_IO_ERROR
Yerel istek başarısız oldu. requestId: <requestId>, bulut: <cloud>, işlem: <operation>
request: [https: <https>, method = <method>, path = <path>, params = <params>, host = <host>, headers = <headers>, bodyLen = <bodyLen>],
hata: <error>
NATIVE_XML_DATA_SOURCE_NOT_ENABLED
Yerel XML Veri Kaynağı bu kümede etkinleştirilmemiş.
NEGATIVE_SCALE_DISALLOWED
Negatif ölçeğe izin verilmiyor: '<scale>'. İzin vermek için yapılandırmayı <sqlConf> "true" olarak ayarlayın.
NEGATIVE_VALUES_IN_FREQUENCY_EXPRESSION
<frequencyExpression>: <negativeValue> içinde negatif bir değer bulundu, ancak pozitif bir tamsayı değeri bekleniyordu.
NESTED_AGGREGATE_FUNCTION
Başka bir toplama işlevinin argümanında bir toplama işlevi kullanılması yasaktır. Lütfen bir alt sorguda iç toplama işlevini kullanın.
NESTED_EXECUTE_IMMEDIATE
İç içe EXECUTE IMMEDIATE komutlara izin verilmez. Sağlanan SQL sorgusunun (<sqlString>) başka bir EXECUTE IMMEDIATE komutu içermediğinden emin olun.
NESTED_REFERENCES_IN_LATERAL_SUBQUERY_NOT_SUPPORTED
Desteklenmeyen yanal alt sorguda dış kapsam başvuruları <expression> algılandı. Lütfen yanal alt sorgunun iç içe dış kapsamlardan özniteliklere başvuran alt sorgular içermediğinden emin olun.
Alt sorguda iç içe referanslar desteklenmiyor (NESTED_REFERENCES_IN_SUBQUERY_NOT_SUPPORTED)
Harici alan referansları <expression> alt sorguda algılandı, bu desteklenmiyor.
YENİ_KONTROL_KISITI_İHLALİ
tablosundaki <expression>mevcut veriler tarafından ihlal edilebileceğinden yeni denetim kısıtlaması (<tableName>) eklenemiyor. Lütfen eklemeden önce tüm mevcut satırların kısıtlamayı karşıladığından emin olun.
NONEXISTENT_FIELD_NAME_IN_LIST
<nonExistFields> alan(lar) mevcut değil. Kullanılabilir alanlar: <fieldNames>
NON_DETERMINISTIC_CHECK_CONSTRAINT
Denetim kısıtlaması <checkCondition> belirleyici değildir. Denetim kısıtlamaları yalnızca belirleyici ifadeler içermelidir.
NON_FOLDABLE_ARGUMENT
İşlev <funcName>, <paramName> parametresinin <paramType>türünde katlanabilir bir ifade olmasını gerektirir, ancak verilen bağımsız değişken katlanabilir bir ifade değildir.
NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
Bir MATCHED beyanında birden fazla MERGE yan tümcesi olduğunda, yalnızca son MATCHED yan tümcesi koşuldan muaf olabilir.
NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
Bir NOT MATCHED BY SOURCE beyanında birden fazla MERGE yan tümcesi olduğunda, yalnızca son NOT MATCHED BY SOURCE yan tümcesi koşuldan muaf olabilir.
NON_LAST_NOT_MATCHED_BY_TARGET_CLAUSE_OMIT_CONDITION
Bir NOT MATCHED [BY TARGET] beyanında birden fazla MERGE yan tümcesi olduğunda, yalnızca son NOT MATCHED [BY TARGET] yan tümcesi koşuldan muaf olabilir.
NON_LITERAL_PIVOT_VALUES
Pivot değerler için gereken sabit ifadeler, <expression> bulundu.
NON_PARTITION_COLUMN
PARTITION yan tümcesi bölümsel olmayan sütunu içeremez: <columnName>.
NON_TIME_WINDOW_NOT_SUPPORTED_IN_STREAMING
Akış Veri Çerçeveleri/Veri Kümeleri üzerinde <windowFunc> (sütun <columnName>olarak) pencere işlevi desteklenmez.
Yapılandırılmış Akış yalnızca WINDOW işlevini kullanarak zaman penceresi toplamayı destekler. (pencere belirtimi: <windowSpec>)
NOT_ALLOWED_IN_FROM
FROM maddesinde izin verilmez:
Daha fazla ayrıntı için bkz. NOT_ALLOWED_IN_FROM
NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE
"Boru WHERE koşulunda izin verilmez:"
Daha fazla bilgi için bkz. NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE
NOT_A_CONSTANT_STRING
<expr> yordamı veya yan tümcesi için kullanılan <name> ifadesi, STRINGolan sabit bir NOT NULL olmalıdır.
Daha fazla ayrıntı için bkz. NOT_A_CONSTANT_STRING
NOT_A_PARTITIONED_TABLE
Bölümlenmiş bir tablo olmadığından <operation> işlemi <tableIdentWithDB> için izin verilmez.
NOT_A_SCALAR_FUNCTION
<functionName> burada skaler ifade olarak görünür, ancak işlev tablo işlevi olarak tanımlanmıştır. İşlev çağrısını FROM yan tümcesine taşımak için sorguyu güncelleştirin veya bunun yerine <functionName> skaler işlev olarak yeniden tanımlayın.
NOT_A_TABLE_FUNCTION
<functionName> burada bir tablo işlevi olarak görünür, ancak işlev bir skaler işlev olarak tanımlanmıştır. İşlev çağrısını FROM yan tümcesinin dışına taşımak için sorguyu güncelleştirin veya bunun yerine <functionName> tablo işlevi olarak yeniden tanımlayın.
NOT_ENOUGH_ARGS
İşlev <functionName> en az <minNum> parametre bekler, ancak alınır <actualNum> (<actualArgs>).
NOT_NULL_ASSERT_VIOLATION
NULL değeri null atanamaz bir alanda belirdi: <walkedTypePath>Eğer şema bir Scala tuple/case sınıfından veya Java bean'den türetilmişse, lütfen scala.Option[_] veya diğer null atanabilir türleri (int/scala.Int yerine java.lang.Integer gibi) kullanmayı deneyin.
NOT_NULL_CONSTRAINT_VIOLATION
Burada NULL atamaya izin verilmez.
Daha fazla ayrıntı için bkz. NOT_NULL_CONSTRAINT_VIOLATION
NOT_SUPPORTED_CHANGE_COLUMN
ALTER TABLE ALTER
/
CHANGE COLUMN, türü <table> olan <originName> sütununun, türü <originType> olan <newName> ile değiştirilmesini desteklemez.
NOT_SUPPORTED_CHANGE_SAME_COLUMN
ALTER TABLE ALTER
/
CHANGE COLUMN, iç içe alanlar da dahil olmak üzere, <table>'un <fieldName> sütununun değiştirilmesi için aynı komutta birden fazla kez desteklenmez.
NOT_SUPPORTED_COMMAND_FOR_V2_TABLE
<cmd>, v2 tabloları için desteklenmez.
NOT_SUPPORTED_COMMAND_WITHOUT_HIVE_SUPPORT
<cmd> desteklenmez, etkinleştirmek istiyorsanız lütfen "spark.sql.catalogImplementation" öğesini "hive" olarak ayarlayın.
NOT_SUPPORTED_IN_JDBC_CATALOG
JDBC kataloğunda desteklenmeyen komut:
Daha fazla ayrıntı için bkz. NOT_SUPPORTED_IN_JDBC_CATALOG
NOT_SUPPORTED_WITH_DB_SQL
<operation> bir SQL <endpoint>'de desteklenmiyor.
NOT_SUPPORTED_WITH_SERVERLESS
<operation> sunucusuz işlemde desteklenmez.
NOT_UNRESOLVED_ENCODER
Çözümlenmemiş kodlayıcı bekleniyordu, ancak <attr> bulundu.
NO_ACTIVE_TRANSACTION
<action> için aktif bir işlem yok.
NO_DEFAULT_COLUMN_VALUE_AVAILABLE
Null değer atanamaz ve varsayılan değeri olmadığından için <colName> varsayılan değeri belirlenemiyor.
NO_HANDLER_FOR_UDAF
'<functionName>' için UDAF işleyicisi yok. Bunun yerine sparkSession.udf.register(...) kullanın.
NO_MERGE_ACTION_SPECIFIED
df.mergeInto işlemi, whenMatched/whenNotMatched/whenNotMatchedBySource koşullarından en az birisi tarafından izlenmelidir.
NO_PARENT_EXTERNAL_LOCATION_FOR_PATH
'<path>' yolu için üst dış konum bulunamadı. Lütfen ebeveyn yollarından birinde bir dış konum oluşturun ve ardından sorguyu veya komutu yeniden deneyin.
NO_PRIMARY_KEY_CONSTRAINT_EXCEPTION
TABLE <table> birincil anahtar kısıtlaması yoktur.
NO_SQL_TYPE_IN_PROTOBUF_SCHEMA
Protobuf şemasında <catalystFieldPath> bulunamıyor.
NO_STORAGE_LOCATION_FOR_TABLE
SQLSTATE: hiçbiri atanmadı
Tablo kimlik bilgileri oluşturulurken '<tableId>' tablosu için depolama konumu bulunamadı. Lütfen tablo türünü ve tablo konumu URL'sini doğrulayın ve sorguyu veya komutu yeniden deneyin.
NO_SUCH_CATALOG_EXCEPTION
'<catalog>' kataloğu bulunamadı. Lütfen katalog adını doğrulayın ve sorguyu veya komutu yeniden deneyin.
NO_SUCH_CLEANROOM_EXCEPTION
SQLSTATE: hiçbiri atanmadı
Temiz oda '<cleanroom>' yok. Temiz oda adının doğru yazıldığını ve mevcut temiz odanın adıyla eşleşip eşleşmediğini doğrulayın ve sorguyu veya komutu yeniden deneyin.
NO_SUCH_CONSTRAINT_EXCEPTION
kısıtlaması <constraint> içinde <identifier>bulunamadı.
NO_SUCH_CREDENTIAL_EXCEPTION
'<credential>' kimlik bilgisi mevcut değil. Lütfen kimlik bilgisi adının doğru yazıldığını ve mevcut geçerli bir kimlik bilgisi adıyla eşleştiğini doğrulayın, ardından sorguyu veya komutu yeniden deneyin.
NO_SUCH_EXTERNAL_LOCATION_EXCEPTION
SQLSTATE: hiçbiri atanmadı
'<externalLocation>' adlı dış konum mevcut değil. Lütfen dış konum adının doğru olduğunu doğrulayın ve sorguyu veya komutu yeniden deneyin.
NO_SUCH_METASTORE_EXCEPTION
SQLSTATE: hiçbiri atanmadı
Meta veri deposu bulunamadı. Lütfen hesap yöneticinizden geçerli çalışma alanına bir meta veri deposu atamasını ve ardından sorguyu veya komutu yeniden denemesini isteyin.
NO_SUCH_PROVIDER_EXCEPTION
SQLSTATE: hiçbiri atanmadı
'<providerName>' paylaşım sağlayıcısı yok. Lütfen paylaşım sağlayıcısı adının doğru yazıldığından ve geçerli bir mevcut sağlayıcı adıyla eşleştiğinden emin olun ve ardından sorgu veya komutu yeniden deneyin.
NO_SUCH_RECIPIENT_EXCEPTION
SQLSTATE: hiçbiri atanmadı
'<recipient>' alıcısı yok. Lütfen alıcı adının doğru yazıldığını ve mevcut bir alıcının adıyla eşleşip eşleşmediğini doğrulayın ve sorguyu veya komutu yeniden deneyin.
NO_SUCH_SHARE_EXCEPTION
SQLSTATE: hiçbiri atanmadı
'<share>' adlı paylaşım mevcut değil. Lütfen paylaşım adının doğru yazıldığını ve mevcut geçerli bir paylaşımın adıyla eşleşip eşleşmediğini doğrulayın ve sorguyu veya komutu yeniden deneyin.
NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION
SQLSTATE: hiçbiri atanmadı
'<storageCredential>' depolama kimlik bilgisi yok. Lütfen depolama kimlik bilgisi adının doğru yazıldığını ve geçerli bir mevcut depolama kimlik bilgisi adıyla eşleştiğini doğrulayıp ardından sorguyu veya komutu tekrar deneyin.
NO_SUCH_USER_EXCEPTION
SQLSTATE: hiçbiri atanmadı
'<userName>' kullanıcısı yok. İzin verdiğiniz veya sahipliği değiştirdiğiniz kullanıcının adının doğru yazıldığından ve mevcut geçerli bir kullanıcı adıyla eşleştiğinden emin olun, ardından sorguyu veya komutu tekrar deneyin.
NO_UDF_INTERFACE
UDF sınıfı <className> herhangi bir UDF arabirimi uygulamaz.
NULLABLE_COLUMN_OR_FIELD
Sütun veya alan <name>, null değeri alamaz olması gerekirken null değeri alabilir.
NULLABLE_ROW_ID_ATTRIBUTES
Satır Kimliği öznitelikleri boş bırakılamaz: <nullableRowIdAttrs>.
NULL_DATA_SOURCE_OPTION
Veri kaynağı okuma/yazma seçeneği <option> null değere sahip olamaz.
NULL_MAP_KEY
Eşleme anahtarı olarak null kullanılamaz.
NULL_QUERY_STRING_EXECUTE_IMMEDIATE
Execute komutu, sorgu dizesi olarak null olmayan bir değişken gerektirir, ancak verilen değişken <varName> null'dir.
NULL_VALUE_SIGNAL_STATEMENT
Sinyal ifadelerinin bağımsız değişkenleri null olmayan değerler gerektirir, ancak <argument> null bir değer aldı.
NUMERIC_OUT_OF_SUPPORTED_RANGE
Değer <value> 38 basamaktan fazla olduğundan sayısal olarak yorumlanamaz.
NUMERIC_VALUE_OUT_OF_RANGE
Daha fazla ayrıntı için bkz. NUMERIC_VALUE_OUT_OF_RANGE
NUM_COLUMNS_MISMATCH
<operator> yalnızca aynı sayıda sütuna sahip girişlerde gerçekleştirilebilir, ancak ilk girişte <firstNumColumns> sütun ve <invalidOrdinalNum> girişin <invalidNumColumns> sütunu vardır.
NUM_TABLE_VALUE_ALIASES_MISMATCH
Verilen diğer ad sayısı, çıkış sütunlarının sayısıyla eşleşmiyor.
İşlev adı: <funcName>; diğer ad sayısı: <aliasesNum>; çıkış sütunlarının sayısı: <outColsNum>.
OAUTH_CUSTOM_IDENTITY_CLAIM_NOT_PROVIDED
Özel kimlik talebi verilmedi.
ONLY_SECRET_FUNCTION_SUPPORTED_HERE
İşlev <functionName> çağrılması bu <location>'de desteklenmez; <supportedFunctions> ise burada desteklenir.
ONLY_SUPPORTED_WITH_UC_SQL_CONNECTOR
SQL işlemi <operation> yalnızca Unity Kataloğu desteğine sahip Databricks SQL bağlayıcılarında desteklenir.
OPERATION_CANCELED
İşlem iptal edildi.
OPERATION_REQUIRES_UNITY_CATALOG
İşlem <operation>, Unity Catalog'un etkin olması gerektiğini gerektirir.
OP_NOT_SUPPORTED_READ_ONLY
<plan> yalnızca okunur oturum modunda desteklenmez.
ORDER_BY_POS_OUT_OF_RANGE
ORDER BY konum <index> seçme listesinde değil (geçerli aralık [1, <size>]).
PARQUET_CONVERSION_FAILURE
Veri türü <dataType> için Parquet tipi <parquetType>olan bir Parquet dönüştürücü oluşturulamıyor.
Daha fazla ayrıntı için bkz. PARQUET_CONVERSION_FAILURE
PARQUET_TYPE_ILLEGAL
Kanunsuz Parquet türü: <parquetType>.
PARQUET_TYPE_NOT_RECOGNIZED
Tanınmayan Parquet türü: <field>.
PARQUET_TYPE_NOT_SUPPORTED
Parquet türü henüz desteklenmiyor: <parquetType>.
PARSE_EMPTY_STATEMENT
Sözdizimi hatası, beklenmeyen boş deyim.
PARSE_MODE_UNSUPPORTED
İşlev <funcName>, <mode> modunu desteklemez. Kabul edilebilir modlar PERMISSIVE ve FAILFAST.
PARSE_SYNTAX_ERROR
<error> <hint>veya yakınında söz dizimi hatası.
PARTITIONS_ALREADY_EXIST
Tablo RENAME'deki bölüm(ler) <partitionList>'e eklenemez veya <tableName> yapılamaz, çünkü zaten mevcutlar.
Farklı bir ad seçin, var olan bölümü bırakın veya önceden var olan bir bölümü tolere etmek için IF NOT EXISTS yan tümcesini ekleyin.
PARTITIONS_NOT_FOUND
<partitionList> bölüm(ler)i <tableName>tablosunda bulunamıyor.
Bölüm belirtimini ve tablo adını doğrulayın.
Düşme hatasını tolere etmek için ALTER TABLE kullanın...
DROP IF EXISTS PARTITION.
PARTITION_COLUMN_NOT_FOUND_IN_SCHEMA
Bölüm sütunu <column> şema <schema>'de bulunamadı. Lütfen bölümleme için mevcut sütunu sağlayın.
PARTITION_LOCATION_ALREADY_EXISTS
Bölüm konumu <locationPath>, tablo <tableName>'de zaten mevcut.
PARTITION_LOCATION_IS_NOT_UNDER_TABLE_DIRECTORY
ALTER TABLE SET PARTITION LOCATION deyimi yürütülemedi, çünkü
bölüm konumu <location><table>tablo dizini altında değil.
Bunu düzeltmek için lütfen bölümün konumunu <table>alt dizinine ayarlayın.
PARTITION_METADATA
<action> bölüm meta verilerini depolama Unity Kataloğu'nda desteklenmediğinden tabloda <tableName> izin verilmez.
PARTITION_NUMBER_MISMATCH
Değer sayısı (<partitionNumber>) şema boyutuyla eşleşmedi (<partitionSchemaSize>): değerler <partitionValues>, şema <partitionSchema>, dosya yolu <urlEncodedPath>.
Lütfen tabloyu yeniden oluşturarak ya da tablonun sahibine başvurarak çözüm bulun.
PARTITION_TRANSFORM_EXPRESSION_NOT_IN_PARTITIONED_BY
İfade <expression> 'partitionedBy' içinde olmalıdır.
PATH_ALREADY_EXISTS
Yol <outputPath> zaten var. Mevcut yolun üzerine yazmak için modu "üzerine yaz" olarak ayarlayın.
PATH_NOT_FOUND
Yol mevcut değil: <path>.
PATH_RESOLUTION_ERROR
yolu <path>çözümlenemedi. Nedeni: <causedBy>
PHOTON_DESERIALIZED_PROTOBUF_MEMORY_LIMIT_EXCEEDED
Photon protobuf planının seri durumdan çıkarılması en az <size> bayt gerektirir; bu da belirtilen sınırı aşar.
<limit> bayt sınırı. Bunun nedeni çok büyük bir plan veya çok büyük bir planın varlığı olabilir.
geniş şema. Sorguyu basitleştirmeye, gereksiz sütunları kaldırmaya veya Photon'ı devre dışı bırakmaya çalışın.
PHOTON_SERIALIZED_PROTOBUF_MEMORY_LIMIT_EXCEEDED
Serileştirilmiş Photon protobuf planının boyutu <size> bayttır, bu da sınırı aşıyor.
<limit> bayt. Plandaki veri türlerinin serileştirilmiş boyutu <dataTypeSize> bayttır.
Bunun nedeni çok büyük bir plan veya çok geniş bir şemanın bulunması olabilir.
İstenmeyen işlemleri ve sütunları kaldırmak veya Photon'ı devre dışı bırakmak için sorguyu yeniden yazmayı göz önünde bulundurun.
Boru Hattı Veri Kümesi Akışsız
İşlem hattı veri kümesi <identifier> tanımlı hiçbir akışa sahip değil. Lütfen veri kümesinin tanımına sahip bir sorgu ekleyin veya veri kümesine yazan en az bir akışı açıkça tanımlayın.
PIPELINE_DOES_NOT_EXIST
'<pipelineId>' işlem hattı mevcut değil
Daha fazla ayrıntı için bkz. PIPELINE_DOES_NOT_EXIST
PIPELINE_DUPLICATE_IDENTIFIERS
İşlem hattının veri akışı grafiğinde kayıtlı öğeler için yinelenen bir tanımlayıcı bulundu.
Daha fazla ayrıntı için bkz. PIPELINE_DUPLICATE_IDENTIFIERS
PIPELINE_SQL_GRAPH_ELEMENT_REGISTRATION_ERROR
<message>
<offendingQuery>
<codeLocation>
PIPELINE_STORAGE_ROOT_INVALID
İşlem hattı depolama kökü, URI düzenine sahip mutlak bir yol olmalıdır (örneğin, file://, s3a://, hdfs://). Var: <storage_root>.
PIPE_OPERATOR_AGGREGATE_EXPRESSION_CONTAINS_NO_AGGREGATE_FUNCTION
Gruplandırmayan ifade <expr> |>AGGREGATE kanal işlecine bağımsız değişken olarak sağlanır ancak herhangi bir toplama işlevi içermez; lütfen bir toplama işlevi içerecek şekilde güncelleştirin ve sorguyu yeniden deneyin.
PIPE_OPERATOR_CONTAINS_AGGREGATE_FUNCTION
Kanal işleci |<expr>> yan tümcesi kullanılırken toplama işlevine <clause> izin verilmez; lütfen bunun yerine kanal işleci |>AGGREGATE yan tümcesini kullanın.
PIVOT_VALUE_DATA_TYPE_MISMATCH
Geçersiz özet değer '<value>': değer veri türü <valueType> özet sütun veri türüyle <pivotType>eşleşmiyor.
POLICY_ALREADY_EXISTS
<policyName> ilkesi zaten mevcut olduğundan oluşturulamıyor.
Önceden var olan bağlantıları tolere etmek için farklı bir ad seçin veya mevcut ilkeyi bırakın.
POLICY_NOT_FOUND
<commandType> üzerindeki <policyName> ilkesi bulunamadığından <securableFullname> komutu yürütülemiyor.
Lütfen yazım ve doğruluğu doğrulayın.
POLICY_ON_SECURABLE_TYPE_NOT_SUPPORTED
Güvenli hale getirilebilir türünde <securableType> ilke oluşturulamıyor. Desteklenen güvenli hale getirilebilir türler: <allowedTypes>.
PREVIEW_FEATURE_NOT_ENABLED
Önizleme özelliği <featureName> etkinleştirilmedi. Bu özelliği önizleme portalı üzerinden etkinleştirmek için lütfen çalışma alanı yöneticinize başvurun.
PROCEDURE_ARGUMENT_NUMBER_MISMATCH
İşlem <procedureName>, <expected> bağımsız değişken bekliyor ancak <actual> sağlandı.
PROCEDURE_CREATION_EMPTY_ROUTINE
Boş yordam tanımı olan CREATE PROCEDURE'a izin verilmez.
PROCEDURE_CREATION_PARAMETER_OUT_INOUT_WITH_DEFAULT
parametre <parameterName>, <parameterMode>parametre moduyla tanımlanır. Bir yordam çağrılırken OUT ve INOUT parametresi atlanamaz ve bu nedenle bir DEFAULT ifadeyi desteklemez. Devam etmek için DEFAULT yan tümcesini kaldırın veya parametre modunu INolarak değiştirin.
PROCEDURE_NOT_SUPPORTED
Depolanmış prosedür desteklenmiyor
PROCEDURE_NOT_SUPPORTED_WITH_HMS
Saklı yordam Hive Metastore ile desteklenmez. Bunun yerine lütfen Unity Kataloğu'nu kullanın.
PROTOBUF_DEPENDENCY_NOT_FOUND
Bağımlılık bulunamadı: <dependencyName>.
PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND
Protobuf tanımlayıcı dosyası okunurken bu yolda hata oluştu: <filePath>.
PROTOBUF_FIELD_MISSING
Protobuf şemasında <field> konumunda <protobufSchema> aranırken <matchSize> eşleşme bulundu. Adaylar: <matches>.
PROTOBUF_FIELD_MISSING_IN_SQL_SCHEMA
Protobuf şemasında <field> bulundu, ancak SQL şemasında eşleşme yok.
PROTOBUF_FIELD_TYPE_MISMATCH
Alan <field> için tür uyuşmazlığıyla karşılaşıldı.
PROTOBUF_JAVA_CLASSES_NOT_SUPPORTED
Java sınıfları <protobufFunction>için desteklenmez. Alternatif seçenekler hakkında Databricks Desteği'ne başvurun.
PROTOBUF_MESSAGE_NOT_FOUND
Tanımlayıcı'da İleti <messageName> bulunamıyor.
PROTOBUF_NOT_LOADED_SQL_FUNCTIONS_UNUSABLE
Protobuf veri kaynağı yüklenmediğinden <functionName> SQL işlevi çağrılamıyor.
'spark-protobuf' paketi yüklü olarak, örneğin komut satırında --packages bağımsız değişkenini kullanarak, oturum veya işinizi yeniden başlatın ve ardından sorgunuzu veya komutunuzu tekrar deneyin.
PROTOBUF_TYPE_NOT_SUPPORT
Protobuf türü henüz desteklenmiyor: <protobufType>.
PS_FETCH_RETRY_EXCEPTION
Pub/Sub getirme aşamasındaki bu görev yeniden denenemez. Aşama <partitionInfo> içindeki bölüm <stageInfo>, TID <taskId>.
PS_INVALID_EMPTY_OPTION
<key> boş bir dize olamaz.
PS_INVALID_KEY_TYPE
PubSub yinelenmeleri için geçersiz anahtar türü: <key>.
PS_INVALID_OPTION
<key> seçeneği PubSub tarafından desteklenmez. Yalnızca testlerde kullanılabilir.
PS_INVALID_OPTION_TYPE
<key>için geçersiz tür.
<key> türünün <type>türü olması bekleniyor.
PS_INVALID_READ_LIMIT
PubSub akışında geçersiz okuma sınırı: <limit>.
PS_INVALID_UNSAFE_ROW_CONVERSION_FROM_PROTO
Geçersiz UnsafeRow nedeniyle PubSubMessageMetadata kodu çözülemedi; istenen proto şeması: <protoSchema>. UnsafeRow girişi bozulmuş olabilir: <unsafeRow>.
PS_INVALID_WORKLOAD_IDENTITY_FEDERATION_AUDIENCE_OPTION
Geçersiz bir okuma seçeneği nedeniyle sorgu veya komut başarısız oldu: spark.readStream.format("pubsub").option("workloadIdentityFederation.audience", <audience>). Şu biçimle eşleşecek şekilde güncelleştirin <audience> : //iam.googleapis.com/projects/{PROJECT_NUMBER}/locations/global/workloadIdentityPools/{POOL_ID}/providers/{PROVIDER_ID} ve sorguyu veya komutu yeniden deneyin.
PS_MISSING_AUTH_INFO
PubSub kimlik doğrulama bilgilerinin tamamı bulunamadı.
PS_MISSING_REQUIRED_OPTION
Gerekli seçenek bulunamadı: <key>.
PS_MOVING_CHECKPOINT_FAILURE
Ham veri denetim noktası dosyaları <src>'dan hedef dizine <dest>taşınamadı.
PS_MULTIPLE_AUTH_OPTIONS
Lütfen Databricks hizmet kimlik bilgilerinizi veya GCP hizmet hesabı kimlik bilgilerinizi sağlayın.
PS_MULTIPLE_FAILED_EPOCHS
Birden fazla başarısız alma olduğundan PubSub akışı başlatılamıyor: <failedEpochs>.
PS_OPTION_NOT_IN_BOUNDS
<key> her iki sınırdan bağımsız olarak aşağıdaki sınırlar (<min>, <max>) içinde olmalıdır.
PS_PROVIDE_CREDENTIALS_WITH_OPTION
Paylaşılan kümeler örnek profilleriyle kimlik doğrulamayı desteklemez. .option() kullanarak doğrudan akışa kimlik bilgileri sağlayın.
PS_SPARK_SPECULATION_NOT_SUPPORTED
PubSub kaynak bağlayıcısı yalnızca spark.speculation devre dışı olan kümede kullanılabilir.
PS_UNABLE_TO_CREATE_SUBSCRIPTION
Başlık <subId>'de abonelik <topicId> oluşturulmaya çalışılırken bir hata oluştu. Lütfen abonelik oluşturmak için yeterli izinler olup olmadığını denetleyin ve yeniden deneyin.
PS_UNABLE_TO_PARSE_PROTO
Proto dosyası oluşturmak için serileştirilmiş baytlar parse edilemiyor.
PS_UNSUPPORTED_GET_OFFSET_CALL
getOffset bir sınır sağlanmadan desteklenmez.
PYTHON_DATA_SOURCE_ERROR
<action> Python veri kaynağı <type>başarısızlıkla sonuçlandı: <msg>
PYTHON_STREAMING_DATA_SOURCE_RUNTIME_ERROR
Python akış veri kaynağı <action> gerçekleştirildiğinde başarısız oldu: <msg>
QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
Daha önce atanmış bir sütun maskesi şu anda tablo şemasıyla uyumsuz olduğundan başvurulan tabloya erişilemiyor; devam etmek için lütfen ilkeyi güncelleştirmek için tablonun sahibine başvurun:
Daha fazla ayrıntı için bkz. QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
Daha önce atanmış bir satır düzeyi güvenlik ilkesi şu anda tablo şemasıyla uyumsuz olduğundan başvurulan tabloya erişilemiyor; devam etmek için lütfen ilkeyi güncelleştirmek için tablonun sahibine başvurun:
Daha fazla ayrıntı için bkz. QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
QUERY_EXECUTION_TIMEOUT_EXCEEDED
Zaman aşımı (<timeoutSec>) aşıldığından sorgu yürütme iptal edildi.
<config>ayarlayarak sınırı saniyeler içinde artırabilirsiniz.
QUERY_INCOMPATIBLE_WITH_RLSCM_POLICY
Bkz. go/rowcolumncontrols-allowlist. LogicalPlan <unknownLogicalPlan> , RLS/CM ilkesiyle uyumsuz.
QUERY_REJECTED
Sorgu yürütme reddedildi.
QUERY_RESULT_WRITE_TO_CLOUD_STORE_PERMISSION_ERROR
Çalışma alanı iç depolama yapılandırması Databricks'in bulut deposuna erişmesini engeller.
QUERY_TAGS_NOT_IMPLEMENTED_ERROR
Sorgu etiketleri henüz SQL'de desteklenmiyor.
QUERY_TAGS_SYNTAX_INVALID
Komut için SET QUERY_TAGS geçersiz biçim.
QUERY_TAG_KEY_INVALID
'<key>' sorgu etiketi anahtarı doğrulama başarısız oldu.
QUERY_TAG_KEY_MAY_NOT_BE_EMPTY
Sorgu etiketi anahtarı null veya boş olmayabilir. Baştaki ve sondaki boşluk, anahtarlar ve değerler üzerinde kırpılır.
QUERY_TAG_MAX_COUNT_EXCEEDED
Sorgu etiketi sayısı, oturum başına maksimum etiket sınırını <tagLimit> aştı.
QUERY_TAG_VALUE_INVALID
'<value>' sorgu etiketi değeri doğrulama başarısız oldu.
QUERY_WATCHDOG_CHECK_FAILED
Sorgu izleme denetimi başarısız oldu.
Daha fazla ayrıntı için bkz. QUERY_WATCHDOG_CHECK_FAILED
READ_CURRENT_FILE_NOT_FOUND
<message>
Temel dosyalar güncellenmiş olabilir. SQL'de 'REFRESH TABLE tableName' komutunu çalıştırarak veya ilgili Veri Kümesini/DataFrame'i yeniden oluşturarak Spark'taki önbelleği açıkça geçersiz kılabilirsiniz.
READ_FILES_AMBIGUOUS_ROUTINE_PARAMETERS
İşlev <functionName> çağrısında, <parameterName> ve <alternativeName>, birbirinin diğer adı olacak şekilde ayarlanmıştır. Lütfen bunlardan yalnızca birini ayarlayın.
READ_FILES_CREDENTIALS_PARSE_ERROR
read_files() işlevinin geçici kimlik bilgileri ayrıştırılırken bir hata oluştu.
Daha fazla ayrıntı için bkz. READ_FILES_CREDENTIALS_PARSE_ERROR
READ_TVF_UNEXPECTED_REQUIRED_PARAMETER
İşlev <functionName> için gerekli olan parametre <parameterName>, adı belirtilmeden <expectedPos> konumuna atanmalıdır.
RECIPIENT_EXPIRATION_NOT_SUPPORTED
Alıcı süre sonu zaman damgası için yalnızca TIMESTAMP/TIMESTAMP_LTZ/TIMESTAMP_NTZ türleri desteklenir.
RECURSION_LEVEL_LIMIT_EXCEEDED
Özyineleme seviye sınırına <levelLimit> ulaşıldı, ancak sorgu tamamlanmadı, 'WITH RECURSIVE t(col) MAX RECURSION LEVEL 200' gibi artırmayı deneyin.
RECURSION_ROW_LIMIT_EXCEEDED
Özyineleme satırı sınırına <rowLimit> ulaşıldı, ancak sorgu tükenmedi, CTE ilişkisini sorgularken daha büyük LIMIT bir değer ayarlamayı deneyin.
RECURSIVE_CTE_IN_LEGACY_MODE
Özyinelemeli tanımlar eski CTE öncelik modunda (spark.sql.legacy.ctePrecedencePolicy=LEGACY) kullanılamaz.
RECURSIVE_CTE_WITH_LEGACY_INLINE_FLAG
Özyinelemeli tanımlar, eski satır içi bayrağı true (spark.sql.legacy.inlineCTEInCommands=true) olarak ayarlandığında kullanılamaz.
RECURSIVE_PROTOBUF_SCHEMA
Protobuf şemasında varsayılan olarak Spark tarafından işlenemeyen özyinelemeli başvuru bulundu: <fieldDescriptor>. 1'den 10'a recursive.fields.max.depth seçeneğini ayarlamayı deneyin. 10 özyineleme düzeyinin ötesine geçilmesine izin verilmez.
RECURSIVE_VIEW
Özyinelemeli görünüm <viewIdent> algılandı (döngü: <newPath>).
REF_DEFAULT_VALUE_IS_NOT_ALLOWED_IN_PARTITION
DEFAULT koşulunda PARTITION sütun değerlerine başvurulara izin verilmez.
RELATION_LARGER_THAN_8G
8G'den büyük bir <relationName> oluşturmak mümkün değil.
REMAINDER_BY_ZERO
Kalan değer sıfır. Bölenin 0 olması durumunda bunu tolere etmek ve bunun yerine try_mod döndürmek için NULL kullanın. Gerekirse bu hatayı atlamak için "false" olarak ayarlayın <config> .
REMOTE_FUNCTION_HTTP_FAILED_ERROR
Uzak HTTP isteği <errorCode>kod ve hata iletisi <errorMessage> ile başarısız oldu
REMOTE_FUNCTION_HTTP_RESULT_PARSE_ERROR
Uzak HTTP yanıtından elde edilen <functionName> sonucu ayrıştıramama JSON nedeniyle SQL işlevi değerlendirilemedi; hata iletisi: <errorMessage>. API belgelerini denetleyin: <docUrl>. Lütfen hata iletisinde belirtilen sorunu düzeltin ve sorguyu yeniden deneyin.
REMOTE_FUNCTION_HTTP_RESULT_UNEXPECTED_ERROR
Beklenmeyen uzak HTTP yanıtını işleyememe nedeniyle <functionName> SQL işlevi değerlendirilemedi; hata iletisi <errorMessage>. API belgelerini denetleyin: <docUrl>. Lütfen hata iletisinde belirtilen sorunu düzeltin ve sorguyu yeniden deneyin.
REMOTE_FUNCTION_HTTP_RETRY_TIMEOUT
Uzak istek <N> kez yeniden denendikten sonra başarısız oldu; son başarısız HTTP hata kodu <errorCode> ve ileti <errorMessage>
REMOTE_FUNCTION_MISSING_REQUIREMENTS_ERROR
<functionName> SQL işlevi, <errorMessage>nedeniyle değerlendirilemedi.
<docUrl>içindeki gereksinimleri denetleyin. Lütfen hata iletisinde belirtilen sorunu düzeltin ve sorguyu yeniden deneyin.
REMOTE_QUERY_FUNCTION_UNSUPPORTED_CONNECTOR_PARAMETERS
<parameterNames>'' türünde<connectionName> bir '<connectionType>' bağlantısını sorgulayan remote_query işlevi için parametreler desteklenmez.
Daha fazla ayrıntı için bkz. REMOTE_QUERY_FUNCTION_UNSUPPORTED_CONNECTOR_PARAMETERS
RENAME_SRC_PATH_NOT_FOUND
<sourcePath> bulunamadığı için yeniden adlandırma başarısız oldu.
REPEATED_CLAUSE
<clause> yan tümcesi <operation> işlem başına en fazla bir kez kullanılabilir.
REQUIRED_PARAMETER_ALREADY_PROVIDED_POSITIONALLY
<routineName> rutini için gerekli parametre <parameterName>, ad olmadan <positionalIndex> konumunda atandı.
Bu parametre için adlandırılmış bağımsız değişkeni <parameterName> ile kaldırmak veya konumsal değişkeni kaldırmak için işlev çağrısını güncelleştirin
<positionalIndex> bağımsız değişkenini kullanın ve sorguyu yeniden deneyin.
REQUIRED_PARAMETER_NOT_FOUND
<routineName> adlı parametre gerekli olduğundan, ancak yordam çağrısı bir değer sağlamadığından, yordam <parameterName> çağrılamıyor. Lütfen rutin çağrıyı, bir argüman değeri sağlamak için (dizin <index> konumunda veya ada göre) güncelleyin ve sorguyu yeniden deneyin.
REQUIRES_EXPLICIT_NAME_IN_WATERMARK_CLAUSE
filigran yan tümcesi, ifade belirtilirse açık bir ad gerektirir, ancak alır <sqlExpr>.
REQUIRES_SINGLE_PART_NAMESPACE
<sessionCatalog> tek parçalı bir ad alanı gerektirir, ama <namespace> aldı.
RESCUED_DATA_COLUMN_CONFLICT_WITH_SINGLE_VARIANT
'rescuedDataColumn' DataFrame API okuyucu seçeneği, 'singleVariantColumn' DataFrame API seçeneğiyle birbirini dışlayan bir seçenektir.
Lütfen bunlardan birini kaldırın ve sonra DataFrame işlemini yeniden deneyin.
RESERVED_CDC_COLUMNS_ON_WRITE
Yazma işlemi kullanılan ayrılmış sütunları <columnList> içerir.
Dahili olarak Değişiklik Veri Akışı için meta veri olarak. Tabloya yazabilmek için yeniden adlandırın veya bırakın.
bu sütunları ayarlayın veya tabloda Veri Akışını Değiştir'i devre dışı bırakın
<config> false olarak ayarla.
RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
<option> seçeneği, <source> kaynağı için Paylaşılan kümelerdeki değerleri kısıtlamıştır.
RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED için daha fazla ayrıntıya bakınız.
ROUTINE_ALREADY_EXISTS
Bu adla bir <newRoutineType> <routineName> zaten mevcut olduğundan <existingRoutineType> oluşturulamıyor.
Mevcut <existingRoutineType>'u bırakın veya değiştirin, veya farklı bir ad seçin ya da önceden var olan bir IF NOT EXISTS'yi tolere etmek için <newRoutineType> yan tümcesini ekleyin.
ROUTINE_NOT_FOUND
Rutin <routineName> bulunamadı. Şemanın ve kataloğun yazımını ve doğruluğunu doğrulayın.
Adı bir şema ve katalogla nitelemediyseniz, current_schema() çıkışını doğrulayın veya adı doğru şema ve katalogla niteleyin.
Bırakma sırasındaki hatayı tolere etmek için kullanın DROP...IF EXISTS.
ROUTINE_PARAMETER_NOT_FOUND
Rutin <routineName>, <parameterName>konumundaki parametre <pos>'i desteklemez.<suggestion>
ROUTINE_USES_SYSTEM_RESERVED_CLASS_NAME
Belirtilen '<routineName>' sınıf adı sistem kullanımı için ayrıldığından işlev <className> oluşturulamıyor. Lütfen sınıfı yeniden adlandırın ve yeniden deneyin.
ROW_LEVEL_SECURITY_ABAC_MISMATCH
İlkelerden devralınan satır filtreleri ile açıkça tanımlanmış satır filtreleri arasındaki uyuşmazlık nedeniyle <tableName> üzerindeki satır filtreleri çözümlenemedi. Devam etmek için lütfen Öznitelik Tabanlı Erişim Denetimi'ni (ABAC) devre dışı bırakın ve Databricks desteğine başvurun.
ROW_LEVEL_SECURITY_CHECK_CONSTRAINT_UNSUPPORTED
Tablo CHECK üzerinde satır düzeyi güvenlik ilkeleriyle <tableName> kısıtlaması oluşturulması desteklenmez.
ROW_LEVEL_SECURITY_COLUMN_MASK_UNRESOLVED_REFERENCE_COLUMN
Satır filtresi veya sütun maskesi işlev parametresinde başvurulan ada <objectName> sahip bir sütun çözümlenemez.
Temel tablo şeması değiştiyse ve başvurulan sütun artık yoksa bu durum oluşabilir.
Örneğin, sütun bir dış sistemde (örneğin, federasyon tablosunda) kaldırıldıysa veya tablodaki bir REPLACE işlem sütunu bıraktıysa bu durum oluşabilir.
Bu sorunu çözmek için, tabloda yönetim ayrıcalıklarına sahip kullanıcılar kullanarak geçerli satır filtrelerini ve sütun maskelerini inceleyebilir ve ROW veya MASK kullanarak DESCRIBE TABLE EXTENDEDALTER TABLE...SET/DROP var olmayan sütunlara başvuran sütunları bırakabilir veya yeniden oluşturabilir.FILTER
Not: Databricks, yeni şema aynı sütunu içerdiğinde maske belirtilmemiş olsa bile işlemler sırasında REPLACE sütun maskelerini korumak için bir güvenlik geliştirmesi yaptı. Bu, tablolarda yanlışlıkla politika kaybını önler.
ROW_LEVEL_SECURITY_DUPLICATE_COLUMN_NAME
<statementType> deyimi bir tabloya satır düzeyi güvenlik ilkesi atamaya çalıştı, ancak başvurulan iki veya daha fazla sütun <columnName> aynı ada sahip olduğundan bu geçersiz.
ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
<tableName> için satır düzeyi güvenlik ilkeleri desteklenmez:
Daha fazla ayrıntı için bkz. ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
ROW_LEVEL_SECURITY_INCOMPATIBLE_SCHEMA_CHANGE
Satır düzeyi güvenlik ilkesinde referans alındığı için tablodan <statementType> <columnName><tableName> alınamıyor. Devam etmeden önce tablo sahibinin bu ilkeyi kaldırması veya değiştirmesi gerekir.
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_SOURCE
MERGE INTO işlemleri, <tableName>kaynak tablodaki satır düzeyi güvenlik ilkelerini desteklemez.
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_TARGET
MERGE INTO işlemleri, satır düzeyi güvenlik ilkeleriyle tablo <tableName>'e yazmayı desteklemez.
ROW_LEVEL_SECURITY_MULTI_PART_COLUMN_NAME
Bu ifade, bir tabloya satır düzeyinde güvenlik ilkesi atamaya çalıştı, ancak başvurulan sütun <columnName>'un birden çok ad kısmı bulunuyordu, bu da geçersiz.
ROW_LEVEL_SECURITY_REQUIRE_UNITY_CATALOG
Satır düzeyi güvenlik ilkeleri yalnızca Unity Kataloğu'nda desteklenir.
ROW_LEVEL_SECURITY_SECONDARY_INDEX_CREATION_UNSUPPORTED
Tabloda satır düzeyi güvenlik ilkesi tanımlandığından ikincil dizin ON TABLE <tableName> oluşturulamıyor.
ROW_LEVEL_SECURITY_SHOW_PARTITIONS_UNSUPPORTED
SHOW PARTITIONS komutu, satır düzeyi güvenlik ilkesine sahip<format> tablolarda desteklenmez.
ROW_LEVEL_SECURITY_TABLE_CLONE_SOURCE_NOT_SUPPORTED
Satır düzeyi güvenlik ilkesine sahip tablo <mode>'den <tableName>'a kopyalama desteklenmez.
ROW_LEVEL_SECURITY_TABLE_CLONE_TARGET_NOT_SUPPORTED
<mode>'dan, satır düzeyi güvenlik ilkesiyle tablo <tableName>'e klonlama desteklenmez.
ROW_LEVEL_SECURITY_UNSUPPORTED_CONSTANT_AS_PARAMETER
Satır düzeyi güvenlik ilkesinde parametre olarak sabit kullanılması desteklenmez. Satır filtresi tanımından sabiti kaldırmak için SQL komutunuzu güncelleştirin ve komutu yeniden deneyin.
ROW_LEVEL_SECURITY_UNSUPPORTED_DATA_TYPE
Satır düzeyi güvenlik ilkesi için kullanılan işlevin <functionName> desteklenmeyen veri türüne <dataType>sahip parametresi vardır.
ROW_LEVEL_SECURITY_UNSUPPORTED_PROVIDER
<statementType> komutu, tablo sağlayıcısı "<provider>" olan hedef veri kaynağı için satır düzeyi güvenlik ilkesi atanması desteklenmediğinden yürütülemedi.
ROW_SUBQUERY_TOO_MANY_ROWS
Bir satır olarak kullanılan bir alt sorgu tarafından birden fazla satır döndürüldü.
ROW_VALUE_IS_NULL
NULL dizinindeki satırda <index> bulundu, NULL olmayan bir değer bekleniyor.
RULE_ID_NOT_FOUND
"<ruleName>" kural adı için bir kimlik bulunamadı. Yeni bir kural ekliyorsanız lütfen RuleIdCollection.scala dosyasını değiştirin.
BOŞ_BORU_HATTINI_ÇALIŞTIR
İşlem hatlarında en az bir geçici olmayan veri kümesinin (tablolar, kalıcı görünümler) tanımlanması beklenir, ancak işlem hattınızda geçici olmayan veri kümesi bulunamadı.
Lütfen beklenen kaynak dosyaları dahil ettiğinizi ve kaynak kodunuzun tablo tanımlarını (örneğin, CREATE MATERIALIZED VIEW SQL kodunda, @dp.table python kodunda) içerdiğini doğrulayın.
SALESFORCE_DATA_SHARE_API_UNAUTHORIZED
Salesforce Veri Paylaşımı API'sine yetkilendirme başarısız oldu. Databricks bağlantı ayrıntılarının uygun Salesforce veri paylaşımı hedefine sağlandığını doğrulayın.
SAMPLE_TABLE_PERMISSIONS
İzinler örnek veritabanlarında/tablolarda desteklenmez.
SCALAR_FUNCTION_NOT_COMPATIBLE
ScalarFunction <scalarFunc> , 'produceResult(InternalRow)' yöntemini özel uygulamayla geçersiz kılmaz.
SCALAR_FUNCTION_NOT_FULLY_IMPLEMENTED
ScalarFunction <scalarFunc> 'produceResult(InternalRow)' yöntemini uygulamaz veya geçersiz kılmaz.
SCALAR_SUBQUERY_IS_IN_GROUP_BY_OR_AGGREGATE_FUNCTION
Bağıntılı skaler alt sorgusu '<sqlExpr>' ne GROUP BY içinde, ne de bir toplama işlevinde mevcuttur.
GROUP BY öğesini sıralama pozisyonunu kullanarak ekleyin veya hangi değeri aldığınız önemli değilse first() (veya first_value) içine sarmalayın.
SCALAR_SUBQUERY_TOO_MANY_ROWS
İfade olarak kullanılan bir alt sorgu, birden fazla satır döndürdü.
SCDS_COMMIT_LOG_UNAVAILABLE
İşleme günlüğü checkpoint location=<checkpointLocation> ile mevcut değil.
SCDS_INVALID_OPTION_VALUE (geçersiz seçenek değeri)
source option=<optionName> için geçersiz değer ve errorMsg=<message>.
SCDS_OFFSET_LOG_KULLANILAMAZ
Uzaklık günlüğü, denetim noktası konumu=<checkpointLocation> ile mevcut değil.
Gerekli SCDS Seçeneği Belirtilmemiş
Gerekli seçenek=<optionName> belirtilmedi.
SCHEDULE_ALREADY_EXISTS
zaten <scheduleType>olan bir tabloya <existingScheduleType> eklenemez. Lütfen mevcut zamanlamayı bırakın veya . ALTER TABLE...ALTER <scheduleType> .. öğesini seçin.
SCHEDULE_PERIOD_INVALID
<timeUnit> zamanlama dönemi 1 ile <upperBound> (dahil) arasında bir tamsayı değeri olmalıdır. Alındı: <actual>.
SCHEMA_ALREADY_EXISTS
Şema <schemaName> zaten var olduğundan oluşturulamıyor.
Farklı bir ad seçin, var olan şemayı bırakın veya önceden var olan şemayı tolere etmek için IF NOT EXISTS yan tümcesini ekleyin.
SCHEMA_NOT_EMPTY
Şema <schemaName>, nesneler içerdiği için silinemiyor.
Şemayı ve tüm nesnelerini bırakmak için kullanın DROP SCHEMA...CASCADE .
SCHEMA_NOT_FOUND
Şema <schemaName> bulunamıyor. Şemanın ve kataloğun yazımını ve doğruluğunu doğrulayın.
Adı bir katalogla nitelemediyseniz, current_schema() çıkışını doğrulayın veya adı doğru katalogla niteleyin.
Düşme hatasını tolere etmek için DROP SCHEMA IF EXISTSkullanın.
SCHEMA_REGISTRY_CONFIGURATION_ERROR
Şema kayıt deposundan alınan şema başlatılamadı.
<reason>.
SEARCH_INDEX_CATALOG_SCHEMA_MISMATCH
Katalog <indexName> ve şemada <indexCatalog>arama dizini <indexSchema> oluşturulamıyor. Dizin, temel tabloyla <tableName> (<tableCatalog>aynı katalogda ve şemada oluşturulmalıdır.<tableSchema>).
SEARCH_INDEX_INVALID_PARAMETERS
Arama dizini oluşturulamıyor, geçersiz parametre verildi:
Daha fazla ayrıntı için bkz. SEARCH_INDEX_INVALID_PARAMETERS
SEARCH_INDEX_NAME_CONFLICTS_WITH_TABLE
Dizin adına <indexName> sahip tablo zaten var. Lütfen var olan tablolarla çakışmayan özel bir dizin adı sağlayın.
SEARCH_INDEX_OUTDATED_SCHEMA
Arama dizininde <indexName> güncel olmayan bir şema var. Aşağıdakileri kullanarak dizini yeniden oluşturun:
DROP SEARCH INDEX <indexName>;
CREATE SEARCH INDEX <indexName> ON <tableName>(<columnsList>);
SEARCH_REQUIRES_SEARCHABLE_COLUMNS
<context> , aranabilir türlere (STRING COLLATE UTF8_BINARY, VARIANTveya ARRAY) sahip sütunlar gerektirir.
Daha fazla ayrıntı için bkz. SEARCH_REQUIRES_SEARCHABLE_COLUMNS
SEARCH_REQUIRES_STRING_LITERALS_ARGUMENTS
SEARCH
<argument> bağımsız değişkenin dize değişmez değerleri olmasını gerektirir, ancak <actualExpr> verilmiştir. <possibleOptionsMessage>
SECONDARY_INDEX_REQUIRES_MANAGED_TABLE
Yapılamaz <operation> ON TABLE <tableName>. İşlem yalnızca yönetilen tablolarda gerçekleştirilebilir.
Tabloyu yönetilen tabloya dönüştürmek için komutunu kullanın ALTER TABLE <tableName> SET MANAGED .
Daha fazla bilgi için bkz. https://docs.databricks.com/aws/en/tables/convert-external-managed
SECONDARY_INDEX_UNSUPPORTED_TABLE_FORMAT
-Maz <operation> ON TABLE <tableName>
İşlem yalnızca şu biçimlere sahip tablolarda gerçekleştirilebilir: <supportedFormats>.
ile DESCRIBE DETAIL <tableName>tablo biçimini doğrulayın.
Geçerli biçim Parquet veya Apache Iceberg ise, bunu TO CONVERTile DELTA <tableName> kalıcı olarak dönüştürebilirsiniz; bkz.https://docs.databricks.com/aws/en/sql/language-manual/delta-convert-to-delta
Aksi takdirde, tabloyu desteklenen biçimlerden birinde yeniden oluşturun.
SECOND_FUNCTION_ARGUMENT_NOT_INTEGER
<functionName> işlevinin ikinci bağımsız değişkeni tamsayı olmalıdır.
SECRET_FUNCTION_INVALID_LOCATION
<commandType> işlevine bir veya daha fazla şifrelenmemiş başvuruyla SECRET komutu yürütülemez; lütfen bu tür her işlev çağrısının sonucunu AES_ENCRYPT ile şifreleyin ve komutu yeniden deneyin
SECURABLE_DOES_NOT_EXIST
<securable> yok.
SEED_EXPRESSION_IS_UNFOLDABLE
<seedExpr> olan ifadenin tohum ifadesi <exprWithSeed> katlanabilir olmalıdır.
SERVER_IS_BUSY
Sunucu meşgul ve isteği işleyemedi. Lütfen biraz bekleyin ve yeniden deneyin.
SET_QUERY_TAGS_SYNTAX_INVALID
Söz dizimi geçersiz olduğundan komut yürütülemedi SET . Bu komut SET QUERY_TAGS için beklenen söz dizimi veya SET QUERY_TAGS['key'] = 'value'. Lütfen komutu bu söz dizimine uyacak şekilde düzeltin ve yeniden çalıştırın.
SFTP_DEPRECATED_SSH_RSA_KEY_ALGORITHM
SFTP sunucusu <host>:<port> anahtar değişimi için kullanım dışı bırakılmış SSH RSA algoritmasını kullanıyor.
veya ED25519 gibi ECDSA daha güvenli bir algoritma kullanmak için SFTP sunucusunu yükseltmeyi göz önünde bulundurun.
Alternatif olarak, true olarak ayarlayarak <escapeHatchConf> bu hatayı atlayabilirsiniz
SFTP_UNABLE_TO_CONNECT
<host> kullanıcı adıyla <port> bağlantı noktasında <user> SFTP sunucusuna bağlanılamadı.
<error>
SFTP_BİLİNMEYEN_HOST_ANAHTARI
SFTP sunucusunun <host> ana bilgisayar anahtarı bilinmiyor veya değişti.
Lütfen aşağıdaki hata iletisini doğrulayın ve alanda anahtar parmak izini Key fingerprint sağlayın.
Örneğin, iletide 'ECDSA anahtar parmak izi SHA256:XXX/YYY' ifadesi varsa, anahtar parmak izi olarak 'SHA256:XXX/YYY' gönderin.
Bağlantı hata iletisi:
<error>
SFTP_USER_DOES_NOT_MATCH
Kimlik bilgisinden <credentialUser> alınan kullanıcı, SFTP yolunda <path>belirtilen kullanıcıyla eşleşmiyor.
SHOW_COLUMNS_WITH_CONFLICT_NAMESPACE
Çakışan ad alanlarına sahip SHOW COLUMNS: <namespaceA> != <namespaceB>.
SNOWFLAKE_VERİ_KAYNAĞI_SEÇENEKLERİ_DOĞRULAMA_BAŞARISIZ
Snowflake veri kaynağı seçenekleri doğrulanamadı.
Daha fazla ayrıntı için bkz. SNOWFLAKE_DATA_SOURCE_OPTIONS_VALIDATION_FAILED
SORT_BY_WITHOUT_BUCKETING
sortBy, bucketBy ile birlikte kullanılmalıdır.
SPARK_JOB_CANCELLED
İş <jobId> iptal edildi. <reason>
SPECIFY_BUCKETING_IS_NOT_ALLOWED
Açık sütun listesi olmayan bir CREATE TABLE demet bilgilerini belirtemez.
Lütfen formu açık sütun listesiyle birlikte kullanın ve kümeleme bilgilerini belirtin.
Alternatif olarak, yan tümceyi çıkararak demetleme bilgilerinin tahmin edilmesine izin verin.
SPECIFY_CLUSTER_BY_WITH_BUCKETING_IS_NOT_ALLOWED
Hem CLUSTER BY hem de CLUSTERED BY INTO BUCKETSaynı anda belirtilemez.
SPECIFY_CLUSTER_BY_WITH_PARTITIONED_BY_IS_NOT_ALLOWED
Hem CLUSTER BY hem de PARTITIONED BYaynı anda belirtilemez.
SPECIFY_PARTITION_IS_NOT_ALLOWED
Açık sütun listesi olmayan bir CREATE TABLEPARTITIONED BYbelirtemez.
Lütfen formu açık sütun listesiyle birlikte kullanın ve PARTITIONED BYbelirtin.
Alternatif olarak, PARTITION BY yan tümcesini çıkararak bölümlemenin otomatik olarak belirlenmesine izin verin.
SQL_CONF_NOT_FOUND
SQL yapılandırması <sqlConf> bulunamıyor. Lütfen yapılandırmanın var olduğunu doğrulayın.
SQL_SCRIPT_IN_EXECUTE_IMMEDIATE
Komutlardaki EXECUTE IMMEDIATE SQL Betiklerine izin verilmez. Sağlanan SQL sorgusunun (<sqlString>) SQL Betiği olmadığından emin olun. sql_string'in iyi biçimlendirilmiş bir SQL deyimi olduğundan ve BEGIN ile END içermediğinden emin olun.
SQL_SCRIPT_MAX_NUMBER_OF_CHARACTERS_EXCEEDED
SQL Betiğindeki (id: <scriptId>) en fazla karakter sayısı aşıldı. İzin verilen maksimum karakter sayısı <maxChars> ve betikte <chars> karakter vardı.
SQL_SCRIPT_MAX_NUMBER_OF_LINES_EXCEEDED
SQL Betiğindeki (id: <scriptId>) satır sayısı üst sınırı aşıldı. İzin verilen en fazla satır sayısı <maxLines>, ve betik <lines> satır içeriyor.
SQL_SCRIPT_MAX_NUMBER_OF_LOCAL_VARIABLE_DECLARATIONS_EXCEEDED
SQL Betiğindeki (id: <scriptId>) en fazla yerel değişken bildirimi sayısı aşıldı. İzin verilen maksimum bildirim sayısı <maxDeclarations>'tür ve betikte <declarations> bulunmaktaydı.
SQL_STORED_PROCEDURES_NESTED_CALLS_LIMIT_EXCEEDED
Azami sayıda iç içe geçmiş prosedür çağrısı aşıldı (isim: <procedureName>, çağrı kimliği: <procedureCallId>). İzin verilen en fazla iç içe yordam çağrısı sayısıdır <limit>.
STAGING_PATH_CURRENTLY_INACCESSIBLE
<path>hedef hazırlama yoluna erişilirken geçici hata oluştu, lütfen birkaç dakika içinde deneyin
STAR_GROUP_BY_POS
Sıralı konum GROUP BY kullanıldığında seçme listesinde Yıldız (*) işaretine izin verilmez.
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_HANDLE_STATE
Geçersiz tanıtıcı durumu=<operationType> ile durum bilgisi gerektiren işlemci operasyonu=<handleState> gerçekleştirilemedi.
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_TIME_MODE
Durum bilgisini kullanan işlemci işlemi=<operationType>, geçersiz timeMode=<timeMode> nedeniyle gerçekleştirilemedi
STATEFUL_PROCESSOR_DUPLICATE_STATE_VARIABLE_DEFINED
StatefulProcessor'da <stateVarName> adlı durum değişkeni zaten tanımlanmıştır.
STATEFUL_PROCESSOR_INCORRECT_TIME_MODE_TO_ASSIGN_TTL
timeMode=<stateName>içinde state=<timeMode> için TTL kullanılamaz, bunun yerine TimeMode.ProcessingTime() kullanın.
STATEFUL_PROCESSOR_TTL_DURATION_MUST_BE_POSITIVE
<operationType> durumunda, durum deposu işlemi=<stateName> için TTL süresi sıfırdan büyük olmalıdır.
STATEFUL_PROCESSOR_UNKNOWN_TIME_MODE
Bilinmeyen zaman modu <timeMode>. timeMode için kabul edilen modlar: 'none', 'processingTime', 'eventTime'
STATE_REPARTITION_INVALID_CHECKPOINT
Sağlanan denetim noktası konumu '<checkpointLocation>' geçersiz durumda.
Daha fazla ayrıntı için bkz. STATE_REPARTITION_INVALID_CHECKPOINT
STATE_REPARTITION_INVALID_PARAMETER
Repartition parametresi <parameter> geçersiz:
Daha fazla ayrıntı için bkz. STATE_REPARTITION_INVALID_PARAMETER
STATE_STORE_CANNOT_CREATE_COLUMN_FAMILY_WITH_RESERVED_CHARS
Desteklenmeyen başlangıç karakteri ve name=<colFamilyName>ile sütun ailesi oluşturulamadı.
STATE_STORE_CANNOT_USE_COLUMN_FAMILY_WITH_INVALID_NAME
Geçersiz isim=<operationName> ile sütun ailesi işlemi=<colFamilyName> gerçekleştirilemedi. Sütun ailesi adı boş olamaz, baştaki veya sondaki boşlukları içeremez veya ayrılmış anahtar kelime olan 'varsayılan'ı kullanamaz.
STATE_STORE_CHECKPOINT_IDS_NOT_SUPPORTED
<msg>
STATE_STORE_CHECKPOINT_LOCATION_NOT_EMPTY
0. toplu işlemde denetim noktası konumu <checkpointLocation> boş olmalıdır
Lütfen yeni bir denetim noktası konumu kullanın veya denetim noktası konumundaki mevcut verileri silin.
STATE_STORE_COLUMN_FAMILY_SCHEMA_INCOMPATIBLE
family=<colFamilyName>, oldSchema=<oldSchema>, newSchema=<newSchema>sütunuyla uyumsuz şema dönüşümü.
STATE_STORE_DOES_NOT_SUPPORT_REUSABLE_ITERATOR
StateStore <inputClass> yeniden kullanılabilir yineleyiciyi desteklemez.
STATE_STORE_HANDLE_NOT_INITIALIZED
Bu StatefulProcessor için işlemci başlatılmadı.
Lütfen yalnızca transformWithState işleci içinde StatefulProcessor kullanın.
STATE_STORE_INCORRECT_NUM_ORDERING_COLS_FOR_RANGE_SCAN
Aralık tarama kodlayıcısı için yanlış sayıda sıralama basamakları=<numOrderingCols>. Sıralama sıralarının sayısı, şema sütunlarının sayısından sıfır veya daha büyük olamaz.
STATE_STORE_INCORRECT_NUM_PREFIX_COLS_FOR_PREFIX_SCAN
Önek tarama kodlayıcı için sütun sayısı hatalı=<numPrefixCols>. Ön ek sütunları sıfır veya şema sütunlarının sayısına eşit veya ondan büyük olamaz.
STATE_STORE_INVALID_AVRO_SCHEMA
Avro kodlaması için geçersiz bir şema algılandı.
Daha fazla ayrıntı için bkz. STATE_STORE_INVALID_AVRO_SCHEMA
STATE_STORE_INVALID_CONFIG_AFTER_RESTART
yeniden başlatmalar arasında <configName><oldConfig><newConfig> olarak değiştirilemez. lütfen <configName><oldConfig>olarak ayarlayın veya yeni bir denetim noktası diziniyle yeniden başlatın.
STATE_STORE_INVALID_PROVIDER
Belirtilen Durum Deposu Sağlayıcısı <inputClass> org.apache.spark.sql.execution.streaming.state.StateStoreProvider'ı genişletmez.
STATE_STORE_INVALID_VARIABLE_TYPE_CHANGE
Sorgu yeniden başlatmaları arasında <stateVarName><newType> olarak değiştirilemez. lütfen <stateVarName><oldType>olarak ayarlayın veya yeni bir denetim noktası diziniyle yeniden başlatın.
DURUM_MAĞAZASI_ANAHTAR ŞEMASI_UYUMLU_DEĞİL
Sağlanan anahtar şeması, işleç durumundaki mevcut şemayla eşleşmiyor.
Mevcut şema=<storedKeySchema>; sağlanan schema=<newKeySchema>.
Sorguyu şema doğrulaması olmadan çalıştırmak için spark.sql.streaming.stateStore.stateSchemaCheck değerini false olarak ayarlayın.
Şema doğrulaması olmadan çalıştırmanın belirleyici olmayan davranışlara sahip olabileceğini unutmayın.
STATE_STORE_NATIVE_ROCKSDB_TIMEOUT
Durum bilgisi olan akış işlemi için RocksDB durum deposuna erişirken, yerel RocksDB işlevini çağırmak, <funcName> ms bekledikten sonra zaman aşımına uğradı. Hata devam ederse lütfen yeniden deneyin ve kümeyi yeniden başlatın.
STATE_STORE_NULL_TYPE_ORDERING_COLS_NOT_SUPPORTED
Name=<fieldName> olan null türündeki sıralama sütunu, index=<index>'de aralık tarama kodlayıcısı için desteklenmez.
STATE_STORE_PROVIDER_DOES_NOT_SUPPORT_FINE_GRAINED_STATE_REPLAY
Belirtilen Durum Deposu Sağlayıcısı <inputClass> org.apache.spark.sql.execution.streaming.state.SupportsFineGrainedReplay'i genişletmez.
Bu nedenle, durum veri kaynağında snapshotStartBatchId veya readChangeFeed seçeneğini desteklemez.
STATE_STORE_ROCKSDB_ZIP_ALREADY_EXISTS
RocksDB anlık görüntü zip dosyası <zipFilePath> zaten var. Bu, anlık görüntünün DFS'ye zaten yüklenmiş olduğu anlamına gelir.
(allowVersionOverwrite=<allowVersionOverwrite>, shouldUseCommitService=<shouldUseCommitService>)
STATE_STORE_STATE_SCHEMA_FILES_THRESHOLD_EXCEEDED
<numStateSchemaFiles> durum şeması dosyalarının sayısı, bu sorgu için en fazla durum şeması dosyası sayısını aşıyor: <maxStateSchemaFiles>.
Eklendi: <addedColumnFamilies>, Kaldırıldı: <removedColumnFamilies>
Lütfen 'spark.sql.streaming.stateStore.stateSchemaFilesThreshold' değerini daha yüksek bir sayıya ayarlayın veya durum şeması değişikliklerini geri alın
STATE_STORE_UNSUPPORTED_OPERATION_ON_MISSING_COLUMN_FAMILY
State store operation=<operationType> eksik sütun ailesi=<colFamilyName>üzerinde desteklenmiyor.
STATE_STORE_VALUE_SCHEMA_EVOLUTION_THRESHOLD_EXCEEDED
<numSchemaEvolutions> durum şeması evrimlerinin sayısı, bu sütun ailesi için izin verilen <maxSchemaEvolutions>durum şeması evrimi sayısı üst sınırını aşıyor.
Sorunlu sütun ailesi: <colFamilyName>
Lütfen 'spark.sql.streaming.stateStore.valueStateSchemaEvolutionThreshold' değerini daha yüksek bir sayıya ayarlayın veya durum şeması değişikliklerini geri alın
DURUM_DEPOSU_DEĞER_SCHÉMASI_UYUMLU_DEĞİL
Sağlanan değer şeması, işleç durumundaki mevcut şemayla eşleşmiyor.
Mevcut şema=<storedValueSchema>; sağlanan schema=<newValueSchema>.
Sorguyu şema doğrulaması olmadan çalıştırmak için spark.sql.streaming.stateStore.stateSchemaCheck değerini false olarak ayarlayın.
Şema doğrulaması olmadan çalıştırmanın belirleyici olmayan davranışlara sahip olabileceğini unutmayın.
STATE_STORE_VARIABLE_SIZE_ORDERING_COLS_NOT_SUPPORTED
Index=<fieldName> ve isim=<index> olan değişken boyutlu sıralama sütunu, aralık tarama kodlayıcı için desteklenmez.
STATIC_PARTITION_COLUMN_IN_INSERT_COLUMN_LIST
Statik bölüm sütunu <staticName> ayrıca sütun listesinde belirtilmiştir.
STDS_COMMITTED_BATCH_UNAVAILABLE
Taahhüt edilmiş toplu işlem bulunamadı, denetim noktası konumu: <checkpointLocation>. Durdurmadan önce sorgunun çalıştığından ve herhangi bir mikro işlemi sonuçlandırdığından emin olun.
STDS_CONFLICT_OPTIONS
<options> seçenekler birlikte belirtilemez. Lütfen birini belirtin.
STDS_FAILED_TO_READ_OPERATOR_METADATA
checkpointLocation=<checkpointLocation> ve batchId=<batchId>için işleç meta verileri okunamadı.
Dosya yok veya dosya bozuk.
İşleç meta verilerini oluşturmak için akış sorgusunu yeniden çalıştırın ve hata devam ederse ilgili topluluklara veya satıcılara rapor edin.
STDS_FAILED_TO_READ_STATE_SCHEMA
Durum şeması okuma işlemi başarısız oldu. Dosya yok veya dosya bozuk. seçenekler: <sourceOptions>.
Durum şemasını oluşturmak için akış sorgusunu yeniden çalıştırın ve hata devam ederse ilgili topluluklara veya satıcılara rapor edin.
STDS_INVALID_OPTION_VALUE
'<optionName>' kaynak seçeneği için geçersiz değer:
Daha fazla ayrıntı için bkz. STDS_INVALID_OPTION_VALUE
STDS_MIXED_CHECKPOINT_FORMAT_VERSIONS_NOT_SUPPORTED
Farklı denetim noktası biçimi sürümleri arasında okuma durumu desteklenmez.
startBatchId=<startBatchId>, endBatchId=<endBatchId>.
startFormatVersion=<startFormatVersion>, endFormatVersion=<endFormatVersion>.
STDS_NO_PARTITION_DISCOVERED_IN_STATE_STORE
Devlette herhangi bir bölümleme yok. Lütfen sorgunun geçerli duruma işaret ettiğini bir kez daha denetleyin. seçenekler: <sourceOptions>
STDS_OFFSET_LOG_UNAVAILABLE
<batchId> için ofset günlüğü mevcut değil, denetim noktası yeri: <checkpointLocation>.
Lütfen sorgulama için kullanılabilen toplu iş kimliğini belirtin; durum meta verisi veri kaynağını kullanarak kullanılabilir toplu kimlikleri sorgulayabilirsiniz.
STDS_OFFSET_METADATA_LOG_UNAVAILABLE
<batchId> ofset günlüğünün meta verileri mevcut değil, denetim noktası konumu: <checkpointLocation>.
Denetim noktası yalnızca eski Spark sürümleriyle çalışıyor gibi görünüyor. Spark'ın durum meta verilerini oluşturması için akış sorgusunu son Spark sürümüyle çalıştırın.
STDS_REQUIRED_OPTION_UNSPECIFIED
'<optionName>' belirtilmelidir.
STREAMING_AQE_NOT_SUPPORTED_FOR_STATEFUL_OPERATORS
Uyarlamalı Sorgu Yürütme, Yapılandırılmış Akış'taki durum bilgisi olan işleçler için desteklenmez.
YAYIN_KONTROL_NOKTASI_METADATA_HATASI
Akış denetim noktası meta verilerinde hata oluştu.
Daha fazla ayrıntı için bkz. STREAMING_CHECKPOINT_METADATA_ERROR
STREAMING_CHECKPOINT_PIN_BATCH_ERROR
batchId=<checkpointLocation> konumunda denetim noktası location=<batchId> ile akış sorgusu için sabitleme işlemi gerçekleştirilemedi.
Daha fazla ayrıntı için bkz. STREAMING_CHECKPOINT_PIN_BATCH_ERROR
STREAMING_CHECKPOINT_REWIND_ERROR
Denetim noktası location=<checkpointLocation> ile akış sorgusu için geri sarma işlemi gerçekleştirilemedi.
Daha fazla ayrıntı için bkz. STREAMING_CHECKPOINT_REWIND_ERROR
AKIŞ_KONTROL_NOKTASI_GERI_SARMA_SEÇENEKLERİ_HATASI
Akış denetim noktası geri sarma işlemi sırasında hata oluştu.
Daha fazla ayrıntı için bkz. STREAMING_CHECKPOINT_REWIND_OPTIONS_ERROR
STREAMING_FROM_MATERIALIZED_VIEW
Gerçekleştirilmiş görünüm <viewName>'dan akış yapılamıyor. Gerçekleştirilmiş görünümlerden veri akışı desteklenmez.
STREAMING_OUTPUT_MODE
Geçersiz akış çıkış modu: <outputMode>.
Daha fazla ayrıntı için bkz. STREAMING_OUTPUT_MODE
STREAMING_QUERY_EVOLUTION_ERROR
Akış sorgusu evrim hatası:
Daha fazla ayrıntı için bkz. STREAMING_QUERY_EVOLUTION_ERROR
STREAMING_RATE_SOURCE_OFFSET_VERSION_MISMATCH
Oran kaynağı uzaklığı sürümü <expectedVersion>bekleniyor, ancak sürümü <actualVersion>var. Devam etmek için hız kaynağı seçeneklerinde "sürüm" seçeneğini <expectedVersion> olarak ayarlayın. Örneğin, spark.readStream.format("rate").option("version", "<expectedVersion>").
YAYIN_ÖLÇÜ_MENŞEİ_V2_BÖLÜM_NUMARASI_DEĞİŞİKLİĞİ_DESTEKLENMİYOR
Önceki mikrobatchte kullanılan bölüm sayısı (<prevNum>) geçerli bölüm sayısından (<currNum> ) farklıdır. bunun iki olası nedeni olabilir:
Sorgu yeniden başlatma sırasında hız kaynağının "numPartitions" seçeneği değiştirilir.
Sorgu yeniden başlatma sırasında kümenin boyutu değişebilir.
Bu sorunu çözmek için <prevNum> oran kaynağının "numPartitions" seçeneğini açıkça ayarlayın.
Akış Hızı Kaynağı V2 Artış Zamanı Desteklenmiyor
"rampUpTime" seçeneği, hız sürümü 2 tarafından desteklenmez. Bu seçeneği kullanmak için "sürüm"ü 1 şeklinde ayarlayın. Örneğin spark.readStream.format("rate").option("version", "1").
STREAMING_REAL_TIME_MODE
Gerçek zamanlı akış modu aşağıdaki sınırlamalara sahiptir:
Daha fazla ayrıntı için bkz. STREAMING_REAL_TIME_MODE
AKIŞ GERÇEK ZAMANLI SU İŞARETİ YAYILIMI
Gerçek zamanlı filigran yayma akışı aşağıdaki sınırlamalara sahiptir:
Daha fazla ayrıntı için bkz. STREAMING_REAL_TIME_WATERMARK_PROPAGATION
AKIŞ_ALICI_TESLİMAT_MODU
Geçersiz akış havuzu teslim modu: <deliveryMode>.
Daha fazla ayrıntı için bkz. STREAMING_SINK_DELIVERY_MODE
STREAMING_SKIP_OFFSETS_INVALID_RANGE
Geçersiz atlama uzaklığı aralığı: bitiş uzaklığı <endOffset> başlangıç uzaklığından <startOffset>küçük. Bu uzaklık aralığını düzeltin ve yeniden deneyin.
STREAMING_STATEFUL_OPERATOR_MISSING_STATE_DIRECTORY
Durum dizini boş veya eksik olduğundan durum bilgisi olan işleçlerle akış sorgusu yeniden başlatılamıyor.
Bu durum genellikle durum dosyaları silindiğinde veya akış sorgusu daha önce durum bilgisi olan işleçler olmadan çalıştırıldığında ancak durum bilgisi olan işleçlerle yeniden başlatıldığında oluşur.
Lütfen durum bilgisi olan işleçleri kaldırın, yeni bir denetim noktası konumu kullanın veya eksik durum dosyalarını geri yükleyin.
STREAMING_STATEFUL_OPERATOR_NOT_MATCH_IN_STATE_METADATA
Akış durumu olan işleç adı, durum meta verilerindeki işleçle eşleşmiyor. Bu durum, kullanıcı mevcut akış sorgusunun durum bilgisi olan işlecini eklediğinde/kaldırdığında/değiştirdiğinde meydana gelebilir.
Meta verilerdeki durum bilgisi olan işleçler: [<OpsInMetadataSeq>]; Geçerli toplu işlemdeki durum bilgisi olan işleçler: [<OpsInCurBatchSeq>].
STREAMING_TABLE_NEEDS_REFRESH
Akış tablosu <tableName>'ın, <operation>yürütmek için yenilenmesi gerekir.
Tablo DBSQLtarafından oluşturulduysa lütfen REFRESH STREAMING TABLEçalıştırın.
Tablo Lakeflow Spark Bildirimli İşlem Hatları'ndaki bir işlem hattı tarafından oluşturulduysa, lütfen bir işlem hattı güncelleştirmesi çalıştırın.
STREAMING_TABLE_NOT_SUPPORTED
akış tabloları yalnızca Lakeflow Spark Bildirimli İşlem Hatlarında ve Databricks SQL Ambarlarında oluşturulabilir ve yenilenebilir.
STREAMING_TABLE_OPERATION_NOT_ALLOWED
<operation> işlemi izin verilmiyor.
Daha fazla ayrıntı için bkz. STREAMING_TABLE_OPERATION_NOT_ALLOWED
STREAMING_TABLE_QUERY_INVALID
akış tablosu <tableName> yalnızca bir akış sorgusundan oluşturulabilir. Bu ilişkiyi akış sorgusuna dönüştürmek için lütfen STREAM yan tümcenize FROM anahtar sözcüğünü ekleyin.
STREAM_NOT_FOUND_FOR_KINESIS_SOURCE
<streamName> adlı Kinesis akışı <region> konumunda bulunamadı.
Lütfen doğru akış adına işaret eden yeni bir sorgu başlatın.
STRUCT_ARRAY_LENGTH_MISMATCH
Giriş satırı, şemanın gerektirdiği beklenen değer sayısına sahip değil.
<expected> alanları gereklidir ve <actual> değerleri sağlanmıştır.
ST_INVALID_ALGORITHM_VALUE
Geçersiz veya desteklenmeyen kenar ilişkilendirme algoritması değeri: ''<alg>.
ST_INVALID_CRS_VALUE
Geçersiz veya desteklenmeyen CRS (koordinat başvuru sistemi) değeri: '<crs>'.
ST_INVALID_SRID_VALUE
Geçersiz veya desteklenmeyen SRID (uzamsal başvuru tanımlayıcısı) değeri: <srid>.
SUM_OF_LIMIT_AND_OFFSET_EXCEEDS_MAX_INT
LIMIT yan tümcesinin ve OFFSET yan tümcesinin toplamı en fazla 32 bit tamsayı değerinden (2.147.483.647) büyük olmamalıdır, ancak sınır = <limit>, offset = <offset>bulunmalıdır.
SYNC_METADATA_DELTA_ONLY
Tablo eşitleme meta verilerini onar komutu yalnızca delta tablosu için desteklenir.
SYNC_SRC_TARGET_TBL_NOT_SAME
Kaynak tablo adı <srcTable><destTable>hedef tablo adıyla aynı olmalıdır.
SYNTAX_DISCONTINUED
Bu bağlamda, <clause> yan cümlesi veya anahtar kelime desteği durdurulmuştur.
Daha fazla ayrıntı için bkz. SYNTAX_DISCONTINUED
TABLO_ARGÜMANLARI_İZİN_VERİLMEZ (TABLE_ARGUMENTS_NOT_ALLOWED)
TABLE parametreleri için <routineType> desteklenmez.
TABLE_NOT_VALID_SECONDARY_INDEX
Tablo DESCRIBE SEARCH INDEX geçerli <tableName> bir dizin olmadığından komut yürütülemedi<indexType>. Lütfen geçerli bir dizin kullanmak için komutunu güncelleştirin ve yeniden deneyin.
TABLE_OR_VIEW_ALREADY_EXISTS
Zaten var olduğundan tablo oluşturulamıyor veya <relationName> görüntülenemiyor.
Farklı bir ad seçin, var olan nesneyi bırakın, önceden var olan nesneleri tolere etmek için IF NOT EXISTS yan tümcesini ekleyin, var olan gerçekleştirilmiş görünümü değiştirmek için OR REPLACE yan tümcesini ekleyin veya mevcut akış tablosunu yenilemek için OR REFRESH yan tümcesini ekleyin.
TABLE_OR_VIEW_NOT_FOUND
Tablo veya görünüm <relationName> bulunamıyor. Şemanın ve kataloğun yazımını ve doğruluğunu doğrulayın.
Adı bir şemayla nitelemediyseniz, current_schema() çıkışını doğrulayın veya adı doğru şema ve katalogla niteleyin.
Bırakma sırasındaki hatayı tolere etmek için DROP VIEW IF EXISTS veya DROP TABLE IF EXISTSkullanın.
Daha fazla ayrıntı için bkz. TABLE_OR_VIEW_NOT_FOUND
TABLE_TYPE_INCOMPATIBLE_WITH_ABAC_POLICY
tablo türü <tableName>, <tableType>, ABAC ilkelerini desteklemez.
Lütfen ilkeleri kaldırın ve yeniden deneyin.
TABLE_VALUED_ARGUMENTS_NOT_YET_IMPLEMENTED_FOR_SQL_FUNCTIONS
Henüz bu işlevsellik uygulanmadığından, <action> bağımsız değişkenleriyle SQL kullanıcı tanımlı işlev <functionName>TABLE çalıştırılamıyor.
TABLE_VALUED_FUNCTION_FAILED_TO_ANALYZE_IN_PYTHON
Python kullanıcı tanımlı tablo işlevi çözümlanamadı: <msg>
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INCOMPATIBLE_WITH_CALL
<functionName> tablosu işlevi, <requestedMetadata> tablo meta verilerine sahip olduğu için değerlendirilemedi, ancak işlev çağrısı <invalidFunctionCallProperty> yapıldı.
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INVALID
Tablo meta verileri geçersiz olduğundan tablo işlevi <functionName> değerlendirilemedi; <reason>.
TABLE_VALUED_FUNCTION_TOO_MANY_TABLE_ARGUMENTS
Tablo değerli fonksiyon için çok fazla tablo parametresi var.
Bir tablo bağımsız değişkenine izin verir, ancak şu değeri aldı: <num>.
İzin vermek istiyorsanız lütfen "spark.sql.allowMultipleTableArguments.enabled" değerini "true" olarak ayarlayın
TABLE_WITH_ID_NOT_FOUND
<tableId> kimlik numaralı tablo bulunamıyor. UUID'nin doğruluğunu doğrulayın.
TASK_WRITE_FAILED
<path>'a satır yazılırken görev başarısızlıkla sonuçlandı.
TEMP_CHECKPOINT_LOCATION_NOT_SUPPORTED
Geçerli çalışma alanında örtük geçici akış denetim noktası konumları desteklenmiyor, lütfen açıkça bir denetim noktası konumu belirtin.
Görüntüleme() için, aşağıdakileri kullanarak denetim noktası konumunu ayarlayın:
display(df, kontrolNoktasıKonumu = "senin_yolun")
Diğer tüm akış sorguları için şunu kullanın:
.option("checkpointLocation", "your_path").
TEMP_TABLE_CREATION_LEGACY_WITH_QUERY
CREATE TEMPORARY TABLE
...
AS... burada desteklenmiyor, lütfen bunun yerine kullanın CREATE TEMPORARY VIEW
TEMP_TABLE_CREATION_MUTUAL_EXCLUSIVE_SPECS
CREATE TEMPORARY TABLE belirtilmesi <unsupportedSpec>desteklenmez.
Daha fazla ayrıntı için bkz. TEMP_TABLE_CREATION_MUTUAL_EXCLUSIVE_SPECS
TEMP_TABLE_CREATION_NAME_RESERVED
Ayrılmış ad ön eki <tableName>ile başladığından geçici tablo <reservedPrefix> oluşturulamıyor. Lütfen farklı bir ad seçin ve yeniden deneyin.
TEMP_TABLE_CREATION_NOT_SUPPORTED_IN_COMPUTE
CREATE TEMPORARY TABLE [AS ... ] geçerli İşlem türüyle desteklenmez. Bunun yerine oturum yerel geçici tabloları oluşturmak için lütfen Databricks SQL'i (DBSQL) kullanın.
TEMP_TABLE_CREATION_REQUIRES_SINGLE_PART_NAME
Oturum yerel geçici tablo oluşturmak için tek parçalı bir tablo adı gerekir, ancak <tableName> alındı. Lütfen komutu tek parçalı tablo adı kullanacak şekilde güncelleştirin ve yeniden deneyin.
TEMP_TABLE_CREATION_UNSUPPORTED_LEGACY_SYNTAX_WITH_HINTS
CREATE TEMPORARY TABLE
...
USING
...
AS ... Desteklenmez. Geçici bir tablo oluşturmak için lütfen yan tümcesini USING kaldırın ve yeniden deneyin.
TEMP_TABLE_DELETION_MUTUAL_EXCLUSIVE_SPECS
DROP TEMPORARY TABLE, <unsupportedSpec> belirtilmesini desteklemez, lütfen bu belirtimi kaldırın veya DROP TABLE komutunu kullanarak kalıcı bir tablo oluşturun.
TEMP_TABLE_DELETION_REQUIRES_SINGLE_PART_NAME
Oturum yerel geçici tablosunu bırakmak için tek parçalı tablo adı gerekir, ancak alındı <tableName>.
DROP TEMPORARY TABLE komutunu geçici bir tabloyu bırakmak için tek parçalı bir tablo adı kullanacak şekilde güncelleyin veya kalıcı bir tabloyu bırakmak için DROP TABLE komutunu kullanın.
TEMP_TABLE_NOT_FOUND
Geçerli oturumda geçici tablo <tableName> bulunamıyor. Tablo adının yazımını ve doğruluğunu doğrulayın ve sorguyu veya komutu yeniden deneyin.
Bırakma sırasındaki hatayı tolere etmek için DROPTEMPTABLE IF EXISTS kullanın.
DATABRICKS İŞLERİYLE GEÇİCİ TABLO DESTEKLENMİYOR
Databricks İşleri'nde geçici tablo henüz desteklenmiyor. Lütfen bunun yerine Databricks Not Defterleri'ni kullanın ve daha fazla bilgi için Databricks Desteği'ne başvurun.
TEMP_TABLE_NOT_SUPPORTED_WITH_HMS
Hive Meta Veri Deposu'nda geçici tablo işlemi <operation> desteklenmez.
TEMP_TABLE_OPERATION_NOT_SUPPORTED
Oturum yerel geçici tablosundaki <tableName> işlemler desteklenmez:
Daha fazla ayrıntı için bkz. TEMP_TABLE_OPERATION_NOT_SUPPORTED
TEMP_TABLE_OPERATION_NOT_SUPPORTED_IN_V1_COMMAND
<operation> geçici tablolarda V1 komutlarıyla desteklenmez. Lütfen 'spark.sql.legacy.useV1Command' öğesini false olarak ayarlayın ve yeniden deneyin.
TEMP_TABLE_OR_VIEW_ALREADY_EXISTS
Geçici tablo veya görünüm <relationName> zaten mevcut olduğundan oluşturulamıyor.
Farklı bir ad seçin, mevcut nesneyi bırakın veya değiştirin.
TEMP_TABLE_REPLACE_NOT_SUPPORTED
[CREATE OR] REPLACE TEMPORARY TABLE desteklenmez. Var olan geçici tabloyu değiştirmek için, DROP TEMPORARY TABLE ... [IF EXISTS] ve kullanarak CREATE TEMPORARY TABLE yeniden oluşturun... .
TEMP_TABLE_REQUIRES_DATABRICKS_ENV
Oturum yerel geçici tablolarındaki işlemler Databricks ortamı gerektirir.
TEMP_TABLE_REQUIRES_DELTA
Oturum yerel geçici tablolarındaki işlemler Delta kataloğunun etkinleştirilmesini gerektirir. Lütfen Delta kataloğunu açın ve yeniden deneyin.
TEMP_TABLE_REQUIRES_UC
Oturum yerel geçici tablolarındaki işlemler Unity Kataloğu gerektirir. Lütfen çalışan ortamınızda Unity Kataloğu'nu etkinleştirin ve yeniden deneyin.
TEMP_VIEW_NAME_TOO_MANY_NAME_PARTS
CREATE TEMPORARY VIEW veya buna karşılık gelen Veri Kümesi API'leri yalnızca tek parçalı görünüm adlarını kabul etse de şunu alır: <actualName>.
THETA_INVALID_INPUT_SKETCH_BUFFER
Geçersiz çağrısı <function>; giriş olarak yalnızca geçerli Theta taslak arabellekleri desteklenir (işlev tarafından theta_sketch_agg üretilenler gibi).
THETA_INVALID_LG_NOM_ENTRIES
<function>için geçersiz çağrı; lgNomEntries değeri, <min> ile <max>arasında (dahil olmak üzere) olmalıdır: <value>.
THETA_LG_NOM_ENTRIES_MUST_BE_CONSTANT
için geçersiz çağrı <function>; değerin lgNomEntries sabit bir değer olması gerekir, ancak sabit olmayan bir ifade alır.
TRAILING_COMMA_IN_SELECT
SELECT tümcesinde sondaki virgül algılandı.
FROM yan tümcesi öncesinde sondaki virgülleri kaldırın.
TRANSACTION_CDF_SCHEMA_WITH_RESERVED_COLUMN_NAME
Tablo ayrılmış sütun adı (<column_name> ) içerdiği için değişiklik Veri Akışı bir işlemde etkinleştirilemiyor.
Devam etmek için tablonun yalnızca rezerve edilmemiş sütun adlarını kullandığını kontrol edin.
TRANSACTION_CDF_SETTING_HIGH_WATERMARK_NOT_ALLOWED
CDC Kimlikleri üst filigranını el ile ayarlamaya izin verilmez.
TRANSACTION_CONCURRENT_CATALOG_METADATA_CHANGE
nesnesinde <table>eşzamanlı meta veri değişikliği algılandı. Lütfen komutunu çalıştırın ROLLBACK ve ardından bu işlemi yeniden deneyin. Details:
Daha fazla ayrıntı için bkz. TRANSACTION_CONCURRENT_CATALOG_METADATA_CHANGE
TRANSACTION_CONTEXT_MISMATCH
Geçerli iş parçacığı ile Spark oturumu arasında işlem bağlamı tutarsızlığı algılandı. Bu durum genellikle bir Spark oturumu birden çok iş parçacığı arasında paylaşıldığında oluşur. Lütfen her işlem için özel bir oturum ve iş parçacığı kullanın ve oturumu ve iş parçacığını yeni bir işlem için tekrar kullanmadan önce aynı iş parçacığında işlemi onaylayın veya geri alın. Details:
Daha fazla ayrıntı için bkz. TRANSACTION_CONTEXT_MISMATCH
TRANSACTION_MAX_COMMIT_TIMESTAMP_EXCEEDED
Maksimum işleme zaman damgası aşıldığında işlem işlenemiyor. maxCommitTimestamp:<maxCommitTimestampMs> commitTimestamp:<commitTimestampMs>
TRANSACTION_NOT_SUPPORTED
İfade yürütülemedi.
Daha fazla ayrıntı için bkz. TRANSACTION_NOT_SUPPORTED
TRANSACTION_ROLLBACK_REQUIRED_AFTER_ABORT
Geçerli işlem durduruldu. Devam etmeden önce lütfen çalıştırın ROLLBACK TRANSACTION . Durdurma nedeni:
Daha fazla ayrıntı için bkz. TRANSACTION_ROLLBACK_REQUIRED_AFTER_ABORT
TRANSFORM_WITH_STATE_USER_FUNCTION_ERROR
StatefulProcessor'ın kullanıcı tanımlı işlevinde <function> bir hata oluştu. Neden: <reason>.
TRANSPOSE_EXCEED_ROW_LIMIT
İzin verilen <maxValues> sınırını TRANSPOSE için satır sayısı aşıyor. Eğer bu amaçlandıysa, <config>'yi en azından geçerli satır sayısı olarak ayarlayın.
TRANSPOSE_INVALID_INDEX_COLUMN
TRANSPOSE için geçersiz dizin sütunu çünkü: <reason>
TRANSPOSE_NO_LEAST_COMMON_TYPE
Dönüştürme işlemi, dizin dışı sütunların en az ortak türü paylaşmasını gerektirir, ancak <dt1> ve <dt2> bunu yapmaz.
TRIGGER_INTERVAL_INVALID
Tetikleyici aralığı, tam saniyeye dönüştürülebilen pozitif bir süre olmalıdır. Alındı: <actual> saniye içinde.
TUPLE_IS_EMPTY
Scala'nın sınırlı küme desteği nedeniyle boş küme desteklenmez.
TUPLE_SIZE_EXCEEDS_LIMIT
Scala'nın sınırlı demet desteği nedeniyle, 22'den fazla öğesi olan demetler desteklenmez.
UC_BUCKETED_TABLES
Demetlenmiş tablolar Unity Kataloğu'nda desteklenmez.
UC_CATALOG_NAME_NOT_PROVIDED
Unity Kataloğu için lütfen katalog adını açıkça belirtin. Örneğin, SHOW GRANT your.address@email.com ON CATALOG ana.
UC_COMMAND_NOT_SUPPORTED
Komutlar: <commandName> Unity Kataloğu'nda desteklenmez.
Daha fazla ayrıntı için bkz. UC_COMMAND_NOT_SUPPORTED
UC_COMMAND_NOT_SUPPORTED_IN_SERVERLESS
Komut(lar): <commandName> sunucusuz çalışma ortamındaki Unity Katalogu kümeleri için desteklenmez. Bunun yerine tek kullanıcı veya paylaşılan kümeler kullanın.
UC_COMMAND_NOT_SUPPORTED_IN_SHARED_ACCESS_MODE
Komutlar: <commandName> paylaşılan erişim modunda Unity Kataloğu kümeleri için desteklenmez. Bunun yerine tek kullanıcı erişim modunu kullanın.
UC_CONNECTION_NOT_FOUND_FOR_FILE_SYSTEM_SOURCE_ACCESS
değerlendirildikten <path>sonra erişim <connectionNames> için geçerli bir UC bağlantısı bulunamadı.
Hedef yola erişmek için en az bir geçerli UC bağlantısının kullanılabilir olduğundan emin olun.
Değerlendirilen bağlantılar için ayrıntılı hatalar:
<connectionErrors>
UC_CREDENTIAL_PURPOSE_NOT_SUPPORTED
Belirtilen kimlik bilgisi türü desteklenmiyor.
UC_DATASOURCE_NOT_SUPPORTED
Veri kaynağı biçimi <dataSourceFormatName> Unity Kataloğu'nda desteklenmez.
UC_DATASOURCE_OPTIONS_NOT_SUPPORTED
Veri kaynağı seçenekleri Unity Kataloğu'nda desteklenmez.
UC_DEPENDENCY_DOES_NOT_EXIST
Bağımlılık Unity Kataloğu'nda yok:
<errorMessage>
UC_EXTERNAL_VOLUME_MISSING_LOCATION
harici birim için LOCATION yan tümcesi bulunmalıdır. Lütfen 'CREATE EXTERNAL VOLUME...LOCATION ...' söz dizimini denetleyin dış birim oluşturmak için.
UC_FAILED_PROVISIONING_STATE
Sorgu, <tableName> tablosuna başvurmaya çalıştığı için ancak bunu yapamadığından başarısız oldu: <failureReason>. Etkin sağlama durumunda olduğundan emin olmak için lütfen tablo <tableName> güncelleştirin ve sorguyu yeniden deneyin.
UC_FILE_SCHEME_FOR_TABLE_CREATION_NOT_SUPPORTED
Unity Kataloğu'nda dosya düzeni <schemeName> ile tablo oluşturmak desteklenmez.
Bunun yerine, lütfen aynı tablo sağlayıcısı için CREATE CONNECTION komutunu kullanarak bir federasyon veri kaynağı bağlantısı oluşturun ve ardından içindeki tablolara başvurmak için CREATE FOREIGN CATALOG komutuyla bağlantıyı temel alan bir katalog oluşturun.
UC_HIVE_METASTORE_DISABLED_EXCEPTION
İşlem, hesabınızda veya çalışma alanınızda eski erişimin kapatılması nedeniyle devre dışı bırakılan Hive Meta Veri Deposu<identifier> kullanmaya çalıştı. Lütfen geçerli oturumdaki varsayılan kataloğu ve varsayılan ad alanı ayarını bir kez daha denetleyin. Hive Meta Veri Deposu'na erişmeniz gerekiyorsa, yöneticinizden Unity Kataloğu aracılığıyla Hive Meta Veri Deposu federasyonu ayarlamasını isteyin.
UC_HIVE_METASTORE_FEDERATION_CROSS_CATALOG_VIEW_NOT_SUPPORTED
Hive Meta Veri Deposu Federasyon görünümü birden çok katalogda bağımlılıkları desteklemez. Federasyon kataloğundaki Hive Metastore görünümü <view>, bağımlılığını hive_metastore veya spark_catalog kataloğundan almak zorundadır, ancak bağımlılığı <dependency>, başka bir katalog olan <referencedCatalog> içinde bulunmaktadır. Lütfen bu kısıtlamayı karşılamak için bağımlılıkları güncelleştirin ve sorgunuzu veya komutunu yeniden deneyin.
UC_HIVE_METASTORE_FEDERATION_NOT_ENABLED
Hive Meta Veri Deposu federasyonu bu kümede etkin değil.
Bu kümede Katalog <catalogName>'a erişim desteklenmemektedir.
UC_INVALID_DEPENDENCIES
<securable> bağımlılıkları <storedDeps> olarak kaydedilirken <parsedDeps> olarak ayrıştırılır. Bu büyük olasılıkla SQL olmayan bir API'nin yanlış kullanımından kaynaklanmaktadır.
Daha fazla ayrıntı için bkz. UC_INVALID_DEPENDENCIES
UC_INVALID_NAMESPACE
İç içe veya boş ad alanları Unity Kataloğu'nda desteklenmez.
UC_INVALID_REFERENCE
Unity Kataloğu nesnelerindeUnity-Catalog olmayan nesnelere <name> başvurulamaz.
UC_LAKEHOUSE_FEDERATION_WRITES_NOT_ALLOWED
Unity Catalog Lakehouse Federation yazma desteği, bu kümedeki sağlayıcı <provider> için etkinleştirilmedi.
UC_LOCATION_FOR_MANAGED_VOLUME_NOT_SUPPORTED
Yönetilen birim LOCATION koşulunu kabul etmez. Yönetilen birim oluşturmak için 'CREATE VOLUME ...' söz dizimini, lütfen denetleyin.
UC_NOT_ENABLED
Unity Kataloğu bu kümede etkin değil.
UC_QUERY_FEDERATION_NOT_ENABLED
Unity Kataloğu Sorgu Federasyonu bu kümede etkin değil.
UC_RESOLVED_DBFS_PATH_MISMATCH
Sorgu, <objectType> <name> öğesine başvurmayı denediği ancak bunu yapamadığı için başarısız oldu: Çözümlenen DBFS yolu <resolvedHmsPath>, Unity Kataloğu depolama konumu <ucStorageLocation> ile eşleşmiyor.
UC_SECRETS_NOT_ENABLED (Gizli Ayarlar Etkin Değil)
Unity Kataloğu Gizli Bilgiler desteği devreye alınmadı.
UC_SECRET_ALREADY_EXISTS
Gizli anahtar <name> zaten var olduğundan oluşturulamaz.
Farklı bir ad seçin, var olan nesneyi bırakın veya değiştirin ya da önceden var olan nesneleri tolere etmek için IF NOT EXISTS yan tümcesini ekleyin.
UC_SIRRİ_BULUNAMADI
Gizli <name> yok. Kullanılabilir gizli öğeleri listelemek için 'SHOW SECRETS' kullanın.
UC_SERVICE_CREDENTIALS_NOT_ENABLED
Hizmet kimlik bilgileri bu kümede etkin değil.
UC_TABLE_METADATA_OUT_OF_SYNC
Tablo <tableName> meta verileri katalogda eşitlenmemiş olduğundan tablo sorgulanamıyor. Önce meta verileri eşitlemek için 'MSK REPAIR TABLE <tableName> SYNC METADATA' komutunu çalıştırarak tabloyu onarın.
UC_UNCAUGHT_CLIENT_EXCEPTION
Databricks Unity Kataloğu arka ucuyla iletişim kurulurken beklenmeyen bir HTTP hatasıyla karşılaşıldı. Hata Kodu: <errCode>. İleti: <message>
UC_VOLUMES_NOT_ENABLED
Unity Kataloğu Birimleri desteği bu örnekte etkinleştirilmedi.
UC_VOLUMES_NOT_SUPPORTED
Birimler bu işlem için desteklenmez. Belirtilen yol : '<path>'.
UC_VOLUMES_SHARING_NOT_ENABLED
Bu örnekte Birim Paylaşımı desteği etkinleştirilmedi.
UC_VOLUME_NOT_FOUND
Bölüm <name> mevcut değil. Kullanılabilir birimleri listelemek için lütfen 'SHOW VOLUMES' kullanın.
UDF_ENVIRONMENT_ERROR
Bir sistem hatası nedeniyle için <udfName> UDF bağımlılıkları yüklenemedi.
Daha fazla ayrıntı için bkz. UDF_ENVIRONMENT_ERROR
UDF_ENVIRONMENT_USER_ERROR
<udfName>için UDF bağımlılıkları yüklenemedi.
Daha fazla ayrıntı için bkz. UDF_ENVIRONMENT_USER_ERROR
UDF_ERROR
SQLSTATE: hiçbiri atanmadı
İşlev <fn> yürütülemedi
Daha fazla ayrıntı için bkz. UDF_ERROR
UDF_LIMITS
Bir veya daha fazla UDF sınırı ihlal edildi.
Daha fazla ayrıntı için bkz. UDF_LIMITS
UDF_MAX_COUNT_EXCEEDED
Genel sorgu çapında <maxNumUdfs> UDF sınırı aşıldı (bu sınırlama genel önizleme sırasında uygulanmıştır).
<numUdfs> bulundu. UDF'ler şunlardı: <udfNames>.
UDF_PYSPARK_ERROR
Python çalışanı beklenmedik şekilde çıktı
Daha fazla ayrıntı için bkz. UDF_PYSPARK_ERROR
UDF_PYSPARK_UNSUPPORTED_TYPE
PySpark UDF <udf> (<eval-type>) , Paylaşılan erişim modundaki kümelerde desteklenmez.
UDF_PYSPARK_USER_CODE_ERROR
Yürütme başarısız oldu.
Daha fazla ayrıntı için bkz. UDF_PYSPARK_USER_CODE_ERROR
UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE
Parametre varsayılan değeri kullanıcı tanımlı <functionType> işlevi için desteklenmez.
UDF_USER_CODE_ERROR
İşlev <fn> yürütülemedi.
Daha fazla ayrıntı için bkz. UDF_USER_CODE_ERROR
UDTF_ALIAS_NUMBER_MISMATCH
Yan tümcesinde AS sağlanan diğer ad sayısı, UDTF tarafından sağlanan sütun sayısıyla eşleşmiyor.
<aliasesSize> takma adları bekleniyordu, ancak <aliasesNames> aldık.
Verilen diğer ad sayısının, UDTF'nin ürettiği sütun sayısıyla eşleştiğinden emin olun.
UDTF_INVALID_ALIAS_IN_REQUESTED_ORDERING_STRING_FROM_ANALYZE_METHOD
'analyze' yöntemi, sütun adı ifadesi gereksiz bir diğer ad <aliasName>içeren istenen bir OrderingColumn döndürdiğinden kullanıcı tanımlı tablo işlevi değerlendirilemedi; lütfen bu diğer adı kaldırın ve sorguyu yeniden deneyin.
UDTF_INVALID_REQUESTED_SELECTED_EXPRESSION_FROM_ANALYZE_METHOD_REQUIRES_ALIAS
'analyze' yöntemi ilgili diğer adı içermeyen istenen bir 'select' ifadesi (<expression>) döndürdiğinden kullanıcı tanımlı tablo işlevi değerlendirilemedi; lütfen UDTF'yi orada bir diğer ad belirtecek şekilde güncelleştirin ve sorguyu yeniden deneyin.
UNABLE_TO_CONVERT_TO_PROTOBUF_MESSAGE_TYPE
SQL türü <toType><protobufType>Protobuf türüne dönüştürülemiyor.
UNABLE_TO_FETCH_HIVE_TABLES
Hive veritabanının tabloları getirilemiyor: <dbName>. Hata Sınıf Adı: <className>.
PIPELINE_TABLO_ŞEMASINI_ÇIKARAMIYOR
Tablo <tableName> şemasının yukarı akıştan gelen akışlardan çıkarılması başarısız oldu.
Şemalarını uyumlu hale getirmek için lütfen bu tabloya yazan akışları değiştirin.
Şimdiye kadar türetilen şema:
<inferredDataSchema>
Uyumsuz şema:
<incompatibleDataSchema>
UNABLE_TO_INFER_SCHEMA
<format>için şema çıkarılamıyor. El ile belirtilmelidir.
KİMLİĞİ DOĞRULANMAMIŞ
İstek, işlem için geçerli kimlik doğrulama bilgilerini içermiyor.
UNAUTHORIZED_ACCESS
Yetkisiz erişim:
<report>
UNBOUND_SQL_PARAMETER
Bağlanmamış parametre bulundu: <name>. Lütfen parametresini düzeltin args ve bir SQL değişmez değeri veya gibi map(), array(), struct()koleksiyon oluşturucu işlevleriyle eşlemesini sağlayın.
UNCLOSED_BRACKETED_COMMENT
Kapatılmamış parantezli yorum bulundu. Lütfen açıklamanın sonuna */ ekleyin.
UNEXPECTED_INPUT_TYPE
Parametre <paramIndex>, işlev <functionName>'in <requiredType> türünü gerektirir, ancak <inputSql>, <inputType>türündedir.
UNEXPECTED_INPUT_TYPE_OF_NAMED_PARAMETER
İşlev <namedParamKey> için <functionName> parametresi <requiredType> türünü gerektirir, ancak <inputSql> parametresi <inputType>türünde.<hint>
UNEXPECTED_OPERATOR_IN_STREAMING_VIEW
<op> deyiminde CREATE VIEW işleci beklenmeyen bir akış kaynağı olarak.
Akış görünümü sorgusu yalnızca ve SELECT, WHERE işlemlerinden UNION ALLoluşmalıdır.
UNEXPECTED_POSITIONAL_ARGUMENT
<routineName> yordamı, <parameterName>'e atanan adlandırılmış bağımsız değişkenden sonra konumsal bağımsız değişkenler içerdiği için çağrılamıyor; lütfen konumsal bağımsız değişkenleri önce olacak şekilde yeniden düzenleyin ve ardından sorguyu tekrar deneyin.
UNEXPECTED_SERIALIZER_FOR_CLASS
Sınıf <className> beklenmeyen bir ifade serileştiricisine sahip. "STRUCT" veya "IF" bekliyor fakat "STRUCT" döndüren yerine "<expr>" bulundu.
UNION_NOT_SUPPORTED_IN_RECURSIVE_CTE
işleci UNION özyinelemeli ortak tablo ifadelerinde (WITH doğrudan veya dolaylı olarak kendilerine başvuran yan tümceler) henüz desteklenmiyor. Lütfen bunun yerine UNION ALL kullanın.
BENZERSİZ_KISITLAMA_DEVRE_DIŞI
Benzersiz kısıtlama özelliği devre dışı bırakıldı. Etkinleştirmek için "spark.databricks.sql.dsv2.unique.enabled" değerini true olarak ayarlayın.
UNKNOWN_FIELD_EXCEPTION
Ayrıştırma sırasında <changeType> karşılaşıldı: <unknownFieldBlob>, otomatik yeniden denemeyle düzeltilebilir: <isRetryable>
Daha fazla ayrıntı için bkz. UNKNOWN_FIELD_EXCEPTION
UNKNOWN_POSITIONAL_ARGUMENT
Yordam <routineName> çağrısı, <sqlExpr> konumunda bilinmeyen bir konumsal bağımsız değişken <pos> içerir. Bu geçersiz.
UNKNOWN_PRIMITIVE_TYPE_IN_VARIANT
Bir değişken değer içinde kimliği <id> olan bilinmeyen bir ilkel tür bulundu.
UNKNOWN_PROTOBUF_MESSAGE_TYPE
<descriptorName>'ı bir İleti olarak işlemeye çalışırken aslında <containingType>olduğu ortaya çıktı.
UNPIVOT_REQUIRES_ATTRIBUTES
UNPIVOT, <given> ifade verilmediğinde verilen tüm <empty> ifadelerin sütun olmasını gerektirir. Bunlar sütun değil: [<expressions>].
UNPIVOT_REQUIRES_VALUE_COLUMNS
UNPIVOTiçin en az bir değer sütunu belirtilmelidir, tüm sütunlar kimlik olarak belirtilir.
UNPIVOT_VALUE_DATA_TYPE_MISMATCH
Çözümleme değer sütunları en az ortak türü paylaşmalıdır, ancak bazı türler paylaşmaz: [<types>].
UNPIVOT_VALUE_SIZE_MISMATCH
Unpivot değer sütunlarının tümü, değer sütun adları (<names>) ile aynı boyuta sahip olmalıdır.
UNRECOGNIZED_PARAMETER_NAME
Rutin <routineName> çağrılamıyor çünkü rutin çağrısı, <argumentName> adlı bağımsız değişken için adlandırılmış bir bağımsız değişken başvurusu içeriyor, ancak bu rutin bu ada sahip bir bağımsız değişken içeren herhangi bir imza içermiyor. Aşağıdakilerden birini mi demek istedin? [<proposal>].
UNRECOGNIZED_SQL_TYPE
Tanınmayan SQL türü - ad: <typeName>, kimlik: <jdbcType>.
UNRECOGNIZED_STATISTIC
İstatistik <stats> tanınmıyor. Geçerli istatistikler , ve yüzdebirlik değerleridir count, count_distinct, approx_count_distinct, mean, stddev, min, max. Yüzdelik, '%' ardından gelen ve 0% ile 100%arasında bir sayısal değer olmalıdır.
UNRESOLVABLE_TABLE_VALUED_FUNCTION
<name>, tablo değerli bir işlev olarak çözümlenemedi.
<name> tablo değerli bir işlev olarak tanımlandığından ve tüm gerekli parametrelerin doğru sağlandığından emin olun.
<name> tanımlanmamışsa, kullanmadan önce tablo değeri olan işlevi oluşturun.
Tablo değerli işlevleri tanımlama hakkında daha fazla bilgi için apache Spark belgelerine bakın.
UNRESOLVED_ALL_IN_GROUP_BY
seçme ifadesine göre GROUP BY ALL için gruplandırma sütunları çıkarılamaz. Lütfen gruplandırma sütunlarını açıkça belirtin.
UNRESOLVED_COLUMN
Adı <objectName> olan bir sütun, değişken veya işlev parametresi çözümlenemez.
Daha fazla ayrıntı için bkz. UNRESOLVED_COLUMN
UNRESOLVED_COLUMN_AMONG_FIELD_NAMES
() arasında<colName> "<fieldNames>" sütun adı çözümlenemiyor.
UNRESOLVED_FIELD
Adı <fieldName> olan bir alan <columnPath>yapı türü sütunuyla çözümlenemez.
Daha fazla ayrıntı için bkz. UNRESOLVED_FIELD
UNRESOLVED_INSERT_REPLACE_USING_COLUMN
REPLACE USING sütunu <colName>, <relationType> içinde çözümlenemiyor.
Aşağıdaki sütunlardan birini mi demek istiyorsunuz? [<suggestion>].
UNRESOLVED_MAP_KEY
Sütun <objectName> harita anahtarı olarak çözümlenemiyor. Anahtar bir "string literal" ise, çevresine tek tırnak işaretlerini ('') ekleyin.
Daha fazla ayrıntı için bkz. UNRESOLVED_MAP_KEY
UNRESOLVED_ROUTINE
<routineName> yordamı, arama yolunda <searchPath> çözümlenemiyor.
<routineName>yazımını kontrol edin, yordamın mevcut olup olmadığını denetleyin, katalog ve şemada USE ayrıcalığınız olduğundan ve yordamda EXECUTE ayrıcalığınız olduğundan emin olun.
Daha fazla ayrıntı için bkz. UNRESOLVED_ROUTINE
UNRESOLVED_TABLE_PATH
Tablo <identifier> depolama yolu çözümlenemiyor.
UNRESOLVED_USING_COLUMN_FOR_JOIN
Birleştirmenin USING tarafında <colName> sütun <side> çözümlenemez.
<side>tarafındaki sütunlar: [<suggestion>].
UNRESOLVED_VARIABLE
<variableName>arama yolundaki değişken <searchPath> çözümlenemiyor.
UNSTRUCTURED_DATA_PROCESSING_UNSUPPORTED_FILE_FORMAT
Yapılandırılmamış dosya biçimi <format> desteklenmez. Desteklenen dosya biçimleri <supportedFormats>.
Lütfen format ifadenizdeki <expr>'ı desteklenen biçimlerden biriyle güncelleyin ve sorguyu tekrar deneyin.
UNSTRUCTURED_DATA_PROCESSING_UNSUPPORTED_MODEL_OPTION
Yapılandırılmamış model seçeneği ('<option>' -> '<value>') desteklenmez. Desteklenen değerler şunlardır: <supportedValues>.
Desteklenen değerlerden birine geçin ve sorguyu yeniden deneyin.
UNSTRUCTURED_OCR_COLUMN_NOT_ALLOWED_WITH_METADATA_MODEL_OPTION
'metadataModel' seçeneği belirtildiğinde, 'ocrText' işlev parametresi boş olmalı veya atlanmalıdır. 'MetadataModel' seçeneğinin belirtilmesi, sağlanan bir 'ocrText'in yasak olduğu durumda meta veri ayıklamayı tetikler.
UNSUPPORTED_ADD_FILE
Dosya eklemeyi desteklemeyin.
Daha fazla ayrıntı için bkz. UNSUPPORTED_ADD_FILE
UNSUPPORTED_ALTER_COLUMN_PARAMETER
<parameter> ile ALTER <commandTableType> belirlenmesi desteklenmez.
UNSUPPORTED_ARROWTYPE
Desteklenmeyen ok türü <typeName>.
UNSUPPORTED_BATCH_TABLE_VALUED_FUNCTION
İşlev <funcName> toplu iş sorgularını desteklemez.
UNSUPPORTED_CALL
"<methodName>" sınıfının "<className>" yöntemi çağrılamıyor.
Daha fazla ayrıntı için bkz. UNSUPPORTED_CALL
UNSUPPORTED_CHAR_OR_VARCHAR_AS_STRING
Char/varchar türü tablo şemasında kullanılamaz.
Spark'ın bunları Spark 3.0 ve önceki sürümleriyle aynı dize türü olarak işlemesini istiyorsanız lütfen "spark.sql.legacy.charVarcharAsString" değerini "true" olarak ayarlayın.
DESTEKLENMEYEN_CHAR_VEYA_VARCHAR_SIRALAMA
Char/varchar türünde <type> harmanlama belirtilemez.
UNSUPPORTED_CLAUSE_FOR_OPERATION
<clause>
<operation>için desteklenmez.
UNSUPPORTED_COLLATION
Harmanlama <collationName> için desteklenmez:
Daha fazla ayrıntı için bkz. UNSUPPORTED_COLLATION
UNSUPPORTED_COMMON_ANCESTOR_LOC_FOR_FILE_STREAM_SOURCE
Kaynak yolunun ve sourceArchiveDir öğesinin ortak atası UC ile kaydedilmelidir.
Bu hata iletisini görürseniz, kaynak yolu ve sourceArchiveDir'i farklı dış konumlara kaydetmeniz olasıdır.
Lütfen bunları tek bir dış konuma yerleştirin.
UNSUPPORTED_CONNECT_FEATURE
Özellik Spark Connect'te desteklenmez:
Daha fazla ayrıntı için bkz. UNSUPPORTED_CONNECT_FEATURE
DESTEKLENMEYEN KISIT KARAKTERİSTİĞİ
'<characteristic>' kısıtlama özelliği '' kısıtlama türü<constraintType> için desteklenmiyor.
UNSUPPORTED_CONSTRAINT_CLAUSES
Kısıtlama cümleleri <clauses> desteklenmiyor.
UNSUPPORTED_CONSTRAINT_TYPE
Desteklenmeyen kısıtlama türü. Yalnızca <supportedConstraintTypes> desteklenir
UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY
Dosyalar üzerinde doğrudan sorgu için desteklenmeyen veri kaynağı türü: <dataSourceType>
UNSUPPORTED_DATATYPE
desteklenmeyen veri türü <typeName>.
UNSUPPORTED_DATA_SOURCE_SAVE_MODE
"<source>" veri kaynağı <createMode> modunda yazılamaz. Lütfen bunun yerine "Ekle" veya "Üzerine yaz" modunu kullanın.
UNSUPPORTED_DATA_TYPE_FOR_DATASOURCE
<format> veri kaynağı, <columnName> türündeki <columnType> sütununu desteklemez.
UNSUPPORTED_DATA_TYPE_FOR_ENCODER
<dataType>için kodlayıcı oluşturulamıyor. Lütfen UDF veya DataFrame'iniz için farklı bir çıkış veri türü kullanın.
UNSUPPORTED_DEFAULT_VALUE
DEFAULT sütun değerleri desteklenmez.
Daha fazla ayrıntı için bkz. UNSUPPORTED_DEFAULT_VALUE
UNSUPPORTED_DESERIALIZER
Deserileştirici desteklenmiyor:
Daha fazla ayrıntı için bkz. UNSUPPORTED_DESERIALIZER
UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
Oluşturulan sütun <fieldName>, oluşturma ifadesi <expressionStr> ile oluşturulamıyor çünkü <reason>.
UNSUPPORTED_EXPR_FOR_OPERATOR
Sorgu işleci bir veya daha fazla desteklenmeyen ifade içeriyor.
WHERE klausurunda pencere işlevlerinden, toplama işlevlerinden ve oluşturucu işlevlerinden kaçınmak için yeniden yazmayı göz önünde bulundurun.
Geçersiz ifadeler: [<invalidExprSqls>]
UNSUPPORTED_EXPR_FOR_PARAMETER
Sorgu parametresi desteklenmeyen ifade içeriyor.
Parametreler ya değişken ya da sabit olabilirler.
Geçersiz ifade: [<invalidExprSql>]
UNSUPPORTED_EXPR_FOR_WINDOW
İfade <sqlExpr> bir pencere işlevinde desteklenmez.
UNSUPPORTED_FEATURE
Özellik desteklenmez:
Daha fazla ayrıntı için bkz. UNSUPPORTED_FEATURE
UNSUPPORTED_FN_TYPE
Desteklenmeyen kullanıcı tanımlı işlev türü: <language>
UNSUPPORTED_GENERATOR
Oluşturucu desteklenmiyor:
Daha fazla ayrıntı için bkz. UNSUPPORTED_GENERATOR
UNSUPPORTED_GROUPING_EXPRESSION
grouping()/grouping_id() yalnızca GroupingSets/Cube/Rollup ile kullanılabilir.
UNSUPPORTED_INITIAL_POSITION_AND_TRIGGER_PAIR_FOR_KINESIS_SOURCE
<trigger> başlangıç konumuyla <initialPosition>, Kinesis kaynağında desteklenmez.
UNSUPPORTED_INSERT
Hedefe ekleme yapılamıyor.
Daha fazla ayrıntı için bkz. UNSUPPORTED_INSERT
UNSUPPORTED_JOIN_TYPE
Desteklenmeyen birleştirme türü '<typ>'. Desteklenen birleştirme türleri şunlardır: <supported>.
UNSUPPORTED_MANAGED_TABLE_CREATION
Veri kaynağı <tableName> kullanarak yönetilen tablo <dataSource> oluşturulması desteklenmez. Veri kaynağını DELTA kullanmanız veya ... kullanarak CREATE EXTERNAL TABLE <tableName>...USING <dataSource> bir dış tablo oluşturmanız gerekir.
UNSUPPORTED_MERGE_CONDITION
MERGE işlemi desteklenmeyen <condName> koşulu içeriyor.
Daha fazla ayrıntı için bkz. UNSUPPORTED_MERGE_CONDITION
UNSUPPORTED_METADATA_KEY
Desteklenmeyen meta veri anahtarı: <key>. Desteklenen anahtarlar: <supportedKeys>.
UNSUPPORTED_NESTED_ROW_OR_COLUMN_ACCESS_POLICY
Tablo <tableName> satır düzeyi güvenlik ilkesine veya sütun maskesine sahiptir ve dolaylı olarak satır düzeyi güvenlik ilkesi veya sütun maskesi olan başka bir tabloya başvurur; bu desteklenmez. Arama dizisi: <callSequence>
Sürekli Bellek Alıcısı İçin Desteklenmeyen İşlem
Sürekli bellek alıcısı için <operation> operasyonu desteklenmez. Akış Gerçek Zamanlı Modu için bir test yazıyorsanız, diğer denetimler yerine CheckAnswerWithTimeout kullanmayı düşünebilirsiniz.
UNSUPPORTED_OVERWRITE
Okunan ve aynı zamanda yazılması gereken hedefin üzerine yazılamıyor.
Daha fazla ayrıntı için bkz. UNSUPPORTED_OVERWRITE
UNSUPPORTED_PARTITION_TRANSFORM
Desteklenmeyen bölüm dönüşümü: <transform>. Desteklenen dönüşümler , ve identity, bucketşeklindedirclusterBy. Dönüşüm ifadenizin bunlardan birini kullandığından emin olun.
UNSUPPORTED_PIPELINE_SPARK_SQL_COMMAND
Spark Bildirimli İşlem Hattı'ndaki spark.sql("...") API'sinde '<command>' desteklenmez.
Desteklenmeyen İşlem Sıralaması
Yordam <procedureName> UTF8_BINARY'yi belirtmeli veya DEFAULT COLLATION devralmalıdır.
CREATE PROCEDURE <procedureName> (...) DEFAULT COLLATION UTF_BINARY ...kullanın.
UNSUPPORTED_SAVE_MODE
Kaydetme modu <saveMode> aşağıdakiler için desteklenmez:
Daha fazla ayrıntı için bkz. UNSUPPORTED_SAVE_MODE
UNSUPPORTED_SHOW_CREATE_TABLE
SHOW CREATE TABLE komutu desteklenmiyor.
Daha fazla ayrıntı için bkz. UNSUPPORTED_SHOW_CREATE_TABLE
UNSUPPORTED_SINGLE_PASS_ANALYZER_FEATURE
Tek geçişli çözümleyici, henüz <feature>desteklemediğinden bu sorguyu veya komutu işleyemiyor.
UNSUPPORTED_SQL_UDF_USAGE
SQL işlevinin <functionName> içinde <nodeName> kullanılması desteklenmez.
UNSUPPORTED_STREAMING_OPERATOR_WITHOUT_WATERMARK
<outputMode> çıktı modu, filigransız akış veri çerçeveleri/veri kümelerinde <statefulOperator> için desteklenmez.
UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
Görünüm yayını için desteklenmiyor. Reason:
Daha fazla detay için bakınız UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED
Paylaşılan kümedeki veri kaynağı <options> için akış seçenekleri <source> desteklenmez. Lütfen seçeneklerin doğru<prefixHint> belirtildiğini ve yazıldığını onaylayın ve sınırlamaları denetleyin https://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode .
UNSUPPORTED_STREAMING_SINK_PERMISSION_ENFORCED
Veri kaynağı <sink> paylaşılan bir kümede akış havuzu olarak desteklenmez.
UNSUPPORTED_STREAMING_SOURCE_PERMISSION_ENFORCED
Veri kaynağı <source> paylaşılan bir kümede akış kaynağı olarak desteklenmez.
UNSUPPORTED_STREAMING_TABLE_VALUED_FUNCTION
İşlev <funcName> akışı desteklemez. lütfen STREAM anahtar sözcüğünü kaldırın
UNSUPPORTED_STREAM_READ_LIMIT_FOR_KINESIS_SOURCE
<streamReadLimit> Kinesis kaynağında desteklenmez
UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
Desteklenmeyen alt sorgu ifadesi:
Daha fazla ayrıntı için bkz. UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
UNSUPPORTED_TABLE_CHANGE_IN_AUTO_SCHEMA_EVOLUTION
Tablo değişiklikleri <changes> , tablosundaki <tableName>katalog tarafından desteklenmez.
UNSUPPORTED_TABLE_CHANGE_IN_JDBC_CATALOG
JDBC kataloğunda <change> tablosundaki <tableName> değişikliği desteklenmez. Desteklenen değişiklikler şunlardır: AddColumn, RenameColumn, DeleteColumn, UpdateColumnType, UpdateColumnNullability.
UNSUPPORTED_TIMESERIES_COLUMNS
Zaman aralığı sütunlarıyla birincil anahtar oluşturma desteklenmez
UNSUPPORTED_TIMESERIES_WITH_MORE_THAN_ONE_COLUMN
Birden fazla timeseries sütunu <colSeq> ile birincil anahtar oluşturma desteklenmez
UNSUPPORTED_TIME_PRECISION
TIME veri türünün saniye duyarlığı <precision> desteklenen aralığın dışındadır [0, 6].
UNSUPPORTED_TIME_TYPE
TIME veri türü desteklenmez.
UNSUPPORTED_TRIGGER_FOR_KINESIS_SOURCE
<trigger> Kinesis kaynağında desteklenmez
UNSUPPORTED_TYPED_LITERAL
<unsupportedType> türü sabit değerler desteklenmiyor. Desteklenen türler <supportedTypes>.
UNSUPPORTED_UDF_FEATURE
İşlev <function>, Databricks çalışma zamanının daha yeni bir sürümünü gerektiren aşağıdaki özellikleri kullanır: <features>. Ayrıntılar için lütfen <docLink> bakın.
UNSUPPORTED_UDF_TYPES_IN_SAME_PLACE
UDF türleri birlikte kullanılamaz: <types>
UNTYPED_SCALA_UDF
Giriş türü bilgilerine sahip olmayan, yazılmamış Scala UDF kullanıyorsunuz.
Spark, ilkel türdeki bağımsız değişkenle Scala kapanımına kör bir şekilde null geçebilir ve kapanım, null bağımsız değişken için Java türünün varsayılan değerini (örneğin, udf((x: Int) => x, IntegerType)) görür ve null girdisi için sonuç 0 olur. Bu hatadan kurtulmak için şunları yapabilir:
türemiş Scala UDF API'lerini kullanın (dönüş türü parametresi olmadan), örneğin,
udf((x: Int) => x).giriş türlerinin tümü ilkel değilse Java UDF API'lerini
udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType)kullanın."spark.sql.legacy.allowUntypedScalaUDF" değerini "true" olarak ayarlayın ve bu API'yi dikkatle kullanın.
UPGRADE_NOT_SUPPORTED
Tablo Hive Meta Veri Deposu'ndan Unity Kataloğu'na yükseltme için uygun değil. Reason:
Daha fazla ayrıntı için bkz. UPGRADE_NOT_SUPPORTED
USER_DEFINED_FUNCTIONS
Kullanıcı tanımlı işlev geçersiz:
Daha fazla ayrıntı için bkz. USER_DEFINED_FUNCTIONS
USER_RAISED_EXCEPTION
<errorMessage>
USER_RAISED_EXCEPTION_PARAMETER_MISMATCH
raise_error() işlevi, parametre bekleyen <errorClass> hata sınıfını yükseltmek için kullanıldı: <expectedParms>.
Sağlanan parametreler <providedParms> beklenen parametrelerle eşleşmiyor.
Lütfen tüm beklenen parametreleri sağladığından emin olun.
USER_RAISED_EXCEPTION_UNKNOWN_ERROR_CLASS
bilinmeyen bir hata sınıfını yükseltmek için raise_error() işlevi kullanıldı: <errorClass>
USER_SPECIFIED_AND_ACTUAL_SCHEMA_MISMATCH
Kullanıcı tarafından belirtilen şema gerçek şemayla eşleşmiyor:
kullanıcı tarafından belirtilen: <schema>, gerçek: <actualSchema>. Kullanıyorsanız
DataFrameReader.schema API'sini veya tablo oluşturmayı, şemayı belirtmeyin.
Ya da mevcut bir tabloyu tarıyorsanız bırakın ve yeniden oluşturun.
KULLANICI_TARAFINDAN_BELİRTİLEN_VE_ÇIKARILAN_ŞEMA_UYUMLU_DEĞİL
'<tableName>' tablosu, şemayla uyumsuz kullanıcı tarafından belirtilen bir şemaya sahip
sorgusundan türetilir.
<streamingTableHint>
Bildirilen şema:
<specifiedSchema>
Tahmin edilen şema:
<inferredDataSchema>
USE_CATALOG_SCHEMA_IN_DEFINER_STORED_PROCEDURE_NOT_SUPPORTED
SQL SECURITY DEFINER saklı yordamı içinde katalog veya şema ayarlama desteklenmez.
VARIABLE_ALREADY_EXISTS
Zaten var olduğundan <variableName> değişkeni oluşturulamıyor.
Farklı bir ad seçin veya mevcut değişkeni bırakın veya değiştirin.
VARIABLE_NOT_FOUND
<variableName> değişkeni bulunamıyor. Şemanın ve kataloğun yazımını ve doğruluğunu doğrulayın.
Adı bir şema ve katalogla nitelemediyseniz, current_schema() çıkışını doğrulayın veya adı doğru şema ve katalogla niteleyin.
Düşme hatasını tolere etmek için DROP VARIABLE IF EXISTSkullanın.
VARIANT_CONSTRUCTOR_SIZE_LIMIT
16 MiB'den büyük bir Değişken oluşturulamaz. Değişken değerinin izin verilen en büyük boyutu 16 MiB'dir.
VARIANT_DUPLICATE_KEY
<key>yinelenen nesne anahtarı nedeniyle değişken oluşturulamadı.
VARIANT_SIZE_LIMIT
<sizeLimit>'da <functionName> daha büyük bir değişken oluşturulamaz.
Lütfen bu ifadeye büyük giriş dizelerinden kaçının (örneğin, ifade boyutunu denetlemek ve çok büyükse önce NULL dönüştürmek için işlev çağrıları ekleyin).
VERSIONED_CLONE_UNSUPPORTED_TABLE_FEATURE
Bu DBR sürümünde, sürümlü klon tarafından desteklenmeyen tablo özellikleri kaynak tablo geçmişinde bulunuyor: <unsupportedFeatureNames>.
Lütfen daha yeni bir DBR sürümüne yükseltin.
VIEW_ALREADY_EXISTS
Görünüm <relationName> oluşturulamıyor çünkü zaten mevcut.
Farklı bir ad seçin, var olan nesneyi bırakın veya değiştirin ya da önceden var olan nesneleri tolere etmek için IF NOT EXISTS yan tümcesini ekleyin.
VIEW_EXCEED_MAX_NESTED_DEPTH
Görünüm derinliği <viewName> maksimum görünüm çözünürlüğü derinliğini (<maxNestedDepth>) aşıyor.
Hatalardan kaçınmak için analiz durduruldu. Bu sorunu geçici olarak çözmek istiyorsanız lütfen "spark.sql.view.maxNestedViewDepth" değerini artırmayı deneyin.
VIEW_NOT_FOUND
Görünüm <relationName> bulunamıyor. Şemanın ve kataloğun yazımını ve doğruluğunu doğrulayın.
Adı bir şemayla nitelemediyseniz, current_schema() çıkışını doğrulayın veya adı doğru şema ve katalogla niteleyin.
Düşme hatasını tolere etmek için DROP VIEW IF EXISTSkullanın.
VOLUME_ALREADY_EXISTS
Birim <relationName> zaten mevcut olduğundan oluşturulamıyor.
Farklı bir ad seçin, var olan nesneyi bırakın veya değiştirin ya da önceden var olan nesneleri tolere etmek için IF NOT EXISTS yan tümcesini ekleyin.
FİLTRELEME_YÜKSELTME_STRATEJİSİ
Akış filigranı ilerleme stratejisi aşağıdaki sınırlamalara sahiptir:
Daha fazla ayrıntı için bkz. WATERMARK_ADVANCEMENT_STRATEGY
WINDOW_FUNCTION_AND_FRAME_MISMATCH
<funcName> işlevi yalnızca tek bir uzaklık ile sıralı satır bazlı bir pencere çerçevesinde değerlendirilebilir: <windowExpr>.
WINDOW_FUNCTION_WITHOUT_OVER_CLAUSE
Window işlevi <funcName> OVER ifadesini gerektirir.
WITH_CREDENTIAL
WITH CREDENTIAL söz dizimi <type>için desteklenmez.
WRITE_STREAM_NOT_ALLOWED
writeStream yalnızca akış Veri Kümesi/DataFrame üzerinde çağrılabilir.
WRONG_COLUMN_DEFAULTS_FOR_DELTA_ALTER_TABLE_ADD_COLUMN_NOT_SUPPORTED
Yeni eklerken DEFAULT değerleri desteklenmediğinden komut yürütülemedi
daha önce var olan Delta tablolarına sütunlar; lütfen sütunu varsayılan olmadan ekleyin
Önce değeri girin, ardından uygulamak için ikinci bir ALTER TABLE ALTER COLUMN SET DEFAULT komutu çalıştırın.
yerine daha sonra eklenen satırlar için.
WRONG_COLUMN_DEFAULTS_FOR_DELTA_FEATURE_NOT_ENABLED
bir sütun <commandType> değeri atadığından DEFAULT komutu yürütülemedi.
ancak ilgili tablo özelliği etkinleştirilmedi. Lütfen komutu yeniden deneyin
ALTER TABLE tableName SET yürüttükten sonra
TBLPROPERTIES('delta.feature.allowColumnDefaults' = 'destekleniyor').
WRONG_COMMAND_FOR_OBJECT_TYPE
İşlem <operation> bir <requiredType>gerektirir. Ama <objectName> bir <foundType>. Bunun yerine <alternative> kullanın.
WRONG_NUM_ARGS
<functionName> için <expectedNum> parametre gereklidir, ancak gerçek sayı <actualNum>'dir.
Daha fazla ayrıntı için bkz. WRONG_NUM_ARGS
XML_ROW_TAG_MISSING
<rowTag> seçeneği, dosyaları XML biçiminde okumak/yazmak için gereklidir.
XML_UNSUPPORTED_NESTED_TYPES
XML, <innerDataType> iç türü olarak <dataType>'i desteklemez. Lütfen <innerDataType>'yı <dataType> içinde kullanırken bir StructType alanında sarın.
XML_WILDCARD_RESCUED_DATA_CONFLICT_ERROR
Kurtarılan veriler ve joker karakter sütunu aynı anda etkinleştirilemez. wildcardColumnName seçeneğini kaldırın.
ZORDERBY_COLUMN_DOES_NOT_EXIST
ZOrderBy sütunu <columnName> yok.
Delta Gölü
DELTA_ACTIVE_SPARK_SESSION_NOT_FOUND
Etkin SparkSession bulunamadı.
DELTA_ACTIVE_TRANSACTION_ALREADY_SET
Yeni bir txn zaten etkinken etkin olarak ayarlanamaz.
DELTA_ADDING_COLUMN_WITH_INTERNAL_NAME_FAILED
Ad ayrılmış olduğundan sütun <colName> eklenemedi.
DELTA_ADDING_DELETION_VECTORS_DISALLOWED
Geçerli işlem, yeni silme vektörlerinin oluşturulmasına izin vermeyen bir tabloya silme vektöru eklemeye çalıştı. Lütfen bir hata raporu bildirin.
DELTA_ADDING_DELETION_VECTORS_WITH_TIGHT_BOUNDS_DISALLOWED
Silme vektörleri ekleyen tüm işlemler istatistiklerdeki tightBounds sütununu false olarak ayarlamalıdır. Lütfen bir hata raporu bildirin.
DELTA_ADD_COLUMN_AT_INDEX_LESS_THAN_ZERO
<columnIndex> Sütun <columnName> eklemek için dizin 0'dan küçük.
DELTA_ADD_COLUMN_PARENT_NOT_STRUCT
Üst öğesi StructType olmadığından <columnName> eklenemiyor.
<other> bulundu.
DELTA_ADD_COLUMN_STRUCT_NOT_FOUND
Yapı konumunda <position> bulunamadı.
DELTA_ADD_CONSTRAINTS
ALTER TABLE kısıtlamaları eklemek için lütfen CONSTRAINT ADD CHECK kullanın.
DELTA_AGGREGATE_IN_CHECK_CONSTRAINT
Bir <sqlExpr> kısıtlamada bulunurCHECK. Kısıtlamalarda CHECK toplama ifadelerine izin verilmez.
DELTA_AGGREGATE_IN_GENERATED_COLUMN
<sqlExpr> bulundu. Oluşturulan bir sütun toplama ifadesi kullanamaz.
DELTA_AGGREGATION_NOT_SUPPORTED
Birleşik fonksiyonlar <operation> <predicate>'da desteklenmez.
DELTA_ALTER_COLLATION_NOT_SUPPORTED_BLOOM_FILTER
Bloom filtre dizinine sahip olduğu için sütun <column> sıralaması değiştirilemiyor. Lütfen mevcut harmanlamayı koruyun veya bloom filtre dizinini bırakın ve harmanlamayı değiştirmek için komutu yeniden deneyin.
DELTA_ALTER_COLLATION_NOT_SUPPORTED_CLUSTER_BY
Sütun <column> bir kümeleme sütunu olduğundan sıralama düzeni değiştirilemiyor. Lütfen mevcut harmanlamayı koruyun veya sütunu ALTER TABLE komutuyla kümelenmeyen bir sütunla değiştirin ve sonra harmanlamayı değiştirmek için komutu yeniden deneyin.
DELTA_ALTER_TABLE_CHANGE_COL_NOT_SUPPORTED
ALTER TABLE CHANGE COLUMN sütunu <currentType>'den <newType>'ye değiştirmek için desteklenmez.
DELTA_ALTER_TABLE_CLUSTER_BY_NOT_ALLOWED
ALTER TABLE CLUSTER BY yalnızca Liquid kümelemeli Delta tablosu için desteklenir.
DELTA_ALTER_TABLE_CLUSTER_BY_ON_PARTITIONED_TABLE_NOT_ALLOWED
ALTER TABLE CLUSTER BY bölümlenmiş tabloya uygulanamaz.
DELTA_ALTER_TABLE_RENAME_NOT_ALLOWED
İşleme izin verilmiyor: S3'te yönetilen Delta tabloları için ALTER TABLE RENAME TO'ya izin verilmez, S3'te nihai tutarlılık Delta işlem günlüğünü bozabilir. Eğer bunu yapmakta ısrar ediyorsanız ve yeni adın <newName> olduğu bir Delta tablosunun daha önce hiç olmadığından eminseniz, <key>'i true olarak ayarlayarak bunu etkinleştirebilirsiniz.
DELTA_ALTER_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
<tableFeature>kullanılarak ALTER TABLE SET TBLPROPERTIES tablo özelliği etkinleştirilemiyor. Kümeleme ile delta tablosu oluşturmak için lütfen CREATE VEYA REPLACE TABLE CLUSTER BY kullanın.
DELTA_ALTER_TABLE_SET_MANAGED_COPY_OR_MOVE_REQUIRED
ALTER TABLE ... SET MANAGED
COPY yabancı tablo <table>için belirtilmesi veya MOVE gerektirir.
DELTA_ALTER_TABLE_SET_MANAGED_DOES_NOT_SUPPORT_UNIFORM_ICEBERG
ALTER TABLE ... SET MANAGED Tekdüzen Apache Iceberg tablosunu desteklemez. Üniforma'yı devre dışı bırakın veya SET MANAGED TRUNCATE UNIFORM HISTORY kullanın.
DELTA_ALTER_TABLE_SET_MANAGED_FAILED
ALTER TABLE <table> SET MANAGED başarısız.
Daha fazla ayrıntı için bkz. DELTA_ALTER_TABLE_SET_MANAGED_FAILED
DELTA_ALTER_TABLE_SET_MANAGED_NOT_ENABLED
ALTER TABLE
...
SET MANAGED komutu etkin değil. Yardım için Databricks destek ekibinize başvurun.
DELTA_ALTER_TABLE_SET_MANAGED_TABLE_NOT_MIGRATABLE
ALTER TABLE <table> SET MANAGED verilen tabloyu geçiremiyor.
Tablonun geçerli bir durumda olduğundan emin olun ve komutu yeniden deneyin. Sorun devam ederse Databricks desteğine başvurun.
Daha fazla ayrıntı için bkz. DELTA_ALTER_TABLE_SET_MANAGED_TABLE_NOT_MIGRATABLE
DELTA_ALTER_TABLE_SET_MANAGED_UNSUPPORTED_COPY_MOVE_SYNTAX
ALTER TABLE ... SET MANAGED [COPY | MOVE] söz dizimi tablo <table>için desteklenmiyor. Bunun yerine ALTER TABLE ... SET MANAGED kullanın.
DELTA_ALTER_TABLO_YÖNETİLEN_DESTEKLENMEYEN_YABANCI_TABLO
Yabancı tablo <table> , UC yönetilen tablosuna geçiş için desteklenmez: <errorMessage>.
DELTA_ALTER_TABLE_UNSET_MANAGED_DOES_NOT_SUPPORT_COMPATIBILITY_MODE
ALTER TABLE ... UNSET MANAGED uyumluluk modunun etkinleştirildiği tabloyu desteklemez.
Bu komutu çalıştırmadan önce tabloda uyumluluk modunu devre dışı bırakın.
DELTA_ALTER_TABLE_UNSET_MANAGED_DOES_NOT_SUPPORT_UNIFORM
ALTER TABLE ... UNSET MANAGED Tekdüzen'i desteklemez. Üniforma'yı devre dışı bırakın veya UNSET MANAGED TRUNCATE UNIFORM HISTORY kullanın.
DELTA_ALTER_TABLE_UNSET_MANAGED_FAILED
<table> yönetilen tablodan dış tabloya geri alınamaz.
Daha fazla ayrıntı için bkz. DELTA_ALTER_TABLE_UNSET_MANAGED_FAILED
DELTA_ALTER_TABLE_UNSET_MANAGED_NOT_ENABLED
ALTER TABLE
...
UNSET MANAGED komutu etkin değil. Yardım için Databricks destek ekibinize başvurun.
DELTA_AMBIGUOUS_DATA_TYPE_CHANGE
<column> veri türünün <from>'den <to>'ye değiştirilemez. Bu değişiklik sütun kaldırma ve eklemeler içerdiğinden belirsizdir. Lütfen [ADD | ALTER TABLE] DROP | RENAMECOLUMN kullanarak bu değişiklikleri tek tek yapın.
DELTA_AMBIGUOUS_PARTITION_COLUMN
Belirsiz bölme sütunu <column>, <colMatches>olabilir.
DELTA_AMBIGUOUS_PATHS_IN_CREATE_TABLE
CREATE TABLE iki farklı konum içerir: <identifier> ve <location>.
LOCATION ifadesinden CREATE TABLE yan tümcesini kaldırabilir veya
Bu denetimi atlamak için <config>'ı true olarak ayarlayın.
DELTA_ARCHIVED_FILES_IN_LIMIT
Tablo <table>, arşivlenmemiş dosyalarda belirtilen LIMIT<limit> kayıtlarını karşılamak için yeterli kayıt içermiyor.
DELTA_ARCHIVED_FILES_IN_SCAN
Tablo <numArchivedFiles> içinde bu sorgunun parçası olarak taranması gereken arşivlenmiş olabilecek <table> dosya bulundu.
Arşivlenen dosyalara erişilemiyor. Mevcut arşivleme süresi <archivalTime> olarak yapılandırılmıştır.
Arşivlenmiş dosyaları dışlamak için lütfen sorgu filtrelerinizi ayarlayın.
DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION
Tabloda değişiklik veri akışı (CDF) etkinleştirildiğinde ve veya <opName>kullanılarak DROP COLUMN şema değişiklikleri yapıldığında "RENAME COLUMN" işlemine izin verilmez.
DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS
Aşağıdaki varolmayan sütunlarda bloom filtre dizinleri bırakılamaz: <unknownColumns>.
DELTA_BLOOM_FILTER_OOM_ON_WRITE
Bellek Yetersizliği Hatası, aşağıdaki sütun(lar) için bloom filtresi dizinleri yazılırken meydana geldi: <columnsWithBloomFilterIndices>.
'numItems' seçeneği için daha küçük bir değer, 'fpp' seçeneği için daha büyük bir değer seçerek veya daha az sütun dizinleyerek çiçek filtresi dizinlerinin bellek ayak izini azaltabilirsiniz.
DELTA_CANNOT_CHANGE_DATA_TYPE
Veri türü değiştirilemiyor: <dataType>.
DELTA_CANNOT_CHANGE_LOCATION
Kullanılarak SET TBLPROPERTIESDelta tablosunun 'konumu' değiştirilemez. Lütfen bunun yerine ALTER TABLE SET LOCATION kullanın.
DELTA_CANNOT_CHANGE_PROVIDER
'provider' ayrılmış bir tablo özelliğidir ve değiştirilemez.
DELTA_CANNOT_CREATE_BLOOM_FILTER_NON_EXISTING_COL
Aşağıdaki varolmayan sütunlarda bloom filtresi dizinleri oluşturulamıyor: <unknownCols>.
DELTA_CANNOT_CREATE_LOG_PATH
<path> oluşturulamaz.
DELTA_CANNOT_DESCRIBE_VIEW_HISTORY
Bir görünümün geçmişi tanımlanamaz.
DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN
İndeksli olmayan bir sütunda bloom filtresi dizini kaldırılamaz: <columnName>.
DELTA_CANNOT_DROP_CHECK_CONSTRAINT_FEATURE
CHECK kısıtlamaları tablosu özelliği kaldırılamıyor.
Önce aşağıdaki kısıtlamalar bırakılmalıdır: <constraints>.
DELTA_CANNOT_DROP_COLLATIONS_FEATURE
Kollasyon tablosu özelliği bırakılamıyor.
Varsayılan olmayan harmanlamalara sahip sütunlar önce UTF8_BINARY kullanılarak değiştirilmelidir: <colNames>.
DELTA_CANNOT_DROP_DOMAIN_METADATA_FEATURE_FROM_MANAGED_ICEBERG_TABLE
domainMetadata tablo özelliği bırakılamıyor. Tablo <name> , yönetilen bir Apache Iceberg tablosudur. DomainMetadata yönetilen Apache Iceberg tablolarından bırakılamaz.
Delta coğrafi özelliği bırakılamıyor
Jeo-uzamsal tablo özelliği bırakılamıyor. Tabloyu yeniden oluşturun veya geometri/coğrafya türleriyle sütunları bırakın: <colNames> ve yeniden deneyin.
DELTA_CANNOT_DROP_VARIANT_FEATURE
DROP FEATURE <feature> başarısız oldu. Değişken tablo özelliği bırakılamıyor. Değişken sütunları önce bırakılmalıdır: <colNames>.
DELTA_CANNOT_EVALUATE_EXPRESSION
İfade değerlendirilemiyor: <expression>.
DELTA_CANNOT_FIND_BUCKET_SPEC
Delta tablosunun bölümlenmesi bekleniyor ancak tabloda bölümlenme belirtimi bulunamıyor.
DELTA_CANNOT_GENERATE_CODE_FOR_EXPRESSION
İfade için kod oluşturulamıyor: <expression>.
DELTA_CANNOT_MODIFY_APPEND_ONLY
Bu tablo yalnızca eklemelere izin verecek şekilde yapılandırılmıştır. Güncelleştirmelere veya silmelere izin vermek istiyorsanız 'ALTER TABLE <table_name> SET TBLPROPERTIES (<config>=false)' kullanın.
DELTA_CANNOT_MODIFY_CATALOG_OWNED_DEPENDENCIES
Bu tablo kataloğa ait olduğundan işleme zaman damgası tablosu özellikleri geçersiz kılınamaz veya ayarlanamaz.
TBLPROPERTIES koşul ifadesinden "delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion" ve "delta.inCommitTimestampEnablementTimestamp" öğelerini kaldırın ve ardından komutu tekrar deneyin.
DELTA_CANNOT_MODIFY_COORDINATED_COMMITS_DEPENDENCIES
<Command>, bu tabloda eşgüdümlü işlemeler etkinleştirildiğinden ve bunlara bağlı olduğundan, işleme içi zaman damgası tablo özelliklerini geçersiz kılamaz veya ayardan kaldıramaz. Lütfen bunları ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") yan tümcesinden TBLPROPERTIES kaldırın ve komutu yeniden deneyin.
DELTA_CANNOT_MODIFY_TABLE_PROPERTY
Delta tablosu yapılandırması <prop> kullanıcı tarafından belirtilemez.
DELTA_CANNOT_OVERRIDE_COORDINATED_COMMITS_CONFS
<Command> var olan bir hedef tablo için eşgüdümlü işleme yapılandırmalarını geçersiz kılamaz. Lütfen bunları TBLPROPERTIES cümleden kaldırın ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview", "delta.coordinatedCommits.tableConf-preview") ve komutu tekrar deneyin.
DELTA_CANNOT_RECONSTRUCT_PATH_FROM_URI
göreli yola dönüştürülemez bir uri (<uri>) işlem günlüğünde bulundu.
DELTA_CANNOT_RELATIVIZE_PATH
Geçerli girişle görecelileştirilemeyen bir yol (<path>)
işlem günlüğü. Lütfen bunu şu şekilde yeniden çalıştırın:
com.databricks.delta.Delta.fixAbsolutePathsInLog("<userPath>", true) %%scala
ve ardından şu komutu çalıştırın:
com.databricks.delta.Delta.fixAbsolutePathsInLog("<path>") %%scala
DELTA_CANNOT_RENAME_PATH
<currentPath>, <newPath> olarak yeniden adlandırılamıyor.
DELTA_CANNOT_REPLACE_MISSING_TABLE
Tablo <tableName> mevcut olmadığından değiştirilemez. Tabloyu oluşturmak için CREATE VEYA REPLACE TABLE kullanın.
DELTA_CANNOT_RESOLVE_CLUSTERING_COLUMN
Beklenmeyen bir hata nedeniyle kümeleme <columnName> sütunu <schema> çözümlenemiyor. Çalıştır ALTER TABLE...CLUSTER BY ... delta kümeleme meta verilerini onarmak için.
DELTA_CANNOT_RESOLVE_COLUMN
<columnName>'de <schema> sütunu çözümlenemiyor
DELTA_CANNOT_RESTORE_TABLE_VERSION
tablo <version>sürümüne geri yüklenemiyor. Kullanılabilir sürümler: [<startVersion>, <endVersion>].
DELTA_CANNOT_RESTORE_TIMESTAMP_EARLIER
Tablo, belirtilen zaman damgası (<requestedTimestamp>) kullanılarak geri yüklenemez çünkü bu, mevcut en eski sürümden öncedir. Lütfen (<earliestTimestamp>) sonrasında bir zaman damgası kullanın.
DELTA_CANNOT_RESTORE_TIMESTAMP_GREATER
Tablo, kullanılabilir en son sürümden sonrası olduğu için zaman damgasına (<requestedTimestamp>) geri yüklenemiyor. Lütfen (<latestTimestamp>) öncesinde bir zaman damgası kullanın.
DELTA_CANNOT_SET_COORDINATED_COMMITS_DEPENDENCIES
<Command>, işleme içi zaman damgası tablosu özelliklerini eşgüdümlü işlemelerle birlikte ayarlayamaz, çünkü ikincisi eskisine bağımlıdır ve eskisini dahili olarak ayarlar. Lütfen bunları ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") yan tümcesinden TBLPROPERTIES kaldırın ve komutu yeniden deneyin.
DELTA_CANNOT_SET_LOCATION_ON_PATH_IDENTIFIER
Yol tabanlı tablonun konumu değiştirilemez.
DELTA_CANNOT_SET_MANAGED_STATS_COLUMNS_PROPERTY
Lakeflow olmayan Spark Bildirimli İşlem Hatları tablosunda delta.managedDataSkippingStatsColumns ayarlanamaz.
DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_COMMAND
İşleme düzenleyicisi olarak 'unity-catalog' etkinleştirilirken, "<configuration>" yapılandırması komuttan ayarlanamaz. Lütfen TBLPROPERTIES yan tümcesinden kaldırın ve komutu yeniden deneyin.
DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_SESSION
İşleme düzenleyicisi olarak 'unity-catalog' etkinleştirilirken SparkSession yapılandırmalarından "<configuration>" yapılandırması ayarlanamaz. Lütfen spark.conf.unset("<configuration>") çalıştırarak ayarı kaldırın ve komutu tekrar deneyin.
DELTA_CANNOT_UNSET_COORDINATED_COMMITS_CONFS
ALTER eşgüdümlü işleme yapılandırmalarını kaldıramaz. Bir tabloyu eşgüdümlü işlemelerden düşürmek için lütfen kullanarak ALTER TABLE [table-name] DROP FEATURE 'coordinatedCommits-preview'yeniden deneyin.
DELTA_CANNOT_UPDATE_ARRAY_FIELD
Alan türü güncelleştirilemiyor<tableName>: öğesini güncelleştirerek güncelleştirin<fieldName>.<fieldName>.element
DELTA_CANNOT_UPDATE_MAP_FIELD
Alan türü güncelleştirilemiyor<tableName>: veya <fieldName>güncelleştirerek bir haritayı güncelleştirin<fieldName>.key.<fieldName>.value
DELTA_CANNOT_UPDATE_OTHER_FIELD
türünde <tableName>alan güncelleştirilemiyor<typeName>.
DELTA_CANNOT_UPDATE_STRUCT_FIELD
<tableName> alanı <fieldName> türü güncellenemiyor: alanlarını ekleyerek, silerek veya güncelleyerek yapıyı güncelleyin.
DELTA_CANNOT_USE_ALL_COLUMNS_FOR_PARTITION
Bölme sütunları için tüm sütunlar kullanılamaz.
DELTA_CANNOT_VACUUM_LITE
VACUUM LITE, bazı dosyalara Delta günlüğünce referans verilmediğinden tüm uygun dosyaları silemez. Lütfen VACUUM FULLçalıştırın.
DELTA_CANNOT_WRITE_INTO_VIEW
<table> bir görünümdür. Görünüme yazma işlemleri desteklenmez.
DELTA_CAST_OVERFLOW_IN_TABLE_WRITE
<sourceType> türündeki bir değer, taşma nedeniyle <targetType> türü sütun <columnName>'ye yazılamadı.
Giriş değerinde taşmayı tolere etmek ve bunun yerine try_cast döndürmek için NULL kullanın.
Gerekirse, bu hatayı atlamak için <storeAssignmentPolicyFlag>'yi "LEGACY" olarak ayarlayın veya eski davranışa geri dönmek için <updateAndMergeCastingFollowsAnsiEnabledFlag>'yi true olarak ayarlayın ve <ansiEnabledFlag> ile UPDATE'de MERGE'ü izleyin.
DELTA_CATALOG_MANAGED_TABLE_UPGRADE_OR_DOWNGRADE_NOT_SUPPORTED
Katalog tarafından yönetilen bir tablonun yükseltilmesi veya düşürülmesi desteklenmez. Bunun yerine istenen tablo özelliklerine sahip yeni bir tablo oluşturun.
DELTA_CATALOG_MANAGED_TABLE_UPGRADE_WITH_OTHER_PROPERTIES
Tablo <tableName> katalog tarafından yönetilen olarak yükseltilirken diğer özellik değişiklikleri birleştirilemez.
Sağlanan özellikler: <properties>.
DELTA_CDC_NOT_ALLOWED_IN_THIS_VERSION
Delta.enableChangeDataFeed yapılandırması ayarlanamaz. Delta'dan veri akışını değiştirme özelliği henüz kullanılamıyor.
DELTA_CDC_READ_NULL_RANGE_BOUNDARY
CDC okuma başlangıç/bitiş parametreleri null olamaz. Lütfen geçerli bir sürüm veya zaman damgası sağlayın.
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_DATA_SCHEMA
Sürüm <start> ile <end> arasındaki tablo değişiklikleri uyumsuz bir veri şeması nedeniyle alınamadı.
Okuma şemanız <readSchema> sürümünde, ancak <readVersion> sürümünde uyumsuz bir veri şeması bulduk.
Mümkünse, <config>'yi endVersion olarak ayarlayıp son sürümün şemasını kullanarak tablo değişikliklerini alın veya destek ile iletişime geçin.
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE
Sürüm <start> ile <end> arasındaki tablo değişiklikleri uyumsuz şema değişikliği nedeniyle alınamadı.
Okuma şemanız <readSchema> sürümündeyken <readVersion> sürümünde, ancak <incompatibleVersion> sürümünde uyumsuz bir şema değişikliği bulduk.
Mümkünse, lütfen tablo değişikliklerini sürüm <start><incompatibleVersion> - 1'e ve sürüm <incompatibleVersion>'dan <end>'a ayrı olarak sorgulayın.
DELTA_CHANGE_DATA_FILE_NOT_FOUND
İşlem günlüğünde referans verilen dosya <filePath> bulunamıyor. Veriler tablo DELETE deyimi yerine dosya sisteminden el ile silindiğinde bu durum oluşabilir. Bu istek Veri Akışını Değiştir'i hedefliyor gibi görünüyor. Bu durumda, değişiklik veri dosyası bekletme süresinin dışında olduğunda ve VACUUM deyimi tarafından silindiğinde bu hata oluşabilir. Daha fazla bilgi için bkz. <faqPath>
DELTA_CHANGE_TABLE_FEED_DISABLED
delta.enableChangeDataFeed kümesiyle tabloya yazılamıyor. Delta'dan veri akışını değiştirme kullanılamaz.
DELTA_CHECKPOINT_NON_EXIST_TABLE
Mevcut olmayan bir tablo <path>için denetim noktası oluşturulamaz. _delta_log dizinindeki dosyaları el ile sildiniz mi?
DELTA_CLONE_AMBIGUOUS_TARGET
CLONE hedefi olarak iki yol sağlandığı için hangisinin kullanılacağı belirsizdir. Dış kaynak
CLONE konumu, yol ile aynı anda <externalLocation>'de sağlandı.
<targetIdentifier>.
DELTA_CLONE_INCOMPATIBLE_SOURCE
Kopya kaynağı geçerli bir biçime sahiptir, ancak Delta ile desteklenmeyen bir özelliğe sahiptir.
Daha fazla ayrıntı için bkz. DELTA_CLONE_INCOMPATIBLE_SOURCE
DELTA_CLONE_INCOMPLETE_FILE_COPY
Dosya (<fileName>) tamamen kopyalanmaz. Beklenen dosya boyutu: <expectedSize>, bulundu: <actualSize>. Dosya boyutu kontrolünü yoksayarak işleme devam etmek için <config>'ı yanlış olarak ayarlayın.
DELTA_CLONE_UNSUPPORTED_SOURCE
Biçimi <mode>olan desteklenmeyen <name> kopya kaynağı '<format>'.
Desteklenen biçimler :'delta', 'Apache Iceberg' ve 'parquet'.
DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_SOURCE
Desteklenmeyen kaynak tablo:
Daha fazla ayrıntı için bkz. DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_SOURCE
DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_TARGET
Desteklenmeyen hedef tablo:
Daha fazla ayrıntı için bkz. DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_TARGET
DELTA_KLON_SATIR_IZLEME_ILE_ISTATISTIKSIZ
İstatistikler olmadan ve satır izleme etkinken tablo yüzeysel kopyalanamaz.
Satır izlemeyi etkinleştirmek istiyorsanız, önce aşağıdakini çalıştırarak kaynak tablodaki istatistikleri toplamanız gerekir:
ANALYZE TABLE table_name COMPUTE DELTA STATISTICS
DELTA_CLUSTERING_CLONE_TABLE_NOT_SUPPORTED
CLONE DBR sürüm < 14.0 için Liquid kümelemesi ile Delta tablosu için desteklenmez.
DELTA_CLUSTERING_COLUMNS_DATATYPE_NOT_SUPPORTED
CLUSTER BY aşağıdaki sütunlar nedeniyle desteklenmez: <columnsWithDataTypes> veri atlama desteği yoktur.
DELTA_CLUSTERING_COLUMNS_MISMATCH
Sağlanan kümeleme sütunları mevcut tablonun sütunlarıyla eşleşmiyor.
sağlanan:
<providedClusteringColumns>mevcut:
<existingClusteringColumns>
DELTA_CLUSTERING_COLUMN_MISSING_STATS
Sıvı kümeleme, kümeleme sütunlarının istatistiklere sahip olmasını gerektirir. '' kümeleme sütunları<columns> istatistik şemasında bulunamadı:
<schema>
DELTA_CLUSTERING_CREATE_EXTERNAL_NON_LIQUID_TABLE_FROM_LIQUID_TABLE
Sıvı kümelenme içeren bir tablo dizininden sıvı kümelenme olmadan dış tablo oluşturulmasına izin verilmez; yol: <path>.
DELTA_CLUSTERING_NOT_SUPPORTED
'<operation>' kümelemesi desteklemez.
DELTA_CLUSTERING_PHASE_OUT_FAILED
Tablonun <phaseOutType>'ını, <tableFeatureToAdd> tablo özelliğiyle tamamlamak mümkün değil (sebep: <reason>). Lütfen OPTIMIZE komutunu yeniden deneyin.
== Hata ==
<error>
DELTA_CLUSTERING_REPLACE_TABLE_WITH_PARTITIONED_TABLE
REPLACE Liquid kümelemesi içeren Delta tablosu, bölümlü bir tablo ile kullanılamaz.
DELTA_CLUSTERING_SHOW_CREATE_TABLE_WITHOUT_CLUSTERING_COLUMNS
SHOW CREATE TABLE, herhangi bir kümeleme sütunu olmadan Sıvı kümelenmesi ile Delta tablosu için desteklenmez.
DELTA_CLUSTERING_TO_PARTITIONED_TABLE_WITH_NON_EMPTY_CLUSTERING_COLUMNS
Liquid kümeleme içeren bir Delta tablosunu bölümlenmiş tabloya geçirme işlemine izin verilmez: <operation>, mevcut tabloda boş olmayan kümeleme sütunları olduğunda.
Önce kümeleme sütunlarını kaldırmak için ALTER TABLE CLUSTER BY NONE komutunu çalıştırın.
DELTA_CLUSTERING_WITH_DYNAMIC_PARTITION_OVERWRITE
Sıvı kümeleme içeren Delta tablosu için dinamik bölüm üzerine yazma moduna izin verilmez.
DELTA_CLUSTERING_WITH_PARTITION_PREDICATE
OPTIMIZE Liquid kümelenmesi içeren Delta tablo komutu bölümleme koşullarını desteklemez. Lütfen yüklemleri kaldırın: <predicates>.
DELTA_CLUSTERING_WITH_ZORDER_BY
Liquid kümelemeyi içeren Delta tablosu için OPTIMIZE komutu ZORDER BYbelirtemez. Lütfen ZORDER BY (<zOrderBy>) öğesini kaldırın.
DELTA_CLUSTER_BY_AUTO_MISMATCH
Sağlanan clusterByAuto değeri, mevcut tablonun değeriyle eşleşmiyor.
DELTA_CLUSTER_BY_INVALID_NUM_COLUMNS
Liquid kümeleme için CLUSTER BY en fazla <numColumnsLimit> kümeleme sütunlarını destekler, ancak tabloda <actualNumColumns> kümeleme sütunu vardır. Lütfen ek kümeleme sütunlarını kaldırın.
DELTA_CLUSTER_BY_SCHEMA_NOT_PROVIDED
Şema tanımlanmadığında CLUSTER BY belirtilmesine izin verilmez. Tablo <tableName>için şema tanımlayın.
DELTA_CLUSTER_BY_WITH_BUCKETING
Kümeleme ve gruplama birlikte belirtilemez. Kümeleme ile bir Delta tablosu oluşturmak istiyorsanız lütfen CLUSTERED BY INTO BUCKETS /bucketBy öğesini kaldırın.
DELTA_CLUSTER_BY_WITH_PARTITIONED_BY
Kümeleme ve bölümlemenin ikisi de belirtilemez. Kümeleme ile bir Delta tablosu oluşturmak istiyorsanız lütfen PARTITIONED BY / partitionBy / partitionedBy öğesini kaldırın.
DELTA_COLLATIONS_NOT_SUPPORTED
Harmanlamalar Delta Lake'te desteklenmez.
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_PARTITIONED_COLUMN
'<column>' bölüm sütunu için veri atlama desteklenmiyor.
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_TYPE
<column> sütunu <type> türü için veri atlama desteklenmiyor.
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET
Sütun eşlemesi etkinleştirilmiş bir tabloda en fazla sütun kimliği özelliği (<prop>) ayarlanmadı.
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET_CORRECTLY
Sütun eşlemesi etkinleştirilmiş bir tablodaki en büyük sütun kimliği özelliği (<prop>), tüm alanlar için en büyük sütun kimliği (<tableMax>) ile aynı veya daha büyük olan <fieldMax>olmalıdır.
DELTA_COLUMN_MISSING_DATA_TYPE
Sütun <colName>'un veri türü belirtilmedi.
DELTA_COLUMN_NOT_FOUND
[<columnName>] verilen sütun <columnList> bulunamıyor.
DELTA_COLUMN_NOT_FOUND_IN_MERGE
Hedef tablonun '<targetCol>' adlı sütunu, şu sütunlar INSERT arasında bulunamıyor: <colNames>.
INSERT yan tümcesi hedef tablonun tüm sütunları için değer belirtmelidir.
DELTA_COLUMN_NOT_FOUND_IN_SCHEMA
Aranan sütun <columnName> bulunamadı:
<tableSchema>
DELTA_COLUMN_PATH_NOT_NESTED
<columnPath> iç içe veri türü olması bekleniyordu, ancak <other>bulundu. Bir şey arıyordum
iç içe bir alandaki <column> dizini.
Schema:
<schema>
DELTA_COLUMN_STRUCT_TYPE_MISMATCH
<source>içindeki bir <targetType> alanına <targetField> yapı sütunu <targetTable> eklenemez.
DELTA_COMMIT_INTERMEDIATE_REDIRECT_STATE
Yeniden yönlendirme tablosu durumunda '<state>' tablo onayı gerçekleştirilemiyor.
DELTA_COMPACTION_VALIDATION_FAILED
<compactedPath>'dan <newPath>'e kadar yolun sıkıştırma işlemi doğrulanamadı: Lütfen bir hata raporu gönderin.
DELTA_COMPLEX_TYPE_COLUMN_CONTAINS_NULL_TYPE
<columName>'e sahip <dataType> sütununda iç içe NullType bulundu. Delta, karmaşık türlerde NullType yazmayı desteklemez.
DELTA_CONCURRENT_APPEND
ConcurrentAppendException: Dosyalar, eşzamanlı bir güncelleme ile <partition>'ya eklenmiştir. <retryMsg> <conflictingCommit>
Daha fazla ayrıntı için <docLink> bakın.
DELTA_CONCURRENT_DELETE_DELETE
ConcurrentDeleteDeleteException: Bu işlem, eş zamanlı güncelleştirmeyle silinen bir veya daha fazla dosyayı (örneğin <file>) silmeye çalıştı. Lütfen işlemi yeniden deneyin.<conflictingCommit>
Daha fazla ayrıntı için <docLink> bakın.
DELTA_CONCURRENT_DELETE_READ
ConcurrentDeleteReadException: Bu işlem, eş zamanlı güncelleştirmeyle silinen bir veya daha fazla dosyayı (örneğin <file>) okumaya çalıştı. Lütfen işlemi yeniden deneyin.<conflictingCommit>
Daha fazla ayrıntı için <docLink> bakın.
DELTA_CONCURRENT_TRANSACTION
ConcurrentTransactionException: Bu hata, birden çok akış sorgusu bu tabloya yazmak için aynı denetim noktasını kullandığında oluşur. Aynı akış sorgusunun birden çok örneğini aynı anda mı çalıştırdınız?<conflictingCommit>
Daha fazla ayrıntı için <docLink> bakın.
DELTA_CONCURRENT_WRITE
ConcurrentWriteException: Geçerli işlem tabloyu okuduğundan bu yana eşzamanlı bir işlem yeni veriler yazdı. Lütfen işlemi yeniden deneyin.<conflictingCommit>
Daha fazla ayrıntı için <docLink> bakın.
DELTA_CONFLICT_SET_COLUMN
Bu SET sütunlarından bir çakışma bulunmakta: <columnList>.
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_COMMAND
sırasında <command>, "<configuration>" yapılandırması komutundan ayarlanamaz. Lütfen TBLPROPERTIES yan tümcesinden kaldırın ve komutu yeniden deneyin.
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_SESSION
"<command> sırasında, SparkSession yapılandırmalarından '<configuration>' yapılandırması ayarlanamaz." Lütfen spark.conf.unset("<configuration>") çalıştırarak ayarı kaldırın ve komutu tekrar deneyin.
DELTA_CONSTRAINT_ALREADY_EXISTS
'<constraintName>' kısıtlaması zaten var. Lütfen önce eski kısıtlamayı silin.
Eski kısıtlama:
<oldConstraint>
DELTA_CONSTRAINT_DATA_TYPE_MISMATCH
Sütun <columnName><columnType> veri türüne sahiptir ve bu sütuna aşağıdaki denetim kısıtlamaları tarafından başvurıldığından <dataType> veri türüyle değiştirilemez:
<constraints>
DELTA_CONSTRAINT_DEPENDENT_COLUMN_CHANGE
Bu sütuna aşağıdaki denetim kısıtlamaları tarafından başvurulacağından sütun <columnName> değiştirilemez:
<constraints>
DELTA_CONSTRAINT_DOES_NOT_EXIST
Tablo <constraintName>'den mevcut olmayan kısıtlama <tableName> kaldırılamıyor. Hata oluşturmamak için IF EXISTS parametresini sağlayın veya SQL oturumu yapılandırma <config><confValue>olarak ayarlayın.
DELTA_CONVERSION_MERGE_ON_READ_NOT_SUPPORTED
Merge-On-Read <format> tablosunun dönüştürülmesi desteklenmez: <path>, <hint>
DELTA_CONVERSION_NO_PARTITION_FOUND
<tableName>tablo için katalogda bölüm bilgisi bulunamadı. Tablonuzdaki bölümleri keşfetmek için "MSCK REPAIR TABLE" komutunu çalıştırdınız mı?
DELTA_CONVERSION_UNSUPPORTED_COLLATED_PARTITION_COLUMN
Düzenlenmiş bölüm sütunu <colName> içeren Parquet tablosu Delta'ya dönüştürülemez.
DELTA_CONVERSION_UNSUPPORTED_COLUMN_MAPPING
'<config>' yapılandırması <mode>'den CONVERT'e kullanılırken DELTA olarak ayarlanamaz.
DELTA_CONVERSION_UNSUPPORTED_SCHEMA_CHANGE
Tablo için <format> desteklenmeyen şema değişiklikleri bulundu: <path>, <hint>
DELTA_CONVERT_NON_PARQUET_TABLE
CONVERT TO DELTA yalnızca parquet tablolarını destekler, ancak bir <sourceName> kaynağı dönüştürmeye çalışıyorsunuz: <tableId>.
DELTA_CONVERT_TO_DELTA_ROW_TRACKING_WITHOUT_STATS
İstatistikler toplanmadan satır izleme etkinleştirilemez.
Satır izlemeyi etkinleştirmek istiyorsanız aşağıdakileri yapın:
- komutunu çalıştırarak istatistik toplamayı etkinleştirme
SET <statisticsCollectionPropertyKey> = doğru
- NO
CONVERTseçeneği olmadanDELTA'danSTATISTICS'e çalıştırın.
İstatistik toplamak istemiyorsanız satır izlemeyi devre dışı bırakın:
- Komutunu çalıştırarak tablo özelliğini etkinleştirmeyi varsayılan olarak devre dışı bırakın:
RESET <rowTrackingTableFeatureDefaultKey>
- Aşağıdakini çalıştırarak tablo özelliğini varsayılan olarak devre dışı bırakın:
SET <rowTrackingDefaultPropertyKey> = yanlış
DELTA_COPY_INTO_TARGET_FORMAT
COPY INTO hedefi bir Delta tablosu olmalıdır.
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_SCHEMA
Bir dış tablo <tableName> oluşturmaya çalışıyorsunuz.
<path>'dan Delta kullanarak, ancak şema belirtilmemiş.
giriş yolu boş.
Delta hakkında daha fazla bilgi edinmek için bkz. <docLink>
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_TXN_LOG
Delta kullanarak <tableName> konumundan bir dış tablo <path> oluşturmaya çalışıyorsunuz, ancak <logPath> konumunda işlem günlüğü yok. Yukarı akış işini denetleerek format("delta") kullanarak yazdığından ve yolun tablonun kökü olduğundan emin olun.
Delta hakkında daha fazla bilgi edinmek için bkz. <docLink>
DELTA_CREATE_TABLE_IDENTIFIER_LOCATION_MISMATCH
Farklı bir konuma sahip yol tabanlı Delta tablosu oluşturma desteklenmez. Tanımlayıcı: <identifier>, Konum: <location>.
DELTA_CREATE_TABLE_MISSING_TABLE_NAME_OR_LOCATION
Tablo adı veya konumu belirtilmelidir.
DELTA_CREATE_TABLE_SCHEME_MISMATCH
Belirtilen şema, <path>'daki mevcut şemayla eşleşmiyor.
== Belirtilen ==
<specifiedSchema>
== Mevcut ==
<existingSchema>
== Farklar ==
<schemaDifferences>
Amacınız mevcut şemayı korumaksa, şunu atlayabilirsiniz.
"CREATE TABLE komutundan şema." Aksi takdirde lütfen gerekli önlemleri aldığınızdan emin olun
şema uyumludur.
DELTA_CREATE_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
<tableFeature>kullanılarak TBLPROPERTIES tablo özelliği etkinleştirilemiyor. Kümeleme ile delta tablosu oluşturmak için lütfen CREATE VEYA REPLACE TABLE CLUSTER BY kullanın.
DELTA_CREATE_TABLE_WITH_DIFFERENT_CLUSTERING
Belirtilen kümeleme sütunları <path>'daki mevcut kümeleme sütunlarıyla eşleşmiyor.
== Belirtilen ==
<specifiedColumns>
== Mevcut ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PARTITIONING
Belirtilen bölümleme, <path>'daki mevcut bölümlemeyle eşleşmiyor.
== Belirtilen ==
<specifiedColumns>
== Mevcut ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PROPERTY
Belirtilen özellikler <path>konumundaki mevcut özelliklerle eşleşmiyor.
== Belirtilen ==
<specifiedProperties>
== Mevcut ==
<existingProperties>
DELTA_CREATE_TABLE_WITH_NON_EMPTY_LOCATION
Tablo oluşturulamıyor ('<tableId>'). İlişkili konum ('<tableLocation>') boş değil ve delta tablosu da değil.
DELTA_DATA_CHANGE_FALSE
'dataChange' seçeneği false olarak ayarlandığından tablo meta verileri değiştirilemiyor. Denenen işlem: '<op>'.
DELTA_DELETED_PARQUET_FILE_NOT_FOUND
İşlem günlüğünde referans verilen dosya <filePath> bulunamıyor. Delta’nın veri saklama politikası kapsamında bu parquet dosyası silinebilir.
Varsayılan Delta veri saklama süresi: <logRetentionPeriod>. Parquet dosyasının değişiklik zamanı: <modificationTime>. Parquet dosyasının silinme zamanı: <deletionTime>. Delta sürümünde silindi: <deletionVersion>.
DELTA_DELETION_VECTOR_MISSING_NUM_RECORDS
NumRecords istatistiğinin eksik olduğu silme vektörlerine sahip dosyaların işlenmesi geçersizdir.
DELTA_DISABLE_SOURCE_MATERIALIZATION_IN_INSERT_REPLACE_ON_OR_USING_NOT_ALLOWED
'spark.databricks.delta.insertReplaceOnOrUsing.materializeSource' öğesini 'none' olarak ayarlayarak kaynağın gerçekleştirilmesini INSERT REPLACE ON/USING içinde devre dışı bırakmaya izin verilmez.
DELTA_DISABLE_SOURCE_MATERIALIZATION_IN_MERGE_NOT_ALLOWED
MERGE içinde 'spark.databricks.delta.merge.materializeSource' öğesini 'none' olarak ayarlayarak kaynak materyalizasyonunu devre dışı bırakmak yasaktır.
DELTA_DOMAIN_METADATA_NOT_SUPPORTED
<domainNames>etki alanları için DomainMetadata eylemleri algılandı, ancak DomainMetadataTableFeature etkinleştirilmedi.
DELTA_DROP_COLUMN_AT_INDEX_LESS_THAN_ZERO
Bırakılacak <columnIndex> dizinin sütun sayısı 0'dan küçüktür.
DELTA_DROP_COLUMN_ON_SINGLE_FIELD_SCHEMA
Tek sütunlu bir şemadan sütun bırakılamaz. Schema:
<schema>
DELTA_DUPLICATE_ACTIONS_FOUND
Yol <actionType> için '<path>' dosya işlemi birkaç kez belirtildi.
<conflictingPath>ile çakişer.
Aynı yola sahip birden çok dosya işleminin tek bir işlemede mevcut olması geçerli değildir.
DELTA_DUPLICATE_COLUMNS_FOUND
Yinelenen sütun bulundu <coltype>: <duplicateCols>.
DELTA_DUPLICATE_COLUMNS_ON_INSERT
INSERT cümlesindeki sütun adları çoğaltılmış.
DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE
<message>
Tablonuzu güncelleştirmeden önce lütfen yinelenen sütunları kaldırın.
DELTA_DUPLICATE_DATA_SKIPPING_COLUMNS
Tekrar eden verileri atlayan sütunlar bulundu: <columns>.
DELTA_DUPLICATE_DOMAIN_METADATA_INTERNAL_ERROR
İç hata: Aynı işlem içindeki iki DomainMetadata eylemi aynı etki alanına <domainName>sahiptir.
DELTA_ÇİFT_KAYIT_GİRİŞLERİ_BULUNDU
Delta günlüğü yasadışı bir durumda: <numDuplicates> yollar aynı sürümde <version> yinelenen girdilere sahip.
RESTORE çoğaltmanın dahil edildiği commit'ten önceki bir sürüme geçin veya destek için yardım alın.
DELTA_DV_HISTOGRAM_DESERIALIZATON
Tablo bütünlüğü doğrulaması sırasında, silinen kayıt sayıları histogramı serileştirilemedi.
DELTA_DYNAMIC_PARTITION_OVERWRITE_DISABLED
Dinamik bölüm üzerine yazma modu oturum yapılandırması veya yazma seçenekleriyle belirtilir, ancak spark.databricks.delta.dynamicPartitionOverwrite.enabled=falsetarafından devre dışı bırakılır.
DELTA_EMPTY_DATA
Delta tablosunu oluştururken kullanılan verilerin sütunu yoktur.
DELTA_EMPTY_DIRECTORY
dizininde dosya bulunamadı: <directory>.
DELTA_EXCEED_CHAR_VARCHAR_LIMIT
"<value>" değeri karakter/varchar türü uzunluk sınırlamalarını aşıyor. Başarısız denetim: <expr>.
DELTA_DIŞ_VERİ_METAVERİSİ_CÖZÜMLEMEMİŞ_PROJEKSİYON
'<query>' projeksiyon sorgusu şemada çözümlenemiyor: <schemaTreeString>
DELTA_DIŞ_METADATA_DESTEKLENMEYEN_KAYNAK
Dış Meta Veriler kaynağı desteklemez:
Daha fazla ayrıntı için bkz. DELTA_EXTERNAL_METADATA_UNSUPPORTED_SOURCE
DELTA_FAILED_CAST_PARTITION_VALUE
Bölümlendirme değeri <value> olarak <dataType> dönüştürülemedi.
DELTA_FAILED_FIND_ATTRIBUTE_IN_OUTPUT_COLUMNS
Mevcut hedef çıkış <newAttributeName> içinde <targetOutputColumns> bulunamadı.
DELTA_FAILED_INFER_SCHEMA
Verilen dosya listesinden şema çıkarılamadı.
DELTA_FAILED_MERGE_SCHEMA_FILE
Dosya <file>şeması birleştirilemedi.
<schema>
DELTA_FAILED_OPERATION_ON_SHALLOW_CLONE
Sığ kopya hala mevcut olduğundan ve sığ kopyada <sourceTable> aşağıdaki hata oluştuğundan kaynak tabloda <targetTable> işlem çalıştırılamadı:<message>
DELTA_FAILED_READ_FILE_FOOTER
Dosya için alt yazı okunamadı: <currentFile>.
DELTA_FAILED_RECOGNIZE_PREDICATE
'<predicate>' predikatı tanınamıyor.
DELTA_FAILED_SCAN_WITH_HISTORICAL_VERSION
Delta kaynağının en son sürümünün tam taramasını bekleyin, ancak <historicalVersion> sürümünün geçmiş taramasını buldu.
DELTA_FAILED_TO_MERGE_FIELDS
'<currentField>' ve '<updateField>' alanları birleştirilemedi.
DELTA_FEATURES_PROTOCOL_METADATA_MISMATCH
Aşağıdaki tablo özellikleri meta verilerde etkinleştirildiğinden ancak protokolde listelenmediğinden bu tabloda çalışılamıyor: <features>.
DELTA_FEATURES_REQUIRE_MANUAL_ENABLEMENT
Tablo şemanız aşağıdaki tablo özelliklerini el ile etkinleştirmeyi gerektirir: <unsupportedFeatures>.
Bunu yapmak için yukarıda listelenen özelliklerin her biri için aşağıdaki komutu çalıştırın:
ALTER TABLE
SET TBLPROPERTIES table_name ('delta.feature.feature_name' = 'supported')
"table_name" ve "feature_name" değerlerini gerçek değerlerle değiştirin.
Geçerli desteklenen özellikler: <supportedFeatures>.
DELTA_FEATURE_CAN_ONLY_DROP_CHECKPOINT_PROTECTION_WITH_HISTORY_TRUNCATION
Denetim Noktası Koruması özelliği kaldırılamadı.
Bu özellik yalnızca geçmiş kesilerek kaldırılabilir.
Lütfen TRUNCATE HISTORY seçeneğiyle yeniden deneyin:
ALTER TABLE tablo_adı DROP FEATURE kontrol noktası koruması TRUNCATE HISTORY
DELTA_FEATURE_DROP_CHECKPOINT_FAILED
Denetim noktası oluşturulmasındaki bir hata nedeniyle <featureName> düşürülemedi.
Lütfen daha sonra yeniden deneyin. Eğer sorun devam ederse Databricks desteğine başvurun.
DELTA_FEATURE_DROP_CHECKPOINT_PROTECTION_WAIT_FOR_RETENTION_PERIOD
Bırakılan özelliklerin izleri hala bulunduğundan işlem başarılı olmadı
tablo geçmişinde CheckpointProtection bu tarihî kayıtlar saklandığı sürece bırakılamaz.
sürümlerin süresi doldu.
CheckpointProtection'ı devre dışı bırakmak için lütfen geçmiş sürümlerin tamamlanmasını bekleyin.
süresi dolduktan sonra bu komutu yineleyin. Geçmiş sürümlerin saklama süresi şu şekildedir:
şu anda <truncateHistoryLogRetentionPeriod>olarak yapılandırılmıştır.
DELTA_FEATURE_DROP_CONFLICT_REVALIDATION_FAIL
Eşzamanlı bir işlem tabloyu değiştirdiğinden özellik bırakılamıyor.
Lütfen işlemi yeniden deneyin.
<concurrentCommit>
DELTA_FEATURE_DROP_DEPENDENT_FEATURE
Bu tablodaki diğer bazı özellikler (<feature>) <dependentFeatures>bağlı olduğundan tablo özelliği <feature> bırakılamıyor.
Önce bunları bırakmayı düşünün, ardından bu özelliği bırakmayı düşünün.
DELTA_FEATURE_DROP_FEATURE_IS_DELTA_PROPERTY
Bu tabloda <property> bırakılamaz çünkü bu, bir tablo işlevi değil, bir delta tablo özelliğidir.
DELTA_FEATURE_DROP_FEATURE_NOT_PRESENT
Bu tablonun protokolünde bulunmadığından, <feature> bu tablodan kaldırılamıyor.
DELTA_FEATURE_DROP_HISTORICAL_VERSIONS_EXIST
Delta günlüğü özelliği kullanan geçmiş sürümleri içerdiğinden <feature> bırakılamıyor.
Lütfen geçmiş saklama süresine (<logRetentionPeriodKey>=<logRetentionPeriod>) kadar bekleyin
özelliği son etkin olduğundan beri geçti.
Alternatif olarak, lütfen TRUNCATE HISTORY saklama süresinin dolmasını bekleyin (<truncateHistoryLogRetentionPeriod>)
ve ardından şu komutu çalıştırın:
ALTER TABLE tablo_adı DROP FEATURE özellik_adı TRUNCATE HISTORY
DELTA_FEATURE_DROP_HISTORY_TRUNCATION_NOT_ALLOWED
Bu özel özellik, geçmişin kesilmesini gerektirmez.
DELTA_FEATURE_DROP_NONREMOVABLE_FEATURE
Bu özelliğin bırakılması desteklenmediğinden <feature> bırakılamıyor.
Lütfen Databricks desteğine başvurun.
DELTA_FEATURE_DROP_UNSUPPORTED_CLIENT_FEATURE
Bu Databricks sürümü tarafından desteklenmediğinden <feature> bırakılamıyor.
Databricks'i daha yüksek bir sürümle kullanmayı göz önünde bulundurun.
DELTA_FEATURE_DROP_WAIT_FOR_RETENTION_PERIOD
<feature> düşürülmesi kısmen başarılı oldu.
Özellik artık tablonun geçerli sürümünde kullanılmıyor. Ancak bu özellik
tablonun geçmiş sürümlerinde hala mevcuttur. Tablo özelliği bırakılamıyor
Tablo protokolüne göre, bu eski sürümlerin süresi dolana kadar.
Protokolden tablo özelliğini bırakmak için lütfen geçmiş sürümlerin tamamlanmasını bekleyin.
süresi dolduktan sonra bu komutu yineleyin. Geçmiş sürümlerin saklama süresi şu şekildedir:
şu anda <logRetentionPeriodKey>=<logRetentionPeriod>olarak yapılandırılmıştır.
Alternatif olarak, lütfen TRUNCATE HISTORY saklama süresinin dolmasını bekleyin (<truncateHistoryLogRetentionPeriod>)
ve ardından şu komutu çalıştırın:
ALTER TABLE tablo_adı DROP FEATURE özellik_adı TRUNCATE HISTORY
DELTA_FEATURE_REQUIRES_HIGHER_READER_VERSION
Daha yüksek bir okuyucu protokolü sürümü (geçerli <feature>) gerektirdiği için tablo özelliği <current> etkinleştirilemiyor. Tablonun okuyucu protokolü sürümünü <required> veya okuyucu tablo özelliklerini destekleyen bir sürüme yükseltmeyi düşünün. Tablo protokolü sürümleri hakkında daha fazla bilgi için <docLink> bakın.
DELTA_FEATURE_REQUIRES_HIGHER_WRITER_VERSION
Daha yüksek bir yazıcı protokolü sürümü (geçerli <feature>) gerektirdiği için tablo özelliği <current> etkinleştirilemiyor. Tablonun yazıcı protokolü sürümünü sürümüne <required>veya yazıcı tablosu özelliklerini destekleyen bir sürüme yükseltmeyi göz önünde bulundurun. Tablo protokolü sürümleri hakkında daha fazla bilgi için <docLink> bakın.
DELTA_FILE_ALREADY_EXISTS
Varolan dosya yolu <path>.
DELTA_FILE_LIST_AND_PATTERN_STRING_CONFLICT
Hem dosya listesi hem de desen dizesi belirtilemez.
DELTA_FILE_NOT_FOUND
Dosya yolu <path>.
DELTA_FILE_NOT_FOUND_DETAILED
İşlem günlüğünde referans verilen dosya <filePath> bulunamıyor. Veriler tablo DELETE deyimi yerine dosya sisteminden el ile silindiğinde bu durum oluşur. Daha fazla bilgi için bkz. <faqPath>
DELTA_FILE_OR_DIR_NOT_FOUND
Böyle bir dosya veya dizin yok: <path>.
DELTA_FILE_TO_OVERWRITE_NOT_FOUND
Yeniden yazılacak dosya (<path>) aday dosyalar arasında bulunamadı:
<pathList>
DELTA_FOUND_MAP_TYPE_COLUMN
Bir MapType bulundu. MapType'ın anahtarına veya değerine erişmek için bir tane belirtin
of:
<key> veya
<value>
ardından sütunun adı (yalnızca bu sütun bir struct türündeyse).
örneğin, mymap.key.mykey
Sütun temel bir tür olduğunda, mymap.key veya mymap.value kullanılması yeterlidir.
Schema:
<schema>
DELTA_FSCK_CANNOT_REPAIR_DELTA_LOG
FSCK tabloyu onaramıyor. Tabloda günlük yeniden yürütmeyi başlatmak için geçerli bir denetim noktası yoktur ve ilk sürümden yeniden oynatmak için yeterli günlük geçmişi yoktur.
DELTA_FSCK_CONCURRENT_MODIFICATION
FSCK çalıştırılırken algılanan tabloda eşzamanlı değişiklik. Lütfen FSCK komutunu yeniden deneyin ve onarım işlemi sırasında tabloya başka işlem yazmadığından emin olun.
DELTA_FSCK_DRY_RUN_CANNOT_PROCEED_WITH_INVALID_CHECKPOINTS
Geçersiz denetim noktaları algılandığı için FSCK DRY RUN devam edemiyor. Denetim noktalarını onarmak için lütfen önce 'YALNIZCA FSCK REPAIR TABLE tablosu METADATA ' komutunu çalıştırın.
DELTA_FSCK_DRY_RUN_CANNOT_PROCEED_WITH_MISSING_OR_INVALID_PARTITION_FILES
Eksik dosyalar veya geçersiz bölüm değerlerine sahip dosyalar algılandığı için FSCK DRY RUN devam edemiyor. Tabloyu onarmak için önce 'FSCK REPAIR TABLE tablosu' komutunu çalıştırın.
DELTA_FSCK_INVALID_BARRIER_CHECKPOINT
FSCK tabloyu onaramıyor. Geçersiz denetim noktalarından bazıları korunur ve kaldırılamaz. Lütfen Databricks desteğine başvurun.
DELTA_FSCK_NO_VALID_CHECKPOINT
FSCK tabloyu onaramıyor. Bu tablonun tüm denetim noktaları geçersiz. Lütfen Databricks desteğine başvurun.
DELTA_GENERATED_COLUMNS_DATA_TYPE_MISMATCH
Sütun <columnName>, <columnType> veri türüne sahiptir ve bu sütuna aşağıdaki oluşturulmuş sütunlar başvuruda bulunduğu için veri türü <dataType> olarak değiştirilemez.
<generatedColumns>.
DELTA_GENERATED_COLUMNS_DEPENDENT_COLUMN_CHANGE
Bu sütuna aşağıdaki oluşturulan sütunlarda başvurulacağından sütun <columnName> değiştirilemez:
<generatedColumns>.
DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH
Oluşturulan sütunun <columnName> ifade türü olur <expressionType>, ancak sütun türü olur <columnType>.
DELTA_GENERATED_COLUMN_UPDATE_TYPE_MISMATCH
Sütun <currentName>, oluşturulan bir sütun veya oluşturulan sütun tarafından kullanılan bir sütundur. Veri türü şeklindedir <currentDataType> ve veri türüne <updateDataType>dönüştürülemez.
DELTA_GEOSPATIAL_NOT_SUPPORTED
Delta Lake'in bu sürümünde coğrafi türler desteklenmemektedir.
DELTA_GEOSPATIAL_SRID_NOT_SUPPORTED
Jeo-uzamsal tür, desteklenmeyen bir srid değerine sahiptir: <srid>. Delta tabloları yalnızca negatif olmayan srid değerlerini destekler.
DELTA_ICEBERG_COMPAT_VIOLATION
IcebergCompatV<version> doğrulaması başarısız oldu.
Daha fazla ayrıntı için bkz. DELTA_ICEBERG_COMPAT_VIOLATION
DELTA_ICEBERG_WRITER_COMPAT_VIOLATION
IcebergWriterCompatV<version> doğrulaması başarısız oldu.
Daha fazla ayrıntı için bkz. DELTA_ICEBERG_WRITER_COMPAT_VIOLATION
DELTA_IDENTITY_COLUMNS_ALTER_COLUMN_NOT_SUPPORTED
ALTER TABLE ALTER COLUMN
IDENTITY sütunlarda desteklenmez.
DELTA_IDENTITY_COLUMNS_ALTER_NON_DELTA_FORMAT
ALTER TABLE ALTER COLUMN SYNC IDENTITY yalnızca Delta tarafından desteklenir.
DELTA_IDENTITY_COLUMNS_ALTER_NON_IDENTITY_COLUMN
ALTER TABLE ALTER COLUMN SYNC IDENTITY
IDENTITY olmayan sütunlarda çağrılamaz.
DELTA_IDENTITY_COLUMNS_EXPLICIT_INSERT_NOT_SUPPORTED
Sütun GENERATED ALWAYS AS IDENTITY için <colName> değer sağlama desteklenmez.
DELTA_IDENTITY_COLUMNS_ILLEGAL_STEP
IDENTITY sütun adımı 0 olamaz.
DELTA_IDENTITY_COLUMNS_NON_DELTA_FORMAT
IDENTITY sütunlar yalnızca Delta tarafından desteklenir.
DELTA_IDENTITY_COLUMNS_PARTITION_NOT_SUPPORTED
PARTITIONED BY IDENTITY sütun <colName> desteklenmez.
DELTA_IDENTITY_COLUMNS_REPLACE_COLUMN_NOT_SUPPORTED
ALTER TABLE REPLACE COLUMNS
IDENTITY sütunlu tablo için desteklenmez.
DELTA_IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE
DataType <dataType>IDENTITY sütunlarda desteklenmez.
DELTA_IDENTITY_COLUMNS_UPDATE_NOT_SUPPORTED
UPDATE sütun IDENTITY üzerinde <colName> desteklenmiyor.
DELTA_IDENTITY_COLUMNS_WITH_GENERATED_EXPRESSION
IDENTITY sütun, oluşturulan bir sütun ifadesiyle belirtilemez.
DELTA_ILLEGAL_OPTION
'<input>' seçeneği için geçersiz ''<name> değeri, <explain>
DELTA_ILLEGAL_USAGE
<option>, bir Delta tablosu <operation> olduğunda kullanılamaz.
DELTA_INCONSISTENT_BUCKET_SPEC
Delta demetli tablodaki BucketSpec, meta verilerden BucketSpec ile eşleşmiyor. Beklenen: <expected>. Gerçek: <actual>.
DELTA_INCONSISTENT_LOGSTORE_CONFS
(<setKeys>) farklı değerlere ayarlanamaz. Lütfen yalnızca birini ayarlayın veya aynı değere ayarlayın.
DELTA_INCORRECT_ARRAY_ACCESS
ArrayType'a yanlış erişim. arrayname.element.elementname konumunu kullanarak
bir diziye ekleyin.
DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME
Bir "ArrayType" bulundu. ArrayType öğelerine erişmek için belirtilmelidir.
<rightName>yerine <wrongName>.
Schema:
<schema>
DELTA_INCORRECT_GET_CONF
getConf()yerine conf.getConf() kullanın.
DELTA_INCORRECT_LOG_STORE_IMPLEMENTATION
Hata, genellikle varsayılan LogStore uygulamasıyla ilgili olarak meydana gelir.
HDFSLogStore, HDFS olmayan bir depolama sistemindeki Delta tablosuna yazmak için kullanılır.
Tablo güncellemelerinde işlemsel ACID garantilerini sağlamak için, şunu kullanmalısınız:
depolama sisteminiz için uygun LogStore'un doğru uygulanması.
Ayrıntılar için bkz. <docLink>.
DELTA_INDEX_LARGER_OR_EQUAL_THAN_STRUCT
Kaldırılacak sütunun dizini <index>, yapının uzunluğuna eşittir veya daha büyüktür: <length>.
DELTA_INDEX_LARGER_THAN_STRUCT
Sütun <index> eklemek için <columnName> dizini, yapı uzunluğundan daha büyük: <length>.
DELTA_INSERT_COLUMN_ARITY_MISMATCH
'<tableName>' öğesine yazılamıyor; hedef tablonun <columnName> sütunu var, ancak eklenen verilerin <numColumns> sütunu var.
DELTA_INSERT_COLUMN_MISMATCH
<columnName> sütunu INSERT içinde belirtilmemiş.
DELTA_INSERT_REPLACE_ON_AMBIGUOUS_COLUMNS_IN_CONDITION
<columnNames> sütunları INSERT REPLACE ON koşulunda belirsizdir. Bu sütunlar için bir takma ad belirtmeyi göz önünde bulundurun.
DELTA_INSERT_REPLACE_ON_NOT_ENABLED
Etkinleştirmek için INSERT INTO...REPLACE ON lütfen Databricks temsilcinizle iletişime geçin... SQL ve DataFrame API'leri.
DELTA_INSERT_REPLACE_ON_UNRESOLVED_COLUMNS_IN_CONDITION
<columnNames> Sütun(lar) INSERT REPLACE ON koşulunda çözümlenemiyor.
DELTA_INVALID_AUTO_COMPACT_TYPE
Geçersiz otomatik sıkıştırma türü: <value>. İzin verilen değerler şunlardır: <allowed>.
DELTA_INVALID_BUCKET_COUNT
Geçersiz kova sayısı: <invalidBucketCount>. Demet sayısı, 2'nin kuvveti ve en az 8 olan pozitif bir sayı olmalıdır. Bunun yerine <validBucketCount> kullanabilirsiniz.
DELTA_INVALID_BUCKET_INDEX
Bölümleme sütunlarında kova sütunu bulunamıyor.
DELTA_INVALID_CALENDAR_INTERVAL_EMPTY
Aralık null veya boş olmamalıdır.
DELTA_INVALID_CDC_RANGE
Başlangıç <start> ile bitiş <end> arasındaki CDC aralığı geçersizdir. Bitiş, başlangıçtan önce olamaz.
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAME
"<columnName>" öznitelik adı " arasında geçersiz karakterler içeriyor;{}()\n\t=". Yeniden adlandırmak için lütfen takma ad kullanın.
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAMES
', arasında geçersiz karakterler bulundu;{}() şemanızın sütun adlarında \t='\n.
Geçersiz sütun adları: <invalidColumnNames>.
Lütfen diğer karakterleri kullanın ve yeniden deneyin.
Alternatif olarak, bu karakterleri kullanmaya devam etmek için Sütun Eşleme'yi etkinleştirin.
DELTA_INVALID_CHECK_CONSTRAINT_REFERENCES
Kısıtlamada <colName> bulunduCHECK. Denetim kısıtlaması var olmayan bir sütun kullanamaz.
DELTA_INVALID_CLONE_PATH
CLONE hedef konumu mutlak bir yol veya tablo adı olmalıdır. Kullanım için bir
<path> yerine mutlak yol kullanmak.
DELTA_INVALID_COLUMN_NAMES_WHEN_REMOVING_COLUMN_MAPPING
', arasında geçersiz karakterler bulundu;{}() şemanızın sütun adlarında \t='\n.
Geçersiz sütun adları: <invalidColumnNames>.
Sütun adlarında geçersiz karakterler olduğunda sütun eşlemesi kaldırılamaz.
Geçersiz karakterleri kaldırmak ve bu komutu yeniden yürütmek için lütfen sütunları yeniden adlandırın.
DELTA_INVALID_FORMAT
Uyumsuz biçim algılandı.
Delta için işlem günlüğü <deltaRootPath>/_delta_log konumunda bulundu.
ancak <operation> <path>'ı format("<format>") kullanarak çalıştırmaya çalışıyorsunuz. Şunu kullanmanız gerekir:
Delta tablosunu okurken ve bu tabloya yazarken 'format("delta")'.
Delta hakkında daha fazla bilgi edinmek için bkz. <docLink>
DELTA_INVALID_GENERATED_COLUMN_REFERENCES
Oluşturulan sütun, var olmayan bir sütunu veya başka bir oluşturulan sütunu kullanamaz.
DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS
İdempotent Dataframe yazma işlemleri için geçersiz seçenekler: <reason>
DELTA_INVALID_INTERVAL
<interval> geçerli bir INTERVALdeğil.
DELTA_INVALID_INVENTORY_SCHEMA
Belirtilen INVENTORY şeması gerekli alanların tümünü içermiyor. Gerekli alanlar şunlardır: <expectedSchema>
DELTA_INVALID_ISOLATION_LEVEL
geçersiz yalıtım seviyesi '<isolationLevel>'.
DELTA_INVALID_LOGSTORE_CONF
(<classConfig>) ve (<schemeConfig>) aynı anda ayarlanamaz. Lütfen yalnızca onlardan bir grup ayarlayın.
DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA
Yönetilen tablo <tableName> oluşturmaya çalışıyorsunuz
Delta kullanarak, ancak şema belirtilmemiş.
Delta hakkında daha fazla bilgi edinmek için bkz. <docLink>
DELTA_INVALID_PARTITION_COLUMN
<columnName>, tablo <tableName>'de geçerli bir bölüm sütunu değildir.
DELTA_INVALID_PARTITION_COLUMN_NAME
" arasında geçersiz karakterlere sahip bölüm sütunları bulundu;{}()\n\t=". Lütfen ismi bölüm sütunlarınızla eşleşecek şekilde değiştirin. Bu denetim spark.conf.set("spark.databricks.delta.partitionColumnValidity.enabled", false) ayarıyla kapatılabilir, ancak Delta'nın diğer özellikleri düzgün çalışmayabileceği için bu önerilmez.
DELTA_INVALID_PARTITION_COLUMN_TYPE
Bölüm sütunu olarak <name> türünde sütun <dataType> kullanılması desteklenmez.
DELTA_INVALID_PARTITION_PATH
Bölüm yolu parçası, part1=foo/part2=bargibi bir form olmalıdır. Bölüm yolu: <path>.
DELTA_INVALID_PROTOCOL_DOWNGRADE
Protokol sürümü () sürümünden (<oldProtocol><newProtocol>) sürümüne düşürülemez.
DELTA_INVALID_PROTOCOL_VERSION
Desteklenmeyen Delta protokolü sürümü: "<tableNameOrPath>" tablosu okuyucu sürümü ve yazıcı sürümü <readerRequired><writerRequired> gerektirir, ancak Databricks'in bu sürümü okuyucu sürümlerini <supportedReaders> ve yazıcı sürümlerini <supportedWriters>destekler. Lütfen daha yeni bir sürüme yükseltin.
DELTA_INVALID_TABLE_VALUE_FUNCTION
CDC okumaları için <function> işlevi, desteklenmeyen bir tablo değerli işlevdir.
DELTA_INVALID_TIMESTAMP_FORMAT
Sağlanan zaman damgası <timestamp><format>beklenen söz dizimi ile eşleşmiyor.
DELTA_LOG_ALREADY_EXISTS
<path> konumunda bir Delta günlüğü zaten var.
DELTA_LOG_FILE_NOT_FOUND
denetim noktası <version><checkpointVersion>sürümünden başlayarak tablo sürümünü <logPath> oluşturmak için delta günlük dosyaları alınamıyor.
DELTA_LOG_FILE_NOT_FOUND_FOR_STREAMING_SOURCE
Hiç silmediyseniz, büyük olasılıkla sorgunuz geride kalıyordur. Sıfırdan yeniden başlatmak için lütfen denetim noktasını silin. Bunun tekrar yaşanmasını önlemek için Delta tablonuzun saklama politikasını güncelleyebilirsiniz.
DELTA_LOG_JSON_FILE_ACCESS_DENIED
Delta günlük JSON dosyası okunurken erişim reddedildi: <filePath>. Delta tablosu konumu için okuma izinlerinizin olup olmadığını denetleyin.
DELTA_MATERIALIZED_ROW_TRACKING_COLUMN_NAME_MISSING
<rowTrackingColumn>için <tableName> gerçekleştirilmiş sütun adı eksik.
DELTA_MAX_ARRAY_SIZE_EXCEEDED
Lütfen Int.MaxValue - 8 değerinden küçük bir sınır kullanın.
DELTA_MAX_COMMIT_RETRIES_EXCEEDED
Bu işlem, <numAttempts> kez denenmesine rağmen başarıya ulaşamadı.
Bunun nedeni, Delta tablosunun birçok eşzamanlı işlem tarafından sürekli olarak işleme alınması olabilir.
commits.
Sürüm: <startVersion>'dan itibaren commit başladı.
İşleme şu sürümde başarısız oldu: <failVersion>
İşlemeye çalışılan eylem sayısı: <numActions>
Bu işlemeyi denerken harcanan toplam süre: <timeSpent> ms
DELTA_MAX_LIST_FILE_EXCEEDED
Dosya listesinin en fazla <maxFileListSize> girdisi olmalı, <numFiles>olmalıdır.
DELTA_MERGE_ADD_VOID_COLUMN
VOID türüne sahip sütun <newColumn> eklenemiyor. Lütfen geçersiz olmayan bir türü net bir şekilde belirtin.
DELTA_MERGE_INCOMPATIBLE_DATATYPE
Uyumsuz veri türleri <currentDataType> ve <updateDataType>birleştirilemedi.
DELTA_MERGE_INCOMPATIBLE_DECIMAL_TYPE
Ondalık Türleri uyumsuz <decimalRanges> ile birleştirilemedi.
DELTA_MERGE_MATERIALIZE_SOURCE_FAILED_REPEATEDLY
MERGE ifadesinin kaynağını muhafaza etme girişimleri tekrar tekrar başarısız oldu.
DELTA_MERGE_MISSING_WHEN
WHEN ifadesinde en az bir MERGE madde olmalıdır.
DELTA_MERGE_RESOLVED_ATTRIBUTE_MISSING_FROM_INPUT
<missingAttributes> işlecindeki <input> içinde eksik olan öznitelik(ler) <merge> olarak çözüldü.
DELTA_BİRLEŞTİRME_KAYNAĞI_YÜRÜTME_SIRASINDA_ÖNBELLEĞE_ALINDI
Kaynak planın (bir kısmı) MERGE işlemi sırasında önbelleğe MERGE alındığı için işlem başarısız oldu.
DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY
Beklenmeyen atama anahtarı: <unexpectedKeyClass> - <unexpectedKeyObject>.
DELTA_MERGE_UNRESOLVED_EXPRESSION
Verilen sütunlarda <sqlExpr><clause>çözümlenemiyor<cols>.
DELTA_METADATA_CHANGED
MetadataChangedException: Delta tablosunun meta verileri eşzamanlı güncelleştirmeyle değiştirildi. Lütfen işlemi yeniden deneyin.<conflictingCommit>
Daha fazla ayrıntı için <docLink> bakın.
DELTA_MISSING_CHANGE_DATA
Değişiklik verileri olmadığından [<startVersion> , <endVersion>] aralığı için değişiklik verilerini alma hatası
[<version>] sürümü için kaydedildi. Bu tabloda değişiklik veri akışını etkinleştirdiyseniz,
ilk ne zaman etkinleştirildiğini görmek için DESCRIBE HISTORY kullanın.
Aksi takdirde, değişiklik verilerini kaydetmeye başlamak için ALTER TABLE table_name SET TBLPROPERTIES kullanın.
(<key>=true).
DELTA_MISSING_COLUMN
<columnName> tablo sütunlarında bulunamıyor: <columnList>.
DELTA_MISSING_COMMIT_INFO
Bu tabloda, her işlemede CommitInfo eyleminin bulunmasını gerektiren özellik <featureName> etkindir. Ancak <version>commit sürümünde CommitInfo işlemi eksik.
DELTA_MISSING_COMMIT_TIMESTAMP
Bu tabloda, CommitInfo eyleminde commitTimestamp varlığını gerektiren özellik <featureName> etkindir. Ancak, bu alan <version>işleme sürümünde ayarlanmamıştır.
DELTA_MISSING_DELTA_TABLE
<tableName> bir Delta tablosu değildir.
DELTA_MISSING_DELTA_TABLE_COPY_INTO
Tablo mevcut değil. önce CREATE TABLE <tableName>kullanarak boş bir Delta tablosu oluşturun.
DELTA_MISSING_ICEBERG_CLASS
Apache Iceberg sınıfı bulunamadı. Lütfen Delta Apache Iceberg desteğinin yüklü olduğundan emin olun.
Daha fazla bilgi için lütfen <docLink> bakın.
DELTA_MISSING_NOT_NULL_COLUMN_VALUE
<columnName> kısıtlaması olan NOT NULLsütunu tabloya yazılan verilerde eksik.
DELTA_MISSING_PARTITION_COLUMN
Bölüm sütunu <columnName> şema <columnList>'de bulunamadı.
DELTA_MISSING_PART_FILES
Denetim noktası sürümünün tüm parça dosyaları bulunamadı: <version>.
DELTA_MISSING_PROVIDER_FOR_CONVERT
CONVERT TO DELTA yalnızca parquet tablolarını destekler. Lütfen hedefinizi "parquet" formatında yeniden yazın.
<path> bir parquet diziniyse.
DELTA_MISSING_ROW_TRACKING_FOR_CDC
Satır izleme etkinleştirilmedi olarak değişiklik verilerini <tableName> alma hatası. Satır izlemeyi etkinleştirmek için kullanın ALTER TABLE table_name SET TBLPROPERTIES (<key>=true).
DELTA_MISSING_SET_COLUMN
SET sütun <columnName>, verilen sütunlar arasında bulunamadı: <columnList>.
DELTA_MISSING_TRANSACTION_LOG
Uyumsuz biçim algılandı.
Delta'yı kullanarak <operation> <path> işlemine çalışıyorsunuz, ancak hiçbir şey yok.
işlem günlüğü mevcut. Yazmakta olduğundan emin olmak için üst akış görevini kontrol edin.
"format('delta') kullanarak tablo temel yolunu %1$s yapmaya çalışıyorsunuz."
Delta hakkında daha fazla bilgi edinmek için bkz. <docLink>
DELTA_MODE_NOT_SUPPORTED
Belirtilen '<mode>' modu desteklenmiyor. Desteklenen modlar şunlardır: <supportedModes>.
DELTA_MULTIPLE_CDC_BOUNDARY
CDC okuması için birden çok <startingOrEnding> argümanı sağlandı. Lütfen <startingOrEnding>Zaman Damgası veya <startingOrEnding>Sürümünden birini belirtin.
DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER
Kolon için komuta geçirilen birden çok bloom filtre dizini yapılandırması: <columnName>.
DELTA_MULTIPLE_SOURCE_ROW_MATCHING_TARGET_ROW_IN_MERGE
Birden çok kaynak satır eşleştirildiğinde ve aynı satırda değişiklik yapmaya çalışıldığında Birleştirme gerçekleştirilemiyor
Delta tablosundaki hedef satır büyük olasılıkla çakışan yollarla. Birleştirmenin SQL semantiğine göre,
Aynı hedef satırda birden çok kaynak satır eşleştiğinde, sonuç belirsiz olabilir
eşleşmeyi güncelleştirmek veya silmek için hangi kaynak satırın kullanılacağı belirsiz olduğundan
hedef satır. Kaynak tabloyu önişledikten sonra şu olasılığı ortadan kaldırabilirsiniz:
birden çok eşleşme. Lütfen şuraya bakın:
<usageReference>
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_COMMAND
Komutu sırasında <command>, her iki eşgüdümlü işleme yapılandırması ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview") ya ikisi de ayarlanır ya da hiçbiri ayarlanmaz. Eksik: "<configuration>". Lütfen bu yapılandırmayı TBLPROPERTIES yan tümcesinde belirtin veya diğer yapılandırmayı kaldırın ve komutu yeniden deneyin.
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_SESSION
<command> sırasında, SparkSession yapılandırmalarında ya her iki commit yapılandırması ("coordinatedCommits.commitCoordinator-preview", "coordinatedCommits.commitCoordinatorConf-preview") ayarlıdır ya da ikisi de ayarlı değildir. Eksik: "<configuration>". Lütfen bu yapılandırmayı SparkSession'da ayarlayın veya diğer yapılandırmayı kaldırın ve komutu yeniden deneyin.
DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE
Aşağıdaki sütun adları yalnızca Delta demetli tablo iç kullanımı için ayrılmıştır: <names>.
DELTA_NESTED_FIELDS_NEED_RENAME
Giriş şeması, hedef tablodan farklı şekilde büyük harfe dönüştürülen iç içe yerleştirilmiş alanlar içerir.
Delta'ya yazarken bu alanlardaki veri kaybını önlemek için bunların yeniden adlandırılması gerekir.
Fields:
<fields>.
Özgün şema:
<schema>
DELTA_NESTED_NOT_NULL_CONSTRAINT
<nestType> alanının <parent> türü NOT NULL kısıtlaması içerir. Delta, diziler veya haritalar içinde iç içe yerleştirilmiş NOT NULL kısıtlamalarını desteklemez. Bu hatayı engellemek ve belirtilen kısıtlamaları sessizce yoksaymak için <configKey> = true değerini ayarlayın.
Ayrıştırılmış <nestType> türü:
<nestedPrettyJson>
DELTA_NESTED_SUBQUERY_NOT_SUPPORTED
İç içe alt sorgu <operation> koşulunda desteklenmez.
DELTA_NEW_CHECK_CONSTRAINT_VIOLATION
<numRows> içindeki satırlar <tableName> yeni CHECK kısıtlamayı ihlal ediyor (<checkConstraint>).
DELTA_NEW_NOT_NULL_VIOLATION
<numRows> içindeki <tableName> satırlar, NOT NULL üzerindeki yeni <colName> kısıtlamasını ihlal ediyor.
DELTA_NON_BOOLEAN_CHECK_CONSTRAINT
CHECK kısıtlaması '<name>' (<expr>) bir boole ifadesi olmalıdır.
DELTA_NON_DETERMINISTIC_EXPRESSION_IN_CHECK_CONSTRAINT
Bir <expr> kısıtlamada bulunurCHECK. Kısıtlama CHECK , belirsiz bir ifade kullanamaz.
DELTA_NON_DETERMINISTIC_EXPRESSION_IN_GENERATED_COLUMN
<expr> bulundu. Oluşturulan bir sütun, belirlenici olmayan bir ifade kullanamaz.
DELTA_NON_DETERMINISTIC_FUNCTION_NOT_SUPPORTED
Deterministik olmayan işlevler <operation> <expression> içinde desteklenmez.
DELTA_NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
Bir MATCHED beyanında birden fazla MERGE yan tümcesi olduğunda, yalnızca son MATCHED yan tümcesi koşuldan muaf olabilir.
DELTA_NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
Bir NOT MATCHED BY SOURCE beyanında birden fazla MERGE yan tümcesi olduğunda, yalnızca son NOT MATCHED BY SOURCE yan tümcesi koşuldan muaf olabilir.
DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION
Bir NOT MATCHED beyanında birden fazla MERGE yan tümcesi olduğunda, yalnızca son NOT MATCHED yan tümcesi koşuldan muaf olabilir.
DELTA_NON_PARSABLE_TAG
<tag> etiketi ayrıştırılamadı.
Dosya etiketleri şunlardır: <tagList>.
DELTA_NON_PARTITION_COLUMN_ABSENT
Delta'ya yazılan verilerin bölümlenmemiş en az bir sütun içermesi gerekir.<details>
DELTA_NON_PARTITION_COLUMN_REFERENCE
Koşul, bölüm olmayan sütun '<columnName>'e başvuruyor. Yalnızca bölüm sütunlarına başvurulabilir: [<columnList>].
DELTA_NON_PARTITION_COLUMN_SPECIFIED
Bölümlenmeyen sütunlar <columnList> yalnızca bölümleme sütunlarının beklendiği yerde belirtilir: <fragment>.
DELTA_NON_SINGLE_PART_NAMESPACE_FOR_CATALOG
Delta kataloğu tek parçalı bir ad alanı gerektirir, ancak <identifier> çok parçalı bir ad alanıdır.
DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_COMMAND
UC tarafından yönetilen tablolarda işlem koordinatörü olarak yalnızca 'unity-catalog' olabileceğinden, işlem koordinatörünü komutla '<nonUcCoordinatorName>' olarak ayarlamak desteklenmez. Lütfen bunu 'unity-catalog' olarak değiştirin veya tüm Eşgüdümlü İşlemeler tablosu özelliklerini yan tümcesinden TBLPROPERTIES kaldırın ve komutu yeniden deneyin.
DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_SESSION
SparkSession yapılandırmalarından işleme düzenleyicisinin '<nonUcCoordinatorName>' olarak ayarlanması desteklenmez, çünkü UC tarafından yönetilen tablolarda işleme düzenleyicisi olarak yalnızca 'unity-catalog' bulunabilir. komutunu çalıştırarak spark.conf.set("<coordinatorNameDefaultKey>", "unity-catalog")bunu 'unity-catalog' olarak değiştirin veya komutunu çalıştırarak spark.conf.unset("<coordinatorNameDefaultKey>"), spark.conf.unset("<coordinatorConfDefaultKey>"), spark.conf.unset("<tableConfDefaultKey>")SparkSession yapılandırmalarından tüm Eşgüdümlü İşlemeler tablosu özelliklerini kaldırın ve komutu yeniden deneyin.
DELTA_NON_UC_MANAGED_TABLE_UPGRADE_OR_DOWNGRADE_NOT_SUPPORTED
Tablo <tableName> UC tarafından yönetilmiyor. Yalnızca UC ile yönetilen tablolar, katalog tarafından yönetilen tablolara yükseltilebilir veya düşürülebilir.
DELTA_NOT_A_DATABRICKS_DELTA_TABLE
<table> bir Delta tablosu değildir. Databricks Delta ile oluşturmak istiyorsanız lütfen önce bu tabloyu silin.
DELTA_NOT_A_DELTA_TABLE
<tableName> bir Delta tablosu değildir. Delta Lake ile yeniden oluşturmak istiyorsanız lütfen önce bu tabloyu silin.
DELTA_NOT_NULL_COLUMN_NOT_FOUND_IN_STRUCT
Null atanamaz sütun yapıda bulunamadı: <struct>.
DELTA_NOT_NULL_CONSTRAINT_VIOLATED
NOT NULL kısıtlaması sütun için ihlal edildi: <columnName>.
DELTA_NOT_NULL_NESTED_FIELD
Null olmayan iç içe bir alan, null olan bir üst öğeye eklenemez. Lütfen ana sütunun null atanabilirliğini uygun şekilde ayarlayın.
DELTA_NO_COMMITS_FOUND
<logPath> konumunda hiçbir işlem bulunamadı.
DELTA_NO_RECREATABLE_HISTORY_FOUND
<logPath> konumunda yeniden oluşturulabilir commit bulunamadı.
DELTA_NO_REDIRECT_RULES_VIOLATED
İşleme izin verilmiyor: <operation> yeniden yönlendirme özelliğine sahip bir tabloda gerçekleştirilemez.
Yeniden yönlendirme kuralları tatmin edici değil <noRedirectRules>.
DELTA_NO_RELATION_TABLE
Tablo <tableIdent> bulunamadı.
DELTA_NO_START_FOR_CDC_READ
CDC okuması için startingVersion veya startingTimestamp verilmedi.
DELTA_NULL_SCHEMA_IN_STREAMING_WRITE
Delta, akış yazma işlemleri için şemada NullType'ları kabul etmez.
DELTA_ONEOF_IN_TIMETRAVEL
Zaman yolculuğu için lütfen 'timestampAsOf' veya 'versionAsOf' sağlayın.
DELTA_ONLY_OPERATION
<operation> yalnızca Delta tabloları için desteklenir.
DELTA_OPERATION_MISSING_PATH
lütfen <operation>için yol veya tablo tanımlayıcısını belirtin.
DELTA_OPERATION_NOT_ALLOWED
İşleme izin verilmiyor: <operation> Delta tabloları için desteklenmiyor.
DELTA_OPERATION_NOT_ALLOWED_DETAIL
İşleme izin verilmiyor: <operation> Delta tabloları için desteklenmez: <tableName>.
DELTA_OPERATION_NOT_SUPPORTED_FOR_COLUMN_WITH_COLLATION
<operation>, <colName> sütunu için varsayılan dışı harmanlama <collation>ile desteklenmez.
DELTA_OPERATION_NOT_SUPPORTED_FOR_DATATYPES
<operation> veri türleri için desteklenmez: <dataTypeList>.
DELTA_OPERATION_NOT_SUPPORTED_FOR_EXPRESSION_WITH_COLLATION
<operation>, varsayılan olmayan harmanlama kullandığından ifade <exprText> için desteklenmez.
DELTA_OPERATION_ON_TEMP_VIEW_WITH_GENERATED_COLS_NOT_SUPPORTED
Oluşturulan sütunları içeren delta tablosuna başvuran geçici görünümde <operation> komutu desteklenmez. Lütfen delta tablosunda komutunu <operation> doğrudan çalıştırın.
DELTA_OPERATION_ON_VIEW_NOT_ALLOWED
İşleme izin verilmiyor: <operation> görünümde gerçekleştirilemez.
DELTA_OPTIMIZE_FULL_NOT_SUPPORTED
OPTIMIZE FULL yalnızca boş olmayan kümeleme sütunları olan kümelenmiş tablolar için desteklenir.
DELTA_OVERWRITE_MUST_BE_TRUE
Kopyalama seçeneği overwriteSchema OVERWRITE = 'true' olarak ayarlanmadığı sürece belirtilmeden kullanılamaz.
DELTA_OVERWRITE_SCHEMA_WITH_DYNAMIC_PARTITION_OVERWRITE
Dinamik bölüm üzerine yazma modunda 'overwriteSchema' kullanılamaz.
DELTA_PARTITION_COLUMN_CAST_FAILED
<value> bölümü sütunu için değeri <dataType>'i <columnName>'e atama başarısız oldu.
DELTA_PARTITION_COLUMN_NOT_FOUND
Bölüm sütunu <columnName> [<schemaMap>] şemasında bulunamadı.
DELTA_PARTITION_SCHEMA_IN_ICEBERG_TABLES
Apache Iceberg tabloları dönüştürülürken bölüm şeması belirtilemez. Otomatik olarak çıkarım yapılır.
DELTA_PATH_BASED_ACCESS_TO_CATALOG_MANAGED_TABLE_BLOCKED
Catalog-Managed tablo için yol tabanlı erişime izin verilmez: <path>. Lütfen tabloya adıyla erişin ve yeniden deneyin.
TABLOYA DELTA YOL TABANLI ERİŞİM ENGELLENDİ
konumundaki <path> tablo Unity Kataloğu yönetilen tablosuna geçirilmiştir ve artık yola göre erişilemiyor. tabloya ada göre erişmek için istemciyi güncelleştirin.
DELTA_PATH_DOES_NOT_EXIST
<path> yok veya Delta tablosu değil.
DELTA_PATH_EXISTS
= 'true' ayarı <path> olmadan zaten var olan yola OVERWRITE yazılamaz.
DELTA_POST_COMMIT_HOOK_FAILED
Delta tablosu sürümüne işleme işlemi başarılı <version> ancak işleme sonrası bağlayıcı <name> <message> yürütülürken hata oluştu
DELTA_PROTOCOL_CHANGED
ProtocolChangedException: Delta tablosunun protokol sürümü eşzamanlı güncelleştirmeyle değiştirildi. <additionalInfo> <conflictingCommit>
Daha fazla ayrıntı için <docLink> bakın.
DELTA_PROTOCOL_PROPERTY_NOT_INT
Protokol özelliği <key> bir tamsayı olmalıdır.
<value> bulundu.
DELTA_READ_FEATURE_PROTOCOL_REQUIRES_WRITE
Tablo özelliklerini kullanmak için yalnızca okuyucu protokolü sürümü yükseltilemiyor. Devam etmek için yazıcı protokol sürümünün en az <writerVersion> olması gerekir. Tablo protokolü sürümleri hakkında daha fazla bilgi için <docLink> bakın.
DELTA_READ_TABLE_WITHOUT_COLUMNS
Herhangi bir sütunu olmayan bir Delta tablosu <tableName> okumaya çalışıyorsunuz.
Tabloyu okuyabilmek için mergeSchema = true seçeneğiyle bazı yeni veriler yazın.
DELTA_READ_TIME_CDC_NOT_SUPPORTED_FOR_TABLES_WITH_ACCESS_POLICIES
Erişim ilkeleri tanımlanmış olan Değişiklik Veri Akışı'nı <tableName> hesaplamaya çalışıyorsunuz. Okuma Zamanı Değişiklik Veri Akışı şu anda önizleme aşamasındadır ve erişim ilkeleri olan tablolarda CDF'yi desteklemez. Tablonuzda '' tablo özelliğini '<cdfTableProperty>true' olarak ayarlayarak Okuma için iyileştirilmiş CDF'yi etkinleştirin.
DELTA_REDIRECT_TARGET_ROW_FILTER_COLUMN_MASK_UNSUPPORTED
Satır filtresi veya sütun maskesi olan bir tabloya yeniden yönlendirme desteklenmez. Kodunuzu hedef tabloya <tableIdent> doğrudan başvuracak şekilde güncelleştirin.
DELTA_REGEX_OPT_SYNTAX_ERROR
Lütfen '<regExpOption>' için söz diziminizi yeniden denetleyin.
DELTA_RELATION_PATH_MISMATCH
'<relation>' ilişki yolu, <targetType>' nin yolu '<targetPath>' ile uyuşmuyor.
DELTA_REORG_MATERIALIZATION_NOT_SUPPORTED_ON_UNPARTITIONED_TABLE
Reorg komutu kullanılarak Sıvı Dönüştürme, bölümlenmemiş bir tabloda desteklenmez.
DELTA_REORG_PARTITION_MATERIALIZATION_CONFLICT
Sütunlar bölümlenemiyor <action> .
<instruction>'' tablo özelliğini veya '<tableProperty>' <value> SQL yapılandırmasını<sqlConfig><value> olarak ayarlayarak bölüm sütununun gerçekleştirilmesi.
DELTA_REORG_UNKNOWN_MODE
Bilinmeyen REORG TABLE mod: <mode>.
DELTA_REPLACE_WHERE_IN_OVERWRITE
ReplaceWhere'i bir filtre ile üzerine yazma işlemiyle birlikte kullanamazsınız.
DELTA_REPLACE_WHERE_MISMATCH
Yazılı veriler kısmi tablo üzerine yazma koşuluna veya ''<replaceWhere> kısıtlamasına uymuyor.
<message>
DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE
DataFrameWriter seçeneklerinde 'replaceWhere' ifadesi ve 'partitionOverwriteMode'='dynamic' ayarlanamaz.
DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET
'dataChange' false olarak ayarlandığında 'replaceWhere' veri filtreleriyle kullanılamaz. Filtreler: <dataFilters>.
DELTA_ROW_ID_ASSIGNMENT_WITHOUT_STATS
Satır sayısı istatistikleri olmadan satır kimlikleri atanamaz.
komutunu çalıştırarak ANALYZE TABLE tabloyla ilgili istatistikleri toplayın:
ANALYZE TABLE tabloAdı COMPUTE DELTA STATISTICS
DELTA_ROW_TRACKING_BACKFILL_RUNNING_CONCURRENTLY_WITH_UNBACKFILL
Satır İzleme devre dışı bırakma işlemiyle eş zamanlı olarak çalışan bir Satır İzleme etkinleştirme işlemi algılandı. Devre dışı bırakma işlemi durduruldu. Etkinleştirme işlemi tamamlandığında gerekirse lütfen devre dışı bırakma işlemini yeniden deneyin.
DELTA_ROW_TRACKING_HATALI_ÖZELLİK_BİRLEŞİMİ
Geçersiz tablo durumu algılandı. Tablo özellikleri <property1> ve <property2> her ikisi de true olarak ayarlanır. Sorun, iki tablo özelliğinden herhangi biri devre dışı bırakılarak çözülebilir.
Daha fazla yardım için lütfen Databricks desteğine başvurun.
DELTA_SCHEMA_CHANGED
Şema değişikliği algılandı:
Akış kaynağı şeması: <readSchema>
veri dosyası şeması: <dataSchema>
Lütfen sorguyu yeniden başlatmayı deneyin. Bu sorun sorgular yeniden başlatıldığında tekrarlarsa
İlerleme kaydediyorsunuz ancak uyumlu olmayan bir şema değişikliği yaptınız ve işinize yeniden başlamanız gerekiyor.
yeni bir denetim noktası dizini kullanarak sıfırdan sorgulayın.
DELTA_SCHEMA_CHANGED_WITH_STARTING_OPTIONS
<version>sürümünde şema değişikliği algılandı:
Akış kaynağı şeması: <readSchema>
veri dosyası şeması: <dataSchema>
Lütfen sorguyu yeniden başlatmayı deneyin. Bu sorun sorgular yeniden başlatıldığında tekrarlarsa
İlerleme kaydediyorsunuz ancak uyumlu olmayan bir şema değişikliği yaptınız ve işinize yeniden başlamanız gerekiyor.
yeni bir denetim noktası dizini kullanarak sıfırdan sorgulayın. Sorun daha sonra devam ederse
yeni bir denetim noktası dizinine değiştirdiğinizde, var olan dizini değiştirmeniz gerekebilir
Daha yeni bir sürümden başlamak için 'startingVersion' veya 'startingTimestamp' seçeneği
<version> yeni bir denetim noktası diziniyle.
DELTA_SCHEMA_CHANGED_WITH_VERSION
<version>sürümünde şema değişikliği algılandı:
Akış kaynağı şeması: <readSchema>
veri dosyası şeması: <dataSchema>
Lütfen sorguyu yeniden başlatmayı deneyin. Bu sorun sorgular yeniden başlatıldığında tekrarlarsa
İlerleme kaydediyorsunuz ancak uyumlu olmayan bir şema değişikliği yaptınız ve işinize yeniden başlamanız gerekiyor.
yeni bir denetim noktası dizini kullanarak sıfırdan sorgulayın.
DELTA_SCHEMA_CHANGE_SINCE_ANALYSIS
DataFrame'inizden bu yana Delta tablonuzun şeması uyumsuz bir şekilde değişti
veya DeltaTable nesnesi oluşturuldu. Lütfen DataFrame veya DeltaTable nesnenizi yeniden tanımlayın.
Changes:
<schemaDiff> <legacyFlagMessage>
DELTA_SCHEMA_NOT_PROVIDED
Tablo şeması sağlanmadı. Tablo kullanırken REPLACE lütfen tablonun şemasını (sütun tanımı) sağlayın ve bir AS SELECT sorgu sağlanmaz.
DELTA_SCHEMA_NOT_SET
Tablo şeması ayarlanmadı. Şemaya veri yazın veya şemayı ayarlamak için CREATE TABLE kullanın.
DELTA_SET_LOCATION_SCHEMA_MISMATCH
Yeni Delta konumunun şeması geçerli tablo şemasından farklıdır.
özgün şema:
<original>
hedef şema:
<destination>
Bu amaçlanan bir değişiklikse, şu işlemi çalıştırarak bu denetimi kapatabilirsiniz:
%%sql <config> = true olarak ayarla
DELTA_SHALLOW_CLONE_FILE_NOT_FOUND
İşlem günlüğünde referans verilen dosya <filePath> bulunamıyor. Veriler tablo DELETE deyimi yerine dosya sisteminden el ile silindiğinde bu durum oluşabilir. Bu tablo sığ bir kopya gibi görünüyorsa, bu hata, bu tablonun kopyalandığı özgün tablo kopyanın hala kullandığı bir dosyayı sildiğinde oluşabilir. Herhangi bir kopyanın özgün tablodan bağımsız olmasını istiyorsanız, bunun yerine bir derin kopya kullanın.
DELTA_SHARING_CANNOT_MODIFY_RESERVED_RECIPIENT_PROPERTY
<prefix> ile başlayan önceden tanımlanmış özellikler değiştirilemez.
DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
Veriler, oturumdaki mevcut alıcıya uygun olmayan <property> numaralı alıcı özelliği tarafından kısıtlanmaktadır.
Daha fazla ayrıntı için DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED bölümüne bakın.
DELTA_SHARING_INVALID_OP_IN_EXTERNAL_SHARED_VIEW
<operation>, hesaplar arası paylaşılan Delta Sharing görünümlerinde kullanılamaz.
DELTA_SHARING_INVALID_PROVIDER_AUTH
Sağlayıcı <authenticationType>için geçersiz kimlik doğrulama türü <provider>.
DELTA_SHARING_INVALID_RECIPIENT_AUTH
Alıcı <authenticationType> için geçersiz kimlik doğrulama türü <recipient>.
DELTA_SHARING_INVALID_SHARED_DATA_OBJECT_NAME
Bir Paylaşımda <type>'ye referans vermek için geçersiz ad.
<type>'ın adını [schema].[<type>] formatında paylaşımın içerisinde kullanabilir veya tablonun özgün tam adını [catalog].[schema].[>tür>] formatında da kullanabilirsiniz.
Hangi adı kullanacağınızdan emin değilseniz, "SHOW ALL IN SHARE [paylaş]" komutunu çalıştırabilir ve silinecek olanın <type> adını bulabilirsiniz: "name" sütunu, paylaşım içindeki <type> adını, "shared_object" sütunu ise <type>'ün özgün tam adını verir.
DELTA_PAYLAŞIM_MAKSİMUM_RECIPIENT_TOKENS_AŞILDI
alıcı <recipient>için ikiden fazla belirteç vardır.
DELTA_SHARING_RECIPIENT_PROPERTY_NOT_FOUND
Alıcı özelliği <property> mevcut değil.
RECIPIENT_TOKENSDELTA_SHARING_BULUNAMADI
Alıcı <recipient> için alıcı belirteçleri eksik.
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_COLUMN
bölümlenmeyen sütun(lar) <badCols> için SHOW PARTITIONSbelirtilir.
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE
SHOW PARTITIONS bölümlenmemiş bir tabloda izin verilmez: <tableName>.
DELTA_SHREDDED_WRITES_DISABLED
Parçalanmış yazma işlemleri devre dışı bırakıldığından işlem çalıştırılamıyor REORG APPLY(SHRED) .
DELTA_SHREDDING_TABLE_PROPERTY_DISABLED
Parçalanmış Varyantlar yazmaya çalışıldı, ancak tablo parçalanmış yazmaları desteklemiyor. enableVariantShredding tablo özelliğini true olarak ayarlamayı göz önünde bulundurun.
DELTA_SOURCE_IGNORE_DELETE
Sürüm <removedFile>'deki akış kaynağından silinen veriler (örneğin <version>) algılandı. Bu şu anda desteklenmiyor. Silme işlemlerini yoksaymak isterseniz 'ignoreDeletes' seçeneğini 'true' olarak ayarlayın. Kaynak tablo <dataPath>yolunda bulunabilir.
DELTA_SOURCE_TABLE_IGNORE_CHANGES
<file>sürümündeki kaynak tabloda bir veri güncelleştirmesi (örneğin <version>) algılandı. Bu şu anda desteklenmiyor. Bu düzenli olarak gerçekleşecekse ve değişiklikleri atlayabilirsiniz, 'skipChangeCommits' seçeneğini 'true' olarak ayarlayın. Veri güncelleştirmesinin yansıtılması istiyorsanız, lütfen bu sorguyu yeni bir denetim noktası diziniyle yeniden başlatın veya Lakeflow Spark Bildirimli İşlem Hatları kullanıyorsanız tam yenileme yapın. Bu değişiklikleri işlemeniz gerekiyorsa lütfen MV'lere geçin. Kaynak tablo <dataPath>yolunda bulunabilir.
DELTA_STARTING_VERSION_AND_TIMESTAMP_BOTH_SET
Lütfen '<version>' veya '<timestamp>' sağlayın.
DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND
Parquet meta verilerinde sütun için <statsType> istatistikleri bulunamadı: <columnPath>.
DELTA_STATS_NOT_FOUND_IN_FILE
dosyada istatistikler bulunamadı: <filePath>. İstatistikleri hesaplamak için 'ANALYZE TABLE [tableName] COMPUTE DELTA STATISTICS' komutunu çalıştırın.
DELTA_STREAMING_CANNOT_CONTINUE_PROCESSING_POST_SCHEMA_EVOLUTION
Delta sürümü <opType> ile <previousSchemaChangeVersion> Delta akış kaynağı arasında bir veya daha fazla eklemesiz şema değişikliği (<currentSchemaChangeVersion>) algıladık.
Changes:
<columnChangeDetails>
Sürümünde <currentSchemaChangeVersion>son haline getirilmiş şemayı kullanarak akış işlemeye devam etmeden önce lütfen şema değişikliklerini havuz tablosuna el ile yaymak isteyip istemediğinizi denetleyin.
Havuz tablosunun şemasını düzeltdikten veya düzeltmeye gerek olmadığına karar verdikten sonra, eklemesiz şema değişikliklerinin engelini kaldırmak ve akış işlemeye devam etmek için aşağıdaki yapılandırmaları ayarlayabilirsiniz.
Veri çerçevesi okuyucusu seçeneğini kullanma:
Bu belirli akışın engelini yalnızca bu şema değişiklikleri dizisi için kaldırmak için:
<unblockChangeOptions>
Belirli bir akışın engellemesini kaldırmak için:
<unblockStreamOptions>
SQL yapılandırmalarını kullanma:
Bu belirli akışın engelini yalnızca bu şema değişiklikleri dizisi için kaldırmak için:
<unblockChangeConfs>
Belirli bir akışın engellemesini kaldırmak için:
<unblockStreamConfs>
Tüm akışların engelini kaldırmak için:
<unblockAllConfs>
DELTA_STREAMING_CHECK_COLUMN_MAPPING_NO_SNAPSHOT
Sütun eşleme şeması değişiklikleri kontrol edilirken başlangıç sürümü için Delta günlüğünün anlık görüntüsü alınamadı. Lütfen farklı bir başlangıç sürümü seçin veya '<config>' değerini 'true' olarak ayarlayarak akış okumasını kendi riskinizle etkinleştirmeye zorlayın.
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE
Akıcı okuma, okuma ile uyumsuz şema değişiklikleri olan tablolarda desteklenmez (örneğin, yeniden adlandırma veya bırakma veya veri türü değişiklikleri).
Bu sorunu çözmek için daha fazla bilgi ve olası sonraki adımlar için lütfen <docLink> adresindeki belgeleri inceleyin.
Şemayı okuma: <readSchema>. Uyumsuz veri şeması: <incompatibleSchema>.
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE_USE_SCHEMA_LOG
Akıcı okuma, okuma ile uyumsuz şema değişiklikleri olan tablolarda desteklenmez (örneğin, yeniden adlandırma veya bırakma veya veri türü değişiklikleri).
Delta akışı işleme için eklemesiz şema evrimi sağlamak için lütfen bir 'schemaTrackingLocation' sağlayın.
Daha fazla bilgi için bkz. <docLink>.
Şemayı okuma: <readSchema>. Uyumsuz veri şeması: <incompatibleSchema>.
DELTA_STREAMING_METADATA_EVOLUTION
Delta tablonuzun şeması, tablo yapılandırması veya protokolü akış sırasında değişti.
Şema veya meta veri izleme günlüğü güncelleştirildi.
Güncelleştirilmiş meta verileri kullanarak işlemeye devam etmek için lütfen akışı yeniden başlatın.
Şema güncelleştirildi: <schema>.
Güncelleştirilmiş tablo yapılandırmaları: <config>.
Güncelleştirilmiş tablo protokolü: <protocol>
DELTA_AKILLI_VERİ_AKISI_SCHTEMA_EVOLÜSYONU_DESTEKLENMİYOR_SATIR_FİLTRESİ_COLUMN_MASKS
Şema takibi olan kaynak tablo <tableId> üzerinden akış, satır filtrelerini veya sütun maskelerini desteklemez.
Lütfen satır filtrelerini veya sütun maskelerini bırakın veya şema izlemeyi devre dışı bırakın.
DELTA_STREAMING_SCHEMA_LOCATION_CONFLICT
'<loc>' veya '<table>' konumunda bulunan tablo veya tablodan akış yaparken çakışan şema konumu algılandı.
Başka bir akış, izin verilmeyen aynı şema konumunu yeniden kullanıyor olabilir.
Lütfen bu tablodaki akışlardan biri için yeni bir benzersiz schemaTrackingLocation yolu veya bir okuyucu seçeneği olarak streamingSourceTrackingId sağlayın.
DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT
Şema konumu '<schemaTrackingLocation>', denetim noktası konumu '<checkpointLocation>' altına yerleştirilmelidir.
DELTA_STREAMING_SCHEMA_LOG_DESERIALIZE_FAILED
Delta akış kaynağı şema günlüğünde '<location>' konumunda tamamlanmamış bir günlük dosyası var.
Şema günlüğü bozulmuş olabilir. Lütfen yeni bir şema konumu seçin.
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_DELTA_TABLE_ID
Delta akışı okunmaya çalışıldığında uyumsuz Delta tablo kimliği algılandı.
Kalıcı tablo kimliği: <persistedId>, Tablo kimliği: <tableId>
Şema günlüğü yeniden kullanılmış olabilir. Lütfen yeni bir şema konumu seçin.
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_PARTITION_SCHEMA
Delta akışını okumaya çalışırken uyumsuz bölüm şeması algılandı.
Kalıcı şema: <persistedSchema>, Delta bölüm şeması: <partitionSchema>
Son zamanlarda tablonun bölüm şemasını el ile değiştirdiyseniz şema günlüğünü yeniden başlatabilmek için lütfen yeni bir şema konumu seçin.
DELTA_STREAMING_SCHEMA_LOG_INIT_FAILED_INCOMPATIBLE_METADATA
Delta akış kaynağı şema günlüğünü başlatamadık çünkü
tablo sürümünü <a>'dan <b>'e akış grubu çalıştırırken uyumsuz bir şema veya protokol değişikliği algıladık.
DELTA_STREAMING_SCHEMA_LOG_PARSE_SCHEMA_FAILED
Delta akış kaynağının şema günlüğünden şema ayrıştırılamadı.
Şema günlüğü bozulmuş olabilir. Lütfen yeni bir şema konumu seçin.
DELTA_STREAMING_SINK_TRANSACTION_NOT_FOUND
Son <batchId> sürümlerde akış Delta havuzundaki toplu iş <versionLimit> için işlem bulunamadı.
DELTA_STREAMING_SKIP_OFFSETS_INVALID_OFFSET_RANGE
Delta kaynak aralığı=[<startOffset>, <endOffset>) için geçersiz atlama uzaklığı aralığı. Bu uzaklık aralığını düzeltin ve yeniden deneyin.
Daha fazla ayrıntı için bkz. DELTA_STREAMING_SKIP_OFFSETS_INVALID_OFFSET_RANGE
DELTA_TABLE_ALREADY_CONTAINS_CDC_COLUMNS
Tabloda Değişiklik Verilerini Yakalama etkinleştirilemiyor. Tablo zaten verileri içeriyor
ayrılmış sütunlar <columnList> olacak
tablonun Veri Değiştirme Akışı için dahili olarak meta veri olarak kullanılır. Etkinleştirmek için
Tablodaki Veri Akışı'nı değiştirin, bu sütunları yeniden adlandırın/bırakın.
DELTA_TABLE_ALREADY_EXISTS
Tablo <tableName> zaten var.
DELTA_TABLE_CONTAINS_RESERVED_CDC_COLUMNS
Tablodaki Değişiklik Veri Akışı hesaplanamıyor. Tablo, tablonun Veri Akışını Değiştir için çıkış sütunları olarak kullanılan ayrılmış sütun adlarını <columnList> içerir. Tablodaki Veri Akışını Değiştir'i hesaplamak için bu sütunları yeniden adlandırın/bırakın.
DELTA_TABLE_FOR_PATH_UNSUPPORTED_HADOOP_CONF
** Şu anda DeltaTable.forPath yalnızca <allowedPrefixes> ile başlayan hadoop yapılandırma anahtarlarını destekler, ancak <unsupportedOptions> ile karşılaşıldı.
DELTA_TABLE_ID_MISMATCH
<tableLocation>'daki Delta tablosu, bu komut tabloyu kullanırken değiştirildi.
Tablo kimliği önceden <oldId> idi ama artık <newId>.
Tablonun tutarlı bir görünümünü okuduğundan emin olmak için geçerli komutu yeniden deneyin.
DELTA_TABLE_INVALID_REDIRECT_STATE_TRANSITION
Tablo yeniden yönlendirme durumu güncelleştirilemedi: Geçersiz durum geçişi denendi.
Delta tablosu '<table>' '<oldState>' durumundan '<newState>' durumuna değiştirilemez.
DELTA_TABLE_INVALID_SET_UNSET_REDIRECT
SET üzerinde UNSET veya <table> yapılamıyor: Geçerli özellik '<currentProperty>', yeni özellik '<newProperty>' ile uyuşmuyor.
DELTA_TABLE_LOCATION_MISMATCH
Mevcut tablo <tableName>, <existingTableLocation>konumunda bulunmaktadır. Belirtilen konumla <tableLocation>eşleşmiyor.
DELTA_TABLE_NOT_FOUND
Delta tablosu <tableName> yok.
DELTA_TABLE_NOT_SUPPORTED_IN_OP
Bu tablo <operation>'de desteklenmiyor. Lütfen bunun yerine bir yol kullanın.
DELTA_TABLE_ONLY_OPERATION
<tableName> bir Delta tablosu değildir.
<operation> yalnızca Delta tabloları için desteklenir.
DELTA_TABLE_UNRECOGNIZED_REDIRECT_SPEC
Delta günlüğü bilinmeyen tablo yönlendirme belirtimi '<spec>' bulunduruyor.
DELTA_TARGET_TABLE_FINAL_SCHEMA_EMPTY
Hedef tablonun nihai şeması boş.
DELTA_TIMESTAMP_EARLIER_THAN_COMMIT_RETENTION
Sağlanan zaman damgası (<userTimestamp>),
bu tablo (<commitTs>). Lütfen sonrasında <timestampString>bir zaman damgası kullanın.
DELTA_TIMESTAMP_GREATER_THAN_COMMIT
Sağlanan zaman damgası (<providedTimestamp>), bu sürüm için kullanılabilen en son sürümden sonradır
tablo (<tableName>). Lütfen <maximumTimestamp>öncesinde veya <maximumTimestamp>'da bir zaman damgası kullanın.
DELTA_TIMESTAMP_INVALID
Sağlanan zaman damgası (<expr>) geçerli bir zaman damgasına dönüştürülemez.
DELTA_TIME_TRAVEL_INVALID_BEGIN_VALUE
<timeTravelKey> geçerli bir başlangıç değeri olmalıdır.
DELTA_TOO_MUCH_LISTING_MEMORY
Yetersiz bellek nedeniyle Delta tablosundaki dosyalar (<numFiles>) listelanamadı. Gerekli bellek: <estimatedMemory>, kullanılabilir bellek: <maxMemory>.
DELTA_TRUNCATED_TRANSACTION_LOG
<path>: İşlem günlüğü, el ile silme veya günlük saklama ilkesi (<version>) ve denetim noktası saklama ilkesi (<logRetentionKey>=<logRetention>) nedeniyle kısaltıldığından, <checkpointRetentionKey>=<checkpointRetention> sürümünde durum yeniden oluşturulamıyor.
DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED
İşleme izin verilmiyor: Delta tablolarındaki TRUNCATE TABLE bölüm koşullarını desteklemez; belirli bölümleri veya satırları silmek için DELETE kullanın.
DELTA_UDF_IN_CHECK_CONSTRAINT
Bir <expr> kısıtlamada bulunurCHECK. Kısıtlama CHECK , kullanıcı tanımlı bir işlev kullanamaz.
DELTA_UDF_IN_GENERATED_COLUMN
<udfExpr> bulundu. Oluşturulan bir sütun kullanıcı tanımlı bir işlev kullanamaz.
DELTA_UNEXPECTED_ACTION_EXPRESSION
Beklenmeyen eylem ifadesi <expression>.
DELTA_UNEXPECTED_NUM_PARTITION_COLUMNS_FROM_FILE_NAME
Beklenen <expectedColsSize> bölüm sütunları: <expectedCols>, ancak dosya adının <parsedColsSize> ayrıştırılmasından bulunan <parsedCols> bölüm sütunları: <path>.
DELTA_UNEXPECTED_PARTIAL_SCAN
Delta kaynaklarının tam taranmasını bekliyorduk, ancak sadece kısmi bir tarama yaptıklarını gördük. Yol: <path>.
DELTA_UNEXPECTED_PARTITION_COLUMN_FROM_FILE_NAME
Bölüm sütunu <expectedCol> bekleniyor, ancak dosya adının ayrıştırılmasında bölüm sütunu <parsedCol> bulundu: <path>.
DELTA_UNEXPECTED_PARTITION_SCHEMA_FROM_USER
CONVERT TO DELTA, katalogdan çıkarılan bölüm şemasından farklı bir bölüm şemasıyla çağrıldı, lütfen bölüm şemasının katalogdan seçilebilmesi için şemayı sağlamaktan kaçının.
katalog bölümü şeması:
<catalogPartitionSchema>
sağlanan bölüm şeması:
<userPartitionSchema>
DELTA_UNIFORM_COMPATIBILITY_LOCATION_CANNOT_BE_CHANGED
delta.universalFormat.compatibility.location değiştirilemez.
DELTA_UNIFORM_COMPATIBILITY_LOCATION_NOT_REGISTERED
delta.universalFormat.compatibility.location katalogda kayıtlı değil.
DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION
Tekdüzen uyumluluk biçimi için konum eksik veya geçersiz. Lütfen delta.universalFormat.compatibility.location için boş bir dizin ayarlayın.
Başarısızlık nedeni:
Daha fazla ayrıntı için bkz. DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION
DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
Delta Uniform ile Apache Iceberg'i okuma işlemi başarısız oldu.
Daha fazla bilgi için DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION adresini ziyaret edin.
DELTA_UNIFORM_INGRESS_AMBIGUOUS_FORMAT
Birden çok Delta Tekdüzen giriş biçimi (<formats>) bulunur, en fazla bir biçim ayarlanabilir.
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED
Tekdüzen giriş tablosunun oluşturulması veya yenilenmesi desteklenmemektedir.
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED_FORMAT
Biçim <fileFormat> desteklenmez. Yalnızca özgün dosya biçimi olarak Apache Iceberg ve hudi desteklenir.
DELTA_UNIFORM_INGRESS_VIOLATION
Delta Uniform okuma hatası:
Daha fazla ayrıntı için bkz. DELTA_UNIFORM_INGRESS_VIOLATION
DELTA_UNIFORM_NOT_SUPPORTED
Evrensel Biçim yalnızca Unity Kataloğu tablolarında desteklenir.
DELTA_UNIFORM_REFRESH_INVALID_ARGUMENT
REFRESH TABLE geçersiz bir bağımsız değişkenle:
Daha fazla ayrıntı için bkz. DELTA_UNIFORM_REFRESH_INVALID_ARGUMENT
DELTA_UNIFORM_REFRESH_NOT_SUPPORTED
REFRESH tanımlayıcı SYNC UNIFORM şu nedenle desteklenmez:
Daha fazla ayrıntı için bkz. DELTA_UNIFORM_REFRESH_NOT_SUPPORTED
DELTA_UNIFORM_REFRESH_NOT_SUPPORTED_FOR_MANAGED_ICEBERG_TABLE_WITH_METADATA_PATH
REFRESH TABLE ile METADATA_PATH yönetilen Apache Iceberg tablolarında desteklenmez.
DELTA_UNIVERSAL_FORMAT_CONVERSION_FAILED
Tablo sürümü <version>, evrensel biçim <format>'e dönüştürülemedi. <message>
DELTA_UNIVERSAL_FORMAT_VIOLATION
Evrensel Biçim (<format>) doğrulanamadı: <violation>.
DELTA_UNKNOWN_CONFIGURATION
Bilinmeyen yapılandırma belirtildi: <config>.
Bu denetimi devre dışı bırakmak için Spark oturum yapılandırmasında =true değerini ayarlayın <disableCheckConfig>.
DELTA_UNKNOWN_PRIVILEGE
Bilinmeyen ayrıcalık: <privilege>.
DELTA_UNKNOWN_READ_LIMIT
Bilinmeyen ReadLimit: <limit>.
DELTA_UNRECOGNIZED_COLUMN_CHANGE
Tanınmayan sütun değişikliği <otherClass>. Güncel olmayan bir Delta Lake sürümü çalıştırıyor olabilirsiniz.
DELTA_UNRECOGNIZED_INVARIANT
Tanınmayan değişmez. Lütfen Spark sürümünüzü yükseltin.
DELTA_UNRECOGNIZED_LOGFILE
Tanınmayan günlük dosyası <filename>.
DELTA_UNSET_NON_EXISTENT_PROPERTY
Var olmayan '<property>' özelliği, <tableName> tablosunda kaldırmaya çalışıldı.
DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE
<path> mutlak yola sahip dosyaların eklenmesini desteklemez.
DELTA_UNSUPPORTED_ALTER_TABLE_CHANGE_COL_OP
ALTER TABLE CHANGE COLUMN, sütun <fieldPath>'nin <oldField>'dan <newField>'e değiştirilmesini desteklemez.
DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP
Desteklenmeyen ALTER TABLE REPLACE COLUMNS işlemi. Neden: <details>
Şema şu kaynak üzerinden değiştirilemedi:
<oldSchema>
to:
<newSchema>
DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE
REPLACE var olan bir tabloyu <tableName> ile CLONE denediniz. Bu işlem şu şekildedir:
unsupported.
CLONE için farklı bir hedef deneyin veya geçerli hedefte tabloyu silin.
DELTA_UNSUPPORTED_CLUSTERING_COLUMN_PREDICATES
OPTIMIZE
...
FULL WHERE Liquid tabloları için komutu, sağlanan önkoşulları desteklemez:
Daha fazla ayrıntı için bkz. DELTA_UNSUPPORTED_CLUSTERING_COLUMN_PREDICATES
DELTA_UNSUPPORTED_COLUMN_MAPPING_MODE_CHANGE
Sütun eşleme modunun '<oldMode>' olan '<newMode>' olarak değiştirilmesi desteklenmez.
DELTA_UNSUPPORTED_COLUMN_MAPPING_OPERATIONS_ON_COLUMNS_WITH_BLOOM_FILTER_INDEX
Sütun Eşleme işlemi <opName>, sütun(lar) <quotedColumnNames> üzerinde gerçekleştirilemedi.
çünkü bu sütunlarda Bloom Filtre Dizini(ler) vardır.
Sütun eşleme işlemini sütunlarda gerçekleştirmek istiyorsanız
Bloom Filter İndeks(ler)i
lütfen önce Bloom Filtre Dizinlerini kaldırın:
DROP BLOOMFILTER INDEX ON TABLE tabloAdı FOR COLUMNS(<columnNames>)
Bunun yerine tablodaki tüm Bloom Filtre Dizinlerini kaldırmak istiyorsanız şunu kullanın:
DROP BLOOMFILTER INDEX ON TABLE tabloAdı
DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL
Geçerli tablo protokolü sürümünüz sütun eşleme modlarını değiştirmeyi desteklemiyor
kullanarak <config>.
Sütun eşlemesi için gerekli Delta protokolü sürümü:
<requiredVersion>
Tablonuzun geçerli Delta protokolü sürümü:
<currentVersion>
<advice>
DELTA_UNSUPPORTED_COLUMN_MAPPING_SCHEMA_CHANGE
Şema değişikliği algılandı:
eski şema:
<oldTableSchema>
yeni şema:
<newTableSchema>
Sütun eşleme modunun değiştirilmesi sırasında şema değişikliklerine izin verilmez.
DELTA_UNSUPPORTED_COLUMN_MAPPING_WRITE
Sütun eşleme moduyla veri yazma desteklenmez.
DELTA_UNSUPPORTED_COLUMN_TYPE_IN_BLOOM_FILTER
Türü <dataType> olan bir sütunda bloom filtre dizini oluşturma işlemi desteklenmez: <columnName>.
DELTA_UNSUPPORTED_COMMENT_MAP_ARRAY
<fieldPath> öğesine açıklama eklenemez. Eşleme anahtarına/değerine veya dizi öğesine açıklama ekleme desteklenmez.
DELTA_UNSUPPORTED_DATA_TYPES
Desteklenmeyen veri türlerini kullanan sütunlar bulundu: <dataTypeList>. Tür denetimini devre dışı bırakmak için '<config>' değerini 'false' olarak ayarlayabilirsiniz. Bu tür denetiminin devre dışı bırakılması kullanıcıların desteklenmeyen Delta tabloları oluşturmasına izin verebilir ve yalnızca eski tabloları okumaya/yazmaya çalışırken kullanılmalıdır.
DELTA_UNSUPPORTED_DATA_TYPE_IN_GENERATED_COLUMN
<dataType> oluşturulan bir sütunun sonucu olamaz.
DELTA_UNSUPPORTED_DEEP_CLONE
Derin kopya bu Delta sürümü tarafından desteklenmiyor.
DELTA_UNSUPPORTED_DESCRIBE_DETAIL_VIEW
<view> bir görünümdür.
DESCRIBE DETAIL yalnızca tablolar için desteklenir.
DELTA_UNSUPPORTED_DROP_CLUSTERING_COLUMN
Kümeleme sütunlarının (<columnList>) bırakılmasına izin verilmez.
DELTA_UNSUPPORTED_DROP_COLUMN
delta tablonuz için DROP COLUMN desteklenmez. <advice>
DELTA_UNSUPPORTED_DROP_NESTED_COLUMN_FROM_NON_STRUCT_TYPE
Yalnızca StructType'tan iç içe sütunları bırakabilirsiniz.
<struct> bulundu.
DELTA_UNSUPPORTED_DROP_PARTITION_COLUMN
Bölüm sütunlarının (<columnList>) silinmesine izin verilmez.
DELTA_UNSUPPORTED_EXPRESSION
<expType>için desteklenmeyen ifade türü(<causedBy>). Desteklenen türler [<supportedTypes>] şeklindedir.
DELTA_UNSUPPORTED_EXPRESSION_CHECK_CONSTRAINT
Bir <expression> kısıtlamada bulunurCHECK.
<expression> bir CHECK kısıtlamada kullanılamaz.
DELTA_UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
<expression> oluşturulan bir sütunda kullanılamaz.
DELTA_UNSUPPORTED_FEATURES_FOR_READ
Desteklenmeyen Delta okuma özelliği: "<tableNameOrPath>" tablosu, Şu Databricks sürümü tarafından desteklenmeyen okuyucu tablosu özellikleri gerektirir: <unsupported>. Delta Lake özellik uyumluluğu hakkında daha fazla bilgi için lütfen <link> bakın.
DELTA_UNSUPPORTED_FEATURES_FOR_WRITE
Desteklenmeyen Delta yazma özelliği: "<tableNameOrPath>" tablosu, Databricks'in bu sürümü tarafından desteklenmeyen yazıcı tablo özellikleri gerektirir: <unsupported>. Delta Lake özellik uyumluluğu hakkında daha fazla bilgi için lütfen <link> bakın.
DELTA_UNSUPPORTED_FEATURES_IN_CONFIG
Aşağıdaki Spark yapılandırmalarında veya Delta tablosu özelliklerinde yapılandırılan tablo özellikleri Databricks'in bu sürümü tarafından tanınmaz: <configs>.
DELTA_UNSUPPORTED_FEATURE_STATUS
Tablo özelliği <feature> durumunun "destekleniyor" olması bekleniyor, ancak "<status>" alındı.
DELTA_UNSUPPORTED_FIELD_UPDATE_NON_STRUCT
İç içe alanları güncelleştirme yalnızca StructType için desteklenir, ancak <columnName>türünde bir alanını güncelleştirmeye çalışıyorsunuz: <dataType>.
DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS
Silme vektör dosyaları eksik olan tablo sürümlerinde 'FSCK REPAIR TABLE' komutu desteklenmez.
Lütfen desteğe başvurun.
DELTA_UNSUPPORTED_GENERATE_WITH_DELETION_VECTORS
Silme vektörleri olan tablo sürümlerinde 'GENERATE symlink_format_manifest' komutu desteklenmez.
Silme vektörleri olmadan tablonun bir sürümünü oluşturmak için ' table REORG TABLE'APPLY (PURGE) komutunu çalıştırın. Ardından 'GENERATE' komutunu yeniden çalıştırın.
REORG ile GENERATEarasında hiçbir eşzamanlı işlemin silme vektörleri eklemediğinden emin olun.
Bildirimleri düzenli olarak oluşturmanız gerekiyorsa veya eşzamanlı işlemleri önleyemiyorsanız, 'table ALTER TABLE (delta.enableDeletionVectors = false)'SET TBLPROPERTIES kullanarak bu tablodaki silme vektörlerini devre dışı bırakmayı göz önünde bulundurun.
DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT
StructTypes dışındaki iç içe alanlardaki değişmezler desteklenmez.
DELTA_UNSUPPORTED_IN_SUBQUERY
<operation> koşulunda alt sorgu desteklenmez.
DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX
listKeywithPrefix kullanılamıyor.
DELTA_UNSUPPORTED_MANIFEST_GENERATION_WITH_COLUMN_MAPPING
Dış okuyucular bu Delta tablolarını okuyamadığı için sütun eşlemeden yararlanan tablolar için bildirim oluşturma desteklenmez. Diğer ayrıntılar için Delta belgelerine bakın.
DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC
Şema evrimi ile MERGE INTO işlemleri şu anda CDC çıktısı yazmayı desteklemez.
DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE
<operation> koşulunda çok sütunlu In önermeleri desteklenmez.
DELTA_UNSUPPORTED_NESTED_COLUMN_IN_BLOOM_FILTER
İç içe bir sütunda bloom filer dizini oluşturmak şu anda desteklenmiyor: <columnName>.
DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION
<operation> içinde iç içe alanlar desteklenmez (alan = <fieldName>).
DELTA_UNSUPPORTED_NON_EMPTY_CLONE
Kopya hedef tablosu boş değil. Lütfen tabloyu TRUNCATE veya DELETE FROM yapın, ardından CLONE çalıştırın.
DELTA_UNSUPPORTED_OUTPUT_MODE
Veri kaynağı <dataSource> çıkış modunu desteklemez <mode> .
DELTA_UNSUPPORTED_PARTITION_COLUMN_IN_BLOOM_FILTER
Bölümleme sütununda bloom filtre dizini oluşturma işlemi desteklenmez: <columnName>.
DELTA_UNSUPPORTED_RENAME_COLUMN
Delta tablonuz için sütun yeniden adlandırma desteklenmiyor. <advice>
DELTA_UNSUPPORTED_SCHEMA_DURING_READ
Delta, şemayı okuma zamanında belirtmeyi desteklemez.
DELTA_UNSUPPORTED_SORT_ON_BUCKETED_TABLES
SORTED BY , Delta demetli tablolar için desteklenmez.
DELTA_UNSUPPORTED_SOURCE
<operation> hedefi yalnızca Delta kaynaklarını destekler.
<plan>
DELTA_UNSUPPORTED_STATIC_PARTITIONS
Eklemeler sırasında bölüm belirtiminde statik bölümlerin belirtilmesi şu anda desteklenmemektedir.
DELTA_UNSUPPORTED_STRATEGY_NAME
Desteklenmeyen strateji adı: <strategy>.
DELTA_UNSUPPORTED_SUBQUERY
<operation>'da (koşul = <cond>) alt sorgular desteklenmez.
DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES
Alt sorgular, bölümlendirme önermelerinde desteklenmez.
DELTA_SİLİNMİŞ DOSYA TUTMA SÜRESİNİN ÖTESİNDEKİ ZAMAN YOLCULUĞUNU DESTEKLEMİYOR
Tabloda ayarlanan delta.deletedFileRetentionDuration (<deletedFileRetention> HOURS) dışında zaman yolculuğu yapılamaz.
DELTA_UNSUPPORTED_TIME_TRAVEL_MULTIPLE_FORMATS
Zaman yolculuğu birden çok formatta belirtilemez.
DELTA_UNSUPPORTED_TIME_TRAVEL_VIEWS
Görünümler, alt sorgular, akışlar veya değişen veri akışı sorguları üzerinde zamanda yolculuk yapılamaz.
DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES
Örnek tabloların kesilmesi desteklenmez.
DELTA_UNSUPPORTED_TYPE_CHANGE_IN_SCHEMA
Desteklenmeyen bir tür değişikliği uygulandığından bu tabloda işlem yapılamıyor. Alan <fieldName>, <fromType> değerinden <toType>değerine değiştirildi.
DELTA_UNSUPPORTED_TYPE_CHANGE_ON_COLUMNS_WITH_BLOOM_FILTER_INDEX
Sütunların veri türü değiştirılamadı <quotedColumnNames>
çünkü bu sütunlarda Bloom Filtre Dizini(ler) vardır.
Bloom Filtre Dizinleri ile sütunların veri türünü değiştirmek istiyorsanız,
lütfen önce Bloom Filtre Dizinlerini kaldırın:
DROP BLOOMFILTER INDEX ON TABLE tabloAdı FOR COLUMNS(<columnNames>)
Bunun yerine tablodaki tüm Bloom Filtre Dizinlerini kaldırmak istiyorsanız şunu kullanın:
DROP BLOOMFILTER INDEX ON TABLE tabloAdı
DELTA_UNSUPPORTED_VACUUM_SPECIFIC_PARTITION
Delta tablolarını vakumlarken lütfen temel yolu (<baseDeltaPath>) belirtin. Belirli bölümlerin vakumlanması şu anda desteklenmemektedir.
DELTA_UNSUPPORTED_WRITES_STAGED_TABLE
Tablo uygulaması yazma işlemlerini desteklemez: <tableName>.
DELTA_UNSUPPORTED_WRITES_WITHOUT_COORDINATOR
<coordinatorName>işleme düzenleyicisine kaydedilmiş bir tabloda yazma işlemleri gerçekleştirmeye çalışıyorsunuz. Ancak, geçerli ortamda bu koordinatörün hiçbir uygulamasına izin verilmez ve koordinatörler olmadan yazma işlemlerine izin verilmez.
DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES
Örnek tablolara yazma desteklenmez.
DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION
<fromCatalog>
<toCatalog>'e dönüştürülemez. Tüm iç içe sütunlar uyumlu olmalıdır.
DELTA_V2_CHECKPOINTS_REQUIRED_FOR_OPERATION
CHECKPOINT işlemi, tabloda V2 Denetim Noktalarının etkinleştirilmesini gerektirir.
DELTA_VACUUM_COPY_INTO_STATE_FAILED
Veri dosyalarında VACUUM başarılı oldu, ancak COPY INTO durumda çöp toplama işlemi başarısızlıkla sonuçlandı.
DELTA_VERSIONS_NOT_CONTIGUOUS
Sürümler (<versionList>) bitişik değildir.
Delta günlüğünde <startVersion> ve <endVersion> sürümleri arasında bir boşluk algılandı ve <versionToLoad> sürümü yüklenmeye çalışılırken tespit edildi.
Daha fazla ayrıntı için bkz. DELTA_VERSIONS_NOT_CONTIGUOUS
DELTA_VERSION_INVALID
Sağlanan sürüm (<version>) geçerli bir sürüm değil.
DELTA_VERSION_NOT_FOUND
Delta tablosu sürümüne <userVersion>zaman yolculuğu yapılamaz. Kullanılabilir sürümler: [<earliest>, <latest>].
DELTA_VIOLATE_CONSTRAINT_WITH_VALUES
CHECK kısıtlaması <constraintName> <expression> değerleri içeren satır tarafından ihlal edildi:
<values>.
DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
Tablo <table> özelliklerinin doğrulanması ihlal edildi:
Daha fazla bilgi için bkz. DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
DELTA_WRITE_INTO_VIEW_NOT_SUPPORTED
<viewIdentifier> bir görünümdür. Görünüme veri yazamayabilirsiniz.
DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST
Z Sıralama sütunu <columnName> veri şemasında yok.
DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS
Şu anda bu sütunlar için istatistik toplamadığımız için <cols> üzerindeki Z-Düzeni etkisizdir. Veri atlama ve z sıralama hakkında daha fazla bilgi için lütfen <link>'ye başvurun. Bu denetimi devre dışı bırakmak için ayarı değiştirebilirsiniz.
SET <zorderColStatKey> = yanlış
DELTA_ZORDERING_ON_PARTITION_COLUMN
<colName> bir partisyon sütunudur. Z Sıralama yalnızca veri sütunlarında gerçekleştirilebilir.
Delta Paylaşımı
DELTA_SHARING_ACTIVATION_NONCE_DOES_NOT_EXIST
SQLSTATE: hiçbiri atanmadı
Etkinleştirme kodu (nonce) bulunamadı. Kullandığınız etkinleştirme bağlantısı geçersiz veya süresi doldu. Etkinleştirme bağlantısını yeniden oluşturun ve yeniden deneyin.
DELTA_SHARING_CROSS_REGION_SHARE_UNSUPPORTED
SQLSTATE: hiçbiri atanmadı
<regionHint> bölgeleri ve dışındaki bölgeler arasında paylaşım desteklenmez.
DELTA_SHARING_GET_RECIPIENT_PROPERTIES_INVALID_DEPENDENT
SQLSTATE: hiçbiri atanmadı
current_recipient işleviyle tanımlanan görünüm yalnızca paylaşım içindir ve yalnızca veri alıcısı tarafından sorgulanabilir. Kimlik <securableId> ile sağlanan güvenlik öğesi, bir Delta Paylaşım Görünümü değildir.
DELTA_SHARING_MUTABLE_SECURABLE_KIND_NOT_SUPPORTED
SQLSTATE: hiçbiri atanmadı
Delta Sharing'de sağlanan güvenli tür <securableKind> değiştirilebilirliği desteklemez.
DELTA_SHARING_ROTATE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE
SQLSTATE: hiçbiri atanmadı
Sağlanan güvenli nesne türü <securableKind>, Marketplace hizmeti tarafından başlatılan belirteç döndürme işlemini desteklemez.
DS_AUTH_TYPE_NOT_AVAILABLE
SQLSTATE: hiçbiri atanmadı
<dsError>: Kimlik doğrulama türü <providerEntity>sağlayıcı varlığında kullanılamaz.
DS_CDF_NOT_ENABLED
SQLSTATE: hiçbiri atanmadı
<dsError>: <tableName>için değişiklik veri akışına erişilemiyor. CDF, özgün delta tablosunda <version> sürümü için etkinleştirilmedi. Lütfen veri sağlayıcınıza başvurun.
DS_CDF_NOT_SHARED
SQLSTATE: hiçbiri atanmadı
<dsError>: <tableName>için değişiklik veri akışına erişilemiyor. CDF tablo üzerinde paylaşılmaz. Lütfen veri sağlayıcınıza başvurun.
DS_CDF_RPC_INVALID_PARAMETER
SQLSTATE: hiçbiri atanmadı
<dsError>: <message>
DS_CLIENT_AUTH_ERROR_FOR_DB_DS_SERVER
SQLSTATE: hiçbiri atanmadı
<dsError>: <message>
DS_CLIENT_ERROR_FOR_DB_DS_SERVER
SQLSTATE: hiçbiri atanmadı
<dsError>: <message>
DS_CLIENT_OAUTH_TOKEN_EXCHANGE_FAILURE
SQLSTATE: hiçbiri atanmadı
<dsError>: <message>
DS_CLIENT_OAUTH_TOKEN_EXCHANGE_UNAUTHORIZED
SQLSTATE: hiçbiri atanmadı
<dsError>: <message>
DS_CLOUD_VENDOR_UNAVAILABLE
SQLSTATE: hiçbiri atanmadı
<dsError>: Bulut satıcısı geçici olarak <rpcName>için kullanılamıyor, lütfen tekrar deneyin.<traceId>
DS_DATA_MATERIALIZATION_COMMAND_FAILED
SQLSTATE: hiçbiri atanmadı
<dsError>: Kuruluş <runId>'den gelen veri gerçekleştirme görevi <orgId>, komut <command>'te başarısız oldu.
DS_DATA_MATERIALIZATION_COMMAND_NOT_SUPPORTED
SQLSTATE: hiçbiri atanmadı
<dsError>: Kuruluş <runId> içindeki veri gerçekleştirme görevi <orgId> çalıştırma komutunu <command> desteklemiyor.
DS_DATA_MATERIALIZATION_NOT_SUPPORTED_WITHOUT_SERVERLESS
SQLSTATE: hiçbiri atanmadı
<dsError>sunucusuz <featureName> , sağlayıcı çalışma alanında desteklenmediğinden veya etkinleştirilmediğinden desteklenmez. Sunucusuz özelliğini etkinleştirmek için lütfen veri sağlayıcınıza başvurun.
DS_DATA_MATERIALIZATION_NO_VALID_NAMESPACE
SQLSTATE: hiçbiri atanmadı
<dsError>: <tableName>için materyalleştirme oluşturacak geçerli bir ad alanı bulunamadı. Bunu düzeltmek için lütfen veri sağlayıcınıza başvurun.
DS_DATA_MATERIALIZATION_RECIPIENT_MISSING_WORKSPACE_ID
SQLSTATE: hiçbiri atanmadı
<dsError>: Paylaşılan varlığı gerçekleştirmeye uygun çalışma alanı bulunamadı. Paylaşılan varlığın kataloğuna yazma erişimine izin verilen bir çalışma alanında alıcıyı yeniden oluşturmak için lütfen veri sağlayıcınıza başvurun.
DS_DATA_MATERIALIZATION_RUN_DOES_NOT_EXIST
SQLSTATE: hiçbiri atanmadı
<dsError>: Kuruluş <runId>'den veri gerçekleştirme görevi çalıştırması <orgId> mevcut değil
DS_DELTA_ILLEGAL_STATE
SQLSTATE: hiçbiri atanmadı
<dsError>: <message>
DS_DELTA_MISSING_CHECKPOINT_FILES
SQLSTATE: hiçbiri atanmadı
<dsError>: Kontrol noktasının tüm parça dosyaları şu sürümde bulunamadı: <version>. <suggestion>
DS_DELTA_NULL_POINTER
SQLSTATE: hiçbiri atanmadı
<dsError>: <message>
DS_DELTA_RUNTIME_EXCEPTION
SQLSTATE: hiçbiri atanmadı
<dsError>: <message>
DS_EXPIRE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE
SQLSTATE: hiçbiri atanmadı
<dsError>: Sağlanan güvenli tür <securableKind>, Market hizmeti tarafından başlatılan süresi dolmuş belirteç eylemini desteklemez.
DS_FAILED_REQUEST_TO_OPEN_DS_SERVER
SQLSTATE: hiçbiri atanmadı
<dsError>: <message>
DS_FAILED_REQUEST_TO_SAP_DS_SERVER
SQLSTATE: hiçbiri atanmadı
<dsError>: <message>
DS_FEATURE_ONLY_FOR_DATABRICKS_TO_DATABRICKS
SQLSTATE: hiçbiri atanmadı
<dsError>: <feature> yalnızca Databricks'ten Databricks Delta'ya paylaşım için etkinleştirilir.
DS_FILE_LISTING_EXCEPTION
SQLSTATE: hiçbiri atanmadı
<dsError>: : <storage><message>
DS_FILE_SIGNING_EXCEPTION
SQLSTATE: hiçbiri atanmadı
<dsError>: <message>
DS_FOREIGN_TABLE_METADATA_REFRESH_FAILED
SQLSTATE: hiçbiri atanmadı
<dsError>: <message>
DS_GATEKEEPER_DISABLED
SQLSTATE: hiçbiri atanmadı
<dsError>: Bu özellik hesap için devre dışı bırakıldı. Lütfen veri sağlayıcınıza başvurun.
DS_HADOOP_CONFIG_NOT_SET
SQLSTATE: hiçbiri atanmadı
<dsError>: <key> arayan tarafından ayarlanmaz.
DS_ILLEGAL_STATE
SQLSTATE: hiçbiri atanmadı
<dsError>: <message>
DS_INTERNAL_ERROR_FROM_DB_DS_SERVER
SQLSTATE: hiçbiri atanmadı
<dsError>: <message>
DS_INVALID_AZURE_PATH
SQLSTATE: hiçbiri atanmadı
<dsError>: Geçersiz Azure yolu: <path>.
DS_INVALID_DELTA_ACTION_OPERATION
SQLSTATE: hiçbiri atanmadı
<dsError>: <message>
DS_INVALID_FIELD
SQLSTATE: hiçbiri atanmadı
<dsError>: <message>
DS_INVALID_ITERATOR_OPERATION
SQLSTATE: hiçbiri atanmadı
<dsError>: <message>
DS_INVALID_PARAMETER_VALUE
SQLSTATE: hiçbiri atanmadı
<dsError>: <rpcName> nedeniyle <cause> için geçersiz parametre.
DS_INVALID_PARTITION_SPEC
SQLSTATE: hiçbiri atanmadı
<dsError>: <message>
DS_INVALID_RESPONSE_FROM_DS_SERVER
SQLSTATE: hiçbiri atanmadı
<dsError>: <message>
DS_MATERIALIZATION_QUERY_FAILED
SQLSTATE: hiçbiri atanmadı
<dsError>: <schema>için sorgu başarısız oldu.
<table>Paylaş'tan <share>.
DS_MATERIALIZATION_QUERY_TIMEDOUT
SQLSTATE: hiçbiri atanmadı
<dsError>: Sorgu <schema> için zaman aşımına uğradı.
<table> paylaşımından <share> saniye sonra <timeoutInSec>.
DS_TAŞINMIŞ_YÖNETİM_API_ÇAĞRILDI
SQLSTATE: hiçbiri atanmadı
<dsError>: UC RPC <rpcName> başarısız oldu.
DS_MISSING_IDEMPOTENCY_KEY
SQLSTATE: hiçbiri atanmadı
<dsError>: Idempotence anahtarı sorgu <schema> sırasında gereklidir.
<table> asenkron olarak paylaş <share>.
DS_KAYIP_SUNUCUSUZ_BÜTÇE_POLİTİKASI
SQLSTATE: hiçbiri atanmadı
<dsError>: İşlem, sağlayıcının Databricks'inde sunucusuz mimarisi kullanmaktadır, ancak paylaşım alanında sunucusuz bütçe ilkesi eksiktir. Paylaşacak sunucusuz bütçe ilkesi eklemek için lütfen veri sağlayıcısına başvurun.
DS_MORE_THAN_ONE_RPC_PARAMETER_SET
SQLSTATE: hiçbiri atanmadı
<dsError>: Lütfen yalnızca birini sağlayın: <parameters>.
DS_NETWORK_CONNECTION_CLOSED
SQLSTATE: hiçbiri atanmadı
<dsError>: <rpcName> nedeniyle <errorCause> için ağ bağlantısı kapatıldı, lütfen yeniden deneyin.<traceId>
DS_NETWORK_CONNECTION_TIMEOUT
SQLSTATE: hiçbiri atanmadı
<dsError>: <rpcName> nedeniyle <errorCause> için ağ bağlantısı zaman aşımı oldu, lütfen yeniden deneyin.<traceId>
DS_NETWORK_ERROR
SQLSTATE: hiçbiri atanmadı
<dsError>: <rpcName> için <errorCause> nedeniyle ağ hatası oluştu, lütfen yeniden deneyin.<traceId>
DS_NO_METASTORE_ASSIGNED
SQLSTATE: hiçbiri atanmadı
<dsError>: Geçerli çalışma alanı için meta veri deposu atanmadı (workspaceId: <workspaceId>).
DS_O2D_OIDC_WORKLOAD_IDENTITY_TOKEN_GENERATION_FAILED
SQLSTATE: hiçbiri atanmadı
<dsError>: O2D OIDC sağlayıcısı için iş yükü kimlik belirteci oluşturulamadı: <message>.
DS_PAGINATION_AND_QUERY_ARGS_MISMATCH
SQLSTATE: hiçbiri atanmadı
<dsError>: Sayfalandırma veya sorgu argümanlarında uyuşmazlık.
DS_PARTITION_COLUMNS_RENAMED
SQLSTATE: hiçbiri atanmadı
<dsError>: Paylaşılan tabloda bölüm sütunu [<renamedColumns>] yeniden adlandırıldı. Bunu düzeltmek için lütfen veri sağlayıcınıza başvurun.
DS_QUERY_BEFORE_START_VERSION
SQLSTATE: hiçbiri atanmadı
<dsError>: Yalnızca <startVersion>sürümünden bu yana tablo verilerini sorgulayabilirsiniz.
DS_QUERY_END_VERSION_AFTER_LATEST_VERSION
SQLSTATE: hiçbiri atanmadı
<dsError>: Veri okumak için sağlanan son sürüm<endVersion> geçersiz. Bitiş sürümü, tablonun en son sürümünden(<latestVersion> büyük olamaz.
DS_QUERY_START_VERSION_AFTER_LATEST_VERSION
SQLSTATE: hiçbiri atanmadı
<dsError>: Verileri okumak için sağlanan başlangıç sürümü<startVersion> geçersiz. Başlangıç sürümü, tablonun en son sürümünden büyük olamaz.<latestVersion>
DS_QUERY_TIMEOUT_ON_SERVER
SQLSTATE: hiçbiri atanmadı
<dsError>: <queryType> üzerinde <tableName> yineleme boyunca <numActions> güncellemeden sonra <numIter> işlenirken zaman aşımı oluştu.<progressUpdate> <suggestion> <traceId>
DS_RATE_LIMIT_ON_DS_SERVER
SQLSTATE: hiçbiri atanmadı
<dsError>: <message>
DS_RECIPIENT_RPC_INVALID_PARAMETER
SQLSTATE: hiçbiri atanmadı
<dsError>: <message>
DS_RECON_FAILED_ON_UC_WRITE_RPC
SQLSTATE: hiçbiri atanmadı
<dsError>: UC RPC <rpcName> başarısız oldu, INTERNAL_ERROR olarak dönüştürülüyor.
DS_RESOURCE_ALREADY_EXIST_ON_DS_SERVER
SQLSTATE: hiçbiri atanmadı
<dsError>: <message>
DS_RESOURCE_EXHAUSTED
SQLSTATE: hiçbiri atanmadı
<dsError>: <resource> sınırı aştı: [<limitSize>]<suggestion>.<traceId>
DS_RESOURCE_NOT_FOUND_ON_DS_SERVER
SQLSTATE: hiçbiri atanmadı
<dsError>: <message>
DS_SAP_UNSUPPORTED_DBR_VERSION (Desteklenmeyen DBR sürümü)
SQLSTATE: hiçbiri atanmadı
<dsError>: Delta Sharing SAP bağlayıcısı DBR <dbrVersion>üzerinde desteklenmez. Desteklenen en düşük sürümler şunlardır: <supportedVersions>.
DS_SCHEMA_NAME_CONFLICT_FOUND
SQLSTATE: hiçbiri atanmadı
<dsError>: Katalog <catalogName> zaten paylaşımda <shareName>bulunan şema adlarını içerir.
<description> çakışan şema adları: <schemaNamesInCommon>.
DS_SERVER_TIMEOUT
SQLSTATE: hiçbiri atanmadı
<dsError>: <rpcName> nedeniyle <errorCause> sunucu zaman aşımı, lütfen yeniden deneyin.<traceId>
DS_SERVİS_REDDEDİLDİ
SQLSTATE: hiçbiri atanmadı
<dsError>: Hizmet çok fazla yük altında olduğundan istek reddedildi. Lütfen bir süre sonra yeniden deneyin.
DS_SHARE_ALREADY_MOUNTED_TO_CATALOG
SQLSTATE: hiçbiri atanmadı
<dsError>: Sağlayıcı <shareName>'den pay <providerName> zaten katalog <catalogName> üzerine bağlı.
DS_SYSTEM_WORKSPACE_GROUP_PERMISSION_UNSUPPORTED
SQLSTATE: hiçbiri atanmadı
Sistem tarafından oluşturulan <securableType>grubuna <principal> ayrıcalıkları verilemez.
DS_TABLE_METADATA_TEMPORARILY_UNAVAILABLE
SQLSTATE: hiçbiri atanmadı
<dsError>: Tablo meta verileri kullanılamıyor. Lütfen birkaç dakika içinde yeniden deneyin.
DS_TIME_TRAVEL_NOT_PERMITTED
SQLSTATE: hiçbiri atanmadı
<dsError>: Tarih <tableName>üzerinde paylaşılmadıkça zaman yolculuğu sorgusuna izin verilmez. Lütfen veri sağlayıcınıza başvurun.
DS_UNAUTHORIZED
SQLSTATE: hiçbiri atanmadı
<dsError>: Yetkisiz.
DS_UNAUTHORIZED_D2O_OIDC_RECIPIENT
SQLSTATE: hiçbiri atanmadı
<dsError>: Yetkisiz D2O OIDC Alıcısı: <message>.
DS_UNKNOWN_EXCEPTION
SQLSTATE: hiçbiri atanmadı
<dsError>: <traceId>
DS_UNKNOWN_QUERY_ID
SQLSTATE: hiçbiri atanmadı
<dsError>: <queryID>için bilinmeyen sorgu kimliği <schema>.
<table>Paylaş'tan <share>.
DS_UNKNOWN_QUERY_STATUS
SQLSTATE: hiçbiri atanmadı
<dsError>: <queryID> için sorgu kimliği <schema>'in sorgu durumu bilinmiyor.
<table>Paylaş'tan <share>.
DS_UNKNOWN_RPC
SQLSTATE: hiçbiri atanmadı
<dsError>: Bilinmeyen rpc <rpcName>.
DS_UNSUPPORTED_DELTA_READER_VERSION
SQLSTATE: hiçbiri atanmadı
<dsError>: Delta protokolü okuyucu sürümü <tableReaderVersion><supportedReaderVersion>'den yüksektir ve delta paylaşım sunucusunda desteklenemez.
DS_UNSUPPORTED_DELTA_TABLE_FEATURES
SQLSTATE: hiçbiri atanmadı
<dsError>: Tablo özellikleri <tableFeatures>, tablo<versionStr> <historySharingStatusStr> <optionStr>'de şunlardır.
DS_UNSUPPORTED_OPERATION
SQLSTATE: hiçbiri atanmadı
<dsError>: <message>
DS_UNSUPPORTED_STORAGE_SCHEME
SQLSTATE: hiçbiri atanmadı
<dsError>: Desteklenmeyen depolama düzeni: <scheme>.
DS_UNSUPPORTED_TABLE_TYPE
SQLSTATE: hiçbiri atanmadı
<dsError>: <schema>alınamadı.
<table>[<share>] türündeki tablo şu anda sorgularda desteklenmediğinden Paylaş'tan.<tableType><queryType>
DS_UNSUPPORTED_TABLE_TYPE_IN_MST
SQLSTATE: hiçbiri atanmadı
<dsError>: Tablo türünü sorgulama [<tableType>] çok deyimli işlem (MST) sorgusunda desteklenmez.
DS_USER_CONTEXT_ERROR
SQLSTATE: hiçbiri atanmadı
<dsError>: <message>
DS_VIEW_SHARING_FUNCTIONS_NOT_ALLOWED
SQLSTATE: hiçbiri atanmadı
<dsError>: Görünüm paylaşımı sorgusunda aşağıdaki işlevlere (<functions>) izin verilmez.
DS_WORKSPACE_DOMAIN_NOT_SET
SQLSTATE: hiçbiri atanmadı
<dsError>: Çalışma alanı <workspaceId> domain ayarlanmadı.
DS_WORKSPACE_NOT_FOUND
SQLSTATE: hiçbiri atanmadı
<dsError>: Çalışma alanı <workspaceId> bulunamadı.
Autoloader
CF_ADD_NEW_NOT_SUPPORTED
Şema belirtildiğinde şema geliştirme modu <addNewColumnsMode> desteklenmez. Bu modu kullanmak için bunun yerine cloudFiles.schemaHints aracılığıyla şemayı sağlayabilirsiniz.
CF_AMBIGUOUS_AUTH_OPTIONS_ERROR
(varsayılan) dizin için bildirim kurulumu kimlik doğrulama seçenekleri bulundu
listeleme modu:
<options>
Dosya bildirim modunu kullanmak istiyorsanız lütfen açıkça ayarlayın:
.option("cloudFiles.<useNotificationsKey>", "true")
Alternatif olarak, seçeneklerinizin doğrulanmasını atlamak veya bunları yoksaymak istiyorsanız
kimlik doğrulama seçeneklerini ayarlayabilirsiniz:
.option("cloudFiles.ValidateOptionsKey>", "false")
CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR
Artımlı listeleme modu (cloudFiles.<useIncrementalListingKey>)
ve dosya bildirimi (cloudFiles.<useNotificationsKey>)
aynı anda etkinleştirilmiştir.
Lütfen yalnızca bir tane seçtiğinizden emin olun.
CF_AZURE_AUTHENTICATION_MISSING_OPTIONS
Azure ile kimlik doğrulaması için bir Databricks hizmet kimlik bilgisi veya hem clientId hem de clientSecret sağlayın.
CF_AZURE_AUTHENTICATION_MULTIPLE_OPTIONS
Databricks hizmeti kimlik bilgileri sağlandığında, başka hiçbir kimlik bilgisi seçeneği (örneğin, clientId, clientSecret veya connectionString) sağlanmamalıdır.
CF_AZURE_STORAGE_SUFFIXES_REQUIRED
Azure için adlsBlobSuffix ve adlsDfsSuffix gerekiyor.
CF_BUCKET_MISMATCH
Dosya olayındaki <storeType><fileEvent> kaynağın beklediğinden farklıdır: <source>.
CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY
Şema günlüğü boş olduğunda şema geliştirilemez. Şema günlüğü konumu: <logPath>
CF_CANNOT_PARSE_QUEUE_MESSAGE
Şu kuyruk iletisi ayrıştırılamıyor: <message>
CF_CANNOT_RESOLVE_CONTAINER_NAME
Kapsayıcı adı yoldan çözümlenemiyor: <path>, Çözümlenen URI: <uri>
CF_CANNOT_RUN_DIRECTORY_LISTING
Asenkron bir geri doldurma iş parçacığı çalışırken dizin listelemesi yapılamaz.
CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON
cloudFiles.cleanSource ve cloudFiles.allowOverwrites aynı anda açılamıyor.
CF_CLEAN_SOURCE_CANNOT_MOVE_FILES_INSIDE_SOURCE_PATH
Dosyaları alınmakta olan yolun altındaki bir dizine taşımak desteklenmez.
CF_CLEAN_SOURCE_NOT_ENABLED
CleanSource bu çalışma alanı için etkinleştirilmedi. Yardım için lütfen Databricks desteğine başvurun.
CF_CLEAN_SOURCE_NOT_SUPPORTED
CleanSource için <op> desteklenmez.
CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION
Otomatik Yükleyici, kaynak dizinde veya taşıma hedefinde yazma izinlerine sahip olmadığından işlenen dosyaları arşivleyemez.
Daha fazla ayrıntı için bkz. CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION
CF_DUPLICATE_COLUMN_IN_DATA
Tablonuzun bölüm şeması çıkarıldığında bir hata oluştu. Verilerinizde ve bölümleme yollarınızda aynı sütun kopyalanmış durumda. Bölüm değerini yoksaymak için lütfen şunu kullanarak bölüm sütunlarınızı açıkça belirtin: .option("cloudFiles.<partitionColumnsKey>", "{comma-separated-list}")
CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE
Giriş yolu <path> boş olduğunda şema çıkarılamaz. Giriş yolunda dosyalar olduğunda akışı başlatmayı deneyin veya şemayı belirtin.
CF_EVENT_GRID_AUTH_ERROR
Event Grid aboneliği oluşturulamadı. Lütfen hizmetinizin doğru olduğundan emin olun.
yetkili <permissionType> Event Grid Aboneliklerine sahiptir. Diğer ayrıntılara şu adreste bakın:
<docLink>
CF_EVENT_GRID_CREATION_FAILED
Event Grid aboneliği oluşturulamadı. Lütfen Microsoft.EventGrid'in olduğundan emin olun.
aboneliğinizde kaynak sağlayıcısı olarak kaydedilir. Diğer ayrıntılara şu adreste bakın:
<docLink>
CF_EVENT_GRID_NOT_FOUND_ERROR
Event Grid aboneliği oluşturulamadı. Lütfen depolama alanınızın uygun olduğundan emin olun.
hesap (<storageAccount>), kaynak grubunuzun (<resourceGroup>) altındadır ve
depolama hesabı bir "StorageV2 (genel amaçlı v2)" hesabıdır. Diğer ayrıntılara şu adreste bakın:
<docLink>
CF_EVENT_NOTIFICATION_NOT_SUPPORTED
Otomatik Yükleyici olay bildirim modu <cloudStore>için desteklenmez.
CF_EVENT_NOTIFICATION_SETUP_FAILED
Otomatik Yükleyici için dosya bildirim kaynakları ayarlanamadı.
Daha fazla ayrıntı için bkz. CF_EVENT_NOTIFICATION_SETUP_FAILED
CF_FAILED_TO_CHECK_STREAM_NEW
Akışın yeni olup olmadığını denetleyemedi
CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION
Abonelik oluşturulamadı: <subscriptionName>. Aynı ada sahip bir abonelik zaten var ve başka bir konu ile ilişkilendirildi: <otherTopicName>. İstenen konu <proposedTopicName>. Mevcut aboneliği silin veya yeni bir kaynak soneki ile bir abonelik oluşturun.
CF_FAILED_TO_CREATED_PUBSUB_TOPIC
Konu oluşturulamadı: <topicName>. Aynı ada sahip bir konu zaten mevcut.
<reason> Var olan konuyu kaldırın veya başka bir kaynak son eki ile yeniden deneyin
CF_FAILED_TO_DELETE_GCP_NOTIFICATION
Kimliği <notificationId> olan bildirim, konu <bucketName>için demet <topicName> üzerinde silinemedi. Lütfen GCP konsolu aracılığıyla bildirimi yeniden deneyin veya el ile kaldırın.
CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA
Kalıcı şema şu dizeden seri hale getirilemedi: '<jsonSchema>'
CF_FAILED_TO_EVOLVE_SCHEMA
Şema günlüğü olmadan şema geliştirilemez.
CF_FAILED_TO_FIND_PROVIDER
<fileFormatInput> için sağlayıcı bulunamadı
CF_FAILED_TO_INFER_SCHEMA
Giriş yolu <fileFormatInput>'deki mevcut dosyalardan format <path> için şema çıkarılamadı.
Daha fazla ayrıntı için bkz. CF_FAILED_TO_INFER_SCHEMA
CF_FAILED_TO_WRITE_TO_SCHEMA_LOG
Şema günlüğüne <path>konumunda yazma işlemi başarısız oldu.
CF_FILE_FORMAT_REQUIRED
Gerekli seçenek bulunamadı: cloudFiles.format.
CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS
Konu başlığı <num>için Otomatik Yükleyici ön ekiyle (<topicName>) birden çok abonelik bulundu.
<subscriptionList>
Konu başına yalnızca bir abonelik olmalıdır. Lütfen konunuzun birden çok aboneliği olmadığından emin olun.
CF_GCP_AUTHENTICATION
Lütfen aşağıdakilerin tümünü sağlayın: <clientEmail>, <client>,
<privateKey>ve <privateKeyId> veya Databricks hizmeti kimlik bilgilerinizi kullanmak için <serviceCredential> sağlayın.
Alternatif olarak, GCP kaynaklarıyla kimlik doğrulaması için varsayılan GCP kimlik bilgisi sağlayıcısı zincirini kullanmak için bunların hiçbirini sağlamayın.
CF_GCP_LABELS_COUNT_EXCEEDED
GCP kaynağı için çok fazla etiket (<num>) alındı. Kaynak başına en fazla etiket sayısı <maxNum>'dır.
CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED
GCP kaynağı için çok fazla kaynak etiketi (<num>) alındı. Kaynak etiketleri kaynaklarda GCP etiketleri olarak depolandığından ve Databricks'e özgü etiketler bu etiket kotasının bir kısmını tükettiğinden kaynak başına en fazla kaynak etiketi sayısı <maxNum>olur.
CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG
Şema günlüğündeki yol <path>'da tamamlanmamış günlük dosyası
CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT
Otomatik Yükleyici denetim noktasında tamamlanmamış meta veri dosyası
CF_INCORRECT_BATCH_USAGE
CloudFiles bir akış kaynağıdır. Lütfen spark.read yerine spark.readStream kullanın. Bu denetimi devre dışı bırakmak için <cloudFilesFormatValidationEnabled> false olarak ayarlayın.
CF_INCORRECT_SQL_PARAMS
cloud_files yöntemi iki gerekli dize parametresi kabul eder: yüklenecek yol ve dosya biçimi. Dosya okuyucu seçenekleri bir dize anahtar-değer eşlemesinde sağlanmalıdır. örneğin, cloud_files("path", "json", map("option1", "value1")). Alındı: <params>
CF_INCORRECT_STREAM_USAGE
Akış kaynağı olarak 'cloudFiles' kullanmak için lütfen dosya biçimini 'cloudFiles.format' seçeneğiyle sağlayın ve DataFrame'inizi oluşturmak için .load() kullanın. Bu denetimi devre dışı bırakmak için <cloudFilesFormatValidationEnabled> false olarak ayarlayın.
CF_INTERNAL_ERROR
Otomatik Yükleyici bir iç hatayla karşılaştı. Yardım için lütfen Databricks desteğine başvurun.
Daha fazla ayrıntı için bkz. CF_INTERNAL_ERROR
CF_INVALID_ARN
Geçersiz ARN: <arn>
CF_INVALID_AZURE_CERTIFICATE
cloudFiles.certificate seçeneğiyle sağlanan özel anahtar ayrıştırılamaz. Lütfen PEM biçiminde geçerli bir ortak anahtar sağlayın.
CF_INVALID_AZURE_CERT_PRIVATE_KEY
cloudFiles.certificatePrivateKey seçeneğiyle sağlanan özel anahtar ayrıştırılamaz. Lütfen PEM biçiminde geçerli bir özel anahtar sağlayın.
CF_INVALID_CHECKPOINT
Bu denetim noktası geçerli bir CloudFiles kaynağı değil
CF_INVALID_CLEAN_SOURCE_MODE
Temiz kaynak seçeneği <value> için geçersiz mod.
CF_INVALID_GCP_RESOURCE_TAG_KEY
GCP kaynağı için geçersiz kaynak etiketi anahtarı: <key>. Tuşlar küçük harfle başlamalı, 1 ile 63 karakter uzunluğunda olmalı ve yalnızca küçük harf, sayı, alt çizgi (_) ve kısa çizgi (-) içermelidir.
CF_INVALID_GCP_RESOURCE_TAG_VALUE
GCP kaynağı için geçersiz kaynak etiketi değeri: <value>. Değerler 0 ile 63 karakter uzunluğunda olmalı ve yalnızca küçük harf, sayı, alt çizgi (_) ve kısa çizgi (-) içermelidir.
CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS
Otomatik Yükleyici, yönetilen dosya olaylarıyla kullanıldığında aşağıdaki seçenekleri desteklemez:
<optionList>
Bu seçenekleri kaldırmanızı ve ardından akışı yeniden başlatmanızı öneririz.
CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
Yönetilen dosya etkinlikleri servisinden geçersiz yanıt. Yardım için lütfen Databricks desteğine başvurun.
Daha fazla ayrıntı için bkz. CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
CF_INVALID_SCHEMA_EVOLUTION_MODE
cloudFiles.
<schemaEvolutionModeKey> { öğesinden biri olmalıdır
<addNewColumnsWithTypeWidening>
<addNewColumns>
<failOnNewColumns>
<rescue>
"<noEvolution>"}
CF_INVALID_SCHEMA_HINTS_OPTION
Şema ipuçları belirli bir sütunu yalnızca bir kez belirtebilir.
Bu durumda sütunu <columnName> olarak yeniden tanımla
schemaHints'te birden fazla kez:
<schemaHints>
CF_INVALID_SCHEMA_HINT_COLUMN
Şema ipuçları, eşlemelerin ve dizilerin iç içe yerleştirilmiş türlerini geçersiz kılmak için kullanılamaz.
Çakışan sütun: <columnName>
CF_LATEST_OFFSET_READ_LIMIT_REQUIRED
latestOffset bu kaynakta ReadLimit ile çağrılmalıdır.
CF_LOG_FILE_MALFORMED
Günlük dosyası hatalı biçimlendirilmiş: <fileName>, doğru günlük sürümünü okumakta başarısız oldu.
CF_MANAGED_FILE_EVENTS_BACKFILL_IN_PROGRESS
IncludeExistingFiles değerini false olarak ayarlayarak Otomatik Yükleyici'nin dış konumunuzdaki mevcut dosyaları yoksaymasını istediniz. Ancak, yönetilen dosya olayları hizmeti hala dış konumunuzdaki mevcut dosyaları bulmaya devam ediyor. Yönetilen dosya olayları dış konumunuzdaki tüm dosyaları bulmayı tamamladıktan sonra lütfen yeniden deneyin.
CF_MANAGED_FILE_EVENTS_ENDPOINT_NOT_FOUND
Otomatik Yükleyici'yi yönetilen dosya olaylarıyla kullanıyorsunuz, ancak '<path>' giriş yolunuz için dış konumda dosya olayları etkinleştirilmemiş veya giriş yolu geçersiz görünüyor. Databricks Yöneticinizden giriş yolunuz için dış konumda dosya olaylarını etkinleştirmesini isteyin.
CF_MANAGED_FILE_EVENTS_ENDPOINT_PERMISSION_DENIED
Otomatik Yükleyici'yi yönetilen dosya olaylarıyla kullanıyorsunuz, ancak '<path>' giriş yolu için dış konuma veya birime erişiminiz yok veya giriş yolu geçersiz. Lütfen Databricks Yöneticinizden dış konum veya birim için okuma izinleri vermesini veya mevcut bir dış konum veya birim içinde geçerli bir giriş yolu sağlamasını isteyin.
CF_MANAGED_FILE_EVENTS_INVALID_CONTINUATION_TOKEN
Akışınızın dosya olayları önbelleğindeki okuma konumu geçersiz kılındı. Bunun nedeni dosya olayları yapılandırmasının güncelleştirilmiş olmasıdır (örneğin, sağlanan kuyruk URL'si değiştirildi veya dosya olayları devre dışı bırakılıp yeniden etkinleştirildi). Yardım için lütfen Databricks desteğine başvurun.
CF_MANAGED_FILE_EVENTS_IS_PREVIEW
Auto Loader, yönetilen dosya olaylarına sahip bir önizleme işlevi olarak sunulmaktadır. Devam etmek için lütfen Databricks Desteği'ne başvurun veya cloudFiles.useManagedFileEvents seçeneğini kapatın.
CF_MANAGED_FILE_EVENTS_RATE_LIMIT_EXCEEDED
Çok fazla eşzamanlı Otomatik Yükleyici akışı çalışıyor. Sorunu çözmek için mümkünse akış eşzamanlılığını azaltın veya bir dış konumdaki birden çok alt dizinden yüklerken her alt dizin için ayrı birimler oluşturun. Sorun devam ederse Databricks temsilcinize başvurun.
CF_MAX_MUST_BE_POSITIVE
max pozitif olmalıdır
CF_METADATA_FILE_CONCURRENTLY_USED
Birden çok akış sorgusu eşzamanlı olarak <metadataFile> kullanıyor.
CF_MISSING_METADATA_FILE_ERROR
Akış kaynağı denetim noktası dizinindeki meta veri dosyası eksik. Bu meta veriler
dosyası akış için önemli varsayılan seçenekler içerdiğinden, akış yeniden başlatılamaz
Hemen şimdi. Yardım için lütfen Databricks desteğine başvurun.
CF_MISSING_PARTITION_COLUMN_ERROR
Bölüm sütunu <columnName> sağlanan şemada yok:
<schema>
CF_MISSING_SCHEMA_IN_PATHLESS_MODE
Dosya bildirim modu kullanılırken CloudFiles kaynağına yol sağlanmadıysa lütfen .schema() kullanarak bir şema belirtin. Alternatif olarak, Şemayı çıkarsamak için Otomatik Yükleyici'ye .load() içinde bir temel yol sağlayın.
CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC
Konu <topicName> için kova <bucketName>üzerinde mevcut bildirimler bulundu.
notification,id
<notificationList>
Abonenin istenmeyen olaylarla kirletilmesini önlemek için lütfen yukarıdaki bildirimleri silin ve yeniden deneyin.
CF_NEW_PARTITION_ERROR
Dosyalarınızdan yeni bölüm sütunları çıkarıldı: [<filesList>]. Lütfen şemanızdaki tüm bölüm sütunlarını sağlayın veya şunu kullanarak değerlerini ayıklamak istediğiniz bölüm sütunlarının listesini sağlayın: .option("cloudFiles.partitionColumns", "{comma-separated-list|empty-string}")
CF_PARTITON_INFERENCE_ERROR
Mevcut dosya kümesinin bölüm şeması çıkarılmaya çalışılırken bir hata oluştu. Lütfen bölüm sütunlarınızı açıkça belirtin: .option("cloudFiles.<partitionColumnOption>", "{comma-separated-list}")
CF_PATH_DOES_NOT_EXIST_FOR_READ_FILES
Giriş yolu <path> olmadığında dosyalar okunamıyor. Lütfen giriş yolunun mevcut olduğundan emin olun ve yeniden deneyin.
CF_PERIODIC_BACKFILL_NOT_SUPPORTED
Zaman uyumsuz geri doldurma devre dışı bırakılırsa düzenli doldurma desteklenmez.
spark.databricks.cloudFiles.asyncDirListing'ı true olarak ayarlayarak eşzamansız geri doldurma/dizin listesini etkinleştirebilirsiniz.
CF_PREFIX_MISMATCH
Eşleşmeyen olay bulundu: anahtarın <key> ön eki yok: <prefix>
CF_PROTOCOL_MISMATCH
<message>
Kodunuzda başka bir değişiklik yapmanız gerekmiyorsa lütfen SQL'i ayarlayın
yapılandırma: '<sourceProtocolVersionKey> = <value>'
Yayınınıza devam etmek için. Lütfen şuraya bakın:
<docLink>
daha fazla ayrıntı için.
CF_REGION_NOT_FOUND_ERROR
Varsayılan AWS Bölgesi alınamadı. Lütfen cloudFiles.region seçeneğini kullanarak bir bölge belirtin.
CF_RESOURCE_SUFFIX_EMPTY
Bildirim hizmetleri oluşturulamadı: Kaynak son eki boş olamaz.
CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS
Bildirim hizmetleri oluşturulamadı: Kaynak son ekinde yalnızca alfasayısal karakterler, kısa çizgiler (-) ve alt çizgi (_) bulunabilir.
CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE
Bildirim hizmetleri oluşturulamadı: Kaynak son eki yalnızca küçük harf, sayı ve tire (-) içerebilir.
CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP
Bildirim hizmetleri oluşturulamadı: Kaynak son ekinde yalnızca alfasayısal karakterler, kısa çizgi (-), alt çizgi (_), nokta (.), tildes (~) artı işaretleri (+) ve yüzde işaretleri (<percentSign>) bulunabilir.
CF_RESOURCE_SUFFIX_LIMIT
Bildirim servisleri oluşturulamadı: Kaynak son eki <limit> karakterden uzun olamaz.
CF_RESOURCE_SUFFIX_LIMIT_GCP
Bildirim hizmetleri oluşturulamadı: Kaynağın soneki <lowerLimit> ile <upperLimit> karakterleri arasında olmalıdır.
CF_RESTRICTED_GCP_RESOURCE_TAG_KEY
Kısıtlanmış GCP kaynak etiketi anahtarı bulundu (<key>). Aşağıdaki GCP kaynak etiketi anahtarları Otomatik Yükleyici için kısıtlanmıştır: [<restrictedKeys>]
CF_RETENTION_GREATER_THAN_MAX_FILE_AGE
cloudFiles.cleanSource.retentionDuration, cloudFiles.maxFileAge değerinden büyük olamaz.
CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX
<topic> konusuyla, önek: <prefix> ile bildirim oluşturulamadı. Farklı bir önekle aynı isimde bir konu zaten var: <oldPrefix>. Kurulum için farklı bir kaynak son eki kullanmayı deneyin veya mevcut kurulumu silin.
CF_SCHEMA_LOG_DEEP_CLONE_FAILED
Kaynak şema günlüğünden herhangi bir şema günlüğü girişi klonlanıp taşınamadı.
CF_SFTP_MISSING_PASSWORD_OR_KEY_FILE
SFTP için parola veya anahtar dosyası belirtilmelidir.
Lütfen kaynak uri'de veya <passwordOption>aracılığıyla parolayı belirtin veya anahtar dosya içeriğini <keyFileOption>aracılığıyla belirtin.
CF_SFTP_NOT_ENABLED
SFTP dosyalarına erişim etkinleştirilmedi. Yardım için lütfen Databricks desteğine başvurun.
CF_SFTP_REQUIRE_FULL_PATH
Doğru UC bağlantısı araması yapmak için SFTP kaynağının tam yol bileşenlerini sftp://$user@$host:$port/$path biçiminde belirtin.
CF_SFTP_REQUIRE_UC_CLUSTER
SFTP dosyalarına erişmek için UC özellikli bir küme gereklidir. Yardım için lütfen Databricks desteğine başvurun.
CF_SFTP_USERNAME_NOT_FOUND
SFTP için kullanıcı adı belirtilmelidir.
Lütfen kaynak uri'de veya <option>aracılığıyla kullanıcı adını belirtin.
CF_SOURCE_DIRECTORY_PATH_REQUIRED
Lütfen kaynak dizin yolunu path seçeneğiyle belirtin
CF_SOURCE_UNSUPPORTED
Bulut dosyaları kaynağı şu anda yalnızca S3, Azure Blob Depolama (wasb/wasbs) ve Azure Data Lake 1. Nesil (adl) ve 2. Nesil (abfs/abfss) yollarını destekler. yol: '<path>', çözümlenen uri: '<uri>'
CF_STATE_INCORRECT_SQL_PARAMS
cloud_files_state işlevi, cloudFiles akışının denetim noktası dizinini temsil eden bir dize parametresini veya akış tablosunu tanımlayan çok parçalı tableName değerini ve yüklenecek denetim noktası sürümünü temsil eden isteğe bağlı ikinci bir tamsayı parametresini kabul eder. İkinci parametre de en son denetim noktasını okumak için 'en son' olabilir. Alındı: <params>
CF_STATE_INVALID_CHECKPOINT_PATH
Giriş denetim noktası yolu <path> geçersiz. Yol yok veya cloud_files kaynağı bulunamadı.
CF_STATE_INVALID_VERSION
Belirtilen sürüm <version> yok veya analiz sırasında kaldırıldı.
CF_THREAD_IS_DEAD
<threadName> thread sonlandı.
CF_UNABLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION
Kaynak denetim noktası konumundan akış denetim noktası konumu türetilemiyor: <checkPointLocation>
CF_UNABLE_TO_DETECT_FILE_FORMAT
Örneklenmiş dosyalardan <fileSize> kaynak dosya biçimi algılanamadı, <formats> bulundu. Lütfen biçimi belirtin.
CF_UNABLE_TO_EXTRACT_BUCKET_INFO
Veri kümesi bilgileri ayıklanamıyor. Yol: '<path>', çözümlenen uri: '<uri>'.
CF_UNABLE_TO_EXTRACT_KEY_INFO
Anahtar bilgi çıkartılamıyor. Yol: '<path>', çözümlenen uri: '<uri>'.
CF_UNABLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO
Depolama hesabı bilgileri ayıklanamıyor; yol: '<path>', çözümlenen URI: '<uri>'
CF_UNABLE_TO_LIST_EFFICIENTLY
<path>yolu için bir dizin yeniden adlandırma olayı alındı, ancak bu dizini verimli bir şekilde listeleyemedik. Akışın devam etmesi için 'cloudFiles.ignoreDirRenames' seçeneğini true olarak ayarlayın ve bu verilerin işlenmesi için cloudFiles.backfillInterval ile normal yedeklemeleri etkinleştirmeyi göz önünde bulundurun.
CF_UNEXPECTED_READ_LIMIT
Beklenmeyen OkumaSınırı: <readLimit>
CF_UNKNOWN_OPTION_KEYS_ERROR
Bilinmeyen seçenek anahtarları bulundu:
<optionList>
Sağlanan tüm seçenek anahtarlarının doğru olduğundan emin olun. Aşağıdakini atlamak istiyorsanız
Seçeneklerinizi doğrulamak ve bilinmeyen bu seçenekleri yoksaymak için şunları ayarlayabilirsiniz:
.option("cloudFiles.<validateOptions>", "false")
CF_UNKNOWN_READ_LIMIT
Bilinmeyen Okuma Limiti: <readLimit>
CF_UNSUPPORTED_CLEAN_SOURCE_MOVE
cleanSource 'move' modu yapılandırması desteklenmiyor.
Daha fazla ayrıntı için bkz. CF_UNSUPPORTED_CLEAN_SOURCE_MOVE
CF_UNSUPPORTED_CLOUD_FILES_SQL_FUNCTION
Otomatik Yükleyici akış kaynağı oluşturmak için 'cloud_files' SQL işlevi yalnızca Lakeflow Spark Bildirimli İşlem Hatları işlem hattında desteklenir. Diğer ayrıntılara şu adreste bakın:
<docLink>
CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE
Şema çıkarımı şu biçim için desteklenmez: <format>. Lütfen şemayı belirtin.
CF_UNSUPPORTED_LOG_VERSION
UnsupportedLogVersion: desteklenen günlük sürümünün en yükseği v<maxVersion>, ancak v<version>ile karşılaşıldı. Günlük dosyası daha yeni bir DBR sürümü tarafından oluşturuldu ve bu sürüm tarafından okunamıyor. Lütfen yükseltin.
CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE
Şema geliştirme modu <mode>, <format>biçimi için desteklenmiyor. Şema geliştirme modunu 'none' olarak ayarlayın.
CF_USE_DELTA_FORMAT
Delta tablosundan okuma bu söz diziminde desteklenmez. Delta'dan veri kullanmak istiyorsanız lütfen belgelere bakın: Delta tablosunu okuma (<deltaDocLink>) veya Delta tablosunu akış kaynağı olarak okuma (<streamDeltaDocLink>). Delta'dan gelen akış kaynağı, artımlı veri tüketimi için zaten en iyi duruma getirilmiştir.
Geospatial
EWKB_PARSE_ERROR
EWKB ayrıştırma hatası: <parseError> konumunda <pos>
Daha fazla ayrıntı için bkz. EWKB_PARSE_ERROR
EWKT_PARSE_ERROR
EWKT ayrıştırma hatası: <parseError> konumda <pos>
Daha fazla ayrıntı için bkz. EWKT_PARSE_ERROR
GEOJSON_PARSE_ERROR
GeoJSON ayrıştırma hatası: <parseError> konumunda <pos>
Daha fazla ayrıntı için bkz. GEOJSON_PARSE_ERROR
GEO_ENCODER_SRID_MISMATCH_ERROR
Kodlanacak <type> değerinin sağlanan SRID <valueSrid> ile SRID türü: <typeSrid> uyumlu olmaması nedeniyle değer kodlanamadı.
H3_INVALID_CELL_ID
<h3Cell> geçerli bir H3 hücre kimliği değil
Daha fazla ayrıntı için bkz. H3_INVALID_CELL_ID
H3_INVALID_GRID_DISTANCE_VALUE
H3 kılavuz uzaklığı <k> negatif olmamalıdır
Daha fazla ayrıntı için bkz. H3_INVALID_GRID_DISTANCE_VALUE
H3_INVALID_RESOLUTION_VALUE
H3 çözünürlük <r><minR> ile <maxR>arasında olmalıdır( dahil)
Daha fazla ayrıntı için bkz. H3_INVALID_RESOLUTION_VALUE
H3_NOT_ENABLED
<h3Expression> devre dışı bırakıldı veya desteklenmiyor. H3 ifadelerini destekleyen bir katmana geçmeyi göz önünde bulundurun
Daha fazla ayrıntı için bkz. H3_NOT_ENABLED
H3_PENTAGON_ENCOUNTERED_ERROR
<h3Cell> altıgen halkasını, kılavuz uzaklığı <k> ile hesaplama sırasında bir beşgenle karşılaşıldı.
H3_UNDEFINED_GRID_DISTANCE
<h3Cell1> ile <h3Cell2> arasındaki H3 kılavuz uzaklığı tanımlanmamış
ST_DIFFERENT_SRID_VALUES
"<sqlFunction>" bağımsız değişkenleri aynı SRID değerine sahip olmalıdır. SRID değerleri bulundu: <srid1>, <srid2>
ST_GEÇERSİZ_ARGÜMAN
"<sqlFunction>":
Daha fazla ayrıntı için bkz. ST_INVALID_ARGUMENT
ST_INVALID_CRS_TRANSFORMATION_ERROR
<sqlFunction>: SRID <srcSrid>'den SRID <trgSrid>'a geçersiz veya desteklenmeyen CRS dönüşümü
ST_INVALID_PRECISION_VALUE
Hassasiyet <p>, <minP> ile <maxP>arasında (dahil) olmalıdır.
ST_NOT_ENABLED
<stExpression> devre dışı bırakıldı veya desteklenmiyor. ST ifadelerini destekleyen bir katmana geçmeyi göz önünde bulundurun
WKB_PARSE_ERROR
WKB ayrıştırma hatası: <parseError> konumunda <pos>
Daha fazla ayrıntı için bkz. WKB_PARSE_ERROR
WKT_PARSE_ERROR
WKT ayrıştırma hatası: <parseError> konumunda <pos>
Daha fazla ayrıntı için bkz. WKT_PARSE_ERROR
Unity Kataloğu
CANNOT_DROP_TAGGED_COLUMN
Atanmış bir veya daha fazla yönetilen etiket olduğundan sütun bırakılamıyor. Sütunu bırakmadan önce lütfen etiketlerini kaldırın. Yönergeler için lütfen belgelerine bakın <docLink>.
ÇOCUK_OLUŞTURMA_YASAK_YABANCI_GÜVENLİK_SAĞLANABİLİR
Türü <childSecurableName> olan güvenlik nesnesi, <childSecurableType> türünden üst <parentSecurableName> içinde oluşturulamaz.
Sütun Formatı Sütun Türüyle Uyumsuz
Sütun<columnName>, sütun türüyle uyumlu olmayan bir biçime <formatType>sahiptir<columnType>.
CONFLICTING_COLUMN_NAMES_ERROR
Sütun <columnName> , aynı ada sahip ancak sonunda boşluklar olan/olmayan başka bir sütunla çakıyor (örneğin, adlı <columnName> mevcut bir sütun). Lütfen sütunu farklı bir adla yeniden adlandırın.
CONNECTION_CREDENTIALS_NOT_SUPPORTED_FOR_ONLINE_TABLE_CONNECTION
<connectionType>türündeki bağlantı için bağlantı düzeyi kimlik bilgilerini alma isteği geçersiz. Bu tür kimlik bilgileri yalnızca yönetilen PostgreSQL bağlantıları için kullanılabilir.
CONNECTION_TYPE_NOT_ENABLED
'<connectionType>' bağlantı türü etkin değil. Lütfen kullanmak için bağlantıyı etkinleştirin.
DELTA_PAYLAŞIM_YETKİLENDİRME_DURUMU_AKTİF_DEĞİL
'<securableFullName>' paylaşılan varlığı, ilgili kaynak varlıkla henüz tam olarak eşitlenmediğinden şu anda kullanılamıyor. Nedeni: <reason>.
DELTA_SHARING_READ_ONLY_RECIPIENT_EXISTS
'<existingRecipientName>' paylaşım tanımlayıcısına sahip '<existingMetastoreId>' Alıcı nesnesi zaten var.
DELTA_SHARING_READ_ONLY_SECURABLE_KIND
Delta Sharing Securable Kind <securableKindName> verileri salt okunur durumdadır ve oluşturulamaz, değiştirilemez veya silinemez.
DISASTER_RECOVERY_READ_ONLY
Olağanüstü Durum Kurtarma tarafından yönetilen bir çoğaltma kataloğu <catalogName> içindeki veriler salt okunurdur ve oluşturulamaz, değiştirilemez veya silinemez.
EXTERNAL_ACCESS_DISABLED_ON_METASTORE
Databricks Olmayan İşlem ortamı için meta veri deposu <metastoreName>üzerinde Dış Veri Erişiminin devre dışı bırakılması nedeniyle kimlik bilgisi satışı reddedildi. Meta veri deposunda 'Dış Veri Erişimi' yapılandırmasını etkinleştirmek için lütfen meta veri deposu yöneticinize başvurun.
EXTERNAL_ACCESS_NOT_ALLOWED_FOR_TABLE
Kimliği <tableId> olan tabloya türü <securableKind>nedeniyle Databricks İşlem Ortamı dışından erişilemiyor. Yalnızca 'TABLE_EXTERNAL', 'TABLE_DELTA_EXTERNAL' ve 'TABLE_DELTA' tablo türlerine dışarıdan erişilebilir.
EXTERNAL_USE_SCHEMA_ASSIGNED_TO_INCORRECT_SECURABLE_TYPE
Ayrıcalık EXTERNAL USE SCHEMA bu varlık <assignedSecurableType> için geçerli değildir ve yalnızca şemaya veya kataloğa atanabilir. Lütfen <assignedSecurableType> nesnesinden ayrıcalığı kaldırın ve bunun yerine bir şemaya veya kataloğa atayın.
EXTERNAL_WRITE_NOT_ALLOWED_FOR_TABLE
Kimliği <tableId> olan tablo türü <securableKind>olduğundan Databricks İşlem Ortamı dışından yazılamaz. Yalnızca 'TABLE_EXTERNAL' ve 'TABLE_DELTA_EXTERNAL' tablo türleri dışarıdan yazılabilir.
FOREIGN_CATALOG_STORAGE_ROOT_MUST_SUPPORT_WRITES
<catalogType> türündeki yabancı bir kataloğun depolama konumu, verilerin kaldırılması için kullanılır ve salt okunur olamaz.
HMS_SECURABLE_OVERLAP_LIMIT_EXCEEDED
Giriş yolu <resourceType> için <url>sayısı, çakışan HMS <overlapLimit>için izin verilen sınırı (<resourceType>) aşıyor.
GEÇERSİZ_VERİ_KAYNAĞI_FORMATI
'<datasourceFormat>' veri kaynağı biçimi desteklenmiyor<tableTypeSuffix> <catalogKindSuffix>.
INVALID_NAME_FORMAT
<fieldDescription> geçerli bir ad değil. Geçerli adlar yalnızca alfasayısal karakterler ve alt çizgi içermelidir ve boşluk, nokta, eğik çizgi veya denetim karakteri içeremez.
INVALID_RESOURCE_NAME_DELTA_SHARING
Delta Sharing istekleri kaynak adları kullanılarak desteklenmez
INVALID_RESOURCE_NAME_ENTITY_TYPE
Sağlanan kaynak adı, <provided> varlık türüne atıfta bulunuyor ancak beklenen <expected> türüydü.
INVALID_RESOURCE_NAME_METASTORE_ID
Sağlanan kaynak adı, geçerli istek kapsamında olmayan bir meta veri deposuna başvurur
INVALID_SECURABLE_NAME
<rpcName> geçersiz <securableType> ad: '<securableFullName>'
LOCATION_OVERLAP
'<path>' giriş yolu URL'si, '<overlappingLocation>' çağrısı içinde <caller> ile çakışıyor.
<conflictingSummary>. <permissionErrorSuggestion>
LOCATION_OVERLAP_STORAGE_CONFLICT_WITH_WORKSPACE_STORAGE
Müşteri tanımlı depolama konumu, '<path><caller>' işlemi sırasında '' çalışma alanı varsayılan depolama alanıyla çakişer. Bu, çalışma alanı depolamayı kullanan özelliklerin çalışmasını engeller. Çakışma özeti: <conflictingSummary>. Düzeltme adımları için bkz https://docs.databricks.com/aws/en/data-governance/unity-catalog/storage-conflicts .
YÖNETİLEN_TABLO_FORMATI
Yönetilen tablolar için yalnızca Delta desteklenir. Sağlanan veri kaynağı biçimi şeklindedir <datasourceFormat>.
MONGO_DB_SRV_CONNECTION_STRING_DOES_NOT_ALLOW_PORT
MongoDB SRV bağlantı dizesi bağlantı noktası gerektirmediğinden MongoDB bağlantısı oluşturmaya veya güncelleştirmeye izin verilmez.
SRV bağlantı dizesi bağlantı noktası gerektirmediğinden lütfen bağlantı noktasını kaldırın.
ANA_BİLGİ_YOK
<principalName> adlı yetkili bulunamadı.
AYRICALIK_DESTEĞİ_ETKİN_DEĞİL
[<typeString>] türü için ayrıcalık desteği etkinleştirilmedi
PRIVILEGE_NOT_APPLICABLE_TO_ENTITY
Ayrıcalık <privilege> bu varlık [<classifier>] için geçerli değil. Bu beklenmeyen görünüyorsa, lütfen [<privilegeVersion>] kullanılan meta veri deposunun ayrıcalık sürümünü denetleyin.
SALT_OKUNUR_KATALOG
Delta Sharing Kataloğu içindeki veriler salt okunur durumdadır ve oluşturulamıyor, değiştirilemez veya silinemez. '<catalogName>' kataloğu bir Delta Sharing Kataloğudur.
REDSHIFT_FOREIGN_CATALOG_STORAGE_ROOT_MUST_BE_S3
Redshift yabancı kataloğunun depolama kökü AWS S3 olmalıdır.
SCHEMA_NOT_EMPTY
'<fullName>' şeması boş değil. <extraInfo>
SECURABLE_KIND_DOES_NOT_SUPPORT_LAKEHOUSE_FEDERATION
Lakehouse Federasyonu'nu desteklemeyen tür <securableKind> ile güvenli hale getirilebilir.
SECURABLE_KIND_NOT_ENABLED
Güvenliği sağlanabilir '<securableKind>' türü etkinleştirilmedi. Bu, önizleme özelliğiyle ilişkili güvenli hale getirilebilir bir türse, lütfen çalışma alanı ayarlarında etkinleştirin.
SECURABLE_TYPE_DOES_NOT_SUPPORT_LAKEHOUSE_FEDERATION
<securableType> türüyle güvenli hale getirilebilir, Lakehouse Federasyonu'nu desteklemez.
SOURCE_TABLE_COLUMN_COUNT_EXCEEDS_LIMIT
Kaynak tabloda <columnCount>'den fazla sütun vardır. Lütfen sütun sayısını <columnLimitation> veya daha az olacak şekilde azaltın.
Sistem Hizmeti Prensibi Kaydedilmedi
kaynak adına <servicePrincipalResource> sahip olan kayıtlı sistem hizmet sorumlusu bulunamadı.
TABLE_TİPİ_SÜTUN_METAVERİSİNİ_DESTEKLEMİYOR
Tablo türü <tableType> sütun meta verilerini desteklemez.
UC_AAD_CLIENT_SECRET_EXPIRED_FOR_SERVICE_PRINCIPAL
Uygulama kimliğine <applicationId> sahip hizmet sorumlusu için istemci gizli anahtarlarının süresi doldu. Hizmet sorumlunuz için yeni anahtarlar oluşturmak için Azure portalını ziyaret edin.
UC_AAD_CLIENT_SECRET_EXPIRED_FOR_STORAGE_CREDENTIAL
Depolama kimlik bilgileri <storageCredentialName> için istemci gizli anahtarlarının süresi doldu. Depolama kimlik bilgilerini güncelleştirmek için sahibine veya hesap yöneticinize başvurun.
UC_AAD_CLIENT_SECRET_INVALID_FOR_SERVICE_PRINCIPAL
Uygulama kimliğine <applicationId> sahip hizmet sorumlusu için istemci gizli anahtarı geçerli değil.
UC_AAD_SERVICE_PRINCIPAL_CONFIG_INVALID
Hizmet sorumlusu yapılandırması geçerli değil. Dizin Kimliği, Uygulama Kimliği ve İstemci Gizli Anahtarı'nı doğrulayın.
UC_AAD_TOKEN_EXCHANGE_GENERIC_FAILURE
Kimlik bilgileri alınamadı: Depolama Kimlik Bilgileri <storageCredentialName> doğru yapılandırılmadı. Yapılandırmayı güncelleştirmek için sahibine veya hesap yöneticinize başvurun.
UC_AAD_TOKEN_LIFETIME_TOO_SHORT
Değiştirilen AAD belirtecinin ömrü <lifetime> olarak yapılandırılmış ve bu süre çok kısa. Geçici erişim belirtecinin en az bir saatlik ömrü olduğundan emin olmak için lütfen Azure AD ayarınızı denetleyin. https://learn.microsoft.com/azure/active-directory/develop/active-directory-configurable-token-lifetimes
UC_ABAC_AMBIGUOUS_COLUMN_MATCH
'<resource>' üzerinde ABAC ilkeleri değerlendirilirken hata oluştu. 'Politika '<policyName>' şu mesajla başarısız oldu: '<alias>' takma adı kullanıldığında <size> eşleşme bulundu, yalnızca tam olarak 1 eşleşme izinli.
UC_ABAC_DEPENDENCY_COMPLEXITY_LIMIT_EXCEEDED
<resourceType> '<ref>' çok fazla <resolverType> abac bağımlılığına sahip.
UC_ABAC_DEPENDENCY_DIFFERING_RF_CM
'<dependency>' bağımlılığına birden çok kez başvurulur ve farklı ABAC satır filtreleri veya sütun maskeleriyle sonuçlanır.
UC_ABAC_EVALUATION_USER_ERROR
'<resource>' üzerinde ABAC ilkeleri değerlendirilirken hata oluştu. '<policyName>' politikası şu mesajla başarısız oldu: <message>.
UC_ABAC_INVALID_TAG_POLICY_VALUE
'<resource>' üzerinde ABAC ilkeleri değerlendirilirken hata oluştu. Mesajıyla başarısız oldu: anahtar <tagValue> için <tagKey> geçersiz etiket ilke değeri.
UC_ABAC_MULTIPLE_ROW_FILTERS
'<resource>' üzerinde ABAC ilkelerinin değerlendirilmesi birden çok satır filtresine neden oldu. En fazla bir satır filtresine izin verilir.
UC_ABAC_UNKNOWN_TAG_POLICY
'<resource>' üzerinde ABAC ilkeleri değerlendirilirken hata oluştu. Hata mesajıyla işlem başarısız oldu: Bilinmeyen etiket ilkesi: <tagKey>.
UC_ABAC_KULLANILAN_SÜTUNLARDA_EŞLEŞSİZ_TAKMA_AD
'<resource>' üzerinde ABAC ilkeleri değerlendirilirken hata oluştu. Hata iletisiyle başarısız oldu: <alias> içinde kullanılan 'USING COLUMNS' diğer adı hiçbir sütunla eşleşmedi.
UC_ABAC_UNMATCHED_ON_COLUMN_ALIAS
'<resource>' üzerinde ABAC ilkeleri değerlendirilirken hata oluştu. "<policyName>' ilkesi şu iletiyle başarısız oldu: <alias> içinde kullanılan 'ON COLUMN' diğer adı hiçbir sütunla eşleşmedi."
UC_ABAC_UNMATCHED_USING_ALIAS
'<resource>' üzerinde ABAC ilkeleri değerlendirilirken hata oluştu. '<policyName>' ilkesi şu mesajla başarısız oldu: '<alias>' diğer adı, eşleşen bir sütun içermiyor.
UC_ABAC_USING_REF_OF_NATIVE_MASKED_COLUMNS
'<resource>' üzerinde ABAC ilkeleri değerlendirilirken hata oluştu. İletiyle başarısız oldu: '<usingCol>' sütunu yerel RLS/CM ilkesi tarafından maskelendi ve ''<policyName> ABAC ilkesine giriş olarak kullanılamaz.
(If applicable based on context and confirmation that translation is needed) UC_Erişimi_Çalışma Alanı_Gerektirir
Kullanıcı ilişkili çalışma alanına atanmadığı için çalışma alanına bağlı güvenli öğeye erişilemiyor.
UC_ALTER_DLT_VIEW_OUTSIDE_DEFINING_PIPELINE
'<viewFullName>' görünümünü tanımlayan işlem hattının dışında değiştirmeye izin verilmiyor. Bunun yerine, görünüm tanımını tanımlayan işlem hattından güncelleştirin (İşlem Hattı Kimliği: <owningPipelineId>).
UC_ATLAS_NOT_ENABLED_FOR_CALLING_SERVICE
Atlas, çağrı hizmeti <serviceName>için etkinleştirilmedi.
UC_AUTHZ_ACTION_NOT_SUPPORTED
yetkilendirme <actionName> desteklenmez; Lütfen çağrılan RPC'nin bu kaynak türü için uygulandığını denetleyin
UC_AWS_ASSUME_ROLE_FAILED
Kimlik bilgileri alınamadı: Unity Kataloğu kimlik bilgilerindeki AWS IAM rolü doğru yapılandırılmadı. AWS'deki yapılandırmayı güncelleştirmek için lütfen meta veri deposu yöneticinize veya kimlik bilgisi sahibine başvurun.
UC_AWS_EMPTY_STORAGE_LOCATION
Boş depolama konumu.
UC_AWS_INVALID_S3_POLICY_PREFIX
Depolama konumu için geçersiz s3 yolu: S3 yolu <providedPath> beklenen ön ekle başlamıyor: <expectedPrefix>.
UC_AWS_UNSUPPORTED_S3_SCHEME
Depolama konumu için geçersiz s3 yolu: Desteklenmeyen düzen bulundu: <providedScheme>. Desteklenen Şemalar şunlardır: <supportedS3Schemes>.
UC_AZURE_BLOB_SERVICE_UNAVAILABLE
Azure Blob hizmeti geçici olarak kullanılamıyor. Daha sonra yeniden deneyin.
UC_AZURE_UDK_UNAUTHORIZED
Kullanıcı temsilcisi anahtarı isteği yetkilendirilmedi. Ayrıntılar: <details>
UC_BUILTIN_HMS_CONNECTION_CREATION_PERMISSION_DENIED
Kullanıcı: <userId> çalışma alanının yöneticisi olmadığından yerleşik hive meta veri deposu için bağlantı oluşturulamıyor: <workspaceId>
UC_BUILTIN_HMS_CONNECTION_MODIFY_RESTRICTED_FIELD
'' yerleşik HMS bağlantısındaki<connectionName> kısıtlı bir alanı değiştirmeyi deneme. Yalnızca 'warehouse_directory' güncelleştirilebilir.
UC_CANNOT_RENAME_PARTITION_FILTERING_COLUMN
<originalLogicalColumn> sütunu, <sharedTableName> bölüm filtrelemesinde kullanıldığı için yeniden adlandırılamadı. Devam etmek için tabloyu paylaşımdan kaldırabilir, sütunu yeniden adlandırabilir ve istediğiniz bölüm filtreleme sütunlarıyla yeniden paylaşabilirsiniz. Ancak, bu durum alıcınızın akış sorgusunu bozabilir.
UC_CHILD_CREATION_FORBIDDEN_FOR_NON_UC_CLUSTER
"<securableType> '<securable>' altında <parentSecurableType> '<parentSecurable>' oluşturulamaz çünkü istek bir UC kümesinden gelmiyor."
UC_CONFLICTING_CONNECTION_ALLOW_LIST_OPTIONS
Bağlantı seçeneğiyle çakışan bir izin listesiyle bağlantı oluşturulamaz. Değer: <conflictingOptions>
UC_CONFLICTING_CONNECTION_OPTIONS
Hem kullanıcı adı/parola hem de oauth kimlik doğrulaması seçenekleriyle bağlantı oluşturulamıyor. Lütfen birini seçin.
UC_CONNECTION_CREDENTIALS_MAXIMUM_REACHED
'<connectionName>' bağlantı adı için en fazla kimlik bilgisi sayısına ulaşıldı. Yeni bir kimlik bilgisi oluşturmadan önce lütfen mevcut kimlik bilgilerini silin.
UC_CONNECTION_CREDENTIALS_NOT_EXIST_FOR_USER_WITH_LOGIN
'<userIdentity>' bağlantısı için kullanıcı kimliği ('<connectionName>') kimlik bilgileri bulunamadı. Lütfen adresini ziyaret ederek önce bağlantıda oturum açın <connectionPage>
UC_CONNECTION_CREDENTIALS_TYPE_NOT_SUPPORTED
Güvenli hale getirilebilir '<securableType>' türü için kimlik bilgileri oluşturma desteklenmez. Desteklenen güvenli hale getirilebilir türler: <allowedSecurableType>.
UC_CONNECTION_EXISTS_FOR_CREDENTIAL
'<credentialName>' kimlik bilgilerinin bir veya daha fazla bağımlı bağlantısı var. Kimlik bilgilerini güncelleştirmeye veya silmeye devam etmek için zorla seçeneğini kullanabilirsiniz, ancak bu kimlik bilgilerini kullanan bağlantılar artık çalışmayabilir.
UC_CONNECTION_EXPIRED_ACCESS_TOKEN
Bağlantıyla ilişkili erişim belirtecinin süresi doldu. Bir belirteci almak için OAuth akışını yeniden başlatmak için lütfen bağlantıyı güncelleştirin.
UC_CONNECTION_EXPIRED_REFRESH_TOKEN
Bağlantıyla ilişkili yenileme belirtecinin süresi doldu. Yeni bir belirteç almak için OAuth akışını yeniden başlatmak için lütfen bağlantıyı güncelleştirin.
UC_CONNECTION_IN_FAILED_STATE
Bağlantı FAILED durumunda. Bağlantıyı yeniden etkinleştirmek için lütfen geçerli kimlik bilgileriyle güncelleştirin.
UC_CONNECTION_MISSING_OPTION
Güvenli hale getirilebilir '<securableType>' türündeki bağlantılar aşağıdaki seçenekleri içermelidir: <requiredOptions>.
UC_CONNECTION_MISSING_REFRESH_TOKEN
Bağlantıyla ilişkilendirilen herhangi bir yenileme belirteci yok. Yenileme belirteçlerini döndürmek için kimlik sağlayıcınızdaki OAuth istemci tümleştirmesini güncelleştirin ve OAuth akışını yeniden başlatmak ve gerekli belirteçleri almak için bağlantıyı güncelleştirin veya yeniden oluşturun.
UC_CONNECTION_OAUTH_EXCHANGE_FAILED
OAuth belirteci değişimi http durum kodu <httpStatus>ile başarısız oldu. Döndürülen sunucu yanıtı veya özel durum iletisi: <response>
UC_CONNECTION_OPTION_NOT_SUPPORTED
Güvenliği sağlanabilir '<securableType>' türündeki bağlantılar aşağıdaki seçenekleri desteklemez: <optionsNotSupported>. Desteklenen seçenekler: <allowedOptions>.
UC_COORDINATED_COMMITS_NOT_ENABLED
Eşgüdümlü taahhütler için destek etkin değildir. Lütfen Databricks desteğine başvurun.
UC_CREATE_FORBIDDEN_UNDER_INACTIVE_SECURABLE
<securableType> '<securableName>' etkin olmayan bir <parentSecurableType> '<parentSecurableName>' altındayken oluşturulamıyor. Lütfen güvenlik atanabilir ana öğeyi silin ve ana öğeyi yeniden oluşturun.
UC_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED
Sağlanan erişim bağlayıcısı kimliği ayrıştırılamadı: <accessConnectorId>. Lütfen biçimlendirmesini doğrulayın ve yeniden deneyin.
UC_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN
Bulut izin doğrulaması için bir erişim bağlayıcısında AAD belirteci alınamadı. Lütfen eylemi yeniden deneyin.
UC_CREDENTIAL_INVALID_CLOUD_PERMISSIONS
SQLSTATE: hiçbiri atanmadı
İlgili erişim bağlayıcısı üzerinde ID <accessConnectorId>'a sahip katılımcı rolü, kimlik bilgilerinin kaydedilmesi için gereklidir. Lütfen hesap yöneticinize başvurun.
UC_CREDENTIAL_INVALID_CREDENTIAL_TYPE_FOR_PURPOSE
'<credentialType>' kimlik bilgisi türü '<credentialPurpose>' amacıyla desteklenmiyor
UC_CREDENTIAL_PERMISSION_DENIED
SQLSTATE: hiçbiri atanmadı
yalnızca hesap yöneticisi <storageCredentialType>türünde bir kimlik bilgisi oluşturabilir veya güncelleştirebilir.
UC_CREDENTIAL_TRUST_POLICY_IS_OPEN
IAM rolünün güven ilkesi, Databricks Hesabının rolü üstlenmesine izin vermek için bir dış kimlik gerektirmelidir. Dış kimlik koşulunu eklemek için lütfen hesap yöneticinize başvurun. Bu davranış, Karışık Vekil Problemi'ne https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html karşı koruma sağlamayı amaçlamaktadır.
UC_CREDENTIAL_WORKSPACE_API_PROHIBITED
Hesap düzeyi API'sinde hesap dışı yönetici olarak kimlik bilgisi oluşturma veya güncelleştirme desteklenmez. Lütfen bunun yerine çalışma alanı düzeyinde API'yi kullanın.
UC_DBR_TRUST_VERSION_TOO_OLD
Kullanılan Databricks Runtime artık bu işlemi desteklememektedir. Lütfen en son sürümü kullanın (kümenizi yeniden başlatmanız gerekebilir).
UC_DELTA_ILLEGAL_BACKFILLED_VERSION
İşlemede beklenmeyen latestBackfilledVersion <latestBackfilledVersion> (<version>, <commitType> ).
UC_DELTA_ILLEGAL_CONCURRENT_MIGRATION
Katalog tarafından yönetilen bir tabloya eş zamanlı yükseltme veya sürüm düşürme desteklenmez. Geçiş komutunu aynı anda yalnızca bir işlemin çalıştırdığından emin olun. Yinelenen bir öğe <commitType> algılandı.
UC_DELTA_ILLEGAL_MIGRATION_STATE_CHANGE
Eski işleme türünden <lastCommitType> yeni <commitType>öğesine geçersiz durum geçişi.
UC_DELTA_MIGRATION_STATE_CHANGE_VERSION_MISMATCH
Sürümler, eskiden yeniye<lastVersion>, <lastCommitType> (<version>, <commitType>) durum geçişiyle eşleşmiyor.
UC_DELTA_UNIVERSAL_FORMAT_CANNOT_PARSE_ICEBERG_VERSION
Apache Iceberg tablosu sürümü, meta veri konumundan <metadataLocation> ayrıştırılamıyor.
UC_DELTA_UNIVERSAL_FORMAT_CONCURRENT_WRITE
Aynı Apache Iceberg meta veri sürümüne eş zamanlı güncelleştirme algılandı.
UC_DELTA_UNIVERSAL_FORMAT_INVALID_METADATA_LOCATION
Atanmış meta veri konumu <metadataLocation> geçersiz. Tablonun kök dizininin alt dizini <tableRoot>değildir.
UC_DELTA_UNIVERSAL_FORMAT_MISSING_FIELD_CONSTRAINT
Sağlanan delta Apache Iceberg biçim dönüştürme bilgileri gerekli alanlar eksik.
UC_DELTA_UNIVERSAL_FORMAT_NON_CREATE_CONSTRAINT
Oluşturmada delta Apache Iceberg biçim bilgilerinin ayarlanması desteklenmez.
UC_DELTA_UNIVERSAL_FORMAT_TOO_LARGE_CONSTRAINT
Sağlanan delta Apache Iceberg biçim dönüştürme bilgileri çok büyük.
UC_DELTA_UNIVERSAL_FORMAT_UPDATE_INVALID
Tekdüzen meta veriler yalnızca tekdüzen etkin Delta tablolarında güncelleştirilebilir.
UC_DEPENDENCY_DEPTH_LIMIT_EXCEEDED
<resourceType> '<ref>' derinliği sınırı aşıyor (veya döngüsel bir referansa sahip).
UC_DEPENDENCY_DOES_NOT_EXIST
<resourceType> Temel alınan kaynaklardan biri mevcut olmadığından '<ref>' geçersiz. <cause>
UC_DEPENDENCY_PERMISSION_DENIED
<resourceType> '<ref>', bir temel kaynağın sahibinin yetkilendirme denetiminde başarısız olması sebebiyle yürütmek için yeterli ayrıcalığa sahip değil. <cause>
UC_DUPLICATE_CONNECTION
Aynı URL'ye sahip '<connectionName>' adlı bir bağlantı zaten var. Lütfen sahibinden yinelenen bağlantı oluşturmak yerine bu bağlantıyı kullanma izni isteyin.
UC_DUPLICATE_ONELAKE_KATALOG_OLUŞTURMA
'<storageLocation>' url'si ile var olan ve izin verilmeyen bir katalogla eşleşen bir OneLake kataloğu oluşturulmaya çalışıldı.
UC_DUPLICATE_TAG_ASSIGNMENT_CREATION
Etiket anahtarı <tagKey> ile etiket ataması zaten mevcut.
UC_ENTITY_DOES_NOT_HAVE_CORRESPONDING_ONLINE_CLUSTER
Varlık <securableType> <entityId>’ın karşılık gelen bir çevrimiçi kümesi yoktur.
UC_ETAG_MISMATCH
Kaynak değiştirildi. Lütfen en son etag'i getirin ve yeniden deneyin. Beklenen etag değeri: <expectedTokenValue> protokol sürümü <expectedTokenVersion>ile, alınan etag değeri: <providedTokenValue> protokol sürümü ile <providedTokenVersion>
UC_EXCEEDS_MAX_FILE_LIMIT
<maxFileResults>'dan fazla dosya vardır. Döndürülen dosya sayısını sınırlamak için lütfen [max_results] belirtin.
UC_EXTERNAL_HMS_SCHEMA_LOCATION_NOT_FEDERATED
<schemaName> eHMS DEGRADED / Tutkal şema konumu federasyon olmadığından şema sağlama durumundadır.
UC_EXTERNAL_LOCATION_OP_NOT_ALLOWED
Yapılamaz <opName> <extLoc> <reason>.
<suggestion>.
UC_FEATURE_DISABLED
<featureName> şu anda UC'de devre dışıdır.
UC_FOREIGN_CATALOG_FOR_CONNECTION_TYPE_NOT_SUPPORTED
'<connectionType>' bağlantı türü için yabancı katalog oluşturma desteklenmiyor. Bu bağlantı türü yalnızca yönetilen alım işlem hatları oluşturmak için kullanılabilir. Daha fazla bilgi için lütfen Databricks belgelerine başvurun.
UC_FOREIGN_CREDENTIAL_CHECK_ONLY_FOR_READ_OPERATIONS
Yabancı tablolar için yalnızca READ kimlik bilgileri alınabilir.
UC_FOREIGN_ENTITY_CREATION_FORBIDDEN_DURING_CONVERSION
FOREIGN <securableType>
<entityName>Katalog'dan <catalogName>FOREIGN '' kataloğuna dönüştürülürken 'STANDARD' kataloğunun oluşturulması yasaktır.
UC_FOREIGN_HMS_SHALLOW_CLONE_MISMATCH
Yabancı Hive Meta Veri Deposu kataloglarında oluşturulan sığ kopyalarda temel tablo ve kopya tablosu aynı katalogda olmalıdır. '<baseTableName>' temel tablosu '<baseCatalogName>' kataloğunda, kopya tablosu '<cloneTableName>' ise ''<cloneCatalogName> kataloğunda.
UC_FOREIGN_KEY_CHILD_COLUMN_LENGTH_MISMATCH
Yabancı anahtar <constraintName> çocuk sütunlar ile ebeveyn sütunlar farklı boyutlardadır.
UC_FOREIGN_KEY_COLUMN_MISMATCH
Yabancı anahtar ebeveyn sütunları, başvurulan birincil anahtar çocuk sütunlarıyla eşleşmiyor. Yabancı anahtar ana sütunlar (<parentColumns>) ve birincil anahtar alt sütunlar (<primaryKeyChildColumns>).
UC_FOREIGN_KEY_COLUMN_TYPE_MISMATCH
Yabancı anahtar çocuk sütun türü, ebeveyn sütun türüyle eşleşmiyor. Yabancı anahtar çocuk sütun <childColumnName> türü <childColumnType> ve ana sütun <parentColumnName> türü <parentColumnType>.
UC_GCP_INVALID_PRIVATE_KEY
Erişim reddedildi. Neden: hizmet hesabı özel anahtarı geçersiz.
UC_GCP_INVALID_PRIVATE_KEY_JSON_FORMAT
Google Server Hesabı OAuth Özel Anahtarı, gerekli alanlara sahip geçerli JSON bir nesne olmalıdır, lütfen hizmet hesabı ayrıntıları sayfasının 'ANAHTARLAR' bölümünden oluşturulan dosyanın tamamını JSON sağladığınızdan emin olun.
UC_GCP_INVALID_PRIVATE_KEY_JSON_FORMAT_MISSING_FIELDS
Google Server Hesabı OAuth Özel Anahtarı, gerekli alanlara sahip geçerli JSON bir nesne olmalıdır, lütfen hizmet hesabı ayrıntıları sayfasının 'ANAHTARLAR' bölümünden oluşturulan dosyanın tamamını JSON sağladığınızdan emin olun. Eksik alanlar <missingFields>
UC_IAM_ROLE_NON_SELF_ASSUMING
Bu depolama kimlik bilgileri için IAM rolünün otomatik olarak üstlenilmeyen bir rol olduğu bulundu. IAM rolünüzün, Unity Catalog depolama kimlik bilgileri belgelerine göre kendisini üstlenebildiğinden emin olmak için lütfen rolünüzün güven ve IAM ilkelerini kontrol edin.
UC_ICEBERG_COMMIT_CONFLICT
<tableName>bağlanamıyor: meta veri konumu <baseMetadataLocation>, <catalogMetadataLocation>olarak değişti.
UC_ICEBERG_COMMIT_INVALID_TABLE
Yönetilen Apache Iceberg işlemi, yönetilmeyen bir Apache Iceberg tablosuna gerçekleştirilemiyor: <tableName>.
UC_ICEBERG_COMMIT_MISSING_FIELD_CONSTRAINT
Sağlanan Yönetilen Apache Iceberg taahhüt bilgileri için gereken alanlar eksik.
UC_ID_MISMATCH
<type> <name>, kimlik <wrongId>'e sahip değil. Lütfen işlemi yeniden deneyin.
UC_INFORMATION_SCHEMA_PER_METASTORE_DB_RATE_LIMIT_EXCEEDED
Meta veri deposu için çok fazla bilgi şeması isteği var. Lütfen biraz bekleyin ve yeniden deneyin. Sorun devam ederse, lütfen sorgularınızın seçiciliğini ayarlamayı veya yardım için desteğe ulaşmayı göz önünde bulundurun.
UC_INVALID_ACCESS_BRICKSTORE_ONLINE_TABLE_KALDIRILMASI
Çevrimiçi tablo kullanım dışı bırakıldı. Çevrimiçi tabloya <securableName> erişim elde etmek artık desteklenmiyor.
UC_INVALID_ACCESS_BRICKSTORE_PG_CONNECTION
Veritabanı örneğine geçersiz erişim. <reason>
UC_INVALID_ACCESS_DBFS_ENTITY
<securableType> <securableName>'un birleşik katalog <catalogName>üzerindeki geçersiz erişimi. <reason>
UC_INVALID_AZURE_PATH
Geçersiz Azure yolu: <path>
UC_INVALID_CLOUDFLARE_ACCOUNT_ID
Geçersiz Cloudflare hesap kimliği.
UC_INVALID_CREDENTIAL_CLOUD
Geçersiz kimlik bilgisi bulut sağlayıcısı '<cloud>'. İzin verilen bulut sağlayıcısı '<allowedCloud>'.
UC_INVALID_CREDENTIAL_PURPOSE_VALUE
Kimlik bilgisinin 'amaç' için geçersiz '<value>' değeri. İzin verilen değerler: '<allowedValues>'.
UC_INVALID_CREDENTIAL_TRANSITION
<startingCredentialType> ile <endingCredentialType>arasındaki bağlantı güncelleştirilemiyor. Tek geçerli geçiş, kullanıcı adı/parola tabanlı bir bağlantıdan OAuth belirteci tabanlı bağlantıya geçiştir.
UC_INVALID_CRON_STRING_FABRIC
Geçersiz cron dizesi. Bulundu: '<cronString>' ile ayrıştırma özel durumu: '<message>'
UC_INVALID_DIRECT_ACCESS_MANAGED_TABLE
Doğrudan erişimli yönetilen tablo <tableName> geçersiz. kaynak tablo & işlem hattı tanımının tanımlanmadığından emin olun.
UC_INVALID_EMPTY_STORAGE_LOCATION
<securableType> kataloğundaki '<securableName>' için <catalogName> beklenmeyen boş depolama konumu. Bu hatayı düzeltmek için lütfen DESCRIBE SCHEMA <catalogName>çalıştırın.
<securableName> ve bu sayfayı yenileyin.
UC_INVALID_OPTIONS_UPDATE
Güncelleştirme için geçersiz seçenekler sağlandı. Geçersiz seçenekler: <invalidOptions>. İzin verilen seçenekler: <allowedOptions>.
UC_INVALID_OPTION_VALUE
'<value>' için geçersiz '<option>' değeri. İzin verilen değerler: '<allowedValues>'.
UC_INVALID_OPTION_VALUE_EMPTY
'<option>' boş olamaz. Lütfen boş olmayan bir değer girin.
UC_INVALID_POLICY_CONDITION
'<policyName>' ilkesinde geçersiz koşul. '<message>' iletisiyle derleme hatası.
UC_INVALID_R2_ACCESS_KEY_ID
Geçersiz R2 erişim anahtarı kimliği.
UC_INVALID_R2_SECRET_ACCESS_KEY
Geçersiz R2 gizli erişim anahtarı.
UC_INVALID_UPDATE_ON_SYSTEM_WORKSPACE_ADMIN_GROUP_OWNED_SECURABLE
'<securableType>' bir iç gruba ait olduğundan güncelleştirilemiyor <securableName> . Ek ayrıntılar için lütfen Databricks desteğine başvurun.
UC_INVALID_WASBS_EXTERNAL_LOCATION_STORAGE_CREDENTIAL
Sağlanan Depolama Kimlik Bilgisi <storageCredentialName> DBFS Kökü ile ilişkilendirilmemişse wasbs Dış Konumu oluşturulamaz.
UC_LOCATION_INVALID_SCHEME
Depolama konumu geçersiz URI düzenine sahip: <scheme>.
UC_MALFORMED_OAUTH_SERVER_RESPONSE
Belirteç sunucusundan gelen yanıtta <missingField>alanı eksikti. Döndürülen sunucu yanıtı: <response>
UC_MANAGED_ICEBERG_UNSUPPORTED
Geçerli uç noktada yönetilen Apache Iceberg tablosu desteklenemiyor.
UC_METASTORE_ASSIGNMENT_STATUS_INVALID
'<metastoreAssignmentStatus>' atanamaz. Yalnızca MANUALLY_ASSIGNABLE ve AUTO_ASSIGNMENT_ENABLED desteklenir.
UC_METASTORE_CERTIFICATION_NOT_ENABLED
Meta veri deposu sertifikası etkinleştirilmedi.
UC_METASTORE_HAS_ACTIVE_MANAGED_ONLINE_CATALOGS
SQLSTATE: hiçbiri atanmadı
Meta veri deposu <metastoreId><numberManagedOnlineCatalogs> yönetilen çevrimiçi kataloglara sahiptir. Lütfen bunları açıkça silin ve meta veri deposu silme işlemini yeniden deneyin.
UC_METASTORE_QUOTA_EXCEEDED
Kimliği <accountId> olan bu hesap, bölgesindeki <region>meta veri depoları sınırına ulaştı.
UC_METASTORE_STORAGE_ROOT_CREDENTIAL_UPDATE_INVALID
Meta veri deposu kök konumunu güncellerken meta veri deposu kök kimlik bilgileri tanımlanmamalıdır. Kimlik bilgisi, meta veri deposunun üst dış konumundan alınacaktır.
UC_METASTORE_STORAGE_ROOT_DELETION_INVALID
Meta veri deposunun kök konumunu silme başarısız oldu. <reason>
UC_METASTORE_STORAGE_ROOT_READ_ONLY_INVALID
Meta veri deposunun kök <securableType> salt okunur olamaz.
UC_METASTORE_STORAGE_ROOT_UPDATE_INVALID
Meta veri deposu depolama kökü ayarlandıktan sonra güncelleştirilemez.
UC_MODEL_INVALID_STATE
<opName> durumuna sahip <modelVersion> model sürümü için geçici '<modelVersionStatus>' kimlik bilgileri oluşturulamıyor. '<opName>' kimlik bilgileri yalnızca durumu <validStatus> olan model sürümleri için oluşturulabilir.
UC_NATIVE_USING_REF_OF_ABAC_MASKED_COLUMNS
'<resource>' üzerinde ABAC ilkeleri değerlendirilirken hata oluştu. İletiyle başarısız oldu: '<usingCol>' sütunu '<policyName>' ABAC ilkesi tarafından maskelendi ve yerel RLS/CM ilkesine giriş olarak kullanılamaz.
UC_NO_ORG_ID_IN_CONTEXT
Kuruluş kimliğine (veya çalışma alanı kimliğine) erişmeye çalışıldı, ancak bağlamda mevcut değil.
UC_ONELAKE_PATH_BAD_DOMAIN
'' Azure OneLake yolunda '<path><expectedHost>' etki alanı adı olmalıdır.
UC_ONELAKE_PATH_BAD_FORMAT
'<path>' Azure OneLake yolu 'abfss://_WORKSPACE_@<host>/' biçiminde olmalıdır.
UC_ONELAKE_PATH_MISSING_AT
'<path>' Azure OneLake yolu '@' içermiyor.
UC_ONELAKE_PATH_MISSING_WORKSPACE
'<path>' Azure OneLake yolu bir çalışma alanı adı içermelidir.
UC_ONLINE_CATALOG_NOT_MUTABLE
SQLSTATE: hiçbiri atanmadı
<rpcName> isteği <fieldName>güncelleştirir. Çevrimiçi bir kataloğun açıklaması, sahibi ve yalıtım modu dışında herhangi bir şeyi değiştirmek için çevrimiçi mağazanın hesaplama sekmesini kullanın.
UC_ONLINE_CATALOG_QUOTA_EXCEEDED
Metaveri deposunda, <quota>'dan fazla çevrimiçi mağaza oluşturulamaz ve zaten <currentCount> mevcut. Mevcut çevrimiçi mağazalara erişiminiz olmayabilir. Erişim izni verilmesi veya daha fazla yönerge için meta veri deposu yöneticinize başvurun.
UC_ONLINE_INDEX_CATALOG_INVALID_CRUD
SQLSTATE: hiçbiri atanmadı
çevrimiçi dizin katalogları /vector-search API aracılığıyla <action> olmalıdır.
UC_ONLINE_INDEX_CATALOG_NOT_MUTABLE
SQLSTATE: hiçbiri atanmadı
<rpcName> isteği <fieldName>güncelleştirir. Çevrimiçi dizin kataloğunun yorum, sahip ve yalıtım modu dışında herhangi bir şeyi değiştirmek için /vector-search API'sini kullanın.
UC_ONLINE_INDEX_CATALOG_QUOTA_EXCEEDED
Meta veri deposunda, <quota>'den fazla çevrimiçi dizin kataloğu oluşturulamıyor ve zaten <currentCount>bulunmaktadır. Mevcut çevrimiçi dizin kataloglarına erişiminiz olmayabilir. Erişim izni verilmesi veya daha fazla yönerge için meta veri deposu yöneticinize başvurun.
UC_ONLINE_INDEX_INVALID_CRUD
çevrimiçi dizinler /vector-search API'sini kullanarak <action> olmalıdır.
UC_ONLINE_STORE_INVALID_CRUD
SQLSTATE: hiçbiri atanmadı
çevrimiçi mağazalar, çevrimiçi mağaza hesaplama sekmesi aracılığıyla <action> olmalıdır.
UC_ONLINE_TABLE_COLUMN_NAME_TOO_LONG
Kaynak tablo sütun adı <columnName> çok uzun. Uzunluk üst sınırı <maxLength> karakterdir.
UC_ONLINE_TABLE_PRIMARY_KEY_COLUMN_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT
Kaynak tablonun mevcut <columnName> kısıtlamasının bir parçası olmadığından, sütun PRIMARY KEY çevrimiçi tablonun birincil anahtar sütunu olarak kullanılamaz. Ayrıntılar için bkz. <docLink>
UC_ONLINE_TABLE_TIMESERIES_KEY_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT
Kaynak tablonun mevcut <columnName> kısıtlamasının zaman çizelgeleri sütunu olmadığından, sütun PRIMARY KEY çevrimiçi tablonun zaman çizelgeleri anahtarı olarak kullanılamaz. Ayrıntılar için bkz. <docLink>
UC_ONLINE_VIEWS_PER_SOURCE_TABLE_QUOTA_EXCEEDED
Kaynak tablo başına <quota>’den fazla çevrimiçi tablo oluşturulamaz.
UC_ONLINE_VIEW_ACCESS_DENIED
Kaynak <resourceName> erişmek için Sunucusuz SQL ambarı kullanılması gerekir. Lütfen sorgu yürütmek veya kullanıcı arabiriminde veritabanı kataloğunu görüntülemek için kullanılan ambarın sunucusuz olduğundan emin olun. Ayrıntılar için bkz. <docLink>
UC_ONLINE_VIEW_CONTINUOUS_QUOTA_EXCEEDED
Çevrimiçi mağazada <quota>'dan fazla sürekli çevrimiçi görüntüleme oluşturulamaz ve zaten <currentCount>bulunmaktadır. Mevcut çevrimiçi görünümlere erişiminiz olmayabilir. Erişim izni verilmesi veya daha fazla yönerge için çevrimiçi mağaza yöneticinize başvurun.
UC_ONLINE_VIEW_DOES_NOT_SUPPORT_DMK
SQLSTATE: hiçbiri atanmadı
<tableKind>, Databricks Yönetilen Anahtarları ile depolama konumu altında oluşturulamaz. Databricks Yönetilen Anahtar şifrelemesi olmadan depolama konumunda farklı bir şema/katalog seçin.
UC_ONLINE_VIEW_INVALID_CATALOG
<catalogName> içinde oluşturmak için <catalogKind> türüne sahip geçersiz <tableKind> kataloğu.
<tableKind> yalnızca tür katalogları altında oluşturulabilir: <validCatalogKinds>.
UC_ONLINE_VIEW_INVALID_SCHEMA
Geçersiz <schemaName> şeması ile, <schemaKind> türü içine <tableKind> oluşturmak için.
<tableKind> yalnızca şu tür şemalar altında oluşturulabilir: <validSchemaKinds>.
UC_ONLINE_VIEW_INVALID_TTL_TIME_COLUMN_TYPE
<columnName> türünde sütun <columnType> TTL saat sütunu olarak kullanılamaz. İzin verilen türler şunlardır: <supportedTypes>.
UC_OPERATION_NOT_SUPPORTED
İşlem Unity Kataloğu tarafından desteklenmiyor. <detailedMessage>
UC_OUT_OF_AUTHORIZED_PATHS_SCOPE
İzinli Yol Hatası.
<securableType> konumu <location>, katalog için yetkili yollar arasında tanımlanmamıştır: <catalogName>. Lütfen katalog sahibinden yolu katalogda tanımlanan yetkili yollar listesine eklemesini isteyin.
UC_OVERLAPPED_AUTHORIZED_PATHS
'authorized_paths' seçeneği çakışan yollar içerir: <overlappingPaths>. Her yolun benzersiz olduğundan ve listedeki diğer kişilerle kesişmediğinden emin olun.
UC_PAGINATION_AND_QUERY_ARGS_MISMATCH
'<arg>' sorgu bağımsız değişkeni ilk sayfalandırma çağrısında (<received>'') kullanılan değerden farklı olan '<expected>' olarak ayarlandı
UC_PATH_FILTER_ALLOWLIST_VIOLATION
'<credentialName>' kimlik bilgisi, yalnızca şu yollardaki verilere erişmesine izin verilen bir çalışma alanı varsayılan kimlik bilgisidir: '<allowlist>'. Lütfen bu kimlik bilgisi kullanılarak erişilen tüm yolların bu yollardan birinin altında olduğundan emin olun.
UC_YOL_FİLTRESİ_YASAKLI_LİSTE_İHLALİ
'<credentialName>' kimlik bilgisi, şu kısıtlı yoldaki verilere erişemeyen bir çalışma alanı varsayılan kimlik bilgisidir: '<targetPath>'.
UC_PATH_TOO_LONG
Giriş yolu çok uzun. İzin verilen uzunluk: <maxLength>. Giriş uzunluğu: <inputLength>. Giriş: <path>...
UC_PER_METASTORE_DATABASE_CONCURRENCY_LIMIT_EXCEEDED
Meta veri deposu <metastoreId>için eşzamanlılık sınırı aşıldı. Lütfen daha sonra yeniden deneyin. Sorun devam ederse lütfen desteğe ulaşın. Hata kodu #UC-<errorCodeArbitraryFiveLettersUpperCase>
UC_POSTGRESQL_ONLINE_VIEWS_PER_SOURCE_TABLE_QUOTA_EXCEEDED
Kaynak tablo başına <quota> eşitlenmiş veritabanı tablosundan fazlası oluşturulamaz.
UC_PRIMARY_KEY_ON_NULLABLE_COLUMN
Birincil anahtar <constraintName> oluşturulamıyor, çünkü alt sütun <childColumnNames> boş değer alabilir durumda. Lütfen sütunun null olabilme özelliğini değiştirin ve yeniden deneyin.
UC_REQUEST_LIMIT_EXCEEDED
Kuruluşunuz hız sınırını aştığından isteğiniz reddedildi. Lütfen isteğinizi daha sonra yeniden deneyin.
UC_REQUEST_TIMEOUT
Bu işlem çok uzun sürdü.
UC_RESOURCE_QUOTA_EXCEEDED
(tahmini sayı: , limit: <amount> <resourceType><parentResourceType> <parentResourceId>) içinde <currentCount> (sn) oluşturulamıyor<quotaLimit>.
UC_ROOT_STORAGE_S3_BUCKET_NAME_CONTAINS_DOT
Nokta içeren kök depolama alanı S3 kova adı Unity Kataloğu tarafından desteklenmiyor: <uri>
UC_SCHEMA_EMPTY_STORAGE_LOCATION
'<schemaName>' kataloğundaki '<catalogName>' şeması için beklenmeyen boş depolama konumu. Şemanın <validPathSchemesListStr>yol şeması kullandığından emin olun.
UC_SERVERLESS_UNTRUSTED_DOMAIN_STORAGE_TOKEN_MINTING
Sunucusuz python ve scala not defterlerinin ağ ile kısıtlanmış çalışma alanlarında Unity Kataloğu'ndan geçici depolama kimlik bilgilerini alması yasaktır.
UC_SHALLOW_CLONE_BASE_TABLE_DELETED
'<tableFullName>' sığ kopyasına erişilemiyor çünkü temel tablosu '<baseTableName>' silinmiş.
STORAGE_CREDENTIALSUC_DıŞ_KONUM_SiLME_REDDi
'<credentialName>' depolama kimlik bilgisi, <extTablesCount> doğrudan bağımlı dış tabloya ve <extLocationsCount> bağımlı depolama konumuna sahiptir. Silmek için zorla seçeneğini kullanabilirsiniz, ancak bu depolama kimlik bilgilerini kullanan yönetilen depolama verileri artık Unity Kataloğu tarafından temizlenemez.
STORAGE_CREDENTIALSUC_DIŞ_L1KONUM_GÜNCELLEME_REDDİ
'<credentialName>' depolama kimlik bilgileri doğrudan bağımlı dış tablolara ve <extTablesCount> bağımlı depolama konumlarına sahiptir<extLocationsCount>; yine de güncelleştirmek için zorlama seçeneğini kullanın.
UC_STORAGE_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED
Sağlanan erişim bağlayıcısı kimliği ayrıştırılamadı: <accessConnectorId>. Lütfen biçimlendirmesini doğrulayın ve yeniden deneyin.
UC_STORAGE_CREDENTIAL_DBFS_ROOT_CREATION_PERMISSION_DENIED
Kullanıcı: <userId> çalışma alanının yöneticisi olmadığından DBFS kökü için depolama kimlik bilgileri oluşturulamıyor: <workspaceId>
UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_DBFS_ENABLED
DBFS kök depolama kimlik bilgileri, Güvenlik Duvarı etkinleştirilmiş DBFS'ye sahip çalışma alanları için henüz desteklenmiyor
UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_NOT_SUPPORTED
Geçerli çalışma alanı için DBFS kök depolama yetkilendirmesi henüz desteklenmiyor
UC_STORAGE_CREDENTIAL_DBFS_ROOT_WORKSPACE_DISABLED
DBFS kökü çalışma alanı <workspaceId> için etkinleştirilmedi
UC_STORAGE_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN
Bulut izin doğrulaması için bir erişim bağlayıcısında AAD belirteci alınamadı. Lütfen eylemi yeniden deneyin.
UC_STORAGE_CREDENTIAL_INVALID_CLOUD_PERMISSIONS
Depolama kimlik bilgilerinin kaydedilmesi için <accessConnectorId> kimliğine sahip olan ilgili erişim bağlayıcısı üzerinde katkıda bulunan rolüne sahip olunması gerekir. Lütfen hesap yöneticinize başvurun.
UC_STORAGE_CREDENTIAL_METASTORE_ROOT_DELETION_DENIED (Depolama kimlik bilgisi meta yöneticisi kök silme reddedildi)
Bu meta veri deposu kök kimlik bilgisi olarak yapılandırıldığından '<credentialName>' depolama kimlik bilgileri silinemiyor. Silmeyi denemeden önce lütfen meta veri deposunun kök kimlik bilgilerini güncelleştirin.
UC_STORAGE_CREDENTIAL_PERMISSION_DENIED
yalnızca hesap yöneticisi <storageCredentialType>türünde bir depolama kimlik bilgisi oluşturabilir veya güncelleştirebilir.
UC_STORAGE_CREDENTIAL_SERVICE_PRINCIPAL_MISSING_VALIDATION_TOKEN
Hizmet sorumlusu için doğrulama belirteci eksik. Lütfen 'X-Databricks-Azure-SP-Management-Token' istek üst bilgisinde geçerli bir ARM kapsamındaki Entra ID kimlik doğrulama belirteci sağlayın ve yeniden deneyin. Ayrıntılar için https://docs.databricks.com/api/workspace/storagecredentials
UC_STORAGE_CREDENTIAL_TRUST_POLICY_IS_OPEN
IAM rolünün güven ilkesi, Databricks Hesabının rolü üstlenmesine izin vermek için bir dış kimlik gerektirmelidir. Dış kimlik koşulunu eklemek için lütfen hesap yöneticinize başvurun. Bu davranış, Karışık Vekil Problemi'ne https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html karşı koruma sağlamayı amaçlamaktadır.
UC_STORAGE_CREDENTIAL_WASBS_NOT_DBFS_ROOT
Konum <location> DBFS kökünde değil, bu nedenle depolama kimlik bilgisi oluşturamıyoruz <storageCredentialName>
UC_STORAGE_CREDENTIAL_WORKSPACE_API_PROHIBITED
Hesap düzeyi API'sinde hesap dışı yönetici olarak depolama kimlik bilgisi oluşturma veya güncelleştirme desteklenmez. Lütfen bunun yerine çalışma alanı düzeyinde API'yi kullanın.
UC_STORAGE_CREDENTIAL_WS_BUCKET_INVALID_LOCATION
Konum <requestedLocation> izin verilen bağlamın içinde değil <allowedLocation>
UC_STORAGE_CREDENTIAL_WS_INTERNAL_CATALOG_NOT_SUPPORTED
Geçerli çalışma alanı için çalışma alanına ait iç katalog depolama kimlik bilgileri henüz desteklenemiyor.
UC_SİSTEM ŞEMASI ETKİNLEŞTİRME İÇİN UYGUN DEĞİL.
Sistem şeması <systemSchema> şu anda etkinleştirme için kullanılamıyor. Lütfen daha sonra yeniden deneyin.
UC_SYSTEM_WORKSPACE_GROUP_PERMISSION_UNSUPPORTED
Sistem tarafından oluşturulan <securableType>grubuna <principal> ayrıcalıkları verilemez.
UC_TABLE_IS_LOCKED_FOR_CATALOG_MANAGED_TABLE_MIGRATION
'<tableId>' tablosu katalog tarafından yönetilen tablo geçişi için geçici olarak kilitlendi. Geçiş tamamlanana kadar bu tablodaki işlemler engellenir. İşleminizi kısa süre sonra yeniden deneyin.
UC_TABLE_IS_NOT_CATALOG_OWNED
'<tableId>' tablosu için commit/getCommits gerçekleştirme isteği, tabloda Kataloğa ait özelliğin etkinleştirilmesini gerektirir.
UC_TAG_ASSIGNMENT_WITH_KEY_DOES_NOT_EXIST
Etiket anahtarı <tagKey> ile etiket ataması mevcut değil
UC_TEMPORARY_CREDENTIAL_OPERATION_NOT_SUPPORTED
Geçici kimlik bilgisi işlemi desteklenmiyor.
UC_UNDROP_RESOURCE_ID_ALREADY_EXISTS
Kimliği '' olan bir '<resourceType><resourceType>' zaten mevcut olduğundan '<resourceId>' kaldırılamıyor.
UC_UNDROP_RESOURCE_NAME_ALREADY_EXISTS
'' adlı bir '<resourceType><resourceType>' zaten mevcut olduğundan '<resourceName>' kaldırılamıyor.
UC_UNDROP_RESOURCE_NOT_READY
Kimliği '<resourceType>' olan '<resourceType>' geri yüklenmeye hazır olmadığından '<resourceId>' kaldırılamıyor, lütfen daha sonra yeniden deneyin.
UC_GERİ_YÜKLEME_KAYNAĞI_ÖZEL_SAKLAMA_SÜRESİNİ_AŞAN
'<resourceType>' tekrardan geri yüklenemiyor çünkü kimliği '<resourceType>' olan '<resourceId>' için özel geri yükleme süresi aşılmış durumda.
UC_UNDROP_RESOURCE_PAST_RECOVERABLE_WINDOW
Kimliği '<resourceType>' olan '<resourceType>' değeri desteklenen '<resourceId>' gün geri yükleme süresini aştığı için '<maxRestorationPeriodDay>' kaldırılamıyor.
UC_BENZERSİZ_KISITLAMA_ÇOCUK_SÜTUNLAR_ZATEN_MEVCUT
UNIQUE kısıtlaması <newConstraintName> oluşturulamadı: tablo <tableName> zaten aynı alt sütun kümesine sahip bir UNIQUE kısıtlamasına sahip: <existingConstraintName>.
UC_UNIQUE_CONSTRAINT_NOT_SUPPORTED (Eşsiz kısıtlama desteklenmiyor)
UNIQUE kısıtlaması ile <constraintName> çalıştırılamadı: UNIQUE kısıtlaması etkin değil.
UC_UNSUPPORTED_HTTP_CONNECTION_BASE_PATH
Belirtilen temel yol geçersiz, temel yolun /api/resources/v1 gibi bir şekilde olması gerekir. Desteklenmeyen yol: <path>
UC_UNSUPPORTED_HTTP_CONNECTION_HOST
Bilinmeyen ana bilgisayar adı sağlandı. Ana bilgisayar adı, yol son eki olmadan, örneğin https://www.databricks.com şeklinde olmalıdır. Desteklenmeyen ana bilgisayar: <host>
UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH
Dış konum/birim/tablo yollarında yalnızca temel Latin/Latin-1 karakterler desteklenir ASCII. Desteklenmeyen yol: <path>
UC_UPDATE_FORBIDDEN_FOR_PROVISIONING_SECURABLE
'' sağlandığından güncelleştirilemiyor<securableType><securableName>.
UC_USING_REF_OF_MASKED_COLUMNS
'<resource>' üzerinde ABAC ilkeleri değerlendirilirken hata oluştu. İletiyle başarısız oldu: '<usingCol>' sütunu '' ABAC ilkesi tarafından maskelendi ve '<existingMaskingPolicy><policyName>' ilkesinde kullanılamaz.
UC_WRITE_CONFLICT
<type> <name> farklı bir istek tarafından değiştirildi. Lütfen işlemi yeniden deneyin.
UNDROP_TABLE_NOT_FOUND
Adı <tableFullName> olmayan hiçbir tablo damlasız olarak nitelenemediği için tablonun damlası kaldırılamıyor. Bu tablo zaten sarkmamış, en fazla geri yükleme süresinden sonra silinmiş veya hiç varolmamış olabilir.
UNITY_CATALOG_EXTERNAL_COORDINATED_COMMITS_REQUEST_DENIED
Databricks Unity Kataloğu'nun etkinleştirildiği işlem ortamının dışından '<tableId>' tablosu için commit/getCommits gerçekleştirme isteği güvenlik için reddedildi. Unity Kataloğu ile tümleştirmeler için lütfen Databricks desteğine başvurun.
UNITY_CATALOG_EXTERNAL_CREATE_STAGING_TABLE_REQUEST_DENIED
Databricks Unity Kataloğu'nun etkin olduğu işlem ortamının dışından '<tableFullName>' hazırlama tablosu oluşturma isteği güvenlik için reddedildi. Unity Kataloğu ile tümleştirmeler için lütfen Databricks desteğine başvurun.
COLUMN_MASKSUNITY_CATALOG_EXTERNAL_CREATE_TABLE_FAILED_VALIDATION__DEFINED
Databricks Unity Kataloğu'nun etkin olduğu işlem ortamının dışından '<tableFullName>' tablosu oluşturma isteği reddedildi. Dış tablo oluştururken sütun maskeleri desteklenmez.
UNITY_CATALOG_Dış_Katalog_Tablo_Oluşturma_Başarısız_Verifikasyon_Verikaynağı_Formatı_Delta_Değil
Databricks Unity Kataloğu'nun etkin olduğu işlem ortamının dışından '<tableFullName>' tablosu oluşturma isteği reddedildi. Harici tablo oluşturmak için veri kaynağı biçimi 'DELTA' olmalıdır, ama bunun yerine '<dataSourceFormat>' verilmiş.
UNITY_CATALOG_DIS_ORTAM_TABLO_YARATMA_DOGRULAMA_HATASI_TABLO_TIPI_DIS_ORTAM_DEĞIL
Databricks Unity Kataloğu'nun etkin olduğu işlem ortamının dışından '<tableFullName>' tablosu oluşturma isteği reddedildi. Tablo türü harici tablo oluşturmak için EXTERNAL olmalıdır, ancak şu anda '<tableType>' olarak ayarlanmıştır.
UNITY_CATALOG_DIŞ_TABLO_OLUŞTURMA_BİLGİLERİ_GEÇERSİZ_ALANLAR_İÇERİYOR
Dış tablo oluşturulması yalnızca şu alanlara izin verir: [ad, katalog_adı, şema_adı, tablo_türü, veri_kaynağı_formatı, sütunlar, depolama_konumu ve özellikler].
UNITY_CATALOG_EXTERNAL_CREATE_TABLE_REQUEST_FOR_NON_EXTERNAL_TABLE_DENIED
Databricks Unity Kataloğu'nun etkin olduğu işlem ortamının dışından '<tableFullName>' harici olmayan tablo oluşturma isteği güvenlik için reddedildi. Unity Kataloğu ile tümleştirmeler için lütfen Databricks desteğine başvurun.
UNITY_CATALOG_EXTERNAL_DELETE_TABLE_REQUEST_FOR_NON_EXTERNAL_TABLE_DENIED
Databricks Unity Kataloğu'nun etkin olduğu işlem ortamının dışından dış olmayan '<tableFullName>' tablosunu silme isteği desteklenmez.
UNITY_CATALOG_EXTERNAL_GENERATE_PATH_CREDENTIALS_DENIED
'' yolu<path> için Databricks Unity Kataloğu'nun etkin olduğu işlem ortamının dışından erişim kimlik bilgisi oluşturma isteği güvenlik için reddedildi. Unity Kataloğu ile tümleştirmeler için lütfen Databricks desteğine başvurun.
UNITY_CATALOG_EXTERNAL_GENERATE_TABLE_CREDENTIALS_DENIED
'' tablosu<tableId> için Databricks Unity Kataloğu'nun etkinleştirildiği işlem ortamının dışından erişim kimlik bilgileri oluşturma isteği güvenlik için reddedildi. Unity Kataloğu ile tümleştirmeler için lütfen Databricks desteğine başvurun.
UNITY_CATALOG_EXTERNAL_GENERATE_TEMP_PATH_CRED_FAILED_VALIDATION_CREDENTIAL_ID_DEFINED
Databricks Unity Kataloğu'nun etkin olduğu işlem ortamı dışından geçici yol kimlik bilgisi oluşturma isteği reddedildi. Geçici yol kimlik bilgileri harici olarak oluşturulurken Kimlik Bilgisi Kimliği tanımlanmamalıdır.
BİRLEŞİK_KATALOG_DIŞ_GENERATE_TEMP_PATH_CRED_DOĞRULAMA_BAŞARISIZ_YOLU_YALNIZCA_EBEBEYN_TANIMLANMIŞ_OLMAK_YAPIN
Databricks Unity Kataloğu'nun etkin olduğu işlem ortamı dışından geçici yol kimlik bilgisi oluşturma isteği reddedildi. make_path_only_parent, dışarıdan geçici yol kimlik bilgileri oluşturulurken tanımlanmamalıdır.
UNITY_CATALOG_EXTERNAL_GENERATE_VOLUME_CREDENTIALS_DENIED
'' birimi<volumeId> için Databricks Unity Kataloğu'nun etkinleştirildiği işlem ortamının dışından erişim kimlik bilgileri oluşturma isteği güvenlik için reddedildi. Unity Kataloğu ile tümleştirmeler için lütfen Databricks desteğine başvurun.
UNITY_CATALOG_EXTERNAL_GENERATE_VOLUME_CREDENTIALS_FOR_SECURABLE_KIND_NOT_SUPPORTED
'' için<volumeSecurableKind> Databricks Unity Kataloğu'nun etkin olduğu işlem ortamının dışından erişim kimlik bilgileri oluşturma isteği güvenlik için reddedildi. Unity Kataloğu ile tümleştirmeler için lütfen Databricks desteğine başvurun.
UNITY_CATALOG_EXTERNAL_GET_FOREIGN_CREDENTIALS_DENIED
Güvenliği sağlanabilir öğeler için Databricks Unity Kataloğu'nun etkinleştirildiği işlem ortamının dışından yabancı kimlik bilgileri alma isteği güvenlik için reddedilir.
UNITY_CATALOG_EXTERNAL_UPDATA_METADATA_SNAPSHOT_DENIED
Databricks Unity Kataloğu'nun etkinleştirildiği işlem ortamının dışından meta veri anlık görüntülerini güncelleştirme isteği güvenlik için reddedilir.
DESTEKLENMEYEN_KONUM ŞEMASI
<fieldName> geçersiz URI düzenine <scheme>sahip. Geçerli URI şemaları içerir <validSchemes>. Geçersiz yol: <path>.
UPDATE_SISTEM_TABLOSU
Sisteme ait tablo değiştirilemez. '<tableName>' tablosu sisteme ait bir tablodur.
WRITE_CREDENTIALS_NOT_SUPPORTED_FOR_LEGACY_MANAGED_ONLINE_TABLE
Çevrimiçi katalogdaki yönetilen bir çevrimiçi tabloya yazma izni alma isteği geçersiz.
Dosyalar API'si
FILES_API_API_IS_NOT_ENABLED
SQLSTATE: hiçbiri atanmadı
<api_name> API etkin değil
FILES_API_API_IS_NOT_ENABLED_FOR_CLOUD_PATHS
SQLSTATE: hiçbiri atanmadı
İstenen Dosyalar API'sinin yöntemi bulut yolları için desteklenmiyor
FILES_API_AWS_ACCESS_DENIED
SQLSTATE: hiçbiri atanmadı
Depolama demetine erişim AWS tarafından reddedilir.
FILES_API_AWS_ALL_ACCESS_DISABLED
SQLSTATE: hiçbiri atanmadı
Aws'de depolama demetine tüm erişim devre dışı bırakıldı.
FILES_API_AWS_BUCKET_DOES_NOT_EXIST
SQLSTATE: hiçbiri atanmadı
Depolama demeti AWS'de yok.
FILES_API_AWS_FORBIDDEN
SQLSTATE: hiçbiri atanmadı
Depolama demetine erişim AWS tarafından yasaktır.
FILES_API_AWS_INVALID_AUTHORIZATION_HEADER
SQLSTATE: hiçbiri atanmadı
Çalışma alanı yanlış yapılandırılmış: AWS çalışma alanı kök depolama demeti ile aynı bölgede olmalıdır.
FILES_API_AWS_INVALID_BUCKET_NAME
SQLSTATE: hiçbiri atanmadı
Depolama demetinin adı geçersiz.
FILES_API_AWS_KMS_KEY_DISABLED
SQLSTATE: hiçbiri atanmadı
Depolama demetine erişmek için yapılandırılan KMS anahtarları AWS'de devre dışı bırakılır.
FILES_API_AWS_UNAUTHORIZED
SQLSTATE: hiçbiri atanmadı
AWS kaynağına erişim yetkisizdir.
FILES_API_AZURE_ACCOUNT_IS_DISABLED
SQLSTATE: hiçbiri atanmadı
Depolama hesabı Azure'da devre dışı bırakıldı.
FILES_API_AZURE_AUTHORIZATION_PERMISSION_MISMATCH
SQLSTATE: hiçbiri atanmadı
Yetkilendirme izni uyuşmazlığı.
FILES_API_AZURE_CMK_NOT_FOUND
SQLSTATE: hiçbiri atanmadı
Yönetilen şifreleme anahtarı bulunamıyor.
FILES_API_AZURE_CMK_SOFT_DELETED
SQLSTATE: hiçbiri atanmadı
Yönetilen şifreleme anahtarı geçici olarak silindi.
FILES_API_AZURE_CONTAINER_DOES_NOT_EXIST
SQLSTATE: hiçbiri atanmadı
Azure kapsayıcısı mevcut değil.
FILES_API_AZURE_CREDENTIAL_NOT_FOUND
SQLSTATE: hiçbiri atanmadı
Azure kimlik bilgileri bulunamadı. Azure kimlik bilgileri eksik veya erişilemez olabilir.
FILES_API_AZURE_FORBIDDEN
SQLSTATE: hiçbiri atanmadı
Depolama kapsayıcısına erişim Azure tarafından yasaktır.
FILES_API_AZURE_HAS_A_LEASE
SQLSTATE: hiçbiri atanmadı
Azure, şu anda kaynak üzerinde bir kira sözleşmesi olduğunu bildirdi. Daha sonra yeniden deneyin.
FILES_API_AZURE_INSUFFICIENT_ACCOUNT_PERMISSION
SQLSTATE: hiçbiri atanmadı
Erişilen hesabın bu işlemi yürütmek için yeterli izinleri yok.
FILES_API_AZURE_INVALID_STORAGE_ACCOUNT_CONFIGURATION
SQLSTATE: hiçbiri atanmadı
Erişilen hesabın yapılandırması desteklenmiyor.
FILES_API_AZURE_INVALID_STORAGE_ACCOUNT_NAME
SQLSTATE: hiçbiri atanmadı
Azure'da depolama hesabına erişilemiyor: geçersiz depolama hesabı adı.
FILES_API_AZURE_KEY_BASED_AUTHENTICATION_NOT_PERMITTED
SQLSTATE: hiçbiri atanmadı
Azure'da "key vault" anahtar kasası bulunamadı. Müşteri tarafından yönetilen anahtar ayarlarınızı denetleyin.
FILES_API_AZURE_KEY_VAULT_KEY_NOT_FOUND
SQLSTATE: hiçbiri atanmadı
Azure anahtar kasası anahtarı Azure'da bulunmaz. Müşteri tarafından yönetilen anahtar ayarlarınızı denetleyin.
FILES_API_AZURE_KEY_VAULT_VAULT_NOT_FOUND
SQLSTATE: hiçbiri atanmadı
Azure'da "key vault" anahtar kasası bulunamadı. Müşteri tarafından yönetilen anahtar ayarlarınızı denetleyin.
FILES_API_AZURE_MI_ACCESS_CONNECTOR_NOT_FOUND
SQLSTATE: hiçbiri atanmadı
Azure Yönetilen Kimlik Kimliği ile erişim bağlayıcısı bulunamadı. Bunun nedeni IP erişim denetimlerinin isteğinizi reddetmesi olabilir.
FILES_API_AZURE_OPERATION_TIMEOUT
SQLSTATE: hiçbiri atanmadı
İşlem izin verilen süre içinde tamamlanamadı.
FILES_API_AZURE_PATH_INVALID
SQLSTATE: hiçbiri atanmadı
İstenen yol Azure için geçerli değil.
FILES_API_AZURE_PATH_IS_IMMUTABLE
SQLSTATE: hiçbiri atanmadı
İstenen yol sabit.
FILES_API_AZURE_UNSUPPORTED_HEADER
SQLSTATE: hiçbiri atanmadı
İşlemde belirtilen başlıklardan biri desteklenmiyor.
FILES_API_CANNOT_PARSE_URL_PARAMETER
SQLSTATE: hiçbiri atanmadı
URL parametresi ayrıştırılamıyor.
FILES_API_CATALOG_NOT_FOUND
SQLSTATE: hiçbiri atanmadı
<unity_catalog_error_message>
FILES_API_CLOUD_RESOURCE_EXHAUSTED
SQLSTATE: hiçbiri atanmadı
<message>
FILES_API_CLOUD_STORAGE_PROVIDER_CONNECTION_ISSUE
SQLSTATE: hiçbiri atanmadı
Bağlantı sorunu yaşanıyor <cloud_storage_provider>. Lütfen daha sonra yeniden deneyin.
FILES_API_COLON_IS_NOT_SUPPORTED_IN_PATH
SQLSTATE: hiçbiri atanmadı
':' karakteri dosya yollarında desteklenmiyor
FILES_API_CONSUMER_NETWORK_ZONE_NOT_ALLOWED
SQLSTATE: hiçbiri atanmadı
İstek sahibi ağ bölgesi "<consumer_network_zone>"den tüketici ağ bölgesi "<requester_network_zone>"ne izin verilmiyor.
FILES_API_CONTROL_PLANE_NETWORK_ZONE_NOT_ALLOWED
SQLSTATE: hiçbiri atanmadı
Databricks Denetim düzlemi ağ bölgesine izin verilmez.
DOSYALAR_API_BELGE_BULUNAMADI
SQLSTATE: hiçbiri atanmadı
Kimlik bilgileri bulunamadı.
FILES_API_DIRECTORIES_CANNOT_HAVE_BODIES
SQLSTATE: hiçbiri atanmadı
Bir gövde sağlandı, ancak dizinlerin dosya gövdesi olamaz
FILES_API_DIRECTORY_IS_NOT_EMPTY
SQLSTATE: hiçbiri atanmadı
Dizin boş değil. Bu işlem boş olmayan dizinlerde desteklenmez.
FILES_API_DIRECTORY_IS_NOT_FOUND
SQLSTATE: hiçbiri atanmadı
Erişilen dizin bulunamadı.
DOSYALAR_API_DİZİN_ZIP_İNDİRME_DOSYA_LİMİTİ_AŞILDI
SQLSTATE: hiçbiri atanmadı
Dizin, ZIP indirmesi için çok fazla dosya içeriyor. İzin verilen en fazla <max_file_count> dosya sayısı.
FILES_API_DMK_ENCRYPTION_ROOT_KEY_DISABLED
SQLSTATE: hiçbiri atanmadı
Müşteri tarafından yönetilen şifrelemenin kök anahtarı devre dışı bırakıldı.
FILES_API_DUPLICATED_HEADER
SQLSTATE: hiçbiri atanmadı
İstek, yalnızca bir kez izin verilen bir başlığın birden fazla kopyasını içeriyordu.
FILES_API_DUPLICATE_QUERY_PARAMETER
SQLSTATE: hiçbiri atanmadı
'<parameter_name>' sorgu parametresi tam olarak bir kez mevcut olmalıdır, ancak birden çok kez sağlanmıştır.
FILES_API_EMPTY_BUCKET_NAME
SQLSTATE: hiçbiri atanmadı
DBFS depolama alanı adı boş.
FILES_API_ENCRYPTION_KEY_PERMISSION_DENIED
SQLSTATE: hiçbiri atanmadı
Kullanıcının şifreleme anahtarına erişimi yok.
FILES_API_ENCRYPTION_KEY_RETRIEVAL_OPERATION_TIMEOUT
SQLSTATE: hiçbiri atanmadı
Şifreleme anahtarını alma işlemi izin verilen süre içinde tamamlanamadı.
FILES_API_ENTITY_TOO_LARGE
SQLSTATE: hiçbiri atanmadı
Nesneniz izin verilen nesne boyutu üst sınırını aşıyor.
FILES_API_ERROR_EXPIRED_TTL
SQLSTATE: hiçbiri atanmadı
TTL'nin süresi doldu.
FILES_API_ERROR_INVALID_TTL
SQLSTATE: hiçbiri atanmadı
TTL geçersiz.
FILES_API_ERROR_KEY_FOR_WORKSPACE_IS_NOT_FOUND
SQLSTATE: hiçbiri atanmadı
Çalışma alanının anahtarı bulunamadı.
FILES_API_ERROR_MISSING_REQUIRED_PARAM
SQLSTATE: hiçbiri atanmadı
URL'de gerekli bir parametre eksik.
FILES_API_ERROR_TTL_IN_THE_FUTURE
SQLSTATE: hiçbiri atanmadı
TTL gelecekte.
FILES_API_ERROR_URL_INVALID_ISSUER_SHARD_NAME
SQLSTATE: hiçbiri atanmadı
Çıkaran parça adı geçersiz.
FILES_API_EXPIRATION_TIME_MUST_BE_PRESENT
SQLSTATE: hiçbiri atanmadı
Son kullanma zamanı mevcut olmalıdır
FILES_API_EXPIRED_TOKEN
SQLSTATE: hiçbiri atanmadı
Sağlanan jetonun süresi doldu.
FILES_API_EXPIRE_TIME_MUST_BE_IN_THE_FUTURE
SQLSTATE: hiçbiri atanmadı
ExpireTime gelecekte olmalıdır
FILES_API_EXPIRE_TIME_TOO_FAR_IN_FUTURE
SQLSTATE: hiçbiri atanmadı
İstenen TTL desteklenenden daha uzun (1 saat)
FILES_API_EXTERNAL_LOCATION_PATH_OVERLAP_OTHER_UC_STORAGE_ENTITY
SQLSTATE: hiçbiri atanmadı
<unity_catalog_error_message>
FILES_API_FILE_ALREADY_EXISTS
SQLSTATE: hiçbiri atanmadı
Oluşturulan dosya zaten var.
FILES_API_FILE_NOT_FOUND
SQLSTATE: hiçbiri atanmadı
Erişilen dosya bulunamadı.
FILES_API_FILE_OR_DIRECTORY_ENDS_IN_DOT
SQLSTATE: hiçbiri atanmadı
'.' karakteriyle biten dosyalar veya dizinler desteklenmez.
FILES_API_FILE_SIZE_EXCEEDED
SQLSTATE: hiçbiri atanmadı
Dosya boyutu <max_download_size_in_bytes> baytı aşmamalıdır, ancak <size_in_bytes> bayt bulundu.
FILES_API_GCP_ACCOUNT_IS_DISABLED
SQLSTATE: hiçbiri atanmadı
GCP'de depolama demetine erişim devre dışı bırakıldı.
FILES_API_GCP_BUCKET_DOES_NOT_EXIST
SQLSTATE: hiçbiri atanmadı
Depolama demeti GCP'de yok.
FILES_API_GCP_FORBIDDEN
SQLSTATE: hiçbiri atanmadı
GCP, kovanın erişimini yasakladı.
FILES_API_GCP_IAM_AUTHENTICATION_FAILURE
SQLSTATE: hiçbiri atanmadı
GCP IAM işlemi için kimlik doğrulaması başarısız oldu.
FILES_API_GCP_IAM_CREDENTIALS_NOT_FOUND
SQLSTATE: hiçbiri atanmadı
Belirtilen GCP kimlik bilgileri yok veya erişilemiyor.
FILES_API_GCP_IAM_PERMISSION_DENIED
SQLSTATE: hiçbiri atanmadı
GCP IAM işlemi için izin reddedildi.
FILES_API_GCP_KEY_DELETED
SQLSTATE: hiçbiri atanmadı
Şifreleme anahtarı silindi veya artık erişilebilir değil.
FILES_API_GCP_KEY_DISABLED_OR_DESTROYED
SQLSTATE: hiçbiri atanmadı
Bu konum için yapılandırılan müşteri tarafından yönetilen şifreleme anahtarı devre dışı bırakılır veya yok edilir.
FILES_API_GCP_REQUEST_IS_PROHIBITED_BY_POLICY
SQLSTATE: hiçbiri atanmadı
Demet için GCP istekleri ilke tarafından yasaklanmıştır, VPC hizmet denetimlerini denetleyin.
FILES_API_GCP_USER_PROJECT_ACCOUNT_PROBLEM
SQLSTATE: hiçbiri atanmadı
İstekte kullanılan GCP projesinde işlemin başarıyla tamamlanmasını engelleyen bir sorun var.
FILES_API_HOST_TEMPORARILY_NOT_AVAILABLE
SQLSTATE: hiçbiri atanmadı
Bulut sağlayıcısı ana bilgisayarı geçici olarak kullanılamıyor; lütfen daha sonra yeniden deneyin.
FILES_API_INVALID_CONTENT_LENGTH
SQLSTATE: hiçbiri atanmadı
İçerik uzunluğu üst bilgisinin değeri 0'dan büyük veya buna eşit bir tamsayı olmalıdır.
FILES_API_INVALID_CONTINUATION_TOKEN
SQLSTATE: hiçbiri atanmadı
Sağlanan sayfa belirteci geçerli değil.
FILES_API_INVALID_HEADER_VALUE
SQLSTATE: hiçbiri atanmadı
'<header_name>' üst bilgisinin değeri geçersiz.
FILES_API_INVALID_HOSTNAME
SQLSTATE: hiçbiri atanmadı
Ana bilgisayar adı geçersiz.
FILES_API_INVALID_HTTP_METHOD
SQLSTATE: hiçbiri atanmadı
Geçersiz http yöntemi. '<expected>' bekleniyordu: '<actual>' aldım.
FILES_API_INVALID_METASTORE_ID_HEADER
SQLSTATE: hiçbiri atanmadı
Meta veri deposu kimliği üst bilgisi geçersiz.
FILES_API_INVALID_PAGE_TOKEN
SQLSTATE: hiçbiri atanmadı
geçersiz sayfa belirteci
FILES_API_INVALID_PATH
SQLSTATE: hiçbiri atanmadı
Geçersiz yol: <validation_error>
FILES_API_INVALID_RANGE
SQLSTATE: hiçbiri atanmadı
Aralık üst bilgisi geçersiz.
FILES_API_INVALID_RESOURCE_FULL_NAME
SQLSTATE: hiçbiri atanmadı
<unity_catalog_error_message>
FILES_API_INVALID_SESSION_TOKEN
SQLSTATE: hiçbiri atanmadı
Geçersiz oturum belirteci
FILES_API_INVALID_SESSION_TOKEN_TYPE
SQLSTATE: hiçbiri atanmadı
Geçersiz oturum belirteci türü. '<expected>' bekleniyordu: '<actual>' aldım.
FILES_API_INVALID_TIMESTAMP
SQLSTATE: hiçbiri atanmadı
Zaman damgası geçersiz.
FILES_API_INVALID_UPLOAD_TYPE
SQLSTATE: hiçbiri atanmadı
Geçersiz yükleme türü. '<expected>' bekleniyordu: '<actual>' aldım.
FILES_API_INVALID_URL
SQLSTATE: hiçbiri atanmadı
Geçersiz URL
FILES_API_INVALID_URL_PARAMETER
SQLSTATE: hiçbiri atanmadı
Parametre olarak geçirilen URL geçersiz
FILES_API_INVALID_VALUE_FOR_OVERWRITE_QUERY_PARAMETER
SQLSTATE: hiçbiri atanmadı
'Overwrite' sorgu parametresi şu değerlerden biri olmalıdır: true, false ancak şu değeri aldı: <got_values>
FILES_API_INVALID_VALUE_FOR_QUERY_PARAMETER
SQLSTATE: hiçbiri atanmadı
'<parameter_name>' sorgu parametresi şu değerlerden biri olmalıdır: <expected> ancak: <actual>
FILES_API_MALFORMED_REQUEST_BODY
SQLSTATE: hiçbiri atanmadı
Hatalı biçimlendirilmiş istek metni
FILES_API_MANAGED_CATALOG_FEATURE_DISABLED
SQLSTATE: hiçbiri atanmadı
<unity_catalog_error_message>
FILES_API_METASTORE_NOT_FOUND
SQLSTATE: hiçbiri atanmadı
<unity_catalog_error_message>
FILES_API_METHOD_IS_NOT_ENABLED_FOR_JOBS_BACKGROUND_COMPUTE_ARTIFACT_STORAGE
SQLSTATE: hiçbiri atanmadı
Talep edilen Files API yönteminin, İşler Arka Plan İşlemi Eser Depolaması için desteklenmiyor.
FILES_API_MISSING_CONTENT_LENGTH
SQLSTATE: hiçbiri atanmadı
İstekte içerik uzunluğu başlığı gereklidir.
FILES_API_MISSING_QUERY_PARAMETER
SQLSTATE: hiçbiri atanmadı
Sorgu parametresi '<parameter_name>' gerekli ancak istekte eksik.
FILES_API_MISSING_REQUIRED_PARAMETER_IN_REQUEST
SQLSTATE: hiçbiri atanmadı
İstekte gerekli bir parametre eksik.
FILES_API_MLFLOW_PERMISSION_DENIED
SQLSTATE: hiçbiri atanmadı
<mlflow_error_message>
FILES_API_MLFLOW_RESOURCE_EXHAUSTED
SQLSTATE: hiçbiri atanmadı
Mlflow hizmetiyle iletişim kurarken istek sınırı aşıldı.
FILES_API_MODEL_VERSION_IS_NOT_READY
SQLSTATE: hiçbiri atanmadı
Model sürümü henüz hazır değil
FILES_API_MULTIPART_UPLOAD_ABORT_PRESIGNED_URL_NOT_SUPPORTED
SQLSTATE: hiçbiri atanmadı
<cloud_storage_provider> üzerinde depolanan dosyalar için çok bölümlü karşıya yüklemeleri durdurmak amacıyla önceden imzalanmış URL'ler desteklenmez.
FILES_API_MULTIPART_UPLOAD_ABORT_UPLOAD_NOT_SUPPORTED
SQLSTATE: hiçbiri atanmadı
Üzerinde depolanan <cloud_storage_provider>dosyalar için çok bölümlü karşıya yüklemelerin durdurulması desteklenmez.
FILES_API_MULTIPART_UPLOAD_EMPTY_PART_LIST
SQLSTATE: hiçbiri atanmadı
Parça listesinin en az bir öğesi olmalıdır ancak boştu.
FILES_API_MULTIPART_UPLOAD_INVALID_PART
SQLSTATE: hiçbiri atanmadı
Belirtilen parçalardan biri veya daha fazlası bulunamadı. Bölüm karşıya yüklenmemiş olabilir veya belirtilen varlık etiketi, bölümün varlık etiketiyle eşleşmeyebilir.
FILES_API_MULTIPART_UPLOAD_INVALID_PART_NUMBER
SQLSTATE: hiçbiri atanmadı
Parça numaralarının <min> değerine eşit veya ondan büyük ve <max> değerine eşit veya ondan küçük olması gerekir.
FILES_API_MULTIPART_UPLOAD_MISSING_ETAG
SQLSTATE: hiçbiri atanmadı
üzerinde <cloud_storage_provider>depolanan dosyalar için ETag'ler sağlanmalıdır. En az bir ETag sağlanmadı veya boş.
FILES_API_MULTIPART_UPLOAD_MODIFIED_STORAGE_ENTITY_STATE
SQLSTATE: hiçbiri atanmadı
Örneğin, dosya yolu aynı temel bulut depolama konumuna işaret etmediğinden, karşıya yükleme başlatıldıktan sonra depolama varlığının iç durumu değiştirildi. Yeni bir yükleme oturumu başlatarak devam edin.
FILES_API_MULTIPART_UPLOAD_NON_TRAILING_PARTS_WITH_DIFFERENT_SIZES
SQLSTATE: hiçbiri atanmadı
Yükleme oturumunun bir parçası olarak yüklenen bölümler, üzerinde depolanan <cloud_storage_provider> dosyalar için aynı boyutta olmalıdır, ancak son bölüm daha küçük olabilir.
FILES_API_MULTIPART_UPLOAD_PART_SIZE_OUT_OF_RANGE
SQLSTATE: hiçbiri atanmadı
Çok bölümlü yükleme oturumunun bir parçası olarak karşıya yüklenen bölümlerin boyutu, <min> değerine eşit veya ondan büyük ve <max> değerine eşit veya ondan küçük olmalıdır.
FILES_API_MULTIPART_UPLOAD_SESSION_NOT_FOUND
SQLSTATE: hiçbiri atanmadı
Karşıya yükleme oturumu bulunamadı. Yarıda bırakılmış veya tamamlanmış olabilir.
FILES_API_MULTIPART_UPLOAD_UNORDERED_PART_LIST
SQLSTATE: hiçbiri atanmadı
Parça listesi parça numarasına göre sıralanmalıdır, ancak sıralanmamıştır.
FILES_API_NON_ZERO_CONTENT_LENGTH
SQLSTATE: hiçbiri atanmadı
Bu istek için içerik uzunluğu üst bilgisi sıfır olmalıdır.
FILES_API_NOT_ENABLED_FOR_PLACE
SQLSTATE: hiçbiri atanmadı
<place> için Dosyalar API'si bu çalışma alanı/hesap için etkin değil
FILES_API_NOT_SUPPORTED_FOR_INTERNAL_WORKSPACE_STORAGE
SQLSTATE: hiçbiri atanmadı
İstenen Dosyalar API'sinin yöntemi İç Çalışma Alanı Depolaması için desteklenmiyor
FILES_API_OPERATION_MUST_BE_PRESENT
SQLSTATE: hiçbiri atanmadı
işlem mevcut olmalıdır
FILES_API_OPERATION_TIMEOUT
SQLSTATE: hiçbiri atanmadı
İşlem zaman aşımına uğradı.
FILES_API_PAGE_SIZE_MUST_BE_GREATER_OR_EQUAL_TO_ZERO
SQLSTATE: hiçbiri atanmadı
page_size 0'dan büyük veya buna eşit olmalıdır
DOSYALAR_API_YOL_TABANLI_ELEME_FILTRE_İLE_TABLOYA_ULAŞIM_YASAK
SQLSTATE: hiçbiri atanmadı
<unity_catalog_error_message>
FILES_API_PATH_END_WITH_A_SLASH
SQLSTATE: hiçbiri atanmadı
'/' karakteriyle biten yollar dizinleri temsil eder. Bu API dizinler üzerindeki işlemleri desteklemez.
FILES_API_PATH_IS_A_DIRECTORY
SQLSTATE: hiçbiri atanmadı
Verilen yol mevcut bir dizine işaret ediyor. Bu API dizinler üzerindeki işlemleri desteklemez.
FILES_API_PATH_IS_A_FILE
SQLSTATE: hiçbiri atanmadı
Verilen yol var olan bir dosyayı gösterir. Bu API dosyalar üzerindeki işlemleri desteklemez.
FILES_API_PATH_IS_NOT_A_VALID_UTF8_ENCODED_URL
SQLSTATE: hiçbiri atanmadı
verilen yol geçerli bir UTF-8 kodlanmış URL değildi
FILES_API_PATH_IS_NOT_ENABLED_FOR_DATAPLANE_PROXY
SQLSTATE: hiçbiri atanmadı
Veri düzlemi ara sunucusu için verilen yol etkinleştirilmemiş
FILES_API_PATH_MUST_BE_PRESENT
SQLSTATE: hiçbiri atanmadı
yol mevcut olmalıdır
FILES_API_PATH_NOT_SUPPORTED
SQLSTATE: hiçbiri atanmadı
<rejection_message>
FILES_API_PATH_TOO_LONG
SQLSTATE: hiçbiri atanmadı
Sağlanan dosya yolu çok uzun.
FILES_API_PRECONDITION_FAILED
SQLSTATE: hiçbiri atanmadı
İstek bir önkoşul nedeniyle başarısız oldu.
FILES_API_PRESIGNED_URLS_FOR_MODELS_NOT_SUPPORTED
SQLSTATE: hiçbiri atanmadı
Modeller için önceden imzalanmış URL'lere yönelik Dosya API'si şu anda desteklenmiyor.
FILES_API_R2_CREDENTIALS_DISABLED
SQLSTATE: hiçbiri atanmadı
R2 şu anda desteklenmiyor.
FILES_API_RANGE_NOT_SATISFIABLE
SQLSTATE: hiçbiri atanmadı
İstenen aralık tatmin edici değil.
FILES_API_RECURSIVE_LIST_IS_NOT_SUPPORTED
SQLSTATE: hiçbiri atanmadı
Dosyaların özyinelemeli olarak listelenmesi desteklenmez.
FILES_API_REQUESTER_NETWORK_ZONE_UNKNOWN
SQLSTATE: hiçbiri atanmadı
İstekçinin ağ bölgesi belirlenemiyor.
FILES_API_REQUEST_GOT_ROUTED_INCORRECTLY
SQLSTATE: hiçbiri atanmadı
İstek yanlış yönlendirildi
FILES_API_REQUEST_MUST_INCLUDE_ACCOUNT_INFORMATION
SQLSTATE: hiçbiri atanmadı
İstekte hesap bilgileri bulunmalıdır
DOSYALAR_API_İSTEĞİ_ALICI_BİLGİLERİNİ_İÇERMELİDİR
SQLSTATE: hiçbiri atanmadı
İstek, alıcı bilgilerini içermelidir.
FILES_API_REQUEST_MUST_INCLUDE_USER_INFORMATION
SQLSTATE: hiçbiri atanmadı
İstek kullanıcı bilgilerini içermelidir
FILES_API_REQUEST_MUST_INCLUDE_WORKSPACE_INFORMATION
SQLSTATE: hiçbiri atanmadı
İstek çalışma alanı bilgilerini içermelidir
FILES_API_RESOURCE_IS_READONLY
SQLSTATE: hiçbiri atanmadı
Kaynak salt okunabilir.
FILES_API_RESOURCE_NOT_FOUND
SQLSTATE: hiçbiri atanmadı
<unity_catalog_error_message>
FILES_API_SCHEMA_NOT_FOUND
SQLSTATE: hiçbiri atanmadı
<unity_catalog_error_message>
FILES_API_SECURE_URL_CANT_BE_ACCESSED
SQLSTATE: hiçbiri atanmadı
URL'ye erişilemiyor.
FILES_API_SIGNATURE_VERIFICATION_FAILED
SQLSTATE: hiçbiri atanmadı
İmza doğrulaması başarısız oldu.
FILES_API_STORAGE_ACCESS_CONTEXT_INVALID
SQLSTATE: hiçbiri atanmadı
Depolama erişim bağlamı geçersiz.
FILES_API_STORAGE_CONTEXT_IS_NOT_SET
SQLSTATE: hiçbiri atanmadı
Bu çalışma alanı için depolama yapılandırmasına erişilemiyor.
FILES_API_STORAGE_CREDENTIAL_NOT_FOUND
SQLSTATE: hiçbiri atanmadı
<unity_catalog_error_message>
FILES_API_TABLE_TYPE_NOT_SUPPORTED
SQLSTATE: hiçbiri atanmadı
<table_type> için Dosyalar API'si desteklenmiyor.
FILES_API_UC_AUTHENTICATION_FAILURE
SQLSTATE: hiçbiri atanmadı
<unity_catalog_error_message>
FILES_API_UC_IAM_ROLE_NON_SELF_ASSUMING
SQLSTATE: hiçbiri atanmadı
<unity_catalog_error_message>
FILES_API_UC_MODEL_INVALID_STATE
SQLSTATE: hiçbiri atanmadı
<unity_catalog_error_message>
FILES_API_UC_PERMISSION_DENIED
SQLSTATE: hiçbiri atanmadı
<unity_catalog_error_message>
FILES_API_UC_RESOURCE_EXHAUSTED
SQLSTATE: hiçbiri atanmadı
<message>
FILES_API_UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH
SQLSTATE: hiçbiri atanmadı
<unity_catalog_error_message>
FILES_API_UC_VOLUME_NAME_CHANGED
SQLSTATE: hiçbiri atanmadı
<unity_catalog_error_message>
DOSYALAR_API_AZURE_YÖNETİLEN_KİMLİKLERİ_YENİLEYEMİYOR
SQLSTATE: hiçbiri atanmadı
Azure yönetilen kimliği yenilenemiyor.
FILES_API_UNEXPECTED_ERROR_WHILE_PARSING_URI
SQLSTATE: hiçbiri atanmadı
URI ayrıştırırken beklenmeyen hata
FILES_API_UNEXPECTED_QUERY_PARAMETERS
SQLSTATE: hiçbiri atanmadı
Beklenmeyen sorgu parametreleri: <unexpected_query_parameters>
FILES_API_UNKNOWN_METHOD
SQLSTATE: hiçbiri atanmadı
Bilinmeyen yöntem <method>
FILES_API_UNKNOWN_SERVER_ERROR
SQLSTATE: hiçbiri atanmadı
Bilinmeyen sunucu hatası.
FILES_API_UNKNOWN_URL_HOST
SQLSTATE: hiçbiri atanmadı
URL ana bilgisayarı bilinmiyor.
FILES_API_UNSUPPORTED_AUTHENTICATION_METHOD
SQLSTATE: hiçbiri atanmadı
İstek doğru bir şekilde kimlik doğrulamadan geçirilmedi.
FILES_API_UNSUPPORTED_HTTP_METHOD
SQLSTATE: hiçbiri atanmadı
httpMethod desteklenmiyor.
FILES_API_UNSUPPORTED_PARAMETERS_COMBINATION
SQLSTATE: hiçbiri atanmadı
Parametrelerin birleşimi desteklenmez.
FILES_API_UNSUPPORTED_PATH
SQLSTATE: hiçbiri atanmadı
Sağlanan yol Dosyalar API'sinde desteklenmiyor. Sağlanan yolun '../' veya './' dizilerini içermediğinden emin olun. Sağlanan yolun ardışık birden çok eğik çizgi kullanmadığından emin olun (örneğin, '///').
FILES_API_UPLOAD_PART_URLS_COUNT_MUST_BE_GREATER_THAN_ZERO
SQLSTATE: hiçbiri atanmadı
'count' giriş parametresi 0'dan büyük olmalıdır.
FILES_API_URL_GENERATION_DISABLED
SQLSTATE: hiçbiri atanmadı
<cloud>için önceden imzalanmış URL oluşturma etkinleştirilmedi.
FILES_API_VOLUME_TYPE_NOT_SUPPORTED
SQLSTATE: hiçbiri atanmadı
<volume_type> için Dosya API'si desteklenmez.
FILES_API_WORKSPACE_IS_CANCELED
SQLSTATE: hiçbiri atanmadı
Çalışma alanı iptal edildi.
FILES_API_WORKSPACE_IS_NOT_FOUND
SQLSTATE: hiçbiri atanmadı
Bu çalışma alanı için depolama yapılandırmasına erişilemiyor.
Lakeflow Spark Bildirimli İşlem Hatları
ABAC_POLICIES_NOT_SUPPORTED
ABAC ilkeleri bir işlem hattı içinde tanımlanan tablolarda desteklenmez.
İlkeleri kaldırın veya Databricks desteğine başvurun.
ANORMAL_SÜRÜCÜ_SONA_ERDİ
Kümedeki <clusterId> sürücüsü <terminationCause> nedeniyle anormal şekilde sonlandırıldı. Daha fazla bilgi için lütfen sürücü günlüklerine bakın.
ACTIVE_UPDATE_EXISTS_FOR_LINKED_PIPELINE
'<updateId>' bağlantılı işlem hattı için etkin bir ''<linkedPipelineId> güncelleştirmesi zaten var.
ACTIVE_UPDATE_EXISTS_FOR_PIPELINE
'<updateId>' işlem hattı için etkin bir ''<pipelineId> güncelleştirmesi zaten var.
ALTER_NOT_ALLOWED_FOR_PIPELINE_TABLE
ALTER tarafından yönetilen tablolarda izin verilmez
Daha fazla detay için bkz. ALTER_NOT_ALLOWED_FOR_PIPELINE_TABLE
ALTER_SCHEDULE_SCHEDULE_DOES_NOT_EXIST
Mevcut bir zamanlama veya tetikleyici olmadan bir tablodaki <type> değiştirilemez. Lütfen tabloyu değiştirmeye çalışmadan önce tabloya bir zamanlama veya tetikleyici ekleyin.
API_QUOTA_EXCEEDED
<sourceName>veri kaynağı için API kotasını aştınız.
Daha fazla bilgi almak için bkz. API_QUOTA_EXCEEDED
APPLY_CHANGES_ERROR
İşlem sırasında AUTO CDC bir hata oluştu.
Daha fazla ayrıntı için bkz. APPLY_CHANGES_ERROR
APPLY_CHANGES_FROM_SNAPSHOT_ERROR
İşlem sırasında AUTO CDC FROM SNAPSHOT bir hata oluştu.
Daha fazla ayrıntı için bkz. APPLY_CHANGES_FROM_SNAPSHOT_ERROR
APPLY_CHANGES_FROM_SNAPSHOT_EXPECTATIONS_NOT_SUPPORTED
Veri kümesinin <datasetName> beklentileri tanımlanmıştır, ancak şu anda kullanan AUTO CDC FROM SNAPSHOTveri kümeleri için beklentiler desteklenmemektedir.
Bu hatayı çözmek için beklentileri kaldırın. Alternatif olarak, beklentileri uygulamak için AUTO CDC ve AUTO CDC FROM SNAPSHOT'i birleştirerek aşağıdaki yapıyı kullanmayı göz önünde bulundurun.
SCD türü 1'i kullanarak anlık görüntüden bir ara tabloya beklenmeyen değişiklikler uygulayın.
spark.readStream.option("readChangeFeed", "true").tablekullanarak ara tablodan değişiklikleri okuyun.dlt.apply_changeskullanarak ara tablodaki değişiklikleri şu andadlt.apply_changes_from_snapshotile kullanılanlara ek olarak aşağıdaki parametrelerle son hedef tabloya uygulayın:
Değişiklikleri işlemek için:
apply_as_deletes = "_change_type == 'delete'"CDF tarafından eklenen sütunları kaldırmak için:
except_column_list = ["_change_type", "_commit_version", "_commit_timestamp"]
- için
dlt.apply_changeskullanılan son hedef tabloya geçerli beklenti kümesini ekleyin.
APPLY_CHANGES_PARTIAL_UPDATES_NOT_ENABLED
COLUMNS ile UPDATE arasındaki özellik önizleme aşamasındadır ve çalışma alanınız için etkin değildir. Bu özellik hakkında daha fazla bilgi edinmek ve özel önizlemeye erişmek için lütfen Databricks temsilcinize ulaşın.
UYGULAMA_ORTAMI_KÜME_MEVCUT_DEĞİL
<pipelineId> için boru hattı hesaplama mevcut değil. İşlem hattı hesaplaması durdurulmuş veya hâlâ başlatılıyor olabilir.
İşlem tam olarak kullanılabilir olduğunda lütfen daha sonra yeniden deneyin. Sorun devam ederse lütfen Databricks desteğine başvurun.
UYGULAMA_ÇEVRE_KÜMESİ_BULUNAMADI
<pipelineId> için işlem hattı hesaplaması bulunamadı. Bu hesaplama hattı hiç başlatılmamış veya zaten durdurulmuş olabilir. Lütfen işlem hattını başlatın
ortamı uygulamadan önce.
ÇEVRE UYGULAMA DESTEKLENMİYOR
ApplyEnvironment uç noktası desteklenmiyor.
ARCHITECTURE_MIGRATION_FAILURE
Daha fazla ayrıntı için bkz. ARCHITECTURE_MIGRATION_FAILURE
ARCLIGHT_REQUIRES_SERVERLESS
Varsayılan Depolama kullanan katalogları hedefleyen işlem hatları sunucusuz işlem kullanmalıdır. Sunucusuz işlem erişiminiz yoksa, bu özelliği çalışma alanınızda etkinleştirmek için lütfen Databricks'e başvurun.
AUTO_FULL_REFRESH_DISABLED
Otomatik Tam Yenileme, tablosu <tableName>için devre dışı bırakıldı.
AUTO_FULL_REFRESH_NOT_ALLOWED
Otomatik Tam yenileme, nedeniyle tablo <tableName><reason>için başarısız oldu.
AUTO_FULL_REFRESH_THROTTLED
Otomatik Tam yenileme başarısız oldu. Tablo <tableName> otomatik olarak yenilendi ve bir sonraki otomatik tam yenileme şundan önce en düşük aralıkta yenilendi <timestamp> : <minInterval> dakika.
AZURE_ACTIVE_DIRECTORY_AUTHENTICATION_FAILED
Azure Active Directory kimlik doğrulaması başarısız oldu (AADSTS5000224).
İzleme Kimliği: <traceId>, Bağıntı Kimliği: <correlationId>.
Azure Active Directory'nin doğru yapılandırıldığını ve erişilebilir olduğunu doğrulayın. Sorun devam ederse Microsoft desteğine başvurun.
AZURE_MANAGED_IDENTITY_CREDENTIAL_NOT_FOUND
Hesabı <accessConnectorId>için Erişim Bağlayıcısı Kimliği <accountId> ile Azure Yönetilen Kimlik Kimlik Bilgileri bulunamadı.
Kimlik bilgilerinin mevcut olduğunu ve doğru yapılandırıldığını doğrulayın.
AZURE_STORAGE_HOSTNAME_RESOLUTION_FAILED
Azure depolama ana bilgisayar adı çözümlenemedi: <hostname>.
DNS'nin düzgün yapılandırılıp yapılandırılmadığını ve depolama hesabına ağınızdan erişilebildiğini denetleyin.
AZURE_STORAGE_REQUEST_NOT_AUTHORIZED
Azure depolama isteği ağ güvenlik çevresi tarafından yetkilendirilmedi.
Depolama alanının doğru yapılandırıldığını ve erişilebilir olduğunu doğrulayın.
BIGQUERY_DATA_CONNECTOR_SOURCE_CATALOG_MISSING
BigQuery veri bağlayıcısında bir hata oluştu.
Alma belirtiminizde 'kaynak katalog' (GCP Proje Kimliği) eksik.
Bu sorunu çözmek için lütfen alma belirtiminizde kaynak kataloğu (proje kimliği) belirtin.
CANNOT_ADD_COLUMN_TO_INCLUDE_COLUMNS
tablo <columnNames>için işlem hattı tanımındaki include_columns alanına yeni sütunlar (<qualifiedTableName>) eklenir. Olası veri kaybını önlemek veya bu sütunları include_columns kaldırmak için lütfen tabloyu tam olarak yenileyin.
CANNOT_ADD_STORAGE_LOCATION
Tanımlı kataloğu olan mevcut bir işlem hattına depolama konumu eklenemez; eğer bir depolama konumu ayarlamak istiyorsanız, yeni bir işlem hattı oluşturun.
Mevcut katalog: '<catalog>'.
İstenen depolama konumu: <storageLocation>.
CANNOT_COMPOSE_DECORATOR
SQLSTATE: hiçbiri atanmadı
Dekoratör @<decoratorName> ile <otherDecorators>oluşturulamaz.
CANNOT_EXCLUDE_NON_EXISTENT_COLUMN
İşlem hattı tanımı, kaynak <columnNames>'nin tablo <qualifiedTableName>'inde bulunmayan sütunları (<sourceType>) dışlar. Lütfen bu sütunları exclude_columns alanından kaldırın.
CANNOT_FILTER_OUT_REQUIRED_COLUMN
Veri alımı için kaynak <columnNames>'deki <qualifiedTableName> tablosunda gerekli sütunlar (<sourceType>), işlem hattı tanımında yer almıyor. Lütfen bunları "include_columns"a ekleyin ya da "exclude_columns"tan çıkarın.
CANNOT_INCLUDE_NON_EXISTENT_COLUMN
İşlem hattı tanımı, var olmayan veya kaynak <columnNames>tablosunda <qualifiedTableName> erişilebilir olmayan sütunları (<sourceType>) içerir. Lütfen bu sütunları include_columns alanından kaldırın.
CANNOT_INGEST_TABLE_WITHOUT_PRIMARY_KEY
<qualifiedTableName> kaynaktaki <sourceType> tabloda birincil anahtar yok.
Tabloyu eklemek için bağlayıcı yapılandırmasında bir birincil anahtar belirtin, eğer mevcutsa.
CANNOT_MODIFY_PIPELINE_OWNER_FOR_UC_PIPELINES
UC olmayan işlem hatlarının sahibini değiştirme işlemi henüz desteklenmiyor.
CANNOT_MODIFY_PIPELINE_OWNER_PERMISSION_DENIED
yalnızca çalışma alanı yöneticileri işlem hattı sahibini değiştirebilir.
CANNOT_MODIFY_PIPELINE_OWNER_WHEN_MISSING
Yeni sahip yok.
CANNOT_MODIFY_PIPELINE_TYPE
pipeline_type güncelleştirilemiyor.
Geçerli boru hattı türü: <currentPipelineType>.
Güncellenmiş pipeline_type: <requestedPipelineType>.
CANNOT_MODIFY_STORAGE_LOCATION
Mevcut bir işlem hattının depolama konumu değiştirilemez.
Mevcut depolama konumu: '<existingStorageLocation>'.
İstenen depolama konumu: <requestedStorageLocation>.
CANNOT_REMOVE_COLUMN_FROM_EXCLUDE_COLUMNS
Sütunlar (<columnNames>), tablo <qualifiedTableName>için işlem hattı tanımındaki exclude_columns alanından kaldırılır. Olası veri kaybını önlemek için lütfen tabloyu tam olarak yenileyin veya bu sütunları exclude_columns geri ekleyin.
CANNOT_SET_CATALOG_FOR_HMS_PIPELINE
UC kullanarak yeni bir işlem hattı oluşturmak ve kataloğu ayarlamak istiyorsanız, tanımlı depolama konumuna sahip mevcut bir işlem hattına katalog eklenemez.
Mevcut depolama konumu: '<storageLocation>'
İstenen katalog: '<catalog>'
CANNOT_SET_LINKED_PIPELINE_ID
İşlem hattı kimlikleri aynıdır ve bağlı işlem hattı kimliklerinin ayarlanması kilitlenmeye neden olur.
CANNOT_SET_SCHEMA_FOR_EXISTING_PIPELINE
İşlem hattı ayarlarında belirtilen '<pipelineName>schema' alanı yasadışıdır. Reason:
Daha fazla ayrıntı için bkz. CANNOT_SET_SCHEMA_FOR_EXISTING_PIPELINE
CANNOT_SET_TOGETHER
SQLSTATE: hiçbiri atanmadı
<argList> birbirini tamamen dışlar ve birlikte ayarlanamaz.
CANNOT_SPECIFY_BOTH_INCLUDE_EXCLUDE_COLUMNS
İşlem hattı tanımı, <identifier>için hem include_columns hem de exclude_columns'i belirtir. Lütfen bunlardan birini kaldırın.
CANNOT_UPDATE_CLUSTERING_COLUMNS
Bölüm sütunlarını kullandığından tablo <tableName> için kümeleme sütunları güncelleştirilemiyor. Tablo bölüm sütunlarını veya kümeleme sütunlarını kullanabilir, ancak ikisini birden kullanamaz.
Sıvı kümeleme ve bölümleme arasında geçiş yapmak için bu tablonun tam yenilemesini tetikleyin.
CANNOT_UPDATE_PARTITION_COLUMNS
Akış tablosu <tableName>için bölüm sütunları güncellenemiyor.
Geçerli: <existingPartitionColumns>,
İstenen: <requestedPartitionColumns>
Bu bölüm değişikliğini uygulamak için bu tablonun ve bölüm sütunlarının güncelleştirilmiş olduğu diğer akış tablolarının tam yenilemesini tetikleyin.
Alternatif olarak, mevcut bölüm sütunlarını kullanmaya devam etmek için bu değişikliği geri döndürebilirsiniz.
CANNOT_UPDATE_TABLE_SCHEMA
tablo <tableName>için geçerli ve yeni şemalar birleştirılamadı.
Bu şema değişikliğine devam etmek için bu tablonun tam yenilemesini tetikleyebilirsiniz.
Kullanım örneğiniz ve şema değişikliklerinize bağlı olarak, şema değişikliğini gizleyebilirsiniz; çıkış şemasının mevcut şemayla uyumlu olması için sorgularınızı güncelleştirebilirsiniz (örneğin, sütunları açıkça doğru veri türüne dönüştürerek).
CANNOT_WRITE_TO_INACTIVE_COLUMNS
<details>
Ancak, hedef tablolarda zaten bu ada sahip etkin olmayan sütun(lar) vardır; sütunlar daha önce kaynak tablolardan silindiğinden devre dışıdır.
Güncelleştirmeye devam etmek için tablolarda bir FULL REFRESH çalıştırın.
CANNOT_WRITE_TO_INACTIVE_TABLES
Hedefteki aşağıdaki tablolar etkin değil ve geçerli kaynak tablolarla çakışıyor: <tables>.
Bu tablolar daha önce kaynaktan silindiğinden veya bağlayıcıdan seçilmediğinden devre dışı kalır.
Güncelleştirmeye devam etmek için lütfen hedef tablo adını değiştirin veya bu tablolarda bir FULL REFRESH gerçekleştirin ya da bu etkin olmayan tabloları Katalog Gezgini'nde veya komutuyla DROP TABLE hedeften bırakın ve güncelleştirmeyi yeniden deneyin.
CANNOT_WRITE_TO_TABLES_PENDING_RESET
Hedefteki aşağıdaki tablolar önceki tam yenilemede doğru sıfırlanmaz: <tables>.
Lütfen bunları geri yüklemek için tam bir yenileme tetikleyin.
CATALOG_MAPPING_NOT_AVAILABLE_IN_UC
UC kataloğunda '<sourceCatalog>' kataloğu için eşleme yok.
Lütfen kataloğun UC kataloğunda kayıtlı olup olmadığını denetleyin.
CATALOG_SCHEMA_MISMATCH_WITH_DESTINATION_PIPELINE
'<destPipelineCatalog>' kimliğine sahip hedef işlem hattının kataloğu <destPipelineSchema> ve şeması <destPipelineId>, tablonun <tableName> kataloğu ve şemasıyla eşleşmiyor. Hedef işlem hattının tabloyla aynı katalog ve şemaya sahip olması veya hedef işlem hattının Doğrudan Yayımlama Modu'nu kullanıyor olması gerekir.
CATALOG_SPEC_UNSUPPORTED
CatalogSpecs şu anda veritabanı bağlayıcıları tarafından desteklenmemektedir. Lütfen katalog belirtimini kaldırın.
CDC_APPLIER_AUTO_FULL_REFRESH_POLICY_MUST_BE_SAME_FOR_ALL_DESTINATION_TABLES
Aynı kaynak tabloya bağlı tüm hedef tabloların Otomatik Tam Yenileme İlkesi aynı olmalıdır.
Kaynağına <destinationTables>bağlı aşağıdaki hedef tablolar <sourceTable> için ilkeyi değiştirin.
CDC_APPLIER_COLUMN_UOID_NOT_SUPPORTED
Tablo <columnNames> için UOID <tableName> içeren sütunlar CDC tarafından yönetilen alım işlem hatlarında desteklenmez.
Lütfen alma işlem hattının UOID sütununu desteklediğini denetleyin veya tabloda tam yenileme isteyin.
CDC_APPLIER_FATAL_FAILURE_FROM_GATEWAY
Ağ Geçidi Boru Hattı ölümcül bir hatayla karşılaştı:
<errorMessage>
İşlem hattı güncelleştirme hatasını burada inceleyin: <link>.
CDC_APPLIER_INGESTION_GATEWAY_REMOVED
Yönetilen Alım İşlem Hattı'na bağlı alım ağ geçidi işlem hattı <pipelineId> kaldırıldı.
Lütfen Yönetilen Alım işlem hattını kaldırın ve hem Alma Ağ Geçidi hem de Yönetilen Alım işlem hatları oluşturun.
CDC_APPLIER_REPLICATED_TABLE_METADATA_NOT_READY
Çoğaltılan <tableName> tablosunun meta verileri hazır değil.
Mevcut iş isteği zaman damgasıdır <existingRequestTs>, ancak veya daha sonrasını bekliyoruz <expectedRequestTs> .
CDC_APPLIER_REQUIRES_ALL_DESTINATION_TABLES_FULL_REFRESH
Bir hedef tablonun tam olarak yenilenmesi ve aynı kaynaktan başka bir hedef tablonun normal olarak güncelleştirilmesi desteklenmez.
Mümkünse devam etmek için lütfen her iki tabloyu da tam olarak yenileyin.
Tam yenileme tabloları: <fullRefreshTables>
Kaynak <sourceTable> için hedef tablolar: <destinationTables>
CDC_APPLIER_SCHEMA_CHANGED_DURING_STREAMING
Şema sürümü <dataSchemaVersion>, <readSchemaVersion>okuma şeması sürümünden farklıdır.
Lakeflow Spark Bildirimli İşlem Hatları güncelleştirmeyi yeniden dener.
CDC_APPLIER_SEQUENCE_BY_COLUMN_NOT_FOUND
Tablo <columnName> için sequenceBy ile belirtilen sütun <tableName>, <columns> içinde mevcut değil.
CDC_APPLIER_SEQUENCE_BY_INVALID_TYPE
sequenceBy içinde belirtilen tablo <columnName> sütunu <tableName> desteklenmeyen türdedir<typeName>.
sequenceBy sütunları için desteklenen türler şunlardır: <allowedTypes>.
CDC_APPLIER_SEQUENCE_BY_MULTIPLE_COLUMNS_NOT_SUPPORTED
CDC yönetilen yükleme işlem hattının sequenceBy bölümünde en fazla bir sütun belirtilebilir.
Belirtilen sütunlar: <columns> tablo <tableName> için.
CDC_INCOMPATIBLE_SCHEMA_CHANGES
<cause> şema sürümünden <previousSchemaVersion>sürümüne uyumsuz bir şema değişikliğiyle (<currentSchemaVersion>) karşılaştık.
Bu nedenle, <tableName>için değişiklikleri uygulamaya devam edemeyiz. Lütfen tablonun tam olarak yenilenmesini isteyin.
Önceki şema: <previousSchema>
Geçerli şema: <currentSchema>
CDC_MULTIPLE_SOURCE_TABLES_MAPPED_TO_SAME_DESTINATION_TABLE
Birden çok kaynak tablo bulundu: <source_tables> aynı hedef tabloya <destination_table>eşlendi.
Lütfen bunları farklı hedef tablo adıyla veya farklı hedef şemayla eşleyin.
CDC_POTENTIAL_DATA_GAPS
Aşağıdaki tablo [<needFullRefreshTableList>] <retention> gündür başarılı bir şekilde güncellenmemiştir.
Lütfen bu tablolarda veya tüm işlem hattında tam yenileme yapın.
CDC_SAME_TABLE_FROM_MULTIPLE_SOURCES
Birden çok kaynaktan <table> aynı tablo adını buldum: <sources>.
Çakışmayı önlemek için lütfen bunları farklı işlem hatlarına bölün.
CDC_SOURCE_VALIDATION_FAILURE
Kaynak veritabanı doğrulaması hata algılandı <errorCount> . Ayrıntılı sonuçlar ve düzeltme adımları için olay günlüğü raporlarına bakın.
CDC_TABLE_NOT_FOUND_IN_ALL_TABLES
Tablo <table>, kaynak veritabanının tüm tabloların anlık görüntüsünde bulunmaz.
Tablo özellik ayrıntıları:
<tableSpec>
CHANGES_HMS_PIPELINE_TO_UC_NOT_ALLOWED
HMS işlem hattının UC işlem hattı olarak değiştirilmesine izin verilmez.
CHANGES_UC_PIPELINE_TO_HMS_NOT_ALLOWED
UC işlem hattınıN HMS işlem hattına değiştirilmesine izin verilmez.
CHANGING_CATALOG_NOT_ALLOWED
Mevcut bir işlem hattının kataloğu değiştirilemez. Mevcut katalog: '<existingCatalog>'. İstenen katalog: '<requestedCatalog>'.
CHANGING_TARGET_SCHEMA_NOT_ALLOWED
Hedef şemanın değiştirilmesine izin verilmiyor. Neden: <reason>.
CLUSTER_CREATION_BUDGET_POLICY_LIMIT_EXCEEDED
İşlem hattının bütçe politikası limiti aştığından dolayı küme oluşturulamadı. Lütfen farklı bir ilke kullanın veya faturalama yöneticinize ulaşın.
CLUSTER_CREATION_CLIENT_ERROR
İşlem hattı kümesi oluşturulamadı: <errorMessage>
Bu hata büyük olasılıkla işlem hattındaki bir yanlış yapılandırmadan kaynaklanır.
Boru hattı kümesi yapılandırmasını ve ilgili küme politikasını kontrol edin.
CLUSTER_CREATION_CLUSTER_POLICY_LIMIT_EXCEEDED
"<clusterPolicy>" ilkesi için kullanıcı başına çalışan küme sayısı sınırını <clusterLimit>aştığından küme oluşturulamadı. Lütfen farklı bir ilke kullanın veya yöneticinize ulaşın.
CLUSTER_CREATION_CREDITS_EXHAUSTED
Kullanılabilir kredilerinizi tükettiklerinden küme oluşturulamadı. Hesabınızı yükseltmek için lütfen bir ödeme yöntemi ekleyin.
CLUSTER_CREATION_RESOURCE_EXHAUSTED
Kaynak sınırlarını aştığından küme oluşturulamadı: <errorMessage>
CLUSTER_CREATION_SECRETS_FETCH_FAILED
Spark yapılandırmasında başvurulan gizli diziler getirilemiyor.
Gizli dizilerin mevcut olup olmadığını ve küme sahibinin okuma izinlerine sahip olup olmadığını denetleyin.
CLUSTER_LAUNCH_CLIENT_ERROR
İşlem hattı kümesi başlatılamadı <clusterId>: <clusterStateMessage>
Bu hata büyük olasılıkla işlem hattındaki bir yanlış yapılandırmadan kaynaklanır.
Boru hattı kümesi yapılandırmasını ve ilgili küme politikasını kontrol edin.
CLUSTER_LAUNCH_CLOUD_FAILURE
İşlem hattı kümesi başlatılamadı <clusterId>: <clusterStateMessage>
Bu hata geçici olabilir. Aynı sorunu görmeye devam ederseniz işlem hattınızı ve raporunuzu yeniden başlatın.
CLUSTER_LAUNCH_RESOURCE_EXHAUSTED
Kaynak sınırlarının tükenmesi nedeniyle işlem hattı kümesi <clusterId> başlatılamadı: <clusterStateMessage>.
Küme Başlatma Kaynağı Bitimi
İşlem hattı kümesi başlatılamadı <clusterId>: <clusterStateMessage>
İstenen örnek türü bulut sağlayıcısı tarafından sağlanamadı.
Lütfen bulut sağlayıcısı aboneliğinizi denetleyin veya farklı bir örnek türüyle yeniden deneyin.
CLUSTER_SETUP_CLIENT_ERROR
İşlem hattı güncelleştirme yürütmesi için küme <clusterId> başarıyla ayarlanamadı. Reason:
Daha fazla ayrıntı için bkz. CLUSTER_SETUP_CLIENT_ERROR
CLUSTER_UNREACHABLE
Sürücüyle iletişim kesildi.
<clusterId> numaralı kümeye <timeoutSeconds> saniye boyunca erişilemedi.
COLUMN_MASK_WITH_NO_COLUMN
MV/ST şemasında bulunmayan '<columnName>' sütunu için sütun maskesi bulundu. Bunun nedeni temel tablonun şemasında yapılan bir değişiklikse,
Lütfen ALTER TABLE [table_name] ALTER COLUMN [maskenin uygulandığı sütun] DROP MASK ile eski maskeyi silin veya sütunu geri yükleyin.
COLUMN_TO_UPDATE_NOT_FOUND
<column> ile COLUMNS arasında belirtilmiş UPDATE sütunu kaynak Dataframe'de bulunamadı.
CONCURRENT_UPGRADE_FAILED_TO_STOP_PREVIOUS_UPDATE
Yükseltme için '<upgradedUpdateId>' güncelleştirmesi başlatıldı ancak önceki ''<oldUpdateId> güncelleştirmesi durdurulamadı.
Bu hata büyük olasılıkla geçicidir. İşlem hattı otomatik olarak yeniden denenecek ve sorun kendi kendine çözülmelidir.
Aynı sorunu görmeye devam ederseniz bu hatayı Databricks'e bildirin.
CREATE_APPEND_ONCE_FLOW_FROM_BATCH_QUERY_NOT_ALLOWED
Toplu sorgudan akış tablosuna ekleme oluşturulamaz.
Bu, kaynaktan artımlı alımı önler ve yanlış davranışa neden olabilir.
Sorunlu tablo: '<table>'.
Bunu düzeltmek için () veya readStream işlecini kullanarak STREAMkaynağı akış girişi olarak bildirin.
Örnek: SELECT...FROM STREAM(<source table name>) veya spark.readStream.table('<source table name>')
DATASET_DECORATOR_APPLIED_TWICE
SQLSTATE: hiçbiri atanmadı
Veri kümesi <datasetName> zaten var. Sorgu işlevinin yalnızca bir kez görünüm veya tablo olarak işaretlendiğinden emin olun.
DATASET_NOT_DEFINED
'<datasetName>' veri kümesi okunamadı. Bu veri kümesi işlem hattında tanımlanmamıştır.
Bu tablo başka bir işlem hattı tarafından yönetiliyorsa, tabloyu okumak için dlt.read / dlt.readStream kullanmayın veya adın başına LIVE anahtar sözcüğünü eklemeyin.
DATASET_NOT_FOUND_FOR_EXPECTATIONS
Var olmayan bir '<datasetName>' veri kümesi için beklentileri tanımlamaya çalışılıyor
DATASET_NOT_REGISTERED_FOR_FLOW
'<datasetName>' veri kümesi için bir akış kaydedilmeye çalışıldı, ancak veri kümesi kaydedilmedi.
DBFS_NOT_ENABLED
DBFS bu çalışma alanı için etkinleştirilmemiş; Lütfen Unity Kataloğu'na yayımlayın veya işlem hattı için farklı bir depolama konumu belirtin.
DBSQL_INCONSISTENT_SCHEDULE_IN_PIPELINE
İşlem hattında <pipelineId> farklı zamanlama ayarlarına sahip birden çok üretim tablosu vardır: [<tableScheduleInfo>]. Tüm üretim tablolarının aynı zamanlamaya sahip olması gerekir.
DBSQL_INVALID_CHANNEL_VALUE
Özelliğiyle pipelines.channel geçersiz kanal belirtildi: <channel>. Geçerli değerler şunlardır: <validChannels>.
DBSQL_INVALID_SCHEDULE_TYPE
Schedule özelliğiyle geçersiz zamanlama türü belirtildi: <scheduleValue>.
DBSQL_MISSING_SCHEDULE_PROPERTY
Tablo özelliklerinde gerekli zamanlama özelliği eksik.
DBSQL_BORUHATTI_EKSİK
Bir DBSQL işlem hattı eksik. Lütfen DBSQL işlem hattını oluşturmak için gerçekleştirilmiş görünümünüzü veya akış tablonuzu yenileyin.
DBSQL_PIPELINE_SHOULD_NOT_HAVE_MULTIPLE_TABLES
İşlem DBSQL hattında tam olarak bir gerçekleşmiş görünüm veya akış tablosu bulunmalıdır, ancak <tablesSize> tablo bulundu: <tables>
DELETE_PIPELINE_DISABLED
İşlem hattı şu anda silinemiyor.
'<pipelineId>' işlem hattını silmeyle ilgili yardım için lütfen Databricks desteğine başvurun.
DESTINATION_PIPELINE_NOT_FOUND
Kimliği '<pipelineId>' olan hedef işlem hattı bulunamadı. İşlem hattıyla aynı çalışma alanında olduğunuzdan, işlem hattının sahibi olduğunuzdan ve işlem hattının en az bir kez çalıştırıldığından emin olun.
DESTINATION_PIPELINE_NOT_IN_DIRECT_PUBLISHING_MODE
Kimliği '<pipelineId>' olan hedef işlem hattı Doğrudan Yayımlama Modu'nu kullanmıyor.
DESTINATION_PIPELINE_PERMISSION_DENIED
Bu işlemi gerçekleştirmenize izin verilmiyor, '<pipelineId>' kimliğine sahip hedef işlem hattının sahibi siz değilsiniz. Tablonun işlem hattını yalnızca sahipler değiştirebilir.
DESTINATION_PIPELINE_TYPE_NOT_WORKSPACE_PIPELINE_TYPE
Kimliği '<pipelineId>' olan hedef işlem hattı bir ETL işlem hattı değil.
DIRECTORY_PATH_REQUIRES_GLOB
Yol <path> bir dizindir. Tüm dosyaları bir dizine eklemek için işlem hattı yapılandırmanızda '**' soneki olan '<path>/**' glob desenini kullanın.
Boru Hattını Geri Yükleme İsteği Reddedildi
<request> durumundaki '<pipelineId>' işlem hattı için 'RESTORING' talebine izin verilmiyor.
DO_CREATE_OR_EDIT_INVALID_USER_ACTION
'<action>' isteği işlenirken hata oluştu.
DROP_SCHEDULE_SCHEDULE_DOES_NOT_EXIST
Mevcut bir zamanlama veya tetikleyici olmadan SCHEDULE tabloya bırakılamaz.
DUPLICATED_FROM_JSON_SCHEMA_LOCATION
Yinelenen from_json şema konumu anahtarı: <schemaLocationKey>.
lütfen işlem hattındaki her from_json sorgusu için benzersiz şema konumu anahtarları seçin
DUPLICATED_INGESTION_CONFIG_TABLE_SPECS
Veri işleme hattı yapılandırması mükerrer tablolar içeriyor. Lütfen her tablonun benzersiz olduğundan emin olun.
EMPTY_INGESTION_CONFIG_OBJECTS
Veri yükleme yapılandırma nesneleri boş.
ENHANCED_AUTOSCALING_REQUIRES_ADVANCED_EDITION
Gelişmiş Otomatik Ölçeklendirme 'spare_capacity_fraction' ayarı yalnızca Lakeflow Spark Bildirimli İşlem Hatlarının Gelişmiş ürün sürümünde desteklenir.
'spare_capacity_fraction' kullanmak için lütfen işlem hattı ayarlarınızı düzenleyerek "sürüm": "gelişmiş" seçeneğini belirleyin.
ENVIRONMENT_PIP_INSTALL_ERROR
Ortam bağımlılığı yüklenemedi: '<pipDependency>'. Daha fazla ayrıntı için lütfen kümedeki sürücünün stdout günlüklerine bakın.
EVENT_LOG_PICKER_FEATURE_NOT_SUPPORTED
Olay günlüğünü Unity Kataloğu'nda yayımlama, eski yayımlama modunda desteklenmez. Bu özelliği etkinleştirmek için geçiş kılavuzundaki https://docs.databricks.com/aws/en/dlt/migrate-to-dpmadımları izleyerek işlem hattınızı varsayılan yayımlama moduna geçirin. Eski yayımlama modunu kullanmaya devam etmek isterseniz işlem hattı belirtimlerinizden 'event_log' yapılandırmasını kaldırın.
EXPECTATION_VIOLATION
'<flowName>' akışı beklentiyi karşılayamadı.
Daha fazla ayrıntı için bkz. EXPECTATION_VIOLATION
EXPLORE_ONLY_CANNOT_BE_SET_WITH_VALIDATE_ONLY
explore_only ve validate_only ikisi de true olarak ayarlanamaz.
EXPLORE_ONLY_IS_NOT_ENABLED
explore_only güncelleştirme etkinleştirilmedi. Lütfen Databricks desteğine başvurun.
FAILED_TO_CREATE_EVENT_LOG
<pipelineId> tanımlayıcısıyla işlem hattı (id=<eventLogIdentifier>) olay günlüğü oluşturulamadı. Daha fazla ayrıntı için aşağıdaki özel duruma bakın.
FAILED_TO_PUBLISH_VIEW_TO_METASTORE
nedeniyle meta veri deposunda <viewName>görünüm <reason> yayımlanamadı.
FAILED_TO_UPDATE_EVENT_LOG
İşlem hattı (id=<pipelineId>) olay günlüğü tanımlayıcısını <newEventLogIdentifier> olarak güncelleştirilemedi. Daha fazla ayrıntı için aşağıdaki özel duruma bakın.
FLOW_SCHEMA_CHANGED
Akış <flowName> , yürütme sırasında bir şema değişikliğiyle karşılaştığından sonlandırıldı.
Şema değişikliği mevcut hedef şemayla uyumludur ve akışın bir sonraki çalıştırılması yeni şemayla devam edebilir.
FOREACH_BATCH_SINK_ONLY_SUPPORTED_IN_PREVIEW_CHANNEL
Lakeflow Spark Bildirimli İşlem Hatları ForeachBatch Havuzu şu anda desteklenmemektedir.
Lakeflow Spark Bildirimli İşlem Hatları ForeachBatch havuzu için özel önizleme için kanal gerekir PREVIEW .
Lakeflow Spark Bildirimli İşlem Hatları havuzları: <sinkNames>
GATEWAY_PIPELINE_INIT_SCRIPTS_NOT_ALLOWED
Ağ Geçidi işlem hattı, küme başlatma betiklerine izin vermez. Lütfen onu <from>'dan kaldırın.
GATEWAY_PIPELINE_SPARK_CONF_NOT_ALLOWED
Ağ Geçidi işlem hattı, spark yapılandırması [<configs>]'a izin vermiyor. Lütfen onları <from>'dan kaldırın.
GET_ORG_UPDATE_CAPACITY_LIMIT_EXCEEDED
İstenen kuruluş kimliklerinin sayısı izin verilen en yüksek sınırı aşıyor <limit>
GOOGLE_ANALYTICS_RAW_DATA_CONNECTOR_SOURCE_CATALOG_MISSING
Google Analytics ham veri bağlayıcısında bir hata oluştu.
Alma belirtiminizde 'kaynak katalog' (GCP Proje Kimliği) eksik.
Bu sorunu çözmek için lütfen alma belirtiminizde kaynak kataloğu (proje kimliği) belirtin.
HMS_NOT_ENABLED
Hive Meta Veri Deposu bu çalışma alanı için etkinleştirilmemiş; lütfen Unity Kataloğu'na yayımlayın.
ILLEGAL_COLUMN_TO_UPDATE_DATA_TYPE
COLUMNS TO UPDATE belirtilen sütunun veri türü bir dize dizisi olmalıdır, ancak <illegalDataType>bulundu.
ILLEGAL_ID_PARAM_IN_PIPELINE_SETTINGS
Ayarlar '<fieldName>' içermemelidir.
ILLEGAL_SCHEMA_FIELD_IN_PIPELINE_SPEC
İşlem hattı ayarlarında belirtilen 'şema' alanı geçersiz. Neden: <reason>.
INCORRECT_ROOT_PATH_TYPE
'<rootPath>' kök yolu bir dizin olmalı, ancak <objectType> bulundu.
INCREMENTAL_REFRESH_UNAVAILABLE_WITH_STRICT_REFRESH_POLICY
gerçekleştirilmiş görünümün INCREMENTAL_STRICT yenileme ilkesi vardır ancak artımlı hale getirilemez.
ALTYAPI_BAKIM
Altyapısal bakım nedeniyle kümedeki <clusterId> sürücüsü kapandı.
INGESTION_CONFIG_DUPLICATED_SCHEMA
Alma işlem hattı yapılandırması yinelenen şemalar içeriyor. Her şemanın benzersiz olduğundan emin olun.
INGESTION_GATEWAY_AUTHENTICATION_FAILURE
Kimlik doğrulaması hatası
Daha fazla ayrıntı için bkz. INGESTION_GATEWAY_AUTHENTICATION_FAILURE
INGESTION_GATEWAY_BREAKING_SCHEMA_CHANGE_FAILURE
Kaynak ve hedef tablolar arasında bir şema uyuşmazlığı algılandı. Bu sorunu çözmek için Alım İşlem Hattı'nda '<entityName>' tablosunun tam olarak yenilenmesi gerekir.
INGESTION_GATEWAY_CAPTURE_INSTANCE_UNAVAILABLE
için <entityName> yakalama örneği artık kaynakta kullanılamaz.
Lütfen tabloda CDC veya CT'yi etkinleştirdikten sonra tam yenilemeyi tetikleyin.
INGESTION_GATEWAY_CDC_LOG_TRUNCATED
'<entityName>' tablosu için CDC günlüğü kesildi, nedeni: <errorMessage>.
Bunun nedeni, CDC günlük saklama ilkesinin işlenmeden önce değişiklik izleme günlüklerini kesmesi olabilir.
Tablo işleme sürecinden çıkarılacaktır. İşlemeyi yeniden etkinleştirmek için lütfen tabloyu tam olarak yenileyin.
INGESTION_GATEWAY_CDC_NOT_ENABLED
<entityType> üzerindeki '<entityName>' üzerinde CDC etkin değil. CDC'yi etkinleştirin ve Alma İşlem Hattı'nda tabloyu tam olarak yenileyin. Hata iletisi: '<errorMessage>'.
INGESTION_GATEWAY_DB_VERSION_NOT_SUPPORTED
Veritabanı sürümü desteklenmiyor.
Daha fazla ayrıntı için bkz. INGESTION_GATEWAY_DB_VERSION_NOT_SUPPORTED
INGESTION_GATEWAY_DDL_OBJECTS_MISSING
'<entityType>' üzerinde <entityName> DDL nesneleri eksik. Alma İşlem Hattı'nda DDL nesneleri betiğini çalıştırarak tabloyu tamamen yenileyin. Hata iletisi: '<errorMessage>'.
INGESTION_GATEWAY_HEALTH_CHECKER_VALIDATION_CYCLE_FAILED
İç Sistem Durumu Denetleyicisi doğrulama döngüsü başarısız oldu. Sonraki döngüde yeniden denenecek, sorun devam ederse lütfen bir bilet oluşturun.
Hata iletisi: <errorMessage>
INGESTION_GATEWAY_MISSING_CONNECTION_REFERENCE
Veri alımı ağ geçidi yapılandırmasında bir bağlantı eksik.
Lütfen kimlik bilgilerinizi içeren Unity Kataloğu bağlantısına bir referans ekleyin.
Veri alımı ağ geçidi işlem hattının tanım ayrıntıları:
<definition>
INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_CATALOG
Veri alma ağ geçidi yapılandırmasında iç depolama konumu kataloğu eksik.
Lütfen dahili depolama konumu kataloğunu ekleyin.
Veri alımı ağ geçidi işlem hattının tanım ayrıntıları:
<definition>
INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_NAME
Veri alma ağ geçidi yapılandırmasında iç depolama konumu adı eksik.
Lütfen dahili depolama konumu adını ekleyin.
Veri alımı ağ geçidi işlem hattının tanım ayrıntıları:
<definition>
INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_SCHEMA
Alma ağ geçidi yapılandırmasında iç depolama konumu şeması eksik.
Lütfen iç depolama konumu şemasını ekleyin.
Veri alımı ağ geçidi işlem hattının tanım ayrıntıları:
<definition>
INGESTION_GATEWAY_MISSING_TABLE_IN_SOURCE
'<entityName>' tablosu kaynak veritabanında yok veya bırakıldı. Sorunu çözün ve Yönetilen Alım işlem hattındaki tabloyu tam olarak yenileyin. Hata iletisi: '<errorMessage>'.
INGESTION_GATEWAY_MYSQL_BINLOG_FILE_DELETED
Gerekli MySQL binlog dosyaları kaynak veritabanında silindi. Bu durum genellikle, binlog saklama süresi çok düşük olduğunda veya bekletme penceresi geçtikten sonra alım yeniden başlatıldığında gerçekleşir. Azaltmak için tüm tablolarda tam yenilemeyi çalıştırın ve kaynakta depo saklama süresini artırın.
Hata iletisi: <errorMessage>
INGESTION_GATEWAY_MYSQL_MISSED_BINLOG_FILES_DETECTED
MySQL Binlog dosyaları algılanmadı. Lütfen üzerinde tam yenileme gerçekleştirin <entityName>.
Hata iletisi: <errorMessage>
INGESTION_GATEWAY_ORACLE_ARCHIVE_LOG_FILES_UNAVAILABLE
CDC çoğaltması için gereken Oracle arşiv günlüğü dosyaları artık kaynak veritabanında kullanılamaz. Arşiv günlükleri saklama süresini aştığında veya el ile silindiğinde bu durum oluşabilir. Lütfen '<catalogName>' kataloğuna eşlenen tüm hedef tablolarda tam yenileme gerçekleştirin. Bu sorun devam ederse, işlenirken günlüklerin kullanılabilir durumda kaldığından emin olmak için kaynak veritabanındaki arşiv günlüğü saklama süresini artırmayı göz önünde bulundurun.
Hata iletisi: <errorMessage>
INGESTION_GATEWAY_ORACLE_MISSING_CONFIGURATION
Oracle bağlantı yapılandırması tamamlanmadı.
Daha fazla ayrıntı için bkz. INGESTION_GATEWAY_ORACLE_MISSING_CONFIGURATION
INGESTION_GATEWAY_PG_PUBLICATION_ALTER_FAILED
'<entityType>' için <entityName> çoğaltma yayını değiştirilemedi
Hata iletisi: <errorMessage>
Daha fazla ayrıntı için bkz INGESTION_GATEWAY_PG_PUBLICATION_ALTER_FAILED
INGESTION_GATEWAY_PG_PUBLICATION_CREATION_FAILED
<entityType> için '<entityName>' çoğaltma yayını oluşturulamadı
Hata iletisi: <errorMessage>
Daha fazla ayrıntı için bkz. INGESTION_GATEWAY_PG_PUBLICATION_CREATION_FAILED
INGESTION_GATEWAY_PG_PUBLICATION_DROP_FAILED
'<entityType>' için <entityName> çoğaltma yayını bırakılamadı
Hata iletisi: <errorMessage>
Daha fazla ayrıntı için bkz. INGESTION_GATEWAY_PG_PUBLICATION_DROP_FAILED
INGESTION_GATEWAY_PG_SLOT_CONFIG_IS_INVALIDATED
için <entityType> <entityName> çoğaltma yuvası yapılandırması iyi durumda değil. Bu sorunu çözmek için, kataloğuna <catalogName>eşlenen tüm hedef tablolarda tam yenileme tetikleyin.
Hata iletisi: <errorMessage>
INGESTION_GATEWAY_PG_SLOT_CONSUMED_BY_OTHER_PROCESS
Çoğaltma yuvası başka bir PID tarafından kullanıldığından '<entityType>' için <entityName> çoğaltma yuvası oluşturulamadı.
Hata iletisi: <errorMessage>
INGESTION_GATEWAY_PG_SLOT_CREATION_FAILED
'<entityType>' için '<entityName>' replikasyon yuvası oluşturulamadı
Hata iletisi: <errorMessage>
Daha fazla ayrıntı için bkz. INGESTION_GATEWAY_PG_SLOT_CREATION_FAILED
INGESTION_GATEWAY_PG_SLOT_DROP_FAILED
'<entityType>' için <entityName> çoğaltma yuvası bırakılamadı
Hata iletisi: <errorMessage>
Daha fazla ayrıntı için bkz. INGESTION_GATEWAY_PG_SLOT_DROP_FAILED
INGESTION_GATEWAY_PG_SLOT_HAS_BEEN_DELETED
'<entityType>' için <entityName> çoğaltma yuvası silindi. Lütfen '<catalogName>' kataloğuna eşlenen tüm hedef tablolarda tam yenileme tetikleyin.
Hata iletisi: <errorMessage>
INGESTION_GATEWAY_PG_SLOT_IS_INVALIDATED
'<entityType>' için <entityName> çoğaltma yuvası iyi durumda değil. Lütfen yuvayı bırakın ve '<catalogName>' kataloğuna eşlenen tüm hedef tablolarda tam yenileme tetikleyin.
Hata iletisi: <errorMessage>
INGESTION_GATEWAY_SOURCE_INSUFFICIENT_PERMISSION_FAILURE
Kullanıcının bu nesneye erişmek veya saklı yordamı yürütmek için gerekli izinleri yok. Lütfen tüm gerekli ayrıcalıkların verildiğine emin olun. Aşağıdaki belgelere bakın: https://docs.databricks.com/aws/en/ingestion/lakeflow-connect/sql-server/database-user-requirements.
VERİ_ALIM_GEÇİDİ_KAYNAK_SCHEMA_EKSİK_VARLIK
Kaynaktan çoğaltma için kullanılabilir tablo yok.
Tabloların doğru seçildiğini ve alım işlem hattında tanımlandığını doğrulayın
ve kullanıcı gerekli katalog ve şema erişimine sahiptir.
INGESTION_GATEWAY_SQL_SERVER_CT_DISABLED
Kaynakta tablo <entityName> için Değişiklik İzleme devre dışı bırakıldı.
Lütfen tabloda CDC veya CT'yi etkinleştirdikten sonra tam yenilemeyi tetikleyin.
VERİ AKIŞI GEÇİT TABLOSU SİLİNDİ
Kaynak tablo '<entityName>' kaynakta silindi. Hata iletisi: <errorMessage>
İNGESTION_GATEWAY_TABLO_YENİDEN_ADLANDIRILDI
Kaynakta '<entityName>' kaynak tablosu yeniden adlandırıldı. Hata iletisi: <errorMessage>
DESTEKLENMEYEN_SÜTUN_VERİ_TİPİ_NEDENİYLE_VERİ_ALMA_ÇARPIŞMA_TABLOSU_ATLANDI
Desteklenmeyen veri türü sütunları nedeniyle '<entityName>' tablosu atlandı. Sorunu çözün ve Yönetilen Alım işlem hattındaki tabloyu tam olarak yenileyin. Hata iletisi: '<errorMessage>'.
INGESTION_GATEWAY_UNEXPECTED_COLUMN_UOID
Sütunlara beklenmeyen UOID atandığından '<entityName>' tablosu atlandı. Sorunu çözmek için lütfen tabloda tam yenileme gerçekleştirin. Hata: <errorMessage>.
The original translation appears satisfactory as technical identifiers usually remain unchanged to maintain technical integrity and avoid confusion. Therefore, no improvements are necessary for this translation.
Tabloya beklenmeyen UOID atandığından '<entityName>' tablosu atlandı. Sorunu çözmek için lütfen tabloda tam yenileme gerçekleştirin. Hata: <errorMessage>.
INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE
Kaynak veritabanının yanlış ana bilgisayar adı <host> ve/veya bağlantı noktası <port> nedeniyle bağlantı başarısız oldu.
Daha fazla ayrıntı için bakınız INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE
INGESTION_GATEWAY_UNSUPPORTED_CHARS_IN_OBJECT_NAME
tablosundaki <entityName>nesnelerde bulunan desteklenmeyen karakterler, nedeni: <errorMessage>. Tablo atlanır. Özel karakterlerin alımını etkinleştirmek için desteğe başvurun.
INGESTION_GATEWAY_UNSUPPORTED_OBJECT_TYPE
'<entityName>' nesnesi desteklenmiyor ve atlandı. Sorunu çözmek için bu nesneyi alma işlem hattından kaldırın. Hata iletisi: '<errorMessage>'.
VERI_AKTARIMI_GEÇİT_İZLENEMEYEN_TABLO_DEĞİŞİKLİĞİ
<entityName> tablosunda izlenemeyen değişiklik algılandı, nedeni: <errorMessage>.
Bunun nedeni, tablo trunkate edilmesi, cdc kayıt devri veya başka bir izlenemez işlem olabilir.
Tablo işleme sürecinden çıkarılacaktır. İşlemeyi yeniden etkinleştirmek için lütfen tabloyu tam olarak yenileyin.
INGESTION_GATEWAY_XA_TRANSACTION_NOT_SUPPORTED
'<entityType>' '<entityName>' bir XA işleminin parçası olduğundan çoğaltılamadı.
Hata iletisi: <errorMessage>
INVALID_APPLY_CHANGES_COMMAND
AUTO CDC komutu geçersiz.
<reason>.
INVALID_ARGUMENT_TYPE
SQLSTATE: hiçbiri atanmadı
'<paramName>' parametresine geçersiz tür değeri geçirildi. beklenen <expectedType>.
<additionalMsg>.
INVALID_COMPATIBILITY_OPTIONS
Tablo için belirtilen tablo <table> seçenekleri geçersiz çünkü
Daha fazla ayrıntı için bkz. INVALID_COMPATIBILITY_OPTIONS
INVALID_CONFIG_FOR_UC_PIPELINE
UC işlem hatları '' ayarını '<configKey><configValue>' olarak desteklemez. Lütfen bu yapılandırmayı işlem hattı ayarlarınızdan kaldırın.
INVALID_DECORATOR_USAGE
SQLSTATE: hiçbiri atanmadı
@<decoratorName> öğesine geçirilen ilk konumsal bağımsız değişken çağrılabilir olmalıdır. İşlevinize parametresiz @<decoratorName> ekleyin veya @<decoratorName>'ye anahtar kelime argümanlarını kullanarak seçenekleri iletin (örneğin, <exampleUsage>).
INVALID_DESTINATION_PIPELINE_ID
Geçersiz hedef işlem hattı kimliği: '<pipelineId>'. İşlem hattı kimlikleri geçerli UUID'ler olmalıdır.
İşlem hattı adını değil doğru işlem hattı kimliğini kullandığınızı doğrulayın.
INVALID_EVENT_LOG_CONFIGURATION
İşlem hattı belirtiminde geçersiz olay günlüğü yapılandırması bulundu: <message>
INVALID_NAME_IN_USE_COMMAND
<name> komutunda geçersiz '<command>' adı. Neden: <reason>
INVALID_PARAM_FOR_DBSQL_PIPELINE
İşlem hattı için DBSQL 'dry_run' çağırırken yalnızca 'pipeline_id' ve 'pipeline_type' belirtebilirsiniz.
INVALID_REFRESH_SELECTION
Daha fazla ayrıntı için bkz. INVALID_REFRESH_SELECTION
INVALID_REFRESH_SELECTION_REQUEST_FOR_CONTINUOUS_PIPELINE
Yenileme seçimi sürekli mod için desteklenmez.
INVALID_REFRESH_SELECTION_REQUEST_WITH_FULL_REFRESH
full_refresh yenileme seçimi isteği için true olarak ayarlanmamalıdır.
INVALID_REWIND_SPECIFICATION
Geri sarma belirtimi geçersiz
Daha fazla ayrıntı için bkz. INVALID_REWIND_SPECIFICATION
INVALID_ROOT_PATH
Geçersiz ''<rootPath> root_path: şu anda yalnızca mutlak dizin yolları desteklenmektedir. Dizin yolları '/' ile başlamalı ve '/' ile bitmemelidir.
INVALID_SCHEMA_NAME
İşlem hattı ayarında geçersiz şema '<schemaName>' belirtildi. Neden: <reason>.
INVALID_SNAPSHOT_AND_VERSION_TYPE
SQLSTATE: hiçbiri atanmadı
snapshot_and_version, '<target>' hedefiyle akış için desteklenmeyen tür döndürdü.
<additionalMsg>.
INVALID_TRIGGER_INTERVAL_FORMAT
<configurationType>'da tetikleyici aralığı belirtilen yapılandırma geçersiz
JIRA_Erişim_Yasaklandı
Bağlanan kullanıcının erişimi yok. Lütfen kullanıcının izinlerini yeniden denetleyin ve yeniden deneyin.
JIRA_YÖNETİCİ_İZİNİ_EKSİK
Jira API'leri çağrılırken hatayla karşılaşıldı. Lütfen
bağlantı kuran kullanıcı, Jira örneğiniz için Jira yönetici izinlerini alır.
JIRA_YETKİLENDİRME_BAŞARISIZ
Jira API'leri çağrılırken yetkilendirme başarısız oldu. Lütfen yeniden kimlik doğrulaması
UC bağlantısı oluşturuldu ve yeniden deneyin.
JIRA_CONNECTOR_ENTITY_MAPPING_PARSING_FAILED
Jira bağlayıcısında bir hata oluştu.
Varlık türü için varlık eşlemesi ayrıştırmaya çalışılırken bir sorun oluştu: <entityType>. Varlığınızın desteklenen türlerin bir parçası olup olmadığını denetleyin.
Hata devam ederse bir bilet oluşturun.
JIRA_MISSING_REQUIRED_FIELD
Jira API yanıtında gerekli '<fieldName>' alanı eksik.
JSON Düğüm: <jsonNode>
JIRA_SITE_MISSING
Sağlanan Jira etki alanına karşılık gelen <domain> cloudId bulunamadı.
Lütfen bağlanan kullanıcının bu siteye erişebildiğinden emin olun.
JOB_DETAILS_DO_NOT_MATCH
Hem 'update_cause_details.job_details' hem de 'job_task' verilirse eşleşmeleri gerekir, ancak <details> ve <jobTask>
JOB_TASK_DETAILS_MISSING
'neden' JOB_TASK ise, 'job_task' ya da 'update_cause_details.job_details' verilmelidir.
ESKİ BORU HATTI OLUŞTURMA DEVRE DIŞI
Eski yayımlama modunda işlem hatları oluşturma, çalışma alanlarında varsayılan olarak devre dışı bırakılır. Özel durum gerekiyorsa lütfen Databricks desteğine başvurun.
LIBRARY_FILE_FETCH_PERMISSION_DENIED
'<path>' konumundaki kitaplık dosyasına erişilemiyor. Kullanıcının bu dosyayı okumak için gerekli izinlere sahip olduğundan emin olun.
Neden: <reason>
LIBRARY_FILE_NOT_FOUND
'<path>' dosyası bulunamadı veya run_as kullanıcının dosyaya erişim izinleri yok.
LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_CLASSIC
Veri kümesi sorgu tanımının (LIVE ek açıklaması) dışında @dlt.table sanal şema kullanarak veri kümelerine başvuruda bulunmak desteklenmez.
LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_DPM
Veri kümesi sorgu tanımının (örneğin, LIVE ek açıklaması) dışında <identifier> sanal şema @dlt.table kullanarak veri kümelerine başvuruda bulunmak desteklenmez.
LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_SPARK_SQL
spark.sql(...) içinde sanal şema kullanarak LIVE veri kümelerine başvurma API, veri kümesi sorgu tanımının (ek açıklama) @dlt.table dışında çağrılmamalıdır. Yalnızca veri kümesi sorgu tanımı içinde çağrılabilir.
MANAGED_INGESTION_PIPELINE_SPEC_VALIDATION_ERROR
Daha fazla ayrıntı için bkz. MANAGED_INGESTION_PIPELINE_SPEC_VALIDATION_ERROR
MATERYALİZE_GÖRÜNÜM_DÖNDÜRÜLEN_AKICAK_VERİ_ÇERÇEVESİ
SQLSTATE: hiçbiri atanmadı
'<datasetName>' gerçekleştirilmiş görünüm için sorgu fonksiyonu bir akış DataFrame döndürdü.
Akışsız bir DataFrame döndürmelidir.
MAX_RETRY_REACHED_BEFORE_ENZYME_RECOMPUTE
Yeniden deneme sayısı üst sınırına ulaşıldı. Yeniden deneme sayısı:<flowRetryCount>. MaksAkışHataDenemeSayısıEşikDeğeri:<maxFlowRetryAttempts>. <message>
MESA_PIPELINE_INVALID_DEFINITION_TYPE
İşlem <definitionType> hattını UC tanımından başlatmak yasaktır.
MESA_PIPELINE_MISMATCH_PIPELINE_TYPES
Depolanmış ve güncellenmiş tanım aynı işlem hattı türünde olmalıdır, ancak <stored> ve <updated> türlerini aldı.
MESA_PIPELINE_MISSING_DEFINITION
İşlem hattının UC'de geçerli bir tanımı yoktur, ancak yenileme istenir.
MESA_PIPELINE_MISSING_DEFINITION_UNEXPECTED
UC'den beklenmedik şekilde işlem hattı tanımının eksik olduğu görüldü.
METASTORE_OPERATION_TIMED_OUT
<tableName> için meta veri deposu bilgilerinin güncelleştirilmesiyle ilgili işlemler <timeout>'den uzun sürdü.
Bu sorun geçici olabilir veya yapılandırılmış meta veri deposu istemcisindeki hataları gösterebilir. İşlem hattınızı yeniden başlatmayı deneyin ve devam ederse bu sorunu bildirin.
META_ADS_PARAMETERS_CHANGED
Meta pazarlama bağlayıcısında bir hata oluştu. ad_insights tablosunun giriş parametreleri değiştirildi.
Lütfen etkilenen tablolarda tam yenileme gerçekleştirin.
META_ADS_SOURCE_API_ERROR
Meta pazarlama API çağrısında bir hata oluştu. Meta desteği ile iz sürülecek Facebook izleme kimliği: <trace_id>.
Hata devam ederse bir bilet oluşturun.
META_MARKETING_INSIGHTS_LEVEL_INVALID
Meta pazarlama bağlayıcısında ad_insights tablosu için içgörüler getirilmeye çalışılırken bir hata oluştu.
Sağlanan düzey parametresi <level> geçersiz. Lütfen bunlardan birini (reklam, adset, kampanya, hesap) geçirin.
META_MARKETING_INSIGHTS_PARAM_BREAKDOWNS_INVALID
Meta pazarlama bağlayıcısında ad_insights tablosu için içgörüler getirilmeye çalışılırken bir hata oluştu.
Sağlanan döküm parametresi <breakdowns> geçersiz. Dökümlerin geçerli listesi için lütfen meta API belgelerine bakın.
Hata devam ederse bir bilet oluşturun.
META_MARKETING_INSIGHTS_PARAM_TIME_INCREMENT_INVALID
Meta pazarlama bağlayıcısında ad_insights tablosu için içgörüler getirilmeye çalışılırken bir hata oluştu.
Sağlanan zaman artışı parametresi <timeInc> ayrıştırılamadı. Lütfen geçerli bir tamsayı numarası girin.
META_MARKETING_INSIGHTS_START_DATE_INVALID
Meta pazarlama bağlayıcısında ad_insights tablosu için içgörüler getirilmeye çalışılırken bir hata oluştu.
Sağlanan başlangıç tarihi parametresi <startDate> ayrıştırılamadı. Lütfen doğru YYYY-MM-DD biçiminde denetleyin ve değiştirin.
META_MARKETING_INSIGHTS_START_DATE_TOO_OLD
Meta pazarlama bağlayıcısında ad_insights tablosu için içgörüler getirilmeye çalışılırken bir hata oluştu.
Sağlanan başlangıç tarihi, geçerli eşitleme tarihinden itibaren 37 aydan fazla olamaz. Lütfen sağlanan parametrelerde denetleyin ve değiştirin.
Hata devam ederse bir bilet oluşturun.
META_MARKETING_RATE_LIMIT_EXCEEDED
Bu reklam hesabı için Meta API hız sınırı tükendi. Lütfen işlem hattı güncelleştirmesini bir süre sonra yeniden deneyin. Sınırlara yeniden basılmasını önlemek için daha az sayıda tabloyu paralel olarak almak önerilir.
Sık sık hız sınırı hatalarına ulaşıyorsanız, Meta belgelerine göre henüz yapmadıysanız Gelişmiş erişim'e yükseltmeyi göz önünde bulundurun: https://developers.facebook.com/docs/marketing-api/get-started/authorization
META_MARKETING_REQUESTED_DATA_LIMIT_EXCEEDED
İstenen veri miktarı Meta sunucularının işleyebileceği sınırı aştığından Meta API başarısız oldu.
Sütun seçim mantığını kullanarak bu tabloda alınacak alan sayısını azaltmayı deneyin. Hata devam ederse bir bilet oluşturun.
MIGRATION_TO_UNITY_CATALOG
Daha fazla ayrıntı için bkz. MIGRATION_TO_UNITY_CATALOG
KATALOĞUN_YA_DA_ŞEMANIN_EKSİK_İZNİ
'<userName>' kullanıcısı '' üzerinde<schemaName> izinlere sahip değil. Ayrıntılar: <reason>
MISSING_CREATE_SCHEMA_PRIVILEGE
'<userName>' kullanıcısına katalogda şema oluşturma izni yok <catalogName>
MISSING_CREATE_TABLE_PRIVILEGE
'<userName>' kullanıcısı şemada tablo oluşturma iznine sahip değil <schemaName>
MISSING_RUN_AS_USER
Güncelleme için kullanıcı olarak hiçbir kullanıcı belirtilmedi.
MULTI_QUERY_SNAPSHOT_TARGET_NOT_SUPPORTED (Çoklu sorgu anlık görüntü hedefi desteklenmiyor)
'<tableName>' zaten 'AUTO CDC FROM SNAPSHOT<flowName>' sorgusu içeriyor. Şu anda bu API hedef başına yalnızca bir akışı desteklemektedir.
MUTUALLY_EXCLUSIVE_OPTIONS
Birbirini dışlayan seçenekler <options>. Lütfen bu seçeneklerden birini kaldırın.
NEGATIVE_VALUE
SQLSTATE: hiçbiri atanmadı
<arg_name> değerinin 0'dan büyük ya da buna eşit olması gerekir, '<arg_value>' değeri alındı.
NON_UC_TABLE_ALREADY_MANAGED_BY_OTHER_PIPELINE
'<tableName>' tablosu zaten işlem hattı <otherPipelineId>tarafından yönetiliyor.
'<tableName>' tablosunun bu işlem hattı tarafından yönetilmesini istiyorsanız -
Tabloyu ''
<otherPipelineId>işlem hattından kaldırın.Bu işlem hattı için tam bir yenileme güncellemesi başlatın.
Birden çok işlem hattından tabloyu yönetmeye devam etmek istiyorsanız, işlem hattı ayarlarınızda yapılandırma pipelines.tableManagedByMultiplePipelinesCheck.enabled'ı false olarak ayarlayarak bu kontrolü devre dışı bırakın.
Tablodaki eşzamanlı işlemler birbiriyle çakışabileceği ve beklenmeyen sonuçlara yol açabileceği için bu önerilmez.
NOTEBOOK_NAME_LIMIT_REACHED
Geçersiz not defteri yolu: '<nameStart>...<nameEnd>'.
<maxNotebookPathLength> karakterlerden daha uzundur.
NOTEBOOK_NOT_FOUND
'<notebookPath>' not defterine erişilemiyor. Var değil veya bu işlem hattını <identity> çalıştırmak için kullanılan kimlik gerekli izinlere sahip değil.
NOTEBOOK_PIP_YÜKLEME_HATASI
Not defterinden '<pipInstallCommand>' çalıştırılamadı: <notebookPath>. Daha fazla ayrıntı için lütfen kümedeki sürücünün stdout günlüklerine bakın.
NOTEBOOK_TOO_LARGE
'<notebookPath>' konumundaki çözümlenen not defteri içeriği çok büyük, lütfen not defterinin boyutunu küçültün.
NOTIFICATIONS_DUPLICATE_ALERTS
[<alertsDuplicates>] içinde yinelenen '<alerts>' uyarıları belirtildi
NOTIFICATIONS_DUPLICATE_EMAIL_ADDRESSES
[<emailRecipientsDuplicates>] içinde belirtilen yinelenen '<emailRecipients>' e-posta adresleri
NOTIFICATIONS_INVALID_ALERTS
Bildirim almak için geçersiz uyarılar tanımlandı: <invalidAlerts>
NOTIFICATIONS_INVALID_EMAIL_ADDRESS
Bildirimleri almak için geçersiz e-posta adresi belirtildi: <invalidEmailAddresses>
NOTIFICATIONS_MISSING_PARAMS
Lütfen içinde en az bir alıcı ve bir uyarı belirtin <setting>
NO_SOURCE_OR_SNAPSHOT_AND_VERSION_ARGUMENT_PROVIDED
SQLSTATE: hiçbiri atanmadı
'' hedeflisource apply_changes_from_snapshot için ya da snapshot_version<target> ayarlanmalıdır.
NO_TABLES_IN_PIPELINE
İşlem hatlarında en az bir tablo tanımlanmış olması beklenir, ancak işlem hattınızda tablo bulunamadı.
Farklı Çalıştır'ın yapılandırılması durumunda beklenen kaynak dosyaları ve/veya dizinleri dahil ettiğinizi ve paylaştığınızı ve kaynak kodunuzun tablo tanımlarını (örneğin, CREATE MATERIALIZED VIEW SQL kodunda, @dlt.table Python kodunda) içerdiğini doğrulayın.
Bu denetim için yalnızca tabloların sayıldığını unutmayın. Yalnızca işlem hattınıza görünümler veya akışlar eklerseniz de bu hatayla karşılaşabilirsiniz.
OUTPUT_MODE_NOT_SUPPORTED_FOR_TABLE_FLOW
'<outputMode>' çıkış modu', '' tablosunu hedefleyen '<flowName>' tablo<target> akışı için desteklenmiyor. Tablo akışları için yalnızca 'ekleme' modu desteklenir.
OWNER_IS_MISSING
Sahip yok.
PAGINATION_REQUEST_HAS_NAME_AND_PAGINATION
<name> veya sayfalandırma sağlayabilirsiniz, ancak her ikisini birden sağlayamazsınız.
PATCH_PIPELINE_DEFINITION_UNSUPPORTED_FIELD
PatchPipelineDefinition yalnızca schedule alanını destekler, ancak sağlanan tanımda başka doldurulmuş alanlar vardı: '<updatedDefinition>'.
PERSISTED_VIEW_READS_FROM_STREAMING_SOURCE
Kalıcı görünümler, akış kaynaklarından okuma işlemini desteklemez.
PERSISTED_VIEW_READS_FROM_TEMPORARY_VIEW
Kalıcı görünüm <persistedViewName> , pipeline kapsamı dışında kullanılamayacak geçici görünüme <temporaryViewName> atıfta bulunamaz. Kalıcı görünümü geçici hale getirin veya geçici görünümü kalıcı yapın.
PIPELINE_CLONING_ALREADY_IN_PROGRESS
İşlem hattı zaten '<pipelineId>' kimliğine sahip işlem hattına kopyalanıyor.
PIPELINE_CLONING_BOTH_TARGET_AND_SCHEMA_SPECIFIED
İşlem hattı kopyalanırken hem 'hedef' hem de 'şema' belirtilemez. Lütfen yalnızca bir tane belirtin.
PIPELINE_CLONING_CANNOT_CHANGE_SCHEMA_TO_TARGET
'şema' içeren bir işlem hattı 'target' ile bir işlem hattına kopyalanamaz. Kopyalanan işlem hattı ayrıca özgün değeri devralmak için 'schema' kullanmalı veya her ikisini de atlamalıdır.
PIPELINE_CLONING_INVALID_DURING_ACTIVE_UPDATE
'<pipelineId>' kimliğine sahip işlem hattı etkin bir güncelleştirme sırasında kopyalanamaz.
PIPELINE_CLONING_INVALID_FIELDS
Kopyalama için geçersiz alanlarla birlikte iletilen işlem hattı belirtimi isteği. İzin verilen alanlar şunlardır: ad, katalog, hedef, yapılandırma.
PIPELINE_CLONING_INVALID_FOR_MISSING_TARGET
Kimliği '<pipelineId>' olan işlem hattı bir hedef şemaya yayın yapmaz. Kaynak işlem hattının klonlanacak bir hedef şemada yayımlanması gerekir. İşlem hattı belirtiminde 'hedef' alanını belirttikten ve hedef şemaya yayımlamak için yeni bir güncelleştirme çalıştırdıktan sonra lütfen yeniden deneyin.
PIPELINE_CLONING_INVALID_FOR_UC_PIPELINE
Kimliği '<pipelineId>' olan işlem hattı zaten bir UC işlem hattıdır. UC işlem hatları kopyalanamaz.
PIPELINE_CLONING_NO_CATALOG_SPECIFIED
Kopyalama için belirtilen katalog yok.
PIPELINE_CLONING_NO_MODE_SPECIFIED
Belirtilen kopyalama modu yok.
PIPELINE_CLONING_NO_TARGET_SPECIFIED
Kopyalama için belirtilen hedef katalog yok.
PIPELINE_CREATION_NOT_ENABLED_FOR_WORKSPACE
Bu çalışma alanı için işlem hattı oluşturma etkinleştirilmemiştir.
PIPELINE_DOES_NOT_EXIST
Kimlik numarası '<pipelineId>' olan işlem hattı mevcut değil.
Daha fazla ayrıntı için bkz. PIPELINE_DOES_NOT_EXIST
PIPELINE_ENVIRONMENT_NOT_ENABLED
Lakeflow Spark Bildirimli İşlem Hatlarında ortam kullanımı etkinleştirilmedi.
PIPELINE_ENVIRONMENT_VERSION_NOT_ALLOWED
İşlem hattının ortamı şu anda ortam sürümlerini desteklemiyor.
PIPELINE_FAILED_TO_UPDATE_UC_TABLE_DUE_TO_CONCURRENT_UPDATE
<tableName> girişimden sonraki eşzamanlı değişiklikler nedeniyle işlem hattı UC tablosunu (<attempts>) güncelleştiremedi.
Lütfen tabloyu değiştiren dış işlemler olmadığını doğrulayın, güncelleştirmeyi yeniden deneyin ve bu sorun devam ederse Databricks desteğine başvurun.
PIPELINE_FAILED_TO_UPDATE_UC_TABLE_DUE_TO_EXTERNAL_DELETE
İşlem hattı güncelleştirilirken tablo <tableName> bir dış işlem tarafından silindi.
Tabloyu hiçbir dış işlemin değiştirmediğinden emin olun ve güncelleştirmeyi yeniden deneyin.
Sorun devam ederse Databricks Desteği'ne başvurun.
PIPELINE_FOR_TABLE_NEEDS_REFRESH
Tablo <tableName> gerekli durumda değil, tablo yakın zamanda güncelleştirilmedi. Kimliği '<pipelineId>' olan işlem hattı bir kez daha çalıştırılmalı ve işlemi yeniden denemelidir.
PIPELINE_FOR_TABLE_NOT_FOUND
'<pipelineId>' kimliğine sahip, <tableName> tablosunu yöneten işlem hattı bulunamıyor. İşlem hattıyla aynı çalışma alanında olduğunuzdan, işlem hattının sahibi olduğunuzdan ve işlem hattının en az bir kez çalıştırıldığından emin olun.
PIPELINE_GLOB_INCLUDES_CONFLICTS
İşlem hattı ayarlarında, kitaplıklar altındaki glob veya not defteri/dosya alanlarından biri ayarlanmalıdır. lütfen işlem hattı ayarlarını değiştirin.
PIPELINE_GLOB_INCLUDES_NOT_SUPPORTED
Kaynak dosyaları eklemek için glob alanı kullanmak bir önizleme özelliğidir ve devre dışıdır.
Bu hatayı düzeltmek için işlem hattına eklenecek her kaynak dosyayı yeniden seçin.
Bu özellik hakkında daha fazla bilgi edinmek ve önizlemeye kaydolmak için Databricks desteğine ulaşın.
PIPELINE_GLOB_UNSUPPORTED_SPECIAL_CHARACTER
Özel karakterler <specialChar> rezerve edilmiştir ve işlem hattı ayarlarında dahil edilen '<path>' yolunda kullanılmamalıdır. Hatayı düzeltmek için bu karakterleri kaldırın
PIPELINE_NAME_LIMIT_REACHED
Ad, en fazla <maxPipelineNameLength> karakter uzunluğunda olabilir.
PIPELINE_TEKRARLANAMAZ_ANALİZ_İSTEMCİ_HATASI
Kısmi yürütmeden sonra tekrar denenemeyen hatalar nedeniyle işlem hattı, kaynak tabloları (<tables>) analiz edemedi.
Yeni bir işlem hattı güncelleştirmesi oluşturulmayacak.
<flowErrors>
Olay günlüğünü denetleyin ve sorunları uygun şekilde düzeltin.
BORU HATTI RESTORASYON İÇİN UYGUN DEĞİL (PIPELINE_NOT_ELIGIBLE_FOR_RESTORATION)
'<pipelineId>' işlem hattı geri yükleme penceresini geçmiş.
PIPELINE_NOT_IN_DIRECT_PUBLISHING_MODE
'<pipelineId>' kimliğine sahip olan ve tablosunu <tableName>yöneten işlem hattı, Doğrudan Yayımlama Modu'nu kullanmıyor.
PIPELINE_NOT_READY_FOR_SCHEDULED_UPDATE
Tablo henüz yenileme için hazır değil
Daha fazla ayrıntı için bkz. PIPELINE_NOT_READY_FOR_SCHEDULED_UPDATE
PIPELINE_PERMISSION_DENIED_NOT_OWNER
Bu işlemi gerçekleştirmenize izin verilmiyor. '<pipelineId>' kimliğine sahip işlem hattının sahibi değilsiniz ve <tableName> tablosunu yönetiyorsunuz.
PIPELINE_YENİDEN_DENENEBİLİR_ANALİZ
İşlem hattı, kısmi yürütmeden sonra yeniden denenebilir hatalar nedeniyle kaynak tabloları (<tables>) çözümleyemedi.
İşlemeyi yeniden denemek için yeni bir işlem hattı güncelleştirmesi oluşturulur. Hata devam ederse lütfen olay günlüğünü denetleyin ve sorunları uygun şekilde giderin.
PIPELINE_SETTINGS_FIELD_CANNOT_BE_EDITED
'<uneditableFieldName>' kullanıcılar tarafından değiştirilemez. Kullanıcılar öğesini eklemek veya değiştirmek <settingName>isterse lütfen bunun yerine '<editableFieldName>' alanını kullanın.
PIPELINE_SETTINGS_MODIFIED_CONCURRENTLY
İşlem hattı ayarları eşzamanlı olarak değiştirildi.
PIPELINE_SETTINGS_UNSUPPORTED_CONFIGURATIONS
Yapılandırmalar <configurations> Lakeflow Spark Bildirimli İşlem Hatları tarafından desteklenmez. Lütfen bu yapılandırmaları kaldırın.
PIPELINE_SETTING_SHOULD_NOT_SPECIFY_DEVELOPMENT
'Geliştirme' ayarıyla güncelleştirme başlatma desteklenmez.
PIPELINE_SHOULD_NOT_HAVE_MULTIPLE_TABLES
İşlem hattında tam olarak bir tablo bulunmalıdır, ancak <tablesSize> tablo bulundu: <tables>
PIPELINE_SOURCE_FILE_NUMBER_EXCEEDED
Klasörlerde bildirilen dosyalar da dahil olmak üzere kaynak dosya sayısı sınırını <limit>aşıyor.
Aşırı dosyaları kaldırın veya birleştirin ve gerekirse ilgili işlem hattı belirtimlerini değiştirin,
veya sınır artışı istemek için Databricks desteğine başvurun.
PIPELINE_SOURCE_FOLDER_DEPTH_EXCEEDED
'<folder_path>' klasörü izin verilen dizin iç içe yerleştirme düzeyi üst sınırını <limit>aşıyor. Klasör iç içe geçme düzeyini azaltın veya sınır artışı istemek için Databricks desteğine başvurun.
PIPELINE_SPEC_PARAM_CANNOT_BE_CHANGED
İşlem hattı ayarlarında aşağıdaki parametrenin <param> değiştirilmesine izin verilmiyor
PIPELINE_TYPE_NOT_SUPPORTED
'<pipelineType>' işlem hattı türü desteklenmiyor.
PIPELINE_TYPE_NOT_WORKSPACE_PIPELINE_TYPE
'<pipelineId>' kimliğine sahip olan ve tablosunu <tableName>yöneten işlem hattı bir ETL işlem hattı değildir.
PIPELINE_TYPE_QUOTA_EXCEEDED
'<updateId>' türündeki etkin işlem hatları sınırına ulaşıldığı için '<pipelineType>' güncelleştirmesi başlatılamıyor.
PIPELINE_UPDATE_FOR_TABLE_IS_RUNNING
'<pipelineId>' kimliğine sahip işlem hattı, <tableName> tablosunu yönetiyor ve çalışıyor. İşlemi çalıştırmadan önce lütfen işlem hattını durdurun.
PIPELINE_WORKSPACE_LIMIT_REACHED
'' çalışma alanında zaten '<pipelineType><orgId>' işlem hatları olduğundan '<countLimit>' türünün işlem hattı oluşturma işlemi engellendi. Lütfen kullanılmayan işlem hatlarını silin.
PIP_INSTALL_NOT_AT_TOP_OF_NOTEBOOK
'<notebookPath>' için, not defterinde üstte bulunmayan %pip kurulumunu içeren hücreler bulundu.
Tüm %pip yükleme hücrelerini not defterinin başlangıcına taşıyın.
PY4J_BLOCKED_API
SQLSTATE: hiçbiri atanmadı
Geçerli ortamda desteklenmeyen bir Python API'sini kullanıyorsunuz.
Alternatifler için databricks belgelerine bakın.
<additionalInfo>
QUERY_BASED_CONNECTOR_SOURCE_API_ERROR
<sourceName> API çağrısında bir hata oluştu. Kaynak API türü: <qbcSourceApiType>.
Hedef tabloyu yenilemeyi deneyebilirsiniz. Sorun devam ederse lütfen bir talep oluşturun.
QUERY_BASED_INGESTION_CONNECTOR_ERROR
<sourceName> için sorgu tabanlı alma bağlayıcısında hata oluştu.
Daha fazla ayrıntı için bkz. QUERY_BASED_INGESTION_CONNECTOR_ERROR
REFERENCE_DLT_DATASET_OUTSIDE_QUERY_DEFINITION
Veri kümesi sorgu tanımının (ek <identifier> açıklama) dışında Lakeflow Spark Bildirimli İşlem Hatları veri @dlt.table kümesine başvuruda bulunmak desteklenmez. Lütfen bunu, veri kümesi sorgu tanımı içinde okuyun.
REFRESH_INITIATED_FROM_INVALID_WORKSPACE
Yenileme, kaynağın oluşturulduğu çalışma alanında <homeWorkspaceId>başlatılmalıdır.
<userWorkspaceId> çalışma alanında yenileme denendi.
REFRESH_MODE_ALREADY_EXISTS
zaten <type>olan bir tabloya <existingType> eklenemez. Lütfen mevcut zamanlamayı bırakın veya . ALTER TABLE...ALTER <type> .. öğesini seçin.
REQUIRED_PARAM_NOT_FOUND
Gerekli parametre <param> bulunamadı.
RESERVED_KEYWORD_IN_USE_CATALOG
'' Lakeflow Spark Bildirimli İşlem Hatlarında ayrılmış bir anahtar sözcük olduğundan USE CATALOG '<reservedKeyword><reservedKeyword>' geçersiz.
RESERVED_KEYWORD_IN_USE_SCHEMA
'' Lakeflow Spark Bildirimli İşlem Hatlarında ayrılmış bir anahtar sözcük olduğundan USE SCHEMA '<reservedKeyword><reservedKeyword>' geçersiz.
Kaynaklar Sağlanıyor
'<pipelineId>' işlem hattı için işlem hattı kaynakları sağlanıyor.
RESOURCE_READ_ONLY_IN_WORKSPACE
<resourceType> '<resourceName>' geçerli çalışma alanında salt okunur olarak belirlenmiştir.
SİLİNMEDİK_BORU_HATTINI_GERİ_YÜKLE
'<pipelineId>' işlem hattı silinmedi. Geri getirme yalnızca silinen işlem hatları için geçerlidir.
RESTORE_PİPLAYNI_DEVRE_DIŞI
İşlem hattı türü için RestorePipeline etkin değil <pipelineType>
'<pipelineId>' işlem hattını geri yükleme konusunda yardım için lütfen Databricks desteğine başvurun.
ROOT_PATH_NOT_FOUND
'<rootPath>' kök yoluna erişilemiyor. Lütfen gerekli erişim ayrıcalıklarına sahip olduğunuzdan emin olun.
RUN_AS_USER_NOT_FOUND
Güncelleştirme için belirtilen '<runAsUserId>' kullanıcısı olarak çalıştırma çalışma alanında yok.
SAAS_CONNECTION_ERROR
<sourceName> kaynağıyla bağlantı oluşturulamadı. Hata kodu: <saasConnectionErrorCode>.
Daha fazla ayrıntı için bkz. SAAS_CONNECTION_ERROR
SAAS_CONNECTOR_DUPLICATE_DATA
tablosunda <tableName>yinelenen veriler bulundu. Kaynak türü: <sourceName>.
Daha fazla ayrıntı için bkz. SAAS_CONNECTOR_DUPLICATE_DATA
SAAS_CONNECTOR_INVALID_INCLUDE_COLUMNS
tablosu <qualifiedTableName>için geçersiz include_columns belirtildi. Neden: <reason>
SAAS_CONNECTOR_INVALID_PRIMARY_KEY_CONFIGURATION
tablosu <qualifiedTableName>için geçersiz birincil anahtar yapılandırması. Neden: <reason>
SAAS_CONNECTOR_MUTUAL_AUTHENTICATION_FAILED
Bu oturum ile <sourceName>kullanılmak üzere karşılıklı olarak doğrulanamadı. Kaynak API türü: <saasSourceApiType>. Hata kodu: <saasSourceApiErrorCode>.
lütfen istemci sertifikasının ve özel anahtarın geçerli bir çift olduğunu ve tarafından <sourceName>güvenilir olduğunu doğrulayın.
SAAS_CONNECTOR_REFRESH_TOKEN_EXPIRED
Bağlantı <connectionName> için yenileme belirtecinin süresi doldu. Bağlantıyı düzenleyin, yeniden kimlik doğrulama yapın ve işlem hattınızı yeniden çalıştırın.
SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR
<tableName> kaynağının <sourceName> numaralı tablosunda bir şema değişikliği meydana geldi.
Daha fazla ayrıntı için bkz. SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR
SAAS_CONNECTOR_SOURCE_API_ERROR
<sourceName> API çağrısında bir hata oluştu. Kaynak API türü: <saasSourceApiType>. Hata kodu: <saasSourceApiErrorCode>.
Hedef tabloyu yenilemeyi deneyebilirsiniz. Sorun devam ederse lütfen bir talep oluşturun.
SAAS_CONNECTOR_UC_CONNECTION_OAUTH_EXCHANGE_FAILED
OAuth belirteci değişimi UC bağlantısı için başarısız oldu: <connectionName>.
Bunun nedeni UC kimlik bilgilerinizle ilgili sorunlar olabilir. Hata izlemesini denetleyin, UC bağlantısını düzenleyin, yeniden kimlik doğrulaması yapıp işlem hattını yeniden çalıştırın. Hata devam ederse bir bilet oluşturun.
SAAS_CONNECTOR_UNSUPPORTED_ERROR
<sourceName>veri kaynağında desteklenmeyen hata oluştu.
Daha fazla ayrıntı için bkz. SAAS_CONNECTOR_UNSUPPORTED_ERROR
SAAS_INCOMPATIBLE_SCHEMA_CHANGES_DURING_INIT
İşlem hattını başlatırken uyumlu olmayan şema değişiklikleri algıladık:
<details>
Lütfen etkilenen tablolarda tam yenileme gerçekleştirin.
SAAS_PARTIAL_ANALYSIS_INPUT_CREATION_ERROR
Kısmi analiz için giriş oluşturulurken hatayla karşılaşıldı. Yeni bir işlem hattı güncelleştirmesi oluşturulmayacak.
Lütfen olay günlüğünü denetleyin ve sorunları uygun şekilde düzeltin.
SAAS_SCHEMA_DIVERGED_DURING_ANALYSIS
Kaynak tablonun (<table>) analiz edilen şeması beklenen şemasından ayrılmıştır.
Lütfen işlem hattı güncelleştirmesini yeniden deneyin ve sorunun çözülmüş olup olmadığını görün.
Bu sorun devam ederse lütfen yukarıda belirtilen tablolarda tam yenileme gerçekleştirin
Beklenen şema:
<expectedSchema>
Gerçek şema:
<actualSchema>
SAAS_UC_CONNECTION_INACCESSIBLE
Sağlanan Bağlantı <connectionName> erişilemez. Lütfen bağlantıyı denetleyin ve yeniden deneyin.
Daha fazla ayrıntı için bkz. SAAS_UC_CONNECTION_INACCESSIBLE
SCHEMA_SPEC_EMPTY_CATALOG
SchemaSpec'in katalog alanında boş bir dize var.
Lütfen boş dizeyi kaldırın veya katalog adını ekleyin. (Bu şema kaynaktaki bir kataloğa ait değilse, alanı ayarlamayın.)
Şema spesifikasyon ayrıntıları:
<schemaSpec>
SCHEMA_SPEC_EMPTY_SCHEMA
SchemaSpec'in şema alanında boş bir dize var.
Lütfen boş dizeyi kaldırın veya şema adını ekleyin. (Bu tablo kaynaktaki bir şemaya ait değilse, alanı ayarlamayın.)
Şema spesifikasyon ayrıntıları:
<schemaSpec>
SCHEMA_SPEC_REQUIRE_ONE_OF_CATALOG_SCHEMA
Kaynak kataloğun ve kaynak şemanın en az biri mevcut olmalıdır. Ama ikisi de boş.
Şema spesifikasyon ayrıntıları:
<schemaSpec>
SIRAYA_GÖRE_DİZİ_BULUNAMADI
İşlem hattı tanımı, <columnNames> kaynağındaki <qualifiedTableName> tablosunda mevcut olmayan sequence_by sütunlarını (<sourceType>) içerir. Lütfen bu sütunları sequence_by alanından kaldırın.
SUNUCUSUZ_BÜTÇE_POLİTİKASI_VE_KULLANIM_POLİTİKASI_İKİSİ_DE_AYARLI
hem budget_policy_idhem de usage_policy_id ayarlanamaz. Lütfen budget_policy_id öğesini kaldırın.
SERVERLESS_BUDGET_POLICY_BAD_REQUEST
'' kimliğine<budgetPolicyId> sahip sağlanan bütçe ilkesi, ilke çalışma alanı bağlama kısıtlamaları nedeniyle bu çalışma alanında kullanılamaz.
SERVERLESS_BUDGET_POLICY_IS_INVALID
Kimliği '<budgetPolicyId>' olan sunucusuz bütçe ilkesi geçersiz.
SERVERLESS_BUDGET_POLICY_MISSING
Kimliği '<budgetPolicyId>' olan sunucusuz bütçe ilkesi yok.
SERVERLESS_BUDGET_POLICY_NOT_ENABLED
Sunucusuz bütçe ilkesi etkinleştirilmedi, lütfen Databricks desteğine başvurun.
SERVERLESS_BUDGET_POLICY_NOT_ENABLED_FOR_ACCOUNT
Sunucusuz bütçe ilkesi bu hesap için etkin değil. Kullanıcı bu işlem hattı için bir bütçe ilkesi belirtemez. Hesap yöneticisinin özellik önizleme portalı aracılığıyla kaydolmayı denemesi gerekir. Sorun devam ederse lütfen Databricks desteğine başvurun.
SERVERLESS_BUDGET_POLICY_NOT_SUPPORTED_FOR_NON_SERVERLESS_PIPELINE
Sunucusuz bütçe ilkesi sunucusuz olmayan bir işlem hattına atanamaz.
SERVERLESS_BUDGET_POLICY_NOT_SUPPORTED_FOR_PIPELINE_TYPE
İşlem hattı türü <pipelineType>için sunucusuz bütçe ilkesi desteklenmez.
SERVERLESS_BUDGET_POLICY_PERMISSION_DENIED
Kullanıcının kimliği '<budgetPolicyId>' olan sunucusuz bütçe ilkesini kullanma izni yok.
SERVERLESS_NOT_AVAILABLE
Sunucusuz işlem kullanılamaz. Daha fazla bilgi için lütfen Databricks ile iletişime geçin.
SERVERLESS_NOT_ENABLED
Lakeflow Spark Bildirimli İşlem Hatları ile sunucusuz işlem kullanamazsınız. Bu özelliği çalışma alanınızda etkinleştirmek için lütfen Databricks ile iletişime geçin.
SERVERLESS_NOT_ENABLED_FOR_USER
Çağrıcı için sunucusuz işlem etkinleştirilmedi. Bu özelliği etkinleştirmek için lütfen çalışma alanı yöneticinize başvurun.
SERVERLESS_NOT_ENABLED_FOR_WORKSPACE
Sunucusuz işlem bu çalışma alanı ve/veya bölge için kullanılamaz. Daha fazla bilgi için lütfen Databricks ile iletişime geçin.
SERVERLESS_REQUIRED
Bu çalışma alanında sunucusuz işlem kullanmanız gerekir.
SERVICENOW_CONNECTION_ERROR
ServiceNow'da bir hata oluştu. Kaynak API türü: <saasSourceApiType>.
Daha fazla ayrıntı için bkz. SERVICENOW_CONNECTION_ERROR
SERVICENOW_CONNECTOR_EMPTY_CURSOR_KEY_ERROR
ServiceNow'da bir hata oluştu. Kaynak API türü: <saasSourceApiType>.
Şu anda, satırdaki imleç tuşu boş bir alan içerdiğinden ingest işlemi '<tableName>' tablosunu işleyemiyor.
İşlem hattınızı çalıştırmaya devam etmek için bu tabloyu kaldırın. Hata devam ederse bir bilet oluşturun.
SERVICENOW_CONNECTOR_INSTANCE_HIBERNATION_ERROR
ServiceNow'da bir hata oluştu. Kaynak API türü: <saasSourceApiType>.
ServiceNow örneğine bağlanılamadı. Örnek hazırda bekletiliyor veya etkin değil gibi görünüyor.
ServiceNow yönetici portalınızda oturum açın ve örnek tamamen uyanana kadar bir süre bekleyin.
Hata devam ederse bir bilet oluşturun.
SERVICENOW_CONNECTOR_INSTANCE_OFFLINE_ERROR
ServiceNow'da bir hata oluştu. Kaynak API türü: <saasSourceApiType>.
ServiceNow örneğine bağlanılamadı. Örnek çevrim dışı durumda.
ServiceNow yönetici portalınızda oturum açın ve örnek geri yüklenene kadar bir süre bekleyin.
Hata devam ederse bir bilet oluşturun.
SERVICENOW_CONNECTOR_INVALID_TABLE_ERROR
ServiceNow'da bir hata oluştu. Kaynak API türü: <saasSourceApiType>.
'<tableName>' tablosunun şeması sorgulanamadı. Tablo bu kullanıcının ServiceNow hesabında yok.
Yazım hataları için tablo adını doğrulayın ve kullanıcının tabloya erişmek için gerekli izinlere sahip olduğundan emin olun.
Hata devam ederse bir bilet oluşturun.
SERVICENOW_CONNECTOR_IP_ADDRESS_RESTRICTED_ERROR
ServiceNow'da bir hata oluştu. Kaynak API türü: <saasSourceApiType>.
ServiceNow örneğine bağlanılamadı. Sunucu IP adresi erişim denetimi kısıtlamalarına sahiptir.
Bu sorunu çözmek için, ServiceNow >> Tüm >> Sistem Güvenliği >> IP Adresi Erişim Denetimi'ne giderek IP adresi kısıtlamalarını devre dışı bırakın veya sunucusuz kararlı IP'ler kullanın
Hata devam ederse bir bilet oluşturun.
SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR
ServiceNow'da bir hata oluştu. Kaynak API türü: <saasSourceApiType>.
Geçersiz ServiceNow API uç noktası URL'si algılandı. URL yapısı beklenen ServiceNow biçimiyle eşleşmiyor.
UC bağlantı kimlik bilgilerindeki ServiceNow örneği yapılandırmasını denetleyin.
Daha fazla ayrıntı için bkz. SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR
SERVICENOW_CONNECTOR_MAX_FAILED_ATTEMPTS_REACHED
ServiceNow'da bir hata oluştu. Kaynak API türü: <saasSourceApiType>.
Bu durum genellikle bir tablo için veri getirme işlemi çok uzun sürdüğünde gerçekleşir. İlk adım olarak, imleç sütununda dizin oluşturmayı etkinleştirmek için ServiceNow yöneticinizle birlikte çalışın.
İmleç sütunu kullanılabilirlik ve tercih sırasına göre aşağıdaki listeden seçilir: sys_updated_on (ilk seçenek), sys_created_on (ikinci seçenek), sys_archived (üçüncü seçenek)
ServiceNow'da dizin oluşturmayı etkinleştirme yönergeleri için buraya bakın: https://docs.databricks.com/ingestion/lakeflow-connect/servicenow-overview#why-is-my-servicenow-ingestion-performance-slow.
Ayrıca, kayıtları getirmek için daha fazla zaman sağlamak için REST API sorgu zaman aşımını 60 saniyeden fazla artırmanızı öneririz.
Ardından alma işlem hattınızı yeniden deneyin. Sorun devam ederse bir bilet oluşturun.
SERVICENOW_CONNECTOR_SCHEMA_FIELD_TYPE_INACCESSIBLE
ServiceNow'da bir hata oluştu. Kaynak API türü: <saasSourceApiType>.
Yönetici olmayan ayrıcalıklarla tablo şeması getirilirken, şema sütunlarının iç_tipi erişilebilir değildir.
Bu sorunu çözmek için geçerli kullanıcıya 'sys_glide_object' tablosunda okuma izinleri verin.
Hata devam ederse bir bilet oluşturun.
SERVICENOW_CONNECTOR_SCHEMA_FIELD_TYPE_MISMATCH
ServiceNow'da tablo şeması getirilirken bir hata oluştu.
''' alanı için iki çakışan veri türü bulundu: '<fieldName><firstDataType>' ve '<secondDataType>'.
İşlem hattınızı çalıştırmaya devam etmek için bu tabloyu kaldırın. Hata devam ederse bir bilet oluşturun.
SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
ServiceNow'da bir hata oluştu. Kaynak API türü: <saasSourceApiType>.
Daha fazla detay için bkz. SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
SET_TBLPROPERTIES_NOT_ALLOWED_FOR_PIPELINE_TABLE
ALTER <commandTableType>
...
SET TBLPROPERTIES Desteklenmez. Tablo özelliklerini değiştirmek için lütfen özgün tanımı değiştirin ve bir güncelleştirme çalıştırın.
SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE
Salesforce API sorgu işi çok uzun sürdüğü, başarısız olduğu veya manuel olarak iptal edildiği için <objName> nesnesinin alımı tamamlanmadı.
Daha fazla ayrıntı için bkz. SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE
SFDC_CONNECTOR_BULK_QUERY_NOT_FOUND
Salesforce toplu API sorgu işi bulunamadığından nesne <objName> alımı başarısız oldu.
Bunun nedeni işin Salesforce kullanıcı arabiriminde silinmesi veya son işlem hattı güncelleştirmesinin üzerinden 7 günden fazla geçmesi ve salesforce'un işi otomatik olarak silmesi olabilir
Yeni bir toplu işi başlatmak için, lütfen belirli hedef tabloda bir FULL REFRESH uygulayın.
SFDC_CONNECTOR_CREATE_BULK_QUERY_API_LIMIT_EXCEEDED
Salesforce API çağrısında bir hata oluştu: API sınırı aşıldı
LÜTFEN API sınırlarınızın sıfırlanmasını bekleyin. Ardından hedef tabloyu yenilemeyi deneyin.
Hata devam ederse bir bilet oluşturun.
SFDC_CONNECTOR_CREATE_BULK_QUERY_JOB_FAILED
Nesne <objName> için alma işlemi tamamlanmadı çünkü Salesforce toplu API sorgu işi oluşturulamadı. Hata kodu: <saasSourceApiErrorCode>.
<actionText>.
SFDC_CONNECTOR_HATALI_KAYITLAR
Salesforce <objName> hatalı biçimlendirilmiş kayıtlar döndürdüğü için '<saasSourceApiType>' nesnesi için alım başarısız oldu.
Daha fazla ayrıntı için lütfen stack trace'e bakın.
Salesforce'taki verileri doğrulayın ve işlem hattını yeniden çalıştırın.
SINKS_NOT_SUPPORTED_IN_SEG
İşlem hattındaki Lakeflow Spark Bildirimli İşlem Hatları havuzları sunucusuz çıkış denetimi etkin çalışma alanlarında desteklenmez. Desteklenen Lakeflow Spark Bildirimli İşlem Hatları Havuzları Kafka ve Delta'dır.
Aşağıdaki desteklenmeyen lavabolar bulunur: <sinkNames>, karşılık gelen biçimleri şunlardır: <sinkFormats>.
SOURCE_TABLE_NOT_MATERIALIZED
"'<sourceTableName>' bağımlı veri kümesi hazırlanmamış olduğu için okunamadı." Tüm bağımlı veri kümelerini gerçekleştirmek için işlem hattının tamamını çalıştırın.
SPARK_CONNECT_DEFINITION_PATH_NOT_FOUND
'<graphElementName>' grafik öğesinin tanım yolu bulunamadı. Lütfen Databricks desteğine başvurun.
SPARK_CONNECT_DEFINITION_PATH_NOT_FOUND_SPARK_SQL
Geçerli Spark SQL yürütme bağlamında kullanılabilir işlem hattı tanım yolu yok. Lütfen Databricks desteğine başvurun.
SPARK_CONNECT_UNSUPPORTED_FLOW_DEFINITION_ERROR
Akış tanımı desteklenmez. Lütfen Databricks desteğine başvurun. Komut: <defineFlowCommand>
SPARK_CONNECT_UNSUPPORTED_OUTPUT_TYPE
Çıkış türü '<outputType>' Spark Connect'te desteklenmiyor. Lütfen Databricks desteğine başvurun.
STANDALONE_PRIVATE_MVST_NOT_SUPPORTED
Tek başına PRIVATE MV/ST oluşturma desteklenmez. Lütfen değiştiriciyi PRIVATE kaldırın
START_PYTHON_REPL_SÜRESİ_DOLDU
Python REPL'nin başlamasını beklerken süre aşımı gerçekleşti. Saniyelerden uzun <timeoutSeconds> sürdü.
STREAMING_TARGET_NOT_DEFINED
Komut için <target> hedef tablo <command> bulunamıyor. Hedef tablo <target> işlem hattında tanımlanmaz.
SYNCED_TABLE_USER_ERROR
Senkronize edilen tablo iş akışı kullanıcı hatası.
Daha fazla ayrıntı için bkz. SYNCED_TABLE_USER_ERROR
TABLE_CHANGED_DURING_OPERATION
Tablo <tableName> bu işlemin dışında değiştirildi ve bu işlem geri alındı. İşlemi yeniden deneyin.
TABLE_MATERIALIZATION_CYCLIC_FOREIGN_KEY_DEPENDENCY
İşlem hattı <pipelineId> için güncelleme: Yabancı anahtar kısıtlamalarının döngüsel bir zinciri algılandı: <tables>.
TABLE_SPEC_BOTH_CATALOG_SCHEMA_REQUIRED
TableSpec'in kaynak kataloğu ve/veya kaynak şeması eksik.
Tablo özellik ayrıntıları:
<tableSpec>
TABLE_SPEC_EMPTY_CATALOG
TableSpec'in katalog alanında boş bir dize var.
Lütfen boş dizeyi kaldırın veya katalog adını ekleyin. (Bu tablo kaynaktaki bir kataloğa ait değilse, alanı ayarlamayın.)
Tablo özellik ayrıntıları:
<tableSpec>
TABLE_SPEC_EMPTY_SCHEMA
TableSpec'in şema alanında boş bir dize var.
Lütfen boş dizeyi kaldırın veya şema adını ekleyin. (Bu tablo kaynaktaki bir şemaya ait değilse, alanı ayarlamayın.)
Tablo özellik ayrıntıları:
<tableSpec>
TABLE_SPEC_EMPTY_TABLE
Tablo adı boş. Lütfen bir tablo adı belirtin.
Tablo özellik ayrıntıları:
<tableSpec>
TABLE_TOKEN_NOT_EXIST_FOR_SCHEMA_EVOLUTION_LEGACY_TABLE
Eksik meta veriler nedeniyle şema evrimi etkinleştirilemiyor. Lütfen tam yenilemeyi tetikleyin.
Neden: Şema evrimi etkinleştirildiğinde anlık görüntü tablosu belirteci tanımlanmalıdır.
ÇALIŞMA ALANINDA SİLİNMİŞ BORU HATTI
İşlem hattı çöpe atıldığından veya silindiğinden işlem hattı başlatılamıyor.
TRIGGER_INTERVAL_VALUE_INVALID
Tetikleyici aralığı pozitif bir süre olmalıdır, kabul edilebilir maksimum değer 2.147.483.647 saniyedir. Alındı: <actual> saniye içinde.
TETİKLEYİCİ_ETKİN_DEĞİL
Bu çalışma alanı için tetikleyiciler etkinleştirilmedi. Lütfen Önizlemeler sayfasında Tablo Tetikleyicileri'ni etkinleştirin.
TRIGGER_ON_VIEW_READ_FROM_FILE_NOT_SUPPORTED
Kaynak <source> , şu anda tetikleyici tarafından desteklenmeyen bir dosya konumundan okunan bir görünümdür.
TETİKLEYİCİ_İSTEK_SERİLEŞTİRME_HATASI
İsteğiniz işlenirken bir sorun oluştu. Lütfen Databricks desteğine başvurun.
TETİKLEYİCİ_GÜVENLİ_TÜR_DESTEKLENMİYOR
Tetikleyici kurulumu başarısız oldu: desteklenmeyen tablo türü. Desteklenen türler için belgelere bakın.
TRIGGER_SOURCE_TYPE_NOT_SUPPORTED
<source> türüne sahip kaynak <type> şu anda tetikleyici tarafından desteklenmiyor.
TETİKLEYİCİ_DURUM_SERİLEŞTİRME_HATASI (TRIGGER_STATE_SERIALIZATION_ERROR)
İsteğiniz işlenirken bir sorun oluştu. Lütfen Databricks desteğine başvurun.
TETİKLEYİCİ_TABLO_SINIRI_AŞILDI
Tetikleyici kurulumu başarısız oldu: Tetikleyici izin verilen sınırdan daha fazla tablo içeriyor. Tablo sınırları ve bu sorunun nasıl çözüleceğini öğrenmek için lütfen belgelere bakın.
TETİKLEYİCİ_TABLO_TİPİ_DESTEKLENMİYOR
Tetikleyici kurulumu başarısız oldu: desteklenmeyen tablo türü. Desteklenen türler için belgelere bakın.
UC_CLEARING_TARGET_SCHEMA_NOT_ALLOWED
UC işlem hatları için hedef şemasındaki alanın temizlenmesine izin verilmez. Neden: <reason>.
UC_IAM_ROLE_NON_SELF_ASSUMING
Depolama kimlik bilgilerinin IAM rolünün kendi kendine varsayılmayan bir rol olduğu bulundu.
IAM rolünüzün, Unity Catalog depolama kimlik bilgileri belgelerine göre kendisini üstlenebildiğinden emin olmak için lütfen rolünüzün güven ve IAM ilkelerini kontrol edin.
UC_NOT_ENABLED
Lakeflow Spark Bildirimli İşlem Hatlarında UC kataloğunun kullanılması etkinleştirilmedi.
UC_PIPELINE_CANNOT_PUBLISH_TO_HMS
UC özellikli işlem hatları Hive Meta Veri Deposu'na yayın yapamaz. Lütfen farklı bir hedef katalog seçin.
UC_TARGET_SCHEMA_REQUIRED
Hedef şema alanı UC işlem hatları için gereklidir. Neden: <reason>.
UNABLE_TO_INFER_TABLE_SCHEMA
Tablo <tableName> şemasının yukarı akıştan gelen akışlardan çıkarılması başarısız oldu.
Şemalarını uyumlu hale getirmek için lütfen bu tabloya yazan akışları değiştirin.
Şimdiye kadar türetilen şema:
<inferredDataSchema>
Uyumsuz şema:
<incompatibleDataSchema>
UNEXPECTED_PIPELINE_SCHEMA_PERMISSION_ERROR
İşlem hattı <pipelineId>için şema izinleri denetlenirken beklenmeyen hata oluştu. Lütfen Databricks desteğine başvurun.
ROW_FILTERSÜNIFORM_UYUMLULUĞU_COLUMN_MASKS_İLE_AYARLANAMAZ
Satır filtresi veya sütun maskeleri uygulanmış gerçekleştirilmiş görünümlerde veya akış tablolarında tekdüzen uyumluluk ayarlanamaz.
UNITY_CATALOG_INITIALIZATION_FAILED
Cluster <clusterId> üzerinde işlem hattı ayarlanırken Unity Kataloğu ile ilgili bir hatayla karşılaşıldı.
Unity Kataloğu yapılandırmanızın doğru olduğundan ve gerekli kaynakların (örneğin, katalog, şema) mevcut olduğundan ve erişilebilir olduğundan emin olun.
Ayrıca kümenin Unity Kataloğu'na erişmek için uygun izinlere sahip olduğunu doğrulayın.
Ayrıntılar: <ucErrorMessage>
UNRESOLVED_SINK_PATH
Alıcı <identifier> için depolama yolu çözümlenemiyor. Lütfen Databricks desteğine başvurun.
UNRESOLVED_TABLES_FOR_MAINTENANCE
İşlem hattı tanımında aşağıdaki tablolar bulundu, ancak bakım sırasında çözümlenemedi. İşlem hattı tanımındaki tüm tabloların gerçekleştirilmesi ve bakımın engelini kaldırmak için lütfen en son işlem hattı tanımıyla bir işlem hattı güncelleştirme yürütmesi çalıştırın veya sorun devam ederse Databricks desteğine başvurun.
<unresolvedTableIdentifiersSet>
UNRESOLVED_TABLE_PATH
Tablo <identifier> depolama yolu çözümlenemiyor. Lütfen Databricks desteğine başvurun.
UNSUPPORTED_ALTER_COMMAND
ALTER <commandTableType>
...
<command> Desteklenmez.
UNSUPPORTED_CHANNEL_FOR_DPM
Doğrudan Yayımlama Modu için desteklenmeyen kanal. 'CURRENT' veya 'PREVIEW' kanalını bekliyordum, ancak 'PREVIOUS' aldım.
UNSUPPORTED_COMMAND_IN_NON_DPM_PIPELINE
<command> yalnızca doğrudan yayımlama modunda etkinleştirilmiş Spark Bildirimli İşlem Hattı'nda desteklenir
UNSUPPORTED_COMMAND_IN_QUERY_DEFINITION
'<command>' sorgu tanımında desteklenmiyor. Lütfen komutu sorgu tanımının dışına taşıyın. Python'da Spark Bildirim temelli bir İşlem Hattıysa, '<command>' öğesini dekoratörün @dlt.table()/@dlt.view() dışına taşıyın. Scala'da Bir Spark Bildirimli İşlem Hattı ise , '<command>' öğesini 'query' yönteminin dışına taşıyın.
UNSUPPORTED_CUSTOM_DBR_VERSION
Özel DBR sürümü '<v>' SHIELD ve HIPAA çalışma alanlarında desteklenmez. Beklenenlerden biri [<supportedDbrVersions>]
DESTEKLENMEYEN_ÖZEL_ŞEMA_ÖNİZLEMESİ
Özel şema özel önizlemesi devre dışı bırakıldı.
Lütfen 'şema' alanını kullanarak varsayılan yayımlama moduyla yeni bir işlem hattı oluşturun
ve veri kümelerini bu işlem hattından yeni işlem hattına taşıyın.
DESTEKLENMEYEN_ÖZEL_SCHHEMA_ÖNİZLEME_ETKİNLEŞTİRME
Özel şema özel önizlemesi devre dışı bırakıldı ve önizlemeyi bir işlem hattına ekleyemezsiniz.
Lütfen işlem hattı yapılandırmasından kaldırın <sparkConfKeys> .
UNSUPPORTED_DBR_VERSION
'' DBR sürümü<v> desteklenmiyor. Beklenenlerden biri [<supportedDbrVersions>]
UNSUPPORTED_FEATURE_FOR_WORKSPACE
<featureName> çalışma alanınızda desteklenmez. Bu özelliği çalışma alanınızda etkinleştirmek için lütfen Databricks desteğine başvurun.
UNSUPPORTED_LANGUAGE
<language> '<notebookPath>' not defteri yüklenemedi. Şu anda yalnızca <supportedLanguages> not defterleri desteklenmektedir.
UNSUPPORTED_LIBRARY_FILE_TYPE
Belirtilen konumdaki dosya <path> .py veya .sql soneki içermiyor. İşlem hatlarında yalnızca Python ve SQL dosyaları desteklenir.
UNSUPPORTED_LIBRARY_NOTEBOOK_LANGUAGE
Not defteri <language> için desteklenmeyen dil <path>. İşlem hatlarında yalnızca Python ve SQL desteklenir
UNSUPPORTED_LIBRARY_OBJECT_TYPE
Yola <path> dahil edilen, <objectType> türünde olup desteklenmemektedir. Şu anda kitaplık olarak yalnızca not defterleri ve dosyalar kullanılabilir. Bu sorunu çözmek için desteklenmeyen nesneyi kaldırın veya yalnızca desteklenen nesne türlerinin dahil olması için bu işlem hattı için yapılandırılmış kitaplıkları güncelleştirin.
UNSUPPORTED_MANAGED_INGESTION_SOURCE_TYPE
Geçersiz yönetilen veri alma işlem hattı tanımı, desteklenmeyen kaynak türü: <sourceType>.
UNSUPPORTED_MULTIPLE_UPDATE_TYPE
Yalnızca doğrulayın, yalnızca keşfedin ve güncelleştirmeleri geri sarmak birbirini dışlar. En fazla bir ayarlanmalıdır.
UNSUPPORTED_REWIND
Bu çalışma alanı için geri sarma işlemleri henüz etkinleştirilmemiş.
UNSUPPORTED_SAAS_INGESTION_TYPE
Sağlanan alma türü <ingestionType> desteklenmez.
Bu sorun devam ederse lütfen Databricks desteğine başvurun.
UNSUPPORTED_SPARK_SQL_COMMAND
'<command>', Lakeflow Spark Bildirimli İşlem Hatları Python'daki spark.sql("...") API'sinde desteklenmez. Desteklenen komut: <supportedCommands>.
UNSUPPORTED_SQL_STATEMENT
'<datasetType>': <datasetName> için <operation> SQL deyimi desteklenmiyor.
UPDATED_DEFINITION_SET_FOR_NON_DBSQL_PIPELINE
Yalnızca DBSQL işlem hatlarında updated_definition olabilir.
USE_CATALOG_IN_HMS
USE CATALOG yalnızca UC özellikli Spark Bildirimli İşlem Hattı'nda desteklenir
VIEW_TEXT_NOT_SAVED_IN_UC
Unity Kataloğu'nda kaydedilmiş bir sorgusu olmadığından tablo <tableName> yenilenemiyor. Lütfen Databricks desteğine başvurun.
WORKDAY_HCM_CONNECTOR_FETCH_BATCH_FAILED
Workday HCM'de bir hata oluştu. Kaynak API türü: <saasSourceApiType>.
'<offset>' uzaklığında toplu iş getirilemedi.
Hedef tabloyu yenilemeyi deneyebilirsiniz. Sorun devam ederse lütfen bir talep oluşturun.
WORKDAY_REPORTS_CONNECTOR_INSUFFICIENT_OAUTH_SCOPE_ERROR
Workday Raporları'nda bir hata oluştu. Kaynak API türü: <saasSourceApiType>.
'<reportUrl>' raporu için veri getirilemedi. OAuth istemcisinin raporu almak için yeterli kapsam erişimi yok.
Bu sorunu çözmek için OAuth istemcisinin Workday'de yapılandırılmış gerekli kapsamlara sahip olduğundan emin olun.
Hata devam ederse bir bilet oluşturun.
WORKDAY_REPORTS_CONNECTOR_GEREKEN_PARAMETRELER_EKSİK_HATASI
Workday Raporları'nda bir hata oluştu. Kaynak API türü: <saasSourceApiType>.
'' Workday raporu '<reportUrl><missingParam>' parametresini bekler.
Raporun tüm parametrelerinin URL'ye eklendiğinden emin olun; Hangi parametrelerin zorunlu olduğunu belirlemek için Workday rapor yapılandırmasını kontrol edebilirsiniz.
Sorun devam ederse bir bilet oluşturun.
WORKDAY_REPORTS_CONNECTOR_REPORT_NOT_FOUND_ERROR
Workday Raporları'nda bir hata oluştu. Kaynak API türü: <saasSourceApiType>.
'<reportUrl>' rapor URL'si yanlış. Sorunu çözmek için lütfen temel URL'de veya rapor adında yazım hatalarını denetleyin.
Sorun devam ederse bir bilet oluşturun.
WORKDAY_RAPORLARI_BAĞLAYICI_RAPOR_BOYUTU_AŞILDI_HATASI
Workday Raporları'nda bir hata oluştu. Kaynak API türü: <saasSourceApiType>.
'<reportUrl>' URL'sine sahip raporun boyutu 2 GB'tan büyük. Lütfen rapor boyutunun bu sınırı aşmadığından emin olun.
Sorun devam ederse bir bilet oluşturun.
WORKDAY_REPORTS_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
Workday Raporları'nda bir hata oluştu. Kaynak API türü: <saasSourceApiType>.
Daha fazla bilgi için bkz. WORKDAY_REPORTS_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
WORKDAY_REPORT_URL_EMPTY
Workday raporu URL'si boş. En az bir rapor sağlanmalıdır.
WORKSPACE_QUOTA_EXCEEDED
Bu çalışma alanında zaten '<updateId>' etkin işlem hatları çalıştığından '<maxActiveUpdates>' güncelleştirmesi başlatılamıyor.
Installation
ERROR_BASE_ENVIRONMENT_FILE_NOT_FOUND
SQLSTATE: hiçbiri atanmadı
Temel ortam YAML dosyası eksik. Lütfen dosyanın belirtilen yolda bulunduğundan emin olun.
Açıklama: Gerekli temel ortam YAML dosyası beklenen konumda bulunamadığında oluşur.
Önerilen Eylem: Temel ortam YAML dosyasının belirtilen yolda bulunduğundan emin olun ve yüklemeyi yeniden deneyin.
ERROR_BASE_ENVIRONMENT_FILE_READ
SQLSTATE: hiçbiri atanmadı
YAML dosyasının yanlış söz dizimi veya biçimi nedeniyle temel ortam dosyası okunamadı. Lütfen dosya içeriğini gözden geçirin.
Açıklama: Temel ortam YAML dosyası söz dizimi veya biçim hataları içerdiğinde oluşur.
Önerilen Eylem: Ortam dosyasındaKI YAML söz dizimini doğrulayın ve düzeltin, ardından yüklemeyi yeniden deneyin.
ERROR_CONNECTION_REFUSED (BAĞLANTI REDDEDİLDİ)
SQLSTATE: hiçbiri atanmadı
Paket deposuna bağlanılamıyor. Ağ bağlantısını, güvenlik duvarı ayarlarını veya depo kullanılabilirliğini denetleyin.
Açıklama: Ağ sorunları, güvenlik duvarı kısıtlamaları veya depo kapalı kalma süresi nedeniyle pip uzak paket deposuna bağlantı kuramadığında oluşur.
Önerilen Eylem: Ağ bağlantısını doğrulayın, güvenlik duvarı veya ara sunucu ayarlarını denetleyin, depo URL'sinin erişilebilir olduğunu onaylayın ve depo geçici olarak kullanılamayabilirse daha sonra yeniden deneyin.
ÇEKİRDEK PAKET SÜRÜM DEĞİŞİKLİĞİ HATASI
SQLSTATE: hiçbiri atanmadı
Yüklenen paket Databricks çekirdek paketleriyle uyumlu değil. Lütfen paket sürümlerini önceden yüklenmiş kitaplık sürümleriyle hizalayın ve yüklemeleri yeniden deneyin.
Açıklama: Databricks çekirdek bağımlılığı (örneğin, pyspark) sürümü değiştirildiğinde oluşur.
Önerilen Eylem: Yüklü paket sürümlerini önceden yüklenmiş kitaplıklarla hizalayın ve yüklemeyi yeniden deneyin.
ERROR_CRAN_PACKAGE_NOT_AVAILABLE (CRAN paketi mevcut değil)
SQLSTATE: hiçbiri atanmadı
CRAN paketi, bu işlemde önceden yüklenmiş R sürümü için kullanılamaz.
Açıklama: İşlemde yüklü R sürümü için bir R paketi yayımlanmadığında gerçekleşir.
Önerilen Eylem: Uyumlu R sürümüne sahip bir işlem moduna geçin veya farklı bir paket sürümü seçin.
ERROR_DBFS_DISABLED (DBFS devre dışı)
SQLSTATE: hiçbiri atanmadı
Genel DBFS kök erişimi devre dışı bırakıldı. Lütfen alternatif bir depolama alanı kullanın.
Açıklama: DBFS'den kitaplıkları yüklemeye çalışırken gerçekleşir, ancak çalışma alanında genel DBFS kökü devre dışı bırakılır.
Önerilen Eylem: UC birimleri, çalışma alanı dosyaları veya uzak depolama alanı gibi alternatif depolama konumlarını kullanın.
ERROR_DIRECTORY_NOT_INSTALLABLE (Yüklenemeyen Dizin Hatası)
SQLSTATE: hiçbiri atanmadı
Geçersiz Python paket yapısı nedeniyle dizin kaldırılamaz. Lütfen dizinin düzgün ayarlandığından emin olun.
Açıklama: Pip yüklemesi geçerli bir Python paket yapısı olmayan bir dizine karşı çalıştırıldığında gerçekleşir.
Önerilen Eylem: Dizinin bir setup.py veya pyproject.toml içerdiğinden emin olun ve yeniden deneyin veya bir tekerlek olarak paketleyin.
HATA_YİNELEYEN_KURULUM
SQLSTATE: hiçbiri atanmadı
Yinelenen paket yüklemesi algılandı. Paket için yinelenen paket girişini kaldırmayı deneyin ve kümeyi yeniden başlatın.
Açıklama: Aynı paket kümede zaten yüklü olduğunda ve yinelenen bir yükleme denendiğinde gerçekleşir.
Önerilen Eylem: Yinelenen paket girdilerini kaldırın ve kümeyi yeniden başlatın.
ÖZELLİK_DEVRE_DIŞI
SQLSTATE: hiçbiri atanmadı
Unity Kataloğu birimleri çalışma alanında devre dışı bırakılır. Bu özelliği etkinleştirmek için lütfen çalışma alanı yöneticisine başvurun.
Açıklama: Unity Kataloğu birimleri çalışma alanında devre dışı bırakıldığında oluşur ve UC birimlerinden yüklemeyi engeller.
Önerilen Eylem: Unity Kataloğu birimlerini etkinleştirmek veya alternatif depolamayı kullanmak için çalışma alanı yöneticinize başvurun.
HATA_HASH_UYUMSUZLUĞU
SQLSTATE: hiçbiri atanmadı
Paket hash uyuşmazlığı algılandı. İndirilen paketin karması beklenen karmayla eşleşmiyor.
Açıklama: İndirilen paketin karma değeri beklenen karma değeriyle eşleşmediğinde meydana gelir.
Önerilen Eylem: Yüklemeyi yeniden deneyin, kümeyi yeniden başlatın ve/veya büyük paket yüklemelerini Çalışma Alanı Dosyalarına, UC Birimlerine veya özel bir PyPI deposuna taşıyın.
HATA_GEÇERSİZ_DOSYA
SQLSTATE: hiçbiri atanmadı
Belirtilen dosya yanlış dosya türü nedeniyle yüklenemiyor. Lütfen geçerli ve desteklenen dosya türünü kullandığınızı doğrulayın.
Açıklama: Belirtilen kitaplık dosyası yanlış dosya türü veya biçimi nedeniyle yüklenemediğinde oluşur.
Önerilen Eylem: Desteklenen bir kitaplık dosya türü (örneğin, tekerlek, jar) kullanın ve yol geçerliliğini doğrulayın.
ERROR_GEÇERSİZ_GEREKSİNİM
SQLSTATE: hiçbiri atanmadı
Gereksinim dosyası veya paket bağımlılıklarında yanlış söz dizimi veya yanlış biçimlendirilmiş girdiler. Gereksinimler dosyası ve paket bağımlılıkları içeriğini denetleyin ve düzeltin.
Açıklama: Gereksinimler dosyanızda veya paketin bağımlılık belirtimlerinde geçersiz veya yanlış biçimlendirilmiş gereksinim biçimi algılandı.
Önerilen Eylem: Gereksinimler dosyalarında doğru biçimi (örneğin, 'library-name==version') kullanın, paket bağımlılığı biçimlerinin geçerli olduğunu doğrulayın ve yazım hataları veya desteklenmeyen sürüm tanımlayıcılarını denetleyin.
HATA_GEÇERSİZ_BETİK_GİRİŞ_NOKTASI
SQLSTATE: hiçbiri atanmadı
Geçersiz betik giriş noktası. Lütfen paket giriş noktalarını veya setup.py dosyasını denetleyin.
Açıklama: Belirtilen konsol betiği giriş noktası paket meta verilerinde mevcut olmadığında gerçekleşir.
Önerilen Eylem: setup.py veya pyproject.toml dosyasındaki giriş noktası adını doğrulayın veya paket bakımcısına başvurun.
ERROR_INVALID_STORAGE_CONFIGURATION (Geçersiz Depolama Yapılandırması)
SQLSTATE: hiçbiri atanmadı
Bulut depolama hesabı için geçersiz depolama yapılandırma değeri algılandı. Lütfen depolama yapılandırmasını, hesap ayarlarını ve kimlik bilgilerini denetleyin.
Açıklama: Bulut depolama hesabı yapılandırması yanlış biçimlendirilmiş veya yanlış olduğunda oluşur.
Önerilen Eylem: Hesabın depolama yapılandırmasını düzeltin ve yüklemeyi yeniden deneyin.
HATA_GEÇERSİZ_KULLANICI_GİRDİSİ
SQLSTATE: hiçbiri atanmadı
Geçersiz paket söz dizimi veya bağımsız değişkenler sağlandı. Lütfen kitaplık yüklemesi için girişin ve seçeneklerin geçerli olduğunu doğrulayın.
Açıklama: Pip geçersiz seçenekler veya bağımsız değişkenlerle çağrıldığında oluşur.
Önerilen Eylem: Pip seçeneklerini ve komut söz dizimini doğrulayın, girişi düzeltin ve yüklemeyi yeniden deneyin.
HATA_GEÇERSİZ_TEKERLEK
SQLSTATE: hiçbiri atanmadı
Bozuk, hatalı biçimlendirilmiş veya geçersiz tekerlek dosyası algılandı. Lütfen tekerlek dosyasını denetleyin veya yüklemeyi yeniden deneyin.
Açıklama: Yükleme sırasında pip bozuk, eksik veya hatalı biçimlendirilmiş bir tekerlek dosyasıyla karşılaştığında oluşur.
Önerilen Eylem: Yeniden denemeden önce pip önbelleğini temizleyin, tekerleği yeniden indirin veya yeniden derleyin, yeniden yükleyin ve bütünlüğünü doğrulayın.
HATA_JAR_TAHLİYE_EDİLDİ
SQLSTATE: hiçbiri atanmadı
JAR paketi, sürüm çakışmaları nedeniyle çözümleyici tarafından çıkarıldı. Lütfen bağımlılık sürümü çakışmalarını çözün.
Açıklama: Maven bağımlılık çözümlemesi diğer bağımlılıklarla sürüm çakışmaları nedeniyle bir jar dosyasını çıkardığında oluşur.
Önerilen Eylem: Bağımlılık yapılandırmanızdaki çakışmaları çözün veya açık sürüm geçersiz kılmalarını kullanın.
ERROR_MAVEN_LIBRARY_RESOLUTION
SQLSTATE: hiçbiri atanmadı
Maven kitaplığı koordinatları çözümlenemiyor. Kitaplık ayrıntılarını, depo erişimini veya Maven deposu kullanılabilirliğini doğrulayın.
Açıklama: Maven yanlış koordinatlar, ağ sorunları veya depo kapalı kalma süresi nedeniyle belirtilen kitaplığı bulamadığında veya çözemediğinde oluşur.
Önerilen Eylem: groupId:artifactId:version biçimini doğrulayın, depo URL'lerini ve kimlik bilgilerini denetleyin, alternatif depoları deneyin veya depo geçici olarak kullanılamayabilirse daha sonra yeniden deneyin.
HATA_EŞLEŞEN_DAĞITIM_YOK
SQLSTATE: hiçbiri atanmadı
Genellikle yanlış yapılandırmalar, eksik bağımlılıklar veya bağlantı sorunları nedeniyle belirtilen bulut depolama varlıkları indirilemiyor veya bu varlıklara erişilemiyor. Lütfen bulut depolama kurulumunu gözden geçirin.
Açıklama: Küme, genellikle yanlış yapılandırmalar, eksik bağımlılıklar veya ağ sorunları nedeniyle bulut depolamadan kitaplık dosyalarını indiremediğinde veya yükleyemediğinde oluşur.
Önerilen Eylem: Bulut depolama URI'lerinin doğru olduğundan, kimlik bilgilerinin geçerli olduğundan ve gerekli ağ proxy'lerinin veya kitaplıklarının düzgün yapılandırıldığından emin olun ve yüklemeyi yeniden deneyin.
HATA_DOSYA_YA_DİZİN_YOK
SQLSTATE: hiçbiri atanmadı
Kitaplık dosyası yok veya kullanıcının kitaplık dosyasını okuma izni yok. Kitaplık dosyasının var olup olmadığını ve kullanıcının dosyaya erişmek için doğru izinlere sahip olup olmadığını denetleyin.
Açıklama: Kitaplık yüklemesi sırasında belirtilen yolda belirtilen dosya eksik veya erişilemez olduğunda oluşur.
Önerilen Eylem: Dosyanın belirtilen yolda olduğunu doğrulayın, yolu düzeltin veya eksik dosyayı karşıya yükleyin ve uygun izinlerden emin olun.
ERROR_OPERATION_NOT_SUPPORTED (İşlem Desteklenmiyor)
SQLSTATE: hiçbiri atanmadı
İstenen dosya sisteminden bu dosya türü için kitaplık yüklemesi desteklenmiyor. Lütfen kitaplık türünü denetleyin ve geçerli işlemde desteklenen kitaplıkla ilgili kullanıcı kılavuzuna bakın.
Açıklama: Hedef dosya sistemi, dosya türü veya işlem türü yükleme sırasında istenen işlemi desteklemediğinde oluşur.
Önerilen Eylem: Desteklenen bir dosya sistemi, dosya türü veya işlem türü kullanın ya da yükleme hedeflerini desteklenen bir konuma ayarlayın.
HATA_İZİN_REDDEDİLDİ
SQLSTATE: hiçbiri atanmadı
Kullanıcının paketi yüklemek için yeterli izni yok. Lütfen kullanıcının dosya ve dizin erişim haklarını denetleyin.
Açıklama: Yükleme kullanıcısının yükleme sırasında bir dosyayı veya dizini okuma veya yazma izni olmadığında oluşur.
Önerilen Eylem: Hedef dizinde doğru izinleri doğrulayın ve verin veya sistem yöneticinize başvurun.
ERROR_PIP_CONFIG
SQLSTATE: hiçbiri atanmadı
Kullanıcı bir Python kitaplığı yüklemeye çalıştı, ancak kümenin veya çalışma alanı düzeyinde pip yapılandırma dosyasında söz dizimi hataları var veya hatalı biçimlendirilmiş. Lütfen pip yapılandırma dosyasını denetleyin ve düzeltin.
Açıklama: Pip'in yapılandırma dosyasında söz dizimi hataları olduğunda veya hatalı biçimlendirilmişse oluşur.
Önerilen Eylem: Pip yapılandırma dosyasındaki söz dizimi hatalarını düzeltin, varsayılan ayarları kullanmak için yapılandırma dosyasını kaldırın, kümeyi yeniden başlatın ve yüklemeyi yeniden deneyin.
ERROR_PYTHON_REPL_RESTORE_FAILURE
SQLSTATE: hiçbiri atanmadı
Python REPL geri yükleme işlemi paket yüklemesi sonrasında başarısız oldu.
Açıklama: Genellikle çekirdek Python paketleri geri yükleme sırasında çalışma zamanı ortamını bozan bir şekilde güncelleştirildiğinde oluşur.
Önerilen Eylem: Yakın zamanda yüklenen paketleri gözden geçirin ve numpy, pandas, pyspark ve diğer standart kitaplıklar gibi Databricks Ortamı varsayılanlarıyla uyumlu paketleri yükleyin. Sürümlerin Databricks Runtime sürümünüzle uyumlu olduğundan emin olun. Hala başarısız oluyorsa lütfen Databricks Desteği'ne başvurun.
HATA_GEREKSİNİMLER_DOSYASI_KURULUM
SQLSTATE: hiçbiri atanmadı
Unity Kataloğu birimi veya çalışma alanı dosya başvurusu içeren requirements.txt dosyaları UC etkin olmayan kümelerde desteklenmez. UC birimine veya çalışma alanı dosyasına başvuran requirements.txt yüklemek için lütfen UC özellikli bir küme kullanın.
Açıklama: UC desteği olmayan bir kümede requirements.txt dosyası, UC birimleri veya çalışma alanı dosyası başvuruları içerdiğinde oluşur.
Önerilen Eylem: Çalışma alanı veya UC dosyalarına başvuran requirements.txt için UC özellikli bir küme kullanın veya bu başvuruları kaldırın.
ERROR_REQUIRE_HASHES
SQLSTATE: hiçbiri atanmadı
Pip --require-hashes modunda çalıştırıldığında ve bir gereksinim karma olmadığında eksik karmalar. Lütfen karma (hash) gereksinimlerini giderin veya karma denetlemeyi devre dışı bırakın.
Açıklama: pip --require-hashes modunda çalıştırıldığında ve bir gereksinim bir hash'e sahip olmadığında meydana gelir.
Önerilen Eylem: requirements.txt içindeki tüm paketler için karmalar ekleyin veya --require-hashes bayrağını kaldırın.
HATA_YENİDEN_BAŞLAT_PYTHON
SQLSTATE: hiçbiri atanmadı
Python işlemi yeniden başlatılamadı. Bunun nedeni, paketin önceden yüklenmiş çalışma zamanı kitaplıklarıyla çakşan sürümünün güncelleştirilmesi olabilir. Lütfen paket bağımlılıklarını ve sürümlerini denetleyin ve hizalayın.
Açıklama: Genellikle yüklü paketler ve önceden yüklenmiş Databricks Runtime kitaplıkları arasındaki çakışmalar nedeniyle, kitaplık yüklemesinin ardından Python ortamı yeniden başlatılamadığında oluşur.
Önerilen Eylem: Çakışmaları ve Python yeniden başlatma hatalarını önlemek için yüklü paket sürümlerini önceden yüklenmiş Databricks Çalışma Zamanı kitaplıklarıyla hizalayın.
ERROR_RESTART_SCALA
SQLSTATE: hiçbiri atanmadı
Scala işlemi yeniden başlatılamadı. Bunun nedeni scala JAR'lerindeki Scala sürüm uyuşmazlığı olabilir (örneğin, 2.13 çekirdeğinde 2.12 jar çalıştırma). Lütfen Scala sürümlerini denetleyin ve hizalayın.
Açıklama: Scala ortamı yeniden başlatılamadığında, genellikle scala JAR'lerinde Scala sürüm uyuşmazlığı çakışmaları nedeniyle oluşur.
Önerilen Eylem: Çakışmaları ve Scala yeniden başlatma hatalarını önlemek için JAR scala sürümlerini çekirdek scala sürümüyle hizalayın.
ERROR_S3_YASAKLI
SQLSTATE: hiçbiri atanmadı
S3 kaynağına erişim reddedildi. IAM izinlerini ve kova ilkelerini denetleyin.
Açıklama: Kümenin AWS kimlik bilgileri, belirtilen S3 kaynağına erişmek için yeterli izinlere sahip değil.
Önerilen Eylem: Kümeye gerekli okuma erişimini vermek için S3 demet ilkelerini veya IAM rollerini doğrulayın ve güncelleştirin.
ERROR_SCALA_INSTALLATION
SQLSTATE: hiçbiri atanmadı
İzin sorunları veya eksik dosyalar nedeniyle Java bağımlılıkları yüklenemedi.
Açıklama: Java bağımlılıkları yüklenemediğinde, genellikle geçersiz yollar, URL'ler veya yetersiz dosya izinleri nedeniyle oluşur.
Önerilen Eylem: Dosya yollarını ve URL'leri doğrulayın, uygun izinleri sağlayın ve yüklemeyi yeniden deneyin.
ERROR_SETUP_PY_FAILURE (KURULUM_PY_HATASI)
SQLSTATE: hiçbiri atanmadı
Uyumluluk sorunları, eksik bağımlılıklar veya yapılandırma hataları nedeniyle Python paketinin setup.py başarıyla çalışmadı. Lütfen bağımlılıklarınızın kurulum dosyasını denetleyin.
Açıklama: Uyumluluk sorunları, eksik bağımlılıklar veya yapılandırma hataları nedeniyle paketin setup.py betiği başarısız olduğunda oluşur.
Önerilen Eylem: Paket sürümlerini güncelleştirin, eksik bağımlılıkları yükleyin, kullanım dışı paketleri değiştirin ve setup.py betiğini doğrulayın.
SSL_HATASI_KURAL_IHLALI
SQLSTATE: hiçbiri atanmadı
Pip SSL el sıkışması veya sertifika doğrulama sorunlarıyla karşılaştı. İşlem veya çalışma alanınızdaki SSL yapılandırmalarını ve sertifikalarını gözden geçirin.
Açıklama: Pip paket depolarına bağlanırken SSL el sıkışması veya sertifika doğrulama sorunlarıyla karşılaştığında oluşur.
Önerilen Eylem: SSL sertifikalarının geçerli olduğunu doğrulayın, pip içinde güvenilen konakları yapılandırın veya ağ SSL ayarını denetleyin.
ERROR_UC_ASSET_NOT_FOUND (Varlık Bulunamadı)
SQLSTATE: hiçbiri atanmadı
Unity Kataloğu nesnesi bulunamadı. Katalog, şema ve birimin mevcut olduğunu doğrulayın.
Açıklama: Belirtilen Unity Kataloğu birimi, kataloğu veya şeması mevcut olmadığında veya erişilemez olduğunda gerçekleşir
Önerilen Eylem: Unity Kataloğu nesne yolunun doğru olduğunu ve nesnenin hesabınızda mevcut olduğunu doğrulayın.
ERROR_UNSUPPORTED_LIBRARY_TYPE (Desteklenmeyen Kütüphane Türü Hatası)
SQLSTATE: hiçbiri atanmadı
Bu hesaplama ortamında kitaplık türü desteklenmiyor. İşlem türü için desteklenen kitaplıkları denetleyin.
Açıklama: Seçili işlemle uyumlu olmayan bir kitaplık türü yüklenmeye çalışılırken oluşur.
Önerilen Eylem: Bu işlem için desteklenen bir kitaplık türü kullanın veya bu libraryType'ı destekleyen bir hesaplamaya geçin.
ERROR_UNSUPPORTED_PYTHON_VERSION - Desteklenmeyen Python sürümü hatası
SQLSTATE: hiçbiri atanmadı
Python kitaplığı bu bilgisayardaki Python sürümüyle uyumlu değil. Lütfen uyumlu bir Python sürümüne sahip bir bilgisayar kullanın.
Açıklama: Paketin python_requires kısıtlaması işlemde çalışan Python sürümüyle eşleşmediğinde gerçekleşir.
Önerilen Eylem: Geçerli Python sürümünü destekleyen bir paket sürümü yükleyin veya işlem sürümünü değiştirin.
ERROR_UNSUPPORTED_SSL_ENABLED
SQLSTATE: hiçbiri atanmadı
Spark.ssl.enabled yapılandırması etkin olduğunda, kitaplık yüklemesi desteklenmediği için kurulum başarısız olur. SSL yapılandırmasını devre dışı bırakın ve kümeyi yeniden başlatın.
Açıklama: spark.ssl.enabled yapılandırması açık olduğunda meydana gelir ve kitaplık yüklemesi için desteklenmez.
Önerilen Eylem: SSL yapılandırmasını devre dışı bırakın (örneğin, spark.ssl.enabled=false değerini ayarlayın veya spark.databricks.libraries.ignoreSSL=true değerini ayarlayın) ve kümeyi yeniden başlatın.
Kullanıcı çalışma alanında bulunamadı hatası
SQLSTATE: hiçbiri atanmadı
Kullanıcı çalışma alanında bulunamadığından kitaplık yüklemesi başarısız oldu. Bu durum genellikle bir kullanıcı çalışma alanından kaldırıldığında ancak belirteci hala kullanılıyorsa gerçekleşir.
Açıklama: Kullanıcının erişim belirteci kullanımda olduğunda ancak kullanıcı belirtilen çalışma alanında artık mevcut olmadığında gerçekleşir.
Önerilen Eylem: Kullanıcının çalışma alanına erişimi olduğundan emin olun veya geçerli bir kullanıcının kimlik bilgilerini kullanmak için küme yapılandırmasını güncelleştirin.
HATA_HACİM_İZNİ_REDDEDİLDİ
SQLSTATE: hiçbiri atanmadı
Unity Kataloğu biriminde yetersiz izinler. Lütfen UC birim erişim haklarını denetleyin veya UC Birimi sahibine erişim isteyin.
Açıklama: Kullanıcı belirtilen UC biriminde izinlere sahip olmadığında gerçekleşir.
Önerilen Eylem: Birim sahibinden veya yöneticisinden Unity Kataloğu biriminde OKUMA izinleri isteyin.
ERROR_WHEEL_BUILD
SQLSTATE: hiçbiri atanmadı
Pip eksik derleme bağımlılıkları veya hataları nedeniyle tekerleği başarıyla oluşturamadı. Lütfen tekerlek paketi içeriğini ve bağımlılıklarını denetleyin.
Açıklama: Eksik derleme bağımlılıkları veya hataları nedeniyle pip'in paket için tekerlek oluşturamaması durumunda oluşur.
Önerilen Eylem: Derleme araçlarının ve başlık dosyalarının yüklü olduğundan emin olun veya --no-binary seçeneğiyle önceden oluşturulmuş bir wheel yükleyin.
TEKERLEK KURULUM HATASI
SQLSTATE: hiçbiri atanmadı
Platform etiketi uyuşmazlığı veya geçersiz bir wheel dosyası nedeniyle wheel mevcut işlem platformuyla uyumsuz. Lütfen tekerlek paketi içeriğini, bağımlılıklarını ve işlemle uyumluluğunu denetleyin.
Açıklama: Tekerlek dosyası geçersiz olduğunda veya platform etiketleri eşleşmediğinde gerçekleşir.
Önerilen Eylem: Geçerli platform için oluşturulmuş bir tekerlek kullanın veya tekerleği uygun etiketlerle yeniden oluşturun.
HATA_BULUT_DEPOLAMA_KURULUMU
SQLSTATE: hiçbiri atanmadı
Genellikle yanlış yapılandırmalar veya bağlantı sorunları nedeniyle belirtilen bulut depolama varlıkları indirilemiyor veya bu varlıklara erişilemiyor. Lütfen bulut depolama kurulumunu gözden geçirin.
Açıklama: genellikle yanlış yapılandırmalar veya ağ sorunları nedeniyle işlem bulut depolamadan kitaplık dosyalarını indiremediğinde veya yükleyemediğinde oluşur.
Önerilen Eylem: Bulut depolama URI'lerinin doğru olduğundan, kimlik bilgilerinin geçerli olduğundan ve gerekli ağ proxy'lerinin veya kitaplıklarının düzgün yapılandırıldığından emin olun ve yüklemeyi yeniden deneyin.
FAULT_DBR_VERSION_EOS
SQLSTATE: hiçbiri atanmadı
İşlemdeki Databricks Runtime sürümü destek sonuna ulaştı ve artık desteklenmiyor. Lütfen desteklenen bir Databricks çalışma zamanı sürümü kullanın.
Açıklama: Kitaplık artık güncelleştirme veya destek almayan bir Databricks Runtime sürümüne yüklendiğinde gerçekleşir.
Önerilen Eylem: Kümeyi desteklenen bir Databricks Runtime sürümüne yükseltin ve yüklemeyi yeniden deneyin.
FAULT_POLLER_ALLOWLIST_VALIDATION
SQLSTATE: hiçbiri atanmadı
İzin verilenler listesinde eksik olduğundan kitaplık yüklemesi engellendi. Bir kitaplık bir kümeye eklendikten sonra izin verilenler listesinden kaldırılırsa bu durum oluşabilir. Kitaplık izin verilenler listesini denetleyin, yöneticiden izin verilenler listesine kitaplık eklemesini veya kümeden yetkisiz paketleri kaldırmasını isteyin.
Açıklama: Meta veri deposu izin listesinde bir veya daha fazla istenen kitaplık onaylanmadığında ve yüklenmesi engellendiğinde gerçekleşir. Bu durum, daha önce bir kitaplığa izin verildiyse ancak daha sonra izin verilenler listesinden kaldırıldıysa da oluşabilir.
Önerilen Eylem: Meta veri deposu izin verilenler listesini denetleyin, yöneticinizden eksik kitaplıkları izin verilenler listesine eklemesini isteyin veya yetkisiz kitaplıkları kümeden kaldırın.
FAULT_POLLER_DBR_UNSUPPORTED
SQLSTATE: hiçbiri atanmadı
Kümedeki Databricks Runtime sürümü destek sonuna ulaştı ve artık desteklenmiyor. Lütfen desteklenen bir Databricks çalışma zamanı sürümü kullanın.
Açıklama: Kitaplık artık güncelleştirme veya destek almayan bir Databricks Runtime sürümüne yüklendiğinde gerçekleşir.
Önerilen Eylem: Kümeyi desteklenen bir Databricks Runtime sürümünü kullanacak şekilde değiştirin ve yüklemeyi yeniden deneyin.
HATA_POLLER_KÜTÜPHANE_DEPOLAMA_BİÇİM_DESTEKLENMİYOR
SQLSTATE: hiçbiri atanmadı
Seçilen Databricks Runtime sürümü, gs:// veya abfss:// yolları gibi belirli kitaplık depolama biçimlerini desteklemeyebilir. Lütfen Databricks Runtime'ı yükseltin veya farklı Databricks Runtime sürümünün özellikleriyle ilgili kullanıcı kılavuzuna bakın.
Açıklama: Databricks Runtime sürümü belirtilen kitaplık depolama biçimini veya protokollerini desteklemediğinde oluşur.
Önerilen Eylem: Desteklenen bir depolama düzeni kullanın veya istenen depolama biçimini destekleyen bir Databricks Runtime sürümüne yükseltin.
FAULT_POLLER_UNITY_CATALOG_NOT_AVAILABLE_ERROR
SQLSTATE: hiçbiri atanmadı
Kitaplık yüklemesi için Unity Kataloğu gerekir, ancak Unity Kataloğu kümede veya çalışma alanında kullanılamaz. Bu özelliği etkinleştirmek için lütfen çalışma alanı yöneticisine başvurun.
Açıklama: Kitaplık yüklemesi Unity Kataloğu gerektirdiğinde ancak Unity Kataloğu çalışma alanında kullanılamadığında gerçekleşir.
Önerilen Eylem: Çalışma alanınızda Unity Kataloğu'nu etkinleştirmek veya Unity Kataloğu'nu destekleyen bir küme kullanmak için yönetim isteğinde bulunun.
DEPOLAMA_ERİŞİM_HATASI
SQLSTATE: hiçbiri atanmadı
Kimlik bilgileri, ağ veya izin sorunları nedeniyle bulut depolama kaynaklarına erişilemiyor. Lütfen bulut depolama erişim yapılandırmasını denetleyin.
Açıklama: kimlik bilgileri, ağ veya izin sorunları nedeniyle işlem bulut depolama kaynaklarına erişemediğinde gerçekleşir.
Önerilen Eylem: Depolama kimlik bilgilerini, ağ bağlantısını ve erişim izinlerini doğrulayın ve yüklemeyi yeniden deneyin.
Miscellaneous
ABAC_POLICIES_NOT_SUPPORTED_FOR_RUNTIME_VERSION
SQLSTATE: hiçbiri atanmadı
DBR sürümü <abacDBRMajorVersion>.ABAC ilkesi tarafından korunduğundan, <abacDBRMinorVersion> tablosunu sorgulamak için <tableFullName> veya üzeri gereklidir.
AZURE_ENTRA_CREDENTIALS_MISSING
SQLSTATE: hiçbiri atanmadı
Azure Entra (diğer adıyla Azure Active Directory) kimlik bilgileri eksik.
Entra hesabınızla oturum açtığınızdan emin olun
veya Git Tümleştirmesi > Kullanıcı Ayarları'nda bir Azure DevOps kişisel erişim belirteci (PAT) ayarlayın.
PAT kullanmıyorsanız ve Repos API'siyle Azure DevOps kullanıyorsanız,
Azure Entra erişim belirteci kullanmak zorundasınız.
Azure Entra erişim belirtecini alma adımları için bkz https://docs.microsoft.com/azure/databricks/dev-tools/api/latest/aad/app-aad-token .
<pickOrCreateNewCredential>
AZURE_ENTRA_CREDENTIALS_PARSE_FAILURE
SQLSTATE: hiçbiri atanmadı
Azure Entra (Azure Active Directory) kimlik bilgilerinizle ilgili bir hatayla karşılaşıldı. Lütfen oturumdan çıkmayı deneyin
Entra (https://portal.azure.com) ve tekrar oturum açma.
Alternatif olarak, ayarlamak için Kullanıcı Ayarları > Git Tümleştirmesi'ne de gidebilirsiniz
Azure DevOps kişisel erişim belirteci oluşturma.
<pickOrCreateNewCredential>
AZURE_ENTRA_LOGIN_ERROR
SQLSTATE: hiçbiri atanmadı
Azure Active Directory kimlik bilgilerinizle ilgili bir hatayla karşılaşıldı. Lütfen oturumdan çıkmayı deneyin
Azure Active Directory (https://portal.azure.com) ve yeniden oturum açma.
<pickOrCreateNewCredential>
AZURE_ENTRA_WORKLOAD_IDENTITY_ERROR
SQLSTATE: hiçbiri atanmadı
Azure İstisnası: Azure İş Yükü Kimliğiyle ilgili bir hatayla karşılaşıldı: <azureWorkloadIdentityExceptionMessage>
CLEAN_ROOM_DELTA_SHARING_ENTITY_NOT_AUTHORIZED
SQLSTATE: hiçbiri atanmadı
Güvenli oda delta paylaşımı için kimlik bilgisi oluşturulması talep edilemez.
CLEAN_ROOM_HIDDEN_SECURABLE_PERMISSION_DENIED
SQLSTATE: hiçbiri atanmadı
Türe göre <securableName> ve çeşide göre <securableType> güvenli hale getirilebilir, temiz oda sistemi tarafından yönetilen <securableKind> ile kullanıcının erişimi yoktur.
CONSTRAINT_ALREADY_EXISTS
SQLSTATE: hiçbiri atanmadı
Ad <constraintName> kısıtlaması zaten var, farklı bir ad seçin.
CONSTRAINT_DOES_NOT_EXIST
SQLSTATE: hiçbiri atanmadı
Kısıtlama <constraintName> yok.
COULD_NOT_READ_REMOTE_REPOSITORY
SQLSTATE: hiçbiri atanmadı
Uzak depo okunamadı (<repoUrl>).
Kimlik bilgisi <credentialName> (<credentialId>) kullanıldı<because>.
Bu Git kimlik bilgilerinin sağlayıcısı, <gitCredentialProvider> e-posta /kullanıcı adı ise şeklindedir <gitCredentialUsername>.
Şunları yapmak için lütfen uzak Git sağlayıcınıza gidin:
Uzak Git deposu URL'niz geçerli.
Kişisel erişim belirteciniz veya uygulama parolanız doğru depo erişimine sahip.
<pickOrCreateNewCredential>
COULD_NOT_RESOLVE_REPOSITORY_HOST
SQLSTATE: hiçbiri atanmadı
<repoUrl> için ana bilgisayar adı çözümlenemedi.
Kimlik bilgisi <credentialName> (<credentialId>) kullanıldı<because>.
Bu Git kimlik bilgilerinin sağlayıcısı, <gitCredentialProvider> e-posta /kullanıcı adı ise şeklindedir <gitCredentialUsername>.
CSMS_BEGINNING_OF_TIME_NOT_SUPPORTED
SQLSTATE: hiçbiri atanmadı
Parametre beginning_of_time true olamaz.
CSMS_CONTINUATION_TOKEN_EXPIRED
SQLSTATE: hiçbiri atanmadı
Devamlılık belirtecinin süresi doldu. Neden: <msg>
CSMS_CREDENTIAL_NAME_MISSING
SQLSTATE: hiçbiri atanmadı
İstekte kimlik bilgisi adı eksik
CSMS_FILE_EVENTS_VALIDATION_USER_ERROR
SQLSTATE: hiçbiri atanmadı
Dosya olayları doğrulaması işlemi <operation>için başarısız oldu: <message>
CSMS_INVALID_CONTINUATION_TOKEN
SQLSTATE: hiçbiri atanmadı
Devamlılık belirteci geçersiz. Neden: <msg>
CSMS_INVALID_FILE_EVENTS_QUEUE
SQLSTATE: hiçbiri atanmadı
<missingField>istekte eksik <queueType>
CSMS_INVALID_MAX_OBJECTS
SQLSTATE: hiçbiri atanmadı
Parametre max_objects için geçersiz değer <value> , [<minValue>, <maxValue>] içinde beklenen değer
CSMS_INVALID_SUBSCRIPTION_ID
SQLSTATE: hiçbiri atanmadı
Abonelik kimliği geçersiz. Neden: <msg>
CSMS_INVALID_URI_FORMAT
SQLSTATE: hiçbiri atanmadı
Geçersiz URI biçimi. Bir birim (örneğin, "/Volumes/catalog/schema/volume") veya bulut depolama yolu (örneğin, "s3://some-uri") bekleniyordu.
CSMS_KAFKA_TOPIC_MISSING
SQLSTATE: hiçbiri atanmadı
Bir Kafka konusu sağlanmalıdır.
CSMS_LOCATION_ERROR
SQLSTATE: hiçbiri atanmadı
Nesneler listelenemedi. Konumda çözülmesi gereken sorunlar var. Ayrıntılar: <msg>
CSMS_LOCATION_NOT_KNOWN
SQLSTATE: hiçbiri atanmadı
URI <path> için konum bulunamadı
CSMS_METASTORE_ID_MISSING
SQLSTATE: hiçbiri atanmadı
Meta veri deposu UUID'si sağlanmalıdır
CSMS_METASTORE_RESOLUTION_FAILED
SQLSTATE: hiçbiri atanmadı
İstek için meta veri deposu belirlenemedi.
CSMS_RESOLVE_CREDENTIAL_ID_FAILED
SQLSTATE: hiçbiri atanmadı
Kimlik bilgisi kimliği çözümlenemedi: <credentialName>
CSMS_RESOLVE_LOCAL_SHARD_NAME_FAILED
SQLSTATE: hiçbiri atanmadı
CSMS yerel parça adını çözümleyemedi
CSMS_SERVICE_DISABLED
SQLSTATE: hiçbiri atanmadı
Hizmet devre dışı bırakıldı
CSMS_SHARD_NAME_MISSING_IN_REQUEST
SQLSTATE: hiçbiri atanmadı
CSMS'ye yapılan rpc isteğinde parça adı eksik
CSMS_STORAGE_CREDENTIAL_DOES_NOT_EXIST
SQLSTATE: hiçbiri atanmadı
Depolama kimlik bilgileri yok.
CSMS_SUBSCRIPTION_ID_MISSING_IN_REQUEST - Abonelik kimliği talepte eksik
SQLSTATE: hiçbiri atanmadı
İstekte abonelik kimliği eksik.
CSMS_SUBSCRIPTION_NOT_FOUND
SQLSTATE: hiçbiri atanmadı
Kimliği <id> olan abonelik bulunamadı.
CSMS_UNITY_CATALOG_DISABLED
SQLSTATE: hiçbiri atanmadı
Unity kataloğu bu çalışma alanı için devre dışı bırakıldı
CSMS_UNITY_CATALOG_ENTITY_NOT_FOUND
SQLSTATE: hiçbiri atanmadı
Unity Kataloğu varlığı bulunamadı. Katalog, şema, birim ve/veya dış konumun mevcut olduğundan emin olun.
CSMS_UNITY_CATALOG_EXTERNAL_LOCATION_DOES_NOT_EXIST
SQLSTATE: hiçbiri atanmadı
Unity Catalog dış konumu mevcut değil.
CSMS_UNITY_CATALOG_EXTERNAL_STORAGE_OVERLAP
SQLSTATE: hiçbiri atanmadı
URI diğer birimlerle çakışma yapıyor
CSMS_UNITY_CATALOG_METASTORE_DOES_NOT_EXIST
SQLSTATE: hiçbiri atanmadı
İstek için meta veri deposu belirlenemedi. Meta veri deposu yok
CSMS_UNITY_CATALOG_TABLOYA_FILTREYLE_YOL_TABANLI_ERIŞİM_İZİN_VERİLMEZ
SQLSTATE: hiçbiri atanmadı
URI, satır düzeyi filtre veya sütun maskesi ile tabloyu işaret eder. Bu tabloya yol tabanlı erişime izin verilmiyor.
CSMS_UNITY_CATALOG_PERMISSION_DENIED
SQLSTATE: hiçbiri atanmadı
İzin reddedildi
CSMS_UNITY_CATALOG_RATE_LIMITED
SQLSTATE: hiçbiri atanmadı
İstek hızı sınırı aşıldı. Lütfen bir süre sonra yeniden deneyin.
CSMS_UNITY_CATALOG_TABLE_DOES_NOT_EXIST
SQLSTATE: hiçbiri atanmadı
Unity Kataloğu tablosu yok.
CSMS_UNITY_CATALOG_VOLUME_DOES_NOT_EXIST
SQLSTATE: hiçbiri atanmadı
Unity Kataloğu veritabanı bölümü mevcut değil.
CSMS_UNSUPPORTED_FILE_EVENTS_QUEUE
SQLSTATE: hiçbiri atanmadı
İstekte bilinmeyen dosya olay kuyruğu
CSMS_UNSUPPORTED_MANAGED_RESOURCE_TYPE
SQLSTATE: hiçbiri atanmadı
Yönetilen kaynak türü <resourceType> desteklenmiyor
CSMS_UNSUPPORTED_SECURABLE
SQLSTATE: hiçbiri atanmadı
Desteklenmeyen güvenli hale getirilebilir
CSMS_URI_MISSING
SQLSTATE: hiçbiri atanmadı
URI sağlamak zorundadır
CSMS_URI_TOO_LONG
SQLSTATE: hiçbiri atanmadı
Sağlanan URI çok uzun. İzin verilen maksimum uzunluk <maxLength>.
CSMS_USER_CONTEXT_MISSING_IN_REQUEST
SQLSTATE: hiçbiri atanmadı
CSMS'ye yapılan rpc isteğinde kullanıcı bağlamı eksik
DMK_CATALOGS_DISALLOWED_ON_CLASSIC_COMPUTE
SQLSTATE: hiçbiri atanmadı
Databricks Varsayılan Depolamaya Klasik İşlem kullanılarak erişilemez. Varsayılan Depolama'daki verilere erişmek için sunucusuz işlem kullanın
GITHUB_APP_COULD_NOT_REFRESH_CREDENTIALS
SQLSTATE: hiçbiri atanmadı
Bağlı GitHub uygulaması kimlik bilgileri yenilenemediği için işlem başarısız oldu.
Lütfen yeniden deneyin veya Git Tümleştirmesi > Kullanıcı Ayarları'na gidin ve Git sağlayıcı hesabınızı yeniden bağlamayı deneyin.
Sorun devam ederse lütfen bir destek bileti oluşturun.
<pickOrCreateNewCredential>
GITHUB_APP_CREDENTIALS_NO_ACCESS
SQLSTATE: hiçbiri atanmadı
GitHub hesabınıza giden bağlantının erişim izni yok. Bu hatayı düzeltmek için:
- Deponun yöneticisinin deposuna https://github.com/apps/databricks/installations/new gidip Databricks GitHub uygulamasını depoya yüklemesi gerekir.
Alternatif olarak, GitHub hesabı sahibi hesabın depolarına erişim vermek için uygulamayı hesaba yükleyebilir.
- Uygulama zaten yüklüyse, bir yöneticinin 'Yalnızca depoları seç' seçeneğiyle kapsamlı erişim kullanıyorsa, bunu seçerek bu depoya erişim eklediğinden emin olun.
Daha fazla bilgi için adresine https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app bakın.
<pickOrCreateNewCredential>
GITHUB_APP_EXPIRED_CREDENTIALS
SQLSTATE: hiçbiri atanmadı
Bağlı GitHub uygulaması kimlik bilgilerinin süresi 6 ay etkinlik dışı bırakıldıktan sonra doldu.
Git Tümleştirmesi > Kullanıcı Ayarları'na gidin ve kimlik bilgilerinizi yeniden bağlamayı deneyin.
Sorun devam ederse lütfen bir destek bileti oluşturun.
<pickOrCreateNewCredential>
GITHUB_APP_INSTALL_ON_DIFFERENT_USER_ACCOUNT
SQLSTATE: hiçbiri atanmadı
GitHub hesabınıza giden bağlantının erişim izni yok. Bu hatayı düzeltmek için:
GitHub kullanıcısının
<gitCredentialUsername>erişime izin vermek için https://github.com/apps/databricks/installations/new hesaba<gitCredentialUsername>gidip uygulamayı yüklemesi gerekir.Kullanıcı
<gitCredentialUsername>uygulamayı zaten yüklemişse ve 'Yalnızca depoları seç' seçeneğiyle kapsamlı erişim kullanıyorsa, bu depoyu seçerek bu depoya erişim eklediğinden emin olmalıdır.
Daha fazla bilgi için adresine https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app bakın.
<pickOrCreateNewCredential>
GITHUB_APP_INSTALL_ON_ORGANIZATION
SQLSTATE: hiçbiri atanmadı
GitHub hesabınıza giden bağlantının erişim izni yok. Bu hatayı düzeltmek için:
GitHub kuruluşunun
<organizationName>sahibi erişime izin vermek için uygulamasına https://github.com/apps/databricks/installations/new gitmeli ve uygulamayı kuruluşa<organizationName>yüklemelidir.Uygulama GitHub organizasyonunda
<organizationName>zaten yüklüyse, bu organizasyonun sahibi, 'Yalnızca belirli depoları seç' seçeneğiyle kapsamlı erişim kullanırken bu depoya erişim sağladığından emin olmalıdır.
Daha fazla bilgi için adresine https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app bakın.
<pickOrCreateNewCredential>
GITHUB_APP_INSTALL_ON_YOUR_ACCOUNT
SQLSTATE: hiçbiri atanmadı
GitHub hesabınıza giden bağlantının erişim izni yok. Bu hatayı düzeltmek için:
Erişime izin vermek için https://github.com/apps/databricks/installations/new adresine gidin ve uygulamayı hesabınıza
<gitCredentialUsername>yükleyin.Uygulama zaten yüklüyse ve 'Yalnızca depoları seç' seçeneğiyle kapsamlı erişim kullanıyorsanız, bu depoyu seçerek bu depoya erişim eklediğinizden emin olun.
Daha fazla bilgi için adresine https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app bakın.
<pickOrCreateNewCredential>
GIT_CLUSTER_NOT_READY
SQLSTATE: hiçbiri atanmadı
Git kümesi hazır değil.
GIT_CREDENTIAL_GENERIC_INVALID
SQLSTATE: hiçbiri atanmadı
<repoUrl>depo URL'si için geçersiz Git sağlayıcısı kimlik bilgileri.
Kimlik bilgisi <credentialName> (<credentialId>) kullanıldı<because>.
Bu Git kimlik bilgilerinin sağlayıcısı, <gitCredentialProvider> e-posta /kullanıcı adı ise şeklindedir <gitCredentialUsername>.
Şunları yapmak için lütfen uzak Git sağlayıcınıza gidin:
Git sağlayıcı kimlik bilgilerinizle doğru Git kullanıcı e-postasını veya kullanıcı adını girdiniz.
Belirtecinizin doğru depo erişimi var.
Jetonunuzun süresi dolmadı.
Git sağlayıcınızda SSO etkinleştirildiyse belirtecinizi yetkilendirmeyi unutmayın.
<pickOrCreateNewCredential>
GIT_CREDENTIAL_INVALID_PAT
SQLSTATE: hiçbiri atanmadı
Depo URL'si <repoUrl> için geçersiz Git sağlayıcısı Kişisel Erişim Belirteci kimlik bilgileri.
Kimlik bilgisi <credentialName> (<credentialId>) kullanıldı<because>.
Bu Git kimlik bilgilerinin sağlayıcısı, <gitCredentialProvider> e-posta /kullanıcı adı ise şeklindedir <gitCredentialUsername>.
Şunları yapmak için lütfen uzak Git sağlayıcınıza gidin:
Git sağlayıcı kimlik bilgilerinizle doğru Git kullanıcı e-postasını veya kullanıcı adını girdiniz.
Belirtecinizin doğru depo erişimi var.
Jetonunuzun süresi dolmadı.
Git sağlayıcınızda SSO etkinleştirildiyse belirtecinizi yetkilendirmeyi unutmayın.
<pickOrCreateNewCredential>
.
GIT_CREDENTIAL_MISSING
SQLSTATE: hiçbiri atanmadı
Hiçbir Git kimlik bilgisi yapılandırılmadı, ancak bu depo için kimlik bilgisi gerekli (<repoUrl>).
Git kimlik bilgilerinizi ayarlamak için Git Tümleştirmesi > Kullanıcı Ayarları'na gidin.
GIT_CREDENTIAL_NO_WRITE_PERMISSION
SQLSTATE: hiçbiri atanmadı
<gitCredentialProvider> depoya (<repoUrl>) yazma erişimi verilmedi.
Kimlik bilgisi <credentialName> (<credentialId>) kullanıldı<because>.
Bu Git kimlik bilgilerinin sağlayıcısı, <gitCredentialProvider> e-posta /kullanıcı adı ise şeklindedir <gitCredentialUsername>.
(<gitCredentialUsername>) bu uzak depoya yazma erişimine sahip olduğunuzdan emin olun.
GIT_CREDENTIAL_PROVIDER_MISMATCHED
SQLSTATE: hiçbiri atanmadı
Depo için Git kimlik bilgisi sağlayıcısı yanlış.
Git sağlayıcısıyla (<repositoryGitProvider>) deponun Git sağlayıcısıyla eşleşen bir Git <repoUrl>kimlik bilgileriniz yok.
Git sağlayıcısı >için yeni bir kimlik bilgisi oluşturmak için Kullanıcı Ayarları <repositoryGitProvider> Git Tümleştirmesi'ne gidin.
Hata: Git dosya adı çok uzun
SQLSTATE: hiçbiri atanmadı
Yoldaki <path> dosya veya klasör adları, bileşen başına <maxComponentBytes> bayt olan üst sınırı aşıyor.
Unix tabanlı sistemler, her dosya veya klasör adı için en fazla <maxComponentBytes> baytı destekler.
Ihlal: <violations>
Devam etmek için lütfen sorunlu bileşenleri kısaltın.
GIT_PROVIDER_INFO_MISSING
SQLSTATE: hiçbiri atanmadı
Git sağlayıcı bilgileri eksik veya boş.
Lütfen git kimlik bilgileri bilgilerini ekleyin ve yeniden deneyin.
Sorun devam ederse lütfen bir destek bileti oluşturun.
GIT_PROXY_CLUSTER_NOT_READY
SQLSTATE: hiçbiri atanmadı
Git proxy kümesi hazır değil.
GIT_PROXY_CONNECTION_FAILED
SQLSTATE: hiçbiri atanmadı
Git Proxy'sine bağlanılamadı, lütfen Git Proxy'nin çalışır durumda olup olmadığını denetleyin.
Hata: <error>
GIT_SECRET_IN_CODE
SQLSTATE: hiçbiri atanmadı
Commit'te bulunan gizli bilgiler. Ayrıntı: <secretDetail>. Bu hatayı düzeltmek için:
Gizli öğeyi kaldır ve yükleme işlemini yeniden dene.
Sorun devam ederse lütfen bir destek bileti oluşturun.
GIT_STALE_REMOTE_REFS
SQLSTATE: hiçbiri atanmadı
Git getirme işlemi tamamlandı ancak dosya sistemi yol çakışmaları nedeniyle eski uzak başvuruları güncelleştiremedi (örneğin, silinen dallar veya 'özellik' ile 'özellik/alt' karşılaştırması).
Git hatası: <gitErrorMessage>
HIERARCHICAL_NAMESPACE_NOT_ENABLED
SQLSTATE: hiçbiri atanmadı
Azure depolama hesabında hiyerarşik ad alanı etkinleştirilmemiş.
INVALID_FIELD_LENGTH
<rpcName> <fieldName> çok uzun. Uzunluk üst sınırı <maxLength> karakterdir.
INVALID_PARAMETER_VALUE
<msg>
Daha fazla ayrıntı için bkz. INVALID_PARAMETER_VALUE
JOBS_TASK_FRAMEWORK_TASK_RUN_OUTPUT_NOT_FOUND
SQLSTATE: hiçbiri atanmadı
Görev Çerçevesi: RunId <runId> ve orgId <orgId> olan Görev için Görev Çalıştırma Çıktısı bulunamadı.
JOBS_TASK_FRAMEWORK_TASK_RUN_STATE_NOT_FOUND
SQLSTATE: hiçbiri atanmadı
Görev Çerçevesi: RunId <runId> ve orgId <orgId> olan Görev için Görev Çalıştırma Durumu bulunamadı.
JOBS_TASK_REGISTRY_TASK_CLIENT_CONFIG_DOES_NOT_EXIST
SQLSTATE: hiçbiri atanmadı
Kimlik <taskId> olan görev için RPC ClientConfig bulunmamaktadır.
JOBS_TASK_REGISTRY_TASK_DOES_NOT_EXIST
SQLSTATE: hiçbiri atanmadı
Görev kimliği <taskId> mevcut değil.
JOBS_TASK_REGISTRY_UNSUPPORTED_JOB_TASK
SQLSTATE: hiçbiri atanmadı
Görev Kayıt Defteri: <taskClassName>sınıfıyla desteklenmeyen veya bilinmeyen Görev.
PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_EXTERNAL_SHALLOW_CLONE
SQLSTATE: hiçbiri atanmadı
Dış sığ kopya tablosu <tableFullName>'a yol tabanlı erişim desteklenmemektedir. Bunun yerine sığ kopyaya erişmek için lütfen tablo adlarını kullanın.
PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_FABRIC
SQLSTATE: hiçbiri atanmadı
'<url>' url'sinde bulunan doku tablosu bulunamadı. Lütfen Fabric tablolarını doldurmak için REFRESH FOREIGN CATALOG komutunu kullanın.
PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_TABLES_WITH_ROW_COLUMN_ACCESS_POLICIES
SQLSTATE: hiçbiri atanmadı
Tablo <tableFullName>'da satır filtresi veya sütun maskesi ile yol tabanlı erişim desteklenmemektedir.
PERMISSION_DENIED
SQLSTATE: hiçbiri atanmadı
<principalName>'<msg>' üzerinde <resourceType> yok<resourceName>.
REDASH_DELETE_ASSET_HANDLER_INVALID_INPUT
SQLSTATE: hiçbiri atanmadı
Silme nesnesi isteği çözümlenemiyor: <invalidInputMsg>
REDASH_DELETE_OBJECT_NOT_IN_TRASH
SQLSTATE: hiçbiri atanmadı
Çöp kutusunda olmayan nesne <resourceName> silinemiyor
REDASH_PERMISSION_DENIED
SQLSTATE: hiçbiri atanmadı
Kaynak <resourceId> bulunamadı veya erişim izni yok
REDASH_QUERY_NOT_FOUND
SQLSTATE: hiçbiri atanmadı
Sorgu kimliği <queryId> ile kaynak bulunamıyor.
REDASH_QUERY_SNIPPET_CREATION_FAILED
SQLSTATE: hiçbiri atanmadı
Yeni sorgu parçacığı oluşturulamıyor
REDASH_QUERY_SNIPPET_QUOTA_EXCEEDED
SQLSTATE: hiçbiri atanmadı
Sorgu kod parçacıklarının sayısı için kotaya ulaşıldı. Geçerli kota <quota>.
REDASH_QUERY_SNIPPET_TRIGGER_ALREADY_IN_USE
SQLSTATE: hiçbiri atanmadı
Belirtilen tetikleyici <trigger> bu çalışma alanındaki başka bir sorgu parçacığı tarafından zaten kullanılıyor.
REDASH_RESOURCE_NOT_FOUND
SQLSTATE: hiçbiri atanmadı
İstenen kaynak <resourceName> yok
REDASH_RESTORE_ASSET_HANDLER_INVALID_INPUT
SQLSTATE: hiçbiri atanmadı
Silme nesnesi isteği çözümlenemiyor: <invalidInputMsg>
REDASH_RESTORE_OBJECT_NOT_IN_TRASH
SQLSTATE: hiçbiri atanmadı
Çöp kutusunda olmayan nesne <resourceName> geri yüklenemiyor
REDASH_TRASH_OBJECT_ALREADY_IN_TRASH
SQLSTATE: hiçbiri atanmadı
Zaten çöpe atılmış nesne <resourceName> tekrar çöpe atılamaz.
REDASH_UNABLE_TO_GENERATE_RESOURCE_NAME
SQLSTATE: hiçbiri atanmadı
Kimlikten <id> kaynak ismi oluşturulamadı.
REDASH_VISUALIZATION_CREATION_FAILED
SQLSTATE: hiçbiri atanmadı
Yeni görselleştirme oluşturulamıyor
REDASH_VISUALIZATION_NOT_FOUND
SQLSTATE: hiçbiri atanmadı
Görselleştirme <visualizationId> bulunamadı.
REDASH_VISUALIZATION_QUOTA_EXCEEDED
SQLSTATE: hiçbiri atanmadı
Sorgudaki <query_id> görselleştirme sayısına ilişkin kotaya ulaşıldı. Geçerli kota <quota>.
REPOSITORY_URL_NOT_FOUND
SQLSTATE: hiçbiri atanmadı
Uzak depo (<repoUrl>) bulunamadı.
Kimlik bilgisi <credentialName> (<credentialId>) kullanıldı<because>.
Bu Git kimlik bilgilerinin sağlayıcısı, <gitCredentialProvider> e-posta /kullanıcı adı ise şeklindedir <gitCredentialUsername>.
Şunları yapmak için lütfen uzak Git sağlayıcınıza gidin:
Uzak Git deposu URL'niz geçerli.
Kişisel erişim belirteciniz veya uygulama parolanız doğru depo erişimine sahip.
<pickOrCreateNewCredential>
RESOURCE_ALREADY_EXISTS
<resourceType> '<resourceIdentifier>' zaten var
RESOURCE_DOES_NOT_EXIST
<resourceType> '<resourceIdentifier>' yok.
ROW_COLUMN_ACCESS_POLICIES_NOT_SUPPORTED_ON_ASSIGNED_CLUSTERS
SQLSTATE: hiçbiri atanmadı
Atanan kümelerde satır filtresi veya sütun maskesi kullanılan tablo <tableFullName> üzerindeki sorgu desteklenmemektedir.
ROW_COLUMN_SECURITY_NOT_SUPPORTED_WITH_TABLE_IN_DELTA_SHARING
SQLSTATE: hiçbiri atanmadı
Tablo <tableFullName> Delta Sharing ile paylaşılıyor ve satır/sütun güvenliği kullanılamıyor.
SERVICE_TEMPORARILY_UNAVAILABLE
SQLSTATE: hiçbiri atanmadı
<serviceName> hizmeti geçici olarak bakım altındadır. Lütfen daha sonra yeniden deneyin.
TABLE_WITH_ROW_COLUMN_SECURITY_NOT_SUPPORTED_IN_ONLINE_MODE
SQLSTATE: hiçbiri atanmadı
Tablo <tableFullName> hem satır hem sütun güvenliğine hem de çevrimiçi maddileştirilmiş görünümlere sahip olamaz.
TOO_MANY_ROWS_TO_UPDATE
SQLSTATE: hiçbiri atanmadı
Güncelleştirilemeyecek kadar çok satır var, güncelleştirme durduruldu.
UC_ABAC_UNSUPPORTED_TABLE_TYPE
SQLSTATE: hiçbiri atanmadı
ABAC ilkeleri tablo türü <tableType>için desteklenmez.