Not
Bu sayfaya erişim yetkilendirme gerektiriyor. Oturum açmayı veya dizinleri değiştirmeyi deneyebilirsiniz.
Bu sayfaya erişim yetkilendirme gerektiriyor. Dizinleri değiştirmeyi deneyebilirsiniz.
Bu makalede, not defterleri ve işler için sunucusuz işlemin geçerli sınırlamaları açıklanmaktadır. En önemli hususlara genel bir bakışla başlar ve ardından kapsamlı bir sınırlama referans listesi sunar.
Sınırlamalara genel bakış
Yeni iş yükleri oluşturmadan veya iş yüklerini sunucusuz işlemlere geçirmeden önce aşağıdaki sınırlamaları göz önünde bulundurun:
- Python ve SQL desteklenen tek dillerdir.
- Yalnızca Spark connect API'leri desteklenir. Spark RDD API'leri desteklenmez.
- JAR kitaplıkları desteklenmez. Geçici çözümler için bkz . Sunucusuz işlem için en iyi yöntemler.
- Sunucusuz işlem tüm çalışma alanı kullanıcıları tarafından kullanılabilir.
- Not defteri etiketleri desteklenmez. Sunucusuz kullanımı etiketlemek için sunucusuz bütçe ilkelerini kullanın.
- Akış için yalnızca artımlı toplu işleme mantığı kullanılabilir. Varsayılan veya zamana bağlı tetikleyici aralıkları için destek yoktur. Bkz . Akış sınırlamaları.
Sınırlamalar kaynakça
Aşağıdaki bölümlerde sunucusuz işlemin geçerli sınırlamaları listelenmiştir.
Sunucusuz işlem, Databricks standart erişim modu işlem mimarisini (eski adıyla paylaşılan erişim modu) temel alır. Standart erişim modundan devralınan en ilgili sınırlamalar ve sunucusuz özel ek sınırlamalar aşağıda listelenmiştir. Standart erişim modu sınırlamalarının tam listesi için, bkz. Unity Kataloğu için Hesaplama erişim modu sınırlamaları .
Genel sınırlamalar
- Scala ve R desteklenmez.
- ANSI SQL, SQL yazarken varsayılan değerdir.
spark.sql.ansi.enabled
'üfalse
olarak ayarlayarak ANSI modundan çıkın. - Spark RDD API'leri desteklenmez.
- Spark Bağlamı (sc),
spark.sparkContext
vesqlContext
desteklenmez.
- Databricks Container Services desteklenmez.
- Varsayılan olarak sunucusuz bir not defterindeki hiçbir Spark sorgusu 9000 saniyeden uzun süre çalışmaz. Bu yapılandırma
spark.databricks.execution.timeout
özelliği kullanılarak yapılabilir. Diğer ayrıntılar için bkz. Sunucusuz not defterleri ve işler için Spark özelliklerini yapılandırma. Bu sınır sunucusuz işler için geçerli değildir. - Dış veri kaynaklarına bağlanmak için Unity Kataloğu'nu kullanmanız gerekir. Bulut depolamaya erişmek için dış konumları kullanın.
- Kullanıcı tanımlı işlevler (UDF) İnternet'e erişemiyor. Bu nedenle, CREATE FUNCTION (Dış) komutu desteklenmez. Databricks, UDF oluşturmak için CREATE FUNCTION (SQL ve Python) kullanılmasını önerir.
- Tek tek satırlar en fazla 128 MB boyutu aşmamalıdır.
- Spark kullanıcı arabirimi kullanılamıyor. Bunun yerine, Spark sorgularınızla ilgili bilgileri görüntülemek için sorgu profilini kullanın. Bakınız Sorgu profili.
- Spark günlükleri sunucusuz not defterleri ve işler kullanılırken kullanılamaz. Kullanıcılar yalnızca istemci tarafı uygulama günlüklerine erişebilir.
- Çalışma alanları arası erişime yalnızca çalışma alanları aynı bölgedeyse ve hedef çalışma alanında IP ACL'sinin veya ön uç PrivateLink'in yapılandırılmamış olması durumunda izin verilir.
- Küresel geçici görünümler desteklenmez. Databricks, oturum geçici görünümlerinin kullanılmasını veya oturumlar arası veri geçişinin gerekli olduğu tablolar oluşturulmasını önerir.
- Maven koordinatları desteklenmez.
Akış sınırlamaları
- Varsayılan veya zamana bağlı tetikleyici aralıkları için destek yoktur. Yalnızca
Trigger.AvailableNow
desteklenir. Bkz . Yapılandırılmış Akış tetikleyici aralıklarını yapılandırma. - Standart erişim modunda akış için tüm sınırlamalar da geçerlidir. Bkz. Unity Kataloğu standart erişim modu için akış sınırlamaları ve gereksinimleri.
Makine öğrenmesi sınırlamaları
- Makine Öğrenimi için Databricks Runtime ve Apache Spark MLlib desteklenmez.
- GPU'lar desteklenmez.
Dizüstü bilgisayarların sınırlamaları
- Not defteri oturumu kapsamındaki kütüphaneler, geliştirme oturumları arasında önbelleğe alınmaz.
- Bir not defterini kullanıcılar arasında paylaşırken TEMP tablolarını ve görünümlerini paylaşma desteklenmez.
- Not defterlerindeki veri çerçeveleri için Otomatik Tamamlama ve Değişken Gezgini desteklenmez.
- Varsayılan olarak, yeni not defterleri
.ipynb
biçiminde kaydedilir. Not defteriniz kaynak biçiminde kaydedildiyse sunucusuz meta veriler doğru yakalanmayabilir ve bazı özellikler beklendiği gibi çalışmayabilir.
İş akışı sınırlamaları
- İşler için sunucusuz işlem için sürücü boyutu şu anda sabittir ve değiştirilemez.
- Görev günlükleri, görev çalıştırması başına yalıtılmaz. Günlükler birden çok görevden çıktı içerir.
- Görev kitaplıkları not defteri görevleri için desteklenmez. Bunun yerine not defterine özgü kitaplıkları kullanın. Bkz. Notebook'a özel Python kitaplıkları.
Hesaplamaya özgü sınırlamalar
Aşağıdaki işlem özellikleri desteklenmez:
- İşlem ilkeleri
- Hesaplama kapsamlı başlatma betikleri
- İşlem kapsamlı kitaplıklar, özel veri kaynakları ve Spark uzantılarını içerir. Bunun yerine not defteri kapsamlı kütüphaneleri kullanın.
- Örnek havuzları
- Hesaplama olay günlükleri
- Çoğu Apache Spark hesaplama yapılandırmaları. Desteklenen yapılandırmaların listesi için bkz. Sunucusuz not defterleri ve işler için Spark özelliklerini yapılandırma.
- Ortam değişkenleri. Bunun yerine Databricks, iş ve görev parametreleri oluşturmak için pencere öğelerinin kullanılmasını önerir.
Önbelleğe alma sınırlamaları
Veri çerçevesi ve SQL önbellek API'leri sunucusuz işlemde desteklenmez. Bu API'lerden veya SQL komutlarından herhangi birinin kullanılması özel duruma neden olur.
- df.cache(), df.persist()
- df.unpersist()
- spark.catalog.cacheTable()
- spark.catalog.uncacheTable()
- spark.catalog.clearCache()
- CACHE TABLE
- UNCACHE TABLE
- REFRESH TABLE
- CLEAR CACHE
Hive sınırlamaları
Hive SerDe tabloları desteklenmez. Ayrıca, Hive SerDe tablosuna veri yükleyen ilgili LOAD DATA komutu desteklenmez. Komutun kullanılması bir istisna ile sonuçlanır.
Veri kaynakları için destek AVRO, BINARYFILE, CSV, DELTA, JSON, KAFKA, ORC, PARQUET, ORC, TEXT ve XML ile sınırlıdır.
Hive değişkenleri (örneğin
${env:var}
,${configName}
,${system:var}
, vespark.sql.variable
) veya${var}
söz dizimini kullanan yapılandırma değişkeni başvuruları desteklenmez. Hive değişkenlerini kullanmak bir özel durumla sonuçlanır.Bunun yerine, oturum durumunu bildirmek, değiştirmek ve başvurmak için DECLARE VARIABLE, SET VARIABLE, SQL oturum değişkeni başvurularını ve parametre işaretçilerini ('?', veya ':var') kullanın. Çoğu durumda nesne adlarını parametreleştirmek için IDENTIFIER yan tümcesini de kullanabilirsiniz.
Desteklenen veri kaynakları
Sunucusuz işlem DML işlemleri (yazma, güncelleştirme, silme) için aşağıdaki veri kaynaklarını destekler:
CSV
JSON
AVRO
DELTA
KAFKA
PARQUET
ORC
TEXT
UNITY_CATALOG
BINARYFILE
XML
SIMPLESCAN
ICEBERG
Sunucusuz işlem, okuma işlemleri için aşağıdaki veri kaynaklarını destekler:
CSV
JSON
AVRO
DELTA
KAFKA
PARQUET
ORC
TEXT
UNITY_CATALOG
BINARYFILE
XML
SIMPLESCAN
ICEBERG
MYSQL
POSTGRESQL
SQLSERVER
REDSHIFT
SNOWFLAKE
-
SQLDW
(Azure Synapse) DATABRICKS
BIGQUERY
ORACLE
SALESFORCE
SALESFORCE_DATA_CLOUD
TERADATA
WORKDAY_RAAS
MONGODB