Databricks Runtime 7.0 (desteklenmiyor)
Databricks bu görüntüyü Haziran 2020'de yayımladı.
Aşağıdaki sürüm notları, Apache Spark 3.0 tarafından desteklenen Databricks Runtime 7.0 hakkında bilgi sağlar.
Yeni özellikler
Databricks Runtime 7.0 aşağıdaki yeni özellikleri içerir:
Scala 2.12
Databricks Runtime 7.0, Scala'nın 2.11.12'den 2.12.10 sürümüne yükseltildi. Scala 2.12 ile 2.11 arasındaki değişiklik listesi Scala 2.12.0 sürüm notlarında yer alır.
Databricks Runtime 6.4'te yayımlanan Otomatik Yükleyici (Genel Önizleme) Databricks Runtime 7.0'da geliştirildi
Otomatik Yükleyici, ETL sırasında bir bulut blob deposuna ulaşan yeni veri dosyalarını artımlı olarak işlemek için daha verimli bir yol sağlar. Bu, bulut dizinini tekrar tekrar listeleyerek ve görülen dosyaları izleyerek yeni dosyaları tanımlayan ve dizin büyüdükçe çok verimsiz olabilecek dosya tabanlı yapılandırılmış akışa göre bir geliştirmedir. Otomatik Yükleyici ayrıca dosya bildirimi tabanlı yapılandırılmış akıştan daha kullanışlı ve etkilidir. Bu, bulutta dosya bildirim hizmetlerini el ile yapılandırmanızı gerektirir ve mevcut dosyaları doldurmanıza izin vermez. Ayrıntılar için bkz . Otomatik Yükleyici nedir?.
Databricks Runtime 7.0'da, Otomatik Yükleyici'yi kullanmak için artık özel bir Databricks Runtime görüntüsü istemeniz gerekmez.
COPY INTO
Tek etkili yeniden denemelerle Delta Lake'e veri yüklemenizi sağlayan (Genel Önizleme), Databricks Runtime 7.0'da geliştirilmiştirDatabricks Runtime 6.4'te Genel Önizleme olarak yayımlanan SQL komutu,
COPY INTO
tek etkili yeniden denemelerle Delta Lake'e veri yüklemenizi sağlar. Delta Lake'e bugün veri yüklemek için Apache Spark DataFrame API'lerini kullanmanız gerekir. Yükler sırasında hatalar varsa bunları etkili bir şekilde işlemeniz gerekir. YeniCOPY INTO
komut, SQL'de veri yüklemek için tanıdık bildirim temelli bir arabirim sağlar. komutu daha önce yüklenen dosyaları izler ve hata durumunda güvenli bir şekilde yeniden çalıştırırsınız. Ayrıntılar için bkz . COPY INTO.
İyileştirmeler
Azure Synapse (eski adı SQL Veri Ambarı) bağlayıcısı deyimini
COPY
destekler.Bunun temel avantajı
COPY
, daha düşük ayrıcalıklı kullanıcıların Azure Synapse üzerinde katıCONTROL
izinlere gerek kalmadan Azure Synapse'e veri yazabilmesidir.%matplotlib inline
Matplolib nesnelerini not defteri hücrelerinde satır içinde görüntülemek için artık sihirli komut gerekli değildir. Bunlar her zaman varsayılan olarak satır içinde görüntülenir.Matplolib şekilleri artık ile
transparent=False
işlenir, böylece kullanıcı tarafından belirtilen arka planlar kaybolmaz. Spark yapılandırmasıspark.databricks.workspace.matplotlib.transparent true
ayarlanarak bu davranış geçersiz kılınabilir.Yüksek Eşzamanlılık modu kümelerinde Yapılandırılmış Akış üretim işleri çalıştırılırken, daha önce çalışan iş düzgün sonlandırılmadığından işin yeniden başlatılması zaman zaman başarısız olur. Databricks Runtime 6.3, önceki çalıştırmanın durdurulduğundan emin olmak için kümenizde SQL yapılandırmasını
spark.sql.streaming.stopActiveRunOnRestart true
ayarlama özelliğini kullanıma sunar. Bu yapılandırma, Databricks Runtime 7.0'da varsayılan olarak ayarlanır.
Ana kitaplık değişiklikleri
Python paketleri
Yükseltilen ana Python paketleri:
- boto3 1.9.162 -> 1.12.0
- matplotlib 3.0.3 -> 3.1.3
- numpy 1.16.2 -> 1.18.1
- pandas 0.24.2 -> 1.0.1
- pip 19.0.3 -> 20.0.2
- pyarrow 0.13.0 -> 0.15.1
- psycopg2 2.7.6 -> 2.8.4
- scikit-learn 0.20.3 -> 0.22.1
- scipy 1.2.1 -> 1.4.1
- seaborn 0.9.0 -> 0.10.0
Python paketleri kaldırıldı:
- boto (boto3 kullanma)
- pycurl
Not
Databricks Runtime 7.0'daki Python ortamı, yüklü Ubuntu sistemi Python'dan farklı olan Python 3.7'yi kullanır: /usr/bin/python
Python /usr/bin/python2
2.7'ye bağlanır ve /usr/bin/python3
Python 3.6'ya bağlanır.
R paketleri
R paketleri eklendi:
- Süpürge
- daha yüksek
- isoband
- örgü örme
- markdown
- modelleyici
- reprex
- rmarkdown
- rvest
- seçici
- tidyverse
- tinytex
- xfun
R paketleri kaldırıldı:
- abind
- bitops
- car
- carData
- doMC
- gbm
- h2o
- Littler
- lme4
- mapproj
- Haritalar
- maptools
- MatrixModels
- minqa
- mvtnorm
- nloptr
- openxlsx
- pbkrtest
- pkgKitten
- quantreg
- R.methodsS3
- R.oo
- R.utils
- RcppEigen
- RCurl
- Rio
- Sp
- Seyrek Bakış
- statmod
- Zip
Java ve Scala kitaplıkları
- Hive kullanıcı tanımlı işlevleri işlemek için kullanılan Apache Hive sürümü ve Hive SerDes 2.3 sürümüne yükseltildi.
- Daha önce Azure Depolama ve Key Vault jar'ları Databricks Runtime'ın bir parçası olarak paketleniyordu ve bu da kümelere bağlı olan bu kitaplıkların farklı sürümlerini kullanmanızı engelliyordu. ve altındaki
com.microsoft.azure.storage
com.microsoft.azure.keyvault
sınıflar artık Databricks Runtime'da sınıf yolunda değildir. Bu sınıf yollarından herhangi birini temel alırsanız, artık kümelerinize Azure Depolama SDK'sı veya Azure Key Vault SDK'sı eklemeniz gerekir.
Davranış değişiklikleri
Bu bölümde Databricks Runtime 6.6'dan Databricks Runtime 7.0'a davranış değişiklikleri listelenir. Düşük Databricks Runtime sürümlerinden Databricks Runtime 7.0 ve üzeri sürümlere iş yüklerini geçirirken bunları bilmeniz gerekir.
Spark davranışı değişiklikleri
Databricks Runtime 7.0, Spark 3.0 üzerinde oluşturulan ilk Databricks Runtime olduğundan, Iş yüklerini Spark 2.4'te oluşturulan Databricks Runtime 5.5 LTS veya 6.x'ten geçirirken bilmeniz gereken birçok değişiklik vardır. Bu değişiklikler, bu sürüm notları makalesinin Apache Spark bölümündeki her işlevsel alanın "Davranış değişiklikleri" bölümünde listelenir:
- Spark çekirdeği, Spark SQL ve Yapılandırılmış Akış için davranış değişiklikleri
- MLlib için davranış değişiklikleri
- SparkR için davranış değişiklikleri
Diğer davranış değişiklikleri
Scala 2.12'ye yükseltme aşağıdaki değişiklikleri içerir:
Paket hücre serileştirmesi farklı şekilde işlenir. Aşağıdaki örnekte davranış değişikliği ve nasıl işleneceğini gösterilmektedir.
Aşağıdaki paket hücresinde tanımlandığı gibi çalıştırılırsa
foo.bar.MyObjectInPackageCell.run()
hata tetiklenirjava.lang.NoClassDefFoundError: Could not initialize class foo.bar.MyObjectInPackageCell$
package foo.bar case class MyIntStruct(int: Int) import org.apache.spark.sql.SparkSession import org.apache.spark.sql.functions._ import org.apache.spark.sql.Column object MyObjectInPackageCell extends Serializable { // Because SparkSession cannot be created in Spark executors, // the following line triggers the error // Could not initialize class foo.bar.MyObjectInPackageCell$ val spark = SparkSession.builder.getOrCreate() def foo: Int => Option[MyIntStruct] = (x: Int) => Some(MyIntStruct(100)) val theUDF = udf(foo) val df = { val myUDFInstance = theUDF(col("id")) spark.range(0, 1, 1, 1).withColumn("u", myUDFInstance) } def run(): Unit = { df.collect().foreach(println) } }
Bu hatayı geçici olarak çözmek için serileştirilebilir bir sınıfın içine sarmalayabilirsiniz
MyObjectInPackageCell
.Kullanan
DataStreamWriter.foreachBatch
bazı durumlar için kaynak kodu güncelleştirmesi gerekir. Bu değişikliğin nedeni Scala 2.12'nin lambda ifadelerinden SAM türlerine otomatik dönüştürmeye sahip olması ve belirsizliğe neden olmasıdır.Örneğin, aşağıdaki Scala kodu derlenemiyor:
streams .writeStream .foreachBatch { (df, id) => myFunc(df, id) }
Derleme hatasını düzeltmek için Java API'sini olarak değiştirin
foreachBatch { (df, id) => myFunc(df, id) }
veya açıkça kullanın:foreachBatch(new VoidFunction2 ...)
.foreachBatch(myFunc _)
Hive kullanıcı tanımlı işlevleri işlemek için kullanılan Apache Hive sürümü ve Hive SerDes 2.3'e yükseltildiğinden iki değişiklik gerekir:
- Hive arabiriminin
SerDe
yerini soyut bir sınıfAbstractSerDe
alır. Herhangi bir özel HiveSerDe
uygulaması için uygulamasınaAbstractSerDe
geçiş gereklidir. - ayarı
spark.sql.hive.metastore.jars
,builtin
Hive 2.3 meta veri deposu istemcisinin Databricks Runtime 7.0 için meta veri depolarına erişmek için kullanılacağı anlamına gelir. Hive 1.2 tabanlı dış meta veri depolarına erişmeniz gerekiyorsa, Hive 1.2 jar içeren klasöre ayarlayınspark.sql.hive.metastore.jars
.
- Hive arabiriminin
Kullanımdan kaldırmalar ve kaldırmalar
- Veri atlama dizini Databricks Runtime 4.3'te kullanım dışı bırakıldı ve Databricks Runtime 7.0'da kaldırıldı. Bunun yerine geliştirilmiş veri atlama özellikleri sunan Delta tablolarını kullanmanızı öneririz.
- Databricks Runtime 7.0'da Apache Spark'ın temel alınan sürümü Scala 2.12'yi kullanır. Scala 2.11'de derlenen kitaplıklar Databricks Runtime 7.0 kümelerini beklenmedik şekilde devre dışı bırakabildiğinden, Databricks Runtime 7.0 ve üzerini çalıştıran kümeler tüm kümelere yüklenecek şekilde yapılandırılmış kitaplıkları yüklemez. Küme Kitaplıkları sekmesinde , kitaplık işlemedeki değişiklikleri açıklayan bir durum
Skipped
ve kullanımdan kaldırma iletisi gösterilir. Ancak, Azure Databricks platformu sürüm 3.20 çalışma alanınızda yayımlanmadan önce Databricks Runtime'ın önceki bir sürümünde oluşturulmuş bir kümeniz varsa ve şimdi bu kümeyi Databricks Runtime 7.0 kullanacak şekilde düzenlerseniz, tüm kümelere yüklenmek üzere yapılandırılmış tüm kitaplıklar bu kümeye yüklenir. Bu durumda, yüklü kitaplıklardaki uyumsuz JAR'ler kümenin devre dışı bırakılmasına neden olabilir. Geçici çözüm, kümeyi kopyalamak veya yeni bir küme oluşturmaktır.
Apache Spark
Databricks Runtime 7.0, Apache Spark 3.0'ı içerir.
Bu bölümde:
- Çekirdek, Spark SQL, Yapılandırılmış Akış
- MLlib
- SparkR
- GraphX
- Kullanımdan Kaldırmalar
- Bilinen sorunlar
Çekirdek, Spark SQL, Yapılandırılmış Akış
Önemli Noktalar
- (Hidrojen Projesi) Hızlandırıcı kullanan Zamanlayıcı (SPARK-24615)
- Uyarlamalı Sorgu Yürütme (SPARK-31412)
- Dinamik Bölüm Ayıklama (SPARK-11150)
- Tür ipuçlarıyla yeniden tasarlanan pandas UDF API'si (SPARK-28264)
- Yapılandırılmış Akış Kullanıcı Arabirimi (SPARK-29543)
- Katalog eklentisi API'si (SPARK-31121)
- Daha iyi ANSI SQL uyumluluğu
Performans geliştirmeleri
- Uyarlamalı Sorgu Yürütme (SPARK-31412)
- Temel çerçeve (SPARK-23128)
- Karıştırma sonrası bölüm numarası ayarlaması (SPARK-28177)
- Dinamik alt sorgu yeniden kullanımı (SPARK-28753)
- Yerel karıştırma okuyucusu (SPARK-28560)
- Eğme birleştirme iyileştirmesi (SPARK-29544)
- Bitişik karıştırma bloklarını (SPARK-9853) en iyi duruma getirme
- Dinamik Bölüm Ayıklama (SPARK-11150)
- Diğer iyileştirici kuralları
- Kural Yeniden KullanımıAbonelik (SPARK-27279)
- Kural PushDownLeftSemiAntiJoin (SPARK-19712)
- Rule PushLeftSemiLeftAntiThroughJoin (SPARK-19712)
- Rule ReplaceNullWithFalse (SPARK-25860)
- Kural Birleştirme/Toplama alt sorgusunda sınır olmadan sıralamaları ortadan kaldırma (SPARK-29343)
- Kural PruneHiveTablePartitions (SPARK-15616)
- Oluştur'dan gereksiz iç içe yerleştirilmiş alanları ayıklama (SPARK-27707)
- Rule RewriteNonCorrelatedExists (SPARK-29800)
- Tablo önbelleği eşitleme maliyetlerini en aza indirme (SPARK-26917), (SPARK-26617), (SPARK-26548)
- Toplama kodunu küçük işlevlere bölme (SPARK-21870)
- INSERT ve ALTER TABLE ADD PARTITION komutuna toplu iş ekleme (SPARK-29938)
Genişletilebilirlik geliştirmeleri
- Katalog eklentisi API'si (SPARK-31121)
- Veri kaynağı V2 API'sini yeniden düzenleme (SPARK-25390)
- Hive 3.0 ve 3.1 meta veri deposu desteği (SPARK-27970),(SPARK-24360)
- Spark eklenti arabirimini sürücüye genişletme (SPARK-29396)
- Yürütücü eklentilerini kullanarak Spark ölçüm sistemini kullanıcı tanımlı ölçümlerle genişletme (SPARK-28091)
- Genişletilmiş Sütun İşleme Desteği için Geliştirici API'leri (SPARK-27396)
- DSV2 kullanarak yerleşik kaynak geçişi: parquet, ORC, CSV, JSON, Kafka, Metin, Avro (SPARK-27589)
- SparkExtensions'da FunctionInjection'a İzin Ver (SPARK-25560)
- Toplayıcı'nın UDAF (SPARK-27296) olarak kaydedilmesine izin verir
Bağlan veya geliştirmeleri
- Belirsiz ifadeler aracılığıyla sütun ayıklama (SPARK-29768)
- Veri kaynağı tablolarında destek
spark.sql.statistics.fallBackToHdfs
(SPARK-25474) - Dosya kaynağında alt sorgu filtreleri ile bölüm ayıklamaya izin ver (SPARK-26893)
- Veri kaynağı filtrelerindeki alt sorguların (SPARK-25482) aşağı itmesini önleme
- Dosya kaynaklarından özyinelemeli veri yükleme (SPARK-27990)
- Parquet/ORC
- Ayrık önkoşulların bastırılması (SPARK-27699)
- İç İçe Sütun Ayıklamayı Genelleştirme (SPARK-25603) ve varsayılan olarak açık (SPARK-29805)
- Yalnızca Parquet
- İç içe alanlar için parquet koşulu gönderme (SPARK-17636)
- Yalnızca ORC
- ORC için destek birleştirme şeması (SPARK-11412)
- ORC için iç içe şema ayıklama (SPARK-27034)
- ORC için koşul dönüştürme karmaşıklığını azaltma (SPARK-27105, SPARK-28108)
- Apache ORC'yi 1.5.9'a (SPARK-30695) yükseltme
- CSV
- CSV veri kaynağında destek filtreleri gönderme (SPARK-30323)
- Hive SerDe
- Hive serde tablosunu yerel veri kaynağıyla okurken şema çıkarımı yok (SPARK-27119)
- Hive CTAS komutları dönüştürülebilirse veri kaynağı kullanmalıdır (SPARK-25271)
- Bölümlenmiş Hive tablosu eklemeyi iyileştirmek için yerel veri kaynağını kullanma (SPARK-28573)
- Apache Kafka
- Kafka üst bilgileri için destek ekleme (SPARK-23539)
- Kafka temsilci belirteci desteği ekleme (SPARK-25501)
- Kafka kaynağına yeni seçenek ekleme: zaman damgasına göre uzaklık (başlangıç/bitiş) (SPARK-26848)
minPartitions
Kafka toplu iş kaynağı ve akış kaynağı v1 (SPARK-30656) seçeneği destekleniyor- Kafka'yi 2.4.1'e (SPARK-31126) yükseltme
- Yeni yerleşik veri kaynakları
- Yeni yerleşik ikili dosya veri kaynakları (SPARK-25348)
- Yeni işlemsiz toplu iş veri kaynakları (SPARK-26550) ve işlemsiz akış havuzu (SPARK-26649)
Özellik geliştirmeleri
- [Hidrojen] Hızlandırıcı kullanan Zamanlayıcı (SPARK-24615)
- Tam bir Birleştirme İpuçları kümesi tanıtın (SPARK-27225)
- SQL sorguları için ipucu ekleme
PARTITION BY
(SPARK-28746) - Thrift Server'da Meta Veri İşleme (SPARK-28426)
- Scala API'sine daha yüksek sıralı işlevler ekleme (SPARK-27297)
- Engel görev bağlamında basit toplama desteği (SPARK-30667)
- Hive UDF'leri UDT türünü destekler (SPARK-28158)
- Catalyst'te DELETE/UPDATE/MERGE İşleçlerini Destekleme (SPARK-28351, SPARK-28892, SPARK-28893)
- DataFrame.tail uygulama (SPARK-30185)
- Yeni yerleşik işlevler
- sinh, cosh, tanh, asinh, acosh, atanh (SPARK-28133)
- any, every, some (SPARK-19851)
- bit_and, bit_or (SPARK-27879)
- bit_count (SPARK-29491)
- bit_xor (SPARK-29545)
- bool_and, bool_or (SPARK-30184)
- count_if (SPARK-27425)
- date_part (SPARK-28690)
- extract (SPARK-23903)
- forall (SPARK-27905)
- from_csv (SPARK-25393)
- make_date (SPARK-28432)
- make_interval (SPARK-29393)
- make_timestamp (SPARK-28459)
- map_entries (SPARK-23935)
- map_filter (SPARK-23937)
- map_zip_with (SPARK-23938)
- max_by, min_by (SPARK-27653)
- schema_of_csv (SPARK-25672)
- to_csv (SPARK-25638)
- transform_keys (SPARK-23939)
- transform_values (SPARK-23940)
- typeof (SPARK-29961)
- sürüm (SPARK-29554)
- xxhash64 (SPARK-27099)
- Mevcut yerleşik işlevlerde iyileştirmeler
- Yerleşik tarih-saat işlevleri/işlemleri geliştirme (SPARK-31415)
- (SPARK-25243) için
from_json
destekFAILFAST
modu array_sort
yeni bir karşılaştırıcı parametresi ekler (SPARK-29020)- Filtre artık hem giriş hem de öğe (SPARK-28962) olarak dizini alabilir
SQL uyumluluk geliştirmeleri
- Proleptik Gregoryen takvime geçme (SPARK-26651)
- Spark'ın kendi tarih saat desen tanımını oluşturma (SPARK-31408)
- Tablo ekleme için ANSI deposu atama ilkesini tanıtma (SPARK-28495)
- Varsayılan olarak tablo eklemede ANSI deposu atama kuralını izleyin (SPARK-28885)
- SQLConf
spark.sql.ansi.enabled
ekleme (SPARK-28989) - Toplama ifadesi için ANSI SQL filtre yan tümcesini destekleme (SPARK-27986)
- ANSI SQL
OVERLAY
işlevini destekleme (SPARK-28077) - ANSI iç içe yerleştirilmiş köşeli ayraçlı açıklamaları destekleme (SPARK-28880)
- Tamsayılar için taşmada özel durum oluşturma (SPARK-26218)
- Aralık aritmetik işlemleri için taşma denetimi (SPARK-30341)
- Geçersiz dize sayısal türe (SPARK-30292) atandığında Özel Durum Oluştur
- Aralık çarpma ve bölme taşma davranışını diğer işlemlerle tutarlı hale getirme (SPARK-30919)
- Karakter ve ondalık için ANSI türü diğer adları ekleme (SPARK-29941)
- SQL Ayrıştırıcı ansi uyumlu ayrılmış anahtar sözcükleri tanımlar (SPARK-26215)
- ANSI modu açıkken ayrılmış anahtar sözcükleri tanımlayıcı olarak yasakla (SPARK-26976)
- ANSI SQL
LIKE ... ESCAPE
söz dizimini destekleme (SPARK-28083) - ANSI SQL Boolean-Predicate söz dizimini destekleme (SPARK-27924)
- Bağıntılı alt sorgu işleme için daha iyi destek (SPARK-18455)
İzleme ve hata ayıklama geliştirmeleri
- Yeni Yapılandırılmış Akış Kullanıcı Arabirimi (SPARK-29543)
- SHS: Akış uygulamalarını çalıştırmak için olay günlüklerinin dağıtılmasına izin ver (SPARK-28594)
- Kullanıcının toplu ve akış sorgularında rastgele ölçümler tanımlamasına ve gözlemlemesini sağlayan bir API ekleme (SPARK-29345)
- Sorgu başına planlama süresini izlemeye yönelik izleme (SPARK-26129)
- Temel karıştırma ölçümlerini SQL exchange işlecine (SPARK-26139) yerleştirme
- SQL deyimi, çağrı sitesi yerine SQL Sekmesinde gösterilir (SPARK-27045)
- SparkUI'ye araç ipucu ekleme (SPARK-29449)
- Geçmiş Sunucusu'nun eşzamanlı performansını geliştirme (SPARK-29043)
EXPLAIN FORMATTED
command (SPARK-27395)- Kesilen planların ve oluşturulan kodun dosyaya dökümünü alma desteği (SPARK-26023)
- Sorgunun çıkışını açıklamak için describe çerçevesini geliştirin (SPARK-26982)
- Komut ekle
SHOW VIEWS
(SPARK-31113) - SQL ayrıştırıcısının hata iletilerini geliştirme (SPARK-27901)
- Prometheus'un yerel olarak izlenmesini destekleme (SPARK-29429)
PySpark geliştirmeleri
- Tür ipuçlarıyla yeniden tasarlanan pandas UDF'leri (SPARK-28264)
- Pandas UDF işlem hattı (SPARK-26412)
- Scalar Pandas UDF için bağımsız değişken ve dönüş türü olarak StructType desteği (SPARK-27240 )
- Pandas UDF'leri aracılığıyla Dataframe Cogroup desteği (SPARK-27463)
- DataFrame'lerin yineleyicisine izin vermek için ekleme
mapInPandas
(SPARK-28198) - Bazı SQL işlevleri de sütun adlarını almalıdır (SPARK-26979)
- PySpark SQL özel durumlarını daha Pythonik hale getirme (SPARK-31849)
Belgeler ve test kapsamı geliştirmeleri
- SQL Başvurusu Oluşturma (SPARK-28588)
- WebUI için kullanıcı kılavuzu oluşturma (SPARK-28372)
- SQL yapılandırma belgeleri için sayfa oluşturma (SPARK-30510)
- Spark yapılandırması için sürüm bilgileri ekleme (SPARK-30839)
- PostgreSQL'den bağlantı noktası regresyon testleri (SPARK-27763)
- Thrift-server test kapsamı (SPARK-28608)
- UDF'lerin (python UDF, pandas UDF, scala UDF) test kapsamı (SPARK-27921)
Diğer önemli değişiklikler
- 1.2.1'den 2.3.6'ya yerleşik Hive yürütme yükseltmesi (SPARK-23710, SPARK-28723, SPARK-31381)
- Apache Hive 2.3 bağımlılığını varsayılan olarak kullanma (SPARK-30034)
- GA Scala 2.12 ve kaldırma 2.11 (SPARK-26132)
- Dinamik ayırmada yürütücülerin zaman aşımına uğradıklarının mantığını geliştirme (SPARK-20286)
- Karıştırma hizmeti tarafından sunulan ve Dinamik Ayırma için yoksayılan disk kalıcı RDD blokları (SPARK-27677)
- Blok listesi nedeniyle askıda kalmamak için yeni yürütücüler alma (SPARK-22148)
- Netty'nin bellek havuzu ayırıcılarının paylaşımına izin ver (SPARK-24920)
- ve
UnsafeExternalSorter$SpillableIterator
arasındakiTaskMemoryManager
kilitlenme düzeltilir (SPARK-27338) - Yapılandırılmış Akış için API'leri tanıtma
AdmissionControl
(SPARK-30669) - Spark Geçmişi Ana sayfa performansı iyileştirmesi (SPARK-25973)
- SQL dinleyicisinde ölçüm toplamayı hızlandırma ve azaltma (SPARK-29562)
- Karıştırma blokları aynı konaktan getirildiğinde ağdan kaçının (SPARK-27651)
- (SPARK-27801) için
DistributedFileSystem
dosya listesini geliştirme
Spark çekirdeği, Spark SQL ve Yapılandırılmış Akış için davranış değişiklikleri
Aşağıdaki geçiş kılavuzları Apache Spark 2.4 ile 3.0 arasındaki davranış değişikliklerini listeler. Bu değişiklikler, daha düşük Databricks Runtime sürümlerinde çalıştırdığınız işlerde güncelleştirmeler yapılmasını gerektirebilir:
- Geçiş Kılavuzu: Spark Core
- Geçiş Kılavuzu: SQL, Veri Kümeleri ve DataFrame
- Geçiş Kılavuzu: Yapılandırılmış Akış
- Geçiş Kılavuzu: PySpark (Spark'ta Python)
Aşağıdaki davranış değişiklikleri bu geçiş kılavuzlarında ele alınmaz:
- Spark 3.0'da, kullanım dışı bırakılan sınıf
org.apache.spark.sql.streaming.ProcessingTime
kaldırıldı. Bunun yerineorg.apache.spark.sql.streaming.Trigger.ProcessingTime
kullanın. Benzer şekilde,org.apache.spark.sql.execution.streaming.continuous.ContinuousTrigger
yerine kaldırılmıştırTrigger.Continuous
veorg.apache.spark.sql.execution.streaming.OneTimeTrigger
yerine gizlenmiştirTrigger.Once
. (SPARK-28199) - Databricks Runtime 7.0'da Hive SerDe tablosunu okurken Spark varsayılan olarak tablo bölümü olmayan bir alt dizin altındaki dosyaların okunmasını izin vermez. Etkinleştirmek için yapılandırmasını
spark.databricks.io.hive.scanNonpartitionedDirectory.enabled
olaraktrue
ayarlayın. Bu, Spark yerel tablo okuyucularını ve dosya okuyucularını etkilemez.
Programlama kılavuzları:
- Spark RDD Programlama Kılavuzu
- Spark SQL, DataFrames ve Veri Kümeleri Kılavuzu
- Yapılandırılmış Akış Programlama Kılavuzu.
MLlib
Önemli Noktalar
- Binarizer (SPARK-23578), StringIndexer (SPARK-11215), StopWordsRemover (SPARK-29808) ve PySpark QuantileDiscretizer (SPARK-22796) için birden çok sütun desteği eklendi
- Ağaç tabanlı özellik dönüştürmeyi destekleme (SPARK-13677)
- İki yeni değerlendirici MultilabelClassificationEvaluator (SPARK-16692) ve RankingEvaluator (SPARK-28045) eklendi
- DecisionTreeClassifier/Regressor (SPARK-19591), RandomForestClassifier/Regressor (SPARK-9478), GBTClassifier/Regressor (SPARK-9612), RegressionEvaluator (SPARK-9612) için örnek ağırlık desteği eklendi24102), BinaryClassificationEvaluator (SPARK-24103), BisectingKMeans (SPARK-30351), KMeans (SPARK-29967) ve GaussianMixture (SPARK-30102)
- PowerIterationClustering için R API eklendi (SPARK-19827)
- ML işlem hattı durumunu izlemek için Spark ML dinleyicisi eklendi (SPARK-23674)
- Doğrulama kümesiyle sığdır özelliği Python'da Gradyan Artırılmış Ağaçlara eklendi (SPARK-24333)
- RobustScaler transformatörü eklendi (SPARK-28399)
- Factorization Machines sınıflandırıcısı ve regresörü eklendi (SPARK-29224)
- Gauss Naive Bayes (SPARK-16872) ve Tamamlayıcı Naive Bayes (SPARK-29942) eklendi
- Scala ile Python arasındaki ML işlevi eşliği (SPARK-28958)
- predictRaw tüm Sınıflandırma modellerinde genel kullanıma sunulur. predictProbability, LinearSVCModel (SPARK-30358) dışındaki tüm Sınıflandırma modellerinde genel kullanıma sunulur
MLlib için davranış değişiklikleri
Aşağıdaki geçiş kılavuzunda Apache Spark 2.4 ile 3.0 arasındaki davranış değişiklikleri listelenir. Bu değişiklikler, daha düşük Databricks Runtime sürümlerinde çalıştırdığınız işlerde güncelleştirmeler yapılmasını gerektirebilir:
Aşağıdaki davranış değişiklikleri geçiş kılavuzunda ele alınmaz:
- Spark 3.0'da, Pyspark'taki çok sınıflı lojistik regresyon artık alt sınıfını
BinaryLogisticRegressionSummary
değil (doğru şekilde) döndürürLogisticRegressionSummary
. tarafındanBinaryLogisticRegressionSummary
kullanıma sunulan ek yöntemler bu durumda zaten çalışmaz. (SPARK-31681) - Spark 3.0'da mixin'ler
pyspark.ml.param.shared.Has*
artık herhangi birset*(self, value)
ayarlayıcı yöntemi sağlamaz, bunun yerine ilgiliself.set(self.*, value)
yöntemi kullanır. Ayrıntılar için bkz. SPARK-29093. (SPARK-29093)
Programlama kılavuzu
SparkR
- SparkR'nin birlikte çalışabilirliğindeki ok iyileştirmesi (SPARK-26759)
- Vektörleştirilmiş R gapply(), dapply(), createDataFrame, collect() aracılığıyla performans geliştirmesi
- R kabuğu, IDE için "Eager execution" (SPARK-24572)
- Güç Yineleme Kümeleme için R API'si (SPARK-19827)
SparkR için davranış değişiklikleri
Aşağıdaki geçiş kılavuzunda Apache Spark 2.4 ile 3.0 arasındaki davranış değişiklikleri listelenir. Bu değişiklikler, daha düşük Databricks Runtime sürümlerinde çalıştırdığınız işlerde güncelleştirmeler yapılmasını gerektirebilir:
Programlama kılavuzu
GraphX
Programlama kılavuzu: GraphX Programlama Kılavuzu.
Kullanımdan kaldırılan özellikler
- Python 2 desteğini kullanımdan kaldırma (SPARK-27884)
- R < 3.4 desteğini kullanımdan kaldırma (SPARK-26014)
Bilinen sorunlar
- 'D' desen harfini kullanarak yılın gününü ayrıştırma, yıl alanı eksikse yanlış sonuç verir. Bu, bir desen dizesi kullanarak tarih saat dizesini tarih saat değerlerine ayrıştıran SQL işlevlerinde
to_timestamp
gerçekleşebilir. (SPARK-31939) - Anahtarların -0.0 ve 0.0 değerleri varsa, alt sorgular içindeki Birleştirme/Pencere/Toplama yanlış sonuçlara yol açabilir. (SPARK-31958)
- Pencere sorgusu belirsiz bir kendi kendine birleştirme hatasıyla beklenmedik bir şekilde başarısız olabilir. (SPARK-31956)
- İşleçli
dropDuplicates
akış sorguları Spark 2.x tarafından yazılan denetim noktasıyla yeniden başlatılamayabilir. (SPARK-31990)
Bakım güncelleştirmeleri
Bkz . Databricks Runtime 7.0 bakım güncelleştirmeleri.
Sistem ortamı
- İşletim Sistemi: Ubuntu 18.04.4 LTS
- Java: 1.8.0_252
- Scala: 2.12.10
- Python: 3.7.5
- R: R sürüm 3.6.3 (2020-02-29)
- Delta Lake 0.7.0
Yüklü Python kitaplıkları
Kitaplık | Sürüm | Kitaplık | Sürüm | Kitaplık | Sürüm |
---|---|---|---|---|---|
asn1crypto | 1.3.0 | geri arama | 0.1.0 | boto3 | 1.12.0 |
botocore | 1.15.0 | sertifikalı | 2020.4.5 | cffi | 1.14.0 |
chardet | 3.0.4 | Şifreleme | 2.8 | Cycler | 0.10.0 |
Cython | 0.29.15 | Dekoratör | 4.4.1 | docutils | 0.15.2 |
Entrypoints | 0.3 | ıdna | 2.8 | ipykernel | 5.1.4 |
ipython | 7.12.0 | ipython-genutils | 0.2.0 | Jedi | 0.14.1 |
jmespath | 0.9.4 | joblib | 0.14.1 | jupyter-client | 5.3.4 |
jupyter-core | 4.6.1 | kiwisolver | 1.1.0 | matplotlib | 3.1.3 |
numpy | 1.18.1 | pandas | 1.0.1 | parso | 0.5.2 |
Patsy | 0.5.1 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
Pip | 20.0.2 | prompt-toolkit | 3.0.3 | psycopg2 | 2.8.4 |
ptyprocess | 0.6.0 | serçe | 0.15.1 | pycparser | 2.19 |
Pygments | 2.5.2 | PyGObject | 3.26.1 | pyOpenSSL | 19.1.0 |
pyparsing | 2.4.6 | PySocks | 1.7.1 | python-apt | 1.6.5+ubuntu0.3 |
python-dateutil | 2.8.1 | pytz | 2019.3 | pyzmq | 18.1.1 |
istekler | 2.22.0 | s3transfer | 0.3.3 | scikit-learn | 0.22.1 |
scipy | 1.4.1 | Sinan | 0.10.0 | kurulum araçları | 45.2.0 |
Altı | 1.14.0 | ssh-import-id | 5.7 | statsmodeller | 0.11.0 |
Kasırga | 6.0.3 | traitlets | 4.3.3 | katılımsız yükseltmeler | 0,1 |
urllib3 | 1.25.8 | virtualenv | 16.7.10 | wcwidth | 0.1.8 |
Tekerlek | 0.34.2 |
Yüklü R kitaplıkları
R kitaplıkları 2020-04-22'de Microsoft CRAN anlık görüntüsünden yüklenir.
Kitaplık | Sürüm | Kitaplık | Sürüm | Kitaplık | Sürüm |
---|---|---|---|---|---|
askpass | 1.1 | assertthat | 0.2.1 | Backports | 1.1.6 |
temel | 3.6.3 | base64enc | 0.1-3 | BH | 1.72.0-3 |
bit | 1.1-15.2 | bit64 | 0.9-7 | blob | 1.2.1 |
başlatma | 1.3-25 | Brew | 1.0-6 | Süpürge | 0.5.6 |
çağıran | 3.4.3 | şapka işareti | 6.0-86 | cellranger | 1.1.0 |
chron | 2.3-55 | class | 7.3-17 | cli | 2.0.2 |
küçük resim | 0.7.0 | cluster | 2.1.0 | codetools | 0.2-16 |
renk alanı | 1.4-1 | commonmark | 1.7 | derleyicisi | 3.6.3 |
config | 0.3 | covr | 3.5.0 | Crayon | 1.3.4 |
Karışma | 1.1.0.1 | Curl | 4.3 | data.table | 1.12.8 |
veri kümeleri | 3.6.3 | DBİ | 1.1.0 | dbplyr | 1.4.3 |
Desc | 1.2.0 | geliştirici araçları | 2.3.0 | Özet | 0.6.25 |
dplyr | 0.8.5 | DT | 0,13 | üç nokta | 0.3.0 |
değerlendir | 0,14 | fansi | 0.4.1 | farver | 2.0.3 |
fastmap | 1.0.1 | forcats | 0.5.0 | foreach | 1.5.0 |
Yabancı | 0.8-76 | Forge | 0.2.0 | Fs | 1.4.1 |
Generics | 0.0.2 | ggplot2 | 3.3.0 | gh | 1.1.0 |
git2r | 0.26.1 | glmnet | 3.0-2 | Globals | 0.12.5 |
Tutkal | 1.4.0 | Gower | 0.2.1 | grafikler | 3.6.3 |
grDevices | 3.6.3 | Kılavuz | 3.6.3 | gridExtra | 2.3 |
gsubfn | 0.7 | gtable | 0.3.0 | Haven | 2.2.0 |
daha yüksek | 0.8 | Hms | 0.5.3 | htmltools | 0.4.0 |
htmlwidgets | 1.5.1 | httpuv | 1.5.2 | httr | 1.4.1 |
hwriter | 1.3.2 | hwriterPlus | 1.0-3 | ını | 0.3.1 |
ipred | 0.9-9 | isoband | 0.2.1 | Yineleyicilerde | 1.0.12 |
jsonlite | 1.6.1 | KernSmooth | 2.23-17 | örgü örme | 1.28 |
Etiketleme | 0.3 | Sonra | 1.0.0 | Kafes | 0.20-41 |
Lav | 1.6.7 | lazyeval | 0.2.2 | yaşam döngüsü | 0.2.0 |
lubridate | 1.7.8 | magrittr | 1.5 | markdown | 1.1 |
MASS | 7.3-51.6 | Matris | 1.2-18 | not defteri | 1.1.0 |
yöntemler | 3.6.3 | mgcv | 1.8-31 | Mıme | 0,9 |
ModelMetrics | 1.2.2.2 | modelleyici | 0.1.6 | munsell | 0.5.0 |
nlme | 3.1-147 | nnet | 7.3-14 | numDeriv | 2016.8-1.1 |
openssl | 1.4.1 | parallel | 3.6.3 | Ayağı | 1.4.3 |
pkgbuild | 1.0.6 | pkgconfig | 2.0.3 | pkgload | 1.0.2 |
plogr | 0.2.0 | plyr | 1.8.6 | Övgü | 1.0.0 |
prettyunits | 1.1.1 | Yordam | 1.16.2 | processx | 3.4.2 |
prodlim | 2019.11.13 | ilerleme | 1.2.2 | Söz | 1.1.0 |
Proto | 1.0.0 | Ps | 1.3.2 | purrr | 0.3.4 |
r2d3 | 0.2.3 | R6 | 2.4.1 | randomForest | 4.6-14 |
rappdirs | 0.3.1 | rcmdcheck | 1.3.3 | RColorBrewer | 1.1-2 |
Rcpp | 1.0.4.6 | readr | 1.3.1 | readxl | 1.3.1 |
yemek tarifleri | 0.1.10 | Rövanş | 1.0.1 | rematch2 | 2.1.1 |
Kumanda | 2.1.1 | reprex | 0.3.0 | yeniden şekillendirme2 | 1.4.4 |
rex | 1.2.0 | rjson | 0.2.20 | rlang | 0.4.5 |
rmarkdown | 2.1 | RODBC | 1.3-16 | roxygen2 | 7.1.0 |
rpart | 4.1-15 | rprojroot | 1.3-2 | Rserve | 1.8-6 |
RSQLite | 2.2.0 | rstudioapi | 0,11 | ters çevirmeler | 2.0.1 |
rvest | 0.3.5 | Terazi | 1.1.0 | seçici | 0.4-2 |
sessioninfo | 1.1.1 | Şekil | 1.4.4 | Parlak | 1.4.0.2 |
sourcetools | 0.1.7 | sparklyr | 1.2.0 | SparkR | 3.0.0 |
Kayma | 7.3-11 | Splines | 3.6.3 | sqldf | 0.4-11 |
KAREM | 2020.2 | Istatistik | 3.6.3 | istatistikler4 | 3.6.3 |
stringi | 1.4.6 | dizeleyici | 1.4.0 | Hayatta kalma | 3.1-12 |
sys | 3.3 | tcltk | 3.6.3 | TeachingDemos | 2.10 |
test edin | 2.3.2 | Türk | 3.0.1 | derleyici | 1.0.2 |
tidyselect | 1.0.0 | tidyverse | 1.3.0 | timeDate | 3043.102 |
tinytex | 0,22 | araçlar | 3.6.3 | usethis | 1.6.0 |
utf8 | 1.1.4 | Yardımcılar | 3.6.3 | vctr'lar | 0.2.4 |
viridisLite | 0.3.0 | Bıyık | 0.4 | withr | 2.2.0 |
xfun | 0,13 | xml2 | 1.3.1 | xopen | 1.0.0 |
xtable | 1.8-4 | yaml | 2.2.1 |
Yüklü Java ve Scala kitaplıkları (Scala 2.12 küme sürümü)
Grup Kimliği | Yapıt Kimliği | Sürüm |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudformation | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudfront | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.655 |
com.amazonaws | aws-java-sdk-codedeploy | 1.11.655 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.655 |
com.amazonaws | aws-java-sdk-cognitosync | 1.11.655 |
com.amazonaws | aws-java-sdk-config | 1.11.655 |
com.amazonaws | aws-java-sdk-core | 1.11.655 |
com.amazonaws | aws-java-sdk-datapipeline | 1.11.655 |
com.amazonaws | aws-java-sdk-directconnect | 1.11.655 |
com.amazonaws | aws-java-sdk-directory | 1.11.655 |
com.amazonaws | aws-java-sdk-dynamodb | 1.11.655 |
com.amazonaws | aws-java-sdk-ec2 | 1.11.655 |
com.amazonaws | aws-java-sdk-ecs | 1.11.655 |
com.amazonaws | aws-java-sdk-efs | 1.11.655 |
com.amazonaws | aws-java-sdk-elasticache | 1.11.655 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.655 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.655 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.655 |
com.amazonaws | aws-java-sdk-emr | 1.11.655 |
com.amazonaws | aws-java-sdk-glacier | 1.11.655 |
com.amazonaws | aws-java-sdk-iam | 1.11.655 |
com.amazonaws | aws-java-sdk-importexport | 1.11.655 |
com.amazonaws | aws-java-sdk-kinesis | 1.11.655 |
com.amazonaws | aws-java-sdk-kms | 1.11.655 |
com.amazonaws | aws-java-sdk-lambda | 1.11.655 |
com.amazonaws | aws-java-sdk-logs | 1.11.655 |
com.amazonaws | aws-java-sdk-machinelearning | 1.11.655 |
com.amazonaws | aws-java-sdk-opsworks | 1.11.655 |
com.amazonaws | aws-java-sdk-rds | 1.11.655 |
com.amazonaws | aws-java-sdk-redshift | 1.11.655 |
com.amazonaws | aws-java-sdk-route53 | 1.11.655 |
com.amazonaws | aws-java-sdk-s3 | 1.11.655 |
com.amazonaws | aws-java-sdk-ses | 1.11.655 |
com.amazonaws | aws-java-sdk-simpledb | 1.11.655 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.655 |
com.amazonaws | aws-java-sdk-sns | 1.11.655 |
com.amazonaws | aws-java-sdk-sqs | 1.11.655 |
com.amazonaws | aws-java-sdk-ssm | 1.11.655 |
com.amazonaws | aws-java-sdk-storagegateway | 1.11.655 |
com.amazonaws | aws-java-sdk-sts | 1.11.655 |
com.amazonaws | aws-java-sdk-support | 1.11.655 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.11.655 |
com.amazonaws | jmespath-java | 1.11.655 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | akış | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo gölgeli | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | Classmate | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.10.0 |
com.fasterxml.jackson.core | jackson-core | 2.10.0 |
com.fasterxml.jackson.core | jackson-databind | 2.10.0 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.10.0 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.10.0 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.10.0 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.10.0 |
com.github.ben-manes.caffeine | Kafein | 2.3.4 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | çekirdek | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-natives | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.joshelser | dropwizard-metrics-hadoop-metrics2-reporter | 0.1.2 |
com.github.luben | zstd-jni | 1.4.4-3 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.2.4 |
com.google.flatbuffers | flatbuffers-java | 1.9.0 |
com.google.guava | Guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 1.4.195 |
com.helger | Profiler | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.microsoft.azure | azure-data-lake-store-sdk | 2.2.8 |
com.microsoft.sqlserver | mssql-jdbc | 8.2.1.jre8 |
com.ning | compress-lzf | 1.0.3 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.9.5 |
com.twitter | chill_2.12 | 0.9.5 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.univocity | univocity-ayrıştırıcıları | 2.8.3 |
com.zaxxer | HikariCP | 3.1.0 |
commons-beanutils | commons-beanutils | 1.9.4 |
commons-cli | commons-cli | 1.2 |
commons-codec | commons-codec | 1.10 |
commons-collections | commons-collections | 3.2.2 |
commons-configuration | commons-configuration | 1.6 |
commons-dbcp | commons-dbcp | 1.4 |
commons-digester | commons-digester | 1.8 |
commons-fileupload | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.4 |
commons-lang | commons-lang | 2,6 |
commons-logging | commons-logging | 1.1.3 |
commons-net | commons-net | 3.1 |
commons-pool | commons-pool | 1.5.4 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0.10 |
io.dropwizard.metrics | metrics-core | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metrics-healthchecks | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | metrics-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | metrics-servlets | 4.1.1 |
io.netty | netty-all | 4.1.47.Final |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | etkinleştirme | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.servlet | javax.servlet-api | 3.1.0 |
javax.servlet.jsp | jsp-api | 2.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.2 |
javax.xml.stream | stax-api | 1.0-2 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.5 |
log4j | apache-log4j-extras | 1.2.17 |
log4j | log4j | 1.2.17 |
net.razorvine | pirolit | 4.30 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | süper csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.12.0 |
net.snowflake | spark-snowflake_2.12 | 2.5.9-spark_2.4 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.7.1 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | ok biçimi | 0.15.1 |
org.apache.arrow | ok-bellek | 0.15.1 |
org.apache.arrow | ok-vektör | 0.15.1 |
org.apache.avro | avro | 1.8.2 |
org.apache.avro | avro-ipc | 1.8.2 |
org.apache.avro | avro-mapred-hadoop2 | 1.8.2 |
org.apache.commons | commons-compress | 1.8.1 |
org.apache.commons | commons-crypto | 1.0.0 |
org.apache.commons | commons-lang3 | 3.9 |
org.apache.commons | commons-math3 | 3.4.1 |
org.apache.commons | commons-text | 1.6 |
org.apache.curator | curator-client | 2.7.1 |
org.apache.curator | küratör çerçevesi | 2.7.1 |
org.apache.curator | curator-recipes | 2.7.1 |
org.apache.derby | Derby | 10.12.1.1 |
org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
org.apache.directory.api | api-util | 1.0.0-M20 |
org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
org.apache.hadoop | hadoop ek açıklamaları | 2.7.4 |
org.apache.hadoop | hadoop-auth | 2.7.4 |
org.apache.hadoop | hadoop-client | 2.7.4 |
org.apache.hadoop | hadoop-common | 2.7.4 |
org.apache.hadoop | hadoop-hdfs | 2.7.4 |
org.apache.hadoop | hadoop-mapreduce-client-app | 2.7.4 |
org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.4 |
org.apache.hadoop | hadoop-mapreduce-client-core | 2.7.4 |
org.apache.hadoop | hadoop-mapreduce-client-jobclient | 2.7.4 |
org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.4 |
org.apache.hadoop | hadoop-yarn-api | 2.7.4 |
org.apache.hadoop | hadoop-yarn-client | 2.7.4 |
org.apache.hadoop | hadoop-yarn-common | 2.7.4 |
org.apache.hadoop | hadoop-yarn-server-common | 2.7.4 |
org.apache.hive | hive-beeline | 2.3.7 |
org.apache.hive | hive-cli | 2.3.7 |
org.apache.hive | hive-common | 2.3.7 |
org.apache.hive | hive-exec-core | 2.3.7 |
org.apache.hive | hive-jdbc | 2.3.7 |
org.apache.hive | hive-llap-client | 2.3.7 |
org.apache.hive | hive-llap-common | 2.3.7 |
org.apache.hive | hive-meta veri deposu | 2.3.7 |
org.apache.hive | hive-serde | 2.3.7 |
org.apache.hive | hive-shims | 2.3.7 |
org.apache.hive | hive-storage-api | 2.7.1 |
org.apache.hive | hive-vector-code-gen | 2.3.7 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.7 |
org.apache.hive.shims | hive-shims-common | 2.3.7 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.7 |
org.apache.htrace | htrace-core | 3.1.0-incubating |
org.apache.httpcomponents | httpclient | 4.5.6 |
org.apache.httpcomponents | httpcore | 4.4.12 |
org.apache.ivy | sarmaşık | 2.4.0 |
org.apache.orc | orc-core | 1.5.10 |
org.apache.orc | orc-mapreduce | 1.5.10 |
org.apache.orc | orc-shims | 1.5.10 |
org.apache.parquet | parquet-column | 1.10.1.2-databricks4 |
org.apache.parquet | parquet-common | 1.10.1.2-databricks4 |
org.apache.parquet | parquet kodlaması | 1.10.1.2-databricks4 |
org.apache.parquet | parquet biçimi | 2.4.0 |
org.apache.parquet | parquet-hadoop | 1.10.1.2-databricks4 |
org.apache.parquet | parquet-jackson | 1.10.1.2-databricks4 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.velocity | hız | 1.5 |
org.apache.xbean | xbean-asm7-shaded | 4.15 |
org.apache.yetus | hedef kitle ek açıklamaları | 0.5.0 |
org.apache.zookeeper | zookeeper | 3.4.14 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-jaxrs | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.jackson | jackson-xc | 1.9.13 |
org.codehaus.janino | commons-derleyici | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-continuation | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-http | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-io | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-jndi | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-plus | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-proxy | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-security | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-server | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-servlet | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-servlets | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-util | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-webapp | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-xml | 9.4.18.v20190429 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-bulucu | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.30 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.30 |
org.glassfish.jersey.core | jersey-client | 2.30 |
org.glassfish.jersey.core | jersey-common | 2.30 |
org.glassfish.jersey.core | jersey-server | 2.30 |
org.glassfish.jersey.inject | jersey-hk2 | 2.30 |
org.glassfish.jersey.media | jersey-media-jaxb | 2.30 |
org.hibernate.validator | hibernate-validator | 6.1.0.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss günlüğü | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.6.6 |
org.json4s | json4s-core_2.12 | 3.6.6 |
org.json4s | json4s-jackson_2.12 | 3.6.6 |
org.json4s | json4s-scalap_2.12 | 3.6.6 |
org.lz4 | lz4-java | 1.7.1 |
org.mariadb.jdbc | mariadb-java-client | 2.1.2 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.1.4 |
org.roaringbitmap | RoaringBitmap | 0.7.45 |
org.roaringbitmap | dolgular | 0.7.45 |
org.rocksdb | rocksdbjni | 6.2.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.10 |
org.scala-lang | scala-library_2.12 | 2.12.10 |
org.scala-lang | scala-reflect_2.12 | 2.12.10 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.1.1 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test arabirimi | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1.0 |
org.scalanlp | breeze_2.12 | 1.0 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.30 |
org.slf4j | jul-to-slf4j | 1.7.30 |
org.slf4j | slf4j-api | 1.7.30 |
org.slf4j | slf4j-log4j12 | 1.7.30 |
org.spark-project.spark | Kullanılma -yan | 1.0.0 |
org.springframework | spring-core | 4.1.4.RELEASE |
org.springframework | spring-test | 4.1.4.RELEASE |
org.threeten | threeten-extra | 1.5.0 |
org.tukaani | Xz | 1.5 |
org.typelevel | algebra_2.12 | 2.0.0-M2 |
org.typelevel | cats-kernel_2.12 | 2.0.0-M4 |
org.typelevel | machinist_2.12 | 0.6.8 |
org.typelevel | macro-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0-M1 |
org.typelevel | spire-platform_2.12 | 0.17.0-M1 |
org.typelevel | spire-util_2.12 | 0.17.0-M1 |
org.typelevel | spire_2.12 | 0.17.0-M1 |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.7.5 |
org.yaml | snakeyaml | 1,24 |
Oro | Oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.ion | ion-java | 1.0.2 |
Stax | stax-api | 1.0.1 |
xmlenc | xmlenc | 0,52 |