Not
Bu sayfaya erişim yetkilendirme gerektiriyor. Oturum açmayı veya dizinleri değiştirmeyi deneyebilirsiniz.
Bu sayfaya erişim yetkilendirme gerektiriyor. Dizinleri değiştirmeyi deneyebilirsiniz.
Note
Bu Databricks Runtime sürümü desteği sona erdi. Destek sonu tarihi için bkz . Destek sonu geçmişi. Desteklenen tüm Databricks Runtime sürümlerini görmek için Databricks Runtime sürüm notları, versiyonlar ve uyumluluk kısmına bakınız.
Aşağıdaki sürüm notları, Apache Spark 3.5.0 tarafından desteklenen Databricks Runtime 16.1 hakkında bilgi sağlar.
Databricks bu sürümü Aralık 2024'te yayımladı.
Davranış değişiklikleri
Önemli değişiklik: Photon düzenli ifade işleme artık Apache Spark ile tutarlı
Databricks Runtime 15.4 ve üzerinde, Photon'daki normal ifade işleme, Apache Spark normal ifade işleme davranışıyla eşleşecek şekilde güncelleştirilir. Daha önce, split() ve regexp_extract()gibi Photon tarafından çalıştırılan normal ifade işlevleri Spark ayrıştırıcısı tarafından reddedilen bazı normal ifadeleri kabul etti. Apache Spark ile tutarlılığı korumak için Artık Spark'ın geçerli olmadığını düşündüğü normal ifadelerde Foton sorguları başarısız olur.
Bu değişiklik nedeniyle Spark kodunuz geçersiz normal ifadeler içeriyorsa hatalar görebilirsiniz. Örneğin, eşleşmeyen bir ayraç içeren ve daha önce Photon tarafından kabul edilen split(str_col, '{') ifadesi artık çalışmıyor. Bu ifadeyi düzeltmek için küme ayracı karakterini es geçebilirsiniz: split(str_col, '\\{').
Photon ve Spark davranışı, ASCII olmayan karakterlerin bazı normal ifade eşleştirmeleri için de farklılık gösterir. Bu, Photon'un Apache Spark davranışıyla eşleşmesi için de güncelleştirilir.
VARIANT veri türü artık karşılaştırma gerektiren işlemlerle kullanılamaz
Databricks Runtime 16.1 ve üzerinde, VARIANT veri türü içeren sorgularda aşağıdaki yan tümceleri veya işleçleri kullanamazsınız:
DISTINCTINTERSECTEXCEPTUNIONDISTRIBUTE BY
Ayrıca, şu DataFrame işlevlerini kullanamazsınız:
df.dropDuplicates()df.repartition()
Bu işlemler karşılaştırma yapar ve VARIANT veri türünü kullanan karşılaştırmalar tanımlanmamış sonuçlar üretir. Bu durum Databricks'te desteklenmez. Azure Databricks iş yüklerinizde veya tablolarınızda VARIANT türünü kullanıyorsanız Databricks aşağıdaki değişiklikleri önerir:
-
VARIANTdeğerleriVARIANTolmayan veri türlerine açıkça aktarmak için sorguları veya ifadeleri güncelleştirin. - Yukarıdaki işlemlerden herhangi biriyle kullanılması gereken alanlarınız varsa, bu alanları
VARIANTveri türünden ayıklayın veVARIANTolmayan veri türlerini kullanarak depolayın.
Daha fazla bilgi edinmek için bkz. Query variant data.
Yeni özellikler ve geliştirmeler
- BigQuery bağlayıcısı yükseltmesi
- Apache Spark'ta harmanlamalar için destek Genel Önizlemede
- Delta Lake'teki sıralamalar için destek genel önizlemede.
- Vakum için
LITEmodu, Genel Önizleme modundadır -
USE CATALOG with IDENTIFIERyan tümcesini parametreleştirme desteği - tablolar ve görünümler için COMMENT ONCOLUMN desteği
- Yeni SQL işlevleri
- Daha Fazla İşlev İçin Adlandırılmış Parametre Çağrısı
-
SYNC METADATAkomutundaki REPAIR TABLE parametresi, Hive meta veri deposu ile desteklenir. - Sıkıştırılmış Apache Arrow partileri için gelişmiş veri bütünlüğü
- Scala yöntemleri için destek, Unity Catalog standart erişim modu işlem birimlerine (eski adıyla paylaşılan erişim modu) eklendi.
- Yerleşik Teradata JDBC Sürücüsü
- Scala için StreamingQueryListener desteği
- Yerleşik Oracle JDBC Sürücüsü
- Yollarla erişilen Delta tabloları için daha detaylı hatalar
BigQuery bağlayıcısı yükseltmesi
Google BigQuery bağlayıcısı, açık kaynak Spark-BigQuery bağlayıcısının 0.41.0 sürümünü kullanacak şekilde yükseltildi.
Lakehouse Federation için Google BigQuery bağlayıcısı artık JDBC sürücüsü yerine BigQuery Depolama API'sini kullanıyor. Bu geçiş JDBC sürücüsüyle ilgili performans sorunlarını çözer ve açık kaynak Spark-BigQuery bağlayıcısını temel alır.
Bu değişiklikle, BigQuery görünümleri ve dış tablolar için ara sorgu sonuçları geçici tablolara yazılmalıdır. Bu nesneler doğrudan BigQuery depolama alanında depolanmaz. Geçici tablolar BigQuery faturalama projenizde depolanır. BigQuery hizmet hesaplarınızda uygun izinlerin ayarlandığını doğrulayın. Ayrıntılar için bkz. Google BigQuery'de federasyon sorguları çalıştırma.
Apache Spark'ta harmanlama desteği Genel Önizlemede
Artık STRING sütunlara ve ifadelere dile duyarlı, büyük/küçük harfe duyarlı olmayan ve erişime duyarsız harmanlamalar atayabilirsiniz. Bu harmanlamalar dize karşılaştırmalarında, sıralama, gruplandırma işlemlerinde ve birçok dize işlevinde kullanılır. Bkz. harmanlama.
Delta Lake'te harmanlama desteği Genel Önizlemede
Artık Delta tablosu oluştururken veya değiştirirken sütunlar için harmanlamalar tanımlayabilirsiniz. Delta Lakeiçin
Vakum için LITE modu Genel Önizleme'de
Artık delta işlem günlüğündeki meta verilerden yararlanan daha hafif bir vakum işlemi gerçekleştirmek için VACUUM table_name LITE kullanabilirsiniz. Bkz. Kapsamlı ve hafif mod ve VACUUM.
USE CATALOG with IDENTIFIER yan tümcesini parametreleştirme desteği
Databricks Runtime 16.1 ve üstü sürümlerde, IDENTIFIER yan tümcesiUSE CATALOG deyimi için desteklenmektedir. Bu destekle, geçerli kataloğu bir dize değişkenine veya parametre işaretçisine göre parametreleştirebilirsiniz.
Tablolar ve görünümler için COMMENT ONCOLUMN desteği
Databricks Runtime 16.1 ve üzeri sürümlerde, COMMENT ON deyimi görünüm ve tablo sütunları için açıklamaları değiştirmeyi destekler.
Yeni SQL işlevleri
Databricks Runtime 16.1 ve üzeri sürümlerde aşağıdaki yeni yerleşik SQL işlevleri kullanılabilir:
- dayname(expr) verilen tarih için haftanın günü için üç harfli İngilizce kısaltmasını döndürür.
- uniform(expr1, expr2 [,seed]) belirtilen sayı aralığında bağımsız ve aynı şekilde dağıtılmış değerlerle rastgele bir değer döndürür.
-
randstr(uzunluk)
lengthalfasayısal karakterden oluşan rastgele bir dize döndürür.
Daha fazla işlev için adlandırılmış parametre çağırma
Databricks Runtime 16.1 ve sonraki sürümlerde, aşağıdaki işlevler adıyla parametre çağırmayadestek verir:
SYNC METADATA komutuna REPAIR TABLE parametresi Hive meta veri deposu ile desteklenir
Databricks Runtime 16.1 ve sonrası sürümlerde, Hive metastore tarafından yönetilen tablonun meta verilerini güncellemek için SYNC METADATA komutuyla REPAIR TABLE parametresini kullanabilirsiniz. Bkz. REPAIR TABLE.
Sıkıştırılmış Apache Arrow kümeleri için gelişmiş veri bütünlüğü
Databricks Runtime 16.1 ve üzeri sürümlerde, veri bozulmasına karşı daha fazla koruma sağlamak için LZ4 sıkıştırılmış her Arrow paketi artık LZ4 içeriğini ve blok kontrol toplamlarını içerir. bkz. LZ4 Çerçeve Biçimi Açıklaması.
Unity Kataloğu standart erişim modunda hesaplama (eski adıyla paylaşılan erişim modu) üzerinde Scala yöntemleri için destek eklendi
Databricks Runtime 16.1 ve sonraki sürümleri için Unity Kataloğu standart erişim modu işlemine şu Scala yöntemleri için destek eklenir: Dataset.flatMapGroups(), Dataset.mapGroups()ve DataStreamWriter.foreach().
Yerleşik Teradata JDBC Sürücüsü
Databricks Runtime 16.1 ve üzerinde Teradata JDBC Sürücüsü, Azure Databricks'te yerleşik olarak bulunur.
DriverManageraracılığıyla müşteri tarafından yüklenen bir JDBC sürücüsü JAR kullanıyorsanız, özel JAR'yi açıkça kullanmak için betikleri yeniden yazmanız gerekir. Aksi takdirde yerleşik sürücü kullanılır. Bu sürücü yalnızca Lakehouse Federasyonu'nü destekler. Diğer kullanım örnekleri için kendi sürücünüzü sağlamanız gerekir.
Scala için StreamingQueryListener desteği
Artık standart erişim moduyla yapılandırılmış işlemde Scala'da StreamingQueryListener kullanabilirsiniz.
Yerleşik Oracle JDBC Sürücüsü
Databricks Runtime 16.1 ve üzerinde Oracle JDBC Sürücüsü Azure Databricks'te yerleşik olarak bulunur.
DriverManageraracılığıyla müşteri tarafından yüklenen bir JDBC sürücüsü JAR kullanıyorsanız, özel JAR'yi açıkça kullanmak için betikleri yeniden yazmanız gerekir. Aksi takdirde yerleşik sürücü kullanılır. Bu sürücü yalnızca Lakehouse Federasyonu'nü destekler. Diğer kullanım örnekleri için kendi sürücünüzü sağlamanız gerekir.
Yollar aracılığıyla erişilen Delta tablolarında daha ayrıntılı hata açıklamaları
Yollar kullanılarak erişilen Delta tabloları için yeni bir hata iletisi deneyimi kullanıma sunuldu. Tüm özel durumlar artık kullanıcıya iletilir. Özel durum DELTA_MISSING_DELTA_TABLE artık temel alınan dosyaların Delta tablosu olarak okunamadığı durumlar için ayrılmıştır.
Diğer değişiklikler
cloudFiles Yapılandırılmış Akış kaynağı için yeniden adlandırılan hata kodları
Bu sürüm, aşağıdaki hata kodlarını yeniden adlandırmak için bir değişiklik içerir:
-
_LEGACY_ERROR_TEMP_DBR_0143CF_INCORRECT_STREAM_USAGEolarak yeniden adlandırılır. -
_LEGACY_ERROR_TEMP_DBR_0260CF_INCORRECT_BATCH_USAGEolarak yeniden adlandırılır.
Hata düzeltmeleri
İç içe türler artık NULL kısıtlamalarını düzgün bir şekilde kabul ediyor
Bu sürüm, örneğin, STRUCTgibi iç içe yerleştirilmiş türlerdeki Delta ile oluşturulan bazı sütunları etkileyen bir hatayı düzeltir. Bu sütunlar bazen iç içe alanların NULL veya NOT NULL kısıtlamalarına göre ifadeleri yanlış reddeder. Bu durum düzeltildi.
Kitaplık yükseltmeleri
- Yükseltilen Python kitaplıkları:
- 0.0.198 ile 0.0.201 arası ipyflow-core
- pyccolo 0.0.52'den 0.0.65'e
- Güncellenmiş R kütüphaneleri:
- Yükseltilen Java kitaplıkları:
- 1.2.1 ile 1.2.2 arasındaki io.delta.delta-sharing-client_2.12
- org.lz4.lz4-java 1.8.0'dan 1.8.0-databricks-1'e
- software.amazon.cryptools.AmazonCorrettoCryptoProvider sürümü 1.6.2-linux-x86_64'dan 2.4.1-linux-x86_64'e güncellendi
Apache Spark
Databricks Runtime 16.1, Apache Spark 3.5.0'ı içerir. Bu sürüm , Databricks Runtime 16.0'a (EoS) dahil olan tüm Spark düzeltmeleri ve iyileştirmelerinin yanı sıra Spark'ta yapılan aşağıdaki ek hata düzeltmelerini ve iyileştirmeleri içerir:
-
[SPARK-50482] [SC-182879][core] Kullanım dışı bırakılan no-op
spark.shuffle.spillyapılandırma - [SPARK-50032] [SC-182706][sql][16.x] Tam nitelikli harmanlama adının kullanımına izin ver
-
[SPARK-50467] [SC-182823][python] Yerleşik işlevler için
__all__ekleme - [SPARK-48898] [SC-182828][sql] Değişken parçalama hatasını düzeltme
- [SPARK-50441] [SC-182668][sql] CTA'lara başvururken parametrized tanımlayıcıların çalışmaması düzeltildi
- [SPARK-50446] [SC-182639][python] Arrow ile iyileştirilmiş Python UDF'de eşzamanlılık seviyesi
- [SPARK-50430] [SC-182536][core] El ile kopyalama yerine standart Properties.clone kullanın
- [SPARK-50471] [SC-182790][Python] Arrow tabanlı Python Veri Kaynağı Yazıcı desteği
- [SPARK-50466] [SC-182791][python] Dize işlevleri için belge dizesini daraltma - bölüm 1
- [SPARK-50194] [DBR16.x][sc-182593][SS][python] Yeni Zamanlayıcı API'si ve İlk Durum API'sinin Zamanlayıcı ile Entegrasyonu
- [SPARK-50437] [SC-182586][ss] TransformWithStateExec'te seri durumdan çıkarıcı oluşturma yükünü azaltma
- [SPARK-49676] [DBR16.x][sc-182538][SS][python] Chaining o... için destek ekle
- [SPARK-49294] [SC-182730][ui] Karıştırma-yazma zamanı onay kutusu için genişlik özniteliği ekleyin.
- [SPARK-50426] [SC-182540][python] Yerleşik veya Java veri kaynaklarını kullanırken statik Python veri kaynağı aramasından kaçının
- [SPARK-48356] [SC-182603][sql] FOR deyimi desteği
-
[SPARK-50333] [SC-182136][sql]
CsvToStructsiçin Codegen Desteği (Invoke & RuntimeReplaceable) - [SPARK-50285] [SC-182575] StagedTable örneklerine yapılan taahhütler için ölçümler
-
[SPARK-50081] [SC-182344][sql]
XPath*için Kod Üretme Desteği (Invoke & RuntimeReplaceable tarafından) - [SPARK-50440] [SC-182592] [SQL] AttributeSeq.resolveCandidates'ı Yeniden Düzenle
- [SPARK-50067] [SC-179648][sql] SchemaOfCsv için Codegen Desteği(Invoke & RuntimeReplaceable)
- [SPARK-49873] [SC-178577][sql] hata testinde birleştirme sonrası hata düzeltildi
- [SPARK-50118] [SC-181259][connet] Görevler çalışırken yalıtılmış durum önbelleğini sıfırlama
- [SPARK-49873] [SC-178577][sql] _LEGACY_ERROR_TEMP_1325 için düzgün hata sınıfı atama
-
[SPARK-50381] [SC-182197][core] Destek
spark.master.rest.maxThreads - [SPARK-46725] [SC-182448][sql] ADD DAYNAME işlevi
- [SPARK-50270] [SC-181179][ss][PYTHON] TransformWithStateInPandas için özel durum ölçümleri eklendi
- [SPARK-50118] "[SC-181259][connet] Görevler çalışırken yalıtılmış durum önbelleğini sıfırla" geri al
- [SPARK-50075] [SC-181820][sql][PYTHON][connect] Tablo değerli işlevler için DataFrame API'leri ekleme
- [SPARK-49470] [SC-175736][ui] DataTables stil sayfalarını ve javascript'leri 1.13.5'ten 1.13.11'e güncelleştirme
- [SPARK-50235] Revert "[SC-180786][sql] ColumnarToRowExec içindeki tüm satırları işledikten sonra ColumnVector kaynağını temizleyin"
-
[SPARK-50324] [SC-182278][python][CONNECT]
createDataFrametetikleyicisini en fazla bir kere çalıştırarakConfigRPC başlatma - [SPARK-50387] [SC-182441][ss] Zamanlayıcı süre sonu ve ilgili test için güncelleştirme koşulu
- [SPARK-50287] [SC-182400][sql] FileTable'da WriteBuilder oluştururken tablo ve ilişki birleştirme seçenekleri
-
[SPARK-50066] [SC-181484][sql]
SchemaOfXmliçin Codegen Desteği (Invoke & RuntimeReplaceable tarafından) - [SPARK-50092] [SC-181568][sql] Çok boyutlu diziler için PostgreSQL bağlayıcı davranışını düzeltme
- [SPARK-50318] [SC-181641][sql] Yorumlanan ve otomatik kod üretimi arasındaki kodun yinelenen bölümlerini kaldırmak için IntervalUtils.makeYearMonthInterval ekleme
- [SPARK-50312] [SC-181646][sql] Kerberos etkin olduğunda SparkThriftServer createServer parametresi aktarımı hatası
-
[SPARK-50246] [SC-181468][sql]
_LEGACY_ERROR_TEMP_2167için uygun hata koşulu atayın:INVALID_JSON_RECORD_TYPE - [SPARK-50214] [SC-180692][sql] Json/xml, verilen şemadaki sıraları değiştirmemelidir.
-
[SPARK-50250] [SC-181466][sql]
_LEGACY_ERROR_TEMP_2075için uygun hata koşulu atayın:UNSUPPORTED_FEATURE.WRITE_FOR_BINARY_SOURCE -
[SPARK-50248] [SC-181467][sql]
_LEGACY_ERROR_TEMP_2058için uygun hata koşulu atama:INVALID_PARTITION_VALUE - [SPARK-50118] [SC-181259][connet] Görevler çalışırken yalıtılmış durum önbelleğini sıfırlama
- [SPARK-50235] [SC-180786][sql] ColumnarToRowExec içindeki tüm satırları işledikten sonra ColumnVector kaynağını temizleme
-
[SPARK-50156] [SC-180781][sql]
_LEGACY_ERROR_TEMP_2113UNRECOGNIZED_STATISTICile tümleştirme -
[SPARK-50069] [SC-180163][sql]
_LEGACY_ERROR_TEMP_0028UNSUPPORTED_FROM_TO_EXPRESSIONile tümleştirme -
[SPARK-50154] [SC-180663][sql]
_LEGACY_ERROR_TEMP_0043için uygun hata koşulu atayın:INVALID_RESET_COMMAND_FORMAT -
[SPARK-49967] [SC-179534][sql]
StructsToJsoniçin Codegen Desteği (to_json) - [SPARK-50055] [SC-180978][sql] TryMakeInterval alternatifini ekle
-
[SPARK-50397] [SC-182367][core] Eskimiş
--ipve-ibağımsız değişkenleriniMaster/Worker'ten kaldırma - [SPARK-50238] [SC-181434][python] PySpark UDF/UDF/UDAF ve Python UC UDF'lerinde Değişken Desteği Ekleme
-
[SPARK-50079] [SC-179830][sql]
_LEGACY_ERROR_TEMP_2013için uygun hata koşulu atayın:NEGATIVE_VALUES_IN_FREQUENCY_EXPRESSION -
[SPARK-50182] [SC-180346][örnek]
submit-sql.shREST API örneği ekleme -
[SPARK-49966] [SC-179501][sql]
Invokeuygulamak içinJsonToStructskullanma (from_json) - [SPARK-50302] [SC-182518][ss] TTL ile TransformWithState durum bilgisi olan değişkenler için ikincil dizin boyutlarının birincil dizin boyutlarına eşit olduğundan emin olun
- [SPARK-50301] [SC-182241][ss][16.x] TransformWithState ölçümlerinin sezgisel anlamlarını yansıtmasını sağlama
- [SPARK-50175] [SC-182140][sql] Harmanlama önceliği hesaplamasını değiştirme
-
[SPARK-50148] [SC-180292][sql]
StaticInvoke'yi istisna atan yöntemle uyumlu hale getir -
[SPARK-50280] [SC-181214][python]
compute_hist'da sonuç sıralamayı ve boş bölme doldurmayı yeniden düzenleme - [SPARK-50190] [SC-182458][python] Histogramdan Numpy'nin doğrudan bağımlılığını kaldırma
- [SPARK-50382] [SC-182368][connect] Spark Connect ile uygulama geliştirme/genişletme hakkında genel bilgi için belgeler ekleme
- [SPARK-50296] [SC-181464][python][CONNECT] Python Connect istemcisi için threadpool'da sınıf özelliği kullanmaktan kaçının
- [SPARK-49566] [SC-182239][sql] EXTEND işleci için SQL kanal söz dizimi ekleme
- [SPARK-50036] [SC-179533][core][PYTHON] REPL kabuğu bağlamına SPARK_LOG_SCHEMA'yı dahil etme
- [SPARK-49859] [SC-178259][connect] multiprocessing.ThreadPool'u, ThreadPoolExecutor ile değiştir
-
[SPARK-50141] [SC-182378][python]
lpadverpad'ün Sütun türü bağımsız değişkenleri kabul etmesini sağla - [SPARK-50379] [SC-182142][sql] WindowExecBase'de DayTimeIntevalType işlemeyi düzeltme
- [SPARK-49954] [SC-179110][sql] SchemaOfJson için Codegen Desteği (Invoke & RuntimeReplaceable)
-
[SPARK-50398] [SC-182341][core] Spark betiklerinde
0kullanımı için ExitCode--helpkullanma - [SPARK-50377] [SC-182238][sql] Derlenebilir RuntimeReplaceable değerlendirilebilmesine izin ver
- [SPARK-50241] [SC-181444][sql] NullIntolerant Mixin'i Expression.nullIntolerant yöntemiyle değiştirme
-
[SPARK-50084] [SC-179672][sql]
_LEGACY_ERROR_TEMP_3168için uygun hata koşulu atayın:MISSING_TIMEOUT_CONFIGURATION -
[SPARK-50078] [SC-179649][sql]
_LEGACY_ERROR_TEMP_0038için uygun hata koşulu atayın:DUPLICATED_CTE_NAMES -
[SPARK-50057] [SC-179573][sql]
_LEGACY_ERROR_TEMP_1049için uygun hata koşulu atayın:INVALID_ATTRIBUTE_NAME_SYNTAX -
[SPARK-50070] [SC-179579][sql]
_LEGACY_ERROR_TEMP_0039UNSUPPORTED_SQL_STATEMENTile tümleştirme - [SPARK-50378] [SC-182235][ss] transformWithState'teki işlem ilk durumu için harcama takibi amacıyla özel bir metrik ekleme
-
[SPARK-50029] [SC-179531][sql]
StaticInvokeAnydöndüren yöntemle uyumlu hale getirme -
[SPARK-49990] [SC-179497][sql] Performansını iyileştir
randStr -
[SPARK-50048] [SC-179528][sql]
_LEGACY_ERROR_TEMP_2114için uygun hata koşulu atayın:UNRECOGNIZED_STATISTIC -
[SPARK-50053] [SC-179532][sql]
_LEGACY_ERROR_TEMP_2104'yiINTERNAL_ERROR'e dönüştür - [SPARK-49665] [SC-180054][sql] Dize işlevleri için harmanlama desteğini kırp
-
[SPARK-48549] [SC-176472][sql][PYTHON] SQL işlevini geliştirme
sentences -
[SPARK-50022] [SC-179503][core][UI] Kullanıcı arabirimi devre dışı bırakıldığında Uygulama Kullanıcı Arabirimi bağlantılarını gizlemek için
MasterPagedüzeltme - [SPARK-50087] [SC-182152] MsSqlServer ve gelecekteki bağlayıcılar için CASE WHEN'da boole ifadelerinin sağlam işlenmesi
- [SPARK-49991] [SC-179481][sql] Dosya adları oluşturmak için HadoopMapReduceCommitProtocol'a 'mapreduce.output.basename' saygısını sağlayın
-
[SPARK-50038] [SC-179521][sql]
_LEGACY_ERROR_TEMP_0008için uygun hata koşulu atayın:MERGE_WITHOUT_WHEN -
[SPARK-50236] [SC-181671][sql]
_LEGACY_ERROR_TEMP_1156için uygun hata koşulu atayın:COLUMN_NOT_DEFINED_IN_TABLE -
[SPARK-50021] [SC-179500][core][UI]
ApplicationPagedüzenlemesi ile kullanıcı arabirimi devre dışı bırakıldığında uygulama kullanıcı arabirimi bağlantılarını gizle. - [SPARK-49911] [SC-179111][sql] İkili eşitliği destekleme semantiğini düzeltme
-
[SPARK-50025] [SC-179496][sql]
_LEGACY_ERROR_TEMP_1253EXPECT_VIEW_NOT_TABLEile tümleştirme - [SPARK-49829] [SC-179480][ss] Stream-stream join'te durum deposuna giriş eklemeye ilişkin iyileştirmedeki hatayı düzeltin
-
[SPARK-50004] [SC-179499][sql]
_LEGACY_ERROR_TEMP_3327FIELD_NOT_FOUNDile tümleştirme - [SPARK-50380] [SC-182210][sql] ReorderAssociativeOperator ConstantFolding'deki sözleşmeye saygı duymalıdır
- [SPARK-50340] [SC-181859][sql] INSERT giriş sorgusunda UDT'yi kaldırma
-
[SPARK-50237] [SC-181660][sql]
_LEGACY_ERROR_TEMP_2138-9için uygun hata koşulu atayın:CIRCULAR_CLASS_REFERENCE - [SPARK-50258] [SC-181993][sql] AQE iyileştirmesi sonrasında çıkış sütun sırasının değiştirilmesi sorununu düzeltme
-
[SPARK-49773] [SC-178369][sql] Yanlış saat dilimine sahip
make_timestamp()'dan algılanmayan bir Java özel durumu - [SPARK-49977] [SC-179265][sql] Derin ifade ağaçları için çok sayıda Scala List nesnesi oluşturmamak için yığın tabanlı yinelemeli hesaplama kullanma
-
[SPARK-50153] [SC-181591][sql] Günlüklerin daha net yazdırılmasını sağlamak için
name'aRuleExecutorQueryExecutionMetricsekleyin -
[SPARK-50320] [SC-181668][core]
--remoteuyarısını kaldırarakexperimentalresmi bir seçenek haline getirme - [SPARK-49909] [SC-179492]"[SQL] Bazı ifadelerin güzel adını düzeltme" değişikliğini geri al
- [SPARK-50330] [SC-180720][sc-181764][SQL] Sıralama ve Pencere düğümlerine ipuçları ekleme
- [SPARK-50364] [SC-182003][sql] Row.jsonValue dosyasında LocalDateTime türü için serileştirme uygulama
-
[SPARK-50016] [SC-182139][sql]
_LEGACY_ERROR_TEMP_2067için uygun hata koşulu atayın:UNSUPPORTED_PARTITION_TRANSFORM - [SPARK-49899] [SC-181175][python][SS] TransformWithStateInPandas için deleteIfExists desteği
- [SPARK-49757] [SC-177824][sql] IDENTIFIERSET deyiminde CATALOG ifadesini destekleme
- [SPARK-50315] [SC-181886][sql] V1Fallback yazma işlemleri için özel ölçümleri destekleme
- [SPARK-42838] [SC-181509][sql] Hata sınıfına ad atama _LEGACY_ERROR_TEMP_2000
- [SPARK-50353] [SC-181985][sql] ResolveSQLOnFile dosyasını yeniden düzenleme
- [SPARK-48344] [SC-181967][sql] Execution Framework'un eklenmesi için SQL Betiğini hazırlama
- [SPARK-49345] [SC-174786][connect] Geçerli çalışan Spark Oturumunu kullandığınızdan emin olun
- [SPARK-49925] [SC-178882][sql] Harmanlanmış dizelerle sırayla test ekleme
- [SPARK-50167] [SC-181199][python][CONNECT] PySpark'ın çizim hata iletilerini ve içe aktarmalarını geliştirme
- [SPARK-49368] [SC-174999][connect] Protobuf lite sınıflarına doğrudan erişmekten kaçının
- [SPARK-50056] [SC-181378][sql] ParseUrl için Codegen Desteği (Invoke & RuntimeReplaceable)
- [SPARK-49601] [SC-180770][ss][PYTHON] TransformWithStateInPandas için İlk Durum İşleme desteği
- [SPARK-49908] [SC-178768][sql] _LEGACY_ERROR_TEMP_0044 için uygun hata koşulu atama
- [SPARK-50144] [SC-180307][ss] DSv1 akış kaynaklarıyla ölçüm hesaplama sınırlamasını giderme
- [SPARK-49874] [SC-178303][sql] Kırpma ve ltrim harmanlama tanımlayıcılarını kaldırın.
- [SPARK-49513] [SC-180339][ss] transformWithStateInPandas API'sinde zamanlayıcı desteği eklendi
-
[SPARK-49119] [SC-175607][sql] v1 ile v2 arasında söz dizimi
show columnstutarsızlığını düzeltme -
[SPARK-49206] [SC-173704][core][UI] Ana
Environment Variables'eEnvironmentPagetablosu ekle - [SPARK-49934] [SC-179581][sql] Harmanlanmış haritaya sabit değerle erişmek için örtük dönüştürme ekleme
- [SPARK-50049] [SC-181659][sql] v2 tablosuna yazmada özel sürücü ölçümlerini destekleme
- [SPARK-50171] [SC-180295][python] KDE çizimi için numpy'yi isteğe bağlı yapma
- [SPARK-49962] [SC-179320][sql] AbstractStringTypes sınıf hiyerarşisini basitleştirme
- [SPARK-50226] [SC-181483][sql] Java özel durumlarını yakalamak için MakeDTInterval ve MakeYMInterval'ı düzeltme
- [SPARK-48775] [SC-170801][sql][STS] SQLContext'i STS'de SparkSession ile değiştirme
-
[SPARK-49015] [SC-175688][core] Connect Server saygı göstermelidir
spark.log.structuredLogging.enabled - [SPARK-50327] [SC-181667][sql][16.x] İşlev çözümlemesini tek geçişli Çözümleyicide yeniden kullanılacak şekilde düzenle
- [SPARK-49995] [SC-180762][sql] Daha fazla TVF'ye adlandırılmış bağımsız değişken desteği ekleme
- [SPARK-49268] [SC-174903][core] SHS geçmiş sağlayıcısında kayıt G/Ç özel durumları
- [SPARK-48123] [SC-164989][core] Yapılandırılmış günlükleri sorgulamak için sabit bir tablo şeması sağlama
- [SPARK-49217] [SC-174904][core] UnsafeShuffleWriter'da ayrı arabellek boyutu yapılandırmasının desteklenmesi
- [SPARK-50325] [SC-181664][sql][16.x] Tek geçişli Çözümleyicide tekrar kullanılmak üzere diğer ad çözümlemesini ayırmak
- [SPARK-50322] [SC-181665][sql] Alt sorgudaki parametreli tanımlayıcıyı düzeltme
-
[SPARK-48400] [SC-175283][core]
PrometheusServletDeveloperApiyükseltme - [SPARK-50118] "[SC-181259][connet] Görevler çalışırken yalıtılmış durum önbelleğini sıfırla" geri al
- [SPARK-50306] [SC-181564][python][CONNECT] Spark Connect'te Python 3.13 desteği
- [SPARK-50152] [SC-181264][ss] Durum veri kaynağı okuyucusu ile handleInitialState desteği
- [SPARK-50260] [SC-181271][connect] Spark C'yi yeniden düzenleme ve iyileştirme...
- [SPARK-47591] [SC-163090][sql] Hive-thriftserver: Değişken içeren logInfo'yu yapılandırılmış günlükleme çerçevesine taşıma
-
[SPARK-49312] [SC-174672][python]
assertSchemaEqualiçin hata iletisini iyileştirme -
[SPARK-49439] [SC-175236][sql]
FromProtobuf&ToProtobufifadesinin güzel adını düzeltme - [SPARK-50092] [ES-1258521] Çok boyutlu diziler için PostgreSQL bağlayıcı davranışını düzeltme
- [SPARK-49913] [SC-181565][sql] İç içe etiketlenmiş kapsamlarda benzersiz etiket adları için denetim ekleme
- [SPARK-49563] [SC-181465][sql] WINDOW işleci için SQL kanal söz dizimi ekleme
- [SPARK-49661] [SC-179021][sql] Kesme sıralama eşleştirme ve karşılaştırma işlemini uygulayın.
- [SPARK-38912] [SC-181543][python] classmethod ve property ile ilgili açıklamayı kaldır
- [SPARK-49770] [16.x][sc-179802][SC-179270][ss][RocksDB Sağlamlaştırma] RocksDB SST dosya eşleme yönetimini geliştirme ve mevcut anlık görüntüyle aynı sürümü yeniden yükleme sorununu düzeltme
- [SPARK-49002] "[SC-172846][sql] WAREHOUSE/SCHEMA/TABLE/PARTITION/DIRECTORY'deki geçersiz konumları tutarlı bir şekilde işleme"yi Geri Al
- [SPARK-49668] [SC-178268][sql] Trim harmanlaması için harmanlama anahtarı desteğini uygulama
- [SPARK-50262] [SC-181193][sql] Sıralama düzenini değiştirirken karmaşık türlerin belirtilmesini yasakla
- [SPARK-48898] [SC-181435][sql] Değişken parçalama işlevleri ekleme
- [SPARK-48273] [SC-181381]Revert "[SQL] PlanWithUnresolvedIdentifier'ın geç yeniden yazılmasını düzeltin
-
[SPARK-50222] [SC-180706][core] Destek
spark.submit.appName -
[SPARK-50208] [SC-180662][core] Destek
spark.master.useDriverIdAsAppName.enabled - [SPARK-50224] [SC-180689][sql] IsValidUTF8|ValidateUTF8|TryValidateUTF8|MakeValidUTF8, NullIntolerant olmalıdır.
-
[SPARK-50247] [SC-180962][core]
BLOCK_MANAGER_REREGISTRATION_FAILEDExecutorExitCodeolarak tanımlama -
[SPARK-50282] [SC-181221][ml] Basitleştir
TargetEncoderModel.transform - [SPARK-50112] [SC-180763][sql] TransformWithState işlecinin Avro kodlamasını kullanmasına izin verme
-
[SPARK-50267] [SC-181180][ml] DataFrame API'leriyle
TargetEncoder.fitgeliştirme - [SPARK-37178] [SC-180939][ml] ml.feature'a Hedef Kodlama Ekleme
- [SPARK-50118] [SC-181259][connet] Görevler çalışırken yalıtılmış durum önbelleğini sıfırlama
-
[SPARK-50085] [BEHAVE-176][sc-179809][PYTHON] np.int8 ile
lit(ndarray)yaparken numpy veri türüne uygun hale getir - [SPARK-50256] [SC-181048][sql] Mantıksal planın her iyileştirici kuralından sonra çözümlenip çözümlenmediğini denetlemek için basit doğrulama ekleme
- [SPARK-50196] [SC-180932][connect] Python hata bağlamını düzgün bir bağlam kullanacak şekilde düzeltme
- [SPARK-50274] [SC-181181][core] DirectByteBufferOutputStream'te kullanımdan sonra kapatmaya karşı koruma
- [SPARK-49999] [SC-180063][python][CONNECT] Box, kde ve hist çizimlerinde isteğe bağlı "column" parametresini destekler
- [SPARK-50273] [SC-181178][ss] RocksDB kilidi alma/yayın durumları için günlüklemeyi iyileştirme
- [SPARK-50033] [SC-180720][sc-180659][SQL] Mantıksal Aggregate() düğümüne bir ipucu ekleyin
- [SPARK-50163] [16.x][sc-180201][SC-180664][ss] Tamamlama dinleyicisi nedeniyle RocksDB ekstra acquireLock sürümünü düzeltme
- [SPARK-50253] [SC-180969][ss] Stream-Stream Join desteklenmiyorsa denetim noktası kimliğini getirmemelidir.
-
[SPARK-50255] [SC-180964][python] Gereksiz tür değişimlerinden kaçının
compute_hist -
[SPARK-50228] [SC-180780][sql]
RewriteCollationJoinkuralınıFinishAnalysis'e taşıma - [SPARK-50001] [SC-179524][python][PS][connect] "kesinliği" kutu grafikleri için kwargs'ın bir parçası olacak şekilde ayarlayın.
- [SPARK-49637] [SC-180160][sql] INVALID_FRACTION_OF_SECOND için hata iletisi değiştirildi
- [SPARK-49530] [SC-180658][python] Veri çerçevelerinden etkin oturum alma
-
[SPARK-50195] [SC-180654][core]
StandaloneRestServer'nin doğru bir şekildespark.app.name'üSparkSubmit'e yaymasını sağlamak için düzeltme - [SPARK-50229] [SC-180773] Mantıksal planlama sırasında oluşturulan AttributeReference nesnelerinin ömrünü azaltarak geniş şemalar için sürücüde bellek kullanımını azaltma
-
[SPARK-50231] [SC-180815][python] İşlev
instr'nin Sütunsubstring'ü kabul etmesini sağla - [SPARK-49854] [SC-179812][16.x][SQL] Oturum klonlama sırasında artifact yöneticisini klonlama
-
[SPARK-50219] [SC-180694][sql] Yardımcı yöntemlerin tek geçişli çözümleyicide kullanılabilmesi için
ApplyCharTypePaddingyeniden düzenleme - [SPARK-50077] [SC-179827][sql] Varsayılan tam parametreler desenini önlemeye yardımcı olmak için LogicalRelation için yeni bir desen nesnesi ekleme
- [SPARK-50128] [Backport][16x][SC-180677][ss] Scala'da örtük kodlayıcıları kullanarak durum bilgisi olan işlemci yönetici API'lerinin eklenmesi.
- [SPARK-50061] [SC-179961][sql] Harmanlanmış sütunlar için çözümleme tablosunu etkinleştirme
- [SPARK-49993] [SC-180084][sql] Toplam ve Ortalama için hata iletilerini iyileştirme
- [SPARK-49638] [SC-179665][sql] INVALID_URL'da ANSI yapılandırma önerisini kaldırma
- [SPARK-50204] [SC-180660][sql] Okuma çözümleme yolunu ayırma
- [SPARK-50193] [SC-180651][ss] Zaman modlarını doğrulamak için özel durum işlemeyi düzeltme
-
[SPARK-50179] [SC-180342][core] REST API'de
spark.app.nameözelliğini isteğe bağlı yapma -
[SPARK-50068] [SC-180300][sql] Tek düğümlü dönüştürmeleri ayırmak için
TypeCoercionveAnsiTypeCoercionyeniden yapılandırma - [SPARK-49411] [SC-179483][ss] Sürücü ile durumlu operatörler arasında Durum Deposu Denetim Noktası Kimliğini İletişim Kur.
- [SPARK-50124] [SC-180294][sql] LIMIT/OFFSET veri sıralamasını korumalıdır
- [SPARK-49506] [SC-180165][sql] Katlanabilir dizi için ArrayBinarySearch'i iyileştirme
-
[SPARK-50097] [SC-179908][sql]
_LEGACY_ERROR_TEMP_1248için uygun hata koşulu atayın:ALTER_TABLE_SERDE_FOR_DATASOURCE_TABLE - [SPARK-50071] [SC-180159][sql][PYTHON] try_make_timestamp (_ltz ve _ntz) ve ilgili testleri ekleme
- [SPARK-50054] [SC-180228][python][CONNECT] Histogram çizimlerini destekleme
-
[SPARK-50015] [SC-179964][sql]
_LEGACY_ERROR_TEMP_1125için uygun hata koşulu atayın:MISSING_DATABASE_FOR_V1_SESSION_CATALOG - [SPARK-50155] [SC-180240][3.5] Scala ve java dosyalarını varsayılan klasörlerine taşıma
- [SPARK-49980] [SC-180353][core][SQL] İptal edilen görevlerde kesintinin neden olduğu olası dosya akışı sızıntılarını düzeltme
- [SPARK-49010] [SC-172304][sql][XML] XML şeması duyarlılığı için birim testleri ekleyin
- [SPARK-49562] [SC-180211][sql] Toplama için SQL kanal söz dizimi ekleme
- [SPARK-49663] [SC-180239][sql] Harmanlama ifadelerinde RTRIM önerilerini etkinleştirme
-
[SPARK-48965] [SC-175926][sql] Doğru şemayı kullanın
Dataset#toJSON - [SPARK-48493] [SC-175893][python] İyileştirilmiş performans için Python Veri Kaynağı Okuyucusu'nun doğrudan Ok Batch desteğiyle geliştirilmesi
-
[SPARK-49734] [SC-180226][python] Fonksiyon
seediçinshufflebağımsız değişkeni ekleyin - [SPARK-50174] [16.x][sc-180253][SQL] UnresolvedCatalogRelation çözümlemesini küçümser
- [SPARK-49989] [SC-179512][python][CONNECT] Kde/yoğunluk çizimlerini destekleme
-
[SPARK-49805] [SC-180218][sql][ML] private[xxx] işlevlerini kaldırın
function.scala - [SPARK-49808] [SC-179490][sql] Gecikmeli değerler nedeniyle alt sorgu yürütülmesinde kilitlenme sorununu düzelt
- [SPARK-49929] [SC-180144][python][CONNECT] Destek kutusu çizimleri
-
[SPARK-50008] [SC-179290][ps][CONNECT]
attach_distributed_sequence_column'de gereksiz işlemlerden kaçının - [SPARK-49767] [SC-180161][ps][CONNECT] İç işlev çağrısını yeniden düzenleme
- [SPARK-49683] [SC-178341][sql] Kırpma düzenlemesini blokla
- [SPARK-49939] [SC-178941][sql] json_object_keys için Codegen Desteği (Invoke & RuntimeReplaceable tarafından)
-
[SPARK-50031] [SC-179582][sql]
TryParseUrlifadesini ekleme -
[SPARK-49766] [SC-178933][sql]
json_array_lengthiçin Codegen Desteği (Invoke&RuntimeReplaceable) - [SPARK-50046] [SC-180026][ss] Filigranı hesaplamak için EventTimeWatermark düğümünün kararlı sırasını kullanma
-
[SPARK-49540] [SC-180145][ps]
distributed_sequence_idkullanımını birleştirme - [SPARK-50060] [SC-179965][sql] TypeCoercion ve AnsiTypeCoercion'da farklı harmanlanmış türler arasında dönüştürme devre dışı bırakıldı
- [SPARK-49004] [SC-173244][connect] Sütun API'si iç işlevleri için ayrı kayıt defteri kullanma
- [SPARK-49811] [SC-177888][sql] StringTypeAnyCollation'ı Yeniden Adlandırma
-
[SPARK-49202] [SC-180059][ps] Histogram için
ArrayBinarySearchuygula -
[SPARK-49203] [SC-175734][sql]
java.util.Arrays.binarySearchiçin ifade ekleme -
[SPARK-50034] [SC-179816][core]
SparkUncaughtExceptionHandler'da Yakalanmayan Özel Durumlar Olarak Önemli Hataların Yanlış Raporlanması Düzeltildi - [SPARK-50093] [SC-179836][sql] ICU kullanan harmanlamalar, kullanılan ICU kitaplığının sürümüne sahip olmalıdır
- [SPARK-49985] [SC-179644][sql] Variant'da aralık türleri desteğini kaldırma
-
[SPARK-49103] [SC-173066][core] Destek
spark.master.rest.filters - [SPARK-50090] [SC-179819] Tek düğümlü dönüştürmeyi ayırmak için ResolveBinaryArithmetic'i yeniden düzenleme
-
[SPARK-49902] [SC-179650][sql]
RegExpReplace'da temel çalışma zamanı hatalarını yakalama -
[SPARK-49126] [SC-173342][core] Yapılandırma tanımını
spark.history.ui.maxApplicationsHistory.scalataşıma - [SPARK-50094] [SC-179820][python][CONNECT] Satır numarası olmayan düzenleyicilerde bellek profili oluşturucu kullanılırken daha iyi hata iletisi
-
[SPARK-50062] [SC-179835][sql]
InSettarafından desteklenen harmanlamalar - [SPARK-50035] [Backport][16x][SC-179530][ss] Durum bilgisi olan işlemcinin belirgin handleExpiredTimer işlevi bölümü için destek eklendi.
- [SPARK-49982] [SC-179814][sql] InMemoryRelation'da negatif önbelleğe almayı düzeltme
-
[SPARK-49082] [SC-173350][sql]
AvroDeserializer'da tür yükseltmelerini genişletme -
[SPARK-50088] [SC-179680][sql] Yeniden düzenleme
UnresolvedStarBase.expand - [SPARK-49802] [SC-179482][ss] Durum bilgisi olan işlemcilerde kullanılan harita ve liste türleri için okuma değişiklik akışı desteği eklendi
- [SPARK-49846] [SC-179506][ss] TransformWithState işleciyle kullanılmak üzere numUpdatedStateRows ve numRemovedStateRows göstergelerini ekle.
- [SPARK-50050] [SC-179643][python][CONNECT][16.x] Lit'in str ve bool türünde numpy ndarray kabul etmesini sağla
- [SPARK-49821] [SC-179527][ss][PYTHON] TransformWithStateInPandas için MapState ve TTL desteği uygulama
- [SPARK-49558] [SC-179485][sql] LIMIT/OFFSET ve ORDER/SORT/CLUSTER/DISTRIBUTE BY için SQL kanalı söz dizimi ekleme
-
[SPARK-48144] [SC-165725][lc-4080][SQL]
canPlanAsBroadcastHashJoinkarıştırma birleştirme ipuçlarını dikkate alacak şekilde düzeltildi. -
[SPARK-50051] [SC-179571][python][CONNECT]
litboş numpy ndarray ile çalışabilir hale getirme - [SPARK-50018] [SC-179488][sql] AbstractStringType'ı serileştirilebilir hale getirme
- [SPARK-50016] [SC-179491][sql] Açık harmanlama uyuşmazlığı hatasını iyileştirme
- [SPARK-50010] [SC-179487][sql] Örtük sıralama uyuşmazlığı hatasını genişletme
- [SPARK-48749] [SC-170116][sql] UnaryPositive'i Basitleştirin ve RuntimeReplaceable ile Katalizör Kurallarını ortadan kaldırın
- [SPARK-49857] [SC-178576][sql] Dataset localCheckpoint API'sine storageLevel ekleme
- [SPARK-50058] [SC-179538][sql] Daha sonra bunları tek geçişli Çözümleyici testinde kullanmak için plan normalleştirme işlevlerini dikkate alma
- [SPARK-50052] [SC-179535][python][16.X] NumpyArrayConverter'ın boş str ndarray desteğini sağlama
- [SPARK-47261] [SC-173665][sql] _LEGACY_ERROR_TEMP_1172, _LEGACY_ERROR_TEMP_1173 ve _LEGACY_ERROR_TEMP_1174 hatalar için daha iyi ad atayın
-
[SPARK-49147] [SC-173471][core] DeveloperApi arabirimiyle
KryoRegistratorişaretle - [SPARK-48949] [SC-173070][sql] SPJ: Çalışma zamanı bölüm filtreleme
- [SPARK-50044] [SC-179523][python] Birden çok matematik işlevinin belge dizesini iyileştirme
-
[SPARK-48757] [SC-170113][core]
IndexShuffleBlockResolveriçin açık oluşturucular sağla - [SPARK-50037] [SQL] AttributeSeq.resolve(...) yeniden yapılandırılması
- [SPARK-48782] [SC-177056][sql] Kataloglarda yordam yürütme desteği eklendi
- [SPARK-49057] [SC-173081][sql] Sorgu aşamaları gönderilirken AQE döngüsünü engelleme
- [SPARK-48824] [SC-176772][behave-167][SQL] Kimlik Sütunu SQL Sözdizimi Ekle
- [SPARK-48773] [SC-170773] Yapılandırma oluşturucu çerçevesi tarafından yapılan "spark.default.parallelism" belge yapılandırması
- [SPARK-48735] [SC-169810][sql] BIN işlevi için performans geliştirme
-
[SPARK-48900] [SC-172433] İş/aşama iptali için tüm iç çağrılar için
reasonalanı ekleme -
[SPARK-48488] [SC-167605][core]
log[info|warning|error]'daSparkSubmityöntemlerini düzelt -
[SPARK-48708] [SC-169809][core]
KryoSerializer'dan üç gereksiz tür kaydını kaldırma - [SPARK-49958] [SC-179312][python] Dize doğrulama işlevleri için Python API'si
- [SPARK-49979] [SC-179264][sql] Başarısız bir planda iki kez toplama işlemi yapıldığında AQE'deki askıda kalma sorununu düzeltme
- [SPARK-48729] [SC-169795][sql] Bir SQL işlevini temsil etmek için UserDefinedFunction arabirimi ekle
-
[SPARK-49997] [SC-179279][sql]
_LEGACY_ERROR_TEMP_2165'yiMALFORMED_RECORD_IN_PARSINGile tümleştirmek - [SPARK-49259] [SC-179271][ss]Kafka okuma sırasında boyut tabanlı partisyon oluşturma
- [SPARK-48129] [SC-165006][python] Yapılandırılmış günlükleri sorgulamak için PySpark'ta sabit tablo şeması sağlama
- [SPARK-49951] [SC-179259][sql] LEGACY_ERROR_TEMPiçin düzgün hata koşulu atama (1099|3085)
- [SPARK-49971] [SC-179278][sql] _LEGACY_ERROR_TEMP_1097 için uygun hata koşulu atama
-
[SPARK-49998] [SC-179277][sql]
_LEGACY_ERROR_TEMP_1252'yiEXPECT_TABLE_NOT_VIEWile tümleştirin - [SPARK-49876] [SC-179262][connect] Spark Connect Hizmeti'nden genel kilitlerden kurtulma
- [SPARK-49957] [SC-179202][sql] Dize doğrulama işlevleri için Scala API
- [SPARK-48480] [SC-173055][ss][CONNECT] StreamingQueryListener spark.interrupt() tarafından etkilenmemelidir
- [SPARK-49643] [SC-179239][sql] _LEGACY_ERROR_TEMP_2042'yi ARITHMETIC_OVERFLOW ile birleştir
- [SPARK-49959] [SC-179109][sql] ColumnarArray.copy()'nin doğrusal boş veriler okunabilmesi için doğru kaydırmadan okunmasını düzeltin
- [SPARK-49956] Geri Al "[SC-179070] collect_set ifadesi ile dizilimleri devre dışı bıraktı"
-
[SPARK-49987] [SC-179180][sql]
seedExpressionrandstr'de katlanabilir olmadığında hata mesajını düzeltin - [SPARK-49948] [SC-179158][ps][CONNECT] Spark üzerinde pandas kutu grafiğine "hassasiyet" parametresi ekleme
- [SPARK-49970] [SC-179167][sql] _LEGACY_ERROR_TEMP_2069 için uygun hata koşulu atama
- [SPARK-49916] [SC-179108][sql] Bazı satırlarda ColumnType ile veri türü arasında tür uyuşmazlığı için uygun Özel Durum oluşturun
- [SPARK-49956] [SC-179070] collect_set ifadesiyle harmanlamalar devre dışı bırakıldı
- [SPARK-49974] [16.x][sc-179071][SQL] ResolveRelations(...) öğesini Analyzer.scala dışına taşıma
- [SPARK-47259] [SC-176437][sql] Aralık hataları için hata koşullarını isimlendirmek
- [SPARK-47430] [SC-173679][sql] Bağlantı başvuru istisnasını düzeltmek için harita tipine göre grupla çalışmayı yeniden düzenleme
- [SPARK-49067] [SC-172616][sql] utf-8 sabit değerlerini UrlCodec sınıfının iç yöntemlerine taşıma
- [SPARK-49955] [SC-178989][sql] null değeri, JSON dizesi RDD ayrıştırılırken bozuk dosya anlamına gelmez
- [SPARK-49393] [SC-175212][sql] Kullanım dışı katalog eklentisi API'lerinde varsayılan olarak başarısız
- [SPARK-49952] [SC-178985][sql] _LEGACY_ERROR_TEMP_1142 için uygun hata koşulu atama
- [SPARK-49405] [SC-175224][sql] JsonOptions'da karakter kümelerini kısıtlama
- [SPARK-49892] [SC-178975][sql] _LEGACY_ERROR_TEMP_1136 için düzgün hata sınıfı atama
- [SPARK-49904] [SC-178973][sql] _LEGACY_ERROR_TEMP_2140 için uygun hata koşulu atama
- [SPARK-47257] [SC-174244][sql] Hata sınıflarına ad atama _LEGACY_ERROR_TEMP_105[3-4] ve _LEGACY_ERROR_TEMP_1331
- [SPARK-49915] [SC-178869][sql] ReorderAssociativeOperator'da sıfırları ve birleri işleme
- [SPARK-49891] [SC-178970][sql] _LEGACY_ERROR_TEMP_2271 için uygun hata koşulu atama
-
[SPARK-49918] [SC-178748][core] Uygun durumlarda
SparkContext'da yapılandırma dosyasına salt okunur erişimi kullanma - [SPARK-49666] [SC-177891][sql] Kırpma sıralama özelliği için özellik bayrağı ekleme
- [SPARK-48885] [SC-171050][sql] RuntimeReplaceable alt sınıflarından bazılarının değişimi "lazy val" ile geçersiz kılacak şekilde yapın
-
[SPARK-49932] [SC-178931][core] Bellek sızıntılarını önlemek için
tryWithResourceyayınJsonUtils#toJsonStringkaynaklarını kullanın -
[SPARK-49949] [SC-178978][ps]
attach_sequence_column'da gereksiz çözümleme görevlerinden kaçının -
[SPARK-49924] [SC-178935][sql]
containsNulldeğişiminden sonraArrayCompactkoru -
[SPARK-49121] [SC-174787][sql] SQL işlevleri için
from_protobufveto_protobufdesteği - [SPARK-47496] [SC-160529][sql] Dinamik JDBC diyalekt kaydı için Java SPI Desteği
- [SPARK-49359] [SC-174895][sql] StagedTableCatalog uygulamalarının atomik olmayan yazma işlemine geri dönmesine izin ver
- [SPARK-49895] [SC-178543][sql][ES-1270338] SELECT yan tümcesinde sondaki virgülle karşılaşıldığında hatayı iyileştirme
- [SPARK-47945] [SC-163457][sql] MsSQLServer: Microsoft SQL Server'dan Spark SQL Veri Türlerini Belge Eşleme ve test ekleme
- [SPARK-46037] [SC-175495][sql] Karıştırılmış Karma Birleştirmede kod üretimi olmadan bırakılan kısımlar için doğruluk düzeltmesi
- [SPARK-47813] [SC-162615][sql] getArrayDimension değerini updateExtraColumnMeta ile değiştirme
- [SPARK-49542] [SC-178765][sql] Bölüm dönüştürme istisnası değerlendirme hatası
- [SPARK-47172] [SC-169537][core] RPC şifrelemesi için AES-GCM desteği eklendi
- [SPARK-47666] [SC-161476][sql] mysql bit dizisini LongType olarak okurken NPE'yi düzeltme
- [SPARK-48947] [SC-174239][sql] Charset.forName dosyasında önbelleğin eksik olmasını azaltmak için küçük harfli karakter kümesi adı kullanın
- [SPARK-49909] [SC-178552][sql] Bazı ifadelerin güzel adını düzeltme
- [SPARK-47647] [SC-161377][sql] MySQL veri kaynağının Bit(n>1) değerini Postgres gibi BinaryType olarak okuyabilmesini sağlama
-
[SPARK-46622] [SC-153004][core]
toStringyönteminio.a.s.network.shuffledb.StoreVersioniçin geçersiz kılma - [SPARK-48961] [SC-171910][python] PySparkException parametre adlandırmasını JVM ile tutarlı hale getirme
-
[SPARK-49889] [SC-178474][python] İşlevler için bağımsız değişken
trimekleyintrim/ltrim/rtrim - [SPARK-47537] [SC-160747][sql] MySQL Connector/J'de hata veri türü eşlemesini düzeltme
- [SPARK-47628] [SC-161257][sql] Postgres bit dizilimi 'Boole'e dönüştürülemez' sorununu düzeltin
- [SPARK-49843] [SC-178084][es-1268164][SQL] Char/varchar sütunlarında değişiklik açıklamasını düzeltme
- [SPARK-49549] [SC-178764][sql] Hata koşullarına ad atama _LEGACY_ERROR_TEMP_3055, 3146
- [SPARK-49791] [SC-177730][sql] DelegatingCatalogExtension'ı daha genişletilebilir hale getirme
- [SPARK-49559] [SC-178551][sql] Küme işlemleri için SQL kanal söz dizimi ekleme
- [SPARK-49906] [SC-178536][sql] PartitioningUtils için ÇELİŞEN_DOSYA_YAPILARI hatasını tanıtma ve kullanma
- [SPARK-49877] [SC-178392][sql] ClassifyException işlev imzasını değiştirme: isRuntime bağımsız değişkenini ekle
- [SPARK-47501] [SC-160532][sql] JdbcDialect için mevcut olan convertTimestampToTimestamp gibi convertDateToDate'i ekleyin
- [SPARK-49044] [SC-175746][sql] ValidateExternalType hata durumunda alt öğe döndürmelidir.
- [SPARK-47462] [SC-160460][sql] MySQLDialect'te diğer imzalanmamış sayısal türlerin eşlemelerini TINYINT ile hizalama
- [SPARK-47435] [SC-160129][sql] SPARK-45561'in neden olduğu MySQL UNSIGNED TINYINT taşması sorununu düzeltme
- [SPARK-49398] [SC-176377][sql] CACHE TABLE ve CREATE VIEW sorgusundaki parametreler için hatayı iyileştirme
- [SPARK-47263] [SC-177012][sql] Eski koşullara ad atama _LEGACY_ERROR_TEMP_13[44-46]
-
[SPARK-49605] [SC-176605][sql]
ascendingOrderDataTypeMismatchSortArrayolduğunda istemi düzeltin -
[SPARK-49806] [SC-178304][sql][CONNECT]
blank spacesonrashowveScalaistemcilerinde gereksizConnectkaldırma - [SPARK-47258] [SC-175032][sql] Hata sınıflarına ad atama _LEGACY_ERROR_TEMP_127[0-5]
- [SPARK-49564] [SC-178461][sql] JOIN işleci için SQL kanal söz dizimi ekleme
- [SPARK-49836] [SC-178339][sql][SS] window/session_window fn'ye pencere sağlandığında bozulabilecek sorguyu düzeltme
- [SPARK-47390] [SC-163306][sc-159312][SPARK-47396][sc-159376][SPARK-47406] Postgres ve MySQL için SQL zaman damgaları eşlemesini işleme
- [SPARK-49776] [SC-177818][python][CONNECT] Pasta çizimlerini destekleme
- [SPARK-49824] [SC-178251][ss][CONNECT] SparkConnectStreamingQueryCache'te günlük kaydını iyileştirme
- [SPARK-49894] [SC-178460][python][CONNECT] Sütun alanı işlemlerinin dize gösterimini daraltma
- [SPARK-49764] [SC-177491][python][CONNECT] Destek alanı çizimleri
- [SPARK-49694] [SC-177376][python][CONNECT] Dağılım çizimlerini destekleme
- [SPARK-49744] [SC-178363][ss][PYTHON] TransformWithStateInPandas'ta ListState için TTL desteği uygulama
-
[SPARK-49879] [SC-178334][core] Java derleme uyarılarını ortadan kaldırmak için
TransportCipherUtilayrı bir dosyaya taşıma - [SPARK-49866] [SC-178353][sql] Bölüm sütunlarıyla tabloyu açıklama hata iletisini iyileştirme
- [SPARK-49867] [SC-178302][es-1260570][SQL] GetColumnByOrdinal çağrılırken dizin sınırların dışında olduğunda hata iletisini geliştirme
- [SPARK-49607] [SC-177373][python] Örneklenmiş çizimler için örnekleme yaklaşımını güncelleştirme
- [SPARK-49626] [SC-177276][python][CONNECT] Yatay ve dikey çubuk çizimlerini destekleme
- [SPARK-49531] [SC-177770][python][CONNECT] Plotly arka planıyla çizgi grafiği desteği sağla
- [SPARK-49444] [SC-177692][es-1203248][SQL] UnivocityParser'ı, ArrayIndexOutOfBounds nedeniyle daha kullanıcı odaklı mesajlarla çalışma zamanı hataları fırlatacak şekilde değiştirdi.
- [SPARK-49870] [SC-178262][python] Spark Classic'te Python 3.13 desteği ekleme
- [SPARK-49560] [SC-178121][sql] TABLESAMPLE işleci için SQL kanal söz dizimi ekleme
- [SPARK-49864] [SC-178305][sql] BINARY_ARITHMETIC_OVERFLOW iletisini geliştirme
- [SPARK-48780] [SC-170274][sql] İşlevleri ve yordamları işleyebilmek için NamedParametersSupport'da hata işleme mekanizmasını genel hale getirme
- [SPARK-49358] [SC-178158][sql] Harmanlanmış dizelerle eşleme türleri için Mod ifadesi
- [SPARK-47341] [SC-178157][sql] RuntimeConfig#get'in yanlış belgeleri düzeltildi
- [SPARK-48357] [SC-178153][sql] LOOP deyimi desteği
-
[SPARK-49845] [SC-178059][core] REST API'de
appArgsveenvironmentVariablesisteğe bağlı hale getirme - [SPARK-49246] [SC-174679][sql] TableCatalog#loadTable bunun yazılması için olup olmadığını göstermelidir
- [SPARK-48048] [SC-177525][sc-164846][CONNECT][ss] Scala için istemci tarafı dinleyici desteği eklendi
- [SPARK-48700] [SC-177978][sql] Karmaşık türler için Mod ifadesi (tüm harmanlamalar)
- [SPARK-48196] [SC-177899][sql] QueryExecution lazy val planlarını LazyTry'ye dönüştürme
- [SPARK-49749] [16.x][sc-177877][CORE] BlockManagerInfo'da günlük düzeyini hata ayıklama (debug) olarak değiştir.
- [SPARK-49561] [SC-177897][sql] PIVOT ve UNPIVOT işleçleri için SQL kanal söz dizimi ekleme
- [SPARK-49823] [SC-177885][ss] Rocksdb kapatma sürecinde flush işlemini önle
-
[SPARK-49820] [SC-177855] [PYTHON]
raise IOErrorraise OSErrorolarak değiştirme - [SPARK-49653] [SC-177266][sql] Bağıntılı skaler alt sorgular için tek birleşim
- [SPARK-49552] [SC-177477][python] Yeni 'randstr' ve 'tekdüzen' SQL işlevleri için DataFrame API desteği ekleme
- [SPARK-48303] [16.x][sc-166251][CORE] LogKeys'i Yeniden Düzenleme
- [SPARK-49656] [16x][backport][SS] Durum değişkenleri için değer durumu koleksiyon türleri ve değişiklik akışı seçeneklerini okuma desteği ekleme
- [SPARK-48112] [SC-165129][connect] SparkConnectPlanner'da oturumu eklentilere sunma
- [SPARK-48126] [16.x][sc-165309][Core] spark.log.structuredLogging.enabled özelliğini etkin hale getirme
- [SPARK-49505] [SC-176873][sql] Aralıklar içinde rastgele dizeler veya sayılar oluşturmak için yeni "randstr" ve "tekdüzen" SQL işlevleri oluşturma
- [SPARK-49463] [SC-177474] TransformWithStateInPandas için ListState Desteği
-
[SPARK-48131] [SC-165007][core] MDC anahtarı
mdc.taskNamevetask_namebirleştirme - [SPARK-49557] [SC-177227][sql] WHERE işleci için SQL kanal söz dizimi ekleme
- [SPARK-49323] [16.x][sc-174689][CONNECT] MockObserver'ı Spark Connect Server'ın test klasöründen Sunucunun ana klasörüne taşıma
- [SPARK-49745] [SC-177501][ss] Durum veri kaynağı okuyucusu aracılığıyla kayıtlı zamanlayıcıları okumak için değişiklik ekleme
- [SPARK-49772] [16.x][sc-177478][SC-177214][ss] ColumnFamilyOptions'ı kaldırma ve RocksDB'deki dbOptions'a doğrudan yapılandırma ekleme
Databricks ODBC/JDBC sürücü desteği
Databricks, son 2 yılda yayımlanan ODBC/JDBC sürücülerini destekler. Lütfen son yayınlanan sürücüleri indirin ve yükseltin (ODBC'yi indirin, JDBC'yi indirin).
Bkz. Databricks Runtime 16.1 bakım güncelleştirmeleri.
Sistem ortamı
-
İşletim Sistemi: Ubuntu 24.04.1 LTS
- Not: Bu, Databricks Runtime kapsayıcıları tarafından kullanılan Ubuntu sürümüdür. Databricks Runtime kapsayıcıları bulut sağlayıcısının sanal makinelerinde çalışır ve bu da farklı bir Ubuntu sürümü veya Linux dağıtımı kullanabilir.
- Java: Zulu17.54+21-CA
- Scala: 2.12.15
- Python: 3.12.3
- R: 4.4.0
- Delta Gölü: 3.2.1
Yüklü Python kitaplıkları
| Library | Version | Library | Version | Library | Version |
|---|---|---|---|---|---|
| annotated-types | 0.7.0 | asttokens | 2.0.5 | astunparse | 1.6.3 |
| autocommand | 2.2.2 | azure-core | 1.31.0 | azure-storage-blob | 12.23.0 |
| azure-storage-file-datalake | 12.17.0 | backports.tarfile | 1.2.0 | black | 24.4.2 |
| blinker | 1.7.0 | boto3 | 1.34.69 | botocore | 1.34.69 |
| cachetools | 5.3.3 | certifi | 2024.6.2 | cffi | 1.16.0 |
| chardet | 4.0.0 | charset-normalizer | 2.0.4 | click | 8.1.7 |
| cloudpickle | 2.2.1 | comm | 0.2.1 | contourpy | 1.2.0 |
| cryptography | 42.0.5 | cycler | 0.11.0 | Cython | 3.0.11 |
| databricks-sdk | 0.30.0 | dbus-python | 1.3.2 | debugpy | 1.6.7 |
| decorator | 5.1.1 | Deprecated | 1.2.14 | distlib | 0.3.8 |
| docstring-to-markdown | 0.11 | entrypoints | 0.4 | executing | 0.8.3 |
| facets-overview | 1.1.1 | filelock | 3.15.4 | fonttools | 4.51.0 |
| gitdb | 4.0.11 | GitPython | 3.1.37 | google-api-core | 2.20.0 |
| google-auth | 2.35.0 | google-cloud-core | 2.4.1 | google-cloud-storage | 2.18.2 |
| google-crc32c | 1.6.0 | google-resumable-media | 2.7.2 | googleapis-common-protos | 1.65.0 |
| grpcio | 1.60.0 | grpcio-status | 1.60.0 | httplib2 | 0.20.4 |
| idna | 3.7 | importlib-metadata | 6.0.0 | importlib_resources | 6.4.0 |
| inflect | 7.3.1 | ipyflow-core | 0.0.201 | ipykernel | 6.28.0 |
| ipython | 8.25.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
| isodate | 0.6.1 | jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 |
| jaraco.text | 3.12.1 | jedi | 0.19.1 | jmespath | 1.0.1 |
| joblib | 1.4.2 | jupyter_client | 8.6.0 | jupyter_core | 5.7.2 |
| kiwisolver | 1.4.4 | launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 |
| lazr.uri | 1.0.6 | matplotlib | 3.8.4 | matplotlib-inline | 0.1.6 |
| mccabe | 0.7.0 | mlflow-skinny | 2.15.1 | more-itertools | 10.3.0 |
| mypy | 1.10.0 | mypy-extensions | 1.0.0 | nest-asyncio | 1.6.0 |
| nodeenv | 1.9.1 | numpy | 1.26.4 | oauthlib | 3.2.2 |
| opentelemetry-api | 1.27.0 | opentelemetry-sdk | 1.27.0 | opentelemetry-semantic-conventions | 0.48b0 |
| packaging | 24.1 | pandas | 1.5.3 | parso | 0.8.3 |
| pathspec | 0.10.3 | patsy | 0.5.6 | pexpect | 4.8.0 |
| pillow | 10.3.0 | pip | 24.2 | platformdirs | 3.10.0 |
| plotly | 5.22.0 | pluggy | 1.0.0 | prompt-toolkit | 3.0.43 |
| proto-plus | 1.24.0 | protobuf | 4.24.1 | psutil | 5.9.0 |
| psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
| pyarrow | 15.0.2 | pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 |
| pyccolo | 0.0.65 | pycparser | 2.21 | pydantic | 2.8.2 |
| pydantic_core | 2.20.1 | pyflakes | 3.2.0 | Pygments | 2.15.1 |
| PyGObject | 3.48.2 | PyJWT | 2.7.0 | pyodbc | 5.0.1 |
| pyparsing | 3.0.9 | pyright | 1.1.294 | python-dateutil | 2.9.0.post0 |
| python-lsp-jsonrpc | 1.1.2 | python-lsp-server | 1.10.0 | pytoolconfig | 1.2.6 |
| pytz | 2024.1 | PyYAML | 6.0.1 | pyzmq | 25.1.2 |
| requests | 2.32.2 | rope | 1.12.0 | rsa | 4.9 |
| s3transfer | 0.10.2 | scikit-learn | 1.4.2 | scipy | 1.13.1 |
| seaborn | 0.13.2 | setuptools | 74.0.0 | six | 1.16.0 |
| smmap | 5.0.0 | sqlparse | 0.5.1 | ssh-import-id | 5.11 |
| stack-data | 0.2.0 | statsmodels | 0.14.2 | tenacity | 8.2.2 |
| threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
| tornado | 6.4.1 | traitlets | 5.14.3 | typeguard | 4.3.0 |
| types-protobuf | 3.20.3 | types-psutil | 5.9.0 | types-pytz | 2023.3.1.1 |
| types-PyYAML | 6.0.0 | types-requests | 2.31.0.0 | types-setuptools | 68.0.0.0 |
| types-six | 1.16.0 | types-urllib3 | 1.26.25.14 | typing_extensions | 4.11.0 |
| ujson | 5.10.0 | unattended-upgrades | 0.1 | urllib3 | 1.26.16 |
| virtualenv | 20.26.2 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
| whatthepatch | 1.0.2 | wheel | 0.43.0 | wrapt | 1.14.1 |
| yapf | 0.33.0 | zipp | 3.17.0 |
Yüklü R kitaplıkları
R kitaplıkları, 2024-08-04 tarihinde Posit Paket Yöneticisi CRAN anlık görüntüsünden yüklenmiştir: https://packagemanager.posit.co/cran/2024-08-04/.
| Library | Version | Library | Version | Library | Version |
|---|---|---|---|---|---|
| arrow | 16.1.0 | askpass | 1.2.0 | assertthat | 0.2.1 |
| backports | 1.5.0 | base | 4.4.0 | base64enc | 0.1-3 |
| bigD | 0.2.0 | bit | 4.0.5 | bit64 | 4.0.5 |
| bitops | 1.0-8 | blob | 1.2.4 | boot | 1.3-30 |
| brew | 1.0-10 | brio | 1.1.5 | broom | 1.0.6 |
| bslib | 0.8.0 | cachem | 1.1.0 | callr | 3.7.6 |
| caret | 6.0-94 | cellranger | 1.1.0 | chron | 2.3-61 |
| class | 7.3-22 | cli | 3.6.3 | clipr | 0.8.0 |
| clock | 0.7.1 | cluster | 2.1.6 | codetools | 0.2-20 |
| colorspace | 2.1-1 | commonmark | 1.9.1 | compiler | 4.4.0 |
| config | 0.3.2 | conflicted | 1.2.0 | cpp11 | 0.4.7 |
| crayon | 1.5.3 | credentials | 2.0.1 | curl | 5.2.1 |
| data.table | 1.15.4 | datasets | 4.4.0 | DBI | 1.2.3 |
| dbplyr | 2.5.0 | desc | 1.4.3 | devtools | 2.4.5 |
| diagram | 1.6.5 | diffobj | 0.3.5 | digest | 0.6.36 |
| downlit | 0.4.4 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-14 | ellipsis | 0.3.2 | evaluate | 0.24.0 |
| fansi | 1.0.6 | farver | 2.1.2 | fastmap | 1.2.0 |
| fontawesome | 0.5.2 | forcats | 1.0.0 | foreach | 1.5.2 |
| foreign | 0.8-86 | forge | 0.2.0 | fs | 1.6.4 |
| future | 1.34.0 | future.apply | 1.11.2 | gargle | 1.5.2 |
| generics | 0.1.3 | gert | 2.1.0 | ggplot2 | 3.5.1 |
| gh | 1.4.1 | git2r | 0.33.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | globals | 0.16.3 | glue | 1.7.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | gower | 1.0.1 |
| graphics | 4.4.0 | grDevices | 4.4.0 | grid | 4.4.0 |
| gridExtra | 2.3 | gsubfn | 0.7 | gt | 0.11.0 |
| gtable | 0.3.5 | hardhat | 1.4.0 | haven | 2.5.4 |
| highr | 0.11 | hms | 1.1.3 | htmltools | 0.5.8.1 |
| htmlwidgets | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
| httr2 | 1.0.2 | ids | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-15 | isoband | 0.2.7 | iterators | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.8.8 | juicyjuice | 0.1.0 |
| KernSmooth | 2.23-22 | knitr | 1.48 | labeling | 0.4.3 |
| later | 1.3.2 | lattice | 0.22-5 | lava | 1.8.0 |
| lifecycle | 1.0.4 | listenv | 0.9.1 | lubridate | 1.9.3 |
| magrittr | 2.0.3 | markdown | 1.13 | MASS | 7.3-60.0.1 |
| Matrix | 1.6-5 | memoise | 2.0.1 | methods | 4.4.0 |
| mgcv | 1.9-1 | mime | 0.12 | miniUI | 0.1.1.1 |
| mlflow | 2.14.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
| munsell | 0.5.1 | nlme | 3.1-165 | nnet | 7.3-19 |
| numDeriv | 2016.8-1.1 | openssl | 2.2.0 | parallel | 4.4.0 |
| parallelly | 1.38.0 | pillar | 1.9.0 | pkgbuild | 1.4.4 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.0 | pkgload | 1.4.0 |
| plogr | 0.2.0 | plyr | 1.8.9 | praise | 1.0.0 |
| prettyunits | 1.2.0 | pROC | 1.18.5 | processx | 3.8.4 |
| prodlim | 2024.06.25 | profvis | 0.3.8 | progress | 1.2.3 |
| progressr | 0.14.0 | promises | 1.3.0 | proto | 1.0.0 |
| proxy | 0.4-27 | ps | 1.7.7 | purrr | 1.0.2 |
| R6 | 2.5.1 | ragg | 1.3.2 | randomForest | 4.7-1.1 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.13 | RcppEigen | 0.3.4.0.0 | reactable | 0.4.4 |
| reactR | 0.6.0 | readr | 2.1.5 | readxl | 1.4.3 |
| recipes | 1.1.0 | rematch | 2.0.0 | rematch2 | 2.1.2 |
| remotes | 2.5.0 | reprex | 2.1.1 | reshape2 | 1.4.4 |
| rlang | 1.1.4 | rmarkdown | 2.27 | RODBC | 1.3-23 |
| roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
| Rserve | 1.8-13 | RSQLite | 2.3.7 | rstudioapi | 0.16.0 |
| rversions | 2.1.2 | rvest | 1.0.4 | sass | 0.4.9 |
| scales | 1.3.0 | selectr | 0.4-2 | sessioninfo | 1.2.2 |
| shape | 1.4.6.1 | shiny | 1.9.1 | sourcetools | 0.1.7-1 |
| sparklyr | 1.8.6 | SparkR | 3.5.0 | spatial | 7.3-17 |
| splines | 4.4.0 | sqldf | 0.4-11 | SQUAREM | 2021.1 |
| stats | 4.4.0 | stats4 | 4.4.0 | stringi | 1.8.4 |
| stringr | 1.5.1 | survival | 3.6-4 | swagger | 5.17.14.1 |
| sys | 3.4.2 | systemfonts | 1.1.0 | tcltk | 4.4.0 |
| testthat | 3.2.1.1 | textshaping | 0.4.0 | tibble | 3.2.1 |
| tidyr | 1.3.1 | tidyselect | 1.2.1 | tidyvere | 2.0.0 |
| timechange | 0.3.0 | timeDate | 4032.109 | tinytex | 0.52 |
| tools | 4.4.0 | tzdb | 0.4.0 | urlchecker | 1.0.1 |
| usethis | 3.0.0 | utf8 | 1.2.4 | utils | 4.4.0 |
| uuid | 1.2-1 | V8 | 4.4.2 | vctrs | 0.6.5 |
| viridisLite | 0.4.2 | vroom | 1.6.5 | waldo | 0.5.2 |
| whisker | 0.4.1 | withr | 3.0.1 | xfun | 0.46 |
| xml2 | 1.3.6 | xopen | 1.0.1 | xtable | 1.8-4 |
| yaml | 2.3.10 | zeallot | 0.1.0 | zip | 2.3.1 |
Yüklü Java ve Scala kitaplıkları (Scala 2.12 küme sürümü)
| Grup Kimliği | Nesne Kimliği | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | amazon-kinesis-client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs | 1.12.638 |
| com.amazonaws | aws-java-sdk-machinelearning | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
| com.amazonaws | aws-java-sdk-sts | 1.12.638 |
| com.amazonaws | aws-java-sdk-support | 1.12.638 |
| com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | stream | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo-shaded | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | classmate | 1.3.4 |
| com.fasterxml.jackson.core | jackson-annotations | 2.15.2 |
| com.fasterxml.jackson.core | jackson-core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
| com.github.ben-manes.caffeine | caffeine | 2.9.3 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1-natives |
| com.github.fommil.netlib | native_system-java | 1.1 |
| com.github.fommil.netlib | native_system-java | 1.1-natives |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-natives |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-natives |
| com.github.luben | zstd-jni | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.10.1 |
| com.google.crypto.tink | tink | 1.9.0 |
| com.google.errorprone | error_prone_annotations | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 23.5.26 |
| com.google.guava | guava | 15.0 |
| com.google.protobuf | protobuf-java | 3.25.1 |
| com.helger | profiler | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | 0.8.0.RELEASE |
| com.lihaoyi | sourcecode_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.3.jre8 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.16.0 |
| commons-collections | commons-collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload | commons-fileupload | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | aircompressor | 0.27 |
| io.delta | delta-sharing-client_2.12 | 1.2.2 |
| io.dropwizard.metrics | metrics-annotation | 4.2.19 |
| io.dropwizard.metrics | metrics-core | 4.2.19 |
| io.dropwizard.metrics | metrics-graphite | 4.2.19 |
| io.dropwizard.metrics | metrics-healthchecks | 4.2.19 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
| io.dropwizard.metrics | metrics-jmx | 4.2.19 |
| io.dropwizard.metrics | metrics-json | 4.2.19 |
| io.dropwizard.metrics | metrics-jvm | 4.2.19 |
| io.dropwizard.metrics | metrics-servlets | 4.2.19 |
| io.netty | netty-all | 4.1.108.Final |
| io.netty | netty-buffer | 4.1.108.Final |
| io.netty | netty-codec | 4.1.108.Final |
| io.netty | netty-codec-http | 4.1.108.Final |
| io.netty | netty-codec-http2 | 4.1.108.Final |
| io.netty | netty-codec-socks | 4.1.108.Final |
| io.netty | netty-common | 4.1.108.Final |
| io.netty | netty-handler | 4.1.108.Final |
| io.netty | netty-handler-proxy | 4.1.108.Final |
| io.netty | netty-resolver | 4.1.108.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.61.Final |
| io.netty | netty-transport | 4.1.108.Final |
| io.netty | netty-transport-classes-epoll | 4.1.108.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.1.108.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | collector | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | activation | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | transaction-api | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | pickle | 1.3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | ant | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | ant-launcher | 1.10.11 |
| org.apache.arrow | arrow-format | 15.0.0 |
| org.apache.arrow | arrow-memory-core | 15.0.0 |
| org.apache.arrow | arrow-memory-netty | 15.0.0 |
| org.apache.arrow | arrow-vector | 15.0.0 |
| org.apache.avro | avro | 1.11.3 |
| org.apache.avro | avro-ipc | 1.11.3 |
| org.apache.avro | avro-mapred | 1.11.3 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.23.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-text | 1.10.0 |
| org.apache.curator | curator-client | 2.13.0 |
| org.apache.curator | curator-framework | 2.13.0 |
| org.apache.curator | curator-recipes | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-memory | 2.0.0 |
| org.apache.derby | derby | 10.14.2.0 |
| org.apache.hadoop | hadoop-client-runtime | 3.3.6 |
| org.apache.hive | hive-beeline | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | hive-shims | 2.3.9 |
| org.apache.hive | hive-storage-api | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | ivy | 2.5.2 |
| org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
| org.apache.logging.log4j | log4j-api | 2.22.1 |
| org.apache.logging.log4j | log4j-core | 2.22.1 |
| org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
| org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-shims | 1.9.2 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.23 |
| org.apache.yetus | audience-annotations | 0.13.0 |
| org.apache.zookeeper | zookeeper | 3.9.2 |
| org.apache.zookeeper | zookeeper-jute | 3.9.2 |
| org.checkerframework | checker-qual | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | commons-compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.collections | eclipse-collections | 11.1.0 |
| org.eclipse.collections | eclipse-collections-api | 11.1.0 |
| org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-continuation | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-security | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-server | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-webapp | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-api | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-client | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-server | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
| org.glassfish.jersey.core | jersey-client | 2.40 |
| org.glassfish.jersey.core | jersey-common | 2.40 |
| org.glassfish.jersey.core | jersey-server | 2.40 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
| org.hibernate.validator | hibernate-validator | 6.1.7.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | annotations | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.12 | 2.9.1 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
| org.roaringbitmap | shims | 0.9.45-databricks |
| org.rocksdb | rocksdbjni | 9.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.12 | 0.9.1 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | test-interface | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.16 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | scalatest-compatible | 3.2.16 |
| org.scalatest | scalatest-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.16 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.16 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.16 |
| org.scalatest | scalatest_2.12 | 3.2.16 |
| org.slf4j | jcl-over-slf4j | 2.0.7 |
| org.slf4j | jul-to-slf4j | 2.0.7 |
| org.slf4j | slf4j-api | 2.0.7 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.4.1-linux-x86_64 |
| stax | stax-api | 1.0.1 |