Condividi tramite


Databricks Runtime 11.2 (EoS)

Annotazioni

Il supporto per questa versione di Databricks Runtime è terminato. Per la data di fine del supporto, vedere Fine del supporto e cronologia di fine vita. Per tutte le versioni supportate di Databricks Runtime, vedere note di rilascio di Databricks Runtime: versioni e compatibilità.

Le note sulla versione seguenti forniscono informazioni su Databricks Runtime 11.2, basate su Apache Spark 3.3.0. Databricks ha rilasciato questa versione a settembre 2022.

Nuove funzionalità e miglioramenti

Modifiche alle autorizzazioni di ALTER TABLE nei controlli di accesso alle tabelle (ACL delle tabelle)

Ora, gli utenti devono disporre solo delle MODIFY autorizzazioni per modificare lo schema o le proprietà di una tabella con ALTER TABLE. La proprietà è comunque necessaria per concedere le autorizzazioni per una tabella, modificarne il proprietario e la posizione o rinominarla. Questa modifica rende il modello di autorizzazione per gli ACL di tabella coerenti con il catalogo unity. Vedete ALTER TABLE.

Eliminazione dinamica per MERGE INTO

Quando si usa il calcolo abilitato per Photon, MERGE INTO ora usa l'eliminazione dinamica di file e partizioni quando appropriato per migliorare le prestazioni, ad esempio quando una piccola tabella di origine viene unita in una tabella di destinazione più grande.

Miglioramento del rilevamento dei conflitti in Delta con eliminazione dinamica dei file

Durante la verifica di potenziali conflitti nei commit, il rilevamento dei conflitti ora considera i file rimossi dalla potatura dinamica dei file, ma che non sarebbero stati rimossi da filtri statici. Ciò comporta una diminuzione del numero di transazioni non riuscite.

Nuova scheda Integrazioni open source nelle home page di DSE/SQL

Introduzione alla nuova scheda "integrazioni Open Source" nelle home page di DSE/SQL che visualizza open source opzioni di integrazione, ad esempio DLT e dbt core.

CONVERT TO DELTA miglioramenti al rilevamento delle partizioni

CONVERT TO DELTA deduce automaticamente lo schema di partizione per le tabelle Parquet registrate nel metastore Hive o nel catalogo Unity, eliminando la necessità di fornire la PARTITIONED BY clausola .

CONVERT TO DELTA sfrutta le informazioni sulle partizioni dal metastore per individuare i file per una tabella Parquet anziché elencare l'intero percorso di base, assicurando che le partizioni eliminate non vengano aggiunte alla tabella Delta.

Vedere Converti in Delta Lake.

Gli schemi di tabella supportano ora i valori predefiniti per le colonne

Gli schemi di tabella supportano ora l'impostazione dei valori predefiniti per le colonne. INSERTI comandi , UPDATEe DELETE per queste colonne possono fare riferimento a questi valori con la DEFAULT parola chiave . Ad esempio, CREATE TABLE t (id INT, data INT DEFAULT 42) USING PARQUET seguito da INSERT INTO t VALUES (1, DEFAULT) aggiungerà la riga (1, 42). Questo comportamento è supportato per le origini dati CSV, JSON, Orc e Parquet.

Nuove funzioni geospaziali H3

È ora possibile usare 28 nuove espressioni H3 predefinite per l'elaborazione geospaziale nei cluster abilitati per Photon, disponibili in SQL, Scala e Python. Si veda Funzioni geospaziali H3.

Nuova dipendenza di Databricks Runtime

Databricks Runtime dipende ora dalla libreria H3 Java versione 3.7.0.

Porta la tua chiave: Crittografia delle credenziali Git

È possibile usare Azure Key Vault per crittografare un token di accesso personale Git (PAT) o altre credenziali Git.

Vedere Configurare l'integrazione git per le cartelle Git.

SQL: nuova funzione di aggregazione any_value

La nuova any_value funzione di aggregazione restituisce qualsiasi valore casuale di expr per un gruppo di righe. Vedere la funzione di aggregazione any_value.

I comandi del file system di Databricks Utilities sono consentiti su un numero maggiore di tipi di cluster.

dbutils.fs I comandi (ad eccezione dei comandi correlati al montaggio) sono ora consentiti nei cluster di isolamento dell'utente con Unity Catalog, nonché nei cluster ACL di tabella legacy quando l'utente dispone di ANY FILE autorizzazioni.

È ora possibile concedere privilegi CREATE sui metastore per Unity Catalog

CREATE CATALOG, CREATE EXTERNAL LOCATION, CREATE SHARE, CREATE RECIPIENTe i privilegi CREATE PROVIDER possono ora essere concessi sui metastore di Unity Catalog.

Scritture ottimizzate per le tabelle non partizionate nei cluster abilitati per Photon

Le tabelle gestite di Unity Catalog ora consentono di rendere persistenti automaticamente i file di dimensioni ottimizzate da tabelle non partizionate per migliorare la velocità delle query e ottimizzare le prestazioni.

Supporto Photon per più origini dati

Photon supporta ora più origini dati, tra cui CSV e Avro, ed è compatibile anche con i frame di dati memorizzati nella cache. In precedenza, l'analisi di queste fonti dati significava che l'intera query non poteva essere ottimizzata tramite l'elaborazione fotonica, indipendentemente dagli operatori o dalle espressioni della query. Ora, le query che analizzano queste origini dati possono essere fotonizzate, sbloccando significativi miglioramenti della latenza e del TCO.

Questa funzionalità è abilitata per impostazione predefinita nella spark.databricks.photon.photonRowToColumnar.enabled configurazione.

Limitazioni:

  • Gli schemi con tipi annidati non sono supportati (ad esempio matrici, mappe e struct) in questa versione.
  • Le sorgenti ORC, RDD, Kinesis, Kafka ed EventHub non sono supportate in questa versione.

SQL: ALTER SHARE ora supporta START VERSION

Il comando ALTER SHARE ora supporta START VERSION, il che consente ai provider di condividere i dati a partire da una versione specifica della tabella. Vedete ALTER SHARE.

Aggiornamenti della libreria

  • Librerie di Python aggiornate:
    • distlib da 0.3.4 a 0.3.5
    • filelock dalla versione 3.7.1 alla versione 3.8.0
    • plotly dalla versione 5.8.2 alla 5.9.0
    • protobuf da 4.21.2 a 4.21.5
  • Librerie R aggiornate:
    • scopa da 0.8.0 a 1.0.0
    • bslib da 0.3.1 a 0.4.0
    • callr dalla 3.7.0 alla 3.7.1
    • cursore da 6.0-92 a 6.0-93
    • dbplyr da 2.2.0 a 2.2.1
    • devtools dalla versione 2.4.3 alla versione 2.4.4
    • valutare da 0,15 a 0,16
    • lontano da 2.1.0 a 2.1.1
    • Aggiornamento di fontawesome dalla versione 0.2.2 alla versione 0.3.0
    • futuro da 1.26.1 a 1.27.0
    • aggiornamento dei generics da 0.1.2 a 0.1.3
    • gert da 1.6.0 a 1.7.0
    • globals da 0.15.1 a 0.16.0
    • Googlesheets4 da 1.0.0 a 1.0.1
    • hardhat da 1.1.0 a 1.2.0
    • htmltools da 0.5.2 a 0.5.3
    • parallelamente da 1.32.0 a 1.32.1
    • pilastro da 1.7.0 a 1.8.0
    • pkgload da 1.2.4 a 1.3.0
    • processx dalla versione 3.6.1 alla versione 3.7.0
    • Rcpp da 1.0.8.3 a 1.0.9
    • ricette da 0.2.0 a 1.0.1
    • rlang da 1.0.2 a 1.0.4
    • roxygen2 da 7.2.0 a 7.2.1
    • RSQLite da 2.2.14 a 2.2.15
    • sass da 0.4.1 a 0.4.2
    • brillante da 1.7.1 a 1.7.2
    • stringi da 1.7.6 a 1.7.8
    • tibble da 3.1.7 a 3.1.8
    • tidyverse da 1.3.1 a 1.3.2
    • timeDate da 3043.102 a 4021.104
    • xfun da 0.31 a 0.32
  • Librerie Java aggiornate:
    • org.apache.orc.orc-core da 1.7.4 a 1.7.5
    • org.apache.orc.orc-mapreduce da 1.7.4 a 1.7.5
    • org.apache.orc.orc-shims da 1.7.4 a 1.7.5

Apache Spark

Databricks Runtime 11.2 include Apache Spark 3.3.0. Questa versione include tutte le correzioni e i miglioramenti di Spark inclusi in Databricks Runtime 11.1 (EoS), nonché le correzioni di bug e i miglioramenti aggiuntivi seguenti apportati a Spark:

  • [SPARK-40151] [WARMFIX][sc-109002][SC-108809][sql] Restituire tipi di intervallo ANSI più ampi dalle funzioni percentili
  • [SPARK-40054] [SQL] Ripristinare la sintassi di gestione degli errori di try_cast()
  • [SPARK-39489] [CORE] Migliorare le prestazioni jsonProtocol di registrazione degli eventi usando Jackson invece di Json4s
  • [SPARK-39319] [CORE][sql] Rendere i contesti di query parte di SparkThrowable
  • [SPARK-40085] [SQL] Usare INTERNAL_ERROR classe di errore anziché IllegalStateException per indicare bug
  • [SPARK-40001] [SQL] Fare in modo che le scritture NULL nelle colonne JSON DEFAULT scrivano 'null' sullo storage.
  • [SPARK-39635] [SQL] Supporto delle metriche dei driver nell'API metrica personalizzata DS v2
  • [SPARK-39184] [SQL] Gestire una matrice di risultati sottodimensionata nelle sequenze di data e timestamp
  • [SPARK-40019] [SQL] Refattorizzazione dei commenti di containsNull di ArrayType e dei logiche errate nell'espressione di collectionOperator riguardo containsNull
  • [SPARK-39989] [SQL] Supporto delle statistiche stimate delle colonne se è un'espressione piegabile
  • [SPARK-39926] [SQL] Correggere il bug nel supporto DEFAULT delle colonne per le scansioni Parquet non vettorializzate
  • [SPARK-40052] [SQL] Gestione dei buffer di byte diretti nel VectorizedDeltaBinaryPackedReader
  • [SPARK-40044] [SQL] Correggere il tipo di intervallo di destinazione negli errori di overflow di cast
  • [SPARK-39835] [SQL] Correggere EliminaSorts che rimuove l'ordinamento globale al di sotto dell'ordinamento locale
  • [SPARK-40002] [SQL] Non trasferire il limite attraverso la finestra utilizzando ntile
  • [SPARK-39976] [SQL] ArrayIntersect deve gestire correttamente null nell'espressione a sinistra
  • [SPARK-39985] [SQL] Abilitare i valori di colonna DEFAULT impliciti negli inserimenti da dataframe
  • [SPARK-39776] [SQL] JOIN la stringa dettagliata dovrebbe aggiungere il tipo di join
  • [SPARK-38901] [SQL] DS V2 supporta le funzioni di push verso il basso
  • [SPARK-40028] [SQL][followup] Migliorare gli esempi delle funzioni stringa
  • [SPARK-39983] [CORE][sql] Non memorizzare nella cache le relazioni di trasmissione non serializzate sul driver
  • [SPARK-39812] [SQL] Semplificare il codice con cui creare AggregateExpressiontoAggregateExpression
  • [SPARK-40028] [SQL] Aggiungere esempi binari per le espressioni stringa
  • [SPARK-39981] [SQL] Lanciare l'eccezione QueryExecutionErrors.castingCauseOverflowErrorInTableInsert in Cast
  • [SPARK-40007] [PYTHON][sql] Aggiungere 'mode' alle funzioni
  • [SPARK-40008] [SQL] Supporto della conversione di numeri interi a intervalli ANSI
  • [SPARK-40003] [PYTHON][sql] Aggiungere 'median' alle funzioni
  • [SPARK-39952] [SQL] SaveIntoDataSourceCommand deve recachere la relazione di risultato
  • [SPARK-39951] [SQL] Aggiornamento del controllo colonnare di Parquet V2 per i campi annidati
  • [SPARK-33236] [shuffle] Retroportare in Databricks Runtime 11.x: Abilitare il servizio shuffle basato su push per memorizzare lo stato nel DB a livello di NM per il riavvio con conservazione del lavoro
  • [SPARK-39836] [SQL] Semplificare V2ExpressionBuilder tramite l'estrazione di un metodo comune.
  • [SPARK-39873] [SQL] Rimuovi OptimizeLimitZero e unisci in EliminateLimits
  • [SPARK-39961] [SQL] DS V2 push-down traduci Cast se il cast è sicuro
  • [SPARK-39872] [SQL] Cambiare per utilizzare BytePackerForLong#unpack8Values con l'API di input per array in VectorizedDeltaBinaryPackedReader
  • [SPARK-39858] [SQL] Rimuovere le regole non necessarie AliasHelper o PredicateHelper per alcune regole
  • [SPARK-39900] [SQL] Indirizzo di una condizione parziale o negata nel pushdown del predicato del formato binario
  • [SPARK-39904] [SQL] Rinominare inferDate a prefersDate e chiarire la semantica dell'opzione nell'origine dati CSV
  • [SPARK-39958] [SQL] Aggiungere il log degli avvisi quando non è possibile caricare l'oggetto metrica personalizzato
  • [SPARK-39932] [SQL] WindowExec deve cancellare il buffer di partizione finale
  • [SPARK-37194] [SQL] Evitare l'ordinamento non necessario nella scrittura della versione 1 se non è una partizione dinamica
  • [SPARK-39902] [SQL] Aggiungere i dettagli di scansione al nodo di scansione del piano Spark in SparkUI
  • [SPARK-39865] [SQL] Mostrare messaggi di errore appropriati per gli errori di overflow nell'inserimento delle tabelle
  • [SPARK-39940] [SS] Aggiorna la tabella del catalogo nella query di streaming con sink DSv1
  • [SPARK-39827] [SQL] Usa la classe di errore per overflow intero in ARITHMETIC_OVERFLOW
  • [SPARK-39914] [SQL] Aggiungere il filtro DS V2 alla conversione del filtro V1
  • [SPARK-39857] [SQL] Backport manuale di Databricks Runtime 11.x; V2ExpressionBuilder usa il tipo di dati LiteralValue errato per il predicato "In" #43454
  • [SPARK-39840] [SQL][python] Factor PythonArrowInput come simmetria di PythonArrowOutput
  • [SPARK-39651] [SQL] La condizione di filtro prune se confrontata con rand è deterministica
  • [SPARK-39877] [PYTHON] Aggiungere unpivot all'API del DataFrame PySpark
  • [SPARK-39909] [SQL] Organizzare la verifica delle informazioni di pushdown per JDBCV2Suite
  • [SPARK-39834] [SQL][ss] Includere le statistiche di origine e i vincoli per LogicalRDD se proviene dal dataframe
  • [SPARK-39849] [SQL] Dataset.as(StructType) riempie le nuove colonne mancanti con valore Null
  • [SPARK-39860] [SQL] Più espressioni devono estendere predicato
  • [SPARK-39823] [SQL][python] Rinominare Dataset.as come Dataset.to e aggiungere DataFrame.to in PySpark
  • [SPARK-39918] [SQL][minor] Sostituire la parola "non confrontabile" con "incomparabile" nel messaggio di errore
  • [SPARK-39857] [SQL][3.3] V2ExpressionBuilder usa il tipo di dati LiteralValue errato per Il predicato In
  • [SPARK-39862] [SQL] Backport manuale per il pull request 43654 destinato a Databricks Runtime 11.x: aggiornare SQLConf.DEFAULT_COLUMN_ALLOWED_PROVIDERS per consentire/negare ALTER TABLE ... Aggiungi i comandi COLUMN separatamente.
  • [SPARK-39844] [SQL] Backport manuale per il pull request 43652 destinato a Databricks Runtime 11.x
  • [SPARK-39899] [SQL] Correzione del passaggio di parametri del messaggio a InvalidUDFClassException
  • [SPARK-39890] [SQL] Far ereditare a TakeOrderedAndProjectExec AliasAwareOutputOrdering
  • [SPARK-39809] [PYTHON] Il supporto di CharType in PySpark
  • [SPARK-38864] [SQL] Aggiungere unpivot/melt al set di dati
  • [SPARK-39864] [SQL] Registrare in modo ritardato ExecutionListenerBus
  • [SPARK-39808] [SQL] Supporto della funzione di aggregazione MODE
  • [SPARK-39875] [SQL] Modificare il protected metodo nella classe finale in private o package-visible
  • [SPARK-39731] [SQL] Correggere il problema nelle origini dati CSV e JSON durante l'analisi delle date nel formato "aaaaMMdd" con la politica del parser temporale CORRECTED
  • [SPARK-39805] [SS] Sconsigliare Trigger.Once, e Promuovere Trigger.AvailableNow
  • [SPARK-39784] [SQL] Inserire i valori letterali sul lato destro del filtro dell'origine dati dopo la conversione dell'espressione Catalyst nel filtro dell'origine dati
  • [SPARK-39672] [SQL][3.1] Correggere la rimozione del progetto prima del filtro con sottoquery correlata
  • [SPARK-39552] [SQL] Unificare v1 e v2 DESCRIBE TABLE
  • [SPARK-39810] [SQL] Catalog.tableExists deve gestire lo spazio dei nomi annidato
  • [SPARK-37287] [SQL] Estrarre la partizione dinamica e l'ordinamento dei bucket da FileFormatWriter
  • [SPARK-39469] [SQL] Inferenza del tipo di data per l'inferenza dello schema CSV
  • [SPARK-39148] [SQL] L'aggregate push down di DS V2 può funzionare con OFFSET o LIMIT
  • [SPARK-39818] [SQL] Correzione di bug in ARRAY, STRUCT, tipi MAP con valori DEFAULT con campi NULL
  • [SPARK-39792] [SQL] Aggiungere la funzione DecimalDivideWithOverflowCheck per il calcolo della media decimale
  • [SPARK-39798] [SQL] Replcace toSeq.toArray con .toArray[Any] nel costruttore di GenericArrayData
  • [SPARK-39759] [SQL] Implementare listIndexes in JDBC (dialetto H2)
  • [SPARK-39385] [SQL] Supporta il push verso il basso REGR_AVGX e REGR_AVGY
  • [SPARK-39787] [SQL] Usare classe di errore nell'errore di parsing della funzione to_timestamp
  • [SPARK-39760] [PYTHON] Supporto di Varchar in PySpark
  • [SPARK-39557] [SQL] Backport manuale per Databricks Runtime 11.x: Supporto dei tipi ARRAY, STRUCT e MAP come valori DEFAULT
  • [SPARK-39758] [SQL][3.3] Correggere NPE dalle funzioni regexp su schemi non validi
  • [SPARK-39749] [SQL] Modalità SQL ANSI: usare la rappresentazione di stringa normale per convertire i decimali in stringhe
  • [SPARK-39704] [SQL] Implementare le funzioni createIndex, dropIndex e indexExists in JDBC (dialetto H2)
  • [SPARK-39803] [SQL] Usare LevenshteinDistance invece di StringUtils.getLevenshteinDistance
  • [SPARK-39339] [SQL] Supportare il tipo TimestampNTZ nell'origine dati JDBC
  • [SPARK-39781] [SS] Aggiungere il supporto per la fornitura di max_open_files al fornitore dell'archivio di stato di rocksdb
  • [SPARK-39719] [R] Implementare databaseExists/getDatabase nel namespace SparkR con supporto 3L.
  • [SPARK-39751] [SQL] Rinominare la metrica dei tentativi delle chiavi di aggregazione hash
  • [SPARK-39772] Lo spazio dei nomi [SQL] deve essere nullo quando il database è nullo nei vecchi costruttori
  • [SPARK-39625] [SPARK-38904][sql] Aggiungere Dataset.as(StructType)
  • [SPARK-39384] [SQL] Compilare funzioni di aggregazione di regressione lineare predefinite per il dialetto JDBC
  • [SPARK-39720] [R] Implementare tableExists/getTable in SparkR per il namespace 3L
  • [SPARK-39744] [SQL] Aggiungere la REGEXP_INSTR funzione
  • [SPARK-39716] [R] Rendere currentDatabase/setCurrentDatabase/listCatalogs in SparkR compatibile con lo spazio dei nomi 3L.
  • [SPARK-39788] [SQL] Rinominare catalogName in dialectName per JdbcUtils
  • [SPARK-39647] [CORE] Registrare l'executor con ESS prima di registrare BlockManager
  • [SPARK-39754] [CORE][sql] Rimuovere import inutilizzati o {} non necessari
  • [SPARK-39706] [SQL] Impostare la colonna mancante con defaultValue come costante in ParquetColumnVector
  • [SPARK-39699] [SQL] Rendere CollapseProject più intelligente sulle espressioni di creazione della raccolta
  • [SPARK-39737] [SQL] PERCENTILE_CONT e PERCENTILE_DISC devono supportare il filtro aggregato
  • [SPARK-39579] [SQL][python][R] Rendere ListFunctions/getFunction/functionExists compatibili con lo spazio dei nomi a 3 livelli
  • [SPARK-39627] [SQL] Il pushdown di JDBC V2 deve unificare l'API di compilazione
  • [SPARK-39748] [SQL][ss] Includere il piano logico di origine per LogicalRDD se proviene dal DataFrame
  • [SPARK-39385] [SQL] Tradurre le funzioni aggregate di regressione lineare per l'applicazione di pushdown
  • [SPARK-39695] [SQL] Aggiungere la REGEXP_SUBSTR funzione
  • [SPARK-39667] [SQL] Aggiungere un'altra soluzione alternativa quando la memoria non è sufficiente per compilare e trasmettere la tabella
  • [SPARK-39666] [ES-337834][sql] Usare UnsafeProjection.create per rispettare spark.sql.codegen.factoryMode in ExpressionEncoder
  • [SPARK-39643] [SQL] Non consentire espressioni di sottoquery nei valori DEFAULT
  • [SPARK-38647] [SQL] Aggiungere la combinazione SupportsReportOrdering nell'interfaccia per l'analisi (DataSourceV2)
  • [SPARK-39497] [SQL] Migliorare l'eccezione di analisi della colonna chiave della mappa mancante
  • [SPARK-39661] [SQL] Evitare di creare logger SLF4J non necessari
  • [SPARK-39713] [SQL] Modalità ANSI: aggiungere un suggerimento per l'uso di try_element_at per l'errore INVALID_ARRAY_INDEX
  • [SPARK-38899] [SQL]DS V2 supporta il push-down delle funzioni datetime
  • [SPARK-39638] [SQL] Modificare l'uso ConstantColumnVector per archiviare le colonne di partizione in OrcColumnarBatchReader
  • [SPARK-39653] [SQL] Eseguire la pulizia ColumnVectorUtils#populate(WritableColumnVector, InternalRow, int) da ColumnVectorUtils
  • [SPARK-39231] [SQL] Usare ConstantColumnVector anziché On/OffHeapColumnVector per archiviare le colonne di partizione in VectorizedParquetRecordReader
  • [SPARK-39547] [SQL] V2SessionCatalog non deve lanciare NoSuchDatabaseException in loadNamespaceMetadata
  • [SPARK-39447] [SQL] Evitare AssertionError in AdaptiveSparkPlanExec.doExecuteBroadcast
  • [SPARK-39492] [SQL] Rielaborazione di MISSING_COLUMN
  • [SPARK-39679] [SQL] TakeOrderedAndProjectExec deve rispettare l'ordinamento dell'output dei figli
  • [SPARK-39606] [SQL] Usare le statistiche dei figli per stimare l'operatore di ordinamento
  • [SPARK-39611] [PYTHON][ps] Correggere gli alias errati in array_ufunc
  • [SPARK-39656] [SQL][3.3] Correzione dello spazio dei nomi errato in DescribeNamespaceExec
  • [SPARK-39675] [SQL] Modifica la configurazione 'spark.sql.codegen.factoryMode' dall'uso per scopi di test a scopi interni.
  • [SPARK-39139] [SQL] DS V2 supporta il trasferimento della funzione definita dall'utente DS V2
  • [SPARK-39434] [SQL] Specificare il contesto dell'errore di runtime nella query quando l'indice dell'array è fuori dai limiti
  • [SPARK-39479] [SQL] DS V2 supporta la spinta verso il basso delle funzioni matematiche (non ANSI)
  • [SPARK-39618] [SQL] Aggiungere la REGEXP_COUNT funzione
  • [SPARK-39553] [CORE] La cancellazione della registrazione dello shuffle multithread non deve lanciare un NPE quando si usa Scala 2.13
  • [SPARK-38755] [PYTHON][3.3] Aggiungere un file per affrontare la mancanza delle funzioni generali di pandas
  • [SPARK-39444] [SQL] Aggiungere OptimizeSubqueries nell'elenco nonExcludableRules
  • [SPARK-39316] [SQL] Merge PromotePrecision e CheckOverflow nell'aritmetica decimale binaria
  • [SPARK-39505] [interfaccia utente] Rendering del contenuto del log di escape nell'interfaccia utente
  • [SPARK-39448] [SQL] Aggiungi ReplaceCTERefWithRepartition nell'elenco nonExcludableRules
  • [SPARK-37961] [SQL] Eseguire l'override di maxRows/maxRowsPerPartition per alcuni operatori logici
  • [SPARK-35223] Annullare l'aggiunta di IssueNavigationLink
  • [SPARK-39633] [SQL] Supporto del timestamp in secondi per TimeTravel utilizzando le opzioni del DataFrame
  • [SPARK-38796] [SQL] Aggiornare la documentazione per le stringhe di formato numerico con le funzioni {try_}to_number
  • [SPARK-39650] [SS] Correzione dello schema di valore non corretto nella deduplicazione dello streaming con retrocompatibilità.
  • [SPARK-39636] [CORE][ui] Correzione di più bug in JsonProtocol, che influiscono su heap StorageLevels e Task/Executor ResourceRequests
  • [SPARK-39432] [SQL] Restituisce ELEMENT_AT_BY_INDEX_ZERO da element_at(*, 0)
  • [SPARK-39349] Aggiungere un metodo CheckError centralizzato per QA del flusso di gestione degli errori
  • [SPARK-39453] [SQL] DS V2 supporta la trasmissione al livello inferiore di varie funzioni non aggregate (non ANSI)
  • [SPARK-38978] [SQL] DS V2 supporta l'operatore push down OFFSET
  • [SPARK-39567] [SQL] Supportare gli intervalli ANSI nelle funzioni percentili
  • [SPARK-39383] [SQL] Supportare le colonne DEFAULT in ALTER TABLE ALTER COLUMNS nelle origini dati V2
  • [SPARK-39396] [SQL] Correzione dell'eccezione di accesso LDAP 'codice di errore 49 - credenziali non valide'
  • [SPARK-39548] [SQL] Comando CreateView con una query della clausola window ha riscontrato un problema di definizione di finestra non trovata
  • [SPARK-39575] [AVRO] aggiungi ByteBuffer#rewind dopo ByteBuffer#get in Avr…
  • [SPARK-39543] L'opzione di `DataFrameWriterV2` dovrebbe essere passata alle proprietà di archiviazione se avviene il fallback a v1.
  • [SPARK-39564] [SS] Rendere accessibili le informazioni della tabella del catalogo nel piano logico nelle query di streaming
  • [SPARK-39582] [SQL] Correzione del marcatore "Since" per array_agg
  • [SPARK-39388] [SQL] Riutilizzare orcSchema quando si esegue il push down dei predicati Orc
  • [SPARK-39511] [SQL] Migliorare il push verso il basso limite locale 1 per il lato destro del semi/anti join sinistro se la condizione di join è vuota
  • [SPARK-38614] [SQL] Non eseguire il push del limite nella finestra che usa percent_rank
  • [SPARK-39551] [SQL] Aggiungere un controllo per un piano AQE non valido
  • [SPARK-39383] [SQL] Supporto per le colonne DEFAULT in ALTER TABLE AGGIUNGI COLUMNS alle origini dati V2
  • [SPARK-39538] [SQL] Evitare di creare logger SLF4J non necessari
  • [SPARK-39383] [SQL] Backport manuale in Databricks Runtime 11.x: Effettuare il refactoring del supporto per le colonne DEFAULT per evitare di passare l'analizzatore primario
  • [SPARK-39397] [SQL] Rilassa AliasAwareOutputExpression per supportare alias con espressione
  • [SPARK-39496] [SQL] Gestire un struct Null in Inline.eval
  • [SPARK-39545] [SQL] Eseguire l'override concat del metodo per ExpressionSet in Scala 2.13 per migliorare le prestazioni
  • [SPARK-39340] [SQL] Il pushdown dell'aggregazione di DS v2 deve consentire l'uso dei punti nei nomi delle colonne a livello superiore.
  • [SPARK-39488] [SQL] Semplificare la gestione degli errori di TempResolvedColumn
  • [SPARK-38846] [SQL] Aggiungere il mapping esplicito dei dati tra tipo numerico Teradata e Spark DecimalType
  • [SPARK-39520] [SQL] Sovrascrivere il metodo -- per ExpressionSet in Scala 2.13
  • [SPARK-39470] [SQL] Supporto per il casting di intervalli ANSI a decimali
  • [SPARK-39477] [SQL] Rimuovere le informazioni sul numero di query dai file golden di SQLQueryTestSuite
  • [SPARK-39419] [SQL] Correzione di ArraySort per generare un'eccezione quando il confronto restituisce Null
  • [SPARK-39061] [SQL] Impostare nullable correttamente per gli attributi di output Inline
  • [SPARK-39320] [SQL] Supporto della funzione di aggregazione MEDIAN
  • [SPARK-39261] [CORE] Migliorare la formattazione delle nuove righe per i messaggi di errore
  • [SPARK-39355] [SQL] La colonna singola usa virgolette per costruire UnresolvedAttribute
  • [SPARK-39351] [SQL] SHOW CREATE TABLE dovrebbe nascondere le proprietà
  • [SPARK-37623] [SQL] Supporto della funzione di aggregazione ANSI: regr_intercept
  • [SPARK-39374] [SQL] Migliorare il messaggio di errore per l'elenco di colonne specificato dall'utente
  • [SPARK-39255] [SQL][3.3] Migliorare i messaggi di errore
  • [SPARK-39321] [SQL] Effettuare il refactoring di TryCast per usare RuntimeReplaceable
  • [SPARK-39406] [PYTHON] Accettare una matrice NumPy in createDataFrame
  • [SPARK-39267] [SQL] Pulire il simbolo dsl non necessario
  • [SPARK-39171] [SQL] Unificare l'espressione Cast
  • [SPARK-28330] [SQL] Supporto di ANSI SQL: clausola offset dei risultati nell'espressione di query
  • [SPARK-39203] [SQL] Riscrivere la posizione della tabella nell'URI assoluto in base all'URI del database
  • [SPARK-39313] [SQL] toCatalystOrdering deve avere esito negativo se non è possibile convertire V2Expression
  • [SPARK-39301] [SQL][python] Sfruttare LocalRelation e rispettare le dimensioni del batch Arrow in createDataFrame con ottimizzazione Arrow
  • [SPARK-39400] [SQL] spark-sql deve rimuovere il dir della risorsa Hive in tutti i casi

Aggiornamenti di manutenzione

Vedere Aggiornamenti della manutenzione di Databricks Runtime 11.2.

Ambiente di sistema

  • Sistema operativo: Ubuntu 20.04.4 LTS
  • Java: Zulu 8.56.0.21-CA-linux64
  • Scala: 2.12.14
  • Python: 3.9.5
  • R: 4.1.3
  • Delta Lake: 2.1.0

Librerie di Python installate

Libreria Versione Libreria Versione Libreria Versione
Antergos Linux 10/2015 (ISO-Rolling) argon2-cffi 20.1.0 generatore asincrono 1.10
att. 21.2.0 chiamata di ritorno 0.2.0 backports.entry-points-selectable 1.1.1
nero 22.3.0 candeggiare 4.0.0 boto3 1.21.18
botocore 1.24.18 certifi 2021.10.8 cffi 1.14.6
chardet 4.0.0 normalizzatore di set di caratteri 2.0.4 fai clic 8.0.3
criptografia 3.4.8 ciclista 0.10.0 Cython, un linguaggio di programmazione 0.29.24
dbus-python 1.2.16 debugpy 1.4.1 Decoratore 5.1.0
defusedxml 0.7.1 distlib 0.3.5 informazioni sulla distribuzione 0.23ubuntu1
punti di ingresso 0,3 panoramica delle facette 1.0.0 blocco dei file 3.8.0
IDNA 3.2 ipykernel 6.12.1 ipython 7.32.0
ipython-genutils 0.2.0 ipywidgets 7.7.0 jedi 0.18.0
Jinja2 2.11.3 jmespath 0.10.0 joblib 1.0.1
jsonschema 3.2.0 jupyter-client 6.1.12 jupyter-core 4.8.1
jupyterlab-pygments 0.1.2 jupyterlab-widgets 1.0.0 kiwisolver 1.3.1
MarkupSafe 2.0.1 matplotlib 3.4.3 matplotlib-inline 0.1.2
Mistune 0.8.4 mypy-extensions 0.4.3 nbclient 0.5.3
nbconvert 6.1.0 nbformat 5.1.3 nest-asyncio 1.5.1
taccuino 6.4.5 numpy 1.20.3 imballaggio 21.0
Panda 1.3.4 pandocfilters 1.4.3 parso 0.8.2
pathspec 0.9.0 vittima 0.5.2 pexpect 4.8.0
pickleshare (libreria di software Python) 0.7.5 Cuscino 8.4.0 seme 21.2.4
platformdirs 2.5.2 plotly (software di visualizzazione dati) 5.9.0 prometheus-client 0.11.0
prompt-toolkit 3.0.20 protobuf 4.21.5 psutil 5.8.0
psycopg2 2.9.3 ptyprocess 0.7.0 pyarrow 7.0.0
pycparser (un parser scritto in Python) 2.20 Pygments 2.10.0 PyGObject 3.36.0
pyodbc 4.0.31 pyparsing 3.0.4 pyrsistent 0.18.0
python-apt 2.0.0+ubuntu0.20.4.7 python-dateutil (libreria Python per la gestione delle date) 2.8.2 pytz 2021.3
pyzmq 22.2.1 richieste 2.26.0 requests-unixsocket 0.2.0
s3transfer 0.5.2 scikit-learn 0.24.2 scipy 1.7.1
Seaborn 0.11.2 Send2Trash 1.8.0 setuptools (pacchetto Python per gestire la configurazione e la distribuzione) 58.0.4
sei 1.16.0 ssh-import-id (comando per l'importazione di chiavi SSH) 5.10 statsmodels 0.12.2
tenacità 8.0.1 finito 0.9.4 percorso di prova 0.5.0
threadpoolctl 2.2.0 tokenize-rt 4.2.1 tomli 2.0.1
tornado 6.1 traitlets (una libreria per la configurazione dei parametri nei programmi Python) 5.1.0 tipizzazione di estensioni 3.10.0.2
aggiornamenti non supervisionati 0,1 urllib3 1.26.7 virtualenv 20.8.0
wcwidth (funzione per determinare la larghezza dei caratteri) 0.2.5 codifiche web 0.5.1 ruota 0.37.0
widgetsnbextension 3.6.0

Librerie R installate

Le librerie R vengono installate dallo snapshot Microsoft CRAN nel 2022-08-15.

Libreria Versione Libreria Versione Libreria Versione
askpass 1.1 assicura che 0.2.1 retroportazioni 1.4.1
base 4.1.3 base64enc 0.1-3 bit 4.0.4
bit 64 4.0.5 massa amorfa 1.2.3 avvio 1.3-28
fermentare 1.0-7 Brio 1.1.3 scopa 1.0.0
bslib 0.4.0 cashmere 1.0.6 chiamante 3.7.1
caret 6.0-93 cellranger 1.1.0 cronometro 2.3-57
class 7.3-20 CLI 3.3.0 Clipr 0.8.0
raggruppamento 2.1.3 strumenti per la codifica 0.2-18 spazio colorimetrico 2.0-3
segno comune 1.8.0 compilatore 4.1.3 configurazione 0.3.1
cpp11 0.4.2 crayon 1.5.1 credenziali 1.3.2
curva 4.3.2 tabella di dati 1.14.2 Insiemi di dati 4.1.3
DBI 1.1.3 dbplyr 2.2.1 descrizione 1.4.1
strumenti per sviluppatori 2.4.4 diffobj 0.3.5 digerire 0.6.29
illuminazione rivolta verso il basso 0.4.2 dplyr 1.0.9 dtplyr 1.2.1
e1071 1.7-11 ellissi 0.3.2 valutare 0,16
fan 1.0.3 colori 2.1.1 mappatura veloce 1.1.0
fontawesome 0.3.0 forzati 0.5.1 foreach 1.5.2
straniero 0.8-82 forgiare 0.2.0 fs 1.5.2
futuro 1.27.0 futuro.applicare 1.9.0 fare gargarismi 1.2.0
elementi generici 0.1.3 gert 1.7.0 ggplot2 3.3.6
gh 1.3.0 gitcreds 0.1.1 glmnet 4.1-4
elementi globali 0.16.0 colla 1.6.2 Google Drive 2.0.0
googlesheets4 1.0.1 Gower 1.0.0 grafica 4.1.3
grDispositivi 4.1.3 griglia 4.1.3 gridExtra 2.3
gsubfn 0.7 gtable 0.3.0 casco protettivo 1.2.0
rifugio 2.5.0 più alto 0.9 HMS 1.1.1
strumenti HTML 0.5.3 htmlwidgets 1.5.4 httpuv 1.6.5
httr 1.4.3 documenti di identità 1.0.1 ini 0.3.1
ipred 0.9-13 banderelle isografiche 0.2.5 Iteratori 1.0.14
jquerylib 0.1.4 jsonlite 1.8.0 KernSmooth 2.23-20
knitr 1.39 etichettatura 0.4.2 più tardi 1.3.0
reticolo 0.20-45 lava 1.6.10 ciclo di vita 1.0.1
ascolta 0.8.0 lubridate 1.8.0 magrittr 2.0.3
Markdown 1.1 Massa 7.3-56 Matrice 1.4-1
memorizza 2.0.1 metodi 4.1.3 mgcv 1.8-40
mime 0.12 miniUI 0.1.1.1 ModelMetrics 1.2.2.2
modelr 0.1.8 munsell 0.5.0 nlme 3.1-157
nnet (rete neurale) 7.3-17 Derivazione numerica 2016.8-1.1 openssl 2.0.2
parallelo 4.1.3 parallelamente 1.32.1 pilastro 1.8.0
pkgbuild 1.3.1 pkgconfig 2.0.3 pkgdown 2.0.6
pkgload 1.3.0 plogr 0.2.0 plyr 1.8.7
elogio 1.0.0 prettyunits 1.1.1 pROC 1.18.0
processx 3.7.0 prodlim 2019.11.13 profvis 0.3.7
Avanzamento 1.2.2 progressr 0.10.1 promesse 1.2.0.1
proto / prototipo 1.0.0 intermediario 0,4–27 P.S. 1.7.1
purrr 0.3.4 r2d3 0.2.6 R6 2.5.1
ragg 1.2.2 randomForest 4.7-1.1 rappdirs 0.3.3
rcmdcheck 1.4.0 RColorBrewer 1.1-3 Rcpp (una libreria per il linguaggio di programmazione R) 1.0.9
RcppEigen 0.3.3.9.2 readr 2.1.2 readxl (software per leggere documenti Excel) 1.4.0
ricette 1.0.1 nuovo incontro 1.0.1 rematch2 2.1.2
Telecomandi 2.4.2 esempio riproducibile (reprex) 2.0.1 reshape2 1.4.4
rlang 1.0.4 rmarkdown 2.14 RODBC 1.3-19
roxygen2 7.2.1 rpart 4.1.16 rprojroot 2.0.3
Rserve 1.8-11 RSQLite 2.2.15 rstudioapi 0.13
rversions 2.1.1 rvest 1.0.2 Sass 0.4.2
Scala 1.2.0 selettore 0,4-2 informazioni sulla sessione 1.2.2
forma 1.4.6 brillante 1.7.2 sourcetools 0.1.7
sparklyr 1.7.7 SparkR 3.3.0 spaziale 7.3-11
splines 4.1.3 sqldf 0,4-11 SQUAREM 2021.1
statistiche 4.1.3 statistiche4 4.1.3 string 1.7.8
stringr 1.4.0 Sopravvivenza 3.2-13 sys 3.4
systemfonts 1.0.4 tcltk 4.1.3 testthat 3.1.4
modellazione del testo 0.3.6 Tibble 3.1.8 tidyr 1.2.0
tidyselect 1.1.2 tidyverse 1.3.2 data e ora 4021.104
tinytex 0.40 strumenti 4.1.3 tzdb 0.3.0
verificatore di URL 1.0.1 Usa questo 2.1.6 utf8 1.2.2
Utilità 4.1.3 UUID (Identificatore Unico Universale) 1.1-0 vctrs 0.4.1
viridisLite 0.4.0 vrooom 1.5.7 Waldo 0.4.0
filo sottile 0.4 withr 2.5.0 xfun 0,32
xml2 1.3.3 xopen 1.0.0 xtable 1.8-4
yaml 2.3.5 formato zip 2.2.0

Librerie Java e Scala installate (versione cluster Scala 2.12)

ID del Gruppo ID dell'artefatto Versione
antlr antlr 2.7.7
com.amazonaws Amazon Kinesis Client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.189
com.amazonaws aws-java-sdk-cloudformation 1.12.189
com.amazonaws aws-java-sdk-cloudfront 1.12.189
com.amazonaws aws-java-sdk-cloudhsm 1.12.189
com.amazonaws aws-java-sdk-cloudsearch 1.12.189
com.amazonaws aws-java-sdk-cloudtrail 1.12.189
com.amazonaws aws-java-sdk-cloudwatch 1.12.189
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.189
com.amazonaws aws-java-sdk-codedeploy 1.12.189
com.amazonaws aws-java-sdk-cognitoidentity 1.12.189
com.amazonaws aws-java-sdk-cognitosync 1.12.189
com.amazonaws aws-java-sdk-config (configurazione SDK Java per AWS) 1.12.189
com.amazonaws aws-java-sdk-core 1.12.189
com.amazonaws aws-java-sdk-datapipeline 1.12.189
com.amazonaws aws-java-sdk-directconnect (strumento per la connessione diretta in Java di AWS) 1.12.189
com.amazonaws aws-java-sdk-directory 1.12.189
com.amazonaws aws-java-sdk-dynamodb 1.12.189
com.amazonaws aws-java-sdk-ec2 1.12.189
com.amazonaws aws-java-sdk-ecs 1.12.189
com.amazonaws aws-java-sdk-efs 1.12.189
com.amazonaws aws-java-sdk-elasticache 1.12.189
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.189
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.189
com.amazonaws aws-java-sdk-elastictranscoder 1.12.189
com.amazonaws aws-java-sdk-emr 1.12.189
com.amazonaws AWS Java SDK per Glacier 1.12.189
com.amazonaws aws-java-sdk-glue (collegamento SDK Java AWS) 1.12.189
com.amazonaws aws-java-sdk-iam 1.12.189
com.amazonaws aws-java-sdk-importexport 1.12.189
com.amazonaws aws-java-sdk-kinesis 1.12.189
com.amazonaws aws-java-sdk-kms 1.12.189
com.amazonaws aws-java-sdk-lambda 1.12.189
com.amazonaws aws-java-sdk-logs 1.12.189
com.amazonaws AWS Java SDK Machine Learning 1.12.189
com.amazonaws aws-java-sdk-opsworks 1.12.189
com.amazonaws aws-java-sdk-rds 1.12.189
com.amazonaws aws-java-sdk-redshift 1.12.189
com.amazonaws aws-java-sdk-route53 1.12.189
com.amazonaws aws-java-sdk-s3 1.12.189
com.amazonaws aws-java-sdk-ses 1.12.189
com.amazonaws aws-java-sdk-simpledb 1.12.189
com.amazonaws aws-java-sdk-simpleworkflow 1.12.189
com.amazonaws aws-java-sdk-sns 1.12.189
com.amazonaws aws-java-sdk-sqs 1.12.189
com.amazonaws aws-java-sdk-ssm 1.12.189
com.amazonaws aws-java-sdk-storagegateway (SDK di AWS per Java per Storage Gateway) 1.12.189
com.amazonaws aws-java-sdk-sts 1.12.189
com.amazonaws aws-java-sdk-support (supporto del kit di sviluppo software Java per AWS) 1.12.189
com.amazonaws Librerie aws-java-sdk-swf 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.189
com.amazonaws jmespath-java 1.12.189
com.chuusai shapeless_2.12 2.3.3
com.clearspring.analytics torrente 2.9.6
com.databricks Rserve 1.8-3
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware ombreggiato criogenico 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml compagno di classe 1.3.4
com.fasterxml.jackson.core Annotazioni di Jackson 2.13.3
com.fasterxml.jackson.core jackson-core 2.13.3
com.fasterxml.jackson.core jackson-databind 2.13.3
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.13.3
com.fasterxml.jackson.datatype jackson-datatype-joda 2.13.3
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.13.3
com.fasterxml.jackson.module jackson-module-paranamer 2.13.3
com.fasterxml.jackson.module jackson-module-scala_2.12 2.13.3
com.github.ben-manes.caffeine caffeina 2.3.4
com.github.fommil jniloader 1.1
com.github.fommil.netlib nucleo 1.1.2
com.github.fommil.netlib riferimento_nativo-java 1.1
com.github.fommil.netlib native_ref-java-natives (riferimenti a nativi Java) 1.1
com.github.fommil.netlib sistema_nativo-java 1.1
com.github.fommil.netlib sistema_nativo-java-nitidi 1.1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-natives 1.1
com.github.fommil.netlib netlib-sistema_nativo-linux-x86_64-natives 1.1
com.github.luben zstd-jni (libreria open-source per compressione con Java Native Interface) 1.5.2-1
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.8.6
com.google.crypto.tink tink 1.6.1
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava guava 15,0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 2.0.204
com.helger profilatore 1.1.1
com.jcraft jsch 0.1.50
com.jolbox bonecp 0.8.0.RILASCIO
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure Azure Data Lake Store SDK 2.3.9
com.ning compress-lzf (algoritmo di compressione) 1.1
com.sun.mail javax.mail (package Java per la gestione della posta elettronica) 1.5.2
com.tdunning JSON 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenti_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe configurazione 1.2.1
com.typesafe.scala-logging scala-logging_2.12 (libreria per la gestione dei log in Scala, versione 2.12) 3.7.2
com.uber h3 3.7.0
com.univocity parser di univocità 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec (libreria per la codifica comune) commons-codec (libreria per la codifica comune) 1.15
collezioni-comuni collezioni-comuni 3.2.2
commons-dbcp commons-dbcp 1.4
funzione di caricamento file dei Commons funzione di caricamento file dei Commons 1.3.3
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
commons-logging (no translation needed) commons-logging (no translation needed) 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 2.2.1
dev.ludovic.netlib Blas 2.2.1
dev.ludovic.netlib LAPACK 2.2.1
hadoop3 jets3t-0.7 liball_deps_2.12
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift compressore d'aria 0.21
io.delta delta-sharing-spark_2.12 0.5.0
io.dropwizard.metrics nucleo delle metriche 4.1.1
io.dropwizard.metrics metrics-graphite 4.1.1
io.dropwizard.metrics metriche-controlli di salute 4.1.1
io.dropwizard.metrics metrics-jetty9 4.1.1
io.dropwizard.metrics metrics-jmx 4.1.1
io.dropwizard.metrics metrics-json (Specificare ulteriormente se necessario a seconda del contesto) 4.1.1
io.dropwizard.metrics metrics-jvm 4.1.1
io.dropwizard.metrics metriche-servlet 4.1.1
io.netty netty-all 4.1.74.Final
io.netty netty-buffer 4.1.74.Final
io.netty netty-codec 4.1.74.Final
io.netty netty-common 4.1.74.Final
io.netty netty-handler 4.1.74.Final
io.netty netty-resolver 4.1.74.Final
io.netty netty-tcnative-classes 2.0.48.Final
io.netty netty-transport 4.1.74.Final
io.netty netty-transport-classes-epoll 4.1.74.Final
io.netty netty-transport-classes-kqueue 4.1.74.Final
io.netty netty-transport-native-epoll-linux-aarch_64 4.1.74.Final
io.netty "netty-transport-native-epoll-linux-x86_64" 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-aarch_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-x86_64 4.1.74.Final
io.netty netty-transport-native-unix-comune 4.1.74.Final
io.prometheus simpleclient 0.7.0
io.prometheus sempliceclient_comune 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx collezionista 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation attivazione 1.1.1
javax.annotation javax.annotation-api 1.3.2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction Java Transaction API (JTA) 1.1
javax.transaction API per le transazioni 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.10.13
mvn hadoop3 liball_deps_2.12
net.java.dev.jna jna 5.8.0
net.razorvine sottaceto 1.2
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv (formato CSV avanzato) 2.2.0
net.snowflake snowflake-ingest-sdk (kit di sviluppo software per l'ingestione dati) 0.9.6
net.snowflake snowflake-jdbc 3.13.14
net.snowflake spark-snowflake_2.12 2.10.0-spark_3.2
net.sourceforge.f2j arpack_combinato_tutto 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.8
org.antlr modello di stringa 3.2.1
org.apache.ant formica 1.9.2
org.apache.ant ant-jsch 1.9.2
org.apache.ant ant launcher 1.9.2
org.apache.arrow formato a freccia 7.0.0
org.apache.arrow arrow-nucleo-di-memoria 7.0.0
org.apache.arrow arrow-memory-netty 7.0.0
org.apache.arrow freccia-vettore 7.0.0
org.apache.avro Avro 1.11.0
org.apache.avro avro-ipc 1.11.0
org.apache.avro avro-mapred 1.11.0
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.21
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons testo comune 1.9
org.apache.curator cliente del curatore 2.13.0
org.apache.curator framework del curatore 2.13.0
org.apache.curator ricette del curatore 2.13.0
org.apache.derby derby sportivo 10.14.2.0
org.apache.hadoop API del client Hadoop 3.3.2-databricks
org.apache.hadoop runtime del client Hadoop 3.3.2
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive Hive-JDBC 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive spessori del sistema Hive 2.3.9
org.apache.hive API di archiviazione Hive 2.7.2
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims Hive-shims-common 2.3.9
org.apache.hive.shims hive-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.13
org.apache.httpcomponents httpcore 4.4.14
org.apache.ivy Edera 2.5.0
org.apache.logging.log4j log4j-1.2-api 2.17.2
org.apache.logging.log4j log4j-api 2.17.2
org.apache.logging.log4j log4j-core 2.17.2
org.apache.logging.log4j log4j-slf4j-impl 2.17.2
org.apache.mesos mesos-shaded-protobuf 1.4.0
org.apache.orc orc-core 1.7.5
org.apache.orc orc-mapreduce 1.7.5
org.apache.orc orc-shims 1.7.5
org.apache.parquet parquet-column 1.12.0-databricks-0004
org.apache.parquet parquet-common 1.12.0-databricks-0004
org.apache.parquet parquet-encoding 1.12.0-databricks-0004
org.apache.parquet strutture in formato parquet 1.12.0-databricks-0004
org.apache.parquet parquet-hadoop 1.12.0-databricks-0004
org.apache.parquet parquet-jackson 1.12.0-databricks-0004
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-shaded 4.20
org.apache.yetus annotazioni per il pubblico 0.5.0
org.apache.zookeeper guardiano dello zoo 3.6.2
org.apache.zookeeper guardiano dello zoo-juta 3.6.2
org.checkerframework verificatore qualità 3.5.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino Commons-Compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus Datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.46.v20220331
org.eclipse.jetty continuazione di jetty 9.4.46.v20220331
org.eclipse.jetty jetty-http 9.4.46.v20220331
org.eclipse.jetty jetty-io 9.4.46.v20220331
org.eclipse.jetty jetty-jndi 9.4.46.v20220331
org.eclipse.jetty Jetty Plus 9.4.46.v20220331
org.eclipse.jetty jetty-proxy 9.4.46.v20220331
org.eclipse.jetty sicurezza del molo 9.4.46.v20220331
org.eclipse.jetty Jetty Server 9.4.46.v20220331
org.eclipse.jetty jetty-servlet 9.4.46.v20220331
org.eclipse.jetty jetty-servlets 9.4.46.v20220331
org.eclipse.jetty jetty-util 9.4.46.v20220331
org.eclipse.jetty jetty-util-ajax 9.4.46.v20220331
org.eclipse.jetty applicazione web di Jetty 9.4.46.v20220331
org.eclipse.jetty jetty-xml 9.4.46.v20220331
org.eclipse.jetty.websocket WebSocket-API 9.4.46.v20220331
org.eclipse.jetty.websocket cliente WebSocket 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-comune 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-server 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-servlet 9.4.46.v20220331
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-localizzatore 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 localizzatore di risorse OSGi 1.0.3
org.glassfish.hk2.external aopalliance-riconfezionato 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet (servlet del contenitore Jersey) 2.34
org.glassfish.jersey.containers modulo-nucleo-servlet-contenitore-jersey (if a translation is required as per the context) 2.34
org.glassfish.jersey.core jersey-client 2.34
org.glassfish.jersey.core jersey-comune 2.34
org.glassfish.jersey.core Jersey-server 2.34
org.glassfish.jersey.inject jersey-hk2 2.34
org.hibernate.validator validatore di Hibernate 6.1.0.Final
org.javassist javassist 3.25.0-GA
org.jboss.logging jboss-logging (strumento di registrazione per JBoss) 3.3.2.Finale
org.jdbi jdbi 2.63.1
org.jetbrains annotazioni 17.0.0
org.joda joda-convert 1,7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mariadb.jdbc mariadb-java-client - Libreria Java per MariaDB 2.7.4
org.mlflow mlflow-spark 1.27.0
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.3.3
org.roaringbitmap RoaringBitmap 0.9.25
org.roaringbitmap Lamine di regolazione 0.9.25
org.rocksdb rocksdbjni 6.24.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.14
org.scala-lang scala-library_2.12 2.12.14
org.scala-lang scala-reflect_2.12 2.12.14
org.scala-lang.modules scala-collection-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt interfaccia di prova 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.0.8
org.scalanlp breeze-macros_2.12 1.2
org.scalanlp breeze_2.12 1.2
org.scalatest scalatest_2.12 3.0.8
org.slf4j jcl-over-slf4j 1.7.36
org.slf4j jul-to-slf4j 1.7.36
org.slf4j slf4j-api 1.7.36
org.spark-project.spark inutilizzato 1.0.0
org.threeten threeten-extra 1.5.0
org.tukaani xz 1.8
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel macro-compat_2.12 1.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.0.7.Final
org.xerial sqlite-jdbc 3.8.11.2
org.xerial.snappy snappy-java 1.1.8.4
org.yaml snakeyaml 1.24
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.ion ion-java 1.0.2
Stax stax-api 1.0.1