Databricks Runtime 9.0 (EoS)
Nota
Il supporto per questa versione di Databricks Runtime è terminato. Per la data di fine del supporto, vedere Cronologia di fine del supporto. Per tutte le versioni supportate di Databricks Runtime, vedere Versioni e compatibilità delle note sulla versione di Databricks Runtime.
Le note sulla versione seguenti forniscono informazioni su Databricks Runtime 9.0 e Databricks Runtime 9.0 Photon, basate su Apache Spark 3.1.2. Databricks ha rilasciato questa versione nell'agosto 2021. Photon è disponibile in anteprima pubblica.
Correzione
Una versione precedente di queste note sulla versione indica erroneamente che le dipendenze di Apache Parquet sono state aggiornate dalla versione 1.10 alla versione 1.12. Le dipendenze Parquet rimangono infatti alla versione 1.10. La nota di rilascio non corretta è stata rimossa.
Miglioramenti e nuove funzionalità
- Nuova API per le statistiche di riepilogo dei set di dati (anteprima pubblica)
- Configurazione dell'origine dati esterna più semplice per il connettore Azure Synapse
- Facoltativamente, limitare la sessione a una durata specificata per il connettore Amazon Redshift
- Autoloader
- SQL
- Supporto di R
- Evitare il rollforward specificando lo stato iniziale per l'elaborazione con stato Structured Streaming
- È ora disponibile un'implementazione casuale ridotta del comando Delta MERGE INTO (anteprima pubblica)
Nuova API per le statistiche di riepilogo dei set di dati (anteprima pubblica)
Il nuovo dbutils.data.summarize
comando in Databricks Utilities consente di avviare un processo Spark che calcola automaticamente le statistiche di riepilogo sulle colonne di un dataframe Spark e quindi visualizza i risultati in modo interattivo. Questa funzione è disponibile in Scala e Python. Vedere Utilità dati (dbutils.data).
Configurazione dell'origine dati esterna più semplice per il connettore Azure Synapse
La nuova externalDataSource
opzione nel connettore Query data in Azure Synapse Analytics consente di usare un'origine dati esterna con provisioning preliminare per leggere da un database di Azure Synapse. L'opzione externalDataSource
rimuove la necessità dell'autorizzazione CONTROL
richiesta in precedenza.
Quando si imposta externalDataSource
, l'origine dati esterna e l'opzione tempDir
usata per configurare l'archiviazione temporanea devono fare riferimento allo stesso contenitore nell'account di archiviazione.
Facoltativamente, limitare la sessione a una durata specificata per il connettore Amazon Redshift
La nuova fs.s3a.assumed.role.session.duration
opzione in Query Amazon Redshift con il connettore Azure Databricks consente di impostare facoltativamente una durata per la sessione quando Redshift accede al bucket S3 temporaneo con un ruolo assunto.
Autoloader
- Elenco di file ottimizzato
- Archiviazione dei dati immagine ottimizzata
- Anteprime delle immagini per i file binari (anteprima pubblica)
DirectoryRename
Gli eventi consentono l'elaborazione atomica di più file
Elenco di file ottimizzato
Le ottimizzazioni del caricatore automatico offrono miglioramenti delle prestazioni e risparmi sui costi quando si elencano directory annidate nell'archiviazione cloud, tra cui AWS S3, Azure Data Lake Storage Gen2 (ADLS Gen2) e Google Cloud Storage (GCS).
Ad esempio, se sono stati caricati file come /some/path/YYYY/MM/DD/HH/fileName
, per trovare tutti i file in queste directory, il caricatore automatico usato per eseguire un elenco parallelo di tutte le sottodirectory, causando 365 (al giorno) * 24 (all'ora) = 8760 chiamate api LIST alla risorsa di archiviazione sottostante per ogni directory annuale. Ricevendo una risposta flat da questi sistemi di archiviazione, Il caricatore automatico riduce il numero di chiamate API al numero di file nel sistema di archiviazione diviso per il numero di risultati restituiti da ogni chiamata API (1000 per S3, 5000 per ADLS Gen2 e 1024 per GCS), riducendo notevolmente i costi del cloud.
Archiviazione dei dati immagine ottimizzata
Il caricatore automatico può ora rilevare automaticamente i dati delle immagini inseriti e ottimizzarne l'archiviazione nelle tabelle Delta per migliorare le prestazioni di lettura e scrittura. Vedere Inserire dati immagine o binari in Delta Lake per ML.
Anteprime delle immagini per i file binari (anteprima pubblica)
Le immagini in binaryFile
formato caricato o salvato come tabelle Delta che usano il caricatore automatico hanno annotazioni associate in modo che le anteprime dell'immagine vengano visualizzate quando si visualizza la tabella in un notebook di Azure Databricks. Per altre informazioni, vedere Immagini.
DirectoryRename
Gli eventi consentono l'elaborazione atomica di più file
I flussi del caricatore automatico creati in Databricks Runtime 9.0 e versioni successive in Azure Data Lake Storage Gen2 configurano le notifiche degli eventi di file per includere le ridenominazione della directory e l'ascolto degli RenameDirectory
eventi. È possibile usare le ridenominazione della directory per fare in modo che più file vengano visualizzati in modo atomico nel caricatore automatico.
SQL
- Escludere colonne in
SELECT *
(anteprima pubblica) - Funzioni scalari SQL (anteprima pubblica)
- Fare riferimento a alias e colonne precedenti nelle
FROM
sottoquery (anteprima pubblica)
Escludere colonne in SELECT *
(anteprima pubblica)
SELECT *
supporta ora una EXCEPT
parola chiave che consente di escludere le colonne di primo livello specificate dall'espansione. Ad esempio, SELECT * EXCEPT (b) FROM tbl
da una tabella con schema (a, b, c)
si espande in (a, c)
.
Funzioni scalari SQL (anteprima pubblica)
CREATE FUNCTION
supporta ora funzioni scalari SQL. È possibile creare funzioni scalari che accettano un set di argomenti e restituiscono un singolo valore di tipo scalare. Il corpo della funzione SQL può essere qualsiasi espressione. Ad esempio:
CREATE FUNCTION square(x DOUBLE) RETURNS DOUBLE RETURN x * x;
SELECT square(2);
Per informazioni dettagliate, vedere CREATE FUNCTION (SQL e Python).
Fare riferimento a alias e colonne precedenti nelle FROM
sottoquery (anteprima pubblica)
Le sottoquery nella FROM
clausola di una query possono ora essere precedute dalla LATERAL
parola chiave che consente di fare riferimento a alias e colonne negli elementi precedenti FROM
. Ad esempio:
SELECT * FROM t1, LATERAL (SELECT * FROM t2 WHERE t1.c1 = t2.c1)
La LATERAL
parola chiave supporta INNER
, CROSS
e LEFT (OUTER) JOIN
.
Supporto di R
Librerie R con ambito notebook (anteprima pubblica)
Le librerie con ambito notebook consentono di installare librerie e creare un ambiente con ambito sessione notebook. Queste librerie non influiscono su altri notebook in esecuzione nello stesso cluster. Le librerie sono disponibili sia nei nodi driver che nei nodi di lavoro, quindi è possibile farvi riferimento nelle funzioni definite dall'utente. Vedere Librerie R con ambito notebook.
Messaggi di avviso nei notebook R
Il valore predefinito dell'opzione warn
è ora impostato su 1 all'interno dei notebook R. Di conseguenza, tutti gli avvisi vengono ora esposti come parte del risultato del comando. Per altre informazioni sull'opzione warn
, vedere Impostazioni opzioni.
Evitare il rollforward specificando lo stato iniziale per l'elaborazione con stato Structured Streaming
È ora possibile specificare uno stato iniziale definito dall'utente per l'elaborazione con stato di streaming strutturato usando l'operatore [flat]MapGroupsWithState
.
Vedere Specificare lo stato iniziale per mapGroupsWithState.
È ora disponibile un'implementazione casuale ridotta del comando Delta MERGE INTO (anteprima pubblica)
Il comando Delta MERGE INTO
include una nuova implementazione disponibile che riduce la casualità di righe non modificate. Ciò migliora le prestazioni del comando e consente di mantenere il clustering esistente nella tabella, ad esempio l'ordinamento Z. Per abilitare l'unione casuale bassa, impostare su spark.databricks.delta.merge.enableLowShuffle
true
. Vedere Merge casuale basso in Azure Databricks.
Correzioni di bug
- Non è più possibile sovrascrivere una visualizzazione creando una visualizzazione con lo stesso nome.
Aggiornamenti della libreria
- Librerie Python aggiornate:
- certificato dal 2021.5.30 al 2020.12.5
- chardet da 3.0.4 a 4.0.0
- Cython da 0.29.21 a 0.29.23
- decorator da 4.4.2 a 5.0.6
- ipython da 7.19.0 a 7.22.0
- joblib da 0.17.0 a 1.0.1
- jupyter-client dalla versione 6.1.7 alla versione 6.1.12
- jupyter-core da 4.6.3 a 4.7.1
- kiwisolver da 1.3.0 a 1.3.1
- matplotlib da 3.2.2 a 3.4.2
- pandas da 1.1.5 a 1.2.4
- pip da 20.2.4 a 21.0.1
- prompt-toolkit dalla versione 3.0.8 alla versione 3.0.17
- protobuf da 3.17.3 a 3.17.2
- ptyprocess da 0.6.0 a 0.7.0
- pyarrow da 1.0.1 a 4.0.0
- Pygments dalla versione 2.7.2 alla versione 2.8.1
- pyzmq da 19.0.2 a 20.0.0
- richieste dalla versione 2.24.0 alla versione 2.25.1
- s3transfer from 0.3.6 to 0.3.7
- scikit-learn dalla versione 0.23.2 alla versione 0.24.1
- scipy da 1.5.2 a 1.6.2
- seaborn da 0.10.0 a 0.11.1
- setuptools da 50.3.1 a 52.0.0
- statsmodels da 0.12.0 a 0.12.2
- tornado da 6.0.4 a 6.1
- virtualenv da 20.2.1 a 20.4.1
- ruota da 0.35.1 a 0.36.2
- Librerie R aggiornate:
- Matrice da 1.3-3 a 1.3-4
Apache Spark
Databricks Runtime 9.0 include Apache Spark 3.1.2. Questa versione include tutte le correzioni e i miglioramenti di Spark inclusi in Databricks Runtime 8.4 (EoS), nonché le correzioni di bug e i miglioramenti aggiuntivi seguenti apportati a Spark:
- [SPARK-35886] [SQL] [3.1] PromotePrecision non deve sovrascrivere genCodePromotePrecision non deve sovrascrivere genCode
- [SPARK-35879] [CORE] [SHUFFLE] Correzione della regressione delle prestazioni causata da collectFetchRequests
- [SPARK-35817] [SQL] [3.1] Ripristinare le prestazioni delle query su tabelle Avro estese
- [SPARK-35841] [SQL] Il cast della stringa al tipo decimale non funziona se il ...
- [SPARK-35783] [SQL] Impostare l'elenco delle colonne di lettura nella configurazione dell'attività per ridurre la lettura dei dati ORC
- [SPARK-35576] [SQL] [3.1] Redact the sensitive info in the result of Set command
- [SPARK-35449] [SQL] [3.1] Estrarre solo espressioni comuni dai valori CaseWhen se elseValue è impostato
- [SPARK-35288] [SQL] StaticInvoke dovrebbe trovare il metodo senza la corrispondenza esatta delle classi di argomenti
- [SPARK-34794] [SQL] Risolvere i problemi relativi al nome della variabile lambda nelle funzioni dataframe annidate
- [SPARK-35278] [SQL] Invoke dovrebbe trovare il metodo con il numero corretto di parametri
- [SPARK-35226] [SQL] Supporto dell'opzione refreshKrb5Config nelle origini dati JDBC
- [SPARK-35244] [SQL] Invoke deve generare l'eccezione originale
- [SPARK-35213] [SQL] Mantenere l'ordinamento corretto degli struct annidati nelle operazioni concatenati conField
- [SPARK-35087] [interfaccia utente] Alcune colonne della tabella Metriche aggregate di Executor della pagina dei dettagli della fase vengono visualizzate in modo non corretto.
- [SPARK-35168] [SQL] mapred.reduce.tasks deve essere shuffle.partitions non adaptive.coalescePartitions.initialPartitionNum
- [SPARK-35127] [interfaccia utente] Quando si passa da una pagina all'altra, l'elemento di immissione nella pagina appena aperta potrebbe essere vuoto
- [SPARK-35142] [PYTHON] [ML] Correzione del tipo restituito non corretto per
rawPredictionUDF
inOneVsRestModel
- [SPARK-35096] [SQL] SchemaPruning deve rispettare la configurazione spark.sql.caseSensitive
- [SPARK-34639] [SQL] [3.1] RelationalGroupedDataset.alias non deve creare UnresolvedAlias
- [SPARK-35080] [SQL] Consentire un subset di predicati di uguaglianza correlati solo quando viene aggregata una sottoquery
- [SPARK-35117] [interfaccia utente] Modificare l'indicatore di stato in modo da evidenziare il rapporto tra attività in corso
- [SPARK-35136] Rimuovere il valore Null iniziale di LiveStage.info
- [SPARK-34834] [RETE] Correzione di una potenziale perdita di memoria Netty in TransportResponseHandler
- [SPARK-35045] [SQL] Aggiungere un'opzione interna per controllare il buffer di input in univocità
- [SPARK-35014] Correggere il criterio PhysicalAggregation per non riscrivere le espressioni piegabili
- [SPARK-35019] [PYTHON] [SQL] Correzione delle mancate corrispondenze degli hint di tipo in pyspark.sql.*
- [SPARK-34926] [SQL] [3.1] PartitioningUtils.getPathFragment() deve rispettare il valore della partizione è Null
- [SPARK-34630] [PYTHON] Aggiungere typehint per pyspark.Versione
- [SPARK-34963] [SQL] Correzione dell'eliminazione della colonna nidificata per l'estrazione del campo struct senza distinzione tra maiuscole e minuscole dalla matrice di struct
- [SPARK-34988] [CORE] [3.1] Upgrade Jetty for CVE-2021-28165
- [SPARK-34922] [SQL] [3.1] Usare una funzione di confronto dei costi relativi nell'oggetto CBO
- [SPARK-34970] [SQL] [SICUREZZA] [3.1] Redact map-type options nell'output di explain()
- [SPARK-34923] [SQL] L'output dei metadati deve essere vuoto per altri piani
- [SPARK-34949] [CORE] Impedire la ripetizione della registrazione di BlockManager quando l'executor è in fase di arresto
- [SPARK-34939] [CORE] Generare un'eccezione di errore di recupero quando non è possibile deserializzare gli stati della mappa trasmessi
- [SPARK-34909] [SQL] Correzione della conversione di un valore negativo in senza segno in conv()
- [SPARK-34845] [CORE] ProcfsMetricsGetter non deve restituire metriche procfs parziali
- [SPARK-34814] [SQL] LikeSimplification deve gestire NULL
- [SPARK-34876] [SQL] Riempimento defaultResult di aggregazioni non nullable
- [SPARK-34829] [SQL] Correzione dei risultati della funzione di ordine superiore
- [SPARK-34840] [SHUFFLE] Corregge i casi di danneggiamento nella sequenza casuale unita...
- [SPARK-34833] [SQL] Applicare correttamente la spaziatura interna a destra per le sottoquery correlate
- [SPARK-34630] [PYTHON] [SQL] Aggiunta di typehint per pyspark.sql.Column.contains
- [SPARK-34763] [SQL] col(), $"name" e df("name") devono gestire correttamente i nomi di colonna tra virgolette
- [SPARK-33482] [SPARK-34756] [SQL] Correzione del controllo di uguaglianza fileScan
- [SPARK-34790] [CORE] Disabilitare il recupero di blocchi casuali in batch quando la crittografia io è abilitata
- [SPARK-34803] [PYSPARK] Passare l'oggetto ImportError generato se pandas o pyarrow non riescono a importare
- [SPARK-34225] [CORE] Non codificare ulteriormente quando viene passata una stringa di modulo URI a addFile o addJar
- [SPARK-34811] [CORE] Redact fs.s3a.access.key come segreto e token
- [SPARK-34796] [SQL] [3.1] Inizializzare la variabile contatore per LIMIT code-gen in doProduce()
- [SPARK-34128] [SQL] Eliminare gli avvisi TTransportException indesiderati coinvolti in THRIFT-4805
- [SPARK-34776] [SQL] L'eliminazione della colonna nidificata non deve eliminare gli attributi generati da Window
- [SPARK-34087] [3.1] [SQL] Correzione della perdita di memoria di ExecutionListenerBus
- [SPARK-34772] [SQL] RebaseDateTime loadRebaseRecords deve usare classloader Spark anziché il contesto
- [SPARK-34719] [SQL] [3.1] Risolvere correttamente la query di visualizzazione con nomi di colonna duplicati
- [SPARK-34766] [SQL] [3.1] Non acquisire la configurazione maven per le visualizzazioni
- [SPARK-34731] [CORE] Evitare ConcurrentModificationException quando si redacting delle proprietà in EventLoggingListener
- [SPARK-34737] [SQL] [3.1] Eseguire il cast del float di input su double in
TIMESTAMP_SECONDS
- [SPARK-34749] [SQL] [3.1] Semplificare ResolveCreateNamedStruct
- [SPARK-34768] [SQL] Rispettare le dimensioni predefinite del buffer di input in Univocità
- [SPARK-34770] [SQL] InMemoryCatalog.tableExists non dovrebbe avere esito negativo se il database non esiste
- [SPARK-34504] [SQL] Evitare la risoluzione non necessaria delle viste temporanee SQL per i comandi DDL
- [SPARK-34727] [SQL] Correzione della discrepanza nel cast float al timestamp
- [SPARK-34723] [SQL] Tipo di parametro corretto per l'eliminazione della sottoespressione in fase intera
- [SPARK-34724] [SQL] Correzione della valutazione interpretata usando getMethod anziché getDeclaredMethod
- [SPARK-34713] [SQL] Correzione del gruppo in base a CreateStruct con ExtractValue
- [SPARK-34697] [SQL] Allow DESCRIBE FUNCTION and SHOW FUNCTIONS explain about || (operatore di concatenazione di stringhe)
- [SPARK-34682] [SQL] Usare PrivateMethodTester invece di reflection
- [SPARK-34682] [SQL] Correzione della regressione nel controllo degli errori di canonizzazione in CustomShuffleReaderExec
- [SPARK-34681] [SQL] Correzione del bug per il join hash casuale esterno completo durante la compilazione sul lato sinistro con condizione non uguale
- [SPARK-34545] [SQL] Risolvere i problemi relativi alla funzionalità valueCompare di pirolite
- [SPARK-34607] [SQL] [3.1] Aggiungere
Utils.isMemberClass
per correggere un errore di nome della classe in formato non valido in jdk8u - [SPARK-34596] [SQL] Usare Utils.getSimpleName per evitare di raggiungere il nome della classe non valido in NewInstance.doGenCode
- [SPARK-34613] [SQL] La visualizzazione correzione non acquisisce disabilita la configurazione degli hint
- [SPARK-32924] [WEBUI] Impostare la colonna duration nell'interfaccia utente master ordinata nell'ordine corretto
- [SPARK-34482] [SS] Correggere l'evento SparkSession attivo per StreamExecution.logicalPlan
- [SPARK-34567] [SQL] CreateTableAsSelect deve aggiornare anche le metriche
- [SPARK-34599] [SQL] Correzione del problema per cui INSERT INTO OVERWRITE non supporta le colonne di partizione contenenti il punto per DSv2
- [SPARK-34577] [SQL] Correzione dell'eliminazione/aggiunta di colonne a un set di dati di
DESCRIBE NAMESPACE
- [SPARK-34584] [SQL] La partizione statica deve seguire anche StoreAssignmentPolicy quando si inserisce nelle tabelle v2
- [SPARK-34555] [SQL] Risolvere l'output dei metadati dal dataframe
- [SPARK-34534] Correzione dell'ordine blockIds quando si usano FetchShuffleBlocks per recuperare i blocchi
- [SPARK-34547] [SQL] Usare solo le colonne di metadati per la risoluzione come ultima risorsa
- [SPARK-34417] [SQL] org.apache.spark.sql.DataFrameNaFunctions.fillMap ha esito negativo per il nome della colonna con un punto
- [SPARK-34561] [SQL] Correzione dell'eliminazione/aggiunta di colonne da/a un set di dati v2
DESCRIBE TABLE
- [SPARK-34556] [SQL] Il controllo delle colonne di partizione statiche duplicate deve rispettare la distinzione tra maiuscole e minuscole
- [SPARK-34392] [SQL] Supporto di ZoneOffset +h:mm in DateTimeUtils. getZoneId
- [SPARK-34550] [SQL] Ignorare il valore Null di InSet durante il filtro push nel metastore Hive
- [SPARK-34543] [SQL] Rispettare la configurazione durante la risoluzione della
spark.sql.caseSensitive
specifica di partizione nella versione 1SET LOCATION
- [SPARK-34436] [SQL] Supporto DPP LIKE ANY/ALL expression
- [SPARK-34531] [CORE] Rimuovere il tag API sperimentale in PrometheusServlet
- [SPARK-34497] [SQL] Correggere i provider di connessione JDBC predefiniti per ripristinare le modifiche del contesto di sicurezza JVM
- [SPARK-34515] [SQL] Correzione del server dei criteri di rete se InSet contiene valore Null durante getPartitionsByFilter
- [SPARK-34490] [SQL] L'analisi deve avere esito negativo se la vista fa riferimento a una tabella eliminata
- [SPARK-34473] [SQL] Evitare NPE in DataFrameReader.schema(StructType)
- [SPARK-34384] [CORE] Aggiungere documenti mancanti per le API ResourceProfile
- [SPARK-34373] [SQL] HiveThriftServer2 startWithContext potrebbe bloccarsi con un problema di race
- [SPARK-20977] [CORE] Usare un campo non finale per lo stato di CollectionAccumulator
- [SPARK-34421] [SQL] Risolvere le funzioni temporanee e le visualizzazioni nelle visualizzazioni con le unità di analisi di rete
- [SPARK-34431] [CORE] Carica
hive-site.xml
solo una volta - [SPARK-34405] [CORE] Correzione del valore medio di timersLabels nella classe PrometheusServlet
- [SPARK-33438] [SQL] Oggetti eagerly init con sql confs definiti per il comando
set -v
- [SPARK-34158] URL errato dell'unico sviluppatore Matei in pom.xml
- [SPARK-34346] [CORE] [SQL] [3.1] io.file.buffer.size impostato da spark.buffer.size eseguirà l'override caricando hive-site.xml accidentalmente può causare regressione delle prestazioni
- [SPARK-34359] [SQL] [3.1] Aggiungere una configurazione legacy per ripristinare lo schema di output di SHOW DATABASES
- [SPARK-34331] [SQL] Velocizzare la risoluzione dei metadati DS v2
- [SPARK-34318] [SQL] [3.1] Dataset.colRegex deve funzionare con nomi di colonna e qualificatori che contengono nuove righe
- [SPARK-34326] [CORE] [SQL] Correzione delle unità definite dall'utente aggiunte in SPARK-31793 a seconda della lunghezza del percorso temporaneo
- [SPARK-34319] [SQL] Risolvere gli attributi duplicati per FlatMapCoGroupsInPandas/MapInPandas
- [SPARK-34310] [CORE] [SQL] Sostituisce la mappa e appiattita con flatMap
- [SPARK-34083] [SQL] [3.1] Uso delle definizioni originali TPCDS per le colume char/varchar
- [SPARK-34233] [SQL] [3.1] CORREZIONe dei criteri di rete per il riempimento dei caratteri nel confronto binario
- [SPARK-34270] [SS] Combinare StateStoreMetrics non deve eseguire l'override di StateStoreCustomMetric
- [SPARK-34144] [SQL] Eccezione generata quando si tenta di scrivere valori LocalDate e Instant in una relazione JDBC
- [SPARK-34273] [CORE] Non ripetere la registrazione di BlockManager quando SparkContext viene arrestato
- [SPARK-34262] [SQL] [3.1] Aggiornare i dati memorizzati nella cache della tabella v1 in
ALTER TABLE .. SET LOCATION
- [SPARK-34275] [CORE] [SQL] [MLLIB] Sostituisce il filtro e le dimensioni con conteggio
- [SPARK-34260] [SQL] Correzione di UnresolvedException durante la creazione di una visualizzazione temporanea due volte
- [SPARK-33867] [SQL] I valori Instant e LocalDate non vengono gestiti durante la generazione di query SQL
- [SPARK-34193] [CORE] Correzione della gara di rimozione del gestore di blocchi TorrentBroadcast
- [SPARK-34221] [WEBUI] Verificare che una fase non riesca nella pagina dell'interfaccia utente, il messaggio di errore corrispondente può essere visualizzato correttamente
- [SPARK-34236] [SQL] Correzione v2 Sovrascrittura w/ partizione statica null genera non è possibile convertire l'espressione nel filtro di origine: null
- [SPARK-34212] [SQL] Correzione della lettura decimale errata dai file Parquet
- [SPARK-34244] [SQL] Rimuovere la versione della funzione Scala di regexp_extract_all
- [SPARK-34235] [SS] Creare spark.sql.hive come pacchetto privato
- [SPARK-34232] [CORE] Redact SparkListenerEnvironmentUpdate evento nel log
- [SPARK-34229] [SQL] Avro deve leggere i valori decimali con lo schema del file
- [SPARK-34223] [SQL] FIX NPE per la partizione statica con null in InsertIntoHadoopFsRelationCommand
- [SPARK-34192] [SQL] Spostare il riempimento dei caratteri sul lato scrittura e rimuovere il controllo lunghezza anche sul lato lettura
- [SPARK-34203] [SQL] Convertire i
null
valori di__HIVE_DEFAULT_PARTITION__
partizione in nel catalogo v1In-Memory
- [SPARK-33726] [SQL] Correzione per i nomi di campo duplicati durante l'aggregazione
- [SPARK-34133] [AVRO] Rispettare la distinzione tra maiuscole e minuscole durante l'esecuzione della corrispondenza dei campi Catalyst-to-Avro
- [SPARK-34187] [SS] Usare l'intervallo di offset disponibile ottenuto durante il polling durante il controllo della convalida dell'offset
- [SPARK-34052] [SQL] [3.1] Archiviare il testo SQL per una vista temporanea creata con "CACHE TABLE .. AS SELECT ..."
- [SPARK-34213] [SQL] Aggiornare i dati memorizzati nella cache della tabella v1 in
LOAD DATA
- [SPARK-34191] [PYTHON] [SQL] Aggiungere la digitazione per l'overload UDF
- [SPARK-34200] [SQL] Riferimento a colonne ambigue deve considerare la disponibilità degli attributi
- [SPARK-33813] [SQL] [3.1] Risolvere il problema per cui l'origine JDBC non è in grado di trattare i tipi spaziali di MS SQL Server
- [SPARK-34178] [SQL] Copiare i tag per il nuovo nodo creato da MultiInstanceRelation.newInstance
- [SPARK-34005] [CORE] [3.1] Aggiornare le metriche di memoria di picco per ogni executor alla fine dell'attività
- [SPARK-34115] [CORE] Controllare SPARK_TESTING come val differita per evitare rallentamenti
- [SPARK-34153] [SQL] [3.1] [3.0] Rimuovere non usato
getRawTable()
daHiveExternalCatalog.alterPartitions()
- [SPARK-34130] [SQL] Impove preformace for char varchar padding and length check with StaticInvoke
- [SPARK-34027] [SQL] [3.1] Aggiornare la cache in
ALTER TABLE .. RECOVER PARTITIONS
- [SPARK-34151] [SQL] Sostituisce
java.io.File.toURL
conjava.io.File.toURI.toURL
- [SPARK-34140] [SQL] [3.1] Spostare QueryCompilationErrors.scala in org/apache/spark/sql/errors
- [SPARK-34080] [ML] [PYTHON] Aggiungere UnivariateFeatureSelector
- [SPARK-33790] [CORE] [3.1] Ridurre la chiamata rpc di getFileStatus in SingleFileEventLogFileReader
- [SPARK-34118] [CORE] [SQL] [3.1] Sostituisce il filtro e verifica la presenza di vuoto con esiste o forall
- [SPARK-34114] [SQL] non deve essere tagliato a destra per il controllo della lunghezza dei caratteri di lettura e la spaziatura interna
- [SPARK-34086] [SQL] [3.1] RaiseError genera un numero eccessivo di codice e può avere esito negativo per il controllo della lunghezza del codegen per il tipo di dati char varchar
- [SPARK-34075] [SQL] [CORE] Directory nascoste elencate per l'inferenza della partizione
- [SPARK-34076] [SQL] SQLContext.dropTempTable ha esito negativo se la cache non è vuota
- [SPARK-34084] [SQL] [3.1] Correzione dell'aggiornamento automatico delle statistiche delle tabelle in
ALTER TABLE .. ADD PARTITION
- [SPARK-34090] [SS] Risultato di Cache HadoopDelegationTokenManager.isServiceEnabled usato in KafkaTokenUtil.needTokenUpdate
- [SPARK-34069] [CORE] Terminare le attività delle barriere deve rispettare SPARK_JOB_INTERRUPT_ON_CANCEL
- [SPARK-34091] [SQL] Il recupero batch casuale dovrebbe essere in grado di disabilitare dopo che è stato abilitato
- [SPARK-34059] [SQL] [CORE] [3.1] Usare for/foreach anziché eseguire il mapping per assicurarsi di eseguirlo eagerly
- [SPARK-34002] [SQL] Correggere l'utilizzo del codificatore in ScalaUDF
- [SPARK-34060] [SQL] [3.1] Correzione della memorizzazione nella cache delle tabelle Hive durante l'aggiornamento delle statistiche in base a
ALTER TABLE .. DROP PARTITION
- [SPARK-31952] [SQL] Correzione della metrica di perdita di memoria non corretta durante l'aggregazione
- [SPARK-33591] [SQL] [3.1] Riconoscere
null
nei valori delle specifiche di partizione - [SPARK-34055] [SQL] [3.1] Aggiornare la cache in
ALTER TABLE .. ADD PARTITION
- [SPARK-34039] [SQL] [3.1] ReplaceTable deve invalidare la cache
- [SPARK-34003] [SQL] Correzione dei conflitti tra PaddingAndLengthCheckForCharVarchar e ResolveAggregateFunctions
- [SPARK-33938] [SQL] [3.1] Ottimizzare come qualsiasi/tutto per LikeSimplification
- [SPARK-34021] [R] Correzione dei collegamenti hyper nella documentazione di SparkR per l'invio a CRAN
- [SPARK-34011] [SQL] [3.1] [3.0] Aggiornare la cache in
ALTER TABLE .. RENAME TO PARTITION
- [SPARK-33948] [SQL] Correzione dell'errore CodeGen del metodo MapObjects.doGenCode in Scala 2.13
- [SPARK-33635] [SS] Modificare l'ordine di archiviazione in KafkaTokenUtil.needTokenUpdate per risolvere la regressione delle prestazioni
- [SPARK-33029] [CORE] [WEBUI] Correggere la pagina dell'executor dell'interfaccia utente contrassegnando erroneamente il driver come escluso
- [SPARK-34015] [R] Correzione dell'intervallo di input in gapply
- [SPARK-34012] [SQL] Mantenere il comportamento coerente quando conf
spark.sql.legacy.parser.havingWithoutGroupByAsWhere
è true con la guida alla migrazione - [SPARK-33844] [SQL] [3.1] Il comando InsertIntoHiveDir deve controllare anche il nome col
- [SPARK-33935] [SQL] Correzione della funzione di costo CBO
- [SPARK-33100] [SQL] Ignorare un punto e virgola all'interno di un commento tra parentesi quadre in spark-sql
- [SPARK-34000] [CORE] Correzione di stageAttemptToNumSpeculativeTasks java.util.NoSuchElementException
- [SPARK-33992] [SQL] eseguire l'override transformUpWithNewOutput per aggiungere allowInvokingTransformsInAnalyzer
- [SPARK-33894] [SQL] Modificare la visibilità delle classi di case private in mllib per evitare errori di compilazione di runtime con Scala 2.13
- [SPARK-33950] [SQL] [3.1] [3.0] Aggiornare la cache nella versione 1
ALTER TABLE .. DROP PARTITION
- [SPARK-33980] [SS] Invalidare char/varchar in spark.readStream.schema
- [SPARK-33945] [SQL] [3.1] Gestisce un seme casuale costituito da un albero espr
- [SPARK-33398] Correzione del caricamento dei modelli ad albero prima di Spark 3.0
- [SPARK-33963] [SQL] Canonicalize
HiveTableRelation
w/o table stats - [SPARK-33906] [WEBUI] Correzione del bug della pagina dell'executor dell'interfaccia utente bloccata a causa di peakMemoryMetrics non definiti
- [SPARK-33944] [SQL] Registrazione errata per le chiavi del warehouse nelle opzioni SharedState
- [SPARK-33936] [SQL] [3.1] Aggiungere la versione quando sono state aggiunte le interfacce del connettore
- [SPARK-33916] [CORE] Correzione dell'offset di archiviazione di fallback e miglioramento della copertura dei test del codec di compressione
- [SPARK-33899] [SQL] [3.1] Correzione dell'errore di asserzione nella versione 1 SHOW TABLES/VIEWS on
spark_catalog
- [SPARK-33901] [SQL] Correzione dell'errore di visualizzazione char e varchar dopo gli DDLS
- [SPARK-33897] [SQL] Impossibile impostare l'opzione 'cross' nel metodo join
- [SPARK-33907] [SQL] [3.1] Elimina solo le colonne di JsonToStructs se le opzioni di analisi sono vuote
- [SPARK-33621] [SPARK-33784] [SQL][3.1] Aggiungere un modo per inserire regole di riscrittura dell'origine dati
- [SPARK-33900] [WEBUI] Mostra le dimensioni/record di lettura casuali correttamente quando è disponibile solo remotebytesread
- [SPARK-33892] [SQL] Visualizzare char/varchar in DESC e SHOW CREATE TABLE
- [SPARK-33895] [SQL] Char e Varchar fail in MetaOperation of ThriftServer
- [SPARK-33659] [SS] Documentare il comportamento corrente per l'API DataStreamWriter.toTable
- [SPARK-33893] [CORE] Escludere gestione blocchi di fallback da executorList
- [SPARK-33277] [PYSPARK] [SQL] Usare ContextAwareIterator per interrompere l'utilizzo al termine dell'attività
- [SPARK-33889] [SQL] [3.1] Correzione del server dei criteri di rete da
SHOW PARTITIONS
nelle tabelle V2 - [SPARK-33879] [SQL] I valori Varchar char hanno esito negativo w/errore di corrispondenza come colonne di partizione
- [SPARK-33877] [SQL] Documenti di riferimento SQL per INSERT w/a column list
- [SPARK-33876] [SQL] Aggiungere il controllo della lunghezza per la lettura di char/varchar dalle tabelle con una posizione esterna
- [SPARK-33846] [SQL] Includere commenti per uno schema annidato in StructType.toDDL
- [SPARK-33860] [SQL] Imposta catalystTypeConverters.convertToCatalyst corrisponde a un valore di matrice speciale
- [SPARK-33834] [SQL] Verificare ALTER TABLE CHANGE COLUMN con Char e Varchar
- [SPARK-33853] [SQL] EXPLAIN CODEGEN e BenchmarkQueryTest non mostrano il codice della sottoquery
- [SPARK-33836] [SS] [PYTHON] Esporre DataStreamReader.table e DataStreamWriter.toTable
- [SPARK-33829] [SQL] [3.1] La ridenominazione delle tabelle v2 deve ricreare la cache
- [SPARK-33756] [SQL] Make BytesToBytesMap's MapIterator idempotent
- [SPARK-33850] [SQL] EXPLAIN FORMATTED non mostra il piano per le sottoquery se AQE è abilitato
- [SPARK-33841] [CORE] [3.1] Correzione del problema relativo alla scomparsa intermittente dei processi da SHS in caso di carico elevato
- [SPARK-33593] [SQL] Il lettore vettoriale ha ottenuto dati non corretti con valore di partizione binaria
- [SPARK-26341] [WEBUI] Esporre le metriche di memoria dell'executor a livello di fase, nella scheda Fasi
- [SPARK-33831] [interfaccia utente] Aggiornamento al molo 9.4.34
- [SPARK-33822] [SQL] Usare il
CastSupport.cast
metodo in HashJoin - [SPARK-33774] [interfaccia utente] [CORE] Torna al master" restituisce l'errore 500 nel cluster autonomo
- [SPARK-26199] [SPARK-31517] [R] Strategia di correzione per la gestione di ... nomi in muta
- [SPARK-33819] [CORE] [3.1] SingleFileEventLogFileReader/RollingEventLogFileFilesFileReader deve essere
package private
- [SPARK-33697] [SQL] RemoveRedundantProjects deve richiedere l'ordinamento delle colonne per impostazione predefinita
- [SPARK-33752] [SQL] [3.1] Evitare che getSimpleMessage of AnalysisException aggiunga ripetutamente punto e virgola
- [SPARK-33788] [SQL] [3.1] [3.0] [2.4] Throw NoSuchPartitionsException from HiveExternalCatalog.dropPartitions()
- [SPARK-33803] [SQL] Ordinare le proprietà della tabella in base alla chiave nel comando DESCRIBE TABLE
- [SPARK-33786] [SQL] Il livello di archiviazione per una cache deve essere rispettato quando viene modificato un nome di tabella
- [SPARK-33273] [SQL] Correzione di una race condition nell'esecuzione della sottoquery
- [SPARK-33653] [SQL] [3.1] DSv2: REFRESH TABLE deve recare la tabella stessa
- [SPARK-33777] [SQL] Ordinamento dell'output delle PARTIZIONI V2 SHOW PARTITIONS
- [SPARK-33733] [SQL] PullOutNondeterministic deve controllare e raccogliere un campo deterministico
- [SPARK-33764] [SS] Impostare l'intervallo di manutenzione dell'archivio stati come configurazione SQL
- [SPARK-33729] [SQL] Quando si aggiorna la cache, Spark non deve usare il piano memorizzato nella cache durante il ricaching dei dati
- [SPARK-33742] [SQL] [3.1] Throw PartitionsAlreadyExistException from HiveExternalCatalog.createPartitions()
- [SPARK-33706] [SQL] Richiedere l'identificatore di partizione completamente specificato in partitionExists()
- [SPARK-33740] [SQL] configurazioni hadoop in hive-site.xml possono eseguire l'override di quelli hadoop preesistenti
- [SPARK-33692] [SQL] La vista deve usare il catalogo acquisito e lo spazio dei nomi per la funzione di ricerca
- [SPARK-33669] Messaggio di errore errato dal monitoraggio dello stato dell'applicazione YARN quando sc.stop in modalità client yarn
- [SPARK-32110] [SQL] Normalizzare numeri mobili speciali in HyperLogLog++
- [SPARK-33677] [SQL] Ignorare la regola LikeSimplification se il criterio contiene escapeChar
- [SPARK-33693] [SQL] deprecate spark.sql.hive.convertCTAS
- [SPARK-33641] [SQL] Invalidare i nuovi tipi char/varchar nelle API pubbliche che producono risultati non corretti
- [SPARK-32680] [SQL] Non pre-elaborare CTAS V2 con query non risolte
- [SPARK-33676] [SQL] Richiedere la corrispondenza esatta della specifica di partizione allo schema nella versione 2
ALTER TABLE .. ADD/DROP PARTITION
- [SPARK-33670] [SQL] Verificare che il provider di partizioni sia Hive nella versione 1 SHOW TABLE EXTENDED
- [SPARK-33663] [SQL] Non è consigliabile chiamare uncaching in viste temporanee non esistenti
- [SPARK-33667] [SQL] Rispettare la configurazione durante la risoluzione della
spark.sql.caseSensitive
specifica di partizione nella versione 1SHOW PARTITIONS
- [SPARK-33652] [SQL] DSv2: DeleteFrom deve aggiornare la cache
Aggiornamenti di manutenzione
Vedere Aggiornamenti della manutenzione di Databricks Runtime 9.0.
Ambiente di sistema
- Sistema operativo: Ubuntu 20.04.2 LTS
- Java: Zulu 8.54.0.21-CA-linux64
- Scala: 2.12.10
- Python: 3.8.10
- R: 4.1.0 (2021-05-18)
- Delta Lake 1.0.0
Librerie Python installate
Libreria | Versione | Libreria | Versione | Libreria | Versione |
---|---|---|---|---|---|
Antergos Linux | 2015.10 (ISO-Rolling) | appdirs | 1.4.4 | backcall | 0.2.0 |
boto3 | 1.16.7 | botocore | 1.19.7 | certifi | 2020.12.5 |
chardet | 4.0.0 | cycler | 0.10.0 | Cython | 0.29.23 |
dbus-python | 1.2.16 | decorator | 5.0.6 | distlib | 0.3.2 |
informazioni sulla distribuzione | 0.23ubuntu1 | facet-overview | 1.0.0 | filelock | 3.0.12 |
idna | 2.10 | ipykernel | 5.3.4 | ipython | 7.22.0 |
ipython-genutils | 0.2.0 | jedi | 0.17.2 | jmespath | 0.10.0 |
joblib | 1.0.1 | jupyter-client | 6.1.12 | jupyter-core | 4.7.1 |
kiwisolver | 1.3.1 | koalas | 1.8.1 | matplotlib | 3.4.2 |
numpy | 1.19.2 | pandas | 1.2.4 | parso | 0.7.0 |
patsy | 0.5.1 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
Pillow | 8.2.0 | pip | 21.0.1 | plotly | 4.14.3 |
prompt-toolkit | 3.0.17 | protobuf | 3.17.2 | psycopg2 | 2.8.5 |
ptyprocess | 0.7.0 | pyarrow | 4.0.0 | Pygments | 2.8.1 |
PyGObject | 3.36.0 | pyparsing | 2.4.7 | python-apt | 2.0.0+ubuntu0.20.4.5 |
python-dateutil | 2.8.1 | pytz | 2020.5 | pyzmq | 20.0.0 |
requests | 2.25.1 | requests-unixsocket | 0.2.0 | Nuovo tentativo in corso… | 1.3.3 |
s3transfer | 0.3.7 | scikit-learn | 0.24.1 | scipy | 1.6.2 |
seaborn | 0.11.1 | setuptools | 52.0.0 | sei | 1.15.0 |
ssh-import-id | 5.10 | statsmodels | 0.12.2 | threadpoolctl | 2.1.0 |
tornado | 6.1 | traitlets | 5.0.5 | aggiornamenti automatici | 0,1 |
urllib3 | 1.25.11 | virtualenv | 20.4.1 | wcwidth | 0.2.5 |
wheel | 0.36.2 |
Librerie R installate
Le librerie R vengono installate dallo snapshot di Microsoft CRAN nel 2021-07-28.
Libreria | Versione | Libreria | Versione | Libreria | Versione |
---|---|---|---|---|---|
askpass | 1.1 | assertthat | 0.2.1 | backports | 1.2.1 |
base | 4.1.0 | base64enc | 0.1-3 | BH | 1.72.0-3 |
bit | 4.0.4 | bit64 | 4.0.5 | blob | 1.2.1 |
boot | 1.3-28 | brew | 1.0-6 | Brio | 1.1.0 |
Scopa | 0.7.2 | callr | 3.5.1 | caret | 6.0-86 |
cellranger | 1.1.0 | chron | 2.3-56 | class | 7.3-19 |
cli | 2.2.0 | clipr | 0.7.1 | cluster | 2.1.2 |
codetools | 0.2-18 | colorspace | 2.0-0 | commonmark | 1,7 |
compilatore | 4.1.0 | config | 0,3 | covr | 3.5.1 |
cpp11 | 0.2.4 | crayon | 1.3.4 | credentials | 1.3.0 |
crosstalk | 1.1.0.1 | curl | 4.3 | data.table | 1.13.4 |
datasets | 4.1.0 | DBI | 1.1.0 | dbplyr | 2.0.0 |
desc | 1.2.0 | devtools | 2.3.2 | diffobj | 0.3.2 |
digest | 0.6.27 | dplyr | 1.0.2 | DT | 0,16 |
puntini di sospensione | 0.3.1 | evaluate | 0,14 | fansi | 0.4.1 |
farver | 2.0.3 | fastmap | 1.0.1 | forcats | 0.5.0 |
foreach | 1.5.1 | foreign | 0.8-81 | forge | 0.2.0 |
fs | 1.5.0 | future | 1.21.0 | generics | 0.1.0 |
Gert | 1.0.2 | ggplot2 | 3.3.2 | Gh | 1.2.0 |
gitcreds | 0.1.1 | glmnet | 4.0-2 | globals | 0.14.0 |
glue | 1.4.2 | Gower | 0.2.2 | grafica | 4.1.0 |
grDevices | 4.1.0 | grid | 4.1.0 | gridExtra | 2.3 |
gsubfn | 0,7 | gtable | 0.3.0 | haven | 2.3.1 |
highr | 0,8 | hms | 0.5.3 | htmltools | 0.5.0 |
htmlwidgets | 1.5.3 | httpuv | 1.5.4 | httr | 1.4.2 |
hwriter | 1.3.2 | hwriterPlus | 1.0-3 | ini | 0.3.1 |
ipred | 0.9-9 | isoband | 0.2.3 | Iteratori | 1.0.13 |
jsonlite | 1.7.2 | KernSmooth | 2.23-20 | knitr | 1,30 |
Etichettatura | 0.4.2 | later | 1.1.0.1 | Lattice | 0.20-44 |
Java | 1.6.8.1 | lazyeval | 0.2.2 | lifecycle | 0.2.0 |
listenv | 0.8.0 | lubridate | 1.7.9.2 | magrittr | 2.0.1 |
markdown | 1.1 | MASS | 7.3-54 | Matrice | 1.3-4 |
memoise | 1.1.0 | methods | 4.1.0 | mgcv | 1.8-36 |
mime | 0.9 | ModelMetrics | 1.2.2.2 | modelr | 0.1.8 |
munsell | 0.5.0 | nlme | 3.1-152 | nnet | 7.3-16 |
numDeriv | 2016.8-1.1 | openssl | 1.4.3 | parallel | 4.1.0 |
parallelly | 1.22.0 | Concetto fondamentale | 1.4.7 | pkgbuild | 1.1.0 |
pkgconfig | 2.0.3 | pkgload | 1.1.0 | plogr | 0.2.0 |
plyr | 1.8.6 | praise | 1.0.0 | prettyunits | 1.1.1 |
Proc | 1.16.2 | processx | 3.4.5 | prodlim | 2019.11.13 |
Avanzamento | 1.2.2 | promises | 1.1.1 | proto | 1.0.0 |
ps | 1.5.0 | purrr | 0.3.4 | r2d3 | 0.2.3 |
R6 | 2.5.0 | randomForest | 4.6-14 | rappdirs | 0.3.1 |
rcmdcheck | 1.3.3 | RColorBrewer | 1.1-2 | Rcpp | 1.0.5 |
readr | 1.4.0 | readxl | 1.3.1 | ricette | 0.1.15 |
rematch | 1.0.1 | rematch2 | 2.1.2 | remotes | 2.2.0 |
reprex | 0.3.0 | reshape2 | 1.4.4 | rex | 1.2.0 |
rlang | 0.4.9 | rmarkdown | 2.6 | RODBC | 1.3-17 |
roxygen2 | 7.1.1 | rpart | 4.1-15 | rprojroot | 2.0.2 |
Rserve | 1.8-8 | RSQLite | 2.2.1 | rstudioapi | 0,13 |
rversions | 2.0.2 | rvest | 0.3.6 | Scalabilità | 1.1.1 |
selectr | 0.4-2 | sessioninfo | 1.1.1 | Forma | 1.4.5 |
shiny | 1.5.0 | sourcetools | 0.1.7 | sparklyr | 1.5.2 |
SparkR | 3.1.1 | spaziale | 7.3-11 | Spline | 4.1.0 |
sqldf | 0.4-11 | SQUAREM | 2020.5 | stats | 4.1.0 |
stats4 | 4.1.0 | stringi | 1.5.3 | stringr | 1.4.0 |
Sopravvivenza | 3.2-11 | sys | 3.4 | tcltk | 4.1.0 |
TeachingDemos | 2.10 | testthat | 3.0.0 | tibble | 3.0.4 |
tidyr | 1.1.2 | tidyselect | 1.1.0 | tidyverse | 1.3.0 |
timeDate | 3043.102 | tinytex | 0,28 | tools | 4.1.0 |
usethis | 2.0.0 | utf8 | 1.1.4 | utils | 4.1.0 |
uuid | 0.1-4 | vctrs | 0.3.5 | viridisLite | 0.3.0 |
waldo | 0.2.3 | whisker | 0,4 | withr | 2.3.0 |
xfun | 0,19 | xml2 | 1.3.2 | xopen | 1.0.0 |
xtable | 1.8-4 | yaml | 2.2.1 | zip | 2.1.1 |
Librerie Java e Scala installate (versione del cluster Scala 2.12)
ID gruppo | ID artefatto | Versione |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-distribuisci-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudformation | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudfront | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.655 |
com.amazonaws | aws-java-sdk-codedeploy | 1.11.655 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.655 |
com.amazonaws | aws-java-sdk-cognitosync | 1.11.655 |
com.amazonaws | aws-java-sdk-config | 1.11.655 |
com.amazonaws | aws-java-sdk-core | 1.11.655 |
com.amazonaws | aws-java-sdk-datapipeline | 1.11.655 |
com.amazonaws | aws-java-sdk-directconnect | 1.11.655 |
com.amazonaws | aws-java-sdk-directory | 1.11.655 |
com.amazonaws | aws-java-sdk-dynamodb | 1.11.655 |
com.amazonaws | aws-java-sdk-ec2 | 1.11.655 |
com.amazonaws | aws-java-sdk-ecs | 1.11.655 |
com.amazonaws | aws-java-sdk-efs | 1.11.655 |
com.amazonaws | aws-java-sdk-elasticache | 1.11.655 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.655 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.655 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.655 |
com.amazonaws | aws-java-sdk-emr | 1.11.655 |
com.amazonaws | aws-java-sdk-glacier | 1.11.655 |
com.amazonaws | aws-java-sdk-glue | 1.11.655 |
com.amazonaws | aws-java-sdk-iam | 1.11.655 |
com.amazonaws | aws-java-sdk-importexport | 1.11.655 |
com.amazonaws | aws-java-sdk-consultas | 1.11.655 |
com.amazonaws | aws-java-sdk-kms | 1.11.655 |
com.amazonaws | aws-java-sdk-lambda | 1.11.655 |
com.amazonaws | aws-java-sdk-logs | 1.11.655 |
com.amazonaws | aws-java-sdk-machinelearning | 1.11.655 |
com.amazonaws | aws-java-sdk-marketplace commerceanalytics | 1.11.655 |
com.amazonaws | aws-java-sdk-marketplacemeteringservice | 1.11.655 |
com.amazonaws | aws-java-sdk-opsworks | 1.11.655 |
com.amazonaws | aws-java-sdk-rds | 1.11.655 |
com.amazonaws | aws-java-sdk-redshift | 1.11.655 |
com.amazonaws | aws-java-sdk-route53 | 1.11.655 |
com.amazonaws | aws-java-sdk-s3 | 1.11.655 |
com.amazonaws | aws-java-sdk-ses | 1.11.655 |
com.amazonaws | aws-java-sdk-simpledb | 1.11.655 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.655 |
com.amazonaws | aws-java-sdk-sns | 1.11.655 |
com.amazonaws | aws-java-sdk-sqs | 1.11.655 |
com.amazonaws | aws-java-sdk-ssm | 1.11.655 |
com.amazonaws | aws-java-sdk-storagegateway | 1.11.655 |
com.amazonaws | aws-java-sdk-sts | 1.11.655 |
com.amazonaws | aws-java-sdk-support | 1.11.655 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.11.655 |
com.amazonaws | jmespath-java | 1.11.655 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | stream | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.mdfsoftware | kryo-shaded | 4.0.2 |
com.mdfsoftware | minlog | 1.3.0 |
com.fasterxml | compagno di classe | 1.3.4 |
com.fasterxml.jackson.core | annotazioni jackson | 2.10.0 |
com.fasterxml.jackson.core | jackson-core | 2.10.0 |
com.fasterxml.jackson.core | jackson-databind | 2.10.0 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.10.0 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.10.0 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.10.0 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.10.0 |
com.github.ben-manes.caffeina | caffeina | 2.3.4 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-natives | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.joshelser | dropwizard-metrics-hadoop-metrics2-reporter | 0.1.2 |
com.github.luben | zstd-jni | 1.4.8-1 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.2.4 |
com.google.flatbuffers | flatbuffers-java | 1.9.0 |
com.google.guava | guaiava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 1.4.195 |
com.helger | profiler | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 9.2.1.jre8 |
com.ning | compress-lzf | 1.0.3 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | JSON | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.9.5 |
com.twitter | chill_2.12 | 0.9.5 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.univocità | univocità-parser | 2.9.1 |
com.zaxxer | HikariCP | 3.1.0 |
commons-beanutils | commons-beanutils | 1.9.4 |
commons-cli | commons-cli | 1.2 |
commons-codec | commons-codec | 1,10 |
commons-collections | commons-collections | 3.2.2 |
commons-configuration | commons-configuration | 1.6 |
commons-dbcp | commons-dbcp | 1.4 |
commons-digester | commons-digester | 1.8 |
commons-fileupload | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.4 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-net | commons-net | 3.1 |
commons-pool | commons-pool | 1.5.4 |
hive-2.3__hadoop-2.7 | jets3t-0.7 | liball_deps_2.12 |
hive-2.3__hadoop-2.7 | zookeeper-3.4 | liball_deps_2.12 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0,10 |
io.delta | delta-sharing-spark_2.12 | 0.1.0 |
io.dropwizard.metrics | metrics-core | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metrics-healthchecks | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | metrics-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | metrics-servlets | 4.1.1 |
io.netty | netty-all | 4.1.51.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | collettore | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | activation | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.servlet | javax.servlet-api | 3.1.0 |
javax.servlet.jsp | jsp-api | 2.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.2 |
javax.xml.stream | stax-api | 1.0-2 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.5 |
log4j | apache-log4j-extras | 1.2.17 |
log4j | log4j | 1.2.17 |
maven-trees | hive-2.3__hadoop-2.7 | liball_deps_2.12 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | pirolite | 4.30 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.3 |
net.snowflake | spark-snowflake_2.12 | 2.9.0-spark_3.1 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.8-1 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | formato freccia | 2.0.0 |
org.apache.arrow | arrow-memory-core | 2.0.0 |
org.apache.arrow | arrow-memory-netty | 2.0.0 |
org.apache.arrow | freccia-vettore | 2.0.0 |
org.apache.avro | avro | 1.8.2 |
org.apache.avro | avro-ipc | 1.8.2 |
org.apache.avro | avro-mapred-hadoop2 | 1.8.2 |
org.apache.commons | commons-compress | 1,20 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.10 |
org.apache.commons | commons-math3 | 3.4.1 |
org.apache.commons | commons-text | 1.6 |
org.apache.curator | curatore-cliente | 2.7.1 |
org.apache.curator | curatore-framework | 2.7.1 |
org.apache.curator | ricette curatori | 2.7.1 |
org.apache.derby | derby | 10.12.1.1 |
org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
org.apache.directory.api | api-util | 1.0.0-M20 |
org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
org.apache.hadoop | hadoop-annotations | 2.7.4 |
org.apache.hadoop | hadoop-auth | 2.7.4 |
org.apache.hadoop | hadoop-client | 2.7.4 |
org.apache.hadoop | hadoop-common | 2.7.4 |
org.apache.hadoop | hadoop-hdfs | 2.7.4 |
org.apache.hadoop | hadoop-mapreduce-client-app | 2.7.4 |
org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.4 |
org.apache.hadoop | hadoop-mapreduce-client-core | 2.7.4 |
org.apache.hadoop | hadoop-mapreduce-client-jobclient | 2.7.4 |
org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.4 |
org.apache.hadoop | hadoop-yarn-api | 2.7.4 |
org.apache.hadoop | hadoop-yarn-client | 2.7.4 |
org.apache.hadoop | hadoop-yarn-common | 2.7.4 |
org.apache.hadoop | hadoop-yarn-server-common | 2.7.4 |
org.apache.hive | hive-beeline | 2.3.7 |
org.apache.hive | hive-cli | 2.3.7 |
org.apache.hive | hive-jdbc | 2.3.7 |
org.apache.hive | hive-llap-client | 2.3.7 |
org.apache.hive | hive-llap-common | 2.3.7 |
org.apache.hive | hive-serde | 2.3.7 |
org.apache.hive | hive-shims | 2.3.7 |
org.apache.hive | hive-storage-api | 2.7.2 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.7 |
org.apache.hive.shims | hive-shims-common | 2.3.7 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.7 |
org.apache.htrace | htrace-core | Incubazione 3.1.0 |
org.apache.httpcomponents | httpclient | 4.5.6 |
org.apache.httpcomponents | httpcore | 4.4.12 |
org.apache.ivy | ivy | 2.4.0 |
org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
org.apache.orc | orc-core | 1.5.12 |
org.apache.orc | orc-mapreduce | 1.5.12 |
org.apache.orc | orc-shim | 1.5.12 |
org.apache.parquet | parquet-column | 1.10.1-databricks9 |
org.apache.parquet | parquet-common | 1.10.1-databricks9 |
org.apache.parquet | codifica parquet | 1.10.1-databricks9 |
org.apache.parquet | formato parquet | 2.4.0 |
org.apache.parquet | parquet-hadoop | 1.10.1-databricks9 |
org.apache.parquet | parquet-jackson | 1.10.1-databricks9 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm7-shaded | 4.15 |
org.apache.yetus | annotazioni del gruppo di destinatari | 0.5.0 |
org.apache.zookeeper | zookeeper | 3.4.14 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-jaxrs | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.jackson | jackson-xc | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.36.v20210114 |
org.eclipse.jetty | jetty-continuation | 9.4.36.v20210114 |
org.eclipse.jetty | jetty-http | 9.4.36.v20210114 |
org.eclipse.jetty | jetty-io | 9.4.36.v20210114 |
org.eclipse.jetty | jetty-jndi | 9.4.36.v20210114 |
org.eclipse.jetty | jetty-plus | 9.4.36.v20210114 |
org.eclipse.jetty | jetty-proxy | 9.4.36.v20210114 |
org.eclipse.jetty | jetty-security | 9.4.36.v20210114 |
org.eclipse.jetty | jetty-server | 9.4.36.v20210114 |
org.eclipse.jetty | jetty-servlet | 9.4.36.v20210114 |
org.eclipse.jetty | jetty-servlets | 9.4.36.v20210114 |
org.eclipse.jetty | jetty-util | 9.4.36.v20210114 |
org.eclipse.jetty | jetty-util-ajax | 9.4.36.v20210114 |
org.eclipse.jetty | jetty-webapp | 9.4.36.v20210114 |
org.eclipse.jetty | jetty-xml | 9.4.36.v20210114 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.30 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.30 |
org.glassfish.jersey.core | jersey-client | 2.30 |
org.glassfish.jersey.core | maglia-comune | 2.30 |
org.glassfish.jersey.core | jersey-server | 2.30 |
org.glassfish.jersey.inject | jersey-hk2 | 2.30 |
org.glassfish.jersey.media | jersey-media-jaxb | 2.30 |
org.hibernate.validator | hibernate-validator | 6.1.0.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M5 |
org.json4s | json4s-core_2.12 | 3.7.0-M5 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M5 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M5 |
org.lz4 | lz4-java | 1.7.1 |
org.mariadb.jdbc | mariadb-java-client | 2.2.5 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.1.4 |
org.roaringbitmap | RoaringBitmap | 0.9.14 |
org.roaringbitmap | Spessori | 0.9.14 |
org.rocksdb | rocksdbjni | 6.20.3 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.10 |
org.scala-lang | scala-library_2.12 | 2.12.10 |
org.scala-lang | scala-reflect_2.12 | 2.12.10 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.1.1 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1.0 |
org.scalanlp | breeze_2.12 | 1.0 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.30 |
org.slf4j | jul-to-slf4j | 1.7.30 |
org.slf4j | slf4j-api | 1.7.30 |
org.slf4j | slf4j-log4j12 | 1.7.30 |
org.spark-project.spark | inutilizzato | 1.0.0 |
org.springframework | spring-core | 4.1.4.RELEASE |
org.springframework | spring-test | 4.1.4.RELEASE |
org.threeten | treten-extra | 1.5.0 |
org.cortanaani | xz | 1,5 |
org.typelevel | algebra_2.12 | 2.0.0-M2 |
org.typelevel | cats-kernel_2.12 | 2.0.0-M4 |
org.typelevel | machinist_2.12 | 0.6.8 |
org.typelevel | macro-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0-M1 |
org.typelevel | spire-platform_2.12 | 0.17.0-M1 |
org.typelevel | spire-util_2.12 | 0.17.0-M1 |
org.typelevel | spire_2.12 | 0.17.0-M1 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.2 |
org.yaml | snakeyaml | 1.24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1,5 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |
xmlenc | xmlenc | 0,52 |