Databricks Runtime 7.4 (EoS)
Observação
O suporte para esta versão do Databricks Runtime foi encerrado. Para obter a data de fim do suporte, consulte o Histórico de fim do suporte. Para todas as versões compatíveis do Databricks Runtime, consulte Versões e compatibilidade de notas sobre a versão do Databricks Runtime.
O Databricks lançou esta versão em novembro de 2020.
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 7.4, da Apache Spark 3.0.
Novos recursos
Nesta seção:
- Recursos e aprimoramentos do Delta Lake
- O Carregador Automático agora dá suporte à configuração de recursos de notificação de arquivo aos administradores
- O novo
USAGE
privilégio dá aos administradores maior controle sobre privilégios de acesso a dados - O FUSE do DBFS agora está habilitado para clusters habilitados para passagem
Recursos e melhorias do Delta Lake
Esta versão fornece os seguintes recursos e aprimoramentos do Delta Lake:
- A nova API permite que o Delta Lake verifique se os dados adicionados a uma tabela atendem às restrições
- A nova API permite reverter uma tabela Delta para uma versão mais antiga da tabela
- A nova versão inicial permite retornar apenas as alterações mais recentes em uma fonte de fluxo do Delta Lake
- Estabilidade aprimorada do
OPTIMIZE
A nova API permite que o Delta Lake verifique se os dados adicionados a uma tabela atendem às restrições
O Delta Lake agora dá suporte a restrições CHECK
. Quando fornecido, o Delta Lake verifica automaticamente se os dados adicionados a uma tabela atendem à expressão especificada.
Para adicionar as restrições CHECK
, use o comando ALTER TABLE ADD CONSTRAINTS
. Para obter detalhes, confira Restrições no Azure Databricks.
A nova API permite reverter uma tabela Delta para uma versão mais antiga da tabela
Agora você pode reverter suas tabelas Delta para versões mais antigas usando o comando RESTORE
:
SQL
RESTORE <table> TO VERSION AS OF n;
RESTORE <table> TO TIMESTAMP AS OF 'yyyy-MM-dd HH:mm:ss';
Python
from delta.tables import DeltaTable
DeltaTable.forName(spark, "table_name").restoreToVersion(n)
DeltaTable.forName(spark, "table_name").restoreToTimestamp('yyyy-MM-dd')
Scala
import io.delta.tables.DeltaTable
DeltaTable.forName(spark, "table_name").restoreToVersion(n)
DeltaTable.forName(spark, "table_name").restoreToTimestamp("yyyy-MM-dd")
RESTORE
cria uma nova confirmação que reverte de todas as alterações feitas na tabela desde a versão que você deseja restaurar. Todos os dados e metadados existentes são restaurados, o que inclui o esquema, as restrições, as IDs de transação de fluxo, os metadados COPY INTO
e a versão do protocolo de tabela. Para obter detalhes, confira Restaurar uma tabela Delta.
A nova versão inicial permite retornar apenas as alterações mais recentes em uma fonte de fluxo do Delta Lake
Para retornar apenas as alterações mais recentes, especifique startingVersion
como latest
. Para obter detalhes, confira Especificar a posição inicial.
Estabilidade aprimorada do OPTIMIZE
OPTIMIZE
(sem nenhum predicado de partição) pode ser dimensionada para executar em tabelas com dezenas de milhões de arquivos pequenos. Anteriormente, o driver do Apache Spark podia ficar sem memória e OPTIMIZE
não era concluído.OPTIMIZE
agora lida com tabelas muito grandes com dezenas de milhões de arquivos.
O Carregador Automático agora dá suporte à configuração de recursos de notificação de arquivo aos administradores
Uma nova API Scala permite que os administradores configurarem recursos de notificação de arquivo para o Carregador Automático. Os engenheiros de dados agora podem operar seus fluxos do Carregador Automático com menos permissões delegando a configuração inicial do recurso aos administradores. Consulte Configurar ou gerenciar manualmente os recursos de notificação de arquivo.
O novo USAGE
privilégio dá aos administradores maior controle sobre privilégios de acesso a dados
Para executar uma ação em um objeto USAGE
em um banco de dados, agora você deve receber o privilégio nesse banco de dados, além dos privilégios necessários para executar a ação. O privilégio USAGE
é concedido para um banco de dados ou um catálogo. Com a introdução do privilégio USAGE
, um proprietário de tabela não pode mais decidir compartilhá-lo com outro usuário, pois ele também deve ter o privilégio USAGE
no banco de dados que contém a tabela.
Em espaços de trabalho que têm o controle de acesso de tabela habilitado, o grupo users
tem automaticamente o privilégio USAGE
para a raiz CATALOG
.
Para obter detalhes, confira Privilégio USAGE.
O FUSE do DBFS agora está habilitado para clusters habilitados para passagem
Agora você pode ler e gravar no DBFS usando a montagem FUSE em /dbfs/
quando estiver usando um cluster de Alta Simultaneidade habilitado para passagem de credencial. Há suporte para montagens regulares. Não há suporte para montagens que exigem credenciais de passagem.
Aprimoramentos
O SQL Spark dá suporte a IFF
e CHARINDEX
como sinônimos para IF
ePOSITION
No Databricks Runtime IF()
é um sinônimo de CASE WHEN <cond> THEN <expr1> ELSE <expr2> END
O Databricks Runtime agora dá suporte a IFF()
como sinônimo de IF()
SELECT IFF(c1 = 1, 'Hello', 'World'), c1 FROM (VALUES (1), (2)) AS T(c1)
=> (Hello, 1)
(World, 2)
CHARINDEX
é um nome alternativo para a função POSITION
. CHARINDEX
localiza a posição da primeira ocorrência de uma cadeia de caracteres dentro de outra cadeia de caracteres com um índice inicial opcional.
VALUES(CHARINDEX('he', 'hello from hell', 2))
=> 12
Várias saídas por célula habilitadas para notebooks Python por padrão
O Databricks Runtime 7.1 introduziu suporte para várias saídas por célula em notebooks Python (e células %python em notebooks não Python), mas era necessário habilitar o recurso para seu notebook. Esse recurso é habilitado por padrão no Databricks Runtime 7.4. Confira Exibir várias saídas por célula.
Aprimoramentos de preenchimento automático para notebooks Python
O preenchimento automático para Python mostra informações de tipo adicionais geradas por meio da análise estática do código usando a biblioteca Jedi. Você pode pressionar a tecla Tab para ver uma lista de opções.
Melhoria dos vetores display
do ML Spark na versão prévia do Spark DataFrame
O formato display
agora mostra rótulos para o tipo de vetor (esparso ou denso), comprimento, índices (para vetores esparsos) e valores.
Outras correções
- Corrigido um problema de selagem com
collections.namedtuple
em notebooks. - Corrigido um problema de selagem com métodos e classes definidas interativamente.
- Corrigido um bug que causava falha nas chamadas para
mlflow.start_run()
na passagem ou clusters habilitados para controle de acesso à tabela.
Atualizações da biblioteca
- Bibliotecas do Python atualizadas:
- jedi atualizado de 0.14.1 para 0.17.2.
- koalas atualizado de 1.2.0 para 1.3.0.
- parso atualizado de 0.5.2 para 0.7.0.
- Atualização de várias bibliotecas do R instaladas. Confira Bibliotecas do R instaladas.
Apache Spark
O Databricks Runtime 7.4 inclui o Apache Spark 3.0.1. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 7.3 LTS (EoS), bem como as seguintes correções de bugs adicionais e melhorias feitas no Spark:
- [SPARK-33170] [SQL] Adicionar a configuração do SQL para controlar o comportamento de falha rápida no FileFormatWriter
- [SPARK-33136] [SQL] Correção do parâmetro trocado por engano em V2WriteCommand.outputResolved
- [SPARK-33134] [SQL] Retornar resultados parciais somente para objetos JSON raiz
- [SPARK-33038] [SQL] Combinar o plano inicial e atual do AQE...
- [SPARK-33118][SQL] Falha ao CRIAR TABELA TEMPORÁRIA com o local
- [SPARK-33101] [ML] Fazer com que o formato LibSVM propague a configuração do Hadoop de opções de DS para o sistema de arquivos HDFS subjacente
- [SPARK-33035] [SQL] Atualiza as entradas obsoletas do mapeamento de atributo em QueryPlan#transformUpWithNewOutput
- [SPARK-33091] [SQL] Evite usar o mapa em vez de foreach para evitar o possível efeito colateral em chamadores de OrcUtils.readCatalystSchema
- [SPARK-33073] [PYTHON] Melhorar o tratamento de erros no Pandas para falhas de conversão de Seta
- [SPARK-33043] [ML] Manipular spark.driver.maxResultSize=0 na computação heurística do RowMatrix
- [SPARK-29358] [SQL] Fazer com que o unionByName preencha opcionalmente colunas ausentes com nulos
- [SPARK-32996] [WEB-UI] Manipular ExecutorMetrics vazio em ExecutorMetricsJsonSerializer
- [SPARK-32585][SQL] Suporta enumeração do scala em ScalaReflection
- [SPARK-33019] [CORE] Usar spark.hadoop.mapreduce.fileoutputcommitter.algorithm.version=1 por padrão
- [SPARK-33018] [SQL] Corrigir o problema de estatísticas de estimativa se o filho tiver 0 bytes
- [SPARK-32901] [CORE] Não alocar memória durante o vazamento de UnsafeExternalSorter
- [SPARK-33015] [SQL] Usar millisToDays() na regra ComputeCurrentTime
- [SPARK-33015] [SQL] Computar a data atual apenas uma vez
- [SPARK-32999][SQL] Usa Utils.getSimpleName para evitar que ocorra nome de classe malformado no TreeNode
- [SPARK-32659] [SQL] Matriz de Transmissão em vez de Definir em InSubqueryExec
- [SPARK-32718][SQL] Remover palavras-chave desnecessárias nas unidades de intervalo
- [SPARK-32886] [WEBUI] Corrigir link 'indefinido' na exibição da linha do tempo do evento
- [SPARK-32898] [CORE] Corrigir executorRunTime errado quando a tarefa foi morta antes do início real
- [SPARK-32635] [SQL] Adicionar um novo caso de teste no módulo do catalyst
- [SPARK-32930] [CORE] Substituir métodos isFile/isDirectory preteridos
- [SPARK-32906] [SQL] Os nomes de campo struct não devem mudar depois de normalizar floats
- [SPARK-24994] [SQL] Adicionar otimizador UnwrapCastInBinaryComparison para simplificar o literal integral
- [SPARK-32635][SQL] Corrigir a propagação dobrável
- [SPARK-32738] [CORE] Deve reduzir o número de threads ativos se ocorrer um erro fatal em
Inbox.process
- [SPARK-32900] [CORE] Permitir que UnsafeExternalSorter despeje quando houver nulos
- [SPARK-32897] [PYTHON] Não mostrar um aviso de substituição em SparkSession.builder.getOrCreate
- [SPARK-32715] [CORE] Correção do vazamento de memória durante falha ao armazenar partes da transmissão
- [SPARK-32715] [CORE] Correção do vazamento de memória durante falha ao armazenar partes da transmissão
- [SPARK-32872] [CORE] Impedir que BytesToBytesMap MAX_CAPACITY exceda o limite de crescimento
- [SPARK-32876] [SQL] Alterar as versões de fallback padrão para 3.0.1 e 2.4.7 em HiveExternalCatalogVersionsSuite
- [SPARK-32840] [SQL] O valor de intervalo inválido pode estar simplesmente colado à unidade
- [SPARK-32819] [SQL] O parâmetro ignoreNullability deve ser eficaz recursivamente
- [SPARK-32832] [SS] Usar CaseInsensitiveMap para opções do DataStreamReader/Gravador
- [SPARK-32794] [SS] Correção de erro de caso de canto raro no mecanismo de microlotes com algumas consultas com estado + sem lotes de dados + fontes V1
- [SPARK-32813] [SQL] Obter a configuração padrão do leitor vetorizado ParquetSource se nenhuma SparkSession estiver ativa
- [SPARK-32823] [interface do usuário da WEB] Corrigir o relatório de recursos da interface do usuário mestre
- [SPARK-32824] [CORE] Melhorar a mensagem de erro quando o usuário esquecer o valor .amount em uma configuração de recurso
- [SPARK-32614] [SQL] Não aplique o processamento de comentário se 'comentário' não estiver definido para CSV
- [SPARK-32638] [SQL] Corrige referências ao adicionar aliases em WidenSetOperationTypes
- [SPARK-32810] [SQL] Fontes de dados CSV/JSON devem evitar caminhos de glob ao inferir esquema
- [SPARK-32815] [ML] Correção do erro de carregamento da fonte de dados LibSVM em caminhos de arquivo com metacaracteres glob
- [SPARK-32753] [SQL] Copiar somente marcas para o nó sem marcas
- [SPARK-32785] [SQL] O intervalo com partes pendentes não deve resultar em nulo
- [SPARK-32764][SQL] -0,0 deve ser igual a 0,0
- [SPARK-32810] [SQL] Fontes de dados CSV/JSON devem evitar caminhos de glob ao inferir esquema
- [SPARK-32779] [SQL] Evite usar a API sincronizada de SessionCatalog no fluxo withClient, pois isso gera DeadLock
- [SPARK-32791] [SQL] A métrica de tabela não particionada não deve ter tempo de remoção de partição dinâmica
- [SPARK-32767] [SQL] A junção de bucket deverá funcionar se spark.sql.shuffle.partitions for maior que o número do bucket
- [SPARK-32788] [SQL] A verificação de tabela não particionada não deve ter filtro de partição
- [SPARK-32776] [SS] O limite no fluxo não deve ser otimizado pelo PropagateEmptyRelation
- [SPARK-32624] [SQL] Corrigir regressão em CodegenContext.addReferenceObj em tipos de Scala aninhados
- [SPARK-32659] [SQL] Melhorar o teste para remoção de DPP em tipo não atômico
- [SPARK-31511] [SQL] Tornar os iteradores BytesToBytesMap thread-safe
- [SPARK-32693] [SQL] Comparar dois dataframes com o mesmo esquema, exceto a propriedade que pode ser anulada
- [SPARK-28612] [SQL] Documento de método correto de DataFrameWriterV2.replace()
Atualizações de manutenção
Confira Atualizações de manutenção do Databricks Runtime 7.4.
Ambiente do sistema
- Sistema operacional: Ubuntu 18.04.5 LTS
- Java: Zulu 8.48.0.53-CA-linux64 (build 1.8.0_265-b11)
- Scala: 2.12.10
- Python: 3.7.5
- R: R versão 3.6.3 (29-02-2020)
- Delta Lake 0.7.0
Bibliotecas Python instaladas
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
asn1crypto | 1.3.0 | backcall | 0.1.0 | boto3 | 1.12.0 |
botocore | 1.15.0 | certifi | 2020.6.20 | cffi | 1.14.0 |
chardet | 3.0.4 | criptografia | 2.8 | cycler | 0.10.0 |
Cython | 0.29.15 | decorator | 4.4.1 | docutils | 0.15.2 |
entrypoints | 0.3 | idna | 2.8 | ipykernel | 5.1.4 |
ipython | 7.12.0 | ipython-genutils | 0.2.0 | jedi | 0.17.2 |
jmespath | 0.10.0 | joblib | 0.14.1 | jupyter-client | 5.3.4 |
jupyter-core | 4.6.1 | kiwisolver | 1.1.0 | koalas | 1.3.0 |
matplotlib | 3.1.3 | numpy | 1.18.1 | pandas | 1.0.1 |
parso | 0.7.0 | patsy | 0.5.1 | pexpect | 4.8.0 |
pickleshare | 0.7.5 | pip | 20.0.2 | prompt-toolkit | 3.0.3 |
psycopg2 | 2.8.4 | ptyprocess | 0.6.0 | pyarrow | 1.0.1 |
pycparser | 2.19 | Pygments | 2.5.2 | PyGObject | 3.26.1 |
pyOpenSSL | 19.1.0 | pyparsing | 2.4.6 | PySocks | 1.7.1 |
python-apt | 1.6.5+ubuntu0.3 | python-dateutil | 2.8.1 | pytz | 2019.3 |
pyzmq | 18.1.1 | solicitações | 2.22.0 | s3transfer | 0.3.3 |
scikit-learn | 0.22.1 | scipy | 1.4.1 | seaborn | 0.10.0 |
setuptools | 45.2.0 | six | 1.14.0 | ssh-import-id | 5.7 |
statsmodels | 0.11.0 | tornado | 6.0.3 | traitlets | 4.3.3 |
unattended-upgrades | 0,1 | urllib3 | 1.25.8 | virtualenv | 16.7.10 |
wcwidth | 0.1.8 | wheel | 0.34.2 |
Bibliotecas R instaladas
As bibliotecas do R são instaladas a partir do instantâneo do CRAN da Microsoft em XXXX-XX-XX.
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
askpass | 1,1 | assertthat | 0.2.1 | backports | 1.1.8 |
base | 3.6.3 | base64enc | 0.1-3 | BH | 1.72.0-3 |
bit | 1.1-15.2 | bit64 | 0.9-7 | blob | 1.2.1 |
boot | 1.3-25 | brew | 1.0-6 | broom | 0.7.0 |
callr | 3.4.3 | sinal de interpolação | 6.0-86 | cellranger | 1.1.0 |
chron | 2.3-55 | classe | 7.3-17 | cli | 2.0.2 |
clipr | 0.7.0 | cluster | 2.1.0 | codetools | 0.2-16 |
colorspace | 1.4-1 | commonmark | 1,7 | compiler | 3.6.3 |
config | 0.3 | covr | 3.5.0 | crayon | 1.3.4 |
crosstalk | 1.1.0.1 | curl | 4.3 | data.table | 1.12.8 |
conjuntos de dados | 3.6.3 | DBI | 1.1.0 | dbplyr | 1.4.4 |
desc | 1.2.0 | devtools | 2.3.0 | digest | 0.6.25 |
dplyr | 0.8.5 | DT | 0,14 | ellipsis | 0.3.1 |
evaluate | 0,14 | fansi | 0.4.1 | farver | 2.0.3 |
fastmap | 1.0.1 | forcats | 0.5.0 | foreach | 1.5.0 |
foreign | 0.8-76 | forge | 0.2.0 | fs | 1.4.2 |
Genéricos | 0.0.2 | ggplot2 | 3.3.2 | gh | 1.1.0 |
git2r | 0.27.1 | glmnet | 3.0-2 | globals | 0.12.5 |
glue | 1.4.1 | gower | 0.2.2 | elemento gráfico | 3.6.3 |
grDevices | 3.6.3 | grade | 3.6.3 | gridExtra | 2.3 |
gsubfn | 0.7 | gtable | 0.3.0 | haven | 2.3.1 |
highr | 0.8 | hms | 0.5.3 | htmltools | 0.5.0 |
htmlwidgets | 1.5.1 | httpuv | 1.5.4 | httr | 1.4.1 |
hwriter | 1.3.2 | hwriterPlus | 1.0-3 | ini | 0.3.1 |
ipred | 0.9-9 | isoband | 0.2.2 | iterators | 1.0.12 |
jsonlite | 1.7.0 | KernSmooth | 2.23-17 | knitr | 1.29 |
labeling | 0.3 | later | 1.1.0.1 | lattice | 0.20-41 |
lava | 1.6.7 | lazyeval | 0.2.2 | ciclo de vida | 0.2.0 |
lubridate | 1.7.9 | magrittr | 1.5 | markdown | 1,1 |
MASS | 7.3-53 | Matriz | 1.2-18 | memoise | 1.1.0 |
methods | 3.6.3 | mgcv | 1.8-33 | mime | 0,9 |
ModelMetrics | 1.2.2.2 | modelr | 0.1.8 | munsell | 0.5.0 |
nlme | 3.1-149 | nnet | 7.3-14 | numDeriv | 2016.8-1.1 |
openssl | 1.4.2 | parallel | 3.6.3 | pillar | 1.4.6 |
pkgbuild | 1.1.0 | pkgconfig | 2.0.3 | pkgload | 1.1.0 |
plogr | 0.2.0 | plyr | 1.8.6 | praise | 1.0.0 |
prettyunits | 1.1.1 | pROC | 1.16.2 | processx | 3.4.3 |
prodlim | 2019.11.13 | progress | 1.2.2 | promises | 1.1.1 |
proto | 1.0.0 | ps | 1.3.3 | purrr | 0.3.4 |
r2d3 | 0.2.3 | R6 | 2.4.1 | randomForest | 4.6-14 |
rappdirs | 0.3.1 | rcmdcheck | 1.3.3 | RColorBrewer | 1.1-2 |
Rcpp | 1.0.5 | readr | 1.3.1 | readxl | 1.3.1 |
recipes | 0.1.13 | rematch | 1.0.1 | rematch2 | 2.1.2 |
remotes | 2.1.1 | reprex | 0.3.0 | reshape2 | 1.4.4 |
rex | 1.2.0 | rjson | 0.2.20 | rlang | 0.4.7 |
rmarkdown | 2.3 | RODBC | 1.3-16 | roxygen2 | 7.1.1 |
rpart | 4.1-15 | rprojroot | 1.3-2 | Rserve | 1.8-7 |
RSQLite | 2.2.0 | rstudioapi | 0,11 | rversions | 2.0.2 |
rvest | 0.3.5 | scales | 1.1.1 | selectr | 0.4-2 |
sessioninfo | 1.1.1 | shape | 1.4.4 | shiny | 1.5.0 |
sourcetools | 0.1.7 | sparklyr | 1.3.1 | SparkR | 3.0.0 |
spatial | 7.3-11 | splines | 3.6.3 | sqldf | 0.4-11 |
SQUAREM | 2020.3 | stats | 3.6.3 | stats4 | 3.6.3 |
stringi | 1.4.6 | stringr | 1.4.0 | survival | 3.2-7 |
sys | 3.3 | tcltk | 3.6.3 | TeachingDemos | 2,10 |
testthat | 2.3.2 | tibble | 3.0.3 | tidyr | 1.1.0 |
tidyselect | 1.1.0 | tidyverse | 1.3.0 | timeDate | 3043.102 |
tinytex | 0.24 | tools | 3.6.3 | usethis | 1.6.1 |
utf8 | 1.1.4 | utils | 3.6.3 | uuid | 0.1-4 |
vctrs | 0.3.1 | viridisLite | 0.3.0 | whisker | 0,4 |
withr | 2.2.0 | xfun | 0.15 | xml2 | 1.3.2 |
xopen | 1.0.0 | xtable | 1.8-4 | yaml | 2.2.1 |
Bibliotecas do Java e do Scala instaladas (versão do cluster Scala 2.12)
ID do Grupo | Artifact ID | Versão |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudformation | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudfront | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.655 |
com.amazonaws | aws-java-sdk-codedeploy | 1.11.655 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.655 |
com.amazonaws | aws-java-sdk-cognitosync | 1.11.655 |
com.amazonaws | aws-java-sdk-config | 1.11.655 |
com.amazonaws | aws-java-sdk-core | 1.11.655 |
com.amazonaws | aws-java-sdk-datapipeline | 1.11.655 |
com.amazonaws | aws-java-sdk-directconnect | 1.11.655 |
com.amazonaws | aws-java-sdk-directory | 1.11.655 |
com.amazonaws | aws-java-sdk-dynamodb | 1.11.655 |
com.amazonaws | aws-java-sdk-ec2 | 1.11.655 |
com.amazonaws | aws-java-sdk-ecs | 1.11.655 |
com.amazonaws | aws-java-sdk-efs | 1.11.655 |
com.amazonaws | aws-java-sdk-elasticache | 1.11.655 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.655 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.655 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.655 |
com.amazonaws | aws-java-sdk-emr | 1.11.655 |
com.amazonaws | aws-java-sdk-glacier | 1.11.655 |
com.amazonaws | aws-java-sdk-iam | 1.11.655 |
com.amazonaws | aws-java-sdk-importexport | 1.11.655 |
com.amazonaws | aws-java-sdk-kinesis | 1.11.655 |
com.amazonaws | aws-java-sdk-kms | 1.11.655 |
com.amazonaws | aws-java-sdk-lambda | 1.11.655 |
com.amazonaws | aws-java-sdk-logs | 1.11.655 |
com.amazonaws | aws-java-sdk-machinelearning | 1.11.655 |
com.amazonaws | aws-java-sdk-opsworks | 1.11.655 |
com.amazonaws | aws-java-sdk-rds | 1.11.655 |
com.amazonaws | aws-java-sdk-redshift | 1.11.655 |
com.amazonaws | aws-java-sdk-route53 | 1.11.655 |
com.amazonaws | aws-java-sdk-s3 | 1.11.655 |
com.amazonaws | aws-java-sdk-ses | 1.11.655 |
com.amazonaws | aws-java-sdk-simpledb | 1.11.655 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.655 |
com.amazonaws | aws-java-sdk-sns | 1.11.655 |
com.amazonaws | aws-java-sdk-sqs | 1.11.655 |
com.amazonaws | aws-java-sdk-ssm | 1.11.655 |
com.amazonaws | aws-java-sdk-storagegateway | 1.11.655 |
com.amazonaws | aws-java-sdk-sts | 1.11.655 |
com.amazonaws | aws-java-sdk-support | 1.11.655 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.11.655 |
com.amazonaws | jmespath-java | 1.11.655 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | fluxo | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | classmate | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.10.0 |
com.fasterxml.jackson.core | jackson-core | 2.10.0 |
com.fasterxml.jackson.core | jackson-databind | 2.10.0 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.10.0 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.10.0 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.10.0 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.10.0 |
com.github.ben-manes.caffeine | caffeine | 2.3.4 |
com.github.fommil | jniloader | 1,1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1,1 |
com.github.fommil.netlib | native_ref-java-natives | 1,1 |
com.github.fommil.netlib | native_system-java | 1,1 |
com.github.fommil.netlib | native_system-java-natives | 1,1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1,1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1,1 |
com.github.joshelser | dropwizard-metrics-hadoop-metrics2-reporter | 0.1.2 |
com.github.luben | zstd-jni | 1.4.4-3 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.2.4 |
com.google.flatbuffers | flatbuffers-java | 1.9.0 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 1.4.195 |
com.helger | profiler | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.2.8 |
com.microsoft.sqlserver | mssql-jdbc | 8.2.1.jre8 |
com.ning | compress-lzf | 1.0.3 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.9.5 |
com.twitter | chill_2.12 | 0.9.5 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.univocity | univocity-parsers | 2.9.0 |
com.zaxxer | HikariCP | 3.1.0 |
commons-beanutils | commons-beanutils | 1.9.4 |
commons-cli | commons-cli | 1,2 |
commons-codec | commons-codec | 1,10 |
commons-collections | commons-collections | 3.2.2 |
commons-configuration | commons-configuration | 1.6 |
commons-dbcp | commons-dbcp | 1.4 |
commons-digester | commons-digester | 1.8 |
commons-fileupload | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.4 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-net | commons-net | 3.1 |
commons-pool | commons-pool | 1.5.4 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0.10 |
io.dropwizard.metrics | metrics-core | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metrics-healthchecks | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | metrics-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | metrics-servlets | 4.1.1 |
io.netty | netty-all | 4.1.47.Final |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | activation | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.servlet | javax.servlet-api | 3.1.0 |
javax.servlet.jsp | jsp-api | 2.1 |
javax.transaction | jta | 1,1 |
javax.transaction | transaction-api | 1,1 |
javax.xml.bind | jaxb-api | 2.2.2 |
javax.xml.stream | stax-api | 1.0-2 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.5 |
log4j | apache-log4j-extras | 1.2.17 |
log4j | log4j | 1.2.17 |
net.razorvine | pyrolite | 4.30 |
net.sf.jpam | jpam | 1,1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.12.8 |
net.snowflake | spark-snowflake_2.12 | 2.8.1-spark_3.0 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.7.1 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | arrow-format | 0.15.1 |
org.apache.arrow | arrow-memory | 0.15.1 |
org.apache.arrow | arrow-vector | 0.15.1 |
org.apache.avro | avro | 1.8.2 |
org.apache.avro | avro-ipc | 1.8.2 |
org.apache.avro | avro-mapred-hadoop2 | 1.8.2 |
org.apache.commons | commons-compress | 1.8.1 |
org.apache.commons | commons-crypto | 1.0.0 |
org.apache.commons | commons-lang3 | 3.9 |
org.apache.commons | commons-math3 | 3.4.1 |
org.apache.commons | commons-text | 1.6 |
org.apache.curator | curator-client | 2.7.1 |
org.apache.curator | curator-framework | 2.7.1 |
org.apache.curator | curator-recipes | 2.7.1 |
org.apache.derby | derby | 10.12.1.1 |
org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
org.apache.directory.api | api-util | 1.0.0-M20 |
org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
org.apache.hadoop | hadoop-annotations | 2.7.4 |
org.apache.hadoop | hadoop-auth | 2.7.4 |
org.apache.hadoop | hadoop-client | 2.7.4 |
org.apache.hadoop | hadoop-common | 2.7.4 |
org.apache.hadoop | hadoop-hdfs | 2.7.4 |
org.apache.hadoop | hadoop-mapreduce-client-app | 2.7.4 |
org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.4 |
org.apache.hadoop | hadoop-mapreduce-client-core | 2.7.4 |
org.apache.hadoop | hadoop-mapreduce-client-jobclient | 2.7.4 |
org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.4 |
org.apache.hadoop | hadoop-yarn-api | 2.7.4 |
org.apache.hadoop | hadoop-yarn-client | 2.7.4 |
org.apache.hadoop | hadoop-yarn-common | 2.7.4 |
org.apache.hadoop | hadoop-yarn-server-common | 2.7.4 |
org.apache.hive | hive-beeline | 2.3.7 |
org.apache.hive | hive-cli | 2.3.7 |
org.apache.hive | hive-common | 2.3.7 |
org.apache.hive | hive-exec-core | 2.3.7 |
org.apache.hive | hive-jdbc | 2.3.7 |
org.apache.hive | hive-llap-client | 2.3.7 |
org.apache.hive | hive-llap-common | 2.3.7 |
org.apache.hive | hive-metastore | 2.3.7 |
org.apache.hive | hive-serde | 2.3.7 |
org.apache.hive | hive-shims | 2.3.7 |
org.apache.hive | hive-storage-api | 2.7.1 |
org.apache.hive | hive-vector-code-gen | 2.3.7 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.7 |
org.apache.hive.shims | hive-shims-common | 2.3.7 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.7 |
org.apache.htrace | htrace-core | 3.1.0-incubating |
org.apache.httpcomponents | httpclient | 4.5.6 |
org.apache.httpcomponents | httpcore | 4.4.12 |
org.apache.ivy | ivy | 2.4.0 |
org.apache.orc | orc-core | 1.5.10 |
org.apache.orc | orc-mapreduce | 1.5.10 |
org.apache.orc | orc-shims | 1.5.10 |
org.apache.parquet | parquet-column | 1.10.1-databricks6 |
org.apache.parquet | parquet-common | 1.10.1-databricks6 |
org.apache.parquet | parquet-encoding | 1.10.1-databricks6 |
org.apache.parquet | parquet-format | 2.4.0 |
org.apache.parquet | parquet-hadoop | 1.10.1-databricks6 |
org.apache.parquet | parquet-jackson | 1.10.1-databricks6 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.velocity | velocity | 1.5 |
org.apache.xbean | xbean-asm7-shaded | 4.15 |
org.apache.yetus | audience-annotations | 0.5.0 |
org.apache.zookeeper | zookeeper | 3.4.14 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-jaxrs | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.jackson | jackson-xc | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-continuation | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-http | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-io | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-jndi | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-plus | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-proxy | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-security | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-server | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-servlet | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-servlets | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-util | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-webapp | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-xml | 9.4.18.v20190429 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.30 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.30 |
org.glassfish.jersey.core | jersey-client | 2.30 |
org.glassfish.jersey.core | jersey-common | 2.30 |
org.glassfish.jersey.core | jersey-server | 2.30 |
org.glassfish.jersey.inject | jersey-hk2 | 2.30 |
org.glassfish.jersey.media | jersey-media-jaxb | 2.30 |
org.hibernate.validator | hibernate-validator | 6.1.0.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.6.6 |
org.json4s | json4s-core_2.12 | 3.6.6 |
org.json4s | json4s-jackson_2.12 | 3.6.6 |
org.json4s | json4s-scalap_2.12 | 3.6.6 |
org.lz4 | lz4-java | 1.7.1 |
org.mariadb.jdbc | mariadb-java-client | 2.1.2 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.1.4 |
org.roaringbitmap | RoaringBitmap | 0.7.45 |
org.roaringbitmap | shims | 0.7.45 |
org.rocksdb | rocksdbjni | 6.2.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.10 |
org.scala-lang | scala-library_2.12 | 2.12.10 |
org.scala-lang | scala-reflect_2.12 | 2.12.10 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.1.1 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1,0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1,0 |
org.scalanlp | breeze_2.12 | 1,0 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.30 |
org.slf4j | jul-to-slf4j | 1.7.30 |
org.slf4j | slf4j-api | 1.7.30 |
org.slf4j | slf4j-log4j12 | 1.7.30 |
org.spark-project.spark | unused | 1.0.0 |
org.springframework | spring-core | 4.1.4.RELEASE |
org.springframework | spring-test | 4.1.4.RELEASE |
org.threeten | threeten-extra | 1.5.0 |
org.tukaani | xz | 1.5 |
org.typelevel | algebra_2.12 | 2.0.0-M2 |
org.typelevel | cats-kernel_2.12 | 2.0.0-M4 |
org.typelevel | machinist_2.12 | 0.6.8 |
org.typelevel | macro-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0-M1 |
org.typelevel | spire-platform_2.12 | 0.17.0-M1 |
org.typelevel | spire-util_2.12 | 0.17.0-M1 |
org.typelevel | spire_2.12 | 0.17.0-M1 |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.7.5 |
org.yaml | snakeyaml | 1,24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |
xmlenc | xmlenc | 0.52 |