Databricks Runtime 6.0 (EoS)
Observação
O suporte para esta versão do Databricks Runtime foi encerrado. Para obter a data de fim do suporte, consulte o Histórico de fim do suporte. Para todas as versões compatíveis do Databricks Runtime, consulte Versões e compatibilidade de notas sobre a versão do Databricks Runtime.
O Databricks lançou essa versão em outubro de 2019.
As notas sobre a versão a seguir fornecem informações sobre o Databricks Runtime 6.0, da plataforma do Apache Spark.
Novos recursos
Ambiente do Python
O Databricks Runtime 6.0 inclui alterações importantes no Python e a maneira como os ambientes do Python são configurados, incluindo a atualização do Python para o 3.7.3, o refinamento da lista de pacotes do Python instalados e a atualização desses pacotes instalados para versões mais recentes. Para obter detalhes, consulte Bibliotecas do Python instaladas.
Além disso, como foi anunciado anteriormente, o Databricks Runtime 6.0 não dá suporte ao Python 2.
As principais alterações incluem:
- Atualização do Python de 3.5.2 para 3.7.3. Algumas versões antigas de pacotes do Python podem não ser compatíveis com o Python 3.7 porque dependem de versões antigas do Cython que não são compatíveis com o Python 3.7. Instalar um pacote desse tipo pode disparar erros semelhantes
‘PyThreadState’ {‘struct _ts’} has no member named ‘exc_type’
a (consulte a edição 1978 do GitHub para obter detalhes). Em vez disso, instale versões compatíveis com Python 3.7 de pacotes do Python. - Atualizações de pacote principais:
- boto3 para 1.9.162
- ipython para 7.4.0
- matplotlib para 3.0.3
- numpy para 1.16.2
- pandas para 0.24.2
- pyarrow para 0.13.0
- Em comparação com o Databricks Runtime 5.5 LTS (EoS), os seguintes pacotes Python são incluídos recentemente: asn1crypto, backcall, jedi, kiwisolver, parso e PySocks.
- Em comparação com Databricks Runtime 5.5 LTS (EoS), os seguintes pacotes Python não estão instalados: ansi2html, brewer2mpl, colorama, configobj, enum34, et-xmlfile, freetype-py, funcsigs, fusepy, ggplot, html5lib, ipaddress, jdcal, Jinja2, llvmlite, lxml, MarkupSafe, mpld3, msgpack-python, ndg-httpsclient, numba, openpyxl, pathlib2, Pillow, ply, pyasn1, pypng, python-geohash, scour, simplejson e singledispatch.
- Não há mais suporte para a função
display
em objetos ggplot do Python porque o pacote ggplot não é compatível com a versão mais recente do Pandas. - Não há suporte à configuração
PYSPARK_PYTHON
como/databricks/python2/bin/python
porque o Databricks Runtime 6.0 não dá suporte ao Python 2. Um cluster com essa configuração ainda pode ser iniciado. No entanto, os notebooks do Python e os comandos do Python não funcionarão, ou seja, as células de comando do Python falharão com um erro "Cancelado" e um erroPython shell failed to start
aparecerá nos logs do driver. - Se
PYSPARK_PYTHON
aponta para um executável do Python que está em um ambiente gerenciado pelo Virtualenv, esse ambiente será ativado para os scripts de inicialização e os notebooks. É possível usar os comandospython
pip
definidos no ambiente ativado diretamente sem precisar especificar os locais absolutos desses comandos. Por padrão,PYSPARK_PYTHON
é definido como/databricks/python3/bin/python
. Portanto, por padrão,python
aponta para/databricks/python3/bin/python
epip
aponta/databricks/python3/bin/pip
para os scripts de inicialização e os notebooks. Se oPYSPARK_PYTHON
aponta para um executável do Python que não está em um ambiente gerenciado pelo Virtualenv ou se você estiver escrevendo um script de inicialização para criar o Python especificado porPYSPARK_PYTHON
, você precisará usar caminhos absolutos para acessar opython
e opip
corretos. Quando o isolamento da biblioteca do Python está habilitado (ele está habilitado por padrão), o ambiente ativado ainda é o ambiente ao qualPYSPARK_PYTHON
está associado. Recomendamos que você use o Utilitário de biblioteca (dbutils.library) (herdado) para modificar o ambiente isolado associado a um notebook Python.
APIs do Scala e Java para comandos DML do Delta Lake
Agora é possível modificar dados em tabelas Delta usando as APIs programáticas para exclusão, atualização e mesclagem. Essas APIs espelham a sintaxe e a semântica de seus comandos do SQL correspondentes e são ótimas para muitas cargas de trabalho, por exemplo, operações de SCD (dimensão de alteração lenta), mesclagem de dados de alteração para replicação e upserts de consultas de streaming.
Para ver detalhes, confira O que é o Delta Lake?
APIs do Scala e Java para comandos do utilitário do Delta Lake
Databricks Runtime agora tem APIs programáticas para os comandos vacuum
e history
do utilitário. Essas APIs espelham a sintaxe e a semântica de seus SQL correspondentes disponíveis em versões anteriores do Databricks Runtime.
É possível limpar arquivos que não são mais referenciados por uma tabela Delta e são mais antigos do que o limite de retenção executando vacuum
na tabela. Executar o comando vacuum
na tabela limpa recursivamente os diretórios associados à tabela Delta. O limite de retenção padrão para os arquivos é de 7 dias. A capacidade de viajar no tempo de volta para uma versão anterior ao período de retenção é perdida após a execução de vacuum
. vacuum
não é disparado automaticamente.
Você pode recuperar informações de operações, usuário, carimbo de data/hora e assim por diante relativas a cada gravação em uma tabela do Delta com o comando history
. As operações são retornadas em ordem cronológica inversa. Por padrão, o histórico de tabela é mantido por 30 dias.
Para ver detalhes, confira O que é o Delta Lake?
Cache de disco disponível para instâncias do Azure Lsv2
[Disk caching]](../../optimizations/disk-cache.md) agora está habilitado por padrão para todas as instâncias Lsv2.
Armazenamento otimizado usando as APIs de arquivo local
As APIs de arquivo local são úteis, pois permitem que você acesse arquivos do armazenamento de objetos distribuídos subjacente como arquivos locais. No Databricks Runtime 6.0, melhoramos a montagem FUSE que permite que as APIs de arquivo local adquiram limitações de chave. O Databricks Runtime 6.0 melhora significativamente a velocidade de leitura e gravação e dá suporte a arquivos maiores que 2 GB. Se você precisar de leituras e gravações mais rápidas e confiáveis, como para treinamento de modelo distribuído, é possível achar esse melhoramento particularmente útil. Além disso, você não precisaria carregar dados em um armazenamento local para suas cargas de trabalho, economizando custos e melhorando a produtividade.
Para obter mais detalhes, confira O que é DBFS?.
Vários gráficos matplotlib por célula de notebook
Agora é possível exibir vários gráficos matplotlib por célula do notebook:
Credenciais de serviço para várias contas do Azure Data Lake Storage Gen1
Agora é possível configurar credenciais de serviço para várias contas do Acessar o Azure Data Lake Storage Gen1 do Azure Databricks para uso em uma única sessão do Apache Spark. Para fazer isso, adicione account.<account-name>
às chaves de configuração. Por exemplo, se você quiser configurar credenciais para que as contas acessem adl://example1.azuredatalakestore.net
e adl://example2.azuredatalakestore.net
, você poderá fazer isso da seguinte forma:
spark.conf.set("fs.adl.oauth2.access.token.provider.type", "ClientCredential")
spark.conf.set("fs.adl.account.example1.oauth2.client.id", "<application-id-example1>")
spark.conf.set("fs.adl.account.example1.oauth2.credential", dbutils.secrets.get(scope = "<scope-name>", key = "<key-name-for-service-credential-example1>"))
spark.conf.set("fs.adl.account.example1.oauth2.refresh.url", "https://login.microsoftonline.com/<directory-id-example1>/oauth2/token")
spark.conf.set("fs.adl.account.example2.oauth2.client.id", "<application-id-example2>")
spark.conf.set("fs.adl.account.example2.oauth2.credential", dbutils.secrets.get(scope = "<scope-name>", key = "<key-name-for-service-credential-example2>"))
spark.conf.set("fs.adl.account.example2.oauth2.refresh.url", "https://login.microsoftonline.com/<directory-id-example2>/oauth2/token")
Aprimoramentos
- SDK do AWS atualizado para 1.11.596.
- Atualização do SDK do Armazenamento do Microsoft Azure no driver WASB para 7.0.
OPTIMIZE
agora fornece um resumo das métricas, como o número de arquivos adicionados, o número de arquivos removidos e o tamanho máximo e mínimo do arquivo. Otimizar o layout do arquivo de dados.
Remoção
A exportação de modelo do Databricks do ML foi removida. A partir de agora, use MLeap para importar e exportar modelos.
Apache Spark
Observação
Este artigo contém referências ao termo escravo, que o Azure Databricks não usa mais. Quando o termo for removido do software, também o removeremos deste artigo.
O Databricks Runtime 6.0 inclui o Apache Spark 2.4.3. Esta versão inclui todas as correções e os aprimoramentos do Spark adicionados aoDatabricks Runtime 5.5 LTS (EoS), bem como as seguintes correções de bugs e melhorias adicionais feitas no Spark:
- [SPARK-27992][SPARK-28881][PYTHON] Permitir que o Python participe com o thread de conexão para propagar erros
- [SPARK-27330][SS] Suporte a interrupção da tarefa no gravador de foreach (6.0, 5.x)
- [SPARK-28642][SQL] Ocultar credenciais em MOSTRAR CRIAR TABELA
- [SPARK-28699][CORE] Corrige um caso fora do padrão ao anular o estágio indeterminado
- [SPARK-28647][WEBUI] Recuperar recurso de métrica adicional
- [SPARK-28766][R][DOC] Correção do aviso de viabilidade de entrada CRAN em UMA URL inválida
- [SPARK-28486][CORE][PYTHON] Mapear o arquivo de dados do PythonBroadcast para um BroadcastBlock para evitar a exclusão pelo GC
- [SPARK-25035][CORE] Evitar o mapeamento de memória na replicação de blocos armazenados em disco
- [SPARK-27234][SS][PYTHON] Usar InheritableThreadLocal para a época atual no EpochTracker (para dar suporte a UDFs do Python)
- [SPARK-28638][WEBUI] O resumo da tarefa deve conter apenas métricas de tarefas bem-sucedidas
- [SPARK-28153][PYTHON] Usar AtomicReference em InputFileBlockHolder (para dar suporte input_file_name com o Python UDF)
- [SPARK-28564][CORE] O aplicativo de histórico de acesso assume como padrão a ID da última tentativa
- [SPARK-28260] O cluster pode ser encerrado automaticamente enquanto a consulta thriftserver ainda está buscando resultados
- [SPARK-26152][CORE] Sincronizar a limpeza do trabalho com o desligamento do trabalho
- [SPARK-28545][SQL] Adicione o tamanho do mapa de hash ao log direcional de ObjectAggregationIterator
- [SPARK-28489][SS] Correção de um bug em que KafkaOffsetRangeCalculator.getRanges pode soltar deslocamentos
- [SPARK-28421][ML] Otimização de desempenho SparseVector.apply
- [SPARK-28156][SQL] A união automática não deve perder a exibição armazenada em cache
- [SPARK-28152][SQL] ShortType é mapeado para SMALLINT e FloatType para REAL para MsSqlServerDialect
- [SPARK-28054][SQL] Corrige o erro ao inserir a tabela particionada do Hive dinamicamente em que o nome da partição é maiúscula
- [SPARK-27159][SQL] Atualizar o dialeto do servidor mssql para dar suporte ao tipo binário
- [SPARK-28355][CORE][PYTHON] Usar a configuração do Spark para o limite no qual com...
- [SPARK-27989][CORE] Adicionadas novas tentativas de conexão com o driver para k8s
- [SPARK-27416][SQL] Serialização UnsafeMapData e UnsafeArrayData Kryo...
- [SPARK-28430][UI] Corrigir a renderização da tabela de estágio quando as métricas de algumas tarefas estão ausentes
- [SPARK-27485] EnsureRequirements.reorder deve tratar expressões duplicadas normalmente
- [SPARK-28404][SS] Corrigir o valor de tempo limite negativo em RateStreamContinuousPartitionReader
- [SPARK-28378][PYTHON] Remover o uso de cgi.escape
- [SPARK-28371][SQL] Tornar o filtro Parquet "StartsWith" nulo
- [SPARK-28015][SQL] Verifica se o stringToDate() consome toda a entrada para os formatos aaaa e aaaa-[m]m
- [SPARK-28302][CORE] Certifique-se de gerar um arquivo de saída exclusivo para SparkLauncher Windows
- [SPARK-28308][CORE] A parte do subsegundo de CalendarInterval deve ser preenchida antes da análise
- [SPARK-28170][ML][PYTHON] Documentação de Matriz e vetores uniformes
- [SPARK-28160][CORE] Correção de um bug que a função de retorno de chamada pode travar quando a exceção desmarcada é perdida
- [SPARK-27839][SQL] Alterar UTF8String.replace() para operar em bytes UTF8
- [SPARK-28157][CORE] Limpar SHS KVStore LogInfo para as entradas na lista de blacklist
- [SPARK-28128][PYTHON][SQL] Pandas UDFs agrupadas ignoram partições vazias
- [SPARK-28012][SQL] O UDF do Hive dá suporte à expressão dobrável do tipo struct
- [SPARK-28164] Corrigir a descrição de uso start-slave.sh
- [SPARK-27100][SQL] Usar a Matriz em vez de Seq em FilePartition para evitar StackOverflowError
- [SPARK-28154][ML] Correção de cache duplo do GMM
Atualizações de manutenção
Confira Atualizações de manutenção do Databricks Runtime 6.0.
Ambiente do sistema
- Sistema operacional: Ubuntu 16.04.6 LTS
- Java: 1.8.0_232
- Scala: 2.11.12
- Python: 3.7.3
- R: R versão 3.6.1 (05/07/2019)
- Delta Lake: 0.3.0
Observação
Embora o Scala 2.12 esteja disponível como um recurso experimental no Apache Spark 2.4, ele não tem suporte no Databricks Runtime 6.0.
Bibliotecas Python instaladas
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
asn1crypto | 0.24.0 | backcall | 0.1.0 | boto | 2.49.0 |
boto3 | 1.9.162 | botocore | 1.12.163 | certifi | 2019.3.9 |
cffi | 1.12.2 | chardet | 3.0.4 | criptografia | 2.6.1 |
cycler | 0.10.0 | Cython | 0.29.6 | decorator | 4.4.0 |
docutils | 0,14 | idna | 2.8 | ipython | 7.4.0 |
ipython-genutils | 0.2.0 | jedi | 0.13.3 | jmespath | 0.9.4 |
kiwisolver | 1.1.0 | matplotlib | 3.0.3 | numpy | 1.16.2 |
pandas | 0.24.2 | parso | 0.3.4 | patsy | 0.5.1 |
pexpect | 4.6.0 | pickleshare | 0.7.5 | pip | 19.0.3 |
prompt-toolkit | 2.0.9 | psycopg2 | 2.7.6.1 | ptyprocess | 0.6.0 |
pyarrow | 0.13.0 | pycparser | 2.19 | pycurl | 7.43.0 |
Pygments | 2.3.1 | PyGObject | 3.20.0 | pyOpenSSL | 19.0.0 |
pyparsing | 2.4.2 | PySocks | 1.6.8 | python-apt | 1.1.0.b1+ubuntu0.16.04.5 |
python-dateutil | 2.8.0 | pytz | 2018.9 | solicitações | 2.21.0 |
s3transfer | 0.2.1 | scikit-learn | 0.20.3 | scipy | 1.2.1 |
seaborn | 0.9.0 | setuptools | 40.8.0 | six | 1.12.0 |
ssh-import-id | 5.5 | statsmodels | 0.9.0 | traitlets | 4.3.2 |
unattended-upgrades | 0,1 | urllib3 | 1.24.1 | virtualenv | 16.4.1 |
wcwidth | 0.1.7 | wheel | 0.33.1 |
Bibliotecas R instaladas
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
abind | 1.4-5 | askpass | 1,1 | assertthat | 0.2.1 |
backports | 1.1.3 | base | 3.6.1 | base64enc | 0.1-3 |
BH | 1.69.0-1 | bit | 1.1-14 | bit64 | 0.9-7 |
bitops | 1.0-6 | blob | 1.1.1 | boot | 1.3-23 |
brew | 1.0-6 | callr | 3.2.0 | carro | 3.0-2 |
carData | 3.0-2 | sinal de interpolação | 6.0-82 | cellranger | 1.1.0 |
chron | 2.3-53 | classe | 7.3-15 | cli | 1.1.0 |
clipr | 0.5.0 | clisymbols | 1.2.0 | cluster | 2.1.0 |
codetools | 0.2-16 | colorspace | 1.4-1 | commonmark | 1,7 |
compiler | 3.6.1 | config | 0.3 | crayon | 1.3.4 |
curl | 3.3 | data.table | 1.12.0 | conjuntos de dados | 3.6.1 |
DBI | 1.0.0 | dbplyr | 1.3.0 | desc | 1.2.0 |
devtools | 2.0.1 | digest | 0.6.18 | doMC | 1.3.5 |
dplyr | 0.8.0.1 | ellipsis | 0.1.0 | fansi | 0.4.0 |
forcats | 0.4.0 | foreach | 1.4.4 | foreign | 0.8-72 |
forge | 0.2.0 | fs | 1.2.7 | gbm | 2.1.5 |
Genéricos | 0.0.2 | ggplot2 | 3.1.0 | gh | 1.0.1 |
git2r | 0.25.2 | glmnet | 2.0-16 | glue | 1.3.1 |
gower | 0.2.0 | elemento gráfico | 3.6.1 | grDevices | 3.6.1 |
grade | 3.6.1 | gridExtra | 2.3 | gsubfn | 0.7 |
gtable | 0.3.0 | h2o | 3.22.1.1 | haven | 2.1.0 |
hms | 0.4.2 | htmltools | 0.3.6 | htmlwidgets | 1,3 |
httr | 1.4.0 | hwriter | 1.3.2 | hwriterPlus | 1.0-3 |
ini | 0.3.1 | ipred | 0.9-8 | iterators | 1.0.10 |
jsonlite | 1.6 | KernSmooth | 2.23-15 | labeling | 0.3 |
lattice | 0.20-38 | lava | 1.6.5 | lazyeval | 0.2.2 |
littler | 0.3.7 | lme4 | 1.1-21 | lubridate | 1.7.4 |
magrittr | 1.5 | mapproj | 1.2.6 | mapas | 3.3.0 |
maptools | 0.9-5 | MASS | 7.3-51.4 | Matriz | 1.2-17 |
MatrixModels | 0.4-1 | memoise | 1.1.0 | methods | 3.6.1 |
mgcv | 1.8-28 | mime | 0.6 | minqa | 1.2.4 |
ModelMetrics | 1.2.2 | munsell | 0.5.0 | mvtnorm | 1.0-10 |
nlme | 3.1-141 | nloptr | 1.2.1 | nnet | 7.3-12 |
numDeriv | 2016.8-1 | openssl | 1,3 | openxlsx | 4.1.0 |
parallel | 3.6.1 | pbkrtest | 0.4-7 | pillar | 1.3.1 |
pkgbuild | 1.0.3 | pkgconfig | 2.0.2 | pkgKitten | 0.1.4 |
pkgload | 1.0.2 | plogr | 0.2.0 | plyr | 1.8.4 |
praise | 1.0.0 | prettyunits | 1.0.2 | pROC | 1.14.0 |
processx | 3.3.0 | prodlim | 2018.04.18 | progress | 1.2.0 |
proto | 1.0.0 | ps | 1.3.0 | purrr | 0.3.2 |
quantreg | 5.38 | R.methodsS3 | 1.7.1 | R.oo | 1.22.0 |
R.utils | 2.8.0 | r2d3 | 0.2.3 | R6 | 2.4.0 |
randomForest | 4.6-14 | rappdirs | 0.3.1 | rcmdcheck | 1.3.2 |
RColorBrewer | 1.1-2 | Rcpp | 1.0.1 | RcppEigen | 0.3.3.5.0 |
RcppRoll | 0.3.0 | RCurl | 1.95-4.12 | readr | 1.3.1 |
readxl | 1.3.1 | recipes | 0.1.5 | rematch | 1.0.1 |
remotes | 2.0.2 | reshape2 | 1.4.3 | rio | 0.5.16 |
rlang | 0.3.3 | RODBC | 1.3-15 | roxygen2 | 6.1.1 |
rpart | 4.1-15 | rprojroot | 1.3-2 | Rserve | 1.8-6 |
RSQLite | 2.1.1 | rstudioapi | 0.10 | scales | 1.0.0 |
sessioninfo | 1.1.1 | sp | 1.3-1 | sparklyr | 1.0.0 |
SparkR | 2.4.4 | SparseM | 1.77 | spatial | 7.3-11 |
splines | 3.6.1 | sqldf | 0.4-11 | SQUAREM | 2017.10-1 |
statmod | 1.4.30 | stats | 3.6.1 | stats4 | 3.6.1 |
stringi | 1.4.3 | stringr | 1.4.0 | survival | 2.44-1.1 |
sys | 3.1 | tcltk | 3.6.1 | TeachingDemos | 2,10 |
testthat | 2.0.1 | tibble | 2.1.1 | tidyr | 0.8.3 |
tidyselect | 0.2.5 | timeDate | 3043.102 | tools | 3.6.1 |
usethis | 1.4.0 | utf8 | 1.1.4 | utils | 3.6.1 |
viridisLite | 0.3.0 | whisker | 0.3-2 | withr | 2.1.2 |
xml2 | 1.2.0 | xopen | 1.0.0 | yaml | 2.2.0 |
zip | 2.0.1 |
Instaladas as bibliotecas do Java e Scala (versão de cluster do Scala 2.11)
ID do Grupo | Artifact ID | Versão |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.8.10 |
com.amazonaws | aws-java-sdk-autoscaling | 1.11.595 |
com.amazonaws | aws-java-sdk-cloudformation | 1.11.595 |
com.amazonaws | aws-java-sdk-cloudfront | 1.11.595 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.11.595 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.11.595 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.11.595 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.11.595 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.595 |
com.amazonaws | aws-java-sdk-codedeploy | 1.11.595 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.595 |
com.amazonaws | aws-java-sdk-cognitosync | 1.11.595 |
com.amazonaws | aws-java-sdk-config | 1.11.595 |
com.amazonaws | aws-java-sdk-core | 1.11.595 |
com.amazonaws | aws-java-sdk-datapipeline | 1.11.595 |
com.amazonaws | aws-java-sdk-directconnect | 1.11.595 |
com.amazonaws | aws-java-sdk-directory | 1.11.595 |
com.amazonaws | aws-java-sdk-dynamodb | 1.11.595 |
com.amazonaws | aws-java-sdk-ec2 | 1.11.595 |
com.amazonaws | aws-java-sdk-ecs | 1.11.595 |
com.amazonaws | aws-java-sdk-efs | 1.11.595 |
com.amazonaws | aws-java-sdk-elasticache | 1.11.595 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.595 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.595 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.595 |
com.amazonaws | aws-java-sdk-emr | 1.11.595 |
com.amazonaws | aws-java-sdk-glacier | 1.11.595 |
com.amazonaws | aws-java-sdk-glue | 1.11.595 |
com.amazonaws | aws-java-sdk-iam | 1.11.595 |
com.amazonaws | aws-java-sdk-importexport | 1.11.595 |
com.amazonaws | aws-java-sdk-kinesis | 1.11.595 |
com.amazonaws | aws-java-sdk-kms | 1.11.595 |
com.amazonaws | aws-java-sdk-lambda | 1.11.595 |
com.amazonaws | aws-java-sdk-logs | 1.11.595 |
com.amazonaws | aws-java-sdk-machinelearning | 1.11.595 |
com.amazonaws | aws-java-sdk-opsworks | 1.11.595 |
com.amazonaws | aws-java-sdk-rds | 1.11.595 |
com.amazonaws | aws-java-sdk-redshift | 1.11.595 |
com.amazonaws | aws-java-sdk-route53 | 1.11.595 |
com.amazonaws | aws-java-sdk-s3 | 1.11.595 |
com.amazonaws | aws-java-sdk-ses | 1.11.595 |
com.amazonaws | aws-java-sdk-simpledb | 1.11.595 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.595 |
com.amazonaws | aws-java-sdk-sns | 1.11.595 |
com.amazonaws | aws-java-sdk-sqs | 1.11.595 |
com.amazonaws | aws-java-sdk-ssm | 1.11.595 |
com.amazonaws | aws-java-sdk-storagegateway | 1.11.595 |
com.amazonaws | aws-java-sdk-sts | 1.11.595 |
com.amazonaws | aws-java-sdk-support | 1.11.595 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.11.595 |
com.amazonaws | jmespath-java | 1.11.595 |
com.carrotsearch | hppc | 0.7.2 |
com.chuusai | shapeless_2.11 | 2.3.2 |
com.clearspring.analytics | fluxo | 2.7.0 |
com.databricks | Rserve | 1.8-3 |
com.databricks | dbml-local_2.11 | 0.5.0-db8-spark2.4 |
com.databricks | dbml-local_2.11-tests | 0.5.0-db8-spark2.4 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.11 | 0.4.15-9 |
com.databricks.scalapb | scalapb-runtime_2.11 | 0.4.15-9 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | classmate | 1.0.0 |
com.fasterxml.jackson.core | jackson-annotations | 2.6.7 |
com.fasterxml.jackson.core | jackson-core | 2.6.7 |
com.fasterxml.jackson.core | jackson-databind | 2.6.7.1 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.6.7 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.6.7 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.6.7 |
com.fasterxml.jackson.module | jackson-module-scala_2.11 | 2.6.7.1 |
com.github.fommil | jniloader | 1,1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1,1 |
com.github.fommil.netlib | native_ref-java-natives | 1,1 |
com.github.fommil.netlib | native_system-java | 1,1 |
com.github.fommil.netlib | native_system-java-natives | 1,1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1,1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1,1 |
com.github.luben | zstd-jni | 1.3.2-2 |
com.github.rwl | jtransforms | 2.4.0 |
com.google.code.findbugs | jsr305 | 2.0.1 |
com.google.code.gson | gson | 2.2.4 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.googlecode.javaewah | JavaEWAH | 0.3.2 |
com.h2database | h2 | 1.3.174 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.microsoft.azure | azure-data-lake-store-sdk | 2.2.8 |
com.microsoft.azure | azure-storage | 7.0.0 |
com.microsoft.sqlserver | mssql-jdbc | 6.2.2.jre8 |
com.ning | compress-lzf | 1.0.3 |
com.sun.mail | javax.mail | 1.5.2 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.11 | 0.3 |
com.twitter | chill-java | 0.9.3 |
com.twitter | chill_2.11 | 0.9.3 |
com.twitter | parquet-hadoop-bundle | 1.6.0 |
com.twitter | util-app_2.11 | 6.23.0 |
com.twitter | util-app_2.11 | 6.23.0 |
com.twitter | util-app_2.11 | 6.23.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging-api_2.11 | 2.1.2 |
com.typesafe.scala-logging | scala-logging-slf4j_2.11 | 2.1.2 |
com.univocity | univocity-parsers | 2.7.3 |
com.vlkan | flatbuffers | 1.2.0-3f79e055 |
com.zaxxer | HikariCP | 3.1.0 |
commons-beanutils | commons-beanutils | 1.9.3 |
commons-cli | commons-cli | 1,2 |
commons-codec | commons-codec | 1,10 |
commons-collections | commons-collections | 3.2.2 |
commons-configuration | commons-configuration | 1.6 |
commons-dbcp | commons-dbcp | 1.4 |
commons-digester | commons-digester | 1.8 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.4 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-net | commons-net | 3.1 |
commons-pool | commons-pool | 1.5.4 |
info.ganglia.gmetric4j | gmetric4j | 1.0.7 |
io.airlift | aircompressor | 0.10 |
io.dropwizard.metrics | metrics-core | 3.1.5 |
io.dropwizard.metrics | metrics-ganglia | 3.1.5 |
io.dropwizard.metrics | metrics-graphite | 3.1.5 |
io.dropwizard.metrics | metrics-healthchecks | 3.1.5 |
io.dropwizard.metrics | metrics-jetty9 | 3.1.5 |
io.dropwizard.metrics | metrics-json | 3.1.5 |
io.dropwizard.metrics | metrics-jvm | 3.1.5 |
io.dropwizard.metrics | metrics-log4j | 3.1.5 |
io.dropwizard.metrics | metrics-servlets | 3.1.5 |
io.netty | Netty | 3.9.9.Final |
io.netty | netty-all | 4.1.17.Final |
javax.activation | activation | 1.1.1 |
javax.annotation | javax.annotation-api | 1,2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.servlet | javax.servlet-api | 3.1.0 |
javax.servlet.jsp | jsp-api | 2.1 |
javax.transaction | jta | 1,1 |
javax.validation | validation-api | 1.1.0.Final |
javax.ws.rs | javax.ws.rs-api | 2.0.1 |
javax.xml.bind | jaxb-api | 2.2.2 |
javax.xml.stream | stax-api | 1.0-2 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.9.3 |
junit | junit | 4.12 |
log4j | apache-log4j-extras | 1.2.17 |
log4j | log4j | 1.2.17 |
net.hydromatic | eigenbase-properties | 1.1.5 |
net.razorvine | pyrolite | 4.13 |
net.sf.jpam | jpam | 1,1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.5 |
net.snowflake | snowflake-jdbc | 3.6.15 |
net.snowflake | spark-snowflake_2.11 | 2.4.10-spark_2.4 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt | oncrpc | 1.0.7 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.4 |
org.antlr | antlr4-runtime | 4.7 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | arrow-format | 0.10.0 |
org.apache.arrow | arrow-memory | 0.10.0 |
org.apache.arrow | arrow-vector | 0.10.0 |
org.apache.avro | avro | 1.8.2 |
org.apache.avro | avro-ipc | 1.8.2 |
org.apache.avro | avro-mapred-hadoop2 | 1.8.2 |
org.apache.calcite | calcite-avatica | 1.2.0-incubating |
org.apache.calcite | calcite-core | 1.2.0-incubating |
org.apache.calcite | calcite-linq4j | 1.2.0-incubating |
org.apache.commons | commons-compress | 1.8.1 |
org.apache.commons | commons-crypto | 1.0.0 |
org.apache.commons | commons-lang3 | 3,5 |
org.apache.commons | commons-math3 | 3.4.1 |
org.apache.curator | curator-client | 2.7.1 |
org.apache.curator | curator-framework | 2.7.1 |
org.apache.curator | curator-recipes | 2.7.1 |
org.apache.derby | derby | 10.12.1.1 |
org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
org.apache.directory.api | api-util | 1.0.0-M20 |
org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
org.apache.hadoop | hadoop-annotations | 2.7.3 |
org.apache.hadoop | hadoop-auth | 2.7.3 |
org.apache.hadoop | hadoop-client | 2.7.3 |
org.apache.hadoop | hadoop-common | 2.7.3 |
org.apache.hadoop | hadoop-hdfs | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-app | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-core | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-jobclient | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.3 |
org.apache.hadoop | hadoop-yarn-api | 2.7.3 |
org.apache.hadoop | hadoop-yarn-client | 2.7.3 |
org.apache.hadoop | hadoop-yarn-common | 2.7.3 |
org.apache.hadoop | hadoop-yarn-server-common | 2.7.3 |
org.apache.htrace | htrace-core | 3.1.0-incubating |
org.apache.httpcomponents | httpclient | 4.5.6 |
org.apache.httpcomponents | httpcore | 4.4.10 |
org.apache.ivy | ivy | 2.4.0 |
org.apache.orc | orc-core-nohive | 1.5.5 |
org.apache.orc | orc-mapreduce-nohive | 1.5.5 |
org.apache.orc | orc-shims | 1.5.5 |
org.apache.parquet | parquet-column | 1.10.1.2-databricks3 |
org.apache.parquet | parquet-common | 1.10.1.2-databricks3 |
org.apache.parquet | parquet-encoding | 1.10.1.2-databricks3 |
org.apache.parquet | parquet-format | 2.4.0 |
org.apache.parquet | parquet-hadoop | 1.10.1.2-databricks3 |
org.apache.parquet | parquet-jackson | 1.10.1.2-databricks3 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.9.3 |
org.apache.xbean | xbean-asm6-shaded | 4.8 |
org.apache.zookeeper | zookeeper | 3.4.6 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-jaxrs | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.jackson | jackson-xc | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.10 |
org.codehaus.janino | janino | 3.0.10 |
org.datanucleus | datanucleus-api-jdo | 3.2.6 |
org.datanucleus | datanucleus-core | 3.2.10 |
org.datanucleus | datanucleus-rdbms | 3.2.9 |
org.eclipse.jetty | jetty-client | 9.3.27.v20190418 |
org.eclipse.jetty | jetty-continuation | 9.3.27.v20190418 |
org.eclipse.jetty | jetty-http | 9.3.27.v20190418 |
org.eclipse.jetty | jetty-io | 9.3.27.v20190418 |
org.eclipse.jetty | jetty-jndi | 9.3.27.v20190418 |
org.eclipse.jetty | jetty-plus | 9.3.27.v20190418 |
org.eclipse.jetty | jetty-proxy | 9.3.27.v20190418 |
org.eclipse.jetty | jetty-security | 9.3.27.v20190418 |
org.eclipse.jetty | jetty-server | 9.3.27.v20190418 |
org.eclipse.jetty | jetty-servlet | 9.3.27.v20190418 |
org.eclipse.jetty | jetty-servlets | 9.3.27.v20190418 |
org.eclipse.jetty | jetty-util | 9.3.27.v20190418 |
org.eclipse.jetty | jetty-webapp | 9.3.27.v20190418 |
org.eclipse.jetty | jetty-xml | 9.3.27.v20190418 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.4.0-b34 |
org.glassfish.hk2 | hk2-locator | 2.4.0-b34 |
org.glassfish.hk2 | hk2-utils | 2.4.0-b34 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.1 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.4.0-b34 |
org.glassfish.hk2.external | javax.inject | 2.4.0-b34 |
org.glassfish.jersey.bundles.repackaged | jersey-guava | 2.22.2 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.22.2 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.22.2 |
org.glassfish.jersey.core | jersey-client | 2.22.2 |
org.glassfish.jersey.core | jersey-common | 2.22.2 |
org.glassfish.jersey.core | jersey-server | 2.22.2 |
org.glassfish.jersey.media | jersey-media-jaxb | 2.22.2 |
org.hamcrest | hamcrest-core | 1,3 |
org.hamcrest | hamcrest-library | 1,3 |
org.hibernate | hibernate-validator | 5.1.1.Final |
org.iq80.snappy | snappy | 0,2 |
org.javassist | javassist | 3.18.1-GA |
org.jboss.logging | jboss-logging | 3.1.3.GA |
org.jdbi | jdbi | 2.63.1 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.11 | 3.5.3 |
org.json4s | json4s-core_2.11 | 3.5.3 |
org.json4s | json4s-jackson_2.11 | 3.5.3 |
org.json4s | json4s-scalap_2.11 | 3.5.3 |
org.lz4 | lz4-java | 1.4.0 |
org.mariadb.jdbc | mariadb-java-client | 2.1.2 |
org.mockito | mockito-core | 1.10.19 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.1.4 |
org.roaringbitmap | RoaringBitmap | 0.7.45 |
org.roaringbitmap | shims | 0.7.45 |
org.rocksdb | rocksdbjni | 6.2.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.11 | 2.11.12 |
org.scala-lang | scala-library_2.11 | 2.11.12 |
org.scala-lang | scala-reflect_2.11 | 2.11.12 |
org.scala-lang.modules | scala-parser-combinators_2.11 | 1.1.0 |
org.scala-lang.modules | scala-xml_2.11 | 1.0.5 |
org.scala-sbt | test-interface | 1,0 |
org.scalacheck | scalacheck_2.11 | 1.12.5 |
org.scalactic | scalactic_2.11 | 3.0.3 |
org.scalanlp | breeze-macros_2.11 | 0.13.2 |
org.scalanlp | breeze_2.11 | 0.13.2 |
org.scalatest | scalatest_2.11 | 3.0.3 |
org.slf4j | jcl-over-slf4j | 1.7.16 |
org.slf4j | jul-to-slf4j | 1.7.16 |
org.slf4j | slf4j-api | 1.7.16 |
org.slf4j | slf4j-log4j12 | 1.7.16 |
org.spark-project.hive | hive-beeline | 1.2.1.spark2 |
org.spark-project.hive | hive-cli | 1.2.1.spark2 |
org.spark-project.hive | hive-jdbc | 1.2.1.spark2 |
org.spark-project.hive | hive-metastore | 1.2.1.spark2 |
org.spark-project.spark | unused | 1.0.0 |
org.spire-math | spire-macros_2.11 | 0.13.0 |
org.spire-math | spire_2.11 | 0.13.0 |
org.springframework | spring-core | 4.1.4.RELEASE |
org.springframework | spring-test | 4.1.4.RELEASE |
org.tukaani | xz | 1.5 |
org.typelevel | machinist_2.11 | 0.6.1 |
org.typelevel | macro-compat_2.11 | 1.1.1 |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.7.3 |
org.yaml | snakeyaml | 1.16 |
oro | oro | 2.0.8 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |
xmlenc | xmlenc | 0.52 |