Databricks Runtime 4.0 (EoS)
Observação
O suporte para esta versão do Databricks Runtime foi encerrado. Para obter a data de fim do suporte, consulte o Histórico de fim do suporte. Para todas as versões compatíveis do Databricks Runtime, consulte Versões e compatibilidade de notas sobre a versão do Databricks Runtime.
O Databricks lançou essa versão em março de 2018.
Importante
Esta versão foi preterida em 1º de novembro de 2018. Para obter mais informações sobre a política de desativação e agendamento do Databricks Runtime, confira Ciclos de vida do suporte do Databricks.
As notas sobre a versão a seguir fornecem informações sobre o Databricks Runtime 4.0, da plataforma do Apache Spark.
Alterações e Melhorias
- A fonte de dados JSON agora tenta detectar automaticamente a codificação em vez de presumir que ela seja UTF-8. Nos casos em que a detecção automática falha, os usuários podem especificar a opção charset para impor uma determinada codificação. Consulte Detecção automática de charset.
- Há suporte total para a pontuação e a previsão usando pipelines MLlib do Spark no Streaming Estruturado.
- A exportação de modelo de ML do Databricks tem suporte total. Com esse recurso, você pode treinar um modelo de Spark MLlib no Databricks, exportá-lo com uma chamada de função e usar uma biblioteca do Databricks no sistema de sua escolha para importar o modelo e pontuar novos dados.
- Uma nova implementação de fonte de dados do Spark oferece acesso de leitura/gravação escalonável para o Azure Synapse Analytics. Consulte Spark - Conector do Synapse Analytics.
- O esquema da função
from_json
agora é sempre convertido em um valor nulo. Em outras palavras, todos os campos, incluindo os aninhados, são anuláveis. Isso garante que os dados sejam compatíveis com o esquema, impedindo a corrupção após gravar os dados em parquet quando um campo estiver ausente nos dados e o esquema fornecido pelo usuário declarar o campo como não anulável. - Atualizou algumas bibliotecas do Python instaladas:
- futuros: de 3.1.1 a 3.2.0
- pandas: de 0.18.1 a 0.19.2
- pyarrow: de 0.4.1 a 0.8.0
- setuptools: de 38.2.3 a 38.5.1
- tornado: 4.5.2 a 4.5.3
- Várias bibliotecas do R instaladas foram atualizadas. Confira Bibliotecas do R instaladas.
- AWS SDK do Java atualizado de 1.11.126 a 1.11.253.
- Driver JDBC do SQL Server atualizado de 6.1.0.jre8 a 6.2.2.jre8.
- Driver JDBC do PostgreSQL atualizado de 9.4-1204-jdbc41 a 42.1.4.
Apache Spark
O Databricks Runtime 4.0 inclui o Apache Spark 2.3.0.
Core, PySpark e Spark do SQL
Principais recursos
- Leitor de Orc vetorizado: [Spark-16060]: adiciona suporte para o novo leitor de Orc que melhora substancialmente a taxa de transferência de verificação de Orc por meio de vetorização (2-5x). Para habilitar o leitor, os usuários podem definir
spark.sql.orc.impl
comonative
. - Servidor de histórico do Spark v2: [Spark-18085]: um novo back-end do SHS (servidor de histórico do Spark) que fornece melhor escalabilidade para aplicativos em larga escala com um mecanismo de armazenamento de eventos mais eficiente.
- API de fonte de dados v2: [Spark-15689][Spark-22386]: uma API experimental para conectar novas fontes de dados no Spark. A nova API tenta resolver várias limitações da API v1 e visa facilitar o desenvolvimento de fontes de dados externas de alto desempenho, fáceis de manter e extensíveis. Essa API ainda está passando por um desenvolvimento ativo e as alterações interruptivas devem ser esperadas.
- Aprimoramentos de desempenho do PySpark: [Spark-22216][Spark-21187]: melhorias significativas no desempenho e na interoperabilidade do Python por serialização rápida de dados e execução vetorizada.
desempenho e estabilidade
- [Spark-21975]: suporte a histograma em otimizador baseado em custo.
- [Spark-20331]: melhor suporte para aplicação de predicado para remoção de partição do Hive.
- [SPARK-19112]:Suporte para codec de compactação ZStandard.
- [Spark-21113]: suporte para fluxo de entrada Leia Adiante para amortizar o custo de E/S de disco no leitor de despejo.
- [Spark-22510][Spark-22692][Spark-21871]: estabilizar ainda mais a estrutura CodeGen para evitar atingir o limite do código de bytes JVM de 64 KB no método Java e no limite do pool de constantes do compilador Java.
- [Spark-23207]: corrigido um bug de longa duração no Spark em que a ordem aleatória consecutiva + repartição em um DataFrame pode levar a respostas incorretas em determinados casos de Surgical.
- [Spark-22062][Spark-17788][Spark-21907]: corrigir várias causas de OOMs.
- [Spark-22489][Spark-22916][Spark-22895][spark-20758][Spark-22266][Spark-19122][Spark-22662][Spark-21652]: melhorias no otimizador baseado em regras e no planejador.
Outras alterações notáveis
- [Spark-20236]: suporte à semântica de substituição de partição dinâmica em estilo de Hive.
- [Spark-4131]: suporte
INSERT OVERWRITE DIRECTORY
para gravar dados diretamente no sistema de arquivos de uma consulta. - [SPARK-19285][SPARK-22945][SPARK-21499][SPARK-20586][SPARK-20416][SPARK-20668]: melhorias de UDF.
- [spark-20463][spark-19951][spark-22934][spark-21055][spark-17729][spark-20962][spark-20963][spark-20841][spark-17642][spark-22475][spark-22934]: conformidade de SQL ANSI melhorada e compatibilidade de Hive.
- [SPARK-20746]: funções internas de SQL mais abrangentes.
- [SPARK-21485]: geração de documentação do Spark do SQL para funções internas.
- [Spark-19810]: remover suporte para o Scala
2.10
. - [Spark-22324]: atualizar a seta para
0.8.0
e a Netty para4.1.17
.
Streaming estruturado
Processamento contínuo
- Um novo mecanismo de execução que pode executar consultas de streaming com latência de ponta a ponta de submilissegundos alterando apenas uma única linha de código de usuário. Para saber mais, consulte o guia de programação.
Associações de fluxo a fluxo
- Capacidade de unir dois fluxos de dados, armazenando em buffer linhas até que as tuplas correspondentes cheguem ao outro fluxo. Os predicados podem ser usados em colunas de tempo de evento para associar a quantidade de estado que precisa ser retida.
API de streaming V2
- Uma API experimental para conectar a nova fonte e coletores que funciona para execução contínua, de microlote e de lote. Essa API ainda está passando por um desenvolvimento ativo e as alterações interruptivas devem ser esperadas.
MLlib
Destaques
- O ML de previsão agora funciona com o Streaming Estruturado, usando APIs atualizadas. Detalhes a seguir.
APIs novas e melhoradas
- [Spark-21866]: suporte interno para a leitura de imagens em um DataFrame (Scala/Java/Python).
- [Spark-19634]: funções do DataFrame para estatísticas de resumo descritivas em colunas de vetor (Scala/Java).
- [Spark-14516]:
ClusteringEvaluator
para algoritmos de clustering de ajuste, suporte a silhueta do Cosseno e métricas de Euclidiana de euclidiana de quadrado (Scala/Java/Python). - [Spark-3181]: regressão linear robusta com perda de Huber (Scala/Java/Python).
- [Spark-13969]:
FeatureHasher
transformador (Scala/Java/Python). - Suporte a várias colunas para vários transformadores de recursos:
- [SPARK-13030]:
OneHotEncoderEstimator
(Scala/Java/Python) - [SPARK-22397]:
QuantileDiscretizer
(Scala/Java) - [SPARK-20542]:
Bucketizer
(Scala/Java/Python)
- [SPARK-13030]:
- [Spark-21633] e Spark-21542]: suporte melhorado para componentes de pipeline personalizados em Python.
Novos recursos
- [Spark-21087]:
CrossValidator
eTrainValidationSplit
pode coletar todos os modelos ao ajustar (Scala/Java). Isso permite inspecionar ou salvar todos os modelos ajustados. - [Spark-19357]: meta-algoritmos,
CrossValidator
,TrainValidationSplit
,OneVsRest
dão suporte a um parâmetro de paralelismo para ajustar vários submodelos em trabalhos paralelos do Spark. - [Spark-17139]: resumo do modelo para regressão logística multinomial (Scala/Java/Python)
- [Spark-18710]: adicionar deslocamento em GLM.
- [Spark-20199]: adicionado
featureSubsetStrategy
Param paraGBTClassifier
eGBTRegressor
. Usar isso para os recursos de subamostras pode melhorar significativamente a velocidade de treinamento; essa opção tem sido uma força chave doxgboost
.
Outras alterações notáveis
- [Spark-22156]: Corrigido
Word2Vec
escala de taxa de aprendizado com iteraçõesnum
. A nova taxa de aprendizado é definida para corresponder ao código C originalWord2Vec
e deve fornecer resultados melhores do treinamento. - [SPARK-22289]: adicionar
JSON
suporte para parâmetros de matriz (isso corrigiu um bug para ML persistência comLogisticRegressionModel
ao usar limites em coeficientes.) - [SPARK-22700]:
Bucketizer.transform
descarta incorretamente a linha que contémNaN
. Quando o ParamhandleInvalid
foi definido como "skip",Bucketizer
o soltaria uma linha com um valor válido na coluna de entrada se outra coluna (irrelevante) tivesse um valorNaN
. - [SPARK-22446]: às vezes, o otimizador do Catalyst causava
StringIndexerModel
a lançar uma exceção incorreta de "Rótulo não visto" quandohandleInvalid
foi definido como "erro". Isso pode acontecer para dados filtrados, devido a push-down de predicado, causando erros mesmo depois que linhas inválidas já foram filtradas do conjuntos de dados de entrada. - [SPARK-21681]: corrigido um bug de caso de borda na regressão logística multinomial que resultou em coeficientes incorretos quando alguns recursos tinham variação zero.
- Otimizações principais:
- [SPARK-22707]: redução do consumo de memória para
CrossValidator
. - [SPARK-22949]: redução do consumo de memória para
TrainValidationSplit
. - [SPARK-21690]:
Imputer
deve treinar usando uma única passagem sobre os dados. - [SPARK-14371]:
OnlineLDAOptimizer
evita a coleta de estatísticas para o driver para cada mini-lote.
- [SPARK-22707]: redução do consumo de memória para
SparkR
O foco principal do SparkR na versão 2.3.0 foi melhorar a estabilidade das UDFs e adicionar vários novos wrappers do SparkR em torno das APIs existentes:
Principais recursos
- Paridade de função melhorada entre SQL e R
- [SPARK-22933]: APIs de Streaming Estruturado para
withWatermark
,trigger
,partitionBy
e junções no fluxo a fluxo. - [SPARK-21266]: UDF do SparkR com suporte a esquema formatado em DDL.
- [SPARK-20726][SPARK-22924][SPARK-22843]: vários Wrappers da API do Dataframe novos.
- [SPARK-15767][SPARK-21622][SPARK-20917][SPARK-20307][SPARK-20906]: vários Wrappers da API do SparkML novos.
GraphX
Otimizações
- [SPARK-5484]: o Pregel agora tem pontos de verificação periodicamente para evitar
StackOverflowErrors
. - [SPARK-21491]: pequena melhoria de desempenho em vários locais.
Desativações
Python
- [SPARK-23122]: preterirá
register*
para UDFs noSQLContext
eCatalog
no PySpark
MLlib
- [SPARK-13030]:
OneHotEncoder
foi preterido e será removido na versão 3.0. Ele foi substituído pelo novoOneHotEncoderEstimator
.OneHotEncoderEstimator
será renomeado paraOneHotEncoder
em 3.0 (masOneHotEncoderEstimator
será mantido como um alias).
Alterações de comportamento
SparkSQL
- [SPARK-22036]: por padrão, as operações aritméticas entre decimais retornarão um valor arredondado se uma representação exata não for possível ( em vez de retornar
NULL
nas versões anteriores) - [SPARK-22937]: quando todas as entradas são binárias, SQL
elt()
retorna uma saída como binária. Caso contrário, ele retornará como uma cadeia de caracteres. Em versões anteriores, ele sempre retornava como uma cadeia de caracteres, independentemente dos tipos de entrada. - [SPARK-22895]: os predicados determinísticos do filtro/junção que estão após os primeiros predicados não determinísticos também são pressionados/por meio dos operadores filho, se possível. Nas versões anteriores, esses filtros não eram qualificados para a remoção de predicado.
- [SPARK-22771]: quando todas as entradas são binárias,
functions.concat()
retorna uma saída como binária. Caso contrário, ele retornará como uma cadeia de caracteres. Nas versões anteriores, ele sempre retornava como uma cadeia de caracteres, independentemente dos tipos de entrada. - [SPARK-22489]: quando qualquer um dos lados de junção é difusível, preferiremos transmitir a tabela especificada explicitamente em uma dica de difusão.
- [SPARK-22165]: a inferência de coluna de partição encontrou anteriormente um tipo comum incorreto para diferentes tipos inferidos. Por exemplo, anteriormente, ele terminava com
double
o tipo como o tipo comum para tipodouble
e tipodate
. Agora, ele encontra o tipo comum correto para esses conflitos. Veja mais detalhes, consulte o guia de migração. - [SPARK-22100]: a função
percentile_approx
aceita anteriormente os resultados de tiponumeric
de entrada e de tipodouble
de saída. Agora, ele dá suporte a tiposdate
, tipostimestamp
e tiposnumeric
como tipos de entrada. O tipo de resultado também é alterado para ser o mesmo que o tipo de entrada, que é mais razoável para percentis. - [SPARK-21610]: as consultas de arquivos JSON/CSV brutos não são permitidos quando as colunas referenciadas incluem apenas a coluna de registro corrompido interna (nomeada
_corrupt_record
por padrão). Em vez disso, você pode armazenar em cache ou salvar os resultados analisados e, em seguida, enviar a mesma consulta. - [SPARK-23421]: desde o Spark 2.2.1 e 2.3.0, o esquema é sempre inferido em runtime quando as tabelas de fonte de dados têm as colunas que existem no esquema de partição e no esquema de dados. O esquema inferido não tem as colunas particionadas. Ao ler a tabela, o Spark respeita os valores de partição dessas colunas sobrepostas em vez dos valores armazenados nos arquivos de fonte de dados. Na versão 2.2.0 e 2.1.x, o esquema inferido é particionado, mas os dados da tabela são invisíveis para os usuários (ou seja, o conjunto de resultados está vazio).
PySpark
- [SPARK-19732]:
na.fill()
oufillna
também aceita boolianas e substitui nulos por boolianas. Nas versões anteriores do Spark, o PySpark simplesmente ignora e retorna o Conjunto de dados/DataFrame original. - [SPARK-22395]: pandas
0.19.2
ou superior é necessário para usar funcionalidades relacionadas ao Pandas, comotoPandas
,createDataFrame
do Pandas DataFrame etc. - [SPARK-22395]: o comportamento dos valores de carimbo de data/hora para funcionalidades relacionadas ao Pandas foi alterado para respeitar a zona horária da sessão, que é ignorado nas versões anteriores.
- [SPARK-23328]:
df.replace
não permite omitirvalue
quandoto_replace
não é um dicionário. Anteriormente,value
podia ser omitido nos outros casos e tinha por padrãoNone
, o que é contratual e propenso a erros.
MLlib
- Alterações da API de interromper: a hierarquia de classe e característica dos resumos do modelo de regressão logística foi alterada para ser mais limpa e acomodar melhor a adição do resumo de várias classes. Essa é uma alteração da última vez para o código do usuário que lança um
LogisticRegressionTrainingSummary
em umBinaryLogisticRegressionTrainingSummary
. Em vez disso, os usuários devem usar o métodomodel.binarySummary
. Consulte [SPARK-17139]: para obter mais detalhes (observe que se trata de uma API@Experimental
). Isso não afeta o método de resumo do Python, que ainda funcionará corretamente para casos multinomial e binários. - [SPARK-21806]:
BinaryClassificationMetrics.pr()
: o primeiro ponto (0,0, 1,0) é enganoso e foi substituído por (0,0, p) em que a precisão p corresponde ao ponto de recall mais baixo. - [SPARK-16957]: as árvores de decisão agora usam pontos médios ponderados ao escolher valores divididos. Isso pode alterar os resultados do treinamento do modelo.
- [SPARK-14657]:
RFormula
sem uma interceptação agora a categoria de referência ao codificar termos de cadeia de caracteres, para corresponder ao comportamento nativo do R. Isso pode alterar os resultados do treinamento do modelo. - [SPARK-21027]: o paralelismo padrão usado no
OneVsRest
agora está definido como 1 (ou seja, serial). Na versão 2.2 e anteriores, o nível de paralelismo foi definido como o tamanho padrão do threadpool no Scala. Isso pode alterar o desempenho. - [SPARK-21523]: Atualização de Fácil para
0.13.2
. Isso incluiu uma correção de bug importante na pesquisa de linha forte do Wolfe para L-BFGS. - [SPARK-15526]: a dependência JPMML agora está sombreada.
- Consulte também a seção "Correções de bug" para ver as alterações de comportamento resultantes da correção de bugs.
Problemas conhecidos
- [SPARK-23523][SQL]: resultado incorreto causado pela regra
OptimizeMetadataOnlyQuery
. - [SPARK-23406]: bugs em auto-junções no fluxo a fluxo.
Atualizações de manutenção
Confira Atualizações de manutenção do Databricks Runtime 4.0.
Ambiente do sistema
- Sistema operacional: Ubuntu 16.04.4 LTS
- Java: 1.8.0_151
- Scala: 2.11.8
- Python: 2.7.12 (ou 3.5.2 se estiver usando Python 3)
- R: versão do R 3.4.3 (2017-11-30)
- Clusters da GPU: as seguintes bibliotecas GPU da NVIDIA estão instaladas:
- Driver Tesla 375.66
- CUDA 8.0
- CUDNN 6.0
Bibliotecas Python instaladas
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
ansi2html | 1.1.1 | argparse | 1.2.1 | backports-abc | 0.5 |
boto | 2.42.0 | boto3 | 1.4.1 | botocore | 1.4.70 |
brewer2mpl | 1.4.1 | certifi | 2016.2.28 | cffi | 1.7.0 |
chardet | 2.3.0 | colorama | 0.3.7 | configobj | 5.0.6 |
criptografia | 1.5 | cycler | 0.10.0 | Cython | 0.24.1 |
decorator | 4.0.10 | docutils | 0,14 | enum34 | 1.1.6 |
et-xmlfile | 1.0.1 | freetype-py | 1.0.2 | funcsigs | 1.0.2 |
fusepy | 2.0.4 | futures | 3.2.0 | ggplot | 0.6.8 |
html5lib | 0,999 | idna | 2.1 | ipaddress | 1.0.16 |
ipython | 2.2.0 | ipython-genutils | 0.1.0 | jdcal | 1,2 |
Jinja2 | 2.8 | jmespath | 0.9.0 | llvmlite | 0.13.0 |
lxml | 3.6.4 | MarkupSafe | 0,23 | matplotlib | 1.5.3 |
mpld3 | 0,2 | msgpack-python | 0.4.7 | ndg-httpsclient | 0.3.3 |
numba | 0.28.1 | numpy | 1.11.1 | openpyxl | 2.3.2 |
pandas | 0.19.2 | pathlib2 | 2.1.0 | patsy | 0.4.1 |
pexpect | 4.0.1 | pickleshare | 0.7.4 | Pillow | 3.3.1 |
pip | 9.0.1 | ply | 3.9 | prompt-toolkit | 1.0.7 |
psycopg2 | 2.6.2 | ptyprocess | 0.5.1 | py4j | 0.10.3 |
pyarrow | 0.8.0 | pyasn1 | 0.1.9 | pycparser | 2.14 |
Pygments | 2.1.3 | PyGObject | 3.20.0 | pyOpenSSL | 16.0.0 |
pyparsing | 2.2.0 | pypng | 0.0.18 | Python | 2.7.12 |
python-dateutil | 2.5.3 | python-geohash | 0.8.5 | pytz | 2016.6.1 |
solicitações | 2.11.1 | s3transfer | 0.1.9 | scikit-learn | 0.18.1 |
scipy | 0.18.1 | scour | 0,32 | seaborn | 0.7.1 |
setuptools | 38.5.1 | simplejson | 3.8.2 | simples3 | 1,0 |
singledispatch | 3.4.0.3 | six | 1.10.0 | statsmodels | 0.6.1 |
tornado | 4.5.3 | traitlets | 4.3.0 | urllib3 | 1.19.1 |
virtualenv | 15.0.1 | wcwidth | 0.1.7 | wheel | 0.30.0 |
wsgiref | 0.1.2 |
Bibliotecas R instaladas
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
abind | 1.4-5 | assertthat | 0.2.0 | backports | 1.1.1 |
base | 3.4.3 | BH | 1.65.0-1 | bindr | 0,1 |
bindrcpp | 0,2 | bit | 1.1-12 | bit64 | 0.9-7 |
bitops | 1.0-6 | blob | 1.1.0 | boot | 1.3-20 |
brew | 1.0-6 | broom | 0.4.3 | carro | 2.1-6 |
sinal de interpolação | 6.0-77 | chron | 2.3-51 | classe | 7.3-14 |
cluster | 2.0.6 | codetools | 0.2-15 | colorspace | 1.3-2 |
commonmark | 1.4 | compiler | 3.4.3 | crayon | 1.3.4 |
curl | 3.0 | CVST | 0.2-1 | data.table | 1.10.4-3 |
conjuntos de dados | 3.4.3 | DBI | 0.7 | ddalpha | 1.3.1 |
DEoptimR | 1.0-8 | desc | 1.1.1 | devtools | 1.13.4 |
dichromat | 2.0-0 | digest | 0.6.12 | dimRed | 0.1.0 |
doMC | 1.3.4 | dplyr | 0.7.4 | DRR | 0.0.2 |
foreach | 1.4.3 | foreign | 0.8-69 | gbm | 2.1.3 |
ggplot2 | 2.2.1 | git2r | 0.19.0 | glmnet | 2.0-13 |
glue | 1.2.0 | gower | 0.1.2 | elemento gráfico | 3.4.3 |
grDevices | 3.4.3 | grade | 3.4.3 | gsubfn | 0.6-6 |
gtable | 0.2.0 | h2o | 3.16.0.1 | httr | 1.3.1 |
hwriter | 1.3.2 | hwriterPlus | 1.0-3 | ipred | 0.9-6 |
iterators | 1.0.8 | jsonlite | 1.5 | kernlab | 0.9-25 |
KernSmooth | 2.23-15 | labeling | 0.3 | lattice | 0.20-35 |
lava | 1.5.1 | lazyeval | 0.2.1 | littler | 0.3.2 |
lme4 | 1.1-14 | lubridate | 1.7.1 | magrittr | 1.5 |
mapproj | 1.2-5 | mapas | 3.2.0 | MASS | 7.3-48 |
Matriz | 1.2-11 | MatrixModels | 0.4-1 | memoise | 1.1.0 |
methods | 3.4.3 | mgcv | 1.8-23 | mime | 0.5 |
minqa | 1.2.4 | mnormt | 1.5-5 | ModelMetrics | 1.1.0 |
munsell | 0.4.3 | mvtnorm | 1.0-6 | nlme | 3.1-131 |
nloptr | 1.0.4 | nnet | 7.3-12 | numDeriv | 2016.8-1 |
openssl | 0.9.9 | parallel | 3.4.3 | pbkrtest | 0.4-7 |
pkgconfig | 2.0.1 | pkgKitten | 0.1.4 | plogr | 0.1-1 |
plyr | 1.8.4 | praise | 1.0.0 | pROC | 1.10.0 |
prodlim | 1.6.1 | proto | 1.0.0 | psych | 1.7.8 |
purrr | 0.2.4 | quantreg | 5.34 | R.methodsS3 | 1.7.1 |
R.oo | 1.21.0 | R.utils | 2.6.0 | R6 | 2.2.2 |
randomForest | 4.6-12 | RColorBrewer | 1.1-2 | Rcpp | 0.12.14 |
RcppEigen | 0.3.3.3.1 | RcppRoll | 0.2.2 | RCurl | 1.95-4.8 |
recipes | 0.1.1 | reshape2 | 1.4.2 | rlang | 0.1.4 |
robustbase | 0.92-8 | RODBC | 1.3-15 | roxygen2 | 6.0.1 |
rpart | 4.1-12 | rprojroot | 1,2 | Rserve | 1.7-3 |
RSQLite | 2,0 | rstudioapi | 0.7 | scales | 0.5.0 |
sfsmisc | 1.1-1 | sp | 1.2-5 | SparkR | 2.3.0 |
SparseM | 1.77 | spatial | 7.3-11 | splines | 3.4.3 |
sqldf | 0.4-11 | statmod | 1.4.30 | stats | 3.4.3 |
stats4 | 3.4.3 | stringi | 1.1.6 | stringr | 1.2.0 |
survival | 2.41-3 | tcltk | 3.4.3 | TeachingDemos | 2,10 |
testthat | 1.0.2 | tibble | 1.3.4 | tidyr | 0.7.2 |
tidyselect | 0.2.3 | timeDate | 3042.101 | tools | 3.4.3 |
utils | 3.4.3 | viridisLite | 0.2.0 | whisker | 0.3-2 |
withr | 2.1.0 | xml2 | 1.1.1 |
Instaladas as bibliotecas do Java e Scala (versão de cluster do Scala 2.11)
ID do Grupo | Artifact ID | Versão |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.7.3 |
com.amazonaws | aws-java-sdk-autoscaling | 1.11.253 |
com.amazonaws | aws-java-sdk-cloudformation | 1.11.253 |
com.amazonaws | aws-java-sdk-cloudfront | 1.11.253 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.11.253 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.11.253 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.11.253 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.11.253 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.253 |
com.amazonaws | aws-java-sdk-codedeploy | 1.11.253 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.253 |
com.amazonaws | aws-java-sdk-cognitosync | 1.11.253 |
com.amazonaws | aws-java-sdk-config | 1.11.253 |
com.amazonaws | aws-java-sdk-core | 1.11.253 |
com.amazonaws | aws-java-sdk-datapipeline | 1.11.253 |
com.amazonaws | aws-java-sdk-directconnect | 1.11.253 |
com.amazonaws | aws-java-sdk-directory | 1.11.253 |
com.amazonaws | aws-java-sdk-dynamodb | 1.11.253 |
com.amazonaws | aws-java-sdk-ec2 | 1.11.253 |
com.amazonaws | aws-java-sdk-ecs | 1.11.253 |
com.amazonaws | aws-java-sdk-efs | 1.11.253 |
com.amazonaws | aws-java-sdk-elasticache | 1.11.253 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.253 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.253 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.253 |
com.amazonaws | aws-java-sdk-emr | 1.11.253 |
com.amazonaws | aws-java-sdk-glacier | 1.11.253 |
com.amazonaws | aws-java-sdk-iam | 1.11.253 |
com.amazonaws | aws-java-sdk-importexport | 1.11.253 |
com.amazonaws | aws-java-sdk-kinesis | 1.11.253 |
com.amazonaws | aws-java-sdk-kms | 1.11.253 |
com.amazonaws | aws-java-sdk-lambda | 1.11.253 |
com.amazonaws | aws-java-sdk-logs | 1.11.253 |
com.amazonaws | aws-java-sdk-machinelearning | 1.11.253 |
com.amazonaws | aws-java-sdk-opsworks | 1.11.253 |
com.amazonaws | aws-java-sdk-rds | 1.11.253 |
com.amazonaws | aws-java-sdk-redshift | 1.11.253 |
com.amazonaws | aws-java-sdk-route53 | 1.11.253 |
com.amazonaws | aws-java-sdk-s3 | 1.11.253 |
com.amazonaws | aws-java-sdk-ses | 1.11.253 |
com.amazonaws | aws-java-sdk-simpledb | 1.11.253 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.253 |
com.amazonaws | aws-java-sdk-sns | 1.11.253 |
com.amazonaws | aws-java-sdk-sqs | 1.11.253 |
com.amazonaws | aws-java-sdk-ssm | 1.11.253 |
com.amazonaws | aws-java-sdk-storagegateway | 1.11.253 |
com.amazonaws | aws-java-sdk-sts | 1.11.253 |
com.amazonaws | aws-java-sdk-support | 1.11.253 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.11.253 |
com.amazonaws | jmespath-java | 1.11.253 |
com.carrotsearch | hppc | 0.7.2 |
com.chuusai | shapeless_2.11 | 2.3.2 |
com.clearspring.analytics | fluxo | 2.7.0 |
com.databricks | Rserve | 1.8-3 |
com.databricks | dbml-local_2.11 | 0.3.0-db1-spark2.3 |
com.databricks | dbml-local_2.11-tests | 0.3.0-db1-spark2.3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.11 | 0.4.15-9 |
com.databricks.scalapb | scalapb-runtime_2.11 | 0.4.15-9 |
com.esotericsoftware | kryo-shaded | 3.0.3 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | classmate | 1.0.0 |
com.fasterxml.jackson.core | jackson-annotations | 2.6.7 |
com.fasterxml.jackson.core | jackson-core | 2.6.7 |
com.fasterxml.jackson.core | jackson-databind | 2.6.7.1 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.6.7 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.6.7 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.6.7 |
com.fasterxml.jackson.module | jackson-module-scala_2.11 | 2.6.7.1 |
com.github.fommil | jniloader | 1,1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1,1 |
com.github.fommil.netlib | native_ref-java-natives | 1,1 |
com.github.fommil.netlib | native_system-java | 1,1 |
com.github.fommil.netlib | native_system-java-natives | 1,1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1,1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1,1 |
com.github.luben | zstd-jni | 1.3.2-2 |
com.github.rwl | jtransforms | 2.4.0 |
com.google.code.findbugs | jsr305 | 2.0.1 |
com.google.code.gson | gson | 2.2.4 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.googlecode.javaewah | JavaEWAH | 0.3.2 |
com.h2database | h2 | 1.3.174 |
com.jamesmurty.utils | java-xmlbuilder | 1,1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.mchange | c3p0 | 0.9.5.1 |
com.mchange | mchange-commons-java | 0.2.10 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.0.11 |
com.microsoft.sqlserver | mssql-jdbc | 6.2.2.jre8 |
com.ning | compress-lzf | 1.0.3 |
com.sun.mail | javax.mail | 1.5.2 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.11 | 0.3 |
com.twitter | chill-java | 0.8.4 |
com.twitter | chill_2.11 | 0.8.4 |
com.twitter | parquet-hadoop-bundle | 1.6.0 |
com.twitter | util-app_2.11 | 6.23.0 |
com.twitter | util-app_2.11 | 6.23.0 |
com.twitter | util-app_2.11 | 6.23.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging-api_2.11 | 2.1.2 |
com.typesafe.scala-logging | scala-logging-slf4j_2.11 | 2.1.2 |
com.univocity | univocity-parsers | 2.5.9 |
com.vlkan | flatbuffers | 1.2.0-3f79e055 |
com.zaxxer | HikariCP | 2.4.1 |
commons-beanutils | commons-beanutils | 1.7.0 |
commons-beanutils | commons-beanutils-core | 1.8.0 |
commons-cli | commons-cli | 1,2 |
commons-codec | commons-codec | 1,10 |
commons-collections | commons-collections | 3.2.2 |
commons-configuration | commons-configuration | 1.6 |
commons-dbcp | commons-dbcp | 1.4 |
commons-digester | commons-digester | 1.8 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.4 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-net | commons-net | 2.2 |
commons-pool | commons-pool | 1.5.4 |
info.ganglia.gmetric4j | gmetric4j | 1.0.7 |
io.airlift | aircompressor | 0.8 |
io.dropwizard.metrics | metrics-core | 3.1.5 |
io.dropwizard.metrics | metrics-ganglia | 3.1.5 |
io.dropwizard.metrics | metrics-graphite | 3.1.5 |
io.dropwizard.metrics | metrics-healthchecks | 3.1.5 |
io.dropwizard.metrics | metrics-jetty9 | 3.1.5 |
io.dropwizard.metrics | metrics-json | 3.1.5 |
io.dropwizard.metrics | metrics-jvm | 3.1.5 |
io.dropwizard.metrics | metrics-log4j | 3.1.5 |
io.dropwizard.metrics | metrics-servlets | 3.1.5 |
io.netty | Netty | 3.9.9.Final |
io.netty | netty-all | 4.1.17.Final |
io.prometheus | simpleclient | 0.0.16 |
io.prometheus | simpleclient_common | 0.0.16 |
io.prometheus | simpleclient_dropwizard | 0.0.16 |
io.prometheus | simpleclient_servlet | 0.0.16 |
io.prometheus.jmx | coletor | 0.7 |
javax.activation | activation | 1.1.1 |
javax.annotation | javax.annotation-api | 1,2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.servlet | javax.servlet-api | 3.1.0 |
javax.servlet.jsp | jsp-api | 2.1 |
javax.transaction | jta | 1,1 |
javax.validation | validation-api | 1.1.0.Final |
javax.ws.rs | javax.ws.rs-api | 2.0.1 |
javax.xml.bind | jaxb-api | 2.2.2 |
javax.xml.stream | stax-api | 1.0-2 |
javolution | javolution | 5.5.1 |
jline | jline | 2,11 |
joda-time | joda-time | 2.9.3 |
log4j | apache-log4j-extras | 1.2.17 |
log4j | log4j | 1.2.17 |
net.hydromatic | eigenbase-properties | 1.1.5 |
net.iharder | base64 | 2.3.8 |
net.java.dev.jets3t | jets3t | 0.9.4 |
net.razorvine | pyrolite | 4.13 |
net.sf.jpam | jpam | 1,1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt | oncrpc | 1.0.7 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.4 |
org.antlr | antlr4-runtime | 4.7 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | arrow-format | 0.8.0 |
org.apache.arrow | arrow-memory | 0.8.0 |
org.apache.arrow | arrow-vector | 0.8.0 |
org.apache.avro | avro | 1.7.7 |
org.apache.avro | avro-ipc | 1.7.7 |
org.apache.avro | avro-ipc-tests | 1.7.7 |
org.apache.avro | avro-mapred-hadoop2 | 1.7.7 |
org.apache.calcite | calcite-avatica | 1.2.0-incubating |
org.apache.calcite | calcite-core | 1.2.0-incubating |
org.apache.calcite | calcite-linq4j | 1.2.0-incubating |
org.apache.commons | commons-compress | 1.4.1 |
org.apache.commons | commons-crypto | 1.0.0 |
org.apache.commons | commons-lang3 | 3,5 |
org.apache.commons | commons-math3 | 3.4.1 |
org.apache.curator | curator-client | 2.7.1 |
org.apache.curator | curator-framework | 2.7.1 |
org.apache.curator | curator-recipes | 2.7.1 |
org.apache.derby | derby | 10.12.1.1 |
org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
org.apache.directory.api | api-util | 1.0.0-M20 |
org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
org.apache.hadoop | hadoop-annotations | 2.7.3 |
org.apache.hadoop | hadoop-auth | 2.7.3 |
org.apache.hadoop | hadoop-client | 2.7.3 |
org.apache.hadoop | hadoop-common | 2.7.3 |
org.apache.hadoop | hadoop-hdfs | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-app | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-core | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-jobclient | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.3 |
org.apache.hadoop | hadoop-yarn-api | 2.7.3 |
org.apache.hadoop | hadoop-yarn-client | 2.7.3 |
org.apache.hadoop | hadoop-yarn-common | 2.7.3 |
org.apache.hadoop | hadoop-yarn-server-common | 2.7.3 |
org.apache.htrace | htrace-core | 3.1.0-incubating |
org.apache.httpcomponents | httpclient | 4.5.4 |
org.apache.httpcomponents | httpcore | 4.4.8 |
org.apache.ivy | ivy | 2.4.0 |
org.apache.orc | orc-core-nohive | 1.4.1 |
org.apache.orc | orc-mapreduce-nohive | 1.4.1 |
org.apache.parquet | parquet-column | 1.8.2-databricks1 |
org.apache.parquet | parquet-common | 1.8.2-databricks1 |
org.apache.parquet | parquet-encoding | 1.8.2-databricks1 |
org.apache.parquet | parquet-format | 2.3.1 |
org.apache.parquet | parquet-hadoop | 1.8.2-databricks1 |
org.apache.parquet | parquet-jackson | 1.8.2-databricks1 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.9.3 |
org.apache.xbean | xbean-asm5-shaded | 4.4 |
org.apache.zookeeper | zookeeper | 3.4.6 |
org.bouncycastle | bcprov-jdk15on | 1.58 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-jaxrs | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.jackson | jackson-xc | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.8 |
org.codehaus.janino | janino | 3.0.8 |
org.datanucleus | datanucleus-api-jdo | 3.2.6 |
org.datanucleus | datanucleus-core | 3.2.10 |
org.datanucleus | datanucleus-rdbms | 3.2.9 |
org.eclipse.jetty | jetty-client | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-continuation | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-http | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-io | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-jndi | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-plus | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-proxy | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-security | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-server | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-servlet | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-servlets | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-util | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-webapp | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-xml | 9.3.20.v20170531 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.4.0-b34 |
org.glassfish.hk2 | hk2-locator | 2.4.0-b34 |
org.glassfish.hk2 | hk2-utils | 2.4.0-b34 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.1 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.4.0-b34 |
org.glassfish.hk2.external | javax.inject | 2.4.0-b34 |
org.glassfish.jersey.bundles.repackaged | jersey-guava | 2.22.2 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.22.2 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.22.2 |
org.glassfish.jersey.core | jersey-client | 2.22.2 |
org.glassfish.jersey.core | jersey-common | 2.22.2 |
org.glassfish.jersey.core | jersey-server | 2.22.2 |
org.glassfish.jersey.media | jersey-media-jaxb | 2.22.2 |
org.hibernate | hibernate-validator | 5.1.1.Final |
org.iq80.snappy | snappy | 0,2 |
org.javassist | javassist | 3.18.1-GA |
org.jboss.logging | jboss-logging | 3.1.3.GA |
org.jdbi | jdbi | 2.63.1 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.11 | 3.2.11 |
org.json4s | json4s-core_2.11 | 3.2.11 |
org.json4s | json4s-jackson_2.11 | 3.2.11 |
org.lz4 | lz4-java | 1.4.0 |
org.mariadb.jdbc | mariadb-java-client | 2.1.2 |
org.mockito | mockito-all | 1.9.5 |
org.objenesis | objenesis | 2.1 |
org.postgresql | postgresql | 42.1.4 |
org.roaringbitmap | RoaringBitmap | 0.5.11 |
org.rocksdb | rocksdbjni | 5.2.1 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.11 | 2.11.8 |
org.scala-lang | scala-library_2.11 | 2.11.8 |
org.scala-lang | scala-reflect_2.11 | 2.11.8 |
org.scala-lang | scalap_2.11 | 2.11.8 |
org.scala-lang.modules | scala-parser-combinators_2.11 | 1.0.2 |
org.scala-lang.modules | scala-xml_2.11 | 1.0.5 |
org.scala-sbt | test-interface | 1,0 |
org.scalacheck | scalacheck_2.11 | 1.12.5 |
org.scalanlp | breeze-macros_2.11 | 0.13.2 |
org.scalanlp | breeze_2.11 | 0.13.2 |
org.scalatest | scalatest_2.11 | 2.2.6 |
org.slf4j | jcl-over-slf4j | 1.7.16 |
org.slf4j | jul-to-slf4j | 1.7.16 |
org.slf4j | slf4j-api | 1.7.16 |
org.slf4j | slf4j-log4j12 | 1.7.16 |
org.spark-project.hive | hive-beeline | 1.2.1.spark2 |
org.spark-project.hive | hive-cli | 1.2.1.spark2 |
org.spark-project.hive | hive-exec | 1.2.1.spark2 |
org.spark-project.hive | hive-jdbc | 1.2.1.spark2 |
org.spark-project.hive | hive-metastore | 1.2.1.spark2 |
org.spark-project.spark | unused | 1.0.0 |
org.spire-math | spire-macros_2.11 | 0.13.0 |
org.spire-math | spire_2.11 | 0.13.0 |
org.springframework | spring-core | 4.1.4.RELEASE |
org.springframework | spring-test | 4.1.4.RELEASE |
org.tukaani | xz | 1,0 |
org.typelevel | machinist_2.11 | 0.6.1 |
org.typelevel | macro-compat_2.11 | 1.1.1 |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.2.6 |
org.yaml | snakeyaml | 1.16 |
oro | oro | 2.0.8 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |
xmlenc | xmlenc | 0.52 |