Databricks Runtime 12.1 (EoS)
Observação
O suporte para esta versão do Databricks Runtime foi encerrado. Para obter a data de fim do suporte, consulte o Histórico de fim do suporte. Para todas as versões compatíveis do Databricks Runtime, consulte Versões e compatibilidade de notas sobre a versão do Databricks Runtime.
As notas sobre a versão a seguir fornecem informações sobre o Databricks Runtime 12.1 da plataforma Apache Spark 3.3.1.
O Databricks lançou essa versão em janeiro de 2023.
Novos recursos e aprimoramentos
- Recursos de tabela do Delta Lake com suporte para gerenciamento de protocolo
- A E/S preditiva para atualizações está em visualização pública
- O Explorador de Catalogo agora está disponível para todas as personas
- Suporte para vários operadores com estado em uma única consulta de streaming
- O suporte para buffers de protocolo está em Visualização Pública
- Suporte para autenticação do Registro de Esquema Confluent
- Suporte para compartilhar o histórico de tabelas com compartilhamentos Delta Sharing
- Suporte para streaming com compartilhamentos Delta Sharing
- Agora há suporte para a versão de tabela que usa carimbo de data/hora do Delta Sharing em catálogos
- Suporte para WHEN NOT MATCHED BY SOURCE para MERGE INTO
- Coleção de estatísticas otimizadas para CONVERT TO DELTA
- Suporte do Catálogo do Unity para desfazer a exclusão de tabelas
Recursos de tabela do Delta Lake com suporte para gerenciamento de protocolo
O Azure Databricks introduziu suporte para recursos de tabela do Delta Lake, que introduzem sinalizadores granulares especificando quais recursos têm suporte em determinada tabela. Confira Como o Azure Databricks gerencia a compatibilidade de recursos do Delta Lake?.
A E/S preditiva para atualizações está em visualização pública
A E/S preditiva agora acelera as operações DELETE
, MERGE
e UPDATE
para tabelas Delta com vetores de exclusão habilitados na computação habilitada para Photon. Confira O que é E/S preditiva?.
O Explorador de Catalogo agora está disponível para todas as personas
O Gerenciador de Catálogos agora está disponível para todas as personas do Azure Databricks ao usar o Databricks Runtime 7.3 LTS e superior.
Suporte para vários operadores com estado em uma única consulta de streaming
Os usuários agora podem encadear operadores com estado com o modo de acréscimo na consulta de streaming. Nem todos os operadores têm suporte total. Junção de intervalo de tempo de fluxo-fluxo e flatMapGroupsWithState
não permite que outros operadores com estado sejam encadeados.
O suporte para buffers de protocolo está em Visualização Pública
Você pode usar as funções from_protobuf
e to_protobuf
para trocar dados entre tipos binários e struct. Confira Ler e gravar buffers de protocolo.
Suporte para autenticação do Registro de Esquema Confluent
A integração do Azure Databricks com o Registro de Esquema do Confluent agora dá suporte a endereços externos de registro de esquema com autenticação. Esse recurso está disponível para as funções from_avro
, to_avro
, from_protobuf
e to_protobuf
. Consulte Protobuf ou Avro.
Suporte para compartilhar o histórico de tabelas com compartilhamentos Delta Sharing
Agora você pode compartilhar uma tabela com histórico completo usando o Delta Sharing, permitindo que os destinatários executem consultas de viagem no tempo e consultem a tabela usando o Streaming Estruturado do Spark. WITH HISTORY
é recomendado em vez de CHANGE DATA FEED
, embora o último continue com suporte. Confira ALTER SHARE e Adicionar tabelas a um compartilhamento.
Suporte para streaming com compartilhamentos Delta Sharing
O Fluxo Estruturado do Spark agora funciona com o formato deltasharing
em uma tabela do Delta Sharing de origem que foi compartilhada usando WITH HISTORY
.
Agora há suporte para a versão de tabela que usa carimbo de data/hora do Delta Sharing em catálogos
Agora você pode usar a sintaxe SQL TIMESTAMP AS OF
em instruções SELECT
para especificar a versão de uma tabela do Delta Sharing montada em um catálogo. As tabelas devem ser compartilhadas usando WITH HISTORY
.
Suporte para WHEN NOT MATCHED BY SOURCE para MERGE INTO
Agora você pode adicionar cláusulas WHEN NOT MATCHED BY SOURCE
para MERGE INTO
a fim de atualizar ou excluir linhas na tabela escolhida que não tenham correspondências na tabela de origem com base na condição de mesclagem. A nova cláusula está disponível em SQL, Python, Scala e Java. Veja MERGE INTO.
Coleção de estatísticas otimizadas para CONVERT TO DELTA
A coleta de estatísticas para a operação CONVERT TO DELTA
agora está muito mais rápida. Isso reduz o número de cargas de trabalho que podem usar NO STATISTICS
para aumentar a eficiência.
Suporte do Catálogo do Unity para desfazer a exclusão de tabelas
Esse recurso foi inicialmente lançado na Versão Prévia Pública. Ele está em disponibilidade geral a partir de 25 de outubro de 2023.
Agora você pode soltar uma tabela gerenciada ou externa removida em um esquema existente dentro de sete dias após a remoção. Confira NÃO REMOVER TABELA e MOSTRAR TABELAS REMOVIDAS.
Atualizações da biblioteca
- Bibliotecas do Python atualizadas:
- filelock de 3.8.0 para 3.8.2
- platformdirs de 2.5.4 para 2.6.0
- setuptools de 58.0.4 para 61.2.0
- Atualização das bibliotecas do R:
- Bibliotecas do Java atualizadas:
- io.delta.delta-sharing-spark_2.12 de 0.5.2 para 0.6.2
- org.apache.hive.hive-storage-api de 2.7.2 para 2.8.1
- org.apache.parquet.parquet-column de 1.12.3-databricks-0001 para 1.12.3-databricks-0002
- org.apache.parquet.parquet-common de 1.12.3-databricks-0001 para 1.12.3-databricks-0002
- org.apache.parquet.parquet-encoding de 1.12.3-databricks-0001 para 1.12.3-databricks-0002
- org.apache.parquet.parquet-format-structures de 1.12.3-databricks-0001 para 1.12.3-databricks-0002
- org.apache.parquet.parquet-hadoop de 1.12.3-databricks-0001 para 1.12.3-databricks-0002
- org.apache.parquet.parquet-jackson de 1.12.3-databricks-0001 para 1.12.3-databricks-0002
- org.tukaani.xz de 1.8 para 1.9
Apache Spark
O Databricks Runtime 12.1 inclui o Apache Spark 3.3.1. Esta versão inclui todas as correções e os aprimoramentos do Spark adicionados ao Databricks Runtime 12.0 (EoS), bem como as seguintes correções de bugs e melhorias adicionais feitas no Spark:
- [SPARK-41405] [SC-119769][12.1.0] Reverter "[SC-119411][SQL] Centralizar a lógica de resolução de coluna" e "[SC-117170][SPARK-41338][SQL] Resolver referências externas e colunas normais no mesmo lote do analisador"
- [SPARK-41405] [SC-119411][SQL] Centralizar a lógica de resolução de coluna
- [SPARK-41859] [SC-119514][SQL] CreateHiveTableAsSelectCommand deve definir o sinalizador de substituição corretamente
- [SPARK-41659] [SC-119526][CONNECT][12.X] Habilitar doctests no pyspark.sql.connect.readwriter
- [SPARK-41858] [SC-119427][SQL] Correção da regressão de desempenho do leitor ORC devido ao recurso de valor DEFAULT
- [SPARK-41807] [SC-119399][CORE] Remover a classe de erro inexistente: UNSUPPORTED_FEATURE.DISTRIBUTE_BY
- [SPARK-41578] [12.x][SC-119273][SQL] Atribuir nome a _LEGACY_ERROR_TEMP_2141
- [SPARK-41571] [SC-119362][SQL] Atribuir nome a _LEGACY_ERROR_TEMP_2310
- [SPARK-41810] [SC-119373][CONNECT] Inferir nomes de uma lista de dicionários no SparkSession.createDataFrame
- [SPARK-40993] [SC-119504][SPARK-41705][CONNECT][12.X] Mover documentação e script do Spark Connect para dev/ e documentação do Python
- [SPARK-41534] [SC-119456][CONNECT][SQL][12.x] Configurar o módulo de cliente inicial para o Spark Connect
- [SPARK-41365] [SC-118498][UI][3.3] A página de interface do usuário de estágios não é carregada no proxy em um ambiente de yarn específico
- [SPARK-41481] [SC-118150][CORE][SQL] Reutilizar
INVALID_TYPED_LITERAL
em vez de_LEGACY_ERROR_TEMP_0020
- [SPARK-41049] [SC-119305][SQL] Revisitar manipulação de expressão com estado
- [SPARK-41726] [SC-119248][SQL] Remover
OptimizedCreateHiveTableAsSelectCommand
- [SPARK-41271] [SC-118648][SC-118348][SQL] Suporte a consultas SQL parametrizadas por
sql()
- [SPARK-41066] [SC-119344][CONNECT][PYTHON] Implementar
DataFrame.sampleBy
eDataFrame.stat.sampleBy
- [SPARK-41407] [SC-119402][SC-119012][SQL][ALL TESTS] Efetuar pull da gravação v1 em WriteFiles
- [SPARK-41565] [SC-118868][SQL] Adicionar a classe de erro
UNRESOLVED_ROUTINE
- [SPARK-41668] [SC-118925][SQL] A função DECODE retorna resultados errados quando NULL é passado
- [SPARK-41554] [SC-119274] correção da alteração da escala decimal quando a escala diminuiu em m…
- [SPARK-41065] [SC-119324][CONNECT][PYTHON] Implementar
DataFrame.freqItems
eDataFrame.stat.freqItems
- [SPARK-41742] [SC-119404][SPARK-41745][CONNECT][12.X] Reabilitar testes de documentação e adicionar alias de coluna ausente ao count()
- [SPARK-41069] [SC-119310][CONNECT][PYTHON] Implementar
DataFrame.approxQuantile
eDataFrame.stat.approxQuantile
- [SPARK-41809] [SC-119367][CONNECT][PYTHON] Fazer a função
from_json
dar suporte ao esquema DataType - [SPARK-41804] [SC-119382][SQL] Escolher o tamanho correto do elemento em
InterpretedUnsafeProjection
para matriz de UDTs - [SPARK-41786] [SC-119308][CONNECT][PYTHON] Deduplicar funções auxiliares
- [SPARK-41745] [SC-119378][SPARK-41789][12.X] Fazer com que
createDataFrame
dê suporte à lista de Linhas - [SPARK-41344] [SC-119217][SQL] Deixar o erro mais claro quando a tabela não for encontrada no catálogo SupportsCatalogOptions
- [SPARK-41803] [SC-119380][CONNECT][PYTHON] Adicionar a função ausente
log(arg1, arg2)
- [SPARK-41808] [SC-119356][CONNECT][PYTHON] Fazer com que funções JSON dêem suporte a opções
- [SPARK-41779] [SC-119275][SPARK-41771][CONNECT][PYTHON] Fazer com que
__getitem__
dê suporte a filtrar e selecionar - [SPARK-41783] [SC-119288][SPARK-41770][CONNECT][PYTHON] Fazer com que operação de coluna dê suporte a None
- [SPARK-41440] [SC-119279][CONNECT][PYTHON] Evitar o operador de cache em Amostra geral.
- [SPARK-41785] [SC-119290][CONNECT][PYTHON] Implementar
GroupedData.mean
- [SPARK-41629] [SC-119276][CONNECT] Suporte para extensões de protocolo em relação e expressão
- [SPARK-41417] [SC-118000][CORE][SQL] Renomear
_LEGACY_ERROR_TEMP_0019
paraINVALID_TYPED_LITERAL
- [SPARK-41533] [SC-119342][CONNECT][12.X] Tratamento de erro adequado para o Servidor/Cliente do Spark Connect
- [SPARK-41292] [SC-119357][CONNECT][12.X] Suporte de Janela no namespace pyspark.sql.window
- [SPARK-41493] [SC-119339][CONNECT][PYTHON] Fazer com que funções JSON dêem suporte a opções
- [SPARK-39591] [SC-118675][SS] Acompanhamento de progresso assíncrono
- [SPARK-41767] [SC-119337][CONNECT][PYTHON][12.X] Implementar
Column.{withField, dropFields}
- [SPARK-41068] [SC-119268][CONNECT][PYTHON] Implementar
DataFrame.stat.corr
- [SPARK-41655] [SC-119323][CONNECT][12.X] Habilitar doctests no pyspark.sql.connect.column
- [SPARK-41738] [SC-119170][CONNECT] Mix ClientId no cache SparkSession
- [SPARK-41354] [SC-119194][CONNECT] Adicionar
RepartitionByExpression
ao proto - [SPARK-41784] [SC-119289][CONNECT][PYTHON] Adicionar
__rmod__
ausente na Coluna - [SPARK-41778] [SC-119262][SQL] Adicionar um alias "reduce" a ArrayAggregate
- [SPARK-41067] [SC-119171][CONNECT][PYTHON] Implementar
DataFrame.stat.cov
- [SPARK-41764] [SC-119216][CONNECT][PYTHON] Tornar o nome da operação de cadeia de caracteres interna consistente com FunctionRegistry
- [SPARK-41734] [SC-119160][CONNECT] Adicionar uma mensagem pai para Catálogo
- [SPARK-41742] [SC-119263] Suporte a df.groupBy().agg({“*”:”count”})
- [SPARK-41761] [SC-119213][CONNECT][PYTHON] Corrigir operações aritméticas:
__neg__
,__pow__
,__rpow__
- [SPARK-41062] [SC-118182][SQL] Renomear
UNSUPPORTED_CORRELATED_REFERENCE
paraCORRELATED_REFERENCE
- [SPARK-41751] [SC-119211][CONNECT][PYTHON] Corrigir
Column.{isNull, isNotNull, eqNullSafe}
- [SPARK-41728] [SC-119164][CONNECT][PYTHON][12.X] Implementar a função
unwrap_udt
- [SPARK-41333] [SC-119195][SPARK-41737] Implementar
GroupedData.{min, max, avg, sum}
- [SPARK-41751] [SC-119206][CONNECT][PYTHON] Corrigir
Column.{bitwiseAND, bitwiseOR, bitwiseXOR}
- [SPARK-41631] [SC-101081][SQL] Suporte à resolução implícita de alias de coluna lateral na Agregação
- [SPARK-41529] [SC-119207][CONNECT][12.X] Implementar SparkSession.stop
- [SPARK-41729] [SC-119205][CORE][SQL][12.X] Renomear
_LEGACY_ERROR_TEMP_0011
paraUNSUPPORTED_FEATURE.COMBINATION_QUERY_RESULT_CLAUSES
- [SPARK-41717] [SC-119078][CONNECT][12.X] Eliminar duplicação de impressão e repr_html em LogicalPlan
- [SPARK-41740] [SC-119169][CONNECT][PYTHON] Implementar
Column.name
- [SPARK-41733] [SC-119163][SQL][SS] Aplicar remoção baseada em padrão de árvore para a regra ResolveWindowTime
- [SPARK-41732] [SC-119157][SQL][SS] Aplicar remoção baseada em padrão de árvore para a regra SessionWindowing
- [SPARK-41498] [SC-119018] Propagar metadados por meio de União
- [SPARK-41731] [SC-119166][CONNECT][PYTHON][12.X] Implementar o acessador de coluna
- [SPARK-41736] [SC-119161][CONNECT][PYTHON]
pyspark_types_to_proto_types
deve dar suporte aArrayType
- [SPARK-41473] [SC-119092][CONNECT][PYTHON] Implementar a função
format_number
- [SPARK-41707] [SC-119141][CONNECT][12.X] Implementar a API de Catálogo no Spark Connect
- [SPARK-41710] [SC-119062][CONNECT][PYTHON] Implementar
Column.between
- [SPARK-41235] [SC-119088][SQL][PYTHON] Função de ordem superior: implementação de array_compact
- [SPARK-41518] [SC-118453][SQL] Atribuir um nome à classe de erro
_LEGACY_ERROR_TEMP_2422
- [SPARK-41723] [SC-119091][CONNECT][PYTHON] Implementar a função
sequence
- [SPARK-41703] [SC-119060][CONNECT][PYTHON] Combinar NullType e typed_null em Literal
- [SPARK-41722] [SC-119090][CONNECT][PYTHON] Implementar três funções de janela de tempo ausentes
- [SPARK-41503] [SC-119043][CONNECT][PYTHON] Implementar funções de transformação de partição
- [SPARK-41413] [SC-118968][SQL] Evitar embaralhar na Junção com partição de armazenamento quando as chaves de partição não forem compatíveis, mas as expressões de junção forem compatíveis
- [SPARK-41700] [SC-119046][CONNECT][PYTHON] Remover
FunctionBuilder
- [SPARK-41706] [SC-119094][CONNECT][PYTHON]
pyspark_types_to_proto_types
deve dar suporte aMapType
- [SPARK-41702] [SC-119049][CONNECT][PYTHON] Adicionar operações de coluna inválidas
- [SPARK-41660] [SC-118866][SQL] Somente propagar colunas de metadados se forem usadas
- [SPARK-41637] [SC-119003][SQL] ORDER BY ALL
- [SPARK-41513] [SC-118945][SQL] Implementar um acumulador para coletar métricas de contagem de linhas por mapeador
- [SPARK-41647] [SC-119064][CONNECT][12.X] Eliminar duplicação de docstrings em pyspark.sql.connect.functions
- [SPARK-41701] [SC-119048][CONNECT][PYTHON] Fazer com que operação de coluna dê suporte a
decimal
- [SPARK-41383] [SC-119015][SPARK-41692][SPARK-41693] Implementar
rollup
,cube
epivot
- [SPARK-41635] [SC-118944][SQL] GROUP BY ALL
- [SPARK-41645] [SC-119057][CONNECT][12.X] Eliminar duplicação de docstrings em pyspark.sql.connect.dataframe
- [SPARK-41688] [SC-118951][CONNECT][PYTHON] Mover Expressões para expressions.py
- [SPARK-41687] [SC-118949][CONNECT] Eliminar duplicação de docstrings em pyspark.sql.connect.group
- [SPARK-41649] [SC-118950][CONNECT] Eliminar duplicação de docstrings em pyspark.sql.connect.window
- [SPARK-41681] [SC-118939][CONNECT] Fatorar GroupedData em group.py
- [SPARK-41292] [SC-119038][SPARK-41640][SPARK-41641][CONNECT][PYTHON][12.X] Implementar funções
Window
- [SPARK-41675] [SC-119031][SC-118934][CONNECT][PYTHON][12.X] Fazer com que operação de Coluna dê suporte a
datetime
- [SPARK-41672] [SC-118929][CONNECT][PYTHON] Habilitar as funções preteridas
- [SPARK-41673] [SC-118932][CONNECT][PYTHON] Implementar
Column.astype
- [SPARK-41364] [SC-118865][CONNECT][PYTHON] Implementar a função
broadcast
- [SPARK-41648] [SC-118914][CONNECT][12.X] Eliminar duplicação de docstrings em pyspark.sql.connect.readwriter
- [SPARK-41646] [SC-118915][CONNECT][12.X] Eliminar duplicação de docstrings em pyspark.sql.connect.session
- [SPARK-41643] [SC-118862][CONNECT][12.X] Eliminar duplicação de docstrings em pyspark.sql.connect.column
- [SPARK-41663] [SC-118936][CONNECT][PYTHON][12.X] Implementar o restante das funções Lambda
- [SPARK-41441] [SC-118557][SQL] Suporte a Gerar sem necessidade de saída filho para hospedar referências externas
- [SPARK-41669] [SC-118923][SQL] Remoção antecipada em canCollapseExpressions
- [SPARK-41639] [SC-118927][SQL][PROTOBUF] : Remover ScalaReflectionLock de SchemaConverters
- [SPARK-41464] [SC-118861][CONNECT][PYTHON] Implementar
DataFrame.to
- [SPARK-41434] [SC-118857][CONNECT][PYTHON] Implementação inicial de
LambdaFunction
- [SPARK-41539] [SC-118802][SQL] Remapear estatísticas e restrições em relação à saída no plano lógico para LogicalRDD
- [SPARK-41396] [SC-118786][SQL][PROTOBUF] Verificações de recursão e suporte a campos OneOf
- [SPARK-41528] [SC-118769][CONNECT][12.X] Mesclar namespace do Spark Connect e da API do PySpark
- [SPARK-41568] [SC-118715][SQL] Atribuir nome a _LEGACY_ERROR_TEMP_1236
- [SPARK-41440] [SC-118788][CONNECT][PYTHON] Implementar
DataFrame.randomSplit
- [SPARK-41583] [SC-118718][SC-118642][CONNECT][PROTOBUF] Adicionar Spark Connect e protobuf ao setup.py com a especificação de dependências
- [SPARK-27561] [SC-101081][12.x][SQL] Suporte à resolução implícita de alias de coluna lateral no Projeto
- [SPARK-41535] [SC-118645][SQL] Definir nulo corretamente em campos de intervalo de calendário em
InterpretedUnsafeProjection
eInterpretedMutableProjection
- [SPARK-40687] [SC-118439][SQL] Suporte à função interna de mascaramento de dados "mask"
- [SPARK-41520] [SC-118440][SQL] Dividir AND_OR TreePattern para separar AND e OR TreePatterns
- [SPARK-41349] [SC-118668][CONNECT][PYTHON] Implementar DataFrame.hint
- [SPARK-41546] [SC-118541][CONNECT][PYTHON]
pyspark_types_to_proto_types
deve dar suporte a StructType. - [SPARK-41334] [SC-118549][CONNECT][PYTHON] Mover proto
SortOrder
de relações para expressões - [SPARK-41387] [SC-118450][SS] Declarar deslocamento final atual da fonte de dados Kafka para Trigger.AvailableNow
- [SPARK-41508] [SC-118445][CORE][SQL] Renomear
_LEGACY_ERROR_TEMP_1180
paraUNEXPECTED_INPUT_TYPE
e remover_LEGACY_ERROR_TEMP_1179
- [SPARK-41319] [SC-118441][CONNECT][PYTHON] Implementar Column.{when, otherwise} e Função
when
comUnresolvedFunction
- [SPARK-41541] [SC-118460][SQL] Corrigir chamada ao método filho errado em SQLShuffleWriteMetricsReporter.decRecordsWritten()
- [SPARK-41453] [SC-118458][CONNECT][PYTHON] Implementar
DataFrame.subtract
- [SPARK-41248] [SC-118436][SC-118303][SQL] Adicionar "spark.sql.json.enablePartialResults" para habilitar/desabilitar resultados parciais JSON
- [SPARK-41437] Reverter "[SC-117601][SQL] Não otimizar a inputquery duas vezes para fallback de gravação v1"
- [SPARK-41472] [SC-118352][CONNECT][PYTHON] Implementar o restante das funções de cadeia de caracteres/binários
- [SPARK-41526] [SC-118355][CONNECT][PYTHON] Implementar
Column.isin
- [SPARK-32170] [SC-118384] [CORE] Melhorar a especulação por meio das métricas da tarefa de preparo.
- [SPARK-41524] [SC-118399][SS] Diferenciar SQLConf e extraOptions no StateStoreConf para seu uso no RocksDBConf
- [SPARK-41465] [SC-118381][SQL] Atribuir um nome à classe de erro _LEGACY_ERROR_TEMP_1235
- [SPARK-41511] [SC-118365][SQL] LongToUnsafeRowMap dá suporte a ignoresDuplicatedKey
- [SPARK-41409] [SC-118302][CORE][SQL] Renomear
_LEGACY_ERROR_TEMP_1043
paraWRONG_NUM_ARGS.WITHOUT_SUGGESTION
- [SPARK-41438] [SC-118344][CONNECT][PYTHON] Implementar
DataFrame.colRegex
- [SPARK-41437] [SC-117601][SQL] Não otimizar a consulta de entrada duas vezes para fallback de gravação v1
- [SPARK-41314] [SC-117172][SQL] Atribuir um nome à classe de erro
_LEGACY_ERROR_TEMP_1094
- [SPARK-41443] [SC-118004][SQL] Atribuir um nome à classe de erro _LEGACY_ERROR_TEMP_1061
- [SPARK-41506] [SC-118241][CONNECT][PYTHON] Refatorar LiteralExpression para dar suporte a DataType
- [SPARK-41448] [SC-118046] Tornar IDs de trabalho de MR consistentes em FileBatchWriter e FileFormatWriter
- [SPARK-41456] [SC-117970][SQL] Melhorar o desempenho de try_cast
- [SPARK-41495] [SC-118125][CONNECT][PYTHON] Implementar funções
collection
: P~Z - [SPARK-41478] [SC-118167][SQL] Atribuir um nome à classe de erro _LEGACY_ERROR_TEMP_1234
- [SPARK-41406] [SC-118161][SQL] Refatorar mensagem de erro de
NUM_COLUMNS_MISMATCH
para torná-la mais genérica - [SPARK-41404] [SC-118016][SQL] Refatorar
ColumnVectorUtils#toBatch
para fazerColumnarBatchSuite#testRandomRows
testar dataType mais primitivo - [SPARK-41468] [SC-118044][SQL] Corrigir manipulação de PlanExpression em EquivalentExpressions
- [SPARK-40775] [SC-118045][SQL] Corrigir entradas de descrição duplicadas para verificações de arquivo V2
- [SPARK-41492] [SC-118042][CONNECT][PYTHON] Implementar funções MISC
- [SPARK-41459] [SC-118005][SQL] corrigir a saída do log de operação do servidor thrift vazia
- [SPARK-41395] [SC-117899][SQL]
InterpretedMutableProjection
deve usarsetDecimal
para definir valores nulos para decimais em uma linha não segura - [SPARK-41376] [SC-117840][CORE][3.3] Corrigir a lógica de verificação Netty preferDirectBufs no início do executor
- [SPARK-41484] [SC-118159][SC-118036][CONNECT][PYTHON][12.x] Implementar funções
collection
: E~M - [SPARK-41389] [SC-117426][CORE][SQL] Reutilizar
WRONG_NUM_ARGS
em vez de_LEGACY_ERROR_TEMP_1044
- [SPARK-41462] [SC-117920][SQL] O tipo data e carimbo de data/hora pode ser convertido em TimestampNTZ
- [SPARK-41435] [SC-117810][SQL] Alteração para chamar
invalidFunctionArgumentsError
paracurdate()
quandoexpressions
não estiver vazio - [SPARK-41187] [SC-118030][CORE] LiveExecutor MemoryLeak no AppStatusListener quando ocorre ExecutorLost
- [SPARK-41360] [SC-118083][CORE] Evite o novo registro do BlockManager se o executor tiver sido perdido
- [SPARK-41378] [SC-117686][SQL] Suporte a estatísticas de coluna no DS v2
- [SPARK-41402] [SC-117910][SQL][CONNECT][12.X] Substituir prettyName de StringDecode
- [SPARK-41414] [SC-118041][CONNECT][PYTHON][12.x] Implementar funções date/timestamp
- [SPARK-41329] [SC-117975][CONNECT] Resolver importações circulares no Spark Connect
- [SPARK-41477] [SC-118025][CONNECT][PYTHON] Inferir corretamente o tipo de dados de inteiros literais
- [SPARK-41446] [SC-118024][CONNECT][PYTHON][12.x] Fazer com que
createDataFrame
dê suporte a esquema e mais tipos de conjunto de dados de entrada - [SPARK-41475] [SC-117997][CONNECT] Corrigir erro e erro de digitação do comando lint-scala
- [SPARK-38277] [SC-117799][SS] Apagar o lote de gravação após o commit do repositório de estado de RocksDB
- [SPARK-41375] [SC-117801][SS] Evitar o KafkaSourceOffset mais recente vazio
- [SPARK-41412] [SC-118015][CONNECT] Implementar
Column.cast
- [SPARK-41439] [SC-117893][CONNECT][PYTHON] Implementar
DataFrame.melt
eDataFrame.unpivot
- [SPARK-41399] [SC-118007][SC-117474][CONNECT] Refatorar testes relacionados à coluna para test_connect_column
- [SPARK-41351] [SC-117957][SC-117412][CONNECT][12.x] A coluna deve dar suporte ao operador !=
- [SPARK-40697] [SC-117806][SC-112787][SQL] Adicionar preenchimento de caracteres do lado da leitura para cobrir arquivos de dados externos
- [SPARK-41349] [SC-117594][CONNECT][12.X] Implementar DataFrame.hint
- [SPARK-41338] [SC-117170][SQL] Resolver referências externas e colunas normais no mesmo lote do analisador
- [SPARK-41436] [SC-117805][CONNECT][PYTHON] Implementar funções
collection
: A~C - [SPARK-41445] [SC-117802][CONNECT] Implementar DataFrameReader.parquet
- [SPARK-41452] [SC-117865][SQL]
to_char
deve retornar nulo quando o formato for nulo - [SPARK-41444] [SC-117796][CONNECT] Suporte a read.json()
- [SPARK-41398] [SC-117508][SQL] Relaxar as restrições em Junção com partição de armazenamento quando as chaves de partição após a filtragem do runtime não corresponderem
- [SPARK-41228] [SC-117169][SQL] Renomear e aprimorar mensagem de erro para
COLUMN_NOT_IN_GROUP_BY_CLAUSE
. - [SPARK-41381] [SC-117593][CONNECT][PYTHON] Implementar funções
count_distinct
esum_distinct
- [SPARK-41433] [SC-117596][CONNECT] Tornar o Max Arrow BatchSize configurável
- [SPARK-41397] [SC-117590][CONNECT][PYTHON] Implementar parte das funções de cadeia de caracteres/binários
- [SPARK-41382] [SC-117588][CONNECT][PYTHON] Implementar a função
product
- [SPARK-41403] [SC-117595][CONNECT][PYTHON] Implementar
DataFrame.describe
- [SPARK-41366] [SC-117580][CONNECT] DF.groupby.agg() deve ser compatível
- [SPARK-41369] [SC-117584][CONNECT] Adicionar conexão comum ao jar sombreado dos servidores
- [SPARK-41411] [SC-117562][SS] A marca d'água do operador com vários estados dá suporte à correção de bug
- [SPARK-41176] [SC-116630][SQL] Atribuir um nome à classe de erro _LEGACY_ERROR_TEMP_1042
- [SPARK-41380] [SC-117476][CONNECT][PYTHON][12.X] Implementar funções de agregação
- [SPARK-41363] [SC-117470][CONNECT][PYTHON][12.X] Implementar funções normais
- [SPARK-41305] [SC-117411][CONNECT] Aprimorar a documentação do proto comando
- [SPARK-41372] [SC-117427][CONNECT][PYTHON] Implementar DataFrame TempView
- [SPARK-41379] [SC-117420][SS][PYTHON] Fornecer sessão do Spark clonada no DataFrame na função de usuário para o coletor foreachBatch no PySpark
- [SPARK-41373] [SC-117405][SQL][ERROR] Renomear CAST_WITH_FUN_SUGGESTION para CAST_WITH_FUNC_SUGGESTION
- [SPARK-41358] [SC-117417][SQL] Refatorar o método
ColumnVectorUtils#populate
para usarPhysicalDataType
em vez deDataType
- [SPARK-41355] [SC-117423][SQL] Solução alternativa do problema de validação do nome da tabela do hive
- [SPARK-41390] [SC-117429][SQL] Atualizar o script usado para gerar a função
register
noUDFRegistration
- [SPARK-41206] [SC-117233][SC-116381][SQL] Renomear a classe de erro
_LEGACY_ERROR_TEMP_1233
paraCOLUMN_ALREADY_EXISTS
- [SPARK-41357] [SC-117310][CONNECT][PYTHON][12.X] Implementar funções matemáticas
- [SPARK-40970] [SC-117308][CONNECT][PYTHON] Suporte a List[Column] para junções no argumento
- [SPARK-41345] [SC-117178][CONNECT] Adicionar dica para conectar proto
- [SPARK-41226] [SC-117194][SQL][12.x] Refatorar tipos do Spark introduzindo tipos físicos
- [SPARK-41317] [SC-116902][CONNECT][PYTHON][12.X] Adicionar suporte básico para DataFrameWriter
- [SPARK-41347] [SC-117173][CONNECT] Adicionar Cast ao proto de Expression
- [SPARK-41323] [SC-117128][SQL] Suporte a current_schema
- [SPARK-41339] [SC-117171][SQL] Fechar e recriar o lote de gravação de RocksDB em vez de apenas limpar
- [SPARK-41227] [SC-117165][CONNECT][PYTHON] Implementar união cruzada de DataFrame
- [SPARK-41346] [SC-117176][CONNECT][PYTHON] Implementar funções
asc
edesc
- [SPARK-41343] [SC-117166][CONNECT] Mover a análise de FunctionName para o lado do servidor
- [SPARK-41321] [SC-117163][CONNECT] Suporte ao campo de destino para UnresolvedStar
- [SPARK-41237] [SC-117167][SQL] Reutilizar a classe de erro
UNSUPPORTED_DATATYPE
para_LEGACY_ERROR_TEMP_0030
- [SPARK-41309] [SC-116916][SQL] Reutilizar
INVALID_SCHEMA.NON_STRING_LITERAL
em vez de_LEGACY_ERROR_TEMP_1093
- [SPARK-41276] [SC-117136][SQL][ML][MLLIB][PROTOBUF][PYTHON][R][SS][AVRO] Otimizar o uso de
StructType
pelo construtor - [SPARK-41335] [SC-117135][CONNECT][PYTHON] Suporte a IsNull e IsNotNull na Coluna
- [SPARK-41332] [SC-117131][CONNECT][PYTHON] Corrigir
nullOrdering
emSortOrder
- [SPARK-41325] [SC-117132][CONNECT][12.X] Corrigir avg() ausente para GroupBy no DF
- [SPARK-41327] [SC-117137][CORE] Corrigir
SparkStatusTracker.getExecutorInfos
por anternar informação de On/OffHeapStorageMemory - [SPARK-41315] [SC-117129][CONNECT][PYTHON] Implementar
DataFrame.replace
eDataFrame.na.replace
- [SPARK-41328] [SC-117125][CONNECT][PYTHON] Adicionar API lógica e de cadeia de caracteres à Coluna
- [SPARK-41331] [SC-117127][CONNECT][PYTHON] Adicionar
orderBy
edrop_duplicates
- [SPARK-40987] [SC-117124][CORE]
BlockManager#removeBlockInternal
deve garantir que o bloqueio seja desbloqueado normalmente - [SPARK-41268] [SC-117102][SC-116970][CONNECT][PYTHON] Refatorar "Column" para Compatibilidade com API
- [SPARK-41312] [SC-116881][CONNECT][PYTHON][12.X] Implementar DataFrame.withColumnRenamed
- [SPARK-41221] [SC-116607][SQL] Adicionar a classe de erro
INVALID_FORMAT
- [SPARK-41272] [SC-116742][SQL] Atribuir um nome à classe de erro _LEGACY_ERROR_TEMP_2019
- [SPARK-41180] [SC-116760][SQL] Reutilizar
INVALID_SCHEMA
em vez de_LEGACY_ERROR_TEMP_1227
- [SPARK-41260] [SC-116880][PYTHON][SS][12.X] Converter instâncias NumPy em tipos primitivos do Python na atualização de GroupState
- [SPARK-41174] [SC-116609][CORE][SQL] Propagar uma classe de erro para usuários para
format
inválido deto_binary()
- [SPARK-41264] [SC-116971][CONNECT][PYTHON] Fazer com que Literal dê suporte a mais tipos de dados
- [SPARK-41326] [SC-116972] [CONNECT] A correção da eliminação de duplicação não tem entrada
- [SPARK-41316] [SC-116900][SQL] Habilitar a recursão da parte final sempre que possível
- [SPARK-41297] [SC-116931] [CONNECT] [PYTHON] Suporte a expressões de cadeia de caracteres no filtro.
- [SPARK-41256] [SC-116932][SC-116883][CONNECT] Implementar DataFrame.withColumn(s)
- [SPARK-41182] [SC-116632][SQL] Atribuir um nome à classe de erro _LEGACY_ERROR_TEMP_1102
- [SPARK-41181] [SC-116680][SQL] Migrar os erros de opções de mapa para classes de erro
- [SPARK-40940] [SC-115993][12.x] Remover verificadores de operador com vários estados para fluxos de consultas.
- [SPARK-41310] [SC-116885][CONNECT][PYTHON] Implementar DataFrame.toDF
- [SPARK-41179] [SC-116631][SQL] Atribuir um nome à classe de erro _LEGACY_ERROR_TEMP_1092
- [SPARK-41003] [SC-116741][SQL] BHJ LeftAnti não atualiza numOutputRows quando codegen está desabilitado
- [SPARK-41148] [SC-116878][CONNECT][PYTHON] Implementar
DataFrame.dropna
eDataFrame.na.drop
- [SPARK-41217] [SC-116380][SQL] Adicionar a classe de erro
FAILED_FUNCTION_CALL
- [SPARK-41308] [SC-116875][CONNECT][PYTHON] Aprimorar DataFrame.count()
- [SPARK-41301] [SC-116786] [CONNECT] Homogeneizar o comportamento para SparkSession.range()
- [SPARK-41306] [SC-116860][CONNECT] Aprimorar a proto documentação do Connect Expression
- [SPARK-41280] [SC-116733][CONNECT] Implementar DataFrame.tail
- [SPARK-41300] [SC-116751] [CONNECT] O esquema não definido é interpretado como Esquema
- [SPARK-41255] [SC-116730][SC-116695] [CONNECT] Renomear RemoteSparkSession
- [SPARK-41250] [SC-116788][SC-116633][CONNECT][PYTHON] DataFrame. toPandas não deve retornar dataframe do Pandas opcional
- [SPARK-41291] [SC-116738][CONNECT][PYTHON]
DataFrame.explain
deve imprimir e retornar None - [SPARK-41278] [SC-116732][CONNECT] Limpar QualifiedAttribute não utilizado em Expression.proto
- [SPARK-41097] [SC-116653][CORE][SQL][SS][PROTOBUF] Remover a base de conversão de coleção redundante no código do Scala 2.13
- [SPARK-41261] [SC-116718][PYTHON][SS] Corrigir problema para applyInPandasWithState quando as colunas de chaves de agrupamento não são colocadas em ordem desde o início
- [SPARK-40872] [SC-116717][3.3] Fallback no bloco de ordem aleatória original quando uma parte da ordem aleatória mesclada por push tem tamanho zero
- [SPARK-41114] [SC-116628][CONNECT] Suporte a dados locais para LocalRelation
- [SPARK-41216] [SC-116678][CONNECT][PYTHON] Implementar
DataFrame.{isLocal, isStreaming, printSchema, inputFiles}
- [SPARK-41238] [SC-116670][CONNECT][PYTHON] Suporte a mais tipos de dados internos
- [SPARK-41230] [SC-116674][CONNECT][PYTHON] Remover
str
do tipo de expressão Aggregate - [SPARK-41224] [SC-116652][SPARK-41165][SPARK-41184][CONNECT] Implementação de coleta baseada em seta otimizada para fluxo do servidor para o cliente
- [SPARK-41222] [SC-116625][CONNECT][PYTHON] Unificar as definições de tipo
- [SPARK-41225] [SC-116623] [CONNECT] [PYTHON] Desabilitar funções sem suporte.
- [SPARK-41201] [SC-116526][CONNECT][PYTHON] Implementar
DataFrame.SelectExpr
no cliente Python - [SPARK-41203] [SC-116258] [CONNECT] Suporte a Dataframe.tansform no cliente Python.
- [SPARK-41213] [SC-116375][CONNECT][PYTHON] Implementar
DataFrame.__repr__
eDataFrame.dtypes
- [SPARK-41169] [SC-116378][CONNECT][PYTHON] Implementar
DataFrame.drop
- [SPARK-41172] [SC-116245][SQL] Migrar o erro de referência ambígua a uma classe de erro
- [SPARK-41122] [SC-116141][CONNECT] A API Explain pode dar suporte a modos diferentes
- [SPARK-41209] [SC-116584][SC-116376][PYTHON] Melhorar a inferência de tipos do PySpark no método _merge_type
- [SPARK-41196] [SC-116555][SC-116179] [CONNECT] Homogenizar a versão do protobuf no servidor do Spark Connect para usar a mesma versão principal.
- [SPARK-35531] [SC-116409][SQL] Atualizar estatísticas da tabela hive sem conversão desnecessária
- [SPARK-41154] [SC-116289][SQL] Cache de relação incorreto para consultas com especificação de viagem no tempo
- [SPARK-41212] [SC-116554][SC-116389][CONNECT][PYTHON] Implementar
DataFrame.isEmpty
- [SPARK-41135] [SC-116400][SQL] Renomear
UNSUPPORTED_EMPTY_LOCATION
paraINVALID_EMPTY_LOCATION
- [SPARK-41183] [SC-116265][SQL] Adicionar uma API de extensão para fazer a normalização do plano para cache
- [SPARK-41054] [SC-116447][UI][CORE] Suporte a RocksDB como KVStore na interface do usuário dinâmica
- [SPARK-38550] [SC-115223]Reverter "[SQL][CORE] Usar um repositório baseado em disco para salvar mais informações de depuração da interface do usuário ativa"
- [SPARK-41173] [SC-116185][SQL] Retirar
require()
dos construtores de expressões de cadeia de caracteres - [SPARK-41188] [SC-116242][CORE][ML] Definir executorEnv OMP_NUM_THREADS como spark.task.cpus por padrão para processos de JVM do executor do Spark
- [SPARK-41130] [SC-116155][SQL] Renomear
OUT_OF_DECIMAL_TYPE_RANGE
paraNUMERIC_OUT_OF_SUPPORTED_RANGE
- [SPARK-41175] [SC-116238][SQL] Atribuir um nome à classe de erro _LEGACY_ERROR_TEMP_1078
- [SPARK-41106] [SC-116073][SQL] Reduzir a conversão de coleção ao criar AttributeMap
- [SPARK-41139] [SC-115983][SQL] Melhorar a classe de erro:
PYTHON_UDF_IN_ON_CLAUSE
- [SPARK-40657] [SC-115997][PROTOBUF] Exigir sombreamento para jar de classe Java, aprimorar o tratamento de erros
- [SPARK-40999] [SC-116168] Propagação de dica para subconsultas
- [SPARK-41017] [SC-116054][SQL] Suporte à remoção de coluna com vários filtros não determinísticos
- [SPARK-40834] [SC-114773][SQL] Use SparkListenerSQLExecutionEnd para acompanhar o status final do SQL na interface do usuário
- [SPARK-41118] [SC-116027][SQL]
to_number
/try_to_number
deve retornarnull
quando o formato énull
- [SPARK-39799] [SC-115984][SQL] DataSourceV2: Exibir interface do catálogo
- [SPARK-40665] [SC-116210][SC-112300][CONNECT] Evitar inserir o Spark Connect na versão binária do Apache Spark
- [SPARK-41048] [SC-116043][SQL] Aprimorar o particionamento e a ordenação da saída com o cache do AQE
- [SPARK-41198] [SC-116256][SS] Corrigir métricas no fluxo de consulta com fonte de fluxo CTE e DSv1
- [SPARK-41199] [SC-116244][SS] Corrigir o problema de métricas quando a fonte de fluxo DSv1 e a fonte de fluxo DSv2 são coutilizadas
- [SPARK-40957] [SC-116261][SC-114706] Adicionar cache na memória no HDFSMetadataLog
- [SPARK-40940] Reverter "[SC-115993] Remover verificadores de operador com vários estados para fluxos de consultas".
- [SPARK-41090] [SC-116040][SQL] Gerar exceção para
db_name.view_name
ao criar exibição temporária pela API do conjunto de dados - [SPARK-41133] [SC-116085][SQL] Integrar o
UNSCALED_VALUE_TOO_LARGE_FOR_PRECISION
noNUMERIC_VALUE_OUT_OF_RANGE
- [SPARK-40557] [SC-116182][SC-111442][CONNECT] Commits de despejo de código 9
- [SPARK-40448] [SC-114447][SC-111314][CONNECT] Compilação do Spark Connect como plug-in de driver com dependências sombreadas
- [SPARK-41096] [SC-115812][SQL] Suporte à leitura do tipo parquet FIXED_LEN_BYTE_ARRAY
- [SPARK-41140] [SC-115879][SQL] Renomear a classe de erro
_LEGACY_ERROR_TEMP_2440
paraINVALID_WHERE_CONDITION
- [SPARK-40918] [SC-114438][SQL] Incompatibilidade entre FileSourceScanExec e Orc e ParquetFileFormat na produção de saída colunar
- [SPARK-41155] [SC-115991][SQL] Adicionar mensagem de erro a SchemaColumnConvertNotSupportedException
- [SPARK-40940] [SC-115993] Remover verificadores de operador com vários estados para fluxos de consultas.
- [SPARK-41098] [SC-115790][SQL] Renomear
GROUP_BY_POS_REFERS_AGG_EXPR
paraGROUP_BY_POS_AGGREGATE
- [SPARK-40755] [SC-115912][SQL] Migrar falhas de verificação de tipo de formatação de número para classes de erro
- [SPARK-41059] [SC-115658][SQL] Renomear
_LEGACY_ERROR_TEMP_2420
paraNESTED_AGGREGATE_FUNCTION
- [SPARK-41044] [SC-115662][SQL] Converter DATATYPE_MISMATCH. UNSPECIFIED_FRAME para INTERNAL_ERROR
- [SPARK-40973] [SC-115132][SQL] Renomear
_LEGACY_ERROR_TEMP_0055
paraUNCLOSED_BRACKETED_COMMENT
Atualizações de manutenção
Confira Atualizações de manutenção do Databricks Runtime 12.1.
Ambiente do sistema
- Sistema operacional: Ubuntu 20.04.5 LTS
- Java: Zulu 8.64.0.19-CA-linux64
- Scala: 2.12.14
- Python: 3.9.5
- R: 4.2.2
- Delta Lake: 2.2.0
Bibliotecas Python instaladas
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 | asttokens | 2.0.5 |
attrs | 21.4.0 | backcall | 0.2.0 | backports.entry-points-selectable | 1.2.0 |
beautifulsoup4 | 4.11.1 | black | 22.3.0 | bleach | 4.1.0 |
boto3 | 1.21.32 | botocore | 1.24.32 | certifi | 2021.10.8 |
cffi | 1.15.0 | chardet | 4.0.0 | charset-normalizer | 2.0.4 |
clique | 8.0.4 | criptografia | 3.4.8 | cycler | 0.11.0 |
Cython | 0.29.28 | dbus-python | 1.2.16 | debugpy | 1.5.1 |
decorator | 5.1.1 | defusedxml | 0.7.1 | distlib | 0.3.6 |
docstring-to-markdown | 0,11 | entrypoints | 0,4 | em execução | 0.8.3 |
facets-overview | 1.0.0 | fastjsonschema | 2.16.2 | filelock | 3.8.2 |
fonttools | 4.25.0 | idna | 3.3 | ipykernel | 6.15.3 |
ipython | 8.5.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
jedi | 0.18.1 | Jinja2 | 2.11.3 | jmespath | 0.10.0 |
joblib | 1.1.0 | jsonschema | 4.4.0 | jupyter-client | 6.1.12 |
jupyter_core | 4.11.2 | jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 |
kiwisolver | 1.3.2 | MarkupSafe | 2.0.1 | matplotlib | 3.5.1 |
matplotlib-inline | 0.1.2 | mccabe | 0.7.0 | mistune | 0.8.4 |
mypy-extensions | 0.4.3 | nbclient | 0.5.13 | nbconvert | 6.4.4 |
nbformat | 5.3.0 | nest-asyncio | 1.5.5 | nodeenv | 1.7.0 |
notebook | 6.4.8 | numpy | 1.21.5 | empacotando | 21.3 |
pandas | 1.4.2 | pandocfilters | 1.5.0 | parso | 0.8.3 |
pathspec | 0.9.0 | patsy | 0.5.2 | pexpect | 4.8.0 |
pickleshare | 0.7.5 | Pillow | 9.0.1 | pip | 21.2.4 |
platformdirs | 2.6.0 | plotly | 5.6.0 | pluggy | 1.0.0 |
prometheus-client | 0.13.1 | prompt-toolkit | 3.0.20 | protobuf | 3.19.4 |
psutil | 5.8.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
pure-eval | 0.2.2 | pyarrow | 7.0.0 | pycparser | 2.21 |
pyflakes | 2.5.0 | Pygments | 2.11.2 | PyGObject | 3.36.0 |
pyodbc | 4.0.32 | pyparsing | 3.0.4 | pyright | 1.1.283 |
pyrsistent | 0.18.0 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 |
python-lsp-server | 1.6.0 | pytz | 2021.3 | pyzmq | 22.3.0 |
solicitações | 2.27.1 | requests-unixsocket | 0.2.0 | rope | 0.22.0 |
s3transfer | 0.5.0 | scikit-learn | 1.0.2 | scipy | 1.7.3 |
seaborn | 0.11.2 | Send2Trash | 1.8.0 | setuptools | 61.2.0 |
six | 1.16.0 | soupsieve | 2.3.1 | ssh-import-id | 5.10 |
stack-data | 0.2.0 | statsmodels | 0.13.2 | tenacity | 8.0.1 |
terminado | 0.13.1 | testpath | 0.5.0 | threadpoolctl | 2.2.0 |
tokenize-rt | 4.2.1 | tomli | 1.2.2 | tornado | 6.1 |
traitlets | 5.1.1 | typing_extensions | 4.1.1 | ujson | 5.1.0 |
unattended-upgrades | 0,1 | urllib3 | 1.26.9 | virtualenv | 20.8.0 |
wcwidth | 0.2.5 | webencodings | 0.5.1 | whatthepatch | 1.0.3 |
wheel | 0.37.0 | widgetsnbextension | 3.6.1 | yapf | 0.31.0 |
Bibliotecas R instaladas
As bibliotecas R foram instaladas por meio do Instantâneo CRAN da Microsoft em 11/11/2022.
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
seta | 10.0.0 | askpass | 1,1 | assertthat | 0.2.1 |
backports | 1.4.1 | base | 4.2.2 | base64enc | 0.1-3 |
bit | 4.0.4 | bit64 | 4.0.5 | blob | 1.2.3 |
boot | 1.3-28 | brew | 1.0-8 | brio | 1.1.3 |
broom | 1.0.1 | bslib | 0.4.1 | cachem | 1.0.6 |
callr | 3.7.3 | sinal de interpolação | 6.0-93 | cellranger | 1.1.0 |
chron | 2.3-58 | classe | 7.3-20 | cli | 3.4.1 |
clipr | 0.8.0 | clock | 0.6.1 | cluster | 2.1.4 |
codetools | 0.2-18 | colorspace | 2.0-3 | commonmark | 1.8.1 |
compiler | 4.2.2 | config | 0.3.1 | cpp11 | 0.4.3 |
crayon | 1.5.2 | credenciais | 1.3.2 | curl | 4.3.3 |
data.table | 1.14.4 | conjuntos de dados | 4.2.2 | DBI | 1.1.3 |
dbplyr | 2.2.1 | desc | 1.4.2 | devtools | 2.4.5 |
diffobj | 0.3.5 | digest | 0.6.30 | downlit | 0.4.2 |
dplyr | 1.0.10 | dtplyr | 1.2.2 | e1071 | 1.7-12 |
ellipsis | 0.3.2 | evaluate | 0.18 | fansi | 1.0.3 |
farver | 2.1.1 | fastmap | 1.1.0 | fontawesome | 0.4.0 |
forcats | 0.5.2 | foreach | 1.5.2 | foreign | 0.8-82 |
forge | 0.2.0 | fs | 1.5.2 | future | 1.29.0 |
future.apply | 1.10.0 | gargle | 1.2.1 | Genéricos | 0.1.3 |
gert | 1.9.1 | ggplot2 | 3.4.0 | gh | 1.3.1 |
gitcreds | 0.1.2 | glmnet | 4.1-4 | globals | 0.16.1 |
glue | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
gower | 1.0.0 | elemento gráfico | 4.2.2 | grDevices | 4.2.2 |
grade | 4.2.2 | gridExtra | 2.3 | gsubfn | 0.7 |
gtable | 0.3.1 | hardhat | 1.2.0 | haven | 2.5.1 |
highr | 0,9 | hms | 1.1.2 | htmltools | 0.5.3 |
htmlwidgets | 1.5.4 | httpuv | 1.6.6 | httr | 1.4.4 |
ids | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
isoband | 0.2.6 | iterators | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.3 | KernSmooth | 2.23-20 | knitr | 1.40 |
labeling | 0.4.2 | later | 1.3.0 | lattice | 0.20-45 |
lava | 1.7.0 | ciclo de vida | 1.0.3 | listenv | 0.8.0 |
lubridate | 1.9.0 | magrittr | 2.0.3 | markdown | 1,3 |
MASS | 7.3-58 | Matriz | 1.5-1 | memoise | 2.0.1 |
methods | 4.2.2 | mgcv | 1.8-41 | mime | 0,12 |
miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.9 |
munsell | 0.5.0 | nlme | 3.1-160 | nnet | 7.3-18 |
numDeriv | 2016.8-1.1 | openssl | 2.0.4 | parallel | 4.2.2 |
parallelly | 1.32.1 | pillar | 1.8.1 | pkgbuild | 1.3.1 |
pkgconfig | 2.0.3 | pkgdown | 2.0.6 | pkgload | 1.3.1 |
plogr | 0.2.0 | plyr | 1.8.7 | praise | 1.0.0 |
prettyunits | 1.1.1 | pROC | 1.18.0 | processx | 3.8.0 |
prodlim | 2019.11.13 | profvis | 0.3.7 | progress | 1.2.2 |
progressr | 0.11.0 | promises | 1.2.0.1 | proto | 1.0.0 |
proxy | 0.4-27 | ps | 1.7.2 | purrr | 0.3.5 |
r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.4 |
randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.9 | RcppEigen | 0.3.3.9.3 |
readr | 2.1.3 | readxl | 1.4.1 | recipes | 1.0.3 |
rematch | 1.0.1 | rematch2 | 2.1.2 | remotes | 2.4.2 |
reprex | 2.0.2 | reshape2 | 1.4.4 | rlang | 1.0.6 |
rmarkdown | 2.18 | RODBC | 1.3-19 | roxygen2 | 7.2.1 |
rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-11 |
RSQLite | 2.2.18 | rstudioapi | 0,14 | rversions | 2.1.2 |
rvest | 1.0.3 | sass | 0.4.2 | scales | 1.2.1 |
selectr | 0.4-2 | sessioninfo | 1.2.2 | shape | 1.4.6 |
shiny | 1.7.3 | sourcetools | 0.1.7 | sparklyr | 1.7.8 |
SparkR | 3.3.1 | spatial | 7.3-11 | splines | 4.2.2 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | stats | 4.2.2 |
stats4 | 4.2.2 | stringi | 1.7.8 | stringr | 1.4.1 |
survival | 3.4-0 | sys | 3.4.1 | systemfonts | 1.0.4 |
tcltk | 4.2.2 | testthat | 3.1.5 | textshaping | 0.3.6 |
tibble | 3.1.8 | tidyr | 1.2.1 | tidyselect | 1.2.0 |
tidyverse | 1.3.2 | timechange | 0.1.1 | timeDate | 4021.106 |
tinytex | 0,42 | tools | 4.2.2 | tzdb | 0.3.0 |
urlchecker | 1.0.1 | usethis | 2.1.6 | utf8 | 1.2.2 |
utils | 4.2.2 | uuid | 1.1-0 | vctrs | 0.5.0 |
viridisLite | 0.4.1 | vroom | 1.6.0 | waldo | 0.4.0 |
whisker | 0,4 | withr | 2.5.0 | xfun | 0.34 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.6 | zip | 2.2.2 |
Bibliotecas do Java e do Scala instaladas (versão do cluster Scala 2.12)
ID do Grupo | Artifact ID | Versão |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
com.amazonaws | aws-java-sdk-config | 1.12.189 |
com.amazonaws | aws-java-sdk-core | 1.12.189 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
com.amazonaws | aws-java-sdk-directory | 1.12.189 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
com.amazonaws | aws-java-sdk-efs | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
com.amazonaws | aws-java-sdk-emr | 1.12.189 |
com.amazonaws | aws-java-sdk-glacier | 1.12.189 |
com.amazonaws | aws-java-sdk-glue | 1.12.189 |
com.amazonaws | aws-java-sdk-iam | 1.12.189 |
com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
com.amazonaws | aws-java-sdk-kms | 1.12.189 |
com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
com.amazonaws | aws-java-sdk-logs | 1.12.189 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.189 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
com.amazonaws | aws-java-sdk-rds | 1.12.189 |
com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
com.amazonaws | aws-java-sdk-ses | 1.12.189 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
com.amazonaws | aws-java-sdk-sns | 1.12.189 |
com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
com.amazonaws | aws-java-sdk-sts | 1.12.189 |
com.amazonaws | aws-java-sdk-support | 1.12.189 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
com.amazonaws | jmespath-java | 1.12.189 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | fluxo | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | classmate | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.13.4 |
com.fasterxml.jackson.core | jackson-core | 2.13.4 |
com.fasterxml.jackson.core | jackson-databind | 2.13.4.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.13.4 |
com.github.ben-manes.caffeine | caffeine | 2.3.4 |
com.github.fommil | jniloader | 1,1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1,1 |
com.github.fommil.netlib | native_ref-java-natives | 1,1 |
com.github.fommil.netlib | native_system-java | 1,1 |
com.github.fommil.netlib | native_system-java-natives | 1,1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1,1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1,1 |
com.github.luben | zstd-jni | 1.5.2-1 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | tink | 1.6.1 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.0.204 |
com.helger | profiler | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.ning | compress-lzf | 1,1 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 2.2.1 |
dev.ludovic.netlib | blas | 2.2.1 |
dev.ludovic.netlib | lapack | 2.2.1 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0,21 |
io.delta | delta-sharing-spark_2.12 | 0.6.2 |
io.dropwizard.metrics | metrics-core | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metrics-healthchecks | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | metrics-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | metrics-servlets | 4.1.1 |
io.netty | netty-all | 4.1.74.Final |
io.netty | netty-buffer | 4.1.74.Final |
io.netty | netty-codec | 4.1.74.Final |
io.netty | netty-common | 4.1.74.Final |
io.netty | netty-handler | 4.1.74.Final |
io.netty | netty-resolver | 4.1.74.Final |
io.netty | netty-tcnative-classes | 2.0.48.Final |
io.netty | netty-transport | 4.1.74.Final |
io.netty | netty-transport-classes-epoll | 4.1.74.Final |
io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-unix-common | 4.1.74.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | coletor | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | activation | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1,1 |
javax.transaction | transaction-api | 1,1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.13 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | pickle | 1,2 |
net.sf.jpam | jpam | 1,1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.22 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.8 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | arrow-format | 7.0.0 |
org.apache.arrow | arrow-memory-core | 7.0.0 |
org.apache.arrow | arrow-memory-netty | 7.0.0 |
org.apache.arrow | arrow-vector | 7.0.0 |
org.apache.avro | avro | 1.11.0 |
org.apache.avro | avro-ipc | 1.11.0 |
org.apache.avro | avro-mapred | 1.11.0 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | curator-client | 2.13.0 |
org.apache.curator | curator-framework | 2.13.0 |
org.apache.curator | curator-recipes | 2.13.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-api | 3.3.4-databricks |
org.apache.hadoop | hadoop-client-runtime | 3.3.4 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.14 |
org.apache.ivy | ivy | 2.5.0 |
org.apache.logging.log4j | log4j-1.2-api | 2.18.0 |
org.apache.logging.log4j | log4j-api | 2.18.0 |
org.apache.logging.log4j | log4j-core | 2.18.0 |
org.apache.logging.log4j | log4j-slf4j-impl | 2.18.0 |
org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
org.apache.orc | orc-core | 1.7.6 |
org.apache.orc | orc-mapreduce | 1.7.6 |
org.apache.orc | orc-shims | 1.7.6 |
org.apache.parquet | parquet-column | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-common | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-encoding | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-format-structures | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-hadoop | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-jackson | 1.12.3-databricks-0002 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.20 |
org.apache.yetus | audience-annotations | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.6.2 |
org.apache.zookeeper | zookeeper-jute | 3.6.2 |
org.checkerframework | checker-qual | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-continuation | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-plus | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-proxy | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-security | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-server | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-webapp | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-api | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-client | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-common | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-server | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.46.v20220331 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.36 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.36 |
org.glassfish.jersey.core | jersey-client | 2.36 |
org.glassfish.jersey.core | jersey-common | 2.36 |
org.glassfish.jersey.core | jersey-server | 2.36 |
org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
org.hibernate.validator | hibernate-validator | 6.1.0.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | annotations | 17.0.0 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 1.27.0 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.3 |
org.roaringbitmap | RoaringBitmap | 0.9.25 |
org.roaringbitmap | shims | 0.9.25 |
org.rocksdb | rocksdbjni | 6.24.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.14 |
org.scala-lang | scala-library_2.12 | 2.12.14 |
org.scala-lang | scala-reflect_2.12 | 2.12.14 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1,0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1,2 |
org.scalanlp | breeze_2.12 | 1,2 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.36 |
org.slf4j | jul-to-slf4j | 1.7.36 |
org.slf4j | slf4j-api | 1.7.36 |
org.spark-project.spark | unused | 1.0.0 |
org.threeten | threeten-extra | 1.5.0 |
org.tukaani | xz | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | macro-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1,24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |