Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 17.2, desenvolvido pelo Apache Spark 4.0.0.
O Azure Databricks lançou esta versão em setembro de 2025.
Novos recursos e melhorias
- LIKE suporta ordenação UTF8_LCASE
-
st_exteriorringagora é suportada -
Mostrar detalhes de pushdown e
EXPLAINSpark UI para verificações remotas -
Declarar várias variáveis locais ou de sessão em uma única
DECLAREinstrução -
Palavra-chave de suporte
TEMPORARYpara criação de visualização métrica - Suporte a comandos adicionais com controle de acesso refinado
-
Substitua seletiva e atomicamente os dados por
INSERT REPLACE USINGeINSERT REPLACE ON(GA) -
Usar E/S nativas para
LokiFileSystem.getFileStatusno S3 - Modo ANSI ativado por padrão para a API Pandas no Spark
-
O Auto Loader infere as colunas de partição no modo
singleVariantColumn
LIKE suporta a ordenação UTF8_LCASE
O LIKE operador agora suporta a ordenação UTF8_LCASE, permitindo a correspondência sem diferenciação entre maiúsculas e minúsculas.
st_exteriorring agora é suportada
Agora você pode usar a função para extrair o st_exteriorring limite externo de um polígono e retorná-lo como uma cadeia de caracteres. Consulte a função st_exteriorring.
Mostrar detalhes de pushdown e EXPLAIN Spark UI para verificações remotas
O comando e a EXPLAIN interface do usuário do Spark para RemoteSparkConnectScan computação dedicada agora exibem predicados, agregações, agrupar por cláusulas, limites e amostras que são empurrados para baixo na verificação remota.
Declarar várias variáveis locais ou de sessão em uma única DECLARE instrução
No Databricks Runtime 17.2 e superior, você pode declarar várias variáveis locais ou de sessão do mesmo tipo e valor padrão em uma única DECLARE instrução. Consulte DECLARE VARIABLE e BEGIN END declaração composta.
Palavra-chave de suporte TEMPORARY para criação de visualização métrica
Agora você pode usar a TEMPORARY palavra-chave ao criar uma exibição métrica. As exibições métricas temporárias são visíveis somente na sessão que as criou e são descartadas quando a sessão termina. Consulte CREATE VIEW.
Suporte a comandos adicionais com controle de acesso refinado
O controle de acesso refinado em computação dedicada agora suporta os FSCK REPAIR TABLE comandos e DESCRIBE DETAIL .
Substitua seletiva e atomicamente os dados por INSERT REPLACE USING e INSERT REPLACE ON (GA)
INSERT REPLACE USING e INSERT REPLACE ON agora estão disponíveis para o Databricks Runtime 17.2. Ambos os comandos SQL substituem parte da tabela pelo resultado de uma consulta.
INSERT REPLACE USING substitui linhas quando as USING colunas são comparadas iguais em igualdade.
INSERT REPLACE ON Substitui linhas quando elas correspondem a uma condição definida pelo usuário.
Consulte INSERT na referência da linguagem SQL e Sobrepor dados seletivamente no Delta Lake.
Usar E/S nativas para LokiFileSystem.getFileStatus no S3
LokiFileSystem.getFileStatus agora usa a pilha de E/S nativa para o tráfego do Amazon S3 e retorna org.apache.hadoop.fs.FileStatus objetos em vez de shaded.databricks.org.apache.hadoop.fs.s3a.S3AFileStatus.
Modo ANSI ativado por padrão para a API Pandas no Spark
ANSI_MODE agora está habilitado por padrão para a API Pandas no Spark com compute.ansi_mode_support=True, o que garante a paridade de conformidade ANSI com pandas nativos. A compute.fail_on_ansi_mode opção ainda se aplica se compute.ansi_mode_support estiver definida como False.
O Auto Loader infere as colunas de partição no modo singleVariantColumn
O Auto Loader agora infere colunas de partição a partir de caminhos de ficheiros ao ingerir dados como um tipo de variante semiestruturada usando a opção singleVariantColumn. Anteriormente, as colunas de partição não eram detetadas automaticamente. Consulte Opções do carregador automático.
Mudanças comportamentais
-
DESCRIBE CONNECTIONmostra as configurações de ambiente para conexões JDBC - Opção para truncar o histórico uniforme durante a migração de tabelas gerenciadas
- Sintaxe SQL para opções de leitura Delta em consultas de streaming
-
Resultados corretos para
splitcom regex vazio e limite positivo -
Correção
url_decodeetry_url_decodetratamento de erros no Photon - Ambiente de execução compartilhado para UDTFs Python do Unity Catalog
- Rastreamento de linhas habilitado por padrão para novas tabelas
- TABLE suporte de argumentos para Python UDTFs do Unity Catalog
DESCRIBE CONNECTION mostra as configurações de ambiente para conexões JDBC
O Azure Databricks agora inclui configurações de ambiente definidas pelo DESCRIBE CONNECTION usuário na saída para conexões JDBC que dão suporte a drivers personalizados e são executadas isoladamente. Outros tipos de conexão permanecem inalterados.
Opção para truncar o histórico uniforme durante a migração de tabelas gerenciadas
Agora você pode truncar o histórico uniforme ao migrar tabelas com Uniforme/Iceberg habilitado usando ALTER TABLE...SET MANAGEDo . Isso simplifica as migrações e reduz o tempo de inatividade em comparação com a desativação e reativação manual do Uniforme.
Sintaxe SQL para opções de leitura Delta em consultas de streaming
Agora você pode especificar opções de leitura Delta para consultas de streaming baseadas em SQL usando a WITH cláusula. Por exemplo:
SELECT * FROM STREAM tbl WITH (SKIPCHANGECOMMITS=true, STARTINGVERSION=X);
Resultados corretos para split com regex vazio e limite positivo
O Azure Databricks agora retorna resultados corretos ao usar split function com um regex vazio e um limite positivo. Anteriormente, a função truncava incorretamente a cadeia de caracteres restante em vez de incluí-la no último elemento.
Correção url_decode e try_url_decode tratamento de erros no Photon
Em Photon, try_url_decode() e url_decode() com failOnError = false agora retornar NULL para cadeias de caracteres codificadas por URL inválidas em vez de falhar na consulta.
Ambiente de execução compartilhado para UDTFs Python do Unity Catalog
O Azure Databricks agora compartilha o ambiente de execução para UDTFs (funções de tabela definidas pelo usuário) do Python do mesmo proprietário e da sessão do Spark. Uma cláusula opcional STRICT ISOLATION está disponível para desabilitar o compartilhamento de UDTFs com efeitos colaterais, como modificar variáveis de ambiente ou executar código arbitrário.
Rastreamento de linhas habilitado por padrão para novas tabelas
O Azure Databricks agora habilita o rastreamento de linhas por padrão para todas as tabelas gerenciadas do Unity Catalog recém-criadas. As tabelas existentes não são afetadas e mantêm suas configurações atuais de rastreamento de linha.
TABLE suporte a argumentos para UDTFs Python do Unity Catalog
Os UDTFs Python do Unity Catalog suportam TABLE argumentos, possibilitando que as funções aceitem tabelas inteiras como parâmetros de entrada e permitindo transformações e agregações de dados mais complexas em conjuntos de dados estruturados. Consulte Funções de tabela definidas pelo usuário (UDTFs) do Python no Unity Catalog. (Backported de 17.3 LTS).
Atualizações da biblioteca
Bibliotecas Python atualizadas:
Nenhuma biblioteca Python foi atualizada nesta versão.
Bibliotecas R atualizadas:
Nenhuma biblioteca R foi atualizada nesta versão.
Bibliotecas Java atualizadas:
- io.delta.delta-sharing-client_2.13 de 1.3.3 a 1.3.5
Apache Spark
O Databricks Runtime 17.2 inclui o Apache Spark 4.0.0. Esta versão inclui todas as correções e melhorias do Spark incluídas na versão 17.1, bem como as seguintes correções de bugs adicionais e melhorias feitas no Spark:
-
Faísca-53183 Use Java
Files.readStringem vez deo.a.s.sql.catalyst.util.fileToString - Faísca-51817 Reintroduza campos ansiConfig em messageParameters de CAST_INVALID_INPUT e CAST_OVERFLOW
- Faísca-53124 Prune campos desnecessários de JsonTuple
- Faísca-53106 Adicionar testes de evolução de esquema para suítes TWS Scala spark connect
-
Faísca-53201 Utilizar
SparkFileUtils.contentEqualsem vez deFiles.equal - Faísca-53308 Não remova aliases em RemoveRedundantAliases que causariam duplicatas
-
Faísca-53241 Apoio
createArrayemSparkCollectionUtils -
Faísca-53239 Melhorar
MapSorteSortArraymelhorar o desempenho através deparallelSort - Faísca-53184 Corrigir melt() quando as colunas de valor misturam cadeias de caracteres e números
- Faísca-53144 Torne o CreateViewCommand no SparkConnectPlanner livre de efeitos colaterais
- Faísca-53303 Use o codificador de estado vazio quando o estado inicial não for fornecido no TWS
- Faísca-52917 Suporte de leitura para habilitar a viagem de ida e volta para binário em formato xml
- FAÍSCA-53110 Implementar a função time_trunc no PySpark
- Faísca-53107 Implementar a função time_trunc no Scala
- Faísca-52146 Detetar referências de função cíclica em UDFs SQL
- Faísca-52469 Use a API JEP 223 para processar a versão Java
- Faísca-53094 Corrigir CUBE com agregado contendo HAVING cláusulas
- FAÍSCA-51874 Adicionar TypedConfigBuilder para enumeração Scala
- Faísca-53287 Adicionar Guia de Migração ANSI
- Faísca-43100 As métricas de embaralhamento baseado em push devem ser desserializadas corretamente
- Faísca-53045 DESCRIBE EXTENDED deve ser resiliente a metadados corrompidos
-
Faísca-53114 Apoio
joinemJavaUtils - Faísca-53297 Corrigir StreamingTable Declarative Pipelines API docstring
- Faísca-53181 Habilitar testes de documentos em ANSI
- Faísca-52482 Melhorar o tratamento de exceções para ler certos arquivos zstd corrompidos
-
Faísca-52990 Suporte
StringSubstitutor - FAÍSCA-51874 Adicionar TypedConfigBuilder para enumeração Scala
-
Faísca-53169 Remover comentários relacionados a "
Set the logger level of File Appender to" delog4j2.properties -
Faísca-53080 Apoio
cleanDirectoryemSparkFileUtilseJavaUtils - Faísca-53045 DESCRIBE EXTENDED deve ser resiliente a metadados corrompidos
-
Faísca-53000 Renomear
StringUtils.scalaparaStringConcat.scalanosql/apimódulo - Faísca-52952 Adicionar PySpark UDF Tipo Coercion Dev Script
- Faísca-52998 Várias variáveis dentro da declaração
- Faísca-51817 Reintroduza campos ansiConfig em messageParameters de CAST_INVALID_INPUT e CAST_OVERFLOW
- Faísca-52820 Capture planos completos em arquivos dourados
- Faísca-53274 Suporte pushdown de junção esquerda e direita no JDBCScanBuilder
- Faísca-52110 Implementar suporte à sintaxe SQL para pipelines
- Faísca-52950 Ativar o modo ANSI no DataSourceV2StrategySuite
- FAÍSCA-52947 Corrigir caminho da imagem no guia de programação de pipelines declarativos
- Faísca-52592 Suporte a criação de um ps. Série de um ps. Série
- Faísca-53301 Diferenciar dicas de tipo de Pandas UDF e Arrow UDF
- Faísca-53146 Torne o MergeIntoTable no SparkConnectPlanner livre de efeitos secundários
-
Faísca-53166 Uso
SparkExitCode.EXIT_FAILUREnoSparkPipelinesobjeto - Faísca-53288 Corrigir erro de asserção com limite global de streaming
- FAÍSCA-52394 Corrigir erro de divisão por zero do autocorr no modo ANSI
- Faísca-51555 Adicionar a função time_diff()
- Faísca-52948 Habilitar test_np_spark_compat_frame em ANSI
- FAÍSCA-53134 Limpar importações ANSI não utilizadas em testes
-
Faísca-52593 Evite CAST_INVALID_INPUT de
MultiIndex.to_serieseSeries.dotDataFrame.dotno modo ANSI - Faísca-53291 Corrigir a anulabilidade da coluna de valor
- Faísca-53097 Torne WriteOperationV2 no SparkConnectPlanner livre de efeitos colaterais
- Faísca-53305 Suporte TimeType em createDataFrame
-
Faísca-52914 Suporte
On-Demand Log Loadingpara rolagem de logsHistory Server - Faísca-33538 Empurre diretamente os predicados IN/NOT para o Hive Metastore
-
Faísca-52849 Adicionar
stringifyExceptionao.a.s.util.Utils -
Faísca-52771 Corrigir alargamento do tipo float32
truediv/floordiv - Faísca-52502 Visão geral da contagem de threads
- Faísca-52788 Corrigir erro de conversão de valor binário em BinaryType para XML
-
Faísca-53123 Apoio
getRootCauseemSparkErrorUtils -
Faísca-53129 Melhorar
SparkShellpara importarjava.net._por padrão -
Faísca-53061 Apoio
copyFileToDirectoryemSparkFileUtils - FAÍSCA-52683 Suporte ExternalCatalog alterTableSchema
-
Faísca-52871 Mesclar
o.a.s.sql.catalyst.util.SparkStringUtilsparao.a.s.util.SparkStringUtils -
Faísca-52817 Corrigir
Likeo desempenho da expressão - Faísca-52545 Padronizar a fuga de aspas duplas para seguir a especificação SQL
-
Faísca-52711 Corrigir alargamento do tipo float32 em
mul/rmulANSI - Faísca-52615 Substitua File.mkdirs por Utils.createDirectory
- Faísca-52381 JsonProtocol: Só aceita subclasses de SparkListenerEvent
- Faísca-52613 Restaure a impressão de rastreamento de pilha completa quando HBase/Hive DelegationTokenProvider atingir a exceção
- Faísca-52651 Manipular tipo definido pelo usuário em ColumnVector aninhado
- Faísca-52611 Corrija a versão do SQLConf para excludeSubqueryRefsFromRemoveRedundantAliases...
- Faísca-52552 Ignorar imposição de restrição CHECK para exclusões de vetor de exclusão
-
SPARK-52587 spark-shell 2.13 parâmetro de suporte
-i-I - Faísca-52492 Torne InMemoryRelation.convertToColumnarIfPossible personalizável
- Faísca-52451 Torne WriteOperation no SparkConnectPlanner livre de efeitos colaterais
- Faísca-53272 Refatore a lógica de pushdown do SPJ do BatchScanExec
-
Faísca-53071 Apoio
copyFileemSparkFileUtils - Faísca-51415 Suporte o tipo de tempo por make_timestamp()
- Faísca-51554 Adicionar a função time_trunc()
- Faísca-52426 Suporte ao redirecionamento stdout/stderr para o sistema de registro em log
- FAÍSCA-51834 Ofereça suporte ao gerenciamento completo de restrições de tabela
- Faísca-53063 Implementar e chamar novas APIs no FileCommitProtocol em vez do preterido
- SPARK-52546 verifique sparkContext se parou ao executar o bloco de código catch em execute(), caso contrário, ele retornará o estado errado.
-
Faísca-53023 Remover
commons-iodependência dosql/apimódulo - Faísca-52396 O diretório raiz do artefato deve usar tmpdir
-
Faísca-53131 Melhorar
SparkShellpara importarjava.nio.file._por padrão - Faísca-42322 Atribuir nome to_LEGACY_ERROR_TEMP_2235
- FAÍSCA-51834 Ofereça suporte ao gerenciamento completo de restrições de tabela
- FAÍSCA-52484 Ignorar child.supportsAsserção colunar do lado do driver em ColumnarToRowExec
- Faísca-52384 Corrigir bug Connect deve insensível para opções JDBC
- FAÍSCA-52034 Adicionar métodos comuns no traço SparkOperation para operações thriftserver
-
Faísca-53031 Apoio
getFileemSparkFileUtils - Faísca-52976 Corrigir Python UDF não aceitar seqüência agrupada como parâmetro de entrada/tipo de retorno (17.x)
- FAÍSCA-52943 Ativar arrow_cast para todos os tipos de pandas UDF eval
- Faísca-53263 Suporte TimeType em df.toArrow
- Faísca-53141 Adicionar APIs para obter o tamanho da memória aérea e o tamanho da memória offheap do perfil do recurso
- Faísca-53259 Corrigir a mensagem para INVALID_UDF_EVAL_TYPE
- Faísca-53167 Spark launcher isRemote também respeita o arquivo de propriedades
-
Faísca-53165 Adicionar
SparkExitCode.CLASS_NOT_FOUND - Faísca-53171 Melhoria UTF8String repetir
-
Faísca-53170 Melhorar
SparkUserAppExceptionpara tercauseparâmetro - Faísca-52989 Adicionar API close() explícita aos iteradores do Repositório de Estado
- Faísca-53074 Evite agrupamentos parciais no SPJ para atender à distribuição necessária de uma criança
- Faísca-52252 Os codificadores ScalaUDF na subconsulta devem ser resolvidos
- Faísca-53244 Não armazene confs habilitados para execução dupla e modo provisório habilitados durante a criação do modo de exibição
- Faísca-53192 Sempre armazene em cache uma fonte de dados no cache do plano do Spark Connect
- Faísca-51813 Adicione um DefaultCachedBatchKryoSerializer não anulável para evitar a propagação nula no serde DefaultCachedBatch
- FAÍSCA-52904 Reaplicar "[SC-202233][python] Ativar convertToArrowArrayS...
-
Faísca-53253 Corrigir registro UDF do tipo
SQL_SCALAR_ARROW_ITER_UDF - FAÍSCA-53243 Listar os tipos de eval suportados em nós de seta
-
Faísca-53130 Corrigir
toJsono comportamento de tipos de cadeia de caracteres agrupados -
FAÍSCA-53003 Apoio
stripemSparkStringUtils - Faísca-51902 Sync OSS: imponha restrições de verificação na inserção da tabela
- Faísca-52047 Aumentar PySparkValueError para tipos de plotagem não suportados
-
Faísca-53004 Apoio
abbreviateemSparkStringUtils - Faísca-53066 Melhorar a EXPLAIN saída para DSv2 Join pushdown
- FAÍSCA-30848 Remover productHash do TreeNode
-
Faísca-53046 Use Java
readAllBytesem vez deIOUtils.toByteArray -
Faísca-53206 Utilizar
SparkFileUtils.moveem vez decom.google.common.io.Files.move - Faísca-53066 Melhorar a EXPLAIN saída para DSv2 Join pushdown
- Faísca-53069 Corrigir métricas de armazenamento de estado incorretas com famílias de colunas virtuais
- FAÍSCA-52904 Ativar convertToArrowArraySafely por padrão [17.x]
- SPARK-52821 adicionar int-DecimalType> pyspark udf retorno tipo coerção
-
Faísca-51562 Adicionar
timefunção - Faísca-52971 Limitar o tamanho da fila de trabalho Python ocioso
-
Faísca-53057 Apoio
sizeOfemSparkFileUtilseJavaUtils - Faísca-53040 Banir autorreferências dentro de CTEs superiores em CTEs recursivos
- Faísca-53104 Introduza ansi_mode_context para evitar várias verificações de configuração por chamada de API
-
FAÍSCA-47547 Adicionar
BloomFilterV2 e usá-lo como padrão -
Faísca-53098
DeduplicateRelationsnão deve remapear expressões se o antigoExprIdainda existir na saída -
Faísca-53049 Apoio
toStringemSparkStreamUtils -
Faísca-53062 Apoio
deleteQuietlyemSparkFileUtilseJavaUtils -
Faísca-53070 Apoio
is(Not)?EmptyemSparkCollectionUtils - Faísca-53020 JPMS args também deve se aplicar ao processo não-SparkSubmit
- FAÍSCA-52968 Emita métricas adicionais de armazenamento de estado
- Faísca-52975 Simplifique os nomes de campo no pushdown join sql
- FAÍSCA-52926 Adicionado SQLMetric para a duração do tempo de busca de esquema remoto.
- Faísca-53059 Seta UDF não precisa depender de pandas
-
Faísca-52646 Evite CAST_INVALID_INPUT de
__eq__no modo ANSI -
Faísca-52622 Evite CAST_INVALID_INPUT de
DataFrame.meltno modo ANSI - Faísca-52985 Raise TypeError para operando numpy pandas em operadores de comparação
-
Faísca-52580 Evite CAST_INVALID_INPUT de
replaceno modo ANSI - Faísca-52549 Desativar autorreferências CTE recursivas de funções de janela e classificações internas
-
Faísca-52895 Não adicione elementos duplicados em
resolveExprsWithAggregate - FAÍSCA-50748 Corrigir um problema de condição de corrida que acontece quando as operações são interrompidas
- Faísca-52737 Predicado de pushdown e número de aplicativos para FsHistoryProvider ao listar aplicativos
- Faísca-53018 ArrowStreamArrowUDFSerializer deve respeitar o argumento arrow_cast
- Faísca-53013 Corrigir UDTF Python otimizado para seta que não retorna linhas na junção lateral
- FAÍSCA-51834 Sync OSS: suporte a restrição de tabela de ponta a ponta alterar restrição de adicionar/soltar
- Faísca-52921 Especifique outputPartitioning para UnionExec para a mesma partitoning de saída que os operadores filhos
- Faísca-52908 Impedir que o nome da variável iteradora entre em conflito com nomes de rótulos no caminho para a raiz do AST
- Faísca-52954 Seta UDF suporta coerção do tipo de retorno
- Faísca-52925 Retornar mensagem de erro correta para autorreferências de âncora em rCTEs
- Faísca-52889 Implementar a função current_time no PySpark
- Faísca-52675 Interromper manipuladores de ML suspensos em testes
- Faísca-52959 Suporte UDT em Python UDTF otimizado para seta
- Faísca-52962 BroadcastExchangeExec não deve redefinir métricas
- Faísca-52956 Preservar metadados de alias ao recolher projetos
- Faísca-52890 Implementar as funções to_time e try_to_time no PySpark
- Faísca-52888 Implementar a função make_time no PySpark
- Faísca-52892 Suporte TIME nas funções de hora, minuto e segundo no PySpark
- Faísca-52837 Suporte TimeType no pyspark
- FAÍSCA-52023 Corrigir corrupção de dados / segfault retornando Option[Product] do udaf
- Faísca-52955 Altere os tipos de retorno de WindowResolution.resolveOrder e WindowResolution.resolveFrame para WindowExpression
- Faísca-52166 Adicionar suporte para PipelineEvents
- FAÍSCA-51834 Correção: remover válido de toDDL
- Faísca-52735 Corrigir condições de erro ausentes para UDFs SQL
- FAÍSCA-51834 Suporte a OSS de sincronização de ponta a ponta para criar/substituir tabela com restrição
- FAÍSCA-51834 Sincronizar atualização OSS ResolvedIdentifier cancelar a aplicação de chamadas
- Faísca-52929 Suporte MySQL e conector SQLServer para DSv2 Join pushdown
- Faísca-52448 Adicionar Struct Expression.Literal simplificado
- FAÍSCA-52882 Implementar a função current_time no Scala
- Faísca-52905 Seta UDF para janela
-
Faísca-52876 Corrigir um erro de digitação
bufferparabodydentroChunkFetchSuccess.toString - Faísca-52883 Implementar as funções to_time e try_to_time no Scala
-
Faísca-52751 Não valide ansiosamente o nome da coluna em
dataframe['col_name'] - Faísca-52791 Corrigir erro ao inferir um UDT com um primeiro elemento nulo
-
Faísca-52686
Uniondeve ser resolvido apenas se não houver duplicatas - Faísca-52881 Implementar a função make_time no Scala
- Faísca-52919 Corrigir pushdown de junção DSv2 para usar a coluna com alias anteriores
-
Faísca-52866 Adicionar suporte para
try_to_date - Faísca-52846 Adicionar uma métrica no JDBCRDD para quanto tempo leva para buscar o conjunto de resultados
- Faísca-52859 Adicionar característica SparkSystemUtils
- Faísca-52823 Suporte DSv2 Join pushdown para conector Oracle
- Faísca-52165 Configurar andaimes de construção para o projeto de pipelines
- Faísca-52869 Adicionar validação FrameLessOffsetWindowFunction para validar ResolvedWindowExpression para reutilização no analisador de passagem única
- FAÍSCA-52885 Implementar as funções de hora, minuto e segundo no Scala para o tipo TIME
- Faísca-52903 Cortar aliases que não sejam de nível superior antes da resolução da LCA
- Faísca-52832 Corrigir citação do identificador de dialeto JDBC
-
Faísca-52870 Citar corretamente nomes de variáveis na
FORinstrução -
Faísca-52859 Adicionar
SparkSystemUtilstraço -
Faísca-52900 Utilização
SparkStringUtils.stringToSeqem seringasFsHistoryProvider - Faísca-52809 Não mantenha referências de leitor e iterador para todas as partições em ouvintes de conclusão de tarefas para atualização de métricas
-
Faísca-52815 Melhorar
SparkClassUtilspara apoiargetAllInterfaces - Faísca-52795 Incluir runId em logs de armazenamento de estado
- Faísca-52779 Suporte TimeType literal no Connect
- Faísca-52899 Corrija o teste QueryExecutionErrorsSuite para registrar H2Dialect de volta
-
FAÍSCA-52862 Corrigir a verificação de anulabilidade de
Decimal('NaN') - Faísca-52214 Seta UDF para agregação
- FAÍSCA-52787 Reorganize o dir de execução de streaming em torno de áreas de tempo de execução e checkpoint
- Faísca-51564 Análise de TEMPO no formato de relógio de 12 horas
-
Faísca-52859 Adicionar
SparkSystemUtilstraço -
Faísca-51562 Adicionar
timefunção - Faísca-52850 Ignorar conversões de chamadas se a função de identidade
- Faísca-52863 Limpar caminhos de código para versões antigas de pandas
- Faísca-52516 Não mantenha a referência do iterador anterior depois de avançar para o próximo arquivo em ParquetPartitionReaderFactory
-
Faísca-52848 Evite transmitir para
Doublena transmissão de TIME/TIMESTAMP para DECIMAL -
Faísca-52770 Tipo de suporte
TIMEno connect proto - Faísca-52842 Nova funcionalidade e correções de bugs para analisador de uma única etapa
- Faísca-52620 Suporte de fundição de TIME para DECIMAL
- Faísca-52783 Janela de refatorLógica de validação de função de checkAnalysis para reutilização no analisador de passagem única
- Faísca-51695 Sincronize OSS criar/substituir/alterar tabela para restrição exclusiva via DSv2
- Faísca-51695 Sincronize a restrição de queda do OSS via DSv2
- Faísca-52824 Classificação de erro do CheckpointFileManager
- Faísca-52829 Corrija LocalDataToArrowConversion.convert para lidar com linhas vazias corretamente
- FAÍSCA-52811 Otimize ArrowTableToRowsConversion.convert para melhorar seu desempenho
- Faísca-52796 Otimize LocalDataToArrowConversion.convert para melhorar seu desempenho
- Faísca-51695 Sincronizar OSS Alterar Tabela Adicionar alterações no analisador de restrições
- Faísca-52619 Cast TimeType para IntegralType
- Faísca-52187 Introduza o pushdown Join para DSv2
- Faísca-52782 Retornar NULL de +/- em datetime com NULL
- Faísca-51695 Introduzir alterações no analisador para restrições de tabela (CHECK, PK, FK)
-
Faísca-52808
spark.history.retainedApplicationsdeve ser positivo - Faísca-52776 Não divida o campo comm em ProcfsMetricsGetter
-
FAÍSCA-52793 Suporte
isUnixnao.a.s.util.Utils -
Faísca-52792 Remover
commons-lang3dependência denetwork-common -
FAÍSCA-52797 Use
Utils.isWindowsem vez de reavaliar emPythonWorkerFactory - Faísca-52784 Adicionar transmissão TimeZoneAware em WindowFrameTypeCoercion.createBoundaryCast
- Faísca-52725 Atrase a inicialização do gerenciador de perfis de recursos até que o plug-in seja carregado
- Faísca-52565 Impor resolução ordinal antes de outras expressões de ordem de classificação
- Faísca-52740 Corrija o NPE no HDFSBackedStateStoreProvider acessando StateStoreConf.sqlConf quando a versão do formato do ponto de verificação for >=2
- Faísca-52673 Adicionar manipulação grpc RetryInfo às políticas de repetição do Spark Connect
- Faísca-52724 Melhore o tratamento de erros OOM de ingresso de transmissão com suporte a dicas SHUFFLE_MERGE
- FAÍSCA-52781 Corrigir erro de digitação de dtyeps no internal.py
- Faísca-52730 Armazenar driver subjacente e versão do banco de dados no JDBCRDD
- Faísca-52727 Refatore a resolução da janela para reutilizá-la no analisador de passagem única
- Faísca-52695 Suporte de gravação de tipo definido pelo usuário para formato de arquivo xml
- Faísca-52722 Depreciar a classe JdbcRDD
- Faísca-51695 Introduzir alterações no analisador para restrições de tabela (CHECK, PK, FK)
- FAÍSCA-52763 Suporte TIME subtrair
- FAÍSCA-52768 Corrigir erro de digitação "mover" em pandas/series.py
- Faísca-52730 Armazenar driver subjacente e versão do banco de dados no JDBCRDD
-
Faísca-52694 Adicionar
o.a.s.sql.Encoders#udtAPI -
FAÍSCA-52720 Corrigir alargamento do tipo float32 em
add/raddANSI - Faísca-52723 Validação do nome da coluna do lado do servidor
-
Faísca-52760 Corrigir alargamento do tipo float32 em
sub/rsubANSI -
FAÍSCA-52738 Suporte agregando o tipo TIME com uma UDAF quando o buffer subjacente é um
UnsafeRow - Faísca-52704 Simplifique as interoperações entre SQLConf e opções de formato de arquivo em TextBasedFileFormats
- Faísca-52706 Corrigir inconsistências e refatorar tipos primitivos no analisador
-
Faísca-52718 Corrigir alargamento do tipo float32 em
rmod/modANSI - FAÍSCA-52736 Corrigir erros de digitação 'movendo' em pyspark/pandas/generic.py
Suporte ao driver ODBC/JDBC do Azure Databricks
O Azure Databricks suporta drivers ODBC/JDBC lançados nos últimos 2 anos. Faça o download dos drivers lançados recentemente e atualize (baixe ODBC, baixe JDBC).
Ambiente do sistema
- Sistema Operacional: Ubuntu 24.04.3 LTS
- Java: Zulu17.58+21-CA
- Escala: 2.13.16
- Píton: 3.12.3
- R: 4.4.2
- Lago Delta: 4.0.0
Bibliotecas Python instaladas
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| tipos com anotações | 0.7.0 | anyio | 4.6.2 | Argão2-CFFI | 21.3.0 |
| argon2-cffi-vinculações | 21.2.0 | seta | 1.3.0 | AstTokens | 2.0.5 |
| "Astunparse" | 1.6.3 | Async-LRU | 2.0.4 | Atributos | 24.3.0 |
| Comando automático | 2.2.2 | azure-common | 1.1.28 | azure-core | 1.34.0 |
| azure-identity (serviços de identidade do Azure) | 1.20.0 | azure-mgmt-core | 1.5.0 | azure-mgmt-web | 8.0.0 |
| Azure Storage Blob | 12.23.0 | Armazenamento de Ficheiros Azure Data Lake | 12.17.0 | Babel | 2.16.0 |
| backports.tarfile | 1.2.0 | BeautifulSoup4 | 4.12.3 | preto | 24.10.0 |
| lixívia | 6.2.0 | pisca | 1.7.0 | boto3 | 1.36.2 |
| Botocore | 1.36.3 | Ferramentas de cache | 5.5.1 | certifi | 2025.1.31 |
| cffi | 1.17.1 | Chardet | 4.0.0 | Normalizador de Charset | 3.3.2 |
| clicar | 8.1.7 | Cloudpickle | 3.0.0 | Comunicação | 0.2.1 |
| contorno | 1.3.1 | criptografia | 43.0.3 | ciclista | 0.11.0 |
| Cython | 3.0.12 | Databricks-SDK | 0.49.0 | dbus-python | 1.3.2 |
| debugpy | 1.8.11 | decorador | 5.1.1 | defusedxml | 0.7.1 |
| Deprecated | 1.2.13 | Distlib | 0.3.9 | convertendo docstring em markdown | 0.11 |
| executar | 0.8.3 | facetas-visão geral | 1.1.1 | fastapi | 0.115.12 |
| fastjsonschema (biblioteca para validação rápida de esquemas JSON) | 2.21.1 | bloqueio de arquivo | 3.18.0 | Fonttools | 4.55.3 |
| FQDN (Nome de Domínio Completo) | 1.5.1 | fsspec | 2023.5.0 | GitDB | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.20.0 | Google-Auth (Autenticação) | 2.40.0 |
| Google Cloud Core | 2.4.3 | google-armazenamento-em-nuvem | 3.1.0 | Google-CRC32C | 1.7.1 |
| google-media-reutilizável | 2.7.2 | googleapis-common-protos | 1.65.0 | Grpcio | 1.67.0 |
| grpcio-status | 1.67.0 | h11 | 0.14.0 | httpcore | 1.0.2 |
| httplib2 | 0.20.4 | httpx | 0.27.0 | IDNA | 3.7 |
| importlib-metadata | 6.6.0 | importlib_resources | 6.4.0 | flexionar | 7.3.1 |
| iniconfig | 1.1.1 | ipyflow-core | 0.0.209 | Ipykernel | 6.29.5 |
| IPython | 8.30.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.8.1 |
| isodate | 0.6.1 | isoduração | 20.11.0 | jaraco.context | 5.3.0 |
| jaraco.functools | 4.0.1 | jaraco.text | 3.12.1 | Jedi | 0.19.2 |
| Jinja2 | 3.1.5 | jmespath | 1.0.1 | Joblib | 1.4.2 |
| JSON5 | 0.9.25 | jsonpointer | 3.0.0 | jsonschema | 4.23.0 |
| jsonschema-especificações | 2023.7.1 | Jupyter-Eventos | 0.10.0 | Jupyter-LSP | 2.2.0 |
| jupyter_client | 8.6.3 | jupyter_core | 5.7.2 | jupyter_servidor | 2.14.1 |
| jupyter_server_terminals | 0.4.4 | Jupyterlab | 4.3.4 | JupyterLab-Pygments | 0.1.2 |
| jupyterlab-widgets | 1.0.0 | jupyterlab_server | 2.27.3 | kiwisolver | 1.4.8 |
| launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 | lazr.uri | 1.0.6 |
| markdown-it-py | 2.2.0 | MarkupSafe | 3.0.2 | Matplotlib | 3.10.0 |
| matplotlib-inline | 0.1.7 | Mccabe | 0.7.0 | mdurl | 0.1.0 |
| Mistune | 2.0.4 | mlflow-skinny | 3.0.1 | MMH3 | 5.1.0 |
| more-itertools | 10.3.0 | MSAL | 1.32.3 | MSAL-extensões | 1.3.1 |
| mypy extensions | 1.0.0 | nbclient | 0.8.0 | nbconvert | 7.16.4 |
| nbformat | 5.10.4 | nest-asyncio | 1.6.0 | nodeenv | 1.9.1 |
| bloco de notas | 7.3.2 | notebook_shim | 0.2.3 | numpy | 2.1.3 |
| OAuthlib | 3.2.2 | OpenTelemetry API | 1.32.1 | OpenTelemetry SDK | 1.32.1 |
| Convenções Semânticas de OpenTelemetry | 0,53b1 | sobrescrições | 7.4.0 | embalagem | 24,2 |
| pandas | 2.2.3 | PandocFilters | 1.5.0 | Parso | 0.8.4 |
| PathSpec | 0.10.3 | vítima | 1.0.1 | pexpect | 4.8.0 |
| almofada | 11.1.0 | pip (o gestor de pacotes do Python) | 25.0.1 | platformdirs | 3.10.0 |
| enredo | 5.24.1 | Pluggy | 1.5.0 | prometheus_client | 0.21.0 |
| kit de ferramentas de prompt | 3.0.43 | Proto-Plus | 1.26.1 | Protobuf | 5.29.4 |
| psutil | 5.9.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
| puro-eval | 0.2.2 | Pyarrow | 19.0.1 | pyasn1 | 0.4.8 |
| pyasn1-módulos | 0.2.8 | pyccolo | 0.0.71 | Pycparser | 2.21 |
| Pidântico | 2.10.6 | pydantic_core | 2.27.2 | Pyflakes | 3.2.0 |
| Pigmentos | 2.15.1 | PyGObject | 3.48.2 | pyiceberg | 0.9.0 |
| PyJWT | 2.10.1 | pyodbc | 5.2.0 | pyparsing | 3.2.0 |
| Pyright | 1.1.394 | Pytest | 8.3.5 | python-dateutil (uma biblioteca de software para manipulação de datas em Python) | 2.9.0.post0 |
| python-json-logger | 3.2.1 | python-lsp-jsonrpc | 1.1.2 | python-lsp-servidor | 1.12.0 |
| pytoolconfig | 1.2.6 | Pytz | 2024.1 | PyYAML | 6.0.2 |
| Pyzmq | 26.2.0 | referenciação | 0.30.2 | pedidos | 2.32.3 |
| rfc3339-verificador | 0.1.4 | rfc3986-validador | 0.1.1 | rico | 13.9.4 |
| corda | 1.12.0 | rpds-py | 0.22.3 | RSA | 4.9.1 |
| s3transfer | 0.11.3 | scikit-learn (biblioteca de aprendizado de máquina em Python) | 1.6.1 | SciPy | 1.15.1 |
| nascido no mar | 0.13.2 | Send2Trash | 1.8.2 | Ferramentas de configuração | 74.0.0 |
| seis | 1.16.0 | smmap | 5.0.0 | sniffio | 1.3.0 |
| contentores classificados | 2.4.0 | Coador de sopa | 2.5 | SQLPARSE | 0.5.3 |
| ssh-import-id | 5.11 | stack-data | 0.2.0 | Starlette | 0.46.2 |
| statsmodels (uma biblioteca de Python para modelos estatísticos) | 0.14.4 | strictyaml | 1.7.3 | tenacidade | 9.0.0 |
| terminado | 0.17.1 | Threadpoolctl | 3.5.0 | tinycss2 | 1.4.0 |
| tokenize_rt | 6.1.0 | Tomli | 2.0.1 | tornado | 6.4.2 |
| traitlets | 5.14.3 | Protetor de Tipografia | 4.3.0 | tipos-python-dateutil | 2.9.0.20241206 |
| typing_extensions (extensões de digitação) | 4.12.2 | tzdata | 2024.1 | Ujson | 5.10.0 |
| Atualizações não supervisionadas | 0.1 | uri-modelo | 1.3.0 | urllib3 | 2.3.0 |
| uvicorn | 0.34.2 | virtualenv | 20.29.3 | wadllib | 1.3.6 |
| wcwidth | 0.2.5 | Webcolors | 24.11.1 | codificações da web | 0.5.1 |
| Websocket-cliente | 1.8.0 | whatthepatch (ferramenta para comparação de patches) | 1.0.2 | wheel | 0.45.1 |
| widgetsnbextension | 3.6.6 | embrulhado | 1.17.0 | Yapf | 0.40.2 |
| zipp | 3.21.0 |
Bibliotecas R instaladas
As bibliotecas R são instaladas a partir da versão instantânea do CRAN do Posit Package Manager em 2025-03-20.
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| seta | 19.0.1 | AskPass | 1.2.1 | asserir que | 0.2.1 |
| Retroportagens | 1.5.0 | base | 4.4.2 | base64enc | 0.1-3 |
| bigD | 0.3.0 | pouco | 4.6.0 | bit-64 | 4.6.0-1 |
| Bitops | 1.0-9 | blob | 1.2.4 | inicialização | 1.3-30 |
| fabricação de cerveja | 1.0-10 | vigor | 1.1.5 | vassoura | 1.0.7 |
| bslib | 0.9.0 | cachemira | 1.1.0 | Chamador | 3.7.6 |
| caret | 7.0-1 | CellRanger | 1.1.0 | crono | 2.3-62 |
| classe | 7.3-22 | CLI | 3.6.5 | Clipr | 0.8.0 |
| relógio | 0.7.2 | cluster | 2.1.6 | CodeTools | 0.2-20 |
| espaço de cores | 2.1-1 | marca comum | 1.9.5 | compilador | 4.4.2 |
| Configurações | 0.3.2 | conflituoso | 1.2.0 | cpp11 | 0.5.2 |
| lápis de cor | 1.5.3 | credenciais | 2.0.2 | encaracolar | 6.4.0 |
| tabela de dados | 1.17.0 | conjuntos de dados | 4.4.2 | DBI | 1.2.3 |
| DBPlyr | 2.5.0 | descrição | 1.4.3 | DevTools | 2.4.5 |
| diagrama | 1.6.5 | diffobj | 0.3.5 | resumo | 0.6.37 |
| Iluminação reduzida | 0.4.4 | DPLYR | 1.1.4 | DTPlyr | 1.3.1 |
| e1071 | 1.7-16 | reticências | 0.3.2 | avaliar | 1.0.3 |
| Fansi | 1.0.6 | cores | 2.1.2 | mapa rápido | 1.2.0 |
| fontawesome | 0.5.3 | forçados | 1.0.0 | foreach | 1.5.2 |
| estrangeiro/a | 0.8 a 86 | forjar | 0.2.0 | fs | 1.6.5 |
| Futuro | 1.34.0 | futuro.apply | 1.11.3 | gargarejo | 1.5.2 |
| genérico | 0.1.4 | Gert | 2.1.4 | ggplot2 | 3.5.1 |
| gh | 1.4.1 | Git2R | 0.35.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | Globais | 0.18.0 | cola | 1.8.0 |
| GoogleDrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.2 |
| gráficos | 4.4.2 | grDispositivos | 4.4.2 | grelha | 4.4.2 |
| gridExtra | 2.3 | gsubfn | 0.7 | gt | 0.11.1 |
| tabela g | 0.3.6 | capacete de segurança | 1.4.1 | Refúgio | 2.5.4 |
| mais alto | 0.11 | HMS (Navio de Sua Majestade) | 1.1.3 | htmltools | 0.5.8.1 |
| htmlwidgets (componentes HTML interativos) | 1.6.4 | httpuv | 1.6.15 | HTTR | 1.4.7 |
| httr2 | 1.1.1 | identificadores | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9 a 15 | Banda isobárica | 0.2.7 | iteradores | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.9.1 | JuicyJuice | 0.1.0 |
| KernSmooth | 2.23-22 | Knitr | 1,50 | etiquetagem | 0.4.3 |
| mais tarde | 1.4.1 | treliça | 0.22-5 | lave | 1.8.1 |
| ciclo de vida | 1.0.4 | ouvir | 0.9.1 | lubridato | 1.9.4 |
| Magrittr | 2.0.3 | Marcação | 1.13 | MASSA | 7.3-60.0.1 |
| Matriz | 1.6-5 | memorização | 2.0.1 | Metodologia | 4.4.2 |
| mgcv | 1.9-1 | mime | 0,13 | miniUI | 0.1.1.1 |
| Mlflow | 2.20.4 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
| Munsell | 0.5.1 | nlme | 3.1-164 | NNET | 7.3-19 |
| numDeriv | 2016.8 a 1.1 | openssl (conjunto de ferramentas para criptografia) | 2.3.3 | paralelo | 4.4.2 |
| Paralelamente | 1.42.0 | pilar | 1.11.0 | pkgbuild | 1.4.6 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.1 | pkgload | 1.4.0 |
| plogr | 0.2.0 | Plyr | 1.8.9 | elogios | 1.0.0 |
| prettyunits | 1.2.0 | pROC | 1.18.5 | processx | 3.8.6 |
| Prodlim | 2024.06.25 | profvis | 0.4.0 | Progressos | 1.2.3 |
| progressr | 0.15.1 | promessas | 1.3.2 | prototipo | 1.0.0 |
| proxy | 0.4-27 | P.S. | 1.9.0 | purrr | 1.0.4 |
| R6 | 2.6.1 | ragg | 1.3.3 | randomForest | 4.7-1.2 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.14 | RcppEigen | 0.3.4.0.2 | capaz de reagir | 0.4.4 |
| reactR | 0.6.1 | Readr | 2.1.5 | readxl | 1.4.5 |
| receitas | 1.2.0 | revanche | 2.0.0 | revanche2 | 2.1.2 |
| Controles remotos | 2.5.0 | Exemplo Reproduzível (Reprex) | 2.1.1 | remodelar2 | 1.4.4 |
| rlang | 1.1.6 | rmarkdown | 2.29 | RODBC | 1.3-26 |
| roxygen2 | 7.3.2 | rpart (função de partição recursiva em R) | 4.1.23 | rprojroot | 2.0.4 |
| Rserve | 1,8-15 | RSQLite | 2.3.9 | rstudioapi | 0.17.1 |
| rversions | 2.1.2 | Rvest | 1.0.4 | Sass | 0.4.9 |
| balanças | 1.3.0 | seletor | 0.4-2 | Informação da sessão | 1.2.3 |
| forma | 1.4.6.1 | brilhante | 1.10.0 | ferramentas de código-fonte | 0.1.7-1 |
| sparklyr | 1.9.1 | SparkR | 4.0.0 | sparsevctrs | 0.3.1 |
| espacial | 7.3-17 | splines | 4.4.2 | sqldf | 0.4-11 |
| SQUAREM | 2021.1 | estatísticas | 4.4.2 | estatísticas4 | 4.4.2 |
| string | 1.8.7 | stringr | 1.5.1 | Sobrevivência | 3.5-8 |
| Charme | 5.17.14.1 | Sistema | 3.4.3 | fontes do sistema | 1.2.1 |
| tcltk (uma linguagem de programação) | 4.4.2 | testthat | 3.2.3 | formatação de texto | 1.0.0 |
| Tibble | 3.3.0 | tidyr | 1.3.1 | tidyselect | 1.2.1 |
| tidyverse | 2.0.0 | mudança de hora | 0.3.0 | data e hora | 4041.110 |
| Tinytex | 0.56 | Ferramentas | 4.4.2 | tzdb | 0.5.0 |
| verificador de URL | 1.0.1 | usethis | 3.1.0 | UTF8 | 1.2.6 |
| utilitários | 4.4.2 | Identificador Único Universal (UUID) | 1.2-1 | V8 | 6.0.2 |
| VCTRS | 0.6.5 | viridisLite | 0.4.2 | vruum | 1.6.5 |
| Waldo | 0.6.1 | vibrissas | 0.4.1 | murchar | 3.0.2 |
| xfun | 0.51 | XML2 | 1.3.8 | xopen | 1.0.1 |
| xtable | 1.8-4 | yaml | 2.3.10 | Zeallot | 0.1.0 |
| ZIP | 2.3.2 |
Bibliotecas Java e Scala instaladas (versão de cluster Scala 2.13)
| ID do grupo | ID do artefato | Versão |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling (SDK de Java da AWS - escalonamento automático) | 1.12.638 |
| com.amazonaws | AWS-Java-SDK-CloudFormation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
| com.amazonaws | AWS Java SDK para CloudSearch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config (configuração do AWS Java SDK) | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache (kit de desenvolvimento de software Java para Elasticache da AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (SDK Java para Elastic Beanstalk da AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (SDK Java para equilíbrio de carga elástico da AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier (Biblioteca de armazenamento Glacier da AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs | 1.12.638 |
| com.amazonaws | aws-java-sdk-aprendizado de máquina | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | AWS Java SDK para SES | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway (SDK da AWS para Storage Gateway em Java) | 1.12.638 |
| com.amazonaws | AWS-Java-SDK-STS | 1.12.638 |
| com.amazonaws | aws-java-sdk-suporte | 1.12.638 |
| com.amazonaws | aws-java-sdk-swf-bibliotecas | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | fluxo | 2.9.8 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.13 | 0.4.15-11 |
| com.esotericsoftware | sombra kriogénica | 4.0.3 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | colega de turma | 1.5.1 |
| com.fasterxml.jackson.core | Jackson-Annotations | 2.18.2 |
| com.fasterxml.jackson.core | Jackson-Core | 2.18.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor (formato de dados em CBOR) | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.18.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.13 | 2.18.2 |
| com.github.ben-manes.cafeína | cafeína | 2.9.3 |
| com.github.blemale | scaffeine_2.13 | 4.1.0 |
| com.github.fommil | Jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1-Nativos |
| com.github.fommil.netlib | sistema_nativo-Java | 1.1 |
| com.github.fommil.netlib | sistema_nativo-Java | 1.1-Nativos |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-Nativos |
| com.github.fommil.netlib | netlib-sistema_nativo-linux-x86_64 | 1.1-Nativos |
| com.github.luben | zstd-jni | 1.5.6-10 |
| com.github.virtuald | Curvesapi | 1,08 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.api.grpc | proto-google-comum-protos | 2.5.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | Gson | 2.11.0 |
| com.google.crypto.tink | tink | 1.16.0 |
| com.google.errorprone | anotações_propensas_a_erros | 2.36.0 |
| com.google.flatbuffers | flatbuffers-java | 24.3.25 |
| com.google.guava | Falha no acesso | 1.0.2 |
| com.google.guava | Goiaba | 33.4.0-JRE |
| com.google.guava | ListenableFuture | 9999.0-vazio-para-evitar-conflito-com-Guava |
| com.google.j2objc | j2objc-anotações | 3.0.0 |
| com.google.protobuf | protobuf-java | 3.25.5 |
| com.google.protobuf | protobuf-java-util | 3.25.5 |
| com.helger | gerador de perfis | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.lihaoyi | sourcecode_2.13 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK para Azure Data Lake Store) | 2.3.10 |
| com.microsoft.sqlserver | MSSQL-JDBC | 11.2.2.jre8 |
| com.microsoft.sqlserver | MSSQL-JDBC | 12.8.0.jre8 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | JAXB-CORE | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | Json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.13 | 0.4.13 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.13 | 0.10.0 |
| com.twitter | util-app_2.13 | 19.8.1 |
| com.twitter | util-core_2.13 | 19.8.1 |
| com.twitter | util-function_2.13 | 19.8.1 |
| com.twitter | util-jvm_2.13 | 19.8.1 |
| com.twitter | util-lint_2.13 | 19.8.1 |
| com.twitter | util-registry_2.13 | 19.8.1 |
| com.twitter | util-stats_2.13 | 19.8.1 |
| com.typesafe | Configurações | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.13 | 3.9.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | analisadores de univocidade | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| com.zaxxer | SparseBitSet | 1.3 |
| commons-cli | commons-cli | 1.9.0 |
| commons-codec | commons-codec | 1.17.2 |
| Commons Collections | Commons Collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload (upload de ficheiros comuns) | commons-fileupload (upload de ficheiros comuns) | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.18.0 |
| commons-lang | commons-lang | 2.6 |
| registo de comuns | registo de comuns | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | ARPACK | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | LAPACK | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compressor de ar | 2.0.2 |
| IO.Delta | delta-sharing-client_2.13 | 1.3.5 |
| io.dropwizard.metrics | métricas e anotação | 4.2.30 |
| io.dropwizard.metrics | métricas-base | 4.2.30 |
| io.dropwizard.metrics | metrics-graphite | 4.2.30 |
| io.dropwizard.metrics | métricas e verificações de saúde | 4.2.30 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.30 |
| io.dropwizard.metrics | metrics-jmx | 4.2.30 |
| io.dropwizard.metrics | métricas em formato JSON | 4.2.30 |
| io.dropwizard.metrics | métricas do JVM | 4.2.30 |
| io.dropwizard.metrics | Métricas-Servlets | 4.2.30 |
| io.github.java-diff-utils | java-diff-utils | 4.15 |
| io.netty | netty-all | 4.1.118.Final |
| io.netty | netty-buffer | 4.1.118.Final |
| io.netty | netty-codec | 4.1.118.Final |
| io.netty | netty-codec-http | 4.1.118.Final |
| io.netty | netty-codec-http2 | 4.1.118.Final |
| io.netty | netty-codec-socks | 4.1.118.Final |
| io.netty | Netty Comum | 4.1.118.Final |
| io.netty | Netty Handler | 4.1.118.Final |
| io.netty | netty-handler-proxy | 4.1.118.Final |
| io.netty | netty-resolver (resolução do Netty) | 4.1.118.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.70.Final |
| io.netty | Netty-Transport | 4.1.118.Final |
| io.netty | netty-transport-classes-epoll | 4.1.118.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.118.Final |
| io.netty | netty-transport-native-epoll | 4.1.118.Final |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.118.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.118.Final-osx-x86_64 |
| io.netty | netty-transport-nativo-unix-comum | 4.1.118.Final |
| io.prometeu | simpleclient | 0.16.1-databricks |
| io.prometeu | simpleclient_comum | 0.16.1-databricks |
| io.prometeu | simpleclient_dropwizard | 0.16.1-databricks |
| io.prometeu | simpleclient_pushgateway | 0.16.1-databricks |
| io.prometeu | simpleclient_servlet | 0.16.1-databricks |
| io.prometeu | simpleclient_servlet_common | 0.16.1-databricks |
| io.prometeu | simpleclient_tracer_common | 0.16.1-databricks |
| io.prometeu | simpleclient_tracer_otel | 0.16.1-databricks |
| io.prometeu | simpleclient_tracer_otel_agente | 0.16.1-databricks |
| io.prometheus.jmx | recoletor | 0.18.0 |
| jacarta.anotação | Jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| Jakarta.validação | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.ativação | ativação | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.media | jai_core | jai_core_dummy |
| javax.transaction | jta | 1.1 |
| javax.transaction | API de transação | 1.1 |
| javax.xml.bind | JAXB-API | 2.2.11 |
| Javolution | Javolution | 5.5.1 |
| Jline | Jline | 2.14.6 |
| joda-time | joda-time | 2.13.0 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | conserva | 1.5 |
| net.sf.jpam | JPAM | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.floco de neve | Snowflake Ingest SDK | 0.9.6 |
| net.sourceforge.f2j | arpack_combinado_tudo | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | ANTLR Runtime | 3.5.2 |
| org.antlr | antlr4-tempo de execução | 4.13.1 |
| org.antlr | StringTemplate | 3.2.1 |
| org.apache.ant | formiga | 1.10.11 |
| org.apache.ant | ANT-JSCH | 1.10.11 |
| org.apache.ant | lançador de formigas | 1.10.11 |
| org.apache.arrow | formato de flecha | 18.2.0 |
| org.apache.arrow | núcleo de memória Arrow | 18.2.0 |
| org.apache.arrow | Arrow-Memory-Netty | 18.2.0 |
| org.apache.arrow | "patch-do-buffer-da-memória-arrow-netty" | 18.2.0 |
| org.apache.arrow | vetor de seta | 18.2.0 |
| org.apache.avro | Avro | 1.12.0 |
| org.apache.avro | AVRO-IPC | 1.12.0 |
| org.apache.avro | avro-mapred | 1.12.0 |
| org.apache.commons | colecções-commons4 | 4.4 |
| org.apache.commons | commons-compress | 1.27.1 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.17.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-texto | 1.13.0 |
| org.apache.curador | curador e cliente | 5.7.1 |
| org.apache.curador | Framework de Curadoria | 5.7.1 |
| org.apache.curador | curador de receitas | 5.7.1 |
| org.apache.datasketches | Datasketches-Java | 6.1.1 |
| org.apache.datasketches | datasketches-memória | 3.0.2 |
| org.apache.derby | Dérbi | 10.14.2.0 |
| org.apache.hadoop | tempo de execução do cliente Hadoop | 3.4.1 |
| org.apache.hive | colmeia-abelha | 2.3.10 |
| org.apache.hive | Hive-CLI | 2.3.10 |
| org.apache.hive | Hive-JDBC | 2.3.10 |
| org.apache.hive | hive-llap-client | 2.3.10 |
| org.apache.hive | hive-llap-common | 2.3.10 |
| org.apache.hive | Hive-Serde | 2.3.10 |
| org.apache.hive | colmeias-calços | 2.3.10 |
| org.apache.hive | API de armazenamento Hive | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.10 |
| org.apache.hive.shims | colmeia-calços-comum | 2.3.10 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.10 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | hera | 2.5.3 |
| org.apache.logging.log4j | log4j-1.2-api | 2.24.3 |
| org.apache.logging.log4j | log4j-api | 2.24.3 |
| org.apache.logging.log4j | log4j-core | 2.24.3 |
| org.apache.logging.log4j | log4j-layout-esquema-json | 2.24.3 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.24.3 |
| org.apache.orc | orc-core | 2.1.1-protobuf sombreado |
| org.apache.orc | formato ORC | 1.1.0-protobuf sombreado |
| org.apache.orc | orc-mapreduce | 2.1.1-protobuf sombreado |
| org.apache.orc | Orc-cunhas | 2.1.1 |
| org.apache.poi | POI | 5.4.1 |
| org.apache.poi | poi-ooxml | 5.4.1 |
| org.apache.poi | poi-ooxml-completo | 5.4.1 |
| org.apache.poi | poi-ooxml-lite | 5.4.1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.16.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.1 |
| org.apache.xbean | xbean-asm9-sombreado | 4.26 |
| org.apache.xmlbeans | xmlbeans | 5.3.0 |
| org.apache.yetus | anotações do público | 0.13.0 |
| org.apache.zookeeper | cuidador de zoológico | 3.9.3 |
| org.apache.zookeeper | guarda de zoológico-juta | 3.9.3 |
| org.checkerframework | verificador de qualidade | 3.43.0 |
| org.codehaus.janino | compilador comum | 3.0.16 |
| org.codehaus.janino | Janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | DataNucleus Core | 4.1.17 |
| org.datanucleus | Datanucleus-RDBMS | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | Jetty-Cliente | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-continuation (componente de software do Jetty) | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-HTTP | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-io | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-JNDI | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty Plus | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-Proxy | 9.4.53.v20231009 |
| org.eclipse.jetty | Segurança do Jetty | 9.4.53.v20231009 |
| org.eclipse.jetty | servidor jetty | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-servlet | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-servlets | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-util | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.53.v20231009 |
| org.eclipse.jetty | Aplicação web Jetty | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-XML | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | API WebSocket | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | Websocket-cliente | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | Websocket-Comum | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | servidor websocket | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | Websocket-servlet | 9.4.53.v20231009 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | HK2-Localizador | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | localizador de recursos OSGi | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-reembalado | 2.6.1 |
| org.glassfish.hk2.external | jacarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet (serviço de contêiner Jersey) | 2.41 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.41 |
| org.glassfish.jersey.core | jersey-client | 2.41 |
| org.glassfish.jersey.core | Jersey comum | 2.41 |
| org.glassfish.jersey.core | servidor Jersey | 2.41 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.41 |
| org.hibernate.validator | hibernate-validator (ferramenta de validação de dados de Java) | 6.2.5.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | Javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.4.1.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | anotações | 17.0.0 |
| org.jline | Jline | 3.27.1-JDK8 |
| org.joda | joda-converter | 1.7 |
| org.jodd | JODD-CORE | 3.5.2 |
| org.json4s | json4s-ast_2.13 | 4.0.7 |
| org.json4s | JSON4S-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson-core_2,13 | 4.0.7 |
| org.json4s | json4s-jackson_2.13 | 4.0.7 |
| org.json4s | JSON4S-scalap_2.13 | 4.0.7 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2,13 | 2.9.1 |
| org.objenesis | objenesis | 3.3 |
| org.postgresql | PostgreSQL | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 1.2.1 |
| org.rocksdb | rocksdbjni | 9.8.4 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | Escala-compiler_2,13 | 2.13.16 |
| org.scala-lang | scala-library_2.13 | 2.13.16 |
| org.scala-lang | scala-reflect_2.13 | 2.13.16 |
| org.scala-lang.modules | scala-collection-compat_2.13 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.13 | 0.9.1 |
| org.scala-lang.modules | scala-parallel-collections_2.13 | 1.2.0 |
| org.scala-lang.modules | scala-parser-combinators_2.13 | 2.4.0 |
| org.scala-lang.modules | scala-xml_2.13 | 2.3.0 |
| org.scala-sbt | interface de teste | 1.0 |
| org.scalacheck | scalacheck_2.13 | 1.18.0 |
| org.scalactic | scalactic_2.13 | 3.2.19 |
| org.scalanlp | breeze-macros_2.13 | 2.1.0 |
| org.scalanlp | breeze_2.13 | 2.1.0 |
| org.scalatest | compatível com scalatest | 3.2.19 |
| org.scalatest | scalatest-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-diagrams_2.13 | 3.2.19 |
| org.scalatest | scalatest-featurespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-flatspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-freespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funsuite_2.13 | 3.2.19 |
| org.scalatest | scalatest-matchers-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-mustmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-propspec_2.13 | 3.2.19 |
| org.scalatest | escalatest-refspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-shouldmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-wordspec_2.13 | 3.2.19 |
| org.scalatest | scalatest_2.13 | 3.2.19 |
| org.slf4j | jcl-compatível-com-slf4j | 2.0.16 |
| org.slf4j | jul-para-slf4j | 2.0.16 |
| org.slf4j | SLF4J-API | 2.0.16 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | ThreeTen-Extra | 1.8.0 |
| org.tukaani | xz | 1.10 |
| org.typelevel | algebra_2.13 | 2.8.0 |
| org.typelevel | cats-kernel_2.13 | 2.8.0 |
| org.typelevel | spire-macros_2.13 | 0.18.0 |
| org.typelevel | spire-platform_2.13 | 0.18.0 |
| org.typelevel | spire-util_2.13 | 0.18.0 |
| org.typelevel | spire_2.13 | 0.18.0 |
| org.wildfly.openssl | WildFly-OpenSSL | 1.1.3.Final |
| org.xerial | SQLITE-JDBC | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | Snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.5.0-linux-x86_64 |
| Stax | stax-api | 1.0.1 |
Sugestão
Para ver as notas de versão das versões do Databricks Runtime que atingiram o fim do suporte (EoS), consulte Notas de versão do Databricks Runtime que atingiram o fim do suporte. As versões do EoS Databricks Runtime foram desativadas e podem não ser atualizadas.