Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 16.4 LTS, alimentado pelo Apache Spark 3.5.2.
A Databricks lançou esta versão LTS em maio de 2025. Existem 2 variantes para esta versão, uma suportando Scala 2.12 e outra suportando Scala 2.13.
A partir do DBR 17 (Spark 4), apenas o Scala 2.13 será suportado. Para ajudá-lo na transição, duas imagens estão disponíveis no 16.4 LTS: uma com Scala 2.12 e outra com Scala 2.13. Use a imagem 2.13 para testar e atualizar sua base de código para o Scala 2.13 antes de migrar para o DBR 17.
Orientações para a migração do Scala 2.13
- Todos os outros recursos são os mesmos em ambas as versões do Databricks Runtime 16.4 LTS.
- As versões de dependência podem diferir entre as imagens do Databricks Runtime 16.4 Scala 2.12 e 16.4 Scala 2.13. As versões das bibliotecas suportadas em cada imagem estão listadas abaixo nesta página.
- Certifique-se de que seu código esteja escrito no Scala 2.13 e que seu executável seja compilado com o Scala 2.13.
- Construa seu projeto com base no Spark 3.5.
Se o seu código usa a sparklyr biblioteca R, você deve usar a imagem que suporta Scala 2.12 em vez disso.
Alterações disruptivas entre Scala 2.12 e 2.13
Principais mudanças revolucionárias
O Databricks Runtime considera uma quebra de compatibilidade maior quando exige que você faça alterações significativas no código para suportá-la.
Incompatibilidade de coleções: Leia esta página oficial de documentos do Scala para obter detalhes sobre a migração de coleções para o Scala 2.13. Se seu código usa uma versão anterior do código Scala, as coleções serão a principal fonte de incompatibilidades ao usar Databricks, particularmente com parâmetros de API e tipos de retorno.
Algoritmo de hash: Ao revisar seu código criado com o Scala 2.12, não confie na ordem implícita de estruturas de dados que não garantem o pedido, como
HashMapeSet. As coleções que fazem ordenação implícita podem ordenar seus elementos de forma diferente quando executadas sob 2.13 (vs. 2.12) quando você itera através delas.
Pequenas alterações de quebra
O Databricks Runtime considera uma alteração de rutura menor quando não há mensagens de erro específicas geradas devido a alterações de versão, mas o seu código geralmente não consegue compilar na versão. Nesse caso, as mensagens de erro podem fornecer informações suficientes para atualizar seu código.
- Inferência de tipo mais rigorosa: Ao compilar o código desenvolvido para o Scala 2.12 com 2.13, o compilador pode relatar que não pode inferir o tipo ou sugerir ambiguidade de tipo. Anotar explicitamente as variáveis com seu tipo de dados geralmente resolve esse problema.
-
Remoção de sintaxe específica: Algumas sintaxe foram preteridas no Scala 2.13, como o literal de cadeia de aspas simples, o
+operador para concatenação de cadeia de caracteres quando usado com um não-tipoStringà esquerda e o operador postfix (use notação de ponto em vez disso). Para obter mais detalhes, consulte: funcionalidades removidas do Scala na documentação oficial do Scala. -
Mensagens de saída: Os resultados de texto para mensagens retornadas do REPL podem ser diferentes entre o Scala 2.12 e 2.13. Qualquer discrepância não significa que a sintaxe ou o cálculo estejam errados; em vez disso, a mensagem descreve o problema ou contexto de forma diferente ou apresenta-o num formato representacional diferente. Por exemplo,
f: Foo = Foo(1)pode tornar-sef: Foo = Foo(i = 1)em algumas mensagens.
A lista de versões de biblioteca suportadas por cada versão Scala do Databricks Runtime 16.4 LTS:
Novos recursos e melhorias
- Painéis, alertas e consultas são suportados como arquivos de espaço de trabalho
- Otimização da compactação automática no agrupamento de líquidos
- Auto Loader agora pode limpar arquivos processados no diretório de origem
- Suporte para ampliação de tipos adicionado para transmissão de dados de tabelas Delta
- IDENTIFIER suporte agora disponível em DBSQL para operações de catálogo
- As expressões agrupadas agora fornecem aliases transitórios gerados automaticamente
- Adicionar suporte à API de transmissão de filtro a fontes de dados Python
- Melhoria do traceback do Python UDF
- UNIÃO/EXCETO/INTERSECÇÃO dentro de uma visualização e EXECUTE IMMEDIATE agora retorna resultados corretos
- Fonte de dados, configuração de plano em cache e guia de migração
-
Novas
listaggestring_aggfunções -
O suporte para
MERGE INTOtabelas com controle de acesso refinado em computação dedicada agora está disponível em geral (GA)
Painéis, alertas e consultas são suportados como arquivos de espaço de trabalho
Painéis, alertas e consultas agora são suportados como arquivos de espaço de trabalho. Agora você pode interagir programaticamente com esses objetos Databricks de qualquer lugar em que o sistema de arquivos do espaço de trabalho esteja disponível, incluindo gravação, leitura e exclusão como qualquer outro arquivo. Para saber mais, consulte O que são arquivos de espaço de trabalho? e Interaja programaticamente com arquivos de espaço de trabalho.
Melhoria da compactação automática do agrupamento de líquidos
As tabelas de clustering líquido gerenciadas pelo Unity Catalog agora acionam a compactação automática para reduzir automaticamente pequenos problemas de arquivos entre OPTIMIZE execuções.
Para obter mais detalhes, consulte Compactação automática para Delta Lake no Azure Databricks.
Auto Loader agora pode limpar arquivos processados no diretório de origem
Os clientes agora podem instruir o Auto Loader a mover ou excluir automaticamente os arquivos que foram processados. Opte por este recurso utilizando a opção cloudFiles.cleanSource Auto Loader.
Para obter mais detalhes, consulte Opções do carregador automático em cloudFiles.cleanSource.
Suporte para ampliação de tipos adicionado para transmissão a partir de tabelas Delta
Esta versão adiciona suporte para streaming de uma tabela Delta que tenha dados de coluna ampliados por tipo e para compartilhar uma tabela Delta com ampliação de tipo habilitada usando o Compartilhamento Delta de Databricks para Databricks. A funcionalidade de alargamento de tipo está atualmente em Visualização Pública.
Para obter mais detalhes, consulte Alargamento de tipo.
IDENTIFIER suporte agora disponível em DBSQL para operações de catálogo
Os clientes do Azure Databricks agora podem usar a IDENTIFIER cláusula ao executar as seguintes operações de catálogo:
CREATE CATALOGDROP CATALOGCOMMENT ON CATALOGALTER CATALOG
Essa nova sintaxe permite que os clientes especifiquem dinamicamente nomes de catálogos usando parâmetros definidos para essas operações, permitindo fluxos de trabalho SQL mais flexíveis e reutilizáveis. Como exemplo da sintaxe, considere CREATE CATALOG IDENTIFIER(:param) onde param é um parâmetro fornecido para especificar um nome de catálogo.
Para obter mais detalhes, consulte IDENTIFIER a cláusula.
As expressões agrupadas agora fornecem aliases transitórios gerados automaticamente
Os aliases gerados automaticamente para expressões agrupadas agora sempre incorporarão COLLATE informações de forma determinística. Os aliases gerados automaticamente são transitórios (instáveis) e não devem ser confiáveis. Em vez disso, como prática recomendada, use expression AS alias de forma consistente e explícita.
Adicionar suporte à API de pushdown de filtro às fontes de dados em Python
No Databricks Runtime 16.4 LTS, o Azure Databricks adicionou suporte para pushdown de filtro para o lote de fonte de dados Python lido como uma API semelhante à SupportsPushDownFilters interface. Agora você pode implementar DataSourceReader.pushFilters para receber filtros que podem ser empurrados para baixo. Você também pode implementar esta API para fornecer a lógica que seleciona filtros a propagar, que os rastreia e que retorna os filtros restantes para aplicação pelo Apache Spark.
A aplicação de filtros permite que a fonte de dados trate um subconjunto de filtros. Isso pode melhorar o desempenho, reduzindo a quantidade de dados que precisam ser processados pelo Spark.
A otimização de filtro só é suportada para leituras em lote, não para leituras em fluxo. A nova API deve ser adicionada a DataSourceReader e não a DataSource ou DataSourceStreamReader. A lista de filtros deve ser interpretada como a lógica AND dos elementos em sua implementação. Esse método é chamado uma vez durante o planejamento da consulta. Na implementação padrão, ele retorna todos os filtros, o que indica que nenhum filtro pode ser empurrado para baixo. Utilize subclasses para substituir este método e implementar a sua lógica para filtragem descendente.
Inicialmente e para manter a API simples, o Azure Databricks suporta apenas filtros V1 que têm uma coluna, um operador booleano e um valor literal. A serialização do filtro é um espaço reservado e será implementada em uma RP futura. Por exemplo:
class DataSourceReader(ABC):
...
def pushFilters(self, filters: List["Filter"]) -> Iterable["Filter"]:
O Azure Databricks recomenda que você implemente esse método somente para fontes de dados que oferecem suporte nativo à filtragem, como bancos de dados e APIs GraphQL.
Melhoria de traceback do Python UDF
O traceback do Python UDF agora inclui frames do driver e do executor, juntamente com frames do cliente, resultando em melhores mensagens de erro que mostram detalhes mais extensos e relevantes, tal como o conteúdo da linha dos frames dentro de um UDF.
UNIÃO/EXCETO/INTERSEÇÃO dentro de uma visualização e EXECUTE IMMEDIATE agora retornam resultados corretos
Consultas para definições de exibição temporárias e persistentes com colunas de nível superior UNION/EXCEPT/INTERSECT e sem apelidos anteriormente retornaram resultados incorretos porque UNION/EXCEPT/INTERSECT as palavras-chave foram consideradas apelidos. Agora, essas consultas executarão corretamente toda a operação do conjunto.
EXECUTE IMMEDIATE ... INTOcom colunas de topo de nível superior UNION/EXCEPT/INTERSECT e colunas não-aliasadas também escreveram um resultado incorreto de uma operação de conjunto na variável especificada devido ao analisador interpretar essas palavras-chave como aliases. Da mesma forma, consultas SQL com texto final inválido também foram permitidas. As operações definidas nesses casos agora gravam um resultado correto na variável especificada ou falham em caso de texto SQL inválido.
Guia de migração e configuração de plano em cache da fonte de dados
Desde o DBR 16.4.0, a leitura de uma tabela de origem de arquivo respeitará corretamente as opções de consulta, por exemplo, delimitadores. Anteriormente, o primeiro plano de consulta era armazenado em cache e as alterações de opção subsequentes ignoradas. Para restaurar o comportamento anterior, defina spark.sql.legacy.readFileSourceTableCacheIgnoreOptions como true.
Novas listagg e string_agg funções
A partir desta versão, pode usar as funções listagg ou string_agg para agregar valores STRING e BINARY dentro de um grupo.
Consulte string_agg para obter mais detalhes.
O suporte para MERGE INTO tabelas com controle de acesso refinado em computação dedicada agora está disponível em geral (GA)
No Databricks Runtime 16.3 e posterior, a computação dedicada suporta MERGE INTO tabelas do Unity Catalog que usam controle de acesso detalhado. Este recurso está agora disponível para o público em geral.
Consulte Controle de acesso refinado em computação dedicada.
Alterações Comportamentais do DBR 16.4 LTS
- Tabelas Delta: "DESCRIBE DETAIL table" passará a mostrar o estado clusterByAuto da tabela
- Correção para respeitar as opções de planos armazenados em cache da fonte de dados
- Regra de redação movida do analisador para o otimizador
- variant_get e get_json_object agora consideram espaços à esquerda em caminhos no Apache Spark
- Ativar indicador para não permitir a desativação da materialização da fonte para operações MERGE
- Mover a âncora de ativação do registo de metadados da partição para a tabela
- Rebaixar Json4s de 4.0.7 para 3.7.0-M11 em DBR 16.2 e 16.3
Tabelas Delta: "DESCRIBE DETAIL table" passará a mostrar o status clusterByAuto da tabela
DESCRIBE DETAIL {table} agora mostrará o clusterByAuto status da tabela (verdadeiro ou falso) ao lado das colunas de agrupamento atuais. Para obter mais detalhes sobre clusterByAuto, consulte: Agrupamento automático de líquidos.
Correção para respeitar as opções de planos armazenados em cache da fonte de dados
Esta atualização garante que as leituras de tabela respeitem as opções definidas para todos os planos de fonte de dados quando armazenados em cache, não apenas a primeira tabela em cache lida.
Anteriormente, os acessos à tabela da fonte de dados armazenavam em cache o primeiro plano, mas não levavam em conta as diferentes opções nas consultas subsequentes.
Por exemplo, a seguinte consulta:
spark.sql("CREATE TABLE t(a string, b string) USING CSV".stripMargin)
spark.sql("INSERT INTO TABLE t VALUES ('a;b', 'c')")
spark.sql("SELECT * FROM t").show()
spark.sql("SELECT * FROM t WITH ('delimiter' = ';')")
produziria este resultado:
+----+----+
|col1|col2|
+----+----+
| a;b| c |
+----+----+
+----+----+
|col1|col2|
+----+----+
| a;b| c |
+----+----+
Com essa correção, ele agora retorna a saída esperada:
+----+----+
|col1|col2|
+----+----+
| a;b| c |
+----+----+
+----+----+
|col1|col2|
+----+----+
| a | b,c|
+----+----+
Se suas cargas de trabalho tiverem dependências do comportamento incorreto anterior, você poderá ver resultados diferentes após essa alteração.
Regra de redação movida do analisador para o otimizador
Anteriormente, DataFrames podiam criar tabelas que continham valores editados quando funções SQL SECRET válidas eram usadas. Essa alteração remove a redação ao salvar DataFrames com acesso secreto válido a uma tabela, e a regra de redação foi movida do analisador para o otimizador.
variant_get e get_json_object agora consideram os espaços à frente nos caminhos no Apache Spark
Antes desta alteração, os espaços em branco e tabulações no início dos caminhos nas expressões variant_get e get_json_object estavam a ser ignorados com o Photon desativado. Por exemplo, select get_json_object('{" key": "value"}', '$[' key']') não seria eficaz na extração do valor de " key". No entanto, os usuários poderão extrair essas chaves.
Habilitar sinalizador para não permitir a desativação da materialização de origem para operações MERGE
Anteriormente, os usuários podiam desativar a materialização de origem em MERGE definindo merge.materializeSource como none. Com o novo sinalizador ativado, isso será proibido e causará um erro. O Databricks planeja habilitar o sinalizador apenas para clientes que não usaram esse sinalizador de configuração antes, portanto, nenhum cliente deve notar qualquer mudança no comportamento.
Mover a âncora de ativação do log de metadados de partição para a tabela
O recurso de registo de metadados de partição foi alterado para que, uma vez que uma tabela é criada com spark.databricks.nonDelta.partitionLog.enabled = true, ela possa ser ancorada a uma tabela para que um cluster não defina spark.databricks.nonDelta.partitionLog.enabled = true para todas as tabelas que são processadas pelo cluster.
Downgrade Json4s de 4.0.7 para 3.7.0-M11 em DBR 16.2 e 16.3
Os clientes não podem usar databricks-connect 16.1+ e Apache Spark™ 3.5.x juntos no mesmo aplicativo devido a discrepâncias significativas no comportamento da API entre Json4s versão 3.7.0-M11 e versão 4.0.7. Para resolver isso, o Azure Databricks rebaixou o Json4s para 3.7.0-M11.
Atualizações de biblioteca (aplica-se apenas à imagem do Scala 2.12)
- Bibliotecas R atualizadas:
- sparklyr de 1.8.4 a 1.8.6 (aplica-se apenas à imagem do Scala 2.12 para a versão 16.4 LTS do Databricks Runtime)
- Bibliotecas Java atualizadas:
- io.delta.delta-sharing-client_2.12 de 1.2.3 a 1.2.4
- org.json4s.json4s-ast_2.12 de 4.0.7 a 3.7.0-M11
- org.json4s.json4s-core_2.12 de 4.0.7 a 3.7.0-M11
- org.json4s.json4s-jackson_2.12 da versão 4.0.7 para a versão 3.7.0-M11
- org.json4s.json4s-scalap_2.12 da versão 4.0.7 para a 3.7.0-M11
A versão Scala 2.13 Databricks Runtime é considerada uma "nova" versão e pode ter versões de biblioteca diferentes da 2.12. Consulte a tabela abaixo para obter versões específicas da biblioteca nessa imagem de versão. Ele não inclui sparklyr nesta versão.
Apache Spark
O Databricks Runtime 16.4 LTS inclui o Apache Spark 3.5.2. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 16.3 (EoS), bem como as seguintes correções de bugs adicionais e melhorias feitas no Spark:
- [SPARK-51206] [PYTHON][connect] Mover as funções auxiliares de conversão de Arrow para fora do Spark Connect
- [SPARK-51566] [PYTHON] Melhoria do traceback Python UDF
- [SPARK-51675] [SS] Corrija a criação da família col depois de abrir o banco de dados local para evitar a criação de snapshots, se não for necessário
- [SPARK-50892] [SQL]Adicione UnionLoopExec, operador físico para recursão, para executar consultas recursivas
- [SPARK-51670] [SQL] Reafetar Intersect e Except para seguir o exemplo da União e reutilizar no Analisador de passagem única
- [SPARK-47895] [BEHAVE-266][sql] agrupamento por alias deve ser idempotente
- [SPARK-51614] [SQL] Introduzir a regra ResolveUnresolvedHaving no Analisador
- [SPARK-51662] [SQL] Tornar o OrcFileFormat comparável
- [SPARK-51374] Reverter "[CORE] Iniciar a utilização de java.util.Map nas APIs de registo"
- [SPARK-51652] [SQL] Refatore a computação de SetOperation para reutilizá-la no analisador de passagem única
- [SPARK-51622] [UI] Título das secções na página de execução
- [SPARK-51586] [SS] inicializar partições de entrada independentes do suporte colunar em modo contínuo
-
[SPARK-51070] [SQL] Utilizar
scala.collection.Setem vez de "Set" em ValidateExternalType - [SPARK-51559] [SQL] Torne o tamanho máximo da tabela broadcast configurável
- [SPARK-51496] [SQL] A comparação de CaseInsensitiveStringMap deve ignorar o caso
- [SPARK-50416] [CORE] É necessário um teste de terminal/tubo mais portátil para bin/load-spark-env.sh
-
[SPARK-51509] [CORE][ui] Criar
Spark Masterfiltros de suporte da página Ambiente - [SPARK-51374] [CORE] Mudar para usar java.util.Map em APIs de Logging
- [SPARK-50820] [SQL] DSv2: Anulação condicional de colunas de metadados em DML
- [SPARK-48922] [SQL] Evite a transformação de matriz redundante de expressão idêntica para o tipo de mapa
- [SPARK-51446] [SQL] Melhorar o codecNameMap para o codec de compressão
- [SPARK-51341] [CORE] Cancelar tarefa relacionada ao tempo de maneira adequada.
- [SPARK-51452] [UI] Melhorar a pesquisa da tabela de despejo de threads
-
[SPARK-51444] [CORE] Remova a ramificação inacessível
ifdeTaskSchedulerImpl#statusUpdate -
[SPARK-51401] [SQL] Alterar
ExplainUtils.generateFieldStringpara chamar diretamenteQueryPlan.generateFieldString - [SPARK-49507] [SQL] Corrigir o problema das maiúsculas/minúsculas depois de ativar metastorePartitionPruningFastFallback
- [SPARK-51506] [PYTHON][ss] Não imponha que os usuários implementem close() em TransformWithStateInPandas
- [SPARK-51624] [SQL] Propagação de metadados GetStructField em CreateNamedStruct.dataType
- [SPARK-51201] [SQL] Faça com que as dicas de particionamento suportem byte e valores curtos
-
[SPARK-51186] [PYTHON] Adicionar
StreamingPythonRunnerInitializationExceptionà exceção de base do PySpark - [SPARK-50286] [SQL] Propagar corretamente as opções do SQL para o WriteBuilder
- [SPARK-51616] [SQL] Execute CollationTypeCasts antes de ResolveAliases e ResolveAggregateFunctions
- [SPARK-51023] [CORE] registar o endereço remoto numa exceção de RPC
- [SPARK-51087] [PYTHON][connect] Emitir um aviso quando o memory-profiler não estiver instalado para criação de perfil de memória
-
[SPARK-51073] [SQL] Remover
UnstabledaSparkSessionExtensionsProvidertraço - [SPARK-51471] [SS] RatePerMicroBatchStream - classifique o erro ASSERT quando o deslocamento/carimbo de data/hora em startOffset for maior que o endOffset
- [SPARK-51062] [PYTHON] Corrija assertSchemaEqual para comparar precisão decimal e escala
- [SPARK-51612] [SQL] Exibir confs do Spark definidos na criação de visualização na Descrição como Json
- [SPARK-51573] [SS] Corrigir estado de transmissão Ponto de verificação v2Ponto de verificação Info condição de corrida
- [SPARK-51252] [SS] Adicionar métricas de instância para a última versão de snapshot carregada em repositórios de estado HDFS
- [SPARK-51552] [SQL] Não permitir variáveis temporárias em exibições persistentes quando sob identificador
- [SPARK-51625] [SQL] O comando em relações CTE deve ser executado em linha
- [SPARK-51584] [SQL] Adicionar regra que envia o Project através do Offset e do Suite que o testa
-
[SPARK-51593] [SQL] Refatoração da instância
QueryExecutionMetering - [SPARK-49082] [SQL] Suporte a ampliação de Data para TimestampNTZ no leitor Avro
- [SPARK-50220] [PYTHON] Suporte listagg no PySpark
-
[SPARK-51581] [CORE][sql] Utilize
nonEmpty/isEmptypara a verificação de vazio deIterableexplícito - [SPARK-42746] [SQL] Correção na classificação de classe de erro para novas exceções com listagg
-
[SPARK-51580] [SQL] Lançar mensagem de erro adequada para o usuário quando a função lambda está fora do lugar em
HigherOrderFunction - [SPARK-51589] [SQL] Corrigir pequeno bug ao não verificar funções agregadas em |>SELECT
- [SPARK-50821] [PYTHON] Atualize o Py4J de 0.10.9.8 para 0.10.9.9
- [SPARK-42746] [SQL] Implementar a função LISTAGG
- [SPARK-48399] [SQL] Teradata: ByteType deve ser mapeado para BYTEINT em vez de BYTE (binário)
- [SPARK-43221] [CORE] A obtenção de blocos locais no host deve usar o estado de um bloco armazenado no disco
- [SPARK-51467] [UI] Tornar as tabelas da página de ambiente filtráveis
-
[SPARK-51569] [SQL] Não reinstancie
InSubqueryemInTypeCoercionse não houver alterações de tipo - [SPARK-51280] [CONNECT] Melhorar a classe de erro RESPONSE_ALREADY_RECEIVED
- [SPARK-51525] [SQL] Campo de agrupamento para Desc como JSON StringType
- [SPARK-51565] [SQL] Suporta parâmetros SQL na cláusula window frame
- [SPARK-51544] [SQL] Adicionar apenas colunas de metadados exclusivas e necessárias
- [SPARK-49349] [SQL] Melhorar mensagem de erro para LCA com Generate
- [SPARK-51418] [SQL] Corrigir DataSource PARTITON TABLE com colunas de partição incompatíveis do tipo Hive
- [SPARK-51269] [SQL] Simplifique o AvroCompressionCodec removendo defaultCompressionLevel
- [SPARK-50618] [SS][sql] Faça com que o DataFrameReader e o DataStreamReader aproveitem mais o analisador
- [SPARK-51097] [SS] Reintroduza as métricas de instância da última versão de snapshot carregada do armazenamento de estado RocksDB
- [SPARK-51321] [SQL] Adicionar suporte a rpad e lpad para pushdown de expressão nos dialectos PostgresDialect e MsSQLServerDialect
- [SPARK-51428] [BEHAVE-264][sql] Reatribuir aliases para árvores de expressão agrupadas deterministicamente
- [SPARK-51528] [SQL] Não compare códigos hash diretamente no ProtobufCatalystDataConversionSuite
- [SPARK-51443] [SS] Corrigir singleVariantColumn no DSv2 e em readStream.
- [SPARK-51397] [SS] Corrigir o problema de gestão do encerramento do pool de manutenção que causa longos tempos de teste
- [SPARK-51522] [SQL] Desativar o teste de crianças de união preguiçosa para analisador de passagem única
- [SPARK-51079] [Fix-forward] Suporta grandes tipos de variáveis em pandas UDF, createDataFrame e toPandas com seta
-
[SPARK-51112] [ES-1348599][connect] Evitar usar o
to_pandasdo pyarrow numa tabela vazia - [SPARK-51438] [SQL] Torne o CatalystDataToProtobuf e o ProtobufDataToCatalyst adequadamente comparáveis e hasháveis
- [SPARK-50855] [DBR16.x][ss][CONNECT] Suporte do Spark Connect para TransformWithState no Scala
-
[SPARK-51208] [SQL]
ColumnDefinition.toV1Columndeve preservar aEXISTS_DEFAULTresolução - [SPARK-51468] [SQL] Reverter "De json/xml não deve alterar colações no esquema dado"
- [SPARK-51453] [SQL] AssertTrue usa toPrettySQL em vez de simpleString
- [SPARK-51409] [SS] Adicionar classificação de erros no percurso de criação do gerador de changelog
- [SPARK-51440] [SS] classificam o NPE quando o valor do campo de tópico nulo está nos dados da mensagem kafka e não há nenhuma opção de tópico
-
[SPARK-51425] [Conectar] Adicionar API de cliente para definir personalizado
operation_id - [SPARK-50652] [SS] Adicionar verificações à compatibilidade com versões anteriores do RocksDB V2
- [SPARK-49164] [SQL] Corrigir a falha de NullSafeEqual no predicado da consulta SQL na relação JDBC
- [SPARK-50880] [SQL] Adicione um novo método visitBinaryComparison ao V2ExpressionSQLBuilder
- [SPARK-50838] [SQL]Executa verificações adicionais dentro de CTEs recursivos para lançar um erro se for encontrado um caso proibido
- [SPARK-51307] [SQL] locationUri em CatalogStorageFormat deve ser decodificado para exibição
- [SPARK-51079] [PYTHON] Suporta grandes tipos de variáveis em pandas UDF, createDataFrame e toPandas com seta
- [SPARK-50792] [SQL] Formatar dados binários como literal binário no JDBC.
Suporte ao driver ODBC/JDBC do Databricks
O Databricks suporta drivers ODBC/JDBC lançados nos últimos 2 anos. Baixe os drivers lançados recentemente aqui:
Ambiente do sistema
-
Sistema Operacional: Ubuntu 24.04.2 LTS.
- Nota: Esta é a versão do Ubuntu usada pelos contêineres Databricks Runtime. Os contêineres do Databricks Runtime são executados nas máquinas virtuais do provedor de nuvem, que podem usar uma versão diferente do Ubuntu ou distribuição Linux.
- Java : Zulu17.54+21-CA
- Escala: 2.12.15 ou 2.13.10
- Píton: 3.12.3
- R: 4.4.0
- Lago Delta: 3.3.1
Bibliotecas Python instaladas
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| tipos com anotações | 0.7.0 | AstTokens | 2.0.5 | "Astunparse" | 1.6.3 |
| Comando automático | 2.2.2 | azure-core | 1.31.0 | Azure Storage Blob | 12.23.0 |
| Armazenamento de Ficheiros Azure Data Lake | 12.17.0 | backports.tarfile | 1.2.0 | preto | 24.4.2 |
| pisca | 1.7.0 | Boto3 | 1.34.69 | Botocore | 1.34.69 |
| Ferramentas de cache | 5.3.3 | certifi | 2024.6.2 | CFFI | 1.16.0 |
| Chardet | 4.0.0 | Normalizador de Charset | 2.0.4 | clicar | 8.1.7 |
| Cloudpickle | 2.2.1 | Comunicação | 0.2.1 | contorno | 1.2.0 |
| criptografia | 42.0.5 | ciclista | 0.11.0 | Cython | 3.0.11 |
| Databricks-SDK | 0.30.0 | dbus-python | 1.3.2 | depuração | 1.6.7 |
| decorador | 5.1.1 | Preterido | 1.2.14 | Distlib | 0.3.8 |
| convertendo docstring em markdown | 0.11 | executar | 0.8.3 | facetas-visão geral | 1.1.1 |
| bloqueio de arquivo | 3.15.4 | Fonttools | 4.51.0 | GitDB | 4.0.11 |
| GitPython | 3.1.37 | google-api-core | 2.20.0 | Google-Auth (Autenticação) | 2.35.0 |
| Google Cloud Core | 2.4.1 | google-armazenamento-em-nuvem | 2.18.2 | Google-CRC32C | 1.6.0 |
| google-media-reutilizável | 2.7.2 | googleapis-comuns-protos | 1.65.0 | Grpcio | 1.60.0 |
| grpcio-status | 1.60.0 | httplib2 | 0.20.4 | IDNA | 3.7 |
| importlib-metadados | 6.0.0 | importlib_resources | 6.4.0 | flexionar | 7.3.1 |
| ipyflow-núcleo | 0.0.201 | Ipykernel | 6.28.0 | IPython | 8.25.0 |
| ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 | Isodato | 0.6.1 |
| jaraco.contexto | 5.3.0 | jaraco.functools | 4.0.1 | jaraco.texto | 3.12.1 |
| Jedi | 0.19.1 | JmesPath | 1.0.1 | Joblib | 1.4.2 |
| jupyter_client | 8.6.0 | jupyter_core | 5.7.2 | Kiwisolver | 1.4.4 |
| launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 | lazr.uri | 1.0.6 |
| Matplotlib | 3.8.4 | matplotlib-em linha | 0.1.6 | Mccabe | 0.7.0 |
| mlflow-magro | 2.19.0 | mais-itertools | 10.3.0 | mypy | 1.10.0 |
| mypy extensions | 1.0.0 | Ninho-Asyncio | 1.6.0 | nodeenv | 1.9.1 |
| dormência | 1.26.4 | OAuthlib | 3.2.2 | OpenTelemetry API | 1.27.0 |
| OpenTelemetry SDK | 1.27.0 | Convenções Semânticas de OpenTelemetry | 0,48b0 | embalagem | 24.1 |
| pandas | 1.5.3 | Parso | 0.8.3 | PathSpec | 0.10.3 |
| vítima | 0.5.6 | Espere | 4.8.0 | almofada | 10.3.0 |
| pip (o gestor de pacotes do Python) | 24,2 | plataformadirs | 3.10.0 | enredo | 5.22.0 |
| Pluggy | 1.0.0 | kit de ferramentas de prompt | 3.0.43 | Proto-Plus | 1.24.0 |
| Protobuf | 4.24.1 | PSUTIL | 5.9.0 | PSYCOPG2 | 2.9.3 |
| ptyprocess | 0.7.0 | puro-eval | 0.2.2 | Pyarrow | 15.0.2 |
| Piasn1 | 0.4.8 | pyasn1-módulos | 0.2.8 | Pyccolo | 0.0.65 |
| Pycparser | 2.21 | Pidântico | 2.8.2 | pydantic_core | 2.20.1 |
| Pyflakes | 3.2.0 | Pigmentos | 2.15.1 | PyGObject | 3.48.2 |
| PyJWT | 2.7.0 | Pyodbc | 5.0.1 | Pyparsing | 3.0.9 |
| Pyright | 1.1.294 | python-dateutil (uma biblioteca de software para manipulação de datas em Python) | 2.9.0.post0 | python-lsp-jsonrpc | 1.1.2 |
| python-lsp-servidor | 1.10.0 | pytoolconfig | 1.2.6 | Pytz | 2024.1 |
| PyYAML | 6.0.1 | Pyzmq | 25.1.2 | pedidos | 2.32.2 |
| corda | 1.12.0 | RSA | 4,9 | s3transferência | 0.10.2 |
| scikit-learn (biblioteca de aprendizado de máquina em Python) | 1.4.2 | SciPy | 1.13.1 | nascido no mar | 0.13.2 |
| Ferramentas de configuração | 74.0.0 | seis | 1.16.0 | smmap | 5.0.0 |
| SQLPARSE | 0.5.1 | ssh-import-id | 5.11 | dados do stack | 0.2.0 |
| statsmodels (uma biblioteca de Python para modelos estatísticos) | 0.14.2 | tenacidade | 8.2.2 | Threadpoolctl | 2.2.0 |
| tokenize-rt | 4.2.1 | Tomli | 2.0.1 | tornado | 6.4.1 |
| Traitlets | 5.14.3 | Protetor de Tipografia | 4.3.0 | tipos-protobuf | 3.20.3 |
| tipos-psutil | 5.9.0 | tipos-pytz | 2023.3.1.1 | tipos-PyYAML | 6.0.0 |
| tipos-de-pedidos | 2.31.0.0 | tipos de setuptools | 68.0.0.0 | seis tipos | 1.16.0 |
| tipos-urllib3 | 1.26.25.14 | typing_extensions (extensões de digitação) | 4.11.0 | Ujson | 5.10.0 |
| Atualizações não supervisionadas | 0.1 | urllib3 | 1.26.16 | virtualenv | 20.26.2 |
| wadllib | 1.3.6 | wcwidth | 0.2.5 | whatthepatch (ferramenta para comparação de patches) | 1.0.2 |
| wheel | 0.43.0 | embrulhado | 1.14.1 | Yapf | 0.33.0 |
| zipp | | 3.17.0 |
Bibliotecas R instaladas
As bibliotecas R são instaladas a partir do instantâneo CRAN do Posit Package Manager em 2024-08-04.
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| seta | 16.1.0 | AskPass | 1.2.0 | afirme que | 0.2.1 |
| Retroportagens | 1.5.0 | base | 4.4.0 | base64enc | 0.1-3 |
| bigD | 0.2.0 | pouco | 4.0.5 | bit-64 | 4.0.5 |
| Bitops | 1.0-8 | blob | 1.2.4 | inicialização | 1.3-30 |
| fabricação de cerveja | 1.0-10 | Brio | 1.1.5 | vassoura | 1.0.6 |
| BSLIB | 0.8.0 | cachemira | 1.1.0 | Chamador | 3.7.6 |
| Caret | 6.0-94 | CellRanger | 1.1.0 | crono | 2.3-61 |
| classe | 7.3-22 | CLI | 3.6.3 | Clipr | 0.8.0 |
| relógio | 0.7.1 | cluster | 2.1.6 | CodeTools | 0.2-20 |
| espaço de cores | 2.1-1 | marca comum | 1.9.1 | compilador | 4.4.0 |
| Configurações | 0.3.2 | conflituoso | 1.2.0 | CPP11 | 0.4.7 |
| lápis de cor | 1.5.3 | credenciais | 2.0.1 | encaracolar | 5.2.1 |
| tabela de dados | 1.15.4 | conjuntos de dados | 4.4.0 | DBI | 1.2.3 |
| DBPlyr | 2.5.0 | descrição | 1.4.3 | DevTools | 2.4.5 |
| diagrama | 1.6.5 | diffobj | 0.3.5 | resumo | 0.6.36 |
| Iluminação reduzida | 0.4.4 | DPLYR | 1.1.4 | DTPlyr | 1.3.1 |
| E1071 | 1.7-14 | reticências | 0.3.2 | avaliar | 0.24.0 |
| Fansi | 1.0.6 | cores | 2.1.2 | mapa rápido | 1.2.0 |
| fontawesome | 0.5.2 | forçados | 1.0.0 | para cada | 1.5.2 |
| estrangeiro/a | 0.8 a 86 | forjar | 0.2.0 | FS | 1.6.4 |
| Futuro | 1.34.0 | futuro.apply | 1.11.2 | gargarejo | 1.5.2 |
| genérico | 0.1.3 | Gert | 2.1.0 | GGPLOT2 | 3.5.1 |
| GH | 1.4.1 | Git2R | 0.33.0 | gitcreds | 0.1.2 |
| GLMNET | 4.1-8 | Globais | 0.16.3 | cola | 1.7.0 |
| GoogleDrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
| gráficos | 4.4.0 | grDispositivos | 4.4.0 | grelha | 4.4.0 |
| gridExtra | 2.3 | GSUBFN | 0,7 | GT | 0.11.0 |
| tabela g | 0.3.5 | capacete de segurança | 1.4.0 | Refúgio | 2.5.4 |
| mais alto | 0.11 | HMS (Navio de Sua Majestade) | 1.1.3 | htmltools | 0.5.8.1 |
| htmlwidgets (componentes HTML interativos) | 1.6.4 | httpuv | 1.6.15 | HTTR | 1.4.7 |
| HTTR2 | 1.0.2 | identificadores | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9 a 15 | Banda isobárica | 0.2.7 | iteradores | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.8.8 | JuicyJuice | 0.1.0 |
| KernSmooth | 2.23-22 | Knitr | 1.48 | etiquetagem | 0.4.3 |
| mais tarde | 1.3.2 | treliça | 0.22-5 | lave | 1.8.0 |
| ciclo de vida | 1.0.4 | ouvir | 0.9.1 | lubridato | 1.9.3 |
| Magrittr | 2.0.3 | Marcação | 1.13 | MASSA | 7.3-60.0.1 |
| Matriz | 1.6-5 | memorização | 2.0.1 | Metodologia | 4.4.0 |
| MGCV | 1.9-1 | mímica | 0.12 | miniUI | 0.1.1.1 |
| Mlflow | 2.14.1 | ModelMetrics | 1.2.2.2 | Modelador | 0.1.11 |
| Munsell | 0.5.1 | NLME | 3.1-165 | NNET | 7.3-19 |
| numDeriv | 2016.8 a 1.1 | openssl (conjunto de ferramentas para criptografia) | 2.2.0 | paralelo | 4.4.0 |
| Paralelamente | 1.38.0 | pilar | 1.9.0 | pkgbuild | 1.4.4 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.0 | pkgload | 1.4.0 |
| plogr | 0.2.0 | Plyr | 1.8.9 | elogios | 1.0.0 |
| unidades elegantes | 1.2.0 | pROC | 1.18.5 | processx | 3.8.4 |
| Prodlim | 2024.06.25 | Profvis | 0.3.8 | Progressos | 1.2.3 |
| progressor | 0.14.0 | promessas | 1.3.0 | prototipo | 1.0.0 |
| proxy | 0.4-27 | P.S. | 1.7.7 | ronronar | 1.0.2 |
| R6 | 2.5.1 | RAGG | 1.3.2 | Floresta Aleatória | 4.7-1.1 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.13 | RcppEigen | 0.3.4.0.0 | capaz de reagir | 0.4.4 |
| reactR | 0.6.0 | Readr | 2.1.5 | ReadXL | 1.4.3 |
| receitas | 1.1.0 | revanche | 2.0.0 | revanche2 | 2.1.2 |
| Controles remotos | 2.5.0 | Exemplo Reproduzível (Reprex) | 2.1.1 | remodelar2 | 1.4.4 |
| Rlang | 1.1.4 | rmarkdown | 2.27 | RODBC | 1.3-23 |
| oxigénio2 | 7.3.2 | rpart (função de partição recursiva em R) | 4.1.23 | rprojroot | 2.0.4 |
| Reserva | 1.8-13 | RSQLite | 2.3.7 | rstudioapi | 0.16.0 |
| rversões | 2.1.2 | Rvest | 1.0.4 | Sass | 0.4.9 |
| balanças | 1.3.0 | seletor | 0.4-2 | Informação da sessão | 1.2.2 |
| forma | 1.4.6.1 | brilhante | 1.9.1 | ferramentas de código-fonte | 0.1.7-1 |
| Sparklyr (ver nota abaixo) | 1.8.6 | Faísca | 3.5.2 | espacial | 7.3-17 |
| estrias | 4.4.0 | sqldf | 0.4-11 | QUADRADO | 2021.1 |
| estatísticas | 4.4.0 | estatísticas4 | 4.4.0 | string | 1.8.4 |
| stringr | 1.5.1 | Sobrevivência | 3.6-4 | Charme | 5.17.14.1 |
| Sistema | 3.4.2 | fontes do sistema | 1.1.0 | tcltk (uma linguagem de programação) | 4.4.0 |
| teste que | 3.2.1.1 | formatação de texto | 0.4.0 | Tibble | 3.2.1 |
| Tidyr | 1.3.1 | ** "tide-selecionar" | 1.2.1 | Tidyverse | 2.0.0 |
| mudança de hora | 0.3.0 | data e hora | 4032.109 | Tinytex | 0.52 |
| Ferramentas | 4.4.0 | TZDB | 0.4.0 | verificador de URL | 1.0.1 |
| usethis | 3.0.0 | UTF8 | 1.2.4 | utilitários | 4.4.0 |
| Identificador Único Universal (UUID) | 1.2-1 | V8 | 4.4.2 | VCTRS | 0.6.5 |
| viridisLite | 0.4.2 | vruum | 1.6.5 | Waldo | 0.5.2 |
| vibrissas | 0.4.1 | murchar | 3.0.1 | xfun | 0,46 |
| XML2 | 1.3.6 | xopen | 1.0.1 | xtable | 1.8-4 |
| yaml | 2.3.10 | Zeallot | 0.1.0 | ZIP | 2.3.1 |
Observação
sparklyr é suportado apenas na imagem de release Databricks Runtime 16.4 LTS, com suporte para Scala 2.12. Não é suportado na versão de lançamento do DBR 16.4 com suporte para Scala 2.13.
Bibliotecas Java e Scala instaladas (versão de cluster Scala 2.13)
| ID do grupo | ID do artefato | Versão |
|---|---|---|
| Antlr | Antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling (SDK de Java da AWS - escalonamento automático) | 1.12.638 |
| com.amazonaws | AWS-Java-SDK-CloudFormation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
| com.amazonaws | AWS Java SDK para CloudSearch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config (configuração do AWS Java SDK) | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
| com.amazonaws | aws-java-sdk-diretório | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache (kit de desenvolvimento de software Java para Elasticache da AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (SDK Java para Elastic Beanstalk da AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (SDK Java para equilíbrio de carga elástico da AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier (Biblioteca de armazenamento Glacier da AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs | 1.12.638 |
| com.amazonaws | aws-java-sdk-aprendizado de máquina | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-rota53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | AWS Java SDK para SES | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway (SDK da AWS para Storage Gateway em Java) | 1.12.638 |
| com.amazonaws | AWS-Java-SDK-STS | 1.12.638 |
| com.amazonaws | aws-java-sdk-suporte | 1.12.638 |
| com.amazonaws | aws-java-sdk-swf-bibliotecas | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | fluxo | 2.9.6 |
| com.databricks | Reserva | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | Jatos 3T | 0.7.1-0 |
| com.databricks.scalapb | SCALAPB-runtime_2,13 | 0.4.15-11 |
| com.esotericsoftware | sombra kriogénica | 4.0.2 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | colega de turma | 1.3.4 |
| com.fasterxml.jackson.core | Jackson-Annotations | 2.15.2 |
| com.fasterxml.jackson.core | Jackson-Core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor (formato de dados em CBOR) | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
| com.fasterxml.jackson.module | jackson-módulo-paranamer | 2.15.2 |
| com.fasterxml.jackson.module | jackson-módulo-scala_2.13 | 2.15.2 |
| com.github.ben-manes.cafeína | cafeína | 2.9.3 |
| com.github.fommil | Jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-Java | 1.1 |
| com.github.fommil.netlib | native_ref-Java | 1.1-Nativos |
| com.github.fommil.netlib | sistema_nativo-Java | 1.1 |
| com.github.fommil.netlib | sistema_nativo-Java | 1.1-Nativos |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-Nativos |
| com.github.fommil.netlib | netlib-sistema_nativo-linux-x86_64 | 1.1-Nativos |
| com.github.luben | ZSTD-JNI | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | JSR305 | 3.0.0 |
| com.google.code.gson | Gson | 2.10.1 |
| com.google.crypto.tink | Tink | 1.9.0 |
| com.google.errorprone | anotações_propensas_a_erros | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 23/05/2026 |
| com.google.goiaba | Goiaba | 15,0 |
| com.google.protobuf | protobuf-java | 3.25.1 |
| com.helger | gerador de perfis | 1.1.1 |
| com.ibm.icu | ICU4J | 75.1 |
| com.jcraft | JSCH | 0.1.55 |
| com.jolbox | BoneCP | 0.8.0.LANÇAMENTO |
| com.lihaoyi | sourcecode_2.13 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK para Azure Data Lake Store) | 2.3.9 |
| com.microsoft.sqlserver | MSSQL-JDBC | 11.2.2.jre8 |
| com.microsoft.sqlserver | MSSQL-JDBC | 11.2.3.JRE8 |
| com.ning | compressa-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | JAXB-CORE | 2.2.11 |
| com.sun.xml.bind | JAXB-IMPL | 2.2.11 |
| com.tdunning | Json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.13 | 0.4.13 |
| com.twitter | Chill-java | 0.10.0 |
| com.twitter | chill_2.13 | 0.10.0 |
| com.twitter | util-app_2.13 | 19.8.1 |
| com.twitter | util-core_2.13 | 19.8.1 |
| com.twitter | util-function_2.13 | 19.8.1 |
| com.twitter | util-jvm_2.13 | 19.8.1 |
| com.twitter | util-lint_2.13 | 19.8.1 |
| com.twitter | util-registry_2.13 | 19.8.1 |
| com.twitter | util-stats_2.13 | 19.8.1 |
| com.typesafe | Configurações | 1.4.3 |
| com.typesafe.scala-logging | Escala-logging_2,13 | 3.9.2 |
| com.uber | h3 | 3.7.3 |
| com.univocidade | analisadores de univocidade | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| codec commons | codec commons | 1.16.0 |
| Commons Collections | Commons Collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload (upload de ficheiros comuns) | commons-fileupload (upload de ficheiros comuns) | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| registo de comuns | registo de comuns | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | ARPACK | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | LAPACK | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.ponte aérea | compressor de ar | 0.27 |
| IO.Delta | delta-compartilhamento-client_2.13 | 1.2.3 |
| io.dropwizard.metrics | métricas e anotação | 4.2.19 |
| io.dropwizard.metrics | métricas-base | 4.2.19 |
| io.dropwizard.metrics | métricas-grafite | 4.2.19 |
| io.dropwizard.metrics | métricas e verificações de saúde | 4.2.19 |
| io.dropwizard.metrics | métricas-jetty9 | 4.2.19 |
| io.dropwizard.metrics | métricas-jmx | 4.2.19 |
| io.dropwizard.metrics | métricas-json | 4.2.19 |
| io.dropwizard.metrics | métricas do JVM | 4.2.19 |
| io.dropwizard.metrics | Métricas-Servlets | 4.2.19 |
| io.github.java-diff-utils | java-diff-utils | 4.12 |
| io.netty | netty-tudo | 4.1.108.Final |
| io.netty | netty-buffer | 4.1.108.Final |
| io.netty | netty-codec | 4.1.108.Final |
| io.netty | netty-codec-http | 4.1.108.Final |
| io.netty | netty-codec-http2 | 4.1.108.Final |
| io.netty | netty-codec-meias | 4.1.108.Final |
| io.netty | Netty Comum | 4.1.108.Final |
| io.netty | Netty Handler | 4.1.108.Final |
| io.netty | netty-handler-proxy | 4.1.108.Final |
| io.netty | netty-resolver (resolução do Netty) | 4.1.108.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-janelas-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.61.Última |
| io.netty | Netty-Transport | 4.1.108.Final |
| io.netty | netty-transport-classes-epoll | 4.1.108.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-x86_64 |
| io.netty | netty-transport-nativo-kqueue | 4.1.108.Final-osx-aarch_64 |
| io.netty | netty-transport-nativo-kqueue | 4.1.108.Final-osx-x86_64 |
| io.netty | netty-transport-nativo-unix-comum | 4.1.108.Final |
| io.prometeu | cliente simples | 0.7.0 |
| io.prometeu | simpleclient_comum | 0.7.0 |
| io.prometeu | simpleclient_dropwizard | 0.7.0 |
| io.prometeu | simpleclient_pushgateway | 0.7.0 |
| io.prometeu | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | recoletor | 0.12.0 |
| jacarta.anotação | Jakarta.annotation-api | 1.3.5 |
| jacarta.servlet | jacarta.servlet-api | 4.0.3 |
| Jakarta.validação | Jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | Jakarta.ws.rs-api | 2.1.6 |
| javax.ativação | ativação | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | JDO-API | 3.0.1 |
| javax.transaction | JTA | 1.1 |
| javax.transaction | API de transação | 1.1 |
| javax.xml.bind | JAXB-API | 2.2.11 |
| Javolution | Javolution | 5.5.1 |
| Jline | Jline | 2.14.6 |
| Joda-Time | Joda-Time | 2.12.1 |
| net.java.dev.jna | JNA | 5.8.0 |
| net.razorvine | conserva | 1.3 |
| net.sf.jpam | JPAM | 1.1 |
| net.sf.opencsv | OpenCSV | 2.3 |
| net.sf.supercsv | Super-CSV | 2.2.0 |
| net.floco de neve | Snowflake Ingest SDK | 0.9.6 |
| net.sourceforge.f2j | arpack_combinado_tudo | 0.1 |
| org.acplt.remotetea | Remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | ANTLR Runtime | 3.5.2 |
| org.antlr | antlr4-tempo de execução | 4.9.3 |
| org.antlr | StringTemplate | 3.2.1 |
| org.apache.ant | formiga | 1.10.11 |
| org.apache.ant | ANT-JSCH | 1.10.11 |
| org.apache.ant | lançador de formigas | 1.10.11 |
| org.apache.arrow | formato de flecha | 15.0.0 |
| org.apache.arrow | núcleo de memória Arrow | 15.0.0 |
| org.apache.arrow | Arrow-Memory-Netty | 15.0.0 |
| org.apache.arrow | vetor de seta | 15.0.0 |
| org.apache.avro | Avro | 1.11.3 |
| org.apache.avro | AVRO-IPC | 1.11.3 |
| org.apache.avro | avro-mapreduce | 1.11.3 |
| org.apache.commons | colecções-commons4 | 4.4 |
| org.apache.commons | commons-comprimir | 1.23.0 |
| org.apache.commons | commons-cripto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-matemática3 | 3.6.1 |
| org.apache.commons | commons-texto | 1.10.0 |
| org.apache.curador | curador e cliente | 2.13.0 |
| org.apache.curador | Framework de Curadoria | 2.13.0 |
| org.apache.curador | curador de receitas | 2.13.0 |
| org.apache.datasketches | Datasketches-Java | 3.1.0 |
| org.apache.datasketches | datasketches-memória | 2.0.0 |
| org.apache.derby | Dérbi | 10.14.2.0 |
| org.apache.hadoop | tempo de execução do cliente Hadoop | 3.3.6 |
| org.apache.hive | colmeia-abelha | 2.3.9 |
| org.apache.hive | Hive-CLI | 2.3.9 |
| org.apache.hive | Hive-JDBC | 2.3.9 |
| org.apache.hive | Hive-LLAP-Cliente | 2.3.9 |
| org.apache.hive | hive-llap-comum | 2.3.9 |
| org.apache.hive | Hive-Serde | 2.3.9 |
| org.apache.hive | colmeias-calços | 2.3.9 |
| org.apache.hive | API de armazenamento Hive | 2.8.1 |
| org.apache.hive.shims | colmeia-calços-0,23 | 2.3.9 |
| org.apache.hive.shims | colmeia-calços-comum | 2.3.9 |
| org.apache.hive.shims | colmeia-shims-scheduler | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | Núcleo Http | 4.4.16 |
| org.apache.ivy | hera | 2.5.2 |
| org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
| org.apache.logging.log4j | log4j-api | 2.22.1 |
| org.apache.logging.log4j | log4j-core | 2.22.1 |
| org.apache.logging.log4j | log4j-layout-esquema-json | 2.22.1 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
| org.apache.orc | núcleo de orc | 1.9.2-protobuf sombreado |
| org.apache.orc | orc-mapreduce | 1.9.2-protobuf sombreado |
| org.apache.orc | Orc-cunhas | 1.9.2 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-sombreado | 4.23 |
| org.apache.yetus | anotações do público | 0.13.0 |
| org.apache.zookeeper | cuidador de zoológico | 3.9.2 |
| org.apache.zookeeper | guarda de zoológico-juta | 3.9.2 |
| org.checkerframework | verificador de qualidade | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-ASL | 1.9.13 |
| org.codehaus.janino | compilador comum | 3.0.16 |
| org.codehaus.janino | Janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | DataNucleus Core | 4.1.17 |
| org.datanucleus | Datanucleus-RDBMS | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.collections | Eclipse Collections | 11.1.0 |
| org.eclipse.collections | eclipse-collections-API | 11.1.0 |
| org.eclipse.píer | Jetty-Cliente | 9.4.52.v20230823 |
| org.eclipse.píer | jetty-continuation (componente de software do Jetty) | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty-HTTP | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty IO | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty-JNDI | 9.4.52.v20230823 |
| org.eclipse.píer | Cais-Plus | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty-Proxy | 9.4.52.v20230823 |
| org.eclipse.píer | Segurança do Jetty | 9.4.52.v20230823 |
| org.eclipse.píer | servidor jetty | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty-servlet | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty-servlets | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty-util | 9.4.52.v20230823 |
| org.eclipse.píer | cais-util-ajax | 9.4.52.v20230823 |
| org.eclipse.píer | Aplicação web Jetty | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty-XML | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | API WebSocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | Websocket-cliente | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | Websocket-Comum | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | servidor websocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | Websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | HK2-API | 2.6.1 |
| org.glassfish.hk2 | HK2-Localizador | 2.6.1 |
| org.glassfish.hk2 | HK2-Utils | 2.6.1 |
| org.glassfish.hk2 | localizador de recursos OSGi | 1.0.3 |
| org.glassfish.hk2.externo | aopalliance-reembalado | 2.6.1 |
| org.glassfish.hk2.externo | jacarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet (serviço de contêiner Jersey) | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
| org.glassfish.jersey.core | jersey-cliente | 2.40 |
| org.glassfish.jersey.core | Jersey comum | 2.40 |
| org.glassfish.jersey.core | servidor Jersey | 2.40 |
| org.glassfish.jersey.inject | Jersey-HK2 | 2.40 |
| org.hibernate.validator | hibernate-validator (ferramenta de validação de dados de Java) | 6.1.7.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | Javassist | 3.29.2-GA |
| org.jboss.logging | jboss-registro em log | 3.3.2.Final |
| org.jdbi | JDBI | 2.63.1 |
| org.jetbrains | anotações | 17.0.0 |
| org.jline | Jline | 3.21.0 |
| org.joda | joda-converter | 1.7 |
| org.jodd | JODD-CORE | 3.5.2 |
| org.json4s | JSON4S-ast_2,13 | 3.7.0-M11 |
| org.json4s | JSON4S-core_2.13 | 3.7.0-M11 |
| org.json4s | JSON4S-jackson_2,13 | 3.7.0-M11 |
| org.json4s | JSON4S-scalap_2.13 | 3.7.0-M11 |
| org.lz4 | LZ4-Java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2,13 | 2.9.1 |
| org.objenesis | objenese | 2.5.1 |
| org.postgresql | PostgreSQL | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
| org.roaringbitmap | calços | 0.9.45-databricks |
| org.rocksdb | rocksdbjni | 9.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | Escala-compiler_2,13 | 2.13.10 |
| org.scala-lang | Escala-library_2,13 | 2.13.10 |
| org.scala-lang | Escala-reflect_2,13 | 2.13.10 |
| org.scala-lang.modules | scala-coleção-compat_2.13 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.13 | 0.9.1 |
| org.scala-lang.modules | scala-paralelo-collections_2.13 | 1.0.4 |
| org.scala-lang.modules | scala-parser-combinators_2.13 | 1.1.2 |
| org.scala-lang.modules | Escala-xml_2,13 | 1.2.0 |
| org.scala-sbt | interface de teste | 1.0 |
| org.scalacheck | scalacheck_2.13 | 1.14.2 |
| org.scalactic | scalactic_2.13 | 3.2.16 |
| org.scalanlp | Breeze-macros_2.13 | 2.1.0 |
| org.scalanlp | breeze_2.13 | 2.1.0 |
| org.scalatest | compatível com scalatest | 3.2.16 |
| org.scalatest | escalatest-core_2.13 | 3.2.16 |
| org.scalatest | scalatest-diagrams_2.13 | 3.2.16 |
| org.scalatest | scalatest-featurespec_2.13 | 3.2.16 |
| org.scalatest | scalatest-flatspec_2.13 | 3.2.16 |
| org.scalatest | scalatest-freespec_2.13 | 3.2.16 |
| org.scalatest | scalatest-funspec_2.13 | 3.2.16 |
| org.scalatest | scalatest-funsuite_2.13 | 3.2.16 |
| org.scalatest | scalatest-matchers-core_2.13 | 3.2.16 |
| org.scalatest | scalatest-mustmatchers_2.13 | 3.2.16 |
| org.scalatest | scalatest-propspec_2.13 | 3.2.16 |
| org.scalatest | escalatest-refspec_2.13 | 3.2.16 |
| org.scalatest | scalatest-shouldmatchers_2.13 | 3.2.16 |
| org.scalatest | scalatest-wordspec_2.13 | 3.2.16 |
| org.scalatest | scalatest_2.13 | 3.2.16 |
| org.slf4j | jcl-compatível-com-slf4j | 2.0.7 |
| org.slf4j | jul-para-slf4j | 2.0.7 |
| org.slf4j | SLF4J-API | 2.0.7 |
| org.slf4j | SLF4J-Simples | 1.7.25 |
| org.threeten | ThreeTen-Extra | 1.7.1 |
| org.tukaani | XZ | 1.9 |
| org.typelevel | algebra_2.13 | 2.8.0 |
| org.typelevel | gatos-kernel_2.13 | 2.8.0 |
| org.typelevel | torre-macros_2.13 | 0.18.0 |
| org.typelevel | espira-platform_2.13 | 0.18.0 |
| org.typelevel | torre-util_2.13 | 0.18.0 |
| org.typelevel | spire_2.13 | 0.18.0 |
| org.wildfly.openssl | WildFly-OpenSSL | 1.1.3.Final |
| org.xerial | SQLITE-JDBC | 3.42.0.0 |
| org.xerial.snappy | Snappy-java | 1.1.10.3 |
| org.yaml | Snakeyaml | 2.0 |
| ouro | ouro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.4.1-linux-x86_64 |
| Stax | Stax-API | 1.0.1 |
Bibliotecas Java e Scala instaladas (versão de cluster Scala 2.12)
| ID do grupo | ID do artefato | Versão |
|---|---|---|
| Antlr | Antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling (SDK de Java da AWS - escalonamento automático) | 1.12.638 |
| com.amazonaws | AWS-Java-SDK-CloudFormation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
| com.amazonaws | AWS Java SDK para CloudSearch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config (configuração do AWS Java SDK) | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
| com.amazonaws | aws-java-sdk-diretório | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache (kit de desenvolvimento de software Java para Elasticache da AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (SDK Java para Elastic Beanstalk da AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (SDK Java para equilíbrio de carga elástico da AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier (Biblioteca de armazenamento Glacier da AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs | 1.12.638 |
| com.amazonaws | aws-java-sdk-aprendizado de máquina | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-rota53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | AWS Java SDK para SES | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway (SDK da AWS para Storage Gateway em Java) | 1.12.638 |
| com.amazonaws | AWS-Java-SDK-STS | 1.12.638 |
| com.amazonaws | aws-java-sdk-suporte | 1.12.638 |
| com.amazonaws | aws-java-sdk-swf-bibliotecas | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.azure | azure-core | 1.30.0 |
| com.azure | azure-core-http-netty | 1.12.3 |
| com.azure | azure-identity (serviços de identidade do Azure) | 1.5.3 |
| com.azure | azure-segurança-cofre-de-chaves | 4.4.4 |
| com.clearspring.analytics | fluxo | 2.9.6 |
| com.databricks | Reserva | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | Jatos 3T | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2,12 | 0.4.15-10 |
| com.esotericsoftware | sombra kriogénica | 4.0.2 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | colega de turma | 1.3.4 |
| com.fasterxml.jackson.core | Jackson-Annotations | 2.15.2 |
| com.fasterxml.jackson.core | Jackson-Core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor (formato de dados em CBOR) | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-xml | 2.13.3 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
| com.fasterxml.jackson.module | jackson-módulo-paranamer | 2.15.2 |
| com.fasterxml.jackson.module | jackson-módulo-scala_2.12 | 2.15.2 |
| com.fasterxml.woodstox | Woodstox Core | 6.4.0 |
| com.github.ben-manes.cafeína | cafeína | 2.9.3 |
| com.github.fommil | Jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-Java | 1.1 |
| com.github.fommil.netlib | native_ref-Java | 1.1-Nativos |
| com.github.fommil.netlib | sistema_nativo-Java | 1.1 |
| com.github.fommil.netlib | sistema_nativo-Java | 1.1-Nativos |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-Nativos |
| com.github.fommil.netlib | netlib-sistema_nativo-linux-x86_64 | 1.1-Nativos |
| com.github.luben | ZSTD-JNI | 1.5.5-4 |
| com.github.stephenc.jcip | anotações jcip | 1.0-1 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | JSR305 | 3.0.0 |
| com.google.code.gson | Gson | 2.10.1 |
| com.google.crypto.tink | Tink | 1.9.0 |
| com.google.errorprone | anotações_propensas_a_erros | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 23/05/2026 |
| com.google.goiaba | Goiaba | 15,0 |
| com.google.protobuf | protobuf-java | 3.25.1 |
| com.helger | gerador de perfis | 1.1.1 |
| com.ibm.icu | ICU4J | 75.1 |
| com.jcraft | JSCH | 0.1.55 |
| com.jolbox | BoneCP | 0.8.0.LANÇAMENTO |
| com.lihaoyi | código-fonte_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK para Azure Data Lake Store) | 2.3.9 |
| com.microsoft.azure | MSAL4J | 1.13.0 |
| com.microsoft.azure | msal4j-extensão-de-persistência | 1.1.0 |
| com.microsoft.sqlserver | MSSQL-JDBC | 11.2.2.jre8 |
| com.microsoft.sqlserver | MSSQL-JDBC | 11.2.3.JRE8 |
| com.nimbusds | tipo de conteúdo | 2.2 |
| com.nimbusds | lang-tag | 1.6 |
| com.nimbusds | Nimbus-jose-JWT | 9.31 |
| com.nimbusds | oauth2-oidc-sdk | 9.35 |
| com.ning | compressa-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | JAXB-CORE | 2.2.11 |
| com.sun.xml.bind | JAXB-IMPL | 2.2.11 |
| com.tdunning | Json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentes_2.12 | 0.4.12 |
| com.twitter | Chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | Configurações | 1.4.3 |
| com.typesafe.scala-logging | Escala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocidade | analisadores de univocidade | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| codec commons | codec commons | 1.16.0 |
| Commons Collections | Commons Collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload (upload de ficheiros comuns) | commons-fileupload (upload de ficheiros comuns) | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| registo de comuns | registo de comuns | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | ARPACK | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | LAPACK | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.ponte aérea | compressor de ar | 0.27 |
| IO.Delta | delta-compartilhamento-cliente_2.12 | 1.2.4 |
| io.dropwizard.metrics | métricas e anotação | 4.2.19 |
| io.dropwizard.metrics | métricas-base | 4.2.19 |
| io.dropwizard.metrics | métricas-grafite | 4.2.19 |
| io.dropwizard.metrics | métricas e verificações de saúde | 4.2.19 |
| io.dropwizard.metrics | métricas-jetty9 | 4.2.19 |
| io.dropwizard.metrics | métricas-jmx | 4.2.19 |
| io.dropwizard.metrics | métricas-json | 4.2.19 |
| io.dropwizard.metrics | métricas do JVM | 4.2.19 |
| io.dropwizard.metrics | Métricas-Servlets | 4.2.19 |
| io.netty | netty-tudo | 4.1.108.Final |
| io.netty | netty-buffer | 4.1.108.Final |
| io.netty | netty-codec | 4.1.108.Final |
| io.netty | netty-codec-dns | 4.1.77.Final |
| io.netty | netty-codec-http | 4.1.108.Final |
| io.netty | netty-codec-http2 | 4.1.108.Final |
| io.netty | netty-codec-meias | 4.1.108.Final |
| io.netty | Netty Comum | 4.1.108.Final |
| io.netty | Netty Handler | 4.1.108.Final |
| io.netty | netty-handler-proxy | 4.1.108.Final |
| io.netty | netty-resolver (resolução do Netty) | 4.1.108.Final |
| io.netty | netty-resolver-dns (módulo para resolução de DNS) | 4.1.77.Final |
| io.netty | netty-resolver-dns-classes-macos | 4.1.77.Final |
| io.netty | netty-resolver-dns-nativo-macOS | 4.1.77.Final-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-janelas-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.61.Última |
| io.netty | Netty-Transport | 4.1.108.Final |
| io.netty | netty-transport-classes-epoll | 4.1.108.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-x86_64 |
| io.netty | netty-transport-nativo-kqueue | 4.1.108.Final-osx-aarch_64 |
| io.netty | netty-transport-nativo-kqueue | 4.1.108.Final-osx-x86_64 |
| io.netty | netty-transport-nativo-unix-comum | 4.1.108.Final |
| io.projectreactor | núcleo do reator | 3.4.19 |
| io.projectreactor.netty | reactor-netty-core | 1.0.20 |
| io.projectreactor.netty | reator-netty-http | 1.0.20 |
| io.prometeu | cliente simples | 0.7.0 |
| io.prometeu | simpleclient_comum | 0.7.0 |
| io.prometeu | simpleclient_dropwizard | 0.7.0 |
| io.prometeu | simpleclient_pushgateway | 0.7.0 |
| io.prometeu | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | recoletor | 0.12.0 |
| jacarta.anotação | Jakarta.annotation-api | 1.3.5 |
| jacarta.servlet | jacarta.servlet-api | 4.0.3 |
| Jakarta.validação | Jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | Jakarta.ws.rs-api | 2.1.6 |
| javax.ativação | ativação | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | JDO-API | 3.0.1 |
| javax.transaction | JTA | 1.1 |
| javax.transaction | API de transação | 1.1 |
| javax.xml.bind | JAXB-API | 2.2.11 |
| Javolution | Javolution | 5.5.1 |
| Jline | Jline | 2.14.6 |
| Joda-Time | Joda-Time | 2.12.1 |
| net.java.dev.jna | JNA | 5.8.0 |
| net.java.dev.jna | Plataforma JNA | 5.6.0 |
| net.minidev | Acessores-inteligentes | 2.4.11 |
| net.minidev | JSON-SMART | 2.4.11 |
| net.razorvine | conserva | 1.3 |
| net.sf.jpam | JPAM | 1.1 |
| net.sf.opencsv | OpenCSV | 2.3 |
| net.sf.supercsv | Super-CSV | 2.2.0 |
| net.floco de neve | Snowflake Ingest SDK | 0.9.6 |
| net.sourceforge.f2j | arpack_combinado_tudo | 0.1 |
| org.acplt.remotetea | Remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | ANTLR Runtime | 3.5.2 |
| org.antlr | antlr4-tempo de execução | 4.9.3 |
| org.antlr | StringTemplate | 3.2.1 |
| org.apache.ant | formiga | 1.10.11 |
| org.apache.ant | ANT-JSCH | 1.10.11 |
| org.apache.ant | lançador de formigas | 1.10.11 |
| org.apache.arrow | formato de flecha | 15.0.0 |
| org.apache.arrow | núcleo de memória Arrow | 15.0.0 |
| org.apache.arrow | Arrow-Memory-Netty | 15.0.0 |
| org.apache.arrow | vetor de seta | 15.0.0 |
| org.apache.avro | Avro | 1.11.3 |
| org.apache.avro | AVRO-IPC | 1.11.3 |
| org.apache.avro | avro-mapreduce | 1.11.3 |
| org.apache.commons | colecções-commons4 | 4.4 |
| org.apache.commons | commons-comprimir | 1.23.0 |
| org.apache.commons | commons-cripto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-matemática3 | 3.6.1 |
| org.apache.commons | commons-texto | 1.10.0 |
| org.apache.curador | curador e cliente | 2.13.0 |
| org.apache.curador | Framework de Curadoria | 2.13.0 |
| org.apache.curador | curador de receitas | 2.13.0 |
| org.apache.datasketches | Datasketches-Java | 3.1.0 |
| org.apache.datasketches | datasketches-memória | 2.0.0 |
| org.apache.derby | Dérbi | 10.14.2.0 |
| org.apache.hadoop | tempo de execução do cliente Hadoop | 3.3.6 |
| org.apache.hive | colmeia-abelha | 2.3.9 |
| org.apache.hive | Hive-CLI | 2.3.9 |
| org.apache.hive | Hive-JDBC | 2.3.9 |
| org.apache.hive | Hive-LLAP-Cliente | 2.3.9 |
| org.apache.hive | hive-llap-comum | 2.3.9 |
| org.apache.hive | Hive-Serde | 2.3.9 |
| org.apache.hive | colmeias-calços | 2.3.9 |
| org.apache.hive | API de armazenamento Hive | 2.8.1 |
| org.apache.hive.shims | colmeia-calços-0,23 | 2.3.9 |
| org.apache.hive.shims | colmeia-calços-comum | 2.3.9 |
| org.apache.hive.shims | colmeia-shims-scheduler | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | Núcleo Http | 4.4.16 |
| org.apache.ivy | hera | 2.5.2 |
| org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
| org.apache.logging.log4j | log4j-api | 2.22.1 |
| org.apache.logging.log4j | log4j-core | 2.22.1 |
| org.apache.logging.log4j | log4j-layout-esquema-json | 2.22.1 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
| org.apache.orc | núcleo de orc | 1.9.2-protobuf sombreado |
| org.apache.orc | orc-mapreduce | 1.9.2-protobuf sombreado |
| org.apache.orc | Orc-cunhas | 1.9.2 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-sombreado | 4.23 |
| org.apache.yetus | anotações do público | 0.13.0 |
| org.apache.zookeeper | cuidador de zoológico | 3.9.2 |
| org.apache.zookeeper | guarda de zoológico-juta | 3.9.2 |
| org.bouncycastle | bcprov-jdk15on | 1.70 |
| org.checkerframework | verificador de qualidade | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-ASL | 1.9.13 |
| org.codehaus.janino | compilador comum | 3.0.16 |
| org.codehaus.janino | Janino | 3.0.16 |
| org.codehaus.woodstox | Stax2-API | 4.2.1 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | DataNucleus Core | 4.1.17 |
| org.datanucleus | Datanucleus-RDBMS | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.collections | Eclipse Collections | 11.1.0 |
| org.eclipse.collections | eclipse-collections-API | 11.1.0 |
| org.eclipse.píer | Jetty-Cliente | 9.4.52.v20230823 |
| org.eclipse.píer | jetty-continuation (componente de software do Jetty) | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty-HTTP | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty IO | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty-JNDI | 9.4.52.v20230823 |
| org.eclipse.píer | Cais-Plus | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty-Proxy | 9.4.52.v20230823 |
| org.eclipse.píer | Segurança do Jetty | 9.4.52.v20230823 |
| org.eclipse.píer | servidor jetty | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty-servlet | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty-servlets | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty-util | 9.4.52.v20230823 |
| org.eclipse.píer | cais-util-ajax | 9.4.52.v20230823 |
| org.eclipse.píer | Aplicação web Jetty | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty-XML | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | API WebSocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | Websocket-cliente | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | Websocket-Comum | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | servidor websocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | Websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | HK2-API | 2.6.1 |
| org.glassfish.hk2 | HK2-Localizador | 2.6.1 |
| org.glassfish.hk2 | HK2-Utils | 2.6.1 |
| org.glassfish.hk2 | localizador de recursos OSGi | 1.0.3 |
| org.glassfish.hk2.externo | aopalliance-reembalado | 2.6.1 |
| org.glassfish.hk2.externo | jacarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet (serviço de contêiner Jersey) | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
| org.glassfish.jersey.core | jersey-cliente | 2.40 |
| org.glassfish.jersey.core | Jersey comum | 2.40 |
| org.glassfish.jersey.core | servidor Jersey | 2.40 |
| org.glassfish.jersey.inject | Jersey-HK2 | 2.40 |
| org.hibernate.validator | hibernate-validator (ferramenta de validação de dados de Java) | 6.1.7.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | Javassist | 3.29.2-GA |
| org.jboss.logging | jboss-registro em log | 3.3.2.Final |
| org.jdbi | JDBI | 2.63.1 |
| org.jetbrains | anotações | 17.0.0 |
| org.joda | joda-converter | 1.7 |
| org.jodd | JODD-CORE | 3.5.2 |
| org.json4s | JSON4S-ast_2.12 | 3.7.0-M11 |
| org.json4s | JSON4S-core_2.12 | 3.7.0-M11 |
| org.json4s | JSON4S-jackson_2,12 | 3.7.0-M11 |
| org.json4s | JSON4S-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | LZ4-Java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2,12 | 2.9.1 |
| org.objenesis | objenese | 2.5.1 |
| org.ow2.asm | ASM | 9.3 |
| org.postgresql | PostgreSQL | 42.6.1 |
| org.reactivestreams | fluxos reativos | 1.0.4 |
| org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
| org.roaringbitmap | calços | 0.9.45-databricks |
| org.rocksdb | rocksdbjni | 9.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | Escala-compiler_2.12 | 2.12.15 |
| org.scala-lang | Escala-library_2.12 | 2.12.15 |
| org.scala-lang | Escala-reflect_2,12 | 2.12.15 |
| org.scala-lang.modules | scala-coleção-compat_2.12 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.12 | 0.9.1 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | Escala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interface de teste | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.16 |
| org.scalanlp | Brisa-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | compatível com scalatest | 3.2.16 |
| org.scalatest | scalatest-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.16 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.16 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.16 |
| org.scalatest | scalatest_2.12 | 3.2.16 |
| org.slf4j | jcl-compatível-com-slf4j | 2.0.7 |
| org.slf4j | jul-para-slf4j | 2.0.7 |
| org.slf4j | SLF4J-API | 2.0.7 |
| org.slf4j | SLF4J-Simples | 1.7.25 |
| org.threeten | ThreeTen-Extra | 1.7.1 |
| org.tukaani | XZ | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | gatos-kernel_2.12 | 2.1.1 |
| org.typelevel | torre-macros_2.12 | 0.17.0 |
| org.typelevel | torre-platform_2.12 | 0.17.0 |
| org.typelevel | torre-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | WildFly-OpenSSL | 1.1.3.Final |
| org.xerial | SQLITE-JDBC | 3.42.0.0 |
| org.xerial.snappy | Snappy-java | 1.1.10.3 |
| org.yaml | Snakeyaml | 2.0 |
| ouro | ouro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.4.1-linux-x86_64 |
| Stax | Stax-API | 1.0.1 |
Sugestão
Para ver as notas de versão das versões do Databricks Runtime que atingiram o fim do suporte (EoS), consulte Notas de versão do Databricks Runtime que atingiram o fim do suporte. As versões do EoS Databricks Runtime foram desativadas e podem não ser atualizadas.