Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
Observação
O suporte para esta versão do Databricks Runtime terminou. Para obter a data de fim do suporte, consulte Histórico de fim do suporte. Para todas as versões suportadas do Databricks Runtime, consulte Versões e compatibilidade das notas de versão do Databricks Runtime.
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 16.3, desenvolvido pelo Apache Spark 3.5.2.
A Databricks lançou esta versão em março de 2025.
Mudanças comportamentais
Correção de bug para as opções do Auto Loader: modifiedBefore, modifiedAfter, pathGlobFilter
Anteriormente, modificando os valores das opções modifiedBeforedo Auto Loader , modifiedAftere pathGlobFilter não teve efeito. Esse problema foi corrigido.
Agora, quando você modifica os valores desses filtros, o Auto Loader ingere novos arquivos que passam pelos filtros. Se menos arquivos forem qualificados com base em valores de filtro atualizados, os arquivos que não são mais qualificados não serão removidos do coletor, mas permanecerão ingeridos.
Mensagem de erro melhorada quando kafka.sasl.client.callback.handler.class é atribuído um valor inválido
Esta versão inclui uma alteração para retornar uma mensagem de erro mais descritiva quando kafka.sasl.client.callback.handler.class é atribuído um valor inválido.
A nova mensagem de erro é org.apache.spark.sql.AnalysisException: [RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED.KAFKA_CLIENT_CALLBACK_SHADED_CLASS] The option kafka.sasl.client.callback.handler.class has restricted values on Shared clusters for the kafka source. The Kafka client callback class must be "shadedmskiam.software.amazon.msk.auth.iam.IAMClientCallbackHandler". SQLSTATE: 0A000
Anteriormente, a mensagem de erro retornada era org.apache.spark.sql.AnalysisException: [UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED] Streaming options kafka.sasl.client.callback.handler.class are not supported for data source kafka on a shared cluster. Please confirm that the options are specified and spelled correctly, and check https://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-shared for limitations. SQLSTATE: 0A000
Novos recursos e melhorias
- O suporte ao leitor de estado é GA para computação padrão
- O downgrade do protocolo Delta table está em Disponibilidade Geral com proteção de ponto de verificação
- Escrever scripts SQL processuais com base em ANSI SQL/PSM (Public Preview)
- Agrupamento padrão a nível de tabelas e vistas
- Instalar dependências personalizadas em UDFs Python do Unity Catalog (Visualização Pública)
- Alterar várias colunas da tabela em uma ALTER TABLE instrução
-
Suporte para
transformWithStateInPandasem computação standard -
Suporte para
MERGE INTOtabelas com controlo de acesso detalhado em computação dedicada (Pré-visualização pública) - Suporte para anexar dados a tabelas controladas de acesso refinado em computação dedicada
- Suporte aprimorado para auto-junções com objetos controlados de acesso refinado em computação dedicada
- Novas funções H3
O suporte ao leitor de estado é GA para computação padrão
O suporte para a leitura de informações de estado para consultas de Streaming Estruturado está agora geralmente disponível para computações configuradas com o modo de acesso padrão. Consulte Ler informações de estado do Structured Streaming.
O downgrade do protocolo da tabela delta é GA com proteção de ponto de verificação
DROP FEATURE está disponível geralmente para remover funcionalidades da tabela Delta Lake e reverter o protocolo da tabela. Por padrão, DROP FEATURE agora cria pontos de verificação protegidos para uma experiência de downgrade mais otimizada e simplificada que não requer tempo de espera ou truncamento de histórico. Consulte Remover uma funcionalidade da tabela Delta Lake e fazer downgrade do protocolo da tabela.
Escrever scripts SQL processuais com base em ANSI SQL/PSM (Public Preview)
Agora você pode usar recursos de script baseados em ANSI SQL/PSM para escrever lógica processual com SQL, incluindo instruções de fluxo de controle, variáveis locais e tratamento de exceções. Consulte programação SQL.
Agrupamento padrão de tabela e nível de exibição
Agora você pode especificar um agrupamento padrão para tabelas e exibições. Isso simplifica a criação de tabelas e modos de exibição onde todas ou a maioria das colunas compartilham o mesmo agrupamento. Consulte Classificação.
Instalar dependências personalizadas no Unity Catalog Python UDFs (Visualização pública)
Estenda a funcionalidade de UDFs Python além do ambiente Databricks Runtime definindo dependências personalizadas para bibliotecas externas. Consulte Estender UDFs usando dependências personalizadas.
Alterar várias colunas de uma tabela com uma única instrução ALTER TABLE
No Databricks Runtime 16.3, você pode alterar várias colunas em uma única ALTER TABLE instrução. Ver ALTER TABLE cláusula. COLUMN
Suporte para transformWithStateInPandas em computação padrão
Agora você pode usar transformWithStateInPandas na computação configurada com o modo de acesso padrão. Consulte Criar uma aplicação com estado personalizado.
Suporte para MERGE INTO tabelas com controle de acesso refinado em computação dedicada (Visualização pública)
No Databricks Runtime 16.3 e posterior, a computação dedicada suporta MERGE INTO tabelas do Unity Catalog que usam controle de acesso detalhado. Semelhante à leitura desses objetos, os comandos MERGE são passados automaticamente para a computação sem servidor quando necessário.
Consulte Controle de acesso refinado em computação dedicada.
Suporte para anexar dados a tabelas controladas de acesso refinado em computação dedicada
No Databricks Runtime 16.3 e nas versões superiores, o processamento dedicado suporta adicionar a objetos no Unity Catalog que usam controle de acesso granular. Para usar esse recurso, use a DataFrame.write.mode("append") função na API do Apache Spark. Semelhante à leitura desses objetos, as escritas adicionais são automaticamente passadas para um ambiente de computação sem servidor quando necessário.
Para saber mais sobre como usar computação dedicada com objetos do Unity Catalog controlados por acesso refinado, consulte Controle de acesso refinado em computação dedicada.
Suporte aprimorado para auto-uniões com objetos com controle de acesso refinado em computação dedicada
No Databricks Runtime 16.3 e versões superiores, a funcionalidade de filtragem de dados para controle de acesso granulado em recursos de computação dedicados agora sincroniza automaticamente instantâneos de dados entre recursos de computação dedicados e sem servidor, com exceção de vistas materializadas e quaisquer vistas, vistas materializadas e tabelas de streaming partilhadas através do Delta Sharing. Esta funcionalidade aprimorada garante que as autoassociações retornem capturas idênticas quando a filtragem de dados é utilizada. Consulte Controle de acesso refinado em computação dedicada.
Novas funções H3
Três novas funções H3 foram adicionadas: h3_try_coverash3, h3_try_coverash3string e h3_try_tessellateaswkb.
Atualizações da biblioteca
Bibliotecas Python atualizadas:
- mlflow-skinny de 2.15.1 até 2.19.0
Bibliotecas R atualizadas:
Bibliotecas Java atualizadas:
Apache Spark
O Databricks Runtime 16.3 inclui o Apache Spark 3.5.2. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 16.2 (EoS), bem como as seguintes correções de bugs adicionais e melhorias feitas no Spark:
- [SPARK-51594] [DBRRM-1604][sc-192125][SQL] Use o esquema vazio ao salvar uma exibição que não seja compatível com o Hive
- [SPARK-51388] [SC-190503][sql] Melhorar a propagação de fragmentos SQL no to_timestamp e UNION
- [SPARK-51394] [SC-190492][ml] Elimine a necessidade do shuffle adicional nos testes estatísticos
- [SPARK-51385] [SC-190486][sql] Normalizar a projeção adicionada em DeduplicateRelations para desduplicação da saída dos filhos na união
- [SPARK-51357] [SC-190485][sql] Manter o nível de registo das alterações do plano para visualizações
- [SPARK-50654] [SC-186686][ss] CommitMetadata deve definir stateUniqueIds como Nenhum na V1
- [SPARK-51362] [SC-190352][sql] Altere toJSON para usar a API NextIterator para eliminar a dependência de registro adjacente
-
[SPARK-51375] [SC-190355][sql][CONNECT] Suprimir mensagens de log
SparkConnect(Execution|Session)Manager.periodicMaintenance - [SPARK-50596] [SC-184060][python] Atualize o Py4J de 0.10.9.7 para 0.10.9.8
- [SPARK-51097] [SC-190456][revert] Reverter alteração de métricas de instância do RocksDB
-
[SPARK-51363] [SC-190343][sql]
Desc As JSONnomes de colunas de agrupamento - [SPARK-51373] [SC-190370] [SS] Removendo uma cópia extra para o prefixo da família de colunas de 'ReplyChangelog'
- [SPARK-51378] [SC-190363][core] Aplicar a accumulableExcludeList do JsonProtocol ao ExecutorMetricsUpdate e ao TaskEndReason
- [SPARK-51369] [SC-190253][sql] Corrigir a variável de cursor FOR para funcionar com nomes em maiúsculas e minúsculas mistas
-
[SPARK-51381] [SC-190360][sql][CONNECT] Mostrar
Session IDna páginaSpark Connect Session - [SPARK-51119] [SC-188491][sql] Os leitores em executores que estão a resolver o EXISTS_DEFAULT não devem chamar os catálogos.
- [SPARK-51322] [SC-190013][sql] Melhor mensagem de erro para expressão de subconsulta em streaming
- [SPARK-50817] [SC-186642][ss] Corrigir Relatório de Erros RocksDB
- [SPARK-51370] [SC-190286] Melhorias na clareza do código para a análise de INTO no AstBuilder.scala
- [SPARK-51083] [SC-189217][core][16.x] Modificar JavaUtils para não engolir exceções de interrupção
- [SPARK-51324] [SC-189997][sql] Corrigir erro em instruções FOR aninhadas que ocorrem quando o resultado é vazio
- [SPARK-49756] [SC-178793][sql] O dialeto Postgres suporta funções pushdown datetime.
- [SPARK-51270] [SC-190108][sql] Suporte ao tipo UUID na variante
- [SPARK-51310] [SC-190018][sql] Resolver o tipo de cadeia de caracteres padrão produzindo expressões
- [SPARK-49488] [SC-176685][sql] O dialeto MySQL inclui suporte para funções de pushdown datetime.
- [SPARK-50856] [DBR16.x][sc-189812][SS][python][CONNECT] Suporte do Spark Connect para TransformWithStateInPandas em Python
-
[SPARK-50553] [SC-190076][connect] Lançar
InvalidPlanInputem caso de mensagem de plano inválida - [SPARK-51337] [16.x][sc-190105][SQL] Adicionar maxRows a CTERelationDef e CTERelationRef
- [SPARK-51281] [SC-190033][sql] DataFrameWriterV2 deve respeitar a opção de caminho
- [SPARK-51323] [SC-190005][python] Repetir "total" em métricas PySQL
-
[SPARK-48618] [SC-174007][sql] Utilize os
ErrorCodeeSQLStateretornados em SQLException para tornar os erros mais precisos. - [SPARK-47871] [SC-162873][sql] Oracle: Mapear tipo Timestamp para TIMESTAMP COM FUSO HORÁRIO LOCAL
- [SPARK-50993] [SC-187319][sql] Transferir nullDataSourceOption de QueryCompilationErrors para QueryExecutionErrors
- [SPARK-47761] [SC-162288][sql] Oracle: Suporte para leitura AnsiIntervalTypes
- [SPARK-51265] [SC-189826][sql] IncrementalExecution deve definir o código de execução do comando corretamente
- [SPARK-50785] [SC-189722][sql] Refatore a instrução FOR para utilizar variáveis locais corretamente.
- [SPARK-51315] [SC-189838][sql] Habilitando agrupamentos no nível do objeto por padrão
- [SPARK-51312] [SC-189824][sql] Corrigir o createDataFrame a partir de RDD[Row]
-
[SPARK-51305] [SC-189625][sql][CONNECT] Melhorar
SparkConnectPlanExecution.createObservedMetricsResponse - [SPARK-51313] [SC-189816][python] Corrigir formato de carimbo de data/hora para PySparkLogger
- [SPARK-51095] [SC-189623][core][SQL] Incluir contexto de chamador para registos de auditoria do HDFS para chamadas do driver
- [SPARK-51292] [SC-189566][sql] Remova heranças desnecessárias de PlanTestBase, ExpressionEvalHelper e PlanTest
- [SPARK-50739] [SC-186903][sql][FOLLOW] Simplificar o ResolveRecursiveCTESuite com DSL
- [SPARK-51097] [SC-189428] [SS] Adicionando métricas de instância de armazenamento de estado para a última versão de snapshot carregada no RocksDB
- [SPARK-49912] [SC-189615] Refatorar a instrução CASE simples para avaliar a variável do CASE apenas uma vez
- [SPARK-50655] [16x][sc-189235][SS] Mover o mapeamento relacionado à família de colunas virtuais para a camada de base de dados em vez do codificador
-
[SPARK-51177] [SC-188989][python][CONNECT] Adicionar
InvalidCommandInputao cliente Python do Spark Connect -
[SPARK-51278] [SC-189608][python] Use a estrutura apropriada do formato JSON para
PySparkLogger - [SPARK-48530] [SC-189357][sql] Suporte para variáveis locais em scripts SQL
- [SPARK-51258] [SC-189551][sql] Remover a herança desnecessária do SQLConfHelper
- [SPARK-50739] [SC-186818][sql] CTE recursivo. Alterações do analisador para desvendar e resolver os componentes de recursão.
- [SPARK-51284] [SC-189483][sql] Corrigir execução de script SQL para resultado vazio
- [SPARK-50881] [SC-188407][python] Use o esquema armazenado em cache sempre que possível no connect dataframe.py
- [SPARK-51274] [SC-189516][python] PySparkLogger deve respeitar os argumentos de palavra-chave esperados
- [SPARK-50636] [SC-184783][sql] Estendendo CTESubstitution.scala para torná-lo ciente da recursão
-
[SPARK-50960] [SC-188821][python][CONNECT] Adicionar
InvalidPlanInputao cliente Python do Spark Connect - [SPARK-51109] [SC-188394][sql] CTE na expressão de subconsulta como coluna de agrupamento
- [SPARK-51067] [16.x][sc-188855][SQL] Reverter agrupamento em nível de sessão para consultas DML e aplicar agrupamento em nível de objeto para consultas DDL
- [SPARK-50849] [SC-189071][connect] Adicionar projeto de exemplo para demonstrar as bibliotecas do servidor Spark Connect
- [SPARK-51259] [SC-189344][sql] Refatorar o cálculo de chaves de junção naturais e o uso de junção por chaves
- [SPARK-51185] [SC-188832][core] Reverter simplificações na API PartitionedFileUtil para reduzir os requisitos de memória
- [SPARK-51237] [16x][sc-189028][SS] Adicione detalhes da API para as novas APIs auxiliares de transformWithState conforme for necessário
- [SPARK-51247] [SC-189236][sql] Mova SubstituteExecuteImmediate para o lote de 'resolução' e prepare-o para variáveis locais de script SQL.
-
[SPARK-50403] [SC-186416][sql] Corrigir parâmetros
EXECUTE IMMEDIATE - [SPARK-50598] [SC-183992][sql] Um PR inicial no-op que adiciona novos parâmetros às classes já existentes UnresolvedWith, CTERelationRef e CTERelationDef para permitir a implementação posterior de CTEs recursivas.
- [SPARK-48114] [SC-189176][sql] Transferir a validação de subconsulta para fora do CheckAnalysis
-
[SPARK-50767] [SC-189169][sql] Remover codegen de
from_json - [SPARK-51242] [SC-189200][conenct][PYTHON] Melhorar o desempenho da coluna quando o DQC está desativado
- pt-PT: [SPARK-51202] [SC-189208][ml][PYTHON] Passar a sessão nos escritores de algoritmos meta em Python
- [SPARK-51246] [SC-189175][sql] Faça com que o InTypeCoercion produza Casts resolvidos
-
[SPARK-51192] [SC-189070][connect] Expor
processWithoutResponseObserverForTestingemSparkConnectPlanner - [SPARK-51183] [SC-189010][sql] Link para a especificação do Parquet na documentação do Variant
-
[SPARK-51189] [SC-188829][core] Promover
JobFailedparaDeveloperApi -
[SPARK-51184] [SC-188801][core] Remova a lógica
TaskState.LOSTdoTaskSchedulerImpl - [SPARK-51218] [SC-189012][sql] Deve-se evitar map/flatMap em NondeterministicExpressionCollection
- [SPARK-51228] [SC-189022][sql] Introduzir normalização de subconsulta ao NormalizePlan
- [SPARK-51113] [SC-188883][sql] Corrigir a precisão com UNION/EXCEPT/INTERSECT dentro de uma vista ou EXECUTE IMMEDIATE
-
[SPARK-51209] [SC-188987][core] Melhorar
getCurrentUserNamepara lidar com Java 24+ - [SPARK-50953] [SC-188409][python][CONNECT] Adicionar suporte para caminhos não literais em VariantGet
- [SPARK-51181] [SC-188854] [SQL] Impor determinismo ao extrair expressões não determinísticas do plano lógico
- [SPARK-50872] [SC-186901][sql][UI] Faz com que a expressão ToPrettyString não afete a apresentação da interface do usuário
- [SPARK-51150] [SC-188512][ml] Passar explicitamente a sessão em escritores de metaalgoritmos
- [SPARK-51008] [SC-188655][sql] Adicionar ResultStage para AQE
- [SPARK-51114] [SC-188633] [SQL] Refactor PullOutRegra não determinística
- [SPARK-51160] [SC-188666][sql] Refatorar a resolução da função literal
- [SPARK-51127] [SC-188366][python] Terminar o trabalhador Python quando atinge o tempo limite de inatividade
- [SPARK-51099] [SC-188350][python] Adicionar logs quando o processo Python aparenta estar bloqueado
- [SPARK-51157] [SC-188536][sql] Adicionar a anotação Scala ausente para APIs de funções em Scala
-
[SPARK-51155] [CORE] Fazer
SparkContextmostrar o tempo de execução total depois de parar - [SPARK-51140] [SC-188487][ml] Ordene os parâmetros antes de guardar
- [SPARK-51135] [SC-188392][sql] Corrigir ViewResolverSuite para modos ANSI
- [SPARK-51057] [SC-188191][ss] Remover API variante baseada em opções do Scala para estado de valor
- [SPARK-51131] [SC-188359][sql] Lançar exceção quando o Script SQL é encontrado dentro EXECUTE IMMEDIATE comando
- [SPARK-51048] [SC-188369][core] Implementar suporte para interrupção do contexto Java Spark com código de saída
- [SPARK-50234] [SC-181433][python][SQL] Melhorar a mensagem de erro e testar a transposição da API DataFrame
- [SPARK-51074] [SC-188153][ss][CONNECT] Definir tempo limite para comunicar configurações de inicialização no streaming foreachBatch
- [SPARK-48353] [SC-187986][sql] Introdução do mecanismo de tratamento de exceções em scripts SQL
- [SPARK-50596] [SC-184060][python] Atualize o Py4J de 0.10.9.7 para 0.10.9.8
- [SPARK-51043] [SC-187928][ss][CONNECT] Registro de usuário refinado para o Spark Connect foreachBatch
-
[SPARK-51084] [ES-1336002][sc-188171][SQL] Atribua a classe de erro apropriada para
negativeScaleNotAllowedError - [SPARK-51042] [SC-188216][sql] Leia e escreva os campos de meses e dias dos intervalos com uma única chamada nas classes Unsafe*
- [SPARK-51010] [SC-188188][sql] Corrigir a forma como AlterColumnSpec relata incorretamente o estado resolvido
- [SPARK-50799] [SC-188169][python] Refine o docstring de rlike, comprimento, octet_length, bit_length e transforme
-
[SPARK-51061] [SC-187910][core] Ocultar informações de
Jettyna API de envio REST - [SPARK-51055] [SC-187993][ss][CONNECT] Streaming foreachBatch deve chamar a lógica init dentro de uma tentativa
- [SPARK-50982] [SC-188059][sql] Dar suporte a mais funcionalidade do caminho de leitura SQL/DataFrame no Analisador de Passagem Única
-
[SPARK-51081] [SC-188092][sql] Refatorar
Join.outputpara um resolvedor de passagem única -
[SPARK-51064] [SC-188039][sql] Habilitar
spark.sql.sources.v2.bucketing.enabledpor padrão - [SPARK-50883] [LC-5998][sc-187120][SQL] Suporte à alteração de várias colunas no mesmo comando
- [SPARK-51034] [SC-187985][sql] Reformatar a descrição das estatísticas em formato JSON para facilidade de análise
- [SPARK-51058] [SC-187961][python] Evite usar jvm. SparkSession
- [SPARK-51056] [SC-187871][python] Evite a criação de objetos desnecessários em SparkSession.getActiveSession.
- [SPARK-50967] [SC-187860][ss] Adicionar opção para ignorar a emissão de chaves de estado inicial dentro do operador FMGWS
- [SPARK-50813] [SC-186457][sql] Permitir apenas nomes de rótulos não qualificados dentro de scripts SQL
- [SPARK-50858] [SC-187399][python] Adicionar configuração para ocultar o rastreio de pilha das funções UDF em Python
- [SPARK-50853] [SC-187219][core] Fechar canal de arquivo temporário shuffle aberto para escrita
- [SPARK-50663] [SC-187541][sql] Corrigir a gramática na instrução IF ELSE (ELSE IF -> ELSEIF)
-
[SPARK-51027] [SC-187502][sql] Impedir
HiveClient.runSqlHiveinvocação em ambiente sem teste - [SPARK-50977] [SC-187400][sc-187006][CORE] Aumentar a disponibilidade da lógica executando a agregação dos resultados do acumulador
- [SPARK-51001] [SC-187442][sql] Melhorar arrayEquals
- [SPARK-50962] [SC-187168][sql] Evite StringIndexOutOfBoundsException em AttributeNameParser
- [SPARK-50683] [SC-184728][sql] Incorporar a expressão comum em With se for usada uma vez
- [SPARK-50959] [SC-187139][ml][PYTHON] Ignorar a exceção do JavaWrapper.del
- [SPARK-50558] [SC-187337][sql] Introdução de simpleString para ExpressionSet
- [SPARK-50648] [SC-184706][core] Limpar tarefas fantasmas em estágios que não estão em execução quando o trabalho é cancelado
-
[SPARK-50990] [SC-187316][sql] Refatorar
UpCastresolução fora doAnalyzer - [SPARK-49491] [SC-184714][sql] Substitua AnyRefMap por HashMap
- [SPARK-50685] [SC-186941][python] Melhore o desempenho do Py4J aproveitando o getattr
- [SPARK-50688] [SC-184666][sql] Elimine a ambiguidade causada pela ausência do rowTag no caminho de escrita xml.
-
[SPARK-50976] [SC-187265][ml][PYTHON] Resolver o problema de gravação/carregamento de
TargetEncoder - [SPARK-49639] [SC-187297][sql] Remova a sugestão de configuração ANSI em INVALID_INTERVAL_WITH_MICROSECONDS_ADDITION
- [SPARK-50118] [SC-187110]Reverter "[CONNET] Repor o cache de estado isolado quando as tarefas estão em execução"
- [SPARK-47579] [16.x][sc-166971][CORE][part3] Spark core: migrar logInfo com variáveis para framework de logging estruturado
- [SPARK-50669] [SC-184566][es-1327450][PHOTON][test-only] Estender testes de unidade de Photon para a expressão TimestampAdd com tipos longos
- [SPARK-50909] [SC-187119][python] Configuração faulthandler em PythonPlannerRunners
- [SPARK-50774] [SC-186349][sql] Centralize os nomes de agrupamento num único sítio
- [SPARK-50804] [SC-186684][sql] to_protobuf() não deve lançar MatchError
- [SPARK-50957] [SC-187136][protobuf] Tornar protobuf.utils.SchemaConverters o privado
- [SPARK-50900] [SC-186948][ml][CONNECT] Adicionar VectorUDT e MatrixUDT a ProtoDataTypes
- [SPARK-50895] [SC-186998][sql] Criar interface comum para expressões que produzem o tipo de cadeia de caracteres padrão
- [SPARK-50558] [SC-184216][sql] Adicionar limites de log configuráveis para o número de elementos em InSet e In
- [SPARK-50875] [SC-186951][sql][16.x] Adicionar agrupamentos RTRIM ao TVF
-
[SPARK-50579] [SC-183826][sql] Corrigir
truncatedString
Suporte ao driver ODBC/JDBC do Databricks
O Databricks suporta drivers ODBC/JDBC lançados nos últimos 2 anos. Faça o download dos drivers lançados recentemente e atualize (baixe ODBC, baixe JDBC).
Ambiente do sistema
-
Sistema Operacional: Ubuntu 24.04.2 LTS
- Nota: Esta é a versão do Ubuntu usada pelos contêineres Databricks Runtime. Os contêineres do Databricks Runtime são executados nas máquinas virtuais do provedor de nuvem, que podem usar uma versão diferente do Ubuntu ou distribuição Linux.
- Java : Zulu17.54+21-CA
- Escala: 2.12.15
- Píton: 3.12.3
- R: 4.4.0
- Lago Delta: 3.3.0
Bibliotecas Python instaladas
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| tipos com anotações | 0.7.0 | AstTokens | 2.0.5 | "Astunparse" | 1.6.3 |
| Comando automático | 2.2.2 | azure-core | 1.31.0 | Azure Storage Blob | 12.23.0 |
| Armazenamento de Ficheiros Azure Data Lake | 12.17.0 | backports.tarfile | 1.2.0 | preto | 24.4.2 |
| pisca | 1.7.0 | boto3 | 1.34.69 | Botocore | 1.34.69 |
| Ferramentas de cache | 5.3.3 | certifi | 2024.6.2 | cffi | 1.16.0 |
| Chardet | 4.0.0 | Normalizador de Charset | 2.0.4 | clicar | 8.1.7 |
| Cloudpickle | 2.2.1 | Comunicação | 0.2.1 | contorno | 1.2.0 |
| criptografia | 42.0.5 | ciclista | 0.11.0 | Cython | 3.0.11 |
| Databricks-SDK | 0.30.0 | dbus-python | 1.3.2 | debugpy | 1.6.7 |
| decorador | 5.1.1 | Deprecated | 1.2.14 | Distlib | 0.3.8 |
| convertendo docstring em markdown | 0.11 | executar | 0.8.3 | facetas-visão geral | 1.1.1 |
| bloqueio de arquivo | 3.15.4 | Fonttools | 4.51.0 | GitDB | 4.0.11 |
| GitPython | 3.1.37 | google-api-core | 2.20.0 | Google-Auth (Autenticação) | 2.35.0 |
| Google Cloud Core | 2.4.1 | google-armazenamento-em-nuvem | 2.18.2 | Google-CRC32C | 1.6.0 |
| google-media-reutilizável | 2.7.2 | googleapis-common-protos | 1.65.0 | Grpcio | 1.60.0 |
| grpcio-status | 1.60.0 | httplib2 | 0.20.4 | IDNA | 3.7 |
| importlib-metadata | 6.0.0 | importlib_resources | 6.4.0 | flexionar | 7.3.1 |
| ipyflow-core | 0.0.201 | Ipykernel | 6.28.0 | IPython | 8.25.0 |
| ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 | isodate | 0.6.1 |
| jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 | jaraco.text | 3.12.1 |
| Jedi | 0.19.1 | jmespath | 1.0.1 | Joblib | 1.4.2 |
| jupyter_client | 8.6.0 | jupyter_core | 5.7.2 | kiwisolver | 1.4.4 |
| launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 | lazr.uri | 1.0.6 |
| Matplotlib | 3.8.4 | matplotlib-inline | 0.1.6 | Mccabe | 0.7.0 |
| mlflow-skinny | 2.19.0 | more-itertools | 10.3.0 | mypy | 1.10.0 |
| mypy extensions | 1.0.0 | nest-asyncio | 1.6.0 | nodeenv | 1.9.1 |
| numpy | 1.26.4 | OAuthlib | 3.2.2 | OpenTelemetry API | 1.27.0 |
| OpenTelemetry SDK | 1.27.0 | Convenções Semânticas de OpenTelemetry | 0,48b0 | embalagem | 24.1 |
| pandas | 1.5.3 | Parso | 0.8.3 | PathSpec | 0.10.3 |
| vítima | 0.5.6 | pexpect | 4.8.0 | almofada | 10.3.0 |
| pip (o gestor de pacotes do Python) | 24,2 | platformdirs | 3.10.0 | enredo | 5.22.0 |
| Pluggy | 1.0.0 | kit de ferramentas de prompt | 3.0.43 | Proto-Plus | 1.24.0 |
| Protobuf | 4.24.1 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
| ptyprocess | 0.7.0 | puro-eval | 0.2.2 | Pyarrow | 15.0.2 |
| pyasn1 | 0.4.8 | pyasn1-módulos | 0.2.8 | pyccolo | 0.0.65 |
| Pycparser | 2.21 | Pidântico | 2.8.2 | pydantic_core | 2.20.1 |
| Pyflakes | 3.2.0 | Pigmentos | 2.15.1 | PyGObject | 3.48.2 |
| PyJWT | 2.7.0 | pyodbc | 5.0.1 | pyparsing | 3.0.9 |
| Pyright | 1.1.294 | python-dateutil (uma biblioteca de software para manipulação de datas em Python) | 2.9.0.post0 | python-lsp-jsonrpc | 1.1.2 |
| python-lsp-servidor | 1.10.0 | pytoolconfig | 1.2.6 | Pytz | 2024.1 |
| PyYAML | 6.0.1 | Pyzmq | 25.1.2 | pedidos | 2.32.2 |
| corda | 1.12.0 | RSA | 4,9 | s3transfer | 0.10.2 |
| scikit-learn (biblioteca de aprendizado de máquina em Python) | 1.4.2 | SciPy | 1.13.1 | nascido no mar | 0.13.2 |
| Ferramentas de configuração | 74.0.0 | seis | 1.16.0 | smmap | 5.0.0 |
| SQLPARSE | 0.5.1 | ssh-import-id | 5.11 | stack-data | 0.2.0 |
| statsmodels (uma biblioteca de Python para modelos estatísticos) | 0.14.2 | tenacidade | 8.2.2 | Threadpoolctl | 2.2.0 |
| tokenize-rt | 4.2.1 | Tomli | 2.0.1 | tornado | 6.4.1 |
| traitlets | 5.14.3 | Protetor de Tipografia | 4.3.0 | tipos-protobuf | 3.20.3 |
| tipos-psutil | 5.9.0 | tipos-pytz | 2023.3.1.1 | tipos-PyYAML | 6.0.0 |
| tipos-de-pedidos | 2.31.0.0 | tipos de setuptools | 68.0.0.0 | seis tipos | 1.16.0 |
| tipos-urllib3 | 1.26.25.14 | typing_extensions (extensões de digitação) | 4.11.0 | Ujson | 5.10.0 |
| Atualizações não supervisionadas | 0.1 | urllib3 | 1.26.16 | virtualenv | 20.26.2 |
| wadllib | 1.3.6 | wcwidth | 0.2.5 | whatthepatch (ferramenta para comparação de patches) | 1.0.2 |
| wheel | 0.43.0 | embrulhado | 1.14.1 | Yapf | 0.33.0 |
| zipp | 3.17.0 |
Bibliotecas R instaladas
As bibliotecas R são instaladas a partir do instantâneo CRAN do Posit Package Manager em 2024-08-04.
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| seta | 16.1.0 | AskPass | 1.2.0 | asserir que | 0.2.1 |
| Retroportagens | 1.5.0 | base | 4.4.0 | base64enc | 0.1-3 |
| bigD | 0.2.0 | pouco | 4.0.5 | bit-64 | 4.0.5 |
| Bitops | 1.0-8 | blob | 1.2.4 | inicialização | 1.3-30 |
| fabricação de cerveja | 1.0-10 | vigor | 1.1.5 | vassoura | 1.0.6 |
| bslib | 0.8.0 | cachemira | 1.1.0 | Chamador | 3.7.6 |
| caret | 6.0-94 | CellRanger | 1.1.0 | crono | 2.3-61 |
| classe | 7.3-22 | CLI | 3.6.3 | Clipr | 0.8.0 |
| relógio | 0.7.1 | cluster | 2.1.6 | CodeTools | 0.2-20 |
| espaço de cores | 2.1-1 | marca comum | 1.9.1 | compilador | 4.4.0 |
| Configurações | 0.3.2 | conflituoso | 1.2.0 | cpp11 | 0.4.7 |
| lápis de cor | 1.5.3 | credenciais | 2.0.1 | encaracolar | 5.2.1 |
| tabela de dados | 1.15.4 | conjuntos de dados | 4.4.0 | DBI | 1.2.3 |
| DBPlyr | 2.5.0 | descrição | 1.4.3 | DevTools | 2.4.5 |
| diagrama | 1.6.5 | diffobj | 0.3.5 | resumo | 0.6.36 |
| Iluminação reduzida | 0.4.4 | DPLYR | 1.1.4 | DTPlyr | 1.3.1 |
| e1071 | 1.7-14 | reticências | 0.3.2 | avaliar | 0.24.0 |
| Fansi | 1.0.6 | cores | 2.1.2 | mapa rápido | 1.2.0 |
| fontawesome | 0.5.2 | forçados | 1.0.0 | foreach | 1.5.2 |
| estrangeiro/a | 0.8 a 86 | forjar | 0.2.0 | fs | 1.6.4 |
| Futuro | 1.34.0 | futuro.apply | 1.11.2 | gargarejo | 1.5.2 |
| genérico | 0.1.3 | Gert | 2.1.0 | ggplot2 | 3.5.1 |
| gh | 1.4.1 | Git2R | 0.33.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | Globais | 0.16.3 | cola | 1.7.0 |
| GoogleDrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
| gráficos | 4.4.0 | grDispositivos | 4.4.0 | grelha | 4.4.0 |
| gridExtra | 2.3 | gsubfn | 0.7 | gt | 0.11.0 |
| tabela g | 0.3.5 | capacete de segurança | 1.4.0 | Refúgio | 2.5.4 |
| mais alto | 0.11 | HMS (Navio de Sua Majestade) | 1.1.3 | htmltools | 0.5.8.1 |
| htmlwidgets (componentes HTML interativos) | 1.6.4 | httpuv | 1.6.15 | HTTR | 1.4.7 |
| httr2 | 1.0.2 | identificadores | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9 a 15 | Banda isobárica | 0.2.7 | iteradores | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.8.8 | JuicyJuice | 0.1.0 |
| KernSmooth | 2.23-22 | Knitr | 1.48 | etiquetagem | 0.4.3 |
| mais tarde | 1.3.2 | treliça | 0.22-5 | lave | 1.8.0 |
| ciclo de vida | 1.0.4 | ouvir | 0.9.1 | lubridato | 1.9.3 |
| Magrittr | 2.0.3 | Marcação | 1.13 | MASSA | 7.3-60.0.1 |
| Matriz | 1.6-5 | memorização | 2.0.1 | Metodologia | 4.4.0 |
| mgcv | 1.9-1 | mime | 0,12 | miniUI | 0.1.1.1 |
| Mlflow | 2.14.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
| Munsell | 0.5.1 | nlme | 3.1-165 | NNET | 7.3-19 |
| numDeriv | 2016.8 a 1.1 | openssl (conjunto de ferramentas para criptografia) | 2.2.0 | paralelo | 4.4.0 |
| Paralelamente | 1.38.0 | pilar | 1.9.0 | pkgbuild | 1.4.4 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.0 | pkgload | 1.4.0 |
| plogr | 0.2.0 | Plyr | 1.8.9 | elogios | 1.0.0 |
| prettyunits | 1.2.0 | pROC | 1.18.5 | processx | 3.8.4 |
| Prodlim | 2024.06.25 | profvis | 0.3.8 | Progressos | 1.2.3 |
| progressr | 0.14.0 | promessas | 1.3.0 | prototipo | 1.0.0 |
| proxy | 0.4-27 | P.S. | 1.7.7 | purrr | 1.0.2 |
| R6 | 2.5.1 | ragg | 1.3.2 | randomForest | 4.7-1.1 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.13 | RcppEigen | 0.3.4.0.0 | capaz de reagir | 0.4.4 |
| reactR | 0.6.0 | Readr | 2.1.5 | readxl | 1.4.3 |
| receitas | 1.1.0 | revanche | 2.0.0 | revanche2 | 2.1.2 |
| Controles remotos | 2.5.0 | Exemplo Reproduzível (Reprex) | 2.1.1 | remodelar2 | 1.4.4 |
| rlang | 1.1.4 | rmarkdown | 2.27 | RODBC | 1.3-23 |
| roxygen2 | 7.3.2 | rpart (função de partição recursiva em R) | 4.1.23 | rprojroot | 2.0.4 |
| Rserve | 1.8-13 | RSQLite | 2.3.7 | rstudioapi | 0.16.0 |
| rversions | 2.1.2 | Rvest | 1.0.4 | Sass | 0.4.9 |
| balanças | 1.3.0 | seletor | 0.4-2 | Informação da sessão | 1.2.2 |
| forma | 1.4.6.1 | brilhante | 1.9.1 | ferramentas de código-fonte | 0.1.7-1 |
| sparklyr | 1.8.6 | SparkR | 3.5.2 | espacial | 7.3-17 |
| splines | 4.4.0 | sqldf | 0.4-11 | SQUAREM | 2021.1 |
| estatísticas | 4.4.0 | estatísticas4 | 4.4.0 | string | 1.8.4 |
| stringr | 1.5.1 | Sobrevivência | 3.6-4 | Charme | 5.17.14.1 |
| Sistema | 3.4.2 | fontes do sistema | 1.1.0 | tcltk (uma linguagem de programação) | 4.4.0 |
| testthat | 3.2.1.1 | formatação de texto | 0.4.0 | Tibble | 3.2.1 |
| tidyr | 1.3.1 | tidyselect | 1.2.1 | tidyverse | 2.0.0 |
| mudança de hora | 0.3.0 | data e hora | 4032.109 | Tinytex | 0.52 |
| Ferramentas | 4.4.0 | tzdb | 0.4.0 | verificador de URL | 1.0.1 |
| usethis | 3.0.0 | UTF8 | 1.2.4 | utilitários | 4.4.0 |
| Identificador Único Universal (UUID) | 1.2-1 | V8 | 4.4.2 | VCTRS | 0.6.5 |
| viridisLite | 0.4.2 | vruum | 1.6.5 | Waldo | 0.5.2 |
| vibrissas | 0.4.1 | murchar | 3.0.1 | xfun | 0,46 |
| XML2 | 1.3.6 | xopen | 1.0.1 | xtable | 1.8-4 |
| yaml | 2.3.10 | Zeallot | 0.1.0 | ZIP | 2.3.1 |
Bibliotecas Java e Scala instaladas (versão de cluster Scala 2.12)
| ID do grupo | ID do artefato | Versão |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling (SDK de Java da AWS - escalonamento automático) | 1.12.638 |
| com.amazonaws | AWS-Java-SDK-CloudFormation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
| com.amazonaws | AWS Java SDK para CloudSearch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config (configuração do AWS Java SDK) | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache (kit de desenvolvimento de software Java para Elasticache da AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (SDK Java para Elastic Beanstalk da AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (SDK Java para equilíbrio de carga elástico da AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier (Biblioteca de armazenamento Glacier da AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs | 1.12.638 |
| com.amazonaws | aws-java-sdk-aprendizado de máquina | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | AWS Java SDK para SES | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway (SDK da AWS para Storage Gateway em Java) | 1.12.638 |
| com.amazonaws | AWS-Java-SDK-STS | 1.12.638 |
| com.amazonaws | aws-java-sdk-suporte | 1.12.638 |
| com.amazonaws | aws-java-sdk-swf-bibliotecas | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | fluxo | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2,12 | 0.4.15-10 |
| com.esotericsoftware | sombra kriogénica | 4.0.2 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | colega de turma | 1.3.4 |
| com.fasterxml.jackson.core | Jackson-Annotations | 2.15.2 |
| com.fasterxml.jackson.core | Jackson-Core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor (formato de dados em CBOR) | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
| com.fasterxml.jackson.module | jackson-módulo-scala_2.12 | 2.15.2 |
| com.github.ben-manes.cafeína | cafeína | 2.9.3 |
| com.github.fommil | Jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1-Nativos |
| com.github.fommil.netlib | sistema_nativo-Java | 1.1 |
| com.github.fommil.netlib | sistema_nativo-Java | 1.1-Nativos |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-Nativos |
| com.github.fommil.netlib | netlib-sistema_nativo-linux-x86_64 | 1.1-Nativos |
| com.github.luben | zstd-jni | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | Gson | 2.10.1 |
| com.google.crypto.tink | tink | 1.9.0 |
| com.google.errorprone | anotações_propensas_a_erros | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 23/05/2026 |
| com.google.guava | Goiaba | 15,0 |
| com.google.protobuf | protobuf-java | 3.25.1 |
| com.helger | gerador de perfis | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | BoneCP | 0.8.0.LANÇAMENTO |
| com.lihaoyi | código-fonte_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK para Azure Data Lake Store) | 2.3.9 |
| com.microsoft.sqlserver | MSSQL-JDBC | 11.2.2.jre8 |
| com.microsoft.sqlserver | MSSQL-JDBC | 11.2.3.JRE8 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | JAXB-CORE | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | Json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentes_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | Configurações | 1.4.3 |
| com.typesafe.scala-logging | Escala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | analisadores de univocidade | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.16.0 |
| Commons Collections | Commons Collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload (upload de ficheiros comuns) | commons-fileupload (upload de ficheiros comuns) | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| registo de comuns | registo de comuns | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | ARPACK | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | LAPACK | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compressor de ar | 0.27 |
| IO.Delta | delta-compartilhamento-cliente_2.12 | 1.2.3 |
| io.dropwizard.metrics | métricas e anotação | 4.2.19 |
| io.dropwizard.metrics | métricas-base | 4.2.19 |
| io.dropwizard.metrics | metrics-graphite | 4.2.19 |
| io.dropwizard.metrics | métricas e verificações de saúde | 4.2.19 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
| io.dropwizard.metrics | metrics-jmx | 4.2.19 |
| io.dropwizard.metrics | métricas em formato JSON | 4.2.19 |
| io.dropwizard.metrics | métricas do JVM | 4.2.19 |
| io.dropwizard.metrics | Métricas-Servlets | 4.2.19 |
| io.netty | netty-all | 4.1.108.Final |
| io.netty | netty-buffer | 4.1.108.Final |
| io.netty | netty-codec | 4.1.108.Final |
| io.netty | netty-codec-http | 4.1.108.Final |
| io.netty | netty-codec-http2 | 4.1.108.Final |
| io.netty | netty-codec-socks | 4.1.108.Final |
| io.netty | Netty Comum | 4.1.108.Final |
| io.netty | Netty Handler | 4.1.108.Final |
| io.netty | netty-handler-proxy | 4.1.108.Final |
| io.netty | netty-resolver (resolução do Netty) | 4.1.108.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-janelas-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.61.Última |
| io.netty | Netty-Transport | 4.1.108.Final |
| io.netty | netty-transport-classes-epoll | 4.1.108.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-x86_64 |
| io.netty | netty-transport-nativo-unix-comum | 4.1.108.Final |
| io.prometeu | simpleclient | 0.7.0 |
| io.prometeu | simpleclient_comum | 0.7.0 |
| io.prometeu | simpleclient_dropwizard | 0.7.0 |
| io.prometeu | simpleclient_pushgateway | 0.7.0 |
| io.prometeu | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | recoletor | 0.12.0 |
| jacarta.anotação | Jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| Jakarta.validação | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.ativação | ativação | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | API de transação | 1.1 |
| javax.xml.bind | JAXB-API | 2.2.11 |
| Javolution | Javolution | 5.5.1 |
| Jline | Jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | conserva | 1.3 |
| net.sf.jpam | JPAM | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.floco de neve | Snowflake Ingest SDK | 0.9.6 |
| net.sourceforge.f2j | arpack_combinado_tudo | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | ANTLR Runtime | 3.5.2 |
| org.antlr | antlr4-tempo de execução | 4.9.3 |
| org.antlr | StringTemplate | 3.2.1 |
| org.apache.ant | formiga | 1.10.11 |
| org.apache.ant | ANT-JSCH | 1.10.11 |
| org.apache.ant | lançador de formigas | 1.10.11 |
| org.apache.arrow | formato de flecha | 15.0.0 |
| org.apache.arrow | núcleo de memória Arrow | 15.0.0 |
| org.apache.arrow | Arrow-Memory-Netty | 15.0.0 |
| org.apache.arrow | vetor de seta | 15.0.0 |
| org.apache.avro | Avro | 1.11.3 |
| org.apache.avro | AVRO-IPC | 1.11.3 |
| org.apache.avro | avro-mapred | 1.11.3 |
| org.apache.commons | colecções-commons4 | 4.4 |
| org.apache.commons | commons-compress | 1.23.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-texto | 1.10.0 |
| org.apache.curador | curador e cliente | 2.13.0 |
| org.apache.curador | Framework de Curadoria | 2.13.0 |
| org.apache.curador | curador de receitas | 2.13.0 |
| org.apache.datasketches | Datasketches-Java | 3.1.0 |
| org.apache.datasketches | datasketches-memória | 2.0.0 |
| org.apache.derby | Dérbi | 10.14.2.0 |
| org.apache.hadoop | tempo de execução do cliente Hadoop | 3.3.6 |
| org.apache.hive | colmeia-abelha | 2.3.9 |
| org.apache.hive | Hive-CLI | 2.3.9 |
| org.apache.hive | Hive-JDBC | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | Hive-Serde | 2.3.9 |
| org.apache.hive | colmeias-calços | 2.3.9 |
| org.apache.hive | API de armazenamento Hive | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | colmeia-calços-comum | 2.3.9 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | hera | 2.5.2 |
| org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
| org.apache.logging.log4j | log4j-api | 2.22.1 |
| org.apache.logging.log4j | log4j-core | 2.22.1 |
| org.apache.logging.log4j | log4j-layout-esquema-json | 2.22.1 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
| org.apache.orc | orc-core | 1.9.2-protobuf sombreado |
| org.apache.orc | orc-mapreduce | 1.9.2-protobuf sombreado |
| org.apache.orc | Orc-cunhas | 1.9.2 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-sombreado | 4.23 |
| org.apache.yetus | anotações do público | 0.13.0 |
| org.apache.zookeeper | cuidador de zoológico | 3.9.2 |
| org.apache.zookeeper | guarda de zoológico-juta | 3.9.2 |
| org.checkerframework | verificador de qualidade | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-ASL | 1.9.13 |
| org.codehaus.janino | compilador comum | 3.0.16 |
| org.codehaus.janino | Janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | DataNucleus Core | 4.1.17 |
| org.datanucleus | Datanucleus-RDBMS | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.collections | Eclipse Collections | 11.1.0 |
| org.eclipse.collections | eclipse-collections-API | 11.1.0 |
| org.eclipse.jetty | Jetty-Cliente | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-continuation (componente de software do Jetty) | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-HTTP | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-JNDI | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty Plus | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-Proxy | 9.4.52.v20230823 |
| org.eclipse.jetty | Segurança do Jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | servidor jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-util | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
| org.eclipse.jetty | Aplicação web Jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-XML | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | API WebSocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | Websocket-cliente | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | Websocket-Comum | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | servidor websocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | Websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | HK2-Localizador | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | localizador de recursos OSGi | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-reembalado | 2.6.1 |
| org.glassfish.hk2.external | jacarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet (serviço de contêiner Jersey) | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
| org.glassfish.jersey.core | jersey-client | 2.40 |
| org.glassfish.jersey.core | Jersey comum | 2.40 |
| org.glassfish.jersey.core | servidor Jersey | 2.40 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
| org.hibernate.validator | hibernate-validator (ferramenta de validação de dados de Java) | 6.1.7.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | Javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | anotações | 17.0.0 |
| org.joda | joda-converter | 1.7 |
| org.jodd | JODD-CORE | 3.5.2 |
| org.json4s | JSON4S-ast_2.12 | 4.0.7 |
| org.json4s | JSON4S-core_2.12 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.12 | 4.0.7 |
| org.json4s | JSON4S-jackson_2,12 | 4.0.7 |
| org.json4s | JSON4S-scalap_2.12 | 4.0.7 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2,12 | 2.9.1 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | PostgreSQL | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
| org.roaringbitmap | calços | 0.9.45-databricks |
| org.rocksdb | rocksdbjni | 9.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | Escala-compiler_2.12 | 2.12.15 |
| org.scala-lang | Escala-library_2.12 | 2.12.15 |
| org.scala-lang | Escala-reflect_2,12 | 2.12.15 |
| org.scala-lang.modules | scala-coleção-compat_2.12 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.12 | 0.9.1 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | Escala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interface de teste | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.16 |
| org.scalanlp | Brisa-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | compatível com scalatest | 3.2.16 |
| org.scalatest | scalatest-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.16 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.16 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.16 |
| org.scalatest | scalatest_2.12 | 3.2.16 |
| org.slf4j | jcl-compatível-com-slf4j | 2.0.7 |
| org.slf4j | jul-para-slf4j | 2.0.7 |
| org.slf4j | SLF4J-API | 2.0.7 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | ThreeTen-Extra | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | gatos-kernel_2.12 | 2.1.1 |
| org.typelevel | torre-macros_2.12 | 0.17.0 |
| org.typelevel | torre-platform_2.12 | 0.17.0 |
| org.typelevel | torre-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | WildFly-OpenSSL | 1.1.3.Final |
| org.xerial | SQLITE-JDBC | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | Snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.4.1-linux-x86_64 |
| Stax | stax-api | 1.0.1 |