Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Observação
O suporte para esta versão do Databricks Runtime foi encerrado. Para obter a data de fim do suporte, consulte o Histórico de fim do suporte. Para todas as versões suportadas do Databricks Runtime, consulte Notas de versão do Databricks Runtime: versões e compatibilidade.
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 16.3, alimentado pelo Apache Spark 3.5.2.
O Databricks lançou esta versão em março de 2025.
Alterações comportamentais
Correção de bug para opções do Carregador Automático: modifiedBefore, modifiedAfter, pathGlobFilter
Anteriormente, modificar os valores das opções modifiedBeforemodifiedAfterdo Carregador Automático e pathGlobFilter não tinha efeito. Esse problema foi corrigido.
Agora, quando você modifica os valores desses filtros, o Carregador Automático ingere novos arquivos que passam os filtros. Se menos arquivos forem qualificados com base nos valores de filtro atualizados, os arquivos que não são mais qualificados não serão removidos do coletor, mas permanecerão ingeridos.
Mensagem de erro aprimorada quando kafka.sasl.client.callback.handler.class é atribuído um valor inválido
Esta versão inclui uma alteração para retornar uma mensagem de erro mais descritiva quando kafka.sasl.client.callback.handler.class é atribuído um valor inválido.
A nova mensagem de erro é org.apache.spark.sql.AnalysisException: [RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED.KAFKA_CLIENT_CALLBACK_SHADED_CLASS] The option kafka.sasl.client.callback.handler.class has restricted values on Shared clusters for the kafka source. The Kafka client callback class must be "shadedmskiam.software.amazon.msk.auth.iam.IAMClientCallbackHandler". SQLSTATE: 0A000
Anteriormente, a mensagem de erro retornada era org.apache.spark.sql.AnalysisException: [UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED] Streaming options kafka.sasl.client.callback.handler.class are not supported for data source kafka on a shared cluster. Please confirm that the options are specified and spelled correctly, and check https://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-shared for limitations. SQLSTATE: 0A000
Novos recursos e melhorias
- O suporte ao leitor de estado é GA para computação padrão
- O downgrade do protocolo da tabela Delta está em disponibilidade geral com proteção do ponto de verificação
- Gravar scripts SQL processuais com base no SQL/PSM ANSI (Visualização Pública)
- Agrupamento padrão em nível de tabela e visualização
- Instalar dependências personalizadas em UDFs Python do Unity Catalog (Versão Prévia Pública)
- Alterar várias colunas de tabela em uma instrução ALTER TABLE
-
Suporte para
transformWithStateInPandasem computação padrão -
Suporte para
MERGE INTOtabelas com controle de acesso granular em computação dedicada (Prévia Pública) - Suporte para anexar dados a tabelas controladas por acesso refinado na computação dedicada
- Suporte aprimorado para autojunções com objetos controlados por acesso refinado na computação dedicada
- Novas funções H3
O suporte ao leitor de estado é GA para computação padrão
O suporte para leitura de informações de estado para consultas de Streaming Estruturado agora está disponível para computação configurada com modo de acesso padrão. Consulte a seção Ler informações de estado do Streaming Estruturado.
O downgrade do protocolo da tabela Delta é GA com proteção de ponto de verificação
DROP FEATURE está geralmente disponível para remover recursos da tabela Delta Lake e fazer downgrade do protocolo da tabela. Por padrão, DROP FEATURE agora cria pontos de verificação protegidos para uma experiência de downgrade mais otimizada e simplificada que não exige nenhum tempo de espera ou truncamento de histórico. Confira Remover um recurso de tabela do Delta Lake e fazer downgrade do protocolo de tabela.
Escrever scripts SQL de procedimento com base no ANSI SQL/PSM (versão prévia pública)
Agora você pode usar recursos de script com base no ANSI SQL/PSM para escrever lógica de procedimento com SQL, incluindo instruções de fluxo de controle, variáveis locais e tratamento de exceções. Consulte os scripts SQL.
Agrupamento padrão em nível de tabela e visualização
Agora você pode especificar uma ordenação padrão para tabelas e exibições. Isso simplifica a criação de tabelas e exibições em que todas ou a maioria das colunas compartilham a mesma ordenação. Consulte Ordenação.
Instalar dependências personalizadas em UDFs Python do Unity Catalog (versão prévia pública)
Estenda a funcionalidade de UDFs do Python para além do ambiente do Databricks Runtime definindo dependências personalizadas para bibliotecas externas. Consulte Estender UDFs usando dependências personalizadas.
Alterar várias colunas da tabela em uma instrução ALTER TABLE
No Databricks Runtime 16.3, você pode alterar várias colunas em uma única ALTER TABLE instrução. Consulte ALTER TABLE ... COLUMN cláusula.
Suporte para transformWithStateInPandas em computação padrão
Agora você pode usar transformWithStateInPandas na computação configurada com o modo de acesso padrão. Consulte Criar um aplicativo com estado personalizado.
Suporte para MERGE INTO tabelas com controle de acesso refinado na computação dedicada (Visualização Pública)
No Databricks Runtime 16.3 e versões posteriores, a computação dedicada dá suporte a tabelas MERGE INTO do Unity Catalog que usam controle de acesso granular. Semelhante à leitura desses objetos, os MERGE comandos são passados automaticamente para a computação sem servidor quando necessário.
Consulte o controle de acesso refinado na computação dedicada.
Suporte para anexar dados a tabelas controladas por acesso refinado na computação dedicada
No Databricks Runtime 16.3 e posterior, a computação dedicada dá suporte à anexação a objetos do Catálogo do Unity que usam o controle de acesso refinado. Para usar esse recurso, use a DataFrame.write.mode("append") função na API do Apache Spark. Semelhante à leitura desses objetos, as gravações de anexação são automaticamente aprovadas para computação sem servidor quando necessário.
Para saber mais sobre como usar a computação dedicada com objetos do Catálogo do Unity controlados por acesso refinado, consulte o controle de acesso refinado na computação dedicada.
Suporte aprimorado para autojunções com objetos com controle de acesso detalhado na computação dedicada
No Databricks Runtime 16.3 e superior, a funcionalidade de filtragem de dados para controle de acesso refinado na computação dedicada agora sincroniza automaticamente instantâneos entre recursos de computação dedicados e sem servidor, com exceção de exibições materializadas e quaisquer exibições, exibições materializadas e tabelas de streaming compartilhadas usando o Compartilhamento Delta. Essa funcionalidade avançada garante que as autojunções retornem instantâneos idênticos quando a filtragem de dados for usada. Consulte o controle de acesso refinado na computação dedicada.
Novas funções H3
Três novas funções H3 foram adicionadas: h3_try_coverash3, h3_try_coverash3string e h3_try_tessellateaswkb.
Atualizações de biblioteca
Bibliotecas do Python atualizadas:
- mlflow-skinny da versão 2.15.1 para 2.19.0
Bibliotecas R atualizadas:
Bibliotecas do Java atualizadas:
Apache Spark
O Databricks Runtime 16.3 inclui o Apache Spark 3.5.2. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 16.2 (EoS), bem como as seguintes correções de bug adicionais e melhorias feitas no Spark:
- [SPARK-51594] [DBRRM-1604][sc-192125][SQL] Usar esquema vazio ao salvar uma exibição que não é compatível com Hive
- [SPARK-51388] [SC-190503][sql] Melhorar a propagação de fragmentos SQL em to_timestamp e UNION
- [SPARK-51394] [SC-190492][ML] Otimização da ordem aleatória adicional nos testes de estatísticas
- [SPARK-51385] [SC-190486][SQL] Normalização da projeção adicionada em DeduplicateRelations para eliminação de duplicação da saída filho
- [SPARK-51357] [SC-190485][SQL] Preservação do nível de registros em log das alterações do plano para exibições
- [SPARK-50654] [SC-186686][ss] CommitMetadata deve definir stateUniqueIds como None na V1
- [SPARK-51362] [SC-190352][sql] Alterar o toJSON para usar a API NextIterator para eliminar a dependência de registros adjacentes
-
[SPARK-51375] [SC-190355][sql][CONNECT] Suprimir
SparkConnect(Execution|Session)Manager.periodicMaintenancemensagens de log - [SPARK-50596] [SC-184060][python] Atualizar Py4J de 0.10.9.7 para 0.10.9.8
- [SPARK-51097] [SC-190456][reversão] Reversão da alteração das métricas da instância do RocksDB
-
[SPARK-51363] [SC-190343][SQL]
Desc As JSONClustering de nomes de colunas - [SPARK-51373] [SC-190370] [SS] Removendo cópia extra para prefixo de família de colunas de “ReplyChangelog”
- [SPARK-51378] [SC-190363][core] Aplicar a accumulableExcludeList de JsonProtocol ao ExecutorMetricsUpdate e ao TaskEndReason
- [SPARK-51369] [SC-190253][sql] Correção da variável de cursor FOR para trabalhar com nomes de caso mistos
-
[SPARK-51381] [SC-190360][sql][CONNECT] Mostrar
Session IDnaSpark Connect Sessionpágina - [SPARK-51119] [SC-188491][sql] Leitores em executores que resolvem EXISTS_DEFAULT não devem chamar catálogos
- [SPARK-51322] [SC-190013][sql] Melhor mensagem de erro para expressão de subconsulta de streaming
- [SPARK-50817] [SC-186642][ss] Corrigir relatórios de erros do RocksDB
- [SPARK-51370] [SC-190286] Aprimoramentos na clareza de código para códigos de análise INSERT INTO em AstBuilder.scala
- [SPARK-51083] [SC-189217][Core][16.x] Modificação de JavaUtils para não absorver InterruptedExceptions
- [SPARK-51324] [SC-189997][SQL] Correção da geração de erro na instrução FOR aninhada se o resultado era vazio
- [SPARK-49756] [SC-178793][SQL] O dialeto do Postgres dá suporte ao pushdown de funções de datetime.
- [SPARK-51270] [SC-190108][SQL] Suporte ao tipo UUID em Variant
- [SPARK-51310] [SC-190018][SQL] Resolução do tipo de expressões de produção de cadeia de caracteres padrão
- [SPARK-49488] [SC-176685][sql] O dialeto MySQL dá suporte a funções de datetime pushdown.
- [SPARK-50856] [DBR16.x][sc-189812][SS][python][CONNECT] Suporte do Spark Connect para TransformWithStateInPandas no Python
-
[SPARK-50553] [SC-190076][conectar] Geração de
InvalidPlanInputpara uma mensagem de plano inválida - [SPARK-51337] [16.x][sc-190105][SQL] Adicionar maxRows a CTERelationDef e CTERelationRef
- [SPARK-51281] [SC-190033][sql] DataFrameWriterV2 deve respeitar a opção de caminho
- [SPARK-51323] [SC-190005][Python] Duplicação de “total” nas métricas de SQL do Py
-
[SPARK-48618] [SC-174007][SQL] Utilização de
ErrorCodeeSQLStateretornados em SQLException para tornar os erros mais precisos - [SPARK-47871] [SC-162873][SQL] Oracle: mapeamento de TimestampType para TIMESTAMP WITH LOCAL TIME ZONE
- [SPARK-50993] [SC-187319][sql] Movimentação de nullDataSourceOption de QueryCompilationErrors para QueryExecutionErrors
- [SPARK-47761] [SC-162288][sql] Oracle: Suporte para ler AnsiIntervalTypes
- [SPARK-51265] [SC-189826][sql] IncrementalExecution deve definir o código de execução de comando corretamente
- [SPARK-50785] [SC-189722][sql] Refatorar instrução FOR para utilizar as variáveis locais corretamente.
- [SPARK-51315] [SC-189838][sql] Habilitando ordenações de nível de objeto por padrão
- [SPARK-51312] [SC-189824][sql] Correção do createDataFrame em RDD[Row]
-
[SPARK-51305] [SC-189625][sql][CONNECT] Aprimorar
SparkConnectPlanExecution.createObservedMetricsResponse - [SPARK-51313] [SC-189816][python] Corrigir formato de carimbo de data/hora para PySparkLogger
- [SPARK-51095] [SC-189623][Core][SQL] Inclusão do contexto do chamador para logs de auditoria do HDFS para chamadas do driver
- [SPARK-51292] [SC-189566][SQL] Remoção da herança desnecessária de PlanTestBase, ExpressionEvalHelper e PlanTest
- [SPARK-50739] [SC-186903][sql][FOLLOW] Simplificar ResolveRecursiveCTESuite com DSL
- [SPARK-51097] [SC-189428] [SS] Adição de métricas de instância do repositório de estado para a última versão de instantâneo carregada no RocksDB
- [SPARK-49912] [SC-189615] Refatorar instrução CASE simples para avaliar a variável de caso apenas uma vez
- [SPARK-50655] [16x][sc-189235][SS] Movimentação do mapeamento relacionado à família de colunas virtuais para a camada DB em vez do codificador
-
[SPARK-51177] [SC-188989][python][CONNECT] Adicionar
InvalidCommandInputao cliente Python do Spark Connect -
[SPARK-51278] [SC-189608][python] Use a estrutura apropriada do formato JSON para
PySparkLogger - [SPARK-48530] [SC-189357][sql] Suporte para variáveis locais no script SQL
- [SPARK-51258] [SC-189551][SQL] Remoção da herança desnecessária do SQLConfHelper
- [SPARK-50739] [SC-186818][SQL] CTE recursivo. Alterações do analisador para desvendar e resolver os componentes de recursão.
- [SPARK-51284] [SC-189483][sql] Correção da execução do Script SQL para resultado vazio
- [SPARK-50881] [SC-188407][python] Use o esquema em cache sempre que possível no connect dataframe.py
- [SPARK-51274] [SC-189516][python] PySparkLogger deve respeitar os argumentos de palavra-chave esperados
- [SPARK-50636] [SC-184783][sql] Estendendo CTESubstitution.scala para torná-lo ciente da recursão
-
[SPARK-50960] [SC-188821][python][CONNECT] Adicionar
InvalidPlanInputao cliente Python do Spark Connect - [SPARK-51109] [SC-188394][SQL] CTE na expressão de subconsulta como uma coluna de agrupamento
- [SPARK-51067] [16.x][sc-188855][SQL] Reverter ordenação de nível de sessão para consultas DML e aplicar ordenação de nível de objeto para consultas DDL
- [SPARK-50849] [SC-189071][connect] Adicionar projeto de exemplo para demonstrar bibliotecas de servidores do Spark Connect
- [SPARK-51259] [SC-189344][SQL] Refatoração natural e uso da computação de chaves de junção
- [SPARK-51185] [SC-188832][core] Reverter simplificações para a API PartitionedFileUtil para reduzir os requisitos de memória
- [SPARK-51237] [16x][sc-189028][SS] Adição de detalhes da API a novas APIs auxiliares transformWithState, conforme necessário
- [SPARK-51247] [SC-189236][sql] Mova SubstituteExecuteImmediate para o lote “resolução” e prepare-o para variáveis locais de script SQL.
-
[SPARK-50403] [SC-186416][sql] Corrigir parametrizado
EXECUTE IMMEDIATE - [SPARK-50598] [SC-183992][sql] Uma PR inicial no-op que adiciona novos parâmetros às classes já existentes UnresolvedWith, CTERelationRef e CTERelationDef para habilitar a implementação posterior de CTEs recursivos.
- [SPARK-48114] [SC-189176][sql] Mover a validação de subconsulta para fora do CheckAnalysis
-
[SPARK-50767] [SC-189169][SQL] Remoção do codegen de
from_json - [SPARK-51242] [SC-189200][conenct][PYTHON] Melhorar o desempenho da coluna quando o DQC estiver desabilitado
- [SPARK-51202] [SC-189208][ML][PYTHON] Transmissão da sessão nos gravadores de meta algoritmos do Python
- [SPARK-51246] [SC-189175][SQL] Processo para fazer com que InTypeCoercion produza conversões resolvidas
-
[SPARK-51192] [SC-189070][Connect] Exposição de
processWithoutResponseObserverForTestingemSparkConnectPlanner - [SPARK-51183] [SC-189010][SQL] Link para a especificação de Parquet em documentos do Variant
-
[SPARK-51189] [SC-188829][core] Promover
JobFailedparaDeveloperApi -
[SPARK-51184] [SC-188801][Core] Remoção da lógica
TaskState.LOSTdeTaskSchedulerImpl - [SPARK-51218] [SC-189012][SQL] Prevenção de map/flatMap em NondeterministicExpressionCollection
- [SPARK-51228] [SC-189022][SQL] Introdução da normalização de subconsulta a NormalizePlan
- [SPARK-51113] [SC-188883][sql] Correção da exatidão com UNION/EXCEPT/INTERSECT dentro de uma exibição ou EXECUTE IMMEDIATE
-
[SPARK-51209] [SC-188987][core] Aprimorar
getCurrentUserNamepara lidar com Java 24+ - [SPARK-50953] [SC-188409][python][CONNECT] Adicionar suporte para caminhos não literais no VariantGet
- [SPARK-51181] [SC-188854] [SQL] Impor determinismo ao retirar expressões não determinísticas do plano lógico
- [SPARK-50872] [SC-186901][sql][interface do usuário] Faz com que a expressão ToPrettyString não afete a apresentação da interface do usuário
- [SPARK-51150] [SC-188512][ml] Passe explicitamente a sessão em escritores de meta algoritmos
- [SPARK-51008] [SC-188655][sql] Adicionar ResultStage para AQE
- [SPARK-51114] [SC-188633][SQL] Refatoração da regra PullOutNondeterministic
- [SPARK-51160] [SC-188666][SQL] Refatoração da resolução de função literal
- [SPARK-51127] [SC-188366][Python] Encerramento do trabalho do Python em tempo limite ocioso
- [SPARK-51099] [SC-188350][Python] Adição de logs quando o trabalho do Python parecer travado
- [SPARK-51157] [SC-188536][sql] Adicionar anotação Scala ausente @varargs para APIs de função Scala
-
[SPARK-51155] [CORE] Faça
SparkContextmostrar o tempo total de execução após a parada - [SPARK-51140] [SC-188487][ml] Classificar os parâmetros antes de salvar
- [SPARK-51135] [SC-188392][sql] Corrigir ViewResolverSuite para modos ANSI
- [SPARK-51057] [SC-188191][ss] Remover API de variante baseada em opção scala para estado de valor
- [SPARK-51131] [SC-188359][sql] Lançar exceção quando o Script SQL for encontrado dentro de um comando EXECUTE IMMEDIATE
- [SPARK-51048] [SC-188369][core] Suporte para parar o Spark Context do Java com código de saída
- [SPARK-50234] [SC-181433][python][SQL] Melhore a mensagem de erro e teste a API DataFrame de transposição
- [SPARK-51074] [SC-188153][ss][CONNECT] Defina o tempo limite para comunicar configurações de inicialização no streaming foreachBatch
- [SPARK-48353] [SC-187986][sql] Introdução ao mecanismo de tratamento de exceção no script SQL
- [SPARK-50596] [SC-184060][python] Atualizar Py4J de 0.10.9.7 para 0.10.9.8
- [SPARK-51043] [SC-187928][SS][Connect] Registro em log de usuário refinado para o foreachBatch do Spark Connect
-
[SPARK-51084] [ES-1336002][sc-188171][SQL] Atribuir classe de erro apropriada para
negativeScaleNotAllowedError - [SPARK-51042] [SC-188216][SQL] Leitura e gravação dos campos de meses e dias de intervalos com uma chamada em classes Unsafe*
- [SPARK-51010] [SC-188188][sql] Correção de AlterColumnSpec não relatando o status resolvido corretamente
- [SPARK-50799] [SC-188169][python] Refinamento do docstring de rlike, length, octet_length, bit_length e transform
-
[SPARK-51061] [SC-187910][core] Ocultar
Jettyinformações na API de Envio REST - [SPARK-51055] [SC-187993][SS][CONNECT] O foreachBatch de streaming deve chamar a lógica de inicialização dentro de uma tentativa
- [SPARK-50982] [SC-188059][sql] Dá suporte a mais funcionalidades de caminho de leitura do SQL/DataFrame no Analisador de passagem única
-
[SPARK-51081] [SC-188092][sql] Refatorar
Join.outputpara resolvedor de passe único -
[SPARK-51064] [SC-188039][sql] Habilitar
spark.sql.sources.v2.bucketing.enabledpor padrão - [SPARK-50883] [LC-5998][sc-187120][SQL] Suporte à alteração de várias colunas no mesmo comando
- [SPARK-51034] [SC-187985][sql] Reformatar o dicionário de estatísticas da Descrição Como JSON para análise
- [SPARK-51058] [SC-187961][python] Evite usar jvm. SparkSession
- [SPARK-51056] [SC-187871][python] Evite a criação desnecessária de objetos no SparkSession.getActiveSession.
- [SPARK-50967] [SC-187860][ss] Adicionar opção para ignorar a emissão de chaves de estado iniciais dentro do operador FMGWS
- [SPARK-50813] [SC-186457][sql] Permitir apenas nomes de rótulo não qualificados dentro de Scripts SQL
- [SPARK-50858] [SC-187399][Python] Adição da configuração para ocultar o rastreamento de pilha de UDF do Python
- [SPARK-50853] [SC-187219][Core] Fechamento do canal gravável do arquivo temp de ordem aleatória
- [SPARK-50663] [SC-187541][sql] Corrigir gramática para instrução IF ELSE (ELSE IF -> ELSEIF)
-
[SPARK-51027] [SC-187502][sql] Impedir
HiveClient.runSqlHiveinvocação em ambiente sem teste - [SPARK-50977] [SC-187400][sc-187006][CORE] Aprimorar a disponibilidade da lógica que executa a agregação de resultados acumuladores
- [SPARK-51001] [SC-187442][SQL] Refinamento de arrayEquals
- [SPARK-50962] [SC-187168][sql] Evite StringIndexOutOfBoundsException em AttributeNameParser
- [SPARK-50683] [SC-184728][sql] Colocação da expressão comum em linha em With se usada uma vez
- [SPARK-50959] [SC-187139][ml][Python] Absorção da exceção de JavaWrapper.del
- [SPARK-50558] [SC-187337][SQL] Introdução de simpleString para ExpressionSet
- [SPARK-50648] [SC-184706][Core] Limpeza de tarefas zumbis em fases de não execução quando o trabalho é cancelado
-
[SPARK-50990] [SC-187316][SQL] Refatoração da resolução de
UpCastfora doAnalyzer - [SPARK-49491] [SC-184714][sql] Substituir AnyRefMap por HashMap
- [SPARK-50685] [SC-186941][python] Melhorar o desempenho Py4J aproveitando getattr
- [SPARK-50688] [SC-184666][SQL] Eliminação da ambiguidade para rowTag ausente no caminho de gravação XML
-
[SPARK-50976] [SC-187265][ml][PYTHON] Corrigir salvar/carregar de
TargetEncoder - [SPARK-49639] [SC-187297][SQL] Remoção da sugestão de configuração ANSI em INVALID_INTERVAL_WITH_MICROSECONDS_ADDITION
- [SPARK-50118] [SC-187110]Reversão de “[Connect] Redefinição do cache de estado isolado quando as tarefas estiverem em execução”
- [SPARK-47579] [16.x][sc-166971][CORE][parte3] Spark core: Migrar logInfo com variáveis para estrutura de log estruturada
- [SPARK-50669] [SC-184566][es-1327450][Photon][somente teste] Extensão de testes de unidade do Photon para a expressão TimestampAdd com tipos longos
- [SPARK-50909] [SC-187119][python] Configurar o manipulador de falhas em PythonPlannerRunners
- [SPARK-50774] [SC-186349][sql] Centralizar nomes de ordenação em um só lugar
- [SPARK-50804] [SC-186684][sql] to_protobuf() não deve lançar MatchError
- [SPARK-50957] [SC-187136][protobuf] Correção para tornar protobuf.utils.SchemaConverters privado
- [SPARK-50900] [SC-186948][ml][CONNECT] Adicionar VectorUDT e MatrixUDT a ProtoDataTypes
- [SPARK-50895] [SC-186998][sql] Criar interface comum para expressões que produzem tipo de cadeia de caracteres padrão
- [SPARK-50558] [SC-184216][sql] Adicionar limites de log configuráveis para o número de elementos em InSet e In
- [SPARK-50875] [SC-186951][SQL][16.x] Adição de ordenações RTRIM à TVF
-
[SPARK-50579] [SC-183826][sql] Correção
truncatedString
Suporte ao driver ODBC/JDBC do Databricks
O Databricks dá suporte a drivers ODBC/JDBC lançados nos últimos 2 anos. Baixe os drivers e a atualização lançados recentemente (baixe o ODBC, baixe o JDBC).
Ambiente do sistema
-
Sistema operacional: Ubuntu 24.04.2 LTS
- Observação: esta é a versão do Ubuntu usada pelos contêineres do Databricks Runtime. Os contêineres do Databricks Runtime são executados nas máquinas virtuais do provedor de nuvem, que podem usar uma versão diferente do Ubuntu ou distribuição do Linux.
- Java: Zulu17.54+21-CA
- Scala: 2.12.15
- Python: 3.12.3
- R: 4.4.0
- Delta Lake: 3.3.0
Bibliotecas do Python instaladas
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| annotated-types | 0.7.0 | asttokens | 2.0.5 | astunparse | 1.6.3 |
| comando automático | 2.2.2 | azure-core | 1.31.0 | Armazenamento em Blob do Azure | 12.23.0 |
| azure-storage-file-datalake | 12.17.0 | backports.tarfile | 1.2.0 | preto | 24.4.2 |
| blinker | 1.7.0 | boto3 | 1.34.69 | botocore | 1.34.69 |
| ferramentas de cache | 5.3.3 | certificado | 2024.6.2 | cffi | 1.16.0 |
| chardet | 4.0.0 | normalizador de conjunto de caracteres | 2.0.4 | click | 8.1.7 |
| cloudpickle | 2.2.1 | comm | 0.2.1 | contourpy | 1.2.0 |
| criptografia | 42.0.5 | ciclista | 0.11.0 | Cython | 3.0.11 |
| databricks-sdk | 0.30.0 | dbus-python | 1.3.2 | debugpy | 1.6.7 |
| decorador | 5.1.1 | Deprecated | 1.2.14 | distlib | 0.3.8 |
| de docstring para markdown | 0.11 | em execução | 0.8.3 | Visão geral de facetas | 1.1.1 |
| bloqueio de arquivo | 3.15.4 | fonttools | 4.51.0 | gitdb | 4.0.11 |
| GitPython | 3.1.37 | google-api-core | 2.20.0 | google-auth (autenticação do Google) | 2.35.0 |
| google-cloud-core | 2.4.1 | armazenamento na nuvem do Google | 2.18.2 | google-crc32c | 1.6.0 |
| google-mídia-retomável | 2.7.2 | googleapis-common-protos | 1.65.0 | grpcio | 1.60.0 |
| grpcio-status | 1.60.0 | httplib2 | 0.20.4 | IDNA | 3.7 |
| importlib-metadata | 6.0.0 | importlib_resources | 6.4.0 | inflect | 7.3.1 |
| ipyflow-core | 0.0.201 | ipykernel | 6.28.0 | ipython | 8.25.0 |
| ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 | isodate | 0.6.1 |
| jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 | jaraco.text | 3.12.1 |
| Jedi | 0.19.1 | jmespath | 1.0.1 | joblib | 1.4.2 |
| jupyter_client | 8.6.0 | jupyter_core | 5.7.2 | kiwisolver | 1.4.4 |
| launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 | lazr.uri | 1.0.6 |
| matplotlib | 3.8.4 | matplotlib-inline | 0.1.6 | mccabe | 0.7.0 |
| mlflow-skinny | 2.19.0 | more-itertools | 10.3.0 | mypy | 1.10.0 |
| mypy-extensions | 1.0.0 | nest-asyncio | 1.6.0 | nodeenv | 1.9.1 |
| numpy | 1.26.4 | oauthlib | 3.2.2 | opentelemetry-api | 1.27.0 |
| opentelemetry-sdk | 1.27.0 | Convenções Semânticas do OpenTelemetry | 0,48b0 | empacotamento | 24.1 |
| Pandas | 1.5.3 | parso | 0.8.3 | pathspec | 0.10.3 |
| patsy | 0.5.6 | pexpect | 4.8.0 | almofada | 10.3.0 |
| pip | 24,2 | platformdirs | 3.10.0 | enredo | 5.22.0 |
| Pluggy | 1.0.0 | prompt-toolkit | 3.0.43 | proto-plus | 1.24.0 |
| protobuf | 4.24.1 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
| ptyprocess | 0.7.0 | pure-eval | 0.2.2 | Pyarrow | 15.0.2 |
| pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 | pyccolo | 0.0.65 |
| pycparser | 2.21 | pydantic | 2.8.2 | pydantic_core | 2.20.1 |
| pyflakes | 3.2.0 | Pygments | 2.15.1 | PyGObject | 3.48.2 |
| PyJWT | 2.7.0 | pyodbc | 5.0.1 | pyparsing | 3.0.9 |
| pyright | 1.1.294 | python-dateutil | 2.9.0.post0 | python-lsp-jsonrpc | 1.1.2 |
| python-lsp-server (servidor LSP para Python) | 1.10.0 | pytoolconfig | 1.2.6 | Pytz | 2024.1 |
| PyYAML | 6.0.1 | pyzmq | 25.1.2 | requests | 2.32.2 |
| corda | 1.12.0 | rsa | 4.9 | s3transfer | 0.10.2 |
| scikit-aprender | 1.4.2 | scipy | 1.13.1 | seaborn (biblioteca de visualização em Python) | 0.13.2 |
| Ferramentas de configuração | 74.0.0 | seis | 1.16.0 | smmap | 5.0.0 |
| sqlparse | 0.5.1 | ssh-import-id | 5.11 | dados empilhados | 0.2.0 |
| statsmodels (biblioteca para modelos estatísticos em Python) | 0.14.2 | tenacidade | 8.2.2 | threadpoolctl | 2.2.0 |
| tokenize-rt | 4.2.1 | tomli | 2.0.1 | tornado | 6.4.1 |
| traitlets | 5.14.3 | guarda-tipo | 4.3.0 | types-protobuf | 3.20.3 |
| types-psutil | 5.9.0 | types-pytz | 2023.3.1.1 | types-PyYAML | 6.0.0 |
| tipos de solicitações | 2.31.0.0 | types-setuptools | 68.0.0.0 | tipos-seis | 1.16.0 |
| types-urllib3 | 1.26.25.14 | typing_extensions | 4.11.0 | ujson | 5.10.0 |
| atualizações não supervisionadas | 0.1 | urllib3 | 1.26.16 | virtualenv | 20.26.2 |
| wadllib | 1.3.6 | wcwidth | 0.2.5 | whatthepatch | 1.0.2 |
| wheel | 0.43.0 | embrulhado | 1.14.1 | yapf | 0.33.0 |
| zipp | 3.17.0 |
Bibliotecas R instaladas
As bibliotecas R são instaladas a partir do snapshot CRAN do Posit Package Manager em 2024-08-04.
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| flecha | 16.1.0 | AskPass | 1.2.0 | afirme isso | 0.2.1 |
| backports | 1.5.0 | base | 4.4.0 | base64enc | 0.1-3 |
| bigD | 0.2.0 | bit | 4.0.5 | bit64 | 4.0.5 |
| bitops | 1.0-8 | blob | 1.2.4 | ciar | 1.3-30 |
| Fabricação de cerveja | 1.0-10 | brio | 1.1.5 | vassoura | 1.0.6 |
| bslib | 0.8.0 | cachem | 1.1.0 | callr | 3.7.6 |
| sinal de interpolação | 6.0-94 | Cellranger | 1.1.0 | chron | 2.3-61 |
| classe | 7.3-22 | CLI | 3.6.3 | clipr | 0.8.0 |
| relógio | 0.7.1 | cluster | 2.1.6 | codetools | 0.2-20 |
| espaço de cores | 2.1-1 | commonmark | 1.9.1 | compilador | 4.4.0 |
| config | 0.3.2 | conflituoso | 1.2.0 | cpp11 | 0.4.7 |
| crayon | 1.5.3 | credenciais | 2.0.1 | encurvar | 5.2.1 |
| Tabela de Dados | 1.15.4 | conjuntos de dados | 4.4.0 | DBI | 1.2.3 |
| dbplyr | 2.5.0 | Descrição | 1.4.3 | devtools | 2.4.5 |
| diagrama | 1.6.5 | diffobj | 0.3.5 | hash | 0.6.36 |
| downlit | 0.4.4 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-14 | reticências | 0.3.2 | avaliar | 0.24.0 |
| fansi | 1.0.6 | cores | 2.1.2 | mapa rápido | 1.2.0 |
| fontawesome | 0.5.2 | forcats | 1.0.0 | foreach | 1.5.2 |
| estrangeiro | 0.8 - 86 | forge | 0.2.0 | fs | 1.6.4 |
| futuro | 1.34.0 | future.apply | 1.11.2 | gargle | 1.5.2 |
| genéricos | 0.1.3 | gert | 2.1.0 | ggplot2 | 3.5.1 |
| gh | 1.4.1 | git2r | 0.33.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | globals | 0.16.3 | cola | 1.7.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | gower | 1.0.1 |
| Gráficos | 4.4.0 | grDevices | 4.4.0 | grade | 4.4.0 |
| gridExtra | 2.3 | gsubfn | 0.7 | gt | 0.11.0 |
| gtable | 0.3.5 | capacete de segurança | 1.4.0 | refúgio | 2.5.4 |
| mais alto | 0.11 | hms | 1.1.3 | ferramentas HTML | 0.5.8.1 |
| htmlwidgets | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
| httr2 | 1.0.2 | ids | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-15 | isoband | 0.2.7 | Iteradores | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.8.8 | juicyjuice | 0.1.0 |
| KernSmooth | 2.23-22 | knitr | 1.48 | rotulagem | 0.4.3 |
| posterior | 1.3.2 | treliça | 0,22-5 | lava vulcânica | 1.8.0 |
| ciclo de vida | 1.0.4 | ouça | 0.9.1 | lubrificado | 1.9.3 |
| magrittr | 2.0.3 | markdown | 1.13 | MASS | 7.3-60.0.1 |
| Matriz | 1.6-5 | memorização | 2.0.1 | Métodos | 4.4.0 |
| mgcv | 1.9-1 | mime | 0.12 | miniUI | 0.1.1.1 |
| mlflow | 2.14.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
| munsell | 0.5.1 | nlme | 3.1-165 | nnet | 7.3-19 |
| numDeriv | 2016.8-1.1 | openssl | 2.2.0 | paralelo | 4.4.0 |
| parallelly | 1.38.0 | coluna | 1.9.0 | pkgbuild | 1.4.4 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.0 | pkgload | 1.4.0 |
| plogr | 0.2.0 | plyr | 1.8.9 | elogio | 1.0.0 |
| prettyunits | 1.2.0 | pROC | 1.18.5 | processx | 3.8.4 |
| Prodlim | 2024.06.25 | profvis | 0.3.8 | progresso | 1.2.3 |
| progressr | 0.14.0 | Promessas | 1.3.0 | proto | 1.0.0 |
| proxy | 0.4-27 | P.S. | 1.7.7 | purrr | 1.0.2 |
| R6 | 2.5.1 | ragg | 1.3.2 | randomForest | 4.7-1.1 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.13 | RcppEigen | 0.3.4.0.0 | capaz de reagir | 0.4.4 |
| reactR | 0.6.0 | Readr | 2.1.5 | readxl | 1.4.3 |
| Receitas | 1.1.0 | jogo de revanche | 2.0.0 | revanche2 | 2.1.2 |
| remotes | 2.5.0 | reprex | 2.1.1 | reshape2 | 1.4.4 |
| rlang | 1.1.4 | rmarkdown | 2.27 | RODBC | 1.3-23 |
| roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
| Rserve | 1.8-13 | RSQLite | 2.3.7 | rstudioapi | 0.16.0 |
| rversions | 2.1.2 | rvest | 1.0.4 | Sass | 0.4.9 |
| escamas | 1.3.0 | Seletor | 0.4-2 | informações de sessão | 1.2.2 |
| forma | 1.4.6.1 | brilhante | 1.9.1 | sourcetools | 0.1.7-1 |
| sparklyr | 1.8.6 | SparkR | 3.5.2 | espacial | 7.3-17 |
| splines | 4.4.0 | sqldf | 0.4-11 | SQUAREM | 2021.1 |
| estatísticas | 4.4.0 | estatísticas4 | 4.4.0 | stringi | 1.8.4 |
| stringr | 1.5.1 | sobrevivência | 3.6-4 | swagger | 5.17.14.1 |
| sys | 3.4.2 | systemfonts | 1.1.0 | tcltk | 4.4.0 |
| testthat | 3.2.1.1 | formatação de texto | 0.4.0 | tibble | 3.2.1 |
| tidyr | 1.3.1 | tidyselect | 1.2.1 | tidyverse | 2.0.0 |
| mudança de horário | 0.3.0 | data e hora | 4032.109 | tinytex | 0.52 |
| Ferramentas | 4.4.0 | tzdb | 0.4.0 | verificador de URL | 1.0.1 |
| usethis | 3.0.0 | utf8 | 1.2.4 | utils | 4.4.0 |
| identificador único universal (UUID) | 1.2-1 | V8 | 4.4.2 | vctrs | 0.6.5 |
| viridisLite | 0.4.2 | vroom | 1.6.5 | Waldo | 0.5.2 |
| whisker | 0.4.1 | murchar | 3.0.1 | xfun | 0.46 |
| xml2 | 1.3.6 | xopen | 1.0.1 | xtable | 1.8-4 |
| YAML | 2.3.10 | zeallot | 0.1.0 | zip | 2.3.1 |
Bibliotecas Java e Scala instaladas (versão do cluster Scala 2.12)
| ID do grupo | ID do artefato | Versão |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | amazon-kinesis-client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity (pacote de identidade Cognito para Java da AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect (SDK Java da AWS para conexão direta) | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | SDK Java para o ECS da AWS | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam (kit de desenvolvimento de software Java da AWS para IAM) | 1.12.638 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs | 1.12.638 |
| com.amazonaws | aws-java-sdk-machinelearning (SDK da AWS para aprendizado de máquina) | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
| com.amazonaws | aws-java-sdk-sts | 1.12.638 |
| com.amazonaws | aws-java-sdk-support (suporte para AWS Java SDK) | 1.12.638 |
| com.amazonaws | aws-java-sdk-swf-bibliotecas | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | fluxo | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo-shaded | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | colega de classe | 1.3.4 |
| com.fasterxml.jackson.core | Anotações do Jackson | 2.15.2 |
| com.fasterxml.jackson.core | jackson-core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
| com.fasterxml.jackson.datatype | jackson-module-paranamer | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-module-scala_2.12 | 2.15.2 |
| com.github.ben-manes.cafeína | cafeína | 2.9.3 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1-natives |
| com.github.fommil.netlib | sistema_nativo-java | 1.1 |
| com.github.fommil.netlib | sistema_nativo-java | 1.1-natives |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-natives |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-natives |
| com.github.luben | zstd-jni | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.10.1 |
| com.google.crypto.tink | tink | 1.9.0 |
| com.google.errorprone | anotações_propensas_a_erros | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 26/05/2023 |
| com.google.guava | guava | 15,0 |
| com.google.protobuf | protobuf-java | 3.25.1 |
| com.helger | criador de perfil | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | VERSÃO.0.8.0. |
| com.lihaoyi | código-fonte_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.3.jre8 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentes_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.16.0 |
| commons-collections (coleções comuns) | commons-collections (coleções comuns) | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload | commons-fileupload | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compressor de ar | 0.27 |
| io.delta | delta-sharing-client_2.12 | 1.2.3 |
| io.dropwizard.metrics | anotação de métricas | 4.2.19 |
| io.dropwizard.metrics | metrics-core | 4.2.19 |
| io.dropwizard.metrics | metrics-graphite | 4.2.19 |
| io.dropwizard.metrics | métricas-verificações de saúde | 4.2.19 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
| io.dropwizard.metrics | metrics-jmx | 4.2.19 |
| io.dropwizard.metrics | metrics-json (métricas em JSON) | 4.2.19 |
| io.dropwizard.metrics | metrics-jvm | 4.2.19 |
| io.dropwizard.metrics | metrics-servlets | 4.2.19 |
| io.netty | Netty-all | 4.1.108.Final |
| io.netty | netty-buffer | 4.1.108.Final |
| io.netty | netty-codec | 4.1.108.Final |
| io.netty | netty-codec-http | 4.1.108.Final |
| io.netty | netty-codec-http2 | 4.1.108.Final |
| io.netty | netty-codec-socks | 4.1.108.Final |
| io.netty | netty-common | 4.1.108.Final |
| io.netty | netty-handler | 4.1.108.Final |
| io.netty | netty-handler-proxy | 4.1.108.Final |
| io.netty | Netty Resolver | 4.1.108.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-windows-x86_64 |
| io.netty | Netty Tcnative Classes | 2.0.61.Final |
| io.netty | netty-transport | 4.1.108.Final |
| io.netty | netty-transport-classes-epoll | 4.1.108.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-comum | 4.1.108.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | coletor | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | ativação | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | API de transação | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | pickle | 1.3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | formiga | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | lançador de formigas | 1.10.11 |
| org.apache.arrow | arrow-format | 15.0.0 |
| org.apache.arrow | arrow-memory-core | 15.0.0 |
| org.apache.arrow | Arrow-Memory-Netty | 15.0.0 |
| org.apache.arrow | arrow-vector | 15.0.0 |
| org.apache.avro | Avro | 1.11.3 |
| org.apache.avro | avro-ipc | 1.11.3 |
| org.apache.avro | avro-mapred | 1.11.3 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.23.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | Texto Comum | 1.10.0 |
| org.apache.curator | curator-client | 2.13.0 |
| org.apache.curator | estrutura do curador | 2.13.0 |
| org.apache.curator | curador de receitas | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-memory | 2.0.0 |
| org.apache.derby | Dérbi | 10.14.2.0 |
| org.apache.hadoop | tempo de execução do cliente Hadoop | 3.3.6 |
| org.apache.hive | hive-beeline (ferramenta de linha de comando para conectar-se ao Hive) | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | hive-shims | 2.3.9 |
| org.apache.hive | API de armazenamento do Hive | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | Agendador de Ajustes do Hive (hive-shims-scheduler) | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | ivy | 2.5.2 |
| org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
| org.apache.logging.log4j | log4j-api | 2.22.1 |
| org.apache.logging.log4j | log4j-core | 2.22.1 |
| org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
| org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-calços | 1.9.2 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.23 |
| org.apache.yetus | anotações de público-alvo | 0.13.0 |
| org.apache.zookeeper | zelador de zoológico | 3.9.2 |
| org.apache.zookeeper | guarda de zoológico-juta | 3.9.2 |
| org.checkerframework | checker-qual | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | commons-compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.collections | eclipse-collections | 11.1.0 |
| org.eclipse.collections | eclipse-collections-api | 11.1.0 |
| org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-continuation | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-security | 9.4.52.v20230823 |
| org.eclipse.jetty | servidor jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty Webapp | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | API de WebSocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-client (cliente WebSocket) | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | servidor WebSocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | Localizador de Recursos OSGi | 1.0.3 |
| org.glassfish.hk2.external | AliançaAOP-Reempacotado | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
| org.glassfish.jersey.core | jersey-client | 2.40 |
| org.glassfish.jersey.core | jersey-common | 2.40 |
| org.glassfish.jersey.core | jersey-server | 2.40 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
| org.hibernate.validator | hibernate-validator | 6.1.7.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Anotações | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 4.0.7 |
| org.json4s | json4s-core_2.12 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.12 | 4.0.7 |
| org.json4s | json4s-jackson_2.12 | 4.0.7 |
| org.json4s | json4s-scalap_2.12 | 4.0.7 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.12 | 2.9.1 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
| org.roaringbitmap | Calços | 0.9.45-databricks |
| org.rocksdb | rocksdbjni | 9.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.12 | 0.9.1 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interface de teste | 1,0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.16 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | compatível com scalatest | 3.2.16 |
| org.scalatest | scalatest-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.16 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.16 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.16 |
| org.scalatest | scalatest_2.12 | 3.2.16 |
| org.slf4j | jcl-over-slf4j | 2.0.7 |
| org.slf4j | jul-to-slf4j | 2.0.7 |
| org.slf4j | slf4j-api | 2.0.7 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.4.1-linux-x86_64 |
| Stax | stax-api | 1.0.1 |