Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 18.2 (Beta).
Essa versão incorpora todos os recursos, melhorias e correções de bug de todas as versões anteriores do Databricks Runtime. O Databricks lançou esta versão em abril de 2026.
Importante
O Databricks Runtime 18.2 está em Beta. O conteúdo dos ambientes com suporte pode mudar durante o Beta. As alterações podem incluir a lista de pacotes ou versões de pacotes instalados.
Alterações comportamentais
- O XPath não busca mais DTDs externos
- Preservação de struct NULL em INSERT, MERGE e gravações de streaming com evolução do esquema
- Suporte para NullType (VOID) em tabelas Delta
- SHOW CREATE TABLE dá suporte a exibições de métrica
- Correção para linhas de remoção LEFT OUTER JOIN LATERAL
- Natural JOIN respeita correspondência de colunas que não diferenciam maiúsculas de minúsculas
- Validação de dependência de SQL UDF no Unity Catalog
- Gravações otimizadas para tabelas do Unity Catalog particionadas, criadas com CRTAS
- As dependências do SDK v1 do AWS são sombreadas
- Corrigir a autoridade de EPSG incorreta para o SRID 102100 definido por ESRI
O XPath não busca mais DTDs externos
Quando você avalia XPath em XML, Azure Databricks não carrega mais DTDs (Definições de Tipo de Documento) externas declaradas no documento. Anteriormente, o XPath podia falhar quando o XML continha uma referência DTD externa que apontava para uma URL malformada ou um ponto de extremidade inacessível. Como a validação de DTD é separada da avaliação do XPath, as consultas que já obtiveram êxito retornam os mesmos resultados de antes. Agora, as consultas que falharam anteriormente somente durante a recuperação de DTD externo podem ser bem-sucedidas.
Preservação de struct NULL em INSERT, MERGE e gravações de streaming com evolução do esquema
Para INSERT, MERGE e gravações de streaming que usam a evolução do esquema, um struct NULL na origem agora é armazenado como NULL no destino. Anteriormente, esse valor era materializado incorretamente como um struct não nulo com cada campo definido como NULL, enquanto as mesmas operações sem evolução de esquema preservavam corretamente os structs NULL. Se seu código dependesse de receber um struct não nulo cujos campos eram todos NULL, atualize seu código para manipular um struct NULL.
Suporte a NullType (VOID) em tabelas Delta
As Tabelas Delta agora dão suporte a colunas VOID (NullType do Spark).
VOID as colunas não são mais removidas do esquema de tabela após as leituras. As gravações não são afetadas. Consulte o VOID tipo para restrições sobre onde VOID colunas podem aparecer no esquema.
SHOW CREATE TABLE suporta exibições de métrica
SHOW CREATE TABLE agora dá suporte a exibições de métrica. Anteriormente, a execução desse comando em uma exibição de métrica gerava um erro. A saída para exibições de métrica inclui o nome de três partes totalmente qualificado com catálogo (por exemplo, CREATE VIEW catalog.db.my_metric_view ...), facilitando a recriação da exibição de métrica no local correto.
Correção para linhas de remoção LEFT OUTER JOIN LATERAL
Um bug que retirou incorretamente linhas de LEFT OUTER JOIN LATERAL consultas agora é corrigido. As consultas que usam esse constructo agora retornam os resultados corretos. Para reverter temporariamente para o comportamento anterior, defina spark.databricks.sql.optimizer.lateralJoinPreserveOuterSemantic como true.
Natural JOIN respeita correspondência de colunas que não diferenciam maiúsculas de minúsculas
NATURAL JOIN agora usa corretamente a correspondência de colunas que não diferencia maiúsculas de minúsculas quando spark.sql.caseSensitive é definido como false (o padrão). Anteriormente, NATURAL JOIN usava comparação sensível a maiúsculas e minúsculas para identificar colunas comuns, fazendo com que colunas que diferem apenas nas letras maiúsculas e minúsculas (por exemplo, ID versus id) não fossem reconhecidas como correspondentes. Isso causou NATURAL JOIN a gerar silenciosamente resultados de junção cruzada. Essa correção alinha o comportamento do NATURAL JOIN com USING junções, que já lidavam corretamente com a insensibilidade a maiúsculas e minúsculas. As consultas afetadas por esse bug agora retornam resultados corretos com colunas unidas corretamente.
Validação de dependência do UDF do SQL no Catálogo do Unity
O Unity Catalog agora impõe a validação de dependência para UDFs (funções definidas pelo usuário) do SQL para impedir o bypass de controles de acesso. Anteriormente, as funções SQL criadas por meio da API REST podiam referenciar dependências às quais o usuário não tinha acesso. UDFs do SQL com configurações de dependência inválidas agora estão bloqueadas da execução.
Gravações otimizadas para tabelas particionadas no Unity Catalog criadas com CRTAS
Gravações otimizadas agora são aplicadas corretamente às tabelas particionadas do Unity Catalog criadas com CREATE OR REPLACE TABLE ... AS SELECT (CRTAS). Anteriormente, o CRTAS em novas tabelas particionadas do Catálogo do Unity não aplicava gravações otimizadas, resultando em um número maior de arquivos pequenos por partição. Essa correção pode aumentar a latência de gravação. Para reverter para o comportamento anterior, defina spark.databricks.delta.optimizeWrite.UCTableCRTAS.enabled como false.
As dependências do SDK v1 do AWS são sombreadas
As dependências do SDK do AWS v1 agrupadas com o Databricks Runtime agora são sombreadas e não estão mais diretamente disponíveis no classpath. Se o código depender das bibliotecas do SDK do AWS v1 fornecidas anteriormente pelo Databricks Runtime, adicione-as como dependências explícitas em seu projeto. Essa alteração se prepara para a migração para o SDK do AWS v2, após o fim do suporte do AWS para o SDK v1.
Corrigir a autoridade de EPSG incorreta para o SRID 102100 definido por ESRI
O mapeamento crs (sistema de referência de coordenadas) para SRID 102100 agora usa ESRI:102100 corretamente em vez do incorreto EPSG:102100. Essa correção garante que os dados geoespaciais sejam armazenados com a autoridade correta para melhor interoperabilidade com outros sistemas.
Novos recursos e melhorias
- Suporte para CREATE OR REPLACE em tabelas temporárias
-
agg()alias da funçãomeasure() - Atualização do driver JDBC do Snowflake
-
pyspark.pipelines.testingalias do namespace - Aprimoramento no desempenho da listagem do Carregador Automático
- O histórico da tabela Delta inclui sinalizadores de opção de gravação
- Suporte de repetição e retrocesso de streaming estruturado
SUPORTE PARA CRIAR OU SUBSTITUIR tabelas temporárias
CREATE OR REPLACE TEMP TABLE A sintaxe agora tem suporte, permitindo que você crie ou substitua tabelas temporárias em uma única instrução. Isso elimina a necessidade de descartar e recriar explicitamente tabelas temporárias.
agg() apelido para a função measure()
agg() agora está disponível como um alias para a measure() função. Essa alteração é totalmente compatível com versões anteriores. As consultas existentes que usam measure() continuam funcionando sem modificação e agg() produzem resultados idênticos quando usadas com os mesmos argumentos.
Atualização do driver JDBC do Snowflake
O driver JDBC snowflake é atualizado de 3.22.0 para 3.28.0.
pyspark.pipelines.testing alias do namespace
pyspark.pipelines.testing agora está disponível como um alias de conveniência para dlt.testing APIs. Importe os utilitários de teste de pipeline do Lakeflow Spark Declarative Pipelines através de qualquer um dos namespaces.
Aperfeiçoamento no desempenho da listagem do Carregador Automático
O Carregador Automático agora usa um método de listagem mais eficiente que melhora a velocidade de listagem para fontes de armazenamento em nuvem. Se os gatilhos de fluxo se sobrepõem devido a operações de listagem de execução prolongada, essa otimização poderá aumentar os custos da API de listagem na nuvem. Monitore os intervalos de gatilho e ajuste o agendamento para evitar operações sobrepostas se forem observados aumentos de custos.
O histórico da tabela Delta inclui sinalizadores de opção de gravação
O histórico da tabela Delta (DESCRIBE HISTORY) agora inclui flags de opções de gravação na coluna operationParameters para as operações WRITE e REPLACE TABLE. Quando as opções a seguir estão explicitamente habilitadas, elas aparecem como sinalizadores boolianos no histórico (incluídos somente quando true):
Para WRITE e REPLACE TABLE operações:
-
isDynamicPartitionOverwrite: presente quando o modo dinâmico de substituição de partição foi usado -
canOverwriteSchema: presente quando a substituição de esquema (overwriteSchema) foi habilitada -
canMergeSchema: presente quando a mesclagem de esquema (mergeSchema) foi habilitada
Para REPLACE TABLE operações:
-
predicate: presente quandoreplaceWherefoi usado -
isV1WriterSaveAsTableOverwrite: presente quando a substituição foi disparada por uma.saveAsTablesobrescrita
Suporte para retroceder e reexecutar no streaming estruturado
O Streaming Estruturado agora dá suporte a rebobinamento e reprodução para pipelines de streaming. Esse recurso permite que o reprocessamento de um ponto anterior no fluxo recupere-se de falhas como alterações de esquema, dados de entrada malformados ou erros lógicos, sem a necessidade de uma redefinição de estado completa. Isso não modifica o comportamento padrão das cargas de trabalho de streaming existentes.
Atualizações de biblioteca
Bibliotecas de Python atualizadas:
Nenhuma biblioteca foi atualizada nesta versão.
Bibliotecas R atualizadas:
Nenhuma biblioteca foi atualizada nesta versão.
Bibliotecas de Java atualizadas:
- io.delta.delta-sharing-client_2.13 de 1.3.9 para 1.3.10
Apache Spark
O Databricks Runtime 18.2 inclui o Apache Spark 4.1.0. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 18.1, bem como as seguintes correções de bug adicionais e melhorias feitas no Spark:
- SPARK-56219 Reverter "[SC-225028][PS] Alinhar groupby idxmax e idxmin skipna=Comportamento falso com pandas 2/3"
-
SPARK-56204 Remover
Aliaswrappers de expressões de linha de tabela embutidas no analisador - SPARK-56186 Desativar pypy
- SPARK-56202 Refatorar testes de junção de streaming: dividir a hierarquia base/suite e simplificar a expedição de modo
- SPARK-56221 Paridade de recursos entre comandos spark.catalog.* vs DDL
-
SPARK-56301 Corrigir erros de digitação em
error-conditions.json - SPARK-55729 Dar suporte ao leitor de fonte de dados de estado para o novo formato de estado v4 na junção de fluxo de fluxo
- SPARK-56256 Adicionar a API EmptyDataFrame ao SparkSession
- SPARK-56205 Validar a ID do ponto de verificação do repositório de estado base antes de confirmar a microbatch
- SPARK-55827 Corrigir dica de tipo para trabalhadores de fonte de dados
- SPARK-55579 Renomear classes de erro do PySpark para serem independentes de tipo eval
- SPARK-56247 Corrigir o comportamento de fall back e a dica de tipo de inheritable_thread_target
- SPARK-56244 Refinar o layout da classe de parâmetro de comparação no bench_eval_type.py
- SPARK-56262 Remover a verificação de mypy desnecessária desabilitada para tipos
- SPARK-55969 regr_r2 deve tratar o primeiro parâmetro como variável dependente
- SPARK-56179 Consolidar classes de erro para incompatibilidade de tipo – parte 3
- SPARK-55630 Ignorar a atualização do sinalizador correspondente para o lado não externo no stream-stream join v4
- SPARK-56217 Corrigir exceções bucketBy na conexão
- SPARK-56225 Melhorar a mensagem de erro de View com EVOLUÇÃO SCHEMA
- SPARK-55865 Renomear _LEGACY_ERROR_TEMP_1266 para CANNOT_TRUNCATE_EXTERNAL_TABLE
- SPARK-55861 Renomear _LEGACY_ERROR_TEMP_2045 para UNSUPPORTED_TABLE_CHANGE
- SPARK-56166 Usar ArrowBatchTransformer.enforce_schema para substituir a lógica de coerção de tipo em nível de coluna
- SPARK-56245 Corrigir a atribuição inplace DataFrame.eval no pandas 3
- SPARK-56062 Isolar o memory_profiler para melhorar o tempo de importação
- O catálogo do sistema SPARK-55964 tem precedência sobre o catálogo de usuário para os esquemas BUILTIN e SESSION.
-
SPARK-56226 Capturar erros de análise antes de
InternalFrame.__init__em.loc - SPARK-55723 Generalizar enforce_schema erro para PySparkTypeError
- SPARK-54878 Adicionar a opção sortKeys à função to_json
- SPARK-56219 Alinhar o comportamento groupby idxmax e idxmin skipna=False com pandas 2/3
- SPARK-44065 Otimizar a distorção de BroadcastHashJoin em OptimizeSkewedJoin
- SPARK-56179 Reverter "[SC-225014][PYTHON] Consolidar classes de erro para incompatibilidade de tipo - parte 3"
- SPARK-53399 UDFs de mesclagem Python
- SPARK-56224 Anotações de tipo polonês para accumulators.py
- SPARK-55448 Corrigir a perda de eventos de consulta quando a sessão for fechada durante a execução da consulta
- SPARK-55862 Renomear _LEGACY_ERROR_TEMP_2027 para UNEXPECTED_OPERATOR_IN_CORRELATED_SUBQUERY
- SPARK-56201 Execute testes SPARK-49829 com junções VCF agora que o StateDataSource dá suporte a eles
- SPARK-56179 Consolidar classes de erro para incompatibilidade de tipo – parte 3
-
SPARK-56184 Substituir
assertpor adequadoSparkRuntimeExceptionna análise de colunas de partição - SPARK-56206 Corrigir detecção de nome CTE duplicada que não diferencia maiúsculas de minúsculas
- SPARK-55866 Renomear _LEGACY_ERROR_TEMP_2145 para OPTION_VALUE_EXCEEDS_ONE_CHARACTER
- SPARK-56067 Importar psutil lento para melhorar a velocidade de importação
- SPARK-56066 Numpy de importação lenta para melhorar a velocidade de importação
- SPARK-55719 Remova o aviso de descontinuação para spark.sql.hive.convertCTAS
- SPARK-56179 Consolidar classes de erro para incompatibilidade de tipo – parte 2
- SPARK-55510 Atualizar o documento structured-streaming-state-data-source.md para refletir deleteRange
- SPARK-56050 Resolver de forma antecipada IDENTIFIER() com literais de string no momento da análise
- SPARK-56151 Melhorar a cadeia de caracteres de exibição CreateVariable
- SPARK-55751 Adicionar métricas nas cargas do repositório de estado a partir do DFS
- SPARK-56188 Alinhar Series.map({}) com o comportamento de dicionário vazio do Pandas 3
- SPARK-55964 Reverter "[SC-223957] catálogo do sistema tem precedência sobre o catálogo de usuário nos esquemas BUILTIN e SESSION."
- SPARK-55577 Refatorar a lógica de wrapper, mapeador e serializador SQL_SCALAR_ARROW_ITER_UDF
- SPARK-55596 Filtragem de estatísticas de partição aprimorada DSV2
- SPARK-56179 Reverter "[SC-224777][PYTHON] Consolidar classes de erro para incompatibilidade de tipo - parte 2"
- O catálogo do sistema SPARK-55964 tem precedência sobre o catálogo de usuário para os esquemas BUILTIN e SESSION.
- SPARK-56050 Reverter "[SC-224153][SQL] Resolver de forma imediata IDENTIFIER() com literais de string em tempo de análise"
- SPARK-56179 Consolidar classes de erro para incompatibilidade de tipo – parte 2
-
SPARK-56102
UnionEstimationlimpeza de código - SPARK-51712 Ignorar exceções não fatais ao resolver tabelas/views em spark.catalog.listTables()
- SPARK-55881 Adicionar queryId, errorMessage e rootExecutionId à API REST de execução do SQL
- SPARK-56050 Resolver de forma antecipada IDENTIFIER() com literais de string no momento da análise
- SPARK-55628 Integrar o formato de estado da junção entre fluxos V4
- SPARK-56187 Corrigir a ordenação de nulos em Series.argsort para pandas 3
- SPARK-56167 Alinhar o astype com o comportamento de cadeia de caracteres padrão do Pandas 3
- SPARK-56018 Usar o ruff como formatador
- SPARK-56042 Corrigir métricas de contagem de famílias de colunas externas/internas invertidas no RocksDBStateStoreProvider
- SPARK-56179 Consolidar classes de erro para incompatibilidade de tipo – parte 1
- SPARK-56089 Alinhar asinh/acosh com o algoritmo fdlibm para compatibilidade entre motores de execução
- SPARK-55453 Corrigir a correspondência de padrões LIKE para caracteres Unicode suplementares
- SPARK-52785 Simplificando a sintaxe super() no PySpark
-
SPARK-56169 Correção
ClassCastExceptionno relatório de erros quandoGetStructFieldo tipo filho é alterado pela transformação do plano - SPARK-55557 Funções hiperbólicas não devem causar overflow com entradas grandes
- SPARK-47997 Adicionar parâmetro de erros a DataFrame.drop e Series.drop
- SPARK-55008 Exibir iD de consulta no SparkUI
- SPARK-54660 Adicionar gatilho RTM ao Python
-
SPARK-56047 Propagar
distinctCountpela União na estimativa de estatísticas do CBO - SPARK-56111 Adicionar SparkContext.isDriver() e usá-lo na base de código
- SPARK-55999 Habilitar forceSnapshotUploadOnLag por padrão
- SPARK-55610 Adicionar getExecutorInfos ao StatusTracker no Python
- SPARK-55728 Introduza a configuração de parâmetro para o tamanho do pool de threads de verificação de arquivos e suporte para desabilitar o pool de threads
- SPARK-55686 SizeEstimator cuida de cabeçalhos de objeto compactos
- SPARK-56044 HistoryServerDiskManager não exclui o armazenamento de aplicações na liberação quando o aplicativo não está no mapa ativo
- SPARK-55809 HeapHistogram usa DiagnosticCommandMBean em vez de subprocesso jmap
- SPARK-56122 Usar a verificação de tipo numérico com reconhecimento de pandas em Series.cov
- SPARK-56113 Melhorar a restauração de strings no pandas 3 em pandas-on-Spark
- SPARK-56118 Igualar o tratamento de tipos booleanos no pandas 3.0 em GroupBy.quantile
- SPARK-53823 Implementar a lista de permissões para o modo em tempo real
- SPARK-55977 Corrigir a função isin() para usar correspondência estrita de tipos como o pandas
- SPARK-54027 Suporte ao RTM de origem do Kafka
- SPARK-50284 Alterar documentos para a função parseJson
-
SPARK-56035 [SQL] Introduza
AggregationValidatorpara validação de resolvedorAggregatede passagem única - SPARK-55557 Reverter "[SC-223720][SQL] As funções hiperbólicas não devem causar overflow com entradas grandes"
- SPARK-56075 Remover um lote de classes de erro do Python mortas
- SPARK-55967 Unificar conversão de coluna para o dataframe de conexão
- SPARK-53915 Adicionar RealTimeScanExec e capacidade de executar lotes de execução longa
- SPARK-55557 Funções hiperbólicas não devem transbordar com entradas grandes
- SPARK-55147 Delimitação do intervalo de carimbo de data/hora para recuperação de união para intervalo de tempo no formato de estado V4
- SPARK-56056 Dar suporte à criação de perfil de trabalho mais simples com o viztracer
- SPARK-55948 Adicionar a API do conector CDC DSv2, a resolução do analisador e a cláusula SQL CHANGES
- SPARK-54599 Reaplicar "[SC-219008][PYTHON] Refatorar PythonExcept...
- SPARK-55390 Consolidar a lógica de wrapper, mapeador e serializador do SQL_SCALAR_ARROW_UDF
- SPARK-56023 Melhor balanceamento de carga em LowLatencyMemoryStream
- SPARK-55986 Atualizar Black para 26.3.1
- SPARK-55667 Mover check_dependencies para init
- SPARK-55145 Suporte ao Avro para codificadores de chaves de estado do RocksDB baseados em timestamp
- SPARK-53970 Remova a marca "opcional" incorreta para messageName...
- SPARK-55059 Reverter "[SC-224058][PYTHON] Remover solução alternativa de tabela vazia em toPandas"
- SPARK-50111 Adicionar suporte a subgráficos para gráficos de pizza no backend do Plotly
- SPARK-56081 Alinhar a manipulação do Idxmax e do Idxmin NA com o pandas 3
- SPARK-56080 Alinhar Series.argmax/argmin com a manipulação de NA do Pandas 3.0
- SPARK-56060 Gerenciar a conversão de string nula do Pandas 3 em describe() para quadros de carimbo de data/hora vazios
- SPARK-55059 Remover solução alternativa de tabela vazia em toPandas
- SPARK-55995 Suporte a TIMESTAMP COM FUSO HORÁRIO LOCAL na sintaxe SQL
- SPARK-55976 Usar Set em vez de Seq para privilégios de gravação
-
SPARK-56073 Simplificar a compilação de
PythonRunnerConfMap -
SPARK-55887 Tratamento especial para
CollectLimitExec/CollectTailExecevitar a verificação completa das tabelas - SPARK-55980 Sempre aplique _cast_back_float em aritmética numérica
- SPARK-55357 Corrigir docstring para timestamp_add
- SPARK-55667 Reverter as mudanças de "[SC-223289][PYTHON][CONNECT] Mover check_dependencies para init"
- SPARK-54285 Reverter "[PYTHON] Armazenar em cache informações de fuso horário para evitar uma conversão de timestamp dispendiosa"
- SPARK-56021 Aumentar o limite de maxChangeFileReplay padrão do AutoSnapshotRepair de 50 para 500
- SPARK-55870 Adicionar documentos para tipos geográficos
-
SPARK-55962 Usar
getShortem vez degetIntcasting emputShortsFromIntsLittleEndianplataformas de Little Endian - SPARK-55903 Simplificar a evolução do esquema MERGE e verificar privilégios de gravação
- SPARK-55326 Liberar sessão remota quando SPARK_CONNECT_RELEASE_SESSION_ON_EXIT estiver configurada
- SPARK-55667 Mover check_dependencies para init
- SPARK-55884 Adicionar v1StatsToV2Stats ao DataSourceV2Relation
- SPARK-55929 Adicionar método toString() ausente em TableChange.UpdateColumnDefaultValue
- SPARK-55851 Esclarecer tipos de partição e leitura de fonte de dados
- SPARK-55828 Adicionar dSV2 TableChange toString e corrigir a classe de erro ausente para Merge Into Schema Evolution
- SPARK-55790 Criar um registro SRS completo usando dados PROJ 9.7.1
- SPARK-55645 Adicionar serdeName ao CatalogStorageFormat
- SPARK-54796 Correção de NPE causada pela condição de corrida entre a inicialização do Executor e a migração aleatória
- SPARK-55983 Nova funcionalidade de analisador de passagem única e bugfixes
- SPARK-55964 Coerência de cache: limpar registro de função em DROP DATABASE
- SPARK-55868 Corrigir Predicate Pushdown para InMemoryTable para V2Filters
- SPARK-55973 Otimização LeftSemi para junção de fluxo para fluxo
- SPARK-54665 Corrigir a comparação booliana versus cadeia de caracteres para corresponder ao comportamento do pandas
- SPARK-55539 Permitir a conversão de GeographyType para GeometryType
- SPARK-55695 Evitar planejamento duplo em operações de nível de linha
- SPARK-55904 Utilizar _check_same_session para restringir tipos
- SPARK-55965 Adicionar aviso quando pandas >= 3.0.0 é usado com PySpark
- SPARK-55493 [SS] Não mkdirs no diretório de log de deslocamento/confirmação de ponto de verificação de streaming no StateDataSource
- SPARK-55851 Reverter "[SC-223270][PYTHON] Esclarecer tipos de partição de fonte de dados e ler"
- SPARK-55645 Reverter "[SC-221839][SQL] Adicionar serdeName ao CatalogStorageFormat"
- SPARK-55640 Propagação de erros de parsing WKB para Geometria e Geografia
- SPARK-55693 Evite deadlock tornando SparkSession.observationManager um val não preguiçoso
- SPARK-55528 Adicionar suporte de ordenação padrão para UDFs do SQL
-
SPARK-55860 Usar
UNABLE_TO_INFER_SCHEMAem vez deUNABLE_TO_INFER_SCHEMA_FOR_DATA_SOURCE - SPARK-55275 Adicionar códigos de estado SQL InvalidPlanInput para sql/connect
- SPARK-55645 Adicionar serdeName ao CatalogStorageFormat
- SPARK-55716 Suporte à imposição de restrição NOT NULL para inserções de tabela de origem de arquivo V1
- SPARK-53226 Fazer o ClosureCleaner funcionar com Java22+
- SPARK-55997 Definir limite superior para prefixScan no provedor de repositório de estado RocksDB
- SPARK-55851 Esclarecer tipos de partição e leitura de fonte de dados
- SPARK-55954 Remover a indicação de tipo de sobrecarga incorreta para fillna
- SPARK-56016 Preservar colunas de série nomeadas em concat com ignore_index no pandas 3
- SPARK-55502 Unificar o tratamento de erros na conversão de Arrow para UDF e UDTF
-
SPARK-55989 Preservar tipos de índice não int64 em
restore_index - SPARK-55955 Remover sugestão de tipo de sobrecarga para drop
- SPARK-55945 [SDP] Dá suporte a identificadores estruturados para fluxos em protos de análise avançada do SDP
- SPARK-55714 O JDK pode gerar ArithmeticException sem mensagem
- SPARK-55991 Corrigir corrupção de texto SQL relacionado ao unicode com parâmetros
- SPARK-55696 Adicionar erro explícito a Encoders.bean para a classe de interface
- SPARK-55533 Suporte para IGNORAR NULLS/RESPEITAR NULLS para collect_set
- SPARK-55987 Corrigir extração de carimbo de data/hora de junção em janela V4 usando findJoinKeyOrdinalForWatermark
- SPARK-55946 Configurar pandas_priority para que operações binárias mistas sejam despachadas corretamente para pandas-on-Spark
- SPARK-55264 Adicionar o comando ExecuteOutput ao protocolo do pipelines do Spark Connect
- SPARK-47672 Evitar a avaliação dupla do filtro pushDown com pushdown de projeção
- SPARK-55780 Substituir o logotipo PNG pelo SVG na interface do usuário da Web do Spark
- SPARK-55821 Exigir argumentos apenas palavras-chave em métodos de inicialização de serializador
- SPARK-55621 Corrigir o uso unicode ambíguo e desnecessário
- SPARK-55662 Implementação do argumento eixo idxmin
- SPARK-55631ALTER TABLE deve invalidar o cache para tabelas DSv2
-
SPARK-55692 Correção de
SupportsRuntimeFilteringe daSupportsRuntimeV2Filteringdocumentação - SPARK-55928 Novo linter para aumentar a eficácia da configuração em views e UDFs
- SPARK-55440 Estrutura de Tipos – Fase 1a – Base do Sistema de Tipos Principais
- SPARK-55631 Reverter "[SC-221596][SQL] ALTER TABLE deve invalidar o cache para tabelas DSv2"
- SPARK-55631ALTER TABLE deve invalidar o cache para tabelas DSv2
-
SPARK-55683 Otimizar
VectorizedPlainValuesReader.readUnsignedLongs - SPARK-55892 Correção de não é possível carregar o repositório de estado porque o arquivo SST reutilizado foi excluído pela manutenção
- SPARK-55946 Reverter alteração de "[SC-223027][PS] Configurar pandas_priority para que operações binárias mistas sejam encaminhadas corretamente para pandas-on-Spark"
- SPARK-55891 Preservar o contexto de script SQL dentro EXECUTE IMMEDIATE
- SPARK-55907 Corrigir posições de erro incorretas para tipos de dados inválidos no CREATE FUNCTION
- SPARK-55946 Configurar pandas_priority para que operações binárias misturadas sejam direcionadas corretamente para pandas-on-Spark
- SPARK-55694 Bloquear restrições no CTAS/RTAS no nível do analisador
-
SPARK-55682 O iterador retornado do ServiceLoader pode ser ativado
NoClassDefFoundErrorhasNext() - SPARK-55155 Correção SETCATALOG para usar caracteres especiais e backticks no nome do identificador
- SPARK-55932 Corrigir o travamento do analisador de XML para variante em escala negativa
- SPARK-55673 Adicionar mais testes para o codificador de tipo aninhado
- SPARK-55679 Corrigir a detecção no Java 25
- SPARK-55957 Adicionar 'DATA_SOURCE_NOT_FOUND' em Catalog.ERROR_HANDLING_RULES
- SPARK-55052 Adicionar propriedades AQEShuffleRead à Árvore de Plano Físico
-
SPARK-55652
VectorizedPlainValuesReader.readShorts()Otimizar com acesso direto à matriz para buffers de heap -
SPARK-55659 Melhorar
EventLogFileWriterpara registrar a operaçãostop -
SPARK-54666 Deixar os tipos numéricos inalterados em
to_numeric - SPARK-55654 Habilitar a poda de TreePattern para EliminateSubqueryAliases e ResolveInlineTables
- SPARK-55533 Reverter "[SC-220538][SQL] Suporte a IGNORE NULLS / RESPECT NULLS para collect_set"
- SPARK-55901 Gerar um erro de Series.replace() sem argumentos
- SPARK-55896 Usar funções numpy em vez de builtins
-
SPARK-55655 Tornar
CountVectorizero vocabulário determinístico quando as contagens são iguais -
SPARK-55811 [SQL] Catch
NonFatalem vez deUnresolvedExceptionao chamarnodeWithOutputColumnsString - SPARK-55533 Suporte a IGNORAR NULLS/RESPEITAR NULLS para collect_set
-
SPARK-55435 Usar
StringBuilderem vez deStringBuffer - SPARK-54807 Permitir nomes qualificados para funções internas e de sessão (#198171)
- SPARK-55854 Marcar atributos duplicados de passagem em Expandir saída para evitar AMBIGUOUS_REFERENCE
- SPARK-55261 Implementar o suporte de leitura parquet para tipos geográficos
- SPARK-55416 streaming Python perda de memória da fonte de dados quando o deslocamento final não for atualizado
- SPARK-55465 Suporte a GeometryType no convert_numpy
- SPARK-55801 Corrigir dica de tipo de _SimpleStreamReaderWrapper.getCache
- SPARK-55800 Remover a verificação de tipo não utilizado para datetime.date
- SPARK-55663 Unificar módulo para funções de fonte de dados
- SPARK-55665 Unificar como os trabalhadores estabelecem a conexão com o executor
- SPARK-53446 Otimizar operações de remoção do BlockManager com mapeamentos de blocos armazenados em cache
- SPARK-55867 Corrigir StringMethods com pandas 3
- SPARK-55501 Corrigir listagg distinct + dentro da ordem de grupo por bug
- SPARK-55558 Adicionar suporte para operações de conjunto de Tupla/Theta
- SPARK-55636 Adicionar erros detalhados em caso de eliminação de duplicação de colunas inválidas
- SPARK-55788 Suporte a ExtensionDType para inteiros na UDF do Pandas
- SPARK-55464 Suporte a GeographyType no convert_numpy
- SPARK-55530 Suporte a conjuntos de resultados geográficos no hive e servidor Thrift
- SPARK-55525 Corrigir UDTF_ARROW_TYPE_CONVERSION_ERROR com o parâmetro de mensagem de erro indefinido
- SPARK-55626 Não carregue colunas de metadados na Tabela, a menos que seja necessário no V2TableUtil
- SPARK-55533 Reverter o suporte "[SC-220538][SQL] IGNORE NULLS/RESPECT NULLS for collect_set"
-
SPARK-55435 Reverter "[SC-219656][CORE][SQL] Usar
StringBuilderem vez deStringBuffer" - SPARK-55533 Suporte a IGNORAR NULLS/RESPEITAR NULLS para collect_set
-
SPARK-54452 Corrigir a resposta vazia do servidor SparkConnect para
spark.sql(...)dentro do FlowFunction - SPARK-55638 Refatorar a serialização WKT em GeometryModel
-
SPARK-55551 Melhorar
BroadcastHashJoinExeco particionamento de saída - SPARK-54314 Melhorar Server-Side depuração no Spark Connect capturando o nome do arquivo e os números de linha do aplicativo cliente
-
SPARK-55517
VectorizedPlainValuesReader.readBytes()Otimizar com acesso direto à matriz para buffers de heap -
SPARK-55495 Correção
EventLogFileWriters.closeWriterpara manipularcheckError -
SPARK-55279 Adicionar
sketch_funcsgrupo para funções SQL do DataSketches -
SPARK-55435 Usar
StringBuilderem vez deStringBuffer - SPARK-55064 Tentativa de embaralhamento indeterminado no nível de consulta de suporte
- SPARK-55411 O SPJ pode gerar ArrayIndexOutOfBoundsException quando as chaves de junção forem menores que as chaves de cluster
- SPARK-55451 Os cursores devem começar a coletar resultados no OPEN, e não no primeiro FETCH
- SPARK-54687 Adicionar mais casos de borda com geradores
- SPARK-55691 Cliente GetStatus
-
SPARK-55277 Adicionar
protobuf_funcsgrupo para funções SQL do Protobuf -
SPARK-55822 Renomear
_LEGACY_ERROR_TEMP_0052paraCREATE_VIEW_WITH_IF_NOT_EXISTS_AND_REPLACE - SPARK-55236 Solucionar exceção inesperada em alguns casos de teste CoarseGrainedExecutorBackendSuite
- SPARK-55275 Cobertura do estado SQL: IllegalStateException
- SPARK-55462 Reaplicar "[SC-221123][PYTHON] Suporte VariantType em convert_numpy"
- SPARK-55062 Suporte para extensões proto2 em funções protobuf
-
SPARK-55248 Limpar o uso preterido da API de Jackson em
streaming.checkpointing.Checksum - SPARK-55250 Reduzir chamadas de cliente do Hive em CREATE NAMESPACE
-
SPARK-55247 Limpar o uso preterido da API relacionado a
o.a.c.io.input.BoundedInputStream - SPARK-55198 spark-sql deve ignorar a linha de comentários com espaços em branco à esquerda
-
SPARK-55826 Renomear
_LEGACY_ERROR_TEMP_0006paraMERGE_INSERT_VALUE_COUNT_MISMATCH - SPARK-55127 Adicionar avro_funcs grupo para funções SQL do Avro
- SPARK-54914 [SQL] Corrigindo o operador DROP na sintaxe de pipe para dar suporte a nomes de coluna qualificados
-
SPARK-55113
EnsureRequirementsdeve copiar tags - SPARK-55074 Adicionar teste para coerção do tipo Merge Into ANSI
- SPARK-54217 Sincronizar a decisão de encerramento do MonitorThread do PythonRunner
- SPARK-54374 Ampliar o atributo viewBox do SVG na inicialização da visualização de planos SQL
- SPARK-54971 Adicionar sintaxe WITH SCHEMA EVOLUTION para SQL INSERT
- SPARK-55065 Evite fazer duas chamadas à API JDBC
- SPARK-55033 Corrigir stringArgs nos comandos de gravação do DSv2
-
SPARK-55041 Limpar alguns privados
funcion/valnão utilizados do módulo principal - SPARK-55338 Centralizar a lógica de descompactação da solicitação do Spark Connect no interceptor gRPC
-
SPARK-55825 Renomear
_LEGACY_ERROR_TEMP_1309paraPARTITION_BY_NOT_ALLOWED_WITH_INSERT_INTO - SPARK-55492 Valide se eventTime in withWatermark é coluna de nível superior
- SPARK-55802 Corrigir estouro de inteiro ao calcular bytes de lote do Arrow
- SPARK-55694 Bloquear restrições no CTAS/RTAS no nível do analisador
- SPARK-55843 Manipular a unidade dos dtypes datetime64 e timedelta64
-
SPARK-55824 Renomear
_LEGACY_ERROR_TEMP_1034paraWINDOW_FUNCTION_NOT_ALLOWED_IN_CLAUSE - SPARK-55819 Refatorar ExpandExec para ser mais sucinto
- SPARK-55341 Adicionar sinalizador de nível de armazenamento para relações locais armazenadas em cache
- SPARK-54599 Reverta "[SC-219008][PYTHON] Refatorar PythonException para que ele possa usar errorClass com sqlstate"
- SPARK-46167 Adicionar implementação de eixo a DataFrame.rank
- SPARK-54599 Refatorar PythonException para que ele possa usar errorClass com sqlstate
- SPARK-55529 Reaplicar [ES-1721989][SC-220716][PYTHON] Restaurar mesclagem em lote no nível de seta para não iterador applyInPandas
-
SPARK-55794 Sempre usar alias
OuterReferences - SPARK-55583 Validar tipos de esquema Arrow na fonte de dados Python
- SPARK-37711 Reduzir o número de tarefas do pandas `describe` de O(N) para O(1)
- SPARK-46168 Adicionar argumento de eixo para idxmax
- SPARK-46162 Implementar a função nunique com o parâmetro axis=1
- SPARK-55552 Adicionar suporte para VariantType em ColumnarBatchRow.copy() e MutableColumnarRow
-
SPARK-55647 Corrigir
ConstantPropagationa substituição incorreta de atributos por ordenações não binárias estáveis - SPARK-55747 Corrigir NPE ao acessar elementos de uma matriz que é nula
-
SPARK-55757 Melhorar a
spark.task.cpusvalidação - SPARK-55699 Leitura inconsistente de LowLatencyClock quando usada junto com ManualClock
- SPARK-55702 Suporte para predicado de filtro em funções de agregação de janela
- SPARK-55510 Corrigir deleteRange do repositório de estado rocksdb para chamar changelogWriter
-
SPARK-55739 Otimizar
OnHeapColumnVector.putIntsLittleEndian/putLongsLittleEndianusandoPlatform.copyMemoryem plataformas little-endian - SPARK-55730 Não transformar fuso horário em minúsculas
- SPARK-55701 ES-1694761[SS] Corrigir condição de corrida em CompactibleFileStreamLog.allFiles
- SPARK-55462 Reverter "[SC-221123][PYTHON] Dar suporte a VariantType na função convert_numpy"
- SPARK-55144 Introduzir uma nova versão do formato de estado para junção eficaz entre fluxos
- SPARK-55606 Implementação do lado do servidor da API GetStatus
- SPARK-55462 Suporte ao VariantType no convert_numpy
- SPARK-55600 Correção de Pandas para Arrow perde a contagem de linhas quando o esquema tem 0 colunas na versão clássica
- SPARK-55700 Corrigir o tratamento de chaves inteiras em Series com índice não inteiro
- SPARK-55349 Consolidar utilitários de conversão de pandas para Arrow em serializadores
- SPARK-55681 Corrigir a igualdade de DataType singleton após a desserialização (nova tentativa)
- SPARK-55681 Reverter "[SC-221427][SC-214079][SQL] Corrigir a igualdade de DataType singleton após a desserialização"
- SPARK-55681 Corrigir a igualdade singleton DataType após a desserialização
- SPARK-55674 Otimizar a conversão de tabela de 0 colunas no Spark Connect
- SPARK-55323 Reaplicar "[SC-218885][PYTHON] Mover metadados da UDF para evalConf para simplificar o protocolo de trabalho"
- SPARK-55322 Reaplicar [SC-221062][SQL] Sobrecarga maxby e minby com elementos K
- SPARK-55323 Reverter "[SC-218885][PYTHON] Mover metadados UDF para EvalConf para simplificar o protocolo de trabalho"
- SPARK-55615 Mover a importação do SparkContext para o branch de classe
- SPARK-55323 Mover metadados da UDF para evalConf para simplificar o protocolo de trabalho
-
SPARK-55648 Manipular um erro
groupby(axis)de argumento de palavra-chave inesperado com o pandas 3 -
SPARK-55647 Reverter "[SC-221274][SQL] Corrigir
ConstantPropagationa substituição incorreta de atributos por ordenações não binárias estáveis" - SPARK-55646 Refatorado SQLExecution.withThreadLocalCaptured para separar a captura thread-local da execução
- SPARK-54854 Adicionar um UUIDv7 queryId aos eventos de SQLExecution
- SPARK-55619 Corrigir métricas personalizadas no caso de partições coalesced
-
SPARK-55647 Corrigir
ConstantPropagationa substituição incorreta de atributos por ordenações não binárias estáveis -
SPARK-55322 Reverter "[SC-221062][SQL]
MaxByeMinBysobrecarga com elementos K" - SPARK-54740 Iniciar o manipulador de falhas no início do modo daemon
- SPARK-55493 [SS] Não mkdirs no diretório de estado do ponto de verificação de streaming no StateDataSource
-
SPARK-55322
MaxByeMinBysobrecarga com elementos K -
SPARK-55625 Corrigir StringOps para fazer o
strdtype funcionar corretamente - SPARK-55161 Reaplicar "[SC-218867][PYTHON] Suporte para perfis em fonte de dados Python"
- SPARK-55505 Corrigir NPE ao ler EXECUTION_ROOT_ID_KEY em cenários simultâneos
- SPARK-55111 Verificar novamente a detecção de repartição inacabada na reinicialização da consulta
- SPARK-55593 Unificar o estado de agregação para vector_avg/vector_sum
-
SPARK-55500 Corrigir o ciclo do analisador entre
ApplyDefaultCollationeExtractWindowExpressionsCollationTypeCasts - SPARK-55494 Introduzir iterador/prefixOcano com vários valores na API StateStore
- SPARK-55561 Adicionar novas tentativas para todos os métodos de cliente administrador do Kafka
- SPARK-55296 Suporte ao modo CoW com pandas 3
- SPARK-55479 Corrigir problemas de estilo no SparkShreddingUtils
- SPARK-55372 Correção SHOW CREATE TABLE para tabelas/exibições com ordenação padrão
-
SPARK-55333 Habilitar
DateTypeeTimeTypeemconvert_numpy - SPARK-55129 Introduzir novos codificadores de chave para carimbo de data/hora como uma primeira classe (UnsafeRow)
- SPARK-46163 Parâmetros dataFrame.update filter_func e erros
- SPARK-55372 Reverter "[SC-220571][SQL] Corrigir SHOW CREATE TABLE para tabelas/visões com ordenação padrão"
- SPARK-55480 Remover todas as 'noqa' não utilizadas para o Ruff
- SPARK-55471 Adicionar suporte de otimizador para SequentialStreamingUnion
- SPARK-55584 Produzir uma mensagem de erro mais clara na subconsulta escalar para EXEC IMMEDIATE
- SPARK-55161 Reverter "[SC-218867][PYTHON] Suporte a profiladores na fonte de dados do Python"
-
SPARK-55506 Passar o esquema de entrada explícito para
to_pandasdentroCogroupPandasUDFSerializer -
SPARK-55586 Adicionar
jdbc.pyexemplo - SPARK-55161 Suporte a ferramentas de perfilagem na fonte de dados em Python
- SPARK-55529 Reverter "[SC-220716][PYTHON] Restaurar mesclagem em lote no nível de seta para não iterador applyInPandas"
-
SPARK-55385 Atenuar a recomputação em
zipWithIndex - SPARK-55529 Restaurar mesclagem em lotes no nível de Arrow para applyInPandas sem iterador
-
SPARK-55389 Consolidar
SQL_MAP_ARROW_ITER_UDFa lógica de envoltório, mapeador e serializador - SPARK-55406 Reimplementar o pool de threads para ExecutePlanResponseReattachableIterator
-
SPARK-55372 Correção
SHOW CREATE TABLEpara tabelas/visões com ordenação padrão - SPARK-55367 Usar venv para os testes run-pip
- SPARK-55355 Atualizar a versão do mypy para a mais recente
- SPARK-55460 Remover o E203 da lista de exclusão do ruff
- SPARK-55541 Suporte a Geometria e Geografia em conversores de tipo de catalisador
- SPARK-55449 Habilitar a análise e gravação do WKB para Geografia
- SPARK-55339 Implementar o suporte de gravador WKT para objetos geográficos
- SPARK-54122 Implementar o TwsTester no Scala
- SPARK-54805 Implementar o TwsTester no PySpark
- SPARK-55256 Reaplicar "[SC-218596][SQL] Suporte IGNORE NULLS/RESPECT NULLS para array_agg e collect_list"
-
SPARK-55156 Gerenciar
include_groupsparagroupby.apply - SPARK-55401 Adicionar lógica de repetição e tratamento de tempo limite ao download de instalação do pyspark
- SPARK-55229 Implementar DataFrame.zipWithIndex no PySpark
- SPARK-55462 Suporte a UserDefinedType no convert_numpy
- SPARK-55483 Corrigir NPE em PivotFirst quando a coluna de pivô é um tipo não atômico com valores nulos
-
SPARK-55490 Fazer com que
groupby(as_index=False)inclua um agrupamento que não está presente no DataFrame com pandas 3 - SPARK-55473 Substituir itertools.tee por cadeia em applyInPandasWithState
- SPARK-55404 Sempre gerar KeyboardInterrupt do manipulador SIGINT
- SPARK-55407 Substituir logger.warn por logger.warning
Suporte ao driver ODBC/JDBC do Databricks
O Databricks dá suporte a drivers ODBC/JDBC lançados nos últimos 2 anos. Baixe os drivers e a atualização lançados recentemente (baixe o ODBC, baixe o JDBC).
Ambiente do sistema
- Sistema operacional: Ubuntu 24.04.4 LTS
- Java: Zulu21.48+15-CA
- Scala: 2.13.16
- Python: 3.12.3
- R: 4.5.1
- Delta Lake: 4.1.0
Bibliotecas de Python instaladas
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| aiohappyeyeballs | 2.4.4 | aiohttp | 3.11.10 | aiosignal | 1.2.0 |
| documento-anotado | 0.0.4 | annotated-types | 0.7.0 | anyio | 4.7.0 |
| argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 | arro3-core | 0.6.5 |
| flecha | 1.3.0 | asttokens | 3.0.0 | astunparse | 1.6.3 |
| async-lru | 2.0.4 | atributos | 24.3.0 | comando automático | 2.2.2 |
| Azure Common | 1.1.28 | azure-core | 1.37.0 | azure-identity | 1.20.0 |
| azure-mgmt-core | 1.6.0 | azure-mgmt-web | 8.0.0 | azure-storage-blob | 12.28.0 |
| Serviço de armazenamento de arquivos do Azure chamado "azure-storage-file-datalake" | 12.22.0 | Babel | 2.16.0 | backports.tarfile | 1.2.0 |
| beautifulsoup4 | 4.12.3 | preto | 24.10.0 | bleach | 6.2.0 |
| blinker | 1.7.0 | boto3 | 1.40.45 | botocore | 1.40.45 |
| ferramentas de cache | 5.5.1 | certifi... | 2025.4.26 | cffi | 1.17.1 |
| chardet | 4.0.0 | normalizador de conjunto de caracteres | 3.3.2 | clique | 8.1.8 |
| cloudpickle | 3.0.0 | Comunicação | 0.2.1 | contourpy | 1.3.1 |
| criptografia | 44.0.1 | ciclista | 0.11.0 | Cython | 3.1.5 |
| agentes do databricks | 1.9.1 | databricks-sdk | 0.67.0 | dataclasses-json | 0.6.7 |
| dbus-python | 1.3.2 | debugpy | 1.8.11 | decorador | 5.1.1 |
| defusedxml | 0.7.1 | deltalake | 1.1.4 | Deprecated | 1.2.18 |
| distlib | 0.3.9 | de docstring para markdown | 0.11 | em execução | 1.2.0 |
| Visão geral de facetas | 1.1.1 | fastapi | 0.128.0 | fastjsonschema | 2.21.1 |
| bloqueio de arquivo | 3.17.0 | fonttools | 4.55.3 | fqdn | 1.5.1 |
| lista de itens congelados | 1.5.0 | fsspec | 2023.5.0 | gitdb | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.28.1 | google-auth (autenticação do Google) | 2.47.0 |
| google-cloud-core | 2.5.0 | armazenamento na nuvem do Google | 3.7.0 | google-crc32c | 1.8.0 |
| google-mídia-retomável | 2.8.0 | googleapis-common-protos | 1.65.0 | grpcio | 1.67.0 |
| grpcio-status | 1.67.0 | h11 | 0.16.0 | hf-xet | 1.2.0 |
| httpcore | 1.0.9 | httplib2 | 0.20.4 | httpx | 0.28.1 |
| huggingface_hub | 1.2.4 | IDNA | 3.7 | importlib_metadata | 8.5.0 |
| inflect | 7.3.1 | iniconfig | 1.1.1 | ipyflow-core | 0.0.209 |
| ipykernel | 6.29.5 | ipython | 8.30.0 | ipython-genutils | 0.2.0 |
| ipywidgets | 7.8.1 | isodate | 0.7.2 | isoduration | 20.11.0 |
| jaraco.collections | 5.1.0 | jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 |
| jaraco.text | 3.12.1 | Jedi | 0.19.2 | Jinja2 | 3.1.6 |
| jiter | 0.12.0 | jmespath | 1.0.1 | joblib | 1.4.2 |
| json5 | 0.9.25 | jsonpatch | 1.33 | jsonpointer | 3.0.0 |
| jsonschema | 4.23.0 | Especificações do JSON Schema | 2023.7.1 | eventos Jupyter | 0.12.0 |
| jupyter-lsp | 2.2.5 | jupyter_client | 8.6.3 | jupyter_core | 5.7.2 |
| Servidor Jupyter | 2.15.0 | Terminais do servidor Jupyter | 0.5.3 | jupyterlab | 4.3.4 |
| jupyterlab_pygments | 0.3.0 | jupyterlab_server | 2.27.3 | jupyterlab_widgets | 1.1.11 |
| kiwisolver | 1.4.8 | langchain-core | 1.2.6 | langchain-openai | 1.1.6 |
| langsmith | 0.6.1 | launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 |
| lazr.uri | 1.0.6 | litellm | 1.75.9 | markdown-it-py | 2.2.0 |
| MarkupSafe | 3.0.2 | marshmallow | 3.26.2 | matplotlib | 3.10.0 |
| matplotlib-inline | 0.1.7 | Mccabe | 0.7.0 | mdurl | 0.1.0 |
| Mistune | 3.1.2 | mlflow-skinny | 3.8.1 | mmh3 | 5.2.0 |
| more-itertools | 10.3.0 | msal | 1.34.0 | msal-extensions | 1.3.1 |
| _multidict_ | 6.1.0 | mypy-extensions | 1.0.0 | nbclient | 0.10.2 |
| nbconvert | 7.16.6 | nbformat | 5.10.4 | nest-asyncio | 1.6.0 |
| nodeenv | 1.10.0 | notebook | 7.3.2 | notebook_shim | 0.2.4 |
| numpy | 2.1.3 | oauthlib | 3.2.2 | openai | 2.14.0 |
| opentelemetry-api | 1.39.1 | opentelemetry-proto | 1.39.1 | opentelemetry-sdk | 1.39.1 |
| Convenções Semânticas do OpenTelemetry | 0.60b1 | orjson | 3.11.5 | substituições | 7.4.0 |
| empacotamento | 24,2 | Pandas | 2.2.3 | pandocfilters | 1.5.0 |
| parso | 0.8.4 | pathspec | 0.10.3 | patsy | 1.0.1 |
| pexpect | 4.8.0 | almofada | 11.1.0 | pip | 25.0.1 |
| platformdirs | 4.3.7 | enredo | 5.24.1 | Pluggy | 1.5.0 |
| prometheus_client | 0.21.1 | prompt-toolkit | 3.0.43 | propcache | 0.3.1 |
| proto-plus | 1.27.0 | protobuf | 5.29.4 | psutil | 5.9.0 |
| psycopg2 | 2.9.11 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
| Pyarrow | 21.0.0 | pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 |
| pyccolo | 0.0.71 | pycparser | 2.21 | pydantic | 2.10.6 |
| pydantic_core | 2.27.2 | pyflakes | 3.2.0 | Pygments | 2.19.1 |
| PyGObject | 3.48.2 | pyiceberg | 0.10.0 | PyJWT | 2.10.1 |
| pyodbc | 5.2.0 | pyparsing | 3.2.0 | pyright | 1.1.394 |
| piroaring | 1.0.3 | pytest | 8.3.5 | python-dateutil | 2.9.0.post0 |
| python-dotenv | 1.2.1 | python-json-logger | 3.2.1 | python-lsp-jsonrpc | 1.1.2 |
| python-lsp-server (servidor LSP para Python) | 1.12.2 | pytoolconfig | 1.2.6 | Pytz | 2024.1 |
| PyYAML | 6.0.2 | pyzmq | 26.2.0 | Referenciamento | 0.30.2 |
| regex | 2024.11.6 | requests | 2.32.3 | requests-toolbelt | 1.0.0 |
| rfc3339-validator | 0.1.4 | rfc3986-validator (validador de RFC 3986) | 0.1.1 | rico | 13.9.4 |
| corda | 1.13.0 | rpds-py | 0.22.3 | rsa | 4.9.1 |
| s3transfer | 0.14.0 | scikit-aprender | 1.6.1 | scipy | 1.15.3 |
| seaborn (biblioteca de visualização em Python) | 0.13.2 | Send2Trash | 1.8.2 | Ferramentas de configuração | 78.1.1 |
| shellingham | 1.5.4 | seis | 1.17.0 | smmap | 5.0.0 |
| sniffio | 1.3.0 | sortedcontainers | 2.4.0 | soupsieve | 2,5 |
| sqlparse | 0.5.5 | ssh-import-id | 5.11 | dados empilhados | 0.6.3 |
| starlette | 0.50.0 | strictyaml | 1.7.3 | tenacidade | 9.0.0 |
| terminado | 0.17.1 | threadpoolctl | 3.5.0 | tiktoken | 0.12.0 |
| tinycss2 | 1.4.0 | tokenize_rt | 6.1.0 | criadores de token | 0.22.2 |
| tomli | 2.0.1 | tornado | 6.5.1 | tqdm | 4.67.1 |
| traitlets | 5.14.3 | guarda-tipo | 4.3.0 | typer-slim | 0.21.1 |
| types-python-dateutil | 2.9.0.20251115 | inspecionar digitação | 0.9.0 | typing_extensions | 4.12.2 |
| tzdata | 2024.1 | ujson | 5.10.0 | atualizações não supervisionadas | 0.1 |
| uri-template | 1.3.0 | urllib3 | 2.3.0 | uuid_utils | 0.12.0 |
| uvicorn | 0.40.0 | virtualenv | 20.29.3 | wadllib | 1.3.6 |
| wcwidth | 0.2.5 | webcolors | 25.10.0 | codificações web | 0.5.1 |
| websocket-client (cliente WebSocket) | 1.8.0 | whatthepatch | 1.0.2 | wheel | 0.45.1 |
| quando | 0.7.3 | widgetsnbextension | 3.6.6 | embrulhado | 1.17.0 |
| yapf | 0.40.2 | Atualmente, não tendo contexto adicional e considerando "yarl" como um nome próprio ou termo técnico, mantemos "yarl" como está. | 1.18.0 | zipp | 3.21.0 |
| zstandard | 0.23.0 |
Bibliotecas R instaladas
As bibliotecas R são instaladas do CRAN instantâneo do Posit Gerenciador de Pacotes em 20-11-2025.
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| flecha | 22.0.0 | AskPass | 1.2.1 | afirme isso | 0.2.1 |
| backports | 1.5.0 | base | 4.5.1 | base64enc | 0.1-3 |
| bigD | 0.3.1 | bit | 4.6.0 | bit64 | 4.6.0-1 |
| bitops | 1.0-9 | blob | 1.2.4 | inicialização | 1.3-30 |
| Fabricação de cerveja | 1.0-10 | Brio | 1.1.5 | vassoura | 1.0.10 |
| bslib | 0.9.0 | cachem | 1.1.0 | callr | 3.7.6 |
| caret | 7.0-1 | Cellranger | 1.1.0 | chron | 2.3-62 |
| classe | 7.3-22 | CLI | 3.6.5 | clipr | 0.8.0 |
| relógio | 0.7.3 | cluster | 2.1.6 | codetools | 0.2-20 |
| commonmark | 2.0.0 | compilador | 4.5.1 | configuração | 0.3.2 |
| conflituoso | 1.2.0 | cpp11 | 0.5.2 | crayon | 1.5.3 |
| credenciais | 2.0.3 | encurvar | 7.0.0 | Tabela de Dados | 1.17.8 |
| conjuntos de dados | 4.5.1 | DBI | 1.2.3 | dbplyr | 2.5.1 |
| Descrição | 1.4.3 | devtools | 2.4.6 | diagrama | 1.6.5 |
| diffobj | 0.3.6 | hash | 0.6.39 | downlit | 0.4.5 |
| dplyr | 1.1.4 | dtplyr | 1.3.2 | e1071 | 1.7-16 |
| reticências | 0.3.2 | avaliar | 1.0.5 | fansi | 1.0.7 |
| cores | 2.1.2 | mapa rápido | 1.2.0 | fontawesome | 0.5.3 |
| forcats | 1.0.1 | foreach | 1.5.2 | estrangeiro | 0.8 - 86 |
| Fs | 1.6.6 | futuro | 1.68.0 | future.apply | 1.20.0 |
| gargle | 1.6.0 | genéricos | 0.1.4 | gert | 2.2.0 |
| ggplot2 | 4.0.1 | gh | 1.5.0 | git2r | 0.36.2 |
| gitcreds | 0.1.2 | glmnet | 4.1-10 | globals | 0.18.0 |
| cola | 1.8.0 | googledrive | 2.1.2 | googlesheets4 | 1.1.2 |
| Gower | 1.0.2 | Gráficos | 4.5.1 | grDevices | 4.5.1 |
| grade | 4.5.1 | gridExtra | 2.3 | gsubfn | 0,7 |
| gt | 1.1.0 | gtable | 0.3.6 | capacete de segurança | 1.4.2 |
| refúgio | 2.5.5 | mais alto | 0.11 | hms | 1.1.4 |
| ferramentas HTML | 0.5.8.1 | htmlwidgets | 1.6.4 | httpuv | 1.6.16 |
| httr | 1.4.7 | httr2 | 1.2.1 | ids | 1.0.1 |
| ini | 0.3.1 | ipred | 0.9-15 | isoband | 0.2.7 |
| Iteradores | 1.0.14 | jquerylib | 0.1.4 | jsonlite | 2.0.0 |
| JuicyJuice | 0.1.0 | KernSmooth | 2.23-22 | knitr | 1,50 |
| rotulagem | 0.4.3 | posterior | 1.4.4 | treliça | 0,22-5 |
| lava vulcânica | 1.8.2 | ciclo de vida | 1.0.4 | ouça | 0.10.0 |
| litedown | 0.8 | lubridate | 1.9.4 | magrittr | 2.0.4 |
| markdown | 2.0 | MASS | 7.3-60.0.1 | Matriz | 1.6-5 |
| memorização | 2.0.1 | Métodos | 4.5.1 | mgcv | 1.9-1 |
| mime | 0.13 | miniUI | 0.1.2 | mlflow | 3.6.0 |
| ModelMetrics | 1.2.2.2 | modelr | 0.1.11 | nlme | 3.1-164 |
| nnet | 7.3-19 | numDeriv | 2016.8-1.1 | openssl | 2.3.4 |
| otel | 0.2.0 | paralelo | 4.5.1 | parallelly | 1.45.1 |
| coluna | 1.11.1 | pkgbuild | 1.4.8 | pkgconfig | 2.0.3 |
| pkgdown | 2.2.0 | pkgload | 1.4.1 | plogr | 0.2.0 |
| plyr | 1.8.9 | elogio | 1.0.0 | prettyunits | 1.2.0 |
| pROC | 1.19.0.1 | processx | 3.8.6 | Prodlim | 2025.04.28 |
| profvis | 0.4.0 | progresso | 1.2.3 | progressr | 0.18.0 |
| Promessas | 1.5.0 | proto | 1.0.0 | proxy | 0.4-27 |
| P.S. | 1.9.1 | purrr | 1.2.0 | R6 | 2.6.1 |
| ragg | 1.5.0 | randomForest | 4.7-1.2 | rappdirs | 0.3.3 |
| rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 | Rcpp | 1.1.0 |
| RcppEigen | 0.3.4.0.2 | capaz de reagir | 0.4.4 | reactR | 0.6.1 |
| Readr | 2.1.6 | readxl | 1.4.5 | Receitas | 1.3.1 |
| jogo de revanche | 2.0.0 | revanche2 | 2.1.2 | remotes | 2.5.0 |
| reprex | 2.1.1 | reshape2 | 1.4.5 | rlang | 1.1.6 |
| rmarkdown | 2.30 | RODBC | 1.3-26 | roxygen2 | 7.3.3 |
| rpart | 4.1.23 | rprojroot | 2.1.1 | Rserve | 1.8-15 |
| RSQLite | 2.4.4 | rstudioapi | 0.17.1 | rversions | 3.0.0 |
| rvest | 1.0.5 | S7 | 0.2.1 | Sass | 0.4.10 |
| escamas | 1.4.0 | Seletor | 0.4-2 | informações de sessão | 1.2.3 |
| forma | 1.4.6.1 | brilhante | 1.11.1 | sourcetools | 0.1.7-1 |
| sparklyr | 1.9.3 | SparkR | 4.1.0 | sparsevctrs | 0.3.4 |
| espacial | 7.3-17 | splines | 4.5.1 | sqldf | 0.4-11 |
| SQUAREM | 2021.1 | estatísticas | 4.5.1 | estatísticas4 | 4.5.1 |
| stringi | 1.8.7 | stringr | 1.6.0 | sobrevivência | 3.5-8 |
| swagger | 5.17.14.1 | sys | 3.4.3 | systemfonts | 1.3.1 |
| tcltk | 4.5.1 | testthat | 3.3.0 | formatação de texto | 1.0.4 |
| tibble | 3.3.0 | tidyr | 1.3.1 | tidyselect | 1.2.1 |
| tidyverse | 2.0.0 | mudança de horário | 0.3.0 | data e hora | 4051.111 |
| tinytex | 0.58 | Ferramentas | 4.5.1 | tzdb | 0.5.0 |
| verificador de URL | 1.0.1 | usethis | 3.2.1 | utf8 | 1.2.6 |
| utils | 4.5.1 | identificador único universal (UUID) | 1.2-1 | V8 | 8.0.1 |
| vctrs | 0.6.5 | viridisLite | 0.4.2 | vroom | 1.6.6 |
| Waldo | 0.6.2 | whisker | 0.4.1 | murchar | 3.0.2 |
| xfun | 0,54 | xml2 | 1.5.0 | xopen | 1.0.1 |
| xtable | 1.8-4 | YAML | 2.3.10 | zeallot | 0.2.0 |
| zip | 2.3.3 |
Bibliotecas Java e Scala instaladas (versão do cluster Scala 2.13)
| ID do grupo | ID do artefato | Versão |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.clearspring.analytics | fluxo | 2.9.8 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.53.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.13 | 0.4.15-11 |
| com.esotericsoftware | kryo-shaded | 4.0.3 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | colega de classe | 1.5.1 |
| com.fasterxml.jackson.core | Anotações do Jackson | 2.18.2 |
| com.fasterxml.jackson.core | jackson-core | 2.18.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.18.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.18.3 |
| com.fasterxml.jackson.datatype | jackson-module-paranamer | 2.18.2 |
| com.fasterxml.jackson.datatype | jackson-module-scala_2.13 | 2.18.2 |
| com.github.ben-manes.cafeína | cafeína | 2.9.3 |
| com.github.blemale | scaffeine_2.13 | 4.1.0 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1-natives |
| com.github.fommil.netlib | sistema_nativo-java | 1.1 |
| com.github.fommil.netlib | sistema_nativo-java | 1.1-natives |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-natives |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-natives |
| com.github.luben | zstd-jni | 1.5.7-6 |
| com.github.virtuald | curvesapi | 1.08 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.api.grpc | proto-google-common-protos | 2.5.1 |
| com.google.auth | google-auth-library-credentials (credenciais da biblioteca de autenticação do Google) | 1.20.0 |
| com.google.auth | google-auth-library-oauth2-http | 1.20.0 |
| com.google.auto.value | anotações do AutoValue | 1.10.4 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.11.0 |
| com.google.crypto.tink | tink | 1.16.0 |
| com.google.errorprone | anotações_propensas_a_erros | 2.36.0 |
| com.google.flatbuffers | flatbuffers-java | 25.2.10 |
| com.google.guava | failureaccess | 1.0.3 |
| com.google.guava | guava | 33.4.8-jre |
| com.google.http-client | google-http-client | 1.43.3 |
| com.google.http-client | google-http-client-gson | 1.43.3 |
| com.google.j2objc | j2objc-annotations | 3.0.0 |
| com.google.protobuf | protobuf-java | 3.25.5 |
| com.google.protobuf | protobuf-java-util | 3.25.5 |
| com.helger | criador de perfil | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.lihaoyi | sourcecode_2.13 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (kit de desenvolvimento de software do Azure Data Lake Store) | 2.3.10 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre11 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre8 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentes_2.13 | 0.4.13 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.13 | 0.10.0 |
| com.twitter | util-app_2.13 | 19.8.1 |
| com.twitter | util-core_2.13 | 19.8.1 |
| com.twitter | util-function_2.13 | 19.8.1 |
| com.twitter | util-jvm_2.13 | 19.8.1 |
| com.twitter | util-lint_2.13 | 19.8.1 |
| com.twitter | util-registry_2.13 | 19.8.1 |
| com.twitter | util-stats_2.13 | 19.8.1 |
| com.typesafe | configuração | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.13 | 3.9.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| com.zaxxer | SparseBitSet | 1.3 |
| commons-cli | commons-cli | 1.10.0 |
| commons-codec | commons-codec | 1.19.0 |
| commons-collections (coleções comuns) | commons-collections (coleções comuns) | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload | commons-fileupload | 1.6.0 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.21.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.4 |
| dev.ludovic.netlib | blas | 3.0.4 |
| dev.ludovic.netlib | lapack | 3.0.4 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compressor de ar | 2.0.2 |
| io.delta | delta-sharing-client_2.13 | 1.3.10 |
| io.dropwizard.metrics | anotação de métricas | 4.2.37 |
| io.dropwizard.metrics | metrics-core | 4.2.37 |
| io.dropwizard.metrics | metrics-graphite | 4.2.37 |
| io.dropwizard.metrics | métricas-verificações de saúde | 4.2.37 |
| io.dropwizard.metrics | metrics-jetty10 | 4.2.37 |
| io.dropwizard.metrics | metrics-jmx | 4.2.37 |
| io.dropwizard.metrics | metrics-json (métricas em JSON) | 4.2.37 |
| io.dropwizard.metrics | metrics-jvm | 4.2.37 |
| io.dropwizard.metrics | metrics-servlets | 4.2.37 |
| io.github.java-diff-utils | java-diff-utils | 4,15 |
| io.netty | Netty-all | 4.2.7.Final |
| io.netty | netty-buffer | 4.2.7.Final |
| io.netty | netty-codec | 4.2.7.Final |
| io.netty | netty-codec-base | 4.2.7.Final |
| io.netty | netty-codec-classes-quic | 4.2.7.Final |
| io.netty | netty-codec-compression | 4.2.7.Final |
| io.netty | netty-codec-http | 4.2.7.Final |
| io.netty | netty-codec-http2 | 4.2.7.Final |
| io.netty | netty-codec-http3 | 4.2.7.Final |
| io.netty | netty-codec-marshalling | 4.2.7.Final |
| io.netty | netty-codec-native-quic | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-osx-aarch_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-osx-x86_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-windows-x86_64 |
| io.netty | netty-codec-protobuf | 4.2.7.Final |
| io.netty | netty-codec-socks | 4.2.7.Final |
| io.netty | netty-common | 4.2.7.Final |
| io.netty | netty-handler | 4.2.7.Final |
| io.netty | netty-handler-proxy | 4.2.7.Final |
| io.netty | Netty Resolver | 4.2.7.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-windows-x86_64 |
| io.netty | Netty Tcnative Classes | 2.0.74.Final |
| io.netty | netty-transport | 4.2.7.Final |
| io.netty | netty-transport-classes-epoll | 4.2.7.Final |
| io.netty | netty-transport-classes-io_uring | 4.2.7.Final |
| io.netty | netty-transport-classes-kqueue | 4.2.7.Final |
| io.netty | netty-transport-native-epoll | 4.2.7.Final |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-riscv64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.2.7.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.2.7.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-comum | 4.2.7.Final |
| io.opencensus | opencensus-api | 0.31.1 |
| io.opencensus | opencensus-contrib-http-util | 0.31.1 |
| io.prometheus | simpleclient | 0.16.1-databricks |
| io.prometheus | simpleclient_common | 0.16.1-databricks |
| io.prometheus | simpleclient_dropwizard | 0.16.1-databricks |
| io.prometheus | simpleclient_pushgateway | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel_agent | 0.16.1-databricks |
| io.prometheus.jmx | coletor | 0.18.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | ativação | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.media | jai_core | jai_core_dummy |
| javax.transaction | jta | 1.1 |
| javax.transaction | API de transação | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.14.0 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | pickle | 1.5 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.13.1 |
| org.antlr | modelo de string | 3.2.1 |
| org.apache.ant | formiga | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | lançador de formigas | 1.10.11 |
| org.apache.arrow | seta-compactação | 18.3.0 |
| org.apache.arrow | arrow-format | 18.3.0 |
| org.apache.arrow | arrow-memory-core | 18.3.0 |
| org.apache.arrow | Arrow-Memory-Netty | 18.3.0 |
| org.apache.arrow | arrow-memory-netty-buffer-patch | 18.3.0 |
| org.apache.arrow | arrow-vector | 18.3.0 |
| org.apache.avro | Avro | 1.12.1 |
| org.apache.avro | avro-ipc | 1.12.1 |
| org.apache.avro | avro-mapred | 1.12.1 |
| org.apache.commons | commons-collections4 | 4.5.0 |
| org.apache.commons | commons-compress | 1.28.0 |
| org.apache.commons | commons-configuration2 | 2.11.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.19.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | Texto Comum | 1.14.0 |
| org.apache.curator | curator-client | 5.9.0 |
| org.apache.curator | estrutura do curador | 5.9.0 |
| org.apache.curator | curador de receitas | 5.9.0 |
| org.apache.datasketches | datasketches-java | 6.2.0 |
| org.apache.datasketches | datasketches-memory (biblioteca para gerenciamento de memória) | 3.0.2 |
| org.apache.derby | Dérbi | 10.14.2.0 |
| org.apache.hadoop | tempo de execução do cliente Hadoop | 3.4.2 |
| org.apache.hive | hive-beeline (ferramenta de linha de comando para conectar-se ao Hive) | 2.3.10 |
| org.apache.hive | hive-cli | 2.3.10 |
| org.apache.hive | hive-jdbc | 2.3.10 |
| org.apache.hive | hive-llap-client | 2.3.10 |
| org.apache.hive | hive-llap-common | 2.3.10 |
| org.apache.hive | hive-serde | 2.3.10 |
| org.apache.hive | hive-shims | 2.3.10 |
| org.apache.hive | API de armazenamento do Hive | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.10 |
| org.apache.hive.shims | hive-shims-common | 2.3.10 |
| org.apache.hive.shims | Agendador de Ajustes do Hive (hive-shims-scheduler) | 2.3.10 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | ivy | 2.5.3 |
| org.apache.logging.log4j | log4j-1.2-api | 2.24.3 |
| org.apache.logging.log4j | log4j-api | 2.24.3 |
| org.apache.logging.log4j | log4j-core | 2.24.3 |
| org.apache.logging.log4j | log4j-layout-template-json | 2.24.3 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.24.3 |
| org.apache.orc | orc-core | 2.2.0-shaded-protobuf |
| org.apache.orc | formato ORC | 1.1.1-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 2.2.0-shaded-protobuf |
| org.apache.orc | orc-calços | 2.2.0 |
| org.apache.poi | poi | 5.4.1 |
| org.apache.poi | poi-ooxml | 5.4.1 |
| org.apache.poi | poi-ooxml-full | 5.4.1 |
| org.apache.poi | poi-ooxml-lite | 5.4.1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.16.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.1 |
| org.apache.xbean | xbean-asm9-shaded | 4.28 |
| org.apache.xmlbeans | xmlbeans | 5.3.0 |
| org.apache.yetus | audience-annotations | 0.13.0 |
| org.apache.zookeeper | zelador de zoológico | 3.9.4 |
| org.apache.zookeeper | guarda de zoológico-juta | 3.9.4 |
| org.checkerframework | checker-qual | 3.43.0 |
| org.codehaus.janino | commons-compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-alpn-client | 10.0.26 |
| org.eclipse.jetty | jetty-client | 10.0.26 |
| org.eclipse.jetty | jetty-http | 10.0.26 |
| org.eclipse.jetty | jetty-io | 10.0.26 |
| org.eclipse.jetty | jetty-jndi | 10.0.26 |
| org.eclipse.jetty | jetty-plus | 10.0.26 |
| org.eclipse.jetty | jetty-proxy | 10.0.26 |
| org.eclipse.jetty | jetty-security | 10.0.26 |
| org.eclipse.jetty | servidor jetty | 10.0.26 |
| org.eclipse.jetty | jetty-servlet | 10.0.26 |
| org.eclipse.jetty | jetty-servlets | 10.0.26 |
| org.eclipse.jetty | jetty-util | 10.0.26 |
| org.eclipse.jetty | Jetty Webapp | 10.0.26 |
| org.eclipse.jetty | jetty-xml | 10.0.26 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | Localizador de Recursos OSGi | 1.0.3 |
| org.glassfish.hk2.external | AliançaAOP-Reempacotado | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.41 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.41 |
| org.glassfish.jersey.core | jersey-client | 2.41 |
| org.glassfish.jersey.core | jersey-common | 2.41 |
| org.glassfish.jersey.core | jersey-server | 2.41 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.41 |
| org.hibernate.validator | hibernate-validator | 6.2.5.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.4.1.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jline | jline | 3.27.1-jdk8 |
| org.joda | joda-convert | 1.7 |
| org.json4s | json4s-ast_2.13 | 4.0.7 |
| org.json4s | json4s-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson_2.13 | 4.0.7 |
| org.json4s | json4s-scalap_2.13 | 4.0.7 |
| org.locationtech.jts | jts-core | 1.20.0 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.13 | 2.22.1 |
| org.objenesis | objenesis | 3.4 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 1.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.13 | 2.13.16 |
| org.scala-lang | scala-library_2.13 | 2.13.16 |
| org.scala-lang | scala-reflect_2.13 | 2.13.16 |
| org.scala-lang.modules | scala-collection-compat_2.13 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.13 | 0.9.1 |
| org.scala-lang.modules | scala-parallel-collections_2.13 | 1.2.0 |
| org.scala-lang.modules | scala-parser-combinators_2.13 | 2.4.0 |
| org.scala-lang.modules | scala-xml_2.13 | 2.4.0 |
| org.scala-sbt | interface de teste | 1.0 |
| org.scalacheck | scalacheck_2.13 | 1.18.0 |
| org.scalactic | scalactic_2.13 | 3.2.19 |
| org.scalanlp | breeze-macros_2.13 | 2.1.0 |
| org.scalanlp | breeze_2.13 | 2.1.0 |
| org.scalatest | compatível com scalatest | 3.2.19 |
| org.scalatest | scalatest-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-diagrams_2.13 | 3.2.19 |
| org.scalatest | scalatest-featurespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-flatspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-freespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funsuite_2.13 | 3.2.19 |
| org.scalatest | scalatest-matchers-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-mustmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-propspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-refspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-shouldmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-wordspec_2.13 | 3.2.19 |
| org.scalatest | scalatest_2.13 | 3.2.19 |
| org.slf4j | jcl-over-slf4j | 2.0.16 |
| org.slf4j | jul-to-slf4j | 2.0.16 |
| org.slf4j | slf4j-api | 2.0.16 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.8.0 |
| org.tukaani | xz | 1,10 |
| org.typelevel | algebra_2.13 | 2.8.0 |
| org.typelevel | cats-kernel_2.13 | 2.8.0 |
| org.typelevel | spire-macros_2.13 | 0.18.0 |
| org.typelevel | spire-platform_2.13 | 0.18.0 |
| org.typelevel | spire-util_2.13 | 0.18.0 |
| org.typelevel | spire_2.13 | 0.18.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.5.0-linux-x86_64 |
| Stax | stax-api | 1.0.1 |