Nota
O acesso a esta página requer autorização. Pode tentar iniciar sessão ou alterar os diretórios.
O acesso a esta página requer autorização. Pode tentar alterar os diretórios.
As notas de atualização seguintes fornecem informações sobre o Databricks Runtime 18.1 (Beta).
Esta versão incorpora todas as funcionalidades, melhorias e correções de bugs de todas as versões anteriores do Databricks Runtime. A Databricks lançou esta versão em fevereiro de 2026.
Importante
O Databricks Runtime 18.1 está em Beta. O conteúdo dos ambientes suportados pode mudar durante a versão Beta. As alterações podem incluir a lista de pacotes ou versões de pacotes instalados.
Novos recursos e melhorias
- O Auto Loader utiliza eventos de ficheiros por defeito quando disponíveis
- Escritas otimizadas para tabelas particionadas do Unity Catalog criadas com CRTAS
- Suporte ao tipo de dados DATETIMEOFFSET para Microsoft Azure Synapse
- Comentários nas tabelas do BigQuery no Google
- Evolução do schema com INSERT comandos
- Valores NULL da struct preservados em operações de INSERT
- Suporte a transações multi-extrato com Delta Sharing
- Pontos de verificação DataFrame em caminhos de volume
- Os comandos SQL já não são reexecutados ao chamar cache()
- parse_timestamp Função SQL
- Suporte a cursor SQL em instruções compostas
- Funções aproximadas de esboço top-k
- Funções de Tuple Sketch
O Auto Loader utiliza eventos de ficheiros por padrão quando disponíveis
O Auto Loader utiliza eventos de ficheiro por defeito ao carregar a partir de uma localização externa com eventos de ficheiro ativados, o que reduz as operações de lista e o custo em comparação com a listagem de diretórios. Consulte Visão geral do carregador automático com eventos de arquivo. Os eventos do ficheiro não são usados se o código do teu stream definir useIncrementalListing ou useNotifications. Para usar a listagem de diretórios em vez disso, defina useManagedFileEvents para false.
Gravações otimizadas para tabelas particionadas do Unity Catalog criadas com CRTAS
Escritas otimizadas aplicam-se a tabelas particionadas do Unity Catalog criadas por CREATE OR REPLACE TABLE ... AS SELECT (CRTAS), produzindo menos ficheiros e de maior tamanho. Este comportamento está ativado por defeito. Para desativar, definir spark.databricks.delta.optimizeWrite.UCTableCRTAS.enabled para false.
Suporte ao tipo de dados DATETIMEOFFSET para Microsoft Azure Synapse
O DATETIMEOFFSET tipo de dado é suportado para ligações Microsoft Azure Synapse.
Comentários nas tabelas do BigQuery no Google
As descrições das tabelas do Google BigQuery são resolvidas e expostas como comentários em tabelas.
Evolução do esquema com INSERT declarações
Use a WITH SCHEMA EVOLUTION cláusula com instruções SQL INSERT para evoluir automaticamente o esquema da tabela de destino durante as operações de inserção. A cláusula é suportada para INSERT INTO, INSERT OVERWRITE, e INSERT INTO ... REPLACE formas. Por exemplo:
INSERT WITH SCHEMA EVOLUTION INTO students TABLE visiting_students_with_additional_id;
O esquema da tabela Delta Lake alvo é atualizado para acomodar colunas adicionais ou tipos alargados a partir da fonte. Para detalhes, veja evolução do esquema e INSERT sintaxe das sentenças.
Valores de struct NULL preservados em INSERT operações
INSERT As operações com evolução de esquema ou conversão implícita preservam os valores de struct quando as tabelas de origem e destino têm diferentes ordens de campo de struct.
Suporte a transações multi-declaração com Delta Sharing
As tabelas de partilha Delta que utilizam modos de partilha de URL pré-assinadas ou de token de nuvem suportam transações com múltiplas instruções. No primeiro acesso dentro de uma transação, a versão da tabela é fixada e reutilizada para todas as leituras subsequentes nessa transação.
Limitations:
- Viagens no tempo, feed de alterações de dados e streaming não são suportados.
- Transações com múltiplos extratos não são suportadas em tabelas partilhadas sem histórico.
- Opiniões partilhadas e entidades estrangeiras não são permitidas em computação não confiável.
Pontos de verificação de DataFrames em caminhos de volume
Os checkpoints de DataFrame suportam caminhos de volume do Unity Catalog. Configura o caminho do ponto de controlo usando SparkContext.setCheckpointDir na computação dedicada ou a spark.checkpoint.dir na computação padrão.
Os comandos SQL já não são reexecutados ao chamar cache()
Os comandos SQL já não são reexecutados quando se chama .cache() no DataFrame resultante. Isto inclui comandos como SHOW TABLES e SHOW NAMESPACES.
parse_timestamp Função SQL
A parse_timestamp função SQL analisa strings de marca temporal contra múltiplos padrões. É fotonizado para uma avaliação mais rápida com carimbos temporais em vários formatos.
Consulte Padrões de data-hora para informações sobre a formatação dos padrões de data-hora.
Suporte de cursor SQL em instruções compostas
Script SQL Agora, instruções compostas suportam o processamento de cursores. Use o DECLARE CURSOR para definir um cursor, depois a instrução OPEN, a instrução FETCH e a instrução CLOSE para executar a consulta e consumir linhas uma de cada vez. Os cursores podem usar marcadores de parâmetros e manipuladores de condições, como NOT FOUND para processamento linha a linha.
Funções aproximadas de esboço top-k
Novas funções permitem construir e combinar esboços top-K aproximados para agregação top-K distribuída:
-
approx_top_k_accumulate: Constrói um esboço por grupo. Consulte a função agregadaapprox_top_k_accumulate. -
approx_top_k_combine: Funde esboços. Consulte a função agregadaapprox_top_k_combine. -
approx_top_k_estimate: Devolve os K itens principais com contagens estimadas. Consulte a funçãoapprox_top_k_estimate.
Para mais informações, consulte approx_top_k função agregada e funções incorporadas.
Funções de esboço de tuplas
Novas funções agregadas e escalares para esboços de tuplas suportam contagem e agregação distintas sobre pares resumo de chaves.
Funções agregadas:
-
tuple_sketch_agg_doublefunção de agregação -
tuple_sketch_agg_integerfunção de agregação -
tuple_union_agg_doublefunção de agregação -
tuple_union_agg_integerfunção de agregação -
tuple_intersection_agg_doublefunção de agregação -
tuple_intersection_agg_integerfunção de agregação
Funções escalares:
tuple_sketch_estimatetuple_sketch_summarytuple_sketch_thetatuple_uniontuple_intersectiontuple_difference
Ver Funções integradas.
Mudanças comportamentais
- Cláusula FILTER para funções de agregação MEASURE
- Operações de escrita otimizadas para CRTAS do Unity Catalog
- Atualização do cache DataFrame para tabelas de controlo de acesso detalhadas
- Os valores das partições de carimbo temporal utilizam o fuso horário da sessão
- Palavra-chave reservada DESCRIBE FLOW
- Melhoria do desempenho das operações geoespaciais
- Tipos de exceção para SQLSTATE
- Alargamento automático do tipo de streaming
Cláusula FILTER para funções agregadas da MEASURE
Agora, as funções agregadas MEASURE suportam cláusulas FILTER. Anteriormente, os filtros eram silenciosamente ignorados.
Gravações otimizadas para operações CRTAS do Unity Catalog
CRIAR OU SUBSTITUIR TABLE As operações AS SELECT (CRTAS) em tabelas particionadas do Unity Catalog aplicam agora escritas otimizadas por defeito. Para desativar, definir spark.databricks.delta.optimizeWrite.UCTableCRTAS.enabled para false.
Atualização do cache DataFrame para tabelas de controlo de acesso detalhadas
Escrever em tabelas de controlo de acesso granular em computação dedicada agora atualiza DataFrames em cache que dependem dessa tabela.
Os valores das partições de carimbo temporal utilizam o fuso horário da sessão
Os valores de partição de timestamp utilizam o fuso horário da sessão do Spark em vez do fuso horário do JVM. Se tiver partições com carimbo temporal escritas antes do Databricks Runtime 18.0, execute SHOW PARTITIONS para verificar os metadados da partição antes de escrever novos dados.
Palavra-chave reservada DESCRIBE FLOW
O DESCRIBE FLOW comando está agora disponível. Se tiver uma tabela com nome flow, use DESCRIBE schema.flow, DESCRIBE TABLE flow, ou DESCRIBE `flow` com backticks.
Melhoria do desempenho das operações geoespaciais
As operações de conjuntos booleanos geoespaciais utilizam uma nova implementação com desempenho melhorado. Pequenas diferenças de precisão podem ocorrer após a 15.ª decimal.
Tipos de exceção para SQLSTATE
Os tipos de exceção são atualizados para suportar SQLSTATE. Se o teu código analisa exceções por correspondência de strings ou apanha tipos específicos de exceções, atualiza a lógica de gestão de erros.
Alargamento automático do tipo de transmissão
As leituras em streaming nas tabelas Delta gerem automaticamente o alargamento dos tipos de coluna. Para exigir reconhecimento manual, defina spark.databricks.delta.typeWidening.enableStreamingSchemaTracking para true.
Atualizações da biblioteca
Nenhuma biblioteca foi atualizada nesta versão.
Apache Spark
O Databricks Runtime 18.1 inclui o Apache Spark 4.1.0. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 18.0, bem como as seguintes correções adicionais de bugs e melhorias feitas ao Spark:
- SPARK-55350 Corrigir a perda de contagem de linhas ao criar DataFrame a partir de pandas com 0 colunas
- SPARK-55364 Fazer com que os protocolos SupportsIAdd e SupportsOrdering sejam mais razonáveis
- SPARK-53656 Refatorar o MemoryStream para usar o SparkSession em vez de SQLContext
-
SPARK-55472 Levantar
AttributeErrora partir de métodos removidos no pandas 3 - SPARK-55224 Usar o Spark DataType como referência principal na serialização Pandas-Arrow
- SPARK-55402 Mover streamingSourceIdentififyingName do CatalogTable para DataSource
- SPARK-55459 Corrigir regressão de desempenho 3x no applyInPandas para grupos grandes
- SPARK-55317 Adicionar o nó lógico do plano SequentialUnion e a regra de planeamento
-
SPARK-55424 Passe explicitamente o nome da série em
convert_numpy - SPARK-55175 Extrair o transformador dos serializadores
- SPARK-55304 Introduzir suporte para Admission Control e Trigger.AvailableNow na fonte de dados Python - leitor de streaming
-
SPARK-55382 Configurar
Executorpara registarRunning Spark version - SPARK-55408 Lidar com erros inesperados de argumentos de palavras-chave relacionados com datetime com pandas 3
- SPARK-55345 Não passar unidade e fechado para Timedelta para pandas 3
- SPARK-54759 Proteger corretamente a lógica no Gestor de Variáveis de Scripting após a introdução do cursor
- SPARK-55409 Lidar com um erro inesperado de argumento de palavra-chave do read_excel com pandas 3
-
SPARK-55403 Corrigir
no attribute 'draw'erro nos testes de gráfico com pandas 3 - SPARK-55256 Reversão de "[SC-218596][SQL] Suporte para IGNORE NULLS / RESPECT NULLS para array_agg e collect_list"
- SPARK-55256 Apoia IGNORAR OS NULLS / RESPEITAR OS NULLS para array_agg e collect_list
-
SPARK-55395 Desativar a cache RDD em
DataFrame.zipWithIndex - SPARK-55131 Introduzir um novo delimitador do operador de fusão para RocksDB como uma cadeia de caracteres vazia para concatenar sem delimitador
- SPARK-55376 Tornar o argumento numeric_only nas funções groupby aceitar apenas booleano no pandas 3
-
SPARK-55334 Habilitar
TimestampTypeeTimestampNTZTypeemconvert_numpy - SPARK-55281 Adicionar ipykernel e IPython à lista de pacotes opcionais do mypy
- SPARK-55336 Deixe o createDF usar create_batch lógica para desacoplamento
-
SPARK-55366 Remover
errorOnDuplicatedFieldNamesdos UDFs em Python - SPARK-54759 Suporte a cursores para scripts SQL
-
SPARK-55302 Corrigir métricas personalizadas no caso de
KeyGroupedPartitioning - SPARK-55228 Implementar o Dataset.zipWithIndex na API Scala
- SPARK-55373 Melhorar a mensagem de erro "noHandlerFoundForExtension"
- SPARK-55356 Alias de suporte para PIVOT cláusula
-
SPARK-55359 Promover
TaskResourceRequestparaStable - SPARK-55365 Generalizar as utilidades para conversão de array de setas
- SPARK-55106 Adicionar Teste de Integração de Repartição para Operadores TransformWithState
- SPARK-55086 Adicionar DataSourceReader.pushFilters à documentação da API de Python Data Source
- SPARK-46165 Adicionar suporte para DataFrame.all com axis=None
- SPARK-55289 Revertir "[SC-218749][SQL] Corrigir in-set-operations.sql de teste instável desativando a junção broadcast"
- SPARK-55297 Restaurar o dtype timedelta com base no dtype original
- SPARK-55291 Pré-processar os cabeçalhos de metadados no momento da construção do interceptor do cliente
-
SPARK-55155 Reaplicar "[SC-218401][SQL] Suportar expressões flexíveis na instrução
SET CATALOG" - SPARK-55318 Otimizações de Desempenho para vector_avg/vector_sum
- SPARK-55295 Estenda a função ST_GeomFromWKB para assumir um valor SRID opcional
- SPARK-55280 Adicionar o proto GetStatus para suportar a monitorização do estado da execução
- SPARK-54969 Implementar nova conversão arrow-pandas>
-
SPARK-55176 Extrair
arrow_to_pandasconversor em ArrowArrayToPandasConversion - SPARK-55111 Reverter "[SC-217817][SC-210791][SS] Deteção de repartição incompleta ao reiniciar a consulta"
-
SPARK-55252 Melhorar
HttpSecurityFilterpara adicionarContent-Security-Policycabeçalho - SPARK-55111 Deteção de reparticionamento incompleto no reinício da consulta
- SPARK-55105 Adicionar Teste de Integração para Operador de Junção
- SPARK-55260 Implementar suporte de escrita Parquet para tipos Geo
- SPARK-54523 Corrigir a resolução padrão durante o pushdown da variante
- SPARK-55328 Reutilizar PythonArrowInput.codec em GroupedPythonArrowInput
- SPARK-55246 Adicionar Teste para Pyspark TWS e TWSInPandas e Corrigir o erro no StatePartitionAllColumnFamiliesWriter
- SPARK-55289 Corrigir o teste instável in-set-operations.sql desativando o broadcast join
- SPARK-55040 Refatorar o TaskContext e o protocolo de trabalho relacionado com o Engine Pyspark Fix.
- SPARK-47996 suporta fusão cruzada na API do pandas
- SPARK-55031 Adicionar expressões de funções de agregação de média/soma de vetores
- SPARK-54410 Correção do suporte de leitura para a anotação de tipo lógico variante
- SPARK-54776 Revertir "[SC-216482][SQL] Melhorada a mensagem dos logs relativamente à função lambda com SQL UDF"
- SPARK-55123 Adicionar SequentialUnionOffset para rastrear processamento sequencial de origem
- SPARK-54972 Melhorar subconsultas NOT IN com colunas não anuláveis
- SPARK-54776 Melhorei a mensagem dos logs relativa à função lambda com SQL UDF
-
SPARK-53807 Resolver problemas de condição de corrida entre
unlockereleaseAllLocksForTaskemBlockInfoManager - SPARK-51831 Revert "[SC-207389][SQL] Poda de colunas com existsJoin para Datasource V2"
-
SPARK-54881 Melhorar
BooleanSimplificationpara lidar com a negação da conjunção e disjunção em uma única passagem - SPARK-54696 Limpeza de ArrowBuffers em Connect
-
SPARK-55009 Remover cópias de memória desnecessárias do construtor de
LevelDBTypeInfo/RocksDBTypeInfo.Index - SPARK-54877 Tornar configurável a exibição do stacktrace na página de erro da UI
- SPARK-51831 Poda de colunas com existsJoin para Datasource V2
-
SPARK-55285 Fixar a inicialização de
PythonArrowInput - SPARK-53960 Deixe approx_top_k_accumulate/combinar/estimar tratar dos NULLs
- SPARK-49110 Simplificar o SubqueryAlias.metadataOutput para propagar sempre as colunas de metadados
-
SPARK-55155 Reverter "[SC-218401][SQL] Suporta expressões dobráveis na
SET CATALOGinstrução" -
SPARK-55155 Suportar expressões dobráveis na
SET CATALOGinstrução - SPARK-49110 Revertir "[SC-218594][SQL] Simplificar SubqueryAlias.metadataOutput para propagar sempre as colunas de metadados"
- SPARK-54399 Implementar a função st_setsrid no Scala e no PySpark
- SPARK-49110 Simplificar SubqueryAlias.metadataOutput para propagar sempre as colunas de metadados
- SPARK-55133 Corrigir condição de corrida na gestão do ciclo de vida do IsolatedSessionState
- SPARK-55262 Bloquear tipos Geo em todas as fontes de dados baseadas em ficheiro, exceto Parquet
- SPARK-54202 Permitir a conversão de GeometryType(srid) para GeometryType(ANY)
- SPARK-54142 Implementar a função st_srid no Scala e no PySpark
- SPARK-54887 Define sempre um estado SQL no cliente Spark Connect
- SPARK-55237 Suprimir mensagens irritantes ao procurar bases de dados inexistentes
- SPARK-55040 Reverter "[SC-217628][PYTHON] Refactorar TaskContext e protocolo de trabalho relacionado"
- SPARK-55243 Permitir a definição de cabeçalhos binários através do sufixo -bin no cliente Scala Connect
- SPARK-55259 Implementar conversão de esquemas Parquet para tipos de dados geoespaciais
- SPARK-55282 Evite usar worker_util no lado do condutor
- SPARK-54151 Introduza a estrutura para adicionar funções ST no PySpark
- SPARK-55194 Remover o GroupArrowUDFSerializer e mover a lógica de flatten para o mapper
- SPARK-55020 Desativar o gc ao executar o comando gRPC
- SPARK-55053 Refatorar fontes de dados/trabalhadores de análise UDTF para que tenham um ponto de entrada unificado
- SPARK-55040 Refatoração do TaskContext e do protocolo do trabalhador relacionado
- SPARK-55244 Use np.nan como valor padrão para os tipos de strings do pandas
- SPARK-55225 Restaurar ao dtype original para o Datetime
- SPARK-55154 Remover fastpath para pd.Series para pandas 3
- SPARK-55030 Adicionar suporte à norma vetorial/função de normalização de expressões
- SPARK-55202 Corrige UNEXPECTED_USE_OF_PARAMETER_MARKER ao usar param...
- SPARK-54201 Permitir o casting de GeographyType(srid) para GeographyType(ANY)
- SPARK-54244 Introdução do suporte à coerção de tipos para tipos de dados GEOMETRY
- SPARK-54160 Implementar a expressão ST_SetSrid em SQL
- SPARK-55046 O PySpark adiciona uma métrica de tempo de processamento UDF
- SPARK-54101 Introduza a estrutura para adicionar funções ST no Scala
- SPARK-54683 Unificar o bloqueio de tipos geográficos e temporais
- SPARK-55249 Tornar o DataFrame.toJSON capaz de devolver dataframe
- SPARK-54521 Adicionar para e a partir do WKB para o tipo de Geometria
- SPARK-54162 Permitir a conversão de GeographyType para GeometryType
- SPARK-55146 API de Recheckin State Repartition para PySpark
- SPARK-55140 Não mapear funções incorporadas para a versão numpy do pandas 3
- SPARK-54243 Introduzir suporte para coerção de tipos para tipos de dados GEOGRÁFICOS
- SPARK-55058 Erro de lançamento em metadados de checkpoint inconsistentes
- SPARK-55108 Utilize as versões mais recentes dos "pandas-stubs" para a verificação de tipos
- SPARK-54091 Implementar a expressão ST_Srid em SQL
- SPARK-55104 Adicionar suporte ao Spark Connect para DataStreamReader.name()
- SPARK-54996 Relatar Tempo de Chegada para registos do LowLatencyMemoryStream
- SPARK-55118 Substituir as importações wildcard dos códigos de operação ASM
- SPARK-54365 Adicionar Teste de Integração de Repartição para Operadores Aggregate, Dedup, FMGWS e SessionWindow
- SPARK-55119 Corrigir o Continue Handler: prevenir INTERNAL_ERROR e a interrupção incorreta de instruções condicionais
- SPARK-54104 Proibir a conversão de tipos geoespaciais para/de outros tipos de dados
- SPARK-55240 Refatorar o tratamento do stacktrace do LazyTry para usar um wrapper em vez de exceções suprimidas
-
SPARK-55238 Mover a lógica de mapeamento Geo SRS de
main/scalaparamain/java -
SPARK-55179 Saltar a validação imediata do nome da coluna em
df.col_name - SPARK-55055 Apoia o SparkSession.Builder.create para PySpark Classic
- SPARK-55186 Permite que ArrowArrayToPandasConversion.convert_legacy possa retornar um pd.DataFrame
- SPARK-54079 Introduzir a estrutura para adicionar expressões ST no Catalyst
- SPARK-54096 Suporte ao mapeamento do Sistema de Referência Espacial no PySpark
- SPARK-54801 Marca algumas novas configurações 4.1 como internas
- SPARK-55146 Reverter "[SC-217936][SC-210779][SS] API de Repartição de Estado para PySpark"
- SPARK-54559 Usa o runnerConf para passar a opção do profiler
- SPARK-55205 Corrigir testes onde assume que o tipo de string será convertido em objeto
- SPARK-55171 Corrigir o perfilador de memória no iter UDF
- SPARK-55226 Reconhecer datetime e timedelta com unidades que não sejam [ns]
- SPARK-55027 Mover writeConf para PythonWorkerUtils
- SPARK-55197 Extrair auxiliar para desduplicar a lógica do sinal START_ARROW_STREAM
- SPARK-54179 Adicionar suporte nativo para Apache Tuple Sketches (#190848) (#191111)
- SPARK-55151 Corrigir RocksDBSuite testWithStateStoreCheckpointIds
- SPARK-55146 API de Repartição de Estado para PySpark
- SPARK-54232 Ativar serialização por setas para tipos de Geografia e Geometria
- SPARK-53957 Suporte a GEOGRAFIA e GEOMETRIA no SpatialReferenceSystemMapper
- SPARK-55169 Use o ArrowBatchTransformer.flatten_struct em ArrowStreamArrowUDTFSerializer
-
SPARK-55134 Correção
BasicExecutorFeatureSteppara lançarIllegalArgumentExceptionpor erros de configuração do CPU do executor - SPARK-54166 Introduza codificadores de tipos para tipos geoespaciais no PySpark
-
SPARK-55138 Corrigir
convertToMapDatao lançamento de um erroNullPointerException - SPARK-55168 Usar ArrowBatchTransformer.flatten_struct no GroupArrowUDFSerializer
- SPARK-55032 Perfiladores refatorizados em workers.py
- SPARK-54990 Corrigir a forma como a classproperty é implementada no session.py
- SPARK-55076 Corrigir o problema da indicação de tipo em ml/mllib e adicionar o requisito do scipy
- SPARK-55162 Extrair transformadores do ArrowStreamUDFSerializer
- SPARK-55121 Adicionar DataStreamReader.name() ao Classic PySpark
- SPARK-54887 Adicionar sqlstate opcional aos sparkthrowables
- SPARK-54169 Introduza os tipos de Geografia e Geometria no Arrow Writer
- SPARK-51658 Introdução dos formatos de wrapper em memória de Geometria e Geografia
- SPARK-54110 Introdução de codificadores de tipos para tipos de Geografia e Geometria
- SPARK-54956 Unificar a solução de reintento do shuffle indeterminado
-
SPARK-55137 Refatorar o
GroupingAnalyticsTransformere oAnalyzercódigo - SPARK-54103 Introduzir classes de Geografia e Geometria do lado do cliente
- SPARK-55160 Passar diretamente o esquema de entrada aos serializadores
- SPARK-55170 Extrair padrão de leitura de fluxos agrupados a partir de serializadores
- SPARK-55125 Eliminar métodos redundantes nos serializadores Arrow
- SPARK-55126 Remover fusos horários e assign_cols_by_name não utilizados do ArrowStreamArrowUDFSerializer
- SPARK-54980 Converter o nível de isolamento JDBC numa string
- SPARK-55051 A cadeia de bytes aceita KiB, MiB, GiB, TiB, PiB
- SPARK-55025 Melhore o desempenho em pandas utilizando a compreensão de listas
- SPARK-46165 Adicionar suporte a pandas.DataFrame.all axis=1
- SPARK-55037 Reimplementar a observação sem usar o QueryExecutionListener
- SPARK-54965 Considere o legado PA. Array -> PD. Conversor em série
- SPARK-55016 Tornar o SQLConf uma propriedade direta do SparkSession para evitar o excesso de stack
- SPARK-55091 Reduzir chamadas RPC do Hive para o comando DROP TABLE
- SPARK-55097 Correção: readicionar artefactos em cache elimina blocos silenciosamente
- SPARK-55026 Otimize o BestEffortLazyVal.
- SPARK-55091 Reverter "[SC-217410][SQL] Reduzir as chamadas de RPC do Hive para o comando DROP TABLE"
- SPARK-54590 Suporte ao Checkpoint V2 para Reescrita e Reparticionamento de Estado
- SPARK-55016 Tornar o SQLConf uma propriedade direta do SparkSession para evitar o excesso de stack
- SPARK-55091 Reduzir chamadas RPC do Hive para o comando DROP TABLE
- SPARK-55016 Reverter a alteração "[SC-217401][SQL] Tornar o SQLConf uma propriedade direta do SparkSession para evitar stack overflow"
- SPARK-55016 Tornar o SQLConf uma propriedade direta do SparkSession para evitar o excesso de stack
- SPARK-55098 UDFs vetorizados com controlo de tamanho de lote de saída falham devido a fuga de memória
- SPARK-54824 Adicionar suporte para multiGet e deleteRange para Rocksdb State Store
- SPARK-55054 Adicionar suporte IDENTIFIED BY para funções de tabela em streaming
- SPARK-55029 Propagar o nome identificador da fonte de streaming através do pipeline de resolução
- SPARK-55071 Fazer o spark.addArtifact funcionar com os caminhos do Windows
- SPARK-54103 Reverter "[SC-210400][Geo][SQL] Introduzir classes de Geografia e Geometria do lado do cliente"
- SPARK-54103 Introduzir classes de Geografia e Geometria no lado do cliente
- SPARK-54033 Introduza as classes de execução geoespacial Catalyst do lado do servidor
- SPARK-54176 Introduza os tipos de dados de Geografia e Geometria no PySpark Connect
- SPARK-55089 Corrigir o esquema de saída do toJSON
- SPARK-55035 Realizar limpeza de embaralhamento em execuções de subprocessos
-
SPARK-55036 Adicionar
ArrowTimestampConversionpara gestão de fusos horários de setas -
SPARK-55090 Implementar
DataFrame.toJSONem Cliente Python - SPARK-54873 Simplifique a resolução do V2TableReference, pois só a vista temporária pode contê-la
- SPARK-52828 Tornar o hashing para strings ordenadas independente da colação
- SPARK-54175 Adicionar Tipos de Geografia e Geometria ao protocolo do Spark Connect
-
SPARK-54961 Introdução
GroupingAnalyticsTransformer - SPARK-55088 Mantém os metadados em/from_arrow_type/esquema
- SPARK-55070 Permitir coluna oculta na resolução da coluna do dataframe
- SPARK-55044 Mantém os metadados em toArrowSchema/fromArrowSchema
- SPARK-55043 Fixar viagem no tempo com subquery contendo referências de tabela
-
SPARK-54987 Mude o valor padrão de prefer_timestamp_ntz para Verdadeiro em
from_arrow_type/from_arrow_schema - SPARK-54866 Refatorar a função de eliminação/atualização para evitar pesquisas no catálogo
- SPARK-55024 Use o erro REQUIRES_SINGLE_PART_NAMESPACE para validação do namespace do catálogo de sessões
- SPARK-54992 Substitua o cast por uma verificação de tempo de execução para make_timestamp
- SPARK-55024 Reverter "[SC-216987][SQL] Usar erro REQUIRES_SINGLE_PART_NAMESPACE para validação do namespace do catálogo de sessões"
- SPARK-54866 Reverter "[SC-216753][SQL] Refatorar Drop/RefreshFunction para evitar consulta ao catálogo"
- SPARK-55024 Use o erro REQUIRES_SINGLE_PART_NAMESPACE para validação do namespace do catálogo de sessões
- SPARK-54866 Refatorar Drop/RefreshFunction para evitar busca no catálogo
- SPARK-54991 Dica de tipo correto para streaming/listener.py
- SPARK-54925 Adicionar a capacidade de despejar threads para o pyspark
- SPARK-54803 Apoio POR NOME com INSERT ... SUBSTITUIR WHERE
- SPARK-54785 Adicionar suporte para agregações de esboços binários no KLL (#188370) (#188860)
- SPARK-54949 Mover pyproject.toml para a raiz do repositório
- SPARK-54954 Corrigir dicas de tipo relacionadas a sistemas remotos no util.py
- SPARK-54922 Unificar a forma como os args são passados aos trabalhadores em python
- SPARK-54870 Suporte de colação para char/varchar e CTAS/RTAS
-
SPARK-54762 Corrigir
_create_convertere acovertsobrecarga - SPARK-55019 Permitir eliminar VIEW
- SPARK-53103 Lançar um erro se o diretório de estado não estiver vazio quando a consulta iniciar
- SPARK-54995 Faça um caminho rápido para foreachPartition
- SPARK-54634 Adicionar mensagem de erro clara para o predicado IN vazio
- SPARK-54984 Execução da Repartição do Estado e integração com o Reescritor de Estado
- SPARK-54443 Integrar o PartitionKeyExtractor no leitor de repartição
- SPARK-54907 Introduzir a regra do analisador NameStreamingSources para evolução de fontes de streaming
- SPARK-54609 Atualize a configuração do tipo TIME para corresponder à do OSS
- SPARK-54988 Simplificar a implementação do ObservationManager.tryComplete
- SPARK-54959 Desative o desajuste total do checksum de embaralhamento e tente novamente quando o embaralhamento baseado em push está ativado
- SPARK-54940 Adicionar testes para inferência do tipo pa.scalar
- SPARK-54634 Reverter "[SC-216478][SQL] Adicionar mensagem de erro clara para o predicado IN vazio"
- SPARK-54337 Adicionar suporte para PyCapsule ao Pyspark
- SPARK-54634 Adicionar mensagem de erro clara para o predicado IN vazio
- SPARK-53785 Fonte de Memória para RTM
- SPARK-54883 Limpar as mensagens de erro da CLI e adicionar um novo modo de erro, denominado DEBUG
- SPARK-54713 Adicionar suporte a expressões de similaridade/função de distância vetorial
- SPARK-54962 Corrigir o tratamento de inteiros anuláveis no Pandas UDF
- SPARK-54864 Adicionar nós rCTE ao NormalizePlan
- SPARK-53847 Adicionar o ContinuousMemorySink para testes em modo em tempo real
- SPARK-54865 Adicionar método foreachWithSubqueriesAndPruning ao QueryPlan
- SPARK-54930 Remover chamadas redundantes _accumulatorRegistry.clear() em worker.py
- SPARK-54929 Corrigir a redefinição de taskContext._resources em ciclo faz com que apenas o recurso mais recente seja mantido
-
SPARK-54963 Respeite
createDataFrameprefer_timestamp_ntzquandoinfer_pandas_dict_as_map -
SPARK-54920 Transferir a lógica de extração de análise de agrupamento para um módulo comum
GroupingAnalyticsExtractor - SPARK-54924 Reescritor de Estado para ler o estado, transformá-lo e escrever um novo estado
- SPARK-54872 Unificar o tratamento de valores por defeito da coluna entre os comandos v1 e v2
- SPARK-54905 Simplificar a implementação do foreachWithSubqueries no QueryPlan
- SPARK-54682 Suporte a mostrar parâmetros em DESCREVER PROCEDIMENTO
-
SPARK-54933 Evite buscar a configuração
binary_as_bytesrepetidamente emtoLocalIterator - SPARK-54872 Reverter "[SC-216260][SQL] Unificar o tratamento padrão de valores das colunas entre os comandos v1 e v2"
- SPARK-51936 ReplaceTableAsSelect deve sobrescrever a nova tabela em vez de acrescentar
- SPARK-54771 Remover a regra ResolveUserSpecifiedColumns da RuleIdCollection
- SPARK-54872 Unificar o tratamento de valores por defeito da coluna entre os comandos v1 e v2
- SPARK-54313 Adicionar a opção --extra-properties-file para camadas de configuração
- SPARK-54468 Adicionar classes de erro em falta
- SPARK-46741 A Tabela de Cache com CTE deve funcionar quando o CTE está numa subconsulta de expressão de plano
- SPARK-46741 A tabela em cache com CTE não funcionará
- SPARK-54615 Passa sempre runner_conf para o trabalhador Python
- SPARK-53737 Adicionar gatilho do Modo em Tempo Real
- SPARK-54541 Renomear _LEGACY_ERROR_TEMP_1007 e adicionar sqlState
- SPARK-54718 Preservar os nomes dos atributos durante CTE newInstance()
- SPARK-54621 Integrar no Conjunto de Atualização * preservar campos aninhados se … coerceNestedTypes estiver ativado
- SPARK-54595 Mantém o comportamento existente de MERGE INTO sem SCHEMA cláusula EVOLUTION
- SPARK-54903 Tornar to_arrow_schema/to_arrow_type capaz de definir o fuso horário
- SPARK-52326 Adicione partições relacionadas com ExternalCatalogEvent e publique-as nas operações correspondentes
- SPARK-54541 Reverter "[SC-215212][SQL] Renomear _LEGACY_ERROR_TEMP_1007 e adicionar sqlState"
-
SPARK-54578 Executar a limpeza de código em
AssignmentUtils - SPARK-54830 Ativar o reintento do shuffle indeterminado baseado em checksum por padrão
- SPARK-54525 Desativar a coerção de estruturas aninhadas dentro MERGE INTO de uma configuração
- SPARK-53784 APIs de Fonte adicionais necessárias para suportar a execução RTM
- SPARK-54496 Corrigir o Merge Na Evolução do Esquema para a API de Dataframe
- SPARK-54835 Evite execução de consultas temporária desnecessária para a execução de comandos aninhados
- SPARK-54541 Renomear _LEGACY_ERROR_TEMP_1007 e adicionar sqlState
- SPARK-54289 Permitir MERGE INTO preservar campos de struct existentes para UPDATESET quando a struct de origem tem menos campos aninhados do que a struct alvo.
- SPARK-54720 Adicionar SparkSession.emptyDataFrame com um esquema
- SPARK-54800 Mudança na implementação padrão para isObjectNotFoundException
- SPARK-54686 Relaxar as verificações de tabela DSv2 nas vistas temporárias para permitir novas colunas de nível superior
- SPARK-54619 Adicione uma verificação de sanidade para os números de configuração
- SPARK-54726 Melhorar um pouco o desempenho do InsertAdaptiveSparkPlan
- SPARK-51966 Substitua select.select() por select.poll() ao correr em POSIX OS
- SPARK-54749 Corrigir uma métrica numOutputRows incorreta no OneRowRelationExec
- SPARK-54411 Introduza um Escritor de Repartição que suporta Multi-CF
- SPARK-54835 Reverter "[SC-215823][SQL] Evitar a execução temporária de QueryExecution desnecessária para a execução de comandos aninhados"
- SPARK-54867 Introduza o wrapper NamedStreamingRelation para identificação da fonte durante a análise
- SPARK-54835 Evite QueryExecution temporária desnecessária para execução de comandos aninhados
- SPARK-54491 Corrigir a inserção na vista temporária na falha da tabela DSv2
- SPARK-54871 Remova os aliases das expressões de agrupamento e agregação antes de tratar das análises de agrupamento
- SPARK-51920 Correção do manuseio de tipo de namedTuple para transformWithState
- SPARK-54526 Renomear _LEGACY_ERROR_TEMP_1133 e adicionar sqlState
- SPARK-54424 Falhas durante o recache não devem falhar as operações
-
SPARK-54894 Corrigir a passagem de argumentos em
to_arrow_type - SPARK-53448 A conversão de um DataFrame pyspark com uma coluna do tipo Variante para pandas falha com um erro.
- SPARK-54882 Remover PYARROW_IGNORE_TIMEZONE antigo
- SPARK-54504 Corrigir a atualização de versões para tabelas DSv2 com subconsultas
- SPARK-54444 Relaxar as verificações da tabela DSv2 para restaurar comportamentos anteriores
- SPARK-54859 Por padrão, documentação de referência da API UDF do PySpark
- SPARK-54387 Reverter "[ES-1688666] Reverter "[SC-212394][SQL] Corrigir o recacheamento das tabelas DSv2""
- SPARK-54753 corrigir fuga de memória do ArtifactManager
- SPARK-54387 Reverter "[SC-212394][SQL] Corrigir o re-cache das tabelas DSv2"
- SPARK-54436 Corrigir a formatação de erros para verificações de metadados de tabelas incompatíveis
-
SPARK-54849 Atualizar a versão mínima para
pyarrowa 18.0.0 - SPARK-54022 Tornar a resolução das tabelas DSv2 consciente das tabelas em cache
- SPARK-54387 Corrigir o recachê das tabelas DSv2
- SPARK-53924 Recarregar tabelas DSv2 em vistas criadas usando planos em cada acesso à vista
-
SPARK-54561 Ponto de interrupção de suporte() para
run-tests.py - SPARK-54157 Corrigir a atualização das tabelas DSv2 no conjunto de dados
- SPARK-54830 Reverter "[CORE] Ativar a repetição de embaralhamento indeterminado baseada em checksum por padrão"
- SPARK-54861 Redefinir o nome da thread da tarefa para IDLE_TASK_THREAD_NAME ao concluir a tarefa
- SPARK-54834 Adicionar novas interfaces SimpleProcedure e SimpleFunction
- SPARK-54760 DelegingCatalogExtension, como catálogo de sessões, suporta funções V1 e V2
- SPARK-54685 Remover respostas redundantes de métricas observadas
-
SPARK-54853 Verifique
hive.exec.max.dynamic.partitionssempre do lado da faísca - SPARK-54840 Pré-alocação do OrcList
- SPARK-54830 Ativar o reintento do shuffle indeterminado baseado em checksum por padrão
-
SPARK-54850 Melhorar
extractShuffleIdspara encontrarAdaptiveSparkPlanExecem qualquer lugar na árvore do plano - SPARK-54843 expressão Try_to_number não funciona para entrada de string vazia
- SPARK-54556 Reverter os estágios de mapeamento de embaralhamento que tiveram sucesso quando uma incompatibilidade de soma de verificação de embaralhamento é detetada.
- SPARK-54760 Reverter "[SC-215670][SQL] DelegingCatalogExtension, pois o catálogo de sessões suporta funções V1 e V2"
- SPARK-54760 DelegingCatalogExtension, como catálogo de sessões, suporta funções V1 e V2
- SPARK-54818 A atribuição falhada do TaskMemoryManager deve registar a pilha de erros para ajudar a verificar o uso de memória
-
SPARK-54827 Adicionar função auxiliar
TreeNode.containsTag - SPARK-54777 Revert "[SC-215740][SQL] O tratamento de erros dropTable foi alterado em JDBCTableCatalog.dropTable(...)"
- SPARK-54777 Alterado o tratamento de erros no método dropTable em JDBCTableCatalog.dropTable(...)
-
SPARK-54817 Lógica de resolução refatorizada
UnpivotparaUnpivotTransformer -
SPARK-54820 Tornar
pandas_on_spark_typecompatível com o numpy 2.4.0 -
SPARK-54799 Refatorar
UnpivotCoercion - SPARK-54754 O OrcSerializer não deve analisar o esquema sempre que é serializado
- SPARK-54226 Estender a compressão Arrow para Pandas UDF
- SPARK-54787 Usar compreensão de listas em vez de ciclos for no pandas
-
SPARK-54690 Tornar
Frame.__repr__insensível à otimização de setas - SPARK-46166 Implementação dos pandas. DataFrame.any com eixo=Nenhum
- SPARK-54696 Limpeza de Buffers Arrow - acompanhamento
- SPARK-54769 Remover código morto em conversion.py
- SPARK-54787 Use a compreensão de listas no pandas _bool_column_labels
-
SPARK-54794 Suprimir registos de análise
FsHistoryProvider.checkForLogsverbosos - SPARK-54745 Corrigir o erro de importação do PySpark causado pela ausência do UnixStreamServer no Windows
- SPARK-54782 Corrigir as versões de configuração
- SPARK-54781 Devolver informação da cache do modelo em formato JSON
- SPARK-54419 O Leitor de Estado de Repartição Offline Suporta Famílias de Múltiplas Colunas
- SPARK-54722 Registar Pandas Grouped Iter Aggregate UDF para utilização em SQL
-
SPARK-54762 Reverter "[SC-215422][PYTHON] Corrigir
_create_converterecovertsobrecarga de assinatura" - SPARK-54652 Reverter "[SC-215452][SQL] Conversão completa de IDENTIFIER()"
-
SPARK-54762 Corrigir
_create_convertere acovertsobrecarga - SPARK-52819 Tornar o KryoSerializationCodec serializável para corrigir erros no java.io.NotSerializableException em vários casos de uso
- SPARK-54711 Adicione um timeout para a ligação de trabalhador criada pelo daemon
- SPARK-54738 Adicionar suporte ao perfilador para Pandas Grouped Iter Aggregate UDF
- SPARK-54652 Conversão completa de IDENTIFIER()
- SPARK-54581 Tornar a opção 'fetchsize' insensível a maiúsculas para o conector PostgreSQL
- SPARK-54589 Consolidate ArrowStreamAggPandasIterUDFSerializer into ArrowStreamAggPandasUDFSerializer
- SPARK-41916 Distribuidor do Torch: suporta múltiplos processos do torchrun por tarefa se task.gpu.amount > 1
-
SPARK-54707 Refatorar a lógica principal da resolução
PIVOTpara oPivotTransformer - SPARK-54706 Faça o DistributedLDAModel funcionar com um sistema de ficheiros local
- SPARK-53616 Introduzir API de iteradores para UDF de agregação agrupada do pandas
- SPARK-54116 Adicionar suporte ao modo off-heap para LongHashedRelation
- SPARK-54656 Refatorar SupportsPushDownVariants para ser um mix-in de ScanBuilder
- SPARK-54687 Adicionar ficheiro de referência com casos limites de resolução de geradores
- SPARK-54708 Otimize a limpeza da cache em ML com criação preguiçosa de diretórios
- SPARK-54116 Reverter "[SC-213108][SQL] Adicionar suporte ao modo off-heap para LongHashedRelation"
- SPARK-54116 Adicionar suporte ao modo off-heap para LongHashedRelation
- SPARK-54443 Extração de chaves de partição para todos os operadores com estado de streaming
- SPARK-54687 Reverter "[SC-214791][SQL] Adicionar ficheiro de ouro com geradores para casos de limite"
- SPARK-54116 Reverter "[SC-213108][SQL] Adicionar suporte ao modo off-heap para LongHashedRelation"
- SPARK-54687 Adicionar ficheiro padrão com casos limites de resolução do gerador
- SPARK-54116 Adicionar suporte ao modo off-heap para LongHashedRelation
- SPARK-54420 Introdução do StatePartitionWriter de Repartição Offline para Família de Colunas Únicas
-
SPARK-54689 Faça
org.apache.spark.sql.pipelinesum pacote interno e torneEstimatorUtilsprivado - SPARK-54673 Refatorar código de análise de sintaxe de pipe SQL para partilha e reutilização
- SPARK-54668 Adicionar testes para CTEs em operadores com múltiplos filhos
- SPARK-54669 Remover a conversão redundante nos rCTEs
- SPARK-54587 Consolide todo o código relacionado runner_conf
- SPARK-54628 Remover todos os argumentos super() explícitos desnecessários
- SPARK-54675 Adicionar um tempo de desligamento forçado configurável para o pool de threads de manutenção do StateStore
- SPARK-54639 Evite a criação desnecessária de Tabelas nos serializadores Arrow
- SPARK-49635 Remover sugestão de configuração ANSI nas mensagens de erro CAST
-
SPARK-54664 Limpar o código relacionado com
listenerCachedeconnect.StreamingQueryManager - SPARK-54640 Substitua select.select por select.poll no UNIX
-
SPARK-54662 Adicionar
viztraceredebugpyemdev/requirements.txt - SPARK-54632 Adiciona a opção de usar ruff para lint
- SPARK-54585 Corrigir o rollback do State Store quando a thread está em estado interrompido
- SPARK-54172 Merge Into Schema Evolution deve apenas adicionar colunas referenciadas
- SPARK-54438 Consolidar ArrowStreamAggArrowIterUDFSerializer em ArrowStreamAggArrowUDFSerializer
- SPARK-54627 Remover inicializações redundantes em serializadores
- SPARK-54631 Adicionar suporte a profiler para o Arrow Grouped Iter Aggregate UDF
-
SPARK-54316 Reaplicar [SC-213971][CORE][PYTHON][SQL] Consolidar
GroupPandasIterUDFSerializercomGroupPandasUDFSerializer - SPARK-54392 Otimizar a comunicação JVM-Python para o estado inicial do TWS
- SPARK-54617 Ativar o registo Arrow Grouped Iter Aggregate UDF para SQL
- SPARK-54544 Ativação da verificação flake8 F811
-
SPARK-54650 Mover a conversão de int para decimal para
_create_converter_from_pandas -
SPARK-54316 Revertir "[SC-213971][CORE][PYTHON][SQL] Consolidar
GroupPandasIterUDFSerializercomGroupPandasUDFSerializer" - SPARK-53687 Cláusula de introdução WATERMARK na instrução SQL
-
SPARK-54316 Consolidar
GroupPandasIterUDFSerializercomGroupPandasUDFSerializer - SPARK-54598 Extrair lógica para ler UDFs
-
SPARK-54622 Promover
RequiresDistributionAndOrderinge as interfaces necessárias associadas paraEvolving - SPARK-54624 Garantir que o nome de utilizador na página de histórico seja protegido
- SPARK-54580 Considere o Hive 4.1 no HiveVersionSuite e no HiveClientImpl
-
SPARK-54068 Correção
to_featherpara suportar o PyArrow 22.0.0 -
SPARK-54618 Promover
LocalScanaStable -
SPARK-54616 Marque
SupportsPushDownVariantscomoExperimental -
SPARK-54607 Remover método
toStringHelpernão utilizado deAbstractFetchShuffleBlocks.java - SPARK-53615 Introduzir API de iterador para agregação agrupada de UDF do Arrow
- SPARK-54608 Evite a duplicação do armazenamento em cache do conversor de tipos no UDTF
-
SPARK-54600 Não uses pickle para guardar/carregar modelos
pyspark.ml.connect -
SPARK-54592 Torna
estimatedSizeprivado - SPARK-54388 Introduzir o StatePartitionReader que analisa bytes brutos para Single ColFamily
- SPARK-54570 Propagar corretamente a classe de erro no Spark Connect
- SPARK-54577 Otimizar chamadas Py4J na inferência de esquema
- SPARK-54568 Evite a conversão desnecessária de pandas ao criar DataFrame a partir do ndarray
- SPARK-54576 Adicionar documentação para novas funções agregadas baseadas em Datasketches
- SPARK-54574 Reativar o FPGrowth na conexão
- SPARK-54557 Tornar CSV/JSON/XmlOptions e CSV/JSON/XmlInferSchema comparáveis
- SPARK-52798 Adicionar função approx_top_k_combine
- SPARK-54446 O FPGrowth suporta sistema de ficheiros local com formato de ficheiro Arrow
-
SPARK-54547 Renomear a variável
hostPortparahostnos métodosTaskSchedulerImpl.(executorLost|logExecutorLoss) - SPARK-54558 Corrigir a Exceção Interna quando são usados Gestores de Exceções sem START/END
- SPARK-52923 Permitir que o ShuffleManager controle a fusão push durante o registo do baralhamento
- SPARK-54474 Descarte o relatório XML sobre testes que supostamente falham
- SPARK-54473 Adicionar suporte de leitura e escrita do Avro para o tipo TIME
- SPARK-54472 Adicionar suporte de leitura e escrita ORC para o tipo TIME
- SPARK-54463 Adicionar suporte para serialização e desserialização CSV para o tipo TIME
- SPARK-52588 Approx_top_k: acumular e estimar
- SPARK-54461 Adicionar suporte à serialização e deserialização XML para o tipo TIME
- SPARK-54451 Adicionar suporte para serialização e deserialização JSON para o tipo TIME
- SPARK-54537 Corrigir o SparkConnectDatabaseMetaData getSchemas/getTables em catálogos que não têm capacidade de namespace.
- SPARK-54442 Adicionar funções de conversão numérica para o tipo TIME
- SPARK-54451 Reverter "[SC-212861][SQL] Adicionar suporte à serialização e desserialização JSON para o tipo TIME"
- SPARK-54492 Renomear _LEGACY_ERROR_TEMP_1201 e adicionar sqlState
- SPARK-54531 Introduzir o ArrowStreamAggPandasUDFSerializer
- SPARK-54223 Adicionar contexto de tarefa e métricas de dados aos registos do runner em Python
- SPARK-54272 Adicionar aggTime para SortAggregateExec
- SPARK-53469 Capacidade de limpar o shuffle no servidor Thrift
-
SPARK-54219 Configuração de suporte
spark.cleaner.referenceTracking.blocking.timeout - SPARK-54475 Adicionar master-server, branch-4.0-client, Python 3.11
- SPARK-54451 Adicionar suporte para serialização e deserialização JSON para o tipo TIME
- SPARK-54285 Guardar em cache a informação sobre o fuso horário para evitar uma conversão dispendiosa de timestamp
-
SPARK-49133 Torne o membro
MemoryConsumer#usedatómico para evitar que o código do utilizador cause deadlock - SPARK-46166 Implementação de pandas.DataFrame.any com axis=1
- SPARK-54532 Adicionar suporte para sqlstate no PySparkException
- SPARK-54435 spark-pipelines init deve evitar sobrescrever o diretório existente
- SPARK-54247 Fechar explicitamente o soquete para util._load_from_socket
Suporte ao driver ODBC/JDBC do Databricks
O Databricks suporta drivers ODBC/JDBC lançados nos últimos 2 anos. Faça o download dos drivers lançados recentemente e atualize (baixe ODBC, baixe JDBC).
Ambiente do sistema
- Sistema Operacional: Ubuntu 24.04.3 LTS
- Java: Zulu21.42+19-CA
- Escala: 2.13.16
- Píton: 3.12.3
- R: 4.5.1
- Delta Lake: 4.0.1
Bibliotecas Python instaladas
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| aiohappyeyeballs | 2.4.4 | AIOHTTP | 3.11.10 | aiosignal | 1.2.0 |
| documento anotado | 0.0.4 | tipos com anotações | 0.7.0 | anyio | 4.7.0 |
| argon2-cffi | 21.3.0 | argon2-cffi-vinculações | 21.2.0 | arro3-core | 0.6.5 |
| seta | 1.3.0 | AstTokens | 3.0.0 | "Astunparse" | 1.6.3 |
| Async-LRU | 2.0.4 | Atributos | 24.3.0 | Comando automático | 2.2.2 |
| azure-common | 1.1.28 | azure-core | 1.37.0 | azure-identity (serviços de identidade do Azure) | 1.20.0 |
| azure-mgmt-core | 1.6.0 | azure-mgmt-web | 8.0.0 | Azure Storage Blob | 12.28.0 |
| Armazenamento de Ficheiros Azure Data Lake | 12.22.0 | Babel | 2.16.0 | backports.tarfile | 1.2.0 |
| BeautifulSoup4 | 4.12.3 | preto | 24.10.0 | lixívia | 6.2.0 |
| pisca | 1.7.0 | boto3 | 1.40.45 | Botocore | 1.40.45 |
| Ferramentas de cache | 5.5.1 | certifi | 2025.4.26 | cffi | 1.17.1 |
| Chardet | 4.0.0 | Normalizador de Charset | 3.3.2 | clicar | 8.1.8 |
| Cloudpickle | 3.0.0 | Comunicação | 0.2.1 | contorno | 1.3.1 |
| criptografia | 44.0.1 | ciclista | 0.11.0 | Cython | 3.1.5 |
| Databricks-Agentes | 1.9.1 | Databricks-SDK | 0.67.0 | DataClasses-JSON | 0.6.7 |
| dbus-python | 1.3.2 | debugpy | 1.8.11 | decorador | 5.1.1 |
| defusedxml | 0.7.1 | deltalake | 1.1.4 | Deprecated | 1.2.18 |
| Distlib | 0.3.9 | docstring-para-markdown | 0.11 | execução | 1.2.0 |
| facetas-visão geral | 1.1.1 | fastapi | 0.128.0 | fastjsonschema (biblioteca para validação rápida de esquemas JSON) | 2.21.1 |
| bloqueio de arquivo | 3.17.0 | Fonttools | 4.55.3 | FQDN (Nome de Domínio Completo) | 1.5.1 |
| Frozenlist | 1.5.0 | fsspec | 2023.5.0 | GitDB | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.28.1 | Google-Auth (Autenticação) | 2.47.0 |
| Google Cloud Core | 2.5.0 | google-armazenamento-em-nuvem | 3.7.0 | Google-CRC32C | 1.8.0 |
| google-media-reutilizável | 2.8.0 | googleapis-common-protos | 1.65.0 | Grpcio | 1.67.0 |
| grpcio-status | 1.67.0 | h11 | 0.16.0 | HF-XET | 1.2.0 |
| httpcore | 1.0.9 | httplib2 | 0.20.4 | httpx | 0.28.1 |
| huggingface_hub | 1.2.4 | IDNA | 3.7 | importlib_metadata | 8.5.0 |
| flexionar | 7.3.1 | iniconfig | 1.1.1 | ipyflow-core | 0.0.209 |
| Ipykernel | 6.29.5 | IPython | 8.30.0 | ipython-genutils | 0.2.0 |
| ipywidgets | 7.8.1 | isodate | 0.7.2 | isoduração | 20.11.0 |
| jaraco.collections | 5.1.0 | jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 |
| jaraco.text | 3.12.1 | Jedi | 0.19.2 | Jinja2 | 3.1.6 |
| Jiter | 0.12.0 | jmespath | 1.0.1 | Joblib | 1.4.2 |
| JSON5 | 0.9.25 | jsonpatch | 1.33 | jsonpointer | 3.0.0 |
| jsonschema | 4.23.0 | jsonschema-especificações | 2023.7.1 | Jupyter-Eventos | 0.12.0 |
| Jupyter-LSP | 2.2.5 | jupyter_client | 8.6.3 | jupyter_core | 5.7.2 |
| jupyter_servidor | 2.15.0 | jupyter_server_terminals | 0.5.3 | Jupyterlab | 4.3.4 |
| jupyterlab_pygments | 0.3.0 | jupyterlab_server | 2.27.3 | jupyterlab_widgets | 1.1.11 |
| kiwisolver | 1.4.8 | langchain-núcleo | 1.2.6 | langchain-openai | 1.1.6 |
| Langsmith | 0.6.1 | launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 |
| lazr.uri | 1.0.6 | litellm | 1.75.9 | markdown-it-py | 2.2.0 |
| MarkupSafe | 3.0.2 | Espuma | 3.26.2 | Matplotlib | 3.10.0 |
| matplotlib-inline | 0.1.7 | Mccabe | 0.7.0 | mdurl | 0.1.0 |
| Mistune | 3.1.2 | mlflow-skinny | 3.8.1 | MMH3 | 5.2.0 |
| more-itertools | 10.3.0 | MSAL | 1.34.0 | MSAL-extensões | 1.3.1 |
| multidict | 6.1.0 | mypy-extensions | 1.0.0 | nbclient | 0.10.2 |
| nbconvert | 7.16.6 | nbformat | 5.10.4 | nest-asyncio | 1.6.0 |
| nodeenv | 1.10.0 | bloco de notas | 7.3.2 | notebook_shim | 0.2.4 |
| numpy | 2.1.3 | OAuthlib | 3.2.2 | OpenAI | 2.14.0 |
| OpenTelemetry API | 1.39.1 | OpenTelemetry-Proto | 1.39.1 | OpenTelemetry SDK | 1.39.1 |
| Convenções Semânticas de OpenTelemetry | 0.60b1 | Orjson | 3.11.5 | sobrescrições | 7.4.0 |
| embalagem | 24,2 | pandas | 2.2.3 | PandocFilters | 1.5.0 |
| Parso | 0.8.4 | PathSpec | 0.10.3 | vítima | 1.0.1 |
| pexpect | 4.8.0 | almofada | 11.1.0 | pip (o gestor de pacotes do Python) | 25.0.1 |
| platformdirs | 4.3.7 | enredo | 5.24.1 | Pluggy | 1.5.0 |
| prometheus_client | 0.21.1 | kit de ferramentas de prompt | 3.0.43 | propcache | 0.3.1 |
| Proto-Plus | 1.27.0 | Protobuf | 5.29.4 | psutil | 5.9.0 |
| psycopg2 | 2.9.11 | ptyprocess | 0.7.0 | puro-eval | 0.2.2 |
| Pyarrow | 21.0.0 | pyasn1 | 0.4.8 | pyasn1-módulos | 0.2.8 |
| pyccolo | 0.0.71 | Pycparser | 2.21 | Pidântico | 2.10.6 |
| pydantic_core | 2.27.2 | Pyflakes | 3.2.0 | Pigmentos | 2.19.1 |
| PyGObject | 3.48.2 | pyiceberg | 0.10.0 | PyJWT | 2.10.1 |
| pyodbc | 5.2.0 | pyparsing | 3.2.0 | Pyright | 1.1.394 |
| Piroaring | 1.0.3 | Pytest | 8.3.5 | python-dateutil (uma biblioteca de software para manipulação de datas em Python) | 2.9.0.post0 |
| Python-Dotenv | 1.2.1 | python-json-logger | 3.2.1 | python-lsp-jsonrpc | 1.1.2 |
| python-lsp-servidor | 1.12.2 | pytoolconfig | 1.2.6 | Pytz | 2024.1 |
| PyYAML | 6.0.2 | Pyzmq | 26.2.0 | referenciação | 0.30.2 |
| regex | 2024.11.6 | pedidos | 2.32.3 | pedidos-cinto de ferramentas | 1.0.0 |
| rfc3339-verificador | 0.1.4 | rfc3986-validador | 0.1.1 | rico | 13.9.4 |
| corda | 1.13.0 | rpds-py | 0.22.3 | RSA | 4.9.1 |
| s3transfer | 0.14.0 | scikit-learn (biblioteca de aprendizado de máquina em Python) | 1.6.1 | SciPy | 1.15.3 |
| nascido no mar | 0.13.2 | Send2Trash | 1.8.2 | Ferramentas de configuração | 78.1.1 |
| Shellingham | 1.5.4 | seis | 1.17.0 | smmap | 5.0.0 |
| sniffio | 1.3.0 | contentores classificados | 2.4.0 | Soupsieve | 2.5 |
| SQLPARSE | 0.5.5 | ssh-import-id | 5.11 | dados de pilha | 0.6.3 |
| Starlette | 0.50.0 | strictyaml | 1.7.3 | tenacidade | 9.0.0 |
| terminado | 0.17.1 | ThreadPoolCtl | 3.5.0 | tiktoken | 0.12.0 |
| tinycss2 | 1.4.0 | tokenize_rt | 6.1.0 | Tokenizadores | 0.22.2 |
| Tomli | 2.0.1 | tornado | 6.5.1 | tqdm | 4.67.1 |
| traitlets | 5.14.3 | Protetor de Tipografia | 4.3.0 | Typer-Slim | 0.21.1 |
| types-python-dateutil | 2.9.0.20251115 | inspeção de digitação | 0.9.0 | typing_extensions (extensões de digitação) | 4.12.2 |
| tzdata | 2024.1 | Ujson | 5.10.0 | Atualizações não supervisionadas | 0.1 |
| uri-modelo | 1.3.0 | urllib3 | 2.3.0 | uuid_utils | 0.12.0 |
| uvicorn | 0.40.0 | virtualenv | 20.29.3 | wadllib | 1.3.6 |
| wcwidth | 0.2.5 | Webcolors | 25.10.0 | codificações da web | 0.5.1 |
| Websocket-cliente | 1.8.0 | whatthepatch (ferramenta para comparação de patches) | 1.0.2 | wheel | 0.45.1 |
| sempre que | 0.7.3 | widgetsnbextension | 3.6.6 | embrulhado | 1.17.0 |
| Yapf | 0.40.2 | yarl | 1.18.0 | zipp | 3.21.0 |
| zstandard | 0.23.0 |
Bibliotecas R instaladas
As bibliotecas R são instaladas a partir do snapshot CRAN do Gestor de Pacotes Posit a 20-11-2025.
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| seta | 22.0.0 | AskPass | 1.2.1 | asserir que | 0.2.1 |
| Retroportagens | 1.5.0 | base | 4.5.1 | base64enc | 0.1-3 |
| bigD | 0.3.1 | pouco | 4.6.0 | bit-64 | 4.6.0-1 |
| Bitops | 1.0-9 | blob | 1.2.4 | arranque / bota | 1.3-30 |
| fabricação de cerveja | 1.0-10 | Brio | 1.1.5 | vassoura | 1.0.10 |
| bslib | 0.9.0 | cachemira | 1.1.0 | Chamador | 3.7.6 |
| caret | 7.0-1 | CellRanger | 1.1.0 | crono | 2.3-62 |
| classe | 7.3-22 | CLI | 3.6.5 | Clipr | 0.8.0 |
| relógio | 0.7.3 | cluster | 2.1.6 | CodeTools | 0.2-20 |
| marca comum | 2.0.0 | compilador | 4.5.1 | Configurações | 0.3.2 |
| conflituoso | 1.2.0 | cpp11 | 0.5.2 | lápis de cor | 1.5.3 |
| credenciais | 2.0.3 | encaracolar | 7.0.0 | tabela de dados | 1.17.8 |
| conjuntos de dados | 4.5.1 | DBI | 1.2.3 | DBPlyr | 2.5.1 |
| descrição | 1.4.3 | DevTools | 2.4.6 | diagrama | 1.6.5 |
| diffobj | 0.3.6 | resumo | 0.6.39 | Iluminação reduzida | 0.4.5 |
| DPLYR | 1.1.4 | DTPlyr | 1.3.2 | e1071 | 1.7-16 |
| reticências | 0.3.2 | avaliar | 1.0.5 | Fansi | 1.0.7 |
| cores | 2.1.2 | mapa rápido | 1.2.0 | fontawesome | 0.5.3 |
| forçados | 1.0.1 | foreach | 1.5.2 | estrangeiro/a | 0.8 a 86 |
| fs | 1.6.6 | Futuro | 1.68.0 | futuro.apply | 1.20.0 |
| gargarejo | 1.6.0 | genérico | 0.1.4 | Gert | 2.2.0 |
| ggplot2 | 4.0.1 | GH | 1.5.0 | Git2R | 0.36.2 |
| gitcreds | 0.1.2 | glmnet | 4.1-10 | Globais | 0.18.0 |
| cola | 1.8.0 | GoogleDrive | 2.1.2 | googlesheets4 | 1.1.2 |
| Gower | 1.0.2 | gráficos | 4.5.1 | grDispositivos | 4.5.1 |
| grelha | 4.5.1 | gridExtra | 2.3 | gsubfn | 0.7 |
| gt | 1.1.0 | tabela g | 0.3.6 | capacete de segurança | 1.4.2 |
| Refúgio | 2.5.5 | mais alto | 0.11 | HMS (Navio de Sua Majestade) | 1.1.4 |
| htmltools | 0.5.8.1 | htmlwidgets (componentes HTML interativos) | 1.6.4 | httpuv | 1.6.16 |
| HTTR | 1.4.7 | httr2 | 1.2.1 | identificadores | 1.0.1 |
| ini | 0.3.1 | ipred | 0.9 a 15 | Isoband | 0.2.7 |
| iteradores | 1.0.14 | jquerylib | 0.1.4 | jsonlite | 2.0.0 |
| JuicyJuice | 0.1.0 | KernSmooth | 2.23-22 | Knitr | 1,50 |
| etiquetagem | 0.4.3 | mais tarde | 1.4.4 | treliça | 0.22-5 |
| lave | 1.8.2 | ciclo de vida | 1.0.4 | ouvir | 0.10.0 |
| litedown | 0.8 | lubridato | 1.9.4 | Magrittr | 2.0.4 |
| Marcação | 2.0 | MASSA | 7.3-60.0.1 | Matriz | 1.6-5 |
| memorização | 2.0.1 | Metodologia | 4.5.1 | mgcv | 1.9-1 |
| mime | 0,13 | miniUI | 0.1.2 | Mlflow | 3.6.0 |
| ModelMetrics | 1.2.2.2 | modelr | 0.1.11 | nlme | 3.1-164 |
| NNET | 7.3-19 | numDeriv | 2016.8 a 1.1 | openssl (conjunto de ferramentas para criptografia) | 2.3.4 |
| Otel | 0.2.0 | paralelo | 4.5.1 | Paralelamente | 1.45.1 |
| pilar | 1.11.1 | pkgbuild | 1.4.8 | pkgconfig | 2.0.3 |
| pkgdown | 2.2.0 | pkgload | 1.4.1 | plogr | 0.2.0 |
| Plyr | 1.8.9 | elogios | 1.0.0 | prettyunits | 1.2.0 |
| pROC | 1.19.0.1 | processx | 3.8.6 | Prodlim | 2025.04.28 |
| profvis | 0.4.0 | Progressos | 1.2.3 | progressr | 0.18.0 |
| promessas | 1.5.0 | prototipo | 1.0.0 | proxy | 0.4-27 |
| P.S. | 1.9.1 | purrr | 1.2.0 | R6 | 2.6.1 |
| RAGG | 1.5.0 | randomForest | 4.7-1.2 | rappdirs | 0.3.3 |
| rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 | Rcpp | 1.1.0 |
| RcppEigen | 0.3.4.0.2 | capaz de reagir | 0.4.4 | reactR | 0.6.1 |
| Readr | 2.1.6 | readxl | 1.4.5 | receitas | 1.3.1 |
| revanche | 2.0.0 | revanche2 | 2.1.2 | Dispositivos remotos | 2.5.0 |
| Exemplo Reproduzível (Reprex) | 2.1.1 | remodelar2 | 1.4.5 | rlang | 1.1.6 |
| rmarkdown | 2.30 | RODBC | 1.3-26 | roxygen2 | 7.3.3 |
| rpart (função de partição recursiva em R) | 4.1.23 | rprojroot | 2.1.1 | Rserve | 1,8-15 |
| RSQLite | 2.4.4 | rstudioapi | 0.17.1 | rversions | 3.0.0 |
| Rvest | 1.0.5 | S7 | 0.2.1 | Sass | 0.4.10 |
| escalas | 1.4.0 | seletor | 0.4-2 | Informação da sessão | 1.2.3 |
| forma | 1.4.6.1 | brilhante | 1.11.1 | ferramentas de código-fonte | 0.1.7-1 |
| sparklyr | 1.9.3 | SparkR | 4.1.0 | sparsevctrs | 0.3.4 |
| espacial | 7.3-17 | splines | 4.5.1 | sqldf | 0.4-11 |
| SQUAREM | 2021.1 | estatísticas | 4.5.1 | estatísticas4 | 4.5.1 |
| string | 1.8.7 | stringr | 1.6.0 | Sobrevivência | 3.5-8 |
| Charme | 5.17.14.1 | Sistema | 3.4.3 | fontes do sistema | 1.3.1 |
| tcltk (uma linguagem de programação) | 4.5.1 | testthat | 3.3.0 | formatação de texto | 1.0.4 |
| Tibble | 3.3.0 | tidyr | 1.3.1 | tidyselect | 1.2.1 |
| Tidyverse | 2.0.0 | mudança de hora | 0.3.0 | data e hora | 4051.111 |
| Tinytex | 0.58 | Ferramentas | 4.5.1 | tzdb | 0.5.0 |
| verificador de URL | 1.0.1 | usethis | 3.2.1 | UTF8 | 1.2.6 |
| utilitários | 4.5.1 | Identificador Único Universal (UUID) | 1.2-1 | V8 | 8.0.1 |
| VCTRS | 0.6.5 | viridisLite | 0.4.2 | vruum | 1.6.6 |
| Waldo | 0.6.2 | vibrissas | 0.4.1 | murchar | 3.0.2 |
| xfun | 0.54 | XML2 | 1.5.0 | xopen | 1.0.1 |
| xtable | 1.8-4 | yaml | 2.3.10 | Zeallot | 0.2.0 |
| ZIP | 2.3.3 |
Bibliotecas Java e Scala instaladas (versão de cluster Scala 2.13)
| ID do grupo | ID do artefato | Versão |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.15.3 |
| com.amazonaws | aws-java-sdk-autoscaling (SDK de Java da AWS - escalonamento automático) | 1.12.681 |
| com.amazonaws | AWS-Java-SDK-CloudFormation | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.681 |
| com.amazonaws | AWS Java SDK para CloudSearch | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.681 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.681 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.681 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.681 |
| com.amazonaws | aws-java-sdk-config (configuração do AWS Java SDK) | 1.12.681 |
| com.amazonaws | aws-java-sdk-core | 1.12.681 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.681 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.681 |
| com.amazonaws | aws-java-sdk-directory | 1.12.681 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.681 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.681 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.681 |
| com.amazonaws | aws-java-sdk-efs | 1.12.681 |
| com.amazonaws | aws-java-sdk-elasticache (kit de desenvolvimento de software Java para Elasticache da AWS) | 1.12.681 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (SDK Java para Elastic Beanstalk da AWS) | 1.12.681 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (SDK Java para equilíbrio de carga elástico da AWS) | 1.12.681 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.681 |
| com.amazonaws | aws-java-sdk-emr | 1.12.681 |
| com.amazonaws | aws-java-sdk-glacier (Biblioteca de armazenamento Glacier da AWS) | 1.12.681 |
| com.amazonaws | aws-java-sdk-glue | 1.12.681 |
| com.amazonaws | aws-java-sdk-iam | 1.12.681 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.681 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.681 |
| com.amazonaws | aws-java-sdk-kms | 1.12.681 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.681 |
| com.amazonaws | aws-java-sdk-logs | 1.12.681 |
| com.amazonaws | aws-java-sdk-aprendizado de máquina | 1.12.681 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.681 |
| com.amazonaws | aws-java-sdk-rds | 1.12.681 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.681 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.681 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.681 |
| com.amazonaws | AWS Java SDK para SES | 1.12.681 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.681 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.681 |
| com.amazonaws | aws-java-sdk-sns | 1.12.681 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.681 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.681 |
| com.amazonaws | aws-java-sdk-storagegateway (SDK da AWS para Storage Gateway em Java) | 1.12.681 |
| com.amazonaws | AWS-Java-SDK-STS | 1.12.681 |
| com.amazonaws | aws-java-sdk-suporte | 1.12.681 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.681 |
| com.amazonaws | jmespath-java | 1.12.681 |
| com.clearspring.analytics | fluxo | 2.9.8 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.53.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.13 | 0.4.15-11 |
| com.esotericsoftware | sombra kriogénica | 4.0.3 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | colega de turma | 1.5.1 |
| com.fasterxml.jackson.core | Jackson-Annotations | 2.18.2 |
| com.fasterxml.jackson.core | Jackson-Core | 2.18.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor (formato de dados em CBOR) | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.18.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.18.3 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.13 | 2.18.2 |
| com.github.ben-manes.cafeína | cafeína | 2.9.3 |
| com.github.blemale | scaffeine_2.13 | 4.1.0 |
| com.github.fommil | Jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1-Nativos |
| com.github.fommil.netlib | sistema_nativo-Java | 1.1 |
| com.github.fommil.netlib | sistema_nativo-Java | 1.1-Nativos |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-Nativos |
| com.github.fommil.netlib | netlib-sistema_nativo-linux-x86_64 | 1.1-Nativos |
| com.github.luben | zstd-jni | 1.5.7-6 |
| com.github.virtuald | Curvesapi | 1,08 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.api.grpc | proto-google-comum-protos | 2.5.1 |
| com.google.auth | google-auth-library-credentials | 1.20.0 |
| com.google.auth | google-auth-library-oauth2-http | 1.20.0 |
| com.google.auto.value | Anotações de auto-valor | 1.10.4 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | Gson | 2.11.0 |
| com.google.crypto.tink | Tink | 1.16.0 |
| com.google.errorprone | anotações_propensas_a_erros | 2.36.0 |
| com.google.flatbuffers | flatbuffers-java | 25.2.10 |
| com.google.guava | Falha no acesso | 1.0.3 |
| com.google.guava | Goiaba | 33.4.8-JRE |
| com.google.http-client | google-http-client | 1.43.3 |
| com.google.http-client | google-http-client-gson | 1.43.3 |
| com.google.j2objc | j2objc-anotações | 3.0.0 |
| com.google.protobuf | protobuf-java | 3.25.5 |
| com.google.protobuf | protobuf-java-util | 3.25.5 |
| com.helger | gerador de perfis | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.lihaoyi | sourcecode_2.13 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK para Azure Data Lake Store) | 2.3.10 |
| com.microsoft.sqlserver | MSSQL-JDBC | 12.8.0.jre11 |
| com.microsoft.sqlserver | MSSQL-JDBC | 12.8.0.jre8 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | JAXB-CORE | 2.2.11 |
| com.sun.xml.bind | JAXB-IMPL | 2.2.11 |
| com.tdunning | Json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.13 | 0.4.13 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.13 | 0.10.0 |
| com.twitter | util-app_2.13 | 19.8.1 |
| com.twitter | util-core_2.13 | 19.8.1 |
| com.twitter | util-function_2.13 | 19.8.1 |
| com.twitter | util-jvm_2.13 | 19.8.1 |
| com.twitter | util-lint_2.13 | 19.8.1 |
| com.twitter | util-registry_2.13 | 19.8.1 |
| com.twitter | util-stats_2.13 | 19.8.1 |
| com.typesafe | Configurações | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.13 | 3.9.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | analisadores de univocidade | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| com.zaxxer | SparseBitSet | 1.3 |
| commons-cli | commons-cli | 1.10.0 |
| commons-codec | commons-codec | 1.19.0 |
| Commons Collections | Commons Collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload (upload de ficheiros comuns) | commons-fileupload (upload de ficheiros comuns) | 1.6.0 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.21.0 |
| commons-lang | commons-lang | 2.6 |
| registo de comuns | registo de comuns | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | ARPACK | 3.0.4 |
| dev.ludovic.netlib | Blas | 3.0.4 |
| dev.ludovic.netlib | LAPACK | 3.0.4 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compressor de ar | 2.0.2 |
| IO.Delta | delta-sharing-client_2.13 | 1.3.9 |
| io.dropwizard.metrics | métricas e anotação | 4.2.37 |
| io.dropwizard.metrics | métricas-base | 4.2.37 |
| io.dropwizard.metrics | metrics-graphite | 4.2.37 |
| io.dropwizard.metrics | métricas e verificações de saúde | 4.2.37 |
| io.dropwizard.metrics | metrics-jetty10 | 4.2.37 |
| io.dropwizard.metrics | Métricas JMX | 4.2.37 |
| io.dropwizard.metrics | métricas em formato JSON | 4.2.37 |
| io.dropwizard.metrics | métricas do JVM | 4.2.37 |
| io.dropwizard.metrics | Métricas-Servlets | 4.2.37 |
| io.github.java-diff-utils | java-diff-utils | 4.15 |
| io.netty | netty-all | 4.2.7. Final |
| io.netty | netty-buffer | 4.2.7. Final |
| io.netty | netty-codec | 4.2.7. Final |
| io.netty | netty-codec-base | 4.2.7. Final |
| io.netty | netty-codec-classes-quic | 4.2.7. Final |
| io.netty | nety-codec-compressão | 4.2.7. Final |
| io.netty | netty-codec-http | 4.2.7. Final |
| io.netty | netty-codec-http2 | 4.2.7. Final |
| io.netty | netty-codec-http3 | 4.2.7. Final |
| io.netty | Netty-codec-marshalling | 4.2.7. Final |
| io.netty | netty-codec-native-quic | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-osx-aarch_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-osx-x86_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-windows-x86_64 |
| io.netty | netty-codec-protobuf | 4.2.7. Final |
| io.netty | netty-codec-socks | 4.2.7. Final |
| io.netty | netty-comum | 4.2.7. Final |
| io.netty | Netty Handler | 4.2.7. Final |
| io.netty | netty-handler-proxy | 4.2.7. Final |
| io.netty | netty-resolver (resolução do Netty) | 4.2.7. Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.74.Final |
| io.netty | Netty-Transport | 4.2.7. Final |
| io.netty | netty-transport-classes-epoll | 4.2.7. Final |
| io.netty | netty-transport-classes-io_uring | 4.2.7. Final |
| io.netty | netty-transport-classes-kqueue | 4.2.7. Final |
| io.netty | netty-transport-native-epoll | 4.2.7. Final |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-riscv64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.2.7.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.2.7.Final-osx-x86_64 |
| io.netty | netty-transport-nativo-unix-comum | 4.2.7. Final |
| io.opencensus | OpenCensus-API | 0.31.1 |
| io.opencensus | opencensus-contrib-http-util | 0.31.1 |
| io.prometeu | simpleclient | 0.16.1-databricks |
| io.prometeu | simpleclient_comum | 0.16.1-databricks |
| io.prometeu | simpleclient_dropwizard | 0.16.1-databricks |
| io.prometeu | simpleclient_pushgateway | 0.16.1-databricks |
| io.prometeu | simpleclient_servlet | 0.16.1-databricks |
| io.prometeu | simpleclient_servlet_common | 0.16.1-databricks |
| io.prometeu | simpleclient_tracer_common | 0.16.1-databricks |
| io.prometeu | simpleclient_tracer_otel | 0.16.1-databricks |
| io.prometeu | simpleclient_tracer_otel_agente | 0.16.1-databricks |
| io.prometheus.jmx | recoletor | 0.18.0 |
| jacarta.anotação | jakarta.annotation.api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| Jakarta.validação | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.ativação | ativação | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.media | jai_core | jai_core_dummy |
| javax.transaction | jta | 1.1 |
| javax.transaction | API de transação | 1.1 |
| javax.xml.bind | JAXB-API | 2.2.11 |
| Javolution | Javolution | 5.5.1 |
| Jline | Jline | 2.14.6 |
| joda-time | joda-time | 2.14.0 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | conserva | 1.5 |
| net.sf.jpam | JPAM | 1.1 |
| net.sf.opencsv | OpenCSV | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.floco de neve | Snowflake Ingest SDK | 0.9.6 |
| net.sourceforge.f2j | arpack_combinado_tudo | 0.1 |
| org.acplt.remotetea | Remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | ANTLR Runtime | 3.5.2 |
| org.antlr | antlr4-tempo de execução | 4.13.1 |
| org.antlr | StringTemplate | 3.2.1 |
| org.apache.ant | formiga | 1.10.11 |
| org.apache.ant | ANT-JSCH | 1.10.11 |
| org.apache.ant | lançador de formigas | 1.10.11 |
| org.apache.arrow | compressão de flechas | 18.3.0 |
| org.apache.arrow | formato de flecha | 18.3.0 |
| org.apache.arrow | núcleo de memória Arrow | 18.3.0 |
| org.apache.arrow | Arrow-Memory-Netty | 18.3.0 |
| org.apache.arrow | "patch-do-buffer-da-memória-arrow-netty" | 18.3.0 |
| org.apache.arrow | vetor gráfico de seta | 18.3.0 |
| org.apache.avro | Avro | 1.12.1 |
| org.apache.avro | AVRO-IPC | 1.12.1 |
| org.apache.avro | avro-mapred | 1.12.1 |
| org.apache.commons | colecções-commons4 | 4.5.0 |
| org.apache.commons | commons-compress | 1.28.0 |
| org.apache.commons | commons-configuration2 | 2.11.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.19.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-texto | 1.14.0 |
| org.apache.curador | curador-cliente | 5.9.0 |
| org.apache.curador | Framework de Curadoria | 5.9.0 |
| org.apache.curador | curador de receitas | 5.9.0 |
| org.apache.datasketches | Datasketches-Java | 6.2.0 |
| org.apache.datasketches | datasketches-memória | 3.0.2 |
| org.apache.derby | Dérbi | 10.14.2.0 |
| org.apache.hadoop | tempo de execução do cliente Hadoop | 3.4.2 |
| org.apache.hive | colmeia-abelha | 2.3.10 |
| org.apache.hive | Hive-CLI | 2.3.10 |
| org.apache.hive | Hive-JDBC | 2.3.10 |
| org.apache.hive | hive-llap-cliente | 2.3.10 |
| org.apache.hive | hive-llap-common | 2.3.10 |
| org.apache.hive | Hive-Serde | 2.3.10 |
| org.apache.hive | colmeias-calços | 2.3.10 |
| org.apache.hive | API de armazenamento Hive | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.10 |
| org.apache.hive.shims | colmeia-calços-comum | 2.3.10 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.10 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | hera | 2.5.3 |
| org.apache.logging.log4j | log4j-1.2-api | 2.24.3 |
| org.apache.logging.log4j | log4j-api | 2.24.3 |
| org.apache.logging.log4j | log4j-core | 2.24.3 |
| org.apache.logging.log4j | log4j-layout-esquema-json | 2.24.3 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.24.3 |
| org.apache.orc | orc-core | 2.2.0-protobuf sombreado |
| org.apache.orc | formato ORC | 1.1.1-protobuf sombreado |
| org.apache.orc | orc-mapreduce | 2.2.0-protobuf sombreado |
| org.apache.orc | Orc-cunhas | 2.2.0 |
| org.apache.poi | POI | 5.4.1 |
| org.apache.poi | poi-ooxml | 5.4.1 |
| org.apache.poi | poi-ooxml-completo | 5.4.1 |
| org.apache.poi | poi-ooxml-lite | 5.4.1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.16.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.1 |
| org.apache.xbean | xbean-asm9-sombreado | 4.28 |
| org.apache.xmlbeans | xmlbeans | 5.3.0 |
| org.apache.yetus | anotações da audiência | 0.13.0 |
| org.apache.zookeeper | cuidador de zoológico | 3.9.4 |
| org.apache.zookeeper | guarda de zoológico-juta | 3.9.4 |
| org.checkerframework | verificador de qualidade | 3.43.0 |
| org.codehaus.janino | compilador comum | 3.0.16 |
| org.codehaus.janino | Janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | DataNucleus Core | 4.1.17 |
| org.datanucleus | Datanucleus-RDBMS | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-alpn-client | 10.0.26 |
| org.eclipse.jetty | Jetty-Cliente | 10.0.26 |
| org.eclipse.jetty | Jetty-HTTP | 10.0.26 |
| org.eclipse.jetty | jetty-io | 10.0.26 |
| org.eclipse.jetty | jetty-jndi | 10.0.26 |
| org.eclipse.jetty | Jetty Plus | 10.0.26 |
| org.eclipse.jetty | Jetty-Proxy | 10.0.26 |
| org.eclipse.jetty | Segurança do Jetty | 10.0.26 |
| org.eclipse.jetty | servidor jetty | 10.0.26 |
| org.eclipse.jetty | jetty-servlet | 10.0.26 |
| org.eclipse.jetty | jetty-servlets | 10.0.26 |
| org.eclipse.jetty | Jetty-util | 10.0.26 |
| org.eclipse.jetty | Aplicação web Jetty | 10.0.26 |
| org.eclipse.jetty | Jetty-XML | 10.0.26 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | HK2-Localizador | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | localizador de recursos OSGi | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-reembalado | 2.6.1 |
| org.glassfish.hk2.external | jacarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet (serviço de contêiner Jersey) | 2.41 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.41 |
| org.glassfish.jersey.core | jersey-client | 2.41 |
| org.glassfish.jersey.core | Jersey comum | 2.41 |
| org.glassfish.jersey.core | servidor Jersey | 2.41 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.41 |
| org.hibernate.validator | hibernate-validator (ferramenta de validação de dados de Java) | 6.2.5.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | Javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.4.1.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jline | Jline | 3.27.1-JDK8 |
| org.joda | joda-converter | 1.7 |
| org.json4s | json4s-ast_2.13 | 4.0.7 |
| org.json4s | JSON4S-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson-core_2,13 | 4.0.7 |
| org.json4s | json4s-jackson_2.13 | 4.0.7 |
| org.json4s | JSON4S-scalap_2.13 | 4.0.7 |
| org.locationtech.jts | JTS-core | 1.20.0 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2,13 | 2.22.1 |
| org.objenesis | objenesis | 3.4 |
| org.postgresql | PostgreSQL | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 1.2.1 |
| org.rocksdb | rocksdbjni | 9.8.4 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | Escala-compiler_2,13 | 2.13.16 |
| org.scala-lang | scala-library_2.13 | 2.13.16 |
| org.scala-lang | scala-reflect_2.13 | 2.13.16 |
| org.scala-lang.modules | scala-collection-compat_2.13 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.13 | 0.9.1 |
| org.scala-lang.modules | scala-parallel-collections_2.13 | 1.2.0 |
| org.scala-lang.modules | scala-parser-combinators_2.13 | 2.4.0 |
| org.scala-lang.modules | scala-xml_2.13 | 2.4.0 |
| org.scala-sbt | interface de teste | 1.0 |
| org.scalacheck | scalacheck_2.13 | 1.18.0 |
| org.scalactic | scalactic_2.13 | 3.2.19 |
| org.scalanlp | breeze-macros_2.13 | 2.1.0 |
| org.scalanlp | breeze_2.13 | 2.1.0 |
| org.scalatest | compatível com scalatest | 3.2.19 |
| org.scalatest | scalatest-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-diagrams_2.13 | 3.2.19 |
| org.scalatest | scalatest-featurespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-flatspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-freespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funsuite_2.13 | 3.2.19 |
| org.scalatest | scalatest-matchers-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-mustmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-propspec_2.13 | 3.2.19 |
| org.scalatest | escalatest-refspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-shouldmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-wordspec_2.13 | 3.2.19 |
| org.scalatest | scalatest_2.13 | 3.2.19 |
| org.slf4j | jcl-compatível-com-slf4j | 2.0.16 |
| org.slf4j | jul-para-slf4j | 2.0.16 |
| org.slf4j | SLF4J-API | 2.0.16 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.8.0 |
| org.tukaani | xz | 1.10 |
| org.typelevel | algebra_2.13 | 2.8.0 |
| org.typelevel | cats-kernel_2.13 | 2.8.0 |
| org.typelevel | spire-macros_2.13 | 0.18.0 |
| org.typelevel | spire-platform_2.13 | 0.18.0 |
| org.typelevel | spire-util_2.13 | 0.18.0 |
| org.typelevel | spire_2.13 | 0.18.0 |
| org.wildfly.openssl | WildFly-OpenSSL | 1.1.3.Final |
| org.xerial | SQLITE-JDBC | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | Snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.5.0-linux-x86_64 |
| Stax | stax-api | 1.0.1 |