Partilhar via


Databricks Runtime 18.1 (Beta)

As notas de atualização seguintes fornecem informações sobre o Databricks Runtime 18.1 (Beta).

Esta versão incorpora todas as funcionalidades, melhorias e correções de bugs de todas as versões anteriores do Databricks Runtime. A Databricks lançou esta versão em fevereiro de 2026.

Importante

O Databricks Runtime 18.1 está em Beta. O conteúdo dos ambientes suportados pode mudar durante a versão Beta. As alterações podem incluir a lista de pacotes ou versões de pacotes instalados.

Novos recursos e melhorias

O Auto Loader utiliza eventos de ficheiros por padrão quando disponíveis

O Auto Loader utiliza eventos de ficheiro por defeito ao carregar a partir de uma localização externa com eventos de ficheiro ativados, o que reduz as operações de lista e o custo em comparação com a listagem de diretórios. Consulte Visão geral do carregador automático com eventos de arquivo. Os eventos do ficheiro não são usados se o código do teu stream definir useIncrementalListing ou useNotifications. Para usar a listagem de diretórios em vez disso, defina useManagedFileEvents para false.

Gravações otimizadas para tabelas particionadas do Unity Catalog criadas com CRTAS

Escritas otimizadas aplicam-se a tabelas particionadas do Unity Catalog criadas por CREATE OR REPLACE TABLE ... AS SELECT (CRTAS), produzindo menos ficheiros e de maior tamanho. Este comportamento está ativado por defeito. Para desativar, definir spark.databricks.delta.optimizeWrite.UCTableCRTAS.enabled para false.

Suporte ao tipo de dados DATETIMEOFFSET para Microsoft Azure Synapse

O DATETIMEOFFSET tipo de dado é suportado para ligações Microsoft Azure Synapse.

Comentários nas tabelas do BigQuery no Google

As descrições das tabelas do Google BigQuery são resolvidas e expostas como comentários em tabelas.

Evolução do esquema com INSERT declarações

Use a WITH SCHEMA EVOLUTION cláusula com instruções SQL INSERT para evoluir automaticamente o esquema da tabela de destino durante as operações de inserção. A cláusula é suportada para INSERT INTO, INSERT OVERWRITE, e INSERT INTO ... REPLACE formas. Por exemplo:

INSERT WITH SCHEMA EVOLUTION INTO students TABLE visiting_students_with_additional_id;

O esquema da tabela Delta Lake alvo é atualizado para acomodar colunas adicionais ou tipos alargados a partir da fonte. Para detalhes, veja evolução do esquema e INSERT sintaxe das sentenças.

Valores de struct NULL preservados em INSERT operações

INSERT As operações com evolução de esquema ou conversão implícita preservam os valores de struct quando as tabelas de origem e destino têm diferentes ordens de campo de struct.

Suporte a transações multi-declaração com Delta Sharing

As tabelas de partilha Delta que utilizam modos de partilha de URL pré-assinadas ou de token de nuvem suportam transações com múltiplas instruções. No primeiro acesso dentro de uma transação, a versão da tabela é fixada e reutilizada para todas as leituras subsequentes nessa transação.

Limitations:

  • Viagens no tempo, feed de alterações de dados e streaming não são suportados.
  • Transações com múltiplos extratos não são suportadas em tabelas partilhadas sem histórico.
  • Opiniões partilhadas e entidades estrangeiras não são permitidas em computação não confiável.

Pontos de verificação de DataFrames em caminhos de volume

Os checkpoints de DataFrame suportam caminhos de volume do Unity Catalog. Configura o caminho do ponto de controlo usando SparkContext.setCheckpointDir na computação dedicada ou a spark.checkpoint.dir na computação padrão.

Os comandos SQL já não são reexecutados ao chamar cache()

Os comandos SQL já não são reexecutados quando se chama .cache() no DataFrame resultante. Isto inclui comandos como SHOW TABLES e SHOW NAMESPACES.

parse_timestamp Função SQL

A parse_timestamp função SQL analisa strings de marca temporal contra múltiplos padrões. É fotonizado para uma avaliação mais rápida com carimbos temporais em vários formatos. Consulte Padrões de data-hora para informações sobre a formatação dos padrões de data-hora.

Suporte de cursor SQL em instruções compostas

Script SQL Agora, instruções compostas suportam o processamento de cursores. Use o DECLARE CURSOR para definir um cursor, depois a instrução OPEN, a instrução FETCH e a instrução CLOSE para executar a consulta e consumir linhas uma de cada vez. Os cursores podem usar marcadores de parâmetros e manipuladores de condições, como NOT FOUND para processamento linha a linha.

Funções aproximadas de esboço top-k

Novas funções permitem construir e combinar esboços top-K aproximados para agregação top-K distribuída:

  • approx_top_k_accumulate: Constrói um esboço por grupo. Consulte a função agregada approx_top_k_accumulate.
  • approx_top_k_combine: Funde esboços. Consulte a função agregada approx_top_k_combine.
  • approx_top_k_estimate: Devolve os K itens principais com contagens estimadas. Consulte a função approx_top_k_estimate.

Para mais informações, consulte approx_top_k função agregada e funções incorporadas.

Funções de esboço de tuplas

Novas funções agregadas e escalares para esboços de tuplas suportam contagem e agregação distintas sobre pares resumo de chaves.

Funções agregadas:

Funções escalares:

  • tuple_sketch_estimate
  • tuple_sketch_summary
  • tuple_sketch_theta
  • tuple_union
  • tuple_intersection
  • tuple_difference

Ver Funções integradas.

Mudanças comportamentais

Cláusula FILTER para funções agregadas da MEASURE

Agora, as funções agregadas MEASURE suportam cláusulas FILTER. Anteriormente, os filtros eram silenciosamente ignorados.

Gravações otimizadas para operações CRTAS do Unity Catalog

CRIAR OU SUBSTITUIR TABLE As operações AS SELECT (CRTAS) em tabelas particionadas do Unity Catalog aplicam agora escritas otimizadas por defeito. Para desativar, definir spark.databricks.delta.optimizeWrite.UCTableCRTAS.enabled para false.

Atualização do cache DataFrame para tabelas de controlo de acesso detalhadas

Escrever em tabelas de controlo de acesso granular em computação dedicada agora atualiza DataFrames em cache que dependem dessa tabela.

Os valores das partições de carimbo temporal utilizam o fuso horário da sessão

Os valores de partição de timestamp utilizam o fuso horário da sessão do Spark em vez do fuso horário do JVM. Se tiver partições com carimbo temporal escritas antes do Databricks Runtime 18.0, execute SHOW PARTITIONS para verificar os metadados da partição antes de escrever novos dados.

Palavra-chave reservada DESCRIBE FLOW

O DESCRIBE FLOW comando está agora disponível. Se tiver uma tabela com nome flow, use DESCRIBE schema.flow, DESCRIBE TABLE flow, ou DESCRIBE `flow` com backticks.

Melhoria do desempenho das operações geoespaciais

As operações de conjuntos booleanos geoespaciais utilizam uma nova implementação com desempenho melhorado. Pequenas diferenças de precisão podem ocorrer após a 15.ª decimal.

Tipos de exceção para SQLSTATE

Os tipos de exceção são atualizados para suportar SQLSTATE. Se o teu código analisa exceções por correspondência de strings ou apanha tipos específicos de exceções, atualiza a lógica de gestão de erros.

Alargamento automático do tipo de transmissão

As leituras em streaming nas tabelas Delta gerem automaticamente o alargamento dos tipos de coluna. Para exigir reconhecimento manual, defina spark.databricks.delta.typeWidening.enableStreamingSchemaTracking para true.

Atualizações da biblioteca

Nenhuma biblioteca foi atualizada nesta versão.

Apache Spark

O Databricks Runtime 18.1 inclui o Apache Spark 4.1.0. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 18.0, bem como as seguintes correções adicionais de bugs e melhorias feitas ao Spark:

  • SPARK-55350 Corrigir a perda de contagem de linhas ao criar DataFrame a partir de pandas com 0 colunas
  • SPARK-55364 Fazer com que os protocolos SupportsIAdd e SupportsOrdering sejam mais razonáveis
  • SPARK-53656 Refatorar o MemoryStream para usar o SparkSession em vez de SQLContext
  • SPARK-55472 Levantar AttributeError a partir de métodos removidos no pandas 3
  • SPARK-55224 Usar o Spark DataType como referência principal na serialização Pandas-Arrow
  • SPARK-55402 Mover streamingSourceIdentififyingName do CatalogTable para DataSource
  • SPARK-55459 Corrigir regressão de desempenho 3x no applyInPandas para grupos grandes
  • SPARK-55317 Adicionar o nó lógico do plano SequentialUnion e a regra de planeamento
  • SPARK-55424 Passe explicitamente o nome da série em convert_numpy
  • SPARK-55175 Extrair o transformador dos serializadores
  • SPARK-55304 Introduzir suporte para Admission Control e Trigger.AvailableNow na fonte de dados Python - leitor de streaming
  • SPARK-55382 Configurar Executor para registar Running Spark version
  • SPARK-55408 Lidar com erros inesperados de argumentos de palavras-chave relacionados com datetime com pandas 3
  • SPARK-55345 Não passar unidade e fechado para Timedelta para pandas 3
  • SPARK-54759 Proteger corretamente a lógica no Gestor de Variáveis de Scripting após a introdução do cursor
  • SPARK-55409 Lidar com um erro inesperado de argumento de palavra-chave do read_excel com pandas 3
  • SPARK-55403 Corrigir no attribute 'draw' erro nos testes de gráfico com pandas 3
  • SPARK-55256 Reversão de "[SC-218596][SQL] Suporte para IGNORE NULLS / RESPECT NULLS para array_agg e collect_list"
  • SPARK-55256 Apoia IGNORAR OS NULLS / RESPEITAR OS NULLS para array_agg e collect_list
  • SPARK-55395 Desativar a cache RDD em DataFrame.zipWithIndex
  • SPARK-55131 Introduzir um novo delimitador do operador de fusão para RocksDB como uma cadeia de caracteres vazia para concatenar sem delimitador
  • SPARK-55376 Tornar o argumento numeric_only nas funções groupby aceitar apenas booleano no pandas 3
  • SPARK-55334 Habilitar TimestampType e TimestampNTZType em convert_numpy
  • SPARK-55281 Adicionar ipykernel e IPython à lista de pacotes opcionais do mypy
  • SPARK-55336 Deixe o createDF usar create_batch lógica para desacoplamento
  • SPARK-55366 Remover errorOnDuplicatedFieldNames dos UDFs em Python
  • SPARK-54759 Suporte a cursores para scripts SQL
  • SPARK-55302 Corrigir métricas personalizadas no caso de KeyGroupedPartitioning
  • SPARK-55228 Implementar o Dataset.zipWithIndex na API Scala
  • SPARK-55373 Melhorar a mensagem de erro "noHandlerFoundForExtension"
  • SPARK-55356 Alias de suporte para PIVOT cláusula
  • SPARK-55359 Promover TaskResourceRequest para Stable
  • SPARK-55365 Generalizar as utilidades para conversão de array de setas
  • SPARK-55106 Adicionar Teste de Integração de Repartição para Operadores TransformWithState
  • SPARK-55086 Adicionar DataSourceReader.pushFilters à documentação da API de Python Data Source
  • SPARK-46165 Adicionar suporte para DataFrame.all com axis=None
  • SPARK-55289 Revertir "[SC-218749][SQL] Corrigir in-set-operations.sql de teste instável desativando a junção broadcast"
  • SPARK-55297 Restaurar o dtype timedelta com base no dtype original
  • SPARK-55291 Pré-processar os cabeçalhos de metadados no momento da construção do interceptor do cliente
  • SPARK-55155 Reaplicar "[SC-218401][SQL] Suportar expressões flexíveis na instrução SET CATALOG"
  • SPARK-55318 Otimizações de Desempenho para vector_avg/vector_sum
  • SPARK-55295 Estenda a função ST_GeomFromWKB para assumir um valor SRID opcional
  • SPARK-55280 Adicionar o proto GetStatus para suportar a monitorização do estado da execução
  • SPARK-54969 Implementar nova conversão arrow-pandas>
  • SPARK-55176 Extrair arrow_to_pandas conversor em ArrowArrayToPandasConversion
  • SPARK-55111 Reverter "[SC-217817][SC-210791][SS] Deteção de repartição incompleta ao reiniciar a consulta"
  • SPARK-55252 Melhorar HttpSecurityFilter para adicionar Content-Security-Policy cabeçalho
  • SPARK-55111 Deteção de reparticionamento incompleto no reinício da consulta
  • SPARK-55105 Adicionar Teste de Integração para Operador de Junção
  • SPARK-55260 Implementar suporte de escrita Parquet para tipos Geo
  • SPARK-54523 Corrigir a resolução padrão durante o pushdown da variante
  • SPARK-55328 Reutilizar PythonArrowInput.codec em GroupedPythonArrowInput
  • SPARK-55246 Adicionar Teste para Pyspark TWS e TWSInPandas e Corrigir o erro no StatePartitionAllColumnFamiliesWriter
  • SPARK-55289 Corrigir o teste instável in-set-operations.sql desativando o broadcast join
  • SPARK-55040 Refatorar o TaskContext e o protocolo de trabalho relacionado com o Engine Pyspark Fix.
  • SPARK-47996 suporta fusão cruzada na API do pandas
  • SPARK-55031 Adicionar expressões de funções de agregação de média/soma de vetores
  • SPARK-54410 Correção do suporte de leitura para a anotação de tipo lógico variante
  • SPARK-54776 Revertir "[SC-216482][SQL] Melhorada a mensagem dos logs relativamente à função lambda com SQL UDF"
  • SPARK-55123 Adicionar SequentialUnionOffset para rastrear processamento sequencial de origem
  • SPARK-54972 Melhorar subconsultas NOT IN com colunas não anuláveis
  • SPARK-54776 Melhorei a mensagem dos logs relativa à função lambda com SQL UDF
  • SPARK-53807 Resolver problemas de condição de corrida entre unlock e releaseAllLocksForTask em BlockInfoManager
  • SPARK-51831 Revert "[SC-207389][SQL] Poda de colunas com existsJoin para Datasource V2"
  • SPARK-54881 Melhorar BooleanSimplification para lidar com a negação da conjunção e disjunção em uma única passagem
  • SPARK-54696 Limpeza de ArrowBuffers em Connect
  • SPARK-55009 Remover cópias de memória desnecessárias do construtor de LevelDBTypeInfo/RocksDBTypeInfo.Index
  • SPARK-54877 Tornar configurável a exibição do stacktrace na página de erro da UI
  • SPARK-51831 Poda de colunas com existsJoin para Datasource V2
  • SPARK-55285 Fixar a inicialização de PythonArrowInput
  • SPARK-53960 Deixe approx_top_k_accumulate/combinar/estimar tratar dos NULLs
  • SPARK-49110 Simplificar o SubqueryAlias.metadataOutput para propagar sempre as colunas de metadados
  • SPARK-55155 Reverter "[SC-218401][SQL] Suporta expressões dobráveis na SET CATALOG instrução"
  • SPARK-55155 Suportar expressões dobráveis na SET CATALOG instrução
  • SPARK-49110 Revertir "[SC-218594][SQL] Simplificar SubqueryAlias.metadataOutput para propagar sempre as colunas de metadados"
  • SPARK-54399 Implementar a função st_setsrid no Scala e no PySpark
  • SPARK-49110 Simplificar SubqueryAlias.metadataOutput para propagar sempre as colunas de metadados
  • SPARK-55133 Corrigir condição de corrida na gestão do ciclo de vida do IsolatedSessionState
  • SPARK-55262 Bloquear tipos Geo em todas as fontes de dados baseadas em ficheiro, exceto Parquet
  • SPARK-54202 Permitir a conversão de GeometryType(srid) para GeometryType(ANY)
  • SPARK-54142 Implementar a função st_srid no Scala e no PySpark
  • SPARK-54887 Define sempre um estado SQL no cliente Spark Connect
  • SPARK-55237 Suprimir mensagens irritantes ao procurar bases de dados inexistentes
  • SPARK-55040 Reverter "[SC-217628][PYTHON] Refactorar TaskContext e protocolo de trabalho relacionado"
  • SPARK-55243 Permitir a definição de cabeçalhos binários através do sufixo -bin no cliente Scala Connect
  • SPARK-55259 Implementar conversão de esquemas Parquet para tipos de dados geoespaciais
  • SPARK-55282 Evite usar worker_util no lado do condutor
  • SPARK-54151 Introduza a estrutura para adicionar funções ST no PySpark
  • SPARK-55194 Remover o GroupArrowUDFSerializer e mover a lógica de flatten para o mapper
  • SPARK-55020 Desativar o gc ao executar o comando gRPC
  • SPARK-55053 Refatorar fontes de dados/trabalhadores de análise UDTF para que tenham um ponto de entrada unificado
  • SPARK-55040 Refatoração do TaskContext e do protocolo do trabalhador relacionado
  • SPARK-55244 Use np.nan como valor padrão para os tipos de strings do pandas
  • SPARK-55225 Restaurar ao dtype original para o Datetime
  • SPARK-55154 Remover fastpath para pd.Series para pandas 3
  • SPARK-55030 Adicionar suporte à norma vetorial/função de normalização de expressões
  • SPARK-55202 Corrige UNEXPECTED_USE_OF_PARAMETER_MARKER ao usar param...
  • SPARK-54201 Permitir o casting de GeographyType(srid) para GeographyType(ANY)
  • SPARK-54244 Introdução do suporte à coerção de tipos para tipos de dados GEOMETRY
  • SPARK-54160 Implementar a expressão ST_SetSrid em SQL
  • SPARK-55046 O PySpark adiciona uma métrica de tempo de processamento UDF
  • SPARK-54101 Introduza a estrutura para adicionar funções ST no Scala
  • SPARK-54683 Unificar o bloqueio de tipos geográficos e temporais
  • SPARK-55249 Tornar o DataFrame.toJSON capaz de devolver dataframe
  • SPARK-54521 Adicionar para e a partir do WKB para o tipo de Geometria
  • SPARK-54162 Permitir a conversão de GeographyType para GeometryType
  • SPARK-55146 API de Recheckin State Repartition para PySpark
  • SPARK-55140 Não mapear funções incorporadas para a versão numpy do pandas 3
  • SPARK-54243 Introduzir suporte para coerção de tipos para tipos de dados GEOGRÁFICOS
  • SPARK-55058 Erro de lançamento em metadados de checkpoint inconsistentes
  • SPARK-55108 Utilize as versões mais recentes dos "pandas-stubs" para a verificação de tipos
  • SPARK-54091 Implementar a expressão ST_Srid em SQL
  • SPARK-55104 Adicionar suporte ao Spark Connect para DataStreamReader.name()
  • SPARK-54996 Relatar Tempo de Chegada para registos do LowLatencyMemoryStream
  • SPARK-55118 Substituir as importações wildcard dos códigos de operação ASM
  • SPARK-54365 Adicionar Teste de Integração de Repartição para Operadores Aggregate, Dedup, FMGWS e SessionWindow
  • SPARK-55119 Corrigir o Continue Handler: prevenir INTERNAL_ERROR e a interrupção incorreta de instruções condicionais
  • SPARK-54104 Proibir a conversão de tipos geoespaciais para/de outros tipos de dados
  • SPARK-55240 Refatorar o tratamento do stacktrace do LazyTry para usar um wrapper em vez de exceções suprimidas
  • SPARK-55238 Mover a lógica de mapeamento Geo SRS de main/scala para main/java
  • SPARK-55179 Saltar a validação imediata do nome da coluna em df.col_name
  • SPARK-55055 Apoia o SparkSession.Builder.create para PySpark Classic
  • SPARK-55186 Permite que ArrowArrayToPandasConversion.convert_legacy possa retornar um pd.DataFrame
  • SPARK-54079 Introduzir a estrutura para adicionar expressões ST no Catalyst
  • SPARK-54096 Suporte ao mapeamento do Sistema de Referência Espacial no PySpark
  • SPARK-54801 Marca algumas novas configurações 4.1 como internas
  • SPARK-55146 Reverter "[SC-217936][SC-210779][SS] API de Repartição de Estado para PySpark"
  • SPARK-54559 Usa o runnerConf para passar a opção do profiler
  • SPARK-55205 Corrigir testes onde assume que o tipo de string será convertido em objeto
  • SPARK-55171 Corrigir o perfilador de memória no iter UDF
  • SPARK-55226 Reconhecer datetime e timedelta com unidades que não sejam [ns]
  • SPARK-55027 Mover writeConf para PythonWorkerUtils
  • SPARK-55197 Extrair auxiliar para desduplicar a lógica do sinal START_ARROW_STREAM
  • SPARK-54179 Adicionar suporte nativo para Apache Tuple Sketches (#190848) (#191111)
  • SPARK-55151 Corrigir RocksDBSuite testWithStateStoreCheckpointIds
  • SPARK-55146 API de Repartição de Estado para PySpark
  • SPARK-54232 Ativar serialização por setas para tipos de Geografia e Geometria
  • SPARK-53957 Suporte a GEOGRAFIA e GEOMETRIA no SpatialReferenceSystemMapper
  • SPARK-55169 Use o ArrowBatchTransformer.flatten_struct em ArrowStreamArrowUDTFSerializer
  • SPARK-55134 Correção BasicExecutorFeatureStep para lançar IllegalArgumentException por erros de configuração do CPU do executor
  • SPARK-54166 Introduza codificadores de tipos para tipos geoespaciais no PySpark
  • SPARK-55138 Corrigir convertToMapData o lançamento de um erro NullPointerException
  • SPARK-55168 Usar ArrowBatchTransformer.flatten_struct no GroupArrowUDFSerializer
  • SPARK-55032 Perfiladores refatorizados em workers.py
  • SPARK-54990 Corrigir a forma como a classproperty é implementada no session.py
  • SPARK-55076 Corrigir o problema da indicação de tipo em ml/mllib e adicionar o requisito do scipy
  • SPARK-55162 Extrair transformadores do ArrowStreamUDFSerializer
  • SPARK-55121 Adicionar DataStreamReader.name() ao Classic PySpark
  • SPARK-54887 Adicionar sqlstate opcional aos sparkthrowables
  • SPARK-54169 Introduza os tipos de Geografia e Geometria no Arrow Writer
  • SPARK-51658 Introdução dos formatos de wrapper em memória de Geometria e Geografia
  • SPARK-54110 Introdução de codificadores de tipos para tipos de Geografia e Geometria
  • SPARK-54956 Unificar a solução de reintento do shuffle indeterminado
  • SPARK-55137 Refatorar o GroupingAnalyticsTransformer e o Analyzer código
  • SPARK-54103 Introduzir classes de Geografia e Geometria do lado do cliente
  • SPARK-55160 Passar diretamente o esquema de entrada aos serializadores
  • SPARK-55170 Extrair padrão de leitura de fluxos agrupados a partir de serializadores
  • SPARK-55125 Eliminar métodos redundantes nos serializadores Arrow
  • SPARK-55126 Remover fusos horários e assign_cols_by_name não utilizados do ArrowStreamArrowUDFSerializer
  • SPARK-54980 Converter o nível de isolamento JDBC numa string
  • SPARK-55051 A cadeia de bytes aceita KiB, MiB, GiB, TiB, PiB
  • SPARK-55025 Melhore o desempenho em pandas utilizando a compreensão de listas
  • SPARK-46165 Adicionar suporte a pandas.DataFrame.all axis=1
  • SPARK-55037 Reimplementar a observação sem usar o QueryExecutionListener
  • SPARK-54965 Considere o legado PA. Array -> PD. Conversor em série
  • SPARK-55016 Tornar o SQLConf uma propriedade direta do SparkSession para evitar o excesso de stack
  • SPARK-55091 Reduzir chamadas RPC do Hive para o comando DROP TABLE
  • SPARK-55097 Correção: readicionar artefactos em cache elimina blocos silenciosamente
  • SPARK-55026 Otimize o BestEffortLazyVal.
  • SPARK-55091 Reverter "[SC-217410][SQL] Reduzir as chamadas de RPC do Hive para o comando DROP TABLE"
  • SPARK-54590 Suporte ao Checkpoint V2 para Reescrita e Reparticionamento de Estado
  • SPARK-55016 Tornar o SQLConf uma propriedade direta do SparkSession para evitar o excesso de stack
  • SPARK-55091 Reduzir chamadas RPC do Hive para o comando DROP TABLE
  • SPARK-55016 Reverter a alteração "[SC-217401][SQL] Tornar o SQLConf uma propriedade direta do SparkSession para evitar stack overflow"
  • SPARK-55016 Tornar o SQLConf uma propriedade direta do SparkSession para evitar o excesso de stack
  • SPARK-55098 UDFs vetorizados com controlo de tamanho de lote de saída falham devido a fuga de memória
  • SPARK-54824 Adicionar suporte para multiGet e deleteRange para Rocksdb State Store
  • SPARK-55054 Adicionar suporte IDENTIFIED BY para funções de tabela em streaming
  • SPARK-55029 Propagar o nome identificador da fonte de streaming através do pipeline de resolução
  • SPARK-55071 Fazer o spark.addArtifact funcionar com os caminhos do Windows
  • SPARK-54103 Reverter "[SC-210400][Geo][SQL] Introduzir classes de Geografia e Geometria do lado do cliente"
  • SPARK-54103 Introduzir classes de Geografia e Geometria no lado do cliente
  • SPARK-54033 Introduza as classes de execução geoespacial Catalyst do lado do servidor
  • SPARK-54176 Introduza os tipos de dados de Geografia e Geometria no PySpark Connect
  • SPARK-55089 Corrigir o esquema de saída do toJSON
  • SPARK-55035 Realizar limpeza de embaralhamento em execuções de subprocessos
  • SPARK-55036 Adicionar ArrowTimestampConversion para gestão de fusos horários de setas
  • SPARK-55090 Implementar DataFrame.toJSON em Cliente Python
  • SPARK-54873 Simplifique a resolução do V2TableReference, pois só a vista temporária pode contê-la
  • SPARK-52828 Tornar o hashing para strings ordenadas independente da colação
  • SPARK-54175 Adicionar Tipos de Geografia e Geometria ao protocolo do Spark Connect
  • SPARK-54961 Introdução GroupingAnalyticsTransformer
  • SPARK-55088 Mantém os metadados em/from_arrow_type/esquema
  • SPARK-55070 Permitir coluna oculta na resolução da coluna do dataframe
  • SPARK-55044 Mantém os metadados em toArrowSchema/fromArrowSchema
  • SPARK-55043 Fixar viagem no tempo com subquery contendo referências de tabela
  • SPARK-54987 Mude o valor padrão de prefer_timestamp_ntz para Verdadeiro em from_arrow_type/from_arrow_schema
  • SPARK-54866 Refatorar a função de eliminação/atualização para evitar pesquisas no catálogo
  • SPARK-55024 Use o erro REQUIRES_SINGLE_PART_NAMESPACE para validação do namespace do catálogo de sessões
  • SPARK-54992 Substitua o cast por uma verificação de tempo de execução para make_timestamp
  • SPARK-55024 Reverter "[SC-216987][SQL] Usar erro REQUIRES_SINGLE_PART_NAMESPACE para validação do namespace do catálogo de sessões"
  • SPARK-54866 Reverter "[SC-216753][SQL] Refatorar Drop/RefreshFunction para evitar consulta ao catálogo"
  • SPARK-55024 Use o erro REQUIRES_SINGLE_PART_NAMESPACE para validação do namespace do catálogo de sessões
  • SPARK-54866 Refatorar Drop/RefreshFunction para evitar busca no catálogo
  • SPARK-54991 Dica de tipo correto para streaming/listener.py
  • SPARK-54925 Adicionar a capacidade de despejar threads para o pyspark
  • SPARK-54803 Apoio POR NOME com INSERT ... SUBSTITUIR WHERE
  • SPARK-54785 Adicionar suporte para agregações de esboços binários no KLL (#188370) (#188860)
  • SPARK-54949 Mover pyproject.toml para a raiz do repositório
  • SPARK-54954 Corrigir dicas de tipo relacionadas a sistemas remotos no util.py
  • SPARK-54922 Unificar a forma como os args são passados aos trabalhadores em python
  • SPARK-54870 Suporte de colação para char/varchar e CTAS/RTAS
  • SPARK-54762 Corrigir _create_converter e a covert sobrecarga
  • SPARK-55019 Permitir eliminar VIEW
  • SPARK-53103 Lançar um erro se o diretório de estado não estiver vazio quando a consulta iniciar
  • SPARK-54995 Faça um caminho rápido para foreachPartition
  • SPARK-54634 Adicionar mensagem de erro clara para o predicado IN vazio
  • SPARK-54984 Execução da Repartição do Estado e integração com o Reescritor de Estado
  • SPARK-54443 Integrar o PartitionKeyExtractor no leitor de repartição
  • SPARK-54907 Introduzir a regra do analisador NameStreamingSources para evolução de fontes de streaming
  • SPARK-54609 Atualize a configuração do tipo TIME para corresponder à do OSS
  • SPARK-54988 Simplificar a implementação do ObservationManager.tryComplete
  • SPARK-54959 Desative o desajuste total do checksum de embaralhamento e tente novamente quando o embaralhamento baseado em push está ativado
  • SPARK-54940 Adicionar testes para inferência do tipo pa.scalar
  • SPARK-54634 Reverter "[SC-216478][SQL] Adicionar mensagem de erro clara para o predicado IN vazio"
  • SPARK-54337 Adicionar suporte para PyCapsule ao Pyspark
  • SPARK-54634 Adicionar mensagem de erro clara para o predicado IN vazio
  • SPARK-53785 Fonte de Memória para RTM
  • SPARK-54883 Limpar as mensagens de erro da CLI e adicionar um novo modo de erro, denominado DEBUG
  • SPARK-54713 Adicionar suporte a expressões de similaridade/função de distância vetorial
  • SPARK-54962 Corrigir o tratamento de inteiros anuláveis no Pandas UDF
  • SPARK-54864 Adicionar nós rCTE ao NormalizePlan
  • SPARK-53847 Adicionar o ContinuousMemorySink para testes em modo em tempo real
  • SPARK-54865 Adicionar método foreachWithSubqueriesAndPruning ao QueryPlan
  • SPARK-54930 Remover chamadas redundantes _accumulatorRegistry.clear() em worker.py
  • SPARK-54929 Corrigir a redefinição de taskContext._resources em ciclo faz com que apenas o recurso mais recente seja mantido
  • SPARK-54963 Respeite createDataFrameprefer_timestamp_ntz quando infer_pandas_dict_as_map
  • SPARK-54920 Transferir a lógica de extração de análise de agrupamento para um módulo comum GroupingAnalyticsExtractor
  • SPARK-54924 Reescritor de Estado para ler o estado, transformá-lo e escrever um novo estado
  • SPARK-54872 Unificar o tratamento de valores por defeito da coluna entre os comandos v1 e v2
  • SPARK-54905 Simplificar a implementação do foreachWithSubqueries no QueryPlan
  • SPARK-54682 Suporte a mostrar parâmetros em DESCREVER PROCEDIMENTO
  • SPARK-54933 Evite buscar a configuração binary_as_bytes repetidamente em toLocalIterator
  • SPARK-54872 Reverter "[SC-216260][SQL] Unificar o tratamento padrão de valores das colunas entre os comandos v1 e v2"
  • SPARK-51936 ReplaceTableAsSelect deve sobrescrever a nova tabela em vez de acrescentar
  • SPARK-54771 Remover a regra ResolveUserSpecifiedColumns da RuleIdCollection
  • SPARK-54872 Unificar o tratamento de valores por defeito da coluna entre os comandos v1 e v2
  • SPARK-54313 Adicionar a opção --extra-properties-file para camadas de configuração
  • SPARK-54468 Adicionar classes de erro em falta
  • SPARK-46741 A Tabela de Cache com CTE deve funcionar quando o CTE está numa subconsulta de expressão de plano
  • SPARK-46741 A tabela em cache com CTE não funcionará
  • SPARK-54615 Passa sempre runner_conf para o trabalhador Python
  • SPARK-53737 Adicionar gatilho do Modo em Tempo Real
  • SPARK-54541 Renomear _LEGACY_ERROR_TEMP_1007 e adicionar sqlState
  • SPARK-54718 Preservar os nomes dos atributos durante CTE newInstance()
  • SPARK-54621 Integrar no Conjunto de Atualização * preservar campos aninhados se … coerceNestedTypes estiver ativado
  • SPARK-54595 Mantém o comportamento existente de MERGE INTO sem SCHEMA cláusula EVOLUTION
  • SPARK-54903 Tornar to_arrow_schema/to_arrow_type capaz de definir o fuso horário
  • SPARK-52326 Adicione partições relacionadas com ExternalCatalogEvent e publique-as nas operações correspondentes
  • SPARK-54541 Reverter "[SC-215212][SQL] Renomear _LEGACY_ERROR_TEMP_1007 e adicionar sqlState"
  • SPARK-54578 Executar a limpeza de código em AssignmentUtils
  • SPARK-54830 Ativar o reintento do shuffle indeterminado baseado em checksum por padrão
  • SPARK-54525 Desativar a coerção de estruturas aninhadas dentro MERGE INTO de uma configuração
  • SPARK-53784 APIs de Fonte adicionais necessárias para suportar a execução RTM
  • SPARK-54496 Corrigir o Merge Na Evolução do Esquema para a API de Dataframe
  • SPARK-54835 Evite execução de consultas temporária desnecessária para a execução de comandos aninhados
  • SPARK-54541 Renomear _LEGACY_ERROR_TEMP_1007 e adicionar sqlState
  • SPARK-54289 Permitir MERGE INTO preservar campos de struct existentes para UPDATESET quando a struct de origem tem menos campos aninhados do que a struct alvo.
  • SPARK-54720 Adicionar SparkSession.emptyDataFrame com um esquema
  • SPARK-54800 Mudança na implementação padrão para isObjectNotFoundException
  • SPARK-54686 Relaxar as verificações de tabela DSv2 nas vistas temporárias para permitir novas colunas de nível superior
  • SPARK-54619 Adicione uma verificação de sanidade para os números de configuração
  • SPARK-54726 Melhorar um pouco o desempenho do InsertAdaptiveSparkPlan
  • SPARK-51966 Substitua select.select() por select.poll() ao correr em POSIX OS
  • SPARK-54749 Corrigir uma métrica numOutputRows incorreta no OneRowRelationExec
  • SPARK-54411 Introduza um Escritor de Repartição que suporta Multi-CF
  • SPARK-54835 Reverter "[SC-215823][SQL] Evitar a execução temporária de QueryExecution desnecessária para a execução de comandos aninhados"
  • SPARK-54867 Introduza o wrapper NamedStreamingRelation para identificação da fonte durante a análise
  • SPARK-54835 Evite QueryExecution temporária desnecessária para execução de comandos aninhados
  • SPARK-54491 Corrigir a inserção na vista temporária na falha da tabela DSv2
  • SPARK-54871 Remova os aliases das expressões de agrupamento e agregação antes de tratar das análises de agrupamento
  • SPARK-51920 Correção do manuseio de tipo de namedTuple para transformWithState
  • SPARK-54526 Renomear _LEGACY_ERROR_TEMP_1133 e adicionar sqlState
  • SPARK-54424 Falhas durante o recache não devem falhar as operações
  • SPARK-54894 Corrigir a passagem de argumentos em to_arrow_type
  • SPARK-53448 A conversão de um DataFrame pyspark com uma coluna do tipo Variante para pandas falha com um erro.
  • SPARK-54882 Remover PYARROW_IGNORE_TIMEZONE antigo
  • SPARK-54504 Corrigir a atualização de versões para tabelas DSv2 com subconsultas
  • SPARK-54444 Relaxar as verificações da tabela DSv2 para restaurar comportamentos anteriores
  • SPARK-54859 Por padrão, documentação de referência da API UDF do PySpark
  • SPARK-54387 Reverter "[ES-1688666] Reverter "[SC-212394][SQL] Corrigir o recacheamento das tabelas DSv2""
  • SPARK-54753 corrigir fuga de memória do ArtifactManager
  • SPARK-54387 Reverter "[SC-212394][SQL] Corrigir o re-cache das tabelas DSv2"
  • SPARK-54436 Corrigir a formatação de erros para verificações de metadados de tabelas incompatíveis
  • SPARK-54849 Atualizar a versão mínima para pyarrow a 18.0.0
  • SPARK-54022 Tornar a resolução das tabelas DSv2 consciente das tabelas em cache
  • SPARK-54387 Corrigir o recachê das tabelas DSv2
  • SPARK-53924 Recarregar tabelas DSv2 em vistas criadas usando planos em cada acesso à vista
  • SPARK-54561 Ponto de interrupção de suporte() para run-tests.py
  • SPARK-54157 Corrigir a atualização das tabelas DSv2 no conjunto de dados
  • SPARK-54830 Reverter "[CORE] Ativar a repetição de embaralhamento indeterminado baseada em checksum por padrão"
  • SPARK-54861 Redefinir o nome da thread da tarefa para IDLE_TASK_THREAD_NAME ao concluir a tarefa
  • SPARK-54834 Adicionar novas interfaces SimpleProcedure e SimpleFunction
  • SPARK-54760 DelegingCatalogExtension, como catálogo de sessões, suporta funções V1 e V2
  • SPARK-54685 Remover respostas redundantes de métricas observadas
  • SPARK-54853 Verifique hive.exec.max.dynamic.partitions sempre do lado da faísca
  • SPARK-54840 Pré-alocação do OrcList
  • SPARK-54830 Ativar o reintento do shuffle indeterminado baseado em checksum por padrão
  • SPARK-54850 Melhorar extractShuffleIds para encontrar AdaptiveSparkPlanExec em qualquer lugar na árvore do plano
  • SPARK-54843 expressão Try_to_number não funciona para entrada de string vazia
  • SPARK-54556 Reverter os estágios de mapeamento de embaralhamento que tiveram sucesso quando uma incompatibilidade de soma de verificação de embaralhamento é detetada.
  • SPARK-54760 Reverter "[SC-215670][SQL] DelegingCatalogExtension, pois o catálogo de sessões suporta funções V1 e V2"
  • SPARK-54760 DelegingCatalogExtension, como catálogo de sessões, suporta funções V1 e V2
  • SPARK-54818 A atribuição falhada do TaskMemoryManager deve registar a pilha de erros para ajudar a verificar o uso de memória
  • SPARK-54827 Adicionar função auxiliar TreeNode.containsTag
  • SPARK-54777 Revert "[SC-215740][SQL] O tratamento de erros dropTable foi alterado em JDBCTableCatalog.dropTable(...)"
  • SPARK-54777 Alterado o tratamento de erros no método dropTable em JDBCTableCatalog.dropTable(...)
  • SPARK-54817 Lógica de resolução refatorizada Unpivot para UnpivotTransformer
  • SPARK-54820 Tornar pandas_on_spark_type compatível com o numpy 2.4.0
  • SPARK-54799 Refatorar UnpivotCoercion
  • SPARK-54754 O OrcSerializer não deve analisar o esquema sempre que é serializado
  • SPARK-54226 Estender a compressão Arrow para Pandas UDF
  • SPARK-54787 Usar compreensão de listas em vez de ciclos for no pandas
  • SPARK-54690 Tornar Frame.__repr__ insensível à otimização de setas
  • SPARK-46166 Implementação dos pandas. DataFrame.any com eixo=Nenhum
  • SPARK-54696 Limpeza de Buffers Arrow - acompanhamento
  • SPARK-54769 Remover código morto em conversion.py
  • SPARK-54787 Use a compreensão de listas no pandas _bool_column_labels
  • SPARK-54794 Suprimir registos de análise FsHistoryProvider.checkForLogs verbosos
  • SPARK-54745 Corrigir o erro de importação do PySpark causado pela ausência do UnixStreamServer no Windows
  • SPARK-54782 Corrigir as versões de configuração
  • SPARK-54781 Devolver informação da cache do modelo em formato JSON
  • SPARK-54419 O Leitor de Estado de Repartição Offline Suporta Famílias de Múltiplas Colunas
  • SPARK-54722 Registar Pandas Grouped Iter Aggregate UDF para utilização em SQL
  • SPARK-54762 Reverter "[SC-215422][PYTHON] Corrigir _create_converter e covert sobrecarga de assinatura"
  • SPARK-54652 Reverter "[SC-215452][SQL] Conversão completa de IDENTIFIER()"
  • SPARK-54762 Corrigir _create_converter e a covert sobrecarga
  • SPARK-52819 Tornar o KryoSerializationCodec serializável para corrigir erros no java.io.NotSerializableException em vários casos de uso
  • SPARK-54711 Adicione um timeout para a ligação de trabalhador criada pelo daemon
  • SPARK-54738 Adicionar suporte ao perfilador para Pandas Grouped Iter Aggregate UDF
  • SPARK-54652 Conversão completa de IDENTIFIER()
  • SPARK-54581 Tornar a opção 'fetchsize' insensível a maiúsculas para o conector PostgreSQL
  • SPARK-54589 Consolidate ArrowStreamAggPandasIterUDFSerializer into ArrowStreamAggPandasUDFSerializer
  • SPARK-41916 Distribuidor do Torch: suporta múltiplos processos do torchrun por tarefa se task.gpu.amount > 1
  • SPARK-54707 Refatorar a lógica principal da resolução PIVOT para o PivotTransformer
  • SPARK-54706 Faça o DistributedLDAModel funcionar com um sistema de ficheiros local
  • SPARK-53616 Introduzir API de iteradores para UDF de agregação agrupada do pandas
  • SPARK-54116 Adicionar suporte ao modo off-heap para LongHashedRelation
  • SPARK-54656 Refatorar SupportsPushDownVariants para ser um mix-in de ScanBuilder
  • SPARK-54687 Adicionar ficheiro de referência com casos limites de resolução de geradores
  • SPARK-54708 Otimize a limpeza da cache em ML com criação preguiçosa de diretórios
  • SPARK-54116 Reverter "[SC-213108][SQL] Adicionar suporte ao modo off-heap para LongHashedRelation"
  • SPARK-54116 Adicionar suporte ao modo off-heap para LongHashedRelation
  • SPARK-54443 Extração de chaves de partição para todos os operadores com estado de streaming
  • SPARK-54687 Reverter "[SC-214791][SQL] Adicionar ficheiro de ouro com geradores para casos de limite"
  • SPARK-54116 Reverter "[SC-213108][SQL] Adicionar suporte ao modo off-heap para LongHashedRelation"
  • SPARK-54687 Adicionar ficheiro padrão com casos limites de resolução do gerador
  • SPARK-54116 Adicionar suporte ao modo off-heap para LongHashedRelation
  • SPARK-54420 Introdução do StatePartitionWriter de Repartição Offline para Família de Colunas Únicas
  • SPARK-54689 Faça org.apache.spark.sql.pipelines um pacote interno e torne EstimatorUtils privado
  • SPARK-54673 Refatorar código de análise de sintaxe de pipe SQL para partilha e reutilização
  • SPARK-54668 Adicionar testes para CTEs em operadores com múltiplos filhos
  • SPARK-54669 Remover a conversão redundante nos rCTEs
  • SPARK-54587 Consolide todo o código relacionado runner_conf
  • SPARK-54628 Remover todos os argumentos super() explícitos desnecessários
  • SPARK-54675 Adicionar um tempo de desligamento forçado configurável para o pool de threads de manutenção do StateStore
  • SPARK-54639 Evite a criação desnecessária de Tabelas nos serializadores Arrow
  • SPARK-49635 Remover sugestão de configuração ANSI nas mensagens de erro CAST
  • SPARK-54664 Limpar o código relacionado com listenerCache de connect.StreamingQueryManager
  • SPARK-54640 Substitua select.select por select.poll no UNIX
  • SPARK-54662 Adicionar viztracer e debugpy em dev/requirements.txt
  • SPARK-54632 Adiciona a opção de usar ruff para lint
  • SPARK-54585 Corrigir o rollback do State Store quando a thread está em estado interrompido
  • SPARK-54172 Merge Into Schema Evolution deve apenas adicionar colunas referenciadas
  • SPARK-54438 Consolidar ArrowStreamAggArrowIterUDFSerializer em ArrowStreamAggArrowUDFSerializer
  • SPARK-54627 Remover inicializações redundantes em serializadores
  • SPARK-54631 Adicionar suporte a profiler para o Arrow Grouped Iter Aggregate UDF
  • SPARK-54316 Reaplicar [SC-213971][CORE][PYTHON][SQL] Consolidar GroupPandasIterUDFSerializer com GroupPandasUDFSerializer
  • SPARK-54392 Otimizar a comunicação JVM-Python para o estado inicial do TWS
  • SPARK-54617 Ativar o registo Arrow Grouped Iter Aggregate UDF para SQL
  • SPARK-54544 Ativação da verificação flake8 F811
  • SPARK-54650 Mover a conversão de int para decimal para _create_converter_from_pandas
  • SPARK-54316 Revertir "[SC-213971][CORE][PYTHON][SQL] Consolidar GroupPandasIterUDFSerializer com GroupPandasUDFSerializer"
  • SPARK-53687 Cláusula de introdução WATERMARK na instrução SQL
  • SPARK-54316 Consolidar GroupPandasIterUDFSerializer com GroupPandasUDFSerializer
  • SPARK-54598 Extrair lógica para ler UDFs
  • SPARK-54622 Promover RequiresDistributionAndOrdering e as interfaces necessárias associadas para Evolving
  • SPARK-54624 Garantir que o nome de utilizador na página de histórico seja protegido
  • SPARK-54580 Considere o Hive 4.1 no HiveVersionSuite e no HiveClientImpl
  • SPARK-54068 Correção to_feather para suportar o PyArrow 22.0.0
  • SPARK-54618 Promover LocalScan a Stable
  • SPARK-54616 Marque SupportsPushDownVariants como Experimental
  • SPARK-54607 Remover método toStringHelper não utilizado de AbstractFetchShuffleBlocks.java
  • SPARK-53615 Introduzir API de iterador para agregação agrupada de UDF do Arrow
  • SPARK-54608 Evite a duplicação do armazenamento em cache do conversor de tipos no UDTF
  • SPARK-54600 Não uses pickle para guardar/carregar modelos pyspark.ml.connect
  • SPARK-54592 Torna estimatedSize privado
  • SPARK-54388 Introduzir o StatePartitionReader que analisa bytes brutos para Single ColFamily
  • SPARK-54570 Propagar corretamente a classe de erro no Spark Connect
  • SPARK-54577 Otimizar chamadas Py4J na inferência de esquema
  • SPARK-54568 Evite a conversão desnecessária de pandas ao criar DataFrame a partir do ndarray
  • SPARK-54576 Adicionar documentação para novas funções agregadas baseadas em Datasketches
  • SPARK-54574 Reativar o FPGrowth na conexão
  • SPARK-54557 Tornar CSV/JSON/XmlOptions e CSV/JSON/XmlInferSchema comparáveis
  • SPARK-52798 Adicionar função approx_top_k_combine
  • SPARK-54446 O FPGrowth suporta sistema de ficheiros local com formato de ficheiro Arrow
  • SPARK-54547 Renomear a variável hostPort para host nos métodos TaskSchedulerImpl.(executorLost|logExecutorLoss)
  • SPARK-54558 Corrigir a Exceção Interna quando são usados Gestores de Exceções sem START/END
  • SPARK-52923 Permitir que o ShuffleManager controle a fusão push durante o registo do baralhamento
  • SPARK-54474 Descarte o relatório XML sobre testes que supostamente falham
  • SPARK-54473 Adicionar suporte de leitura e escrita do Avro para o tipo TIME
  • SPARK-54472 Adicionar suporte de leitura e escrita ORC para o tipo TIME
  • SPARK-54463 Adicionar suporte para serialização e desserialização CSV para o tipo TIME
  • SPARK-52588 Approx_top_k: acumular e estimar
  • SPARK-54461 Adicionar suporte à serialização e deserialização XML para o tipo TIME
  • SPARK-54451 Adicionar suporte para serialização e deserialização JSON para o tipo TIME
  • SPARK-54537 Corrigir o SparkConnectDatabaseMetaData getSchemas/getTables em catálogos que não têm capacidade de namespace.
  • SPARK-54442 Adicionar funções de conversão numérica para o tipo TIME
  • SPARK-54451 Reverter "[SC-212861][SQL] Adicionar suporte à serialização e desserialização JSON para o tipo TIME"
  • SPARK-54492 Renomear _LEGACY_ERROR_TEMP_1201 e adicionar sqlState
  • SPARK-54531 Introduzir o ArrowStreamAggPandasUDFSerializer
  • SPARK-54223 Adicionar contexto de tarefa e métricas de dados aos registos do runner em Python
  • SPARK-54272 Adicionar aggTime para SortAggregateExec
  • SPARK-53469 Capacidade de limpar o shuffle no servidor Thrift
  • SPARK-54219 Configuração de suporte spark.cleaner.referenceTracking.blocking.timeout
  • SPARK-54475 Adicionar master-server, branch-4.0-client, Python 3.11
  • SPARK-54451 Adicionar suporte para serialização e deserialização JSON para o tipo TIME
  • SPARK-54285 Guardar em cache a informação sobre o fuso horário para evitar uma conversão dispendiosa de timestamp
  • SPARK-49133 Torne o membro MemoryConsumer#used atómico para evitar que o código do utilizador cause deadlock
  • SPARK-46166 Implementação de pandas.DataFrame.any com axis=1
  • SPARK-54532 Adicionar suporte para sqlstate no PySparkException
  • SPARK-54435 spark-pipelines init deve evitar sobrescrever o diretório existente
  • SPARK-54247 Fechar explicitamente o soquete para util._load_from_socket

Suporte ao driver ODBC/JDBC do Databricks

O Databricks suporta drivers ODBC/JDBC lançados nos últimos 2 anos. Faça o download dos drivers lançados recentemente e atualize (baixe ODBC, baixe JDBC).

Ambiente do sistema

  • Sistema Operacional: Ubuntu 24.04.3 LTS
  • Java: Zulu21.42+19-CA
  • Escala: 2.13.16
  • Píton: 3.12.3
  • R: 4.5.1
  • Delta Lake: 4.0.1

Bibliotecas Python instaladas

Biblioteca Versão Biblioteca Versão Biblioteca Versão
aiohappyeyeballs 2.4.4 AIOHTTP 3.11.10 aiosignal 1.2.0
documento anotado 0.0.4 tipos com anotações 0.7.0 anyio 4.7.0
argon2-cffi 21.3.0 argon2-cffi-vinculações 21.2.0 arro3-core 0.6.5
seta 1.3.0 AstTokens 3.0.0 "Astunparse" 1.6.3
Async-LRU 2.0.4 Atributos 24.3.0 Comando automático 2.2.2
azure-common 1.1.28 azure-core 1.37.0 azure-identity (serviços de identidade do Azure) 1.20.0
azure-mgmt-core 1.6.0 azure-mgmt-web 8.0.0 Azure Storage Blob 12.28.0
Armazenamento de Ficheiros Azure Data Lake 12.22.0 Babel 2.16.0 backports.tarfile 1.2.0
BeautifulSoup4 4.12.3 preto 24.10.0 lixívia 6.2.0
pisca 1.7.0 boto3 1.40.45 Botocore 1.40.45
Ferramentas de cache 5.5.1 certifi 2025.4.26 cffi 1.17.1
Chardet 4.0.0 Normalizador de Charset 3.3.2 clicar 8.1.8
Cloudpickle 3.0.0 Comunicação 0.2.1 contorno 1.3.1
criptografia 44.0.1 ciclista 0.11.0 Cython 3.1.5
Databricks-Agentes 1.9.1 Databricks-SDK 0.67.0 DataClasses-JSON 0.6.7
dbus-python 1.3.2 debugpy 1.8.11 decorador 5.1.1
defusedxml 0.7.1 deltalake 1.1.4 Deprecated 1.2.18
Distlib 0.3.9 docstring-para-markdown 0.11 execução 1.2.0
facetas-visão geral 1.1.1 fastapi 0.128.0 fastjsonschema (biblioteca para validação rápida de esquemas JSON) 2.21.1
bloqueio de arquivo 3.17.0 Fonttools 4.55.3 FQDN (Nome de Domínio Completo) 1.5.1
Frozenlist 1.5.0 fsspec 2023.5.0 GitDB 4.0.11
GitPython 3.1.43 google-api-core 2.28.1 Google-Auth (Autenticação) 2.47.0
Google Cloud Core 2.5.0 google-armazenamento-em-nuvem 3.7.0 Google-CRC32C 1.8.0
google-media-reutilizável 2.8.0 googleapis-common-protos 1.65.0 Grpcio 1.67.0
grpcio-status 1.67.0 h11 0.16.0 HF-XET 1.2.0
httpcore 1.0.9 httplib2 0.20.4 httpx 0.28.1
huggingface_hub 1.2.4 IDNA 3.7 importlib_metadata 8.5.0
flexionar 7.3.1 iniconfig 1.1.1 ipyflow-core 0.0.209
Ipykernel 6.29.5 IPython 8.30.0 ipython-genutils 0.2.0
ipywidgets 7.8.1 isodate 0.7.2 isoduração 20.11.0
jaraco.collections 5.1.0 jaraco.context 5.3.0 jaraco.functools 4.0.1
jaraco.text 3.12.1 Jedi 0.19.2 Jinja2 3.1.6
Jiter 0.12.0 jmespath 1.0.1 Joblib 1.4.2
JSON5 0.9.25 jsonpatch 1.33 jsonpointer 3.0.0
jsonschema 4.23.0 jsonschema-especificações 2023.7.1 Jupyter-Eventos 0.12.0
Jupyter-LSP 2.2.5 jupyter_client 8.6.3 jupyter_core 5.7.2
jupyter_servidor 2.15.0 jupyter_server_terminals 0.5.3 Jupyterlab 4.3.4
jupyterlab_pygments 0.3.0 jupyterlab_server 2.27.3 jupyterlab_widgets 1.1.11
kiwisolver 1.4.8 langchain-núcleo 1.2.6 langchain-openai 1.1.6
Langsmith 0.6.1 launchpadlib 1.11.0 lazr.restfulclient 0.14.6
lazr.uri 1.0.6 litellm 1.75.9 markdown-it-py 2.2.0
MarkupSafe 3.0.2 Espuma 3.26.2 Matplotlib 3.10.0
matplotlib-inline 0.1.7 Mccabe 0.7.0 mdurl 0.1.0
Mistune 3.1.2 mlflow-skinny 3.8.1 MMH3 5.2.0
more-itertools 10.3.0 MSAL 1.34.0 MSAL-extensões 1.3.1
multidict 6.1.0 mypy-extensions 1.0.0 nbclient 0.10.2
nbconvert 7.16.6 nbformat 5.10.4 nest-asyncio 1.6.0
nodeenv 1.10.0 bloco de notas 7.3.2 notebook_shim 0.2.4
numpy 2.1.3 OAuthlib 3.2.2 OpenAI 2.14.0
OpenTelemetry API 1.39.1 OpenTelemetry-Proto 1.39.1 OpenTelemetry SDK 1.39.1
Convenções Semânticas de OpenTelemetry 0.60b1 Orjson 3.11.5 sobrescrições 7.4.0
embalagem 24,2 pandas 2.2.3 PandocFilters 1.5.0
Parso 0.8.4 PathSpec 0.10.3 vítima 1.0.1
pexpect 4.8.0 almofada 11.1.0 pip (o gestor de pacotes do Python) 25.0.1
platformdirs 4.3.7 enredo 5.24.1 Pluggy 1.5.0
prometheus_client 0.21.1 kit de ferramentas de prompt 3.0.43 propcache 0.3.1
Proto-Plus 1.27.0 Protobuf 5.29.4 psutil 5.9.0
psycopg2 2.9.11 ptyprocess 0.7.0 puro-eval 0.2.2
Pyarrow 21.0.0 pyasn1 0.4.8 pyasn1-módulos 0.2.8
pyccolo 0.0.71 Pycparser 2.21 Pidântico 2.10.6
pydantic_core 2.27.2 Pyflakes 3.2.0 Pigmentos 2.19.1
PyGObject 3.48.2 pyiceberg 0.10.0 PyJWT 2.10.1
pyodbc 5.2.0 pyparsing 3.2.0 Pyright 1.1.394
Piroaring 1.0.3 Pytest 8.3.5 python-dateutil (uma biblioteca de software para manipulação de datas em Python) 2.9.0.post0
Python-Dotenv 1.2.1 python-json-logger 3.2.1 python-lsp-jsonrpc 1.1.2
python-lsp-servidor 1.12.2 pytoolconfig 1.2.6 Pytz 2024.1
PyYAML 6.0.2 Pyzmq 26.2.0 referenciação 0.30.2
regex 2024.11.6 pedidos 2.32.3 pedidos-cinto de ferramentas 1.0.0
rfc3339-verificador 0.1.4 rfc3986-validador 0.1.1 rico 13.9.4
corda 1.13.0 rpds-py 0.22.3 RSA 4.9.1
s3transfer 0.14.0 scikit-learn (biblioteca de aprendizado de máquina em Python) 1.6.1 SciPy 1.15.3
nascido no mar 0.13.2 Send2Trash 1.8.2 Ferramentas de configuração 78.1.1
Shellingham 1.5.4 seis 1.17.0 smmap 5.0.0
sniffio 1.3.0 contentores classificados 2.4.0 Soupsieve 2.5
SQLPARSE 0.5.5 ssh-import-id 5.11 dados de pilha 0.6.3
Starlette 0.50.0 strictyaml 1.7.3 tenacidade 9.0.0
terminado 0.17.1 ThreadPoolCtl 3.5.0 tiktoken 0.12.0
tinycss2 1.4.0 tokenize_rt 6.1.0 Tokenizadores 0.22.2
Tomli 2.0.1 tornado 6.5.1 tqdm 4.67.1
traitlets 5.14.3 Protetor de Tipografia 4.3.0 Typer-Slim 0.21.1
types-python-dateutil 2.9.0.20251115 inspeção de digitação 0.9.0 typing_extensions (extensões de digitação) 4.12.2
tzdata 2024.1 Ujson 5.10.0 Atualizações não supervisionadas 0.1
uri-modelo 1.3.0 urllib3 2.3.0 uuid_utils 0.12.0
uvicorn 0.40.0 virtualenv 20.29.3 wadllib 1.3.6
wcwidth 0.2.5 Webcolors 25.10.0 codificações da web 0.5.1
Websocket-cliente 1.8.0 whatthepatch (ferramenta para comparação de patches) 1.0.2 wheel 0.45.1
sempre que 0.7.3 widgetsnbextension 3.6.6 embrulhado 1.17.0
Yapf 0.40.2 yarl 1.18.0 zipp 3.21.0
zstandard 0.23.0

Bibliotecas R instaladas

As bibliotecas R são instaladas a partir do snapshot CRAN do Gestor de Pacotes Posit a 20-11-2025.

Biblioteca Versão Biblioteca Versão Biblioteca Versão
seta 22.0.0 AskPass 1.2.1 asserir que 0.2.1
Retroportagens 1.5.0 base 4.5.1 base64enc 0.1-3
bigD 0.3.1 pouco 4.6.0 bit-64 4.6.0-1
Bitops 1.0-9 blob 1.2.4 arranque / bota 1.3-30
fabricação de cerveja 1.0-10 Brio 1.1.5 vassoura 1.0.10
bslib 0.9.0 cachemira 1.1.0 Chamador 3.7.6
caret 7.0-1 CellRanger 1.1.0 crono 2.3-62
classe 7.3-22 CLI 3.6.5 Clipr 0.8.0
relógio 0.7.3 cluster 2.1.6 CodeTools 0.2-20
marca comum 2.0.0 compilador 4.5.1 Configurações 0.3.2
conflituoso 1.2.0 cpp11 0.5.2 lápis de cor 1.5.3
credenciais 2.0.3 encaracolar 7.0.0 tabela de dados 1.17.8
conjuntos de dados 4.5.1 DBI 1.2.3 DBPlyr 2.5.1
descrição 1.4.3 DevTools 2.4.6 diagrama 1.6.5
diffobj 0.3.6 resumo 0.6.39 Iluminação reduzida 0.4.5
DPLYR 1.1.4 DTPlyr 1.3.2 e1071 1.7-16
reticências 0.3.2 avaliar 1.0.5 Fansi 1.0.7
cores 2.1.2 mapa rápido 1.2.0 fontawesome 0.5.3
forçados 1.0.1 foreach 1.5.2 estrangeiro/a 0.8 a 86
fs 1.6.6 Futuro 1.68.0 futuro.apply 1.20.0
gargarejo 1.6.0 genérico 0.1.4 Gert 2.2.0
ggplot2 4.0.1 GH 1.5.0 Git2R 0.36.2
gitcreds 0.1.2 glmnet 4.1-10 Globais 0.18.0
cola 1.8.0 GoogleDrive 2.1.2 googlesheets4 1.1.2
Gower 1.0.2 gráficos 4.5.1 grDispositivos 4.5.1
grelha 4.5.1 gridExtra 2.3 gsubfn 0.7
gt 1.1.0 tabela g 0.3.6 capacete de segurança 1.4.2
Refúgio 2.5.5 mais alto 0.11 HMS (Navio de Sua Majestade) 1.1.4
htmltools 0.5.8.1 htmlwidgets (componentes HTML interativos) 1.6.4 httpuv 1.6.16
HTTR 1.4.7 httr2 1.2.1 identificadores 1.0.1
ini 0.3.1 ipred 0.9 a 15 Isoband 0.2.7
iteradores 1.0.14 jquerylib 0.1.4 jsonlite 2.0.0
JuicyJuice 0.1.0 KernSmooth 2.23-22 Knitr 1,50
etiquetagem 0.4.3 mais tarde 1.4.4 treliça 0.22-5
lave 1.8.2 ciclo de vida 1.0.4 ouvir 0.10.0
litedown 0.8 lubridato 1.9.4 Magrittr 2.0.4
Marcação 2.0 MASSA 7.3-60.0.1 Matriz 1.6-5
memorização 2.0.1 Metodologia 4.5.1 mgcv 1.9-1
mime 0,13 miniUI 0.1.2 Mlflow 3.6.0
ModelMetrics 1.2.2.2 modelr 0.1.11 nlme 3.1-164
NNET 7.3-19 numDeriv 2016.8 a 1.1 openssl (conjunto de ferramentas para criptografia) 2.3.4
Otel 0.2.0 paralelo 4.5.1 Paralelamente 1.45.1
pilar 1.11.1 pkgbuild 1.4.8 pkgconfig 2.0.3
pkgdown 2.2.0 pkgload 1.4.1 plogr 0.2.0
Plyr 1.8.9 elogios 1.0.0 prettyunits 1.2.0
pROC 1.19.0.1 processx 3.8.6 Prodlim 2025.04.28
profvis 0.4.0 Progressos 1.2.3 progressr 0.18.0
promessas 1.5.0 prototipo 1.0.0 proxy 0.4-27
P.S. 1.9.1 purrr 1.2.0 R6 2.6.1
RAGG 1.5.0 randomForest 4.7-1.2 rappdirs 0.3.3
rcmdcheck 1.4.0 RColorBrewer 1.1-3 Rcpp 1.1.0
RcppEigen 0.3.4.0.2 capaz de reagir 0.4.4 reactR 0.6.1
Readr 2.1.6 readxl 1.4.5 receitas 1.3.1
revanche 2.0.0 revanche2 2.1.2 Dispositivos remotos 2.5.0
Exemplo Reproduzível (Reprex) 2.1.1 remodelar2 1.4.5 rlang 1.1.6
rmarkdown 2.30 RODBC 1.3-26 roxygen2 7.3.3
rpart (função de partição recursiva em R) 4.1.23 rprojroot 2.1.1 Rserve 1,8-15
RSQLite 2.4.4 rstudioapi 0.17.1 rversions 3.0.0
Rvest 1.0.5 S7 0.2.1 Sass 0.4.10
escalas 1.4.0 seletor 0.4-2 Informação da sessão 1.2.3
forma 1.4.6.1 brilhante 1.11.1 ferramentas de código-fonte 0.1.7-1
sparklyr 1.9.3 SparkR 4.1.0 sparsevctrs 0.3.4
espacial 7.3-17 splines 4.5.1 sqldf 0.4-11
SQUAREM 2021.1 estatísticas 4.5.1 estatísticas4 4.5.1
string 1.8.7 stringr 1.6.0 Sobrevivência 3.5-8
Charme 5.17.14.1 Sistema 3.4.3 fontes do sistema 1.3.1
tcltk (uma linguagem de programação) 4.5.1 testthat 3.3.0 formatação de texto 1.0.4
Tibble 3.3.0 tidyr 1.3.1 tidyselect 1.2.1
Tidyverse 2.0.0 mudança de hora 0.3.0 data e hora 4051.111
Tinytex 0.58 Ferramentas 4.5.1 tzdb 0.5.0
verificador de URL 1.0.1 usethis 3.2.1 UTF8 1.2.6
utilitários 4.5.1 Identificador Único Universal (UUID) 1.2-1 V8 8.0.1
VCTRS 0.6.5 viridisLite 0.4.2 vruum 1.6.6
Waldo 0.6.2 vibrissas 0.4.1 murchar 3.0.2
xfun 0.54 XML2 1.5.0 xopen 1.0.1
xtable 1.8-4 yaml 2.3.10 Zeallot 0.2.0
ZIP 2.3.3

Bibliotecas Java e Scala instaladas (versão de cluster Scala 2.13)

ID do grupo ID do artefato Versão
antlr antlr 2.7.7
com.amazonaws Amazon Kinesis Client 1.15.3
com.amazonaws aws-java-sdk-autoscaling (SDK de Java da AWS - escalonamento automático) 1.12.681
com.amazonaws AWS-Java-SDK-CloudFormation 1.12.681
com.amazonaws aws-java-sdk-cloudfront 1.12.681
com.amazonaws aws-java-sdk-cloudhsm 1.12.681
com.amazonaws AWS Java SDK para CloudSearch 1.12.681
com.amazonaws aws-java-sdk-cloudtrail 1.12.681
com.amazonaws aws-java-sdk-cloudwatch 1.12.681
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.681
com.amazonaws aws-java-sdk-codedeploy 1.12.681
com.amazonaws aws-java-sdk-cognitoidentity 1.12.681
com.amazonaws aws-java-sdk-cognitosync 1.12.681
com.amazonaws aws-java-sdk-config (configuração do AWS Java SDK) 1.12.681
com.amazonaws aws-java-sdk-core 1.12.681
com.amazonaws aws-java-sdk-datapipeline 1.12.681
com.amazonaws aws-java-sdk-directconnect 1.12.681
com.amazonaws aws-java-sdk-directory 1.12.681
com.amazonaws aws-java-sdk-dynamodb 1.12.681
com.amazonaws aws-java-sdk-ec2 1.12.681
com.amazonaws aws-java-sdk-ecs 1.12.681
com.amazonaws aws-java-sdk-efs 1.12.681
com.amazonaws aws-java-sdk-elasticache (kit de desenvolvimento de software Java para Elasticache da AWS) 1.12.681
com.amazonaws aws-java-sdk-elasticbeanstalk (SDK Java para Elastic Beanstalk da AWS) 1.12.681
com.amazonaws aws-java-sdk-elasticloadbalancing (SDK Java para equilíbrio de carga elástico da AWS) 1.12.681
com.amazonaws aws-java-sdk-elastictranscoder 1.12.681
com.amazonaws aws-java-sdk-emr 1.12.681
com.amazonaws aws-java-sdk-glacier (Biblioteca de armazenamento Glacier da AWS) 1.12.681
com.amazonaws aws-java-sdk-glue 1.12.681
com.amazonaws aws-java-sdk-iam 1.12.681
com.amazonaws aws-java-sdk-importexport 1.12.681
com.amazonaws aws-java-sdk-kinesis 1.12.681
com.amazonaws aws-java-sdk-kms 1.12.681
com.amazonaws aws-java-sdk-lambda 1.12.681
com.amazonaws aws-java-sdk-logs 1.12.681
com.amazonaws aws-java-sdk-aprendizado de máquina 1.12.681
com.amazonaws aws-java-sdk-opsworks 1.12.681
com.amazonaws aws-java-sdk-rds 1.12.681
com.amazonaws aws-java-sdk-redshift 1.12.681
com.amazonaws aws-java-sdk-route53 1.12.681
com.amazonaws aws-java-sdk-s3 1.12.681
com.amazonaws AWS Java SDK para SES 1.12.681
com.amazonaws aws-java-sdk-simpledb 1.12.681
com.amazonaws aws-java-sdk-simpleworkflow 1.12.681
com.amazonaws aws-java-sdk-sns 1.12.681
com.amazonaws aws-java-sdk-sqs 1.12.681
com.amazonaws aws-java-sdk-ssm 1.12.681
com.amazonaws aws-java-sdk-storagegateway (SDK da AWS para Storage Gateway em Java) 1.12.681
com.amazonaws AWS-Java-SDK-STS 1.12.681
com.amazonaws aws-java-sdk-suporte 1.12.681
com.amazonaws aws-java-sdk-workspaces 1.12.681
com.amazonaws jmespath-java 1.12.681
com.clearspring.analytics fluxo 2.9.8
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.53.0
com.databricks jets3t 0.7.1-0
com.databricks.scalapb scalapb-runtime_2.13 0.4.15-11
com.esotericsoftware sombra kriogénica 4.0.3
com.esotericsoftware Minlog 1.3.0
com.fasterxml colega de turma 1.5.1
com.fasterxml.jackson.core Jackson-Annotations 2.18.2
com.fasterxml.jackson.core Jackson-Core 2.18.2
com.fasterxml.jackson.core jackson-databind 2.18.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor (formato de dados em CBOR) 2.18.2
com.fasterxml.jackson.dataformat jackson-dataformat-yaml 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.18.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.18.3
com.fasterxml.jackson.module jackson-module-paranamer 2.18.2
com.fasterxml.jackson.module jackson-module-scala_2.13 2.18.2
com.github.ben-manes.cafeína cafeína 2.9.3
com.github.blemale scaffeine_2.13 4.1.0
com.github.fommil Jniloader 1.1
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java 1.1-Nativos
com.github.fommil.netlib sistema_nativo-Java 1.1
com.github.fommil.netlib sistema_nativo-Java 1.1-Nativos
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-Nativos
com.github.fommil.netlib netlib-sistema_nativo-linux-x86_64 1.1-Nativos
com.github.luben zstd-jni 1.5.7-6
com.github.virtuald Curvesapi 1,08
com.github.wendykierp JTransforms 3.1
com.google.api.grpc proto-google-comum-protos 2.5.1
com.google.auth google-auth-library-credentials 1.20.0
com.google.auth google-auth-library-oauth2-http 1.20.0
com.google.auto.value Anotações de auto-valor 1.10.4
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson Gson 2.11.0
com.google.crypto.tink Tink 1.16.0
com.google.errorprone anotações_propensas_a_erros 2.36.0
com.google.flatbuffers flatbuffers-java 25.2.10
com.google.guava Falha no acesso 1.0.3
com.google.guava Goiaba 33.4.8-JRE
com.google.http-client google-http-client 1.43.3
com.google.http-client google-http-client-gson 1.43.3
com.google.j2objc j2objc-anotações 3.0.0
com.google.protobuf protobuf-java 3.25.5
com.google.protobuf protobuf-java-util 3.25.5
com.helger gerador de perfis 1.1.1
com.ibm.icu icu4j 75.1
com.jcraft jsch 0.1.55
com.lihaoyi sourcecode_2.13 0.1.9
com.microsoft.azure azure-data-lake-store-sdk (SDK para Azure Data Lake Store) 2.3.10
com.microsoft.sqlserver MSSQL-JDBC 12.8.0.jre11
com.microsoft.sqlserver MSSQL-JDBC 12.8.0.jre8
com.ning compress-lzf 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind JAXB-CORE 2.2.11
com.sun.xml.bind JAXB-IMPL 2.2.11
com.tdunning Json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.13 0.4.13
com.twitter chill-java 0.10.0
com.twitter chill_2.13 0.10.0
com.twitter util-app_2.13 19.8.1
com.twitter util-core_2.13 19.8.1
com.twitter util-function_2.13 19.8.1
com.twitter util-jvm_2.13 19.8.1
com.twitter util-lint_2.13 19.8.1
com.twitter util-registry_2.13 19.8.1
com.twitter util-stats_2.13 19.8.1
com.typesafe Configurações 1.4.3
com.typesafe.scala-logging scala-logging_2.13 3.9.2
com.uber h3 3.7.3
com.univocity analisadores de univocidade 2.9.1
com.zaxxer HikariCP 4.0.3
com.zaxxer SparseBitSet 1.3
commons-cli commons-cli 1.10.0
commons-codec commons-codec 1.19.0
Commons Collections Commons Collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload (upload de ficheiros comuns) commons-fileupload (upload de ficheiros comuns) 1.6.0
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.21.0
commons-lang commons-lang 2.6
registo de comuns registo de comuns 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib ARPACK 3.0.4
dev.ludovic.netlib Blas 3.0.4
dev.ludovic.netlib LAPACK 3.0.4
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift compressor de ar 2.0.2
IO.Delta delta-sharing-client_2.13 1.3.9
io.dropwizard.metrics métricas e anotação 4.2.37
io.dropwizard.metrics métricas-base 4.2.37
io.dropwizard.metrics metrics-graphite 4.2.37
io.dropwizard.metrics métricas e verificações de saúde 4.2.37
io.dropwizard.metrics metrics-jetty10 4.2.37
io.dropwizard.metrics Métricas JMX 4.2.37
io.dropwizard.metrics métricas em formato JSON 4.2.37
io.dropwizard.metrics métricas do JVM 4.2.37
io.dropwizard.metrics Métricas-Servlets 4.2.37
io.github.java-diff-utils java-diff-utils 4.15
io.netty netty-all 4.2.7. Final
io.netty netty-buffer 4.2.7. Final
io.netty netty-codec 4.2.7. Final
io.netty netty-codec-base 4.2.7. Final
io.netty netty-codec-classes-quic 4.2.7. Final
io.netty nety-codec-compressão 4.2.7. Final
io.netty netty-codec-http 4.2.7. Final
io.netty netty-codec-http2 4.2.7. Final
io.netty netty-codec-http3 4.2.7. Final
io.netty Netty-codec-marshalling 4.2.7. Final
io.netty netty-codec-native-quic 4.2.7.Final-linux-aarch_64
io.netty netty-codec-native-quic 4.2.7.Final-linux-x86_64
io.netty netty-codec-native-quic 4.2.7.Final-osx-aarch_64
io.netty netty-codec-native-quic 4.2.7.Final-osx-x86_64
io.netty netty-codec-native-quic 4.2.7.Final-windows-x86_64
io.netty netty-codec-protobuf 4.2.7. Final
io.netty netty-codec-socks 4.2.7. Final
io.netty netty-comum 4.2.7. Final
io.netty Netty Handler 4.2.7. Final
io.netty netty-handler-proxy 4.2.7. Final
io.netty netty-resolver (resolução do Netty) 4.2.7. Final
io.netty netty-tcnative-boringssl-static 2.0.74.Final-db-r0-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.74.Final-db-r0-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.74.Final-db-r0-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.74.Final-db-r0-osx-x86_64
io.netty netty-tcnative-boringssl-static 2.0.74.Final-db-r0-windows-x86_64
io.netty netty-tcnative-classes 2.0.74.Final
io.netty Netty-Transport 4.2.7. Final
io.netty netty-transport-classes-epoll 4.2.7. Final
io.netty netty-transport-classes-io_uring 4.2.7. Final
io.netty netty-transport-classes-kqueue 4.2.7. Final
io.netty netty-transport-native-epoll 4.2.7. Final
io.netty netty-transport-native-epoll 4.2.7.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.2.7.Final-linux-riscv64
io.netty netty-transport-native-epoll 4.2.7.Final-linux-x86_64
io.netty netty-transport-native-io_uring 4.2.7.Final-linux-aarch_64
io.netty netty-transport-native-io_uring 4.2.7.Final-linux-riscv64
io.netty netty-transport-native-io_uring 4.2.7.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.2.7.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.2.7.Final-osx-x86_64
io.netty netty-transport-nativo-unix-comum 4.2.7. Final
io.opencensus OpenCensus-API 0.31.1
io.opencensus opencensus-contrib-http-util 0.31.1
io.prometeu simpleclient 0.16.1-databricks
io.prometeu simpleclient_comum 0.16.1-databricks
io.prometeu simpleclient_dropwizard 0.16.1-databricks
io.prometeu simpleclient_pushgateway 0.16.1-databricks
io.prometeu simpleclient_servlet 0.16.1-databricks
io.prometeu simpleclient_servlet_common 0.16.1-databricks
io.prometeu simpleclient_tracer_common 0.16.1-databricks
io.prometeu simpleclient_tracer_otel 0.16.1-databricks
io.prometeu simpleclient_tracer_otel_agente 0.16.1-databricks
io.prometheus.jmx recoletor 0.18.0
jacarta.anotação jakarta.annotation.api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
Jakarta.validação jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.ativação ativação 1.1.1
javax.annotation javax.annotation-api 1.3.2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.media jai_core jai_core_dummy
javax.transaction jta 1.1
javax.transaction API de transação 1.1
javax.xml.bind JAXB-API 2.2.11
Javolution Javolution 5.5.1
Jline Jline 2.14.6
joda-time joda-time 2.14.0
net.java.dev.jna jna 5.8.0
net.razorvine conserva 1.5
net.sf.jpam JPAM 1.1
net.sf.opencsv OpenCSV 2.3
net.sf.supercsv super-csv 2.2.0
net.floco de neve Snowflake Ingest SDK 0.9.6
net.sourceforge.f2j arpack_combinado_tudo 0.1
org.acplt.remotetea Remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr ANTLR Runtime 3.5.2
org.antlr antlr4-tempo de execução 4.13.1
org.antlr StringTemplate 3.2.1
org.apache.ant formiga 1.10.11
org.apache.ant ANT-JSCH 1.10.11
org.apache.ant lançador de formigas 1.10.11
org.apache.arrow compressão de flechas 18.3.0
org.apache.arrow formato de flecha 18.3.0
org.apache.arrow núcleo de memória Arrow 18.3.0
org.apache.arrow Arrow-Memory-Netty 18.3.0
org.apache.arrow "patch-do-buffer-da-memória-arrow-netty" 18.3.0
org.apache.arrow vetor gráfico de seta 18.3.0
org.apache.avro Avro 1.12.1
org.apache.avro AVRO-IPC 1.12.1
org.apache.avro avro-mapred 1.12.1
org.apache.commons colecções-commons4 4.5.0
org.apache.commons commons-compress 1.28.0
org.apache.commons commons-configuration2 2.11.0
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.19.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-texto 1.14.0
org.apache.curador curador-cliente 5.9.0
org.apache.curador Framework de Curadoria 5.9.0
org.apache.curador curador de receitas 5.9.0
org.apache.datasketches Datasketches-Java 6.2.0
org.apache.datasketches datasketches-memória 3.0.2
org.apache.derby Dérbi 10.14.2.0
org.apache.hadoop tempo de execução do cliente Hadoop 3.4.2
org.apache.hive colmeia-abelha 2.3.10
org.apache.hive Hive-CLI 2.3.10
org.apache.hive Hive-JDBC 2.3.10
org.apache.hive hive-llap-cliente 2.3.10
org.apache.hive hive-llap-common 2.3.10
org.apache.hive Hive-Serde 2.3.10
org.apache.hive colmeias-calços 2.3.10
org.apache.hive API de armazenamento Hive 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.10
org.apache.hive.shims colmeia-calços-comum 2.3.10
org.apache.hive.shims hive-shims-scheduler 2.3.10
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy hera 2.5.3
org.apache.logging.log4j log4j-1.2-api 2.24.3
org.apache.logging.log4j log4j-api 2.24.3
org.apache.logging.log4j log4j-core 2.24.3
org.apache.logging.log4j log4j-layout-esquema-json 2.24.3
org.apache.logging.log4j log4j-slf4j2-impl 2.24.3
org.apache.orc orc-core 2.2.0-protobuf sombreado
org.apache.orc formato ORC 1.1.1-protobuf sombreado
org.apache.orc orc-mapreduce 2.2.0-protobuf sombreado
org.apache.orc Orc-cunhas 2.2.0
org.apache.poi POI 5.4.1
org.apache.poi poi-ooxml 5.4.1
org.apache.poi poi-ooxml-completo 5.4.1
org.apache.poi poi-ooxml-lite 5.4.1
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.16.0
org.apache.ws.xmlschema xmlschema-core 2.3.1
org.apache.xbean xbean-asm9-sombreado 4.28
org.apache.xmlbeans xmlbeans 5.3.0
org.apache.yetus anotações da audiência 0.13.0
org.apache.zookeeper cuidador de zoológico 3.9.4
org.apache.zookeeper guarda de zoológico-juta 3.9.4
org.checkerframework verificador de qualidade 3.43.0
org.codehaus.janino compilador comum 3.0.16
org.codehaus.janino Janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus DataNucleus Core 4.1.17
org.datanucleus Datanucleus-RDBMS 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-alpn-client 10.0.26
org.eclipse.jetty Jetty-Cliente 10.0.26
org.eclipse.jetty Jetty-HTTP 10.0.26
org.eclipse.jetty jetty-io 10.0.26
org.eclipse.jetty jetty-jndi 10.0.26
org.eclipse.jetty Jetty Plus 10.0.26
org.eclipse.jetty Jetty-Proxy 10.0.26
org.eclipse.jetty Segurança do Jetty 10.0.26
org.eclipse.jetty servidor jetty 10.0.26
org.eclipse.jetty jetty-servlet 10.0.26
org.eclipse.jetty jetty-servlets 10.0.26
org.eclipse.jetty Jetty-util 10.0.26
org.eclipse.jetty Aplicação web Jetty 10.0.26
org.eclipse.jetty Jetty-XML 10.0.26
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 HK2-Localizador 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 localizador de recursos OSGi 1.0.3
org.glassfish.hk2.external aopalliance-reembalado 2.6.1
org.glassfish.hk2.external jacarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet (serviço de contêiner Jersey) 2.41
org.glassfish.jersey.containers jersey-container-servlet-core 2.41
org.glassfish.jersey.core jersey-client 2.41
org.glassfish.jersey.core Jersey comum 2.41
org.glassfish.jersey.core servidor Jersey 2.41
org.glassfish.jersey.inject jersey-hk2 2.41
org.hibernate.validator hibernate-validator (ferramenta de validação de dados de Java) 6.2.5.Final
org.ini4j ini4j 0.5.4
org.javassist Javassist 3.29.2-GA
org.jboss.logging jboss-logging 3.4.1.Final
org.jdbi jdbi 2.63.1
org.jline Jline 3.27.1-JDK8
org.joda joda-converter 1.7
org.json4s json4s-ast_2.13 4.0.7
org.json4s JSON4S-core_2.13 4.0.7
org.json4s json4s-jackson-core_2,13 4.0.7
org.json4s json4s-jackson_2.13 4.0.7
org.json4s JSON4S-scalap_2.13 4.0.7
org.locationtech.jts JTS-core 1.20.0
org.lz4 lz4-java 1.8.0-databricks-1
org.mlflow mlflow-spark_2,13 2.22.1
org.objenesis objenesis 3.4
org.postgresql PostgreSQL 42.6.1
org.roaringbitmap RoaringBitmap 1.2.1
org.rocksdb rocksdbjni 9.8.4
org.rosuda.REngine REngine 2.1.0
org.scala-lang Escala-compiler_2,13 2.13.16
org.scala-lang scala-library_2.13 2.13.16
org.scala-lang scala-reflect_2.13 2.13.16
org.scala-lang.modules scala-collection-compat_2.13 2.11.0
org.scala-lang.modules scala-java8-compat_2.13 0.9.1
org.scala-lang.modules scala-parallel-collections_2.13 1.2.0
org.scala-lang.modules scala-parser-combinators_2.13 2.4.0
org.scala-lang.modules scala-xml_2.13 2.4.0
org.scala-sbt interface de teste 1.0
org.scalacheck scalacheck_2.13 1.18.0
org.scalactic scalactic_2.13 3.2.19
org.scalanlp breeze-macros_2.13 2.1.0
org.scalanlp breeze_2.13 2.1.0
org.scalatest compatível com scalatest 3.2.19
org.scalatest scalatest-core_2.13 3.2.19
org.scalatest scalatest-diagrams_2.13 3.2.19
org.scalatest scalatest-featurespec_2.13 3.2.19
org.scalatest scalatest-flatspec_2.13 3.2.19
org.scalatest scalatest-freespec_2.13 3.2.19
org.scalatest scalatest-funspec_2.13 3.2.19
org.scalatest scalatest-funsuite_2.13 3.2.19
org.scalatest scalatest-matchers-core_2.13 3.2.19
org.scalatest scalatest-mustmatchers_2.13 3.2.19
org.scalatest scalatest-propspec_2.13 3.2.19
org.scalatest escalatest-refspec_2.13 3.2.19
org.scalatest scalatest-shouldmatchers_2.13 3.2.19
org.scalatest scalatest-wordspec_2.13 3.2.19
org.scalatest scalatest_2.13 3.2.19
org.slf4j jcl-compatível-com-slf4j 2.0.16
org.slf4j jul-para-slf4j 2.0.16
org.slf4j SLF4J-API 2.0.16
org.slf4j slf4j-simple 1.7.25
org.threeten threeten-extra 1.8.0
org.tukaani xz 1.10
org.typelevel algebra_2.13 2.8.0
org.typelevel cats-kernel_2.13 2.8.0
org.typelevel spire-macros_2.13 0.18.0
org.typelevel spire-platform_2.13 0.18.0
org.typelevel spire-util_2.13 0.18.0
org.typelevel spire_2.13 0.18.0
org.wildfly.openssl WildFly-OpenSSL 1.1.3.Final
org.xerial SQLITE-JDBC 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml Snakeyaml 2.0
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 2.5.0-linux-x86_64
Stax stax-api 1.0.1