Azure Databricks Runtime 14.3 LTS

As notas sobre a versão a seguir fornecem informações sobre o Databricks Runtime 14.3 LTS, da plataforma Apache Spark 3.5.0.

O Databricks lançou essas imagens em fevereiro de 2024.

Novos recursos e aprimoramentos

Suporte para otimizações MERGE de vetor de exclusão sem o Photon

O Photon não é mais necessário para operações MERGE para aproveitar otimizações de vetores de exclusão. Confira O que são vetores de exclusão?

APIs de catálogo do Spark agora têm suporte completo no modo de acesso compartilhado

Agora você pode usar todas as funções na API spark.catalog em Python e Scala na computação configurada com o modo de acesso compartilhado.

O Delta UniForm agora está em disponibilidade geral

O UniForm agora está em disponibilidade geral e usa o recurso de tabela IcebergCompatV2. Agora você pode habilitar ou atualizar o UniForm em tabelas existentes. Confira Formato Universal (UniForm) para compatibilidade do Iceberg com tabelas Delta.

Nova função SQL EXECUTE IMMEDIATE

Agora você pode usar a sintaxe EXECUTE IMMEDIATE para dar suporte a consultas parametrizadas no SQL. Consulte EXECUTE IMMEDIATE.

Recomputar dados ignorando estatísticas de tabelas Delta

Agora você pode recomputar estatísticas armazenadas no log Delta depois de alterar colunas usadas para ignorar dados. Consulte Especificar as colunas de estatísticas Delta.

Informações de estado de consulta para consultas de streaming com estado

Agora você pode consultar metadados e dados de estado de Fluxo estruturado. Consulte Ler informações de estado de Fluxo estruturado.

Usar o Microsoft Entra ID (anteriormente Azure Active Directory) para autenticação Kafka em clusters compartilhados

Agora você pode autenticar os serviços dos Hubs de Eventos por meio do OAuth com o Microsoft Entra ID na computação configurada com o modo de acesso compartilhado. Consulte Autenticação da Entidade de Serviço com o Microsoft Entra ID (antigo Azure Active Directory) e Hubs de Eventos do Azure.

Suporte adicionado para a remoção de partição e arquivo para melhorar o desempenho da consulta

Para acelerar algumas consultas que dependem da igualdade tolerante a nulos em condições JOIN, agora damos suporte a DynamicFilePruning e DynamicPartitionPruning para o operador EqualNullSafe em JOINs.

Declarar variáveis temporárias em uma Sessão SQL

Esta versão apresenta a capacidade de declarar variáveis temporárias em uma sessão, que podem ser definidas e, em seguida, referenciadas de dentro de consultas. Confira Variáveis.

Atualizações do Thriftserver para remover recursos não utilizados

O código do Thriftserver foi atualizado para remover o código de recursos obsoletos. Devido a essas alterações, as seguintes configurações não têm mais suporte:

  • Os JARs auxiliares do Hive, configurados usando a propriedade hive.aux.jars.path, não têm mais suporte para conexões hive-thriftserver.
  • O arquivo de inicialização global do Hive (.hiverc), cuja localização está configurada usando a propriedade hive.server2.global.init.file.location ou a variável de ambiente HIVE_CONF_DIR, não tem mais suporte para conexões hive-thriftserver.

Use arquivos truststore e repositório de chaves em volumes do Catálogo do Unity

Agora você pode usar os arquivos truststore e repositório de chaves nos volumes do Catálogo do Unity para autenticar um Registro de Esquema Confluente para dados de buffer de protocolo ou avro. Consulte a documentação sobre avro ou buffers de protocolo.

Suporte ao formato de arquivo XML nativo (Visualização Pública)

O suporte ao formato de arquivo XML nativo está agora em Visualização Pública. O suporte ao formato de arquivo XML permite ingestão, consulta e análise de dados XML para processamento em lotes ou streaming. Ele pode inferir e evoluir automaticamente tipos de esquema e dados, dá suporte a expressões SQL como from_xml e pode gerar documentos XML. Não requer jars externos e funciona perfeitamente com Carregador Automático, read_files, COPY INTO e o Delta Live Tables. Consulte Leitura e gravação de arquivos XML.

Suporte para armazenamento Cloudflare R2 (visualização Pública)

Agora você pode usar o Cloudflare R2 como armazenamento em nuvem para dados registrados no Catálogo do Unity. O Cloudflare R2 destina-se principalmente a casos de uso de compartilhamento Delta em que você deseja evitar as taxas de saída de dados cobradas pelos provedores de nuvem quando os dados cruzam regiões. O armazenamento R2 dá suporte a todos os dados do Databricks e ativos de IA com suporte no AWS S3, no Azure Data Lake Storage Gen2 e no Google Cloud Storage. Confira Usar réplicas do Cloudflare R2 ou migrar o armazenamento para R2 e Criar uma credencial de armazenamento para se conectar ao Cloudflare R2.

O acesso do Spark e do dbutils aos arquivos de workspace dá suporte em clusters do Catálogo do Unity de acesso compartilhado

Agora há suporte para acesso de leitura e gravação do dbutils e do Spark a arquivos de workspace em clusters do Catálogo do Unity no modo de acesso compartilhado. Confira Trabalhar com arquivos de workspace.

Scripts de inicialização e suporte à biblioteca de clusters em clusters do Catálogo do Unity de acesso compartilhado

A instalação de scripts de inicialização com escopo de cluster e bibliotecas Python e JAR em clusters do Catálogo do Unity no modo de acesso compartilhado, incluindo a instalação usando políticas de cluster, agora está em disponibilidade geral. O Databricks recomenda a instalação de scripts e bibliotecas de inicialização de volumes do Catálogo do Unity.

Atualizações da biblioteca

  • Bibliotecas do Python atualizadas:
    • fastjsonschema de 2.19.0 a 2.19.1
    • filelock de 3.12.4 a 3.13.1
    • googleapis-common-protos de 1.61.0 a 1.62.0
    • empacotamento de 22.0 a 23.2
  • Bibliotecas do R atualizadas:
    • externa de 0.8-82 a 0.8-85
    • nlme de 3.1-162 a 3.1-163
    • rpart de 4.1.19 a 4.1.21
  • Bibliotecas do Java atualizadas:
    • com.databricks.databricks-sdk-java de 0.7.0 a 0.13.0
    • org.apache.orc.orc-core de 1.9.1-shaded-protobuf a 1.9.2-shaded-protobuf
    • org.apache.orc.orc-mapreduce de 1.9.1-shaded-protobuf a 1.9.2-shaded-protobuf
    • org.apache.orc.orc-shims a 1.9.1 a 1.9.2
    • org.scala-lang.modules.scala-collection-compat_2.12 de 2.9.0 a 2.11.0

Apache Spark

O Databricks Runtime 14.3 inclui o Apache Spark 3.5.0. Esta versão inclui todas as correções e os aprimoramentos do Spark adicionados ao Databricks Runtime 14.2, bem como as seguintes correções de bugs e melhorias adicionais feitas no Spark:

  • [SPARK-46541] [SC-153546][SQL][CONNECT] Corrige a referência de coluna ambígua na junção automática
  • [SPARK-45433] Reverte "[SC-145163][SQL] Corrige a inferência do esquema CSV/JSON
  • [SPARK-46723] [14.3][SASP-2792][SC-153425][CONNECT][SCALA] Possibilita novas tentativas do addArtifact
  • [SPARK-46660] [SC-153391][CONNECT] ReattachExecute solicita atualizações de vivacidade de SessionHolder
  • [SPARK-46670] [SC-153273][PYTHON][SQL] Possibilita a clonagem automática do DataSourceManager separando fontes de dados do Python estáticas e de runtime
  • [SPARK-46720] [SC-153410][SQL][PYTHON] Refatora a Fonte de Dados do Python para se alinhar com outras Fontes de Dados DSv2 internas
  • [SPARK-46684] [SC-153275][PYTHON][CONNECT] Corrige CoGroup.applyInPandas/Arrow para passar argumentos corretamente
  • [SPARK-46667] [SC-153271][SC-153263][SQL] XML: gera erro em várias fontes de dados XML
  • [SPARK-46382] [SC-151881][SQL]XML: Define o padrão de ignoreSurroundingSpaces como true
  • [SPARK-46382] [SC-153178][SQL] XML: atualiza documento de ignoreSurroundingSpaces
  • [SPARK-45292] Reverte “[SC-151609][SQL][HIVE] Remove o Guava das classes compartilhadas do IsolatedClientLoader”
  • [SPARK-45292] [SC-151609][SQL][HIVE] Remove o Guava das classes compartilhadas do IsolatedClientLoader
  • [SPARK-46311] [SC-150137][CORE] Registra o estado final dos drivers durante Master.removeDriver
  • [SPARK-46413] [SC-151052][PYTHON] Valida returnType do UDF do Python para Arrow
  • [SPARK-46633] [WARMFIX][SC-153092][SQL] Corrige o leitor do Avro para manipular blocos de comprimento zero
  • [SPARK-46537] [SC-151286][SQL] Converte o NPE e declarações de comando em erros internos
  • [SPARK-46179] [SC-151678][SQL] Adiciona CrossDbmsQueryTestSuites, que executa outros gerenciadores de banco de dados em arquivos finais com outros gerenciadores de banco de dados, começando com o Postgres
  • [SPARK-44001] [SC-151413][PROTOBUF] Adiciona opção para permitir desencapsular tipos de wrapper conhecidos do protobuf
  • [SPARK-40876] [SC-151786][SQL] Amplia a promoção de tipos para decimais com maior escala nos leitores Parquet
  • [SPARK-46605] [SC-151769][CONNECT] Faz a função lit/typedLit no módulo de conexão dar suporte a s.c.immutable.ArraySeq
  • [SPARK-46634] [SC-153005][SQL] validação literal não deve analisar detalhadamente campos nulos
  • [SPARK-37039] [SC-153094][PS] Corrige Series.astype para funcionar corretamente com o valor ausente
  • [SPARK-46312] [SC-150163][CORE] Usa lower_camel_case em store_types.proto
  • [SPARK-46630] [SC-153084][SQL] XML: valida o nome do elemento XML na gravação
  • [SPARK-46627] [SC-152981][SS][UI] Corrige o conteúdo da dica de ferramenta da linha do tempo na interface do usuário do streaming
  • [SPARK-46248] [SC-151774][SQL] XML: suporte para opções ignoreCorruptFiles e ignoreMissingFiles
  • [SPARK-46386] [SC-150766][PYTHON] Aprimora as declarações de observação (pyspark.sql.observation)
  • [SPARK-46581] [SC-151789][CORE] Atualiza o comentário de isZero no AccumulatorV2
  • [SPARK-46601] [SC-151785] [CORE] Corrige erro de log no handleStatusMessage
  • [SPARK-46568] [SC-151685][PYTHON] Torna as opções de fonte de dados do Python um dicionário que não diferencia maiúsculas de minúsculas
  • [SPARK-46611] [SC-151783][CORE] Remove ThreadLocal substituindo SimpleDateFormat por DateTimeFormatter
  • [SPARK-46604] [SC-151768][SQL] Faz o Literal.apply dar suporte a s.c.immuable.ArraySeq
  • [SPARK-46324] [SC-150223][SQL][PYTHON] Corrige o nome de saída de pyspark.sql.functions.user e session_user
  • [SPARK-46621] [SC-151794][PYTHON] Exceção capturada de endereço nulo de Exception.getMessage em Py4J
  • [SPARK-46598] [SC-151767][SQL] OrcColumnarBatchReader deve respeitar o modo de memória ao criar vetores de coluna para a coluna ausente
  • [SPARK-46613] [SC-151778][SQL][PYTHON] Registra a exceção completa quando não foi possível pesquisar fontes de dados do Python
  • [SPARK-46559] [SC-151364][MLLIB] Encapsula export no nome do pacote com marcações de código
  • [SPARK-46522] [SC-151784][PYTHON] Impede o registro da fonte de dados do Python com conflitos de nome
  • [SPARK-45580] [SC-149956][SQL] Trata o caso em que uma subconsulta aninhada se torna uma junção de existência
  • [SPARK-46609] [SC-151714][SQL] Evita a explosão exponencial em PartitioningPreservingUnaryExecNode
  • [SPARK-46535] [SC-151288][SQL] Corrige o NPE quando descreve uma coluna estendida sem col stats
  • [SPARK-46599] [SC-147661][SC-151770][SQL] XML: Usa TypeCoercion.findTightestCommonType para verificar a compatibilidade
  • [SPARK-40876] [SC-151129][SQL] Amplia promoções de tipo em leitores Parquet
  • [SPARK-46179] [SC-151069][SQL] Extrai o código em funções reutilizáveis no SQLQueryTestSuite
  • [SPARK-46586] [SC-151679][SQL] Suporta s.c.immutable.ArraySeqcomo customCollectionCls em MapObjects
  • [SPARK-46585] [SC-151622][CORE] metricPeaks construído diretamente como um immutable.ArraySeq em vez de usar mutable.ArraySeq.toSeq em Executor
  • [SPARK-46488] [SC-151173][SQL] Ignora a chamada trimAll durante a análise de carimbo de data/hora
  • [SPARK-46231] [SC-149724][PYTHON] Migra todos os NotImplementedError e TypeError restantes para a estrutura de erros do PySpark
  • [SPARK-46348] [SC-150281][CORE] Suporta spark.deploy.recoveryTimeout
  • [SPARK-46313] [SC-150164][CORE] Registra a duração de recuperação do Spark HA
  • [SPARK-46358] [SC-150307][CONNECT] Simplifica a verificação de condição no ResponseValidator#verifyResponse
  • [SPARK-46380] [SC-151078][SQL] Substitui a hora/data atual antes de avaliar expressões de tabela em linha.
  • [SPARK-46563] [SC-151441][SQL] Exibir simpleString não segue conf spark.sql.debug.maxToStringFields
  • [SPARK-46101] [SC-149211][CORE][SQL][MLLIB][SS][R][CONNCT][GRAPHX] Reduz a profundidade da pilha substituindo (string|array).size por (string|array).length
  • [SPARK-46539] [SC-151469][SQL] SELECT * EXCEPT (todos os campos de um struct) resulta em uma falha de declaração
  • [SPARK-46565] [SC-151414][PYTHON] Refina classes de erro e mensagens de erro de fontes de dados do Python
  • [SPARK-46576] [SC-151614][SQL] Melhora as mensagens de erro para o modo de salvamento da fonte de dados sem suporte
  • [SPARK-46540] [SC-151355][PYTHON] Respeita os nomes das colunas quando a função de leitura da fonte de dados do Python produz chamadas objetos de Linha
  • [SPARK-46577] [SC-151448][SQL] HiveMetastoreLazyInitializationSuite vaza SessionState do Hive
  • [SPARK-44556] [SC-151562][SQL] Reutiliza OrcTail ao habilitar vectorizedReader
  • [SPARK-46587] [SC-151618][SQL] XML: corrige a conversão de inteiros grandes do XSD
  • [SPARK-46382] [SC-151297][SQL] XML: captura valores intercalados entre elementos
  • [SPARK-46567] [SC-151447][CORE] Remove ThreadLocal de ReadAheadInputStream
  • [SPARK-45917] [SC-151269][PYTHON][SQL] Registro automático da Fonte de Dados do Python na inicialização
  • [SPARK-28386] [SC-151014][SQL] Não é possível resolver colunas ORDER BY com GROUP BY e HAVING
  • [SPARK-46524] [SC-151446][SQL] Aprimora mensagens de erro para modo de salvamento inválido
  • [SPARK-46294] [SC-150672][SQL] Limpa a semântica de inicialização versus valor zero
  • [SPARK-46301] [SC-150100][CORE] Suporta spark.worker.(initial|max)RegistrationRetries
  • [SPARK-46542] [SC-151324][SQL] Remove a verificação de c>=0 do ExternalCatalogUtils#needsEscaping como sempre é verdadeira
  • [SPARK-46553] [SC-151360][PS] FutureWarning para interpolate com o tipo de objeto
  • [SPARK-45914] [SC-151312][PYTHON] Suporta a API de confirmação e anulação para gravação da fonte de dados do Python
  • [SPARK-46543] [SC-151350][PYTHON][CONNECT] Faz json_tuple lançar PySparkValueError para campos vazios
  • [SPARK-46520] [SC-151227][PYTHON] Suporta o modo de substituição para gravação da fonte de dados do Python
  • [SPARK-46502] [SC-151235][SQL] Suporta os tipos de carimbo de data/hora em UnwrapCastInBinaryComparison
  • [SPARK-46532] [SC-151279][CONNECT] Passa parâmetros de mensagem em metadados de ErrorInfo
  • [SPARK-46397] Reverte “[SC-151311][PYTHON][CONNECT] O sha2 de função deve gerar PySparkValueError para numBits inválido”
  • [SPARK-46170] [SC-149472][SQL] Suporta regras de estratégia de pós-planejador de consulta adaptável injetáveis em SparkSessionExtensions
  • [SPARK-46444] [SC-151195][SQL] V2SessionCatalog#createTable não deve carregar a tabela
  • [SPARK-46397] [SC-151311][PYTHON][CONNECT] O sha2 de função deve gerar PySparkValueError para numBits inválido
  • [SPARK-46145] [SC-149471][SQL] O spark.catalog.listTables não gera exceção quando a tabela ou exibição não é encontrada
  • [SPARK-46272] [SC-151012][SQL] Suporta CTAS usando fontes DSv2
  • [SPARK-46480] [SC-151127][CORE][SQL] Corrige o NPE quando houver tentativa de tarefa de cache de tabela
  • [SPARK-46100] [SC-149051][CORE][PYTHON] Reduz a profundidade da pilha substituindo (string|array).size por (string|array).length
  • [SPARK-45795] [SC-150764][SQL] O DS V2 dá suporte para o Modo de pressionar
  • [SPARK-46485] [SC-151133][SQL] V1Write não deve adicionar Sort quando não for necessário
  • [SPARK-46468] [SC-151121] [SQL] Manipular bug COUNT para subconsultas EXISTS com Agregação sem chaves de agrupamento
  • [SPARK-46246] [SC-150927][SQL] Suporte do SQL para EXECUTE IMMEDIATE
  • [SPARK-46498] [SC-151199][CORE] Remove shuffleServiceEnabled de o.a.spark.util.Utils#getConfiguredLocalDirs
  • [SPARK-46440] [SC-150807][SQL] Define as configurações de trocar base para o modo CORRECTED por padrão
  • [SPARK-45525] [SC-151120][SQL][PYTHON] Suporta a gravação da fonte de dados do Python usando DSv2
  • [SPARK-46505] [SC-151187][CONNECT] Torna o limite de bytes configurável em ProtoUtils.abbreviate
  • [SPARK-46447] [SC-151025][SQL] Remove as configurações do SQL de troca de base do datetime herdado
  • [SPARK-46443] [SC-151123][SQL] A precisão e a escala decimais devem ser decididas pelo dialeto H2.
  • [SPARK-46384] [SC-150694][SPARK-46404][SS][UI] Corrige o gráfico da pilha de duração da operação na página de streaming estruturado
  • [SPARK-46207] [SC-151068][SQL] Suporta o MergeInto no DataFrameWriterV2
  • [SPARK-46452] [SC-151018][SQL] Adiciona uma nova API no DataWriter para gravar um iterador de registros
  • [SPARK-46273] [SC-150313][SQL] Suporta INSERT INTO/OVERWRITE usando fontes DSv2
  • [SPARK-46344] [SC-150267][CORE] Avisa corretamente quando um driver existir com êxito, mas o mestre está desconectado
  • [SPARK-46284] [SC-149944][PYTHON][CONNECT] Adiciona a função session_user ao Python
  • [SPARK-46043] [SC-149786][SQL] Suporta a criação de tabelas usando fontes DSv2
  • [SPARK-46323] [SC-150191][PYTHON] Corrige o nome de saída de pyspark.sql.functions.now
  • [SPARK-46465] [SC-151059][PYTHON][CONNECT] Adiciona Column.isNaN no PySpark
  • [SPARK-46456] [SC-151050][CORE] Adiciona spark.ui.jettyStopTimeout para definir o tempo limite de parada do servidor Jetty para desbloquear o desligamento do SparkContext
  • [SPARK-43427] [SC-150356][PROTOBUF] protobuf do Spark: permite tipos inteiros sem sinal de upcasting
  • [SPARK-46399] [SC-151013][14.x][Core] Adiciona status de saída ao evento Application End para usar o Ouvinte do Spark
  • [SPARK-46423] [SC-150752][PYTHON][SQL] Torna a instância da Fonte de Dados do Python em DataSource.lookupDataSourceV2
  • [SPARK-46424] [SC-150765][PYTHON][SQL] Suporta métricas do Python na Fonte de Dados Python
  • [SPARK-46330] [SC-151015] Carregamento de blocos de interface do usuário do Spark por um longo tempo quando HybridStore estiver habilitado
  • [SPARK-46378] [SC-150397][SQL] Ainda remove a Classificação após converter Agregação em Projeto
  • [SPARK-45506] [SC-146959][CONNECT] Adiciona suporte ao URI ivy do SparkConnect addArtifact
  • [SPARK-45814] [SC-147871][CONNECT][SQL] Faz com que ArrowConverters.createEmptyArrowBatch chame close() para evitar perda de memória
  • [SPARK-46427] [SC-150759][PYTHON][SQL] Altera a descrição da Fonte de Dados do Python para melhorar a explicação
  • [SPARK-45597] [SC-150730][PYTHON][SQL] Suporta a criação de tabela usando uma fonte de dados do Python no SQL (DSv2 exec)
  • [SPARK-46402] [SC-150700][PYTHON] Adiciona suporte a getMessageParameters e getQueryContext
  • [SPARK-46453] [SC-150897][CONNECT] Gera exceção de internalError() em SessionHolder
  • [SPARK-45758] [SC-147454][SQL] Introduz um mapeador para codecs de compactação hadoop
  • [SPARK-46213] [PYTHON] Introduz PySparkImportError para estrutura de erro
  • [SPARK-46230] [SC-149960][PYTHON] Migra RetriesExceeded para o erro do PySpark
  • [SPARK-45035] [SC-145887][SQL] Corrige ignoreCorruptFiles/ignoreMissingFiles com CSV/JSON multilinha para relatar erro
  • [SPARK-46289] [SC-150846][SQL] Suporta a ordenação de UDTs no modo interpretado
  • [SPARK-46229] [SC-150798][PYTHON][CONNECT] Adiciona applyInArrow ao groupBy e coagrupa no Spark Connect
  • [SPARK-46420] [SC-150847][SQL] Remove transporte não utilizado no SparkSQLCLIDriver
  • [SPARK-46226] [PYTHON] Migra todo o RuntimeError restante para a estrutura de erros do PySpark
  • [SPARK-45796] [SC-150613][SQL] Supporta MODE() WITHIN GROUP (ORDER BY col)
  • [SPARK-40559] [SC-149686][PYTHON][14.X] Adiciona applyInArrow ao groupBy e coagrupa
  • [SPARK-46069] [SC-149672][SQL] Suporta o desencapsulamento do tipo de carimbo de data/hora para o tipo de data
  • [SPARK-46406] [SC-150770][SQL] Atribui um nome à classe de erro _LEGACY_ERROR_TEMP_1023
  • [SPARK-46431] [SC-150782][SS] Converte IllegalStateException em internalError em iteradores de sessão
  • [SPARK-45807] [SC-150751][SQL] Melhora a API de ViewCatalog
  • [SPARK-46009] [SC-149771][SQL][CONNECT] Mescla a regra de análise de PercentileCont e PercentileDisc em functionCall
  • [SPARK-46403] [SC-150756][SQL] Decodifica binário parquet com método getBytesUnsafe
  • [SPARK-46389] [SC-150779][CORE] Fecha manualmente a instância de RocksDB/LevelDB quando checkVersion lançar Exceção
  • [SPARK-46360] [SC-150376][PYTHON] Aprimora a depuração de mensagens de erro com a nova API de getMessage
  • [SPARK-46233] [SC-149766][PYTHON] Migra todo o AttributeError restante para a estrutura de erros do PySpark
  • [SPARK-46394] [SC-150599][SQL] Corrige problemas do spark.catalog.listDatabases() em esquemas com caracteres especiais quando spark.sql.legacy.keepCommandOutputSchema está definido como true
  • [SPARK-45964] [SC-148484][SQL] Remover o acessador sql privado no pacote XML e JSON no pacote do catalyst
  • [SPARK-45856] [SC-148691] Move o ArtifactManager do Spark Connect para SparkSession (sql/core)
  • [SPARK-46409] [SC-150714][CONNECT] Corrige o script de lançamento spark-connect-scala-client
  • [SPARK-46416] [SC-150699][CORE] Adiciona @tailrec a HadoopFSUtils#shouldFilterOutPath
  • [SPARK-46115] [SC-149154][SQL] Restringe conjuntos de caracteres em encode()
  • [SPARK-46253] [SC-150416][PYTHON] Planeja a leitura da fonte de dados do Python usando o MapInArrow
  • [SPARK-46339] [SC-150266][SS] O diretório com o nome do número do lote não deve ser tratado como log de metadados
  • [SPARK-46353] [SC-150396][CORE] Refatorar para melhorar a cobertura do teste de unidade RegisterWorker
  • [SPARK-45826] [SC-149061][SQL] Adiciona uma configuração SQL para rastreamentos de pilha no contexto de consulta DataFrame
  • [SPARK-45649] [SC-150300][SQL] Unifica a estrutura de preparação para OffsetWindowFunctionFrame
  • [SPARK-46346] [SC-150282][CORE] Corrige o Mestre para atualizar um trabalho de UNKNOWN para ALIVE em msg RegisterWorker
  • [SPARK-46388] [SC-150496][SQL] HiveAnalysis perde a proteção padrão de query.resolved
  • [SPARK-46401] [SC-150609][CORE] Usa !isEmpty() em RoaringBitmap em vez de getCardinality() > 0 em RemoteBlockPushResolver
  • [SPARK-46393] [SC-150603][SQL] Classificar exceções no catálogo de tabelas do JDBC
  • [SPARK-45798] [SC-150513][CONNECT] Acompanhamento: adicionar serverSessionId a SessionHolderInfo
  • [SPARK-46153] [SC-146564][SC-150508][SQL] XML: adiciona suporte ao TimestampNTZType
  • [SPARK-46075] [SC-150393][CONNECT] melhorias no SparkConnectSessionManager
  • [SPARK-46357] [SC-150596] Substitui o uso incorreto da documentação de setConf por conf.set
  • [SPARK-46202] [SC-150420][CONNECT] Expõe novas APIs de ArtifactManager para dar suporte a diretórios de destino personalizados
  • [SPARK-45824] [SC-147648][SQL] Impõe a classe de erro em ParseException
  • [SPARK-45845] [SC-148163][SS][UI] Adiciona um número de linhas de estado removidas à interface do usuário de streaming
  • [SPARK-46316] [SC-150181][CORE] Habilita buf-lint-action no módulo core
  • [SPARK-45816] [SC-147656][SQL] Retorna NULL ao estourar durante a conversão do carimbo de data/hora para números inteiros
  • [SPARK-46333] [SC-150263][SQL] Substitui IllegalStateException por SparkException.internalError no catalyst
  • [SPARK-45762] [SC-148486][CORE] Suporta gerenciadores de ordem aleatória definidos em jars de usuário alterando a ordem de inicialização
  • [SPARK-46239] [SC-149752][CORE] Oculta informações de Jetty
  • [SPARK-45886] [SC-148089][SQL] Rastreamento de pilha completa de saída em callSite do contexto do DataFrame
  • [SPARK-46290] [SC-150059][PYTHON] Altera saveMode para um sinalizador booliano para DataSourceWriter
  • [SPARK-45899] [SC-148097][CONNECT] Define errorClass em errorInfoToThrowable
  • [SPARK-45841] [SC-147657][SQL] Expõe rastreamento de pilha por DataFrameQueryContext
  • [SPARK-45843] [SC-147721][CORE] Suporta killall na API REST de Envio
  • [SPARK-46234] [SC-149711][PYTHON] Introduz PySparkKeyError para a estrutura de erro do PySpark
  • [SPARK-45606] [SC-147655][SQL] Restrições de versão no filtro de runtime de várias camadas
  • [SPARK-45725] [SC-147006][SQL] Remove o filtro de runtime de subconsulta IN não padrão
  • [SPARK-45694] [SC-147314][SPARK-45695][SQL] Limpa o uso de View.force e ScalaNumberProxy.signum da API preterida
  • [SPARK-45805] [SC-147488][SQL] Torna withOrigin mais genérico
  • [SPARK-46292] [SC-150086][CORE][UI] Mostra um resumo dos trabalhos no MasterPage
  • [SPARK-45685] [SC-146881][CORE][SQL] Usa LazyList em vez de Stream
  • [SPARK-45888] [SC-149945][SS] Aplica estrutura de classe de erro à Fonte de Dados (metadados) de Estado
  • [SPARK-46261] [SC-150111][CONNECT] DataFrame.withColumnsRenamed deve manter a ordenação de dicionário/mapa
  • [SPARK-46263] [SC-149933][SQL][SS][ML][MLLIB][UI] Limpa as conversões SeqOps.view e ArrayOps.view
  • [SPARK-46029] [SC-149255][SQL] Escape de aspas simples, _ e % para pressionar o DS V2
  • [SPARK-46275] [SC-150189] Protobuf: Retorna nulo no modo permissivo quando a desserialização falhar.
  • [SPARK-46320] [SC-150187][CORE] Suporta spark.master.rest.host
  • [SPARK-46092] [SC-149658][SQL] Não pressione filtros de grupo de linha Parquet que estouram
  • [SPARK-46300] [SC-150097][PYTHON][CONNECT] Corresponder a comportamentos secundários na coluna com cobertura de teste completa
  • [SPARK-46298] [SC-150092][PYTHON][CONNECT] Corresponde aviso de substituição, caso de teste e erro de Catalog.createExternalTable
  • [SPARK-45689] [SC-146898][SPARK-45690][SPARK-45691][CORE][SQL] Limpa o uso relacionado a StringContext/StringOps/RightProjection/LeftProjection/Either e uso do tipo de BufferedIterator/CanBuildFrom/Traversable da API preterida
  • [SPARK-33393] [SC-148407][SQL] Suporta SHOW TABLE EXTENDED na v2
  • [SPARK-45737] [SC-147011][SQL] Remove .toArray[InternalRow] inútil em SparkPlan#executeTake
  • [SPARK-46249] [SC-149797][SS] Exige bloqueio de instância para adquirir métricas do RocksDB, a fim de evitar conflitos com operações em segundo plano
  • [SPARK-46260] [SC-149940][PYTHON][SQL] DataFrame.withColumnsRenamed deve respeitar a ordem do dicionário
  • [SPARK-46274] [SC-150043] [SQL] Corrige o operador de intervalo computeStats() para verificar a validade longa anes da conversão
  • [SPARK-46040] [SC-149767][SQL][Python] Atualiza a API do UDTF para ‘analisar’ colunas de particionamento/ordenação para dar suporte a expressões gerais
  • [SPARK-46287] [SC-149949][PYTHON][CONNECT] DataFrame.isEmpty deve funcionar com todos os tipos de dados
  • [SPARK-45678] [SC-146825][CORE] Cobre BufferReleasingInputStream.available/reset em tryOrFetchFailedException
  • [SPARK-45667] [SC-146716][CORE][SQL][CONNECT] Limpa o uso relacionado a IterableOnceExtensionMethods da API preterida.
  • [SPARK-43980] [SC-148992][SQL] apresentando a sintaxe select * except
  • [SPARK-46269] [SC-149816][PS] Habilita mais testes de função de compatibilidade numPy
  • [SPARK-45807] [SC-149851][SQL] Adiciona createOrReplaceView(..) / replaceView(..) ao ViewCatalog
  • [SPARK-45742] [SC-147212][CORE][CONNECT][MLLIB][PYTHON] Introduz uma função implícita para a Matriz do Scala encapsular em immutable.ArraySeq.
  • [SPARK-46205] [SC-149655][CORE] Melhorar o desempenho de PersistenceEngine com KryoSerializer
  • [SPARK-45746] [SC-149359][Python] Retorna mensagens de erro específicas se o método ‘analyze’ ou ‘eval’ do UDTF aceitar ou retornar valores incorretos
  • [SPARK-46186] [SC-149707][CONNECT] Corrige a transição de estado ilegal quando ExecuteThreadRunner for interrompido antes de começar
  • [SPARK-46262] [SC-149803][PS] Habilita o teste de np.left_shift para o objeto Pandas-on-Spark.
  • [SPARK-45093] [SC-149679][CONNECT][PYTHON] Suporte adequado ao tratamento e à conversão de erros para AddArtifactHandler
  • [SPARK-46188] [SC-149571][Doc][3.5] Corrige o CSS das tabelas geradas por documentos do Spark
  • [SPARK-45940] [SC-149549][PYTHON] Adiciona InputPartition à interface do DataSourceReader
  • [SPARK-43393] [SC-148301][SQL] Bug de estouro da expressão de sequência de endereços.
  • [SPARK-46144] [SC-149466][SQL] Falha em INSERT INTO … Instrução REPLACE se a condição contiver subconsulta
  • [SPARK-46118] [SC-149096][SQL][SS][CONNECT] Usa SparkSession.sessionState.conf em vez de SQLContext.conf e marca SQLContext.conf como preterido
  • [SPARK-45760] [SC-147550][SQL] Adiciona expressão With para evitar a duplicação de expressões
  • [SPARK-43228] [SC-149670][SQL] As chaves de junção também correspondem a PartitioningCollection em CoalesceBucketsInJoin
  • [SPARK-46223] [SC-149691][PS] Testa SparkPandasNotImplementedError com a limpeza de código não utilizado
  • [SPARK-46119] [SC-149205][SQL] Substitui o método toString pelo UnresolvedAlias
  • [SPARK-46206] [SC-149674][PS] Usa uma exceção de escopo mais estreita para o processador SQL
  • [SPARK-46191] [SC-149565][CORE] Aprimora a msg de erro FileSystemPersistenceEngine.persist no caso de arquivo existente
  • [SPARK-46036] [SC-149356][SQL] Remove a classe de erro da função raise_error
  • [SPARK-46055] [SC-149254][SQL] Reescreve a implementação das APIs de Banco de Dados do Catálogo
  • [SPARK-46152] [SC-149454][SQL] XML: Adiciona suporte a DecimalType na inferência de esquema XML
  • [SPARK-45943] [SC-149452][SQL] Move DetermineTableStats para regras de resolução
  • [SPARK-45887] [SC-148994][SQL] Alinha a implementação de codegen e não codegen de Encode
  • [SPARK-45022] [SC-147158][SQL] Fornece contexto para erros de API do conjunto de dados
  • [SPARK-45469] [SC-145135][CORE][SQL][CONNECT][PYTHON] Substitui toIterator por iterator para IterableOnce
  • [SPARK-46141] [SC-149357][SQL] Altera o padrão de spark.sql.legacy.ctePrecedencePolicy para CORRECTED
  • [SPARK-45663] [SC-146617][CORE][MLLIB] Substitui IterableOnceOps#aggregate por IterableOnceOps#foldLeft
  • [SPARK-45660] [SC-146493][SQL] Reutiliza objetos Literais na regra ComputeCurrentTime
  • [SPARK-45803] [SC-147489][CORE] Remove o RpcAbortException que não é mais usado
  • [SPARK-46148] [SC-149350][PS] Corrige teste de pyspark.pandas.mlflow.load_model (Python 3.12)
  • [SPARK-46110] [SC-149090][PYTHON] Usa classes de erro no catálogo, configuração, conexão, observação, módulos pandas
  • [SPARK-45827] [SC-149203][SQL] Correções variantes com codegen e leitor vetorizado desabilitados
  • [SPARK-46080] Revert “[SC-149012][PYTHON] Atualiza Cloudpickle para 3.0.0”
  • [SPARK-45460] [SC-144852][SQL] Substituir scala.collection.convert.ImplicitConversions para scala.jdk.CollectionConverters
  • [SPARK-46073] [SC-149019][SQL] Remove a resolução especial de UnresolvedNamespace para determinados comandos
  • [SPARK-45600] [SC-148976][PYTHON] Tornar o nível de sessão do registro da fonte de dados do Python
  • [SPARK-46074] [SC-149063][CONNECT][SCALA] Detalhes insuficientes na mensagem de erro sobre falha do UDF
  • [SPARK-46114] [SC-149076][PYTHON] Adiciona PySparkIndexError para a estrutura de erros
  • [SPARK-46120] [SC-149083][CONNECT][PYTHON] Remover a função DataFrame.withPlan auxiliar
  • [SPARK-45927] [SC-148660][PYTHON] Tratamento do caminho de atualização para a fonte de dados do Python
  • [SPARK-46062] [14.x][SC-148991][SQL] Sincroniza o sinalizador isStreaming entre a referência e a definição de CTE
  • [SPARK-45698] [SC-146736][CORE][SQL][SS] Limpa o uso relacionado a Buffer da API preterida
  • [SPARK-46064] [SC-148984][SQL][SS] Move EliminateEventTimeWatermark para o analisador e altera para entrar em vigor apenas no filho resolvido
  • [SPARK-45922] [SC-149038][CONNECT][CLIENT] Tentativas secundárias de refatoração (acompanhamento de várias políticas)
  • [SPARK-45851] [SC-148419][CONNECT][SCALA] Suporta várias políticas no cliente Scala
  • [SPARK-45974] [SC-149062][SQL] Adiciona o julgamento não vazio scan.filterAttributes para RowLevelOperationRuntimeGroupFiltering
  • [SPARK-46085] [SC-149049][CONNECT] Dataset.groupingSets no cliente Scala Spark Connect
  • [SPARK-45136] [SC-146607][CONNECT] Aprimora o ClosureCleaner com suporte a Ammonite
  • [SPARK-46084] [SC-149020][PS] Refatora operação de conversão do tipo de dados para tipo Categórico.
  • [SPARK-46083] [SC-149018][PYTHON] Torna SparkNoSuchElementException como uma API de erro canônico
  • [SPARK-46048] [SC-148982][PYTHON][CONNECT] Suporta DataFrame.groupingSets no Python Spark Connect
  • [SPARK-46080] [SC-149012][PYTHON] Atualiza o Cloudpickle para 3.0.0
  • [SPARK-46082] [SC-149015][PYTHON][CONNECT] Corrige a representação de cadeia de caracteres do protobuf para a API de Funções do Pandas com o Spark Connect
  • [SPARK-46065] [SC-148985][PS] Refatora (DataFrame|Series).factorize() para usar create_map.
  • [SPARK-46070] [SC-148993][SQL] Compila o padrão regex em SparkDateTimeUtils.getZoneId fora do loop frequente
  • [SPARK-46063] [SC-148981][PYTHON][CONNECT] Aprimora mensagens de erro relacionadas a tipos de argumento em cute, rollup, groupby e pivot
  • [SPARK-44442] [SC-144120][MESOS] Remove o suporte a Mesos
  • [SPARK-45555] [SC-147620][PYTHON] Inclui um objeto depurável para declaração com falha
  • [SPARK-46048] [SC-148871][PYTHON][SQL] Suporta DataFrame.groupingSets no PySpark
  • [SPARK-45768] [SC-147304][SQL][PYTHON] Torna o manipulador de falhas uma configuração de runtime para execução do Python no SQL
  • [SPARK-45996] [SC-148586][PYTHON][CONNECT] Mostra mensagens de requisito de dependência adequadas para o Spark Connect
  • [SPARK-45681] [SC-146893][UI] Clona uma versão js de UIUtils.errorMessageCell para renderização de erro consistente na interface do usuário
  • [SPARK-45767] [SC-147225][CORE] Exclui TimeStampedHashMap e seus UT
  • [SPARK-45696] [SC-148864][CORE] O método de correção tryCompleteWith em trait Promise foi preterido
  • [SPARK-45503] [SC-146338][SS] Adicionar Configuração para definir a Compactação do RocksDB
  • [SPARK-45338] [SC-143934][CORE][SQL] Substitui scala.collection.JavaConverters para scala.jdk.CollectionConverters
  • [SPARK-44973] [SC-148804][SQL] Corrige ArrayIndexOutOfBoundsException em conv()
  • [SPARK-45912] [SC-144982][SC-148467][SQL] Aprimoramento da API do XSDToSchema: alteração para a API do HDFS para acessibilidade do armazenamento em nuvem
  • [SPARK-45819] [SC-147570][CORE] Suporta clear na API REST de Envio
  • [SPARK-45552] [14.x][SC-146874][PS] Introduz o parâmetros flexíveis para assertDataFrameEqual
  • [SPARK-45815] [SC-147877][SQL][Streaming][14.x][CHERRY-PICK] Fornece uma interface para outras fontes de streaming adicionarem colunas _metadata
  • [SPARK-45929] [SC-148692][SQL] Suporta a operação groupingSets na API do dataframe
  • [SPARK-46012] [SC-148693][CORE] O EventLogFileReader não deve ler logs sem interrupção se o arquivo de status do aplicativo estiver ausente
  • [SPARK-45965] [SC-148575][SQL] Move expressões de particionamento do DSv2 para functions.partitioning
  • [SPARK-45971] [SC-148541][CORE][SQL] Corrige o nome do pacote de SparkCollectionUtils para org.apache.spark.util
  • [SPARK-45688] [SC-147356][SPARK-45693][CORE] Limpa o uso da API preterida relacionado a MapOps e corrige method += in trait Growable is deprecated
  • [SPARK-45962] [SC-144645][SC-148497][SQL] Remove treatEmptyValuesAsNulls e usa a opção nullValue no lugar em XML
  • [SPARK-45988] [SC-148580][SPARK-45989][PYTHON] Corrige typehints para lidar com list GenericAlias no Python 3.11+
  • [SPARK-45999] [SC-148595][PS] Usa PandasProduct dedicado em cumprod
  • [SPARK-45986] [SC-148583][ML][PYTHON] Corrige pyspark.ml.torch.tests.test_distributor no Python 3.11
  • [SPARK-45994] [SC-148581][PYTHON] Altera description-file para description_file
  • [SPARK-45575] [SC-146713][SQL] Suporta opções de viagem no tempo para a API de leitura df
  • [SPARK-45747] [SC-148404][SS] Usa informações de chave de prefixo em metadados de estado para lidar com o estado de leitura para agregação de janela de sessão
  • [SPARK-45898] [SC-148213][SQL] Reescreve APIs de tabela do catálogo para usar plano lógico não resolvido
  • [SPARK-45828] [SC-147663][SQL] Remove o método preterido em dsl
  • [SPARK-45990] [SC-148576][SPARK-45987][PYTHON][CONNECT] Atualiza protobuf para 4.25.1 para dar suporte a Python 3.11
  • [SPARK-45911] [SC-148226][CORE] Torna o TLS1.3 o padrão para RPC SSL
  • [SPARK-45955] [SC-148429][UI] Recolhe o suporte para detalhes de despejo do Flamegraph e de thread
  • [SPARK-45936] [SC-148392][PS] Otimiza Index.symmetric_difference
  • [SPARK-45389] [SC-144834][SQL][3.5] Regra de correspondência correta de MetaException na obtenção de metadados de partição
  • [SPARK-45655] [SC-148085][SQL][SS] Permite expressões não determinísticas dentro de AggregateFunctions em CollectMetrics
  • [SPARK-45946] [SC-148448][SS] Corrige o uso de gravação de FileUtils preterida para passar o conjunto de caracteres padrão no RocksDBSuite
  • [SPARK-45511] [SC-148285][SS] Fonte de dados de estado – Leitor
  • [SPARK-45918] [SC-148293][PS] Otimiza MultiIndex.symmetric_difference
  • [SPARK-45813] [SC-148288][CONNECT][PYTHON] Retorna as métricas observadas dos comandos
  • [SPARK-45867] [SC-147916][CORE] Suporta spark.worker.idPattern
  • [SPARK-45945] [SC-148418][CONNECT] Adiciona a função auxiliar para parser
  • [SPARK-45930] [SC-148399][SQL] Suporta UDFs não determinísticas em MapInPandas/MapInArrow
  • [SPARK-45810] [SC-148356][Python] Cria a API do UDTF do Python para parar de consumir linhas da tabela de entrada
  • [SPARK-45731] [SC-147929][SQL] Atualiza também as estatísticas de partição com o comando ANALYZE TABLE
  • [SPARK-45868] [SC-148355][CONNECT] Garante que spark.table use o mesmo analisador com vanilla spark
  • [SPARK-45882] [SC-148161][SQL] BroadcastHashJoinExec que propaga o particionamento deve respeitar CoalescedHashPartitioning
  • [SPARK-45710] [SC-147428][SQL] Atribui nomes ao erro _LEGACY_ERROR_TEMP_21[59,60,61,62]
  • [SPARK-45915] [SC-148306][SQL] Trata decimal(x, 0) da mesma forma que IntegralType em PromoteStrings
  • [SPARK-45786] [SC-147552][SQL] Corrige resultados imprecisos de divisão e multiplicação decimal
  • [SPARK-45871] [SC-148084][CONNECT] Conversão da coleção de otimizações relacionada a .toBuffer nos módulos connect
  • [SPARK-45822] [SC-147546][CONNECT] SparkConnectSessionManager pode procurar um sparkcontext interrompido
  • [SPARK-45913] [SC-148289][PYTHON] Torna os atributos internos privados de erros do PySpark.
  • [SPARK-45827] [SC-148201][SQL] Adiciona o tipo de dados Variante no Spark.
  • [SPARK-44886] [SC-147876][SQL] Introduz a cláusula CLUSTER BY para CREATE/REPLACE TABLE
  • [SPARK-45756] [SC-147959][CORE] Suporta spark.master.useAppNameAsAppId.enabled
  • [SPARK-45798] [SC-147956][CONNECT] Declara a ID da sessão do lado do servidor
  • [SPARK-45896] [SC-148091][SQL] Constructo ValidateExternalType com o tipo esperado correto
  • [SPARK-45902] [SC-148123][SQL] Remove a função resolvePartitionColumns não utilizada de DataSource
  • [SPARK-45909] [SC-148137][SQL] Remove a conversão NumericType se puder converter com segurança em IsNotNull
  • [SPARK-42821] [SC-147715][SQL] Remove parâmetros não utilizados em métodos splitFiles
  • [SPARK-45875] [SC-148088][CORE] Remove MissingStageTableRowData do módulo core
  • [SPARK-45783] [SC-148120][PYTHON][CONNECT] Melhora as mensagens de erro quando o modo Spark Connect estiver habilitado, mas o URL remoto não está definido
  • [SPARK-45804] [SC-147529][UI] Adiciona a configuração spark.ui.threadDump.flamegraphEnabled para ativar/desativar o flame graph
  • [SPARK-45664] [SC-146878][SQL] Introduz um mapeador para codecs de compactação orc
  • [SPARK-45481] [SC-146715][SQL] Introduz um mapeador para codecs de compactação parquet
  • [SPARK-45752] [SC-148005][SQL] Simplifica o código para verificar as relações de CTE não referenciadas
  • [SPARK-44752] [SC-146262][SQL] XML: atualiza documentos do Spark
  • [SPARK-45752] [SC-147869][SQL] CTE não referenciado deve ser verificado pelo CheckAnalysis0
  • [SPARK-45842] [SC-147853][SQL] Refatora APIs de Função de Catálogo para usar o analisador
  • [SPARK-45639] [SC-147676][SQL][PYTHON] Suporta o carregamento de fontes de dados do Python no DataFrameReader
  • [SPARK-45592] [SC-146977][SQL] Problema de correção no AQE com InMemoryTableScanExec
  • [SPARK-45794] [SC-147646][SS] Introduz a fonte de metadados de estado para consultar as informações de metadados do estado de streaming
  • [SPARK-45739] [SC-147059][PYTHON] Captura IOException em vez de somente EOFException para faulthandler
  • [SPARK-45677] [SC-146700] Melhor registro em log de erros para a API de Observação
  • [SPARK-45544] [SC-146873][CORE] Integra o suporte do SSL ao TransportContext
  • [SPARK-45654] [SC-147152][PYTHON] Adiciona a API de gravação da fonte de dados do Python
  • [SPARK-45771] [SC-147270][CORE] Habilita spark.eventLog.rolling.enabled por padrão
  • [SPARK-45713] [SC-146986][PYTHON] Suporta o registro de fontes de dados do Python
  • [SPARK-45656] [SC-146488][SQL] Corrige a observação quando observações nomeadas com o mesmo nome em conjuntos de dados diferentes
  • [SPARK-45808] [SC-147571][CONNECT][PYTHON] Melhora o tratamento de erros para exceções de SQL
  • [SPARK-45774] [SC-147353][CORE][UI] Suporta spark.master.ui.historyServerUrl em ApplicationPage
  • [SPARK-45776] [SC-147327][CORE] Remove a verificação de nulo defensiva para MapOutputTrackerMaster#unregisterShuffle adicionado no SPARK-39553
  • [SPARK-45780] [SC-147410][CONNECT] Propaga todos os threadlocals de cliente do Spark Connect em InheritableThread
  • [SPARK-45785] [SC-147419][CORE] Suporta spark.deploy.appNumberModulo para girar o número do aplicativo
  • [SPARK-45793] [SC-147456][CORE] Aprimora os codecs de compactação internos
  • [SPARK-45757] [SC-147282][ML] Evite a recomputação de NNZ no Binarizador
  • [SPARK-45209] [SC-146490][CORE][UI] Suporta o Flame Graph para a página de despejo de thread do executor
  • [SPARK-45777] [SC-147319][CORE] Suporta spark.test.appId em LocalSchedulerBackend
  • [SPARK-45523] [SC-146331][PYTHON] Refatora a verificação de nulo para ter atalhos
  • [SPARK-45711] [SC-146854][SQL] Introduz um mapeador para codecs de compactação avro
  • [SPARK-45523] [SC-146077][Python] Retorna mensagem de erro útil se o UDTF retornar a coluna Nenhum para qualquer coluna não anulável
  • [SPARK-45614] [SC-146729][SQL] Atribui nomes ao erro _LEGACY_ERROR_TEMP_215[6,7,8]
  • [SPARK-45755] [SC-147164][SQL] Aprimora Dataset.isEmpty() aplicando o limite global 1
  • [SPARK-45569] [SC-145915][SQL] Atribui nome ao erro _LEGACY_ERROR_TEMP_2153
  • [SPARK-45749] [SC-147153][CORE][WEBUI] Corrige Spark History Server para classificar a coluna Duration corretamente
  • [SPARK-45754] [SC-147169][CORE] Suporta spark.deploy.appIdPattern
  • [SPARK-45707] [SC-146880][SQL] Simplifica DataFrameStatFunctions.countMinSketch com CountMinSketchAgg
  • [SPARK-45753] [SC-147167][CORE] Suporta spark.deploy.driverIdPattern
  • [SPARK-45763] [SC-147177][CORE][UI] Aprimora MasterPage para mostrar a coluna Resource somente quando existir
  • [SPARK-45112] [SC-143259][SQL] Usa a resolução baseada em UnresolvedFunction em funções SQL Dataset

Suporte ao driver ODBC/JDBC do Databricks

O Databricks dá suporte a drivers ODBC/JDBC lançados nos últimos dois anos. Baixe os drivers e a atualização lançados recentemente (baixe o ODBC, baixe o JDBC).

Atualizações de manutenção

Consulte as atualizações de manutenção do Azure Databricks Runtime 14.3. Isso é comentado na versão inicial.

Ambiente do sistema

  • Sistema operacional: Ubuntu 22.04.3 LTS
  • Java: Zulu 8.74.0.17-CA-linux64
  • Scala: 2.12.15
  • Python: 3.10.12
  • R: 4.3.1
  • Delta Lake: 3.1.0

Bibliotecas Python instaladas

Biblioteca Versão Biblioteca Versão Biblioteca Versão
anyio 3.5.0 argon2-cffi 21.3.0 argon2-cffi-bindings 21.2.0
asttokens 2.0.5 attrs 22.1.0 backcall 0.2.0
beautifulsoup4 4.11.1 black 22.6.0 bleach 4.1.0
blinker 1.4 boto3 1.24.28 botocore 1.27.96
certifi 2022.12.7 cffi 1.15.1 chardet 4.0.0
charset-normalizer 2.0.4 clique 8.0.4 comm 0.1.2
contourpy 1.0.5 criptografia 39.0.1 cycler 0.11.0
Cython 0.29.32 databricks-sdk 0.1.6 dbus-python 1.2.18
debugpy 1.6.7 decorator 5.1.1 defusedxml 0.7.1
distlib 0.3.7 docstring-to-markdown 0,11 entrypoints 0,4
em execução 0.8.3 facets-overview 1.1.1 fastjsonschema 2.19.1
filelock 3.13.1 fonttools 4.25.0 googleapis-common-protos 1.62.0
grpcio 1.48.2 grpcio-status 1.48.1 httplib2 0.20.2
idna 3.4 importlib-metadata 4.6.4 ipykernel 6.25.0
ipython 8.14.0 ipython-genutils 0.2.0 ipywidgets 7.7.2
jedi 0.18.1 jeepney 0.7.1 Jinja2 3.1.2
jmespath 0.10.0 joblib 1.2.0 jsonschema 4.17.3
jupyter-client 7.3.4 jupyter-server 1.23.4 jupyter_core 5.2.0
jupyterlab-pygments 0.1.2 jupyterlab-widgets 1.0.0 keyring 23.5.0
kiwisolver 1.4.4 launchpadlib 1.10.16 lazr.restfulclient 0.14.4
lazr.uri 1.0.6 lxml 4.9.1 MarkupSafe 2.1.1
matplotlib 3.7.0 matplotlib-inline 0.1.6 mccabe 0.7.0
mistune 0.8.4 more-itertools 8.10.0 mypy-extensions 0.4.3
nbclassic 0.5.2 nbclient 0.5.13 nbconvert 6.5.4
nbformat 5.7.0 nest-asyncio 1.5.6 nodeenv 1.8.0
notebook 6.5.2 notebook_shim 0.2.2 numpy 1.23.5
oauthlib 3.2.0 empacotando 23,2 pandas 1.5.3
pandocfilters 1.5.0 parso 0.8.3 pathspec 0.10.3
patsy 0.5.3 pexpect 4.8.0 pickleshare 0.7.5
Pillow 9.4.0 pip 22.3.1 platformdirs 2.5.2
plotly 5.9.0 pluggy 1.0.0 prometheus-client 0.14.1
prompt-toolkit 3.0.36 protobuf 4.24.0 psutil 5.9.0
psycopg2 2.9.3 ptyprocess 0.7.0 pure-eval 0.2.2
pyarrow 8.0.0 pyarrow-hotfix 0.5 pycparser 2.21
pydantic 1.10.6 pyflakes 3.1.0 Pygments 2.11.2
PyGObject 3.42.1 PyJWT 2.3.0 pyodbc 4.0.32
pyparsing 3.0.9 pyright 1.1.294 pyrsistent 0.18.0
python-dateutil 2.8.2 python-lsp-jsonrpc 1.1.1 python-lsp-server 1.8.0
pytoolconfig 1.2.5 pytz 2022.7 pyzmq 23.2.0
solicitações 2.28.1 rope 1.7.0 s3transfer 0.6.2
scikit-learn 1.1.1 scipy 1.10.0 seaborn 0.12.2
SecretStorage 3.3.1 Send2Trash 1.8.0 setuptools 65.6.3
six 1.16.0 sniffio 1.2.0 soupsieve 2.3.2.post1
ssh-import-id 5.11 stack-data 0.2.0 statsmodels 0.13.5
tenacity 8.1.0 terminado 0.17.1 threadpoolctl 2.2.0
tinycss2 1.2.1 tokenize-rt 4.2.1 tomli 2.0.1
tornado 6.1 traitlets 5.7.1 typing_extensions 4.4.0
ujson 5.4.0 unattended-upgrades 0,1 urllib3 1.26.14
virtualenv 20.16.7 wadllib 1.3.6 wcwidth 0.2.5
webencodings 0.5.1 websocket-client 0.58.0 whatthepatch 1.0.2
wheel 0.38.4 widgetsnbextension 3.6.1 yapf 0.33.0
zipp 1.0.0

Bibliotecas R instaladas

As bibliotecas R são instaladas a partir do instantâneo CRAN do Gerenciador de Pacotes Posit em 02/10/2023.

Biblioteca Versão Biblioteca Versão Biblioteca Versão
seta 12.0.1 askpass 1,1 assertthat 0.2.1
backports 1.4.1 base 4.3.1 base64enc 0.1-3
bit 4.0.5 bit64 4.0.5 blob 1.2.4
boot 1.3-28 brew 1.0-8 brio 1.1.3
broom 1.0.5 bslib 0.5.0 cachem 1.0.8
callr 3.7.3 sinal de interpolação 6.0-94 cellranger 1.1.0
chron 2.3-61 class 7.3-22 cli 3.6.1
clipr 0.8.0 clock 0.7.0 cluster 2.1.4
codetools 0.2-19 colorspace 2.1-0 commonmark 1.9.0
compiler 4.3.1 config 0.3.1 conflicted 1.2.0
cpp11 0.4.4 crayon 1.5.2 credenciais 1.3.2
curl 5.0.1 data.table 1.14.8 conjuntos de dados 4.3.1
DBI 1.1.3 dbplyr 2.3.3 desc 1.4.2
devtools 2.4.5 diagrama 1.6.5 diffobj 0.3.5
digest 0.6.33 downlit 0.4.3 dplyr 1.1.2
dtplyr 1.3.1 e1071 1.7-13 ellipsis 0.3.2
evaluate 0,21 fansi 1.0.4 farver 2.1.1
fastmap 1.1.1 fontawesome 0.5.1 forcats 1.0.0
foreach 1.5.2 foreign 0.8-85 forge 0.2.0
fs 1.6.2 future 1.33.0 future.apply 1.11.0
gargle 1.5.1 genéricos 0.1.3 gert 1.9.2
ggplot2 3.4.2 gh 1.4.0 gitcreds 0.1.2
glmnet 4.1-7 globals 0.16.2 glue 1.6.2
googledrive 2.1.1 googlesheets4 1.1.1 gower 1.0.1
elemento gráfico 4.3.1 grDevices 4.3.1 grid 4.3.1
gridExtra 2.3 gsubfn 0.7 gtable 0.3.3
hardhat 1.3.0 haven 2.5.3 highr 0,10
hms 1.1.3 htmltools 0.5.5 htmlwidgets 1.6.2
httpuv 1.6.11 httr 1.4.6 httr2 0.2.3
ids 1.0.1 ini 0.3.1 ipred 0.9-14
isoband 0.2.7 iterators 1.0.14 jquerylib 0.1.4
jsonlite 1.8.7 KernSmooth 2.23-21 knitr 1.43
labeling 0.4.2 later 1.3.1 lattice 0.21-8
lava 1.7.2.1 ciclo de vida 1.0.3 listenv 0.9.0
lubridate 1.9.2 magrittr 2.0.3 markdown 1,7
MASS 7.3-60 Matriz 1.5-4.1 memoise 2.0.1
métodos 4.3.1 mgcv 1.8-42 mime 0,12
miniUI 0.1.1.1 ModelMetrics 1.2.2.2 modelr 0.1.11
munsell 0.5.0 nlme 3.1-163 nnet 7.3-19
numDeriv 2016.8-1.1 openssl 2.0.6 parallel 4.3.1
parallelly 1.36.0 pillar 1.9.0 pkgbuild 1.4.2
pkgconfig 2.0.3 pkgdown 2.0.7 pkgload 1.3.2.1
plogr 0.2.0 plyr 1.8.8 praise 1.0.0
prettyunits 1.1.1 pROC 1.18.4 processx 3.8.2
prodlim 2023.03.31 profvis 0.3.8 progress 1.2.2
progressr 0.13.0 promises 1.2.0.1 proto 1.0.0
proxy 0.4-27 ps 1.7.5 purrr 1.0.1
r2d3 0.2.6 R6 2.5.1 ragg 1.2.5
randomForest 4.7-1.1 rappdirs 0.3.3 rcmdcheck 1.4.0
RColorBrewer 1.1-3 Rcpp 1.0.11 RcppEigen 0.3.3.9.3
readr 2.1.4 readxl 1.4.3 recipes 1.0.6
rematch 1.0.1 rematch2 2.1.2 remotes 2.4.2
reprex 2.0.2 reshape2 1.4.4 rlang 1.1.1
rmarkdown 2.23 RODBC 1.3-20 roxygen2 7.2.3
rpart 4.1.21 rprojroot 2.0.3 Rserve 1.8-11
RSQLite 2.3.1 rstudioapi 0.15.0 rversions 2.1.2
rvest 1.0.3 sass 0.4.6 scales 1.2.1
selectr 0.4-2 sessioninfo 1.2.2 shape 1.4.6
shiny 1.7.4.1 sourcetools 0.1.7-1 sparklyr 1.8.1
spatial 7.3-15 splines 4.3.1 sqldf 0.4-11
SQUAREM 2021.1 stats 4.3.1 stats4 4.3.1
stringi 1.7.12 stringr 1.5.0 survival 3.5-5
sys 3.4.2 systemfonts 1.0.4 tcltk 4.3.1
testthat 3.1.10 textshaping 0.3.6 tibble 3.2.1
tidyr 1.3.0 tidyselect 1.2.0 tidyverse 2.0.0
timechange 0.2.0 timeDate 4022.108 tinytex 0,45
tools 4.3.1 tzdb 0.4.0 urlchecker 1.0.1
usethis 2.2.2 utf8 1.2.3 utils 4.3.1
uuid 1.1-0 vctrs 0.6.3 viridisLite 0.4.2
vroom 1.6.3 waldo 0.5.1 whisker 0.4.1
withr 2.5.0 xfun 0.39 xml2 1.3.5
xopen 1.0.0 xtable 1.8-4 yaml 2.3.7
zip 2.3.0

Bibliotecas do Java e do Scala instaladas (versão do cluster Scala 2.12)

ID do Grupo Artifact ID Versão
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.390
com.amazonaws aws-java-sdk-cloudformation 1.12.390
com.amazonaws aws-java-sdk-cloudfront 1.12.390
com.amazonaws aws-java-sdk-cloudhsm 1.12.390
com.amazonaws aws-java-sdk-cloudsearch 1.12.390
com.amazonaws aws-java-sdk-cloudtrail 1.12.390
com.amazonaws aws-java-sdk-cloudwatch 1.12.390
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.390
com.amazonaws aws-java-sdk-codedeploy 1.12.390
com.amazonaws aws-java-sdk-cognitoidentity 1.12.390
com.amazonaws aws-java-sdk-cognitosync 1.12.390
com.amazonaws aws-java-sdk-config 1.12.390
com.amazonaws aws-java-sdk-core 1.12.390
com.amazonaws aws-java-sdk-datapipeline 1.12.390
com.amazonaws aws-java-sdk-directconnect 1.12.390
com.amazonaws aws-java-sdk-directory 1.12.390
com.amazonaws aws-java-sdk-dynamodb 1.12.390
com.amazonaws aws-java-sdk-ec2 1.12.390
com.amazonaws aws-java-sdk-ecs 1.12.390
com.amazonaws aws-java-sdk-efs 1.12.390
com.amazonaws aws-java-sdk-elasticache 1.12.390
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.390
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.390
com.amazonaws aws-java-sdk-elastictranscoder 1.12.390
com.amazonaws aws-java-sdk-emr 1.12.390
com.amazonaws aws-java-sdk-glacier 1.12.390
com.amazonaws aws-java-sdk-glue 1.12.390
com.amazonaws aws-java-sdk-iam 1.12.390
com.amazonaws aws-java-sdk-importexport 1.12.390
com.amazonaws aws-java-sdk-kinesis 1.12.390
com.amazonaws aws-java-sdk-kms 1.12.390
com.amazonaws aws-java-sdk-lambda 1.12.390
com.amazonaws aws-java-sdk-logs 1.12.390
com.amazonaws aws-java-sdk-machinelearning 1.12.390
com.amazonaws aws-java-sdk-opsworks 1.12.390
com.amazonaws aws-java-sdk-rds 1.12.390
com.amazonaws aws-java-sdk-redshift 1.12.390
com.amazonaws aws-java-sdk-route53 1.12.390
com.amazonaws aws-java-sdk-s3 1.12.390
com.amazonaws aws-java-sdk-ses 1.12.390
com.amazonaws aws-java-sdk-simpledb 1.12.390
com.amazonaws aws-java-sdk-simpleworkflow 1.12.390
com.amazonaws aws-java-sdk-sns 1.12.390
com.amazonaws aws-java-sdk-sqs 1.12.390
com.amazonaws aws-java-sdk-ssm 1.12.390
com.amazonaws aws-java-sdk-storagegateway 1.12.390
com.amazonaws aws-java-sdk-sts 1.12.390
com.amazonaws aws-java-sdk-support 1.12.390
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.390
com.amazonaws jmespath-java 1.12.390
com.clearspring.analytics fluxo 2.9.6
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.13.0
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryo-shaded 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml classmate 1.3.4
com.fasterxml.jackson.core jackson-annotations 2.15.2
com.fasterxml.jackson.core jackson-core 2.15.2
com.fasterxml.jackson.core jackson-databind 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-yaml 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.15.1
com.fasterxml.jackson.module jackson-module-paranamer 2.15.2
com.fasterxml.jackson.module jackson-module-scala_2.12 2.15.2
com.github.ben-manes.caffeine caffeine 2.9.3
com.github.fommil jniloader 1,1
com.github.fommil.netlib native_ref-java 1,1
com.github.fommil.netlib native_ref-java 1.1-natives
com.github.fommil.netlib native_system-java 1,1
com.github.fommil.netlib native_system-java 1.1-natives
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-natives
com.github.fommil.netlib netlib-native_system-linux-x86_64 1.1-natives
com.github.luben zstd-jni 1.5.5-4
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.10.1
com.google.crypto.tink tink 1.9.0
com.google.errorprone error_prone_annotations 2.10.0
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava guava 15.0
com.google.protobuf protobuf-java 2.6.1
com.helger profiler 1.1.1
com.jcraft jsch 0.1.55
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.ning compress-lzf 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe config 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.3
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.16.0
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.13.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib blas 3.0.3
dev.ludovic.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift aircompressor 0,25
io.delta delta-sharing-client_2.12 1.0.3
io.dropwizard.metrics metrics-annotation 4.2.19
io.dropwizard.metrics metrics-core 4.2.19
io.dropwizard.metrics metrics-graphite 4.2.19
io.dropwizard.metrics metrics-healthchecks 4.2.19
io.dropwizard.metrics metrics-jetty9 4.2.19
io.dropwizard.metrics metrics-jmx 4.2.19
io.dropwizard.metrics metrics-json 4.2.19
io.dropwizard.metrics metrics-jvm 4.2.19
io.dropwizard.metrics metrics-servlets 4.2.19
io.netty netty-all 4.1.96.Final
io.netty netty-buffer 4.1.96.Final
io.netty netty-codec 4.1.96.Final
io.netty netty-codec-http 4.1.96.Final
io.netty netty-codec-http2 4.1.96.Final
io.netty netty-codec-socks 4.1.96.Final
io.netty netty-common 4.1.96.Final
io.netty netty-handler 4.1.96.Final
io.netty netty-handler-proxy 4.1.96.Final
io.netty netty-resolver 4.1.96.Final
io.netty netty-tcnative-boringssl-static 2.0.61.Final-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-osx-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-windows-x86_64
io.netty netty-tcnative-classes 2.0.61.Final
io.netty netty-transport 4.1.96.Final
io.netty netty-transport-classes-epoll 4.1.96.Final
io.netty netty-transport-classes-kqueue 4.1.96.Final
io.netty netty-transport-native-epoll 4.1.96.Final
io.netty netty-transport-native-epoll 4.1.96.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.96.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.96.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.96.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.1.96.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx coletor 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation activation 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1,1
javax.transaction transaction-api 1,1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.12.1
net.java.dev.jna jna 5.8.0
net.razorvine pickle 1,3
net.sf.jpam jpam 1,1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.9.3
org.antlr stringtemplate 3.2.1
org.apache.ant ant 1.9.16
org.apache.ant ant-jsch 1.9.16
org.apache.ant ant-launcher 1.9.16
org.apache.arrow arrow-format 12.0.1
org.apache.arrow arrow-memory-core 12.0.1
org.apache.arrow arrow-memory-netty 12.0.1
org.apache.arrow arrow-vector 12.0.1
org.apache.avro avro 1.11.2
org.apache.avro avro-ipc 1.11.2
org.apache.avro avro-mapred 1.11.2
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.23.0
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1.10.0
org.apache.curator curator-client 2.13.0
org.apache.curator curator-framework 2.13.0
org.apache.curator curator-recipes 2.13.0
org.apache.datasketches datasketches-java 3.1.0
org.apache.datasketches datasketches-memory 2.0.0
org.apache.derby derby 10.14.2.0
org.apache.hadoop hadoop-client-runtime 3.3.6
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims hive-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy ivy 2.5.1
org.apache.logging.log4j log4j-1.2-api 2.20.0
org.apache.logging.log4j log4j-api 2.20.0
org.apache.logging.log4j log4j-core 2.20.0
org.apache.logging.log4j log4j-slf4j2-impl 2.20.0
org.apache.orc orc-core 1.9.2-shaded-protobuf
org.apache.orc orc-mapreduce 1.9.2-shaded-protobuf
org.apache.orc orc-shims 1.9.2
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.ws.xmlschema xmlschema-core 2.3.0
org.apache.xbean xbean-asm9-shaded 4.23
org.apache.yetus audience-annotations 0.13.0
org.apache.zookeeper zookeeper 3.6.3
org.apache.zookeeper zookeeper-jute 3.6.3
org.checkerframework checker-qual 3.31.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.52.v20230823
org.eclipse.jetty jetty-continuation 9.4.52.v20230823
org.eclipse.jetty jetty-http 9.4.52.v20230823
org.eclipse.jetty jetty-io 9.4.52.v20230823
org.eclipse.jetty jetty-jndi 9.4.52.v20230823
org.eclipse.jetty jetty-plus 9.4.52.v20230823
org.eclipse.jetty jetty-proxy 9.4.52.v20230823
org.eclipse.jetty jetty-security 9.4.52.v20230823
org.eclipse.jetty jetty-server 9.4.52.v20230823
org.eclipse.jetty jetty-servlet 9.4.52.v20230823
org.eclipse.jetty jetty-servlets 9.4.52.v20230823
org.eclipse.jetty jetty-util 9.4.52.v20230823
org.eclipse.jetty jetty-util-ajax 9.4.52.v20230823
org.eclipse.jetty jetty-webapp 9.4.52.v20230823
org.eclipse.jetty jetty-xml 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-api 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-client 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-common 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-server 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-servlet 9.4.52.v20230823
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2,40
org.glassfish.jersey.containers jersey-container-servlet-core 2,40
org.glassfish.jersey.core jersey-client 2,40
org.glassfish.jersey.core jersey-common 2,40
org.glassfish.jersey.core jersey-server 2,40
org.glassfish.jersey.inject jersey-hk2 2,40
org.hibernate.validator hibernate-validator 6.1.7.Final
org.ini4j ini4j 0.5.4
org.javassist javassist 3.29.2-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains annotations 17.0.0
org.joda joda-convert 1,7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mlflow mlflow-spark_2.12 2.9.1
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.6.0
org.roaringbitmap RoaringBitmap 0.9.45
org.roaringbitmap shims 0.9.45
org.rocksdb rocksdbjni 8.3.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.15
org.scala-lang scala-library_2.12 2.12.15
org.scala-lang scala-reflect_2.12 2.12.15
org.scala-lang.modules scala-collection-compat_2.12 2.11.0
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt test-interface 1,0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.2.15
org.scalanlp breeze-macros_2.12 2.1.0
org.scalanlp breeze_2.12 2.1.0
org.scalatest scalatest-compatible 3.2.15
org.scalatest scalatest-core_2.12 3.2.15
org.scalatest scalatest-diagrams_2.12 3.2.15
org.scalatest scalatest-featurespec_2.12 3.2.15
org.scalatest scalatest-flatspec_2.12 3.2.15
org.scalatest scalatest-freespec_2.12 3.2.15
org.scalatest scalatest-funspec_2.12 3.2.15
org.scalatest scalatest-funsuite_2.12 3.2.15
org.scalatest scalatest-matchers-core_2.12 3.2.15
org.scalatest scalatest-mustmatchers_2.12 3.2.15
org.scalatest scalatest-propspec_2.12 3.2.15
org.scalatest scalatest-refspec_2.12 3.2.15
org.scalatest scalatest-shouldmatchers_2.12 3.2.15
org.scalatest scalatest-wordspec_2.12 3.2.15
org.scalatest scalatest_2.12 3.2.15
org.slf4j jcl-over-slf4j 2.0.7
org.slf4j jul-to-slf4j 2.0.7
org.slf4j slf4j-api 2.0.7
org.slf4j slf4j-simple 1.7.25
org.threeten threeten-extra 1.7.1
org.tukaani xz 1.9
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml snakeyaml 2,0
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 1.6.1-linux-x86_64
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1