Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 16.0, da plataforma Apache Spark 3.5.0.
O Databricks lançou essa versão em novembro de 2024.
Observação
O suporte para esta versão do Databricks Runtime foi encerrado. Para obter a data de fim do suporte, consulte o Histórico de fim do suporte. Para todas as versões suportadas do Databricks Runtime, consulte Notas de versão do Databricks Runtime: versões e compatibilidade.
Alterações comportamentais
- Alteração significativa: JDK 17 agora é o padrão
- Alteração significativa: o RStudio hospedado está no fim da vida útil
-
Alteração significativa: Remoção do suporte para alterar
byte,short,inte tiposlongpara tipos mais amplos - Análise correta de padrões regex com negação no agrupamento de caracteres aninhados
-
Melhorar a detecção de correspondência duplicada no Delta Lake
MERGE - O método de instalação da biblioteca de clusters não pode mais ser substituído
- Tempo limite padrão de duas horas para instalações de biblioteca no escopo do cluster
-
A instalação de bibliotecas do DBFS e a configuração da configuração do spark conf
spark.databricks.driver.dbfsLibraryInstallationAllowedestão desabilitadas -
A
addArtifact()funcionalidade agora é consistente em todos os tipos de computação - Regra de backticks aplicada corretamente para identificadores principais com caracteres especiais
Alteração significativa: JDK 17 agora é o padrão
No Databricks Runtime 16.0 e superior, a versão padrão do JDK é alternada do JDK 8 para o JDK 17. Essa alteração é feita devido à descontinuação planejada e ao fim do suporte para o JDK 8. Isso afeta o seguinte:
- O código Java em execução na computação do Azure Databricks deve ser compatível com o Java 17.
- O código Scala em execução em notebooks ou na computação do Azure Databricks deve ser compatível com o Java 17.
- As bibliotecas Java e Scala instaladas na computação devem ser compatíveis com o Java 17.
- Versões do cliente de metastore do Apache Hive abaixo de 2.x. Definir a configuração
spark.sql.hive.metastore.versiondo Spark para uma versão inferior a 2.x causará problemas de compatibilidade com o Java 17 e falhas de conexão com o metastore do Hive. O Databricks recomenda atualizar o Hive para uma versão acima de 2.0.0.
Se você precisar reverter para o Java 8, adicione o seguinte às variáveis de ambiente do Spark ao configurar a computação do Azure Databricks:
JNAME=zulu8-ca-amd64
Se você estiver usando instâncias do ARM, use o seguinte:
JNAME=zulu8-ca-arm64
Para saber mais sobre como especificar versões do JDK com a computação do Azure Databricks, consulte Criar um cluster com uma versão específica do JDK.
Para obter ajuda com a migração do código do Java 8, consulte os seguintes guias:
Alteração significativa: o RStudio hospedado está no fim da vida útil
Com esta versão, o RStudio Server hospedado pelo Databricks está no fim da vida útil e indisponível em qualquer workspace do Azure Databricks que executa o Databricks Runtime 16.0 e superior. Para saber mais e ver uma lista de alternativas ao RStudio, consulte Conectar-se a um Servidor RStudio hospedado pelo Databricks.
Alteração significativa: Remoção do suporte para alterar byte, short, int e tipos long para tipos mais amplos
No Databricks Runtime 15.4.3 e superior, as seguintes alterações de tipo de dados não podem mais ser aplicadas a tabelas com o recurso de alargamento de tipo habilitado:
-
byte,shorteintlongparadecimal. -
byte,shorteintparadouble.
Essa alteração é feita para garantir um comportamento consistente nas tabelas Delta e Apache Iceberg. Para saber mais sobre a ampliação de tipo, consulte Ampliação de tipo.
Análise correta de padrões regex com negação no agrupamento de caracteres aninhados
Esta versão inclui uma alteração para dar suporte à análise correta de padrões regex com negação no agrupamento de caracteres aninhados. Por exemplo, [^[abc]] será analisado como "qualquer caractere que não seja um de 'abc'".
Além disso, o comportamento do Photon era inconsistente com o Spark nas classes de caractere aninhadas. Os padrões Regex contendo classes de caracteres aninhados não usarão mais o Photon e, em vez disso, usarão o Spark. Uma classe de caracteres aninhada é qualquer padrão que contenha colchetes entre colchetes, como [[a-c][1-3]].
Melhorar a detecção de correspondência duplicada no Delta Lake MERGE
No Databricks Runtime 15.4 LTS e inferior, MERGE as operações falharão se mais de uma linha na tabela de origem corresponder à mesma linha na tabela de destino com base na MERGE condição especificada na ON cláusula. No Databricks Runtime 16.0 e superior, MERGE também considera as condições especificadas na WHEN MATCHED cláusula. Consulte Executar o upsert em uma tabela do Delta Lake usando a mesclagem.
O método de instalação da biblioteca de clusters não pode mais ser substituído
As configurações do spark.databricks.libraries.enableSparkPyPISpark , spark.databricks.libraries.enableMavenResolutione spark.databricks.libraries.enableCRANResolutionnow agora são padrão e true não podem ser substituídas.
Tempo limite padrão de duas horas para instalações de biblioteca no escopo do cluster
No Databricks Runtime 16.0 e superior, a instalação da biblioteca com escopo de cluster tem um tempo limite padrão de duas horas. As instalações da biblioteca que demorarem mais do que esse tempo limite falharão e a instalação será encerrada. Ao configurar um cluster, você pode alterar o período de tempo limite usando a configuração spark.databricks.driver.clusterLibraryInstallationTimeoutSecdo Spark.
A instalação de bibliotecas do DBFS e a configuração da configuração do spark conf spark.databricks.driver.dbfsLibraryInstallationAllowed estão desabilitadas
No Databricks Runtime 16.0 e superior, a instalação de bibliotecas do DBFS está totalmente desabilitada. Essa alteração é feita para melhorar a segurança das bibliotecas em um workspace do Databricks. Além disso, no Databricks Runtime 16.0 e superior, você não pode mais usar a configuração spark.databricks.driver.dbfsLibraryInstallationAlloweddo Spark.
A addArtifact() funcionalidade agora é consistente em todos os tipos de computação
Com esta versão, o arquivo morto é descompactado automaticamente quando você usa addArtifact(archive = True) para adicionar uma dependência à computação compartilhada ou sem servidor do Azure Databricks. Essa alteração torna o addArtifact(archive = True) comportamento nesses tipos de computação consistente com a computação dedicada (anteriormente computação de usuário único), que já dá suporte à descompactação automática de arquivos.
A regra dos backticks foi aplicada corretamente para os identificadores principais com caracteres especiais
Com esta versão, os identificadores principais com caracteres especiais nas instruções GRANT, DENY, e REVOKE agora gerarão um erro se não estiverem entre os backticks.
Novos recursos e melhorias
-
Recarregamento mais confiável de módulos Python modificados com melhorias em
autoreload - Suporte Avro para esquema recursivo
- Funções to_avro e from_avro
- Suporte expandido para Confluent Schema Registry for Avro
- Forçar reclustering em tabelas com clustering líquido
- As APIs Delta para Python e Scala agora oferecem suporte a colunas de identidade
- O controle de acesso refinado na computação dedicada (anteriormente computação para um único usuário) agora está geralmente disponível
- Criar tabelas agrupadas líquidas durante gravações de streaming
- Suporte para a cláusula OPTIMIZE FULL
- Suporte para a especificação de opções WITH em INSERT e table-reference
- novas funções SQL
- Habilitar a evolução automática do esquema ao mesclar dados em uma tabela Delta
Recarregamento mais confiável de módulos Python modificados com melhorias para autoreload
No Databricks Runtime 16.0 e superior, as atualizações da autoreload extensão melhoram a segurança e a confiabilidade do recarregamento de módulos Python modificados importados de arquivos de workspace. Com essas alterações, autoreload, quando possível, recarrega apenas a parte de um módulo que foi alterada em vez de todo o módulo. Além disso, o Azure Databricks agora sugere automaticamente o uso da extensão autoreload se o módulo tiver sido alterado desde sua última importação. Confira Recarregamento automático para módulos Python.
Suporte Avro para esquema recursivo
Agora você pode usar a recursiveFieldMaxDepth opção com a from_avro função e a avro fonte de dados. Essa opção define a profundidade máxima para a recursão de esquema na fonte de dados Avro. Confira Ler e gravar dados de streaming do Avro.
Funções to_avro e from_avro
As funções to_avro e from_avro permitem a conversão de tipos SQL em dados binários do Avro e de volta.
Suporte expandido para Confluent Schema Registry for Avro
O Azure Databricks agora dá suporte à referência de esquema Avro com o Registro de Esquema Confluente. Consulte Autenticar em um Registro de Esquema Confluent externo.
Forçar reclustering em tabelas com clustering líquido
No Databricks Runtime 16.0 e superior, você pode usar a OPTIMIZE FULL sintaxe para forçar o reclustering de todos os registros em uma tabela com clustering líquido habilitado. Consulte Forçar reagrupamento para todos os registros.
As APIs Delta para Python e Scala agora oferecem suporte a colunas de identidade
Agora você pode usar as APIs Delta para Python e Scala para criar tabelas com colunas de identidade. Consulte Usar colunas de identidade no Delta Lake.
O controle de acesso refinado na computação dedicada (anteriormente computação de usuário único) está disponível em geral
No Databricks Runtime 16.0 e versões posteriores, o controle de acesso refinado na computação dedicada está geralmente disponível. Em workspaces habilitados para computação sem servidor, se uma consulta for executada em computação suportada, como computação dedicada, e a consulta acessar qualquer um dos seguintes objetos, o recurso de computação passará a consulta para a computação sem servidor para realizar a filtragem de dados.
- Exibições definidas sobre tabelas nas quais o usuário não tem o privilégio
SELECT. - Visualizações dinâmicas.
- Tabelas com filtros de linha ou máscaras de coluna aplicadas.
- Visões materializadas e Tabelas de transmissão
Criar tabelas agrupadas líquidas durante gravações de streaming
Agora você pode usar clusterBy para habilitar o clustering líquido ao criar novas tabelas com gravações de Streaming Estruturado. Consulte Habilitar o agrupamento líquido.
Suporte para a cláusula OPTIMIZE FULL
O Databricks Runtime 16.0 dá suporte à cláusula OPTIMIZE FULL. Esta cláusula otimiza todos os registros em uma tabela que utiliza agrupamento líquido, incluindo dados que já possam ter sido previamente agrupados.
Suporte para a especificação de opções WITH em INSERT e table-reference
O Databricks Runtime 16.0 dá suporte a uma especificação de opções para referências de tabela e nomes de tabela de uma INSERT instrução que pode ser usada para controlar o comportamento das fontes de dados.
Novas funções SQL
As seguintes funções SQL são adicionadas no Databricks Runtime 16.0:
-
Essa função é uma versão tolerante a erros do url_decode. Essa função retornará
NULLse a entrada não for uma cadeia de caracteres codificada em URL válida. -
Se a expressão de entrada para a
zeroifnull()função forNULL, a função retornará 0. Caso contrário, o valor da expressão de entrada será retornado. -
Retorna
NULLse a entrada for 0 ou sua entrada se não for 0. Se a expressão de entrada para anullifzero()função for 0, a função retornaráNULL. Se a expressão de entrada não for 0, o valor da expressão de entrada será retornado
Habilitar a evolução automática do esquema ao mesclar dados em uma tabela Delta
Esta versão adiciona suporte para o withSchemaEvolution() membro da DeltaMergeBuilder classe. Use withSchemaEvolution() para habilitar a evolução automática do esquema durante operações MERGE. Por exemplo, mergeBuilder.whenMatched(...).withSchemaEvolution().execute()}}.
Outras alterações
O SparkR agora está obsoleto
No Databricks Runtime 16.0 e superior, o SparkR no Databricks foi preterido em preparação para sua substituição na próxima versão do Spark 4. Consulte o thread do Apache Spark para substituir o SparkR.
O Databricks recomenda usar sparklyr .
Não há suporte para o Databricks Runtime 16.0 com PVC
O Databricks Runtime 16.0 não é compatível com a PVC (Nuvem Virtual Privada) do Databricks. Você deve usar o Databricks Runtime 15.4 ou inferior com todas as versões do PVC.
Correções
O Carregador Automático agora resgata tipos de registro Avro com esquemas vazios
Ao carregar um arquivo Avro em uma tabela Delta usando o Carregador Automático, record os tipos no arquivo que têm um esquema vazio agora são adicionados à coluna de dados resgatados. Como você não pode ingerir tipos de dados complexos vazios em uma tabela Delta, isso resolve um problema com o carregamento de alguns arquivos Avro. Para saber mais sobre dados resgatados, consulte O que é a coluna de dados resgatados?.
Correção de erro ao gravar carimbos de data/hora com fusos horários contendo um segundo deslocamento.
Esta versão corrige um bug que afeta alguns carimbos de data/hora com fusos horários contendo um segundo deslocamento. Esse bug faz com que os segundos sejam omitidos ao gravar em JSON, XML ou CSV, levando a valores incorretos de carimbo de data/hora.
Para retornar ao comportamento anterior, use a seguinte opção ao gravar em um dos formatos afetados: .option("yyyy-MM-dd'T'HH:mm:ss[.SSS][XXX]").
Atualizações de biblioteca
- Bibliotecas do Python atualizadas:
- azure-core de 1.30.2 para 1.31.0
- azure-storage-blob de 12.19.1 para 12.23.0
- azure-storage-file-datalake de 12.14.0 para 12.17.0
- preto de 23.3.0 a 24.4.2
- pisca-pisca de 1.4 para 1.7.0
- boto3 de 1.34.39 para 1.34.69
- botocore de 1.34.39 para 1.34.69
- Certificado de 22/7/2023 a 2024/6/2
- CFFI de 1.15.1 para 1.16.0
- clique de 8.0.4 para 8.1.7
- comunicação de 0.1.2 a 0.2.1
- Contourpy de 1.0.5 para 1.2.0
- criptografia de 41.0.3 a 42.0.5
- Cython de 0.29.32 para 3.0.11
- databricks-sdk de 0.20.0 para 0.30.0
- dbus-python de 1.2.18 para 1.3.2
- filelock de 3.13.4 para 3.15.4
- fonttools de 4.25.0 a 4.51.0
- GitPython de 3.1.43 para 3.1.37
- google-api-core de 2.18.0 para 2.20.0
- google-auth de 2.31.0 para 2.35.0
- google-cloud-storage de 2.17.0 para 2.18.2
- google-crc32c de 1.5.0 para 1.6.0
- google-resumable-media de 2.7.1 para 2.7.2
- googleapis-common-protos da versão 1.63.2 para a versão 1.65.0
- httplib2 de 0.20.2 para 0.20.4
- IDNA de 3,4 para 3,7
- ipykernel de 6.25.1 para 6.28.0
- ipython de 8.15.0 para 8.25.0
- Jedi de 0.18.1 para 0.19.1
- jmespath de 0.10.0 para 1.0.1
- joblib de 1.2.0 para 1.4.2
- jupyter_client de 7.4.9 para 8.6.0
- jupyter_core de 5.3.0 a 5.7.2
- launchpadlib de 1.10.16 para 1.11.0
- lazr.restfulclient de 0.14.4 para 0.14.6
- matplotlib de 3.7.2 para 3.8.4
- mlflow-skinny de 2.11.4 para 2.15.1
- more-itertools de 8.10.0 para 10.3.0
- mypy-extensions de 0.4.3 para 1.0.0
- nest-asyncio de 1.5.6 para 1.6.0
- numpy de 1.23.5 para 1.26.4
- oauthlib de 3.2.0 para 3.2.2
- embalagem de 23.2 a 24.1
- Patsy de 0.5.3 para 0.5.6
- pip de 23.2.1 para 24.2
- plotly de 5.9.0 para 5.22.0
- prompt-toolkit de 3.0.36 para 3.0.43
- Pyarrow de 14.0.1 para 15.0.2
- pydantic de 1.10.6 para 2.8.2
- PyGObject de 3.42.1 para 3.48.2
- PyJWT de 2.3.0 para 2.7.0
- pyodbc de 4.0.38 para 5.0.1
- python-dateutil de 2.8.2 para 2.9.0.post0
- python-lsp-jsonrpc de 1.1.1 para 1.1.2
- pytz de 2022.7 a 2024.1
- PyYAML de 6.0 para 6.0.1
- pyzmq de 23.2.0 para 25.1.2
- solicitações de 2.31.0 a 2.32.2
- scikit-learn de 1.3.0 a 1.4.2
- scipy de 1.11.1 para 1.13.1
- seaborn de 0.12.2 para 0.13.2
- setuptools de 68.0.0 para 74.0.0
- SMMAP de 5.0.1 para 5.0.0
- sqlparse de 0.5.0 para 0.5.1
- statsmodels de 0.14.0 para 0.14.2
- tornado de 6.3.2 para 6.4.1
- traços de 5.7.1 a 5.14.3
- typing_extensions de 4.10.0 para 4.11.0
- ujson de 5.4.0 para 5.10.0
- virtualenv de 20.24.2 para 20.26.2
- roda de 0.38.4 para 0.43.0
- zipp de 3.11.0 para 3.17.0
- Bibliotecas do R atualizadas:
- seta de 14.0.0.2 para 16.1.0
- backports de 1.4.1 para 1.5.0
- base de 4.3.2 para 4.4.0
- bitops de 1,0-7 a 1,0-8
- inicialização de 1.3-28 para 1.3-30
- brio de 1.1.4 para 1.1.5
- vassoura de 1.0.5 para 1.0.6
- bslib de 0.6.1 para 0.8.0
- cachem de 1.0.8 para 1.1.0
- chamador de 3.7.3 para 3.7.6
- CLI de 3.6.2 para 3.6.3
- relógio de 0.7.0 para 0.7.1
- cluster de 2.1.4 para 2.1.6
- CodeTools de 0,2-19 a 0,2-20
- colorspace de 2.1-0 para 2.1-1
- compilador de 4.3.2 para 4.4.0
- giz de cera de 1.5.2 para 1.5.3
- curl de 5.2.0 para 5.2.1
- data.table de 1.15.0 a 1.15.4
- conjuntos de dados de 4.3.2 a 4.4.0
- DBI de 1.2.1 a 1.2.3
- dbplyr de 2.4.0 para 2.5.0
- resumo de 0.6.34 a 0.6.36
- downlit de 0.4.3 para 0.4.4
- avaliar de 0,23 a 0,24,0
- farver de 2.1.1 a 2.1.2
- Mapa rápido de 1.1.1 para 1.2.0
- estrangeiro de 0,8-85 a 0,8-86
- fs de 1.6.3 para 1.6.4
- futuro de 1.33.1 para 1.34.0
- future.apply de 1.11.1 a 1.11.2
- gert de 2.0.1 para 2.1.0
- ggplot2 de 3.4.4 para 3.5.1
- gh de 1.4.0 para 1.4.1
- globais de 0.16.2 a 0.16.3
- gráficos de 4.3.2 a 4.4.0
- grDevices de 4.3.2 a 4.4.0
- grade de 4.3.2 para 4.4.0
- gt de 0.10.1 a 0.11.0
- gtable de 0.3.4 a 0.3.5
- capacete de segurança de 1.3.1 para 1.4.0
- mais alto de 0,10 para 0,11
- htmltools de 0.5.7 para 0.5.8.1
- httpuv de 1.6.14 para 1.6.15
- httr2 de 1.0.0 para 1.0.2
- IPRED de 0,9-14 a 0,9-15
- KernSmooth de 2,23-21 a 2,23-22
- knitr de 1,45 para 1,48
- treliça de 0,21-8 a 0,22-5
- lava de 1.7.3 para 1.8.0
- remarcação de 1,12 para 1,13
- MASS de 7,3-60 a 7,3-60.0.1
- Matriz de 1,5-4,1 a 1,6-5
- métodos de 4.3.2 a 4.4.0
- mgcv de 1,8-42 para 1,9-1
- mlflow de 2.10.0 para 2.14.1
- munsell de 0.5.0 para 0.5.1
- nlme de 3,1-163 a 3,1-165
- openssl de 2.1.1 para 2.2.0
- paralelo de 4.3.2 a 4.4.0
- paralelamente de 1.36.0 a 1.38.0
- pkgbuild de 1.4.3 para 1.4.4
- pkgdown de 2.0.7 para 2.1.0
- pkgload de 1.3.4 para 1.4.0
- processx de 3.8.3 para 3.8.4
- Prodlim de 2023.08.28 a 2024.06.25
- Promessas de 1.2.1 a 1.3.0
- ps de 1.7.6 para 1.7.7
- ragg de 1.2.7 para 1.3.2
- Rcpp de 1.0.12 para 1.0.13
- RcppEigen de 0.3.3.9.4 para 0.3.4.0.0
- reactR de 0.5.0 para 0.6.0
- receitas de 1.0.9 a 1.1.0
- remotos de 2.4.2.1 a 2.5.0
- reprex de 2.1.0 para 2.1.1
- rlang de 1.1.3 para 1.1.4
- rmarkdown de 2,25 para 2,27
- roxygen2 de 7.3.1 para 7.3.2
- Parte de 4.1.21 a 4.1.23
- RSQLite de 2.3.5 para 2.3.7
- rstudioapi de 0.15.0 para 0.16.0
- rvest de 1.0.3 para 1.0.4
- sass de 0.4.8 para 0.4.9
- forma de 1.4.6 a 1.4.6.1
- Brilhante de 1.8.0 para 1.9.1
- Sparklyr de 1.8.4 para 1.8.6
- espacial de 7,3-15 a 7,3-17
- splines de 4.3.2 a 4.4.0
- estatísticas de 4.3.2 a 4.4.0
- stats4 de 4.3.2 para 4.4.0
- stringi de 1.8.3 para 1.8.4
- sobrevida de 3,5-5 a 3,6-4
- arrogância de 3.33.1 para 5.17.14.1
- systemfonts de 1.0.5 a 1.1.0
- tcltk de 4.3.2 para 4.4.0
- teste de 3.2.1 a 3.2.1.1
- textshaping de 0.3.7 para 0.4.0
- tidyselect de 1.2.0 para 1.2.1
- tinytex de 0,49 para 0,52
- ferramentas de 4.3.2 a 4.4.0
- usethis de 2.2.2 para 3.0.0
- utilidades de 4.3.2 a 4.4.0
- uuid de 1,2-0 para 1,2-1
- V8 de 4.4.1 para 4.4.2
- withr de 3.0.0 para 3.0.1
- xfun de 0,41 para 0,46
- xopen de 1.0.0 para 1.0.1
- yaml de 2.3.8 para 2.3.10
- Bibliotecas Java atualizadas:
- com.amazonaws.aws-java-sdk-autoscaling de 1.12.610 para 1.12.638
- com.amazonaws.aws-java-sdk-cloudformation de 1.12.610 para 1.12.638
- com.amazonaws.aws-java-sdk-cloudfront de 1.12.610 para 1.12.638
- com.amazonaws.aws-java-sdk-cloudhsm de 1.12.610 para 1.12.638
- com.amazonaws.aws-java-sdk-cloudsearch de 1.12.610 para 1.12.638
- com.amazonaws.aws-java-sdk-cloudtrail de 1.12.610 para 1.12.638
- com.amazonaws.aws-java-sdk-cloudwatch de 1.12.610 para 1.12.638
- com.amazonaws.aws-java-sdk-cloudwatchmetrics de 1.12.610 para 1.12.638
- com.amazonaws.aws-java-sdk-codedeploy de 1.12.610 para 1.12.638
- com.amazonaws.aws-java-sdk-cognitoidentity de 1.12.610 para 1.12.638
- com.amazonaws.aws-java-sdk-cognitosync de 1.12.610 para 1.12.638
- com.amazonaws.aws-java-sdk-config de 1.12.610 para 1.12.638
- com.amazonaws.aws-java-sdk-core de 1.12.610 para 1.12.638
- com.amazonaws.aws-java-sdk-datade 1.12.610 para 1.12.638
- com.amazonaws.aws-java-sdk-directconnect de 1.12.610 para 1.12.638
- com.amazonaws.aws-java-sdk-directory de 1.12.610 para 1.12.638
- com.amazonaws.aws-java-sdk-dynamodb de 1.12.610 para 1.12.638
- com.amazonaws.aws-java-sdk-ec2 de 1.12.610 para 1.12.638
- com.amazonaws.aws-java-sdk-ecs de 1.12.610 para 1.12.638
- com.amazonaws.aws-java-sdk-efs de 1.12.610 para 1.12.638
- com.amazonaws.aws-java-sdk-elasticache de 1.12.610 para 1.12.638
- com.amazonaws.aws-java-sdk-elasticbeanstalk de 1.12.610 para 1.12.638
- com.amazonaws.aws-java-sdk-elasticloadbalancing de 1.12.610 para 1.12.638
- com.amazonaws.aws-java-sdk-elastictranscoder de 1.12.610 para 1.12.638
- com.amazonaws.aws-java-sdk-emr de 1.12.610 para 1.12.638
- com.amazonaws.aws-java-sdk-glacier de 1.12.610 para 1.12.638
- com.amazonaws.aws-java-sdk-glue de 1.12.610 para 1.12.638
- com.amazonaws.aws-java-sdk-iam de 1.12.610 para 1.12.638
- com.amazonaws.aws-java-sdk-importexport de 1.12.610 para 1.12.638
- com.amazonaws.aws-java-sdk-kinesis de 1.12.610 para 1.12.638
- com.amazonaws.aws-java-sdk-kms de 1.12.610 para 1.12.638
- com.amazonaws.aws-java-sdk-lambda de 1.12.610 para 1.12.638
- com.amazonaws.aws-java-sdk-logs de 1.12.610 para 1.12.638
- com.amazonaws.aws-java-sdk-machinelearning de 1.12.610 para 1.12.638
- com.amazonaws.aws-java-sdk-opsworks de 1.12.610 para 1.12.638
- com.amazonaws.aws-java-sdk-rds de 1.12.610 para 1.12.638
- com.amazonaws.aws-java-sdk-redshift de 1.12.610 para 1.12.638
- com.amazonaws.aws-java-sdk-route53 de 1.12.610 para 1.12.638
- com.amazonaws.aws-java-sdk-s3 de 1.12.610 para 1.12.638
- com.amazonaws.aws-java-sdk-ses de 1.12.610 para 1.12.638
- com.amazonaws.aws-java-sdk-simpledb de 1.12.610 para 1.12.638
- com.amazonaws.aws-java-sdk-simplefluxo de trabalho de 1.12.610 para 1.12.638
- com.amazonaws.aws-java-sdk-sns de 1.12.610 para 1.12.638
- com.amazonaws.aws-java-sdk-sqs de 1.12.610 para 1.12.638
- com.amazonaws.aws-java-sdk-ssm de 1.12.610 para 1.12.638
- com.amazonaws.aws-java-sdk-storagegateway de 1.12.610 para 1.12.638
- com.amazonaws.aws-java-sdk-sts de 1.12.610 para 1.12.638
- com.amazonaws.aws-java-sdk-support de 1.12.610 para 1.12.638
- com.amazonaws.aws-java-sdk-workspaces de 1.12.610 para 1.12.638
- com.amazonaws.jmespath-java de 1.12.610 para 1.12.638
- com.google.protobuf.protobuf-java da versão 2.6.1 para a 3.25.1
- io.airlift.aircompressor de 0,25 para 0,27
- io.delta.delta-sharing-client_2.12 de 1.1.3 para 1.2.0
- io.netty.netty-all de 4.1.96.Final a 4.1.108.Final
- io.netty.netty-buffer de 4.1.96.Final para 4.1.108.Final
- io.netty.netty-codec de 4.1.96.Final para 4.1.108.Final
- io.netty.netty-codec-http de 4.1.96.Final para 4.1.108.Final
- io.netty.netty-codec-http2 de 4.1.96.Final para 4.1.108.Final
- io.netty.netty-codec-socks de 4.1.96.Final para 4.1.108.Final
- io.netty.netty-common de 4.1.96.Final a 4.1.108.Final
- io.netty.netty-handler de 4.1.96.Final para 4.1.108.Final
- io.netty.netty-handler-proxy de 4.1.96.Final para 4.1.108.Final
- io.netty.netty-resolver de 4.1.96.Final para 4.1.108.Final
- io.netty.netty-transport de 4.1.96.Final para 4.1.108.Final
- io.netty.netty-transport-classes-epoll de 4.1.96.Final para 4.1.108.Final
- io.netty.netty-transport-classes-kqueue de 4.1.96.Final para 4.1.108.Final
- io.netty.netty-transport-native-epoll de 4.1.96.Final-linux-x86_64 para 4.1.108.Final-linux-x86_64
- io.netty.netty-transport-native-kqueue de 4.1.96.Final-osx-x86_64 para 4.1.108.Final-osx-x86_64
- io.netty.netty-transport-native-unix-common de 4.1.96.Final para 4.1.108.Final
- org.apache.ivy.ivy de 2.5.1 para 2.5.2
- org.apache.zookeeper.zookeeper da versão 3.6.3 para a 3.9.2
- org.apache.zookeeper.zookeeper-juta de 3.6.3 para 3.9.2
- org.rocksdb.rocksdbjni de 8.11.4 para 9.2.1
- org.scalactic.scalactic_2.12 de 3.2.15 a 3.2.16
- org.scalatest.scalatest-compatível de 3.2.15 a 3.2.16
- org.scalatest.scalatest-core_2.12 de 3.2.15 para 3.2.16
- org.scalatest.scalatest-diagrams_2.12 de 3.2.15 para 3.2.16
- org.scalatest.scalatest-featurespec_2.12 de 3.2.15 para 3.2.16
- org.scalatest.scalatest-flatspec_2.12 de 3.2.15 para 3.2.16
- org.scalatest.scalatest-freespec_2.12 de 3.2.15 para 3.2.16
- org.scalatest.scalatest-funspec_2.12 de 3.2.15 para 3.2.16
- org.scalatest.scalatest-funsuite_2.12 de 3.2.15 para 3.2.16
- org.scalatest.scalatest-matchers-core_2.12 de 3.2.15 para 3.2.16
- org.scalatest.scalatest-mustmatchers_2.12 de 3.2.15 para 3.2.16
- org.scalatest.scalatest-propspec_2.12 de 3.2.15 para 3.2.16
- org.scalatest.scalatest-refspec_2.12 de 3.2.15 para 3.2.16
- org.scalatest.scalatest-shouldmatchers_2.12 de 3.2.15 para 3.2.16
- org.scalatest.scalatest-wordspec_2.12 de 3.2.15 para 3.2.16
- org.scalatest.scalatest_2.12 de 3.2.15 a 3.2.16
Apache Spark
O Databricks Runtime 16.0 inclui o Apache Spark 3.5.0. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 15.4 LTS, bem como as seguintes correções de bugs e melhorias adicionais feitas no Spark:
- [SPARK-49093] [DBRRM-1371] Reverter “[SC-172958][sql] GROUP BY com MapType nes...
- [SPARK-49898] [DBRRM-1282][sc-178410] Corrija a documentação e o padrão para o sinalizador de registro em log do acumulador de métricas do log de eventos do SPARK-42204
- [SPARK-49743] [ES-1260022][behave-157][SC-177475][sql] OptimizeCsvJsonExpr não deve alterar campos de esquema ao podar GetArrayStructFields
- [SPARK-49816] [SC-177896][sql] Deve atualizar apenas a contagem de referência de saída para a relação CTE externa referenciada
- [SPARK-48939] [SC-177022][sc-172766][AVRO] Suporte à leitura do Avro com referência de esquema recursivo
- [SPARK-49688] [SC-177468][es-1242349][CONNECT] Corrigir uma concorrência de dados entre interrupção e execução do plano
- [SPARK-49771] [SC-177466][python] Melhorar o erro UDF do Pandas Scalar Iter quando as linhas de saída excederem as linhas de entrada
- [SPARK-48866] [SC-170772][sql] Corrigir dicas de conjunto de caracteres válido na mensagem de erro de INVALID_PARAMETER_VALUE.CHARSET
- [SPARK-48195] [FIXFORWARD][sc-177267][CORE] Salvar e reutilizar RDD/Broadcast criado pelo SparkPlan
- [FAÍSCA-49585] [CONECTAR] Substitua o mapa de execuções em SessionHolder pelo conjunto operationID
- [SPARK-49211] [SC-174257][sql] O Catálogo V2 também pode dar suporte a fontes de dados internas
- [FAÍSCA-49684] Minimize a vida útil do bloqueio de restauração de sessão
- [SPARK-48059] [SPARK-48145][spark-48134][SPARK-48182][spark-48209][SPARK-48291] Framework de log estruturado no lado Java
- [SPARK-48857] [SC-170661][sql] Restringir conjuntos de caracteres em CSVOptions
- [SPARK-49152] [SC-173690][sql] V2SessionCatalog deve usar V2Command
- [SPARK-42846] [SC-176588][sql] Remover condição de erro _LEGACY_ERROR_TEMP_2011
- [SPARK-48195] [SC-177267][core] Salvar e reutilizar RDD/Broadcast criado pelo SparkPlan
- [SPARK-49630] [SC-177379][ss] Adicionar opção de nivelamento para processar tipos de coleção com leitor de fonte de dados de estado
- [SPARK-49699] [SC-177154][ss] Desabilitar PruneFilters para cargas de trabalho de streaming
- [SPARK-48781] [SC-175282][sql] Adicionar APIs de catálogo para carregar procedimentos armazenados
- [SPARK-49667] [SC-177068][sql] Não permitir coletores CS_AI com expressões que usam StringSearch
- [SPARK-49737] [SC-177207][sql] Desabilitar bucketing em colunas agrupadas em tipos complexos
- [SPARK-48712] [SC-169794][sql] Melhoria de Perf para codificação com valores vazios ou conjunto de caracteres UTF-8
- [SPARK-49038] [SC-173933][sql] SQLMetric deve relatar o valor bruto no evento de atualização do acumulador
- [SPARK-48541] [SC-169066][core] Adicionar um novo código de saída para executores mortos por TaskReaper
- [SPARK-48774] [SC-170138][sql] Use SparkSession em SQLImplicits
-
[SPARK-49719] [SC-177139][sql] Criar
UUIDeSHUFFLEaceitar inteiroseed -
[SPARK-49713] [SC-177135][python][CONNECT] Fazer com que a função
count_min_sketchaceite argumentos numéricos - [SPARK-47601] [SC-162499][graphx] Graphx: Migrar logs com variáveis para a estrutura de log estruturada
- [SPARK-49738] [SC-177219][sql] Termina com correção de bug
- [SPARK-48623] [SC-170822][core] Migrações estruturadas de log [Parte 3]
- [SPARK-49677] [SC-177148][ss] Certifique-se de que os arquivos de changelog são gravados no ato de commit e que o sinalizador forceSnapshot também seja redefinido
- [SPARK-49684] [SC-177040][conexão] Remover bloqueios globais de gerenciadores de sessão e de execução
- [SPARK-48302] [SC-168814][python] Preservar nulos em colunas de mapa em tabelas PyArrow
- [SPARK-48601] [SC-169025][sql] Forneça uma mensagem de erro mais amigável ao definir um valor nulo para a Opção JDBC
- [SPARK-48635] [SC-169263][sql] Atribuir classes a erros de tipo de junção e as-of erro de junção
- [SPARK-49673] [SC-177032][connect] Aumentar CONNECT_GRPC_ARROW_MAX_BATCH_SIZE para 0,7 * CONNECT_GRPC_MAX_MESSAGE_SIZE
-
[SPARK-49693] [SC-177071][python][CONNECT] Refinar a representação de cadeia de caracteres de
timedelta -
[SPARK-49687] [SC-176901][sql] Atrasar a ordenação em
validateAndMaybeEvolveStateSchema -
[SPARK-49718] [SC-177112][ps] Alternar
Scattergráfico para dados de exemplo - [SPARK-48472] [SC-169044][sql] Habilitar expressões de reflexão com cadeias de caracteres agrupadas
- [SPARK-48484] [SC-167484][sql] Correção: V2Write usa o mesmo TaskAttemptId para diferentes tentativas de tarefa
- [SPARK-48341] [SC-166560][connect] Permitir que os plug-ins usem QueryTest em seus testes
-
[SPARK-42252] [SC-168723][core] Adicionar
spark.shuffle.localDisk.file.output.buffere preterirspark.shuffle.unsafe.file.output.buffer - [SPARK-48314] [SC-166565][ss] Não dobre arquivos de cache para FileStreamSource usando Trigger.AvailableNow
-
[SPARK-49567] [SC-176241][python] Use
classicem vez devanillana base de código do PySpark - [SPARK-48374] [SC-167596][python] Suporte a tipos de coluna de tabela PyArrow adicionais
-
[SPARK-48300] [SC-166481][sql] Suporte de codegen para
from_xml - [SPARK-49412] [SC-177059][ps] Computar todas as métricas de boxplot em um único processo
- [SPARK-49692] [SC-177031][python][CONNECT] Refinar a representação em cadeia de data e data/hora literais
- [SPARK-49392] [ES-1130351][sc-176705][SQL] Capturar erros ao não gravar na fonte de dados externa
- [SPARK-48306] [SC-166241][sql] Aprimorar UDT na mensagem de erro
- [SPARK-44924] [SC-166379][ss] Adicionar configuração para arquivos armazenados em cache do FileStreamSource
- [SPARK-48176] [SC-165644][sql] Ajustar o nome da condição de erro FIELD_ALREADY_EXISTS
-
[SPARK-49691] [SC-176988][python][CONNECT] A função
substringdeve aceitar nomes de coluna - [SPARK-49502] [SC-176077][core] Evite NPE em SparkEnv.get.shuffleManager.unregisterShuffle
- [SPARK-49244] [SC-176703][sql] Melhorias adicionais de exceção para analisador/interpretador
- [SPARK-48355] [SC-176684][sql] Suporte para instrução CASE
-
[SPARK-49355] [SC-175121][sql]
levenshteindeve verificar se oscollationvalores de todos os tipos de parâmetro são os mesmos -
[SPARK-49640] [SC-176953][ps] Aplicar amostragem de reservatório em
SampledPlotBase -
[SPARK-49678] [SC-176857][core] Suporte
spark.test.masteremSparkSubmitArguments -
[SPARK-49680] [SC-176856][python] Limite
Sphinxo paralelismo de build para 4 por padrão - [SPARK-49396] Reverter "[SC-176030][sql] Modificar verificação de nulidade para a expressão CaseWhen"
- [SPARK-48419] [SC-167443][sql] Propagação dobrável substitui o shoul de coluna dobrável...
- [SPARK-49556] [SC-176757][sql] Adicionar sintaxe de pipe SQL para o SELECT operador
-
[SPARK-49438] [SC-175237][sql] Corrigir o nome bonito da
FromAvroexpressão &ToAvro - [SPARK-49659] [SC-1229924][sql] Adicionar uma mensagem de erro amigável para o usuário para subconsultas escalares dentro da cláusula VALUES
- [SPARK-49646] [SC-176778][sql] corrige a decorrelação de subconsultas para operações de união/conjunto quando parentOuterReferences possui referências que não estão cobertas por collectedChildOuterReferences
-
[SPARK-49354] [SC-175034][sql]
split_partdeve verificar se oscollationvalores de todos os tipos de parâmetro são os mesmos - [SPARK-49478] [SC-175914][connect] Manipular métricas nulas em ConnectProgressExecutionListener
- [SPARK-48358] [SC-176374][sql] Suporte para instrução REPEAT
- [SPARK-49183] [SC-173680][sql] A V2SessionCatalog.createTable deve respeitar o PROP_IS_MANAGED_LOCATION
-
[SPARK-49611] [SC-176791][sql] Introduzir TVF
collations()e remover o comandoSHOW COLLATIONS - [SPARK-49261] [SC-176589][sql] Não substitua literais em expressões agregadas por expressões de agrupamento por grupo
- [SPARK-49099] [SC-173229][sql] CatalogManager.setCurrentNamespace deve respeitar o catálogo de sessão personalizado
- [SPARK-49594] [SC-176569][ss] Adicionando verificação sobre se famílias de colunas foram adicionadas ou removidas para gravar o arquivo StateSchemaV3
- [SPARK-49578] [SC-176385][sql] Remova a sugestão de configuração ANSI em CAST_INVALID_INPUT e CAST_OVERFLOW
- [SPARK-48882] [SC-174256][ss] Atribuir nomes a classes de erro relacionadas ao modo de saída de streaming
-
[SPARK-49155] [SC-176506][sql][SS] Use o tipo de parâmetro mais apropriado para construir
GenericArrayData - [SPARK-49519] [SC-176388][sql] Opções de mesclagem de tabela e relação ao construir FileScanBuilder
- [SPARK-49591] [SC-176587][sql] Adicionar coluna Logical Type ao README variante
-
[SPARK-49596] [SC-176423][sql] Melhorar o desempenho de
FormatString - [SPARK-49525] [SC-176044][ss][CONNECT] Melhoria de registro secundária para o ListenerBus do ouvinte de consulta de streaming do lado do servidor
- [SPARK-49583] [SC-176272][sql] Defina a sub-condição de erro para padrão de fração de segundos inválido
- [SPARK-49536] [SC-176242] Lidar com erro na pré-busca de registro de fonte de dados de streaming python
- [SPARK-49443] [SC-176273][sql][PYTHON] Implemente a expressão to_variant_object e faça as expressões schema_of_variant imprimir 'OBJETO' para Objetos Variantes
- [SPARK-49544] [SASP-3990][sc-176557][CONNECT] Substitua o bloqueio grosseiro no SparkConnectExecutionManager por ConcurrentMap
- [SPARK-49548] [SASP-3990][sc-176556][CONNECT] Substitua o bloqueio grosseiro no SparkConnectSessionManager por ConcurrentMap
- [SPARK-49551] [SC-176218][ss] Melhorar o log do RocksDB para replayChangelog
-
[SPARK-49595] [SC-176396][connect][SQL] Correção
DataFrame.unpivot/meltno Spark Connect Scala Client - [FAÍSCA-49006] [SC-176162] Implementar a limpeza para arquivos OperatorStateMetadataV2 e StateSchemaV3
-
[SPARK-49600] [SC-176426][python] Remover lógica relacionada a
Python 3.6 and olderdetry_simplify_traceback - [SPARK-49303] [SC-176013][ss] Implementar TTL para ValueState na API transformWithStateInPandas
- [SPARK-49191] [SC-176243][ss] Adicionar suporte para ler variáveis de estado de mapa transformWithState com leitor de fonte de dados de estado
- [SPARK-49593] [SC-176371][ss] Lançar exceção RocksDB para o chamador quando o banco de dados for fechado se um erro for visto
-
[SPARK-49334] [SC-174803][sql]
str_to_mapdeve verificar se oscollationvalores de todos os tipos de parâmetro são os mesmos - [SPARK-42204] [SC-176126][core] Adicionar opção para desabilitar o registro em log redundante dos acumuladores internos de TaskMetrics em logs de eventos
- [SPARK-49575] [SC-176256][ss] Adicionar log para liberação de bloqueio somente se as informações da thread adquirida não forem nulas
- [SPARK-49539] [SC-176250][ss] Atualizar o identificador inicial das famílias internas de colunas para um diferente
- [SPARK-49205] [SC-173853][sql] KeyGroupedPartitioning deve herdar HashPartitioningLike
- [SPARK-49396] [SC-176030][sql] Modificar verificação de nulidade para a expressão CaseWhen
- [SPARK-49476] [SC-175700][sql] Correção da nulidade da função base64
- [SPARK-47262] [SC-174829][sql] Atribuir nomes a condições de erro para conversões do Parquet
- [SPARK-47247] [SC-158349][sql] Use um tamanho de destino menor ao unir partições com junções em explosão
- [SPARK-49501] [SC-176166][sql] Corrigir escape duplo na localização da tabela
- [SPARK-49083] [SC-173214][connect] Permitir que from_xml e from_json trabalhem nativamente com esquemas json
- [SPARK-49043] [SC-174673][sql] Corrigir grupo de codepath interpretado no mapa contendo cadeias de caracteres agrupadas
- [SPARK-48986] [SC-172265][connect][SQL] Adicionar Representação Intermediária ColumnNode
- [SPARK-49326] [SC-176016][ss] Classificar a classe de erro para a função de erro do usuário do coletor Foreach
-
[SPARK-48348] [SC-175950][spark-48376][SQL] Introduzir
LEAVEeITERATEdeclarações - [SPARK-49523] [SC-175949][conectar] Aumentar o tempo máximo de espera para que o servidor de conexão seja criado para teste
- [SPARK-49000] [BEHAVE-105][es-1194747][SQL] Corrigir "select count(distinct 1) from t" onde t é uma tabela vazia, expandindo RewriteDistinctAggregates - versão DBR 16.x
- [SPARK-49311] [SC-175038][sql] Possibilite que grandes valores 'interval second' sejam convertidos em decimal
- [SPARK-49200] [SC-173699][sql] Corrigir exceção de ordenação não codegen de tipo nulo
- [SPARK-49467] [SC-176051][ss] Adicionar suporte para o leitor de fonte de dados de estado e para listar o estado
- [SPARK-47307] [SC-170891][sql] Adicionar uma configuração para dividir opcionalmente cadeias de caracteres base64.
- [SPARK-49391] [SC-176032][ps] Gráfico de caixa selecionar valores atípicos pela distância das cercas
- [SPARK-49445] [SC-175845][ui] Suporte para exibir dica de ferramenta na barra de progresso da interface do usuário
- [FAÍSCA-49451] [SC-175702] Permitir chaves duplicadas no parse_json.
- [SPARK-49275] [SC-175701][sql] Corrigir nulidade do tipo de retorno da expressão xpath
- [SPARK-49021] [SC-175578][ss] Adicionar suporte para ler variáveis de estado de valor transformWithState com leitor de fonte de dados de estado
- [SPARK-49474] [BEHAVE-143][sc-169253][SC-175933][ss] Classificar a classe de erro para erro da função do usuário FlatMapGroupsWithState
- [SPARK-49408] [SC-175932][sql] Usar IndexedSeq em ProjectingInternalRow
-
[SPARK-49509] [SC-175853][core] Usar
Platform.allocateDirectBufferem vez deByteBuffer.allocateDirect - [SPARK-49382] [SC-175013][ps] Fazer gráfico de caixa de quadro renderizar corretamente os folhetos/exceções
- [SPARK-49002] [SC-172846][sql] Manipula consistentemente locais inválidos no WAREHOUSE/SCHEMA//TABLE/PARTITIONDIRECTORY
-
[SPARK-49480] [SC-175699][core] Corrigir NullPointerException causado por
SparkThrowableHelper.isInternalError - [SPARK-49477] [SC-175828][python] Melhorar a mensagem de erro de tipo de retorno inválida do pandas udf
- [SPARK-48693] [SC-169492][sql] Simplificar e unificar toString de Invoke e StaticInvoke
-
[SPARK-49441] [SC-175716][ml]
StringIndexerordenar arrays em executores - [SPARK-49347] [SC-175004][r] Preterir SparkR
- [SPARK-49357] [SC-175227][connect][PYTHON] Truncar verticalmente uma mensagem protobuf de estrutura profundamente aninhada
- [SPARK-41982] [SC-120604][sql] As partições da cadeia de caracteres de tipo não devem ser tratadas como tipos numéricos
- [SPARK-48776] [SC-170452][behave-72] Corrigir formatação de carimbo de data/hora para json, xml e csv
- [SPARK-49223] [SC-174800][ml] Simplificar o StringIndexer.countByValue com funções internas
-
[SPARK-49016] Reverter "[SC-174663][sql] Restaurar o comportamento de que consultas a arquivos CSV brutos são proibidas quando incluem apenas a coluna de registro corrompida e atribuir nome a
_LEGACY_ERROR_TEMP_1285" -
[SPARK-49041] [SC-172392][python][CONNECT] Gerar erro adequado para
dropDuplicatesquando umsubsetincorreto é fornecido - [FAÍSCA-49050] [SC-175235] Habilitando o operador deleteIfExists no TWS com famílias de colunas virtuais
- [SPARK-49216] [SC-173919][core]Correção para evitar logar o contexto da mensagem quando a entrada de log é explicitamente construída e a configuração de logging estruturado está desativada
-
[SPARK-49252] [SC-175596][core] Fazer
TaskSetExcludeListeHeathTrackerindependentes - [SPARK-49352] [SC-174971][sql] Evite a transformação de matriz redundante para expressão idêntica
- [SPARK-42307] [SC-173863][sql] Atribuir nome para erro _LEGACY_ERROR_TEMP_2232
-
[SPARK-49197] [SC-173732][core] Redigir a saída no módulo
Spark Command - [SPARK-48913] [SC-173934][sql] Implementar IndentingXMLStreamWriter
- [SPARK-49306] [SC-175363][python][SQL] Criar aliases de função SQL para 'zeroifnull' e 'nullifzero'
- [SPARK-48344] [SQL] Execução de Script SQL (incluindo Spark Connect)
- [SPARK-49402] [SC-175122][python] Corrigir integração do Binder na documentação do PySpark
- [SPARK-49017] [SC-174664][sql] A instrução Insert falha quando vários parâmetros estão sendo usados
- [SPARK-49318] [SC-174733][sql] Antecipar erro de baixa prioridade em LCA até o final da análise de verificação para melhorar a experiência dos erros
-
[SPARK-49016] [SC-174663][sql] Restaurar o comportamento que impede consultas de arquivos CSV brutos quando apenas a coluna de registro corrompido está incluída, e atribuir nome a
_LEGACY_ERROR_TEMP_1285 -
[SPARK-49387] [SC-175124][python] Corrigir dica de tipo de
accuracyempercentile_approxeapprox_percentile - [SPARK-49131] [SC-174666][ss] TransformWithState deve definir corretamente as chaves de agrupamento implícitas mesmo com iteradores lentos
- [SPARK-49301] [SC-174795][ss] Dados Arrow em blocos passados para o executor do Python
- [SPARK-49039] [SC-174651][ui] Redefinir caixa de seleção quando as métricas do executor são carregadas na guia Estágios
- [SPARK-48428] [SC-169806][sql]: Corrigir IllegalStateException em NestedColumnAliasing
-
[SPARK-49353] [SC-174830][sql] Atualizar documentos relacionados à
UTF-32codificação/decodificação - [SPARK-48613] [SC-170966][sql] SPJ: suporte para embaralhar automaticamente um lado + menos chaves de junção do que chaves de partição
- [SPARK-47473] [SC-160450][behave-127][SQL] Corrigir problema de correção na conversão de carimbos de data/hora INFINITY do Postgres
- [SPARK-49142] [SC-173658][connect][PYTHON] Acompanhamento para reverter o custo de desempenho de proto para cadeia de caracteres.
- [SPARK-49300] [SC-175008][core] Corrigir vazamento de token de delegação do Hadoop quando tokenRenewalInterval não estiver definido.
- [SPARK-49367] [SC-175012][ps] Paralelizar a computação KDE para várias colunas (back-end plotado)
- [SPARK-49365] [SC-175011][ps] Simplificar a agregação de bucket no gráfico hist
- [SPARK-49372] [SC-175003][ss] Assegure que latestSnapshot seja definido como nenhum valor ao fechar para evitar o uso subsequente
-
[FAÍSCA-49341] [SC-174785] Remover
connector/dockerem favor deApache Spark Operator -
[SPARK-49344] [SC-174894][ps] Suporte
json_normalizeà API do Pandas no Spark - [SPARK-49306] [SC-174794][sql] Criar novas funções SQL 'zeroifnull' e 'nullifzero'
- [SPARK-48796] [SC-174668][ss] Carregar o ID da família de colunas a partir do RocksDBCheckpointMetadata para VCF ao reiniciar
- [SPARK-49342] [SC-174899][sql] Tornar opcional o argumento 'jsonFormatSchema' na função SQL TO_AVRO
- [SPARK-48628] [SC-174695][core] Adicionar pico de tarefa em/desativar métricas de memória de heap
- [SPARK-47407] [SC-159379][behave-126][SQL] Dar suporte ao mapeamento de java.sql.Types.NULL para NullType
- [SPARK-48628] [SC-173407][core] Adicionar métricas de pico de memória para tarefas on/off heap
- [SPARK-49166] [SC-173987][sql] Suporte OFFSET em subconsulta correlacionada
- [SPARK-49269] [SC-174676][sql] Avaliar ansiosamente VALUES() lista no AstBuilder
- [SPARK-49281] [SC-174782][sql] Otimizar o acesso binário parquet getBytes com getBytesUnsafe para evitar o custo de cópia.
- [FAÍSCA-49113] [SC-174734] Não afirme em bugs de tradução - engula silenciosamente a exceção
- [SPARK-49098] [SC-173253][sql] Adicionar opções de gravação para INSERT
- [SPARK-48638] [SC-174694][follow][CONNECT] Corrigir documentação para ExecutionInfo
- [SPARK-49250] [ES-1222826][sql] Melhorar a mensagem de erro para expressão de janela não resolvida aninhada em CheckAnalysis
- [SPARK-48755] [SC-174258][ss][PYTHON] implementação básica de transformWithState no PySpark e suporte a ValueState
- [SPARK-48966] [SC-174329][sql] Melhorar a mensagem de erro com referência inválida de coluna não resolvida em chamada de UDTF
- [SPARK-46590] [SC-154115][sql] A correção da coalesce falhou com indeces de partição inesperada
- Refatorar a regra ResolveInlineTables para que não percorra toda a árvore
- [SPARK-49060] [SC-173107][connect] Limpar regras do Mima para verificações de compatibilidade binária do SQL-Connect
- [SPARK-48762] [SC-172525][sql] Introdução da API clusterBy do DataFrameWriter para Python
- [SPARK-49207] [SC-173852][sql] Corrigir mapeamento de caso um para muitos em SplitPart e StringSplitSQL
- [SPARK-49204] [SC-173850][sql] Corrigir tratamento de par substituto em StringInstr e StringLocate
- [SPARK-36680] [SC-170640][sql] Dá suporte a opções de tabela dinâmica para o SPARK SQL
- [SPARK-49204] [SC-173849][sql] Corrigir tratamento de par substituto em SubstringIndex
- [SPARK-49204] [SC-173848][sql] Corrigir tratamento de par substituto em StringTrim
- [FAÍSCA-48967] [SC-173993]Correção do teste SparkConfigOwnershipSuite para OPTIMIZE_INSERT_INTO_VALUES_PARSER
- [SPARK-49204] [SC-173851][sql] Corrigir tratamento de par substituto em StringReplace
- [SPARK-48967] [SC-173993][sql][16.x] Melhorar o desempenho e o uso de memória de "INSERT INTO ... VALUES"
- [SPARK-49099] Reverter "[SC-173229][sql] CatalogManager.setCurrent...
- [SPARK-48347] [SC-173812][sql] Suporte para instrução WHILE
- [SPARK-49128] [SC-173344][core] Suporte para personalizar o título da interface do usuário do servidor de histórico
- [SPARK-49146] [SC-173825][ss] Mover erros de asserção relacionados à falta de marca d'água em consultas de streaming no modo de adição para o framework de erros
- [SPARK-45787] [SC-172197][sql] Adicionar suporte para Catalog.listColumns para colunas de agrupamento
- [SPARK-49099] [SC-173229][sql] CatalogManager.setCurrentNamespace deve respeitar o catálogo de sessão personalizado
- [SPARK-49138] [SC-173483][sql] Corrigir CollationTypeCasts de várias expressões
- [SPARK-49163] [SC-173666][sql] Tentar criar uma tabela com base em dados de partições parquet corrompidos deve resultar em um erro para o usuário
-
[SPARK-49201] [SC-173793][ps][PYTHON][connect] Reimplementar
histplot com Spark SQL - [SPARK-49188] [SC-173682][sql] Erro interno em concat_ws chamado na matriz de matrizes de cadeia de caracteres
-
[SPARK-49137] [SC-173677][sql] Quando a condição booliana no
if statementé inválido, uma exceção deve ser gerada - [SPARK-49193] [SC-173672][sql] Melhorar o desempenho de RowSetUtils.toColumnBasedSet
- [SPARK-49078] [SC-173078][sql] Suporte à sintaxe de exibição de colunas na tabela v2
- [SPARK-49141] [SC-173388][sql] Marcar variante como tipo de dados incompatível com hive
-
[SPARK-49059] [Cherry-Pick][15.x][SC-172528][connect] Transferir
SessionHolder.forTesting(...)para o pacote de teste - [SPARK-49111] [SC-173661][sql] Mover withProjectAndFilter para o objeto complementar de DataSourceV2Strategy
-
[SPARK-49185] [SC-173688][ps][PYTHON][connect] Reimplementar
kdeplot com Spark SQL -
[SPARK-49178] [SC-173673][sql] Otimizar o desempenho para
Row#getSeqcorresponder ao desempenho ao usar o Spark 3.5 com o Scala 2.12 - [SPARK-49093] [SC-172958][sql] GROUP BY com MapType aninhado dentro do tipo complexo
- [SPARK-49142] [SC-173469][connect][PYTHON] Reduzir o nível de log do cliente do Spark Connect para nível de depuração
- [SPARK-48761] [SC-172048][sql] Introduzir a API clusterBy DataFrameWriter para Scala
- [SPARK-48346] [SC-173083][sql] Suporte para instruções IF ELSE em scripts SQL
- [SPARK-48338] [SC-173112][sql] Aprimorar exceções lançadas pelo parser/interpreter
- [SPARK-48658] [SC-169474][sql] Funções de codificação/decodificação relatam erros de codificação em vez de mojibake para caracteres inmapeáveis
- [SPARK-49071] [SC-172954][sql] Remover característica ArraySortLike
-
[SPARK-49107] Reverter "[SC-173103][sql]
ROUTINE_ALREADY_EXISTSdá suporte a RoutineType"" - [SPARK-49070] [SC-172907][ss][SQL] TransformWithStateExec.initialState é reescrito incorretamente para produzir um plano de consulta inválido
- [FAÍSCA-49114] [SC-173217] Subcategorizar não pode carregar erros de armazenamento de estado
-
[SPARK-49107] Reverter "[SC-173103][sql]
ROUTINE_ALREADY_EXISTSdá suporte a RoutineType" - [SPARK-49048] [SC-173223][ss] Adicionar suporte para ler metadados de operador relevantes em determinada ID do lote
- [SPARK-49094] [SC-173049][sql] Corrigir o funcionamento inadequado de ignoreCorruptFiles para a implementação hive orc com mergeSchema desativado.
-
[SPARK-49108] [SC-173102][exemplo] Adicionar
submit_pi.shexemplo de API REST -
[SPARK-49107] [SC-173103][sql]
ROUTINE_ALREADY_EXISTSdá suporte a RoutineType - [SPARK-48997] [SC-172484][ss] Implementar desvinculações individuais para falhas em threads do pool de manutenção
- [SPARK-49063] [SC-173094][sql] Corrigir uso do Between com ScalarSubqueries
- [SPARK-45891] [SC-172305][sql][PYTHON][variant] Adicionar suporte para tipos de intervalo na Especificação Variant
-
[SPARK-49074] [BEHAVE-110][sc-172815][SQL] Corrigir variante com
df.cache() - [SPARK-49003] [SC-172613][sql] Corrigir a função de hash do caminho do código interpretado para levar em consideração a sensibilidade à ordenação de texto
- [SPARK-48740] [SC-172430][sql] Detectar erro de especificação de janela ausente mais cedo
- [SPARK-48999] [SC-172245][ss] Dividir PythonStreamingDataSourceSimpleSuite
- [FAÍSCA-49031] [SC-172602] Implementar a validação para o operador TransformWithStateExec usando OperatorStateMetadataV2
- [SPARK-49053] [SC-172494][python][ML] Fazer com que as funções auxiliares de salvar/carregar modelos aceitem sessão spark.
- [FAÍSCA-49032] [Backport][15.x][SS] Adicione o caminho do esquema na entrada da tabela de metadados, verifique a versão esperada e adicione o teste relacionado aos metadados do operador para o formato de metadados do operador v2
-
[SPARK-49034] [SC-172306][core] Suporte à substituição do lado
sparkPropertiesdo servidor na API de Envio REST - [SPARK-48931] [SC-171895][ss] Reduzir o custo da API de Lista do Repositório de Nuvem para a tarefa de manutenção do repositório de estado
- [SPARK-48849] [SC-172068][ss] Criar OperatorStateMetadataV2 para o operador TransformWithStateExec
- [FAÍSCA-49013] [SC-172322] Alterar chave em collationsMap para tipos de mapa e matriz em scala
-
[SPARK-48414] [SC-171884][python] Corrigir mudança disruptiva do Python
fromJson - [SPARK-48910] [SC-171001][sql] Use HashSet/HashMap para evitar pesquisas lineares em PreprocessTableCreation
-
[SPARK-49007] [SC-172204][core] Aprimorar
MasterPagepara dar suporte ao título personalizado - [SPARK-49009] [SC-172263][sql][PYTHON] Fazer APIs de coluna e funções aceitarem Enums
- [SPARK-49033] [SC-172303][core] Suporte para substituição do lado do servidor na API de Submissão REST
-
[SPARK-48363] [SC-166470][sql] Limpar alguns códigos redundantes em
from_xml - [SPARK-46743] [SC-170867][sql][BEHAVE-84] Erro de contagem após ScalarSubquery ser simplificado se tiver uma relação vazia
-
[SPARK-49040] [SC-172351][sql] Corrigir documento
sql-ref-syntax-aux-exec-imm.md - [SPARK-48998] [SC-172212][ml] Meta algoritmo salva/carrega modelo com SparkSession
-
[SPARK-48959] [SC-171708][sql] Estender
NoSuchNamespaceExceptionNoSuchDatabaseExceptionpara restaurar o tratamento de exceção - [SPARK-48996] [SC-172130][sql][PYTHON] Permitir literais simples para e e ou em Coluna
- [SPARK-48990] [SC-171936] Acompanhamento para #101759 - correção de teste
- [SPARK-48338] [SC-171912][sql] Verificar declarações de variável
- [SPARK-48990] [SC-171936][sql] Palavras-chave de sintaxe sql relacionadas à variável unificada
-
[SPARK-48988] [SC-171915][ml] Fazer
DefaultParamsReader/Writerlidar com metadados usando Spark Session -
[SPARK-48974] [SC-171978][sql][SS][ml][MLLIB] Use
SparkSession.implicitsem vez deSQLContext.implicits - [SPARK-48760] [SC-170870][sql] Fix CatalogV2Util.applyClusterByChanges
- [FAÍSCA-48928] [SC-171956] Aviso de log para chamar .unpersist() em RDDs com pontos verificados localmente
- [SPARK-48760] [SC-170139][sql] Introdução ALTER TABLE ... CLUSTER BY para alterar colunas de clustering
- [SPARK-48844] Reverter "[SC-170669][sql] USAR INVALID_EMPTY_LOCATION em substituição a UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY quando o caminho estiver vazio"
-
[SPARK-48833] [SC-171914][sql][VARIANT] Variante de suporte em
InMemoryTableScan -
[SPARK-48975] [SC-171894][protobuf] Remover definição desnecessária
ScalaReflectionLockdeprotobuf - [SPARK-48970] [SC-171800][python][ML] Evite usar SparkSession.getActiveSession no leitor/gravador do Spark ML
- [SPARK-48844] [SC-170669][sql] UTILIZAR INVALID_EMPTY_LOCATION em vez de UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY quando o caminho está vazio
- [FAÍSCA-48714] [SC-170136] Corrigir falha nos testes df.mergeInto no PySpark e no UC
- [SPARK-48957] [SC-171797][ss] Retornar classe de erro sub-classificada no carregamento do repositório de estado para os provedores HDFS e RocksDB
- [SPARK-48891] [Backport][15x][SC-171677][ss] Refatorar StateSchemaCompatibilityChecker para unificar todos os formatos de esquema de estado
- [SPARK-48972] [SC-171795][python] Unificar o tratamento de cadeia de caracteres literal em funções
- [SPARK-48388] [SC-171337][sql] Corrigir SET o comportamento da instrução para scripts SQL
- [SPARK-48743] [SC-170552][sql][SS] MergingSessionIterator deve lidar melhor quando getStruct retorna nulo
- [SPARK-48623] [15.x][sc-171322][CORE] Migrar logs do FileAppender para registro em log estruturado
- [SPARK-36680] [DBRRM-1123] Reverter "[SC-170640][sql] Dá suporte a opções de tabela dinâmica para o Spark SQL"
-
[SPARK-48841] [SC-170868][behave-83][SQL] Incluir
collationNameparasql()deCollate - [SPARK-48941] [SC-171703][python][ML] Substituir a invocação da API de leitura/gravação de RDD pela API de leitura/gravação de Dataframe
- [SPARK-48938] [SC-171577][python] Aprimorar mensagens de erro ao registrar UDTFs do Python
- [SPARK-48350] [SC-171040][sql] Introdução de exceções personalizadas para script sql
-
[SPARK-48907] [SC-171158][sql] Corrigir o valor
explicitTypesemCOLLATION_MISMATCH.EXPLICIT -
[SPARK-48945] [SC-171658][python] Simplificar funções regex com
lit - [SPARK-48944] [SC-171576][conectar] Unificar o tratamento de esquema em formato JSON no Connect Server
- [FAÍSCA-48836] [SC-171569] Integrar o esquema SQL com o esquema de estado/metadados
- [SPARK-48946] [SC-171504][sql] NPE no método redact quando a sessão é nula
- [SPARK-48921] [SC-171412][sql] Os codificadores ScalaUDF na subconsulta devem ser resolvidos para MergeInto
- [SPARK-45155] [SC-171048][connect] Adicionar documentos de API para o cliente JVM/Scala do Spark Connect
-
[FAÍSCA-48900] [SC-171319] Adicionar
reasoncampo paracancelJobGroupecancelJobsWithTag - [SPARK-48865] [SC-171154][sql] Adicionar função try_url_decode
-
[SPARK-48851] [SC-170767][sql] Altere o valor de
SCHEMA_NOT_FOUNDnamespaceparacatalog.namespace -
[FAÍSCA-48510] [SC-170893][2/2] Suporte à API UDAF
toColumnno Spark Connect -
[SPARK-45190] [SC-171055][spark-48897][PYTHON][connect] Fazer com que
from_xmlsuporte o esquema StructType -
[SPARK-48930] [SC-171304][core] Redigir
awsAccessKeyIdincluindo o padrãoaccesskey - [SPARK-48909] [SC-171080][ml][MLLIB] Usa SparkSession sobre SparkContext ao escrever metadados
- [SPARK-48883] [SC-171133][ml][R] Substituir a invocação de API de leitura/gravação de RDD por API de leitura/gravação de DataFrame
-
[SPARK-48924] [SC-171313][ps] Adicionar uma função auxiliar semelhante a
make_intervalpandas -
[SPARK-48884] [SC-171051][python] Remover função auxiliar não utilizado
PythonSQLUtils.makeInterval - [SPARK-48817] [SC-170636][sql] Execute ansiosamente vários comandos de união juntos
- [SPARK-48896] [SC-171079][ml][MLLIB] Evite a repartição ao escrever os metadados
-
[SPARK-48892] [SC-171127][ml] Evitar a leitura de parâmetro por linha em
Tokenizer -
[SPARK-48927] [SC-171227][core] Mostrar o número de RDDs armazenados em cache em
StoragePage - [SPARK-48886] [15.x][backport][SC-171039][ss] Adicionar informações de versão ao changelog v2 para permitir uma evolução mais fácil
- [SPARK-48903] [SC-171136][ss] Definir a versão do último instantâneo do RocksDB corretamente durante o carregamento remoto
- [SPARK-48742] [SC-170538][ss] Família de colunas virtuais para RocksDB
- [SPARK-48726] [15.x][sc-170753][SS] Crie o formato de arquivo StateSchemaV3 e escreva-o para o operador TransformWithStateExec
- [SPARK-48794] [SC-170882][connect][15.x] suporte a df.mergeInto para Spark Connect (Scala e Python)
-
[SPARK-48714] [SC-170136][python] Implementar
DataFrame.mergeIntono PySpark - [SPARK-48772] [SC-170642][ss][SQL] Modo de Leitor do Feed de Alterações da Fonte de Dados de Estado
- [SPARK-48666] [SC-170887][sql] Não aplique o filtro se ele contiver PythonUDFs
- [SPARK-48845] [SC-170889][sql] GenericUDF captura exceções de crianças
- [SPARK-48880] [SC-170974][core] Evite lançar NullPointerException se o plug-in do driver não for inicializado
- [SPARK-48888] [Backport][15x][SC-170973][ss] Remover a criação de instantâneo baseado no tamanho das operações do changelog
- [FAÍSCA-48871] [SC-170876] Corrija INVALID_NON_DETERMINISTIC_EXPRESSIONS validação em...
- [SPARK-48883] [SC-170894][ml][R] Substituir invocação de API de leitura/gravação RDD por API de leitura/gravação de Dataframe
- [SPARK-36680] [SC-170640][sql] Dá suporte a opções de tabela dinâmica para o SPARK SQL
[SPARK-48804] [SC-170558][sql] Adicionar verificação classIsLoadable & OutputCommitter.isAssignableFrom para configurações de classe do output committer- [SPARK-46738] [SC-170791][python] Reativar um grupo de testes de documentação
-
[SPARK-48858] [SC-170756][python] Remover a chamada do método obsoleto
setDaemonemThreadlog_communication.py - [SPARK-48639] [SC-169801][connect][PYTHON] Adicionar origem a RelationCommon
- [SPARK-48863] [SC-170770][es-1133940][SQL] Corrigir ClassCastException ao analisar JSON com "spark.sql.json.enablePartialResults" habilitado
- [SPARK-48343] [SC-170450][sql] Introdução ao interpretador de scripts SQL
- [SPARK-48529] [SC-170755][sql] Introdução de rótulos no script SQL
- [SPARK-45292] Reverte “[SC-151609][SQL][HIVE] Remove o Guava das classes compartilhadas do IsolatedClientLoader”
- [SPARK-48037] [SC-165330][core][3.5] Corrigir a falta de métricas relacionadas à gravação de embaralhamento em SortShuffleWriter, o que resulta em dados potencialmente imprecisos.
-
[SPARK-48720] [SC-170551][sql] Alinhar o comando
ALTER TABLE ... UNSET TBLPROPERTIES ...em v1 e v2 - [SPARK-48485] [SC-167825][connect][SS] Suporte a interruptTag e interruptAll em consultas de streaming
- [SPARK-45292] [SC-151609][sql][HIVE] Remover Guava das classes compartilhadas do IsolatedClientLoader
- [SPARK-48668] [SC-169815][sql] Suportar ALTER NAMESPACE... UNSET PROPERTIES na v2
- [SPARK-47914] [SC-165313][sql] Não exibir o parâmetro de divisões em Range
- [SPARK-48807] [SC-170643][sql] Suporte binário para fonte de dados CSV
- [SPARK-48220] [SC-167592][python][15.X] Permitir a passagem da Tabela PyArrow para createDataFrame()
- [SPARK-48545] [SC-169543][sql] Criar funções SQL to_avro e from_avro para corresponder aos equivalentes do DataFrame
- [SPARK-47577] [SC-168875][spark-47579] Correção do uso enganoso da chave de log TASK_ID
Suporte ao driver ODBC/JDBC do Databricks
O Databricks dá suporte a drivers ODBC/JDBC lançados nos últimos 2 anos. Baixe os drivers e a atualização lançados recentemente (baixe o ODBC, baixe o JDBC).
Ambiente do sistema
- sistema operacional: Ubuntu 24.04.1 LTS
- Java: Zulu17.50+19-CA
- Scala: 2.12.15
- Python: 3.12.3
- R: 4.4.0
- Delta Lake: 3.2.1
Bibliotecas do Python instaladas
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| tipos com anotação | 0.7.0 | asttokens | 2.0.5 | astunparse | 1.6.3 |
| comando automático | 2.2.2 | azure-core | 1.31.0 | Armazenamento em Blob do Azure | 12.23.0 |
| Azure-Armazenamento-Arquivo-Lago de Dados | 12.17.0 | backports.tarfile | 1.2.0 | preto | 24.4.2 |
| antolho | 1.7.0 | boto3 | 1.34.69 | botocore | 1.34.69 |
| ferramentas de cache | 5.3.3 | certifi | 2024.6.2 | cffi | 1.16.0 |
| chardet | 4.0.0 | normalizador de conjunto de caracteres | 2.0.4 | clique | 8.1.7 |
| cloudpickle | 2.2.1 | Comunicação | 0.2.1 | contorno | 1.2.0 |
| criptografia | 42.0.5 | ciclista | 0.11.0 | Cython | 3.0.11 |
| databricks-sdk | 0.30.0 | dbus-python | 1.3.2 | debugpy | 1.6.7 |
| decorador | 5.1.1 | Deprecado | 1.2.14 | distlib | 0.3.8 |
| de docstring para markdown | 0.11 | pontos de entrada | 0,4 | em execução | 0.8.3 |
| Visão geral de facetas | 1.1.1 | bloqueio de arquivo | 3.15.4 | fonttools | 4.51.0 |
| gitdb | 4.0.11 | GitPython | 3.1.37 | google-api-core | 2.20.0 |
| google-auth | 2.35.0 | google-cloud-core | 2.4.1 | armazenamento na nuvem do Google | 2.18.2 |
| google-crc32c | 1.6.0 | google-mídia-retomável | 2.7.2 | googleapis-common-protos | 1.65.0 |
| grpcio | 1.60.0 | grpcio-status | 1.60.0 | httplib2 | 0.20.4 |
| IDNA | 3.7 | importlib-metadata | 6.0.0 | importlib_resources | 6.4.0 |
| infletir | 7.3.1 | ipyflow-core | 0.0.198 | ipykernel | 6.28.0 |
| ipython | 8.25.0 | ipython-genutils | 0.2.0 | ipywidgets (biblioteca Python para widgets interativos) | 7.7.2 |
| isodate | 0.6.1 | jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 |
| jaraco.text | 3.12.1 | Jedi | 0.19.1 | jmespath | 1.0.1 |
| joblib | 1.4.2 | jupyter_client | 8.6.0 | jupyter_core | 5.7.2 |
| kiwisolver | 1.4.4 | launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 |
| lazr.uri | 1.0.6 | matplotlib | 3.8.4 | matplotlib-inline | 0.1.6 |
| Mccabe | 0.7.0 | mlflow-skinny | 2.15.1 | more-itertools | 10.3.0 |
| mypy | 1.10.0 | mypy-extensions | 1.0.0 | nest-asyncio | 1.6.0 |
| nodeenv | 1.9.1 | numpy | 1.26.4 | oauthlib | 3.2.2 |
| opentelemetry-api | 1.27.0 | opentelemetry-sdk | 1.27.0 | Convenções Semânticas do OpenTelemetry | 0,48b0 |
| empacotamento | 24.1 | Pandas | 1.5.3 | parso | 0.8.3 |
| pathspec | 0.10.3 | ingênuo | 0.5.6 | pexpect | 4.8.0 |
| almofada | 10.3.0 | caroço | 24,2 | platformdirs | 3.10.0 |
| enredo | 5.22.0 | Pluggy | 1.0.0 | prompt-toolkit | 3.0.43 |
| proto-plus | 1.24.0 | protobuf | 4.24.1 | psutil | 5.9.0 |
| psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
| Pyarrow | 15.0.2 | pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 |
| pyccolo | 0.0.52 | pycparser | 2.21 | pydantic | 2.8.2 |
| pydantic_core | 2.20.1 | pyflakes | 3.2.0 | Pygments | 2.15.1 |
| PyGObject | 3.48.2 | PyJWT | 2.7.0 | pyodbc | 5.0.1 |
| pyparsing | 3.0.9 | pyright | 1.1.294 | python-dateutil | 2.9.0.post0 |
| python-lsp-jsonrpc | 1.1.2 | python-lsp-server (servidor LSP para Python) | 1.10.0 | pytoolconfig | 1.2.6 |
| Pytz | 2024.1 | PyYAML | 6.0.1 | pyzmq | 25.1.2 |
| Solicitações | 2.32.2 | corda | 1.12.0 | RSA | 4.9 |
| s3transfer | 0.10.2 | scikit-aprender | 1.4.2 | scipy | 1.13.1 |
| seaborn (biblioteca de visualização em Python) | 0.13.2 | setuptools | 74.0.0 | seis | 1.16.0 |
| smmap | 5.0.0 | sqlparse | 0.5.1 | ssh-import-id | 5.11 |
| dados empilhados | 0.2.0 | statsmodels (biblioteca para modelos estatísticos em Python) | 0.14.2 | tenacidade | 8.2.2 |
| threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
| tornado | 6.4.1 | traitlets | 5.14.3 | guarda-tipo | 4.3.0 |
| types-protobuf | 3.20.3 | types-psutil | 5.9.0 | types-pytz | 2023.3.1.1 |
| types-PyYAML | 6.0.0 | tipos de solicitações | 2.31.0.0 | types-setuptools | 68.0.0.0 |
| tipos-seis | 1.16.0 | types-urllib3 | 1.26.25.14 | typing_extensions | 4.11.0 |
| ujson | 5.10.0 | atualizações não supervisionadas | 0,1 | urllib3 | 1.26.16 |
| virtualenv | 20.26.2 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
| whatthepatch | 1.0.2 | wheel | 0.43.0 | embrulhado | 1.14.1 |
| yapf | 0.33.0 | zipp | 3.17.0 |
Bibliotecas R instaladas
As bibliotecas R são instaladas a partir do snapshot CRAN do Posit Package Manager em 2024-08-04 : https://packagemanager.posit.co/cran/2024-08-04/.
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| flecha | 16.1.0 | AskPass | 1.2.0 | afirme isso | 0.2.1 |
| retroportações | 1.5.0 | base | 4.4.0 | base64enc | 0.1-3 |
| bigD | 0.2.0 | bit | 4.0.5 | bit64 | 4.0.5 |
| bitops | 1.0-8 | blob | 1.2.4 | ciar | 1.3-30 |
| Fabricação de cerveja | 1.0-10 | Brio | 1.1.5 | vassoura | 1.0.6 |
| bslib | 0.8.0 | cachem | 1.1.0 | chamador | 3.7.6 |
| cifrão | 6.0-94 | cellranger | 1.1.0 | cronômetro | 2.3-61 |
| classe | 7.3-22 | Cli | 3.6.3 | clipr | 0.8.0 |
| relógio | 0.7.1 | cluster | 2.1.6 | codetools | 0.2-20 |
| espaço de cores | 2.1-1 | commonmark | 1.9.1 | compilador | 4.4.0 |
| configuração | 0.3.2 | conflituoso | 1.2.0 | cpp11 | 0.4.7 |
| giz de cera | 1.5.3 | credenciais | 2.0.1 | encurvar | 5.2.1 |
| Tabela de Dados | 1.15.4 | conjuntos de dados | 4.4.0 | DBI | 1.2.3 |
| dbplyr | 2.5.0 | Desc | 1.4.3 | devtools | 2.4.5 |
| diagrama | 1.6.5 | diffobj | 0.3.5 | hash | 0.6.36 |
| iluminação para baixo | 0.4.4 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-14 | reticências | 0.3.2 | avaliar | 0.24.0 |
| fansi | 1.0.6 | farver | 2.1.2 | mapa rápido | 1.2.0 |
| fontawesome | 0.5.2 | forcats | 1.0.0 | foreach | 1.5.2 |
| estrangeiro | 0.8 - 86 | forja | 0.2.0 | fs | 1.6.4 |
| futuro | 1.34.0 | future.apply | 1.11.2 | gargarejar | 1.5.2 |
| genéricos | 0.1.3 | Gert | 2.1.0 | ggplot2 | 3.5.1 |
| Gh | 1.4.1 | git2r | 0.33.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | globais | 0.16.3 | cola | 1.7.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
| Gráficos | 4.4.0 | grDevices | 4.4.0 | grade | 4.4.0 |
| gridExtra | 2.3 | gsubfn | 0,7 | gt | 0.11.0 |
| gtable | 0.3.5 | capacete de segurança | 1.4.0 | refúgio | 2.5.4 |
| mais alto | 0.11 | Hms | 1.1.3 | ferramentas HTML | 0.5.8.1 |
| htmlwidgets | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
| httr2 | 1.0.2 | ids | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-15 | isoband | 0.2.7 | Iteradores | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.8.8 | juicyjuice | 0.1.0 |
| KernSmooth | 2.23-22 | knitr | 1.48 | rotulagem | 0.4.3 |
| posterior | 1.3.2 | treliça | 0,22-5 | lava vulcânica | 1.8.0 |
| ciclo de vida | 1.0.4 | ouça | 0.9.1 | lubrificado | 1.9.3 |
| magrittr | 2.0.3 | redução de preço | 1.13 | MISSA | 7.3-60.0.1 |
| Matriz | 1.6-5 | memorizar | 2.0.1 | Métodos | 4.4.0 |
| mgcv | 1.9-1 | mímica | 0.12 | miniUI | 0.1.1.1 |
| mlflow | 2.14.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
| munsell | 0.5.1 | nlme | 3.1-165 | nnet | 7.3-19 |
| numDeriv | 2016.8-1.1 | openssl | 2.2.0 | paralelo | 4.4.0 |
| paralelamente | 1.38.0 | coluna | 1.9.0 | pkgbuild | 1.4.4 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.0 | pkgload | 1.4.0 |
| plogr | 0.2.0 | plyr | 1.8.9 | elogio | 1.0.0 |
| prettyunits | 1.2.0 | pROC | 1.18.5 | processx | 3.8.4 |
| Prodlim | 2024.06.25 | profvis | 0.3.8 | progresso | 1.2.3 |
| progressr | 0.14.0 | Promessas | 1.3.0 | proto | 1.0.0 |
| proxy | 0.4-27 | P.S. | 1.7.7 | purrr | 1.0.2 |
| R6 | 2.5.1 | ragg | 1.3.2 | randomForest | 4.7-1.1 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.13 | RcppEigen | 0.3.4.0.0 | capaz de reagir | 0.4.4 |
| reactR | 0.6.0 | Readr | 2.1.5 | readxl | 1.4.3 |
| Receitas | 1.1.0 | jogo de revanche | 2.0.0 | revanche2 | 2.1.2 |
| Controles remotos | 2.5.0 | reprex | 2.1.1 | remodelar2 | 1.4.4 |
| rlang | 1.1.4 | rmarkdown | 2.27 | RODBC | 1.3-23 |
| roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
| Rserve | 1.8-13 | RSQLite | 2.3.7 | rstudioapi | 0.16.0 |
| rversions | 2.1.2 | rvest | 1.0.4 | Sass | 0.4.9 |
| escamas | 1.3.0 | Seletor | 0.4-2 | informações de sessão | 1.2.2 |
| forma | 1.4.6.1 | brilhante | 1.9.1 | sourcetools | 0.1.7-1 |
| sparklyr | 1.8.6 | SparkR | 3.5.0 | espacial | 7.3-17 |
| Splines | 4.4.0 | sqldf | 0.4-1 | SQUAREM | 2021.1 |
| estatísticas | 4.4.0 | estatísticas4 | 4.4.0 | stringi | 1.8.4 |
| stringr | 1.5.1 | sobrevivência | 3.6-4 | ginga | 5.17.14.1 |
| sys | 3.4.2 | systemfonts | 1.1.0 | tcltk | 4.4.0 |
| testthat | 3.2.1.1 | formatação de texto | 0.4.0 | tibble | 3.2.1 |
| tidyr | 1.3.1 | tidyselect | 1.2.1 | tidyverse | 2.0.0 |
| mudança de horário | 0.3.0 | data e hora | 4032.109 | tinytex | 0.52 |
| Ferramentas | 4.4.0 | tzdb | 0.4.0 | verificador de URL | 1.0.1 |
| usethis | 3.0.0 | utf8 | 1.2.4 | utilitários | 4.4.0 |
| identificador único universal (UUID) | 1.2-1 | V8 | 4.4.2 | vctrs | 0.6.5 |
| viridisLite | 0.4.2 | Vroom | 1.6.5 | Waldo | 0.5.2 |
| bigode | 0.4.1 | murchar | 3.0.1 | xfun | 0.46 |
| xml2 | 1.3.6 | xopen | 1.0.1 | xtable | 1.8-4 |
| YAML | 2.3.10 | zeallot | 0.1.0 | zíper | 2.3.1 |
Bibliotecas Java e Scala instaladas (versão do cluster Scala 2.12)
| ID do grupo | ID do artefato | Versão |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | amazon-kinesis-client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity (pacote de identidade Cognito para Java da AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect (SDK Java da AWS para conexão direta) | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | SDK Java para o ECS da AWS | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam (kit de desenvolvimento de software Java da AWS para IAM) | 1.12.638 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs | 1.12.638 |
| com.amazonaws | aws-java-sdk-machinelearning (SDK da AWS para aprendizado de máquina) | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
| com.amazonaws | aws-java-sdk-sts | 1.12.638 |
| com.amazonaws | aws-java-sdk-support (suporte para AWS Java SDK) | 1.12.638 |
| com.amazonaws | aws-java-sdk-swf-bibliotecas | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | fluxo | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo-sombreado | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | colega de classe | 1.3.4 |
| com.fasterxml.jackson.core | jackson-annotations | 2.15.2 |
| com.fasterxml.jackson.core | jackson-core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
| com.fasterxml.jackson.datatype | jackson-module-paranamer | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-module-scala_2.12 | 2.15.2 |
| com.github.ben-manes.cafeína | cafeína | 2.9.3 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1-nativos |
| com.github.fommil.netlib | sistema_nativo-java | 1.1 |
| com.github.fommil.netlib | sistema_nativo-java | 1.1-nativos |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-nativos |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-nativos |
| com.github.luben | zstd-jni | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.10.1 |
| com.google.crypto.tink | Sininho | 1.9.0 |
| com.google.errorprone | anotações_propensas_a_erros | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 26/05/2023 |
| com.google.guava | goiaba | 15,0 |
| com.google.protobuf | protobuf-java | 3.25.1 |
| com.helger | criador de perfil | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | VERSÃO.0.8.0. |
| com.lihaoyi | código-fonte_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentes_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | configuração | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.16.0 |
| commons-collections (coleções comuns) | commons-collections (coleções comuns) | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload | commons-fileupload | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compressor de ar | 0.27 |
| io.delta | delta-sharing-client_2.12 | 1.2.0 |
| io.dropwizard.metrics | anotação de métricas | 4.2.19 |
| io.dropwizard.metrics | metrics-core | 4.2.19 |
| io.dropwizard.metrics | metrics-graphite | 4.2.19 |
| io.dropwizard.metrics | métricas-verificações de saúde | 4.2.19 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
| io.dropwizard.metrics | metrics-jmx | 4.2.19 |
| io.dropwizard.metrics | metrics-json (métricas em JSON) | 4.2.19 |
| io.dropwizard.metrics | metrics-jvm | 4.2.19 |
| io.dropwizard.metrics | metrics-servlets | 4.2.19 |
| io.netty | Netty-all | 4.1.108.Final |
| io.netty | netty-buffer | 4.1.108.Final |
| io.netty | netty-codec | 4.1.108.Final |
| io.netty | netty-codec-http | 4.1.108.Final |
| io.netty | netty-codec-http2 | 4.1.108.Final |
| io.netty | netty-codec-socks | 4.1.108.Final |
| io.netty | netty-common | 4.1.108.Final |
| io.netty | netty-handler | 4.1.108.Final |
| io.netty | netty-handler-proxy | 4.1.108.Final |
| io.netty | netty-resolvedor | 4.1.108.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-windows-x86_64 |
| io.netty | Netty Tcnative Classes | 2.0.61.Final |
| io.netty | netty-transport | 4.1.108.Final |
| io.netty | netty-transport-classes-epoll | 4.1.108.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-comum | 4.1.108.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | coletor | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | ativação | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | API de transação | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | picles (singular: picle) | 1.3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | formiga | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | lançador de formigas | 1.10.11 |
| org.apache.arrow | formato de flecha | 15.0.0 |
| org.apache.arrow | arrow-memória-core | 15.0.0 |
| org.apache.arrow | Arrow-Memory-Netty | 15.0.0 |
| org.apache.arrow | vetor de seta | 15.0.0 |
| org.apache.avro | avro | 1.11.3 |
| org.apache.avro | avro-ipc | 1.11.3 |
| org.apache.avro | avro-mapred | 1.11.3 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.23.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | Texto Comum | 1.10.0 |
| org.apache.curator | curador-cliente | 2.13.0 |
| org.apache.curator | estrutura do curador | 2.13.0 |
| org.apache.curator | curador de receitas | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-memory | 2.0.0 |
| org.apache.derby | Derby | 10.14.2.0 |
| org.apache.hadoop | tempo de execução do cliente Hadoop | 3.3.6 |
| org.apache.hive | hive-beeline (ferramenta de linha de comando para conectar-se ao Hive) | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | Hive-shims | 2.3.9 |
| org.apache.hive | API de armazenamento do Hive | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | Agendador de Ajustes do Hive (hive-shims-scheduler) | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | hera | 2.5.2 |
| org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
| org.apache.logging.log4j | log4j-api | 2.22.1 |
| org.apache.logging.log4j | log4j-core | 2.22.1 |
| org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
| org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-calços | 1.9.2 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.23 |
| org.apache.yetus | anotações do público | 0.13.0 |
| org.apache.zookeeper | zelador de zoológico | 3.9.2 |
| org.apache.zookeeper | guarda de zoológico-juta | 3.9.2 |
| org.checkerframework | checker-qual | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | commons-compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.collections | eclipse-collections | 11.1.0 |
| org.eclipse.collections | eclipse-collections-api | 11.1.0 |
| org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-continuation | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-security | 9.4.52.v20230823 |
| org.eclipse.jetty | servidor jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty Webapp | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | API de WebSocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-client (cliente WebSocket) | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | servidor WebSocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | Localizador de Recursos OSGi | 1.0.3 |
| org.glassfish.hk2.external | AliançaAOP-Reempacotado | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
| org.glassfish.jersey.core | jersey-client | 2.40 |
| org.glassfish.jersey.core | jersey-common | 2.40 |
| org.glassfish.jersey.core | jersey-server | 2.40 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
| org.hibernate.validator | hibernate-validator | 6.1.7.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Anotações | 17.0.0 |
| org.joda | joda-convert | 1,7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mlflow | mlflow-spark_2.12 | 2.9.1 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
| org.roaringbitmap | Calços | 0.9.45-databricks |
| org.rocksdb | rocksdbjni | 9.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.12 | 0.9.1 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interface de teste | 1,0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.16 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | compatível com scalatest | 3.2.16 |
| org.scalatest | scalatest-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.16 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.16 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.16 |
| org.scalatest | scalatest_2.12 | 3.2.16 |
| org.slf4j | jcl-over-slf4j | 2.0.7 |
| org.slf4j | jul-to-slf4j | 2.0.7 |
| org.slf4j | slf4j-api | 2.0.7 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.2-linux-x86_64 |
| Stax | stax-api | 1.0.1 |