Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
Observação
O suporte para esta versão do Databricks Runtime terminou. Para obter a data de fim do suporte, consulte Histórico de fim do suporte. Para todas as versões suportadas do Databricks Runtime, consulte Versões e compatibilidade das notas de versão do Databricks Runtime.
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 16.2, alimentado pelo Apache Spark 3.5.2.
A Databricks lançou esta versão em fevereiro de 2025.
Mudanças comportamentais
ANALYZE agora ignora colums com tipos não suportados
ANALYZE TABLE não resulta mais em uma mensagem de erro quando executado em uma tabela com tipos sem suporte, como ARRAY ou MAP. As colunas sem suporte agora são ignoradas automaticamente. Os usuários que implementaram a lógica que espera esses erros devem atualizar seu código.
No Compartilhamento Delta, o histórico da tabela é habilitado por padrão
Os compartilhamentos criados usando o comando SQL ALTER SHARE <share> ADD TABLE <table> agora têm o compartilhamento de histórico (WITH HISTORY) habilitado por padrão. Consulte ALTER SHARE.
As instruções SQL de credenciais retornam um erro quando há uma incompatibilidade de tipo de credencial
Com esta versão, se o tipo de credencial especificado em uma instrução SQL de gerenciamento de credenciais não corresponder ao tipo do argumento de credencial, um erro será retornado e a instrução não será executada. Por exemplo, para a instrução DROP STORAGE CREDENTIAL 'credential-name', se credential-name não for uma credencial de armazenamento, a instrução falhará com um erro.
Essa alteração é feita para ajudar a evitar erros do usuário. Anteriormente, essas instruções eram executadas com êxito, mesmo que uma credencial que não correspondesse ao tipo de credencial especificado fosse passada. Por exemplo, a seguinte instrução excluiria com êxito storage-credential: DROP SERVICE CREDENTIAL storage-credential.
Essa alteração afeta as seguintes declarações:
- DROP CREDENTIAL
- ALTER CREDENTIAL
- DESCRIBE CREDENTIAL
- GRANT… ON… CREDENCIAL
- REVOKE… ON… CREDENCIAL
- SHOW GRANTS SOBRE... CREDENCIAL
Novos recursos e melhorias
-
Crie aplicativos com monitoração de estado personalizados com
transformWithState - Autenticar no armazenamento de objetos na nuvem com credenciais de serviço
- O acesso controlado pelo Unity Catalog a serviços de nuvem externos usando credenciais de serviço agora é GA
- Os blocos de notas são suportados como ficheiros de espaço de trabalho
-
Use o
timestampdiff×tampaddem expressões de coluna geradas - Suporte para sintaxe de pipeline SQL
-
Fazer solicitação HTTP usando a
http_requestfunção -
Atualizar para
DESCRIBE TABLEretornar metadados como JSON estruturado - Agrupamentos insensíveis em branco à direita
- Converta tabelas Apache Iceberg com particionamento de bucket em tabelas Delta não particionadas
-
A computação do modo de acesso padrão (anteriormente modo de acesso compartilhado) agora suporta os métodos
foreachSpark Scala,foreachBatcheflatMapGroupsWithState
Crie aplicativos com monitoração de estado personalizados com transformWithState
Agora você pode usar transformWithState APIs relacionadas para implementar aplicativos com monitoração de estado personalizados como parte de consultas de Streaming Estruturado. Consulte Criar um aplicativo com monitoração de estado personalizado.
Autenticar no armazenamento de objetos na nuvem com credenciais de serviço
Agora você pode usar as credenciais do serviço Databricks para autenticar no armazenamento de objetos na nuvem com o Auto Loader. Consulte Configurar fluxos do carregador automático no modo de notificação de arquivo.
O acesso controlado pelo Unity Catalog a serviços de nuvem externos usando credenciais de serviço agora é GA
As credenciais de serviço permitem uma autenticação simples e segura com os serviços do seu locatário de nuvem do Azure Databricks. Com o Databricks Runtime 16.2, as credenciais de serviço estão geralmente disponíveis e agora suportam SDKs Scala, além do SDK Python que era suportado na Visualização Pública. Consulte Criar credenciais de serviço.
Os blocos de notas são suportados como ficheiros de espaço de trabalho
No Databricks Runtime 16.2 e superior, os blocos de anotações são suportados como arquivos de espaço de trabalho. Agora você pode interagir programaticamente com blocos de anotações de qualquer lugar onde o sistema de arquivos do espaço de trabalho esteja disponível, incluindo gravação, leitura e exclusão de blocos de anotações como qualquer outro arquivo. Para saber mais, consulte Criar, atualizar e excluir arquivos e diretórios programaticamente.
Usar o timestampdiff & timestampadd em expressões de coluna geradas
No Databricks Runtime 16.2 e superior, você pode usar as funções timestampdiff e timestampadd em expressões de coluna geradas pelo Delta Lake. Veja as colunas geradas pelo Lago Delta.
Suporte para sintaxe de pipeline SQL
No Databricks Runtime 16.2 e superior, você pode compor pipelines SQL. Um pipeline SQL estrutura uma consulta padrão, como SELECT c2 FROM T WHERE c1 = 5, em uma sequência passo a passo, conforme mostrado no exemplo a seguir:
FROM T
|> SELECT c2
|> WHERE c1 = 5
Para saber mais sobre a sintaxe suportada para pipelines SQL, ver SQL Pipeline Syntax.
Para obter informações básicas sobre essa extensão entre setores, consulte SQL tem problemas. Nós podemos corrigi-los: sintaxe de pipe em SQL (por Google Research).
Fazer solicitação HTTP usando a função http_request
No Databricks Runtime 16.2 e superior, você pode criar conexões HTTP e, através delas, fazer solicitações HTTP usando a função http_request .
Atualização para DESCRIBE TABLE retorna metadados como JSON estruturado
No Databricks Runtime 16.2 e superior, você pode usar o comando para retornar metadados de DESCRIBE TABLE AS JSON tabela como um documento JSON. A saída JSON é mais estruturada do que o relatório padrão legível por humanos e pode ser usada para interpretar o esquema de uma tabela programaticamente. Para saber mais, consulte DESCRIBE TABLE AS JSON.
Agrupamentos insensíveis em branco à direita
O Databricks Runtime 16.2 adiciona suporte para agrupamentos insensíveis em branco à direita, adicionando ao suporte de agrupamento adicionado no Databricks Runtime 16.1. Por exemplo, esses agrupamentos tratam 'Hello' e 'Hello ' como iguais. Para saber mais, consulte collation RTRIM.
Converta tabelas Apache Iceberg com particionamento de bucket em tabelas Delta não particionadas
As CONVERT TO DELTA instruções e CREATE TABLE CLONE agora suportam a conversão de uma tabela Apache Iceberg com particionamento de bucket em uma tabela Delta não particionada.
A computação do modo de acesso padrão (anteriormente modo de acesso compartilhado) agora suporta os métodos foreachSpark Scala, foreachBatche flatMapGroupsWithState
No Databricks Runtime 16.2 e superior, a computação do modo de acesso padrão agora suporta os métodos DataStreamWriter.foreachBatch Scala e KeyValueGroupedDataset.flatMapGroupsWithState. No Databricks Runtime 16.1 e superior, a computação do modo de acesso padrão agora suporta o método Scala DataStreamWriter.foreach.
Correções de erros
Processamento incremental de clones melhorado
Esta versão inclui uma correção para um caso extremo em que um CLONE incremental pode voltar a copiar arquivos que já foram copiados de uma tabela de origem para uma tabela de destino. Ver Clonar uma tabela no Azure Databricks.
Atualizações da biblioteca
- Bibliotecas Python atualizadas:
- Bibliotecas R atualizadas:
- Bibliotecas Java atualizadas:
- org.json4s.json4s-ast_2.12 de 3.7.0-M11 a 4.0.7
- org.json4s.json4s-core_2.12 de 3.7.0-M11 a 4.0.7
- org.json4s.json4s-jackson_2.12 de 3.7.0-M11 a 4.0.7
- org.json4s.json4s-scalap_2.12 de 3.7.0-M11 a 4.0.7
Apache Spark
O Databricks Runtime 16.2 inclui o Apache Spark 3.5.2. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 16.1 (EoS), bem como as seguintes correções de bugs adicionais e melhorias feitas no Spark:
-
[FAÍSCA-49966] Reverter "[SC-179501][sql] Use
Invokepara implementarJsonToStructs(from_json)" - [SPARK-50904] [SC-186976][sql] Corrigir a execução da consulta walker da expressão de agrupamento
- [SPARK-49666] [SQL] Habilitar testes de corte para expressão InSet
- [SPARK-50669] [SC-184566][es-1327450][SQL] Alterar a assinatura da expressão TimestampAdd
-
[SPARK-50795] [16.x][sc-186719][SQL] Armazene o carimbo de data/hora como
longtipo nodescribeLinkedHashMap - [SPARK-50870] [SC-186950][sql] Adicione o fuso horário ao transmitir para carimbo de data/hora em V2ScanRelationPushDown
- [SPARK-50735] [SC-186944][connect] Falha no ExecuteResponseObserver resulta em infinitas solicitações de reanexação
- [SPARK-50522] [SC-186500][sql] Suporte para agrupamento indeterminado
- [SPARK-50525] [SC-186058][sql] Definir InsertMapSortInRepartitionExpressions Optimizer Rule
- [SPARK-50679] [SC-184572][sql] Expressões comuns duplicadas em diferentes Com devem ser projetadas apenas uma vez
- [SPARK-50847] [SC-186916] [SQL] Negar a aplicação de ApplyCharTypePadding em expressões In específicas
- [SPARK-50714] [SC-186786][sql][SS] Habilite a evolução do esquema para TransformWithState quando a codificação Avro for usada
-
[SPARK-50795] [SC-186390][sql] Exibir todas as datas DESCREVER COMO JSON no formato ISO-8601 e tipos como
dataType.simpleString - [SPARK-50561] [SC-185924][sql] DBR 16.x cherrypick: Melhore a coerção de tipo e a verificação de limites para a função SQL UNIFORM
-
[SPARK-50700] [SC-184845][sql]
spark.sql.catalog.spark_catalogsuportabuiltinvalor mágico - [SPARK-50831] [SC-186736][sql] Habilitar agrupamento de corte por padrão
-
[SPARK-50263] [SC-186793][connect] Substitua
System.currentTimeMillisporSystem.nanoTime - [SPARK-48730] [SC-184926][sql] Implementar CreateSQLFunctionCommand para SQL Scalar e funções de tabela
- [SPARK-50830] [SC-186718] [SQL] Retorna o resultado de uma única passagem como o resultado da análise de execução dupla
- [SPARK-50707] [SC-186098][sql] Ativar transmissão de/para char/varchar
- [SPARK-49490] [SC-182137][sql] Adicionar benchmarks para initCap
-
[SPARK-50529] [SC-184535][sql] Alterar o
spark.sql.preserveCharVarcharTypeInfocomportamento char/varchar na configuração - [SPARK-49632] [SC-184179][sql] Remova a sugestão de configuração ANSI no CANNOT_PARSE_TIMESTAMP
- [SPARK-50815] [SC-186487][python][SQL] Corrigir bug onde passar Variantes nulas em createDataFrame faz com que ele falhe e adicione suporte a Variant em createDataFrame no Spark Connect
-
[SPARK-50828] [SC-186493][python][ML][connect] Depreciar
pyspark.ml.connect - [SPARK-50600] [SC-186057][connect][SQL] Conjunto analisado em falha de análise
- [SPARK-50824] [SC-186472][python] Evite importar pacotes Python opcionais para verificação
- [SPARK-50755] [SC-185521][sql] Exibição de plano bonito para InsertIntoHiveTable
- [SPARK-50789] [SC-186312][connect] As entradas para agregações tipadas devem ser analisadas
- [SPARK-50791] [SC-185867][sc-186338][SQL] Corrigir NPE no tratamento de erros do State Store
-
[SPARK-50801] [SC-186365] [SQL] Melhorar
PlanLogger.logPlanResolutionpara mostrar apenas planos não resolvidos e resolvidos - [SPARK-50749] [SC-185925][sql] Corrigir bug de ordenação no método CommutativeExpression.gatherCommutative
- [SPARK-50783] [SC-186347] Canonicalize o nome e o layout do arquivo de resultados do criador de perfil JVM no DFS
- [SPARK-50790] [SC-186354][python] Implementar parse json no pyspark
- [SPARK-50738] [SC-184856][python] Atualize preto para 23.12.1
- [SPARK-50764] [SC-185930][python] Refine o docstring de métodos relacionados ao xpath
-
[SPARK-50798] [SC-186277][sql] Melhorar
NormalizePlan - [SPARK-49883] [SC-183787][ss] State Store Checkpoint Structure V2 Integração com RocksDB e RocksDBFileManager
- [SPARK-50779] [SC-186062][sql] Adicionando sinalizador de recurso para agrupamentos no nível do objeto
- [SPARK-50778] [SC-186183][python] Adicionar metadataColumn ao PySpark DataFrame
- [SPARK-49565] [SC-186056][sql] DBR 16.x cherrypick: Melhore aliases de expressão gerados automaticamente com operadores SQL de pipe
- [SPARK-50541] [16.x][sc-184937] Descrever a tabela como JSON
- [SPARK-50772] [SC-185923][sql] DBR 16.x cherrypick: Mantenha os aliases de tabela após SETos operadores , EXTEND, DROP
- [SPARK-50769] [SC-185919][sql] Corrigir ClassCastException em HistogramNumeric
- [SPARK-49025] [SC-174667] Sincronizar código Delta diff com DBR
- [SPARK-50752] [SC-185547][python][SQL] Introduza configurações para ajustar Python UDF sem seta
-
[SPARK-50705] [SC-185944][sql] Tornar
QueryPlansem bloqueio - [SPARK-50690] [16.x][sc-184640][SQL] Corrigir discrepância na DESCRIBE TABLE citação de colunas de saída de consulta de exibição
- [SPARK-50746] [SC-184932][sql] Substitua por VariantPathSegment.
-
[SPARK-50715] [SC-185546][python][CONNECT]
SparkSession.Builderdefine as configurações em lote - [SPARK-50480] [SC-183359][sql] Estenda CharType e VarcharType de StringType
- [SPARK-50675] [SC-184539][sql] Suporte a agrupamentos de nível de tabela e exibição
-
[SPARK-50409] [SC-184516][sql] Corrigir a instrução do conjunto a ser ignorada
;no final deSET;,SET -v;eSET key; - [SPARK-50743] [SC-185528][sql] Normalizar IDs CTERelationDef e CTERelationRef
- [SPARK-50693] [SC-184684][connect] As entradas para TypedScalaUdf devem ser analisadas
- [SPARK-50744] [SC-184929][sql] Adicionar um caso de teste para precedência de resolução de nome view/CTE
- [SPARK-50710] [SC-184767][connect] Adicionar suporte para reconexão de cliente opcional a sessões após o lançamento
- [SPARK-50703] [SC-184843][python] Refine o docstring de regexp_replace, regexp_substr e regexp_instr
-
[SPARK-50716] [SC-184823][core] Corrigir a lógica de limpeza para links simbólicos no
JavaUtils.deleteRecursivelyUsingJavaIOmétodo - [SPARK-50630] [SC-184443][sql] Corrija GROUP BY o suporte ordinal para operadores de pipe SQL AGGREGATE
- [SPARK-50614] [SC-184729][sql] Adicionar suporte de trituração de variante para Parquet
- [SPARK-50661] [SASP-4936] Adicionar compatibilidade com versões anteriores para o cliente antigo FEB.
-
[SPARK-50676] [SC-184641][sql] Remover não utilizado
private lazy val mapValueContainsNulldeElementAt -
[SPARK-50515] [SC-183813][core] Adicionar interface somente leitura a
SparkConf - [SPARK-50697] [SC-184702][sql] Habilite a recursão de cauda sempre que possível
- [SPARK-50642] [SC-184726][sc-183517][CONNECT][ss][2/N][16.x]Corrija o esquema de estado para FlatMapGroupsWithState na conexão de faísca quando não houver nenhum estado inicial
- [SPARK-50701] [SC-184704][python] Faça com que a plotagem exija a versão mínima do plotly
- [SPARK-50702] [SC-184727][python] Refine o docstring de regexp_count, regexp_extract e regexp_extract_all
- [SPARK-50499] [SC-184177][python] Exponha métricas do BasePythonRunner
- [SPARK-50692] [SC-184705][16.x] Adicionar suporte a pushdown RPAD
- [SPARK-50682] [SC-184579][sql] Alias interno deve ser canonicalizado
- [SPARK-50699] [SC-184695][python] Analise e gere a cadeia de caracteres DDL com uma sessão especificada
- [SPARK-50573] [SC-184568][ss] Adicionando ID de esquema de estado a linhas de estado para evolução do esquema
- [SPARK-50661] [SC-184639][connect][SS][sasp-4936] Corrigir Spark Connect Scala foreachBatch impl. para suportar Dataset[T].
- [SPARK-50689] [SC-184591][sql] Impor ordenação determinística em listas de projetos LCA
- [SPARK-50696] [SC-184667][python] Otimizar chamada Py4J para método de análise DDL
- [SPARK-49670] [SC-182902][sql] Habilitar agrupamento de corte para todas as expressões de passagem
-
[SPARK-50673] [SC-184565][ml] Evite atravessar coeficientes de modelo duas vezes no
Word2VecModelconstrutor - [SPARK-50687] [SC-184588][python] Otimize a lógica para obter rastreamentos de pilha para DataFrameQueryContext
- [SPARK-50681] [SC-184662][python][CONNECT] Armazene em cache o esquema analisado para MapInXXX e ApplyInXXX
- [SPARK-50674] [SC-184589][python] Corrigir verificação da existência do método 'terminate' na avaliação UDTF
- [SPARK-50684] [SC-184582][python] Melhorar o desempenho do Py4J em DataFrameQueryContext
- [SPARK-50578] [DBR16.x][sc-184559][PYTHON][ss] Adicionar suporte para a nova versão dos metadados de estado para TransformWithStateInPandas
- [SPARK-50602] [SC-184439][sql] Correção transpor para mostrar uma mensagem de erro adequada quando colunas de índice inválidas são especificadas
- [SPARK-50650] [SC-184532][sql] Melhorar o registro em log no analisador de uma única etapa
- [SPARK-50665] [SC-184533][sql] Substitua LocalRelation por ComparableLocalRelation no NormalizePlan
- [SPARK-50644] [SC-184486][sql] Leia a variante struct no leitor Parquet.
- [SPARK-49636] [SC-184089][sql] Remova a sugestão de configuração ANSI no INVALID_ARRAY_INDEX e INVALID_ARRAY_INDEX_IN_ELEMENT_AT
- [SPARK-50659] [SC-184514][sql] Cálculo de saída da União de refatoração para reutilizá-la no analisador de passagem única
- [SPARK-50659] [SC-184512][sql] Mover erros relacionados à União para QueryCompilationErrors
- [SPARK-50530] [SC-183419][sql] Corrigir cálculo de contexto de tipo de cadeia implícita incorreta
- [SPARK-50546] [SC-183807][sql] Adicionar suporte de transmissão de subconsulta à coerção do tipo de agrupamento
- [SPARK-50405] [SC-182889][sql] Manipular a coerção do tipo de agrupamento de tipos de dados complexos corretamente
- [SPARK-50637] [SC-184434][sql] Corrigir estilo de código para o analisador de passagem única
- [SPARK-50638] [SC-184435][sql] Refatore a resolução de exibição no arquivo separado para reutilizá-la no analisador de passagem única
- [SPARK-50615] [SC-184298][sql] Empurre a variante para a varredura.
- [SPARK-50619] [SC-184210][sql] Refactor VariantGet.cast para empacotar os argumentos de elenco
- [SPARK-50599] [SC-184058][sql] Crie o traço DataEncoder que permite a codificação Avro e UnsafeRow
- [SPARK-50076] [SC-183809] Corrigir chaves de log
- [SPARK-50597] [SC-183972][sql] Reconstrução em lote de refatoração em Optimizer.scala e SparkOptimizer.scala
- [SPARK-50339] [SC-183063][spark-50360][SS] Habilite o changelog para armazenar informações de linhagem
- [SPARK-50526] [SC-183811][ss] Adicionar conf de formato de codificação de armazenamento em log de deslocamento e impedir que operadores com monitoração de estado não suportados usem avro
- [SPARK-50540] [SC-183810][python][SS] Corrigir esquema de cadeia de caracteres para StatefulProcessorHandle
- [SPARK-50157] [SC-183789][sql] Usando SQLConf fornecido pelo SparkSession primeiro.
- [SPARK-48898] [SC-183793][sql] Definir a anulabilidade corretamente no esquema Variant
- [SPARK-50559] [SC-183814][sql] Store Except, Intersect e saídas da União como vals preguiçosos
- [SPARK-48416] [SC-183643][sql] Suporte aninhado correlacionado com expressão
- [SPARK-50428] [SC-183566][ss][PYTHON] Suporte TransformWithStateInPandas em consultas em lote
- [SPARK-50063] [SC-183350][sql][CONNECT] Adicionar suporte para Variant no cliente Spark Connect Scala
-
[SPARK-50544] [SC-183569][python][CONNECT] Implementar
StructType.toDDL - [SPARK-50443] [SC-182590][ss] Corrigindo erros de compilação do Maven introduzidos pelo cache Guava no RocksDBStateStoreProvider
- [SPARK-50491] [SC-183434][sql] Corrigir bug onde blocos vazios BEGIN END lançam um erro
-
[SPARK-50536] [SC-183443][core] Registre os tamanhos dos arquivos baixados em
SparkContexteExecutor - [SPARK-45891] [SC-183439][sql] Reconstrua o binário variante a partir de dados triturados.
- [SPARK-49565] [SC-183465][sql] Adicionar sintaxe de pipe SQL para o operador FROM
- [SPARK-50497] [SC-183338][sql] Falha em consultas com mensagem adequada se MultiAlias contiver função não-geradora
- [SPARK-50460] [SC-183375][python][CONNECT] Generalizar e simplificar o tratamento de exceções do Connect
-
[SPARK-50537] [SC-183452][connect][PYTHON] Corrigir opção de compactação sendo substituída
df.write.parquet - [SPARK-50329] [SC-183358][sql] corrigir InSet$toString
-
[SPARK-50524] [SC-183364][sql] Mensagem de aviso mais baixa
RowBasedKeyValueBatch.spillpara o nível de depuração -
[SPARK-50528] [SC-183385][connect] Mover
InvalidCommandInputpara o módulo comum - [SPARK-50017] [SC-182438][ss] Suporte à codificação Avro para o operador TransformWithState
-
[SPARK-50463] [SC-182833][sql] Correção
ConstantColumnVectorcom conversão de coluna para linha - [SPARK-50235] [SC-180786][sql] Limpar recurso ColumnVector depois de processar todas as linhas em ColumnarToRowExec
- [SPARK-50516] [SC-183279][ss][MINOR] Corrija o teste relacionado ao estado de inicialização para usar o StreamManualClock
- [SPARK-50478] [SC-183188][sql] Corrigir correspondência StringType
- [SPARK-50492] [SC-183177][ss] Corrija java.util.NoSuchElementException quando a coluna de hora do evento é descartada após dropDuplicatesWithinWatermark
- [SPARK-49566] [SC-182589][sql] Adicionar sintaxe de pipe SQL para o SET operador
- [SPARK-50449] [SC-183178][sql] Corrija a gramática de script SQL permitindo corpos vazios para loops, IF e CASE
-
[SPARK-50251] [SC-180970][python] Adicionar
getSystemPropertyao PySparkSparkContext - [SPARK-50421] [SC-183091][core] Corrija a configuração de memória relacionada ao executor incorreta quando vários perfis de recursos funcionaram
- [SPARK-49461] [SC-179572][ss] ID de ponto de verificação persistente para confirmar logs e lê-los de volta
- [SPARK-50343] [SC-183119][spark-50344][SQL] Adicionar sintaxe de pipe SQL para os operadores DROP e AS
-
[SPARK-50481] [SC-182880][core] Melhorar
SortShuffleManager.unregisterShufflepara ignorar a lógica do arquivo de soma de verificação se a soma de verificação estiver desabilitada -
[SPARK-50498] [SC-183090][python] Evite chamadas py4j desnecessárias
listFunctions -
[SPARK-50489] [SC-183053][sql][PYTHON] Corrigir auto-junção após
applyInArrow - [SPARK-49695] [SC-182967][sc-176968][SQL] Postgres corrigir xor push-down
Suporte ao driver ODBC/JDBC do Databricks
O Databricks suporta drivers ODBC/JDBC lançados nos últimos 2 anos. Faça o download dos drivers lançados recentemente e atualize (baixe ODBC,baixe JDBC).
Atualizações de manutenção
Consulte Atualizações de manutenção do Databricks Runtime 16.2.
Ambiente do sistema
-
Sistema Operacional: Ubuntu 24.04.1 LTS
- Nota: Esta é a versão do Ubuntu usada pelos contêineres Databricks Runtime. Os contêineres do Databricks Runtime são executados nas máquinas virtuais do provedor de nuvem, que podem usar uma versão diferente do Ubuntu ou distribuição Linux.
- Java : Zulu17.54+21-CA
- Escala: 2.12.15
- Píton: 3.12.3
- R: 4.4.0
- Lago Delta: 3.3.0
Bibliotecas Python instaladas
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| tipos anotados | 0.7.0 | AstTokens | 2.0.5 | Astunparse | 1.6.3 |
| Comando automático | 2.2.2 | azure-core | 1.31.0 | Azure Storage Blob | 12.23.0 |
| azure armazenamento arquivo lago de dados | 12.17.0 | backports.tarfile | 1.2.0 | preto | 24.4.2 |
| pisca | 1.7.0 | Boto3 | 1.34.69 | Botocore | 1.34.69 |
| Ferramentas de cache | 5.3.3 | certifi | 2024.6.2 | CFFI | 1.16.0 |
| Chardet | 4.0.0 | Normalizador de Charset | 2.0.4 | clicar | 8.1.7 |
| Cloudpickle | 2.2.1 | Comm | 0.2.1 | contorno | 1.2.0 |
| criptografia | 42.0.5 | ciclista | 0.11.0 | Cython | 3.0.11 |
| Databricks-SDK | 0.30.0 | dbus-python | 1.3.2 | depuração | 1.6.7 |
| decorador | 5.1.1 | Deprecated | 1.2.14 | Distlib | 0.3.8 |
| docstring-para-markdown | 0.11 | pontos de entrada | 0.4 | executando | 0.8.3 |
| facetas-visão geral | 1.1.1 | bloqueio de ficheiro | 3.15.4 | Fonttools | 4.51.0 |
| GitDB | 4.0.11 | GitPython | 3.1.37 | google-api-core | 2.20.0 |
| Google-Auth | 2.35.0 | google-nuvem-core | 2.4.1 | Google Cloud Storage | 2.18.2 |
| Google-CRC32C | 1.6.0 | google-retomável-media | 2.7.2 | googleapis-comuns-protos | 1.65.0 |
| Grpcio | 1.60.0 | grpcio-status | 1.60.0 | httplib2 | 0.20.4 |
| IDNA | 3.7 | importlib-metadados | 6.0.0 | importlib_resources | 6.4.0 |
| flexionar | 7.3.1 | ipyflow-núcleo | 0.0.201 | Ipykernel | 6.28.0 |
| IPython | 8.25.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
| Isodato | 0.6.1 | jaraco.contexto | 5.3.0 | jaraco.functools | 4.0.1 |
| jaraco.texto | 3.12.1 | Jedi | 0.19.1 | JmesPath | 1.0.1 |
| Joblib | 1.4.2 | jupyter_client | 8.6.0 | jupyter_core | 5.7.2 |
| Kiwisolver | 1.4.4 | launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 |
| lazr.uri | 1.0.6 | Matplotlib | 3.8.4 | matplotlib-em linha | 0.1.6 |
| Mccabe | 0.7.0 | mlflow-ligeiro | 2.15.1 | mais-itertools | 10.3.0 |
| mypy | 1.10.0 | mypy-extensões | 1.0.0 | Ninho-Asyncio | 1.6.0 |
| nodeenv | 1.9.1 | dormência | 1.26.4 | OAuthlib | 3.2.2 |
| OpenTelemetry-API | 1.27.0 | OpenTelemetry-SDK | 1.27.0 | OpenTelemetria-Semântica-Convenções | 0,48b0 |
| embalagem | 24.1 | pandas | 1.5.3 | Parso | 0.8.3 |
| PathSpec | 0.10.3 | vítima | 0.5.6 | Espere | 4.8.0 |
| travesseiro | 10.3.0 | pip (o gestor de pacotes do Python) | 24.2 | plataformadirs | 3.10.0 |
| enredo | 5.22.0 | Pluggy | 1.0.0 | kit de ferramentas de prompt | 3.0.43 |
| Proto-Plus | 1.24.0 | Protobuf | 4.24.1 | PSUTIL | 5.9.0 |
| PSYCOPG2 | 2.9.3 | ptyprocess | 0.7.0 | puro-eval | 0.2.2 |
| Pyarrow | 15.0.2 | Piasn1 | 0.4.8 | pyasn1-módulos | 0.2.8 |
| Pyccolo | 0.0.65 | Pycparser | 2.21 | Pidântico | 2.8.2 |
| pydantic_core | 2.20.1 | Pyflakes | 3.2.0 | Pigmentos | 2.15.1 |
| PyGObject | 3.48.2 | PyJWT | 2.7.0 | pyodbc | 5.0.1 |
| Pyparsing | 3.0.9 | Pyright | 1.1.294 | python-dateutil (uma biblioteca de software para manipulação de datas em Python) | 2.9.0.post0 |
| python-lsp-jsonrpc | 1.1.2 | python-lsp-servidor | 1.10.0 | pytoolconfig | 1.2.6 |
| Pytz | 2024.1 | PyYAML | 6.0.1 | Pyzmq | 25.1.2 |
| pedidos | 2.32.2 | corda | 1.12.0 | RSA | 4,9 |
| s3transferir | 0.10.2 | scikit-learn (biblioteca de aprendizado de máquina em Python) | 1.4.2 | SciPy | 1.13.1 |
| nascido no mar | 0.13.2 | Ferramentas de configuração | 74.0.0 | seis | 1.16.0 |
| smmap | 5.0.0 | SQLPARSE | 0.5.1 | ssh-import-id | 5.11 |
| dados de stack | 0.2.0 | statsmodels (uma biblioteca de Python para modelos estatísticos) | 0.14.2 | tenacidade | 8.2.2 |
| ThreadPoolCtl | 2.2.0 | tokenize-rt | 4.2.1 | Tomli | 2.0.1 |
| tornado | 6.4.1 | traços | 5.14.3 | Protetor de Tipografia | 4.3.0 |
| tipos-protobuf | 3.20.3 | tipos-psutil | 5.9.0 | tipos-pytz | 2023.3.1.1 |
| tipos-PyYAML | 6.0.0 | tipos-pedidos | 2.31.0.0 | tipos-setuptools | 68.0.0.0 |
| tipos-seis | 1.16.0 | tipos-urllib3 | 1.26.25.14 | typing_extensions (extensões de digitação) | 4.11.0 |
| Ujson | 5.10.0 | Atualizações autónomas | 0.1 | urllib3 | 1.26.16 |
| virtualenv | 20.26.2 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
| whatthepatch (ferramenta para comparação de patches) | 1.0.2 | wheel | 0.43.0 | embrulhado | 1.14.1 |
| Yapf | 0.33.0 | zipp | | 3.17.0 |
Bibliotecas R instaladas
As bibliotecas R são instaladas a partir do instantâneo CRAN do Posit Package Manager em 2024-08-04: https://packagemanager.posit.co/cran/2024-08-04/.
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| seta | 16.1.0 | AskPass | 1.2.0 | afirmar que | 0.2.1 |
| Backports | 1.5.0 | base | 4.4.0 | base64enc | 0.1-3 |
| bigD | 0.2.0 | bit | 4.0.5 | bit64 | 4.0.5 |
| Bitops | 1.0-8 | blob | 1.2.4 | Bota | 1.3-30 |
| cerveja artesanal | 1.0-10 | Brio | 1.1.5 | vassoura | 1.0.6 |
| BSLIB | 0.8.0 | cachem | 1.1.0 | Chamador | 3.7.6 |
| Caret | 6.0-94 | Cellranger | 1.1.0 | Chron | 2.3-61 |
| classe | 7.3-22 | CLI | 3.6.3 | Clipr | 0.8.0 |
| relógio | 0.7.1 | cluster | 2.1.6 | CodeTools | 0.2-20 |
| espaço de cores | 2.1-1 | marca comum | 1.9.1 | compilador | 4.4.0 |
| config | 0.3.2 | conflituosos | 1.2.0 | CPP11 | 0.4.7 |
| giz de cera | 1.5.3 | credenciais | 2.0.1 | ondulação | 5.2.1 |
| data.table | 1.15.4 | conjuntos de dados | 4.4.0 | DBI | 1.2.3 |
| DBPlyr | 2.5.0 | desc | 1.4.3 | DevTools | 2.4.5 |
| diagrama | 1.6.5 | diffobj | 0.3.5 | resumo | 0.6.36 |
| Iluminação reduzida | 0.4.4 | DPLYR | 1.1.4 | DTPlyr | 1.3.1 |
| E1071 | 1.7-14 | reticências | 0.3.2 | avaliar | 0.24.0 |
| Fãsi | 1.0.6 | Farver | 2.1.2 | mapa rápido | 1.2.0 |
| fontawesome | 0.5.2 | FORCATS | 1.0.0 | para cada um | 1.5.2 |
| estrangeiros | 0.8-86 | forjar | 0.2.0 | fs | 1.6.4 |
| Futuro | 1.34.0 | future.apply | 1.11.2 | gargarejo | 1.5.2 |
| genérico | 0.1.3 | Gert | 2.1.0 | GGPLOT2 | 3.5.1 |
| GH | 1.4.1 | Git2R | 0.33.0 | gitcreds | 0.1.2 |
| GLMNET | 4.1-8 | Globais | 0.16.3 | cola | 1.7.0 |
| GoogleDrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
| gráficos | 4.4.0 | grDispositivos | 4.4.0 | grelha | 4.4.0 |
| gridExtra | 2.3 | GSUBFN | 0.7 | gt | 0.11.0 |
| gtable | 0.3.5 | capacete | 1.4.0 | Refúgio | 2.5.4 |
| mais alto | 0.11 | HMS | 1.1.3 | htmltools | 0.5.8.1 |
| htmlwidgets | 1.6.4 | httpuv | 1.6.15 | HTTR | 1.4.7 |
| HTTR2 | 1.0.2 | IDs | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-15 | Isoband | 0.2.7 | iteradores | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.8.8 | suco suculento | 0.1.0 |
| KernSmooth | 2.23-22 | Knitr | 1.48 | rotulagem | 0.4.3 |
| mais tarde | 1.3.2 | treliça | 0.22-5 | lava | 1.8.0 |
| ciclo de vida | 1.0.4 | ouvirv | 0.9.1 | lubridato | 1.9.3 |
| Magrittr | 2.0.3 | Marcação | 1.13 | MISSA | 7.3-60.0.1 |
| Matriz | 1.6-5 | Memoise | 2.0.1 | Metodologia | 4.4.0 |
| MGCV | 1.9-1 | mímica | 0,12 | miniUI | 0.1.1.1 |
| Mlflow | 2.14.1 | ModelMetrics | 1.2.2.2 | Modelador | 0.1.11 |
| Munsell | 0.5.1 | NLME | 3.1-165 | NNET | 7.3-19 |
| numDeriv | 2016.8-1.1 | openssl | 2.2.0 | paralelo | 4.4.0 |
| Paralelamente | 1.38.0 | pilar | 1.9.0 | pkgbuild | 1.4.4 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.0 | pkgload | 1.4.0 |
| plogr | 0.2.0 | Plyr | 1.8.9 | elogios | 1.0.0 |
| unidades bonitas | 1.2.0 | pROC | 1.18.5 | processx | 3.8.4 |
| Prodlim | 2024.06.25 | Profvis | 0.3.8 | Progressos | 1.2.3 |
| progressor | 0.14.0 | promessas | 1.3.0 | proto | 1.0.0 |
| proxy | 0.4-27 | PS | 1.7.7 | ronronar | 1.0.2 |
| R6 | 2.5.1 | RAGG | 1.3.2 | aleatoriamenteFloresta | 4.7-1.1 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.13 | RcppEigen | 0.3.4.0.0 | reactável | 0.4.4 |
| reactR | 0.6.0 | Leitor | 2.1.5 | ReadXL | 1.4.3 |
| receitas | 1.1.0 | revanche | 2.0.0 | revanche2 | 2.1.2 |
| Controles remotos | 2.5.0 | Reprex | 2.1.1 | remodelação2 | 1.4.4 |
| Rlang | 1.1.4 | rmarkdown | 2.27 | RODBC | 1.3-23 |
| oxigénio2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
| Reserva | 1.8-13 | RSQLite | 2.3.7 | rstudioapi | 0.16.0 |
| rversões | 2.1.2 | Rvest | 1.0.4 | Sass | 0.4.9 |
| balanças | 1.3.0 | seletor | 0.4-2 | sessioninfo | 1.2.2 |
| forma | 1.4.6.1 | brilhante | 1.9.1 | ferramentas de origem | 0.1.7-1 |
| sparklyr | 1.8.6 | Faísca | 3.5.2 | espacial | 7.3-17 |
| estrias | 4.4.0 | sqldf | 0.4-11 | QUADRADO | 2021.1 |
| estatísticas | 4.4.0 | Estatísticas4 | 4.4.0 | stringi | 1.8.4 |
| stringr | 1.5.1 | Sobrevivência | 3.6-4 | Gingado | 5.17.14.1 |
| SYS | 3.4.2 | fontes do sistema | 1.1.0 | TCLTK | 4.4.0 |
| teste que | 3.2.1.1 | formatação de texto | 0.4.0 | Tibble | 3.2.1 |
| Tidyr | 1.3.1 | arrumadoselecionar | 1.2.1 | Tidyverse | 2.0.0 |
| mudança de hora | 0.3.0 | data/hora | 4032.109 | Tinytex | 0.52 |
| Ferramentas | 4.4.0 | TZDB | 0.4.0 | urlchecker | 1.0.1 |
| usethis | 3.0.0 | UTF8 | 1.2.4 | utils | 4.4.0 |
| UUID | 1.2-1 | V8 | 4.4.2 | VCTRS | 0.6.5 |
| viridisLite | 0.4.2 | vroom | 1.6.5 | Waldo | 0.5.2 |
| bigode | 0.4.1 | murchar | 3.0.1 | xfun | 0.46 |
| XML2 | 1.3.6 | xopen | 1.0.1 | xtable | 1.8-4 |
| yaml | 2.3.10 | Zeallot | 0.1.0 | zip | 2.3.1 |
Bibliotecas Java e Scala instaladas (versão de cluster Scala 2.12)
| ID do Grupo | ID do Artefacto | Versão |
|---|---|---|
| Antlr | Antlr | 2.7.7 |
| com.amazonaws | amazon-kinesis-cliente | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.638 |
| com.amazonaws | AWS-Java-SDK-CloudFormation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
| com.amazonaws | aws-java-sdk-diretório | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs | 1.12.638 |
| com.amazonaws | aws-java-sdk-aprendizado de máquina | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-rota53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
| com.amazonaws | AWS-Java-SDK-STS | 1.12.638 |
| com.amazonaws | aws-java-sdk-suporte | 1.12.638 |
| com.amazonaws | aws-java-sdk-swf-bibliotecas | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | fluxo | 2.9.6 |
| com.databricks | Reserva | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | Jatos 3T | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2,12 | 0.4.15-10 |
| com.esotericsoftware | Kryo-sombreado | 4.0.2 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | colega de turma | 1.3.4 |
| com.fasterxml.jackson.core | Jackson-Anotações | 2.15.2 |
| com.fasterxml.jackson.core | Jackson-Núcleo | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
| com.fasterxml.jackson.module | jackson-módulo-paranamer | 2.15.2 |
| com.fasterxml.jackson.module | jackson-módulo-scala_2.12 | 2.15.2 |
| com.github.ben-manes.cafeína | cafeína | 2.9.3 |
| com.github.fommil | Jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-Java | 1.1 |
| com.github.fommil.netlib | native_ref-Java | 1.1-Nativos |
| com.github.fommil.netlib | native_system-Java | 1.1 |
| com.github.fommil.netlib | native_system-Java | 1.1-Nativos |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-Nativos |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-Nativos |
| com.github.luben | ZSTD-JNI | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | JSR305 | 3.0.0 |
| com.google.code.gson | GSON | 2.10.1 |
| com.google.crypto.tink | Tink | 1.9.0 |
| com.google.errorprone | error_prone_annotations | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 26/05/2023 |
| com.google.goiaba | Goiaba | 15.0 |
| com.google.protobuf | protobuf-java | 3.25.1 |
| com.helger | gerador de perfis | 1.1.1 |
| com.ibm.icu | ICU4J | 75.1 |
| com.jcraft | JSCH | 0.1.55 |
| com.jolbox | BONECP | 0.8.0.LANÇAMENTO |
| com.lihaoyi | sourcecode_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
| com.microsoft.sqlserver | MSSQL-JDBC | 11.2.2.jre8 |
| com.microsoft.sqlserver | MSSQL-JDBC | 11.2.3.JRE8 |
| com.ning | compressa-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | JAXB-CORE | 2.2.11 |
| com.sun.xml.bind | JAXB-IMPL | 2.2.11 |
| com.tdunning | Json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
| com.twitter | Chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | Escala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocidade | analisadores de univocidade | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| codec commons | codec commons | 1.16.0 |
| coleções commons | coleções commons | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload | commons-fileupload | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| Commons-Logging | Commons-Logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | ARPACK | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | Lapack | | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.ponte aérea | compressor de ar | 0.27 |
| IO.Delta | delta-compartilhamento-client_2.12 | 1.2.2 |
| io.dropwizard.metrics | métricas-anotação | 4.2.19 |
| io.dropwizard.metrics | métricas-núcleo | 4.2.19 |
| io.dropwizard.metrics | métricas-grafite | 4.2.19 |
| io.dropwizard.metrics | métricas-verificações de integridade | 4.2.19 |
| io.dropwizard.metrics | métricas-píer9 | 4.2.19 |
| io.dropwizard.metrics | métricas-jmx | 4.2.19 |
| io.dropwizard.metrics | métricas-json | 4.2.19 |
| io.dropwizard.metrics | métricas-jvm | 4.2.19 |
| io.dropwizard.metrics | métricas-servlets | 4.2.19 |
| io.netty | netty-tudo | 4.1.108.Final |
| io.netty | netty-buffer | 4.1.108.Final |
| io.netty | netty-codec | 4.1.108.Final |
| io.netty | netty-codec-http | 4.1.108.Final |
| io.netty | netty-codec-http2 | 4.1.108.Final |
| io.netty | netty-codec-meias | 4.1.108.Final |
| io.netty | netty-comum | 4.1.108.Final |
| io.netty | netty-manipulador | 4.1.108.Final |
| io.netty | netty-handler-proxy | 4.1.108.Final |
| io.netty | netty-resolver | 4.1.108.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-janelas-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.61.Final |
| io.netty | transporte de rede | 4.1.108.Final |
| io.netty | netty-transport-classes-epoll | 4.1.108.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-x86_64 |
| io.netty | netty-transport-nativo-kqueue | 4.1.108.Final-osx-aarch_64 |
| io.netty | netty-transport-nativo-kqueue | 4.1.108.Final-osx-x86_64 |
| io.netty | netty-transport-nativo-unix-comum | 4.1.108.Final |
| io.prometeu | cliente simples | 0.7.0 |
| io.prometeu | simpleclient_common | 0.7.0 |
| io.prometeu | simpleclient_dropwizard | 0.7.0 |
| io.prometeu | simpleclient_pushgateway | 0.7.0 |
| io.prometeu | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | recoletor | 0.12.0 |
| jacarta.anotação | Jacarta.Anotação-API | 1.3.5 |
| jacarta.servlet | jacarta.servlet-api | 4.0.3 |
| jacarta.validação | Jacarta.validation-api | 2.0.2 |
| jakarta.ws.rs | Jacarta.ws.rs-api | 2.1.6 |
| javax.ativação | ativação | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | JDO-API | 3.0.1 |
| javax.transaction | JTA | 1.1 |
| javax.transaction | API de transação | 1.1 |
| javax.xml.bind | JAXB-API | 2.2.11 |
| Javolução | Javolução | 5.5.1 |
| Jline | Jline | 2.14.6 |
| Hora de Joda | Hora de Joda | 2.12.1 |
| net.java.dev.jna | JNA | 5.8.0 |
| net.razorvine | picles | 1.3 |
| net.sf.jpam | JPAM | 1.1 |
| net.sf.opencsv | OpenCSV | 2.3 |
| net.sf.supercsv | Super-CSV | 2.2.0 |
| net.floco de neve | flocos de neve-ingestão-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt.remotetea | Remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-tempo de execução | 3.5.2 |
| org.antlr | antlr4-tempo de execução | 4.9.3 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | formiga | 1.10.11 |
| org.apache.ant | ANT-JSCH | 1.10.11 |
| org.apache.ant | lançador de formigas | 1.10.11 |
| org.apache.arrow | formato de seta | 15.0.0 |
| org.apache.arrow | seta-memória-núcleo | 15.0.0 |
| org.apache.arrow | seta-memória-netty | 15.0.0 |
| org.apache.arrow | seta-vetor | 15.0.0 |
| org.apache.avro | Avro | 1.11.3 |
| org.apache.avro | AVRO-IPC | 1.11.3 |
| org.apache.avro | avro-mapeado | 1.11.3 |
| org.apache.commons | colecções-commons4 | 4.4 |
| org.apache.commons | commons-comprimir | 1.23.0 |
| org.apache.commons | commons-cripto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-matemática3 | 3.6.1 |
| org.apache.commons | commons-texto | 1.10.0 |
| org.apache.curador | curador-cliente | 2.13.0 |
| org.apache.curador | Curadoria-quadro | 2.13.0 |
| org.apache.curador | curadoria-receitas | 2.13.0 |
| org.apache.datasketches | Datasketches-Java | 3.1.0 |
| org.apache.datasketches | datasketches-memória | 2.0.0 |
| org.apache.derby | Derby | 10.14.2.0 |
| org.apache.hadoop | hadoop-client-runtime | 3.3.6 |
| org.apache.hive | colmeia-abelha | 2.3.9 |
| org.apache.hive | Colmeia-CLI | 2.3.9 |
| org.apache.hive | Colmeia-JDBC | 2.3.9 |
| org.apache.hive | hive-llap-cliente | 2.3.9 |
| org.apache.hive | colmeia-lamp-comum | 2.3.9 |
| org.apache.hive | Colmeia-Serde | 2.3.9 |
| org.apache.hive | colmeias-calços | 2.3.9 |
| org.apache.hive | hive-storage-api | 2.8.1 |
| org.apache.hive.shims | colmeia-calços-0,23 | 2.3.9 |
| org.apache.hive.shims | colmeia-calços-comum | 2.3.9 |
| org.apache.hive.shims | colmeia-shims-scheduler | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | Núcleo Http | 4.4.16 |
| org.apache.ivy | Hera | 2.5.2 |
| org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
| org.apache.logging.log4j | log4j-api | 2.22.1 |
| org.apache.logging.log4j | log4j-core | 2.22.1 |
| org.apache.logging.log4j | log4j-layout-modelo-json | 2.22.1 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
| org.apache.orc | orc-núcleo | 1.9.2-protobuf sombreado |
| org.apache.orc | orc-mapreduce | 1.9.2-protobuf sombreado |
| org.apache.orc | Orc-calços | 1.9.2 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-sombreado | 4.23 |
| org.apache.yetus | anotações de audiência | 0.13.0 |
| org.apache.zookeeper | tratador de jardins zoológicos | 3.9.2 |
| org.apache.zookeeper | zookeeper-juta | 3.9.2 |
| org.checkerframework | verificador-qual | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | commons-compilador | 3.0.16 |
| org.codehaus.janino | Janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | núcleo de dados | 4.1.17 |
| org.datanucleus | Datanucleus-RDBMS | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.collections | eclipse-coleções | 11.1.0 |
| org.eclipse.collections | eclipse-collections-api | 11.1.0 |
| org.eclipse.píer | Jetty-Cliente | 9.4.52.v20230823 |
| org.eclipse.píer | Cais-Continuação | 9.4.52.v20230823 |
| org.eclipse.píer | cais-http | 9.4.52.v20230823 |
| org.eclipse.píer | Molhe IO | 9.4.52.v20230823 |
| org.eclipse.píer | Cais-JNDI | 9.4.52.v20230823 |
| org.eclipse.píer | Cais-Plus | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty-Proxy | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty-Segurança | 9.4.52.v20230823 |
| org.eclipse.píer | servidor de píer | 9.4.52.v20230823 |
| org.eclipse.píer | cais-servlet | 9.4.52.v20230823 |
| org.eclipse.píer | cais-servlets | 9.4.52.v20230823 |
| org.eclipse.píer | cais-util | 9.4.52.v20230823 |
| org.eclipse.píer | cais-util-ajax | 9.4.52.v20230823 |
| org.eclipse.píer | píer-webapp | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty-XML | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | API WebSocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | Websocket-cliente | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | Websocket-Comum | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | servidor websocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | Websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | HK2-API | 2.6.1 |
| org.glassfish.hk2 | HK2-Localizador | 2.6.1 |
| org.glassfish.hk2 | HK2-Utils | 2.6.1 |
| org.glassfish.hk2 | OSGI-Localizador de Recursos | 1.0.3 |
| org.glassfish.hk2.externo | aopalliance-reembalado | 2.6.1 |
| org.glassfish.hk2.externo | jacarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
| org.glassfish.jersey.core | jersey-cliente | 2.40 |
| org.glassfish.jersey.core | Jersey-Comum | 2.40 |
| org.glassfish.jersey.core | jersey-servidor | 2.40 |
| org.glassfish.jersey.inject | Jersey-HK2 | 2.40 |
| org.hibernate.validator | Hibernate-Validator | 6.1.7.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | Javassist | 3.29.2-GA |
| org.jboss.logging | jboss-registro em log | 3.3.2.Final |
| org.jdbi | JDBI | 2.63.1 |
| org.jetbrains | anotações | 17.0.0 |
| org.joda | joda-converter | 1.7 |
| org.jodd | JODD-CORE | 3.5.2 |
| org.json4s | JSON4S-ast_2.12 | 4.0.7 |
| org.json4s | JSON4S-core_2.12 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.12 | 4.0.7 |
| org.json4s | JSON4S-jackson_2,12 | 4.0.7 |
| org.json4s | JSON4S-scalap_2.12 | 4.0.7 |
| org.lz4 | LZ4-Java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2,12 | 2.9.1 |
| org.objenesis | objenese | 2.5.1 |
| org.postgresql | PostgreSQL | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
| org.roaringbitmap | calços | 0.9.45-databricks |
| org.rocksdb | rocksdbjni | 9.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | Escala-compiler_2.12 | 2.12.15 |
| org.scala-lang | Escala-library_2.12 | 2.12.15 |
| org.scala-lang | Escala-reflect_2,12 | 2.12.15 |
| org.scala-lang.modules | scala-coleção-compat_2.12 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.12 | 0.9.1 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | Escala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interface de teste | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.16 |
| org.scalanlp | Brisa-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | compatível com scalatest | 3.2.16 |
| org.scalatest | scalatest-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.16 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.16 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.16 |
| org.scalatest | scalatest_2.12 | 3.2.16 |
| org.slf4j | jcl-sobre-slf4j | 2.0.7 |
| org.slf4j | jul-para-slf4j | 2.0.7 |
| org.slf4j | SLF4J-API | 2.0.7 |
| org.slf4j | SLF4J-Simples | 1.7.25 |
| org.threeten | trêsdez-extra | 1.7.1 |
| org.tukaani | XZ | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | gatos-kernel_2.12 | 2.1.1 |
| org.typelevel | torre-macros_2.12 | 0.17.0 |
| org.typelevel | torre-platform_2.12 | 0.17.0 |
| org.typelevel | torre-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | mosca-selvagem-openssl | 1.1.3.Final |
| org.xerial | SQLITE-JDBC | 3.42.0.0 |
| org.xerial.snappy | Snappy-java | 1.1.10.3 |
| org.yaml | Snakeyaml | 2.0 |
| ORO | ORO | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.4.1-linux-x86_64 |
| Stax | Stax-API | 1.0.1 |