Partilhar via


Databricks Runtime 13.1 (sem suporte)

O Azure Databricks lançou essas imagens em maio de 2023.

As notas de versão a seguir fornecem informações sobre o Databricks Runtime 13.1, alimentado pelo Apache Spark 3.4.0.

Novos recursos e melhorias

Suporte de cluster para JDK 17 (visualização pública)

O Databricks agora fornece suporte a cluster para Java Development Kit (JDK) 17. Consulte Databricks SDK para Java.

Adicionar, alterar ou excluir dados em tabelas de streaming

Agora você pode usar instruções DML para modificar tabelas de streaming publicadas no Unity Catalog por pipelines Delta Live Tables. Consulte Adicionar, alterar ou excluir dados em uma tabela de streaming e Adicionar, alterar ou excluir dados em uma tabela de streaming de destino. Você também pode usar instruções DML para modificar tabelas de streaming criadas no Databricks SQL.

Leia Kafka com SQL

Agora você pode usar a read_kafka função SQL para ler dados Kafka. O streaming com SQL é suportado apenas em Delta Live Tables ou com tabelas de streaming em Databricks SQL. Consulte read_kafka função com valor de tabela.

Novas funções internas do SQL

Foram adicionadas as seguintes funções:

Suporte do Unity Catalog para bibliotecas Python com escopo de cluster

O Unity Catalog tem algumas limitações no uso da biblioteca. No Databricks Runtime 13.1 e superior, há suporte para bibliotecas Python com escopo de cluster, incluindo arquivos de roda Python que são carregados como arquivos de espaço de trabalho. Não há suporte para bibliotecas referenciadas usando caminhos de arquivo DBFS, seja na raiz DBFS ou em um local externo montado no DBFS. As bibliotecas não Python não são suportadas. Veja Bibliotecas de cluster.

No Databricks Runtime 13.0 e inferior, não há suporte para bibliotecas com escopo de cluster em clusters que usam o modo de acesso compartilhado em um espaço de trabalho habilitado para Catálogo Unity.

Ativação padrão expandida para gravações otimizadas no Unity Catalog

O suporte de gravação otimizado padrão para tabelas Delta registradas no Unity Catalog foi expandido para incluir CTAS instruções e INSERT operações para tabelas particionadas. Esse comportamento se alinha aos padrões em armazéns SQL. Consulte Gravações otimizadas para Delta Lake no Azure Databricks.

Suporte avançado para operadores com monitoração de estado em cargas de trabalho de Streaming estruturado

Agora você pode encadear vários operadores com monitoração de estado, o que significa que você pode alimentar a saída de uma operação, como uma agregação em janela, para outra operação com monitoração de estado, como uma junção. Consulte Otimizar consultas de streaming estruturado com monitoração de estado.

O clone Delta para o Unity Catalog está em visualização pública

Agora você pode usar o clone superficial para criar novas tabelas gerenciadas do Unity Catalog a partir de tabelas gerenciadas existentes do Unity Catalog. Consulte Clone superficial para tabelas do Catálogo Unity.

Suporte Pub/Sub para Streaming Estruturado

Agora você pode usar um conector integrado para assinar o Google Pub/Sub com o Structured Streaming. Consulte Subscrever o Google Pub/Sub.

Soltar duplicatas dentro de marcas d'água no Streaming estruturado

Agora você pode usar dropDuplicatesWithinWatermark em combinação com um limite de marca d'água especificado para desduplicar registros no Structured Streaming. Consulte Soltar duplicatas na marca d'água.

Suporte expandido para conversões Delta de tabelas Iceberg com colunas de partição truncadas

Agora você pode usar CLONE e CONVERT TO DELTA com tabelas Iceberg que têm partições definidas em colunas truncadas dos tipos int, long, e string. Não há suporte para colunas truncadas do tipo decimal .

Alterações de esquema de fluxo com mapeamento de coluna no Delta Lake

Agora você pode fornecer um local de rastreamento de esquema para habilitar o streaming de tabelas Delta com o mapeamento de colunas habilitado. Consulte Transmissão em fluxo com mapeamento de colunas e alterações de esquema.

Remover START VERSION

START VERSION agora foi preterido para ALTER SHARE.

Novas expressões H3 disponíveis com Python

As h3_coverash3 expressões e h3_coverash3string estão disponíveis com Python.

Correções de erros

Parquet failOnUnknownFields não solta mais dados silenciosamente em incompatibilidade de tipo

Se um arquivo Parquet foi lido apenas com a opção ou com o failOnUnknownFields Auto Loader no modo de evolução do esquema, as failOnNewColumns colunas que têm diferentes tipos de dados agora falham e recomendam o uso do rescuedDataColumn. O Auto Loader agora lê corretamente e não resgata mais os tipos Integer, Short ou Byte se um desses tipos de dados for fornecido. O arquivo Parquet sugere um dos outros dois tipos.

Alterações interruptivas

Atualize a versão sqlite-jdbc para 3.42.0.0 para abordar CVE-2023-32697

Atualize a versão sqlite-jdbc de 3.8.11.2 para 3.42.0.0. As APIs da versão 3.42.0.0 não são totalmente compatíveis com a versão 3.8.11.2. Se estiver usando sqlite-jdbc em seu código, verifique o relatório de compatibilidade sqlite-jdbc para obter detalhes. Se você migrar para 13.1 e usar sqlite, confirme seus métodos e digite de retorno na versão 3.42.0.0.

Atualizações da biblioteca

  • Bibliotecas Python atualizadas:
    • facetas-visão geral de 1.0.2 a 1.0.3
    • filelock de 3.10.7 a 3.12.0
    • Pyarrow de 7.0.0 a 8.0.0
    • tenacidade de 8.0.1 a 8.1.0
  • Bibliotecas R atualizadas:
  • Bibliotecas Java atualizadas:
    • com.github.ben-manes.caffeine.caffeine de 2.3.4 a 2.9.3
    • org.apache.orc.orc-core de 1.8.2-shaded-protobuf para 1.8.3-shaded-protobuf
    • org.apache.orc.orc-mapreduce de 1.8.2-shaded-protobuf para 1.8.3-shaded-protobuf
    • org.apache.orc.orc-shims de 1.8.2 a 1.8.3
    • org.checkerframework.checker-qual de 3.5.0 a 3.19.0
    • org.scalactic.scalactic_2.12 de 3.0.8 a 3.2.15
    • org.scalatest.scalatest_2.12 de 3.0.8 a 3.2.15
    • org.xerial.sqlite-jdbc de 3.8.11.2 a 3.42.0.0

Faísca Apache

O Databricks Runtime 13.1 inclui o Apache Spark 3.4.0. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 13.0 (sem suporte), bem como as seguintes correções de bugs adicionais e melhorias feitas no Spark:

  • [FAÍSCA-42719] [DBRRM-199] [SC-131578] Reverter "[SC-125225] 'MapOutputTracker#getMap...
  • [FAÍSCA-39696] [DBRRM-166] [SC-130056] [CORE] Reverter [SC-127830]/
  • [FAÍSCA-43331] [SC-130064] [CONECTAR] Adicionar Spark Connect SparkSession.interruptAll
  • [FAÍSCA-16484] [13.1] [CHERRY_PICK] [SC-130076] [SQL] Usar registradores de 8 bits para representar DataSketches
  • [FAÍSCA-43332] [SC-130051] [CONECTAR] [PYTHON] Tornar possível estender o ChannelBuilder para SparkConnectClient
  • [FAÍSCA-43323] [SC-129966] [SQL] [PYTHON] Corrigir DataFrame.toPandas com Seta ativada para lidar com exceções corretamente
  • [FAÍSCA-42940] [SC-129896] [SS] [CONECTAR] Melhorar o gerenciamento de sessão para consultas de streaming
  • [FAÍSCA-43336] [SQL] A transmissão entre Timestamp e TimestampNTZ requer fuso horário
  • [FAÍSCA-43032] [SC-125756] [CONECTAR] [SS] Adicionar gerenciador de consultas de streaming
  • [FAÍSCA-16484] [SC-129975] [SQL] Adicionar suporte para Datasketches HllSketch
  • [FAÍSCA-43260] [SC-129281] [PYTHON] Migre os erros de tipo de seta do Spark SQL pandas para a classe de erro.
  • [FAÍSCA-41766] [SC-129964] [CORE] Lidar com a solicitação de descomissionamento enviada antes do registro do executor
  • [FAÍSCA-43307] [SC-129971] [PYTHON] Migrar erros de valor PandasUDF para a classe de erro
  • [FAÍSCA-43206] [SC-129903] [SS] [CONECTAR] StreamingQuery exception() incluem rastreamento de pilha
  • [FAÍSCA-43311] [SC-129905] [SS] Adicionar aprimoramentos de gerenciamento de memória do provedor de armazenamento de estado RocksDB
  • [FAÍSCA-43237] [SC-129898] [CORE] Manipular mensagem de exceção nula no log de eventos
  • [FAÍSCA-43320] [SC-129899] [SQL] [VIH] Ligue diretamente para a API do Hive 2.3.9
  • [FAÍSCA-43270] [SC-129897] [PYTHON] Implementar __dir__() em pyspark.sql.dataframe.DataFrame para incluir colunas
  • [FAÍSCA-43183] Reverter "[SC-128938][SS] Introduzir um novo retorno de chamada "...
  • [FAÍSCA-43143] [SC-129902] [SS] [CONECTAR] Scala StreamingQuery awaitTermination()
  • [FAÍSCA-43257] [SC-129675] [SQL] Substitua a classe de erro _LEGACY_ERROR_TEMP_2022 por um erro interno
  • [FAÍSCA-43198] [SC-129470] [CONECTAR] Corrigir "Não foi possível inicializar a classe amonite..." erro ao usar o filtro
  • [FAÍSCA-43165] [SC-129777] [SQL] Mover canWrite para DataTypeUtils
  • [FAÍSCA-43298] [SC-129729] [PYTHON] [ML] predict_batch_udf com entrada escalar falha com tamanho de lote de um
  • [FAÍSCA-43298] [SC-129700] Reverter "[PYTHON][ML] predict_batch_udf com entrada escalar falha com tamanho de lote de um"
  • [FAÍSCA-43052] [SC-129663] [CORE] Manipular stacktrace com nome de arquivo nulo no log de eventos
  • [FAÍSCA-43183] [SC-128938] [SS] Introduza um novo retorno de chamada "onQueryIdle" para StreamingQueryListener
  • [FAÍSCA-43209] [SC-129190] [CONECTAR] [PYTHON] Migrar erros de expressão para a classe de erro
  • [FAÍSCA-42151] [SC-128754] [SQL] Alinhar atribuições UPDATE com atributos de tabela
  • [FAÍSCA-43134] [SC-129468] [CONECTAR] [SS] API StreamingQuery exception() do cliente JVM
  • [FAÍSCA-43298] [SC-129699] [PYTHON] [ML] predict_batch_udf com entrada escalar falha com tamanho de lote de um
  • [FAÍSCA-43248] [SC-129660] [SQL] Serialização/desserialização desnecessária de Path em estatísticas de partição de coleta paralela
  • [FAÍSCA-43274] [SC-129464] [FAÍSCA-43275] [PYTHON] [CONECTAR] Apresentar PySparkNotImplementedError
  • [FAÍSCA-43146] [SC-128804] [CONECTAR] [PYTHON] Implementar uma avaliação ansiosa para repr e repr_html
  • [FAÍSCA-42953] [SC-129469] [Conectar] [Seguimento] Corrigir compilação de teste maven para testes UDF do cliente Scala
  • [FAÍSCA-43144] [SC-129280] API da tabela() DataStreamReader do Cliente Scala
  • [FAÍSCA-43136] [SC-129358] [CONECTAR] Adicionando funções groupByKey + mapGroup + coGroup
  • [FAÍSCA-43156] [SC-129672] [SC-128532] [SQL] Corrigir COUNT(*) is null bug na subconsulta escalar correlacionada
  • [FAÍSCA-43046] [SC-129110] [SS] [Conectar] API Python dropDuplicatesWithinWatermark implementada para Spark Connect
  • [FAÍSCA-43199] [SC-129467] [SQL] Tornar o InlineCTE idempotente
  • [FAÍSCA-43293] [SC-129657] [SQL] __qualified_access_only deve ser ignorado em colunas normais
  • [FAÍSCA-43276] [SC-129461] [CONECTAR] [PYTHON] Migrar erros da janela do Spark Connect para a classe de erro
  • [FAÍSCA-43174] [SC-129109] [SQL] Corrigir SparkSQLCLIDriver completer
  • [FAÍSCA-43084] [SC-128654] [SS] Adicionar suporte applyInPandasWithState para conexão de faísca
  • [FAÍSCA-43119] [SC-129040] [SQL] Suporte Obter palavras-chave SQL dinamicamente através de API JDBC e TVF
  • [FAÍSCA-43082] [SC-129112] [CONECTAR] [PYTHON] UDFs Python otimizadas para setas no Spark Connect
  • [FAÍSCA-43085] [SC-128432] [SQL] Coluna de suporte Atribuição PADRÃO para nomes de tabelas com várias partes
  • [FAÍSCA-43156] [SC-129463] [FAÍSCA-43098] [SQL] Estender o teste de bug da contagem de subconsultas escalares com decorrelateInnerQuery desativado
  • [FAÍSCA-43226] [LC-671] Definir extratores para metadados constantes de arquivo
  • [FAÍSCA-43210] [SC-129189] [CONECTAR] [PYTHON] Apresentar PySparkAssertionError
  • [FAÍSCA-43214] [SC-129199] [SQL] Postar métricas do lado do driver para LocalTableScanExec/CommandResultExec
  • [FAÍSCA-43285] [SC-129347] Corrigir ReplE2ESuite consistentemente falhando com JDK 17
  • [FAÍSCA-43268] [SC-129249] [SQL] Use classes de erro adequadas quando exceções são construídas com uma mensagem
  • [FAÍSCA-43142] [SC-129299] Corrigir expressões DSL em atributos com caracteres especiais
  • [FAÍSCA-43129] [SC-128896] API principal do Scala para streaming do Spark Connect
  • [FAÍSCA-43233] [SC-129250] [SS] Adicionar log para Kafka Batch Reading para partição de tópico, intervalo de deslocamento e ID de tarefa
  • [FAÍSCA-43249] [SC-129195] [CONECTAR] Corrigir estatísticas ausentes para o comando SQL
  • [FAÍSCA-42945] [SC-129188] [CONECTAR] Suporte PYSPARK_JVM_STACKTRACE_ENABLED no Spark Connect
  • [FAÍSCA-43178] [SC-129197] [CONECTAR] [PYTHON] Migrar erros UDF para a estrutura de erros do PySpark
  • [FAÍSCA-43123] [SC-128494] [SQL] Os metadados de campo interno não devem ser vazados para catálogos
  • [FAÍSCA-43217] [SC-129205] Recursar corretamente em mapas/matrizes aninhados em findNestedField
  • [FAÍSCA-43243] [SC-129294] [PYTHON] [CONECTAR] Adicionar level param a printSchema para Python
  • [FAÍSCA-43230] [SC-129191] [CONECTAR] Simplifique DataFrameNaFunctions.fillna
  • [FAÍSCA-43088] [SC-128403] [SQL] Respeito ExigeDistribuição e Ordenação em CTAS/RTAS
  • [FAÍSCA-43234] [SC-129192] [CONECTAR] [PYTHON] Migrar ValueError do Conect DataFrame para a classe de erro
  • [FAÍSCA-43212] [SC-129187] [SS] [PYTHON] Migrar erros de Streaming estruturado para a classe de erro
  • [FAÍSCA-43239] [SC-129186] [PS] Remover null_counts de info()
  • [FAÍSCA-43190] [SC-128930] [SQL] ListQuery.childOutput deve ser consistente com a saída filho
  • [FAÍSCA-43191] [SC-128924] [CORE] Substitua a reflexão por chamada direta para o Hadoop CallerContext
  • [FAÍSCA-43193] [SC-129042] [SS] Remover solução alternativa para HADOOP-12074
  • [FAÍSCA-42657] [SC-128621] [CONECTAR] Suporte para localizar e transferir arquivos de classe REPL do lado do cliente para o servidor como artefatos
  • [FAÍSCA-43098] [SC-77059] [SQL] Corrigir o bug COUNT de correção quando a subconsulta escalar tem grupo por cláusula
  • [FAÍSCA-43213] [SC-129062] [PYTHON] Adicionar DataFrame.offset à baunilha PySpark
  • [FAÍSCA-42982] [SC-128400] [CONECTAR] [PYTHON] Corrija createDataFrame para respeitar o esquema ddl dado
  • [FAÍSCA-43124] [SC-129011] [SQL] Dataset.show projetos CommandResults localmente
  • [FAÍSCA-42998] [SC-127422] [CONECTAR] [PYTHON] Corrigir DataFrame.collect com null struct
  • [FAÍSCA-41498] [SC-125343] Reverter "Propagar metadados através da União"
  • [FAÍSCA-42960] [SC-129010] [CONECTAR] [SS] Adicionar API await_termination() e exception() para Streaming Query em Python
  • [FAÍSCA-42552] [SC-128824] [SQL] Corrigir a estratégia de análise de dois estágios do analisador antlr
  • [FAÍSCA-43207] [SC-128937] [CONECTAR] Adicionar funções auxiliares para extrair valor da expressão literal
  • [FAÍSCA-43186] [SC-128841] [SQL] [VIH] Remover solução alternativa para FileSinkDesc
  • [FAÍSCA-43107] [SC-128533] [SQL] Coalesce buckets na junção aplicada no lado do fluxo de junção de transmissão
  • [FAÍSCA-43195] [SC-128922] [CORE] Remover wrapper serializável desnecessário no HadoopFSUtils
  • [FAÍSCA-43137] [SC-128828] [SQL] Melhore o ArrayInsert se a posição for dobrável e positiva.
  • [FAÍSCA-37829] [SC-128827] [SQL] Dataframe.joinWith outer-join deve retornar um valor nulo para linha incomparável
  • [FAÍSCA-43042] [SC-128602] [SS] [Conectar] Adicionar suporte à API table() para DataStreamReader
  • [FAÍSCA-43153] [SC-128753] [CONECTAR] Ignorar a execução do Spark quando o dataframe é local
  • [FAÍSCA-43064] [SC-128496] [SQL] A guia Spark SQL CLI SQL deve mostrar apenas uma instrução uma vez
  • [FAÍSCA-43126] [SC-128447] [SQL] Marcar duas expressões UDF do Hive como stateful
  • [FAÍSCA-43111] [SC-128750] [PS] [CONECTAR] [PYTHON] Mesclar instruções aninhadas if em instruções únicas if
  • [FAÍSCA-43113] [SC-128749] [SQL] Avaliar variáveis do lado do fluxo ao gerar código para uma condição acoplada
  • [FAÍSCA-42895] [SC-127258] [CONECTAR] Melhorar mensagens de erro para sessões interrompidas do Spark
  • [FAÍSCA-42884] [SC-126662] [CONECTAR] Adicionar integração Ammonite REPL
  • [FAÍSCA-43168] [SC-128674] [SQL] Remover o método get PhysicalDataType da classe Datatype
  • [FAÍSCA-43121] [SC-128455] [SQL] Use BytesWritable.copyBytes em vez de cópia manual em 'HiveInspectors
  • [FAÍSCA-42916] [SC-128389] [SQL] JDBCTableCatalog mantém a meta Char/Varchar no lado da leitura
  • [FAÍSCA-43050] [SC-128550] [SQL] Corrigir expressões agregadas de construção substituindo funções de agrupamento
  • [FAÍSCA-43095] [SC-128549] [SQL] Evite Uma vez que a idempotência da estratégia é quebrada para o lote: Infer Filters
  • [FAÍSCA-43130] [SC-128597] [SQL] Mover InternalType para PhysicalDataType
  • [FAÍSCA-43105] [SC-128456] [CONECTAR] Abreviar bytes e cadeias de caracteres na mensagem proto
  • [FAÍSCA-43099] [SC-128596] [SQL] Use getName em vez de obter o nome da getCanonicalName classe builder ao registrar udf para FunctionRegistry
  • [FAÍSCA-42994] [SC-128586] [ML] [CONECTAR] Suporte ao Distribuidor PyTorch Modo Local
  • [FAÍSCA-42859] Reverter "[SC-127935][CONNECT][PS] Suporte básico para pandas API no Spark Connect"
  • [FAÍSCA-43021] [SC-128472] [SQL] CoalesceBucketsInJoin não funciona quando se utiliza o AQE
  • [FAÍSCA-43125] [SC-128477] [CONECTAR] Fix Connect Server não pode lidar com exceção com mensagem nula
  • [FAÍSCA-43147] [SC-128594] fixar fiapos flake8 para verificação local
  • [FAÍSCA-43031] [SC-128360] [SS] [Conectar] Habilite o teste de unidade e o doctest para streaming
  • [FAÍSCA-43039] [LC-67] Suporte a campos personalizados na coluna _metadata de origem do arquivo.
  • [FAÍSCA-43120] [SC-128407] [SS] Adicione suporte para rastrear o uso de memória de blocos fixos para armazenamento de estado RocksDB
  • [FAÍSCA-43110] [SC-128381] [SQL] Mover asIntegral para PhysicalDataType
  • [FAÍSCA-43118] [SC-128398] [SS] Remover asserção desnecessária para UninterruptibleThread no KafkaMicroBatchStream
  • [FAÍSCA-43055] [SC-128331] [CONECTAR] [PYTHON] Suporte a nomes de campos aninhados duplicados
  • [FAÍSCA-42437] [SC-128339] [PYTHON] [CONECTAR] PySpark catalog.cacheTable permitirá especificar o nível de armazenamento
  • [FAÍSCA-42985] [SC-128332] [CONECTAR] [PYTHON] Corrija createDataFrame para respeitar as configurações SQL
  • [FAÍSCA-39696] [SC-127830] [CORE] Corrija a corrida de dados no acesso a TaskMetrics.externalAccums
  • [FAÍSCA-43103] [SC-128335] [SQL] Movendo integral para PhysicalDataType
  • [FAÍSCA-42741] [SC-125547] [SQL] Não desembrulhe moldes na comparação binária quando literal é nulo
  • [FAÍSCA-43057] [SC-127948] [CONECTAR] [PYTHON] Migrar erros de coluna do Spark Connect para a classe de erro
  • [FAÍSCA-42859] [SC-127935] [CONECTAR] [PS] Suporte básico para pandas API no Spark Connect
  • [FAÍSCA-43013] [SC-127773] [PYTHON] Migrar ValueError do DataFrame para o PySparkValueError.
  • [FAÍSCA-43089] [SC-128051] [CONECTAR] Seqüência de depuração do Redact na interface do usuário
  • [FAÍSCA-43028] [SC-128070] [SQL] Adicionar classe de erro SQL_CONF_NOT_FOUND
  • [FAÍSCA-42999] [SC-127842] [Conectar] Dataset#foreach, foreachPartition
  • [FAÍSCA-43066] [SC-127937] [SQL] Adicionar teste para dropDuplicates em JavaDatasetSuite
  • [FAÍSCA-43075] [SC-127939] [CONECTAR] Mude gRPC para grpcio quando não estiver instalado.
  • [FAÍSCA-42953] [SC-127809] [Conectar] Filtro digitado, mapa, flatMap, mapPartitions
  • [FAÍSCA-42597] [SC-125506] [SQL] Suporte a desempacotar tipo de data para tipo de carimbo de data/hora
  • [FAÍSCA-42931] [SC-127933] [SS] Introduzir dropDuplicatesWithinWatermark
  • [FAÍSCA-43073] [SC-127943] [CONECTAR] Adicionar constantes de tipos de dados proto
  • [FAÍSCA-43077] [SC-128050] [SQL] Melhorar a mensagem de erro do UNRECOGNIZED_SQL_TYPE
  • [FAÍSCA-42951] [SC-128030] [SS] [Conectar] DataStreamReader APIs
  • [FAÍSCA-43049] [SC-127846] [SQL] Use CLOB em vez de VARCHAR(255) para StringType for Oracle JDBC
  • [FAÍSCA-43018] [SC-127762] [SQL] Corrigir bug para comandos INSERT com literais de carimbo de data/hora
  • [FAÍSCA-42855] [SC-127722] [SQL] Usar verificações nulas de tempo de execução em TableOutputResolver
  • [FAÍSCA-43030] [SC-127847] [SQL] Eliminar a duplicação de relações com colunas de metadados
  • [FAÍSCA-42993] [SC-127829] [ML] [CONECTAR] Tornar o PyTorch Distributor compatível com o Spark Connect
  • [FAÍSCA-43058] [SC-128072] [SQL] Mover numérico e fracionário para PhysicalDataType
  • [FAÍSCA-43056] [SC-127946] [SS] A confirmação do armazenamento de estado do RocksDB deve continuar o trabalho em segundo plano somente se for pausada
  • [FAÍSCA-43059] [SC-127947] [CONECTAR] [PYTHON] Migrar TypeError de DataFrame(Reader|Writer) em classe de erro
  • [FAÍSCA-43071] [SC-128018] [SQL] Suporte SELECT DEFAULT com ORDER BY, LIMIT, OFFSET para INSERT source relation
  • [FAÍSCA-43061] [SC-127956] [CORE] [SQL] Introduzir o PartitionEvaluator para a execução do operador SQL
  • [FAÍSCA-43067] [SC-127938] [SS] Corrigir o local do arquivo de recurso de classe de erro no conector Kafka
  • [FAÍSCA-43019] [SC-127844] [SQL] Mover pedidos para PhysicalDataType
  • [FAÍSCA-43010] [SC-127759] [PYTHON] Migrar erros de coluna para a classe de erro
  • [FAÍSCA-42840] [SC-127782] [SQL] Alterar _LEGACY_ERROR_TEMP_2004 erro para erro interno
  • [FAÍSCA-43041] [SC-127765] [SQL] Restaurar construtores de exceções para compatibilidade na API do conector
  • [FAÍSCA-42939] [SC-127761] [SS] [CONECTAR] Core streaming Python API para Spark Connect
  • [FAÍSCA-42844] [SC-127766] [SQL] Atualize a classe _LEGACY_ERROR_TEMP_2008 de erro para INVALID_URL
  • [FAÍSCA-42316] [SC-127720] [SQL] Atribuir nome a _LEGACY_ERROR_TEMP_2044
  • [FAÍSCA-42995] [SC-127723] [CONECTAR] [PYTHON] Migrar erros do Spark Connect DataFrame para a classe de erro
  • [FAÍSCA-42983] [SC-127717] [CONECTAR] [PYTHON] Corrija createDataFrame para manipular a matriz numpy 0-dim corretamente
  • [FAÍSCA-42955] [SC-127476] [SQL] Ignorar classifyException e encapsular AnalysisException para SparkThrowable
  • [FAÍSCA-42949] [SC-127255] [SQL] Simplifique o código para NAAJ
  • [FAÍSCA-43011] [SC-127577] [SQL] array_insert deve falhar com índice 0
  • [FAÍSCA-42974] [SC-127487] [CORE] Restaure Utils.createTempDir para usar o ShutdownHookManager método e limpe JavaUtils.createTempDir .
  • [FAÍSCA-42964] [SC-127585] [SQL] PosgresDialect '42P07' também significa que a tabela já existe
  • [FAÍSCA-42978] [SC-127351] [SQL] Derby&PG: RENAME não pode qualificar um new-table-Name com um schema-Name
  • [FAÍSCA-37980] [SC-127668] [SQL] Acesso row_index via _metadata se possível em testes
  • [FAÍSCA-42655] [SC-127591] [SQL] Erro de referência de coluna ambíguo incorreto
  • [FAÍSCA-43009] [SC-127596] [SQL] Parametrizado sql() com Any constantes
  • [FAÍSCA-43026] [SC-127590] [SQL] Aplicar AQE com cache de tabela que não seja do Exchange
  • [FAÍSCA-42963] [SC-127576] [SQL] Estenda SparkSessionExtensions para injetar regras no otimizador de estágio de consulta AQE
  • [FAÍSCA-42918] [SC-127357] Generalizar a manipulação de atributos de metadados no FileSourceStrategy
  • [FAÍSCA-42806] [SC-127452] [FAÍSCA-42811] [CONECTAR] Adicionar Catalog suporte
  • [FAÍSCA-42997] [SC-127535] [SQL] TableOutputResolver deve usar caminhos de coluna corretos em mensagens de erro para matrizes e mapas
  • [FAÍSCA-43006] [SC-127486] [PYSPARK] Corrigir erro de digitação no StorageLevel eq()
  • [FAÍSCA-43005] [SC-127485] [PYSPARK] Corrigir erro de digitação em pyspark/pandas/config.py
  • [FAÍSCA-43004] [SC-127457] [CORE] Corrigir erro de digitação em ResourceRequest.equals()
  • [FAÍSCA-42907] [SC-126984] [CONECTAR] [PYTHON] Implementar funções Avro
  • [FAÍSCA-42979] [SC-127272] [SQL] Definir construtores literais como palavras-chave
  • [FAÍSCA-42946] [SC-127252] [SQL] Redigir dados confidenciais aninhados por substituição de variáveis
  • [FAÍSCA-42952] [SC-127260] [SQL] Simplifique o parâmetro da regra do analisador PreprocessTableCreation e DataSourceAnalysis
  • [FAÍSCA-42683] [LC-75] Renomear automaticamente colunas de metadados conflitantes
  • [FAÍSCA-42853] [SC-126101] [Seguimento] Corrigir conflitos
  • [FAÍSCA-42929] [SC-126748] [CONNECT] fazer mapInPandas / mapInArrow suporte "is_barrier"
  • [FAÍSCA-42968] [SC-127271] [SS] Adicionar opção para ignorar o coordenador de confirmação como parte da API StreamingWrite para fontes/coletores DSv2
  • [FAÍSCA-42954] [SC-127261] [PYTHON] [CONECTAR] Adicionar YearMonthIntervalType ao PySpark e Spark Connect Python Client
  • [FAÍSCA-41359] [SC-127256] [SQL] Use PhysicalDataType em vez de DataType em UnsafeRow
  • [FAÍSCA-42873] [SC-127262] [SQL] Definir tipos Spark SQL como palavras-chave
  • [FAÍSCA-42808] [SC-126302] [CORE] Evite ficar disponívelProcessadores sempre que entrar MapOutputTrackerMaster#getStatistics
  • [FAÍSCA-42937] [SC-126880] [SQL] PlanSubqueries deve ser definido InSubqueryExec#shouldBroadcast como true
  • [FAÍSCA-42896] [SC-126729] [SQL] [PYTHON] Faça mapInPandas / mapInArrow a execução do modo de barreira de suporte
  • [FAÍSCA-42874] [SC-126442] [SQL] Habilite a nova estrutura de teste de arquivo dourado para análise de todos os arquivos de entrada
  • [FAÍSCA-42922] [SC-126850] [SQL] Mover de Random para SecureRandom
  • [FAÍSCA-42753] [SC-126369] ReusedExchange refere-se a nós inexistentes
  • [FAÍSCA-40822] [SC-126274] [SQL] Aliases de coluna derivados estáveis
  • [FAÍSCA-42908] [SC-126856] [PYTHON] Raise RuntimeError quando SparkContext é necessário, mas não inicializado
  • [FAÍSCA-42779] [SC-126042] [SQL] Permitir gravações V2 para indicar o tamanho da partição de shuffle consultivo
  • [FAÍSCA-42914] [SC-126727] [PYTHON] Reutilização transformUnregisteredFunction para DistributedSequenceID.
  • [FAÍSCA-42878] [SC-126882] [CONECTAR] A API de tabela em DataFrameReader também pode aceitar opções
  • [FAÍSCA-42927] [SC-126883] [CORE] Altere o escopo de o.a.spark.util.Iterators#size acesso de para private[util]
  • [FAÍSCA-42943] [SC-126879] [SQL] Use LONGTEXT em vez de TEXT para StringType para comprimento efetivo
  • [FAÍSCA-37677] [SC-126855] [CORE] Descompactar pode manter permissões de arquivo
  • [FAÍSCA-42891] [13.x] [SC-126458] [CONECTAR] [PYTHON] Implementar API de Mapa Coagrupado
  • [FAÍSCA-41876] [SC-126849] [CONECTAR] [PYTHON] Implementar DataFrame.toLocalIterator
  • [FAÍSCA-42930] [SC-126761] [CORE] [SQL] Altere o escopo de acesso de ProtobufSerDe implementações relacionadas para private[protobuf]
  • [FAÍSCA-42819] [SC-125879] [SS] Adicione suporte para definir max_write_buffer_number e write_buffer_size para RocksDB usados em streaming
  • [FAÍSCA-42924] [SC-126737] [SQL] [CONECTAR] [PYTHON] Esclarecer o comentário de args SQL parametrizados
  • [FAÍSCA-42748] [SC-126455] [CONECTAR] Gerenciamento de artefatos do lado do servidor
  • [FAÍSCA-42816] [SC-126365] [CONECTAR] Suporte Max Tamanho da mensagem de até 128MB
  • [FAÍSCA-42850] [SC-126109] [SQL] Remover regra duplicada CombineFilters no Optimizer
  • [FAÍSCA-42662] [SC-126355] [CONECTAR] [PS] Adicionar mensagem proto para a API pandas no índice padrão do Spark
  • [FAÍSCA-42720] [SC-126136] [PS] [SQL] Usa expressão para índice padrão de sequência distribuída em vez de plano
  • [FAÍSCA-42790] [SC-126174] [SQL] Abstraia o método excluído para um melhor teste para testes JDBC docker.
  • [FAÍSCA-42900] [SC-126473] [CONECTAR] [PYTHON] Corrija createDataFrame para respeitar a inferência e os nomes das colunas
  • [FAÍSCA-42917] [SC-126657] [SQL] Corrigir getUpdateColumnNullabilityQuery para DerbyDialect
  • [FAÍSCA-42684] [SC-125157] O catálogo [SQL] v2 não deve permitir o valor padrão da coluna por padrão
  • [FAÍSCA-42861] [SC-126635] [SQL] Use private[sql] em vez de protected[sql] para evitar a geração de documentos de API
  • [FAÍSCA-42920] [SC-126728] [CONECTAR] [PYTHON] Habilitar testes para UDF com UDT
  • [FAÍSCA-42791] [SC-126617] [SQL] Crie uma nova estrutura de teste de arquivo dourado para análise
  • [FAÍSCA-42911] [SC-126652] [PYTHON] Introduzir exceções mais básicas
  • [FAÍSCA-42904] [SC-126634] [SQL] Suporte a Char/Varchar para catálogo JDBC
  • [FAÍSCA-42901] [SC-126459] [CONECTAR] [PYTHON] Mover StorageLevel para um arquivo separado para evitar possíveis file recursively imports
  • [FAÍSCA-42894] [SC-126451] [CONECTAR] Suporte cacheunpersiststorageLevel/persist//para o cliente jvm Spark connect
  • [FAÍSCA-42792] [SC-125852] [SS] Adicione suporte para WRITE_FLUSH_BYTES para RocksDB usados em operadores stateful de streaming
  • [FAÍSCA-41233] [SC-126441] [CONECTAR] [PYTHON] Adicionar array_prepend ao cliente Python do Spark Connect
  • [FAÍSCA-42681] [SC-125149] [SQL] Relaxe a restrição de pedidos para ALTER TABLE ADD|SUBSTITUIR descritor de coluna
  • [FAÍSCA-42889] [SC-126367] [CONECTAR] [PYTHON] Implementar cache, persistir, não persistir e nível de armazenamento
  • [FAÍSCA-42824] [SC-125985] [CONECTAR] [PYTHON] Fornecer uma mensagem de erro clara para atributos JVM não suportados
  • [FAÍSCA-42340] [SC-126131] [CONECTAR] [PYTHON] Implementar API de Mapa Agrupado
  • [FAÍSCA-42892] [SC-126454] [SQL] Mover sameType e métodos relevantes para fora de DataType
  • [FAÍSCA-42827] [SC-126126] [CONECTAR] Suporte functions#array_prepend para o cliente Scala connect
  • [FAÍSCA-42823] [SC-125987] [SQL] spark-sql O shell suporta namespaces de várias partes para inicialização
  • [FAÍSCA-42817] [SC-125960] [CORE] Registrando o nome do serviço aleatório uma vez no ApplicationMaster
  • [FAÍSCA-42786] [SC-126438] [Conectar] Seleção digitada
  • [FAÍSCA-42800] [SC-125868] [CONECTAR] [PYTHON] [ML] Implementar a função ml {array_to_vector, vector_to_array}
  • [FAÍSCA-42052] [SC-126439] [SQL] Suporte Codegen para HiveSimpleUDF
  • [FAÍSCA-41233] [SC-126110] [SQL] [PYTHON] Adicionar array_prepend função
  • [FAÍSCA-42864] [SC-126268] [ML] [3.4] Tornar IsotonicRegression.PointsAccumulator privado
  • [FAÍSCA-42876] [SC-126281] [SQL] O physicalDataType do DataType deve ser private[sql]
  • [FAÍSCA-42101] [SC-125437] [SQL] Tornar o suporte AQE InMemoryTableScanExec
  • [FAÍSCA-41290] [SC-124030] [SQL] Suporte a expressões GENERATED ALWAYS AS para colunas em instruções create/replace table
  • [FAÍSCA-42870] [SC-126220] [CONECTAR] Mover toCatalystValue para connect-common
  • [FAÍSCA-42247] [SC-126107] [CONECTAR] [PYTHON] Corrija UserDefinedFunction para ter returnType
  • [FAÍSCA-42875] [SC-126258] [CONECTAR] [PYTHON] Corrigir toPandas para lidar com os tipos de fuso horário e mapa corretamente
  • [FAÍSCA-42757] [SC-125626] [CONECTAR] Implementar textFile para DataFrameReader
  • [FAÍSCA-42803] [SC-126081] [CORE] [SQL] [ML] Use a função getParameterCount em vez de getParameterTypes.length
  • [FAÍSCA-42833] [SC-126043] [SQL] Refatorar applyExtensions em SparkSession
  • [FAÍSCA-41765] Reverter "[SC-123550][SQL] Extrair métricas de gravação v1...
  • [FAÍSCA-42848] [SC-126105] [CONECTAR] [PYTHON] Implementar DataFrame.registerTempTable
  • [FAÍSCA-42020] [SC-126103] [CONECTAR] [PYTHON] Suporte UserDefinedType no Spark Connect
  • [FAÍSCA-42818] [SC-125861] [CONECTAR] [PYTHON] Implementar DataFrameReader/Writer.jdbc
  • [FAÍSCA-42812] [SC-125867] [CONECTAR] Adicionar client_type a AddArtifactsRequest protobuf message
  • [FAÍSCA-42772] [SC-125860] [SQL] Altere o valor padrão das opções JDBC sobre push down para true
  • [FAÍSCA-42771] [SC-125855] [SQL] refatorar HiveGenericUDF
  • [FAÍSCA-25050] [SC-123839] [SQL] Avro: escrevendo uniões complexas
  • [FAÍSCA-42765] [SC-125850] [CONECTAR] [PYTHON] Habilitar importação pandas_udf de pyspark.sql.connect.functions
  • [FAÍSCA-42719] [SC-125225] [CORE] MapOutputTracker#getMapLocation deve respeitar spark.shuffle.reduceLocality.enabled
  • [FAÍSCA-42480] [SC-125173] [SQL] Melhorar o desempenho de partições de queda
  • [FAÍSCA-42689] [SC-125195] [CORE] [BARALHAR] Permitir que ShuffleDriverComponent declare se os dados aleatórios são armazenados de forma confiável
  • [FAÍSCA-42726] [SC-125279] [CONECTAR] [PYTHON] Implementar DataFrame.mapInArrow
  • [FAÍSCA-41765] [SC-123550] [SQL] Extraia métricas de gravação v1 para WriteFiles
  • [FAÍSCA-41171] [SC-124191] [SQL] Inferir e empurrar para baixo o limite da janela através da janela se partitionSpec estiver vazio
  • [FAÍSCA-42686] [SC-125292] [CORE] Adiar formatação para mensagens de depuração no TaskMemoryManager
  • [FAÍSCA-42756] [SC-125443] [CONECTAR] [PYTHON] Função auxiliar para converter proto literal em valor no Python Client
  • [FAÍSCA-42793] [SC-125627] [CONECTAR] connect módulo requer build_profile_flags
  • [FAÍSCA-42701] [SC-125192] [SQL] Adicionar a try_aes_decrypt() função
  • [FAÍSCA-42679] [SC-125438] [CONECTAR] [PYTHON] createDataFrame não funciona com esquema não anulável
  • [FAÍSCA-42733] [SC-125542] [CONECTAR] [Seguimento] Escrever sem caminho ou tabela
  • [FAÍSCA-42777] [SC-125525] [SQL] Suporte a conversão de estatísticas de catálogo TimestampNTZ para estatísticas de planejamento
  • [FAÍSCA-42770] [SC-125558] [CONECTAR] Adicionar truncatedTo(ChronoUnit.MICROS) para fazer SQLImplicitsTestSuite em Java 17 teste diário GA task pass
  • [FAÍSCA-42752] [SC-125550] [PYSPARK] [SQL] Torne as exceções do PySpark imprimíveis durante a inicialização
  • [FAÍSCA-42732] [SC-125544] [PYSPARK] [CONECTAR] Suporte spark connect session getActiveSession método
  • [FAÍSCA-42755] [SC-125442] [CONECTAR] Fator de conversão de valor literal para fora para connect-common
  • [FAÍSCA-42747] [SC-125399] [ML] Corrigir status interno incorreto de LoR e AFT
  • [FAÍSCA-42740] [SC-125439] [SQL] Corrija o bug de que o deslocamento pushdown ou a paginação são inválidos para algum dialeto interno
  • [FAÍSCA-42745] [SC-125332] [SQL] AliasAwareOutputExpression melhorado funciona com DSv2
  • [FAÍSCA-42743] [SC-125330] [SQL] Suporte analisar colunas TimestampNTZ
  • [FAÍSCA-42721] [SC-125371] [CONECTAR] Intercetador de log RPC
  • [FAÍSCA-42691] [SC-125397] [CONECTAR] [PYTHON] Implementar Dataset.semanticHash
  • [FAÍSCA-42688] [SC-124922] [CONECTAR] Renomear client_id de solicitação do Connect proto para session_id
  • [FAÍSCA-42310] [SC-122792] [SQL] Atribuir nome a _LEGACY_ERROR_TEMP_1289
  • [FAÍSCA-42685] [SC-125339] [CORE] Otimizar rotinas Utils.bytesToString
  • [FAÍSCA-42725] [SC-125296] [CONECTAR] [PYTHON] Fazer com que LiteralExpression suporte parâmetros de matriz
  • [FAÍSCA-42702] [SC-125293] [FAÍSCA-42623] [SQL] Suporte a consulta parametrizada em subconsulta e CTE
  • [FAÍSCA-42697] [SC-125189] [WEBUI] Corrija /api/v1/applications para retornar o tempo de atividade total em vez de 0 para o campo de duração
  • [FAÍSCA-42733] [SC-125278] [CONECTAR] [PYTHON] Corrigir DataFrameWriter.save para trabalhar sem parâmetro path
  • [FAÍSCA-42376] [SC-124928] [SS] Introduzir a propagação de marcas d'água entre os operadores
  • [FAÍSCA-42710] [SC-125205] [CONECTAR] [PYTHON] Renomeie FrameMap proto para MapPartitions
  • [FAÍSCA-37099] [SC-123542] [SQL] Introduza o limite de grupo de Janela para filtro baseado em classificação para otimizar a computação top-k
  • [FAÍSCA-42630] [SC-125207] [CONECTAR] [PYTHON] Introduza UnparsedDataType e atrase a análise da cadeia de caracteres DDL até que o SparkConnectClient esteja disponível
  • [FAÍSCA-42690] [SC-125193] [CONECTAR] Implementar funções de análise CSV/JSON para o cliente Scala
  • [FAÍSCA-42709] [SC-125172] [PYTHON] Remover a suposição de __file__ estar disponível
  • [FAÍSCA-42318] [SC-122648] [FAÍSCA-42319] [SQL] Atribuir nome a LEGACY_ERROR_TEMP(2123|2125)
  • [FAÍSCA-42723] [SC-125183] [SQL] Suporte ao tipo de dados do analisador json "timestamp_ltz" como TimestampType
  • [FAÍSCA-42722] [SC-125175] [CONECTAR] [PYTHON] Python Connect def schema() não deve armazenar em cache o esquema
  • [FAÍSCA-42643] [SC-125152] [CONECTAR] [PYTHON] Registrar funções Java (agregadas) definidas pelo usuário
  • [FAÍSCA-42656] [SC-125177] [CONECTAR] [Seguimento] Corrigir o script spark-connect
  • [FAÍSCA-41516] [SC-123899] [SQL] Permitir que dialetos jdbc substituam a consulta usada para criar uma tabela
  • [FAÍSCA-41725] [SC-124396] [CONECTAR] Execução ansiosa de DF.sql()
  • [FAÍSCA-42687] [SC-124896] [SS] Melhor mensagem de erro para a operação sem suporte pivot no Streaming
  • [FAÍSCA-42676] [SC-124809] [SS] Gravar pontos de verificação temporários para transmitir consultas para o sistema de arquivos local, mesmo que o FS padrão seja definido de forma diferente
  • [FAÍSCA-42303] [SC-122644] [SQL] Atribuir nome a _LEGACY_ERROR_TEMP_1326
  • [FAÍSCA-42553] [SC-124560] [SQL] Assegure-se de pelo menos uma unidade de tempo após o "intervalo"
  • [FAÍSCA-42649] [SC-124576] [CORE] Remova o cabeçalho da Licença Apache padrão da parte superior dos arquivos de origem de terceiros
  • [FAÍSCA-42611] [SC-124395] [SQL] Inserir verificações de comprimento char/varchar para campos internos durante a resolução
  • [FAÍSCA-42419] [SC-124019] [CONECTAR] [PYTHON] Migre para a estrutura de erro para a API de coluna do Spark Connect.
  • [FAÍSCA-42637] [SC-124522] [CONECTAR] Adicionar SparkSession.stop()
  • [FAÍSCA-42647] [SC-124647] [PYTHON] Alterar o alias para tipos preteridos e removidos do numpy
  • [FAÍSCA-42616] [SC-124389] [SQL] SparkSQLCLIDriver só deve fechar iniciado hive sessionState
  • [FAÍSCA-42593] [SC-124405] [PS] Deprecate & remove as APIs que serão removidas no pandas 2.0.
  • [FAÍSCA-41870] [SC-124402] [CONECTAR] [PYTHON] Corrigir createDataFrame para lidar com nomes de colunas duplicados
  • [FAÍSCA-42569] [SC-124379] [CONECTAR] Lançar exceções para API de sessão sem suporte
  • [FAÍSCA-42631] [SC-124526] [CONECTAR] Suporte a extensões personalizadas no cliente Scala
  • [FAÍSCA-41868] [SC-124387] [CONECTAR] [PYTHON] Corrigir createDataFrame para suportar durações
  • [FAÍSCA-42572] [SC-124171] [SQL] [SS] Corrigir comportamento para StateStoreProvider.validateStateRowFormat

Atualizações de manutenção

Consulte Atualizações de manutenção do Databricks Runtime 13.1.

Ambiente do sistema

  • Sistema Operacional: Ubuntu 22.04.2 LTS
  • Java: Zulu 8.70.0.23-CA-linux64
  • Escala: 2.12.15
  • Píton: 3.10.12
  • R: 4.2.2
  • Lago Delta: 2.4.0

Bibliotecas Python instaladas

Biblioteca Versão Biblioteca Versão Biblioteca Versão
Appdirs 1.4.4 Argônio2-CFFI 21.3.0 argon2-cffi-ligações 21.2.0
AstTokens 2.2.1 ATRs 21.4.0 Backcall 0.2.0
sopa bonita4 4.11.1 preto 22.6.0 lixívia 4.1.0
pisca-pisca 1.4 boto3 1.24.28 botocore 1.27.28
certifi 2022.9.14 cffi 1.15.1 chardet 4.0.0
Normalizador de Charset 2.0.4 clicar 8.0.4 criptografia 37.0.1
cycler 0.11.0 Quisto 0.29.32 dbus-python 1.2.18
depuração 1.5.1 decorador 5.1.1 DeUsedXML 0.7.1
Distlib 0.3.6 docstring-para-markdown 0,12 pontos de entrada 0.4
execução 1.2.0 facetas-visão geral 1.0.3 fastjsonschema 2.16.3
filelock 3.12.0 Fonttools 4.25.0 googleapis-comuns-protos 1.56.4
Grpcio 1.48.1 grpcio-status 1.48.1 httplib2 0.20.2
idna 3.3 importlib-metadados 4.6.4 Ipykernel 6.17.1
ipython 8.10.0 ipython-genutils 0.2.0 ipywidgets 7.7.2
Jedi 0.18.1 Jeepney 0.7.1 Jinja2 2.11.3
jmespath 0.10.0 Joblib 1.2.0 jsonschema 4.16.0
jupyter-cliente 7.3.4 jupyter_core 4.11.2 Jupyterlab-Pygments 0.1.2
jupyterlab-widgets 1.0.0 porta-chaves 23.5.0 Kiwisolver 1.4.2
launchpadlib 1.10.16 lazr.restfulclient 0.14.4 lazr.uri 1.0.6
MarkupSafe 2.0.1 matplotlib 3.5.2 matplotlib-em linha 0.1.6
Mccabe 0.7.0 Mistune 0.8.4 mais-itertools 8.10.0
mypy-extensões 0.4.3 nbclient 0.5.13 nbconvert 6.4.4
nbformat 5.5.0 Ninho-Asyncio 1.5.5 nodeenv 1.7.0
bloco de notas 6.4.12 numpy 1.21.5 OAuthlib 3.2.0
embalagem 21,3 pandas 1.4.4 PandocFilters 1.5.0
Parso 0.8.3 PathSpec 0.9.0 patsy 0.5.2
pexpect 4.8.0 pickleshare 0.7.5 Travesseiro 9.2.0
pip 22.2.2 plataformadirs 2.5.2 enredo 5.9.0
pluggy 1.0.0 Prometheus-cliente 0.14.1 prompt-toolkit 3.0.36
protobuf 3.19.4 PSUTIL 5.9.0 psycopg2 2.9.3
ptyprocess 0.7.0 puro-eval 0.2.2 pyarrow 8.0.0
pycparser 2.21 Pidântico 1.10.6 Pyflakes 3.0.1
Pygments 2.11.2 PyGObject 3.42.1 PyJWT 2.3.0
Pyodbc 4.0.32 pyparsing 3.0.9 Pyright 1.1.294
pirsistent 0.18.0 python-dateutil 2.8.2 python-lsp-jsonrpc 1.0.0
python-lsp-servidor 1.7.1 pytoolconfig 1.2.2 pytz 2022.1
Pyzmq 23.2.0 pedidos 2.28.1 corda 1.7.0
s3transferir 0.6.0 scikit-learn 1.1.1 scipy 1.9.1
seaborn 0.11.2 Armazenamento Secreto 3.3.1 Enviar2Lixo 1.8.0
setuptools 63.4.1 seis 1.16.0 Soupsieve 2.3.1
ssh-import-id 5.11 dados de pilha 0.6.2 statsmodels 0.13.2
tenacidade 8.1.0 terminado 0.13.1 caminho de teste 0.6.0
ThreadPoolCtl 2.2.0 tokenize-rt 4.2.1 Tomli 2.0.1
tornado 6.1 traços 5.1.1 typing_extensions 4.3.0
Ujson 5.4.0 Upgrades autônomos 0.1 urllib3 1.26.11
virtualenv 20.16.3 wadllib 1.3.6 largura de wc 0.2.5
WebEncodings 0.5.1 whatthepatch 1.0.2 roda 0.37.1
widgetsnbextension 3.6.1 Yapf 0.31.0 zipp | 1.0.0

Bibliotecas R instaladas

As bibliotecas R são instaladas a partir do instantâneo da CRAN da Microsoft em 2023-02-10.

Biblioteca Versão Biblioteca Versão Biblioteca Versão
seta 10.0.1 AskPass 1.1 asserçãoat 0.2.1
backports 1.4.1 base 4.2.2 base64enc 0.1-3
bit 4.0.5 bit64 4.0.5 blob 1.2.3
arranque 1.3-28 brew 1.0-8 Brio 1.1.3
vassoura 1.0.3 BSLIB 0.4.2 cachem 1.0.6
Chamador 3.7.3 acento circunflexo 6.0-93 Cellranger 1.1.0
crono 2.3-59 classe 7.3-21 cli 3.6.0
Clipr 0.8.0 relógio 0.6.1 cluster 2.1.4
codetools 0.2-19 espaço em cores 2.1-0 marca comum 1.8.1
compilador 4.2.2 configuração 0.3.1 CPP11 0.4.3
lápis de cor 1.5.2 credenciais 1.3.2 curl 5.0.0
data.table 1.14.6 conjuntos de dados 4.2.2 DBI 1.1.3
DBPlyr 2.3.0 desc 1.4.2 devtools 2.4.5
diffobj 0.3.5 resumo 0.6.31 Iluminação reduzida 0.4.2
dplyr 1.1.0 DTPlyr 1.2.2 E1071 1.7-13
reticências 0.3.2 evaluate 0.20 Fãsi 1.0.4
Farver 2.1.1 mapa rápido 1.1.0 fontawesome 0.5.0
FORCATS 1.0.0 foreach 1.5.2 externa 0.8-82
forjar 0.2.0 FS 1.6.1 Futuro 1.31.0
future.apply 1.10.0 gargarejo 1.3.0 Genéricos 0.1.3
Gert 1.9.2 ggplot2 3.4.0 GH 1.3.1
gitcreds 0.1.2 glmnet 4.1-6 Globais 0.16.2
colar 1.6.2 GoogleDrive 2.0.0 googlesheets4 1.0.1
gower 1.0.1 gráficos 4.2.2 grDevices 4.2.2
grelha 4.2.2 gridExtra 2.3 gsubfn 0.7
gtable 0.3.1 capacete 1.2.0 Refúgio 2.5.1
mais alto 0.10 HMS 1.1.2 htmltools 0.5.4
htmlwidgets 1.6.1 httpuv 1.6.8 httr 1.4.4
IDs 1.0.1 ini 0.3.1 ipred 0.9-13
Isoband 0.2.7 iteradores 1.0.14 jquerylib 0.1.4
jsonlite 1.8.4 KernSmooth 2.23-20 Knitr 1.42
etiquetagem 0.4.2 mais tarde 1.3.0 lattice 0.20-45
lava 1.7.1 ciclo de vida 1.0.3 ouvirv 0.9.0
lubridate 1.9.1 magrittr 2.0.3 Marcação 1.5
MASSA 7.3-58.2 Matriz 1.5-1 memoise 2.0.1
métodos 4.2.2 mgcv 1.8-41 mime 0,12
miniUI 0.1.1.1 ModelMetrics 1.2.2.2 Modelador 0.1.10
munsell 0.5.0 nlme 3.1-162 nnet 7.3-18
numDeriv 2016.8-1.1 openssl 2.0.5 paralelo 4.2.2
Paralelamente 1.34.0 pilar 1.8.1 pkgbuild 1.4.0
pkgconfig 2.0.3 pkgdown 2.0.7 pkgload 1.3.2
plogr 0.2.0 plyr 1.8.8 elogiar 1.0.0
unidades bonitas 1.1.1 pROC 1.18.0 processx 3.8.0
prodlim 2019.11.13 Profvis 0.3.7 Progresso 1.2.2
progressor 0.13.0 promessas 1.2.0.1 proto 1.0.0
procuração 0.4-27 PS 1.7.2 purrr 1.0.1
r2d3 0.2.6 R6 2.5.1 RAGG 1.2.5
randomForest 4.7-1.1 rappdirs 0.3.3 rcmdcheck 1.4.0
RColorBrewer 1.1-3 Rcpp 1.0.10 RcppEigen 0.3.3.9.3
Leitor 2.1.3 ReadXL 1.4.2 receitas 1.0.4
revanche 1.0.1 revanche2 2.1.2 Controles remotos 2.4.2
Reprex 2.0.2 remodelar2 1.4.4 rlang 1.0.6
rmarkdown 2,20 RODBC 1.3-20 roxygen2 7.2.3
rpart 4.1.19 rprojroot 2.0.3 Rserve 1.8-12
RSQLite 2.2.20 rstudioapi 0.14 rversões 2.1.2
Rvest 1.0.3 Sass 0.4.5 escalas 1.2.1
seletor 0.4-2 sessioninfo 1.2.2 forma 1.4.6
brilhante 1.7.4 ferramentas de origem 0.1.7-1 sparklyr 1.7.9
SparkR 3.4.0 espacial 7.3-15 splines 4.2.2
sqldf 0.4-11 QUADRADO 2021.1 estatísticas 4.2.2
stats4 4.2.2 stringi 1.7.12 stringr 1.5.0
sobrevivência 3.5-3 sys 3.4.1 fontes do sistema 1.0.4
tcltk 4.2.2 testeatat 3.1.6 formatação de texto 0.3.6
tibble 3.1.8 tidyr 1.3.0 tidyselect 1.2.0
Tidyverse 1.3.2 mudança de hora 0.2.0 timeDate 4022.108
Tinytex 0.44 ferramentas 4.2.2 TZDB 0.3.0
urlchecker 1.0.1 usethis 2.1.6 UTF8 1.2.3
utilitários 4.2.2 uuid 1.1-0 VCTRS 0.5.2
viridisLite 0.4.1 vroom 1.6.1 Waldo 0.4.0
whisker 0.4.1 withr 2.5.0 xfun 0,37
xml2 1.3.3 xopen 1.0.0 xtable 1.8-4
yaml 2.3.7 zip 2.2.2

Bibliotecas Java e Scala instaladas (versão de cluster Scala 2.12)

ID do Grupo ID do Artefacto Versão
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.390
com.amazonaws aws-java-sdk-cloudformation 1.12.390
com.amazonaws aws-java-sdk-cloudfront 1.12.390
com.amazonaws aws-java-sdk-cloudhsm 1.12.390
com.amazonaws aws-java-sdk-cloudsearch 1.12.390
com.amazonaws aws-java-sdk-cloudtrail 1.12.390
com.amazonaws aws-java-sdk-cloudwatch 1.12.390
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.390
com.amazonaws aws-java-sdk-codedeploy 1.12.390
com.amazonaws aws-java-sdk-cognitoidentity 1.12.390
com.amazonaws aws-java-sdk-cognitosync 1.12.390
com.amazonaws aws-java-sdk-config 1.12.390
com.amazonaws aws-java-sdk-core 1.12.390
com.amazonaws aws-java-sdk-datapipeline 1.12.390
com.amazonaws aws-java-sdk-directconnect 1.12.390
com.amazonaws aws-java-sdk-directory 1.12.390
com.amazonaws aws-java-sdk-dynamodb 1.12.390
com.amazonaws aws-java-sdk-ec2 1.12.390
com.amazonaws aws-java-sdk-ecs 1.12.390
com.amazonaws aws-java-sdk-efs 1.12.390
com.amazonaws aws-java-sdk-elasticache 1.12.390
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.390
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.390
com.amazonaws aws-java-sdk-elastictranscoder 1.12.390
com.amazonaws aws-java-sdk-emr 1.12.390
com.amazonaws aws-java-sdk-glacier 1.12.390
com.amazonaws aws-java-sdk-glue 1.12.390
com.amazonaws aws-java-sdk-iam 1.12.390
com.amazonaws aws-java-sdk-importexport 1.12.390
com.amazonaws aws-java-sdk-kinesis 1.12.390
com.amazonaws aws-java-sdk-kms 1.12.390
com.amazonaws aws-java-sdk-lambda 1.12.390
com.amazonaws aws-java-sdk-logs 1.12.390
com.amazonaws aws-java-sdk-machinelearning 1.12.390
com.amazonaws aws-java-sdk-opsworks 1.12.390
com.amazonaws aws-java-sdk-rds 1.12.390
com.amazonaws aws-java-sdk-redshift 1.12.390
com.amazonaws aws-java-sdk-route53 1.12.390
com.amazonaws aws-java-sdk-s3 1.12.390
com.amazonaws aws-java-sdk-ses 1.12.390
com.amazonaws aws-java-sdk-simpledb 1.12.390
com.amazonaws aws-java-sdk-simpleworkflow 1.12.390
com.amazonaws aws-java-sdk-sns 1.12.390
com.amazonaws aws-java-sdk-sqs 1.12.390
com.amazonaws aws-java-sdk-ssm 1.12.390
com.amazonaws aws-java-sdk-storagegateway 1.12.390
com.amazonaws aws-java-sdk-sts 1.12.390
com.amazonaws aws-java-sdk-support 1.12.390
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.390
com.amazonaws jmespath-java 1.12.390
com.clearspring.analytics transmissão em fluxo 2.9.6
com.databricks Rserve 1.8-3
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2,12 0.4.15-10
com.esotericsoftware sombreado de kryo 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml colega de turma 1.3.4
com.fasterxml.jackson.core jackson-anotações 2.14.2
com.fasterxml.jackson.core jackson-core 2.14.2
com.fasterxml.jackson.core jackson-databind 2.14.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.14.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.14.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.13.4
com.fasterxml.jackson.module jackson-module-paranamer 2.14.2
com.fasterxml.jackson.module jackson-módulo-scala_2.12 2.14.2
com.github.ben-manes.cafeína cafeína 2.9.3
com.github.fommil jniloader 1.1
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java 1.1-Nativos
com.github.fommil.netlib native_system-java 1.1
com.github.fommil.netlib native_system-java 1.1-Nativos
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-Nativos
com.github.fommil.netlib netlib-native_system-linux-x86_64 1.1-Nativos
com.github.luben ZSTD-JNI 1.5.2-5
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.8.9
com.google.crypto.tink Tink 1.7.0
com.google.errorprone error_prone_annotations 2.10.0
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava guava 15.0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 2.1.214
com.helger criador de perfil 1.1.1
com.jcraft jsch 0.1.55
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.ning compress-lzf 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind JAXB-CORE 2.2.11
com.sun.xml.bind JAXB-IMPL 2.2.11
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe configuração 1.2.1
com.typesafe.scala-logging Escala-logging_2.12 3.7.2
com.uber h3 3.7.0
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1,15
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
registo de comuns registo de comuns 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib ARPACK 3.0.3
dev.ludovic.netlib Blas 3.0.3
dev.ludovic.netlib Lapack | 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.ponte aérea compressor de ar 0.21
IO.Delta delta-compartilhamento-spark_2.12 0.6.4
io.dropwizard.metrics metrics-core 4.2.10
io.dropwizard.metrics metrics-graphite 4.2.10
io.dropwizard.metrics metrics-healthchecks 4.2.10
io.dropwizard.metrics metrics-jetty9 4.2.10
io.dropwizard.metrics métricas-jmx 4.2.10
io.dropwizard.metrics metrics-json 4.2.10
io.dropwizard.metrics metrics-jvm 4.2.10
io.dropwizard.metrics metrics-servlets 4.2.10
io.netty netty-all 4.1.87.Final
io.netty netty-buffer 4.1.87.Final
io.netty netty-codec 4.1.87.Final
io.netty netty-codec-http 4.1.87.Final
io.netty netty-codec-http2 4.1.87.Final
io.netty netty-codec-meias 4.1.87.Final
io.netty netty-comum 4.1.87.Final
io.netty netty-manipulador 4.1.87.Final
io.netty netty-handler-proxy 4.1.87.Final
io.netty netty-resolver 4.1.87.Final
io.netty transporte de rede 4.1.87.Final
io.netty netty-transport-classes-epoll 4.1.87.Final
io.netty netty-transport-classes-kqueue 4.1.87.Final
io.netty netty-transport-native-epoll 4.1.87.Final
io.netty netty-transport-native-epoll 4.1.87.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.87.Final-linux-x86_64
io.netty netty-transport-nativo-kqueue 4.1.87.Final-osx-aarch_64
io.netty netty-transport-nativo-kqueue 4.1.87.Final-osx-x86_64
io.netty netty-transport-nativo-unix-comum 4.1.87.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx recoletor 0.12.0
jacarta.anotação Jacarta.Anotação-API 1.3.5
jacarta.servlet jacarta.servlet-api 4.0.3
jacarta.validação Jacarta.validation-api 2.0.2
jakarta.ws.rs Jacarta.ws.rs-api 2.1.6
javax.activation ativação 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction API de transação 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.12.1
ml.combust.mleap mleap-databricks-runtime_2.12 v0.20.0-db2
net.java.dev.jna JNA 5.8.0
net.razorvine picles 1.3
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.floco de neve flocos de neve-ingestão-sdk 0.9.6
net.floco de neve Flocos de Neve-JDBC 3.13.22
net.sourceforge.f2j arpack_combined_all 0.1
org.acplt.remotetea Remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.9.3
org.antlr stringtemplate 3.2.1
org.apache.ant formiga 1.9.16
org.apache.ant ant-jsch 1.9.16
org.apache.ant ant-launcher 1.9.16
org.apache.arrow formato de seta 11.0.0
org.apache.arrow seta-memória-núcleo 11.0.0
org.apache.arrow seta-memória-netty 11.0.0
org.apache.arrow vetor de seta 11.0.0
org.apache.avro avro 1.11.1
org.apache.avro avro-ipc 1.11.1
org.apache.avro avro-mapeado 1.11.1
org.apache.commons colecções-commons4 4.4
org.apache.commons commons-compress 1.21
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-texto 1.10.0
org.apache.curator curador-cliente 2.13.0
org.apache.curator curador-framework 2.13.0
org.apache.curator curador-receitas 2.13.0
org.apache.datasketches Datasketches-Java 3.1.0
org.apache.datasketches datasketches-memória 2.0.0
org.apache.derby derby 10.14.2.0
org.apache.hadoop hadoop-client-runtime 3.3.4
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-cliente 2.3.9
org.apache.hive colmeia-lamp-comum 2.3.9
org.apache.hive Colmeia-Serde 2.3.9
org.apache.hive colmeias-calços 2.3.9
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims colmeia-calços-0,23 2.3.9
org.apache.hive.shims colmeia-calços-comum 2.3.9
org.apache.hive.shims colmeia-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy hera 2.5.1
org.apache.logging.log4j log4j-1.2-api 2.19.0
org.apache.logging.log4j log4j-api 2.19.0
org.apache.logging.log4j log4j-core 2.19.0
org.apache.logging.log4j log4j-slf4j2-impl 2.19.0
org.apache.mesos mesos 1.11.0-protobuf sombreado
org.apache.orc orc-núcleo 1.8.3-protobuf sombreado
org.apache.orc orc-mapreduce 1.8.3-protobuf sombreado
org.apache.orc Orc-calços 1.8.3
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-sombreado 4.22
org.apache.yetus anotações de audiência 0.13.0
org.apache.zookeeper zookeeper 3.6.3
org.apache.zookeeper zookeeper-juta 3.6.3
org.checkerframework verificador-qual 3.19.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.50.v20221201
org.eclipse.jetty jetty-continuation 9.4.50.v20221201
org.eclipse.jetty jetty-http 9.4.50.v20221201
org.eclipse.jetty jetty-io 9.4.50.v20221201
org.eclipse.jetty jetty-jndi 9.4.50.v20221201
org.eclipse.jetty jetty-plus 9.4.50.v20221201
org.eclipse.jetty jetty-proxy 9.4.50.v20221201
org.eclipse.jetty jetty-security 9.4.50.v20221201
org.eclipse.jetty jetty-server 9.4.50.v20221201
org.eclipse.jetty jetty-servlet 9.4.50.v20221201
org.eclipse.jetty jetty-servlets 9.4.50.v20221201
org.eclipse.jetty jetty-util 9.4.50.v20221201
org.eclipse.jetty cais-util-ajax 9.4.50.v20221201
org.eclipse.jetty jetty-webapp 9.4.50.v20221201
org.eclipse.jetty jetty-xml 9.4.50.v20221201
org.eclipse.jetty.websocket API WebSocket 9.4.50.v20221201
org.eclipse.jetty.websocket Websocket-cliente 9.4.50.v20221201
org.eclipse.jetty.websocket Websocket-Comum 9.4.50.v20221201
org.eclipse.jetty.websocket servidor websocket 9.4.50.v20221201
org.eclipse.jetty.websocket Websocket-servlet 9.4.50.v20221201
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 localizador hk2 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jacarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.36
org.glassfish.jersey.containers jersey-container-servlet-core 2.36
org.glassfish.jersey.core jersey-client 2.36
org.glassfish.jersey.core jersey-common 2.36
org.glassfish.jersey.core servidor de jersey 2.36
org.glassfish.jersey.inject Jersey-HK2 2.36
org.hibernate.validator hibernate-validator 6.1.7.Final
org.javassist javassist 3.25.0-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains anotações 17.0.0
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s JSON4S-ast_2.12 3.7.0-M11
org.json4s JSON4S-core_2.12 3.7.0-M11
org.json4s JSON4S-jackson_2,12 3.7.0-M11
org.json4s JSON4S-scalap_2.12 3.7.0-M11
org.lz4 LZ4-Java 1.8.0
org.mariadb.jdbc mariadb-java-client 2.7.4
org.mlflow MLFLOW-Faísca 2.2.0
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.3.8
org.roaringbitmap RoaringBitmap 0.9.39
org.roaringbitmap calços 0.9.39
org.rocksdb rocksdbjni 7.8.3
org.rosuda.REngine REngine 2.1.0
org.scala-lang Escala-compiler_2.12 2.12.15
org.scala-lang Escala-library_2.12 2.12.15
org.scala-lang Escala-reflect_2,12 2.12.15
org.scala-lang.modules scala-coleção-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules Escala-xml_2.12 1.2.0
org.scala-sbt interface de teste 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.2.15
org.scalanlp Brisa-macros_2.12 2.1.0
org.scalanlp breeze_2.12 2.1.0
org.scalatest compatível com scalatest 3.2.15
org.scalatest scalatest-core_2.12 3.2.15
org.scalatest scalatest-diagrams_2.12 3.2.15
org.scalatest scalatest-featurespec_2.12 3.2.15
org.scalatest scalatest-flatspec_2.12 3.2.15
org.scalatest scalatest-freespec_2.12 3.2.15
org.scalatest scalatest-funspec_2.12 3.2.15
org.scalatest scalatest-funsuite_2.12 3.2.15
org.scalatest scalatest-matchers-core_2.12 3.2.15
org.scalatest scalatest-mustmatchers_2.12 3.2.15
org.scalatest scalatest-propspec_2.12 3.2.15
org.scalatest scalatest-refspec_2.12 3.2.15
org.scalatest scalatest-shouldmatchers_2.12 3.2.15
org.scalatest scalatest-wordspec_2.12 3.2.15
org.scalatest scalatest_2.12 3.2.15
org.slf4j jcl-over-slf4j 2.0.6
org.slf4j jul-to-slf4j 2.0.6
org.slf4j slf4j-api 2.0.6
org.threeten trêsdez-extra 1.7.1
org.tukaani xz 1.9
org.typelevel algebra_2.12 2.0.1
org.typelevel gatos-kernel_2.12 2.1.1
org.typelevel torre-macros_2.12 0.17.0
org.typelevel torre-platform_2.12 0.17.0
org.typelevel torre-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl mosca-selvagem-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.8.4
org.yaml snakeyaml 1.33
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 1.6.1-linux-x86_64
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1