Partilhar via


Databricks Runtime 12.1 (sem suporte)

As notas de versão a seguir fornecem informações sobre o Databricks Runtime 12.1, alimentado pelo Apache Spark 3.3.1.

A Databricks divulgou essas imagens em janeiro de 2023.

Novos recursos e melhorias

Recursos de tabela Delta Lake suportados para gerenciamento de protocolo

O Azure Databricks introduziu suporte para recursos de tabela Delta Lake, que introduzem sinalizadores granulares especificando quais recursos são suportados por uma determinada tabela. Consulte Como o Azure Databricks gerencia a compatibilidade de recursos do Delta Lake?.

A E/S preditiva para atualizações está em pré-visualização pública

A E/S preditiva agora acelera DELETE, MERGEe UPDATE as operações para tabelas Delta com vetores de exclusão habilitados na computação habilitada para Photon. Consulte O que é E/S preditiva?.

O Catalog Explorer já está disponível para todas as personas

O Catalog Explorer agora está disponível para todas as personas do Azure Databricks ao usar o Databricks Runtime 7.3 LTS e superior.

Suporte para vários operadores com monitoração de estado em uma única consulta de streaming

Os usuários agora podem encadear operadores com estado com o modo de acréscimo na consulta de streaming. Nem todos os operadores são totalmente suportados. O intervalo de tempo de fluxo de fluxo une-se e flatMapGroupsWithState não permite que outros operadores com estado sejam encadeados.

O suporte para buffers de protocolo está em Visualização Pública

Você pode usar as from_protobuf funções e para trocar dados entre os tipos binário e to_protobuf struct. Consulte Buffers de protocolo de leitura e gravação.

Suporte para autenticação do Registro de Esquema Confluente

A integração do Azure Databricks com o Confluent Schema Registry agora oferece suporte a endereços de registro de esquema externos com autenticação. Este recurso está disponível para from_avro, , from_protobufto_avroe to_protobuf funções. Veja Protobuf ou Avro.

Suporte para compartilhar o histórico da tabela com compartilhamentos Delta Sharing

Agora você pode compartilhar uma tabela com histórico completo usando o Compartilhamento Delta, permitindo que os destinatários realizem consultas de viagem no tempo e consultem a tabela usando o Spark Structured Streaming. WITH HISTORY é recomendado em vez de , embora este último continue a ser apoiado CHANGE DATA FEED. Consulte ALTER SHARE e Adicionar tabelas a uma partilha.

Suporte para streaming com compartilhamentos Delta Sharing

O Spark Structured Streaming agora funciona com o formato deltasharing em uma tabela de compartilhamento delta de origem que foi compartilhada usando WITH HISTORYo .

Versão da tabela usando carimbo de data/hora agora suportada para tabelas Delta Sharing em catálogos

Agora você pode usar a sintaxe TIMESTAMP AS OF SQL em instruções para especificar a versão de uma tabela de Compartilhamento Delta montada em SELECT um catálogo. As tabelas devem ser compartilhadas usando WITH HISTORY.

Suporte para QUANDO NÃO CORRESPONDIDO PELA ORIGEM para MESCLAR EM

Agora você pode adicionar WHEN NOT MATCHED BY SOURCE cláusulas para MERGE INTO atualizar ou excluir linhas na tabela escolhida que não tenham correspondências na tabela de origem com base na condição de mesclagem. A nova cláusula está disponível em SQL, Python, Scala e Java. Consulte MERGE INTO.

Recolha de estatísticas otimizada para CONVERT TO DELTA

A recolha de estatísticas para a CONVERT TO DELTA operação é agora muito mais rápida. Isso reduz o número de cargas de trabalho que podem ser usadas NO STATISTICS para eficiência.

Suporte do Unity Catalog para undrop tables

Este recurso foi inicialmente lançado no Public Preview. É GA a partir de 25 de outubro de 2023.

Agora você pode descartar uma tabela gerenciada ou externa descartada em um esquema existente dentro de sete dias após a queda. Consulte UNDROP TABLE e SHOW TABLES DROPPED.

Atualizações da biblioteca

  • Bibliotecas Python atualizadas:
    • filelock de 3.8.0 a 3.8.2
    • platformdirs de 2.5.4 a 2.6.0
    • setuptools de 58.0.4 a 61.2.0
  • Bibliotecas R atualizadas:
  • Bibliotecas Java atualizadas:
    • io.delta.delta-sharing-spark_2.12 de 0.5.2 a 0.6.2
    • org.apache.hive.hive-storage-api de 2.7.2 a 2.8.1
    • org.apache.parquet.parquet-coluna de 1.12.3-databricks-0001 a 1.12.3-databricks-0002
    • org.apache.parquet.parquet-comum de 1.12.3-databricks-0001 a 1.12.3-databricks-0002
    • org.apache.parquet.parquet-codificação de 1.12.3-databricks-0001 a 1.12.3-databricks-0002
    • org.apache.parquet.parquet-format-structures de 1.12.3-databricks-0001 a 1.12.3-databricks-0002
    • org.apache.parquet.parquet-hadoop de 1.12.3-databricks-0001 a 1.12.3-databricks-0002
    • org.apache.parquet.parquet-jackson de 1.12.3-databricks-0001 a 1.12.3-databricks-0002
    • org.tukaani.xz de 1.8 a 1.9

Faísca Apache

O Databricks Runtime 12.1 inclui o Apache Spark 3.3.1. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 12.0 (sem suporte), bem como as seguintes correções de bugs adicionais e melhorias feitas no Spark:

  • [FAÍSCA-41405] [SC-119769] [12.1.0] Reverter "[SC-119411][SQL] Centralizar a lógica de resolução de colunas" e "[SC-117170][SPARK-41338][SQL] Resolver referências externas e colunas normais no mesmo lote do analisador"
  • [FAÍSCA-41405] [SC-119411] [SQL] Centralizar a lógica de resolução da coluna
  • [FAÍSCA-41859] [SC-119514] [SQL] CreateHiveTableAsSelectCommand deve definir o sinalizador de substituição corretamente
  • [FAÍSCA-41659] [SC-119526] [CONECTAR] [12.X] Ativar doctests em pyspark.sql.connect.readwriter
  • [FAÍSCA-41858] [SC-119427] [SQL] Corrigir regressão perf do leitor ORC devido ao recurso de valor DEFAULT
  • [FAÍSCA-41807] [SC-119399] [CORE] Remova a classe de erro inexistente: UNSUPPORTED_FEATURE. DISTRIBUTE_BY
  • [FAÍSCA-41578] [12.x] [SC-119273] [SQL] Atribuir nome a _LEGACY_ERROR_TEMP_2141
  • [FAÍSCA-41571] [SC-119362] [SQL] Atribuir nome a _LEGACY_ERROR_TEMP_2310
  • [FAÍSCA-41810] [SC-119373] [CONECTAR] Inferir nomes de uma lista de dicionários em SparkSession.createDataFrame
  • [FAÍSCA-40993] [SC-119504] [FAÍSCA-41705] [CONECTAR] [12.X] Mova a documentação e o script do Spark Connect para a documentação dev/ e Python
  • [FAÍSCA-41534] [SC-119456] [CONECTAR] [SQL] [12.x] Configurar o módulo de cliente inicial para o Spark Connect
  • [FAÍSCA-41365] [SC-118498] [UI] [3.3] A página Stages UI não é carregada para proxy em ambiente de fio específico
  • [FAÍSCA-41481] [SC-118150] [CORE] [SQL] Reutilizar INVALID_TYPED_LITERAL em vez de _LEGACY_ERROR_TEMP_0020
  • [FAÍSCA-41049] [SC-119305] [SQL] Revisitar a manipulação de expressões com monitoração de estado
  • [FAÍSCA-41726] [SC-119248] [SQL] Remover OptimizedCreateHiveTableAsSelectCommand
  • [FAÍSCA-41271] [SC-118648] [SC-118348] [SQL] Suporte a consultas SQL parametrizadas por sql()
  • [FAÍSCA-41066] [SC-119344] [CONECTAR] [PYTHON] Implementar DataFrame.sampleBy e DataFrame.stat.sampleBy
  • [FAÍSCA-41407] [SC-119402] [SC-119012] [SQL] [TODOS OS TESTES] Extrair v1 gravar em WriteFiles
  • [FAÍSCA-41565] [SC-118868] [SQL] Adicionar a classe de erro UNRESOLVED_ROUTINE
  • [FAÍSCA-41668] [SC-118925] [SQL] A função DECODE retorna resultados errados quando passado NULL
  • [FAÍSCA-41554] [SC-119274] corrigir a mudança da escala decimal quando a escala diminuiu em m...
  • [FAÍSCA-41065] [SC-119324] [CONECTAR] [PYTHON] Implementar DataFrame.freqItems e DataFrame.stat.freqItems
  • [FAÍSCA-41742] [SC-119404] [FAÍSCA-41745] [CONECTAR] [12.X] Reativar testes de documentos e adicionar alias de coluna ausente para count()
  • [FAÍSCA-41069] [SC-119310] [CONECTAR] [PYTHON] Implementar DataFrame.approxQuantile e DataFrame.stat.approxQuantile
  • [FAÍSCA-41809] [SC-119367] [CONECTAR] [PYTHON] Tornar a função from_json suporte DataType Schema
  • [FAÍSCA-41804] [SC-119382] [SQL] Escolha o tamanho correto do elemento para InterpretedUnsafeProjection a matriz de UDTs
  • [FAÍSCA-41786] [SC-119308] [CONECTAR] [PYTHON] Eliminar a duplicação de funções auxiliares
  • [FAÍSCA-41745] [SC-119378] [FAÍSCA-41789] [12.X] Criar createDataFrame lista de suporte de Linhas
  • [FAÍSCA-41344] [SC-119217] [SQL] Tornar o erro mais claro quando a tabela não for encontrada no catálogo SupportsCatalogOptions
  • [FAÍSCA-41803] [SC-119380] [CONECTAR] [PYTHON] Adicionar função em falta log(arg1, arg2)
  • [FAÍSCA-41808] [SC-119356] [CONECTAR] [PYTHON] Tornar as funções JSON opções de suporte
  • [FAÍSCA-41779] [SC-119275] [FAÍSCA-41771] [CONECTAR] [PYTHON] Faça __getitem__ o filtro de suporte e selecione
  • [FAÍSCA-41783] [SC-119288] [FAÍSCA-41770] [CONECTAR] [PYTHON] Fazer coluna op suporte Nenhum
  • [FAÍSCA-41440] [SC-119279] [CONECTAR] [PYTHON] Evite o operador de cache para Sample geral.
  • [FAÍSCA-41785] [SC-119290] [CONECTAR] [PYTHON] Implementar GroupedData.mean
  • [FAÍSCA-41629] [SC-119276] [CONECTAR] Suporte para extensões de protocolo em relação e expressão
  • [FAÍSCA-41417] [SC-118000] [CORE] [SQL] Renomear _LEGACY_ERROR_TEMP_0019 para INVALID_TYPED_LITERAL
  • [FAÍSCA-41533] [SC-119342] [CONECTAR] [12.X] Tratamento adequado de erros para o Spark Connect Server / Client
  • [FAÍSCA-41292] [SC-119357] [CONECTAR] [12.X] Janela de suporte no namespace pyspark.sql.window
  • [FAÍSCA-41493] [SC-119339] [CONECTAR] [PYTHON] Tornar as funções csv opções de suporte
  • [FAÍSCA-39591] [SC-118675] [SS] Acompanhamento assíncrono do progresso
  • [FAÍSCA-41767] [SC-119337] [CONECTAR] [PYTHON] [12.X] Implementar Column.{withField, dropFields}
  • [FAÍSCA-41068] [SC-119268] [CONECTAR] [PYTHON] Implementar DataFrame.stat.corr
  • [FAÍSCA-41655] [SC-119323] [CONECTAR] [12.X] Ativar doctests em pyspark.sql.connect.column
  • [FAÍSCA-41738] [SC-119170] [CONECTAR] Misture ClientId no cache do SparkSession
  • [FAÍSCA-41354] [SC-119194] [CONECTAR] Adicionar RepartitionByExpression ao proto
  • [FAÍSCA-41784] [SC-119289] [CONECTAR] [PYTHON] Adicionar ausente __rmod__ na coluna
  • [FAÍSCA-41778] [SC-119262] [SQL] Adicionar um alias "reduce" a ArrayAggregate
  • [FAÍSCA-41067] [SC-119171] [CONECTAR] [PYTHON] Implementar DataFrame.stat.cov
  • [FAÍSCA-41764] [SC-119216] [CONECTAR] [PYTHON] Torne o nome da operação de cadeia de caracteres interna consistente com FunctionRegistry
  • [FAÍSCA-41734] [SC-119160] [CONECTAR] Adicionar uma mensagem pai para o Catálogo
  • [FAÍSCA-41742] [SC-119263] Suporte df.groupBy().agg({"*":"count"})
  • [FAÍSCA-41761] [SC-119213] [CONECTAR] [PYTHON] Corrigir operações aritméticas: __neg__, , __pow____rpow__
  • [FAÍSCA-41062] [SC-118182] [SQL] Renomear UNSUPPORTED_CORRELATED_REFERENCE para CORRELATED_REFERENCE
  • [FAÍSCA-41751] [SC-119211] [CONECTAR] [PYTHON] Corrigir Column.{isNull, isNotNull, eqNullSafe}
  • [FAÍSCA-41728] [SC-119164] [CONECTAR] [PYTHON] [12.X] Implementar unwrap_udt função
  • [FAÍSCA-41333] [SC-119195] [FAÍSCA-41737] Implementar GroupedData.{min, max, avg, sum}
  • [FAÍSCA-41751] [SC-119206] [CONECTAR] [PYTHON] Corrigir Column.{bitwiseAND, bitwiseOR, bitwiseXOR}
  • [FAÍSCA-41631] [SC-101081] [SQL] Suporte à resolução implícita de alias de coluna lateral no Aggregate
  • [FAÍSCA-41529] [SC-119207] [CONECTAR] [12.X] Implementar SparkSession.stop
  • [FAÍSCA-41729] [SC-119205] [CORE] [SQL] [12.X] Renomear _LEGACY_ERROR_TEMP_0011 para UNSUPPORTED_FEATURE.COMBINATION_QUERY_RESULT_CLAUSES
  • [FAÍSCA-41717] [SC-119078] [CONECTAR] [12.X] Eliminar a duplicação de impressão e repr_html na LogicalPlan
  • [FAÍSCA-41740] [SC-119169] [CONECTAR] [PYTHON] Implementar Column.name
  • [FAÍSCA-41733] [SC-119163] [SQL] [SS] Aplicar poda baseada em padrão de árvore para a regra ResolveWindowTime
  • [FAÍSCA-41732] [SC-119157] [SQL] [SS] Aplicar poda baseada em padrão de árvore para a regra SessionWindowing
  • [FAÍSCA-41498] [SC-119018] Propagar metadados através da União
  • [FAÍSCA-41731] [SC-119166] [CONECTAR] [PYTHON] [12.X] Implementar o acessador de coluna
  • [FAÍSCA-41736] [SC-119161] [CONECTAR] [PYTHON] pyspark_types_to_proto_types deve apoiar ArrayType
  • [FAÍSCA-41473] [SC-119092] [CONECTAR] [PYTHON] Implementar format_number função
  • [FAÍSCA-41707] [SC-119141] [CONECTAR] [12.X] Implementar a API de catálogo no Spark Connect
  • [FAÍSCA-41710] [SC-119062] [CONECTAR] [PYTHON] Implementar Column.between
  • [FAÍSCA-41235] [SC-119088] [SQL] [PYTHON] Função de alta ordem: array_compact implementação
  • [FAÍSCA-41518] [SC-118453] [SQL] Atribuir um nome à classe de erro _LEGACY_ERROR_TEMP_2422
  • [FAÍSCA-41723] [SC-119091] [CONECTAR] [PYTHON] Implementar sequence função
  • [FAÍSCA-41703] [SC-119060] [CONECTAR] [PYTHON] Combine NullType e typed_null em literal
  • [FAÍSCA-41722] [SC-119090] [CONECTAR] [PYTHON] Implementar 3 funções de janela de tempo ausentes
  • [FAÍSCA-41503] [SC-119043] [CONECTAR] [PYTHON] Implementar funções de transformação de partição
  • [FAÍSCA-41413] [SC-118968] [SQL] Evite embaralhar em Junção particionada de armazenamento quando as chaves de partição não corresponderem, mas as expressões de junção são compatíveis
  • [FAÍSCA-41700] [SC-119046] [CONECTAR] [PYTHON] Remover FunctionBuilder
  • [FAÍSCA-41706] [SC-119094] [CONECTAR] [PYTHON] pyspark_types_to_proto_types deve apoiar MapType
  • [FAÍSCA-41702] [SC-119049] [CONECTAR] [PYTHON] Adicionar operações de coluna inválidas
  • [FAÍSCA-41660] [SC-118866] [SQL] Propagar colunas de metadados somente se elas forem usadas
  • [FAÍSCA-41637] [SC-119003] [SQL] ENCOMENDAR POR TODOS
  • [FAÍSCA-41513] [SC-118945] [SQL] Implementar um acumulador para coletar métricas de contagem de linhas por mapeador
  • [FAÍSCA-41647] [SC-119064] [CONECTAR] [12.X] Eliminar a duplicação de docstrings em pyspark.sql.connect.functions
  • [FAÍSCA-41701] [SC-119048] [CONECTAR] [PYTHON] Fazer suporte a operações de coluna decimal
  • [FAÍSCA-41383] [SC-119015] [FAÍSCA-41692] [FAÍSCA-41693] Implementar rollup, cube e pivot
  • [FAÍSCA-41635] [SC-118944] [SQL] GRUPO POR TODOS
  • [FAÍSCA-41645] [SC-119057] [CONECTAR] [12.X] Desduplicar docstrings em pyspark.sql.connect.dataframe
  • [FAÍSCA-41688] [SC-118951] [CONECTAR] [PYTHON] Mover expressões para expressions.py
  • [FAÍSCA-41687] [SC-118949] [CONECTAR] Eliminar a duplicação de docstrings em pyspark.sql.connect.group
  • [FAÍSCA-41649] [SC-118950] [CONECTAR] Deduplicar docstrings em pyspark.sql.connect.window
  • [FAÍSCA-41681] [SC-118939] [CONECTAR] Fator GroupedData para group.py
  • [FAÍSCA-41292] [SC-119038] [FAÍSCA-41640] [FAÍSCA-41641] [CONECTAR] [PYTHON] [12.X] Implementar Window funções
  • [FAÍSCA-41675] [SC-119031] [SC-118934] [CONECTAR] [PYTHON] [12.X] Fazer suporte à operação de coluna datetime
  • [FAÍSCA-41672] [SC-118929] [CONECTAR] [PYTHON] Ativar as funções preteridas
  • [FAÍSCA-41673] [SC-118932] [CONECTAR] [PYTHON] Implementar Column.astype
  • [FAÍSCA-41364] [SC-118865] [CONECTAR] [PYTHON] Implementar broadcast função
  • [FAÍSCA-41648] [SC-118914] [CONECTAR] [12.X] Deduplicar docstrings em pyspark.sql.connect.readwriter
  • [FAÍSCA-41646] [SC-118915] [CONECTAR] [12.X] Eliminar a duplicação de docstrings em pyspark.sql.connect.session
  • [FAÍSCA-41643] [SC-118862] [CONECTAR] [12.X] Deduplicar docstrings em pyspark.sql.connect.column
  • [FAÍSCA-41663] [SC-118936] [CONECTAR] [PYTHON] [12.X] Implementar o restante das funções do Lambda
  • [FAÍSCA-41441] [SC-118557] [SQL] Suporte Gerar sem saída filho necessária para hospedar referências externas
  • [FAÍSCA-41669] [SC-118923] [SQL] Poda antecipada em canCollapseExpressions
  • [FAÍSCA-41639] [SC-118927] [SQL] [PROTOBUF] : Remover ScalaReflectionLock de SchemaConverters
  • [FAÍSCA-41464] [SC-118861] [CONECTAR] [PYTHON] Implementar DataFrame.to
  • [FAÍSCA-41434] [SC-118857] [CONECTAR] [PYTHON] Execução inicial LambdaFunction
  • [FAÍSCA-41539] [SC-118802] [SQL] Remapear estatísticas e restrições em relação à saída no plano lógico para LogicalRDD
  • [FAÍSCA-41396] [SC-118786] [SQL] [PROTOBUF] OneOf suporte de campo e verificações de recursão
  • [FAÍSCA-41528] [SC-118769] [CONECTAR] [12.X] Mesclar namespace do Spark Connect e da API do PySpark
  • [FAÍSCA-41568] [SC-118715] [SQL] Atribuir nome a _LEGACY_ERROR_TEMP_1236
  • [FAÍSCA-41440] [SC-118788] [CONECTAR] [PYTHON] Implementar DataFrame.randomSplit
  • [FAÍSCA-41583] [SC-118718] [SC-118642] [CONECTAR] [PROTOBUF] Adicione o Spark Connect e o protobuf ao setup.py com a especificação de dependências
  • [FAÍSCA-27561] [SC-101081] [12.x] [SQL] Suporte à resolução implícita de alias de coluna lateral no Project
  • [FAÍSCA-41535] [SC-118645] [SQL] Definir null corretamente para campos de intervalo de calendário em InterpretedUnsafeProjection e InterpretedMutableProjection
  • [FAÍSCA-40687] [SC-118439] [SQL] Suporte de mascaramento de dados built-in função 'máscara'
  • [FAÍSCA-41520] [SC-118440] [SQL] Divida AND_OR TreePattern para separar E e OU TreePatterns
  • [FAÍSCA-41349] [SC-118668] [CONECTAR] [PYTHON] Implementar DataFrame.hint
  • [FAÍSCA-41546] [SC-118541] [CONECTAR] [PYTHON] pyspark_types_to_proto_types deve suportar StructType.
  • [FAÍSCA-41334] [SC-118549] [CONECTAR] [PYTHON] Mover SortOrder proto de relações para expressões
  • [FAÍSCA-41387] [SC-118450] [SS] Afirmar o deslocamento final atual da fonte de dados Kafka para Trigger.AvailableNow
  • [FAÍSCA-41508] [SC-118445] [CORE] [SQL] Renomear _LEGACY_ERROR_TEMP_1180 e UNEXPECTED_INPUT_TYPE remover _LEGACY_ERROR_TEMP_1179
  • [FAÍSCA-41319] [SC-118441] [CONECTAR] [PYTHON] Coluna Implementar. {quando, caso contrário} e Função when com UnresolvedFunction
  • [FAÍSCA-41541] [SC-118460] [SQL] Corrigir chamada para método filho errado em SQLShuffleWriteMetricsReporter.decRecordsWritten()
  • [FAÍSCA-41453] [SC-118458] [CONECTAR] [PYTHON] Implementar DataFrame.subtract
  • [FAÍSCA-41248] [SC-118436] [SC-118303] [SQL] Adicione "spark.sql.json.enablePartialResults" para ativar/desabilitar resultados parciais JSON
  • [FAÍSCA-41437] Revert "[SC-117601][SQL] Não otimize o inputquery duas vezes para fallback de gravação v1"
  • [FAÍSCA-41472] [SC-118352] [CONECTAR] [PYTHON] Implementar o resto das funções string/binárias
  • [FAÍSCA-41526] [SC-118355] [CONECTAR] [PYTHON] Implementar Column.isin
  • [FAÍSCA-32170] [SC-118384] [CORE] Melhore a especulação através das métricas da tarefa de palco.
  • [FAÍSCA-41524] [SC-118399] [SS] Diferencie SQLConf e extraOptions em StateStoreConf para seu uso em RocksDBConf
  • [FAÍSCA-41465] [SC-118381] [SQL] Atribua um nome à classe de erro _LEGACY_ERROR_TEMP_1235
  • [FAÍSCA-41511] [SC-118365] [SQL] O suporte LongToUnsafeRowMap ignora DuplicatedKey
  • [FAÍSCA-41409] [SC-118302] [CORE] [SQL] Renomear _LEGACY_ERROR_TEMP_1043 para WRONG_NUM_ARGS.WITHOUT_SUGGESTION
  • [FAÍSCA-41438] [SC-118344] [CONECTAR] [PYTHON] Implementar DataFrame.colRegex
  • [FAÍSCA-41437] [SC-117601] [SQL] Não otimize a consulta de entrada duas vezes para fallback de gravação v1
  • [FAÍSCA-41314] [SC-117172] [SQL] Atribuir um nome à classe de erro _LEGACY_ERROR_TEMP_1094
  • [FAÍSCA-41443] [SC-118004] [SQL] Atribuir um nome à classe de erro _LEGACY_ERROR_TEMP_1061
  • [FAÍSCA-41506] [SC-118241] [CONECTAR] [PYTHON] Refatore LiteralExpression para suportar DataType
  • [FAÍSCA-41448] [SC-118046] Crie IDs de trabalho MR consistentes em FileBatchWriter e FileFormatWriter
  • [FAÍSCA-41456] [SC-117970] [SQL] Melhorar o desempenho de try_cast
  • [FAÍSCA-41495] [SC-118125] [CONECTAR] [PYTHON] Implementar collection funções: P ~ Z
  • [FAÍSCA-41478] [SC-118167] [SQL] Atribua um nome à classe de erro _LEGACY_ERROR_TEMP_1234
  • [FAÍSCA-41406] [SC-118161] [SQL] Mensagem NUM_COLUMNS_MISMATCH de erro refatorar para torná-lo mais genérico
  • [FAÍSCA-41404] [SC-118016] [SQL] Refatorar ColumnVectorUtils#toBatch para tornar ColumnarBatchSuite#testRandomRows o teste mais primitivo dataType
  • [FAÍSCA-41468] [SC-118044] [SQL] Corrigir a manipulação de PlanExpression em EquivalentExpressions
  • [FAÍSCA-40775] [SC-118045] [SQL] Corrigir entradas de descrição duplicadas para verificações de arquivos V2
  • [FAÍSCA-41492] [SC-118042] [CONECTAR] [PYTHON] Implementar funções MISC
  • [FAÍSCA-41459] [SC-118005] [SQL] fix thrift server operation log output is empty
  • [FAÍSCA-41395] [SC-117899] [SQL] InterpretedMutableProjection deve usar setDecimal para definir valores nulos para decimais em uma linha não segura
  • [FAÍSCA-41376] [SC-117840] [CORE] [3.3] Corrija a lógica de verificação Netty preferDirectBufs no início do executor
  • [FAÍSCA-41484] [SC-118159] [SC-118036] [CONECTAR] [PYTHON] [12.x] Implementar collection funções: E~M
  • [FAÍSCA-41389] [SC-117426] [CORE] [SQL] Reutilizar WRONG_NUM_ARGS em vez de _LEGACY_ERROR_TEMP_1044
  • [FAÍSCA-41462] [SC-117920] [SQL] O tipo de carimbo de data e hora pode ser convertido para TimestampNTZ
  • [FAÍSCA-41435] [SC-117810] [SQL] Alterar para chamar invalidFunctionArgumentsErrorcurdate() quando expressions não estiver vazio
  • [FAÍSCA-41187] [SC-118030] [CORE] LiveExecutor MemoryLeak em AppStatusListener quando ExecutorLost acontecer
  • [FAÍSCA-41360] [SC-118083] [CORE] Evite o novo registro do BlockManager se o executor tiver sido perdido
  • [FAÍSCA-41378] [SC-117686] [SQL] Estatísticas de coluna de suporte no DS v2
  • [FAÍSCA-41402] [SC-117910] [SQL] [CONECTAR] [12.X] Substituir prettyName de StringDecode
  • [FAÍSCA-41414] [SC-118041] [CONECTAR] [PYTHON] [12.x] Implementar funções de carimbo de data/hora
  • [FAÍSCA-41329] [SC-117975] [CONECTAR] Resolver importações circulares no Spark Connect
  • [FAÍSCA-41477] [SC-118025] [CONECTAR] [PYTHON] Inferir corretamente o tipo de dados de inteiros literais
  • [FAÍSCA-41446] [SC-118024] [CONECTAR] [PYTHON] [12.x] Crie createDataFrame esquemas de suporte e mais tipos de conjuntos de dados de entrada
  • [FAÍSCA-41475] [SC-117997] [CONECTAR] Corrigir erro de comando lint-scala e erro de digitação
  • [FAÍSCA-38277] [SC-117799] [SS] Limpar lote de gravação após a confirmação do armazenamento de estado do RocksDB
  • [FAÍSCA-41375] [SC-117801] [SS] Evite o KafkaSourceOffset mais recente vazio
  • [FAÍSCA-41412] [SC-118015] [CONECTAR] Implementar Column.cast
  • [FAÍSCA-41439] [SC-117893] [CONECTAR] [PYTHON] Implementar DataFrame.melt e DataFrame.unpivot
  • [FAÍSCA-41399] [SC-118007] [SC-117474] [CONECTAR] Testes relacionados à coluna de refatoração para test_connect_column
  • [FAÍSCA-41351] [SC-117957] [SC-117412] [CONECTAR] [12.x] A coluna deve suportar != operador
  • [FAÍSCA-40697] [SC-117806] [SC-112787] [SQL] Adicionar preenchimento de caracteres do lado de leitura para cobrir arquivos de dados externos
  • [FAÍSCA-41349] [SC-117594] [CONECTAR] [12.X] Implementar DataFrame.hint
  • [FAÍSCA-41338] [SC-117170] [SQL] Resolver referências externas e colunas normais no mesmo lote do analisador
  • [FAÍSCA-41436] [SC-117805] [CONECTAR] [PYTHON] Implementar collection funções: A~C
  • [FAÍSCA-41445] [SC-117802] [CONECTAR] Implementar DataFrameReader.parquet
  • [FAÍSCA-41452] [SC-117865] [SQL] to_char deve retornar null quando format for null
  • [FAÍSCA-41444] [SC-117796] [CONECTAR] Suporte read.json()
  • [FAÍSCA-41398] [SC-117508] [SQL] Relaxe as restrições na junção particionada de armazenamento quando as chaves de partição após a filtragem de tempo de execução não corresponderem
  • [FAÍSCA-41228] [SC-117169] [SQL] Renomear & Melhorar mensagem de erro para COLUMN_NOT_IN_GROUP_BY_CLAUSE.
  • [FAÍSCA-41381] [SC-117593] [CONECTAR] [PYTHON] Implementação count_distinct e sum_distinct funções
  • [FAÍSCA-41433] [SC-117596] [CONECTAR] Torne o Max Arrow BatchSize configurável
  • [FAÍSCA-41397] [SC-117590] [CONECTAR] [PYTHON] Implementar parte de funções string/binárias
  • [FAÍSCA-41382] [SC-117588] [CONECTAR] [PYTHON] Implementar product função
  • [FAÍSCA-41403] [SC-117595] [CONECTAR] [PYTHON] Implementar DataFrame.describe
  • [FAÍSCA-41366] [SC-117580] [CONECTAR] DF.groupby.agg() deve ser compatível
  • [FAÍSCA-41369] [SC-117584] [CONECTAR] Adicionar conexão comum ao jar sombreado dos servidores
  • [FAÍSCA-41411] [SC-117562] [SS] Correção de bug de suporte a marca d'água de operador com vários estados
  • [FAÍSCA-41176] [SC-116630] [SQL] Atribuir um nome à classe de erro _LEGACY_ERROR_TEMP_1042
  • [FAÍSCA-41380] [SC-117476] [CONECTAR] [PYTHON] [12.X] Implementar funções de agregação
  • [FAÍSCA-41363] [SC-117470] [CONECTAR] [PYTHON] [12.X] Implementar funções normais
  • [FAÍSCA-41305] [SC-117411] [CONECTAR] Melhorar a documentação para o proto de comando
  • [FAÍSCA-41372] [SC-117427] [CONECTAR] [PYTHON] Implementar DataFrame TempView
  • [FAÍSCA-41379] [SC-117420] [SS] [PYTHON] Fornecer sessão de faísca clonada no DataFrame na função de usuário para o coletor foreachBatch no PySpark
  • [FAÍSCA-41373] [SC-117405] [SQL] [ERRO] Renomear CAST_WITH_FUN_SUGGESTION para CAST_WITH_FUNC_SUGGESTION
  • [FAÍSCA-41358] [SC-117417] [SQL] Método de refatoração ColumnVectorUtils#populate a ser usado PhysicalDataType em vez de DataType
  • [FAÍSCA-41355] [SC-117423] [SQL] Solução alternativa problema de validação de nome de tabela de hive
  • [FAÍSCA-41390] [SC-117429] [SQL] Atualize o script usado para gerar register a função em UDFRegistration
  • [FAÍSCA-41206] [SC-117233] [SC-116381] [SQL] Renomeie a classe _LEGACY_ERROR_TEMP_1233 de erro para COLUMN_ALREADY_EXISTS
  • [FAÍSCA-41357] [SC-117310] [CONECTAR] [PYTHON] [12.X] Implementar funções matemáticas
  • [FAÍSCA-40970] [SC-117308] [CONECTAR] [PYTHON] Lista de suporte[Coluna] para Junções no argumento
  • [FAÍSCA-41345] [SC-117178] [CONECTAR] Adicionar dica ao Connect Proto
  • [FAÍSCA-41226] [SC-117194] [SQL] [12.x] Refatorar tipos de faísca introduzindo tipos físicos
  • [FAÍSCA-41317] [SC-116902] [CONECTAR] [PYTHON] [12.X] Adicionar suporte básico para DataFrameWriter
  • [FAÍSCA-41347] [SC-117173] [CONECTAR] Adicionar Cast ao proto de Expressão
  • [FAÍSCA-41323] [SC-117128] [SQL] Suporte current_schema
  • [FAÍSCA-41339] [SC-117171] [SQL] Feche e recrie o lote de gravação do RocksDB em vez de apenas limpar
  • [FAÍSCA-41227] [SC-117165] [CONECTAR] [PYTHON] Implementar junção cruzada de DataFrame
  • [FAÍSCA-41346] [SC-117176] [CONECTAR] [PYTHON] Implementação asc e desc funções
  • [FAÍSCA-41343] [SC-117166] [CONECTAR] Mover a análise FunctionName para o lado do servidor
  • [FAÍSCA-41321] [SC-117163] [CONECTAR] Campo de destino de suporte para UnresolvedStar
  • [FAÍSCA-41237] [SC-117167] [SQL] Reutilize a classe UNSUPPORTED_DATATYPE de erro para _LEGACY_ERROR_TEMP_0030
  • [FAÍSCA-41309] [SC-116916] [SQL] Reutilizar INVALID_SCHEMA.NON_STRING_LITERAL em vez de _LEGACY_ERROR_TEMP_1093
  • [FAÍSCA-41276] [SC-117136] [SQL] [ML] [MLLIB] [PROTOBUF] [PYTHON] [R] [SS] [AVRO] Otimize o uso do construtor de StructType
  • [FAÍSCA-41335] [SC-117135] [CONECTAR] [PYTHON] Suporte IsNull e IsNotNull na coluna
  • [FAÍSCA-41332] [SC-117131] [CONECTAR] [PYTHON] Corrigir nullOrdering em SortOrder
  • [FAÍSCA-41325] [SC-117132] [CONECTAR] [12.X] Corrigir avg() ausente para GroupBy no DF
  • [FAÍSCA-41327] [SC-117137] [CORE] Corrigir SparkStatusTracker.getExecutorInfos por interruptor On/OffHeapStorageMemory informações
  • [FAÍSCA-41315] [SC-117129] [CONECTAR] [PYTHON] Implementar DataFrame.replace e DataFrame.na.replace
  • [FAÍSCA-41328] [SC-117125] [CONECTAR] [PYTHON] Adicionar API lógica e de cadeia de caracteres à coluna
  • [FAÍSCA-41331] [SC-117127] [CONECTAR] [PYTHON] Adicionar orderBy e drop_duplicates
  • [FAÍSCA-40987] [SC-117124] [CORE] BlockManager#removeBlockInternal deve garantir que a fechadura está desbloqueada graciosamente
  • [FAÍSCA-41268] [SC-117102] [SC-116970] [CONECTAR] [PYTHON] Refatore "Coluna" para compatibilidade com API
  • [FAÍSCA-41312] [SC-116881] [CONECTAR] [PYTHON] [12.X] Implementar DataFrame.withColumnRenamed
  • [FAÍSCA-41221] [SC-116607] [SQL] Adicionar a classe de erro INVALID_FORMAT
  • [FAÍSCA-41272] [SC-116742] [SQL] Atribuir um nome à classe de erro _LEGACY_ERROR_TEMP_2019
  • [FAÍSCA-41180] [SC-116760] [SQL] Reutilizar INVALID_SCHEMA em vez de _LEGACY_ERROR_TEMP_1227
  • [FAÍSCA-41260] [SC-116880] [PYTHON] [SS] [12.X] Transmitir instâncias NumPy para tipos primitivos Python na atualização GroupState
  • [FAÍSCA-41174] [SC-116609] [CORE] [SQL] Propagar uma classe de erro aos usuários por inválido format de to_binary()
  • [FAÍSCA-41264] [SC-116971] [CONECTAR] [PYTHON] Tornar o suporte literal mais tipos de dados
  • [FAÍSCA-41326] [SC-116972] [CONECTAR] Corrigir desduplicação está faltando entrada
  • [FAÍSCA-41316] [SC-116900] [SQL] Habilite a recursão de cauda sempre que possível
  • [FAÍSCA-41297] [SC-116931] [CONECTAR] [PYTHON] Suporte a expressões de cadeia de caracteres no filtro.
  • [FAÍSCA-41256] [SC-116932] [SC-116883] [CONECTAR] Implementar DataFrame.withColumn(s)
  • [FAÍSCA-41182] [SC-116632] [SQL] Atribuir um nome à classe de erro _LEGACY_ERROR_TEMP_1102
  • [FAÍSCA-41181] [SC-116680] [SQL] Migrar os erros de opções de mapa para classes de erro
  • [FAÍSCA-40940] [SC-115993] [12.x] Remova os verificadores de operador com vários estados para consultas de streaming.
  • [FAÍSCA-41310] [SC-116885] [CONECTAR] [PYTHON] Implementar DataFrame.toDF
  • [FAÍSCA-41179] [SC-116631] [SQL] Atribuir um nome à classe de erro _LEGACY_ERROR_TEMP_1092
  • [FAÍSCA-41003] [SC-116741] [SQL] BHJ LeftAnti não atualiza numOutputRows quando o codegen está desativado
  • [FAÍSCA-41148] [SC-116878] [CONECTAR] [PYTHON] Implementar DataFrame.dropna e DataFrame.na.drop
  • [FAÍSCA-41217] [SC-116380] [SQL] Adicionar a classe de erro FAILED_FUNCTION_CALL
  • [FAÍSCA-41308] [SC-116875] [CONECTAR] [PYTHON] Melhorar DataFrame.count()
  • [FAÍSCA-41301] [SC-116786] [CONECTAR] Homogeneizar o comportamento para SparkSession.range()
  • [FAÍSCA-41306] [SC-116860] [CONECTAR] Melhorar a documentação do Connect Expression proto
  • [FAÍSCA-41280] [SC-116733] [CONECTAR] Implementar DataFrame.tail
  • [FAÍSCA-41300] [SC-116751] [CONECTAR] Unset schema é interpretado como Schema
  • [FAÍSCA-41255] [SC-116730] [SC-116695] [CONECTAR] Renomear RemoteSparkSession
  • [FAÍSCA-41250] [SC-116788] [SC-116633] [CONECTAR] [PYTHON] DataFrame. toPandas não deve retornar dataframe pandas opcional
  • [FAÍSCA-41291] [SC-116738] [CONECTAR] [PYTHON] DataFrame.explain deve imprimir e devolver Nenhum
  • [FAÍSCA-41278] [SC-116732] [CONECTAR] Limpar QualifiedAttribute não utilizado em Expression.proto
  • [FAÍSCA-41097] [SC-116653] [CORE] [SQL] [SS] [PROTOBUF] Remover base de conversão de coleção redundante no código Scala 2.13
  • [FAÍSCA-41261] [SC-116718] [PYTHON] [SS] Corrija o problema de applyInPandasWithState quando as colunas de chaves de agrupamento não são colocadas em ordem desde o início
  • [FAÍSCA-40872] [SC-116717] [3.3] Fallback para o bloco shuffle original quando um bloco de shuffle push-merged é de tamanho zero
  • [FAÍSCA-41114] [SC-116628] [CONECTAR] Suporte a dados locais para LocalRelation
  • [FAÍSCA-41216] [SC-116678] [CONECTAR] [PYTHON] Implementar DataFrame.{isLocal, isStreaming, printSchema, inputFiles}
  • [FAÍSCA-41238] [SC-116670] [CONECTAR] [PYTHON] Suporta mais tipos de dados incorporados
  • [FAÍSCA-41230] [SC-116674] [CONECTAR] [PYTHON] Remover str do tipo de expressão Agregar
  • [FAÍSCA-41224] [SC-116652] [FAÍSCA-41165] [FAÍSCA-41184] [CONECTAR] Implementação de coleta otimizada baseada em seta para transmitir do servidor para o cliente
  • [FAÍSCA-41222] [SC-116625] [CONECTAR] [PYTHON] Unificar as definições de digitação
  • [FAÍSCA-41225] [SC-116623] [CONECTAR] [PYTHON] Desative funções não suportadas.
  • [FAÍSCA-41201] [SC-116526] [CONECTAR] [PYTHON] Implementar DataFrame.SelectExpr no cliente Python
  • [FAÍSCA-41203] [SC-116258] [CONECTAR] Suporte Dataframe.tansform no cliente Python.
  • [FAÍSCA-41213] [SC-116375] [CONECTAR] [PYTHON] Implementar DataFrame.__repr__ e DataFrame.dtypes
  • [FAÍSCA-41169] [SC-116378] [CONECTAR] [PYTHON] Implementar DataFrame.drop
  • [FAÍSCA-41172] [SC-116245] [SQL] Migrar o erro ref ambíguo para uma classe de erro
  • [FAÍSCA-41122] [SC-116141] [CONECTAR] Explicar que a API pode suportar diferentes modos
  • [FAÍSCA-41209] [SC-116584] [SC-116376] [PYTHON] Melhorar a inferência do tipo PySpark no método _merge_type
  • [FAÍSCA-41196] [SC-116555] [SC-116179] [CONECTAR] Homogeneize a versão protobuf no servidor Spark connect para usar a mesma versão principal.
  • [FAÍSCA-35531] [SC-116409] [SQL] Atualize as estatísticas da tabela do hive sem converter desnecessariamente
  • [FAÍSCA-41154] [SC-116289] [SQL] Cache de relação incorreta para consultas com especificações de viagem no tempo
  • [FAÍSCA-41212] [SC-116554] [SC-116389] [CONECTAR] [PYTHON] Implementar DataFrame.isEmpty
  • [FAÍSCA-41135] [SC-116400] [SQL] Renomear UNSUPPORTED_EMPTY_LOCATION para INVALID_EMPTY_LOCATION
  • [FAÍSCA-41183] [SC-116265] [SQL] Adicionar uma API de extensão para planejar a normalização do cache
  • [FAÍSCA-41054] [SC-116447] [UI] [CORE] Suporte RocksDB como KVStore em UI ao vivo
  • [FAÍSCA-38550] [SC-115223] Reverter "[SQL][CORE] Use um armazenamento baseado em disco para salvar mais informações de depuração para a interface do usuário ao vivo"
  • [FAÍSCA-41173] [SC-116185] [SQL] Sair require() dos construtores de expressões de cadeia de caracteres
  • [FAÍSCA-41188] [SC-116242] [CORE] [ML] Definir executorEnv OMP_NUM_THREADS como spark.task.cpus por padrão para processos JVM do executor spark
  • [FAÍSCA-41130] [SC-116155] [SQL] Renomear OUT_OF_DECIMAL_TYPE_RANGE para NUMERIC_OUT_OF_SUPPORTED_RANGE
  • [FAÍSCA-41175] [SC-116238] [SQL] Atribuir um nome à classe de erro _LEGACY_ERROR_TEMP_1078
  • [FAÍSCA-41106] [SC-116073] [SQL] Reduzir a conversão de coleção ao criar AttributeMap
  • [FAÍSCA-41139] [SC-115983] [SQL] Melhorar a classe de erro: PYTHON_UDF_IN_ON_CLAUSE
  • [FAÍSCA-40657] [SC-115997] [PROTOBUF] Exigir sombreamento para jar de classe Java, melhorar o tratamento de erros
  • [FAÍSCA-40999] [SC-116168] Propagação de dicas para subconsultas
  • [FAÍSCA-41017] [SC-116054] [SQL] Suporte à poda de coluna com vários filtros não determinísticos
  • [FAÍSCA-40834] [SC-114773] [SQL] Use SparkListenerSQLExecutionEnd para controlar o status final do SQL na interface do usuário
  • [FAÍSCA-41118] [SC-116027] [SQL] to_number/try_to_number deve retornar null quando o formato for null
  • [FAÍSCA-39799] [SC-115984] [SQL] DataSourceV2: Exibir interface do catálogo
  • [FAÍSCA-40665] [SC-116210] [SC-112300] [CONECTAR] Evite incorporar o Spark Connect na versão binária do Apache Spark
  • [FAÍSCA-41048] [SC-116043] [SQL] Melhore o particionamento e o pedido de saída com o cache AQE
  • [FAÍSCA-41198] [SC-116256] [SS] Corrigir métricas em consultas de streaming com origem de streaming CTE e DSv1
  • [FAÍSCA-41199] [SC-116244] [SS] Corrigir problema de métricas quando a fonte de streaming DSv1 e a fonte de streaming DSv2 são cousadas
  • [FAÍSCA-40957] [SC-116261] [SC-114706] Adicionar cache de memória no HDFSMetadataLog
  • [FAÍSCA-40940] Reverter "[SC-115993] Remover verificadores de operador com vários estados para consultas de streaming."
  • [FAÍSCA-41090] [SC-116040] [SQL] Lançar exceção para db_name.view_name ao criar a exibição temporária pela API do conjunto de dados
  • [FAÍSCA-41133] [SC-116085] [SQL] Integre-se UNSCALED_VALUE_TOO_LARGE_FOR_PRECISION em NUMERIC_VALUE_OUT_OF_RANGE
  • [FAÍSCA-40557] [SC-116182] [SC-111442] [CONECTAR] Confirmações de despejo de código 9
  • [FAÍSCA-40448] [SC-114447] [SC-111314] [CONECTAR] Spark Connect build como plug-in de driver com dependências sombreadas
  • [FAÍSCA-41096] [SC-115812] [SQL] Suporte de leitura parquet FIXED_LEN_BYTE_ARRAY tipo
  • [FAÍSCA-41140] [SC-115879] [SQL] Renomeie a classe _LEGACY_ERROR_TEMP_2440 de erro para INVALID_WHERE_CONDITION
  • [FAÍSCA-40918] [SC-114438] [SQL] Incompatibilidade entre FileSourceScanExec e Orc e ParquetFileFormat na produção de saída colunar
  • [FAÍSCA-41155] [SC-115991] [SQL] Adicionar mensagem de erro a SchemaColumnConvertNotSupportedException
  • [FAÍSCA-40940] [SC-115993] Remova os verificadores de operador com vários estados para consultas de streaming.
  • [FAÍSCA-41098] [SC-115790] [SQL] Renomear GROUP_BY_POS_REFERS_AGG_EXPR para GROUP_BY_POS_AGGREGATE
  • [FAÍSCA-40755] [SC-115912] [SQL] Migrar falhas de verificação de tipo de formatação de número para classes de erro
  • [FAÍSCA-41059] [SC-115658] [SQL] Renomear _LEGACY_ERROR_TEMP_2420 para NESTED_AGGREGATE_FUNCTION
  • [FAÍSCA-41044] [SC-115662] [SQL] Converta DATATYPE_MISMATCH. UNSPECIFIED_FRAME para INTERNAL_ERROR
  • [FAÍSCA-40973] [SC-115132] [SQL] Renomear _LEGACY_ERROR_TEMP_0055 para UNCLOSED_BRACKETED_COMMENT

Atualizações de manutenção

Consulte Atualizações de manutenção do Databricks Runtime 12.1.

Ambiente do sistema

  • Sistema Operacional: Ubuntu 20.04.5 LTS
  • Java: Zulu 8.64.0.19-CA-linux64
  • Escala: 2.12.14
  • Píton: 3.9.5
  • R: 4.2.2
  • Lago Delta: 2.2.0

Bibliotecas Python instaladas

Biblioteca Versão Biblioteca Versão Biblioteca Versão
Argônio2-CFFI 21.3.0 argon2-cffi-ligações 21.2.0 AstTokens 2.0.5
ATRs 21.4.0 Backcall 0.2.0 backports.pontos de entrada-selecionáveis 1.2.0
sopa bonita4 4.11.1 preto 22.3.0 lixívia 4.1.0
boto3 1.21.32 botocore 1.24.32 certifi 2021.10.8
cffi 1.15.0 chardet 4.0.0 Normalizador de Charset 2.0.4
clicar 8.0.4 criptografia 3.4.8 cycler 0.11.0
Quisto 0.29.28 dbus-python 1.2.16 depuração 1.5.1
decorador 5.1.1 DeUsedXML 0.7.1 Distlib 0.3.6
docstring-para-markdown 0,11 pontos de entrada 0.4 execução 0.8.3
facetas-visão geral 1.0.0 fastjsonschema 2.16.2 filelock 3.8.2
Fonttools 4.25.0 idna 3.3 Ipykernel 6.15.3
ipython 8.5.0 ipython-genutils 0.2.0 ipywidgets 7.7.2
Jedi 0.18.1 Jinja2 2.11.3 jmespath 0.10.0
Joblib 1.1.0 jsonschema 4.4.0 jupyter-cliente 6.1.12
jupyter_core 4.11.2 Jupyterlab-Pygments 0.1.2 jupyterlab-widgets 1.0.0
Kiwisolver 1.3.2 MarkupSafe 2.0.1 matplotlib 3.5.1
matplotlib-em linha 0.1.2 Mccabe 0.7.0 Mistune 0.8.4
mypy-extensões 0.4.3 nbclient 0.5.13 nbconvert 6.4.4
nbformat 5.3.0 Ninho-Asyncio 1.5.5 nodeenv 1.7.0
bloco de notas 6.4.8 numpy 1.21.5 embalagem 21,3
pandas 1.4.2 PandocFilters 1.5.0 Parso 0.8.3
PathSpec 0.9.0 patsy 0.5.2 pexpect 4.8.0
pickleshare 0.7.5 Travesseiro 9.0.1 pip 21.2.4
plataformadirs 2.6.0 enredo 5.6.0 pluggy 1.0.0
Prometheus-cliente 0.13.1 prompt-toolkit 3.0.20 protobuf 3.19.4
PSUTIL 5.8.0 psycopg2 2.9.3 ptyprocess 0.7.0
puro-eval 0.2.2 pyarrow 7.0.0 pycparser 2.21
Pyflakes 2.5.0 Pygments 2.11.2 PyGObject 3.36.0
Pyodbc 4.0.32 pyparsing 3.0.4 Pyright 1.1.283
pirsistent 0.18.0 python-dateutil 2.8.2 python-lsp-jsonrpc 1.0.0
python-lsp-servidor 1.6.0 pytz 2021.3 Pyzmq 22.3.0
pedidos 2.27.1 pedidos-unixsocket 0.2.0 corda 0.22.0
s3transferir 0.5.0 scikit-learn 1.0.2 scipy 1.7.3
seaborn 0.11.2 Enviar2Lixo 1.8.0 setuptools 61.2.0
seis 1.16.0 Soupsieve 2.3.1 ssh-import-id 5.10
dados de pilha 0.2.0 statsmodels 0.13.2 tenacidade 8.0.1
terminado 0.13.1 caminho de teste 0.5.0 ThreadPoolCtl 2.2.0
tokenize-rt 4.2.1 Tomli 1.2.2 tornado 6.1
traços 5.1.1 typing_extensions 4.1.1 Ujson 5.1.0
Upgrades autônomos 0.1 urllib3 1.26.9 virtualenv 20.8.0
largura de wc 0.2.5 WebEncodings 0.5.1 whatthepatch 1.0.3
roda 0.37.0 widgetsnbextension 3.6.1 Yapf 0.31.0

Bibliotecas R instaladas

As bibliotecas R são instaladas a partir do instantâneo da CRAN da Microsoft em 2022-11-11.

Biblioteca Versão Biblioteca Versão Biblioteca Versão
seta 10.0.0 AskPass 1.1 asserçãoat 0.2.1
backports 1.4.1 base 4.2.2 base64enc 0.1-3
bit 4.0.4 bit64 4.0.5 blob 1.2.3
arranque 1.3-28 brew 1.0-8 Brio 1.1.3
vassoura 1.0.1 BSLIB 0.4.1 cachem 1.0.6
Chamador 3.7.3 acento circunflexo 6.0-93 Cellranger 1.1.0
crono 2.3-58 classe 7.3-20 cli 3.4.1
Clipr 0.8.0 relógio 0.6.1 cluster 2.1.4
codetools 0.2-18 espaço em cores 2.0-3 marca comum 1.8.1
compilador 4.2.2 configuração 0.3.1 CPP11 0.4.3
lápis de cor 1.5.2 credenciais 1.3.2 curl 4.3.3
data.table 1.14.4 conjuntos de dados 4.2.2 DBI 1.1.3
DBPlyr 2.2.1 desc 1.4.2 devtools 2.4.5
diffobj 0.3.5 resumo 0.6.30 Iluminação reduzida 0.4.2
dplyr 1.0.10 DTPlyr 1.2.2 E1071 1.7-12
ellipsis 0.3.2 evaluate 0,18 Fãsi 1.0.3
Farver 2.1.1 mapa rápido 1.1.0 fontawesome 0.4.0
FORCATS 0.5.2 foreach 1.5.2 externa 0.8-82
forjar 0.2.0 FS 1.5.2 Futuro 1.29.0
future.apply 1.10.0 gargarejo 1.2.1 Genéricos 0.1.3
Gert 1.9.1 ggplot2 3.4.0 GH 1.3.1
gitcreds 0.1.2 glmnet 4.1-4 Globais 0.16.1
colar 1.6.2 GoogleDrive 2.0.0 googlesheets4 1.0.1
gower 1.0.0 gráficos 4.2.2 grDevices 4.2.2
grelha 4.2.2 gridExtra 2.3 gsubfn 0.7
gtable 0.3.1 capacete 1.2.0 Refúgio 2.5.1
mais alto 0,9 HMS 1.1.2 htmltools 0.5.3
htmlwidgets 1.5.4 httpuv 1.6.6 httr 1.4.4
IDs 1.0.1 ini 0.3.1 ipred 0.9-13
Isoband 0.2.6 iteradores 1.0.14 jquerylib 0.1.4
jsonlite 1.8.3 KernSmooth 2.23-20 Knitr 1.40
etiquetagem 0.4.2 mais tarde 1.3.0 lattice 0.20-45
lava 1.7.0 ciclo de vida 1.0.3 ouvirv 0.8.0
lubridate 1.9.0 magrittr 2.0.3 Marcação 1.3
MASSA 7.3-58 Matriz 1.5-1 memoise 2.0.1
métodos 4.2.2 mgcv 1.8-41 mime 0,12
miniUI 0.1.1.1 ModelMetrics 1.2.2.2 Modelador 0.1.9
munsell 0.5.0 nlme 3.1-160 nnet 7.3-18
numDeriv 2016.8-1.1 openssl 2.0.4 paralelo 4.2.2
Paralelamente 1.32.1 pilar 1.8.1 pkgbuild 1.3.1
pkgconfig 2.0.3 pkgdown 2.0.6 pkgload 1.3.1
plogr 0.2.0 plyr 1.8.7 elogiar 1.0.0
unidades bonitas 1.1.1 pROC 1.18.0 processx 3.8.0
prodlim 2019.11.13 Profvis 0.3.7 Progresso 1.2.2
progressor 0.11.0 promessas 1.2.0.1 proto 1.0.0
procuração 0.4-27 PS 1.7.2 purrr 0.3.5
r2d3 0.2.6 R6 2.5.1 RAGG 1.2.4
randomForest 4.7-1.1 rappdirs 0.3.3 rcmdcheck 1.4.0
RColorBrewer 1.1-3 Rcpp 1.0.9 RcppEigen 0.3.3.9.3
Leitor 2.1.3 ReadXL 1.4.1 receitas 1.0.3
revanche 1.0.1 revanche2 2.1.2 Controles remotos 2.4.2
Reprex 2.0.2 remodelar2 1.4.4 rlang 1.0.6
rmarkdown 2.18 RODBC 1.3-19 roxygen2 7.2.1
rpart 4.1.19 rprojroot 2.0.3 Rserve 1.8-11
RSQLite 2.2.18 rstudioapi 0.14 rversões 2.1.2
Rvest 1.0.3 Sass 0.4.2 escalas 1.2.1
seletor 0.4-2 sessioninfo 1.2.2 forma 1.4.6
brilhante 1.7.3 ferramentas de origem 0.1.7 sparklyr 1.7.8
SparkR 3.3.1 espacial 7.3-11 splines 4.2.2
sqldf 0.4-11 QUADRADO 2021.1 estatísticas 4.2.2
stats4 4.2.2 stringi 1.7.8 stringr 1.4.1
sobrevivência 3.4-0 sys 3.4.1 fontes do sistema 1.0.4
tcltk 4.2.2 testeatat 3.1.5 formatação de texto 0.3.6
tibble 3.1.8 tidyr 1.2.1 tidyselect 1.2.0
Tidyverse 1.3.2 mudança de hora 0.1.1 timeDate 4021.106
Tinytex 0.42 ferramentas 4.2.2 TZDB 0.3.0
urlchecker 1.0.1 usethis 2.1.6 UTF8 1.2.2
utilitários 4.2.2 uuid 1.1-0 VCTRS 0.5.0
viridisLite 0.4.1 vroom 1.6.0 Waldo 0.4.0
whisker 0.4 withr 2.5.0 xfun 0.34
xml2 1.3.3 xopen 1.0.0 xtable 1.8-4
yaml 2.3.6 zip 2.2.2

Bibliotecas Java e Scala instaladas (versão de cluster Scala 2.12)

ID do Grupo ID do Artefacto Versão
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.189
com.amazonaws aws-java-sdk-cloudformation 1.12.189
com.amazonaws aws-java-sdk-cloudfront 1.12.189
com.amazonaws aws-java-sdk-cloudhsm 1.12.189
com.amazonaws aws-java-sdk-cloudsearch 1.12.189
com.amazonaws aws-java-sdk-cloudtrail 1.12.189
com.amazonaws aws-java-sdk-cloudwatch 1.12.189
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.189
com.amazonaws aws-java-sdk-codedeploy 1.12.189
com.amazonaws aws-java-sdk-cognitoidentity 1.12.189
com.amazonaws aws-java-sdk-cognitosync 1.12.189
com.amazonaws aws-java-sdk-config 1.12.189
com.amazonaws aws-java-sdk-core 1.12.189
com.amazonaws aws-java-sdk-datapipeline 1.12.189
com.amazonaws aws-java-sdk-directconnect 1.12.189
com.amazonaws aws-java-sdk-directory 1.12.189
com.amazonaws aws-java-sdk-dynamodb 1.12.189
com.amazonaws aws-java-sdk-ec2 1.12.189
com.amazonaws aws-java-sdk-ecs 1.12.189
com.amazonaws aws-java-sdk-efs 1.12.189
com.amazonaws aws-java-sdk-elasticache 1.12.189
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.189
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.189
com.amazonaws aws-java-sdk-elastictranscoder 1.12.189
com.amazonaws aws-java-sdk-emr 1.12.189
com.amazonaws aws-java-sdk-glacier 1.12.189
com.amazonaws aws-java-sdk-glue 1.12.189
com.amazonaws aws-java-sdk-iam 1.12.189
com.amazonaws aws-java-sdk-importexport 1.12.189
com.amazonaws aws-java-sdk-kinesis 1.12.189
com.amazonaws aws-java-sdk-kms 1.12.189
com.amazonaws aws-java-sdk-lambda 1.12.189
com.amazonaws aws-java-sdk-logs 1.12.189
com.amazonaws aws-java-sdk-machinelearning 1.12.189
com.amazonaws aws-java-sdk-opsworks 1.12.189
com.amazonaws aws-java-sdk-rds 1.12.189
com.amazonaws aws-java-sdk-redshift 1.12.189
com.amazonaws aws-java-sdk-route53 1.12.189
com.amazonaws aws-java-sdk-s3 1.12.189
com.amazonaws aws-java-sdk-ses 1.12.189
com.amazonaws aws-java-sdk-simpledb 1.12.189
com.amazonaws aws-java-sdk-simpleworkflow 1.12.189
com.amazonaws aws-java-sdk-sns 1.12.189
com.amazonaws aws-java-sdk-sqs 1.12.189
com.amazonaws aws-java-sdk-ssm 1.12.189
com.amazonaws aws-java-sdk-storagegateway 1.12.189
com.amazonaws aws-java-sdk-sts 1.12.189
com.amazonaws aws-java-sdk-support 1.12.189
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.189
com.amazonaws jmespath-java 1.12.189
com.chuusai shapeless_2.12 2.3.3
com.clearspring.analytics transmissão em fluxo 2.9.6
com.databricks Rserve 1.8-3
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2,12 0.4.15-10
com.esotericsoftware sombreado de kryo 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml colega de turma 1.3.4
com.fasterxml.jackson.core jackson-anotações 2.13.4
com.fasterxml.jackson.core jackson-core 2.13.4
com.fasterxml.jackson.core jackson-databind 2.13.4.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.13.4
com.fasterxml.jackson.datatype jackson-datatype-joda 2.13.4
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.13.4
com.fasterxml.jackson.module jackson-module-paranamer 2.13.4
com.fasterxml.jackson.module jackson-módulo-scala_2.12 2.13.4
com.github.ben-manes.cafeína cafeína 2.3.4
com.github.fommil jniloader 1.1
com.github.fommil.netlib núcleo 1.1.2
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java-nativos 1.1
com.github.fommil.netlib native_system-java 1.1
com.github.fommil.netlib native_system-java-nativos 1.1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-natives 1.1
com.github.fommil.netlib netlib-native_system-linux-x86_64-natives 1.1
com.github.luben ZSTD-JNI 1.5.2-1
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.8.6
com.google.crypto.tink Tink 1.6.1
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava guava 15.0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 2.0.204
com.helger criador de perfil 1.1.1
com.jcraft jsch 0.1.50
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.ning compress-lzf 1.1
com.sun.mail javax.mail 1.5.2
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe configuração 1.2.1
com.typesafe.scala-logging Escala-logging_2.12 3.7.2
com.uber h3 3.7.0
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1,15
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.3.3
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
registo de comuns registo de comuns 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib ARPACK 2.2.1
dev.ludovic.netlib Blas 2.2.1
dev.ludovic.netlib Lapack | 2.2.1
info.ganglia.gmetric4j gmetric4j 1.0.10
io.ponte aérea compressor de ar 0.21
IO.Delta delta-compartilhamento-spark_2.12 0.6.2
io.dropwizard.metrics metrics-core 4.1.1
io.dropwizard.metrics metrics-graphite 4.1.1
io.dropwizard.metrics metrics-healthchecks 4.1.1
io.dropwizard.metrics metrics-jetty9 4.1.1
io.dropwizard.metrics métricas-jmx 4.1.1
io.dropwizard.metrics metrics-json 4.1.1
io.dropwizard.metrics metrics-jvm 4.1.1
io.dropwizard.metrics metrics-servlets 4.1.1
io.netty netty-all 4.1.74.Final
io.netty netty-buffer 4.1.74.Final
io.netty netty-codec 4.1.74.Final
io.netty netty-comum 4.1.74.Final
io.netty netty-manipulador 4.1.74.Final
io.netty netty-resolver 4.1.74.Final
io.netty netty-tcnative-classes 2.0.48.Final
io.netty transporte de rede 4.1.74.Final
io.netty netty-transport-classes-epoll 4.1.74.Final
io.netty netty-transport-classes-kqueue 4.1.74.Final
io.netty netty-transport-native-epoll-linux-aarch_64 4.1.74.Final
io.netty netty-transport-native-epoll-linux-x86_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-aarch_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-x86_64 4.1.74.Final
io.netty netty-transport-nativo-unix-comum 4.1.74.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx recoletor 0.12.0
jacarta.anotação Jacarta.Anotação-API 1.3.5
jacarta.servlet jacarta.servlet-api 4.0.3
jacarta.validação Jacarta.validation-api 2.0.2
jakarta.ws.rs Jacarta.ws.rs-api 2.1.6
javax.activation ativação 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction API de transação 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.10.13
net.java.dev.jna JNA 5.8.0
net.razorvine picles 1.2
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.floco de neve flocos de neve-ingestão-sdk 0.9.6
net.floco de neve Flocos de Neve-JDBC 3.13.22
net.sourceforge.f2j arpack_combined_all 0.1
org.acplt.remotetea Remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.8
org.antlr stringtemplate 3.2.1
org.apache.ant formiga 1.9.2
org.apache.ant ant-jsch 1.9.2
org.apache.ant ant-launcher 1.9.2
org.apache.arrow formato de seta 7.0.0
org.apache.arrow seta-memória-núcleo 7.0.0
org.apache.arrow seta-memória-netty 7.0.0
org.apache.arrow vetor de seta 7.0.0
org.apache.avro avro 1.11.0
org.apache.avro avro-ipc 1.11.0
org.apache.avro avro-mapeado 1.11.0
org.apache.commons colecções-commons4 4.4
org.apache.commons commons-compress 1.21
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-texto 1.10.0
org.apache.curator curador-cliente 2.13.0
org.apache.curator curador-framework 2.13.0
org.apache.curator curador-receitas 2.13.0
org.apache.derby derby 10.14.2.0
org.apache.hadoop hadoop-client-api 3.3.4-DATABRICKS
org.apache.hadoop hadoop-client-runtime 3.3.4
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-cliente 2.3.9
org.apache.hive colmeia-lamp-comum 2.3.9
org.apache.hive Colmeia-Serde 2.3.9
org.apache.hive colmeias-calços 2.3.9
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims colmeia-calços-0,23 2.3.9
org.apache.hive.shims colmeia-calços-comum 2.3.9
org.apache.hive.shims colmeia-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.13
org.apache.httpcomponents httpcore 4.4.14
org.apache.ivy hera 2.5.0
org.apache.logging.log4j log4j-1.2-api 2.18.0
org.apache.logging.log4j log4j-api 2.18.0
org.apache.logging.log4j log4j-core 2.18.0
org.apache.logging.log4j log4j-slf4j-impl 2.18.0
org.apache.mesos mesos-sombreado-protobuf 1.4.0
org.apache.orc orc-núcleo 1.7.6
org.apache.orc orc-mapreduce 1.7.6
org.apache.orc Orc-calços 1.7.6
org.apache.parquet parquet-column 1.12.3-databricks-0002
org.apache.parquet parquet-common 1.12.3-databricks-0002
org.apache.parquet parquet-encoding 1.12.3-databricks-0002
org.apache.parquet parquet-formato-estruturas 1.12.3-databricks-0002
org.apache.parquet parquet-hadoop 1.12.3-databricks-0002
org.apache.parquet parquet-jackson 1.12.3-databricks-0002
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-sombreado 4.20
org.apache.yetus anotações de audiência 0.13.0
org.apache.zookeeper zookeeper 3.6.2
org.apache.zookeeper zookeeper-juta 3.6.2
org.checkerframework verificador-qual 3.5.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.46.v20220331
org.eclipse.jetty jetty-continuation 9.4.46.v20220331
org.eclipse.jetty jetty-http 9.4.46.v20220331
org.eclipse.jetty jetty-io 9.4.46.v20220331
org.eclipse.jetty jetty-jndi 9.4.46.v20220331
org.eclipse.jetty jetty-plus 9.4.46.v20220331
org.eclipse.jetty jetty-proxy 9.4.46.v20220331
org.eclipse.jetty jetty-security 9.4.46.v20220331
org.eclipse.jetty jetty-server 9.4.46.v20220331
org.eclipse.jetty jetty-servlet 9.4.46.v20220331
org.eclipse.jetty jetty-servlets 9.4.46.v20220331
org.eclipse.jetty jetty-util 9.4.46.v20220331
org.eclipse.jetty cais-util-ajax 9.4.46.v20220331
org.eclipse.jetty jetty-webapp 9.4.46.v20220331
org.eclipse.jetty jetty-xml 9.4.46.v20220331
org.eclipse.jetty.websocket API WebSocket 9.4.46.v20220331
org.eclipse.jetty.websocket Websocket-cliente 9.4.46.v20220331
org.eclipse.jetty.websocket Websocket-Comum 9.4.46.v20220331
org.eclipse.jetty.websocket servidor websocket 9.4.46.v20220331
org.eclipse.jetty.websocket Websocket-servlet 9.4.46.v20220331
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 localizador hk2 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jacarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.36
org.glassfish.jersey.containers jersey-container-servlet-core 2.36
org.glassfish.jersey.core jersey-client 2.36
org.glassfish.jersey.core jersey-common 2.36
org.glassfish.jersey.core servidor de jersey 2.36
org.glassfish.jersey.inject Jersey-HK2 2.36
org.hibernate.validator hibernate-validator 6.1.0.Final
org.javassist javassist 3.25.0-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains anotações 17.0.0
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s JSON4S-ast_2.12 3.7.0-M11
org.json4s JSON4S-core_2.12 3.7.0-M11
org.json4s JSON4S-jackson_2,12 3.7.0-M11
org.json4s JSON4S-scalap_2.12 3.7.0-M11
org.lz4 LZ4-Java 1.8.0
org.mariadb.jdbc mariadb-java-client 2.7.4
org.mlflow MLFLOW-Faísca 1.27.0
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.3.3
org.roaringbitmap RoaringBitmap 0.9.25
org.roaringbitmap calços 0.9.25
org.rocksdb rocksdbjni 6.24.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang Escala-compiler_2.12 2.12.14
org.scala-lang Escala-library_2.12 2.12.14
org.scala-lang Escala-reflect_2,12 2.12.14
org.scala-lang.modules scala-coleção-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules Escala-xml_2.12 1.2.0
org.scala-sbt interface de teste 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.0.8
org.scalanlp Brisa-macros_2.12 1.2
org.scalanlp breeze_2.12 1.2
org.scalatest scalatest_2.12 3.0.8
org.slf4j jcl-over-slf4j 1.7.36
org.slf4j jul-to-slf4j 1.7.36
org.slf4j slf4j-api 1.7.36
org.spark-project.spark não utilizado 1.0.0
org.threeten trêsdez-extra 1.5.0
org.tukaani xz 1.9
org.typelevel algebra_2.12 2.0.1
org.typelevel gatos-kernel_2.12 2.1.1
org.typelevel macro-compat_2.12 1.1.1
org.typelevel torre-macros_2.12 0.17.0
org.typelevel torre-platform_2.12 0.17.0
org.typelevel torre-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl mosca-selvagem-openssl 1.0.7.Final
org.xerial sqlite-jdbc 3.8.11.2
org.xerial.snappy snappy-java 1.1.8.4
org.yaml snakeyaml 1,24
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1