Runtime 1.2
O Microsoft Fabric Runtime é uma plataforma integrada ao Azure baseada no Apache Spark que permite a execução e o gerenciamento de experiências de engenharia de dados e ciência de dados. Este documento aborda os componentes e versões do Runtime 1.2.
O Microsoft Fabric Runtime 1.2 é a versão de runtime de GA mais recente. Os principais componentes do Runtime 1.2 incluem:
- Apache Spark 3.4.1
- Sistema operacional: Mariner 2.0
- Java: 11
- Scala: 2.12.17
- Python: 3.10
- Delta Lake: 2.4.0
- R: 4.2.2
O Microsoft Fabric Runtime 1.2 vem com uma coleção de pacotes de nível padrão, incluindo uma instalação completa do Anaconda e bibliotecas comumente usadas para Java/Scala, Python e R. Essas bibliotecas são incluídas automaticamente ao usar notebooks ou trabalhos na plataforma Microsoft Fabric. Consulte a documentação para obter uma lista completa de bibliotecas. O Microsoft Fabric distribui periodicamente atualizações de manutenção para o Runtime 1.2, fornecendo correções de bugs, aprimoramentos de desempenho e patches de segurança. Manter-se atualizado garante o desempenho e a confiabilidade ideais para suas tarefas de processamento de dados.
Novos recursos e melhorias do Spark versão 3.4.1
O Apache Spark 3.4.0 é a quinta versão da linha 3.x. Esta versão, impulsionada pela comunidade de software livre, resolveu mais de 2.600 tíquetes Jira. Ela apresenta um cliente Python para Spark Connect, aprimora o fluxo estruturado com acompanhamento de progresso assíncrono e processamento com estado do Python. Ela expande a cobertura da API do Pandas com suporte de entrada NumPy, simplifica a migração de data warehouses tradicionais por meio de conformidade ANSI e apresenta novas funções internas. Ela também melhora a produtividade e a depuração do desenvolvimento com a criação de perfil de memória. Além disso, o Runtime 1.2 é baseado no Apache Spark 3.4.1, uma versão de manutenção focada em correções de estabilidade.
Principais destaques
- Implementação de suporte para valores DEFAULT para colunas em tabelas (SPARK-38334)
- Suporte a TIMESTAMP SEM tipo de dados TIMEZONE (SPARK-35662)
- Suporte a "Referências de alias de coluna lateral" (SPARK-27561)
- Proteger o uso do SQLSTATE para classes de erro (SPARK-41994)
- Habilitar junções de filtro Bloom por padrão (SPARK-38841)
- Melhor escalabilidade da interface do usuário do Spark e estabilidade do driver para aplicativos grandes (SPARK-41053)
- Acompanhamento de progresso assíncrono em streaming estruturado (SPARK-39591)
- Processamento com estado arbitrário no Fluxo Estruturado com o Python (SPARK-40434)
- Melhorias na cobertura da API do Pandas (SPARK-42882) e suporte à entrada NumPy no PySpark (SPARK-39405)
- Fornecer um criador de perfil de memória para funções definidas pelo usuário do PySpark (SPARK-40281)
- Implementar o Distribuidor PyTorch (SPARK-41589)
- Publicar artefatos de SBOM (lista de materiais de software) (SPARK-41893)
- Implementação de suporte para valores DEFAULT para colunas em tabelas (SPARK-38334)
- Compatível com SQL parametrizado (SPARK-41271, SPARK-42702)
- Implementação de suporte para valores DEFAULT para colunas em tabelas (SPARK-38334)
- Add Dataset.as(StructType) (SPARK-39625)
- Compatível com SQL parametrizado (SPARK-41271, SPARK-42702)
- Adicionar transformar colunas em linhas / derretimento (SPARK-38864, SPARK-39876)
- Suporte a "referências de alias de coluna lateral" (SPARK-27561)
- Compatível com cláusula de deslocamento de resultado (SPARK-28330, SPARK-39159)
- Compatível com carimbo de data/hora sem tipo de dados de fuso horário (SPARK-35662)
- Compatível com subconsultas escalares em viagens no tempo (SPARK-39306)
- Torne a API do Catálogo compatível com o namespace de 3 camadas (SPARK-39235)
- Compatíevcl com carimbo de data/hora em segundos para TimeTravel usando opções do Dataframe (SPARK-39633)
- Adicionar SparkSession.config(Map) (SPARK-40163)
- Compatível com alteração do banco de dados padrão do catálogo de sessão (SPARK-35242)
- Compatibilidade do Protobuf para Spark - from_protobuf E to_protobuf (SPARK-40654)
- Adicionar a cláusula WHEN NOT MATCHED BY SOURCE a MERGE INTO (SPARK-40921)
- Relaxar a restrição de ordem para as opções de coluna CREATE TABLE (SPARK-40944)
- Equivalente do SQL para o comando de substituição do Dataframe (SPARK-40956)
- Compatível com Gerar sem necessidade de saída filho para hospedar referências externas (SPARK-41441)
- ORDER BY ALL (SPARK-41637)
- GROUP BY ALL (SPARK-41635)
- Adicionar flatMapSortedGroups e cogroupSorted (SPARK-38591)
- Compatível com subconsultas com predicados de não igualdade correlacionados (SPARK-36114)
- Compatível com subconsultas com correlação por meio de UNION/INTERSECT/EXCEPT (SPARK-36124)
- A correção do erro OOM não pode ser relatada quando AQE (execução de consulta adaptável) em (SPARK-42290)
- A correção da lógica de corte não lidou com os caracteres de controle ASCII corretamente (SPARK-44383)
- Dataframe.joinWith outer-join deve retornar um valor nulo para linha sem correspondência (SPARK-37829)
- Usar os utils para obter a opção de alocação dinâmica usada no ponto de verificação local (SPARK-42421)
- Adicionar CapturedException a utils (SPARK-42078)
- Suporte a SELECT DEFAULT com ORDER BY, LIMIT, OFFSET para a relação de origem INSERT (SPARK-43071)
- Cliente Python para Spark Connect (SPARK-39375)
Leia a versão completa das notas de versão de uma versão específica do Apache Spark visitando Spark 3.4.0 e Spark 3.4.1.
Novas otimizações de consulta personalizadas
Suporte de gravações simultâneas no Spark
Encontrar um erro 404 com a mensagem "Falha na operação: o caminho especificado não existe" é um problema comum ao executar inserções de dados paralelas na mesma tabela usando uma consulta SQL INSERT INTO. Esse erro pode resultar em perda de dados. Nosso novo recurso, o Algoritmo de Confirmação de Saída de Arquivo, resolve esse problema, permitindo que os clientes executem a inserção de dados paralela perfeitamente.
Para acessar esse recurso, habilite o sinalizador de recurso spark.sql.enable.concurrentWrites
, que está habilitado por padrão a partir do Runtime 1.2 (Spark 3.4). Embora esse recurso também esteja disponível em outras versões do Spark 3, ele não está habilitado por padrão. Esse recurso não dá suporte à execução paralela de consultas INSERT OVERWRITE em que cada trabalho simultâneo substitui dados em partições diferentes da mesma tabela dinamicamente. Para essa finalidade, o Spark oferece um recurso alternativo, que pode ser ativado definindo a configuração spark.sql.sources.partitionOverwriteMode
como dinâmica.
Leituras inteligentes, que ignoram arquivos de trabalhos com falha
No sistema de confirmação do Spark atual, quando uma inserção em um trabalho de tabela falha, mas algumas tarefas são bem-sucedidas, os arquivos gerados pelas tarefas bem-sucedidas coexistem com arquivos do trabalho com falha. Essa coexistência pode causar confusão para os usuários, pois torna-se desafiador distinguir entre arquivos pertencentes a trabalhos bem-sucedidos e malsucedidos. Além disso, quando um trabalho lê de uma tabela enquanto outro está inserindo dados simultaneamente na mesma tabela, o trabalho de leitura pode acessar dados não confirmados. Se um trabalho de gravação falhar, o trabalho de leitura poderá processar dados incorretos.
O sinalizador spark.sql.auto.cleanup.enabled
controla nosso novo recurso, resolvendo esse problema. Quando habilitado, o Spark ignora automaticamente a leitura de arquivos que não foram confirmados quando ele executa spark.read
ou seleciona consultas de uma tabela. Os arquivos gravados antes de habilitar esse recurso continuam a ser lidos normalmente.
Aqui estão as alterações visíveis:
- Todos os arquivos agora incluem um identificador
tid-{jobID}
em seus nomes de arquivo. - Em vez do marcador
_success
normalmente criado no local de saída após a conclusão bem-sucedida do trabalho, um novo marcador_committed_{jobID}
é gerado. Esse marcador associa IDs de trabalho bem-sucedidas a nomes de arquivo específicos. - Introduzimos um novo comando SQL que os usuários podem executar periodicamente para gerenciar o armazenamento e limpar arquivos não confirmados. A sintaxe deste comando é a seguinte:
- Para limpar um diretório específico:
CLEANUP ('/path/to/dir') [RETAIN number HOURS];
- Para limpar uma tabela específica:
CLEANUP [db_name.]table_name [RETAIN number HOURS];
Nesta sintaxe,path/to/dir
representa o URI do local em que a limpeza é necessária enumber
é um valor de tipo duplo que representa o período de retenção. O período de retenção padrão é definido como sete dias.
- Para limpar um diretório específico:
- Introduzimos uma nova opção de configuração chamada
spark.sql.deleteUncommittedFilesWhileListing
, que é definida comofalse
por padrão. Habilitar essa opção resulta na exclusão automática de arquivos não confirmados durante as leituras, mas esse cenário pode atrasar as operações de leitura. É recomendável executar manualmente o comando de limpeza quando o cluster estiver ocioso em vez de habilitar esse sinalizador.
Guia de migração do Runtime 1.1 para o Runtime 1.2
Ao migrar do Runtime 1.1, alimentado pelo Apache Spark 3.3, para o Runtime 1.2, alimentado pelo Apache Spark 3.4, examine o guia oficial de migração. Aqui estão os principais destaques:
Núcleo
- Desde o Spark 3.4, o driver do Spark é proprietário de
PersistentVolumnClaim
s e tenta reutilizar se eles não forem atribuídos a executores dinâmicos. Para restaurar o comportamento antes do Spark 3.4, você pode definirspark.kubernetes.driver.ownPersistentVolumeClaim
comofalse
espark.kubernetes.driver.reusePersistentVolumeClaim
comofalse
. - Desde o Spark 3.4, o driver do Spark rastreia dados de ordem aleatória quando a alocação dinâmica é habilitada sem o serviço de ordem aleatória. Para restaurar o comportamento antes do Spark 3.4, você pode definir
spark.dynamicAllocation.shuffleTracking.enabled
comofalse
. - Desde o Spark 3.4, o Spark tenta desativar o conjunto de dados distribuído resiliente (RDD) armazenado em cache e colocar blocos em ordem aleatória se tanto
spark.decommission.enabled
quantospark.storage.decommission.enabled
forem verdadeiros. Para restaurar o comportamento antes do Spark 3.4, você pode definirspark.storage.decommission.rddBlocks.enabled
espark.storage.decommission.shuffleBlocks.enabled
comofalse
. - Desde o Spark 3.4, o Spark usa o repositório RocksDB se
spark.history.store.hybridStore.enabled
for verdadeiro. Para restaurar o comportamento antes do Spark 3.4, você pode definirspark.history.store.hybridStore.diskBackend
comoLEVELDB
.
PySpark
- No Spark 3.4, o esquema de uma coluna de matriz é inferido mesclando os esquemas de todos os elementos na matriz. Para restaurar o comportamento anterior em que o esquema só é inferido do primeiro elemento, você pode definir
spark.sql.pyspark.legacy.inferArrayTypeFromFirstElement.enabled
comotrue
. - No Spark 3.4, ao usar a API do Pandas no Spark
Groupby.apply
, se o tipo de retorno do parâmetrofunc
não for especificado ecompute.shortcut_limit
for definido como 0, o número de linhas de amostragem será automaticamente definido como 2. Esse ajuste garante que haja sempre pelo menos duas linhas de amostragem para manter a inferência precisa do esquema. - No Spark 3.4, se a API do Pandas no Spark
Index.insert
estiver fora dos limites, ele gerará IndexError comindex {} is out of bounds for axis 0 with size {}
para seguir o comportamento do Pandas 1.4. - No Spark 3.4, o nome da série é preservado na API do Pandas no Spark
Series.mode
para se alinhar ao comportamento do Pandas 1.4. - No Spark 3.4, a API
Index.__setitem__
do Pandas no Spark verifica primeiro se o tipovalue
é o tipoColumn
para evitar gerar um aumento inesperado deValueError
emis_list_like
como Não é possível converter a coluna em booliano: use "&" para "e", "|" para "ou", "~" para "não" ao criar expressões boolianas do DataFrame. - No Spark 3.4, a API do Pandas no Spark
astype('category')
também atualizacategories.dtype
de acordo com dados originaisdtype
para seguir o comportamento do Pandas 1.4. - No Spark 3.4, a API do Pandas no Spark dá suporte ao grupo pela indexação posicional em
GroupBy.head
eGroupBy.tail
para seguir o Pandas 1.4. Os argumentos negativos agora funcionam corretamente e resultam em intervalos relativos ao final e ao início de cada grupo. Anteriormente, os argumentos negativos retornavam quadros vazios. - No Spark 3.4, o processo de esquema de inferência do
groupby.apply
no Pandas no Spark inferirá primeiro o tipo do Pandas para garantir a precisão do Pandasdtype
o máximo possível. - No Spark 3.4, o parâmetro de classificação
Series.concat
é respeitado para seguir os comportamentos do Pandas 1.4. - No Spark 3.4, o
DataFrame.__setitem__
faz uma cópia e substitui matrizes pré-existentes, que NÃO serão gravadas em substituição para seguir os comportamentos do Pandas 1.4. - No Spark 3.4, o
SparkSession.sql
e a API do Pandas no Sparksql
receberam o novo parâmetroargs
, que fornece associação de parâmetros nomeados aos literais do SQL. - No Spark 3.4, a API do Pandas no Spark segue para o Pandas 2.0, e algumas APIs foram preteridas ou removidas no Spark 3.4 de acordo com as mudanças feitas no Pandas 2.0. Confira as [notas de versão do pandas](https://pandas.pydata.org/docs/dev/whatsnew/) para obter mais detalhes.
SQL, conjuntos de dados e dataframe
- Desde o Spark 3.4, comandos INSERT INTO com listas de colunas explícitas que compreendem menos colunas do que a tabela de destino adicionam automaticamente os valores padrão correspondentes para as colunas restantes (ou NULL para qualquer coluna sem um valor padrão explicitamente atribuído). No Spark 3.3 ou anterior, esses comandos falhariam, retornando erros informando que o número de colunas fornecidas não corresponde ao número de colunas na tabela de destino. Desabilitar
spark.sql.defaultColumn.useNullsForMissingDefaultValues
restaura o comportamento anterior. - Desde o Spark 3.4, Número ou Número(*) do Teradata é tratado como Decimal(38,18). No Spark 3.3 ou anterior, Número ou Número(*) do Teradata é tratado como Decimal(38, 0); nesse caso, a parte fracionária é removida.
- Desde o Spark 3.4, banco de dados v1, tabela, exibição permanente e identificador de função incluem "spark_catalog" como o nome do catálogo se o banco de dados for definido, por exemplo, um identificador de tabela é:
spark_catalog.default.t
. Para restaurar o comportamento herdado, definaspark.sql.legacy.v1IdentifierNoCatalog
comotrue
. - Desde o Spark 3.4, quando o modo ANSI SQL(configuração
spark.sql.ansi.enabled
) está ativado, o SPARK SQL sempre retorna o resultado NULL ao obter um valor de mapa com uma chave inexistente. No Spark 3.3 ou anterior, há um erro. - Desde o Spark 3.4, a CLI do SQL
spark-sql
não imprime o prefixoError in query:
antes da mensagem de erro deAnalysisException
. - Desde o Spark 3.4, a função
split
ignora as cadeias de caracteres vazias à direita quando o parâmetroregex
está vazio. - Desde o Spark 3.4, a função
to_binary
gera um erro para uma entrada malformadastr
. Usetry_to_binary
para tolerar entradas malformadas e retornar NULO.- A cadeia de caracteres válida
Base64
deve incluir símbolos do alfabetobase64
(A-Za-z0-9+/), preenchimento opcional (=
) e espaços em branco opcionais. Os espaços em branco são ignorados na conversão, exceto quando são precedidos por símbolos de preenchimento. Se o preenchimento estiver presente, ele deverá concluir a cadeia de caracteres e seguir as regras descritas no RFC 4648 § 4. - Cadeias de caracteres hexadecimais válidas devem incluir apenas símbolos permitidos (0-9A-Fa-f).
- Os valores válidos de
fmt
sãohex
,base64
,utf-8
eutf8
, sem diferenciar maiúsculas de minúsculas.
- A cadeia de caracteres válida
- Desde o Spark 3.4, o Spark só gera
PartitionsAlreadyExistException
quando cria partições, mas algumas delas já existem. No Spark 3.3 ou anterior, o Spark pode lançar umPartitionsAlreadyExistException
ouPartitionAlreadyExistsException
. - Desde o Spark 3.4, o Spark valida a especificação de partição em ALTER PARTITION para seguir o comportamento de
spark.sql.storeAssignmentPolicy
, o que pode causar uma exceção se a conversão de tipo falhar, por exemploALTER TABLE .. ADD PARTITION(p='a')
, se a colunap
for do tipo int. Para restaurar o comportamento herdado, definaspark.sql.legacy.skipTypeValidationOnAlterPartition
comotrue
. - Desde o Spark 3.4, os leitores vetoriais são habilitados por padrão para os tipos de dados aninhados (matriz, mapa e struct). Para restaurar o comportamento herdado, defina
spark.sql.orc.enableNestedColumnVectorizedReader
espark.sql.parquet.enableNestedColumnVectorizedReader
comofalse
. - Desde o Spark 3.4,
BinaryType
não tem suporte na fonte de dados CSV. No Spark 3.3 ou anterior, os usuários podem escrever colunas binárias na fonte de dados CSV, mas o conteúdo de saída em arquivos CSV éObject.toString()
, o que não tem sentido; entretanto, se os usuários lerem tabelas CSV com colunas binárias, o Spark gerará uma exceçãoUnsupported type: binary
. - Desde o Spark 3.4, as junções de filtro bloom são habilitadas por padrão. Para restaurar o comportamento herdado, defina
spark.sql.optimizer.runtime.bloomFilter.enabled
comofalse
.
Streaming estruturado
- Desde o Spark 3.4,
Trigger.Once
foi preterido e os usuários são incentivados a migrar deTrigger.Once
paraTrigger.AvailableNow
. Confira SPARK-39805 para obter mais detalhes. - Desde o Spark 3.4, o valor padrão da configuração para a busca de deslocamento do Kafka (
spark.sql.streaming.kafka.useDeprecatedOffsetFetching
) é alterado detrue
parafalse
. O padrão não depende mais do agendamento baseado em grupo de consumidores, o que afeta a ACL necessária. Para obter mais informações, confira Integração do fluxo estruturado ao Kafka.
Novos recursos e melhorias do Delta Lake 2.4
O Delta Lake é um projeto de software livre que permite a construção de uma arquitetura de lakehouse com base em data lakes. O Delta Lake fornece transações ACID e tratamento de metadados escalonável, além de unificar o processamento de dados de streaming e em lote com base nos data lakes existentes.
Especificamente, o Delta Lake oferece:
- Transações ACID no Spark: os níveis de isolamento serializáveis asseguram que os leitores nunca vejam dados inconsistentes.
- Tratamento escalonável de metadados: usa o poder de processamento distribuído do Spark para lidar com todos os metadados de tabelas em escala petabyte com bilhões de arquivos à vontade.
- Streaming e unificação em lote: uma tabela no Delta Lake é uma tabela em lotes e uma fonte de streaming e um coletor. A ingestão de dados de streaming, o provisionamento histórico em lote e as consultas interativas funcionam imediatamente.
- Imposição de esquema: trata automaticamente as variações de esquema para evitar a inserção de registros inválidos durante a ingestão.
- Viagem no tempo: o controle de versão de dados permite reversões, trilhas de auditoria de histórico completas e experimentos de machine learning reproduzíveis.
- Upserts e deletes: dá suporte a operações de mesclagem, atualização e exclusão para habilitar casos de uso complexos, como a captura de dados de alteração, operações de dimensão de alteração lenta (SCD), upserts de streaming e assim por diante.
Os principais recursos desta versão são os seguintes
- Suporte para Apache Spark 3.4.
- Suporte à gravação de Vetores de exclusão para o comando
DELETE
. Anteriormente, ao excluir linhas de uma tabela Delta, qualquer arquivo com pelo menos uma linha correspondente seria reescrito. Com os vetores de exclusão, essas reescritas custosas podem ser evitadas. Veja O que são vetores de exclusão? para obter mais detalhes. - Suporte para todas as operações de gravação em tabelas com vetores de exclusão habilitado.
- Suporte
PURGE
para remover vetores de exclusão da versão atual de uma tabela Delta reescrevendo todos os arquivos de dados com vetores de exclusão. Confira a documentação do para obter mais detalhes. - Suporte para leitura do feed de dados de alterações para tabelas com vetores de exclusão habilitados.
- Suporte
REPLACE WHERE
a expressões no SQL para substituir dados seletivamente. Anteriormente, as opções "replaceWhere" só tinham suporte nas APIs do DataFrameWriter. - Cláusulas de suporte
WHEN NOT MATCHED BY SOURCE
no SQL para o comando Merge. - Suporte à omissão de colunas geradas da lista de colunas para consultas SQL
INSERT INTO
. O Delta gera automaticamente os valores para quaisquer colunas geradas não especificadas. - Suporte ao tipo de dados
TimestampNTZ
adicionado no Spark 3.3. UsarTimestampNTZ
requer uma atualização de protocolo Delta; confira a documentação para obter mais informações. - Permitir a alteração do tipo de coluna de uma coluna
char
ouvarchar
para um tipo compatível no comandoALTER TABLE
. O novo comportamento é o mesmo do Apache Spark e permite o upcasting dechar
ouvarchar
paravarchar
oustring
. - Bloquear o uso de
overwriteSchema
com substituição de partição dinâmica. Esse cenário pode corromper a tabela, pois nem todos os dados podem ser removidos e o esquema das partições gravadas recentemente não pode corresponder ao esquema das partições inalteradas. - Retornar um
DataFrame
vazio para leituras do feed de dados de alteração quando não houver confirmações dentro do intervalo de carimbo de data/hora fornecido. Anteriormente, um erro seria gerado. - Corrigir um bug nas leituras do feed de dados de alteração para registros criados durante a hora ambígua quando ocorre o horário de verão.
- Corrigir um bug em que consultar uma tabela Delta externa na raiz de um bucket S3 geraria um erro.
- Remover metadados internos vazados do Spark do log Delta para tornar as tabelas afetadas legíveis novamente.
Leia a versão completa das notas de versão do Delta Lake 2.4.
Pacotes de nível padrão para bibliotecas Java/Scala
A tabela a seguir lista todos os pacotes de nível padrão para Java/Scala e suas respectivas versões.
GroupId | ArtifactId | Versão |
---|---|---|
com.aliyun | aliyun-java-sdk-core | 4.5.10 |
com.aliyun | aliyun-java-sdk-kms | 2.11.0 |
com.aliyun | aliyun-java-sdk-ram | 3.1.0 |
com.aliyun | aliyun-sdk-oss | 3.13.0 |
com.amazonaws | aws-java-sdk-bundle | 1.12.262 |
com.clearspring.analytics | fluxo | 2.9.6 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml.jackson | jackson-annotations | 2.14.2 |
com.fasterxml.jackson | jackson-core | 2.14.2 |
com.fasterxml.jackson | jackson-core-asl | 1.9.13 |
com.fasterxml.jackson | jackson-databind | 2.14.2 |
com.fasterxml.jackson | jackson-dataformat-cbor | 2.14.2 |
com.fasterxml.jackson | jackson-mapper-asl | 1.9.13 |
com.fasterxml.jackson | jackson-module-scala_2.12 | 2.14.2 |
com.github.joshelser | dropwizard-metrics-hadoop-metrics2-reporter | 0.1.2 |
com.github.luben | zstd-jni | 1.5.2-5 |
com.github.vowpalwabbit | vw-jni | 9.3.0 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.cloud.bigdataoss | gcs-connector | hadoop3-2.2.11 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.2.4 |
com.google.crypto.tink | tink | 1.7.0 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guava | 14.0.1 |
com.google.protobuf | protobuf-java | 2.5.0 |
com.googlecode.json-simple | json-simple | 1.1.1 |
com.jcraft | jsch | 0.1.54 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.linkedin.isolation-forest | isolation-forest_3.2.0_2.12 | 2.0.8 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.azure | azure-eventhubs | 3.3.0 |
com.microsoft.azure | azure-eventhubs-spark_2.12 | 2.3.22 |
com.microsoft.azure | azure-keyvault-core | 1.0.0 |
com.microsoft.azure | azure-storage | 7.0.1 |
com.microsoft.azure | cosmos-analytics-spark-3.4.1-connector_2.12 | 1.8.10 |
com.microsoft.azure | qpid-proton-j-extensions | 1.2.4 |
com.microsoft.azure | synapseml_2.12 | 0.11.2-spark3.4 |
com.microsoft.azure | synapseml-cognitive_2.12 | 0.11.2-spark3.4 |
com.microsoft.azure | synapseml-core_2.12 | 0.11.2-spark3.4 |
com.microsoft.azure | synapseml-deep-learning_2.12 | 0.11.2-spark3.4 |
com.microsoft.azure | synapseml-internal_2.12 | 0.11.2-spark3.4 |
com.microsoft.azure | synapseml-lightgbm_2.12 | 0.11.2-spark3.4 |
com.microsoft.azure | synapseml-opencv_2.12 | 0.11.2-spark3.4 |
com.microsoft.azure | synapseml-vw_2.12 | 0.11.2-spark3.4 |
com.microsoft.azure.kusto | kusto-data | 3.2.1 |
com.microsoft.azure.kusto | kusto-ingest | 3.2.1 |
com.microsoft.azure.kusto | kusto-spark_3.0_2.12 | 3.1.16 |
com.microsoft.azure.kusto | spark-kusto-synapse-connector_3.1_2.12 | 1.3.3 |
com.microsoft.cognitiveservices.speech | client-jar-sdk | 1.14.0 |
com.microsoft.sqlserver | msslq-jdbc | 8.4.1.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.istack | istack-commons-runtime | 3.0.8 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.typesafe | config | 1.3.4 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 2.5.1 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4.jar |
dev.ludovic.netlib | arpack | 3.0.3 |
dev.ludovic.netlib | blas | 3.0.3 |
dev.ludovic.netlib | lapack | 3.0.3 |
io.airlift | aircompressor | 0,21 |
io.delta | delta-core_2.12 | 2.4.0 |
io.delta | delta-storage | 2.4.0 |
io.dropwizard.metrics | metrics-core | 4.2.15 |
io.dropwizard.metrics | metrics-graphite | 4.2.15 |
io.dropwizard.metrics | metrics-jmx | 4.2.15 |
io.dropwizard.metrics | metrics-json | 4.2.15 |
io.dropwizard.metrics | metrics-jvm | 4.2.15 |
io.github.resilience4j | resilience4j-core | 1.7.1 |
io.github.resilience4j | resilience4j-retry | 1.7.1 |
io.netty | netty-all | 4.1.87.Final |
io.netty | netty-buffer | 4.1.87.Final |
io.netty | netty-codec | 4.1.87.Final |
io.netty | netty-codec-http2 | 4.1.87.Final |
io.netty | netty-codec-http-4 | 4.1.87.Final |
io.netty | netty-codec-socks | 4.1.87.Final |
io.netty | netty-common | 4.1.87.Final |
io.netty | netty-handler | 4.1.87.Final |
io.netty | netty-handler-proxy | 4.1.87.Final |
io.netty | netty-resolver | 4.1.87.Final |
io.netty | netty-transport | 4.1.87.Final |
io.netty | netty-transport-classes-epoll | 4.1.87.Final |
io.netty | netty-transport-classes-kqueue | 4.1.87.Final |
io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.87.Final |
io.opentracing | opentracing-api | 0.33.0 |
io.opentracing | opentracing-noop | 0.33.0 |
io.opentracing | opentracing-util | 0.33.0 |
io.spray | spray-json_2.12 | 1.3.5 |
io.vavr | vavr | 0.10.4 |
io.vavr | vavr-match | 0.10.4 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.inject | jakarta.inject | 2.6.1 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation-api | 2.0.2 | |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
jakarta.xml.bind | jakarta.xml.bind-api | 2.3.2 |
javax.activation | activation | 1.1.1 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1,1 |
javax.transaction | transaction-api | 1,1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.2 |
mysql | mysql-connector-java | 8.0.18 |
net.razorvine | pickle | 1,3 |
net.sf.jpam | jpam | 1,1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.py4j | py4j | 0.10.9.7 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.apache.arrow | arrow-format | 11.0.0 |
org.apache.arrow | arrow-memory-core | 11.0.0 |
org.apache.arrow | arrow-memory-netty | 11.0.0 |
org.apache.arrow | arrow-vector | 11.0.0 |
org.apache.avro | avro | 1.11.1 |
org.apache.avro | avro-ipc | 1.11.1 |
org.apache.avro | avro-mapred | 1.11.1 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.22 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-pool2 | 2.11.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | curator-client | 2.13.0 |
org.apache.curator | curator-framework | 2.13.0 |
org.apache.curator | curator-recipes | 2.13.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-aliyun | 3.3.4.5.3-105251583 |
org.apache.hadoop | hadoop-annotations | 3.3.4.5.3-105251583 |
org.apache.hadoop | hadoop-aws | 3.3.4.5.3-105251583 |
org.apache.hadoop | hadoop-azure | 3.3.4.5.3-105251583 |
org.apache.hadoop | hadoop-azure-datalake | 3.3.4.5.3-105251583 |
org.apache.hadoop | hadoop-client-api | 3.3.4.5.3-105251583 |
org.apache.hadoop | hadoop-client-runtime | 3.3.4.5.3-105251583 |
org.apache.hadoop | hadoop-cloud-storage | 3.3.4.5.3-105251583 |
org.apache.hadoop | hadoop-openstack | 3.3.4.5.3-105251583 |
org.apache.hadoop | hadoop-shaded-guava | 1.1.1 |
org.apache.hadoop | hadoop-yarn-server-web-proxy | 3.3.4.5.3-105251583 |
org.apache.hive | hive-common | 2.3.9 |
org.apache.hive | hive-exec | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-metastore | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims-0.23 | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-shims-common | 2.3.9 |
org.apache.hive | hive-shims-scheduler | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.httpcomponents | httpmime | 4.5.14 |
org.apache.httpcomponents.client5 | httpclient5 | 5.1.3 |
org.apache.iceberg | delta-iceberg | 2.4.0.6 |
org.apache.ivy | ivy | 2.5.1 |
org.apache.kafka | kafka-clients | 3.3.2 |
org.apache.logging.log4j | log4j-1.2-api | 2.19.0 |
org.apache.logging.log4j | log4j-api | 2.19.0 |
org.apache.logging.log4j | log4j-core | 2.19.0 |
org.apache.logging.log4j | log4j-slf4j-impl | 2.19.0 |
org.apache.orc | orc-core | 1.8.4 |
org.apache.orc | orc-mapreduce | 1.8.4 |
org.apache.orc | orc-shims | 1.8.4 |
org.apache.parquet | parquet-column | 1.12.3 |
org.apache.parquet | parquet-common | 1.12.3 |
org.apache.parquet | parquet-encoding | 1.12.3 |
org.apache.parquet | parquet-format-structures | 1.12.3 |
org.apache.parquet | parquet-hadoop | 1.12.3 |
org.apache.parquet | parquet-jackson | 1.12.3 |
org.apache.qpid | proton-j | 0.33.8 |
org.apache.spark | spark-avro_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-catalyst_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-core_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-graphx_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-hadoop-cloud_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-hive_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-kvstore_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-launcher_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-mllib_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-mllib-local_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-network-common_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-network-shuffle_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-repl_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-sketch_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-sql_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-sql-kafka-0-10_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-streaming_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-streaming-kafka-0-10-assembly_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-tags_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-token-provider-kafka-0-10_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-unsafe_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-yarn_2.12 | 3.4.1.5.3-105251583 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4,22% |
org.apache.yetus | audience-annotations | 0.5.0 |
org.apache.zookeeper | zookeeper | 3.6.3.5.3-105251583 |
org.apache.zookeeper | zookeeper-jute | 3.6.3.5.3-105251583 |
org.apiguardian | apiguardian-api | 1.1.0 |
org.codehaus.janino | commons-compiler | 3.1.9 |
org.codehaus.janino | janino | 3.1.9 |
org.codehaus.jettison | jettison | 1,1 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleusjavax.jdo | 3.2.0-m3 | |
org.eclipse.jetty | jetty-util | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-util-ajax | 9.4.50.v20221201 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.jaxb | jaxb-runtime | 2.3.2 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.36 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.36 |
org.glassfish.jersey.core | jersey-client | 2.36 |
org.glassfish.jersey.core | jersey-common | 2.36 |
org.glassfish.jersey.core | jersey-server | 2.36 |
org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
org.ini4j | ini4j | 0.5.4 |
org.javassist | javassist | 3.25.0-GA |
org.javatuples | javatuples | 1,2 |
org.jdom | jdom2 | 2.0.6 |
org.jetbrains | annotations | 17.0.0 |
org.jodd | jodd-core | 3.5.2 |
org.json | json | 20210307 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.junit.júpiter | junit-jupiter | 5.5.2 |
org.junit.júpiter | junit-jupiter-api | 5.5.2 |
org.junit.júpiter | junit-jupiter-engine | 5.5.2 |
org.junit.júpiter | junit-jupiter-params | 5.5.2 |
org.junit.platform | junit-platform-commons | 1.5.2 |
org.junit.platform | junit-platform-engine | 1.5.2 |
org.lz4 | lz4-java | 1.8.0 |
org.objenesis | objenesis | 3.2 |
org.openpnp | opencv | 3.2.0-1 |
org.opentest4j | opentest4j | 1.2.0 |
org.postgresql | postgresql | 42.2.9 |
org.roaringbitmap | RoaringBitmap | 0.9.38 |
org.roaringbitmap | shims | 0.9.38 |
org.rocksdb | rocksdbjni | 7.9.2 |
org.scala-lang | scala-compiler | 2.12.17 |
org.scala-lang | scala-library | 2.12.17 |
org.scala-lang | scala-reflect | 2.12.17 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.7.0 |
org.scala-lang.modules | scala-java8-compat_2.12 | 0.9.0 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 2.1.1 |
org.scala-lang.modules | scala-xml_2.12 | 2.1.0 |
org.scalactic | scalactic_2.12 | 3.2.14 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.slf4j | jcl-over-slf4j | 2.0.6 |
org.slf4j | jul-to-slf4j | 2.0.6 |
org.slf4j | slf4j-api | 2.0.6 |
org.threeten | threeten-extra | 1.7.1 |
org.tukaani | xz | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire_2.12 | 0.17.0 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial.snappy | snappy-java | 1.1.10.1 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
stax | stax-api | 1.0.1 |
Pacotes de nível padrão para Python
A tabela a seguir lista todos os pacotes de nível padrão para Python e suas respectivas versões.
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
_libgcc_mutex | 0,1 | jupyter_client | 8.5.0 | pycosat | 0.6.6 |
_openmp_mutex | 4.5 | jupyter_core | 5.4.0 | pycparser | 2.21 |
_py-xgboost-mutex | 2,0 | jupyter_events | 0.8.0 | pydantic | 1.10.9 |
absl-py | 2.0.0 | jupyter_server | 2.7.3 | pygments | 2.16.1 |
adal | 1.2.7 | jupyter_server_terminals | 0.4.4 | pyjwt | 2.8.0 |
adlfs | 2023.4.0 | jupyterlab_pygments | 0.2.2 | pynacl | 1.5.0 |
aiohttp | 3.8.6 | jupyterlab_widgets | 3.0.9 | pyodbc | 4.0.39 |
aiosignal | 1.3.1 | keras | 2.12.0 | pyopenssl | 23.2.0 |
alembic | 1.12.0 | keras-preprocessing | 1.1.2 | pyparsing | 3.0.9 |
alsa-lib | 1.2.10 | keyutils | 1.6.1 | pyperclip | 1.8.2 |
ansi2html | 1.8.0 | kiwisolver | 1.4.5 | pypika | 0.48.9 |
anyio | 3.7.1 | krb5 | 1.21.2 | pyqt | 5.15.9 |
appdirs | 1.4.4 | lame | 3,100 | pyqt5-sip | 12.12.2 |
argon2-cffi | 23.1.0 | lcms2 | 2.15 | pysocks | 1.7.1 |
argon2-cffi-bindings | 21.2.0 | ld_impl_linux-64 | 2,40 | python | 3.10.12 |
seta | 1.3.0 | lerc | 4.0.0 | python-dateutil | 2.8.2 |
asttokens | 2.4.0 | liac-arff | 2.5.0 | python-fastjsonschema | 2.18.1 |
astunparse | 1.6.3 | libabseil | 20230125.3 | python-flatbuffers | 23.5.26 |
async-timeout | 4.0.3 | libaec | 1.1.2 | python-graphviz | 0.20.1 |
atk-1.0 | 2.38.0 | libarrow | 12.0.1 | python-json-logger | 2.0.7 |
attr | 2.5.1 | libbrotlicommon | 1.0.9 | python-tzdata | 2023.3 |
attrs | 23.1.0 | libbrotlidec | 1.0.9 | python-xxhash | 3.4.1 |
autopage | 0.5.2 | libbrotlienc | 1.0.9 | python_abi | 3.10 |
aws-c-auth | 0.7.3 | libcap | 2.69 | pythonnet | 3.0.1 |
aws-c-cal | 0.6.1 | libclang | 15.0.7 | pytorch | 2.0.1 |
aws-c-common | 0.9.0 | libclang13 | 15.0.7 | pytorch-mutex | 1.0 |
aws-c-compression | 0.2.17 | libcrc32c | 1.1.2 | pytz | 2023.3.post1 |
aws-c-event-stream | 0.3.1 | libcups | 2.3.3 | pyu2f | 0.1.5 |
aws-c-http | 0.7.11 | libcurl | 8.4.0 | pywin32-on-windows | 0.1.0 |
aws-c-io | 0.13.32 | libdeflate | 1,19 | pyyaml | 6.0.1 |
aws-c-mqtt | 0.9.3 | libebm | 0.4.3 | pyzmq | 25.1.1 |
aws-c-s3 | 0.3.14 | libedit | 3.1.20191231 | qt-main | 5.15.8 |
aws-c-sdkutils | 0.1.12 | libev | 4.33 | rdma-core | 28,9 |
aws-checksums | 0.1.17 | libevent | 2.1.12 | re2 | 2023.03.02 |
aws-crt-cpp | 0.21.0 | libexpat | 2.5.0 | readline | 8.2 |
aws-sdk-cpp | 1.10.57 | libffi | 3.4.2 | referencial | 0.30.2 |
azure-core | 1.29.4 | libflac | 1.4.3 | regex | 2023.8.8 |
azure-datalake-store | 0.0.51 | libgcc-ng | 13.2.0 | solicitações | 2.31.0 |
azure-identity | 1.14.1 | libgcrypt | 1.10.1 | requests-oauthlib | 1.3.1 |
azure-storage-blob | 12.18.3 | libgd | 2.3.3 | retrying | 1.3.3 |
azure-storage-file-datalake | 12.12.0 | libgfortran-ng | 13.2.0 | rfc3339-validator | 0.1.4 |
backcall | 0.2.0 | libgfortran5 | 13.2.0 | rfc3986-validator | 0.1.1 |
backoff | 1.11.1 | libglib | 2.78.0 | rich | 13.6.0 |
backports | 1.0 | libgoogle-cloud | 2.12.0 | rpds-py | 0.10.6 |
backports.functools_lru_cache | 1.6.5 | libgpg-error | 1.47 | rsa | 4.9 |
bcrypt | 4.0.1 | libgrpc | 1.54.3 | ruamel.yaml | 0.17.32 |
beautifulsoup4 | 4.12.2 | libhwloc | 2.9.3 | ruamel.yaml.clib | 0.2.7 |
blas | 1.0 | libiconv | 1.17 | ruamel_yaml | 0.15.80 |
bleach | 6.1.0 | libjpeg-turbo | 2.1.5.1 | s2n | 1.3.49 |
blinker | 1.6.3 | libllvm14 | 14.0.6 | sacremoses | 0.0.53 |
brotli | 1.0.9 | libllvm15 | 15.0.7 | salib | 1.4.7 |
brotli-bin | 1.0.9 | libnghttp2 | 1.52.0 | scikit-learn | 1.3.0 |
brotli-python | 1.0.9 | libnsl | 2.0.1 | scipy | 1.10.1 |
bzip2 | 1.0.8 | libnuma | 2.0.16 | seaborn | 0.12.2 |
c-ares | 1.20.1 | libogg | 1.3.4 | seaborn-base | 0.12.2 |
ca-certificates | 2023.7.22 | libopus | 1.3.1 | send2trash | 1.8.2 |
cached-property | 1.5.2 | libpng | 1.6.39 | sentence-transformers | 2.0.0 |
cached_property | 1.5.2 | libpq | 15,4 | sentry-sdk | 1.32.0 |
cachetools | 5.3.2 | libprotobuf | 3.21.12 | seqeval | 1.2.2 |
cairo | 1.18.0 | libpulsar | 3.2.0 | setproctitle | 1.3.3 |
catboost | 1.1.1 | librsvg | 2.56.3 | setuptools | 68.2.2 |
certifi | 2023.7.22 | libsndfile | 1.2.2 | shap | 0.42.1 |
cffi | 1.16.0 | libsodium | 1.0.18 | shellingham | 1.5.4 |
charset-normalizer | 3.3.1 | libsqlite | 3.43.2 | sip | 6.7.12 |
chroma-hnswlib | 0.7.3 | libssh2 | 1.11.0 | six | 1.16.0 |
chromadb | 0.4.13 | libstdcxx-ng | 13.2.0 | slicer | 0.0.7 |
clique | 8.1.7 | libsystemd0 | 254 | smmap | 5.0.0 |
cliff | 4.2.0 | libthrift | 0.18.1 | snappy | 1.1.10 |
cloudpickle | 2.2.1 | libtiff | 4.6.0 | sniffio | 1.3.0 |
clr_loader | 0.2.6 | libtool | 2.4.7 | soupsieve | 2.5 |
cmaes | 0.10.0 | libutf8proc | 2.8.0 | sqlalchemy | 2.0.22 |
cmd2 | 2.4.3 | libuuid | 2.38.1 | sqlparse | 0.4.4 |
colorama | 0.4.6 | libuv | 1.46.0 | stack_data | 0.6.2 |
coloredlogs | 15.0.1 | libvorbis | 1.3.7 | starlette | 0.27.0 |
colorlog | 6.7.0 | libwebp | 1.3.2 | statsmodels | 0.14.0 |
comm | 0.1.4 | libwebp-base | 1.3.2 | stevedore | 5.1.0 |
conda-package-handling | 2.2.0 | libxcb | 1.15 | sympy | 1.12 |
conda-package-streaming | 0.9.0 | libxgboost | 1.7.6 | tabulate | 0.9.0 |
configparser | 5.3.0 | libxkbcommon | 1.6.0 | tbb | 2021.10.0 |
contourpy | 1.1.1 | libxml2 | 2.11.5 | tenacity | 8.2.3 |
criptografia | 41.0.5 | libxslt | 1.1.37 | tensorboard | 2.12.3 |
cycler | 0.12.1 | libzlib | 1.2.13 | tensorboard-data-server | 0.7.0 |
cython | 3.0.4 | lightgbm | 4.0.0 | tensorflow | 2.12.1 |
traço | 2.14.0 | lime | 0.2.0.1 | tensorflow-base | 2.12.1 |
dash-core-components | 2.0.0 | llvm-openmp | 17.0.3 | tensorflow-estimator | 2.12.1 |
dash-html-components | 2.0.0 | llvmlite | 0.40.1 | termcolor | 2.3.0 |
dash-table | 5.0.0 | lxml | 4.9.3 | terminado | 0.17.1 |
dash_cytoscape | 0.2.0 | lz4-c | 1.9.4 | threadpoolctl | 3.2.0 |
databricks-cli | 0.18.0 | mako | 1.2.4 | tiktoken | 0.5.1 |
dataclasses | 0,8 | markdown | 3.4.4 | tinycss2 | 1.2.1 |
conjuntos de dados | 2.14.6 | markdown-it-py | 3.0.0 | tk | 8.6.13 |
dbus | 1.13.6 | markupsafe | 2.1.3 | criadores de token | 0.13.3 |
debugpy | 1.8.0 | matplotlib | 3.7.2 | TOML | 0.10.2 |
decorator | 5.1.1 | matplotlib-base | 3.7.2 | tomli | 2.0.1 |
defusedxml | 0.7.1 | matplotlib-inline | 0.1.6 | toolz | 0.12.0 |
dill | 0.3.7 | mdurl | 0.1.0 | tornado | 6.3.3 |
diskcache | 5.6.3 | mistune | 3.0.1 | tqdm | 4.66.1 |
distlib | 0.3.7 | mkl | 2021.4.0 | traitlets | 5.12.0 |
docker-py | 6.1.3 | mkl-service | 2.4.0 | transformers | 4.26.0 |
docker-pycreds | 0.4.0 | mkl_fft | 1.3.1 | treeinterpreter | 0.2.2 |
entrypoints | 0,4 | mkl_random | 1.2.2 | typed-ast | 1.5.5 |
et_xmlfile | 1.1.0 | ml_dtypes | 0.3.1 | typer | 0.9.0 |
exceptiongroup | 1.1.3 | mlflow-skinny | 2.6.0 | types-python-dateutil | 2.8.19.14 |
executando | 1.2.0 | monotonic | 1.5 | types-pytz | 2023.3.1.1 |
expat | 2.5.0 | mpc | 1.3.1 | typing_extensions | 4.5.0 |
fastapi | 0.103.2 | mpfr | 4.2.1 | typing_utils | 0.1.0 |
flaml | 2.1.1dev2 | mpg123 | 1.32.3 | tzdata | 2023c |
flask | 3.0.0 | mpmath | 1.3.0 | ucx | 1.14.1 |
flatbuffers | 23.5.26 | msal | 1.24.1 | unicodedata2 | 15.1.0 |
font-ttf-dejavu-sans-mono | 2.37 | msal-extensions | 1.0.0 | unixodbc | 2.3.12 |
font-ttf-inconsolata | 3.000 | multidict | 6.0.4 | uri-template | 1.3.0 |
font-ttf-source-code-pro | 2.038 | multiprocess | 0.70.15 | urllib3 | 1.26.17 |
font-ttf-ubuntu | 0,83 | munkres | 1.1.4 | uvicorn | 0.23.2 |
fontconfig | 2.14.2 | mysql-common | 8.0.33 | virtualenv | 20.23.1 |
fonts-conda-ecosystem | 1 | mysql-libs | 8.0.33 | wandb | 0.15.12 |
fonts-conda-forge | 1 | nbclient | 0.8.0 | wcwidth | 0.2.8 |
fonttools | 4.43.1 | nbconvert-core | 7.9.2 | webcolors | 1.13 |
fqdn | 1.5.1 | nbformat | 5.9.2 | webencodings | 0.5.1 |
freetype | 2.12.1 | ncurses | 6.4 | websocket-client | 1.6.4 |
fribidi | 1.0.10 | nest-asyncio | 1.5.8 | werkzeug | 3.0.1 |
frozenlist | 1.4.0 | networkx | 3.2 | wheel | 0.41.2 |
fsspec | 2023.10.0 | nltk | 3.8.1 | widgetsnbextension | 4.0.9 |
gast | 0.4.0 | nspr | 4.35 | wrapt | 1.15.0 |
gdk-pixbuf | 2.42.10 | nss | 3,94 | xcb-util | 0.4.0 |
geographiclib | 1,52 | numba | 0.57.1 | xcb-util-image | 0.4.0 |
geopy | 2.3.0 | numpy | 1.24.3 | xcb-util-keysyms | 0.4.0 |
gettext | 0.21.1 | numpy-base | 1.24.3 | xcb-util-renderutil | 0.3.9 |
gevent | 23.9.0.post1 | oauthlib | 3.2.2 | xcb-util-wm | 0.4.1 |
gflags | 2.2.2 | onnxruntime | 1.16.1 | xgboost | 1.7.6 |
giflib | 5.2.1 | openai | 0.27.8 | xkeyboard-config | 2,40 |
gitdb | 4.0.11 | openjpeg | 2.5.0 | xorg-kbproto | 1.0.7 |
gitpython | 3.1.40 | openpyxl | 3.1.2 | xorg-libice | 1.1.1 |
glib | 2.78.0 | openssl | 3.1.4 | xorg-libsm | 1.2.4 |
glib-tools | 2.78.0 | opt-einsum | 3.3.0 | xorg-libx11 | 1.8.7 |
glog | 0.6.0 | opt_einsum | 3.3.0 | xorg-libxau | 1.0.11 |
gmp | 6.2.1 | optuna | 2.8.0 | xorg-libxdmcp | 1.1.3 |
gmpy2 | 2.1.2 | orc | 1.9.0 | xorg-libxext | 1.3.4 |
google-auth | 2.23.3 | substitui | 7.4.0 | xorg-libxrender | 0.9.11 |
google-auth-oauthlib | 1.0.0 | empacotando | 23,2 | xorg-renderproto | 0.11.1 |
google-pasta | 0.2.0 | pandas | 2.0.3 | xorg-xextproto | 7.3.0 |
graphite2 | 1.3.13 | pandas-stubs | 2.1.1.230928 | xorg-xf86vidmodeproto | 2.3.1 |
Graphviz | 8.1.0 | pandasql | 0.7.3 | xorg-xproto | 7.0.31 |
greenlet | 3.0.1 | pandocfilters | 1.5.0 | xxhash | 0.8.2 |
grpcio | 1.54.3 | pango | 1.50.14 | xz | 5.2.6 |
gst-plugins-base | 1.22.6 | paramiko | 3.3.1 | yaml | 0.2.5 |
gstreamer | 1.22.6 | parso | 0.8.3 | yarl | 1.9.2 |
gtk2 | 2.24.33 | pathos | 0.3.1 | zeromq | 4.3.5 |
gts | 0.7.6 | pathtools | 0.1.2 | zipp | 3.17.0 |
h11 | 0.14.0 | patsy | 0.5.3 | zlib | 1.2.13 |
h5py | 3.10.0 | pbr | 5.11.1 | zope.event | 5,0 |
harfbuzz | 8.2.1 | pcre2 | 10.40 | zope.interface | 6.1 |
hdf5 | 1.14.2 | pexpect | 4.8.0 | zstandard | 0.21.0 |
feriados | 0,35 | pickleshare | 0.7.5 | zstd | 1.5.5 |
html5lib | 1,1 | pillow | 10.0.1 | astor | 0.8.1 |
huggingface_hub | 0.18.0 | pip | 23.1.2 | contextlib2 | 21.6.0 |
humanfriendly | 10.0 | pixman | 0.42.2 | filelock | 3.11.0 |
icu | 73,2 | pkgutil-resolve-name | 1.3.10 | fluent-logger | 0.10.0 |
idna | 3.4 | platformdirs | 3.5.1 | gson | 0.0.3 |
imageio | 2.31.1 | plotly | 5.16.1 | jaraco-context | 4.3.0 |
importlib-metadata | 6.8.0 | ply | 3.11 | joblibspark | 0.5.2 |
importlib_resources | 6.1.0 | pooch | 1.8.0 | json-tricks | 3.17.3 |
importlib-metadata | 6.8.0 | portalocker | 2.8.2 | jupyter-ui-poll | 0.2.2 |
importlib_resources | 6.1.0 | posthog | 3.0.2 | more-itertools | 10.1.0 |
intel-openmp | 2021.4.0 | pox | 0.3.3 | msgpack | 1.0.7 |
interpretar | 0.4.3 | ppft | 1.7.6.7 | mypy | 1.4.1 |
interpret-core | 0.4.3 | prettytable | 3.8.0 | mypy-extensions | 1.0.0 |
ipykernel | 6.26.0 | prometheus_client | 0.17.1 | nni | 2.10.1 |
ipython | 8.14.0 | prompt-toolkit | 3.0.39 | powerbiclient | 3.1.1 |
ipywidgets | 8.0.7 | prompt_toolkit | 3.0.39 | pyspark | 3.4.1.5.3.20230713 |
isodate | 0.6.1 | protobuf | 4.21.12 | pythonwebhdfs | 0.2.3 |
isoduration | 20.11.0 | psutil | 5.9.5 | responses | 0.23.3 |
itsdangerous | 2.1.2 | pthread-stubs | 0,4 | rouge-score | 0.1.2 |
jax | 0.4.17 | ptyprocess | 0.7.0 | esquema | 0.7.5 |
jaxlib | 0.4.14 | pulsar-client | 3.3.0 | simplejson | 3.19.2 |
jedi | 0.19.1 | pulseaudio-client | 16.1 | synapseml-mlflow | 1.0.22.post2 |
jinja2 | 3.1.2 | pure_eval | 0.2.2 | synapseml-utils | 1.0.18.post1 |
joblib | 1.3.2 | py-xgboost | 1.7.6 | typeguard | 2.13.3 |
jsonpointer | 2.4 | py4j | 0.10.9.7 | types-pyyaml | 6.0.12.12 |
jsonschema | 4.19.1 | pyarrow | 12.0.1 | typing-extensions | 4.8.0 |
jsonschema-specifications | 2023.7.1 | pyasn1 | 0.5.0 | websockets | 12.0 |
jsonschema-with-format-nongpl | 4.19.1 | pyasn1-modules | 0.3.0 | wolframalpha | 5.0.0 |
xmltodict | 0.13.0 |
Pacotes de nível padrão para R
A tabela a seguir lista todos os pacotes de nível padrão para R e suas respectivas versões.
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
_libgcc_mutex | 0,1 | r-caret | 6.0_94 | r-praise | 1.0.0 |
_openmp_mutex | 4.5 | r-cellranger | 1.1.0 | r-prettyunits | 1.2.0 |
_r-mutex | 1.0.1 | r-class | 7.3_22 | r-proc | 1.18.4 |
_r-xgboost-mutex | 2,0 | r-cli | 3.6.1 | r-processx | 3.8.2 |
aws-c-auth | 0.7.0 | r-clipr | 0.8.0 | r-prodlim | 2023.08.28 |
aws-c-cal | 0.6.0 | r-clock | 0.7.0 | r-profvis | 0.3.8 |
aws-c-common | 0.8.23 | r-codetools | 0.2_19 | r-progress | 1.2.2 |
aws-c-compression | 0.2.17 | r-collections | 0.3.7 | r-progressr | 0.14.0 |
aws-c-event-stream | 0.3.1 | r-colorspace | 2.1_0 | r-promises | 1.2.1 |
aws-c-http | 0.7.10 | r-commonmark | 1.9.0 | r-proxy | 0.4_27 |
aws-c-io | 0.13.27 | r-config | 0.3.2 | r-pryr | 0.1.6 |
aws-c-mqtt | 0.8.13 | r-conflicted | 1.2.0 | r-ps | 1.7.5 |
aws-c-s3 | 0.3.12 | r-coro | 1.0.3 | r-purrr | 1.0.2 |
aws-c-sdkutils | 0.1.11 | r-cpp11 | 0.4.6 | r-quantmod | 0.4.25 |
aws-checksums | 0.1.16 | r-crayon | 1.5.2 | r-r2d3 | 0.2.6 |
aws-crt-cpp | 0.20.2 | r-credentials | 2.0.1 | r-r6 | 2.5.1 |
aws-sdk-cpp | 1.10.57 | r-crosstalk | 1.2.0 | r-r6p | 0.3.0 |
binutils_impl_linux-64 | 2,40 | r-crul | 1.4.0 | r-ragg | 1.2.6 |
bwidget | 1.9.14 | r-curl | 5.1.0 | r-rappdirs | 0.3.3 |
bzip2 | 1.0.8 | r-data.table | 1.14.8 | r-rbokeh | 0.5.2 |
c-ares | 1.20.1 | r-dbi | 1.1.3 | r-rcmdcheck | 1.4.0 |
ca-certificates | 2023.7.22 | r-dbplyr | 2.3.4 | r-rcolorbrewer | 1.1_3 |
cairo | 1.18.0 | r-desc | 1.4.2 | r-rcpp | 1.0.11 |
cmake | 3.27.6 | r-devtools | 2.4.5 | r-reactable | 0.4.4 |
curl | 8.4.0 | r-diagram | 1.6.5 | r-reactr | 0.5.0 |
expat | 2.5.0 | r-dials | 1.2.0 | r-readr | 2.1.4 |
font-ttf-dejavu-sans-mono | 2.37 | r-dicedesign | 1.9 | r-readxl | 1.4.3 |
font-ttf-inconsolata | 3.000 | r-diffobj | 0.3.5 | r-recipes | 1.0.8 |
font-ttf-source-code-pro | 2.038 | r-digest | 0.6.33 | r-rematch | 2.0.0 |
font-ttf-ubuntu | 0,83 | r-downlit | 0.4.3 | r-rematch2 | 2.1.2 |
fontconfig | 2.14.2 | r-dplyr | 1.1.3 | r-remotes | 2.4.2.1 |
fonts-conda-ecosystem | 1 | r-dtplyr | 1.3.1 | r-reprex | 2.0.2 |
fonts-conda-forge | 1 | r-e1071 | 1.7_13 | r-reshape2 | 1.4.4 |
freetype | 2.12.1 | r-ellipsis | 0.3.2 | r-rjson | 0.2.21 |
fribidi | 1.0.10 | r-evaluate | 0,23 | r-rlang | 1.1.1 |
gcc_impl_linux-64 | 13.2.0 | r-fansi | 1.0.5 | r-rlist | 0.4.6.2 |
gettext | 0.21.1 | r-farver | 2.1.1 | r-rmarkdown | 2.22 |
gflags | 2.2.2 | r-fastmap | 1.1.1 | r-rodbc | 1.3_20 |
gfortran_impl_linux-64 | 13.2.0 | r-fontawesome | 0.5.2 | r-roxygen2 | 7.2.3 |
glog | 0.6.0 | r-forcats | 1.0.0 | r-rpart | 4.1.21 |
glpk | 5,0 | r-foreach | 1.5.2 | r-rprojroot | 2.0.3 |
gmp | 6.2.1 | r-forge | 0.2.0 | r-rsample | 1.2.0 |
graphite2 | 1.3.13 | r-fs | 1.6.3 | r-rstudioapi | 0.15.0 |
gsl | 2.7 | r-furrr | 0.3.1 | r-rversions | 2.1.2 |
gxx_impl_linux-64 | 13.2.0 | r-future | 1.33.0 | r-rvest | 1.0.3 |
harfbuzz | 8.2.1 | r-future.apply | 1.11.0 | r-sass | 0.4.7 |
icu | 73,2 | r-gargle | 1.5.2 | r-scales | 1.2.1 |
kernel-headers_linux-64 | 2.6.32 | r-generics | 0.1.3 | r-selectr | 0.4_2 |
keyutils | 1.6.1 | r-gert | 2.0.0 | r-sessioninfo | 1.2.2 |
krb5 | 1.21.2 | r-ggplot2 | 3.4.2 | r-shape | 1.4.6 |
ld_impl_linux-64 | 2,40 | r-gh | 1.4.0 | r-shiny | 1.7.5.1 |
lerc | 4.0.0 | r-gistr | 0.9.0 | r-slider | 0.3.1 |
libabseil | 20230125.3 | r-gitcreds | 0.1.2 | r-sourcetools | 0.1.7_1 |
libarrow | 12.0.0 | r-globals | 0.16.2 | r-sparklyr | 1.8.2 |
libblas | 3.9.0 | r-glue | 1.6.2 | r-squarem | 2021.1 |
libbrotlicommon | 1.0.9 | r-googledrive | 2.1.1 | r-stringi | 1.7.12 |
libbrotlidec | 1.0.9 | r-googlesheets4 | 1.1.1 | r-stringr | 1.5.0 |
libbrotlienc | 1.0.9 | r-gower | 1.0.1 | r-survival | 3.5_7 |
libcblas | 3.9.0 | r-gpfit | 1.0_8 | r-sys | 3.4.2 |
libcrc32c | 1.1.2 | r-gt | 0.9.0 | r-systemfonts | 1.0.5 |
libcurl | 8.4.0 | r-gtable | 0.3.4 | r-testthat | 3.2.0 |
libdeflate | 1,19 | r-gtsummary | 1.7.2 | r-textshaping | 0.3.7 |
libedit | 3.1.20191231 | r-hardhat | 1.3.0 | r-tibble | 3.2.1 |
libev | 4.33 | r-haven | 2.5.3 | r-tidymodels | 1.1.0 |
libevent | 2.1.12 | r-hexbin | 1.28.3 | r-tidyr | 1.3.0 |
libexpat | 2.5.0 | r-highcharter | 0.9.4 | r-tidyselect | 1.2.0 |
libffi | 3.4.2 | r-highr | 0,10 | r-tidyverse | 2.0.0 |
libgcc-devel_linux-64 | 13.2.0 | r-hms | 1.1.3 | r-timechange | 0.2.0 |
libgcc-ng | 13.2.0 | r-htmltools | 0.5.6.1 | r-timedate | 4022.108 |
libgfortran-ng | 13.2.0 | r-htmlwidgets | 1.6.2 | r-tinytex | 0.48 |
libgfortran5 | 13.2.0 | r-httpcode | 0.3.0 | r-torch | 0.11.0 |
libgit2 | 1.7.1 | r-httpuv | 1.6.12 | r-triebeard | 0.4.1 |
libglib | 2.78.0 | r-httr | 1.4.7 | r-ttr | 0.24.3 |
libgomp | 13.2.0 | r-httr2 | 0.2.3 | r-tune | 1.1.2 |
libgoogle-cloud | 2.12.0 | r-ids | 1.0.1 | r-tzdb | 0.4.0 |
libgrpc | 1.55.1 | r-igraph | 1.5.1 | r-urlchecker | 1.0.1 |
libiconv | 1.17 | r-infer | 1.0.5 | r-urltools | 1.7.3 |
libjpeg-turbo | 3.0.0 | r-ini | 0.3.1 | r-usethis | 2.2.2 |
liblapack | 3.9.0 | r-ipred | 0.9_14 | r-utf8 | 1.2.4 |
libnghttp2 | 1.55.1 | r-isoband | 0.2.7 | r-uuid | 1.1_1 |
libnuma | 2.0.16 | r-iterators | 1.0.14 | r-v8 | 4.4.0 |
libopenblas | 0.3.24 | r-jose | 1.2.0 | r-vctrs | 0.6.4 |
libpng | 1.6.39 | r-jquerylib | 0.1.4 | r-viridislite | 0.4.2 |
libprotobuf | 4.23.2 | r-jsonlite | 1.8.7 | r-vroom | 1.6.4 |
libsanitizer | 13.2.0 | r-juicyjuice | 0.1.0 | r-waldo | 0.5.1 |
libssh2 | 1.11.0 | r-kernsmooth | 2.23_22 | r-warp | 0.2.0 |
libstdcxx-devel_linux-64 | 13.2.0 | r-knitr | 1,45 | r-whisker | 0.4.1 |
libstdcxx-ng | 13.2.0 | r-labeling | 0.4.3 | r-withr | 2.5.2 |
libthrift | 0.18.1 | r-labelled | 2.12.0 | r-workflows | 1.1.3 |
libtiff | 4.6.0 | r-later | 1.3.1 | r-workflowsets | 1.0.1 |
libutf8proc | 2.8.0 | r-lattice | 0.22_5 | r-xfun | 0,41 |
libuuid | 2.38.1 | r-lava | 1.7.2.1 | r-xgboost | 1.7.4 |
libuv | 1.46.0 | r-lazyeval | 0.2.2 | r-xml | 3.99_0.14 |
libv8 | 8.9.83 | r-lhs | 1.1.6 | r-xml2 | 1.3.5 |
libwebp-base | 1.3.2 | r-lifecycle | 1.0.3 | r-xopen | 1.0.0 |
libxcb | 1.15 | r-lightgbm | 3.3.5 | r-xtable | 1.8_4 |
libxgboost | 1.7.4 | r-listenv | 0.9.0 | r-xts | 0.13.1 |
libxml2 | 2.11.5 | r-lobstr | 1.1.2 | r-yaml | 2.3.7 |
libzlib | 1.2.13 | r-lubridate | 1.9.3 | r-yardstick | 1.2.0 |
lz4-c | 1.9.4 | r-magrittr | 2.0.3 | r-zip | 2.3.0 |
make | 4.3 | r-maps | 3.4.1 | r-zoo | 1.8_12 |
ncurses | 6.4 | r-markdown | 1.11 | rdma-core | 28,9 |
openssl | 3.1.4 | r-mass | 7.3_60 | re2 | 2023.03.02 |
orc | 1.8.4 | r-matrix | 1.6_1.1 | readline | 8.2 |
pandoc | 2.19.2 | r-memoise | 2.0.1 | rhash | 1.4.4 |
pango | 1.50.14 | r-mgcv | 1.9_0 | s2n | 1.3.46 |
pcre2 | 10.40 | r-mime | 0,12 | sed | 4.8 |
pixman | 0.42.2 | r-miniui | 0.1.1.1 | snappy | 1.1.10 |
pthread-stubs | 0,4 | r-modeldata | 1.2.0 | sysroot_linux-64 | 2.12 |
r-arrow | 12.0.0 | r-modelenv | 0.1.1 | tk | 8.6.13 |
r-askpass | 1.2.0 | r-modelmetrics | 1.2.2.2 | tktable | 2,10 |
r-assertthat | 0.2.1 | r-modelr | 0.1.11 | ucx | 1.14.1 |
r-backports | 1.4.1 | r-munsell | 0.5.0 | unixodbc | 2.3.12 |
r-base | 4.2.3 | r-nlme | 3.1_163 | xorg-kbproto | 1.0.7 |
r-base64enc | 0.1_3 | r-nnet | 7.3_19 | xorg-libice | 1.1.1 |
r-bigd | 0.2.0 | r-numderiv | 2016.8_1.1 | xorg-libsm | 1.2.4 |
r-bit | 4.0.5 | r-openssl | 2.1.1 | xorg-libx11 | 1.8.7 |
r-bit64 | 4.0.5 | r-parallelly | 1.36.0 | xorg-libxau | 1.0.11 |
r-bitops | 1.0_7 | r-parsnip | 1.1.1 | xorg-libxdmcp | 1.1.3 |
r-blob | 1.2.4 | r-patchwork | 1.1.3 | xorg-libxext | 1.3.4 |
r-brew | 1.0_8 | r-pillar | 1.9.0 | xorg-libxrender | 0.9.11 |
r-brio | 1.1.3 | r-pkgbuild | 1.4.2 | xorg-libxt | 1.3.0 |
r-broom | 1.0.5 | r-pkgconfig | 2.0.3 | xorg-renderproto | 0.11.1 |
r-broom.helpers | 1.14.0 | r-pkgdown | 2.0.7 | xorg-xextproto | 7.3.0 |
r-bslib | 0.5.1 | r-pkgload | 1.3.3 | xorg-xproto | 7.0.31 |
r-cachem | 1.0.8 | r-plotly | 4.10.2 | xz | 5.2.6 |
r-callr | 3.7.3 | r-plyr | 1.8.9 | zlib | 1.2.13 |
zstd | 1.5.5 |
Conteúdo relacionado
Comentários
https://aka.ms/ContentUserFeedback.
Em breve: Ao longo de 2024, eliminaremos os problemas do GitHub como o mecanismo de comentários para conteúdo e o substituiremos por um novo sistema de comentários. Para obter mais informações, consulteEnviar e exibir comentários de