Compartilhar via


Runtime 1.2

O Microsoft Fabric Runtime é uma plataforma integrada ao Azure baseada no Apache Spark que permite a execução e o gerenciamento de experiências de engenharia de dados e ciência de dados. Este documento aborda os componentes e versões do Runtime 1.2.

O Microsoft Fabric Runtime 1.2 é a versão de runtime de GA mais recente. Os principais componentes do Runtime 1.2 incluem:

  • Apache Spark 3.4.1
  • Sistema operacional: Mariner 2.0
  • Java: 11
  • Scala: 2.12.17
  • Python: 3.10
  • Delta Lake: 2.4.0
  • R: 4.2.2

Screenshot showing where to select runtime version.

O Microsoft Fabric Runtime 1.2 vem com uma coleção de pacotes de nível padrão, incluindo uma instalação completa do Anaconda e bibliotecas comumente usadas para Java/Scala, Python e R. Essas bibliotecas são incluídas automaticamente ao usar notebooks ou trabalhos na plataforma Microsoft Fabric. Consulte a documentação para obter uma lista completa de bibliotecas. O Microsoft Fabric distribui periodicamente atualizações de manutenção para o Runtime 1.2, fornecendo correções de bugs, aprimoramentos de desempenho e patches de segurança. Manter-se atualizado garante o desempenho e a confiabilidade ideais para suas tarefas de processamento de dados.

Novos recursos e melhorias do Spark versão 3.4.1

O Apache Spark 3.4.0 é a quinta versão da linha 3.x. Esta versão, impulsionada pela comunidade de software livre, resolveu mais de 2.600 tíquetes Jira. Ela apresenta um cliente Python para Spark Connect, aprimora o fluxo estruturado com acompanhamento de progresso assíncrono e processamento com estado do Python. Ela expande a cobertura da API do Pandas com suporte de entrada NumPy, simplifica a migração de data warehouses tradicionais por meio de conformidade ANSI e apresenta novas funções internas. Ela também melhora a produtividade e a depuração do desenvolvimento com a criação de perfil de memória. Além disso, o Runtime 1.2 é baseado no Apache Spark 3.4.1, uma versão de manutenção focada em correções de estabilidade.

Principais destaques

  • Implementação de suporte para valores DEFAULT para colunas em tabelas (SPARK-38334)
  • Suporte a TIMESTAMP SEM tipo de dados TIMEZONE (SPARK-35662)
  • Suporte a "Referências de alias de coluna lateral" (SPARK-27561)
  • Proteger o uso do SQLSTATE para classes de erro (SPARK-41994)
  • Habilitar junções de filtro Bloom por padrão (SPARK-38841)
  • Melhor escalabilidade da interface do usuário do Spark e estabilidade do driver para aplicativos grandes (SPARK-41053)
  • Acompanhamento de progresso assíncrono em streaming estruturado (SPARK-39591)
  • Processamento com estado arbitrário no Fluxo Estruturado com o Python (SPARK-40434)
  • Melhorias na cobertura da API do Pandas (SPARK-42882) e suporte à entrada NumPy no PySpark (SPARK-39405)
  • Fornecer um criador de perfil de memória para funções definidas pelo usuário do PySpark (SPARK-40281)
  • Implementar o Distribuidor PyTorch (SPARK-41589)
  • Publicar artefatos de SBOM (lista de materiais de software) (SPARK-41893)
  • Implementação de suporte para valores DEFAULT para colunas em tabelas (SPARK-38334)
  • Compatível com SQL parametrizado (SPARK-41271, SPARK-42702)
  • Implementação de suporte para valores DEFAULT para colunas em tabelas (SPARK-38334)
  • Add Dataset.as(StructType) (SPARK-39625)
  • Compatível com SQL parametrizado (SPARK-41271, SPARK-42702)
  • Adicionar transformar colunas em linhas / derretimento (SPARK-38864, SPARK-39876)
  • Suporte a "referências de alias de coluna lateral" (SPARK-27561)
  • Compatível com cláusula de deslocamento de resultado (SPARK-28330, SPARK-39159)
  • Compatível com carimbo de data/hora sem tipo de dados de fuso horário (SPARK-35662)
  • Compatível com subconsultas escalares em viagens no tempo (SPARK-39306)
  • Torne a API do Catálogo compatível com o namespace de 3 camadas (SPARK-39235)
  • Compatíevcl com carimbo de data/hora em segundos para TimeTravel usando opções do Dataframe (SPARK-39633)
  • Adicionar SparkSession.config(Map) (SPARK-40163)
  • Compatível com alteração do banco de dados padrão do catálogo de sessão (SPARK-35242)
  • Compatibilidade do Protobuf para Spark - from_protobuf E to_protobuf (SPARK-40654)
  • Adicionar a cláusula WHEN NOT MATCHED BY SOURCE a MERGE INTO (SPARK-40921)
  • Relaxar a restrição de ordem para as opções de coluna CREATE TABLE (SPARK-40944)
  • Equivalente do SQL para o comando de substituição do Dataframe (SPARK-40956)
  • Compatível com Gerar sem necessidade de saída filho para hospedar referências externas (SPARK-41441)
  • ORDER BY ALL (SPARK-41637)
  • GROUP BY ALL (SPARK-41635)
  • Adicionar flatMapSortedGroups e cogroupSorted (SPARK-38591)
  • Compatível com subconsultas com predicados de não igualdade correlacionados (SPARK-36114)
  • Compatível com subconsultas com correlação por meio de UNION/INTERSECT/EXCEPT (SPARK-36124)
  • A correção do erro OOM não pode ser relatada quando AQE (execução de consulta adaptável) em (SPARK-42290)
  • A correção da lógica de corte não lidou com os caracteres de controle ASCII corretamente (SPARK-44383)
  • Dataframe.joinWith outer-join deve retornar um valor nulo para linha sem correspondência (SPARK-37829)
  • Usar os utils para obter a opção de alocação dinâmica usada no ponto de verificação local (SPARK-42421)
  • Adicionar CapturedException a utils (SPARK-42078)
  • Suporte a SELECT DEFAULT com ORDER BY, LIMIT, OFFSET para a relação de origem INSERT (SPARK-43071)
  • Cliente Python para Spark Connect (SPARK-39375)

Leia a versão completa das notas de versão de uma versão específica do Apache Spark visitando Spark 3.4.0 e Spark 3.4.1.

Novas otimizações de consulta personalizadas

Suporte de gravações simultâneas no Spark

Encontrar um erro 404 com a mensagem "Falha na operação: o caminho especificado não existe" é um problema comum ao executar inserções de dados paralelas na mesma tabela usando uma consulta SQL INSERT INTO. Esse erro pode resultar em perda de dados. Nosso novo recurso, o Algoritmo de Confirmação de Saída de Arquivo, resolve esse problema, permitindo que os clientes executem a inserção de dados paralela perfeitamente.

Para acessar esse recurso, habilite o sinalizador de recurso spark.sql.enable.concurrentWrites, que está habilitado por padrão a partir do Runtime 1.2 (Spark 3.4). Embora esse recurso também esteja disponível em outras versões do Spark 3, ele não está habilitado por padrão. Esse recurso não dá suporte à execução paralela de consultas INSERT OVERWRITE em que cada trabalho simultâneo substitui dados em partições diferentes da mesma tabela dinamicamente. Para essa finalidade, o Spark oferece um recurso alternativo, que pode ser ativado definindo a configuração spark.sql.sources.partitionOverwriteMode como dinâmica.

Leituras inteligentes, que ignoram arquivos de trabalhos com falha

No sistema de confirmação do Spark atual, quando uma inserção em um trabalho de tabela falha, mas algumas tarefas são bem-sucedidas, os arquivos gerados pelas tarefas bem-sucedidas coexistem com arquivos do trabalho com falha. Essa coexistência pode causar confusão para os usuários, pois torna-se desafiador distinguir entre arquivos pertencentes a trabalhos bem-sucedidos e malsucedidos. Além disso, quando um trabalho lê de uma tabela enquanto outro está inserindo dados simultaneamente na mesma tabela, o trabalho de leitura pode acessar dados não confirmados. Se um trabalho de gravação falhar, o trabalho de leitura poderá processar dados incorretos.

O sinalizador spark.sql.auto.cleanup.enabled controla nosso novo recurso, resolvendo esse problema. Quando habilitado, o Spark ignora automaticamente a leitura de arquivos que não foram confirmados quando ele executa spark.read ou seleciona consultas de uma tabela. Os arquivos gravados antes de habilitar esse recurso continuam a ser lidos normalmente.

Aqui estão as alterações visíveis:

  • Todos os arquivos agora incluem um identificador tid-{jobID} em seus nomes de arquivo.
  • Em vez do marcador _success normalmente criado no local de saída após a conclusão bem-sucedida do trabalho, um novo marcador _committed_{jobID} é gerado. Esse marcador associa IDs de trabalho bem-sucedidas a nomes de arquivo específicos.
  • Introduzimos um novo comando SQL que os usuários podem executar periodicamente para gerenciar o armazenamento e limpar arquivos não confirmados. A sintaxe deste comando é a seguinte:
    • Para limpar um diretório específico: CLEANUP ('/path/to/dir') [RETAIN number HOURS];
    • Para limpar uma tabela específica: CLEANUP [db_name.]table_name [RETAIN number HOURS]; Nesta sintaxe, path/to/dir representa o URI do local em que a limpeza é necessária e number é um valor de tipo duplo que representa o período de retenção. O período de retenção padrão é definido como sete dias.
  • Introduzimos uma nova opção de configuração chamada spark.sql.deleteUncommittedFilesWhileListing, que é definida como false por padrão. Habilitar essa opção resulta na exclusão automática de arquivos não confirmados durante as leituras, mas esse cenário pode atrasar as operações de leitura. É recomendável executar manualmente o comando de limpeza quando o cluster estiver ocioso em vez de habilitar esse sinalizador.

Guia de migração do Runtime 1.1 para o Runtime 1.2

Ao migrar do Runtime 1.1, alimentado pelo Apache Spark 3.3, para o Runtime 1.2, alimentado pelo Apache Spark 3.4, examine o guia oficial de migração. Aqui estão os principais destaques:

Núcleo

  • Desde o Spark 3.4, o driver do Spark é proprietário de PersistentVolumnClaims e tenta reutilizar se eles não forem atribuídos a executores dinâmicos. Para restaurar o comportamento antes do Spark 3.4, você pode definir spark.kubernetes.driver.ownPersistentVolumeClaim como false e spark.kubernetes.driver.reusePersistentVolumeClaim como false.
  • Desde o Spark 3.4, o driver do Spark rastreia dados de ordem aleatória quando a alocação dinâmica é habilitada sem o serviço de ordem aleatória. Para restaurar o comportamento antes do Spark 3.4, você pode definir spark.dynamicAllocation.shuffleTracking.enabled como false.
  • Desde o Spark 3.4, o Spark tenta desativar o conjunto de dados distribuído resiliente (RDD) armazenado em cache e colocar blocos em ordem aleatória se tanto spark.decommission.enabled quanto spark.storage.decommission.enabled forem verdadeiros. Para restaurar o comportamento antes do Spark 3.4, você pode definir spark.storage.decommission.rddBlocks.enabled e spark.storage.decommission.shuffleBlocks.enabled como false.
  • Desde o Spark 3.4, o Spark usa o repositório RocksDB se spark.history.store.hybridStore.enabled for verdadeiro. Para restaurar o comportamento antes do Spark 3.4, você pode definir spark.history.store.hybridStore.diskBackend como LEVELDB.

PySpark

  • No Spark 3.4, o esquema de uma coluna de matriz é inferido mesclando os esquemas de todos os elementos na matriz. Para restaurar o comportamento anterior em que o esquema só é inferido do primeiro elemento, você pode definir spark.sql.pyspark.legacy.inferArrayTypeFromFirstElement.enabled como true.
  • No Spark 3.4, ao usar a API do Pandas no Spark Groupby.apply, se o tipo de retorno do parâmetro func não for especificado e compute.shortcut_limit for definido como 0, o número de linhas de amostragem será automaticamente definido como 2. Esse ajuste garante que haja sempre pelo menos duas linhas de amostragem para manter a inferência precisa do esquema.
  • No Spark 3.4, se a API do Pandas no Spark Index.insert estiver fora dos limites, ele gerará IndexError com index {} is out of bounds for axis 0 with size {} para seguir o comportamento do Pandas 1.4.
  • No Spark 3.4, o nome da série é preservado na API do Pandas no Spark Series.mode para se alinhar ao comportamento do Pandas 1.4.
  • No Spark 3.4, a API Index.__setitem__ do Pandas no Spark verifica primeiro se o tipo value é o tipo Column para evitar gerar um aumento inesperado de ValueError em is_list_like como Não é possível converter a coluna em booliano: use "&" para "e", "|" para "ou", "~" para "não" ao criar expressões boolianas do DataFrame.
  • No Spark 3.4, a API do Pandas no Spark astype('category') também atualiza categories.dtype de acordo com dados originais dtype para seguir o comportamento do Pandas 1.4.
  • No Spark 3.4, a API do Pandas no Spark dá suporte ao grupo pela indexação posicional em GroupBy.head e GroupBy.tail para seguir o Pandas 1.4. Os argumentos negativos agora funcionam corretamente e resultam em intervalos relativos ao final e ao início de cada grupo. Anteriormente, os argumentos negativos retornavam quadros vazios.
  • No Spark 3.4, o processo de esquema de inferência do groupby.apply no Pandas no Spark inferirá primeiro o tipo do Pandas para garantir a precisão do Pandas dtype o máximo possível.
  • No Spark 3.4, o parâmetro de classificação Series.concat é respeitado para seguir os comportamentos do Pandas 1.4.
  • No Spark 3.4, o DataFrame.__setitem__ faz uma cópia e substitui matrizes pré-existentes, que NÃO serão gravadas em substituição para seguir os comportamentos do Pandas 1.4.
  • No Spark 3.4, o SparkSession.sql e a API do Pandas no Spark sql receberam o novo parâmetro args, que fornece associação de parâmetros nomeados aos literais do SQL.
  • No Spark 3.4, a API do Pandas no Spark segue para o Pandas 2.0, e algumas APIs foram preteridas ou removidas no Spark 3.4 de acordo com as mudanças feitas no Pandas 2.0. Confira as [notas de versão do pandas](https://pandas.pydata.org/docs/dev/whatsnew/) para obter mais detalhes.

SQL, conjuntos de dados e dataframe

  • Desde o Spark 3.4, comandos INSERT INTO com listas de colunas explícitas que compreendem menos colunas do que a tabela de destino adicionam automaticamente os valores padrão correspondentes para as colunas restantes (ou NULL para qualquer coluna sem um valor padrão explicitamente atribuído). No Spark 3.3 ou anterior, esses comandos falhariam, retornando erros informando que o número de colunas fornecidas não corresponde ao número de colunas na tabela de destino. Desabilitar spark.sql.defaultColumn.useNullsForMissingDefaultValues restaura o comportamento anterior.
  • Desde o Spark 3.4, Número ou Número(*) do Teradata é tratado como Decimal(38,18). No Spark 3.3 ou anterior, Número ou Número(*) do Teradata é tratado como Decimal(38, 0); nesse caso, a parte fracionária é removida.
  • Desde o Spark 3.4, banco de dados v1, tabela, exibição permanente e identificador de função incluem "spark_catalog" como o nome do catálogo se o banco de dados for definido, por exemplo, um identificador de tabela é: spark_catalog.default.t. Para restaurar o comportamento herdado, defina spark.sql.legacy.v1IdentifierNoCatalog como true.
  • Desde o Spark 3.4, quando o modo ANSI SQL(configuração spark.sql.ansi.enabled) está ativado, o SPARK SQL sempre retorna o resultado NULL ao obter um valor de mapa com uma chave inexistente. No Spark 3.3 ou anterior, há um erro.
  • Desde o Spark 3.4, a CLI do SQL spark-sql não imprime o prefixo Error in query: antes da mensagem de erro de AnalysisException.
  • Desde o Spark 3.4, a função split ignora as cadeias de caracteres vazias à direita quando o parâmetro regex está vazio.
  • Desde o Spark 3.4, a função to_binary gera um erro para uma entrada malformada str. Use try_to_binary para tolerar entradas malformadas e retornar NULO.
    • A cadeia de caracteres válida Base64 deve incluir símbolos do alfabeto base64 (A-Za-z0-9+/), preenchimento opcional (=) e espaços em branco opcionais. Os espaços em branco são ignorados na conversão, exceto quando são precedidos por símbolos de preenchimento. Se o preenchimento estiver presente, ele deverá concluir a cadeia de caracteres e seguir as regras descritas no RFC 4648 § 4.
    • Cadeias de caracteres hexadecimais válidas devem incluir apenas símbolos permitidos (0-9A-Fa-f).
    • Os valores válidos de fmt são hex, base64, utf-8 e utf8, sem diferenciar maiúsculas de minúsculas.
  • Desde o Spark 3.4, o Spark só gera PartitionsAlreadyExistException quando cria partições, mas algumas delas já existem. No Spark 3.3 ou anterior, o Spark pode lançar um PartitionsAlreadyExistException ou PartitionAlreadyExistsException.
  • Desde o Spark 3.4, o Spark valida a especificação de partição em ALTER PARTITION para seguir o comportamento de spark.sql.storeAssignmentPolicy, o que pode causar uma exceção se a conversão de tipo falhar, por exemplo ALTER TABLE .. ADD PARTITION(p='a'), se a coluna p for do tipo int. Para restaurar o comportamento herdado, defina spark.sql.legacy.skipTypeValidationOnAlterPartition como true.
  • Desde o Spark 3.4, os leitores vetoriais são habilitados por padrão para os tipos de dados aninhados (matriz, mapa e struct). Para restaurar o comportamento herdado, defina spark.sql.orc.enableNestedColumnVectorizedReader e spark.sql.parquet.enableNestedColumnVectorizedReader como false.
  • Desde o Spark 3.4, BinaryType não tem suporte na fonte de dados CSV. No Spark 3.3 ou anterior, os usuários podem escrever colunas binárias na fonte de dados CSV, mas o conteúdo de saída em arquivos CSV é Object.toString(), o que não tem sentido; entretanto, se os usuários lerem tabelas CSV com colunas binárias, o Spark gerará uma exceção Unsupported type: binary.
  • Desde o Spark 3.4, as junções de filtro bloom são habilitadas por padrão. Para restaurar o comportamento herdado, defina spark.sql.optimizer.runtime.bloomFilter.enabled como false.

Streaming estruturado

  • Desde o Spark 3.4, Trigger.Once foi preterido e os usuários são incentivados a migrar de Trigger.Once para Trigger.AvailableNow. Confira SPARK-39805 para obter mais detalhes.
  • Desde o Spark 3.4, o valor padrão da configuração para a busca de deslocamento do Kafka (spark.sql.streaming.kafka.useDeprecatedOffsetFetching) é alterado de true para false. O padrão não depende mais do agendamento baseado em grupo de consumidores, o que afeta a ACL necessária. Para obter mais informações, confira Integração do fluxo estruturado ao Kafka.

Novos recursos e melhorias do Delta Lake 2.4

O Delta Lake é um projeto de software livre que permite a construção de uma arquitetura de lakehouse com base em data lakes. O Delta Lake fornece transações ACID e tratamento de metadados escalonável, além de unificar o processamento de dados de streaming e em lote com base nos data lakes existentes.

Especificamente, o Delta Lake oferece:

  • Transações ACID no Spark: os níveis de isolamento serializáveis asseguram que os leitores nunca vejam dados inconsistentes.
  • Tratamento escalonável de metadados: usa o poder de processamento distribuído do Spark para lidar com todos os metadados de tabelas em escala petabyte com bilhões de arquivos à vontade.
  • Streaming e unificação em lote: uma tabela no Delta Lake é uma tabela em lotes e uma fonte de streaming e um coletor. A ingestão de dados de streaming, o provisionamento histórico em lote e as consultas interativas funcionam imediatamente.
  • Imposição de esquema: trata automaticamente as variações de esquema para evitar a inserção de registros inválidos durante a ingestão.
  • Viagem no tempo: o controle de versão de dados permite reversões, trilhas de auditoria de histórico completas e experimentos de machine learning reproduzíveis.
  • Upserts e deletes: dá suporte a operações de mesclagem, atualização e exclusão para habilitar casos de uso complexos, como a captura de dados de alteração, operações de dimensão de alteração lenta (SCD), upserts de streaming e assim por diante.

Os principais recursos desta versão são os seguintes

  • Suporte para Apache Spark 3.4.
  • Suporte à gravação de Vetores de exclusão para o comando DELETE. Anteriormente, ao excluir linhas de uma tabela Delta, qualquer arquivo com pelo menos uma linha correspondente seria reescrito. Com os vetores de exclusão, essas reescritas custosas podem ser evitadas. Veja O que são vetores de exclusão? para obter mais detalhes.
  • Suporte para todas as operações de gravação em tabelas com vetores de exclusão habilitado.
  • SuportePURGE para remover vetores de exclusão da versão atual de uma tabela Delta reescrevendo todos os arquivos de dados com vetores de exclusão. Confira a documentação do para obter mais detalhes.
  • Suporte para leitura do feed de dados de alterações para tabelas com vetores de exclusão habilitados.
  • SuporteREPLACE WHERE a expressões no SQL para substituir dados seletivamente. Anteriormente, as opções "replaceWhere" só tinham suporte nas APIs do DataFrameWriter.
  • Cláusulas de suporteWHEN NOT MATCHED BY SOURCE no SQL para o comando Merge.
  • Suporte à omissão de colunas geradas da lista de colunas para consultas SQL INSERT INTO. O Delta gera automaticamente os valores para quaisquer colunas geradas não especificadas.
  • Suporte ao tipo de dados TimestampNTZ adicionado no Spark 3.3. Usar TimestampNTZ requer uma atualização de protocolo Delta; confira a documentação para obter mais informações.
  • Permitir a alteração do tipo de coluna de uma coluna char ou varchar para um tipo compatível no comando ALTER TABLE. O novo comportamento é o mesmo do Apache Spark e permite o upcasting de char ou varchar para varchar ou string.
  • Bloquear o uso de overwriteSchema com substituição de partição dinâmica. Esse cenário pode corromper a tabela, pois nem todos os dados podem ser removidos e o esquema das partições gravadas recentemente não pode corresponder ao esquema das partições inalteradas.
  • Retornar um DataFrame vazio para leituras do feed de dados de alteração quando não houver confirmações dentro do intervalo de carimbo de data/hora fornecido. Anteriormente, um erro seria gerado.
  • Corrigir um bug nas leituras do feed de dados de alteração para registros criados durante a hora ambígua quando ocorre o horário de verão.
  • Corrigir um bug em que consultar uma tabela Delta externa na raiz de um bucket S3 geraria um erro.
  • Remover metadados internos vazados do Spark do log Delta para tornar as tabelas afetadas legíveis novamente.

Leia a versão completa das notas de versão do Delta Lake 2.4.

Pacotes de nível padrão para bibliotecas Java/Scala

A tabela a seguir lista todos os pacotes de nível padrão para Java/Scala e suas respectivas versões.

GroupId ArtifactId Versão
com.aliyun aliyun-java-sdk-core 4.5.10
com.aliyun aliyun-java-sdk-kms 2.11.0
com.aliyun aliyun-java-sdk-ram 3.1.0
com.aliyun aliyun-sdk-oss 3.13.0
com.amazonaws aws-java-sdk-bundle 1.12.262
com.clearspring.analytics fluxo 2.9.6
com.esotericsoftware kryo-shaded 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml.jackson jackson-annotations 2.14.2
com.fasterxml.jackson jackson-core 2.14.2
com.fasterxml.jackson jackson-core-asl 1.9.13
com.fasterxml.jackson jackson-databind 2.14.2
com.fasterxml.jackson jackson-dataformat-cbor 2.14.2
com.fasterxml.jackson jackson-mapper-asl 1.9.13
com.fasterxml.jackson jackson-module-scala_2.12 2.14.2
com.github.joshelser dropwizard-metrics-hadoop-metrics2-reporter 0.1.2
com.github.luben zstd-jni 1.5.2-5
com.github.vowpalwabbit vw-jni 9.3.0
com.github.wendykierp JTransforms 3.1
com.google.cloud.bigdataoss gcs-connector hadoop3-2.2.11
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.2.4
com.google.crypto.tink tink 1.7.0
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava guava 14.0.1
com.google.protobuf protobuf-java 2.5.0
com.googlecode.json-simple json-simple 1.1.1
com.jcraft jsch 0.1.54
com.jolbox bonecp 0.8.0.RELEASE
com.linkedin.isolation-forest isolation-forest_3.2.0_2.12 2.0.8
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.microsoft.azure azure-eventhubs 3.3.0
com.microsoft.azure azure-eventhubs-spark_2.12 2.3.22
com.microsoft.azure azure-keyvault-core 1.0.0
com.microsoft.azure azure-storage 7.0.1
com.microsoft.azure cosmos-analytics-spark-3.4.1-connector_2.12 1.8.10
com.microsoft.azure qpid-proton-j-extensions 1.2.4
com.microsoft.azure synapseml_2.12 0.11.2-spark3.4
com.microsoft.azure synapseml-cognitive_2.12 0.11.2-spark3.4
com.microsoft.azure synapseml-core_2.12 0.11.2-spark3.4
com.microsoft.azure synapseml-deep-learning_2.12 0.11.2-spark3.4
com.microsoft.azure synapseml-internal_2.12 0.11.2-spark3.4
com.microsoft.azure synapseml-lightgbm_2.12 0.11.2-spark3.4
com.microsoft.azure synapseml-opencv_2.12 0.11.2-spark3.4
com.microsoft.azure synapseml-vw_2.12 0.11.2-spark3.4
com.microsoft.azure.kusto kusto-data 3.2.1
com.microsoft.azure.kusto kusto-ingest 3.2.1
com.microsoft.azure.kusto kusto-spark_3.0_2.12 3.1.16
com.microsoft.azure.kusto spark-kusto-synapse-connector_3.1_2.12 1.3.3
com.microsoft.cognitiveservices.speech client-jar-sdk 1.14.0
com.microsoft.sqlserver msslq-jdbc 8.4.1.jre8
com.ning compress-lzf 1.1.2
com.sun.istack istack-commons-runtime 3.0.8
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.typesafe config 1.3.4
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 2.5.1
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.15
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4.jar
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib blas 3.0.3
dev.ludovic.netlib lapack 3.0.3
io.airlift aircompressor 0,21
io.delta delta-core_2.12 2.4.0
io.delta delta-storage 2.4.0
io.dropwizard.metrics metrics-core 4.2.15
io.dropwizard.metrics metrics-graphite 4.2.15
io.dropwizard.metrics metrics-jmx 4.2.15
io.dropwizard.metrics metrics-json 4.2.15
io.dropwizard.metrics metrics-jvm 4.2.15
io.github.resilience4j resilience4j-core 1.7.1
io.github.resilience4j resilience4j-retry 1.7.1
io.netty netty-all 4.1.87.Final
io.netty netty-buffer 4.1.87.Final
io.netty netty-codec 4.1.87.Final
io.netty netty-codec-http2 4.1.87.Final
io.netty netty-codec-http-4 4.1.87.Final
io.netty netty-codec-socks 4.1.87.Final
io.netty netty-common 4.1.87.Final
io.netty netty-handler 4.1.87.Final
io.netty netty-handler-proxy 4.1.87.Final
io.netty netty-resolver 4.1.87.Final
io.netty netty-transport 4.1.87.Final
io.netty netty-transport-classes-epoll 4.1.87.Final
io.netty netty-transport-classes-kqueue 4.1.87.Final
io.netty netty-transport-native-epoll 4.1.87.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.87.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.87.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.87.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.1.87.Final
io.opentracing opentracing-api 0.33.0
io.opentracing opentracing-noop 0.33.0
io.opentracing opentracing-util 0.33.0
io.spray spray-json_2.12 1.3.5
io.vavr vavr 0.10.4
io.vavr vavr-match 0.10.4
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.inject jakarta.inject 2.6.1
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
jakarta.xml.bind jakarta.xml.bind-api 2.3.2
javax.activation activation 1.1.1
javax.jdo jdo-api 3.0.1
javax.transaction jta 1,1
javax.transaction transaction-api 1,1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.12.2
mysql mysql-connector-java 8.0.18
net.razorvine pickle 1,3
net.sf.jpam jpam 1,1
net.sf.opencsv opencsv 2.3
net.sf.py4j py4j 0.10.9.7
net.sourceforge.f2j arpack_combined_all 0,1
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.9.3
org.apache.arrow arrow-format 11.0.0
org.apache.arrow arrow-memory-core 11.0.0
org.apache.arrow arrow-memory-netty 11.0.0
org.apache.arrow arrow-vector 11.0.0
org.apache.avro avro 1.11.1
org.apache.avro avro-ipc 1.11.1
org.apache.avro avro-mapred 1.11.1
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.22
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-pool2 2.11.1
org.apache.commons commons-text 1.10.0
org.apache.curator curator-client 2.13.0
org.apache.curator curator-framework 2.13.0
org.apache.curator curator-recipes 2.13.0
org.apache.derby derby 10.14.2.0
org.apache.hadoop hadoop-aliyun 3.3.4.5.3-105251583
org.apache.hadoop hadoop-annotations 3.3.4.5.3-105251583
org.apache.hadoop hadoop-aws 3.3.4.5.3-105251583
org.apache.hadoop hadoop-azure 3.3.4.5.3-105251583
org.apache.hadoop hadoop-azure-datalake 3.3.4.5.3-105251583
org.apache.hadoop hadoop-client-api 3.3.4.5.3-105251583
org.apache.hadoop hadoop-client-runtime 3.3.4.5.3-105251583
org.apache.hadoop hadoop-cloud-storage 3.3.4.5.3-105251583
org.apache.hadoop hadoop-openstack 3.3.4.5.3-105251583
org.apache.hadoop hadoop-shaded-guava 1.1.1
org.apache.hadoop hadoop-yarn-server-web-proxy 3.3.4.5.3-105251583
org.apache.hive hive-common 2.3.9
org.apache.hive hive-exec 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-metastore 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims-0.23 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive hive-shims-common 2.3.9
org.apache.hive hive-shims-scheduler 2.3.9
org.apache.hive hive-storage-api 2.8.1
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.httpcomponents httpmime 4.5.14
org.apache.httpcomponents.client5 httpclient5 5.1.3
org.apache.iceberg delta-iceberg 2.4.0.6
org.apache.ivy ivy 2.5.1
org.apache.kafka kafka-clients 3.3.2
org.apache.logging.log4j log4j-1.2-api 2.19.0
org.apache.logging.log4j log4j-api 2.19.0
org.apache.logging.log4j log4j-core 2.19.0
org.apache.logging.log4j log4j-slf4j-impl 2.19.0
org.apache.orc orc-core 1.8.4
org.apache.orc orc-mapreduce 1.8.4
org.apache.orc orc-shims 1.8.4
org.apache.parquet parquet-column 1.12.3
org.apache.parquet parquet-common 1.12.3
org.apache.parquet parquet-encoding 1.12.3
org.apache.parquet parquet-format-structures 1.12.3
org.apache.parquet parquet-hadoop 1.12.3
org.apache.parquet parquet-jackson 1.12.3
org.apache.qpid proton-j 0.33.8
org.apache.spark spark-avro_2.12 3.4.1.5.3-105251583
org.apache.spark spark-catalyst_2.12 3.4.1.5.3-105251583
org.apache.spark spark-core_2.12 3.4.1.5.3-105251583
org.apache.spark spark-graphx_2.12 3.4.1.5.3-105251583
org.apache.spark spark-hadoop-cloud_2.12 3.4.1.5.3-105251583
org.apache.spark spark-hive_2.12 3.4.1.5.3-105251583
org.apache.spark spark-kvstore_2.12 3.4.1.5.3-105251583
org.apache.spark spark-launcher_2.12 3.4.1.5.3-105251583
org.apache.spark spark-mllib_2.12 3.4.1.5.3-105251583
org.apache.spark spark-mllib-local_2.12 3.4.1.5.3-105251583
org.apache.spark spark-network-common_2.12 3.4.1.5.3-105251583
org.apache.spark spark-network-shuffle_2.12 3.4.1.5.3-105251583
org.apache.spark spark-repl_2.12 3.4.1.5.3-105251583
org.apache.spark spark-sketch_2.12 3.4.1.5.3-105251583
org.apache.spark spark-sql_2.12 3.4.1.5.3-105251583
org.apache.spark spark-sql-kafka-0-10_2.12 3.4.1.5.3-105251583
org.apache.spark spark-streaming_2.12 3.4.1.5.3-105251583
org.apache.spark spark-streaming-kafka-0-10-assembly_2.12 3.4.1.5.3-105251583
org.apache.spark spark-tags_2.12 3.4.1.5.3-105251583
org.apache.spark spark-token-provider-kafka-0-10_2.12 3.4.1.5.3-105251583
org.apache.spark spark-unsafe_2.12 3.4.1.5.3-105251583
org.apache.spark spark-yarn_2.12 3.4.1.5.3-105251583
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-shaded 4,22%
org.apache.yetus audience-annotations 0.5.0
org.apache.zookeeper zookeeper 3.6.3.5.3-105251583
org.apache.zookeeper zookeeper-jute 3.6.3.5.3-105251583
org.apiguardian apiguardian-api 1.1.0
org.codehaus.janino commons-compiler 3.1.9
org.codehaus.janino janino 3.1.9
org.codehaus.jettison jettison 1,1
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleusjavax.jdo 3.2.0-m3
org.eclipse.jetty jetty-util 9.4.50.v20221201
org.eclipse.jetty jetty-util-ajax 9.4.50.v20221201
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.jaxb jaxb-runtime 2.3.2
org.glassfish.jersey.containers jersey-container-servlet 2.36
org.glassfish.jersey.containers jersey-container-servlet-core 2.36
org.glassfish.jersey.core jersey-client 2.36
org.glassfish.jersey.core jersey-common 2.36
org.glassfish.jersey.core jersey-server 2.36
org.glassfish.jersey.inject jersey-hk2 2.36
org.ini4j ini4j 0.5.4
org.javassist javassist 3.25.0-GA
org.javatuples javatuples 1,2
org.jdom jdom2 2.0.6
org.jetbrains annotations 17.0.0
org.jodd jodd-core 3.5.2
org.json json 20210307
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.junit.júpiter junit-jupiter 5.5.2
org.junit.júpiter junit-jupiter-api 5.5.2
org.junit.júpiter junit-jupiter-engine 5.5.2
org.junit.júpiter junit-jupiter-params 5.5.2
org.junit.platform junit-platform-commons 1.5.2
org.junit.platform junit-platform-engine 1.5.2
org.lz4 lz4-java 1.8.0
org.objenesis objenesis 3.2
org.openpnp opencv 3.2.0-1
org.opentest4j opentest4j 1.2.0
org.postgresql postgresql 42.2.9
org.roaringbitmap RoaringBitmap 0.9.38
org.roaringbitmap shims 0.9.38
org.rocksdb rocksdbjni 7.9.2
org.scala-lang scala-compiler 2.12.17
org.scala-lang scala-library 2.12.17
org.scala-lang scala-reflect 2.12.17
org.scala-lang.modules scala-collection-compat_2.12 2.7.0
org.scala-lang.modules scala-java8-compat_2.12 0.9.0
org.scala-lang.modules scala-parser-combinators_2.12 2.1.1
org.scala-lang.modules scala-xml_2.12 2.1.0
org.scalactic scalactic_2.12 3.2.14
org.scalanlp breeze-macros_2.12 2.1.0
org.scalanlp breeze_2.12 2.1.0
org.slf4j jcl-over-slf4j 2.0.6
org.slf4j jul-to-slf4j 2.0.6
org.slf4j slf4j-api 2.0.6
org.threeten threeten-extra 1.7.1
org.tukaani xz 1.9
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel spire_2.12 0.17.0
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.0.7.Final
org.xerial.snappy snappy-java 1.1.10.1
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
stax stax-api 1.0.1

Pacotes de nível padrão para Python

A tabela a seguir lista todos os pacotes de nível padrão para Python e suas respectivas versões.

Biblioteca Versão Biblioteca Versão Biblioteca Versão
_libgcc_mutex 0,1 jupyter_client 8.5.0 pycosat 0.6.6
_openmp_mutex 4.5 jupyter_core 5.4.0 pycparser 2.21
_py-xgboost-mutex 2,0 jupyter_events 0.8.0 pydantic 1.10.9
absl-py 2.0.0 jupyter_server 2.7.3 pygments 2.16.1
adal 1.2.7 jupyter_server_terminals 0.4.4 pyjwt 2.8.0
adlfs 2023.4.0 jupyterlab_pygments 0.2.2 pynacl 1.5.0
aiohttp 3.8.6 jupyterlab_widgets 3.0.9 pyodbc 4.0.39
aiosignal 1.3.1 keras 2.12.0 pyopenssl 23.2.0
alembic 1.12.0 keras-preprocessing 1.1.2 pyparsing 3.0.9
alsa-lib 1.2.10 keyutils 1.6.1 pyperclip 1.8.2
ansi2html 1.8.0 kiwisolver 1.4.5 pypika 0.48.9
anyio 3.7.1 krb5 1.21.2 pyqt 5.15.9
appdirs 1.4.4 lame 3,100 pyqt5-sip 12.12.2
argon2-cffi 23.1.0 lcms2 2.15 pysocks 1.7.1
argon2-cffi-bindings 21.2.0 ld_impl_linux-64 2,40 python 3.10.12
seta 1.3.0 lerc 4.0.0 python-dateutil 2.8.2
asttokens 2.4.0 liac-arff 2.5.0 python-fastjsonschema 2.18.1
astunparse 1.6.3 libabseil 20230125.3 python-flatbuffers 23.5.26
async-timeout 4.0.3 libaec 1.1.2 python-graphviz 0.20.1
atk-1.0 2.38.0 libarrow 12.0.1 python-json-logger 2.0.7
attr 2.5.1 libbrotlicommon 1.0.9 python-tzdata 2023.3
attrs 23.1.0 libbrotlidec 1.0.9 python-xxhash 3.4.1
autopage 0.5.2 libbrotlienc 1.0.9 python_abi 3.10
aws-c-auth 0.7.3 libcap 2.69 pythonnet 3.0.1
aws-c-cal 0.6.1 libclang 15.0.7 pytorch 2.0.1
aws-c-common 0.9.0 libclang13 15.0.7 pytorch-mutex 1.0
aws-c-compression 0.2.17 libcrc32c 1.1.2 pytz 2023.3.post1
aws-c-event-stream 0.3.1 libcups 2.3.3 pyu2f 0.1.5
aws-c-http 0.7.11 libcurl 8.4.0 pywin32-on-windows 0.1.0
aws-c-io 0.13.32 libdeflate 1,19 pyyaml 6.0.1
aws-c-mqtt 0.9.3 libebm 0.4.3 pyzmq 25.1.1
aws-c-s3 0.3.14 libedit 3.1.20191231 qt-main 5.15.8
aws-c-sdkutils 0.1.12 libev 4.33 rdma-core 28,9
aws-checksums 0.1.17 libevent 2.1.12 re2 2023.03.02
aws-crt-cpp 0.21.0 libexpat 2.5.0 readline 8.2
aws-sdk-cpp 1.10.57 libffi 3.4.2 referencial 0.30.2
azure-core 1.29.4 libflac 1.4.3 regex 2023.8.8
azure-datalake-store 0.0.51 libgcc-ng 13.2.0 solicitações 2.31.0
azure-identity 1.14.1 libgcrypt 1.10.1 requests-oauthlib 1.3.1
azure-storage-blob 12.18.3 libgd 2.3.3 retrying 1.3.3
azure-storage-file-datalake 12.12.0 libgfortran-ng 13.2.0 rfc3339-validator 0.1.4
backcall 0.2.0 libgfortran5 13.2.0 rfc3986-validator 0.1.1
backoff 1.11.1 libglib 2.78.0 rich 13.6.0
backports 1.0 libgoogle-cloud 2.12.0 rpds-py 0.10.6
backports.functools_lru_cache 1.6.5 libgpg-error 1.47 rsa 4.9
bcrypt 4.0.1 libgrpc 1.54.3 ruamel.yaml 0.17.32
beautifulsoup4 4.12.2 libhwloc 2.9.3 ruamel.yaml.clib 0.2.7
blas 1.0 libiconv 1.17 ruamel_yaml 0.15.80
bleach 6.1.0 libjpeg-turbo 2.1.5.1 s2n 1.3.49
blinker 1.6.3 libllvm14 14.0.6 sacremoses 0.0.53
brotli 1.0.9 libllvm15 15.0.7 salib 1.4.7
brotli-bin 1.0.9 libnghttp2 1.52.0 scikit-learn 1.3.0
brotli-python 1.0.9 libnsl 2.0.1 scipy 1.10.1
bzip2 1.0.8 libnuma 2.0.16 seaborn 0.12.2
c-ares 1.20.1 libogg 1.3.4 seaborn-base 0.12.2
ca-certificates 2023.7.22 libopus 1.3.1 send2trash 1.8.2
cached-property 1.5.2 libpng 1.6.39 sentence-transformers 2.0.0
cached_property 1.5.2 libpq 15,4 sentry-sdk 1.32.0
cachetools 5.3.2 libprotobuf 3.21.12 seqeval 1.2.2
cairo 1.18.0 libpulsar 3.2.0 setproctitle 1.3.3
catboost 1.1.1 librsvg 2.56.3 setuptools 68.2.2
certifi 2023.7.22 libsndfile 1.2.2 shap 0.42.1
cffi 1.16.0 libsodium 1.0.18 shellingham 1.5.4
charset-normalizer 3.3.1 libsqlite 3.43.2 sip 6.7.12
chroma-hnswlib 0.7.3 libssh2 1.11.0 six 1.16.0
chromadb 0.4.13 libstdcxx-ng 13.2.0 slicer 0.0.7
clique 8.1.7 libsystemd0 254 smmap 5.0.0
cliff 4.2.0 libthrift 0.18.1 snappy 1.1.10
cloudpickle 2.2.1 libtiff 4.6.0 sniffio 1.3.0
clr_loader 0.2.6 libtool 2.4.7 soupsieve 2.5
cmaes 0.10.0 libutf8proc 2.8.0 sqlalchemy 2.0.22
cmd2 2.4.3 libuuid 2.38.1 sqlparse 0.4.4
colorama 0.4.6 libuv 1.46.0 stack_data 0.6.2
coloredlogs 15.0.1 libvorbis 1.3.7 starlette 0.27.0
colorlog 6.7.0 libwebp 1.3.2 statsmodels 0.14.0
comm 0.1.4 libwebp-base 1.3.2 stevedore 5.1.0
conda-package-handling 2.2.0 libxcb 1.15 sympy 1.12
conda-package-streaming 0.9.0 libxgboost 1.7.6 tabulate 0.9.0
configparser 5.3.0 libxkbcommon 1.6.0 tbb 2021.10.0
contourpy 1.1.1 libxml2 2.11.5 tenacity 8.2.3
criptografia 41.0.5 libxslt 1.1.37 tensorboard 2.12.3
cycler 0.12.1 libzlib 1.2.13 tensorboard-data-server 0.7.0
cython 3.0.4 lightgbm 4.0.0 tensorflow 2.12.1
traço 2.14.0 lime 0.2.0.1 tensorflow-base 2.12.1
dash-core-components 2.0.0 llvm-openmp 17.0.3 tensorflow-estimator 2.12.1
dash-html-components 2.0.0 llvmlite 0.40.1 termcolor 2.3.0
dash-table 5.0.0 lxml 4.9.3 terminado 0.17.1
dash_cytoscape 0.2.0 lz4-c 1.9.4 threadpoolctl 3.2.0
databricks-cli 0.18.0 mako 1.2.4 tiktoken 0.5.1
dataclasses 0,8 markdown 3.4.4 tinycss2 1.2.1
conjuntos de dados 2.14.6 markdown-it-py 3.0.0 tk 8.6.13
dbus 1.13.6 markupsafe 2.1.3 criadores de token 0.13.3
debugpy 1.8.0 matplotlib 3.7.2 TOML 0.10.2
decorator 5.1.1 matplotlib-base 3.7.2 tomli 2.0.1
defusedxml 0.7.1 matplotlib-inline 0.1.6 toolz 0.12.0
dill 0.3.7 mdurl 0.1.0 tornado 6.3.3
diskcache 5.6.3 mistune 3.0.1 tqdm 4.66.1
distlib 0.3.7 mkl 2021.4.0 traitlets 5.12.0
docker-py 6.1.3 mkl-service 2.4.0 transformers 4.26.0
docker-pycreds 0.4.0 mkl_fft 1.3.1 treeinterpreter 0.2.2
entrypoints 0,4 mkl_random 1.2.2 typed-ast 1.5.5
et_xmlfile 1.1.0 ml_dtypes 0.3.1 typer 0.9.0
exceptiongroup 1.1.3 mlflow-skinny 2.6.0 types-python-dateutil 2.8.19.14
executando 1.2.0 monotonic 1.5 types-pytz 2023.3.1.1
expat 2.5.0 mpc 1.3.1 typing_extensions 4.5.0
fastapi 0.103.2 mpfr 4.2.1 typing_utils 0.1.0
flaml 2.1.1dev2 mpg123 1.32.3 tzdata 2023c
flask 3.0.0 mpmath 1.3.0 ucx 1.14.1
flatbuffers 23.5.26 msal 1.24.1 unicodedata2 15.1.0
font-ttf-dejavu-sans-mono 2.37 msal-extensions 1.0.0 unixodbc 2.3.12
font-ttf-inconsolata 3.000 multidict 6.0.4 uri-template 1.3.0
font-ttf-source-code-pro 2.038 multiprocess 0.70.15 urllib3 1.26.17
font-ttf-ubuntu 0,83 munkres 1.1.4 uvicorn 0.23.2
fontconfig 2.14.2 mysql-common 8.0.33 virtualenv 20.23.1
fonts-conda-ecosystem 1 mysql-libs 8.0.33 wandb 0.15.12
fonts-conda-forge 1 nbclient 0.8.0 wcwidth 0.2.8
fonttools 4.43.1 nbconvert-core 7.9.2 webcolors 1.13
fqdn 1.5.1 nbformat 5.9.2 webencodings 0.5.1
freetype 2.12.1 ncurses 6.4 websocket-client 1.6.4
fribidi 1.0.10 nest-asyncio 1.5.8 werkzeug 3.0.1
frozenlist 1.4.0 networkx 3.2 wheel 0.41.2
fsspec 2023.10.0 nltk 3.8.1 widgetsnbextension 4.0.9
gast 0.4.0 nspr 4.35 wrapt 1.15.0
gdk-pixbuf 2.42.10 nss 3,94 xcb-util 0.4.0
geographiclib 1,52 numba 0.57.1 xcb-util-image 0.4.0
geopy 2.3.0 numpy 1.24.3 xcb-util-keysyms 0.4.0
gettext 0.21.1 numpy-base 1.24.3 xcb-util-renderutil 0.3.9
gevent 23.9.0.post1 oauthlib 3.2.2 xcb-util-wm 0.4.1
gflags 2.2.2 onnxruntime 1.16.1 xgboost 1.7.6
giflib 5.2.1 openai 0.27.8 xkeyboard-config 2,40
gitdb 4.0.11 openjpeg 2.5.0 xorg-kbproto 1.0.7
gitpython 3.1.40 openpyxl 3.1.2 xorg-libice 1.1.1
glib 2.78.0 openssl 3.1.4 xorg-libsm 1.2.4
glib-tools 2.78.0 opt-einsum 3.3.0 xorg-libx11 1.8.7
glog 0.6.0 opt_einsum 3.3.0 xorg-libxau 1.0.11
gmp 6.2.1 optuna 2.8.0 xorg-libxdmcp 1.1.3
gmpy2 2.1.2 orc 1.9.0 xorg-libxext 1.3.4
google-auth 2.23.3 substitui 7.4.0 xorg-libxrender 0.9.11
google-auth-oauthlib 1.0.0 empacotando 23,2 xorg-renderproto 0.11.1
google-pasta 0.2.0 pandas 2.0.3 xorg-xextproto 7.3.0
graphite2 1.3.13 pandas-stubs 2.1.1.230928 xorg-xf86vidmodeproto 2.3.1
Graphviz 8.1.0 pandasql 0.7.3 xorg-xproto 7.0.31
greenlet 3.0.1 pandocfilters 1.5.0 xxhash 0.8.2
grpcio 1.54.3 pango 1.50.14 xz 5.2.6
gst-plugins-base 1.22.6 paramiko 3.3.1 yaml 0.2.5
gstreamer 1.22.6 parso 0.8.3 yarl 1.9.2
gtk2 2.24.33 pathos 0.3.1 zeromq 4.3.5
gts 0.7.6 pathtools 0.1.2 zipp 3.17.0
h11 0.14.0 patsy 0.5.3 zlib 1.2.13
h5py 3.10.0 pbr 5.11.1 zope.event 5,0
harfbuzz 8.2.1 pcre2 10.40 zope.interface 6.1
hdf5 1.14.2 pexpect 4.8.0 zstandard 0.21.0
feriados 0,35 pickleshare 0.7.5 zstd 1.5.5
html5lib 1,1 pillow 10.0.1 astor 0.8.1
huggingface_hub 0.18.0 pip 23.1.2 contextlib2 21.6.0
humanfriendly 10.0 pixman 0.42.2 filelock 3.11.0
icu 73,2 pkgutil-resolve-name 1.3.10 fluent-logger 0.10.0
idna 3.4 platformdirs 3.5.1 gson 0.0.3
imageio 2.31.1 plotly 5.16.1 jaraco-context 4.3.0
importlib-metadata 6.8.0 ply 3.11 joblibspark 0.5.2
importlib_resources 6.1.0 pooch 1.8.0 json-tricks 3.17.3
importlib-metadata 6.8.0 portalocker 2.8.2 jupyter-ui-poll 0.2.2
importlib_resources 6.1.0 posthog 3.0.2 more-itertools 10.1.0
intel-openmp 2021.4.0 pox 0.3.3 msgpack 1.0.7
interpretar 0.4.3 ppft 1.7.6.7 mypy 1.4.1
interpret-core 0.4.3 prettytable 3.8.0 mypy-extensions 1.0.0
ipykernel 6.26.0 prometheus_client 0.17.1 nni 2.10.1
ipython 8.14.0 prompt-toolkit 3.0.39 powerbiclient 3.1.1
ipywidgets 8.0.7 prompt_toolkit 3.0.39 pyspark 3.4.1.5.3.20230713
isodate 0.6.1 protobuf 4.21.12 pythonwebhdfs 0.2.3
isoduration 20.11.0 psutil 5.9.5 responses 0.23.3
itsdangerous 2.1.2 pthread-stubs 0,4 rouge-score 0.1.2
jax 0.4.17 ptyprocess 0.7.0 esquema 0.7.5
jaxlib 0.4.14 pulsar-client 3.3.0 simplejson 3.19.2
jedi 0.19.1 pulseaudio-client 16.1 synapseml-mlflow 1.0.22.post2
jinja2 3.1.2 pure_eval 0.2.2 synapseml-utils 1.0.18.post1
joblib 1.3.2 py-xgboost 1.7.6 typeguard 2.13.3
jsonpointer 2.4 py4j 0.10.9.7 types-pyyaml 6.0.12.12
jsonschema 4.19.1 pyarrow 12.0.1 typing-extensions 4.8.0
jsonschema-specifications 2023.7.1 pyasn1 0.5.0 websockets 12.0
jsonschema-with-format-nongpl 4.19.1 pyasn1-modules 0.3.0 wolframalpha 5.0.0
xmltodict 0.13.0

Pacotes de nível padrão para R

A tabela a seguir lista todos os pacotes de nível padrão para R e suas respectivas versões.

Biblioteca Versão Biblioteca Versão Biblioteca Versão
_libgcc_mutex 0,1 r-caret 6.0_94 r-praise 1.0.0
_openmp_mutex 4.5 r-cellranger 1.1.0 r-prettyunits 1.2.0
_r-mutex 1.0.1 r-class 7.3_22 r-proc 1.18.4
_r-xgboost-mutex 2,0 r-cli 3.6.1 r-processx 3.8.2
aws-c-auth 0.7.0 r-clipr 0.8.0 r-prodlim 2023.08.28
aws-c-cal 0.6.0 r-clock 0.7.0 r-profvis 0.3.8
aws-c-common 0.8.23 r-codetools 0.2_19 r-progress 1.2.2
aws-c-compression 0.2.17 r-collections 0.3.7 r-progressr 0.14.0
aws-c-event-stream 0.3.1 r-colorspace 2.1_0 r-promises 1.2.1
aws-c-http 0.7.10 r-commonmark 1.9.0 r-proxy 0.4_27
aws-c-io 0.13.27 r-config 0.3.2 r-pryr 0.1.6
aws-c-mqtt 0.8.13 r-conflicted 1.2.0 r-ps 1.7.5
aws-c-s3 0.3.12 r-coro 1.0.3 r-purrr 1.0.2
aws-c-sdkutils 0.1.11 r-cpp11 0.4.6 r-quantmod 0.4.25
aws-checksums 0.1.16 r-crayon 1.5.2 r-r2d3 0.2.6
aws-crt-cpp 0.20.2 r-credentials 2.0.1 r-r6 2.5.1
aws-sdk-cpp 1.10.57 r-crosstalk 1.2.0 r-r6p 0.3.0
binutils_impl_linux-64 2,40 r-crul 1.4.0 r-ragg 1.2.6
bwidget 1.9.14 r-curl 5.1.0 r-rappdirs 0.3.3
bzip2 1.0.8 r-data.table 1.14.8 r-rbokeh 0.5.2
c-ares 1.20.1 r-dbi 1.1.3 r-rcmdcheck 1.4.0
ca-certificates 2023.7.22 r-dbplyr 2.3.4 r-rcolorbrewer 1.1_3
cairo 1.18.0 r-desc 1.4.2 r-rcpp 1.0.11
cmake 3.27.6 r-devtools 2.4.5 r-reactable 0.4.4
curl 8.4.0 r-diagram 1.6.5 r-reactr 0.5.0
expat 2.5.0 r-dials 1.2.0 r-readr 2.1.4
font-ttf-dejavu-sans-mono 2.37 r-dicedesign 1.9 r-readxl 1.4.3
font-ttf-inconsolata 3.000 r-diffobj 0.3.5 r-recipes 1.0.8
font-ttf-source-code-pro 2.038 r-digest 0.6.33 r-rematch 2.0.0
font-ttf-ubuntu 0,83 r-downlit 0.4.3 r-rematch2 2.1.2
fontconfig 2.14.2 r-dplyr 1.1.3 r-remotes 2.4.2.1
fonts-conda-ecosystem 1 r-dtplyr 1.3.1 r-reprex 2.0.2
fonts-conda-forge 1 r-e1071 1.7_13 r-reshape2 1.4.4
freetype 2.12.1 r-ellipsis 0.3.2 r-rjson 0.2.21
fribidi 1.0.10 r-evaluate 0,23 r-rlang 1.1.1
gcc_impl_linux-64 13.2.0 r-fansi 1.0.5 r-rlist 0.4.6.2
gettext 0.21.1 r-farver 2.1.1 r-rmarkdown 2.22
gflags 2.2.2 r-fastmap 1.1.1 r-rodbc 1.3_20
gfortran_impl_linux-64 13.2.0 r-fontawesome 0.5.2 r-roxygen2 7.2.3
glog 0.6.0 r-forcats 1.0.0 r-rpart 4.1.21
glpk 5,0 r-foreach 1.5.2 r-rprojroot 2.0.3
gmp 6.2.1 r-forge 0.2.0 r-rsample 1.2.0
graphite2 1.3.13 r-fs 1.6.3 r-rstudioapi 0.15.0
gsl 2.7 r-furrr 0.3.1 r-rversions 2.1.2
gxx_impl_linux-64 13.2.0 r-future 1.33.0 r-rvest 1.0.3
harfbuzz 8.2.1 r-future.apply 1.11.0 r-sass 0.4.7
icu 73,2 r-gargle 1.5.2 r-scales 1.2.1
kernel-headers_linux-64 2.6.32 r-generics 0.1.3 r-selectr 0.4_2
keyutils 1.6.1 r-gert 2.0.0 r-sessioninfo 1.2.2
krb5 1.21.2 r-ggplot2 3.4.2 r-shape 1.4.6
ld_impl_linux-64 2,40 r-gh 1.4.0 r-shiny 1.7.5.1
lerc 4.0.0 r-gistr 0.9.0 r-slider 0.3.1
libabseil 20230125.3 r-gitcreds 0.1.2 r-sourcetools 0.1.7_1
libarrow 12.0.0 r-globals 0.16.2 r-sparklyr 1.8.2
libblas 3.9.0 r-glue 1.6.2 r-squarem 2021.1
libbrotlicommon 1.0.9 r-googledrive 2.1.1 r-stringi 1.7.12
libbrotlidec 1.0.9 r-googlesheets4 1.1.1 r-stringr 1.5.0
libbrotlienc 1.0.9 r-gower 1.0.1 r-survival 3.5_7
libcblas 3.9.0 r-gpfit 1.0_8 r-sys 3.4.2
libcrc32c 1.1.2 r-gt 0.9.0 r-systemfonts 1.0.5
libcurl 8.4.0 r-gtable 0.3.4 r-testthat 3.2.0
libdeflate 1,19 r-gtsummary 1.7.2 r-textshaping 0.3.7
libedit 3.1.20191231 r-hardhat 1.3.0 r-tibble 3.2.1
libev 4.33 r-haven 2.5.3 r-tidymodels 1.1.0
libevent 2.1.12 r-hexbin 1.28.3 r-tidyr 1.3.0
libexpat 2.5.0 r-highcharter 0.9.4 r-tidyselect 1.2.0
libffi 3.4.2 r-highr 0,10 r-tidyverse 2.0.0
libgcc-devel_linux-64 13.2.0 r-hms 1.1.3 r-timechange 0.2.0
libgcc-ng 13.2.0 r-htmltools 0.5.6.1 r-timedate 4022.108
libgfortran-ng 13.2.0 r-htmlwidgets 1.6.2 r-tinytex 0.48
libgfortran5 13.2.0 r-httpcode 0.3.0 r-torch 0.11.0
libgit2 1.7.1 r-httpuv 1.6.12 r-triebeard 0.4.1
libglib 2.78.0 r-httr 1.4.7 r-ttr 0.24.3
libgomp 13.2.0 r-httr2 0.2.3 r-tune 1.1.2
libgoogle-cloud 2.12.0 r-ids 1.0.1 r-tzdb 0.4.0
libgrpc 1.55.1 r-igraph 1.5.1 r-urlchecker 1.0.1
libiconv 1.17 r-infer 1.0.5 r-urltools 1.7.3
libjpeg-turbo 3.0.0 r-ini 0.3.1 r-usethis 2.2.2
liblapack 3.9.0 r-ipred 0.9_14 r-utf8 1.2.4
libnghttp2 1.55.1 r-isoband 0.2.7 r-uuid 1.1_1
libnuma 2.0.16 r-iterators 1.0.14 r-v8 4.4.0
libopenblas 0.3.24 r-jose 1.2.0 r-vctrs 0.6.4
libpng 1.6.39 r-jquerylib 0.1.4 r-viridislite 0.4.2
libprotobuf 4.23.2 r-jsonlite 1.8.7 r-vroom 1.6.4
libsanitizer 13.2.0 r-juicyjuice 0.1.0 r-waldo 0.5.1
libssh2 1.11.0 r-kernsmooth 2.23_22 r-warp 0.2.0
libstdcxx-devel_linux-64 13.2.0 r-knitr 1,45 r-whisker 0.4.1
libstdcxx-ng 13.2.0 r-labeling 0.4.3 r-withr 2.5.2
libthrift 0.18.1 r-labelled 2.12.0 r-workflows 1.1.3
libtiff 4.6.0 r-later 1.3.1 r-workflowsets 1.0.1
libutf8proc 2.8.0 r-lattice 0.22_5 r-xfun 0,41
libuuid 2.38.1 r-lava 1.7.2.1 r-xgboost 1.7.4
libuv 1.46.0 r-lazyeval 0.2.2 r-xml 3.99_0.14
libv8 8.9.83 r-lhs 1.1.6 r-xml2 1.3.5
libwebp-base 1.3.2 r-lifecycle 1.0.3 r-xopen 1.0.0
libxcb 1.15 r-lightgbm 3.3.5 r-xtable 1.8_4
libxgboost 1.7.4 r-listenv 0.9.0 r-xts 0.13.1
libxml2 2.11.5 r-lobstr 1.1.2 r-yaml 2.3.7
libzlib 1.2.13 r-lubridate 1.9.3 r-yardstick 1.2.0
lz4-c 1.9.4 r-magrittr 2.0.3 r-zip 2.3.0
make 4.3 r-maps 3.4.1 r-zoo 1.8_12
ncurses 6.4 r-markdown 1.11 rdma-core 28,9
openssl 3.1.4 r-mass 7.3_60 re2 2023.03.02
orc 1.8.4 r-matrix 1.6_1.1 readline 8.2
pandoc 2.19.2 r-memoise 2.0.1 rhash 1.4.4
pango 1.50.14 r-mgcv 1.9_0 s2n 1.3.46
pcre2 10.40 r-mime 0,12 sed 4.8
pixman 0.42.2 r-miniui 0.1.1.1 snappy 1.1.10
pthread-stubs 0,4 r-modeldata 1.2.0 sysroot_linux-64 2.12
r-arrow 12.0.0 r-modelenv 0.1.1 tk 8.6.13
r-askpass 1.2.0 r-modelmetrics 1.2.2.2 tktable 2,10
r-assertthat 0.2.1 r-modelr 0.1.11 ucx 1.14.1
r-backports 1.4.1 r-munsell 0.5.0 unixodbc 2.3.12
r-base 4.2.3 r-nlme 3.1_163 xorg-kbproto 1.0.7
r-base64enc 0.1_3 r-nnet 7.3_19 xorg-libice 1.1.1
r-bigd 0.2.0 r-numderiv 2016.8_1.1 xorg-libsm 1.2.4
r-bit 4.0.5 r-openssl 2.1.1 xorg-libx11 1.8.7
r-bit64 4.0.5 r-parallelly 1.36.0 xorg-libxau 1.0.11
r-bitops 1.0_7 r-parsnip 1.1.1 xorg-libxdmcp 1.1.3
r-blob 1.2.4 r-patchwork 1.1.3 xorg-libxext 1.3.4
r-brew 1.0_8 r-pillar 1.9.0 xorg-libxrender 0.9.11
r-brio 1.1.3 r-pkgbuild 1.4.2 xorg-libxt 1.3.0
r-broom 1.0.5 r-pkgconfig 2.0.3 xorg-renderproto 0.11.1
r-broom.helpers 1.14.0 r-pkgdown 2.0.7 xorg-xextproto 7.3.0
r-bslib 0.5.1 r-pkgload 1.3.3 xorg-xproto 7.0.31
r-cachem 1.0.8 r-plotly 4.10.2 xz 5.2.6
r-callr 3.7.3 r-plyr 1.8.9 zlib 1.2.13
zstd 1.5.5