Compartilhar via


Guia de decisão do Microsoft Fabric: escolher um armazenamento de dados

Use este guia de referência e os cenários de exemplo para ajudar a escolher um armazenamento de dados para suas cargas de trabalho do Microsoft Fabric.

Propriedades de armazenamento de dados

Esta tabela compara armazenamentos de dados como warehouse, lakehouse, datamart do Power BI e eventhouse com base no volume de dados, tipo, persona do desenvolvedor, conjunto de habilidades e operações. e outras funcionalidades.

Depósito Lakehouse Datamart do Power BI Eventhouse
Volume de dados Ilimitado Ilimitado Até 100 GB Ilimitado
Tipo de dados Estruturados Não estruturado, semiestruturado, estruturado Estruturados Não estruturado, semiestruturado, estruturado
Persona do desenvolvedor principal Desenvolvedor de data warehouse, engenheiro de SQL Engenheiro de dados, cientista de dados Desenvolvedor cidadão Cientista de dados cidadão, engenheiro de dados, cientista de dados, engenheiro de SQL
Conjunto de habilidades do desenvolvedor primário SQL Spark(Scala, PySpark, Spark SQL, R) Sem código, SQL Sem código, KQL, SQL
Dados organizados por Bancos de dados, esquemas e tabelas Pastas e arquivos, bancos de dados e tabelas Banco de dados, tabelas, consultas Bancos de dados, esquemas e tabelas
Operações de leitura T-SQL, Spark (suporta leitura de tabelas usando atalhos, ainda não suporta acesso a visualizações, procedimentos armazenados, funções etc.) Spark,T-SQL Spark,T-SQL,Power BI KQL, T-SQL, Spark, Power BI
Operações de gravação T-SQL Spark(Scala, PySpark, Spark SQL, R) Fluxos de dados, T-SQL KQL, Spark, ecossistema do conector
Transações de várias tabelas Sim Não Não Sim, para ingestão de várias tabelas. Consulte Política de atualização.
Interface de desenvolvimento principal Scripts SQL Notebooks Spark, definições de trabalho do Spark Power BI KQL Queryset, Banco de Dados KQL
Segurança Nível do objeto (tabela, exibição, função, procedimento armazenado etc.), nível da coluna, nível de linha, DDL/DML, mascaramento de dados dinâmico Nível de linha, nível de coluna (para lakehouse acessado por meio de um ponto de extremidade de análise do SQL), nível de tabela (ao usar o T-SQL), nenhum para o Spark Editor de RLS interno Segurança em nível de linha
Acessar dados por meio de atalhos Sim, por meio de um lakehouse usando nomes de três partes Sim Não Sim
Pode ser uma origem para atalhos Sim (tabelas) Sim (arquivos e tabelas) Não Sim
Consultar entre itens Sim, consulte as tabelas de lakehouse e warehouse Sim, consulte em tabelas de lakehouse e warehouse;consulta entre lakehouses (incluindo atalhos usando Spark) Não Sim, consulte bancos de dados KQL, lakehouses e warehouses com atalhos

Cenários

Examine esses cenários para obter ajuda para escolher um armazenamento de dados no Fabric.

Cenário 1

Susan, uma desenvolvedora profissional, é nova no Microsoft Fabric. Eles estão prontos para começar a limpar, modelar e analisar dados, mas precisam decidir criar um data warehouse ou um lakehouse. Após a revisão dos detalhes na tabela anterior, os pontos de decisão primários são o conjunto de habilidades disponível e a necessidade de transações de várias tabelas.

Susan passou muitos anos criando data warehouses em mecanismos de banco de dados relacionais e está familiarizada com a sintaxe e a funcionalidade do SQL. Pensando na equipe maior, os principais consumidores desses dados também são qualificados com ferramentas analíticas de SQL e SQL. Susan decide usar um data warehouse, que permite que a equipe interaja principalmente com o T-SQL, permitindo também que todos os usuários do Spark na organização acessem os dados.

Susan cria um novo lakehouse e acessa os recursos do data warehouse com o ponto de extremidade de análise SQL do lakehouse. Usando o portal do Fabric, ela cria atalhos para as tabelas de dados externos e os coloca na pasta /Tables. Susan agora pode escrever consultas T-SQL que fazem referência a atalhos para consultar dados do Delta Lake no lakehouse. Os atalhos aparecem como tabelas automaticamente no ponto de extremidade da análise SQL e podem ser consultados com T-SQL usando nomes de três partes.

Cenário 2

Rob, um engenheiro de dados, precisa armazenar e modelar vários terabytes de dados no Fabric. A equipe tem uma combinação de habilidades de PySpark e T-SQL. A maioria da equipe que executa consultas T-SQL são consumidores e, portanto, não precisam escrever instruções INSERT, UPDATE ou DELETE. Os desenvolvedores restantes se sentem confortáveis em trabalhar em notebooks e, como os dados são armazenados no Delta, eles podem interagir com uma sintaxe SQL semelhante.

Rob decide usar um lakehouse, que permite que a equipe de engenharia de dados use suas diversas habilidades em relação aos dados, permitindo que os membros da equipe altamente qualificados no T-SQL consumam os dados.

Cenário 3

Ash, um desenvolvedor cidadão, é um desenvolvedor do Power BI. Eles estão familiarizados com o Excel, o Power BI e o Office. Eles precisam criar um produto de dados para uma unidade de negócios. Eles sabem que não têm as habilidades necessárias para criar um data warehouse ou um lakehouse, e eles parecem ser demais para suas necessidades e volumes de dados. Eles revisam os detalhes na tabela anterior e veem que os pontos de decisão primários são suas próprias habilidades e sua necessidade de autoatendimento, sem capacidade de código e volume de dados abaixo de 100 GB.

O Ash trabalha com analistas de negócios familiarizados com o Power BI e o Microsoft Office e sabe que eles já têm uma assinatura de capacidade Premium. Ao pensar na equipe, eles percebem que os principais consumidores desses dados podem ser analistas, familiarizados com ferramentas analíticas sem código e SQL. Ash decide usar um datamart do Power BI, que permite que a equipe interaja rapidamente para criar a funcionalidade, usando uma experiência sem código. As consultas podem ser executadas por meio do Power BI e do T-SQL, permitindo também que os usuários do Spark na organização acessem os dados.

Cenário 4

Daisy é uma analista de negócios experiente no uso de Power BI para analisar gargalos da cadeia de fornecedores para uma grande cadeia de varejo global. Eles precisam criar uma solução de dados escalonável que possa lidar com bilhões de linhas de dados e ser usada para criar dashboards e relatórios que podem ser usados para tomar decisões de negócios. Os dados são provenientes de plantas, fornecedores, transportadoras e outras fontes em vários formatos estruturados, semiestruturados e não estruturados.

Daisy decide usar um eventhouse devido à escalabilidade, tempos de resposta rápidos, recursos de análise avançada, incluindo análise de série temporal, funções geoespaciais e atualização rápida de dados no Power BI. As consultas podem ser executadas usando o Power BI e o KQL para comparar entre períodos atuais e anteriores, identificar rapidamente problemas emergentes ou fornecer análises geoespaciais de rotas terrestres e marítimas.