Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Um lakehouse em Microsoft Fabric combina a escalabilidade de um data lake com as funcionalidades de consulta de um data warehouse. Você armazena dados estruturados e não estruturados em um único local, gerencia-os com o Delta Lake e os analisa com o Apache Spark e o SQL , tudo sem mover dados entre sistemas. Com atalhos do OneLake e compartilhamento de dados entre locatários, você também pode acessar dados controlados de fontes externas e outras organizações sem duplicação.
Uma casa de lago lhe dá:
- Uma cópia de dados para cargas de trabalho de engenharia e análise de dados
- Formato Delta Lake para transações ACID, imposição de esquema e viagem no tempo
- Acesso Spark e SQL para que os engenheiros de dados usem blocos de notas digitais enquanto analistas usam T-SQL.
- Integração interna com Power BI, pipelines, fluxos de dados e outros itens Fabric
Lakehouse vs. armazém de dados
As principais diferenças entre um lakehouse e um data warehouse em Microsoft Fabric se resumem aos seus padrões de carga de trabalho, tipos de dados e ferramentas de desenvolvimento preferenciais. Ambos compartilham o mesmo mecanismo SQL e armazenam dados no formato Delta no OneLake, mas eles são projetados para cenários diferentes:
| Lakehouse | Armazém de Dados | |
|---|---|---|
| Ferramenta de desenvolvimento primário | Apache Spark (Python, Scala, SQL, R) | T-SQL |
| Tipos de dados | Estruturado e não estruturado | Estruturado |
| Transações em várias tabelas | Não | Yes |
| Ingestão de dados | Notebooks, pipelines, fluxos de dados, atalhos do OneLake (acesso em tempo real sem cópia) | T-SQL (COPY INTO, INSERT, CTAS), pipelines |
| Mais adequado para | Engenharia de dados, ciência de dados, arquiteturas de medalhão | Relatórios de BI, modelagem dimensional, equipes orientadas por SQL |
Você pode usar ambos no mesmo workspace, por exemplo, carregar e transformar dados em um lakehouse com Spark e expor conjuntos de dados tratados para um data warehouse para relatórios baseados em SQL. Para obter diretrizes detalhadas, consulte Escolher entre Warehouse e Lakehouse.
Trabalhar com dados do lakehouse
Você pode carregar, transformar e consultar dados em um lakehouse usando várias ferramentas do Fabric.
Atalhos do OneLake – Acessar dados de fontes externas (incluindo outros inquilinos por meio do compartilhamento de dados entre inquilinos) sem copiá-los para o lakehouse. Os atalhos fornecem referências vivas, somente leitura, a dados operacionais e analíticos no OneLake. Veja os atalhos do OneLake.
Lakehouse Explorer – Procure tabelas e arquivos, carregue dados e gerencie metadados diretamente no navegador. Você pode alternar entre a visualização de tabela e a visualização de arquivo e adicionar várias lakehouses ao explorador. Consulte o explorador do Fabric Lakehouse.
Notebooks — escreva código Spark (Python, Scala, SQL, R) para ler, transformar e gravar dados em tabelas e pastas do Lakehouse. Consulte Explorar dados com um notebook e carregar dados com um notebook.
Pipelines – Use a atividade de cópia e outras ferramentas de integração de dados para extrair dados de fontes externas para o lakehouse. Consulte Copiar dados usando a atividade de cópia.
Spark job definitions — Execute aplicativos Spark compilados em Java, Scala ou Python para ETL de nível de produção. Veja o que é uma definição de trabalho do Apache Spark?
Fluxos de dados Gen 2 – Ingerir e preparar dados com uma interface visual de baixo código. Consulte Criar seu primeiro fluxo de dados.
Para obter uma comparação completa das opções de ingestão, consulte Opções para inserir dados no Fabric Lakehouse.
Ponto de extremidade de análise SQL do Lakehouse
Quando você cria um lakehouse, o Fabric automaticamente gera um endpoint de análise SQL. Este endpoint permite:
- Consultar tabelas Delta com T-SQL — Use uma sintaxe SQL familiar sem configurar um armazém de dados separado.
- Conectar diretamente o Power BI — Crie um modelo semântico do Power BI para criar relatórios com base nos dados do seu lakehouse.
- Compartilhar acesso somente leitura — analistas e construtores de relatórios podem consultar os dados sem afetar as cargas de trabalho do Spark.
Nota
Desde 5 de setembro de 2025, os modelos semânticos padrão não são mais criados automaticamente quando você cria uma lakehouse. Os modelos semânticos padrão existentes foram dissociados de seus itens pai em 30 de novembro de 2025 e se tornaram modelos semânticos independentes. Para obter mais informações, consulte Power BI modelos semânticos no Microsoft Fabric.
O ponto de extremidade de análise do SQL é somente leitura e não dá suporte à superfície T-SQL completa de um data warehouse. Use-o para exploração, relatórios e consultas ad hoc.
Nota
Apenas tabelas Delta aparecem no endpoint de análise SQL. Isso inclui tabelas Delta acessadas por meio de atalhos do OneLake, que são visíveis e que podem ser consultados junto com tabelas armazenadas localmente. Parquet, CSV e outros formatos não podem ser consultados por meio deste endpoint. Se você não vir sua tabela, converta-a no formato Delta.
Descoberta e registro automático de tabela
Um lakehouse organiza dados em duas pastas de nível superior: tabelas para tabelas Delta gerenciadas e arquivos para dados não estruturados ou não Delta. Quando você coloca um arquivo na pasta Tables, Fabric automaticamente:
- Valida o arquivo em formatos com suporte (somente tabelas Delta no momento).
- Extrai metadados — nomes de coluna, tipos de dados, compactação e particionamento.
- Registra a tabela no metastore para que você possa consultá-la imediatamente com Spark SQL ou T-SQL.
Essa experiência gerenciada de arquivo para tabela significa que você não precisa gravar CREATE TABLE instruções manualmente para os dados que você insere na área gerenciada.
Multitarefa com lakehouse
O lakehouse usa um design de abas de navegador que permite abrir e alternar entre diversos elementos sem perder a posição.
Preservar operações em execução: O carregamento e envio de dados continuam em execução quando você alterna para uma guia diferente.
Mantenha seu contexto: Tabelas, arquivos e objetos selecionados permanecem abertos quando você navega entre guias.
Recarregamento de lista sem bloqueio: A lista de arquivos e tabelas é atualizada em segundo plano sem bloquear seu trabalho.
Notificações Toast com escopo: As notificações identificam de qual lakehouse vieram, para que você possa acompanhar as atualizações entre abas.
Projeto de casa de lago acessível
O lakehouse dá suporte a tecnologias adaptativas e padrões de interação acessíveis:
- Compatibilidade do leitor de tela: Funciona com leitores de tela populares para navegação e interação.
- Texto alternativo para imagens: Todas as imagens incluem texto alt descritivo.
- Campos de formulário rotulados: Todos os campos de formulário têm rótulos associados para usuários de leitor de tela e teclado.
- Fluxo de texto: Layout responsivo que se adapta a diferentes tamanhos de tela e orientações.
- Navegação por teclado: Suporte completo de teclado para navegar na lakehouse sem um mouse.