Partilhar via


Opções para obter dados no Fabric Lakehouse

A experiência get data abrange todos os cenários de usuário para trazer dados para o lakehouse, como:

  • Conectando-se ao SQL Server existente e copiando dados para a tabela Delta no lakehouse.
  • Carregar ficheiros a partir do seu computador.
  • Copiando e mesclando várias tabelas de outras casas do lago em uma nova tabela Delta.
  • Conectando-se a uma fonte de streaming para pousar dados em uma casa de lago.
  • Referenciar dados sem copiá-los de outras fontes internas ou externas.

Diferentes maneiras de carregar dados em uma casa de lago

No Microsoft Fabric, há algumas maneiras de obter dados em uma casa de lago:

  • Upload de arquivos do computador local
  • Executar uma ferramenta de cópia em pipelines
  • Configurar um fluxo de dados
  • Bibliotecas do Apache Spark no código do notebook

Upload de arquivo local

Também pode carregar dados armazenados na sua máquina local. Você pode fazê-lo diretamente no explorador Lakehouse.

Screenshot of file upload dialog in the Lakehouse explorer.

Ferramenta de cópia em pipelines

A ferramenta Copiar é uma solução de integração de dados altamente escalável que permite conectar-se a diferentes fontes de dados e carregar os dados no formato original ou convertê-los em uma tabela Delta. A ferramenta de cópia é uma parte das atividades de pipelines que você pode modificar de várias maneiras, como agendamento ou acionamento com base em um evento. Para obter mais informações, consulte Como copiar dados usando a atividade de cópia.

Fluxos de Dados

Para usuários que estão familiarizados com os fluxos de dados do Power BI, a mesma ferramenta está disponível para carregar dados em sua casa do lago. Você pode acessá-lo rapidamente a partir da opção "Obter dados" do Lakehouse explorer e carregar dados de mais de 200 conectores. Para obter mais informações, consulte Guia de início rápido: criar seu primeiro fluxo de dados para obter e transformar dados.

Código do bloco de notas

Você pode usar as bibliotecas do Spark disponíveis para se conectar diretamente a uma fonte de dados, carregar dados em um quadro de dados e salvá-los em uma casa de lago. Esse método é a maneira mais aberta de carregar dados na casa do lago que o código do usuário está gerenciando completamente.

Nota

As tabelas Delta externas criadas com o código Spark não serão visíveis para um ponto de extremidade de análise SQL. Use atalhos no espaço Tabela para tornar as tabelas Delta externas visíveis para um ponto de extremidade de análise SQL.

Considerações ao escolher a abordagem para carregar dados

Cenário de teste Recomendação
Carregamento de pequenos ficheiros a partir da máquina local Usar o upload de arquivo local
Dados pequenos ou conector específico Usar fluxos de dados
Fonte de dados grande Usar a ferramenta Copiar em pipelines
Transformações de dados complexas Usar o código do bloco de anotações