Nota
O acesso a esta página requer autorização. Pode tentar iniciar sessão ou alterar os diretórios.
O acesso a esta página requer autorização. Pode tentar alterar os diretórios.
Neste tutorial, você cria um pipeline de dados para mover o OData de uma fonte Northwind para um destino lakehouse e envia uma notificação por e-mail quando o pipeline é concluído.
Pré-requisitos
Para começar, você deve preencher os seguintes pré-requisitos:
- Verifique se você tem um Espaço de Trabalho habilitado para Microsoft Fabric que não seja o Meu Espaço de Trabalho padrão.
Crie uma Lakehouse
Para começar, primeiro você precisa criar uma casa no lago. Um lakehouse é um data lake otimizado para análises. Neste tutorial, você cria uma casa de lago que é usada como destino para o fluxo de dados.
Vá para o espaço de trabalho habilitado para malha.
Selecione Lakehouse no menu de criação.
Insira um Nome para a casa do lago.
Selecione Criar.
Agora você criou uma casa de lago e agora pode configurar o fluxo de dados.
Criar um fluxo de dados
Um fluxo de dados é uma transformação de dados reutilizável que pode ser usada em um pipeline. Neste tutorial, você cria um fluxo de dados que obtém dados de uma fonte OData e grava os dados em um destino lakehouse.
Vá para o espaço de trabalho habilitado para malha.
Selecione Dataflow Gen2 no menu criar.
Ingerir os dados da fonte OData.
Selecione Obter dados e, em seguida, selecione Mais.
Em Escolher fonte de dados, procure OData e selecione o conector OData.
Insira a URL da fonte OData. Para este tutorial, use o serviço de exemplo OData.
Selecione Seguinte.
Selecione a Entidade que pretende ingerir. Neste tutorial, use a entidade Orders .
Selecione Criar.
Agora que você ingeriu os dados da fonte OData, você pode configurar o destino lakehouse.
Para ingerir os dados para o destino lakehouse:
Selecione Adicionar destino de dados.
Selecione Lakehouse.
Configure a conexão que você deseja usar para se conectar à casa do lago. As configurações padrão são boas.
Selecione Seguinte.
Navegue até o espaço de trabalho onde você criou a casa do lago.
Selecione a casa do lago que você criou nas etapas anteriores.
Confirme o nome da tabela.
Selecione Seguinte.
Confirme o método de atualização e selecione Salvar configurações.
Publique o fluxo de dados.
Importante
Quando o primeiro Dataflow Gen2 é criado em um espaço de trabalho, os itens Lakehouse e Warehouse são provisionados junto com seus modelos semânticos e de ponto de extremidade de análise SQL relacionados. Esses itens são compartilhados por todos os fluxos de dados no espaço de trabalho e são necessários para que o Dataflow Gen2 funcione, não devem ser excluídos e não se destinam a ser usados diretamente pelos usuários. Os itens são um detalhe de implementação do Dataflow Gen2. Os itens não são visíveis no espaço de trabalho, mas podem ser acessíveis em outras experiências, como as experiências Notebook, SQL-endpoint, Lakehouse e Warehouse. Você pode reconhecer os itens por seu prefixo no nome. O prefixo dos itens é 'DataflowsStaging'.
Agora que você ingeriu os dados para o destino lakehouse, você pode configurar seu pipeline de dados.
Criar um pipeline de dados
Um pipeline de dados é um fluxo de trabalho que pode ser usado para automatizar o processamento de dados. Neste tutorial, você cria um pipeline de dados que executa o Dataflow Gen2 criado no procedimento anterior.
Navegue de volta para a página de visão geral do espaço de trabalho e selecione Pipelines de Dados no menu Criar.
Forneça um Nome para o pipeline de dados.
Selecione a atividade Fluxo de dados.
Selecione o Fluxo de Dados que você criou no procedimento anterior na lista suspensa Fluxo de Dados em Configurações.
Adicione uma atividade do Office 365 Outlook .
Configure a atividade do Office 365 Outlook para enviar notificações por email.
Executar e agendar o pipeline de dados
Nesta seção, você executa e agenda o pipeline de dados. Esse agendamento permite que você execute o pipeline de dados em uma agenda.
Vá para a área de trabalho.
Abra o menu suspenso do pipeline de dados criado no procedimento anterior e selecione Agendar.
Em Execução agendada, selecione Ativado.
Forneça o agendamento que você deseja usar para executar o pipeline de dados.
- Repita, por exemplo, todos os dias ou todos os minutos.
- Quando selecionado Diariamente, você também pode selecionar a Hora.
- Comece em uma data específica.
- Terminar numa data específica.
- Selecione o fuso horário.
Selecione Aplicar para aplicar as alterações.
Agora você criou um pipeline de dados que é executado em uma agenda, atualiza os dados na casa do lago e envia uma notificação por e-mail. Você pode verificar o status do pipeline de dados acessando o Hub do Monitor. Você também pode verificar o status do pipeline de dados indo para Data Pipeline e selecionando a guia Histórico de execução no menu suspenso.
Conteúdos relacionados
Este exemplo mostra como usar um fluxo de dados em um pipeline com o Data Factory no Microsoft Fabric. Aprendeu a:
- Criar um fluxo de dados.
- Crie um pipeline invocando seu fluxo de dados.
- Execute e agende seu pipeline de dados.
Em seguida, avance para saber mais sobre como monitorar suas execuções de pipeline.