Compartilhar via


Usar o banco de dados SQL como a origem para aplicativos translíticos

Aplica-se a:banco de dados SQL do Microsoft Fabric

Este artigo descreve como usar o banco de dados SQL no Microsoft Fabric como o backbone operacional para aplicativos translyticais – aplicativos que exigem acesso transacional e analítico aos mesmos dados.

O objetivo é habilitar cargas de trabalho transacionais, APIs operacionais e dados analíticos imediatos em um único banco de dados, dentro da plataforma segura e governada do Microsoft Fabric .

Ponto de extremidade de análise SQL

Quando você cria um banco de dados SQL no Fabric, os dados são automaticamente replicados quase em tempo real no OneLake, criando uma cópia somente leitura de seus dados em Delta tables que são acessíveis pelo T-SQL através do endpoint de análise SQL. Essa arquitetura significa que os dados gerados pelo sistema transacional estão disponíveis para consultas analíticas sem nenhum processamento ou pipelines de ETL complexos. Usando o endpoint de analytics do SQL, você pode analisar dados em tempo quase real sem afetar sua carga de trabalho transacional. Esses dados podem ser usados para relatórios do Power BI, modelos de machine learning ou outras análises no Fabric. O endpoint de análise do SQL também está acessível a aplicativos externos que precisam de acesso analítico aos dados.

Os exemplos incluem:

  • Saúde: Monitore as métricas de saúde para fornecer insights em tempo real para profissionais de saúde.
  • Finanças: Analise dados de mercado para otimizar estratégias de negociação em tempo real.
  • Varejo: Analise o comportamento do cliente para fornecer experiências de compra personalizadas.
  • Fabricação: Monitore os processos de produção para melhorar a qualidade do produto.

Fluxos de tarefas transanalíticos

Quando você usa o Power BI para analisar dados, pode haver momentos em que você precisa tomar medidas sobre os dados, como atualizar um registro, adicionar anotações ou disparar uma ação em outro sistema com base nos dados. Você pode realizar essas tarefas facilmente usando fluxos de tarefas translíticos no Fabric.

As funções de dados do usuário habilitam cenários como:

  • Adicionar dados: Adicione um registro de dados a uma tabela em seu banco de dados e veja-os refletidos em seu relatório. Por exemplo, adicionando um novo registro de cliente.
  • Editar dados: Edite um registro existente de dados em uma tabela em seu banco de dados e veja-o refletido em seu relatório, sem codificação personalizada. Por exemplo, atualizar um campo de status ou uma anotação.
  • Excluir dados: Exclua um registro existente de dados de uma tabela em seu banco de dados e veja-o removido do relatório. Por exemplo, remover um registro de cliente que não é mais necessário.
  • Chame uma API externa: Faça uma solicitação de API acessível por meio de uma solicitação de rede. Por exemplo, fazer uma solicitação para o endpoint REST de uma API pública que atualiza os dados subjacentes, a entrada do usuário final, ou toma medidas em um sistema diferente.

Para cenários de write-back de dados, as funções de dados do usuário fornecem gerenciamento de conexão para bancos de dados SQL no Fabric, warehouses e lakehouses. Veja como um fluxo de tarefas translytical pode funcionar:

  • Funções de dados do usuário no Fabric invocam funções nas fontes de dados subjacentes do Fabric. As funções de dados do usuário funcionam com o contexto atual do relatório (filtros, segmentações e seleções) passado como parâmetros.
  • Como o ponto de extremidade de análise do SQL mantém uma réplica quase em tempo real no OneLake, as atualizações feitas por fluxos de tarefas estão disponíveis para análises imediatas e visualizações do Power BI sem processamento ETL adicional.
  • As ações capturadas por meio de funções de dados do usuário podem ser roteadas para o Fabric Notebooks em pipelines ELT para processamento assistido por IA (por exemplo, classificação ou enriquecimento) antes da persistência final no banco de dados SQL.

A criação de um fluxo de tarefas translítico envolve estas tarefas principais:

  1. Armazenamento de seus dados em uma fonte de dados Fabric.
  2. Desenvolvendo uma função de gerenciamento de dados do usuário para executar a ação.
  3. Criando um modelo semântico do Power BI para usar esses dados.
  4. Criando um relatório do Power BI com elementos interativos para capturar a entrada do usuário e chamar a função.