Fluxos de eventos do Microsoft Fabric – visão geral
O recurso de fluxos de eventos na experiência de Inteligência em Tempo Real do Microsoft Fabric permite que você traga eventos em tempo real para o Fabric, que você os transforme e os encaminhe para vários destinos sem escrever código algum (no-code). Crie um eventstream, que é uma instância do item do Eventstream no Fabric, adicione fontes de dados de evento ao fluxo, opcionalmente adicione transformações para transformar os dados do evento e, em seguida, encaminhe os dados para destinos compatíveis. Além disso, com os endpoints do Apache Kafka disponíveis no item Eventstream, você pode enviar ou consumir eventos em tempo real usando o protocolo Kafka.
Traga eventos para o Fabric
O recurso de fluxos de eventos fornece vários conectores de fonte para buscar dados de eventos de diversas fontes. Há mais fontes disponíveis quando você habilita Recursos avançados no momento da criação de um eventstream.
Importante
Atualmente, os recursos avançados dos fluxos de eventos do Fabric estão em preview.
Origens | Descrição |
---|---|
Hubs de eventos do Azure | Se você tiver um hub de eventos do Azure, poderá ingerir dados do hub de eventos no Microsoft Fabric usando o Eventstream. |
Hub IoT do Azure | Se você tiver um hub IoT do Azure, poderá ingerir dados de IoT no Microsoft Fabric usando o Eventstream. |
Captura de dados de alterações (CDA) com o Banco de Dados SQL do Azure | O conector de origem da CDA do Banco de Dados SQL do Azure permite capturar um instantâneo dos dados atuais em um banco de dados SQL do Azure. Em seguida, o conector monitora e registra quaisquer alterações futuras no nível da linha nesses dados. |
CDA do Banco de dados PostgreSQL | O conector de origem da captura de dados de alterações (CDA) do Banco de Dados PostgreSQL permite capturar um instantâneo dos dados atuais em um Banco de Dados PostgreSQL. Em seguida, o conector monitora e registra quaisquer alterações futuras no nível da linha nesses dados. |
CDA do Banco de Dados MySQL | O conector de fonte da captura de dados de alterações (CDA) do Banco de Dados MySQL do Azure permite a captura de um instantâneo dos dados atuais em um Banco de Dados do Azure para MySQL. Você pode especificar as tabelas a serem monitoradas. O eventstream registrará quaisquer alterações futuras nas tabelas no nível de linha. |
CDA do Azure Cosmos DB | O conector de origem da captura de dados de alterações (CDA) do Azure Cosmos DB para fluxos de eventos do Microsoft Fabric permite capturar um instantâneo dos dados atuais em um banco de dados do Azure Cosmos DB. Em seguida, o conector monitora e registra quaisquer alterações futuras no nível da linha nesses dados. |
SQL Server no VM DB (CDC) | O conector de origem do SQL Server no BD de VM (CDC) para fluxos de eventos do Fabric permite capturar um instantâneo dos dados atuais em um banco de dados do SQL Server na VM. Em seguida, o conector monitora e registra quaisquer alterações futuras em nível de linha nos dados. |
CDC da Instância Gerenciada de SQL do Azure | O conector de origem CDC da Instância Gerenciada de SQL do Azure para fluxos de eventos do Microsoft Fabric permite que você capture um instantâneo dos dados atuais em um banco de dados da Instância Gerenciada de SQL. Em seguida, o conector monitora e registra quaisquer alterações futuras no nível da linha nesses dados. |
Pub/Sub do Google Cloud | O Pub/Sub do Google é um serviço de mensagens que permite publicar e assinar fluxos de eventos. Você pode adicionar o Pub/Sub do Google como origem para o eventstream para capturar, transformar e encaminhar eventos em tempo real a vários destinos no Fabric. |
Amazon Kinesis Data Streams | O Amazon Kinesis Data Streams é um serviço de processamento e ingestão de dados altamente escalonável e durável, otimizado para fluxo de dados. Ao integrar o Amazon Kinesis Data Streams como uma origem no eventstream, você pode processar facilmente fluxos de dados em tempo real antes de encaminhá-los a vários destinos no Fabric. |
Kafka para Confluent Cloud | O Kafka para Confluent Cloud é uma plataforma de streaming que oferece recursos avançados de transmissão e processamento de dados usando o Apache Kafka. Ao integrar o Kafka para Confluent Cloud como uma origem no eventstream, você pode processar facilmente fluxos de dados em tempo real antes de encaminhá-los a vários destinos no Fabric. |
Apache Kafka | O Apache Kafka é uma plataforma distribuída de código aberto para a criação de sistemas de dados escaláveis e em tempo real. Ao integrar o Apache Kafka como uma origem em seu fluxo de eventos, você pode trazer eventos em tempo real do Apache Kafka e processá-los antes de roteá-los para vários destinos no Fabric. |
Amazon MSK Kafka | O Amazon MSK Kafka é um serviço Kafka totalmente gerenciado que simplifica a configuração, a escalabilidade e o gerenciamento. Ao integrar o Amazon MSK Kafka como uma fonte em seu fluxo de eventos, você pode trazer facilmente os eventos em tempo real do seu MSK Kafka e processá-los antes de roteá-los para vários destinos no Fabric. |
Eventos de Armazenamento de Blobs do Azure | Os eventos do Armazenamento de Blobs do Azure são acionados quando um cliente cria, substitui ou exclui um Blob. O conector permite vincular eventos do Armazenamento de Blobs a eventos do Fabric no hub em tempo real. Você pode converter esses eventos em fluxos de dados contínuos e transformá-los antes de encaminhá-los a vários destinos no Fabric. |
Eventos de Itens do espaço de trabalho do Fabric | Os eventos de itens do espaço de trabalho do Fabric são eventos discretos do Fabric que ocorrem quando são feitas alterações no espaço de trabalho do Fabric. Essas alterações incluem a criação, a atualização ou a exclusão de um item do Fabric. Com os fluxos de eventos do Fabric, você pode capturar esses eventos do espaço de trabalho do Fabric, transformá-los e encaminhá-los a vários destinos no Fabric para análise adicional. |
Dados de amostra | Você pode escolher eventos de Bicicletas, Táxi Amarelo ou de Mercado de Ações como um exemplo de fonte de dados para testar a ingestão de dados ao configurar um eventstream. |
Ponto de extremidade personalizado (ou seja, Aplicativo personalizado em recurso padrão) | O recurso de ponto de extremidade personalizado permite que seus aplicativos ou clientes Kafka se conectem ao Eventstream usando uma cadeia de conexão, permitindo a ingestão suave de dados de streaming no Eventstream. |
Processar eventos usando a experiência no-code
A experiência de arrastar e soltar oferece uma maneira intuitiva e fácil de criar sua lógica de processamento, transformação e roteamento de dados de eventos sem escrever nenhum código. Um diagrama de fluxo de dados de ponta a ponta em um fluxo de eventos pode fornecer uma compreensão abrangente do fluxo de dados e da organização. O editor do processador de eventos é uma experiência sem código que permite arrastar e soltar para projetar a lógica de processamento de dados do evento.
Transformação | Descrição |
---|---|
Filter | Use a transformação de Filtro para filtrar eventos com base no valor de um campo na entrada. Dependendo do tipo de dados (número ou texto), a transformação mantém os valores que correspondem à condição selecionada, como is null ou is not null . |
Gerenciar campos | A transformação Gerenciar campos permite adicionar, remover, alterar o tipo de dados ou renomear campos provenientes de uma entrada ou de outra transformação. |
Agregação | Use a transformação de Agregação para calcular uma agregação (Soma, Mínimo, Máximo ou Média) sempre que um novo evento ocorre por um período de tempo. Essa operação também permite renomear as colunas calculadas, além de filtrar ou dividir a agregação com base em outras dimensões nos dados. Você pode ter uma ou mais agregações na mesma transformação. |
Agrupar por | Use a transformação de Agrupar por para calcular as agregações em todos os eventos dentro de uma determinada janela de tempo. Você pode agrupar pelos valores em um ou mais campos. É como a transformação Agregação que permite renomear colunas, mas fornece mais opções para agregação e inclui opções mais complexas para janelas de tempo. Semelhante à Agregação, você pode adicionar mais de uma agregação por transformação. |
Union | Use a transformação União para conectar dois ou mais nós e adicionar eventos com campos compartilhados (com o mesmo nome e tipo de dados) a uma tabela. Os campos que não correspondem serão removidos e não incluídos na saída. |
Expandir | Use a transformação Expandir matriz a fim de criar outra linha para cada valor em uma matriz. |
Join | Use a transformação Ingressar para combinar dados de dois fluxos com base em uma condição de correspondência entre eles. |
Se você habilitou os Recursos avançados ao criar um fluxo de eventos, as operações de transformação terão suporte para todos os destinos (com o fluxo derivado atuando como uma ponte intermediária para alguns destinos, como Ponto de extremidade personalizado, Reflex). Caso contrário, as operações de transformação estarão disponíveis apenas para os destinos Lakehouse e Eventhouse (processamento de eventos antes da assimilação).
Encaminhar eventos para destinos
O recurso Fluxos de eventos do Fabric é compatível com o envio de dados para os destinos compatíveis a seguir.
Destino | Descrição |
---|---|
Ponto de extremidade personalizado (ou seja, Aplicativo personalizado em recurso padrão) | Com esse destino, você pode encaminhar com facilidade seus eventos em tempo real para um ponto de extremidade personalizado. Você pode conectar seus próprios aplicativos ao eventstream e consumir os dados do evento em tempo real. Esse destino é útil quando você deseja enviar dados em tempo real para um sistema externo que reside fora do Microsoft Fabric. |
Eventhouse | Esse destino permite que você assimile seus dados de eventos em tempo real em um Eventhouse, onde você pode usar a poderosa KQL (Kusto Query Language) para consultar e analisar os dados. Com os dados no Eventhouse, você pode obter insights mais profundos sobre os dados do seu evento e criar relatórios e painéis avançados. Você pode escolher entre dois modos de ingestão: Ingestão direta e Processamento de eventos antes da ingestão. |
Lakehouse | Esse destino possibilita transformar os eventos em tempo real antes de fazer sua ingestão no lakehouse. Os eventos em tempo real são convertidos para o formato Delta Lake e armazenados nas tabelas designadas do lakehouse. Esse destino é compatível com cenários de Data Warehousing. |
Reflex | Esse destino permite conectar diretamente seus dados de eventos em tempo real a um Reflex. Reflex é um tipo de agente inteligente que contém todas as informações necessárias para se conectar a dados, monitorar condições e executar ações. Quando os dados atingem determinados limites ou correspondem a outros padrões, o Reflex toma automaticamente as medidas apropriadas, como alertar os usuários ou iniciar fluxos de trabalho do Power Automate. |
Fluxo derivado | O fluxo derivado é um tipo especializado de destino que você pode criar depois de adicionar operações de fluxo, como Filtrar ou Gerenciar Campos, a um eventstream. O fluxo derivado representa o fluxo padrão transformado após o processamento do fluxo. Você pode encaminhar o fluxo derivado para vários destinos no Fabric e exibi-lo no hub em tempo real. |
Você pode anexar vários destinos em um fluxo de eventos para receber dados simultaneamente de seus fluxos de eventos sem interferir uns nos outros.
Observação
Recomendamos que você use o recurso de fluxos de eventos do Microsoft Fabric com pelo menos 4 unidades de capacidade (SKU: F4)
Fluxos de eventos do Apache Kafka on Fabric
O recurso de fluxos de eventos do Fabric oferece um endpoint do Apache Kafka no item Eventstream, permitindo que os usuários se conectem e consumam eventos de streaming por meio do protocolo Kafka. Se você já tiver um aplicativo que usa o protocolo Apache Kafka para enviar ou consumir eventos de streaming com tópicos específicos do Kafka, poderá adaptar facilmente o mesmo aplicativo para enviar ou consumir os eventos de streaming em seu fluxo de eventos simplesmente atualizando suas configurações de conexão para apontar para o ponto de extremidade do Kafka fornecido em seu fluxo de eventos.
O recurso de fluxos de eventos do Fabric é alimentado pelos Hubs de Eventos do Azure, um serviço nativo de nuvem totalmente gerenciado. Quando um fluxo de eventos é criado, um namespace do hub de eventos é provisionado automaticamente e um hub de eventos é alocado para o fluxo padrão sem exigir nenhuma configuração de provisionamento. Para saber mais sobre os recursos compatíveis com Kafka no serviço de Hubs de Eventos do Azure, confira Hubs de Eventos do Azure para Apache Kafka
Para saber mais sobre como obter os detalhes do ponto de extremidade do Kafka para enviar eventos para o fluxo de eventos, consulte Adicionar fonte de ponto de extremidade personalizada a um fluxo de eventos; e para consumir eventos do fluxo de eventos, consulte Adicionar um destino de ponto de extremidade personalizado a um fluxo de eventos
Recursos avançados (preview)
Há mais recursos, fontes e destinos disponíveis quando você habilita a opção Recursos avançados (preview) ao criar um eventstream. Use as guias Recursos avançados (preview) e Recursos padrão para saber mais sobre fontes e destinos adicionais compatíveis com os recursos avançados.
Veja alguns outros recursos em destaque dos Recursos avançados (preview):
- Modo de edição e Exibição ao vivo Explore dois modos distintos para visualizar e projetar o processamento de fluxo.
- Fluxos padrão e derivados Crie uma série contínua de fluxos com o formato que você projetar, com um processador de eventos que pode ser consumido posteriormente no hub em tempo real.
- Encaminhamento de fluxos de dados com base em conteúdo Transforme e encaminhe fluxos de dados em qualquer lugar do Fabric com base no conteúdo do fluxo de dados que você criou com o processador de eventos.