Del via


Tilføj og administrer en hændelseskilde i en hændelsesstream

Efter du har oprettet en Microsoft Fabric-eventstream, kan du forbinde den til forskellige datakilder og destinationer.

En eventstream tillader ikke kun at streame data fra Microsofts kilder. Den understøtter også indtastning fra tredjepartsplatforme som Google Cloud og Amazon Kinesis med nye beskedforbindelser. Denne udvidede funktionalitet tilbyder problemfri integration af eksterne datastrømme i Fabric. Denne integration giver større fleksibilitet og gør det muligt for dig at opnå realtidsindsigter fra flere kilder.

I denne artikel får du mere at vide om de hændelseskilder, du kan føje til en hændelsesstream.

Forudsætninger

  • Adgang til et arbejdsområde i Fabric-kapacitetslicenstilstand eller prøvelicenstilstand med Bidragyder eller højere tilladelser.
  • Forudsætninger, der er specifikke for hver kilde, og som er dokumenteret i følgende kildespecifikke artikler.

Understøttede kilder

Fabric eventstreams med forbedrede funktioner understøtter følgende kilder. Hver artikel indeholder oplysninger og instruktioner til tilføjelse af bestemte kilder.

Source Beskrivelse
Azure Data Explorer (prøveversion) Hvis du har en Azure Data Explorer-database og en tabel, kan du indlæse data fra tabellen i Microsoft Fabric ved at bruge eventstreams.
Azure Event Hubs Hvis du har en Azure event hub, kan du indlæse event hub-data i Fabric ved at bruge eventstreams.
Azure Event Grid (prøveversion) Hvis du har et Azure Event Grid-navnerum, kan du indtaste MQTT- eller ikke-MQTT-hændelsesdata i Fabric ved at bruge eventstreams.
Azure Service Bus (prøveversion) Du kan indlæse data fra en Azure Service Bus-kø eller et emnes abonnement ind i Fabric ved at bruge eventstreams.
Azure IoT Hub Hvis du har en Azure IoT-hub, kan du indlæse IoT-data i Fabric ved at bruge eventstreams.
Brugerdefineret endpoint (det vil sige brugerdefineret app med standardfunktionalitet) Funktionen for brugerdefineret endpoint gør det muligt for dine applikationer eller Kafka-klienter at forbinde til eventstreams ved hjælp af en forbindelsesstreng. Denne forbindelse muliggør en glidende indlæsning af strømmende data i hændelsesstrømme.
Azure IoT-drift Konfigurér Azure IoT Operations til at sende realtidsdata direkte til Fabric Real-Time Intelligence ved at bruge et eventstream custom endpoint. Denne funktion understøtter Microsoft Entra ID eller SASL-autentificering.
Eksempeldata Du kan vælge cykler, gul taxa, aktiemarked, busser, S&P 500-selskabers aktier eller semantiske modellogs som eksempeldatakilde for at teste dataindlæsningen, mens du opsætter en eventstream.
Vejr i realtid (prøveversion) Du kan føje en vejrkilde i realtid til en begivenhedsstrøm for at streame vejrdata i realtid fra forskellige steder.
Registrering af Azure SQL Database Change Data Capture (CDC) Du kan bruge Azure SQL Database CDC-kildeconnectoren til at hente et øjebliksbillede af de aktuelle data i en Azure SQL-database. Connectoren overvåger og registrerer derefter eventuelle fremtidige ændringer af disse data på rækkeniveau.
PostgreSQL-database CDC Du kan bruge PostgreSQL CDC-kilde-connectoren til at tage et øjebliksbillede af de aktuelle data i en PostgreSQL-database. Connectoren overvåger og registrerer derefter eventuelle fremtidige ændringer af disse data på rækkeniveau.
HTTP (forhåndsvisning) Du kan bruge HTTP-connectoren til at streame data fra eksterne platforme ind i en eventstream ved at bruge standard HTTP-forespørgsler. Den tilbyder også foruddefinerede offentlige datafeeds med automatisk udfyldte headers og parametre, så du kan starte hurtigt uden kompliceret opsætning.
MongoDB CDC (prøveversion) MongoDB CDC-kildeforbindelsen til Fabric-hændelsesstrømme opfanger et indledende øjebliksbillede af data fra MongoDB. Du kan angive de samlinger, der skal overvåges, og eventstream sporer og registrerer ændringer i realtid af dokumenter i udvalgte databaser og samlinger.
Cdc til MySQL-database Du kan bruge MySQL Database CDC source connector til at fange et øjebliksbillede af de aktuelle data i en Azure Database for MySQL-database. Du kan angive de tabeller, der skal overvåges, og eventstream registrerer eventuelle fremtidige ændringer af tabellerne på rækkeniveau.
Azure Cosmos DB CDC Du kan bruge Azure Cosmos DB CDC-kilde-connectoren til Fabric-hændelsesstrømme til at fange et øjebliksbillede af de aktuelle data i en Azure Cosmos DB-database. Connectoren overvåger og registrerer derefter eventuelle fremtidige ændringer af disse data på rækkeniveau.
SQL Server på Virtual Machine Database (VM DB) CDC Du kan bruge SQL Server på VM DB CDC kilde-connectoren til Fabric eventstreams til at fange et øjebliksbillede af de aktuelle data i en SQL Server-database på en VM. Connectoren overvåger og registrerer derefter eventuelle fremtidige ændringer af dataene på rækkeniveau.
Azure SQL Managed Instance CDC Du kan bruge Azure SQL Managed Instance CDC source connector til Fabric eventstreams til at fange et øjebliksbillede af de aktuelle data i en SQL Managed Instance-database. Connectoren overvåger og registrerer derefter eventuelle fremtidige ændringer af disse data på rækkeniveau.
Hændelser for element i stofarbejdsområdet Fabric workspace item events er diskrete Fabric-events, der opstår, når der foretages ændringer i dit Fabric-arbejdsområde. Disse ændringer omfatter oprettelse, opdatering eller sletning af et Fabric-element. Med Fabric eventstreams kan du registrere disse Fabric-arbejdsområdehændelser, transformere dem og dirigere dem til forskellige destinationer i Fabric for yderligere analyse.
Fabric OneLake-hændelser Du kan bruge OneLake-hændelser til at abonnere på ændringer i filer og mapper i OneLake og derefter reagere på disse ændringer i realtid. Med Fabric-hændelsesstrømme kan du registrere disse OneLake-begivenheder, transformere dem og dirigere dem til forskellige destinationer i Fabric til yderligere analyse. Denne problemfri integration af OneLake-hændelser i Fabric-hændelsesstrømme giver dig større fleksibilitet til at overvåge og analysere aktiviteter i OneLake.
Job i stof Du kan bruge jobhændelser til at abonnere på ændringer, der produceres, når Fabric kører et job. Du kan f.eks. reagere på ændringer, når du opdaterer en semantisk model, kører en planlagt pipeline eller kører en notesbog. Hver af disse aktiviteter kan generere et tilsvarende job, hvilket igen genererer et sæt tilsvarende jobhændelser. Med Fabric eventstreams kan du registrere disse jobhændelser, transformere dem og distribuere dem til forskellige destinationer i Fabric til yderligere analyse. Denne problemfri integration af jobhændelser i Fabric hændelsesstrømme giver dig større fleksibilitet til at overvåge og analysere aktiviteter i dit job.
Oversigtsbegivenheder over fabric kapacitet (forhåndsvisning) Oversigtsbegivenheder for fabrickapaciteten giver oversigtsinformation på resuméniveau om din kapacitet. Du kan bruge disse begivenheder til at oprette advarsler relateret til din kapacitetssundhed via Fabric Activator. Du kan også gemme disse begivenheder i et eventhouse til detaljeret eller historisk analyse.
Azure Blob Storage-hændelser Azure Blob Storage-hændelser udløses, når en klient opretter, erstatter eller sletter en blob. Du kan bruge connectoren til at knytte Blob Storage-hændelser til Fabric-hændelser i en hub i realtid. Du kan konvertere disse hændelser til fortløbende datastrømme og transformere dem, før du distribuerer dem til forskellige destinationer i Fabric.
Google Cloud Pub/Sub Google Pub/Sub er en meddelelsestjeneste, der giver dig mulighed for at publicere og abonnere på streams af begivenheder. Du kan føje Google Pub/Sub som kilde til din eventstream for at registrere, transformere og dirigere begivenheder i realtid til forskellige destinationer i Fabric.
Amazon Kinesis datastrømme Amazon Kinesis Data Streams er en massivt skalerbar, meget holdbar dataindtagelses- og behandlingstjeneste, der er optimeret til streaming af data. Ved at integrere Amazon Kinesis Data Streams som en kilde i din eventstream kan du problemfrit behandle datastrømme i realtid, før du distribuerer dem til flere destinationer i Fabric.
Confluent Cloud til Apache Kafka Confluent Cloud for Apache Kafka er en streamingplatform, der tilbyder kraftfulde datastreaming- og behandlingsfunktioner ved at bruge Apache Kafka. Ved at integrere Confluent Cloud til Apache Kafka som en kilde i din eventstream kan du problemfrit behandle datastrømme i realtid, før du distribuerer dem til flere destinationer i Fabric.
Apache Kafka (prøveversion) Apache Kafka er en distribueret platform med åben kildekode til opbygning af skalerbare datasystemer i realtid. Ved at integrere Apache Kafka som en kilde i din eventstream kan du problemfrit hente hændelser i realtid fra Apache Kafka og behandle dem, før du dirigerer dem til flere destinationer i Fabric.
Amazon MSK Kafka Amazon MSK Kafka er en fuldt administreret Kafka-tjeneste, der forenkler opsætning, skalering og administration. Ved at integrere Amazon MSK Kafka som kilde i din eventstream kan du problemfrit bringe realtidsbegivenhederne fra MSK Kafka og behandle dem, før du rouder dem til flere destinationer inden for Fabric. 
MQTT (prøveversion) Du kan bruge Fabric eventstreams til at oprette forbindelse til en MQTT-mægler. Beskeder i en MQTT-mægler kan indlæses i Fabric-hændelsesstrømme og dirigeres til forskellige destinationer inden for Fabric. 
Cribl (forhåndsvisning) Du kan forbinde Cribl til en eventstream og dirigere data til forskellige destinationer inden for Fabric. 
Solace PubSub+ (prøveversion) Du kan bruge Fabric eventstreams til at oprette forbindelse til Solace PubSub+. Beskeder fra Solace PubSub+ kan indlæses i Fabric-eventstrømme og dirigeres til forskellige destinationer inden for Fabric. 

Bemærk

En eventstream kan kun understøtte op til 11 kombinerede kilder og destinationer, når du bruger følgende typer:

  • Kilde: Brugerdefineret slutpunkt.
  • Destinationer: Brugerdefineret endpoint og eventhouse med direkte indlæsning.

Kilder eller destinationer, der ikke er inkluderet i den foregående liste, og destinationer, der ikke er tilføjet standardstrømmen, tæller ikke med i denne grænse.