Delen via


Gebeurtenissen ophalen en transformeren uit streamingbronnen

De realtime hub wordt gebruikt voor het detecteren en beheren van uw streaminggegevens in Fabric. Het opnemen van streaminggegevens met de realtime hub is de eerste stap bij het naadloos integreren van uw gegevens in Fabric, waardoor analisten realtime inzichten uit de gegevens kunnen extraheren. De uitgebreide set beschikbare connectors zorgt ervoor dat u moeiteloos gegevens in Fabric kunt importeren, ongeacht uw streamingbron.

Deze gebruikersstroom laat zien hoe een data engineer gebeurtenissen van een groot aantal streamingbronnen kan laden en transformeren in de realtime hub.

Schematische afbeelding met de stappen in gebruikersstroom 2.

Stappen

  1. Blader naar de realtime hub en selecteer Evenementen ophalen.

  2. De ondersteunde connectors worden weergegeven. Kies een connector op basis van waar uw streamingbron zich bevindt.

  3. Geef verbindingen met de bron op, inclusief referenties.

  4. Geef de stream een naam. Er wordt een nieuwe eventstream gemaakt en de gegevens worden binnengestroomd.

    Zie Gebeurtenissen ophalen uit ondersteunde bronnen voor gedetailleerde informatie en stappen.

  5. Open de zojuist gemaakte eventstream.

  6. Definieer gegevensverwerkingsbewerkingen waarmee de streaminggegevens worden getransformeerd.

  7. Voeg een bestemming toe aan de stream.

    Zie Transformatiebewerkingen en Bestemming toevoegen en beheren voor gedetailleerde informatie en stappen.

Ondersteunde connectors

Microsoft-bronnen

Bron Beschrijving Meer informatie
Azure Event Hubs Een volledig beheerde realtime gegevensopnameservice. Meer informatie
Azure Service Bus (voorvertoning) Een berichtenservice voor betrouwbare communicatie. Meer informatie
Azure IoT Hub Een platform voor het beheren van IoT-apparaten en -gegevens. Meer informatie
Azure SQL Database CDC Databasewijzigingen vastleggen en streamen in realtime. Meer informatie
Azure Database for PostgreSQL CDC Streamen van wijzigingen uit PostgreSQL-databases. Meer informatie
Azure Database for MySQL CDC Stream wijzigingen uit MySQL-databases. Meer informatie
Azure Cosmos DB CDC Wijzigingen doorsturen vanuit Cosmos DB. Meer informatie
Azure SQL Managed Instance CDC Leg wijzigingen vast van SQL Managed Instances. Meer informatie
SQL Server op VM DB CDC Stream wijzigingen van SQL Server op VM's. Meer informatie
Azure-gegevensverkenner Analyseer grote hoeveelheden gegevens in realtime. Meer informatie

Externe bronnen

Externe bron Beschrijving Meer informatie
Google Cloud Pub/Sub service voor berichtendistributie en -streaming Een berichtenservice voor realtime gebeurtenisstreaming. Meer informatie
Amazon Kinesis-gegevensstromen Een platform voor realtime gegevensverwerking. Meer informatie
Confluent Cloud Kafka Een cloudeigen Kafka-service voor gebeurtenisstreaming. Meer informatie
Apache Kafka (preview) Een gedistribueerd gebeurtenisstreamingplatform. Meer informatie
Amazon Managed Streaming voor Apache Kafka Een beheerde Kafka-service voor streaming. Meer informatie
MQTT Een lichtgewicht berichtenprotocol voor IoT. Meer informatie
Solace PubSub+ Een geavanceerde gebeurtenbemiddelaar voor berichtenuitwisseling in real-time. Meer informatie
Realtime weer Een bron voor realtime weergegevens. Meer informatie

Discrete gebeurtenissen

Bron van gebeurtenis Beschrijving
Azure Blob Storage-gebeurtenissen Meer informatie over het vastleggen en verwerken van gebeurtenissen uit Azure Blob Storage.
gebeurtenissen van Fabric Werkruimte-item Begrijp hoe je kunt werken met gebeurtenissen uit Fabric Workspace Items.
Fabric OneLake-gebeurtenissen Bekijk gebeurtenisafhandeling voor Fabric OneLake.
Fabric-taakgebeurtenissen Fabric-taak gebeurtenissen effectief beheren en verwerken.

Potentiƫle gebruikscases

Uw streaminggegevensbron bevindt zich in een Confluent Kafka-cluster en u wilt deze naar Fabric brengen. Met de ervaring 'GetEvents' in realtime-hub kunt u eenvoudig gegevens uit uw Confluent Kafka-cluster opnemen in Fabric.