Freigeben über


Was ist Real-Time Intelligence?

Real-Time Intelligence ist ein leistungsstarker Dienst, der es jedem in Ihrer Organisation ermöglicht, Insights zu extrahieren und seine Daten in Bewegung zu visualisieren. Es bietet eine End-to-End-Lösung für ereignisgesteuerte Szenarien, Streamingdaten und Datenprotokolle. Unabhängig davon, ob es um Gigabyte oder Petabytes geht, werden alle Organisationsdaten in Bewegung im Echtzeithub zusammengeführt. Sie verbindet zeitbasierte Daten aus verschiedenen Quellen nahtlos mithilfe von No-Code-Connectors, wodurch sofortige visuelle Erkenntnisse, geospatiale Analysen und triggerbasierte Reaktionen ermöglicht werden, die Teil eines organisationsweiten Datenkatalogs sind.

Sobald Sie einen beliebigen Stream nahtlos verbinden, kann auf die gesamte SaaS-Lösung zugegriffen werden. Real-Time Intelligence verarbeitet Datenaufnahme, Transformation, Speicher, Analyse, Visualisierung, Tracking, KI und Echtzeitaktionen. Ihre Daten bleiben in Ihrer Organisation geschützt, geregelt und integriert sowie nahtlos an alle Fabric-Angebote angepasst. Real-Time Intelligence transformiert Ihre Daten in eine dynamische, umsetzbare Ressource, die den Wert in der gesamten Organisation beeinflusst.

Kann mir Real-Time Intelligence helfen?

Real-Time Intelligence kann zur Datenanalyse, sofortigen visuellen Erkenntnissen, der Zentralisierung von Daten in Bewegung für eine Organisation, Aktionen zu Daten, zu effizienter Abfrage, Transformation und Speicherung großer Mengen strukturierter oder unstrukturierter Daten verwendet werden. Ganz gleich, ob Sie Daten aus IoT-Systemen, Systemprotokollen, Freitext, halbstrukturierten Daten oder Daten zur Nutzung durch andere Personen in Ihrer Organisation beitragen müssen, Real-Time Intelligence bietet eine vielseitige Lösung.

Auch wenn sie als „Echtzeit“ bezeichnet wird, müssen Ihre Daten nicht mit hohen Geschwindigkeiten und Volumes fließen. Real-Time Intelligence bietet Ihnen ereignisgesteuerte Lösungen anstelle von zeitplangesteuerten Lösungen. Die Real-Time Intelligence-Komponenten basieren auf vertrauenswürdigen, zentralen Microsoft-Diensten und erweitern gemeinsam die gesamten Fabric-Funktionen, um ereignisgesteuerte Lösungen bereitzustellen.

Real-Time Intelligence-Anwendungen umfassen eine Vielzahl von Geschäftsszenarien wie Automobil, Fertigung, IoT, Betrugserkennung, Geschäftsbetriebsmanagement und Anomalieerkennung.

Wie verwende ich Real-Time Intelligence?

Real-Time Intelligence in Microsoft Fabric bietet Funktionen, die in Kombination die Erstellung von Real-Time Intelligence-Lösungen zur Unterstützung von Geschäftsprozessen und Engineering-Prozessen ermöglichen.

Diagramm der Architektur von Real-Time Intelligence in Microsoft Fabric.

  • Der Echtzeit-Hub dient als zentraler Katalog innerhalb Ihrer Organisation. Es erleichtert den einfachen Zugriff, das Hinzufügen, Durchsuchen und Freigeben von Daten. Durch die Erweiterung des Datenquellenbereichs ermöglicht es umfassendere Erkenntnisse und visuelle Klarheit in verschiedenen Domänen. Wichtig ist, dass dieser Hub sicherstellt, dass Daten nicht nur verfügbar, sondern auch für alle zugänglich sind, um schnelle Entscheidungsfindung und fundierte Maßnahmen zu fördern. Die Freigabe von Streaming-Daten aus verschiedenen Quellen entsperrt das Potenzial, umfassende Business Intelligence in Ihrer Organisation zu entwickeln.

  • Nachdem Sie einen Datenstrom aus Ihrer Organisation ausgewählt oder mit externen oder internen Quellen verbunden haben, können Sie die Datenverbrauchstools in Real-Time Intelligence verwenden, um Ihre Daten zu untersuchen. Die Datenverbrauchstools verwenden einen visuellen Datenerkundungsprozess und Drilldowns zu Datenerkenntnissen. Sie können auf Daten zugreifen, die ihnen neu sind, und die Datenstruktur, Muster, Anomalien, Prognosemengen und Datenraten leicht verstehen. Dementsprechend können Sie basierend auf den Daten eine intelligente Entscheidung treffen oder handeln. Echtzeit-Dashboards sind mit sofort einsatzbereiten Interaktionen ausgestattet, die den Prozess des Verständnisses von Daten vereinfachen, sodass sie für alle zugänglich sind, die basierend auf Daten in Bewegung mit visuellen Tools, natürlicher Sprache und Copilot Entscheidungen treffen möchten.

  • Diese Erkenntnisse können mit dem Data Activator in Aktionen umgewandelt werden, während Sie Reflexwarnungen aus verschiedenen Teilen von Fabric einrichten, um auf Datenmuster oder Bedingungen in Echtzeit zu reagieren.

Wie interagieren Sie mit den Komponenten in Real-Time Intelligence?

Entdecken von Streaming-Daten

Der Echtzeit-Hub wird verwendet, um Ihre Streaming-Daten zu ermitteln und zu verwalten. Echtzeit-Hub-Ereignisse sind ein Katalog von Daten in Bewegung und enthalten:

  • Daten-Streams: Alle Daten-Streams, die aktiv in Fabric ausgeführt werden, auf die Sie Zugriff haben.

  • Microsoft-Quellen: Entdecken Sie ganz einfach Streaming-Quellen, die Sie haben, und konfigurieren Sie schnell die Aufnahme dieser Quellen in Fabric, z. B. Azure Event Hubs, Azure IoT Hub, Azure SQL DB Change Data Capture (CDC), Azure Cosmos DB CDC, PostgreSQL DB CDC.

  • Fabric-Ereignisse: Ereignisgesteuerte Funktionen unterstützen Echtzeitbenachrichtigungen und Datenverarbeitung. Sie können Ereignisse wie Fabric Workspace-Artikel-Ereignisse und Azure Blob Storage-Ereignisse überwachen und darauf reagieren. Diese Ereignisse können verwendet werden, um andere Aktionen oder Workflows auszulösen, z. B. das Aufrufen einer Datenpipeline oder das Senden einer Benachrichtigung per E-Mail. Sie können diese Ereignisse auch über Eventstreams an andere Ziele senden.

Diese Daten werden alle in einem leicht konsumierbaren Format dargestellt und sind für alle Fabric-Workloads verfügbar.

Verbinden mit Streamingdaten

Eventstream sind die Art und Weise wie Fabric-Plattform große Mengen an Echtzeit-Ereignisse ohne Programmieren erfasst, transformiert und an verschiedene Ziele weiterleitet. Eventstreams unterstützen mehrere Datenquellen und Datenziele, einschließlich einer breiten Palette von Connectors zu externen Quellen, z. B. Apache Kafka-Cluster, Datenbank-Change Data Capture-Feeds, AWS-Streaming-Quellen (Kinesis) und Google (GCP Pub/Sub).

Verarbeitung des Streams

Mithilfe der Ereignisverarbeitungsfunktionen in Eventstreams können Sie Filterung, Datenbereinigung, Transformation, Fensteraggregationen und Duplikaterkennung durchführen, um die gewünschten Daten in das gewünschte Shape zu verschieben. Sie können auch die inhaltsbasierten Routing-Funktionen verwenden, um Daten basierend auf Filtern an verschiedene Ziele zu senden. Mit einem anderen Feature, abgeleiteten Eventstreams, können Sie neue Datenströme als Ergebnis von Transformationen und/oder Aggregationen erstellen, die für Verbraucher im Echtzeit-Hub freigegeben werden können.

Speichern und Analysieren von Daten

Eventhouses sind die ideale Analyse-Engine, um Daten in Bewegung zu verarbeiten. Sie sind speziell auf zeitbasierte Streaming-Ereignisse mit strukturierten, semistrukturierten und unstrukturierten Daten zugeschnitten. Diese Daten werden basierend auf der Erfassungszeit automatisch indiziert und partitioniert, sodass Sie unglaublich schnelle und komplexe Analyseabfragefunktionen für Daten mit hoher Granularität erhalten. Daten, die in Eventhouses gespeichert sind, können in OneLake zur Nutzung durch andere Fabric-Erfahrungen zur Verfügung gestellt werden.

Die indizierten, partitionierten Daten, die in Eventhouses gespeichert sind, sind für blitzschnelle Abfragen mit verschiedenen Code-, Low-Code- oder No-Code-Optionen in Fabric bereit. Daten können in systemeigenem KQL (Kusto-Abfragesprache) abgefragt werden oder T-SQL im KQL-Abfrageset verwenden. Der Kusto-Copilot, zusammen mit der Erfahrung der Erkundung von Abfragen ohne Code, optimiert den Prozess der Datenanalyse sowohl für erfahrene KQL-Benutzer als auch für Citizen Data Scientists. KQL ist eine einfache und leistungsstarke Sprache zum Abfragen von strukturierten, teilweise strukturierten und unstrukturierten Daten. Die Sprache ist ausdrucksstark, leicht zu lesen und die Abfrageabsicht leicht zu verstehen, und sie ist für die Erstellungserfahrung optimiert.

Visualisieren von Datenerkenntnissen

Diese Dateneinblicke können in KQL-Abfragesets, Echtzeit-Dashboards und Power BI-Berichten mit Sekunden von der Datenaufnahme bis hin zu Erkenntnissen dargestellt werden. Visualisierungsoptionen reichen von No-Code bis hin zu vollständig spezialisierten Erfahrungen und bieten sowohl dem Anfänger als auch dem Experten einen Wert mit dem Erkenntnis-Explorer, um ihre Daten als Diagramme und Tabellen zu visualisieren. Sie können visuelle Hinweise verwenden, um Filter- und Aggregationsvorgänge für Abfrageergebnisse durchzuführen und eine umfangreiche Liste integrierter Visualisierungen zu verwenden. Diese Erkenntnisse können in Power BI-Berichten und Echtzeit-Dashboards angezeigt werden, von denen beide Warnungen erhalten können, die auf den Datenerkenntnissen basierten.

Triggeraktionen

Warnungen überwachen Datenänderungen und ergreifen automatisch Aktionen, wenn Muster oder Bedingungen erkannt werden. Die Daten können im Echtzeit-Hub fließen oder aus einer Kusto-Abfrage oder einem Power BI-Bericht beobachtet werden. Wenn bestimmte Bedingungen oder Logik erfüllt sind, wird eine Aktion ausgeführt, z. B. das Benachrichtigen von Benutzern, das Ausführen von Fabric-Job-Elementen wie einer Pipeline oder das Starten von Power Automate-Workflows. Die Logik kann entweder ein einfach definierter Schwellenwert, ein Muster wie Ereignisse, die über einen Zeitraum wiederholt ausgeführt werden, oder die Ergebnisse komplexer Logiken sein, die von einer KQL-Abfrage definiert werden. Der Data Activator wandelt Ihre ereignisgesteuerten Erkenntnisse in umsetzbare Geschäftsvorteile um.

Integrieren mit anderen Fabric-Erfahrungen