Teilen über


Konfigurieren von Dataflowendpunkten

Wichtig

Die von Azure Arc unterstützte Vorschauversion von „Azure IoT Einsatz“ befindet sich derzeit in der Vorschauphase. Sie sollten diese Vorschausoftware nicht in Produktionsumgebungen verwenden.

Sie müssen eine neue Installation von „Azure IoT Einsatz“ bereitstellen, wenn ein allgemein verfügbares Release verfügbar wird. Sie werden kein Upgrade für eine Preview-Installation durchführen können.

Die zusätzlichen Nutzungsbestimmungen für Microsoft Azure-Vorschauen enthalten rechtliche Bedingungen. Sie gelten für diejenigen Azure-Features, die sich in der Beta- oder Vorschauversion befinden oder aber anderweitig noch nicht zur allgemeinen Verfügbarkeit freigegeben sind.

Um mit Datenflüssen zu beginnen, erstellen Sie zuerst Datenflussendpunkte. Ein Datenfluss ist der Verbindungspunkt für den Datenfluss. Sie können einen Endpunkt als Quelle oder Ziel für den Dataflow verwenden. Einige Endpunkttypen können als Quellen und Ziele verwendet werden, während andere nur für Ziele ausgelegt sind. Ein Dataflow benötigt mindestens einen Quell- und einen Zielendpunkt.

Erste Schritte

Verwenden Sie zunächst die folgende Tabelle, um den zu konfigurierenden Endpunkttyp auszuwählen:

Endpunkttyp Beschreibung Kann als Quelle verwendet werden Kann als Ziel verwendet werden
MQTT Für bidirektionales Messaging mit MQTT-Brokern, einschließlich der integrierten, in Azure IoT Operations und Event Grid integrierten. Ja Ja
Kafka Für bidirektionales Messaging mit Kafka-Brokern, einschließlich Azure Event Hubs. Ja Ja
Data Lake Zum Hochladen von Daten in Azure Data Lake Gen2-Speicherkonten. No Ja
Microsoft Fabric OneLake Zum Hochladen von Daten in Microsoft Fabric OneLake Lakehouses. No Ja
Lokaler Speicher Zum Senden von Daten an ein lokal verfügbares persistentes Volume, über das Sie Daten über Edge Storage Accelerator-Edgevolumes hochladen können. No Ja

Wiederverwenden von Endpunkten

Stellen Sie sich jeden Datenfluss-Endpunkt als ein Bündel von Konfigurationseinstellungen vor, das enthält, von wo die Daten stammen sollen (der host Wert), wie Sie sich beim Endpunkt authentifizieren, und andere Einstellungen wie TLS-Konfiguration oder Batchverarbeitungseinstellung. Sie müssen sie also nur einmal erstellen und dann in mehreren Datenflüssen wiederverwenden, in denen diese Einstellungen identisch wären.

Um die Wiederverwendung von Endpunkten zu vereinfachen, ist der MQTT- oder Kafka-Themenfilter nicht Teil der Endpunktkonfiguration. Stattdessen geben Sie den Themenfilter in der Datenflusskonfiguration an. Dies bedeutet, dass Sie denselben Endpunkt für mehrere Datenflüsse verwenden können, die unterschiedliche Themenfilter verwenden.

Sie können z. B. den standardmäßigen MQTT-Broker-Datenflussendpunkt verwenden. Sie können es sowohl für die Quelle als auch für das Ziel mit unterschiedlichen Themenfiltern verwenden:

Screenshot des Operations Experience-Portals zum Erstellen eines Datenflusses von MQTT zu MQTT.

Ebenso können Sie mehrere Datenflüsse erstellen, die denselben MQTT-Endpunkt für andere Endpunkte und Themen verwenden. Sie können z. B. den gleichen MQTT-Endpunkt für einen Datenfluss verwenden, der Daten an einen Kafka-Endpunkt sendet.

Screenshot des Operations Experience-Portals zum Erstellen eines Datenflusses von MQTT zu Kafka.

Ähnlich wie im MQTT-Beispiel können Sie mehrere Datenflüsse erstellen, die denselben Kafka-Endpunkt für verschiedene Themen oder denselben Data Lake-Endpunkt für verschiedene Tabellen verwenden.