Streamen von Daten als Eingabe in Stream Analytics
Stream Analytics verfügt über eine erstklassige Integration in Azure-Datenströme als Eingaben aus drei Arten von Ressourcen:
Diese Eingaberessourcen können aus demselben Azure-Abonnement wie dem Ihres Stream Analytics-Auftrags oder aus einem anderen Abonnement stammen.
Komprimierung
Stream Analytics unterstützt die Komprimierung für alle Eingabequellen. Unterstützte Komprimierungstypen sind: None, Gzip und Deflate. Die Unterstützung der Komprimierung steht für Verweisdaten nicht zur Verfügung. Wenn die Eingabedaten komprimiert sind, verarbeitet Stream Analytics sie transparent. Sie müssen bei der Avro-Serialisierung keinen Komprimierungstyp angeben.
Erstellen, Bearbeiten oder Testen von Eingaben
Mit dem Azure-Portal, Visual Studio und Visual Studio Code können Sie Eingaben hinzufügen und anzeigen oder vorhandene Eingaben für Ihren Streamingauftrag bearbeiten. Sie können auch Tests für Eingabeverbindungen und Abfragen anhand von Beispieldaten über das Azure-Portal, Visual Studio und Visual Studio Code ausführen. Beim Schreiben einer Abfrage listen Sie die Eingabe in der FROM-Klausel auf. Sie erhalten die Liste mit den verfügbaren Eingaben im Portal über die Seite Abfrage. Wenn Sie mehrere Eingaben verwenden möchten, können Sie JOIN
oder mehrere SELECT
-Abfragen schreiben.
Hinweis
Es wird dringend empfohlen, dass Sie Stream Analytics-Tools für Visual Studio Code verwenden, um die optimale lokale Entwicklungserfahrung zu gewährleisten. Es gibt bekannte Funktionslücken in Stream Analytics-Tools für Visual Studio 2019 (Version 2.6.3000.0), und die Version wird in Zukunft nicht verbessert.
Streamen von Daten aus Event Hubs
Azure Event Hubs ist ein hoch skalierbarer Veröffentlichen-Abonnieren-Ereigniserfasser. Ein Event Hub kann Millionen von Ereignissen pro Sekunde erfassen. Auf diese Weise können Sie riesige Datenmengen verarbeiten und analysieren, die von vernetzten Geräten und Anwendungen erzeugt werden. Event Hubs und Stream Analytics können zusammen eine End-to-End-Lösung für Echtzeitanalysen darstellen. Event Hubs ermöglichen es Ihnen, Ereignisse in Echtzeit an Azure zu übergeben, sodass Stream Analytics-Aufträge diese Ereignisse in Echtzeit verarbeiten können. Beispielsweise können Sie Webklicks, Sensormesswerte oder Onlineprotokollereignisse an Event Hubs senden. Anschließend können Sie Stream Analytics-Aufträge erstellen, um Event Hubs für Eingabedaten zum Filtern, Aggregieren und Korrelieren in Echtzeit zu verwenden.
EventEnqueuedUtcTime
ist der Zeitstempel für die Ankunft eines Ereignisses in einem Event Hub und der Standardzeitstempel für Ereignisse aus Event Hubs für Stream Analytics. Zum Verarbeiten der Daten als Datenstrom mit einem Zeitstempel in der Ereignisnutzlast müssen Sie das Schlüsselwort TIMESTAMP BY verwenden.
Event Hubs-Consumergruppen
Sie sollten für jede Event Hub-Eingabe eine eigene Consumergruppe konfigurieren. Wenn ein Auftrag eine Selbstverknüpfung oder mehrere Eingaben enthält, können einige Eingaben unter Umständen von mehreren nachgeschalteten Lesern gelesen werden. Dies wirkt sich auf die Anzahl der Leser in einer einzelnen Consumergruppe aus. Zur Vermeidung der Überschreitung des Event Hub-Limits von fünf Lesern pro Consumergruppe pro Partition empfiehlt es sich, eine Consumergruppe für jeden Stream Analytics-Auftrag anzugeben. Darüber hinaus gilt ein Grenzwert von 20 Consumergruppen für einen Event Hub im Standard-Tarif. Weitere Informationen finden Sie unter Troubleshoot input connections (Problembehandlung für Eingabeverbindungen).
Erstellen einer Eingabe aus Event Hubs
In der folgenden Tabelle wird jede Eigenschaft im Azure-Portal auf der Seite Neue Eingabe erläutert, um Dateneingaben aus einem Event Hub zu streamen:
Eigenschaft | BESCHREIBUNG |
---|---|
Eingabealias | Ein Anzeigename, der in der Auftragsabfrage verwendet wird, um auf diese Eingabe zu verweisen. |
Abonnement | Wählen Sie das Azure-Abonnement, in dem die Event Hub-Ressource vorhanden ist. |
Event Hub-Namespace | Der Event Hubs-Namespace ist ein Container für eine Gruppe von Event Hubs. Sie haben bei der Erstellung einer Event Hub-Instanz auch den Namespace erstellt. |
Event Hub-Name | Der Name des Event Hubs, der als Eingabe verwendet wird. |
Event Hub-Consumergruppe (empfohlen) | Es wird empfohlen, für jeden Stream Analytics-Auftrag eine eigene Consumergruppe zu verwenden. Diese Zeichenfolge identifiziert die Consumergruppe, die zum Erfassen von Daten aus dem Event Hub verwendet werden soll. Wenn keine Consumergruppe angegeben wird, verwendet der Stream Analytics-Auftrag die $Default -Consumergruppe. |
Authentifizierungsmodus | Geben Sie den Typ der Authentifizierung an, die Sie zum Herstellen einer Verbindung mit dem Event Hub verwenden möchten. Sie können eine Verbindungszeichenfolge oder eine verwaltete Identität verwenden, um sich beim Event Hub zu authentifizieren. Für die Option „Verwaltete Identität“ können Sie entweder eine vom System zugewiesene verwaltete Identität für den Stream Analytics-Auftrag oder eine vom Benutzer zugewiesene verwaltete Identität erstellen, um sich beim Event Hub zu authentifizieren. Wenn Sie eine verwaltete Identität verwenden, muss die verwaltete Identität Mitglied der Rollen Azure Event Hubs-Datenempfänger oder Azure Event Hubs-Datenbesitzer sein. |
Event Hub-Richtlinienname | Die SAS-Richtlinie, die Zugriff auf die Event Hubs-Instanz bietet Jede SAS-Richtlinie umfasst einen Namen, die von Ihnen festgelegten Berechtigungen und Zugriffsschlüssel. Diese Option wird automatisch aufgefüllt, es sei denn, Sie wählen die Option aus, um die Event Hubs-Einstellungen manuell bereitzustellen. |
Partitionsschlüssel | Dies ist ein optionales Feld, das nur verfügbar ist, wenn Ihr Auftrag so konfiguriert ist, dass er den Kompatibilitätsgrad 1.2 oder höher verwendet. Wenn Ihre Eingabe durch eine Eigenschaft partitioniert wird, können Sie den Namen dieser Eigenschaft hier hinzufügen. Sie wird verwendet, um die Leistung Ihrer Abfrage zu verbessern, wenn sie eine PARTITION BY - oder GROUP BY -Klausel für diese Eigenschaft enthält. Wenn dieser Auftrag den Kompatibilitätsgrad 1.2 oder höher verwendet, wird dieses Feld standardmäßig auf PartitionId. festgelegt. |
Ereignisserialisierungsformat | Das Serialisierungsformat (JSON, CSV, Avro, Parquet oder Sonstige (Protobuf, XML, Proprietär...)) des eingehenden Datenstroms. Stellen Sie sicher, dass das JSON-Format der Spezifikation entspricht und Dezimalzahlen keine führende 0 enthalten. |
Codieren | UTF-8 ist derzeit das einzige unterstützte Codierungsformat. |
Typ der Ereigniskomprimierung | Der Komprimierungstyp, der zum Lesen des eingehenden Datenstroms verwendet wird, z. B. Keiner (Standard), Gzip oder Deflate. |
Schemaregistrierung (Vorschau) | Sie können die Schemaregistrierung mit Schemas für Ereignisdaten auswählen, die vom Event Hub empfangen werden. |
Wenn Ihre Daten aus einer Event Hubs-Streamingeingabe stammen, haben Sie Zugriff auf die folgenden Metadatenfelder in ihrer Stream Analytics-Abfrage:
Eigenschaft | BESCHREIBUNG |
---|---|
EventProcessedUtcTime | Das Datum und die Uhrzeit, zu dem Stream Analytics das Ereignis verarbeitet. |
EventEnqueuedUtcTime | Das Datum und die Uhrzeit, zu dem Event Hubs die Ereignisse empfängt. |
PartitionId | Die nullbasierte Partitions-ID für den Eingabeadapter. |
Beispielsweise können Sie anhand dieser Felder eine wie im folgenden Beispiel gezeigte Abfrage schreiben:
SELECT
EventProcessedUtcTime,
EventEnqueuedUtcTime,
PartitionId
FROM Input
Hinweis
Bei Verwendung von Event Hub als Endpunkt für IoT Hub-Routen können Sie mithilfe der GetMetadataPropertyValue-Funktion auf die IoT Hub-Metadaten zugreifen.
Streamen von Daten aus IoT Hub
Azure IoT Hub ist ein hochgradig skalierbares Erfassungsmodul für das Veröffentlichen und Abonnieren von Ereignissen, das für IoT-Szenarien optimiert ist.
Der Standardzeitstempel von Ereignissen, die von IoT Hub in Stream Analytics stammen, ist der Zeitstempel, an dem das Ereignis in IoT Hub eingeht, also EventEnqueuedUtcTime
. Zum Verarbeiten der Daten als Datenstrom mit einem Zeitstempel in der Ereignisnutzlast müssen Sie das Schlüsselwort TIMESTAMP BY verwenden.
IoT Hub-Consumergruppen
Sie sollten für jede IoT Hub-Eingabe in Stream Analytics eine eigene Consumergruppe konfigurieren. Wenn ein Auftrag eine Selbstverknüpfung oder mehrere Eingaben enthält, können einige Eingaben möglicherweise von mehreren nachgeschalteten Lesern gelesen werden. Dies wirkt sich auf die Anzahl der Leser in einer einzelnen Consumergruppe aus. Zur Vermeidung der Überschreitung des Azure IoT Hub-Limits von fünf Lesern pro Consumergruppe pro Partition empfiehlt es sich, eine Consumergruppe für jeden Stream Analytics-Auftrag anzugeben.
Konfigurieren von IoT Hub als Datenstromeingabe
In der folgenden Tabelle wird jede Eigenschaft im Azure-Portal auf der Seite Neue Eingabe erläutert, wenn Sie IoT Hub als Datenstromeingabe konfigurieren.
Eigenschaft | BESCHREIBUNG |
---|---|
Eingabealias | Ein Anzeigename, der in der Auftragsabfrage verwendet wird, um auf diese Eingabe zu verweisen. |
Abonnement | Wählen Sie das Abonnement, in dem die IoT Hub-Ressource vorhanden ist. |
IoT Hub | Der Name von IoT Hub, der als Eingabe verwendet wird. |
Consumergruppe | Es wird empfohlen, für jeden Stream Analytics-Auftrag eine andere Consumergruppe zu verwenden. Die Consumergruppe, die zum Erfassen von Daten aus IoT Hub verwendet werden soll. Stream Analytics verwendet die $Default-Consumergruppe, sofern nicht anders angegeben. |
Name der SAS-Richtlinie | Die SAS-Richtlinie, die Zugriff auf IoT Hub ermöglicht. Jede SAS-Richtlinie umfasst einen Namen, die von Ihnen festgelegten Berechtigungen und Zugriffsschlüssel. |
Schlüssel für SAS-Richtlinie | Der Schlüssel für den gemeinsamen Zugriff, der für die Autorisierung des Zugriffs auf IoT Hub verwendet wird. Diese Option wird automatisch ausgefüllt, es sei denn, Sie wählen die Option zum manuellen Festlegen der IoT Hub-Einstellungen. |
Endpunkt | Der Endpunkt für IoT Hub. |
Partitionsschlüssel | Dies ist ein optionales Feld, das nur verfügbar ist, wenn Ihr Auftrag so konfiguriert ist, dass er den Kompatibilitätsgrad 1.2 oder höher verwendet. Wenn Ihre Eingabe durch eine Eigenschaft partitioniert wird, können Sie den Namen dieser Eigenschaft hier hinzufügen. Sie wird verwendet, um die Leistung Ihrer Abfrage zu verbessern, wenn sie eine PARTITION BY- oder GROUP BY-Klausel für diese Eigenschaft enthält. Wenn dieser Auftrag den Kompatibilitätsgrad 1.2 oder höher verwendet, wird dieses Feld standardmäßig auf „PartitionId“ festgelegt. |
Ereignisserialisierungsformat | Das Serialisierungsformat (JSON, CSV, Avro, Parquet oder Sonstige (Protobuf, XML, Proprietär...)) des eingehenden Datenstroms. Stellen Sie sicher, dass das JSON-Format der Spezifikation entspricht und Dezimalzahlen keine führende 0 enthalten. |
Codieren | UTF-8 ist derzeit das einzige unterstützte Codierungsformat. |
Typ der Ereigniskomprimierung | Der Komprimierungstyp, der zum Lesen des eingehenden Datenstroms verwendet wird, z. B. Keiner (Standard), Gzip oder Deflate. |
Wenn Ihre gestreamten Daten aus IoT Hub stammen, haben Sie Zugriff auf folgende Metadatenfelder in Ihrer Stream Analytics-Abfrage:
Eigenschaft | BESCHREIBUNG |
---|---|
EventProcessedUtcTime | Das Datum und die Uhrzeit der Verarbeitung des Ereignisses. |
EventEnqueuedUtcTime | Datum und Uhrzeit, zu dem der IoT Hub das Ereignis empfängt. |
PartitionId | Die nullbasierte Partitions-ID für den Eingabeadapter. |
IoTHub.MessageId | Eine ID, die zum Korrelieren einer bidirektionalen Kommunikation in IoT Hub verwendet wird. |
IoTHub.CorrelationId | Eine ID, die in Nachrichtenantworten und im Feedback in IoT Hub verwendet wird. |
IoTHub.ConnectionDeviceId | Die Authentifizierung-ID, die zum Senden dieser Nachricht verwendet wird. Dieser Wert wird auf servicebound-Nachrichten von IoT Hub gestempelt. |
IoTHub.ConnectionDeviceGenerationId | Die Generierungs-ID des authentifizierten Geräts, das zum Senden dieser Nachricht verwendet wurde. Dieser Wert wird auf servicebound-Nachrichten von IoT Hub gestempelt. |
IoTHub.EnqueuedTime | Die Uhrzeit, zu der der IoT Hub die Nachricht empfängt. |
Streamen von Daten aus Blobspeicher oder Data Lake Storage Gen2
Für Szenarien mit großen Mengen unstrukturierter Daten, die in der Cloud gespeichert werden sollen, bietet der Azure-Blobspeicher oder Azure Data Lake Storage Gen2 eine kostengünstige und skalierbare Lösung. Daten in Blob Storage oder Azure Data Lake Storage Gen2 gelten als ruhende Daten. Allerdings können diese Daten von Stream Analytics als Datenstrom verarbeitet werden.
Ein häufig verwendetes Szenario für solche Eingaben bei Stream Analytics ist die Protokollverarbeitung. In diesem Szenario werden Telemetriedatendateien von einem System erfasst, die zur Extraktion aussagekräftiger Daten analysiert und verarbeitet werden müssen.
Der Standardzeitstempel von Blobspeicher- oder Azure Data Lake Storage Gen2-Ereignissen in Stream Analytics ist der Zeitstempel, an dem es zuletzt geändert wurde, also BlobLastModifiedUtcTime
. Wenn ein Blob um 13:00 Uhr auf ein Speicherkonto hochgeladen wird und der Azure Stream Analytics-Auftrag mit der Option Jetzt um 13:01 Uhr gestartet wird, wird es nicht abgeholt, da seine geänderte Zeit außerhalb des Zeitraums für die Auftragsausführung liegt.
Wenn ein Blob um 13:00 Uhr in einen Speicherkontocontainer hochgeladen wird und der Azure Stream Analytics-Auftrag mit der Option Benutzerdefinierte Uhrzeit um 13:00 Uhr oder früher gestartet wird, wird der Blob abgeholt, da seine geänderte Zeit in den Zeitraum für die Auftragsausführung fällt.
Wenn ein Azure Stream Analytics-Auftrag mit der Option Jetzt um 13:00 Uhr gestartet wird und ein Blob um 13:01 Uhr in den Speicherkontocontainer hochgeladen wird, holt Azure Stream Analytics den Blob ab. Der jedem Blob zugewiesene Zeitstempel basiert nur auf BlobLastModifiedTime
. Der Ordner, in dem sich das Blob befindet, hat keine Beziehung zum zugewiesenen Zeitstempel. Wenn es beispielsweise einen Blob 2019/10-01/00/b1.txt
mit einem BlobLastModifiedTime
-Wert von 2019-11-11
gibt, lautet der dem Blob zugewiesene Zeitstempel 2019-11-11
.
Zum Verarbeiten der Daten als Datenstrom mit einem Zeitstempel in der Ereignisnutzlast müssen Sie das Schlüsselwort TIMESTAMP BY verwenden. Bei einem Stream Analytics-Auftrag werden Daten jede Sekunde per Pullvorgang aus der Azure-Blobspeicher- oder Azure Data Lake Storage Gen2-Eingabe abgerufen, wenn die Blobdatei verfügbar ist. Falls die Blobdatei nicht verfügbar ist, kommt es zu einem exponentiellen Backoff mit einer maximalen Zeitverzögerung von 90 Sekunden.
Hinweis
Stream Analytics unterstützt das Hinzufügen von Inhalten zu einer vorhandenen Blobdatei nicht. Stream Analytics zeigt jede Datei nur einmal an. Des Weiteren werden alle Änderungen, die in der Datei vorgenommen wurden, nachdem der Auftrag die Daten gelesen hat, nicht verarbeitet. Die Methode, alle Daten für eine Blobdatei auf einmal hochzuladen und dann zusätzliche neuere Ereignisse einer anderen, neuen Blobdatei hinzuzufügen, hat sich bewährt.
In Szenarien, in denen fortlaufend viele Blobs hinzugefügt werden und Stream Analytics die Blobs beim Hinzufügen verarbeitet, kann es in seltenen Fällen vorkommen, dass einige Blobs aufgrund der Granularität von BlobLastModifiedTime
übersprungen werden. Sie können dies entschärfen, indem Sie Blobs in einem Abstand von mindestens zwei Sekunden hochladen. Wenn diese Option nicht praktikabel ist, können Sie Event Hubs verwenden, um große Mengen von Ereignissen zu streamen.
Konfigurieren von Blob Storage als Datenstromeingabe
In der folgenden Tabelle wird jede Eigenschaft im Azure-Portal auf der Seite Neue Eingabe erläutert, wenn Sie Blob Storage als Datenstromeingabe konfigurieren.
Eigenschaft | BESCHREIBUNG |
---|---|
Eingabealias | Ein Anzeigename, der in der Auftragsabfrage verwendet wird, um auf diese Eingabe zu verweisen. |
Abonnement | Wählen Sie das Abonnement, in dem die Speicherressource vorhanden ist. |
Speicherkonto | Der Name des Speicherkontos an, in dem sich die Blobdateien befinden. |
Speicherkontoschlüssel | Der geheime Schlüssel, der dem Speicherkonto zugeordnet ist. Diese Option wird automatisch ausgefüllt, es sei denn, Sie wählen die Option zum manuellen Festlegen der Einstellungen. |
Container | Container bieten eine logische Gruppierung für Blobs. Sie können entweder Vorhandenes Element verwenden oder Neues Element erstellen wählen, um einen neuen Container zu erstellen. |
Authentifizierungsmodus | Geben Sie den Typ der Authentifizierung an, die Sie zum Herstellen einer Verbindung mit dem Speicherkonto verwenden möchten. Sie können eine Verbindungszeichenfolge oder eine verwaltete Identität verwenden, um sich beim Speicherkonto zu authentifizieren. Für die Option „Verwaltete Identität“ können Sie entweder eine vom System zugewiesene verwaltete Identität für den Stream Analytics-Auftrag oder eine vom Benutzer zugewiesene verwaltete Identität erstellen, um sich beim Speicherkonto zu authentifizieren. Wenn Sie eine verwaltete Identität verwenden, muss die verwaltete Identität Mitglied einer für das Speicherkonto geeigneten Rolle sein. |
Pfadmuster (optional) | Der Dateipfad, der verwendet wird, um die Blobs im angegebenen Container zu suchen. Wenn Sie Blobs aus dem Containerstamm lesen möchten, legen Sie kein Pfadmuster fest. In dem Pfad können Sie mindestens eine Instanz der folgenden drei Variablen angeben: {date} , {time} oder {partition} .Beispiel 1: cluster1/logs/{date}/{time}/{partition} Beispiel 2: cluster1/logs/{date} Das Zeichen * ist kein zulässiger Wert für das Pfadpräfix. Es sind nur gültige Azure Blob-Zeichen zulässig. Schließen Sie keine Containernamen oder Dateinamen ein. |
Datumsformat (optional) | Wenn Sie die Datumsvariable im Pfad verwenden, wird das Datumsformat, in dem die Dateien organisiert sind, verwendet. Beispiel: YYYY/MM/DD Wenn Blobeingaben {date} oder {time} in ihrem Pfad aufweisen, werden die Ordner in zeitlich aufsteigender Reihenfolge untersucht. |
Zeitformat (optional) | Wenn Sie die Zeitvariable im Pfad verwenden, wird das Zeitformat, in dem die Dateien organisiert sind, verwendet. Der einzige derzeit unterstützte Wert ist HH für Stunden. |
Partitionsschlüssel | Dies ist ein optionales Feld, das nur verfügbar ist, wenn Ihr Auftrag so konfiguriert ist, dass er den Kompatibilitätsgrad 1.2 oder höher verwendet. Wenn Ihre Eingabe durch eine Eigenschaft partitioniert wird, können Sie den Namen dieser Eigenschaft hier hinzufügen. Sie wird verwendet, um die Leistung Ihrer Abfrage zu verbessern, wenn sie eine PARTITION BY- oder GROUP BY-Klausel für diese Eigenschaft enthält. Wenn dieser Auftrag den Kompatibilitätsgrad 1.2 oder höher verwendet, wird dieses Feld standardmäßig auf „PartitionId“ festgelegt. |
Anzahl von Eingabepartitionen | Dieses Feld ist nur vorhanden, wenn {partition} im Pfadmuster vorhanden ist. Der Wert dieser Eigenschaft ist eine ganze Zahl >=1. Wo immer {partition} in „pathPattern“ auftritt, wird eine Zahl zwischen 0 und dem Wert dieses Felds minus 1 verwendet. |
Ereignisserialisierungsformat | Das Serialisierungsformat (JSON, CSV, Avro, Parquet oder Sonstige (Protobuf, XML, Proprietär...)) des eingehenden Datenstroms. Stellen Sie sicher, dass das JSON-Format der Spezifikation entspricht und Dezimalzahlen keine führende 0 enthalten. |
Codieren | Bei CSV und JSON ist UTF-8 gegenwärtig das einzige unterstützte Codierungsformat. |
Komprimierung | Der Komprimierungstyp, der zum Lesen des eingehenden Datenstroms verwendet wird, z. B. Keiner (Standard), Gzip oder Deflate. |
Wenn Ihre Daten aus einer Blob Storage-Quelle stammen, haben Sie Zugriff auf folgende Metadatenfelder in Ihrer Stream Analytics-Abfrage:
Eigenschaft | BESCHREIBUNG |
---|---|
BlobName | Der Name des Eingabe-Blobs, aus dem das Ereignis stammt. |
EventProcessedUtcTime | Das Datum und die Uhrzeit, zu dem Stream Analytics das Ereignis verarbeitet. |
BlobLastModifiedUtcTime | Das Datum und die Uhrzeit der letzten Änderung des Blobs. |
PartitionId | Die nullbasierte Partitions-ID für den Eingabeadapter. |
Beispielsweise können Sie anhand dieser Felder eine wie im folgenden Beispiel gezeigte Abfrage schreiben:
SELECT
BlobName,
EventProcessedUtcTime,
BlobLastModifiedUtcTime
FROM Input
Streamen von Daten aus Apache Kafka
Mit Azure Stream Analytics können Sie eine direkte Verbindung mit Apache Kafka-Clustern herstellen, um Daten zu erfassen. Die Lösung enthält nur wenig Code und wird vollständig vom Azure Stream Analytics-Team bei Microsoft verwaltet, so dass sie die Compliance-Standards des Unternehmens erfüllt. Die Kafka-Eingabe ist abwärtskompatibel und unterstützt alle Versionen mit dem neuesten Clientrelease ab Version 0.10. Benutzer können je nach Konfiguration eine Verbindung mit Kafka-Clustern in einem virtuellen Netzwerk und Kafka-Cluster herstellen. Die Konfiguration basiert auf vorhandenen Kafka-Konfigurationskonventionen. Unterstützte Komprimierungstypen sind None, Gzip, Snappy, LZ4 und Zstd.
Weitere Informationen finden Sie unter Streamen von Daten aus Kafka in Azure Stream Analytics (Vorschau).