Omówienie integracji

Istnieje wiele łączników danych, narzędzi i integracji, które bezproblemowo współpracują z platformą do pozyskiwania, orkiestracji, danych wyjściowych i zapytań dotyczących danych. Ten dokument zawiera ogólne omówienie dostępnych łączników, narzędzi i integracji. Szczegółowe informacje są udostępniane dla każdego łącznika wraz z linkami do pełnej dokumentacji.

Aby zapoznać się ze stronami o określonym typie integracji, wybierz jeden z następujących przycisków.

Tabele porównania

W poniższych tabelach podsumowano możliwości poszczególnych elementów. Wybierz kartę odpowiadającą łącznikom lub narzędziom i integracji. Każda nazwa elementu jest połączona ze szczegółowym opisem.

Poniższa tabela zawiera podsumowanie dostępnych łączników i ich możliwości:

Nazwa Pozyskiwanie Eksportowanie Organizowanie Zapytanie
Apache Kafka ✔️
Apache Flink ✔️
Apache Log4J 2 ✔️
Apache Spark ✔️ ✔️ ✔️
Apache Spark for Azure Synapse Analytics ✔️ ✔️ ✔️
Azure Cosmos DB ✔️
Azure Data Factory ✔️ ✔️
Azure Event Grid ✔️
Azure Event Hubs ✔️
Azure Functions ✔️ ✔️
Azure IoT Hubs ✔️
Azure Stream Analytics ✔️
Bit płynny ✔️
JDBC ✔️
Logic Apps ✔️ ✔️ ✔️
Logstash ✔️
Matlab ✔️
NLog ✔️
ODBC ✔️
Otwieranie telemetrii ✔️
Power Apps ✔️ ✔️
Power Automate ✔️ ✔️ ✔️
Serilog ✔️
Splunk ✔️
Spunk Universal Forwarder ✔️
Telegraf ✔️

Szczegółowe opisy

Poniżej przedstawiono szczegółowe opisy łączników i narzędzi i integracji. Wybierz kartę odpowiadającą łącznikom lub narzędziom i integracji. Wszystkie dostępne elementy są podsumowane w powyższych tabelach porównania .

Apache Kafka

Apache Kafka to rozproszona platforma przesyłania strumieniowego do tworzenia potoków danych przesyłanych strumieniowo w czasie rzeczywistym, które niezawodnie przenoszą dane między systemami lub aplikacjami. Kafka Connect to narzędzie do skalowalnego i niezawodnego przesyłania strumieniowego danych między platformą Apache Kafka i innymi systemami danych. Ujście platformy Kafka służy jako łącznik z platformy Kafka i nie wymaga użycia kodu. Jest to złoto certyfikowane przez Confluent - przeszedł kompleksowy przegląd i testowanie pod kątem jakości, kompletności funkcji, zgodności ze standardami i wydajności.

Apache Flink to platforma i aparat przetwarzania rozproszonego na potrzeby obliczeń stanowych na niezwiązanych i ograniczonych strumieniach danych. Łącznik implementuje ujście danych do przenoszenia danych między klastrami usługi Azure Data Explorer i Flink. Korzystając z usług Azure Data Explorer i Apache Flink, można tworzyć szybkie i skalowalne aplikacje przeznaczone dla scenariuszy opartych na danych. Na przykład uczenie maszynowe (ML), wyodrębnianie transformacji i ładowanie (ETL) i usługa Log Analytics.

Apache Log4J 2

Log4J to popularna platforma rejestrowania dla aplikacji Java obsługiwanych przez platformę Apache Foundation. Usługa Log4j umożliwia deweloperom kontrolowanie, które instrukcje dziennika są danymi wyjściowymi z dowolnym poziomem szczegółowości na podstawie nazwy rejestratora, poziomu rejestratora i wzorca komunikatów. Ujście usługi Apache Log4J 2 umożliwia przesyłanie strumieniowe danych dziennika do bazy danych, gdzie można analizować i wizualizować dzienniki w czasie rzeczywistym.

Apache Spark

Apache Spark to ujednolicony aparat analityczny do przetwarzania danych na dużą skalę. Łącznik Spark to projekt open source, który można uruchomić w dowolnym klastrze Spark. Implementuje źródło danych i ujście danych do przenoszenia danych do lub z klastrów Spark. Za pomocą łącznika platformy Apache Spark można tworzyć szybkie i skalowalne aplikacje przeznaczone dla scenariuszy opartych na danych. Na przykład uczenie maszynowe (ML), wyodrębnianie transformacji i ładowanie (ETL) i usługa Log Analytics. Dzięki łącznikowi baza danych staje się prawidłowym magazynem danych dla standardowych operacji źródła i ujścia platformy Spark, takich jak odczyt, zapis i zapisStream.

Apache Spark for Azure Synapse Analytics

Apache Spark to platforma przetwarzania równoległego, która obsługuje przetwarzanie w pamięci w celu zwiększenia wydajności aplikacji analitycznych danych big data. Platforma Apache Spark w usłudze Azure Synapse Analytics jest jedną z implementacji platformy Apache Spark firmy Microsoft w chmurze. Dostęp do bazy danych można uzyskać z Synapse Studio za pomocą platformy Apache Spark dla usługi Azure Synapse Analytics.

Azure Cosmos DB

Połączenie danych zestawienia zmian usługi Azure Cosmos DB to potok pozyskiwania, który nasłuchuje zestawienia zmian usługi Cosmos DB i pozyskiwa dane do bazy danych.

Azure Data Factory

Azure Data Factory (ADF) to oparta na chmurze usługa integracji danych, która umożliwia integrację różnych magazynów danych i wykonywanie działań na danych.

Azure Event Grid

Pozyskiwanie usługi Event Grid to potok, który nasłuchuje usługi Azure Storage i aktualizuje bazę danych w celu ściągnięcia informacji po wystąpieniu zasubskrybowanych zdarzeń. Możesz skonfigurować ciągłe pozyskiwanie z usługi Azure Storage (Blob Storage i ADLSv2) przy użyciu subskrypcji Azure Event Grid dla utworzonych obiektów blob lub powiadomień o zmianie nazwy obiektu blob i przesyłania strumieniowego powiadomień za pośrednictwem Azure Event Hubs.

  • Funkcje: Spożyciu
  • Obsługiwany typ pozyskiwania: Przetwarzanie wsadowe, przesyłanie strumieniowe
  • Przypadki użycia: Przetwarzanie zdarzeń
  • Dokumentacja:Połączenie danych usługi Event Grid

Azure Event Hubs

Azure Event Hubs to platforma przesyłania strumieniowego danych big data i usługa pozyskiwania zdarzeń. Możesz skonfigurować ciągłe pozyskiwanie z usługi Event Hubs zarządzanej przez klienta.

Azure Functions

Azure Functions umożliwia uruchamianie kodu bezserwerowego w chmurze zgodnie z harmonogramem lub w odpowiedzi na zdarzenie. Dzięki powiązaniom wejściowym i wyjściowym dla Azure Functions możesz zintegrować bazę danych z przepływami pracy w celu pozyskiwania danych i uruchamiania zapytań względem bazy danych.

Azure IoT Hubs

Azure IoT Hub jest usługą zarządzaną hostowaną w chmurze, która działa jako centralne centrum komunikatów na potrzeby dwukierunkowej komunikacji między aplikacją IoT a zarządzanymi urządzeniami. Możesz skonfigurować ciągłe pozyskiwanie z zarządzanych przez klienta usług IoT Hubs przy użyciu zgodnego z usługą Event Hubs wbudowanego punktu końcowego komunikatów z urządzenia do chmury.

  • Funkcje: Spożyciu
  • Obsługiwany typ pozyskiwania: Przetwarzanie wsadowe, przesyłanie strumieniowe
  • Przypadki użycia: Dane IoT
  • Dokumentacja:IoT Hub połączenie danych

Usługa Azure Stream Analytics

Usługa Azure Stream Analytics to analiza w czasie rzeczywistym i złożony aparat przetwarzania zdarzeń zaprojektowany do przetwarzania dużych ilości szybkich danych przesyłanych strumieniowo z wielu źródeł jednocześnie.

Bit płynny

Fluent Bit to agent typu open source, który zbiera dzienniki, metryki i ślady z różnych źródeł. Umożliwia filtrowanie, modyfikowanie i agregowanie danych zdarzeń przed wysłaniem ich do magazynu.

JDBC

Java Database Connectivity (JDBC) to interfejs API języka Java służący do nawiązywania połączeń z bazami danych i wykonywania zapytań. Rozwiązania JDBC można użyć w celu nawiązania połączenia z usługą Azure Data Explorer.

Logic Apps

Łącznik usługi Microsoft Logic Apps umożliwia automatyczne uruchamianie zapytań i poleceń w ramach zaplanowanego lub wyzwalanego zadania.

Logstash

Wtyczka Logstash umożliwia przetwarzanie zdarzeń z usługi Logstash do bazy danych usługi Azure Data Explorer na potrzeby późniejszej analizy.

Matlab

MATLAB to platforma programowania i obliczeń liczbowych używana do analizowania danych, opracowywania algorytmów i tworzenia modeli. Token autoryzacji można uzyskać w aplikacji MATLAB na potrzeby wykonywania zapytań dotyczących danych w usłudze Azure Data Explorer.

NLog

NLog to elastyczna i bezpłatna platforma rejestrowania dla różnych platform .NET, w tym .NET Standard. Funkcja NLog umożliwia zapisywanie w kilku miejscach docelowych, takich jak baza danych, plik lub konsola. Za pomocą protokołu NLog można zmienić konfigurację rejestrowania na bieżąco. Ujście NLog jest celem NLog, który umożliwia wysyłanie komunikatów dziennika do bazy danych. Wtyczka zapewnia wydajny sposób ujścia dzienników do klastra.

ODBC

Open Database Connectivity (ODBC) to powszechnie akceptowany interfejs programowania aplikacji (API) na potrzeby dostępu do bazy danych. Usługa Azure Data Explorer jest zgodna z podzbiorem protokołu komunikacyjnego SQL Server (MS-TDS). Ta zgodność umożliwia korzystanie ze sterownika ODBC na potrzeby SQL Server z usługą Azure Data Explorer.

Otwieranie telemetrii

Łącznik OpenTelemetry obsługuje pozyskiwanie danych z wielu odbiorników do bazy danych. Działa ona jako most do pozyskiwania danych generowanych przez funkcję Otwórz dane telemetryczne w bazie danych przez dostosowanie formatu wyeksportowanych danych zgodnie z potrzebami.

Power Apps

Power Apps to pakiet aplikacji, usług, łączników i platformy danych, który zapewnia szybkie środowisko programistyczne aplikacji do tworzenia niestandardowych aplikacji łączących się z danymi biznesowymi. Łącznik usługi Power Apps jest przydatny, jeśli masz dużą i rosnącą kolekcję danych przesyłanych strumieniowo na platformie Azure Data Explorer i chcesz utworzyć niski kod, wysoce funkcjonalną aplikację do korzystania z tych danych.

Power Automate

Power Automate to usługa orkiestracji używana do automatyzowania procesów biznesowych. Power Automate Łącznik (wcześniej Microsoft Flow) umożliwia organizowanie i planowanie przepływów, wysyłanie powiadomień i alertów w ramach zaplanowanego lub wyzwalanego zadania.

Serilog

Serilog to popularna platforma rejestrowania dla aplikacji .NET. Usługa Serilog umożliwia deweloperom kontrolowanie, które instrukcje dziennika są danymi wyjściowymi z dowolnym poziomem szczegółowości na podstawie nazwy rejestratora, poziomu rejestratora i wzorca komunikatów. Ujście serilog, znane również jako appender, przesyła strumieniowo dane dziennika do bazy danych, gdzie można analizować i wizualizować dzienniki w czasie rzeczywistym.

Splunk

Splunk Enterprise to platforma oprogramowania, która umożliwia jednoczesne pozyskiwanie danych z wielu źródeł. Dodatek Azure Data Explorer wysyła dane z narzędzia Splunk do tabeli w klastrze.

Splunk Universal Forwarder

Telegraf

Telegraf to open source, lekki, minimalny agent drukowania stóp pamięci do zbierania, przetwarzania i zapisywania danych telemetrycznych, w tym dzienników, metryk i danych IoT. Program Telegraf obsługuje setki wtyczek wejściowych i wyjściowych. Jest powszechnie używany i dobrze wspierany przez społeczność open source. Wtyczka wyjściowa służy jako łącznik z programu Telegraf i obsługuje pozyskiwanie danych z wielu typów wtyczek wejściowych do bazy danych.