Panoramica delle integrazioni

Sono disponibili molti connettori dati, strumenti e integrazioni che funzionano facilmente con la piattaforma per l'inserimento, l'orchestrazione, l'output e la query dei dati. Questo documento è una panoramica generale sui connettori, gli strumenti e le integrazioni disponibili. Vengono fornite informazioni dettagliate per ogni connettore, insieme ai collegamenti alla relativa documentazione completa.

Per le pagine di panoramica su un tipo specifico di integrazione, selezionare uno dei pulsanti seguenti.

Tabelle di confronto

Le tabelle seguenti riepilogano le funzionalità di ogni elemento. Selezionare la scheda corrispondente a connettori o strumenti e integrazioni. Ogni nome di elemento è collegato alla relativa descrizione dettagliata.

La tabella seguente riepiloga i connettori disponibili e le relative funzionalità:

Nome Inserimento Esportazione Orchestrazione Query
Apache Kafka ✔️
Apache Flink ✔️
Apache Log4J 2 ✔️
Apache Spark ✔️
Apache Spark per Azure Synapse Analytics ✔️
Azure Cosmos DB ✔️
Azure Data Factory ✔️
Griglia di eventi di Azure ✔️
Hub eventi di Azure ✔️
Funzioni di Azure ✔️
Hub di Azure IoT ✔️
Azure Stream Analytics ✔️
Fluent Bit ✔️
JDBC ✔️
App per la logica ✔️
Logstash ✔️
Matlab ✔️
NLog ✔️
ODBC ✔️
Aprire i dati di telemetria ✔️
Power Apps ✔️
Power Automate ✔️
Serilog ✔️
Splunk ✔️
Splunk Universal Forwarder ✔️
Telegraf ✔️

Descrizioni dettagliate

Di seguito sono riportate descrizioni dettagliate di connettori e strumenti e integrazioni. Selezionare la scheda corrispondente a connettori o strumenti e integrazioni. Tutti gli elementi disponibili sono riepilogati nelle tabelle di confronto precedenti.

Apache Kafka

Apache Kafka è una piattaforma di streaming distribuita per la creazione di pipeline di dati di streaming in tempo reale che spostano in modo affidabile i dati tra sistemi o applicazioni. Kafka Connect è uno strumento per lo streaming scalabile e affidabile dei dati tra Apache Kafka e altri sistemi di dati. Il sink Kafka funge da connettore da Kafka e non richiede l'uso del codice. Questo è l'oro certificato da Confluent- ha esaminato e testato in modo completo la qualità, la completezza delle funzionalità, la conformità agli standard e per le prestazioni.

Apache Flink è un framework e un motore di elaborazione distribuito per i calcoli con stato su flussi di dati non associati e delimitati. Il connettore implementa il sink di dati per lo spostamento dei dati tra cluster di Azure Esplora dati e Flink. Usando Azure Esplora dati e Apache Flink, è possibile creare applicazioni veloci e scalabili destinate a scenari basati sui dati. Ad esempio, Machine Learning (ML), Extract-Transform-Load (ETL) e Log Analytics.

Apache Log4J 2

Log4J è un framework di registrazione diffuso per le applicazioni Java gestite da Apache Foundation. Log4j consente agli sviluppatori di controllare quali istruzioni di log vengono restituite con granularità arbitraria in base al nome, al livello del logger e al modello di messaggio. Il sink Apache Log4J 2 consente di trasmettere i dati di log al database, in cui è possibile analizzare e visualizzare i log in tempo reale.

Apache Spark

Apache Spark è un motore di analisi unificato per l'elaborazione di dati su larga scala. Il connettore Spark è un progetto open source che può essere eseguito in qualsiasi cluster Spark. Implementa l'origine dati e il sink di dati per lo spostamento dei dati da o verso i cluster Spark. Usando il connettore Apache Spark, è possibile creare applicazioni veloci e scalabili destinate a scenari basati sui dati. Ad esempio, Machine Learning (ML), Extract-Transform-Load (ETL) e Log Analytics. Con il connettore, il database diventa un archivio dati valido per le operazioni di origine e sink Spark standard, ad esempio lettura, scrittura e scritturaStream.

Apache Spark per Azure Synapse Analytics

Apache Spark è un framework di elaborazione parallela che supporta l'elaborazione in memoria per migliorare le prestazioni delle applicazioni analitiche di Big Data. Apache Spark in Azure Synapse Analytics è una delle implementazioni di Microsoft di Apache Spark nel cloud. È possibile accedere a un database da Synapse Studio con Apache Spark per Azure Synapse Analytics.

Azure Cosmos DB

La connessione dati del feed di modifiche di Azure Cosmos DB è una pipeline di inserimento in ascolto del feed di modifiche di Cosmos DB e inserisce i dati nel database.

Azure Data Factory

Azure Data Factory (ADF) è un servizio di integrazione dei dati basato sul cloud che consente di integrare archivi dati diversi ed eseguire attività sui dati.

Griglia di eventi di Azure

L'inserimento di Griglia di eventi è una pipeline in ascolto dell'archiviazione di Azure e aggiorna il database per eseguire il pull delle informazioni quando si verificano eventi sottoscritti. È possibile configurare l'inserimento continuo da Archiviazione di Azure (archiviazione BLOB e ADLSv2) con una sottoscrizione Griglia di eventi di Azure per le notifiche create o rinominate in BLOB e trasmettere le notifiche tramite Hub eventi di Azure.

Hub eventi di Azure

Hub eventi di Azure è una piattaforma di streaming di Big Data e un servizio di inserimento di eventi. È possibile configurare l'inserimento continuo da Hub eventi gestito dal cliente.

Funzioni di Azure

Funzioni di Azure consente di eseguire codice serverless nel cloud in base a una pianificazione o in risposta a un evento. Con le associazioni di input e output per Funzioni di Azure, è possibile integrare il database nei flussi di lavoro per inserire dati ed eseguire query sul database.

Hub di Azure IoT

hub IoT di Azure è un servizio gestito, ospitato nel cloud, che funge da hub messaggi centrale per la comunicazione bidirezionale tra l'applicazione IoT e i dispositivi gestiti. È possibile configurare l'inserimento continuo dagli hub IoT gestiti dal cliente, usando i relativi hub eventi compatibili con l'endpoint predefinito dei messaggi da dispositivo a cloud.

  • Funzionalità: Ingestione
  • Tipo di inserimento supportato: Invio in batch, streaming
  • Casi d'uso: Dati IoT
  • Documentazione:connessione dati hub IoT

Analisi di flusso di Azure

Analisi di flusso di Azure è un motore di analisi in tempo reale e di elaborazione eventi complesso progettato per elaborare volumi elevati di dati di streaming veloce da più origini contemporaneamente.

Fluent Bit

Fluent Bit è un agente open source che raccoglie log, metriche e tracce da varie origini. Consente di filtrare, modificare e aggregare i dati degli eventi prima di inviarli all'archiviazione.

JDBC

Java Database Connectivity (JDBC) è un'API Java usata per connettersi ai database ed eseguire query. È possibile usare JDBC per connettersi a Esplora dati di Azure.

App per la logica

Il connettore App per la logica di Microsoft consente di eseguire automaticamente query e comandi come parte di un'attività pianificata o attivata.

Logstash

Il plug-in Logstash consente di elaborare gli eventi da Logstash in un database di azure Esplora dati per un'analisi successiva.

Matlab

MATLAB è una piattaforma di programmazione e calcolo numerico usata per analizzare i dati, sviluppare algoritmi e creare modelli. È possibile ottenere un token di autorizzazione in MA JSON per eseguire query sui dati in Azure Esplora dati.

NLog

NLog è una piattaforma di registrazione flessibile e gratuita per diverse piattaforme .NET, tra cui .NET Standard. NLog consente di scrivere in diverse destinazioni, ad esempio un database, un file o una console. Con NLog è possibile modificare la configurazione della registrazione in tempo reale. Il sink NLog è una destinazione per NLog che consente di inviare i messaggi di log al database. Il plug-in offre un modo efficiente per eseguire il sink dei log nel cluster.

ODBC

Open Database Connectivity (ODBC) è un'interfaccia di programmazione dell'applicazione (API) ampiamente accettata per l'accesso al database. Azure Esplora dati è compatibile con un subset del protocollo di comunicazione SQL Server (MS-TDS). Questa compatibilità consente l'uso del driver ODBC per SQL Server con Azure Esplora dati.

Aprire i dati di telemetria

Il connettore OpenTelemetry supporta l'inserimento di dati da molti ricevitori nel database. Funziona come bridge per inserire i dati generati dai dati di telemetria aperti al database personalizzando il formato dei dati esportati in base alle esigenze.

Power Apps

Power Apps è una suite di app, servizi, connettori e piattaforma dati che offre un ambiente di sviluppo rapido delle applicazioni per creare app personalizzate che si connettono ai dati aziendali. Il connettore Power Apps è utile se si dispone di una raccolta di dati di streaming di grandi dimensioni e crescente in Azure Esplora dati e si vuole creare un'app a basso codice, altamente funzionale per usare questi dati.

Power Automate

Power Automate è un servizio di orchestrazione usato per automatizzare i processi aziendali. Il Power Automate connettore (in precedenza Microsoft Flow) consente di orchestrare e pianificare i flussi, inviare notifiche e avvisi, come parte di un'attività pianificata o attivata.

  • Funzionalità: Inserimento, Esportazione
  • Tipo di inserimento supportato: Batch
  • Casi d'uso: Orchestrazione dei dati
  • Documentazione:ConnettoreMicrosoft Power Automate

Serilog

Serilog è un framework di registrazione popolare per le applicazioni .NET. Serilog consente agli sviluppatori di controllare quali istruzioni di log vengono restituite con granularità arbitraria in base al nome del logger, al livello di logger e al modello di messaggio. Il sink Serilog, noto anche come accodamento, trasmette i dati di log al database, in cui è possibile analizzare e visualizzare i log in tempo reale.

Splunk

Splunk Enterprise è una piattaforma software che consente di inserire i dati da molte origini contemporaneamente. Il componente aggiuntivo Azure Esplora dati invia dati da Splunk a una tabella nel cluster.

Splunk Universal Forwarder

Telegraf

Telegraf è un agente di stampa open source, leggero e minimo per la raccolta, l'elaborazione e la scrittura di dati di telemetria, inclusi i log, le metriche e i dati IoT. Telegraf supporta centinaia di plug-in di input e output. È ampiamente usato e ben supportato dalla community open source. Il plug-in di output funge da connettore da Telegraf e supporta l'inserimento di dati da molti tipi di plug-in di input nel database.