Condividi tramite


Panoramica delle integrazioni

Molti connettori di dati, strumenti e integrazioni funzionano perfettamente con la piattaforma per l'inserimento, l'orchestrazione, l'output e l'interrogazione dei dati. Questo articolo offre una panoramica generale dei connettori, degli strumenti e delle integrazioni disponibili. Per ogni connettore, è possibile trovare informazioni dettagliate e collegamenti alla relativa documentazione completa.

Per le pagine di panoramica su un tipo specifico di integrazione, selezionare uno dei pulsanti seguenti.

Tabelle di confronto

Le tabelle seguenti riepilogano le funzionalità di ogni elemento. Selezionare la scheda corrispondente a connettori o strumenti e integrazioni. Ogni nome di elemento è collegato alla relativa descrizione dettagliata.

La tabella seguente riepiloga i connettori disponibili e le relative capacità:

Nome Inserimento Esportazione Orchestrazione Quesito
Apache Kafka ✔️
Apache Flink ✔️
Apache Log4J 2 ✔️
Apache Spark ✔️ ✔️ ✔️
Azure Cosmos DB ✔️
Azure Data Factory ✔️ ✔️
Griglia di eventi di Azure ✔️
Hub eventi di Azure ✔️
Funzioni di Azure ✔️ ✔️
hub IoT di Azure ✔️
Monitoraggio di Azure ✔️
Analisi di flusso di Azure ✔️
Flusso del presepe ✔️
Fluent Bit ✔️
JDBC ✔️
App per la logica ✔️ ✔️ ✔️
Logstash ✔️
Matlab ✔️
NLog ✔️
ODBC ✔️
OpenTelemetry ✔️
Power Apps ✔️ ✔️
Automazione di potenza ✔️ ✔️ ✔️
Serilog ✔️
Splunk ✔️
Splunk Universal Forwarder ✔️
Telegraf ✔️

Descrizioni dettagliate

Le sezioni seguenti forniscono descrizioni dettagliate di connettori, strumenti e integrazioni. Selezionare la scheda corrispondente a connettori o strumenti e integrazioni.

Apache Kafka

Apache Kafka è una piattaforma di streaming distribuita per la creazione di pipeline di dati in streaming in tempo reale che consente di spostare in modo affidabile i dati tra applicazioni o sistemi. Kafka Connect è uno strumento per lo streaming dei dati scalabile e affidabile tra Apache Kafka e altri sistemi. Il sink Kafka funge da connettore per Kafka e non richiede l'uso del codice. Questo connettore è certificato gold da Confluent, il che significa che viene sottoposto a revisione e test completi per qualità, completezza delle funzionalità, conformità agli standard e prestazioni.

Apache Flink è un potente framework e un modulo di elaborazione distribuito per eseguire i calcoli con stato su flussi dei dati collegati e non. Il connettore implementa il sink di dati per spostare i dati tra cluster di Esplora dati di Azure e Flink. Usando Esplora dati di Azure e Apache Flink, è possibile creare applicazioni veloci e scalabili destinate a scenari basati sui dati. Ad esempio, apprendimento automatico (ML), Extract-Transform-Load (ETL) e Analisi dei log.

Apache Log4J 2

Log4J è un framework di registrazione tra i più diffusi per le applicazioni Java gestite da Apache Foundation. Gli sviluppatori di Log4j possono controllare quali istruzioni di log vengono restituite con granularità arbitraria in base al nome del logger, al livello del logger e al modello di messaggio. Usando il sink Apache Log4J 2, è possibile trasmettere i dati di log al database, in cui è possibile analizzare e visualizzare i log in tempo reale.

Apache Spark

Apache Spark è un motore di analisi unificato per l'elaborazione di dati su larga scala. Il connettore Spark è progetto open source che può essere eseguito in qualsiasi cluster Spark. Implementa l'origine dati e il sink di dati per lo spostamento di dati verso o da i cluster Spark. Usando il connettore Apache Spark, è possibile creare applicazioni veloci e scalabili destinate a scenari basati sui dati. Ad esempio, apprendimento automatico (ML), Extract-Transform-Load (ETL) e Analisi dei log. Usando il connettore, il database diventa un archivio dati valido per le operazioni di origine e sink Spark standard, ad esempio lettura, scrittura e writeStream.

Apache Spark per Azure Synapse Analytics

Apache Spark è un framework di elaborazione parallela che supporta l'elaborazione in memoria per migliorare le prestazioni delle applicazioni analitiche di Big Data. Apache Spark in Azure Synapse L'analisi è una delle implementazioni di Microsoft di Apache Spark nel cloud. È possibile accedere a un database da Synapse Studio usando Apache Spark per Azure Synapse Analytics.

Azure Cosmos DB, un servizio di database distribuito globale di Microsoft

Azure Cosmos DB è una pipeline di acquisizione dati che ascolta il feed di modifiche di Cosmos DB e inserisce i dati nel tuo database.

Azure Data Factory

Azure Data Factory (ADF) è un servizio di integrazione dei dati basato sul cloud che è possibile usare per integrare archivi dati diversi ed eseguire attività sui dati.

Griglia di eventi di Azure

L'ingestione di Event Grid è una pipeline che ascolta l'archiviazione di Azure e aggiorna il tuo database per recuperare le informazioni quando si verificano eventi sottoscritti. È possibile configurare l'ingestione continua da Archiviazione di Azure (archiviazione BLOB e ADLSv2) tramite una sottoscrizione a Azure Event Grid per le notifiche di creazione o rinominazione di BLOB e trasmettere le notifiche tramite Azure Event Hubs.

Hub eventi di Azure

Hub eventi di Azure è una piattaforma di streaming di Big Data e un servizio di inserimento di eventi. È possibile configurare l'inserimento continuo da Hub eventi gestiti dal cliente.

Funzioni di Azure

Funzioni di Azure consente di eseguire codice serverless nel cloud in base a una pianificazione o in risposta a un evento. Usando associazioni di input e output per Funzioni di Azure, è possibile integrare il database nei flussi di lavoro per inserire dati ed eseguire query sul database.

Hub di Azure IoT

hub IoT di Azure è un servizio gestito, ospitato nel cloud, che funge da hub messaggi centrale per la comunicazione bidirezionale tra l'applicazione IoT e i dispositivi gestiti. È possibile configurare l'inserimento continuo da hub IoT gestite dal cliente, usando i relativi hub eventi compatibili con l'endpoint predefinito dei messaggi da dispositivo a cloud.

  • Funzionalità: inserimento
  • Tipo di inserimento supportato: invio in batch, streaming
  • Casi d'uso: dati IoT
  • Documentazione:connessione dati hub IoT

Monitoraggio di Azure

L'agente di Monitoraggio di Azure può inviare i dati della macchina virtuale seguenti a Esplora dati di Azure usando una regola di raccolta dati:

  • Contatori delle prestazioni
  • Log di IIS
  • Registri eventi di Windows
  • Log di sistema Linux
  • Log di testo personalizzati
  • Log JSON personalizzati

Per altre informazioni, vedere Raccogliere dati da macchine virtuali in Esplora dati di Azure.

Analisi di flusso di Azure

Analisi di flusso di Azure è un motore di elaborazione eventi complessi e di analisi in tempo reale progettato per analizzare ed elaborare contemporaneamente ingenti volumi di dati in streaming veloce da più origini.

Flusso del presepe

Flusso presepe è un motore di elaborazione che raccoglie, elabora e trasmette in modo sicuro i dati degli eventi del computer da qualsiasi origine. Consente di analizzare ed elaborare i dati per qualsiasi destinazione per l'analisi.

Fluent Bit

Fluent Bit è un agente open-source che raccoglie log, metriche e tracce da varie origini. Consente di filtrare, modificare e aggregare i dati degli eventi prima di inviarli all'archiviazione.

JDBC

Java Database Connectivity (JDBC) è un'API Java usata per connettersi ai database ed eseguire query. È possibile usare JDBC per connettersi a Esplora dati di Azure.

App per la logica

Usando il connettore App per la logica Microsoft , è possibile eseguire automaticamente query e comandi come parte di un'attività pianificata o attivata.

Logstash

Il plug-in Logstash consente di elaborare gli eventi da Logstash in un database Esplora dati di Azure per l'analisi.

Matlab

MATLAB è una piattaforma di programmazione e calcolo numerico usata per analizzare i dati, sviluppare algoritmi e creare modelli. È possibile ottenere un token di autorizzazione in MATLAB per eseguire query sui dati in Azure Esplora dati.

NLog

NLog è una piattaforma di registrazione flessibile e gratuita per varie piattaforme .NET, tra cui quella .NET Standard. NLog consente la scrittura su diverse destinazioni, ad esempio un database, un file o una console. Usando NLog, è possibile modificare la configurazione di registrazione in tempo reale. Il sink NLog è una destinazione per NLog che consente di inviare i messaggi di log al database. Il plug-in rappresenta un modo efficiente per inviare i log al cluster.

ODBC

Open Database Connectivity (ODBC) è un'API (Application Programming Interface) ampiamente accettata per l'accesso al database. Azure Esplora dati è compatibile con un subset del protocollo di comunicazione di SQL Server (MS-TDS). Questa compatibilità consente l'uso del driver ODBC per SQL Server con Azure Esplora dati.

OpenTelemetry

Il connettore OpenTelemetry supporta l'inserimento di dati da molti ricevitori nel database. Funziona come un bridge per inserire i dati generati da OpenTelemetry al proprio database personalizzando il formato dei dati esportati in base alle proprie esigenze.

Power Apps (applicazioni potenti)

Power Apps è una suite di app, servizi, connettori e piattaforma dati che offre un ambiente di sviluppo rapido di applicazioni per creare app personalizzate che si connettono ai dati aziendali. Il connettore Power Apps è utile se si dispone di una raccolta di dati di streaming di grandi dimensioni e in crescita in Azure Esplora dati e si vuole creare un'app a basso codice altamente funzionale per usare questi dati.

Power Automate

Power Automate è un servizio di orchestrazione usato per automatizzare i processi di lavoro. Il connettore Power Automate (in precedenza Microsoft Flow) consente di orchestrare e pianificare flussi, inviare notifiche e avvisi come parte di un'attività pianificata o attivata.

Serilog

Serilog è un framework di registrazione diffuso per le applicazioni .NET. Usando Serilog, gli sviluppatori possono controllare quali istruzioni di log vengono restituite con granularità arbitraria in base al nome, al livello del logger e al modello di messaggio. Il sink Serilog, noto anche come appender, trasmette i dati di log al database, in cui è possibile analizzare e visualizzare i log in tempo reale.

Splunk

Splunk Enterprise è una piattaforma software che consente di inserire dati da molte origini contemporaneamente. Il componente aggiuntivo Esplora dati di Azure invia dati da Splunk a una tabella nel cluster.

Splunk Universal Forwarder (trasmettitore universale di Splunk)

Telegraf

Telegraf è un agente open source leggero con un footprint di memoria minimo per la raccolta, l'elaborazione e la scrittura di dati di telemetria, inclusi log, metriche e dati IoT. Telegraf supporta centinaia di plug-in di input e output. È ampiamente usato e ben supportato dalla community open source. Il plug-in di output funge da connettore da Telegraf e supporta l'inserimento di dati da molti tipi di plug-in di input nel database.