Panoramica delle integrazioni
Sono disponibili molti connettori dati, strumenti e integrazioni che funzionano facilmente con la piattaforma per l'inserimento, l'orchestrazione, l'output e la query dei dati. Questo documento è una panoramica generale sui connettori, gli strumenti e le integrazioni disponibili. Vengono fornite informazioni dettagliate per ogni connettore, insieme ai collegamenti alla relativa documentazione completa.
Per le pagine di panoramica su un tipo specifico di integrazione, selezionare uno dei pulsanti seguenti.
Tabelle di confronto
Le tabelle seguenti riepilogano le funzionalità di ogni elemento. Selezionare la scheda corrispondente a connettori o strumenti e integrazioni. Ogni nome di elemento è collegato alla relativa descrizione dettagliata.
La tabella seguente riepiloga i connettori disponibili e le relative funzionalità:
Nome | Inserimento | Esportazione | Orchestrazione | Query |
---|---|---|---|---|
Apache Kafka | ✔️ | |||
Apache Flink | ✔️ | |||
Apache Log4J 2 | ✔️ | |||
Apache Spark | ✔️ | ✔ | ✔ | |
Apache Spark per Azure Synapse Analytics | ✔️ | ✔ | ✔ | |
Azure Cosmos DB | ✔️ | |||
Azure Data Factory | ✔️ | ✔ | ||
Griglia di eventi di Azure | ✔️ | |||
Hub eventi di Azure | ✔️ | |||
Funzioni di Azure | ✔️ | ✔ | ||
Hub di Azure IoT | ✔️ | |||
Azure Stream Analytics | ✔️ | |||
Fluent Bit | ✔️ | |||
JDBC | ✔️ | |||
App per la logica | ✔️ | ✔ | ✔ | |
Logstash | ✔️ | |||
Matlab | ✔️ | |||
NLog | ✔️ | |||
ODBC | ✔️ | |||
Aprire i dati di telemetria | ✔️ | |||
Power Apps | ✔️ | ✔ | ||
Power Automate | ✔️ | ✔ | ✔ | |
Serilog | ✔️ | |||
Splunk | ✔️ | |||
Splunk Universal Forwarder | ✔️ | |||
Telegraf | ✔️ |
Descrizioni dettagliate
Di seguito sono riportate descrizioni dettagliate di connettori e strumenti e integrazioni. Selezionare la scheda corrispondente a connettori o strumenti e integrazioni. Tutti gli elementi disponibili sono riepilogati nelle tabelle di confronto precedenti.
Apache Kafka
Apache Kafka è una piattaforma di streaming distribuita per la creazione di pipeline di dati di streaming in tempo reale che spostano in modo affidabile i dati tra sistemi o applicazioni. Kafka Connect è uno strumento per lo streaming scalabile e affidabile dei dati tra Apache Kafka e altri sistemi di dati. Il sink Kafka funge da connettore da Kafka e non richiede l'uso del codice. Questo è l'oro certificato da Confluent- ha esaminato e testato in modo completo la qualità, la completezza delle funzionalità, la conformità agli standard e per le prestazioni.
- Funzionalità: Ingestione
- Tipo di inserimento supportato: Invio in batch, streaming
- Casi d'uso: Log, telemetria, serie temporale
- SDK sottostante:Java
- Repository: Microsoft Azure - https://github.com/Azure/kafka-sink-azure-kusto/
- Documentazione:Inserire dati da Apache Kafka
- Blog della community:Inserimento Kafka in Azure Esplora dati
Apache Flink
Apache Flink è un framework e un motore di elaborazione distribuito per i calcoli con stato su flussi di dati non associati e delimitati. Il connettore implementa il sink di dati per lo spostamento dei dati tra cluster di Azure Esplora dati e Flink. Usando Azure Esplora dati e Apache Flink, è possibile creare applicazioni veloci e scalabili destinate a scenari basati sui dati. Ad esempio, Machine Learning (ML), Extract-Transform-Load (ETL) e Log Analytics.
- Funzionalità: Ingestione
- Tipo di inserimento supportato: Streaming
- Casi d'uso: Telemetria
- SDK sottostante:Java
- Repository: Microsoft Azure - https://github.com/Azure/flink-connector-kusto/
- Documentazione:Inserire dati da Apache Flink
Apache Log4J 2
Log4J è un framework di registrazione diffuso per le applicazioni Java gestite da Apache Foundation. Log4j consente agli sviluppatori di controllare quali istruzioni di log vengono restituite con granularità arbitraria in base al nome, al livello del logger e al modello di messaggio. Il sink Apache Log4J 2 consente di trasmettere i dati di log al database, in cui è possibile analizzare e visualizzare i log in tempo reale.
- Funzionalità: Ingestione
- Tipo di inserimento supportato: Invio in batch, streaming
- Casi d'uso: Registri
- SDK sottostante:Java
- Repository: Microsoft Azure - https://github.com/Azure/azure-kusto-log4j
- Documentazione:Inserire dati con il connettore Apache Log4J 2
- Blog della community:Introduzione ad Apache Log4J e Azure Esplora dati
Apache Spark
Apache Spark è un motore di analisi unificato per l'elaborazione di dati su larga scala. Il connettore Spark è un progetto open source che può essere eseguito in qualsiasi cluster Spark. Implementa l'origine dati e il sink di dati per lo spostamento dei dati da o verso i cluster Spark. Usando il connettore Apache Spark, è possibile creare applicazioni veloci e scalabili destinate a scenari basati sui dati. Ad esempio, Machine Learning (ML), Extract-Transform-Load (ETL) e Log Analytics. Con il connettore, il database diventa un archivio dati valido per le operazioni di origine e sink Spark standard, ad esempio lettura, scrittura e scritturaStream.
- Funzionalità: Inserimento, esportazione
- Tipo di inserimento supportato: Invio in batch, streaming
- Casi d'uso: Telemetria
- SDK sottostante:Java
- Repository: Microsoft Azure - https://github.com/Azure/azure-kusto-spark/
- Documentazione:Connettore Apache Spark
- Blog della community:Pre-elaborazione dei dati per Azure Esplora dati per Azure Esplora dati con Apache Spark
Apache Spark per Azure Synapse Analytics
Apache Spark è un framework di elaborazione parallela che supporta l'elaborazione in memoria per migliorare le prestazioni delle applicazioni analitiche di Big Data. Apache Spark in Azure Synapse Analytics è una delle implementazioni di Microsoft di Apache Spark nel cloud. È possibile accedere a un database da Synapse Studio con Apache Spark per Azure Synapse Analytics.
- Funzionalità: Inserimento, esportazione
- Tipo di inserimento supportato: Batch
- Casi d'uso: Telemetria
- SDK sottostante:Java
- Documentazione:Connettersi a un'area di lavoro Azure Synapse
Azure Cosmos DB
La connessione dati del feed di modifiche di Azure Cosmos DB è una pipeline di inserimento in ascolto del feed di modifiche di Cosmos DB e inserisce i dati nel database.
- Funzionalità: Ingestione
- Tipo di inserimento supportato: Invio in batch, streaming
- Casi d'uso: Feed di modifiche
- Documentazione:Inserire dati da Azure Cosmos DB (anteprima)
Azure Data Factory
Azure Data Factory (ADF) è un servizio di integrazione dei dati basato sul cloud che consente di integrare archivi dati diversi ed eseguire attività sui dati.
- Funzionalità: Inserimento, esportazione
- Tipo di inserimento supportato: Batch
- Casi d'uso: Orchestrazione dei dati
- Documentazione: Copiaredati nel database usando Azure Data Factory
Griglia di eventi di Azure
L'inserimento di Griglia di eventi è una pipeline in ascolto dell'archiviazione di Azure e aggiorna il database per eseguire il pull delle informazioni quando si verificano eventi sottoscritti. È possibile configurare l'inserimento continuo da Archiviazione di Azure (archiviazione BLOB e ADLSv2) con una sottoscrizione Griglia di eventi di Azure per le notifiche create o rinominate in BLOB e trasmettere le notifiche tramite Hub eventi di Azure.
- Funzionalità: Ingestione
- Tipo di inserimento supportato: Invio in batch, streaming
- Casi d'uso: Elaborazione di eventi
- Documentazione:Connessione dati di Griglia di eventi
Hub eventi di Azure
Hub eventi di Azure è una piattaforma di streaming di Big Data e un servizio di inserimento di eventi. È possibile configurare l'inserimento continuo da Hub eventi gestito dal cliente.
- Funzionalità: Ingestione
- Tipo di inserimento supportato: Invio in batch, streaming
- Documentazione:connessione dati Hub eventi di Azure
Funzioni di Azure
Funzioni di Azure consente di eseguire codice serverless nel cloud in base a una pianificazione o in risposta a un evento. Con le associazioni di input e output per Funzioni di Azure, è possibile integrare il database nei flussi di lavoro per inserire dati ed eseguire query sul database.
- Funzionalità: Inserimento, esportazione
- Tipo di inserimento supportato: Batch
- Casi d'uso: Integrazioni del flusso di lavoro
- Documentazione:Integrazione di Funzioni di Azure tramite associazioni di input e output (anteprima)
- Blog della community:Associazioni di Azure Esplora dati (Kusto) per Funzioni di Azure
Hub di Azure IoT
hub IoT di Azure è un servizio gestito, ospitato nel cloud, che funge da hub messaggi centrale per la comunicazione bidirezionale tra l'applicazione IoT e i dispositivi gestiti. È possibile configurare l'inserimento continuo dagli hub IoT gestiti dal cliente, usando i relativi hub eventi compatibili con l'endpoint predefinito dei messaggi da dispositivo a cloud.
- Funzionalità: Ingestione
- Tipo di inserimento supportato: Invio in batch, streaming
- Casi d'uso: Dati IoT
- Documentazione:connessione dati hub IoT
Analisi di flusso di Azure
Analisi di flusso di Azure è un motore di analisi in tempo reale e di elaborazione eventi complesso progettato per elaborare volumi elevati di dati di streaming veloce da più origini contemporaneamente.
- Funzionalità: Ingestione
- Tipo di inserimento supportato: Invio in batch, streaming
- Casi d'uso: Elaborazione di eventi
- Documentazione:Inserire dati da Analisi di flusso di Azure
Fluent Bit
Fluent Bit è un agente open source che raccoglie log, metriche e tracce da varie origini. Consente di filtrare, modificare e aggregare i dati degli eventi prima di inviarli all'archiviazione.
- Funzionalità: Ingestione
- Tipo di inserimento supportato: Invio in batch, streaming
- Casi d'uso: Log, metriche, tracce
- Repository:plug-in di output Kusto fluent-bit
- Documentazione:Inserire dati con Fluent Bit in Azure Esplora dati
- Blog della community:Introduzione al bit Fluent e ad Azure Esplora dati
JDBC
Java Database Connectivity (JDBC) è un'API Java usata per connettersi ai database ed eseguire query. È possibile usare JDBC per connettersi a Esplora dati di Azure.
- Funzionalità: Query, visualizzazione
- SDK sottostante:Java
- Documentazione:Connettersi ad Azure Esplora dati con JDBC
App per la logica
Il connettore App per la logica di Microsoft consente di eseguire automaticamente query e comandi come parte di un'attività pianificata o attivata.
- Funzionalità: Inserimento, esportazione
- Tipo di inserimento supportato: Batch
- Casi d'uso: Orchestrazione dei dati
- Documentazione: App per la logica Microsoft e Azure Esplora dati
Logstash
Il plug-in Logstash consente di elaborare gli eventi da Logstash in un database di azure Esplora dati per un'analisi successiva.
- Funzionalità: Ingestione
- Tipo di inserimento supportato: Batch
- Casi d'uso: Registri
- SDK sottostante:Java
- Repository: Microsoft Azure - https://github.com/Azure/logstash-output-kusto/
- Documentazione:Inserire dati da Logstash
- Blog della community:Come eseguire la migrazione da Elasticsearch ad Azure Esplora dati
Matlab
MATLAB è una piattaforma di programmazione e calcolo numerico usata per analizzare i dati, sviluppare algoritmi e creare modelli. È possibile ottenere un token di autorizzazione in MA JSON per eseguire query sui dati in Azure Esplora dati.
- Funzionalità: Query
- Documentazione:Eseguire query sui dati con MADEVICE
NLog
NLog è una piattaforma di registrazione flessibile e gratuita per diverse piattaforme .NET, tra cui .NET Standard. NLog consente di scrivere in diverse destinazioni, ad esempio un database, un file o una console. Con NLog è possibile modificare la configurazione della registrazione in tempo reale. Il sink NLog è una destinazione per NLog che consente di inviare i messaggi di log al database. Il plug-in offre un modo efficiente per eseguire il sink dei log nel cluster.
- Funzionalità: Ingestione
- Tipo di inserimento supportato: Invio in batch, streaming
- Casi d'uso: Telemetria, log, metriche
- SDK sottostante:.NET
- Repository: Microsoft Azure - https://github.com/Azure/azure-kusto-nlog-sink
- Documentazione:Inserire dati con il sink NLog
- Blog della community:Introduzione al sink NLog e Esplora dati di Azure
ODBC
Open Database Connectivity (ODBC) è un'interfaccia di programmazione dell'applicazione (API) ampiamente accettata per l'accesso al database. Azure Esplora dati è compatibile con un subset del protocollo di comunicazione SQL Server (MS-TDS). Questa compatibilità consente l'uso del driver ODBC per SQL Server con Azure Esplora dati.
- Funzionalità: Ingestione
- Tipo di inserimento supportato: Batching, Streaming
- Casi d'uso: Telemetria, log, metriche
- Documentazione:Connettersi ad Azure Esplora dati con ODBC
Aprire i dati di telemetria
Il connettore OpenTelemetry supporta l'inserimento di dati da molti ricevitori nel database. Funziona come bridge per inserire i dati generati dai dati di telemetria aperti al database personalizzando il formato dei dati esportati in base alle esigenze.
- Funzionalità: Ingestione
- Tipo di inserimento supportato: Batching, Streaming
- Casi d'uso: Tracce, metriche, log
- SDK sottostante:Go
- Repository: Aprire i dati di telemetria - https://github.com/open-telemetry/opentelemetry-collector-contrib/tree/main/exporter/azuredataexplorerexporter
- Documentazione:Inserire dati da OpenTelemetry
- Blog della community:Introduzione a Open Telemetry e Azure Esplora dati
Power Apps
Power Apps è una suite di app, servizi, connettori e piattaforma dati che offre un ambiente di sviluppo rapido delle applicazioni per creare app personalizzate che si connettono ai dati aziendali. Il connettore Power Apps è utile se si dispone di una raccolta di dati di streaming di grandi dimensioni e crescente in Azure Esplora dati e si vuole creare un'app a basso codice, altamente funzionale per usare questi dati.
- Funzionalità: Query, inserimento, esportazione
- Tipo di inserimento supportato: Batch
- Documentazione:Usare Power Apps per eseguire query sui dati in Azure Esplora dati
Power Automate
Power Automate è un servizio di orchestrazione usato per automatizzare i processi aziendali. Il Power Automate connettore (in precedenza Microsoft Flow) consente di orchestrare e pianificare i flussi, inviare notifiche e avvisi, come parte di un'attività pianificata o attivata.
- Funzionalità: Inserimento, Esportazione
- Tipo di inserimento supportato: Batch
- Casi d'uso: Orchestrazione dei dati
- Documentazione:ConnettoreMicrosoft Power Automate
Serilog
Serilog è un framework di registrazione popolare per le applicazioni .NET. Serilog consente agli sviluppatori di controllare quali istruzioni di log vengono restituite con granularità arbitraria in base al nome del logger, al livello di logger e al modello di messaggio. Il sink Serilog, noto anche come accodamento, trasmette i dati di log al database, in cui è possibile analizzare e visualizzare i log in tempo reale.
- Funzionalità: Ingestione
- Tipo di inserimento supportato: Batching, Streaming
- Casi d'uso: Registri
- SDK sottostante:.NET
- Repository: Microsoft Azure - https://github.com/Azure/serilog-sinks-azuredataexplorer
- Documentazione:Inserire i dati con il sink Serilog
- Blog della community:Introduzione al sink Serilog e Esplora dati di Azure
Splunk
Splunk Enterprise è una piattaforma software che consente di inserire i dati da molte origini contemporaneamente. Il componente aggiuntivo Azure Esplora dati invia dati da Splunk a una tabella nel cluster.
- Funzionalità: Ingestione
- Tipo di inserimento supportato: Batch
- Casi d'uso: Registri
- SDK sottostante:Python
- Repository: Microsoft Azure - https://github.com/Azure/azure-kusto-splunk/tree/main/splunk-adx-alert-addon
- Documentazione:Inserire dati da Splunk
- Splunk Base:Microsoft Azure Esplora dati Add-On per Splunk
- Blog della community:Introduzione a Microsoft Azure Esplora dati Add-On per Splunk
Splunk Universal Forwarder
- Funzionalità: Ingestione
- Tipo di inserimento supportato: Batch
- Casi d'uso: Registri
- Repository: Microsoft Azure - https://github.com/Azure/azure-kusto-splunk
- Documentazione:Inserire dati da Splunk Universal Forwarder ad Azure Esplora dati
- Blog della community:Inserire i dati usando l'inoltro universale splunk in Azure Esplora dati
Telegraf
Telegraf è un agente di stampa open source, leggero e minimo per la raccolta, l'elaborazione e la scrittura di dati di telemetria, inclusi i log, le metriche e i dati IoT. Telegraf supporta centinaia di plug-in di input e output. È ampiamente usato e ben supportato dalla community open source. Il plug-in di output funge da connettore da Telegraf e supporta l'inserimento di dati da molti tipi di plug-in di input nel database.
- Funzionalità: Ingestione
- Tipo di inserimento supportato: Batching, Streaming
- Casi d'uso: Telemetria, log, metriche
- SDK sottostante:Go
- Repository: InfluxData - https://github.com/influxdata/telegraf/tree/master/plugins/outputs/azure_data_explorer
- Documentazione:Inserire dati da Telegraf
- Blog della community:Nuovo plug-in di output di Azure Esplora dati per Telegraf consente il monitoraggio SQL su larga scala
Contenuti correlati
Commenti e suggerimenti
https://aka.ms/ContentUserFeedback.
Presto disponibile: Nel corso del 2024 verranno gradualmente disattivati i problemi di GitHub come meccanismo di feedback per il contenuto e ciò verrà sostituito con un nuovo sistema di feedback. Per altre informazioni, vedereInvia e visualizza il feedback per