Partilhar via


Descrição geral das integrações

Existem muitos conectores de dados, ferramentas e integrações que funcionam perfeitamente com a plataforma para ingestão, orquestração, saída e consulta de dados. Este documento é uma descrição geral de alto nível sobre os conectores, ferramentas e integrações disponíveis. São fornecidas informações detalhadas para cada conector, juntamente com ligações para a documentação completa.

Para páginas de descrição geral sobre um tipo específico de integração, selecione um dos seguintes botões.

Tabelas de comparação

As tabelas seguintes resumem as capacidades de cada item. Selecione o separador correspondente a conectores ou ferramentas e integrações. Cada nome de item está ligado à descrição detalhada.

A tabela seguinte resume os conectores disponíveis e as respetivas capacidades:

Name Ingerir Exportar Orquestrar Consulta
Apache Kafka ✔️
Apache Flink ✔️
Apache Log4J 2 ✔️
Apache Spark ✔️ ✔️ ✔️
Apache Spark para análise de Azure Synapse ✔️ ✔️ ✔️
BD do Cosmos para o Azure ✔️
Azure Data Factory ✔️ ✔️
Azure Event Grid ✔️
Azure Event Hubs ✔️
Funções do Azure ✔️ ✔️
Azure IoT Hubs ✔️
Azure Stream Analytics ✔️
Fluent Bit ✔️
JDBC ✔️
Logic Apps ✔️ ✔️ ✔️
Logstash ✔️
Matlab ✔️
NLog ✔️
ODBC ✔️
Abrir Telemetria ✔️
Power Apps ✔️ ✔️
Power Automate ✔️ ✔️ ✔️
Serilog ✔️
Splunk ✔️
Reencaminhador Universal splunk ✔️
Telegraf ✔️

Descrições detalhadas

Seguem-se descrições detalhadas de conectores, ferramentas e integrações. Selecione o separador correspondente a conectores ou ferramentas e integrações. Todos os itens disponíveis são resumidos nas tabelas Comparação acima.

Apache Kafka

O Apache Kafka é uma plataforma de transmissão em fluxo distribuída para criar pipelines de dados de transmissão em fluxo em tempo real que movem dados de forma fiável entre sistemas ou aplicações. O Kafka Connect é uma ferramenta para a transmissão em fluxo de dados dimensionável e fiável entre o Apache Kafka e outros sistemas de dados. O Sink do Kafka serve como conector do Kafka e não requer a utilização de código. Este é o ouro certificado pela Confluent - passou por revisão abrangente e testes de qualidade, conclusão de funcionalidades, conformidade com padrões e para desempenho.

O Apache Flink é um motor de processamento distribuído e de arquitetura para cálculos com estado através de fluxos de dados não vinculados e vinculados. O conector implementa o sink de dados para mover dados em clusters do Azure Data Explorer e Flink. Com o Azure Data Explorer e o Apache Flink, pode criar aplicações rápidas e dimensionáveis direcionadas para cenários orientados por dados. Por exemplo, machine learning (ML), Extract-Transform-Load (ETL) e Log Analytics.

Apache Log4J 2

O Log4J é uma arquitetura de registo popular para aplicações Java mantida pela Fundação Apache. O Log4j permite que os programadores controlem as instruções de registo que são saídas com granularidade arbitrária com base no nome, nível de logger e padrão de mensagem do logger. O sink do Apache Log4J 2 permite-lhe transmitir os dados de registo para a base de dados, onde pode analisar e visualizar os seus registos em tempo real.

Apache Spark

O Apache Spark é um motor de análise unificado para processamento de dados em larga escala. O conector do Spark é um projeto open source que pode ser executado em qualquer cluster do Spark. Implementa a origem de dados e o sink de dados para mover dados de ou para clusters do Spark. Com o conector Apache Spark, pode criar aplicações rápidas e dimensionáveis direcionadas para cenários orientados por dados. Por exemplo, machine learning (ML), Extract-Transform-Load (ETL) e Log Analytics. Com o conector, a base de dados torna-se um arquivo de dados válido para operações padrão de origem e sink do Spark, como leitura, escrita e writeStream.

Apache Spark para análise de Azure Synapse

O Apache Spark é uma arquitetura de processamento paralelo que suporta o processamento dentro da memória para aumentar o desempenho das aplicações de análise de macrodados. O Apache Spark no Azure Synapse Analytics é uma das implementações da Microsoft do Apache Spark na cloud. Pode aceder a uma base de dados a partir de Synapse Studio com o Apache Spark para Azure Synapse Analytics.

Azure Cosmos DB

A ligação de dados do feed de alterações do Azure Cosmos DB é um pipeline de ingestão que escuta o feed de alterações do Cosmos DB e ingere os dados na base de dados.

Azure Data Factory

Azure Data Factory (ADF) é um serviço de integração de dados baseado na cloud que lhe permite integrar diferentes arquivos de dados e realizar atividades nos dados.

Azure Event Grid

A ingestão do Event Grid é um pipeline que escuta o armazenamento do Azure e atualiza a base de dados para solicitar informações quando ocorrem eventos subscritos. Pode configurar a ingestão contínua a partir do Armazenamento do Azure (Armazenamento de blobs e ADLSv2) com uma subscrição de Azure Event Grid para notificações com o nome do blob criado ou blob e a transmissão em fluxo das notificações através de Hubs de Eventos do Azure.

  • Funcionalidade: Ingestão
  • Tipo de ingestão suportado: Criação de batches, transmissão em fluxo
  • Casos de utilização: Processamento de eventos
  • Documentação:ligação de dados do Event Grid

Azure Event Hubs

Hubs de Eventos do Azure é uma plataforma de transmissão em fluxo de macrodados e um serviço de ingestão de eventos. Pode configurar a ingestão contínua a partir dos Hubs de Eventos geridos pelo cliente.

Funções do Azure

Funções do Azure permitem-lhe executar código sem servidor na cloud com base numa agenda ou em resposta a um evento. Com os enlaces de entrada e saída para Funções do Azure, pode integrar a base de dados nos fluxos de trabalho para ingerir dados e executar consultas na base de dados.

Azure IoT Hubs

Hub IoT do Azure é um serviço gerido, alojado na cloud, que atua como um hub de mensagens central para comunicação bidirecional entre a sua aplicação IoT e os dispositivos que gere. Pode configurar a ingestão contínua a partir de Hubs IoT geridos pelo cliente com os hubs de eventos compatíveis com o ponto final incorporado de mensagens do dispositivo para a cloud.

  • Funcionalidade: Ingestão
  • Tipo de ingestão suportado: Criação de batches, transmissão em fluxo
  • Casos de utilização: Dados de IoT
  • Documentação:Hub IoT ligação de dados

Azure Stream Analytics

O Azure Stream Analytics é um motor complexo de processamento de eventos e análise em tempo real concebido para processar grandes volumes de dados de transmissão em fluxo rápidos a partir de várias origens em simultâneo.

  • Funcionalidade: Ingestão
  • Tipo de ingestão suportado: Criação de batches, transmissão em fluxo
  • Casos de utilização: Processamento de eventos
  • Documentação:Ingerir dados do Azure Stream Analytics

Fluent Bit

O Fluent Bit é um agente open source que recolhe registos, métricas e rastreios de várias origens. Permite-lhe filtrar, modificar e agregar dados de eventos antes de os enviar para o armazenamento.

JDBC

O Java Database Connectivity (JDBC) é uma API Java utilizada para ligar a bases de dados e executar consultas. Pode utilizar o JDBC para ligar ao Azure Data Explorer.

Logic Apps

O conector do Microsoft Logic Apps permite-lhe executar consultas e comandos automaticamente como parte de uma tarefa agendada ou acionada.

Logstash

O plug-in do Logstash permite-lhe processar eventos do Logstash para uma base de dados do Azure Data Explorer para análise posterior.

Matlab

O MATLAB é uma plataforma de programação e computação numérica utilizada para analisar dados, desenvolver algoritmos e criar modelos. Pode obter um token de autorização no MATLAB para consultar os seus dados no Azure Data Explorer.

NLog

O NLog é uma plataforma de registo flexível e gratuita para várias plataformas .NET, incluindo a norma .NET. O NLog permite-lhe escrever em vários destinos, como uma base de dados, um ficheiro ou uma consola. Com o NLog, pode alterar a configuração de registo no momento. O sink NLog é um destino para o NLog que lhe permite enviar as mensagens de registo para a sua base de dados. O plug-in proporciona uma forma eficiente de afundar os registos no cluster.

ODBC

Open Database Connectivity (ODBC) é uma interface de programação de aplicações (API) amplamente aceite para acesso à base de dados. O Azure Data Explorer é compatível com um subconjunto do protocolo de comunicação SQL Server (MS-TDS). Esta compatibilidade permite a utilização do controlador ODBC para SQL Server com o Azure Data Explorer.

  • Funcionalidade: Ingestão
  • Tipo de ingestão suportado: Batching, Transmissão em Fluxo
  • Casos de utilização: Telemetria, Registos, Métricas
  • Documentação:Ligar ao Azure Data Explorer com o ODBC

Abrir Telemetria

O conector OpenTelemetry suporta a ingestão de dados de muitos recetores para a sua base de dados. Funciona como uma ponte para ingerir dados gerados por Abrir telemetria na base de dados ao personalizar o formato dos dados exportados de acordo com as suas necessidades.

Power Apps

O Power Apps é um conjunto de aplicações, serviços, conectores e plataforma de dados que fornece um ambiente de desenvolvimento rápido de aplicações para criar aplicações personalizadas que se ligam aos seus dados empresariais. O conector do Power Apps é útil se tiver uma grande e crescente coleção de dados de transmissão em fluxo no Azure Data Explorer e quiser criar uma aplicação de código baixo e altamente funcional para utilizar estes dados.

Power Automate

O Power Automate é um serviço de orquestração utilizado para automatizar processos empresariais. O Power Automate conector (anteriormente Microsoft Flow) permite-lhe orquestrar e agendar fluxos, enviar notificações e alertas, como parte de uma tarefa agendada ou acionada.

  • Funcionalidade: Ingestão, Exportação
  • Tipo de ingestão suportado: Criação de lotes
  • Casos de utilização: Orquestração de dados
  • Documentação:Conector do Microsoft Power Automate

Serilog

O Serilog é uma arquitetura de registo popular para aplicações .NET. O Serilog permite que os programadores controlem que instruções de registo são saída com granularidade arbitrária com base no nome, nível de logger e padrão de mensagem do logger. O sink do Serilog, também conhecido como appender, transmite os seus dados de registo para a base de dados, onde pode analisar e visualizar os seus registos em tempo real.

Splunk

O Splunk Enterprise é uma plataforma de software que lhe permite ingerir dados de muitas origens em simultâneo. O suplemento Data Explorer do Azure envia dados do Splunk para uma tabela no cluster.

Reencaminhador Universal splunk

Telegraf

O Telegraf é um agente de impressão de pés de memória open source, leve e mínimo para recolher, processar e escrever dados telemétricos, incluindo registos, métricas e dados IoT. O Telegraf suporta centenas de plug-ins de entrada e saída. É amplamente utilizado e bem suportado pela comunidade open source. O plug-in de saída serve como conector do Telegraf e suporta a ingestão de dados de vários tipos de plug-ins de entrada na sua base de dados.