Compartir a través de


Adición y administración de un origen de eventos en un eventstream

Una vez creado un eventstream, puede conectarlo a varios orígenes y destinos de datos.

Nota:

Si quiere usar funcionalidades mejoradas que están en versión preliminar, seleccione Funcionalidades mejoradas en la parte superior. De lo contrario, seleccione Funcionalidades estándar. Para obtener información sobre las funcionalidades mejoradas que se encuentran en versión preliminar, vea Introducción a los flujos de eventos de Fabric.

Una vez creado un eventstream, puede conectarlo a varios orígenes y destinos de datos.

Eventstream no solo permite transmitir datos de orígenes de Microsoft, sino que también admite la ingesta desde plataformas de terceros como Google Cloud y Amazon Kinesis con nuevos conectores de mensajería. Esta funcionalidad ampliada ofrece una integración perfecta de secuencias de datos externos en Fabric, lo que proporciona mayor flexibilidad y le permite obtener información en tiempo real de varios orígenes.

En este artículo, obtendrá información sobre los orígenes de eventos que puede agregar a una secuencia de eventos con funcionalidades mejoradas que se encuentran en versión preliminar.

Importante

Las funcionalidades mejoradas de flujos de eventos de Fabric se encuentran actualmente en versión preliminar.

Requisitos previos

  • Acceda al área de trabajo Premium de Fabric de su área de trabajo con los permisos de Colaborador o superiores.
  • Requisitos previos específicos de cada origen que se documentan en los siguientes artículos específicos del origen.

Orígenes compatibles

Las secuencias de eventos de Fabric con funcionalidades mejoradas admiten los siguientes orígenes. En cada artículo se proporcionan detalles e instrucciones para agregar orígenes específicos.

Orígenes Descripción
Azure Event Hubs Si tiene un centro de eventos de Azure, puede ingerir datos del centro de eventos en Microsoft Fabric mediante Eventstream.
Azure IoT Hub Si tiene un centro de IoT de Azure, puede ingerir datos de IoT en Microsoft Fabric mediante Eventstream.
Captura de datos modificados de la base de datos Azure SQL El conector de origen de CDC de Azure SQL Database permite capturar una instantánea de los datos actuales en una base de datos de Azure SQL. A continuación, el conector supervisa y registra los cambios futuros a nivel de fila en estos datos.
CDC de base de datos de PostgreSQL El conector de origen de captura de datos modificados (CDC) de la base de datos de PostgreSQL permite capturar una instantánea de los datos actuales en una base de datos de PostgreSQL. A continuación, el conector supervisa y registra los cambios futuros a nivel de fila en estos datos.
CDC de base de datos de MySQL El conector de origen de captura de datos modificados (CDC) de Azure MySQL Database permite capturar una instantánea de los datos actuales en una base de datos de Azure Database for MySQL. Puede especificar las tablas que se van a supervisar y Eventstream registra los cambios futuros de nivel de fila en las tablas.
CDC de Azure Cosmos DB El conector de origen de captura de datos modificados (CDC) de Azure Cosmos DB para flujos de eventos de Microsoft Fabric permite capturar una instantánea de los datos actuales en una base de datos de Azure Cosmos DB. A continuación, el conector supervisa y registra los cambios futuros a nivel de fila en estos datos.
Google Cloud Pub/Sub Google Pub/Sub es un servicio de mensajería que permite publicar y suscribirse a secuencias de eventos. Puede agregar Google Pub/Sub como origen a su secuencia de eventos para capturar, transformar y enrutar eventos en tiempo real a varios destinos de Fabric.
Flujos de datos de Amazon Kinesis Amazon Kinesis Data Streams es un servicio de procesamiento y ingesta de datos muy duradero y escalable de forma masiva optimizado para datos de streaming. Al integrar Amazon Kinesis Data Streams como origen dentro de la secuencia de eventos, puede procesar sin problemas flujos de datos en tiempo real antes de enrutarlos a varios destinos dentro de Fabric.
Confluent Cloud Kafka Confluent Cloud Kafka es una plataforma de streaming que ofrece eficaces funcionalidades de procesamiento y streaming de datos mediante Apache Kafka. Al integrar Confluent Cloud Kafka como origen dentro de la secuencia de eventos, puede procesar sin problemas flujos de datos en tiempo real antes de enrutarlos a varios destinos dentro de Fabric.
Eventos de Azure Blob Storage Los eventos de Azure Blob Storage se desencadenan cuando un cliente crea, reemplaza o elimina un blob. El conector permite vincular eventos de Blob Storage a eventos de Fabric en el centro en tiempo real. Puede convertir estos eventos en flujos de datos continuos y transformarlos antes de enrutarlos a varios destinos de Fabric.
Eventos de elemento del área de trabajo de Fabric Los eventos de elementos del área de trabajo de Fabric son eventos discretos de Fabric que se producen cuando se realizan cambios en el área de trabajo de Fabric. Estos cambios incluyen la creación, actualización o eliminación de un elemento de Fabric. Con flujos de eventos de Fabric, puede capturar estos eventos del área de trabajo de Fabric, transformarlos y enrutarlos a varios destinos de Fabric para su posterior análisis.
Datos de ejemplo Puede elegir Bicicletas, Taxi amarillo, o Eventos de mercado de valores como un origen de datos de ejemplo para probar la ingesta de datos al configurar un eventstream.
Punto de conexión personalizado (es decir, aplicación personalizada en la funcionalidad estándar) La característica de punto de conexión personalizado permite que las aplicaciones o los clientes de Kafka se conecten a Eventstream mediante una cadena de conexión, lo que permite la ingesta fluida de datos de streaming en Eventstream.

Nota:

El número máximo de orígenes y destinos para una secuencia de eventos es 11.

Requisitos previos

Para empezar, debe completar los siguientes requisitos previos:

  • Obtenga acceso a un área de trabajo Premium con los permisos Colaborador o superior donde se encuentra la secuencia de eventos.
  • Para agregar Azure Event Hubs o Azure IoT Hub como origen de eventstream, debe tener el permiso adecuado para acceder a sus claves de directiva. Deben ser accesibles públicamente y no estar detrás de un firewall o protegidos en una red virtual.

Orígenes compatibles

Los orígenes siguientes son compatibles con los flujos de eventos de Fabric. Usa los vínculos de la tabla para ir a artículos que proporcionan más detalles sobre cómo agregar orígenes específicos.

Orígenes Descripción
Azure Event Hubs Si tiene un centro de eventos de Azure, puede ingerir datos del centro de eventos en Microsoft Fabric mediante Eventstream.
Azure IoT Hub Si tiene un centro de IoT de Azure, puede ingerir datos de IoT en Microsoft Fabric mediante Eventstream.
Datos de ejemplo Puede elegir Bicicletas, Taxi amarillo, o Eventos de mercado de valores como un origen de datos de ejemplo para probar la ingesta de datos al configurar un eventstream.
Aplicación personalizada La característica de aplicación personalizada permite que las aplicaciones o los clientes de Kafka se conecten a Eventstream mediante una cadena de conexión, lo que permite la ingesta fluida de datos de streaming en Eventstream.

Nota:

El número máximo de orígenes y destinos para una secuencia de eventos es 11.

Administración de un origen

  • Editar o quitar: puede seleccionar un origen de eventstream para editar o quitar a través del panel de navegación o el lienzo. Al seleccionar Editar, el panel de edición se abre a la derecha del editor principal.

    Captura de pantalla que muestra la modificación y eliminación del origen.

  • Regenerar clave para una aplicación personalizada: si quiere volver a generar una nueva clave de conexión para la aplicación, seleccione uno de los orígenes de la aplicación personalizados en el lienzo y seleccione Regenerar para obtener una nueva clave de conexión.

    Captura de pantalla que muestra cómo regenerar una clave.