Добавление источника Confluent Kafka в поток событий (предварительная версия)
В этой статье показано, как добавить источник Confluent Kafka в поток событий.
Confluent Cloud Kafka — это платформа потоковой передачи и обработки данных с помощью Apache Kafka. Интеграция Confluent Cloud Kafka в качестве источника в потоке событий позволяет легко обрабатывать потоки данных в режиме реального времени перед маршрутизацией их в несколько назначений в Fabric.
Внимание
Расширенные возможности потоков событий Fabric в настоящее время находятся в предварительной версии.
Примечание.
Этот источник не поддерживается в следующих регионах емкости рабочей области: западная часть США 3, Западная Швейцария.
Необходимые компоненты
- Доступ к рабочей области Fabric premium с разрешениями участника или выше.
- Кластер Confluent Cloud Kafka и ключ API.
- Кластер Confluent Cloud Kafka должен быть общедоступным, а не за брандмауэром или защищенным в виртуальной сети.
Примечание.
Максимальное количество источников и назначений для одного потока событий — 11.
Добавление Confluent Cloud Kafka в качестве источника
- Создайте поток событий, выбрав переключатель предварительного просмотра.
- Выберите " Добавить внешний источник".
Настройка и подключение к Confluent Kafka
На странице "Выбор источника данных" выберите Confluent.
Чтобы создать подключение к источнику Confluent Cloud Kafka, нажмите кнопку "Создать подключение".
В разделе параметров подключения введите Confluent Bootstrap Server. Перейдите на домашнюю страницу Confluent Cloud, выберите "Параметры кластера" и скопируйте адрес на сервер начальной загрузки.
В разделе учетных данных подключения, если у вас есть существующее подключение к кластеру Confluent, выберите его в раскрывающемся списке для подключения. В противном случае выполните следующие действия.
- В поле "Имя подключения" введите имя подключения.
- Для типа проверки подлинности убедитесь, что выбран облачный ключ Confluent.
- Для ключа API и секрета ключа API:
Перейдите в облако Confluent Cloud.
Выберите ключи API в боковом меню.
Нажмите кнопку "Добавить ключ", чтобы создать новый ключ API.
Скопируйте ключ и секрет API.
Вставьте эти значения в поля "Ключ API" и "Секрет ключа API".
Выберите Подключиться.
Прокрутите страницу, чтобы просмотреть раздел "Настройка источника данных Confluent". Введите сведения, чтобы завершить настройку источника данных Confluent.
- В поле "Раздел" введите имя раздела из confluent Cloud. Вы можете создать или управлять темой в Confluent Cloud Console.
- Для группы потребителей введите группу потребителей в облаке Confluent. Она предоставляет выделенную группу потребителей для получения событий из кластера Confluent Cloud.
- Для параметра автоматического смещения сброса выберите одно из следующих значений:
Самый ранний — самые ранние данные, доступные из кластера Confluent
Последние — последние доступные данные
Нет — не устанавливайте смещение автоматически.
Выберите Далее. На экране "Рецензирование" и "Создать" просмотрите сводку и нажмите кнопку "Добавить".
Вы видите, что источник Confluent Cloud Kafka добавляется в поток событий на холсте в режиме редактирования. Чтобы реализовать этот недавно добавленный источник Confluent Cloud Kafka, выберите " Опубликовать " на ленте.
После выполнения этих действий источник Confluent Cloud Kafka доступен для визуализации в режиме реального времени.
Связанный контент
Другие соединители:
- Потоки данных Amazon Kinesis
- Azure Cosmos DB
- Центры событий Azure
- Центр Интернета вещей Azure
- База данных SQL Azure отслеживания измененных данных (CDC)
- Пользовательская конечная точка
- Google Cloud Pub/Sub
- My База данных SQL CDC
- Postgre База данных SQL CDC
- Пример данных
- события Хранилище BLOB-объектов Azure
- Событие рабочей области Fabric