Бөлісу құралы:


Использование редактора без кода Azure Stream Analytics для преобразования и хранения данных в базе данных SQL Azure

В этой статье описывается, как с помощью редактора кода легко создать задание Stream Analytics, которое непрерывно считывает данные из экземпляра Центров событий (концентратора событий), преобразует данные и записывает результаты в базу данных SQL Azure.

Необходимые компоненты

Ресурсы Центры событий Azure и База данных SQL Azure должны быть общедоступными и не защищены брандмауэром или защищены в виртуальная сеть Azure. Данные в Центрах событий должны быть сериализованы в формате JSON, CSV или Avro.

Если вы хотите выполнить действия, описанные в этой статье, выполните следующие действия.

  • Создайте концентратор событий, если у вас еще нет. Создайте данные в концентраторе событий. На странице "Экземпляр центров событий" выберите "Создать данные (предварительная версия) в меню слева, выберите "Запас данных" для набора данных и нажмите кнопку "Отправить", чтобы отправить некоторые примеры данных в концентратор событий. Этот шаг необходим, если вы хотите протестировать шаги в этой статье.

    Снимок экрана: страница создания данных (предварительная версия) экземпляра Центров событий.

  • Создайте базу данных SQL Azure. Ниже приведены несколько важных моментов, которые необходимо отметить при создании базы данных.

    1. На странице "Основы" выберите "Создать" для сервера. Затем на странице "Создание База данных SQL сервера" выберите "Использовать проверку подлинности SQL" и укажите идентификатор пользователя и пароль администратора.

    2. На странице "Сеть" выполните следующие действия.

      1. Включите общедоступную конечную точку.
      2. Выберите значение Да для параметра Разрешить доступ к серверу службам и ресурсам Azure.
      3. Выберите "Да " для добавления текущего IP-адреса клиента.
    3. На странице "Дополнительные параметры" выберите "Нет" для использования существующих данных.

    4. В статье пропустить шаги в разделе "Запрос базы данных " и "Очистка ресурсов ".

    5. Если вы хотите протестировать шаги, создайте таблицу в базе данных SQL с помощью редактора запросов (предварительная версия).

      create table stocks (
          symbol varchar(4),
          price decimal
      )
      

Создание задания Stream Analytics с помощью редактора кода без кода

В этом разделе описано, как создать задание Azure Stream Analytics с помощью редактора без кода. Задание преобразует потоковую передачу данных из экземпляра Центров событий (концентратора событий) и сохраняет данные результатов в базе данных SQL Azure.

  1. В портал Azure перейдите на страницу экземпляра Центров событий для концентратора событий.

  2. Выберите "Данные обработки компонентов>" в меню слева, а затем нажмите кнопку "Пуск" на карте "Преобразование" и хранение данных в карточке базы данных SQL.

    Снимок экрана: кнопка

  3. Введите имя задания Stream Analytics и нажмите кнопку Создать. Вы увидите схему заданий Stream Analytics с окном Центров событий справа.

    Снимок экрана, на котором показано, где нужно ввести имя задания.

  4. В окне концентратора событий просмотрите параметры режима сериализации и проверки подлинности и выберите "Подключить".

    Снимок экрана: конфигурация подключения Центров событий.

  5. Когда подключение установлено успешно, и у вас есть данные в экземпляре Центров событий, вы увидите две вещи:

    • Наличие полей в входных данных. Вы можете нажать кнопку Добавить поле или выбрать символ с тремя точками рядом с каждым полем, чтобы удалить, переименовать его или изменить его тип.

      Снимок экрана: список полей Центров событий, где можно удалить, переименовать или изменить тип поля.

    • Динамический пример входящих данных в таблице Предварительный просмотр данных в представлении диаграммы. Она автоматически периодически обновляется. Вы можете выбрать Приостановить предварительный просмотр потоковой передачи, чтобы просмотреть статическое представление примера входных данных.

      Снимок экрана: пример данных на вкладке

  6. Выберите группу по плитке, чтобы агрегировать данные. На панели конфигурации "Группа по группе" можно указать поле, которое нужно сгруппировать по окну времени.

    В следующем примере используется среднее значение цены и символа.

    Снимок экрана: группа по конфигурации оператора.

  7. Результаты шага можно проверить в разделе предварительного просмотра данных.

    Снимок экрана: предварительный просмотр данных для группы по оператору.

  8. Выберите плитку "Управление полями ". На панели конфигурации "Управление полями" выберите поля, которые нужно вывести, выбрав "Добавить поле ->Импортированная схема" —> поле.

    Если вы хотите добавить все поля, выберите "Добавить все поля". При добавлении поля можно указать другое имя выходных данных. Например, AVG_Value в Value. После сохранения выбранных элементов на панели предварительного просмотра данных отображаются данные.

    В следующем примере выбраны символы и AVG_Value . Символ сопоставляется с символом, и AVG_Value сопоставляется с ценой.

    Снимок экрана: конфигурация оператора поля управления.

  9. Выберите плитку SQL . На панели конфигурации База данных SQL заполните необходимые параметры и подключитесь. Выберите " Загрузить существующую таблицу" для автоматического выбора таблицы . В следующем примере [dbo].[stocks] выбран вариант. Затем щелкните Connect (Подключиться).

    Примечание.

    Схема таблицы, выбранной для записи, должна точно соответствовать количеству полей и их типам, создаваемым предварительным просмотром данных.

    Снимок экрана: конфигурация выходных данных базы данных SQL.

  10. В области предварительного просмотра данных отображается предварительная версия данных, которая выполняется в базе данных SQL.

    Снимок экрана: параметр получения статического предварительного просмотра или обновления статического предварительного просмотра.

  11. Нажмите кнопку Сохранить, а затем выберите Запустить для задания Stream Analytics.

    Снимок экрана: параметры сохранения и запуска.

  12. Чтобы запустить задание, укажите следующее.

    • Число единиц потоковой передачи, с которыми выполняется задание. Единицы потоковой передачи представляют объем вычислительных ресурсов и памяти, выделенных для задания. Мы рекомендуем начать с трех единиц, а затем при необходимости изменить это значение.

    • Обработка ошибок выходных данных — позволяет указать нужное поведение, если вывод задания в место назначения завершатся сбоем из-за ошибок данных. По умолчанию задание повторяется до тех пор, пока операция записи не будет выполнена. Вы также можете удалять такие выходные события.

      Снимок экрана: параметры задания Start Stream Analytics, где можно изменить время вывода, задать количество единиц потоковой передачи и выбрать параметры обработки ошибок выходных данных.

  13. Задание запустится в течение двух минут после нажатия кнопки Запустить. Откроется панель метрик в нижней области. Для обновления этой панели требуется некоторое время. Нажмите кнопку "Обновить" в правом верхнем углу панели, чтобы обновить диаграмму. Перейдите к следующему шагу на отдельной вкладке или окне веб-браузера.

    Снимок экрана: метрики задания после его запуска.

    Вы также можете просмотреть задание в разделе "Данные процесса" на вкладке "Задания Stream Analytics". Выберите "Открыть метрики ", чтобы отслеживать или останавливать и перезапустить его по мере необходимости.

    Снимок экрана: вкладка

  14. Перейдите к концентратору событий на портале в отдельном окне браузера или на вкладке, а затем снова отправьте образец данных акций (как и в предварительных требованиях). На странице "Экземпляр центров событий" выберите "Создать данные (предварительная версия) в меню слева, выберите "Запас данных" для набора данных и нажмите кнопку "Отправить", чтобы отправить некоторые примеры данных в концентратор событий. Это займет несколько минут, чтобы просмотреть обновленную панель метрик .

  15. Записи, вставляемые в базу данных SQL Azure, должны отображаться.

    Снимок экрана: содержимое таблицы акций в базе данных.

Рекомендации при использовании функции георепликации Центров событий

Центры событий Azure недавно запустили Функция георепликации в общедоступной предварительной версии. Эта функция отличается от функции географического аварийного восстановления Центры событий Azure.

Если тип отработки отказа является принудительной и согласованность репликации является асинхронной, задание Stream Analytics не гарантирует точно один раз выходных данных в Центры событий Azure выходных данных.

Azure Stream Analytics в качестве производителя с выходными данными концентратора событий может наблюдать задержку водяного знака в задании во время отработки отказа и во время регулирования центрами событий в случае задержки репликации между основными и вторичными компонентами достигает максимально настроенной задержки.

Azure Stream Analytics, как потребитель с Центрами событий в качестве входных данных, может наблюдать задержку водяного знака в задании во время отработки отказа и может пропустить данные или найти дублирующиеся данные после завершения отработки отказа.

Из-за этих предостережения рекомендуется перезапустить задание Stream Analytics с соответствующим временем начала сразу после завершения отработки отказа Центров событий. Кроме того, так как функция георепликации Центров событий находится в общедоступной предварительной версии, мы не рекомендуем использовать этот шаблон для рабочих заданий Stream Analytics на данный момент. Текущее поведение Stream Analytics улучшится, прежде чем функция георепликации Центров событий общедоступна и может использоваться в рабочих заданиях Stream Analytics.

Следующие шаги

Узнайте больше об Azure Stream Analytics и о том, как выполнять мониторинг созданного задания.