Поделиться через


Доступ к локальным источникам данных в Фабрике данных для Microsoft Fabric

Фабрика данных для Microsoft Fabric — это мощная облачная служба интеграции данных, которая позволяет создавать, планировать и управлять рабочими процессами для различных источников данных. В сценариях, когда источники данных находятся локально, корпорация Майкрософт предоставляет локальный шлюз данных для безопасного преодоления разрыва между локальной средой и облаком. В этом документе описан процесс доступа к локальным источникам данных в Фабрике данных для Microsoft Fabric с помощью локального шлюза данных.

Создание локального шлюза данных

  1. Локальный шлюз данных — это программное приложение, предназначенное для установки в локальной сетевой среде. Он предоставляет средства для непосредственной установки шлюза на локальный компьютер. Подробные инструкции по загрузке и установке локального шлюза данных см. в статье "Установка локального шлюза данных".

    Снимок экрана: настройка локального шлюза данных.

  2. Войдите с помощью учетной записи пользователя для доступа к локальному шлюзу данных, после чего он готов к использованию.

    Снимок экрана: настройка локального шлюза данных после входа пользователя.

Создание подключения для локального источника данных

  1. Перейдите на портал администрирования и нажмите кнопку параметров (значок, который выглядит как шестеренка) в правом верхнем углу страницы. Затем выберите " Управление подключениями и шлюзами " в появившемся раскрывающемся меню.

    Снимок экрана: меню Параметры с выделенным меню

  2. В появившемся диалоговом окне "Создать подключение" выберите локальную среду и укажите кластер шлюза вместе с соответствующим типом ресурсов и соответствующими сведениями.

    Снимок экрана: диалоговое окно

Подключение локальный источник данных в поток данных 2-го поколения в фабрике данных для Microsoft Fabric

  1. Перейдите в рабочую область и создайте поток данных 2-го поколения.

    Снимок экрана: демонстрационная рабочая область с выделенным параметром

  2. Добавьте новый источник в поток данных и выберите соединение, установленное на предыдущем шаге.

    Снимок экрана: диалоговое окно Подключение к источнику данных в потоке данных 2-го поколения с выбранным локальным источником.

  3. Поток данных 2-го поколения можно использовать для выполнения любых необходимых преобразований данных на основе ваших требований.

    Снимок экрана: редактор Power Query с некоторыми преобразованиями, примененными к образцу источника данных.

  4. Нажмите кнопку "Добавить назначение данных" на вкладке "Главная" редактора Power Query, чтобы добавить назначение для данных из локального источника.

    Снимок экрана: редактор Power Query с выбранной кнопкой

  5. Публикация потока данных 2-го поколения.

    Снимок экрана: редактор Power Query с выделенной кнопкой

Теперь вы создали поток данных 2-го поколения для загрузки данных из локального источника данных в облачное назначение.

Использование локальных данных в конвейере (предварительная версия)

  1. Перейдите в рабочую область и создайте конвейер данных.

    Снимок экрана: создание конвейера данных.

Примечание.

Необходимо настроить брандмауэр, чтобы разрешить исходящие подключения *.frontend.clouddatahub.net из шлюза для возможностей конвейера Fabric.

  1. На вкладке "Главная" редактора конвейера выберите "Копировать данные", а затем используйте помощник копирования. Добавьте новый источник в действие на странице выбора источника данных помощник, а затем выберите соединение, установленное на предыдущем шаге.

    Снимок экрана: выбор нового источника данных из действия копирования данных.

  2. Выберите место назначения для данных из локального источника данных.

    Снимок экрана: место назначения данных в действие Copy.

  3. Запуск конвейера.

    Снимок экрана: место запуска конвейера в окне редактора конвейера.

Теперь вы создали и запустили конвейер для загрузки данных из локального источника данных в облачное назначение.

Это соединители, которые в настоящее время поддерживаются конвейером Fabric при использовании локального шлюза данных:

  • ADLS 1-го поколения для структурированного потока Cosmos
  • ADLS 2-го поколения для структурированного потока Cosmos
  • Amazon S3
  • Хранилище, совместимое с Amazon S3
  • Amazon RDS для SQL Server
  • Хранилище BLOB-объектов Azure
  • Azure Cosmos DB (SQL API)
  • База данных Azure для PostgreSQL
  • Azure Data Explorer
  • Azure Data Lake Storage 2-го поколения
  • База данных SQL Azure
  • Управляемый экземпляр SQL Azure
  • Azure Synapse Analytics
  • Хранилище таблиц Azure
  • Dataverse
  • DB2
  • Dynamics 365
  • Dynamics CRM
  • Хранилище Microsoft Fabric
  • Файловая система
  • FTP
  • Базовый HTTP-запрос
  • Базовый протокол OData
  • Базовый протокол ODBC
  • Google Cloud Storage
  • База данных KQL
  • Microsoft Fabric Lakehouse
  • MongoDB
  • MongoDB Atlas
  • SAP HANA
  • SFTP
  • Список SharePoint Online
  • SQL Server