Поделиться через


Сценарий ценообразования с помощью конвейера данных для загрузки 1 ТБ данных Parquet в таблицу Lakehouse

В этом сценарии действие Copy использовался в конвейере данных для загрузки 1 ТБ данных Parquet, хранящихся в Azure Data Lake служба хранилища (ADLS) 2-го поколения, в таблицу Lakehouse в Microsoft Fabric.

Цены, используемые в следующем примере, являются гипотетическими и не намерены подразумевать точные фактические цены. Это просто для демонстрации того, как можно оценить, спланировать и управлять затратами на проекты Фабрики данных в Microsoft Fabric. Кроме того, так как емкости Fabric имеют уникальную цену в разных регионах, мы используем цены на оплату по мере использования для емкости Fabric на западе США 2 (типичный регион Azure) на 0,18 долл. США в час. См. здесь сведения о ценах на Microsoft Fabric. Чтобы изучить другие варианты ценообразования емкости Fabric.

Настройка

Чтобы выполнить этот сценарий, необходимо создать конвейер со следующей конфигурацией:

Screenshot showing the configuration of a pipeline copying CSV data to a Lakehouse table.

Оценка затрат с помощью приложения метрик Fabric

Screenshot showing the duration and CU consumption of the job in the Fabric Metrics App.

Операция перемещения данных использовала 291 960 секунд CU с длительностью 810,16 секунды (13,5 минуты), пока операция выполнения действия была null, так как в выполнении конвейера не было никаких действий без копирования.

Примечание.

Несмотря на то, что эта метрика отображается как метрика, фактическое время выполнения не имеет значения при вычислении эффективных часов CU с приложением метрик Структуры, так как метрика метрики CU, которая также сообщает уже о учетных записях в течение его длительности.

Metric Операция перемещения данных
Секунды cu 291 960 секунд cu
Эффективные часы CU (291,960) / (60*60) CU-hours = 81.1 CU-hours

Общая стоимость выполнения на $0,18/CU час = (81,1 CU-hours) * ($0,18/CU час ) ~= $14,60