Przykład cenowy: integracja danych w zarządzanej sieci wirtualnej usługi Azure Data Factory
DOTYCZY: Azure Data Factory Azure Synapse Analytics
Napiwek
Wypróbuj usługę Data Factory w usłudze Microsoft Fabric — rozwiązanie analityczne typu all-in-one dla przedsiębiorstw. Usługa Microsoft Fabric obejmuje wszystko, od przenoszenia danych do nauki o danych, analizy w czasie rzeczywistym, analizy biznesowej i raportowania. Dowiedz się, jak bezpłatnie rozpocząć nową wersję próbną !
W tym scenariuszu chcesz usunąć oryginalne pliki w usłudze Azure Blob Storage i skopiować dane z usługi Azure SQL Database do usługi Azure Blob Storage zgodnie z harmonogramem godzinowym przez 8 godzin dziennie. Obliczamy cenę za 30 dni. To wykonanie jest wykonywane dwa razy w różnych potokach dla każdego przebiegu. Czas wykonywania tych dwóch potoków nakłada się na siebie.
Ceny używane w tym przykładzie są hipotetyczne i nie są przeznaczone do oznaczania dokładnych rzeczywistych cen. Koszty odczytu/zapisu i monitorowania nie są wyświetlane, ponieważ są one zwykle niewielkie i nie będą miały znaczącego wpływu na ogólne koszty. Uruchomienia działań są również zaokrąglane do najbliższego 1000 w kalkulatorze cen.
Zapoznaj się z kalkulatorem cen platformy Azure, aby uzyskać bardziej szczegółowe scenariusze i oszacować przyszłe koszty korzystania z usługi.
Konfigurowanie
Aby zrealizować ten scenariusz, należy utworzyć dwa potoki z następującymi elementami:
- Działanie potoku — działanie usuwania.
- Działanie kopiowania z wejściowym zestawem danych, które mają być kopiowane z usługi Azure Blob Storage.
- Wyjściowy zestaw danych dla danych w usłudze Azure SQL Database.
- Wyzwalacz harmonogramu do wykonania potoku. Jeśli chcesz uruchomić potok, możesz go wyzwolić natychmiast lub zaplanować. Oprócz samego potoku każde wystąpienie wyzwalacza jest liczone jako pojedyncze uruchomienie działania.
Szacowanie kosztów
Operations | Typy i jednostki |
---|---|
Uruchamianie potoku | 6 Przebiegi działań na wykonanie (2 dla przebiegów wyzwalacza, 4 dla przebiegów działań) = 1440, zaokrąglone w górę, ponieważ kalkulator zezwala tylko na przyrosty 1000. |
Wykonywanie działania usuwania: czas wykonywania potoku na wykonanie = 7 minut. Jeśli wykonanie działania usuwania w pierwszym potoku wynosi od 10:00 UTC do 10:05 CZASU UTC, a wykonywanie działania usuwania w drugim potoku wynosi od 10:02 UTC do 10:07 czasu UTC. | Łącznie (7 min + 60 minut) / 60 minut * 30 miesięcznych wykonań = 33,5 godzin wykonywania potoku w zarządzanej sieci wirtualnej. Działanie potoku obsługuje maksymalnie 50 współbieżnych wykonań na węzeł w zarządzanej sieci wirtualnej. Działanie potoku trwa 60 minut. |
Założenia dotyczące kopiowania danych: czas wykonywania diu na wykonanie = 10 minut, jeśli wykonanie kopiowania w pierwszym potoku wynosi od 10:06 UTC do 10:15 CZASU UTC, a wykonywanie działania kopiowania w drugim potoku wynosi od 10:08 czasu UTC do 10:17 czasu UTC. | [(10 min + 2 min (opłaty za czas kolejki do 2 minut)) / 60 minut * 4 zarządzane środowisko Azure VNET Integration Runtime (domyślne ustawienie DIU = 4)] * 2 = 1,6 dzienne godziny wykonywania działań przenoszenia danych w zarządzanej sieci wirtualnej. Aby uzyskać więcej informacji na temat jednostek integracji danych i optymalizowania wydajności kopiowania, zobacz ten artykuł |
Przykład kalkulatora cen
Łączna cena scenariusza dla 30 dni: 83,50 USD
Powiązana zawartość
- Przykład cenowy: kopiowanie danych z usługi AWS S3 do usługi Azure Blob Storage co godzinę przez 30 dni
- Przykład cenowy: kopiowanie danych i przekształcanie za pomocą usługi Azure Databricks co godzinę przez 30 dni
- Przykład cenowy: Kopiowanie danych i przekształcanie przy użyciu parametrów dynamicznych co godzinę przez 30 dni
- Przykład cenowy: uruchamianie pakietów usług SSIS w środowisku Azure-SSIS Integration Runtime
- Przykład cenowy: Używanie debugowania przepływu danych mapowania dla normalnego dnia roboczego
- Przykład cenowy: przekształcanie danych w magazynie obiektów blob za pomocą przepływów danych mapowania
- Przykład cenowy: pobieranie danych różnicowych z usługi SAP ECC za pośrednictwem rozwiązania SAP CDC w przepływach danych mapowania