Notatka
Dostęp do tej strony wymaga autoryzacji. Może spróbować zalogować się lub zmienić katalogi.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Dotyczy:✅Baza danych SQL w usłudze Microsoft Fabric
W tym artykule opisano sposób używania bazy danych SQL w usłudze Microsoft Fabric jako sieci szkieletowej operacyjnej dla aplikacji translitycznych — aplikacji, które wymagają zarówno transakcyjnego, jak i analitycznego dostępu do tych samych danych.
Celem jest umożliwienie obciążeń transakcyjnych, operacyjnych API i natychmiastowych danych analitycznych w jednej bazie danych w ramach bezpiecznej, zarządzanej platformy Microsoft Fabric.
Punkt końcowy analizy SQL
Podczas tworzenia bazy danych SQL w usłudze Fabric dane są automatycznie replikowane niemal w czasie rzeczywistym do usługi OneLake, tworząc kopię danych tylko do odczytu w tabelach delty, które są dostępne za pośrednictwem języka T-SQL za pośrednictwem punktu końcowego analizy SQL. Ta architektura oznacza, że dane generowane przez system transakcyjny są dostępne dla zapytań analitycznych bez przetwarzania ani złożonych potoków ETL. Korzystając z punktu końcowego analizy SQL, można analizować dane niemal w czasie rzeczywistym bez wpływu na obciążenie transakcyjne. Te dane mogą służyć do raportowania usługi Power BI, modeli uczenia maszynowego lub innych analiz w usłudze Fabric. Punkt końcowy analizy SQL jest również dostępny dla aplikacji zewnętrznych, które wymagają dostępu analitycznego do danych.
Oto kilka przykładów:
- Opieki zdrowotnej: Monitorowanie metryk kondycji w celu zapewnienia szczegółowych informacji w czasie rzeczywistym dla pracowników służby zdrowia.
- Finanse: Analizuj dane rynkowe w celu optymalizacji strategii handlowych w czasie rzeczywistym.
- Sprzedaż detaliczna: Analizowanie zachowania klientów w celu zapewnienia spersonalizowanych doświadczeń zakupowych.
- Produkcji: Monitorowanie procesów produkcyjnych w celu zwiększenia jakości produktu.
Przepływy zadań translitycznych
Gdy używasz usługi Power BI do analizowania danych, może wystąpić potrzeba podjęcia akcji na danych, takich jak aktualizowanie rekordu, dodawanie adnotacji lub wyzwalanie akcji w innym systemie na podstawie danych. Te zadania można łatwo wykonać przy użyciu translytical task flows w Fabric.
Funkcje danych użytkownika umożliwiają takie scenariusze jak:
- Dodaj dane: Dodaj rekord danych do tabeli w bazie danych i zobacz go w raporcie. Na przykład dodanie nowego rekordu klienta.
- Edytuj dane: Edytuj istniejący rekord danych w tabeli w bazie danych i zobacz go w raporcie bez kodowania niestandardowego. Na przykład aktualizowanie pola stanu lub adnotacji.
- Usuń dane: Usuń istniejący rekord danych z tabeli w bazie danych i zobacz, jak został usunięty z raportu. Na przykład usunięcie rekordu klienta, który nie jest już potrzebny.
- Wywoływanie zewnętrznego interfejsu API: Utwórz żądanie interfejsu API, które jest dostępne za pośrednictwem żądania sieciowego. Na przykład wysyłanie żądania do punktu końcowego REST publicznego interfejsu API, który aktualizuje dane bazowe lub dane wejściowe użytkownika końcowego, lub podejmuje działania w innym systemie.
W przypadku scenariuszy zapisywania zwrotnego danych funkcje danych zapewniają zarządzanie połączeniami dla baz danych SQL w Fabric, hurtowniach danych i lakehouse. Oto jak może działać przepływ zadań translitycznych:
- Funkcje danych użytkownika w Fabric wywołują funkcje w źródłach danych Fabric. Funkcje danych użytkownika działają z bieżącym kontekstem raportu (filtrami, fragmentatorami i opcjami) przekazywanymi jako parametry.
- Ponieważ punkt końcowy analityki SQL utrzymuje niemal natychmiastową kopię w OneLake, aktualizacje wprowadzane przez przepływy zadań są dostępne do natychmiastowej analizy i wizualizacji w Power BI bez dodatkowego ETL.
- Akcje przechwycone za pośrednictwem funkcji danych użytkownika można kierować do Fabric Notebooks w potokach ELT w celu przetwarzania wspomaganego przez sztuczną inteligencję (na przykład klasyfikacji lub wzbogacania) przed ostatecznym zapisaniem w bazie danych SQL.
Tworzenie przepływu zadań translitycznych obejmuje następujące główne zadania:
- Przechowywanie danych w źródle danych typu fabric.
- Tworzenie funkcji do obsługi danych użytkownika w celu obsługiwania działania.
- Tworzenie semantycznego modelu usługi Power BI do korzystania z tych danych.
- Tworzenie raportu usługi Power BI z elementami interaktywnymi w celu przechwytywania danych wejściowych użytkownika i wywoływania funkcji.