Poznámka:
Přístup k této stránce vyžaduje autorizaci. Můžete se zkusit přihlásit nebo změnit adresáře.
Přístup k této stránce vyžaduje autorizaci. Můžete zkusit změnit adresáře.
platí pro:✅databáze SQL v Microsoft Fabric
Tento článek popisuje, jak používat databázi SQL v Microsoft Fabric jako provozní páteř pro translytické aplikace – aplikace, které vyžadují transakční i analytický přístup ke stejným datům.
Cílem je povolit transakční úlohy, provozní rozhraní API a okamžitá analytická data v jedné databázi v rámci řízené a zabezpečené platformy Microsoft Fabric .
Koncový bod analýzy SQL
Při vytváření databáze SQL ve Fabricu se data automaticky replikují téměř v reálném čase do OneLake, kde se vytvoří kopie dat jen pro čtení v tabulkách Delta, které jsou dostupné prostřednictvím T-SQL přes koncový bod analýzy SQL. Tato architektura znamená, že data generovaná transakčním systémem jsou k dispozici pro analytické dotazy bez jakéhokoli zpracování nebo složitých kanálů ETL. Pomocí koncového bodu SQL Analytics můžete analyzovat data téměř v reálném čase, aniž by to mělo vliv na transakční úlohu. Tato data mohou být použita pro vytváření sestav Power BI, modely strojového učení nebo jiné analýzy v rámci Fabric. Koncový bod analýzy SQL je také přístupný pro externí aplikace, které potřebují analytický přístup k datům.
Mezi příklady patří:
- Zdravotní péče: Monitorujte metriky stavu a poskytněte tak přehledy pro zdravotnické pracovníky v reálném čase.
- Finance: Analyzujte data trhu za účelem optimalizace obchodních strategií v reálném čase.
- Maloobchodní: Analýza chování zákazníků za účelem poskytování přizpůsobených nákupních prostředí
- Výrobní: Monitorujte výrobní procesy za účelem zvýšení kvality produktu.
Translytické toky úkolů
Když k analýze dat používáte Power BI, můžou nastat chvíle, kdy potřebujete na základě dat provést akci, jako je aktualizace záznamu, přidání poznámek nebo aktivace akce v jiném systému. Tyto úlohy můžete snadno provést pomocí translytických toků úkolů v systému Fabric.
Funkce uživatelských dat umožňují scénáře, jako jsou:
- Přidání dat: Přidejte záznam dat do tabulky v databázi a prohlédněte si ho v sestavě. Například přidání nového záznamu zákazníka.
- Upravit data: Upravte existující záznam dat v tabulce v databázi a uvidíte ho v sestavě bez potřeby vlastního kódování. Například aktualizace pole stavu nebo poznámky.
- Odstranění dat: Odstraňte existující záznam dat z tabulky ve své databázi a sledujte jeho odstranění ze sestavy. Například odebrání záznamu zákazníka, který už není potřeba.
- Volání externího rozhraní API: Vytvořte požadavek rozhraní API, který je přístupný prostřednictvím síťového požadavku. Například vytvoření požadavku na koncový bod REST veřejného rozhraní API, které aktualizuje podkladová data nebo vstup koncového uživatele, nebo provede akci v jiném systému.
V případě scénářů zpětného zápisu dat poskytují uživatelské datové funkce správu připojení pro SQL databáze v prostředí Fabric, skladech a jezer. Tady je postup, jak může tok translytických úloh fungovat:
- Funkce uživatelských dat ve Fabric vyvolávají funkce v podkladových zdrojích dat Fabric. Funkce uživatelských dat pracují s kontextem aktuální sestavy (filtry, průřezy a výběry) předaným jako parametry.
- Vzhledem k tomu, že koncový bod analýzy SQL udržuje repliku téměř v reálném čase v OneLake, jsou aktualizace napsané toky úkolů k dispozici pro okamžité analýzy a vizuály Power BI bez dalšího ETL.
- Akce zachycené prostřednictvím funkcí uživatelských dat je možné směrovat do poznámkových bloků infrastruktury v kanálech ELT pro zpracování s asistencí AI (například klasifikaci nebo rozšiřování) před konečnou trvalostí v databázi SQL.
Vytvoření translytického toku úloh zahrnuje tyto hlavní úlohy:
- Ukládání dat ve zdroji dat Fabric
- Vývoj funkce uživatelských dat pro zpracování akce
- Vytvoření sémantického modelu Power BI pro použití těchto dat
- Vytvoření sestavy Power BI s interaktivními prvky pro zachycení vstupu uživatele a volání funkce