Poznámka:
Přístup k této stránce vyžaduje autorizaci. Můžete se zkusit přihlásit nebo změnit adresáře.
Přístup k této stránce vyžaduje autorizaci. Můžete zkusit změnit adresáře.
Tento referenční průvodce a ukázkové scénáře vám pomůžou vybrat úložiště dat pro úlohy Microsoft Fabric, a to vše dostupné v jednotném úložišti ve OneLake.
| Ideální případ použití | Úloha Microsoft Fabric | Data dostupná ve OneLake ve výchozím nastavení ve formátu otevřené tabulky |
|---|---|---|
| Streamování dat událostí, vysoká členitost (v čase, prostoru, podrobnostech – JSON/Text) dat aktivit pro interaktivní analýzy | Eventhouse | Ano |
| AI, NoSQL a vektorové vyhledávání | Cosmos DB v prostředcích infrastruktury (Preview) | Ano |
| Provozní transakční databáze, databáze OLTP | Databáze SQL v prostředcích infrastruktury (Preview) | Ano |
| Podnikový datový sklad, SQL BI, OLAP, úplná podpora transakcí SQL | Datový sklad | Ano |
| Velké objemy dat a strojové učení, un/částečně strukturovaná data, příprava dat | Jezero | Ano |
Persony a soubory dovedností
| Úloha Microsoft Fabric | Primární osoba pro vývojáře | Primární sady dovedností, nástroje | Primární jazyky |
|---|---|---|---|
| Eventhouse | Vývojář aplikací, datový vědec, datový inženýr | Žádný kód, KQL, SQL | KQL (dotazovací jazyk Kusto), T-SQL |
| Cosmos DB v prostředcích infrastruktury (Preview) | Vývojář umělé inteligence, vývojář aplikací | Koncepty NoSQL, rozhraní REST API, podobná službě Azure Cosmos DB | Integrace rozhraní REST API prostřednictvím JavaScriptu/TypeScriptu, Pythonu, C#, Javy a dalších |
| Databáze SQL v prostředcích infrastruktury (Preview) | Vývojář AI, Vývojář aplikací, Databázový vývojář, Správce databáze | Správa a vývoj databází, podobně jako azure SQL Database, SSMS, VS Code a dotazovací nástroje kompatibilní s SQL Serverem | T-SQL |
| Datový sklad fabric | Vývojář datového skladu, datový architekt, datový inženýr, vývojář databáze | Koncepty datových skladů, návrh databáze hvězdicového schématu, SSMS, VS Code a dotazovací nástroje kompatibilní s SQL Serverem | T-SQL, žádný kód |
| Jezero | Datový inženýr, datový vědec | PySpark, Delta Lake, poznámkové bloky | Spark (Scala, PySpark, Spark SQL, R) |
Scénáře
Prohlédněte si tyto scénáře pro pomoc při výběru úložiště dat ve Fabric.
Scénář 1
Susan, profesionální vývojář, je pro Microsoft Fabric novinkou. Jsou připravení začít s čištěním, modelováním a analýzou dat, ale musí se rozhodnout vytvořit datový sklad nebo jezero. Po kontrole podrobností v předchozí tabulce jsou primární rozhodovací body dostupnou sadou dovedností a potřebou transakcí s více tabulkami.
Susan strávila mnoho let sestavováním datových skladů na relačních databázových strojích a je obeznámena se syntaxí a funkcemi SQL. Při zvažování většího týmu jsou primárními spotřebiteli těchto dat také ti, kteří mají zkušenosti s SQL a analytickými nástroji SQL. Susan se rozhodne použít sklad Fabric, který týmu umožňuje především pracovat s T-SQL, a zároveň umožňuje všem uživatelům Sparku v organizaci přístup k datům.
Susan vytvoří nový datový sklad a komunikuje s ním pomocí T-SQL stejně jako ostatní databáze SQL Serveru. Většina existujícího kódu T-SQL, který napsala pro sestavení svého skladu na SQL Serveru, bude fungovat na datovém skladu Fabric, což usnadňuje přechod. Pokud se rozhodne, může dokonce používat stejné nástroje, které fungují s ostatními databázemi, jako je SQL Server Management Studio. Pomocí editoru SQL na portálu Fabric zapisují Susan a další členové týmu analytické dotazy, které odkazují na jiné datové sklady a tabulky Delta v lakehouses, jednoduše pomocí třídílných názvů k provádění dotazů napříč databázemi.
Scénář 2
Rob, datový inženýr, potřebuje ukládat a modelovat několik terabajtů dat v Fabric. Tým má kombinaci dovedností PySpark a T-SQL. Většina týmů, na kterých běží dotazy T-SQL, jsou příjemci, a proto nemusí psát příkazy INSERT, UPDATE nebo DELETE. Zbývající vývojáři dobře pracují v poznámkových blocích a protože jsou data uložená v Delta, můžou pracovat s podobnou syntaxí SQL.
Rob se rozhodne použít lakehouse, což týmu pro přípravu dat umožňuje využívat své různorodé dovednosti při práci s daty, a zároveň umožňuje členům týmu, kteří jsou vysoce zkušení v T-SQL, pracovat s daty.
Scénář 3
Daisy je obchodní analytik zkušený s využitím Power BI k analýze kritických bodů dodavatelského řetězce pro rozsáhlý globální maloobchodní řetězec. Potřebují vytvořit škálovatelné datové řešení, které dokáže zpracovávat miliardy řádků dat a lze je použít k vytváření řídicích panelů a sestav, které je možné použít k obchodním rozhodnutím. Data pochází ze závodů, od dodavatelů, odesílatelů a dalších zdrojů v různých strukturovaných, částečně strukturovaných a nestrukturovaných formátech.
Daisy se rozhodne používat Eventhouse kvůli škálovatelnosti, rychlé době odezvy, pokročilým analytickým možnostem, včetně analýzy časových řad, geoprostorových funkcí a rychlého režimu přímého dotazu v Power BI. Dotazy je možné spouštět pomocí Power BI a KQL k porovnání mezi aktuálními a předchozími obdobími, rychle identifikovat vznikající problémy nebo poskytovat geoprostorovou analýzu vnitrozemí a námořních tras.
Scénář 4
Kirby je aplikační architekt zkušený při vývoji aplikací .NET pro provozní data. Potřebují databázi s úplným dodržováním vlastností ACID, vysokou souběžností a silně vynucenými cizími klíči pro relační integritu. Kirby chce využít výhody automatického ladění výkonu ke zjednodušení každodenní správy databází.
Kirby se rozhodne pro databázi SQL ve Fabricuse stejným SQL databázovým strojem jako Azure SQL Database. Databáze SQL v systému Fabric se automaticky škálují tak, aby splňovaly poptávku po celý pracovní den. Mají plnou funkčnost transakčních tabulek a flexibilitu úrovní izolace transakcí od serializovatelného až po potvrzené snímkové čtení. Databáze SQL ve Fabricu automaticky vytváří a zahodí neclusterované indexy na základě silných signálů z prováděcích plánů pozorovaných v průběhu času.
Ve scénáři Kirbyho musí být data z provozní aplikace spojena s dalšími daty ve Fabric: ve Sparku, ve skladu a z událostí v reálném čase v Eventhouse. Každá databáze Fabric obsahuje koncový bod analýzy SQL, což umožňuje přístup k datům v reálném čase ze Sparku nebo prostřednictvím dotazů Power BI s použitím režimu DirectLake. Tato řešení pro sestavy chrání primární provozní databázi před zátěží způsobenou analytickými úlohami a vyhýbají se denormalizaci. Kirby má také existující provozní data v jiných databázích SQL a potřebuje je importovat bez transformace. Pokud chcete importovat existující provozní data bez převodu datového typu, Kirby navrhne kanály se službou Fabric Data Factory pro import dat do databáze Fabric SQL.