Modernt informationslager för små och medelstora företag

Azure Data Lake
Azure SQL Database
Azure Synapse Analytics
Dynamics 365
Microsoft Power Platform

I det här exemplet visar arbetsbelastningen flera sätt som småföretag kan modernisera äldre datalager och utforska verktyg och funktioner för stordata, utan att överskrida aktuella budgetar och kompetensuppsättningar. Dessa azure-datalagerlösningar från slutpunkt till slutpunkt integreras enkelt med verktyg som Azure Machine Learning, Microsoft Power Platform, Microsoft Dynamics och andra Microsoft-tekniker.

Arkitektur

Diagram that shows how SMBs can modernize legacy data stores.

Ladda ned en Visio-fil med den här arkitekturen.

Äldre SMB-informationslager kan innehålla flera typer av data:

  • Ostrukturerade data, till exempel dokument och grafik
  • Halvstrukturerade data, till exempel loggar, CSV:er, JSON- och XML-filer
  • Strukturerade relationsdata, inklusive databaser som använder lagrade procedurer för ETL-/ELT-aktiviteter (extract-transform-load/load-transform)

Dataflöde

Följande dataflöde visar inmatningen av den valda datatypen:

  1. Azure Synapse Analytics-pipelines matar in äldre informationslager i Azure.

    • Pipelines samordnar flödet av migrerade eller delvis omstrukturerade äldre databaser och SSIS-paket till Azure SQL Database. Den här lift-and-shift-metoden är snabbast att implementera och erbjuder en smidig övergång från en lokal SQL-lösning till en eventuell Azure-plattform som en tjänst (PaaS). Du kan modernisera databaser stegvis efter lift and shift.

    • Pipelines kan också skicka ostrukturerade, halvstrukturerade och strukturerade data till Azure Data Lake Storage för centraliserad lagring och analys med andra källor. Använd den här metoden när du samlar in data ger större affärsfördelar än att bara formatera om data.

  2. Microsoft Dynamics-datakällor kan användas för att skapa centraliserade BI-instrumentpaneler på förhöjda datauppsättningar med hjälp av Synapse Serverless-analysverktyg. Du kan föra tillbaka de sammansvetsade, bearbetade data till Dynamics och Power BI för ytterligare analys.

  3. Realtidsdata från strömmande källor kan också komma in i systemet via Azure Event Hubs. För kunder med krav på instrumentpaneler i realtid kan Azure Stream Analytics analysera dessa data omedelbart.

  4. Data kan också ange den centraliserade Data Lake för ytterligare analys, lagring och rapportering.

  5. Serverlösa analysverktyg är tillgängliga på Azure Synapse Analytics-arbetsytan. Dessa verktyg använder serverlös SQL-pool eller Apache Spark-beräkningsfunktioner för att bearbeta data i Data Lake Storage Gen2. Serverlösa pooler är tillgängliga på begäran och kräver inga etablerade resurser.

    Serverlösa pooler är idealiska för:

    • Ad hoc-data science-utforskningar i T-SQL-format.
    • Tidiga prototyper för informationslagerentiteter.
    • Definiera vyer som konsumenter kan använda, till exempel i Power BI, för scenarier som kan tolerera prestandafördröjning.

Azure Synapse är nära integrerat med potentiella konsumenter av dina sammansvetsade datamängder, till exempel Azure Machine Learning. Andra konsumenter kan vara Power Apps, Azure Logic Apps, Azure Functions-appar och Azure App Service-webbappar.

Komponenter

  • Azure Synapse Analytics är en analystjänst som kombinerar dataintegrering, lagring av företagsdata och stordataanalys. I den här lösningen:

  • Azure SQL Database är en intelligent, skalbar relationsdatabastjänst som skapats för molnet. I den här lösningen innehåller SQL Database företagets informationslager och utför ETL/ELT-aktiviteter som använder lagrade procedurer.

  • Azure Event Hubs är en plattform för dataströmning i realtid och händelseinmatningstjänst. Event Hubs kan mata in data var som helst och integreras sömlöst med Azure-datatjänster.

  • Azure Stream Analytics är en serverlös analystjänst i realtid för strömmande data. Stream Analytics erbjuder snabb, elastisk skalbarhet, tillförlitlighet och återställning i företagsklass samt inbyggda maskininlärningsfunktioner.

  • Azure Machine Learning är en verktygsuppsättning för utveckling av datavetenskapsmodeller och livscykelhantering. Machine Learning är ett exempel på Azure och Microsoft-tjänster som kan använda sammansvetsade, bearbetade data från Data Lake Storage Gen2.

Alternativ

  • Azure IoT Hub kan ersätta eller komplettera Event Hubs. Vilken lösning du väljer beror på källan till dina strömmande data och om du behöver kloning och dubbelriktad kommunikation med rapporteringsenheterna.

  • Du kan använda Azure Data Factory för dataintegrering i stället för Azure Synapse-pipelines. Valet beror på flera faktorer:

    • Azure Synapse-pipelines gör lösningsdesignen enklare och tillåter samarbete i en enda Azure Synapse-arbetsyta.
    • Azure Synapse-pipelines har inte stöd för SSIS-paket som är tillgängliga i Azure Data Factory.
    • Synapse Monitor Hub övervakar Azure Synapse-pipelines, medan Azure Monitor kan övervaka Data Factory.

    Mer information och en funktionsjämförelse mellan Azure Synapse-pipelines och Data Factory finns i Dataintegrering i Azure Synapse Analytics jämfört med Azure Data Factory.

  • Du kan använda synapse Analytics-dedikerade SQL-pooler för att lagra företagsdata i stället för att använda SQL Database. Granska användningsfallen och övervägandena i den här artikeln och relaterade resurser för att fatta ett beslut.

Information om scenario

Små och medelstora företag står inför ett val när de moderniserar sina lokala informationslager för molnet. De kan använda stordataverktyg för framtida utökningsbarhet eller behålla traditionella, SQL-baserade lösningar för kostnadseffektivitet, enkelt underhåll och smidig övergång.

En hybridmetod kombinerar dock enkel migrering av den befintliga dataegendomen med möjlighet att lägga till stordataverktyg och processer för vissa användningsfall. SQL-baserade datakällor kan fortsätta att köras i molnet och fortsätta att moderniseras efter behov.

I det här exemplet visar arbetsbelastningen flera sätt som små och medelstora företag kan modernisera äldre datalager och utforska verktyg och funktioner för stordata, utan att överskrida aktuella budgetar och kompetensuppsättningar. Dessa azure-datalagerlösningar från slutpunkt till slutpunkt integreras enkelt med Azure och Microsoft-tjänster och verktyg som Azure Machine Learning, Microsoft Power Platform och Microsoft Dynamics.

Potentiella användningsfall

Flera scenarier kan dra nytta av den här arbetsbelastningen:

  • Migrera ett traditionellt, lokalt relationsdatalager som är mindre än 1 TB och som i stor utsträckning använder SSIS-paket (SQL Server Integration Services) för att orkestrera lagrade procedurer.

  • Koppla ihop befintliga Dynamics- eller Power Platform Dataverse-data med batchbaserade och realtidsbaserade Azure Data Lake-källor.

  • Använda innovativa tekniker för att interagera med centraliserade Data Lake Storage Gen2-data. Tekniker omfattar serverlös analys, kunskapsutvinning, datafusion mellan domäner och utforskning av slutanvändardata.

  • Konfigurera e-handelsföretag att införa ett informationslager för att optimera sin verksamhet.

Den här lösningen rekommenderas inte för:

  • Greenfield-distribution av informationslager som uppskattas till > 1 TB inom ett år.

  • Migrera lokala informationslager som är > 1 TB eller som beräknas växa till den storleken inom ett år.

Att tänka på

Dessa överväganden implementerar grundpelarna i Azure Well-Architected Framework, som är en uppsättning vägledande grundsatser som kan användas för att förbättra kvaliteten på en arbetsbelastning. Mer information finns i Microsoft Azure Well-Architected Framework.

Följande överväganden gäller för det här scenariot.

Tillgänglighet

SQL Database är en PaaS-tjänst som kan uppfylla dina krav på hög tillgänglighet (HA) och haveriberedskap (DR). Se till att välja den SKU som uppfyller dina krav. Vägledning finns i Hög tillgänglighet för Azure SQL Database.

Operations

SQL Database använder SQL Server Management Studio (SSMS) för att utveckla och underhålla äldre artefakter som lagrade procedurer.

Kostnadsoptimering

Kostnadsoptimering handlar om att titta på sätt att minska onödiga utgifter och förbättra drifteffektiviteten. Mer information finns i Översikt över kostnadsoptimeringspelare.

Se ett prisexempel för ett SMB-datalagerscenario i Priskalkylatorn för Azure. Justera värdena för att se hur dina krav påverkar kostnaderna.

  • SQL Database baserar kostnader på de valda nivåerna Compute och Service och antalet virtuella kärnor och databastransaktionsenheter (DTU:er). Exemplet visar en enskild databas med etablerad beräkning och åtta virtuella kärnor, baserat på antagandet att du behöver köra lagrade procedurer i SQL Database.

  • Prissättningen för Data Lake Storage Gen2 beror på hur mycket data du lagrar och hur ofta du använder data. Exempelpriset innehåller 1 TB lagrade data, med ytterligare transaktionsantaganden. 1 TB avser storleken på datasjön, inte den ursprungliga äldre databasstorleken.

  • Azure Synapse-pipelines baserar kostnader på antalet datapipelineaktiviteter, integrationskörningstimmar, storlek på dataflödeskluster samt körnings- och åtgärdsavgifter. Pipelinekostnaderna ökar med ytterligare datakällor och datamängder som bearbetas. Exemplet förutsätter att en datakälla batchas varje timme i 15 minuter på en Azure-värdbaserad integrationskörning.

  • Azure Synapse Spark-poolpriser baseras på nodstorlek, antal instanser och drifttid. Exemplet förutsätter en liten beräkningsnod med fem timmar i veckan till 40 timmar per månad.

  • Azure Synapse serverlös SQL-pool baserar prissättningen på TB för data som bearbetas. Exemplet förutsätter att 50 TB bearbetas per månad. Den här bilden refererar till storleken på datasjön, inte den ursprungliga äldre databasstorleken.

  • Event Hubs-fakturor baserat på nivå, dataflödesenheter som etablerats och inkommande trafik som tagits emot. Exemplet förutsätter en dataflödesenhet på standardnivån över en miljon händelser under en månad.

  • Stream Analytics baserar kostnader på antalet etablerade strömningsenheter. Exemplet förutsätter att en strömningsenhet används under månaden.

Deltagare

Den här artikeln uppdateras och underhålls av Microsoft. Det har ursprungligen skrivits av följande medarbetare.

Huvudförfattare:

  • Galina Polyakova | Senior Cloud Solution Architect

Nästa steg