Azure Synapse Analytics gebruiken om een enterprise BI-oplossing te ontwerpen
In dit artikel wordt beschreven hoe u gegevens overdraagt van een on-premises datawarehouse naar een cloudomgeving en vervolgens een BI-model (Business Intelligence) gebruikt om de gegevens te verwerken. U kunt deze benadering gebruiken als een einddoel of een eerste stap voor volledige modernisering met cloudonderdelen.
Deze richtlijnen zijn gebaseerd op het end-to-end scenario van Azure Synapse Analytics. Dit proces maakt gebruik van Azure Synapse Analytics-pijplijnen voor het opnemen van gegevens uit een SQL-database in SQL-pools. Vervolgens wordt gegevenstransformatie uitgevoerd voor analyse. Dit artikel is gericht op Azure Synapse Analytics-pijplijnen, maar u kunt ook Azure Data Factory-pijplijnen of Fabric Data Factory-pijplijnen gebruiken om deze taken uit te voeren.
Wanneer u deze architectuur gebruikt
U kunt verschillende methoden gebruiken om te voldoen aan de bedrijfsvereisten voor enterprise BI. Verschillende aspecten definiëren bedrijfsvereisten, zoals huidige technologische investeringen, menselijke vaardigheden, de tijdlijn voor modernisering, toekomstige doelstellingen en of u een voorkeur hebt voor Platform as a Service (PaaS) of SaaS (Software as a Service).
Houd rekening met de volgende ontwerpmethoden:
Fabric en Azure Databricks- voor klanten die al investeren in Azure Databricks en Power BI en die infrastructuur willen moderniseren
Enterprise BI voor kleine en middelgrote bedrijven die gebruikmaken van een Azure SQL-ecosysteem en Fabric-
Datawarehousing volledig op Fabric voor klanten die de voorkeur geven aan SaaS
In de architectuur in dit artikel wordt ervan uitgegaan dat u Azure Synapse Analytics-datawarehouse gebruikt als de permanente laag van het semantische bedrijfsmodel en dat u Power BI gebruikt voor business intelligence. Deze PaaS-benadering heeft de flexibiliteit om tegemoet te komen aan verschillende zakelijke vereisten en voorkeuren.
Architectuur
Een Visio-bestand van deze architectuur downloaden.
Werkproces
Gegevensbron
- Een SQL Server-database in Azure bevat de brongegevens. Als u de on-premises omgeving wilt simuleren, configureert u implementatiescripts voor dit scenario een Azure SQL-database. De AdventureWorks-voorbeelddatabase wordt gebruikt als het brongegevensschema en voorbeeldgegevens. Zie Gegevens kopiëren en transformeren van en naar SQL Servervoor meer informatie.
Opname en gegevensopslag
Azure Data Lake Storage- is een tijdelijk faseringsgebied tijdens het opnemen van gegevens. U kunt PolyBase gebruiken om gegevens te kopiëren naar een toegewezen SQL-pool van Azure Synapse Analytics.
Azure Synapse Analytics- is een gedistribueerd systeem waarmee analyses worden uitgevoerd op grote gegevens. Het biedt ondersteuning voor enorme parallelle verwerking, zodat er analyses met hoge prestaties kunnen worden uitgevoerd. De toegewezen SQL-pool van Azure Synapse Analytics is een doel voor continue opname vanuit de on-premises omgeving. De SQL-pool kan gegevens leveren aan Power BI- via DirectQuery en verdere verwerking uitvoeren.
Azure Synapse Analytics-pijplijnen het opnemen en transformeren van gegevens in de Azure Synapse Analytics-werkruimte organiseren.
Analyse en rapportage
- De benadering voor gegevensmodellering in dit scenario combineert het enterprise-model en het semantische BI-model. De toegewezen SQL-pool van Azure Synapse Analytics bevat het bedrijfsmodel. Power BI Premium-capaciteit F64- het semantische BI-model bevat. Power BI heeft toegang tot de gegevens via DirectQuery.
Onderdelen
In dit scenario worden de volgende onderdelen gebruikt:
Azure SQL Database- is een Door Azure gehoste PaaS SQL-server. Deze architectuur maakt gebruik van SQL Database om de gegevensstroom voor het migratiescenario te demonstreren.
Data Lake Storage- biedt flexibele cloudopslag voor ongestructureerde gegevens die worden gebruikt voor het behouden van tussenliggende migratieresultaten.
Azure Synapse Analytics- is een zakelijke analyseservice voor datawarehousing en big data-systemen. Azure Synapse Analytics fungeert als hoofd- en permanente opslag in semantische modellering en onderhoud van ondernemingen.
Power BI Premium- is een BI-hulpprogramma waarmee gegevens in dit scenario worden gepresenteerd en gevisualiseerd.
Microsoft Entra ID is een suite voor identiteits- en netwerkoplossingen met meerdere clouds die ondersteuning biedt voor de verificatie- en autorisatiestroom.
Vereenvoudigde architectuur
Scenariodetails
In dit scenario heeft een organisatie een SQL-database die een groot on-premises datawarehouse bevat. De organisatie wil Azure Synapse Analytics gebruiken om analyses uit te voeren en deze inzichten vervolgens via Power BI te leveren aan gebruikers en analyses.
Verificatie
Microsoft Entra ID verifieert gebruikers die verbinding maken met Power BI-dashboards en -apps. Eenmalige aanmelding verbindt gebruikers met de gegevensbron in een ingerichte pool van Azure Synapse Analytics. Autorisatie vindt plaats op de bron.
Incrementeel laden
Wanneer u een geautomatiseerd etl-proces (extract, transform, load, load, transform) uitvoert, moet u alleen de gegevens laden die zijn gewijzigd sinds de vorige uitvoering. Dit proces wordt een incrementele belastinggenoemd. Omgekeerd worden bij een volledige belasting alle gegevens geladen. Als u een incrementele belasting wilt uitvoeren, bepaalt u hoe u de gewijzigde gegevens identificeert. U kunt een hoge watermarkering gebruiken waardebenadering, waarmee de meest recente waarde van een datum-/tijdkolom of een unieke geheel getalkolom in de brontabel wordt bijgehouden.
U kunt tijdelijke tabellen in SQL Server gebruiken. Tijdelijke tabellen zijn systeemversietabellen waarmee de geschiedenis van gegevenswijziging wordt opgeslagen. De database-engine registreert automatisch de geschiedenis van elke wijziging in een afzonderlijke geschiedenistabel. Als u een query wilt uitvoeren op de historische gegevens, kunt u een FOR SYSTEM_TIME
-component toevoegen aan een query. Intern voert de database-engine een query uit op de geschiedenistabel, maar deze is transparant voor de toepassing.
Tijdelijke tabellen ondersteunen dimensiegegevens, die na verloop van tijd kunnen worden gewijzigd. Feitentabellen vertegenwoordigen meestal een onveranderbare transactie, zoals een verkoop, waarbij het bewaren van de systeemversiegeschiedenis niet zinvol is. In plaats daarvan hebben transacties meestal een kolom die de transactiedatum vertegenwoordigt. De kolom kan worden gebruikt als de grenswaarde. In het DataWarehouse AdventureWorks hebben de SalesLT.*
tabellen bijvoorbeeld een LastModified
veld.
Dit is de algemene stroom voor de ELT-pijplijn:
Houd voor elke tabel in de brondatabase de cutoff-tijd bij waarop de laatste ELT-taak is uitgevoerd. Sla deze informatie op in het datawarehouse. Bij de eerste installatie worden alle tijden ingesteld op
1-1-1900
.Tijdens de gegevensexportstap wordt de cutoff-tijd doorgegeven als een parameter aan een set opgeslagen procedures in de brondatabase. Met deze opgeslagen procedures worden records opgeslagen die na de cutoff-tijd worden gewijzigd of gemaakt. Voor alle tabellen in het voorbeeld kunt u de
ModifiedDate
kolom gebruiken.Wanneer de gegevensmigratie is voltooid, werkt u de tabel bij waarin de afsluittijden worden opgeslagen.
Gegevenspijplijn
In dit scenario wordt de AdventureWorks-voorbeelddatabase gebruikt als gegevensbron. Het patroon voor incrementele gegevensbelasting zorgt ervoor dat alleen gegevens die worden gewijzigd of toegevoegd nadat de meest recente pijplijnuitvoering is geladen.
Hulpprogramma voor kopiëren op basis van metagegevens
Met het ingebouwde hulpprogramma voor metagegevensgestuurde kopieerbewerking in Azure Synapse Analytics-pijplijnen worden alle tabellen die zich in de relationele database bevinden, stapsgewijs geladen.
Gebruik een wizardinterface om het hulpprogramma Gegevens kopiëren te verbinden met de brondatabase.
Nadat de verbinding is gemaakt, configureert u incrementeel laden of volledig laden voor elke tabel.
Het hulpprogramma Copy Data maakt de pijplijnen en SQL-scripts die nodig zijn om de besturingstabel te genereren. In deze tabel worden gegevens opgeslagen, zoals de hoge grenswaarde of kolom voor elke tabel, voor het incrementele laadproces.
Nadat deze scripts zijn uitgevoerd, laadt de pijplijn alle brondatawarehousetabellen in de toegewezen pool van Azure Synapse Analytics.
Voordat het hulpprogramma de gegevens laadt, worden er drie pijplijnen gemaakt om de tabellen in de database te herhalen.
De pijplijnen voeren de volgende taken uit:
Tel het aantal objecten, zoals tabellen, dat moet worden gekopieerd in de pijplijnuitvoering.
Herhalen over elk object dat moet worden geladen of gekopieerd.
Nadat een pijplijn over elk object is herhaald, worden de volgende taken uitgevoerd:
Controleert of een deltabelasting vereist is. Anders voltooit de pijplijn een normale volledige belasting.
Haalt de hoge grenswaarde op uit de besturingstabel.
Kopieert gegevens uit de brontabellen naar het faseringsaccount in Data Lake Storage.
Laadt gegevens in de toegewezen SQL-pool via de geselecteerde kopieermethode, zoals de opdracht PolyBase of Kopiëren.
Hiermee werkt u de hoge grenswaarde in de besturingstabel bij.
Gegevens laden in een Azure Synapse Analytics SQL-pool
De kopieeractiviteit gegevens uit de SQL-database kopieert naar de Azure Synapse Analytics SQL-pool. De SQL-database van dit voorbeeld bevindt zich in Azure, dus wordt de Azure Integration Runtime gebruikt om gegevens uit de SQL-database te lezen en de gegevens naar de opgegeven faseringsomgeving te schrijven.
Met de kopieerinstructie worden vervolgens gegevens uit de faseringsomgeving in de toegewezen Pool van Azure Synapse Analytics geladen.
Azure Synapse Analytics-pijplijnen gebruiken
Pijplijnen in Azure Synapse Analytics definiëren een geordende set activiteiten om een incrementeel belastingspatroon te voltooien. Handmatige of automatische triggers starten de pijplijn.
De gegevens transformeren
De voorbeelddatabase in deze referentiearchitectuur is klein, dus gerepliceerde tabellen met geen partities worden gemaakt. Voor productieworkloads kunnen gedistribueerde tabellen de queryprestaties verbeteren. Zie Richtlijnen voor het ontwerpen van gedistribueerde tabellen in Azure Synapse Analyticsvoor meer informatie. Met de voorbeeldscripts worden de query's uitgevoerd via een statische resourceklasse.
Overweeg in een productieomgeving faseringstabellen te maken met round robin-distributie. Transformeer en verplaats de gegevens vervolgens naar productietabellen met geclusterde columnstore-indexen, die de beste algehele queryprestaties bieden. Columnstore-indexen zijn geoptimaliseerd voor query's die veel records scannen.
Columnstore-indexen presteren niet optimaal voor singleton-zoekacties of het opzoeken van één rij. Als u regelmatig singletonzoekacties moet uitvoeren, kunt u een niet-geclusterde index toevoegen aan een tabel, waardoor de snelheid toeneemt. Singleton-zoekopdrachten zijn echter doorgaans minder gebruikelijk in datawarehouse-scenario's dan werkbelastingen voor onlinetransactieverwerking. Zie Indextabellen in Azure Synapse Analyticsvoor meer informatie.
Notitie
Geclusterde columnstore-tabellen ondersteunen varchar(max)
geen gegevenstypen.nvarchar(max)
varbinary(max)
Als u deze gegevenstypen gebruikt, kunt u een heap- of geclusterde index overwegen. U kunt deze kolommen ook in een afzonderlijke tabel plaatsen.
Power BI Premium gebruiken om gegevens te openen, te modelleren en te visualiseren
Power BI Premium ondersteunt verschillende opties om verbinding te maken met gegevensbronnen in Azure. U kunt ingerichte pools van Azure Synapse Analytics gebruiken om de volgende taken uit te voeren:
- Importeren: de gegevens worden geïmporteerd in het Power BI-model.
- DirectQuery: gegevens worden rechtstreeks opgehaald uit relationele opslag.
- Samengesteld model: Import combineren voor sommige tabellen en DirectQuery voor anderen.
In dit scenario wordt het DirectQuery-dashboard gebruikt omdat het een kleine hoeveelheid gegevens en een lage modelcomplexiteit heeft. DirectQuery delegeert de query naar de krachtige rekenengine eronder en maakt gebruik van uitgebreide beveiligingsmogelijkheden op de bron. DirectQuery zorgt ervoor dat de resultaten altijd consistent zijn met de meest recente brongegevens.
De importmodus biedt de snelste reactietijd voor query's. Overweeg de importmodus als:
- Het model past volledig in het geheugen van Power BI.
- De gegevenslatentie tussen vernieuwingen is acceptabel.
- U hebt complexe transformaties tussen het bronsysteem en het uiteindelijke model nodig.
In dit geval willen de eindgebruikers volledige toegang tot de meest recente gegevens zonder vertragingen bij het vernieuwen van Power BI en willen ze alle historische gegevens, die de capaciteit van de Power BI-gegevensset overschrijden. Een Power BI-gegevensset kan 25-400 GB verwerken, afhankelijk van de capaciteitsgrootte. Het gegevensmodel in de toegewezen SQL-pool bevindt zich al in een stervormig schema en vereist geen transformatie, dus DirectQuery is een geschikte keuze.
Gebruik Power BI Premium- om grote modellen, gepagineerde rapporten en implementatiepijplijnen te beheren. Profiteer van het ingebouwde Azure Analysis Services-eindpunt. U kunt ook toegewezen capaciteit hebben met een unieke waardepropositie.
Wanneer het BI-model groeit of de complexiteit van het dashboard toeneemt, kunt u overschakelen naar samengestelde modellen en delen van opzoektabellen importeren via hybride tabellenen vooraf samengevoegde gegevens importeren. U kunt querycache inschakelen in Power BI voor geïmporteerde gegevenssets en dubbele tabellen gebruiken voor de eigenschap opslagmodus.
Binnen het samengestelde model fungeren gegevenssets als een virtuele passthrough-laag. Wanneer gebruikers interactie hebben met visualisaties, genereert Power BI SQL-query's naar Azure Synapse Analytics SQL-pools. Power BI bepaalt of in-memory of DirectQuery-opslag moet worden gebruikt op basis van efficiëntie. De engine bepaalt wanneer u wilt overschakelen van in-memory naar DirectQuery en de logica naar de Azure Synapse Analytics SQL-pool pusht. Afhankelijk van de context van de querytabellen kunnen ze fungeren als in de cache opgeslagen (geïmporteerd) of niet-in de cache opgeslagen samengestelde modellen. U kunt kiezen welke tabel u in het geheugen wilt opslaan, gegevens uit een of meer DirectQuery-bronnen wilt combineren of DirectQuery-brongegevens en geïmporteerde gegevens wilt combineren.
Wanneer u DirectQuery gebruikt met een ingerichte pool van Azure Synapse Analytics:
Gebruik Azure Synapse Analytics resultatenset caching om queryresultaten in de cache op te nemen in de gebruikersdatabase voor terugkerend gebruik. Deze benadering verbetert de queryprestaties tot milliseconden en vermindert het rekenresourcegebruik. Query's die gebruikmaken van in de cache opgeslagen resultatensets verbruiken geen gelijktijdigheidssleuven in Azure Synapse Analytics, dus ze tellen niet mee op basis van bestaande gelijktijdigheidslimieten.
Gebruik Azure Synapse Analytics gerealiseerde weergaven om gegevens zoals een tabel vooraf te compileren, op te slaan en te onderhouden. Query's die gebruikmaken van alle gegevens of een subset van de gegevens in gerealiseerde weergaven, kunnen sneller presteren zonder rechtstreeks naar de gedefinieerde gerealiseerde weergave te hoeven verwijzen om deze te gebruiken.
Overwegingen
Met deze overwegingen worden de pijlers van het Azure Well-Architected Framework geïmplementeerd. Dit is een set richtlijnen die u kunt gebruiken om de kwaliteit van een workload te verbeteren. Zie Well-Architected Frameworkvoor meer informatie.
Beveiliging
Beveiliging biedt garanties tegen opzettelijke aanvallen en misbruik van uw waardevolle gegevens en systemen. Zie voor meer informatie controlelijst ontwerpbeoordeling voor Security.
Cloudmodernisatie introduceert beveiligingsproblemen, zoals gegevensschendingen, malware-infecties en schadelijke code-injectie. U hebt een cloudprovider of serviceoplossing nodig die uw zorgen kan oplossen omdat ontoereikende beveiligingsmaatregelen grote problemen kunnen veroorzaken.
In dit scenario worden de meest veeleisende beveiligingsproblemen aangepakt met behulp van een combinatie van gelaagde beveiligingscontroles: netwerk-, identiteits-, privacy- en autorisatiecontroles. In een ingerichte Pool van Azure Synapse Analytics worden de meeste gegevens opgeslagen. Power BI opent de gegevens via DirectQuery via eenmalige aanmelding. U kunt De Microsoft Entra-id gebruiken voor verificatie. Er zijn ook uitgebreide beveiligingscontroles voor gegevensautorisatie binnen de ingerichte pools.
Enkele veelvoorkomende beveiligingsvragen zijn onder meer:
Definieer wie welke gegevens kunnen zien.
- Zorg ervoor dat uw gegevens voldoen aan de federale, lokale en bedrijfsrichtlijnen om risico's voor gegevenslekken te beperken. Azure Synapse Analytics biedt meerdere mogelijkheden voor gegevensbeveiliging om naleving te bereiken.
Bepaal hoe u de identiteit van een gebruiker controleert.
- Gebruik Azure Synapse Analytics om te bepalen wie toegang heeft tot welke gegevens via toegangsbeheer en verificatie.
Kies een netwerkbeveiligingstechnologie om de integriteit, vertrouwelijkheid en toegang tot uw netwerken en gegevens te beschermen.
- Help Azure Synapse Analytics te beveiligen met behulp van opties voor netwerkbeveiliging.
Kies hulpprogramma's om bedreigingen te detecteren en op de hoogte te stellen.
- Gebruik Azure Synapse Analytics bedreigingsdetectie mogelijkheden, zoals SQL-controle, SQL-bedreigingsdetectie en evaluatie van beveiligingsproblemen om databases te controleren, te beveiligen en te bewaken.
Bepaal hoe u gegevens in uw opslagaccount beveiligt.
- Gebruik Azure Storage-accounts voor workloads die snelle en consistente reactietijden vereisen of die een groot aantal IOPS (Input/Output Operations) per seconde hebben. Opslagaccounts kunnen al uw gegevensobjecten opslaan en verschillende beveiligingsopties voor opslagaccounts hebben.
Kostenoptimalisatie
Kostenoptimalisatie richt zich op manieren om onnodige uitgaven te verminderen en operationele efficiëntie te verbeteren. Zie controlelijst ontwerpbeoordeling voor kostenoptimalisatievoor meer informatie.
Deze sectie bevat informatie over prijzen voor verschillende services die betrokken zijn bij deze oplossing en vermeldt beslissingen voor dit scenario met een voorbeeldgegevensset. Gebruik deze beginconfiguratie in de Azure-prijscalculatoren pas deze aan zodat deze past bij uw scenario.
Azure Synapse Analytics
Azure Synapse Analytics is een serverloze architectuur die u kunt gebruiken om uw reken- en opslagniveaus onafhankelijk te schalen. Rekenresources kosten op basis van gebruik. U kunt deze resources op aanvraag schalen of onderbreken. Voor opslagbronnen worden kosten per terabyte in rekening gebracht, zodat uw kosten toenemen wanneer u gegevens opneemt.
Azure Synapse Analytics-pijplijnen
Drie hoofdonderdelen beïnvloeden de prijs van een pijplijn:
- Activiteiten voor gegevenspijplijnen en runtime-uren voor integratie
- Clustergrootte en implementatie van gegevensstromen
- Kosten van bewerkingen
Zie het tabblad Data Integration op prijzen van Azure Synapse Analyticsvoor prijsinformatie.
De prijs is afhankelijk van onderdelen of activiteiten, frequentie en het aantal integratieruntime-eenheden.
Voor de voorbeeldgegevensset, die gebruikmaakt van de standaard door Azure gehoste Integration Runtime, gegevensactiviteit kopiëren fungeert als de kern van de pijplijn. Het wordt uitgevoerd volgens een dagelijks schema voor alle entiteiten (tabellen) in de brondatabase. Het scenario bevat geen gegevensstromen. En er worden geen operationele kosten in rekening gebracht omdat de pijplijnen minder dan één miljoen bewerkingen per maand uitvoeren.
Toegewezen pool en opslag van Azure Synapse Analytics
Voor de voorbeeldgegevensset kunt u 500 datawarehouse-eenheden (DWU's) inrichten om een soepele ervaring te bieden voor analytische belastingen. U kunt berekeningen tijdens kantooruren onderhouden voor rapportagedoeleinden. Als de oplossing naar productie gaat, gebruikt u gereserveerde datawarehousecapaciteit als een kostenefficiënte strategie. Gebruik verschillende technieken om metrische gegevens over kosten en prestaties te maximaliseren.
Zie het tabblad Data Warehouse op Azure Synapse Analytics-prijzenvoor prijsinformatie voor een toegewezen Azure Synapse Analytics-pool. Onder het toegewezen verbruiksmodel worden voor klanten kosten in rekening gebracht voor elke ingerichte DWU, per uur van uptime. Overweeg ook de kosten voor gegevensopslag, waaronder de grootte van uw data-at-rest, momentopnamen en geo-redundantie.
Blob-opslag
Overweeg het gebruik van gereserveerde Azure Storage-capaciteit om de opslagkosten te verlagen. Met dit model krijgt u korting als u een vaste opslagcapaciteit reserveert voor een of drie jaar. Zie Kosten voor blobopslag optimaliseren met gereserveerde capaciteitvoor meer informatie. In dit scenario wordt geen permanente opslag gebruikt.
Power BI Premium
In dit scenario wordt gebruikgemaakt van Power BI Premium-werkruimten met ingebouwde prestatieverbeteringen om tegemoet te komen aan veeleisende analytische behoeften.
Zie Prijzen voor Power BIvoor meer informatie.
Operationele uitmuntendheid
Operational Excellence behandelt de operationele processen die een toepassing implementeren en deze in productie houden. Zie controlelijst ontwerpbeoordeling voor Operational Excellencevoor meer informatie.
Gebruik een Azure DevOps-releasepijplijn en GitHub Actions om de implementatie van een Azure Synapse Analytics-werkruimte in meerdere omgevingen te automatiseren. Zie Continue integratie en continue levering voor een Azure Synapse Analytics-werkruimtevoor meer informatie.
Plaats elke workload in een afzonderlijke implementatiesjabloon en sla de resources op in broncodebeheersystemen. U kunt de sjablonen samen of afzonderlijk implementeren als onderdeel van een CI/CD-proces (continue integratie en continue levering). Deze aanpak vereenvoudigt het automatiseringsproces. Deze architectuur heeft vier hoofdworkloads:
- De datawarehouse-server en gerelateerde resources
- Azure Synapse Analytics-pijplijnen
- Power BI-assets, waaronder dashboards, apps en gegevenssets
- Een gesimuleerd on-premises scenario voor cloud
Overweeg om uw workloads te faseren, waar praktisch. Implementeer uw workload in verschillende fasen. Voer validatiecontroles uit in elke fase voordat u naar de volgende fase gaat. Deze aanpak pusht updates naar uw productieomgevingen op een gecontroleerde manier en minimaliseert onverwachte implementatieproblemen. Gebruik blauwgroene implementatie en canary release strategieën om live productieomgevingen bij te werken.
Gebruik een strategie voor terugdraaien om mislukte implementaties af te handelen. U kunt bijvoorbeeld automatisch een eerdere, geslaagde implementatie opnieuw implementeren vanuit uw implementatiegeschiedenis. Gebruik de vlag
--rollback-on-error
in de Azure CLI.Gebruik Azure Monitor- om de prestaties van uw datawarehouse en het volledige Azure Analytics-platform te analyseren voor een geïntegreerde bewakingservaring. Azure Synapse Analytics biedt een bewakingservaring in Azure Portal om inzicht te krijgen in uw datawarehouse-workload. Gebruik Azure Portal om uw datawarehouse te bewaken. Het biedt configureerbare bewaarperioden, waarschuwingen, aanbevelingen en aanpasbare grafieken en dashboards voor metrische gegevens en logboeken.
Zie de volgende bronnen voor meer informatie:
- Zelfstudie: Aan de slag met Azure Synapse Analytics
- Een Azure Synapse Analytics-werkruimte maken met behulp van de Azure CLI-
Prestatie-efficiëntie
Prestatie-efficiëntie verwijst naar de mogelijkheid van uw workload om efficiënt te voldoen aan de behoeften van de gebruiker. Zie controlelijst ontwerpbeoordeling voor prestatie-efficiëntievoor meer informatie.
In deze sectie vindt u informatie over het bepalen van de grootte van beslissingen voor deze gegevensset.
Ingerichte pool van Azure Synapse Analytics
U kunt verschillende datawarehouse-configuratiesgebruiken.
DWU's | Aantal rekenknooppunten | Aantal distributies per knooppunt |
---|---|---|
DW100c | 1 | 60 |
-- TO -- |
||
DW30000c | 60 | 1 |
Als u de prestatievoordelen van uitschalen wilt zien, met name voor grotere DWU's, gebruikt u ten minste een gegevensset van 1 TB. Als u het beste aantal DWU's voor uw toegewezen SQL-pool wilt vinden, kunt u omhoog en omlaag schalen. Voer query's uit met verschillende aantallen DWU's nadat u uw gegevens hebt geladen. Schalen is snel, zodat u eenvoudig kunt experimenteren met verschillende prestatieniveaus.
Het beste aantal DWU's zoeken
Voor een toegewezen SQL-pool in ontwikkeling selecteert u een klein aantal DWU's als uitgangspunt, zoals DW400c- of DW200c-. Bewaak de prestaties van uw toepassing voor elk aantal DWU's. Stel een lineaire schaal in en bepaal hoeveel u nodig hebt om de DWU's te verhogen of te verlagen. Ga door met het aanbrengen van aanpassingen totdat u een optimaal prestatieniveau voor uw bedrijfsvereisten bereikt.
Een Azure Synapse Analytics SQL-pool schalen
Zie Kopieeractiviteitenprestaties en schaalbaarheidshandleidingvoor functies voor schaalbaarheid en prestatieoptimalisatie van pijplijnen in Azure Synapse Analytics en van de kopieeractiviteit die u gebruikt.
Zie de volgende bronnen voor meer informatie:
- Rekenkracht schalen voor een Azure Synapse Analytics SQL-pool met azure Portal
- Rekenkracht schalen voor een toegewezen SQL-pool met Azure PowerShell
- Rekenkracht schalen voor een toegewezen SQL-pool in Azure Synapse Analytics met behulp van T-SQL-
- Compute beheren voor een toegewezen SQL-pool
Power BI Premium en Fabric
In dit artikel wordt gebruikgemaakt van de Power BI Premium F64-capaciteit om BI-mogelijkheden te demonstreren. Toegewezen Power BI-capaciteiten in Fabric variëren van F64 (8 vCores) tot F1024 (128 vCores).
Ga als volgt te werk om te bepalen hoeveel capaciteit u nodig hebt:
- Evalueer de belasting op uw capaciteit.
- Installeer de app voor metrische gegevens voor infrastructuur capaciteit voor doorlopende bewaking.
- Overweeg het gebruik van werkbelastinggerelateerde technieken voor capaciteitsoptimalisatie.
Medewerkers
Microsoft onderhoudt dit artikel. De volgende inzenders hebben dit artikel geschreven.
Belangrijkste auteurs:
- Galina Polyakova | Senior Cloud Solution Architect
- Noah Costar | Cloud Solution Architect
- George Stevens | Cloud Solution Architect
Andere Inzenders:
- Jim McLeod | Cloud Solution Architect
- Miguel Myers | Senior Program Manager
Meld u aan bij LinkedIn als u niet-openbare LinkedIn-profielen wilt zien.
Volgende stappen
- Wat is Power BI Premium?
- Wat is Microsoft Entra ID?
- Toegang tot Data Lake Storage en Azure Blob Storage met Azure Databricks
- Wat is Azure Synapse Analytics?
- Pijplijnen en activiteiten in Azure Data Factory en Azure Synapse Analytics
- Wat is Azure SQL?