Große Datasets in Power BI Premium

Power BI-Datasets können Daten für eine optimierte Abfrageleistung in einem stark komprimierten In-Memory-Cache speichern. Dadurch wird eine schnelle Benutzerinteraktion ermöglicht. Mit Premium-Kapazitäten können große Datasets, die den Standardgrenzwert überschreiten, mit der Einstellung Großes Datasetspeicherformat ermöglicht werden. Wenn diese Option aktiviert ist, wird die Größe des Datasets vom Administrator durch die Premium-Kapazitätsgröße oder die maximale Größe beschränkt.

Große Datasets können für alle Premium-P-SKUs sowie eingebettete A-SKUs und mit Premium pro Benutzer (PPU) aktiviert werden. Die Größenbeschränkung für große Datasets in Premium ist vergleichbar mit Azure Analysis Services in Bezug auf die Größenbeschränkungen von Datenmodellen.

Abgesehen davon, dass die Speicherformateinstellung für große Datasets erforderlich ist, damit Datasets auf über 10 GB anwachsen können, bietet sie auch noch weitere Vorteile. Wenn Sie auf XMLA-Endpunkten basierende Tools für Datasetschreibvorgänge verwenden möchten, sollten Sie darauf achten, die Einstellung auch für Datasets zu aktivieren, die Sie nicht unbedingt als große Datasets bezeichnen würden. Wenn diese Einstellung aktiviert ist, kann das Speicherformat für große Datasets die Leistung von XMLA-Schreibvorgängen verbessern.

Große Datasets im Dienst wirken sich nicht auf die Uploadgröße des Power BI Desktop-Modells aus, die weiterhin auf 10 GB beschränkt ist. Stattdessen können Datasets im Dienst bei einer Aktualisierung diesen Grenzwert überschreiten.

Wichtig

Power BI Premium unterstützt große Datasets. Aktivieren Sie die Option Großes Datasetspeicherformat, um Datasets in Power BI Premium zu verwenden, die den Standardgrenzwert überschreiten.

Hinweis

Große Datasets in Power BI Premium sind im Power BI-Dienst für DoD-Kund*innen der US-Regierung nicht verfügbar. Weitere Informationen dazu, welche Features verfügbar sind, finden Sie unter Power BI-Featureverfügbarkeit.

Aktivieren großer Datasets

In diesem Schritt wird beschrieben, wie Sie große Datasets für ein neues Modell aktivieren, das im Dienst veröffentlicht wurde. Bei bereits bestehenden Datasets ist nur Schritt 3 erforderlich.

  1. Erstellen Sie ein Modell in Power BI Desktop. Falls das Dataset größer wird und immer mehr Arbeitsspeicher belegt, achten Sie darauf, eine inkrementelle Aktualisierung zu konfigurieren.

  2. Veröffentlichen Sie das Modell als Dataset im Dienst.

  3. Erweitern Sie unter „Dienst > Dataset >Einstellungen“ die Option Großes Datasetspeicherformat. Legen Sie den Schieberegler auf Ein fest, und klicken Sie auf Anwenden.

    Schieberegler zum Aktivieren großer Datasets

  4. Starten Sie eine Aktualisierung, um historische Daten basierend auf der Richtlinie für die inkrementelle Aktualisierung zu laden. Bei der ersten Aktualisierung kann das Laden der historischen Daten einige Zeit in Anspruch nehmen. Nachfolgende Aktualisierungen sollten je nach Ihrer Richtlinie für die inkrementelle Aktualisierung schneller erfolgen.

Festlegen des Standardspeicherformats

In den unterstützten Regionen kann das große Datasetspeicherformat für alle neuen Datasets, die in einem Arbeitsbereich einer Premium-Kapazität erstellt wurden, standardmäßig aktiviert werden. Werden große Datasets in einer Region nicht unterstützt, ist die unten beschriebene Option Großes Datasetspeicherformat deaktiviert. Im Abschnitt Regionale Verfügbarkeit finden Sie eine Liste aller unterstützten Regionen.

  1. Klicken Sie im Arbeitsbereich auf Einstellungen>Premium.

  2. Klicken Sie unter Standardspeicherformat auf Großes Datasetspeicherformat und dann auf Speichern.

    Aktivieren des Standardspeicherformats

Aktivieren mithilfe von PowerShell

Das Speicherformat für große Datasets kann ebenfalls mithilfe von PowerShell aktiviert werden. Zum Ausführen der PowerShell-Cmdlets benötigen Sie Berechtigungen als Kapazitäts- und Arbeitsbereichadministrator.

  1. Suchen Sie die Dataset-ID (GUID). Die ID finden Sie auf der Registerkarte Datasets des Arbeitsbereichs unter den Dataseteinstellungen in der URL.

    Dataset-GUID

  2. Installieren Sie in der Eingabeaufforderung für den PowerShell-Administrator das Modul MicrosoftPowerBIMgmt.

    Install-Module -Name MicrosoftPowerBIMgmt
    
  3. Führen Sie die folgenden Cmdlets aus, um sich anzumelden und den Speichermodus des Datasets zu überprüfen.

    Login-PowerBIServiceAccount
    
    (Get-PowerBIDataset -Scope Organization -Id <Dataset ID> -Include actualStorage).ActualStorage
    

    Es sollte die folgende Antwort ausgegeben werden. Als Speichermodus ist „ABF“ (Analysis Services-Sicherungsdatei) ausgewählt. Das ist die Standardeinstellung.

    Id                   StorageMode
    
    --                   -----------
    
    <Dataset ID>         Abf
    
  4. Führen Sie die folgenden Cmdlets aus, um den Speichermodus festzulegen. Die Konvertierung in Files Premium kann einige Sekunden in Anspruch nehmen.

    Set-PowerBIDataset -Id <Dataset ID> -TargetStorageMode PremiumFiles
    
    (Get-PowerBIDataset -Scope Organization -Id <Dataset ID> -Include actualStorage).ActualStorage
    

    Es sollte die folgende Antwort ausgegeben werden. Der Speichermodus ist jetzt auf Files Premium festgelegt.

    Id                   StorageMode
    
    --                   -----------
    
    <Dataset ID>         PremiumFiles
    

Sie können den Status der Dataset-Konvertierungen in und aus Files Premium mithilfe des Get-PowerBIWorkspaceMigrationStatus-Cmdlets überprüfen.

Entfernen von Datasets

Das Entfernen von Datasets ist ein Premium-Feature, durch das die Summe der Datasetgrößen erheblich größer sein darf als der für die erworbene SKU-Größe der Kapazität verfügbare Arbeitsspeicher. Für ein einzelnes Dataset gilt weiterhin das Arbeitsspeicherlimit der SKU. Power BI verwendet die dynamische Speicherverwaltung, um inaktive Datasets aus dem Arbeitsspeicher zu entfernen. Dadurch kann Power BI andere Datasets zur Verarbeitung von Benutzerabfragen laden.

Hinweis

Durch die Wartezeit, die beim erneuten Laden eines entfernten Datasets entsteht, kann es zu erheblichen Verzögerungen kommen.

Bedarfsgesteuertes Laden

Das bedarfsgesteuerte Laden ist für große Datasets standardmäßig aktiviert und kann die Ladezeit entfernter Datasets erheblich reduzieren. Das bedarfsgesteuerte Laden bietet bei nachfolgenden Abfragen und Aktualisierungen die folgenden Vorteile:

  • Relevante Datenseiten werden nach Bedarf geladen (in den Arbeitsspeicher ausgelagert).

  • Entfernte Datasets werden für Abfragen schnell zur Verfügung gestellt.

Beim bedarfsgesteuerten Laden werden zusätzliche DMV-Informationen (dynamische Verwaltungsansicht) bereitgestellt, mit denen Sie Nutzungsmuster identifizieren und den Zustand Ihrer Modelle ermitteln können. Führen Sie z. B. die folgende DMV-Abfrage in SQL Server Management Studio (SSMS) aus, um die Statistiken Temperatur und Letzter Zugriff für die einzelnen Spalten im Dataset zu überprüfen:

Select * from SYSTEMRESTRICTSCHEMA ($System.DISCOVER_STORAGE_TABLE_COLUMN_SEGMENTS, [DATABASE_NAME] = '<Dataset Name>')

Überprüfen der Datasetgröße

Nach dem Laden historischer Daten können Sie SSMS über den XMLA-Endpunkt verwenden, um die geschätzte Datasetgröße im Fenster „Modelleigenschaften“ zu überprüfen.

Geschätzte Datasetgröße

Sie können die Größe des Datasets ebenfalls überprüfen, indem Sie die folgenden DMV-Abfragen aus SSMS ausführen. Wenn Sie die Spalten DICTIONARY_SIZE und USED_SIZE aus der Ausgabe addieren, erhalten Sie die Datasetgröße in Bytes.

SELECT * FROM SYSTEMRESTRICTSCHEMA
($System.DISCOVER_STORAGE_TABLE_COLUMNS,
 [DATABASE_NAME] = '<Dataset Name>') //Sum DICTIONARY_SIZE (bytes)

SELECT * FROM SYSTEMRESTRICTSCHEMA
($System.DISCOVER_STORAGE_TABLE_COLUMN_SEGMENTS,
 [DATABASE_NAME] = '<Dataset Name>') //Sum USED_SIZE (bytes)

Standardsegmentgröße

Für Datasets, die das Speicherformat für große Datasets verwenden, legt Power BI die Standardsegmentgröße automatisch auf 8 Millionen Zeilen fest, um für große Tabellen ein gutes Gleichgewicht zwischen den Arbeitsspeicheranforderungen und der Abfrageleistung zu erreichen. Dies ist die gleiche Segmentgröße wie in Azure Analysis Services. Die Verwendung einer identischen Segmentgröße hilft dabei, vergleichbare Leistungsmerkmale bei der Migration eines großen Datenmodells von Azure Analysis Services zu Power BI sicherzustellen.

Überlegungen und Einschränkungen

Berücksichtigen Sie bei der Verwendung großer Datasets die folgenden Einschränkungen:

  • Herunterladen von Dateien in Power BI Desktop: Wenn ein Dataset in Files Premium gespeichert wird, tritt beim Herunterladen als PBIX-Datei ein Fehler auf.

  • Unterstützte Regionen: Große Datasets sind in Azure-Regionen verfügbar, die Azure Files Storage Premium unterstützen. Eine Liste aller unterstützten Regionen finden Sie in der Tabelle unter Regionale Verfügbarkeit.

  • Festlegen der maximalen Größe des Datasets: Die maximale Größe des Datasets kann von Administratoren festgelegt werden. Weitere Informationen finden Sie im Abschnitt Datasets unter Max. Arbeitsspeicher.

  • Aktualisieren großer Datasets: Datasets, deren Größe an die halbe Kapazitätsgröße heranreicht (z. B. ein Dataset mit einer Größe von 12 GB bei einer Kapazitätsgröße von 25 GB), überschreiten möglicherweise bei der Aktualisierung den verfügbaren Arbeitsspeicher. Verwenden Sie die REST-API für erweiterte Aktualisierungen oder den XMLA-Endpunkt, um präzise Datenaktualisierungen durchzuführen. Auf diese Weise kann der für die Aktualisierung erforderliche Arbeitsspeicher entsprechend der Kapazitätsgröße minimiert werden.

  • Pushdatasets: Pushdatasets unterstützen das große Datasetspeicherformat nicht.

  • Pro wird nicht unterstützt: Große Datasets werden in Pro-Arbeitsbereichen nicht unterstützt. Bei der Migration eines Arbeitsbereichs von Premium zu Pro können alle Datasets mit der Einstellung Großes Datasetspeicherformat nicht geladen werden.

  • Es ist nicht möglich, die Einstellungen eines Arbeitsbereichs mithilfe von REST-APIs zu ändern, damit neue Datasets das große Datasetspeicherformat als Standardeinstellung verwenden können.

Regionale Verfügbarkeit

Große Datasets in Power BI sind nur in Azure-Regionen verfügbar, die Azure Files Storage Premium unterstützen.

In der folgenden Liste sind Regionen aufgeführt, in denen große Datasets in Power BI verfügbar sind. In Regionen, die nicht in der folgenden Liste enthalten sind, werden große Modelle nicht unterstützt.

Hinweis

Sobald ein großes Dataset in einem Arbeitsbereich erstellt wurde, muss es in dieser Region verbleiben. Sie können einen Arbeitsbereich mit einem großen Dataset nicht einer Premium Kapazität in einer anderen Region neu zuweisen.

Azure-Region Abkürzung der Azure-Region
Australien (Osten) australiaeast
Australien, Südosten australiasoutheast
Brasilien Süd brazilsouth
Kanada, Osten canadaeast
Kanada, Mitte canadacentral
Indien, Mitte centralindia
USA (Mitte) centralus
Asien, Osten eastasia
East US eastus
USA (Ost) 2 eastus2
Frankreich, Mitte francecentral
Frankreich, Süden francesouth
Deutschland, Norden germanynorth
Deutschland, Westen-Mitte germanywestcentral
Japan, Osten japaneast
Japan, Westen japanwest
Korea, Mitte koreacentral
Korea, Süden koreasouth
USA Nord Mitte northcentralus
Nordeuropa northeurope
Südafrika, Norden southafricanorth
Südafrika, Westen southafricawest
USA Süd Mitte southcentralus
Asien, Südosten southeastasia
Schweiz, Norden switzerlandnorth
Schweiz, Westen switzerlandwest
VAE, Mitte uaecentral
Vereinigte Arabische Emirate, Norden uaenorth
UK, Süden uksouth
UK, Westen ukwest
Europa, Westen westeurope
Indien, Westen westindia
USA (Westen) westus
USA, Westen 2 westus2

Nächste Schritte

Über die folgenden Links können Sie auf nützliche Informationen für die Arbeit mit großen Modellen zugreifen: