Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Hinweis
Dieser Artikel ist Teil der Power BI-Implementierungsplanungsreihe von Artikeln. Die Serie konzentriert sich auf die Planung einer Power BI-Erfahrung in Microsoft Fabric. Weitere Informationen finden Sie in der Einführung der Reihe.
Dieser Artikel hilft Ihnen beim Überprüfen von Inhalten im Rahmen der Verwaltung des Lebenszyklus von Inhalten. Er wendet sich in erster Linie an folgende Zielgruppen:
- Center of Excellence (COE) und BI-Teams: Die Teams, die für die Überwachung von Power BI in der Organisation verantwortlich sind. Zu diesen Teams gehören Entscheidungsträger, die entscheiden, wie der Lebenszyklus von Power BI-Inhalten verwaltet werden soll. Diese Teams können auch Releasemanager umfassen, die sich um den Lebenszyklus von Inhaltsreleases kümmern, sowie Techniker, welche die Komponenten erstellen und verwalten, die für die effektive Nutzung und Unterstützung der Lebenszyklusverwaltung erforderlich sind.
- Inhaltsersteller und Inhaltsbesitzer: Benutzer, die Inhalte erstellen, die sie im Fabric-Portal veröffentlichen möchten, um sie für andere Personen freizugeben. Diese Personen sind für die Verwaltung des Lebenszyklus der von ihnen erstellten Power BI-Inhalte verantwortlich.
Die Lebenszyklusverwaltung besteht aus den Prozessen und Vorgehensweisen, die Sie für die Verwaltung von Inhalten von deren Erstellung bis zu deren endgültigen Stilllegung einsetzen. In der zweiten Phase der Lebenszyklusverwaltung entwickeln Sie Inhalte und verwalten Änderungen. Dazu gehören wichtige Entscheidungen darüber, wie Sie Inhalte entwickeln und Arbeitsbereiche und Versionskontrolle einrichten. In der dritten Phase überprüfen Sie Inhalte, um zu testen, ob sie für die Bereitstellung bereit sind.
Hinweis
In der Regel durchlaufen Sie die Phasen zwei und drei in aufeinander folgenden Entwicklungs- und Prüfungszyklen.
Die Überprüfung von Inhalten ist wichtig, um die Qualität und Vertrauenswürdigkeit Ihrer Lösungen sicherzustellen. Aus diesem Grund ist es wichtig, dass Sie Inhaltsänderungen testen, bevor Sie sie in der Produktion bereitstellen.
Die folgende Abbildung zeigt den Lebenszyklus von Power BI-Inhalten, wobei Phase 3 hervorgehoben ist, in der Sie Inhalte überprüfen.
Hinweis
Eine Übersicht über die Lebenszyklusverwaltung von Inhalten finden Sie im ersten Artikel dieser Reihe.
Dieser Artikel konzentriert sich auf wichtige Überlegungen und Entscheidungen zur Überprüfung von Inhalten während ihres gesamten Lebenszyklus. Weitere Anleitungen zum Überprüfen von Inhalten finden Sie unter:
- Migrieren zu Power BI: Überprüfen von Inhalten: In diesem Artikel werden wichtige Überlegungen und Entscheidungen zur Überprüfung beschrieben, wenn Sie aus anderen Technologien zu Power BI migrieren.
- BI-Lösungsplanung: Überprüfen von Inhalten: In diesem Artikel wird beschrieben, wie Sie iterative Entwicklungs- und Validierungszyklen planen, wenn Sie Ihre Power BI- oder Fabric-Lösung planen.
Zum Überprüfen von Inhalten müssen bestimmte Entscheidungen oder Aktionen getroffen werden, um sicherzustellen, dass der Inhalt erwartungsgemäß ausgeführt wird.
Wenn Sie Inhalte überprüfen, bewerten Sie verschiedene Aspekte der Lösung.
- Funktionalität: Gibt an, ob die Elemente und Features, aus denen die Lösung besteht, funktional sind. Ein Beispiel für einen Funktionstest ist, ob ein semantisches Modell eine geplante Aktualisierung durchführen kann.
- Datengenauigkeit: Gibt an, ob die angezeigten Zahlen und Ergebnisse vollständig sind und den Geschäftserwartungen entsprechen. Ein Beispiel für das Testen der Datengenauigkeit ist die Frage, ob ein Wert in einem Bericht mit einer bekannten Basislinie übereinstimmt.
- Leistung: Gibt an, ob Abfragen minimale Auswirkungen auf verfügbare Benutzerressourcen oder Benutzerwartezeiten haben. Ein Beispiel für einen Leistungstest ist die Frage, ob ein Dataflow zuverlässig aktualisiert wird, ohne dass eine Zeitüberschreitung eintritt oder lange Aktualisierungszeiten auftreten.
- Sicherheit: ob nicht autorisierte Personen daran gehindert werden, Informationen oder die gesamte Lösung einzusehen oder darauf zuzugreifen. Ein Beispiel für das Testen der Sicherheit ist der Identitätswechsel eines Benutzers oder einer Rolle beim Überprüfen der Sicherheit auf Zeilenebene (RLS).
- Effektivität: Ob sich die Lösung auf das relevante Geschäftsproblem oder den entsprechenden Prozess bezieht und die Geschäftsziele wie beabsichtigt ausreichend unterstützt. Ein Beispiel für das Testen der Effektivität ist das Sammeln von Benutzerfeedback, wenn Sie Benutzerakzeptanztests (User Acceptance Testing, UAT) durchführen.
- Barrierefreiheit: ob die Lösung bekannte Barrierefreiheitsstandards erfüllt, damit sie von so vielen Personen wie möglich verwendet werden kann. Ein Beispiel für Barrierefreiheitstests ist die Überprüfung, ob Ihr Bericht die Microsoft-Prüfliste für die Barrierefreiheit von Berichten erfüllt.
Sie überprüfen Inhalte, indem Sie verschiedene Arten von Tests durchführen. In den folgenden Abschnitten werden wichtige Überlegungen für Entscheidungen darüber beschrieben, wie Inhaltsersteller und -verbraucher Tests durchführen.
Hinweis
Viele Teams verwenden Testmethoden, die aus der Softwareentwicklung stammen, z. B. Komponententests, Integrationstests und Feuerproben. Es gibt viele gleichermaßen gültige Ansätze für Inhaltstests und -prüfungen. Das Wichtigste ist, dass Sie Inhalte mit einem Ansatz testen, der am besten zu Ihren Bedürfnissen und der Arbeitsweise Ihres Teams passt.
Entscheiden, wie Ersteller Inhalte überprüfen sollen
Inhaltsersteller sollten ihre eigenen Änderungen an Inhalten überprüfen, um die Qualität und Funktionalität der Änderungen sicherzustellen. Tests erfolgen in der Regel im Entwicklungsarbeitsbereich, der die aktuelle funktionierende Version einer Lösung enthält. Inhaltsersteller testen ihre eigenen Änderungen, bevor Inhalte für eine Benutzerprüfung in einem Testarbeitsbereich bereitgestellt werden.
Hinweis
Es ist wichtig, dass Inhaltsersteller ihre eigenen Inhalte überprüfen, bevor sie Benutzern zur Verfügung gestellt werden. Wenn eine Lösung Testbenutzern mit offensichtlichen Problemen zur Verfügung gestellt wird, untergräbt dies das Vertrauen in diese Lösung. Selbst beim Testen erwarten Benutzer eine angemessene Darstellung des Endprodukts. Außerdem können sich die Benutzer mit einer funktionsfähigen Lösung auf die Ermittlung von Problemen im Zusammenhang mit ihrem Geschäftsbereich konzentrieren.
Es gibt zwei Möglichkeiten für Inhaltsersteller, Inhalte zu überprüfen.
-
Manuelle Tests: Manuelle Tests umfassen eine person, die den Inhalt manuell überprüft, entweder durch subjektive Bewertung oder durch Vergleich mit einigen objektiven Testkriterien. Manuelle Tests sind einfach durchzuführen, aber sie sind anfällig für menschliche Fehler oder Verzerrungen. Wenn der Inhalt einen bestimmten Umfang erreicht, kann die Durchführung manueller Tests zudem mühsam werden. Sie können manuelle Tests auf zwei Arten durchführen.
- Unabhängige Bewertung, bei der Sie Ihre eigenen Inhalte, wie semantische Modelle und Berichte, testen.
- Peer Review, d. h. eine subjektive Beurteilung des Inhalts, um die Lösung kritisch zu bewerten und Verbesserungsvorschläge zu machen.
- Automatisierte Tests: Automatisierte Tests umfassen einen vordefinierten Test, der automatisch ohne menschliche Eingriffe ausgewertet wird. In der Regel werden bei automatisierten Tests Teile des Lösungscodes anhand bestimmter Benchmarks oder Baselines überprüft. Automatisierte Tests sind schwieriger durchzuführen und erfordern mehr Zeit und Aufwand bei der Einrichtung. In Unternehmensszenarien sind automatisierte Tests jedoch unerlässlich, um die Qualität und Vertrauenswürdigkeit größerer Implementierungen und geschäftskritischer Lösungen sicherzustellen.
In den folgenden Abschnitten werden verschiedene Möglichkeiten beschrieben, wie Inhaltsersteller manuelle Tests, automatisierte Tests und Peer Review durchführen können.
Durchführen manueller Tests
Sie sollten ihre eigenen manuellen Tests für die von Ihnen erstellten Inhalte durchführen. Diese Tests sollten sicherstellen, dass Ihre Änderungen wie erwartet funktionieren und die gewünschten Qualitätsstandards erreichen. In der Regel umfassen manuelle Tests die Verwendung und subjektive Beurteilung der Inhalte oder spezifischen Inhaltsänderungen sowie das Beschreiben und Dokumentieren der Ergebnisse.
Im Folgenden finden Sie einige Überlegungen zum Testen Ihrer eigenen Inhalte.
- Entscheiden und dokumentieren Sie vorab die Testbedingungen und Erfolgskriterien.
- Seien Sie gründlich beim Testen und bei der Dokumentation der Testergebnisse. Achten Sie jedoch darauf, dass Sie überflüssige Tests vermeiden, damit Ihre Testverfahren die Entwicklung nicht verlangsamen.
- Erstellen Sie einen Standardsatz von Tests für jeden Elementtyp, um die Wiederholbarkeit zu verbessern.
- Dokumentieren Sie Testergebnisse und Schlussfolgerungen.
- Testen Sie mehrmals, um sicherzustellen, dass Ihre Testergebnisse die Realität und nicht den Zufall widerspiegeln.
- Verwenden Sie Testbedingungen, die repräsentativ für Ihre Produktionsumgebung sind.
In den folgenden Abschnitten werden weitere wichtige Überlegungen zu manuellen Tests beschrieben.
Manuelles Testen von semantischen Modellen
Semantische Modelle sind ein wichtiger Bestandteil einer Lösung in Fabric und Power BI, da sie eine Upstreamquelle für Berichte, Dashboards und andere Clienttools und Fabric-Workloads sind. Daher ist es wichtig, Ihre semantischen Modelle vor der Bereitstellung zu überprüfen.
Beantworten Sie Fragen wie die folgenden, um Ihr semantisches Modell zu überprüfen.
- Enthalten Tabellen unerwartete fehlende, doppelte oder falsche Werte?
- Geben DAX-Measures die erwarteten Ergebnisse ohne lange Abfragezeiten zurück?
- Wird eine geplante Aktualisierung ohne lange Aktualisierungszeiten erfolgreich abgeschlossen?
- Beobachten Sie Ergebnisse vom Typ (Leer) in Datenvisualisierungen, Filtern oder Abfrageergebnissen, die durch Verstöße gegen die referentielle Integrität verursacht werden?
- Verhindert die Datensicherheit wie RLS oder die Sicherheit auf Objektebene (Object-Level Security, OLS) ausreichend, dass nicht autorisierte Personen auf das Modell oder die zugehörigen Daten zugreifen?
- Sind Modellobjekte (z. B. DAX-Measures oder Tabellenspalten) in Anzeigeordner unterteilt?
Sie können verschiedene Tools und Ansätze verwenden, um Ihre semantischen Modelle zu überprüfen.
-
Power BI Desktop-: Mit Power BI Desktop können Sie verschiedene Aspekte Ihrer semantischen Modelle mithilfe verschiedener Features überprüfen. Beispiele für Power BI Desktop-Funktionen, die das Testen semantischer Modelle erleichtern, sind:
- Visueller Canvas: Testen Sie die Funktionalität und Genauigkeit des Modells mithilfe von Drag & Drop-Visualisierungen.
- DAX-Abfrageansicht: Testen Sie die Genauigkeit des Modells sowie den DAX-Code mit DAX-Abfragen, die Sie später speichern und wiederverwenden können.
- Abfragediagnose: Testen Sie die Aktualisierungsleistung, indem Sie Diagnoseinformationen darüber abrufen, wie Abfragen in Power Query ausgewertet werden.
-
Fabric-: Funktionen und Elemente im Fabric-Portal ermöglichen es Ihnen, Aspekte Ihres semantischen Modells zu überprüfen, sobald es in einem Arbeitsbereich implementiert wurde.
- Sicherheit: Testen Sie die Sicherheit des Modells, indem Sie sich durch Identitätswechsel als Sicherheitsrolle oder -benutzende ausgeben.
- Notebooks: Testen Sie die Funktionalität und Genauigkeit des Modells mithilfe von semantischer Verknüpfung.
- Überwachungshub: Testen und überwachen Sie die Datenaktualisierung von semantischen Modellen und anderen Fabric-Datenelementen.
-
Tools von Drittanbietern: Tools von Drittanbietern ermöglichen es Ihnen, andere Aspekte Ihres Semantikmodells zu überprüfen, indem Sie entweder weitere Details oder andere Features bereitstellen, die die Validierung erleichtern. Beispiele für Tools von Drittanbietern, die das Testen semantischer Modelle erleichtern, sind:
- DAX Studio: Testen und optimieren Sie die Leistung von DAX-Code, indem Sie detaillierte Aufschlüsselungen der DAX-Abfragedauern und Abfragepläne erhalten.
- Tabular Editor: Testen und Debuggen der Genauigkeit von DAX-Code durch detaillierte Aufschlüsselungen, wie DAX-Abfragen ausgewertet werden und welcher Evaluierungskontext aktiv ist.
Tipp
Sie können die Abfragediagnose verwenden, um die Leistung von Power Query anhand von anderen Elementen, die Power Query verwenden, z. B. Dataflows, manuell zu überprüfen und zu optimieren.
Außerdem können Sie die DAX-Abfrageansicht und Tools von Drittanbietern wie DAX Studio verwenden, um DAX-Abfragen für paginierte Berichte und Scorecards zu überprüfen und zu optimieren.
Manuelles Testen von Berichten
Berichte sind eine gängige Möglichkeit für Benutzer, mit Ihren Daten zu interagieren. Viele Benutzer verlassen sich auf Berichte, um Entscheidungen zu treffen und Maßnahmen zu ergreifen, um ihre Geschäftsziele zu erreichen. Daher ist es wichtig, dass Sie Ihre Berichte vor der Bereitstellung überprüfen.
Beantworten Sie Fragen wie die folgenden, um Ihre Berichte zu überprüfen.
- Erfüllen Berichte die dokumentierten Geschäftsanforderungen?
- Werden die richtigen Visualtypen verwendet, um die richtige Frage zu beantworten?
- Sind Berichtsseiten klar und übersichtlich, ohne überwältigende Farben oder zu viele visuelle Elemente?
- Funktioniert der Bericht wie erwartet, wenn er auf eine enge Teilmenge von Daten gefiltert wird?
- Lässt der Bericht den Export nach Excel zu, und wenn ja, lässt er das Abrufen zusammengefasster Daten oder der zugrunde liegenden Daten zu?
- Kann der Bericht für berichtsübergreifende Drillthroughs oder zur Personalisierung visueller Elemente verwendet werden?
Sie können verschiedene Tools und Ansätze verwenden, um Ihre Berichte zu überprüfen.
-
Power BI Desktop-: Mit Power BI Desktop können Sie verschiedene Aspekte Ihrer Berichte mithilfe verschiedener Features überprüfen. Beispiele für Power BI Desktop-Funktionen, die das Testen von Berichten erleichtern, sind:
- Visueller Canvas: Testen Sie die Berichtsfunktionalität mithilfe von Slicern, Filtern und anderen interaktiven Elementen.
- Leistungsanalyse: Testen Sie die Berichtsleistung, indem Sie die Zeiten für das visuelle Rendering und die DAX-Abfragen messen. Sie können visuelle DAX-Abfragen aus der Leistungsanalyse kopieren, um sie in anderen Tools zu verwenden, und Leistungsergebnisse für die Dokumentation speichern.
- Abfragen von Grenzwertsimulationen: Testen Sie die Leistung von Berichten, indem Sie die Speichergrenzwerte in der Kapazität simulieren, in der sie bereitgestellt werden sollen.
-
Fabric-: Funktionen und Elemente im Fabric-Portal ermöglichen es Ihnen, Aspekte Ihres Berichts zu überprüfen, sobald er in einem Arbeitsbereich bereitgestellt wird.
- Aktualisieren von App-: Testen sie die Berichtsfunktionalität und -sicherheit, wenn Sie Berichte in Power BI-Apps verteilen und verschiedene App-Zielgruppen festlegen, um zu bestimmen, wer welche Inhalte anzeigen kann. Wenn Sie App-Zielgruppen verwenden, können Sie eine Vorschau der Berichte anzeigen, auf die sie Zugriff haben, und die App selbst testen.
- Leseansicht im Arbeitsbereich oder in der App: Testen sie die Berichtsfunktionalität und -genauigkeit, indem Sie sie in derselben Umgebung wie ein Benutzer verwenden.
Hinweis
Sie können Dashboards nur im Fabric-Portal entwickeln und überprüfen.
Wichtig
Es ist wichtig, Ihre Berichte sowohl in Power BI Desktop als auch nach der Bereitstellung im Fabric-Portal zu testen. Das visuelle Rendering kann sich auf Ihrem lokalen Rechner anders verhalten als bei Berichten in einem Fabric-Arbeitsbereich. Beachten Sie außerdem, dass sich die Benutzeroberfläche der Verwendung eines Berichts in einem Arbeitsbereich oder einer App erheblich von der Verwendung eines Berichts in Power BI Desktop unterscheidet.
Manuelles Testen durch Ausführen einer Peer Review
Eine andere Möglichkeit, Inhalte manuell zu überprüfen, ist eine Peer Review. Bei einer Peer Review stellen Inhaltsersteller die Lösung oder einen Teil der Lösung einem Kollegen zur Auswertung zur Verfügung. Der Zweck einer Peer Review besteht darin, eine Lösung mithilfe der kollektiven Erfahrung und Expertise mehrerer Inhaltsersteller zu verbessern. Sie können Peer Reviews sowohl während als auch nach manuellen und automatisierten Tests durchführen.
Hinweis
Peer Reviews sind ein Standardansatz, der in vielen Branchen verwendet wird. Dieser Ansatz ist allgemein dafür bekannt, dass er die Qualität von Inhalten, Produkten und Prozessen verbessert.
Tipp
Wenn Sie der einzige Inhaltsersteller für eine Lösung sind, können Sie einen anderen Inhaltsersteller in einem anderen Team finden, der Ihre Lösung überprüft, und ihm anbieten, dasselbe für ihn zu tun.
Es gibt verschiedene Möglichkeiten, wie Sie eine Peer Review durchführen können.
- Funktionale Überprüfung: Eine Funktionale Überprüfung konzentriert sich auf Features, Prozesse oder Geschäftsanforderungen, die die Lösung erfüllen sollte. Bei einer Funktionsprüfung verwenden die Prüfer die Lösung so, als wären sie selbst Endbenutzer. Sie dokumentieren alle Mängel oder Probleme, die sie finden, zusammen mit jeder subjektiven Kritik, um die Implementierung zu verbessern.
- Technische Überprüfung: Eine technische Überprüfung konzentriert sich auf technische Aspekte der Lösung, z. B. Datenmodellierung, Code oder Entwurf. Bei einer technischen Überprüfung bewerten die Prüfer, wie bestimmte Funktionen oder Änderungen implementiert wurden, und schlagen alternative Ansätze vor oder weisen auf mögliche Fehler oder Risiken des aktuellen Ansatzes hin.
- Pull-Anforderung: Wenn Sie die Quellcodeverwaltung ausführen, erstellen Sie eine Pullanforderung (PR), um Ihre Änderungen an der neuesten Version einer Lösung zusammenzuführen. Ein technischer Besitzer überprüft die vorgeschlagenen Änderungen und wertet den Quellcode aus. Diese Art der Überprüfung ist nützlich, um sicherzustellen, dass der Code den Standardkonventionen entspricht, wie z. B. die Formatierung von DAX- oder M-Code, oder um Antimuster oder potenziell problematischen Code zu identifizieren.
Tipp
Es wird empfohlen, dass Sie eine Art formaler Peer Review und Genehmigung durchführen, bevor Inhaltsänderungen in die Benutzerakzeptanztests einfließen. Der Grund dafür ist, dass minderwertige Inhalte selbst während Tests das Vertrauen in Ihre Datenlösungen beeinträchtigen können. Darüber hinaus kann eine Peer Review auch die Zusammenarbeit und den Wissensaustausch zwischen den Teammitgliedern fördern.
Nachdem Sie einen Peer Review-Zyklus abgeschlossen haben, sollten Sie alle empfohlenen Änderungen dokumentieren und integrieren. Bei Bedarf sollten Sie die Änderungen erneut zur Genehmigung übermitteln, bevor Sie mit den Benutzertests fortfahren. In der Regel sind mehrere Iterationen der Peer Review nur erforderlich, wenn es viele Änderungen oder einige komplexe Änderungen zum Testen gibt.
Manuelles Testen der Ergebnisse von Copilot- und KI-Fähigkeiten.
Mithilfe von Copilot- oder KI-Kenntnissen können Sie Benutzern mithilfe natürlicher Sprache Fragen zu Ihrem Datenmodell stellen. Die Verwendung dieser Tools beruht auf generativer KI und kann möglicherweise qualitativ niedrige oder ungenaue Ergebnisse zurückgeben. Es ist immer wichtig, diese Ausgaben auszuwerten, bevor Sie sie verwenden.
Um Copilot- und KI-Fähigkeiten zu testen, können Sie:
- Stellen Sie einfache Fragen, die bekannte Benchmarks testen, z. B. den Gesamtumsatz in einem vorherigen Monat oder die Gesamtzahl der Kunden oder Produkte.
- Vergleichen Sie Ausgaben mit Ergebnissen aus Berichten oder Ad-hoc-Analysen.
- Vergleichen Sie die Ausgaben vor und nach Änderungen an einem semantischen Modell.
Automatisieren von Tests
Inhaltsersteller können Tests automatisieren, sodass Tests vor der Bereitstellung automatisch ausgeführt werden. Automatisierte Tests umfassen in der Regel vorbereitete Testbedingungen, die als Reaktion auf bestimmte Aktionen, wie das Speichern von Inhalten oder das Einreichen eines Pull Requests (PR), programmgesteuert ausgeführt und orchestriert werden. Die Ergebnisse automatisierter Tests werden automatisch für spätere Referenzen und Dokumentationen gespeichert.
Der Zweck eines automatisierten Tests besteht darin, die Zeit und den Aufwand zur Überprüfung von Inhaltsänderungen zu reduzieren und gleichzeitig die Konsistenz der Tests und Zuverlässigkeit ihrer Ergebnisse zu verbessern. Wenn Inhalte einen automatisierten Test nicht bestehen, werden sie in der Regel erst bereitgestellt, wenn die Probleme vom Inhaltsersteller behoben sind.
Effektive automatisierte Tests sind ein wichtiger Bestandteil der Implementierung von DataOps. DataOps ermöglicht es Teams, Prozesse zu automatisieren und zu skalieren, indem sie Verfahren anwenden, die die Bereitstellung von Daten und Analysen verbessern und beschleunigen.
Wichtig
Um Tests effektiv zu automatisieren, sollten Sie gut gestaltete Tests erstellen. Die Erstellung solcher Tests kann viel Zeit und Mühe kosten. Wenn Ihre Testbedingungen und -erwartungen schlecht definiert sind, werden Ihre automatisierten Tests nicht in der Lage sein, die richtigen Aspekte Ihrer Inhalte zu überprüfen, und Sie werden wenig Nutzen aus der Automatisierung dieser Tests ziehen.
Tipp
Automatisierte Tests sind am vorteilhaftesten, wenn sie in Szenarien zur Veröffentlichung von Unternehmensinhalten in die Bereitstellung Ihrer Lösung integriert werden. Sie können zum Beispiel die Tests automatisieren, indem Sie Azure Pipelines als Teil einer Prüfungsspipeline verwenden, die sicherstellt, dass die Inhalte bereit für die Bereitstellung sind. Weitere Informationen finden Sie unter Phase 4: Bereitstellen von Inhalten.
In den folgenden Abschnitten werden wichtige Überlegungen zum automatischen Testen von semantischen Modellen und Berichten in Power BI beschrieben.
Automatisieren der Tests von semantischen Modellen
Das automatisierte Testen von semantischen Modellen ist möglich, erfordert aber in der Regel eine individuelle Einrichtung mit Tools und Frameworks von Drittanbietern.
Sie können verschiedene Tools und Ansätze verwenden, um das Testen von semantischen Modellen zu automatisieren.
- Best Practice Analyzer (BPA)-: Mit dem Best Practice Analyzer können Sie Regeln angeben, mit denen Sie ein Semantikmodell auswerten können. Sie können BPA mit Tabular Editor ausführen, wobei alle Regelverstöße in einem semantischen Modell identifiziert werden. Sie können Überprüfungen auf BPA-Regelverstöße automatisieren, indem Sie die Tabular Editor-Befehlszeilenschnittstelle (CLI) zusammen mit Azure DevOps oder als Teil eines anderen geplanten Prozesses verwenden.
- Fabric-Notebooks und semantische Verknüpfung:Notebooks in Fabric ermöglichen Ihnen die Verwendung von semantischer Verknüpfung zur programmgesteuerten Interaktion mit semantischen Modellen. Sie können Notebooks verwenden, um Frameworks wie Great Expectations (GX) auszuführen, um Daten zu überprüfen. Darüber hinaus können Sie Measures und DAX-Abfragen auswerten und die Ergebnisse dann anhand bekannter Baselines testen.
- Power Automate: Power Automate ermöglicht Ihnen das Ausführen von Abfragen für semantische Modelle und das Exportieren von Berichten mithilfe der Power BI REST-APIs. Sie können die Abfrageergebnisse anhand von bekannten Baselines prüfen und dann nachgelagerte Aktionen durchführen, wie z. B. das Auslösen von Warnungen an Inhaltsbesitzer.
Tipp
Erwägen Sie eine Kombination aus automatisierten Tests und der Orchestrierung Ihrer semantischen Modelle. Sie können beispielsweise vor einer Aktualisierung automatisierte Tests für eine Datenquelle und ein semantisches Modell durchführen, indem Sie Notebooks oder Power Automate verwenden. Wenn die Tests fehlschlagen, können Sie die Aktualisierung verhindern, wodurch auch verhindert werden kann, dass Aktualisierungsfehler oder falsche Daten in Geschäftsberichten erscheinen.
Automatisieren der Tests von Berichten
Es gibt nur begrenzte Möglichkeiten, das Testen von Berichten zu automatisieren. Diese Optionen basieren auf externen Tools oder Communitylösungen, um visuelle Elemente oder Berichtseigenschaften automatisch zu überprüfen, z. B. das Überprüfen von Berichtsmetadaten oder das Simulieren von Benutzerinteraktionen mit Berichten.
Sie können verschiedene Tools und Ansätze verwenden, um das Testen von Berichten zu automatisieren.
- Report best practice analyzers: Es gibt verschiedene Tools von Drittanbietern, die Best Practice Analyzer-ähnliche Funktionen unterstützen, um die Erkennung von Problemen in Berichten zu automatisieren, indem Sie die Berichtsdefinition untersuchen. Zwei Tools, die diese Funktionalität unterstützen, sind PBI Explorer und PBI Inspector.
- Power Automate Desktop-: Benutzeroberflächenautomatisierungstools wie Selenium für Python oder Power Automate Desktop ermöglichen es Ihnen, Benutzermausinteraktionen mit Berichten zu simulieren. Durch Definieren eines Benutzerflows können Sie Navigation und Interaktionen testen. Diese Tests sind erfolgreich, wenn sie den Flow abschließen können, und schlagen fehl, wenn sie bestimmte Wörter oder Bilder auf dem Bildschirm erkennen (z. B. eine Fehlermeldung oder ein leeres Bild).
Entscheiden, wie Benutzer Inhalte überprüfen sollen
Sobald die Inhalte die manuellen und automatisierten Tests sowie die Peer Review bestanden haben, können sie von Benutzern getestet werden. Wenn Benutzer Inhalte testen, geben sie subjektives Feedback darüber ab, ob diese Inhalte die Geschäftsanforderungen erfüllen und ihren Erwartungen entsprechen, einschließlich der Rückgabe genauer Ergebnisse.
Die Benutzerprüfung erfolgt in der Regel in einem Testarbeitsbereich. Berücksichtigen Sie beim Einrichten eines Testarbeitsbereichs die folgenden Überlegungen.
- Erstellen einer Test-App: Wenn Sie Inhalte mithilfe einer Power BI-App verteilen möchten, richten Sie eine Test-App für Testbenutzer ein, um Inhalte zu überprüfen. Die Test-App muss mit der App identisch sein, die Sie in der Produktion einrichten. Denken Sie daran, in die Navigation der Test-App Links zu Dokumentation, Schulungen und Feedbackformularen aufzunehmen.
- Bereitstellen des Zugriffs: Identifizieren Sie eine Teilmenge von Benutzern aus der Community, die die Lösung überprüfen wird. Setzen Sie sich mit diesen Benutzern in Verbindung und vereinbaren Sie, wann und warum sie diese Inhalte überprüfen sollen. Stellen Sie dann sicher, dass Sie ihnen Zugriff auf die Inhalte gewähren und sie den entsprechenden Sicherheitsrollen hinzufügen. Teilen Sie Links zu den Inhalten oder der Test-App mit den Benutzern, damit sie mit dem Testen beginnen können.
- Einrichten einer geplanten Aktualisierung: Die Benutzerüberprüfung erstreckt sich in der Regel über einen längeren Zeitraum. Es lohnt sich, eine geplante Aktualisierung der Datenelemente im Testarbeitsbereich einzurichten, damit die Benutzer mit den neuesten Daten testen können.
Wichtig
Wenn Sie Inhalte in einem Testarbeitsbereich bereitstellen, müssen Sie die App manuell aktualisieren, bevor Änderungen an Berichten und Dashboards für Benutzer sichtbar sind.
Hinweis
Sie können Apps nicht von einem Arbeitsbereich in einen anderen übertragen oder kopieren. Alle Änderungen an einer App müssen manuell in der Konfiguration für diesen Arbeitsbereich vorgenommen werden.
Bevor Sie mit der Benutzerüberprüfung beginnen, sollten Sie die erforderlichen Vorbereitungen durchführen.
- Planen Sie, wann die Benutzerüberprüfung erfolgen soll.
- Geben Sie an, ob die Benutzerüberprüfung auf einen bestimmten Zeitraum oder einen Teil eines iterativen Prozesses beschränkt ist.
- Erstellen Sie eine Methode zum Sammeln von Feedback, z. B. mithilfe Microsoft Forms.
- Teilen Sie den an der Prüfung beteiligten Benutzern die Planung und die Erwartungen mit.
- Organisieren Sie ein Kick-off-Meeting zur Benutzervalidierung, um die Benutzer anzuleiten und die Erwartungen zu steuern.
- Führen Sie Schulungen für Benutzer durch, um den Prüfungs- und Feedbackprozess zu veranschaulichen.
Hier sind einige verschiedene Möglichkeiten, um die Benutzerüberprüfung von Inhalten zu erleichtern.
- Observatoriumstests: Observatoriumstests sind kurze Sitzungen, in denen Inhaltsersteller zusehen, wie ein oder mehrere Benutzer den Inhalt ohne Anweisungen oder Hinweise verwenden. In diesen Sitzungen nutzen Inhaltsersteller ihre Beobachtungen, um mögliche Fehler, Probleme oder Verbesserungen an der Lösung zu identifizieren. Diese Tests können wertvoll sein, da sie wenig Zeit und Aufwand für die Organisation erfordern und auf bestimmte Funktionen oder Teile einer Lösung beschränkt werden können. Beobachtungstests sind am nützlichsten, um frühes Feedback zu einem Design oder Ansatz zu erhalten, z. B. bei einem Proof of Concept (POC).
- Fokusgruppentests: Fokusgruppentests sind eingeschränkte Sitzungen, die mit einer kleinen Gruppe von Benutzern organisiert sind, die den Inhalt gemeinsam durchlaufen. Diese Fokusgruppen werden zusammengestellt, um die wichtigsten Interessengruppen und Fachexperten auszuwählen, die das beste Feedback zu bestimmten Merkmalen oder Funktionalitäten geben können. Fokusgruppentests können sich über mehrere interaktive Sitzungen erstrecken. Fokusgruppentests erfordern mehr Zeit und Aufwand als Beobachtungstests, können aber detaillierteres Feedback zu einer Lösung liefern.
- Benutzerakzeptanztests: Benutzerakzeptanztests (User Acceptance Testing, UAT) ist ein formaler Prozess, bei dem eine größere Gruppe von Personen aus der Benutzercommunity überprüft und asynchrones Feedback zu einer Lösung liefert. UAT erfordern die meiste Zeit und Mühe bei der Organisation, sind aber auch die gründlichste Art der Durchführung von Benutzertests. Sobald die Testbenutzer die Lösung akzeptieren und die Probleme mit dem Feedback gelöst sind, können die Inhalte im Produktionsarbeitsbereich bereitgestellt werden.
Sobald Sie sich entschieden haben, wie Inhalte überprüft werden sollen, können Sie planen, wie Sie sie in und zwischen den Arbeitsbereichen bereitstellen möchten.
Checkliste: Die Planung, wie Inhalte überprüft werden, umfasst folgende wichtige Entscheidungen und Aktionen:
- Design- und Dokumenttestbedingungen: Beschreiben Sie die Tests, die Sie durchführen, was sie testen, und wie Sie sie ausführen werden.
- Entscheiden Sie sich für einen Peer-Review-Prozess: Beschreiben Sie, wer den Inhalt neben sich selbst überprüfen wird.
- Entscheiden Sie sich für einen Ansatz für manuelle Tests: Entscheiden Sie, welche Tools und Features Sie verwenden werden, um den von Ihnen erstellten Inhalt zu überprüfen.
- Entscheiden Sie, ob Sie automatisierte Testsverwenden: Ermitteln Sie, ob die Skalierung und der Umfang Ihrer Inhalte die Einrichtung automatisierter Tests rechtfertigen. Wenn ja, stellen Sie sicher, dass Sie die nötige Zeit und die Ressourcen für die Konzeption und Implementierung dieser Tests einplanen, damit überprüft wird, was Sie erwarten.
- Bereitstellen von Inhalten aus dem Entwicklungsarbeitsbereich in den Testarbeitsbereich: Bereitstellen von Änderungen vom Entwicklungsarbeitsbereich in den Testarbeitsbereich, sodass Änderungen für Benutzer sichtbar sind. Vergewissern Sie sich, dass Sie die notwendigen Aktivitäten nach der Bereitstellung im Testarbeitsbereich durchgeführt haben, wie z. B. das Einrichten und Aktualisieren einer Test-App.
- Entscheiden Sie sich für einen Ansatz für Benutzertests: Entscheiden Sie, wie Benutzer Inhalte überprüfen.
- Identifizieren von Testbenutzern: Identifizieren Sie, wer in der Benutzercommunity den Inhalt überprüft. Einigen Sie sich mit diesen Personen auf das Ausmaß ihrer Beteiligung und ihre Erwartungen.
- Sammeln von Benutzerfeedback: Richten Sie Tools und Prozesse ein, um Feedback automatisch zu sammeln. Sie können z. B. Tasks und Planner in Microsoft Teams oder Microsoft Forms verwenden.
- Dokumenttestergebnisse: Dokumentieren Sie die Ergebnisse aller Inhaltsüberprüfungen und alle Änderungen, die als Ergebnis der Testergebnisse vorgenommen wurden. Stellen Sie sicher, dass diese Dokumentation leicht zu finden ist.
- Planen Sie die Bereitstellung für die Produktion: Nachdem die Benutzertests abgeschlossen wurden, bereiten Sie die Bereitstellung von Inhalten aus dem Testarbeitsbereich in den Produktionsarbeitsbereich vor.
Zugehöriger Inhalt
Im nächsten Artikel dieser Reihe erfahren Sie, wie Sie Inhalte als Teil der Verwaltung des Inhaltslebenszyklus bereitstellen.