Dela via


Planering av Power BI-implementering: Verifiera innehåll

Kommentar

Den här artikeln är en del av planeringsserien för Power BI-implementering. Den här serien fokuserar främst på Power BI-upplevelsen i Microsoft Fabric. En introduktion till serien finns i Implementeringsplanering för Power BI.

Den här artikeln hjälper dig att verifiera innehåll som en del av hanteringen av innehållslivscykeln. Det är främst inriktat på:

  • Center of Excellence (COE) och BI-team: De team som ansvarar för att övervaka Power BI i organisationen. De här teamen omfattar beslutsfattare som bestämmer hur de ska hantera livscykeln för Power BI-innehåll. Dessa team kan också omfatta versionshanterare som hanterar livscykeln för innehållsversioner och tekniker som skapar och hanterar de komponenter som behövs för att effektivt använda och stödja livscykelhantering.
  • Innehållsskapare och innehållsägare: Användare som skapar innehåll som de vill publicera till infrastrukturresursportalen för att dela med andra. Dessa personer ansvarar för att hantera livscykeln för det Power BI-innehåll som de skapar.

Livscykelhantering består av de processer och metoder som du använder för att hantera innehåll från skapandet till dess slutliga tillbakadragning. I den andra fasen av livscykelhanteringen utvecklar du innehåll och hanterar ändringar, vilket omfattar viktiga beslut om hur du ska utveckla innehåll och konfigurera arbetsytor och versionskontroll. I den tredje fasen validerar du innehåll för att testa om det är redo för distribution.

Kommentar

Du itererar vanligtvis genom steg två och tre i efterföljande utvecklings- och valideringscykler.

Validering av innehåll är viktigt för att säkerställa kvaliteten och pålitligheten hos dina lösningar. Därför är det viktigt att du testar innehållsändringar innan du distribuerar dem till produktion.

Följande bild visar livscykeln för Power BI-innehåll och markerar steg tre, där du validerar innehåll.

Diagrammet visar livscykeln för Power BI-innehåll. Steg 3, som handlar om innehållsverifiering, är markerat.

Kommentar

En översikt över innehållslivscykelhantering finns i den första artikeln i den här serien.

Den här artikeln fokuserar på viktiga överväganden och beslut för validering av innehåll under hela livscykeln. Mer information om hur du verifierar innehåll finns i:

Validering av innehåll innebär att fatta specifika beslut eller åtgärder för att säkerställa att innehållet fungerar som förväntat.

När du validerar innehåll utvärderar du olika aspekter av lösningen.

  • Funktion: Om de objekt och funktioner som ingår i lösningen är funktionella. Ett exempel på testfunktioner är om en semantisk modell kan slutföra en schemalagd uppdatering.
  • Datanoggrannhet: Om de siffror och resultat som visas är fullständiga och överensstämmer med företagets förväntningar. Ett exempel på att testa datanoggrannhet är om ett värde i en rapport justeras till en känd baslinje.
  • Prestanda: Om frågor ger minimal påverkan på tillgängliga användarresurser eller väntetider för användare. Ett exempel på testprestanda är om ett dataflöde uppdateras på ett tillförlitligt sätt utan att överskrida tidsgränsen eller ha långa uppdateringstider.
  • Säkerhet: Om obehöriga personer är begränsade från att visa eller komma åt information eller hela lösningen. Ett exempel på att testa säkerhet är personifiering av en användare eller roll vid validering av säkerhet på radnivå (RLS).
  • Effektivitet: Om lösningen hanterar det relevanta affärsproblemet eller processen och har tillräckligt stöd för affärsmål som avsett. Ett exempel på testeffektivitet är insamling av användarfeedback när du utför användargodkännandetestning (UAT).
  • Tillgänglighet: Om lösningen uppfyller kända tillgänglighetsstandarder så att den kan användas av så många som möjligt. Ett exempel på hjälpmedelstestning är att kontrollera att rapporten uppfyller tillgänglighetschecklistan för Microsoft-rapporter.

Du validerar innehåll genom att utföra olika typer av tester. I följande avsnitt beskrivs viktiga överväganden för beslut om hur innehållsskapare och innehållskonsumenter utför testning.

Kommentar

Många team använder testmetoder som kommer från programvaruutveckling, till exempel enhetstester, integreringstester och röktester. Det finns många lika giltiga metoder för innehållstestning och validering. Det viktigaste är att du testar innehåll med hjälp av en metod som fungerar bäst för dina behov och hur ditt team fungerar.

Bestämma hur skapare ska verifiera innehåll

Innehållsskapare bör verifiera sina egna ändringar av innehållet för att säkerställa ändringarnas kvalitet och funktionalitet. Tester utförs vanligtvis på utvecklingsarbetsytan, som innehåller den senaste arbetsversionen av en lösning. Innehållsskapare testar sina egna ändringar innan innehållet distribueras till en testarbetsyta för användarverifiering.

Kommentar

Det är viktigt att innehållsskapare verifierar sitt eget innehåll innan det görs tillgängligt för användare. Om en lösning tillhandahålls för att testa användare med uppenbara problem urholkas förtroendet för lösningen. Även vid testning förväntar sig användarna att se en rimlig representation av slutprodukten. Dessutom kan en funktionell lösning göra det möjligt för användare att fokusera på att identifiera problem som rör deras affärsområde.

Det finns två sätt för innehållsskapare att verifiera innehåll.

  • Manuell testning: Manuella tester innebär att någon verifierar innehållet manuellt, antingen genom subjektiv utvärdering eller genom att jämföra med vissa objektiva testkriterier. Manuella tester är lätta att utföra, men de är föremål för mänskliga fel eller bias. När innehållet når en viss skala kan manuella tester dessutom bli besvärliga att utföra korrekt. Du kan utföra manuell testning på två sätt.
    • Oberoende granskning, som innebär att du testar ditt eget innehåll, till exempel semantiska modeller och rapporter.
    • Peer-granskning, som omfattar en subjektiv utvärdering av innehållet för att kritiskt utvärdera lösningen och ge förslag för att förbättra den.
  • Automatiserad testning: Automatiserade tester omfattar ett fördefinierat test som utvärderas automatiskt utan mänsklig inblandning. Vanligtvis kontrollerar automatiserade tester delar av lösningskoden mot specifika riktmärken eller baslinjer. Automatiserad testning är svårare att utföra och tar tid och ansträngning att konfigurera. Automatiserad testning är dock viktigt i företagsscenarier för att säkerställa kvaliteten och pålitligheten hos större implementeringar och affärskritiska lösningar.

I följande avsnitt beskrivs olika sätt som innehållsskapare kan utföra manuell testning, automatiserad testning och peer-granskning.

Utföra manuell testning

Du bör utföra egna manuella tester på det innehåll som du skapar. Dessa tester bör se till att dina ändringar fungerar som förväntat och uppnå önskade kvalitetsstandarder. Vanligtvis omfattar manuell testning användning och subjektiv utvärdering av innehållet eller specifika innehållsändringar, samt att beskriva och dokumentera resultaten.

Här följer några saker att tänka på när du testar ditt eget innehåll.

  • Bestäm och dokumentera testvillkoren och framgångskriterierna i förväg.
  • Var noggrann med testning och dokumentera testresultaten. Se dock till att du undviker överflödig testning så att dina testmetoder inte saktar ned utvecklingen.
  • Skapa en standarduppsättning tester för varje objekttyp för att förbättra repeterbarheten.
  • Dokumentera testresultat och slutsatser.
  • Testa flera gånger för att säkerställa att testresultaten bäst återspeglar verkligheten och inte slumpen.
  • Använd testvillkor som är representativa för din produktionsmiljö.

I följande avsnitt beskrivs andra viktiga överväganden för manuell testning.

Testa semantiska modeller manuellt

Semantiska modeller är en viktig del av en lösning i Fabric och Power BI eftersom de är en uppströmskälla för rapporter, instrumentpaneler och andra klientverktyg och infrastrukturarbetsbelastningar. Därför är det viktigt att verifiera dina semantiska modeller före distributionen.

Besvara frågor som följande för att hjälpa dig att verifiera din semantiska modell.

  • Innehåller tabeller oväntade värden som saknas, dupliceras eller är felaktiga?
  • Returnerar DAX-mått det förväntade resultatet utan långa frågetider?
  • Slutförs en schemalagd uppdatering utan långa uppdateringstider?
  • Observerar du (tomma) resultat i visuella objekt, filter eller frågeresultat som orsakas av överträdelser av referensintegritet?
  • Hindrar datasäkerhet, till exempel RLS eller säkerhet på objektnivå (OLS), obehöriga personer från att komma åt modellen eller dess data tillräckligt?
  • Är modellobjekt (som DAX-mått eller tabellkolumner) ordnade i visningsmappar?

Du kan använda olika verktyg och metoder för att verifiera dina semantiska modeller.

  • Power BI Desktop: Med Power BI Desktop kan du verifiera olika aspekter av dina semantiska modeller med hjälp av olika funktioner. Exempel på Power BI Desktop-funktioner som underlättar testning av semantiska modeller är:
    • Visuell arbetsyta: Testa modellens funktioner och noggrannhet med dra och släpp-visuella objekt.
    • DAX-frågevy: Testa modellens noggrannhet och DAX-kod med DAX-frågor som du kan spara och återanvända senare.
    • Frågediagnostik: Testa uppdateringsprestanda genom att hämta diagnostikinformation om hur frågor utvärderas i Power Query.
  • Infrastruktur: Med funktioner och objekt i Infrastrukturportalen kan du verifiera aspekter av din semantiska modell när den har distribuerats till en arbetsyta.
  • Verktyg från tredje part: Med verktyg från tredje part kan du verifiera andra aspekter av din semantiska modell, antingen genom att tillhandahålla mer information eller andra funktioner som underlättar valideringen. Exempel på verktyg från tredje part som underlättar testning av semantiska modeller är:
    • DAX Studio: Testa och optimera prestanda för DAX-kod genom att ta emot detaljerade uppdelningar av DAX-frågetider och frågeplaner.
    • Tabellredigeraren: Testa och felsöka precisionen i DAX-kod genom att ta emot detaljerade uppdelningar av hur DAX-frågor utvärderas och vilken utvärderingskontext som är aktiv.

Dricks

Du kan använda frågediagnostik för att manuellt verifiera och optimera prestanda för Power Query från andra objekt som använder den, till exempel dataflöden.

Dessutom kan du använda DAX-frågevyn och verktyg från tredje part som DAX Studio för att verifiera och optimera DAX-frågor för sidnumrerade rapporter och styrkort.

Testa rapporter manuellt

Rapporter är ett vanligt sätt för användare att interagera med dina data. Många användare är beroende av rapporter för att fatta beslut och vidta åtgärder för att göra framsteg mot sina affärsmål. Därför är det viktigt att verifiera dina rapporter före distributionen.

Besvara frågor som följande för att hjälpa dig att verifiera dina rapporter.

  • Uppfyller rapporterna de dokumenterade affärskraven?
  • Används rätt typer av visuella objekt för att hantera rätt fråga?
  • Är rapportsidorna klara och koncisa utan överväldigande färger eller för många visuella objekt?
  • Fungerar rapporten som förväntat vid filtrering till en smal delmängd av data?
  • Tillåter rapporten export till Excel, och i så fall tillåter den hämtning av sammanfattade data eller underliggande data?
  • Kan rapporten användas för detaljerad information mellan rapporter eller anpassning av visuella objekt?

Du kan använda olika verktyg och metoder för att verifiera dina rapporter.

  • Power BI Desktop: Med Power BI Desktop kan du verifiera olika aspekter av dina rapporter med hjälp av olika funktioner. Exempel på Power BI Desktop-funktioner som underlättar testningsrapporter är:
  • Infrastrukturresurser: Med funktioner och objekt i Infrastrukturportalen kan du verifiera aspekter av rapporten när den har distribuerats till en arbetsyta.
    • Uppdateringsapp: Testa rapportfunktioner och säkerhet när du distribuerar rapporter i Power BI-appar och ställer in olika apppubliker för att avgöra vem som kan visa vilket innehåll. När du använder apppubliker kan du förhandsgranska vilka rapporter de har åtkomst till och testa appupplevelsen själv.
    • Läsvyn i arbetsytan eller appen: Testa rapportfunktioner och noggrannhet med hjälp av den i samma miljö som en användare.

Kommentar

Du kan bara utveckla och verifiera instrumentpaneler i Fabric-portalen.

Viktigt!

Det är viktigt att du testar dina rapporter i både Power BI Desktop och efter distributionen i Infrastrukturportalen. Visuell återgivning kan bete sig annorlunda på den lokala datorn jämfört med rapporter på en infrastrukturarbetsyta. Tänk också på att användarupplevelsen av att använda en rapport från en arbetsyta eller app skiljer sig avsevärt från att använda en rapport i Power BI Desktop.

Testa manuellt genom att utföra en peer-granskning

Ett annat sätt att verifiera innehåll manuellt är genom att utföra en peer-granskning. I en peer-granskning tillhandahåller innehållsskapare lösningen eller en del av lösningen till en kollega att utvärdera. Syftet med en peer-granskning är att förbättra en lösning genom att använda den samlade erfarenheten och expertisen hos flera innehållsskapare. Du kan utföra peer-granskning både under och efter manuell och automatiserad testning.

Kommentar

Peer-granskning är en standardmetod som används i många branscher. Den här metoden är allmänt känd för att förbättra kvaliteten på innehåll, produkter och processer.

Dricks

Om du är den enda innehållsskapare för en lösning kan du hitta en annan innehållsskapare i ett annat team för att granska din lösning och erbjuda dig att göra samma sak för dem.

Det finns olika sätt att utföra en peer-granskning.

  • Funktionsgranskning: En funktionell granskning fokuserar på funktioner, processer eller affärskrav som lösningen ska uppfylla. I en funktionell granskning använder granskarna lösningen som om de vore slutanvändare. De dokumenterar eventuella defekter eller problem som de hittar, tillsammans med eventuell subjektiv kritik för att förbättra implementeringen.
  • Teknisk granskning: En teknisk granskning fokuserar på tekniska aspekter av lösningen, till exempel datamodellering, kod eller design. I en teknisk granskning utvärderar granskare hur vissa funktioner eller ändringar har implementerats och föreslår alternativa metoder eller lyfter fram potentiella brister eller risker med den nuvarande metoden.
  • Pull-begäran: När du utför källkontroll skapar du en pull-begäran (PR) för att sammanfoga ändringarna till den senaste versionen av en lösning. En teknisk ägare granskar de föreslagna ändringarna och utvärderar källkoden. Den här typen av granskning är användbar för att säkerställa att koden följer standardkonventioner, till exempel formatering av DAX- eller M-kod, eller för att identifiera antimönster eller potentiellt problematisk kod.

Dricks

Vi rekommenderar att du utför någon form av formell peer-granskning och godkännande innan innehållsändringar kan övergå till testning av användargodkännande. Det beror på att innehåll av dålig kvalitet kan skada förtroendet för dina datalösningar, även under testningen. Dessutom kan peer-granskning också ge fördelar för samarbete och kunskapsdelning bland teammedlemmar.

När du har slutfört en peer-granskningscykel bör du dokumentera och införliva eventuella rekommenderade ändringar. Om det behövs bör du skicka ändringarna på nytt för godkännande innan du går vidare till användartestning. Vanligtvis behövs flera iterationer av peer-granskning endast när det finns många ändringar eller några komplexa ändringar att testa.

Automatisera testning

Innehållsskapare kan automatisera testningen så att tester utförs automatiskt före distributionen. Automatiserade tester omfattar vanligtvis fördefinierade testvillkor som körs och samordnas programmatiskt som svar på vissa åtgärder, till exempel att spara innehåll eller skicka en pull-begäran (PR). Resultatet av automatiserade tester lagras automatiskt för senare referens och dokumentation.

Syftet med ett automatiserat test är att minska tiden och arbetet med att validera innehållsändringar, samtidigt som konsekvensen i testerna och tillförlitligheten för deras resultat förbättras. När innehållet misslyckas med ett automatiserat test hindras det vanligtvis från att distribueras tills problem har lösts av innehållsskapare.

Effektiv automatiserad testning är en viktig del av implementeringen av DataOps. Med DataOps kan team automatisera och skala processer genom att införa metoder som förbättrar och påskyndar leveransen av data och analys.

Viktigt!

För att effektivt automatisera testningen bör du skapa väl utformade tester. Det kan ta mycket tid och arbete att skapa sådana tester. Om dina testvillkor och förväntningar är dåligt definierade kan dina automatiserade tester inte verifiera rätt aspekter av ditt innehåll, och du får liten nytta av att automatisera dessa tester.

Dricks

Automatiserad testning är mest fördelaktig när den integreras med din lösningsdistribution i publiceringsscenarier för företagsinnehåll. Du kan till exempel automatisera testningen med hjälp av Azure Pipelines som en del av en valideringspipeline, vilket säkerställer att innehållet är redo att distribueras. Mer information finns i Steg 4: Distribuera innehåll.

I följande avsnitt beskrivs viktiga överväganden för att automatiskt testa Power BI-semantiska modeller och rapporter.

Automatisera testning av semantiska modeller

Automatiserad testning av semantiska modeller är möjlig, även om det vanligtvis kräver anpassad konfiguration med verktyg och ramverk från tredje part.

Du kan använda olika verktyg och metoder för att automatisera testning av semantiska modeller.

  • Best Practice Analyzer (BPA): Med Best Practice Analyzer kan du ange regler som du kan använda för att utvärdera en semantisk modell. Du kan köra BPA med hjälp av Tabellredigeraren, som identifierar regelöverträdelser i en semantisk modell. Du kan automatisera kontroller av BPA-regelöverträdelser med hjälp av kommandoradsgränssnittet för tabellredigeraren (CLI) tillsammans med Azure DevOps eller som en del av en annan schemalagd process.
  • Med notebook-filer och semantisk länk:Notebooks i Infrastruktur kan du använda semantisk länk för att programmatiskt interagera med semantiska modeller. Du kan använda notebook-filer för att köra ramverk som GX (Great Expectations) för att verifiera data. Dessutom kan du utvärdera mått och DAX-frågor och sedan testa resultaten mot kända baslinjer.
  • Med Power Automate:Power Automate kan du köra frågor mot semantiska modeller och exportera rapporter med hjälp av Power BI REST-API:er. Du kan kontrollera frågeresultatet mot kända baslinjer och sedan utföra underordnade åtgärder som att utlösa aviseringar till innehållsägare.

Dricks

Överväg att kombinera automatiserad testning och orkestrering av dina semantiska modeller. Du kan till exempel utföra automatiserade tester på en datakälla och semantisk modell före en uppdatering med hjälp av notebook-filer eller Power Automate. Om testerna misslyckas kan du förhindra uppdateringen, vilket också kan förhindra uppdateringsfel eller felaktiga data från att komma in i affärsrapporter.

Automatisera testning av rapporter

Det finns begränsade alternativ för att automatisera testning av rapporter. Dessa alternativ förlitar sig på externa verktyg eller community-lösningar för att automatiskt validera visuella objekt eller rapportegenskaper, till exempel validera rapportmetadata eller simulera användarinteraktioner med rapporter.

Du kan använda olika verktyg och metoder för att automatisera testning av rapporter.

  • Analysverktyg för bästa praxis för rapporter: Det finns olika verktyg från tredje part som stöder Best Practice Analyzer-liknande funktioner för att automatisera identifieringen av problem i rapporter genom att undersöka rapportdefinitionen. Två verktyg som stöder den här funktionen är PBI Explorer och PBI Inspector.
  • Power Automate Desktop: Med verktyg för gränssnittsautomatisering som Selenium för Python eller Power Automate Desktop kan du simulera interaktion med användarmus med rapporter. Genom att definiera ett användarflöde kan du testa navigering och interaktioner. Dessa tester godkänns när de kan slutföra flödet och misslyckas när de identifierar specifika ord eller bilder på skärmen (till exempel ett felmeddelande eller ett tomt visuellt objekt).

Bestämma hur användare ska verifiera innehåll

När innehållet har genomgått manuell testning, automatiserad testning och peer-granskning kan det gå vidare till användartestning. När användarna testar innehåll ger de subjektiv feedback om huruvida innehållet uppfyller affärskraven och uppfyller deras förväntningar, inklusive att returnera korrekta resultat.

Användarverifiering sker vanligtvis på en testarbetsyta. När du konfigurerar en testarbetsyta bör du ta hänsyn till följande överväganden.

  • Skapa en testapp: Om du tänker distribuera innehåll med hjälp av en Power BI-app konfigurerar du en testapp för testanvändare för att verifiera innehåll. Testappen bör vara identisk med den app som du konfigurerar i produktion. I navigeringen av testappen bör du överväga att inkludera länkar till dokumentation, utbildning och feedbackformulär.
  • Etableringsåtkomst: Identifiera en delmängd av användare från communityn som ska validera lösningen. Kontakta dessa användare och skapa ett avtal om när och varför de ska validera det här innehållet. Se sedan till att du ger dem åtkomst till innehållet och lägger till dem i lämpliga säkerhetsroller. Dela länkar till innehållet eller testappen med användarna så att de kan komma igång med testning.
  • Konfigurera schemalagd uppdatering: Användarverifieringen sträcker sig vanligtvis över en längre period. Det är värt att konfigurera en schemalagd uppdatering av dataobjekt på testarbetsytan så att användarna testar med de senaste data.

Viktigt!

När du distribuerar innehåll till en testarbetsyta måste du uppdatera appen manuellt innan ändringar i rapporter och instrumentpaneler visas för användarna.

Kommentar

Du kan inte distribuera eller kopiera appar från en arbetsyta till en annan. Ändringar i en app måste göras manuellt i konfigurationen för den arbetsytan.

Innan du påbörjar användarverifieringen bör du utföra de nödvändiga förberedelserna.

  • Planera när användarverifiering ska ske.
  • Ange om användarvalidering är begränsad till en viss period eller en del av en iterativ process.
  • Skapa en metod för att samla in feedback, till exempel med hjälp av Microsoft Forms.
  • Kommunicera med användare som deltar i valideringen av planeringen och förväntningarna.
  • Organisera en kick-off för användarverifiering för att vägleda användare och hantera förväntningar.
  • Genomför utbildning för användare för att demonstrera validerings- och feedbackprocessen.

Här är några olika sätt att underlätta användarverifiering av innehåll.

  • Observatorietestning: Observatorietester är korta sessioner där innehållsskapare ser en eller flera användare använda innehållet utan vägledning eller instruktioner. I dessa sessioner använder innehållsskapare sina observationer för att identifiera potentiella brister, problem eller förbättringar av lösningen. Dessa tester kan vara värdefulla eftersom de kräver lite tid och ansträngning för att organisera och kan begränsas till specifika funktioner eller delar av en lösning. Observatorietester är mest fördelaktiga för att få tidig feedback om en design eller metod, till exempel med ett konceptbevis (POC).
  • Fokusgruppstestning: Fokusgruppstester är begränsade sessioner som organiseras med en liten grupp användare som går igenom innehållet tillsammans. Dessa fokusgrupper är utvalda för att välja viktiga intressenter och ämnesexperter som kan ge bästa möjliga feedback om vissa funktioner. Fokusgruppstester kan utföras under flera interaktiva sessioner. Fokusgruppstestning kräver mer tid och arbete än observatorietestning, men kan ge mer detaljerad feedback om en lösning.
  • Testning av användargodkännande:UAT (User Acceptance Testing) är en formell process där en större grupp individer från användarcommunityn validerar och ger asynkron feedback om en lösning. UAT kräver mest tid och arbete för att organisera, men det är det mest grundliga sättet att utföra användartestning. När testanvändarna har accepterat lösningen och feedbackproblemen har lösts kan innehållet distribueras till produktionsarbetsytan.

När du har bestämt dig för hur du ska validera innehåll kan du planera hur du ska distribuera det till och mellan arbetsytor.

Checklista – När du planerar för att verifiera innehåll, omfattar viktiga beslut och åtgärder:

  • Design- och dokumenttestvillkor: Beskriv de tester som du ska utföra, vad de testar och hur du ska utföra dem.
  • Besluta om en peer-granskningsprocess: Beskriv vilka andra som ska validera innehållet förutom dig själv.
  • Bestäm en metod för manuell testning: Bestäm vilka verktyg och funktioner du ska använda för att verifiera innehållet som du skapar.
  • Bestäm om du ska använda automatiserad testning: Identifiera om innehållets skalning och omfattning motiverar att du konfigurerar automatiserade tester. I så fall bör du se till att du planerar för den tid och de resurser som krävs för att utforma och implementera dessa tester så att de verifierar vad du förväntar dig.
  • Distribuera innehåll från utvecklingsarbetsytan till testarbetsytan: Distribuera ändringar från utvecklingsarbetsytan till testarbetsytan så att ändringarna visas för användarna. Se till att du har gjort de nödvändiga aktiviteterna efter distributionen på testarbetsytan, till exempel att konfigurera och uppdatera en testapp.
  • Besluta om en metod för användartestning: Bestäm hur användarna ska validera innehållet.
  • Identifiera testanvändare: Identifiera vem i användarcommunityn som ska validera innehållet. Nå en överenskommelse med dessa individer om omfattningen av deras engagemang och förväntningar.
  • Samla in feedback från användare: Konfigurera verktyg och processer för att automatiskt samla in feedback. Du kan till exempel använda Uppgifter och Planerare i Microsoft Teams eller Microsoft Forms.
  • Dokumenttestresultat: Dokumentera resultatet av all innehållsverifiering och eventuella ändringar som görs till följd av testresultaten. Se till att den här dokumentationen är enkel att hitta.
  • Planera distributionen till produktion: När användartestningen har slutförts förbereder du distributionen av innehåll från testarbetsytan till produktionsarbetsytan.

I nästa artikel i den här serien får du lära dig hur du distribuerar innehåll som en del av hanteringen av innehållslivscykeln.