Compartilhar via


Planejamento de implementação do Power BI: validar conteúdo

Observação

Este artigo faz parte da série de artigos sobre o Planejamento de implantação do Power BI. Essa série se concentra principalmente na experiência do Power BI dentro Microsoft Fabric. Para ter uma introdução a essa série, confira Planejamento de implementação do Power BI.

Este artigo ajuda você a validar conteúdo como parte do gerenciamento do ciclo de vida do conteúdo. Ele é voltado principalmente para:

  • Equipes de COE (Centro de Excelência) e BI: as equipes responsáveis por supervisionar o Power BI na organização. Essas equipes incluem os responsáveis pelas decisões que decidem como gerenciar o ciclo de vida do conteúdo do Power BI. Essas equipes também podem contar com gerentes de versão, responsáveis pelo ciclo de vida das versões de conteúdo, e engenheiros que desenvolvem e gerenciam os componentes necessários para usar e dar suporte eficaz ao gerenciamento do ciclo de vida.
  • Criadores de conteúdo e proprietários de conteúdo: usuários que criam conteúdo que querem publicar no portal do Fabric para compartilharem com outras pessoas. Esses indivíduos são responsáveis por gerenciarem o ciclo de vida do conteúdo do Power BI que eles criam.

O gerenciamento do ciclo de vida consiste nos processos e práticas que você usa para lidar com o conteúdo desde sua criação até sua eventual desativação. No segundo estágio do gerenciamento do ciclo de vida, você desenvolve conteúdo e gerencia alterações, que envolvem decisões importantes sobre como você desenvolverá conteúdo e configurará workspaces e controle de versão. Na terceira fase, você valida o conteúdo para testar se ele está pronto para implantação.

Observação

Normalmente, você itera pelas fases dois e três em ciclos sucessivos de desenvolvimento e validação.

A validação de conteúdo é essencial para garantir a qualidade e a confiabilidade de suas soluções. Por esse motivo, é essencial que você teste as alterações de conteúdo antes de implantá-las em produção.

A imagem a seguir ilustra o ciclo de vida do conteúdo do Power BI, destacando a fase três, em que você valida o conteúdo.

O diagrama mostra o ciclo de vida do conteúdo no Power BI. A Fase 3, que é sobre validação de conteúdo, está em destaque.

Observação

Para ter uma visão geral do gerenciamento do ciclo de vida do conteúdo, confira o primeiro artigo dessa série.

Este artigo se concentra nas considerações e decisões importantes para a validação de conteúdo em todo o ciclo de vida. Para mais orientações sobre como validar conteúdo, confira:

A validação de conteúdo envolve tomar decisões ou ações específicas para garantir que o conteúdo seja executado conforme o esperado.

Ao validar o conteúdo, você avalia diferentes aspectos da solução.

Você valida o conteúdo realizando diferentes tipos de testes. As seções a seguir descrevem as principais considerações para decisões sobre como criadores de conteúdo e consumidores de conteúdo executam testes.

Observação

Muitas equipes usam metodologias de teste que se originam do desenvolvimento de software, como testes de unidade, testes de integração e smoke tests. Há muitas abordagens igualmente válidas para teste e validação de conteúdo. O mais importante é que você teste o conteúdo usando uma abordagem que funcione melhor para suas necessidades e a maneira como sua equipe funciona.

Decidir como os criadores devem validar conteúdo

Os criadores de conteúdo devem validar as alterações deles ao conteúdo para garantir a qualidade e a funcionalidade dessas alterações. Normalmente, os testes ocorrem no workspace de desenvolvimento, que contém a versão de trabalho mais recente de uma solução. Os criadores de conteúdo testam as próprias alterações antes que o conteúdo seja implantado em um workspace de teste para validação do usuário.

Observação

É essencial que os criadores de conteúdo validem o conteúdo deles antes que ele seja disponibilizado aos usuários. Se uma solução for fornecida para usuários de teste contendo problemas óbvios, ela comprometerá a confiança na solução. Mesmo durante o teste, os usuários esperam ver uma representação razoável do produto final. Além disso, uma solução funcional permite que os usuários se concentrem na identificação de problemas relacionados à área de negócios.

Há duas maneiras de os criadores de conteúdo validarem o conteúdo.

  • Teste manual: testes manuais envolvem alguém validando manualmente o conteúdo, por meio de avaliação subjetiva ou comparando com alguns critérios de teste objetivos. Os testes manuais são fáceis de executar, mas estão sujeitos a erros ou preconceitos humanos. Além disso, quando o conteúdo atinge uma determinada escala, pode se tornar trabalhoso executar os testes manuais corretamente. Você pode realizar testes manuais de duas maneiras.
    • Revisão independente, que envolve testar o seu próprio conteúdo, como modelos semânticos e relatórios.
    • Revisão par, que envolve uma avaliação subjetiva do conteúdo para avaliar criticamente a solução e fornecer sugestões para aprimorá-la.
  • Teste automatizado: testes automatizados envolvem um teste pré-preparado que é avaliado automaticamente sem intervenção humana. Normalmente, os testes automatizados verificam partes do código da solução em relação a parâmetros de base ou linhas de base específicos. O teste automatizado é mais difícil de executar e leva tempo e esforço para configurar. No entanto, o teste automatizado é essencial em cenários empresariais para garantir a qualidade e a confiabilidade de implementações maiores e soluções comercialmente críticas.

As seções a seguir descrevem diferentes maneiras pelas quais os criadores de conteúdo podem realizar testes manuais, testes automatizados e revisão por par.

Realizar testes manuais

Você deve realizar seus testes manuais no conteúdo criado por você. Esses testes devem garantir que suas alterações funcionem conforme o esperado e atinjam os padrões de qualidade desejados. Normalmente, o teste manual envolve o uso e a avaliação subjetiva do conteúdo ou alterações de conteúdo específicas e a descrição e documentação dos resultados.

Aqui estão algumas considerações ao testar seu conteúdo.

  • Escolha e documente com antecedência as condições de teste e os critérios de êxito.
  • Seja detalhado com o teste e com a documentação dos resultados do teste. No entanto, evite testes supérfluos para que suas práticas de teste não atrasem o desenvolvimento.
  • Crie um conjunto padrão de testes para cada tipo de item para aprimorar a capacidade de repetição.
  • Resultados e conclusões do teste de documento.
  • Teste várias vezes para garantir que os resultados do teste reflitam melhor a realidade e não uma chance aleatória.
  • Use condições de teste que sejam representativas do seu ambiente de produção.

As seções a seguir descrevem outras considerações importantes para testes manuais.

Testar manualmente modelos semânticos

Os modelos semânticos são uma parte importante de uma solução no Fabric e no Power BI porque são uma fonte upstream para relatórios, dashboards e outras ferramentas de cliente e cargas de trabalho do Fabric. Dessa forma, é importante validar seus modelos semânticos antes da implantação.

Responda a perguntas como as seguintes para obter ajuda na validação do seu modelo semântico.

  • As tabelas contêm valores inesperados ausentes, duplicados ou incorretos?
  • As medidas DAX retornam os resultados esperados sem tempos de consulta longos?
  • Uma atualização agendada é concluída com êxito sem tempos de atualização longos?
  • Você observa que (Em branco) resulta em visuais, filtros ou resultados de consulta causados por violações de integridade referencial?
  • A segurança de dados, como RLS ou OLS (segurança em nível de objeto), impede suficientemente que indivíduos não autorizados acessem o modelo ou os dados dele?
  • Objetos de modelo (como medidas DAX ou colunas de tabela) são organizados em pastas de exibição?

Você pode usar diferentes ferramentas e abordagens como auxílio para validar seus modelos semânticos.

  • Power BI Desktop: o Power BI Desktop permite validar diferentes aspectos de seus modelos semânticos usando vários recursos. Exemplos de recursos do Power BI Desktop que facilitam o teste de modelos semânticos incluem:
    • Tela visual: teste a funcionalidade e a precisão do modelo com visuais de arrastar e soltar.
    • Exibição de consulta DAX: teste a precisão do modelo e o código DAX com consultas DAX que você pode salvar e reutilizar mais tarde.
    • Diagnóstico de consulta: teste o desempenho da atualização obtendo informações de diagnóstico sobre como as consultas são avaliadas no Power Query.
  • Fabric: recursos e itens no portal do Fabric permitem validar aspectos do modelo semântico depois que ele é implantado em um workspace.
  • Ferramentas de terceiros: ferramentas de terceiros permitem validar outros aspectos do modelo semântico, fornecendo mais detalhes ou outros recursos que facilitam a validação. Exemplos de ferramentas de terceiros que facilitam o teste de modelos semânticos incluem:
    • DAX Studio: teste e otimize o desempenho do código DAX recebendo detalhamentos de intervalos de consulta DAX e planos de consulta.
    • Editor tabular: teste e depure a precisão do código DAX recebendo detalhamentos de como as consultas DAX são avaliadas e qual contexto de avaliação está ativo.

Dica

Você pode usar o diagnóstico de consulta para validar e otimizar manualmente o desempenho do Power Query de outros itens que o usam, como fluxos de dados.

Além disso, você pode usar a exibição de consulta DAX e ferramentas de terceiros, como o DAX Studio, para validar e otimizar consultas DAX para relatórios paginados e scorecards.

Testar relatórios manualmente

Os relatórios são uma maneira comum de os usuários interagirem com seus dados. Muitos usuários dependem de relatórios para tomar decisões e tomar medidas para avançar em direção aos objetivos de negócios deles. Dessa forma, é importante validar seus relatórios antes da implantação.

Responda a perguntas como as seguintes para ajudar você a validar seus relatórios.

  • Os relatórios atendem aos requisitos de negócios documentados?
  • Os tipos visuais corretos são usados para abordar a pergunta certa?
  • As páginas de relatório são claras e concisas, sem cores exageradas ou visuais demais?
  • O relatório funciona conforme o esperado ao filtrar para um subconjunto estreito de dados?
  • O relatório permite exportar para o Excel e, nesse caso, permite a recuperação de dados resumidos ou dos dados subjacentes?
  • O relatório pode ser usado para detalhamento entre relatórios ou personalização de visuais?

Você pode usar diferentes ferramentas e abordagens como auxílio para validar seus relatórios.

  • Power BI Desktop: o Power BI Desktop permite que você valide diferentes aspectos de seus relatórios usando vários recursos. Exemplos de recursos do Power BI Desktop que facilitam os relatórios de teste incluem:
  • Fabric: recursos e itens no portal do Fabric permitem validar aspectos do relatório depois que ele é implantado em um workspace.
    • Aplicativo de atualização: teste a funcionalidade e a segurança do relatório ao distribuir relatórios em aplicativos do Power BI e definir diferentes públicos de aplicativos para determinar quem pode exibir qual conteúdo. Ao usar o público-alvo do aplicativo, você pode visualizar a quais relatórios eles terão acesso e testar a experiência do aplicativo por conta própria.
    • Exibição de leitura no workspace ou aplicativo: teste a funcionalidade e a precisão do relatório usando-o no mesmo ambiente que um usuário.

Observação

Você só pode desenvolver e validar dashboards no portal do Fabric.

Importante

É essencial testar seus relatórios no Power BI Desktop e após a implantação no portal do Fabric. A renderização visual pode se comportar de maneira diferente em seu computador local em comparação com relatórios em um workspace do Fabric. Além disso, lembre-se de que a experiência do usuário de usar um relatório de um workspace ou aplicativo difere significativamente do uso de um relatório no Power BI Desktop.

Testar manualmente executando uma revisão por par

Outra maneira de validar manualmente o conteúdo é executando uma revisão por par. Em uma revisão por par, o criador de conteúdo fornece a solução ou parte da solução para um colega avaliar. A finalidade de uma revisão por par é aprimorar uma solução usando a experiência coletiva e a experiência de vários criadores de conteúdo. Você pode executar a revisão por par durante e após testes manuais e automatizados.

Observação

A revisão por par é uma abordagem padrão usada em muitos setores. Essa abordagem é comumente conhecida para aprimorar a qualidade do conteúdo, dos produtos e dos processos.

Dica

Se você for o único criador de conteúdo para uma solução, considere encontrar outro criador de conteúdo em uma equipe diferente para examinar sua solução e oferecer-se para fazer o mesmo por elas.

Há diferentes maneiras de realizar uma revisão por par.

  • Revisão funcional: uma revisão funcional se concentra em recursos, processos ou requisitos de negócios que a solução deve atender. Em uma revisão funcional, os revisores usam a solução como se fossem um usuário final. Eles documentam quaisquer defeitos ou problemas encontrados, juntamente com qualquer crítica subjetiva para aprimorar a implementação.
  • Revisão técnica: uma revisão técnica se concentra em aspectos técnicos da solução, como modelagem de dados, código ou design. Em uma revisão técnica, os revisores avaliam como determinados recursos ou alterações foram implementados e sugerem abordagens alternativas ou destacam possíveis falhas ou riscos à abordagem atual.
  • Solicitação de pull: ao executar o controle do código-fonte, você cria uma PR (solicitação de pull) para mesclar suas alterações à versão mais recente de uma solução. Um proprietário técnico analisa as alterações propostas e avalia o código-fonte. Esse tipo de revisão é útil para garantir que o código adere a convenções padrão, como formatar código DAX ou M, ou identificar antipadrões ou código potencialmente problemático.

Dica

Recomendamos que você execute algum tipo de revisão e aprovação formal por par antes que as alterações de conteúdo possam passar para o teste de aceitação por usuários. Isso ocorre porque conteúdo de baixa qualidade pode prejudicar a confiança em suas soluções de dados, mesmo durante o teste. Além disso, a revisão por par também pode gerar benefícios para a colaboração e o compartilhamento de conhecimento entre os membros da equipe.

Depois de concluir um ciclo de revisão por par, você deverá documentar e incorporar as alterações recomendadas. Se necessário, você deve reenviar as alterações para aprovação antes de passar para o teste por usuários. Normalmente, várias iterações de revisão por par só são necessárias quando há muitas alterações ou algumas alterações complexas a serem testadas.

Automatizar testagem

Os criadores de conteúdo podem automatizar o teste para que os testes sejam executados automaticamente antes da implantação. Os testes automatizados normalmente envolvem condições de teste pré-preparadas que são executadas e orquestradas programaticamente em resposta a determinadas ações, como salvar conteúdo ou enviar uma PR (solicitação de pull). Os resultados dos testes automatizados são armazenados automaticamente para referência e documentação posteriores.

A finalidade de um teste automatizado é reduzir o tempo e o esforço para validar as alterações de conteúdo, aprimorando a consistência dos testes e a confiabilidade dos resultados deles. Quando o conteúdo falha em um teste automatizado, ele normalmente é impedido de ser implantado até que os problemas sejam resolvidos pelo criador de conteúdo.

O teste automatizado eficaz é uma parte fundamental da implementação do DataOps. O DataOps permite que as equipes automatizem e dimensionem processos adotando práticas que aprimoram e aceleram a entrega de dados e análises.

Importante

Para automatizar o teste de maneira eficaz, você deve criar testes bem projetados. A criação desses testes pode exigir tempo e esforço significativos. Se suas condições de teste e expectativas estiverem mal definidas, seus testes automatizados não poderão validar os aspectos certos do seu conteúdo e você receberá pouco benefício ao automatizar esses testes.

Dica

O teste automatizado é mais benéfico quando integrado à implantação da solução em cenários de publicação de conteúdo corporativo. Por exemplo, você pode automatizar o teste usando o Azure Pipelines como parte de um pipeline de validação, o que garante que o conteúdo esteja pronto para ser implantado. Para obter mais informações, consulte Fase 4: Implantar conteúdo.

As seções a seguir descrevem as principais considerações para testar automaticamente os modelos e relatórios semânticos do Power BI.

Automatizar o teste de modelos semânticos

O teste automatizado de modelos semânticos é possível, embora normalmente exija configuração personalizada com estruturas e ferramentas de terceiros.

Você pode usar diferentes ferramentas e abordagens para automatizar o teste de modelos semânticos.

  • BPA (Analisador de Práticas Recomendadas): o Analisador de Práticas Recomendadas permite especificar regras que você pode usar para avaliar um modelo semântico. Você pode executar o BPA usando o Editor Tabular, que identificará quaisquer violações de regra em um modelo semântico. Você pode automatizar verificações de violações de regra de BPA usando a CLI (interface de linha de comando) do Editor Tabular junto com o Azure DevOps ou como parte de outro processo agendado.
  • Notebooks de malha e link semântico:Notebooks no Fabric permitem que você use o link semântico para interagir programaticamente com modelos semânticos. Você pode usar notebooks para executar estruturas como a GX (Grandes Expectativas) para validar dados. Além disso, você pode avaliar medidas e consultas DAX e testar os resultados em linhas de base conhecidas.
  • Power Automate:o Power Automate permite que você execute consultas em modelos semânticos e exporte relatórios usando as APIs REST do Power BI. Você pode verificar os resultados da consulta em relação às linhas de base conhecidas e executar ações downstream, como disparar alertas para proprietários de conteúdo.

Dica

Considere combinar os testes automatizados e a orquestração de seus modelos semânticos. Por exemplo, você pode realizar testes automatizados em uma fonte de dados e modelo semântico antes de uma atualização usando notebooks ou o Power Automate. Se os testes falharem, você poderá impedir a atualização, o que também pode impedir que erros de atualização ou dados incorretos cheguem em relatórios de negócios.

Automatizar o teste de relatórios

Há opções limitadas disponíveis para automatizar o teste de relatórios. Essas opções dependem de ferramentas externas ou soluções de comunidade para validar automaticamente visuais ou propriedades de relatório, como validar metadados de relatório ou simular interações do usuário com relatórios.

Você pode usar diferentes ferramentas e abordagens para automatizar o teste de relatórios.

  • Analisadores de práticas recomendadas de relatório: há várias ferramentas de terceiros que dão suporte à funcionalidade do Analisador de Práticas Recomendadas para automatizar a detecção de problemas em relatórios examinando a definição de relatório. Duas ferramentas que dão suporte a essa funcionalidade são o Explorador de PBI e o Inspetor de PBI.
  • Power Automate Desktop: ferramentas de automação de interface do usuário, como o Selenium para Python ou o Power Automate Desktop, permitem simular interações do mouse do usuário com relatórios. Ao definir um fluxo de usuário, você pode testar a navegação e as interações. Esses testes são aprovados quando podem concluir o fluxo e falham quando detectam palavras ou imagens específicas na tela (como uma mensagem de erro ou um visual em branco).

Decidir como os usuários devem validar o conteúdo

Depois que o conteúdo passar por testes manuais, testes automatizados e revisão por par, ele poderá passar para o teste por usuários. Quando os usuários testam o conteúdo, eles fornecem comentários subjetivos sobre se esse conteúdo atende aos requisitos de negócios e desempenha de acordo com as expectativas deles, incluindo o retorno de resultados precisos.

A validação por usuários normalmente ocorre em um workspace de teste. Ao configurar um workspace de teste, leve em conta as considerações a seguir.

  • Criar um aplicativo de teste: se você pretende distribuir conteúdo usando um aplicativo do Power BI, configure um aplicativo de teste para os usuários de teste validarem o conteúdo. O aplicativo de teste deve ser idêntico ao aplicativo que você configurará em produção. Na navegação do aplicativo de teste, considere incluir links para documentação, treinamento e formulários de comentários.
  • Provisionar o acesso: identifique um subconjunto de usuários da comunidade que validarão a solução. Contate esses usuários e forme um contrato sobre quando e porque eles devem validar esse conteúdo. Em seguida, certifique-se de fornecer a eles acesso ao conteúdo e adicioná-los às funções de segurança apropriadas. Compartilhe links para o conteúdo ou o aplicativo de teste com os usuários para que eles possam começar a testar.
  • Configurar a atualização agendada: a validação por usuários normalmente abrange um período mais longo. Vale a pena configurar uma atualização agendada de itens de dados no workspace de teste para que os usuários estejam testando com os dados mais recentes.

Importante

Ao implantar conteúdo em um workspace de teste, você precisa atualizar manualmente o aplicativo antes que as alterações em relatórios e dashboards fiquem visíveis para os usuários.

Observação

Você não pode implantar nem copiar aplicativos de um workspace para outro. Todas as alterações em um aplicativo precisam ser feitas manualmente na configuração desse workspace.

Antes de iniciar a validação do usuário, você deve realizar as preparações necessárias.

  • Planeje quando a validação por usuários deve ocorrer.
  • Especifique se a validação por usuários está restrita a um período específico ou parte de um processo iterativo.
  • Crie um método para coletar comentários, como usando o Microsoft Forms.
  • Comunique o planejamento e as expectativas aos usuários envolvidos na validação.
  • Organize um pontapé inicial para a validação do usuário para orientar os usuários e gerenciar as expectativas.
  • Realize o treinamento para que os usuários demonstrem o processo de validação e de comentários.

Aqui estão algumas maneiras diferentes de facilitar a validação do conteúdo pelo usuário.

  • Teste do observatório: os testes do observatório são sessões curtas em que os criadores de conteúdo observam um ou mais usuários usarem o conteúdo sem orientação nem instrução. Nessas sessões, os criadores de conteúdo usam suas observações para identificar possíveis falhas, problemas ou aprimoramentos na solução. Esses testes podem ser valiosos, pois exigem pouco tempo e esforço para serem organizados e podem ser limitados a recursos ou partes específicos de uma solução. Os testes do observatório são mais benéficos para obter comentários antecipados sobre um design ou abordagem, como com uma POC (prova de conceito).
  • Teste de grupo de foco: os testes de grupo de foco são sessões limitadas organizadas com um pequeno grupo de usuários que passam pelo conteúdo juntos. Esses grupos de foco são selecionados para selecionar os principais stakeholders e especialistas no assunto que podem fornecer os melhores comentários sobre determinados recursos ou funcionalidades. Testes de grupo de foco podem ocorrer em várias sessões interativas. O teste de grupo de foco requer mais tempo e esforço do que testes de observatório, mas pode fornecer comentários mais detalhados sobre uma solução.
  • Teste de aceitação do usuário:O UAT (teste de aceitação do usuário) é um processo formal em que um grupo maior de indivíduos da comunidade de usuários valida e fornece comentários assíncronos sobre uma solução. A UAT requer mais tempo e esforço para ser organizada, mas é a maneira mais completa de realizar testes de usuário. Depois que os usuários de teste aceitarem a solução e os problemas de comentários forem resolvidos, o conteúdo poderá ser implantado no workspace de produção.

Depois de decidir como validar o conteúdo, você poderá planejar como implantá-lo entre workspaces.

Lista de verificação – ao planejar como validar conteúdo, as principais decisões e ações incluem:

  • Condições de teste de design e documento: descreva os testes que você realizará, o que eles testam e como você os executará.
  • Decida sobre um processo de revisão por par: descreva quem mais validará o conteúdo além de você.
  • Decida sobre uma abordagem de teste manual: decida quais ferramentas e recursos você usará para validar o conteúdo que você criar.
  • Decida se você usará testes automatizados: identifique se a escala e o escopo do conteúdo justificam que você configure testes automatizados. Nesse caso, certifique-se de planejar o tempo e os recursos necessários para projetar e implementar esses testes para que eles validem o que você espera.
  • Implantar conteúdo do workspace de desenvolvimento no workspace de teste: implante alterações do workspace de desenvolvimento no workspace de teste para que as alterações fiquem visíveis para os usuários. Verifique se você fez as atividades de pós-implantação necessárias no workspace de teste, como configurar e atualizar um aplicativo de teste.
  • Escolher uma abordagem para o teste de usuário: decida como os usuários validarão o conteúdo.
  • Identificar os usuários de teste: identifique quem entre a comunidade de usuários validará o conteúdo. Chegue a um acordo com esses indivíduos sobre a extensão do envolvimento e das expectativas deles.
  • Coletar comentários do usuário: configure ferramentas e processos para coletar comentários automaticamente. Por exemplo, você pode usar Tarefas e Planejador no Microsoft Teams ou no Microsoft Forms.
  • Documentar os resultados de teste: documente os resultados de toda a validação de conteúdo e quaisquer alterações feitas como consequência dos resultados do teste. Verifique se essa documentação é fácil de encontrar.
  • Planeje sua implantação para produção: depois que o teste de usuário for concluído, prepare-se para implantar o conteúdo do workspace de teste no workspace de produção.

No próximo artigo dessa série, saiba como implantar o conteúdo como parte do gerenciamento do ciclo de vida do conteúdo.