Comparteix a través de


Planeamiento de la implementación de Power BI: Validación del contenido

Nota:

Este artículo forma parte de la serie de artículos sobre el planeamiento de la implementación de Power BI. Esta serie se centra principalmente en la experiencia de Power BI en Microsoft Fabric. Para obtener una introducción a la serie, consulte el planeamiento de la implementación de Power BI.

Este artículo le ayuda a validar el contenido como parte de la administración del ciclo de vida del contenido. Se dirige principalmente a:

  • Equipos del centro de excelencia (COE) y BI: los equipos que son responsables de supervisar Power BI en la organización. Estos equipos incluyen responsables de la toma de decisiones que deciden cómo administrar el ciclo de vida del contenido de Power BI. Estos equipos también pueden incluir administradores de versiones, que controlan el ciclo de vida de las versiones de contenido e ingenieros que crean y administran los componentes necesarios para usar y admitir de forma eficaz la administración del ciclo de vida.
  • Creadores de contenido y propietarios de contenido: usuarios que crean contenido que quieren publicar en el portal de Fabric para compartirlos con otros usuarios. Estas personas son responsables de administrar el ciclo de vida del contenido de Power BI que crean.

La administración del ciclo de vida consta de los procesos y prácticas que se usan para controlar el contenido desde su creación hasta su retirada final. En la segunda fase de administración del ciclo de vida, desarrolla contenido y administra cambios, lo que implica decisiones clave sobre cómo desarrollar contenido y configurar áreas de trabajo y control de versiones. En la tercera fase, validará el contenido para probar si está listo para la implementación.

Nota:

Normalmente recorre en iteración las fases dos y tres en ciclos sucesivosde desarrollo y validación .

Validar el contenido es fundamental para garantizar la calidad y confiabilidad de las soluciones. Por este motivo, es esencial probar los cambios de contenido antes de implementarlos en producción.

En la imagen siguiente se muestra el ciclo de vida del contenido de Power BI, donde se resalta la fase tres, donde se valida el contenido.

Diagrama que muestra el ciclo de vida del contenido de Power BI. La fase 3, que se trata de la validación de contenido, está resaltada.

Nota:

Para obtener información general sobre la administración del ciclo de vida de contenido, consulte el primer artículo de esta serie.

Este artículo se centra en consideraciones y decisiones clave para validar el contenido a lo largo de su ciclo de vida. Para obtener más instrucciones sobre cómo validar el contenido, consulte:

La validación del contenido implica tomar decisiones o acciones específicas para asegurarse de que el contenido funciona según lo previsto.

Al validar el contenido, se evalúan distintos aspectos de la solución.

Para validar el contenido, realice diferentes tipos de pruebas. En las secciones siguientes se describen las consideraciones clave para las decisiones sobre cómo realizan las pruebas los creadores de contenido y los consumidores de contenido.

Nota:

Muchos equipos usan metodologías de prueba que se originan en el desarrollo de software, como pruebas unitarias, pruebas de integración y pruebas de humo. Hay muchos enfoques igualmente válidos para las pruebas de contenido y la validación. Lo más importante es que pruebe el contenido mediante un enfoque que funcione mejor para sus necesidades y la forma en que su equipo funcione.

Decidir cómo los creadores deben validar el contenido

Los creadores de contenido deben validar sus propios cambios en el contenido para garantizar la calidad y la funcionalidad de los cambios. Las pruebas suelen producirse en el área de trabajo de desarrollo, que contiene la versión de trabajo más reciente de una solución. Los creadores de contenido prueban sus propios cambios antes de implementar el contenido en un área de trabajo de prueba para la validación de usuarios.

Nota:

Es esencial que los creadores de contenido validen su propio contenido antes de que estén disponibles para los usuarios. Si se proporciona una solución para probar a los usuarios con problemas obvios, reduce la confianza en la solución. Incluso cuando se prueban, los usuarios esperan ver una representación razonable del producto final. Además, una solución funcional permite a los usuarios centrarse en identificar problemas relacionados con su área de negocio.

Hay dos maneras de que los creadores de contenido validen el contenido.

  • Pruebas manuales: Las pruebas manuales implican a alguien que valide manualmente el contenido, ya sea a través de una evaluación subjetiva o comparando con algunos criterios de prueba objetivos. Las pruebas manuales son fáciles de realizar, pero están sujetas a errores o sesgos humanos. Además, cuando el contenido alcanza una escala determinada, las pruebas manuales pueden resultar laboriosas para realizar correctamente. Puede realizar pruebas manuales de dos maneras.
    • Revisión independiente, que implica probar su propio contenido, como modelos semánticos e informes.
    • Revisión del nodo del mismo nivel, que implica una evaluación subjetiva del contenido para evaluar críticamente la solución y proporcionar sugerencias para mejorarlo.
  • Pruebas automatizadas: las pruebas automatizadas implican una prueba prepreparada que se evalúa automáticamente sin intervención humana. Normalmente, las pruebas automatizadas comprueban partes del código de la solución en pruebas comparativas o líneas base específicas. Las pruebas automatizadas son más difíciles de realizar y tardan tiempo y esfuerzo en configurarse. Sin embargo, las pruebas automatizadas son esenciales en escenarios empresariales para garantizar la calidad y confiabilidad de implementaciones más grandes y soluciones críticas para la empresa.

En las secciones siguientes se describen diferentes formas en que los creadores de contenido pueden realizar pruebas manuales, pruebas automatizadas y revisión del nodo del mismo nivel.

Realización de pruebas manuales

Debe realizar sus propias pruebas manuales en el contenido que cree. Estas pruebas deben asegurarse de que los cambios funcionan según lo previsto y lograr los estándares de calidad deseados. Normalmente, las pruebas manuales implican el uso y la evaluación subjetiva del contenido o cambios de contenido específicos, y la descripción y documentación de los resultados.

Estas son algunas consideraciones al probar su propio contenido.

  • Decida y documente previamente las condiciones de prueba y los criterios de éxito.
  • Realice pruebas y documente los resultados de la prueba. Sin embargo, asegúrese de evitar pruebas superfluas para que las prácticas de prueba no ralentice el desarrollo.
  • Cree un conjunto estándar de pruebas para cada tipo de elemento para mejorar la repetibilidad.
  • Documente los resultados y las conclusiones de las pruebas.
  • Pruebe varias veces para asegurarse de que los resultados de la prueba reflejen mejor la realidad y no la probabilidad aleatoria.
  • Use condiciones de prueba que sean representativas del entorno de producción.

En las secciones siguientes se describen otras consideraciones clave para las pruebas manuales.

Probar manualmente modelos semánticos

Los modelos semánticos son una parte importante de una solución en Fabric y Power BI porque son un origen ascendente para informes, paneles y otras herramientas de cliente y cargas de trabajo de Fabric. Por lo tanto, es importante validar los modelos semánticos antes de la implementación.

Responda a preguntas como las siguientes para ayudarle a validar el modelo semántico.

  • ¿Las tablas contienen valores inesperados que faltan, duplicados o incorrectos?
  • ¿Devuelven medidas DAX los resultados esperados sin tiempos de consulta largos?
  • ¿Se completa correctamente una actualización programada sin tiempos de actualización largos?
  • ¿Observa (blanco) los resultados de objetos visuales, filtros o resultados de consulta causados por infracciones de integridad referencial?
  • ¿La seguridad de los datos, como RLS o la seguridad de nivel de objeto (OLS), impide lo suficiente que los usuarios no autorizados accedan al modelo o a sus datos?
  • ¿Los objetos de modelo (como las medidas DAX o las columnas de tabla) se organizan en carpetas de visualización?

Puede usar diferentes herramientas y enfoques para ayudarle a validar los modelos semánticos.

  • Power BI Desktop: Power BI Desktop permite validar distintos aspectos de los modelos semánticos mediante diversas características. Entre los ejemplos de características de Power BI Desktop que facilitan las pruebas de modelos semánticos se incluyen:
    • Lienzo visual: pruebe la funcionalidad del modelo y la precisión con objetos visuales de arrastrar y colocar.
    • Vista de consulta DAX: pruebe la precisión del modelo y el código DAX con consultas DAX que puede guardar y reutilizar más adelante.
    • Diagnóstico de consultas: pruebe el rendimiento de la actualización obteniendo información de diagnóstico acerca de cómo se evalúan las consultas en Power Query.
  • Fabric: características y elementos del portal de Fabric le permiten validar aspectos del modelo semántico una vez implementado en un área de trabajo.
  • Herramientas de terceros: herramientas de terceros le permiten validar otros aspectos del modelo semántico, ya sea proporcionando más detalles u otras características que facilitan la validación. Entre los ejemplos de herramientas de terceros que facilitan las pruebas de modelos semánticos se incluyen:
    • DAX Studio: pruebe y optimice el rendimiento del código DAX mediante la recepción de desgloses detallados de los tiempos de consulta y los planes de consulta de DAX.
    • Editor tabular: Precisión de prueba y depuración del código DAX mediante la recepción de desgloses detallados de cómo se evalúan las consultas DAX y qué contexto de evaluación está activo.

Sugerencia

Puede usar diagnóstico de consultas para validar y optimizar manualmente el rendimiento de Power Query desde otros elementos que lo usan, como flujos de datos.

Además, puede usar la vista de consulta DAX y herramientas de terceros como DAX Studio para validar y optimizar consultas DAX para informes paginados y cuadros de mandos.

Prueba manual de informes

Los informes son una manera común de que los usuarios interactúen con los datos. Muchos usuarios dependen de los informes para tomar decisiones y tomar medidas para avanzar hacia sus objetivos empresariales. Por lo tanto, es importante validar los informes antes de la implementación.

Responda a preguntas como las siguientes para ayudarle a validar los informes.

  • ¿Los informes cumplen los requisitos empresariales documentados?
  • ¿Se usan los tipos de objetos visuales adecuados para abordar la pregunta correcta?
  • ¿Las páginas de informe están claras y concisas sin colores abrumadores o demasiados objetos visuales?
  • ¿El informe funciona según lo esperado al filtrar a un subconjunto estrecho de datos?
  • ¿Permite el informe exportar a Excel y, si es así, permite recuperar datos resumidos o los datos subyacentes?
  • ¿Se puede usar el informe para la obtención de detalles entre informes o la personalización de objetos visuales?

Puede usar diferentes herramientas y enfoques para ayudarle a validar los informes.

  • Power BI Desktop: Power BI Desktop le permite validar distintos aspectos de los informes mediante diversas características. Entre los ejemplos de características de Power BI Desktop que facilitan los informes de prueba se incluyen:
  • Fabric: características y elementos en el portal de Fabric le permiten validar aspectos del informe una vez implementado en un área de trabajo.
    • Aplicación de actualización: Prueba de la funcionalidad y seguridad del informe al distribuir informes en aplicaciones de Power BI y establecer diferentes audiencias de aplicaciones para determinar quién puede ver qué contenido. Cuando usa audiencias de aplicaciones, puede obtener una vista previa de los informes a los que tendrán acceso y probar la experiencia de la aplicación usted mismo.
    • Vista de lectura en el área de trabajo o aplicación: pruebe la funcionalidad y la precisión del informe mediante su uso en el mismo entorno que un usuario.

Nota:

Solo puede desarrollar y validar paneles en el portal de Fabric.

Importante

Es esencial probar los informes en Power BI Desktop y después de la implementación en el portal de Fabric. La representación visual puede comportarse de forma diferente en la máquina local en comparación con los informes de un área de trabajo de Fabric. Además, tenga en cuenta que la experiencia del usuario de usar un informe de un área de trabajo o aplicación difiere significativamente del uso de un informe en Power BI Desktop.

Prueba manual mediante la realización de una revisión del nodo del mismo nivel

Otra manera de validar manualmente el contenido es realizar una revisión del mismo nivel. En una revisión del nodo del mismo nivel, el creador de contenido proporciona la solución o parte de la solución a un compañero que se va a evaluar. El propósito de una revisión del nodo del mismo nivel es mejorar una solución mediante la experiencia colectiva y la experiencia de varios creadores de contenido. Puede realizar la revisión del nodo del mismo nivel tanto durante como después de las pruebas manuales y automatizadas.

Nota:

La revisión del nodo del mismo nivel es un enfoque estándar que se usa en muchos sectores. Este enfoque se conoce normalmente para mejorar la calidad del contenido, los productos y los procesos.

Sugerencia

Si es el único creador de contenido para una solución, considere la posibilidad de buscar otro creador de contenido en otro equipo para revisar la solución y ofrecer hacer lo mismo para ellos.

Hay diferentes maneras de realizar una revisión del nodo del mismo nivel.

  • Revisión funcional: Una revisión funcional se centra en características, procesos o requisitos empresariales que debe cumplir la solución. En una revisión funcional, los revisores usan la solución como si fueran un usuario final. Documentan defectos o problemas que encuentran, junto con cualquier crítica subjetiva para mejorar la implementación.
  • Revisión técnica: una revisión técnica se centra en aspectos técnicos de la solución, como el modelado de datos, el código o el diseño. En una revisión técnica, los revisores evalúan cómo se implementaron determinadas características o cambios, y sugieren enfoques alternativos o resaltan posibles errores o riesgos para el enfoque actual.
  • Solicitud de incorporación de cambios: al realizar el control de código fuente, se crea una solicitud de incorporación de cambios (PR) para combinar los cambios en la versión más reciente de una solución. Un propietario técnico revisa los cambios propuestos y evalúa el código fuente. Este tipo de revisión es útil para garantizar que el código se ajuste a las convenciones estándar, como el formato de código DAX o M, o la identificación de antipatrones o código potencialmente problemático.

Sugerencia

Se recomienda realizar algún tipo de revisión y aprobación formales del nodo del mismo nivel antes de que los cambios de contenido puedan pasar a las pruebas de aceptación del usuario. Esto se debe a que el contenido de mala calidad puede dañar la confianza en las soluciones de datos, incluso durante las pruebas. Además, la revisión del nodo del mismo nivel también puede aportar ventajas a la colaboración y el uso compartido de conocimientos entre los miembros del equipo.

Una vez completado un ciclo de revisión del mismo nodo del mismo nivel, debe documentar e incorporar los cambios recomendados. Si es necesario, debe volver a enviar los cambios para su aprobación antes de pasar a las pruebas de usuario. Normalmente, solo se necesitan varias iteraciones de revisión del nodo del mismo nivel cuando hay muchos cambios o algunos cambios complejos para probar.

Automatización de pruebas

Los creadores de contenido pueden automatizar las pruebas para que las pruebas se realicen automáticamente antes de la implementación. Las pruebas automatizadas suelen implicar condiciones de prueba prepreparadas que se ejecutan y orquestan mediante programación en respuesta a determinadas acciones, como guardar contenido o enviar una solicitud de incorporación de cambios (PR). Los resultados de las pruebas automatizadas se almacenan automáticamente para referencias y documentación posteriores.

El propósito de una prueba automatizada es reducir el tiempo y el esfuerzo para validar los cambios de contenido, al tiempo que mejora la coherencia de las pruebas y la confiabilidad de sus resultados. Cuando el contenido produce un error en una prueba automatizada, normalmente se impide que se implemente hasta que el creador de contenido resuelva los problemas.

Las pruebas automatizadas eficaces son una parte clave de la implementación de DataOps. DataOps permite a los equipos automatizar y escalar procesos mediante la adopción de prácticas que mejoran y aceleran la entrega de datos y análisis.

Importante

Para automatizar eficazmente las pruebas, debe crear pruebas bien diseñadas. La creación de estas pruebas puede tardar mucho tiempo y esfuerzo. Si las condiciones de prueba y las expectativas están mal definidas, las pruebas automatizadas no podrán validar los aspectos correctos del contenido y recibirá poca ventaja al automatizar estas pruebas.

Sugerencia

Las pruebas automatizadas son más beneficiosas cuando se integran con la implementación de soluciones en escenarios de publicación de contenido empresarial. Por ejemplo, puede automatizar las pruebas mediante Azure Pipelines como parte de una canalización de validación, lo que garantiza que el contenido esté listo para implementarse. Para obtener más información, vea Fase 4: Implementar contenido.

En las secciones siguientes se describen las consideraciones clave para probar automáticamente los informes y modelos semánticos de Power BI.

Automatización de pruebas de modelos semánticos

Es posible realizar pruebas automatizadas de modelos semánticos, aunque normalmente requiere una configuración personalizada con marcos y herramientas de terceros.

Puede usar diferentes herramientas y enfoques para automatizar las pruebas de modelos semánticos.

  • Analizador de procedimientos recomendados (BPA): El Analizador de procedimientos recomendados permite especificar reglas que puede usar para evaluar un modelo semántico. Puede ejecutar el BPA mediante Editor tabular, que identificará cualquier infracción de regla en un modelo semántico. Puede automatizar las comprobaciones de infracciones de reglas BPA mediante la interfaz de línea de comandos (CLI) del Editor tabular junto con Azure DevOps o como parte de otro proceso programado.
  • Cuadernos de Fabric y vínculo semántico:Notebooks en Fabric le permiten usar vínculo semántico para interactuar mediante programación con modelos semánticos. Puede usar cuadernos para ejecutar marcos como Great Expectations (GX) para validar los datos. Además, puede evaluar las medidas y las consultasDAX y, a continuación, probar los resultados con las líneas base conocidas.
  • Power Automate:Power Automate permite ejecutar consultas en modelos semánticos y exportar informes mediante las API de REST de Power BI. Puede comprobar los resultados de la consulta en líneas base conocidas y, a continuación, realizar acciones de bajada, como desencadenar alertas a los propietarios de contenido.

Sugerencia

Considere la posibilidad de combinar pruebas automatizadas y la orquestación de los modelos semánticos. Por instancia, puede realizar pruebas automatizadas en un origen de datos y un modelo semántico antes de una actualización mediante cuadernos o Power Automate. Si se produce un error en las pruebas, puede evitar la actualización, lo que también puede impedir que los errores de actualización o los datos incorrectos lleguen a los informes empresariales.

Automatización de pruebas de informes

Hay opciones limitadas disponibles para automatizar las pruebas de informes. Estas opciones dependen de herramientas externas o soluciones de la comunidad para validar automáticamente objetos visuales o propiedades de informe, como validar metadatos de informe o simular interacciones de usuario con informes.

Puede usar diferentes herramientas y enfoques para automatizar las pruebas de informes.

  • Analizadores de procedimientos recomendados de informes: hay varias herramientas de terceros que admiten la funcionalidad similar al analizador de procedimientos recomendados para automatizar la detección de incidencias en los informes mediante el examen de la definición de informe. Dos herramientas que admiten esta funcionalidad son PBI Explorer y PBI Inspector.
  • Power Automate Desktop: herramientas de automatización de la interfaz de usuario como Selenium para Python o Power Automate Desktop permiten simular interacciones del mouse del usuario con informes. Al definir un flujo de usuario, puede probar la navegación y las interacciones. Estas pruebas se superan cuando pueden completar el flujo y se produce un error cuando detectan palabras o imágenes específicas en la pantalla (como un mensaje de error o un objeto visual en blanco).

Decidir cómo los usuarios deben validar el contenido

Una vez que el contenido supera las pruebas manuales, las pruebas automatizadas y la revisión del nodo del mismo nivel, puede pasar a las pruebas de usuario. Cuando los usuarios prueban contenido, proporcionan comentarios subjetivas sobre si ese contenido cumple los requisitos empresariales y realiza sus expectativas, incluida la devolución de resultados precisos.

Normalmente, la validación de usuarios se produce en un área de trabajo de prueba. Al configurar un área de trabajo de prueba, tenga en cuenta las consideraciones siguientes.

  • Crear una aplicación de prueba: si piensa distribuir contenido mediante una aplicación de Power BI, configure una aplicación de prueba para que los usuarios de prueba validen el contenido. La aplicación de prueba debe ser idéntica a la aplicación que configurará en producción. En la navegación de la aplicación de prueba, considere la posibilidad de incluir vínculos a documentación, entrenamiento y formularios de comentarios.
  • Acceso de aprovisionamiento: identifique un subconjunto de usuarios de la comunidad que validará la solución. Póngase en contacto con estos usuarios y forme un contrato sobre cuándo y por qué deben validar este contenido. A continuación, asegúrese de proporcionarles acceso al contenido y agréguelos a los roles de seguridad adecuados. Comparta vínculos al contenido o a la aplicación de prueba con los usuarios para que puedan empezar a realizar pruebas.
  • Configurar la actualización programada: la validación del usuario normalmente abarca un período más largo. Vale la pena configurar una actualización programada de elementos de datos en el área de trabajo de prueba para que los usuarios prueben con los datos más recientes.

Importante

Al implementar contenido en un área de trabajo de prueba, debe actualizar manualmente la aplicación antes de que los cambios en los informes y paneles sean visibles para los usuarios.

Nota:

No se pueden implementar ni copiar aplicaciones de un área de trabajo a otra. Los cambios realizados en una aplicación se deben realizar manualmente en la configuración de esa área de trabajo.

Antes de comenzar la validación del usuario, debe llevar a cabo los preparativos necesarios.

  • Planee cuándo debe producirse la validación del usuario.
  • Especifique si la validación del usuario está limitada a un período específico o parte de un proceso iterativo.
  • Cree un método para recopilar comentarios, como mediante Microsoft Forms.
  • Comunicarse con los usuarios implicados en la validación de la planificación y las expectativas.
  • Organice un lanzamiento para la validación de usuarios para guiar a los usuarios y administrar las expectativas.
  • Realice un entrenamiento para que los usuarios muestren el proceso de validación y comentarios.

Estas son algunas maneras diferentes de facilitar la validación del contenido del usuario.

  • Pruebas del observatorio: las pruebas del observatorio son sesiones cortas en las que los creadores de contenido ven uno o varios usuarios usan el contenido sin instrucciones ni instrucciones. En estas sesiones, los creadores de contenido usan sus observaciones para identificar posibles errores, problemas o mejoras en la solución. Estas pruebas pueden ser valiosas, ya que requieren poco tiempo y esfuerzo para organizar y pueden limitarse a características o partes específicas de una solución. Las pruebas del observatorio son más beneficiosas para recibir comentarios tempranos sobre un diseño o enfoque, como con una prueba de concepto (POC).
  • Pruebas de grupo de enfoque: las pruebas de grupo de enfoque son sesiones limitadas organizadas con un pequeño grupo de usuarios que pasan por el contenido juntos. Estos grupos de enfoque se mantienen para seleccionar las partes interesadas clave y los expertos en la materia que pueden proporcionar los mejores comentarios sobre determinadas características o funcionalidades. Las pruebas de grupo de foco pueden producirse en varias sesiones interactivas. Las pruebas de grupo de enfoque requieren más tiempo y esfuerzo que las pruebas del observatorio, pero pueden proporcionar comentarios más detallados sobre una solución.
  • Pruebas de aceptación de usuario:las pruebas de aceptación de usuario (UAT) son un proceso formal en el que un grupo mayor de personas de la comunidad de usuarios valida y proporciona comentarios asincrónicos sobre una solución. UAT requiere el mayor tiempo y esfuerzo para organizar, pero es la manera más exhaustiva de realizar pruebas de usuario. Una vez que los usuarios de prueba aceptan la solución y los problemas de comentarios se resuelven, el contenido se puede implementar en el área de trabajo de producción.

Una vez que decida cómo validar el contenido, puede planear cómo lo implementará en y entre áreas de trabajo.

Lista de comprobación: al planear cómo validar el contenido, las decisiones clave y las acciones incluyen:

  • Condiciones de diseño y prueba de documentos: describa las pruebas que realizará, lo que probarán y cómo las realizará.
  • Decidir un proceso de revisión del nodo del mismo nivel: describa quién más validará el contenido aparte de usted mismo.
  • Decidir un enfoque para las pruebas manuales: decida qué herramientas y características usará para validar el contenido que cree.
  • Decidir si va a usar pruebas automatizadas: Identificar si la escala y el ámbito del contenido justifican que configuró pruebas automatizadas. Si es así, asegúrese de planear el tiempo y los recursos necesarios para diseñar e implementar estas pruebas para que validen lo que espera.
  • Implementar contenido del área de trabajo de desarrollo en el área de trabajo de prueba: Implementar cambios desde el área de trabajo de desarrollo en el área de trabajo de prueba para que los cambios sean visibles para los usuarios. Asegúrese de que ha realizado los actividades posteriores a la implementación necesarios en el área de trabajo de prueba, como configurar y actualizar una aplicación de prueba.
  • Decidir un enfoque para las pruebas de usuario: decida cómo validarán el contenido los usuarios.
  • Identificar usuarios de prueba: Identificar quién entre la comunidad de usuarios validará el contenido. Llegar a un contrato con esas personas en la medida de su participación y expectativas.
  • Recopilar comentarios de los usuarios: configure herramientas y procesos para recopilar comentarios automáticamente. Por instancia, puede usar Tareas y Planificador en Microsoft Teams o Microsoft Forms.
  • Documentar los resultados de la prueba: documente los resultados de toda la validación de contenido y los cambios realizados como resultado de los resultados de la prueba. Asegúrese de que esta documentación es fácil de encontrar.
  • Planear la implementación en producción: Una vez que finalice la prueba de usuario, prepárese para implementar contenido desde el área de trabajo de prueba en el área de trabajo de producción.

En el siguiente artículo de esta serie, aprenda a implementar contenido como parte de la administración del ciclo de vida del contenido.