Compartir a través de


Guía de estudio para el examen DP-600: Implementación de soluciones de análisis con Microsoft Fabric

Finalidad de este documento

Esta guía de estudio le ayudará a comprender qué esperar en el examen, e incluye un resumen de los temas que el examen podría incluir y vínculos a recursos adicionales. La información y los materiales de este documento le ayudarán a centrar sus estudios a medida que se prepara para el examen.

Vínculos útiles Descripción
Revisión de las capacidades evaluadas a partir del 22 de julio de 2024 Esta lista representa las aptitudes medida DESPUÉS de la fecha proporcionada. Estudie esta lista si tiene previsto realizar el examen DESPUÉS de esa fecha.
Revisión de las capacidades evaluadas antes del 22 de julio de 2024 Estudie esta lista de aptitudes si realiza el examen ANTES de la fecha proporcionada.
Registro de cambios Puede ir directamente al registro de cambios si desea ver los cambios que se realizarán en la fecha proporcionada.
Obtención de la certificación Algunas certificaciones solo requieren aprobar un examen, mientras que otros requieren aprobar varios exámenes.
Renovación de la certificación Las certificaciones de asociado, experto y especialidad de Microsoft caducan anualmente. Puede renovar sus aptitudes aprobando una evaluación en línea gratuita en Microsoft Learn.
Su perfil de Microsoft Learn La conexión del perfil de certificación a Microsoft Learn le permite programar y renovar exámenes y compartir e imprimir certificados.
Puntuación de los exámenes e informes de puntuación Se requiere una puntuación de 700 o superior para aprobar.
Espacio aislado del examen Puede explorar el entorno del examen visitando nuestro espacio aislado del examen.
Solicitud de ajustes Si usa dispositivos de asistencia, requiere tiempo adicional o necesita modificaciones en cualquier parte de la experiencia del examen, puedes solicitar una adaptación.
Preséntese a una evaluación gratuita para practicar Practique y ponga a prueba sus conocimientos con preguntas que lo ayudarán a prepararse para el examen.

Acerca del examen

Nuestros exámenes se actualizan periódicamente para reflejar las aptitudes necesarias para desempeñar un rol. Hemos incluido dos versiones de los objetivos medidos de aptitudes dependiendo de cuándo esté realizando el examen.

Siempre actualizamos la versión en inglés del examen primero. Algunos exámenes se localizan en otros idiomas y se actualizan aproximadamente ocho semanas después de actualizar la versión en inglés. Aunque Microsoft hace todo lo posible para actualizar las versiones localizadas como se indica, puede haber ocasiones en las que las versiones localizadas de un examen no se actualicen según esta programación. Los otros idiomas disponibles se enumeran en la sección Schedule Exam (Programar examen) de la página web Exam Details (Detalles del examen). Si el examen no está disponible en su idioma de preferencia, puede solicitar un período adicional de 30 minutos para completarlo.

Nota

Las viñetas debajo de cada una de las aptitudes medidas están diseñadas para ilustrar cómo estamos evaluando esa aptitud. Los temas relacionados puede que se traten en el examen.

Nota

La mayoría de las preguntas tratan las características que son de disponibilidad general (GA). El examen puede contener preguntas de Características en vista previa (GB) si dichas características se usan de forma regular.

Capacidades evaluadas a partir del 22 de julio de 2024

Perfil del público

Los candidatos a este examen deben tener experiencia en diseño, creación e implementación de soluciones de análisis de datos a escala empresarial.

Las responsabilidades de este rol incluyen la transformación de datos en recursos de análisis reutilizables mediante componentes de Microsoft Fabric, como:

  • Almacenes de lago

  • Almacenamientos de datos

  • Cuaderno

  • Flujos de datos

  • Canalizaciones de datos

  • Modelos semánticos

  • Informes

Implemente los procedimientos recomendados de análisis en Fabric, incluido el control de versiones y la implementación.

Para implementar soluciones como ingeniero de análisis de Fabric, se asocia con otros roles, como los siguientes:

  • Arquitectos de soluciones

  • Ingenieros de datos

  • Científicos de datos

  • Ingenieros de inteligencia artificial

  • Administradores de base de datos

  • Analistas de datos de Power BI

Además de trabajar en profundidad con la plataforma Fabric, necesita experiencia en:

  • Modelado de datos

  • Transformación de datos

  • Control de código fuente basado en Git

  • Análisis exploratorios

  • Programar lenguajes (incluyendo el Lenguaje de consulta estructurado [SQL], las Expresiones de análisis de datos [DAX] y PySpark)

Aptitudes de un vistazo

  • Planear, implementar y administrar una solución para el análisis de datos (10–15 %)

  • Preparar y servir datos (40–45 %)

  • Implementar y administrar modelos semánticos (20–25 %)

  • Explorar y analizar datos (20–25 %)

Planear, implementar y administrar una solución para el análisis de datos (10–15 %)

Planeamiento de un entorno de análisis de datos

  • Identificar los requisitos de una solución, incluyendo componentes, características, rendimiento y unidades de almacenamiento de existencias de capacidad (SKU)

  • Recomendación de valores en el portal de administración de Fabric

  • Elegir un tipo de puerta de enlace de datos

  • Crear un tema de informe personalizado de Power BI

Implementar y administrar un entorno de análisis de datos

  • Implementar controles de acceso de nivel de elemento y área de trabajo para elementos de Fabric

  • Implementar el uso compartido de datos para áreas de trabajo, almacenes y almacenes de lago

  • Administrar etiquetas de confidencialidad en modelos semánticos y almacenes de lago

  • Configurar las opciones de área de trabajo habilitadas para Fabric

  • Administrar la capacidad de Fabric y configurar las opciones de capacidad

Administración del ciclo de vida de desarrollo de los análisis

  • Implementar el control de versiones para áreas de trabajo

  • Crear y administrar proyectos de Power BI Desktop (.pbip)

  • Planear e implementar soluciones de implementación

  • Realizar análisis de impacto de las dependencias de bajada de los almacenes de lago, los almacenes de datos, los flujos de datos y los modelos semánticos

  • Implementar y administrar modelos semánticos con el punto de conexión XMLA

  • Crear y actualizar recursos reutilizables, incluyendo archivos de plantillas de Power BI (.pbit), archivos de orígenes de datos de Power BI (.pbids) y modelos semánticos compartidos

Preparar y servir datos (40–45 %)

Crear objetos en un almacén de lago o almacén

  • Ingerir datos mediante una canalización de datos, un flujo de datos o un cuaderno

  • Crear y administrar accesos directos

  • Implementar particiones de archivos para cargas de trabajo de análisis en almacenes de lago

  • Crear vistas, funciones y procedimientos almacenados

  • Enriquecer los datos agregando nuevas columnas o tablas

Copia de datos

  • Elegir un método adecuado para copiar datos desde un origen de datos de Fabric a un almacén de lago o a un almacén

  • Copiar datos mediante una canalización de datos, un flujo de datos o un cuaderno

  • Implementar copia rápida al usar flujos de datos

  • Añadir procedimientos almacenados, cuadernos y flujos de datos a una canalización de datos

  • Programar canalizaciones de datos

  • Programar flujos de datos y cuadernos

Transformar los datos

  • Implementar procesos de limpieza de datos

  • Implementar un esquema de estrella para un almacén de lago o un almacén, incluyendo las dimensiones variables de tipo 1 y tipo 2 de cambio lento

  • Implementación de tablas de puente para almacenes de lago o almacenes

  • Desnormalizar los datos

  • Agregar o desagregar datos

  • Combinar o unir datos

  • Identificar y resolver datos duplicados, datos que falten o valores NULL

  • Convertir tipos de datos mediante SQL o PySpark

  • Filtrado de los datos

Optimizar el rendimiento

  • Identificar y resolver cuellos de botella de rendimiento de carga de datos en flujos de datos, cuadernos y consultas SQL

  • Implementar mejoras de rendimiento en flujos de datos, cuadernos y consultas SQL

  • Identificar y resolver problemas con la estructura o el tamaño de los archivos de tabla Delta (incluidas las escrituras optimizadas y el orden v)

Implementar y administrar modelos semánticos (20–25 %)

Diseñar y compilar modelos semánticos

  • Elegir un modo de almacenamiento, incluyendo Direct Lake

  • Identificar casos de uso para DAX Studio y Tabular Editor 2

  • Implementar esquemas de estrella para modelos semánticos

  • Implementar relaciones, como tablas de puente y relaciones de varios a varios

  • Escribir cálculos que usen funciones y variables DAX, como iteradores, filtrado de tablas, ventanas y funciones de información

  • Implementar grupos de cálculo, cadenas dinámicas y parámetros de campo

  • Diseño y creación de un conjunto de datos de gran formato

  • Diseño y creación de modelos compuestos que incluyan las agregaciones

  • Implementación de la seguridad dinámica de nivel de fila y de nivel de objeto

  • Validar la seguridad de nivel de fila y la seguridad de nivel de objeto

Optimización de modelos semánticos de escala empresarial

  • Implementación de mejoras de rendimiento en consultas y objetos visuales de informes

  • Mejorar el rendimiento de DAX mediante DAX Studio

  • Optimización de modelos semánticos mediante Tabular Editor 2

  • Implementación de la actualización incremental

Explorar y analizar datos (20–25 %)

Realizar análisis de exploración

  • Implementar análisis descriptivos y de diagnóstico

  • Integrar análisis prescriptivos y predictivos en objetos visuales o informes

  • Generación de perfiles de datos

Consulta de datos mediante SQL

  • Consulta de almacenes de lago en Fabric mediante consultas SQL o el editor de consultas visuales

  • Consulta de almacenes en Fabric mediante consultas SQL o el editor de consultas visuales

  • Conexión a conjuntos de datos y consulta de estos mediante el punto de conexión XMLA

Recursos de estudio

Le recomendamos que entrene y obtenga experiencia práctica antes de hacer el examen. Ofrecemos opciones de autoestudio y formación en el aula, así como vínculos a documentación, sitios de la comunidad y vídeos.

Recursos de estudio Vínculos a aprendizaje y documentación
Obtención de entrenamiento Elegir entre rutas de aprendizaje autodirigido y módulos o realizar un curso dirigido por un instructor
Localización de documentación Microsoft Fabric
¿Qué es un almacén de lago?
¿Qué es el almacenamiento de datos?
Almacenamiento y análisis de datos
Formular una pregunta Microsoft Q&A | Microsoft Docs
Obtener soporte técnico de la comunidad Análisis en Azure - Microsoft Tech Community
Blog de Microsoft Fabric
Seguimiento de Microsoft Learn Microsoft Learn: Microsoft Tech Community
Encontrar un vídeo Zona de preparación del examen
Exposición de datos
Examinar otros programas de Microsoft Learn

Registro de cambios

Clave para comprender la tabla: los grupos de temas (también conocidos como grupos funcionales) están en negrita, seguidos de los objetivos de cada grupo. La tabla es una comparación entre las dos versiones de las aptitudes de examen medidas y la tercera columna describe la extensión de los cambios.

Área de capacidades antes del 22 de julio de 2024 Área de capacidades a partir del 22 de julio de 2024 Cambio
Perfil del público Secundaria
Planear, implementar y administrar una solución para el análisis de datos Planear, implementar y administrar una solución para el análisis de datos Sin cambios
Planeamiento de un entorno de análisis de datos Planeamiento de un entorno de análisis de datos Sin cambios
Implementar y administrar un entorno de análisis de datos Implementar y administrar un entorno de análisis de datos Secundaria
Administración del ciclo de vida de desarrollo de los análisis Administración del ciclo de vida de desarrollo de los análisis Sin cambios
Preparar y servir datos Preparar y servir datos Sin cambios
Crear objetos en un almacén de lago o almacén Crear objetos en un almacén de lago o almacén Sin cambios
Copia de datos Copia de datos Secundaria
Transformación de datos Transformación de datos Sin cambios
Optimizar el rendimiento Optimizar el rendimiento Secundaria
Implementar y administrar modelos semánticos Implementar y administrar modelos semánticos Sin cambios
Diseñar y compilar modelos semánticos Diseñar y compilar modelos semánticos Sin cambios
Optimización de modelos semánticos de escala empresarial Optimización de modelos semánticos de escala empresarial Sin cambios
Explorar y analizar datos Explorar y analizar datos Sin cambios
Realizar análisis de exploración Realizar análisis de exploración Sin cambios
Consulta de datos mediante SQL Consulta de datos mediante SQL Sin cambios

Aptitudes evaluadas antes del 22 de julio de 2024

Perfil del público

Los candidatos a este examen deben tener experiencia en diseño, creación e implementación de soluciones de análisis de datos a escala empresarial.

Las responsabilidades de este rol incluyen la transformación de datos en recursos de análisis reutilizables mediante componentes de Microsoft Fabric, como:

  • Almacenes de lago

  • Almacenamientos de datos

  • Cuaderno

  • Flujos de datos

  • Canalizaciones de datos

  • Modelos semánticos

  • Informes

Implemente los procedimientos recomendados de análisis en Fabric, incluido el control de versiones y la implementación.

Para implementar soluciones como ingeniero de análisis de Fabric, se asocia con otros roles, como los siguientes:

  • Arquitectos de soluciones

  • Ingenieros de datos

  • Científicos de datos

  • Ingenieros de inteligencia artificial

  • Administradores de base de datos

  • Analistas de datos de Power BI

Además de trabajar en profundidad con la plataforma Fabric, necesita experiencia en:

  • Modelado de datos

  • Transformación de datos

  • Control de código fuente basado en Git

  • Análisis exploratorios

  • Lenguajes, incluyendo el Lenguaje de consulta estructurado (SQL), las Expresiones de análisis de datos (DAX) y PySpark

Aptitudes de un vistazo

  • Planear, implementar y administrar una solución para el análisis de datos (10–15 %)

  • Preparar y servir datos (40–45 %)

  • Implementar y administrar modelos semánticos (20–25 %)

  • Explorar y analizar datos (20–25 %)

Planear, implementar y administrar una solución para el análisis de datos (10–15 %)

Planeamiento de un entorno de análisis de datos

  • Identificar los requisitos de una solución, incluyendo componentes, características, rendimiento y unidades de almacenamiento de existencias de capacidad (SKU)

  • Recomendación de valores en el portal de administración de Fabric

  • Elegir un tipo de puerta de enlace de datos

  • Crear un tema de informe personalizado de Power BI

Implementar y administrar un entorno de análisis de datos

  • Implementar controles de acceso de nivel de elemento y área de trabajo para elementos de Fabric

  • Implementar el uso compartido de datos para áreas de trabajo, almacenes y almacenes de lago

  • Administrar etiquetas de confidencialidad en modelos semánticos y almacenes de lago

  • Configurar las opciones de área de trabajo habilitadas para Fabric

  • Administración de la capacidad de Fabric

Administración del ciclo de vida de desarrollo de los análisis

  • Implementar el control de versiones para áreas de trabajo

  • Crear y administrar proyectos de Power BI Desktop (.pbip)

  • Planear e implementar soluciones de implementación

  • Realizar análisis de impacto de las dependencias de bajada de los almacenes de lago, los almacenes de datos, los flujos de datos y los modelos semánticos

  • Implementar y administrar modelos semánticos con el punto de conexión XMLA

  • Crear y actualizar recursos reutilizables, incluyendo archivos de plantillas de Power BI (.pbit), archivos de orígenes de datos de Power BI (.pbids) y modelos semánticos compartidos

Preparar y servir datos (40–45 %)

Crear objetos en un almacén de lago o almacén

  • Ingerir datos mediante una canalización de datos, un flujo de datos o un cuaderno

  • Crear y administrar accesos directos

  • Implementar particiones de archivos para cargas de trabajo de análisis en almacenes de lago

  • Crear vistas, funciones y procedimientos almacenados

  • Enriquecer los datos agregando nuevas columnas o tablas

Copia de datos

  • Elegir un método adecuado para copiar datos desde un origen de datos de Fabric a un almacén de lago o a un almacén

  • Copiar datos mediante una canalización de datos, un flujo de datos o un cuaderno

  • Añadir procedimientos almacenados, cuadernos y flujos de datos a una canalización de datos

  • Programar canalizaciones de datos

  • Programar flujos de datos y cuadernos

Transformar los datos

  • Implementar procesos de limpieza de datos

  • Implementar un esquema de estrella para un almacén de lago o un almacén, incluyendo las dimensiones variables de tipo 1 y tipo 2 de cambio lento

  • Implementación de tablas de puente para almacenes de lago o almacenes

  • Desnormalizar los datos

  • Agregar o desagregar datos

  • Combinar o unir datos

  • Identificar y resolver datos duplicados, datos que falten o valores NULL

  • Convertir tipos de datos mediante SQL o PySpark

  • Filtrado de los datos

Optimizar el rendimiento

  • Identificar y resolver cuellos de botella de rendimiento de carga de datos en flujos de datos, cuadernos y consultas SQL

  • Implementar mejoras de rendimiento en flujos de datos, cuadernos y consultas SQL

  • Identificar y resolver incidencias sobre tamaños de archivo de tablas Delta

Implementar y administrar modelos semánticos (20–25 %)

Diseñar y compilar modelos semánticos

  • Elegir un modo de almacenamiento, incluyendo Direct Lake

  • Identificar casos de uso para DAX Studio y Tabular Editor 2

  • Implementar esquemas de estrella para modelos semánticos

  • Implementar relaciones, como tablas de puente y relaciones de varios a varios

  • Escribir cálculos que usen funciones y variables DAX, como iteradores, filtrado de tablas, ventanas y funciones de información

  • Implementar grupos de cálculo, cadenas dinámicas y parámetros de campo

  • Diseño y creación de un conjunto de datos de gran formato

  • Diseño y creación de modelos compuestos que incluyan las agregaciones

  • Implementación de la seguridad dinámica de nivel de fila y de nivel de objeto

  • Validar la seguridad de nivel de fila y la seguridad de nivel de objeto

Optimización de modelos semánticos de escala empresarial

  • Implementación de mejoras de rendimiento en consultas y objetos visuales de informes

  • Mejorar el rendimiento de DAX mediante DAX Studio

  • Optimización de modelos semánticos mediante Tabular Editor 2

  • Implementación de la actualización incremental

Explorar y analizar datos (20–25 %)

Realizar análisis de exploración

  • Implementar análisis descriptivos y de diagnóstico

  • Integrar análisis prescriptivos y predictivos en objetos visuales o informes

  • Generación de perfiles de datos

Consulta de datos mediante SQL

  • Consulta de almacenes de lago en Fabric mediante consultas SQL o el editor de consultas visuales

  • Consulta de almacenes en Fabric mediante consultas SQL o el editor de consultas visuales

  • Conexión a conjuntos de datos y consulta de estos mediante el punto de conexión XMLA