Kursleitfaden für Examen DP-203: Datentechnik in Microsoft Azure

Warnung

Diese Prüfung wird am 31. März 2025 um 11:59 Uhr Central Standard Time eingestellt. Erfahren Sie mehr.

Zweck dieses Dokuments

Dieser Kursleitfaden soll Ihnen helfen zu verstehen, was Sie bei der Prüfung erwartet. Er enthält eine Zusammenfassung der Themen, die in der Prüfung behandelt werden könnten, sowie Links zu zusätzlichen Ressourcen. Mit den in diesem Dokument enthaltenen Informationen und Materialien können Sie sich gezielt auf die Prüfung vorbereiten.

Nützliche Links BESCHREIBUNG
Erwerben der Zertifizierung Einige Zertifizierungen erfordern nur das Bestehen einer Prüfung, während für andere mehrere Prüfungen erforderlich sind.
Zertifizierungserneuerung Die Associate-, Expert- und Specialty-Zertifizierungen von Microsoft sind nur ein Jahr lang gültig. Sie können Sie verlängern, indem Sie in Microsoft Learn erfolgreich eine kostenlose Onlinebewertung absolvieren.
Ihr Microsoft Learn-Profil Wenn Sie Ihr Zertifizierungsprofil mit Microsoft Learn verknüpfen, können Sie Examen planen und verlängern sowie Zertifikate freigeben und drucken.
Examensbewertung und Ergebnisberichte Zum Bestehen ist eine Mindestpunktzahl von 700 erforderlich.
Prüfungs-Sandbox Dann können Sie Prüfungsumgebung über unsere Prüfungs-Sandbox erkunden.
Anfordern von Unterkünften Wenn Sie Hilfsmittel benutzen, zusätzliche Zeit benötigen oder einen Teil des Prüfungsprozesses abändern müssen, können Sie eine Anpassung anfordern.
Kostenlose Übungsbewertung Stellen Sie Ihr Wissen mit Übungsfragen auf die Probe, um sich auf das Examen vorzubereiten.

Aktualisierungen der Prüfung

Unsere Prüfungen werden regelmäßig aktualisiert, um Fertigkeiten abzufragen, die zum Ausführen einer Rolle erforderlich sind.

Wir aktualisieren immer zuerst die englische Sprachversion der Prüfung. Einige Prüfungen werden in andere Sprachen übersetzt. Diese werden dann ungefähr acht Wochen nach der Aktualisierung der englischen Version eingestellt. Weitere verfügbare Sprachen sind im Abschnitt Prüfung planen der Webseite mit den Details zur Prüfung aufgeführt. Wenn die Prüfung nicht in Ihrer bevorzugten Sprache verfügbar ist, können Sie eine zusätzliche Zeit von 30 Minuten anfordern, um sie abzuschließen.

Hinweis

Die Aufzählungspunkte die den bewerteten Fertigkeiten folgen, sollen veranschaulichen, wie wir die jeweilige Fähigkeit bewerten. In der Prüfung können verwandte Themen behandelt werden.

Hinweis

Die meisten Fragen umfassen Features der allgemeinen Verfügbarkeit (GA). Die Prüfung kann Fragen zu Previewfunktionen enthalten, wenn diese Funktionen häufig verwendet werden.

Ab dem 24. Oktober 2024 bewertete Qualifikationen

Zielgruppenprofil

Als Kandidat*in für dieses Examen sollten Sie über Fachwissen im Zusammenhang mit dem Integrieren, Transformieren und Konsolidieren von Daten aus verschiedenen strukturierten, unstrukturierten und streamingbasierten Datensystemen in ein entsprechendes Schema für das Entwerfen von Analyselösungen verfügen.

Als Azure Data Engineer helfen Sie Projektbeteiligten, die Daten durch Analysen zu verstehen, und Sie erstellen und verwalten sichere und konforme Datenverarbeitungspipelines unter Verwendung verschiedener Tools und Techniken. Sie nutzen verschiedene Azure-Datendienste und -Frameworks, um bereinigte und verbesserte Datensätze für die Analyse zu speichern und zu erstellen. Dieser Datenspeicher kann basierend auf Geschäftsanforderungen mit verschiedenen Architekturmustern entworfen werden, darunter:

  • Moderne Data Warehouses (MDW)

  • Big Data

  • Lakehousearchitekturen

Als Azure Data Engineer tragen Sie außerdem dazu dabei, dass die Operationalisierung von Datenpipelines und Datenspeichern unter Berücksichtigung einer Reihe von Geschäftsanforderungen und -einschränkungen leistungsstark, effizient, organisiert und zuverlässig ist. Sie helfen dabei, Betriebs- und Datenqualitätsprobleme zu ermitteln und zu beheben. Außerdem entwerfen, implementieren, überwachen und optimieren Sie Datenplattformen, um die Anforderungen der Datenpipelines zu erfüllen.

Als Kandidat*in für dieses Examen müssen Sie über fundierte Kenntnisse der Datenverarbeitungssprachen verfügen, einschließlich:

  • SQL

  • Python

  • Scala

Sie müssen mit der Parallelverarbeitung und Datenarchitekturmustern vertraut sein. Sie sollten sich mit Folgendem auskennen, um erfolgreich Datenverarbeitungslösungen zu erstellen:

  • Azure Data Factory

  • Azure Synapse Analytics

  • Azure Stream Analytics

  • Azure Event Hubs

  • Azure Data Lake Storage

  • Azure Databricks

Qualifikationen auf einen Blick

  • Entwerfen und Implementieren von Datenspeichern (15–20 %)

  • Entwickeln der Datenverarbeitung (40–45 %)

  • Schützen, Überwachen und Optimieren der Datenspeicherung und -verarbeitung (30–35 %)

Entwerfen und Implementieren von Datenspeichern (15–20 %)

Implementieren einer Partitionsstrategie

  • Implementieren einer Partitionsstrategie für Dateien

  • Implementieren einer Partitionsstrategie für Analyseworkloads

  • Implementieren einer Partitionsstrategie für Streamingworkloads

  • Implementieren einer Partitionsstrategie für Azure Synapse Analytics

  • Identifizieren, wann eine Partitionierung in Azure Data Lake Storage Gen2 erforderlich ist

Entwerfen und Implementieren der Datenuntersuchungsebene

  • Erstellen und Ausführen von Abfragen mithilfe einer Computelösung, die serverlose SQL-Cluster und Spark-Cluster nutzt

  • Empfehlen und Implementieren von Azure Synapse Analytics-Datenbankvorlagen

  • Pushen der neuen oder aktualisierten Datenherkunft an Microsoft Purview

  • Durchsuchen von Metadaten in Microsoft Purview Data Catalog

Entwickeln der Datenverarbeitung (40–45 %)

Erfassen und Transformieren von Daten

  • Entwerfen und Implementieren von inkrementellen Datenladevorgängen

  • Transformieren von Daten mithilfe von Apache Spark

  • Transformieren von Daten mithilfe von Transact-SQL (T-SQL) in Azure Synapse Analytics

  • Erfassen und Transformieren von Daten mithilfe von Azure Synapse-Pipelines oder Azure Data Factory

  • Transformieren von Daten mit Azure Stream Analytics

  • Bereinigen der Daten

  • Umgang mit doppelt vorhandenen Daten

  • Vermeiden doppelter Daten mithilfe von Azure Stream Analytics Exactly Once Delivery

  • Umgang mit fehlenden Daten

  • Verarbeiten spät eintreffender Daten

  • Aufteilen von Daten

  • Aufteilen von JSON

  • Codieren und Decodieren von Daten

  • Konfigurieren der Fehlerbehandlung für eine Transformation

  • Normalisieren und Denormalisieren von Daten

  • Durchführen von Datenuntersuchungsanalysen

Entwickeln einer Batchverarbeitungslösung

  • Entwickeln von Batchverarbeitungslösungen mithilfe von Azure Data Lake Storage Gen2, Azure Databricks, Azure Synapse Analytics und Azure Data Factory

  • Verwenden von PolyBase zum Laden von Daten in einen SQL-Pool

  • Implementieren von Azure Synapse Link und Abfragen der replizierten Daten

  • Erstellen von Datenpipelines

  • Skalieren von Ressourcen

  • Konfigurieren der Batchgröße

  • Erstellen von Tests für Datenpipelines

  • Integrieren von Jupyter- oder Python-Notebooks in eine Datenpipeline

  • Ausführen eines Upserts für Batchdaten

  • Wiederherstellen von Daten in einem vorherigen Zustand

  • Konfigurieren der Ausnahmebehandlung

  • Konfigurieren der Batchaufbewahrung

  • Lesen aus und Schreiben in Delta Lakes

Entwickeln einer Streamverarbeitungslösung

  • Erstellen einer Streamverarbeitungslösung mithilfe von Stream Analytics und Azure Event Hubs

  • Verarbeiten von Daten mithilfe des strukturierten Spark-Streamings

  • Erstellen von Fensteraggregaten

  • Umgang mit Schemaabweichungen

  • Verarbeiten von Zeitreihendaten

  • Partitionsübergreifendes Verarbeiten von Daten

  • Verarbeiten innerhalb einer Partition

  • Konfigurieren von Prüfpunkten und Wasserzeichen während der Verarbeitung

  • Skalieren von Ressourcen

  • Erstellen von Tests für Datenpipelines

  • Optimieren von Pipelines für analytische oder transaktionale Zwecke

  • Behandeln von Unterbrechungen

  • Konfigurieren der Ausnahmebehandlung

  • Ausführen eines Upserts für Streamdaten

  • Wiedergeben archivierter Streamdaten

  • Lesen aus und Schreiben in Delta Lakes

Verwalten von Batches und Pipelines

  • Auslösen von Batches

  • Umgang mit fehlerhaften Batchladevorgängen

  • Überprüfen von Batchladevorgängen

  • Verwalten von Datenpipelines in Azure Data Factory- oder Azure Synapse-Pipelines

  • Planen von Datenpipelines in Data Factory- oder Azure Synapse-Pipelines

  • Implementieren der Versionskontrolle für Pipelineartefakte

  • Verwalten von Spark-Aufträgen in einer Pipeline

Schützen, Überwachen und Optimieren der Datenspeicherung und -verarbeitung (30–35 %)

Implementieren der Datensicherheit

  • Implementieren der Datenmaskierung

  • Verschlüsseln von ruhenden und übertragenen Daten

  • Implementieren der Sicherheit auf Zeilen- und Spaltenebene

  • Beschreiben der rollenbasierten Zugriffssteuerung in Azure (RBAC)

  • Implementieren von POSIX-ähnlichen Zugriffssteuerungslisten (ACLs) für Data Lake Storage Gen2

  • Implementieren einer Datenaufbewahrungsrichtlinie

  • Implementieren von sicheren Endpunkten (privat und öffentlich)

  • Implementieren von Ressourcentokens in Azure Databricks

  • Laden eines Dataframes mit vertraulichen Informationen

  • Schreiben verschlüsselter Daten in Tabellen oder Parquet-Dateien

  • Verwalten vertraulicher Informationen

Überwachen der Datenspeicherung und -verarbeitung

  • Implementieren der von Azure Monitor verwendeten Protokollierung

  • Konfigurieren von Überwachungsdiensten

  • Überwachen der Streamverarbeitung

  • Messen der Leistung von Datenverschiebungen

  • Überwachen und Aktualisieren von Statistiken zu Daten in einem System

  • Überwachen der Datenpipelineleistung

  • Messen der Abfrageleistung

  • Planen und Überwachen von Pipelinetests

  • Interpretieren von Azure Monitor-Metriken und -Protokollen

  • Implementieren einer Pipelinewarnungsstrategie

Optimierung und Problembehandlung bei der Datenspeicherung und -verarbeitung

  • Komprimieren kleiner Dateien

  • Umgang mit Datenschiefen

  • Umgang mit Datenüberläufen

  • Optimieren der Ressourcenverwaltung

  • Optimieren von Abfragen mithilfe von Indexern

  • Optimieren von Abfragen mithilfe des Caches

  • Problembehandlung bei einem fehlerhaften Spark-Auftrag

  • Problembehandlung bei einer fehlerhaften Pipelineausführung (einschließlich Aktivitäten, die in externen Diensten ausgeführt werden)

Lernressourcen

Es wird empfohlen, dass Sie vor dem Ablegen der Prüfung üben und praktische Erfahrungen sammeln. Wir bieten Optionen für Selbststudium und Präsenzschulung sowie Links zu Dokumentationen, Community-Websites und Videos.

Lernressourcen Links zu Lern- und Dokumentationsressourcen
Bereiten Sie sich vor Wählen Sie aus eigenverantwortlichen Lernpfaden und Modulen aus, oder nehmen Sie an einer Präsenzschulung teil.
Zugehörige Dokumentation Azure Data Lake-Speicher
Azure Synapse Analytics
Azure Databricks
Data Factory
Azure Stream Analytics
Event Hubs
Azure Monitor
Fragen stellen Microsoft Q&A | Microsoft-Dokumentation
Community-Support erhalten Analytics in Azure | TechCommunity
Azure Synapse Analytics | TechCommunity
Folgen von Microsoft Learn Microsoft Learn – Microsoft Tech Community
Video finden Exam Readiness Zone
Data Exposed
Durchsuchen anderer Microsoft Learn-Shows

Änderungsprotokoll

Schlüssel zum Verständnis der Tabelle: Die Themengruppen (auch als funktionale Gruppen bezeichnet) sind fett gedruckt, gefolgt von den Zielen innerhalb jeder Gruppe. Die Tabelle ist ein Vergleich zwischen den beiden Versionen der bewerteten Prüfungsqualifikationen und die dritte Spalte beschreibt das Ausmaß der Änderungen.

Qualifikationsbereich vor dem 24. Oktober 2024 Qualifikationsbereich ab dem 24. Oktober 2024 Change
Entwickeln der Datenverarbeitung Entwickeln der Datenverarbeitung Keine Änderung
Erfassen und Transformieren von Daten Erfassen und Transformieren von Daten Nebenversion