Freigeben über


Leitfaden zur Prüfung DP-750: Implementieren von Data Engineering-Lösungen mit Azure Databricks

Zweck dieses Dokuments

Dieser Leitfaden sollte Ihnen helfen, zu verstehen, was Sie bei der Prüfung erwarten sollten, und enthält eine Zusammenfassung der Themen, die die Prüfung umfassen kann, und Links zu zusätzlichen Ressourcen. Die Informationen und Materialien in diesem Dokument sollten Ihnen dabei helfen, Ihre Studien zu konzentrieren, während Sie sich auf die Prüfung vorbereiten.

Nützliche Links Beschreibung
Wie man die Zertifizierung erwirbt Einige Zertifizierungen erfordern nur eine Prüfung, während andere mehrere Prüfungen bestehen müssen.
Zertifizierungsverlängerung Microsoft Associate-, Experten- und Spezialzertifizierungen laufen jährlich ab. Sie können verlängern, indem Sie einen kostenlosen Online-Test auf Microsoft Learn bestehen.
Ihr Microsoft Learn-Profil Wenn Sie Ihr Zertifizierungsprofil mit Microsoft Learn verbinden, können Sie Prüfungen planen und verlängern und Zertifikate freigeben und drucken.
Prüfungsbewertung und Bewertungsberichte Zum Bestehen ist eine Punktzahl von 700 oder höher erforderlich.
Prüfungs-Sandbox Sie können die Prüfungsumgebung erkunden, indem Sie unsere Prüfungs-Sandbox besuchen.
Unterkunft anfordern Wenn Sie Hilfsgeräte verwenden, zusätzliche Zeit benötigen oder änderungen an einem Teil der Prüfungserfahrung benötigen, können Sie eine Unterkunft anfordern.
Nehmen Sie an einem kostenlosen Übungstest teil Stellen Sie Ihr Wissen mit Übungsfragen auf die Probe, um sich auf das Examen vorzubereiten.

Über die Prüfung

Sprachen

Einige Prüfungen werden in andere Sprachen lokalisiert, und diese werden ungefähr acht Wochen nach der Aktualisierung der englischen Version aktualisiert. Wenn die Prüfung in Ihrer bevorzugten Sprache nicht verfügbar ist, können Sie weitere 30 Minuten anfordern, um die Prüfung abzuschließen.

Hinweis

Die Aufzählungen, die jedem der gemessenen Fähigkeiten folgen, sollen veranschaulichen, wie wir diese Fähigkeit bewerten. Verwandte Themen können in der Prüfung behandelt werden.

Hinweis

Die meisten Fragen umfassen Features, die allgemein verfügbar sind. Die Prüfung kann Fragen zu Vorschaufeatures enthalten, wenn diese Features häufig verwendet werden.

Gemessene Fähigkeiten vom 11. März 2026

Zielgruppenprofil

Als Kandidat für diese Microsoft-Zertifizierung sollten Sie Fachkompetenz bei der Integration und Modellierung von Daten, beim Erstellen und Bereitstellen optimierter Pipelines sowie bei der Problembehandlung und Wartung von Workloads in Azure Databricks haben. Außerdem sollten Sie Erfahrungen mit der Anwendung von Datenqualität und Daten-Governance in Unity Catalog haben.

Sie müssen wissen, wie Sie Daten mithilfe von Structured Query Language (SQL) und Python aufnehmen und transformieren. Sie benötigen Erfahrungen mit Methoden für den Softwareentwicklungslebenszyklus (SDLC), einschließlich Git. Darüber hinaus sollten Sie mit Microsoft Entra, Azure Data Factory und Azure Monitor vertraut sein.

Ihre Zuständigkeiten für diese Rolle umfassen:

  • Einrichten und Konfigurieren einer Azure Databricks-Umgebung.

  • Sichern und Verwalten von Unity Catalog-Objekten.

  • Vorbereiten und Verarbeiten von Daten.

  • Bereitstellen und Verwalten von Datenpipelines und Workloads.

Sie arbeiten eng mit Administratoren, Plattformarchitekten, Lösungsarchitekten, Datenwissenschaftlern und Datenanalysten zusammen, um Mithilfe von Azure Databricks Lösungen zu entwerfen, bereitzustellen und zu sichern.

Fähigkeiten auf einen Blick

  • Einrichten und Konfigurieren einer Azure Databricks-Umgebung (15–20%)

  • Sichern und Steuern von Unity-Katalogobjekten (15–20%)

  • Vorbereiten und Verarbeiten von Daten (30–35%)

  • Bereitstellen und Verwalten von Datenpipelines und -workloads (30–35%)

Einrichten und Konfigurieren einer Azure Databricks-Umgebung (15–20%)

Auswählen und Konfiguration von Rechenressourcen in einem Arbeitsbereich

  • Wählen Sie einen geeigneten Computetyp aus, einschließlich Auftragsberechnung, Serverless, Data Warehouse, klassischer Rechenleistung und gemeinsam genutzter Rechenleistung

  • Konfigurieren von Computeleistungseinstellungen, einschließlich CPU, Knotenanzahl, automatischer Skalierung, Beendigung, Knotentyp, Clustergröße und Pooling

  • Konfigurieren Sie die Rechenleistungseinstellungen, einschließlich Photonbeschleunigung, Azure Databricks-Laufzeit und Spark-Version sowie maschinelles Lernen.

  • Bibliotheken für eine Rechenressource installieren

  • Konfigurieren von Zugriffsberechtigungen für eine Computeressource

Erstellen und Organisieren von Objekten im Unity-Katalog

  • Wenden Sie Namenskonventionen an, die auf den Anforderungen basieren, einschließlich Isolierung, Entwicklungsumgebung und externe Freigabe

  • Erstellen eines Katalogs basierend auf den Anforderungen

  • Erstellen eines Schemas basierend auf Anforderungen

  • Volumes erstellen basierend auf Anforderungen

  • Erstellen von Tabellen, Ansichten und materialisierten Ansichten

  • Implementieren eines externen Katalogs durch Konfigurieren von Verbindungen

  • Implementieren von DDL (Data Definition Language)-Vorgängen für verwaltete und externe Tabellen

  • Konfigurieren von AI/BI Genie-Anweisungen für die Datenermittlung

Sichern und Steuern von Unity-Katalogobjekten (15–20%)

Secure Unity Catalog-Objekte

  • Gewähren Sie einem Prinzipal (Benutzer, Dienstprinzipal oder Gruppe) Privilegien für Securable Objekte im Unity Catalog

  • Implementieren der Zugriffssteuerung auf Tabellen- und Spaltenebene und der Sicherheit auf Zeilenebene

  • Zugreifen auf geheime Azure Key Vault-Schlüssel in Azure Databricks

  • Authentifizieren des Datenzugriffs mithilfe von Dienstprinzipalen

  • Authentifizieren des Ressourcenzugriffs mithilfe von verwalteten Identitäten

Verwalten von Unity-Katalogobjekten

  • Erstellen, Implementieren und Beibehalten von Tabellen- und Spaltendefinitionen und Beschreibungen für die Datenermittlung

  • Konfigurieren der attributbasierten Zugriffssteuerung (ABAC) mithilfe von Tags und Richtlinien

  • Konfigurieren von Zeilenfiltern und Spaltenmasken

  • Anwenden von Datenaufbewahrungsrichtlinien

  • Einrichten und Verwalten der Datenlinienverfolgung mithilfe des Katalog-Explorers, einschließlich Besitzer, Verlauf, Abhängigkeiten und Lineage

  • Konfigurieren der Überwachungsprotokollierung

  • Entwerfen und Implementieren einer sicheren Strategie für Delta Sharing

Vorbereiten und Verarbeiten von Daten (30–35%)

Entwerfen und Implementieren der Datenmodellierung im Unity-Katalog

  • Entwurfslogik für die Datenaufnahme und Datenquellenkonfiguration, einschließlich Extraktionstyp und Dateityp

  • Auswählen eines geeigneten Datenaufnahmetools, einschließlich Lakeflow Connect, Notizbüchern und Azure Data Factory

  • Auswählen einer Methode zum Laden von Daten, einschließlich Batch und Streaming

  • Auswählen eines Datentabellenformats, z. B. Parkett, Delta, CSV, JSON oder Iceberg

  • Entwerfen und Implementieren eines Datenpartitionierungsschemas

  • Wählen Sie einen langsam sich ändernden Dimensionstyp (SCD) aus

  • Auswählen der Granularität für eine Spalte oder Tabelle basierend auf den Anforderungen

  • Entwerfen und Implementieren einer zeitlichen (Verlaufstabelle) zum Aufzeichnen von Änderungen im Laufe der Zeit

  • Entwerfen und Implementieren einer Clusteringstrategie, einschließlich Flüssigclustering, Z-Sortierung und Löschvektoren

  • Auswählen zwischen verwalteten und nicht verwalteten Tabellen

Aufnehmen von Daten in den Unity-Katalog

  • Aufnehmen von Daten mithilfe von Lakeflow Connect, einschließlich Batch und Streaming

  • Datenerfassung mit Hilfe von Notebooks, einschließlich Batch und Streaming

  • Aufnehmen von Daten mithilfe von SQL-Methoden, einschließlich CREATE TABLE ... AS (CTAS), CREATE OR REPLACE TABLE und COPY INTO

  • Einbinden von Daten über einen Change Data Capture (CDC) Feed

  • Aufnehmen von Daten mithilfe von Spark Structured Streaming

  • Aufnehmen von Streamingdaten aus Azure Event Hubs

  • Einbinden von Daten mithilfe von Lakeflow Spark Declarative Pipelines, einschließlich Auto Loader

Bereinigen, transformieren und laden von Daten in den Unity-Katalog

  • Profildaten zum Generieren von Zusammenfassungsstatistiken und Bewertung von Datenverteilungen

  • Auswählen geeigneter Spaltendatentypen

  • Identifizieren und Auflösen doppelter, fehlender und NULL-Werte

  • Transformieren von Daten, einschließlich Filtern, Gruppieren und Aggregieren von Daten

  • Transformation von Daten mit Hilfe von Join-, Union-, Intersect- und Ausnahme-Operatoren

  • Transformieren von Daten durch Denormalisieren, Pivotieren und Entpivotieren

  • Laden von Daten mithilfe von Zusammenführungs-, Einfüge- und Append-Vorgängen

Implementieren und Verwalten von Datenqualitätseinschränkungen im Unity-Katalog

  • Implementierung von Validierungsprüfungen, einschließlich Nullierbarkeit, Datenkardinalität und Bereichsüberprüfung

  • Datentypüberprüfungen implementieren

  • Implementierung der Schema-Durchsetzung und Verwaltung von Schemaabweichungen

  • Datenqualität verwalten mit Pipeline-Erwartungen in Lakeflow Spark Declarative Pipelines

Bereitstellen und Verwalten von Datenpipelines und -workloads (30–35%)

Entwerfen und Implementieren von Datenpipelines

  • Entwurfsreihenfolge von Vorgängen für eine Datenpipeline

  • Wählen Zwischen Notizbuch und Lakeflow Spark Declarative Pipelines

  • Entwerfen der Aufgabenlogik für Lakeflow-Aufträge

  • Entwerfen und implementieren Sie das Handle von Fehlern in Daten-Pipelines, Notebooks und Jobs

  • Erstellen einer Datenpipeline mithilfe eines Notizbuchs, einschließlich Vorrangbeschränkungen

  • Erstellen einer Datenpipeline mithilfe von Lakeflow Spark Declarative Pipelines

Implementieren von Lakeflow-Aufträgen

  • Erstellen eines Auftrags, einschließlich Einrichtung und Konfiguration

  • Konfigurieren von Auftragstriggern

  • Einen Auftrag planen

  • Konfigurieren von Warnungen für einen Auftrag

  • Konfigurieren Sie automatische Neustarts für einen Auftrag oder eine Datenpipeline

Implementieren von Entwicklungslebenszyklusprozessen in Azure Databricks

  • Anwenden bewährter Methoden für die Versionssteuerung mithilfe von Git

  • Verwalten von Verzweigungen, Pull-Requests und Konfliktauflösung

  • Implementieren einer Teststrategie, einschließlich Komponententests, Integrationstests, End-to-End-Tests und Benutzerakzeptanztests (UAT)

  • Konfigurieren und Verpacken von Databricks Asset Bundles

  • Bereitstellen eines Bündels mithilfe der Befehlszeilenschnittstelle von Azure Databricks (CLI)

  • Bereitstellen eines Bündels mithilfe von REST-APIs

Überwachen, Problembehandlung und Optimieren von Workloads in Azure Databricks

  • Überwachen und Verwalten des Clusterverbrauchs zur Optimierung von Leistung und Kosten

  • Fehlerbehebung und Reparatur von Problemen in Lakeflow Jobs, einschließlich Reparatur-, Neustart-, Anhalte- und Ausführungsfunktionen

  • Behandeln und Reparieren von Problemen in Apache Spark-Aufträgen und -Notizbüchern, einschließlich Leistungsoptimierung, Beheben von Ressourcenengpässen und Clusterneustart

  • Untersuchen und Beheben von Problemen beim Zwischenspeichern, Verzerren, Verschütten und Mischen mit Hilfe eines gerichteten azyklischen Graphen (DAG), der Spark-Benutzeroberfläche und des Abfrageprofils

  • Optimieren von Delta-Tabellen für Leistung und Kosten, einschließlich OPTIMIZE- und VACUUM-Befehlen

  • Implementieren des Protokollstreamings mithilfe von Log Analytics in Azure Monitor

  • Konfigurieren von Warnungen mithilfe von Azure Monitor

Studienressourcen

Wir empfehlen Ihnen, vor der Prüfung praktische Erfahrungen zu sammeln und zu trainieren. Wir bieten Selbststudiumsoptionen und Unterrichtsschulungen sowie Links zu Dokumentationen, Communitywebsites und Videos an.

Studienressourcen Links zu Lernen und Dokumentation
Bereiten Sie sich vor Wählen Sie aus selbstgesteuerten Lernpfaden und Modulen oder nehmen Sie einen kursleitergeführten Kurs
Dokumentation suchen Azure Databricks
Azure Data Factory
Microsoft Entra
Azure Monitor.
Fragen stellen Microsoft Q&A | Microsoft-Dokumente
Community-Support erhalten Analysen in Azure – Microsoft Tech Community
Azure Databricks – Community Hub
Microsoft Learn folgen Microsoft Learn – Microsoft Tech Community
Suchen eines Videos Prüfungsbereitschaftszone
Daten verfügbar gemacht
Andere Shows von Microsoft Learn durchsuchen