مشاركة عبر


دليل الدراسة لامتحان DP-750: تنفيذ حلول هندسة البيانات باستخدام Azure Databricks

الغرض من هذا المستند

سيساعدك دليل الدراسة هذا على فهم ما يمكن توقعه في الاختبار، ويتضمن ملخصاً للمواضيع التي قد يشملها الاختبار وارتباطات إلى موارد إضافية. يجب أن تساعدك المعلومات والمواد الواردة في هذا المستند في تركيز دراستك أثناء التحضير للاختبار.

روابط مفيدة الوصف
كيفية الحصول على الشهادة تتطلب بعض الشهادات اجتياز اختبار واحد فقط، بينما تتطلب شهادات أخرى اجتياز عِدة اختبارات.
تجديد الشهادة تنتهي صلاحية شهادات Microsoft الشريكة والخبيرة والتخصصية سنوياً. يمكنك التجديد عن طريق اجتياز تقييم مجاني عبر الإنترنت على Microsoft Learn.
ملف تعريف Microsoft Learn لديك يتيح لك توصيل ملف تعريف الشهادة الخاص بك ب Microsoft Learn جدولة الامتحانات وتجديدها ومشاركة الشهادات وطباعتها.
تسجيل الامتحانات وتقارير النتيجة يلزم الحصول على 700 درجة أو أكثر للنجاح.
بيئة الاختبار المعزولة يمكنك استكشاف بيئة الاختبار من خلال زيارة بيئة الاختبار المعزولة الخاصة بنا.
طلب تسهيلات إذا كنت تستخدم أجهزة مساعدة أو تحتاج إلى وقت إضافي أو تحتاج إلى تعديل على أي جزء من تجربة الاختبار، يمكنك طلب التجهيز.
إجراء تقييم ممارسة مجاني اختبر مهاراتك مع أسئلة التدريب لمساعدتك على الاستعداد للامتحان.

حول الاختبار

Languages

تُترجم بعض الاختبارات إلى لغات أخرى، وتُحدّث بعد ثمانية أسابيع تقريباً من تحديث الإصدار باللغة الإنجليزية. إذا لم يكن الاختبار متوفراً باللغة التي تُفضلها، يمكنك طلب 30 دقيقة إضافية لإكمال الاختبار.

ملحوظة

تهدف رموز التعداد النقطية التي تتبع كل من المهارات التي يتم قياسها إلى توضيح كيفية تقييمنا لتلك المهارة. قد تتم تغطية الموضوعات ذات الصلة في الاختبار.

ملحوظة

تغطي معظم الأسئلة الميزات المتوفرة بشكل عام (GA). قد يحتوي الاختبار على أسئلة حول ميزات المعاينة إذا كانت هذه الميزات شائعة الاستخدام.

المهارات المقاسة حتى 11 مارس 2026

ملف تعريف الجمهور

بصفتك مرشحا للحصول على شهادة مايكروسوفت هذه، يجب أن تمتلك خبرة في مجال البيانات في دمج ونمذجة البيانات، وبناء ونشر خطوط أنابيب محسنة، واستكشاف وصيانة أعباء العمل في Azure Databricks. يجب أن تكون لديك أيضا خبرة في تطبيق أفضل ممارسات جودة البيانات وحوكمة البيانات في كتالوج Unity.

تحتاج إلى معرفة كيفية استيعاب وتحويل البيانات باستخدام لغة الاستعلام المهيكلة (SQL) وبايثون. تحتاج إلى خبرة في ممارسات دورة حياة تطوير البرمجيات (SDLC)، بما في ذلك Git. بالإضافة إلى ذلك، يجب أن تكون على دراية ب Microsoft Entra وAzure Data Factory وAzure Monitor.

تشمل مسؤولياتك لهذا الدور ما يلي:

  • إعداد وتكوين بيئة Azure Databricks.

  • تأمين وتنظيم كائنات كتالوج يونيتي.

  • إعداد ومعالجة البيانات.

  • نشر وصيانة خطوط البيانات وأعباء العمل.

تعمل عن كثب مع الإداريين، ومهندسي المنصات، ومهندسي الحلول، وعلماء البيانات، ومحللي البيانات لتصميم ونشر وتأمين حلول هندسة البيانات باستخدام Azure Databricks.

المهارات في لمحة

  • إعداد وتكوين بيئة Azure Databricks (15–20%)

  • تأمين وإدارة كائنات كتالوج الوحدة (15–20%)

  • إعداد ومعالجة البيانات (30–35%)

  • نشر وصيانة خطوط أنابيب البيانات وأعباء العمل (30–35%)

إعداد وتكوين بيئة Azure Databricks (15–20%)

اختر وقم بتكوين الحوسبة في مساحة عمل

  • اختر نوع الحوسبة المناسب، بما في ذلك الحوسبة الوظيفية، بدون خادم، المستودع، الحوسبة الكلاسيكية، والحوسبة المشتركة

  • تكوين إعدادات أداء الحوسبة، بما في ذلك وحدة المعالجة المركزية، عدد العقد، التحجيم التلقائي، الإنهاء، نوع العقدة، حجم العنقود، والتجميع

  • تكوين إعدادات ميزات الحوسبة، بما في ذلك تسريع الفوتون، ووقت التشغيل/إصدار Spark في Azure Databricks، وتعلم الآلة

  • تثبيت مكتبات لمورد حوسبي

  • تكوين صلاحيات الوصول إلى مورد حسابي

إنشاء وتنظيم الكائنات في كتالوج Unity

  • تطبيق قواعد التسمية بناء على المتطلبات، بما في ذلك العزلة، بيئة التطوير، والمشاركة الخارجية

  • أنشئ كتالوجا بناء على المتطلبات

  • أنشئ مخططا بناء على المتطلبات

  • أنشئ مجلدات بناء على المتطلبات

  • أنشئ جداول، وعرضات، ومناظر متجسدة

  • تنفيذ فهرس أجنبي عن طريق تكوين الاتصالات

  • تنفيذ عمليات لغة تعريف البيانات (DDL) على الجداول المدارة والخارجية

  • تكوين تعليمات AI/BI Genie لاكتشاف البيانات

تأمين وإدارة كائنات كتالوج الوحدة (15–20%)

كائنات كتالوج الوحدة الآمنة

  • منح الامتيازات لمدير (مستخدم، مدير خدمة، أو مجموعة) لكائنات قابلة للتأمين في كتالوج Unity

  • تنفيذ التحكم في الوصول على مستوى الجدول والعمود وأمان الصف

  • Access Azure Key Vault secrets from within Azure Databricks

  • التحقق من صحة الوصول إلى البيانات باستخدام مبادئ الخدمة

  • التحقق من صحة الوصول إلى الموارد باستخدام الهويات المدارة

كائنات كتالوج الوحدة الحاكمة

  • إنشاء وتنفيذ وحفظ تعريفات ووصف الجداول والأعمدة لاكتشاف البيانات

  • تكوين التحكم في الوصول القائم على السمات (ABAC) باستخدام العلامات والسياسات

  • تكوين مرشحات الصفوف وأقنعة الأعمدة

  • تطبيق سياسات الاحتفاظ بالبيانات

  • قم بإعداد وإدارة تتبع نسب البيانات باستخدام مستكشف الكتالوج، بما في ذلك المالك، والتاريخ، والتبعيات، والنسب

  • تكوين سجلات التدقيق

  • تصميم وتنفيذ استراتيجية آمنة لمشاركة دلتا

إعداد ومعالجة البيانات (30–35%)

تصميم وتنفيذ نمذجة البيانات في كتالوج Unity

  • منطق التصميم لاستيعاب البيانات وتكوين مصدر البيانات، بما في ذلك نوع الاستخراج ونوع الملف

  • اختر أداة مناسبة لاستقبال البيانات، بما في ذلك Lakeflow Connect ودفاتر الملاحظات وAzure Data Factory

  • اختر طريقة تحميل البيانات، بما في ذلك الدفعة والتدفق

  • اختر تنسيق جدول بيانات، مثل Parquet أو Delta أو CSV أو JSON أو Iceberg

  • تصميم وتنفيذ مخطط تقسيم البيانات

  • اختر نوعا من الأبعاد المتغيرة ببطء (SCD)

  • اختر الدقة التفصيلية في عمود أو جدول بناء على المتطلبات

  • تصميم وتنفيذ جدول زمني (تاريخي) لتسجيل التغيرات مع مرور الوقت

  • تصميم وتنفيذ استراتيجية تجميع، تشمل تجميع السوائل، ترتيب Z، ومتجهات الحذف

  • اختر بين الجداول المدارة وغير المدارة

إدخال البيانات إلى كتالوج Unity

  • استيعاب البيانات باستخدام Lakeflow Connect، بما في ذلك الدفعة والبث

  • استيعاب البيانات باستخدام دفاتر الملاحظات، بما في ذلك الدفعات والبث

  • استيعاب البيانات باستخدام طرق SQL، بما في ذلك إنشاء الجدول ... كما في (CTAS)، إنشاء أو استبدال الجدول، ونسخ إلى

  • استيعاب البيانات باستخدام تغذية التقاط بيانات التغيير (CDC)

  • استيعاب البيانات باستخدام Spark Structured Streaming

  • Ingest streaming data from Azure Event Hubs

  • استيعاب البيانات باستخدام خطوط أنابيب Lakeflow Spark الإعلانية، بما في ذلك Auto Loader

تنظيف وتحويل وتحميل البيانات إلى كتالوج Unity

  • بيانات الملف الشخصي لتوليد إحصاءات ملخصة وتقييم توزيعات البيانات

  • اختر أنواع بيانات الأعمدة المناسبة

  • تحديد وحل القيم المكررة والمفقودة والفارغة

  • تحويل البيانات، بما في ذلك التصفية، والتجميع، وتجميع البيانات

  • تحويل البيانات باستخدام المؤثرات join، union، intersect، و باستثناء

  • تحويل البيانات عن طريق إلغاء التطبيع والتدوير وإلغاء التدوير

  • تحميل البيانات باستخدام عمليات الدمج، الإدخال، والإضافة.

تنفيذ وإدارة قيود جودة البيانات في كتالوج يونيتي

  • تنفيذ فحوصات التحقق، بما في ذلك الصفرية، وعدد البيانات، وفحص المدى

  • تنفيذ فحوصات أنواع البيانات

  • تنفيذ تطبيق المخطط وإدارة انحراف المخطط

  • إدارة جودة البيانات مع توقعات خطوط الأنابيب في خطوط أنابيب Lakeflow Spark التصريحية

نشر وصيانة خطوط أنابيب البيانات وأعباء العمل (30–35%)

تصميم وتنفيذ خطوط أنابيب البيانات

  • ترتيب تصميم العمليات لخط أنابيب البيانات

  • اختر بين خطوط الأنابيب التصريحية للدفتر الملاحظ وLakeflow Spark

  • تصميم منطق المهام لوظائف ليكفلو

  • تصميم وتنفيذ معالجة الأخطاء في خطوط أنابيب البيانات، والدفاتر الملاحظات، والوظائف

  • أنشئ خط أنابيب بيانات باستخدام دفتر ملاحظات، بما في ذلك قيود الأسبقية

  • أنشئ خط أنابيب بيانات باستخدام خطوط أنابيب Lakeflow Spark التصريحية

تنفيذ وظائف ليكفلو

  • إنشاء وظيفة، بما في ذلك الإعداد والتكوين

  • تكوين مشغلات المهام

  • جدولة وظيفة

  • تكوين التنبيهات لمهمة معينة

  • تكوين إعادة التشغيل التلقائية لوظيفة أو خط أنابيب بيانات

تنفيذ عمليات دورة حياة التطوير في Azure Databricks

  • تطبيق أفضل ممارسات التحكم بالإصدارات باستخدام Git

  • إدارة التفرع، وطلبات السحب، وحل النزاعات

  • تنفيذ استراتيجية اختبار، تشمل اختبارات الوحدات، واختبارات التكامل، والاختبارات من البداية إلى النهاية، واختبار قبول المستخدم (UAT)

  • تكوين وتغليف حزم أصول Databricks

  • نشر حزمة باستخدام واجهة سطر الأوامر Azure Databricks (CLI)

  • نشر حزمة باستخدام واجهات برمجة التطبيقات REST

مراقبة واستكشاف وتحسين أعباء العمل في Azure Databricks

  • مراقبة وإدارة استهلاك العنقود لتحسين الأداء والتكلفة

  • استكشاف وإصلاح المشكلات في Lakeflow Jobs، بما في ذلك وظائف الإصلاح، إعادة التشغيل، الإيقاف، والتشغيل

  • استكشاف وإصلاح المشكلات في وظائف ودفاتر Apache Spark، بما في ذلك ضبط الأداء، وحل اختناقات الموارد، وإعادة تشغيل العنقود

  • ابحث وحل مشاكل التخزين المؤقت، والانحراف، والتسكيب، والخلط باستخدام رسم بياني موجه غير دوري (DAG)، وواجهة Spark، وملف تعريف الاستعلام

  • تحسين جداول دلتا من حيث الأداء والتكلفة، بما في ذلك أوامر OPTIMIZE و VACUUM

  • تنفيذ بث السجلات باستخدام تحليلات السجلات في Azure Monitor

  • تكوين التنبيهات باستخدام Azure Monitor

موارد الدراسة

نوصيك بالحصول على التدريب والخبرة العملية قبل إجراء الاختبار. نقدم خيارات الدراسة الذاتية والتدريب في الفصول الدراسية بالإضافة إلى ارتباطات للوثائق ومواقع المجتمع ومقاطع الفيديو.

موارد الدراسة ارتباطات للتعلم والوثائق
الحصول على التدريب الاختيار من بين مسارات ووحدات التعليم حسب القدرات الفردية أو الحصول على دورة تدريبية بقيادة مدرب
البحث عن الوثائق Azure Databricks
مصنع بيانات Azure
مايكروسوفت إنترا
Azure Monitor
طرح سؤال Microsoft Q& أ | Microsoft Docs
الحصول على دعم المجتمع التحليلات على Azure - Microsoft Tech Community
Azure Databricks - Community Hub
تابع Microsoft Learn Microsoft Learn - مجتمع Microsoft التقني
البحث عن مقطع فيديو منطقة جاهزية الامتحان
البيانات المكشوفة
استعراض عروض Microsoft Learn الأخرى