مشاركة عبر


Greenfield lakehouse على Microsoft Fabric

Microsoft Fabric
Power BI

يوضح حمل العمل هذا المثال حل greenfield لإنشاء نظام أساسي للبيانات قابل للتطوير باستخدام Microsoft Fabric ونموذج تصميم lakehouse. النسيج هو نظام أساسي يدمج تخزين البيانات ومعالجتها وتحليلاتها. توفر بحيرة greenfield بداية نظيفة لتصميم نظام بيئي فعال ومقاوم للبيانات في المستقبل.

بناء الأنظمة

رسم تخطيطي يوضح حل greenfield لبناء منصة بيانات قوية وقابلة للتطوير باستخدام نموذج تصميم lakehouse على Microsoft Fabric.

قم بتنزيل ملف Visio لهذه البنية.

تدفق البيانات

يعكس هذا التصميم بنية Lambda، التي تفصل معالجة البيانات إلى طبقتين:

  • طبقة معالجة دفعية كبيرة الحجم تتم معالجتها بشكل دوري للتحليل التاريخي
  • طبقة معالجة دفق ذات زمن انتقال منخفض وعالي الإنتاجية للتحلولات في الوقت الفعلي

ي استيعاب مسار معالجة الدفق للبيانات ومعالجتها في الوقت الفعلي تقريبا، ما يجعلها مثالية للوحات المعلومات واكتشاف الحالات الشاذة. يعالج مسار معالجة الدفعات مجموعة البيانات الكاملة، ما يضمن تناسق البيانات وتمكين التحليل التاريخي المعقد. يوفر هذا النهج ثنائي الجوانب رؤى في الوقت الحقيقي مع الحفاظ على سجل موثوق لاستكشافه لاحقا.

المسار البارد: تحليلات الدفعات

مستودعات البيانات، التي تعتمد على دلالات SQL العلائقية، هي النهج التقليدي لتحليل البيانات التاريخية. ومع ذلك، تطور هذا النمط بمرور الوقت، و lakehouses هي معيار الصناعة الحالي لتحليل البيانات الدفعية. تم بناء مستودع فوق تنسيقات ملفات مصدر مفتوح، وعلى عكس مستودعات البيانات التقليدية، يلبي جميع أنواع البيانات: منظمة وشبه منظمة وغير منظمة البنية. عادة ما يتم بناء طبقة الحوسبة في مستودع أعلى إطار عمل Apache Spark، وهو المحرك المفضل لمعالجة البيانات الضخمة بسبب قدرتها على الحوسبة الموزعة والأداء العالي. يوفر Fabric تجربة بحيرة أصلية تستند إلى تنسيق ملف مصدر مفتوح Delta Lake ووقت تشغيل Spark المدار.

عادة ما يستخدم تنفيذ lakehouse بنية الميدالية. في هذه البنية، تحتوي الطبقة البرونزية على البيانات الأولية، وتحتوي الطبقة الفضية على البيانات التي تم التحقق من صحتها وإلغاء تكرارها، وتحتوي الطبقة الذهبية على بيانات محسنة للغاية مناسبة لدعم حالات الاستخدام التي تواجه الأعمال. يعمل هذا النهج عبر جميع المنظمات والصناعات. على الرغم من أن هذا هو النهج العام، يمكنك تخصيصه لمتطلباتك. توضح هذه البنية كيفية إنشاء مستودع باستخدام مكونات Fabric الأصلية.

استيعاب البيانات عبر Data Factory

(راجع الخطوة 1 في الرسم التخطيطي.)

توفر ميزة Azure Data Factory في Fabric قدرات خدمة Azure Data Factory، وهي خدمة تكامل بيانات مستخدمة على نطاق واسع. على الرغم من أن خدمة Data Factory توفر بشكل رئيسي قدرات التنسيق عبر المسارات، فإن الميزة في Fabric توفر كلا من المسارات وتدفقات البيانات.

  • تمكنك مسارات البيانات من تطبيق قدرات تنسيق البيانات الغنية الجاهزة لإنشاء مهام سير عمل بيانات مرنة تلبي احتياجات مؤسستك.
  • تمكنك تدفقات البيانات من استخدام أكثر من 300 تحويل في مصمم تدفقات البيانات. يمكنك استخدام هذه التحويلات لتحويل البيانات باستخدام واجهة رسومية مشابهة لتلك الموجودة في Power Query. تتضمن هذه التحويلات تحويلات البيانات الذكية المستندة إلى الذكاء الاصطناعي. يمكن لتدفقات البيانات أيضا كتابة البيانات إلى مخازن البيانات الأصلية في Fabric، مثل قواعد بيانات lakehouse والمستودع وAzure SQL وKusto.

اعتمادا على متطلباتك، يمكنك استخدام أي من هاتين القدرات أو كليهما لإنشاء إطار عمل استيعاب غني يستند إلى بيانات التعريف. يمكنك إلحاق البيانات من أنظمة مصدر مختلفة وفقا لجدول زمني محدد أو باستخدام مشغلات الأحداث.

تحويلات البيانات

(راجع الخطوة 2 في الرسم التخطيطي.)

هناك نهجان لإعداد البيانات وتحويلها. إذا كنت تفضل تجربة التعليمات البرمجية أولا، يمكنك استخدام دفاتر ملاحظات Spark. إذا كنت تفضل تجربة منخفضة التعليمات البرمجية أو بدون تعليمات برمجية، يمكنك استخدام تدفقات البيانات.

تعد دفاتر ملاحظات Fabric أداة مهمة لتطوير وظائف Apache Spark. وهي توفر سطحا تفاعليا مستندا إلى الويب يستخدمه مهندسو البيانات لكتابة التعليمات البرمجية. كما أنها توفر مرئيات غنية وتمكن من استخدام نص Markdown. يكتب مهندسو البيانات التعليمات البرمجية لاستيعاب البيانات وإعداد البيانات وتحويل البيانات. يستخدم علماء البيانات دفاتر الملاحظات لإنشاء حلول التعلم الآلي. على سبيل المثال، يستخدمونها لإنشاء تجارب ونماذج وتعقب النماذج ونشرها.

تأتي كل مساحة عمل في Fabric مع تجمع Spark starter، والذي يستخدم لمهام Spark الافتراضية. مع تجمعات البداية، يمكنك توقع تهيئة جلسة Apache Spark السريعة، عادة في غضون 5 إلى 10 ثوان، دون أي إعداد يدوي. يمكنك أيضا الحصول على المرونة لتخصيص تجمعات Apache Spark وفقا لمتطلبات هندسة البيانات الخاصة بك. يمكنك تغيير حجم العقد والتحجيم التلقائي وتخصيص المنفذين ديناميكيا استنادا إلى متطلبات وظيفة Spark. بالنسبة لتخصيصات وقت تشغيل Spark، يمكنك استخدام البيئات. في بيئة ما، يمكنك تكوين خصائص الحساب، وتحديد أوقات تشغيل مختلفة، وإعداد تبعيات حزمة المكتبة استنادا إلى متطلبات حمل العمل.

تسمح لك تدفقات البيانات باستخراج البيانات من مصادر مختلفة، وتحويلها باستخدام مجموعة واسعة من العمليات، وتحميلها اختياريا إلى وجهة. تقليديا، يقضي مهندسو البيانات وقتا كبيرا في استخراج البيانات وتحويلها وتحميلها إلى تنسيق قابل للاستهلاك لتحليلات انتقال البيانات من الخادم. يوفر Dataflow Gen2 طريقة سهلة وقابلة لإعادة الاستخدام لتنفيذ مهام الاستخراج والتحويل والتحميل (ETL) باستخدام الإشارات المرئية في Power Query Online. يحافظ تدفق البيانات على جميع خطوات التحويل. لتنفيذ مهام أخرى أو تحميل البيانات إلى وجهة مختلفة بعد التحويل، قم بإنشاء Data Pipeline وإضافة نشاط Dataflow Gen2 إلى تنسيق البنية الأساسية لبرنامج ربط العمليات التجارية.

المسار السريع: تحليلات في الوقت الحقيقي

تعد معالجة البيانات في الوقت الحقيقي أمرا حيويا للشركات التي تريد أن تظل مرنة، واتخاذ قرارات مستنيرة بسرعة، والاستفادة من الرؤى الفورية لتحسين العمليات وتجارب العملاء. في Fabric، يتم توفير هذه الإمكانية من قبل خدمة التحليل الذكي في الوقت الحقيقي. ويضم العديد من ميزات Fabric التي يتم تجميعها معا ويمكن الوصول إليها عبر مركز الوقت الحقيقي. يوفر مركز الوقت الحقيقي مكانا واحدا لتدفق البيانات في الحركة عبر مؤسستك.

يتيح التحليل الذكي في الوقت الحقيقي في Fabric التحليل وتصور البيانات للسيناريوهات المستندة إلى الحدث والبيانات المتدفقة وسجلات البيانات. فهو يربط البيانات المستندة إلى الوقت من مصادر مختلفة باستخدام كتالوج موصلات بدون تعليمات برمجية ويوفر حلا من البداية إلى النهاية لاستيعاب البيانات وتحويلها وتخزينها وتحليلاتها وتصورها وتتبعها الذكاء الاصطناعي والإجراءات في الوقت الفعلي. على الرغم من أن اسم الخدمة يستخدم عبارة "في الوقت الحقيقي"، إلا أن بياناتك لا تحتاج إلى النقل المستمر بمعدلات وأحجام عالية. يوفر التحليل الذكي في الوقت الحقيقي حلولا تستند إلى الحدث، بدلا من الحلول المستندة إلى الجدول الزمني.

الاستيعاب في الوقت الحقيقي

(راجع الخطوة 3 في الرسم التخطيطي.)

تدفقات الأحداث هي ميزة Fabric التي تمكن أسلوب بدون تعليمات برمجية لاستيعاب الأحداث في الوقت الحقيقي من مصادر مختلفة وإرسالها إلى وجهات مختلفة. يسمح بتصفية البيانات وتحويلها وتجميعها وتوجيهها استنادا إلى المحتوى. يمكنك أيضا استخدامه لإنشاء تدفقات جديدة من التدفقات الموجودة ومشاركتها عبر المؤسسة باستخدام مركز الوقت الحقيقي. تدعم تدفقات الأحداث مصادر بيانات متعددة ووجهات بيانات. يمكنك استخدام مجموعة واسعة من الموصلات إلى مصادر خارجية مثل مجموعات Apache Kafka وقاعدة بيانات تغيير موجزات التقاط البيانات ومصادر تدفق AWS (Kinesis) وGoogle (GCP Pub/Sub).

يمكنك إنشاء eventstream، وإضافة مصادر بيانات الحدث إلى الدفق، وإضافة تحويلات اختياريا لتحويل بيانات الحدث، ثم توجيه البيانات إلى الوجهات المدعومة. يعد Fabric lakehouse إحدى الوجهات المدعومة، بحيث يمكنك تحويل الأحداث في الوقت الحقيقي قبل استيعابها في مستودعك. يتم تحويل الأحداث في الوقت الحقيقي إلى تنسيق Delta Lake ثم تخزينها في جداول lakehouse المعينة. يتيح هذا النمط سيناريوهات تخزين البيانات والتحليل التاريخي لبياناتك سريعة الحركة.

التحليلات اللحظية

(راجع الخطوة 4 في الرسم التخطيطي.)

عند استخدام التحليل الذكي في الوقت الحقيقي في Fabric، اعتمادا على حالات الاستخدام الخاصة بك، هناك مساران نموذجيان لتدفق البيانات: عناصر Reflex ومراكز الأحداث.

التراجع هو عنصر Fabric الذي يسمح لك بالتفاعل مع حدوث حالة بيانات كما يحدث. يمكن أن يكون رد الفعل هذا رسالة تنبيه بسيطة عبر البريد الإلكتروني أو Microsoft Teams، أو يمكن أن يتضمن استدعاء إجراء مخصص عن طريق تشغيل تدفق Power Automate. يمكنك أيضا تشغيل أي عنصر Fabric من ردود الفعل الخاصة بك. يتم دعم العديد من حالات استخدام المراقبة من خلال ردود الفعل، واحدة منها تتفاعل مع البيانات المتدفقة عند وصولها إلى تدفقات الأحداث.

Eventhouse هي مجموعة من قاعدة بيانات Kusto Query Language (KQL) واحدة أو أكثر. يتم تصميم قواعد بيانات KQL للأحداث المتدفقة المستندة إلى الوقت للبيانات المنظمة وشبه المنظمة وغير المنظمة. تتم فهرسة البيانات وتقسيمها تلقائيا استنادا إلى وقت الاستيعاب، والذي يوفر قدرات استعلام تحليلي سريعة ومعقدة، حتى مع تدفق البيانات. يمكن توفير البيانات المخزنة في مراكز الأحداث في OneLake لاستخدامها من قبل عمليات Fabric الأخرى. يمكنك الاستعلام عن هذه البيانات باستخدام العديد من خيارات التعليمات البرمجية أو التعليمات البرمجية المنخفضة أو بدون تعليمات برمجية في Fabric، بما في ذلك KQL الأصلي وT-SQL في مجموعة استعلام KQL.

تم تصميم لوحات المعلومات في الوقت الحقيقي لتوفير رؤى فورية من تدفق البيانات إلى مراكز الأحداث الخاصة بك. يمكنك إضافة أنواع مختلفة من المرئيات إلى لوحة المعلومات، مثل المخططات والرسوم البيانية، وتخصيصها لتناسب احتياجاتك. تخدم لوحات المعلومات في الوقت الحقيقي الغرض المحدد من تحديد الاتجاهات والشذوذ بسرعة في البيانات عالية السرعة التي تصل إلى مركز أحداث. وهي تختلف عن لوحات معلومات Power BI، وهي مناسبة لأحمال عمل إعداد التقارير عن المعلومات المهنية للمؤسسات.

خدمة البيانات

(راجع الخطوة 5 في الرسم التخطيطي.)

هناك العديد من خيارات التعليمات البرمجية المنخفضة أو المؤيدة المتاحة لاستهلاك البيانات من بحيرات Fabric ومراكز الأحداث.

نقطة نهاية تحليلات SQL

يتم إنشاء نقطة نهاية تحليلات SQL تلقائيا لكل مستودع في Fabric. نقطة نهاية تحليلات SQL للقراءة فقط. لتعديل البيانات، تحتاج إلى التبديل إلى وضع lakehouse واستخدام Spark. يمكنك استخدام نقطة نهاية تحليلات SQL مباشرة في مدخل Fabric للاستعلام عن البيانات عن طريق التبديل من وضع lakehouse إلى وضع SQL في lakehouse. بدلا من ذلك، يمكنك استخدام سلسلة الاتصال SQL من مستودع للاتصال باستخدام أدوات العميل مثل Power BI وExcel وSQL Server Management Studio. هذا الخيار مناسب لمحللي البيانات والأعمال في فريق البيانات.

دفاتر ملاحظات Spark

تعد دفاتر الملاحظات طريقة شائعة للتفاعل مع بيانات lakehouse. يوفر Fabric سطحا تفاعليا مستندا إلى الويب يمكن للعاملين في البيانات استخدامه لكتابة التعليمات البرمجية. يمكن لهؤلاء العمال تطبيق مرئيات غنية ونص Markdown. يكتب مهندسو البيانات التعليمات البرمجية لاستيعاب البيانات وإعداد البيانات وتحويل البيانات. يستخدم علماء البيانات دفاتر الملاحظات لاستكشاف البيانات، وإنشاء تجارب ونماذج التعلم الآلي، وتعقب النماذج ونشرها. هذا الخيار مناسب لمهندسي البيانات المحترفين وعلماء البيانات.

Power BI

يأتي كل مستودع في Fabric مع نموذج دلالي افتراضي تم إنشاؤه مسبقا. يتم إنشاؤه تلقائيا عند إعداد مستودع وتحميل البيانات فيه. ترث هذه النماذج منطق العمل من lakehouse لتسهيل إنشاء تقارير Power BI ولوحات المعلومات من داخل تجربة lakehouse مباشرة. يمكنك أيضا إنشاء نماذج دلالية مخصصة، استنادا إلى متطلبات عمل محددة، على جداول lakehouse. عند إنشاء تقارير Power BI على مستودع، يمكنك استخدام وضع Direct Lake، والذي لا يتطلب منك استيراد البيانات بشكل منفصل. يسمح لك هذا الوضع بالحصول على أداء في الذاكرة على تقاريرك دون نقل بياناتك من مستودع البيانات.

واجهات API مخصصة

يوفر Fabric سطحا غنيا لواجهة برمجة التطبيقات عبر عناصره. يوفر OneLake وصولا مفتوحا إلى جميع عناصر Fabric من خلال واجهات برمجة تطبيقات Azure Data Lake Storage وSDKs. يمكنك الوصول إلى بياناتك في OneLake من خلال أي واجهة برمجة تطبيقات أو SDK أو أداة متوافقة مع Data Lake Storage باستخدام OneLake URI بدلا من ذلك. يمكنك تحميل البيانات إلى مستودع باستخدام Azure Storage Explorer أو قراءة جدول دلتا عبر اختصار من Azure Databricks. يدعم OneLake أيضا برنامج تشغيل Azure Blob Filesystem (ABFS) لمزيد من التوافق مع Data Lake Storage وAzure Blob Storage. لاستهلاك البيانات المتدفقة في تطبيقات انتقال البيانات من الخادم، يمكنك دفع بيانات تدفق الأحداث إلى نقطة نهاية API مخصصة. يمكنك بعد ذلك استهلاك إخراج الدفق هذا من Fabric باستخدام Azure Event Hubs أو بروتوكول AMQP أو Kafka.

Power Automate

Power Automate هو نظام أساسي لتطبيق منخفض التعليمات البرمجية يمكنك استخدامه لأتمتة المهام المتكررة ومعالجة بياناتك أيضا. يدعم عنصر التراجع في Fabric تدفقات Power Automate كوجهة. يفتح هذا التكامل العديد من حالات الاستخدام ويسمح لك بتشغيل إجراءات انتقال البيانات من الخادم باستخدام مجموعة واسعة من الموصلات، لكل من أنظمة Microsoft وأنظمة غير تابعة ل Microsoft.

المكونات

يتم استخدام المكونات التالية في هذا الحل.

  • Fabric: نظام أساسي لتحليل البيانات قائم على السحابة ومصمم للمؤسسات. يوفر بيئة موحدة لمهام البيانات المختلفة، مثل استيعاب البيانات وتحويلها وتحليلها وتصورها.

    • OneLake: المركز المركزي لجميع بياناتك في Fabric. تم تصميمه كمخزن بيانات مفتوح، ما يعني أنه يمكنه تخزين البيانات بتنسيقها الأصلي، بغض النظر عن البنية.

    • Data Factory: خدمة ETL وتنسيق مستندة إلى السحابة لحركة البيانات وتحويلها تلقائيا. يسمح لك بأتمتة حركة البيانات وتحويلها على نطاق واسع عبر مصادر البيانات المختلفة.

    • هندسة البيانات: الأدوات التي تمكن جمع كميات كبيرة من البيانات وتخزينها ومعالجتها وتحليلها.

    • علم البيانات: الأدوات التي تمكنك من إكمال مهام سير عمل علوم البيانات الشاملة لإثراء البيانات واكتساب رؤى الأعمال.

    • التحليل الذكي في الوقت الحقيقي: خدمة توفر إمكانات استيعاب ومعالجة البث. فهو يسمح لك بالحصول على رؤى من البيانات المتدفقة باستمرار لتمكين اتخاذ قرارات أسرع تستند إلى الاتجاهات في الوقت الحقيقي والشذوذ.

    • Copilot: أداة يمكنك استخدامها لتحليل البيانات، وإنشاء رؤى، وإنشاء مرئيات وتقارير في Fabric وPower BI باستخدام اللغة الطبيعية.

  • Power BI: أداة ذكاء الأعمال لإنشاء لوحات معلومات وتقارير تفاعلية لتصور البيانات والحصول على رؤى.

البدائل

يوفر Fabric مجموعة قوية من الأدوات، ولكن اعتمادا على احتياجاتك المحددة، قد تستفيد من الوظائف المحسنة التي توفرها الخدمات البديلة في النظام البنائي ل Azure.

  • يمكن أن تحل Azure Databricks محل قدرات هندسة بيانات Fabric الأصلية أو تكملها. يوفر Azure Databricks بديلا لمعالجة البيانات على نطاق واسع من خلال توفير بيئة Apache Spark المستندة إلى السحابة. يوفر Azure Databricks أيضا حوكمة مشتركة عبر ملكية البيانات بالكامل وقدرات لتمكين حالات الاستخدام الرئيسية مثل علوم البيانات وهندسة البيانات والتعلم الآلي الذكاء الاصطناعي والتحليلات المستندة إلى SQL.

  • يمكن أن يحل Azure التعلم الآلي محل أدوات Fabric Data Science الأصلية أو يكملها. التعلم الآلي يتجاوز قدرات تجربة النموذج وإدارته في Fabric عن طريق إضافة قدرات لتمكينك من استضافة نماذج لحالات استخدام الاستدلال عبر الإنترنت، ومراقبة النماذج للانجراف، وإنشاء تطبيقات الذكاء الاصطناعي إنشاء مخصصة.

تفاصيل السيناريو

تنطبق هذه البنية على السيناريوهات التالية:

  • المؤسسات التي تبدأ من جديد دون قيود النظام القديمة.
  • المؤسسات التي تتوقع وحدات تخزين البيانات بين 0.5 تيرابايت و1.5 تيرابايت.
  • المؤسسات التي تفضل نمطا بسيطا ومبسطا يوازن بين اعتبارات التكلفة والتعقيد والأداء.
  • المؤسسات التي تحتاج إلى نظام أساسي بسيط وفعال من حيث التكلفة وعالي الأداء للبيانات يعالج متطلبات التقارير والتحليلات والتعلم الآلي.
  • المؤسسات التي تريد دمج البيانات من مصادر متعددة لعرض موحد.

لا يُنصح بهذا الحل من أجل:

  • الفرق ذات خلفية SQL أو قاعدة بيانات ارتباطية لديها مهارات محدودة في Apache Spark.
  • المؤسسات التي تقوم بالترحيل من نظام قديم أو مستودع بيانات إلى نظام أساسي حديث.

الاعتبارات

تنفذ هذه الاعتبارات ركائز Azure Well-Architected Framework، وهو عبارة عن مجموعة من المبادئ التوجيهية التي يمكن استخدامها لتحسين جودة حمل العمل. لمزيد من المعلومات، يرجى مراجعةMicrosoft Azure Well-Architected Framework.

الموثوقيه

تضمن الموثوقية أن التطبيق الخاص بك يمكنه الوفاء بالالتزامات التي قطعتها على عملائك. لمزيد من المعلومات، راجع قائمة اختيار مراجعة التصميم للموثوقية.

ينسخ Fabric الموارد تلقائيا عبر مناطق التوفر دون الحاجة إلى أي تكوين. على سبيل المثال، أثناء الانقطاع على مستوى المنطقة، لا يلزم اتخاذ أي إجراء لاسترداد منطقة. في المناطق المدعومة، يمكن للنسيج المعالجة الذاتية وإعادة التوازن تلقائيا للاستفادة من منطقة صحية.

الأمان

ويوفر عامل الأمان ضمانات للحماية من الهجمات المتعمدة واستغلال البيانات والأنظمة القيمة الخاصة بك. لمزيد من المعلومات، راجع قائمة اختيار مراجعة التصميم للأمان.

يمكنك استخدام Fabric لإدارة إعدادات الأمان والتحكم فيها وتدقيقها وفقا لاحتياجاتك ومتطلباتك المتغيرة. تتضمن توصيات الأمان الرئيسية لاستخدام Fabric ما يلي:

  • المصادقة. تكوين تسجيل الدخول الأحادي (SSO) في معرف Microsoft Entra لتوفير الوصول من مختلف الأجهزة والمواقع.

  • التحكم في الوصول استناداً إلى الدور (RBAC). تنفيذ التحكم في الوصول المستند إلى مساحة العمل لإدارة من يمكنه الوصول إلى مجموعات بيانات معينة والتفاعل معها.

  • أمان الشبكة. استخدم عناصر تحكم أمان الشبكة الواردة والصادرة من Fabric عند الاتصال بالبيانات أو الخدمات داخل شبكتك أو خارجها. تتضمن الميزات الرئيسية الوصول المشروط والارتباطات الخاصة والوصول إلى مساحة العمل الموثوق بها ونقاط النهاية الخاصة المدارة.

  • سجلات التدقيق. استخدم سجلات التدقيق التفصيلية التي يوفرها Fabric لتتبع أنشطة المستخدم وضمان المساءلة عبر النظام الأساسي.

لمزيد من المعلومات، راجع الأمان في Microsoft Fabric.

تحسين التكلفة

يتعلق تحسين التكلفة بخفض النفقات غير الضرورية وتحسين الكفاءة التشغيلية. لمزيد من المعلومات، راجع نظرة عامة على ركيزة تحسين التكلفة.

يوفر Fabric حجوزات السعة لعدد معين من وحدات السعة (CUs). يمكن أن تساعدك حجوزات السعة على توفير التكاليف عند الالتزام بحجز لاستخدام سعة Fabric لمدة عام واحد.

لتحقيق أقصى استفادة من سعة Fabric، ضع في اعتبارك التوصيات التالية:

  • Rightsize F SKUs. لتحديد حجم السعة الصحيح، يمكنك توفير القدرات التجريبية أو وحدات SKU للدفع أولا بأول لقياس حجم السعة الفعلية التي تحتاجها قبل شراء مثيل F SKU محجوز. نوصي بإجراء إثبات مفهوم محدد النطاق مع حمل عمل تمثيلي، ومراقبة استخدام وحدة العناية المركزة، ثم الاستقراء للوصول إلى تقدير لاستخدام CU للإنتاج. يوفر النسيج تحجيما سلسا. يمكنك البدء بحجم سعة محافظ وتوسيع نطاقه إذا كنت بحاجة إلى المزيد من السعة.
  • مراقبة أنماط الاستخدام. تعقب الاستخدام وتحليله بانتظام لتحديد ساعات الذروة وخارج أوقات الذروة. يمكن أن يساعدك القيام بذلك على فهم متى يتم استخدام مواردك بشكل أكبر بحيث يمكنك جدولة المهام غير الحرجة خلال أوقات خارج أوقات الذروة لتجنب الارتفاعات الحادة في استخدام CU.
  • تحسين الاستعلامات وأحمال العمل. تأكد من تحسين الاستعلامات وأحمال العمل لتقليل استخدام الحوسبة غير الضرورية. تحسين استعلامات DAX ورمز Python والعمليات الأخرى.
  • استخدام الاندفاع والتجانس. استخدم ميزات الاندفاع والتجانس الخاصة ب Fabric للتعامل مع الأنشطة كثيفة الاستخدام لوحدة المعالجة المركزية دون الحاجة إلى SKU أعلى. يمكن أن يساعدك القيام بذلك في إدارة التكاليف مع الحفاظ على الأداء. لمزيد من المعلومات، راجع تقييم وتحسين سعة Fabric.
  • إعداد التنبيهات والإعلامات. تكوين التنبيهات الاستباقية بحيث يمكن لمسؤولي السعة مراقبة وإدارة استخدام الحوسبة العالية. يمكن أن يؤدي القيام بذلك إلى تمكينهم من اتخاذ إجراءات في الوقت المناسب لمنع تجاوز التكلفة.
  • تنفيذ إدارة حمل العمل. جدولة مهام تشغيل السجل في أوقات متدرجة استنادا إلى توفر الموارد وطلب النظام لتحسين استخدام السعة. لمزيد من المعلومات، راجع إدارة حمل العمل.

ضع هذه الاعتبارات في الاعتبار أيضا:

  • تسعير Data Lake Storage على كمية البيانات التي تخزنها وعدد المرات التي تستخدم فيها البيانات. تتضمن عينة التسعير 1 تيرابايت من البيانات المخزنة وافتراضات المعاملات الأخرى. يشير 1 تيرابايت إلى حجم مستودع البيانات، وليس إلى حجم قاعدة البيانات القديمة الأصلية.
  • يعتمد تسعير النسيج على سعر سعة Fabric F SKU أو سعر Premium لكل مستخدم. تستهلك القدرات بلا خادم وحدة المعالجة المركزية والذاكرة من السعة المخصصة التي تم شراؤها.
  • فواتير مراكز الأحداث استنادا إلى المستوى ووحدات معدل النقل المقدمة وحركة مرور الدخول المستلمة. يفترض المثال وجود وحدة معدل نقل واحدة في المستوى القياسي أكثر من مليون حدث لمدة شهر.

التميز التشغيلي

يغطي التميز التشغيلي العمليات التي تنشر تطبيقا وتبقيه قيد التشغيل في الإنتاج. لمزيد من المعلومات، راجع قائمة اختيار مراجعة التصميم للتميز التشغيلي.

يوفر Fabric العديد من المكونات لمساعدتك في إدارة النظام الأساسي للبيانات. يدعم كل مكون من هذه المكونات العمليات الفريدة التي يمكنك عرضها في تطبيق مقاييس سعة Microsoft Fabric. استخدم تطبيق Fabric Capacity Metrics لمراقبة استهلاك السعة واتخاذ قرارات مستنيرة حول كيفية استخدام موارد السعة الخاصة بك.

كفاءة الأداء

كفاءة الأداء هي قدرة حمل العمل الخاص بك على التوسع لتلبية الطلبات التي يضعها المستخدمون عليه بطريقة فعالة. لمزيد من المعلومات، راجع قائمة اختيار مراجعة التصميم لكفاءة الأداء.

يوفر Fabric العديد من الميزات لتحسين الأداء عبر مكوناته. يمكن أن تساعدك هذه الأدوات والممارسات في إدارة موارد الحوسبة بفعالية، ومنع التحميل الزائد، واتخاذ قرارات مستنيرة حول توسيع أحمال العمل وتحسينها.

تتضمن بعض قدرات كفاءة الأداء الرئيسية في Fabric ما يلي:

  • الاندفاع والتجانس، لضمان إكمال الأنشطة كثيفة الاستخدام لوحدة المعالجة المركزية بسرعة دون الحاجة إلى SKU أعلى. جدولة هذه الأنشطة في أي وقت من اليوم.

  • التقييد، لتأخير العمليات أو رفضها عندما تواجه السعة طلبا مستداما على وحدة المعالجة المركزية يتجاوز حد SKU.

  • تطبيق Fabric Capacity Metrics، لتصور استخدام السعة، وتحسين أداء البيانات الاصطناعية، وتحسين العناصر عالية الحوسبة. يميز التطبيق بين العمليات التفاعلية (مثل استعلامات DAX) وعمليات الخلفية (مثل تحديث النموذج الدلالي) للتحسينات المستهدفة.

المساهمون

تحتفظ Microsoft بهذه المقالة. وهي مكتوبة في الأصل من قبل المساهمين التاليين.

الكتاب الرئيسيون:

لمشاهدة ملفات تعريف LinkedIn غير العامة، سجل الدخول إلى LinkedIn.

الخطوات التالية