يمكن أن تساعدك التحليلات في الوقت الحقيقي على اتخاذ قرارات سريعة وتنفيذ إجراءات تلقائية استنادا إلى الرؤى الحالية. كما يمكن أن يساعدك في تقديم تجارب محسنة للعملاء. يصف هذا الحل كيفية الاحتفاظ بتجمعات بيانات Azure Synapse Analytics متزامنة مع تغييرات البيانات التشغيلية في MongoDB.
بناء الأنظمة
يوضح الرسم التخطيطي التالي كيفية تنفيذ المزامنة في الوقت الحقيقي من Atlas إلى Azure Synapse Analytics. يضمن هذا التدفق البسيط نسخ أي تغييرات تحدث في مجموعة MongoDB Atlas إلى مستودع Azure Data Lake Storage الافتراضي في مساحة عمل Azure Synapse Analytics. بعد أن تكون البيانات في Data Lake Storage، يمكنك استخدام مسارات Azure Synapse Analytics لدفع البيانات إلى تجمعات SQL المخصصة أو تجمعات Spark أو حلول أخرى، اعتمادا على متطلبات التحليلات الخاصة بك.
قم بتنزيل ملف PowerPoint لهذا التصميم.
تدفق البيانات
يتم التقاط التغييرات في الوقت الحقيقي في مخزن البيانات التشغيلية MongoDB Atlas (ODS) وإتاحتها ل Data Lake Storage في مساحة عمل Azure Synapse Analytics لحالات استخدام التحليلات في الوقت الفعلي والتقارير المباشرة ولوحات المعلومات.
يتم التقاط تغييرات البيانات في مخزن البيانات التشغيلية/العمليات في MongoDB Atlas بواسطة مشغلات Atlas.
عندما يلاحظ مشغل قاعدة بيانات Atlas حدثا، فإنه يمرر نوع التغيير والمستند الذي تم تغييره (كامل أو دلتا) إلى دالة Atlas.
تقوم دالة Atlas بتشغيل دالة Azure، وتمرير حدث التغيير ومستند JSON.
تستخدم Azure Functions مكتبة عميل Azure Storage Files Data Lake لكتابة المستند الذي تم تغييره إلى Data Lake Storage المكون في مساحة عمل Azure Synapse Analytics.
بعد أن تكون البيانات في Data Lake Storage، يمكن إرسالها إلى تجمعات SQL المخصصة وتجمعات Spark والحلول الأخرى. بدلا من ذلك، يمكنك تحويل البيانات من JSON إلى تنسيقات Parquet أو Delta باستخدام تدفقات بيانات Azure Synapse Analytics أو نسخ المسارات لتشغيل تقارير BI إضافية أو الذكاء الاصطناعي / التعلم الآلي على البيانات الحالية.
المكونات
- تمكنك تدفقات تغيير MongoDB Atlas من إعلام التطبيقات بالتغييرات التي تم إجراؤها على مجموعة أو قاعدة بيانات أو مجموعة توزيع. تمنح تدفقات التغيير التطبيقات حق الوصول إلى تغييرات البيانات في الوقت الحقيقي وتمكنها من التفاعل على الفور مع التغييرات. هذه الوظيفة مهمة في حالات الاستخدام مثل تتبع أحداث IoT وتغييرات البيانات المالية، حيث يجب رفع التنبيهات واتخاذ إجراءات استجابة على الفور. تستخدم مشغلات Atlas تدفقات التغيير لمراقبة مجموعات التغييرات واستدعاء دالة Atlas المقترنة تلقائيا استجابة لحدث المشغل.
- تستجيب مشغلات Atlas لإدراجات المستندات وتحديثاتها وحذفها في مجموعة معينة ويمكنها استدعاء دالة Atlas تلقائيا استجابة لحدث التغيير.
- وظائف Atlas هي تطبيقات التعليمات البرمجية JavaScript بلا خادم من جانب الخادم والتي يمكنها تنفيذ الإجراءات استنادا إلى الأحداث التي تستدعي مشغل Atlas. الجمع بين مشغلات Atlas ووظائف Atlas يبسط تنفيذ البنيات المستندة إلى الحدث.
- Azure Functions هو نظام أساسي للحوسبة بدون خادم يستند إلى الحدث يمكنك استخدامه لتطوير التطبيقات بكفاءة باستخدام لغة البرمجة التي تختارها. يمكنك أيضا استخدامه للاتصال بسلاسة مع خدمات Azure الأخرى. في هذا السيناريو، تلتقط دالة Azure حدث تغيير وتستخدمه لكتابة كائن ثنائي كبير الحجم يحتوي على البيانات التي تم تغييرها في Data Lake Storage باستخدام مكتبة عميل Azure Storage Files Data Lake.
- Data Lake Storage هو حل التخزين الافتراضي في Azure Synapse Analytics. يمكنك استخدام تجمعات بلا خادم للاستعلام عن البيانات مباشرة.
- يمكن استخدام البنية الأساسية لبرنامج ربط العمليات التجارية وتدفقات البيانات في Azure Synapse Analytics لدفع الكائن الثنائي كبير الحجم الذي يحتوي على بيانات MongoDB التي تم تغييرها إلى تجمعات SQL المخصصة أو تجمعات Spark لمزيد من التحليل. تمكنك البنية الأساسية لبرنامج ربط العمليات التجارية من العمل على مجموعات البيانات المتغيرة في Data Lake Storage باستخدام كل من مشغلات أحداث التخزين والمشغلات المجدولة لإنشاء حلول لحالات الاستخدام في الوقت الحقيقي والقرب من الوقت الحقيقي. يعمل هذا التكامل على تسريع استهلاك انتقال البيانات من الخادم لمجموعات بيانات التغيير.
البدائل
يستخدم هذا الحل مشغلات Atlas لتضمين التعليمات البرمجية للاستماع إلى تدفقات تغيير Atlas وتشغيل وظائف Azure استجابة لحدث التغيير. لذلك من الأسهل بكثير التنفيذ من الحل البديل الذي تم توفيره مسبقا. لهذا الحل، تحتاج إلى كتابة التعليمات البرمجية للاستماع إلى تغيير التدفقات في تطبيق ويب Azure App Service .
بديل آخر هو استخدام موصل MongoDB Spark لقراءة بيانات دفق MongoDB وكتابتها في جداول Delta. يتم تشغيل التعليمات البرمجية بشكل مستمر في دفتر ملاحظات Spark الذي يعد جزءا من البنية الأساسية لبرنامج ربط العمليات التجارية في Azure Synapse Analytics. لمزيد من المعلومات حول تنفيذ هذا الحل، راجع المزامنة من Atlas إلى Azure Synapse Analytics باستخدام دفق Spark.
ومع ذلك، يوفر استخدام مشغلات Atlas مع Azure Functions حلا بلا خادم تماما. نظرا لأنه بلا خادم، يوفر الحل قابلية توسع قوية وتحسين التكلفة. يعتمد التسعير على نموذج تكلفة الدفع أولا بأول. يمكنك توفير المزيد من المال باستخدام دالة Atlas لدمج بعض أحداث التغيير قبل استدعاء نقطة نهاية Azure Functions. يمكن أن تكون هذه الاستراتيجية مفيدة في سيناريوهات حركة المرور الكثيفة.
كما يعمل Microsoft Fabric على توحيد ملكية بياناتك وتسهيل تشغيل التحليلات الذكاء الاصطناعي على البيانات، بحيث تحصل على الرؤى بسرعة. يمكن الآن لهندسة بيانات Azure Synapse Analytics وعلوم البيانات وتخزين البيانات والتحليلات في الوقت الحقيقي في Fabric الاستفادة بشكل أفضل من بيانات MongoDB التي يتم دفعها إلى OneLake. يمكنك استخدام كل من Dataflow Gen2 وموصلات مسارات البيانات ل Atlas لتحميل بيانات Atlas مباشرة إلى OneLake. توفر آلية عدم التعليمات البرمجية هذه طريقة قوية لاستيعاب البيانات من Atlas إلى OneLake.
في Fabric، يمكنك الرجوع مباشرة إلى البيانات التي يتم دفعها إلى Data Lake Storage باستخدام اختصارات OneLake، دون أي استخراج أو تحويل أو تحميل (ETL).
يمكنك دفع البيانات إلى Power BI لإنشاء تقارير وتصورات لتقارير BI.
تفاصيل السيناريو
يخزن MongoDB Atlas، طبقة البيانات التشغيلية للعديد من تطبيقات المؤسسة، البيانات من التطبيقات الداخلية والخدمات التي تواجه العملاء وواجهات برمجة التطبيقات التابعة لجهات خارجية من قنوات متعددة. يمكنك استخدام مسارات البيانات في Azure Synapse Analytics لدمج هذه البيانات مع البيانات الارتباطية من التطبيقات التقليدية الأخرى ومع البيانات غير المنظمة من مصادر مثل السجلات ومخازن الكائنات وتدفقات النقر.
تستخدم المؤسسات قدرات MongoDB مثل التجميعات والعقد التحليلية والبحث في Atlas والبحث المتجه و Atlas Data Lake وواجهة Atlas SQL واتحاد البيانات والمخططات لتمكين الذكاء المستند إلى التطبيق. ومع ذلك، يتم استخراج بيانات المعاملات في MongoDB وتحويلها وتحميلها إلى تجمعات SQL المخصصة ل Azure Synapse Analytics أو تجمعات Spark للتعلم الدفعي الذكاء الاصطناعي / الآلي وتحليلات BI لمستودع البيانات والتحليل الذكي.
هناك سيناريوهان لحركة البيانات بين Atlas وAzure Synapse Analytics: تكامل الدفعات والمزامنة في الوقت الفعلي.
تكامل الدفعة
يمكنك استخدام تكامل الدفعات والدفعات الصغيرة لنقل البيانات من Atlas إلى Data Lake Storage في Azure Synapse Analytics. يمكنك إحضار البيانات التاريخية بأكملها في وقت واحد أو إحضار بيانات تزايدية استنادا إلى معايير التصفية.
يمكن دمج مثيلات MongoDB المحلية وMongoDB Atlas كمصدر أو مورد متلقي في Azure Synapse Analytics. للحصول على معلومات حول الموصلات، راجع نسخ البيانات من أو إلى MongoDB أو نسخ البيانات من أو إلى MongoDB Atlas.
يجعل موصل المصدر من السهل تشغيل Azure Synapse Analytics على البيانات التشغيلية المخزنة في MongoDB المحلي أو في Atlas. يمكنك إحضار البيانات من Atlas باستخدام موصل المصدر وتحميل البيانات إلى Data Lake Storage في Parquet وAvro وJSON وتنسيقات النص أو كمخزن كائن ثنائي كبير الحجم CSV. يمكن بعد ذلك تحويل هذه الملفات أو ضمها مع ملفات أخرى من مصادر بيانات أخرى في سيناريوهات السحابة متعددة قواعد البيانات أو السحابة المتعددة أو المختلطة. حالة الاستخدام هذه شائعة في مستودع بيانات المؤسسة (EDW) والسيناريوهات التحليلية على نطاق واسع. يمكنك أيضا استخدام موصل المتلقي لتخزين نتائج التحليلات مرة أخرى في Atlas. لمزيد من المعلومات حول تكامل الدفعات، راجع تحليل البيانات التشغيلية على MongoDB Atlas باستخدام Azure Synapse Analytics.
المزامنة في الوقت الحقيقي
يمكن أن تساعدك البنية الموضحة في هذه المقالة في تنفيذ المزامنة في الوقت الحقيقي للحفاظ على تخزين Azure Synapse Analytics الحالي مع البيانات التشغيلية MongoDB.
يتكون هذا الحل من دالتين أساسيتين:
- التقاط التغييرات في Atlas
- تشغيل وظيفة Azure لنشر التغييرات إلى Azure Synapse Analytics
التقاط التغييرات في Atlas
يمكنك التقاط التغييرات باستخدام مشغل Atlas، والذي يمكنك تكوينه في واجهة مستخدم Add Trigger أو باستخدام Atlas App Services Admin API. تستمع المشغلات إلى تغييرات قاعدة البيانات الناتجة عن أحداث قاعدة البيانات مثل عمليات الإدراج والتحديثات والحذف. تؤدي مشغلات Atlas أيضا إلى تشغيل دالة Atlas عند اكتشاف حدث تغيير. يمكنك استخدام واجهة مستخدم إضافة مشغل لإضافة الدالة. يمكنك أيضا إنشاء دالة Atlas وإقرانها كنقطة نهاية استدعاء المشغل باستخدام واجهة برمجة تطبيقات مسؤول Atlas.
تظهر لقطة الشاشة التالية النموذج الذي يمكنك استخدامه لإنشاء مشغل Atlas وتحريره. في قسم تفاصيل مصدر المشغل، يمكنك تحديد المجموعة التي يراقبها المشغل لأحداث التغيير وأحداث قاعدة البيانات التي يراقبها (إدراج وتحديث وحذف و/أو استبدال).
يمكن للمشغل استدعاء دالة Atlas استجابة للحدث الذي تم تمكينه له. تظهر لقطة الشاشة التالية تعليمة JavaScript البرمجية البسيطة، المضافة كدالة Atlas، لاستدعاء استجابة لمشغل قاعدة البيانات. تستدعي دالة Atlas دالة Azure، وتمررها بيانات التعريف لحدث التغيير مع المستند الذي تم إدراجه أو تحديثه أو حذفه أو استبداله، اعتمادا على ما تم تمكين المشغل له.
التعليمة البرمجية لدالة Atlas
تقوم التعليمة البرمجية لدالة Atlas بتشغيل دالة Azure المقترنة بنقطة نهاية دالة Azure عن طريق تمرير كامل changeEvent
في نص الطلب إلى دالة Azure.
تحتاج إلى استبدال <Azure function URL endpoint>
العنصر النائب بنقطة نهاية عنوان URL الفعلي لدالة Azure.
exports = function(changeEvent) {
// Invoke Azure function that inserts the change stream into Data Lake Storage.
console.log(typeof fullDocument);
const response = context.http.post({
url: "<Azure function URL endpoint>",
body: changeEvent,
encodeBodyAsJSON: true
});
return response;
};
تشغيل وظيفة Azure لنشر التغييرات إلى Azure Synapse Analytics
يتم ترميز دالة Atlas لاستدعاء دالة Azure التي تكتب مستند التغيير إلى Data Lake Storage في Azure Synapse Analytics. تستخدم وظيفة Azure مكتبة عميل Azure Data Lake Storage ل Python SDK لإنشاء مثيل للفئة DataLakeServiceClient
التي تمثل حساب التخزين الخاص بك.
تستخدم وظيفة Azure مفتاح تخزين للمصادقة. يمكنك أيضا استخدام تطبيقات Microsoft Entra ID OAuth. storage_account_key
يتم جلب السمات الأخرى المتعلقة ب Dake Lake Storage من متغيرات بيئة نظام التشغيل المكونة. بعد فك ترميز نص الطلب، fullDocument
يتم تحليل (المستند المدرج أو المحدث بالكامل) من نص الطلب ثم كتابته إلى Data Lake Storage بواسطة وظائف append_data
عميل Data Lake و flush_data
.
بالنسبة لعملية الحذف، fullDocumentBeforeChange
يتم استخدام بدلا من fullDocument
. fullDocument
لا تحتوي على أي قيمة في عملية الحذف، لذلك تجلب التعليمات البرمجية المستند الذي تم حذفه، والذي تم التقاطه في fullDocumentBeforeChange
. لاحظ أنه fullDocumentBeforeChange
يتم ملؤه فقط عند تعيين إعداد Document Preimage إلى تشغيل، كما هو موضح في لقطة الشاشة السابقة.
import json
import logging
import os
import azure.functions as func
from azure.storage.filedatalake import DataLakeServiceClient
def main(req: func.HttpRequest) -> func.HttpResponse:
logging.info('Python HTTP trigger function processed a new request.')
logging.info(req)
storage_account_name = os.environ["storage_account_name"]
storage_account_key = os.environ["storage_account_key"]
storage_container = os.environ["storage_container"]
storage_directory = os.environ["storage_directory"]
storage_file_name = os.environ["storage_file_name"]
service_client = DataLakeServiceClient(account_url="{}://{}.dfs.core.windows.net".format(
"https", storage_account_name), credential=storage_account_key)
json_data = req.get_body()
logging.info(json_data)
object_id = "test"
try:
json_string = json_data.decode("utf-8")
json_object = json.loads(json_string)
if json_object["operationType"] == "delete":
object_id = json_object["fullDocumentBeforeChange"]["_id"]["$oid"]
data = {"operationType": json_object["operationType"], "data":json_object["fullDocumentBeforeChange"]}
else:
object_id = json_object["fullDocument"]["_id"]["$oid"]
data = {"operationType": json_object["operationType"], "data":json_object["fullDocument"]}
logging.info(object_id)
encoded_data = json.dumps(data)
except Exception as e:
logging.info("Exception occurred : "+ str(e))
file_system_client = service_client.get_file_system_client(file_system=storage_container)
directory_client = file_system_client.get_directory_client(storage_directory)
file_client = directory_client.create_file(storage_file_name + "-" + str(object_id) + ".txt")
file_client.append_data(data=encoded_data, offset=0, length=len(encoded_data))
file_client.flush_data(len(encoded_data))
return func.HttpResponse(f"This HTTP triggered function executed successfully.")
حتى الآن، رأيت كيف يلتقط مشغل Atlas أي تغيير يحدث ويمرره إلى دالة Azure عبر دالة Atlas، وأن وظيفة Azure تكتب مستند التغيير كملف جديد في Data Lake Storage في مساحة عمل Azure Synapse Analytics.
بعد إضافة الملف إلى Data Lake Storage، يمكنك إعداد مشغل حدث تخزين لتشغيل مسار يمكنه بعد ذلك كتابة مستند التغيير إلى تجمع SQL مخصص أو إلى جدول تجمع Spark. يمكن للبنية الأساسية لبرنامج ربط العمليات التجارية استخدام نشاط النسخ وتحويل البيانات باستخدام تدفق البيانات. بدلا من ذلك، إذا كان هدفك النهائي هو تجمع SQL مخصص، يمكنك تعديل وظيفة Azure للكتابة مباشرة إلى تجمع SQL المخصص في Azure Synapse Analytics. بالنسبة إلى تجمع SQL، احصل على سلسلة الاتصال ODBC لاتصال تجمع SQL. راجع استخدام Python للاستعلام عن قاعدة بيانات للحصول على مثال على تعليمة Python البرمجية التي يمكنك استخدامها للاستعلام عن جدول تجمع SQL باستخدام سلسلة الاتصال. يمكنك تعديل هذه التعليمات البرمجية لاستخدام استعلام Insert للكتابة إلى تجمع SQL مخصص. هناك إعدادات التكوين والأدوار التي تحتاج إلى تعيين لتمكين الوظيفة للكتابة إلى تجمع SQL مخصص. المعلومات حول هذه الإعدادات والأدوار خارج نطاق هذه المقالة.
إذا كنت تريد حلا في الوقت الفعلي تقريبا ولا تحتاج إلى مزامنة البيانات في الوقت الفعلي، فقد يكون استخدام عمليات تشغيل البنية الأساسية لبرنامج ربط العمليات التجارية المجدولة خيارا جيدا. يمكنك إعداد المشغلات المجدولة لتشغيل مسار باستخدام نشاط النسخ أو تدفق البيانات، على تردد قريب من الوقت الحقيقي الذي يمكن لعملك تحمله، لاستخدام موصل MongoDB لجلب البيانات من MongoDB التي تم إدراجها أو تحديثها أو حذفها بين آخر تشغيل مجدول والتشغيل الحالي. يستخدم المسار موصل MongoDB كموصل مصدر لجلب بيانات دلتا من MongoDB Atlas ودفعها إلى Data Lake Storage أو تجمعات SQL المخصصة ل Azure Synapse Analytics، باستخدام هذه كاتصالات المتلقي. يستخدم هذا الحل آلية سحب (بدلا من الحل الرئيسي الموضح في هذه المقالة، وهو آلية دفع) من MongoDB Atlas عند حدوث تغييرات في مجموعة MongoDB Atlas التي يستمع إليها مشغل Atlas.
حالات الاستخدام المحتملة
يمكن أن يخدم MongoDB وAzure Synapse Analytics EDW والخدمات التحليلية العديد من حالات الاستخدام:
Retail
- بناء المعلومات الاستخباراتية في تجميع المنتجات والترويج للمنتج
- تنفيذ العميل 360 والتخصيص الفائق
- التنبؤ باستنفاد المخزون وتحسين أوامر سلسلة التوريد
- تنفيذ تسعير الخصم الديناميكي والبحث الذكي في التجارة الإلكترونية
الخدمات المصرفية والمالية
- تخصيص الخدمات المالية للعملاء
- الكشف عن المعاملات الاحتيالية وحظرها
Telecommunications
- تحسين شبكات الجيل التالي
- تعظيم قيمة شبكات الحافة
السيارات
- تحسين تحديد معلمات المركبات المتصلة
- الكشف عن الحالات الشاذة في اتصال IoT في المركبات المتصلة
التصنيع
- توفير الصيانة التنبؤية للآلات
- تحسين إدارة التخزين والمخزون
الاعتبارات
تطبق هذه الاعتبارات ركائز إطار العمل جيد التصميم في Azure، وهي مجموعة من المبادئ التوجيهية التي يمكنك استخدامها لتحسين جودة حمل العمل. لمزيد من المعلومات، يرجى مراجعةMicrosoft Azure Well-Architected Framework.
الأمان
ويوفر عامل الأمان ضمانات للحماية من الهجمات المتعمدة واستغلال البيانات والأنظمة القيمة الخاصة بك. للمزيد من المعلومات، يرجى الرجوع إلى نظرة عامة على ركيزة الأمان.
Azure Functions هي خدمة مدارة بلا خادم، لذلك تتم حماية موارد التطبيق ومكونات النظام الأساسي من خلال أمان محسن. ومع ذلك، نوصي باستخدام بروتوكول HTTPS وأحدث إصدارات TLS. من الممارسات الجيدة أيضا التحقق من صحة الإدخال للتأكد من أنه مستند تغيير MongoDB. راجع تأمين Azure Functions لاعتبارات الأمان ل Azure Functions.
MongoDB Atlas هي قاعدة بيانات مدارة كخدمة، لذلك يوفر MongoDB أمانا محسنا للنظام الأساسي. يوفر MongoDB آليات متعددة للمساعدة في ضمان أمان 360 درجة للبيانات المخزنة، بما في ذلك الوصول إلى قاعدة البيانات وأمان الشبكة والتشفير في حالة الراحة والنقل وسيادة البيانات. راجع MongoDB Atlas Security للدليل التقني لأمان MongoDB Atlas والمقالات الأخرى التي يمكن أن تساعدك على التأكد من أن البيانات في MongoDB آمنة طوال دورة حياة البيانات.
تحسين التكلفة
يتعلق تحسين التكلفة بخفض النفقات غير الضرورية وتحسين الكفاءة التشغيلية. لمزيد من المعلومات، راجع نظرة عامة على ركيزة تحسين التكلفة.
لتقدير تكلفة منتجات وتكوينات Azure، استخدم حاسبة أسعار Azure. يساعدك Azure على تجنب التكاليف غير الضرورية من خلال تحديد العدد الصحيح للموارد التي يجب استخدامها، وتحليل الإنفاق بمرور الوقت، والتحجيم لتلبية احتياجات الأعمال دون الإفراط في الإنفاق. لا تتحمل Azure Functions التكاليف إلا عند استدعاؤها. ومع ذلك، اعتمادا على حجم التغييرات في MongoDB Atlas، يمكنك تقييم باستخدام آلية تجميع في دالة Atlas لتخزين التغييرات في مجموعة مؤقتة أخرى وتشغيل دالة Azure فقط إذا تجاوزت الدفعة حدا معينا.
للحصول على معلومات حول مجموعات Atlas، راجع 5 طرق لتقليل التكاليف باستخدام MongoDB Atlas وتكاليف تكوين نظام المجموعة. يمكن أن تساعدك صفحة تسعير MongoDB على فهم خيارات التسعير لمجموعات MongoDB Atlas والعروض الأخرى لمنصة بيانات مطور MongoDB Atlas. يمكن نشر Atlas Data Federation في Azure ويدعم Azure Blob Storage (في المعاينة). إذا كنت تفكر في استخدام الدفعات لتحسين التكاليف، ففكر في الكتابة إلى Blob Storage بدلا من مجموعة MongoDB المؤقتة.
كفاءة الأداء
كفاءة الأداء هي قدرة حمل عملك على تغيير الحجم لتلبية المطالب التي يضعها المستخدمون عليها بطريقة فعالة. لمزيد من المعلومات، يرجى مراجعةأنماط كفاءة الأداء.
يتم اختبار مشغلات Atlas وAzure Functions زمنيا للأداء وقابلية التوسع. راجع الأداء والمقياس في Durable Functions (Azure Functions) لفهم اعتبارات الأداء وقابلية التوسع لوظائف Azure. راجع تغيير الحجم عند الطلب للحصول على بعض الاعتبارات لتحسين أداء مثيلات MongoDB Atlas. راجع دليل أفضل الممارسات لأداء MongoDB للحصول على أفضل الممارسات لتكوين MongoDB Atlas.
الخاتمة
يتكامل MongoDB Atlas بسلاسة مع Azure Synapse Analytics، ما يمكن عملاء Atlas من استخدام Atlas بسهولة كمصدر أو متلقي ل Azure Synapse Analytics. يمكنك هذا الحل من استخدام البيانات التشغيلية MongoDB في الوقت الفعلي من Azure Synapse Analytics للتحليلات المعقدة والاستدلال الذكاء الاصطناعي.
نشر هذا السيناريو
المزامنة في الوقت الحقيقي من MongoDB Atlas إلى Azure Synapse Analytics
المساهمون
تحتفظ Microsoft بهذه المقالة. وهي مكتوبة في الأصل من قبل المساهمين التاليين.
الكتاب الرئيسيون:
- ديانا آني جينوش | مهندس حلول أول - فريق شركاء MongoDB
- Venkatesh Shanbag| مهندس حلول أول - فريق شركاء MongoDB
مساهمون آخرون:
- سونيل سابات | مدير البرنامج الرئيسي - فريق ADF
- Wee Hyong Tok | المدير الرئيسي ل PM - فريق ADF
لمشاهدة ملفات تعريف LinkedIn غير العامة، سجل الدخول إلى LinkedIn.