قيود الحوسبة بلا خادم
توضح هذه المقالة القيود الحالية للحساب بلا خادم لدفاتر الملاحظات والمهام. يبدأ بنظرة عامة على أهم الاعتبارات ثم يوفر قائمة مرجعية شاملة بالقيود.
نظرة عامة على القيود
قبل إنشاء أحمال عمل جديدة أو ترحيل أحمال العمل إلى حساب بلا خادم، ضع في اعتبارك أولا القيود التالية:
- Python وSQL هي اللغات الوحيدة المدعومة.
- يتم دعم واجهات برمجة تطبيقات اتصال Spark فقط. واجهات برمجة تطبيقات Spark RDD غير مدعومة.
- مكتبات JAR غير معتمدة. للحصول على حلول بديلة، راجع أفضل الممارسات للحوسبة بلا خادم.
- تحتوي الحوسبة بلا خادم على وصول غير مقيد لجميع مستخدمي مساحة العمل.
- علامات دفتر الملاحظات غير معتمدة.
- للبث، يمكن استخدام منطق الدفعة التزايدي فقط. لا يوجد دعم للفواصل الزمنية الافتراضية أو الزمنية للمشغل. راجع قيود الدفق.
القائمة المرجعية للقيود
تسرد الأقسام التالية القيود الحالية للحساب بلا خادم.
تستند الحوسبة بلا خادم إلى بنية الحوسبة المشتركة. يتم سرد القيود الأكثر صلة الموروثة من الحوسبة المشتركة أدناه، جنبا إلى جنب مع قيود إضافية خاصة بلا خادم. للحصول على قائمة كاملة بقيود الحوسبة المشتركة، راجع قيود وضع الوصول إلى الحساب لكتالوج Unity.
قيود عامة
Scala وR غير مدعومين.
ANSI SQL هو الافتراضي عند كتابة SQL. إلغاء الاشتراك في وضع ANSI عن طريق تعيين
spark.sql.ansi.enabled
إلىfalse
.واجهات برمجة تطبيقات Spark RDD غير مدعومة.
سياق Spark (sc)
spark.sparkContext
و وsqlContext
غير مدعومين.خدمات حاوية Databricks غير مدعومة.
لا يمكن تشغيل أي استعلام لأكثر من 48 ساعة.
يجب استخدام كتالوج Unity للاتصال بمصادر البيانات الخارجية. استخدم المواقع الخارجية للوصول إلى التخزين السحابي.
يقتصر دعم مصادر البيانات على AVRO و BINARYFILE و CSV و DELTA و JSON و KAFKA و ORC و PARQUET و ORC و TEXT و XML.
لا يمكن للوظائف المعرفة من قبل المستخدم (UDFs) الوصول إلى الإنترنت. لهذا السبب، الأمر CREATE FUNCTION (خارجي) غير مدعوم. توصي Databricks باستخدام CREATE FUNCTION (SQL وPython) لإنشاء UDFs.
يجب ألا تتجاوز الصفوف الفردية الحد الأقصى للحجم وهو 128 ميغابايت.
واجهة مستخدم Spark غير متوفرة. بدلا من ذلك، استخدم ملف تعريف الاستعلام لعرض معلومات حول استعلامات Spark. راجع ملف تعريف الاستعلام.
يسمح بالوصول عبر مساحة العمل فقط إذا كانت مساحات العمل في نفس المنطقة ولم يتم تكوين IP ACL أو PrivateLink للواجهة الأمامية لمساحة العمل الوجهة.
طرق العرض المؤقتة العمومية غير مدعومة. توصي Databricks باستخدام طرق العرض المؤقتة للجلسة أو إنشاء جداول حيث يلزم تمرير البيانات عبر الجلسات.
قيود الدفق
- لا يوجد دعم للفواصل الزمنية الافتراضية أو الزمنية للمشغل. يتم دعم
Trigger.AvailableNow
فقط. راجع تكوين فواصل مشغل Structured Streaming. - تنطبق أيضا جميع القيود المفروضة على البث على وضع الوصول المشترك. راجع قيود الدفق ومتطلبات وضع الوصول المشترك لكتالوج Unity.
قيود التعلم الآلي
- وقت تشغيل Databricks التعلم الآلي وApache Spark MLlib غير مدعومين.
- وحدات معالجة الرسومات غير مدعومة.
قيود دفاتر الملاحظات
- يمكن لدفاتر الملاحظات الوصول إلى ذاكرة 8 غيغابايت لا يمكن تكوينها.
- لا يتم تخزين المكتبات ذات نطاق دفتر الملاحظات مؤقتا عبر جلسات التطوير.
- مشاركة جداول TEMP وطرق العرض عند مشاركة دفتر ملاحظات بين المستخدمين غير معتمدة.
- لا يتم دعم الإكمال التلقائي ومستكشف المتغيرات لإطارات البيانات في دفاتر الملاحظات.
قيود سير العمل
- حجم برنامج التشغيل للحوسبة بلا خادم للوظائف ثابت حاليا ولا يمكن تغييره.
- لا يتم عزل سجلات المهام لكل تشغيل مهمة. ستحتوي السجلات على الإخراج من مهام متعددة.
- مكتبات المهام غير معتمدة لمهام دفتر الملاحظات. استخدم المكتبات ذات نطاق دفتر الملاحظات بدلا من ذلك. راجع مكتبات Python ذات نطاق دفتر الملاحظات.
القيود الخاصة بالحوسبة
الميزات التالية الخاصة بالحوسبة غير مدعومة:
- نهج الحوسبة
- البرامج النصية ل init ذات النطاق الحسابي
- مكتبات ذات نطاق حساب، بما في ذلك مصادر البيانات المخصصة وملحقات Spark. استخدم المكتبات ذات نطاق دفتر الملاحظات بدلا من ذلك.
- تكوينات الوصول إلى البيانات على مستوى الحساب، بما في ذلك ملفات تعريف المثيل. ونتيجة لذلك، لن يعمل الوصول إلى الجداول والملفات عبر HMS على مسارات السحابة، أو مع تحميلات DBFS التي لا تحتوي على بيانات اعتماد مضمنة.
- تجمعات المثيل
- حساب سجلات الأحداث
- معظم تكوينات حساب Apache Spark. للحصول على قائمة بالتكوينات المدعومة، راجع معلمات تكوين Spark المدعومة.
- متغيرات البيئة. بدلا من ذلك، توصي Databricks باستخدام عناصر واجهة المستخدم لإنشاء معلمات المهمة والمهمة.
قيود التخزين المؤقت
لا يتم دعم واجهات برمجة التطبيقات لذاكرة التخزين المؤقت ل Dataframe وSQL على الحوسبة بلا خادم. سيؤدي استخدام أي من واجهات برمجة التطبيقات أو أوامر SQL هذه إلى استثناء.
- df.cache(), df.persist()
- df.unpersist()
- spark.catalog.cacheTable()
- spark.catalog.uncacheTable()
- spark.catalog.clearCache()
- جدول ذاكرة التخزين المؤقت
- جدول UNCACHE
- تحديث الجدول
- مسح ذاكرة التخزين المؤقت
قيود الخلية
جداول Hive SerDe غير معتمدة. بالإضافة إلى ذلك، الأمر LOAD DATA المطابق الذي يقوم بتحميل البيانات في جدول Hive SerDe غير مدعوم. سيؤدي استخدام الأمر إلى استثناء.
يقتصر دعم مصادر البيانات على AVRO و BINARYFILE و CSV و DELTA و JSON و KAFKA و ORC و PARQUET و ORC و TEXT و XML.
متغيرات الخلية (على سبيل المثال
${env:var}
،${system:var}
${configName}
و، وspark.sql.variable
) أو مراجع متغير التكوين باستخدام بناء الجملة${var}
غير مدعومة. سيؤدي استخدام متغيرات Hive إلى استثناء.بدلا من ذلك، استخدم DECLARE VARIABLE و SET VARIABLE ومراجع متغيرات جلسة عمل SQL وعلامات المعلمات ('?'، أو ':var') للإعلان عن حالة جلسة العمل وتعديلها ومراجعها. يمكنك أيضا استخدام عبارة IDENTIFIER لوضع معلمات لأسماء الكائنات في العديد من الحالات.