استخدام Eclipse مع PyDev وDatabricks Connect ل Python

إشعار

تتناول هذه المقالة Databricks Connect ل Databricks Runtime 13.3 LTS وما فوق.

تتناول هذه المقالة كيفية استخدام Databricks Connect ل Scala وEclipse مع PyDev. يمكنك Databricks Connect من توصيل IDEs الشائعة وخوادم دفاتر الملاحظات والتطبيقات المخصصة الأخرى إلى مجموعات Azure Databricks. راجع ما هو Databricks Connect؟.

إشعار

قبل البدء في استخدام Databricks Connect، يجب عليك إعداد عميل Databricks Connect.

لاستخدام Databricks Connect وEclipse مع PyDev، اتبع هذه الإرشادات.

  1. تشغيل Eclipse.
  2. إنشاء مشروع: انقر فوق ملف مشروع جديد PyDev > PyDev Project، ثم انقر فوق التالي.> > >
  3. حدد اسم المشروع.
  4. بالنسبة لمحتويات Project، حدد المسار إلى بيئة Python الظاهرية.
  5. انقر فوق Please configure an interpreter before proceding.
  6. انقر فوق التكوين اليدوي.
  7. انقر فوق استعراض جديد > ل python/pypy exe.
  8. استعرض وصولا إلى وحدد المسار الكامل إلى مترجم Python المشار إليه من البيئة الظاهرية، ثم انقر فوق فتح.
  9. في مربع الحوار تحديد مترجم ، انقر فوق موافق.
  10. في مربع الحوار التحديد المطلوب ، انقر فوق موافق.
  11. في مربع الحوار تفضيلات ، انقر فوق تطبيق وإغلاق.
  12. في مربع الحوار مشروع PyDev، انقر فوق إنهاء.
  13. انقر فوق فتح منظور.
  14. أضف إلى المشروع ملف تعليمة Python البرمجية (.py) الذي يحتوي على التعليمات البرمجية المثال أو التعليمات البرمجية الخاصة بك. إذا كنت تستخدم التعليمات البرمجية الخاصة بك، يجب على الأقل تهيئة DatabricksSession كما هو موضح في مثال التعليمات البرمجية.
  15. مع فتح ملف التعليمات البرمجية Python، قم بتعيين أي نقاط توقف حيث تريد أن تتوقف التعليمات البرمجية الخاصة بك مؤقتا أثناء التشغيل.
  16. لتشغيل التعليمات البرمجية، انقر فوق Run > Run. يتم تشغيل جميع التعليمات البرمجية ل Python محليا، بينما يتم إرسال جميع التعليمات البرمجية PySpark التي تتضمن عمليات DataFrame على نظام المجموعة في مساحة عمل Azure Databricks البعيدة ويتم إرسال استجابات التشغيل مرة أخرى إلى المتصل المحلي.
  17. لتصحيح أخطاء التعليمات البرمجية، انقر فوق Run > Debug. يتم تصحيح جميع التعليمات البرمجية ل Python محليا، بينما تستمر جميع التعليمات البرمجية PySpark في التشغيل على نظام المجموعة في مساحة عمل Azure Databricks البعيدة. لا يمكن تصحيح أخطاء التعليمات البرمجية لمحرك Spark الأساسي مباشرة من العميل.

للحصول على إرشادات تشغيل وتصحيح أكثر تحديدا، راجع تشغيل برنامج.