استخدام dbx مع Visual Studio Code

هام

تم إيقاف هذه الوثائق وقد لا يتم تحديثها.

توصي Databricks باستخدام حزم أصول Databricks بدلا من dbx Databricks Labs. راجع ما هي حزم أصول Databricks؟ والترحيل من dbx إلى الحزم.

لاستخدام Azure Databricks مع Visual Studio Code، راجع المقالة ملحق Databricks ل Visual Studio Code.

توضح هذه المقالة عينة التعليمات البرمجية المستندة إلى Python التي يمكنك العمل معها في أي IDE متوافق مع Python. على وجه التحديد، توضح هذه المقالة كيفية العمل مع نموذج التعليمات البرمجية هذا في Visual Studio Code، والذي يوفر ميزات إنتاجية المطور التالية:

تستخدم هذه المقالة dbx by Databricks Labs جنبا إلى جنب مع Visual Studio Code لإرسال نموذج التعليمات البرمجية إلى مساحة عمل Azure Databricks بعيدة. dbxيوجه Azure Databricks إلى جدولة مهام سير العمل وتنسيقها لتشغيل التعليمات البرمجية المرسلة على مجموعة مهام Azure Databricks في مساحة العمل هذه.

يمكنك استخدام موفري Git الجهات الخارجية الشائعين للتحكم في الإصدار والتكامل المستمر والتسليم المستمر أو النشر المستمر (CI/CD) للتعليمات البرمجية الخاصة بك. للتحكم في الإصدار، يتضمن موفرو Git التالي:

بالنسبة إلى CI/CD، dbx يدعم الأنظمة الأساسية CI/CD التالية:

لتوضيح كيفية عمل التحكم في الإصدار وCI/CD، توضح هذه المقالة كيفية استخدام Visual Studio Code ونموذج dbxالتعليمات البرمجية هذا، جنبا إلى جنب مع GitHub وإجراءات GitHub.

متطلبات نموذج التعليمات البرمجية

لاستخدام نموذج التعليمات البرمجية هذا، يجب أن يكون لديك ما يلي:

  • مساحة عمل Azure Databricks في حساب Azure Databricks الخاص بك.
  • حساب GitHub. إنشاء حساب GitHub، إذا لم يكن لديك حساب بالفعل.

بالإضافة إلى ذلك، على جهاز التطوير المحلي الخاص بك، يجب أن يكون لديك ما يلي:

  • Python الإصدار 3.8 أو أعلى.

    يجب استخدام إصدار من Python يطابق الإصدار المثبت على المجموعات المستهدفة. للحصول على إصدار Python المثبت على نظام مجموعة موجود، يمكنك استخدام محطة الويب الخاصة بالمجموعة لتشغيل python --version الأمر. راجع أيضا قسم "بيئة النظام" في إصدارات ملاحظات إصدار Databricks Runtime والتوافق لإصدار Databricks Runtime للمجموعات المستهدفة. على أي حال، يجب أن يكون إصدار Python 3.8 أو أعلى.

    للحصول على إصدار Python المشار إليه حاليا على جهازك المحلي، قم بتشغيل python --version من المحطة الطرفية المحلية. (اعتمادا على كيفية إعداد Python على جهازك المحلي، قد تحتاج إلى التشغيل python3 بدلا من python خلال هذه المقالة.) راجع أيضا تحديد مترجم Python.

  • نقطة. pip يتم تثبيت تلقائيا مع إصدارات أحدث من Python. للتحقق مما إذا كان pip مثبتا بالفعل، قم بتشغيل pip --version من المحطة الطرفية المحلية. (اعتمادا على كيفية إعداد Python أو pip على جهازك المحلي، قد تحتاج إلى التشغيل pip3 بدلا من pip خلال هذه المقالة.)

  • dbx الإصدار 0.8.0 أو أعلى. يمكنك تثبيت الحزمة dbx من فهرس حزمة Python (PyPI) عن طريق تشغيل pip install dbx.

    إشعار

    لا تحتاج إلى التثبيت dbx الآن. يمكنك تثبيته لاحقا في قسم إعداد نموذج التعليمات البرمجية.

  • طريقة لإنشاء بيئات Python الظاهرية للتأكد من أنك تستخدم الإصدارات الصحيحة من تبعيات Python والحزمة في مشاريعكdbx. تتناول هذه المقالة pipenv.

  • تم إعداد Databricks CLI الإصدار 0.18 أو أدناه باستخدام المصادقة.

    إشعار

    لا تحتاج إلى تثبيت Databricks CLI القديم (Databricks CLI الإصدار 0.17) الآن. يمكنك تثبيته لاحقا في قسم إعداد نموذج التعليمات البرمجية. إذا كنت تريد تثبيته لاحقا، يجب أن تتذكر إعداد المصادقة في ذلك الوقت بدلا من ذلك.

  • تعليمة Visual Studio البرمجية.

  • ملحق Python لـ Visual Studio Code.

  • ملحق GitHub Pull Requests and Issues ل Visual Studio Code.

  • Git.

حول نموذج التعليمات البرمجية

يقوم نموذج التعليمات البرمجية Python لهذه المقالة، المتوفر في مستودع databricks/ide-best-practices في GitHub، بتنفيذ ما يلي:

  1. يحصل على البيانات من owid/covid-19-data repo في GitHub.
  2. تصفية البيانات الخاصة برمز بلد ISO معين.
  3. إنشاء جدول محوري من البيانات.
  4. إجراء تنقية البيانات على البيانات.
  5. نمطي منطق التعليمات البرمجية في وظائف قابلة لإعادة الاستخدام.
  6. تختبر الوحدة الوظائف.
  7. يوفر dbx تكوينات المشروع وإعداداته لتمكين التعليمات البرمجية من كتابة البيانات إلى جدول Delta في مساحة عمل Azure Databricks بعيدة.

إعداد نموذج التعليمات البرمجية

بعد أن يكون لديك متطلبات عينة التعليمات البرمجية هذه، أكمل الخطوات التالية لبدء استخدام نموذج التعليمات البرمجية.

إشعار

لا تتضمن هذه الخطوات إعداد نموذج التعليمات البرمجية هذا ل CI/CD. لا تحتاج إلى إعداد CI/CD لتشغيل نموذج التعليمات البرمجية هذا. إذا كنت تريد إعداد CI/CD لاحقا، فشاهد تشغيل باستخدام إجراءات GitHub.

الخطوة 1: إنشاء بيئة Python ظاهرية

  1. من المحطة الطرفية الخاصة بك، قم بإنشاء مجلد فارغ لاحتواء بيئة ظاهرية لعينة التعليمات البرمجية هذه. تستخدم هذه الإرشادات مجلدا أصليا يسمى ide-demo. يمكنك إعطاء هذا المجلد أي اسم تريده. إذا كنت تستخدم اسما مختلفا، فاستبدل الاسم في هذه المقالة. بعد إنشاء المجلد، قم بالتبديل إليه، ثم ابدأ تشغيل Visual Studio Code من هذا المجلد. تأكد من تضمين النقطة (.) بعد code الأمر .

    بالنسبة إلى Linux وmacOS:

    mkdir ide-demo
    cd ide-demo
    code .
    

    تلميح

    إذا تلقيت الخطأ command not found: code، فشاهد بدء التشغيل من سطر الأوامر على موقع Microsoft على الويب.

    لـ Windows:

    md ide-demo
    cd ide-demo
    code .
    
  2. في Visual Studio Code، على شريط القوائم، انقر فوق View > Terminal.

  3. من جذر ide-demo المجلد، قم بتشغيل pipenv الأمر بالخيار التالي، حيث <version> هو الإصدار الهدف من Python الذي قمت بتثبيته محليا (ومن الناحية المثالية، إصدار يطابق إصدار أنظمة المجموعات الهدف من Python)، على سبيل المثال 3.8.14.

    pipenv --python <version>
    

    دون القيمة Virtualenv location في إخراج pipenv الأمر، حيث ستحتاج إليها في الخطوة التالية.

  4. حدد مترجم Python الهدف، ثم قم بتنشيط بيئة Python الظاهرية:

    1. على شريط القوائم، انقر فوق عرض > لوحة الأوامر، واكتب Python: Select، ثم انقر فوق Python: حدد المترجم.

    2. حدد مترجم Python داخل المسار إلى بيئة Python الظاهرية التي قمت بإنشائها للتو. (يتم سرد هذا المسار كقيمة Virtualenv location في إخراج pipenv الأمر.)

    3. على شريط القوائم، انقر فوق عرض > لوحة الأوامر، واكتب Terminal: Create، ثم انقر فوق المحطة الطرفية: إنشاء محطة طرفية جديدة.

    4. تأكد من أن موجه الأوامر يشير إلى أنك في pipenv shell. للتأكيد، يجب أن تشاهد شيئا مثل (<your-username>) قبل موجه الأوامر. إذا لم تشاهده، فقم بتشغيل الأمر التالي:

      pipenv shell
      

      للخروج من shell pipenv ، قم بتشغيل الأمر exit، وتختفي الأقواس.

    لمزيد من المعلومات، راجع استخدام بيئات Python في VS Code في وثائق Visual Studio Code.

الخطوة 2: استنساخ نموذج التعليمات البرمجية من GitHub

  1. في Visual Studio Code، افتح ide-demo المجلد (File > Open Folder)، إذا لم يكن مفتوحا بالفعل.
  2. انقر فوق عرض لوحة الأوامر، واكتب Git: Clone، ثم انقر فوق Git: Clone.>
  3. بالنسبة إلى توفير عنوان URL للمستودع أو اختيار مصدر مستودع، أدخل https://github.com/databricks/ide-best-practices
  4. استعرض للوصول إلى المجلد الخاص بك ide-demo ، وانقر فوق تحديد موقع المستودع.

الخطوة 3: تثبيت تبعيات نموذج التعليمات البرمجية

  1. قم بتثبيت إصدار من dbx و Databricks CLI الإصدار 0.18 أو أقل المتوافق مع إصدار Python الخاص بك. للقيام بذلك، في Visual Studio Code من المحطة الطرفية الخاصة بك، من المجلد الخاص بك ide-demo مع pipenv تنشيط shell (pipenv shell)، قم بتشغيل الأمر التالي:

    pip install dbx
    
  2. تأكد من dbx تثبيته. للقيام بذلك، قم بتشغيل الأمر التالي:

    dbx --version
    

    إذا تم إرجاع رقم الإصدار، dbx يتم تثبيته.

    إذا كان رقم الإصدار أقل من 0.8.0، فقم بالترقية dbx عن طريق تشغيل الأمر التالي، ثم تحقق من رقم الإصدار مرة أخرى:

    pip install dbx --upgrade
    dbx --version
    
    # Or ...
    python -m pip install dbx --upgrade
    dbx --version
    
  3. عند تثبيت dbx، يتم أيضا تثبيت Databricks CLI القديم (Databricks CLI الإصدار 0.17) تلقائيا. للتأكد من تثبيت Databricks CLI القديم (Databricks CLI الإصدار 0.17)، قم بتشغيل الأمر التالي:

    databricks --version
    

    إذا تم إرجاع الإصدار 0.17 من Databricks CLI، يتم تثبيت Databricks CLI القديم.

  4. إذا لم تقم بإعداد Databricks CLI القديم (Databricks CLI الإصدار 0.17) مع المصادقة، يجب عليك القيام بذلك الآن. لتأكيد إعداد المصادقة، قم بتشغيل الأمر الأساسي التالي للحصول على بعض المعلومات الموجزة حول مساحة عمل Azure Databricks. تأكد من تضمين الشرطة المائلة للأمام (/) بعد ls الأمر الفرعي:

    databricks workspace ls /
    

    إذا تم إرجاع قائمة بأسماء المجلدات على مستوى الجذر لمساحة العمل الخاصة بك، يتم إعداد المصادقة.

  5. تثبيت حزم Python التي يعتمد عليها نموذج التعليمات البرمجية هذا. للقيام بذلك، قم بتشغيل الأمر التالي من ide-demo/ide-best-practices المجلد:

    pip install -r unit-requirements.txt
    
  6. تأكد من تثبيت الحزم التابعة لعينة التعليمات البرمجية. للقيام بذلك، قم بتشغيل الأمر التالي:

    pip list
    

    إذا كانت الحزم المدرجة في requirements.txt الملفات و unit-requirements.txt في مكان ما في هذه القائمة، يتم تثبيت الحزم التابعة.

    إشعار

    الملفات المدرجة في requirements.txt هي لإصدارات حزمة معينة. للحصول على توافق أفضل، يمكنك الرجوع إلى هذه الإصدارات مع نوع عقدة نظام المجموعة الذي تريد أن تستخدمه مساحة عمل Azure Databricks لتشغيل عمليات النشر في وقت لاحق. راجع قسم "بيئة النظام" لإصدار Databricks Runtime لنظام المجموعة في إصدارات ملاحظات إصدار Databricks Runtime والتوافق.

الخطوة 4: تخصيص نموذج التعليمات البرمجية لمساحة عمل Azure Databricks

  1. تخصيص إعدادات مشروع المستودع dbx . للقيام بذلك، في .dbx/project.json الملف، قم بتغيير قيمة profile الكائن من DEFAULT إلى اسم ملف التعريف الذي يطابق الملف الذي قمت بإعداده للمصادقة مع Databricks CLI القديم (Databricks CLI الإصدار 0.17). إذا لم تقم بإعداد أي ملف تعريف غير افتراضي، فاتركه DEFAULT كما هو. على سبيل المثال:

    {
      "environments": {
        "default": {
          "profile": "DEFAULT",
          "storage_type": "mlflow",
          "properties": {
            "workspace_directory": "/Workspace/Shared/dbx/covid_analysis",
            "artifact_location": "dbfs:/Shared/dbx/projects/covid_analysis"
          }
        }
      },
      "inplace_jinja_support": false
    }
    
  2. dbx تخصيص إعدادات نشر المشروع. للقيام بذلك، في conf/deployment.yml الملف، قم بتغيير قيمة spark_version الكائنين و node_type_id من 10.4.x-scala2.12 وإلى m6gd.large سلسلة إصدار وقت تشغيل Azure Databricks ونوع عقدة نظام المجموعة التي تريد أن تستخدمها مساحة عمل Azure Databricks لتشغيل عمليات التوزيع عليها.

    على سبيل المثال، لتحديد Databricks Runtime 10.4 LTS ونوع العقدة Standard_DS3_v2 :

    environments:
      default:
        workflows:
          - name: "covid_analysis_etl_integ"
            new_cluster:
              spark_version: "10.4.x-scala2.12"
              num_workers: 1
            node_type_id: "Standard_DS3_v2"
            spark_python_task:
              python_file: "file://jobs/covid_trends_job.py"
          - name: "covid_analysis_etl_prod"
            new_cluster:
              spark_version: "10.4.x-scala2.12"
              num_workers: 1
              node_type_id: "Standard_DS3_v2"
              spark_python_task:
                python_file: "file://jobs/covid_trends_job.py"
              parameters: ["--prod"]
          - name: "covid_analysis_etl_raw"
            new_cluster:
              spark_version: "10.4.x-scala2.12"
              num_workers: 1
              node_type_id: "Standard_DS3_v2"
              spark_python_task:
                python_file: "file://jobs/covid_trends_job_raw.py"
    

تلميح

في هذا المثال، لكل تعريف من تعريفات الوظائف الثلاثة هذه نفس spark_version وقيمة node_type_id . يمكنك استخدام قيم مختلفة لتعريفات الوظائف المختلفة. يمكنك أيضا إنشاء قيم مشتركة وإعادة استخدامها عبر تعريفات الوظائف، لتقليل أخطاء الكتابة وصيانة التعليمات البرمجية. راجع مثال YAML في dbx الوثائق.

استكشاف نموذج التعليمات البرمجية

بعد إعداد نموذج التعليمات البرمجية، استخدم المعلومات التالية للتعرف على كيفية عمل الملفات المختلفة في ide-demo/ide-best-practices المجلد.

وحدات التعليمات البرمجية

التعليمات البرمجية غير المعدلة

jobs/covid_trends_job_raw.py الملف هو إصدار غير معدل من منطق التعليمات البرمجية. يمكنك تشغيل هذا الملف بنفسه.

التعليمات البرمجية النمطية

jobs/covid_trends_job.py الملف هو إصدار نمطي من منطق التعليمات البرمجية. يعتمد هذا الملف على التعليمات البرمجية المشتركة في covid_analysis/transforms.py الملف. covid_analysis/__init__.py يعامل covide_analysis الملف المجلد كحزمة تحتوي على.

الاختبار

اختبارات الوحدات

tests/testdata.csv يحتوي الملف على جزء صغير من البيانات الموجودة في covid-hospitalizations.csv الملف لأغراض الاختبار. tests/transforms_test.py يحتوي الملف على اختبارات الوحدة للملفcovid_analysis/transforms.py.

مشغل اختبار الوحدة

pytest.ini يحتوي الملف على خيارات التكوين لتشغيل الاختبارات باستخدام pytest. راجع خيارات pytest.ini والتكوين في pytest الوثائق.

.coveragerc يحتوي الملف على خيارات التكوين لقياسات تغطية التعليمات البرمجية ل Python مع coverage.py. راجع مرجع التكوين في coverage.py الوثائق.

requirements.txt يحتوي الملف، وهو مجموعة فرعية من unit-requirements.txt الملف الذي قمت بتشغيله سابقا مع pip، على قائمة بالحزم التي تعتمد عليها اختبارات الوحدة أيضا.

التغليف

setup.py يوفر الملف أوامر ليتم تشغيلها في وحدة التحكم (البرامج النصية لوحدة التحكم)، مثل pip الأمر، لتغليف مشاريع Python مع setuptools. راجع نقاط الإدخال في setuptools الوثائق.

ملفات أخرى

هناك ملفات أخرى في نموذج التعليمات البرمجية هذا لم يتم وصفها مسبقا:

  • .github/workflows يحتوي المجلد على ثلاثة ملفات، databricks_pull_request_tests.ymlوonpush.yml، وonrelease.yaml، تمثل إجراءات GitHub، والتي تتم تغطيتها لاحقا في قسم إجراءات GitHub.
  • .gitignore يحتوي الملف على قائمة بالمجلدات والملفات المحلية التي يتجاهلها Git للم مستودعك.

تشغيل نموذج التعليمات البرمجية

يمكنك استخدام dbx على جهازك المحلي لإرشاد Azure Databricks لتشغيل نموذج التعليمات البرمجية في مساحة العمل البعيدة عند الطلب، كما هو موضح في القسم الفرعي التالي. أو يمكنك استخدام إجراءات GitHub لجعل GitHub يقوم بتشغيل نموذج التعليمات البرمجية في كل مرة تدفع فيها تغييرات التعليمات البرمجية إلى مستودع GitHub الخاص بك.

تشغيل باستخدام dbx

  1. قم بتثبيت محتويات covid_analysis المجلد كحزمة في وضع تطوير Python setuptools عن طريق تشغيل الأمر التالي من جذر مشروعك dbx (على سبيل المثال، ide-demo/ide-best-practices المجلد). تأكد من تضمين النقطة (.) في نهاية هذا الأمر:

    pip install -e .
    

    ينشئ هذا الأمر مجلدا يحتوي على معلومات حول الإصدار المحول برمجيا covid_analysis.egg-info من covid_analysis/__init__.py الملفات و covid_analysis/transforms.py .

  2. قم بتشغيل الاختبارات عن طريق تشغيل الأمر التالي:

    pytest tests/
    

    يتم عرض نتائج الاختبارات في المحطة الطرفية. يجب أن تظهر جميع الاختبارات الأربعة على أنها نجاح.

    تلميح

    للحصول على أساليب إضافية للاختبار، بما في ذلك اختبار دفاتر ملاحظات R وSc scala، راجع اختبار الوحدة لدفاتر الملاحظات.

  3. اختياريا، احصل على مقاييس تغطية الاختبار لاختباراتك عن طريق تشغيل الأمر التالي:

    coverage run -m pytest tests/
    

    إشعار

    إذا تم عرض coverage رسالة لا يمكن العثور عليها، فقم بتشغيل pip install coverage، وحاول مرة أخرى.

    لعرض نتائج تغطية الاختبار، قم بتشغيل الأمر التالي:

    coverage report -m
    
  4. إذا اجتزت جميع الاختبارات الأربعة، أرسل dbx محتويات المشروع إلى مساحة عمل Azure Databricks، عن طريق تشغيل الأمر التالي:

    dbx deploy --environment=default
    

    يتم إرسال معلومات حول المشروع وتشغيله إلى الموقع المحدد في workspace_directory الكائن في .dbx/project.json الملف.

    يتم إرسال محتويات المشروع إلى الموقع المحدد في artifact_location الكائن في .dbx/project.json الملف.

  5. قم بتشغيل إصدار ما قبل الإنتاج من التعليمات البرمجية في مساحة العمل الخاصة بك، عن طريق تشغيل الأمر التالي:

    dbx launch covid_analysis_etl_integ
    

    يتم عرض ارتباط لنتائج التشغيل في المحطة الطرفية. يجب أن يبدو مثل هذا:

    https://<your-workspace-instance-id>/?o=1234567890123456#job/123456789012345/run/12345
    

    اتبع هذا الارتباط في مستعرض الويب للاطلاع على نتائج التشغيل في مساحة العمل الخاصة بك.

  6. قم بتشغيل إصدار الإنتاج من التعليمات البرمجية في مساحة العمل الخاصة بك، عن طريق تشغيل الأمر التالي:

    dbx launch covid_analysis_etl_prod
    

    يتم عرض ارتباط لنتائج التشغيل في المحطة الطرفية. يجب أن يبدو مثل هذا:

    https://<your-workspace-instance-id>/?o=1234567890123456#job/123456789012345/run/23456
    

    اتبع هذا الارتباط في مستعرض الويب للاطلاع على نتائج التشغيل في مساحة العمل الخاصة بك.

تشغيل باستخدام GitHub Actions

في مجلد المشروع .github/workflows ، onpush.yml يقوم ملفا onrelease.yml GitHub Actions بما يلي:

  • في كل دفعة إلى علامة تبدأ ب v، تستخدم dbx لنشر covid_analysis_etl_prod المهمة.
  • على كل دفعة ليست إلى علامة تبدأ ب v:
    1. يستخدم pytest لتشغيل اختبارات الوحدة.
    2. يستخدم dbx لنشر الملف المحدد في covid_analysis_etl_integ المهمة إلى مساحة العمل البعيدة.
    3. يستخدم dbx لتشغيل الملف المنشور بالفعل المحدد في covid_analysis_etl_integ المهمة على مساحة العمل البعيدة، وتتبع هذا التشغيل حتى ينتهي.

إشعار

يتم توفير ملف إجراءات GitHub إضافي، databricks_pull_request_tests.yml، لك كقالب لتجربته، دون التأثير على onpush.yml ملفات GitHub Actions و onrelease.yml . يمكنك تشغيل نموذج التعليمات البرمجية databricks_pull_request_tests.yml هذا دون ملف GitHub Actions. استخدامه غير مشمول في هذه المقالة.

تصف الأقسام الفرعية التالية كيفية إعداد ملفات GitHub onrelease.yml Actions وتشغيلهاonpush.yml.

إعداد لاستخدام إجراءات GitHub

إعداد مساحة عمل Azure Databricks باتباع الإرشادات الواردة في أساسيات الخدمة ل CI/CD. يتضمن ذلك الإجراءات التالية:

  1. إنشاء كيان الخدمة.
  2. إنشاء رمز مميز لمعرف Microsoft Entra لكيان الخدمة.

كأفضل ممارسة أمان، توصي Databricks باستخدام رمز مميز لمعرف Microsoft Entra لكيان الخدمة، بدلا من رمز الوصول الشخصي Databricks لمستخدم مساحة العمل الخاص بك، لتمكين GitHub من المصادقة مع مساحة عمل Azure Databricks.

بعد إنشاء كيان الخدمة والرمز المميز لمعرف Microsoft Entra الخاص به، قم بإيقاف قيمة الرمز المميز لمعرف Microsoft Entra وتدوينها، والتي ستستخدمها في القسم التالي.

تشغيل إجراءات GitHub

الخطوة 1: نشر المستودع المستنسخ
  1. في Visual Studio Code، في الشريط الجانبي، انقر فوق أيقونة GitHub . إذا لم تكن الأيقونة مرئية، فمكن ملحق GitHub Pull Requests and Issues من خلال طريقة عرض الملحقات (عرض > الملحقات) أولا.
  2. إذا كان زر تسجيل الدخول مرئيا، فانقر فوقه، واتبع الإرشادات التي تظهر على الشاشة لتسجيل الدخول إلى حساب GitHub الخاص بك.
  3. على شريط القوائم، انقر فوق عرض لوحة الأوامر، واكتب Publish to GitHub، ثم انقر فوق نشر إلى GitHub.>
  4. حدد خيارا لنشر المستودع المستنسخ إلى حساب GitHub الخاص بك.
الخطوة 2: إضافة أسرار مشفرة إلى المستودع الخاص بك

في موقع GitHub على الويب لمستودعك المنشور، اتبع الإرشادات الواردة في إنشاء أسرار مشفرة لمستودع، للبيانات السرية المشفرة التالية:

  • أنشئ بيانات سرية مشفرة باسم DATABRICKS_HOST، عين إلى قيمة عنوان URL لكل مساحة عمل، على سبيل المثال https://adb-1234567890123456.7.azuredatabricks.net.
  • إنشاء سر مشفر يسمى DATABRICKS_TOKEN، وتعيين إلى قيمة الرمز المميز لمعرف Microsoft Entra لكيان الخدمة.
الخطوة 3: إنشاء فرع ونشره إلى المستودع الخاص بك
  1. في Visual Studio Code، في طريقة عرض التحكم بالمصادر (عرض عنصر التحكم بالمصادر)، انقر فوق الأيقونة ... (طرق العرض والمزيد من الإجراءات).>
  2. انقر فوق Branch > Create Branch From.
  3. أدخل اسما للفرع، على سبيل المثال my-branch.
  4. حدد الفرع لإنشاء الفرع منه، على سبيل المثال الرئيسي.
  5. قم بإجراء تغيير طفيف على أحد الملفات في المستودع المحلي، ثم احفظ الملف. على سبيل المثال، قم بإجراء تغيير طفيف على تعليق التعليمات البرمجية في tests/transforms_test.py الملف.
  6. في طريقة عرض التحكم بالمصادر، انقر فوق الأيقونة ... (طرق العرض والمزيد من الإجراءات) مرة أخرى.
  7. انقر فوق مرحلة التغييرات > كافة التغييرات.
  8. انقر فوق أيقونة ... (طرق العرض والمزيد من الإجراءات) مرة أخرى.
  9. انقر فوق Commit > Commit Staged.
  10. أدخل رسالة للتثبيت.
  11. انقر فوق أيقونة ... (طرق العرض والمزيد من الإجراءات) مرة أخرى.
  12. انقر فوق فرع نشر الفرع>.
الخطوة 4: إنشاء طلب سحب ودمج
  1. انتقل إلى موقع GitHub على الويب لم مستودعك المنشور، https://github/<your-GitHub-username>/ide-best-practices.
  2. في علامة التبويب Pull requests ، بجوار my-branch كان لها دفعات حديثة، انقر فوق Compare & pull request.
  3. انقر فوق إنشاء طلب سحب.
  4. في صفحة طلب السحب، انتظر حتى تعرض الأيقونة بجوار CI pipleline / ci-pipeline (push) علامة اختيار خضراء. (قد يستغرق ظهور الأيقونة بضع دقائق.) إذا كانت هناك علامة X حمراء بدلا من علامة اختيار خضراء، فانقر فوق تفاصيل لمعرفة السبب. إذا لم تعد الأيقونة أو التفاصيل تظهر، فانقر فوق إظهار كافة عمليات التحقق.
  5. إذا ظهرت علامة الاختيار الخضراء، فدمج طلب السحب في main الفرع بالنقر فوق دمج طلب السحب.