اقرأ باللغة الإنجليزية

مشاركة عبر


ما هو Databricks CLI؟

ملاحظة

تنطبق هذه المعلومات على إصدارات Databricks CLI 0.205 والإصدارات الأحدث. Databricks CLI في المعاينة العامة.

يخضع استخدام Databricks CLI لترخيص Databricks وإشعار خصوصية Databricks، بما في ذلك أي أحكام لبيانات الاستخدام.

توفر واجهة سطر الأوامر Databricks (المعروفة أيضا باسم Databricks CLI) أداة لأتمتة النظام الأساسي Azure Databricks من المحطة الطرفية أو موجه الأوامر أو البرامج النصية التلقائية. يمكنك أيضا تشغيل أوامر Databricks CLI من داخل مساحة عمل Databricks باستخدام محطة الويب. راجع تشغيل أوامر shell في محطة ويب Azure Databricks.

لتثبيت المصادقة وتكوينها ل Databricks CLI، راجع تثبيت أو تحديث Databricks CLI والمصادقة ل Databricks CLI.

معلومات لمستخدمي Databricks CLI القديمين

  • لا تخطط Databricks أي دعم أو عمل ميزة جديدة ل Databricks CLI القديم.
  • لمزيد من المعلومات حول Databricks CLI القديم، راجع Databricks CLI (قديم) .
  • للترحيل من Databricks CLI الإصدار 0.18 أو أقل إلى Databricks CLI الإصدار 0.205 أو أعلى، راجع ترحيل Databricks CLI.

كيف يعمل Databricks CLI؟

يقوم CLI بتضمين Databricks REST API، والتي توفر نقاط نهاية لتعديل أو طلب معلومات حول حساب Azure Databricks وعناصر مساحة العمل. راجع مرجع Azure Databricks REST API.

على سبيل المثال، لطباعة معلومات حول مجموعة فردية في مساحة عمل، يمكنك تشغيل CLI كما يلي:

databricks clusters get 1234-567890-a12bcde3

مع curl، تكون العملية المكافئة كما يلي:

curl --request GET "https://${DATABRICKS_HOST}/api/2.0/clusters/get" \
     --header "Authorization: Bearer ${DATABRICKS_TOKEN}" \
     --data '{ "cluster_id": "1234-567890-a12bcde3" }'

مثال: إنشاء وظيفة Azure Databricks

يستخدم المثال التالي CLI لإنشاء مهمة Azure Databricks. تحتوي هذه الوظيفة على مهمة مهمة واحدة. تقوم هذه المهمة بتشغيل دفتر ملاحظات Azure Databricks المحدد. يحتوي دفتر الملاحظات هذا على تبعية على إصدار معين من حزمة PyPI المسماة wheel. لتشغيل هذه المهمة، تقوم الوظيفة مؤقتا بإنشاء مجموعة مهام تقوم بتصدير متغير بيئة يسمى PYSPARK_PYTHON. بعد تشغيل المهمة، يتم إنهاء نظام المجموعة.

databricks jobs create --json '{
  "name": "My hello notebook job",
  "tasks": [
    {
      "task_key": "my_hello_notebook_task",
      "notebook_task": {
        "notebook_path": "/Workspace/Users/someone@example.com/hello",
        "source": "WORKSPACE"
      },
      "libraries": [
        {
          "pypi": {
            "package": "wheel==0.41.2"
          }
        }
      ],
      "new_cluster": {
        "spark_version": "13.3.x-scala2.12",
        "node_type_id": "Standard_DS3_v2",
        "num_workers": 1,
        "spark_env_vars": {
          "PYSPARK_PYTHON": "/databricks/python3/bin/python3"
        }
      }
    }
  ]
}'

الخطوات التالية