ما هو Databricks CLI؟

إشعار

تنطبق هذه المعلومات على إصدارات Databricks CLI 0.205 والإصدارات الأحدث، الموجودة في المعاينة العامة. للعثور على إصدار Databricks CLI الخاص بك، قم بتشغيل databricks -v.

توفر واجهة سطر الأوامر Databricks (المعروفة أيضا باسم Databricks CLI) أداة لأتمتة النظام الأساسي Azure Databricks من المحطة الطرفية أو موجه الأوامر أو البرامج النصية التلقائية.

معلومات لمستخدمي Databricks CLI القديمين

  • لا تخطط Databricks أي دعم أو عمل ميزة جديدة ل Databricks CLI القديم.
  • لمزيد من المعلومات حول Databricks CLI القديم، راجع Databricks CLI (قديم) .
  • للترحيل من Databricks CLI الإصدار 0.18 أو أقل إلى Databricks CLI الإصدار 0.205 أو أعلى، راجع ترحيل Databricks CLI.

كيف يعمل Databricks CLI؟

يقوم CLI بتضمين Databricks REST API، وهي واجهة برمجة تطبيقات (API) تستخدم منظور REST لأتمتة حساب Azure Databricks وموارد مساحة العمل والبيانات. راجع مرجع Azure Databricks REST API.

على سبيل المثال، لطباعة معلومات حول مجموعة فردية في مساحة عمل، يمكنك تشغيل CLI كما يلي:

databricks clusters get 1234-567890-a12bcde3

مع curl، تكون العملية المكافئة أكثر طولا للتعبير عنها وهي أكثر عرضة لأخطاء الكتابة، كما يلي:

curl --request GET "https://${DATABRICKS_HOST}/api/2.0/clusters/get" \
     --header "Authorization: Bearer ${DATABRICKS_TOKEN}" \
     --data '{ "cluster_id": "1234-567890-a12bcde3" }'

مثال: إنشاء وظيفة Azure Databricks

يستخدم المثال التالي CLI لإنشاء مهمة Azure Databricks. تحتوي هذه الوظيفة على مهمة مهمة واحدة. تقوم هذه المهمة بتشغيل دفتر ملاحظات Azure Databricks المحدد. يحتوي دفتر الملاحظات هذا على تبعية على إصدار معين من حزمة PyPI المسماة wheel. لتشغيل هذه المهمة، تقوم الوظيفة مؤقتا بإنشاء مجموعة مهام تقوم بتصدير متغير بيئة يسمى PYSPARK_PYTHON. بعد تشغيل المهمة، يتم إنهاء نظام المجموعة.

databricks jobs create --json '{
  "name": "My hello notebook job",
  "tasks": [
    {
      "task_key": "my_hello_notebook_task",
      "notebook_task": {
        "notebook_path": "/Workspace/Users/someone@example.com/hello",
        "source": "WORKSPACE"
      },
      "libraries": [
        {
          "pypi": {
            "package": "wheel==0.41.2"
          }
        }
      ],
      "new_cluster": {
        "spark_version": "13.3.x-scala2.12",
        "node_type_id": "Standard_DS3_v2",
        "num_workers": 1,
        "spark_env_vars": {
          "PYSPARK_PYTHON": "/databricks/python3/bin/python3"
        }
      }
    }
  ]
}'

الخطوات التالية