Aracılığıyla paylaş


Databricks CLI nedir?

Not

Bu bilgiler Databricks CLI 0.205 ve üzeri sürümleri için geçerlidir. Databricks CLI Genel Önizleme aşamasındadır.

Databricks CLI kullanımı, Kullanım Verileri sağlamaları da dahil olmak üzere Databricks Lisansı ve Databricks Gizlilik Bildirimi'ne tabidir.

Databricks CLI (komut satırı arabirimi), yerel terminal veya otomasyon betiklerinizden Azure Databricks platformuyla etkileşim kurmanızı sağlar. Databricks CLI komutlarını web terminalini kullanarak bir Databricks çalışma alanından da çalıştırabilirsiniz. Bkz. Azure Databricks web terminalinde kabuk komutlarını çalıştırma.

Databricks CLI yükleme ve kimlik doğrulamasını yapılandırma hakkında bilgi için Databricks CLI'yi Yükleme veya Güncelleştirme ve Databricks CLI için kimlik doğrulama başlıklarına bakın.

Eski Databricks CLI kullanıcıları için bilgiler

  • Databricks, eski Databricks CLI için destek veya yeni özellik çalışması planlamıyor.
  • Eski Databricks CLI hakkında daha fazla bilgi için bkz. Eski Databricks CLI.
  • Databricks CLI sürüm 0.18 veya altından Databricks CLI sürüm 0.205 veya üzeri sürüme geçiş yapmak için bkz . Databricks CLI geçişi.

Databricks CLI nasıl çalışır?

CLI, Azure Databricks hesabı ve çalışma alanı nesneleri hakkında bilgi değiştirmek veya istemek için uç noktalar sağlayan Databricks REST API'sini sarmalar. Bkz. Azure Databricks REST API başvurusu.

Örneğin, çalışma alanında tek bir kümeyle ilgili bilgileri yazdırmak için CLI'yi aşağıdaki gibi çalıştırırsınız:

databricks clusters get 1234-567890-a12bcde3

ile curleşdeğer işlem aşağıdaki gibidir:

curl --request GET "https://${DATABRICKS_HOST}/api/2.0/clusters/get" \
     --header "Authorization: Bearer ${DATABRICKS_TOKEN}" \
     --data '{ "cluster_id": "1234-567890-a12bcde3" }'

Örnek: Bir Azure Databricks işi oluşturun

Aşağıdaki örnek, Cli kullanarak bir Azure Databricks işi oluşturur. Bu iş tek bir görev içeriyor. Bu görev belirtilen Azure Databricks not defterini çalıştırır. Bu not defteri, wheel adlı PyPI paketinin belirli bir sürümüne bağımlıdır. Bu görevi çalıştırmak için, iş geçici olarak adlı PYSPARK_PYTHONbir ortam değişkenini dışarı aktaran bir iş kümesi oluşturur. İş çalıştırıldığında küme durdurulur.

databricks jobs create --json '{
  "name": "My hello notebook job",
  "tasks": [
    {
      "task_key": "my_hello_notebook_task",
      "notebook_task": {
        "notebook_path": "/Workspace/Users/someone@example.com/hello",
        "source": "WORKSPACE"
      },
      "libraries": [
        {
          "pypi": {
            "package": "wheel==0.41.2"
          }
        }
      ],
      "new_cluster": {
        "spark_version": "13.3.x-scala2.12",
        "node_type_id": "Standard_DS3_v2",
        "num_workers": 1,
        "spark_env_vars": {
          "PYSPARK_PYTHON": "/databricks/python3/bin/python3"
        }
      }
    }
  ]
}'

Sonraki adımlar