Aracılığıyla paylaş


bundle komut grubu

Note

Bu bilgiler Databricks CLI 0.205 ve üzeri sürümleri için geçerlidir. Databricks CLI Genel Önizleme aşamasındadır.

Databricks CLI kullanımı, Kullanım Verileri sağlamaları da dahil olmak üzere Databricks Lisansı ve Databricks Gizlilik Bildirimi'ne tabidir.

bundle Databricks CLI içindeki komut grubu, Databricks Varlık Paketlerini yönetmeye yönelik komutlar içerir. Databricks Varlık Paketleri, projeleri kod olarak ifade edip Azure Databricks işleri, Lakeflow Spark Bildirimli İşlem Hatları ve MLOps Yığınları gibi Azure Databricks iş akışlarını program aracılığıyla doğrulamanıza, dağıtmanıza ve çalıştırmanıza olanak tanır. Bkz. Databricks Varlık Paketleri nedir?.

Note

Paket komutları, paket klasörünün içinden çalıştırıldığında kimlik doğrulaması için içindeki databricks.yml ayarlarını kullanır. Paket klasörünün içinden farklı kimlik doğrulamasıyla paket komutları çalıştırmak istiyorsanız, bayrağını kullanarak bir --profile belirtin ve -p belirtmeyin.

Alternatif olarak, paket klasörünün dışından gelen paketle aynı kimlik doğrulamasına ihtiyaç duymayan komutları çalıştırın.

databricks paket dağıtımı

Uzak çalışma alanına bir paket dağıtın.

databricks bundle deploy [flags]

Paket hedefi ve kimliği

Belirli bir hedefe paketi dağıtmak için, hedefin adıyla birlikte, paket yapılandırma dosyalarında bildirildiği şekilde -t (veya --target) seçeneğini ayarlayın. Hiçbir komut seçeneği belirtilmezse, paket yapılandırma dosyalarında bildirilen varsayılan hedef kullanılır. Örneğin, adıyla devbildirilen bir hedef için:

databricks bundle deploy -t dev

Paket geliştirme, hazırlama ve üretim çalışma alanları gibi birden çok çalışma alanına dağıtılabilir. Özünde, root_path özelliği, bir paketin benzersiz kimliğini belirleyen şeydir ve varsayılan olarak ~/.bundle/${bundle.name}/${bundle.target} değerini alır. Bu nedenle, bir paketin kimliği varsayılan olarak dağıtanın kimliğinden, paketin adından ve paketin hedef adından oluşur. Bunlar farklı paketlerde aynıysa, bu paketlerin dağıtımı birbirini engeller.

Ayrıca, paket dağıtımı, hedef çalışma alanında oluşturduğu kaynakları, kimlikleri ile çalışma alanı dosya sisteminde depolanan bir durum olarak izler. Kaynak adları, bir paket dağıtımı ile kaynak örneği arasında bağıntı oluşturmak için kullanılmaz, bu nedenle:

  • Paket yapılandırmasındaki bir kaynak hedef çalışma alanında mevcut değilse oluşturulacaktır.
  • Paket yapılandırmasındaki bir kaynak hedef çalışma alanında varsa, çalışma alanında güncelleştirilir.
  • Bir kaynak paket yapılandırmasından kaldırılırsa, daha önce dağıtıldıysa hedef çalışma alanından kaldırılır.
  • Bir kaynağın paketle ilişkisi yalnızca paket adını, paket hedefini veya çalışma alanını değiştirdiğinizde unutulabilir. Bu değerleri içeren bir özet çıkarmak için komutunu çalıştırabilirsiniz bundle validate .

Seçenekler

--auto-approve

    Dağıtım için gerekli olabilecek etkileşimli onayları atlayın.

-c, --cluster-id string

    Verilen küme kimliğiyle dağıtımdaki kümeyi geçersiz kılın.

--fail-on-active-runs

    Dağıtımda çalışan işler veya işlem hatları varsa başarısız olur.

--force

    Git dal doğrulamayı zorla geçersiz kıl.

--force-lock

    Dağıtım kilidinin alımını zorla.

--plan

    Planlamanın yerine uygulanacak JSON plan dosyasının yolu (yalnızca doğrudan motor). Plan dosyası kullanılarak databricks bundle plan -o jsonoluşturulabilir.

Genel bayraklar

Örnekler

Aşağıdaki örnek, belirli bir küme kimliğini kullanarak bir paket dağıtır:

databricks bundle deploy --cluster-id 0123-456789-abcdef

databricks paket dağıtımı

Dağıtımla ilgili komutlar.

databricks bundle deployment [command]

Kullanılabilir Komutlar

  • bind - Paket tanımlı bir kaynağı uzak çalışma alanında var olan bir kaynağa bağlayın.
  • migrate - Bir paketi doğrudan dağıtım altyapısını kullanacak şekilde taşıyın.
  • unbind - Paket tanımlı bir kaynağın uzak kaynağından bağlantısını kaldırın.

databricks paket dağıtım bağlaması

Paket tanımlı kaynakları, Databricks Varlık Paketleri tarafından yönetilmeleri için Azure Databricks çalışma alanında mevcut kaynaklara bağlayın. Bir kaynağı bağlarsanız, çalışma alanında mevcut Azure Databricks kaynağı, bağlı olduğu pakette tanımlanan yapılandırmaya göre bir sonraki bundle deploy işleminden sonra güncellenir.

databricks bundle deployment bind KEY RESOURCE_ID [flags]

Bağlama verileri yeniden oluşturmaz. Örneğin, katalogdaki verileri içeren bir işlem hattı bağlama uygulanmışsa, mevcut verileri kaybetmeden bu işlem hattına dağıtabilirsiniz. Buna ek olarak, örneğin Gerçekleştirilmiş görünümü yeniden derlemeniz gerekmez, bu nedenle işlem hatlarının yeniden çalıştırılması gerekmez.

bağlama komutu bayrağıyla kullanılmalıdır --target . Örneğin, databricks bundle deployment bind --target prod my_pipeline 7668611149d5709ac9-2906-1229-9956-586a9zed8929 kullanarak üretim dağıtımınızı üretim işlem hattınıza bağlayın.

Tip

Bağlama işlemini gerçekleştirmeden önce çalışma alanındaki kaynağı onaylamak iyi bir fikirdir.

Aşağıdaki kaynaklar için bağlama desteklenir:

Komutun bundle generate desteklediği kaynaklar için, kaynağı oluşturma işleminden sonra otomatik olarak bağlamak için --bind seçeneğini kullanın.

Tartışmalar

KEY

    Bağlanacak kaynağın anahtarı

RESOURCE_ID

    Bağlanacak mevcut kaynağın kimliği

Seçenekler

--auto-approve

    İstem yerine bağlamayı otomatik olarak onaylayın

--force-lock

    Dağıtım kilidini zorla alma

Genel bayraklar

Örnekler

Aşağıdaki komut, kaynağı hello_job çalışma alanında uzak karşılığına bağlar. Komut bir fark oluşturur ve kaynak bağlamasını reddetmenizi sağlar, ancak onaylanırsa paketteki iş tanımında yapılan tüm güncelleştirmeler, paket bir sonraki dağıtıldığında ilgili uzak işe uygulanır.

databricks bundle deployment bind hello_job 6565621249

databricks paket kurulumunu taşımak

Important

Bu özellik Deneysel'dir.

Paketi Terraform dağıtım altyapısını kullanmaktan doğrudan dağıtım altyapısını kullanmaya geçirin. Bkz. Doğrudan dağıtım altyapısına geçiş. Geçişi tamamlamak için paketi dağıtmanız gerekir.

komutunu çalıştırarak databricks bundle plangeçişin başarılı olduğunu doğrulayabilirsiniz. Bkz. databricks paket planı.

databricks bundle deployment migrate [flags]

Tartışmalar

Hiç kimse

Seçenekler

Genel bayraklar

Örnekler

Aşağıdaki örnek, mevcut paketi doğrudan dağıtım motorunu kullanacak biçimde dönüştürür:

databricks bundle deployment migrate

databricks paket dağıtımının bağlaması kaldırıldı

Bir paketteki kaynak ile çalışma alanında uzak karşılık gelen kaynak arasındaki bağlantıyı kaldırın.

databricks bundle deployment unbind KEY [flags]

Tartışmalar

KEY

    Bağlantıyı kaldıracak kaynağın anahtarı

Seçenekler

--force-lock

    Dağıtım kilidinin alımını zorla.

Genel bayraklar

Örnekler

Aşağıdaki örnek kaynağın bağlamasını kaldırıyor hello_job :

databricks bundle deployment unbind hello_job

databricks paketi yok etme

Warning

Bir paketi yok etmek, bir paketin daha önce dağıtılan işlerini, işlem hatlarını ve yapıtlarını kalıcı olarak siler. Bu eylem geri alınamaz.

Daha önce dağıtılan işleri, işlem hatlarını, diğer kaynakları ve yapıtları silin.

databricks bundle destroy [flags]

Note

Bir paketin kimliği paket adından, paket hedefinde ve çalışma alanından oluşur. Bunlardan herhangi birini değiştirdiyseniz ve dağıtmadan önce bir paketi yok etmeye çalışırsanız bir hata oluşur.

Varsayılan olarak, önceden dağıtılan işlerin, işlem hatlarının ve yapıtların kalıcı olarak silinmesini onaylamanız istenir. Bu istemleri atlamak ve otomatik kalıcı silme gerçekleştirmek için komutuna --auto-approve seçeneğini ekleyinbundle destroy.

Seçenekler

--auto-approve

    Kaynakları ve dosyaları silmek için etkileşimli onayları atlama

--force-lock

    Dağıtım kilidinin alımını zorla.

Genel bayraklar

Örnekler

Aşağıdaki komut, paket yapılandırma dosyalarında tanımlanan önceden dağıtılan tüm kaynakları ve yapıtları siler:

databricks bundle destroy

databricks paket oluşturma

Databricks çalışma alanınızda zaten var olan bir kaynak için paket yapılandırması oluşturun. Aşağıdaki kaynaklar desteklenir: uygulama, pano, , işlem hattı.

Varsayılan olarak, bu komut paket projesinin klasöründeki *.yml kaynak için bir resources dosya oluşturur ve ayrıca yapılandırmada başvurulan not defterleri gibi tüm dosyaları indirir.

Important

bundle generate Komut, kaynak yapılandırmasını otomatik olarak oluşturmak için kolaylık olarak sağlanır. Ancak paketiniz kaynak yapılandırması içeriyorsa ve bunu dağıtırsanız Azure Databricks mevcut kaynağı güncelleştirmek yerine yeni bir kaynak oluşturur. Mevcut bir kaynağı güncellemek için, --bind bayrağını bundle generate ile kullanmanız veya dağıtmadan önce bundle deployment bind çalıştırmanız gerekir. Bkz. databricks paket dağıtım bağlaması.

databricks bundle generate [command]

Kullanılabilir Komutlar

  • app - Databricks uygulaması için paket yapılandırması oluşturma.
  • dashboard - Pano için yapılandırma oluşturma.
  • job - bir iş için paket yapılandırması oluşturun.
  • pipeline - İşlem hattı için paket yapılandırması oluşturma.

Seçenekler

--key string

    Oluşturulan yapılandırma için kullanılacak kaynak anahtarı

Genel bayraklar

databricks paket oluşturma uygulaması

Çalışma alanında mevcut bir Databricks uygulaması için paket yapılandırması oluşturun.

databricks bundle generate app [flags]

Seçenekler

--bind

    Oluşturulan kaynağı çalışma alanında var olan kaynakla otomatik olarak bağlayın.

-d, --config-dir string

    Çıkış paketi yapılandırmasının depolanacağı dizin yolu (varsayılan "kaynaklar")

--existing-app-name string

    Için yapılandırma oluşturulacak uygulama adı

-f, --force

    Çıkış dizinindeki mevcut dosyaların üzerine yazmaya zorla

-s, --source-dir string

    Uygulama dosyalarının depolanacağı dizin yolu (varsayılan "src/app")

Genel bayraklar

Örnekler

Aşağıdaki örnek adlı my-appmevcut bir uygulama için yapılandırma oluşturur. Uygulama adını çalışma alanı kullanıcı arabiriminin İşlem>Uygulamaları sekmesinden alabilirsiniz.

databricks bundle generate app --existing-app-name my-app

Aşağıdaki komut paket projesi klasöründe yeni hello_world.app.yml bir dosya resources oluşturur ve uygulamanın komut yapılandırma dosyası ve main app.yamlgibi uygulama kod dosyalarını app.py indirir. Varsayılan olarak kod dosyaları paketin src klasörüne kopyalanır.

databricks bundle generate app --existing-app-name "hello_world"
# This is the contents of the resulting /resources/hello-world.app.yml file.
resources:
  apps:
    hello_world:
      name: hello-world
      description: A basic starter application.
      source_code_path: ../src/app

databricks paketi pano oluşturma

Çalışma alanında mevcut bir pano için yapılandırma oluşturun.

databricks bundle generate dashboard [flags]

Tip

Bir pano dağıttıktan sonra .lvdash.json dosyasını güncellemek için, mevcut pano kaynağı için bu dosyayı oluşturmak üzere --resource komutunu çalıştırırken bundle generate dashboard seçeneğini kullanın. Pano güncellemelerini sürekli yoklayıp almak için --force ve --watch seçeneklerini kullanın.

Seçenekler

--bind

    Oluşturulan kaynağı çalışma alanında var olan kaynakla otomatik olarak bağlayın.

-s, --dashboard-dir string

    Pano gösterimini yazacak dizin (varsayılan "src")

--existing-id string

    Yapılandırma oluşturulacak panonun kimliği

--existing-path string

    Için yapılandırma oluşturulacak panonun çalışma alanı yolu

-f, --force

    Çıkış dizinindeki mevcut dosyaların üzerine yazmaya zorla

--resource string

    Değişiklikleri izlemek için panonun kaynak anahtarı

-d, --resource-dir string

    Yapılandırmasını yazacak dizin (varsayılan "kaynaklar")

--watch

    Panoda yapılan değişiklikleri izleyin ve yapılandırmayı güncelleştirin

Genel bayraklar

Örnekler

Aşağıdaki örnek, mevcut bir pano kimliğine göre yapılandırma oluşturur:

databricks bundle generate dashboard --existing-id abc123

Çalışma alanı yoluna göre mevcut bir pano için yapılandırma da oluşturabilirsiniz. Çalışma alanı kullanıcı arabiriminden bir panonun çalışma alanı yolunu kopyalayın.

Örneğin, aşağıdaki komut paket proje klasöründe aşağıdaki YAML'yi içeren yeni baby_gender_by_county.dashboard.yml bir dosya resources oluşturur ve dosyayı proje klasörüne baby_gender_by_county.lvdash.json indirirsrc.

databricks bundle generate dashboard --existing-path "/Workspace/Users/someone@example.com/baby_gender_by_county.lvdash.json"
# This is the contents of the resulting baby_gender_by_county.dashboard.yml file.
resources:
  dashboards:
    baby_gender_by_county:
      display_name: 'Baby gender by county'
      warehouse_id: aae11o8e6fe9zz79
      file_path: ../src/baby_gender_by_county.lvdash.json

databricks paket oluşturma işi

bir iş için paket yapılandırması oluşturma.

Note

Şu anda yalnızca not defteri görevleri olan işler bu komut tarafından desteklenmektedir.

databricks bundle generate job [flags]

Seçenekler

--bind

    Oluşturulan kaynağı çalışma alanında var olan kaynakla otomatik olarak bağlayın.

-d, --config-dir string

    Çıkış yapılandırmasının depolanacağı dir yolu (varsayılan "kaynaklar")

--existing-job-id int

    Için yapılandırma oluşturulacak işin iş kimliği

-f, --force

    Çıkış dizinindeki mevcut dosyaların üzerine yazmaya zorla

-s, --source-dir string

    İndirilen dosyaların depolanacağı dir yolu (varsayılan "src")

Genel bayraklar

Örnekler

Aşağıdaki örnek, aşağıdaki YAML'yi hello_job.yml içeren paket proje klasöründe yeni resources bir dosya oluşturur ve dosyasını simple_notebook.py proje klasörüne src indirir. Ayrıca, oluşturulan kaynağı çalışma alanında var olan işle bağlar.

databricks bundle generate job --existing-job-id 6565621249 --bind
# This is the contents of the resulting hello_job.yml file.
resources:
  jobs:
    hello_job:
      name: 'Hello Job'
      tasks:
        - task_key: run_notebook
          email_notifications: {}
          notebook_task:
            notebook_path: ../src/simple_notebook.py
            source: WORKSPACE
          run_if: ALL_SUCCESS
      max_concurrent_runs: 1

databricks paketi işlem hattı oluşturma

Mevcut bir veri hattı için paket yapılandırması oluştur.

databricks bundle generate pipeline [flags]

Tip

Mevcut bir Spark Bildirimli İşlem Hatları (SDP) projeniz varsa, kullanarak databricks pipelines generatebu proje için yapılandırma oluşturabilirsiniz. Bkz. databricks işlem hatları oluşturma.

Seçenekler

--bind

    Oluşturulan kaynağı çalışma alanında var olan kaynakla otomatik olarak bağlayın.

-d, --config-dir string

    Çıkış yapılandırmasının depolanacağı dir yolu (varsayılan "kaynaklar")

--existing-pipeline-id string

    için yapılandırma oluşturulacak işlem hattının kimliği

-f, --force

    Çıkış dizinindeki mevcut dosyaların üzerine yazmaya zorla

-s, --source-dir string

    İndirilen dosyaların depolanacağı dir yolu (varsayılan "src")

Genel bayraklar

Örnekler

Aşağıdaki örnek, mevcut bir işlem hattı için yapılandırma oluşturur:

databricks bundle generate pipeline --existing-pipeline-id abc-123-def

databricks paket başlat komutu

Paket şablonu kullanarak yeni bir paket başlatın. Şablonlar, kullanıcıdan değer isteyecek şekilde yapılandırılabilir. Bkz. Databricks Varlık Paketi proje şablonları.

databricks bundle init [TEMPLATE_PATH] [flags]

Tartışmalar

TEMPLATE_PATH

    Başlatma için kullanılacak şablon (isteğe bağlı)

Seçenekler

--branch string

    Şablon başlatma için kullanılacak Git dalı

--config-file string

    Şablon başlatma için gereken giriş parametrelerinin anahtar değer çiftlerini içeren JSON dosyası.

--output-dir string

    Başlatılan şablonun yazıldığı dizin.

--tag string

    Şablon başlatma için kullanılacak Git etiketi

--template-dir string

    Şablonu içeren bir Git deposu içindeki dizin yolu.

Genel bayraklar

Örnekler

Aşağıdaki örnek, aralarından seçim yapabileceğiniz varsayılan paket şablonlarının listesini ister:

databricks bundle init

Aşağıdaki örnek, varsayılan Python şablonunu kullanarak bir paket başlatır:

databricks bundle init default-python

Özel bir Databricks Varlık Paketi şablonu kullanarak Databricks Varlık Paketi oluşturmak için özel şablon yolunu belirtin:

databricks bundle init <project-template-local-path-or-url> \
--project-dir="</local/path/to/project/template/output>"

Aşağıdaki örnek, Git deposundan bir paket başlatır:

databricks bundle init https://github.com/my/repository

Aşağıdaki örnek belirli bir dal ile başlatılır:

databricks bundle init --branch main

databricks paketi açık

Açılacak kaynağı belirterek çalışma alanında bir paket kaynağına gidin. Kaynak anahtarı belirtilmezse bu komut, paket kaynaklarının seçileceği bir liste oluşturur.

databricks bundle open [flags]

Seçenekler

--force-pull

    Yerel önbelleği atlayın ve uzak çalışma alanından durumu yükleyin

Genel bayraklar

Örnekler

Aşağıdaki örnek bir tarayıcı başlatır ve paket için yapılandırılan Databricks çalışma alanında paketteki panoya gider baby_gender_by_county :

databricks bundle open baby_gender_by_county

databricks paket planı

Geçerli paket yapılandırması için dağıtım planını gösterin.

Bu komut paketi oluşturur ve herhangi bir değişiklik yapmadan dağıtılacak kaynaklarda gerçekleştirilecek eylemleri görüntüler. Bu, çalıştırmadan bundle deployönce değişiklikleri önizlemenize olanak tanır.

databricks bundle plan [flags]

Seçenekler

-c, --cluster-id string

    Verilen küme kimliğiyle dağıtımdaki kümeyi geçersiz kılın.

--force

    Git dal doğrulamayı zorla geçersiz kıl.

Genel bayraklar

Örnekler

Aşağıdaki örnek, Python wheel oluşturan bir paket için dağıtım planının çıktısını oluşturur ve bir görev ile işlem hattını tanımlar.

databricks bundle plan
Building python_artifact...
create jobs.my_bundle_job
create pipelines.my_bundle_pipeline

databricks paket çalıştırması

bir iş, işlem hattı veya betik çalıştırın. Kaynak belirtmezseniz, komut seçim yapabileceğiniz tanımlı işler, işlem hatları ve betikler ile karşınıza çıkar. Alternatif olarak, paket yapılandırma dosyalarında bildirilen iş veya işlem hattı anahtarını veya betik adını belirtin.

databricks bundle run [flags] [KEY]

İşlem hattını doğrula

Bir işlem hattı doğrulama çalıştırması yapmak istiyorsanız, aşağıdaki örnekte gösterildiği gibi bu seçeneğini kullanın--validate-only.

databricks bundle run --validate-only my_pipeline

İş parametrelerini geçirme

İş parametrelerini geçirmek için --params seçeneğini ve ardından anahtarın parametre adı olduğu, virgülle ayrılmış anahtar-değer çiftlerini kullanın. Örneğin, aşağıdaki komut, message adlı parametreyi HelloWorld olarak ayarlar hello_job işi için.

databricks bundle run --params message=HelloWorld hello_job

Note

Aşağıdaki örneklerde gösterildiği gibi, iş görevi seçeneklerini kullanarak parametreleri iş görevlerine geçirebilirsiniz, ancak --params bu seçenek iş parametrelerini geçirmek için önerilen yöntemdir. İş parametreleri tanımlanmamış bir iş için iş parametreleri belirtilirse veya iş parametreleri tanımlanmış bir iş için görev parametreleri belirtilirse hata oluşur.

Anahtar sözcük veya konumsal bağımsız değişkenler de belirtebilirsiniz. Belirtilen iş iş parametrelerini kullanıyorsa veya işin parametreleri olan bir not defteri görevi varsa, bayrak adları parametre adlarına eşlenir:

databricks bundle run hello_job -- --key1 value1 --key2 value2

Ya da belirtilen iş iş parametrelerini kullanmıyorsa ve işin bir Python dosya görevi veya Python tekerlek görevi varsa:

databricks bundle run my_job -- value1 value2 value3

Parametrelerle örnek bir iş tanımı için bkz. Parametrelerle iş.

Komut dosyalarını çalıştır

Bir paketin yapılandırılmış kimlik doğrulama kimlik bilgileriyle tümleştirme testleri gibi betikleri yürütmek için betikleri satır içinde çalıştırabilir veya paket yapılandırmasında tanımlanan bir betiği çalıştırabilirsiniz. Betikler, pakette yapılandırılan kimlik doğrulama bağlamı kullanılarak çalıştırılır.

  • Betikleri satır içinde çalıştırmak için --'in arkasına iki kısa çizgi (bundle run) ekleyin. Örneğin, aşağıdaki komut geçerli kullanıcının geçerli çalışma dizinini oluşturur:

    databricks bundle run -- python3 -c 'import os; print(os.getcwd())'
    
  • Alternatif olarak, paket yapılandırmanızdaki scripts eşleme içinde bir betik tanımlayın ve ardından betiği çalıştırmak için bundle run kullanın.

    scripts:
      my_script:
        content: python3 -c 'import os; print(os.getcwd())'
    
    databricks bundle run my_script
    

    Yapılandırma hakkında scripts daha fazla bilgi için bkz. betikler ve betikler.

Paket kimlik doğrulama bilgileri, ortam değişkenleri kullanılarak alt işlemlere geçirilir. Bkz. Databricks birleşik kimlik doğrulaması.

Tartışmalar

KEY

    Çalıştırılacak kaynağın benzersiz tanımlayıcısı (isteğe bağlı)

Seçenekler

--no-wait

    Çalıştırmanın tamamlanmasını beklemeyin.

--restart

    Zaten çalışıyorsa çalıştırmayı yeniden başlatın.

Genel bayraklar

İş Bayrakları

Aşağıdaki bayraklar iş düzeyi parametre bayraklarıdır. bkz. İş parametrelerini yapılandırma.

--params stringToString

    iş parametreleri için virgülle ayrılmış k=v çiftleri (varsayılan [])

İş Görevi Bayrakları

Aşağıdaki bayraklar görev düzeyi parametre bayraklarıdır. bkz. Görev parametrelerini yapılandırma. Databricks, görev düzeyi parametreleri üzerinden iş düzeyi parametreleri (--params) kullanılmasını önerir.

--dbt-commands strings

    DBT görevleri olan işler için yürütülecek komutların listesi.

--jar-params strings

    Spark JAR görevleri olan işler için parametrelerin listesi.

--notebook-params stringToString

    Not defteri görevleri olan işler için anahtarlardan değerlere eşle. (varsayılan [])

--pipeline-params stringToString

    İşlem hattı görevleri olan işler için anahtarlardan değerlere eşleme. (varsayılan [])

--python-named-params stringToString

    Python tekerlek görevleri içeren işler için anahtarlardan değerlere eşle. (varsayılan [])

--python-params strings

    Python görevleri olan işler için parametrelerin listesi.

--spark-submit-params strings

    Spark gönderme görevleri olan işler için parametrelerin listesi.

--sql-params stringToString

    Anahtarlardan SQL görevleri içeren işler için değerlere eşle. (varsayılan [])

İşlem Hattı Bayrakları

Aşağıdaki bayraklar işlem hattı bayraklarıdır.

--full-refresh strings

    Sıfırlanıp yeniden derlenmiş tabloların listesi.

--full-refresh-all

    Tam grafik sıfırlama ve yeniden derleme gerçekleştirin.

--refresh strings

    Güncelleştirilecek tabloların listesi.

--refresh-all

    Tam grafik güncelleştirmesi gerçekleştirin.

--validate-only

    Graf doğruluğunu doğrulamak için bir güncelleştirme gerçekleştirin.

Örnekler

Aşağıdaki örnek, varsayılan hedefte bir iş hello_job çalıştırır:

databricks bundle run hello_job

Aşağıdaki örnek, adıyla hello_jobbildirilen bir hedef bağlamında bir iş dev çalıştırır:

databricks bundle run -t dev hello_job

Aşağıdaki örnek, var olan bir iş çalıştırmasını iptal eder ve yeniden başlatır:

databricks bundle run --restart hello_job

Aşağıdaki örnekte tam yenileme ile bir işlem hattı çalıştırılır:

databricks bundle run my_pipeline --full-refresh-all

Aşağıdaki örnek paket bağlamında bir komut yürütür:

databricks bundle run -- echo "hello, world"

databricks paket şeması

Paket yapılandırması için JSON Şemasını görüntüleyin.

databricks bundle schema [flags]

Seçenekler

Genel bayraklar

Örnekler

Aşağıdaki örnek, paket yapılandırması için JSON şemasını çıkarmaktadır:

databricks bundle schema

Paket yapılandırma şemasını JSON dosyası olarak çıkarmak için komutunu çalıştırın bundle schema ve çıkışı bir JSON dosyasına yeniden yönlendirin. Örneğin, geçerli dizinde adlı bundle_config_schema.json bir dosya oluşturabilirsiniz:

databricks bundle schema > bundle_config_schema.json

databricks paket özeti

Databricks çalışma alanında kaynağa kolayca gidebilmeniz için kaynaklara yönelik ayrıntılı bağlantılar da dahil olmak üzere bir paket kimliğinin ve kaynaklarının özetini oluşturun.

databricks bundle summary [flags]

Tip

Databricks çalışma alanında bir kaynağa gitmek için de kullanabilirsiniz bundle open . Bkz. databricks paketi açık.

Seçenekler

--force-pull

    Yerel önbelleği atlayın ve uzak çalışma alanından durumu yükleyin

Genel bayraklar

Örnekler

Aşağıdaki örnek, bir paketin dağıtılan kaynaklarının özetini oluşturur:

databricks bundle summary

Aşağıdaki çıkış, bir işi ve işlem hattını tanımlayan adlı my_pipeline_bundle paketin özetidir:

Name: my_pipeline_bundle
Target: dev
Workspace:
  Host: https://myworkspace.cloud.databricks.com
  User: someone@example.com
  Path: /Users/someone@example.com/.bundle/my_pipeline/dev
Resources:
  Jobs:
    my_project_job:
      Name: [dev someone] my_project_job
      URL:  https://myworkspace.cloud.databricks.com/jobs/206000809187888?o=6051000018419999
  Pipelines:
    my_project_pipeline:
      Name: [dev someone] my_project_pipeline
      URL:  https://myworkspace.cloud.databricks.com/pipelines/7f559fd5-zztz-47fa-aa5c-c6bf034b4f58?o=6051000018419999

databricks paket eşitlemesi

Bir paketin dosya değişikliklerini yerel bir dosya sistemi dizini içinde, uzak bir Azure Databricks çalışma alanı içindeki bir dizine tek yönlü eşitleme gerçekleştirin.

Note

bundle sync komutları, uzak Azure Databricks çalışma alanı içindeki bir dizindeki dosya değişikliklerini yerel bir dosya sistemi içindeki bir dizine eşitleyemez.

databricks bundle sync [flags]

databricks bundle sync komutları, databricks sync komutları ile aynı şekilde çalışır ve üretkenlik kolaylığı olarak sunulur. Komut kullanımı bilgileri için bkz sync . komut.

Seçenekler

--dry-run

    Gerçek değişiklikler yapmadan eşitleme yürütme simülasyonu yapma

--full

    Tam eşitleme gerçekleştirme (varsayılan değer artımlı)

--interval duration

    Dosya sistemi yoklama aralığı (için --watch) (varsayılan 1'ler)

--output type

    Çıkış biçiminin türü

--watch

    Değişiklikler için yerel dosya sistemini izleme

Genel bayraklar

Örnekler

Aşağıdaki örnek, bir kuru çalıştırma eşitlemesi gerçekleştirir:

databricks bundle sync --dry-run

Aşağıdaki örnek değişiklikleri izler ve otomatik olarak eşitlenir:

databricks bundle sync --watch

Aşağıdaki örnek tam eşitleme gerçekleştirir:

databricks bundle sync --full

databricks paketi doğrulama

Paket yapılandırma dosyalarının bozulmadan doğru olduğunu doğrulayın.

databricks bundle validate [flags]

Varsayılan olarak bu komut paket kimliğinin özetini döndürür:

Name: MyBundle
Target: dev
Workspace:
  Host: https://my-host.cloud.databricks.com
  User: someone@example.com
  Path: /Users/someone@example.com/.bundle/MyBundle/dev

Validation OK!

Note

Kaynak bundle validate özellikleri ilgili nesnenin şemasında bulunmayan paket yapılandırma dosyalarında tanımlanıyorsa, komut uyarı gönderir.

Yalnızca paketin kimliğinin ve kaynaklarının özetini çıkarmak istiyorsanız paket özetini kullanın.

Seçenekler

Genel bayraklar

Örnekler

Aşağıdaki örnek paket yapılandırmasını doğrular:

databricks bundle validate

Genel bayraklar

--debug

  Hata ayıklama günlüğünün etkinleştirilip etkinleştirilmeyileceği.

-h veya --help

    Databricks CLI veya ilgili komut grubu ya da ilgili komut için yardım görüntüleyin.

--log-file dizgi

    Yazılım günlüklerini yazmak için kullanılacak dosyayı temsil eden bir metin. Bu bayrak belirtilmezse varsayılan değer, çıkış günlüklerini stderr'a yazmaktır.

--log-format biçim

    Günlük biçimi türü, text veya json. Varsayılan değer şudur: text.

--log-level dizgi

    Günlük format düzeyini temsil eden bir karakter dizisi. Belirtilmezse günlük format seviyesi devre dışı bırakılır.

-o, --output tür

    Komut çıktı türü text veya json. Varsayılan değer şudur: text.

-p, --profile dizgi

    Komutu çalıştırmak için kullanılacak dosyadaki ~/.databrickscfg profilin adı. Bu bayrak belirtilmezse ve varsa, DEFAULT adlı profil kullanılır.

--progress-format biçim

    İlerleme günlüklerini görüntüleme biçimi: default, append, inplaceveya json

-t, --target dizgi

    Varsa, kullanılacak paket hedefi

--var strings

    paket yapılandırmasında tanımlanan değişkenler için değerleri ayarlayın. Örnek: --var="foo=bar"