Not
Bu sayfaya erişim yetkilendirme gerektiriyor. Oturum açmayı veya dizinleri değiştirmeyi deneyebilirsiniz.
Bu sayfaya erişim yetkilendirme gerektiriyor. Dizinleri değiştirmeyi deneyebilirsiniz.
Note
Bu bilgiler Databricks CLI 0.205 ve üzeri sürümleri için geçerlidir. Databricks CLI Genel Önizleme aşamasındadır.
Databricks CLI kullanımı, Kullanım Verileri sağlamaları da dahil olmak üzere Databricks Lisansı ve Databricks Gizlilik Bildirimi'ne tabidir.
bundle
Databricks CLI içindeki komut grubu, Databricks Varlık Paketlerini yönetmeye yönelik komutlar içerir. Databricks Varlık Paketleri, projeleri kod olarak ifade edip Azure Databricks işleri, Lakeflow Spark Bildirimli İşlem Hatları ve MLOps Yığınları gibi Azure Databricks iş akışlarını program aracılığıyla doğrulamanıza, dağıtmanıza ve çalıştırmanıza olanak tanır. Bkz. Databricks Varlık Paketleri nedir?.
Note
Paket komutları, paket klasörünün içinden çalıştırıldığında kimlik doğrulaması için içindeki databricks.yml ayarlarını kullanır. Paket klasörünün içinden farklı kimlik doğrulamasıyla paket komutları çalıştırmak istiyorsanız, bayrağını kullanarak bir --profile belirtin ve -p belirtmeyin.
Alternatif olarak, paket klasörünün dışından gelen paketle aynı kimlik doğrulamasına ihtiyaç duymayan komutları çalıştırın.
databricks paket dağıtımı
Uzak çalışma alanına bir paket dağıtın.
databricks bundle deploy [flags]
Paket hedefi ve kimliği
Belirli bir hedefe paketi dağıtmak için, hedefin adıyla birlikte, paket yapılandırma dosyalarında bildirildiği şekilde -t (veya --target) seçeneğini ayarlayın. Hiçbir komut seçeneği belirtilmezse, paket yapılandırma dosyalarında bildirilen varsayılan hedef kullanılır. Örneğin, adıyla devbildirilen bir hedef için:
databricks bundle deploy -t dev
Paket geliştirme, hazırlama ve üretim çalışma alanları gibi birden çok çalışma alanına dağıtılabilir. Özünde, root_path özelliği, bir paketin benzersiz kimliğini belirleyen şeydir ve varsayılan olarak ~/.bundle/${bundle.name}/${bundle.target} değerini alır. Bu nedenle, bir paketin kimliği varsayılan olarak dağıtanın kimliğinden, paketin adından ve paketin hedef adından oluşur. Bunlar farklı paketlerde aynıysa, bu paketlerin dağıtımı birbirini engeller.
Ayrıca, paket dağıtımı, hedef çalışma alanında oluşturduğu kaynakları, kimlikleri ile çalışma alanı dosya sisteminde depolanan bir durum olarak izler. Kaynak adları, bir paket dağıtımı ile kaynak örneği arasında bağıntı oluşturmak için kullanılmaz, bu nedenle:
- Paket yapılandırmasındaki bir kaynak hedef çalışma alanında mevcut değilse oluşturulacaktır.
- Paket yapılandırmasındaki bir kaynak hedef çalışma alanında varsa, çalışma alanında güncelleştirilir.
- Bir kaynak paket yapılandırmasından kaldırılırsa, daha önce dağıtıldıysa hedef çalışma alanından kaldırılır.
- Bir kaynağın paketle ilişkisi yalnızca paket adını, paket hedefini veya çalışma alanını değiştirdiğinizde unutulabilir. Bu değerleri içeren bir özet çıkarmak için komutunu çalıştırabilirsiniz
bundle validate.
Seçenekler
--auto-approve
Dağıtım için gerekli olabilecek etkileşimli onayları atlayın.
-c, --cluster-id string
Verilen küme kimliğiyle dağıtımdaki kümeyi geçersiz kılın.
--fail-on-active-runs
Dağıtımda çalışan işler veya işlem hatları varsa başarısız olur.
--force
Git dal doğrulamayı zorla geçersiz kıl.
--force-lock
Dağıtım kilidinin alımını zorla.
--plan
Planlamanın yerine uygulanacak JSON plan dosyasının yolu (yalnızca doğrudan motor). Plan dosyası kullanılarak databricks bundle plan -o jsonoluşturulabilir.
Örnekler
Aşağıdaki örnek, belirli bir küme kimliğini kullanarak bir paket dağıtır:
databricks bundle deploy --cluster-id 0123-456789-abcdef
databricks paket dağıtımı
Dağıtımla ilgili komutlar.
databricks bundle deployment [command]
Kullanılabilir Komutlar
-
bind- Paket tanımlı bir kaynağı uzak çalışma alanında var olan bir kaynağa bağlayın. -
migrate- Bir paketi doğrudan dağıtım altyapısını kullanacak şekilde taşıyın. -
unbind- Paket tanımlı bir kaynağın uzak kaynağından bağlantısını kaldırın.
databricks paket dağıtım bağlaması
Paket tanımlı kaynakları, Databricks Varlık Paketleri tarafından yönetilmeleri için Azure Databricks çalışma alanında mevcut kaynaklara bağlayın. Bir kaynağı bağlarsanız, çalışma alanında mevcut Azure Databricks kaynağı, bağlı olduğu pakette tanımlanan yapılandırmaya göre bir sonraki bundle deploy işleminden sonra güncellenir.
databricks bundle deployment bind KEY RESOURCE_ID [flags]
Bağlama verileri yeniden oluşturmaz. Örneğin, katalogdaki verileri içeren bir işlem hattı bağlama uygulanmışsa, mevcut verileri kaybetmeden bu işlem hattına dağıtabilirsiniz. Buna ek olarak, örneğin Gerçekleştirilmiş görünümü yeniden derlemeniz gerekmez, bu nedenle işlem hatlarının yeniden çalıştırılması gerekmez.
bağlama komutu bayrağıyla kullanılmalıdır --target . Örneğin, databricks bundle deployment bind --target prod my_pipeline 7668611149d5709ac9-2906-1229-9956-586a9zed8929 kullanarak üretim dağıtımınızı üretim işlem hattınıza bağlayın.
Tip
Bağlama işlemini gerçekleştirmeden önce çalışma alanındaki kaynağı onaylamak iyi bir fikirdir.
Aşağıdaki kaynaklar için bağlama desteklenir:
- app
- cluster
- dashboard
- job
- model_serving_endpoint
- pipeline
- quality_monitor
- registered_model
- schema
- volume
Komutun bundle generate desteklediği kaynaklar için, kaynağı oluşturma işleminden sonra otomatik olarak bağlamak için --bind seçeneğini kullanın.
Tartışmalar
KEY
Bağlanacak kaynağın anahtarı
RESOURCE_ID
Bağlanacak mevcut kaynağın kimliği
Seçenekler
--auto-approve
İstem yerine bağlamayı otomatik olarak onaylayın
--force-lock
Dağıtım kilidini zorla alma
Örnekler
Aşağıdaki komut, kaynağı hello_job çalışma alanında uzak karşılığına bağlar. Komut bir fark oluşturur ve kaynak bağlamasını reddetmenizi sağlar, ancak onaylanırsa paketteki iş tanımında yapılan tüm güncelleştirmeler, paket bir sonraki dağıtıldığında ilgili uzak işe uygulanır.
databricks bundle deployment bind hello_job 6565621249
databricks paket kurulumunu taşımak
Paketi Terraform dağıtım altyapısını kullanmaktan doğrudan dağıtım altyapısını kullanmaya geçirin. Bkz. Doğrudan dağıtım altyapısına geçiş. Geçişi tamamlamak için paketi dağıtmanız gerekir.
komutunu çalıştırarak databricks bundle plangeçişin başarılı olduğunu doğrulayabilirsiniz. Bkz. databricks paket planı.
databricks bundle deployment migrate [flags]
Tartışmalar
Hiç kimse
Seçenekler
Örnekler
Aşağıdaki örnek, mevcut paketi doğrudan dağıtım motorunu kullanacak biçimde dönüştürür:
databricks bundle deployment migrate
databricks paket dağıtımının bağlaması kaldırıldı
Bir paketteki kaynak ile çalışma alanında uzak karşılık gelen kaynak arasındaki bağlantıyı kaldırın.
databricks bundle deployment unbind KEY [flags]
Tartışmalar
KEY
Bağlantıyı kaldıracak kaynağın anahtarı
Seçenekler
--force-lock
Dağıtım kilidinin alımını zorla.
Örnekler
Aşağıdaki örnek kaynağın bağlamasını kaldırıyor hello_job :
databricks bundle deployment unbind hello_job
databricks paketi yok etme
Warning
Bir paketi yok etmek, bir paketin daha önce dağıtılan işlerini, işlem hatlarını ve yapıtlarını kalıcı olarak siler. Bu eylem geri alınamaz.
Daha önce dağıtılan işleri, işlem hatlarını, diğer kaynakları ve yapıtları silin.
databricks bundle destroy [flags]
Note
Bir paketin kimliği paket adından, paket hedefinde ve çalışma alanından oluşur. Bunlardan herhangi birini değiştirdiyseniz ve dağıtmadan önce bir paketi yok etmeye çalışırsanız bir hata oluşur.
Varsayılan olarak, önceden dağıtılan işlerin, işlem hatlarının ve yapıtların kalıcı olarak silinmesini onaylamanız istenir. Bu istemleri atlamak ve otomatik kalıcı silme gerçekleştirmek için komutuna --auto-approve seçeneğini ekleyinbundle destroy.
Seçenekler
--auto-approve
Kaynakları ve dosyaları silmek için etkileşimli onayları atlama
--force-lock
Dağıtım kilidinin alımını zorla.
Örnekler
Aşağıdaki komut, paket yapılandırma dosyalarında tanımlanan önceden dağıtılan tüm kaynakları ve yapıtları siler:
databricks bundle destroy
databricks paket oluşturma
Databricks çalışma alanınızda zaten var olan bir kaynak için paket yapılandırması oluşturun. Aşağıdaki kaynaklar desteklenir: uygulama, pano, iş, işlem hattı.
Varsayılan olarak, bu komut paket projesinin klasöründeki *.yml kaynak için bir resources dosya oluşturur ve ayrıca yapılandırmada başvurulan not defterleri gibi tüm dosyaları indirir.
Important
bundle generate Komut, kaynak yapılandırmasını otomatik olarak oluşturmak için kolaylık olarak sağlanır. Ancak paketiniz kaynak yapılandırması içeriyorsa ve bunu dağıtırsanız Azure Databricks mevcut kaynağı güncelleştirmek yerine yeni bir kaynak oluşturur. Mevcut bir kaynağı güncellemek için, --bind bayrağını bundle generate ile kullanmanız veya dağıtmadan önce bundle deployment bind çalıştırmanız gerekir. Bkz. databricks paket dağıtım bağlaması.
databricks bundle generate [command]
Kullanılabilir Komutlar
-
app- Databricks uygulaması için paket yapılandırması oluşturma. -
dashboard- Pano için yapılandırma oluşturma. -
job- bir iş için paket yapılandırması oluşturun. -
pipeline- İşlem hattı için paket yapılandırması oluşturma.
Seçenekler
--key string
Oluşturulan yapılandırma için kullanılacak kaynak anahtarı
databricks paket oluşturma uygulaması
Çalışma alanında mevcut bir Databricks uygulaması için paket yapılandırması oluşturun.
databricks bundle generate app [flags]
Seçenekler
--bind
Oluşturulan kaynağı çalışma alanında var olan kaynakla otomatik olarak bağlayın.
-d, --config-dir string
Çıkış paketi yapılandırmasının depolanacağı dizin yolu (varsayılan "kaynaklar")
--existing-app-name string
Için yapılandırma oluşturulacak uygulama adı
-f, --force
Çıkış dizinindeki mevcut dosyaların üzerine yazmaya zorla
-s, --source-dir string
Uygulama dosyalarının depolanacağı dizin yolu (varsayılan "src/app")
Örnekler
Aşağıdaki örnek adlı my-appmevcut bir uygulama için yapılandırma oluşturur. Uygulama adını çalışma alanı kullanıcı arabiriminin İşlem>Uygulamaları sekmesinden alabilirsiniz.
databricks bundle generate app --existing-app-name my-app
Aşağıdaki komut paket projesi klasöründe yeni hello_world.app.yml bir dosya resources oluşturur ve uygulamanın komut yapılandırma dosyası ve main app.yamlgibi uygulama kod dosyalarını app.py indirir. Varsayılan olarak kod dosyaları paketin src klasörüne kopyalanır.
databricks bundle generate app --existing-app-name "hello_world"
# This is the contents of the resulting /resources/hello-world.app.yml file.
resources:
apps:
hello_world:
name: hello-world
description: A basic starter application.
source_code_path: ../src/app
databricks paketi pano oluşturma
Çalışma alanında mevcut bir pano için yapılandırma oluşturun.
databricks bundle generate dashboard [flags]
Tip
Bir pano dağıttıktan sonra .lvdash.json dosyasını güncellemek için, mevcut pano kaynağı için bu dosyayı oluşturmak üzere --resource komutunu çalıştırırken bundle generate dashboard seçeneğini kullanın. Pano güncellemelerini sürekli yoklayıp almak için --force ve --watch seçeneklerini kullanın.
Seçenekler
--bind
Oluşturulan kaynağı çalışma alanında var olan kaynakla otomatik olarak bağlayın.
-s, --dashboard-dir string
Pano gösterimini yazacak dizin (varsayılan "src")
--existing-id string
Yapılandırma oluşturulacak panonun kimliği
--existing-path string
Için yapılandırma oluşturulacak panonun çalışma alanı yolu
-f, --force
Çıkış dizinindeki mevcut dosyaların üzerine yazmaya zorla
--resource string
Değişiklikleri izlemek için panonun kaynak anahtarı
-d, --resource-dir string
Yapılandırmasını yazacak dizin (varsayılan "kaynaklar")
--watch
Panoda yapılan değişiklikleri izleyin ve yapılandırmayı güncelleştirin
Örnekler
Aşağıdaki örnek, mevcut bir pano kimliğine göre yapılandırma oluşturur:
databricks bundle generate dashboard --existing-id abc123
Çalışma alanı yoluna göre mevcut bir pano için yapılandırma da oluşturabilirsiniz. Çalışma alanı kullanıcı arabiriminden bir panonun çalışma alanı yolunu kopyalayın.
Örneğin, aşağıdaki komut paket proje klasöründe aşağıdaki YAML'yi içeren yeni baby_gender_by_county.dashboard.yml bir dosya resources oluşturur ve dosyayı proje klasörüne baby_gender_by_county.lvdash.json indirirsrc.
databricks bundle generate dashboard --existing-path "/Workspace/Users/someone@example.com/baby_gender_by_county.lvdash.json"
# This is the contents of the resulting baby_gender_by_county.dashboard.yml file.
resources:
dashboards:
baby_gender_by_county:
display_name: 'Baby gender by county'
warehouse_id: aae11o8e6fe9zz79
file_path: ../src/baby_gender_by_county.lvdash.json
databricks paket oluşturma işi
bir iş için paket yapılandırması oluşturma.
Note
Şu anda yalnızca not defteri görevleri olan işler bu komut tarafından desteklenmektedir.
databricks bundle generate job [flags]
Seçenekler
--bind
Oluşturulan kaynağı çalışma alanında var olan kaynakla otomatik olarak bağlayın.
-d, --config-dir string
Çıkış yapılandırmasının depolanacağı dir yolu (varsayılan "kaynaklar")
--existing-job-id int
Için yapılandırma oluşturulacak işin iş kimliği
-f, --force
Çıkış dizinindeki mevcut dosyaların üzerine yazmaya zorla
-s, --source-dir string
İndirilen dosyaların depolanacağı dir yolu (varsayılan "src")
Örnekler
Aşağıdaki örnek, aşağıdaki YAML'yi hello_job.yml içeren paket proje klasöründe yeni resources bir dosya oluşturur ve dosyasını simple_notebook.py proje klasörüne src indirir. Ayrıca, oluşturulan kaynağı çalışma alanında var olan işle bağlar.
databricks bundle generate job --existing-job-id 6565621249 --bind
# This is the contents of the resulting hello_job.yml file.
resources:
jobs:
hello_job:
name: 'Hello Job'
tasks:
- task_key: run_notebook
email_notifications: {}
notebook_task:
notebook_path: ../src/simple_notebook.py
source: WORKSPACE
run_if: ALL_SUCCESS
max_concurrent_runs: 1
databricks paketi işlem hattı oluşturma
Mevcut bir veri hattı için paket yapılandırması oluştur.
databricks bundle generate pipeline [flags]
Tip
Mevcut bir Spark Bildirimli İşlem Hatları (SDP) projeniz varsa, kullanarak databricks pipelines generatebu proje için yapılandırma oluşturabilirsiniz. Bkz. databricks işlem hatları oluşturma.
Seçenekler
--bind
Oluşturulan kaynağı çalışma alanında var olan kaynakla otomatik olarak bağlayın.
-d, --config-dir string
Çıkış yapılandırmasının depolanacağı dir yolu (varsayılan "kaynaklar")
--existing-pipeline-id string
için yapılandırma oluşturulacak işlem hattının kimliği
-f, --force
Çıkış dizinindeki mevcut dosyaların üzerine yazmaya zorla
-s, --source-dir string
İndirilen dosyaların depolanacağı dir yolu (varsayılan "src")
Örnekler
Aşağıdaki örnek, mevcut bir işlem hattı için yapılandırma oluşturur:
databricks bundle generate pipeline --existing-pipeline-id abc-123-def
databricks paket başlat komutu
Paket şablonu kullanarak yeni bir paket başlatın. Şablonlar, kullanıcıdan değer isteyecek şekilde yapılandırılabilir. Bkz. Databricks Varlık Paketi proje şablonları.
databricks bundle init [TEMPLATE_PATH] [flags]
Tartışmalar
TEMPLATE_PATH
Başlatma için kullanılacak şablon (isteğe bağlı)
Seçenekler
--branch string
Şablon başlatma için kullanılacak Git dalı
--config-file string
Şablon başlatma için gereken giriş parametrelerinin anahtar değer çiftlerini içeren JSON dosyası.
--output-dir string
Başlatılan şablonun yazıldığı dizin.
--tag string
Şablon başlatma için kullanılacak Git etiketi
--template-dir string
Şablonu içeren bir Git deposu içindeki dizin yolu.
Örnekler
Aşağıdaki örnek, aralarından seçim yapabileceğiniz varsayılan paket şablonlarının listesini ister:
databricks bundle init
Aşağıdaki örnek, varsayılan Python şablonunu kullanarak bir paket başlatır:
databricks bundle init default-python
Özel bir Databricks Varlık Paketi şablonu kullanarak Databricks Varlık Paketi oluşturmak için özel şablon yolunu belirtin:
databricks bundle init <project-template-local-path-or-url> \
--project-dir="</local/path/to/project/template/output>"
Aşağıdaki örnek, Git deposundan bir paket başlatır:
databricks bundle init https://github.com/my/repository
Aşağıdaki örnek belirli bir dal ile başlatılır:
databricks bundle init --branch main
databricks paketi açık
Açılacak kaynağı belirterek çalışma alanında bir paket kaynağına gidin. Kaynak anahtarı belirtilmezse bu komut, paket kaynaklarının seçileceği bir liste oluşturur.
databricks bundle open [flags]
Seçenekler
--force-pull
Yerel önbelleği atlayın ve uzak çalışma alanından durumu yükleyin
Örnekler
Aşağıdaki örnek bir tarayıcı başlatır ve paket için yapılandırılan Databricks çalışma alanında paketteki panoya gider baby_gender_by_county :
databricks bundle open baby_gender_by_county
databricks paket planı
Geçerli paket yapılandırması için dağıtım planını gösterin.
Bu komut paketi oluşturur ve herhangi bir değişiklik yapmadan dağıtılacak kaynaklarda gerçekleştirilecek eylemleri görüntüler. Bu, çalıştırmadan bundle deployönce değişiklikleri önizlemenize olanak tanır.
databricks bundle plan [flags]
Seçenekler
-c, --cluster-id string
Verilen küme kimliğiyle dağıtımdaki kümeyi geçersiz kılın.
--force
Git dal doğrulamayı zorla geçersiz kıl.
Örnekler
Aşağıdaki örnek, Python wheel oluşturan bir paket için dağıtım planının çıktısını oluşturur ve bir görev ile işlem hattını tanımlar.
databricks bundle plan
Building python_artifact...
create jobs.my_bundle_job
create pipelines.my_bundle_pipeline
databricks paket çalıştırması
bir iş, işlem hattı veya betik çalıştırın. Kaynak belirtmezseniz, komut seçim yapabileceğiniz tanımlı işler, işlem hatları ve betikler ile karşınıza çıkar. Alternatif olarak, paket yapılandırma dosyalarında bildirilen iş veya işlem hattı anahtarını veya betik adını belirtin.
databricks bundle run [flags] [KEY]
İşlem hattını doğrula
Bir işlem hattı doğrulama çalıştırması yapmak istiyorsanız, aşağıdaki örnekte gösterildiği gibi bu seçeneğini kullanın--validate-only.
databricks bundle run --validate-only my_pipeline
İş parametrelerini geçirme
İş parametrelerini geçirmek için --params seçeneğini ve ardından anahtarın parametre adı olduğu, virgülle ayrılmış anahtar-değer çiftlerini kullanın. Örneğin, aşağıdaki komut, message adlı parametreyi HelloWorld olarak ayarlar hello_job işi için.
databricks bundle run --params message=HelloWorld hello_job
Note
Aşağıdaki örneklerde gösterildiği gibi, iş görevi seçeneklerini kullanarak parametreleri iş görevlerine geçirebilirsiniz, ancak --params bu seçenek iş parametrelerini geçirmek için önerilen yöntemdir. İş parametreleri tanımlanmamış bir iş için iş parametreleri belirtilirse veya iş parametreleri tanımlanmış bir iş için görev parametreleri belirtilirse hata oluşur.
Anahtar sözcük veya konumsal bağımsız değişkenler de belirtebilirsiniz. Belirtilen iş iş parametrelerini kullanıyorsa veya işin parametreleri olan bir not defteri görevi varsa, bayrak adları parametre adlarına eşlenir:
databricks bundle run hello_job -- --key1 value1 --key2 value2
Ya da belirtilen iş iş parametrelerini kullanmıyorsa ve işin bir Python dosya görevi veya Python tekerlek görevi varsa:
databricks bundle run my_job -- value1 value2 value3
Parametrelerle örnek bir iş tanımı için bkz. Parametrelerle iş.
Komut dosyalarını çalıştır
Bir paketin yapılandırılmış kimlik doğrulama kimlik bilgileriyle tümleştirme testleri gibi betikleri yürütmek için betikleri satır içinde çalıştırabilir veya paket yapılandırmasında tanımlanan bir betiği çalıştırabilirsiniz. Betikler, pakette yapılandırılan kimlik doğrulama bağlamı kullanılarak çalıştırılır.
Betikleri satır içinde çalıştırmak için
--'in arkasına iki kısa çizgi (bundle run) ekleyin. Örneğin, aşağıdaki komut geçerli kullanıcının geçerli çalışma dizinini oluşturur:databricks bundle run -- python3 -c 'import os; print(os.getcwd())'Alternatif olarak, paket yapılandırmanızdaki
scriptseşleme içinde bir betik tanımlayın ve ardından betiği çalıştırmak içinbundle runkullanın.scripts: my_script: content: python3 -c 'import os; print(os.getcwd())'databricks bundle run my_scriptYapılandırma hakkında
scriptsdaha fazla bilgi için bkz. betikler ve betikler.
Paket kimlik doğrulama bilgileri, ortam değişkenleri kullanılarak alt işlemlere geçirilir. Bkz. Databricks birleşik kimlik doğrulaması.
Tartışmalar
KEY
Çalıştırılacak kaynağın benzersiz tanımlayıcısı (isteğe bağlı)
Seçenekler
--no-wait
Çalıştırmanın tamamlanmasını beklemeyin.
--restart
Zaten çalışıyorsa çalıştırmayı yeniden başlatın.
İş Bayrakları
Aşağıdaki bayraklar iş düzeyi parametre bayraklarıdır. bkz. İş parametrelerini yapılandırma.
--params stringToString
iş parametreleri için virgülle ayrılmış k=v çiftleri (varsayılan [])
İş Görevi Bayrakları
Aşağıdaki bayraklar görev düzeyi parametre bayraklarıdır. bkz. Görev parametrelerini yapılandırma. Databricks, görev düzeyi parametreleri üzerinden iş düzeyi parametreleri (--params) kullanılmasını önerir.
--dbt-commands strings
DBT görevleri olan işler için yürütülecek komutların listesi.
--jar-params strings
Spark JAR görevleri olan işler için parametrelerin listesi.
--notebook-params stringToString
Not defteri görevleri olan işler için anahtarlardan değerlere eşle. (varsayılan [])
--pipeline-params stringToString
İşlem hattı görevleri olan işler için anahtarlardan değerlere eşleme. (varsayılan [])
--python-named-params stringToString
Python tekerlek görevleri içeren işler için anahtarlardan değerlere eşle. (varsayılan [])
--python-params strings
Python görevleri olan işler için parametrelerin listesi.
--spark-submit-params strings
Spark gönderme görevleri olan işler için parametrelerin listesi.
--sql-params stringToString
Anahtarlardan SQL görevleri içeren işler için değerlere eşle. (varsayılan [])
İşlem Hattı Bayrakları
Aşağıdaki bayraklar işlem hattı bayraklarıdır.
--full-refresh strings
Sıfırlanıp yeniden derlenmiş tabloların listesi.
--full-refresh-all
Tam grafik sıfırlama ve yeniden derleme gerçekleştirin.
--refresh strings
Güncelleştirilecek tabloların listesi.
--refresh-all
Tam grafik güncelleştirmesi gerçekleştirin.
--validate-only
Graf doğruluğunu doğrulamak için bir güncelleştirme gerçekleştirin.
Örnekler
Aşağıdaki örnek, varsayılan hedefte bir iş hello_job çalıştırır:
databricks bundle run hello_job
Aşağıdaki örnek, adıyla hello_jobbildirilen bir hedef bağlamında bir iş dev çalıştırır:
databricks bundle run -t dev hello_job
Aşağıdaki örnek, var olan bir iş çalıştırmasını iptal eder ve yeniden başlatır:
databricks bundle run --restart hello_job
Aşağıdaki örnekte tam yenileme ile bir işlem hattı çalıştırılır:
databricks bundle run my_pipeline --full-refresh-all
Aşağıdaki örnek paket bağlamında bir komut yürütür:
databricks bundle run -- echo "hello, world"
databricks paket şeması
Paket yapılandırması için JSON Şemasını görüntüleyin.
databricks bundle schema [flags]
Seçenekler
Örnekler
Aşağıdaki örnek, paket yapılandırması için JSON şemasını çıkarmaktadır:
databricks bundle schema
Paket yapılandırma şemasını JSON dosyası olarak çıkarmak için komutunu çalıştırın bundle schema ve çıkışı bir JSON dosyasına yeniden yönlendirin. Örneğin, geçerli dizinde adlı bundle_config_schema.json bir dosya oluşturabilirsiniz:
databricks bundle schema > bundle_config_schema.json
databricks paket özeti
Databricks çalışma alanında kaynağa kolayca gidebilmeniz için kaynaklara yönelik ayrıntılı bağlantılar da dahil olmak üzere bir paket kimliğinin ve kaynaklarının özetini oluşturun.
databricks bundle summary [flags]
Tip
Databricks çalışma alanında bir kaynağa gitmek için de kullanabilirsiniz bundle open . Bkz. databricks paketi açık.
Seçenekler
--force-pull
Yerel önbelleği atlayın ve uzak çalışma alanından durumu yükleyin
Örnekler
Aşağıdaki örnek, bir paketin dağıtılan kaynaklarının özetini oluşturur:
databricks bundle summary
Aşağıdaki çıkış, bir işi ve işlem hattını tanımlayan adlı my_pipeline_bundle paketin özetidir:
Name: my_pipeline_bundle
Target: dev
Workspace:
Host: https://myworkspace.cloud.databricks.com
User: someone@example.com
Path: /Users/someone@example.com/.bundle/my_pipeline/dev
Resources:
Jobs:
my_project_job:
Name: [dev someone] my_project_job
URL: https://myworkspace.cloud.databricks.com/jobs/206000809187888?o=6051000018419999
Pipelines:
my_project_pipeline:
Name: [dev someone] my_project_pipeline
URL: https://myworkspace.cloud.databricks.com/pipelines/7f559fd5-zztz-47fa-aa5c-c6bf034b4f58?o=6051000018419999
databricks paket eşitlemesi
Bir paketin dosya değişikliklerini yerel bir dosya sistemi dizini içinde, uzak bir Azure Databricks çalışma alanı içindeki bir dizine tek yönlü eşitleme gerçekleştirin.
Note
bundle sync komutları, uzak Azure Databricks çalışma alanı içindeki bir dizindeki dosya değişikliklerini yerel bir dosya sistemi içindeki bir dizine eşitleyemez.
databricks bundle sync [flags]
databricks bundle sync komutları, databricks sync komutları ile aynı şekilde çalışır ve üretkenlik kolaylığı olarak sunulur. Komut kullanımı bilgileri için bkz sync . komut.
Seçenekler
--dry-run
Gerçek değişiklikler yapmadan eşitleme yürütme simülasyonu yapma
--full
Tam eşitleme gerçekleştirme (varsayılan değer artımlı)
--interval duration
Dosya sistemi yoklama aralığı (için --watch) (varsayılan 1'ler)
--output type
Çıkış biçiminin türü
--watch
Değişiklikler için yerel dosya sistemini izleme
Örnekler
Aşağıdaki örnek, bir kuru çalıştırma eşitlemesi gerçekleştirir:
databricks bundle sync --dry-run
Aşağıdaki örnek değişiklikleri izler ve otomatik olarak eşitlenir:
databricks bundle sync --watch
Aşağıdaki örnek tam eşitleme gerçekleştirir:
databricks bundle sync --full
databricks paketi doğrulama
Paket yapılandırma dosyalarının bozulmadan doğru olduğunu doğrulayın.
databricks bundle validate [flags]
Varsayılan olarak bu komut paket kimliğinin özetini döndürür:
Name: MyBundle
Target: dev
Workspace:
Host: https://my-host.cloud.databricks.com
User: someone@example.com
Path: /Users/someone@example.com/.bundle/MyBundle/dev
Validation OK!
Note
Kaynak bundle validate özellikleri ilgili nesnenin şemasında bulunmayan paket yapılandırma dosyalarında tanımlanıyorsa, komut uyarı gönderir.
Yalnızca paketin kimliğinin ve kaynaklarının özetini çıkarmak istiyorsanız paket özetini kullanın.
Seçenekler
Örnekler
Aşağıdaki örnek paket yapılandırmasını doğrular:
databricks bundle validate
Genel bayraklar
--debug
Hata ayıklama günlüğünün etkinleştirilip etkinleştirilmeyileceği.
-h veya --help
Databricks CLI veya ilgili komut grubu ya da ilgili komut için yardım görüntüleyin.
--log-file dizgi
Yazılım günlüklerini yazmak için kullanılacak dosyayı temsil eden bir metin. Bu bayrak belirtilmezse varsayılan değer, çıkış günlüklerini stderr'a yazmaktır.
--log-format biçim
Günlük biçimi türü, text veya json. Varsayılan değer şudur: text.
--log-level dizgi
Günlük format düzeyini temsil eden bir karakter dizisi. Belirtilmezse günlük format seviyesi devre dışı bırakılır.
-o, --output tür
Komut çıktı türü text veya json. Varsayılan değer şudur: text.
-p, --profile dizgi
Komutu çalıştırmak için kullanılacak dosyadaki ~/.databrickscfg profilin adı. Bu bayrak belirtilmezse ve varsa, DEFAULT adlı profil kullanılır.
--progress-format biçim
İlerleme günlüklerini görüntüleme biçimi: default, append, inplaceveya json
-t, --target dizgi
Varsa, kullanılacak paket hedefi
--var strings
paket yapılandırmasında tanımlanan değişkenler için değerleri ayarlayın. Örnek: --var="foo=bar"