Catatan
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba masuk atau mengubah direktori.
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba mengubah direktori.
Note
Informasi ini berlaku untuk Databricks CLI versi 0.205 ke atas. Databricks CLI ada di Pratinjau Publik.
Penggunaan Databricks CLI tunduk pada Lisensi Databricks dan Pemberitahuan Privasi Databricks, termasuk ketentuan Data Penggunaan apa pun.
bundle Grup perintah dalam Databricks CLI berisi perintah untuk mengelola Bundel Aset Databricks. Bundel Aset Databricks memungkinkan Anda mengekspresikan proyek sebagai kode dan memvalidasi, menyebarkan, dan menjalankan alur kerja Azure Databricks secara terprogram seperti pekerjaan Azure Databricks, Alur Deklaratif Lakeflow Spark, dan Tumpukan MLOps . Lihat Apa itu Bundel Aset Databricks?.
Note
Perintah bundel menggunakan pengaturan di databricks.yml untuk autentikasi saat dijalankan dari dalam folder bundel. Jika Anda ingin menjalankan perintah bundel dengan autentikasi yang berbeda dari dalam folder bundel, tentukan profil konfigurasi menggunakan --profile bendera (atau -p) dan jangan tentukan --target.
Atau, jalankan perintah yang tidak memerlukan otentikasi yang sama dengan bundel dari luar folder bundel.
penyebaran bundel databricks
Sebarkan bundel ke ruang kerja jarak jauh.
databricks bundle deploy [flags]
Target bundel dan identitas
Untuk menyebarkan bundel ke target tertentu, atur -t opsi (atau --target) bersama dengan nama target seperti yang dinyatakan dalam file konfigurasi bundel. Jika tidak ada opsi perintah yang ditentukan, target default seperti yang dinyatakan dalam file konfigurasi bundel digunakan. Misalnya, untuk target yang dideklarasikan dengan nama dev:
databricks bundle deploy -t dev
Bundel dapat disebarkan ke beberapa ruang kerja, seperti ruang kerja pengembangan, penahapan, dan produksi. Pada dasarnya, properti root_path adalah yang menentukan identitas unik bundel, yang secara default menjadi ~/.bundle/${bundle.name}/${bundle.target}. Oleh karena itu secara default, identitas bundel terdiri dari identitas penyebar, nama bundel, dan nama target bundel. Jika ini identik di berbagai bundel, penyebaran bundel ini akan mengganggu satu sama lain.
Selain itu, penyebaran bundel melacak sumber daya yang dibuatnya di ruang kerja target berdasarkan ID mereka sebagai keadaan yang disimpan dalam sistem file ruang kerja. Nama sumberdaya tidak digunakan untuk menghubungkan antara penyebaran bundel dan instans sumberdaya, jadi:
- Jika sumber daya dalam konfigurasi bundel tidak ada di ruang kerja target, sumber daya tersebut dibuat.
- Jika sumber daya dalam konfigurasi bundel ada di ruang kerja target, sumber daya diperbarui di ruang kerja.
- Jika sumber daya dihapus dari konfigurasi bundel, sumber daya dihapus dari ruang kerja target jika sebelumnya disebarkan.
- Asosiasi sumber daya dengan bundel hanya dapat dilupakan jika Anda mengubah nama bundel, target bundel, atau ruang kerja. Anda dapat menjalankan
bundle validateuntuk menghasilkan ringkasan yang berisi nilai-nilai ini.
Opsi
--auto-approve
Lewati persetujuan interaktif yang mungkin diperlukan untuk penyebaran.
-c, --cluster-id string
Ambil alih kluster dalam penyebaran dengan ID kluster yang diberikan.
--fail-on-active-runs
Gagal jika ada pekerjaan atau alur yang sedang berjalan dalam penyebaran.
--force
Ambil alih paksa validasi cabang Git.
--force-lock
Paksa akuisisi kunci penyebaran.
--plan
Jalur ke file rincian JSON untuk diterapkan alih-alih perencanaan (hanya mesin langsung). File rencana dapat dibuat menggunakan databricks bundle plan -o json.
Contoh
Contoh berikut menyebarkan bundel menggunakan ID kluster tertentu:
databricks bundle deploy --cluster-id 0123-456789-abcdef
penyebaran bundel databricks
Perintah terkait penyebaran.
databricks bundle deployment [command]
Perintah yang Tersedia
-
bind- Mengikat sumber daya yang ditentukan bundel ke sumber daya yang ada di ruang kerja jarak jauh. -
migrate- Memigrasikan bundel untuk menggunakan mesin penyaluran langsung. -
unbind- Batalkan ikatan sumber daya yang ditentukan bundel dari sumber daya jarak jauhnya.
pengikatan penyebaran bundel databricks
Tautkan sumber daya yang ditentukan bundel ke sumber daya yang ada di ruang kerja Azure Databricks sehingga sumber daya tersebut dikelola oleh Bundel Aset Databricks. Jika Anda mengikat satu sumber daya, maka sumber daya Azure Databricks yang ada di ruang kerja akan diperbarui berdasarkan konfigurasi yang telah ditentukan dalam bundel yang terikat setelah langkah berikutnya bundle deploy.
databricks bundle deployment bind KEY RESOURCE_ID [flags]
Pengikatan tidak mereproduksi data. Misalnya, jika pipeline dengan data dalam katalog telah pengikatan diterapkan, Anda dapat melakukan deployment ke pipeline tersebut tanpa kehilangan data yang ada. Selain itu, Anda tidak perlu mengolah ulang tampilan Materialisasi, misalnya, sehingga alur tidak perlu dieksekusi ulang.
Perintah 'bind' harus digunakan dengan --target flag. Misalnya, ikat penyebaran produksi Anda ke alur produksi Anda menggunakan databricks bundle deployment bind --target prod my_pipeline 7668611149d5709ac9-2906-1229-9956-586a9zed8929
Tip
Sebaiknya memastikan sumber daya di ruang kerja sebelum menjalankan bind.
Ikatan didukung untuk sumber daya berikut:
- app
- cluster
- dashboard
- job
- model_serving_endpoint
- pipeline
- quality_monitor
- registered_model
- schema
- volume
Untuk sumber daya yang didukung oleh perintah bundle generate, secara otomatis mengikat sumber daya setelah pembuatan dengan menggunakan opsi --bind.
Argumen
KEY
Kunci sumber daya untuk menghubungkan
RESOURCE_ID
ID sumber daya yang ada untuk diikat
Opsi
--auto-approve
Menyetujui pengikatan secara otomatis, alih-alih meminta
--force-lock
Paksa akuisisi kunci penyebaran
Contoh
Perintah berikut mengikat sumber daya hello_job ke mitra jarak jauhnya di ruang kerja. Perintah menghasilkan diff dan memungkinkan Anda menolak pengikatan sumber daya, tetapi jika dikonfirmasi, setiap pembaruan terhadap definisi pekerjaan dalam bundel akan diterapkan ke pekerjaan jarak jauh yang sesuai saat penyebaran bundel berikutnya.
databricks bundle deployment bind hello_job 6565621249
Migrasi penyebaran bundel databricks
Important
Fitur ini bersifat Percobaan.
Migrasikan bundel dari menggunakan mesin penyebaran Terraform ke menggunakan mesin penyebaran langsung. Lihat Bermigrasi ke mesin penyebaran langsung. Untuk menyelesaikan migrasi, Anda kemudian harus mengimplementasikan bundel.
Anda dapat memverifikasi bahwa migrasi berhasil dengan menjalankan databricks bundle plan. Lihat rencana paket bundel databricks.
databricks bundle deployment migrate [flags]
Argumen
None
Opsi
Contoh
Contoh berikut memigrasikan bundel saat ini untuk menggunakan mesin penyebaran langsung:
databricks bundle deployment migrate
penyebaran bundel databricks tidak mengikat
Hapus tautan antara sumber daya dalam bundel dan mitra jarak jauhnya di ruang kerja.
databricks bundle deployment unbind KEY [flags]
Argumen
KEY
Kunci sumber daya untuk membatalkan ikatan
Opsi
--force-lock
Paksa akuisisi kunci penyebaran.
Contoh
Contoh berikut membatalkan pengikatan hello_job sumber daya:
databricks bundle deployment unbind hello_job
penghancuran bundel databricks
Warning
Menghancurkan bundel secara permanen akan menghapus pekerjaan, pipeline, dan artefak yang sebelumnya disebarkan dalam bundel tersebut. Tindakan ini tidak dapat dibatalkan.
Hapus pekerjaan, alur, sumber daya lain, dan artefak yang sebelumnya disebarkan.
databricks bundle destroy [flags]
Note
Identitas bundel terdiri dari nama bundel, target bundel, dan ruang kerja. Jika Anda telah mengubah salah satu dari ini dan kemudian mencoba menghancurkan bundel sebelum proses penyebaran, kesalahan akan terjadi.
Secara bawaan, Anda akan diminta untuk mengonfirmasi penghapusan permanen atas pekerjaan, alur, dan artefak yang telah disebarkan sebelumnya. Untuk melewati perintah ini dan melakukan penghapusan permanen otomatis, tambahkan --auto-approve opsi ke bundle destroy perintah .
Opsi
--auto-approve
Lewati persetujuan interaktif untuk menghapus sumber daya dan file
--force-lock
Paksa akuisisi kunci penyebaran.
Contoh
Perintah berikut menghapus semua sumber daya dan artefak yang disebarkan sebelumnya yang ditentukan dalam file konfigurasi bundel:
databricks bundle destroy
hasil bundel databricks
Buat konfigurasi bundel untuk sumber daya yang sudah ada di ruang kerja Databricks Anda. Sumber daya berikut didukung: aplikasi, dasbor, pekerjaan, alur.
Secara bawaan, perintah ini menghasilkan file *.yml untuk sumber daya di folder resources proyek bundel dan juga mengunduh file apa pun, seperti notebook yang dirujuk dalam konfigurasi.
Important
bundle generate Perintah disediakan sebagai kenyamanan untuk membuat konfigurasi sumber daya secara otomatis. Namun, jika bundel Anda menyertakan konfigurasi sumber daya dan Anda menyebarkannya, Azure Databricks membuat sumber daya baru daripada memperbarui yang sudah ada. Untuk memperbarui sumber daya yang sudah ada, Anda harus menggunakan --bind parameter bersama bundle generate atau menjalankan bundle deployment bind sebelum mengaktifkan. Lihat pengikatan penyebaran bundel databricks.
databricks bundle generate [command]
Perintah yang Tersedia
-
app- Hasilkan konfigurasi bundel untuk aplikasi Databricks. -
dashboard- Buat konfigurasi untuk dasbor. -
job- Hasilkan konfigurasi bundel untuk pekerjaan. -
pipeline- Hasilkan konfigurasi bundel untuk alur.
Opsi
--key string
Kunci sumber daya yang akan digunakan untuk konfigurasi yang dihasilkan
aplikasi hasilkan bundel databricks
Buat konfigurasi bundel untuk aplikasi Databricks yang ada di ruang kerja.
databricks bundle generate app [flags]
Opsi
--bind
Secara otomatis mengikat sumber daya yang dihasilkan dengan sumber daya yang ada di ruang kerja.
-d, --config-dir string
Jalur direktori tempat konfigurasi bundel output akan disimpan (default "sumber daya")
--existing-app-name string
Nama aplikasi untuk menghasilkan konfigurasi untuk
-f, --force
Paksa timpa file yang ada di direktori output
-s, --source-dir string
Jalur direktori tempat file aplikasi akan disimpan (default "src/app")
Contoh
Contoh berikut menghasilkan konfigurasi untuk aplikasi yang sudah ada bernama my-app. Anda bisa mendapatkan nama aplikasi dari tab Aplikasi Komputasi> di antarmuka pengguna ruang kerja.
databricks bundle generate app --existing-app-name my-app
Perintah berikut menghasilkan file baru hello_world.app.yml di resources folder proyek bundel, dan mengunduh file kode aplikasi, seperti file app.yaml konfigurasi perintah aplikasi dan utama app.py. Secara default, file kode disalin ke folder bundel src .
databricks bundle generate app --existing-app-name "hello_world"
# This is the contents of the resulting /resources/hello-world.app.yml file.
resources:
apps:
hello_world:
name: hello-world
description: A basic starter application.
source_code_path: ../src/app
bundel databricks menghasilkan dasbor
Buat konfigurasi untuk dasbor yang sudah ada di ruang kerja.
databricks bundle generate dashboard [flags]
Tip
Untuk memperbarui file .lvdash.json setelah Anda menyebarkan dasbor, gunakan opsi --resource saat Anda menjalankan bundle generate dashboard untuk menghasilkan file tersebut untuk sumber daya dasbor yang ada. Untuk terus melakukan polling dan mengambil pembaruan untuk dasbor, gunakan opsi --force dan --watch.
Opsi
--bind
Secara otomatis mengikat sumber daya yang dihasilkan dengan sumber daya yang ada di ruang kerja.
-s, --dashboard-dir string
Direktori untuk menulis representasi dasbor ke (default "src")
--existing-id string
ID dasbor untuk menghasilkan konfigurasi
--existing-path string
Jalur ruang kerja dasbor untuk menghasilkan konfigurasi
-f, --force
Paksa timpa file yang ada di direktori output
--resource string
Kunci sumber daya dasbor untuk mengawasi perubahan
-d, --resource-dir string
Direktori untuk menulis konfigurasi ke (default "sumber daya")
--watch
Perhatikan perubahan pada dasbor dan perbarui konfigurasi
Contoh
Contoh berikut menghasilkan konfigurasi dengan ID dasbor yang ada:
databricks bundle generate dashboard --existing-id abc123
Anda juga dapat menghasilkan konfigurasi untuk dasbor yang ada menurut jalur ruang kerja. Salin jalur ruang kerja untuk dasbor dari UI ruang kerja.
Misalnya, perintah berikut menghasilkan file baru baby_gender_by_county.dashboard.yml di resources folder proyek bundel yang berisi YAML di bawah ini, dan mengunduh baby_gender_by_county.lvdash.json file ke src folder proyek.
databricks bundle generate dashboard --existing-path "/Workspace/Users/someone@example.com/baby_gender_by_county.lvdash.json"
# This is the contents of the resulting baby_gender_by_county.dashboard.yml file.
resources:
dashboards:
baby_gender_by_county:
display_name: 'Baby gender by county'
warehouse_id: aae11o8e6fe9zz79
file_path: ../src/baby_gender_by_county.lvdash.json
bundel databricks menghasilkan pekerjaan
Hasilkan konfigurasi bundel untuk pekerjaan.
Note
Saat ini, hanya pekerjaan dengan tugas buku catatan yang didukung oleh perintah ini.
databricks bundle generate job [flags]
Opsi
--bind
Secara otomatis mengikat sumber daya yang dihasilkan dengan sumber daya yang ada di ruang kerja.
-d, --config-dir string
Jalur dir tempat konfigurasi output akan disimpan (default "sumber daya")
--existing-job-id int
ID pekerjaan pekerjaan untuk menghasilkan konfigurasi untuk
-f, --force
Paksa timpa file yang ada di direktori output
-s, --source-dir string
Jalur dir tempat file yang diunduh akan disimpan (default "src")
Contoh
Contoh berikut menghasilkan file baru hello_job.yml di resources folder proyek bundel yang berisi YAML di bawah ini, dan mengunduh simple_notebook.py ke src folder proyek. Ini juga mengikat sumber daya yang dihasilkan dengan pekerjaan yang ada di ruang kerja.
databricks bundle generate job --existing-job-id 6565621249 --bind
# This is the contents of the resulting hello_job.yml file.
resources:
jobs:
hello_job:
name: 'Hello Job'
tasks:
- task_key: run_notebook
email_notifications: {}
notebook_task:
notebook_path: ../src/simple_notebook.py
source: WORKSPACE
run_if: ALL_SUCCESS
max_concurrent_runs: 1
bundel databricks menghasilkan alur
Hasilkan konfigurasi bundel untuk pipeline yang ada.
databricks bundle generate pipeline [flags]
Tip
Jika Anda memiliki proyek Spark Declarative Pipelines (SDP) yang ada, Anda dapat menghasilkan konfigurasi untuk itu menggunakan databricks pipelines generate. Lihat databricks pipelines generate.
Opsi
--bind
Secara otomatis mengikat sumber daya yang dihasilkan dengan sumber daya yang ada di ruang kerja.
-d, --config-dir string
Jalur dir tempat konfigurasi output akan disimpan (default "sumber daya")
--existing-pipeline-id string
ID alur untuk menghasilkan konfigurasi untuk
-f, --force
Paksa timpa file yang ada di direktori output
-s, --source-dir string
Jalur dir tempat file yang diunduh akan disimpan (default "src")
Contoh
Contoh berikut menghasilkan konfigurasi untuk alur yang ada:
databricks bundle generate pipeline --existing-pipeline-id abc-123-def
init bundel databricks
Menginisialisasi bundel baru menggunakan templat bundel. Templat dapat dikonfigurasi untuk meminta nilai kepada pengguna. Lihat Templat proyek Bundel Aset Databricks.
databricks bundle init [TEMPLATE_PATH] [flags]
Argumen
TEMPLATE_PATH
Templat yang digunakan untuk inisialisasi (opsional)
Opsi
--branch string
Cabang Git yang akan digunakan untuk inisialisasi templat
--config-file string
File JSON yang berisi pasangan nilai kunci parameter input yang diperlukan untuk inisialisasi templat.
--output-dir string
Direktori untuk menulis templat yang diinisialisasi.
--tag string
Tag Git yang akan digunakan untuk inisialisasi templat
--template-dir string
Jalur direktori dalam repositori Git yang berisi templat.
Contoh
Contoh berikut meminta dengan daftar templat bundel default untuk dipilih:
databricks bundle init
Contoh berikut menginisialisasi bundel menggunakan templat Python default:
databricks bundle init default-python
Untuk membuat Bundel Aset Databricks menggunakan templat Bundel Aset Databricks kustom, tentukan jalur templat kustom:
databricks bundle init <project-template-local-path-or-url> \
--project-dir="</local/path/to/project/template/output>"
Contoh berikut menginisialisasi bundel dari repositori Git:
databricks bundle init https://github.com/my/repository
Contoh berikut menginisialisasi dengan cabang tertentu:
databricks bundle init --branch main
bundel databricks terbuka
Navigasikan ke sumber daya bundel di ruang kerja, menentukan sumber daya yang akan dibuka. Jika kunci sumber daya tidak ditentukan, perintah ini menghasilkan daftar sumber daya bundel untuk dipilih.
databricks bundle open [flags]
Opsi
--force-pull
Lewati cache lokal dan muat status dari ruang kerja jarak jauh
Contoh
Contoh berikut meluncurkan browser dan menavigasi ke baby_gender_by_county dasbor di bundel di ruang kerja Databricks yang dikonfigurasi untuk bundel:
databricks bundle open baby_gender_by_county
rencana paket databricks
Tampilkan rencana penyebaran untuk konfigurasi bundel saat ini.
Perintah ini membangun bundel dan menampilkan tindakan yang akan dilakukan pada sumber daya yang akan disebarkan, tanpa membuat perubahan apa pun. Ini memungkinkan Anda untuk mempratinjau perubahan sebelum menjalankan bundle deploy.
databricks bundle plan [flags]
Opsi
-c, --cluster-id string
Ambil alih kluster dalam penyebaran dengan ID kluster yang diberikan.
--force
Ambil alih paksa validasi cabang Git.
Contoh
Contoh berikut menghasilkan rencana penyebaran untuk bundel yang membangun roda Python, dan menentukan pekerjaan dan alur:
databricks bundle plan
Building python_artifact...
create jobs.my_bundle_job
create pipelines.my_bundle_pipeline
Eksekusi bundel databricks
Jalankan pekerjaan, alur, atau skrip. Jika Anda tidak menentukan sumber daya, perintah akan meminta pekerjaan, alur, dan skrip yang ditentukan untuk dipilih. Atau, tentukan kunci pekerjaan atau alur atau nama skrip yang dideklarasikan dalam file konfigurasi bundel.
databricks bundle run [flags] [KEY]
Memvalidasi alur kerja
Jika Anda ingin melakukan validasi alur, gunakan opsi --validate-only, seperti yang diperlihatkan dalam contoh berikut:
databricks bundle run --validate-only my_pipeline
Meneruskan parameter pekerjaan
Untuk meneruskan parameter pekerjaan, gunakan opsi --params, diikuti oleh pasangan kunci-nilai yang dipisahkan dengan koma, di mana kunci adalah nama parameter. Misalnya, perintah berikut mengatur parameter dengan nama message ke HelloWorld untuk pekerjaan hello_job:
databricks bundle run --params message=HelloWorld hello_job
Note
Seperti yang ditunjukkan dalam contoh berikut, Anda dapat meneruskan parameter ke tugas pekerjaan menggunakan opsi tugas pekerjaan, tetapi --params opsinya adalah metode yang direkomendasikan untuk meneruskan parameter pekerjaan. Kesalahan terjadi jika parameter pekerjaan ditentukan untuk pekerjaan yang tidak memiliki parameter pekerjaan yang ditentukan atau jika parameter tugas ditentukan untuk pekerjaan yang memiliki parameter pekerjaan yang ditentukan.
Anda juga dapat menentukan kata kunci atau argumen posisi. Jika pekerjaan yang ditentukan menggunakan parameter pekerjaan atau pekerjaan memiliki tugas notebook dengan parameter, nama bendera dipetakan ke nama parameter:
databricks bundle run hello_job -- --key1 value1 --key2 value2
Atau jika pekerjaan yang ditentukan tidak menggunakan parameter pekerjaan dan pekerjaan memiliki tugas file Python atau tugas roda Python:
databricks bundle run my_job -- value1 value2 value3
Untuk contoh definisi pekerjaan dengan parameter, lihat Pekerjaan dengan parameter.
Menjalankan skrip
Untuk menjalankan skrip seperti pengujian integrasi dengan kredensial autentikasi bundel yang dikonfigurasi, Anda dapat menjalankan skrip sebaris atau menjalankan skrip yang ditentukan dalam konfigurasi bundel. Skrip dijalankan menggunakan konteks autentikasi yang sama yang dikonfigurasi dalam bundel.
Tambahkan tanda hubung ganda (
--) setelahbundle rununtuk menjalankan skrip sebaris. Misalnya, perintah berikut menghasilkan direktori kerja pengguna saat ini:databricks bundle run -- python3 -c 'import os; print(os.getcwd())'Atau, tentukan skrip dalam
scriptspemetaan pada konfigurasi bundel Anda, lalu gunakanbundle rununtuk menjalankan skrip.scripts: my_script: content: python3 -c 'import os; print(os.getcwd())'databricks bundle run my_scriptUntuk informasi selengkapnya tentang
scriptskonfigurasi, lihat skrip dan skrip.
Informasi autentikasi bundel diteruskan ke proses turunan menggunakan variabel lingkungan sistem. Lihat Autentikasi terpadu Databricks.
Argumen
KEY
Pengidentifikasi unik sumber daya yang akan dijalankan (opsional)
Opsi
--no-wait
Jangan menunggu eksekusi selesai.
--restart
Mulai ulang eksekusi jika sudah berjalan.
Bendera Pekerjaan
Bendera berikut adalah bendera parameter tingkat pekerjaan. Lihat Mengonfigurasi parameter pekerjaan.
--params stringToString
pasangan k=v yang dipisahkan koma untuk parameter pekerjaan (default [])
Bendera Tugas Pekerjaan
Bendera berikut adalah bendera parameter tingkat tugas. Lihat Mengonfigurasi parameter tugas. Databricks merekomendasikan penggunaan parameter tingkat pekerjaan (--params) melalui parameter tingkat tugas.
--dbt-commands strings
Daftar perintah yang akan dijalankan untuk pekerjaan dengan tugas DBT.
--jar-params strings
Daftar parameter untuk pekerjaan dengan tugas Spark JAR.
--notebook-params stringToString
Peta dari kunci ke nilai untuk pekerjaan dengan tugas buku catatan. (default [])
--pipeline-params stringToString
Peta dari kunci ke nilai untuk pekerjaan dengan tugas alur. (default [])
--python-named-params stringToString
Peta dari kunci ke nilai untuk pekerjaan dengan tugas roda Python. (default [])
--python-params strings
Daftar parameter untuk pekerjaan dengan tugas Python.
--spark-submit-params strings
Daftar parameter untuk pekerjaan dengan Spark mengirimkan tugas.
--sql-params stringToString
Peta dari kunci ke nilai untuk pekerjaan dengan tugas SQL. (default [])
Bendera Alur
Bendera berikut adalah bendera alur.
--full-refresh strings
Daftar tabel yang akan direset dan dikomparteksi ulang.
--full-refresh-all
Lakukan reset grafik lengkap dan komputasi ulang.
--refresh strings
Daftar tabel yang akan diperbarui.
--refresh-all
Lakukan pembaruan grafik lengkap.
--validate-only
Lakukan pembaruan untuk memvalidasi kebenaran grafik.
Contoh
Contoh berikut menjalankan pekerjaan hello_job di target default:
databricks bundle run hello_job
Contoh berikut menjalankan pekerjaan hello_job dalam konteks target yang dideklarasikan dengan nama dev:
databricks bundle run -t dev hello_job
Contoh berikut membatalkan dan memulai ulang eksekusi pekerjaan yang ada:
databricks bundle run --restart hello_job
Contoh berikut menjalankan alur dengan refresh penuh:
databricks bundle run my_pipeline --full-refresh-all
Contoh berikut menjalankan perintah dalam konteks bundel:
databricks bundle run -- echo "hello, world"
skema bundel databricks
Tampilkan Skema JSON untuk konfigurasi bundel.
databricks bundle schema [flags]
Opsi
Contoh
Contoh berikut menghasilkan skema JSON untuk konfigurasi bundel:
databricks bundle schema
Untuk menghasilkan skema konfigurasi bundel sebagai file JSON, jalankan bundle schema perintah dan alihkan output ke file JSON. Misalnya, Anda dapat membuat file bernama bundle_config_schema.json dalam direktori saat ini:
databricks bundle schema > bundle_config_schema.json
ringkasan bundel databricks
Keluarkan ringkasan identitas dan sumber daya bundel, termasuk tautan mendalam untuk sumber daya sehingga Anda dapat dengan mudah menavigasi ke sumber daya di ruang kerja Databricks.
databricks bundle summary [flags]
Tip
Anda juga dapat menggunakan bundle open untuk menavigasi ke sumber daya di ruang kerja Databricks. Lihat bundel databricks terbuka.
Opsi
--force-pull
Lewati cache lokal dan muat status dari ruang kerja jarak jauh
Contoh
Contoh berikut menghasilkan ringkasan sumber daya bundel yang disebarkan:
databricks bundle summary
Output berikut adalah ringkasan bundel bernama my_pipeline_bundle yang menentukan pekerjaan dan alur:
Name: my_pipeline_bundle
Target: dev
Workspace:
Host: https://myworkspace.cloud.databricks.com
User: someone@example.com
Path: /Users/someone@example.com/.bundle/my_pipeline/dev
Resources:
Jobs:
my_project_job:
Name: [dev someone] my_project_job
URL: https://myworkspace.cloud.databricks.com/jobs/206000809187888?o=6051000018419999
Pipelines:
my_project_pipeline:
Name: [dev someone] my_project_pipeline
URL: https://myworkspace.cloud.databricks.com/pipelines/7f559fd5-zztz-47fa-aa5c-c6bf034b4f58?o=6051000018419999
sinkronisasi bundel databricks
Lakukan sinkronisasi satu arah dari perubahan file bundel dalam direktori sistem file lokal, ke direktori dalam ruang kerja Azure Databricks jarak jauh.
Note
bundle sync perintah tidak dapat menyinkronkan perubahan file dari direktori dalam ruang kerja Azure Databricks jarak jauh, kembali ke direktori dalam sistem file lokal.
databricks bundle sync [flags]
databricks bundle sync perintah bekerja dengan cara yang sama seperti databricks sync perintah dan disediakan sebagai kenyamanan produktivitas. Untuk informasi penggunaan perintah, lihat sync perintah.
Opsi
--dry-run
Mensimulasikan eksekusi sinkronisasi tanpa membuat perubahan aktual
--full
Melakukan sinkronisasi penuh (defaultnya bertahap)
--interval duration
Interval polling sistem file (untuk --watch) (default 1s)
--output type
Jenis format output
--watch
Pantau sistem file lokal untuk perubahan
Contoh
Contoh berikut melakukan sinkronisasi dry run:
databricks bundle sync --dry-run
Contoh berikut mengawasi perubahan dan sinkronisasi secara otomatis:
databricks bundle sync --watch
Contoh berikut melakukan sinkronisasi penuh:
databricks bundle sync --full
validasi bundel databricks
Memvalidasi file konfigurasi bundel secara sintis benar.
databricks bundle validate [flags]
Secara default perintah ini mengembalikan ringkasan identitas bundel:
Name: MyBundle
Target: dev
Workspace:
Host: https://my-host.cloud.databricks.com
User: someone@example.com
Path: /Users/someone@example.com/.bundle/MyBundle/dev
Validation OK!
Note
Perintah bundle validate mengeluarkan peringatan jika properti sumber daya ditentukan dalam file konfigurasi bundel yang tidak ditemukan dalam skema objek yang sesuai.
Jika Anda hanya ingin menghasilkan ringkasan identitas dan sumber daya bundel, gunakan ringkasan bundel.
Opsi
Contoh
Contoh berikut memvalidasi konfigurasi bundel:
databricks bundle validate
Bendera dunia
--debug
Apakah debug logging ingin diaktifkan?
-h atau --help
Tampilkan bantuan untuk Databricks CLI atau grup perintah terkait atau perintah terkait.
--log-file tali
String yang mewakili file yang akan digunakan untuk menulis log output. Jika bendera ini tidak ditentukan, maka defaultnya adalah menulis log output ke stderr.
--log-format Format
Jenis format log, text atau json. Nilai defaultnya adalah text.
--log-level tali
Untaian yang menggambarkan tingkat format log. Jika tidak ditentukan, maka tingkat format log akan dinonaktifkan.
-o, --output jenis
Jenis output perintah, text atau json. Nilai defaultnya adalah text.
-p, --profile tali
Nama profil dalam file ~/.databrickscfg yang digunakan untuk menjalankan perintah. Jika bendera ini tidak ditentukan maka jika ada, profil bernama DEFAULT digunakan.
--progress-format Format
Format untuk menampilkan log kemajuan: default, , append, inplaceatau json
-t, --target tali
Jika berlaku, target bundel yang akan digunakan
--var strings
atur nilai untuk variabel yang ditentukan dalam konfigurasi bundel. Contoh: --var="foo=bar"