注
この情報は、Databricks CLI バージョン 0.205 以降に適用されます。 Databricks CLI は パブリック プレビュー段階です。
Databricks CLI の使用には、使用状況データのプロビジョニングを含め、 Databricks ライセンス と Databricks のプライバシーに関する通知が適用されます。
bundle 内の コマンド グループには、Databricks アセット バンドルを管理するためのコマンドが含まれています。 Databricks アセット バンドルを使用すると、プロジェクトをコードとして表現し、Azure Databricks ジョブ、 Lakeflow Spark 宣言パイプライン、 MLOps スタックなどの Azure Databricks ワークフローをプログラムで検証、デプロイ、実行できます。
Databricks アセット バンドルとはを参照してください。
注
バンドル コマンドは、バンドル フォルダー内から実行するときに認証に databricks.yml の設定を使用します。 バンドル フォルダー内とは異なる認証を使用してバンドル コマンドを実行する場合は、 (または--profile) フラグを使用して-pを指定し、--targetを指定しないでください。
または、バンドル フォルダーの外部からバンドルと同じ認証を必要としないコマンドを実行します。
databricks バンドルのデプロイ
バンドルをリモート ワークスペースにデプロイします。
databricks bundle deploy [flags]
バンドル ターゲットと ID
バンドルを特定のターゲットにデプロイするには、バンドル構成ファイル内で宣言されているターゲットの名前と共に -t (または --target) オプションを設定します。 コマンド オプションが指定されていない場合は、バンドル構成ファイル内で宣言されている既定のターゲットが使用されます。 たとえば、dev という名前で宣言されたターゲットの場合は、次のように指定します。
databricks bundle deploy -t dev
バンドルは、開発、ステージング、運用ワークスペースなど、複数のワークスペースにデプロイできます。 基本的に、 root_path プロパティはバンドルの一意の ID を決定するプロパティであり、既定では ~/.bundle/${bundle.name}/${bundle.target}。 そのため、既定では、バンドルの ID は、展開者の ID、バンドルの名前、およびバンドルのターゲット名で構成されます。 これらが異なるバンドル間で同一である場合、これらのバンドルのデプロイは相互に干渉します。
さらに、バンドルのデプロイでは、ターゲット ワークスペースに作成されたリソースが、ID ごとにワークスペース ファイル システムに保存されている状態として追跡されます。 リソース名は、バンドルのデプロイとリソース インスタンスの間の関連付けに使用されないため、次のようになります。
- バンドル構成のリソースがターゲット ワークスペースに存在しない場合は、自動的に作成されます。
- バンドル構成のリソースがターゲット ワークスペースに存在する場合は、ワークスペース内で更新されます。
- リソースがバンドル構成から削除された場合、以前にデプロイされていた場合は、ターゲット ワークスペースからも削除されます。
- リソースとバンドルの関連付けは、バンドル名、バンドル ターゲット、またはワークスペースを変更した場合にのみ忘れ去ることができます。
bundle validateを実行すると、これらの値を含む概要を出力できます。
オプション
--auto-approve
デプロイに必要な対話型承認をスキップします。
-c, --cluster-id string
特定のクラスター ID を使用して、デプロイ内のクラスターをオーバーライドします。
--fail-on-active-runs
デプロイに実行中のジョブまたはパイプラインがある場合は失敗します。
--force
Git ブランチの検証を強制オーバーライドします。
--force-lock
展開ロックの取得を強制します。
例示
次の例では、特定のクラスター ID を使用してバンドルをデプロイします。
databricks bundle deploy --cluster-id 0123-456789-abcdef
databricks バンドルのデプロイ
デプロイ関連のコマンド。
databricks bundle deployment [command]
使用可能なコマンド
-
bind- バンドル定義リソースをリモート ワークスペース内の既存のリソースにバインドします。 -
unbind- バンドル定義リソースをリモート リソースからバインド解除します。
databricks バンドルのデプロイ バインド
バンドル定義リソースを Azure Databricks ワークスペース内の既存のリソースにリンクして、Databricks アセット バンドルによって管理されるようにします。 リソースをバインドすると、ワークスペース内の既存の Azure Databricks リソースは、次の bundle deployの後にバインドされるバンドルで定義されている構成に基づいて更新されます。
databricks bundle deployment bind KEY RESOURCE_ID [flags]
バインドでは、データは再作成されません。 たとえば、カタログ内のデータを含むパイプラインにバインドが適用されている場合は、既存のデータを失うことなく、そのパイプラインにデプロイできます。 さらに、たとえば、具体化されたビューを再計算する必要がないため、パイプラインを再実行する必要はありません。
バインド コマンドは、 --target フラグと共に使用する必要があります。 たとえば、databricks bundle deployment bind --target prod my_pipeline 7668611149d5709ac9-2906-1229-9956-586a9zed8929 を使用して運用デプロイを運用パイプラインにバインドできます。
ヒント
バインドを実行する前に、ワークスペース内のリソースを確認することをお勧めします。
バインドは、次のリソースでサポートされています。
bundle generate コマンドでサポートされているリソースの場合は、--bind オプションを使用して、生成後にリソースを自動的にバインドします。
論争
KEY
バインドするリソース キー
RESOURCE_ID
バインドする既存のリソースの ID
オプション
--auto-approve
メッセージを表示するのではなく、バインドを自動的に承認する
--force-lock
展開ロックの取得を強制します。
例示
次のコマンドは、リソース hello_job をワークスペース内のリモートの対応するリソースにバインドします。 このコマンドは差分を出力し、ユーザーにリソースのバインドを拒否するオプションを提供しますが、ユーザーが承認した場合は、次回のバンドルのデプロイ時に、対応するリモート ジョブに差分 (バンドル内のジョブ定義に加えられたすべての更新内容) が適用されます。
databricks bundle deployment bind hello_job 6565621249
databricks バンドルの展開のバインド解除
バンドル内のリソースとそのワークスペース内のリモート 対応するリソースの間のリンクを削除します。
databricks bundle deployment unbind KEY [flags]
論争
KEY
バインドを解除するリソース キー
オプション
--force-lock
展開ロックの取得を強制します。
例示
次の例では、 hello_job リソースのバインドを解除します。
databricks bundle deployment unbind hello_job
databricks バンドルの破棄
警告
バンドルを破棄すると、バンドルの以前にデプロイされたジョブ、パイプライン、成果物が完全に削除されます。 この削除操作は元に戻すことができません。
以前にデプロイされたジョブ、パイプライン、その他のリソース、成果物を削除します。
databricks bundle destroy [flags]
注
バンドルの ID は、バンドル名、バンドル ターゲット、ワークスペースで構成されます。 これらのいずれかを変更した後、デプロイする前にバンドルを破棄しようとすると、エラーが発生します。
既定では、以前にデプロイされたジョブ、パイプライン、成果物の完全な削除を確認するメッセージが表示されます。 これらのプロンプトをスキップし、自動的に完全削除を実行するには、--auto-approve オプションを bundle destroy コマンドに追加します。
オプション
--auto-approve
リソースとファイルを削除するための対話型承認をスキップする
--force-lock
展開ロックの取得を強制します。
例示
次のコマンドは、バンドル構成ファイルで定義されている、以前にデプロイされたすべてのリソースと成果物を削除します。
databricks bundle destroy
databricks バンドルの生成
Databricks ワークスペースに既に存在するリソースのバンドル構成を生成します。 サポートされているリソースは、 アプリ、 ダッシュボード、 ジョブ、 パイプラインです。
既定では、このコマンドは、バンドル プロジェクトの*.yml フォルダー内のリソースのresources ファイルを生成し、構成で参照されているノートブックなどのファイルもダウンロードします。
重要
bundle generate コマンドは、リソース構成を自動生成するための補助機能として提供されています。 ただし、バンドルにリソース構成が含まれており、それをデプロイする場合、Azure Databricks は既存のリソースを更新するのではなく、新しいリソースを作成します。 代わりに既存のリソースを更新するには、--bindで bundle generate フラグを使用するか、デプロイする前にbundle deployment bindを実行する必要があります。
databricks バンドルのデプロイ バインドを参照してください。
databricks bundle generate [command]
使用可能なコマンド
-
app- Databricks アプリのバンドル構成を生成します。 -
dashboard- ダッシュボードの構成を生成します。 -
job- ジョブのバンドル構成を生成します。 -
pipeline- パイプラインのバンドル構成を生成します。
オプション
--key string
生成された構成に使用するリソース キー
databricks バンドルでアプリを生成する
ワークスペース内の既存の Databricks アプリのバンドル構成を生成します。
databricks bundle generate app [flags]
オプション
--bind
生成されたリソースをワークスペース内の既存のリソースと自動的にバインドします。
-d, --config-dir string
出力バンドル構成が格納されるディレクトリ パス (既定の "resources")
--existing-app-name string
構成を生成するアプリ名
-f, --force
出力ディレクトリ内の既存のファイルを強制的に上書きする
-s, --source-dir string
アプリ ファイルが格納されるディレクトリ パス (既定の "src/app")
例示
次の例では、 my-appという名前の既存のアプリの構成を生成します。 アプリ名は、ワークスペース UI の [Compute>Apps ] タブから取得できます。
databricks bundle generate app --existing-app-name my-app
次のコマンドは、hello_world.app.yml バンドル プロジェクト フォルダーに新しいresources ファイルを生成し、アプリのコマンド構成ファイル app.yamlやメイン app.pyなどのアプリのコード ファイルをダウンロードします。 既定では、コード ファイルはバンドルの src フォルダーにコピーされます。
databricks bundle generate app --existing-app-name "hello_world"
# This is the contents of the resulting /resources/hello-world.app.yml file.
resources:
apps:
hello_world:
name: hello-world
description: A basic starter application.
source_code_path: ../src/app
databricks バンドル生成ダッシュボード
ワークスペース内の既存のダッシュボードの構成を生成します。
databricks bundle generate dashboard [flags]
ヒント
ダッシュボードをデプロイした後に.lvdash.json ファイルを更新するには、--resourceを実行するときに、bundle generate dashboard オプションを使用して、既存のダッシュボード リソース用のファイルを生成します。 ダッシュボードの更新プログラムを継続的にポーリングして取得するには、--force オプションと --watch オプションを使用します。
オプション
--bind
生成されたリソースをワークスペース内の既存のリソースと自動的にバインドします。
-s, --dashboard-dir string
ダッシュボード表現を書き込むディレクトリ (既定の "src")
--existing-id string
構成を生成するダッシュボードの ID
--existing-path string
構成を生成するダッシュボードのワークスペース パス
-f, --force
出力ディレクトリ内の既存のファイルを強制的に上書きする
--resource string
変更を監視するダッシュボードのリソース キー
-d, --resource-dir string
構成を書き込むディレクトリ (既定の "resources")
--watch
ダッシュボードの変更を監視し、構成を更新する
例示
次の例では、既存のダッシュボード ID によって構成が生成されます。
databricks bundle generate dashboard --existing-id abc123
ワークスペース パスで既存のダッシュボードの構成を生成することもできます。 ワークスペース UI からダッシュボードのワークスペース パスをコピーします。
たとえば、次のコマンドを実行すると、baby_gender_by_county.dashboard.yml バンドル プロジェクト フォルダー内に、以下の YAML が入った新しいresources ファイルが生成されます。また、baby_gender_by_county.lvdash.json ファイルが src プロジェクト フォルダーにダウンロードされます。
databricks bundle generate dashboard --existing-path "/Workspace/Users/someone@example.com/baby_gender_by_county.lvdash.json"
# This is the contents of the resulting baby_gender_by_county.dashboard.yml file.
resources:
dashboards:
baby_gender_by_county:
display_name: 'Baby gender by county'
warehouse_id: aae11o8e6fe9zz79
file_path: ../src/baby_gender_by_county.lvdash.json
databricks バンドル生成ジョブ
ジョブのバンドル構成を生成します。
注
現在、このコマンドでは、ノートブック タスクを含むジョブのみがサポートされています。
databricks bundle generate job [flags]
オプション
--bind
生成されたリソースをワークスペース内の既存のリソースと自動的にバインドします。
-d, --config-dir string
出力構成が格納されるディレクトリ パス (既定の "resources")
--existing-job-id int
構成を生成するジョブのジョブ ID
-f, --force
出力ディレクトリ内の既存のファイルを強制的に上書きする
-s, --source-dir string
ダウンロードしたファイルが格納されるディレクトリ パス (既定の "src")
例示
次の例では、次の YAML を含む hello_job.yml バンドル プロジェクト フォルダーに新しいresources ファイルを生成し、simple_notebook.pyを src プロジェクト フォルダーにダウンロードします。 また、生成されたリソースをワークスペース内の既存のジョブにバインドします。
databricks bundle generate job --existing-job-id 6565621249 --bind
# This is the contents of the resulting hello_job.yml file.
resources:
jobs:
hello_job:
name: 'Hello Job'
tasks:
- task_key: run_notebook
email_notifications: {}
notebook_task:
notebook_path: ../src/simple_notebook.py
source: WORKSPACE
run_if: ALL_SUCCESS
max_concurrent_runs: 1
databricks バンドル生成パイプライン
パイプラインのバンドル構成を生成します。
databricks bundle generate pipeline [flags]
オプション
--bind
生成されたリソースをワークスペース内の既存のリソースと自動的にバインドします。
-d, --config-dir string
出力構成が格納されるディレクトリ パス (既定の "resources")
--existing-pipeline-id string
構成を生成するパイプラインの ID
-f, --force
出力ディレクトリ内の既存のファイルを強制的に上書きする
-s, --source-dir string
ダウンロードしたファイルが格納されるディレクトリ パス (既定の "src")
例示
次の例では、既存のパイプラインの構成を生成します。
databricks bundle generate pipeline --existing-pipeline-id abc-123-def
`databricks bundle init` コマンド
バンドル テンプレートを使用して新しいバンドルを初期化します。 テンプレートは、ユーザーに値の入力を求めるために構成できます。 Databricks アセット バンドル プロジェクト テンプレートを参照してください。
databricks bundle init [TEMPLATE_PATH] [flags]
論争
TEMPLATE_PATH
初期化に使用するテンプレート (省略可能)
オプション
--branch string
テンプレートの初期化に使用する Git ブランチ
--config-file string
テンプレートの初期化に必要な入力パラメーターのキー値ペアを含む JSON ファイル。
--output-dir string
初期化されたテンプレートを書き込むディレクトリ。
--tag string
テンプレートの初期化に使用する Git タグ
--template-dir string
テンプレートを含む Git リポジトリ内のディレクトリ パス。
例示
次の例では、選択する既定のバンドル テンプレートの一覧が表示されます。
databricks bundle init
次の例では、既定の Python テンプレートを使用してバンドルを初期化します。
databricks bundle init default-python
カスタム Databricks アセット バンドル テンプレートを使用して Databricks アセット バンドルを作成するには、カスタム テンプレート パスを指定します。
databricks bundle init <project-template-local-path-or-url> \
--project-dir="</local/path/to/project/template/output>"
次の例では、Git リポジトリからバンドルを初期化します。
databricks bundle init https://github.com/my/repository
次の例では、特定のブランチを使用して初期化します。
databricks bundle init --branch main
databricks バンドルを開く
ワークスペース内のバンドル リソースに移動し、開くリソースを指定します。 リソース キーが指定されていない場合、このコマンドは、選択するバンドルのリソースの一覧を出力します。
databricks bundle open [flags]
オプション
--force-pull
ローカル キャッシュをスキップし、リモート ワークスペースから状態を読み込む
例示
次の例では、ブラウザーを起動し、バンドル用に構成されている Databricks ワークスペース内のバンドルの baby_gender_by_county ダッシュボードに移動します。
databricks bundle open baby_gender_by_county
databricks バンドルプラン
現在のバンドル構成の展開計画を表示します。
このコマンドはバンドルをビルドし、変更を加えずにデプロイされるリソースに対して実行されるアクションを表示します。 これにより、 bundle deployを実行する前に変更をプレビューできます。
databricks bundle plan [flags]
オプション
-c, --cluster-id string
特定のクラスター ID を使用して、デプロイ内のクラスターをオーバーライドします。
--force
Git ブランチの検証を強制オーバーライドします。
例示
次の例では、Python ホイールを構築し、ジョブとパイプラインを定義するバンドルのデプロイ計画を出力します。
databricks bundle plan
Building python_artifact...
create jobs.my_bundle_job
create pipelines.my_bundle_pipeline
databricks バンドルの実行
ジョブ、パイプライン、またはスクリプトを実行します。 リソースを指定しない場合、コマンドは、選択するジョブ、パイプライン、およびスクリプトを定義してプロンプトを表示します。 または、バンドル構成ファイル内で宣言されたジョブまたはパイプライン キーまたはスクリプト名を指定します。
databricks bundle run [flags] [KEY]
パイプラインを検証する
パイプライン検証の実行を実行する場合は、次の例に示すように、--validate-only オプションを使用します。
databricks bundle run --validate-only my_pipeline
ジョブ パラメーターを渡す
ジョブ パラメーターを渡すには、--params オプションを使用し、その後にコンマ区切りのキーと値のペアを指定します。キーはパラメーター名です。 たとえば、次のコマンドでは、message という名前のパラメーターをジョブ HelloWorld の hello_job に設定します。
databricks bundle run --params message=HelloWorld hello_job
注
次の例に示すように、ジョブ タスク オプションを使用してジョブ タスクにパラメーターを渡すことができますが、ジョブ パラメーターを渡すには --params オプションを使用することをお勧めします。 ジョブ パラメーターが定義されていないジョブに対してジョブ パラメーターが指定されている場合、またはジョブ パラメーターが定義されているジョブにタスク パラメーターが指定されている場合、エラーが発生します。
キーワードまたは位置引数を指定することもできます。 指定したジョブでジョブ パラメーターが使用されている場合、またはジョブにパラメーターを含むノートブック タスクがある場合、フラグ名はパラメーター名にマップされます。
databricks bundle run hello_job -- --key1 value1 --key2 value2
または、指定されたジョブがジョブ パラメーターを使用せず、ジョブに Python ファイル タスクまたは Python ホイール タスクがある場合は、次のようにします。
databricks bundle run my_job -- value1 value2 value3
パラメーターを含むジョブ定義の例については、「パラメーター を持つジョブ」を参照してください。
スクリプトの実行
バンドルの構成された認証資格情報を使用して統合テストなどのスクリプトを実行するには、スクリプトをインラインで実行するか、バンドル構成で定義されたスクリプトを実行します。 スクリプトは、バンドルで構成されたのと同じ認証コンテキストを使用して実行されます。
スクリプトをインラインで実行するには、
--の後に二重ハイフン (bundle run) を追加します。 たとえば、次のコマンドは、現在のユーザーの現在の作業ディレクトリを出力します。databricks bundle run -- python3 -c 'import os; print(os.getcwd())'または、バンドル構成の
scriptsマッピング内にスクリプトを定義し、bundle runを使用してスクリプトを実行します。scripts: my_script: content: python3 -c 'import os; print(os.getcwd())'databricks bundle run my_scriptscripts構成の詳細については、スクリプトを参照してください。
バンドル認証情報は、環境変数を使用して子プロセスに渡されます。 Databricks 統合認証を参照してください。
論争
KEY
実行するリソースの一意識別子 (省略可能)
オプション
--no-wait
実行が完了するまで待つ必要はありません。
--restart
実行が既に実行されている場合は、実行を再起動します。
ジョブ フラグ
次のフラグは、ジョブ レベルのパラメーター フラグです。 「ジョブ パラメーターを構成する」を参照してください。
--params stringToString
ジョブ パラメーターのコンマ区切り k=v ペア (既定の [])
ジョブ タスク フラグ
次のフラグは、タスク レベルのパラメーター フラグです。 「タスク パラメーターを構成する」を参照してください。 Databricks では、タスク レベルのパラメーターに対してジョブ レベルのパラメーター (--params) を使用することをお勧めします。
--dbt-commands strings
DBT タスクを使用してジョブに対して実行するコマンドの一覧。
--jar-params strings
Spark JAR タスクを含むジョブのパラメーターの一覧。
--notebook-params stringToString
ノートブック タスクを使用するジョブのキーから値へのマップ。 (既定の [])
--pipeline-params stringToString
パイプライン タスクを含むジョブのキーから値へのマップ。 (既定の [])
--python-named-params stringToString
Python ホイール タスクを使用したジョブのキーから値へのマップ。 (既定の [])
--python-params strings
Python タスクを使用するジョブのパラメーターの一覧。
--spark-submit-params strings
Spark 送信タスクを含むジョブのパラメーターの一覧。
--sql-params stringToString
SQL タスクを使用するジョブのキーから値へのマップ。 (既定の [])
パイプライン フラグ
次のフラグはパイプライン フラグです。
--full-refresh strings
リセットおよび再計算するテーブルの一覧。
--full-refresh-all
グラフの完全なリセットと再計算を実行します。
--refresh strings
更新するテーブルの一覧。
--refresh-all
グラフの完全な更新を実行します。
--validate-only
更新を実行してグラフの正確性を検証します。
例示
次の例では、既定のターゲットでジョブ hello_job を実行します。
databricks bundle run hello_job
次の例では、hello_jobという名前で宣言されたターゲットのコンテキスト内でジョブ devを実行します。
databricks bundle run -t dev hello_job
次の例では、既存のジョブの実行を取り消して再起動します。
databricks bundle run --restart hello_job
次の例では、完全更新でパイプラインを実行します。
databricks bundle run my_pipeline --full-refresh-all
次の例では、バンドル コンテキストでコマンドを実行します。
databricks bundle run -- echo "hello, world"
databricks バンドル スキーマ
バンドル構成の JSON スキーマを表示します。
databricks bundle schema [flags]
オプション
例示
次の例では、バンドル構成の JSON スキーマを出力します。
databricks bundle schema
バンドル構成スキーマを JSON ファイルとして出力するには、 bundle schema コマンドを実行し、出力を JSON ファイルにリダイレクトします。 たとえば、現在のディレクトリ内に bundle_config_schema.json という名前のファイルを生成できます。
databricks bundle schema > bundle_config_schema.json
databricks バンドルの概要
Databricks ワークスペース内のリソースに簡単に移動できるように、リソースのディープ リンクなど、バンドルの ID とリソースの概要を出力します。
databricks bundle summary [flags]
ヒント
bundle openを使用して、Databricks ワークスペース内のリソースに移動することもできます。
databricks バンドルを開くを参照してください。
オプション
--force-pull
ローカル キャッシュをスキップし、リモート ワークスペースから状態を読み込む
例示
次の例では、バンドルのデプロイされたリソースの概要を出力します。
databricks bundle summary
次の出力は、ジョブとパイプラインを定義する my_pipeline_bundle という名前のバンドルの概要です。
Name: my_pipeline_bundle
Target: dev
Workspace:
Host: https://myworkspace.cloud.databricks.com
User: someone@example.com
Path: /Users/someone@example.com/.bundle/my_pipeline/dev
Resources:
Jobs:
my_project_job:
Name: [dev someone] my_project_job
URL: https://myworkspace.cloud.databricks.com/jobs/206000809187888?o=6051000018419999
Pipelines:
my_project_pipeline:
Name: [dev someone] my_project_pipeline
URL: https://myworkspace.cloud.databricks.com/pipelines/7f559fd5-zztz-47fa-aa5c-c6bf034b4f58?o=6051000018419999
databricks バンドル同期
ローカル ファイルシステム ディレクトリ内のバンドルのファイル変更を、リモートの Azure Databricks ワークスペース内のディレクトリに対して一方向同期を実行します。
注
bundle sync コマンドは、リモート Azure Databricks ワークスペース内のディレクトリからローカル ファイル システム内のディレクトリにファイルの変更を同期することはできません。
databricks bundle sync [flags]
databricks bundle sync コマンドは、databricks sync コマンドと同様に動作し、生産性向上のための補助機能を提供します。 コマンドの使用方法については、 sync コマンドを参照してください。
オプション
--dry-run
実際の変更を加えずに同期の実行をシミュレートする
--full
完全同期の実行 (既定値は増分)
--interval duration
ファイル システムのポーリング間隔 ( --watchの場合) (既定値は 1)
--output type
出力形式の種類
--watch
ローカル ファイル システムで変更を監視する
例示
次の例では、ドライ ラン同期を実行します。
databricks bundle sync --dry-run
次の例では、変更と同期が自動的に監視されます。
databricks bundle sync --watch
次の例では、完全同期を実行します。
databricks bundle sync --full
databricks バンドルの検証
バンドル構成ファイルが構文的に正しいことを検証します。
databricks bundle validate [flags]
このコマンドは、既定でバンドル ID のサマリーを返します。
Name: MyBundle
Target: dev
Workspace:
Host: https://my-host.cloud.databricks.com
User: someone@example.com
Path: /Users/someone@example.com/.bundle/MyBundle/dev
Validation OK!
注
bundle validate コマンドは、対応するオブジェクトのスキーマに見つからないバンドル構成ファイルでリソース プロパティが定義されている場合、警告を出力します。
バンドルの ID とリソースの概要のみを出力する場合は、 バンドルの概要を使用します。
オプション
例示
次の例では、バンドル構成を検証します。
databricks bundle validate
グローバル フラグ
--debug
デバッグ ログを有効にするかどうかを指定します。
-h または --help
Databricks CLI、または関連コマンド グループ、または関連コマンドのヘルプの表示。
--log-file 文字列
出力ログを書き込むファイルを表す文字列。 このフラグが指定されていない場合、既定では stderr に出力ログが書き込まれます。
--log-format 形式
ログ形式の種類、 text 、または json。 既定値は text です。
--log-level 文字列
ログ形式レベルを表す文字列。 指定しない場合、ログ形式レベルは無効になります。
-o, --output 型
コマンド出力の種類( text または json)。 既定値は text です。
-p, --profile 文字列
コマンドの実行に使用する ~/.databrickscfg ファイル内のプロファイルの名前。 このフラグが指定されていない場合は、存在する場合は、 DEFAULT という名前のプロファイルが使用されます。
--progress-format 形式
進行状況ログを表示する形式: default、 append、 inplace、または json
-t, --target 文字列
該当する場合は、使用するバンドル ターゲット
--var strings
バンドル構成で定義されている変数の値を設定します。例: --var="foo=bar"