次の方法で共有


api コマンド グループ

Note

この情報は、Databricks CLI バージョン 0.205 以降に適用されます。 Databricks CLI は パブリック プレビュー段階です

Databricks CLI の使用には、Databricks ライセンスおよび使用状況データのプロビジョニングを含むDatabricks のプライバシーに関する通知が適用されます。

api 内の コマンド グループを使用すると、使用可能なすべての Databricks REST API を呼び出できます。

api コマンド グループの実行は、高度なシナリオの場合のみにしてください (特定の Databricks REST API がプレビュー リリースであり、Databricks CLI で、まだ関連コマンドでその対象 Databricks REST API がラップされていない場合など)。 コマンド グループの一覧については、 Databricks CLI コマンドを参照してください。

Databricks API 削除

DELETE 要求を実行する

databricks api delete PATH [flags]

Arguments

PATH

    API エンドポイント パス

オプション

--json JSON

    要求本文を含む JSON ファイルに対するインライン JSON 文字列または @path

グローバル フラグ

Examples

databricks api delete /api/2.0/jobs/runs/delete --json '{"run_id": 123}'

databricks api get

GET要求を実行する

databricks api get PATH [flags]

Arguments

PATH

    API エンドポイント パス

オプション

--json JSON

    要求本文を含む JSON ファイルに対するインライン JSON 文字列または @path

グローバル フラグ

Examples

次の例では、ワークスペースで使用可能なクラスターの一覧を取得します。

databricks api get /api/2.0/clusters/list

次の例では、ジョブを取得する方法を示します。

databricks api get /api/2.0/jobs/get --json '{"job_id": 123}'

databricks api ヘッド

HEAD 要求の実行

databricks api head PATH [flags]

Arguments

PATH

    API エンドポイント パス

オプション

--json JSON

    要求本文を含む JSON ファイルに対するインライン JSON 文字列または @path

グローバル フラグ

Examples

databricks api head /api/2.0/clusters/list

Databricks API パッチ

PATCH 要求を実行する

databricks api patch PATH [flags]

Arguments

PATH

    API エンドポイント パス

オプション

--json JSON

    要求本文を含む JSON ファイルに対するインライン JSON 文字列または @path

グローバル フラグ

Examples

databricks api patch /api/2.0/jobs/update --json '{"job_id": 123, "new_settings": {"name": "Updated Job"}}'

databricks API ポスト

POST 要求の実行

databricks api post PATH [flags]

Arguments

PATH

    API エンドポイント パス

オプション

--json JSON

    要求本文を含む JSON ファイルに対するインライン JSON 文字列または @path

グローバル フラグ

Examples

次の例では、ワークスペース内の指定されたクラスターに関する情報を取得します。

databricks api post /api/2.0/clusters/get --json '{
   "cluster_id": "1234-567890-abcde123"
}'

次の例では、クラスターを作成します。

databricks api post /api/2.0/clusters/create --json '{"cluster_name": "test-cluster", "spark_version": "11.3.x-scala2.12"}'

ワークスペース内の指定したクラスターの設定を更新します。

databricks api post /api/2.0/clusters/edit --json '{
  "cluster_id": "1234-567890-abcde123",
  "cluster_name": "my-changed-cluster",
  "num_workers": 1,
  "spark_version": "11.3.x-scala2.12",
  "node_type_id": "Standard_DS3_v2"
}'

ワークスペース内の指定したクラスターの設定を更新します。 現在の作業ディレクトリ内の edit-cluster.json という名前のファイルから要求本文を取得します。

databricks api post /api/2.0/clusters/edit --json @edit-cluster.json

edit-cluster.json:

{
  "cluster_id": "1234-567890-abcde123",
  "cluster_name": "my-changed-cluster",
  "num_workers": 1,
  "spark_version": "11.3.x-scala2.12",
  "node_type_id": "Standard_DS3_v2"
}

databricks API の put メソッド

PUT 要求の実行

databricks api put PATH [flags]

Arguments

PATH

    API エンドポイント パス

オプション

--json JSON

    要求本文を含む JSON ファイルに対するインライン JSON 文字列または @path

グローバル フラグ

Examples

databricks api put /api/2.0/workspace/import --json @workspace-import.json

グローバル フラグ

--debug

  デバッグ ログを有効にするかどうかを指定します。

-h または --help

    Databricks CLI、または関連コマンド グループ、または関連コマンドのヘルプの表示。

--log-file 文字列

    出力ログを書き込むファイルを表す文字列。 このフラグが指定されていない場合、既定では stderr に出力ログが書き込まれます。

--log-format 形式

    ログ形式の種類、 text 、または json。 既定値は text です。

--log-level 文字列

    ログ形式レベルを表す文字列。 指定しない場合、ログ形式レベルは無効になります。

-o, --output

    コマンド出力の種類( text または json)。 既定値は text です。

-p, --profile 文字列

    コマンドの実行に使用する ~/.databrickscfg ファイル内のプロファイルの名前。 このフラグが指定されていない場合は、存在する場合は、 DEFAULT という名前のプロファイルが使用されます。

--progress-format 形式

    進行状況ログを表示する形式: defaultappendinplace、または json

-t, --target 文字列

    該当する場合は、使用するバンドル ターゲット