Teilen über


api Befehlsgruppe

Note

Diese Informationen gelten für Databricks CLI-Versionen 0.205 und höher. Die Databricks CLI befindet sich in der öffentlichen Vorschau.

Die Verwendung von Databricks CLI unterliegt der Datenbricks-Lizenz - und Databricks-Datenschutzerklärung, einschließlich der Bestimmungen zu Nutzungsdaten.

Mit api der Befehlsgruppe in der Databricks CLI können Sie alle verfügbaren Databricks-REST-API aufrufen.

Sie sollten den Befehl api nur für erweiterte Szenarien verwenden, z. B. Vorschauversionen bestimmter Databricks-REST-APIs, für die die Databricks CLI die Databricks-Ziel-REST-API nicht bereits in einen zugehörigen Befehl umschließt. Eine Liste der Befehlsgruppen finden Sie unter Databricks CLI-Befehle.

databricks API löschen

DELETE-Anforderung ausführen

databricks api delete PATH [flags]

Arguments

PATH

    Der API-Endpunktpfad

Options

--json JSON

    Die Inline-JSON-Zeichenfolge oder der @path zur JSON-Datei mit dem Anforderungstext

Globale Kennzeichnungen

Examples

databricks api delete /api/2.0/jobs/runs/delete --json '{"run_id": 123}'

databricks api get

Anforderung ausführen GET

databricks api get PATH [flags]

Arguments

PATH

    Der API-Endpunktpfad

Options

--json JSON

    Die Inline-JSON-Zeichenfolge oder der @path zur JSON-Datei mit dem Anforderungstext

Globale Kennzeichnungen

Examples

Im folgenden Beispiel wird die Liste der verfügbaren Cluster im Arbeitsbereich abgerufen:

databricks api get /api/2.0/clusters/list

Das folgende Beispiel erhält einen Auftrag:

databricks api get /api/2.0/jobs/get --json '{"job_id": 123}'

Databricks API-Kopf

Durchführen einer HEAD-Anforderung

databricks api head PATH [flags]

Arguments

PATH

    Der API-Endpunktpfad

Options

--json JSON

    Die Inline-JSON-Zeichenfolge oder der @path zur JSON-Datei mit dem Anforderungstext

Globale Kennzeichnungen

Examples

databricks api head /api/2.0/clusters/list

Databricks-API-Patch

Ausführung einer Patch-Anfrage

databricks api patch PATH [flags]

Arguments

PATH

    Der API-Endpunktpfad

Options

--json JSON

    Die Inline-JSON-Zeichenfolge oder der @path zur JSON-Datei mit dem Anforderungstext

Globale Kennzeichnungen

Examples

databricks api patch /api/2.0/jobs/update --json '{"job_id": 123, "new_settings": {"name": "Updated Job"}}'

Databricks-API-Beitrag

Durchführen einer POST-Anforderung

databricks api post PATH [flags]

Arguments

PATH

    Der API-Endpunktpfad

Options

--json JSON

    Die Inline-JSON-Zeichenfolge oder der @path zur JSON-Datei mit dem Anforderungstext

Globale Kennzeichnungen

Examples

Das folgende Beispiel ruft Informationen zum angegebenen Cluster im Arbeitsbereich ab.

databricks api post /api/2.0/clusters/get --json '{
   "cluster_id": "1234-567890-abcde123"
}'

Im folgenden Beispiel wird ein Cluster erstellt:

databricks api post /api/2.0/clusters/create --json '{"cluster_name": "test-cluster", "spark_version": "11.3.x-scala2.12"}'

Aktualisieren Sie die Einstellungen für den angegebenen Cluster im Arbeitsbereich.

databricks api post /api/2.0/clusters/edit --json '{
  "cluster_id": "1234-567890-abcde123",
  "cluster_name": "my-changed-cluster",
  "num_workers": 1,
  "spark_version": "11.3.x-scala2.12",
  "node_type_id": "Standard_DS3_v2"
}'

Aktualisieren Sie die Einstellungen für den angegebenen Cluster im Arbeitsbereich. Rufen Sie den Anforderungstext aus einer Datei namens edit-cluster.json im aktuellen Arbeitsverzeichnis ab.

databricks api post /api/2.0/clusters/edit --json @edit-cluster.json

edit-cluster.json:

{
  "cluster_id": "1234-567890-abcde123",
  "cluster_name": "my-changed-cluster",
  "num_workers": 1,
  "spark_version": "11.3.x-scala2.12",
  "node_type_id": "Standard_DS3_v2"
}

Databricks API PUT

PUT-Anforderung ausführen

databricks api put PATH [flags]

Arguments

PATH

    Der API-Endpunktpfad

Options

--json JSON

    Die Inline-JSON-Zeichenfolge oder der @path zur JSON-Datei mit dem Anforderungstext

Globale Kennzeichnungen

Examples

databricks api put /api/2.0/workspace/import --json @workspace-import.json

Globale Kennzeichnungen

--debug

  Gibt an, ob die Debugprotokollierung aktiviert werden soll.

-h oder --help

    Hilfe für die Databricks CLI oder die zugehörige Befehlsgruppe oder den zugehörigen Befehl anzeigen.

--log-file Schnur

    Eine Zeichenfolge, die die Datei darstellt, in die Ausgabeprotokolle geschrieben werden sollen. Wenn dieses Flag nicht angegeben ist, werden Ausgabeprotokolle standardmäßig in stderr geschrieben.

--log-format Format

    Der Protokollformattyp text oder json. Der Standardwert ist text.

--log-level Schnur

    Eine Zeichenfolge, die die Protokollformatebene darstellt. Wenn nicht angegeben, ist die Protokollformatebene deaktiviert.

-o, --output Typ

    Der Befehlsausgabetyp text oder json. Der Standardwert ist text.

-p, --profile Schnur

    Der Name des Profils in der ~/.databrickscfg Datei, das zum Ausführen des Befehls verwendet werden soll. Wenn dieses Flag nicht angegeben ist, aber existiert, wird das Profil DEFAULT verwendet.

--progress-format Format

    Das Format zum Anzeigen von Statusprotokollen: default, , append, inplaceoder json

-t, --target Schnur

    Falls zutreffend, das zu verwendende Bündelziel