Anmerkung
Der Zugriff auf diese Seite erfordert eine Genehmigung. Du kannst versuchen, dich anzumelden oder die Verzeichnisse zu wechseln.
Der Zugriff auf diese Seite erfordert eine Genehmigung. Du kannst versuchen , die Verzeichnisse zu wechseln.
Note
Diese Informationen gelten für Databricks CLI-Versionen 0.205 und höher. Die Databricks CLI befindet sich in der öffentlichen Vorschau.
Die Verwendung von Databricks CLI unterliegt der Datenbricks-Lizenz - und Databricks-Datenschutzerklärung, einschließlich der Bestimmungen zu Nutzungsdaten.
Mit api der Befehlsgruppe in der Databricks CLI können Sie alle verfügbaren Databricks-REST-API aufrufen.
Sie sollten den Befehl api nur für erweiterte Szenarien verwenden, z. B. Vorschauversionen bestimmter Databricks-REST-APIs, für die die Databricks CLI die Databricks-Ziel-REST-API nicht bereits in einen zugehörigen Befehl umschließt. Eine Liste der Befehlsgruppen finden Sie unter Databricks CLI-Befehle.
databricks API löschen
DELETE-Anforderung ausführen
databricks api delete PATH [flags]
Arguments
PATH
Der API-Endpunktpfad
Options
--json JSON
Die Inline-JSON-Zeichenfolge oder der @path zur JSON-Datei mit dem Anforderungstext
Examples
databricks api delete /api/2.0/jobs/runs/delete --json '{"run_id": 123}'
databricks api get
Anforderung ausführen GET
databricks api get PATH [flags]
Arguments
PATH
Der API-Endpunktpfad
Options
--json JSON
Die Inline-JSON-Zeichenfolge oder der @path zur JSON-Datei mit dem Anforderungstext
Examples
Im folgenden Beispiel wird die Liste der verfügbaren Cluster im Arbeitsbereich abgerufen:
databricks api get /api/2.0/clusters/list
Das folgende Beispiel erhält einen Auftrag:
databricks api get /api/2.0/jobs/get --json '{"job_id": 123}'
Databricks API-Kopf
Durchführen einer HEAD-Anforderung
databricks api head PATH [flags]
Arguments
PATH
Der API-Endpunktpfad
Options
--json JSON
Die Inline-JSON-Zeichenfolge oder der @path zur JSON-Datei mit dem Anforderungstext
Examples
databricks api head /api/2.0/clusters/list
Databricks-API-Patch
Ausführung einer Patch-Anfrage
databricks api patch PATH [flags]
Arguments
PATH
Der API-Endpunktpfad
Options
--json JSON
Die Inline-JSON-Zeichenfolge oder der @path zur JSON-Datei mit dem Anforderungstext
Examples
databricks api patch /api/2.0/jobs/update --json '{"job_id": 123, "new_settings": {"name": "Updated Job"}}'
Databricks-API-Beitrag
Durchführen einer POST-Anforderung
databricks api post PATH [flags]
Arguments
PATH
Der API-Endpunktpfad
Options
--json JSON
Die Inline-JSON-Zeichenfolge oder der @path zur JSON-Datei mit dem Anforderungstext
Examples
Das folgende Beispiel ruft Informationen zum angegebenen Cluster im Arbeitsbereich ab.
databricks api post /api/2.0/clusters/get --json '{
"cluster_id": "1234-567890-abcde123"
}'
Im folgenden Beispiel wird ein Cluster erstellt:
databricks api post /api/2.0/clusters/create --json '{"cluster_name": "test-cluster", "spark_version": "11.3.x-scala2.12"}'
Aktualisieren Sie die Einstellungen für den angegebenen Cluster im Arbeitsbereich.
databricks api post /api/2.0/clusters/edit --json '{
"cluster_id": "1234-567890-abcde123",
"cluster_name": "my-changed-cluster",
"num_workers": 1,
"spark_version": "11.3.x-scala2.12",
"node_type_id": "Standard_DS3_v2"
}'
Aktualisieren Sie die Einstellungen für den angegebenen Cluster im Arbeitsbereich. Rufen Sie den Anforderungstext aus einer Datei namens edit-cluster.json im aktuellen Arbeitsverzeichnis ab.
databricks api post /api/2.0/clusters/edit --json @edit-cluster.json
edit-cluster.json:
{
"cluster_id": "1234-567890-abcde123",
"cluster_name": "my-changed-cluster",
"num_workers": 1,
"spark_version": "11.3.x-scala2.12",
"node_type_id": "Standard_DS3_v2"
}
Databricks API PUT
PUT-Anforderung ausführen
databricks api put PATH [flags]
Arguments
PATH
Der API-Endpunktpfad
Options
--json JSON
Die Inline-JSON-Zeichenfolge oder der @path zur JSON-Datei mit dem Anforderungstext
Examples
databricks api put /api/2.0/workspace/import --json @workspace-import.json
Globale Kennzeichnungen
--debug
Gibt an, ob die Debugprotokollierung aktiviert werden soll.
-h oder --help
Hilfe für die Databricks CLI oder die zugehörige Befehlsgruppe oder den zugehörigen Befehl anzeigen.
--log-file Schnur
Eine Zeichenfolge, die die Datei darstellt, in die Ausgabeprotokolle geschrieben werden sollen. Wenn dieses Flag nicht angegeben ist, werden Ausgabeprotokolle standardmäßig in stderr geschrieben.
--log-format Format
Der Protokollformattyp text oder json. Der Standardwert ist text.
--log-level Schnur
Eine Zeichenfolge, die die Protokollformatebene darstellt. Wenn nicht angegeben, ist die Protokollformatebene deaktiviert.
-o, --output Typ
Der Befehlsausgabetyp text oder json. Der Standardwert ist text.
-p, --profile Schnur
Der Name des Profils in der ~/.databrickscfg Datei, das zum Ausführen des Befehls verwendet werden soll. Wenn dieses Flag nicht angegeben ist, aber existiert, wird das Profil DEFAULT verwendet.
--progress-format Format
Das Format zum Anzeigen von Statusprotokollen: default, , append, inplaceoder json
-t, --target Schnur
Falls zutreffend, das zu verwendende Bündelziel