Freigeben über


Databricks CLI-Befehle

Hinweis

Diese Informationen gelten für die Databricks-CLI-Version 0.205 und höher, die als Public Preview verfügbar sind. Führen Sie databricks -v aus, um die Version Ihrer Databricks CLI zu ermitteln.

Dieser Artikel enthält Informationen zu verfügbaren Databricks CLI-Befehlen. Diese Informationen ergänzen die Befehlszeilenhilfe. Weitere Informationen zum Installieren und Verwenden der Databricks CLI finden Sie unter Installieren oder Aktualisieren der Databricks CLI und Was ist die Databricks CLI?.

Die Databricks CLI enthält die in den folgenden Tabellen aufgeführten Befehlsgruppen. Befehlsgruppen enthalten zusammengehörige Befehle, die auch Unterbefehle enthalten können. So geben Sie Verwendungs- und Syntaxinformationen für eine Befehlsgruppe, einen einzelnen Befehl oder einen Unterbefehl aus:

  • databricks <command-group> -h
  • databricks <command-group> <command-name> -h
  • databricks <command-group> <command-name> <subcommand-name> -h

Viele CLI-Befehle sind Vorgängen zugeordnet, die in der REST-API-Referenz für Azure Databricks dokumentiert sind.

Arbeitsbereichsbefehle

Group Beschreibung und Befehle
fs Befehle zum Verwalten von Dateien und Dateisystem:

cat, cp, ls, mkdir, rm
git-credentials Befehle zum Registrieren von persönlichen Zugriffstoken für Databricks zum Ausführen von Vorgängen im Namen des Benutzers:

create, delete, get, list, update
repos Befehle, mit denen Benutzer ihre Git-Repositorys verwalten können:

create, delete, get, list, update

get-permission-levels, get-permissions, set-permissions, update-permissions
secrets Befehle zum Verwalten von Geheimnissen, Geheimnisbereichen und Zugriffsberechtigungen:

create-scope, delete-acl, delete-scope, delete-secret, get-acl, get-secret, list-acls, list-scopes, list-secrets, put-acl, put-secret
workspace Befehle zum Auflisten, Importieren, Exportieren und Löschen von Notebooks und Ordnern im Arbeitsbereich:

delete, export, export-dir, get-status, import, import-dir, list, mkdirs

get-permission-levels, get-permissions, set-permissions, update-permissions

Computebefehle

Group Beschreibung und Befehle
cluster-policies Befehle zum Steuern der Berechtigungen von Benutzern, Cluster basierend auf einer Reihe von Regeln zu konfigurieren:

create, delete, edit, get, list

get-permission-levels, get-permissions, set-permissions, update-permissions
clusters Befehle, mit denen Sie Cluster erstellen, starten, bearbeiten, auflisten, beenden und löschen können:

change-owner, create, delete, edit, events, get, list, list-node-types, list-zones, permanent-delete,pin, resize, restart, spark-versions, start, unpin

get-permission-levels, get-permissions, set-permissions, update-permissions
global-init-scripts Befehle, mit denen Arbeitsbereichsadministratoren globale Initialisierungsskripts für ihren Arbeitsbereich konfigurieren können:

create, delete, get, list, update
instance-pools Befehle zum Erstellen, Bearbeiten, Löschen und Auflisten von Instanzpools mit einsatzbereiten Cloudinstanzen, wodurch die Start und automatische Skalierung für Cluster beschleunigt werden:

create, delete, edit, get, list

get-permission-levels, get-permissions, set-permissions, update-permissions
instance-profiles Befehle, mit denen Administratoren Instanzprofile hinzufügen, auflisten und entfernen können, durch die Benutzer Cluster starten können:

add, edit, list, remove
libraries Befehle zum Installieren, Deinstallieren und Abrufen des Status von Bibliotheken in einem Cluster:

all-cluster-statuses, cluster-status, install, uninstall
policy-families Befehle zum Anzeigen verfügbarer Richtlinienfamilien:

get, list

Auftragsbefehle

Group Beschreibung und Befehle
jobs Befehle zum Verwalten von Aufträgen:

cancel-all-runs, cancel-run, create, delete, delete-run, export-run, get, get-run, get-run-output, list, list-runs, repair-run, reset, run-now, submit, update

get-permission-levels, get-permissions, set-permissions, update-permissions

Delta Live Tables-Befehle

Group Beschreibung und Befehle
pipelines Befehle zum Erstellen, Bearbeiten, Löschen, Starten und Anzeigen von Details zu Pipelines:

create, delete, get, get-update, list-pipeline-events, list-pipelines, list-updates, start-update, stop, update

get-permission-levels, get-permissions, set-permissions, update-permissions

Machine-Learning-Befehle

Group Beschreibung und Befehle
experiments Befehle für die Interaktion mit Experimenten, die die primäre Organisationseinheit in MLflow sind. Alle MLflow-Ausführungen gehören zu einem Experiment:

create-experiment, create-run, delete-experiment, delete-run, delete-runs, delete-tag, get-by-name, get-experiment, get-history, get-runGet, list-artifacts, list-experiments, log-batch, log-inputs, log-metric, log-model, log-param, restore-experiment, restore-run, restore-runs, search-experiments, search-runs, set-experiment-tag, set-tag, update-experiment, update-run

get-permission-levels, get-permissions, set-permissions, update-permissions
model-registry Befehle für die Arbeitsbereichsmodellregistrierung:

approve-transition-request, create-comment, create-model, create-model-version, create-transition-request, create-webhook, delete-comment, delete-model, delete-model-tag, delete-model-version, delete-model-version-tag, delete-transition-request, delete-webhook, get-latest-versions, get-model, get-model-version,get-model-version-download-uri, list-models, list-transition-requests, list-webhooks, reject-transition-request, rename-model, search-model-versions, search-models, set-model-tag, set-model-version-tag, test-registry-webhook, transition-stage, update-comment, update-model, update-model-version, update-webhook

get-permission-levels, get-permissions, set-permissions, update-permissions

Echtzeitbereitstellungsbefehle

Group Beschreibung und Befehle
serving-endpoints Befehle zum Erstellen, Aktualisieren und Löschen von Endpunkten des Modells:

build-logs, create, delete, export-metrics, get, list, logs, patch, put, query, update-config

get-permission-levels, get-permissions, set-permissions, update-permissions

Identitäts- und Zugriffsverwaltungsbefehle

Group Beschreibung und Befehle
account Befehle zum Verwalten von Databricks-Konten:

* Identität und Zugriff: access-control, groups, service-principals, users, workspace-assignment
* Unity Catalog: metastore-assignments, metastores, storage-credentials
* Einstellungen: ip-access-lists, network-connectivity, settings
* Bereitstellung: credentials, encryption-keys, networks, private-access, storage, vpc-endpoints, workspaces
* Abrechnung: billable-usage, log-delivery
* OAuth: custom-app-integration, o-auth-published-apps, published-app-integration, service-principal-secrets
auth Befehle für die Authentifizierung:

describe, env, login, profiles, token
current-user Befehle zum Abrufen von Informationen zu aktuell authentifizierten Benutzern oder Dienstprinzipalen:

me
groups Befehle für Gruppen, die die Identitätsverwaltung vereinfachen und das Zuweisen des Zugriffs auf Databricks-Arbeitsbereiche, -Daten und andere sicherungsfähige Objekte erleichtern:

create, delete, get, list, patch, update
permissions Befehle zum Erstellen von Lese-, Schreib-, Bearbeitungs-, Aktualisierungs- und Verwaltungszugriff für verschiedene Benutzer auf verschiedenen Objekte und Endpunkte:

get, set, update

get-permission-levels
service-principals Befehle für Identitäten für die Verwendung mit Aufträgen, automatisierten Tools und Systemen wie Skripts, Apps und CI/CD-Plattformen:

create, delete, get, list, patch, update
users Befehle für Benutzeridentitäten, die von Databricks erkannt und durch E-Mail-Adressen dargestellt werden:

create, delete, get, list, patch, update

get-permission-levels, get-permissions, set-permissions, update-permissions
Group Beschreibung und Befehle
alerts Befehle zum Ausführen von Vorgängen für Warnungen:

create, delete, get, list, update
data-sources Befehle zum Erstellen neuer Abfrageobjekte:

list
queries Befehle zum Ausführen von Vorgängen für Abfragedefinitionen:

create, delete, get, list, restore, update
query-history Befehle für den Zugriff auf den Verlauf der Abfragen über SQL-Warehouses:

list
warehouses Befehle zum Verwalten von SQL-Warehouses, bei denen es sich um eine Computeressource handelt, mit der Sie SQL-Befehle für Datenobjekte in Databricks SQL ausführen können:

create, delete, edit, get, get-workspace-warehouse-config, list, set-workspace-warehouse-config, start, stop

get-permission-levels, get-permissions, set-permissions, update-permissions

Unity Catalog-Befehle

Group Beschreibung und Befehle
artifact-allowlists Befehle zum Verwalten von Positivlisten für Artefakte. In Databricks Runtime 13.3 und höher können Sie Bibliotheken und Initialisierungsskripts zur Positivliste in UC hinzufügen, damit Benutzer diese Artefakte für Computevorgänge nutzen können, bei denen der Modus für gemeinsamen Zugriff konfiguriert ist:

get, update
catalogs Befehle zum Verwalten von Katalogen, der ersten Schicht des dreischichtigen Namespaces von Unity Catalog:

create, delete, get, list, update
connections Befehle zum Herstellen einer Verbindung mit einer externen Datenquelle:

create, delete, get, list, update
external-locations Befehle zum Verwalten externer Speicherorte, die einen Cloudspeicherpfad mit Speicheranmeldeinformationen kombinieren, die den Zugriff auf den Cloudspeicherpfad autorisieren:

create, delete, get, list, update
functions Befehle zum Verwalten von benutzerdefinierten Funktionen (User-Defined Functions, UDFs) in Unity Catalog:

create, delete, get, list, update
grants Befehle zum Gewähren des Zugriffs auf Daten in Unity Catalog:

get, get-effective, update
metastores Befehle zum Verwalten von Metastores, die der Objektcontainer der obersten Ebene in Unity Catalog sind:

assign, create, current, delete, get, list, summary, unassign, update, update-assignment
model-versions Befehle zum Verwalten von Modellversionen. Databricks stellt eine gehostete Version der MLflow-Modellregistrierung in Unity Catalog bereit.

delete, get, get-by-alias, list, update
online-tables Befehle zum Verwalten von Onlinetabellen, die eine niedrigere Latenz und einen höheren QPS-Zugriff auf Daten aus Deltatabellen bieten:

create, delete, get
quality-monitors Befehle zum Verwalten von Monitoren, die Daten- oder Modellqualitätsmetriken für eine Tabelle im Laufe der Zeit berechnen und überwachen:

create, delete, get, get-refresh, list-refreshes, run-refresh, update
registered-models Befehle zum Verwalten registrierter Modelle. Databricks stellt eine gehostete Version der MLflow-Modellregistrierung in Unity Catalog bereit.

create, delete, delete-alias, get, list, set-alias, update
schemas Befehle zum Verwalten von Schemas, der zweiten Schicht des dreischichtigen Namespaces von Unity Catalog:

create, delete, get, list, update
storage-credentials Befehle zum Verwalten von Speicheranmeldeinformationen, bei denen es sich um einen Authentifizierungs- und Autorisierungsmechanismus für den Zugriff auf Daten handelt, die in Ihrem Cloudmandanten gespeichert sind:

create, delete, get, list, update, validate
system-schemas Befehle zum Verwalten von Systemschemas, bei denen es sich um Schemas handelt, die sich im Systemkatalog befinden:

disable, enable, list
table-constraints Befehle zum Verwalten von Primärschlüssel- und Fremdschlüsseleinschränkungen, die Beziehungen zwischen Feldern in Tabellen codieren:

create, delete
tables Befehle zum Verwalten von Tabellen, die sich in der dritten Schicht des dreischichtigen Namespaces von Unity Catalog befinden:

delete, exists, get, list, list-summaries
volumes Befehle zum Verwalten von Volumes, bei denen es sich um eine UC-Funktion (Unity Catalog) für den Zugriff auf und das Speichern, Verwalten, Organisieren und Verarbeiten von Dateien handelt:

create, delete, list, read, update
workspace-bindings Befehle zum Verwalten sicherungsfähiger Arbeitsbereichsbindungen. Sicherungsfähige Objekte in Databricks können als OPEN oder ISOLATED konfiguriert werden.

get, get-bindings, update, update-bindings

Deltafreigabebefehle

Group Beschreibung und Befehle
providers Befehle zum Verwalten von Datenanbietern, die Organisationen darstellen, die Daten freigeben:

create, delete, get, list, list-shares, update
recipient-activation Befehle zum Verwalten der Empfängeraktivierung, die nur im offenen Freigabemodell anwendbar ist, in dem das Empfängerobjekt den TOKEN-Authentifizierungstyp aufweist:

get-activation-url-info, retrieve-token
recipients Befehle zum Verwalten von Empfängern, die Sie mithilfe von :method:recipients/create erstellen, um eine Organisation zu repräsentieren, der Sie den Zugriff auf Freigaben erteilen möchten:

create, delete, get, list, rotate-token, update

share-permissions
shares Befehle zum Verwalten von Freigaben, bei denen es sich um Container handelt, die mit :method:shares/create instanziiert werden:

create, delete, get, list, update

share-permissions, update-permissions

Einstellungsbefehle

Group Beschreibung und Befehle
ip-access-lists Befehle zum Gestatten der Konfiguration von IP-Zugriffslisten durch Administratoren:

create, delete, get, list, replace, update
settings Befehle zum Gestatten der Verwaltung von Einstellungen auf Arbeitsbereichsebene durch Benutzer:

automatic-cluster-update, csp-enablement, default-namespace, esm-enablement, restrict-workspace-admins
token-management Befehle zum Gestatten des Abrufs aller Token und des Löschens von Token für andere Benutzer durch Administratoren:

create-obo-token, delete, get, list

get-permission-levels, get-permissions, set-permissions, update-permissions
tokens Befehle zum Erstellen, Auflisten und Widerrufen von Token, die zum Authentifizieren und Zugreifen auf Databricks-REST-APIs verwendet werden können:

create, delete, list
workspace-conf Befehle zum Aktualisieren der Arbeitsbereichseinstellungen:

get-status, set-status

Befehle für Entwicklertools

Group Beschreibung und Befehle
bundle Befehle zum Verwalten von Databricks-Ressourcenbundles, mit denen Sie Ihre Databricks-Projekte als Code ausdrücken können:

deploy, deployment, destroy, generate, init, run, schema, sync, validate
sync Synchronisiert ein lokales Verzeichnis mit einem Arbeitsbereichsverzeichnis

Vektorsuchbefehle

Group Beschreibung und Befehle
vector-search-endpoints Befehle zum Verwalten von Vektorsuchendpunkten, die die Computeressourcen zum Hosten von Vektorsuchindizes darstellen:

create-endpoint, delete-endpoint, get-endpoint, list-endpoints
vector-search-indexes Befehle zum Verwalten von Vektorsuchindizes, einer effizienten Darstellung Ihrer Einbettungsvektoren, die Echtzeit- und effiziente ANN-Suchabfragen (Approximate Nearest Neighbor) unterstützen:

create-index, delete-data-vector-index, delete-index, get-index, list-indexes, query-index, sync-index, upsert-data-vector-index

Dashboardbefehle

Group Beschreibung und Befehle
dashboards Befehle zum Ändern von Dashboards:

create, delete, get, list, restore, update
lakeview Befehle, die bestimmte Verwaltungsvorgänge für KI/BI-Dashboards ermöglichen:

create, get, get-published, migrate, publish, trash, unpublish, update

Zusätzliche Befehle

Group Beschreibung und Befehle
api Befehle zum Senden von Anforderungen an die Databricks-REST-API:

delete, get, head, patch, post, put
completion Befehle zum Generieren des Autovervollständigungsskripts für die angegebene Shell:

bash, fish, powershell, zsh
configure Konfiguriert die Databricks CLI
help Ausgabeverwendungsinformationen für jeden Befehl
labs Befehle zum Verwalten von Databricks Labs-Installationen:

clear-cache, install, installed, list, show, uninstall, upgrade
version Ruft die aktuell verwendete CLI-Version ab

Globale Flags

Die folgenden Flags sind für alle Databricks CLI-Befehle verfügbar. Beachten Sie, dass einige Flags für einige Befehle nicht gelten. Ausführliche Informationen zu bestimmten Befehlen und deren Flags finden Sie in der Befehlszeilenhilfe.

Flag Beschreibung
-h oder --help Hilfe für die Databricks CLI oder die zugehörige Befehlsgruppe oder den zugehörigen Befehl anzeigen.
-e oder --environment string Eine Zeichenfolge, die die Bündelumgebung darstellt, die ggf. für den zugehörigen Befehl verwendet werden soll.
--log-file Eine Zeichenfolge, die die Ausgabeprotokolle darstellt, in die geschrieben werden soll. Wenn dieses Flag nicht angegeben ist, werden Ausgabeprotokolle standardmäßig in stderr geschrieben.
--log-format text, um Ausgabeprotokolle in Text zu schreiben, oder json, um Ausgabeprotokolle in JSON zu schreiben. Wenn dieses Flag nicht angegeben ist, werden Ausgabeprotokolle als Text geschrieben.
--log-level Eine Zeichenfolge, die die Protokollformatebene darstellt. Wenn nicht angegeben, ist die Protokollformatebene deaktiviert.
-o oder --output text, um die Ausgabe als Text zu schreiben, oder json, um die Ausgabe als JSON zu schreiben. Wenn dieses Flag nicht angegeben ist, wird die Ausgabe als Text geschrieben.
-p oder --profile Eine Zeichenfolge, die das benannte Konfigurationsprofil darstellt, das in Ihrer .databrickscfg-Datei verwendet werden soll. Wenn dieses Flag nicht angegeben ist, wird das benannte DEFAULT-Profil verwendet, sofern vorhanden. Sie können Tab nach --profile oder -p drücken, um eine Liste der vorhandenen verfügbaren Konfigurationsprofile anzuzeigen, aus der Sie auswählen können, anstatt den Namen des Konfigurationsprofils manuell einzugeben.
--progress-format Das Format für die Anzeige von Statusprotokollen (default (Standard) oder append oder inplace oder json).