Freigeben über


clusters Befehlsgruppe

Note

Diese Informationen gelten für Databricks CLI-Versionen 0.205 und höher. Die Databricks CLI befindet sich in der öffentlichen Vorschau.

Die Verwendung von Databricks CLI unterliegt der Datenbricks-Lizenz - und Databricks-Datenschutzerklärung, einschließlich der Bestimmungen zu Nutzungsdaten.

Mit clusters der Befehlsgruppe in der Databricks CLI können Sie Cluster erstellen, starten, bearbeiten, auflisten, beenden und löschen.

Ein Databricks-Cluster ist eine Reihe von Berechnungsressourcen und -konfigurationen, auf denen Sie Daten engineering-, Data Science- und Data Analytics-Workloads ausführen, z. B. Produktions-ETL-Pipelines, Streaminganalysen, Ad-hoc-Analysen und maschinelles Lernen. Siehe klassische Berechnungsübersicht.

Important

Databricks behält Clusterkonfigurationsinformationen für beendete Cluster für 30 Tage bei. Um eine allzweckfähige Clusterkonfiguration auch nach der Beendigung für mehr als 30 Tage beizubehalten, kann ein Administrator einen Cluster an die Clusterliste anheften.

databricks cluster change-owner

Ändern Sie den Besitzer des Clusters. Sie müssen ein Administrator sein, und der Cluster muss beendet werden, um diesen Vorgang auszuführen. Die ID der Anwendung des Dienstprinzipals kann als Argument für owner_username angegeben werden.

databricks clusters change-owner CLUSTER_ID OWNER_USERNAME [flags]

Arguments

CLUSTER_ID

    Die Cluster-ID.

OWNER_USERNAME

    Neuer Besitzer des cluster_id nach diesem RPC.

Options

--json JSON

    Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.

Globale Kennzeichnungen

Databricks-Cluster erstellen

Erstellen Sie einen neuen Cluster. Dieser Befehl erwirbt bei Bedarf neue Instanzen vom Cloudanbieter. Dieser Befehl ist asynchron; die zurückgegebene cluster_id kann verwendet werden, um den Clusterstatus abzufragen. Wenn dieser Befehl zurückgegeben wird, befindet sich der Cluster in einem AUSSTEHENDEN Zustand. Der Cluster kann verwendet werden, sobald er in einen RUNNING-Zustand wechselt. Databricks können möglicherweise einige der angeforderten Knoten aufgrund von Einschränkungen des Cloudanbieters (Kontobeschränkungen, Spotpreis usw.) oder vorübergehende Netzwerkprobleme nicht erwerben.

Wenn Databricks mindestens 85% der angeforderten On-Demand-Knoten abruft, wird die Clustererstellung erfolgreich ausgeführt. Andernfalls wird der Cluster mit einer informativen Fehlermeldung beendet.

Anstatt die JSON-Definition des Clusters von Grund auf neu zu erstellen, empfiehlt Databricks, die Erstellung der Compute-UI auszufüllen und dann die generierte JSON-Definition aus der Benutzeroberfläche zu kopieren.

databricks clusters create SPARK_VERSION [flags]

Arguments

SPARK_VERSION

    Die Spark-Version des Clusters, z. B. 13.3.x-scala2.12. Eine Liste der verfügbaren Spark-Versionen kann durch die API List available Spark versions abgerufen werden.

Options

--apply-policy-default-values

    Wenn dieser Wert auf "true" festgelegt ist, werden feste und Standardwerte aus der Richtlinie für felder verwendet, die weggelassen werden.

--autotermination-minutes int

    Dadurch wird der Cluster automatisch beendet, wenn er für diese Zeit in Minuten inaktiv ist.

--cluster-name string

    Der vom Benutzer angeforderte Clustername.

--data-security-mode DataSecurityMode

    Der Datensicherheitsmodus entscheidet, welches Datengovernancemodell beim Zugriff auf Daten aus einem Cluster verwendet werden soll. Unterstützte Werte: DATA_SECURITY_MODE_AUTO, , DATA_SECURITY_MODE_DEDICATED, DATA_SECURITY_MODE_STANDARD, LEGACY_PASSTHROUGHLEGACY_SINGLE_USER, LEGACY_SINGLE_USER_STANDARD, LEGACY_TABLE_ACL, NONE, SINGLE_USERUSER_ISOLATION

--driver-instance-pool-id string

    Die optionale ID des Instanzpools für den Treiber, zu dem der Cluster gehört.

--driver-node-type-id string

    Der Knotentyp des Spark-Treibers.

--enable-elastic-disk

    Autoskalierung des lokalen Speichers: Wenn diese Option aktiviert ist, erwirbt der Cluster dynamisch zusätzlichen Datenträgerspeicher, wenn der Speicherplatz seiner Spark-Worker zur Neige geht.

--enable-local-disk-encryption

    Gibt an, ob LUKS auf den lokalen Datenträgern von Cluster-VMs aktiviert werden soll.

--instance-pool-id string

    Die optionale ID des Instanzpools, zu dem der Cluster gehört.

--is-single-node

    Dieses Feld kann nur verwendet werden, wenn art = CLASSIC_PREVIEW.

--json JSON

    Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.

--kind Kind

    Die durch diese Berechnungsspezifikation beschriebene Art von Berechnung. Unterstützte Werte: CLASSIC_PREVIEW

--no-wait

    Warten Sie nicht, bis der Zustand "RUNNING" erreicht ist.

--node-type-id string

    Dieses Feld codiert mithilfe eines einzigen Werts die Ressourcen, die jedem der Spark-Knoten in diesem Cluster zur Verfügung stehen.

--num-workers int

    Die Anzahl der Workerknoten, die dieser Cluster haben sollte.

--policy-id string

    Die ID der Clusterrichtlinie, die zum Erstellen des Clusters verwendet wird, falls zutreffend.

--runtime-engine RuntimeEngine

    Bestimmt die Runtime Engine des Clusters, entweder Standard oder Photon. Unterstützte Werte: NULL, PHOTON, STANDARD

--single-user-name string

    Einzelner Benutzername, wenn data_security_mode SINGLE_USER ist.

--timeout duration

    maximale Zeitspanne bis zum Erreichen des RUNNING-Zustands (Standard 20m0s)

--use-ml-runtime

    Dieses Feld kann nur verwendet werden, wenn art = CLASSIC_PREVIEW.

Globale Kennzeichnungen

Databricks-Cluster löschen

Beenden Sie den Cluster mit der angegebenen ID. Der Cluster wird asynchron entfernt. Sobald die Beendigung abgeschlossen ist, befindet sich der Cluster in einem TERMINATED Zustand. Wenn sich der Cluster bereits in einem TERMINATING Oder TERMINATED Zustand befindet, geschieht nichts.

databricks clusters delete CLUSTER_ID [flags]

Arguments

CLUSTER_ID

    Der Cluster, der abgeschaltet werden soll.

Options

--json JSON

    Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.

--no-wait

    Warten Sie nicht, bis Sie den TERMINATED Status erreichen.

--timeout duration

    Die maximale Zeit zum Erreichen des TERMINATED-Zustands (Standard 20m0s)

Globale Kennzeichnungen

Databricks-Cluster bearbeiten

Aktualisieren Sie die Konfiguration eines Clusters so, dass sie den bereitgestellten Attributen und der größe entspricht. Ein Cluster kann aktualisiert werden, wenn er sich im Zustand "RUNNING" oder "TERMINATED" befindet.

Wenn ein Cluster während eines RUNNING-Zustands aktualisiert wird, wird er neu gestartet, sodass die neuen Attribute wirksam werden können.

Wenn ein Cluster während eines TERMINATED-Zustands aktualisiert wird, bleibt er BEENDET. Wenn sie das nächste Mal mit der Cluster-/Start-API gestartet wird, werden die neuen Attribute wirksam. Jeder Versuch, einen Cluster in einem anderen Zustand zu aktualisieren, wird mit einem INVALID_STATE Fehlercode abgelehnt.

Cluster, die vom Databricks Jobs-Dienst erstellt wurden, können nicht bearbeitet werden.

databricks clusters edit CLUSTER_ID SPARK_VERSION [flags]

Arguments

CLUSTER_ID

    ID des Clusters

SPARK_VERSION

    Die Spark-Version des Clusters, z. B. 13.3.x-scala2.12. Eine Liste der verfügbaren Spark-Versionen kann durch die API List available Spark versions abgerufen werden.

Options

--apply-policy-default-values

    Verwenden Sie feste und Standardwerte aus der Richtlinie für Felder, die weggelassen werden.

--autotermination-minutes int

    Beendet den Cluster automatisch, nachdem er für diese Zeit in Minuten inaktiv war.

--cluster-name string

    Der vom Benutzer angeforderte Clustername.

--data-security-mode DataSecurityMode

    Der Datensicherheitsmodus entscheidet, welches Datengovernancemodell beim Zugriff auf Daten aus einem Cluster verwendet werden soll. Unterstützte Werte: DATA_SECURITY_MODE_AUTO, , DATA_SECURITY_MODE_DEDICATED``, DATA_SECURITY_MODE_STANDARD, LEGACY_PASSTHROUGH, LEGACY_SINGLE_USERLEGACY_SINGLE_USER_STANDARD, LEGACY_TABLE_ACL, NONE, , SINGLE_USERUSER_ISOLATION

--driver-instance-pool-id string

    Die optionale ID des Instanzpools für den Treiber, zu dem der Cluster gehört.

--driver-node-type-id string

    Der Knotentyp des Spark-Treibers.

--enable-elastic-disk

    Autoskalierung des lokalen Speichers: Wenn diese Option aktiviert ist, erwirbt der Cluster dynamisch zusätzlichen Datenträgerspeicher, wenn der Speicherplatz seiner Spark-Worker zur Neige geht.

--enable-local-disk-encryption

    Gibt an, ob LUKS auf den lokalen Datenträgern von Cluster-VMs aktiviert werden soll.

--instance-pool-id string

    Die optionale ID des Instanzpools, zu dem der Cluster gehört.

--is-single-node

    Dieses Feld kann nur verwendet werden, wenn art = CLASSIC_PREVIEW.

--json JSON

    Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.

--kind Kind

    Die durch diese Berechnungsspezifikation beschriebene Art von Berechnung. Unterstützte Werte: CLASSIC_PREVIEW

--no-wait

    Warten Sie nicht darauf, dass der Zustand "RUNNING" erreicht wird

--node-type-id string

    Dieses Feld codiert mithilfe eines einzigen Werts die Ressourcen, die jedem der Spark-Knoten in diesem Cluster zur Verfügung stehen.

--num-workers int

    Die Anzahl der Workerknoten, die dieser Cluster haben sollte.

--policy-id string

    Die ID der Clusterrichtlinie, die zum Erstellen des Clusters verwendet wird, falls zutreffend.

--runtime-engine RuntimeEngine

    Bestimmt die Runtime Engine des Clusters, entweder Standard oder Photon. Unterstützte Werte: NULL, PHOTON, STANDARD

--single-user-name string

    Ein Benutzername, wenn der data_security_mode SINGLE_USER ist.

--timeout duration

    maximale Zeitspanne bis zum Erreichen des RUNNING-Zustands (Standard 20m0s)

--use-ml-runtime

    Dieses Feld kann nur verwendet werden, wenn art = CLASSIC_PREVIEW.

Globale Kennzeichnungen

Databricks-Clusterereignisse

Auflisten von Ereignissen über die Aktivität eines Clusters. Diese API ist paginiert. Wenn weitere Zu lesende Ereignisse vorhanden sind, enthält die Antwort alle Parameter, die zum Anfordern der nächsten Seite von Ereignissen erforderlich sind.

databricks clusters events CLUSTER_ID [flags]

Arguments

CLUSTER_ID

    Die ID des Clusters, von dem Ereignisse abgerufen werden sollen.

Options

--end-time int

    Die Endzeit in Epoche-Millisekunden.

--json JSON

    Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.

--limit int

    Veraltet: Verwenden Sie stattdessen page_token in Kombination mit page_size.

--offset int

    Veraltet: Verwenden Sie stattdessen page_token in Kombination mit page_size.

--order GetEventsOrder

    Die Reihenfolge, in der Ereignisse aufgeführt werden sollen. Unterstützte Werte: ASC, DESC

--page-size int

    Die maximale Anzahl von Ereignissen, die in eine Seite von Ereignissen eingeschlossen werden sollen.

--page-token string

    Verwenden Sie next_page_token oder prev_page_token, die von der vorherigen Anfrage zurückgegeben wurden, um die nächste bzw. vorherige Seite der Ereignisse aufzulisten.

--start-time int

    Die Startzeit in Epochen-Millisekunden.

Globale Kennzeichnungen

databricks cluster get

Ruft die Informationen für einen Cluster anhand seines Bezeichners ab. Cluster können beschrieben werden, während sie ausgeführt werden, oder bis zu 60 Tage nach ihrer Terminierung.

databricks clusters get CLUSTER_ID [flags]

Arguments

CLUSTER_ID

    Der Cluster, über den Informationen abgerufen werden sollen.

Options

Globale Kennzeichnungen

Databricks-Clusterliste

Listen Sie Informationen zu allen angehefteten und aktiven Clustern sowie zu allen Clustern auf, die in den letzten 30 Tagen terminiert wurden. Cluster, die vor diesem Zeitraum beendet wurden, sind nicht enthalten.

databricks clusters list [flags]

Arguments

None

Options

--cluster-sources []string

    Filtern von Clustern nach Quelle

--cluster-states []string

    Filtern von Clustern nach Zuständen

--is-pinned

    Cluster nach angeheftetem Status filtern

--page-size int

    Verwenden Sie dieses Feld, um die maximale Anzahl von Ergebnissen anzugeben, die vom Server zurückgegeben werden sollen.

--page-token string

    Verwenden Sie next_page_token oder prev_page_token, die von der vorherigen Anfrage zurückgegeben wurden, um die nächste bzw. vorherige Seite der Cluster aufzulisten.

--policy-id string

    Filtern von Clustern nach Richtlinien-ID

Globale Kennzeichnungen

databricks cluster list-node-types

Auflisten unterstützter Spark-Knotentypen. Diese Knotentypen können verwendet werden, um einen Cluster zu starten.

databricks clusters list-node-types [flags]

Arguments

None

Options

Globale Kennzeichnungen

Databricks-Cluster-Listenzonen

Listet die Verfügbarkeitszonen auf, in denen Cluster erstellt werden können (z. B. "us-west-2a"). Diese Zonen können verwendet werden, um einen Cluster zu starten.

databricks clusters list-zones [flags]

Arguments

None

Options

Globale Kennzeichnungen

Databricks-Cluster permanent löschen

Cluster endgültig löschen. Dieser Cluster wird beendet, und Ressourcen werden asynchron entfernt.

Darüber hinaus werden Benutzern nicht mehr dauerhaft gelöschte Cluster in der Clusterliste angezeigt, und API-Benutzer können keine Aktion mehr für dauerhaft gelöschte Cluster ausführen.

databricks clusters permanent-delete CLUSTER_ID [flags]

Arguments

CLUSTER_ID

    Der zu löschende Cluster.

Options

--json JSON

    Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.

Globale Kennzeichnungen

Databricks-Cluster anheften

Anheften eines Clusters, um sicherzustellen, dass der Cluster immer von der ListClusters API zurückgegeben wird. Das Anheften eines Clusters, der bereits angeheftet ist, hat keine Auswirkungen. Diese API kann nur von Arbeitsbereichsadministratoren aufgerufen werden.

databricks clusters pin CLUSTER_ID [flags]

Arguments

CLUSTER_ID

    Die Cluster-ID.

Options

--json JSON

    Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.

Globale Kennzeichnungen

Databricks-Cluster skalieren

Ändern Sie die Größe des Clusters, um eine gewünschte Anzahl von Mitarbeitern zu haben. Dies schlägt fehl, es sei denn, der Cluster befindet sich in einem RUNNING-Zustand.

databricks clusters resize CLUSTER_ID [flags]

Arguments

CLUSTER_ID

    Der Cluster, dessen Größe geändert werden soll.

Options

--json JSON

    Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.

--no-wait

    Warten Sie nicht, bis der Zustand "RUNNING" erreicht ist.

--num-workers int

    Die Anzahl der Workerknoten, die dieser Cluster haben sollte.

--timeout duration

    Die maximale Zeit, um den "RUNNING"-Zustand zu erreichen (Standard 20 Minuten)

Globale Kennzeichnungen

Databricks-Cluster neu starten

Starten Sie einen Cluster mit der angegebenen ID neu. Wenn sich der Cluster derzeit nicht in einem RUNNING-Zustand befindet, geschieht nichts.

databricks clusters restart CLUSTER_ID [flags]

Arguments

CLUSTER_ID

    Der zu startende Cluster.

Options

--json JSON

    Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.

--no-wait

    Warten Sie nicht, bis der Zustand "RUNNING" erreicht ist.

--restart-user string

    Benutzer, der den Cluster neu gestartet hat.

--timeout duration

    Die maximale Zeit, um den "RUNNING"-Zustand zu erreichen (Standard 20 Minuten)

Globale Kennzeichnungen

databricks-Cluster Spark-Versionen

Auflisten der verfügbaren Spark-Versionen. Diese Versionen können verwendet werden, um einen Cluster zu starten.

databricks clusters spark-versions [flags]

Arguments

None

Options

Globale Kennzeichnungen

Databricks-Cluster starten

Starten Sie einen beendeten Cluster mit der angegebenen ID. Dies funktioniert ähnlich wie createCluster, außer: - Die vorherige Cluster-ID und Attribute bleiben erhalten. - Der Cluster beginnt mit der letzten angegebenen Clustergröße. - Wenn der vorherige Cluster ein Autoskalierungs-Cluster war, startet der aktuelle Cluster mit der minimalen Anzahl von Knoten. - Wenn sich der Cluster gegenwärtig nicht im TERMINATED-Zustand befindet, passiert nichts. - Cluster, die gestartet wurden, um einen Auftrag auszuführen, können nicht gestartet werden.

databricks clusters start CLUSTER_ID [flags]

Arguments

CLUSTER_ID

    Der zu startende Cluster.

Options

--json JSON

    Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.

--no-wait

    Warten Sie nicht, bis der Zustand "RUNNING" erreicht ist.

--timeout duration

    Die maximale Zeit, um den "RUNNING"-Zustand zu erreichen (Standard 20 Minuten)

Globale Kennzeichnungen

Databricks-Cluster lösen die Heftung

Entpinnen Sie einen Cluster, damit der Cluster letztendlich aus der ListClusters-API entfernt werden kann. Das Aufheben der Anheftung eines Clusters, der nicht angeheftet ist, hat keine Auswirkung. Diese API kann nur von Arbeitsbereichsadministratoren aufgerufen werden.

databricks clusters unpin CLUSTER_ID [flags]

Arguments

CLUSTER_ID

    Die Cluster-ID.

Options

--json JSON

    Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.

Globale Kennzeichnungen

Databricks-Cluster aktualisieren

Aktualisieren Sie die Konfiguration eines Clusters so, dass sie mit dem teilweisen Satz von Attributen und der Größe übereinstimmt. Geben Sie an, welche Felder mithilfe des felds update_mask im Anforderungstext aktualisiert werden sollen. Ein Cluster kann aktualisiert werden, wenn er sich im Zustand "RUNNING" oder "TERMINATED" befindet. Wenn ein Cluster während eines RUNNING-Zustands aktualisiert wird, wird er neu gestartet, sodass die neuen Attribute wirksam werden können. Wenn ein Cluster im TERMINATED-Zustand aktualisiert wird, bleibt er im TERMINATED-Zustand. Die aktualisierten Attribute werden wirksam, wenn der Cluster das nächste Mal mit der Clusterstart-API gestartet wird. Versuche, einen Cluster in einem anderen Zustand zu aktualisieren, werden mit einem INVALID_STATE Fehlercode abgelehnt. Cluster, die vom Databricks Jobs-Dienst erstellt wurden, können nicht aktualisiert werden.

databricks clusters update CLUSTER_ID UPDATE_MASK [flags]

Arguments

CLUSTER_ID

    ID des Clusters.

UPDATE_MASK

    Wird verwendet, um anzugeben, welche Clusterattribute und Größenfelder aktualisiert werden sollen. Weitere Informationen finden Sie unter https://google.aip.dev/161. Die Feldmaske muss eine einzelne Zeichenfolge sein, wobei mehrere Felder durch Kommas getrennt werden (keine Leerzeichen). Der Feldpfad ist relativ zum Ressourcenobjekt, wobei ein Punkt (.) verwendet wird, um unterfelder zu navigieren (z. B author.given_name. ). Die Angabe von Elementen in Sequenz- oder Zuordnungsfeldern ist nicht möglich, da nur das gesamte Collection-Feld angegeben werden kann. Die Feldnamen müssen genau mit den Feldnamen der Ressourcen übereinstimmen. Eine Feldmaske von _ zeigt einen vollständigen Ersatz an. Es wird empfohlen, die zu aktualisierenden Felder immer explizit auflisten und die Verwendung von _ Wildcards zu vermeiden, da sie zu unbeabsichtigten Ergebnissen führen kann, wenn sich die API in zukunft ändert.

Options

--json JSON

    Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.

--no-wait

    Warten Sie nicht, bis der Zustand "RUNNING" erreicht ist.

--timeout duration

    Die maximale Zeit, um den "RUNNING"-Zustand zu erreichen (Standard 20 Minuten)

Globale Kennzeichnungen

databricks cluster get-permission-levels

Cluster-Berechtigungslevel abrufen

databricks clusters get-permission-levels CLUSTER_ID [flags]

Arguments

CLUSTER_ID

    Der Cluster, für den Berechtigungen abgerufen oder verwaltet werden sollen.

Options

Globale Kennzeichnungen

get-permissions für Databricks-Cluster

Cluster-Berechtigungen abrufen. Cluster können Berechtigungen von ihrem Stammobjekt erben.

databricks clusters get-permissions CLUSTER_ID [flags]

Arguments

CLUSTER_ID

    Der Cluster, für den Berechtigungen abgerufen oder verwaltet werden sollen.

Options

Globale Kennzeichnungen

databricks cluster set-permissions

Legen Sie Clusterberechtigungen fest, und ersetzen Sie vorhandene Berechtigungen, falls vorhanden. Löscht alle direkten Berechtigungen, wenn keine angegeben sind. Objekte können Berechtigungen von ihrem Root-Objekt erben.

databricks clusters set-permissions CLUSTER_ID [flags]

Arguments

CLUSTER_ID

    Der Cluster, für den Berechtigungen abgerufen oder verwaltet werden sollen.

Options

--json JSON

    Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.

Globale Kennzeichnungen

databricks cluster update-permissions

Aktualisieren Sie die Berechtigungen für einen Cluster. Cluster können Berechtigungen von ihrem Stammobjekt erben.

databricks clusters update-permissions CLUSTER_ID [flags]

Arguments

CLUSTER_ID

    Der Cluster, für den Berechtigungen abgerufen oder verwaltet werden sollen.

Options

--json JSON

    Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.

Globale Kennzeichnungen

Globale Kennzeichnungen

--debug

  Ob die Debug-Protokollierung aktiviert werden soll.

-h oder --help

    Hilfe für die Databricks CLI oder die zugehörige Befehlsgruppe oder den zugehörigen Befehl anzeigen.

--log-file Zeichenfolge

    Eine Zeichenfolge, die die Datei darstellt, in die Ausgabeprotokolle geschrieben werden sollen. Wenn dieses Flag nicht angegeben ist, werden Ausgabeprotokolle standardmäßig in stderr geschrieben.

--log-format Format

    Der Typ des Protokollformats, text oder json. Der Standardwert ist text.

--log-level Zeichenfolge

    Eine Zeichenfolge, die die Protokollformatebene darstellt. Wenn nicht angegeben, ist die Protokollformatebene deaktiviert.

-o, --output Typ

    Der Typ der Befehlsausgabe, text oder json. Der Standardwert ist text.

-p, --profile Zeichenfolge

    Der Name des Profils in der Datei ~/.databrickscfg, das zum Ausführen des Befehls verwendet werden soll. Wenn dieses Flag nicht angegeben wird, wird, falls vorhanden, das Profil mit dem Namen DEFAULT verwendet.

--progress-format Format

    Das Format für die Anzeige der Fortschrittsprotokolle: default, append, inplace, oder json

-t, --target Zeichenfolge

    Falls zutreffend, das zu verwendende Bundle-Ziel