Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Note
Diese Informationen gelten für Databricks CLI-Versionen 0.205 und höher. Die Databricks CLI befindet sich in der öffentlichen Vorschau.
Die Verwendung von Databricks CLI unterliegt der Datenbricks-Lizenz - und Databricks-Datenschutzerklärung, einschließlich der Bestimmungen zu Nutzungsdaten.
Mit clusters der Befehlsgruppe in der Databricks CLI können Sie Cluster erstellen, starten, bearbeiten, auflisten, beenden und löschen.
Ein Databricks-Cluster ist eine Reihe von Berechnungsressourcen und -konfigurationen, auf denen Sie Daten engineering-, Data Science- und Data Analytics-Workloads ausführen, z. B. Produktions-ETL-Pipelines, Streaminganalysen, Ad-hoc-Analysen und maschinelles Lernen. Siehe klassische Berechnungsübersicht.
Important
Databricks behält Clusterkonfigurationsinformationen für beendete Cluster für 30 Tage bei. Um eine allzweckfähige Clusterkonfiguration auch nach der Beendigung für mehr als 30 Tage beizubehalten, kann ein Administrator einen Cluster an die Clusterliste anheften.
databricks cluster change-owner
Ändern Sie den Besitzer des Clusters. Sie müssen ein Administrator sein, und der Cluster muss beendet werden, um diesen Vorgang auszuführen. Die ID der Anwendung des Dienstprinzipals kann als Argument für owner_username angegeben werden.
databricks clusters change-owner CLUSTER_ID OWNER_USERNAME [flags]
Arguments
CLUSTER_ID
Die Cluster-ID.
OWNER_USERNAME
Neuer Besitzer des cluster_id nach diesem RPC.
Options
--json JSON
Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.
Databricks-Cluster erstellen
Erstellen Sie einen neuen Cluster. Dieser Befehl erwirbt bei Bedarf neue Instanzen vom Cloudanbieter. Dieser Befehl ist asynchron; die zurückgegebene cluster_id kann verwendet werden, um den Clusterstatus abzufragen. Wenn dieser Befehl zurückgegeben wird, befindet sich der Cluster in einem AUSSTEHENDEN Zustand. Der Cluster kann verwendet werden, sobald er in einen RUNNING-Zustand wechselt. Databricks können möglicherweise einige der angeforderten Knoten aufgrund von Einschränkungen des Cloudanbieters (Kontobeschränkungen, Spotpreis usw.) oder vorübergehende Netzwerkprobleme nicht erwerben.
Wenn Databricks mindestens 85% der angeforderten On-Demand-Knoten abruft, wird die Clustererstellung erfolgreich ausgeführt. Andernfalls wird der Cluster mit einer informativen Fehlermeldung beendet.
Anstatt die JSON-Definition des Clusters von Grund auf neu zu erstellen, empfiehlt Databricks, die Erstellung der Compute-UI auszufüllen und dann die generierte JSON-Definition aus der Benutzeroberfläche zu kopieren.
databricks clusters create SPARK_VERSION [flags]
Arguments
SPARK_VERSION
Die Spark-Version des Clusters, z. B. 13.3.x-scala2.12. Eine Liste der verfügbaren Spark-Versionen kann durch die API List available Spark versions abgerufen werden.
Options
--apply-policy-default-values
Wenn dieser Wert auf "true" festgelegt ist, werden feste und Standardwerte aus der Richtlinie für felder verwendet, die weggelassen werden.
--autotermination-minutes int
Dadurch wird der Cluster automatisch beendet, wenn er für diese Zeit in Minuten inaktiv ist.
--cluster-name string
Der vom Benutzer angeforderte Clustername.
--data-security-mode DataSecurityMode
Der Datensicherheitsmodus entscheidet, welches Datengovernancemodell beim Zugriff auf Daten aus einem Cluster verwendet werden soll. Unterstützte Werte: DATA_SECURITY_MODE_AUTO, , DATA_SECURITY_MODE_DEDICATED, DATA_SECURITY_MODE_STANDARD, LEGACY_PASSTHROUGHLEGACY_SINGLE_USER, LEGACY_SINGLE_USER_STANDARD, LEGACY_TABLE_ACL, NONE, SINGLE_USERUSER_ISOLATION
--driver-instance-pool-id string
Die optionale ID des Instanzpools für den Treiber, zu dem der Cluster gehört.
--driver-node-type-id string
Der Knotentyp des Spark-Treibers.
--enable-elastic-disk
Autoskalierung des lokalen Speichers: Wenn diese Option aktiviert ist, erwirbt der Cluster dynamisch zusätzlichen Datenträgerspeicher, wenn der Speicherplatz seiner Spark-Worker zur Neige geht.
--enable-local-disk-encryption
Gibt an, ob LUKS auf den lokalen Datenträgern von Cluster-VMs aktiviert werden soll.
--instance-pool-id string
Die optionale ID des Instanzpools, zu dem der Cluster gehört.
--is-single-node
Dieses Feld kann nur verwendet werden, wenn art = CLASSIC_PREVIEW.
--json JSON
Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.
--kind Kind
Die durch diese Berechnungsspezifikation beschriebene Art von Berechnung. Unterstützte Werte: CLASSIC_PREVIEW
--no-wait
Warten Sie nicht, bis der Zustand "RUNNING" erreicht ist.
--node-type-id string
Dieses Feld codiert mithilfe eines einzigen Werts die Ressourcen, die jedem der Spark-Knoten in diesem Cluster zur Verfügung stehen.
--num-workers int
Die Anzahl der Workerknoten, die dieser Cluster haben sollte.
--policy-id string
Die ID der Clusterrichtlinie, die zum Erstellen des Clusters verwendet wird, falls zutreffend.
--runtime-engine RuntimeEngine
Bestimmt die Runtime Engine des Clusters, entweder Standard oder Photon. Unterstützte Werte: NULL, PHOTON, STANDARD
--single-user-name string
Einzelner Benutzername, wenn data_security_mode SINGLE_USER ist.
--timeout duration
maximale Zeitspanne bis zum Erreichen des RUNNING-Zustands (Standard 20m0s)
--use-ml-runtime
Dieses Feld kann nur verwendet werden, wenn art = CLASSIC_PREVIEW.
Databricks-Cluster löschen
Beenden Sie den Cluster mit der angegebenen ID. Der Cluster wird asynchron entfernt. Sobald die Beendigung abgeschlossen ist, befindet sich der Cluster in einem TERMINATED Zustand. Wenn sich der Cluster bereits in einem TERMINATING Oder TERMINATED Zustand befindet, geschieht nichts.
databricks clusters delete CLUSTER_ID [flags]
Arguments
CLUSTER_ID
Der Cluster, der abgeschaltet werden soll.
Options
--json JSON
Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.
--no-wait
Warten Sie nicht, bis Sie den TERMINATED Status erreichen.
--timeout duration
Die maximale Zeit zum Erreichen des TERMINATED-Zustands (Standard 20m0s)
Databricks-Cluster bearbeiten
Aktualisieren Sie die Konfiguration eines Clusters so, dass sie den bereitgestellten Attributen und der größe entspricht. Ein Cluster kann aktualisiert werden, wenn er sich im Zustand "RUNNING" oder "TERMINATED" befindet.
Wenn ein Cluster während eines RUNNING-Zustands aktualisiert wird, wird er neu gestartet, sodass die neuen Attribute wirksam werden können.
Wenn ein Cluster während eines TERMINATED-Zustands aktualisiert wird, bleibt er BEENDET. Wenn sie das nächste Mal mit der Cluster-/Start-API gestartet wird, werden die neuen Attribute wirksam. Jeder Versuch, einen Cluster in einem anderen Zustand zu aktualisieren, wird mit einem INVALID_STATE Fehlercode abgelehnt.
Cluster, die vom Databricks Jobs-Dienst erstellt wurden, können nicht bearbeitet werden.
databricks clusters edit CLUSTER_ID SPARK_VERSION [flags]
Arguments
CLUSTER_ID
ID des Clusters
SPARK_VERSION
Die Spark-Version des Clusters, z. B. 13.3.x-scala2.12. Eine Liste der verfügbaren Spark-Versionen kann durch die API List available Spark versions abgerufen werden.
Options
--apply-policy-default-values
Verwenden Sie feste und Standardwerte aus der Richtlinie für Felder, die weggelassen werden.
--autotermination-minutes int
Beendet den Cluster automatisch, nachdem er für diese Zeit in Minuten inaktiv war.
--cluster-name string
Der vom Benutzer angeforderte Clustername.
--data-security-mode DataSecurityMode
Der Datensicherheitsmodus entscheidet, welches Datengovernancemodell beim Zugriff auf Daten aus einem Cluster verwendet werden soll. Unterstützte Werte: DATA_SECURITY_MODE_AUTO, , DATA_SECURITY_MODE_DEDICATED``, DATA_SECURITY_MODE_STANDARD, LEGACY_PASSTHROUGH, LEGACY_SINGLE_USERLEGACY_SINGLE_USER_STANDARD, LEGACY_TABLE_ACL, NONE, , SINGLE_USERUSER_ISOLATION
--driver-instance-pool-id string
Die optionale ID des Instanzpools für den Treiber, zu dem der Cluster gehört.
--driver-node-type-id string
Der Knotentyp des Spark-Treibers.
--enable-elastic-disk
Autoskalierung des lokalen Speichers: Wenn diese Option aktiviert ist, erwirbt der Cluster dynamisch zusätzlichen Datenträgerspeicher, wenn der Speicherplatz seiner Spark-Worker zur Neige geht.
--enable-local-disk-encryption
Gibt an, ob LUKS auf den lokalen Datenträgern von Cluster-VMs aktiviert werden soll.
--instance-pool-id string
Die optionale ID des Instanzpools, zu dem der Cluster gehört.
--is-single-node
Dieses Feld kann nur verwendet werden, wenn art = CLASSIC_PREVIEW.
--json JSON
Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.
--kind Kind
Die durch diese Berechnungsspezifikation beschriebene Art von Berechnung. Unterstützte Werte: CLASSIC_PREVIEW
--no-wait
Warten Sie nicht darauf, dass der Zustand "RUNNING" erreicht wird
--node-type-id string
Dieses Feld codiert mithilfe eines einzigen Werts die Ressourcen, die jedem der Spark-Knoten in diesem Cluster zur Verfügung stehen.
--num-workers int
Die Anzahl der Workerknoten, die dieser Cluster haben sollte.
--policy-id string
Die ID der Clusterrichtlinie, die zum Erstellen des Clusters verwendet wird, falls zutreffend.
--runtime-engine RuntimeEngine
Bestimmt die Runtime Engine des Clusters, entweder Standard oder Photon. Unterstützte Werte: NULL, PHOTON, STANDARD
--single-user-name string
Ein Benutzername, wenn der data_security_mode SINGLE_USER ist.
--timeout duration
maximale Zeitspanne bis zum Erreichen des RUNNING-Zustands (Standard 20m0s)
--use-ml-runtime
Dieses Feld kann nur verwendet werden, wenn art = CLASSIC_PREVIEW.
Databricks-Clusterereignisse
Auflisten von Ereignissen über die Aktivität eines Clusters. Diese API ist paginiert. Wenn weitere Zu lesende Ereignisse vorhanden sind, enthält die Antwort alle Parameter, die zum Anfordern der nächsten Seite von Ereignissen erforderlich sind.
databricks clusters events CLUSTER_ID [flags]
Arguments
CLUSTER_ID
Die ID des Clusters, von dem Ereignisse abgerufen werden sollen.
Options
--end-time int
Die Endzeit in Epoche-Millisekunden.
--json JSON
Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.
--limit int
Veraltet: Verwenden Sie stattdessen page_token in Kombination mit page_size.
--offset int
Veraltet: Verwenden Sie stattdessen page_token in Kombination mit page_size.
--order GetEventsOrder
Die Reihenfolge, in der Ereignisse aufgeführt werden sollen. Unterstützte Werte: ASC, DESC
--page-size int
Die maximale Anzahl von Ereignissen, die in eine Seite von Ereignissen eingeschlossen werden sollen.
--page-token string
Verwenden Sie next_page_token oder prev_page_token, die von der vorherigen Anfrage zurückgegeben wurden, um die nächste bzw. vorherige Seite der Ereignisse aufzulisten.
--start-time int
Die Startzeit in Epochen-Millisekunden.
databricks cluster get
Ruft die Informationen für einen Cluster anhand seines Bezeichners ab. Cluster können beschrieben werden, während sie ausgeführt werden, oder bis zu 60 Tage nach ihrer Terminierung.
databricks clusters get CLUSTER_ID [flags]
Arguments
CLUSTER_ID
Der Cluster, über den Informationen abgerufen werden sollen.
Options
Databricks-Clusterliste
Listen Sie Informationen zu allen angehefteten und aktiven Clustern sowie zu allen Clustern auf, die in den letzten 30 Tagen terminiert wurden. Cluster, die vor diesem Zeitraum beendet wurden, sind nicht enthalten.
databricks clusters list [flags]
Arguments
None
Options
--cluster-sources []string
Filtern von Clustern nach Quelle
--cluster-states []string
Filtern von Clustern nach Zuständen
--is-pinned
Cluster nach angeheftetem Status filtern
--page-size int
Verwenden Sie dieses Feld, um die maximale Anzahl von Ergebnissen anzugeben, die vom Server zurückgegeben werden sollen.
--page-token string
Verwenden Sie next_page_token oder prev_page_token, die von der vorherigen Anfrage zurückgegeben wurden, um die nächste bzw. vorherige Seite der Cluster aufzulisten.
--policy-id string
Filtern von Clustern nach Richtlinien-ID
databricks cluster list-node-types
Auflisten unterstützter Spark-Knotentypen. Diese Knotentypen können verwendet werden, um einen Cluster zu starten.
databricks clusters list-node-types [flags]
Arguments
None
Options
Databricks-Cluster-Listenzonen
Listet die Verfügbarkeitszonen auf, in denen Cluster erstellt werden können (z. B. "us-west-2a"). Diese Zonen können verwendet werden, um einen Cluster zu starten.
databricks clusters list-zones [flags]
Arguments
None
Options
Databricks-Cluster permanent löschen
Cluster endgültig löschen. Dieser Cluster wird beendet, und Ressourcen werden asynchron entfernt.
Darüber hinaus werden Benutzern nicht mehr dauerhaft gelöschte Cluster in der Clusterliste angezeigt, und API-Benutzer können keine Aktion mehr für dauerhaft gelöschte Cluster ausführen.
databricks clusters permanent-delete CLUSTER_ID [flags]
Arguments
CLUSTER_ID
Der zu löschende Cluster.
Options
--json JSON
Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.
Databricks-Cluster anheften
Anheften eines Clusters, um sicherzustellen, dass der Cluster immer von der ListClusters API zurückgegeben wird. Das Anheften eines Clusters, der bereits angeheftet ist, hat keine Auswirkungen. Diese API kann nur von Arbeitsbereichsadministratoren aufgerufen werden.
databricks clusters pin CLUSTER_ID [flags]
Arguments
CLUSTER_ID
Die Cluster-ID.
Options
--json JSON
Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.
Databricks-Cluster skalieren
Ändern Sie die Größe des Clusters, um eine gewünschte Anzahl von Mitarbeitern zu haben. Dies schlägt fehl, es sei denn, der Cluster befindet sich in einem RUNNING-Zustand.
databricks clusters resize CLUSTER_ID [flags]
Arguments
CLUSTER_ID
Der Cluster, dessen Größe geändert werden soll.
Options
--json JSON
Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.
--no-wait
Warten Sie nicht, bis der Zustand "RUNNING" erreicht ist.
--num-workers int
Die Anzahl der Workerknoten, die dieser Cluster haben sollte.
--timeout duration
Die maximale Zeit, um den "RUNNING"-Zustand zu erreichen (Standard 20 Minuten)
Databricks-Cluster neu starten
Starten Sie einen Cluster mit der angegebenen ID neu. Wenn sich der Cluster derzeit nicht in einem RUNNING-Zustand befindet, geschieht nichts.
databricks clusters restart CLUSTER_ID [flags]
Arguments
CLUSTER_ID
Der zu startende Cluster.
Options
--json JSON
Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.
--no-wait
Warten Sie nicht, bis der Zustand "RUNNING" erreicht ist.
--restart-user string
Benutzer, der den Cluster neu gestartet hat.
--timeout duration
Die maximale Zeit, um den "RUNNING"-Zustand zu erreichen (Standard 20 Minuten)
databricks-Cluster Spark-Versionen
Auflisten der verfügbaren Spark-Versionen. Diese Versionen können verwendet werden, um einen Cluster zu starten.
databricks clusters spark-versions [flags]
Arguments
None
Options
Databricks-Cluster starten
Starten Sie einen beendeten Cluster mit der angegebenen ID. Dies funktioniert ähnlich wie createCluster, außer: - Die vorherige Cluster-ID und Attribute bleiben erhalten. - Der Cluster beginnt mit der letzten angegebenen Clustergröße. - Wenn der vorherige Cluster ein Autoskalierungs-Cluster war, startet der aktuelle Cluster mit der minimalen Anzahl von Knoten. - Wenn sich der Cluster gegenwärtig nicht im TERMINATED-Zustand befindet, passiert nichts. - Cluster, die gestartet wurden, um einen Auftrag auszuführen, können nicht gestartet werden.
databricks clusters start CLUSTER_ID [flags]
Arguments
CLUSTER_ID
Der zu startende Cluster.
Options
--json JSON
Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.
--no-wait
Warten Sie nicht, bis der Zustand "RUNNING" erreicht ist.
--timeout duration
Die maximale Zeit, um den "RUNNING"-Zustand zu erreichen (Standard 20 Minuten)
Databricks-Cluster lösen die Heftung
Entpinnen Sie einen Cluster, damit der Cluster letztendlich aus der ListClusters-API entfernt werden kann. Das Aufheben der Anheftung eines Clusters, der nicht angeheftet ist, hat keine Auswirkung. Diese API kann nur von Arbeitsbereichsadministratoren aufgerufen werden.
databricks clusters unpin CLUSTER_ID [flags]
Arguments
CLUSTER_ID
Die Cluster-ID.
Options
--json JSON
Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.
Databricks-Cluster aktualisieren
Aktualisieren Sie die Konfiguration eines Clusters so, dass sie mit dem teilweisen Satz von Attributen und der Größe übereinstimmt. Geben Sie an, welche Felder mithilfe des felds update_mask im Anforderungstext aktualisiert werden sollen. Ein Cluster kann aktualisiert werden, wenn er sich im Zustand "RUNNING" oder "TERMINATED" befindet. Wenn ein Cluster während eines RUNNING-Zustands aktualisiert wird, wird er neu gestartet, sodass die neuen Attribute wirksam werden können. Wenn ein Cluster im TERMINATED-Zustand aktualisiert wird, bleibt er im TERMINATED-Zustand. Die aktualisierten Attribute werden wirksam, wenn der Cluster das nächste Mal mit der Clusterstart-API gestartet wird. Versuche, einen Cluster in einem anderen Zustand zu aktualisieren, werden mit einem INVALID_STATE Fehlercode abgelehnt. Cluster, die vom Databricks Jobs-Dienst erstellt wurden, können nicht aktualisiert werden.
databricks clusters update CLUSTER_ID UPDATE_MASK [flags]
Arguments
CLUSTER_ID
ID des Clusters.
UPDATE_MASK
Wird verwendet, um anzugeben, welche Clusterattribute und Größenfelder aktualisiert werden sollen. Weitere Informationen finden Sie unter https://google.aip.dev/161. Die Feldmaske muss eine einzelne Zeichenfolge sein, wobei mehrere Felder durch Kommas getrennt werden (keine Leerzeichen). Der Feldpfad ist relativ zum Ressourcenobjekt, wobei ein Punkt (.) verwendet wird, um unterfelder zu navigieren (z. B author.given_name. ). Die Angabe von Elementen in Sequenz- oder Zuordnungsfeldern ist nicht möglich, da nur das gesamte Collection-Feld angegeben werden kann. Die Feldnamen müssen genau mit den Feldnamen der Ressourcen übereinstimmen. Eine Feldmaske von _ zeigt einen vollständigen Ersatz an. Es wird empfohlen, die zu aktualisierenden Felder immer explizit auflisten und die Verwendung von _ Wildcards zu vermeiden, da sie zu unbeabsichtigten Ergebnissen führen kann, wenn sich die API in zukunft ändert.
Options
--json JSON
Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.
--no-wait
Warten Sie nicht, bis der Zustand "RUNNING" erreicht ist.
--timeout duration
Die maximale Zeit, um den "RUNNING"-Zustand zu erreichen (Standard 20 Minuten)
databricks cluster get-permission-levels
Cluster-Berechtigungslevel abrufen
databricks clusters get-permission-levels CLUSTER_ID [flags]
Arguments
CLUSTER_ID
Der Cluster, für den Berechtigungen abgerufen oder verwaltet werden sollen.
Options
get-permissions für Databricks-Cluster
Cluster-Berechtigungen abrufen. Cluster können Berechtigungen von ihrem Stammobjekt erben.
databricks clusters get-permissions CLUSTER_ID [flags]
Arguments
CLUSTER_ID
Der Cluster, für den Berechtigungen abgerufen oder verwaltet werden sollen.
Options
databricks cluster set-permissions
Legen Sie Clusterberechtigungen fest, und ersetzen Sie vorhandene Berechtigungen, falls vorhanden. Löscht alle direkten Berechtigungen, wenn keine angegeben sind. Objekte können Berechtigungen von ihrem Root-Objekt erben.
databricks clusters set-permissions CLUSTER_ID [flags]
Arguments
CLUSTER_ID
Der Cluster, für den Berechtigungen abgerufen oder verwaltet werden sollen.
Options
--json JSON
Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.
databricks cluster update-permissions
Aktualisieren Sie die Berechtigungen für einen Cluster. Cluster können Berechtigungen von ihrem Stammobjekt erben.
databricks clusters update-permissions CLUSTER_ID [flags]
Arguments
CLUSTER_ID
Der Cluster, für den Berechtigungen abgerufen oder verwaltet werden sollen.
Options
--json JSON
Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.
Globale Kennzeichnungen
--debug
Ob die Debug-Protokollierung aktiviert werden soll.
-h oder --help
Hilfe für die Databricks CLI oder die zugehörige Befehlsgruppe oder den zugehörigen Befehl anzeigen.
--log-file Zeichenfolge
Eine Zeichenfolge, die die Datei darstellt, in die Ausgabeprotokolle geschrieben werden sollen. Wenn dieses Flag nicht angegeben ist, werden Ausgabeprotokolle standardmäßig in stderr geschrieben.
--log-format Format
Der Typ des Protokollformats, text oder json. Der Standardwert ist text.
--log-level Zeichenfolge
Eine Zeichenfolge, die die Protokollformatebene darstellt. Wenn nicht angegeben, ist die Protokollformatebene deaktiviert.
-o, --output Typ
Der Typ der Befehlsausgabe, text oder json. Der Standardwert ist text.
-p, --profile Zeichenfolge
Der Name des Profils in der Datei ~/.databrickscfg, das zum Ausführen des Befehls verwendet werden soll. Wenn dieses Flag nicht angegeben wird, wird, falls vorhanden, das Profil mit dem Namen DEFAULT verwendet.
--progress-format Format
Das Format für die Anzeige der Fortschrittsprotokolle: default, append, inplace, oder json
-t, --target Zeichenfolge
Falls zutreffend, das zu verwendende Bundle-Ziel