Anmerkung
Der Zugriff auf diese Seite erfordert eine Genehmigung. Du kannst versuchen, dich anzumelden oder die Verzeichnisse zu wechseln.
Der Zugriff auf diese Seite erfordert eine Genehmigung. Du kannst versuchen , die Verzeichnisse zu wechseln.
Note
Diese Informationen gelten für Databricks CLI-Versionen 0.205 und höher. Die Databricks CLI befindet sich in der öffentlichen Vorschau.
Die Verwendung von Databricks CLI unterliegt der Datenbricks-Lizenz - und Databricks-Datenschutzerklärung, einschließlich der Bestimmungen zu Nutzungsdaten.
Mit pipelines der Befehlsgruppe in der Databricks CLI können Sie Details zu Pipelines erstellen, bearbeiten, löschen, starten und anzeigen. Siehe Lakeflow Spark Declarative Pipelines.
Databricks-Pipelines erstellen
Erstellen Sie eine neue Datenverarbeitungspipeline basierend auf der angeforderten Konfiguration. Bei erfolgreicher Ausführung gibt dieser Befehl die ID der neuen Pipeline zurück.
databricks pipelines create [flags]
Arguments
None
Options
--json JSON
Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.
Databricks-Pipelines löschen
Löschen einer Pipeline.
databricks pipelines delete PIPELINE_ID [flags]
Arguments
PIPELINE_ID
Die zu löschende Pipeline.
Options
Abrufen von Databricks-Pipelines
Abrufen einer Pipeline.
databricks pipelines get PIPELINE_ID [flags]
Arguments
PIPELINE_ID
Die Pipeline, die abgerufen werden soll.
Options
databricks Pipelines Get-Update-Befehl
Abrufen eines Updates aus einer aktiven Pipeline.
databricks pipelines get-update PIPELINE_ID UPDATE_ID [flags]
Arguments
PIPELINE_ID
Die ID (Identifikationsnummer) der Pipeline.
UPDATE_ID
Die ID des Updates.
Options
Verwenden Sie den Befehl "databricks pipelines list-pipeline-events", um Pipeline-Ereignisse aufzulisten.
Dient zum Abrufen von Ereignissen für eine Pipeline.
databricks pipelines list-pipeline-events PIPELINE_ID [flags]
Arguments
PIPELINE_ID
Die Pipeline, für die Ereignisse abgerufen werden sollen.
Options
--filter string
Kriterien zum Auswählen einer Teilmenge von Ergebnissen, ausgedrückt mithilfe einer SQL-ähnlichen Syntax.
--max-results int
Maximale Anzahl von Einträgen, die auf einer einzelnen Seite zurückgegeben werden sollen.
--page-token string
Über den vorherigen Aufruf angezeigtes Seitentoken.
databricks pipelines list-pipelines
Im Delta Live Tables-System definierte Pipelines auflisten.
databricks pipelines list-pipelines [flags]
Arguments
None
Options
--filter string
Wählen Sie eine Teilmenge der Ergebnisse basierend auf den angegebenen Kriterien aus.
--max-results int
Die maximale Anzahl von Einträgen, die auf einer einzelnen Seite zurückgegeben werden sollen.
--page-token string
Über den vorherigen Aufruf angezeigtes Seitentoken.
Databricks-Pipelines Listenaktualisierungen
Updates für eine aktive Pipeline auflisten.
databricks pipelines list-updates PIPELINE_ID [flags]
Arguments
PIPELINE_ID
Die Pipeline, für die Aktualisierungen zurückgegeben werden sollen.
Options
--max-results int
Maximale Anzahl von Einträgen, die auf einer einzelnen Seite zurückgegeben werden sollen.
--page-token string
Über den vorherigen Aufruf angezeigtes Seitentoken.
--until-update-id string
Wenn vorhanden, werden Updates bis einschließlich dieser update_id zurückgegeben.
Databricks-Pipelines Start-Update-Aufforderung
Starten einer neuen Aktualisierung für die Pipeline. Wenn bereits ein aktives Update für die Pipeline vorhanden ist, schlägt die Anforderung fehl, und das aktive Update wird weiterhin ausgeführt.
databricks pipelines start-update PIPELINE_ID [flags]
Arguments
PIPELINE_ID
Die Pipeline, für die eine Aktualisierung gestartet werden soll.
Options
--cause StartUpdateCause
Unterstützte Werte: [API_Aufruf, Aufgaben_Erstellung, Erneuter_Versuch_bei_Fehler, Schema_Änderung, Service_Aktualisierung, Benutzer_Aktion]
--full-refresh
Wenn true, werden bei dieser Aktualisierung alle Tabellen zurückgesetzt, bevor sie ausgeführt wird.
--json JSON
Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.
--validate-only
Wenn dies der Fall ist, überprüft dieses Update nur die Richtigkeit des Pipelinequellcodes, aber es werden keine Datasets materialisiert oder veröffentlicht.
Databricks-Pipelines beenden
Beenden Sie die Pipeline, indem Sie das aktive Update abbrechen. Wenn es keine aktive Aktualisierung für die Pipeline gibt, ist diese Anfrage ein No-Op.
databricks pipelines stop PIPELINE_ID [flags]
Arguments
PIPELINE_ID
Die Pipeline, die angehalten werden soll.
Options
--no-wait
nicht warten, bis der Zustand 'IDLE' erreicht ist
--timeout duration
maximale Zeitspanne, um den IDLE-Zustand zu erreichen (Standard 20m0s)
Aktualisierung von Databricks Pipelines
Aktualisieren Sie eine Pipeline mit der bereitgestellten Konfiguration.
databricks pipelines update PIPELINE_ID [flags]
Arguments
PIPELINE_ID
Eindeutiger Bezeichner für diese Pipeline.
Options
--allow-duplicate-names
Wenn false, schlägt die Bereitstellung fehl, wenn sich der Name geändert hat und mit dem Namen einer anderen Pipeline kollidiert.
--budget-policy-id string
Budgetpolitik dieser Pipeline.
--catalog string
Ein Katalog innerhalb des Unity-Katalogs, in dem Daten aus dieser Pipeline veröffentlicht werden können.
--channel string
Lakeflow Spark Declarative Pipelines Release Channel, der angibt, welche Version verwendet werden soll.
--continuous
Gibt an, ob die Pipeline fortlaufend ist oder ausgelöst wird.
--development
Gibt an, ob sich die Pipeline im Entwicklungsmodus befindet.
--edition string
Pipeline-Produktversion.
--expected-last-modified int
Wenn vorhanden, die letzte Änderungszeit der Pipelineeinstellungen vor der Bearbeitung.
--id string
Eindeutiger Bezeichner für diese Pipeline.
--json JSON
Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.
--name string
Benutzerfreundlicher Bezeichner für diese Pipeline.
--photon
Gibt an, ob Photon für diese Pipeline aktiviert ist.
--pipeline-id string
Eindeutiger Bezeichner für diese Pipeline.
--schema string
Das Standardschema (Datenbank), in dem Tabellen gelesen oder veröffentlicht werden.
--serverless
Gibt an, ob die serverlose Berechnung für diese Pipeline aktiviert ist.
--storage string
DBFS-Stammverzeichnis zum Speichern von Prüfpunkten und Tabellen.
--target string
Zielschema (Datenbank), dem Tabellen in dieser Pipeline hinzugefügt werden sollen.
databricks pipelines Berechtigungsebenen abrufen
Pipeline-Berechtigungsstufen abrufen.
databricks pipelines get-permission-levels PIPELINE_ID [flags]
Arguments
PIPELINE_ID
Die Pipeline, für die Berechtigungen abgerufen oder verwaltet werden sollen.
Options
Databricks-Pipelines: Berechtigungen abrufen
Abrufen der Berechtigungen für eine Pipeline. Pipelines können Berechtigungen von ihrem Stammobjekt erben.
databricks pipelines get-permissions PIPELINE_ID [flags]
Arguments
PIPELINE_ID
Die Pipeline, für die Berechtigungen abgerufen oder verwaltet werden sollen.
Options
databricks pipelines set-permissions (Berechtigungen festlegen)
Festlegen von Berechtigungen für Pipelines.
Legt Berechtigungen für ein Objekt fest, wobei vorhandene Berechtigungen ersetzt werden, sofern vorhanden. Löscht alle direkten Berechtigungen, wenn keine angegeben sind. Objekte können Berechtigungen vom Stammobjekt erben.
databricks pipelines set-permissions PIPELINE_ID [flags]
Arguments
PIPELINE_ID
Die Pipeline, für die Berechtigungen abgerufen oder verwaltet werden sollen.
Options
--json JSON
Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.
Databricks-Pipelines Aktualisierungsberechtigungen
Aktualisieren Sie die Berechtigungen für eine Pipeline. Pipelines können Berechtigungen von ihrem Stammobjekt erben.
databricks pipelines update-permissions PIPELINE_ID [flags]
Arguments
PIPELINE_ID
Die Pipeline, für die Berechtigungen abgerufen oder verwaltet werden sollen.
Options
--json JSON
Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.
Globale Kennzeichnungen
--debug
Gibt an, ob die Debugprotokollierung aktiviert werden soll.
-h oder --help
Hilfe für die Databricks CLI oder die zugehörige Befehlsgruppe oder den zugehörigen Befehl anzeigen.
--log-file Schnur
Eine Zeichenfolge, die die Datei darstellt, in die Ausgabeprotokolle geschrieben werden sollen. Wenn dieses Flag nicht angegeben ist, werden Ausgabeprotokolle standardmäßig in stderr geschrieben.
--log-format Format
Der Protokollformattyp text oder json. Der Standardwert ist text.
--log-level Schnur
Eine Zeichenfolge, die die Protokollformatebene darstellt. Wenn nicht angegeben, ist die Protokollformatebene deaktiviert.
-o, --output Typ
Der Befehlsausgabetyp text oder json. Der Standardwert ist text.
-p, --profile Schnur
Der Name des Profils in der ~/.databrickscfg Datei, das zum Ausführen des Befehls verwendet werden soll. Wenn dieses Flag nicht angegeben wird, wird, falls vorhanden, das Profil mit dem Namen DEFAULT verwendet.
--progress-format Format
Das Format zum Anzeigen von Statusprotokollen: default, , append, inplaceoder json
-t, --target Schnur
Falls zutreffend, das zu verwendende Bündelziel