Teilen über


pipelines Befehlsgruppe

Note

Diese Informationen gelten für Databricks CLI-Versionen 0.205 und höher. Die Databricks CLI befindet sich in der öffentlichen Vorschau.

Die Verwendung von Databricks CLI unterliegt der Datenbricks-Lizenz - und Databricks-Datenschutzerklärung, einschließlich der Bestimmungen zu Nutzungsdaten.

Mit pipelines der Befehlsgruppe in der Databricks CLI können Sie Details zu Pipelines erstellen, bearbeiten, löschen, starten und anzeigen. Siehe Lakeflow Spark Declarative Pipelines.

Databricks-Pipelines erstellen

Erstellen Sie eine neue Datenverarbeitungspipeline basierend auf der angeforderten Konfiguration. Bei erfolgreicher Ausführung gibt dieser Befehl die ID der neuen Pipeline zurück.

databricks pipelines create [flags]

Arguments

None

Options

--json JSON

    Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.

Globale Kennzeichnungen

Databricks-Pipelines löschen

Löschen einer Pipeline.

databricks pipelines delete PIPELINE_ID [flags]

Arguments

PIPELINE_ID

    Die zu löschende Pipeline.

Options

Globale Kennzeichnungen

Abrufen von Databricks-Pipelines

Abrufen einer Pipeline.

databricks pipelines get PIPELINE_ID [flags]

Arguments

PIPELINE_ID

    Die Pipeline, die abgerufen werden soll.

Options

Globale Kennzeichnungen

databricks Pipelines Get-Update-Befehl

Abrufen eines Updates aus einer aktiven Pipeline.

databricks pipelines get-update PIPELINE_ID UPDATE_ID [flags]

Arguments

PIPELINE_ID

    Die ID (Identifikationsnummer) der Pipeline.

UPDATE_ID

    Die ID des Updates.

Options

Globale Kennzeichnungen

Verwenden Sie den Befehl "databricks pipelines list-pipeline-events", um Pipeline-Ereignisse aufzulisten.

Dient zum Abrufen von Ereignissen für eine Pipeline.

databricks pipelines list-pipeline-events PIPELINE_ID [flags]

Arguments

PIPELINE_ID

    Die Pipeline, für die Ereignisse abgerufen werden sollen.

Options

--filter string

    Kriterien zum Auswählen einer Teilmenge von Ergebnissen, ausgedrückt mithilfe einer SQL-ähnlichen Syntax.

--max-results int

    Maximale Anzahl von Einträgen, die auf einer einzelnen Seite zurückgegeben werden sollen.

--page-token string

    Über den vorherigen Aufruf angezeigtes Seitentoken.

Globale Kennzeichnungen

databricks pipelines list-pipelines

Im Delta Live Tables-System definierte Pipelines auflisten.

databricks pipelines list-pipelines [flags]

Arguments

None

Options

--filter string

    Wählen Sie eine Teilmenge der Ergebnisse basierend auf den angegebenen Kriterien aus.

--max-results int

    Die maximale Anzahl von Einträgen, die auf einer einzelnen Seite zurückgegeben werden sollen.

--page-token string

    Über den vorherigen Aufruf angezeigtes Seitentoken.

Globale Kennzeichnungen

Databricks-Pipelines Listenaktualisierungen

Updates für eine aktive Pipeline auflisten.

databricks pipelines list-updates PIPELINE_ID [flags]

Arguments

PIPELINE_ID

    Die Pipeline, für die Aktualisierungen zurückgegeben werden sollen.

Options

--max-results int

    Maximale Anzahl von Einträgen, die auf einer einzelnen Seite zurückgegeben werden sollen.

--page-token string

    Über den vorherigen Aufruf angezeigtes Seitentoken.

--until-update-id string

    Wenn vorhanden, werden Updates bis einschließlich dieser update_id zurückgegeben.

Globale Kennzeichnungen

Databricks-Pipelines Start-Update-Aufforderung

Starten einer neuen Aktualisierung für die Pipeline. Wenn bereits ein aktives Update für die Pipeline vorhanden ist, schlägt die Anforderung fehl, und das aktive Update wird weiterhin ausgeführt.

databricks pipelines start-update PIPELINE_ID [flags]

Arguments

PIPELINE_ID

    Die Pipeline, für die eine Aktualisierung gestartet werden soll.

Options

--cause StartUpdateCause

    Unterstützte Werte: [API_Aufruf, Aufgaben_Erstellung, Erneuter_Versuch_bei_Fehler, Schema_Änderung, Service_Aktualisierung, Benutzer_Aktion]

--full-refresh

    Wenn true, werden bei dieser Aktualisierung alle Tabellen zurückgesetzt, bevor sie ausgeführt wird.

--json JSON

    Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.

--validate-only

    Wenn dies der Fall ist, überprüft dieses Update nur die Richtigkeit des Pipelinequellcodes, aber es werden keine Datasets materialisiert oder veröffentlicht.

Globale Kennzeichnungen

Databricks-Pipelines beenden

Beenden Sie die Pipeline, indem Sie das aktive Update abbrechen. Wenn es keine aktive Aktualisierung für die Pipeline gibt, ist diese Anfrage ein No-Op.

databricks pipelines stop PIPELINE_ID [flags]

Arguments

PIPELINE_ID

    Die Pipeline, die angehalten werden soll.

Options

--no-wait

    nicht warten, bis der Zustand 'IDLE' erreicht ist

--timeout duration

    maximale Zeitspanne, um den IDLE-Zustand zu erreichen (Standard 20m0s)

Globale Kennzeichnungen

Aktualisierung von Databricks Pipelines

Aktualisieren Sie eine Pipeline mit der bereitgestellten Konfiguration.

databricks pipelines update PIPELINE_ID [flags]

Arguments

PIPELINE_ID

    Eindeutiger Bezeichner für diese Pipeline.

Options

--allow-duplicate-names

    Wenn false, schlägt die Bereitstellung fehl, wenn sich der Name geändert hat und mit dem Namen einer anderen Pipeline kollidiert.

--budget-policy-id string

    Budgetpolitik dieser Pipeline.

--catalog string

    Ein Katalog innerhalb des Unity-Katalogs, in dem Daten aus dieser Pipeline veröffentlicht werden können.

--channel string

    Lakeflow Spark Declarative Pipelines Release Channel, der angibt, welche Version verwendet werden soll.

--continuous

    Gibt an, ob die Pipeline fortlaufend ist oder ausgelöst wird.

--development

    Gibt an, ob sich die Pipeline im Entwicklungsmodus befindet.

--edition string

    Pipeline-Produktversion.

--expected-last-modified int

    Wenn vorhanden, die letzte Änderungszeit der Pipelineeinstellungen vor der Bearbeitung.

--id string

    Eindeutiger Bezeichner für diese Pipeline.

--json JSON

    Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.

--name string

    Benutzerfreundlicher Bezeichner für diese Pipeline.

--photon

    Gibt an, ob Photon für diese Pipeline aktiviert ist.

--pipeline-id string

    Eindeutiger Bezeichner für diese Pipeline.

--schema string

    Das Standardschema (Datenbank), in dem Tabellen gelesen oder veröffentlicht werden.

--serverless

    Gibt an, ob die serverlose Berechnung für diese Pipeline aktiviert ist.

--storage string

    DBFS-Stammverzeichnis zum Speichern von Prüfpunkten und Tabellen.

--target string

    Zielschema (Datenbank), dem Tabellen in dieser Pipeline hinzugefügt werden sollen.

Globale Kennzeichnungen

databricks pipelines Berechtigungsebenen abrufen

Pipeline-Berechtigungsstufen abrufen.

databricks pipelines get-permission-levels PIPELINE_ID [flags]

Arguments

PIPELINE_ID

    Die Pipeline, für die Berechtigungen abgerufen oder verwaltet werden sollen.

Options

Globale Kennzeichnungen

Databricks-Pipelines: Berechtigungen abrufen

Abrufen der Berechtigungen für eine Pipeline. Pipelines können Berechtigungen von ihrem Stammobjekt erben.

databricks pipelines get-permissions PIPELINE_ID [flags]

Arguments

PIPELINE_ID

    Die Pipeline, für die Berechtigungen abgerufen oder verwaltet werden sollen.

Options

Globale Kennzeichnungen

databricks pipelines set-permissions (Berechtigungen festlegen)

Festlegen von Berechtigungen für Pipelines.

Legt Berechtigungen für ein Objekt fest, wobei vorhandene Berechtigungen ersetzt werden, sofern vorhanden. Löscht alle direkten Berechtigungen, wenn keine angegeben sind. Objekte können Berechtigungen vom Stammobjekt erben.

databricks pipelines set-permissions PIPELINE_ID [flags]

Arguments

PIPELINE_ID

    Die Pipeline, für die Berechtigungen abgerufen oder verwaltet werden sollen.

Options

--json JSON

    Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.

Globale Kennzeichnungen

Databricks-Pipelines Aktualisierungsberechtigungen

Aktualisieren Sie die Berechtigungen für eine Pipeline. Pipelines können Berechtigungen von ihrem Stammobjekt erben.

databricks pipelines update-permissions PIPELINE_ID [flags]

Arguments

PIPELINE_ID

    Die Pipeline, für die Berechtigungen abgerufen oder verwaltet werden sollen.

Options

--json JSON

    Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.

Globale Kennzeichnungen

Globale Kennzeichnungen

--debug

  Gibt an, ob die Debugprotokollierung aktiviert werden soll.

-h oder --help

    Hilfe für die Databricks CLI oder die zugehörige Befehlsgruppe oder den zugehörigen Befehl anzeigen.

--log-file Schnur

    Eine Zeichenfolge, die die Datei darstellt, in die Ausgabeprotokolle geschrieben werden sollen. Wenn dieses Flag nicht angegeben ist, werden Ausgabeprotokolle standardmäßig in stderr geschrieben.

--log-format Format

    Der Protokollformattyp text oder json. Der Standardwert ist text.

--log-level Schnur

    Eine Zeichenfolge, die die Protokollformatebene darstellt. Wenn nicht angegeben, ist die Protokollformatebene deaktiviert.

-o, --output Typ

    Der Befehlsausgabetyp text oder json. Der Standardwert ist text.

-p, --profile Schnur

    Der Name des Profils in der ~/.databrickscfg Datei, das zum Ausführen des Befehls verwendet werden soll. Wenn dieses Flag nicht angegeben wird, wird, falls vorhanden, das Profil mit dem Namen DEFAULT verwendet.

--progress-format Format

    Das Format zum Anzeigen von Statusprotokollen: default, , append, inplaceoder json

-t, --target Schnur

    Falls zutreffend, das zu verwendende Bündelziel