Teilen über


jobs Befehlsgruppe

Note

Diese Informationen gelten für Databricks CLI-Versionen 0.205 und höher. Die Databricks CLI befindet sich in der öffentlichen Vorschau.

Die Verwendung von Databricks CLI unterliegt der Datenbricks-Lizenz - und Databricks-Datenschutzerklärung, einschließlich der Bestimmungen zu Nutzungsdaten.

Mit jobs der Befehlsgruppe in der Databricks CLI können Sie Aufträge erstellen, bearbeiten und löschen. Siehe Lakeflow Jobs.

databricks Jobs alle Läufe abbrechen

Bricht alle aktiven Ausführung eines Auftrags ab. Die Annulierung erfolgt asynchron, verhindert also nicht, dass neue Ausführungen gestartet werden.

databricks jobs cancel-all-runs [flags]

Arguments

None

Options

--all-queued-runs

    Optionaler Boolescher Parameter zum Stornieren aller in die Warteschlange eingereihten Ausführungen.

--job-id int

    Der kanonische Bezeichner des Auftrags, für den alle Ausführungen abgebrochen werden sollen

--json JSON

    Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.

Globale Kennzeichnungen

Databricks-Aufträge abbrechen

Lauf abbrechen.

Bricht die Ausführung eines Jobs oder einer Aufgabe ab. Die Ausführung des Vorgangs wird asynchron gestoppt, sodass er möglicherweise noch läuft, wenn diese Anfrage abgeschlossen ist.

databricks jobs cancel-run RUN_ID [flags]

Arguments

RUN_ID

    Dieses Feld ist erforderlich.

Options

--json JSON

    Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.

--no-wait

    Warten Sie nicht darauf, dass der Status „TERMINATED“ oder „SKIPPED“ erreicht wurde.

--timeout duration

    maximale Zeitspanne, um den Status TERMINATED oder SKIPPED zu erreichen (Standardwert 20m0s)

Globale Kennzeichnungen

Databricks-Aufträge erstellen

Erstellen Sie eine neue Stelle.

databricks jobs create [flags]

Arguments

None

Options

--json JSON

    Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.

Globale Kennzeichnungen

Databricks-Aufträge löschen

Einen Job löschen.

databricks jobs delete JOB_ID [flags]

Arguments

JOB_ID

    Der kanonische Bezeichner des Auftrags, der gelöscht werden soll. Dieses Feld ist erforderlich.

Options

--json JSON

    Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.

Globale Kennzeichnungen

databricks Jobs löschen-lauf

Löschen Sie eine nicht aktive Ausführung. Gibt einen Fehler zurück, wenn die Ausführung aktiv ist.

databricks jobs delete-run RUN_ID [flags]

Arguments

RUN_ID

    ID der zu löschenden Ausführung.

Options

--json JSON

    Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.

Globale Kennzeichnungen

Exportausführung von Databricks-Aufträgen

Exportieren Sie die Auftragsausführungsaufgabe, und rufen Sie sie ab.

databricks jobs export-run RUN_ID [flags]

Arguments

RUN_ID

    Der kanonische Bezeichner für die Ausführung Dieses Feld ist erforderlich.

Options

--views-to-export ViewsToExport

    Welche Ansichten exportiert werden sollen. Unterstützte Werte: ALL, CODE, DASHBOARDS

Globale Kennzeichnungen

Databricks-Aufträge erhalten

Ruft die Details für einen einzelnen Auftrag ab.

Große Arrays in den Ergebnissen werden paginiert, wenn sie 100 Elemente überschreiten. Eine Anforderung für einen einzelnen Auftrag gibt alle Eigenschaften für diesen Auftrag und die ersten 100 Elemente von Arrayeigenschaften (Aufgaben, job_clusters, Umgebungen und Parameter) zurück. Verwenden Sie das Feld next_page_token, um nach weiteren Ergebnissen zu suchen und seinen Wert als page_token in nachfolgenden Anfragen zu übergeben. Wenn Array-Eigenschaften mehr als 100 Elemente aufweisen, werden zusätzliche Ergebnisse für nachfolgende Anfragen zurückgegeben. Arrays ohne zusätzliche Ergebnisse werden auf späteren Seiten leer sein.

databricks jobs get JOB_ID [flags]

Arguments

JOB_ID

    Der kanonische Bezeichner des Auftrags, zu dem Informationen abgerufen werden sollen. Dieses Feld ist erforderlich.

Options

--page-token string

    Verwenden Sie den durch die vorherige GetJob-Antwort zurückgegebenen next_page_token, um die nächste Seite der Array-Eigenschaften des Auftrags anzufordern.

Globale Kennzeichnungen

Databricks-Aufträge get-run

Ruft die Metadaten einer Auftragsausführung ab.

Große Arrays in den Ergebnissen werden paginiert, wenn sie 100 Elemente überschreiten. Eine Anforderung für eine einzelne Ausführung gibt alle Eigenschaften für diese Ausführung und die ersten 100 Elemente von Arrayeigenschaften (Aufgaben, job_clusters, job_parameters und repair_history) zurück. Verwenden Sie das Feld next_page_token, um nach weiteren Ergebnissen zu suchen und seinen Wert als page_token in nachfolgenden Anfragen zu übergeben. Wenn Array-Eigenschaften mehr als 100 Elemente aufweisen, werden zusätzliche Ergebnisse für nachfolgende Anfragen zurückgegeben. Arrays ohne zusätzliche Ergebnisse werden auf späteren Seiten leer sein.

databricks jobs get-run RUN_ID [flags]

Arguments

RUN_ID

    Der kanonische Bezeichner der Ausführung, für die Metadaten abgerufen werden sollen. Dieses Feld ist erforderlich.

Options

--include-history

    Schließen Sie den Reparaturverlauf in die Antwort ein.

--include-resolved-values

    Schließen Sie aufgelöste Parameterwerte in die Antwort ein.

--page-token string

    Verwenden Sie next_page_token, das von der vorherigen GetRun-Antwort zurückgegeben wurde, um die nächste Seite der Array-Eigenschaften des Laufs anzufordern.

Globale Kennzeichnungen

Databricks-Befehle: jobs get-run-output

Rufen Sie die Ausgabe und die Metadaten einer einzelnen Aufgabenausführung ab. Wenn eine Notizbuchaufgabe einen Wert über den Aufruf "dbutils.notebook.exit()" zurückgibt, können Sie diesen Wert mithilfe dieses Befehls abrufen. Databricks beschränkt diese API auf die Rückgabe der ersten 5 MB der Ausgabe. Zur Rückgabe größerer Ergebnisse können Sie Auftragsergebnisse in einem Cloudspeicherdienst speichern.

Dieser Befehl überprüft, ob der parameter run_id gültig ist, und gibt einen HTTP-Statuscode 400 zurück, wenn der run_id-Parameter ungültig ist. Die Ausführungen werden nach 60 Tagen automatisch entfernt. Wenn Sie nach 60 Tagen auf sie verweisen möchten, müssen Sie alte Ausführungsergebnisse speichern, bevor sie ablaufen.

databricks jobs get-run-output RUN_ID [flags]

Arguments

RUN_ID

    Der kanonische Bezeichner für die Ausführung

Options

Globale Kennzeichnungen

Databricks-Auftragsliste

Eine Liste von Jobs abrufen.

databricks jobs list [flags]

Arguments

None

Options

--expand-tasks

    Gibt an, ob Aufgaben- und Clusterdetails in die Antwort eingeschlossen werden sollen.

--limit int

    Die Anzahl der zurückzugebenden Jobs.

--name string

    Ein Filter für die Liste, der auf dem exakten (Groß- und Kleinschreibung nicht berücksichtigenden) Namen des Jobs basiert.

--offset int

    Der Offset des ersten Jobs, der zurückgegeben wird, relativ zum zuletzt erstellten Job.

--page-token string

    Verwenden Sie next_page_token oder prev_page_token, die von der vorherigen Anfrage zurückgegeben wurden, um die nächste bzw. vorherige Seite der Jobs aufzulisten.

Globale Kennzeichnungen

databricks jobs list-runs (Databricks-Befehle zur Auflistung von Aufträgen und deren Ausführungen)

Jobläufe in absteigender Reihenfolge nach Startzeit auflisten.

databricks jobs list-runs [flags]

Arguments

None

Options

--active-only

    Wenn active_only wahr ist, werden nur aktive Ausführungen einbezogen; andernfalls werden sowohl aktive als auch abgeschlossene Ausführungen aufgelistet.

--completed-only

    Wenn completed_only auf Wahr gesetzt ist, werden nur abgeschlossene Läufe in die Ergebnisse einbezogen; andernfalls werden sowohl aktive als auch abgeschlossene Läufe aufgelistet.

--expand-tasks

    Gibt an, ob Aufgaben- und Clusterdetails in die Antwort eingeschlossen werden sollen.

--job-id int

    Der Auftrag, für den Ausführungen aufgelistet werden sollen.

--limit int

    Die Anzahl von Ausführungen, die zurückgegeben werden sollen.

--offset int

    Der Offset der ersten Ausführung, die zurückgegeben werden soll, relativ zur letzten Ausführung.

--page-token string

    Verwenden Sie next_page_token oder prev_page_token, die von der vorherigen Anfrage zurückgegeben wurden, um die nächste bzw. die vorherige Seite der ausgeführten Aufträge aufzulisten.

--run-type RunType

    Der Typ der Ausführungen, die zurückgegeben werden sollen. Unterstützte Werte: [JOB_RUN, SUBMIT_RUN, WORKFLOW_RUN]

--start-time-from int

    Anzeigen von Läufen, die bei oder nach diesem Wert gestartet wurden.

--start-time-to int

    Anzeigen von Läufen, die mit oder vor diesem Wert gestartet wurden.

Globale Kennzeichnungen

databricks Jobs Reparaturdurchlauf

Führen Sie eine oder mehrere Auftragsaufgaben erneut aus. Aufgaben werden als Teil der ursprünglichen Auftragsausführung erneut ausgeführt. Sie verwenden die aktuellen Job- und Task-Einstellungen und können in der Historie für die ursprüngliche Job-Ausführung eingesehen werden.

databricks jobs repair-run RUN_ID [flags]

Arguments

RUN_ID

    Die Run-ID des Jobs, der repariert werden soll. Die Ausführung darf nicht im Gange sein.

Options

--json JSON

    Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.

--latest-repair-id int

    Die ID der neuesten Reparatur.

--no-wait

    Warten Sie nicht darauf, dass der Status „TERMINATED“ oder „SKIPPED“ erreicht wurde.

--performance-target PerformanceTarget

    Der Performancemodus für einen serverlosen Job. Unterstützte Werte: [PERFORMANCE_OPTIMIZED, STANDARD]

--rerun-all-failed-tasks

    Wenn "wahr", reparieren Sie alle fehlgeschlagenen Vorgänge.

--rerun-dependent-tasks

    Wenn dies wahr ist, werden alle Aufgaben repariert, die von den Aufgaben in rerun_tasks abhängig sind, selbst wenn sie zuvor bereits erfolgreich abgeschlossen wurden.

--timeout duration

    maximale Zeitspanne, um den Status TERMINATED oder SKIPPED zu erreichen (Standardwert 20m0s)

Globale Kennzeichnungen

Zurücksetzen von Databricks-Aufträgen

Überschreiben Sie alle Einstellungen für den angegebenen Auftrag. Verwenden Sie den databricks jobs update Befehl, um Auftragseinstellungen teilweise zu aktualisieren.

databricks jobs reset [flags]

Arguments

None

Options

--json JSON

    Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.

Globale Kennzeichnungen

Databricks-Aufträge werden jetzt ausgeführt

Führen Sie einen Auftrag aus, und geben Sie den run_id der ausgelösten Ausführung zurück.

databricks jobs run-now JOB_ID [flags]

Arguments

JOB_ID

    Die ID des auszuführenden Auftrags

Options

--idempotency-token string

    Ein optionales Token, um die Idempotenz von Anforderungen zur Auftragsausführung zu gewährleisten

--json JSON

    Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.

--no-wait

    Warten Sie nicht darauf, dass der Status „TERMINATED“ oder „SKIPPED“ erreicht wurde.

--performance-target PerformanceTarget

    Der Performancemodus für einen serverlosen Job. Unterstützte Werte: [PERFORMANCE_OPTIMIZED, STANDARD]

--timeout duration

    maximale Zeitspanne, um den Status TERMINATED oder SKIPPED zu erreichen (Standardwert 20m0s)

Globale Kennzeichnungen

Databricks-Aufträge übermitteln

Erstellen und triggern einer einmaligen Ausführung. Auf diese Weise können Sie eine Arbeitslast direkt einreichen, ohne einen Auftrag zu erstellen.

databricks jobs submit [flags]

Note

Mit databricks jobs submit übermittelte Aufträge werden nicht als Auftrag gespeichert. Sie werden nicht auf der Benutzeroberfläche angezeigt, und versuchen Sie nicht erneut, wenn sie fehlschlagen. Da sie nicht gespeichert werden, können Azure Databricks die serverlose Berechnung im Falle eines Fehlers nicht automatisch optimieren. Wenn Ihr Auftrag fehlschlägt, sollten Sie die klassische Berechnung verwenden, um die Berechnungsanforderungen für den Auftrag anzugeben. Alternativ können Sie den Auftrag mit jobs create und jobs run-now erstellen und ausführen.

Arguments

None

Options

--budget-policy-id string

    Der Benutzer hat die ID der Budgetrichtlinie angegeben, die für diese einmalige Ausführung verwendet werden soll.

--idempotency-token string

    Ein optionales Token, um die Idempotenz von Anforderungen zur Auftragsausführung zu gewährleisten.

--json JSON

    Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.

--no-wait

    Warten Sie nicht darauf, dass der Status „TERMINATED“ oder „SKIPPED“ erreicht wurde.

--run-name string

    Ein optionaler Name für die Ausführung

--timeout duration

    maximale Zeitspanne, um den Status TERMINATED oder SKIPPED zu erreichen (Standardwert 20m0s)

--timeout-seconds int

    Ein optionales Timeout, das auf jede Ausführung dieses Auftrags angewendet wird.

Globale Kennzeichnungen

Databricks-Aufträge aktualisieren

Hinzufügen, Aktualisieren oder Entfernen bestimmter Einstellungen eines vorhandenen Auftrags. Verwenden Sie reset, um alle Job-Einstellungen zu überschreiben.

databricks jobs update JOB_ID [flags]

Arguments

JOB_ID

    Der kanonische Bezeichner des Auftrags, der aktualisiert werden soll Dieses Feld ist erforderlich.

Options

--json JSON

    Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.

Globale Kennzeichnungen

databricks jobs Berechtigungsstufen abrufen

Berechtigungen für einen Job abfragen.

databricks jobs get-permission-levels JOB_ID [flags]

Arguments

JOB_ID

    Der Auftrag, für den Berechtigungen abgerufen oder verwaltet werden sollen.

Options

Globale Kennzeichnungen

databricks Aufträge Berechtigungen abrufen

Die Berechtigungen eines Jobs abrufen. Jobs können Berechtigungen von ihrem Stammobjekt erben.

databricks jobs get-permissions JOB_ID [flags]

Arguments

JOB_ID

    Der Auftrag, für den Berechtigungen abgerufen oder verwaltet werden sollen.

Options

Globale Kennzeichnungen

databricks Jobs Berechtigungen festlegen

Job-Berechtigungen festlegen.

Legt Berechtigungen für ein Objekt fest, wobei vorhandene Berechtigungen ersetzt werden, sofern vorhanden. Löscht alle direkten Berechtigungen, wenn keine angegeben sind. Objekte können Berechtigungen vom Stammobjekt erben.

databricks jobs set-permissions JOB_ID [flags]

Arguments

JOB_ID

    Der Auftrag, für den Berechtigungen abgerufen oder verwaltet werden sollen.

Options

--json JSON

    Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.

Globale Kennzeichnungen

Databricks-Aufträge– Aktualisierungsberechtigungen

Aktualisieren Sie die Berechtigungen für eine Aufgabe. Jobs können Berechtigungen von ihrem Stammobjekt erben.

databricks jobs update-permissions JOB_ID [flags]

Arguments

JOB_ID

    Der Auftrag, für den Berechtigungen abgerufen oder verwaltet werden sollen.

Options

--json JSON

    Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.

Globale Kennzeichnungen

Globale Kennzeichnungen

--debug

  Gibt an, ob die Debugprotokollierung aktiviert werden soll.

-h oder --help

    Hilfe für die Databricks CLI oder die zugehörige Befehlsgruppe oder den zugehörigen Befehl anzeigen.

--log-file Schnur

    Eine Zeichenfolge, die die Datei darstellt, in die Ausgabeprotokolle geschrieben werden sollen. Wenn dieses Flag nicht angegeben ist, werden Ausgabeprotokolle standardmäßig in stderr geschrieben.

--log-format Format

    Der Protokollformattyp text oder json. Der Standardwert ist text.

--log-level Schnur

    Eine Zeichenfolge, die die Protokollformatebene darstellt. Wenn nicht angegeben, ist die Protokollformatebene deaktiviert.

-o, --output Typ

    Der Befehlsausgabetyp text oder json. Der Standardwert ist text.

-p, --profile Schnur

    Der Name des Profils in der ~/.databrickscfg Datei, das zum Ausführen des Befehls verwendet werden soll. Wenn dieses Flag nicht angegeben wird, wird, falls vorhanden, das Profil mit dem Namen DEFAULT verwendet.

--progress-format Format

    Das Format zum Anzeigen von Statusprotokollen: default, , append, inplaceoder json

-t, --target Schnur

    Falls zutreffend, das zu verwendende Bündelziel