Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Note
Diese Informationen gelten für Databricks CLI-Versionen 0.205 und höher. Die Databricks CLI befindet sich in der öffentlichen Vorschau.
Die Verwendung von Databricks CLI unterliegt der Datenbricks-Lizenz - und Databricks-Datenschutzerklärung, einschließlich der Bestimmungen zu Nutzungsdaten.
Mit jobs der Befehlsgruppe in der Databricks CLI können Sie Aufträge erstellen, bearbeiten und löschen. Siehe Lakeflow Jobs.
databricks Jobs alle Läufe abbrechen
Bricht alle aktiven Ausführung eines Auftrags ab. Die Annulierung erfolgt asynchron, verhindert also nicht, dass neue Ausführungen gestartet werden.
databricks jobs cancel-all-runs [flags]
Arguments
None
Options
--all-queued-runs
Optionaler Boolescher Parameter zum Stornieren aller in die Warteschlange eingereihten Ausführungen.
--job-id int
Der kanonische Bezeichner des Auftrags, für den alle Ausführungen abgebrochen werden sollen
--json JSON
Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.
Databricks-Aufträge abbrechen
Lauf abbrechen.
Bricht die Ausführung eines Jobs oder einer Aufgabe ab. Die Ausführung des Vorgangs wird asynchron gestoppt, sodass er möglicherweise noch läuft, wenn diese Anfrage abgeschlossen ist.
databricks jobs cancel-run RUN_ID [flags]
Arguments
RUN_ID
Dieses Feld ist erforderlich.
Options
--json JSON
Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.
--no-wait
Warten Sie nicht darauf, dass der Status „TERMINATED“ oder „SKIPPED“ erreicht wurde.
--timeout duration
maximale Zeitspanne, um den Status TERMINATED oder SKIPPED zu erreichen (Standardwert 20m0s)
Databricks-Aufträge erstellen
Erstellen Sie eine neue Stelle.
databricks jobs create [flags]
Arguments
None
Options
--json JSON
Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.
Databricks-Aufträge löschen
Einen Job löschen.
databricks jobs delete JOB_ID [flags]
Arguments
JOB_ID
Der kanonische Bezeichner des Auftrags, der gelöscht werden soll. Dieses Feld ist erforderlich.
Options
--json JSON
Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.
databricks Jobs löschen-lauf
Löschen Sie eine nicht aktive Ausführung. Gibt einen Fehler zurück, wenn die Ausführung aktiv ist.
databricks jobs delete-run RUN_ID [flags]
Arguments
RUN_ID
ID der zu löschenden Ausführung.
Options
--json JSON
Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.
Exportausführung von Databricks-Aufträgen
Exportieren Sie die Auftragsausführungsaufgabe, und rufen Sie sie ab.
databricks jobs export-run RUN_ID [flags]
Arguments
RUN_ID
Der kanonische Bezeichner für die Ausführung Dieses Feld ist erforderlich.
Options
--views-to-export ViewsToExport
Welche Ansichten exportiert werden sollen. Unterstützte Werte: ALL, CODE, DASHBOARDS
Databricks-Aufträge erhalten
Ruft die Details für einen einzelnen Auftrag ab.
Große Arrays in den Ergebnissen werden paginiert, wenn sie 100 Elemente überschreiten. Eine Anforderung für einen einzelnen Auftrag gibt alle Eigenschaften für diesen Auftrag und die ersten 100 Elemente von Arrayeigenschaften (Aufgaben, job_clusters, Umgebungen und Parameter) zurück. Verwenden Sie das Feld next_page_token, um nach weiteren Ergebnissen zu suchen und seinen Wert als page_token in nachfolgenden Anfragen zu übergeben. Wenn Array-Eigenschaften mehr als 100 Elemente aufweisen, werden zusätzliche Ergebnisse für nachfolgende Anfragen zurückgegeben. Arrays ohne zusätzliche Ergebnisse werden auf späteren Seiten leer sein.
databricks jobs get JOB_ID [flags]
Arguments
JOB_ID
Der kanonische Bezeichner des Auftrags, zu dem Informationen abgerufen werden sollen. Dieses Feld ist erforderlich.
Options
--page-token string
Verwenden Sie den durch die vorherige GetJob-Antwort zurückgegebenen next_page_token, um die nächste Seite der Array-Eigenschaften des Auftrags anzufordern.
Databricks-Aufträge get-run
Ruft die Metadaten einer Auftragsausführung ab.
Große Arrays in den Ergebnissen werden paginiert, wenn sie 100 Elemente überschreiten. Eine Anforderung für eine einzelne Ausführung gibt alle Eigenschaften für diese Ausführung und die ersten 100 Elemente von Arrayeigenschaften (Aufgaben, job_clusters, job_parameters und repair_history) zurück. Verwenden Sie das Feld next_page_token, um nach weiteren Ergebnissen zu suchen und seinen Wert als page_token in nachfolgenden Anfragen zu übergeben. Wenn Array-Eigenschaften mehr als 100 Elemente aufweisen, werden zusätzliche Ergebnisse für nachfolgende Anfragen zurückgegeben. Arrays ohne zusätzliche Ergebnisse werden auf späteren Seiten leer sein.
databricks jobs get-run RUN_ID [flags]
Arguments
RUN_ID
Der kanonische Bezeichner der Ausführung, für die Metadaten abgerufen werden sollen. Dieses Feld ist erforderlich.
Options
--include-history
Schließen Sie den Reparaturverlauf in die Antwort ein.
--include-resolved-values
Schließen Sie aufgelöste Parameterwerte in die Antwort ein.
--page-token string
Verwenden Sie next_page_token, das von der vorherigen GetRun-Antwort zurückgegeben wurde, um die nächste Seite der Array-Eigenschaften des Laufs anzufordern.
Databricks-Befehle: jobs get-run-output
Rufen Sie die Ausgabe und die Metadaten einer einzelnen Aufgabenausführung ab. Wenn eine Notizbuchaufgabe einen Wert über den Aufruf "dbutils.notebook.exit()" zurückgibt, können Sie diesen Wert mithilfe dieses Befehls abrufen. Databricks beschränkt diese API auf die Rückgabe der ersten 5 MB der Ausgabe. Zur Rückgabe größerer Ergebnisse können Sie Auftragsergebnisse in einem Cloudspeicherdienst speichern.
Dieser Befehl überprüft, ob der parameter run_id gültig ist, und gibt einen HTTP-Statuscode 400 zurück, wenn der run_id-Parameter ungültig ist. Die Ausführungen werden nach 60 Tagen automatisch entfernt. Wenn Sie nach 60 Tagen auf sie verweisen möchten, müssen Sie alte Ausführungsergebnisse speichern, bevor sie ablaufen.
databricks jobs get-run-output RUN_ID [flags]
Arguments
RUN_ID
Der kanonische Bezeichner für die Ausführung
Options
Databricks-Auftragsliste
Eine Liste von Jobs abrufen.
databricks jobs list [flags]
Arguments
None
Options
--expand-tasks
Gibt an, ob Aufgaben- und Clusterdetails in die Antwort eingeschlossen werden sollen.
--limit int
Die Anzahl der zurückzugebenden Jobs.
--name string
Ein Filter für die Liste, der auf dem exakten (Groß- und Kleinschreibung nicht berücksichtigenden) Namen des Jobs basiert.
--offset int
Der Offset des ersten Jobs, der zurückgegeben wird, relativ zum zuletzt erstellten Job.
--page-token string
Verwenden Sie next_page_token oder prev_page_token, die von der vorherigen Anfrage zurückgegeben wurden, um die nächste bzw. vorherige Seite der Jobs aufzulisten.
databricks jobs list-runs (Databricks-Befehle zur Auflistung von Aufträgen und deren Ausführungen)
Jobläufe in absteigender Reihenfolge nach Startzeit auflisten.
databricks jobs list-runs [flags]
Arguments
None
Options
--active-only
Wenn active_only wahr ist, werden nur aktive Ausführungen einbezogen; andernfalls werden sowohl aktive als auch abgeschlossene Ausführungen aufgelistet.
--completed-only
Wenn completed_only auf Wahr gesetzt ist, werden nur abgeschlossene Läufe in die Ergebnisse einbezogen; andernfalls werden sowohl aktive als auch abgeschlossene Läufe aufgelistet.
--expand-tasks
Gibt an, ob Aufgaben- und Clusterdetails in die Antwort eingeschlossen werden sollen.
--job-id int
Der Auftrag, für den Ausführungen aufgelistet werden sollen.
--limit int
Die Anzahl von Ausführungen, die zurückgegeben werden sollen.
--offset int
Der Offset der ersten Ausführung, die zurückgegeben werden soll, relativ zur letzten Ausführung.
--page-token string
Verwenden Sie next_page_token oder prev_page_token, die von der vorherigen Anfrage zurückgegeben wurden, um die nächste bzw. die vorherige Seite der ausgeführten Aufträge aufzulisten.
--run-type RunType
Der Typ der Ausführungen, die zurückgegeben werden sollen. Unterstützte Werte: [JOB_RUN, SUBMIT_RUN, WORKFLOW_RUN]
--start-time-from int
Anzeigen von Läufen, die bei oder nach diesem Wert gestartet wurden.
--start-time-to int
Anzeigen von Läufen, die mit oder vor diesem Wert gestartet wurden.
databricks Jobs Reparaturdurchlauf
Führen Sie eine oder mehrere Auftragsaufgaben erneut aus. Aufgaben werden als Teil der ursprünglichen Auftragsausführung erneut ausgeführt. Sie verwenden die aktuellen Job- und Task-Einstellungen und können in der Historie für die ursprüngliche Job-Ausführung eingesehen werden.
databricks jobs repair-run RUN_ID [flags]
Arguments
RUN_ID
Die Run-ID des Jobs, der repariert werden soll. Die Ausführung darf nicht im Gange sein.
Options
--json JSON
Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.
--latest-repair-id int
Die ID der neuesten Reparatur.
--no-wait
Warten Sie nicht darauf, dass der Status „TERMINATED“ oder „SKIPPED“ erreicht wurde.
--performance-target PerformanceTarget
Der Performancemodus für einen serverlosen Job. Unterstützte Werte: [PERFORMANCE_OPTIMIZED, STANDARD]
--rerun-all-failed-tasks
Wenn "wahr", reparieren Sie alle fehlgeschlagenen Vorgänge.
--rerun-dependent-tasks
Wenn dies wahr ist, werden alle Aufgaben repariert, die von den Aufgaben in rerun_tasks abhängig sind, selbst wenn sie zuvor bereits erfolgreich abgeschlossen wurden.
--timeout duration
maximale Zeitspanne, um den Status TERMINATED oder SKIPPED zu erreichen (Standardwert 20m0s)
Zurücksetzen von Databricks-Aufträgen
Überschreiben Sie alle Einstellungen für den angegebenen Auftrag. Verwenden Sie den databricks jobs update Befehl, um Auftragseinstellungen teilweise zu aktualisieren.
databricks jobs reset [flags]
Arguments
None
Options
--json JSON
Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.
Databricks-Aufträge werden jetzt ausgeführt
Führen Sie einen Auftrag aus, und geben Sie den run_id der ausgelösten Ausführung zurück.
databricks jobs run-now JOB_ID [flags]
Arguments
JOB_ID
Die ID des auszuführenden Auftrags
Options
--idempotency-token string
Ein optionales Token, um die Idempotenz von Anforderungen zur Auftragsausführung zu gewährleisten
--json JSON
Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.
--no-wait
Warten Sie nicht darauf, dass der Status „TERMINATED“ oder „SKIPPED“ erreicht wurde.
--performance-target PerformanceTarget
Der Performancemodus für einen serverlosen Job. Unterstützte Werte: [PERFORMANCE_OPTIMIZED, STANDARD]
--timeout duration
maximale Zeitspanne, um den Status TERMINATED oder SKIPPED zu erreichen (Standardwert 20m0s)
Databricks-Aufträge übermitteln
Erstellen und triggern einer einmaligen Ausführung. Auf diese Weise können Sie eine Arbeitslast direkt einreichen, ohne einen Auftrag zu erstellen.
databricks jobs submit [flags]
Note
Mit databricks jobs submit übermittelte Aufträge werden nicht als Auftrag gespeichert. Sie werden nicht auf der Benutzeroberfläche angezeigt, und versuchen Sie nicht erneut, wenn sie fehlschlagen. Da sie nicht gespeichert werden, können Azure Databricks die serverlose Berechnung im Falle eines Fehlers nicht automatisch optimieren. Wenn Ihr Auftrag fehlschlägt, sollten Sie die klassische Berechnung verwenden, um die Berechnungsanforderungen für den Auftrag anzugeben. Alternativ können Sie den Auftrag mit jobs create und jobs run-now erstellen und ausführen.
Arguments
None
Options
--budget-policy-id string
Der Benutzer hat die ID der Budgetrichtlinie angegeben, die für diese einmalige Ausführung verwendet werden soll.
--idempotency-token string
Ein optionales Token, um die Idempotenz von Anforderungen zur Auftragsausführung zu gewährleisten.
--json JSON
Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.
--no-wait
Warten Sie nicht darauf, dass der Status „TERMINATED“ oder „SKIPPED“ erreicht wurde.
--run-name string
Ein optionaler Name für die Ausführung
--timeout duration
maximale Zeitspanne, um den Status TERMINATED oder SKIPPED zu erreichen (Standardwert 20m0s)
--timeout-seconds int
Ein optionales Timeout, das auf jede Ausführung dieses Auftrags angewendet wird.
Databricks-Aufträge aktualisieren
Hinzufügen, Aktualisieren oder Entfernen bestimmter Einstellungen eines vorhandenen Auftrags. Verwenden Sie reset, um alle Job-Einstellungen zu überschreiben.
databricks jobs update JOB_ID [flags]
Arguments
JOB_ID
Der kanonische Bezeichner des Auftrags, der aktualisiert werden soll Dieses Feld ist erforderlich.
Options
--json JSON
Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.
databricks jobs Berechtigungsstufen abrufen
Berechtigungen für einen Job abfragen.
databricks jobs get-permission-levels JOB_ID [flags]
Arguments
JOB_ID
Der Auftrag, für den Berechtigungen abgerufen oder verwaltet werden sollen.
Options
databricks Aufträge Berechtigungen abrufen
Die Berechtigungen eines Jobs abrufen. Jobs können Berechtigungen von ihrem Stammobjekt erben.
databricks jobs get-permissions JOB_ID [flags]
Arguments
JOB_ID
Der Auftrag, für den Berechtigungen abgerufen oder verwaltet werden sollen.
Options
databricks Jobs Berechtigungen festlegen
Job-Berechtigungen festlegen.
Legt Berechtigungen für ein Objekt fest, wobei vorhandene Berechtigungen ersetzt werden, sofern vorhanden. Löscht alle direkten Berechtigungen, wenn keine angegeben sind. Objekte können Berechtigungen vom Stammobjekt erben.
databricks jobs set-permissions JOB_ID [flags]
Arguments
JOB_ID
Der Auftrag, für den Berechtigungen abgerufen oder verwaltet werden sollen.
Options
--json JSON
Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.
Databricks-Aufträge– Aktualisierungsberechtigungen
Aktualisieren Sie die Berechtigungen für eine Aufgabe. Jobs können Berechtigungen von ihrem Stammobjekt erben.
databricks jobs update-permissions JOB_ID [flags]
Arguments
JOB_ID
Der Auftrag, für den Berechtigungen abgerufen oder verwaltet werden sollen.
Options
--json JSON
Die inlinefähige JSON-Zeichenfolge oder die @path zur JSON-Datei mit dem Body der Anfrage.
Globale Kennzeichnungen
--debug
Gibt an, ob die Debugprotokollierung aktiviert werden soll.
-h oder --help
Hilfe für die Databricks CLI oder die zugehörige Befehlsgruppe oder den zugehörigen Befehl anzeigen.
--log-file Schnur
Eine Zeichenfolge, die die Datei darstellt, in die Ausgabeprotokolle geschrieben werden sollen. Wenn dieses Flag nicht angegeben ist, werden Ausgabeprotokolle standardmäßig in stderr geschrieben.
--log-format Format
Der Protokollformattyp text oder json. Der Standardwert ist text.
--log-level Schnur
Eine Zeichenfolge, die die Protokollformatebene darstellt. Wenn nicht angegeben, ist die Protokollformatebene deaktiviert.
-o, --output Typ
Der Befehlsausgabetyp text oder json. Der Standardwert ist text.
-p, --profile Schnur
Der Name des Profils in der ~/.databrickscfg Datei, das zum Ausführen des Befehls verwendet werden soll. Wenn dieses Flag nicht angegeben wird, wird, falls vorhanden, das Profil mit dem Namen DEFAULT verwendet.
--progress-format Format
Das Format zum Anzeigen von Statusprotokollen: default, , append, inplaceoder json
-t, --target Schnur
Falls zutreffend, das zu verwendende Bündelziel