Udostępnij przez


jobs grupa poleceń

Note

Te informacje dotyczą interfejsu wiersza polecenia usługi Databricks w wersji 0.205 lub nowszej. Interfejs CLI Databricks jest w publicznej wersji testowej.

Korzystanie z interfejsu wiersza polecenia usługi Databricks podlega licencjom usługi Databricks i powiadomieniom o ochronie prywatności usługi Databricks, w tym wszelkim przepisom dotyczącym danych użycia.

Grupa jobs poleceń w interfejsie wiersza polecenia usługi Databricks umożliwia tworzenie, edytowanie i usuwanie zadań. Zobacz Zadania lakeflow.

zadania Databricks anulować wszystkie uruchomione zadania

Anuluj wszystkie aktywne uruchomienia zadania. Przebiegi są anulowane asynchronicznie, co nie uniemożliwia uruchamiania nowych przebiegów.

databricks jobs cancel-all-runs [flags]

Arguments

None

Opcje

--all-queued-runs

    Opcjonalny parametr logiczny do anulowania wszystkich oczekujących w kolejce uruchomień.

--job-id int

    Kanoniczny identyfikator zadania, aby anulować wszystkie przebiegi.

--json JSON

    Wbudowany ciąg JSON lub @path do pliku JSON z treścią żądania.

Flagi globalne

Anulowanie uruchomienia zadań w Databricks

Anuluj uruchomienie.

Anuluje uruchomienie zadania lub procesu. Przebieg jest anulowany asynchronicznie, więc po zakończeniu tego żądania może być nadal uruchomiony.

databricks jobs cancel-run RUN_ID [flags]

Arguments

RUN_ID

    To pole jest wymagane.

Opcje

--json JSON

    Wbudowany ciąg JSON lub @path do pliku JSON z treścią żądania.

--no-wait

    nie czekaj na osiągnięcie stanu ZAKOŃCZONE lub POMINIĘTE

--timeout duration

    maksymalny czas osiągnięcia stanu ZAKOŃCZONY lub POMINIĘTY (domyślnie 20m0s)

Flagi globalne

Tworzenie zadań w Databricks

Utwórz nowe zadanie.

databricks jobs create [flags]

Arguments

None

Opcje

--json JSON

    Wbudowany ciąg JSON lub @path do pliku JSON z treścią żądania.

Flagi globalne

Usuń zadania usługi Databricks

Usuwanie zadania.

databricks jobs delete JOB_ID [flags]

Arguments

JOB_ID

    Identyfikator kanoniczny zadania do usunięcia. To pole jest wymagane.

Opcje

--json JSON

    Wbudowany ciąg JSON lub @path do pliku JSON z treścią żądania.

Flagi globalne

databricks jobs delete-run (Usuwanie zadań usługi databricks)

Usuń nieaktywny proces. Zwraca błąd, jeśli proces jest aktywny.

databricks jobs delete-run RUN_ID [flags]

Arguments

RUN_ID

    Identyfikator przebiegu do usunięcia.

Opcje

--json JSON

    Wbudowany ciąg JSON lub @path do pliku JSON z treścią żądania.

Flagi globalne

eksportuj-uruchomienie-zadań-databricks

Wyeksportuj i pobierz uruchomione zadanie.

databricks jobs export-run RUN_ID [flags]

Arguments

RUN_ID

    Identyfikator kanoniczny przebiegu. To pole jest wymagane.

Opcje

--views-to-export ViewsToExport

    Które widoki mają być eksportowane. Obsługiwane wartości: ALL, CODE, DASHBOARDS

Flagi globalne

uzyskiwanie zadań databricks

Pobiera szczegóły pojedynczego zadania.

Duże tablice w wynikach będą podzielone na strony, gdy przekraczają 100 elementów. Żądanie dotyczące pojedynczego zadania zwróci wszystkie właściwości tego zadania oraz pierwsze 100 elementów właściwości tablicy (zadania, klastry_zadań, środowiska i parametry). Użyj pola next_page_token, aby sprawdzić, czy są dostępne dodatkowe wyniki, i przekaż jego wartość jako page_token w kolejnych żądaniach. Jeśli jakiekolwiek właściwości tablicy mają więcej niż 100 elementów, dodatkowe wyniki zostaną zwrócone w przypadku kolejnych żądań. Tablice bez dodatkowych wyników będą puste na późniejszych stronach.

databricks jobs get JOB_ID [flags]

Arguments

JOB_ID

    Kanoniczny identyfikator zadania, o którym ma zostać pobrana informacja. To pole jest wymagane.

Opcje

--page-token string

    Użyj next_page_token zwróconego z poprzedniej odpowiedzi GetJob, aby zażądać następnej strony elementów tablicy zadania.

Flagi globalne

get-run zadań usługi databricks

Pobiera metadane przebiegu zadania.

Duże tablice w wynikach będą podzielone na strony, gdy przekraczają 100 elementów. Żądanie dotyczące pojedynczego uruchomienia zwróci wszystkie właściwości tego uruchomienia oraz pierwsze 100 elementów pól tablic (zadania, klastry zadań, parametry zadań i historia napraw). Użyj pola next_page_token, aby sprawdzić, czy są dostępne dodatkowe wyniki, i przekaż jego wartość jako page_token w kolejnych żądaniach. Jeśli jakiekolwiek właściwości tablicy mają więcej niż 100 elementów, dodatkowe wyniki zostaną zwrócone w przypadku kolejnych żądań. Tablice bez dodatkowych wyników będą puste na późniejszych stronach.

databricks jobs get-run RUN_ID [flags]

Arguments

RUN_ID

    Kanoniczny identyfikator przebiegu, dla którego mają zostać pobrane metadane. To pole jest wymagane.

Opcje

--include-history

    Uwzględnij historię naprawy w odpowiedzi.

--include-resolved-values

    Uwzględnij rozpoznane wartości parametrów w odpowiedzi.

--page-token string

    Użyj next_page_token zwróconego z poprzedniej odpowiedzi GetRun, aby zażądać następnej strony z właściwościami tablicy przebiegu.

Flagi globalne

zadania usługi databricks get-run-output

Pobierz dane wyjściowe i metadane pojedynczego uruchomienia zadania. Gdy zadanie notesu zwraca wartość za pomocą wywołania dbutils.notebook.exit(), możesz użyć tego polecenia, aby pobrać tę wartość. Usługa Databricks ogranicza ten interfejs API do zwracania pierwszych 5 MB danych wyjściowych. Aby zwrócić większy wynik, możesz przechowywać wyniki zadań w usłudze przechowywania w chmurze.

To polecenie sprawdza, czy parametr run_id jest prawidłowy i zwraca kod stanu HTTP 400, jeśli parametr run_id jest nieprawidłowy. Przebiegi są automatycznie usuwane po 60 dniach. Jeśli chcesz odwoływać się do nich po upływie 60 dni, musisz zapisać stare wyniki wykonania przed ich wygaśnięciem.

databricks jobs get-run-output RUN_ID [flags]

Arguments

RUN_ID

    Identyfikator kanoniczny przebiegu.

Opcje

Flagi globalne

lista zadań Databricks

Pobieranie listy zadań.

databricks jobs list [flags]

Arguments

None

Opcje

--expand-tasks

    Określa, czy należy uwzględnić szczegóły zadania i klastra w odpowiedzi.

--limit int

    Liczba zadań do zwrócenia.

--name string

    Filtr na liście na podstawie dokładnej (bez uwzględniania wielkości liter) nazwy zadania.

--offset int

    Przesunięcie pierwszego zadania do zwrócenia względem ostatnio utworzonego zadania.

--page-token string

    Użyj next_page_token lub prev_page_token zwróconych z poprzedniego żądania, aby wyświetlić odpowiednio następną lub poprzednią stronę zadań.

Flagi globalne

lista-uruchomień-zadań-databricks

Wyświetl uruchomienia zadań w kolejności malejącej od czasu rozpoczęcia.

databricks jobs list-runs [flags]

Arguments

None

Opcje

--active-only

    Jeśli active_only ma wartość true, w wynikach są uwzględniane tylko aktywne uruchomienia; w przeciwnym razie wyświetla listę aktywnych i ukończonych przebiegów.

--completed-only

    Jeśli completed_only ma wartość true, w wynikach są uwzględniane tylko ukończone przebiegi; w przeciwnym razie wyświetla listę aktywnych i ukończonych przebiegów.

--expand-tasks

    Określa, czy należy uwzględnić szczegóły zadania i klastra w odpowiedzi.

--job-id int

    Zadanie, dla którego ma być sporządzona lista wykonań.

--limit int

    Liczba przebiegów do zwrócenia.

--offset int

    Przesunięcie pierwszego przebiegu, które ma zostać zwrócone, w stosunku do najnowszego przebiegu.

--page-token string

    Użyj next_page_token lub prev_page_token zwróconych z poprzedniego żądania, aby wyświetlić następną lub poprzednią stronę uruchomień odpowiednio.

--run-type RunType

    Typ przebiegów do zwrócenia. Obsługiwane wartości: [JOB_RUN, SUBMIT_RUN, WORKFLOW_RUN]

--start-time-from int

    Pokaż przebiegi, które rozpoczęły się od tej wartości lub po tej wartości.

--start-time-to int

    Pokaż przebiegi, które rozpoczęły się od tej wartości lub przed tą wartością.

Flagi globalne

naprawa uruchomienia zadań Databricks

Uruchom ponownie jedno lub więcej zadań. Zadania są uruchamiane ponownie w ramach oryginalnego uruchomienia zadania. Używają bieżących ustawień pracy i zadań, a można je wyświetlić w historii oryginalnego uruchomienia pracy.

databricks jobs repair-run RUN_ID [flags]

Arguments

RUN_ID

    Identyfikator przebiegu zadania do naprawy. Przebieg nie może być w toku.

Opcje

--json JSON

    Wbudowany ciąg JSON lub @path do pliku JSON z treścią żądania.

--latest-repair-id int

    Identyfikator najnowszej naprawy.

--no-wait

    nie czekaj na osiągnięcie stanu ZAKOŃCZONE lub POMINIĘTE

--performance-target PerformanceTarget

    Tryb wydajności zadania bezserwerowego. Obsługiwane wartości: [PERFORMANCE_OPTIMIZED, STANDARD]

--rerun-all-failed-tasks

    Jeśli to prawda, napraw wszystkie zadania, które zakończyły się niepowodzeniem.

--rerun-dependent-tasks

    Jeśli to prawda, napraw wszystkie zadania, które zależą od zadań w rerun_tasks, nawet jeśli zostały wcześniej wykonane pomyślnie.

--timeout duration

    maksymalny czas osiągnięcia stanu ZAKOŃCZONY lub POMINIĘTY (domyślnie 20m0s)

Flagi globalne

Resetowanie zadań Databricks

Zastąp wszystkie ustawienia danego zadania. Użyj polecenia , databricks jobs update aby częściowo zaktualizować ustawienia zadania.

databricks jobs reset [flags]

Arguments

None

Opcje

--json JSON

    Wbudowany ciąg JSON lub @path do pliku JSON z treścią żądania.

Flagi globalne

Uruchom teraz zadania Databricks

Uruchom zadanie i zwróć run_id wyzwalanego zadania.

databricks jobs run-now JOB_ID [flags]

Arguments

JOB_ID

    Identyfikator zadania do wykonania

Opcje

--idempotency-token string

    Opcjonalny token, którego można użyć do zagwarantowania idempotentności żądań uruchamiania zadania.

--json JSON

    Wbudowany ciąg JSON lub @path do pliku JSON z treścią żądania.

--no-wait

    nie czekaj na osiągnięcie stanu ZAKOŃCZONE lub POMINIĘTE

--performance-target PerformanceTarget

    Tryb wydajności zadania bezserwerowego. Obsługiwane wartości: [PERFORMANCE_OPTIMIZED, STANDARD]

--timeout duration

    maksymalny czas osiągnięcia stanu ZAKOŃCZONY lub POMINIĘTY (domyślnie 20m0s)

Flagi globalne

Przesyłanie zadań w usłudze Databricks

Utwórz i zainicjuj jednorazowe uruchomienie. Dzięki temu można przesyłać obciążenie bezpośrednio bez tworzenia zadania.

databricks jobs submit [flags]

Note

Zadania przesłane z databricks jobs submit nie są zapisywane jako zadania. Nie są one wyświetlane w interfejsie użytkownika i nie ponawiają próby po awarii. Ponieważ nie są one zapisywane, usługa Azure Databricks nie może automatycznie optymalizować bezserwerowych obliczeń w przypadku awarii. Jeśli zadanie zakończy się niepowodzeniem, możesz użyć klasycznego środowiska obliczeniowego, aby określić potrzeby obliczeniowe dla zadania. Alternatywnie użyj polecenia jobs create i jobs run-now , aby utworzyć i uruchomić zadanie.

Arguments

None

Opcje

--budget-policy-id string

    Użytkownik określił identyfikator zasad budżetu do użycia dla tego jednorazowego uruchomienia.

--idempotency-token string

    Opcjonalny token, który może służyć do zagwarantowania idempotentności żądań uruchomienia zadania.

--json JSON

    Wbudowany ciąg JSON lub @path do pliku JSON z treścią żądania.

--no-wait

    nie czekaj na osiągnięcie stanu ZAKOŃCZONE lub POMINIĘTE

--run-name string

    Opcjonalna nazwa biegu.

--timeout duration

    maksymalny czas osiągnięcia stanu ZAKOŃCZONY lub POMINIĘTY (domyślnie 20m0s)

--timeout-seconds int

    Opcjonalny limit czasu stosowany do każdego uruchomienia tego zadania.

Flagi globalne

aktualizacja zadań usługi databricks

Dodawanie, aktualizowanie lub usuwanie określonych ustawień istniejącego zadania. Użyj polecenia reset , aby zastąpić wszystkie ustawienia zadania.

databricks jobs update JOB_ID [flags]

Arguments

JOB_ID

    Kanoniczny identyfikator zadania do zaktualizowania. To pole jest wymagane.

Opcje

--json JSON

    Wbudowany ciąg JSON lub @path do pliku JSON z treścią żądania.

Flagi globalne

Zadania usługi databricks — uzyskiwanie poziomów uprawnień

Uzyskiwanie poziomów uprawnień pracy.

databricks jobs get-permission-levels JOB_ID [flags]

Arguments

JOB_ID

    Zadanie, dla którego chcesz uzyskać uprawnienia lub zarządzać nimi.

Opcje

Flagi globalne

Pobieranie uprawnień do zadań Databricks

Uzyskaj uprawnienia zadania. Zadania mogą dziedziczyć uprawnienia po ich obiekcie głównym.

databricks jobs get-permissions JOB_ID [flags]

Arguments

JOB_ID

    Zadanie, dla którego chcesz uzyskać uprawnienia lub zarządzać nimi.

Opcje

Flagi globalne

Zestaw uprawnień zadań usługi databricks

Ustaw uprawnienia zadania.

Ustawia uprawnienia do obiektu, zastępując istniejące uprawnienia, jeśli istnieją. Usuwa wszystkie uprawnienia bezpośrednie, jeśli nie określono żadnego. Obiekty mogą dziedziczyć uprawnienia po ich obiekcie głównym.

databricks jobs set-permissions JOB_ID [flags]

Arguments

JOB_ID

    Zadanie, dla którego chcesz uzyskać uprawnienia lub zarządzać nimi.

Opcje

--json JSON

    Wbudowany ciąg JSON lub @path do pliku JSON z treścią żądania.

Flagi globalne

zadania Databricks aktualizowanie uprawnień

Zaktualizuj uprawnienia do zadania. Zadania mogą dziedziczyć uprawnienia po ich obiekcie głównym.

databricks jobs update-permissions JOB_ID [flags]

Arguments

JOB_ID

    Zadanie, dla którego chcesz uzyskać uprawnienia lub zarządzać nimi.

Opcje

--json JSON

    Wbudowany ciąg JSON lub @path do pliku JSON z treścią żądania.

Flagi globalne

Flagi globalne

--debug

  Czy włączyć logowanie debugowe.

-h lub --help

    Wyświetl pomoc dla Databricks CLI lub dla powiązanej grupy poleceń czy pojedynczego polecenia.

--log-file struna

    Ciąg reprezentujący plik do zapisywania dzienników wyjściowych. Jeśli ta flaga nie zostanie określona, wartością domyślną jest zapisywanie dzienników wyjściowych w programie stderr.

--log-format formatowanie

    Format typu logu text lub json. Wartość domyślna to text.

--log-level struna

    Ciąg reprezentujący poziom formatu zapisu dziennika. Jeśli nie zostanie określony, poziom formatu dziennika jest wyłączony.

-o, --output typ

    Typ danych wyjściowych polecenia: text lub json. Wartość domyślna to text.

-p, --profile struna

    Nazwa profilu pliku ~/.databrickscfg, którego użyć do uruchomienia polecenia. Jeśli ta flaga nie zostanie określona, zostanie użyty profil o nazwie DEFAULT .

--progress-format formatowanie

    Format wyświetlania dzienników postępu: default, , appendinplacelubjson

-t, --target struna

    Jeśli ma to zastosowanie, docelowy obiekt pakietu do użycia