Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Note
Te informacje dotyczą interfejsu wiersza polecenia usługi Databricks w wersji 0.205 lub nowszej. Interfejs CLI Databricks jest w publicznej wersji testowej.
Korzystanie z interfejsu wiersza polecenia usługi Databricks podlega licencjom usługi Databricks i powiadomieniom o ochronie prywatności usługi Databricks, w tym wszelkim przepisom dotyczącym danych użycia.
Grupa jobs poleceń w interfejsie wiersza polecenia usługi Databricks umożliwia tworzenie, edytowanie i usuwanie zadań. Zobacz Zadania lakeflow.
zadania Databricks anulować wszystkie uruchomione zadania
Anuluj wszystkie aktywne uruchomienia zadania. Przebiegi są anulowane asynchronicznie, co nie uniemożliwia uruchamiania nowych przebiegów.
databricks jobs cancel-all-runs [flags]
Arguments
None
Opcje
--all-queued-runs
Opcjonalny parametr logiczny do anulowania wszystkich oczekujących w kolejce uruchomień.
--job-id int
Kanoniczny identyfikator zadania, aby anulować wszystkie przebiegi.
--json JSON
Wbudowany ciąg JSON lub @path do pliku JSON z treścią żądania.
Anulowanie uruchomienia zadań w Databricks
Anuluj uruchomienie.
Anuluje uruchomienie zadania lub procesu. Przebieg jest anulowany asynchronicznie, więc po zakończeniu tego żądania może być nadal uruchomiony.
databricks jobs cancel-run RUN_ID [flags]
Arguments
RUN_ID
To pole jest wymagane.
Opcje
--json JSON
Wbudowany ciąg JSON lub @path do pliku JSON z treścią żądania.
--no-wait
nie czekaj na osiągnięcie stanu ZAKOŃCZONE lub POMINIĘTE
--timeout duration
maksymalny czas osiągnięcia stanu ZAKOŃCZONY lub POMINIĘTY (domyślnie 20m0s)
Tworzenie zadań w Databricks
Utwórz nowe zadanie.
databricks jobs create [flags]
Arguments
None
Opcje
--json JSON
Wbudowany ciąg JSON lub @path do pliku JSON z treścią żądania.
Usuń zadania usługi Databricks
Usuwanie zadania.
databricks jobs delete JOB_ID [flags]
Arguments
JOB_ID
Identyfikator kanoniczny zadania do usunięcia. To pole jest wymagane.
Opcje
--json JSON
Wbudowany ciąg JSON lub @path do pliku JSON z treścią żądania.
databricks jobs delete-run (Usuwanie zadań usługi databricks)
Usuń nieaktywny proces. Zwraca błąd, jeśli proces jest aktywny.
databricks jobs delete-run RUN_ID [flags]
Arguments
RUN_ID
Identyfikator przebiegu do usunięcia.
Opcje
--json JSON
Wbudowany ciąg JSON lub @path do pliku JSON z treścią żądania.
eksportuj-uruchomienie-zadań-databricks
Wyeksportuj i pobierz uruchomione zadanie.
databricks jobs export-run RUN_ID [flags]
Arguments
RUN_ID
Identyfikator kanoniczny przebiegu. To pole jest wymagane.
Opcje
--views-to-export ViewsToExport
Które widoki mają być eksportowane. Obsługiwane wartości: ALL, CODE, DASHBOARDS
uzyskiwanie zadań databricks
Pobiera szczegóły pojedynczego zadania.
Duże tablice w wynikach będą podzielone na strony, gdy przekraczają 100 elementów. Żądanie dotyczące pojedynczego zadania zwróci wszystkie właściwości tego zadania oraz pierwsze 100 elementów właściwości tablicy (zadania, klastry_zadań, środowiska i parametry). Użyj pola next_page_token, aby sprawdzić, czy są dostępne dodatkowe wyniki, i przekaż jego wartość jako page_token w kolejnych żądaniach. Jeśli jakiekolwiek właściwości tablicy mają więcej niż 100 elementów, dodatkowe wyniki zostaną zwrócone w przypadku kolejnych żądań. Tablice bez dodatkowych wyników będą puste na późniejszych stronach.
databricks jobs get JOB_ID [flags]
Arguments
JOB_ID
Kanoniczny identyfikator zadania, o którym ma zostać pobrana informacja. To pole jest wymagane.
Opcje
--page-token string
Użyj next_page_token zwróconego z poprzedniej odpowiedzi GetJob, aby zażądać następnej strony elementów tablicy zadania.
get-run zadań usługi databricks
Pobiera metadane przebiegu zadania.
Duże tablice w wynikach będą podzielone na strony, gdy przekraczają 100 elementów. Żądanie dotyczące pojedynczego uruchomienia zwróci wszystkie właściwości tego uruchomienia oraz pierwsze 100 elementów pól tablic (zadania, klastry zadań, parametry zadań i historia napraw). Użyj pola next_page_token, aby sprawdzić, czy są dostępne dodatkowe wyniki, i przekaż jego wartość jako page_token w kolejnych żądaniach. Jeśli jakiekolwiek właściwości tablicy mają więcej niż 100 elementów, dodatkowe wyniki zostaną zwrócone w przypadku kolejnych żądań. Tablice bez dodatkowych wyników będą puste na późniejszych stronach.
databricks jobs get-run RUN_ID [flags]
Arguments
RUN_ID
Kanoniczny identyfikator przebiegu, dla którego mają zostać pobrane metadane. To pole jest wymagane.
Opcje
--include-history
Uwzględnij historię naprawy w odpowiedzi.
--include-resolved-values
Uwzględnij rozpoznane wartości parametrów w odpowiedzi.
--page-token string
Użyj next_page_token zwróconego z poprzedniej odpowiedzi GetRun, aby zażądać następnej strony z właściwościami tablicy przebiegu.
zadania usługi databricks get-run-output
Pobierz dane wyjściowe i metadane pojedynczego uruchomienia zadania. Gdy zadanie notesu zwraca wartość za pomocą wywołania dbutils.notebook.exit(), możesz użyć tego polecenia, aby pobrać tę wartość. Usługa Databricks ogranicza ten interfejs API do zwracania pierwszych 5 MB danych wyjściowych. Aby zwrócić większy wynik, możesz przechowywać wyniki zadań w usłudze przechowywania w chmurze.
To polecenie sprawdza, czy parametr run_id jest prawidłowy i zwraca kod stanu HTTP 400, jeśli parametr run_id jest nieprawidłowy. Przebiegi są automatycznie usuwane po 60 dniach. Jeśli chcesz odwoływać się do nich po upływie 60 dni, musisz zapisać stare wyniki wykonania przed ich wygaśnięciem.
databricks jobs get-run-output RUN_ID [flags]
Arguments
RUN_ID
Identyfikator kanoniczny przebiegu.
Opcje
lista zadań Databricks
Pobieranie listy zadań.
databricks jobs list [flags]
Arguments
None
Opcje
--expand-tasks
Określa, czy należy uwzględnić szczegóły zadania i klastra w odpowiedzi.
--limit int
Liczba zadań do zwrócenia.
--name string
Filtr na liście na podstawie dokładnej (bez uwzględniania wielkości liter) nazwy zadania.
--offset int
Przesunięcie pierwszego zadania do zwrócenia względem ostatnio utworzonego zadania.
--page-token string
Użyj next_page_token lub prev_page_token zwróconych z poprzedniego żądania, aby wyświetlić odpowiednio następną lub poprzednią stronę zadań.
lista-uruchomień-zadań-databricks
Wyświetl uruchomienia zadań w kolejności malejącej od czasu rozpoczęcia.
databricks jobs list-runs [flags]
Arguments
None
Opcje
--active-only
Jeśli active_only ma wartość true, w wynikach są uwzględniane tylko aktywne uruchomienia; w przeciwnym razie wyświetla listę aktywnych i ukończonych przebiegów.
--completed-only
Jeśli completed_only ma wartość true, w wynikach są uwzględniane tylko ukończone przebiegi; w przeciwnym razie wyświetla listę aktywnych i ukończonych przebiegów.
--expand-tasks
Określa, czy należy uwzględnić szczegóły zadania i klastra w odpowiedzi.
--job-id int
Zadanie, dla którego ma być sporządzona lista wykonań.
--limit int
Liczba przebiegów do zwrócenia.
--offset int
Przesunięcie pierwszego przebiegu, które ma zostać zwrócone, w stosunku do najnowszego przebiegu.
--page-token string
Użyj next_page_token lub prev_page_token zwróconych z poprzedniego żądania, aby wyświetlić następną lub poprzednią stronę uruchomień odpowiednio.
--run-type RunType
Typ przebiegów do zwrócenia. Obsługiwane wartości: [JOB_RUN, SUBMIT_RUN, WORKFLOW_RUN]
--start-time-from int
Pokaż przebiegi, które rozpoczęły się od tej wartości lub po tej wartości.
--start-time-to int
Pokaż przebiegi, które rozpoczęły się od tej wartości lub przed tą wartością.
naprawa uruchomienia zadań Databricks
Uruchom ponownie jedno lub więcej zadań. Zadania są uruchamiane ponownie w ramach oryginalnego uruchomienia zadania. Używają bieżących ustawień pracy i zadań, a można je wyświetlić w historii oryginalnego uruchomienia pracy.
databricks jobs repair-run RUN_ID [flags]
Arguments
RUN_ID
Identyfikator przebiegu zadania do naprawy. Przebieg nie może być w toku.
Opcje
--json JSON
Wbudowany ciąg JSON lub @path do pliku JSON z treścią żądania.
--latest-repair-id int
Identyfikator najnowszej naprawy.
--no-wait
nie czekaj na osiągnięcie stanu ZAKOŃCZONE lub POMINIĘTE
--performance-target PerformanceTarget
Tryb wydajności zadania bezserwerowego. Obsługiwane wartości: [PERFORMANCE_OPTIMIZED, STANDARD]
--rerun-all-failed-tasks
Jeśli to prawda, napraw wszystkie zadania, które zakończyły się niepowodzeniem.
--rerun-dependent-tasks
Jeśli to prawda, napraw wszystkie zadania, które zależą od zadań w rerun_tasks, nawet jeśli zostały wcześniej wykonane pomyślnie.
--timeout duration
maksymalny czas osiągnięcia stanu ZAKOŃCZONY lub POMINIĘTY (domyślnie 20m0s)
Resetowanie zadań Databricks
Zastąp wszystkie ustawienia danego zadania. Użyj polecenia , databricks jobs update aby częściowo zaktualizować ustawienia zadania.
databricks jobs reset [flags]
Arguments
None
Opcje
--json JSON
Wbudowany ciąg JSON lub @path do pliku JSON z treścią żądania.
Uruchom teraz zadania Databricks
Uruchom zadanie i zwróć run_id wyzwalanego zadania.
databricks jobs run-now JOB_ID [flags]
Arguments
JOB_ID
Identyfikator zadania do wykonania
Opcje
--idempotency-token string
Opcjonalny token, którego można użyć do zagwarantowania idempotentności żądań uruchamiania zadania.
--json JSON
Wbudowany ciąg JSON lub @path do pliku JSON z treścią żądania.
--no-wait
nie czekaj na osiągnięcie stanu ZAKOŃCZONE lub POMINIĘTE
--performance-target PerformanceTarget
Tryb wydajności zadania bezserwerowego. Obsługiwane wartości: [PERFORMANCE_OPTIMIZED, STANDARD]
--timeout duration
maksymalny czas osiągnięcia stanu ZAKOŃCZONY lub POMINIĘTY (domyślnie 20m0s)
Przesyłanie zadań w usłudze Databricks
Utwórz i zainicjuj jednorazowe uruchomienie. Dzięki temu można przesyłać obciążenie bezpośrednio bez tworzenia zadania.
databricks jobs submit [flags]
Note
Zadania przesłane z databricks jobs submit nie są zapisywane jako zadania. Nie są one wyświetlane w interfejsie użytkownika i nie ponawiają próby po awarii. Ponieważ nie są one zapisywane, usługa Azure Databricks nie może automatycznie optymalizować bezserwerowych obliczeń w przypadku awarii. Jeśli zadanie zakończy się niepowodzeniem, możesz użyć klasycznego środowiska obliczeniowego, aby określić potrzeby obliczeniowe dla zadania. Alternatywnie użyj polecenia jobs create i jobs run-now , aby utworzyć i uruchomić zadanie.
Arguments
None
Opcje
--budget-policy-id string
Użytkownik określił identyfikator zasad budżetu do użycia dla tego jednorazowego uruchomienia.
--idempotency-token string
Opcjonalny token, który może służyć do zagwarantowania idempotentności żądań uruchomienia zadania.
--json JSON
Wbudowany ciąg JSON lub @path do pliku JSON z treścią żądania.
--no-wait
nie czekaj na osiągnięcie stanu ZAKOŃCZONE lub POMINIĘTE
--run-name string
Opcjonalna nazwa biegu.
--timeout duration
maksymalny czas osiągnięcia stanu ZAKOŃCZONY lub POMINIĘTY (domyślnie 20m0s)
--timeout-seconds int
Opcjonalny limit czasu stosowany do każdego uruchomienia tego zadania.
aktualizacja zadań usługi databricks
Dodawanie, aktualizowanie lub usuwanie określonych ustawień istniejącego zadania. Użyj polecenia reset , aby zastąpić wszystkie ustawienia zadania.
databricks jobs update JOB_ID [flags]
Arguments
JOB_ID
Kanoniczny identyfikator zadania do zaktualizowania. To pole jest wymagane.
Opcje
--json JSON
Wbudowany ciąg JSON lub @path do pliku JSON z treścią żądania.
Zadania usługi databricks — uzyskiwanie poziomów uprawnień
Uzyskiwanie poziomów uprawnień pracy.
databricks jobs get-permission-levels JOB_ID [flags]
Arguments
JOB_ID
Zadanie, dla którego chcesz uzyskać uprawnienia lub zarządzać nimi.
Opcje
Pobieranie uprawnień do zadań Databricks
Uzyskaj uprawnienia zadania. Zadania mogą dziedziczyć uprawnienia po ich obiekcie głównym.
databricks jobs get-permissions JOB_ID [flags]
Arguments
JOB_ID
Zadanie, dla którego chcesz uzyskać uprawnienia lub zarządzać nimi.
Opcje
Zestaw uprawnień zadań usługi databricks
Ustaw uprawnienia zadania.
Ustawia uprawnienia do obiektu, zastępując istniejące uprawnienia, jeśli istnieją. Usuwa wszystkie uprawnienia bezpośrednie, jeśli nie określono żadnego. Obiekty mogą dziedziczyć uprawnienia po ich obiekcie głównym.
databricks jobs set-permissions JOB_ID [flags]
Arguments
JOB_ID
Zadanie, dla którego chcesz uzyskać uprawnienia lub zarządzać nimi.
Opcje
--json JSON
Wbudowany ciąg JSON lub @path do pliku JSON z treścią żądania.
zadania Databricks aktualizowanie uprawnień
Zaktualizuj uprawnienia do zadania. Zadania mogą dziedziczyć uprawnienia po ich obiekcie głównym.
databricks jobs update-permissions JOB_ID [flags]
Arguments
JOB_ID
Zadanie, dla którego chcesz uzyskać uprawnienia lub zarządzać nimi.
Opcje
--json JSON
Wbudowany ciąg JSON lub @path do pliku JSON z treścią żądania.
Flagi globalne
--debug
Czy włączyć logowanie debugowe.
-h lub --help
Wyświetl pomoc dla Databricks CLI lub dla powiązanej grupy poleceń czy pojedynczego polecenia.
--log-file struna
Ciąg reprezentujący plik do zapisywania dzienników wyjściowych. Jeśli ta flaga nie zostanie określona, wartością domyślną jest zapisywanie dzienników wyjściowych w programie stderr.
--log-format formatowanie
Format typu logu text lub json. Wartość domyślna to text.
--log-level struna
Ciąg reprezentujący poziom formatu zapisu dziennika. Jeśli nie zostanie określony, poziom formatu dziennika jest wyłączony.
-o, --output typ
Typ danych wyjściowych polecenia: text lub json. Wartość domyślna to text.
-p, --profile struna
Nazwa profilu pliku ~/.databrickscfg, którego użyć do uruchomienia polecenia. Jeśli ta flaga nie zostanie określona, zostanie użyty profil o nazwie DEFAULT .
--progress-format formatowanie
Format wyświetlania dzienników postępu: default, , appendinplacelubjson
-t, --target struna
Jeśli ma to zastosowanie, docelowy obiekt pakietu do użycia