Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Ważne
Ta dokumentacja została wycofana i może nie zostać zaktualizowana.
Te informacje dotyczą starszych wersji interfejsu wiersza polecenia usługi Databricks w wersji 0.18 i poniżej. Databricks zaleca korzystanie z nowszej wersji interfejsu wiersza poleceń Databricks CLI, wersji 0.205 lub wyższej. Zobacz Co to jest interfejs wiersza polecenia usługi Databricks?. Aby znaleźć swoją wersję interfejsu wiersza polecenia usługi Databricks, uruchom polecenie databricks -v.
Aby przeprowadzić migrację z interfejsu wiersza polecenia usługi Databricks w wersji 0.18 lub nowszej do interfejsu wiersza polecenia usługi Databricks w wersji 0.205 lub nowszej, zobacz Migracja interfejsu wiersza polecenia usługi Databricks.
Za pomocą interfejsu wiersza polecenia uruchamiasz podpolecenia związane z wykonaniem zadań usługi Databricks, dołączając je do databricks runs, oraz podpolecenia związane z zadaniami usługi Databricks, dołączając je do databricks jobs. W przypadku podpolecenia interfejsu wiersza polecenia zadań usługi Databricks zobacz interfejs wiersza polecenia zadań (starsza wersja). Razem te subpolecenia wywołują interfejs API zadań i interfejs API zadań 2.0.
Ważne
Uruchamianie zadania Databricks przy użyciu interfejsu CLI obsługuje wywołania do dwóch wersji interfejsu API REST dla zadań Databricks: wersje 2.1 i 2.0. (Funkcje uruchamiania zadań są częścią interfejsu API REST dla zadań). Wersja 2.1 dodaje obsługę orkiestracji zleceń z wieloma zadaniami; Patrz Zadania usługi Lakeflow i Aktualizacja interfejsu API dla zadań z wersji 2.0 do 2.1. Usługa Databricks zaleca wywołanie wersji 2.1, chyba że masz starsze skrypty, które korzystają z wersji 2.0 i nie można ich migrować.
O ile nie określono inaczej, zachowania programowe opisane w tym artykule mają zastosowanie równie do wersji 2.1 i 2.0.
Uwaga
Jeśli podczas wykonywania żądań CLI wystąpi błąd poziomu 500, usługa Databricks zaleca ponawianie żądań przez maksymalnie 10 minut (z co najmniej 30-sekundowym interwałem między próbami).
Wymagania do użycia Jobs REST API 2.1
Aby skonfigurować uruchamianie zadań Databricks za pomocą interfejsu wiersza polecenia (i interfejsu wiersza polecenia zadań) do wywoływania REST API zadań wersji 2.1, wykonaj następujące czynności:
Zaktualizuj CLI do wersji 0.16.0 lub nowszej.
Wykonaj jedną z następujących czynności:
- Uruchom polecenie
databricks jobs configure --version=2.1. Spowoduje to dodanie ustawieniajobs-api-version = 2.1do pliku~/.databrickscfgw systemach Unix, Linux lub macOS lub%USERPROFILE%\.databrickscfgWindows. Wszystkie polecenia dotyczące uruchamiania zadań w interfejsie wiersza polecenia (oraz polecenia interfejsu wiersza polecenia zadań) będą domyślnie wywoływać interfejs API REST zadań wersja 2.1. - Ręcznie dodaj ustawienie
jobs-api-version = 2.1do pliku~/.databrickscfgw systemach Unix, Linux lub macOS lub%USERPROFILE%\.databrickscfgWindows. Wszystkie polecenia dotyczące uruchamiania zadań w interfejsie wiersza polecenia (oraz polecenia interfejsu wiersza polecenia zadań) będą domyślnie wywoływać interfejs API REST zadań wersja 2.1. - Dołącz opcję
--version=2.1(na przykładdatabricks runs list --version=2.1), aby polecić uruchomienie przez CLI zadania wywołujące Jobs REST API 2.1 tylko dla tego wywołania.
Jeśli żadna z powyższych akcji nie zostanie wykonana, zadanie uruchomi interfejs wiersza polecenia, który domyślnie wywoła interfejs API REST zadań 2.0.
- Uruchom polecenie
Wymagania dotyczące wywoływania interfejsu API REST zadań 2.0
Aby skonfigurować interfejs wiersza poleceń (CLI) dla uruchamiania zadań w Databricks (oraz CLI zadań) do wywołania interfejsu Jobs REST API 2.0, wykonaj jedną z następujących opcji:
- Użyj wersji interfejsu wiersza polecenia usługi Databricks poniżej wersji 0.16.0 lub
-
Zaktualizuj interfejs wiersza polecenia do wersji 0.16.0 lub nowszej, a następnie wykonaj jedną z następujących czynności:
- Uruchom polecenie
databricks jobs configure --version=2.0. Spowoduje to dodanie ustawieniajobs-api-version = 2.0do pliku~/.databrickscfgw systemach Unix, Linux lub macOS lub%USERPROFILE%\.databrickscfgWindows. Wszystkie podpolecenia CLI uruchamiania zadań (i CLI zadań) będą domyślnie wywoływać Jobs REST API 2.0. - Ręcznie dodaj ustawienie
jobs-api-version = 2.0do pliku~/.databrickscfgw systemach Unix, Linux lub macOS lub%USERPROFILE%\.databrickscfgWindows. Wszystkie podpolecenia CLI uruchamiania zadań (i CLI zadań) będą domyślnie wywoływać Jobs REST API 2.0. - Dołącz opcję
--version=2.1(na przykładdatabricks runs list --version=2.0), aby nakazać interfejsowi wiersza polecenia wywołanie interfejsu API REST zadań 2.0 tylko dla tego wywołania.
- Uruchom polecenie
Jeśli żadna z powyższych akcji nie zostanie wykonana, zadanie uruchomi interfejs wiersza polecenia, który domyślnie wywoła interfejs API REST zadań 2.0.
Podpolecenia i ogólne użycie
databricks runs --help
Usage: databricks runs [OPTIONS] COMMAND [ARGS]...
Utility to interact with jobs runs.
Options:
-v, --version [VERSION]
--debug Debug mode. Shows full stack trace on error.
--profile TEXT CLI connection profile to use. The default profile is
"DEFAULT".
-h, --help Show this message and exit.
Commands:
cancel Cancels the specified run.
get Gets the metadata about a run in JSON form.
get-output Gets the output of a run.
list Lists job runs.
submit Submits a one-time run.
Anulowanie zadania
Aby wyświetlić dokumentację użycia, uruchom polecenie databricks runs cancel --help.
databricks runs cancel --run-id 119
{}
Informacje o biegu
Aby wyświetlić dokumentację użycia, uruchom polecenie databricks runs get --help.
Ogólne użycie
databricks runs get --run-id 2785782
Informacje o użyciu i przykład odpowiedzi Jobs CLI 2.1
Zobacz Przebiegi w Aktualizowanie z Jobs API 2.0 do 2.1.
Przykład odpowiedzi interfejsu wiersza poleceń Jobs CLI 2.0
{
"job_id": 1269263,
"run_id": 2785782,
"number_in_job": 1111,
"original_attempt_run_id": 2785782,
"state": {
"life_cycle_state": "TERMINATED",
"result_state": "SUCCESS",
"state_message": ""
},
"task": {
"notebook_task": {
"notebook_path": "/Users/someone@example.com/notebooks/my-notebook.ipynb"
}
},
"cluster_spec": {
"new_cluster": {
"spark_version": "8.1.x-scala2.12",
"node_type_id": "Standard_F16s",
"enable_elastic_disk": true,
"azure_attributes": {
"availability": "ON_DEMAND_AZURE"
},
"num_workers": 8
}
},
"cluster_instance": {
"cluster_id": "1234-567890-abcd123",
"spark_context_id": "1234567890123456789"
},
"start_time": 1620947196985,
"setup_duration": 36000,
"execution_duration": 119000,
"cleanup_duration": 3000,
"end_time": 1620947355499,
"trigger": "ONE_TIME",
"creator_user_name": "someone@example.com",
"run_name": "my-notebook-run",
"run_page_url": "https://adb-1234567890123456.7.azuredatabricks.net/?o=1234567890123456#job/1269263/run/1111",
"run_type": "JOB_RUN",
"attempt_number": 0
}
Pobierz dane wyjściowe przebiegu
Aby wyświetlić dokumentację użycia, uruchom polecenie databricks runs get-output --help.
Uwaga
Gdy notebook_task zwraca wartość z wywołania dbutils.notebook.exit(), usługa Databricks ogranicza zwracaną wartość do pierwszych 5 MB danych. Aby zwrócić większy wynik, możesz przechowywać wyniki zadań w usłudze przechowywania w chmurze.
Ogólne użycie
databricks runs get-output --run-id 2785782
Uwagi dotyczące użycia CLI Jobs 2.1
Zobacz Pobieranie danych wyjściowych w temacie Aktualizowanie z interfejsu API zadań 2.0 do 2.1.
Przykład odpowiedzi interfejsu wiersza poleceń Jobs CLI 2.0
{
"metadata": {
"job_id": 1269263,
"run_id": 2785782,
"number_in_job": 1111,
"original_attempt_run_id": 2785782,
"state": {
"life_cycle_state": "TERMINATED",
"result_state": "SUCCESS",
"state_message": ""
},
"task": {
"notebook_task": {
"notebook_path": "/Users/someone@example.com/notebooks/my-notebook.ipynb"
}
},
"cluster_spec": {
"new_cluster": {
"spark_version": "8.1.x-scala2.12",
"node_type_id": "Standard_F16s",
"enable_elastic_disk": true,
"azure_attributes": {
"availability": "ON_DEMAND_AZURE"
},
"num_workers": 8
}
},
"cluster_instance": {
"cluster_id": "1234-567890-abcd123",
"spark_context_id": "1234567890123456789"
},
"start_time": 1620947196985,
"setup_duration": 36000,
"execution_duration": 119000,
"cleanup_duration": 3000,
"end_time": 1620947355499,
"trigger": "ONE_TIME",
"creator_user_name": "someone@example.com",
"run_name": "my-notebook-run",
"run_page_url": "https://adb-1234567890123456.7.azuredatabricks.net/?o=1234567890123456#job/1269263/run/1111",
"run_type": "JOB_RUN",
"attempt_number": 0
},
"notebook_output": {}
}
Uzyskaj informacje o wszystkich przebiegach
Aby wyświetlić dokumentację użycia, uruchom polecenie databricks runs list --help.
Ogólne użycie
databricks runs list --output JSON
Informacje o użyciu i przykład odpowiedzi Jobs CLI 2.1
Zobacz Lista przebiegów w Aktualizacja z Jobs API 2.0 do 2.1.
Przykład odpowiedzi interfejsu wiersza poleceń Jobs CLI 2.0
{
"runs": [
{
"job_id": 1269263,
"run_id": 2785782,
"number_in_job": 1111,
"original_attempt_run_id": 2785782,
"state": {
"life_cycle_state": "TERMINATED",
"result_state": "SUCCESS",
"state_message": ""
},
"task": {
"notebook_task": {
"notebook_path": "/Users/someone@example.com/notebooks/my-notebook.ipynb"
}
},
"cluster_spec": {
"new_cluster": {
"spark_version": "8.1.x-scala2.12",
"node_type_id": "Standard_F16s",
"enable_elastic_disk": true,
"azure_attributes": {
"availability": "ON_DEMAND_AZURE"
},
"num_workers": 8
}
},
"cluster_instance": {
"cluster_id": "1234-567890-abcd123",
"spark_context_id": "1234567890123456789"
},
"start_time": 1620947196985,
"setup_duration": 36000,
"execution_duration": 119000,
"cleanup_duration": 3000,
"end_time": 1620947355499,
"trigger": "ONE_TIME",
"creator_user_name": "someone@example.com",
"run_name": "my-notebook-run",
"run_page_url": "https://adb-1234567890123456.7.azuredatabricks.net/?o=1234567890123456#job/1269263/run/1111",
"run_type": "JOB_RUN",
"attempt_number": 0
},
...
],
"has_more": false
}
Jeśli has_more zwraca wartość true, dostępne są informacje o dodatkowych uruchomieniach. Użyj opcji --offset, aby zwrócić informacje o przebiegach względem najnowszego przebiegu. Aby na przykład zwrócić informacje rozpoczynające się od dziesiątego najnowszego przebiegu, określ wartość --offset 10.
Użyj opcji --limit , aby zwrócić informacje o ustalonej liczbie uruchomień. Aby na przykład zwrócić informacje dla maksymalnie 5 następnych uruchomień, podaj wartość --limit 5. Można określić maksymalnie 1000 przebiegów. Jeśli nie zostanie określony, wartość domyślna to 20.
Wyślij jednorazowe uruchomienie
Aby wyświetlić dokumentację użycia, uruchom polecenie databricks runs submit --help.
Ogólne użycie
databricks runs submit --json-file submit-run.json
Notatki dotyczące użycia Jobs REST API 2.1 oraz przykład żądania
Zobacz Przesyłanie przebiegów w temacie Aktualizowanie z interfejsu API zadań w wersji 2.0 do 2.1.
Przykład żądania i odpowiedzi dla Jobs REST API 2.0
submit-run.json:
{
"run_name": "my-spark-run",
"new_cluster": {
"spark_version": "8.1.x-scala2.12",
"node_type_id": "Standard_F16s",
"enable_elastic_disk": true,
"azure_attributes": {
"availability": "ON_DEMAND_AZURE"
},
"num_workers": 8
},
"libraries": [
{
"jar": "dbfs:/my-jar.jar"
},
{
"maven": {
"coordinates": "org.jsoup:jsoup:1.7.2"
}
}
],
"spark_jar_task": {
"main_class_name": "com.databricks.ComputeModels"
}
}
{
"run_id": 123
}