Ausführungen CLI (Legacy)
Wichtig
Diese Dokumentation wurde eingestellt und wird unter Umständen nicht aktualisiert.
Diese Informationen gelten für ältere Versionen der Databricks-Befehlszeilenschnittstelle (0.18 und niedriger). Databricks empfiehlt, stattdessen die neuere Databricks-CLI Version 0.205 oder höher zu verwenden. Weitere Informationen finden Sie unter Was ist die Databricks-CLI?. Führen Sie databricks -v
aus, um die Version Ihrer Databricks CLI zu ermitteln.
Informationen zum Migrieren der Databricks CLI-Version 0.18 oder niedriger zur Databricks CLI-Version 0.205 oder höher finden Sie unter Databricks CLI-Migration.
Sie können CLI-Unterbefehle für Databricks-Aufträge ausführen, indem Sie sie an databricks runs
anfügen, und CLI-Unterbefehle für Databricks-Aufträge ausführen, indem Sie sie an databricks jobs
anfügen. Informationen zu CLI-Unterbefehlen für Databricks-Aufträge finden Sie unter Jobs CLI (Legacy). Zusammen rufen diese Unterbefehle die Auftrags-API und die Auftrags-API 2.0 auf.
Wichtig
Die Databricks-Auftragsausführungs-CLI unterstützt Aufrufe von zwei Versionen der REST-API für Databricks-Aufträge: Version 2.1 und Version 2.0. (Die Funktion für Auftragsausführungen Teil der Aufträge-REST-API.) In Version 2.1 wird Unterstützung für die Orchestrierung von Aufträgen mit mehreren Aufgaben hinzugefügt. Weitere Informationen finden Sie unter Planen und Koordinieren von Workflows sowie unter Aktualisieren von Jobs-API 2.0 auf 2.1. Databricks empfiehlt, Version 2.1 aufzurufen, sofern Sie keine Legacy-Skripts nutzen, die Version 2.0 erfordern und nicht migriert werden können.
Sofern nicht anders angegeben, gelten die in diesem Artikel beschriebenen programmgesteuerten Verhaltensweisen gleichermaßen für die Versionen 2.1 und 2.0.
Hinweis
Wenn Sie für Ausführungs-CLI-Anforderungen einen Fehler der Kategorie 500 erhalten, empfiehlt Databricks, Anforderungen bis zu 10 Minuten lang zu wiederholen (mit einem zeitlichen Abstand von mindestens 30 Sekunden zwischen den Wiederholungsversuchen).
Anforderungen zum Aufrufen der REST-API Version 2.1 für Aufträge
Gehen Sie wie folgt vor, um die Databricks-CLI für Auftragsausführungen (und die CLI für Aufträge) zum Aufrufen der REST-API Version 2.1 für Aufträge einzurichten und zu verwenden:
Aktualisieren Sie die CLI auf Version 0.16.0 oder höher.
Führen Sie eines der folgenden Verfahren aus:
- Führen Sie den Befehl
databricks jobs configure --version=2.1
aus. Dadurch wird der Datei~/.databrickscfg
unter Unix, Linux oder macOS oder%USERPROFILE%\.databrickscfg
unter Windows die Einstellungjobs-api-version = 2.1
hinzugefügt. Alle Unterbefehle der CLI für Auftragsausführungen (und der Auftrags-CLI) rufen standardmäßig die REST-API Version 2.1 für Aufträge auf. - Fügen Sie unter Unix, Linux oder macOS der Datei
~/.databrickscfg
oder unter Windows der Datei%USERPROFILE%\.databrickscfg
die Einstellungjobs-api-version = 2.1
manuell hinzu. Alle Unterbefehle der CLI für Auftragsausführungen (und der Auftrags-CLI) rufen standardmäßig die REST-API Version 2.1 für Aufträge auf. - Fügen Sie die Option
--version=2.1
(z. B.databricks runs list --version=2.1
) an, um die CLI anzuweisen, nur für diesen Aufruf die REST-API Version 2.1 für Aufträge aufzurufen.
Wenn Sie keine der vorherigen Aktionen ausführen, ruft die CLI für Auftragsausführungen (und die Auftrags-CLI) standardmäßig die REST-API Version 2.0 für Aufträge auf.
- Führen Sie den Befehl
Anforderungen zum Aufrufen der REST-API Version 2.0 für Aufträge
Gehen Sie wie folgt vor, um die Databricks-CLI für Auftragsausführungen (und die CLI für Aufträge) zum Aufrufen der REST-API Version 2.0 für Aufträge einzurichten und zu verwenden:
- Verwenden Sie eine Version der Databricks-CLI unter 0.16.0 oder
- Aktualisieren Sie die CLI auf Version 0.16.0 oder höher, und gehen Sie dann wie folgt vor:
- Führen Sie den Befehl
databricks jobs configure --version=2.0
aus. Dadurch wird der Datei~/.databrickscfg
unter Unix, Linux oder macOS oder%USERPROFILE%\.databrickscfg
unter Windows die Einstellungjobs-api-version = 2.0
hinzugefügt. Alle Unterbefehle der CLI für Auftragsausführungen (und der Auftrags-CLI) rufen standardmäßig die REST-API Version 2.0 für Aufträge auf. - Fügen Sie unter Unix, Linux oder macOS der Datei
~/.databrickscfg
oder unter Windows der Datei%USERPROFILE%\.databrickscfg
die Einstellungjobs-api-version = 2.0
manuell hinzu. Alle Unterbefehle der CLI für Auftragsausführungen (und der Auftrags-CLI) rufen standardmäßig die REST-API Version 2.0 für Aufträge auf. - Fügen Sie die Option
--version=2.1
(z. B.databricks runs list --version=2.0
) an, um die CLI anzuweisen, nur für diesen Aufruf die REST-API Version 2.0 für Aufträge aufzurufen.
- Führen Sie den Befehl
Wenn Sie keine der vorherigen Aktionen ausführen, ruft die CLI für Auftragsausführungen (und die Auftrags-CLI) standardmäßig die REST-API Version 2.0 für Aufträge auf.
Unterbefehle und allgemeine Verwendung
databricks runs --help
Usage: databricks runs [OPTIONS] COMMAND [ARGS]...
Utility to interact with jobs runs.
Options:
-v, --version [VERSION]
--debug Debug mode. Shows full stack trace on error.
--profile TEXT CLI connection profile to use. The default profile is
"DEFAULT".
-h, --help Show this message and exit.
Commands:
cancel Cancels the specified run.
get Gets the metadata about a run in JSON form.
get-output Gets the output of a run.
list Lists job runs.
submit Submits a one-time run.
Abbrechen einer Ausführung
Führen Sie databricks runs cancel --help
aus, um die Nutzungsdokumentation anzuzeigen.
databricks runs cancel --run-id 119
{}
Abrufen von Informationen zu einer Ausführung
Führen Sie databricks runs get --help
aus, um die Syntaxdokumentation anzuzeigen.
Allgemeine Verwendung
databricks runs get --run-id 2785782
Nutzungshinweise und Antwortbeispiel für Auftrags-CLI 2.1
Weitere Informationen finden Sie unter Runs get in Aktualisieren von Jobs-API 2.0 auf 2.1.
Antwortbeispiel für Auftrags-CLI 2.0
{
"job_id": 1269263,
"run_id": 2785782,
"number_in_job": 1111,
"original_attempt_run_id": 2785782,
"state": {
"life_cycle_state": "TERMINATED",
"result_state": "SUCCESS",
"state_message": ""
},
"task": {
"notebook_task": {
"notebook_path": "/Users/someone@example.com/notebooks/my-notebook.ipynb"
}
},
"cluster_spec": {
"new_cluster": {
"spark_version": "8.1.x-scala2.12",
"node_type_id": "Standard_F16s",
"enable_elastic_disk": true,
"azure_attributes": {
"availability": "ON_DEMAND_AZURE"
},
"num_workers": 8
}
},
"cluster_instance": {
"cluster_id": "1234-567890-abcd123",
"spark_context_id": "1234567890123456789"
},
"start_time": 1620947196985,
"setup_duration": 36000,
"execution_duration": 119000,
"cleanup_duration": 3000,
"end_time": 1620947355499,
"trigger": "ONE_TIME",
"creator_user_name": "someone@example.com",
"run_name": "my-notebook-run",
"run_page_url": "https://adb-1234567890123456.7.azuredatabricks.net/?o=1234567890123456#job/1269263/run/1111",
"run_type": "JOB_RUN",
"attempt_number": 0
}
Abrufen der Ausgabe einer Ausführung
Führen Sie databricks runs get-output --help
aus, um die Syntaxdokumentation anzuzeigen.
Hinweis
Wenn ein notebook_task
einen Wert aus einem Aufruf von dbutils.notebook.exit()
zurückgibt, beschränkt Databricks den zurückgegebenen Wert auf die ersten 5 MB an Daten. Zur Rückgabe größerer Ergebnisse können Sie Auftragsergebnisse in einem Cloudspeicherdienst speichern.
Allgemeine Verwendung
databricks runs get-output --run-id 2785782
Syntaxanmerkungen zur Auftrags-CLI 2.1
Weitere Informationen finden Sie unter Runs get output in Aktualisieren von Jobs-API 2.0 auf 2.1.
Antwortbeispiel für Auftrags-CLI 2.0
{
"metadata": {
"job_id": 1269263,
"run_id": 2785782,
"number_in_job": 1111,
"original_attempt_run_id": 2785782,
"state": {
"life_cycle_state": "TERMINATED",
"result_state": "SUCCESS",
"state_message": ""
},
"task": {
"notebook_task": {
"notebook_path": "/Users/someone@example.com/notebooks/my-notebook.ipynb"
}
},
"cluster_spec": {
"new_cluster": {
"spark_version": "8.1.x-scala2.12",
"node_type_id": "Standard_F16s",
"enable_elastic_disk": true,
"azure_attributes": {
"availability": "ON_DEMAND_AZURE"
},
"num_workers": 8
}
},
"cluster_instance": {
"cluster_id": "1234-567890-abcd123",
"spark_context_id": "1234567890123456789"
},
"start_time": 1620947196985,
"setup_duration": 36000,
"execution_duration": 119000,
"cleanup_duration": 3000,
"end_time": 1620947355499,
"trigger": "ONE_TIME",
"creator_user_name": "someone@example.com",
"run_name": "my-notebook-run",
"run_page_url": "https://adb-1234567890123456.7.azuredatabricks.net/?o=1234567890123456#job/1269263/run/1111",
"run_type": "JOB_RUN",
"attempt_number": 0
},
"notebook_output": {}
}
Abrufen von Informationen über alle Ausführungen
Führen Sie databricks runs list --help
aus, um die Syntaxdokumentation anzuzeigen.
Allgemeine Verwendung
databricks runs list --output JSON
Nutzungshinweise und Antwortbeispiel für Auftrags-CLI 2.1
Weitere Informationen finden Sie unter Runs list in Aktualisieren von Jobs-API 2.0 auf 2.1.
Antwortbeispiel für Auftrags-CLI 2.0
{
"runs": [
{
"job_id": 1269263,
"run_id": 2785782,
"number_in_job": 1111,
"original_attempt_run_id": 2785782,
"state": {
"life_cycle_state": "TERMINATED",
"result_state": "SUCCESS",
"state_message": ""
},
"task": {
"notebook_task": {
"notebook_path": "/Users/someone@example.com/notebooks/my-notebook.ipynb"
}
},
"cluster_spec": {
"new_cluster": {
"spark_version": "8.1.x-scala2.12",
"node_type_id": "Standard_F16s",
"enable_elastic_disk": true,
"azure_attributes": {
"availability": "ON_DEMAND_AZURE"
},
"num_workers": 8
}
},
"cluster_instance": {
"cluster_id": "1234-567890-abcd123",
"spark_context_id": "1234567890123456789"
},
"start_time": 1620947196985,
"setup_duration": 36000,
"execution_duration": 119000,
"cleanup_duration": 3000,
"end_time": 1620947355499,
"trigger": "ONE_TIME",
"creator_user_name": "someone@example.com",
"run_name": "my-notebook-run",
"run_page_url": "https://adb-1234567890123456.7.azuredatabricks.net/?o=1234567890123456#job/1269263/run/1111",
"run_type": "JOB_RUN",
"attempt_number": 0
},
...
],
"has_more": false
}
Wenn has_more
true
zurückgibt, sind Informationen zu weiteren Ausführungen verfügbar. Verwenden Sie die --offset
-Option, um Informationen zu Ausführungen relativ zur letzten Ausführung zurückzugeben. Geben Sie beispielsweise --offset 10
an, um Informationen beginnend mit der zehntletzten Ausführung zurückzugeben.
Verwenden Sie die --limit
-Option, um Informationen zu einer festen Anzahl von Ausführungen zurückzugeben. Geben Sie beispielsweise --limit 5
an, um Informationen für bis zu den nächsten fünf Ausführungen zurückzugeben. Sie können bis zu 1.000 Ausführungen angeben. Wenn nichts angegeben ist, wird der Standardwert 20 verwendet.
Übermitteln einer einmaligen Ausführung
Führen Sie databricks runs submit --help
aus, um die Syntaxdokumentation anzuzeigen.
Allgemeine Verwendung
databricks runs submit --json-file submit-run.json
Syntaxanmerkungen und Anforderungsbeispiel für REST-API 2.1
Weitere Informationen finden Sie unter Runs submit in Aktualisieren von Jobs-API 2.0 auf 2.1.
Rest-API 2.0-Anforderungs- und Antwortbeispiel für Aufträge
submit-run.json
:
{
"run_name": "my-spark-run",
"new_cluster": {
"spark_version": "8.1.x-scala2.12",
"node_type_id": "Standard_F16s",
"enable_elastic_disk": true,
"azure_attributes": {
"availability": "ON_DEMAND_AZURE"
},
"num_workers": 8
},
"libraries": [
{
"jar": "dbfs:/my-jar.jar"
},
{
"maven": {
"coordinates": "org.jsoup:jsoup:1.7.2"
}
}
],
"spark_jar_task": {
"main_class_name": "com.databricks.ComputeModels"
}
}
{
"run_id": 123
}