Condividi tramite


jobs gruppo di comandi

Note

Queste informazioni si applicano all'interfaccia della riga di comando di Databricks versione 0.205 e successive. L'interfaccia della riga di comando di Databricks è disponibile in anteprima pubblica.

L'uso della CLI di Databricks è soggetto alla Licenza di Databricks e all'Informativa sulla privacy di Databricks, incluse eventuali disposizioni sui dati di utilizzo.

Il jobs gruppo di comandi all'interno dell'interfaccia della riga di comando di Databricks consente di creare, modificare ed eliminare processi. Consulta Attività di Lakeflow.

annulla tutte le esecuzioni dei lavori Databricks

Annullare tutte le esecuzioni attive di un'attività. Le operazioni vengono annullate in modo asincrono, quindi non viene impedito l'avvio di nuove operazioni.

databricks jobs cancel-all-runs [flags]

Arguments

None

Options

--all-queued-runs

    Parametro booleano facoltativo per annullare tutte le esecuzioni in coda.

--job-id int

    Identificatore canonico del lavoro di cui annullare tutte le esecuzioni.

--json JSON

    Stringa JSON inline o file JSON @path con il corpo della richiesta.

Flag globali

processi databricks annullano l'esecuzione

Annullare un'esecuzione.

Annulla un'esecuzione di un processo o un'esecuzione di un'attività. L'esecuzione viene annullata in modo asincrono, quindi potrebbe essere ancora in esecuzione al termine della richiesta.

databricks jobs cancel-run RUN_ID [flags]

Arguments

RUN_ID

    Questo campo è obbligatorio.

Options

--json JSON

    Stringa JSON inline o file JSON @path con il corpo della richiesta.

--no-wait

    non attendere il raggiungimento dello stato TERMINATO o IGNORATO

--timeout duration

    quantità massima di tempo per raggiungere lo stato TERMINATO o IGNORATO (impostazione predefinita 20m0s)

Flag globali

Creazione di job Databricks

Creare un nuovo lavoro.

databricks jobs create [flags]

Arguments

None

Options

--json JSON

    Stringa JSON inline o file JSON @path con il corpo della richiesta.

Flag globali

eliminazione dei job di Databricks

Eliminare un processo.

databricks jobs delete JOB_ID [flags]

Arguments

JOB_ID

    Identificatore canonico dell'attività da eliminare. Questo campo è obbligatorio.

Options

--json JSON

    Stringa JSON inline o file JSON @path con il corpo della richiesta.

Flag globali

attività databricks elimina-esecuzione

Eliminare un'esecuzione non attiva. Restituisce un errore se l'esecuzione è attiva.

databricks jobs delete-run RUN_ID [flags]

Arguments

RUN_ID

    ID dell'esecuzione da eliminare.

Options

--json JSON

    Stringa JSON inline o file JSON @path con il corpo della richiesta.

Flag globali

esportazione esecuzione processi di Databricks

Esportare e recuperare il compito di esecuzione del lavoro.

databricks jobs export-run RUN_ID [flags]

Arguments

RUN_ID

    Identificatore canonico per il processo. Questo campo è obbligatorio.

Options

--views-to-export ViewsToExport

    Quali visualizzazioni esportare. Valori supportati: ALL, CODE, DASHBOARDS

Flag globali

Ottenere i job di Databricks

Recupera i dettagli per un singolo lavoro.

Le matrici di grandi dimensioni nei risultati verranno impaginate quando superano 100 elementi. Una richiesta per un singolo processo restituirà tutte le proprietà per il processo e i primi 100 elementi delle proprietà della matrice (attività, job_clusters, ambienti e parametri). Usare il campo next_page_token per verificare la presenza di altri risultati e passarne il valore come page_token nelle richieste successive. Se le proprietà di una matrice hanno più di 100 elementi, i risultati aggiuntivi verranno restituiti nelle richieste successive. Le matrici senza risultati aggiuntivi saranno vuote nelle pagine successive.

databricks jobs get JOB_ID [flags]

Arguments

JOB_ID

    Identificatore canonico del lavoro da cui recuperare informazioni. Questo campo è obbligatorio.

Options

--page-token string

    Usare `next_page_token` restituito dalla risposta precedente di `GetJob` per richiedere la pagina successiva delle proprietà dell'array relativo al lavoro.

Flag globali

esecuzione dei processi di databricks

Recupera i metadati di un'esecuzione di un lavoro.

Le matrici di grandi dimensioni nei risultati verranno impaginate quando superano 100 elementi. Una richiesta per un'esecuzione singola restituirà tutte le proprietà di quella esecuzione e i primi 100 elementi delle proprietà in formato array (tasks, job_clusters, job_parameters e repair_history). Usare il campo next_page_token per verificare la presenza di altri risultati e passarne il valore come page_token nelle richieste successive. Se le proprietà di una matrice hanno più di 100 elementi, i risultati aggiuntivi verranno restituiti nelle richieste successive. Le matrici senza risultati aggiuntivi saranno vuote nelle pagine successive.

databricks jobs get-run RUN_ID [flags]

Arguments

RUN_ID

    Identificatore canonico dell'esecuzione per cui recuperare i metadati. Questo campo è obbligatorio.

Options

--include-history

    Includere la cronologia di ripristino nella risposta.

--include-resolved-values

    Includere i valori dei parametri risolti nella risposta.

--page-token string

    Usare il next_page_token restituito dalla precedente risposta GetRun per richiedere la pagina successiva delle proprietà dell'array di esecuzione.

Flag globali

Attività di Databricks get-run-output

Recuperare l'output e i metadati di una singola esecuzione di un task. Quando un'attività notebook restituisce un valore tramite la chiamata dbutils.notebook.exit(), è possibile usare questo comando per recuperare tale valore. Databricks limita questa API alla restituzione dei primi 5 MB dell'output. Per restituire un risultato più ampio, è possibile archiviare i risultati dei processi in un servizio di archiviazione cloud.

Questo comando convalida che il parametro run_id sia valido e restituisce un codice di stato HTTP 400 se il parametro run_id non è valido. Le corse vengono rimosse automaticamente dopo 60 giorni. Se si vuole farvi riferimento oltre 60 giorni, è necessario salvare i risultati di esecuzioni precedenti prima della scadenza.

databricks jobs get-run-output RUN_ID [flags]

Arguments

RUN_ID

    Identificatore canonico per il processo.

Options

Flag globali

Elenco dei lavori di Databricks

Recuperare un elenco di processi.

databricks jobs list [flags]

Arguments

None

Options

--expand-tasks

    Indica se includere i dettagli dell'attività e del cluster nella risposta.

--limit int

    Numero di lavori da restituire.

--name string

    Filtro sull'elenco basato sul nome esatto del lavoro (senza distinzione tra maiuscole e minuscole).

--offset int

    Offset del primo lavoro da restituire, rispetto al lavoro creato più recentemente.

--page-token string

    Usare next_page_token o prev_page_token restituiti dalla richiesta precedente per elencare, rispettivamente, la pagina dei lavori successiva o precedente.

Flag globali

elenco esecuzioni dei job in Databricks

Elencare le esecuzioni dei processi in ordine decrescente in base all'ora di inizio.

databricks jobs list-runs [flags]

Arguments

None

Options

--active-only

    Se active_only è true, nei risultati vengono incluse solo le esecuzioni attive; in caso contrario, elenca le esecuzioni attive e completate.

--completed-only

    Se completed_only è true, nei risultati vengono incluse solo le esecuzioni completate; in caso contrario, elenca le esecuzioni attive e completate.

--expand-tasks

    Indica se includere i dettagli dell'attività e del cluster nella risposta.

--job-id int

    Il lavoro per cui devono essere elencate le esecuzioni.

--limit int

    Numero di esecuzioni da restituire.

--offset int

    L'offset relativo alla prima esecuzione da restituire, rispetto all'esecuzione più recente.

--page-token string

    Utilizzare next_page_token o prev_page_token restituiti dalla richiesta precedente per elencare rispettivamente la pagina successiva o precedente delle esecuzioni.

--run-type RunType

    Il tipo di esecuzione da restituire. Valori supportati: [JOB_RUN, SUBMIT_RUN, WORKFLOW_RUN]

--start-time-from int

    Mostra le esecuzioni avviate da o dopo questo valore.

--start-time-to int

    Mostra le esecuzioni avviate da o prima di questo valore.

Flag globali

attività databricks repair-run

Eseguire di nuovo uno o più task di processo. Le attività vengono eseguite nuovamente come parte dell'esecuzione del processo originale. Usano le impostazioni correnti del processo e dell'attività e possono essere visualizzate nella cronologia per l'esecuzione del processo originale.

databricks jobs repair-run RUN_ID [flags]

Arguments

RUN_ID

    ID esecuzione del processo da riparare. L'esecuzione non deve essere in corso.

Options

--json JSON

    Stringa JSON inline o file JSON @path con il corpo della richiesta.

--latest-repair-id int

    ID della riparazione più recente.

--no-wait

    non attendere il raggiungimento dello stato TERMINATO o IGNORATO

--performance-target PerformanceTarget

    Modalità di esecuzione in un job serverless. Valori supportati: [PERFORMANCE_OPTIMIZED, STANDARD]

--rerun-all-failed-tasks

    Se vero, ripristinare tutte le attività che non sono riuscite.

--rerun-dependent-tasks

    Se vero, riparare tutte le attività che dipendono dalle attività in rerun_tasks, anche se hanno avuto esito positivo in precedenza.

--timeout duration

    quantità massima di tempo per raggiungere lo stato TERMINATO o IGNORATO (impostazione predefinita 20m0s)

Flag globali

ripristino dei compiti di Databricks

Sovrascrivere tutte le impostazioni per l'operazione specificata. Usare il databricks jobs update comando per aggiornare parzialmente le impostazioni del processo.

databricks jobs reset [flags]

Arguments

None

Options

--json JSON

    Stringa JSON inline o file JSON @path con il corpo della richiesta.

Flag globali

I job di Databricks vengono eseguiti ora

Eseguire un job e restituire il run_id dell'esecuzione attivata.

databricks jobs run-now JOB_ID [flags]

Arguments

JOB_ID

    ID del processo da eseguire

Options

--idempotency-token string

    Token facoltativo per garantire l'idempotenza delle richieste di esecuzione delle attività di lavoro.

--json JSON

    Stringa JSON inline o file JSON @path con il corpo della richiesta.

--no-wait

    non attendere il raggiungimento dello stato TERMINATO o IGNORATO

--performance-target PerformanceTarget

    Modalità di esecuzione in un job serverless. Valori supportati: [PERFORMANCE_OPTIMIZED, STANDARD]

--timeout duration

    quantità massima di tempo per raggiungere lo stato TERMINATO o IGNORATO (impostazione predefinita 20m0s)

Flag globali

Invio di attività databricks

Creare e attivare un'esecuzione una tantum. In questo modo è possibile inviare un carico di lavoro direttamente senza creare un'attività.

databricks jobs submit [flags]

Note

I job inviati con databricks jobs submit non vengono salvati come attività. Non vengono visualizzati nell'interfaccia utente e non riprovano quando hanno esito negativo. Poiché non vengono salvati, Azure Databricks non può ottimizzare automaticamente le risorse di calcolo serverless in caso di errore. Se l'attività non riesce, è possibile usare il calcolo classico per specificare le richieste di calcolo per l'attività. In alternativa, usare jobs create e jobs run-now per creare ed eseguire il processo.

Arguments

None

Options

--budget-policy-id string

    ID specificato dall'utente dei criteri di budget da usare per questa esecuzione monouso.

--idempotency-token string

    Token facoltativo che può essere usato per garantire l'idempotenza delle richieste di esecuzione del job.

--json JSON

    Stringa JSON inline o file JSON @path con il corpo della richiesta.

--no-wait

    non attendere il raggiungimento dello stato TERMINATO o IGNORATO

--run-name string

    Nome facoltativo per il processo.

--timeout duration

    quantità massima di tempo per raggiungere lo stato TERMINATO o IGNORATO (impostazione predefinita 20m0s)

--timeout-seconds int

    Un timeout facoltativo viene applicato a ogni esecuzione di questo processo.

Flag globali

Aggiornamento dei job di Databricks

Aggiungere, aggiornare o rimuovere impostazioni specifiche di un processo esistente. Usare reset per sovrascrivere tutti i parametri.

databricks jobs update JOB_ID [flags]

Arguments

JOB_ID

    Identificatore canonico del lavoro da aggiornare. Questo campo è obbligatorio.

Options

--json JSON

    Stringa JSON inline o file JSON @path con il corpo della richiesta.

Flag globali

Lavori di Databricks get-permission-levels

Ottenere i livelli di autorizzazione del lavoro.

databricks jobs get-permission-levels JOB_ID [flags]

Arguments

JOB_ID

    Processo per il quale ottenere o gestire le autorizzazioni.

Options

Flag globali

Autorizzazioni per le attività di Databricks

Ottenere i permessi di un'attività. I processi possono ereditare le autorizzazioni dal relativo oggetto radice.

databricks jobs get-permissions JOB_ID [flags]

Arguments

JOB_ID

    Processo per il quale ottenere o gestire le autorizzazioni.

Options

Flag globali

impostare le autorizzazioni per i lavori di databricks

Impostare le autorizzazioni del job.

Imposta le autorizzazioni per un oggetto, sostituendo le autorizzazioni esistenti, se esistenti. Elimina tutte le autorizzazioni dirette se non è specificato alcuno. Gli oggetti possono ereditare le autorizzazioni dal relativo oggetto radice.

databricks jobs set-permissions JOB_ID [flags]

Arguments

JOB_ID

    Processo per il quale ottenere o gestire le autorizzazioni.

Options

--json JSON

    Stringa JSON inline o file JSON @path con il corpo della richiesta.

Flag globali

Autorizzazioni di aggiornamento dei jobs di Databricks

Aggiornare le autorizzazioni su un'attività. I processi possono ereditare le autorizzazioni dal relativo oggetto radice.

databricks jobs update-permissions JOB_ID [flags]

Arguments

JOB_ID

    Processo per il quale ottenere o gestire le autorizzazioni.

Options

--json JSON

    Stringa JSON inline o file JSON @path con il corpo della richiesta.

Flag globali

Bandiere globali

--debug

  Indica se abilitare la registrazione di debug.

-h oppure --help

    Mostra la guida per il Databricks CLI, il gruppo di comandi correlato o il comando correlato.

--log-file stringa

    Stringa che rappresenta il file in cui scrivere i log di output. Se questo flag non viene specificato, l'impostazione predefinita prevede la scrittura dei log di output su stderr.

--log-format formato

    Tipo di formato del log, text o json. Il valore predefinito è text.

--log-level stringa

    Stringa che rappresenta il livello di formato del log. Se non specificato, il livello di formato del log è disabilitato.

tipo

    Tipo di output del comando, text o json. Il valore predefinito è text.

-p, --profile stringa

    Nome del profilo nel ~/.databrickscfg file da usare per eseguire il comando . Se questo flag non viene specificato, se esiste, viene usato il profilo denominato DEFAULT .

--progress-format formato

    Formato per visualizzare i log di stato: default, append, inplaceo json

-t, --target stringa

    Se applicabile, la destinazione del bundle da utilizzare