Condividi tramite


workspace gruppo di comandi

Note

Queste informazioni si applicano all'interfaccia della riga di comando di Databricks versione 0.205 e successive. L'interfaccia della riga di comando di Databricks è disponibile in anteprima pubblica.

L'uso della CLI di Databricks è soggetto alla Licenza di Databricks e all'Informativa sulla privacy di Databricks, incluse eventuali disposizioni sui dati di utilizzo.

Il workspace gruppo di comandi all'interno dell'interfaccia della riga di comando di Databricks consente di elencare, importare, esportare ed eliminare file e cartelle dell'area di lavoro. Vedere Che cosa sono i file dell'area di lavoro?.

eliminazione dell'area di lavoro databricks

Eliminare un oggetto dell'area di lavoro.

Elimina un oggetto o una directory (e facoltativamente elimina in modo ricorsivo tutti gli oggetti nella directory). Se il percorso non esiste, questa chiamata restituisce un errore RESOURCE_DOES_NOT_EXIST. Se path è una directory non vuota e recursive è impostato su false, questa chiamata restituisce un errore DIRECTORY_NOT_EMPTY.

L'eliminazione di oggetti non può essere annullata e l'eliminazione di una directory in modo ricorsivo non è atomica.

databricks workspace delete PATH [flags]

Arguments

PATH

    Percorso assoluto del notebook o della directory.

Options

--json JSON

    Stringa JSON inline o file JSON @path con il corpo della richiesta.

--recursive

    Flag che specifica se eliminare l'oggetto in modo ricorsivo.

Flag globali

Esportazione dell'area di lavoro Databricks

Esportare un oggetto area di lavoro o il contenuto di un'intera directory.

Se il percorso non esiste, questa chiamata restituisce un errore RESOURCE_DOES_NOT_EXIST.

Se i dati esportati superano il limite di dimensioni, questa chiamata restituisce MAX_NOTEBOOK_SIZE_EXCEEDED. Attualmente, questa API non supporta l'esportazione di una libreria.

databricks workspace export SOURCE_PATH [flags]

Arguments

PATH

    Percorso assoluto dell'oggetto o della directory. L'esportazione di una directory è supportata solo per il formato DBC, SOURCE e AUTO.

Options

--file string

    Percorso nel file system locale in cui salvare il file esportato.

--format ExportFormat

    Specifica il formato del file esportato. Valori supportati: AUTO, DBC, HTMLJUPYTER, RAW, , R_MARKDOWNSOURCE

Flag globali

export-dir dell'area di lavoro di Databricks

Esportare una directory in modo ricorsivo da un'area di lavoro di Databricks al file system locale.

databricks workspace export-dir SOURCE_PATH TARGET_PATH [flags]

Arguments

SOURCE_PATH

    Percorso della cartella sorgente nello spazio di lavoro

TARGET_PATH

    Percorso della directory di destinazione nel file system locale

Options

--overwrite

    sovrascrivere i file locali esistenti

Flag globali

ottenere lo stato dell'area di lavoro di databricks

Ottenere lo stato di un oggetto o di una directory. Se il percorso non esiste, questa chiamata restituisce un errore RESOURCE_DOES_NOT_EXIST.

databricks workspace get-status PATH [flags]

Arguments

PATH

    Percorso assoluto del notebook o della directory.

Options

Flag globali

Importazione dell'area di lavoro Databricks

Importa un oggetto area di lavoro (ad esempio, un notebook o un file) o il contenuto di un'intera directory. Se il percorso esiste già e la sovrascrittura è impostata su false, questa chiamata restituisce un errore RESOURCE_ALREADY_EXISTS. Per importare una directory, è possibile usare il DBC formato o il SOURCE formato con il campo lingua non impostato. Per importare un singolo file come SOURCE, è necessario impostare il campo lingua. I file ZIP all'interno delle directory non sono supportati.

databricks workspace import TARGET_PATH [flags]

Arguments

PATH

    Percorso assoluto dell'oggetto o della directory. L'importazione di una directory è supportata solo per i formati DBC e SOURCE.

Options

--content string

    Contenuto con codifica Base64.

--file string

    Percorso del file locale da importare

--format ImportFormat

    Specifica il formato del file da importare. Valori supportati: AUTO, DBC, HTMLJUPYTER, RAW, , R_MARKDOWNSOURCE

--json JSON

    Stringa JSON inline o file JSON @path con il corpo della richiesta.

--language Language

    Lingua dell'oggetto. Valori supportati: PYTHON, R, SCALA, SQL

--overwrite

    Flag che specifica se sovrascrivere l'oggetto esistente.

Flag globali

import-dir dell'area di lavoro Databricks

Importare una directory in modo ricorsivo dal file system locale in un'area di lavoro di Databricks.

I notebook saranno privati delle estensioni.

databricks workspace import-dir SOURCE_PATH TARGET_PATH [flags]

Arguments

SOURCE_PATH

    Percorso della directory di origine nel file system locale

TARGET_PATH

    Percorso della directory di destinazione nell'area di lavoro

Options

--overwrite

    sovrascrivere i file dell'area di lavoro esistenti

Flag globali

Elenco di aree di lavoro di databricks

Elencare il contenuto di una directory o l'oggetto se non è una directory. Se il percorso di input non esiste, questa chiamata restituisce un errore RESOURCE_DOES_NOT_EXIST.

databricks workspace list PATH [flags]

Arguments

PATH

    Percorso assoluto del notebook o della directory.

Options

--notebooks-modified-after int

    Timestamp UTC in millisecondi.

Flag globali

comando "databricks workspace mkdirs"

Creare la directory specificata e, se non esistono, le directory padre necessarie. Se è presente un oggetto (non una directory) in un prefisso del percorso di input, questa chiamata restituisce un errore RESOURCE_ALREADY_EXISTS.

Si noti che se l'operazione non riesce, potrebbe comunque essere riuscita nella creazione di alcune delle directory padre necessarie.

databricks workspace mkdirs PATH [flags]

Arguments

PATH

    Percorso assoluto della directory. Se le directory padre non esistono, verranno create anch'esse. Se la directory esiste già, questo comando non eseguirà alcuna operazione e avrà esito positivo.

Options

--json JSON

    Stringa JSON inline o file JSON @path con il corpo della richiesta.

Flag globali

databricks workspace ottenere-livelli-di-autorizzazione

Ottenere i livelli di autorizzazione per gli oggetti dell'area di lavoro.

databricks workspace get-permission-levels WORKSPACE_OBJECT_TYPE WORKSPACE_OBJECT_ID [flags]

Arguments

WORKSPACE_OBJECT_TYPE

    Tipo di oggetto dell'area di lavoro per cui ottenere o gestire le autorizzazioni.

WORKSPACE_OBJECT_ID

    Oggetto area di lavoro per cui ottenere o gestire le autorizzazioni.

Options

Flag globali

Ottenere le autorizzazioni dell'area di lavoro Databricks

Ottieni i permessi di un oggetto dello spazio di lavoro. Gli oggetti workspace possono ereditare le autorizzazioni dagli oggetti padre o dall'oggetto radice.

databricks workspace get-permissions WORKSPACE_OBJECT_TYPE WORKSPACE_OBJECT_ID [flags]

Arguments

WORKSPACE_OBJECT_TYPE

    Tipo di oggetto dell'area di lavoro per cui ottenere o gestire le autorizzazioni.

WORKSPACE_OBJECT_ID

    Oggetto area di lavoro per cui ottenere o gestire le autorizzazioni.

Options

Flag globali

Impostazione delle autorizzazioni dell'area di lavoro di Databricks

Impostare le autorizzazioni per gli oggetti dell'area di lavoro.

Imposta le autorizzazioni per un oggetto, sostituendo le autorizzazioni esistenti, se esistenti. Elimina tutte le autorizzazioni dirette se non è specificato alcuno. Gli oggetti possono ereditare le autorizzazioni dagli oggetti padre o dall'oggetto radice.

databricks workspace set-permissions WORKSPACE_OBJECT_TYPE WORKSPACE_OBJECT_ID [flags]

Arguments

WORKSPACE_OBJECT_TYPE

    Tipo di oggetto dell'area di lavoro per cui ottenere o gestire le autorizzazioni.

WORKSPACE_OBJECT_ID

    Oggetto area di lavoro per cui ottenere o gestire le autorizzazioni.

Options

--json JSON

    Stringa JSON inline o file JSON @path con il corpo della richiesta.

Flag globali

Autorizzazioni di aggiornamento dell'area di lavoro databricks

Aggiornare le autorizzazioni per un oggetto dell'area di lavoro. Gli oggetti workspace possono ereditare le autorizzazioni dagli oggetti padre o dall'oggetto radice.

databricks workspace update-permissions WORKSPACE_OBJECT_TYPE WORKSPACE_OBJECT_ID [flags]

Arguments

WORKSPACE_OBJECT_TYPE

    Tipo di oggetto dell'area di lavoro per cui ottenere o gestire le autorizzazioni.

WORKSPACE_OBJECT_ID

    Oggetto area di lavoro per cui ottenere o gestire le autorizzazioni.

Options

--json JSON

    Stringa JSON inline o file JSON @path con il corpo della richiesta.

Flag globali

Bandiere globali

--debug

  Indica se abilitare la registrazione di debug.

-h oppure --help

    Mostra la guida per il Databricks CLI, il gruppo di comandi correlato o il comando correlato.

--log-file stringa

    Stringa che rappresenta il file in cui scrivere i log di output. Se questo flag non viene specificato, l'impostazione predefinita prevede la scrittura dei log di output su stderr.

--log-format formato

    Tipo di formato del log, text o json. Il valore predefinito è text.

--log-level stringa

    Stringa che rappresenta il livello di formato del log. Se non specificato, il livello di formato del log è disabilitato.

tipo

    Tipo di output del comando, text o json. Il valore predefinito è text.

-p, --profile stringa

    Nome del profilo nel ~/.databrickscfg file da usare per eseguire il comando . Se questo flag non viene specificato, se esiste, viene usato il profilo denominato DEFAULT .

--progress-format formato

    Formato per visualizzare i log di stato: default, append, inplaceo json

-t, --target stringa

    Se applicabile, la destinazione del bundle da utilizzare