Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Note
Queste informazioni si applicano all'interfaccia della riga di comando di Databricks versione 0.205 e successive. L'interfaccia della riga di comando di Databricks è disponibile in anteprima pubblica.
L'uso della CLI di Databricks è soggetto alla Licenza di Databricks e all'Informativa sulla privacy di Databricks, incluse eventuali disposizioni sui dati di utilizzo.
Il workspace gruppo di comandi all'interno dell'interfaccia della riga di comando di Databricks consente di elencare, importare, esportare ed eliminare file e cartelle dell'area di lavoro. Vedere Che cosa sono i file dell'area di lavoro?.
eliminazione dell'area di lavoro databricks
Eliminare un oggetto dell'area di lavoro.
Elimina un oggetto o una directory (e facoltativamente elimina in modo ricorsivo tutti gli oggetti nella directory). Se il percorso non esiste, questa chiamata restituisce un errore RESOURCE_DOES_NOT_EXIST. Se path è una directory non vuota e recursive è impostato su false, questa chiamata restituisce un errore DIRECTORY_NOT_EMPTY.
L'eliminazione di oggetti non può essere annullata e l'eliminazione di una directory in modo ricorsivo non è atomica.
databricks workspace delete PATH [flags]
Arguments
PATH
Percorso assoluto del notebook o della directory.
Options
--json JSON
Stringa JSON inline o file JSON @path con il corpo della richiesta.
--recursive
Flag che specifica se eliminare l'oggetto in modo ricorsivo.
Esportazione dell'area di lavoro Databricks
Esportare un oggetto area di lavoro o il contenuto di un'intera directory.
Se il percorso non esiste, questa chiamata restituisce un errore RESOURCE_DOES_NOT_EXIST.
Se i dati esportati superano il limite di dimensioni, questa chiamata restituisce MAX_NOTEBOOK_SIZE_EXCEEDED. Attualmente, questa API non supporta l'esportazione di una libreria.
databricks workspace export SOURCE_PATH [flags]
Arguments
PATH
Percorso assoluto dell'oggetto o della directory. L'esportazione di una directory è supportata solo per il formato DBC, SOURCE e AUTO.
Options
--file string
Percorso nel file system locale in cui salvare il file esportato.
--format ExportFormat
Specifica il formato del file esportato. Valori supportati: AUTO, DBC, HTMLJUPYTER, RAW, , R_MARKDOWNSOURCE
export-dir dell'area di lavoro di Databricks
Esportare una directory in modo ricorsivo da un'area di lavoro di Databricks al file system locale.
databricks workspace export-dir SOURCE_PATH TARGET_PATH [flags]
Arguments
SOURCE_PATH
Percorso della cartella sorgente nello spazio di lavoro
TARGET_PATH
Percorso della directory di destinazione nel file system locale
Options
--overwrite
sovrascrivere i file locali esistenti
ottenere lo stato dell'area di lavoro di databricks
Ottenere lo stato di un oggetto o di una directory. Se il percorso non esiste, questa chiamata restituisce un errore RESOURCE_DOES_NOT_EXIST.
databricks workspace get-status PATH [flags]
Arguments
PATH
Percorso assoluto del notebook o della directory.
Options
Importazione dell'area di lavoro Databricks
Importa un oggetto area di lavoro (ad esempio, un notebook o un file) o il contenuto di un'intera directory. Se il percorso esiste già e la sovrascrittura è impostata su false, questa chiamata restituisce un errore RESOURCE_ALREADY_EXISTS. Per importare una directory, è possibile usare il DBC formato o il SOURCE formato con il campo lingua non impostato. Per importare un singolo file come SOURCE, è necessario impostare il campo lingua. I file ZIP all'interno delle directory non sono supportati.
databricks workspace import TARGET_PATH [flags]
Arguments
PATH
Percorso assoluto dell'oggetto o della directory. L'importazione di una directory è supportata solo per i formati DBC e SOURCE.
Options
--content string
Contenuto con codifica Base64.
--file string
Percorso del file locale da importare
--format ImportFormat
Specifica il formato del file da importare. Valori supportati: AUTO, DBC, HTMLJUPYTER, RAW, , R_MARKDOWNSOURCE
--json JSON
Stringa JSON inline o file JSON @path con il corpo della richiesta.
--language Language
Lingua dell'oggetto. Valori supportati: PYTHON, R, SCALA, SQL
--overwrite
Flag che specifica se sovrascrivere l'oggetto esistente.
import-dir dell'area di lavoro Databricks
Importare una directory in modo ricorsivo dal file system locale in un'area di lavoro di Databricks.
I notebook saranno privati delle estensioni.
databricks workspace import-dir SOURCE_PATH TARGET_PATH [flags]
Arguments
SOURCE_PATH
Percorso della directory di origine nel file system locale
TARGET_PATH
Percorso della directory di destinazione nell'area di lavoro
Options
--overwrite
sovrascrivere i file dell'area di lavoro esistenti
Elenco di aree di lavoro di databricks
Elencare il contenuto di una directory o l'oggetto se non è una directory. Se il percorso di input non esiste, questa chiamata restituisce un errore RESOURCE_DOES_NOT_EXIST.
databricks workspace list PATH [flags]
Arguments
PATH
Percorso assoluto del notebook o della directory.
Options
--notebooks-modified-after int
Timestamp UTC in millisecondi.
comando "databricks workspace mkdirs"
Creare la directory specificata e, se non esistono, le directory padre necessarie. Se è presente un oggetto (non una directory) in un prefisso del percorso di input, questa chiamata restituisce un errore RESOURCE_ALREADY_EXISTS.
Si noti che se l'operazione non riesce, potrebbe comunque essere riuscita nella creazione di alcune delle directory padre necessarie.
databricks workspace mkdirs PATH [flags]
Arguments
PATH
Percorso assoluto della directory. Se le directory padre non esistono, verranno create anch'esse. Se la directory esiste già, questo comando non eseguirà alcuna operazione e avrà esito positivo.
Options
--json JSON
Stringa JSON inline o file JSON @path con il corpo della richiesta.
databricks workspace ottenere-livelli-di-autorizzazione
Ottenere i livelli di autorizzazione per gli oggetti dell'area di lavoro.
databricks workspace get-permission-levels WORKSPACE_OBJECT_TYPE WORKSPACE_OBJECT_ID [flags]
Arguments
WORKSPACE_OBJECT_TYPE
Tipo di oggetto dell'area di lavoro per cui ottenere o gestire le autorizzazioni.
WORKSPACE_OBJECT_ID
Oggetto area di lavoro per cui ottenere o gestire le autorizzazioni.
Options
Ottenere le autorizzazioni dell'area di lavoro Databricks
Ottieni i permessi di un oggetto dello spazio di lavoro. Gli oggetti workspace possono ereditare le autorizzazioni dagli oggetti padre o dall'oggetto radice.
databricks workspace get-permissions WORKSPACE_OBJECT_TYPE WORKSPACE_OBJECT_ID [flags]
Arguments
WORKSPACE_OBJECT_TYPE
Tipo di oggetto dell'area di lavoro per cui ottenere o gestire le autorizzazioni.
WORKSPACE_OBJECT_ID
Oggetto area di lavoro per cui ottenere o gestire le autorizzazioni.
Options
Impostazione delle autorizzazioni dell'area di lavoro di Databricks
Impostare le autorizzazioni per gli oggetti dell'area di lavoro.
Imposta le autorizzazioni per un oggetto, sostituendo le autorizzazioni esistenti, se esistenti. Elimina tutte le autorizzazioni dirette se non è specificato alcuno. Gli oggetti possono ereditare le autorizzazioni dagli oggetti padre o dall'oggetto radice.
databricks workspace set-permissions WORKSPACE_OBJECT_TYPE WORKSPACE_OBJECT_ID [flags]
Arguments
WORKSPACE_OBJECT_TYPE
Tipo di oggetto dell'area di lavoro per cui ottenere o gestire le autorizzazioni.
WORKSPACE_OBJECT_ID
Oggetto area di lavoro per cui ottenere o gestire le autorizzazioni.
Options
--json JSON
Stringa JSON inline o file JSON @path con il corpo della richiesta.
Autorizzazioni di aggiornamento dell'area di lavoro databricks
Aggiornare le autorizzazioni per un oggetto dell'area di lavoro. Gli oggetti workspace possono ereditare le autorizzazioni dagli oggetti padre o dall'oggetto radice.
databricks workspace update-permissions WORKSPACE_OBJECT_TYPE WORKSPACE_OBJECT_ID [flags]
Arguments
WORKSPACE_OBJECT_TYPE
Tipo di oggetto dell'area di lavoro per cui ottenere o gestire le autorizzazioni.
WORKSPACE_OBJECT_ID
Oggetto area di lavoro per cui ottenere o gestire le autorizzazioni.
Options
--json JSON
Stringa JSON inline o file JSON @path con il corpo della richiesta.
Bandiere globali
--debug
Indica se abilitare la registrazione di debug.
-h oppure --help
Mostra la guida per il Databricks CLI, il gruppo di comandi correlato o il comando correlato.
--log-file stringa
Stringa che rappresenta il file in cui scrivere i log di output. Se questo flag non viene specificato, l'impostazione predefinita prevede la scrittura dei log di output su stderr.
--log-format formato
Tipo di formato del log, text o json. Il valore predefinito è text.
--log-level stringa
Stringa che rappresenta il livello di formato del log. Se non specificato, il livello di formato del log è disabilitato.
tipo
Tipo di output del comando, text o json. Il valore predefinito è text.
-p, --profile stringa
Nome del profilo nel ~/.databrickscfg file da usare per eseguire il comando . Se questo flag non viene specificato, se esiste, viene usato il profilo denominato DEFAULT .
--progress-format formato
Formato per visualizzare i log di stato: default, append, inplaceo json
-t, --target stringa
Se applicabile, la destinazione del bundle da utilizzare