Condividi tramite


Interfaccia della riga di comando dell'area di lavoro (legacy)

Importante

Questa documentazione è stata ritirata e potrebbe non essere aggiornata.

Queste informazioni si applicano alle versioni legacy dell'interfaccia della riga di comando di Databricks 0.18 e successive. Databricks consiglia di usare invece la versione 0.205 o successiva dell'interfaccia della riga di comando di Databricks più recente. Vedere Che cos'è l'interfaccia della riga di comando di Databricks?. Per trovare la versione dell'interfaccia della riga di comando di Databricks, eseguire databricks -v.

Per eseguire la migrazione dall'interfaccia della riga di comando di Databricks versione 0.18 o successiva all'interfaccia della riga di comando di Databricks versione 0.205 o successiva, vedere Migrazione dell'interfaccia della riga di comando di Databricks.

È possibile eseguire sottocomandi dell'interfaccia della riga di comando dell'area di lavoro di Databricks aggiungendoli a databricks workspace. Questi sottocomandi chiamano l'API dell'area di lavoro.

databricks workspace -h
Usage: databricks workspace [OPTIONS] COMMAND [ARGS]...

  Utility to interact with the Databricks workspace. Workspace paths must be
  absolute and be prefixed with `/`.

Common Options:
  -v, --version  [VERSION]
  -h, --help     Show this message and exit.

Commands:
  delete      Deletes objects from the Databricks workspace. rm and delete are synonyms.
    Options:
        -r, --recursive
  export      Exports a file from the Databricks workspace.
    Options:
      -f, --format FORMAT      SOURCE, HTML, JUPYTER, or DBC. Set to SOURCE by default.
      -o, --overwrite          Overwrites file with the same name as a workspace file.
  export_dir  Recursively exports a directory from the Databricks workspace.
    Options:
      -o, --overwrite          Overwrites local files with the same names as workspace files.
  import      Imports a file from local to the Databricks workspace.
    Options:
      -l, --language LANGUAGE  SCALA, PYTHON, SQL, R  [required]
      -f, --format FORMAT      SOURCE, HTML, JUPYTER, or DBC. Set to SOURCE by default.
      -o, --overwrite          Overwrites workspace files with the same names as local files.
  import_dir  Recursively imports a directory to the Databricks workspace.

    Only directories and files with the extensions .scala, .py, .sql, .r, .R,
    .ipynb are imported. When imported, these extensions are stripped off
    the name of the notebook.

    Options:
      -o, --overwrite          Overwrites workspace files with the same names as local files.
      -e, --exclude-hidden-files
  list        Lists objects in the Databricks workspace. ls and list are synonyms.
    Options:
      --absolute               Displays absolute paths.
      -l                       Displays full information including ObjectType, Path, Language
  ls          Lists objects in the Databricks workspace. ls and list are synonyms.
    Options:
      --absolute               Displays absolute paths.
      -l                       Displays full information including ObjectType, Path, Language
  mkdirs      Makes directories in the Databricks workspace.
  rm          Deletes objects from the Databricks workspace. rm and delete are synonyms.
    Options:
        -r, --recursive

Eliminare un oggetto da un'area di lavoro

Per visualizzare la documentazione sull'utilizzo, eseguire databricks workspace delete --help o databricks workspace rm --help.

databricks workspace delete --recursive "/Users/someone@example.com/My Folder"

Oppure:

databricks workspace rm --recursive "/Users/someone@example.com/My Folder"

In caso di esito positivo, non viene visualizzato alcun output.

Esportare un file da un'area di lavoro nel file system locale

Per visualizzare la documentazione sull'utilizzo, eseguire databricks workspace export --help.

databricks workspace export --overwrite --format JUPYTER "/Users/someone@example.com/My Python Notebook" /Users/me/Downloads

Questa opzione può essere usata anche per esportare i notebook da una cartella Git di Databricks:

databricks workspace export "/Repos/someone@example.com/MyRepoNotebook" /Users/me/Downloads

In caso di esito positivo, non viene visualizzato alcun output.

Esportare una directory da un'area di lavoro nel file system locale

Per visualizzare la documentazione sull'utilizzo, eseguire databricks workspace export_dir --help.

databricks workspace export_dir --overwrite /Users/someone@example.com/my-folder /Users/me/Downloads/my-folder
/Users/someone@example.com/my-folder/My Python Notebook -> /Users/me/Downloads/my-folder/My Python Notebook.py
/Users/someone@example.com/my-folder/My Scala Notebook -> /Users/me/Downloads/my-folder/My Scala Notebook.scala
/Users/someone@example.com/my-folder/My R Notebook -> /Users/me/Downloads/my-folder/My R Notebook.r
/Users/someone@example.com/my-folder/My SQL Notebook -> /Users/me/Downloads/my-folder/My SQL Notebook.sql

Importare un file dal file system locale in un'area di lavoro

Per visualizzare la documentazione sull'utilizzo, eseguire databricks workspace import --help.

È possibile importare solo i file con estensioni .scala, .sql.py, .r.R . Quando vengono importate, queste estensioni vengono rimosse dal nome del notebook.

databricks workspace import ./a.py /Users/someone@example.com/example
./a.py -> /Users/someone@example.com/example/a

Importare una directory dal file system locale in un'area di lavoro

Per visualizzare la documentazione sull'utilizzo, eseguire databricks workspace import_dir --help.

Questo comando importa in modo ricorsivo una directory dal file system locale nell'area di lavoro. Vengono importate solo directory e file con le estensioni .scala, .py.sql, .r. .R Quando vengono importate, queste estensioni vengono rimosse dal nome del notebook.

Per sovrascrivere i notebook esistenti nel percorso di destinazione, aggiungere il flag --overwrite o -o.

tree
.
├── a.py
├── b.scala
├── c.sql
├── d.R
└── e
databricks workspace import_dir . /Users/someone@example.com/example
./a.py -> /Users/someone@example.com/example/a
./b.scala -> /Users/someone@example.com/example/b
./c.sql -> /Users/someone@example.com/example/c
./d.R -> /Users/someone@example.com/example/d
databricks workspace ls /Users/someone@example.com/example -l
NOTEBOOK   a  PYTHON
NOTEBOOK   b  SCALA
NOTEBOOK   c  SQL
NOTEBOOK   d  R
DIRECTORY  e

Elencare gli oggetti in un'area di lavoro

Per visualizzare la documentazione sull'utilizzo, eseguire databricks workspace list --help o databricks workspace ls --help.

databricks workspace list --absolute --long --id /Users/someone@example.com

Oppure:

databricks workspace ls --absolute --long --id /Users/someone@example.com
NOTEBOOK           /Users/someone@example.com/My Python Notebook  PYTHON  1234567898012345
NOTEBOOK           /Users/someone@example.com/My Scala Notebook   SCALA   2345678980123456
NOTEBOOK           /Users/someone@example.com/My R Notebook       R       3456789801234567
DIRECTORY          /Users/someone@example.com/My Directory                4567898012345678
MLFLOW_EXPERIMENT  /Users/someone@example.com/My_Experiment               5678980123456789

Creare una directory in un'area di lavoro

Per visualizzare la documentazione sull'utilizzo, eseguire databricks workspace mkdirs --help.

databricks workspace mkdirs "/Users/someone@example.com/My New Folder"

In caso di esito positivo, non viene visualizzato alcun output.