Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Note
Ces informations s’appliquent à Databricks CLI versions 0.205 et ultérieures. L’interface CLI Databricks est en préversion publique.
L’utilisation de l’interface CLI Databricks est soumise à la licence Databricks et à la notification de confidentialité Databricks, y compris les dispositions relatives aux données d’utilisation.
Le workspace groupe de commandes dans l’interface CLI Databricks vous permet de répertorier, d’importer, d’exporter et de supprimer des fichiers et dossiers d’espace de travail. Consultez l’article Que sont les fichiers d’espace de travail ?.
Suppression d'espace de travail Databricks
Supprimez un objet d’espace de travail.
Supprime un objet ou un répertoire (et supprime éventuellement de manière récursive tous les objets du répertoire). Si le chemin d’accès n’existe pas, cet appel retourne une erreur RESOURCE_DOES_NOT_EXIST. Si le chemin d’accès est un répertoire non vide et qu’il est récursif défini sur false, cet appel retourne une erreur DIRECTORY_NOT_EMPTY.
La suppression d’objets ne peut pas être annulée et la suppression d’un répertoire de manière récursive n’est pas atomique.
databricks workspace delete PATH [flags]
Arguments
PATH
Chemin absolu du bloc-notes ou du répertoire.
Options
--json JSON
Chaîne JSON inline ou chemin @path vers le fichier JSON avec le corps de la requête.
--recursive
Indicateur qui spécifie s’il faut supprimer l’objet de manière récursive.
Exporter l'espace de travail Databricks
Exportez un objet d’espace de travail ou le contenu d’un répertoire entier.
Si le chemin d’accès n’existe pas, cet appel retourne une erreur RESOURCE_DOES_NOT_EXIST.
Si les données exportées dépassent la limite de taille, cet appel retourne MAX_NOTEBOOK_SIZE_EXCEEDED. Actuellement, cette API ne prend pas en charge l’exportation d’une bibliothèque.
databricks workspace export SOURCE_PATH [flags]
Arguments
PATH
Chemin absolu de l’objet ou du répertoire. L’exportation d’un répertoire est prise en charge uniquement pour le format DBC, SOURCE et AUTO.
Options
--file string
Chemin dans le système de fichiers local pour enregistrer le fichier exporté.
--format ExportFormat
Cela spécifie le format du fichier exporté. Valeurs prises en charge : AUTO, , DBCHTML, , JUPYTERRAWR_MARKDOWNSOURCE
espace de travail databricks exportation du répertoire
Exportez un répertoire de manière récursive à partir d’un espace de travail Databricks vers le système de fichiers local.
databricks workspace export-dir SOURCE_PATH TARGET_PATH [flags]
Arguments
SOURCE_PATH
Chemin du répertoire source dans l’espace de travail
TARGET_PATH
Chemin du répertoire cible sur le système de fichiers local
Options
--overwrite
remplacer les fichiers locaux existants
databricks espace de travail get-status
Obtenez l’état d’un objet ou d’un répertoire. Si le chemin d’accès n’existe pas, cet appel retourne une erreur RESOURCE_DOES_NOT_EXIST.
databricks workspace get-status PATH [flags]
Arguments
PATH
Chemin absolu du bloc-notes ou du répertoire.
Options
Import de l’espace de travail Databricks
Importe un objet d’espace de travail (par exemple, un bloc-notes ou un fichier) ou le contenu d’un répertoire entier. Si le chemin existe déjà et que le remplacement est défini sur false, cet appel retourne une erreur RESOURCE_ALREADY_EXISTS. Pour importer un répertoire, vous pouvez utiliser le DBC format ou le SOURCE format avec le champ de langue non défini. Pour importer un fichier unique en tant que SOURCE, vous devez définir le champ de langue. Les fichiers zip dans les répertoires ne sont pas pris en charge.
databricks workspace import TARGET_PATH [flags]
Arguments
PATH
Chemin absolu de l’objet ou du répertoire. L’importation d’un répertoire n’est prise en charge que pour les formats DBC et SOURCE.
Options
--content string
Contenu encodé en base64.
--file string
Chemin d’accès du fichier local à importer
--format ImportFormat
Cela spécifie le format du fichier à importer. Valeurs prises en charge : AUTO, , DBCHTML, , JUPYTERRAWR_MARKDOWNSOURCE
--json JSON
Chaîne JSON inline ou chemin @path vers le fichier JSON avec le corps de la requête.
--language Language
Langue de l’objet. Valeurs prises en charge : PYTHON, R, SCALA, SQL
--overwrite
Indicateur qui spécifie s’il faut remplacer l’objet existant.
databricks espace de travail importer-dossier
Importez un répertoire de manière récursive à partir du système de fichiers local dans un espace de travail Databricks.
Les blocs-notes auront leurs extensions supprimées.
databricks workspace import-dir SOURCE_PATH TARGET_PATH [flags]
Arguments
SOURCE_PATH
Chemin du répertoire source sur le système de fichiers local
TARGET_PATH
Chemin du répertoire cible dans l’espace de travail
Options
--overwrite
remplacer les fichiers d’espace de travail existants
liste des environnements de travail Databricks
Répertoriez le contenu d’un répertoire ou l’objet s’il ne s’agit pas d’un répertoire. Si le chemin d’accès d’entrée n’existe pas, cet appel retourne une erreur RESOURCE_DOES_NOT_EXIST.
databricks workspace list PATH [flags]
Arguments
PATH
Chemin absolu du bloc-notes ou du répertoire.
Options
--notebooks-modified-after int
Horodatage UTC en millisecondes.
databricks workspace mkdirs (crée des répertoires)
Créez le répertoire spécifié (et les répertoires parents nécessaires s’ils n’existent pas). S’il existe un objet (et non un répertoire) au préfixe du chemin d’accès d’entrée, cet appel renvoie une erreur RESOURCE_ALREADY_EXISTS.
Notez que si cette opération échoue, elle a peut-être réussi à créer certains répertoires parents nécessaires.
databricks workspace mkdirs PATH [flags]
Arguments
PATH
Chemin d'accès absolu du répertoire. Si les répertoires parents n’existent pas, il les crée également. Si le répertoire existe déjà, cette commande ne fera rien et réussira.
Options
--json JSON
Chaîne JSON inline ou chemin @path vers le fichier JSON avec le corps de la requête.
databricks espace de travail obtenir-les-niveaux-de-permission
Obtenir les niveaux d’autorisation de l’objet d’espace de travail.
databricks workspace get-permission-levels WORKSPACE_OBJECT_TYPE WORKSPACE_OBJECT_ID [flags]
Arguments
WORKSPACE_OBJECT_TYPE
Type d’objet d’espace de travail pour lequel obtenir ou gérer des autorisations.
WORKSPACE_OBJECT_ID
Objet d’espace de travail pour lequel obtenir ou gérer des autorisations.
Options
databricks workspace obtenir-les-permissions
Obtenez les autorisations d’un objet d’espace de travail. Les objets d’espace de travail peuvent hériter des autorisations de leurs objets parents ou de leur objet racine.
databricks workspace get-permissions WORKSPACE_OBJECT_TYPE WORKSPACE_OBJECT_ID [flags]
Arguments
WORKSPACE_OBJECT_TYPE
Type d’objet d’espace de travail pour lequel obtenir ou gérer des autorisations.
WORKSPACE_OBJECT_ID
Objet d’espace de travail pour lequel obtenir ou gérer des autorisations.
Options
databricks workspace définir les autorisations
Définissez les autorisations d’objet de l’espace de travail.
Définit des autorisations sur un objet, en remplaçant les autorisations existantes s’ils existent. Supprime toutes les autorisations directes si aucune n’est spécifiée. Les objets peuvent hériter des autorisations de leurs objets parents ou de leur objet racine.
databricks workspace set-permissions WORKSPACE_OBJECT_TYPE WORKSPACE_OBJECT_ID [flags]
Arguments
WORKSPACE_OBJECT_TYPE
Type d’objet d’espace de travail pour lequel obtenir ou gérer des autorisations.
WORKSPACE_OBJECT_ID
Objet d’espace de travail pour lequel obtenir ou gérer des autorisations.
Options
--json JSON
Chaîne JSON inline ou chemin @path vers le fichier JSON avec le corps de la requête.
databricks mise à jour des autorisations de l'espace de travail
Mettez à jour les autorisations sur un objet d’espace de travail. Les objets d’espace de travail peuvent hériter des autorisations de leurs objets parents ou de leur objet racine.
databricks workspace update-permissions WORKSPACE_OBJECT_TYPE WORKSPACE_OBJECT_ID [flags]
Arguments
WORKSPACE_OBJECT_TYPE
Type d’objet d’espace de travail pour lequel obtenir ou gérer des autorisations.
WORKSPACE_OBJECT_ID
Objet d’espace de travail pour lequel obtenir ou gérer des autorisations.
Options
--json JSON
Chaîne JSON inline ou chemin @path vers le fichier JSON avec le corps de la requête.
Indicateurs globaux
--debug
Active la journalisation du débogage.
-h ou --help
Affiche l’aide pour l’interface CLI de Databricks, le groupe de commandes associé ou la commande concernée.
--log-file chaîne
Chaîne représentant le fichier dans lequel écrire les journaux de sortie. Si cet indicateur n’est pas défini, les journaux de sortie sont écrits par défaut dans stderr.
--log-format format
Format des journaux : text ou json. La valeur par défaut est text.
--log-level chaîne
Chaîne représentant le niveau de journalisation. Si cet indicateur n’est pas défini, le niveau de format de journal est désactivé.
Type -o, --output
Type de sortie de commande, text ou json. La valeur par défaut est text.
-p, --profile chaîne
Nom du profil dans le ~/.databrickscfg fichier à utiliser pour exécuter la commande. Si cet indicateur n’est pas spécifié, s’il existe, le profil nommé DEFAULT est utilisé.
--progress-format format
Format d’affichage des journaux d’activité de progression : default, append, inplace ou json
-t, --target chaîne
Le cas échéant, la cible d’offre groupée à utiliser