Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Note
Ces informations s’appliquent à Databricks CLI versions 0.205 et ultérieures. L’interface CLI Databricks est en préversion publique.
L’utilisation de l’interface CLI Databricks est soumise à la licence Databricks et à la notification de confidentialité Databricks, y compris les dispositions relatives aux données d’utilisation.
Le pipelines groupe de commandes dans l’interface CLI Databricks vous permet de créer, modifier, supprimer, démarrer et afficher des détails sur les pipelines. Consultez pipelines déclaratifs Lakeflow Spark.
créer des pipelines Databricks
Créez un pipeline de traitement des données en fonction de la configuration demandée. Si elle réussit, cette commande retourne l’ID du nouveau pipeline.
databricks pipelines create [flags]
Arguments
None
Options
--json JSON
Chaîne JSON inline ou chemin @path vers le fichier JSON avec le corps de la requête.
supprimer des pipelines databricks
Permet de supprimer un pipeline.
databricks pipelines delete PIPELINE_ID [flags]
Arguments
PIPELINE_ID
Le pipeline à supprimer.
Options
récupération des pipelines Databricks
Permet d'obtenir un pipeline.
databricks pipelines get PIPELINE_ID [flags]
Arguments
PIPELINE_ID
Le pipeline à obtenir.
Options
databricks pipelines obtenir mise à jour
Obtenir une mise à jour à partir d’un pipeline actif.
databricks pipelines get-update PIPELINE_ID UPDATE_ID [flags]
Arguments
PIPELINE_ID
L'ID du pipeline.
UPDATE_ID
ID de la mise à jour.
Options
databricks pipelines list-pipeline-events
Permet de récupérer les événements pour un pipeline.
databricks pipelines list-pipeline-events PIPELINE_ID [flags]
Arguments
PIPELINE_ID
Le pipeline pour lequel récupérer des événements.
Options
--filter string
Critères pour sélectionner un sous-ensemble de résultats, exprimé à l’aide d’une syntaxe de type SQL.
--max-results int
Nombre maximal d’entrées à retourner dans une seule page.
--page-token string
Jeton de page retourné par l’appel précédent.
pipelines databricks list-pipelines
Répertorier les pipelines définis dans le système Delta Live Tables.
databricks pipelines list-pipelines [flags]
Arguments
None
Options
--filter string
Sélectionnez un sous-ensemble de résultats en fonction des critères spécifiés.
--max-results int
Nombre maximal d’entrées à retourner dans une seule page.
--page-token string
Jeton de page retourné par l’appel précédent.
databricks pipelines lister-mises-à-jour
Répertoriez les mises à jour d’un pipeline actif.
databricks pipelines list-updates PIPELINE_ID [flags]
Arguments
PIPELINE_ID
Le pipeline pour lequel retourner les mises à jour.
Options
--max-results int
Nombre maximal d’entrées à retourner dans une seule page.
--page-token string
Jeton de page retourné par l’appel précédent.
--until-update-id string
Si cette option est présente, permet de retourner les mises à jour jusqu’à cet update_id inclus.
databricks pipeline démarrer-mise à jour
Démarrez une nouvelle mise à jour du pipeline. S’il existe déjà une mise à jour active pour le pipeline, la requête échoue et la mise à jour active reste en cours d’exécution.
databricks pipelines start-update PIPELINE_ID [flags]
Arguments
PIPELINE_ID
Le pipeline pour lequel démarrer une mise à jour.
Options
--cause StartUpdateCause
Valeurs prises en charge : [API_CALL, JOB_TASK, RETRY_ON_FAILURE, SCHEMA_CHANGE, SERVICE_UPGRADE, USER_ACTION]
--full-refresh
Si la valeur est true, cette mise à jour réinitialise toutes les tables avant l’exécution.
--json JSON
Chaîne JSON inline ou chemin @path vers le fichier JSON avec le corps de la requête.
--validate-only
Si la valeur est true, cette mise à jour valide uniquement l’exactitude du code source du pipeline, mais ne matérialise ni ne publie aucun jeu de données.
arrêt des pipelines Databricks
Arrêtez le pipeline en annulant la mise à jour active. En cas d'absence de mise à jour active pour le pipeline, cette requête n’est pas opérationnelle.
databricks pipelines stop PIPELINE_ID [flags]
Arguments
PIPELINE_ID
Le pipeline à arrêter.
Options
--no-wait
n’attendez pas d’atteindre l’état IDLE
--timeout duration
durée maximale pour atteindre l’état IDLE (20 minutes par défaut)
Mise à jour des pipelines Databricks
Mettez à jour un pipeline avec la configuration fournie.
databricks pipelines update PIPELINE_ID [flags]
Arguments
PIPELINE_ID
Identificateur unique pour ce pipeline.
Options
--allow-duplicate-names
Si la valeur est false, le déploiement échoue si le nom a changé et est en conflit avec le nom d’un autre pipeline.
--budget-policy-id string
Stratégie budgétaire de ce pipeline.
--catalog string
Catalogue dans Unity Catalog dans lequel publier des données à partir de ce pipeline.
--channel string
Canal de diffusion des pipelines déclaratifs Spark Lakeflow spécifiant la version à utiliser.
--continuous
Indiquez si le pipeline est continu ou déclenché.
--development
Indique si le pipeline est en mode développement.
--edition string
Édition de pipeline.
--expected-last-modified int
S’il est présent, l’heure de dernière modification des paramètres du pipeline avant la modification.
--id string
Identificateur unique pour ce pipeline.
--json JSON
Chaîne JSON inline ou chemin @path vers le fichier JSON avec le corps de la requête.
--name string
Identificateur convivial pour ce pipeline.
--photon
Indique si Photon est activé pour ce pipeline.
--pipeline-id string
Identificateur unique pour ce pipeline.
--schema string
Schéma par défaut (base de données) dans lequel les tables sont lues ou publiées.
--serverless
Indique si le calcul "serverless" est activé pour ce pipeline.
--storage string
Répertoire racine DBFS pour le stockage de points de contrôle et de tables.
--target string
Schéma cible (base de données) pour ajouter des tables dans ce pipeline.
databricks pipelines obtenir les niveaux de permission
Permet d'obtenir les niveaux d’autorisation du pipeline.
databricks pipelines get-permission-levels PIPELINE_ID [flags]
Arguments
PIPELINE_ID
Le pipeline pour lequel obtenir ou gérer les autorisations.
Options
pipelines databricks obtenir-autorisations
Obtenez les autorisations d’un pipeline. Les pipelines peuvent hériter des autorisations de leur objet racine.
databricks pipelines get-permissions PIPELINE_ID [flags]
Arguments
PIPELINE_ID
Le pipeline pour lequel obtenir ou gérer les autorisations.
Options
databricks pipelines réglage-des-autorisations
Définir les autorisations des pipelines.
Définit des autorisations sur un objet, en remplaçant les autorisations existantes s’ils existent. Supprime toutes les autorisations directes si aucune n’est spécifiée. Les objets peuvent hériter des autorisations de leur objet racine.
databricks pipelines set-permissions PIPELINE_ID [flags]
Arguments
PIPELINE_ID
Le pipeline pour lequel obtenir ou gérer les autorisations.
Options
--json JSON
Chaîne JSON inline ou chemin @path vers le fichier JSON avec le corps de la requête.
databricks pipelines mettre à jour les autorisations
Mettez à jour les autorisations sur un pipeline. Les pipelines peuvent hériter des autorisations de leur objet racine.
databricks pipelines update-permissions PIPELINE_ID [flags]
Arguments
PIPELINE_ID
Le pipeline pour lequel obtenir ou gérer les autorisations.
Options
--json JSON
Chaîne JSON inline ou chemin @path vers le fichier JSON avec le corps de la requête.
Indicateurs globaux
--debug
Active la journalisation du débogage.
-h ou --help
Affiche l’aide pour l’interface CLI de Databricks, le groupe de commandes associé ou la commande concernée.
--log-file chaîne
Chaîne représentant le fichier dans lequel écrire les journaux de sortie. Si cet indicateur n’est pas défini, les journaux de sortie sont écrits par défaut dans stderr.
--log-format format
Format des journaux : text ou json. La valeur par défaut est text.
--log-level chaîne
Chaîne représentant le niveau de journalisation. Si cet indicateur n’est pas défini, le niveau de format de journal est désactivé.
Type -o, --output
Type de sortie de commande, text ou json. La valeur par défaut est text.
-p, --profile chaîne
Nom du profil dans le ~/.databrickscfg fichier à utiliser pour exécuter la commande. Si cet indicateur n’est pas spécifié, s’il existe, le profil nommé DEFAULT est utilisé.
--progress-format format
Format d’affichage des journaux d’activité de progression : default, append, inplace ou json
-t, --target chaîne
Le cas échéant, la cible d’offre groupée à utiliser