Partager via


pipelines groupe de commande

Note

Ces informations s’appliquent à Databricks CLI versions 0.205 et ultérieures. L’interface CLI Databricks est en préversion publique.

L’utilisation de l’interface CLI Databricks est soumise à la licence Databricks et à la notification de confidentialité Databricks, y compris les dispositions relatives aux données d’utilisation.

Le pipelines groupe de commandes dans l’interface CLI Databricks vous permet de créer, modifier, supprimer, démarrer et afficher des détails sur les pipelines. Consultez pipelines déclaratifs Lakeflow Spark.

créer des pipelines Databricks

Créez un pipeline de traitement des données en fonction de la configuration demandée. Si elle réussit, cette commande retourne l’ID du nouveau pipeline.

databricks pipelines create [flags]

Arguments

None

Options

--json JSON

    Chaîne JSON inline ou chemin @path vers le fichier JSON avec le corps de la requête.

Indicateurs globaux

supprimer des pipelines databricks

Permet de supprimer un pipeline.

databricks pipelines delete PIPELINE_ID [flags]

Arguments

PIPELINE_ID

    Le pipeline à supprimer.

Options

Indicateurs globaux

récupération des pipelines Databricks

Permet d'obtenir un pipeline.

databricks pipelines get PIPELINE_ID [flags]

Arguments

PIPELINE_ID

    Le pipeline à obtenir.

Options

Indicateurs globaux

databricks pipelines obtenir mise à jour

Obtenir une mise à jour à partir d’un pipeline actif.

databricks pipelines get-update PIPELINE_ID UPDATE_ID [flags]

Arguments

PIPELINE_ID

    L'ID du pipeline.

UPDATE_ID

    ID de la mise à jour.

Options

Indicateurs globaux

databricks pipelines list-pipeline-events

Permet de récupérer les événements pour un pipeline.

databricks pipelines list-pipeline-events PIPELINE_ID [flags]

Arguments

PIPELINE_ID

    Le pipeline pour lequel récupérer des événements.

Options

--filter string

    Critères pour sélectionner un sous-ensemble de résultats, exprimé à l’aide d’une syntaxe de type SQL.

--max-results int

    Nombre maximal d’entrées à retourner dans une seule page.

--page-token string

    Jeton de page retourné par l’appel précédent.

Indicateurs globaux

pipelines databricks list-pipelines

Répertorier les pipelines définis dans le système Delta Live Tables.

databricks pipelines list-pipelines [flags]

Arguments

None

Options

--filter string

    Sélectionnez un sous-ensemble de résultats en fonction des critères spécifiés.

--max-results int

    Nombre maximal d’entrées à retourner dans une seule page.

--page-token string

    Jeton de page retourné par l’appel précédent.

Indicateurs globaux

databricks pipelines lister-mises-à-jour

Répertoriez les mises à jour d’un pipeline actif.

databricks pipelines list-updates PIPELINE_ID [flags]

Arguments

PIPELINE_ID

    Le pipeline pour lequel retourner les mises à jour.

Options

--max-results int

    Nombre maximal d’entrées à retourner dans une seule page.

--page-token string

    Jeton de page retourné par l’appel précédent.

--until-update-id string

    Si cette option est présente, permet de retourner les mises à jour jusqu’à cet update_id inclus.

Indicateurs globaux

databricks pipeline démarrer-mise à jour

Démarrez une nouvelle mise à jour du pipeline. S’il existe déjà une mise à jour active pour le pipeline, la requête échoue et la mise à jour active reste en cours d’exécution.

databricks pipelines start-update PIPELINE_ID [flags]

Arguments

PIPELINE_ID

    Le pipeline pour lequel démarrer une mise à jour.

Options

--cause StartUpdateCause

    Valeurs prises en charge : [API_CALL, JOB_TASK, RETRY_ON_FAILURE, SCHEMA_CHANGE, SERVICE_UPGRADE, USER_ACTION]

--full-refresh

    Si la valeur est true, cette mise à jour réinitialise toutes les tables avant l’exécution.

--json JSON

    Chaîne JSON inline ou chemin @path vers le fichier JSON avec le corps de la requête.

--validate-only

    Si la valeur est true, cette mise à jour valide uniquement l’exactitude du code source du pipeline, mais ne matérialise ni ne publie aucun jeu de données.

Indicateurs globaux

arrêt des pipelines Databricks

Arrêtez le pipeline en annulant la mise à jour active. En cas d'absence de mise à jour active pour le pipeline, cette requête n’est pas opérationnelle.

databricks pipelines stop PIPELINE_ID [flags]

Arguments

PIPELINE_ID

    Le pipeline à arrêter.

Options

--no-wait

    n’attendez pas d’atteindre l’état IDLE

--timeout duration

    durée maximale pour atteindre l’état IDLE (20 minutes par défaut)

Indicateurs globaux

Mise à jour des pipelines Databricks

Mettez à jour un pipeline avec la configuration fournie.

databricks pipelines update PIPELINE_ID [flags]

Arguments

PIPELINE_ID

    Identificateur unique pour ce pipeline.

Options

--allow-duplicate-names

    Si la valeur est false, le déploiement échoue si le nom a changé et est en conflit avec le nom d’un autre pipeline.

--budget-policy-id string

    Stratégie budgétaire de ce pipeline.

--catalog string

    Catalogue dans Unity Catalog dans lequel publier des données à partir de ce pipeline.

--channel string

    Canal de diffusion des pipelines déclaratifs Spark Lakeflow spécifiant la version à utiliser.

--continuous

    Indiquez si le pipeline est continu ou déclenché.

--development

    Indique si le pipeline est en mode développement.

--edition string

    Édition de pipeline.

--expected-last-modified int

    S’il est présent, l’heure de dernière modification des paramètres du pipeline avant la modification.

--id string

    Identificateur unique pour ce pipeline.

--json JSON

    Chaîne JSON inline ou chemin @path vers le fichier JSON avec le corps de la requête.

--name string

    Identificateur convivial pour ce pipeline.

--photon

    Indique si Photon est activé pour ce pipeline.

--pipeline-id string

    Identificateur unique pour ce pipeline.

--schema string

    Schéma par défaut (base de données) dans lequel les tables sont lues ou publiées.

--serverless

    Indique si le calcul "serverless" est activé pour ce pipeline.

--storage string

    Répertoire racine DBFS pour le stockage de points de contrôle et de tables.

--target string

    Schéma cible (base de données) pour ajouter des tables dans ce pipeline.

Indicateurs globaux

databricks pipelines obtenir les niveaux de permission

Permet d'obtenir les niveaux d’autorisation du pipeline.

databricks pipelines get-permission-levels PIPELINE_ID [flags]

Arguments

PIPELINE_ID

    Le pipeline pour lequel obtenir ou gérer les autorisations.

Options

Indicateurs globaux

pipelines databricks obtenir-autorisations

Obtenez les autorisations d’un pipeline. Les pipelines peuvent hériter des autorisations de leur objet racine.

databricks pipelines get-permissions PIPELINE_ID [flags]

Arguments

PIPELINE_ID

    Le pipeline pour lequel obtenir ou gérer les autorisations.

Options

Indicateurs globaux

databricks pipelines réglage-des-autorisations

Définir les autorisations des pipelines.

Définit des autorisations sur un objet, en remplaçant les autorisations existantes s’ils existent. Supprime toutes les autorisations directes si aucune n’est spécifiée. Les objets peuvent hériter des autorisations de leur objet racine.

databricks pipelines set-permissions PIPELINE_ID [flags]

Arguments

PIPELINE_ID

    Le pipeline pour lequel obtenir ou gérer les autorisations.

Options

--json JSON

    Chaîne JSON inline ou chemin @path vers le fichier JSON avec le corps de la requête.

Indicateurs globaux

databricks pipelines mettre à jour les autorisations

Mettez à jour les autorisations sur un pipeline. Les pipelines peuvent hériter des autorisations de leur objet racine.

databricks pipelines update-permissions PIPELINE_ID [flags]

Arguments

PIPELINE_ID

    Le pipeline pour lequel obtenir ou gérer les autorisations.

Options

--json JSON

    Chaîne JSON inline ou chemin @path vers le fichier JSON avec le corps de la requête.

Indicateurs globaux

Indicateurs globaux

--debug

  Active la journalisation du débogage.

-h ou --help

    Affiche l’aide pour l’interface CLI de Databricks, le groupe de commandes associé ou la commande concernée.

--log-file chaîne

    Chaîne représentant le fichier dans lequel écrire les journaux de sortie. Si cet indicateur n’est pas défini, les journaux de sortie sont écrits par défaut dans stderr.

--log-format format

    Format des journaux : text ou json. La valeur par défaut est text.

--log-level chaîne

    Chaîne représentant le niveau de journalisation. Si cet indicateur n’est pas défini, le niveau de format de journal est désactivé.

Type -o, --output

    Type de sortie de commande, text ou json. La valeur par défaut est text.

-p, --profile chaîne

    Nom du profil dans le ~/.databrickscfg fichier à utiliser pour exécuter la commande. Si cet indicateur n’est pas spécifié, s’il existe, le profil nommé DEFAULT est utilisé.

--progress-format format

    Format d’affichage des journaux d’activité de progression : default, append, inplace ou json

-t, --target chaîne

    Le cas échéant, la cible d’offre groupée à utiliser