Compartir a través de


Grupo de comandos pipelines

Note

Esta información se aplica a las versiones 0.205 y posteriores de la CLI de Databricks. La CLI de Databricks está en versión preliminar pública.

El uso de la CLI de Databricks está sujeto a la licencia de Databricks y al aviso de privacidad de Databricks, incluidas las disposiciones de datos de uso.

El pipelines grupo de comandos de la CLI de Databricks contiene dos conjuntos de funcionalidades. El primer conjunto permite administrar un proyecto de canalización y su flujo de trabajo. El segundo conjunto permite crear, editar, eliminar, iniciar y ver detalles sobre los objetos de canalización en Databricks.

Para obtener información sobre las canalizaciones, consulte Canalizaciones declarativas de Spark de Lakeflow.

Administración de proyectos de canalización

Los siguientes comandos permiten administrar canalizaciones en proyectos.

Implementación de canalizaciones de Databricks

Implemente canalizaciones cargando todos los archivos definidos en el proyecto en el área de trabajo de destino y creando o actualizando las canalizaciones definidas en el área de trabajo.

databricks pipelines deploy [flags]

Arguments

None

Options

--auto-approve

    Omitir aprobaciones interactivas que podrían ser necesarias para la implementación

--fail-on-active-runs

    Error si hay canalizaciones en ejecución en la implementación

--force-lock

    Forzar la adquisición del bloqueo de implementación

Marcas globales

Destruir las canalizaciones de Databricks

Destruir un proyecto de canalizaciones.

databricks pipelines destroy [flags]

Arguments

None

Options

--auto-approve

    Omitir aprobaciones interactivas para eliminar canalizaciones

--force-lock

    Forzar la adquisición del bloqueo de implementación

Marcas globales

canalizaciones de Databricks ejecución de prueba

Valida la corrección del gráfico de la canalización, identificado por KEY. No materializa ni publica ningún conjunto de datos.

databricks pipelines dry-run [flags] [KEY]

Arguments

KEY

    Nombre único de la canalización que se va a ejecutar en seco, tal como se define en su archivo YAML. Si solo hay una canalización en el proyecto, KEY es opcional y la canalización está seleccionada automáticamente.

Options

--no-wait

    No espere a que se complete la ejecución

--restart

    Reinicie la ejecución si ya está en ejecución.

Marcas globales

Las pipelines de Databricks generan

Generar la configuración de un pipeline de Spark existente.

Este comando busca un spark-pipeline.yml archivo o *.spark-pipeline.yml en el directorio especificado y genera un nuevo *.pipeline.yml archivo de configuración en la resources carpeta del proyecto que define la canalización. Si existen varios spark-pipeline.yml archivos, especifique la ruta de acceso completa a un archivo específico *.spark-pipeline.yml .

databricks pipelines generate [flags]

Note

Para generar la configuración de una canalización existente en el área de trabajo de Databricks, consulte databricks bundle generate pipeline y Generar configuración para un trabajo o canalización existente usando la CLI de Databricks.

Options

--existing-pipeline-dir

    Ruta de acceso al directorio de canalización existente en src (por ejemplo, src/my_pipeline).

--force

    Sobrescriba el archivo de configuración de canalización existente.

Marcas globales

Examples

En el ejemplo siguiente se examina el directorio actual y se lee src/my_pipeline/spark-pipeline.ymly, a continuación, se crea un archivo resources/my_pipeline.pipeline.yml de configuración que define la canalización:

databricks pipelines generate --existing-pipeline-dir src/my_pipeline

Historial de canalizaciones de Databricks

Recupere las ejecuciones anteriores de una canalización identificada por KEY.

databricks pipelines history [flags] [KEY]

Arguments

KEY

    Nombre único de la canalización, tal como se define en su archivo YAML. Si solo hay una canalización en el proyecto, KEY es opcional y la canalización está seleccionada automáticamente.

Options

--end-time string

    Filtrar las actualizaciones antes de esta hora (formato: 2025-01-15T10:30:00Z)

--start-time string

    Filtrar las actualizaciones después de esta hora (formato: 2025-01-15T10:30:00Z)

Marcas globales

databricks pipelines init

Inicialice un nuevo proyecto de canalizaciones.

Para ver un tutorial que le guía por la creación, implementación y ejecución de un proyecto de canalización mediante la CLI de Databricks, consulte Desarrollo de canalizaciones declarativas de Spark de Lakeflow con conjuntos de recursos de Databricks.

databricks pipelines init [flags]

Arguments

None

Options

--config-file string

    Archivo JSON que contiene pares clave-valor de los parámetros de entrada necesarios para la inicialización de plantillas

--output-dir string

    Directorio para escribir la plantilla inicializada en

Marcas globales

registros de pipelines de Databricks

Recupere los eventos de la canalización identificada por KEY. De forma predeterminada, este comando muestra los eventos de la actualización más reciente de la canalización.

databricks pipelines logs [flags] [KEY]

Arguments

KEY

    Nombre único de la canalización, tal como se define en su archivo YAML. Si solo hay una canalización en el proyecto, KEY es opcional y la canalización está seleccionada automáticamente.

Options

--end-time string

    Filtre los eventos que están antes de esta hora de finalización (formato: 2025-01-15T10:30:00Z)

--event-type strings

    Filtrar eventos por lista de tipos de eventos

--level strings

    Filtrar eventos por lista de niveles de registro (INFO, WARN, ERROR, METRICS)

-n, --number int

    Número de eventos a devolver

--start-time string

    Filtre los eventos que se encuentran después de esta hora de inicio (formato: 2025-01-15T10:30:00Z)

--update-id string

    Filtre los eventos por identificador de actualización. Si no se proporciona, usa el identificador de actualización más reciente.

Marcas globales

Examples

databricks pipelines logs pipeline-name --update-id update-1 -n 10
databricks pipelines logs pipeline-name --level ERROR,METRICS --event-type update_progress --start-time 2025-01-15T10:30:00Z

Canalizaciones abiertas de Databricks

Abra una canalización en el explorador, identificada por KEY.

databricks pipelines open [flags] [KEY]

Arguments

KEY

    Nombre único de la canalización que se va a abrir, tal como se define en su archivo YAML. Si solo hay una canalización en el proyecto, KEY es opcional y la canalización está seleccionada automáticamente.

Options

--force-pull

    Omitir la caché local y cargar el estado desde el área de trabajo remota

Marcas globales

Ejecución de canalizaciones de Databricks

Ejecute la canalización identificada por KEY. Actualiza todas las tablas del flujo de trabajo a menos que se especifique lo contrario.

databricks pipelines run [flags] [KEY]

Arguments

KEY

    Nombre único del pipeline que se va a ejecutar, tal como se define en su archivo YAML. Si solo hay una canalización en el proyecto, KEY es opcional y la canalización está seleccionada automáticamente.

Options

--full-refresh strings

    Lista de tablas para restablecer y volver a calcular

--full-refresh-all

    Realizar un restablecimiento de grafo completo y volver a calcular

--no-wait

    No espere a que se complete la ejecución

--refresh strings

    Lista de tablas que se van a ejecutar

--restart

    Reinicie la ejecución si ya está en ejecución.

Marcas globales

pipelines de Databricks detener

Detenga la tubería si está en ejecución, identificada por KEY o PIPELINE_ID. Si no hay ninguna actualización activa para la canalización, esta solicitud es una no-op.

databricks pipelines stop [KEY|PIPELINE_ID] [flags]

Arguments

KEY

    Nombre único de la canalización a detener, tal como se define en su archivo YAML. Si solo hay una canalización en el proyecto, KEY es opcional y la canalización está seleccionada automáticamente.

PIPELINE_ID

    UUID de la canalización que se va a detener.

Options

--no-wait

    no esperar a alcanzar el estado IDLE

--timeout duration

    cantidad máxima de tiempo para alcanzar el estado IDLE (valor predeterminado de 20m0s)

Marcas globales

Administración de objetos de canalización

Los siguientes comandos permiten administrar objetos de canalización en Databricks.

Creación de canalizaciones de Databricks

Cree una canalización de procesamiento de datos basada en la configuración solicitada. Si se ejecuta correctamente, este comando devuelve el identificador de la nueva canalización.

databricks pipelines create [flags]

Arguments

None

Options

--json JSON

    La cadena JSON en línea o el archivo JSON @path con el cuerpo de la solicitud.

Marcas globales

Borrar canalizaciones de Databricks

Eliminar una canalización.

databricks pipelines delete PIPELINE_ID [flags]

Arguments

PIPELINE_ID

    La canalización que se eliminará.

Options

Marcas globales

obtención de canalizaciones de databricks

Obtenga una canalización.

databricks pipelines get PIPELINE_ID [flags]

Arguments

PIPELINE_ID

    El flujo de trabajo que se desea obtener.

Options

Marcas globales

databricks pipelines obtener-actualización

Reciba una actualización de una canalización activa.

databricks pipelines get-update PIPELINE_ID UPDATE_ID [flags]

Arguments

PIPELINE_ID

    Identificador de la tubería.

UPDATE_ID

    Identificador de la actualización.

Options

Marcas globales

databricks pipelines list-pipeline-events (lista los eventos de la tubería)

Recuperar eventos de una canalización.

databricks pipelines list-pipeline-events PIPELINE_ID [flags]

Arguments

PIPELINE_ID

    Canalización para la que se van a recuperar eventos.

Options

--filter string

    Criterios para seleccionar un subconjunto de resultados, expresado mediante una sintaxis similar a SQL.

--max-results int

    Número máximo de entradas que se van a devolver en una sola página.

--page-token string

    Token de página devuelto por la llamada anterior.

Marcas globales

databricks pipelines list-pipelines

Enumera las canalizaciones definidas en el sistema Delta Live Tables.

databricks pipelines list-pipelines [flags]

Arguments

None

Options

--filter string

    Seleccione un subconjunto de resultados en función de los criterios especificados.

--max-results int

    Número máximo de entradas a devolver en una sola página.

--page-token string

    Token de página devuelto por la llamada anterior.

Marcas globales

actualizaciones de lista de pipelines en Databricks

Enumera las actualizaciones de una canalización activa.

databricks pipelines list-updates PIPELINE_ID [flags]

Arguments

PIPELINE_ID

    La canalización a la que se devolverán actualizaciones.

Options

--max-results int

    Número máximo de entradas que se van a devolver en una sola página.

--page-token string

    Token de página devuelto por la llamada anterior.

--until-update-id string

    Si está presente, devuelve actualizaciones hasta, incluyendo, este update_id.

Marcas globales

databricks canalizaciones iniciar-actualización

Inicie una nueva actualización para la canalización. Si ya hay una actualización activa para la canalización, se producirá un error en la solicitud y la actualización activa permanecerá en ejecución.

databricks pipelines start-update PIPELINE_ID [flags]

Arguments

PIPELINE_ID

    Canalización para la que se va a iniciar una actualización.

Options

--cause StartUpdateCause

    Valores admitidos: [API_CALL, JOB_TASK, RETRY_ON_FAILURE, SCHEMA_CHANGE, SERVICE_UPGRADE, USER_ACTION]

--full-refresh

    Si es true, esta actualización restablecerá todas las tablas antes de ejecutarse.

--json JSON

    La cadena JSON en línea o el archivo JSON @path con el cuerpo de la solicitud.

--validate-only

    Si es cierto, esta actualización solo valida la validez del código fuente del pipeline, pero no crea ni publica ningún conjunto de datos.

Marcas globales

actualización de tuberías de Databricks

Actualice una canalización con la configuración proporcionada.

databricks pipelines update PIPELINE_ID [flags]

Arguments

PIPELINE_ID

    Identificador único de esta canalización.

Options

--allow-duplicate-names

    Si es falso, la implementación fallará si el nombre ha cambiado y si entra en conflicto con el nombre de otra canalización.

--budget-policy-id string

    Directiva de presupuesto de esta canalización.

--catalog string

    Un catálogo en Unity Catalog donde publicar datos de esta canalización.

--channel string

    Canal de versiones de las Canalizaciones Declarativas de Lakeflow Spark para especificar qué versión se debe usar.

--continuous

    Indica si la canalización es continua o se desencadena.

--development

    Si la canalización está o no en modo de desarrollo.

--edition string

    Edición del producto de canalización.

--expected-last-modified int

    Si está presente, la hora de la última modificación de la configuración de la canalización antes de la edición.

--id string

    Identificador único de esta canalización.

--json JSON

    La cadena JSON en línea o el archivo JSON @path con el cuerpo de la solicitud.

--name string

    Identificador amigable para esta tubería.

--photon

    Si Photon está habilitado para esta canalización.

--pipeline-id string

    Identificador único de esta canalización.

--schema string

    Esquema predeterminado (base de datos) donde se leen o publican tablas.

--serverless

    Si se habilita la computación sin servidor para esta canalización.

--storage string

    Directorio raíz de DBFS para almacenar puntos de comprobación y tablas.

--target string

    Esquema de destino (base de datos) para agregar tablas a esta canalización.

Marcas globales

databricks pipelines obtener-niveles-de-permisos

Obtiene los niveles de permisos de canalización.

databricks pipelines get-permission-levels PIPELINE_ID [flags]

Arguments

PIPELINE_ID

    Canalización para el que se van a obtener o administrar permisos.

Options

Marcas globales

databricks pipelines obtener-permisos

Obtenga los permisos de una canalización. Las canalizaciones pueden heredar permisos de su objeto raíz.

databricks pipelines get-permissions PIPELINE_ID [flags]

Arguments

PIPELINE_ID

    Canalización para el que se van a obtener o administrar permisos.

Options

Marcas globales

databricks pipelines establecer permisos

Establecimiento de permisos de canalización.

Establece los permisos en un objeto, reemplazando los permisos existentes si existen. Elimina todos los permisos directos si no se especifica ninguno. Los objetos pueden heredar permisos de su objeto raíz.

databricks pipelines set-permissions PIPELINE_ID [flags]

Arguments

PIPELINE_ID

    Canalización para el que se van a obtener o administrar permisos.

Options

--json JSON

    La cadena JSON en línea o el archivo JSON @path con el cuerpo de la solicitud.

Marcas globales

databricks actualizar permisos de canales

Actualice los permisos en una canalización. Las canalizaciones pueden heredar permisos de su objeto raíz.

databricks pipelines update-permissions PIPELINE_ID [flags]

Arguments

PIPELINE_ID

    Canalización para el que se van a obtener o administrar permisos.

Options

--json JSON

    La cadena JSON en línea o el archivo JSON @path con el cuerpo de la solicitud.

Marcas globales

Marcas globales

--debug

  Indica si se va a habilitar el registro de depuración.

-h o --help

    Mostrar ayuda para la CLI de Databricks o el grupo de comandos relacionado o el comando relacionado.

--log-file cadena

    Cadena que representa el archivo en el que se van a escribir registros de salida. Si no se especifica esta marca, el valor predeterminado es escribir registros de salida en stderr.

--log-format formato

    Tipo de formato de registro: text o json. El valor predeterminado es text.

--log-level cadena

    Cadena que representa el nivel de formato de registro. Si no se especifica, el nivel de formato de registro está deshabilitado.

-o, --output tipo

    El tipo de salida del comando, ya sea text o json. El valor predeterminado es text.

-p, --profile cadena

    Nombre del perfil en el archivo ~/.databrickscfg para usarlo al ejecutar el comando. Si no se especifica esta marca, si existe, se usa el perfil denominado DEFAULT .

--progress-format formato

    Formato para mostrar los registros de progreso: default, append, inplaceo json

-t, --target cadena

    Si es aplicable, el objetivo del paquete que se va a usar