Примечание.
Для доступа к этой странице требуется авторизация. Вы можете попробовать войти или изменить каталоги.
Для доступа к этой странице требуется авторизация. Вы можете попробовать изменить каталоги.
Note
Эта информация относится к Интерфейсу командной строки Databricks версии 0.205 и выше. Интерфейс командной строки Databricks находится в общедоступной предварительной версии.
Использование интерфейса командной строки Databricks подчиняется лицензии Databricks и уведомлению о конфиденциальности Databricks, включая любые положения о данных использования.
Группа pipelines команд в интерфейсе командной строки Databricks позволяет создавать, изменять, удалять, запускать и просматривать сведения о конвейерах. См. Lakeflow Spark декларативные конвейеры.
Создание конвейеров Databricks
Создайте конвейер обработки данных на основе запрошенной конфигурации. При успешном выполнении эта команда возвращает идентификатор нового конвейера.
databricks pipelines create [flags]
Arguments
None
Options
--json JSON
Строка JSON inline или @path к JSON-файлу с телом запроса.
Удаление конвейеров Databricks
Удаление конвейера.
databricks pipelines delete PIPELINE_ID [flags]
Arguments
PIPELINE_ID
Конвейер данных для удаления.
Options
получение пайплайнов Databricks
Получение конвейера.
databricks pipelines get PIPELINE_ID [flags]
Arguments
PIPELINE_ID
Конвейер для получения.
Options
Конвейеры Databricks обновление-получить
Получение обновления из активного потока.
databricks pipelines get-update PIPELINE_ID UPDATE_ID [flags]
Arguments
PIPELINE_ID
Идентификатор конвейера.
UPDATE_ID
Идентификатор обновления.
Options
databricks pipelines list-pipeline-events (команда для отображения списка событий в конвейере)
Получение событий для конвейера.
databricks pipelines list-pipeline-events PIPELINE_ID [flags]
Arguments
PIPELINE_ID
Канал для получения событий.
Options
--filter string
Критерии для выбора подмножества результатов, выраженных с помощью синтаксиса, аналогичного SQL.
--max-results int
Максимальное количество записей, возвращаемых на одной странице.
--page-token string
Маркер страницы, возвращаемый предыдущим вызовом.
командa 'databricks pipelines list-pipelines' для перечисления конвейеров в Databricks
Перечислите потоки, определенные в системе Delta Live Tables.
databricks pipelines list-pipelines [flags]
Arguments
None
Options
--filter string
Выберите подмножество результатов на основе указанных критериев.
--max-results int
Максимальное количество записей, которые можно вернуть на одной странице.
--page-token string
Маркер страницы, возвращаемый предыдущим вызовом.
databricks pipelines показать-обновления
Перечисление обновлений для активного конвейера.
databricks pipelines list-updates PIPELINE_ID [flags]
Arguments
PIPELINE_ID
Конвейер для возврата обновлений.
Options
--max-results int
Максимальное количество записей, возвращаемых на одной странице.
--page-token string
Маркер страницы, возвращаемый предыдущим вызовом.
--until-update-id string
Если указано, возвращает обновления вплоть до указанного update_id включительно.
конвейеры databricks start-update
Запустите новое обновление для конвейера. Если для конвейера уже есть активное обновление, запрос завершится ошибкой, и активное обновление останется запущенным.
databricks pipelines start-update PIPELINE_ID [flags]
Arguments
PIPELINE_ID
Конвейер для запуска обновления.
Options
--cause StartUpdateCause
Поддерживаемые значения: [API_CALL, JOB_TASK, RETRY_ON_FAILURE, SCHEMA_CHANGE, SERVICE_UPGRADE, USER_ACTION]
--full-refresh
Если истинно, это обновление сбросит все таблицы перед выполнением.
--json JSON
Строка JSON inline или @path к JSON-файлу с телом запроса.
--validate-only
Если значение true, это обновление проверяет правильность исходного кода конвейера, но не материализует или не публикует наборы данных.
Остановка конвейеров Databricks
Остановите конвейер, отменив активное обновление. Если для конвейера нет активного обновления, этот запрос является no-op.
databricks pipelines stop PIPELINE_ID [flags]
Arguments
PIPELINE_ID
Конвейер, который нужно остановить.
Options
--no-wait
Не ждите перехода в состояние IDLE
--timeout duration
максимальное время достижения состояния IDLE (по умолчанию 20m0s)
Обновление конвейеров Databricks
Обновите конвейер с указанной конфигурацией.
databricks pipelines update PIPELINE_ID [flags]
Arguments
PIPELINE_ID
Уникальный идентификатор для этого конвейера.
Options
--allow-duplicate-names
Если установлено значение false, развертывание завершится ошибкой, если имя изменилось и конфликтует с именем другого конвейера.
--budget-policy-id string
Бюджетная политика этого проекта.
--catalog string
Каталог в каталоге Unity для публикации данных из этого конвейера.
--channel string
Канал выпуска декларативных конвейеров Spark Lakeflow, указывающий используемую версию.
--continuous
Выполняется ли конвейер непрерывным или запускается.
--development
Указывает, находится ли конвейер в режиме разработки.
--edition string
Выпуск продукта конвейера.
--expected-last-modified int
Если это значение присутствует, время последнего изменения параметров конвейера до редактирования.
--id string
Уникальный идентификатор для этого конвейера.
--json JSON
Строка JSON inline или @path к JSON-файлу с телом запроса.
--name string
Понятный идентификатор для этого конвейера.
--photon
Включён ли фотон для этого конвейера.
--pipeline-id string
Уникальный идентификатор для этого конвейера.
--schema string
Схема по умолчанию (база данных), из которой извлекаются таблицы или в которую они записываются.
--serverless
Включена ли бессерверная вычислительная мощность для этого конвейера?
--storage string
Корневой каталог DBFS для хранения контрольных точек и таблиц.
--target string
Целевая схема (база данных) для добавления таблиц в этот конвейер.
конвейеры обработки данных databricks с уровнями доступа
Получение уровней разрешений конвейера.
databricks pipelines get-permission-levels PIPELINE_ID [flags]
Arguments
PIPELINE_ID
Конвейер, для которого нужно получить или управлять разрешениями.
Options
databricks pipelines получить разрешения
Получение разрешений потока обработки данных. Конвейеры могут наследовать разрешения от корневого объекта.
databricks pipelines get-permissions PIPELINE_ID [flags]
Arguments
PIPELINE_ID
Конвейер, для которого нужно получить или управлять разрешениями.
Options
databricks pipelines установить-разрешения
Задайте разрешения конвейера.
Задает разрешения для объекта, заменив существующие разрешения, если они существуют. Удаляет все прямые разрешения, если они не указаны. Объекты могут наследовать разрешения от корневого объекта.
databricks pipelines set-permissions PIPELINE_ID [flags]
Arguments
PIPELINE_ID
Конвейер, для которого нужно получить или управлять разрешениями.
Options
--json JSON
Строка JSON inline или @path к JSON-файлу с телом запроса.
Обновление разрешений конвейеров в Databricks
Обновите разрешения для конвейера. Конвейеры могут наследовать разрешения от корневого объекта.
databricks pipelines update-permissions PIPELINE_ID [flags]
Arguments
PIPELINE_ID
Конвейер, для которого нужно получить или управлять разрешениями.
Options
--json JSON
Строка JSON inline или @path к JSON-файлу с телом запроса.
Глобальные флаги
--debug
Следует ли включить ведение журнала отладки.
-h или --help
Отобразить справку по интерфейсу командной строки Databricks, связанной группе команд или отдельной команде.
--log-file струна
Строка, представляющая файл для записи журналов выходных данных. Если этот флаг не указан, по умолчанию используется запись журналов выходных данных в stderr.
--log-format формат
Тип формата журнала: text или json. Значение по умолчанию — text.
--log-level струна
Строка, представляющая уровень формата журнала. Если не указано, уровень формата журнала отключен.
типа -o, --output
Тип выходных данных команды: text или json. Значение по умолчанию — text.
-p, --profile струна
Имя профиля в ~/.databrickscfg файле, используемого для выполнения команды. Если флаг не указан, используется профиль DEFAULT, если он существует.
--progress-format формат
Формат для отображения журналов хода выполнения: default, appendinplace, илиjson
-t, --target струна
Если применимо, целевой объект пакета для использования