Поделиться через


bundle группа команд

Note

Эта информация относится к Интерфейсу командной строки Databricks версии 0.205 и выше. Интерфейс командной строки Databricks находится в общедоступной предварительной версии.

Использование интерфейса командной строки Databricks подчиняется лицензии Databricks и уведомлению о конфиденциальности Databricks, включая любые положения о данных использования.

Группа bundle команд в интерфейсе командной строки Databricks содержит команды для управления пакетами ресурсов Databricks. Наборы активов Databricks позволяют определять проекты в виде кода и программно проверять, развертывать и запускать рабочие процессы Azure Databricks, такие как задания Azure Databricks, Декларативные конвейеры Spark Lakeflow и стеки MLOps. См. раздел "Что такое пакеты ресурсов Databricks?".

Note

При запуске из папки пакета команды используют параметры databricks.yml для проверки подлинности. Если вы хотите выполнять команды пакета с другой аутентификацией из папки пакета, укажите профиль конфигурации с помощью флага --profile (или -p) и не указывайте --target.

В качестве альтернативы выполните команды, которые не нуждаются в той же проверке подлинности, что и пакет, и выполните их за пределами папки пакета.

Развертывание пакета databricks

Разверните пакет в удаленной рабочей области.

databricks bundle deploy [flags]

Целевой объект пакета и удостоверение

Чтобы развернуть пакет для определенной цели, установите параметр -t (или --target) вместе с именем цели, объявленным в файлах конфигурации пакета. Если параметры команды не указаны, используется целевой объект по умолчанию, объявленный в файлах конфигурации пакета. Например, для целевого объекта, объявленного именем dev:

databricks bundle deploy -t dev

Пакет можно развернуть в нескольких пространствах, таких как разработка, тестирование и производство. По сути, root_path свойство определяет уникальную идентичность пакета, для которого по умолчанию задано ~/.bundle/${bundle.name}/${bundle.target} значение. Поэтому по умолчанию идентификатор пакета состоит из идентификатора развертывателя, имени пакета и целевого имени пакета. Если они идентичны в разных пакетах, развертывание этих пакетов будет мешать друг другу.

Кроме того, при развертывании пакета отслеживается состояние ресурсов, создаваемое в целевой рабочей области по их идентификаторам, и это состояние сохраняется в файловой системе рабочей области. Имена ресурсов не используются для сопоставления между развертыванием пакета и экземпляром ресурса, поэтому:

  • Если ресурс в конфигурации пакета не существует в целевой рабочей области, он создается.
  • Если ресурс в конфигурации пакета существует в целевой рабочей области, он обновляется в рабочей области.
  • Если ресурс удаляется из конфигурации пакета, он удаляется из целевой рабочей области, если он был развернут ранее.
  • Связь ресурса с пакетом может быть забыта только при изменении имени пакета, целевого объекта пакета или рабочей области. Вы можете выполнить bundle validate, чтобы получить сводку, содержащую эти значения.

Опции

--auto-approve

    Пропустить интерактивные утверждения, которые могут потребоваться для развертывания.

-c, --cluster-id string

    Переопределите кластер в развертывании с указанным идентификатором кластера.

--fail-on-active-runs

    Сбой, если в развертывании выполняются задания или конвейеры.

--force

    Принудительно переопределить проверку ветви Git.

--force-lock

    Принудительное приобретение блокировки развертывания.

--plan

    Путь к файлу плана JSON, который следует применить вместо планирования (только прямой обработчик). Файл плана можно создать с помощью databricks bundle plan -o json.

Глобальные флаги

Примеры

В следующем примере развертывается пакет с помощью определенного идентификатора кластера:

databricks bundle deploy --cluster-id 0123-456789-abcdef

Развертывание пакета databricks

Команды, связанные с развертыванием.

databricks bundle deployment [command]

Доступные команды

  • bind — привязка определенного пакета ресурса к существующему ресурсу в удаленной рабочей области.
  • migrate — Выполните миграцию пакета для использования подсистемы прямого развертывания.
  • unbind — отмена привязки определенного пакета ресурса из удаленного ресурса.

привязка развертывания пакета databricks

Свяжите ресурсы, определенные пакетом, с существующими ресурсами в рабочей области Azure Databricks, чтобы они стали управляемыми пакетами ресурсов Databricks. Если вы привязываете ресурс, существующий ресурс Azure Databricks в рабочей области будет обновлён на основе конфигурации, определенной в пакете, с которым он связан, после следующего bundle deploy.

databricks bundle deployment bind KEY RESOURCE_ID [flags]

Привязка не пересоздает данные. Например, если к конвейеру с данными в каталоге было применено связывание, можно развернуть на этом конвейере без потери существующих данных. Кроме того, вам не нужно перекомпьютировать материализованное представление, например, поэтому конвейеры не должны повторно запускаться.

Команда привязки должна использоваться с флагом --target . Например, привяжите ваше производственное развертывание к производственному конвейеру с помощью databricks bundle deployment bind --target prod my_pipeline 7668611149d5709ac9-2906-1229-9956-586a9zed8929

Tip

Рекомендуется подтвердить ресурс в рабочей области перед выполнением привязки.

Привязка поддерживается для следующих ресурсов:

Для ресурсов, поддерживаемых командой bundle generate, автоматически привяжите ресурс после его генерации с помощью параметра --bind.

Аргументы

KEY

    Ключ ресурса для привязки

RESOURCE_ID

    Идентификатор существующего ресурса для привязки к

Опции

--auto-approve

    Автоматическое утверждение привязки вместо запроса

--force-lock

    Принудительное приобретение блокировки развертывания

Глобальные флаги

Примеры

Следующая команда привязывает ресурс hello_job к удаленному коллеге в рабочей области. Команда выводит дифф и позволяет запретить привязку ресурсов, но при подтверждении все обновления определения задания в пакете применяются к соответствующему удаленному заданию при следующем развертывании пакета.

databricks bundle deployment bind hello_job 6565621249

Миграция развертывания пакета databricks

Important

Эта функция является экспериментальной.

Перенос пакета с использования движка развертывания Terraform на использование прямого движка развертывания. См. раздел "Миграция в подсистему прямого развертывания". Чтобы завершить миграцию, необходимо развернуть пакет.

Вы можете убедиться в успешности выполнения миграции, запустив databricks bundle plan. См. план пакета Databricks.

databricks bundle deployment migrate [flags]

Аргументы

None

Опции

Глобальные флаги

Примеры

В следующем примере выполняется перенос текущего пакета для использования подсистемы прямого развертывания:

databricks bundle deployment migrate

Развертывание пакета databricks без привязки

Удалите связь между ресурсом в пакете и его удаленным коллегой в рабочей области.

databricks bundle deployment unbind KEY [flags]

Аргументы

KEY

    Ключ ресурса для отмены привязки

Опции

--force-lock

    Принудительное приобретение блокировки развертывания.

Глобальные флаги

Примеры

Следующий пример отменяет привязку hello_job ресурса:

databricks bundle deployment unbind hello_job

уничтожение пакета databricks

Warning

Уничтожение пакета окончательно удаляет все ранее развернутые задания, конвейеры и артефакты. Это действие невозможно отменить.

Удаление заданий, конвейеров, других ресурсов и артефактов, которые ранее были развернуты.

databricks bundle destroy [flags]

Note

Удостоверение пакета состоит из имени пакета, целевого объекта пакета и рабочей области. Если вы изменили любой из них, а затем попытаейтесь уничтожить пакет перед развертыванием, возникнет ошибка.

По умолчанию вам будет предложено подтвердить постоянное удаление ранее развернутых заданий, платформ и артефактов. Чтобы пропустить эти запросы и выполнить автоматическое постоянное удаление, добавьте --auto-approve параметр в bundle destroy команду.

Опции

--auto-approve

    Пропуск интерактивных утверждений для удаления ресурсов и файлов

--force-lock

    Принудительное приобретение блокировки развертывания.

Глобальные флаги

Примеры

Следующая команда удаляет все ранее развернутые ресурсы и артефакты, определенные в файлах конфигурации пакета:

databricks bundle destroy

Создание пакета databricks

Создайте конфигурацию пакета для ресурса, который уже существует в рабочей области Databricks. Поддерживаются следующие ресурсы: приложение, панель мониторинга, задание, конвейер.

По умолчанию эта команда создает *.yml файл для ресурса в resources папке проекта пакета, а также загружает все файлы, такие как записные книжки, на которые ссылается конфигурация.

Important

Эта bundle generate команда предоставляется в качестве удобства для автоматического создания конфигурации ресурсов. Однако если пакет включает конфигурацию ресурсов и ее развертывание, Azure Databricks создает новый ресурс, а не обновляет существующий. Вместо этого, чтобы обновить существующий ресурс, вы должны либо использовать флаг --bind с bundle generate, либо запустить bundle deployment bind перед развертыванием. См. привязку развертывания пакета databricks.

databricks bundle generate [command]

Доступные команды

  • app — создание конфигурации пакета для приложения Databricks.
  • dashboard — создание конфигурации для панели мониторинга.
  • job — создание конфигурации пакета для задания.
  • pipeline — создание конфигурации пакета для конвейера.

Опции

--key string

    Ключ ресурса, используемый для созданной конфигурации

Глобальные флаги

Пакет databricks создает приложение

Создайте конфигурацию пакета для существующего приложения Databricks в рабочей области.

databricks bundle generate app [flags]

Опции

--bind

    Автоматически привязывает созданный ресурс к существующей в рабочей области.

-d, --config-dir string

    Путь к каталогу, в котором будет храниться конфигурация выходного пакета (ресурсы по умолчанию)

--existing-app-name string

    Имя приложения для создания конфигурации

-f, --force

    Принудительное перезаписи существующих файлов в выходном каталоге

-s, --source-dir string

    Путь к каталогу, в котором будут храниться файлы приложения (по умолчанию src/app)

Глобальные флаги

Примеры

В следующем примере создается конфигурация для существующего приложения с именем my-app. Имя приложения можно получить на вкладке "Вычислительные>приложения" пользовательского интерфейса рабочей области.

databricks bundle generate app --existing-app-name my-app

Следующая команда создает новый hello_world.app.yml файл в resources папке проекта пакета и загружает файлы кода приложения, такие как файл app.yaml конфигурации команды приложения и основной app.py. По умолчанию файлы кода копируются в папку пакета src .

databricks bundle generate app --existing-app-name "hello_world"
# This is the contents of the resulting /resources/hello-world.app.yml file.
resources:
  apps:
    hello_world:
      name: hello-world
      description: A basic starter application.
      source_code_path: ../src/app

Пакет databricks создает панель мониторинга

Создайте конфигурацию для существующей панели мониторинга в рабочей области.

databricks bundle generate dashboard [flags]

Tip

Чтобы обновить .lvdash.json файл после развертывания панели мониторинга, используйте --resource параметр при запуске bundle generate dashboard для создания этого файла для существующего ресурса панели мониторинга. Для непрерывного опроса и получения обновлений в панели мониторинга используйте --force и --watch.

Опции

--bind

    Автоматически привязывает созданный ресурс к существующей в рабочей области.

-s, --dashboard-dir string

    Каталог для записи представления панели мониторинга в (по умолчанию src)

--existing-id string

    Идентификатор панели мониторинга для создания конфигурации

--existing-path string

    Путь к рабочей области панели мониторинга для создания конфигурации

-f, --force

    Принудительное перезаписи существующих файлов в выходном каталоге

--resource string

    Ключ ресурса панели мониторинга для просмотра изменений

-d, --resource-dir string

    Каталог для записи конфигурации в (ресурсы по умолчанию)

--watch

    Следите за изменениями на панели мониторинга и обновлением конфигурации

Глобальные флаги

Примеры

В следующем примере создается конфигурация с помощью существующего идентификатора панели мониторинга:

databricks bundle generate dashboard --existing-id abc123

Вы также можете создать конфигурацию для существующей панели мониторинга по пути к рабочей области. Скопируйте путь к рабочей области для панели мониторинга из пользовательского интерфейса рабочей области.

Например, следующая команда создает новый baby_gender_by_county.dashboard.yml файл в resources папке проекта пакета, содержащей YAML ниже, и скачивает файл в baby_gender_by_county.lvdash.json папку src проекта.

databricks bundle generate dashboard --existing-path "/Workspace/Users/someone@example.com/baby_gender_by_county.lvdash.json"
# This is the contents of the resulting baby_gender_by_county.dashboard.yml file.
resources:
  dashboards:
    baby_gender_by_county:
      display_name: 'Baby gender by county'
      warehouse_id: aae11o8e6fe9zz79
      file_path: ../src/baby_gender_by_county.lvdash.json

Пакет databricks создает задание

Создайте конфигурацию пакета для задания.

Note

В настоящее время поддерживаются только задания с задачами записной книжки этой командой.

databricks bundle generate job [flags]

Опции

--bind

    Автоматически привязывает созданный ресурс к существующей в рабочей области.

-d, --config-dir string

    Dir path, где будет храниться выходная конфигурация (ресурсы по умолчанию)

--existing-job-id int

    Идентификатор задания для создания конфигурации

-f, --force

    Принудительное перезаписи существующих файлов в выходном каталоге

-s, --source-dir string

    Dir path, в котором будут храниться скачанные файлы (по умолчанию src)

Глобальные флаги

Примеры

В следующем примере создается новый hello_job.yml файл в resources папке проекта пакета, содержащей YAML ниже, и загружается в simple_notebook.py папку src проекта. Он также привязывает созданный ресурс с существующим заданием в рабочей области.

databricks bundle generate job --existing-job-id 6565621249 --bind
# This is the contents of the resulting hello_job.yml file.
resources:
  jobs:
    hello_job:
      name: 'Hello Job'
      tasks:
        - task_key: run_notebook
          email_notifications: {}
          notebook_task:
            notebook_path: ../src/simple_notebook.py
            source: WORKSPACE
          run_if: ALL_SUCCESS
      max_concurrent_runs: 1

Пакет databricks создает конвейер

Создайте конфигурацию пакета для существующего конвейера.

databricks bundle generate pipeline [flags]

Tip

Если у вас есть существующий проект Декларативного конвейера Spark (SDP), можно создать конфигурацию для него с помощью databricks pipelines generate. См. databricks pipelines generate.

Опции

--bind

    Автоматически привязывает созданный ресурс к существующей в рабочей области.

-d, --config-dir string

    Dir path, где будет храниться выходная конфигурация (ресурсы по умолчанию)

--existing-pipeline-id string

    Идентификатор конвейера для создания конфигурации

-f, --force

    Принудительное перезаписи существующих файлов в выходном каталоге

-s, --source-dir string

    Dir path, в котором будут храниться скачанные файлы (по умолчанию src)

Глобальные флаги

Примеры

В следующем примере создается конфигурация для существующего конвейера:

databricks bundle generate pipeline --existing-pipeline-id abc-123-def

набор databricks init

Инициализация нового пакета с помощью шаблона пакета. Шаблоны можно настроить для запроса пользователя на получение значений. См. шаблоны проектов пакета ресурсов Databricks.

databricks bundle init [TEMPLATE_PATH] [flags]

Аргументы

TEMPLATE_PATH

    Шаблон для инициализации (необязательно)

Опции

--branch string

    Ветвь Git, используемая для инициализации шаблона

--config-file string

    JSON-файл, содержащий пары значений ключа входных параметров, необходимых для инициализации шаблона.

--output-dir string

    Каталог для записи инициализированного шаблона в.

--tag string

    Тег Git, используемый для инициализации шаблона

--template-dir string

    Путь к каталогу в репозитории Git, содержащий шаблон.

Глобальные флаги

Примеры

В следующем примере показано, как выбрать список шаблонов пакетов по умолчанию:

databricks bundle init

В следующем примере инициализируется пакет с помощью шаблона Python по умолчанию:

databricks bundle init default-python

Чтобы создать пакет ресурсов Databricks с помощью пользовательского шаблона пакета ресурсов Databricks, укажите путь к пользовательскому шаблону:

databricks bundle init <project-template-local-path-or-url> \
--project-dir="</local/path/to/project/template/output>"

В следующем примере инициализируется пакет из репозитория Git:

databricks bundle init https://github.com/my/repository

В следующем примере инициализируется определенная ветвь:

databricks bundle init --branch main

открытый пакет databricks

Перейдите к ресурсу пакета в рабочей области, указав открытый ресурс. Если ключ ресурса не указан, эта команда выводит список ресурсов пакета, из которых следует выбрать.

databricks bundle open [flags]

Опции

--force-pull

    Пропуск локального кэша и загрузка состояния из удаленной рабочей области

Глобальные флаги

Примеры

В следующем примере запускается браузер и перемещается на baby_gender_by_county панель мониторинга в пакете в рабочей области Databricks, настроенной для пакета:

databricks bundle open baby_gender_by_county

План пакета databricks

Отображение плана развертывания для текущей конфигурации пакета.

Эта команда создает пакет и отображает действия, которые будут выполняться для развернутых ресурсов без внесения изменений. Это позволяет предварительно просмотреть изменения перед выполнением bundle deploy.

databricks bundle plan [flags]

Опции

-c, --cluster-id string

    Переопределите кластер в развертывании с указанным идентификатором кластера.

--force

    Принудительно переопределить проверку ветви Git.

Глобальные флаги

Примеры

В следующем примере выводится план развертывания для пакета, создающего колесо Python, и определяет задание и конвейер:

databricks bundle plan
Building python_artifact...
create jobs.my_bundle_job
create pipelines.my_bundle_pipeline

Запуск пакета databricks

Выполнение задания, конвейера или скрипта. Если ресурс не указан, команда предложит заранее определенные задания, конвейеры и скрипты для выбора. Кроме того, укажите задание или ключ конвейера или имя скрипта, объявленное в файлах конфигурации пакета.

databricks bundle run [flags] [KEY]

Проверка конвейера

Если вы хотите выполнить проверку конвейера используйте --validate-only параметр, как показано в следующем примере:

databricks bundle run --validate-only my_pipeline

Передача параметров задания

Чтобы передать параметры задания, используйте опцию --params, за которой следуют пары ключ-значение, разделенные запятыми, где ключ — имя параметра. Например, следующая команда задает параметр с именем messageHelloWorld для задания hello_job:

databricks bundle run --params message=HelloWorld hello_job

Note

Как показано в следующих примерах, можно передать параметры задачам задания с помощью параметров задачи задания, но это --params рекомендуемый метод для передачи параметров задания. Ошибка возникает, если параметры задания указаны для задания, не имеющего параметров задания, или если параметры задачи указаны для задания с определенными параметрами задания.

Можно также указать ключевые слова или позиционные аргументы. Если указанное задание использует параметры задания или задание имеет задачу записной книжки с параметрами, имена флагов сопоставляются с именами параметров:

databricks bundle run hello_job -- --key1 value1 --key2 value2

Или если указанное задание не использует параметры задания, а задание имеет задачу файла Python или задачу колеса Python:

databricks bundle run my_job -- value1 value2 value3

Пример определения задания с параметрами см. в разделе "Задание" с параметрами.

Выполнение скриптов

Для выполнения сценариев, таких как тесты интеграции с настроенными учетными данными проверки подлинности пакета, можно выполнить встроенные скрипты или запустить скрипт, определенный в конфигурации пакета. Скрипты выполняются с помощью того же контекста проверки подлинности, настроенного в пакете.

  • Добавьте двойной дефис (--) после bundle run, чтобы запускать скрипты встраиваемо. Например, следующая команда выводит текущий рабочий каталог текущего пользователя:

    databricks bundle run -- python3 -c 'import os; print(os.getcwd())'
    
  • Или определите скрипт в рамках scripts сопоставления в конфигурации вашего пакета, а затем используйте bundle run для запуска скрипта.

    scripts:
      my_script:
        content: python3 -c 'import os; print(os.getcwd())'
    
    databricks bundle run my_script
    

    Дополнительные сведения о конфигурации см. в scriptsсценариях и сценариях.

Сведения о проверке подлинности пакета передаются дочерним процессам с помощью переменных среды. Ознакомьтесь с унифицированной проверкой подлинности Databricks.

Аргументы

KEY

    Уникальный идентификатор ресурса для запуска (необязательно)

Опции

--no-wait

    Не дождитесь завершения выполнения.

--restart

    Перезапустите запуск, если он уже запущен.

Глобальные флаги

Флаги заданий

Ниже приведены флаги параметров уровня задания. См. раздел Настройка параметров задания.

--params stringToString

    разделенные запятыми пары k=v для параметров задания (по умолчанию [])

Флаги задач задания

Ниже приведены флаги параметров уровня задач. См. раздел "Настройка параметров задачи". Databricks рекомендует использовать параметры уровня задания (--params) для параметров уровня задач.

--dbt-commands strings

    Список команд для выполнения заданий с задачами DBT.

--jar-params strings

    Список параметров заданий с задачами SPARK JAR.

--notebook-params stringToString

    Сопоставление ключей с значениями заданий с задачами записной книжки. (по умолчанию [])

--pipeline-params stringToString

    Сопоставление ключей с значениями заданий с задачами конвейера. (по умолчанию [])

--python-named-params stringToString

    Сопоставление ключей с значениями заданий с задачами колеса Python. (по умолчанию [])

--python-params strings

    Список параметров заданий с задачами Python.

--spark-submit-params strings

    Список параметров заданий с помощью Spark submit tasks.

--sql-params stringToString

    Сопоставление ключей с значениями заданий с задачами SQL. (по умолчанию [])

Флаги конвейера

Ниже приведены флаги конвейера.

--full-refresh strings

    Список таблиц для сброса и повторной компиляции.

--full-refresh-all

    Выполните полный сброс графа и перекомпьютер.

--refresh strings

    Список таблиц для обновления.

--refresh-all

    Выполните полное обновление графа.

--validate-only

    Выполните обновление для проверки правильности графа.

Примеры

В следующем примере выполняется задание hello_job в целевом объекте по умолчанию:

databricks bundle run hello_job

В следующем примере выполняется задание hello_job в контексте целевого объекта, объявленного с именем dev:

databricks bundle run -t dev hello_job

Следующий пример отменяет и перезапускает существующий запуск задания:

databricks bundle run --restart hello_job

В следующем примере выполняется конвейер с полным обновлением:

databricks bundle run my_pipeline --full-refresh-all

В следующем примере выполняется команда в контексте пакета:

databricks bundle run -- echo "hello, world"

Схема пакета databricks

Отображение схемы JSON для конфигурации пакета.

databricks bundle schema [flags]

Опции

Глобальные флаги

Примеры

Следующий пример выводит схему JSON для конфигурации пакета:

databricks bundle schema

Чтобы вывести схему конфигурации пакета в виде JSON-файла, выполните bundle schema команду и перенаправьте выходные данные в JSON-файл. Например, можно создать файл с именем bundle_config_schema.json в текущем каталоге:

databricks bundle schema > bundle_config_schema.json

Сводка пакета databricks

Выводит сводку по удостоверениям и ресурсам пакета, включая глубокие ссылки для ресурсов, чтобы можно было легко перейти к ресурсу в рабочей области Databricks.

databricks bundle summary [flags]

Tip

Вы также можете использовать bundle open для перехода к ресурсу в рабочей области Databricks. Откройте пакет databricks.

Опции

--force-pull

    Пропуск локального кэша и загрузка состояния из удаленной рабочей области

Глобальные флаги

Примеры

В следующем примере выводится сводка развернутых ресурсов пакета:

databricks bundle summary

Ниже приведена сводка пакета с именем my_pipeline_bundle , который определяет задание и конвейер:

Name: my_pipeline_bundle
Target: dev
Workspace:
  Host: https://myworkspace.cloud.databricks.com
  User: someone@example.com
  Path: /Users/someone@example.com/.bundle/my_pipeline/dev
Resources:
  Jobs:
    my_project_job:
      Name: [dev someone] my_project_job
      URL:  https://myworkspace.cloud.databricks.com/jobs/206000809187888?o=6051000018419999
  Pipelines:
    my_project_pipeline:
      Name: [dev someone] my_project_pipeline
      URL:  https://myworkspace.cloud.databricks.com/pipelines/7f559fd5-zztz-47fa-aa5c-c6bf034b4f58?o=6051000018419999

синхронизация пакетов databricks

Синхронизация односторонней синхронизации файлов пакета в локальном каталоге файловой системы в каталоге удаленной рабочей области Azure Databricks.

Note

bundle sync команды не могут синхронизировать изменения файлов из каталога в удаленной рабочей области Azure Databricks, обратно в каталог в локальной файловой системе.

databricks bundle sync [flags]

databricks bundle sync команды работают так же, как databricks sync команды и предоставляются в качестве удобства для повышения производительности. Сведения об использовании команды см. команду sync.

Опции

--dry-run

    Имитация выполнения синхронизации без внесения фактических изменений

--full

    Выполнение полной синхронизации (по умолчанию — добавочная)

--interval duration

    Интервал опроса файловой системы (для --watch) (по умолчанию 1s)

--output type

    Тип выходного формата

--watch

    Отслеживание изменений в локальной файловой системе

Глобальные флаги

Примеры

В следующем примере выполняется синхронизация сухого запуска:

databricks bundle sync --dry-run

В следующем примере выполняется автоматическое отслеживание изменений и синхронизации.

databricks bundle sync --watch

В следующем примере выполняется полная синхронизация:

databricks bundle sync --full

проверка пакета databricks

Проверка файлов конфигурации пакета синтаксически правильно.

databricks bundle validate [flags]

По умолчанию эта команда возвращает сводку идентификатора пакета.

Name: MyBundle
Target: dev
Workspace:
  Host: https://my-host.cloud.databricks.com
  User: someone@example.com
  Path: /Users/someone@example.com/.bundle/MyBundle/dev

Validation OK!

Note

Команда bundle validate выводит предупреждения, если свойства ресурса определены в файлах конфигурации пакета, которые не найдены в схеме соответствующего объекта.

Если вы хотите только вывести сводку об идентификаторе и ресурсах пакета, используйте сводка пакета.

Опции

Глобальные флаги

Примеры

В следующем примере проверяется конфигурация пакета:

databricks bundle validate

Глобальные флаги

--debug

  Следует ли включить ведение журнала отладки.

-h или --help

    Отобразить справку по интерфейсу командной строки Databricks, связанной группе команд или отдельной команде.

--log-file струна

    Строка, представляющая файл для записи журналов выходных данных. Если этот флаг не указан, по умолчанию используется запись журналов выходных данных в stderr.

--log-format формат

    Тип формата журнала: text или json. Значение по умолчанию — text.

--log-level струна

    Строка, представляющая уровень формата журнала. Если не указано, уровень формата журнала отключен.

типа -o, --output

    Тип выходных данных команды: text или json. Значение по умолчанию — text.

-p, --profile струна

    Имя профиля в ~/.databrickscfg файле, используемого для выполнения команды. Если этот флаг не указан, при наличии используется профиль с именем DEFAULT.

--progress-format формат

    Формат для отображения журналов хода выполнения: default, appendinplace, илиjson

-t, --target струна

    Если применимо, целевой объект пакета для использования

--var strings

    задайте значения переменных, определенных в конфигурации пакета. Пример: --var="foo=bar"