Примечание.
Для доступа к этой странице требуется авторизация. Вы можете попробовать войти или изменить каталоги.
Для доступа к этой странице требуется авторизация. Вы можете попробовать изменить каталоги.
Note
Эта информация относится к Интерфейсу командной строки Databricks версии 0.205 и выше. Интерфейс командной строки Databricks находится в общедоступной предварительной версии.
Использование интерфейса командной строки Databricks подчиняется лицензии Databricks и уведомлению о конфиденциальности Databricks, включая любые положения о данных использования.
Группа bundle команд в интерфейсе командной строки Databricks содержит команды для управления пакетами ресурсов Databricks. Наборы активов Databricks позволяют определять проекты в виде кода и программно проверять, развертывать и запускать рабочие процессы Azure Databricks, такие как задания Azure Databricks, Декларативные конвейеры Spark Lakeflow и стеки MLOps. См. раздел "Что такое пакеты ресурсов Databricks?".
Note
При запуске из папки пакета команды используют параметры databricks.yml для проверки подлинности. Если вы хотите выполнять команды пакета с другой аутентификацией из папки пакета, укажите профиль конфигурации с помощью флага --profile (или -p) и не указывайте --target.
В качестве альтернативы выполните команды, которые не нуждаются в той же проверке подлинности, что и пакет, и выполните их за пределами папки пакета.
Развертывание пакета databricks
Разверните пакет в удаленной рабочей области.
databricks bundle deploy [flags]
Целевой объект пакета и удостоверение
Чтобы развернуть пакет для определенной цели, установите параметр -t (или --target) вместе с именем цели, объявленным в файлах конфигурации пакета. Если параметры команды не указаны, используется целевой объект по умолчанию, объявленный в файлах конфигурации пакета. Например, для целевого объекта, объявленного именем dev:
databricks bundle deploy -t dev
Пакет можно развернуть в нескольких пространствах, таких как разработка, тестирование и производство. По сути, root_path свойство определяет уникальную идентичность пакета, для которого по умолчанию задано ~/.bundle/${bundle.name}/${bundle.target} значение. Поэтому по умолчанию идентификатор пакета состоит из идентификатора развертывателя, имени пакета и целевого имени пакета. Если они идентичны в разных пакетах, развертывание этих пакетов будет мешать друг другу.
Кроме того, при развертывании пакета отслеживается состояние ресурсов, создаваемое в целевой рабочей области по их идентификаторам, и это состояние сохраняется в файловой системе рабочей области. Имена ресурсов не используются для сопоставления между развертыванием пакета и экземпляром ресурса, поэтому:
- Если ресурс в конфигурации пакета не существует в целевой рабочей области, он создается.
- Если ресурс в конфигурации пакета существует в целевой рабочей области, он обновляется в рабочей области.
- Если ресурс удаляется из конфигурации пакета, он удаляется из целевой рабочей области, если он был развернут ранее.
- Связь ресурса с пакетом может быть забыта только при изменении имени пакета, целевого объекта пакета или рабочей области. Вы можете выполнить
bundle validate, чтобы получить сводку, содержащую эти значения.
Опции
--auto-approve
Пропустить интерактивные утверждения, которые могут потребоваться для развертывания.
-c, --cluster-id string
Переопределите кластер в развертывании с указанным идентификатором кластера.
--fail-on-active-runs
Сбой, если в развертывании выполняются задания или конвейеры.
--force
Принудительно переопределить проверку ветви Git.
--force-lock
Принудительное приобретение блокировки развертывания.
--plan
Путь к файлу плана JSON, который следует применить вместо планирования (только прямой обработчик). Файл плана можно создать с помощью databricks bundle plan -o json.
Примеры
В следующем примере развертывается пакет с помощью определенного идентификатора кластера:
databricks bundle deploy --cluster-id 0123-456789-abcdef
Развертывание пакета databricks
Команды, связанные с развертыванием.
databricks bundle deployment [command]
Доступные команды
-
bind— привязка определенного пакета ресурса к существующему ресурсу в удаленной рабочей области. -
migrate— Выполните миграцию пакета для использования подсистемы прямого развертывания. -
unbind— отмена привязки определенного пакета ресурса из удаленного ресурса.
привязка развертывания пакета databricks
Свяжите ресурсы, определенные пакетом, с существующими ресурсами в рабочей области Azure Databricks, чтобы они стали управляемыми пакетами ресурсов Databricks. Если вы привязываете ресурс, существующий ресурс Azure Databricks в рабочей области будет обновлён на основе конфигурации, определенной в пакете, с которым он связан, после следующего bundle deploy.
databricks bundle deployment bind KEY RESOURCE_ID [flags]
Привязка не пересоздает данные. Например, если к конвейеру с данными в каталоге было применено связывание, можно развернуть на этом конвейере без потери существующих данных. Кроме того, вам не нужно перекомпьютировать материализованное представление, например, поэтому конвейеры не должны повторно запускаться.
Команда привязки должна использоваться с флагом --target . Например, привяжите ваше производственное развертывание к производственному конвейеру с помощью databricks bundle deployment bind --target prod my_pipeline 7668611149d5709ac9-2906-1229-9956-586a9zed8929
Tip
Рекомендуется подтвердить ресурс в рабочей области перед выполнением привязки.
Привязка поддерживается для следующих ресурсов:
- app
- cluster
- dashboard
- job
- model_serving_endpoint
- pipeline
- quality_monitor
- registered_model
- schema
- volume
Для ресурсов, поддерживаемых командой bundle generate, автоматически привяжите ресурс после его генерации с помощью параметра --bind.
Аргументы
KEY
Ключ ресурса для привязки
RESOURCE_ID
Идентификатор существующего ресурса для привязки к
Опции
--auto-approve
Автоматическое утверждение привязки вместо запроса
--force-lock
Принудительное приобретение блокировки развертывания
Примеры
Следующая команда привязывает ресурс hello_job к удаленному коллеге в рабочей области. Команда выводит дифф и позволяет запретить привязку ресурсов, но при подтверждении все обновления определения задания в пакете применяются к соответствующему удаленному заданию при следующем развертывании пакета.
databricks bundle deployment bind hello_job 6565621249
Миграция развертывания пакета databricks
Important
Эта функция является экспериментальной.
Перенос пакета с использования движка развертывания Terraform на использование прямого движка развертывания. См. раздел "Миграция в подсистему прямого развертывания". Чтобы завершить миграцию, необходимо развернуть пакет.
Вы можете убедиться в успешности выполнения миграции, запустив databricks bundle plan. См. план пакета Databricks.
databricks bundle deployment migrate [flags]
Аргументы
None
Опции
Примеры
В следующем примере выполняется перенос текущего пакета для использования подсистемы прямого развертывания:
databricks bundle deployment migrate
Развертывание пакета databricks без привязки
Удалите связь между ресурсом в пакете и его удаленным коллегой в рабочей области.
databricks bundle deployment unbind KEY [flags]
Аргументы
KEY
Ключ ресурса для отмены привязки
Опции
--force-lock
Принудительное приобретение блокировки развертывания.
Примеры
Следующий пример отменяет привязку hello_job ресурса:
databricks bundle deployment unbind hello_job
уничтожение пакета databricks
Warning
Уничтожение пакета окончательно удаляет все ранее развернутые задания, конвейеры и артефакты. Это действие невозможно отменить.
Удаление заданий, конвейеров, других ресурсов и артефактов, которые ранее были развернуты.
databricks bundle destroy [flags]
Note
Удостоверение пакета состоит из имени пакета, целевого объекта пакета и рабочей области. Если вы изменили любой из них, а затем попытаейтесь уничтожить пакет перед развертыванием, возникнет ошибка.
По умолчанию вам будет предложено подтвердить постоянное удаление ранее развернутых заданий, платформ и артефактов. Чтобы пропустить эти запросы и выполнить автоматическое постоянное удаление, добавьте --auto-approve параметр в bundle destroy команду.
Опции
--auto-approve
Пропуск интерактивных утверждений для удаления ресурсов и файлов
--force-lock
Принудительное приобретение блокировки развертывания.
Примеры
Следующая команда удаляет все ранее развернутые ресурсы и артефакты, определенные в файлах конфигурации пакета:
databricks bundle destroy
Создание пакета databricks
Создайте конфигурацию пакета для ресурса, который уже существует в рабочей области Databricks. Поддерживаются следующие ресурсы: приложение, панель мониторинга, задание, конвейер.
По умолчанию эта команда создает *.yml файл для ресурса в resources папке проекта пакета, а также загружает все файлы, такие как записные книжки, на которые ссылается конфигурация.
Important
Эта bundle generate команда предоставляется в качестве удобства для автоматического создания конфигурации ресурсов. Однако если пакет включает конфигурацию ресурсов и ее развертывание, Azure Databricks создает новый ресурс, а не обновляет существующий. Вместо этого, чтобы обновить существующий ресурс, вы должны либо использовать флаг --bind с bundle generate, либо запустить bundle deployment bind перед развертыванием. См. привязку развертывания пакета databricks.
databricks bundle generate [command]
Доступные команды
-
app— создание конфигурации пакета для приложения Databricks. -
dashboard— создание конфигурации для панели мониторинга. -
job— создание конфигурации пакета для задания. -
pipeline— создание конфигурации пакета для конвейера.
Опции
--key string
Ключ ресурса, используемый для созданной конфигурации
Пакет databricks создает приложение
Создайте конфигурацию пакета для существующего приложения Databricks в рабочей области.
databricks bundle generate app [flags]
Опции
--bind
Автоматически привязывает созданный ресурс к существующей в рабочей области.
-d, --config-dir string
Путь к каталогу, в котором будет храниться конфигурация выходного пакета (ресурсы по умолчанию)
--existing-app-name string
Имя приложения для создания конфигурации
-f, --force
Принудительное перезаписи существующих файлов в выходном каталоге
-s, --source-dir string
Путь к каталогу, в котором будут храниться файлы приложения (по умолчанию src/app)
Примеры
В следующем примере создается конфигурация для существующего приложения с именем my-app. Имя приложения можно получить на вкладке "Вычислительные>приложения" пользовательского интерфейса рабочей области.
databricks bundle generate app --existing-app-name my-app
Следующая команда создает новый hello_world.app.yml файл в resources папке проекта пакета и загружает файлы кода приложения, такие как файл app.yaml конфигурации команды приложения и основной app.py. По умолчанию файлы кода копируются в папку пакета src .
databricks bundle generate app --existing-app-name "hello_world"
# This is the contents of the resulting /resources/hello-world.app.yml file.
resources:
apps:
hello_world:
name: hello-world
description: A basic starter application.
source_code_path: ../src/app
Пакет databricks создает панель мониторинга
Создайте конфигурацию для существующей панели мониторинга в рабочей области.
databricks bundle generate dashboard [flags]
Tip
Чтобы обновить .lvdash.json файл после развертывания панели мониторинга, используйте --resource параметр при запуске bundle generate dashboard для создания этого файла для существующего ресурса панели мониторинга. Для непрерывного опроса и получения обновлений в панели мониторинга используйте --force и --watch.
Опции
--bind
Автоматически привязывает созданный ресурс к существующей в рабочей области.
-s, --dashboard-dir string
Каталог для записи представления панели мониторинга в (по умолчанию src)
--existing-id string
Идентификатор панели мониторинга для создания конфигурации
--existing-path string
Путь к рабочей области панели мониторинга для создания конфигурации
-f, --force
Принудительное перезаписи существующих файлов в выходном каталоге
--resource string
Ключ ресурса панели мониторинга для просмотра изменений
-d, --resource-dir string
Каталог для записи конфигурации в (ресурсы по умолчанию)
--watch
Следите за изменениями на панели мониторинга и обновлением конфигурации
Примеры
В следующем примере создается конфигурация с помощью существующего идентификатора панели мониторинга:
databricks bundle generate dashboard --existing-id abc123
Вы также можете создать конфигурацию для существующей панели мониторинга по пути к рабочей области. Скопируйте путь к рабочей области для панели мониторинга из пользовательского интерфейса рабочей области.
Например, следующая команда создает новый baby_gender_by_county.dashboard.yml файл в resources папке проекта пакета, содержащей YAML ниже, и скачивает файл в baby_gender_by_county.lvdash.json папку src проекта.
databricks bundle generate dashboard --existing-path "/Workspace/Users/someone@example.com/baby_gender_by_county.lvdash.json"
# This is the contents of the resulting baby_gender_by_county.dashboard.yml file.
resources:
dashboards:
baby_gender_by_county:
display_name: 'Baby gender by county'
warehouse_id: aae11o8e6fe9zz79
file_path: ../src/baby_gender_by_county.lvdash.json
Пакет databricks создает задание
Создайте конфигурацию пакета для задания.
Note
В настоящее время поддерживаются только задания с задачами записной книжки этой командой.
databricks bundle generate job [flags]
Опции
--bind
Автоматически привязывает созданный ресурс к существующей в рабочей области.
-d, --config-dir string
Dir path, где будет храниться выходная конфигурация (ресурсы по умолчанию)
--existing-job-id int
Идентификатор задания для создания конфигурации
-f, --force
Принудительное перезаписи существующих файлов в выходном каталоге
-s, --source-dir string
Dir path, в котором будут храниться скачанные файлы (по умолчанию src)
Примеры
В следующем примере создается новый hello_job.yml файл в resources папке проекта пакета, содержащей YAML ниже, и загружается в simple_notebook.py папку src проекта. Он также привязывает созданный ресурс с существующим заданием в рабочей области.
databricks bundle generate job --existing-job-id 6565621249 --bind
# This is the contents of the resulting hello_job.yml file.
resources:
jobs:
hello_job:
name: 'Hello Job'
tasks:
- task_key: run_notebook
email_notifications: {}
notebook_task:
notebook_path: ../src/simple_notebook.py
source: WORKSPACE
run_if: ALL_SUCCESS
max_concurrent_runs: 1
Пакет databricks создает конвейер
Создайте конфигурацию пакета для существующего конвейера.
databricks bundle generate pipeline [flags]
Tip
Если у вас есть существующий проект Декларативного конвейера Spark (SDP), можно создать конфигурацию для него с помощью databricks pipelines generate. См. databricks pipelines generate.
Опции
--bind
Автоматически привязывает созданный ресурс к существующей в рабочей области.
-d, --config-dir string
Dir path, где будет храниться выходная конфигурация (ресурсы по умолчанию)
--existing-pipeline-id string
Идентификатор конвейера для создания конфигурации
-f, --force
Принудительное перезаписи существующих файлов в выходном каталоге
-s, --source-dir string
Dir path, в котором будут храниться скачанные файлы (по умолчанию src)
Примеры
В следующем примере создается конфигурация для существующего конвейера:
databricks bundle generate pipeline --existing-pipeline-id abc-123-def
набор databricks init
Инициализация нового пакета с помощью шаблона пакета. Шаблоны можно настроить для запроса пользователя на получение значений. См. шаблоны проектов пакета ресурсов Databricks.
databricks bundle init [TEMPLATE_PATH] [flags]
Аргументы
TEMPLATE_PATH
Шаблон для инициализации (необязательно)
Опции
--branch string
Ветвь Git, используемая для инициализации шаблона
--config-file string
JSON-файл, содержащий пары значений ключа входных параметров, необходимых для инициализации шаблона.
--output-dir string
Каталог для записи инициализированного шаблона в.
--tag string
Тег Git, используемый для инициализации шаблона
--template-dir string
Путь к каталогу в репозитории Git, содержащий шаблон.
Примеры
В следующем примере показано, как выбрать список шаблонов пакетов по умолчанию:
databricks bundle init
В следующем примере инициализируется пакет с помощью шаблона Python по умолчанию:
databricks bundle init default-python
Чтобы создать пакет ресурсов Databricks с помощью пользовательского шаблона пакета ресурсов Databricks, укажите путь к пользовательскому шаблону:
databricks bundle init <project-template-local-path-or-url> \
--project-dir="</local/path/to/project/template/output>"
В следующем примере инициализируется пакет из репозитория Git:
databricks bundle init https://github.com/my/repository
В следующем примере инициализируется определенная ветвь:
databricks bundle init --branch main
открытый пакет databricks
Перейдите к ресурсу пакета в рабочей области, указав открытый ресурс. Если ключ ресурса не указан, эта команда выводит список ресурсов пакета, из которых следует выбрать.
databricks bundle open [flags]
Опции
--force-pull
Пропуск локального кэша и загрузка состояния из удаленной рабочей области
Примеры
В следующем примере запускается браузер и перемещается на baby_gender_by_county панель мониторинга в пакете в рабочей области Databricks, настроенной для пакета:
databricks bundle open baby_gender_by_county
План пакета databricks
Отображение плана развертывания для текущей конфигурации пакета.
Эта команда создает пакет и отображает действия, которые будут выполняться для развернутых ресурсов без внесения изменений. Это позволяет предварительно просмотреть изменения перед выполнением bundle deploy.
databricks bundle plan [flags]
Опции
-c, --cluster-id string
Переопределите кластер в развертывании с указанным идентификатором кластера.
--force
Принудительно переопределить проверку ветви Git.
Примеры
В следующем примере выводится план развертывания для пакета, создающего колесо Python, и определяет задание и конвейер:
databricks bundle plan
Building python_artifact...
create jobs.my_bundle_job
create pipelines.my_bundle_pipeline
Запуск пакета databricks
Выполнение задания, конвейера или скрипта. Если ресурс не указан, команда предложит заранее определенные задания, конвейеры и скрипты для выбора. Кроме того, укажите задание или ключ конвейера или имя скрипта, объявленное в файлах конфигурации пакета.
databricks bundle run [flags] [KEY]
Проверка конвейера
Если вы хотите выполнить проверку конвейера используйте --validate-only параметр, как показано в следующем примере:
databricks bundle run --validate-only my_pipeline
Передача параметров задания
Чтобы передать параметры задания, используйте опцию --params, за которой следуют пары ключ-значение, разделенные запятыми, где ключ — имя параметра. Например, следующая команда задает параметр с именем messageHelloWorld для задания hello_job:
databricks bundle run --params message=HelloWorld hello_job
Note
Как показано в следующих примерах, можно передать параметры задачам задания с помощью параметров задачи задания, но это --params рекомендуемый метод для передачи параметров задания. Ошибка возникает, если параметры задания указаны для задания, не имеющего параметров задания, или если параметры задачи указаны для задания с определенными параметрами задания.
Можно также указать ключевые слова или позиционные аргументы. Если указанное задание использует параметры задания или задание имеет задачу записной книжки с параметрами, имена флагов сопоставляются с именами параметров:
databricks bundle run hello_job -- --key1 value1 --key2 value2
Или если указанное задание не использует параметры задания, а задание имеет задачу файла Python или задачу колеса Python:
databricks bundle run my_job -- value1 value2 value3
Пример определения задания с параметрами см. в разделе "Задание" с параметрами.
Выполнение скриптов
Для выполнения сценариев, таких как тесты интеграции с настроенными учетными данными проверки подлинности пакета, можно выполнить встроенные скрипты или запустить скрипт, определенный в конфигурации пакета. Скрипты выполняются с помощью того же контекста проверки подлинности, настроенного в пакете.
Добавьте двойной дефис (
--) послеbundle run, чтобы запускать скрипты встраиваемо. Например, следующая команда выводит текущий рабочий каталог текущего пользователя:databricks bundle run -- python3 -c 'import os; print(os.getcwd())'Или определите скрипт в рамках
scriptsсопоставления в конфигурации вашего пакета, а затем используйтеbundle runдля запуска скрипта.scripts: my_script: content: python3 -c 'import os; print(os.getcwd())'databricks bundle run my_scriptДополнительные сведения о конфигурации см. в
scriptsсценариях и сценариях.
Сведения о проверке подлинности пакета передаются дочерним процессам с помощью переменных среды. Ознакомьтесь с унифицированной проверкой подлинности Databricks.
Аргументы
KEY
Уникальный идентификатор ресурса для запуска (необязательно)
Опции
--no-wait
Не дождитесь завершения выполнения.
--restart
Перезапустите запуск, если он уже запущен.
Флаги заданий
Ниже приведены флаги параметров уровня задания. См. раздел Настройка параметров задания.
--params stringToString
разделенные запятыми пары k=v для параметров задания (по умолчанию [])
Флаги задач задания
Ниже приведены флаги параметров уровня задач. См. раздел "Настройка параметров задачи". Databricks рекомендует использовать параметры уровня задания (--params) для параметров уровня задач.
--dbt-commands strings
Список команд для выполнения заданий с задачами DBT.
--jar-params strings
Список параметров заданий с задачами SPARK JAR.
--notebook-params stringToString
Сопоставление ключей с значениями заданий с задачами записной книжки. (по умолчанию [])
--pipeline-params stringToString
Сопоставление ключей с значениями заданий с задачами конвейера. (по умолчанию [])
--python-named-params stringToString
Сопоставление ключей с значениями заданий с задачами колеса Python. (по умолчанию [])
--python-params strings
Список параметров заданий с задачами Python.
--spark-submit-params strings
Список параметров заданий с помощью Spark submit tasks.
--sql-params stringToString
Сопоставление ключей с значениями заданий с задачами SQL. (по умолчанию [])
Флаги конвейера
Ниже приведены флаги конвейера.
--full-refresh strings
Список таблиц для сброса и повторной компиляции.
--full-refresh-all
Выполните полный сброс графа и перекомпьютер.
--refresh strings
Список таблиц для обновления.
--refresh-all
Выполните полное обновление графа.
--validate-only
Выполните обновление для проверки правильности графа.
Примеры
В следующем примере выполняется задание hello_job в целевом объекте по умолчанию:
databricks bundle run hello_job
В следующем примере выполняется задание hello_job в контексте целевого объекта, объявленного с именем dev:
databricks bundle run -t dev hello_job
Следующий пример отменяет и перезапускает существующий запуск задания:
databricks bundle run --restart hello_job
В следующем примере выполняется конвейер с полным обновлением:
databricks bundle run my_pipeline --full-refresh-all
В следующем примере выполняется команда в контексте пакета:
databricks bundle run -- echo "hello, world"
Схема пакета databricks
Отображение схемы JSON для конфигурации пакета.
databricks bundle schema [flags]
Опции
Примеры
Следующий пример выводит схему JSON для конфигурации пакета:
databricks bundle schema
Чтобы вывести схему конфигурации пакета в виде JSON-файла, выполните bundle schema команду и перенаправьте выходные данные в JSON-файл. Например, можно создать файл с именем bundle_config_schema.json в текущем каталоге:
databricks bundle schema > bundle_config_schema.json
Сводка пакета databricks
Выводит сводку по удостоверениям и ресурсам пакета, включая глубокие ссылки для ресурсов, чтобы можно было легко перейти к ресурсу в рабочей области Databricks.
databricks bundle summary [flags]
Tip
Вы также можете использовать bundle open для перехода к ресурсу в рабочей области Databricks. Откройте пакет databricks.
Опции
--force-pull
Пропуск локального кэша и загрузка состояния из удаленной рабочей области
Примеры
В следующем примере выводится сводка развернутых ресурсов пакета:
databricks bundle summary
Ниже приведена сводка пакета с именем my_pipeline_bundle , который определяет задание и конвейер:
Name: my_pipeline_bundle
Target: dev
Workspace:
Host: https://myworkspace.cloud.databricks.com
User: someone@example.com
Path: /Users/someone@example.com/.bundle/my_pipeline/dev
Resources:
Jobs:
my_project_job:
Name: [dev someone] my_project_job
URL: https://myworkspace.cloud.databricks.com/jobs/206000809187888?o=6051000018419999
Pipelines:
my_project_pipeline:
Name: [dev someone] my_project_pipeline
URL: https://myworkspace.cloud.databricks.com/pipelines/7f559fd5-zztz-47fa-aa5c-c6bf034b4f58?o=6051000018419999
синхронизация пакетов databricks
Синхронизация односторонней синхронизации файлов пакета в локальном каталоге файловой системы в каталоге удаленной рабочей области Azure Databricks.
Note
bundle sync команды не могут синхронизировать изменения файлов из каталога в удаленной рабочей области Azure Databricks, обратно в каталог в локальной файловой системе.
databricks bundle sync [flags]
databricks bundle sync команды работают так же, как databricks sync команды и предоставляются в качестве удобства для повышения производительности. Сведения об использовании команды см. команду sync.
Опции
--dry-run
Имитация выполнения синхронизации без внесения фактических изменений
--full
Выполнение полной синхронизации (по умолчанию — добавочная)
--interval duration
Интервал опроса файловой системы (для --watch) (по умолчанию 1s)
--output type
Тип выходного формата
--watch
Отслеживание изменений в локальной файловой системе
Примеры
В следующем примере выполняется синхронизация сухого запуска:
databricks bundle sync --dry-run
В следующем примере выполняется автоматическое отслеживание изменений и синхронизации.
databricks bundle sync --watch
В следующем примере выполняется полная синхронизация:
databricks bundle sync --full
проверка пакета databricks
Проверка файлов конфигурации пакета синтаксически правильно.
databricks bundle validate [flags]
По умолчанию эта команда возвращает сводку идентификатора пакета.
Name: MyBundle
Target: dev
Workspace:
Host: https://my-host.cloud.databricks.com
User: someone@example.com
Path: /Users/someone@example.com/.bundle/MyBundle/dev
Validation OK!
Note
Команда bundle validate выводит предупреждения, если свойства ресурса определены в файлах конфигурации пакета, которые не найдены в схеме соответствующего объекта.
Если вы хотите только вывести сводку об идентификаторе и ресурсах пакета, используйте сводка пакета.
Опции
Примеры
В следующем примере проверяется конфигурация пакета:
databricks bundle validate
Глобальные флаги
--debug
Следует ли включить ведение журнала отладки.
-h или --help
Отобразить справку по интерфейсу командной строки Databricks, связанной группе команд или отдельной команде.
--log-file струна
Строка, представляющая файл для записи журналов выходных данных. Если этот флаг не указан, по умолчанию используется запись журналов выходных данных в stderr.
--log-format формат
Тип формата журнала: text или json. Значение по умолчанию — text.
--log-level струна
Строка, представляющая уровень формата журнала. Если не указано, уровень формата журнала отключен.
типа -o, --output
Тип выходных данных команды: text или json. Значение по умолчанию — text.
-p, --profile струна
Имя профиля в ~/.databrickscfg файле, используемого для выполнения команды. Если этот флаг не указан, при наличии используется профиль с именем DEFAULT.
--progress-format формат
Формат для отображения журналов хода выполнения: default, appendinplace, илиjson
-t, --target струна
Если применимо, целевой объект пакета для использования
--var strings
задайте значения переменных, определенных в конфигурации пакета. Пример: --var="foo=bar"