Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Grupo de comandos
Note
Essas informações se aplicam às versões 0.205 e superiores da CLI do Databricks. A CLI do Databricks está em Visualização Pública.
O uso da CLI do Databricks está sujeito à Licença do Databricks e ao Aviso de Privacidade do Databricks, incluindo quaisquer provisionamentos de Dados de Uso.
O bundle grupo de comandos dentro da CLI do Databricks contém comandos para gerenciar pacotes de ativos do Databricks. Os Pacotes de Ativos do Databricks permitem que você expresse projetos como código e valide, implante e execute programaticamente fluxos de trabalho do Azure Databricks, como trabalhos do Azure Databricks, Pipelines Declarativos do Lakeflow Spark e MLOps Stacks. Consulte O que são os Pacotes de Ativos do Databricks?.
Note
Os comandos de pacote usam as configurações em databricks.yml para autenticação quando executados de dentro da pasta do pacote. Se você quiser executar comandos de pacote com autenticação diferente de dentro da pasta do pacote, especifique um perfil de configuração usando o --profile sinalizador (ou -p) e não especifique um --target.
Como alternativa, execute comandos que não precisam da mesma autenticação que o pacote ao serem executados fora da pasta do pacote.
implantação do pacote do databricks
Implante um pacote no workspace remoto.
databricks bundle deploy [flags]
Destino e identidade do pacote
Para implantar o pacote em um destino específico, defina a opção -t (ou --target) junto com o nome do destino, conforme declarado nos arquivos de configuração do pacote. Se nenhuma opção de comando for especificada, o destino padrão, conforme declarado nos arquivos de configuração do pacote, será usado. Por exemplo, para um destino declarado com o nome dev:
databricks bundle deploy -t dev
Um pacote pode ser implantado em vários espaços de trabalho, como espaços de trabalho de desenvolvimento, homologação e produção. Fundamentalmente, a root_path propriedade é o que determina a identidade exclusiva de um pacote, que usa como padrão ~/.bundle/${bundle.name}/${bundle.target}. Portanto, por padrão, a identidade de um pacote é composta pela identidade do implantador, pelo nome do pacote e pelo nome de destino do pacote. Se forem idênticos em diferentes pacotes, a implantação dos pacotes sofrerá interferência.
Além disso, uma implantação de reunião rastreia os recursos que cria no espaço de trabalho de destino por suas IDs como um estado armazenado no sistema de arquivos do espaço de trabalho. Os nomes de recursos não são usados para correlacionar uma implantação de pacote e uma instância de recurso, portanto:
- Se um recurso na configuração do pacote não existir no workspace de destino, ele será criado.
- Se houver um recurso na configuração do pacote no espaço de trabalho de destino, ele será atualizado lá.
- Se um recurso for removido da configuração do pacote, ele será removido do workspace de destino se ele tiver sido implantado anteriormente.
- A associação de um recurso a um pacote só poderá ser esquecida se você alterar o nome do pacote, o destino do pacote ou o workspace. Você pode executar
bundle validatepara gerar um resumo contendo esses valores.
Opções
--auto-approve
Ignore as aprovações interativas que podem ser necessárias para implantação.
-c, --cluster-id string
Substitua o cluster na implantação com a ID de cluster fornecida.
--fail-on-active-runs
Falhará se houver trabalhos ou pipelines em execução na implantação.
--force
Forçar a substituição da validação do branch git.
--force-lock
Forçar a aquisição do bloqueio de implantação.
Exemplos
O exemplo a seguir implanta um pacote usando uma ID de cluster específica:
databricks bundle deploy --cluster-id 0123-456789-abcdef
Implantação do pacote databricks
Comandos relacionados à implantação.
databricks bundle deployment [command]
Comandos disponíveis
-
bind- Associar um recurso definido por pacote a um recurso existente no workspace remoto. -
migrate– Migrar um pacote para usar o mecanismo de implantação direta. -
unbind- Desvinme um recurso definido por pacote de seu recurso remoto.
Associação de implantação do pacote databricks
Vincule recursos definidos por pacote a recursos existentes no workspace do Azure Databricks para que eles se tornem gerenciados pelos Pacotes de Ativos do Databricks. Se você associar um recurso, o recurso existente do Azure Databricks no workspace será atualizado com base na configuração definida no pacote ao qual ele está associado após o próximo bundle deploy.
databricks bundle deployment bind KEY RESOURCE_ID [flags]
Bind não recria dados. Por exemplo, se um pipeline com dados em um catálogo tiver a vinculação aplicada, você poderá implantar nesse pipeline sem perder os dados existentes. Além disso, você não precisa recomputar a visão materializada, por exemplo, para que os pipelines não precisem ser executados novamente.
O comando bind deve ser usado com a flag --target. Por exemplo, associe sua implantação de produção ao pipeline de produção usando databricks bundle deployment bind --target prod my_pipeline 7668611149d5709ac9-2906-1229-9956-586a9zed8929
Tip
É uma boa ideia confirmar o recurso no workspace antes de executar a associação.
O Bind tem suporte para os seguintes recursos:
- app
- cluster
- dashboard
- job
- model_serving_endpoint
- pipeline
- quality_monitor
- registered_model
- schema
- volume
Para recursos compatíveis com o bundle generate comando, associe automaticamente o recurso após a geração usando a opção --bind .
Argumentos
KEY
A chave do recurso a ser vinculada
RESOURCE_ID
A ID do recurso existente ao qual associar
Opções
--auto-approve
Aprovar automaticamente a associação, em vez de solicitar
--force-lock
Forçar a aquisição do bloqueio de implantação
Exemplos
O comando a seguir associa o recurso hello_job ao seu equivalente remoto no workspace. O comando mostra as diferenças e permite que você recuse a associação de recursos, mas, se confirmada, todas as atualizações na definição de trabalho no pacote são aplicadas ao trabalho remoto correspondente na próxima vez que o pacote for implantado.
databricks bundle deployment bind hello_job 6565621249
Migração de implantação do pacote databricks
Important
Esse recurso é experimental.
Migre o pacote do uso do mecanismo de implantação do Terraform para o uso do mecanismo de implantação direta. Consulte Migrar para o mecanismo de implantação direta. Para concluir a migração, você deve implantar o pacote.
Você pode verificar se uma migração foi bem-sucedida executando databricks bundle plan. Consulte o plano do pacote do Databricks.
databricks bundle deployment migrate [flags]
Argumentos
None
Opções
Exemplos
O exemplo a seguir migra o pacote atual para usar o mecanismo de implantação direta:
databricks bundle deployment migrate
implantação de pacote do databricks desassociada
Remova o vínculo entre o recurso em um pacote e seu equivalente remoto em um workspace.
databricks bundle deployment unbind KEY [flags]
Argumentos
KEY
A chave do recurso que deve ser desassociada
Opções
--force-lock
Forçar a aquisição do bloqueio de implantação.
Exemplos
O exemplo a seguir desassocia o hello_job recurso:
databricks bundle deployment unbind hello_job
destruição do pacote do databricks
Warning
A destruição de um pacote exclui permanentemente os trabalhos, pipelines e artefatos implantados anteriormente de um pacote. Essa ação não pode ser desfeita.
Exclua trabalhos, pipelines, outros recursos e artefatos que foram implantados anteriormente.
databricks bundle destroy [flags]
Note
A identidade de um pacote é composta pelo nome do pacote, pelo destino do pacote e pelo workspace. Se você tiver alterado qualquer um deles e tentar destruir um pacote antes da implantação, ocorrerá um erro.
Por padrão, você será solicitado a confirmar a exclusão permanente dos trabalhos, pipelines e artefatos implantados anteriormente. Para ignorar esses prompts e executar a exclusão permanente automática, adicione a opção --auto-approve ao comando bundle destroy.
Opções
--auto-approve
Ignorar aprovações interativas para excluir recursos e arquivos
--force-lock
Forçar a aquisição do bloqueio de implantação.
Exemplos
O comando a seguir exclui todos os recursos e artefatos implantados anteriormente definidos nos arquivos de configuração do pacote:
databricks bundle destroy
geração de pacote do databricks
Gere a configuração do pacote para um recurso que já existe no workspace do Databricks. Há suporte para os seguintes recursos: aplicativo, painel, trabalho, pipeline.
Por padrão, esse comando gera um arquivo *.yml do recurso na pasta resources do projeto do pacote e também baixa todos os arquivos, como notebooks, referenciados na configuração.
Important
O comando bundle generate é fornecido como uma conveniência para gerar automaticamente a configuração de recursos. No entanto, se o pacote incluir a configuração de recursos e você implantá-la, o Azure Databricks criará um novo recurso em vez de atualizar o existente. Para atualizar um recurso existente, você deve usar o --bind flag com bundle generate ou executar o bundle deployment bind antes de implantar. Consulte a associação de implantação do pacote do Databricks.
databricks bundle generate [command]
Comandos disponíveis
-
app– Gerar configuração de pacote para um aplicativo do Databricks. -
dashboard– Gerar configuração para um painel. -
job– Gerar configuração de pacote para um trabalho. -
pipeline– Gerar configuração de pacote para um pipeline.
Opções
--key string
Chave de recurso a ser usada para a configuração gerada
gerar o aplicativo de pacote do databricks
Gere a configuração do pacote para um aplicativo Databricks existente no workspace.
databricks bundle generate app [flags]
Opções
--bind
Associe automaticamente o recurso gerado ao existente no workspace.
-d, --config-dir string
Caminho do diretório em que a configuração do pacote de saída será armazenada (padrão "recursos")
--existing-app-name string
Nome do aplicativo para gerar configuração
-f, --force
Forçar a substituição de arquivos existentes no diretório de saída
-s, --source-dir string
Caminho do diretório em que os arquivos do aplicativo serão armazenados (padrão "src/app")
Exemplos
O exemplo a seguir gera configuração para um aplicativo existente chamado my-app. Você pode obter o nome do aplicativo na guia Compute>Apps da UI do espaço de trabalho.
databricks bundle generate app --existing-app-name my-app
O comando a seguir gera um novo hello_world.app.yml arquivo na pasta de projeto do resources pacote e baixa os arquivos de código do aplicativo, como o arquivo app.yaml de configuração de comando do aplicativo e principal app.py. Por padrão, os arquivos de código são copiados para a pasta do src pacote.
databricks bundle generate app --existing-app-name "hello_world"
# This is the contents of the resulting /resources/hello-world.app.yml file.
resources:
apps:
hello_world:
name: hello-world
description: A basic starter application.
source_code_path: ../src/app
painel de geração de pacote do databricks
Gerar configuração para um painel existente no workspace.
databricks bundle generate dashboard [flags]
Tip
Para atualizar o arquivo depois de já ter implantado .lvdash.json um painel, use a --resource opção ao executar bundle generate dashboard para gerar esse arquivo para o recurso de painel existente. Para sondar e recuperar continuamente as atualizações de um painel, use as opções --force e --watch.
Opções
--bind
Associe automaticamente o recurso gerado ao existente no workspace.
-s, --dashboard-dir string
Diretório para gravar a representação do painel (padrão "src")
--existing-id string
ID do painel para gerar a configuração para
--existing-path string
Caminho do workspace do painel para gerar a configuração para
-f, --force
Forçar a substituição de arquivos existentes no diretório de saída
--resource string
Chave de recurso do painel para observar as alterações
-d, --resource-dir string
Diretório para gravar a configuração (padrão "recursos")
--watch
Observe as alterações no painel e atualize a configuração
Exemplos
O exemplo a seguir gera a configuração por uma ID de painel existente:
databricks bundle generate dashboard --existing-id abc123
Você também pode gerar a configuração para um painel existente por caminho de workspace. Copie o caminho do workspace para um dashboard da interface do usuário do workspace.
Por exemplo, o comando a seguir gera um novo arquivo baby_gender_by_county.dashboard.yml na pasta do projeto resources do pacote, que contém o YAML abaixo, e faz o download do arquivo baby_gender_by_county.lvdash.json para a pasta do projeto src.
databricks bundle generate dashboard --existing-path "/Workspace/Users/someone@example.com/baby_gender_by_county.lvdash.json"
# This is the contents of the resulting baby_gender_by_county.dashboard.yml file.
resources:
dashboards:
baby_gender_by_county:
display_name: 'Baby gender by county'
warehouse_id: aae11o8e6fe9zz79
file_path: ../src/baby_gender_by_county.lvdash.json
trabalho de geração de pacote do databricks
Gerar configuração de pacote para um trabalho.
Note
Atualmente, somente trabalhos com tarefas de notebook são compatíveis com esse comando.
databricks bundle generate job [flags]
Opções
--bind
Associe automaticamente o recurso gerado ao existente no workspace.
-d, --config-dir string
Caminho dir em que a configuração de saída será armazenada (padrão "recursos")
--existing-job-id int
ID do trabalho para gerar configuração
-f, --force
Forçar a substituição de arquivos existentes no diretório de saída
-s, --source-dir string
Caminho dir em que os arquivos baixados serão armazenados (padrão "src")
Exemplos
O exemplo a seguir gera um novo hello_job.yml arquivo na pasta de projeto do resources pacote que contém o YAML abaixo e baixa a simple_notebook.py pasta do src projeto. Ele também associa o recurso gerado ao trabalho existente no workspace.
databricks bundle generate job --existing-job-id 6565621249 --bind
# This is the contents of the resulting hello_job.yml file.
resources:
jobs:
hello_job:
name: 'Hello Job'
tasks:
- task_key: run_notebook
email_notifications: {}
notebook_task:
notebook_path: ../src/simple_notebook.py
source: WORKSPACE
run_if: ALL_SUCCESS
max_concurrent_runs: 1
pipeline de geração de pacote do databricks
Gerar configuração de pacote para um pipeline.
databricks bundle generate pipeline [flags]
Opções
--bind
Associe automaticamente o recurso gerado ao existente no workspace.
-d, --config-dir string
Caminho dir em que a configuração de saída será armazenada (padrão "recursos")
--existing-pipeline-id string
ID do pipeline para gerar configuração para
-f, --force
Forçar a substituição de arquivos existentes no diretório de saída
-s, --source-dir string
Caminho dir em que os arquivos baixados serão armazenados (padrão "src")
Exemplos
O exemplo a seguir gera configuração para um pipeline existente:
databricks bundle generate pipeline --existing-pipeline-id abc-123-def
databricks bundle init
Inicialize um novo pacote usando um modelo de pacote. Os modelos podem ser configurados para solicitar valores ao usuário. Confira Modelos de projetos do Pacote de Ativos do Databricks.
databricks bundle init [TEMPLATE_PATH] [flags]
Argumentos
TEMPLATE_PATH
Modelo a ser usado para inicialização (opcional)
Opções
--branch string
Branch do Git a ser usado para inicialização de modelo
--config-file string
Arquivo JSON que contém pares chave-valor de parâmetros de entrada necessários para inicialização de modelo.
--output-dir string
Diretório para o qual gravar o modelo inicializado.
--tag string
Marca git a ser usada para inicialização de modelo
--template-dir string
Caminho do diretório em um repositório Git que contém o modelo.
Exemplos
O exemplo a seguir solicita uma lista de modelos de pacote padrão dos quais escolher:
databricks bundle init
O exemplo a seguir inicializa um pacote usando o modelo padrão do Python:
databricks bundle init default-python
Para criar um Pacote de Ativos do Databricks usando um modelo personalizado do Pacote de Ativos do Databricks, especifique o caminho do modelo personalizado:
databricks bundle init <project-template-local-path-or-url> \
--project-dir="</local/path/to/project/template/output>"
O exemplo a seguir inicializa um pacote de um repositório Git:
databricks bundle init https://github.com/my/repository
O exemplo a seguir inicializa com um branch específico:
databricks bundle init --branch main
pacote do databricks aberto
Navegue até um recurso de pacote no workspace, especificando o recurso a ser aberto. Se uma chave de recurso não for especificada, esse comando gerará uma lista dos recursos do pacote a partir do qual escolher.
databricks bundle open [flags]
Opções
--force-pull
Ignorar o cache local e carregar o estado do workspace remoto
Exemplos
O exemplo a seguir inicia um navegador e navega até o baby_gender_by_county painel no pacote no workspace do Databricks configurado para o pacote:
databricks bundle open baby_gender_by_county
plano do pacote Databricks
Mostrar o plano de implantação para a configuração do pacote atual.
Esse comando cria o pacote e exibe as ações que serão executadas em recursos que seriam implantados, sem fazer nenhuma alteração. Isso permite que você visualize as alterações antes de executar bundle deploy.
databricks bundle plan [flags]
Opções
-c, --cluster-id string
Substitua o cluster na implantação com a ID de cluster fornecida.
--force
Forçar a substituição da validação do branch git.
Exemplos
O exemplo a seguir gera o plano de implantação para um pacote que cria uma roda do Python e define um trabalho e um pipeline:
databricks bundle plan
Building python_artifact...
create jobs.my_bundle_job
create pipelines.my_bundle_pipeline
Execução do pacote do databricks
Execute um trabalho, pipeline ou script. Se você não especificar um recurso, o comando solicitará a escolha de trabalhos, pipelines e scripts definidos. Como alternativa, especifique a chave de trabalho ou de pipeline ou o nome do script declarado nos arquivos de configuração do conjunto.
databricks bundle run [flags] [KEY]
Validar uma linha de processamento
Se você quiser fazer uma validação de pipeline, use a opção --validate-only, conforme mostrado no exemplo a seguir:
databricks bundle run --validate-only my_pipeline
Passar parâmetros de trabalho
Para passar parâmetros de trabalho, use a opção --params, seguida por pares chave-valor separados por vírgulas, em que a chave é o nome do parâmetro. Por exemplo, o comando a seguir define o parâmetro com o nome message como HelloWorld para o trabalho hello_job:
databricks bundle run --params message=HelloWorld hello_job
Note
Conforme mostrado nos exemplos a seguir, você pode passar parâmetros para tarefas de trabalho usando as opções de tarefa de trabalho, mas a opção --params é o método recomendado para passar parâmetros de trabalho. Ocorrerá um erro se os parâmetros de trabalho forem especificados para um trabalho que não tenha parâmetros de trabalho definidos ou se os parâmetros de tarefa forem especificados para um trabalho que tenha parâmetros de trabalho definidos.
Você também pode especificar palavras-chave ou argumentos posicionais. Se o trabalho especificado usar parâmetros de trabalho ou se o trabalho tiver uma tarefa de notebook com parâmetros, os nomes de sinalizador serão mapeados para os nomes dos parâmetros:
databricks bundle run hello_job -- --key1 value1 --key2 value2
Ou se o trabalho especificado não usa parâmetros de trabalho e o trabalho tem uma tarefa de arquivo Python ou uma tarefa de roda do Python:
databricks bundle run my_job -- value1 value2 value3
Para obter um exemplo de definição de trabalho com parâmetros, consulte Trabalho com parâmetros.
Executar scripts
Para executar scripts como testes de integração com as credenciais de autenticação configuradas de um pacote, você pode executar scripts embutidos ou executar um script definido na configuração do pacote. Os scripts são executados usando o mesmo contexto de autenticação configurado no pacote.
Acrescente um hífen duplo (
--) apósbundle runpara executar scripts inline. Por exemplo, o comando a seguir gera o diretório de trabalho atual do usuário atual:databricks bundle run -- python3 -c 'import os; print(os.getcwd())'Como alternativa, defina um script dentro do
scriptsmapeamento na configuração do pacote e, em seguida, usebundle runpara executar o script:scripts: my_script: content: python3 -c 'import os; print(os.getcwd())'databricks bundle run my_scriptPara obter mais informações sobre
scriptsconfiguração, consulte scripts e scripts.
As informações de autenticação do bundle são passadas para processos-filhos usando variáveis de ambiente. Consulte a autenticação unificada do Databricks.
Argumentos
KEY
O identificador exclusivo do recurso a ser executado (opcional)
Opções
--no-wait
Não aguarde a conclusão da execução.
--restart
Reinicie a execução se ela já estiver em execução.
Sinalizadores de trabalho
Os sinalizadores a seguir são sinalizadores de parâmetro no nível do trabalho. Consulte Configurar parâmetros do trabalho.
--params stringToString
pares k=v separados por vírgulas para parâmetros de trabalho (padrão [])
Sinalizadores de tarefa de trabalho
Os sinalizadores a seguir são sinalizadores de parâmetro no nível da tarefa. Consulte Configurar parâmetros de tarefa. O Databricks recomenda usar parâmetros de nível de trabalho (--params) em parâmetros de nível de tarefa.
--dbt-commands strings
Uma lista de comandos a serem executados para trabalhos com tarefas DBT.
--jar-params strings
Uma lista de parâmetros para trabalhos com tarefas JAR do Spark.
--notebook-params stringToString
Um mapa de chaves para valores para trabalhos com tarefas de notebook. (padrão [])
--pipeline-params stringToString
Um mapa de chaves para valores para trabalhos com tarefas de pipeline. (padrão [])
--python-named-params stringToString
Um mapa de chaves para valores para trabalhos com tarefas de roda do Python. (padrão [])
--python-params strings
Uma lista de parâmetros para trabalhos com tarefas do Python.
--spark-submit-params strings
Uma lista de parâmetros para trabalhos com tarefas de envio do Spark.
--sql-params stringToString
Um mapa de chaves para valores para trabalhos com tarefas SQL. (padrão [])
Sinalizadores de pipeline
Os sinalizadores a seguir são sinalizadores de pipeline.
--full-refresh strings
Lista de tabelas a serem redefinidas e recomputadas.
--full-refresh-all
Execute uma redefinição completa do grafo e recompute.
--refresh strings
Lista de tabelas a serem atualizadas.
--refresh-all
Execute uma atualização completa do grafo.
--validate-only
Execute uma atualização para validar a correção do grafo.
Exemplos
O exemplo a seguir executa um trabalho hello_job no destino padrão:
databricks bundle run hello_job
O exemplo a seguir executa um trabalho hello_job no contexto de um destino declarado com o nome dev:
databricks bundle run -t dev hello_job
O exemplo a seguir cancela e reinicia uma execução de trabalho existente:
databricks bundle run --restart hello_job
O exemplo a seguir executa um pipeline com atualização completa:
databricks bundle run my_pipeline --full-refresh-all
O exemplo a seguir executa um comando no contexto do pacote:
databricks bundle run -- echo "hello, world"
Esquema de pacote do databricks
Exiba o Esquema JSON para a configuração do pacote.
databricks bundle schema [flags]
Opções
Exemplos
O exemplo a seguir gera o esquema JSON para a configuração do pacote:
databricks bundle schema
Para gerar o esquema de configuração de pacote como um arquivo JSON, execute o bundle schema comando e redirecione a saída para um arquivo JSON. Por exemplo, você pode gerar um arquivo nomeado bundle_config_schema.json no diretório atual:
databricks bundle schema > bundle_config_schema.json
resumo do pacote do databricks
Gere um resumo da identidade e dos recursos de um pacote, incluindo links profundos para recursos para que você possa navegar facilmente até o recurso no workspace do Databricks.
databricks bundle summary [flags]
Tip
Você também pode usar bundle open para navegar até um recurso no workspace do Databricks. Veja o pacote do Databricks aberto.
Opções
--force-pull
Ignorar o cache local e carregar o estado do workspace remoto
Exemplos
O exemplo a seguir gera um resumo dos recursos implantados de um pacote:
databricks bundle summary
A saída a seguir é o resumo de um pacote nomeado my_pipeline_bundle que define um trabalho e um pipeline:
Name: my_pipeline_bundle
Target: dev
Workspace:
Host: https://myworkspace.cloud.databricks.com
User: someone@example.com
Path: /Users/someone@example.com/.bundle/my_pipeline/dev
Resources:
Jobs:
my_project_job:
Name: [dev someone] my_project_job
URL: https://myworkspace.cloud.databricks.com/jobs/206000809187888?o=6051000018419999
Pipelines:
my_project_pipeline:
Name: [dev someone] my_project_pipeline
URL: https://myworkspace.cloud.databricks.com/pipelines/7f559fd5-zztz-47fa-aa5c-c6bf034b4f58?o=6051000018419999
sincronização de pacotes do databricks
Execute uma sincronização unidirecional das alterações de arquivo de um pacote em um diretório de sistema de arquivos local para um diretório dentro de um workspace remoto do Azure Databricks.
Note
Os comandos bundle sync não podem sincronizar alterações de arquivo de um diretório em um workspace remoto do Azure Databricks, de volta para um diretório dentro de um sistema de arquivos local.
databricks bundle sync [flags]
Os comandos databricks bundle sync funcionam da mesma forma que os comandos databricks sync e são fornecidos como uma conveniência de produtividade. Para obter informações sobre o uso de comando, consulte sync comando.
Opções
--dry-run
Simular a execução da sincronização sem fazer alterações reais
--full
Executar sincronização completa (o padrão é incremental)
--interval duration
Intervalo de sondagem do sistema de arquivos (para --watch) (padrão 1s)
--output type
Tipo do formato de saída
--watch
Monitorar o sistema de arquivos local para mudanças
Exemplos
O exemplo a seguir executa uma sincronização de execução seca:
databricks bundle sync --dry-run
O exemplo a seguir observa as alterações e sincronizações automaticamente:
databricks bundle sync --watch
O exemplo a seguir executa uma sincronização completa:
databricks bundle sync --full
validar o pacote do databricks
Os arquivos de configuração do pacote de validação estão sintaticamente corretos.
databricks bundle validate [flags]
Por padrão, esse comando retorna um resumo da identidade do pacote.
Name: MyBundle
Target: dev
Workspace:
Host: https://my-host.cloud.databricks.com
User: someone@example.com
Path: /Users/someone@example.com/.bundle/MyBundle/dev
Validation OK!
Note
O bundle validate comando gera avisos se as propriedades do recurso são definidas nos arquivos de configuração de pacote que não são encontrados no esquema do objeto correspondente.
Se você quiser apenas gerar um resumo da identidade e dos recursos do pacote, use o resumo do pacote.
Opções
Exemplos
O exemplo a seguir valida a configuração do pacote:
databricks bundle validate
Sinalizadores globais
--debug
Optar por habilitar o registro de log de depuração.
-h ou --help
Exiba ajuda para a CLI do Databricks ou o grupo de comandos relacionado ou o comando relacionado.
--log-file corda
Uma cadeia de caracteres que representa o arquivo onde serão gravados os logs de saída. Se esse sinalizador não for especificado, o padrão será gravar logs de saída no stderr.
--log-format formato
O tipo de formato de log, text ou json. O valor padrão é text.
--log-level corda
Uma cadeia de caracteres que representa o nível de formato de log. Se não for especificado, o nível de formato de log será desabilitado.
-o, --output tipo
O tipo de saída do comando, text ou json. O valor padrão é text.
-p, --profile corda
O nome do perfil no arquivo ~/.databrickscfg, que deverá ser usado para executar o comando. Se esse sinalizador não for especificado, se existir, o perfil nomeado DEFAULT será usado.
--progress-format formato
O formato para exibir logs de progresso: default, append, inplace ou json
-t, --target corda
Se aplicável, o destino do pacote a ser usado
--var strings
definir valores para variáveis definidas na configuração do pacote. Exemplo: --var="foo=bar"